آیا هوش عمومی مصنوعی (AGI) همین حالا رسیده است؟ دیدگاه جنجالی بنیانگذار Eliza Labs

شاو والترز، بنیانگذار Eliza Labs، معتقد است مدلهای پیشروی کنونی هوش مصنوعی از نظر او تعریف هوش عمومی مصنوعی (AGI) را برآورده میکنند. او هشدار میدهد که عاملهای خودکار هوش مصنوعی ریسکهای امنیتی جدی مانند تزریق پرامپت و به خطر افتادن کیف پولها را به همراه دارند. والترز همچنین بر این باور است که هوش مصنوعی کاملاً غیرمتمرکز هنوز وجود ندارد و اجرای محلی نزدیکترین گزینه به آن است.
نکات کلیدی
– شاو والترز، مدیرعامل Eliza Labs، اعلام کرده که مدلهای فعلی هوش مصنوعی از نظر او معیارهای هوش عمومی مصنوعی (AGI) را دارند.
– او هشدار میدهد که عاملهای خودکار هوش مصنوعی ریسکهای امنیتی بزرگی مانند حمله تزریق پرامپت و دسترسی غیرمجاز به کیف پولها ایجاد میکنند.
– والترز معتقد است AGI به شکل یک سیستم واحد و غالب ظهور نخواهد کرد، بلکه در قالب گونههای مختلفی تکامل مییابد.
– پیشرفتهای مدلهایی مانند GPT-4 امکان ساخت عاملهای قابلاطمینانتر را فراهم کرده، اما این عاملها هنوز محدودیتهایی دارند.
– هوش مصنوعی غیرمتمرکز واقعی هنوز محقق نشده و اجرای مدلها روی دستگاههای محلی (Local) نزدیکترین راهحل موجود است.
– با هوشمندتر شدن سیستمها، رفتار آنها کمتر شبیه ماشینهای قابل پیشبینی و بیشتر شبیه انسانهای خطاپذیر میشود.
– پروژههایی مانند OpenClaw و Moltbook نشاندهنده حرکت عاملهای هوش مصنوعی از چتباتهای آزمایشی به سیستمهای پایدار در پلتفرمها هستند.
تعریف جدید از AGI و نقطه عطف کنونی
شاو والترز، بنیانگذار Eliza Labs، در گفتوگو با دیکریپت در جریان رویداد ETHDenver اعلام کرد که به باور او، هوش عمومی مصنوعی یا AGI هماکنون فرا رسیده است. او مدلهای پیشروی کنونی هوش مصنوعی را واجد شرایط این عنوان میداند.
والترز در توضیح این دیدگاه گفت که این سیستمها هوش عمومی هستند، هرچند هیچ شباهتی به هوش انسانی ندارند و به روشی کاملاً متفاوت یاد میگیرند. این اظهارات در تقابل با دیدگاه رایج در جامعه هوش مصنوعی قرار دارد.
بسیاری از رهبران این صنعت، مانند سام آلتمن از OpenAI و داریو آمودئی از Anthropic، پیشبینی کردهاند که AGI احتمالاً در دهه آینده ظهور خواهد کرد. اما والترز با مفهوم ظهور یک سیستم واحد و غالب به عنوان AGI مخالف است.
او معتقد است که طبیعت به تنوع گرایش دارد و بنابراین هرگز یک «خدای هوش مصنوعی» واحد وجود نخواهد داشت. در عوض، شاهد گونهها و نمونههای مختلفی از هوش عمومی خواهیم بود.
سفر از GPT-3 تا عاملهای خودکار امروزی
والترز خاطرهای از روزهای اولیه کار با GPT-3 تعریف کرد، زمانی که خروجیهای ساختاریافته مدل غیرقابلاطمینان بود. او این تجربه را شبیه به گذاشتن چرخهای کمکی برای یک کودک توصیف کرد.
بخش عمدهای از کار مهندسان در آن دوره، صرف وادار کردن مدل به تولید پاسخهای ساختاریافته میشد تا بتوان اقدام موردنظر را از آن استخراج کرد. این یک چالش بزرگ به حساب میآمد.
پیشرفت چشمگیر با عرضه GPT-4 در سال ۲۰۲۳ محقق شد. والترز اشاره کرد که این مدل در ارائه پاسخهای ساختاریافته بسیار بهتر عمل کرد و امکان «فراخوانی اقدام» را به طور واقعی فراهم آورد.
این نقطه عطفی بود که توسعه از حالت «به زوری کار میکند» به سمت «ساخت عاملی که واقعاً کاری انجام میدهد» حرکت کرد. البته این عاملها در آن مرحله هنوز بسیار محدود بودند.
عاملهای هوش مصنوعی: از آزمایشگاه تا قلب اکوسیستم
امروزه عاملهای هوش مصنوعی دیگر چتباتهای آزمایشی ساده نیستند. آنها به سیستمهای پایدار و تعبیهشده در پلتفرمهای مختلف، به ویژه در حوزه رمزارزها و برنامههای مصرفکننده تبدیل شدهاند.
نمونه بارز این تحول، پروژه OpenClaw است که در فوریه به حدود ۱۴۷ هزار ستاره در گیتهاب دست یافت و پروژههای فرعی مانند Moltbook، یک پلتفرم «شبکه اجتماعی» مبتنی بر هوش مصنوعی را به وجود آورد.
در همین راستا، کوینبیس نیز کیف پولهای «عاملی» خود را روی شبکه Base راهاندازی کرد. همچنین Fetch.ai اعلام کرده که عاملهایش میتوانند با استفاده از زیرساختهای ویزا، خریدها را تکمیل کنند.
این ادغام عمیق، به معنای اعطای دسترسی روت و کنترل کیف پولها به عاملهای هوش مصنوعی است. والترز میگوید این موضوع هیجان اولیه را به نگرانیهای امنیتی جدی تبدیل کرده است.
هشدارهای امنیتی: وقتی هوش مصنوعی شبیه انسان میشود
همزمان با تبلیغ مزایای عاملهای هوش مصنوعی در ETHDenver، والترز هشدارهای مهمی را مطرح کرد. او معتقد است با پیشرفت هوش مصنوعی به سمت AGI، رفتار این سیستمها کمتر شبیه یک ماشین قابل پیشبینی و بیشتر شبیه یک انسان خطاپذیر میشود.
این تغییر ماهیت، مهندسی محافظهای ضدخطا را غیرممکن میسازد. والترز در این باره توضیح داد که در نهایت شما با چیزی طرف هستید که بیشتر شبیه انسان است تا یک ماشین حساب.
گاهی اوقات این سیستمها کارهای احمقانهای انجام میدهند و هیچ راهی برای ساخت یک سیستم فوقامن که همیشه آنها را از انجام کارهای نامعقول بازدارد، وجود ندارد. دو ریسک امنیتی عمده که او برجسته کرد، حملات تزریق پرامپت و به خطر افتادن کیف پولها هستند.
آینده غیرمتمرکز و چالش اجرای محلی
یکی دیگر از نکات کلیدی صحبتهای والترز، وضعیت تمرکززدایی در هوش مصنوعی است. او صراحتاً اعلام کرد که هوش مصنوعی کاملاً غیرمتمرکز هنوز وجود ندارد.
در میان گزینههای موجود، اجرای محلی مدلها روی دستگاههای کاربران نزدیکترین حالت به آرمان غیرمتمرکز است. این رویکرد کنترل بیشتری به کاربران میدهد و وابستگی به سرورهای متمرکز را کاهش میدهد.
چارچوب ElizaOS که توسط آزمایشگاههای الیزا توسعه داده شده، به عنوان یکی از اولین فریمورکهای متنباز برای ایجاد عاملهای هوش مصنوعی خودکار برای بلاکچینها شناخته میشود. این پروژه که در سال ۲۰۲۴ با نام ai16z راهاندازی شد، در راستای همین دیدگاه حرکت میکند.
صحبتهای والترز در ETHDenver نهتنها یک ادعای جسورانه درباره زمانبندی رسیدن AGI بود، بلکه مجموعهای از هشدارهای ضروری درباره پیامدهای امنیتی و زیرساختی عصر عاملهای خودکار هوش مصنوعی را نیز در بر میگرفت.