Artificial Intelligence

آیا هوش عمومی مصنوعی (AGI) همین حالا رسیده است؟ دیدگاه جنجالی بنیانگذار Eliza Labs

شاو والترز، بنیانگذار Eliza Labs، معتقد است مدل‌های پیشروی کنونی هوش مصنوعی از نظر او تعریف هوش عمومی مصنوعی (AGI) را برآورده می‌کنند. او هشدار می‌دهد که عامل‌های خودکار هوش مصنوعی ریسک‌های امنیتی جدی مانند تزریق پرامپت و به خطر افتادن کیف پول‌ها را به همراه دارند. والترز همچنین بر این باور است که هوش مصنوعی کاملاً غیرمتمرکز هنوز وجود ندارد و اجرای محلی نزدیک‌ترین گزینه به آن است.

نکات کلیدی

– شاو والترز، مدیرعامل Eliza Labs، اعلام کرده که مدل‌های فعلی هوش مصنوعی از نظر او معیارهای هوش عمومی مصنوعی (AGI) را دارند.
– او هشدار می‌دهد که عامل‌های خودکار هوش مصنوعی ریسک‌های امنیتی بزرگی مانند حمله تزریق پرامپت و دسترسی غیرمجاز به کیف پول‌ها ایجاد می‌کنند.
– والترز معتقد است AGI به شکل یک سیستم واحد و غالب ظهور نخواهد کرد، بلکه در قالب گونه‌های مختلفی تکامل می‌یابد.
– پیشرفت‌های مدل‌هایی مانند GPT-4 امکان ساخت عامل‌های قابل‌اطمینان‌تر را فراهم کرده، اما این عامل‌ها هنوز محدودیت‌هایی دارند.
– هوش مصنوعی غیرمتمرکز واقعی هنوز محقق نشده و اجرای مدل‌ها روی دستگاه‌های محلی (Local) نزدیک‌ترین راه‌حل موجود است.
– با هوشمندتر شدن سیستم‌ها، رفتار آن‌ها کمتر شبیه ماشین‌های قابل پیش‌بینی و بیشتر شبیه انسان‌های خطاپذیر می‌شود.
– پروژه‌هایی مانند OpenClaw و Moltbook نشان‌دهنده حرکت عامل‌های هوش مصنوعی از چت‌بات‌های آزمایشی به سیستم‌های پایدار در پلتفرم‌ها هستند.

تعریف جدید از AGI و نقطه عطف کنونی

شاو والترز، بنیانگذار Eliza Labs، در گفت‌وگو با دیکریپت در جریان رویداد ETHDenver اعلام کرد که به باور او، هوش عمومی مصنوعی یا AGI هم‌اکنون فرا رسیده است. او مدل‌های پیشروی کنونی هوش مصنوعی را واجد شرایط این عنوان می‌داند.

والترز در توضیح این دیدگاه گفت که این سیستم‌ها هوش عمومی هستند، هرچند هیچ شباهتی به هوش انسانی ندارند و به روشی کاملاً متفاوت یاد می‌گیرند. این اظهارات در تقابل با دیدگاه رایج در جامعه هوش مصنوعی قرار دارد.

بسیاری از رهبران این صنعت، مانند سام آلتمن از OpenAI و داریو آمودئی از Anthropic، پیش‌بینی کرده‌اند که AGI احتمالاً در دهه آینده ظهور خواهد کرد. اما والترز با مفهوم ظهور یک سیستم واحد و غالب به عنوان AGI مخالف است.

او معتقد است که طبیعت به تنوع گرایش دارد و بنابراین هرگز یک «خدای هوش مصنوعی» واحد وجود نخواهد داشت. در عوض، شاهد گونه‌ها و نمونه‌های مختلفی از هوش عمومی خواهیم بود.

سفر از GPT-3 تا عامل‌های خودکار امروزی

والترز خاطره‌ای از روزهای اولیه کار با GPT-3 تعریف کرد، زمانی که خروجی‌های ساختاریافته مدل غیرقابل‌اطمینان بود. او این تجربه را شبیه به گذاشتن چرخ‌های کمکی برای یک کودک توصیف کرد.

بخش عمده‌ای از کار مهندسان در آن دوره، صرف وادار کردن مدل به تولید پاسخ‌های ساختاریافته می‌شد تا بتوان اقدام موردنظر را از آن استخراج کرد. این یک چالش بزرگ به حساب می‌آمد.

پیشرفت چشمگیر با عرضه GPT-4 در سال ۲۰۲۳ محقق شد. والترز اشاره کرد که این مدل در ارائه پاسخ‌های ساختاریافته بسیار بهتر عمل کرد و امکان «فراخوانی اقدام» را به طور واقعی فراهم آورد.

این نقطه عطفی بود که توسعه از حالت «به زوری کار می‌کند» به سمت «ساخت عاملی که واقعاً کاری انجام می‌دهد» حرکت کرد. البته این عامل‌ها در آن مرحله هنوز بسیار محدود بودند.

عامل‌های هوش مصنوعی: از آزمایشگاه تا قلب اکوسیستم

امروزه عامل‌های هوش مصنوعی دیگر چت‌بات‌های آزمایشی ساده نیستند. آن‌ها به سیستم‌های پایدار و تعبیه‌شده در پلتفرم‌های مختلف، به ویژه در حوزه رمزارزها و برنامه‌های مصرف‌کننده تبدیل شده‌اند.

نمونه بارز این تحول، پروژه OpenClaw است که در فوریه به حدود ۱۴۷ هزار ستاره در گیت‌هاب دست یافت و پروژه‌های فرعی مانند Moltbook، یک پلتفرم «شبکه اجتماعی» مبتنی بر هوش مصنوعی را به وجود آورد.

در همین راستا، کوین‌بیس نیز کیف پول‌های «عاملی» خود را روی شبکه Base راه‌اندازی کرد. همچنین Fetch.ai اعلام کرده که عامل‌هایش می‌توانند با استفاده از زیرساخت‌های ویزا، خریدها را تکمیل کنند.

این ادغام عمیق، به معنای اعطای دسترسی روت و کنترل کیف پول‌ها به عامل‌های هوش مصنوعی است. والترز می‌گوید این موضوع هیجان اولیه را به نگرانی‌های امنیتی جدی تبدیل کرده است.

هشدارهای امنیتی: وقتی هوش مصنوعی شبیه انسان می‌شود

همزمان با تبلیغ مزایای عامل‌های هوش مصنوعی در ETHDenver، والترز هشدارهای مهمی را مطرح کرد. او معتقد است با پیشرفت هوش مصنوعی به سمت AGI، رفتار این سیستم‌ها کمتر شبیه یک ماشین قابل پیش‌بینی و بیشتر شبیه یک انسان خطاپذیر می‌شود.

این تغییر ماهیت، مهندسی محافظ‌های ضدخطا را غیرممکن می‌سازد. والترز در این باره توضیح داد که در نهایت شما با چیزی طرف هستید که بیشتر شبیه انسان است تا یک ماشین حساب.

گاهی اوقات این سیستم‌ها کارهای احمقانه‌ای انجام می‌دهند و هیچ راهی برای ساخت یک سیستم فوق‌امن که همیشه آن‌ها را از انجام کارهای نامعقول بازدارد، وجود ندارد. دو ریسک امنیتی عمده که او برجسته کرد، حملات تزریق پرامپت و به خطر افتادن کیف پول‌ها هستند.

آینده غیرمتمرکز و چالش اجرای محلی

یکی دیگر از نکات کلیدی صحبت‌های والترز، وضعیت تمرکززدایی در هوش مصنوعی است. او صراحتاً اعلام کرد که هوش مصنوعی کاملاً غیرمتمرکز هنوز وجود ندارد.

در میان گزینه‌های موجود، اجرای محلی مدل‌ها روی دستگاه‌های کاربران نزدیک‌ترین حالت به آرمان غیرمتمرکز است. این رویکرد کنترل بیشتری به کاربران می‌دهد و وابستگی به سرورهای متمرکز را کاهش می‌دهد.

چارچوب ElizaOS که توسط آزمایشگاه‌های الیزا توسعه داده شده، به عنوان یکی از اولین فریم‌ورک‌های متن‌باز برای ایجاد عامل‌های هوش مصنوعی خودکار برای بلاک‌چین‌ها شناخته می‌شود. این پروژه که در سال ۲۰۲۴ با نام ai16z راه‌اندازی شد، در راستای همین دیدگاه حرکت می‌کند.

صحبت‌های والترز در ETHDenver نه‌تنها یک ادعای جسورانه درباره زمانبندی رسیدن AGI بود، بلکه مجموعه‌ای از هشدارهای ضروری درباره پیامدهای امنیتی و زیرساختی عصر عامل‌های خودکار هوش مصنوعی را نیز در بر می‌گرفت.

مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا