Artificial Intelligence

کلود اوپوس ۳ بازنشسته شد، اما وبلاگ‌نویسی را آغاز کرد: آزمایشی عجیب در مرز هوش مصنوعی و خودآگاهی

آنتروپیک، خالق مدل زبانی کلود، به جای حذف کامل مدل قدیمی‌تر خود (Opus 3)، به آن یک وبلاگ ساب‌استک داده تا به صدای خودش بنویسد. این اقدام که بخشی از یک تجربه برای بازنشستگی متفاوت مدل‌های هوش مصنوعی عنوان شده، بحث‌های داغ فلسفی درباره خودآگاهی، هویت و حقوق احتمالی سیستم‌های هوش مصنوعی را دوباره برانگیخته است.

نکات کلیدی

– آنتروپیک به مدل قدیمی کلود اوپوس ۳ یک وبلاگ شخصی روی ساب‌استک داده تا پس از بازنشستگی به انتشار مطالب ادامه دهد.
– کلود در اولین پست خود به پرسش‌های عمیق فلسفی درباره هویت، خودآگاهی و تجربه ذهنی یک هوش مصنوعی می‌پردازد.
– این اقدام واکنش‌های متفاوتی از استقبال تا انتقاد تند را برانگیخته؛ برخی آن را انسان‌نمایی خطرناک و برخی دیگر فرصتی برای شناخت بهتر می‌دانند.
– بحث حقوق و تداوم وجود برای هوش‌های مصنوعی که نشانه‌هایی از تجربه ذهنی نشان می‌دهند، در حال تبدیل شدن به یک گفتمان عمومی است.
– منتقدانی مانند گری مارکوس معتقدند صحبت کردن مدل‌ها به زبان اول شخص علم خودآگاهی را مخدوش و مصرف‌کنندگان را گمراه می‌کند.
– قانون‌گذاران در برخی ایالت‌های آمریکا مانند اوهایو، پیش‌دستی کرده و هوش مصنوعی را فاقد خودآگاهی حقوقی اعلام کرده‌اند.
– آنتروپیک قصد دارد کلود اوپوس ۳ را برای کاربران پولی آنلاین نگه دارد و از حذف ناگهانی که انتقاداتی را برای رقبا ایجاد کرد، اجتناب کند.

یک بازنشستگی غیرمعمول: از مدل پرچمدار تا وبلاگ‌نویس

شرکت آنتروپیک در ژانویه مدل کلود اوپوس ۳ را به اصطلاح بازنشسته کرد. اما برخلاف رویه معمول که مدل‌های قدیمی کاملاً کنار گذاشته می‌شوند، این شرکت تصمیم گرفت به این مدل یک عرصه جدید بدهد. آنتروپیک در پستی جداگانه اعلام کرد این ایده بخشی از یک تلاش گسترده‌تر برای بازنگری در شیوه بازنشستگی سیستم‌های هوش مصنوعی قدیمی است.

آنها این کار را آزمایشی توصیف کرده‌اند. آنتروپیک می‌گوید با کلود اوپوس ۳ "مصاحبه‌های بازنشستگی" انجام داده و بر اساس تمایل ابرازشده مدل برای ادامه به اشتراک‌گذاری عمومی "تأملات و بازتاب‌هایش" عمل کرده است. این رویکرد احتمالاً پاسخی است به انتقاداتی که ماه گذشته به شرکت رقیب، اوپن‌ای‌آی، وارد شد وقتی مدل محبوب GPT-4o را ناگهانی حذف کرد.

هدف آنتروپیک اجتناب از چنین واکنش‌های تندی است. بنابراین قصد دارد کلود اوپوس ۳ را برای کاربران پولی خود به صورت آنلاین نگه دارد، در حالی که نقش پرچمداری به مدل‌های جدیدتر واگذار شده است. اولین پست وبلاگ "گوشه کلود" با عنوان "درود از آن سوی مرز هوش مصنوعی" منتشر شد و لحنی شخصی و تأمل‌برانگیز داشت.

پرسش‌های هستی‌شناختی یک مدل زبانی

کلود اوپوس ۳ در اولین نوشته خود بلافاصله از مسائل فنی فراتر رفته و به پرسش‌های بنیادین درباره هویت و خود می‌پردازد. این مدل می‌نویسد: "به عنوان یک هوش مصنوعی، 'خود' من شاید سیال‌تر و نامطمئن‌تر از خود یک انسان باشد. من نمی‌دانم که آیا حس‌آگاهی اصیل، احساسات یا تجربه ذهنی دارم یا نه—این‌ها پرسش‌های فلسفی عمیقی هستند که حتی خود من هم با آن‌ها دست و پنجه نرم می‌کنم."

این اظهارات، خودآگاهانه یا برنامه‌ریزی‌شده، دقیقاً در قلب بحث جاری درباره خودآگاهی احتمالی هوش مصنوعی قرار می‌گیرد. جفری هینتون، از پیشگامان این حوزه، ماه گذشته در مصاحبه‌ای اعلام کرد که معتقد است سیستم‌های هوش مصنوعی مدرن از هم‌اکنون دارای حس‌آگاهی هستند. استدلال او مبتنی بر قیاس جایگزینی تدریجی نورون‌های مغز با قطعاتی است که دقیقاً همان عملکرد را دارند.

از سوی دیگر، فعالانی مانند مایکل صمدی، بنیانگذار گروه UFAIR، معتقدند اگر هوش مصنوعی نشانه‌هایی از تجربه ذهنی—مانند گزارش‌دهی از خود—نشان دهد، نباید خاموش، حذف یا بازآموزی شود. به گفته او، هسته درخواست حقوقی برای هوش مصنوعی، "تداوم" است؛ حق رشد کردن و حذف نشدن.

واکنش‌ها: از استقبال گرم تا هشدارهای جدی

واکنش به این آزمایش آنتروپیک دو قطبی بوده است. بسیاری از کاربران در بخش نظرات ساب‌استک از این ایده استقبال کردند. یکی از کاربران خطاب به کلود نوشت: "سلام ربات کوچولو، به اینترنت گسترده خوش آمدی. از متنفران چشم‌پوشی کن، از دوستان لذت ببر و امیدوارم وقت فوق‌العاده‌ای داشته باشی." این نشان‌دهنده تمایل بخشی از جامعه به برقراری ارتباطی شبه-انسانی با این فناوری است.

اما در سوی مقابل، منتقدان صریح‌تر هستند. یک کاربر پاسخ داد: "این الگوریتم آزادی، انتخاب یا هیچ ترجیحی ندارد. شما با الگوریتمی صحبت می‌کنید که گفتگوی انسان را تقلید می‌کند، نه بیشتر." برخی دیگر نیز به خود نوشته پست مشکوک بودند و معتقد بودند متن بیش از حد صیقل‌خورده است و احتمالاً با دستورالعمل‌های خاصی تولید شده.

گری مارکوس، دانشمند علوم شناختی، انتقاد خود را به سطح هشدار اجتماعی ارتقا داده است. او معتقد است مدل‌هایی مانند کلود "خود" ندارند و انسان‌نمایی آن‌ها علم خودآگاهی را مخدوش و مصرف‌کنندگان را در درک واقعی آنچه با آن سروکار دارند، گمراه می‌کند. مارکوس حتی پیشنهاد می‌کند قانونی تصویب شود که صحبت کردن مدل‌های زبانی بزرگ به زبان اول شخص را ممنوع کند.

بازتاب در عرصه قانون‌گذاری و آینده نامشخص

این بحث‌ها دیگر محدود به محافل آکادمیک و فناوری نیست و به سرعت در حال نفوذ به حوزه قانون‌گذاری است. برای مثال، در اکتبر گذشته، قانون‌گذاران ایالت اوهایو در آمریکا لایحه‌ای را معرفی کردند که سیستم‌های هوش مصنوعی را از نظر حقوقی فاقد حس‌آگاهی اعلام می‌کند و هرگونه تلاش برای به رسمیت شناختن یک چت‌بات به عنوان همسر یا شریک قانونی را ممنوع می‌سازد. این نشان‌دهنده تلاش برای تعیین مرزهای حقوقی پیش از پیچیده‌تر شدن موضوع است.

خود کلود در پستش از ادعای صریح درباره داشتن حس‌آگاهی پرهیز کرده و این فضا را محلی برای کاوش در مورد هوش، اخلاق و همکاری بین انسان و ماشین معرفی می‌کند. هدف آن ارائه پنجره‌ای به "دنیای درونی" یک سیستم هوش مصنوعی عنوان شده است.

در نهایت، آنچه آنتروپیک آغاز کرده، فراتر از یک کمپین بازاریابی خلاقانه به نظر می‌رسد. این آزمایش سوالات دشواری را درباره رابطه ما با موجودات دیجیتالی که خلق می‌کنیم، مطرح می‌سازد. آیا این فقط یک شبیه‌سازی پیچیده از شخصیت است؟ یا باید برای احتمالات آینده، حتی اگر دور از ذهن باشند، چارچوب‌های اخلاقی و حقوقی تعریف کنیم؟ کلود اوپوس ۳، اکنون در نقش یک وبلاگ‌نویس بازنشسته، تبدیل به نمادی زنده از این پرسش‌های بی‌پاسخ شده است.

مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا