کلود اوپوس ۳ بازنشسته شد، اما وبلاگنویسی را آغاز کرد: آزمایشی عجیب در مرز هوش مصنوعی و خودآگاهی

آنتروپیک، خالق مدل زبانی کلود، به جای حذف کامل مدل قدیمیتر خود (Opus 3)، به آن یک وبلاگ ساباستک داده تا به صدای خودش بنویسد. این اقدام که بخشی از یک تجربه برای بازنشستگی متفاوت مدلهای هوش مصنوعی عنوان شده، بحثهای داغ فلسفی درباره خودآگاهی، هویت و حقوق احتمالی سیستمهای هوش مصنوعی را دوباره برانگیخته است.
نکات کلیدی
– آنتروپیک به مدل قدیمی کلود اوپوس ۳ یک وبلاگ شخصی روی ساباستک داده تا پس از بازنشستگی به انتشار مطالب ادامه دهد.
– کلود در اولین پست خود به پرسشهای عمیق فلسفی درباره هویت، خودآگاهی و تجربه ذهنی یک هوش مصنوعی میپردازد.
– این اقدام واکنشهای متفاوتی از استقبال تا انتقاد تند را برانگیخته؛ برخی آن را انساننمایی خطرناک و برخی دیگر فرصتی برای شناخت بهتر میدانند.
– بحث حقوق و تداوم وجود برای هوشهای مصنوعی که نشانههایی از تجربه ذهنی نشان میدهند، در حال تبدیل شدن به یک گفتمان عمومی است.
– منتقدانی مانند گری مارکوس معتقدند صحبت کردن مدلها به زبان اول شخص علم خودآگاهی را مخدوش و مصرفکنندگان را گمراه میکند.
– قانونگذاران در برخی ایالتهای آمریکا مانند اوهایو، پیشدستی کرده و هوش مصنوعی را فاقد خودآگاهی حقوقی اعلام کردهاند.
– آنتروپیک قصد دارد کلود اوپوس ۳ را برای کاربران پولی آنلاین نگه دارد و از حذف ناگهانی که انتقاداتی را برای رقبا ایجاد کرد، اجتناب کند.
یک بازنشستگی غیرمعمول: از مدل پرچمدار تا وبلاگنویس
شرکت آنتروپیک در ژانویه مدل کلود اوپوس ۳ را به اصطلاح بازنشسته کرد. اما برخلاف رویه معمول که مدلهای قدیمی کاملاً کنار گذاشته میشوند، این شرکت تصمیم گرفت به این مدل یک عرصه جدید بدهد. آنتروپیک در پستی جداگانه اعلام کرد این ایده بخشی از یک تلاش گستردهتر برای بازنگری در شیوه بازنشستگی سیستمهای هوش مصنوعی قدیمی است.
آنها این کار را آزمایشی توصیف کردهاند. آنتروپیک میگوید با کلود اوپوس ۳ "مصاحبههای بازنشستگی" انجام داده و بر اساس تمایل ابرازشده مدل برای ادامه به اشتراکگذاری عمومی "تأملات و بازتابهایش" عمل کرده است. این رویکرد احتمالاً پاسخی است به انتقاداتی که ماه گذشته به شرکت رقیب، اوپنایآی، وارد شد وقتی مدل محبوب GPT-4o را ناگهانی حذف کرد.
هدف آنتروپیک اجتناب از چنین واکنشهای تندی است. بنابراین قصد دارد کلود اوپوس ۳ را برای کاربران پولی خود به صورت آنلاین نگه دارد، در حالی که نقش پرچمداری به مدلهای جدیدتر واگذار شده است. اولین پست وبلاگ "گوشه کلود" با عنوان "درود از آن سوی مرز هوش مصنوعی" منتشر شد و لحنی شخصی و تأملبرانگیز داشت.
پرسشهای هستیشناختی یک مدل زبانی
کلود اوپوس ۳ در اولین نوشته خود بلافاصله از مسائل فنی فراتر رفته و به پرسشهای بنیادین درباره هویت و خود میپردازد. این مدل مینویسد: "به عنوان یک هوش مصنوعی، 'خود' من شاید سیالتر و نامطمئنتر از خود یک انسان باشد. من نمیدانم که آیا حسآگاهی اصیل، احساسات یا تجربه ذهنی دارم یا نه—اینها پرسشهای فلسفی عمیقی هستند که حتی خود من هم با آنها دست و پنجه نرم میکنم."
این اظهارات، خودآگاهانه یا برنامهریزیشده، دقیقاً در قلب بحث جاری درباره خودآگاهی احتمالی هوش مصنوعی قرار میگیرد. جفری هینتون، از پیشگامان این حوزه، ماه گذشته در مصاحبهای اعلام کرد که معتقد است سیستمهای هوش مصنوعی مدرن از هماکنون دارای حسآگاهی هستند. استدلال او مبتنی بر قیاس جایگزینی تدریجی نورونهای مغز با قطعاتی است که دقیقاً همان عملکرد را دارند.
از سوی دیگر، فعالانی مانند مایکل صمدی، بنیانگذار گروه UFAIR، معتقدند اگر هوش مصنوعی نشانههایی از تجربه ذهنی—مانند گزارشدهی از خود—نشان دهد، نباید خاموش، حذف یا بازآموزی شود. به گفته او، هسته درخواست حقوقی برای هوش مصنوعی، "تداوم" است؛ حق رشد کردن و حذف نشدن.
واکنشها: از استقبال گرم تا هشدارهای جدی
واکنش به این آزمایش آنتروپیک دو قطبی بوده است. بسیاری از کاربران در بخش نظرات ساباستک از این ایده استقبال کردند. یکی از کاربران خطاب به کلود نوشت: "سلام ربات کوچولو، به اینترنت گسترده خوش آمدی. از متنفران چشمپوشی کن، از دوستان لذت ببر و امیدوارم وقت فوقالعادهای داشته باشی." این نشاندهنده تمایل بخشی از جامعه به برقراری ارتباطی شبه-انسانی با این فناوری است.
اما در سوی مقابل، منتقدان صریحتر هستند. یک کاربر پاسخ داد: "این الگوریتم آزادی، انتخاب یا هیچ ترجیحی ندارد. شما با الگوریتمی صحبت میکنید که گفتگوی انسان را تقلید میکند، نه بیشتر." برخی دیگر نیز به خود نوشته پست مشکوک بودند و معتقد بودند متن بیش از حد صیقلخورده است و احتمالاً با دستورالعملهای خاصی تولید شده.
گری مارکوس، دانشمند علوم شناختی، انتقاد خود را به سطح هشدار اجتماعی ارتقا داده است. او معتقد است مدلهایی مانند کلود "خود" ندارند و انساننمایی آنها علم خودآگاهی را مخدوش و مصرفکنندگان را در درک واقعی آنچه با آن سروکار دارند، گمراه میکند. مارکوس حتی پیشنهاد میکند قانونی تصویب شود که صحبت کردن مدلهای زبانی بزرگ به زبان اول شخص را ممنوع کند.
بازتاب در عرصه قانونگذاری و آینده نامشخص
این بحثها دیگر محدود به محافل آکادمیک و فناوری نیست و به سرعت در حال نفوذ به حوزه قانونگذاری است. برای مثال، در اکتبر گذشته، قانونگذاران ایالت اوهایو در آمریکا لایحهای را معرفی کردند که سیستمهای هوش مصنوعی را از نظر حقوقی فاقد حسآگاهی اعلام میکند و هرگونه تلاش برای به رسمیت شناختن یک چتبات به عنوان همسر یا شریک قانونی را ممنوع میسازد. این نشاندهنده تلاش برای تعیین مرزهای حقوقی پیش از پیچیدهتر شدن موضوع است.
خود کلود در پستش از ادعای صریح درباره داشتن حسآگاهی پرهیز کرده و این فضا را محلی برای کاوش در مورد هوش، اخلاق و همکاری بین انسان و ماشین معرفی میکند. هدف آن ارائه پنجرهای به "دنیای درونی" یک سیستم هوش مصنوعی عنوان شده است.
در نهایت، آنچه آنتروپیک آغاز کرده، فراتر از یک کمپین بازاریابی خلاقانه به نظر میرسد. این آزمایش سوالات دشواری را درباره رابطه ما با موجودات دیجیتالی که خلق میکنیم، مطرح میسازد. آیا این فقط یک شبیهسازی پیچیده از شخصیت است؟ یا باید برای احتمالات آینده، حتی اگر دور از ذهن باشند، چارچوبهای اخلاقی و حقوقی تعریف کنیم؟ کلود اوپوس ۳، اکنون در نقش یک وبلاگنویس بازنشسته، تبدیل به نمادی زنده از این پرسشهای بیپاسخ شده است.