تغییر استراتژی ایمنی: چرا شرکتهای پیشرو هوش مصنوعی از تعهدات سختگیرانه عقبنشینی میکنند؟

بر اساس گزارشها، شرکتهای پیشروی هوش مصنوعی مانند Anthropic و OpenAI در حال حذف یا تعدیل تعهدات سختگیرانه قبلی خود در زمینه ایمنی و توقف توسعه هستند. این تغییرات که همزمان با جذب سرمایههای کلان و رقابت شدید تجاری رخ میدهد، نشاندهنده تحول در گفتمان و اولویتهای این صنعت است. کارشناسان معتقدند این امر بیش از آنکه یک تصمیم تجاری صرف باشد، بازتابی از تغییرات سیاسی، اقتصادی و فکری در فضای حاکم بر هوش مصنوعی است.
نکات کلیدی
– Anthropic تعهد مرکزی خود در «سیاست مقیاسگذاری مسئولانه» مبنی بر توقف آموزش مدلهای پیشرفته در صورت نبود تضمینهای ایمنی را حذف کرده است.
– OpenAI نیز کلمه «ایمن» را از بیانیه مأموریت خود در پرونده مالیاتی ۲۰۲۴ حذف کرده و تمرکز را به سودمندی برای بشریت تغییر داده است.
– این تغییرات همزمان با جذب سرمایههای چند ده میلیارد دلاری و انعقاد قراردادهای دولتی پرسود برای این شرکتها در حال وقوع است.
– کارشناسان میگویند اصطلاح «ایمنی هوش مصنوعی» دیگر تعریف روشن و پذیرفتهشده جهانی ندارد و خود موضوع مناقشه است.
– فشار رقابت اقتصادی و سیاسی، شرکتها را به سمت سیاستهای انعطافپذیرتر و لمسسبکتر مقررات سوق داده است.
– Anthropic درگیر یک مناقشه عمومی با پنتاگون بر سر دسترسی کامل به مدل کلود است و تنها آزمایشگاه بزرگ هوش مصنوعی است که چنین موضعی گرفته است.
– تغییر زبان و سیاستها نشاندهنده یک نقطه عطف در نحوه صحبت شرکتها درباره ریسک، تحت تأثیر فشارهای رقابتی فزاینده است.
عقبگرد از تعهدات سختگیرانه ایمنی
بر اساس گزارش TIME، شرکت Anthropic که توسعهدهنده مدل کلود است، یک تعهد محوری را از «سیاست مقیاسگذاری مسئولانه» خود حذف کرده است. این تغییر در واقع شل کردن تعهدی است که پیش از این، این شرکت را از آموزش سیستمهای هوش مصنوعی پیشرفته بدون وجود تضمینهای ایمنی لازم منع میکرد. این حرکت، جایگاه Anthropic را در رقابت با غولهایی مانند OpenAI، گوگل و xAI بازتعریف میکند.
جرد کاپلان، مدیر ارشد علمی Anthropic، در توجیه این تصمیم به TIME گفت که توقف آموزش مدلهای هوش مصنوعی در واقع به هیچکس کمکی نمیکند. او اشاره کرد که با پیشرفت سریع هوش مصنوعی، منطقی نیست که آنها متعهد به توقف یکجانبه شوند، در حالی که رقبا به سرعت در حال پیشروی هستند. این تغییر در حالی رخ میدهد که Anthropic درگیر یک مناقشه عمومی با پنتاگون بر سر امتناع از اعطای دسترسی کامل به مدل کلود است و در بین آزمایشگاههای بزرگ، تنها شرکتی است که چنین موضعی گرفته است.
تحول در گفتمان «ایمنی هوش مصنوعی»
ادوارد گایست، پژوهشگر ارشد خطمشی در مؤسسه RAND، معتقد است که چارچوب قبلی «ایمنی هوش مصنوعی» از یک جامعه فکری خاص سرچشمه گرفته بود که پیش از ظهور مدلهای زبانی بزرگ امروزی وجود داشت. به گفته او، ایمنی هوش مصنوعی با مجموعهای از دیدگاههای خاص مرتبط بود که از جامعه افرادی نشأت میگرفت که پیش از وجود الالامها، نگران هوش مصنوعی قدرتمند بودند.
گایست به Decrypt گفت که طرفداران اولیه ایمنی هوش مصنوعی، تصور بسیار متفاوتی از شکل هوش مصنوعی پیشرفته داشتند و مسئله را به گونهای مفهومسازی کردند که در برخی جنبهها، چیزی کیفی متفاوت از الالامهای کنونی را تصور میکرد. او تغییر زبان را همچنین نوعی سیگنالدهی به سرمایهگذاران و سیاستگذاران میداند و میگوید بسیاری از این شرکتها میخواهند این تصور را ایجاد کنند که به دلیل نگرانیهای مربوط به «ایمنی هوش مصنوعی»، در رقابت اقتصادی عقب ننشستهاند.
OpenAI نیز مسیر مشابهی را طی میکند
Anthropic در تغییر ادبیات ایمنی خود تنها نیست. گزارش اخیر سازمان خبری غیرانتفاعی The Conversation اشاره کرده که OpenAI نیز در پرونده مالیاتی سال ۲۰۲۴ خود، بیانیه مأموریتش را تغییر داده و کلمه «ایمن» را از آن حذف کرده است. بیانیه قبلی شرکت متعهد به ساخت هوش مصنوعی عمومیمنظورهای بود که «با ایمنی به بشریت سود برساند و محدود به نیاز به ایجاد بازده مالی نباشد».
نسخه بهروزشده اکنون هدف را «اطمینان از اینکه هوش مصنوعی عمومی به نفع همه بشریت است» تعریف میکند. گایست در این باره میگوید مشکل با اصطلاح امنیت هوش مصنوعی این است که به نظر میرسد هیچکس دقیقاً نمیداند معنای آن چیست، اما خود اصطلاح ایمنی هوش مصنوعی نیز مورد مناقشه بوده است. سیاست جدید Anthropic بر روی اقدامات شفافیتساز مانند انتشار «نقشههای راه ایمنی مرزی» و گزارشهای منظم «ریسک» تأکید دارد و میگوید در صورت اعتقاد به ریسک فاجعهبار قابل توجه، توسعه را به تأخیر خواهد انداخت.
رقابت تجاری و سرمایهگذاریهای کلان
تغییر سیاستهای Anthropic و OpenAI در حالی رخ میدهد که این شرکتها در تلاش برای تقویت موقعیت تجاری خود هستند. اوایل همین ماه، Anthropic اعلام کرد که ۳۰ میلیارد دلار با ارزشگذاری حدود ۳۸۰ میلیارد دلار جذب سرمایه کرده است. همزمان، OpenAI در حال نهایی کردن یک دور تأمین مالی با پشتیبانی آمازون، مایکروسافت و انویدیا است که ممکن است به ۱۰۰ میلیارد دلار برسد.
این شرکتها به همراه گوگل و xAI، قراردادهای دولتی پرسودی با وزارت دفاع آمریکا منعقد کردهاند. با این حال، قرارداد Anthropic به دلیل شکایتهای مربوط به دسترسی، در هالهای از ابهام قرار دارد و پنتاگون در حال بررسی قطع همکاری با این شرکت هوش مصنوعی است.
تغییر dynamics سیاسی و نقطه عطف در مدیریت ریسک
حمزه چودری، رهبر حوزه هوش مصنوعی و امنیت ملی در مؤسسه Future of Life، معتقد است که تغییر سیاست بازتاب دینامیکهای سیاسی در حال تغییر است، نه تلاشی برای کسب و کار با پنتاگون. او به Decrypt گفت که اگر اینطور بود، آنها یک هفته پیش در برابر خواسته پنتاگون کوتاه میآمدند و دارئو آمودئی به دیدار نمیرفت.
به جای آن، چودری میگوید بازنویسی سیاستها نشاندهنده یک نقطه عطف در نحوه صحبت شرکتهای هوش مصنوعی درباره ریسک است، در حالی که فشار سیاسی و سهام رقابتی در حال افزایش است. او میگوید Anthropic اکنون میگوید: «ببینید، ما نمیتوانیم به گفتن ایمنی ادامه دهیم، نمیتوانیم به طور نامشروط توقف کنیم و ما برای مقررات با لمس سبکتر فشار خواهیم آورد.» این نشان میدهد که با سرازیر شدن سرمایه به این بخش و تشدید رقابت ژئوپلیتیک، اولویتها در حال تغییر اساسی هستند.