Artificial Intelligence

تغییر استراتژی ایمنی: چرا شرکت‌های پیشرو هوش مصنوعی از تعهدات سختگیرانه عقب‌نشینی می‌کنند؟

بر اساس گزارش‌ها، شرکت‌های پیشروی هوش مصنوعی مانند Anthropic و OpenAI در حال حذف یا تعدیل تعهدات سختگیرانه قبلی خود در زمینه ایمنی و توقف توسعه هستند. این تغییرات که همزمان با جذب سرمایه‌های کلان و رقابت شدید تجاری رخ می‌دهد، نشان‌دهنده تحول در گفتمان و اولویت‌های این صنعت است. کارشناسان معتقدند این امر بیش از آنکه یک تصمیم تجاری صرف باشد، بازتابی از تغییرات سیاسی، اقتصادی و فکری در فضای حاکم بر هوش مصنوعی است.

نکات کلیدی

– Anthropic تعهد مرکزی خود در «سیاست مقیاس‌گذاری مسئولانه» مبنی بر توقف آموزش مدل‌های پیشرفته در صورت نبود تضمین‌های ایمنی را حذف کرده است.
– OpenAI نیز کلمه «ایمن» را از بیانیه مأموریت خود در پرونده مالیاتی ۲۰۲۴ حذف کرده و تمرکز را به سودمندی برای بشریت تغییر داده است.
– این تغییرات همزمان با جذب سرمایه‌های چند ده میلیارد دلاری و انعقاد قراردادهای دولتی پرسود برای این شرکت‌ها در حال وقوع است.
– کارشناسان می‌گویند اصطلاح «ایمنی هوش مصنوعی» دیگر تعریف روشن و پذیرفته‌شده جهانی ندارد و خود موضوع مناقشه است.
– فشار رقابت اقتصادی و سیاسی، شرکت‌ها را به سمت سیاست‌های انعطاف‌پذیرتر و لمس‌سبک‌تر مقررات سوق داده است.
– Anthropic درگیر یک مناقشه عمومی با پنتاگون بر سر دسترسی کامل به مدل کلود است و تنها آزمایشگاه بزرگ هوش مصنوعی است که چنین موضعی گرفته است.
– تغییر زبان و سیاست‌ها نشان‌دهنده یک نقطه عطف در نحوه صحبت شرکت‌ها درباره ریسک، تحت تأثیر فشارهای رقابتی فزاینده است.

عقب‌گرد از تعهدات سختگیرانه ایمنی

بر اساس گزارش TIME، شرکت Anthropic که توسعه‌دهنده مدل کلود است، یک تعهد محوری را از «سیاست مقیاس‌گذاری مسئولانه» خود حذف کرده است. این تغییر در واقع شل کردن تعهدی است که پیش از این، این شرکت را از آموزش سیستم‌های هوش مصنوعی پیشرفته بدون وجود تضمین‌های ایمنی لازم منع می‌کرد. این حرکت، جایگاه Anthropic را در رقابت با غول‌هایی مانند OpenAI، گوگل و xAI بازتعریف می‌کند.

جرد کاپلان، مدیر ارشد علمی Anthropic، در توجیه این تصمیم به TIME گفت که توقف آموزش مدل‌های هوش مصنوعی در واقع به هیچ‌کس کمکی نمی‌کند. او اشاره کرد که با پیشرفت سریع هوش مصنوعی، منطقی نیست که آنها متعهد به توقف یکجانبه شوند، در حالی که رقبا به سرعت در حال پیشروی هستند. این تغییر در حالی رخ می‌دهد که Anthropic درگیر یک مناقشه عمومی با پنتاگون بر سر امتناع از اعطای دسترسی کامل به مدل کلود است و در بین آزمایشگاه‌های بزرگ، تنها شرکتی است که چنین موضعی گرفته است.

تحول در گفتمان «ایمنی هوش مصنوعی»

ادوارد گایست، پژوهشگر ارشد خط‌مشی در مؤسسه RAND، معتقد است که چارچوب قبلی «ایمنی هوش مصنوعی» از یک جامعه فکری خاص سرچشمه گرفته بود که پیش از ظهور مدل‌های زبانی بزرگ امروزی وجود داشت. به گفته او، ایمنی هوش مصنوعی با مجموعه‌ای از دیدگاه‌های خاص مرتبط بود که از جامعه افرادی نشأت می‌گرفت که پیش از وجود ال‌ال‌ام‌ها، نگران هوش مصنوعی قدرتمند بودند.

گایست به Decrypt گفت که طرفداران اولیه ایمنی هوش مصنوعی، تصور بسیار متفاوتی از شکل هوش مصنوعی پیشرفته داشتند و مسئله را به گونه‌ای مفهوم‌سازی کردند که در برخی جنبه‌ها، چیزی کیفی متفاوت از ال‌ال‌ام‌های کنونی را تصور می‌کرد. او تغییر زبان را همچنین نوعی سیگنال‌دهی به سرمایه‌گذاران و سیاست‌گذاران می‌داند و می‌گوید بسیاری از این شرکت‌ها می‌خواهند این تصور را ایجاد کنند که به دلیل نگرانی‌های مربوط به «ایمنی هوش مصنوعی»، در رقابت اقتصادی عقب ننشسته‌اند.

OpenAI نیز مسیر مشابهی را طی می‌کند

Anthropic در تغییر ادبیات ایمنی خود تنها نیست. گزارش اخیر سازمان خبری غیرانتفاعی The Conversation اشاره کرده که OpenAI نیز در پرونده مالیاتی سال ۲۰۲۴ خود، بیانیه مأموریتش را تغییر داده و کلمه «ایمن» را از آن حذف کرده است. بیانیه قبلی شرکت متعهد به ساخت هوش مصنوعی عمومی‌منظوره‌ای بود که «با ایمنی به بشریت سود برساند و محدود به نیاز به ایجاد بازده مالی نباشد».

نسخه به‌روزشده اکنون هدف را «اطمینان از اینکه هوش مصنوعی عمومی به نفع همه بشریت است» تعریف می‌کند. گایست در این باره می‌گوید مشکل با اصطلاح امنیت هوش مصنوعی این است که به نظر می‌رسد هیچ‌کس دقیقاً نمی‌داند معنای آن چیست، اما خود اصطلاح ایمنی هوش مصنوعی نیز مورد مناقشه بوده است. سیاست جدید Anthropic بر روی اقدامات شفافیت‌ساز مانند انتشار «نقشه‌های راه ایمنی مرزی» و گزارش‌های منظم «ریسک» تأکید دارد و می‌گوید در صورت اعتقاد به ریسک فاجعه‌بار قابل توجه، توسعه را به تأخیر خواهد انداخت.

رقابت تجاری و سرمایه‌گذاری‌های کلان

تغییر سیاست‌های Anthropic و OpenAI در حالی رخ می‌دهد که این شرکت‌ها در تلاش برای تقویت موقعیت تجاری خود هستند. اوایل همین ماه، Anthropic اعلام کرد که ۳۰ میلیارد دلار با ارزش‌گذاری حدود ۳۸۰ میلیارد دلار جذب سرمایه کرده است. همزمان، OpenAI در حال نهایی کردن یک دور تأمین مالی با پشتیبانی آمازون، مایکروسافت و انویدیا است که ممکن است به ۱۰۰ میلیارد دلار برسد.

این شرکت‌ها به همراه گوگل و xAI، قراردادهای دولتی پرسودی با وزارت دفاع آمریکا منعقد کرده‌اند. با این حال، قرارداد Anthropic به دلیل شکایت‌های مربوط به دسترسی، در هاله‌ای از ابهام قرار دارد و پنتاگون در حال بررسی قطع همکاری با این شرکت هوش مصنوعی است.

تغییر dynamics سیاسی و نقطه عطف در مدیریت ریسک

حمزه چودری، رهبر حوزه هوش مصنوعی و امنیت ملی در مؤسسه Future of Life، معتقد است که تغییر سیاست بازتاب دینامیک‌های سیاسی در حال تغییر است، نه تلاشی برای کسب و کار با پنتاگون. او به Decrypt گفت که اگر اینطور بود، آنها یک هفته پیش در برابر خواسته پنتاگون کوتاه می‌آمدند و دارئو آمودئی به دیدار نمی‌رفت.

به جای آن، چودری می‌گوید بازنویسی سیاست‌ها نشان‌دهنده یک نقطه عطف در نحوه صحبت شرکت‌های هوش مصنوعی درباره ریسک است، در حالی که فشار سیاسی و سهام رقابتی در حال افزایش است. او می‌گوید Anthropic اکنون می‌گوید: «ببینید، ما نمی‌توانیم به گفتن ایمنی ادامه دهیم، نمی‌توانیم به طور نامشروط توقف کنیم و ما برای مقررات با لمس سبک‌تر فشار خواهیم آورد.» این نشان می‌دهد که با سرازیر شدن سرمایه به این بخش و تشدید رقابت ژئوپلیتیک، اولویت‌ها در حال تغییر اساسی هستند.

مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا