آنتروپیک در برابر پنتاگون: جنگ بر سر حفاظهای هوش مصنوعی کلود

داریو آمودی، مدیرعامل شرکت آنتروپیک، اعلام کرد این شرکت حفاظهای اخلاقی مدل هوش مصنوعی کلود را برای رفع محدودیتهای درخواستی پنتاگون حذف نخواهد کرد. این موضعگیری، تنش میان این شرکت پیشرو در حوزه هوش مصنوعی و وزارت دفاع آمریکا را تشدید کرده است. پنتاگون تهدید کرده که در صورت عدم تبعیت، قرارداد ۲۰۰ میلیون دلاری را فسخ و ممکن است قانون تولید دفاعی را علیه آنتروپیک به کار گیرد.
نکات کلیدی
– آنتروپیک از حذف ممنوعیتهای مربوط به نظارت گسترده داخلی و سلاحهای کاملاً خودمختار از هوش مصنوعی کلود خودداری کرده است.
– پنتاگون به آنتروپیک اولتیماتوم داده و تهدید به فسخ قرارداد ۲۰۰ میلیون دلاری و استفاده از قانون تولید دفاعی کرده است.
– این درگیری پس از گزارشهایی درباره استفاده نظامیان آمریکا از کلود در عملیات دستگیری نیکلاس مادورو، رئیسجمهور پیشین ونزوئلا، اوج گرفته است.
– داریو آمودی میگوید سیستمهای هوش مصنوعی پیشرفته فعلی برای قدرتدهی به سلاحهای کاملاً خودمختار به اندازه کافی قابل اعتماد نیستند.
– یک مطالعه دانشگاهی نشان داد مدلهای پیشرفته هوش مصنوعی در ۹۵٪ از بحرانهای ژئوپلیتیک شبیهسازیشده، سلاح هستهای مستقر میکنند.
– پنتاگون از تمام پیمانکاران هوش مصنوعی خواسته تا بند «هر استفاده قانونی» را در قراردادهای آینده بپذیرند.
– کارشناسان میگویند موضع پنتاگون پیامی به تمام صنعت فناوری برای عدم محدودسازی دسترسی نظامی است.
اولتیماتوم پنتاگون و پاسخ قاطع آنتروپیک
تنش میان آنتروپیک و وزارت دفاع آمریکا به اوج خود رسیده است. داریو آمودی، مدیرعامل آنتروپیک، روز پنجشنبه با انتشار بیانیهای اعلام کرد شرکتش حاضر به حذف حفاظهای امنیتی و اخلاقی از مدل هوش مصنوعی کلود نیست. این پاسخ قاطع، واکنشی مستقیم به اولتیماتوم پنتاگون است که خواستار اجازه استفاده نامحدود نظامی از این فناوری شده بود.
پنتاگون از آنتروپیک خواسته بود تا بندی را در قراردادها بپذیرد که اجازه «هرگونه استفاده قانونی» از هوش مصنوعی کلود را به وزارت دفاع میدهد. مهلت این اولتیماتوم، گزارشها حاکی از آن است که پایان همین هفته است. آمودی در بیانیه خود تاکید کرد: «ما نمیتوانیم با وجدان راحت به درخواست آنها تن دهیم.»
وی افزود اگرچه انتخاب پیمانکاران همسو با دیدگاه پنتاگون، حق این وزارتخانه است، اما امیدوار است با توجه به ارزش بالای فناوری آنتروپیک برای نیروهای مسلح، آنها درخواست خود را بازبینی کنند. این در حالی است که پنتاگون در حال بررسی رابطه خود با آنتروپیک و پیامدهای احتمالی، از جمله لغو قرارداد ۲۰۰ میلیون دلاری و احتمال استفاده از قانون تولید دفاعی است.
خط قرمزهای اخلاقی: نظارت گسترده و سلاحهای خودمختار
داریو آمودی موضع شرکتش را همسو با اهداف امنیت ملی آمریکا اما با رعایت چارچوبهای اخلاقی دانست. او گفت عمیقاً به اهمیت وجودی استفاده از هوش مصنوعی برای دفاع از آمریکا و دیگر دموکراسیها باور دارد. با این حال، استفاده از این سیستمها برای نظارت گسترده داخلی یا سلاحهای کاملاً خودمختار را ناسازگار با ارزشهای دموکراتیک و همراه با ریسکهای جدی ارزیابی کرد.
آمودی تاکید کرد: «امروزه، سیستمهای هوش مصنوعی پیشرفته به سادگی به اندازه کافی قابل اعتماد نیستند که به سلاحهای کاملاً خودمختار قدرت بدهند. ما عمداً محصولی ارائه نخواهیم داد که رزمندگان و غیرنظامیان آمریکا را در معرض خطر قرار دهد.» این اظهارات در حالی مطرح میشود که کلود هماکنون به طور گسترده در وزارت جنگ و سایر نهادهای امنیت ملی برای تحلیل اطلاعات، شبیهسازی، برنامهریزی عملیاتی و عملیات سایبری استفاده میشود.
این نگرانیها بیاساس نیستند. یک مطالعه اخیر توسط کینگز کالج لندن نشان داد که مدلهای پیشرفتهای مانند جیپیتی ۵.۲، کلود سونت ۴ و جمینی ۳ فلش، در ۹۵ درصد از بحرانهای ژئوپلیتیک شبیهسازیشده، اقدام به استقرار سلاح هستهای کردند. این یافتهها بر پیچیدگی و خطرات استفاده از هوش مصنوعی در سناریوهای نظامی حساس تاکید دارد.
پسزمینه درگیری: از عملیات مادورو تا سیاست مقیاسگذاری مسئولانه
این اختلاف نظر در بستر گزارشهایی درباره استفاده عملیاتی از کلود شکل گرفت. ماه گذشته گزارشهایی منتشر شد که نشان میداد هوش مصنوعی کلود در یک عملیات آمریکا برای دستگیری نیکلاس مادورو، رئیسجمهور پیشین ونزوئلا، مورد استفاده قرار گرفته است. داریو آمودی هرگونه ادعا مبنی بر اینکه آنتروپیک در مورد عملیات نظامی خاصی سوال کرده باشد را رد کرد.
وی تصریح کرد: «آنتروپیک درک میکند که تصمیمات نظامی را وزارت جنگ میگیرد، نه شرکتهای خصوصی. ما هرگز به عملیات نظامی خاصی اعتراض نکردهایم و سعی نکردهایم استفاده از فناوری خود را به صورت موردی محدود کنیم.» با این حال، شرکتش بر حفظ چارچوبهای کلی اخلاقی پای میفشارد.
در همین حال، آنتروپیک سیاست مقیاسگذاری مسئولانه خود را بازبینی کرده و تعهد به توقف آموزش سیستمهای پیشرفته در صورت عدم وجود حفاظهای تضمینشده را حذف کرده است. این تغییر میتواند نشاندهنده فشارهای فزاینده صنعت برای توسعه سریعتر باشد. آمودی همچنین به تهدید دوگانه پنتاگون اشاره کرد: یکی برچسب «ریسک زنجیره تامین» و دیگری استفاده از قانون تولید دفاعی که کلود را برای امنیت ملی ضروری میداند. او این دو تهدید را ذاتیاً متناقض خواند.
پیام به تمام صنعت: فشار برای دسترسی نامحدود
ناظران این مناقشه را فراتر از یک اختلاف قراردادی میبینند. رابرت وایزمن، رئیس مشترک سازمان Public Citizen، گفت موضع پنتاگون نشاندهنده فشار گستردهتر بر صنعت فناوری است. به گفته او، پنتاگون عمداً در ملاء عام آنتروپیک را تحت فشار قرار میدهد تا پیامی به تمام شرکتهای بزرگ فناوری برساند.
وایزمن به Decrypt گفت: «پیام پنتاگون این است: "ما این را تحمل نخواهیم کرد و انتظار داریم بتوانیم از فناوری به همان شکلی که اختراع شده است، برای هر هدفی که میخواهیم استفاده کنیم."» او حفاظهای آنتروپیک را «متعادل» و «معقول» توصیف کرد که هدفشان جلوگیری از نظارت نادرست بر مردم آمریکا یا تسهیل توسعه رباتهای قاتل است.
وی در مورد تهدید پنتاگون برای برچسب زدن آنتروپیک به عنوان ریسک زنجیره تامین هشدار داد که این میتواند یک جریمه بالقوه خردکننده از سوی دولت باشد. این اقدام میتواند سایر شرکتهای هوش مصنوعی را تحت فشار قرار دهد تا از اعمال محدودیتهای مشابه خودداری کنند. وایزمن خاطرنشان کرد مدل کسبوکار شرکتهایی مانند آنتروپیک بر استفاده تجاری و نه فردی استوار است و قطع همکاری دولت میتواند ضربه سنگینی باشد.
هنوز مشخص نیست پنتاگون آیا تهدیدهای خود را عملی خواهد کرد یا خیر. اما این رویارویی، مرز جدیدی را در رابطه بین توسعهدهندگان هوش مصنوعی و نهادهای نظامی تعریف میکند. سوال اصلی این است که آیا اخلاقمداری در فناوریهای پیشرفته میتواند در برابر خواست قدرتهای نظامی برای دسترسی نامحدود مقاومت کند یا خیر. نتیجه این نبرد میتواند آینده حکمرانی هوش مصنوعی در حوزه امنیت ملی را برای سالهای آینده شکل دهد.