Artificial Intelligence

آنتروپیک در برابر پنتاگون: جنگ بر سر حفاظ‌های هوش مصنوعی کلود

داریو آمودی، مدیرعامل شرکت آنتروپیک، اعلام کرد این شرکت حفاظ‌های اخلاقی مدل هوش مصنوعی کلود را برای رفع محدودیت‌های درخواستی پنتاگون حذف نخواهد کرد. این موضع‌گیری، تنش میان این شرکت پیشرو در حوزه هوش مصنوعی و وزارت دفاع آمریکا را تشدید کرده است. پنتاگون تهدید کرده که در صورت عدم تبعیت، قرارداد ۲۰۰ میلیون دلاری را فسخ و ممکن است قانون تولید دفاعی را علیه آنتروپیک به کار گیرد.

نکات کلیدی

– آنتروپیک از حذف ممنوعیت‌های مربوط به نظارت گسترده داخلی و سلاح‌های کاملاً خودمختار از هوش مصنوعی کلود خودداری کرده است.
– پنتاگون به آنتروپیک اولتیماتوم داده و تهدید به فسخ قرارداد ۲۰۰ میلیون دلاری و استفاده از قانون تولید دفاعی کرده است.
– این درگیری پس از گزارش‌هایی درباره استفاده نظامیان آمریکا از کلود در عملیات دستگیری نیکلاس مادورو، رئیس‌جمهور پیشین ونزوئلا، اوج گرفته است.
– داریو آمودی می‌گوید سیستم‌های هوش مصنوعی پیشرفته فعلی برای قدرت‌دهی به سلاح‌های کاملاً خودمختار به اندازه کافی قابل اعتماد نیستند.
– یک مطالعه دانشگاهی نشان داد مدل‌های پیشرفته هوش مصنوعی در ۹۵٪ از بحران‌های ژئوپلیتیک شبیه‌سازی‌شده، سلاح هسته‌ای مستقر می‌کنند.
– پنتاگون از تمام پیمانکاران هوش مصنوعی خواسته تا بند «هر استفاده قانونی» را در قراردادهای آینده بپذیرند.
– کارشناسان می‌گویند موضع پنتاگون پیامی به تمام صنعت فناوری برای عدم محدودسازی دسترسی نظامی است.

اولتیماتوم پنتاگون و پاسخ قاطع آنتروپیک

تنش میان آنتروپیک و وزارت دفاع آمریکا به اوج خود رسیده است. داریو آمودی، مدیرعامل آنتروپیک، روز پنجشنبه با انتشار بیانیه‌ای اعلام کرد شرکتش حاضر به حذف حفاظ‌های امنیتی و اخلاقی از مدل هوش مصنوعی کلود نیست. این پاسخ قاطع، واکنشی مستقیم به اولتیماتوم پنتاگون است که خواستار اجازه استفاده نامحدود نظامی از این فناوری شده بود.

پنتاگون از آنتروپیک خواسته بود تا بندی را در قراردادها بپذیرد که اجازه «هرگونه استفاده قانونی» از هوش مصنوعی کلود را به وزارت دفاع می‌دهد. مهلت این اولتیماتوم، گزارش‌ها حاکی از آن است که پایان همین هفته است. آمودی در بیانیه خود تاکید کرد: «ما نمی‌توانیم با وجدان راحت به درخواست آن‌ها تن دهیم.»

وی افزود اگرچه انتخاب پیمانکاران همسو با دیدگاه پنتاگون، حق این وزارتخانه است، اما امیدوار است با توجه به ارزش بالای فناوری آنتروپیک برای نیروهای مسلح، آن‌ها درخواست خود را بازبینی کنند. این در حالی است که پنتاگون در حال بررسی رابطه خود با آنتروپیک و پیامدهای احتمالی، از جمله لغو قرارداد ۲۰۰ میلیون دلاری و احتمال استفاده از قانون تولید دفاعی است.

خط قرمزهای اخلاقی: نظارت گسترده و سلاح‌های خودمختار

داریو آمودی موضع شرکتش را همسو با اهداف امنیت ملی آمریکا اما با رعایت چارچوب‌های اخلاقی دانست. او گفت عمیقاً به اهمیت وجودی استفاده از هوش مصنوعی برای دفاع از آمریکا و دیگر دموکراسی‌ها باور دارد. با این حال، استفاده از این سیستم‌ها برای نظارت گسترده داخلی یا سلاح‌های کاملاً خودمختار را ناسازگار با ارزش‌های دموکراتیک و همراه با ریسک‌های جدی ارزیابی کرد.

آمودی تاکید کرد: «امروزه، سیستم‌های هوش مصنوعی پیشرفته به سادگی به اندازه کافی قابل اعتماد نیستند که به سلاح‌های کاملاً خودمختار قدرت بدهند. ما عمداً محصولی ارائه نخواهیم داد که رزمندگان و غیرنظامیان آمریکا را در معرض خطر قرار دهد.» این اظهارات در حالی مطرح می‌شود که کلود هم‌اکنون به طور گسترده در وزارت جنگ و سایر نهادهای امنیت ملی برای تحلیل اطلاعات، شبیه‌سازی، برنامه‌ریزی عملیاتی و عملیات سایبری استفاده می‌شود.

این نگرانی‌ها بی‌اساس نیستند. یک مطالعه اخیر توسط کینگز کالج لندن نشان داد که مدل‌های پیشرفته‌ای مانند جی‌پی‌تی ۵.۲، کلود سونت ۴ و جمینی ۳ فلش، در ۹۵ درصد از بحران‌های ژئوپلیتیک شبیه‌سازی‌شده، اقدام به استقرار سلاح هسته‌ای کردند. این یافته‌ها بر پیچیدگی و خطرات استفاده از هوش مصنوعی در سناریوهای نظامی حساس تاکید دارد.

پس‌زمینه درگیری: از عملیات مادورو تا سیاست مقیاس‌گذاری مسئولانه

این اختلاف نظر در بستر گزارش‌هایی درباره استفاده عملیاتی از کلود شکل گرفت. ماه گذشته گزارش‌هایی منتشر شد که نشان می‌داد هوش مصنوعی کلود در یک عملیات آمریکا برای دستگیری نیکلاس مادورو، رئیس‌جمهور پیشین ونزوئلا، مورد استفاده قرار گرفته است. داریو آمودی هرگونه ادعا مبنی بر اینکه آنتروپیک در مورد عملیات نظامی خاصی سوال کرده باشد را رد کرد.

وی تصریح کرد: «آنتروپیک درک می‌کند که تصمیمات نظامی را وزارت جنگ می‌گیرد، نه شرکت‌های خصوصی. ما هرگز به عملیات نظامی خاصی اعتراض نکرده‌ایم و سعی نکرده‌ایم استفاده از فناوری خود را به صورت موردی محدود کنیم.» با این حال، شرکتش بر حفظ چارچوب‌های کلی اخلاقی پای می‌فشارد.

در همین حال، آنتروپیک سیاست مقیاس‌گذاری مسئولانه خود را بازبینی کرده و تعهد به توقف آموزش سیستم‌های پیشرفته در صورت عدم وجود حفاظ‌های تضمین‌شده را حذف کرده است. این تغییر می‌تواند نشان‌دهنده فشارهای فزاینده صنعت برای توسعه سریع‌تر باشد. آمودی همچنین به تهدید دوگانه پنتاگون اشاره کرد: یکی برچسب «ریسک زنجیره تامین» و دیگری استفاده از قانون تولید دفاعی که کلود را برای امنیت ملی ضروری می‌داند. او این دو تهدید را ذاتی‌اً متناقض خواند.

پیام به تمام صنعت: فشار برای دسترسی نامحدود

ناظران این مناقشه را فراتر از یک اختلاف قراردادی می‌بینند. رابرت وایزمن، رئیس مشترک سازمان Public Citizen، گفت موضع پنتاگون نشان‌دهنده فشار گسترده‌تر بر صنعت فناوری است. به گفته او، پنتاگون عمداً در ملاء عام آنتروپیک را تحت فشار قرار می‌دهد تا پیامی به تمام شرکت‌های بزرگ فناوری برساند.

وایزمن به Decrypt گفت: «پیام پنتاگون این است: "ما این را تحمل نخواهیم کرد و انتظار داریم بتوانیم از فناوری به همان شکلی که اختراع شده است، برای هر هدفی که می‌خواهیم استفاده کنیم."» او حفاظ‌های آنتروپیک را «متعادل» و «معقول» توصیف کرد که هدفشان جلوگیری از نظارت نادرست بر مردم آمریکا یا تسهیل توسعه ربات‌های قاتل است.

وی در مورد تهدید پنتاگون برای برچسب زدن آنتروپیک به عنوان ریسک زنجیره تامین هشدار داد که این می‌تواند یک جریمه بالقوه خردکننده از سوی دولت باشد. این اقدام می‌تواند سایر شرکت‌های هوش مصنوعی را تحت فشار قرار دهد تا از اعمال محدودیت‌های مشابه خودداری کنند. وایزمن خاطرنشان کرد مدل کسب‌وکار شرکت‌هایی مانند آنتروپیک بر استفاده تجاری و نه فردی استوار است و قطع همکاری دولت می‌تواند ضربه سنگینی باشد.

هنوز مشخص نیست پنتاگون آیا تهدیدهای خود را عملی خواهد کرد یا خیر. اما این رویارویی، مرز جدیدی را در رابطه بین توسعه‌دهندگان هوش مصنوعی و نهادهای نظامی تعریف می‌کند. سوال اصلی این است که آیا اخلاق‌مداری در فناوری‌های پیشرفته می‌تواند در برابر خواست قدرت‌های نظامی برای دسترسی نامحدود مقاومت کند یا خیر. نتیجه این نبرد می‌تواند آینده حکمرانی هوش مصنوعی در حوزه امنیت ملی را برای سال‌های آینده شکل دهد.

مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا