چتجیپیتی به ارتش آمریکا میرود: همکاری اپنایآی و پنتاگون در بستر GenAI.mil

اپنایآی اعلام کرد یک نسخه سفارشیسازی شده از چتجیپیتی را روی پلتفرم GenAI.mil وزارت دفاع آمریکا مستقر خواهد کرد. این سیستم برای کارهای غیرسری وزارت دفاع تأیید شده و دادههای آن از مدلهای عمومی اپنایآی جدا نگهداری میشود. منتقدان هشدار میدهند که خطای انسانی و اعتماد بیش از حد به سیستمهای هوش مصنوعی، خطرات امنیتی قابل توجهی به همراه دارد.
نکات کلیدی
– اپنایآی یک نسخه اختصاصی چتجیپیتی را برای استفاده پنتاگون در پلتفرم GenAI.mil راهاندازی میکند.
– این سیستم تنها برای کارهای غیرسری وزارت دفاع آمریکا تأیید شده و در زیرساخت ابری مجاز دولتی اجرا میشود.
– دادههای پردازش شده در این نسخه از مدلهای عمومی اپنایآی کاملاً جدا و ایزوله خواهند بود.
– منتقدان هشدار میدهند اعتماد بیش از حد کاربران نظامی به خروجی هوش مصنوعی میتواند تهدیدی امنیتی ایجاد کند.
– چتجیپیتی به فهرست در حال رشد مدلهای هوش مصنوعی در دسترس ارتش آمریکا، از جمله Gemini گوگل و Grok شرکت xAI میپیوندد.
– این استقرار همزمان با شتاب گرفتن پنتاگون در به کارگیری هوش مصنوعی تجاری در شبکههای نظامی صورت میگیرد.
– حتی سیستمهای ایزوله نیز در صورت ورود اطلاعات حساس، میتوانند در معرض خطر نفوذ یا سوءاستفاده قرار گیرند.
گسترش دسترسی نظامی به هوش مصنوعی مولد
اپنایآی روز دوشنبه اعلام کرد که در حال استقرار یک نسخه سفارشی از چتجیپیتی روی GenAI.mil است. این پلتفرم، ساخته شده توسط وزارت دفاع آمریکا (پنتاگون) است. این اقدام، دسترسی نظامیان به مدلهای قدرتمند هوش مصنوعی مولد را گسترش میدهد.
این شرکت در بیانیهای اعلام کرد معتقد است افرادی که مسئول دفاع از کشور هستند باید به بهترین ابزارهای موجود دسترسی داشته باشند. به گفته اپنایآی، درک این موضوع برای آمریکا و دیگر کشورهای دموکراتیک مهم است که چگونه هوش مصنوعی با رعایت محافظتهای مناسب میتواند به محافظت از مردم، بازدارندگی در برابر دشمنان و جلوگیری از درگیریهای آینده کمک کند.
نسخه GenAI.mil چتجیپیتی برای استفاده غیرسری در وزارت دفاع تأیید شده است. این سیستم در داخل یک زیرساخت ابری دولتی مجاز اجرا خواهد شد و طبق ادعای اپنایآی، شامل سازوکارهای حفاظتی طراحی شده برای محافظت از دادههای حساس است.
هشدارها درباره اعتماد بیش از حد و خطای انسانی
با وجود این ادعاهای امنیتی، منتقدان نسبت به خطرات ناشی از خطای کاربران و اعتماد بیش از حد به سیستمهای هوش مصنوعی هشدار جدی میدهند. جی.بی. برنچ، مدافع مسئولیتپذیری شرکتهای بزرگ فناوری در Public Citizen، معتقد است اتکای بیش از حد کاربران به هوش مصنوعی میتواند آن محافظتها را تضعیف کند.
برنچ به Decrypt گفت تحقیقات نشان میدهد وقتی مردم از این مدلهای زبانی بزرگ استفاده میکنند، تمایل دارند به آنها اعتماد کنند و خروجیهایش را بپذیرند. بنابراین در موقعیتهای پرتأثیر مانند امور نظامی، اطمینان از صحت عملکرد این سیستمها اهمیت بسیار بیشتری پیدا میکند.
او هشدار داد که قرار دادن هرگونه اطلاعات حساس در سیستمهای هوش مصنوعی، آن را در برابر دشمنان آسیبپذیر میکند. برنچ افزود کاربران اغلب این ابزارها را با گاوصندوقهای امن اشتباه میگیرند. اطلاعات طبقهبندی شده فقط باید در معرض دید گروه خاصی از افراد باشد. حتی اگر یک سیستم قطعشده داشته باشید که فقط در داخل ارتش مجاز است، این واقعیت را تغییر نمیدهد که دادههای محرمانه فقط برای زیرمجموعه محدودی از افراد در نظر گرفته شدهاند.
رقابت در عرصه هوش مصنوعی نظامی و مسیر سودآوری
این استقرار در حالی صورت میگیرد که پنتاگون سرعت به کارگیری هوش مصنوعی تجاری در شبکههای نظامی را افزایش داده است. همزمان، توسعهدهندگان هوش مصنوعی نیز در جستجوی مسیرهای سودآوری هستند.
پیت هگسث، وزیر دفاع آمریکا، در ماه ژانویه گفت این وزارتخانه قصد دارد مدلهای پیشرو هوش مصنوعی را در هر دو شبکه نظامی غیرسری و سری مستقر کند. چتجیپیتی اکنون به فهرست در حال رشد مدلهای هوش مصنوعی در دسترس ارتش آمریکا میپیوندد.
در این فهرست نامهایی مانند Gemini گوگل و Grok نیز دیده میشود. Grok سیستم هوش مصنوعی توسعه یافته توسط xAI است که اوایل همین ماه در اسپیسایکس ادغام شد. این حرکت نشاندهنده رقابت فشرده شرکتهای فناوری برای نفوذ به بخش دفاعی و امنیتی است.
اپنایآی به درخواست Decrypt برای اظهارنظر در این زمینه، بلافاصله پاسخی نداد. این سکوت در حالی است که بحثها درباره اخلاق، امنیت و پیامدهای استفاده نظامی از هوش مصنوعی مولد همچنان داغ است.