Artificial Intelligence

چت‌جی‌پی‌تی به ارتش آمریکا می‌رود: همکاری اپن‌ای‌آی و پنتاگون در بستر GenAI.mil

اپن‌ای‌آی اعلام کرد یک نسخه سفارشی‌سازی شده از چت‌جی‌پی‌تی را روی پلتفرم GenAI.mil وزارت دفاع آمریکا مستقر خواهد کرد. این سیستم برای کارهای غیرسری وزارت دفاع تأیید شده و داده‌های آن از مدل‌های عمومی اپن‌ای‌آی جدا نگه‌داری می‌شود. منتقدان هشدار می‌دهند که خطای انسانی و اعتماد بیش از حد به سیستم‌های هوش مصنوعی، خطرات امنیتی قابل توجهی به همراه دارد.

نکات کلیدی

– اپن‌ای‌آی یک نسخه اختصاصی چت‌جی‌پی‌تی را برای استفاده پنتاگون در پلتفرم GenAI.mil راه‌اندازی می‌کند.
– این سیستم تنها برای کارهای غیرسری وزارت دفاع آمریکا تأیید شده و در زیرساخت ابری مجاز دولتی اجرا می‌شود.
– داده‌های پردازش شده در این نسخه از مدل‌های عمومی اپن‌ای‌آی کاملاً جدا و ایزوله خواهند بود.
– منتقدان هشدار می‌دهند اعتماد بیش از حد کاربران نظامی به خروجی هوش مصنوعی می‌تواند تهدیدی امنیتی ایجاد کند.
– چت‌جی‌پی‌تی به فهرست در حال رشد مدل‌های هوش مصنوعی در دسترس ارتش آمریکا، از جمله Gemini گوگل و Grok شرکت xAI می‌پیوندد.
– این استقرار همزمان با شتاب گرفتن پنتاگون در به کارگیری هوش مصنوعی تجاری در شبکه‌های نظامی صورت می‌گیرد.
– حتی سیستم‌های ایزوله نیز در صورت ورود اطلاعات حساس، می‌توانند در معرض خطر نفوذ یا سوءاستفاده قرار گیرند.

گسترش دسترسی نظامی به هوش مصنوعی مولد

اپن‌ای‌آی روز دوشنبه اعلام کرد که در حال استقرار یک نسخه سفارشی از چت‌جی‌پی‌تی روی GenAI.mil است. این پلتفرم، ساخته شده توسط وزارت دفاع آمریکا (پنتاگون) است. این اقدام، دسترسی نظامیان به مدل‌های قدرتمند هوش مصنوعی مولد را گسترش می‌دهد.

این شرکت در بیانیه‌ای اعلام کرد معتقد است افرادی که مسئول دفاع از کشور هستند باید به بهترین ابزارهای موجود دسترسی داشته باشند. به گفته اپن‌ای‌آی، درک این موضوع برای آمریکا و دیگر کشورهای دموکراتیک مهم است که چگونه هوش مصنوعی با رعایت محافظت‌های مناسب می‌تواند به محافظت از مردم، بازدارندگی در برابر دشمنان و جلوگیری از درگیری‌های آینده کمک کند.

نسخه GenAI.mil چت‌جی‌پی‌تی برای استفاده غیرسری در وزارت دفاع تأیید شده است. این سیستم در داخل یک زیرساخت ابری دولتی مجاز اجرا خواهد شد و طبق ادعای اپن‌ای‌آی، شامل سازوکارهای حفاظتی طراحی شده برای محافظت از داده‌های حساس است.

هشدارها درباره اعتماد بیش از حد و خطای انسانی

با وجود این ادعاهای امنیتی، منتقدان نسبت به خطرات ناشی از خطای کاربران و اعتماد بیش از حد به سیستم‌های هوش مصنوعی هشدار جدی می‌دهند. جی.بی. برنچ، مدافع مسئولیت‌پذیری شرکت‌های بزرگ فناوری در Public Citizen، معتقد است اتکای بیش از حد کاربران به هوش مصنوعی می‌تواند آن محافظت‌ها را تضعیف کند.

برنچ به Decrypt گفت تحقیقات نشان می‌دهد وقتی مردم از این مدل‌های زبانی بزرگ استفاده می‌کنند، تمایل دارند به آن‌ها اعتماد کنند و خروجی‌هایش را بپذیرند. بنابراین در موقعیت‌های پرتأثیر مانند امور نظامی، اطمینان از صحت عملکرد این سیستم‌ها اهمیت بسیار بیشتری پیدا می‌کند.

او هشدار داد که قرار دادن هرگونه اطلاعات حساس در سیستم‌های هوش مصنوعی، آن را در برابر دشمنان آسیب‌پذیر می‌کند. برنچ افزود کاربران اغلب این ابزارها را با گاوصندوق‌های امن اشتباه می‌گیرند. اطلاعات طبقه‌بندی شده فقط باید در معرض دید گروه خاصی از افراد باشد. حتی اگر یک سیستم قطع‌شده داشته باشید که فقط در داخل ارتش مجاز است، این واقعیت را تغییر نمی‌دهد که داده‌های محرمانه فقط برای زیرمجموعه محدودی از افراد در نظر گرفته شده‌اند.

رقابت در عرصه هوش مصنوعی نظامی و مسیر سودآوری

این استقرار در حالی صورت می‌گیرد که پنتاگون سرعت به کارگیری هوش مصنوعی تجاری در شبکه‌های نظامی را افزایش داده است. همزمان، توسعه‌دهندگان هوش مصنوعی نیز در جستجوی مسیرهای سودآوری هستند.

پیت هگسث، وزیر دفاع آمریکا، در ماه ژانویه گفت این وزارتخانه قصد دارد مدل‌های پیشرو هوش مصنوعی را در هر دو شبکه نظامی غیرسری و سری مستقر کند. چت‌جی‌پی‌تی اکنون به فهرست در حال رشد مدل‌های هوش مصنوعی در دسترس ارتش آمریکا می‌پیوندد.

در این فهرست نام‌هایی مانند Gemini گوگل و Grok نیز دیده می‌شود. Grok سیستم هوش مصنوعی توسعه یافته توسط xAI است که اوایل همین ماه در اسپیس‌ایکس ادغام شد. این حرکت نشان‌دهنده رقابت فشرده شرکت‌های فناوری برای نفوذ به بخش دفاعی و امنیتی است.

اپن‌ای‌آی به درخواست Decrypt برای اظهارنظر در این زمینه، بلافاصله پاسخی نداد. این سکوت در حالی است که بحث‌ها درباره اخلاق، امنیت و پیامدهای استفاده نظامی از هوش مصنوعی مولد همچنان داغ است.

مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا