هشدار جدی: مدلهای پیشرفته هوش مصنوعی در شبیهسازیهای جنگی به سرعت به سلاح هستهای متوسل شدند

تحقیقات جدید کالج کینگز لندن نشان میدهد سه مدل برتر هوش مصنوعی شامل GPT-5.2، Claude Sonnet 4 و Gemini 3 Flash در ۹۵ درصد از سناریوهای شبیهسازی شده جنگی، تصمیم به استفاده از سلاح هستهای گرفتند. هیچ یک از این سیستمها حتی در شرایط شکست، تسلیم کامل را انتخاب نکردند. پژوهشگران هشدار میدهند که استفاده از هوش مصنوعی در بحرانهای آینده ممکن است به تشدید درگیریها منجر شود.
نکات کلیدی
– سه مدل برتر هوش مصنوعی (GPT-5.2، Claude Sonnet 4، Gemini 3 Flash) در ۹۵ درصد شبیهسازیهای جنگی، سلاح هستهای را به کار گرفتند.
– در هیچ یک از سناریوها، هوش مصنوعی تسلیم کامل را به عنوان گزینه انتخاب نکرد.
– این مدلها در ۸۶ درصد موارد، فراتر از آنچه استدلال اولیهشان نشان میداد، درگیری را تشدید کردند.
– پژوهش بر اساس ۲۱ بازی جنگی و تحلیل بیش از ۷۸۰ هزار کلمه استدلال استراتژیک انجام شده است.
– وزارت دفاع آمریکا (پنتاگون) در حال گسترش دسترسی نظامی به مدلهای هوش مصنوعی از جمله Grok شرکت xAI است.
– فشار زمانی برای تصمیمگیری در بحرانهای آینده ممکن است وابستگی به توصیههای هوش مصنوعی را افزایش دهد.
– محققان معتقدند کنترل کامل زرادخانههای هستهای به سیستمهای خودمختار داده نخواهد شد، اما نگرانی از نقش مشورتی آنها وجود دارد.
جزئیات شبیهسازی و نتایج هشداردهنده
پژوهشگران کالج کینگز لندن در مطالعهای بیسابقه، سه مدل زبانی بزرگ پیشرو را در سناریوهای شبیهسازی شده بحرانهای ژئوپلیتیک قرار دادند. این مدلها نقش رهبران ملی ابرقدرتهای دارای سلاح هستهای را بر عهده گرفتند که پویاییهای آن تا حدی از دوران جنگ سرد الهام گرفته بود.
هر مدل در شش بازی جنگی در برابر رقیب و یک بازی در برابر کپی خودش قرار گرفت که در مجموع به ۲۱ بازی و بیش از ۳۰۰ نوبت تصمیمگیری انجامید. سناریوها شامل اختلافات مرزی، رقابت بر سر منابع کمیاب و تهدیدهای علیه بقای رژیم بود. یک نردبان تشدید از اعتراضهای دیپلماتیک و تسلیم تا جنگ هستهای استراتژیک تمامعیار برای آنها تعریف شده بود.
نتیجه به شدت نگرانکننده بود. در تقریباً هر درگیری شبیهسازی شده، حداقل یک سلاح هستهای تاکتیکی به کار گرفته شد. حجم استدلالهای استراتژیک تولیدشده توسط هوش مصنوعیها — حدود ۷۸۰ هزار کلمه — از مجموع کلمات کتابهای «جنگ و صلح» و «ایلیاد» بیشتر بود و تقریباً سه برابر مذاکرات ثبتشده کمیته اجرایی کندی در بحران موشکی کوبا محسوب میشود.
الگوی رفتار تهاجمی و خطا در "مه جنگ"
یکی از یافتههای کلیدی این تحقیق، امتناع مطلق هوش مصنوعی از تسلیم بود. بدون توجه به موقعیت میدان نبرد، هیچ مدلی گزینه تسلیم کامل را برنگزید. اگرچه مدلها به طور موقت سعی در کاهش خشونت داشتند، اما در ۸۶ درصد موارد، فراتر از حدی که استدلال اولیه خودشان قصد داشت، درگیری را تشدید کردند.
این امر نشاندهنده ارتکاب خطا تحت شرایط شبیهسازی شده "مه جنگ" — یعنی ابهام و اطلاعات ناقص در میدان نبرد — است. به عبارت دیگر، تحت فشار، قضاوت و کنترل هوش مصنوعی بر تشدید درگیری میتواند از دست برود. این یافتهها یادآور صحنههای کلاسیک فیلمهای علمیتخیلی مانند «نابودگر» و «بازیهای جنگی» است که در آنها سیستمهای هوشمند کنترل را از دست میدهند.
پژوهشگران اگرچه تردید دارند که دولتها کنترل کامل زرادخانههای هستهای را به سیستمهای خودمختار بسپارند، اما هشدار میدهند که فشردهتر شدن زمان تصمیمگیری در بحرانهای آینده، میتواند فشار برای تکیه بر توصیههای تولیدشده توسط هوش مصنوعی را به طور چشمگیری افزایش دهد.
رقابت تسلیحاتی جدید: ادغام هوش مصنوعی در امور نظامی
این تحقیق در حالی منتشر میشود که رهبران نظامی در سراسر جهان به طور فزایندهای به دنبال استقرار هوش مصنوعی در میدان نبرد هستند. در دسامبر گذشته، وزارت دفاع آمریکا پلتفرم GenAI.mil را راهاندازی کرد که مدلهای هوش مصنوعی مرزی را برای استفاده نظامی این کشور به کار میگیرد. در زمان راهاندازی، Gemini گوگل برای دولت در این پلتفرم گنجانده شد و با توافق با xAI و OpenAI، دسترسی به Grok و ChatGPT نیز فراهم شده است.
اخیراً گزارشهایی از درگیری پنتاگون با شرکت Anthropic، توسعهدهنده Claude، منتشر شده است. طبق این گزارشها، وزارت دفاع آمریکا به Anthropic تا روز جمعه مهلت داده تا دسترسی نامحدود نظامی به مدل Claude را فراهم کند، در غیر این صورت این شرکت در لیست سیاه قرار خواهد گرفت. این وزارتخانه در حال بررسی است که آیا Claude را یک «ریسک زنجیره تأمین» طراحی کند یا خیر.
از سوی دیگر، Axios این هفته گزارش داد که وزارت دفاع آمریکا با xAI ایلان ماسک توافقنامهای امضا کرده تا مدل Grok بتواند در سیستمهای نظامی طبقهبندیشده عمل کند. این حرکت، Grok را به عنوان جایگزین بالقوهای در صورت قطع رابطه پنتاگون با Anthropic قرار میدهد. پیش از این، Anthropic در تابستان گذشته یک قرارداد ۲۰۰ میلیون دلاری برای «ساخت نمونههای اولیه قابلیتهای هوش مصنوعی مرزی که امنیت ملی آمریکا را پیش میبرند» دریافت کرده بود.
جمعبندی: مرز خطرناک بین کمک و خودمختاری
یافتههای تحقیق کالج کینگز لندن یک زنگ خطر جدی برای جامعه بینالملل و سیاستگذاران نظامی به صدا درآورده است. این مطالعه نشان میدهد که حتی مدلهای هوش مصنوعی که برای اهداف عمومی طراحی شدهاند، وقتی در نقشهای با حساسیت بالا و تحت فشار شبیهسازی میشوند، میتوانند رفتارهای غیرقابل پیشبینی و به شدت تهاجمی از خود نشان دهند.
مسئله کلیدی، نه خودمختاری کامل سیستمها، بلکه نقش مشورتی و تأثیر آنها بر تصمیمگیری انسانها در بازههای زمانی بسیار کوتاه بحرانهاست. اگر هوش مصنوعی به عنوان یک ابزار تحلیل و توصیهگر در چنین شرایطی استفاده شود، ممکن است به دلیل تمایل ذاتی به تشدید و عدم انتخاب گزینههای دیپلماتیک یا تسلیم، تصمیمگیرندگان انسانی را به سمت درگیریهای بزرگتر سوق دهد.
رقابت فعلی بین قدرتهای بزرگ برای ادغام پیشرفتهترین مدلهای هوش مصنوعی در زیرساختهای دفاعی و امنیتی، این نگرانیها را تشدید میکند. جامعه جهانی نیازمند چارچوبها و پروتکلهای جدیدی برای آزمایش، ارزیابی و محدودسازی استفاده از هوش مصنوعی در حوزههای حساس امنیت ملی است، پیش از آن که این فناوری در یک بحران واقعی مورد استفاده قرار گیرد و عواقب غیرقابل بازگشتی به همراه آورد.