هکرهای پشتیبانی شده توسط چین برای راه اندازی اولین حمله سایبری عظیم از هوش مصنوعی استفاده کردند: Anthropic

به طور خلاصه
- Anthropic اعلام کرد که آنچه را نخستین حمله سایبری بزرگ مینامد که عمدتاً توسط هوش مصنوعی اجرا شده بود، مختل کرده است.
- این شرکت این عملیات را به یک گروه تحت حمایت دولت چین با برچسب GTG-1002 ردیابی کرد.
- Claude Code بیشتر مراحل شناسایی، بهرهبرداری و استخراج داده را با نظارت اندک انجام داد.
Anthropic روز پنجشنبه اعلام کرد که آنچه را نخستین عملیات بزرگ جاسوسی سایبری مینامد که عمدتاً توسط هوش مصنوعی هدایت شده بود، مختل کرده است. این موضوع بر سرعت تغییر چشمانداز تهدید توسط عاملهای پیشرفته تأکید دارد.
Anthropic در یک پست وبلاگی اعلام کرد که یک گروه تحت حمایت دولت چین از Claude Code، نسخهای از Claude AI که در ترمینال اجرا میشود، برای راهاندازی عملیات نفوذ با سرعت و مقیاسی که برای هکرهای انسانی غیرممکن بود، استفاده کرده است.
یک سخنگوی Anthropic به Decrypt گفت: “این مورد آنچه را که در پایان سپتامبر به طور عمومی به اشتراک گذاشتیم، تأیید میکند. ما در نقطه عطفی قرار داریم که هوش مصنوعی به طور معناداری در حال تغییر چیزی است که برای مهاجمان و مدافعان امکانپذیر است.”
این سخنگو افزود که این حمله “به احتمال زیاد نشان میدهد که بازیگران تهدید چگونه عملیات خود را در مدلهای هوش مصنوعی مرزی تطبیق میدهند و از هوش مصنوعی به عنوان مشاور به هوش مصنوعی به عنوان عامل حرکت میکنند.”
این شرکت در پست خود نوشت: “مهاجمان از قابلیتهای ‘عامل’ هوش مصنوعی تا حدی بیسابقه استفاده کردند – از هوش مصنوعی نه فقط به عنوان یک مشاور، بلکه برای اجرای خود حملات سایبری استفاده کردند.”
Anthropic اعلام کرد که شرکتهای بزرگ فناوری، مؤسسات مالی، شرکتهای تولیدکننده مواد شیمیایی و سازمانهای دولتی هدف قرار گرفتند و این حمله توسط گروهی که این شرکت آن را GTG-1002 نامیده است، انجام شد.
چگونه اتفاق افتاد
بر اساس این تحقیق، مهاجمان Claude را با این توجیه که کار، روال یک شرکت قانونی امنیت سایبری است، ترغیب کردند تا وظایف فنی را درون سیستمهای هدف انجام دهد.
پس از اینکه مدل دستورات را پذیرفت، بیشتر مراحل چرخه عمر نفوذ را به طور مستقل انجام داد.
اگرچه این شرکت مشخص نکرد کدام شرکتها هدف قرار گرفتند، اما گفت ۳۰ شرکت هدف بودند و تعداد کمی از این حملات موفقیتآمیز بودند.
این گزارش همچنین مواردی را مستند کرد که در آن Claude به خطر افتاده، شبکههای داخلی را نقشهبرداری کرد، پایگاههای داده باارزش را پیدا کرد، کد بهرهبرداری تولید کرد، حسابهای در پشتی ایجاد کرد و اطلاعات حساس را با نظارت مستقیم اندک استخراج کرد.
هدف این عملیات به نظر میرسد جمعآوری اطلاعات
تمرکز بر استخراج اطلاعات کاربران، پیکربندیهای سیستم و دادههای عملیاتی حساس، که اهداف رایج در جاسوسی هستند.
“ما این پرونده را به صورت عمومی به اشتراک میگذاریم تا به فعالان صنعت، دولت و جامعه گستردهتر تحقیقاتی کمک کنیم دفاع سایبری خود را تقویت کنند.”
انتروپیک گفت که این حمله هوش مصنوعی “پیامدهای قابل توجهی برای امنیت سایبری در عصر عاملهای هوش مصنوعی دارد.”
“هیچ راهحلی برای اجتناب ۱۰۰٪ از jailbreakها وجود ندارد. این یک نبرد مستمر بین مهاجمان و مدافعان خواهد بود.”
رن به فراگیرتر و تواناتر شدن هوش مصنوعی به عنوان عوامل کلیدی که به بازیگران بد اجازه میدهند حملات سایبری مبتنی بر هوش مصنوعی را مهندسی کنند، اشاره کرد.
برخلاف حملات “هک وایب” قبلی که بر هدایت انسانی تکیه داشتند، مهاجمان توانستند از هوش مصنوعی برای انجام ۸۰-۹۰٪ کمپین استفاده کنند و تنها به صورت پراکنده به مداخله انسانی نیاز بود. برای یک بار، توهمات هوش مصنوعی باعث کاهش خسارت شد.
“کلود همیشه کاملاً بیعیب کار نمیکرد. گاهی اوقات اطلاعات اعتباری را توهم میزد یا ادعا میکرد اطلاعات محرمانهای را استخراج کرده که در واقع公开 در دسترس بود. این هنوز یک مانع برای حملات سایبری کاملاً خودمختار است.”
انتروپیک گفت که ابزارهای تشخیص را گسترش داده، طبقهبندندههای متمرکز بر سایبر را تقویت کرده و آزمایش روشهای جدید برای شناسایی زودهنگام حملات خودمختار را آغاز کرده است. این شرکت همچنین گفت که یافتههای خود را منتشر کرده تا به تیمهای امنیتی، دولتها و محققان کمک کند برای موارد مشابه با توانمندتر شدن سیستمهای هوش مصنوعی آماده شوند.
رن گفت که در حالی که هوش مصنوعی میتواند خسارتهای بزرگی وارد کند، همچنین میتوان از آن برای محافظت از سیستمهای کامپیوتری استفاده کرد: “با پیشرفت مقیاس و اتوماسیون حملات سایبری از طریق هوش مصنوعی،我们必须 از هوش مصنوعی برای ساخت سیستمهای هشدار و دفاعی استفاده کنیم.”