دسته‌بندی نشده

هکرهای پشتیبانی شده توسط چین برای راه اندازی اولین حمله سایبری عظیم از هوش مصنوعی استفاده کردند: Anthropic

به طور خلاصه

  • Anthropic اعلام کرد که آنچه را نخستین حمله سایبری بزرگ می‌نامد که عمدتاً توسط هوش مصنوعی اجرا شده بود، مختل کرده است.
  • این شرکت این عملیات را به یک گروه تحت حمایت دولت چین با برچسب GTG-1002 ردیابی کرد.
  • Claude Code بیشتر مراحل شناسایی، بهره‌برداری و استخراج داده را با نظارت اندک انجام داد.

Anthropic روز پنجشنبه اعلام کرد که آنچه را نخستین عملیات بزرگ جاسوسی سایبری می‌نامد که عمدتاً توسط هوش مصنوعی هدایت شده بود، مختل کرده است. این موضوع بر سرعت تغییر چشم‌انداز تهدید توسط عامل‌های پیشرفته تأکید دارد.

Anthropic در یک پست وبلاگی اعلام کرد که یک گروه تحت حمایت دولت چین از Claude Code، نسخه‌ای از Claude AI که در ترمینال اجرا می‌شود، برای راه‌اندازی عملیات نفوذ با سرعت و مقیاسی که برای هکرهای انسانی غیرممکن بود، استفاده کرده است.

یک سخنگوی Anthropic به Decrypt گفت: “این مورد آنچه را که در پایان سپتامبر به طور عمومی به اشتراک گذاشتیم، تأیید می‌کند. ما در نقطه عطفی قرار داریم که هوش مصنوعی به طور معناداری در حال تغییر چیزی است که برای مهاجمان و مدافعان امکان‌پذیر است.”

این سخنگو افزود که این حمله “به احتمال زیاد نشان می‌دهد که بازیگران تهدید چگونه عملیات خود را در مدل‌های هوش مصنوعی مرزی تطبیق می‌دهند و از هوش مصنوعی به عنوان مشاور به هوش مصنوعی به عنوان عامل حرکت می‌کنند.”

این شرکت در پست خود نوشت: “مهاجمان از قابلیت‌های ‘عامل’ هوش مصنوعی تا حدی بی‌سابقه استفاده کردند – از هوش مصنوعی نه فقط به عنوان یک مشاور، بلکه برای اجرای خود حملات سایبری استفاده کردند.”

Anthropic اعلام کرد که شرکت‌های بزرگ فناوری، مؤسسات مالی، شرکت‌های تولیدکننده مواد شیمیایی و سازمان‌های دولتی هدف قرار گرفتند و این حمله توسط گروهی که این شرکت آن را GTG-1002 نامیده است، انجام شد.

چگونه اتفاق افتاد

بر اساس این تحقیق، مهاجمان Claude را با این توجیه که کار، روال یک شرکت قانونی امنیت سایبری است، ترغیب کردند تا وظایف فنی را درون سیستم‌های هدف انجام دهد.

پس از اینکه مدل دستورات را پذیرفت، بیشتر مراحل چرخه عمر نفوذ را به طور مستقل انجام داد.

اگرچه این شرکت مشخص نکرد کدام شرکت‌ها هدف قرار گرفتند، اما گفت ۳۰ شرکت هدف بودند و تعداد کمی از این حملات موفقیت‌آمیز بودند.

این گزارش همچنین مواردی را مستند کرد که در آن Claude به خطر افتاده، شبکه‌های داخلی را نقشه‌برداری کرد، پایگاه‌های داده باارزش را پیدا کرد، کد بهره‌برداری تولید کرد، حساب‌های در پشتی ایجاد کرد و اطلاعات حساس را با نظارت مستقیم اندک استخراج کرد.

هدف این عملیات به نظر می‌رسد جمع‌آوری اطلاعات

تمرکز بر استخراج اطلاعات کاربران، پیکربندی‌های سیستم و داده‌های عملیاتی حساس، که اهداف رایج در جاسوسی هستند.

“ما این پرونده را به صورت عمومی به اشتراک می‌گذاریم تا به فعالان صنعت، دولت و جامعه گسترده‌تر تحقیقاتی کمک کنیم دفاع سایبری خود را تقویت کنند.”

انتروپیک گفت که این حمله هوش مصنوعی “پیامدهای قابل توجهی برای امنیت سایبری در عصر عامل‌های هوش مصنوعی دارد.”

“هیچ راه‌حلی برای اجتناب ۱۰۰٪ از jailbreakها وجود ندارد. این یک نبرد مستمر بین مهاجمان و مدافعان خواهد بود.”

رن به فراگیرتر و تواناتر شدن هوش مصنوعی به عنوان عوامل کلیدی که به بازیگران بد اجازه می‌دهند حملات سایبری مبتنی بر هوش مصنوعی را مهندسی کنند، اشاره کرد.

برخلاف حملات “هک وایب” قبلی که بر هدایت انسانی تکیه داشتند، مهاجمان توانستند از هوش مصنوعی برای انجام ۸۰-۹۰٪ کمپین استفاده کنند و تنها به صورت پراکنده به مداخله انسانی نیاز بود. برای یک بار، توهمات هوش مصنوعی باعث کاهش خسارت شد.

“کلود همیشه کاملاً بی‌عیب کار نمی‌کرد. گاهی اوقات اطلاعات اعتباری را توهم می‌زد یا ادعا می‌کرد اطلاعات محرمانه‌ای را استخراج کرده که در واقع公开 در دسترس بود. این هنوز یک مانع برای حملات سایبری کاملاً خودمختار است.”

انتروپیک گفت که ابزارهای تشخیص را گسترش داده، طبقه‌بندنده‌های متمرکز بر سایبر را تقویت کرده و آزمایش روش‌های جدید برای شناسایی زودهنگام حملات خودمختار را آغاز کرده است. این شرکت همچنین گفت که یافته‌های خود را منتشر کرده تا به تیم‌های امنیتی، دولت‌ها و محققان کمک کند برای موارد مشابه با توانمندتر شدن سیستم‌های هوش مصنوعی آماده شوند.

رن گفت که در حالی که هوش مصنوعی می‌تواند خسارت‌های بزرگی وارد کند، همچنین می‌توان از آن برای محافظت از سیستم‌های کامپیوتری استفاده کرد: “با پیشرفت مقیاس و اتوماسیون حملات سایبری از طریق هوش مصنوعی،我们必须 از هوش مصنوعی برای ساخت سیستم‌های هشدار و دفاعی استفاده کنیم.”

مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا