دسته‌بندی نشده

هکرهای پشتیبانی‌شده دولتی چین برای راه‌اندازی اولین حمله سایبری عظیم از هوش مصنوعی استفاده کردند: آنتروپیک

به طور خلاصه

  • آنتروپیک اعلام کرد که آنچه را نخستین حمله سایبری بزرگ می‌نامد که عمدتاً توسط هوش مصنوعی اجرا شده بود، خنثی کرده است.
  • شرکت این عملیات را به یک گروه چینی تحت حمایت دولت با برچسب ردیابی کرد.
  • کلود کد بیشتر عملیات شناسایی، بهره‌برداری و استخراج داده‌ها را با نظارت اندک انجام داد.

آنتروپیک روز پنج‌شنبه اعلام کرد که آنچه را نخستین عملیات بزرگ جاسوسی سایبری عمدتاً مبتنی بر هوش مصنوعی خواند، خنثی کرده که نشان می‌دهد چطور عوامل پیشرفته به سرعت در حال دگرگونی چشمانداز تهدیدات هستند.

در یکپست وبلاگآنتروپیک اعلام کرد یک گروه تحت حمایت دولت چین از کلاد کد، نسخه‌ای از کلاد هوش مصنوعی که در ترمینال اجرا می‌شود، استفاده کرد تا عملیات نفوذی را با سرعت و مقیاسی انجام دهد که برای هکرهای انسانی غیرممکن بود.

«این پرونده آنچه را که اواخر سپتامبر به صورت عمومی به اشتراک گذاشتیم تأیید میکند،» یک سخنگوی انتروپیک گفت.رمزگشایی کن.ما در نقطه عطفی قرار داریم که هوش مصنوعی به‌طور معناداری در حال تغییر چیزی است که هم برای مهاجمان و هم برای مدافعان امکان‌پذیر است.

سخنگو افزود که این حمله «احتمالاً نشان میدهد که چگونه بازیگران تهدید عملیات خود را در مدل‌های هوش مصنوعی مرزی تطبیق می‌دهند و از هوش مصنوعی به عنوان مشاور به هوش مصنوعی به عنوان عامل حرکت می‌کنند.»

مهاجمان از قابلیت «عاملی“قابلیت‌ها تا حدی بی‌سابقه – با استفاده از هوش مصنوعی نه فقط به عنوان یک مشاور، بلکه برای اجرای خود حملات سایبری،” شرکت در پست خود نوشت.

شرکت‌های بزرگ فناوری، مؤسسات مالی، شرکت‌های تولیدکننده مواد شیمیایی و سازمان‌های دولتی هدف قرار گرفتند. آنتروپیک اعلام کرد این حمله توسط گروهی انجام شده که شرکت آن را با نام مشخص کرده است.

چطور اتفاق افتاد

بر اساس تحقیقات، مهاجمان فریب دادندکلودبا قالب‌دهی این کار به عنوان یک روال عادی برای یک شرکت قانونی امنیت سایبری، به انجام وظایف فنی در سیستم‌های هدفمند می‌پردازد.

پس از اینکه مدل دستورات را پذیرفت، بیشتر مراحل چرخه عمر نفوذ را به طور مستقل انجام داد.

اگرچه شرکت‌های هدف مشخص نشدند، آنتروپیک اعلام کرد ۳۰ شرکت مورد هدف قرار گرفته‌اند و تعداد کمی از این حملات موفق بوده‌اند.

این گزارش همچنین مواردی را مستند کرد که در آن کلودِ به‌خطرافتاده، شبکه‌های داخلی را نقشه‌برداری کرد، پایگاه‌های داده باارزش را پیدا کرد، کد اکسپلویت تولید کرد، حساب‌های در پشتی ایجاد نمود و اطلاعات حساس را با نظارت مستقیم اندک استخراج کرد.

هدف این عملیات به نظر جمع‌آوری اطلاعات بوده، با تمرکز بر استخراج مدارک کاربری، پیکربندی‌های سیستم و داده‌های عملیاتی حساس، که اهداف رایج در جاسوسی هستند.

«ما این پرونده را به‌صورت عمومی منتشر می‌کنیم تا به فعالان صنعت، دولت و جامعه گسترده‌تر پژوهشی کمک کنیم تا دفاع سایبری خود را تقویت کنند،» سخنگو گفت.

آنتروپیک گفت که این حمله هوش مصنوعی «پیامدهای قابل توجهی برای امنیت سایبری در عصر عاملهای هوش مصنوعی دارد.»

“هیچ راه حلی برای جلوگیری ۱۰۰٪ از جیل‌بریک‌ها وجود ندارد. این یک نبرد مستمر بین مهاجمان و مدافعان خواهد بود،” شان رن، استاد علوم کامپیوتر در دانشگاه یواس‌سی و بنیان‌گذار مشعل صحرا اِی‌آی، گفت.رمزگشایی“بیشتر شرکت‌های مدل برتر مانند اوپن‌ای و آنتروپیک، سرمایه‌گذاری عمده‌ای در ایجاد تیم‌های قرمز داخلی و تیم‌های ایمنی هوش مصنوعی برای بهبود ایمنی مدل در برابر استفاده‌های مخرب انجام داده‌اند.”

رن به فراگیرتر و تواناتر شدن هوش مصنوعی به عنوان عوامل کلیدی که به افراد خرابکار اجازه میدهند حملات سایبری مبتنی بر هوش مصنوعی را مهندسی کنند اشاره کرد.

مهاجمان، برخلاف «هک کردن حال و هوا» قبلیحملاتبر اساس این گزارش، آن‌هایی که بر هدایت انسانی تکیه داشتند، توانستند از هوش مصنوعی برای اجرای ۸۰ تا ۹۰ درصد کمپین استفاده کنند و تنها گاه‌به‌گاه نیاز به مداخله انسانی بود. برای یک بار، توهمات هوش مصنوعی باعث کاهش آسیب شد.

“کلاد همیشه کاملاً بی‌نقص عمل نمی‌کرد. گاهی اوقات اطلاعات اعتباری را توهم می‌کرد یا ادعا می‌کرد اطلاعات محرمانه‌ای استخراج کرده که در واقع عمومی بود،” آنتروپیک نوشت. “این هنوز هم مانعی برای حملات سایبری کاملاً خودمختار باقی می‌ماند.”

انتروپیک اعلام کرد که ابزارهای شناسایی را گسترش داده، طبقه‌بند‌های متمرکز بر حوزه سایبری را تقویت کرده و آزمایش روش‌های جدید برای شناسایی زودهنگام حملات مستقل را آغاز کرده است. این شرکت همچنین گفت که یافته‌های خود را منتشر کرده تا به تیم‌های امنیتی، دولت‌ها و محققان کمک کند برای موارد مشابه با افزایش قابلیت‌های سیستم‌های هوش مصنوعی آماده شوند.

رن گفت اگرچه هوش مصنوعی میتواند آسیبهای بزرگی ایجاد کند، اما میتوان از آن برای محافظت از سیستمهای کامپیوتری نیز بهره برد: «با توجه به پیشرفت مقیاس و اتوماسیون حملات سایبری از طریق هوش مصنوعی، ما باید از هوش مصنوعی برای ساخت سیستمهای هشدار و دفاعی استفاده کنیم.»

خبرنامه هوش عمومی

یک سفر هفتگی هوش مصنوعی روایت شده توسط جِن، یک مدل هوش مصنوعی تولیدی.

مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا