انتروپیک مدعی حمله تقطیر صنعتی سه لابراتوار چینی به کلود شد

انتروپیک، سازنده مدل کلود، سه شرکت پیشروی هوش مصنوعی چین به نامهای دیپسیک، مونشات و مینیمکس را متهم کرده که با استفاده از حسابهای کاربری جعلی، میلیونها خروجی از چتبات کلود را استخراج کردهاند تا مدلهای رقیب خود را آموزش دهند. این شرکت این اقدام را نقض شرایط استفاده و تضعیف کنترلهای صادراتی آمریکا میداند. این اتهامها با واکنش انتقادی و طعنهآمیز کاربران در شبکه اجتماعی ایکس مواجه شده است.
نکات کلیدی
– انتروپیک سه لابراتوار چینی هوش مصنوعی را متهم به اجرای کمپینهای «مقیاس صنعتی» برای استخراج خروجیهای کلود کرده است.
– این شرکت ادعا میکند حدود ۲۴۰۰۰ حساب جعلی برای تولید بیش از ۱۶ میلیون تبادل با کلود استفاده شده است.
– روش مورد استفاده، «تقطیر مدل» توصیف شده که میتواند برای آموزش مدلهای کوچکتر و رقیب به کار رود.
– انتروپیک هشدار داده این فعالیتها میتواند محافظهای ایمنی مدل را حذف و قابلیتها را در اختیار سیستمهای نظامی و امنیتی قرار دهد.
– این اتهامها در حالی مطرح شده که خود انتروپیک و دیگر غولهای فناوری تحت دادگاههایی به دلیل اسکرپ محتوای آنلاین هستند.
– واکنش کاربران در ایکس عمدتاً همراه با انتقاد از ریاکاری و دورویی شرکتهای بزرگ فناوری بوده است.
– انتروپیک خواستار اقدام هماهنگ صنعت، ارائهدهندگان ابری و سیاستگذاران برای مقابله با این تهدید شده است.
اتهامهای سنگین و کمپینهای صنعتی
انتروپیک در پستی رسمی که روز دوشنبه منتشر شد، جزئیات اتهامهای خود علیه سه توسعهدهنده مطرح هوش مصنوعی در چین را افشا کرد. بر اساس این ادعا، لابراتوارهای دیپسیک، مونشات و مینیمکس با طراحی کمپینهایی در مقیاس صنعتی، اقدام به استخراج قابلیتهای مدل کلود از طریق فرآیندی به نام «تقطیر مدل» کردهاند.
این شرکت مدعی است مهاجمان با ایجاد و استفاده از حدود ۲۴۰۰۰ حساب کاربری جعلی، موفق به تولید بیش از ۱۶ میلیون مکالمه و تبادل با چتبات کلود شدهاند. هدف نهایی از این اقدام، جمعآوری حجم عظیمی از دادههای خروجی برای آموزش و بهبود سیستمهای هوش مصنوعی رقیب عنوان شده است.
انتروپیک این عمل را نه تنها نقض صریح شرایط خدمات خود، بلکه تهدیدی برای کنترلهای صادراتی ایالات متحده دانسته است. این شرکت استدلال میکند که چنین فعالیتهایی میتواند به حذف عمدی یا غیرعمدی محافظهای ایمنی که در مدلهای اصلی تعبیه شدهاند، بینجامد.
واکنش طعنهآمیز جامعه و اتهام ریاکاری
پس از انتشار این اتهامها، فضای شبکه اجتماعی ایکس شاهد موجی از انتقادات تند و طعنههای فراوان نسبت به موضع انتروپیک بود. بسیاری از کاربران و فعالان حوزه فناوری، این شرکت را به ریاکاری متهم کردند و تناقض موجود در رفتار آن را برجسته ساختند.
یکی از منتقدان نوشت: «شما روی اینترنت باز آموزش دیدید و حالا که دیگران از شما یاد میگیرند، اسمش را "حمله تقطیر" میگذارید؟ لابراتوارهایی که مدام موعظه "تحقیقات باز" میکنند، ناگهان از دسترسی باز گریه سر میدهند.» این دیدگاه به روش آموزش مدلهای بنیادی هوش مصنوعی، از جمله کلود، که با استفاده از حجم عظیمی از دادههای عمومی وب صورت میگیرد، اشاره دارد.
کاربر دیگری با طعنه گفت: «اوه نه… نه مالکیت خصوصی من! چطور کسی جرات میکند از آن برای آموزش یک مدل هوش مصنوعی استفاده کند؟ فقط انتروپیک حق دارد از مالکیت معنوی همه دیگران استفاده کند، نه؟ این را نمیتوان تحمل کرد!» این واکنشها نشاندهنده شکاف عمیق در بحث جاری حول مالکیت فکری، حق تکثیر و استفاده منصفانه در عصر هوش مصنوعی است.
تقطیر مدل: یک شمشیر دو لبه
تقطیر مدل یک روش شناخته شده در آموزش هوش مصنوعی است که در آن یک مدل کوچکتر، با یادگیری از خروجیهای یک مدل بزرگتر و پیچیدهتر آموزش میبیند. این تکنیک میتواند مشروع و کاربردی باشد، مثلاً برای ایجاد مدلهای کوچکتر، سریعتر و مقرونبهصرفهتر برای ارائه به مشتریان.
با این حال، در بستر امنیت سایبری، همین فرآیند میتواند به عنوان یک «حمله استخراج مدل» توصیف شود. در این سناریو، یک مهاجم با استفاده از دسترسی قانونی به یک سرویس، به طور سیستماتیک آن را مورد پرسوجو قرار میدهد و از پاسخهای دریافتی برای آموزش یک مدل رقیب و کپیبرداری از قابلیتهای آن استفاده میکند.
انتروپیک در پست جداگانهای در ایکس توضیح داد که اگرچه تقطیر میتواند مشروع باشد، اما وقتی لابراتوارهای خارجی به طور غیرقانونی مدلهای آمریکایی را تقطیر میکنند، خطرات امنیتی به وجود میآید. این شرکت هشدار داد که این عمل میتواند منجر به حذف محافظهای ایمنی طراحی شده در مدل اصلی شود و در نهایت، قابلیتهای مدل را به دست سیستمهای نظامی، اطلاعاتی و نظارتی کشورهای دیگر برساند.
پیشینه جنجالی و دادگاههای متقابل
جالب اینجاست که این اتهامهای انتروپیک در حالی مطرح میشود که خود این شرکت و دیگر غولهای حوزه هوش مصنوعی مانند اوپنایآی، متا و گوگل، تحت پیگرد قانونی به دلیل جمعآوری دادههای عظیم از محتوای آنلاین بدون اجازه صریح هستند.
برای نمونه، در ماه ژوئن، پلتفرم رددیت از انتروپیک به دلیل اسکرپ کردن بیش از ۱۰۰ هزار پست و کامنت و استفاده از آن دادهها برای فاینتیون کردن مدل کلود، شکایت کرد. در دادخواست رددیت آمده بود که این شرکتها دو چهره متفاوت دارند: یک چهره عمومی که سعی میکند با ادعای درستکاری و احترام به قانون، خود را به ذهن مصرفکننده نزدیک کند، و یک چهره خصوصی که هر قاعدهای را که مانع پر کردن جیبهایش شود، نادیده میگیرد.
این تناقض آشکار، موضع انتروپیک در قبال لابراتوارهای چینی را تحت الشعاع قرار داده و باعث شده استدلالهای این شرکت درباره رعایت حریم مالکیت فکری، از دید بسیاری از ناظران قابل قبول به نظر نرسد.
راهحلهای پیشنهادی و فراخوان به همکاری
انتروپیک در بیانیه خود تأکید کرده که این کمپینهای استخراج در حال افزایش شدت و پیچیدگی هستند و پنجره زمانی برای اقدام بسیار محدود است. این شرکت هشدار داده که تهدید مذکور فراتر از یک شرکت یا یک منطقه خاص است و مقابله با آن نیازمند اقدام سریع و هماهنگ بازیگران صنعت، سیاستگذاران و جامعه جهانی هوش مصنوعی خواهد بود.
به عنوان اقدامات عملی، انتروپیک اعلام کرده که در حال گسترش سیستمهای تشخیص، سختگیری در فرآیندهای تأیید حساب کاربری، به اشتراک گذاری اطلاعات با سایر لابراتوارها و مراجع قانونی و افزودن محافظهای امنیتی بیشتر برای محدود کردن تلاشهای آینده برای تقطیر مدل است.
با این حال، این شرکت صراحتاً اعتراف کرده که هیچ شرکتی به تنهایی نمیتواند این مشکل را حل کند. انتروپیک خواستار ایجاد یک پاسخ هماهنگ در سراسر صنعت هوش مصنوعی، ارائهدهندگان خدمات ابری و نهادهای سیاستگذار شده است. این فراخوان نشاندهنده درک این شرکت از ابعاد گسترده چالش امنیتی و اقتصادی است که استخراج غیرمجاز مدلها میتواند ایجاد کند.