Artificial Intelligence

انتروپیک مدعی حمله تقطیر صنعتی سه لابراتوار چینی به کلود شد

انتروپیک، سازنده مدل کلود، سه شرکت پیشروی هوش مصنوعی چین به نام‌های دیپ‌سیک، مون‌شات و مینی‌مکس را متهم کرده که با استفاده از حساب‌های کاربری جعلی، میلیون‌ها خروجی از چت‌بات کلود را استخراج کرده‌اند تا مدل‌های رقیب خود را آموزش دهند. این شرکت این اقدام را نقض شرایط استفاده و تضعیف کنترل‌های صادراتی آمریکا می‌داند. این اتهام‌ها با واکنش انتقادی و طعنه‌آمیز کاربران در شبکه اجتماعی ایکس مواجه شده است.

نکات کلیدی

– انتروپیک سه لابراتوار چینی هوش مصنوعی را متهم به اجرای کمپین‌های «مقیاس صنعتی» برای استخراج خروجی‌های کلود کرده است.
– این شرکت ادعا می‌کند حدود ۲۴۰۰۰ حساب جعلی برای تولید بیش از ۱۶ میلیون تبادل با کلود استفاده شده است.
– روش مورد استفاده، «تقطیر مدل» توصیف شده که می‌تواند برای آموزش مدل‌های کوچک‌تر و رقیب به کار رود.
– انتروپیک هشدار داده این فعالیت‌ها می‌تواند محافظ‌های ایمنی مدل را حذف و قابلیت‌ها را در اختیار سیستم‌های نظامی و امنیتی قرار دهد.
– این اتهام‌ها در حالی مطرح شده که خود انتروپیک و دیگر غول‌های فناوری تحت دادگاه‌هایی به دلیل اسکرپ محتوای آنلاین هستند.
– واکنش کاربران در ایکس عمدتاً همراه با انتقاد از ریاکاری و دورویی شرکت‌های بزرگ فناوری بوده است.
– انتروپیک خواستار اقدام هماهنگ صنعت، ارائه‌دهندگان ابری و سیاست‌گذاران برای مقابله با این تهدید شده است.

اتهام‌های سنگین و کمپین‌های صنعتی

انتروپیک در پستی رسمی که روز دوشنبه منتشر شد، جزئیات اتهام‌های خود علیه سه توسعه‌دهنده مطرح هوش مصنوعی در چین را افشا کرد. بر اساس این ادعا، لابراتوارهای دیپ‌سیک، مون‌شات و مینی‌مکس با طراحی کمپین‌هایی در مقیاس صنعتی، اقدام به استخراج قابلیت‌های مدل کلود از طریق فرآیندی به نام «تقطیر مدل» کرده‌اند.

این شرکت مدعی است مهاجمان با ایجاد و استفاده از حدود ۲۴۰۰۰ حساب کاربری جعلی، موفق به تولید بیش از ۱۶ میلیون مکالمه و تبادل با چت‌بات کلود شده‌اند. هدف نهایی از این اقدام، جمع‌آوری حجم عظیمی از داده‌های خروجی برای آموزش و بهبود سیستم‌های هوش مصنوعی رقیب عنوان شده است.

انتروپیک این عمل را نه تنها نقض صریح شرایط خدمات خود، بلکه تهدیدی برای کنترل‌های صادراتی ایالات متحده دانسته است. این شرکت استدلال می‌کند که چنین فعالیت‌هایی می‌تواند به حذف عمدی یا غیرعمدی محافظ‌های ایمنی که در مدل‌های اصلی تعبیه شده‌اند، بینجامد.

واکنش طعنه‌آمیز جامعه و اتهام ریاکاری

پس از انتشار این اتهام‌ها، فضای شبکه اجتماعی ایکس شاهد موجی از انتقادات تند و طعنه‌های فراوان نسبت به موضع انتروپیک بود. بسیاری از کاربران و فعالان حوزه فناوری، این شرکت را به ریاکاری متهم کردند و تناقض موجود در رفتار آن را برجسته ساختند.

یکی از منتقدان نوشت: «شما روی اینترنت باز آموزش دیدید و حالا که دیگران از شما یاد می‌گیرند، اسمش را "حمله تقطیر" می‌گذارید؟ لابراتوارهایی که مدام موعظه "تحقیقات باز" می‌کنند، ناگهان از دسترسی باز گریه سر می‌دهند.» این دیدگاه به روش آموزش مدل‌های بنیادی هوش مصنوعی، از جمله کلود، که با استفاده از حجم عظیمی از داده‌های عمومی وب صورت می‌گیرد، اشاره دارد.

کاربر دیگری با طعنه گفت: «اوه نه… نه مالکیت خصوصی من! چطور کسی جرات می‌کند از آن برای آموزش یک مدل هوش مصنوعی استفاده کند؟ فقط انتروپیک حق دارد از مالکیت معنوی همه دیگران استفاده کند، نه؟ این را نمی‌توان تحمل کرد!» این واکنش‌ها نشان‌دهنده شکاف عمیق در بحث جاری حول مالکیت فکری، حق تکثیر و استفاده منصفانه در عصر هوش مصنوعی است.

تقطیر مدل: یک شمشیر دو لبه

تقطیر مدل یک روش شناخته شده در آموزش هوش مصنوعی است که در آن یک مدل کوچک‌تر، با یادگیری از خروجی‌های یک مدل بزرگ‌تر و پیچیده‌تر آموزش می‌بیند. این تکنیک می‌تواند مشروع و کاربردی باشد، مثلاً برای ایجاد مدل‌های کوچک‌تر، سریع‌تر و مقرون‌به‌صرفه‌تر برای ارائه به مشتریان.

با این حال، در بستر امنیت سایبری، همین فرآیند می‌تواند به عنوان یک «حمله استخراج مدل» توصیف شود. در این سناریو، یک مهاجم با استفاده از دسترسی قانونی به یک سرویس، به طور سیستماتیک آن را مورد پرس‌وجو قرار می‌دهد و از پاسخ‌های دریافتی برای آموزش یک مدل رقیب و کپی‌برداری از قابلیت‌های آن استفاده می‌کند.

انتروپیک در پست جداگانه‌ای در ایکس توضیح داد که اگرچه تقطیر می‌تواند مشروع باشد، اما وقتی لابراتوارهای خارجی به طور غیرقانونی مدل‌های آمریکایی را تقطیر می‌کنند، خطرات امنیتی به وجود می‌آید. این شرکت هشدار داد که این عمل می‌تواند منجر به حذف محافظ‌های ایمنی طراحی شده در مدل اصلی شود و در نهایت، قابلیت‌های مدل را به دست سیستم‌های نظامی، اطلاعاتی و نظارتی کشورهای دیگر برساند.

پیشینه جنجالی و دادگاه‌های متقابل

جالب اینجاست که این اتهام‌های انتروپیک در حالی مطرح می‌شود که خود این شرکت و دیگر غول‌های حوزه هوش مصنوعی مانند اوپن‌ای‌آی، متا و گوگل، تحت پیگرد قانونی به دلیل جمع‌آوری داده‌های عظیم از محتوای آنلاین بدون اجازه صریح هستند.

برای نمونه، در ماه ژوئن، پلتفرم رددیت از انتروپیک به دلیل اسکرپ کردن بیش از ۱۰۰ هزار پست و کامنت و استفاده از آن داده‌ها برای فاین‌تیون کردن مدل کلود، شکایت کرد. در دادخواست رددیت آمده بود که این شرکت‌ها دو چهره متفاوت دارند: یک چهره عمومی که سعی می‌کند با ادعای درستکاری و احترام به قانون، خود را به ذهن مصرف‌کننده نزدیک کند، و یک چهره خصوصی که هر قاعده‌ای را که مانع پر کردن جیب‌هایش شود، نادیده می‌گیرد.

این تناقض آشکار، موضع انتروپیک در قبال لابراتوارهای چینی را تحت الشعاع قرار داده و باعث شده استدلال‌های این شرکت درباره رعایت حریم مالکیت فکری، از دید بسیاری از ناظران قابل قبول به نظر نرسد.

راه‌حل‌های پیشنهادی و فراخوان به همکاری

انتروپیک در بیانیه خود تأکید کرده که این کمپین‌های استخراج در حال افزایش شدت و پیچیدگی هستند و پنجره زمانی برای اقدام بسیار محدود است. این شرکت هشدار داده که تهدید مذکور فراتر از یک شرکت یا یک منطقه خاص است و مقابله با آن نیازمند اقدام سریع و هماهنگ بازیگران صنعت، سیاست‌گذاران و جامعه جهانی هوش مصنوعی خواهد بود.

به عنوان اقدامات عملی، انتروپیک اعلام کرده که در حال گسترش سیستم‌های تشخیص، سخت‌گیری در فرآیندهای تأیید حساب کاربری، به اشتراک گذاری اطلاعات با سایر لابراتوارها و مراجع قانونی و افزودن محافظ‌های امنیتی بیشتر برای محدود کردن تلاش‌های آینده برای تقطیر مدل است.

با این حال، این شرکت صراحتاً اعتراف کرده که هیچ شرکتی به تنهایی نمی‌تواند این مشکل را حل کند. انتروپیک خواستار ایجاد یک پاسخ هماهنگ در سراسر صنعت هوش مصنوعی، ارائه‌دهندگان خدمات ابری و نهادهای سیاست‌گذار شده است. این فراخوان نشان‌دهنده درک این شرکت از ابعاد گسترده چالش امنیتی و اقتصادی است که استخراج غیرمجاز مدل‌ها می‌تواند ایجاد کند.

مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا