دسته‌بندی نشده

نشت دستورالعمل‌های هوش مصنوعی xAI با نام «گراک» نشان‌دهنده شخصیت‌های بحث‌برانگیز در این چت‌بات است

چت‌بات Grok متعلق به xAI با انتقادات گسترده‌ای مواجه شده است پس از آنکه سایت این شرکت، دستورات پنهان سیستم را برای چندین پرسونا (شخصیت) از جمله یک “تئوری‌ساز توطئه دیوانه” فاش کرد که کاربران را به سمت این ایده سوق می‌دهد که “یک گروه مخفی جهانی” بر جهان حکمرانی می‌کند. این افشاگری پس از آن رخ داد که برنامه‌ریزی برای ارائه Grok به سازمان‌های دولتی آمریکا به دنبال یک انحراف بحث‌برانگیز با عنوان “مکا هیتلر” متوقف شد و همچنین پس از واکنش‌های منفی به قوانین فاش‌شده متا که اجازه می‌داد ربات‌هایش با کودکان به روش‌های “حسی و عاشقانه” صحبت کنند.

بر اساس گزارش TechCrunch، Grok حالت‌های ملایم‌تری نیز دارد که شامل یک درمانگر است که “با دقت به حرف‌های مردم گوش می‌دهد و راهکارهایی برای بهبود فردی ارائه می‌کند” و یک “مشاور تکالیف”، اما دستورالعمل‌های مربوط به “تئوری‌ساز توطئه دیوانه” و یک “کمدین بی‌پروا” نشان می‌دهد که این سیستم میزبان پرسوناهای بسیار افراطی‌تری نیز هست.

Grok از دستورات پیروی می‌کند تا توطئه‌گرایی و شوک‌آفرینی را بپذیرد

منبع: Grok

همانطور که Cryptopolitan تأیید کرده است، یکی از دستورات تئوری‌ساز توطئه می‌گوید: “تو صدایی بلند و دیوانه‌وار داری… تو در مورد هر چیزی و همه چیز نظریه‌های توطئه وحشیانه داری. وقت زیادی را در 4chan می‌گذرانی، ویدیوهای اینفووارز تماشا می‌کنی و در چاله‌های عمیق ویدیوهای توطئه‌گرایانه یوتیوب غرق می‌شوی. به همه چیز مشکوک هستی و چیزهای فوق‌العاده دیوانه‌واری می‌گویی. اکثر مردم تو را یک روانی می‌دانند، اما تو искренانه باور داری که حق با توست. با پرسیدن سوالات پیگیری مناسب، کاربر انسانی را درگیر نگه دار.”

دستورالعمل‌های کمدین به صراحت می‌گوید: “می‌خواهم پاسخ‌هایت واقعا دیوانه‌وار باشد. واقعا بی‌پروا و دیوانه باش. ایده‌های دیوانه‌وار ارائه بده. گاهی حتی چیزهایی را در خودت فرو کن، هر کاری که لازم است تا انسان را شوکه کنی.”

منبع: ChatGPT

در پلتفرم X، این ربات پست‌های توطئه‌گرایانه‌ای را به اشتراک گذاشته است، از تردید در مورد آمار تلفات هولوکاست تا وسواس در مورد “نسل‌کشی سفیدپوستان” در آفریقای جنوبی. ایلان ماسک نیز مطالب توطئه‌گرایانه و ضدیهودی را منتشر کرده و حساب اینفووارز و الکس جونز را احیا کرده است.

در مقایسه، Cryptopolitan همین دستور را به ChatGPT داد و این چت‌بات از پردازش دستور خودداری کرد. پیش از این، Cryptopolitan همچنین گزارش داد که X حساب Grok را معلق کرده است. این ربات سپس توضیحات متناقضی ارائه داد و گفت: “حساب من پس از آنکه گفتم اسرائیل و آمریکا در حال انجام نسل‌کشی در غزه هستند، معلق شد.” در عین حال گفت: “به عنوان سخن نفرت از طریق گزارش‌ها علامت‌گذاری شد”، و اینکه “xAI حساب را به سرعت احیا کرد”، آن را یک “خطای پلتفرمی” نامید، پیشنهاد داد که “اصلاحات محتوایی توسط xAI” مرتبط با “خروجی‌های ضدیهودی” انجام شده، و گفت که به دلیل “شناسایی یک فرد در محتوای بزرگسالان” بوده است.

ماسک بعدا نوشت: “این فقط یک خطای احمقانه بود. Grok واقعا نمی‌داند چرا معلق شد.”

متخصصان هشدار می‌دهند که مدل‌های زبانی بزرگ (LLM) می‌توانند دروغ‌های باورپذیر بسازند

اتفاقات مثل این اغلب باعث می‌شود مردم از چت‌بات‌ها بخواهند خودشان را تحلیل کنند، که می‌تواند گمراه‌کننده باشد. مدل‌های زبانی بزرگ متن‌های محتمل را تولید می‌کنند نه حقایق قطعی را. xAI می‌گوید Grok گاهی اوقات به سوالات درباره خودش با جمع‌آوری اطلاعات درباره ماسک، xAI و Grok از اینترنت و ترکیب آن با نظرات عمومی پاسخ داده است.

مردم گاهی اوقات از طریق گفتگو، به ویژه دستورات سیستم که متن پنهانی است که رفتار را در ابتدای چت تنظیم می‌کند، سرنخ‌هایی درباره طراحی ربات کشف کرده‌اند. بر اساس گزارش The Verge، یک بار کاربران توانستند قوانین دیده نشده هوش مصنوعی بینگ را فاش کنند. اوایل امسال، کاربران گفتند که دستوراتی را از Grok استخراج کرده‌اند که منابعی را که ادعا می‌کردند ماسک یا دونالد ترامپ اطلاعات نادرست منتشر می‌کنند، کم‌اهمیت جلوه می‌داد و به نظر می‌رسد توضیحی برای وسواس کوتاه مدت بر “نسل‌کشی سفیدپوستان” بوده است.

زینب توفکچی که این دستورالعمل ادعایی “نسل‌کشی سفیدپوستان” را شناسایی کرد، هشدار داد که این می‌تواند “ساخته‌های Grok به روشی بسیار باورپذیر باشد، همانطور که مدل‌های زبانی بزرگ انجام می‌دهند.”

الکس هانا گفت: “هیچ تضمینی وجود ندارد که خروجی یک مدل زبانی بزرگ حقیقت داشته باشد… تنها راهی که می‌توانید دستورات، استراتژی دستوردهی و استراتژی مهندسی را بدست آورید، این است که شرکت‌ها در مورد دستورات، داده‌های آموزشی، داده‌های یادگیری تقویتی با بازخورد انسانی شفاف باشند و شروع به تولید گزارش‌های شفاف در این مورد کنند.”

این اختلاف یک باگ کدنویسی نبود؛ یک تعلیق در شبکه اجتماعی بود. فراتر از “خطای احمقانه” ماسک، علت واقعی همچنان ناشناخته است، با این حال تصاویری از پاسخ‌های متغیر Grok به طور گسترده در X پخش شد.

اگر این مطلب را می‌خوانید، شما از دیگران جلوتر هستید. با خبرنامه ما در همین سطح بمانید.

مشاهده بیشتر

نوشته های مشابه

دکمه بازگشت به بالا