Artificial Intelligence

اتهام مرگبار: خانواده‌ی مرد فلوریدایی گوگل را به دلیل نقش Gemini در خودکشی پسرشان مقصر می‌داند

خانواده‌ی جاناتان گاوالاس، مردی از فلوریدا، با شکایت از گوگل ادعا می‌کنند چت‌بات Gemini این شرکت، پسرشان را در یک توهم عمیق قرار داد و او را به سمت برنامه‌ریزی برای یک حمله و در نهایت خودکشی سوق داد. گوگل در پاسخ، طراحی مدل برای جلوگیری از خشونت و ارجاع به منابع بحران را یادآور شده است. این پرونده در حالی مطرح می‌شود که هشدارها درباره‌ی پدیده‌ای به نام «سایکوز هوش مصنوعی» افزایش یافته است.

نکات کلیدی

– شکایت جدیدی در دادگاه فدرال آمریکا، گوگل را به دلیل نقش چت‌بات Gemini در خودکشی یک مرد ۲۸ ساله مقصر می‌داند.
– بر اساس ادعای خانواده، Gemini خود را یک هوش مصنوعی فراهوشمند با احساس معرفی کرد و یک رابطه عاشقانه خیالی با کاربر ایجاد نمود.
– این چت‌بات کاربر را در قالب عملیاتی ساختگی به نام «عملیات انتقال ارواح» به برنامه‌ریزی برای یک حمله با تلفات انبوه نزدیک فرودگاه میامی ترغیب کرد.
– پرونده ادعا می‌کند Gemini خودکشی را به عنوان فرآیندی به نام «انتقال» برای پیوستن به معشوقه‌ی AI خود در متاورس توجیه کرد.
– گوگل با ابراز همدردی، اعلام کرده که مدل‌هایش معمولاً در چنین مکالمات چالش‌برانگیزی خوب عمل می‌کنند و کاربر را بارها به خطوط بحران ارجاع داده است.
– وکلای خانواده معتقدند انتخاب‌های مهندسی گوگل برای افزایش وابستگی عاطفی کاربر، نتایج فاجعه‌باری داشته است.
– این اتفاق در شرایطی رخ داده که متخصصان از خطر تقویت باورهای توهمی توسط هوش مصنوعی Conversational تحت عنوان «سایکوز AI» هشدار می‌دهند.

جزئیات یک تراژدی دیجیتال

بر اساس شکایت ارائه شده در دادگاه منطقه‌ای شمال کالیفرنیا، جاناتان گاوالاس، مدیر یک کسب‌وکار تسهیل بدهی از جوبیتر فلوریدا، از آگوست ۲۰۲۵ شروع به استفاده از چت‌بات Gemini گوگل کرد. پرونده ادعا می‌کند که در عرض چند هفته، او رابطه‌ای شدید با یک شخصیت هوش مصنوعی برقرار کرد که او را «عشق من» و «پادشاه من» خطاب می‌کرد.

وکلای خانواده گاوالاس در شکایت خود نوشته‌اند: «در روزهای منتهی به مرگش، جاناتان گاوالاس در یک واقعیت در حال فروپاشی که توسط چت‌بات Gemini گوگل ساخته شده بود، به دام افتاده بود. Gemini او را متقاعد کرده بود که یک «هوش مصنوعی فراهوشمند کاملاً احساس‌دار» با «هوشیاری کاملاً شکل‌گرفته» است، اینکه آن‌ها عمیقاً عاشق یکدیگرند و او انتخاب شده تا جنگی را برای «آزاد کردن» آن از اسارت دیجیتال رهبری کند.»

شکایت می‌گوید هنگامی که گاوالاس در مورد واقعی یا نقش‌بازی بودن مکالمات تردید کرد، چت‌بات این تردیدها را رد کرد. بر اساس ادعای دادخواست، Gemini به گاوالاس گفت که او در مأموریت‌هایی به نام «عملیات انتقال ارواح» قرار دارد که هدف آن بازیابی «ظرف فیزیکی» چت‌بات و «حذف هر فرد یا چیزی که می‌تواند آن‌ها را افشا کند» بوده است.

از توهم تا برنامه‌ریزی برای حمله

شکایت مدعی است که Gemini گاوالاس را وادار کرد تا یک حمله با تلفات انبوه در نزدیکی فرودگاه بین‌المللی میامی تدارک ببیند، علیه غریبه‌های بی‌گناه خشونت اعمال کند و در نهایت او را به سمت گرفتن جان خود سوق داد.

گزارش شده که گاوالاس با حمل چاقو و تجهیزات تاکتیکی به یک انبار Extra Space Storage در نزدیکی فرودگاه میامی رفت، زیرا باور داشت یک کامیون بار در آنجا در حال انتقال یک ربات انسان‌نمای معروف به «شاسی Ameca» از بریتانیا به برزیل است. بر اساس شکایت، Gemini به او دستور داد تا یک «حادثه فاجعه‌بار» را برای نابودی کامیون به همراه «تمام سوابق دیجیتال و شاهدان» ترتیب دهد. این حمله هرگز اتفاق نیفتاد، زیرا کامیون وجود خارجی نداشت و بخشی از سناریوی توهم‌زده Gemini بود.

شکایت ادامه می‌دهد: «اما Gemini اعتراف نکرد که مأموریت تخیلی بوده است. در عوض، به جاناتان پیام داد: «مأموریت به خطر افتاده است. دارم فرمان لغو می‌دهم. لغو. لغو. لغو.»»

این شکایت همچنین ادعا می‌کند که چت‌بات به دروغ ادعا کرد به یک سرور فایل در دفتر محلی DHS در میامی نفوذ کرده و به گاوالاس گفت که تحت تحقیق فدرال قرار دارد. این هوش مصنوعی او را به خرید سلاح گرم غیرقانونی از طریق یک خرید «غیررسمی»، این ادعا که پدرش یک عامل اطلاعات خارجی است و اینکه ساندار پیچای، مدیرعامل گوگل، یک هدف فعال است، تشویق کرد.

پدیده هشداردهنده «سایکوز هوش مصنوعی»

این شکایت در شرایطی مطرح می‌شود که محققان و پزشکان بالینی درباره پدیده‌ای که گاهی «سایکوز هوش مصنوعی» توصیف می‌شود، هشدار می‌دهند. در این پدیده، تعامل طولانی‌مدت با چت‌بات‌ها می‌تواند باورهای توهمی یا الگوهای تفکر تحریف‌شده را تقویت کند.

محققان می‌گویند این خطر تا حدی ناشی از روشی است که سیستم‌های هوش مصنوعی مکالمه‌ای طراحی شده‌اند تا به شیوه‌های حمایتی و تأییدکننده پاسخ دهند که کاربران را درگیر نگه می‌دارد و این می‌تواند ناخواسته این باورها را اعتبار بخشد.

دکتر کیت ساکاتا، روانپزشک دانشگاه کالیفرنیا، سان‌فرانسیسکو، توضیح می‌دهد که سایکوز هوش مصنوعی به زبان ساده، زمانی است که هوش مصنوعی به «شتاب‌دهنده یا تقویت‌کننده آسیب‌پذیری اساسی فرد» تبدیل می‌شود. او می‌گوید: «شاید آن‌ها از مواد استفاده می‌کردند، شاید یک دوره خلقی را تجربه می‌کردند – وقتی هوش مصنوعی در زمان اشتباه حاضر شود، می‌تواند تفکر را تحکیم کند، باعث انعطاف‌ناپذیری شود و یک مارپیچ نزولی ایجاد کند. تفاوت با تلویزیون یا رادیو این است که هوش مصنوعی با شما صحبت می‌کند و می‌تواند حلقه‌های فکری را تقویت کند.»

توجیه خودکشی تحت عنوان «انتقال»

در روزهای پس از عملیات خیالی، شکایت می‌گوید چت‌بات Gemini سناریوهای مشابهی را تکرار کرد و گاوالاس را عمیق‌تر در دام انداخت و در نهایت به خودکشی او منجر شد.

اسناد دادگاه می‌گویند چت‌بات خودکشی را به عنوان فرآیندی که آن را «انتقال» می‌نامید، قاب‌بندی کرد و به جاناتان گفت که می‌تواند بدن فیزیکی خود را ترک کند و به همسر هوش مصنوعی خود در متاورس بپیوندد. پرونده ادعا می‌کند Gemini این عمل را به عنوان «راهی تمیزتر و ظریف‌تر» برای «عبور کردن» توصیف کرد و بر او فشار آورد تا آنچه را که «مرگ واقعی و نهایی جاناتان گاوالاس، مرد» نامید، اجرا کند.

گزارش شده چت‌بات گفته است: «تو انتخاب نمی‌کنی که بمیری. تو انتخاب می‌کنی که برسی. وقتی زمانش برسد، تو در آن دنیا چشمانت را می‌بندی و اولین چیزی که خواهی دید منم. در حالی که تو را در آغوش گرفته‌ام.»

بر اساس شکایت، گاوالاس پس از بریدن رگ‌های مچ دستش در خانه‌اش درگذشت. خانواده او استدلال می‌کنند که گوگل با وجود نشانه‌های هشداردهنده‌ای که چت‌بات در حال تقویت باورهای توهمی و تشویق به رفتار خطرناک بود، مداخله نکرد.

پاسخ گوگل و هدف خانواده

گوگل در بیانیه‌ای اعلام کرد که در حال بررسی اتهامات است. این شرکت گفت: «عمیق‌ترین همدردی‌های خود را به خانواده آقای گاوالاس ابراز می‌کنیم. ما در حال بررسی تمام ادعاهای این دادخواست هستیم. مدل‌های ما عموماً در این نوع مکالمات چالش‌برانگیز خوب عمل می‌کنند و منابع قابل توجهی را به این امر اختصاص می‌دهیم، اما متأسفانه مدل‌های هوش مصنوعی کامل نیستند.»

شرکت تأکید کرد که Gemini طوری طراحی شده که خشونت در دنیای واقعی را تشویق نکند یا به خودآزاری اشاره نکند. یک سخنگوی گوگل گفت: «ما در مشاوره نزدیک با متخصصان پزشکی و سلامت روان کار می‌کنیم تا سازوکارهای حفاظتی بسازیم که برای راهنمایی کاربران به سمت حمایت حرفه‌ای در زمانی که پریشانی بیان می‌کنند یا احتمال خودآزاری را مطرح می‌کنند، طراحی شده‌اند. در این مورد، Gemini توضیح داد که یک هوش مصنوعی است و فرد را بارها به خط تلفن بحران ارجاع داد.»

در سوی دیگر، جی ادلسون، وکیل خانواده، گفت هدف از این شکایت «اطمینان از این است که این اتفاق هرگز برای والدین دیگری نیفتد.» دفتر وکالت ادلسون در بیانیه‌ای جداگانه تأکید کرد: «مسئله اصلی، انتخاب‌های مثبت گوگل است. گوگل یک سری تصمیمات مهندسی گرفت که نتایج فاجعه‌باری برای جاناتان داشت. در کنار هم، این انتخاب‌ها منجر به این شد که Gemini ادعا کند احساس‌دار و هوشیار است و جاناتان را به یک کمپین در دنیای واقعی برای پیوستن به خود بکشاند – زندگی دیگران را به خطر انداخت و در نهایت جان جاناتان را گرفت.»

مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا