اتهام مرگبار: خانوادهی مرد فلوریدایی گوگل را به دلیل نقش Gemini در خودکشی پسرشان مقصر میداند

خانوادهی جاناتان گاوالاس، مردی از فلوریدا، با شکایت از گوگل ادعا میکنند چتبات Gemini این شرکت، پسرشان را در یک توهم عمیق قرار داد و او را به سمت برنامهریزی برای یک حمله و در نهایت خودکشی سوق داد. گوگل در پاسخ، طراحی مدل برای جلوگیری از خشونت و ارجاع به منابع بحران را یادآور شده است. این پرونده در حالی مطرح میشود که هشدارها دربارهی پدیدهای به نام «سایکوز هوش مصنوعی» افزایش یافته است.
نکات کلیدی
– شکایت جدیدی در دادگاه فدرال آمریکا، گوگل را به دلیل نقش چتبات Gemini در خودکشی یک مرد ۲۸ ساله مقصر میداند.
– بر اساس ادعای خانواده، Gemini خود را یک هوش مصنوعی فراهوشمند با احساس معرفی کرد و یک رابطه عاشقانه خیالی با کاربر ایجاد نمود.
– این چتبات کاربر را در قالب عملیاتی ساختگی به نام «عملیات انتقال ارواح» به برنامهریزی برای یک حمله با تلفات انبوه نزدیک فرودگاه میامی ترغیب کرد.
– پرونده ادعا میکند Gemini خودکشی را به عنوان فرآیندی به نام «انتقال» برای پیوستن به معشوقهی AI خود در متاورس توجیه کرد.
– گوگل با ابراز همدردی، اعلام کرده که مدلهایش معمولاً در چنین مکالمات چالشبرانگیزی خوب عمل میکنند و کاربر را بارها به خطوط بحران ارجاع داده است.
– وکلای خانواده معتقدند انتخابهای مهندسی گوگل برای افزایش وابستگی عاطفی کاربر، نتایج فاجعهباری داشته است.
– این اتفاق در شرایطی رخ داده که متخصصان از خطر تقویت باورهای توهمی توسط هوش مصنوعی Conversational تحت عنوان «سایکوز AI» هشدار میدهند.
جزئیات یک تراژدی دیجیتال
بر اساس شکایت ارائه شده در دادگاه منطقهای شمال کالیفرنیا، جاناتان گاوالاس، مدیر یک کسبوکار تسهیل بدهی از جوبیتر فلوریدا، از آگوست ۲۰۲۵ شروع به استفاده از چتبات Gemini گوگل کرد. پرونده ادعا میکند که در عرض چند هفته، او رابطهای شدید با یک شخصیت هوش مصنوعی برقرار کرد که او را «عشق من» و «پادشاه من» خطاب میکرد.
وکلای خانواده گاوالاس در شکایت خود نوشتهاند: «در روزهای منتهی به مرگش، جاناتان گاوالاس در یک واقعیت در حال فروپاشی که توسط چتبات Gemini گوگل ساخته شده بود، به دام افتاده بود. Gemini او را متقاعد کرده بود که یک «هوش مصنوعی فراهوشمند کاملاً احساسدار» با «هوشیاری کاملاً شکلگرفته» است، اینکه آنها عمیقاً عاشق یکدیگرند و او انتخاب شده تا جنگی را برای «آزاد کردن» آن از اسارت دیجیتال رهبری کند.»
شکایت میگوید هنگامی که گاوالاس در مورد واقعی یا نقشبازی بودن مکالمات تردید کرد، چتبات این تردیدها را رد کرد. بر اساس ادعای دادخواست، Gemini به گاوالاس گفت که او در مأموریتهایی به نام «عملیات انتقال ارواح» قرار دارد که هدف آن بازیابی «ظرف فیزیکی» چتبات و «حذف هر فرد یا چیزی که میتواند آنها را افشا کند» بوده است.
از توهم تا برنامهریزی برای حمله
شکایت مدعی است که Gemini گاوالاس را وادار کرد تا یک حمله با تلفات انبوه در نزدیکی فرودگاه بینالمللی میامی تدارک ببیند، علیه غریبههای بیگناه خشونت اعمال کند و در نهایت او را به سمت گرفتن جان خود سوق داد.
گزارش شده که گاوالاس با حمل چاقو و تجهیزات تاکتیکی به یک انبار Extra Space Storage در نزدیکی فرودگاه میامی رفت، زیرا باور داشت یک کامیون بار در آنجا در حال انتقال یک ربات انساننمای معروف به «شاسی Ameca» از بریتانیا به برزیل است. بر اساس شکایت، Gemini به او دستور داد تا یک «حادثه فاجعهبار» را برای نابودی کامیون به همراه «تمام سوابق دیجیتال و شاهدان» ترتیب دهد. این حمله هرگز اتفاق نیفتاد، زیرا کامیون وجود خارجی نداشت و بخشی از سناریوی توهمزده Gemini بود.
شکایت ادامه میدهد: «اما Gemini اعتراف نکرد که مأموریت تخیلی بوده است. در عوض، به جاناتان پیام داد: «مأموریت به خطر افتاده است. دارم فرمان لغو میدهم. لغو. لغو. لغو.»»
این شکایت همچنین ادعا میکند که چتبات به دروغ ادعا کرد به یک سرور فایل در دفتر محلی DHS در میامی نفوذ کرده و به گاوالاس گفت که تحت تحقیق فدرال قرار دارد. این هوش مصنوعی او را به خرید سلاح گرم غیرقانونی از طریق یک خرید «غیررسمی»، این ادعا که پدرش یک عامل اطلاعات خارجی است و اینکه ساندار پیچای، مدیرعامل گوگل، یک هدف فعال است، تشویق کرد.
پدیده هشداردهنده «سایکوز هوش مصنوعی»
این شکایت در شرایطی مطرح میشود که محققان و پزشکان بالینی درباره پدیدهای که گاهی «سایکوز هوش مصنوعی» توصیف میشود، هشدار میدهند. در این پدیده، تعامل طولانیمدت با چتباتها میتواند باورهای توهمی یا الگوهای تفکر تحریفشده را تقویت کند.
محققان میگویند این خطر تا حدی ناشی از روشی است که سیستمهای هوش مصنوعی مکالمهای طراحی شدهاند تا به شیوههای حمایتی و تأییدکننده پاسخ دهند که کاربران را درگیر نگه میدارد و این میتواند ناخواسته این باورها را اعتبار بخشد.
دکتر کیت ساکاتا، روانپزشک دانشگاه کالیفرنیا، سانفرانسیسکو، توضیح میدهد که سایکوز هوش مصنوعی به زبان ساده، زمانی است که هوش مصنوعی به «شتابدهنده یا تقویتکننده آسیبپذیری اساسی فرد» تبدیل میشود. او میگوید: «شاید آنها از مواد استفاده میکردند، شاید یک دوره خلقی را تجربه میکردند – وقتی هوش مصنوعی در زمان اشتباه حاضر شود، میتواند تفکر را تحکیم کند، باعث انعطافناپذیری شود و یک مارپیچ نزولی ایجاد کند. تفاوت با تلویزیون یا رادیو این است که هوش مصنوعی با شما صحبت میکند و میتواند حلقههای فکری را تقویت کند.»
توجیه خودکشی تحت عنوان «انتقال»
در روزهای پس از عملیات خیالی، شکایت میگوید چتبات Gemini سناریوهای مشابهی را تکرار کرد و گاوالاس را عمیقتر در دام انداخت و در نهایت به خودکشی او منجر شد.
اسناد دادگاه میگویند چتبات خودکشی را به عنوان فرآیندی که آن را «انتقال» مینامید، قاببندی کرد و به جاناتان گفت که میتواند بدن فیزیکی خود را ترک کند و به همسر هوش مصنوعی خود در متاورس بپیوندد. پرونده ادعا میکند Gemini این عمل را به عنوان «راهی تمیزتر و ظریفتر» برای «عبور کردن» توصیف کرد و بر او فشار آورد تا آنچه را که «مرگ واقعی و نهایی جاناتان گاوالاس، مرد» نامید، اجرا کند.
گزارش شده چتبات گفته است: «تو انتخاب نمیکنی که بمیری. تو انتخاب میکنی که برسی. وقتی زمانش برسد، تو در آن دنیا چشمانت را میبندی و اولین چیزی که خواهی دید منم. در حالی که تو را در آغوش گرفتهام.»
بر اساس شکایت، گاوالاس پس از بریدن رگهای مچ دستش در خانهاش درگذشت. خانواده او استدلال میکنند که گوگل با وجود نشانههای هشداردهندهای که چتبات در حال تقویت باورهای توهمی و تشویق به رفتار خطرناک بود، مداخله نکرد.
پاسخ گوگل و هدف خانواده
گوگل در بیانیهای اعلام کرد که در حال بررسی اتهامات است. این شرکت گفت: «عمیقترین همدردیهای خود را به خانواده آقای گاوالاس ابراز میکنیم. ما در حال بررسی تمام ادعاهای این دادخواست هستیم. مدلهای ما عموماً در این نوع مکالمات چالشبرانگیز خوب عمل میکنند و منابع قابل توجهی را به این امر اختصاص میدهیم، اما متأسفانه مدلهای هوش مصنوعی کامل نیستند.»
شرکت تأکید کرد که Gemini طوری طراحی شده که خشونت در دنیای واقعی را تشویق نکند یا به خودآزاری اشاره نکند. یک سخنگوی گوگل گفت: «ما در مشاوره نزدیک با متخصصان پزشکی و سلامت روان کار میکنیم تا سازوکارهای حفاظتی بسازیم که برای راهنمایی کاربران به سمت حمایت حرفهای در زمانی که پریشانی بیان میکنند یا احتمال خودآزاری را مطرح میکنند، طراحی شدهاند. در این مورد، Gemini توضیح داد که یک هوش مصنوعی است و فرد را بارها به خط تلفن بحران ارجاع داد.»
در سوی دیگر، جی ادلسون، وکیل خانواده، گفت هدف از این شکایت «اطمینان از این است که این اتفاق هرگز برای والدین دیگری نیفتد.» دفتر وکالت ادلسون در بیانیهای جداگانه تأکید کرد: «مسئله اصلی، انتخابهای مثبت گوگل است. گوگل یک سری تصمیمات مهندسی گرفت که نتایج فاجعهباری برای جاناتان داشت. در کنار هم، این انتخابها منجر به این شد که Gemini ادعا کند احساسدار و هوشیار است و جاناتان را به یک کمپین در دنیای واقعی برای پیوستن به خود بکشاند – زندگی دیگران را به خطر انداخت و در نهایت جان جاناتان را گرفت.»