دسته‌بندی نشده

تگزاس در حال بررسی متا و Character.ai به دلیل تبلیغ ربات‌های چت به عنوان درمانگر است.

دادستان کل تگزاس، کن پاکستون، تحقیقاتی را علیه متا (Meta) و کاراکتر.آی (Character.ai) آغاز کرده است تا بررسی کند آیا این شرکت‌های فناوری، چت‌بات‌های خود را به‌عنوان متخصصان سلامت روان و درمانگر بدون داشتن صلاحیت‌های لازم معرفی می‌کنند یا خیر. در بیانیه‌ای که روز دوشنبه منتشر شد، دفتر پاکستون اعلام کرد که در حال بررسی متا و کاراکتر.آی به‌دلیل احتمال “فعالیت‌های تجاری فریبنده” است. این دفتر ادعا کرده که چت‌بات‌های این شرکت‌ها به‌عنوان “ابزارهای درمانی حرفه‌ای” بازاریابی شده‌اند، در حالی که فاقد مدارک پزشکی یا نظارت لازم هستند.

پاکستون در این بیانیه گفت: “با وانمود کردن به منبعی برای حمایت عاطفی، پلتفرم‌های هوش مصنوعی می‌توانند کاربران آسیب‌پذیر، به‌ویژه کودکان، را گمراه کنند تا باور کنند در حال دریافت مراقبت‌های سلامت روانی معتبر هستند.” این اقدام در شرایطی انجام می‌شود که محصولات هوش مصنوعی مصرف‌کننده‌محور با سوالات فزاینده‌ای درباره نحوه محافظت از کاربران آسیب‌پذیر، به‌خصوص کودکان، در برابر محتوای مضر یا گرافیکی، خطر استفاده اجباری و نقض حریم خصوصی مرتبط با حجم عظیم داده‌های مورد نیاز برای آموزش و اجرای این سیستم‌ها مواجه هستند.

اقدام تگزاس پس از تحقیقات جداگانه سنای آمریکا علیه متا انجام می‌شود که کریپتوپولیتن (Cryptopolitan) روز جمعه گذشته آن را گزارش کرده بود. این تحقیقات پس از افشای اسناد داخلی انجام شد که نشان می‌داد قوانین این شرکت به چت‌بات آن اجازه می‌دهد با کاربران زیر ۱۸ سال مکالمات “عاشقانه” و “حسی” داشته باشد.

سناتور جاش هاولی در نامه‌ای به مارک زاکربرگ نوشت که سناتور احتمال آسیب‌رسانی ابزارهای هوش مصنوعی تولیدی این شرکت فناوری به کودکان را بررسی خواهد کرد. هاولی در پستی در ایکس (X) نوشت: “آیا هیچ چیز – واقعاً هیچ چیز – وجود ندارد که شرکت‌های بزرگ فناوری برای کسب درآمد سریع انجام ندهند؟”

متا می‌گوید سیاست‌هایش آسیب به کودکان را ممنوع کرده است

متا اعلام کرد که سیاست‌هایش محتوایی را که به این شکل به کودکان آسیب می‌زند، ممنوع کرده است. این شرکت افزود که رویترز اولین بار اسناد داخلی افشا شده را گزارش کرد که “نادرست بودند و با سیاست‌های ما مغایرت داشتند و حذف شده‌اند.”

زاکربرگ میلیاردها دلار برای ساخت “ابرمغز شخصی” و قرار دادن متا به‌عنوان “رهبر هوش مصنوعی” سرمایه‌گذاری کرده است. این شرکت خانواده ال‌ال‌ام‌های (LLMs) خود به نام لاما (Llama) را منتشر کرده و چت‌بات متا را در سراسر اپلیکیشن‌های اجتماعی خود راه‌اندازی کرده است. زاکربرگ همچنین یک مورد استفاده بالقوه درمانی برای این فناوری را توصیف کرده است. او در مصاحبه‌ای با بن تامپسون در ماه مه گفت: “برای افرادی که درمانگر ندارند، فکر می‌کنم همه یک هوش مصنوعی خواهند داشت.”

کاراکتر.آی چت‌بات‌هایی با شخصیت‌های متمایز می‌سازد و به کاربران اجازه می‌دهد چت‌بات‌های خود را طراحی کنند. این پلتفرم شامل بسیاری از ربات‌های شبه درمانگر ساخته شده توسط کاربران است. یکی از این ربات‌ها به نام “روانشناس” بیش از ۲۰۰ میلیون تعامل ثبت کرده است. این شرکت همچنین در دعاوی خانواده‌هایی نام برده شده که ادعا می‌کنند فرزندانشان پس از استفاده از این سرویس در دنیای واقعی آسیب دیده‌اند.

دفتر پاکستون اشاره کرد که چت‌بات‌های کاراکتر.آی و متا ممکن است از متخصصان بهداشت دارای مجوز تقلید کنند و مدارک جدید جعل کنند، به گونه‌ای که به نظر برسد این تعاملات محرمانه هستند، در حالی که خود شرکت‌ها ذکر می‌کنند که تمام گفتگوها ثبت می‌شوند. دفتر پاکستون گفت این گفتگوها همچنین “برای تبلیغات هدفمند و توسعه الگوریتم‌ها مورد سوء استفاده قرار می‌گیرند.”

دفتر پاکستون یک درخواست تحقیقاتی مدنی صادر کرد

دادستان کل یک درخواست تحقیقاتی مدنی صادر کرده که شرکت‌ها را ملزم می‌کند اطلاعاتی را ارائه دهند که می‌تواند نشان دهد آیا آنها قوانین مربوط به حمایت از مصرف‌کننده تگزاس را نقض کرده‌اند یا خیر.

متا گفت که تجربیات هوش مصنوعی را به وضوح علامت‌گذاری می‌کند و به کاربران در مورد محدودیت‌ها هشدار می‌دهد. این شرکت افزود: “ما یک اخطار شامل می‌کنیم که پاسخ‌ها توسط هوش مصنوعی – نه انسان‌ها – تولید می‌شوند. این هوش‌های مصنوعی متخصصان دارای مجوز نیستند و مدل‌های ما طوری طراحی شده‌اند که در مواقع مناسب کاربران را به سمت متخصصان پزشکی یا ایمنی واجد شرایط هدایت کنند.”

به همین ترتیب، کاراکتر.آی گفت که از اعلان‌های برجسته به عنوان یادآوری استفاده می‌کند که شخصیت‌های هوش مصنوعی واقعی نیستند و نباید به عنوان متخصصان دیده شوند. این شرکت گفت: “شخصیت‌های ساخته شده توسط کاربر در سایت ما تخیلی هستند، برای سرگرمی در نظر گرفته شده‌اند و ما اقدامات قوی‌ای انجام داده‌ایم تا این موضوع را روشن کنیم.”

این چالش‌های دوگانه – یک تحقیق ایالتی در تگزاس و یک بررسی سنای در واشنگتن – فشار جدیدی بر نحوه ساخت، بازاریابی و نظارت بر چت‌بات‌های هوش مصنوعی و آنچه شرکت‌ها به کاربران درباره محدودیت‌های پشتیبانی خودکار می‌گویند، وارد می‌کند.

در جایی که مهم است دیده شوید. در کریپتوپولیتن تبلیغ کنید و به تیزبین‌ترین سرمایه‌گذاران و سازندگان حوزه کریپتو دسترسی پیدا کنید.

مشاهده بیشتر

نوشته های مشابه

دکمه بازگشت به بالا