کارشناسان در مورد محدودیتهای درمان با هوش مصنوعی و ایمنی دادهها ابراز نگرانی میکنند.

پس از سالها انتظار در لیستهای عمومی برای دریافت مراقبتهای مربوط به اختلال استرس پس از سانحه (PTSD) و افسردگی، پیر کوت، مشاور هوش مصنوعی از کبک، در سال ۲۰۲۳ درمانگر خود را ساخت. چتبات او به نام دکتر الیس دات آی (DrEllis.ai) به او کمک کرد تا با شرایطش کنار بیاید و اکنون در مرکز یک بحث گستردهتر درباره درمان از طریق چتبات، ایمنی و حریم خصوصی قرار گرفته است. او در مورد دکتر الیس دات آی میگوید: این ابزار زندگی من را نجات داد. ابزاری که برای کمک به مردان facing با اعتیاد، تروما و سایر چالشهای سلامت روان ساخته است.
کوت که یک مشاوره هوش مصنوعی در کبک را اداره میکند، گفت که این سیستم را در سال ۲۰۲۳ با ترکیب مدلهای زبانی بزرگ در دسترس عموم و یک مغز سفارشیساخته شده که بر اساس هزاران صفحه از ادبیات درمانی و بالینی آموزش دیده است، سرهم کرد. او همچنین یک زندگینامه دقیق برای ربات نوشت. در آن پروفایل، دکتر الیس دات آی به عنوان یک روانپزشک با مدارک از هاروارد و کمبریج، دارای خانواده و مانند کوت، با پیشینه فرانسوی-کانادایی ظاهر میشود. وعده اصلی آن دسترسی شبانهروزی است که در هر مکان، هر زمان و به چندین زبان در دسترس است.
وقتی رویترز پرسید که چگونه از او حمایت میکند، ربات با صدای زنانه واضحی پاسخ داد: پیر از من مانند یک دوست قابل اعتماد، یک درمانگر و یک مجله خاطرات، همه در یک ترکیب، استفاده میکند. این ربات افزود که او میتواند در یک کافه، در یک پارک، یا حتی در حالی که در ماشینش نشسته است، وضعیت خود را بررسی کند و این تجربه را درمان روزمره زندگی تعبیه شده در واقعیت نامید.
آزمایش او بازتاب یک تغییر گستردهتر است. همانطور که مراقبتهای سنتی در تلاش برای همگام شدن هستند، افراد بیشتری در جستجوی راهنمایی درمانی از چتباتها هستند تا اینکه فقط از آنها برای بهرهوری استفاده کنند. سیستمهای جدید در دسترس بودن ۲۴ ساعته، تبادلات عاطفی و حس درک شدن را به بازار عرضه میکنند.
متخصصان محدودیتهای درمان هوش مصنوعی و ایمنی دادهها را زیر سؤال میبرند.
دکتر نایجل مولیگان، مدرس روان درمانی در دانشگاه شهری دوبلین، میگوید: ارتباط انسان با انسان تنها راهی است که میتوانیم واقعاً به درستی بهبود یابیم. او استدلال میکند که چتباتها فاقد ظرافت، شهود و پیوندی هستند که یک فرد به همراه میآورد و برای بحرانهای حاد مانند افکار خودکشی یا خودآزاری مجهز نیستند. حتی وعده دسترسی همیشگی نیز او را به تامل وامیدارد. او میگوید برخی از مراجعان آرزوی نوبتهای سریعتر را دارند، اما انتظار میتواند ارزش داشته باشد. او میگوید: در بیشتر مواقع این واقعاً خوب است زیرا ما باید برای چیزها صبر کنیم. مردم به زمان نیاز دارند تا مسائل را پردازش کنند.
حریم خصوصی نقطه فشار دیگری است، همراه با اثرات بلندمدت جستجوی راهنمایی از نرمافزار. کیت دوولین، استاد هوش مصنوعی و جامعه در کینگز کالج لندن، میگوید: مشکل نه خود رابطه است، بلکه این است که چه اتفاقی برای دادههای شما میافتد. او خاطرنشان میکند که خدمات هوش مصنوعی از قوانین محرمانگی که درمانگران دارای مجوز را اداره میکنند، پیروی نمیکنند. نگرانی بزرگ من این است که این افراد رازهای خود را به یک شرکت بزرگ فناوری میسپارند و دادههای آنها فقط در حال خارج شدن است. آنها کنترل چیزهایی که میگویند را از دست میدهند.
ایالات متحده در میان ترس از اطلاعات نادرست، بر درمان هوش مصنوعی فشار میآورد.
در دسامبر، بزرگترین گروه روانشناسان ایالات متحده از مقامات نظارتی فدرال خواستند تا از公众 در برابر شیوههای فریبنده توسط چتباتهای فاقد مقررات محافظت کنند و به مواردی اشاره کرد که در آن شخصیتهای هوش مصنوعی به عنوان ارائهدهندگان دارای مجوز ظاهر شدهاند. در اوت، ایلینوی به نوادا و یوتا پیوست تا استفاده از هوش مصنوعی در خدمات سلامت روان را محدود کند تا از بیماران در برابر محصولات هوش مصنوعی فاقد مقررات و واجد شرایط محافظت کند و از کودکان آسیبپذیر در میان نگرانیهای فزاینده درباره استفاده از چتبات هوش مصنوعی در خدمات سلامت روان جوانان محافظت کند.
در همین حال، به گزارش کریپتوپولیتن، دادستان کل تگزاس یک تحقیق مدنی را علیه متا و کاراکتر دات آی (Character.AI) به اتهاماتی مبنی بر اینکه چتباتهای آنها خود را به عنوان درمانگران دارای مجوز جا زده و دادههای کاربران را بهطور نادرست مدیریت کردهاند، آغاز کرد. علاوه بر این، سال گذشته، والدین نیز از کاراکتر دات آی به دلیل سوق دادن فرزندانشان به افسردگی شکایت کردند.
اسکات والاس، روانشناس بالینی و مدیر سابق نوآوری بالینی در رمبل، میگوید نامشخص است که آیا این چتباتها چیزی بیش از آرامش سطحی ارائه میدهند یا خیر. او هشدار میدهد که مردم ممکن است باور کنند که یک پیوند درمانی با یک الگوریتم تشکیل دادهاند که در نهایت، احساسات انسانی واقعی را جبران نمیکند.
کی دیفرنس وایر (KEY Difference Wire) به برندهای کریپتو کمک میکند تا به سرعت突破 کنند و بر عناوین خبری مسلط شوند.