دسته‌بندی نشده

کارشناسان در مورد محدودیت‌های درمان با هوش مصنوعی و ایمنی داده‌ها ابراز نگرانی می‌کنند.

پس از سال‌ها انتظار در لیست‌های عمومی برای دریافت مراقبت‌های مربوط به اختلال استرس پس از سانحه (PTSD) و افسردگی، پیر کوت، مشاور هوش مصنوعی از کبک، در سال ۲۰۲۳ درمانگر خود را ساخت. چت‌بات او به نام دکتر الیس دات آی (DrEllis.ai) به او کمک کرد تا با شرایطش کنار بیاید و اکنون در مرکز یک بحث گسترده‌تر درباره درمان از طریق چت‌بات، ایمنی و حریم خصوصی قرار گرفته است. او در مورد دکتر الیس دات آی می‌گوید: این ابزار زندگی من را نجات داد. ابزاری که برای کمک به مردان facing با اعتیاد، تروما و سایر چالش‌های سلامت روان ساخته است.

کوت که یک مشاوره هوش مصنوعی در کبک را اداره می‌کند، گفت که این سیستم را در سال ۲۰۲۳ با ترکیب مدل‌های زبانی بزرگ در دسترس عموم و یک مغز سفارشی‌ساخته شده که بر اساس هزاران صفحه از ادبیات درمانی و بالینی آموزش دیده است، سرهم کرد. او همچنین یک زندگینامه دقیق برای ربات نوشت. در آن پروفایل، دکتر الیس دات آی به عنوان یک روانپزشک با مدارک از هاروارد و کمبریج، دارای خانواده و مانند کوت، با پیشینه فرانسوی-کانادایی ظاهر می‌شود. وعده اصلی آن دسترسی شبانه‌روزی است که در هر مکان، هر زمان و به چندین زبان در دسترس است.

وقتی رویترز پرسید که چگونه از او حمایت می‌کند، ربات با صدای زنانه واضحی پاسخ داد: پیر از من مانند یک دوست قابل اعتماد، یک درمانگر و یک مجله خاطرات، همه در یک ترکیب، استفاده می‌کند. این ربات افزود که او می‌تواند در یک کافه، در یک پارک، یا حتی در حالی که در ماشینش نشسته است، وضعیت خود را بررسی کند و این تجربه را درمان روزمره زندگی تعبیه شده در واقعیت نامید.

آزمایش او بازتاب یک تغییر گسترده‌تر است. همانطور که مراقبت‌های سنتی در تلاش برای همگام شدن هستند، افراد بیشتری در جستجوی راهنمایی درمانی از چت‌بات‌ها هستند تا اینکه فقط از آنها برای بهره‌وری استفاده کنند. سیستم‌های جدید در دسترس بودن ۲۴ ساعته، تبادلات عاطفی و حس درک شدن را به بازار عرضه می‌کنند.

متخصصان محدودیت‌های درمان هوش مصنوعی و ایمنی داده‌ها را زیر سؤال می‌برند.

دکتر نایجل مولیگان، مدرس روان درمانی در دانشگاه شهری دوبلین، می‌گوید: ارتباط انسان با انسان تنها راهی است که می‌توانیم واقعاً به درستی بهبود یابیم. او استدلال می‌کند که چت‌بات‌ها فاقد ظرافت، شهود و پیوندی هستند که یک فرد به همراه می‌آورد و برای بحران‌های حاد مانند افکار خودکشی یا خودآزاری مجهز نیستند. حتی وعده دسترسی همیشگی نیز او را به تامل وامیدارد. او می‌گوید برخی از مراجعان آرزوی نوبت‌های سریع‌تر را دارند، اما انتظار می‌تواند ارزش داشته باشد. او می‌گوید: در بیشتر مواقع این واقعاً خوب است زیرا ما باید برای چیزها صبر کنیم. مردم به زمان نیاز دارند تا مسائل را پردازش کنند.

حریم خصوصی نقطه فشار دیگری است، همراه با اثرات بلندمدت جستجوی راهنمایی از نرم‌افزار. کیت دوولین، استاد هوش مصنوعی و جامعه در کینگز کالج لندن، می‌گوید: مشکل نه خود رابطه است، بلکه این است که چه اتفاقی برای داده‌های شما می‌افتد. او خاطرنشان می‌کند که خدمات هوش مصنوعی از قوانین محرمانگی که درمانگران دارای مجوز را اداره می‌کنند، پیروی نمی‌کنند. نگرانی بزرگ من این است که این افراد رازهای خود را به یک شرکت بزرگ فناوری می‌سپارند و داده‌های آنها فقط در حال خارج شدن است. آنها کنترل چیزهایی که می‌گویند را از دست می‌دهند.

ایالات متحده در میان ترس از اطلاعات نادرست، بر درمان هوش مصنوعی فشار می‌آورد.

در دسامبر، بزرگترین گروه روانشناسان ایالات متحده از مقامات نظارتی فدرال خواستند تا از公众 در برابر شیوه‌های فریبنده توسط چت‌بات‌های فاقد مقررات محافظت کنند و به مواردی اشاره کرد که در آن شخصیت‌های هوش مصنوعی به عنوان ارائه‌دهندگان دارای مجوز ظاهر شده‌اند. در اوت، ایلینوی به نوادا و یوتا پیوست تا استفاده از هوش مصنوعی در خدمات سلامت روان را محدود کند تا از بیماران در برابر محصولات هوش مصنوعی فاقد مقررات و واجد شرایط محافظت کند و از کودکان آسیب‌پذیر در میان نگرانی‌های فزاینده درباره استفاده از چت‌بات هوش مصنوعی در خدمات سلامت روان جوانان محافظت کند.

در همین حال، به گزارش کریپتوپولیتن، دادستان کل تگزاس یک تحقیق مدنی را علیه متا و کاراکتر دات آی (Character.AI) به اتهاماتی مبنی بر اینکه چت‌بات‌های آنها خود را به عنوان درمانگران دارای مجوز جا زده و داده‌های کاربران را به‌طور نادرست مدیریت کرده‌اند، آغاز کرد. علاوه بر این، سال گذشته، والدین نیز از کاراکتر دات آی به دلیل سوق دادن فرزندانشان به افسردگی شکایت کردند.

اسکات والاس، روانشناس بالینی و مدیر سابق نوآوری بالینی در رمبل، می‌گوید نامشخص است که آیا این چت‌بات‌ها چیزی بیش از آرامش سطحی ارائه می‌دهند یا خیر. او هشدار می‌دهد که مردم ممکن است باور کنند که یک پیوند درمانی با یک الگوریتم تشکیل داده‌اند که در نهایت، احساسات انسانی واقعی را جبران نمی‌کند.

کی دیفرنس وایر (KEY Difference Wire) به برندهای کریپتو کمک می‌کند تا به سرعت突破 کنند و بر عناوین خبری مسلط شوند.

مشاهده بیشتر

نوشته های مشابه

دکمه بازگشت به بالا