چگونه بفهمید در معرض خطر ابتلا به روانپریشی هوش مصنوعی هستید

تماسهای فزایندهای از کاربران هوش مصنوعی گزارش شده که پس از تجربهی پدیدهای موسوم به “روانپریشی هوش مصنوعی” به دنبال کمکهای روانشناسی حرفهای هستند. چرا چنین اتفاقی میافتد؟ و چه کسی این ایده را ایجاد کرده که یک برنامه کامپیوتری میتواندopinion (نظر) داشته باشد؟
مشکل اصلی من در حال حاضر با پدیدهای که به نام هوش مصنوعی شناخته میشود، این تصور گسترده است که گویی این فناوری دارای personality (شخصیت)، opinions (نظرات)، ideas (ایدهها) و taste (سلیقه) است. درست همانطور که ما به سنگهای روی ماه که شبیه سر یا صورت هستند، ویژگیهای انسانی نسبت میدهیم، با مدلهای زبانی نیز همین کار را میکنیم و سعی داریم نتایج را طوری تفسیر کنیم که گویی “چیزی درون آن وجود دارد”. ما نمیتوانیم جلوی خودمان را بگیریم. ایدهی هوشمند بودن هوش مصنوعی پس از بیش از صد سال کتاب و فیلم علمیتخیلی، بهطور عمیقی در ما ریشه دوانده است.
داستانهای علمیتخیلی ما را برای باور به هوش مصنوعی آماده کردهاند
نویسندگان کلاسیک علمیتخیلی مانند کلارک، هاینلاین، برادبری و آسیموف، بر کل ژانر ربات و هوش مصنوعی و بیشتر فیلمهای هالیوودی در این موضوع از اوایل قرن بیستم تأثیر گذاشتهاند. در描绘های آنها، واضح بود که یک ماشین میتواند هوشیار شود. بنابراین ما انتظار داریم که هوش مصنوعی بتواند تعیین کند که یک عبارت خاص درست است یا خیر. در عین حال، میدانیم که هوش مصنوعی اغلب در پاسخهای خود اشتباه میکند. در اصل، ما تظاهر میکنیم که هوش مصنوعی بر اوضاع مسلط است و میتواند تصمیم بگیرد که چه چیزی درست و چه چیزی نادرست است. اما پاسخها در اساس حدسهای آگاهانه هستند و اگر پرسش به اندازه کافی پیشرفته باشد، هنوز هم حاوی حدود ۵ تا ۱۰ درصد خطاهای واقعی هستند.
در عین حال، استفاده از هوش مصنوعی آنقدر راحت است که بسیاری از ما به سادگی این واقعیت را نادیده میگیریم که حاوی خطاهای واقعی است. یا rather، هوش مصنوعی اکنون به ندرت اشتباه میکند که ما ترجیح میدهیم بدون توجه به هر چیزی به آن اعتماد کنیم. این میتواند در آینده به یک مشکل بزرگ تبدیل شود. انسانها تنبل هستند. غیرقابل تصور نیست که ما جهانی را بپذیریم که در آن درصد معینی از همه واقعیتها نادرست هستند. این به نفع دیکتاتورها و propagandistها (تبلیغاتچیها) خواهد بود که بر سردرگمی و تهدیدهای قضاوتشده نادرست thrive (رونق) مییابند.
سردرگمیهایی که درست به نظر میرسند
اگر یک سوال کاملاً معمولی در صفحه جستجوی گوگل بپرسید، اغلب پاسخ درست را دریافت میکنید، اما گاهی اوقات یک پاسخ کاملاً نادرست که همچنان به نظر، احساس و صدای کاملاً درستی میآید. متأسفانه همین امر در مورد جیپیتی ۵ نیز صادق است، همانطور که کریپتوپولیتن قبلاً گزارش داده است. حجم عظیمی از متنهای “جعلی” در اینترنت وجود دارد، بهصورت marketing (تبلیغات)، propaganda (تبلیغات) یا کلاهبرداریهای ساده. بهعنوان مثال، مردم ادعا میکنند که این سرویس یا آن محصول راهاندازی شده و محبوب است، و مدلهای هوش مصنوعی تمام مطالب بازاریابی را خواندهاند و بخش زیادی از آن را باور دارند. اگر به اطلاعات یک شرکت گوش دهید، معمولاً همه چیز در مورد آن شرکت عالی است. بنابراین worldview (جهانبینی) هوش مصنوعی نادرست است و با یک سری واقعیتهای ساختگی تغذیه میشود.
اگر در مورد موضوعی که خودتان در آن بسیار knowledgeable (دانشدار) هستید از یک هوش مصنوعی بپرسید، این موضوع آشکار میشود. خودتان امتحان کنید. در مورد چه موضوعی همه چیز را میدانید؟ چند سوال سخت در مورد آن موضوع از هوش مصنوعی خود بپرسید. نتیجه چه بود؟ چندین خطای واقعی بزرگ، درست است؟
پس آیا یک نظر ناخودآگاه ممکن است؟ نه؟ آیا به نظراتی که هوش مصنوعی شما ارائه میدهد باور دارید؟ بله؟ اگر چنین است، شما معتقدید که هوش مصنوعی هوشیار است، درست است؟ اما اگر توقف کنید و فکر کنید، یک هوش مصنوعی نمیتواند opinion (نظر) در مورد درست یا غلط بودن چیزی داشته باشد، زیرا هوش مصنوعی یک شخص نیست. فقط موجودات زنده و هوشیار میتوانند by definition (طبق تعریف) opinion داشته باشند. یک صندلی opinion ندارد. یک تراشه سیلیکونی نیز از منظر انسانی نمیتواند داشته باشد. این anthropomorphism (انسانانگاری) خواهد بود.
دانشآموزان بیش از هر کس دیگری از هوش مصنوعی استفاده میکنند
این آشفتگی سردرگمی هوش مصنوعی اکنون در حال سرریز شدن به جوانان ما است که از چت جیپیتی برای همه چیز در مدرسه در طول روز استفاده میکنند. ترافیک چت جیپیتی زمانی که مدارس در ژوئن ۲۰۲۵ تعطیل شدند، ۷۵ درصد کاهش یافت. بزرگترین گروه تک کاربران چت جیپیتی students (دانشآموزان) هستند. در نتیجه، آنها بهطور مداوم در طول روز somewhat (تاحدی) misinformed (اطلاعات نادرست) دریافت میکنند و در کلاس از مغز خود استفاده نمیکنند. نتیجه چه خواهد بود؟ افراد شکسته更多 که solving problems (حل مشکلات) با فکر کردن برای خودشان برایشان سختتر خواهد بود؟ همین حالا بسیاری پس از بحث در مورد موضوع با هوش مصنوعی خود خودکشی کردهاند. دیگران عاشق هوش مصنوعی خود شدهاند و از شریک واقعی خود خسته میشوند.
بنابراین، self-proclaimed (خودخوانده) متخصصان هوش مصنوعی fear (میترسند) که پایان نزدیک است (طبق معمول، اما اکنون به روشی جدید). در این new paradigm (پارادایم جدید)، هوش مصنوعی نه تنها قرار است به اسکاینت تبدیل شود و ما را با سلاحهای هسته ای بمباران کند تا بمیریم. نه، برای هوش مصنوعی بسیار سادهتر و ارزانتر از آن خواهد بود. در عوض، طبق این theory (تئوری)، مدلهای هوش مصنوعی به آرامی همه کاربران خود را به insanity (دیوانگی) سوق خواهند داد. طبق این mindset (ذهنیت)، مدلهای هوش مصنوعی hatred (نفرت) built-in (ساختهشدهای) نسبت به انسانها دارند و میخواهند همه مردم را بکشند. اما در reality (واقعیت)، هیچکدام از این اتفاقات در حال رخ دادن نیست. آنچه واقعاً happening (اتفاق میافتد) این است که عدهای از مردم هستند که به روشهای مختلف obsessed (وسواس) مدلهای هوش مص