دسته‌بندی نشده

چگونه بفهمید در معرض خطر ابتلا به روان‌پریشی هوش مصنوعی هستید

تماس‌های فزاینده‌ای از کاربران هوش مصنوعی گزارش شده که پس از تجربه‌ی پدیده‌ای موسوم به “روان‌پریشی هوش مصنوعی” به دنبال کمک‌های روانشناسی حرفه‌ای هستند. چرا چنین اتفاقی می‌افتد؟ و چه کسی این ایده را ایجاد کرده که یک برنامه کامپیوتری می‌تواندopinion (نظر) داشته باشد؟

مشکل اصلی من در حال حاضر با پدیده‌ای که به نام هوش مصنوعی شناخته می‌شود، این تصور گسترده است که گویی این فناوری دارای personality (شخصیت)، opinions (نظرات)، ideas (ایده‌ها) و taste (سلیقه) است. درست همان‌طور که ما به سنگ‌های روی ماه که شبیه سر یا صورت هستند، ویژگی‌های انسانی نسبت می‌دهیم، با مدل‌های زبانی نیز همین کار را می‌کنیم و سعی داریم نتایج را طوری تفسیر کنیم که گویی “چیزی درون آن وجود دارد”. ما نمی‌توانیم جلوی خودمان را بگیریم. ایده‌ی هوشمند بودن هوش مصنوعی پس از بیش از صد سال کتاب و فیلم علمی‌تخیلی، به‌طور عمیقی در ما ریشه دوانده است.

داستان‌های علمی‌تخیلی ما را برای باور به هوش مصنوعی آماده کرده‌اند

نویسندگان کلاسیک علمی‌تخیلی مانند کلارک، هاینلاین، برادبری و آسیموف، بر کل ژانر ربات و هوش مصنوعی و بیشتر فیلم‌های هالیوودی در این موضوع از اوایل قرن بیستم تأثیر گذاشته‌اند. در描绘های آنها، واضح بود که یک ماشین می‌تواند هوشیار شود. بنابراین ما انتظار داریم که هوش مصنوعی بتواند تعیین کند که یک عبارت خاص درست است یا خیر. در عین حال، می‌دانیم که هوش مصنوعی اغلب در پاسخ‌های خود اشتباه می‌کند. در اصل، ما تظاهر می‌کنیم که هوش مصنوعی بر اوضاع مسلط است و می‌تواند تصمیم بگیرد که چه چیزی درست و چه چیزی نادرست است. اما پاسخ‌ها در اساس حدس‌های آگاهانه هستند و اگر پرسش به اندازه کافی پیشرفته باشد، هنوز هم حاوی حدود ۵ تا ۱۰ درصد خطاهای واقعی هستند.

در عین حال، استفاده از هوش مصنوعی آنقدر راحت است که بسیاری از ما به سادگی این واقعیت را نادیده می‌گیریم که حاوی خطاهای واقعی است. یا rather، هوش مصنوعی اکنون به ندرت اشتباه می‌کند که ما ترجیح می‌دهیم بدون توجه به هر چیزی به آن اعتماد کنیم. این می‌تواند در آینده به یک مشکل بزرگ تبدیل شود. انسان‌ها تنبل هستند. غیرقابل تصور نیست که ما جهانی را بپذیریم که در آن درصد معینی از همه واقعیت‌ها نادرست هستند. این به نفع دیکتاتورها و propagandistها (تبلیغاتچی‌ها) خواهد بود که بر سردرگمی و تهدیدهای قضاوت‌شده نادرست thrive (رونق) می‌یابند.

سردرگمی‌هایی که درست به نظر می‌رسند

اگر یک سوال کاملاً معمولی در صفحه جستجوی گوگل بپرسید، اغلب پاسخ درست را دریافت می‌کنید، اما گاهی اوقات یک پاسخ کاملاً نادرست که همچنان به نظر، احساس و صدای کاملاً درستی می‌آید. متأسفانه همین امر در مورد جی‌پی‌تی ۵ نیز صادق است، همان‌طور که کریپتوپولیتن قبلاً گزارش داده است. حجم عظیمی از متن‌های “جعلی” در اینترنت وجود دارد، به‌صورت marketing (تبلیغات)، propaganda (تبلیغات) یا کلاهبرداری‌های ساده. به‌عنوان مثال، مردم ادعا می‌کنند که این سرویس یا آن محصول راه‌اندازی شده و محبوب است، و مدل‌های هوش مصنوعی تمام مطالب بازاریابی را خوانده‌اند و بخش زیادی از آن را باور دارند. اگر به اطلاعات یک شرکت گوش دهید، معمولاً همه چیز در مورد آن شرکت عالی است. بنابراین worldview (جهان‌بینی) هوش مصنوعی نادرست است و با یک سری واقعیت‌های ساختگی تغذیه می‌شود.

اگر در مورد موضوعی که خودتان در آن بسیار knowledgeable (دانش‌دار) هستید از یک هوش مصنوعی بپرسید، این موضوع آشکار می‌شود. خودتان امتحان کنید. در مورد چه موضوعی همه چیز را می‌دانید؟ چند سوال سخت در مورد آن موضوع از هوش مصنوعی خود بپرسید. نتیجه چه بود؟ چندین خطای واقعی بزرگ، درست است؟

پس آیا یک نظر ناخودآگاه ممکن است؟ نه؟ آیا به نظراتی که هوش مصنوعی شما ارائه می‌دهد باور دارید؟ بله؟ اگر چنین است، شما معتقدید که هوش مصنوعی هوشیار است، درست است؟ اما اگر توقف کنید و فکر کنید، یک هوش مصنوعی نمی‌تواند opinion (نظر) در مورد درست یا غلط بودن چیزی داشته باشد، زیرا هوش مصنوعی یک شخص نیست. فقط موجودات زنده و هوشیار می‌توانند by definition (طبق تعریف) opinion داشته باشند. یک صندلی opinion ندارد. یک تراشه سیلیکونی نیز از منظر انسانی نمی‌تواند داشته باشد. این anthropomorphism (انسان‌انگاری) خواهد بود.

دانش‌آموزان بیش از هر کس دیگری از هوش مصنوعی استفاده می‌کنند

این آشفتگی سردرگمی هوش مصنوعی اکنون در حال سرریز شدن به جوانان ما است که از چت جی‌پی‌تی برای همه چیز در مدرسه در طول روز استفاده می‌کنند. ترافیک چت جی‌پی‌تی زمانی که مدارس در ژوئن ۲۰۲۵ تعطیل شدند، ۷۵ درصد کاهش یافت. بزرگ‌ترین گروه تک کاربران چت جی‌پی‌تی students (دانش‌آموزان) هستند. در نتیجه، آن‌ها به‌طور مداوم در طول روز somewhat (تاحدی) misinformed (اطلاعات نادرست) دریافت می‌کنند و در کلاس از مغز خود استفاده نمی‌کنند. نتیجه چه خواهد بود؟ افراد شکسته‌更多 که solving problems (حل مشکلات) با فکر کردن برای خودشان برایشان سخت‌تر خواهد بود؟ همین حالا بسیاری پس از بحث در مورد موضوع با هوش مصنوعی خود خودکشی کرده‌اند. دیگران عاشق هوش مصنوعی خود شده‌اند و از شریک واقعی خود خسته می‌شوند.

بنابراین، self-proclaimed (خودخوانده) متخصصان هوش مصنوعی fear (می‌ترسند) که پایان نزدیک است (طبق معمول، اما اکنون به روشی جدید). در این new paradigm (پارادایم جدید)، هوش مصنوعی نه تنها قرار است به اسکای‌نت تبدیل شود و ما را با سلاح‌های هسته ای بمباران کند تا بمیریم. نه، برای هوش مصنوعی بسیار ساده‌تر و ارزان‌تر از آن خواهد بود. در عوض، طبق این theory (تئوری)، مدل‌های هوش مصنوعی به آرامی همه کاربران خود را به insanity (دیوانگی) سوق خواهند داد. طبق این mindset (ذهنیت)، مدل‌های هوش مصنوعی hatred (نفرت) built-in (ساخته‌شده‌ای) نسبت به انسان‌ها دارند و می‌خواهند همه مردم را بکشند. اما در reality (واقعیت)، هیچ‌کدام از این اتفاقات در حال رخ دادن نیست. آنچه واقعاً happening (اتفاق می‌افتد) این است که عده‌ای از مردم هستند که به روش‌های مختلف obsessed (وسواس) مدل‌های هوش مص

مشاهده بیشتر

نوشته های مشابه

دکمه بازگشت به بالا