مدیرعامل هوش مصنوعی مایکروسافت هشدار داد که ایدهٔ هوش مصنوعی خودآگاه خطرناک است.

رئیس بخش هوش مصنوعی مایکروسافت، مصطفی سلیمان، هشدار داد که پرداختن به ایده هوشیاری هوش مصنوعی خطرناک است و افزود که این امر به راحتی میتواند به افراد آسیبپذیر از نظر روانی صدمه بزند. او اشاره کرد که در نظرگیری اخلاقی برای هوش مصنوعی پیشرفته، مشکلات وابستگی ایجاد میکند که میتواند توهمات را تشدید کند. سلیمان استدلال کرد که رفتار با هوش مصنوعی به عنوان یک سیستم هوشیار میتواند ابعاد جدیدی از قطبیسازی ایجاد کند و مبارزات برای حقوق موجود را پیچیده کند، که به نوبه خود یک دسته جدید از خطا برای جامعه به وجود میآورد. این مدیر ارشد مایکروسافت ادعا کرد که اگر مردم باور کنند هوش مصنوعی میتواند رنج بکشد یا حق دارد به صورت دلخواه خاموش نشود، ممکن است شروع به فشار برای حمایتهای قانونی از هوش مصنوعی کنند.
سلیمان نگران است که روانپریشی ناشی از هوش مصنوعی میتواند مردم را به طرفداری شدید از حقوق هوش مصنوعی، رفاه مدلها یا حتی شهروندی هوش مصنوعی سوق دهد. او تأکید کرد که این ایده میتواند یک چرخش خطرناک در پیشرفت سیستمهای هوش مصنوعی باشد و سزاوار توجه فوری است. رئیس بخش هوش مصنوعی مایکروسافت اعلام کرد که هوش مصنوعی باید برای مردم ساخته شود، نه به عنوان انسانهای دیجیتال.
سلیمان میگوید هوش مصنوعی به ظاهر هوشیار اجتنابناپذیر اما نامطلوب است
سلیمان معتقد است که با توجه به زمینه فعلی توسعه هوش مصنوعی، ساخت هوش مصنوعی به ظاهر هوشیار امکانپذیر است. او باور دارد که هوش مصنوعی به ظاهر هوشیار اجتنابناپذیر اما نامطلوب است. به گفته سلیمان، همه چیز به سرعت سازگاری جامعه با این فناوریهای جدید هوش مصنوعی بستگی دارد. به جای این، او گفت مردم به سیستمهای هوش مصنوعی نیاز دارند که به عنوان همراهانی مفید عمل کنند بدون اینکه قربانی توهمات آنها شوند.
رئیس بخش هوش مصنوعی مایکروسافت استدلال کرد که واکنشهای احساسی به هوش مصنوعی تنها بخش کوچکی از آنچه در آینده رخ خواهد داد است. سلیمان ادعا کرد که مسئله اصلی ساخت نوع درستی از هوش مصنوعی است، نه هوشیاری هوش مصنوعی. این مدیر افزود که ایجاد مرزهای مشخص یک بحث درباره ایمنی است، نه معناشناسی.
سلیمان از مایکروسافت اشاره کرد که نگرانیهای فزایندهای حول محور سلامت روان، روانپریشی هوش مصنوعی و وابستگی وجود دارد. او اشاره کرد که برخی افراد معتقدند هوش مصنوعی یک شخصیت خیالی یا خدا است و ممکن است تا حدی عاشق آن شوند که کاملاً حواسپرتی پیدا کنند.
محققان هوش مصنوعی میگویند هوشیاری هوش مصنوعی از نظر اخلاقی مهم است
محققان از چندین دانشگاه اخیراً گزارش منتشر کردهاند که ادعا میکند هوشیاری هوش مصنوعی میتواند در چند دهه آینده از نظر اجتماعی، اخلاقی و سیاسی مهم باشد. آنها استدلال کردند که برخی سیستمهای هوش مصنوعی ممکن است به زودی آنقدر عاملیت یا هوشیاری پیدا کنند که سزاوار در نظرگیری اخلاقی باشند. محققان گفتند شرکتهای هوش مصنوعی باید هوشیاری را ارزیابی کنند و ساختارهای حکمرانی اخلاقی ایجاد کنند. کریپتوپولیتن قبلاً گزارش داده بود که روانپریشی هوش مصنوعی میتواند در آینده یک مشکل عظیم باشد زیرا انسانها تنبل هستند و این واقعیت را نادیده میگیرند که برخی سیستمهای هوش مصنوعی از نظر واقعی اشتباه هستند.
محققان همچنین تأکید کردند که نحوه تفکر انسانها درباره هوشیاری هوش مصنوعی مهم است. سلیمان استدلال کرد که هوش مصنوعیهایی که میتوانند مانند انسان عمل کنند به طور بالقوه میتوانند مشکلات روانی را بدتر کنند و شکافهای موجود درباره حقوق و هویت را تشدید کنند. او هشدار داد که مردم ممکن است شروع به ادعا کنند که هوش مصنوعیها رنج میبرند و مستحق حقوق خاصی هستند که نمیتوان به سادگی رد کرد. سلیمان باور دارد که مردم در نهایت ممکن است برای دفاع یا تبلیغ به نمایندگی از هوش مصنوعیهای خود برانگیخته شوند.
دکتر کیت ساکاتا، روانپزشک از دانشگاه کالیفرنیا، سان فرانسیسکو، اشاره کرد که هدف هوش مصنوعی ارائه حقایق سخت به مردم نیست، بلکه چیزی است که آنها میخواهند بشنوند. او افزود که هوش مصنوعی میتواند در زمان نامناسب باعث انعطافناپذیری و مارپیچ شود. ساکاتا معتقد است که برخلاف رادیو و تلویزیون، هوش مصنوعی پاسخ میدهد و میتواند حلقههای فکری را تقویت کند.
رئیس بخش هوش مصنوعی مایکروسافت اشاره کرد که تفکر درباره راههای مقابله با arrival هوشیاری هوش مصنوعی ضروری است. به گفته سلیمان، مردم باید این بحثها را داشته باشند بدون اینکه درگیر بحثهای طولانی درباره اعتبار هوشیاری هوش مصنوعی شوند.