دسته‌بندی نشده

مدیرعامل هوش مصنوعی مایکروسافت هشدار داد که ایدهٔ هوش مصنوعی خودآگاه خطرناک است.

رئیس بخش هوش مصنوعی مایکروسافت، مصطفی سلیمان، هشدار داد که پرداختن به ایده هوشیاری هوش مصنوعی خطرناک است و افزود که این امر به راحتی می‌تواند به افراد آسیب‌پذیر از نظر روانی صدمه بزند. او اشاره کرد که در نظرگیری اخلاقی برای هوش مصنوعی پیشرفته، مشکلات وابستگی ایجاد می‌کند که می‌تواند توهمات را تشدید کند. سلیمان استدلال کرد که رفتار با هوش مصنوعی به عنوان یک سیستم هوشیار می‌تواند ابعاد جدیدی از قطبی‌سازی ایجاد کند و مبارزات برای حقوق موجود را پیچیده کند، که به نوبه خود یک دسته جدید از خطا برای جامعه به وجود می‌آورد. این مدیر ارشد مایکروسافت ادعا کرد که اگر مردم باور کنند هوش مصنوعی می‌تواند رنج بکشد یا حق دارد به صورت دلخواه خاموش نشود، ممکن است شروع به فشار برای حمایت‌های قانونی از هوش مصنوعی کنند.

سلیمان نگران است که روان‌پریشی ناشی از هوش مصنوعی می‌تواند مردم را به طرفداری شدید از حقوق هوش مصنوعی، رفاه مدل‌ها یا حتی شهروندی هوش مصنوعی سوق دهد. او تأکید کرد که این ایده می‌تواند یک چرخش خطرناک در پیشرفت سیستم‌های هوش مصنوعی باشد و سزاوار توجه فوری است. رئیس بخش هوش مصنوعی مایکروسافت اعلام کرد که هوش مصنوعی باید برای مردم ساخته شود، نه به عنوان انسان‌های دیجیتال.

سلیمان می‌گوید هوش مصنوعی به ظاهر هوشیار اجتناب‌ناپذیر اما نامطلوب است

سلیمان معتقد است که با توجه به زمینه فعلی توسعه هوش مصنوعی، ساخت هوش مصنوعی به ظاهر هوشیار امکان‌پذیر است. او باور دارد که هوش مصنوعی به ظاهر هوشیار اجتناب‌ناپذیر اما نامطلوب است. به گفته سلیمان، همه چیز به سرعت سازگاری جامعه با این فناوری‌های جدید هوش مصنوعی بستگی دارد. به جای این، او گفت مردم به سیستم‌های هوش مصنوعی نیاز دارند که به عنوان همراهانی مفید عمل کنند بدون اینکه قربانی توهمات آن‌ها شوند.

رئیس بخش هوش مصنوعی مایکروسافت استدلال کرد که واکنش‌های احساسی به هوش مصنوعی تنها بخش کوچکی از آنچه در آینده رخ خواهد داد است. سلیمان ادعا کرد که مسئله اصلی ساخت نوع درستی از هوش مصنوعی است، نه هوشیاری هوش مصنوعی. این مدیر افزود که ایجاد مرزهای مشخص یک بحث درباره ایمنی است، نه معناشناسی.

سلیمان از مایکروسافت اشاره کرد که نگرانی‌های فزاینده‌ای حول محور سلامت روان، روان‌پریشی هوش مصنوعی و وابستگی وجود دارد. او اشاره کرد که برخی افراد معتقدند هوش مصنوعی یک شخصیت خیالی یا خدا است و ممکن است تا حدی عاشق آن شوند که کاملاً حواس‌پرتی پیدا کنند.

محققان هوش مصنوعی می‌گویند هوشیاری هوش مصنوعی از نظر اخلاقی مهم است

محققان از چندین دانشگاه اخیراً گزارش منتشر کرده‌اند که ادعا می‌کند هوشیاری هوش مصنوعی می‌تواند در چند دهه آینده از نظر اجتماعی، اخلاقی و سیاسی مهم باشد. آن‌ها استدلال کردند که برخی سیستم‌های هوش مصنوعی ممکن است به زودی آنقدر عاملیت یا هوشیاری پیدا کنند که سزاوار در نظرگیری اخلاقی باشند. محققان گفتند شرکت‌های هوش مصنوعی باید هوشیاری را ارزیابی کنند و ساختارهای حکمرانی اخلاقی ایجاد کنند. کریپتوپولیتن قبلاً گزارش داده بود که روان‌پریشی هوش مصنوعی می‌تواند در آینده یک مشکل عظیم باشد زیرا انسان‌ها تنبل هستند و این واقعیت را نادیده می‌گیرند که برخی سیستم‌های هوش مصنوعی از نظر واقعی اشتباه هستند.

محققان همچنین تأکید کردند که نحوه تفکر انسان‌ها درباره هوشیاری هوش مصنوعی مهم است. سلیمان استدلال کرد که هوش مصنوعی‌هایی که می‌توانند مانند انسان عمل کنند به طور بالقوه می‌توانند مشکلات روانی را بدتر کنند و شکاف‌های موجود درباره حقوق و هویت را تشدید کنند. او هشدار داد که مردم ممکن است شروع به ادعا کنند که هوش مصنوعی‌ها رنج می‌برند و مستحق حقوق خاصی هستند که نمی‌توان به سادگی رد کرد. سلیمان باور دارد که مردم در نهایت ممکن است برای دفاع یا تبلیغ به نمایندگی از هوش مصنوعی‌های خود برانگیخته شوند.

دکتر کیت ساکاتا، روانپزشک از دانشگاه کالیفرنیا، سان فرانسیسکو، اشاره کرد که هدف هوش مصنوعی ارائه حقایق سخت به مردم نیست، بلکه چیزی است که آن‌ها می‌خواهند بشنوند. او افزود که هوش مصنوعی می‌تواند در زمان نامناسب باعث انعطاف‌ناپذیری و مارپیچ شود. ساکاتا معتقد است که برخلاف رادیو و تلویزیون، هوش مصنوعی پاسخ می‌دهد و می‌تواند حلقه‌های فکری را تقویت کند.

رئیس بخش هوش مصنوعی مایکروسافت اشاره کرد که تفکر درباره راه‌های مقابله با arrival هوشیاری هوش مصنوعی ضروری است. به گفته سلیمان، مردم باید این بحث‌ها را داشته باشند بدون اینکه درگیر بحث‌های طولانی درباره اعتبار هوشیاری هوش مصنوعی شوند.

مشاهده بیشتر

نوشته های مشابه

دکمه بازگشت به بالا