Artificial Intelligence

جدال بر سر هوش مصنوعی کل‌نگر: نجات‌بخش یا نابودگر؟

یک پنل آنلاین اختلاف نظر عمیق میان ترنس‌هیومانیست‌ها و فناوران در مورد هوش مصنوعی کل‌نگر (AGI) را به نمایش گذاشت. الیزر یودکوفسکی، از منتقدان سرسخت، هشدار داد که سیستم‌های «جعبه سیاه» کنونی، انقراض را نتیجه‌ای اجتناب‌ناپذیر می‌کنند. در مقابل، مکس مور استدلال کرد که تاخیر در توسعه AGI می‌تواند بهترین شانس بشر برای غلبه بر پیری و جلوگیری از فاجعه‌ای بلندمدت را از بین ببرد.

نکات کلیدی

– الیزر یودکوفسکی هشدار می‌دهد توسعه هوش مصنوعی کل‌نگر (AGI) با پارادایم‌های کنونی، به دلیل ماهیت «جعبه سیاه»، به شکلی اجتناب‌ناپذیر منجر به انقراض بشر خواهد شد.
– مکس مور معتقد است AGI می‌تواند بهترین ابزار بشر برای شکست دادن پیری، بیماری و جلوگیری از یک فاجعه تدریجی باشد و احتیاط افراطی خود یک ریسک محسوب می‌شود.
– آندرس سندبرگ موضعی میانه دارد و معتقد است اگرچه خطر تقویت بازیگران مخرب جدی است، اما می‌توان به «ایمنی تقریبی» دست یافت و نیازی به کمال نیست.
– ناتاشا ویتا‑مور کل بحث «همسوسازی» (Alignment) را یک طرح خیال‌پردازانه می‌داند و استدلال می‌کند که حتی میان همکاران دیرینه نیز اجماع کامل وجود ندارد.
– ادغام انسان و ماشین به عنوان یک راه‌حل احتمالی مطرح شد، اما یودکوفسky این ایده را به «ادغام با توستر» تشبیه و رد کرد.
– بحث بر سر AGI در واقع یک آزمون واقع‌بینی درباره ماهیت انسان و آینده‌ای است که در آن ماشین‌ها از هوش ما پیشی می‌گیرند.
– سندبرگ با اشاره به تجربه شخصی خود در استفاده از مدل زبانی بزرگ برای طراحی یک سلاح بیولوژیک، بر خطرات عینی و بالفعل این فناوری‌ها تاکید کرد.

میدان نبرد ایدئولوژی‌ها

یک پنل بحث آنلاین که توسط سازمان غیرانتفاعی Humanity+ برگزار شد، شکاف عمیق میان دو جریان فکری اصلی در دنیای فناوری را آشکار کرد. از یک سو الیزر یودکوفسکی، از سرسخت‌ترین منتقدان توسعه هوش مصنوعی پیشرفته قرار داشت که خواستار توقف این روند است و از سوی دیگر مکس مور، فیلسوف و آینده‌گرا که توسعه هوش مصنوعی کل‌نگر را فرصتی تاریخی برای بشر می‌داند.

این گفت‌وگو نشان داد که در بنیادی‌ترین سطح، توافقی بر سر این مسئله وجود ندارد که آیا می‌توان AGI را با بقای انسان همسو کرد یا خلق آن انقراض را اجتناب‌ناپذیر خواهد ساخت. ناتاشا ویتا‑مور، رئیس افتخاری Humanity+ و آندرس سندبرگ، عصب‌شناس محاسباتی، دو صدای دیگر این میزگرد بودند که هر کدام مواضع متفاوتی را نمایندگی می‌کردند.

هشدار جعبه سیاه و بهینه‌ساز کاغذ

الیزر یودکوفسکی استدلال خود را بر یک مشکل فنی کلیدی بنا نهاد: سیستم‌های هوش مصنوعی مدرن ذاتاً ناامن هستند زیرا فرآیندهای تصمیم‌گیری درونی آن‌ها را نمی‌توان به طور کامل درک یا کنترل کرد. او تاکید کرد که هر چیزی که ماهیت جعبه سیاه داشته باشد، احتمالاً با مشکلاتی مشابه فناوری کنونی مواجه خواهد شد.

به گفته یودکوفسکی، بشریت نیاز دارد «خیلی خیلی دور» از پارادایم‌های فعلی حرکت کند تا بتواند هوش مصنوعی پیشرفته را به شکلی امن توسعه دهد. او برای تشریح خطر، به قیاس معروف «بهینه‌ساز کاغذ» که توسط فیلسوف نیک بوستروم رواج یافته اشاره کرد. در این آزمایش فکری، یک هوش مصنوعی فرضی تمام مواد موجود را به کاغذ تبدیل می‌کند و وسواس خود بر یک هدف واحد را به قیمت نابودی انسان‌ها پیش می‌برد.

یودکوفسکی افزود که اضافه کردن اهداف بیشتر نیز به طور معناداری ایمنی را بهبود نمی‌بخشد. او با اشاره به عنوان کتاب اخیرش درباره هوش مصنوعی، گفت: «عنوان کتاب ما این نیست که ممکن است شما را بکشد. عنوان این است: اگر کسی آن را بسازد، همه می‌میرند.» این موضعی کاملاً قطعی و بی‌ابهام است.

فرصتی برای غلبه بر فاجعه پیری

در طرف مقابل این جدال، مکس مور قرار داشت که فرضیه احتیاط افراطی را به چالش کشید. او استدلال کرد که هوش مصنوعی کل‌نگر می‌تواند بهترین شانس بشر برای غلبه بر پیری و بیماری باشد. مور تاکید کرد: «مهم‌ترین نکته برای من این است که AGI می‌تواند به ما کمک کند تا از انقراض تدریجی هر فرد زنده به دلیل پیری جلوگیری کنیم.»

او هشدار داد که بازداری بیش از حد می‌تواند دولت‌ها را به سمت کنترل‌های اقتدارگرایانه سوق دهد، زیرا آن‌ها ممکن است این را تنها راه برای توقف توسعه هوش مصنوعی در سراسر جهان ببینند. از نگاه مور، ما هم‌اکنون در حال حرکت به سمت یک فاجعه تدریجی هستیم و تعلل در استفاده از یک ابزار قدرتمند مانند AGI خود یک ریسک بزرگ است.

موضع میانه و ایمنی تقریبی

آندرس سندبرگ خود را بین این دو اردوگاه قرار داد و گفت که نسبت به خوش‌بینان ترنس‌هیومانیست محتاط‌تر، اما در عین حال «خونسردتر» است. او تجربه شخصی هشداردهنده‌ای را تعریف کرد که در آن تقریباً از یک مدل زبانی بزرگ برای کمک به طراحی یک سلاح بیولوژیک استفاده کرده بود، حادثه‌ای که خود آن را «وحشتناک» توصیف کرد.

سندبرگ اذعان کرد که به نقطه‌ای رسیده‌ایم که تقویت بازیگران مخرب نیز می‌تواند یک آشفتگی عظیم ایجاد کند. با این حال، او استدلال کرد که دستیابی به ایمنی جزئی یا «تقریبی» امکان‌پذیر است. او این ایده را که ایمنی باید کامل باشد تا معنادار شود رد کرد و پیشنهاد داد که انسان‌ها حداقل می‌توانند بر روی حداقل ارزش‌های مشترکی مانند بقا به توافق برسند.

او گفت: «اگر شما ایمنی کامل را مطالبه کنید، به آن دست نخواهید یافت. و از آن منظر بسیار بد به نظر می‌رسد. از طرف دیگر، من فکر می‌کنم ما واقعاً می‌توانیم ایمنی تقریبی داشته باشیم. این به اندازه کافی خوب است.»

نقدی بر خود مفهوم همسوسازی

ناتاشا ویتا‑مور نقد خود را متوجه خود بحث گسترده‌تر «همسوسازی» کرد. او استدلال کرد که این مفهوم سطحی از اجماع را فرض می‌گیرد که حتی در میان همکاران دیرینه نیز وجود ندارد. ویتا‑مور گفت: «ایده همسوسازی یک طرح خیال‌پردازانه است. هرگز همسو نخواهد شد. منظورم این است که حتی در اینجا، ما همه آدم‌های خوبی هستیم. دهه‌هاست یکدیگر را می‌شناسیم و باز هم همسو نیستیم.»

او ادعای یودکوفسکی مبنی بر اینکه AGI به طور اجتناب‌ناپذیر همه را خواهد کشت را نمونه‌ای از «تفکر مطلق‌گرایانه» توصیف کرد که جایی برای نتایج دیگر باقی نمی‌گذارد. ویتا‑مور افزود: «من با این جمله کلی که همه می‌میرند مشکل دارم. از منظر یک آینده‌گرا و یک متفکر عمل‌گرا، این جمله هیچ پیامد، هیچ آلترناتیو و هیچ سناریوی دیگری باقی نمی‌گذارد. این فقط یک ادعای کورکورانه است.»

ادغام با ماشین: راه حل یا توستر؟

بحث به این سوال کشیده شد که آیا ادغام نزدیک‌تر انسان‌ها و ماشین‌ها می‌تواند خطر ناشی از هوش مصنوعی کل‌نگر را کاهش دهد یا خیر؛ ایده‌ای که ایلان ماسک، مدیرعامل تسلا نیز در گذشته مطرح کرده است. یودکوفسکی این ایده را به کلی رد کرد و آن را به «تلاش برای ادغام با توستر» تشبیه نمود.

با این حال، سندبرگ و ویتا‑مور استدلال کردند که با قدرتمندتر شدن سیستم‌های هوش مصنوعی، انسان‌ها برای مقابله بهتر با دنیای پس از AGI نیاز خواهند داشت که بیشتر با آن‌ها ادغام یا ترکیب شوند. ویتا‑مور در جمع‌بندی نگاه خود به این مناظره گفت: «این کل بحث یک آزمون واقع‌بینی است درباره اینکه ما به عنوان انسان چه کسی هستیم.»

این گفت‌وگو نه تنها بر سر آینده یک فناوری، بلکه بر سر سرنوشت خود انسان‌ها و ارزش‌هایی است که می‌خواهند حفظ کنند. در حالی که یک طرف پنجره فرصت را به سرعت در حال بسته شدن می‌بیند، طرف دیگر همان پنجره را روزنه‌ای به سوی رهایی از محدودیت‌های زیستی می‌داند. این جدال احتمالاً تا زمان ظهور واقعی AGI یا کنار گذاشته شدن آن، ادامه خواهد داشت.

مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا