جدال بر سر هوش مصنوعی کلنگر: نجاتبخش یا نابودگر؟

یک پنل آنلاین اختلاف نظر عمیق میان ترنسهیومانیستها و فناوران در مورد هوش مصنوعی کلنگر (AGI) را به نمایش گذاشت. الیزر یودکوفسکی، از منتقدان سرسخت، هشدار داد که سیستمهای «جعبه سیاه» کنونی، انقراض را نتیجهای اجتنابناپذیر میکنند. در مقابل، مکس مور استدلال کرد که تاخیر در توسعه AGI میتواند بهترین شانس بشر برای غلبه بر پیری و جلوگیری از فاجعهای بلندمدت را از بین ببرد.
نکات کلیدی
– الیزر یودکوفسکی هشدار میدهد توسعه هوش مصنوعی کلنگر (AGI) با پارادایمهای کنونی، به دلیل ماهیت «جعبه سیاه»، به شکلی اجتنابناپذیر منجر به انقراض بشر خواهد شد.
– مکس مور معتقد است AGI میتواند بهترین ابزار بشر برای شکست دادن پیری، بیماری و جلوگیری از یک فاجعه تدریجی باشد و احتیاط افراطی خود یک ریسک محسوب میشود.
– آندرس سندبرگ موضعی میانه دارد و معتقد است اگرچه خطر تقویت بازیگران مخرب جدی است، اما میتوان به «ایمنی تقریبی» دست یافت و نیازی به کمال نیست.
– ناتاشا ویتا‑مور کل بحث «همسوسازی» (Alignment) را یک طرح خیالپردازانه میداند و استدلال میکند که حتی میان همکاران دیرینه نیز اجماع کامل وجود ندارد.
– ادغام انسان و ماشین به عنوان یک راهحل احتمالی مطرح شد، اما یودکوفسky این ایده را به «ادغام با توستر» تشبیه و رد کرد.
– بحث بر سر AGI در واقع یک آزمون واقعبینی درباره ماهیت انسان و آیندهای است که در آن ماشینها از هوش ما پیشی میگیرند.
– سندبرگ با اشاره به تجربه شخصی خود در استفاده از مدل زبانی بزرگ برای طراحی یک سلاح بیولوژیک، بر خطرات عینی و بالفعل این فناوریها تاکید کرد.
میدان نبرد ایدئولوژیها
یک پنل بحث آنلاین که توسط سازمان غیرانتفاعی Humanity+ برگزار شد، شکاف عمیق میان دو جریان فکری اصلی در دنیای فناوری را آشکار کرد. از یک سو الیزر یودکوفسکی، از سرسختترین منتقدان توسعه هوش مصنوعی پیشرفته قرار داشت که خواستار توقف این روند است و از سوی دیگر مکس مور، فیلسوف و آیندهگرا که توسعه هوش مصنوعی کلنگر را فرصتی تاریخی برای بشر میداند.
این گفتوگو نشان داد که در بنیادیترین سطح، توافقی بر سر این مسئله وجود ندارد که آیا میتوان AGI را با بقای انسان همسو کرد یا خلق آن انقراض را اجتنابناپذیر خواهد ساخت. ناتاشا ویتا‑مور، رئیس افتخاری Humanity+ و آندرس سندبرگ، عصبشناس محاسباتی، دو صدای دیگر این میزگرد بودند که هر کدام مواضع متفاوتی را نمایندگی میکردند.
هشدار جعبه سیاه و بهینهساز کاغذ
الیزر یودکوفسکی استدلال خود را بر یک مشکل فنی کلیدی بنا نهاد: سیستمهای هوش مصنوعی مدرن ذاتاً ناامن هستند زیرا فرآیندهای تصمیمگیری درونی آنها را نمیتوان به طور کامل درک یا کنترل کرد. او تاکید کرد که هر چیزی که ماهیت جعبه سیاه داشته باشد، احتمالاً با مشکلاتی مشابه فناوری کنونی مواجه خواهد شد.
به گفته یودکوفسکی، بشریت نیاز دارد «خیلی خیلی دور» از پارادایمهای فعلی حرکت کند تا بتواند هوش مصنوعی پیشرفته را به شکلی امن توسعه دهد. او برای تشریح خطر، به قیاس معروف «بهینهساز کاغذ» که توسط فیلسوف نیک بوستروم رواج یافته اشاره کرد. در این آزمایش فکری، یک هوش مصنوعی فرضی تمام مواد موجود را به کاغذ تبدیل میکند و وسواس خود بر یک هدف واحد را به قیمت نابودی انسانها پیش میبرد.
یودکوفسکی افزود که اضافه کردن اهداف بیشتر نیز به طور معناداری ایمنی را بهبود نمیبخشد. او با اشاره به عنوان کتاب اخیرش درباره هوش مصنوعی، گفت: «عنوان کتاب ما این نیست که ممکن است شما را بکشد. عنوان این است: اگر کسی آن را بسازد، همه میمیرند.» این موضعی کاملاً قطعی و بیابهام است.
فرصتی برای غلبه بر فاجعه پیری
در طرف مقابل این جدال، مکس مور قرار داشت که فرضیه احتیاط افراطی را به چالش کشید. او استدلال کرد که هوش مصنوعی کلنگر میتواند بهترین شانس بشر برای غلبه بر پیری و بیماری باشد. مور تاکید کرد: «مهمترین نکته برای من این است که AGI میتواند به ما کمک کند تا از انقراض تدریجی هر فرد زنده به دلیل پیری جلوگیری کنیم.»
او هشدار داد که بازداری بیش از حد میتواند دولتها را به سمت کنترلهای اقتدارگرایانه سوق دهد، زیرا آنها ممکن است این را تنها راه برای توقف توسعه هوش مصنوعی در سراسر جهان ببینند. از نگاه مور، ما هماکنون در حال حرکت به سمت یک فاجعه تدریجی هستیم و تعلل در استفاده از یک ابزار قدرتمند مانند AGI خود یک ریسک بزرگ است.
موضع میانه و ایمنی تقریبی
آندرس سندبرگ خود را بین این دو اردوگاه قرار داد و گفت که نسبت به خوشبینان ترنسهیومانیست محتاطتر، اما در عین حال «خونسردتر» است. او تجربه شخصی هشداردهندهای را تعریف کرد که در آن تقریباً از یک مدل زبانی بزرگ برای کمک به طراحی یک سلاح بیولوژیک استفاده کرده بود، حادثهای که خود آن را «وحشتناک» توصیف کرد.
سندبرگ اذعان کرد که به نقطهای رسیدهایم که تقویت بازیگران مخرب نیز میتواند یک آشفتگی عظیم ایجاد کند. با این حال، او استدلال کرد که دستیابی به ایمنی جزئی یا «تقریبی» امکانپذیر است. او این ایده را که ایمنی باید کامل باشد تا معنادار شود رد کرد و پیشنهاد داد که انسانها حداقل میتوانند بر روی حداقل ارزشهای مشترکی مانند بقا به توافق برسند.
او گفت: «اگر شما ایمنی کامل را مطالبه کنید، به آن دست نخواهید یافت. و از آن منظر بسیار بد به نظر میرسد. از طرف دیگر، من فکر میکنم ما واقعاً میتوانیم ایمنی تقریبی داشته باشیم. این به اندازه کافی خوب است.»
نقدی بر خود مفهوم همسوسازی
ناتاشا ویتا‑مور نقد خود را متوجه خود بحث گستردهتر «همسوسازی» کرد. او استدلال کرد که این مفهوم سطحی از اجماع را فرض میگیرد که حتی در میان همکاران دیرینه نیز وجود ندارد. ویتا‑مور گفت: «ایده همسوسازی یک طرح خیالپردازانه است. هرگز همسو نخواهد شد. منظورم این است که حتی در اینجا، ما همه آدمهای خوبی هستیم. دهههاست یکدیگر را میشناسیم و باز هم همسو نیستیم.»
او ادعای یودکوفسکی مبنی بر اینکه AGI به طور اجتنابناپذیر همه را خواهد کشت را نمونهای از «تفکر مطلقگرایانه» توصیف کرد که جایی برای نتایج دیگر باقی نمیگذارد. ویتا‑مور افزود: «من با این جمله کلی که همه میمیرند مشکل دارم. از منظر یک آیندهگرا و یک متفکر عملگرا، این جمله هیچ پیامد، هیچ آلترناتیو و هیچ سناریوی دیگری باقی نمیگذارد. این فقط یک ادعای کورکورانه است.»
ادغام با ماشین: راه حل یا توستر؟
بحث به این سوال کشیده شد که آیا ادغام نزدیکتر انسانها و ماشینها میتواند خطر ناشی از هوش مصنوعی کلنگر را کاهش دهد یا خیر؛ ایدهای که ایلان ماسک، مدیرعامل تسلا نیز در گذشته مطرح کرده است. یودکوفسکی این ایده را به کلی رد کرد و آن را به «تلاش برای ادغام با توستر» تشبیه نمود.
با این حال، سندبرگ و ویتا‑مور استدلال کردند که با قدرتمندتر شدن سیستمهای هوش مصنوعی، انسانها برای مقابله بهتر با دنیای پس از AGI نیاز خواهند داشت که بیشتر با آنها ادغام یا ترکیب شوند. ویتا‑مور در جمعبندی نگاه خود به این مناظره گفت: «این کل بحث یک آزمون واقعبینی است درباره اینکه ما به عنوان انسان چه کسی هستیم.»
این گفتوگو نه تنها بر سر آینده یک فناوری، بلکه بر سر سرنوشت خود انسانها و ارزشهایی است که میخواهند حفظ کنند. در حالی که یک طرف پنجره فرصت را به سرعت در حال بسته شدن میبیند، طرف دیگر همان پنجره را روزنهای به سوی رهایی از محدودیتهای زیستی میداند. این جدال احتمالاً تا زمان ظهور واقعی AGI یا کنار گذاشته شدن آن، ادامه خواهد داشت.