Artificial Intelligence

سام آلتمن: تربیت انسان‌ها از آموزش هوش مصنوعی پرهزینه‌تر است!

سام آلتمن، مدیرعامل اوپن‌ای‌آی، در یک اظهارنظر جنجالی هزینه‌های انرژی و زمانی تربیت یک انسان را با آموزش یک مدل هوش مصنوعی مقایسه کرده و ادعا کرده است که از نظر بازدهی انرژی، هوش مصنوعی احتمالاً از انسان پیشی گرفته است. این مقایسه با واکنش‌های تند منتقدان مواجه شده که آن را کاهش ارزش ذاتی انسان‌ها به یک تحلیل سرد هزینه-فایده خوانده‌اند. آلتمن در همان سخنرانی بر ضرورت شتاب‌گرفتن جهان در حرکت به سمت انرژی‌های هسته‌ای، بادی و خورشیدی تأکید کرد.

نکات کلیدی

– سام آلتمن هزینه‌های انرژی و زمانی ۲۰ ساله برای تربیت و آموزش یک انسان را با مصرف انرژی یک مرکز داده هوش مصنوعی مقایسه کرد.
– او ادعا کرد که هوش مصنوعی احتمالاً از نظر بازدهی انرژی (انرژی مصرفی به ازای هر واحد خروجی) از انسان پیشی گرفته است.
– این اظهارنظر با انتقادات گسترده‌ای از سوی فعالان صنعت و کاربران فضای مجازی مواجه شد و بسیاری آن را ضدبشری و خطرناک خواندند.
– اسریدار ویمبو، میلیاردر هندی و بنیان‌گذار زوهو، مخالفت صریح خود با برابر دانستن فناوری و انسان را اعلام کرد.
– آلتمن در ادامه بر لزوم حرکت سریع جهان به سمت منابع انرژی پاک مانند هسته‌ای، بادی و خورشیدی تأکید نمود.
– این اولین باری نیست که آلتمن با اظهارنظرهای متناقض درباره خطرات وجودی هوش مصنوعی و در عین حال تلاش برای دستیابی به هوش عمومی مصنوعی (AGI) جنجال‌آفرینی می‌کند.
– منتقدان استدلال می‌کنند که این نگاه، ارزش‌های انسانی مانند عشق، خلاقیت و تجربه زیسته را نادیده می‌گیرد و همه چیز را به محاسبات مکانیکی تقلیل می‌دهد.

مقایسه جنجالی: انسان در برابر مرکز داده

در اجلاس تأثیر هوش مصنوعی در هند، سام آلتمن در پاسخ به پرسشی درباره ردپای زیست‌محیطی چت‌جی‌پی‌تی، به جای عذرخواهی یا محافظه‌کاری، بحث را به سمت مقایسه‌ای عجیب هدایت کرد. او با اشاره به منابع عظیم انرژی و زمان صرف‌شده برای پرورش یک انسان، این فرآیند را با مصرف انرژی یک مرکز داده آموزش هوش مصنوعی مقایسه نمود.

آلتمن در مصاحبه با روزنامه ایندین اکسپرس گفت: «تربیت یک انسان نیز انرژی بسیار زیادی می‌طلبد. حدود ۲۰ سال از زندگی و تمام غذایی که در این مدت می‌خورید لازم است تا شما باهوش شوید. نه تنها این، بلکه تکامل گسترده صدها میلیارد انسانی که تاکنون زیسته‌اند و یاد گرفته‌اند شکار نشوند… برای تولید شما لازم بوده است.» نتیجه‌گیری او این بود: «احتمالاً هوش مصنوعی از نظر بازدهی انرژی، اگر به این شکل اندازه‌گیری کنیم، از انسان سبقت گرفته است.»

این استدلال در نگاه اول ممکن است فنی به نظر برسد، اما در واقع قلب یک بحث فلسفی و اخلاقی عمیق را هدف گرفته است. آلتمن با این مقایسه، به طور ضمنی ارزش انسان را در ترازوی کارایی انرژی و خروجی محاسباتی می‌سنجد، رویکردی که بسیاری آن را خطرناک و غیرانسانی می‌دانند.

طوفان انتقاد از یک نگاه مکانیکی به انسانیت

واکنش‌ها به این اظهارنظر بلافاصله و بسیار تند بود. اسریدار ویمبو، کارآفرین سرشناس هندی که در همان سالن حضور داشت، در پستی در ایکس نوشت: «من نمی‌خواهم دنیایی را ببینم که در آن یک قطعه فناوری را با یک انسان برابر بدانیم. من به عنوان یک فناور سخت کار می‌کنم تا دنیایی را ببینم که در آن اجازه ندهیم فناوری بر زندگی ما مسلط شود، بلکه باید به آرامی به پس‌زمینه عقب‌نشینی کند.»

در فضای مجازی، کاربران رددیت آلتمن را «به طرز تهوع‌آوری شیطانی» و «ضدبشر» خواندند. یکی از کاربران نوشت که آلتمن «ظاهراً واقعاً درک نمی‌کند که زندگی انسان ارزشی فراتر از هر تحلیل هزینه-فایده‌ای دارد که او برای پیاده‌سازی خطوط کد اعمال می‌کند.»

مکس وینبک، تحلیلگر فناوری، با لحنی دیپلماتیک‌تر اما محکم گفت که تقلیل انسان‌ها به «هزینه به ازای هر خروجی» و نادیده گرفتن «ارزش خود انسانیت» مسیری خطرناک است. این انتقادات نشان‌دهنده یک شکاف اساسی در نگرش است: از یک سو رهبران فناوری که جهان را از دریچه بهینه‌سازی الگوریتمی می‌بینند و از سوی دیگر کسانی که بر منحصربه‌فرد بودن، کرامت و ارزش‌های کیفی تجربه انسانی پافشاری می‌کنند.

الگوی متناقض آلتمن: هشدار دادن در حین پیشروی

این اولین بار نیست که سام آلتمن با اظهارنظرهای به ظاهر متناقض جلب توجه می‌کند. او پیش از این گفته است که «هوش مصنوعی به احتمال زیاد منجر به پایان جهان خواهد شد، اما در عین حال، شرکت‌های بزرگی به وجود خواهند آمد.» همچنین اعتراف کرده که گاهی از این که آیا راه‌اندازی چت‌جی‌پی‌تی «واقعاً کار بدی بود» بی‌خوابی می‌کشد.

او در کنگره آمریکا درباره قابلیت هوش مصنوعی در ساخت سلاح‌های بیولوژیک و گسترش اطلاعات غلط در مقیاس وسیع شهادت داده و در بیانیه‌ای هم‌امضا کرده که کاهش خطر انقراض ناشی از هوش مصنوعی «باید در کنار همه‌گیری‌ها و جنگ هسته‌ای یک اولویت جهانی باشد.» با این حال، او و اوپن‌ای‌آی مصمم به دستیابی به هوش عمومی مصنوعی (AGI) هستند.

این دوگانگی، سؤال بزرگی را درباره انگیزه‌ها و مسئولیت‌پذیری رهبران این حوزه مطرح می‌کند. وقتی از آلتمن درباره صورتحساب برق عظیم مدل‌های آینده سؤال می‌شود، پاسخ او مقایسه با هزینه‌های انسانی است. این استراتژی گفتاری، چه آگاهانه و چه ناخودآگاه، بحث را از مسئولیت‌پذیری شرکت‌های فناوری به یک مجادله فلسفی انتزاعی منتقل می‌کند.

راه حل پیشنهادی: انرژی‌های پاک و یک تعارض منافع احتمالی

در میان این جنجال، آلتمن یک نقطه اشتراک قابل قبول برای بسیاری ارائه داد: او گفت که جهان «نیاز دارد به سرعت به سمت انرژی هسته‌ای، بادی و خورشیدی حرکت کند.» این موضع‌گیری، به ویژه با توجه به افزایش نجومی مصرف انرژی مراکز داده آموزش مدل‌های بزرگ زبانی، کاملاً منطقی و ضروری به نظر می‌رسد.

با این حال، یک جزئیات مهم اینجا خودنمایی می‌کند: سام آلتمن ریاست هیئت مدیره اوکلو، یک استارت‌اپ فعال در حوزه رآکتورهای هسته‌ای پیشرفته، را بر عهده دارد. این ارتباط مستقیم، این سؤال را ایجاد می‌کند که آیا توصیه او به انرژی هسته‌ای ناشی از یک اعتقاد واقعی به راه‌حل است یا منافع تجاری شخصی و شرکتی در آن نقش دارد.

اعتبار این توصیه برای مخاطب بستگی به این دارد که پس از مقایسه شدن دوران کودکی‌اش با یک «روند آموزش ماشینی»، چقدر هنوز به آلتمن اعتماد دارد. این وضعیت، نمونه‌ای کلاسیک از پیچیدگی‌های اخلاقی در دنیای فناوری است، جایی که خط بین ارائه راه‌حل برای یک مشکل جهانی و ترویج کسب‌وکار شخصی اغلب محو می‌شود.

فراتر از کارایی: پاسخی به یک فلسفه خطرناک

بحث بر سر اظهارات آلتمن صرفاً یک مجادله رسانه‌ای نیست، بلکه نشانه یک تقابل فکری عمیق‌تر است. فلسفه‌ای که سعی دارد ارزش هر موجود یا سیستم را صرفاً بر اساس کارایی، بهره‌وری و نسبت ورودی به خروجی اندازه‌گیری کند، در نهایت به حذف هر چیزی که قابل کمی‌سازی دقیق نیست منجر می‌شود.

عشق، زیبایی‌شناسی، همدلی، خلاقیت هنری، معنویت و پیچیدگی‌های تجربه زیسته انسان‌ها در چنین معادلاتی جایی ندارند. وقتی معیار قضاوت فقط «بازدهی انرژی» باشد، یک شاعر یا یک پرستار از نظر ارزشی ممکن است با یک مدل زبانی بزرگ مقایسه شوند، حال آنکه ماهیت و تأثیر آن‌ها در جامعه اساساً غیرقابل قیاس است.

نکته نهایی این است که پیشرفت فناوری نباید به بهای تقلیل مفهوم انسانیت تمام شود. هشدار شخصیت‌هایی مانند ویمبو یادآوری مهمی است که فناوری در خدمت انسان است، نه بالعکس. چالش اصلی آینده، یافتن راه‌هایی برای بهره‌گیری از قدرت هوش مصنوعی است در حالی که به طور همزمان از ارزش‌های انسانی که قابل اندازه‌گیری با وات یا ترافلاپس نیستند، محافظت کنیم.

مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا