سام آلتمن: تربیت انسانها از آموزش هوش مصنوعی پرهزینهتر است!

سام آلتمن، مدیرعامل اوپنایآی، در یک اظهارنظر جنجالی هزینههای انرژی و زمانی تربیت یک انسان را با آموزش یک مدل هوش مصنوعی مقایسه کرده و ادعا کرده است که از نظر بازدهی انرژی، هوش مصنوعی احتمالاً از انسان پیشی گرفته است. این مقایسه با واکنشهای تند منتقدان مواجه شده که آن را کاهش ارزش ذاتی انسانها به یک تحلیل سرد هزینه-فایده خواندهاند. آلتمن در همان سخنرانی بر ضرورت شتابگرفتن جهان در حرکت به سمت انرژیهای هستهای، بادی و خورشیدی تأکید کرد.
نکات کلیدی
– سام آلتمن هزینههای انرژی و زمانی ۲۰ ساله برای تربیت و آموزش یک انسان را با مصرف انرژی یک مرکز داده هوش مصنوعی مقایسه کرد.
– او ادعا کرد که هوش مصنوعی احتمالاً از نظر بازدهی انرژی (انرژی مصرفی به ازای هر واحد خروجی) از انسان پیشی گرفته است.
– این اظهارنظر با انتقادات گستردهای از سوی فعالان صنعت و کاربران فضای مجازی مواجه شد و بسیاری آن را ضدبشری و خطرناک خواندند.
– اسریدار ویمبو، میلیاردر هندی و بنیانگذار زوهو، مخالفت صریح خود با برابر دانستن فناوری و انسان را اعلام کرد.
– آلتمن در ادامه بر لزوم حرکت سریع جهان به سمت منابع انرژی پاک مانند هستهای، بادی و خورشیدی تأکید نمود.
– این اولین باری نیست که آلتمن با اظهارنظرهای متناقض درباره خطرات وجودی هوش مصنوعی و در عین حال تلاش برای دستیابی به هوش عمومی مصنوعی (AGI) جنجالآفرینی میکند.
– منتقدان استدلال میکنند که این نگاه، ارزشهای انسانی مانند عشق، خلاقیت و تجربه زیسته را نادیده میگیرد و همه چیز را به محاسبات مکانیکی تقلیل میدهد.
مقایسه جنجالی: انسان در برابر مرکز داده
در اجلاس تأثیر هوش مصنوعی در هند، سام آلتمن در پاسخ به پرسشی درباره ردپای زیستمحیطی چتجیپیتی، به جای عذرخواهی یا محافظهکاری، بحث را به سمت مقایسهای عجیب هدایت کرد. او با اشاره به منابع عظیم انرژی و زمان صرفشده برای پرورش یک انسان، این فرآیند را با مصرف انرژی یک مرکز داده آموزش هوش مصنوعی مقایسه نمود.
آلتمن در مصاحبه با روزنامه ایندین اکسپرس گفت: «تربیت یک انسان نیز انرژی بسیار زیادی میطلبد. حدود ۲۰ سال از زندگی و تمام غذایی که در این مدت میخورید لازم است تا شما باهوش شوید. نه تنها این، بلکه تکامل گسترده صدها میلیارد انسانی که تاکنون زیستهاند و یاد گرفتهاند شکار نشوند… برای تولید شما لازم بوده است.» نتیجهگیری او این بود: «احتمالاً هوش مصنوعی از نظر بازدهی انرژی، اگر به این شکل اندازهگیری کنیم، از انسان سبقت گرفته است.»
این استدلال در نگاه اول ممکن است فنی به نظر برسد، اما در واقع قلب یک بحث فلسفی و اخلاقی عمیق را هدف گرفته است. آلتمن با این مقایسه، به طور ضمنی ارزش انسان را در ترازوی کارایی انرژی و خروجی محاسباتی میسنجد، رویکردی که بسیاری آن را خطرناک و غیرانسانی میدانند.
طوفان انتقاد از یک نگاه مکانیکی به انسانیت
واکنشها به این اظهارنظر بلافاصله و بسیار تند بود. اسریدار ویمبو، کارآفرین سرشناس هندی که در همان سالن حضور داشت، در پستی در ایکس نوشت: «من نمیخواهم دنیایی را ببینم که در آن یک قطعه فناوری را با یک انسان برابر بدانیم. من به عنوان یک فناور سخت کار میکنم تا دنیایی را ببینم که در آن اجازه ندهیم فناوری بر زندگی ما مسلط شود، بلکه باید به آرامی به پسزمینه عقبنشینی کند.»
در فضای مجازی، کاربران رددیت آلتمن را «به طرز تهوعآوری شیطانی» و «ضدبشر» خواندند. یکی از کاربران نوشت که آلتمن «ظاهراً واقعاً درک نمیکند که زندگی انسان ارزشی فراتر از هر تحلیل هزینه-فایدهای دارد که او برای پیادهسازی خطوط کد اعمال میکند.»
مکس وینبک، تحلیلگر فناوری، با لحنی دیپلماتیکتر اما محکم گفت که تقلیل انسانها به «هزینه به ازای هر خروجی» و نادیده گرفتن «ارزش خود انسانیت» مسیری خطرناک است. این انتقادات نشاندهنده یک شکاف اساسی در نگرش است: از یک سو رهبران فناوری که جهان را از دریچه بهینهسازی الگوریتمی میبینند و از سوی دیگر کسانی که بر منحصربهفرد بودن، کرامت و ارزشهای کیفی تجربه انسانی پافشاری میکنند.
الگوی متناقض آلتمن: هشدار دادن در حین پیشروی
این اولین بار نیست که سام آلتمن با اظهارنظرهای به ظاهر متناقض جلب توجه میکند. او پیش از این گفته است که «هوش مصنوعی به احتمال زیاد منجر به پایان جهان خواهد شد، اما در عین حال، شرکتهای بزرگی به وجود خواهند آمد.» همچنین اعتراف کرده که گاهی از این که آیا راهاندازی چتجیپیتی «واقعاً کار بدی بود» بیخوابی میکشد.
او در کنگره آمریکا درباره قابلیت هوش مصنوعی در ساخت سلاحهای بیولوژیک و گسترش اطلاعات غلط در مقیاس وسیع شهادت داده و در بیانیهای همامضا کرده که کاهش خطر انقراض ناشی از هوش مصنوعی «باید در کنار همهگیریها و جنگ هستهای یک اولویت جهانی باشد.» با این حال، او و اوپنایآی مصمم به دستیابی به هوش عمومی مصنوعی (AGI) هستند.
این دوگانگی، سؤال بزرگی را درباره انگیزهها و مسئولیتپذیری رهبران این حوزه مطرح میکند. وقتی از آلتمن درباره صورتحساب برق عظیم مدلهای آینده سؤال میشود، پاسخ او مقایسه با هزینههای انسانی است. این استراتژی گفتاری، چه آگاهانه و چه ناخودآگاه، بحث را از مسئولیتپذیری شرکتهای فناوری به یک مجادله فلسفی انتزاعی منتقل میکند.
راه حل پیشنهادی: انرژیهای پاک و یک تعارض منافع احتمالی
در میان این جنجال، آلتمن یک نقطه اشتراک قابل قبول برای بسیاری ارائه داد: او گفت که جهان «نیاز دارد به سرعت به سمت انرژی هستهای، بادی و خورشیدی حرکت کند.» این موضعگیری، به ویژه با توجه به افزایش نجومی مصرف انرژی مراکز داده آموزش مدلهای بزرگ زبانی، کاملاً منطقی و ضروری به نظر میرسد.
با این حال، یک جزئیات مهم اینجا خودنمایی میکند: سام آلتمن ریاست هیئت مدیره اوکلو، یک استارتاپ فعال در حوزه رآکتورهای هستهای پیشرفته، را بر عهده دارد. این ارتباط مستقیم، این سؤال را ایجاد میکند که آیا توصیه او به انرژی هستهای ناشی از یک اعتقاد واقعی به راهحل است یا منافع تجاری شخصی و شرکتی در آن نقش دارد.
اعتبار این توصیه برای مخاطب بستگی به این دارد که پس از مقایسه شدن دوران کودکیاش با یک «روند آموزش ماشینی»، چقدر هنوز به آلتمن اعتماد دارد. این وضعیت، نمونهای کلاسیک از پیچیدگیهای اخلاقی در دنیای فناوری است، جایی که خط بین ارائه راهحل برای یک مشکل جهانی و ترویج کسبوکار شخصی اغلب محو میشود.
فراتر از کارایی: پاسخی به یک فلسفه خطرناک
بحث بر سر اظهارات آلتمن صرفاً یک مجادله رسانهای نیست، بلکه نشانه یک تقابل فکری عمیقتر است. فلسفهای که سعی دارد ارزش هر موجود یا سیستم را صرفاً بر اساس کارایی، بهرهوری و نسبت ورودی به خروجی اندازهگیری کند، در نهایت به حذف هر چیزی که قابل کمیسازی دقیق نیست منجر میشود.
عشق، زیباییشناسی، همدلی، خلاقیت هنری، معنویت و پیچیدگیهای تجربه زیسته انسانها در چنین معادلاتی جایی ندارند. وقتی معیار قضاوت فقط «بازدهی انرژی» باشد، یک شاعر یا یک پرستار از نظر ارزشی ممکن است با یک مدل زبانی بزرگ مقایسه شوند، حال آنکه ماهیت و تأثیر آنها در جامعه اساساً غیرقابل قیاس است.
نکته نهایی این است که پیشرفت فناوری نباید به بهای تقلیل مفهوم انسانیت تمام شود. هشدار شخصیتهایی مانند ویمبو یادآوری مهمی است که فناوری در خدمت انسان است، نه بالعکس. چالش اصلی آینده، یافتن راههایی برای بهرهگیری از قدرت هوش مصنوعی است در حالی که به طور همزمان از ارزشهای انسانی که قابل اندازهگیری با وات یا ترافلاپس نیستند، محافظت کنیم.