نوستالژی سام آلتمن برای «حال» و طوفان انتقاد کاربران: وقتی بنیانگذار OpenAI احساس «بیفایده بودن» میکند

سام آلتمن، مدیرعامل OpenAI، در پستی شخصی در ایکس احساس «بیفایده بودن و غم» خود پس از کار با دستیار کدنویسی Codex را به اشتراک گذاشت. این اعتراف با موج گستردهای از انتقادات کاربران مواجه شد که نگرانی واقعی خود از جایگزینی شغلی توسط هوش مصنوعی و بیثباتی در محصولات شرکت را فریاد زدند. این واکنشها همزمان با اعلام بازنشستگی مدل محبوب GPT-4o تشدید شده است.
نکات کلیدی
– سام آلتمن در پستی احساسی، احساس «بیفایده بودن» پس از مشاهده عملکرد برتر هوش مصنوعی در ایدهپردازی را بیان کرد.
– واکنش کاربران در شبکههای اجتماعی ترکیبی از طعنه، خشم و همدردی با کارمندانی بود که شغلشان در معرض اتوماسیون است.
– اعلام بازنشستگی مدل GPT-4o توسط OpenAI به عنوان عاملی برای تشدید بیاعتمادی و انتقادات مطرح شد.
– بسیاری از کاربران، صحبتهای آلتمن را با واقعیت اقتصادی سخت کارگران و نبود «چتر نجات مالی» برای آنان مقایسه کردند.
– برخی از متخصصان فناوری مانند آدیتیا آگاروال نیز احساس مشابهی از «شگفتی و غم» را در مواجهه با هوش مصنوعی تایید کردند.
– OpenAI دلیل بازنشستگی مدلهای قدیمی را تغییر الگوی استفاده کاربران به سمت نسخههای جدیدتر مانند GPT-5.2 اعلام کرده است.
– این ماجرا شکاف عمیق بین گفتمان مدیران ارشد فناوری و دغدغههای روزمره جامعه تحت تأثیر محصولاتشان را آشکار کرد.
اعتراف شبانه و موج طعنههای کاربران
سام آلتمن، چهره شاخص و مدیرعامل OpenAI، شبی در پلتفرم ایکس حالتی از آسیبپذیری را به نمایش گذاشت. او توضیح داد که هنگام ساختن یک اپلیکیشن با استفاده از Codex، دستیار هوش مصنوعی کدنویسی شرکتش، احساس «بیفایده بودن» کرده و این تجربه برایش غمانگیز بوده است. Codex ابزاری است که برای کمک به توسعهدهندگان در نوشتن کد جدید، رفع باگ و انجام وظایف مهندسی نرمافزار در یک محیط امن طراحی شده است.
آلتمن در توئیت خود گفت این ابزار ایدههای بهتری نسبت به او ارائه داده و این موضوع حس نوستالژی عجیبی برای «حال» در او ایجاد کرده است. او با ابراز امیدواری برای یافتن راههای بهتر و جالبتر برای گذران وقت در آینده، این احساس شخصی را با دنبالکنندگانش در میان گذاشت. اما این اعتراف به جای همدردی، به سرعت به ماده اولیهای برای انتقادات تند کاربران تبدیل شد.
واکنش جامعه آنلاین بیدرنگ و بیرحم بود. کاربران به عدم تطابق بین «آسیبپذیری یک میلیاردر» و «واقعیت اقتصادی کارگرانی» که مشاغلشان در حال اتوماسیون است اشاره کردند. یکی از پاسخها با طعنه نوشت: «حالت بهتر شود. تو یک چتر نجات صد میلیارد دلاری داری. در حالی که حذف ۵۰ تا ۶۰ درصد مشاغل یقهسفید به خاطر هوش مصنوعی، باعث میشود کارگران کمی بیشتر احساس بیفایده بودن و غم کنند، آن هم بدون چتر نجات.»
خشم متراکم: از نگرانی شغلی تا بیثباتی محصولات
انتقادات تنها به مقایسه ثروت محدود نبود. بسیاری از پاسخها، ترس و خشم عمیقتری را منعکس میکردند که از تجربه مستقیم مواجهه با تحولات هوش مصنوعی نشأت میگرفت. یک مهندس OpenSea با کنایه نوشت: «حدس میزنم بتوانی روی یک کوه عظیم پول گریه کنی، در حالی که من باید بقیه عمر حرفهایام را با یک چتبات صحبت کنم. ممنون، حدس میزنم.»
کریسی تامز، نویسنده حوزه غذا، با اشاره مستقیم به مدلهای آموزشی پاسخ داد: «مثل حسی است که من دارم، وقتی میبینم حرفهام در حال ناپدید شدن است چون گروهی از هوشمصنوعیبازهای بیاستعداد حالا میتوانند کپیهای توخالی از کار مرا تولید کنند که «فقط به اندازه کافی قابل قبول» هستند تا اینترنت را از آشغال پر کنند. همه اینها چون شما مدلهایتان را بدون رضایت anyone آموزش دادید.»
این خشم با یک تصمیم تجاری دیگر از سوی OpenAI تشدید شد: اعلام تاریخ بازنشستگی مدل GPT-4o در ۱۳ فوریه. GPT-4o به دلیل سبک مکالمهای گرم و قابلیتهای چندوجهیاش، به ویژه در میان کاربران محبوبیت زیادی داشت. بسیاری از پاسخها به پست آلتمن، او را به خاطر بیثباتی در برنامهریزی محصولات و عدم وفاداری به زمانبندیهای اعلامشده قبلی برای مدلهای قدیمی مورد سرزنش قرار دادند. یک کاربر با اشتراکگذاری اسکرینشاتی از قولهای قبلی شرکت، از آلتمن خواست روی ثبات نقشه راه محصولات تمرکز کند.
صدای موافقان و همحسی در میان نخبگان فناوری
در میان انبوه انتقادات، تعدادی نیز بودند که صداقت و آسیبپذیری آلتمن را تحسین کردند. برخی از چهرههای صنعت نیز احساس مشابهی را بیان کردند. آدیتیا آگاروال، مدیر فنی سابق دراپباکس و از مهندسان اولیه فیسبوک، در پاسخ گفت که او نیز مملو از «شگفتی و همچنین غمی عمیق» است.
او تجربه شخصی خود را اینگونه شرح داد: «من آخر هفته زیادی را صرف نوشتن کد با کلود کردم. و کاملاً واضح بود که ما دیگر هرگز با دست کد نخواهیم نوشت. انجام این کار دیگر هیچ منطقی ندارد. چیزی که من در آن بسیار خوب بودم، اکنون رایگان و فراوان شده است. من خوشحالم… اما سرگشته… هم شکل و هم عملکرد حرفه اولیه من اکنون توسط هوش مصنوعی تولید میشود. من خوشحالم، اما همزمان غمگین و سردرگم.»
این اظهارات نشان میدهد که حس بیربطی و جابهجایی تنها محدود به قشر متوسط یا کارگران نیست، بلکه در میان خود معماران و پیشگامان این تحول نیز در جریان است. با این حال، زمینه و پیامدهای این احساس برای یک مدیرعامل میلیاردر با یک کارمند عادی به شدت متفاوت است.
دلیل شرکت و تغییر الگوی کاربران
OpenAI در توضیح تصمیم خود برای بازنشستگی GPT-4o و دیگر مدلهای قدیمی مانند GPT-4.1 و برخی واریانتهای GPT-5، به الگوی استفاده کاربران اشاره کرده است. بر اساس بیانیه شرکت، اکثر کاربران اکنون نسخههای جدیدتری مانند GPT-5.2 را ترجیح میدهند.
این مدلهای جدیدتر قابلیتهایی مانند شخصیتسازی و کنترلهای خلاقانه را در خود جای دادهاند که بخشی از الهامگیری آنها از نقاط قوت GPT-4o بوده است. شرکت تلاش دارد با متمرکز کردن منابع روی مدلهای بهروزتر، تجربه کاربری بهتری ارائه دهد. این رویکرد اگرچه از نظر فنی ممکن است توجیهپذیر باشد، اما از نظر کاربرانی که به ثبات و قابلیت پیشبینی عادت کردهاند، میتواند به عنوان بیتوجهی به وفاداری آنها تعبیر شود.
بازگرداندن موقت GPT-4o پس از انتشار GPT-5 به دلیل backlash کاربران، خود گواهی بر این محبوبیت و حساسیت موضوع است. تصمیم نهایی برای خداحافظی با این مدل، بنابراین، تنها یک بهروزرسانی فنی نیست، بلکه یک حرکت احساسی و نمادین نیز محسوب میشود که اعتماد کاربران را تحت تأثیر قرار میدهد.
نمایشی از یک شکاف بزرگتر
ماجرای پست آلتمن و واکنشهای پس از آن، در نهایت نمایشی از یک شکاف بزرگتر است. این شکاف بین گفتمان انتزاعی و فلسفی رهبران فناوری درباره «آینده کار» و «تکینگی» با واقعیت ملموس و اضطرابآور میلیونها نفری است که هماکنون تأثیر این تحولات را بر زندگی، درآمد و هویت حرفهای خود احساس میکنند.
وقتی آلتمن از «نوستالژی برای حال» صحبت میکند، برای بسیاری این «حال» چیزی نیست جز ترس از فردا. صحبت از یافتن «راههای جالبتر برای گذران وقت» در آینده، برای کسی که نگران پرداخت قبضهای ماه آینده است، hollow و توخالی به نظر میرسد. این حادثه نشان داد که حتی بیان آسیبپذیری شخصی توسط قدرتمندترین چهرههای این صنعت، اگر درک درستی از مقیاس و عمق اضطراب عمومی نداشته باشد، میتواند به سرعت به سوختی برای خشم تبدیل شود.
این رویداد سوالات مهمی را درباره مسئولیت اجتماعی شرکتهای پیشرو در هوش مصنوعی، شفافیت در مدیریت چرخه عمر محصولات و نحوه ارتباط آنها با جامعهای که عمیقاً تحت تأثیرشان قرار دارد، مطرح میکند. پرسشی که باقی میماند این است که آیا این صنعت میتواند راهی برای همسو کردن پیشرفت فناوری با امنیت روانی و اقتصادی انسانها بیابد، یا اینکه شکاف بین سازندگان و مصرفکنندگان همچنان عمیقتر خواهد شد.