گرامرلی و بازگشت از گور: نقدی بر قابلیت «بررسی تخصصی» با هویتهای علمی زنده و مرده

گرامرلی با معرفی قابلیت جدید «بررسی تخصصی» (Expert Review) در نسخه سوپرهیومن گو، بازخورد نوشتاری مبتنی بر دیدگاه افراد متخصص ارائه میدهد. این ویژگی که از هویت پژوهشگران، روزنامهنگاران و کارشناسان—از جمله افراد درگذشته—الهام میگیرد، با واکنشهای انتقادی دانشگاهیان مواجه شده است. منتقدان به مسئله رضایت، استفاده از نام و اعتبار افراد بدون اجازه، و تأثیر چنین ابزارهایی بر اعتماد به فناوریهای هوش مصنوعی در آموزش عالی اشاره میکنند.
نکات کلیدی
– قابلیت «بررسی تخصصی» گرامرلی بازخورد نوشتاری را از منظر افراد متخصص مشخص—از جمله افراد درگذشته—ارائه میدهد.
– این سیستم با الهام از آثار منتشرشده و پراستناد این متخصصان عمل میکند و ادعای تأیید یا مشارکت مستقیم آنها را ندارد.
– برخی دانشگاهیان این اقدام را «مشئوم» و «نگرانکننده» خوانده و به مسئله فقدان رضایت صریح اشاره کردهاند.
– استفاده از هویت افراد بدون اجازه ممکن است بیاعتمادی به ابزارهای هوش مصنوعی در محیطهای آکادمیک را تشدید کند.
– گرامرلی تنها شرکتی نیست که از هویت افراد واقعی در محصولات هوش مصنوعی خود استفاده میکند؛ متا و آکادمی خان نیز نمونههای مشابهی دارند.
– این ویژگی در چارچوب گسترش گرامرلی از یک دستیار نوشتار به مجموعهای از عاملهای هوش مصنوعی برای بهرهوری معرفی شده است.
– بازخورد تولیدشده بسته به محتوای نوشتار کاربر و حوزه تخصصی منتخب، متفاوت خواهد بود.
بررسی تخصصی: بازخوردی با هویت انسانمحور
گرامرلی که در سال ۲۰۰۹ به عنوان یک ابزار دستیار نوشتار و گرامر مبتنی بر هوش مصنوعی آغاز به کار کرد، اکنون با تغییر نام شرکت مادر به «سوپرهیومن» در اکتبر گذشته، تحول خود را به سمت یک مجموعه کامل از عاملهای هوش مصنوعی برای بهرهوری نشان میدهد. در این راستا، قابلیت «بررسی تخصصی» تابستان گذشته معرفی شد. کاربران نسخه سوپرهیومن گو از طریق افزونه مرورگر گرامرلی میتوانند یک متخصص را انتخاب کنند و بازخورد تولیدشده توسط هوش مصنوعی را بر اساس حوزه تخصصی یا آثار منتشرشده آن فرد دریافت کنند.
به گفته سخنگوی سوپرهیومن، این عامل، نوشته کاربر—خواه یک خلاصه بازاریابی یا یک پروژه دانشجویی درباره تنوع زیستی—را بررسی میکند و از مدل زبانی بزرگ زیرساختی برای ارائه محتوای متخصصانه استفاده میکند تا به نویسنده در شکلدهی به کارش کمک کند. متخصصان پیشنهادی به محتوای نوشتار در حال ارزیابی بستگی دارند. سخنگوی شرکت تأکید کرد که این قابلیت ادعای تأیید یا مشارکت مستقیم متخصصان را ندارد، بلکه «پیشنهادهایی الهامگرفته از آثار متخصصان» ارائه میدهد و کاربران را به سمت صداهای تأثیرگذاری هدایت میکند که میتوانند در ادامه، پژوهشهای آنها را عمیقتر بررسی کنند.
در تست این ویژگی برای مقاله حاضر، بازبینهای متخصص پیشنهادی اپلیکیشن شامل مارگارت سالیوان (ستوننویس رسانه و سردبیر سابق نیویورک تایمز)، جک شفر (نویسنده ارشد سابق رسانه در پلیتیکو) و لارنس لسیگ (استاد دانشکده حقوق هاروارد) بودند. گزینههای دیگر شامل تیمیت گبرو (پژوهشگر اخلاق هوش مصنوعی) و هلن نیسنباوم (استاد علوم اطلاعات در کرنل تک) نیز دیده میشد.
واکنش دانشگاهیان: از «مشئوم» تا نگرانی درباره رضایت
با وجود هدف اعلامی این ویژگی که کمک به دانشجویان و حرفهایها برای بهبود مهارتهای نوشتاری است، واکنش بخشی از جامعه دانشگاهی به ویژه به دلیل حضور متخصصان درگذشته در لیست گزینهها، انتقادی بوده است. ونسا هگی، استاد تاریخ در دانشگاه بیرمنگام، در پستی روی لینکدین به این موضوع اشاره کرد که گرامرلی اکنون «بررسی تخصصی» کار کاربران را توسط آکادمیسینهای زنده و مرده ارائه میدهد. او با بیان اینکه این کار «بدون اجازه صریح anyone» و با ایجاد مدلهای زبانی کوچک بر اساس آثار اسکرپشده و استفاده از نام و اعتبار افراد انجام شده، آن را «مشئوم» خواند.
بریل هاربین، استاد سابق علوم سیاسی در آکادمی نیروی دریایی ایالات متحده، نیز این توسعه را «عجیب و نگرانکننده» توصیف کرد. او در لینکدین نوشت که انتخابهایی از این دست—به ویژه زمانی که بدون زمینه، رضایت یا مشارکت معنادار با مربیان انجام میشود—خطر تشدید بدبینی نسبت به ابزارهای هوش مصنوعی در آموزش عالی را به همراه دارد. هاربین با طعنه اشاره کرد که تصمیماتی که به منظور تسریع در پذیرش طراحی شدهاند، ممکن است در نهایت به تقویت مقاومت منجر شوند و در شرایط فعلی، اعتماد و همکاری بسیار اهمیت دارد.
یک مورخ قرون وسطی نیز در پستی روی بلواسکای این ویژگی را «مشئوم» نامیده بود. نگرانی اصلی حول محور این سؤال میچرخد که آیا شرکت میتواند از هویت و اعتبار علمی افراد—به ویژه آنانی که دیگر در قید حیات نیستند—بدون رضایت آنها یا وراثشان استفاده کند.
گرامرلی در مسیر شرکتهای پیشرو: بازتولید هویت در عصر هوش مصنوعی
گرامرلی تنها شرکتی نیست که برنامههای هوش مصنوعی طراحی شده برای تقلید از افراد واقعی را ایجاد میکند. در سال ۲۰۲۳، متا خطی از چتباتها برای پلتفرم متا ایآی خود حول هویتهای سلبریتیها از جمله اسنوپ داگ، تام بردی، کندال جنر و نائومی اوساکا منتشر کرد. در همان سال، آکادمی خان، معلم خصوصی هوش مصنوعی خود به نام خانمیگو را راهاندازی کرد که به دانشآموزان امکان میدهد مکالمات نقشآفرینیشده با شخصیتهای تاریخی از جمله وینستون چرچیل (نخستوزیر سابق بریتانیا) و هریت تابمن (جاسوس جنگ داخلی آمریکا و رهبر راهآهن زیرزمینی) داشته باشند.
این روند نشاندهنده تمایل فزاینده صنعت فناوری برای انسانسازی و شخصیسازی تعاملات با هوش مصنوعی است. در حالی که چنین رویکردی میتواند جذابیت کاربری و درک مفاهیم را افزایش دهد، همواره با چالشهای اخلاقی درباره حریم خصوصی، رضایت و ماهیت استفاده از هویت افراد—چه در قید حیات و چه درگذشته—همراه است. سخنگوی سوپرهیومن در دفاع از رویکرد گرامرلی اعلام کرد که متخصصان در قابلیت بررسی تخصصی به این دلیل ظاهر میشوند که «آثار منتشرشده آنها به صورت عمومی در دسترس و به طور گسترده استناد شدهاند.»
آینده ابزارهای هوش مصنوعی در آموزش و حرفهها: اعتماد در کانون توجه
بحث حول قابلیت جدید گرامرلی، پرسشهای گستردهتری را درباره آینده ادغام هوش مصنوعی در حوزههای آموزشی و حرفهای مطرح میکند. از یک سو، این ابزارها میتوانند دسترسی به بینشهای تخصصی را دموکراتیکتر کنند و به کاربران در بهبود کیفیت محتوای خود کمک نمایند. از سوی دیگر، اگر توسعه و استقرار آنها بدون در نظر گرفتن ملاحظات اخلاقی، شفافیت و مشارکت ذینفعان اصلی صورت گیرد، میتواند موجی از بیاعتمادی را ایجاد کند.
تجربه گرامرلی نشان میدهد که حتی اگر شرکت به طور فنی از دادههای عمومی و پراستناد استفاده کند، استفاده از نام و هویت افراد—به ویژه محققان—بدون اطلاع یا توافق قبلی، میتواند حساسیتبرانگیز باشد. این موضوع در محیط آکادمیک که اعتبار، اصالت و احترام به مالکیت فکری از ارکان اصلی است، اهمیت دوچندانی پیدا میکند. راهحل ممکن است در ایجاد چارچوبهای شفافتر، جلب مشارکت جامعه علمی در طراحی چنین ابزارهایی، و احتمالاً ایجاد مکانیسمهای رضایت—حتی برای آثار در حوزه public domain—باشد.
در نهایت، موفقیت چنین نوآوریهایی نه تنها به دقت فناورانه، بلکه به میزان درک و پاسخگویی به نگرانیهای اخلاقی و اجتماعی جوامعی که در آنها استفاده میشوند، وابسته خواهد بود.