Artificial Intelligence

گرامرلی و بازگشت از گور: نقدی بر قابلیت «بررسی تخصصی» با هویت‌های علمی زنده و مرده

گرامرلی با معرفی قابلیت جدید «بررسی تخصصی» (Expert Review) در نسخه سوپرهیومن گو، بازخورد نوشتاری مبتنی بر دیدگاه افراد متخصص ارائه می‌دهد. این ویژگی که از هویت پژوهشگران، روزنامه‌نگاران و کارشناسان—از جمله افراد درگذشته—الهام می‌گیرد، با واکنش‌های انتقادی دانشگاهیان مواجه شده است. منتقدان به مسئله رضایت، استفاده از نام و اعتبار افراد بدون اجازه، و تأثیر چنین ابزارهایی بر اعتماد به فناوری‌های هوش مصنوعی در آموزش عالی اشاره می‌کنند.

نکات کلیدی

– قابلیت «بررسی تخصصی» گرامرلی بازخورد نوشتاری را از منظر افراد متخصص مشخص—از جمله افراد درگذشته—ارائه می‌دهد.
– این سیستم با الهام از آثار منتشرشده و پراستناد این متخصصان عمل می‌کند و ادعای تأیید یا مشارکت مستقیم آن‌ها را ندارد.
– برخی دانشگاهیان این اقدام را «مشئوم» و «نگران‌کننده» خوانده و به مسئله فقدان رضایت صریح اشاره کرده‌اند.
– استفاده از هویت افراد بدون اجازه ممکن است بی‌اعتمادی به ابزارهای هوش مصنوعی در محیط‌های آکادمیک را تشدید کند.
– گرامرلی تنها شرکتی نیست که از هویت افراد واقعی در محصولات هوش مصنوعی خود استفاده می‌کند؛ متا و آکادمی خان نیز نمونه‌های مشابهی دارند.
– این ویژگی در چارچوب گسترش گرامرلی از یک دستیار نوشتار به مجموعه‌ای از عامل‌های هوش مصنوعی برای بهره‌وری معرفی شده است.
– بازخورد تولیدشده بسته به محتوای نوشتار کاربر و حوزه تخصصی منتخب، متفاوت خواهد بود.

بررسی تخصصی: بازخوردی با هویت انسان‌محور

گرامرلی که در سال ۲۰۰۹ به عنوان یک ابزار دستیار نوشتار و گرامر مبتنی بر هوش مصنوعی آغاز به کار کرد، اکنون با تغییر نام شرکت مادر به «سوپرهیومن» در اکتبر گذشته، تحول خود را به سمت یک مجموعه کامل از عامل‌های هوش مصنوعی برای بهره‌وری نشان می‌دهد. در این راستا، قابلیت «بررسی تخصصی» تابستان گذشته معرفی شد. کاربران نسخه سوپرهیومن گو از طریق افزونه مرورگر گرامرلی می‌توانند یک متخصص را انتخاب کنند و بازخورد تولیدشده توسط هوش مصنوعی را بر اساس حوزه تخصصی یا آثار منتشرشده آن فرد دریافت کنند.

به گفته سخنگوی سوپرهیومن، این عامل، نوشته کاربر—خواه یک خلاصه بازاریابی یا یک پروژه دانشجویی درباره تنوع زیستی—را بررسی می‌کند و از مدل زبانی بزرگ زیرساختی برای ارائه محتوای متخصصانه استفاده می‌کند تا به نویسنده در شکل‌دهی به کارش کمک کند. متخصصان پیشنهادی به محتوای نوشتار در حال ارزیابی بستگی دارند. سخنگوی شرکت تأکید کرد که این قابلیت ادعای تأیید یا مشارکت مستقیم متخصصان را ندارد، بلکه «پیشنهادهایی الهام‌گرفته از آثار متخصصان» ارائه می‌دهد و کاربران را به سمت صداهای تأثیرگذاری هدایت می‌کند که می‌توانند در ادامه، پژوهش‌های آن‌ها را عمیق‌تر بررسی کنند.

در تست این ویژگی برای مقاله حاضر، بازبین‌های متخصص پیشنهادی اپلیکیشن شامل مارگارت سالیوان (ستون‌نویس رسانه و سردبیر سابق نیویورک تایمز)، جک شفر (نویسنده ارشد سابق رسانه در پلیتیکو) و لارنس لسیگ (استاد دانشکده حقوق هاروارد) بودند. گزینه‌های دیگر شامل تیمیت گبرو (پژوهشگر اخلاق هوش مصنوعی) و هلن نیسنباوم (استاد علوم اطلاعات در کرنل تک) نیز دیده می‌شد.

واکنش دانشگاهیان: از «مشئوم» تا نگرانی درباره رضایت

با وجود هدف اعلامی این ویژگی که کمک به دانشجویان و حرفه‌ای‌ها برای بهبود مهارت‌های نوشتاری است، واکنش بخشی از جامعه دانشگاهی به ویژه به دلیل حضور متخصصان درگذشته در لیست گزینه‌ها، انتقادی بوده است. ونسا هگی، استاد تاریخ در دانشگاه بیرمنگام، در پستی روی لینکدین به این موضوع اشاره کرد که گرامرلی اکنون «بررسی تخصصی» کار کاربران را توسط آکادمیسین‌های زنده و مرده ارائه می‌دهد. او با بیان اینکه این کار «بدون اجازه صریح anyone» و با ایجاد مدل‌های زبانی کوچک بر اساس آثار اسکرپ‌شده و استفاده از نام و اعتبار افراد انجام شده، آن را «مشئوم» خواند.

بریل هاربین، استاد سابق علوم سیاسی در آکادمی نیروی دریایی ایالات متحده، نیز این توسعه را «عجیب و نگران‌کننده» توصیف کرد. او در لینکدین نوشت که انتخاب‌هایی از این دست—به ویژه زمانی که بدون زمینه، رضایت یا مشارکت معنادار با مربیان انجام می‌شود—خطر تشدید بدبینی نسبت به ابزارهای هوش مصنوعی در آموزش عالی را به همراه دارد. هاربین با طعنه اشاره کرد که تصمیماتی که به منظور تسریع در پذیرش طراحی شده‌اند، ممکن است در نهایت به تقویت مقاومت منجر شوند و در شرایط فعلی، اعتماد و همکاری بسیار اهمیت دارد.

یک مورخ قرون وسطی نیز در پستی روی بلواسکای این ویژگی را «مشئوم» نامیده بود. نگرانی اصلی حول محور این سؤال می‌چرخد که آیا شرکت می‌تواند از هویت و اعتبار علمی افراد—به ویژه آنانی که دیگر در قید حیات نیستند—بدون رضایت آن‌ها یا وراثشان استفاده کند.

گرامرلی در مسیر شرکت‌های پیشرو: بازتولید هویت در عصر هوش مصنوعی

گرامرلی تنها شرکتی نیست که برنامه‌های هوش مصنوعی طراحی شده برای تقلید از افراد واقعی را ایجاد می‌کند. در سال ۲۰۲۳، متا خطی از چت‌بات‌ها برای پلتفرم متا ای‌آی خود حول هویت‌های سلبریتی‌ها از جمله اسنوپ داگ، تام بردی، کندال جنر و نائومی اوساکا منتشر کرد. در همان سال، آکادمی خان، معلم خصوصی هوش مصنوعی خود به نام خانمیگو را راه‌اندازی کرد که به دانش‌آموزان امکان می‌دهد مکالمات نقش‌آفرینی‌شده با شخصیت‌های تاریخی از جمله وینستون چرچیل (نخست‌وزیر سابق بریتانیا) و هریت تابمن (جاسوس جنگ داخلی آمریکا و رهبر راه‌آهن زیرزمینی) داشته باشند.

این روند نشان‌دهنده تمایل فزاینده صنعت فناوری برای انسان‌سازی و شخصی‌سازی تعاملات با هوش مصنوعی است. در حالی که چنین رویکردی می‌تواند جذابیت کاربری و درک مفاهیم را افزایش دهد، همواره با چالش‌های اخلاقی درباره حریم خصوصی، رضایت و ماهیت استفاده از هویت افراد—چه در قید حیات و چه درگذشته—همراه است. سخنگوی سوپرهیومن در دفاع از رویکرد گرامرلی اعلام کرد که متخصصان در قابلیت بررسی تخصصی به این دلیل ظاهر می‌شوند که «آثار منتشرشده آن‌ها به صورت عمومی در دسترس و به طور گسترده استناد شده‌اند.»

آینده ابزارهای هوش مصنوعی در آموزش و حرفه‌ها: اعتماد در کانون توجه

بحث حول قابلیت جدید گرامرلی، پرسش‌های گسترده‌تری را درباره آینده ادغام هوش مصنوعی در حوزه‌های آموزشی و حرفه‌ای مطرح می‌کند. از یک سو، این ابزارها می‌توانند دسترسی به بینش‌های تخصصی را دموکراتیک‌تر کنند و به کاربران در بهبود کیفیت محتوای خود کمک نمایند. از سوی دیگر، اگر توسعه و استقرار آن‌ها بدون در نظر گرفتن ملاحظات اخلاقی، شفافیت و مشارکت ذی‌نفعان اصلی صورت گیرد، می‌تواند موجی از بی‌اعتمادی را ایجاد کند.

تجربه گرامرلی نشان می‌دهد که حتی اگر شرکت به طور فنی از داده‌های عمومی و پراستناد استفاده کند، استفاده از نام و هویت افراد—به ویژه محققان—بدون اطلاع یا توافق قبلی، می‌تواند حساسیت‌برانگیز باشد. این موضوع در محیط آکادمیک که اعتبار، اصالت و احترام به مالکیت فکری از ارکان اصلی است، اهمیت دوچندانی پیدا می‌کند. راه‌حل ممکن است در ایجاد چارچوب‌های شفاف‌تر، جلب مشارکت جامعه علمی در طراحی چنین ابزارهایی، و احتمالاً ایجاد مکانیسم‌های رضایت—حتی برای آثار در حوزه public domain—باشد.

در نهایت، موفقیت چنین نوآوری‌هایی نه تنها به دقت فناورانه، بلکه به میزان درک و پاسخگویی به نگرانی‌های اخلاقی و اجتماعی جوامعی که در آن‌ها استفاده می‌شوند، وابسته خواهد بود.

مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا