ندا اظهری، مترجم: دسامبر سال گذشته بود که نخستین اخبار مرتبط با ظهور نرمافزار ChatGPT در دنیا سر و صدای زیادی را به پا کرد و حتی دانشمندان و محققان را بر آن داشت تا خواستار توقف ششماهه هوش مصنوعی در دنیا شوند تا بتوانند این فناوری را تحت کنترل بگیرند اما غافل از اینکه ChatGPT در همان مدت زمان کمی که از ظهورش میگذرد کاربران بسیاری را از دانشجو تا استاد و محقق به خود جلب کرده است. در ادامه بهرغم توانمندیهایی که این نرمافزار دارد محققان نسبت به پیشرفت آن و نیز کارهایی که میتواند انجام دهد ابراز نگرانی کردند و حالا nature در گزارشی که منتشر کرده به این موضوع پرداخته است که ChatGPT و ابزارهای هوش مصنوعی میتوانند فرآیند انتشار مقالات علمی را با اختلال مواجه کنند.
زمانی که «دومنیکو ماستردیکاسا» رادیولوژیست حین نوشتن مقاله پژوهشی خود به بنبست میرسد به نرمافزار هوش مصنوعی ChatGPT رومیآورد؛ ربات چتی که تنها در چند ثانیه تقریبا به هر سوالی پاسخی میدهد. این رادیولوژیست که در دانشکده پزشکی دانشگاه واشنگتن واقع در سیاتل فعالیت میکند، عنوان کرده است که من از این نرمافزار بهعنوان ابزاری برای تولید سریعتر مقالاتم استفاده میکنم. او یکی از بسیار محققانی است که از ابزارهای هوش مصنوعی مولد برای نوشتن متن یا کد استفاده میکنند. نسخه اشتراکی این نرمافزار بر پایه مدل زبانی بزرگ (large language model) GPT-4 استوار بوده و تنها هفتهای چند بار از آن استفاده میکند. مجله natureعنوان کرده است دانشمندانی که بهطور مداوم از مدل LLM استفاده میکنند هنوز در اقلیت قرار دارند. در این میان، بسیاری از محققان انتظار دارند که ابزارهای هوش مصنوعی مولد همواره بهعنوان دستیارانی برای نوشتن دستنوشتهها، گزارشها و برنامههای کمک مالی تبدیل شوند. اینها تنها برخی از راههایی هستند که در آن هوش مصنوعی بهواسطه آنها قادر است ارتباطات علمی و انتشار مقالات را متحول کند. ناشران علمی در حال حاضر از هوش مصنوعی مولد برای آزمایش ابزارهای جستوجوی علمی، ویرایش و خلاصهسازی سریع مقالات استفاده میکنند. بسیاری از محققان تصور میکنند که غیرانگلیسیزبانان میتوانند بیشترین بهره را از این ابزارها ببرند. برخی نیز هوش مصنوعی مولد را راهی برای دانشمندان میدانند تا درباره چگونگی تحقیق و خلاصه کردن نتایج تجربی فکر کنند. آنها قادرند از LLMبیشتر برای پیشبرد کار استفاده کنند؛ به این معنی که زمان کمتری برای نوشتن مقالات و زمان بیشتری برای انجام آزمایشها در اختیار داشته باشند. «مایکل آیزن»، زیستشناس محاسباتی در دانشگاه کایفرنیا که سردبیر مجله eLife است، میگوید: «هدف هیچ کسی صرفا نوشتن مقاله نیست بلکه تولید و پیشبرد علم است.» او پیشبینی میکند که ابزارهای مولد هوش مصنوعی حتی قادرند ماهیت مقالات علمی را بهطور اساسی تغییر دهند. مدل LLMصرفا موتورهایی برای تولید خروجی مقالاتی است که نه برای تولید اطلاعات دقیق بلکه متناسب با الگوهای ورودی آنها عمل میکنند. ناشران نگران این هستند که افزایش استفاده از این مدلها و نرمافزارهای هوش مصنوعی ممکن است منجر به تولید تعداد بیشتری از نسخههای دستنویس بیکیفیت و پرخطا شود و به این واسطه احتمالا سیلی از مقالات جعلی به کمک هوش مصنوعی شناسایی میشوند که این امر نگرانیهایی را به دنبال داشته است.
ناشران علمی و سایر محققان نسبت به تاثیر بالقوه هوش مصنوعی مولد ابراز نگرانی کردهاند. «دانیل هوک» مدیر اجرایی علوم دیجیتال یک شرکت پژوهشی تحلیلی در لندن میگوید: «دسترسی به ابزارهای هوش مصنوعی مولد میتواند تولید مقالات بیکیفیت را آسانتر کرده و در بدترین حالت، یکپارچگی پژوهشها را به خطر بیندازد.» در بعضی موارد، محققان اعتراف کردهاند که از نرمافزار ChatGPT برای کمک به نوشتن مقالات استفاده کرده و این راز را برملا نکردهاند اما نشانههایی که در داخل متن مبنیبر استفاده از این نرمافزار وجود داشته باعث شده دستشان رو شود. ازجمله مواردی که نشان میدهد محققان از این نرمافزار استفاده کردهاند میتوان به استفاده از منابع جعلی یا پاسخهای برنامهریزیشده نرمافزاری اشاره کرد که نوعی مدل زبانی هوش مصنوعی به شمار میروند. در حالت ایدهآل، ناشران میتوانند متن گزارش تولیدشده توسط مدل LLM را تشخیص دهند. عملا ابزارهای تشخیص هوش مصنوعی تاکنون نتوانستهاند چنین متنی را انتخاب کرده و در عین حال از علامتگذاری متن نوشتهشده توسط انسان بهعنوان محصول هوش مصنوعی اجتناب میکنند. اگرچه توسعهدهندگان مدل LLM تجاری در حال کار روی مقالات خروجی تولیدشده توسط LLM هستند تا آنها را نشاندار کنند، هیچ شرکتی هنوز این کار را عهدهدار نشده است. «ساندرا واچر» محقق حقوقی دانشگاه آکسفورد که بر مفاهیم اخلاقی و قانونی فناوریهای نوظهور تمرکز دارد معتقد است هرگونه واترمارکی نیز قابل حذف شدن است. او ابراز امیدواری کرده است که قانونگذاران در سراسر جهان تلاش میکنند واترمارکها را با کمک LLM حذف کرده و استفاده از آنها را غیرقانونی اعلام کنند. ناشران یا با ممنوع کردن استفاده از مدل LLM بهطور کامل به این موضوع نزدیک میشوند یا در بیشتر موارد بر شفافیت اصرار دارند. تحقیقی که حدود 100 ناشر و مجله در آن مورد بررسی قرار گرفته، نشان میدهد که تا ماه می2023، حدود 17 درصد ناشران و 70 درصد از مجلات، دستورالعملهایی را درمورد چگونگی استفاده از هوش مصنوعی مولد منتشر کردهاند؛ این درحالی است که چگونگی استفاده از ابزارهای هوش مصنوعی در آنها متفاوت بوده است. بسیاری از ویراستاران نسبت به این موضوع ابراز نگرانی کردهاند که هوش مصنوعی مولد برای تولید آسانتر مقالات جعلی مورد استفاده قرار گیرد. شرکتهایی که گزارشهای دستنویس یا موقعیتهای تالیفی را به محققانی میفروشند که به دنبال تقویت خروجی مقالات منتشرشده هستند، به کارخانههای تولید کاغذ شناخته میشوند و میتوانند از این جهت سود زیادی به جیب بزنند. کارشناسان بر این باورند که استفاده از مدلهای LLM مانند ChatGPT میتواند مشکل کارخانههای تولید کاغذ را تشدید کند. یکی از واکنشهایی که نسبت به این نگرانیها عنوان شده این است که برخی مجلات رویکردهای خود را تقویت میکنند تا اذعان کنند که نویسندگان آنها واقعی بوده و از نرمافزارهای هوش مصنوعی برای نوشتن مقالات بهره نمیگیرند. رئیس انتشارات علمی «امبو پرس» در «هایدلبرگ» آلمان معتقد است که نویسندگان باید تنها از ایمیلهای سازمانی قابل تایید برای ارسال مقالات استفاده کرده و کارکنان تحریریه با نویسندگان و داوران در تماسهای ویدئویی ملاقات داشته باشند. او همچنین اضافه میکند که موسسات پژوهشی و سرمایهگذاران نیز باید بر خروجی کارکنان خود نظارت کرده و دریافتکنندگان کمک مالی را بهدقت مورد بررسی قرار دهند.
مجله nature بانظرسنجی از محققان پیرامون مزیت هوش مصنوعی مولد برای علم به این نکته اشاره میکند که بیشتر محققان بر این امر تاکید داشتهاند که استفاده از هوش مصنوعی مولد به محققانی که زبان اصلی آنها انگلیسی نیست، در نوشتن مقالات کمک میکند. به گفته «تاتسویا آمانو» دانشمند محیطزیست دانشگاه کوئینزلند در استرالیا، استفاده از ابزارهای هوش مصنوعی میتواند برابری در علم را بهبود بخشد. او به همراه همکارانش، بیش از 900 دانشمند محیطزیست را که حداقل یک مقاله به زبان انگلیسی نوشته بودند، مورد بررسی قرار دادند. در میان محققان اولیه، آن دسته از محققانی که زبان آنها غیر انگلیسی بود، اعلام کردند که مقالات آنها به دلیل مسائل نوشتاری، دو برابر بیشتر از محققان انگلیسی زبان بومی مردود شده است. آنها همچنین عنوان کردهاند که زمان کمتری را صرف نوشتن مقالات ارسالی کردهاند. به گفته آنها، استفاده از نرمافزارهای هوش مصنوعی کمک زیادی به این قبیل محققان در نوشتن مقالات به زبان انگلیسی میکند.
آمانو که به زبان مادری ژاپنی سخن میگوید، با آزمایشی که روی نرمافزار ChatGPT انجام داده، میگوید فرآیند استفاده از آن مشابه کار با همکاری است که به زبان مادری انگلیسی حرف میزند؛ اگرچه استفاده از چنین ابزارهایی گاه با خطاهایی همراه است. او در ماه مارس به دنبال ممنوعیت ابزارهای هوش مصنوعی مولد توسط مجلات، سرمقالهای را در مجله science منتشر و استدلال کرد تا زمانی که نویسندگان استفاده از این نرمافزار را در مقاله نویسیهای خود به وضوح عنوان میکنند، میتوان انتشار مقالات علمی را عادلانه و منصفانه دانست.
برای خواندن متن کامل گزارش، اینجا را بخوانید.