تعیین‌تکلیف یانکی‌ها
فناوری‌های نوظهور و پیشرفت‌های هوش مصنوعی در سال‌های اخیر، آن را به فراگیرترین فناوری ساخت بشر تبدیل کرده است. استفاده از این فناوری به سرعت در میان کاربران عادی و مراکز آموزشی گسترش یافته است. با این حال، استفاده در محیط‌های دانشگاهی نیازمند حفظ چهارچوب‌هایی است که مراکز علمی دنیا تلاش کرده‌اند آن‌ها را تدوین کنند.
  • ۱۴۰۳-۱۲-۱۴ - ۰۹:۵۲
  • 00
تعیین‌تکلیف یانکی‌ها
۱۱۶ دانشگاه آمریکا سند هوش‌ مصنوعی نوشتند
۱۱۶ دانشگاه آمریکا سند هوش‌ مصنوعی نوشتند
ندا اظهریخبرنگار

گسترش فناوری‌های نوظهور و پیشرفت جوانب مختلف هوش مصنوعی در سال‌های اخیر آن را به فراگیرترین فناوری جدید ساخت بشر تبدیل کرده است. فناوری که استفاده از آن برخلاف دوره‌ها و سال‌های قبل منحصر به شرکت‌ها و مجموعه‌های اقتصادی نمانده و به سرعت در حال گسترش بین کاربران عادی است.
همین امر هم باعث شده در بسیاری از مراکز از جمله دانشگاه‌ها و مراکز آموزشی و در قالب فعالیت‌های درسی و پژوهشی نیز به طور گسترده مورد استفاده قرار ‌گیرد. اما در این میان، استفاده از هوش مصنوعی در فضا‌های دانشگاهی نیازمند حفظ چهارچوب‌هایی است که مراکز علمی مطرح دنیا به ویژه در دو سه سال اخیر تلاش کرده‌اند همراه با موج گسترش آن، ضوابط و شرایط ویژه آن را تدوین کنند.
در ایران تاکنون تنها دانشگاهی که دستورالعمل مشخصی را برای بهره‌مندی از فناوری هوش مصنوعی اعلام کرده، دانشگاه صنعتی شریف است در حالی که در آمریکا قریب‌به 116 دانشگاه تاکنون به این مسئله پرداخته و شیوه‌نامه و چهارچوب مشخصی را برای استفاده مخاطبان مختلف نظیر دانشجویان یا استادان در نظر گرفته‌اند. «فرهیختگان» در ادامه، ضمن بررسی اسناد و دستورالعمل‌های دانشگاه‌های آمریکایی در حوزه هوش مصنوعی، مروری هم بر چهارچوب‌ها و دستورالعمل‌های ارائه شده از سوی سه دانشگاه برتر آمریکا داشته است.

دانشگاه‌ها و هوش مصنوعی؛ سیاست‌ها و قوانین
پس از انتشار عمومی ChatGPT، ابزار‌های هوش مصنوعی مولد (GenAI) به طور گسترده‌ای در بخش‌های مختلف از جمله آموزش عالی مورد استفاده قرار گرفته‌اند. در ابتدا ChatGPT واکنش‌های متفاوتی را برانگیخت. گزارش‌های اولیه در مورد واکنش مؤسسات آموزش عالی به GenAI طیف وسیعی از واکنش‌ها را به دنبال داشت.
برخی از دانشگاه‌ها استفاده از ابزار‌های هوش مصنوعی مولد را ممنوع کردند در حالی که برخی دیگر کاملاً آن را پذیرفتند و استفاده از آن‌ها را برای آموزش و یادگیری مجاز دانستند. در حال حاضر شمار زیادی از دانشجویان و استادان از این فناوری بهره‌مند می‌شوند و به نظر نمی‌رسد ممنوعیت استفاده از آن راه‌حل عملی باشد.
بررسی‌ها نشان می‌دهد تقریباً نیمی از دانشجویان دانشگاه کمبریج به استفاده از ChatGPT در طول تحصیل خود اذعان کرده‌اند. مجله فوربس گزارش داده که 20 درصد از دانشجویان کالج‌های آمریکا از هوش مصنوعی برای تکمیل تکالیف خود استفاده می‌کنند. پذیرش سریع هوش مصنوعی مولد توسط دانشجویان در آموزش عالی، درخواست‌ها برای دستورالعمل‌ها و سیاست‌هایی برای کاربرد آن در آموزش عالی در دنیا را شدت داده است.
مطالعه روی 50 دانشگاه برتر آمریکا، رویکردی ترکیبی متشکل از مدل‌سازی موضوعی، تحلیل احساسات و تحلیل موضوعی کیفی، درک زمینه‌ای و چند وجهی‌تری از دستورالعمل‌های سازمانی را درمورد استفاده از هوش مصنوعی مولد در فعالیت‌های دانشگاهی و اداری ارائه می‌دهد. این مطالعه در قالب یک مقاله علمی به تازگی در مجله بین‌المللی فناوری آموزشی در آموزش عالی منتشر شده است.

سیاست‌های موردنیاز برای مؤسسات آموزش عالی
افزایش پذیرش GenAI تأثیر مخربی بر رویه‌های ارزیابی در آموزش عالی دنیا داشته است و ماهیت مخرب این فناوری، فشار زیادی را به دانشگاه‌ها وارد می‌کند تا سیاست‌ها و دستورالعمل‌هایی را در واکنش به این فناوری ایجاد کنند. اگرچه بسیاری از دستورالعمل‌های مرتبط با هوش مصنوعی پیش از ChatGPT منتشر شده بودند، بیشتر آن‌ها به طور خاص به مسائل و چالش‌های ناشی از هوش مصنوعی مولد در آموزش عالی نمی‌پردازند. ببیشتر مؤسسات فاقد دستورالعمل‌های تخصصی برای استفاده اخلاقی از GenAI بوده و سیاست‌های موجود اغلب مسائل مهمی مانند حریم خصوصی دانشجویان را نادیده می‌گیرند.
بسیاری از سازمان‌های بین‌المللی مانند سازمان آموزشی، علم و فرهنگی ملل متحد و سازمان همکاری اقتصادی و توسعه، دستورالعمل‌هایی را در مورد استفاده از GenAI در آموزش منتشر کرده‌اند. باوجوداین، این دستورالعمل‌ها به جای مشکلات خاصی که آموزش عالی با آن مواجه است، بر مسائل گسترده‌تر مرتبط با تأثیر این فناوری متمرکز است. فقدان دستورالعمل‌ها و خط مشی‌های روشن در مورد GenAI بر مشکلات دانشگاه‌ها برای رسیدگی مؤثر به چالش‌های مرتبط با GenAI می‌افزاید.
نتایج نشان داده است دستورالعمل ارزشیابی، سه حوزه اصلی شامل یکپارچگی تحصیلی، طراحی آزمون و برقراری ارتباط با دانشجویان را پوشش می‌دهد. اسناد دستورالعمل‌های ارائه شده از سوی 116 دانشگاه آمریکایی نشان می‌دهند بیش از 60 درصد از دانشگاه‌ها، دانشجویان را به استفاده از هوش مصنوعی مولد ترغیب می‌کنند و حدود 40 درصد از آن‌ها نیز راهنمایی‌های دقیقی را برای استفاده از آن در کلاس درس ارائه می‌دهند. بیش از نیمی از مؤسسات (56 درصد) برنامه‌های درسی نمونه و 50 درصد نمونه فعالیت‌های GenAI را ارائه کردند که به مربیان کمک می‌کند این فناوری را در کلاس‌های درسی خود ادغام کنند.

انجام مطالعه بر پایه چهار گام
مطالعه اسناد مربوط به هوش مصنوعی دانشگاه‌های آمریکا براساس چهار گام شامل جمع‌آوری داده؛ مدل‌سازی موضوعی؛ تحلیل احساسات و تحلیل کیفی موضوعی صورت گرفته است. محققان در گام نخست، دستورالعمل‌های هوش مصنوعی مولد را از دانشگاه‌های منتخب (50 دانشگاه برتر) به طور سیستماتیک جمع‌آوری کرده‌اند.
در گام دوم که مدل‌سازی موضوعی است، از استخراج ویژگی و بهینه‌سازی «تخصیص پنهان دیریکله»(LDA) (یک مدل تولیدی در آمار) برای شناسایی موضوعات اصلی استفاده شده است. این مرحله بر تمیز کردن کامل اسناد با حذف کاراکتر‌های غیرضروری و استاندارد کردن قالب‌های متن متمرکز است.
در گام بعدی یعنی تحلیل احساسات، محققان به تجزیه و تحلیل احساسات برای بررسی روند‌های احساسات و ارتباط بین تحلیل احساسات و حوزه‌های موضوعی پرداخته‌اند. تحلیلگر، شدت احساسات یک امتیاز ترکیبی را محاسبه می‌کند که احساسات کلی بیان شده در یک متن را با هم ادغام می‌کند که شامل 1- (نشان دهنده یک احساس بسیار منفی) تا 1+ (نشان‌دهنده خلق و خوی بسیار مثبت) است. با این نمرات، مقایسه‌ای از تفاوت در بیان احساسی در اسناد انتخاب شده صورت گرفته است. در گام چهارم که تحلیل کیفی موضوعی است، پس از تکمیل تجزیه و تحلیل «تخصیص پنهان دیریکله»، دستورالعمل‌های GenAI بیشتر مورد تجزیه و تحلیل قرار گرفته تا درک دقیق‌تر و زمینه‌ای به دست آید.
سپس دو محقق، زیرمجموعه‌ای از دستورالعمل‌ها را به صورت جداگانه کدنویسی کردند و سپس موضوعات شناسایی شده را مقایسه و بحث کردند تا به یک اجماع برسند. با دنبال کردن انسجام نمرات، محققان چهار موضوع را شناسایی کردند. این نمرات برای ارزیابی کیفیت موضوعی در مدل‌هایی مانند LDA اهمیت دارند که در آن، نمرات با انسجام بالا نشان‌دهنده ارتباط معنایی قوی بین کلمات در یک موضوع است و معنی‌دار بودن و قابلیت تفسیر آن را افزایش می‌دهد. از سوی دیگر، استفاده از مقیاس‌بندی چندبعدی، روابط بین موضوعات شناسایی شده را به صورت بصری نشان می‌دهد. نزدیکی دایره‌ها بیانگر میزان ارتباط بین موضوعاتی است که آن‌ها نشان می‌دهند. الگوریتم LDA به هر موضوع برچسب‌های عددی اختصاص داده است.

 7 نکته کلیدی برای اعضای هیئت علمی دانشگاه‌ها
تقریباً تمام دانشگاه‌ها (47 دانشگاه از جمع 50 دانشگاه) دستورالعمل‌هایی را برای استفاده از هوش مصنوعی مولد به اعضای هیئت علمی خود ارائه کرده‌اند. 7 موضوع اصلی در این دستورالعمل‌ها مطرح شده است.
1. بیانیه‌های برنامه درسی برای استفاده GenAI:
بیش از نیمی از دانشگاه‌ها (56 درصد) راهنمایی‌هایی را درباره بیانیه‌های برنامه درسی در مورد استفاده از ابزار GenAI ارائه کردند. به عنوان مثال، دانشگاه استنفورد بیانیه‌های برنامه درسی الگو را برای استفاده GenAI در سه دسته ابزار‌های هوش مصنوعی که آزادانه مجاز به استفاده هستند؛ استفاده از هوش مصنوعی مجاز با محدودیت و عدم استفاده از هوش مصنوعی مجاز، ارائه کرد. همچنین دانشگاه شیکاگو نمونه‌هایی از بیانیه‌های برنامه درسی را در مورد استفاده از ابزار‌های هوش مصنوعی در چهار گروه، ممنوعیت استفاده در تمام موقعیت‌ها؛ استفاده با مجوز قبلی؛ استفاده با استناد‌های مناسب و استفاده رایگان بدون نیاز به استناد ارائه کرده است.
۲. تنظیم و ابلاغ خط مشی استفاده از GenAI :
۲۷ دانشگاه (54 درصد) به اعضای هیئت علمی خود توصیه کرده‌اند سیاست‌های خود را در رابطه با هوش مصنوعی مولد تنظیم کرده و این خط مشی را به دانشجویان خود ابلاغ کنند. آن‌ها بر اهمیت ارتباط واضح انتظارات در مورد آنچه در مورد استفاده از هوش مصنوعی مجاز است و چه چیزی مجاز نیست، تأکید و اشاره کردند که بسیاری از دانشجویان بدون دستورالعمل‌های روشن از سوی استادان خود از هوش مصنوعی استفاده می‌کنند.
۳. طراحی مجدد تکالیف و آزمون‌ها: کمتر از نیمی از دانشگاه‌ها (48 درصد) به اعضای هیئت علمی خود توصیه کرده‌اند تکالیف و آزمون‌های درسی را دوباره طراحی کنند. ارزیابی‌های معتبری چون انجام پروژه‌ها، آزمون‌های فرایندمحور مانند پیش‌نویس‌ها، ارائه‌ها، امتحانات شفاهی و نمونه کار‌ها و تکالیفی که نیاز به تفکر دارند معمولاً در تنظیم تکالیف و آزمون‌ها در عصر GenAI توصیه می‌شوند. علاوه براین، سواد هوش مصنوعی و استناد به هوش مصنوعی مولد در دستورالعمل‌ها مورد توجه قرار گرفته است.
۴. تعریف و تبیین هوش مصنوعی مولد: 21 دانشگاه (42 درصد) اطلاعات اولیه درباره GenAI، ازجمله GenAI و مفاهیم مرتبط، قابلیت‌ها و محدودیت‌های آن، تأثیر آن بر آموزش عالی و نمونه‌هایی از ابزار هوش مصنوعی مولد را به اعضای هیئت علمی ارائه داده‌اند.
۵. پرهیز استفاده از ابزار‌های تشخیصی: با توجه به محدودیت‌های ابزار‌های فعلی تشخیص هوش مصنوعی، 19 دانشگاه (38 درصد) اظهار داشتند استفاده از این ابزار‌های تشخیص را توصیه نمی‌کنند. برخی دانشگاه‌ها حتی «تورنیتین» به عنوان یک سرویس تشخیص شباهت مبتنی بر اینترنت را نیز غیرفعال کردند.
۶. گنجاندن GenAI در تدریس: 16 دانشگاه (32 درصد) دستورالعمل‌ها و توصیه‌هایی را برای گنجاندن GenAI در تدریس به هیئت علمی خود ارائه کردند. به عنوان مثال، دانشگاه کارولینای شمالی اصولی را برای استفاده از این فناوری در تدریس ارائه کرده است مانند اینکه هوش مصنوعی باید به شما در آموزش کمک کند نه اینکه به جای شما تدریس کند. طبق این دستورالعمل، اعضای هیئت علمی 100 درصد مسئول مطالب آموزشی خود هستند، تفکر انتقادی را تسهیل کرده و اطمینان حاصل می‌کنند که استفاده از هوش مصنوعی فراگیر است.
۷.استفاده اخلاقی از GenAI :
۱۲دانشگاه (24 درصد) بر اهمیت حفظ حریم خصوصی داده‌ها تأکید کرده و راهبرد‌هایی را در مورد استفاده اخلاقی از این فناوری ارائه کردند.

پیشنهاد‌های عمومی برای استفاده دانشگاهیان از GenAI
حدود 70 درصد از دانشگاه‌ها (34 دانشگاه از جمع 50 دانشگاه برتر) دستورالعمل‌هایی را برای تمام ذینفعان بدون اختصاص به یک گروه خاص ارائه داده‌اند. پنج موضوع اصلی برای دستورالعمل‌ها مشخص شده است.
۱. حریم خصوصی و امنیت: نیمی از دانشگاه‌ها (50 درصد) دستورالعمل‌هایی داشتند که نگرانی‌های مربوط به حریم خصوص و امنیت را مشخص می‌کنند. به طور خاص، دانشگاه‌ها بر اهمیت حفاظت از اطلاعات شخصی و خصوصی تأکید کرده و دستورالعمل‌هایی را برای حفاظت از داده‌ها هنگام استفاده از ابزار‌های GenAI ارائه کردند.
۲. محدودیت‌ها و خطر GenAI: با تأکید بر محدودیت‌ها و خطرات GenAI مانند محتوای نادرست، سوگیری‌ها و غیره، 19 دانشگاه (38 درصد) جامعه را تشویق کرده‌اند تا خروجی‌های ابزار GenAI را به دقت بررسی کنند. دانشگاه‌ها همچنین در مورد کلیشه‌های بازتولید شده توسط این ابزار‌ها هشدار داده‌اند.
۳. GenAI  چیست: 14 دانشگاه (28 درصد) تعاریف هوش مصنوعی مولد و اصطلاحات مرتبط را در دستورالعمل‌های خود برای تمام ذینفعان ارائه کردند. آن‌ها یک نمای کلی از GenAI را معرفی کردند ازجمله ابزار‌های فهرست شده می‌توان به ChatGPT، Gemini گوگل، Copilot مایکروسافت و هوش مصنوعی Zoom اشاره کرد.
۴. یکپارچگی دانشگاهی: 13 دانشگاه (26 درصد) شامل اطلاعات خط مشی یا دستورالعمل‌هایی در مورد یکپارچگی دانشگاهی بودند. به عنوان مثال، دانشگاه شیکاگو به صراحت توضیح داده است اگر منبع اطلاعات فاش نشود، استفاده از اطلاعات به دست آمده از یک منبع خارجی سرقت ادبی محسوب می‌شود.
5. افشا و شفافیت: 11 دانشگاه (22 درصد) بر اهمیت شفافیت و افشای اطلاعات تأکید و به کاربران توصیه کردند استفاده از ابزار‌های هوش مصنوعی را در میان بگذارند و مشخص کنند از کدام ابزار استفاده شده است. بحث‌ها بر اهمیت افشا، استناد به ابزار‌های هوش مصنوعی و اجتناب از سرقت ادبی متمرکز بوده است.

دستورالعمل‌های کلیدی برای دانشجویان
21 دانشگاه از 50 دانشگاه (42 درصد) دستورالعمل‌هایی را برای دانشجویان در مورد استفاده از GenAI ارائه کردند. در این میان، سه موضوع اصلی از دستورالعملی‌های دانشجویی شناسایی شده است.
1. یکپارچگی دانشگاهی: دستورالعمل‌ها برای دانشجویان 14 دانشگاه به خط مشی یکپارچگی تحصیلی و مسائل مرتبط، مانند پیامد‌های سوءاستفاده از هوش مصنوعی و چگونگی استناد به هوش مصنوعی مولد پرداخته است.
2. بررسی با استادان: دستورالعمل‌ها برای دانشجویان 12 دانشگاه به طور مداوم توصیه می‌کند دانشجویان پیش از استفاده از ابزار GenAI برنامه درسی خود را مطالعه و با استادان خود مشورت کنند. از آنجایی که دوره‌های مختلف دارای خط مشی‌های متفاوتی هستند، به دانشجویان توصیه می‌شود برای اطلاع از خط مشی دوره با استادان خود مشورت کرده و از راهنمایی آن‌ها در مورد چگونگی استفاده از ابزار GenAI برای دوره یا تکالیف خود پیروی کنند.
3. محدودیت‌ها و خطرات GenAI: دستورالعمل‌ها برای دانشجویان 9 دانشگاه بر اهمیت درک محدودیت‌ها و خطرات GenAI تأکید کرده است. از آنجایی که خروجی مدل‌های GenAI ممکن است نادرست، گمراه‌کننده، جانبدارانه و حتی ساختگی باشد، دستورالعمل‌ها به دانشجویان توصیه می‌کنند به طور انتقادی درباره GenAI فکر کرده و اطلاعات GenAI را به دقت ارزیابی، بررسی و راستی‌آزمایی کنند.

تعیین چهارچوب استفاده از GenAI برای محققان
9 دانشگاه از 50 دانشگاه (18 درصد) سه دستورالعمل کلی را برای محققان در مورد استفاده از GenAI در تحقیقات ارائه کرده‌اند.
1. محدودیت‌ها و خطرات GenAI: پنج دستورالعمل از 9 دستورالعمل برای محققان، محدودیت‌های خطرات GenAI مانند اطلاعات قدیمی، اطلاعات نادرست یا ساختگی، سوگیری‌ها و خطرات حفظ حریم خصوصی را بیان می‌کنند و به محققان توصیه شده اطلاعات به دست آمده از GenAI را به طور انتقادی ارزیابی و تأیید کنند.
2. توصیه‌هایی برای استفاده مسئولانه و اخلاقی از GenAI در پژوهش‌ها: پنج دستورالعمل از 9 دستورالعمل برای محققان شامل توصیه‌ها و بهترین شیوه‌ها برای استفاده مسئولانه و اخلاقی از GenAI در تحقیقات ارائه شد.
3. به روز نگه داشتن دستورالعمل‌ها و کاربرد‌های GenAI: این دستورالعمل‌ها با تأکید بر اینکه ابزار‌ها و دستورالعمل‌های هوش مصنوعی به طور مداوم در حال تغییرند، به محققان توصیه می‌کند در مورد ابزار‌های نوظهور هوش مصنوعی آگاه باشند و به سیاست‌های خاص مجلات و آژانس‌های مالی در مورد استفاده از هوش مصنوعی پایبند باشند.

راهبردهای هوش مصنوعی در دانشگاه هاروارد
چشم‌انداز هوش مصنوعی در دانشگاه استنفورد
راهبرد‌های هوش مصنوعی در دانشگاه کالیفرنیا، برکلی

گزارش کامل را در روزنامه بخوانید.

نظرات کاربران