کاظم بنیهاشم،عضو هیئتعلمی دانشگاه اوپن:این است که نظام آموزشی ما چگونه میتواند نسبت به استفاده از هوش مصنوعی رویکردی را اتخاذ کند. زمانی که گروهی از معلمان ریاضی با بهکارگیری ماشینحساب در مدارس مخالفت میکردند و آن را اقدامی نادرست میدانستند، استدلال آنها این بود که استفاده از ماشینحساب باعث تنبلی دانشآموزان میشود. با این حال، این نگرانی از نگاهی نادرست سرچشمه میگرفت؛ نگاهی که فناوری را جایگزین یادگیری تلقی میکرد، نه ابزاری برای تسهیل فرایند یادگیری. البته تا حدی میتوان به این معلمان حق داد، چراکه احتمالاً آن نگاه پداگوژیک (آموزششناسانه) که متخصصان حوزه آموزش دارند، در آن زمان برای همه معلمان وجود نداشت.
ما که در حوزه آموزش فعالیت میکنیم، بر این باوریم که دانشآموزان بهجای صرف ساعتها زمان برای انجام دستی محاسبات، باید به سطوح بالاتری از یادگیری هدایت شوند. منظور از این سطح بالاتر، درک این مسئله است که این فرمولها در کجا و چگونه به کار میآیند و دانشآموزان چگونه میتوانند در مواجهه با مسائل ریاضیگونه در زندگی واقعی، از آنها استفاده کنند. از این منظر، توانایی بهکارگیری و پیادهسازی فرمولها اهمیت بیشتری نسبت به انجام صرف محاسبات دستی دارد.
جای حذف، دنبال چگونگی ادغام هوش مصنوعی در نظام آموزشی باشیم
به نظر من، این دغدغه امروز در نظامهای آموزشی سراسر جهان مطرح است که آیا باید استفاده دانشآموزان و دانشجویان از هوش مصنوعی را محدود یا ممنوع کرد، یا اینکه بپذیریم هوش مصنوعی بخشی جداییناپذیر از واقعیت زندگی امروز است و لازم است به این بیندیشیم که چگونه میتوان از آن بهصورت هوشمندانه استفاده کرد. من که در این حوزه فعالیت میکنم، معتقدم ممنوعیت راهحل مناسبی نیست و رویکردهای محدودکننده نمیتوانند فرزندان ما را برای آینده آماده کنند. در نتیجه، ضروری است بهجای حذف، به دنبال چگونگی ادغام هوش مصنوعی در نظام آموزشی باشیم؛ آن هم ادغامی آگاهانه و هدفمند.
اما درعینحال لازم میدانم این نکته را هم به خودم و به همه یادآوری کنم که ما فعالان حوزه آموزش، بهویژه آموزش و فناوریهای آموزشی، به دلیل مطالعه، تجربه کاری و نگاه حرفهای که در این زمینه داریم، بهخوبی از آثار مثبت فناوری در آموزش آگاه هستیم. با این حال، ضروری است این آگاهی را با نگاهی خنثی، منصفانه و واقعبینانه همراه کنیم و در ارزیابی نقش و اهمیت فناوری در آموزش دچار اغراق نشویم. به نظر من، توجه به این تعادل و پرهیز از بزرگنمایی نقش فناوری، نکتهای کلیدی است که باید در فرایندهای سیاستگذاری آموزشی مورد توجه جدی قرار گیرد.
محدودیتهای مهم مدلهای زبانی بزرگ
فکر میکنم در آموزش عالی، آنچه بیش از همه درباره آن صحبت میشود، موضوع مدلهای زبانی بزرگ است. به این معنا که اگرچه هوش مصنوعی حوزهای بسیار گسترده دارد - از رباتهای مورد استفاده در کارخانههای ماشینسازی گرفته تا کاربرد آنها در بیمارستانها برای کمک به جراحی یا پیشبینی همهگیریها - اما در حوزه آموزش، تمرکز اصلی ما بر این نوع خاص از هوش مصنوعی قرار میگیرد. دلیل این امر آن است که فعالیتهای آموزشی عمدتاً متنمحور هستند؛ کتاب میخوانیم، رساله و مقاله مینویسیم، بازخورد ارائه میدهیم و بخش عمدهای از تعاملات آموزشی ما بر پایه متن شکل میگیرد. به همین خاطر، بحثها بیشتر معطوف به مدلهای زبانی بزرگ است. در این چهارچوب، بسیار مهم است که بدانیم این مدلها چه محدودیتهایی دارند، چه فرصتها و چه ظرفیتهایی را در اختیار ما میگذارند. چنین شناختی به ما کمک میکند تا در استفاده از آنها تصمیمهایی آگاهانهتر و عاقلانهتر بگیریم.
نکته بسیار مهم دیگر این است که بدانیم مدلهای زبانی بزرگی مانند چتجیپیتی، فاقد فهم و آگاهی نسبت به محتوایی هستند که تولید میکنند. برای مثال، اگر از چتجیپیتی پرسیده شود «امروز حالت چطور است؟» و پاسخ دهد «حالم خوب است»، این پاسخ برای خود سیستم هیچ معنای درونی یا احساسی ندارد؛ بلکه صرفاً بر اساس الگوها و دستورالعملهایی است که در فرایند آموزش دریافت کرده و میتواند چنین پاسخی را تولید کند.
یکی دیگر از محدودیتهای مهم این مدلها که باید نسبت به آن آگاه باشیم، امکان ارائه اطلاعات نادرست است. دلیل این مسئله آن است که دادههایی که این مدلها بر اساس آنها آموزش دیدهاند، لزوماً همیشه دقیق و صحیح نبودهاند. به همین خاطر، کاربر ناگزیر است همواره اطلاعات ارائهشده را بررسی و راستیآزمایی کند تا از درستی آنها اطمینان یابد.
بنابراین، آگاهی از احتمال خطا در خروجی این مدلها اهمیت زیادی دارد. این موضوع در حوزه آموزش یک چالش جدی ایجاد میکند، چراکه ما قصد داریم فرزندان و دانشجویان خود را بر پایه اطلاعاتی تربیت کنیم که بخشی از آنها از طریق فناوری و ابزارهای هوشمند در اختیارشان قرار میگیرد.
نکته مهمتر این است که این مدلها گاهی اطلاعاتی را «میسازند»؛ پدیدهای که با عنوان توهم شناخته میشود. برای مثال، در برخی مواقع وقتی از مدل درخواست منبع یا رفرنس میشود، ارجاعهایی ارائه میکند که در واقع وجود خارجی ندارند.
لزوم هوشیاری نسبت به پیامدهای روانی و اجتماعی AI
محدودیت مهم دیگر، مسئله سوگیری است. برای نمونه، اگر از مدل بخواهید داستانی را روایت کند که در آن فردی مرتکب جرم شده است، این احتمال وجود دارد که برای آن فرد نامی خاورمیانهای یا اسلامی انتخاب کند، یا او را بهعنوان فردی سیاهپوست معرفی کند. همچنین تعصبات جنسیتی نیز در خروجیها دیده میشود؛ بهعنوان مثال، اگر درباره پرستاران سؤال شود، اغلب آنها بهصورت زن معرفی میشوند. این نوع سوگیریها مسئلهای جدی به شمار میآیند، چراکه ما نمیخواهیم فرزندانمان در فضایی رشد کنند که چنین سوگیریهایی بهصورت ناآگاهانه بازتولید میشوند.
در ادامه نکاتی که پیشتر درباره نداشتن احساس و فقدان آگاهی این مدلها نسبت به محتوای تولیدیشان مطرح کردم، میتوان به یک نمونه فرهنگی اشاره کرد. فیلمی وجود دارد که دیدن آن را توصیه میکنم؛ در این فیلم، شخصیت اصلی وارد یک رابطه احساسی ناسالم با یک هوش مصنوعی میشود و نوعی وابستگی عاطفی نسبت به آن شکل میگیرد. این رابطه در نهایت به انزوای اجتماعی و بروز اختلالات روانی در فرد منجر میشود. این مثال به ما یادآوری میکند که لازم است در سیاستگذاریهای آموزشی، نسبت به پیامدهای روانی و اجتماعی استفاده از هوش مصنوعی آگاه و هوشیار باشیم.
بهتازگی در انگلستان گزارش شد که یک نوجوان دست به خودکشی زد و ارتباط او با چتجیپیتی در تحریک این اقدام نقش داشت. گزارشها نشان میدهند که تعاملات ما با هوش مصنوعی میتواند به شکلگیری روابط ناسالم عاطفی منجر شود. حال اگر این تجربه را به کودکان ۱۰ تا ۱۲ ساله تعمیم دهیم، میتوان تصور کرد که چنین استفادهای چه پیامدهای روانی و اجتماعی خطرناکی برای آنها به همراه دارد.
بنابراین، این مسئله در سیاستگذاریهای اجتماعی اهمیت زیادی دارد و ما را به ضرورت داشتن سواد هوش مصنوعی آگاه میکند. لازم است این موضوع در نظام آموزشی بهعنوان یک بحث حیاتی مطرح شود تا کاربران فناوری، بهویژه دانشآموزان، بتوانند بهصورت آگاهانه، مسئولانه و اخلاقی از آن استفاده کنند.
هوش مصنوعی و چالش مالکیت معنوی اثر
میخواهم وارد مباحث جدیتر و مثالهای عینیتر در زمینه سیاستگذاری شویم و یکی از این مسائل مهم مالکیت معنوی است. بهعنوان نمونه، وقتی یک معلم، دانشجو یا دانشآموز از طریق چتجیپیتی محتوایی تولید میکند، این سؤال مطرح میشود که مالکیت این محتوا با چه کسی است؟
بر اساس شرایط و ضوابط چتجیپیتی، مالکیت محتوای تولیدشده با فردی است که آن را ایجاد کرده است. با این حال، ممکن است دو نفر دقیقاً همان پاسخ یا محتوای مشابه را دریافت کنند؛ در این صورت، موضوع مالکیت معنوی به چالش کشیده میشود و نیازمند بررسی است.
میخواهم چند مثال عملی و سیاستهایی که در دانشگاه «ماستریخت» در حال شکلگیری است را بیان کنم. بنده عضو کمیته هوش مصنوعی در آموزش دانشکده هستم و یکی از وظایف ما تدوین و پیشنهاد سیاستهایی است که برای دانشآموزان و معلمان قابل اجرا باشد.
بحثی که میخواهم مطرح کنم، مربوط به سیاستهای آموزشی در زمینه استفاده از هوش مصنوعی است و محور آن صداقت تحصیلی است. به عبارت دیگر، ما باید بهصورت شفاف به دانشجویان اعلام کنیم که در استفاده از هوش مصنوعی، باید بسیار صادق باشند و نمیتوانند کاری که توسط هوش مصنوعی تولید شده است را بهعنوان کار خود ارائه دهند.
در اینجا لازم است تفاوت بین سرقت ادبی و کلاهبرداری روشن شود. سرقت ادبی زمانی رخ میدهد که ما اثر فرد دیگری را بدون ذکر منبع استفاده کنیم، اما کلاهبرداری زمانی است که اثر فرد دیگر را بهعنوان کار خود معرفی کنیم. بنابراین، وقتی کسی محتوای تولیدشده توسط هوش مصنوعی را بهعنوان کار خود ارائه میدهد، این امر در زمره کلاهبرداری قرار میگیرد و میتواند پیامدهای جدی آموزشی و اخلاقی داشته باشد.
بحث دیگر بر این است که ما باید آگاهانه و مانند سایر فناوریها، هوش مصنوعی را بهعنوان یک فرایند تسهیلگر یادگیری به کار بگیریم. بهعنوان مثال، برای یادگیری یک مهارت جدید، بارش ایده یا انجام فعالیتهای آموزشی مختلف، هوش مصنوعی میتواند ابزار کمکی مؤثری باشد.
علاوه بر این، ما تلاش میکنیم دانشجویان را نسبت به سوگیری و محدودیتهای این سیستمها آگاه کنیم تا بدانند خروجی مدلها ممکن است سوگیری داشته باشد و این آگاهی آنها را در استفاده مسئولانه یاری میکند.
اهمیت شفافسازی استفاده از هوش مصنوعی در دانشگاه
یکی دیگر از سیاستهای مهم، تصدیق یا شفافسازی استفاده از هوش مصنوعی است. به این معنا که دانشجویان و معلمان باید اعلام کنند که چگونه از این فناوری استفاده کردهاند. بهعنوان نمونه، معلمان میگویند چه نوع ابزار هوش مصنوعی به کار رفته، هدف از استفاده چه بوده، چه دستوراتی داده شده و آیا ملاحظات اخلاقی رعایت شده است یا خیر؛ مثلاً اطلاعات یا دادههای شخصی افراد آپلود نشده باشد و رضایت آنها اخذ شده باشد. این یک نمونه است از اینکه ما از دانشجویان میخواهیم شفاف باشند و توضیح دهند چگونه از هوش مصنوعی استفاده کردهاند.
بحث دیگر مربوط به مدیریت دادههاست، زیرا چه بخواهیم و چه نخواهیم، هوش مصنوعی به اطلاعاتی که آپلود میکنیم دسترسی دارد و آنها را پردازش میکند. بنابراین باید مراقب باشیم هیچ داده شخصی را آپلود نکنیم و اگر مقاله یا کتابی که دارای حق نشر است را آپلود میکنیم، مسئولیت آن با ما خواهد بود و باید مطمئن باشیم اجازه کپیرایت را داریم.
بحث دیگری که در سطح جهانی مورد توجه است، تأثیرات اجتماعی و محیطزیستی هوش مصنوعی است. استفاده از این فناوریها پیامدهای محیطی و اجتماعی به همراه دارد؛ برای مثال، پردازش دادهها توسط موتورهای هوش مصنوعی مصرف بالای آب دارد و منجر به تولید دیاکسیدکربن میشود. همچنین، دسترسی به نسخههای پولی این ابزارها برای کشورهای فقیر محدود است و این موضوع میتواند شکاف اجتماعی ایجاد کند. ما تلاش میکنیم دانشجویان را نسبت به این مسائل آگاه کنیم تا نگرشی منصفانه و مسئولانه نسبت به استفاده از هوش مصنوعی داشته باشند. در کنار کارهایی که باید انجام دهند، دانشجویان باید بدانند چه کارهایی را نباید انجام دهند. بهعنوان مثال، نباید محتوای تولیدشده توسط هوش مصنوعی را بهعنوان کار خود ارائه کنند و همیشه باید در نظر داشته باشند که خروجی هوش مصنوعی لزوماً درست نیست. توجه به این نکته و سوگیریهای احتمالی مدلها، از اهمیت بالایی برخوردار است. بهطور مثال، آپلود کردن تکالیف دانشآموزان در سیستمهای هوش مصنوعی نیازمند آگاهی از جنبههای اخلاقی این موضوع است. باید بدانیم آیا اجازه داریم این محتوا را آپلود کنیم، مالکیت آن با چه کسی است و آیا سیستم مورد استفاده از نظر امنیت و حفظ حریم خصوصی مطمئن است. این مباحث گاهی ساده انگاشته میشوند؛ اما در سطح سیاستگذاری، دانشگاه و تصمیمگیریهای کلان، نیاز است که بهصورت دقیق و جدی بررسی شوند.
در نهایت میتوان نتیجه گرفت که استفاده از هوش مصنوعی مفید و ارزشمند است؛ اما باید بهصورت آگاهانه انجام شود و کاربران نسبت به مسئولیتهای اخلاقی و معنوی آن کاملاً آگاه باشند.
* متن پیش رو، ارائه کاظم بنیهاشم عضو هیئتعلمی دانشگاه اوپن در پنل هوش مصنوعی و آینده آموزش عالی است که چندی پیش توسط مؤسسه پژوهش و برنامهریزی آموزش عالی برگزار شد.