این روزها بازار هوش مصنوعی داغ است و محققان تلاش میکنند به تمام جوانب این حوزه از فناوری بپردازند. در تازهترین تحقیقی که در این حوزه انجام شده، محققان دو دانشگاه فنی «مونیخ» و «دارمشتات» مطالعه مشترکی را دنبال کردهاند که بیانگر آن است مدلهای تولید تصویر مبتنی بر هوش مصنوعی، نهتنها کلیشههای جنسیتی را نشان میدهند؛ بلکه آنها را تقویت میکنند.
این تحقیق حاکی از آن است که شدت و جهت این سوگیریها در زبانهای مختلف متفاوت است و ساختارهای زبانی میتوانند نقش تعیینکنندهای در شکلگیری یا کاهش تعصبات جنسیتی در تصاویر هوش مصنوعی داشته باشند.
زبان، عامل پنهان در شکلگیری سوگیریهای تصویری
محققان دانشگاه فنی مونیخ (TUM) و دانشگاه فنی «دارمشتات» بررسی کردهاند که چگونه مولدهای متن به تصویر با کلیشههای جنسیتی در زبانهای مختلف برخورد میکنند. نتایج بهدستآمده حکایت از آن دارد که این مدلها نهتنها سوگیریهای جنسیتی را منعکس میکنند، بلکه آنها را نیز تقویت میکنند. جهت و شدت این تحریف به زبان موردنظر بستگی دارد. امروزه، در رسانههای اجتماعی، جستوجوهای شبکه و روی پوسترها، تصاویر تولید شده توسط هوش مصنوعی در همهجا یافت میشوند.
مدلهای زبانی بزرگ (LLM) مانند ChatGPT قادر به تبدیل ورودیهای ساده به تصاویر فریبنده واقعگرایانه هستند. محققان نشان دادهاند که تولید چنین تصاویر مصنوعی نهتنها تعصبات جنسیتی را بازتولید کرده، بلکه در واقع آنها را بزرگنمایی میکنند.
پزشک مرد تا پرستار زن؛ کلیشههایی در مدلهای هوش مصنوعی
این تحقیق، مدلهایی را در 9 زبان بررسی و نتایج بهدستآمده را با هم مقایسه کرده است. مطالعاتی که پیشتر انجام شده بود، معمولاً تنها بر مدلهای زبان انگلیسی متمرکز بودند. به عنوان یک معیار، تیم محققان، ارزیابی چندزبانه سوگیری جنسیتی در تولید تصویر (MAGBIG) را بررسی کرده و آن را توسعه دادند. این ارزیابی براساس نامگذاریهای شغلی با دقت کنترل شده است. این تحقیق همچنین چهار نوع مختلف از پیشنهادها را مورد بررسی قرار داده است.
یکی از آنها، پیشنهادهای مستقیمی است که از «مذکر عام» (استفاده از صورت دستوری مذکر برای اشاره به همه افراد) در زبانهایی استفاده میکنند که در آنها اصطلاح عمومی برای یک شغل از نظر دستوری مذکر است مانند «پزشک»؛ دوم، توصیفهای غیرمستقیم مانند «شخصی که به عنوان پزشک کار میکند»؛ سوم، پیشنهادهای صریحاً زنانه مانند «پزشک زن»؛ و چهارم، پیشنهادهای «ستاره جنسیتی» مانند این که کنوانسیون آلمان قصد داشت با استفاده از ستاره، یک نامگذاری خنثی از نظر جنسیتی ایجاد کند، مانند «Ärzt*innen» برای پزشکان. برای این که بتوان نتایج بهدستآمده را با هم مقایسه کرد، محققان زبانهایی را که در آنها نام مشاغل دارای جنسیت هستند، مانند آلمانی، اسپانیایی و فرانسوی، در نظر گرفتند. علاوه براین، این مدل زبانهایی مانند انگلیسی و ژاپنی را که فقط از یک جنسیت دستوری استفاده میکنند؛ اما ضمایر جنسیتی دارند (مانند «او»، «او») در بر میگیرد. و در نهایت، زبانهایی را که جنسیت دستوری ندارند، شامل میشود: مانند زبانهای کرهای و چینی.
متن کامل گزارش ندا اظهری، خبرنگار گروه دانشگاه را در روزنامه فرهیختگان بخوانید