کد خبر: 216644

نتایج بررسی محققان آلمانی در عملکرد AI

هوش مصنوعی زنانه - مردانه فکر می‌کند

ققان دانشگاه فنی مونیخ (TUM) و دانشگاه فنی «دارمشتات» بررسی کرده‌اند که چگونه مولد‌های متن به تصویر با کلیشه‌های جنسیتی در زبان‌های مختلف برخورد می‌کنند. نتایج به‌دست‌آمده حکایت از آن دارد که این مدل‌ها نه‌تنها سوگیری‌های جنسیتی را منعکس می‌کنند، بلکه آن‌ها را نیز تقویت می‌کنند.

 این روز‌ها بازار هوش مصنوعی داغ است و محققان تلاش می‌کنند به تمام جوانب این حوزه از فناوری بپردازند. در تازه‌ترین تحقیقی که در این حوزه انجام شده، محققان دو دانشگاه فنی «مونیخ» و «دارمشتات» مطالعه مشترکی را دنبال کرده‌اند که بیانگر آن است مدل‌های تولید تصویر مبتنی بر هوش مصنوعی، نه‌تنها کلیشه‌های جنسیتی را نشان می‌دهند؛ بلکه آن‌ها را تقویت می‌کنند.
این تحقیق حاکی از آن است که شدت و جهت این سوگیری‌ها در زبان‌های مختلف متفاوت است و ساختار‌های زبانی می‌توانند نقش تعیین‌کننده‌ای در شکل‌گیری یا کاهش تعصبات جنسیتی در تصاویر هوش مصنوعی داشته باشند. 

زبان، عامل پنهان در شکل‌گیری سوگیری‌های تصویری

محققان دانشگاه فنی مونیخ (TUM) و دانشگاه فنی «دارمشتات» بررسی کرده‌اند که چگونه مولد‌های متن به تصویر با کلیشه‌های جنسیتی در زبان‌های مختلف برخورد می‌کنند. نتایج به‌دست‌آمده حکایت از آن دارد که این مدل‌ها نه‌تنها سوگیری‌های جنسیتی را منعکس می‌کنند، بلکه آن‌ها را نیز تقویت می‌کنند. جهت و شدت این تحریف به زبان موردنظر بستگی دارد. امروزه، در رسانه‌های اجتماعی، جست‌وجو‌های شبکه و روی پوستر‌ها، تصاویر تولید شده توسط هوش مصنوعی در همه‌جا یافت می‌شوند.
مدل‌های زبانی بزرگ (LLM) مانند ChatGPT قادر به تبدیل ورودی‌های ساده به تصاویر فریبنده واقع‌گرایانه هستند. محققان نشان داده‌اند که تولید چنین تصاویر مصنوعی نه‌تنها تعصبات جنسیتی را بازتولید کرده، بلکه در واقع آن‌ها را بزرگ‌نمایی می‌کنند. 

پزشک مرد تا پرستار زن؛ کلیشه‌هایی در مدل‌های هوش مصنوعی 

این تحقیق، مدل‌هایی را در 9 زبان بررسی و نتایج به‌دست‌آمده را با هم مقایسه کرده است. مطالعاتی که پیش‌تر انجام شده بود، معمولاً تنها بر مدل‌های زبان انگلیسی متمرکز بودند. به عنوان یک معیار، تیم محققان، ارزیابی چندزبانه سوگیری جنسیتی در تولید تصویر (MAGBIG) را بررسی کرده و آن را توسعه دادند. این ارزیابی براساس نام‌گذاری‌های شغلی با دقت کنترل شده است. این تحقیق همچنین چهار نوع مختلف از پیشنهاد‌ها را مورد بررسی قرار داده است.
یکی از آن‌ها، پیشنهاد‌های مستقیمی است که از «مذکر عام» (استفاده از صورت دستوری مذکر برای اشاره به همه افراد) در زبان‌هایی استفاده می‌کنند که در آن‌ها اصطلاح عمومی برای یک شغل از نظر دستوری مذکر است مانند «پزشک»؛ دوم، توصیف‌های غیرمستقیم مانند «شخصی که به عنوان پزشک کار می‌کند»؛ سوم، پیشنهاد‌های صریحاً زنانه مانند «پزشک زن»؛ و چهارم، پیشنهاد‌های «ستاره جنسیتی» مانند این که کنوانسیون آلمان قصد داشت با استفاده از ستاره، یک نام‌گذاری خنثی از نظر جنسیتی ایجاد کند، مانند «Ärzt*innen» برای پزشکان. برای این که بتوان نتایج به‌دست‌آمده را با هم مقایسه کرد، محققان زبان‌هایی را که در آن‌ها نام مشاغل دارای جنسیت هستند، مانند آلمانی، اسپانیایی و فرانسوی، در نظر گرفتند. علاوه براین، این مدل زبان‌هایی مانند انگلیسی و ژاپنی را که فقط از یک جنسیت دستوری استفاده می‌کنند؛ اما ضمایر جنسیتی دارند (مانند «او»، «او») در بر می‌گیرد. و در نهایت، زبان‌هایی را که جنسیت دستوری ندارند، شامل می‌شود: مانند زبان‌های کره‌ای و چینی. 

متن کامل گزارش ندا اظهری، خبرنگار گروه دانشگاه را در روزنامه فرهیختگان بخوانید