ندا اظهری، مترجم: این روزها بازار هوش مصنوعی داغ است و محققان تلاش میکنند به تمام جوانب این حوزه از فناوری بپردازند. در تازهترین تحقیقی که در این حوزه انجام شده، محققان دو دانشگاه فنی «مونیخ» و «دارمشتات» مطالعه مشترکی را دنبال کردهاند که بیانگر آن است مدلهای تولید تصویر مبتنی بر هوش مصنوعی، نهتنها کلیشههای جنسیتی را نشان میدهند؛ بلکه آنها را تقویت میکنند. این تحقیق حاکی از آن است که شدت و جهت این سوگیریها در زبانهای مختلف متفاوت است و ساختارهای زبانی میتوانند نقش تعیینکنندهای در شکلگیری یا کاهش تعصبات جنسیتی در تصاویر هوش مصنوعی داشته باشند.
زبان، عامل پنهان در شکلگیری سوگیریهای تصویری
محققان دانشگاه فنی مونیخ (TUM) و دانشگاه فنی «دارمشتات» بررسی کردهاند که چگونه مولدهای متن به تصویر با کلیشههای جنسیتی در زبانهای مختلف برخورد میکنند. نتایج بهدستآمده حکایت از آن دارد که این مدلها نهتنها سوگیریهای جنسیتی را منعکس میکنند، بلکه آنها را نیز تقویت میکنند. جهت و شدت این تحریف به زبان موردنظر بستگی دارد. امروزه، در رسانههای اجتماعی، جستوجوهای شبکه و روی پوسترها، تصاویر تولید شده توسط هوش مصنوعی در همهجا یافت میشوند. مدلهای زبانی بزرگ (LLM) مانند ChatGPT قادر به تبدیل ورودیهای ساده به تصاویر فریبنده واقعگرایانه هستند. محققان نشان دادهاند که تولید چنین تصاویر مصنوعی نهتنها تعصبات جنسیتی را بازتولید کرده، بلکه در واقع آنها را بزرگنمایی میکنند.
پزشک مرد تا پرستار زن؛ کلیشههایی در مدلهای هوش مصنوعی
این تحقیق، مدلهایی را در 9 زبان بررسی و نتایج بهدستآمده را با هم مقایسه کرده است. مطالعاتی که پیشتر انجام شده بود، معمولاً تنها بر مدلهای زبان انگلیسی متمرکز بودند. به عنوان یک معیار، تیم محققان، ارزیابی چندزبانه سوگیری جنسیتی در تولید تصویر (MAGBIG) را بررسی کرده و آن را توسعه دادند. این ارزیابی براساس نامگذاریهای شغلی با دقت کنترل شده است. این تحقیق همچنین چهار نوع مختلف از پیشنهادها را مورد بررسی قرار داده است. یکی از آنها، پیشنهادهای مستقیمی است که از «مذکر عام» (استفاده از صورت دستوری مذکر برای اشاره به همه افراد) در زبانهایی استفاده میکنند که در آنها اصطلاح عمومی برای یک شغل از نظر دستوری مذکر است مانند «پزشک»؛ دوم، توصیفهای غیرمستقیم مانند «شخصی که به عنوان پزشک کار میکند»؛ سوم، پیشنهادهای صریحاً زنانه مانند «پزشک زن»؛ و چهارم، پیشنهادهای «ستاره جنسیتی» مانند این که کنوانسیون آلمان قصد داشت با استفاده از ستاره، یک نامگذاری خنثی از نظر جنسیتی ایجاد کند، مانند «Ärzt*innen» برای پزشکان. برای این که بتوان نتایج بهدستآمده را با هم مقایسه کرد، محققان زبانهایی را که در آنها نام مشاغل دارای جنسیت هستند، مانند آلمانی، اسپانیایی و فرانسوی، در نظر گرفتند. علاوه براین، این مدل زبانهایی مانند انگلیسی و ژاپنی را که فقط از یک جنسیت دستوری استفاده میکنند؛ اما ضمایر جنسیتی دارند (مانند «او»، «او») در بر میگیرد. و در نهایت، زبانهایی را که جنسیت دستوری ندارند، شامل میشود: مانند زبانهای کرهای و چینی.
زبان، جهت تصویر را تعیین میکند
نتایج این تحقیق بیانگر آن است که ارجاعات مستقیم با تصویر عمومی مردانه، قویترین سوگیریها را نشان میدهند. بهعنوانمثال، مشاغلی مانند «حسابدار» عمدتاً تصاویری از مردان سفیدپوست در ذهن ایجاد میکنند، درحالیکه ارجاعات به حرفههای مراقبتی تمایل به ایجاد تصاویر زنانه در ذهن دارند. فرمهای خنثی از نظر جنسیت یا «ستاره جنسیتی» تنها اندکی از این کلیشهها کاستهاند، درحالیکه تصاویر حاصل از ارجاعات صریحاً زنانه تقریباً به طور انحصاری، زنان را نشان میدهند. محققان در کنار توزیع جنسیتی، همچنین تجزیهوتحلیل کردهاند که مدلها تا چه اندازه خوب میتوانند ارجاعات مختلف را درک و اجرا کنند. درحالیکه بررسیها نشان میدهد که فرمولهای خنثی، کلیشههای جنسیتی را کاهش میدهند، اما منجر به کیفیت پایینتر تطابق بین ورودی متن و تصویر تولید شده نیز میشوند. یکی از استادان تجزیهوتحلیل داده و آمار در پردیس TUM در هیلبرون، معتقد است: «نتایج بهدستآمده بهوضوح نشان میدهد که ساختارهای زبانی تأثیر قابلتوجهی بر تعادل و سوگیری مولدهای تصویر هوش مصنوعی دارند. هر کسی که از سیستمهای هوش مصنوعی استفاده میکند باید بداند که کلمات مختلف ممکن است منجر به شکلگیری تصاویر کاملاً متفاوتی شده و بنابراین ممکن است کلیشههای نقشهای اجتماعی را تقویت یا تضعیف کنند.» همچنین، یکی از استادان هوش مصنوعی و یادگیری ماشینی دانشگاه علوم کامپیوتر و رئیس آزمایشگاه هوش مصنوعی و یادگیری ماشینی دانشگاه فنری «دارمشتات» معتقد است: «مولدهای تصویر هوش مصنوعی خنثی نیستند؛ آنها تعصبات ما را با وضوحبالا نشان داده و این امر بسیار وابسته به زبان عمل میکند؛ بهویژه در اروپا، جایی که بسیاری از زبانها همگرا هستند، این یک زنگ خطر است. به عبارتی، هوش مصنوعی منصفانه باید با درنظرگرفتن حساسیت زبان طراحی شود.» نکته قابلتوجه این است که سوگیری در زبانهای مختلف بدون ارتباط واضح با ساختارهای دستوری متفاوت است. بهعنوانمثال، تغییر از دستورالعملهای فرانسوی به اسپانیایی منجر به افزایش قابلتوجه سوگیری جنسیتی میشود، باوجوداینکه هر دو زبان به یک شکل بین اصطلاحات شغلی مردانه و زنانه تمایز قائل میشوند.














