تاریخ : ۱۴:۱۸ - ۱۴۰۴/۱۱/۰۷
کد خبر : 223078
سرویس خبری : جامعه

چالش‌های اخلاقی و قانونی هوش مصنوعی در جهان امروز

چگونه تکنولوژی در عصرمدرن حقوق افراد را نقض می‌کند

چالش‌های اخلاقی و قانونی هوش مصنوعی در جهان امروز

امروزه نگران کننده ترین بحث در باب هوش مصنوعی پیرامون چالش های اخلاقی، چارچوب های دردسرساز و مسائل منحرف کننده مانند تبعیض‌های نژادی، جنسیتی و... است. در ادامه به شرح و تفسیر خلأ قانونی و چالش های اخلاقی این حوزه میپردازیم.

زینب شکوهی طرقی، پژوهشگر و دانشجوی حوزه هوش مصنوعی: هوش مصنوعی (AI) یکی از پیشرفته‌ترین فناوری‌های حال حاضر جهان است و با سرعتی بی‌سابقه در حال تحول صنایع، اقتصاد و زندگی روزمره انسان‌هاست. از خودکارسازی مشاغل و تولید محتوا تا تحلیل داده‌های پزشکی و مدیریت زیرساخت‌ها، دامنه کاربردهای AI روزبه‌روز گسترده‌تر می‌شود.

با این حال، رشد سریع و همه‌جانبه این فناوری، پرسش‌های جدی اخلاقی و قانونی را مطرح کرده است. درک و پاسخ به این چالش‌ها برای توسعه مسئولانه هوش مصنوعی، حفاظت از حقوق شهروندان و کاهش ریسک‌های اجتماعی و اقتصادی ضروری است.

امروزه در بکارگیری هوش مصنوعی دو موضوع کاربران بهره بردار مستمر را نگران کرده است اول چالش های اخلاقی این تکنولوژی و حریم های که متوالی نقض میشوند و دوم خلاهای قانونی در استفاده از این میهمان تازه وارد است.

چالش‌های اخلاقی در بکارگیری هوش مصنوعی مرز انسانیت را رد کرده است امروز نگران کننده ترین بحث در این خصوص بشمار میرود. یک عمر بشر تلاش کرد چارچوب ها دردسرساز و مسائل منحرف کننده مانند تبعیض‌های نژادی و جنسیتی را از میان بردارد اما امروز تبعیض و سوگیری (Bias)در داده های خروجی محسوس است. مدل‌های هوش مصنوعی بر اساس داده‌های گذشته آموزش می‌بینند. اگر این داده‌ها شامل تبعیض‌های نژادی، جنسیتی، فرهنگی یا اقتصادی باشند، خروجی سیستم نیز همان تبعیض را بازتولید می‌کند.

مثلا سیستم‌های استخدام خودکار که معمولا متقاضیان زن یا گروه‌های اقلیت را نادیده میگرفتند براساس داده های غلط مجدد وارد چرخه استفاده میشوند یا نرم‌افزارهای اعتبارسنجی مالی که افراد کم‌درآمد را به ناحق رد می‌کنند براساس این مدل همچنان خروجی قابل اجرا ضدسیستم عدالت جامعه خواهد بود.

نقض حریم خصوصی از بارزترین خطاهای قانونی همه مدلهای هوش مصنوعی است. هوش مصنوعی برای یادگیری و عملکرد نیازمند داده‌های عظیم شخصی است: داده‌های زیستی، رفتارهای آنلاین و موقعیت مکانی.

سوالی که این میان مطرح میشود این است مالکیت داده‌ها، اجازه استفاده و حفاظت از حریم خصوصی کاربران چگونه تضمین می‌شود؟ پاسخ مشخص است هیچ تضمینی وجود ندارد.

شفافیت و توضیح‌پذیری، حلقه مفقوده تکنولوژی جدید است. مدل‌های پیشرفته AI، به‌ویژه شبکه‌های عصبی عمیق، اغلب «جعبه سیاه» هستند و مشخص نیست چرا تصمیم خاصی گرفته شده است. این موضوع در حوزه‌هایی مثل پزشکی، بانکداری و عدالت قضایی حساسیت بیشتری دارد.

حذف یا جایگزینی نیروی انسانی بعنوان عنصر سازنده یا محرک تهدید جامعه بشری است. اتوماسیون مبتنی بر AI می‌تواند مشاغل سنتی را حذف کرده و ساختار بازار کار را تغییر دهد. مسئولیت اجتماعی شرکت‌ها و دولت‌ها در قبال افرادی که از کار اخراج می‌شوند، یک چالش اخلاقی جدی است.

آنچه که بیش از همه در این حوزه نگران کننده است سوءاستفاده کاربران از این تکنولوژِی برای تاثیرگذاری غلط در جامعه است. هوش مصنوعی می‌تواند برای پیشرفت علمی و اجتماعی استفاده شود، اما همزمان قابلیت سوءاستفاده در زمینه‌هایی مانند دیپ‌فیک، دستکاری افکار عمومی، حملات سایبری و جنگ اطلاعاتی را نیز دارد وهنوز آنطور که باید مردم عادی نسبت به تشخیص محتوای اصلی از محتوای فیک آموزش ندیده اند و طبیعی است دچار خطا شوند.

اما در بحث چالش های حقوقی و قانونی بکارگیری هوش مصنوعی موضوعی بسیار مهم وجود دارد؛ زمانی که یک داده یا محتوای غلط توسط نویسنده، عکاس، فیلمبردار یا تحلیلگر و ... منتشر میشود مسئولیت حقوقی معطوف به فرد معین است اما زمانی که سیستم هوش مصنوعی خطا می‌کند، مشخص نیست مسئول اصلی چه کسی است: توسعه‌دهنده، مالک، کاربر یا الگوریتم؟ قوانین سنتی پاسخ روشنی برای این شرایط ندارند.

ورود و فراگیری استفاده از هوش مصنوعی با چنان سرعتی شکل گرفت که به مراجع قضایی فرصت وضع قوانین جامع و هماهنگ را نداد. سطح قوانین هوش مصنوعی در کشورهای مختلف متفاوت است. برخی کشورها مانند اتحادیه اروپا قوانین سخت‌گیرانه «AI Act» دارند، در حالی که بسیاری دیگر هنوز چارچوب مشخصی ندارند. این تفاوت‌ها، چالش همکاری بین‌المللی و سرمایه‌گذاری جهانی را افزایش می‌دهد.

نکته فرعی در ادامه همین بحث مسائل حقوقی مالکیت معنوی اثر است و درباره تولید محتوا یا اختراعات توسط AI همچنان حل‌نشده است. سوالات اصلی شامل مالکیت آثار هنری یا اختراعات ایجادشده توسط الگوریتم‌ها و استفاده از داده‌های دارای کپی‌رایت برای آموزش مدل‌ها هستند.

محتوای هوش مصنوعی بدون هیچ نظارت و قوانین حاکمیت داده تولید و براحتی منتشر میشوند و حتی در انتشار محتوا از الگوریتم های پیشنهادی همین هوش استفاده میشود. دولت‌ها باید بتوانند بدون محدود کردن نوآوری، بر هوش مصنوعی نظارت کنند. تعیین مرز میان امنیت ملی، حقوق شهروندان و آزادی‌های فردی یکی از مهم‌ترین چالش‌های قانونی است.

فراموش نکنیم هوش مصنوعی تنها یک فناوری نیست؛ بلکه یک پدیده اجتماعی، اقتصادی و حقوقی است. رشد مسئولانه AI نیازمند اقدامات هم‌زمان در چند محور است:

«تدوین و هماهنگی قوانین بین‌المللی برای کاهش اختلاف‌ها و ایجاد استانداردهای جهانی.

توسعه اخلاق حرفه‌ای و آموزش برنامه‌نویسان و مدیران در زمینه مسئولیت اجتماعی و حقوق کاربران.

استفاده از فناوری‌های شفاف و قابل توضیح در سیستم‌های حیاتی مانند پزشکی، بانکداری و قضا.

ایجاد سازوکارهای امنیتی و نظارتی برای کاهش خطر سوءاستفاده و محافظت از داده‌ها.»