فاطمه کنعانی، عضو هیاتعلمی پژوهشکده مطالعات فناوری:همهچیز از این سوال آلن تورینگ آغاز شد؛ «آیا ماشینها میتوانند فکر کنند؟» تلاشهای دانشمندان و متخصصان برای پاسخ به این سوال، موجب ایجاد و توسعه هوش مصنوعی شده است. امروزه دامنه این پیشرفتها تا جایی گسترده شده که همه زندگی بشر را احاطه کرده است. کمتر کسی است که بر مزایای بالقوه توسعه این فناوری، اذعان نداشته باشد. به عقیده «مکس تگمارک»1، «هرآنچه در مورد تمدن، موردپسند بشر است، محصول هوش است. لذا تقویت هوش انسانی توسط هوش مصنوعی، تا جاییکه بتوان آن را مدیریت کرد، میتواند به شکوفایی تمدن منجر شود.» این جملهای بسیار عمیق و تأملبرانگیز است. با این حال، پیامدهای منفی و خطراتی که میتوان برای این فناوری متصور شد، کافی است تا به مقولهای هولانگیز تبدیل شود. استیفن هاوکینگ، فیزیکدان و دانشمند برجسته انگلیسی نیز گفته است: «موفقیت در ایجاد هوش مصنوعی موثر، میتواند بزرگترین یا بدترین رویداد تاریخ تمدن بشر باشد، مگر اینکه یاد بگیریم چگونه خود را برای رویارویی با خطرات احتمالی آن آماده کرده و از آنها اجتناب کنیم.» البته درمورد بسیاری از فناوریها، بررسی مخاطرات و خطرات جانبی آنها بر تمدن بشر، حائز اهمیت است اما ظرفیت تقریبا نامحدود و وهمانگیز و ماهیت عدم قطعیت هوش مصنوعی، بر اهمیت موضوع، افزوده است؛ برای مثال، طبق پیشبینیهای آژانس جاسوسی ایالات متحده، درمورد فناوریهای دیجیتال و پیشرفتهای هوش مصنوعی در سال 2040، «هم دولتها و هم بازیگران غیردولتی تقریبا بهطور قطع میتوانند از این ابزارها برای تاثیرگذاری بر جوامع، با افزایش دستکاریهای شناختی2 و قطبیسازی اجتماعی3 استفاده کنند.» این قبیل مسائل، با اشتباهات جزئی در الگوریتمها، دادههای ورودی، مدلها و... شروع میشوند و در فرآیند تصمیمگیری، رشد میکنند. بنابراین، قبل از بروز آنها، دولتها و سازمانها باید به خوبی نسبت به چهارچوب مشخص و راه مهارشان، آگاهی کسب کنند.
یکی از مخاطراتی که هوش مصنوعی میتواند ایجاد کند و خود، به صورت دومینووار منجر به ایجاد زیانهای جبرانناپذیر شود، مخاطرات اخلاقی است....ادامه مطلب
۲۲:۰۷ - ۱۴۰۲/۰۵/۰۹
کد خبر: 82469
فاطمه کنعانی
حکمرانی اخلاقی برای حفظ تمدن بشر در عصر هوش مصنوعی
یکی از مخاطراتی که هوش مصنوعی میتواند ایجاد کند و خود، به صورت دومینووار منجر به ایجاد زیانهای جبرانناپذیر شود، مخاطرات اخلاقی است.
مرتبط ها