میلاد جلیلزاده، خبرنگار گروه فرهنگ: اولین کسانی که نسبت به دیسپوتیا یا همان آخرالزمان ویرانهای که تکنولوژی ایجاد میکند از سالها پیش هشدار میدادند نویسندگان هالیوودی بودند. تعداد فیلمها و سریالهایی که با محتوای هشدارآمیز نسبت به تسلط رباتها بر بشر و نابود شدن تمدن به دست تکنولوژی بشری در آمریکا تولید شده آنقدر زیاد است که شاید ذکر نام آنها هم از چند مجلد کتاب فراتر برود. همه اینها اما بیشتر تخیل بهحساب میآمد تا اینکه جهان رفتهرفته با پدیده هوش مصنوعی آشنا شد. حالا تصور میشود که اگرچه خطرات این پدیده ممکن است جدی باشد، راهی برای جلوگیری از آن وجود ندارد و این درحالی است که نویسندگان هالیوود چنین فکر نمیکنند. آنها برای جلوگیری از گسترش این فناوری و ایجاد مانعی بر سر راه ورود آن به حریم منافعشان متحد شدند و اعتصاب بزرگی به راه انداختند و حالا به نظر میرسد تا حدودی در رسیدن به خواستههایشان موفق بودهاند.
حدود پنج ماه پیش بود که خبر اعتصاب صنفی نویسندگان سینمای آمریکا در اکثر رسانههای جهان بازتاب پیدا کرد. نویسندگان مطالباتی داشتند و تضامینی میخواستند که طرف حساب همه آنها انجمن تهیهکنندگان سینمای آمریکا بود و بالاخره در ۲ مه ۲۰۲۳، برابر با ۱۲ اردیبهشت ۱۴۰۲، ساعت ۱۲:۰۱ بامداد به وقت محلی ایالاتمتحده، انجمن نویسندگان آمریکا (WGA) به نمایندگی از 11500 فیلمنامهنویس دست به اعتصاب زد.
عمدهترین مواردی که بهعنوان مطالبات نویسندگان مطرح میشد در دو سرفصل، قابل دستهبندی بود. مورد اول به حقوق موسوم به باقیماندهها برمیگشت که باید در رسانههای استریم یا به قول کاربران ایرانی (پلتفرمها) مورد توجه قرار میگرفت. باقیماندههاResidualغرامتهایی هستند که به بازیگران، کارگردانان سینما یا تلویزیون و سایر افرادی که در ساخت برنامههای تلویزیونی و فیلمهای سینمایی دخیل هستند، درصورت انتشار نسخههای دیگری از یک اثر پرداخت میشود. مثلا در مواردی که یک اثر از شبکهای مجددا پخش میشود یا درصورت انتشار دیویدی پخش از تلویزیون کابلی یا تقلید و بازتولید یک خلاقیت هنری یک کاراکتر بهخصوص یا چیزی شبیه به آن در هوش مصنوعی باید حقوق مولفان اولیه مجددا پرداخت شود. مورد دوم که چالش عمیقتری بود و دامنه بحث درخصوص آن به خارج از حوزه سینما و تلویزیون هم میرسد هوش مصنوعی بود.
در حقیقت سرفصل اول هم بهنوعی با هوش مصنوعی ارتباط داشت اما عنوان آن عامتر بود، درصورتیکه سرفصل دوم منحصرا خواستار محدود شدن این تکنولوژی میشد. نویسندگان میخواستند از انواع تکنولوژیهای هوش مصنوعی مانند ChatGPT فقط بهعنوان ابزاری استفاده شود که میتواند به تحقیق یا تسهیل ایدههای فیلمنامه کمک کند و نه بهعنوان ابزاری برای جایگزینی آنها. همان روزی که انجمن نویسندگان اعلام اعتصاب کرد انجمن انیمیشن بیانیهای در حمایت از انجمن نویسندگان و اعتصاب آنها صادر کرد و مدتی بعد این اعتصاب در کنفرانسهای مطبوعاتی جشنواره فیلم کن مورد بحث قرار گرفت و شان پن، اتان هاوک، پل دانو و کاتلین کندی حمایت خود را از آن اعلام کردند. بالاخره انجمن بازیگران سینمای آمریکا هم به این اعتصاب پیوست که باعث شد فرش قرمزهای جشنواره ونیز در آخر تابستان تقریبا خالی از حضور ستارههای هالیوودی شود.
سوای از اهمیت و رونق سینمای آمریکا که باعث میشود تمام اخبار مربوط به آن مهم به نظر برسند یکی از دلایلی که باعث شد توجهات به اخبار این اعتصاب بیشتر شود دلایل این اعتصاب بود. بحث هوش مصنوعی خیلی جدیتر از آن است که فقط نویسندگان سینمایی درگیر نگرانیهایی راجعبه آن باشند. این نویسندگان تضمینی میخواستند که هوش مصنوعی جای آنها را نگیرد و در ادامه معلوم شد دغدغه بازیگران هم همین است اما سوالی که برای هر مشاهدهگر قضیه پیش میآمد این بود که اساسا مگر میشود چنین تضمینی ارائه داد؟ آیا امکانپذیر است که برای به خطر نیفتادن منافع عدهای که شاغل در یک صنف هستند جلوی پیشرفت تکنولوژی گرفته شود؟ آیا اگر این قانون محدودکننده در آمریکا اجرا شود رقبای ایالاتمتحده با عدم اجرای چنین محدودیتهایی هالیوود را مثل برق و باد پشت سر نخواهند گذاشت؟ همچنانکه این پرسشها در ذهن هر دنبالکننده اخبار بالا و پایین میشد بالاخره خبر رسید که انجمن تهیهکنندگان آمریکا با صنف نویسندگان به توافق رسیده و یکسری شروط را پذیرفته است. به گزارش رسانههای آمریکایی، اعتصاب ۱۴۶ روزه انجمن نویسندگان هالیوود با انعقاد قراردادی موقت بین این انجمن با استودیوها و پخشکنندگان هالیوود به پایان رسید و احتمالا این قرارداد موقت راه را برای توافق با انجمن بازیگران فیلمهای سینمایی هالیوود هم باز خواهد کرد.
والاستریتژورنال اعلام کرد که افراد مطلع از این قرارداد تصریح کردند این قرارداد سهساله و شامل چندین بند موفقیتآمیز برای نویسندگان از جمله «افزایش حق امتیاز، استخدام اجباری کارکنان برای اتاقهای تحریر تلویزیونی و حفاظت درمورد استفاده از هوش مصنوعی» است. به بند آخر توافق دوباره دقت کنیم؛ «حفاظت در مورد استفاده از هوش مصنوعی» حالا باید در نوع پرسشها تجدید نظر کرد. اگر این شروط صرفا به مثابه جلوگیری از پیشرفت تکنولوژی باشند منفعتطلبی اعضای یک صنف بهخصوص توان عملی کردنشان را نخواهد داشت و اگر این محدودیتها به منزله عقب نگه داشتن آمریکا نسبت به رقبایش باشند محال است صنف تهیهکنندگان هالیوود که اصلیترین اولویتش مسائل مالی است به آن تن بدهد. ظاهرا قضیه فراتر از اینهاست و باید در فهم نسبتمان با پدیدهای به اسم هوش مصنوعی بیشتر بکوشیم. گسترش فضای مجازی در سالهای اخیر بهرغم فوایدی که داشت و با وجود آسانسازیهای شگفتانگیزش در بسیاری از مسائل تبعات تلخی هم به بار آورد. چند سال پیش بود که نتفلیکس مستندی منتشر کرد به نام «وضعیت اجتماعی» و در آن تعدادی از کارمندان نخبه شرکتهایی مثل توییتر و اینستاگرام که دیگر از مجموعههایشان جدا شده بودند جلوی دوربین نشستند و چنان از مضرات این پدیده گفتند که هر مخاطبی را در شوک فرو میبرد. البته تهیه آن مستند مقداری هم انتخاباتی بود و کاری علیه دونالد ترامپ محسوب میشد که با ذائقهسنجی جامعه توسط شبکههای اجتماعی توانسته بود رئیسجمهور آمریکا شود؛ اما به هر حال و با هر انگیزهای که بود تمام آن نخبگان آیتی جلوی دوربین نشستند و این حرفها را زدند و به عبارتی علیه کارنامه کاری خودشان افشاگری کردند. حالا که ماجرا به هوش مصنوعی میرسد، دغدغههایی از این جنس درحال پررنگتر شدن هستند. خطر هر روز درحال بیشتر شدن است و بشر قرن ۲۱ نسبت به روند توسعه تکنولوژیهای هوشمند، همان حسی را پیدا کرده که بشر قرن بیستم از جایی به بعد نسبت به توسعه فناوریهای نظامی پیدا کرده بود. تفنگهای تکتیر، تبدیل به مسلسل شدند و تانک و نفربر و پرندههای جنگنده اختراع شد. بعد موشک و بمبهای قوی و درنهایت بمب اتم و بمب هولناک هیدروژنی به میدان آمدند. نهایتا کار به جایی رسید که بشر احساس کرد آنچه درحال ادامه است پیشرفت تکنولوژی نیست بلکه حرکتش به سمت انقراض است. حالا درمورد هوش مصنوعی هم چنین دغدغههایی وجود دارد و بحث فراتر از به خطر افتادن منافع چند صنف هنری و رسانهای به نظر میرسد. احتمالا خیلیها در اخبار خواندهاند که ایلان ماسک، بنیانگذار تسلا و اسپیسایکس به همراه بیش از هزار رهبر فناوری دیگر در نامهای سرگشاده در همین سال ۲۰۲۳ خواستار توقف آزمایشهای بزرگ هوش مصنوعی شدند و اشاره کردند که این فناوری میتواند خطرات عمیقی برای جامعه و بشریت ایجاد کند. حتی یکی از کسانی که این نامه سرگشاده را امضا کرده بود بهنوعی بنیانگذار اصلی هوش مصنوعی بهحساب میآمد. جفری هینتون، معروف به پدرخوانده هوش مصنوعی درباره کار اساسی خود در زمینه یادگیری ماشینی گفت: «این چیزها میتوانند هوشمندتر از ما باشند و میتوانند تصمیم بگیرند که مسئولیت را به دست بگیرند و ما باید اکنون نگران این باشیم که چگونه از این اتفاق جلوگیری کنیم.» در سال ۲۰۲۳، هینتون موقعیت خود را در گوگل ترک کرد تا بتواند درباره خطرات هوش مصنوعی صحبت کند و حتی به این نکته اشاره کرد که نسبت به بخشی از کار و زندگی خود که به این موضوع مربوط میشود پشیمان است.
اما مگر هوش مصنوعی چه خطراتی دارد که تا این حد نگرانکننده است و از پیشوایان و پدیدآورندگان آن گرفته تا غولهای دنیای تفریح و رسانه علیه آن هشدار میدهند؟ در ادامه به ۱۲ مورد از مضرات هوش مصنوعی که باعث ایجاد نگرانیهایی در خود جامعه آمریکا بهعنوان زادگاه این فناوری شدهاند، اشاره شده است.
1. عدم شفافیت و توضیح هوش مصنوعی
درک مدلهای هوش مصنوعی و یادگیری عمیق حتی برای کسانی که مستقیما با این فناوری کار میکنند دشوار است. این منجر به عدم شفافیت درمورد چگونگی و چرایی نتیجهگیری هوش مصنوعی میشود و توضیحی درمورد اینکه الگوریتمهای هوش مصنوعی از چه دادههایی استفاده میکنند یا اینکه چرا ممکن است تصمیمهای مغرضانه یا ناایمن بگیرند، ارائه نمیشود. این نگرانیها باعث استفاده از یک نوع هوش مصنوعی قابل توضیح شده است که البته موردی خاص بهحساب میآید و همهگیر نشده و هنوز راه زیادی تا تبدیل شدن سیستمهای هوش مصنوعی شفاف به روش معمول وجود دارد.
2. از دست دادن شغل به دلیل اتوماسیون هوش مصنوعی
اتوماسیون شغلی مبتنیبر هوش مصنوعی یک نگرانی مبرم است زیرا این فناوری در صنایعی مانند بازاریابی، تولید و مراقبتهای بهداشتی پذیرفته شده است. به عبارتی هوش مصنوعی تاثیر قابلتوجهی بر پزشکی دارد. البته فقط مشاغل مرتبط با پزشکی متاثر از این فناوری نخواهند بود. به گفته مککینزی تا سال ۲۰۳۰، وظایفی که ۳۰ درصد از ساعت کار فعلی در اقتصاد ایالاتمتحده را تشکیل میدهند میتوانند خودکار شوند. درحالیکه تخمین زده میشود هوش مصنوعی تا سال ۲۰۲۵ میلادی ۹۷ میلیون شغل جدید ایجاد کند گلدمن ساکس بیان میکند که ۳۰۰ میلیون شغل تماموقت ممکن است به دلیل اتوماسیون هوش مصنوعی از بین برود. حتی مشاغلی که به مدارک تحصیلات تکمیلی و آموزش اضافی پس از کالج نیاز دارند نیز از هوش مصنوعی مصون نیستند. همانطور که کریس مسینا، استراتژیست فناوری اشاره کرده است رشتههایی مانند حقوق و حسابداری برای تصاحب توسط هوش مصنوعی آماده شدهاند. مسینا میگوید در واقع ممکن است برخی از آنها از بین بروند. او در رابطه با حوزه حقوقی میگوید: «به پیچیدگی قراردادها فکر کنید و واقعا عمیق شوید و درک کنید که برای ایجاد یک ساختار معاملاتی عالی چه چیزی لازم است. بسیاری از وکلا اطلاعات زیادی را مطالعه میکنند؛ صدها یا هزاران صفحه از دادهها و اسناد. اما هوش مصنوعی این توانایی را دارد که بهترین قرارداد ممکن را برای نتیجهای که میخواهید به دست آورید، بهطور جامع ارائه دهد و احتمالا جایگزین بسیاری از وکلای شرکتی خواهد شد.»
۳. دستکاری اجتماعی از طریق الگوریتمهای هوش مصنوعی
دستکاری اجتماعی هم بهعنوان یک خطر هوش مصنوعی شناخته میشود. این ترس به واقعیت تبدیل شده است زیرا سیاستمداران برای ترویج دیدگاههای خود به بعضی از پلتفرمها تکیه میکنند و یکی از نمونههای آن فردیناند مارکوس جونیور بود که از ارتش ترول TikTok استفاده کرد تا آرای فیلیپینیهای جوانتر را در جریان انتخابات ۲۰۲۲ فیلیپین به دست آورد. رای آوردن ترامپ و پیروزی کمپین جدایی بریتانیا از اتحادیه اروپا که به برگزیت معروف بود هم نمونههایی دیگر هستند. اخبار آنلاینی که با تصاویر و ویدیوهای تولیدشده توسط هوش مصنوعی منتشر میشوند، تغییر صداهای هوش مصنوعی و همچنین دیپفیکهایی که در حوزههای سیاسی و اجتماعی نفوذ کردهاند، حالا حتی از دوره انتخاب ترامپ و پیروزی برگزیت و به قدرت رسیدن فردیناند مارکوس هم تیرهتر شدهاند. این فناوریها، ایجاد عکس، فیلم، کلیپهای صوتی واقعنما یا جایگزینی تصویر یک چهره با چهره دیگر در یک تصویر یا ویدیو را آسان میکنند. در نتیجه، شیادان راه دیگری برای به اشتراک گذاشتن اطلاعات نادرست و تبلیغات مرتبط با جنگ روانی دارند و سناریویی کابوسناک ایجاد میکنند که در آن تشخیص اخبار معتبر و نادرست تقریبا غیرممکن است و به قول یکی از کارشناسان این حوزه «هیچکس نمیداند چه چیزی واقعی است و چه چیزی نیست.»
۴. نظارت اجتماعی با فناوری هوش مصنوعی
یکی از نگرانیهای عمده، روشی است که هوش مصنوعی طبق آن بر حریم خصوصی و امنیت تاثیر منفی میگذارد. نمونه بارز این قضیه، استفاده چین از فناوری تشخیص چهره در ادارات، مدارس و سایر مکانها است. علاوهبر ردیابی حرکات یک فرد، دولت چین ممکن است بتواند دادههای کافی برای نظارت بر فعالیتها، روابط و دیدگاههای سیاسی یک فرد را جمعآوری کند. مثال دیگر ادارات پلیس ایالات متحده است که از الگوریتمهای پلیس پیشبینی، برای پیشبینی محل وقوع جنایات استفاده میکنند. مشکل این است که این الگوریتمها تحتتاثیر نرخهای دستگیری قرار میگیرند که بهطور نامتناسبی بر جوامع سیاهپوست تاثیر میگذارد. سپس ادارات پلیس این جوامع را دوچندان میکنند که منجر به تنش و رخ دادن واقعی اتفاقات ناگوار میشود.
۵. عدم حفظ حریم خصوصی دادهها با استفاده از ابزارهای هوش مصنوعی
اگر با یک چت ربات هوش مصنوعی بازی کرده باشید یا یک فیلتر چهره هوش مصنوعی را به صورت آنلاین امتحان کرده باشید، دادههای شما در حال جمعآوری است؛ اما به کجا میرود و چگونه از آن استفاده میشود؟ سیستمهای هوش مصنوعی اغلب دادههای شخصی را برای سفارشیسازی تجربیات کاربر یا کمک به آموزش آن مدلهایی از هوش مصنوعی که استفاده میکنید، جمعآوری میکنند (مخصوصا اگر ابزار هوش مصنوعی رایگان باشد). زمانی که دادهها به سیستم هوش مصنوعی داده میشوند، ممکن است نشود این اطلاعات را حتی از دسترسی سایر کاربران امن تلقی کرد، زیرا یک حادثه باگ که در ChatGPT در سال ۲۰۲۳ رخ داد، به برخی از کاربران اجازه داد عناوین تاریخچه چت کاربر فعال دیگری را ببینند.
۶. تعصبات ناشی از هوش مصنوعی
اشکال مختلف سوگیری هوش مصنوعی نیز مضر هستند. اولگا روساکوفسکی، استاد علوم کامپیوتر پرینستون، در صحبت با نیویورک تایمز گفت که تعصب هوش مصنوعی فراتر از جنسیت و نژاد است. به عبارتی او میگوید هوش مصنوعی سوگیری طبقاتی هم دارد. باید توجه کرد علاوهبر دادهها و سوگیری الگوریتمی (که دومی میتواند اولی را تقویت کند)، هوش مصنوعی توسط انسانها توسعه مییابد و انسانها ذاتا سوگیری دارند. یعنی غیر از سوگیری خودکار و الگوریتمی، یک نوع جهتگیری اولیه هم در ذات این فناوری نهادینه میشود که توسط پدیدآورندگانش پایهگذاری شده است. روساکوفسکی میگوید محققان هوش مصنوعی عمدتا مردانی هستند که از جمعیتهای نژادی خاص میآیند و در مناطق اجتماعی-اقتصادی بالا بزرگ شدهاند و عمدتا افراد بدون معلولیت هستند. ما جمعیت نسبتا همگنی هستیم، بنابراین فکر کردن در مورد مسائل جهانی و گسترده دیدن مسائل، یک چالش است. تجارب محدود سازندگان هوش مصنوعی ممکن است توضیح دهد که چرا هوش مصنوعی تشخیص گفتار اغلب لهجهها را درک نمیکند، یا چرا شرکتها عواقب رفتار یک ربات چت را که جعل هویت چهرههای بدنام در تاریخ بشر است، در نظر نمیگیرند. توسعهدهندگان کسبوکارها باید دقت بیشتری به خرج دهند تا از بازآفرینی سوگیریها و پیشداوریهای قدرتمندی که جمعیت اقلیتها را در معرض خطر قرار میدهد، اجتناب کنند.
۷. نابرابری اجتماعی-اقتصادی در نتیجه هوش مصنوعی
اگر شرکتها از پذیرش سوگیریهای ذاتی موجود در الگوریتمهای هوش مصنوعی خودداری نکنند، ممکن است ابتکاراتتان برای برخورد با اربابرجوع را از طریق استخدام افراد به وسیله هوش مصنوعی به خطر بیندازند. این ایده که هوش مصنوعی میتواند ویژگیهای یک نامزد استخدام را از طریق تجزیه و تحلیلهای چهره و صدا اندازهگیری کند، همچنان با تعصبات نژادی آلوده است و همان شیوههای استخدام تبعیضآمیز را بازتولید میکند که مشاغل ادعا میکنند حذف میکنند. گسترش نابرابری اجتماعی-اقتصادی ناشی از از دست دادن شغل که به واسطه هوش مصنوعی ایجاد میشود، یکی دیگر از دلایل نگرانی است که سوگیریهای طبقاتی در مورد نحوه به کارگیری هوش مصنوعی را آشکار میکند. کارگران یقه آبی که کارهای دستی و تکراری بیشتری انجام میدهند، به دلیل اتوماسیون، کاهش دستمزدشان را تا ۷۰ درصد تجربه کردهاند. در همین حال، کارگران یقه سفید تا حد زیادی دستنخورده باقی ماندهاند و حتی برخی از آنها از دستمزد بالاتری برخوردار هستند. ادعاهای فراگیر مبنیبر اینکه هوش مصنوعی به نوعی بر مرزهای اجتماعی غلبه کرده یا مشاغل بیشتری ایجاد کرده است، نمیتواند تصویر کاملی از اثرات آن ارائه دهد.
۸. تضعیف اخلاق و حسننیت به دلیل هوش مصنوعی
همراه با فناوران، روزنامهنگاران و شخصیتهای سیاسی، حتی رهبران مذهبی هم زنگ خطرات احتمالی هوش مصنوعی از جانب مسائل اجتماعی-اقتصادی را به صدا درمیآورند. پاپ فرانسیس در یک نشست واتیکان در سال ۲۰۱۹ با عنوان «خیر مشترک در عصر دیجیتال» نسبت به توانایی هوش مصنوعی برای «انتشار عقاید متعصبانه و دادههای نادرست» هشدار داد و بر عواقب گستردهای که اجازه توسعه این فناوری بدون نظارت یا محدودیت مناسب ممکن است در پی داشته باشد، تاکید کرد. او افزود: «اگر به اصطلاح پیشرفت تکنولوژیک بشر به دشمن خیر عمومی تبدیل شود، این امر منجر به یک پسرفت تاسفبار به سمت نوعی بربریت دیکتهشده توسط قانون قویترین افراد میشود.» ظهور سریع ابزارهای مولد هوش مصنوعی مانند ChatGPT و Bard به این نگرانیها عمق بیشتری میبخشد. بسیاری از کاربران از این فناوری برای بیرون آمدن از تکالیف نوشتاری استفاده کردهاند که یکپارچگی و خلاقیت تحصیلی را تهدید میکند.
۹. سلاحهای خودگردان که توسط هوش مصنوعی کار میکنند
همانطور که اغلب اتفاق میافتد، پیشرفتهای تکنولوژیک برای اهداف جنگی استفاده شده است. وقتی صحبت از هوش مصنوعی به میان میآید، برخی مشتاق هستند تا قبل از اینکه خیلی دیر شود کاری در مورد آن انجام دهند: در نامهای سرگشاده که سال ۲۰۱۶ منتشر شد، بیش از سی هزار نفر، از جمله محققان هوش مصنوعی و رباتیک، از سرمایهگذاری در سلاحهای خودران با سوخت هوش مصنوعی اعلام عقبنشینی کردند. آنها نوشتند: «سوال کلیدی برای بشریت امروز این است که آیا باید یک مسابقه تسلیحاتی جهانی در حوزه هوش مصنوعی را آغاز کرد یا باید از شروع آن جلوگیری شود؟ اگر هر قدرت نظامی بزرگی با توسعه تسلیحات هوش مصنوعی پیشروی کند، یک مسابقه تسلیحاتی جهانی، عملا اجتنابناپذیر است و نقطه پایانی این خط سیر فناوری آشکار است؛ سلاحهای خودمختار به کلاشینکفهای فردا تبدیل خواهند شد.»
این پیشبینی در قالب سیستمهای تسلیحات خودران مرگبار محقق شده است که با رعایت حداقلی مقررات، اهداف را به تنهایی مکانیابی و نابود میکنند. به دلیل گسترش سلاحهای قوی و پیچیده، برخی از قدرتمندترین کشورهای جهان تسلیم نگرانیها شدهاند و به جنگ سرد فناوری کمک کردهاند. بسیاری از این سلاحهای جدید خطرات عمدهای را برای غیرنظامیان در زمین ایجاد میکنند، اما این خطر زمانی تشدید میشود که سلاحهای خودمختار به دست افراد اشتباه بیفتند. هکرها بر انواع مختلفی از حملات سایبری تسلط پیدا کردهاند، بنابراین تصور اینکه یک عامل مخرب به سلاحهای خودمختار نفوذ کند و آرماگدون مطلق را تحریک کند، سخت نیست. اگر رقابتهای سیاسی و تمایلات جنگافروزانه کنترل نشود، هوش مصنوعی ممکن است با بدترین نیتها به کار گرفته شود.
10. بحرانهای مالی ناشی از الگوریتمهای هوش مصنوعی
صنعت مالی پذیرای مشارکت فناوری هوش مصنوعی در فرآیندهای مالی و معاملات روزمره شده است. در نتیجه، معاملات الگوریتمی میتواند مسئول بحران مالی بعدی ما در بازارها باشد. در حالی که الگوریتمهای هوش مصنوعی تحت تاثیر قضاوت یا احساسات انسان قرار نمیگیرند، اما زمینهها، به هم پیوستگی بازارها و عواملی مانند اعتماد و ترس انسان را هم در نظر نمیگیرند. به عبارت ساده، الگوریتمهای هوش مصنوعی پدیدههای روانی بازار و مسائل مرتبط با روانشناسی اجتماعی را هیچگاه کامل نخواهند فهمید و روی این حساب، دستورالعملهایشان ممکن است از جانب توده مشتریان رودست بخورد. این الگوریتمها هزاران معامله را با سرعت انجام میدهند و هدفشان این است که هرچه خریدهاند را چند ثانیه بعد با سودهای کوچک بفروشند. فروختن هزاران معامله میتواند سرمایهگذاران را از انجام همین کار بترساند و منجر به سقوط ناگهانی و نوسان شدید بازار شود. این بدان معنا نیست که هوش مصنوعی چیزی برای ارائه به دنیای مالی ندارد. در واقع، الگوریتمهای هوش مصنوعی میتوانند به سرمایهگذاران کمک کنند تا تصمیمات هوشمندانه و آگاهانهتری در بازار بگیرند. اما سازمانهای مالی باید مطمئن شوند که الگوریتمهای هوش مصنوعی و نحوه تصمیمگیری آن الگوریتمها را درک میکنند. شرکتها باید قبل از معرفی این فناوری برای جلوگیری از ایجاد ترس در بین سرمایهگذاران و ایجاد هرج و مرج مالی، در نظر بگیرند که آیا هوش مصنوعی اعتماد آنها را بالا میبرد یا کاهش میدهد.
۱۱. از دست دادن نفوذ انسانی
اتکای بیش از حد به فناوری هوش مصنوعی میتواند منجر به از بین رفتن نفوذ انسانی و فقدان عملکرد انسانی در برخی از بخشهای جامعه شود. بهعنوان مثال، استفاده از هوش مصنوعی در مراقبتهای بهداشتی میتواند منجر به کاهش همدلی و استدلال انسان شود. همچنین استفاده از هوش مصنوعی مولد برای تلاشهای خلاقانه میتواند خلاقیت و بیان احساسی انسان را کاهش دهد. تعامل بیش از حد با سیستمهای هوش مصنوعی حتی میتواند باعث کاهش مهارتهای ارتباطی و اجتماعی با همتایان شود. بنابراین در حالی که هوش مصنوعی میتواند برای خودکار کردن کارهای روزانه بسیار مفید باشد، برخی این سوال را مطرح میکنند که آیا ممکن است هوش، تواناییها و نیاز کلی انسان به جامعه را کاهش دهد یا خیر.
۱۲. هوش مصنوعی خودآگاه غیرقابل کنترل
همچنین این نگرانی وجود دارد که هوش مصنوعی آنقدر سریع پیشرفت کند که هوشیار شود و فراتر از کنترل انسان عمل کند؛ البته احتمالا به روشی مخرب. گزارشهای ادعایی از این احساس قبلا رخ داده است. یکی از مهندسان سابق گوگل مدتی پیش گفت ربات چت هوش مصنوعی LaMDA حساس است و دقیقا همانطور که یک شخص با او صحبت میکند، پاسخ میدهد. از آنجایی که نقاط عطف بزرگ بعدی هوش مصنوعی شامل ساخت سیستمهایی با هوش عمومی مصنوعی و درنهایت هوش مصنوعی است، فریادها برای متوقف کردن کامل این پیشرفتها همچنان افزایش مییابد.