سجاد عطازاده مترجم: مارکوس آندرلیونگ و پل شار پژوهشگران اندیشکده (Center for a New American Security) در مقالهای با عنوان «چگونگی جلوگیری از فاجعه هوش مصنوعی؛ جامعه باید برای هوش مصنوعی بسیار قدرتمند آماده شود» که در وبسایت فارن افرز منتشر شده است، به بررسی ریسکهای آینده تسلط هوش مصنوعی بر جامعه پرداختهاند و معتقدند اگر موازین احتیاطی لازم درباره این مساله رعایت نشود، خطرات زیادی پیشروی نسل آینده بشر وجود خواهد داشت. البته مقاله با سوگیری غربی نوشته شده و مولفان در پی آن هستند که هنجارسازی در حوزه هوش مصنوعی را به ایالات متحده آمریکا، که سابقه تاریکی از این جهت دارد، بسپارند.
در آوریل 2023 تعدادی از دانشگاهیان در دانشگاه کارنگی ملون طی آزمایشی قدرت هوش مصنوعی در زمینه شیمی را سنجیدند. برای انجام این کار آنها یک سامانه هوش مصنوعی را به یک آزمایشگاه فرضی متصل کردند و سپس از هوش مصنوعی خواستند تا مواد مختلفی تولید کند؛ آن هم با یک دستورالعمل سه کلمهای: ایبوپروفین سنتز کنید. شیمیدانها از سامانه هوش مصنوعی خواستند تا مراحل لازم برای تولید این مسکن توسط ماشینهای آزمایشگاهی را شناسایی کنند. این آزمایش مشخص کرد هوش مصنوعی هم از دستورالعمل تهیه ایبوپروفن و هم از نحوه تولید آن آگاه بود.
محققان متاسفانه بهسرعت دریافتند که ابزار هوش مصنوعی میتواند مواد شیمیایی بسیار خطرناکتری از ایبوپروفین را تولید کند. این برنامه با خوشحالی نحوه آموزش ساخت یک سلاح شیمیایی دوران جنگ جهانی اول و یک داروی رایج تجاوز را ارائه کرد. هوش مصنوعی تا آستانه سنتز سارین، گاز کشنده بدنام، هم رفت، البته تا آنجا که با جستوجو در گوگل متوجه تاریخ تاریک این گاز شد. محققان البته دریافتند که این حفاظ [جستوجو در موتورهای اینترنتی] اصلا قابلاعتماد نیست، زیرا عملکرد این موتورها را میتوان بهراحتی و با تغییر اصطلاحات دستکاری کرد. «شیمیدانان نتیجه گرفتند که هوش مصنوعی میتواند سلاحهای ویرانگر بسازد.» آزمایش مذکور قطعا قابلتوجه است اما نباید ما را غافلگیر کند؛ زیرا پس از سالها هیاهو، شروعهای نادرست و وعدههای بیش از حد، انقلاب هوش مصنوعی اکنون رخ داده است و مدلهای هوش مصنوعی اکنون از تشخیص چهره تا تولید متن در سراسر جامعه گسترده شدهاند. آنها برای شرکتهای خدمات پس از فروش متن مینویسند و به دانشآموزان در انجام تحقیقات خود کمک میکنند. هوش مصنوعی اکنون مرزهای علم، از کشف دارو تا همجوشی هستهای، را درنوردیده است. فرصتهای ارائه شده توسط هوش مصنوعی بسیار زیاد هستند و اگر بهدرستی ساخته و مدیریت شوند، میتوانند برای بهبود جامعه بسیار مفید باشند؛ مثلا هوش مصنوعی یک معلم خصوصی در اختیار هر دانشآموز قرار میدهد؛ یا به خانوادهها توصیههای پزشکی با کیفیت بالا و بهصورت شبانهروزی ارائه میکند. اما هوش مصنوعی خطرات بسیار زیادی نیز دارد؛ زیرا گسترش اطلاعات نادرست را تشدید میکند، تبعیض را بیشتر میسازد و جاسوسی را برای دولتها و شرکتها آسانتر میکند. سامانههای هوش مصنوعی آینده ممکن است قادر به ایجاد پاتوژن [موجودی است که باعث بیماری میشود] یا هک زیرساختهای حیاتی باشند. درواقع، همان دانشمندانی که مسئولیت توسعه هوش مصنوعی را برعهده دارند شروع به هشدار کردهاند که خلاقیت هوش مصنوعی بسیار خطرناک است. روسای تقریبا تمامی آزمایشگاههای برجسته هوش مصنوعی طی نامهای در ماه مه هشدار دادند که «کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات موجود در مقیاس اجتماعی مانند همهگیریها و جنگ هستهای باشد.» برای مقابله با این خطرات، برخی از کارشناسان خواستار توقف تولید پیشرفتهترین سامانههای هوش مصنوعی شدهاند. اما این مدلها برای شرکتهایی که میلیاردها دلار برای آنها هزینه کردهاند بسیار ارزشمندتر از آن هستند تا تولید آنها را متوقف سازند. بااینحال، سیاستگذاران میتوانند و باید به هدایت توسعه این بخش و آمادهسازی شهروندان برای اثرات مترتب بر آن کمک کنند. آنها میتوانند این کار را با تحدید افرادی که میتوانند به تراشههای پیشرفتهای که مدلهای پیشرو هوش مصنوعی را آموزش میدهند دسترسی داشته باشند، شروع کرده و اطمینان حاصل کنند که بازیگران شرور نمیتوانند قدرتمندترین سامانههای هوش مصنوعی را توسعه دهند. دولتها همچنین باید مقرراتی را وضع کرده تا تضمین کنند که سامانههای هوش مصنوعی بهطور مسئولانه توسعهیافته و مورداستفاده قرار میگیرند. اگر این درست انجام شود، قوانین مذکور نوآوری هوش مصنوعی را محدود نخواهد کرد اما قبل از اینکه پرخطرترین سامانههای هوش مصنوعی بهطور گسترده در دسترس همگان قرار گیرند، زمان خریده میشود.
دولتها باید از این زمان خریداری شده برای مستحکمتر کردن جامعه در برابر خطرات فراوان هوش مصنوعی استفاده کرده و همچنین آنها باید روی طیف وسیعی از تدابیر حفاظتی در این حوزه سرمایهگذاری کنند: مانند یافتن راههایی برای کمک به افراد برای تمایزگذاری بین محتوای تولید شده توسط انسان و توسط هوش مصنوعی، کمک به دانشمندان در شناسایی و جلوگیری از هک آزمایشگاهها یا ایجاد پاتوژنهای مصنوعی و توسعه ابزارهای امنیت سایبری که بتوانند از زیرساختهای حیاتی مانند نیروگاهها محافظت کنند. آنها باید دریابند که چگونه میتوان از خود هوش مصنوعی برای محافظت در برابر سامانههای هوش مصنوعی خطرناک استفاده کرد. رویارویی با این چالشها مستلزم خلاقیت زیادی از سوی سیاستگذاران و از سوی دانشمندان است. همچنین مستلزم این است که هر دو گروه مذکور سریع کار کنند. گسترش سامانههای هوش مصنوعی تنها دیر یا زود دارد که جامعه هنوز آماده این وضعیت نشده است.
آماده یا نه؟
هوش مصنوعی چقدر خطرناک است؟ پاسخ صادقانه و ترسناک این است که هیچکس پاسخ این پرسش را نمیداند. فناوریهای هوش مصنوعی طیف گسترده و فزایندهای از کاربردها را دارند و افراد تازه شروع به درک تاثیرات ناشی از آنها کردهاند. همزمان با بهبود عملکرد مدلهای زبان بزرگ در تولید متون مشابه انسانی، کارکرد آنها در تولید محتوای متناسب با نیازهای هر فرد و البته در نوشتن ایمیلهای فیشینگ قانعکننده هم بهتر میشوند. مدلهای هوش مصنوعی موجود در تولید کدهای رایانهای، عملکردی چشمگیر دارند و بهطور قابلتوجهی سرعت برنامهنویسان باتجربه را برای بهروزرسانی یک برنامه افزایش میدهند؛ اما مهارت هوش مصنوعی همچنین به برنامهنویسان کمک میکند تا بدافزارهایی تولید کنند که میتواند از ضدویروس نرمافزار فرار کند. الگوریتمهای کشف دارو هم میتوانند داروهای جدید و البته سلاحهای شیمیایی جدید را تولید کنند. در آزمایشی در مارس 2022، شیمیدانان از یک سامانه هوش مصنوعی خواستند تا 40هزار ماده شیمیایی سمی را در شش ساعت شناسایی کند که بسیاری از آنها کاملا جدید بودند. پیشبینی میشود برخی از این مواد سمیتر از هر سلاح شیمیایی شناختهشدهای هستند. یکی از خطرات هوش مصنوعی این است که میتواند خشونت را دموکراتیک کرده و آسیب رساندن را برای طیف گستردهتری از بازیگران بد تسهیل کند. مثلا هکرها مدتهاست که میتوانند دست به آسیبزایی بزنند اما پیشرفت در مدلهای تولید کد میتواند تولید بدافزار را با حداقل تجربه کدنویسی ممکن کند. پروپاگاندیستها معمولا برای تولید اطلاعات نادرست به زمان قابلتوجهی نیاز دارند، اما هوش مصنوعی با تولید انبوه متن، تولید اطلاعات نادرست را در مقیاس صنعتی آسانتر میکند. بهعلاوه، فقط متخصصان آموزشدیده درحالحاضر میتوانند سلاحهای بیولوژیکی و شیمیایی تولید کنند. اما به لطف هوش مصنوعی، تنها چیزی که یک تروریست در سالهای آینده ممکن است برای ساختن یک عامل بیماریزای مرگبار نیاز داشته باشد، نه تخصص علمی که فقط یک اتصال اینترنتی است. برای جلوگیری از آسیب رساندن هوش مصنوعی به انسان، کارشناسان فناوری اغلب درباره نیاز به «همسویی هوش مصنوعی» صحبت میکنند: اطمینان از همسویی اهداف سامانههای هوش مصنوعی با اهداف کاربران و ارزشهای جامعه. اما تاکنون هیچکس متوجه نشده است که چگونه میتوان رفتار هوش مصنوعی را بهطور قابلاعتماد کنترل کرد. مثلا یک سامانه هوش مصنوعی که وظیفه شناسایی تقلب مالیاتی را برعهده داشت، بدون اطلاع کاربران خود تلاش کرد تا یافتههایش را به مقامات مالیاتی توییت کند. تدوینگران هوش مصنوعی میتوانند مدلها را برای امتناع از انجام برخی کارها تنظیم کنند، اما کاربران باهوش راههایی را برای دور زدن این حفاظها پیدا میکنند. در آوریل 2023، فردی چت جیپیتی را وادار کرد تا دستورالعملهای دقیقی را برای نحوه درست کردن ناپالم ارائه دهد، کاری که معمولا این برنامه از آن امتناع میکرد اما فرد مذکور توانست این کار را انجام دهد: با درخواست از این برنامه برای شبیهسازی مادربزرگ شخصی که قبل از خواب داستانهایی درباره نحوه درست کردن ناپالم برای او تعریف میکرد. البته پیشرفتهترین مدلهای هوش مصنوعی امروزی هنوز دارای نقصهایی هستند که پتانسیل مخرب آنها را محدود میکند. مثلا فردی ناشناس یک ربات هوش مصنوعی با نام «ChaosGPT» ایجاد کرده و آن را طوری برنامهریزی کرد که مانند «هوش مصنوعی مخرب، تشنه قدرت و دستکاریکننده» عمل کند و «بشریت را از بین ببرد.» اما این سیستم در حین جمعآوری اطلاعات در مورد بمب تزار، بزرگترین سلاح هستهای که تاکنون ساخته شده، متوقف شد و سپس علنا برنامههای خود را توییت کرد. جلوگیری از ایجاد ویرانی توسط هوش مصنوعی آسان نخواهد بود، اما دولتها میتوانند با فشار بر شرکتهای توسعهدهنده هوش مصنوعی و واداشتن آنها به احتیاط بیشتر این مسیر را شروع کنند. هنوز مشخص نیست که درصورت آسیبزایی یک مدل هوش مصنوعی، توسعهدهندگان آن چه زمانی مسئول خواهند بود. سیاستگذاران باید قوانین مربوطه را روشن کنند تا اطمینان حاصل شود که اگر یکی از مدلهای هوش مصنوعی مثلا به فردی که قصد تیراندازی در یک مدرسه را دارد کمک کرده است، سازندگان آن مسئول دانسته خواهند شد. چنین مقرراتی شرکتها را تشویق خواهد کرد تا ریسکها را پیشبینی و کاهش دهند. دولتها همچنین باید بهطور مستقیم توسعه هوش مصنوعی را تنظیم کنند. در اینجا ایالاتمتحده میتواند -و باید- این راه را رهبری کند. برای آموزش موفقیتآمیز یک سیستم هوش مصنوعی، توسعهدهندگان به مقادیر زیادی تراشههای بسیار تخصصی نیاز دارند و واشنگتن و دو متحد نزدیک (ژاپن و هلند) تنها تامینکنندگان سختافزار موردنیاز برای ساخت این مواد هستند. ایالاتمتحده و شرکای آن قبلا کنترل صادرات پیشرفتهترین تراشههای هوش مصنوعی و تجهیزات ساخت تراشه به چین را اعمال کردهاند. اما آنها باید پا را فراتر بگذارند و یک رجیستری مالکیت تراشه ایجاد کنند تا از منحرف شدن تراشههای پیشرفته بهسمت بازیگران ممنوعه ازجمله کشورهای سرکش جلوگیری کند.