جامعه باید برای هوش مصنوعی بسیار قدرتمند آماده شود
مارکوس آندرلیونگ و پل شار پژوهشگران اندیشکده (Center for a New American Security) در مقاله‌ای با عنوان «چگونگی جلوگیری از فاجعه هوش مصنوعی؛ جامعه باید برای هوش مصنوعی بسیار قدرتمند آماده شود» که در وب‌سایت فارن افرز منتشر شده است، به بررسی ریسک‌های آینده تسلط هوش مصنوعی بر جامعه پرداخته‌اند و معتقد‌ند اگر موازین احتیاطی لازم درباره این مساله رعایت نشود، خطرات زیادی پیش‌روی نسل آینده بشر وجود خواهد داشت.
  • ۱۴۰۲-۰۶-۰۵ - ۰۲:۲۰
  • 00
جامعه باید برای هوش مصنوعی بسیار قدرتمند آماده شود
چگونگی جلوگیری از فاجعه هوش مصنوعی
چگونگی جلوگیری از فاجعه هوش مصنوعی

سجاد عطازاده مترجم: مارکوس آندرلیونگ و پل شار پژوهشگران اندیشکده (Center for a New American  Security) در مقاله‌ای با عنوان «چگونگی جلوگیری از فاجعه هوش مصنوعی؛ جامعه باید برای هوش مصنوعی بسیار قدرتمند آماده شود» که در وب‌سایت فارن افرز منتشر شده است، به بررسی ریسک‌های آینده تسلط هوش مصنوعی بر جامعه پرداخته‌اند و معتقد‌ند اگر موازین احتیاطی لازم درباره این مساله رعایت نشود، خطرات زیادی پیش‌روی نسل آینده بشر وجود خواهد داشت. البته مقاله با سوگیری غربی نوشته شده و مولفان در پی آن هستند که هنجارسازی در حوزه هوش مصنوعی را به ایالات متحده آمریکا، که سابقه تاریکی از این جهت دارد، بسپارند. 

در آوریل 2023 تعدادی از دانشگاهیان در دانشگاه کارنگی ملون طی آزمایشی قدرت هوش مصنوعی در زمینه شیمی را سنجیدند. برای انجام این کار آنها‌ یک سامانه هوش مصنوعی را به یک آزمایشگاه فرضی متصل کردند و سپس از هوش مصنوعی خواستند تا مواد مختلفی تولید کند؛ آن هم با یک دستورالعمل سه کلمه‌ای: ایبوپروفین سنتز کنید. شیمیدان‌ها از سامانه هوش مصنوعی خواستند تا مراحل لازم برای تولید این مسکن توسط ماشین‌های آزمایشگاهی را شناسایی کنند. این آزمایش مشخص کرد هوش مصنوعی هم از دستورالعمل تهیه ایبوپروفن و هم از نحوه تولید آن آگاه بود. 
محققان متاسفانه به‌سرعت دریافتند که ابزار هوش مصنوعی می‌تواند مواد شیمیایی بسیار خطرناک‌تری از ایبوپروفین را تولید کند. این برنامه با خوشحالی نحوه آموزش ساخت یک سلاح شیمیایی دوران جنگ جهانی اول و یک داروی رایج تجاوز را ارائه کرد. هوش مصنوعی تا آستانه سنتز سارین، گاز کشنده بدنام، هم رفت، البته تا آنجا که با جست‌وجو در گوگل متوجه تاریخ تاریک این گاز شد. محققان البته دریافتند که این حفاظ [جست‌وجو در موتورهای اینترنتی] اصلا قابل‌اعتماد نیست، زیرا عملکرد این موتورها را می‌توان به‌راحتی و با تغییر اصطلاحات دست‌کاری کرد. «شیمیدانان نتیجه گرفتند که هوش مصنوعی می‌تواند سلاح‌های ویرانگر بسازد.» آزمایش مذکور قطعا قابل‌توجه است اما نباید ما را غافلگیر کند؛ زیرا پس از سال‌ها هیاهو، شروع‌های نادرست و وعده‌های بیش‌ از حد، انقلاب هوش مصنوعی اکنون رخ داده است و مدل‌های هوش مصنوعی اکنون از تشخیص چهره تا تولید متن در سراسر جامعه گسترده شده‌اند. آنها برای شرکت‌های خدمات پس از فروش متن می‌نویسند و به دانش‌آموزان در انجام تحقیقات خود کمک می‌کنند. هوش مصنوعی اکنون مرزهای علم، از کشف دارو تا همجوشی هسته‌ای، را درنوردیده است.  فرصت‌های ارائه شده توسط هوش مصنوعی بسیار زیاد هستند و اگر به‌درستی ساخته و مدیریت شوند، می‌توانند برای بهبود جامعه بسیار مفید باشند؛ مثلا هوش مصنوعی یک معلم خصوصی در اختیار هر دانش‌آموز قرار می‌دهد؛ یا به خانواده‌ها توصیه‌های پزشکی با کیفیت بالا و به‌صورت شبانه‌روزی ارائه می‌کند. اما هوش مصنوعی خطرات بسیار زیادی نیز دارد؛ زیرا گسترش اطلاعات نادرست را تشدید می‌کند، تبعیض را بیشتر می‌سازد و جاسوسی را برای دولت‌ها و شرکت‌ها آسان‌تر می‌کند. سامانه‌های هوش مصنوعی آینده ممکن است قادر به ایجاد پاتوژن [موجودی است که باعث بیماری می‌شود] یا هک زیرساخت‌های حیاتی باشند. درواقع، همان دانشمندانی که مسئولیت توسعه هوش مصنوعی را برعهده دارند شروع به هشدار کرده‌اند که خلاقیت هوش مصنوعی بسیار خطرناک است. روسای تقریبا تمامی آزمایشگاه‌های برجسته هوش مصنوعی طی نامه‌ای در ماه مه هشدار دادند که «کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات موجود در مقیاس اجتماعی مانند همه‌گیری‌ها و جنگ هسته‌ای باشد.» برای مقابله با این خطرات، برخی از کارشناسان خواستار توقف تولید پیشرفته‌ترین سامانه‌های هوش مصنوعی شده‌اند. اما این مدل‌ها برای شرکت‌هایی که میلیاردها دلار برای آنها هزینه کرده‌اند بسیار ارزشمندتر از آن هستند تا تولید آنها را متوقف سازند. بااین‌حال، سیاستگذاران می‌توانند و باید به هدایت توسعه این بخش و آماده‌سازی شهروندان برای اثرات مترتب بر آن کمک کنند. آنها می‌توانند این کار را با تحدید افرادی که می‌توانند به تراشه‌های پیشرفته‌ای که مدل‌های پیشرو هوش مصنوعی را آموزش می‌دهند دسترسی داشته باشند، شروع کرده و اطمینان حاصل کنند که بازیگران شرور نمی‌توانند قدرتمندترین سامانه‌های هوش مصنوعی را توسعه دهند. دولت‌ها همچنین باید مقرراتی را وضع کرده تا تضمین کنند که سامانه‌های هوش مصنوعی به‌طور مسئولانه توسعه‌یافته و مورداستفاده قرار می‌گیرند. اگر این درست انجام شود، قوانین مذکور نوآوری هوش مصنوعی را محدود نخواهد کرد اما قبل از اینکه پرخطرترین سامانه‌های هوش مصنوعی به‌طور گسترده در دسترس همگان قرار گیرند، زمان خریده می‌شود. 
دولت‌ها باید از این زمان خریداری شده برای مستحکم‌تر کردن جامعه در برابر خطرات فراوان هوش مصنوعی استفاده کرده و همچنین آنها باید روی طیف وسیعی از تدابیر حفاظتی در این حوزه سرمایه‌گذاری کنند: مانند یافتن راه‌هایی برای کمک به افراد برای تمایزگذاری بین محتوای تولید شده توسط انسان و توسط هوش مصنوعی، کمک به دانشمندان در شناسایی و جلوگیری از هک آزمایشگاه‌ها یا ایجاد پاتوژن‌های مصنوعی و توسعه ابزارهای امنیت سایبری که بتوانند از زیرساخت‌های حیاتی مانند نیروگاه‌ها محافظت کنند. آنها باید دریابند که چگونه می‌توان از خود هوش مصنوعی برای محافظت در برابر سامانه‌های هوش مصنوعی خطرناک استفاده کرد. رویارویی با این چالش‌ها مستلزم خلاقیت زیادی از سوی سیاستگذاران و از سوی دانشمندان است. همچنین مستلزم این است که هر دو گروه مذکور سریع کار کنند. گسترش سامانه‌های هوش مصنوعی تنها دیر یا زود دارد که جامعه هنوز آماده این وضعیت نشده است. 

  آماده یا نه؟
هوش مصنوعی چقدر خطرناک است؟ پاسخ صادقانه و ترسناک این است که هیچ‌کس پاسخ این پرسش را نمی‌داند. فناوری‌های هوش مصنوعی طیف گسترده و فزاینده‌ای از کاربردها را دارند و افراد تازه شروع به درک تاثیرات ناشی از آنها کرده‌اند. همزمان با بهبود عملکرد مدل‌های زبان بزرگ در تولید متون مشابه انسانی، کارکرد آنها در تولید محتوای متناسب با نیازهای هر فرد و البته در نوشتن ایمیل‌های فیشینگ قانع‌کننده هم بهتر می‌شوند. مدل‌های هوش مصنوعی موجود در تولید کدهای رایانه‌ای، عملکردی چشمگیر دارند و به‌طور قابل‌توجهی سرعت برنامه‌نویسان باتجربه را برای به‌روزرسانی یک برنامه افزایش می‌دهند؛ اما مهارت هوش مصنوعی همچنین به برنامه‌نویسان کمک می‌کند تا بدافزارهایی تولید کنند که می‌تواند از ضدویروس نرم‌افزار فرار کند. الگوریتم‌های کشف دارو هم می‌توانند داروهای جدید و البته سلاح‌های شیمیایی جدید را تولید کنند. در آزمایشی در مارس 2022، شیمیدانان از یک سامانه هوش مصنوعی خواستند تا 40هزار ماده شیمیایی سمی را در شش ساعت شناسایی کند که بسیاری از آنها کاملا جدید بودند. پیش‌بینی می‌شود برخی از این مواد سمی‌تر از هر سلاح شیمیایی شناخته‌شده‌ای هستند.  یکی از خطرات هوش مصنوعی این است که می‌تواند خشونت را دموکراتیک کرده و آسیب رساندن را برای طیف گسترده‌تری از بازیگران بد تسهیل کند. مثلا هکرها مدت‌هاست که می‌توانند دست به آسیب‌زایی بزنند اما پیشرفت در مدل‌های تولید کد می‌تواند تولید بدافزار را با حداقل تجربه کدنویسی ممکن کند. پروپاگاندیست‌ها معمولا برای تولید اطلاعات نادرست به زمان قابل‌توجهی نیاز دارند، اما هوش مصنوعی با تولید انبوه متن، تولید اطلاعات نادرست را در مقیاس صنعتی آسان‌تر می‌کند. به‌علاوه، فقط متخصصان آموزش‌دیده در‌حال‌حاضر می‌توانند سلاح‌های بیولوژیکی و شیمیایی تولید کنند. اما به لطف هوش مصنوعی، تنها چیزی که یک تروریست در سال‌های آینده ممکن است برای ساختن یک عامل بیماری‌زای مرگبار نیاز داشته باشد، نه تخصص علمی که فقط یک اتصال اینترنتی است.  برای جلوگیری از آسیب رساندن هوش مصنوعی به انسان، کارشناسان فناوری اغلب درباره نیاز به «همسویی هوش مصنوعی» صحبت می‌کنند: اطمینان از همسویی اهداف سامانه‌های هوش مصنوعی با اهداف کاربران و ارزش‌های جامعه. اما تاکنون هیچ‌کس متوجه نشده است که چگونه می‌توان رفتار هوش مصنوعی را به‌طور قابل‌اعتماد کنترل کرد. مثلا یک سامانه هوش مصنوعی که وظیفه شناسایی تقلب مالیاتی را برعهده داشت، بدون اطلاع کاربران خود تلاش کرد تا یافته‌هایش را به مقامات مالیاتی توییت کند. تدوینگران هوش مصنوعی می‌توانند مدل‌ها را برای امتناع از انجام برخی کارها تنظیم کنند، اما کاربران باهوش راه‌هایی را برای دور زدن این حفاظ‌ها پیدا می‌کنند. در آوریل 2023، فردی چت جی‌پی‌تی را وادار کرد تا دستورالعمل‌های دقیقی را برای نحوه درست کردن ناپالم ارائه دهد، کاری که معمولا این برنامه از آن امتناع می‌کرد اما فرد مذکور توانست این کار را انجام دهد: با درخواست از این برنامه برای شبیه‌سازی مادربزرگ شخصی که قبل از خواب داستان‌هایی درباره نحوه درست کردن ناپالم برای او تعریف می‌کرد.  البته پیشرفته‌ترین مدل‌های هوش مصنوعی امروزی هنوز دارای نقص‌هایی هستند که پتانسیل مخرب آنها را محدود می‌کند. مثلا فردی ناشناس یک ربات هوش مصنوعی با نام «ChaosGPT» ایجاد کرده و آن را طوری برنامه‌ریزی کرد که مانند «هوش مصنوعی مخرب، تشنه قدرت و دستکاری‌کننده» ‌عمل کند و «بشریت را از بین ببرد.» اما این سیستم در حین جمع‌آوری اطلاعات در مورد بمب تزار، بزرگ‌ترین سلاح هسته‌ای که تاکنون ساخته شده، متوقف شد و سپس علنا برنامه‌های خود را توییت کرد. جلوگیری از ایجاد ویرانی توسط هوش مصنوعی آسان نخواهد بود، اما دولت‌ها می‌توانند با فشار بر شرکت‌های توسعه‌دهنده هوش مصنوعی و واداشتن آنها به احتیاط بیشتر این مسیر را شروع کنند. هنوز مشخص نیست که در‌صورت آسیب‌زایی یک مدل هوش مصنوعی، توسعه‌دهندگان آن چه زمانی مسئول خواهند بود. سیاستگذاران باید قوانین مربوطه را روشن کنند تا اطمینان حاصل شود که اگر یکی از مدل‌های هوش مصنوعی مثلا به فردی که قصد تیراندازی در یک مدرسه را دارد کمک کرده است، سازندگان آن مسئول دانسته خواهند شد. چنین مقرراتی شرکت‌ها را تشویق خواهد کرد تا ریسک‌ها را پیش‌بینی و کاهش دهند.  دولت‌ها همچنین باید به‌طور مستقیم توسعه هوش مصنوعی را تنظیم کنند. در اینجا ایالات‌متحده می‌تواند -و باید‌- این راه را رهبری کند. برای آموزش موفقیت‌آمیز یک سیستم هوش مصنوعی، توسعه‌دهندگان به مقادیر زیادی تراشه‌های بسیار تخصصی نیاز دارند و واشنگتن و دو متحد نزدیک (ژاپن و هلند) تنها تامین‌کنندگان سخت‌افزار موردنیاز برای ساخت این مواد هستند. ایالات‌متحده و شرکای آن قبلا کنترل صادرات پیشرفته‌ترین تراشه‌های هوش مصنوعی و تجهیزات ساخت تراشه به چین را اعمال کرده‌اند. اما آنها باید پا را فراتر بگذارند و یک رجیستری مالکیت تراشه ایجاد کنند تا از منحرف شدن تراشه‌های پیشرفته به‌سمت بازیگران ممنوعه ازجمله کشورهای سرکش جلوگیری کند. 

نظرات کاربران
تعداد نظرات کاربران : ۱