علی محمولی، مترجم: اخلاق و ایمنی، بزرگترین نگرانیهای فعالان حوزه فناوری دررابطهبا هوش مصنوعی هستند. هرچند غولهای فناوری همواره سعی کردهاند که حداقل در ظاهر، این نگرانی صاحبنظران را مرتفع کنند، ولی نتوانستهاند از سرایتکردن آن به دولتها جلوگیری کنند. از سال 2020 تاکنون، بسیاری از دولتهای کشورهای پیشرفته به دنبال راههایی برای اعمال تنظیمگری جدی در این حوزه بودهاند و اخبار جریمههای سنگین اتحادیه اروپا بر ربالنوعهای سیلیکون ولی بسیار فراگیر شد، ولی این انگلستان بود که اولین قدم مهم را با ایجاد سازمانی به منظور بررسی تخصصی این فناوری برداشت. مقاله زیر با بررسی جدیدترین وضعیت این مجموعه، از چالشهای سیاسی و غیرسیاسی آن در محکم کردن جای پای خود در عرصه فناوری میگوید.
به گزارش فایننشال تایمز، بلندپروازی انگلیس برای تبدیلشدن به رهبر حوزه سیاستگذاری هوش مصنوعی در جهان با چالشهایی در ایالات متحده روبهرو شده است. در آنجا، روند ایجاد یک مقر برای انگلستان دشوار شده و دولت ترامپ نیز در حالی روی کار میآید که به طور مشخصی در تنظیمگری این حوزه با لندن، تفاوت رویکرد دارد.
سال گذشته، دولت بریتانیا یک مجموعه با نام مؤسسه ایمنی هوش مصنوعی (AISI) با بودجه سالانه 50 میلیون پوند و 100 نفر کارمند راهاندازی کرد. این کشور اکنون به دنبال تقویت جایگاه این مؤسسه و تبدیل آن به قویترین مجموعه تحقیقاتی جهان در حوزه پژوهش ریسکهای هوش مصنوعی است. برخی شرکتهای پیشرو در این حوزه شامل OpenAI و گوگل تاکنون به این مؤسسه، اجازه آزمایش و بررسی جدیدترین مدلهای هوش مصنوعی خود را دادهاند. اما نقشه گسترش هرچه بیشتر فعالیتهای این مؤسسه که قدم بعدی آن، ایجاد یک دفتر در سانفرانسیسکو بود با مشکل مواجه شد. بنا بر منابع مطلع از موضوع، دفتر مؤسسه AISI که قرار بود در ماه مه در مرکز فناوری ایالات متحده در کالیفرنیا افتتاح شود، به دلیل برگزاری انتخابات در دو کشور و دشواری در جذب کارکنان مورد نیاز برای آن، تا این لحظه به تأخیر افتاده است.
برخی اشخاص نزدیک به دولت بریتانیا معتقدند این کشور در تلاش خود برای تثبیت و تقویت جایگاه مؤسسه مذکور، آن را بهمرور تبدیل به یک مرکز فعال در عرصه امنیت ملی خواهد کرد؛ چراکه این مؤسسه هماکنون نیز ارتباطاتی با مرکز ارتباطات دولت (GCHQ) دارد. این مرکز، از سازمانهای اطلاعاتی انگلستان است که وظیفه جمعآوری و تحلیل سیگنال را بر عهده دارد و بر جابهجایی داده مبتنی بر اینترنت و دیگر فناوریهای ارتباطی در این کشور و کشورهای مشترکالمنافع آن، نظارت میکند. این اعتقاد وجود دارد که در زمانه تنشها بین دولت چپگرای حزب کارگر در لندن و دولت جدید ترامپ در واشنگتن، تبدیلشدن AISI به یک مجموعه امنیتی، میتواند آن را تبدیل به ابزار دیپلماتیک قدرتمندی کند.
پیتر کایل، وزیر فناوری بریتانیا که بر «رابطه ایمن» بین دو کشور در همه مسائل، حتی حوزه دفاعی و امنیتی تأکید دارد، در این باره گفت: «مشخصاً دولت ترامپ، رویکردی کاملاً متفاوت در برخی امور خواهد داشت، مثلاً تنظیمگری.» وی تصریح کرد حول زمان گشایش و نحوه کادرسازی برای نمایندگی مؤسسه AISI در سانفرانسیسکو باید «تصمیم سنجیده» گرفته شود. این تمرکز فزاینده، بازتابدهنده تغییر اولویتها در ایالات متحده است، کشوری که خانه بزرگترین شرکتهای پیشرو در هوش مصنوعی است. یکی از قولهای رئیسجمهور منتخب این کشور، دونالد ترامپ، لغو کردن دستور اجرایی جو بایدن در موضوع هوش مصنوعی است که منجر به راهاندازی مؤسسه ایمنی هوش مصنوعی ایالات متحده شد.
همچنین ترامپ قصد دارد مدیرعامل معروف حوزه سرمایهگذاری خطرپذیر، دیوید سکز را بهعنوان «سزار هوش مصنوعی و رمزارز» خود منصوب کند. سکز معروف است به اینکه اعتقاد دارد استارتاپهای AI بیش از حد تحت تنظیمگری قرار گرفتهاند.
گروههای جوامع مدنی و سرمایهگذاران فناوری این سؤال را مطرح کردهاند که آیا شرکتهای هوش مصنوعی با سازمان ایمنی AI بریتانیایی همکاری خواهند کرد یا خیر؛ چراکه دولت آینده این کشور در حوزه فناوری، سیاستهای حمایتگرایانهتری را در پیش خواهد گرفت. تد کروز، سناتور جمهوریخواه آمریکایی در این باره هشدار داده که بازیگران خارجی - شامل دولتهای اروپایی و بریتانیا - سیاستهای تنظیمگری سنگینی بر شرکتهای هوش مصنوعی آمریکایی تحمیل میکنند و نفوذ روبهافزایشی بر سیاستهای فناوری ایالات متحده پیدا خواهند کرد.
مورد دیگر، نقش مدیرعامل شرکت تسلا و مشاور رئیسجمهور منتخب، ایلان ماسک است. این میلیاردر حوزه فناوری در حالی اخیراً از مخاطرات امنیتی هوش مصنوعی سخن گفته که بهتازگی از مدل پیشرفته خود تحت عنوان xAI رونمایی کرده است. یکی از افراد نزدیک به دولت بریتانیا، ضمن اذعان به اینکه مؤسسه ایمنی هوش مصنوعی بریتانیا درحقیقت رابطی با سازمان اطلاعاتی قدرتمند این کشور (GCHQ) است، افزود «معلوم است دارند به ایلان اینطور القا میکنند که کار اصلی AISI امنیتی است و اساساً آنچه که ما در حوزه ایمنی انجام میدهیم را نادیده میگیرند.»
شرکتهای فناوری اعلام کردهاند تحقیقات AISI در حال حاضر به بهبود ایمنی مدلهای هوش مصنوعی که عمدتاً توسط گروههای مستقر در ایالات متحده ساخته شدهاند، کمک میکند. در ماه مه، AISI پتانسیل مدلهای پیشرو را برای تسهیل حملات سایبری و ارائه دانش تخصصی در حوزه شیمی و زیستشناسی شناسایی کرد که میتواند برای توسعه سلاحهای زیستی به کار گرفته شوند.
دولت بریتانیا همچنین قصد دارد تا AISI را به یک نهاد قانونی تبدیل کند. شرکتهای پیشرو ازجمله OpenAI، Anthropic و Meta همگی داوطلب شدهاند تا به این مؤسسه، دسترسی به مدلهای جدید خود را برای ارزیابی ایمنی قبل از انتشار آنها به کسبوکارها و مصرفکنندگان، بدهند. طبق قانون پیشنهادی بریتانیا، این تعهدات داوطلبانه به الزامات قانونی تبدیل خواهد شد. کایل دراینرابطه گفت: «این اقدامات به قانون تبدیل خواهند شد؛ چراکه من فکر نمیکنم با دیدن توانایی واقعی فناوری مورد بحث، مردم راحت باشند که ببینند شرکتها از نهایت قدرت این فناوری، صرفاً حسب «داوطلب بودن» در طرح، استفاده نمیکنند.»
همچنین، مؤسسه ایمنی هوش مصنوعی بریتانیا از کارکنان شرکتهایی نظیر OpenAI، گوگل و DeepMind نیز استخدام کرده تا رابطه خوب خود را با این شرکتهای برتر هوش مصنوعی حفظ کند و از همراه بودن آنها با پیشنهادهایش، اطمینان حاصل کند. جید لیونگ، مدیر ارشد فناوری در مؤسسه AISI که سابقاً در OpenAI کار میکرده میگوید: «ما عملاً بر اساس اینکه چه میزان توانمندی داریم، زنده خواهیم ماند.»
بهرغم این ارتباطات، نقاط تعارضی نیز با شرکتهای هوش مصنوعی وجود داشته. مؤسسه از اینکه شرکتها زمان کافی برای بررسی مدلهای خود را به آن ندادهاند، شکایت کرده، زیرا به دلیل رقابت بالا در بخش خصوصی برای انتشار عمومی محصولات، امکان ماندن طولانی مدلها در دست AISI وجود ندارد. جفری اروینگ، دانشمند ارشد AISI که سابقاً در دیپمایند و OpenAI کار میکرده دراینرابطه میگوید: «اوضاع ایدئال نیست؛ ولی همچنان در این باره گفتوگو وجود دارد. معمولاً شرایط بهگونهای نیست که ما مدت کافی برای بررسی مدلها را داشته باشیم و در بعضی مواقع میتواند اوضاع خیلی سخت شود. ولی تاکنون بهاندازهای مدلها در دسترس ما بودهاند که بتوانیم بسیاری از محصولات عرضهشده مهم را بهخوبی آزمایش کنیم.» این مؤسسه بریتانیایی تاکنون توانسته 16 مدل هوش مصنوعی را بررسی کند و خلأ ایمنی قدرتمند و مقاومت در برابر استفاده نادرست در بیشتر آنها را شناسایی کند. این مؤسسه، دادههای خود را بدون اشاره به نام محصول، به شکل عمومی منتشر میکند.