تاریخ : Fri 10 Jan 2025 - 10:04
کد خبر : 200288
سرویس خبری : دانشگاه


«فرهیختگان» گزارش می‌دهد

ترامپ؛ چالش بلندپروازی‌های انگلیس در هوش مصنوعی

از سال ۲۰۲۰ تاکنون، بسیاری از دولت‌های کشور‌های پیشرفته به دنبال راه‌هایی برای اعمال تنظیم‌گری جدی در این حوزه بوده‌اند و اخبار جریمه‌های سنگین اتحادیه اروپا بر رب‌النوع‌های سیلیکون ولی بسیار فراگیر شد، ولی این انگلستان بود که اولین قدم مهم را با ایجاد سازمانی به منظور بررسی تخصصی این فناوری برداشت.

علی محمولی، مترجم: اخلاق و ایمنی، بزرگ‌ترین نگرانی‌های فعالان حوزه فناوری دررابطه‌با هوش مصنوعی هستند. هرچند غول‌های فناوری همواره سعی کرده‌اند که حداقل در ظاهر، این نگرانی صاحب‌نظران را مرتفع کنند، ولی نتوانسته‌اند از سرایت‌کردن آن به دولت‌ها جلوگیری کنند. از سال 2020 تاکنون، بسیاری از دولت‌های کشور‌های پیشرفته به دنبال راه‌هایی برای اعمال تنظیم‌گری جدی در این حوزه بوده‌اند و اخبار جریمه‌های سنگین اتحادیه اروپا بر رب‌النوع‌های سیلیکون ولی بسیار فراگیر شد، ولی این انگلستان بود که اولین قدم مهم را با ایجاد سازمانی به منظور بررسی تخصصی این فناوری برداشت. مقاله زیر با بررسی جدیدترین وضعیت این مجموعه، از چالش‌های سیاسی و غیرسیاسی آن در محکم کردن جای پای خود در عرصه فناوری می‌گوید.

به گزارش فایننشال تایمز، بلندپروازی انگلیس برای تبدیل‌شدن به رهبر حوزه سیاست‌گذاری هوش مصنوعی در جهان با چالش‌هایی در ایالات متحده روبه‌رو شده است. در آنجا، روند ایجاد یک مقر برای انگلستان دشوار شده و دولت ترامپ نیز در حالی روی کار می‌آید که به طور مشخصی در تنظیم‌گری این حوزه با لندن، تفاوت رویکرد دارد.

سال گذشته، دولت بریتانیا یک مجموعه با نام مؤسسه ایمنی هوش مصنوعی (AISI) با بودجه سالانه 50 میلیون پوند و 100 نفر کارمند راه‌اندازی کرد. این کشور اکنون به دنبال تقویت جایگاه این مؤسسه و تبدیل آن به قوی‌ترین مجموعه تحقیقاتی جهان در حوزه پژوهش ریسک‌های هوش مصنوعی است. برخی شرکت‌های پیشرو در این حوزه شامل OpenAI و گوگل تاکنون به این مؤسسه، اجازه آزمایش و بررسی جدیدترین مدل‌های هوش مصنوعی خود را داده‌اند. اما نقشه گسترش هرچه بیشتر فعالیت‌های این مؤسسه که قدم بعدی آن، ایجاد یک دفتر در سان‌فرانسیسکو بود با مشکل مواجه شد. بنا بر منابع مطلع از موضوع، دفتر مؤسسه AISI که قرار بود در ماه مه در مرکز فناوری ایالات متحده در کالیفرنیا افتتاح شود، به دلیل برگزاری انتخابات در دو کشور و دشواری در جذب کارکنان مورد نیاز برای آن، تا این لحظه به تأخیر افتاده است.

برخی اشخاص نزدیک به دولت بریتانیا معتقدند این کشور در تلاش خود برای تثبیت و تقویت جایگاه مؤسسه مذکور، آن را به‌مرور تبدیل به یک مرکز فعال در عرصه امنیت ملی خواهد کرد؛ چراکه این مؤسسه هم‌اکنون نیز ارتباطاتی با مرکز ارتباطات دولت (GCHQ) دارد. این مرکز، از سازمان‌های اطلاعاتی انگلستان است که وظیفه جمع‌آوری و تحلیل سیگنال را بر عهده دارد و بر جابه‌جایی داده مبتنی بر اینترنت و دیگر فناوری‌های ارتباطی در این کشور و کشورهای مشترک‌المنافع آن، نظارت می‌کند. این اعتقاد وجود دارد که در زمانه تنش‌ها بین دولت چپ‌گرای حزب کارگر در لندن و دولت جدید ترامپ در واشنگتن، تبدیل‌شدن AISI به یک مجموعه امنیتی، می‌تواند آن را تبدیل به ابزار دیپلماتیک قدرتمندی کند.

پیتر کایل، وزیر فناوری بریتانیا که بر «رابطه ایمن» بین دو کشور در همه مسائل، حتی حوزه دفاعی و امنیتی تأکید دارد، در این باره گفت: «مشخصاً دولت ترامپ، رویکردی کاملاً متفاوت در برخی امور خواهد داشت، مثلاً تنظیم‌گری.» وی تصریح کرد حول زمان گشایش و نحوه کادرسازی برای نمایندگی مؤسسه AISI در سان‌فرانسیسکو باید «تصمیم سنجیده» گرفته شود. این تمرکز فزاینده، بازتاب‌دهنده تغییر اولویت‌ها در ایالات متحده است، کشوری که خانه بزرگ‌ترین شرکت‌های پیشرو در هوش مصنوعی است. یکی از قول‌های رئیس‌جمهور منتخب این کشور، دونالد ترامپ، لغو کردن دستور اجرایی جو بایدن در موضوع هوش مصنوعی است که منجر به راه‌اندازی مؤسسه ایمنی هوش مصنوعی ایالات متحده شد.

همچنین ترامپ قصد دارد مدیرعامل معروف حوزه سرمایه‌گذاری خطرپذیر، دیوید سکز را به‌عنوان «سزار هوش مصنوعی و رمزارز» خود منصوب کند. سکز معروف است به اینکه اعتقاد دارد استارتاپ‌های AI بیش از حد تحت تنظیم‌گری قرار گرفته‌اند.

گروه‌های جوامع مدنی و سرمایه‌گذاران فناوری این سؤال را مطرح کرده‌اند که آیا شرکت‌های هوش مصنوعی با سازمان ایمنی AI بریتانیایی همکاری خواهند کرد یا خیر؛ چراکه دولت آینده این کشور در حوزه فناوری، سیاست‌های حمایت‌گرایانه‌تری را در پیش خواهد گرفت. تد کروز، سناتور جمهوری‌خواه آمریکایی در این باره هشدار داده که بازیگران خارجی - شامل دولت‌های اروپایی و بریتانیا - سیاست‌های تنظیم‌گری سنگینی بر شرکت‌های هوش مصنوعی آمریکایی تحمیل می‌کنند و نفوذ روبه‌افزایشی بر سیاست‌های فناوری ایالات متحده پیدا خواهند کرد.

مورد دیگر، نقش مدیرعامل شرکت تسلا و مشاور رئیس‌جمهور منتخب، ایلان ماسک است. این میلیاردر حوزه فناوری در حالی اخیراً از مخاطرات امنیتی هوش مصنوعی سخن گفته که به‌تازگی از مدل پیشرفته خود تحت عنوان xAI رونمایی کرده است. یکی از افراد نزدیک به دولت بریتانیا، ضمن اذعان به اینکه مؤسسه ایمنی هوش مصنوعی بریتانیا درحقیقت رابطی با سازمان اطلاعاتی قدرتمند این کشور (GCHQ) است، افزود «معلوم است دارند به ایلان این‌طور القا می‌کنند که کار اصلی AISI امنیتی است و اساساً آنچه که ما در حوزه ایمنی انجام می‌دهیم را نادیده می‌گیرند.»

شرکت‌های فناوری اعلام کرده‌اند تحقیقات AISI در حال حاضر به بهبود ایمنی مدل‌های هوش مصنوعی که عمدتاً توسط گروه‌های مستقر در ایالات متحده ساخته شده‌اند، کمک می‌کند. در ماه مه، AISI پتانسیل مدل‌های پیشرو را برای تسهیل حملات سایبری و ارائه دانش تخصصی در حوزه شیمی و زیست‌شناسی شناسایی کرد که می‌تواند برای توسعه سلاح‌های زیستی به کار گرفته شوند.

دولت بریتانیا همچنین قصد دارد تا AISI را به یک نهاد قانونی تبدیل کند. شرکت‌های پیشرو ازجمله OpenAI، Anthropic و Meta همگی داوطلب شده‌اند تا به این مؤسسه، دسترسی به مدل‌های جدید خود را برای ارزیابی ایمنی قبل از انتشار آن‌ها به کسب‌وکار‌ها و مصرف‌کنندگان، بدهند. طبق قانون پیشنهادی بریتانیا، این تعهدات داوطلبانه به الزامات قانونی تبدیل خواهد شد. کایل دراین‌رابطه گفت: «این اقدامات به قانون تبدیل خواهند شد؛ چراکه من فکر نمی‌کنم با دیدن توانایی واقعی فناوری مورد بحث، مردم راحت باشند که ببینند شرکت‌ها از نهایت قدرت این فناوری، صرفاً حسب «داوطلب بودن» در طرح، استفاده نمی‌کنند.»

همچنین، مؤسسه ایمنی هوش مصنوعی بریتانیا از کارکنان شرکت‌هایی نظیر OpenAI، گوگل و DeepMind نیز استخدام کرده تا رابطه خوب خود را با این شرکت‌های برتر هوش مصنوعی حفظ کند و از همراه بودن آن‌ها با پیشنهادهایش، اطمینان حاصل کند. جید لیونگ، مدیر ارشد فناوری در مؤسسه AISI که سابقاً در OpenAI کار می‌کرده می‌گوید: «ما عملاً بر اساس اینکه چه میزان توانمندی داریم، زنده خواهیم ماند.»

به‌رغم این ارتباطات، نقاط تعارضی نیز با شرکت‌های هوش مصنوعی وجود داشته. مؤسسه از اینکه شرکت‌ها زمان کافی برای بررسی مدل‌های خود را به آن نداده‌اند، شکایت کرده، زیرا به دلیل رقابت بالا در بخش خصوصی برای انتشار عمومی محصولات، امکان ماندن طولانی مدل‌ها در دست AISI وجود ندارد. جفری اروینگ، دانشمند ارشد AISI که سابقاً در دیپ‌مایند و OpenAI کار می‌کرده دراین‌رابطه می‌گوید: «اوضاع ایدئال نیست؛ ولی همچنان در این باره گفت‌وگو وجود دارد. معمولاً شرایط به‌گونه‌ای نیست که ما مدت کافی برای بررسی مدل‌ها را داشته باشیم و در بعضی مواقع می‌تواند اوضاع خیلی سخت شود. ولی تاکنون به‌اندازه‌ای مدل‌ها در دسترس ما بوده‌اند که بتوانیم بسیاری از محصولات عرضه‌شده مهم را به‌خوبی آزمایش کنیم.» این مؤسسه بریتانیایی تاکنون توانسته 16 مدل هوش مصنوعی را بررسی کند و خلأ ایمنی قدرتمند و مقاومت در برابر استفاده نادرست در بیشتر آن‌ها را شناسایی کند. این مؤسسه، داده‌های خود را بدون اشاره به نام محصول، به شکل عمومی منتشر می‌کند.