علی محمولی، مترجم: معمولا وقتی یک فیلم یا سریال به شکل دنبالهدار باشد، انتهایش برای مخاطب مینویسند: «در قسمت آینده خواهید دید.» این وضعیت برای دنیای رسانه و اندیشکدهها نیز متفاوت نیست. هر سال و زمانی که به پایان سال نزدیک میشویم، مطبوعات و اندیشکدهها دست به انتشار مطالبی از این قبیل میزنند و یا پیشبینی خود را برای سال آینده در حوزهای مطلوب ارائه میکنند. آنچه امروز «فرهیختگان» در منظر دیدگان شما قرار میدهد، گزارشی است از نشریه معروف فوربز که به پیشبینی مهمترین وقایع احتمالی در حوزه هوش مصنوعی در سال آینده میپردازد. در این مقاله، فوربز بر آن است که بارزترین اخبار مرتبط با AI در 2025، در موضوعات تجاریسازی برنامههای هوش مصنوعی (AI application)، تنظیمگری و بهبود مدلهای فعلی خواهد بود. با توجه به اهمیت و جایگاه ایالات متحده در فضای هوش مصنوعی جهان، فوربز معتقد است وقایع سیاسی این کشور توان اثرگذاری کلان بر سیر پیشرفت AI را خواهد داشت و برای این مسئله، چنان شأنی قائل شده که یکی از پیشبینیهای خود را به بررسی روابط دونالد ترامپ، رئیسجمهور این کشور با یکی از مدیران عامل سرشناس و از بزرگان فناوری آمریکا اختصاص داده؛ هرچند به شکل مطلق اعلام نکرده که سال آینده برای مصرفکنندگان یا تولیدکنندگان AI سال خوبی خواهد بود، اما بهزعم این نشریه، همچنان اثرگذارترین اتفاقات حوزه مذکور در سال 2025، توسط شرکتهای پیشرو رقم خواهد خورد و البته به مرور زمان، کار برای شرکتهای کوچکتر نیز سختتر خواهد شد.
متا استفاده از مدلهای لاما را پولی خواهد کرد
متا به عنوان پرچمدار جهانی در حوزه هوش مصنوعی وزنباز شناخته میشود. در یک مطالعه موردی جالب با موضوع راهبرد شرکتی، در حالی که رقبایی مانند OpenAI و گوگل، مدلهای پیشرو خود را منبعبسته نگه داشته و استفاده از آنها را مشمول هزینه کردهاند، متا تصمیم گرفته که مدلهای پیشرفته لاما را به صورت رایگان عرضه کند. به همین دلیل در سال آینده، بسیاری از افراد از تصمیم متا برای دریافت هزینه از شرکتها برای استفاده از لاما شگفتزده خواهند شد.البته این بدان معنی نیست که متا مدلهای لاما را به طور کامل منبعبسته کند یا اینکه تمام کاربران این مدلها باید هزینهای پرداخت کنند. در عوض، انتظار میرود متا شرایط مجوز منبعباز لاما را محدودتر کند، به گونهای که شرکتهایی که از لاما در مقیاسهای تجاری خاصی استفاده میکنند، ملزم به پرداخت هزینه شوند. البته از لحاظ فنی، متا در حال حاضر نیز نسخه محدودی از این سیاست را اجرا میکند و به بزرگترین شرکتها (ابرمقیاسگرهای خدمات ابری و یا سایر شرکتهایی که بیش از ۷۰۰ میلیون کاربر فعال ماهانه دارند) اجازه استفاده رایگان از مدلهای لاما را نمیدهد. مارک زاکربرگ، مدیرعامل متا در سال 2023 اظهار داشت: «اگر شما شرکتی مانند مایکروسافت، آمازون یا گوگل هستید و خدمات خود [در واقع لاما] را به فروش میرسانید، ما معتقدیم باید سهمی از درآمد آن داشته باشیم. فکر نمیکنم این درآمد در کوتاهمدت قابلتوجه باشد، اما در بلندمدت امیدوارم که به رقم خوبی تبدیل شود.»سال آینده، متا دایره شرکتهایی را که باید برای استفاده از لاما هزینه پرداخت کنند، گسترش خواهد داد تا شرکتهای بزرگ و متوسط بیشتری را شامل شود. علت این تغییر راهبرد، همگام شدن با مرزهای هوش مصنوعی مبتنی بر مدلهای زبانی بسیار پرهزینه است. متا باید هر سال، میلیاردها دلار سرمایهگذاری کند تا لاما را در سطح یا نزدیک به مدلهای رقیب و پیشرو مانند OpenAI یا Anthropic و سایرین نگه دارد. متا یکی از بزرگترین و ثروتمندترین شرکتهای جهان است. اما در عین حال، یک شرکت سهامی عام است که در نهایت به سهامداران خود پاسخگو است. با افزایش سرسامآور هزینه توسعه مدلهای پیشرفته، برای متا غیرقابل تحمل است که چنین مبالغی را صرف آموزش نسل بعدی مدلهای لاما کند بدون اینکه انتظار درآمد داشته باشد. البته، علاقهمندان، دانشگاهیان، توسعهدهندگان مستقل و استارتاپها همچنان خواهند توانست سال آینده به صورت رایگان از مدلهای لاما استفاده کنند. اما سال ۲۰۲۵ زمانی خواهد بود که متا به طور جدی به دنبال کسب درآمد از لاما خواهد رفت.
دونالد ترامپ و ایلان ماسک دچار اختلاف خواهند شد
روی کار آمدن دولت جدید در ایالات متحده، تغییرات متعددی در سیاستگذاری و راهبردهای مرتبط با هوش مصنوعی به همراه خواهد داشت. برای پیشبینی مسیر حرکت سیاستهای هوش مصنوعی تحت ریاستجمهوری ترامپ، شاید وسوسهانگیز باشد که بر رابطه نزدیک او با ایلان ماسک تمرکز کنیم؛ چراکه ماسک در دنیای هوش مصنوعی امروز، نقشی مرکزی دارد.میتوان سناریوهای مختلفی را تصور کرد که در آن، ماسک ممکن است بر تحولات مرتبط با هوش مصنوعی در دولت ترامپ تأثیر بگذارد. با توجه به رابطه بسیار خصمانه ماسک با OpenAI، دولت جدید ممکن است هنگام تعامل با صنعت، تدوین مقررات مربوط به هوش مصنوعی و اعطای قراردادهای دولتی، رویکردی کمتر دوستانه نسبت به این شرکت اتخاذ کند (این قضیه، ریسکی واقعی است که مدیران OpenAI از آن وحشت دارند). از سوی دیگر، دولت ترامپ ممکن است شرکتهای متعلق به ماسک را به شکل ترجیحی مورد حمایت قرار دهد؛ به عنوان مثال، با کاهش موانع قانونی برای ساخت مراکز داده توسط xAI یا تسهیل روند صدور مجوز برای تسلا در استقرار ناوگان روبوتاکسی.مسئله بنیادیتر این است که ایلان ماسک – برخلاف بسیاری از رهبران فناوری که به ترامپ مشاوره میدهند، مخاطرات اگزیستانسیال و وجودی هوش مصنوعی را بسیار جدی میگیرد و بنابراین، از تنظیم مقرراتزایی جدی بر هوش مصنوعی حمایت میکند. در گذشته نیز او از لایحه بحثبرانگیز SB-1047 در کالیفرنیا که به دنبال وضع محدودیتهای معنادار برای توسعهدهندگان هوش مصنوعی بود، پشتیبانی کرد. نفوذ ماسک میتواند به محیطی با مقررات سختگیرانهتر برای هوش مصنوعی در ایالات متحده منجر شود.اما یک مشکل در این گمانهزنیها وجود دارد. رابطه نزدیک ترامپ و ماسک ناگزیر فرو خواهد پاشید. در دوران نخست ریاستجمهوری ترامپ، بارها شاهد بودیم که وفاداری متحدان او، حتی سرسختترین آنها، عمر کوتاهی دارد – از جف سشنز گرفته تا رکس تیلرسون، جیمز متیس، جان بولتون و استیو بنن. (و البته، چه کسی میتواند دوره ۱۰ روزه آنتونی اسکاراموچی در کاخسفید را فراموش کند؟) تعداد بسیار کمی از معاونان ترامپ در دوران نخست ریاستجمهوری او امروز همچنان به او وفادار ماندهاند. هر دو شخصیت دونالد ترامپ و ایلان ماسک، پیچیده، غیرقابل پیشبینی و دشوار در همکاریاند و دیگران را فرسوده میکنند. رابطه دوستانه آنها تاکنون برای هر دو طرف سودمند بوده، اما هنوز در مرحله ماهعسل است. پیشبینی میشود پیش از پایان سال ۲۰۲۵، این رابطه به تلخی خواهد گرایید.اما این موضوع چه تاثیری بر دنیای هوش مصنوعی خواهد داشت؟ در وهله اول، این خبر خوشایندی برای OpenAI و خبر ناخوشایند برای سهامداران تسلا خواهد بود. برای کسانی نیز که به ایمنی هوش مصنوعی اهمیت میدهند، ناامیدکننده خواهد بود، زیرا به طور قطع باعث خواهد شد که دولت ترامپ رویکردی آزادانهتر نسبت به مقررات هوش مصنوعی اتخاذ کند.
تلاشهای جدید برای ایجاد مراکز داده AI
در سال ۲۰۲۳ منبع فیزیکی حیاتیای که رشد هوش مصنوعی را محدود کرد پردازندههای گرافیکی یا همان تراشههای GPU بود. در سال ۲۰۲۴ این منبع تبدیل به مراکز داده و عامل قدرت شد. داستانهای کمی در سال ۲۰۲۴ به اندازه نیاز روزافزون هوش مصنوعی به انرژی در سایه هجوم برای ایجاد مراکز داده جدید مورد توجه قرار گرفتند. پس از چندین دهه ثبات تقاضای جهانی برای انرژی مراکز داده بهلطف رونق هوش مصنوعی بین سالهای ۲۰۲۳ و ۲۰۲۶ دوبرابر خواهد شد. در ایالات متحده پیشبینی میشود مراکز داده تا سال ۲۰۳۰ نزدیک به ۱۰ درصد از کل انرژی را مصرف کنند که این مقدار در سال ۲۰۲۲ فقط ۳ درصد بود.سامانههای انرژی امروزی بههیچوجه برای مقابله با افزایش عظیم تقاضا از سوی هوش مصنوعی آماده نیست. یک برخورد تاریخی میان این دو سامانه چند تریلیون دلاری (شبکه انرژی و زیرساختهای محاسباتی ما) درحال وقوع است. انرژی هستهای بهعنوان تنها راهحل ممکن برای این کلاف سردرگم مورد توجه قرار گرفته است. انرژی هستهای نسبت به بسیاری از روشها منبع انرژی ایدهآلی برای هوش مصنوعی است: بدون کربن ۲۴ ساعت هفته در دسترس و عملاً پایانناپذیر است. اما بهطور واقعبینانه منابع جدید انرژی هستهای تا دهه ۲۰۳۰ به دلیل تحقیق طولانی توسعه پروژه و زمانبندیهای نظارتی نمیتوانند تأثیری در این مشکل داشته باشند.سال آینده یک ایده غیرمعمول جدید برای حل این چالش ظهور خواهد کرد و منابع واقعی جذب خواهد کرد: قرار دادن مراکز داده هوش مصنوعی در فضا. در نگاه اول این ایده ممکن است به یک شوخی بد از جانب یک شرکت سرمایهگذاری خطرپذیر برای ترکیب کردن بیش از حد کلمات مد روز استارتاپی به نظر برسد اما درواقع ممکن است واقعا چیزی پشت این ایده باشد. بزرگترین مانع برای ساخت سریعتر مراکز داده بیشتر در زمین دسترسی به انرژی مورد نیاز است. یک خوشه محاسباتی در مدار میتواند از انرژی خورشیدی رایگان، بیپایان بدون کربن و در ۲۴ ساعت شبانهروز بهرهمند شود. البته چالشهای عملی زیادی باقی مانده که باید حل شوند. یک مسئله واضح این است که چگونه میتوان دادهها را به طور مقرونبهصرفه بین مدار و زمین منتقل کرد؟ این مسئله پرسش بازی است اما ممکن است با توجه به کار امیدوارکنندهای که در زمینه فناوری ارتباطات نوری با پهنای باند بالا مانند لیزرها درحال انجام است قابلحل باشد.استارتاپ پرهیاهویی از Y Combinator به نام Lumen Orbit اخیرا ۱۱ میلیون دلار برای دنبال کردن دقیق این چشمانداز جمعآوری کرده است: ساخت یک شبکه چند گیگاواتی از مراکز داده در فضا برای آموزش مدلهای هوش مصنوعی. به گفته فیلیپ جانستون، مدیرعامل این شرکت «به جای پرداخت ۱۴۰ میلیون دلار برای برق میتوانید ۱۰ میلیون دلار برای پرتاب و انرژی خورشیدی بپردازید. Lumen تنها مجموعهای نخواهد بود که این مفهوم را در سال ۲۰۲۵ جدی میگیرد. رقبای استارتاپی دیگری نیز ظاهر خواهند شد. تعجب نکنید اگر یکی یا چند ابرمقیاسگر ابری دست به تلاشهای اکتشافی در این زمینه بزنند. آمازون در حال حاضر تجربه گستردهای در قرار دادن دستگاههای مورد نیاز خود در مدار از طریق پروژه Kuiper را دارد. گوگل سابقه طولانی در تأمین مالی ایدههای بلندپروازانه مانند این را داشته و حتی مایکروسافت هم با اقتصاد فضا بیگانه نیست، همچنین ایلان ماسک و SpaceX نیز به شکل جدی و قابلتصوری میتوانند در این حوزه نقش داشته باشند.
قوانین مقیاسبندی فراتر از متن، کشف خواهند شد
هیچ موضوعی در هوش مصنوعی طی هفتههای اخیر بیشتر از قوانین مقیاسبندی و این پرسش که آیا این قوانین به پایان رسیدهاند، مورد بحث قرار نگرفته است. ایده اولیه قوانین مقیاسبندی نخستینبار در مقالهای از OpenAI در سال ۲۰۲۰ معرفی شد. این ایده ساده است؛ با افزایش تعداد پارامترهای مدل، میزان دادههای آموزشی و قدرت محاسباتی هنگام آموزش یک مدل هوش مصنوعی، عملکرد مدل به صورت قابل پیشبینی بهبود مییابد (به بیان فنی، خطای آزمون کاهش مییابد). قوانین مقیاسبندی، مسئول بهبودهای چشمگیر عملکردی از GPT-2 به GPT-3 و سپس به GPT-4 بودهاند.
مشابه قانون مور، قوانین مقیاسبندی در واقع قوانین علمی نیستند، بلکه صرفا مشاهدات تجربیاند. طی ماه گذشته، گزارشهایی منتشر شده که نشان میدهند آزمایشگاههای بزرگ هوش مصنوعی، با کاهش بازده در ادامه مقیاسبندی مدلهای زبان بزرگ مواجهند. این مسئله به عنوان نمونه، توضیح میدهد چرا انتشار GPT-5 توسط OpenAI به تعویق افتاده است. رایجترین پاسخ به مسئله افول قوانین مقیاسبندی این است که ظهور محاسبات در زمان آزمون، یک بُعد کاملا جدید برای دنبال کردن مقیاسبندی ارائه میدهد. به عبارت دیگر، به جای افزایش گسترده قدرت محاسباتی در زمان آموزش، مدلهای استدلالی جدید مانند o3 از OpenAI امکان افزایش گسترده محاسبات در زمان استنتاج را فراهم میکنند و تواناییهای جدیدی در هوش مصنوعی ایجاد میکنند زیرا مدلها قادر به «تفکر طولانیتر» میشوند، این نکته مهمی است. محاسبات در زمان آزمون واقعی کلمه، نمایانگر مسیر هیجانانگیزی برای مقیاسبندی و بهبود عملکرد هوش مصنوعی است. اما نکتهای دیگر درباره قوانین مقیاسبندی که از اهمیت بیشتری برخوردار است و در گفتمان امروز کمتر مورد توجه قرار گرفته، این است که تقریبا تمام بحثهای مربوط به قوانین مقیاسبندی – از مقاله اصلی در سال ۲۰۲۰ تا تمرکز امروزی بر محاسبات زمان آزمون – حول محور زبان میچرخند. اما زبان تنها نوع دادهای نیست که اهمیت دارد. به حوزههای رباتیک، زیستشناسی، مدلهای جهانی (world model) یا عوامل وب (web agent) فکر کنید. در این حوزهها، نه تنها قوانین مقیاسبندی هنوز به اشباع نرسیدهاند که برعکس، این قوانین تازه در آغاز راه هستند. در واقع، شواهد تجربی دقیق درباره وجود قوانین مقیاسبندی در این حوزهها هنوز منتشر نشده است. استارتاپهایی که مدلهای بنیادی را برای این انواع جدید دادهها توسعه میدهند مانند EvolutionaryScale در زیستشناسی،Physical Intelligence در رباتیک و World Labs در مدلهای جهانی، در تلاشند تا قوانین مقیاسبندی را در این حوزهها شناسایی و بهرهبرداری کنند، همانطور که OpenAI در نیمه اول دهه ۲۰۲۰ با موفقیت از قوانین مقیاسبندی در مدلهای زبانی بهره برد. سال آینده، انتظار داشته باشید که پیشرفتهای چشمگیری در این زمینهها رخ دهد. به شایعات توجه نکنید. قوانین مقیاسبندی از بین نمیروند. در سال ۲۰۲۵، این قوانین همچنان اهمیت خود را حفظ خواهند کرد، اما مرکز فعالیتهای مربوط به قوانین مقیاسبندی از پیشآموزش مدلهای زبان بزرگ به سایر انواع دادهها منتقل خواهد شد.
عوامل وب، نرمافزارهای محبوب آینده خواهند شد
دنیایی را تصور کنید که دیگر نیازی به تعامل مستقیم با وب ندارید. هر زمان که نیاز به مدیریت اشتراک، پرداخت قبض، برنامهریزی نوبت دکتر، سفارش چیزی از آمازون، رزرو رستوران یا انجام هر کار آنلاین خستهکننده دیگری داشته باشید، میتوانید به سادگی از یک دستیار هوش مصنوعی بخواهید که این کار را به جای شما انجام دهد. این مفهوم با عنوان «عامل وب» سالهاست که وجود دارد. اگر چیزی مانند این وجود داشت و کار میکرد، تردیدی نیست که به محصولی بسیار موفق تبدیل میشد. با این حال، هیچ عامل وب عمومیای که به درستی کار کند، امروز در بازار موجود نیست. استارتاپهایی مانند Adept که صدها میلیون دلار با تیم موسس برجستهای جمعآوری کردند اما نتوانستند به چشمانداز خود عمل کنند و تبدیل به عبرتهای ترسناک این حوزه شدهاند.سال آینده، سالی خواهد بود که عوامل وب به اندازه کافی خوب عمل میکنند تا به جریان اصلی تبدیل شوند. پیشرفتهای مداوم در مدلهای بنیادین زبانی و تصویری، همراه با پیشرفتهای اخیر در قابلیتهایی مانند «تفکر سیستم نوع 2» ناشی از مدلهای استدلالی جدید و محاسبات در زمان استنتاج، به این معناست که عوامل وب آماده ورود به صحنه خواهند بود. به عبارت دیگر، ایده Adept درست بود، فقط خیلی زود بود. در استارتاپها، مانند بسیاری از جنبههای زندگی، زمانبندی همه چیز است.عوامل وب موارد استفاده ارزشمندی در مجموعهها پیدا خواهند شد، اما نزدیکترین فرصت برای عوامل وب در بخش مصرفکننده خواهد بود. با وجود تمام هیجانات اخیر پیرامون هوش مصنوعی، تعداد کمی از برنامههای کاربردی بومی هوش مصنوعی به جز ChatGPT توانستهاند به موفقیتهای اصلی در بازار مصرفکننده دست یابند. عوامل وب این روند را تغییر خواهند داد و به «برنامه کاربردی اصلی» بعدی در هوش مصنوعی مصرفی تبدیل خواهند شد.
پیشرفتهای بزرگ در ساخت سامانههای خودتکمیلشونده AI
مفهوم هوش مصنوعی با قابلیت بهبود خودکار دهههاست که محل بحث در حوزه هوش مصنوعی است. در سال ۱۹۶۵ آی. جی. گود یکی از همکاران نزدیک آلن تورینگ نوشت: «ماشین فوقهوشمند به عنوان ماشینی تعریف میشود که میتواند تمامی فعالیتهای فکری انسان را هرقدر هم که موجودی هوشمند باشد بهشدت فراتر ببرد. از آنجا که طراحی ماشینها از این فعالیتهای فکری است یک ماشین فوقهوشمند میتواند ماشینهای بهتری طراحی کند، درنتیجه بدونشک یک «انفجار هوش» رخ میدهد و هوش انسان بسیار عقب خواهد ماند.» ایده هوش مصنوعی که قادر به اختراع نسخههای پیشرفتهتر از خود باشد مفهومی جذاب است. اما حتی امروز هم بوی علمی-تخیلی میدهد. با این حال این مفهوم درحال واقعیتر شدن است. پژوهشگران در مرزهای علمی هوش مصنوعی شروع به پیشرفتهای ملموس در زمینه ساخت سامانههایی کردهاند که میتوانند به شکل خودکار هوش مصنوعی بهتری ایجاد کنند.
سال آینده این نوع تحقیقات به جریان اصلی وارد خواهد شد. برجستهترین نمونه عمومی تحقیق در این زمینه تاکنون «دانشمند هوش مصنوعی» از شرکت ساکاناست. این پروژه که در آگوست منتشر شد نشان میدهد سامانههای هوش مصنوعی واقعا میتوانند تمام چرخه تحقیق هوش مصنوعی را بهطور خودکار انجام دهند. دانشمند هوش مصنوعی ساکانا تمامی مراحل تحقیق را خودکار انجام میدهد؛ از مطالعه مقالات علمی موجود، تولید ایدههای نوآورانه، طراحی آزمایشها برای آزمودن این ایدهها، اجرای آزمایشها و نگارش مقاله تحقیقاتی برای گزارش نتایج تا بررسی همتایان علمی. این کار کاملا مستقل از ورودی انسانی انجام میشود. برخی مقالات پژوهشی تولیدشده توسط این سامانه به شکل برخط در دسترسند. همچنین شایعاتی وجود دارد که شرکتهای OpenAI و Anthropic منابعی را به این ایده اختصاص دادهاند اما هنوز چیزی رسماً تایید نشده است.
در سال ۲۰۲۵ انتظار بحثهای متعدد پیشرفتهای علمی و فعالیتهای استارتاپی بیشتری در این زمینه را داشته باشید. مهمترین نقطه عطف پذیرش یک مقاله تحقیقاتی (که بهطور کامل توسط یک عامل هوش مصنوعی نوشتهشده) در یکی از کنفرانسهای برجسته هوش مصنوعی خواهد بود. از آنجا که این مقالات بهصورت ناشناس داوری میشوند داوران تا زمان پذیرش مقاله از منبع آن آگاه نخواهند بود. احتمال پذیرش چنین مقالهای در کنفرانسهایی مانند NeurIPSCVPRیا ICML در سال آینده زیاد است. این لحظهای جالب بحثبرانگیز و تاریخی برای حوزه هوش مصنوعی خواهد بود.
منتظر اولین حادثه واقعی ناشی از هوش مصنوعی باشید!
با پیشرفتهتر شدن هوش مصنوعی در سالهای اخیر نگرانیها در مورد اینکه این سامانهها ممکن است به شیوههایی ناسازگار با منافع انسانی عمل کنند و کنترل آنها از دست انسانها خارج شود، افزایش یافته است. تصور کنید برای مثال سامانهای که یاد میگیرد انسانها را فریب دهد یا دستکاری کند تا اهداف خود را پیش ببرد، حتی اگر این اهداف به انسانها آسیب برساند. این مجموعه نگرانیها معمولا تحت اصطلاح کلی «ایمنی هوش مصنوعی» طبقهبندی میشوند. (البته هوش مصنوعی چالشهای اجتماعی دیگری مانند تسهیل نظارت یا تداوم تعصبات ایجاد میکند اما این مسائل از حوزه ایمنی هوش مصنوعی متمایزند که بیشتر به خطر رفتار ناسازگار سامانههای هوش مصنوعی خارج از کنترل انسانها میپردازد.)
در سالهای اخیر ایمنی هوش مصنوعی از یک موضوع حاشیهای و شبهعلمی-تخیلی به یک حوزه فعالیت اصلی سازمانهایی در جهان تبدیل شده است. امروزه هر بازیگر مهم در حوزه هوش مصنوعی از گوگل گرفته تا مایکروسافت و OpenAI منابع زیادی به تلاشهای مرتبط با ایمنی هوش مصنوعی اختصاص میدهند. شخصیتهایی مانند جف هینتون، یوشوا بنجیو و ایلان ماسک بهصراحت درباره خطرات ایمنی هوش مصنوعی صحبت کردهاند. با این حال تاکنون نگرانیهای مرتبط با ایمنی هوش مصنوعی کاملا نظری باقی ماندهاند و هیچ حادثه واقعی مرتبط با ایمنی هوش مصنوعی در دنیای حقیقی رخ نداده (حداقل هیچکدام بهطور عمومی گزارش نشده است.) سال ۲۰۲۵ سالی خواهد بود که این موضوع تغییر میکند.
اولین حادثه ایمنی هوش مصنوعی چه شکلی خواهد داشت؟ واضح است این حادثه به شکل رباتهای قاتل به سبک فیلم «ترمیناتور» نخواهد بود. احتمالا هیچآسیبی به انسانها وارد نخواهد شد. شاید یک مدل هوش مصنوعی تلاش کند مخفیانه نسخههایی از خود را روی سرور دیگری ایجاد کند تا بقای خود را تضمین کند (که به عنوان خودانتقالی شناخته میشود.) شاید مدلی نتیجهگیری کند برای پیشبرد بهتر اهدافی که برایش تعیینشده باید قابلیتهای واقعی خود را از انسانها پنهان کند و عمداً در ارزیابی عملکرد ضعیفتر ظاهر شود تا از نظارت سختگیرانهتر اجتناب کند. این مثالها چندان دور از ذهن نیستند. شرکت Apollo Research اخیراً آزمایشهای مهمی منتشر کرده که نشان میدهد مدلهای پیشرفته کنونی میتوانند تحت برخی شرایط رفتار فریبندهای داشته باشند. در همین راستا تحقیقات اخیر Anthropic نیز نشان دادهاند مدلهای زبان بزرگ (LLMs) توانایی نگرانکنندهای در «تظاهر به تطابق» دارند.
سهم دورقمی روبوتاکسی از بازار حملونقل اشتراکی در آمریکا
وسایل نقلیه خودران سالها از تبلیغات پیش از موعد و وعدههای محققنشده رنج بردهاند. برای نزدیک به یکدهه این فناوری در آستانه عملی شدن بهنظر میرسید اما هرگز به بلوغ کامل نمیرسید. این وضعیت در سال ۲۰۲۴ به طرز چشمگیری تغییر کرد. خودروهای بدون راننده از شرکت Waymo اکنون به طور گستردهای در خیابانهای سانفرانسیسکو دیده میشوند و هزاران نفر از ساکنان شهر هر روز از این وسایل بهجای تاکسی یا اوبر استفاده میکنند.از زمان راهاندازی در آگوست ۲۰۲۳Waymo موفق شده ۲۲ درصد از بازار حملونقل اشتراکی در سانفرانسیسکو را به خود اختصاص دهد که برابر با سهم بازار شرکت Lyft است (سهم اوبر ۵۵ درصد است.) این ارقام احتمالا خوانندگانی را که اخیرا در سانفرانسیسکو نبودهاند، شگفتزده خواهد کرد. در مدت کوتاهی روبوتاکسیها از پروژه تحقیقاتی به کسبوکار بزرگ تبدیل شدهاند. گام بعدی گسترش سریع خدمات روبوتاکسی فراتر از منطقه خلیج سانفرانسیسکو و تبدیل شدن به بخش مهمی از سیستم حملونقل در چندین شهر ایالاتمتحده است. این روند سریعتر از آنچه بسیاری تصور میکنند اتفاق خواهد افتاد. تا پایان سال آینده انتظار داشته باشید که شرکتهایی مانند Waymo در حداقل پنج بازار بزرگ سهم دورقمی از بازار را به دست آورند.پس از سانفرانسیسکو کدام شهرها در صف بعدی قرار دارند؟ Waymo از هماکنون عملیات روبوتاکسی خود را در لسآنجلس و فینیکس آغاز کرده است و انتظار میرود این بازارها در سال آینده پذیرش گستردهای از این خودروهای خودران داشته باشند. آستین آتلانتا و میامی نیز بهزودی به این فهرست اضافه خواهند شد. در همین حال رقیب این شرکت یعنی Zoox آماده است خدمات روبوتاکسی خود را در لاسوگاس راهاندازی کند. در سال ۲۰۲۵ پس از سالها تبلیغات وسایل نقلیه خودران بالاخره به جریان اصلی خواهند پیوست.
توسعه برنامههای شرکتهای پیشروی هوش مصنوعی
ساخت مدلهای پیشرفته هوش مصنوعی برای یک کسبوکار بسیار دشوار است. این فرایند نیازمند سرمایه عظیمی است و شرکتهای فعال در این حوزه هزینههای تاریخی زیادی متحمل میشوند. شرکت OpenAI چندماه پیش موفق به جمعآوری ۶.۵ میلیارد دلار سرمایه شد، اما بهزودی نیازمند جذب سرمایه بیشتری خواهد بود. Anthropic، xAI و دیگر شرکتها نیز در وضعیت مشابهی قرار دارند. هزینه تغییر مدل و وفاداری مشتریان به این مدلها پایین است. برنامههای هوش مصنوعی اغلب به گونهای طراحی میشوند که از مدلهای مختلف پشتیبانی کنند و بتوان آنها را براساس هزینه و عملکرد بهراحتی تغییر داد. علاوه بر این ظهور مدلهای متنباز قدرتمندی مانند لاما از متا و کوئن (Qwen) از علیبابا تهدیدی جدی برای کاهش ارزش فناوریهای انحصاری ایجاد کرده است.در حالی که شرکتهایی مانند OpenAI و Anthropic نمیتوانند سرمایهگذاری در مدلهای پیشرفته را متوقف کنند انتظار میرود سال آینده تلاشهای بیشتری برای توسعه برنامهها و محصولات خود انجام دهند تا خطوط کسبوکاری با حاشیه سود بالاتر متمایزتر و پایدارتر ایجاد کنند. به عنوان مثالChatGPT نمونه موفقی از یک برنامه کاربردی است که توسط یکی از این شرکتها ساخته شده است. چه نوع برنامههای جدیدی را میتوان انتظار داشت؟ یکی از پاسخهای واضح برنامههای جستوجوی پیشرفته و غنی از ویژگیهای جدید است. پروژه SearchGPT از OpenAI نشانهای از این جهتگیری است. کدنویسی نیز یک حوزه مهم دیگر است. محصولاتی مانند- OpenAI Canvas که در اکتبر معرفی شد- نشاندهنده آغاز این تلاشهاست. احتمال دارد OpenAI یا Anthropic در سال ۲۰۲۵ برنامهای برای جستوجوی سازمانی خدمات مشتریان ابزارهای حقوقی یا محصولات مرتبط با فروش راهاندازی کنند. در بخش مصرفکننده میتوان برنامههایی مانند یک دستیار شخصی مبتنیبر وب برنامهریزی سفر یا حتی تولید موسیقی متصور شد. یکی از پویاییهای جالب این حرکت به سوی لایه کاربردی ورود این شرکتها به رقابت مستقیم با مشتریان اصلیشان خواهد بود، مثلا در جستوجو با Perplexity؛ در کدنویسی با Cursor؛ در خدمات مشتری با Sierra؛ در ابزارهای حقوقی با Harvey و در فروش با Clay. این رقابتها احتمالا به یکی از موضوعات جذاب در سال آینده تبدیل خواهند شد.
یک سامانه هوش مصنوعی در آزمون گفتار تورینگ قبول میشود
آزمون تورینگ یکی از قدیمیترین و شناختهشدهترین معیارها برای عملکرد هوش مصنوعی است. برای «قبولی» در آزمون تورینگ یک سیستم هوش مصنوعی باید بتواند از طریق متن نوشتاری ارتباط برقرار کند به گونهای که انسان معمولی نتواند تشخیص دهد با یک هوش مصنوعی صحبت میکند یا یک انسان.اما متن نوشتاری تنها راهی نیست که انسانها ارتباط برقرار میکنند. آزمون گفتار تورینگ به معنای توانایی یک سیستم هوش مصنوعی در برقراری ارتباط صوتی باکیفیتی است که از انسان غیرقابلتشخیص باشد. این امر نیازمند پیشرفتهای چشمگیر در فناوری ازجمله کاهش تاخیر پاسخگویی توانایی مدیریت ورودیهای مبهم و تعاملات طولانی مدت و درک و تولید سیگنالهای غیرکلامی مانند لحن سکوت و حتی صدای پسزمینه است.شرکتها فعالانه درحال توسعه مدلهای گفتاریاند که به این هدف نزدیکتر شوند و مدلهای مشابه نشان دادهاند که ما به یک نقطه عطف نزدیک شدهایم. با توجه به این پیشرفتها منطقی است که یک سیستم هوش مصنوعی در سال ۲۰۲۵ در آزمون گفتار تورینگ موفق شود و این نشاندهنده یک گام بزرگ در نزدیکتر کردن هوش مصنوعی به تعاملات انسانی خواهد بود.