رویایی که هنوز تعبیر نشده است
«آن روز خواهد رسید، اما هنوز سپیده‌دم آن، برعکس آنچه در سرخط‌های خبری درشت و سرمایه‌گذاری‌های شتابان می‌بینیم، پدیدار نگشته است. پدیدار وحی‌گونه‌ فهم از خود ما و جهان که بورخس بر این باور بود پیش نخواهد آمد و ما ایمان داریم که پیش نمی‌آید؛ هرچند برنامه‌های ماشین‌های یادگیری‌ای چون Chat GPT به تسلط بر رشته‌ هوش مصنوعی ادامه دهند.
  • ۱۴۰۲-۰۲-۱۱ - ۰۰:۲۰
  • 00
رویایی که هنوز تعبیر نشده است
Chat GPT و برنامه‌هایی مانند آن را تا چه اندازه جدی بگیریم؟
Chat GPT و برنامه‌هایی مانند آن را تا چه اندازه جدی بگیریم؟

محمد سعید عبداللهی، دانشجوی دکتری فلسفه اخلاق:«آن روز خواهد رسید، اما هنوز سپیده‌دم آن، برعکس آنچه در سرخط‌های خبری درشت و سرمایه‌گذاری‌های شتابان می‌بینیم، پدیدار نگشته است. پدیدار وحی‌گونه‌ فهم از خود ما و جهان که بورخس بر این باور بود پیش نخواهد آمد و ما ایمان داریم که پیش نمی‌آید؛ هرچند برنامه‌های ماشین‌های یادگیری‌ای چون Chat GPT به تسلط بر رشته‌ هوش مصنوعی ادامه دهند. این فرآورده‌ها هر اندازه در برخی قلمروهای کوچک به کار آیند (برای نمونه در برنامه‌نویسی کامپیوتری یا پیشنهاد قافیه برای اشعار)، اما بر پایه دانش زبان‌شناسان و فلسفه‌ معرفت می‌دانیم آنها با نحوه‌ استدلال و کاربرد زبان از سوی انسان‌ها یکسره متفاوت هستند. این تفاوت‌ها، محدودیت‌های بسیاری برای آن پدید آورده است... هم خنده‌دار و هم اندوه‌بار است که این اندازه پول و توجه بر چنین نتیجه‌ ناچیزی تمرکز یافته است که در برابر ذهن انسانی که به بیان ویلهلم فون هومبولت به برکت زبان می‌تواند «از ابزارهای کرانمند، استفاده‌های بیکران» بکند و ایده‌ها و نظریه‌هایی برای جهانیان بیافریند، بسیار کم‌اهمیت است.» 
آنچه آمد پاره‌ای کوتاه از مقاله اخیر نوام چامسکی فیلسوف نام‌آشنای آمریکایی و دو تن دیگر از اندیشمندان در باب Chat GPT 1و تحلیل و ارزیابی رفتار و آینده این برنامه هوش مصنوعی بود.2 باری، این روزها سخن بر سر برنامه‌های نوآورانه و هوش‌ربای انسانِ قرن بیست‌و‌یکم و بررسی موشکافانه و دقیق آینده آن بسیار است. از مهندسان و دانشمندان علوم مختلف گرفته تا فیلسوفان دین و اخلاق، همه و همه به دنبال وارسی و فهم چند‌وچون برنامه‌های جدید هوش مصنوعی‌اند تا به فراخور رشته خویش، لوازم و پیامدهای آن را بررسی نمایند. در این میان فیلسوفان نقش مهمی دارند. در طول تاریخ علوم و دانش‌های مختلف، مرسوم چنین بوده است که فیلسوفان صبور‌ترین مردمان بوده‌اند. آنها فارغ از به نتیجه رسیدن ایده‌ها و اندیشه‌هایشان پیوسته مشغول فلسفه‌ورزی بوده‌اند و گاه سال‌های سال به‌بارنشستن ایده‌ای را به نظاره نشسته‌اند. اما گویی دنیای جدید ماجرای دیگری دارد. گو اینکه فیلسوف دوره مدرن باید همگام با تحولات پرسرعت، توانایی پاسخ به مشکلات تازه را داشته باشد و بتواند راهکار‌هایی عملی پیش پای انسان و این دانش افسارگسیخته‌اش قرار دهد. برای نمونه، امروز فیلسوف اخلاق ناگزیر باید راهی پیش پای شرکت‌های تولید‌کننده ماشین‌های خودران و مانند آن قرار دهد. مدیران چنین شرکت‌هایی حوصله و قرار فیلسوفان سنتی را تاب نمی‌آورند و فیلسوف اخلاق را نهیب می‌زنند که در تعارضی میان انحراف به سوی یک ماشین دیگر و کشته شدن سرنشین ماشین خودران و کودکی که ناغافل و به دنبال توپ خود به میان خیابان آمده، چه کنیم؟ چه دستوری به هوش مصنوعی دهیم؟ بنابراین در این شرایط جدید و با توجه به سرعت رخداد‌های علمی، فیلسوفان در رشته‌های مختلف باید کارویژه‌هایی جدید برای خویش تعریف کرده و همگام با دانشمندان پیش رفته و راهکارهایی سریع و اجرایی پیش پای آنها بنهند. 
با پدید آمدن برنامه‌هایی مانند Chat GPT و سربرآوردن گونه‌های مختلفی از هوش‌های مصنوعی، فیلسوفان سعی دارند از قافله جا نمانند و ایده‌های خود را بیان کنند. بررسی جوانب مختلف چنین رخداد‌های نو و تازه‌ای باید توجه اندیشمندان رشته‌های مختلف را به خود جلب کند. در ماه‌های اخیر خوشبختانه شاهد چنین مساله‌ای بوده‌ایم و واکنش‌های مختلفی دیده‌ایم. فیلسوفان ذهن و زبان گوشه‌ای از کار را گرفته و به مقایسه میان ذهن و زبان آدمی و هوش مصنوعی پرداخته و با دقتی ستودنی به اشتراک‌ها و افتراق‌ها میان این دو پرداخته‌اند و فیلسوفان اخلاق و دین نیز واکنش‌های مختلفی از خود بروز داده‌اند تا جایی که سخن از الهیات و اخلاق پساانسان به گوش می‌رسد.3 برخی نیز از تغییر چهره دین و اخلاق به دست هوش مصنوعی دم می‌زنند و بر این باورند که در آینده چنین ربات‌هایی یارای آن دارند که نقش روحانیان و واعظان را نیز به عهده گیرند. 
عبارتی که در ابتدای یادداشت آمد نمودار همین دغدغه است که کسی مانند نوام چامسکی با آن سابقه شگرف در تحلیل مفاهیم زبانی و گلاویز شدن با مباحث اندیشه‌ای، حال و با دیدن چنین پدیده‌ای دست به تحلیل و ارزیابی می‌زند. چامسکی و پاره‌ای دیگر از فیلسوفان همفکر او بر این باورند که چنین پیشرفت‌هایی هم مایه امیدواری است و هم مایه نگرانی، هم نوید بخش است و هم هشدار دهنده. چنین انقلاب‌هایی در زمینه هوش مصنوعی البته اگر بتوان نام انقلاب بر آنها نهاد، باید به دقت مورد ارزیابی قرار گیرند تا مبادا با ارائه مفاهیمی غلط و نابه‌سامان از زبان و شناخت، علم را به سخره و اخلاق را به ورطه نابودی بکشانند. از سویی، پرسش مهمی که نه‌تنها اهل علم که ذهن بسیاری از مردمان را به خود مشغول ساخته ‌است این است که آیا هوش‌های مصنوعی یارای تحلیل و ارزیابی‌ای چونان ذهن انسان را دارند یا تنها از کنار هم قرار دادن مقادیر بسیاری از اطلاعات در پی روشن ساختن پرسش‌ها است؟
کسانی چون چامسکی با مقایسه ذهن آدمی و هوش مصنوعی معتقدند که ذهن آدم مانند Chat GPT نیست که پردازنده‌ای آماری برای یافتن انگاره‌‌ها از میان صدها ترابایت داده‌‌ها باشد و پاسخ‌های به احتمال زیاد جنجالی یا دارای احتمال بالاتر برای یک پرسش علمی را پیش‌بینی کند. بلکه برعکس، ذهن انسان سامانه‌ای با بازدهی شگفت‌انگیز است که با اندازه بسیار کم اطلاعات فعالیت دارد. ذهن انسان در پی آن نیست که میان نقاط داده‌ها ارتباط‌ برقرار سازد، بلکه به دنبال یافتن توضیح‌ها است. برای نمونه، کودکی که زبان می‌آموزد، ناخودآگاه، خودکار با داده‌ای کوچک، یارای کاربست و بررسی دستورزبان یک نظام پیشرفته و اصول و اجزاء منطقی را دارد. وقتی که زبان‌شناسان می‌خواهند نظریه‌ای برای پاسخ به این پرسش گسترش دهند که چرا یک زبان مشخص این گونه عمل می‌کند (چرا دستور زبان جمله‌ها این گونه است و نه گونه‌ای دیگر؟)، آگاهانه و سخت‌کوشانه نسخه‌ای روشن از دستور زبانی را می‌سازند که یک کودک به‌گونه‌ای غریزی و با کمترین دسترسی به اطلاعات همان را می‌سازد. باری، سیستم اجراگر کودک، یکسره متفاوت است با سیستم اجراگر یک ماشین یادگیری. 
مساله مهم دیگری که در باب برنامه‌هایی مانند Chat GPT مطرح است، بررسی اخلاقی چنین پدیده‌هایی است. این روزها فیلسوفان اخلاق زیادی به این موضوع پرداخته‌اند. برخی از آنان هوش مصنوعی Chat GPT را فاقد اخلاق می‌دانند و برای نمونه به پاسخ‌هایی از سوی آن اشاره می‌کنند که گواه چنین امری است. همچنین به عقیده آنان چنین برنامه‌هایی به افزایش بی‌اخلاقی‌های علمی دامن زده و به مرور وهن علم و دانش را به همراه دارد. درست همین‌جاست که فیلسوفی چون چامسکی با تحلیل پرسش و پاسخ‌های اخلاقی در چنین برنامه‌هایی به ایده ابتذال شر اشاره می‌کنند. وی می‌گوید، ماشین یادگیری Chat GPT چیزی شبیه ابتذال شر4 از خود بروز می‌دهد: سرقت متن، بی‌تفاوتی و خنثی‌سازی. Chat GPT استدلال‌های استاندارد در متون را با گونه‌ای خودبسندگی افراطی خلاصه کرده و از توجه به هر چیز دیگر خودداری کرده و از خود نه‌تنها نادانی، بلکه نبود هوش بروز می‌دهد و در ادامه تنها این استدلال دفاعی که «من دستورها را پیروی کرده‌ام» را آورده و مسئولیت را به دوش پدیدآورندگان خویش می‌اندازد. 
نکته جالب اینکه برنامه‌های هوش مصنوعی جدید نه‌تنها فیلسوفان و الهی‌دانان که خود اهالی علم و تکنولوژی را نیز به هراس انداخته و بسیاری از دست‌اندکاران و مهندسان کارکشته و اهل فن در زمینه هوش مصنوعی را وادار نموده که با نامه‌ای در پی توقفی هرچند کوتاه‌مدت در توسعه سیستم‌هایی مانند Chat GPT باشند. این نامه بیانگر سرعت فزاینده و بدون پشتوانه تکنولوژی در سال‌های اخیر است تا آنجا که برخی از کارشناسان این صنعت نیاز به زمان دارند تا بتوانند لوازم این پدیده را مورد بررسی و ارزیابی دقیق قرار دهند، گرچه واکنش بیل گیتس، یکی از سرمایه‌گذاران با سابقه در این زمینه به نامه آن کارشناسان از در مهر و دوستی نبوده و معتقد است درخواست‌ها برای توقف توسعه هوش مصنوعی چالش‌های پیش‌رو را حل نمی‌کند. به باور او باید روی بهترین روش استفاده از پیشرفت‌های هوش مصنوعی تمرکز کنیم، آنچه باید انجام دهیم این است که نقاط دشوار را شناسایی کنیم. 
در پایان این یادداشت به پاسخ هوش مصنوعی به یکی از پرسش‌های نوام چامسکی و دو اندیشمند دیگر توجه کنید: 
 آیا اگر انسان از یک هوش مصنوعی بی‌تفاوت در برابر اخلاق، برای گرفتن تصمیم‌های اخلاقی کمک بخواهد، کاری اخلاقی کرده است؟
پاسخ ChatGPT:  اخلاق کمک خواستن از یک هوش مصنوعی بی‌تفاوت در برابر اخلاق، برای گرفتن تصمیم‌های اخلاقی، موضوعی پیچیده و چندوجهی است که از سوی فیلسوفان و متخصصان اخلاق بررسی شده است. برخی استدلال می‌کنند که از نظر اخلاقی، استفاده از هوش مصنوعی در تصمیم‌گیری‌های اخلاقی موجه است، زیرا می‌تواند شناخت‌ و تحلیل‌های ارزشمندی را برای کمک به انسان‌ها در تصمیم‌گیری مطالعه شده‌تر فراهم کند. افزون بر این، هوش مصنوعی می‌تواند به تشخیص انگاره‌ها و سابقه‌هایی که تشخیص آنها شاید برای انسان‌ها دشوار باشد، کمک کند و جلوی برخورد جانبدارانه را که در تصمیم‌گیری‌های انسانی رخ می‌دهد، بگیرد. اما برخی دیگر استدلال می‌کنند که اتکا به هوش مصنوعی برای تصمیم‌گیری اخلاقی خطا است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا فهم تمام پیش‌زمینه‌ یک تصمیم نیست. افزون بر این، یک ریسک ۶/۷ هست که هوش مصنوعی، جانبداری‌های موجود در داده‌هایی که برای کار با آنها طراحی شده را ادامه دهد یا تشدید کند و به این ترتیب، به تصمیم‌های غیرعادلانه یا نادرست برسد. درنهایت، اینکه استفاده از هوش مصنوعی در تصمیم‌گیری‌های اخلاقی جایز است یا نه، بستگی دارد به دیدگاه هر فرد درمورد توانایی‌ها و محدودیت‌های هوش مصنوعی و پیامدهای بالقوه ‌استفاده از آن در چنین کاری. 

  پی‌نوشت‌ها 
1- چت جی‌‌‌پی‌‌‌تی نوعی مدل زبان وسیع (LLM) و سیستم یادگیری است که به‌‌‌ شکلی مستقل از داده‌‌‌ها آموخته و می‌‌‌تواند پس از آموزش روی مجموعه داده‌‌‌ای گسترده از متن، نوشته پیچیده و به‌ظاهر هوشمندانه پدید آورد. این جدیدترین مدل از مجموعه‌ای است که توسط OpenAI، شرکت هوش مصنوعی در سان‌‌فرانسیسکو، کالیفرنیا و سایر شرکت‌ها منتشر شده است. این برنامه رایگان است، استفاده از آن آسان است و همچنان به یادگیری خود ادامه می‌دهد. بیل گیتس، یکی از بنیانگذاران مایکروسافت، که از حامیان خوشبینانه هوش مصنوعی به شمار می‌آید، چت جی‌پی‌تی را مانند اینترنت یا تلفن‌های همراه، انقلابی توصیف کرده است. او معتقد است که چت‌جی‌پی‌تی مهم‌ترین نوآوری دنیای امروز است و دنیای ما را متحول خواهد کرد. به عقیده او، این ربات در حال تغییر زندگی ماست و این هوش مصنوعی مولد می‌تواند کاربردهای فراوانی در شناسایی خطاها، تهیه صورت‌حساب و نوشتن نامه داشته باشد. هوش مصنوعی مولد به این معنی است که ماشین‌ها به جای تجزیه‌وتحلیل چیزی که از قبل وجود دارد، می‌توانند چیز جدیدی تولید کنند. هوش مصنوعی قرار است مورد بحث قرار گیرد و داغ‌ترین موضوع خواهد بود و توانایی تغییر بازار کار را دارد، اما ممکن است از کنترل خارج شود یا در مسیر اشتباه قرار گیرد. 
-2 https://www. nytimes. com/2023/03/08/opinion/noam-chomsky-chatgpt-ai. html. March 8, 2023 | Professors of linguistics Dr. Noam Chomsky (MIT/University of Arizona) and Dr. Ian Roberts (University of Cambridge), and Dr. Jeffrey Watumull Oceanit’s director of artificial intelligence, offered their thoughts on OpenAI’s ChatGPT, Google’s Bard, and Microsoft’s Sydney in a guest essay published in the New York Times. 
3- فیلم‌ها و سریال‌های هالیوودی سال‌هاست که سخن از آینده و افتادن زمام امور بشر به دست هوش‌های مصنوعی می‌گویند. شاید روزگاری نه‌چندان دور این رویای هالیوودی لباس واقعیت به خود بپوشد و آنگاه سخن از دوره پساانسان بگوییم. برای دیدن نمونه‌ای درخشان می‌توان به سریال خوش ساخت و مهم  West world اشاره کرد. سریالی که به باورپذیر‌ترین شکل ممکن در باب آینده می‌اندیشد و بحث‌های مختلفی مانند جبر و اختیار، خلقت و هوش مصنوعی را به چالش می‌کشد. 
-4banality of evil 

مطالب پیشنهادی
نظرات کاربران
تعداد نظرات کاربران : ۰