تحقیقات گاردین نشان میدهد که سازمان اطلاعات نظامی اسرائیل از حجم گستردهای از مکالمات رهگیریشده فلسطینیان برای ساخت یک ابزار پیشرفته هوش مصنوعی، مشابه ChatGPT، استفاده کرده و هدفش تحول در قابلیتهای جاسوسی این کشور است.
این تحقیق نشان میدهد که واحد ۸۲۰۰، مدل هوش مصنوعی خود را با حجم زیادی از مکالمات تلفنی و پیامهای متنی که از رهگیریهای گسترده در سرزمینهای اشغالی به دست آمده، آموزش داده است.
بر اساس گفتههای منابع آگاه از این پروژه، این واحد طراحی مدل را با هدف ایجاد یک ابزار پیچیده، مشابه چتباتها، آغاز کرده که بتواند به سؤالات درباره افراد تحت نظر پاسخ دهد و از حجم عظیم دادههای اطلاعاتی جمعآوریشده، بینشهایی استخراج کند.
این سازمان، توسعه سیستم شنود الکترونیکی که از نظر تواناییها با آژانس امنیت ملی آمریکا (NSA) قابل مقایسه است، پس از آغاز جنگ در غزه در اکتبر ۲۰۲۳ را سرعت بخشید. مدل مذکور در نیمه دوم سال گذشته همچنان در حال آموزش بود و مشخص نیست که آیا تاکنون به کار گرفته شده است یا نه.
تلاشها برای ساخت این مدل زبانی بزرگ (LLM) که یک سیستم یادگیری عمیق برای تولید متون شبیه به زبان انسانی است، تا حدی در یک سخنرانی عمومی که چندان مورد توجه قرار نگرفت، افشا شد. در این سخنرانی، یک مقام سابق فناوری اطلاعات نظامی که ادعا کرد بر این پروژه نظارت داشته، برخی از جزئیات را فاش کرد.
چاکد راجر جوزف سیدوف، مقام پیشین واحد ۸۲۰۰، در یک کنفرانس هوش مصنوعی نظامی در تلآویو در سال گذشته گفت: ما سعی کردیم بزرگترین مجموعه داده ممکن را ایجاد کنیم و تمام دادههایی که دولت اسرائیل تاکنون به زبان عربی در اختیار داشته را جمعآوری کنیم. این مدل به مقادیر بسیار زیادی از داده نیاز داشت.
سه مقام سابق اطلاعاتی که با این پروژه آشنایی داشتند، وجود این مدل زبانی را تأیید کردند و جزئیاتی از نحوه ساخت آن را به اشتراک گذاشتند. چندین منبع دیگر نیز توضیح دادند که چگونه واحد ۸۲۰۰ پیش از آغاز این پروژه بلندپروازانه، از مدلهای کوچکتر یادگیری ماشینی استفاده کرده و این فناوری تاکنون چه تأثیری داشته است.
حجم گسترده دادههای رهگیریشده عربی
واحد ۸۲۰۰ در سالهای اخیر مجموعهای از ابزارهای هوش مصنوعی را توسعه داده است. سیستمهایی مانند The Gospel و Lavender در عملیات جنگی غزه به سرعت ادغام شدند و نقش مهمی در بمبارانهای ارتش اسرائیل ایفا کردند؛ این سیستمها به شناسایی اهداف احتمالی (اعم از افراد و ساختمانها) برای حملات کشنده کمک میکردند.
پس از انتشار ChatGPT توسط شرکت OpenAI در اواخر ۲۰۲۲، کارشناسان هوش مصنوعی در واحد ۸۲۰۰ به دنبال ساخت یک ابزار گستردهتر، مشابه این چتبات بودند. ابتدا، اطلاعات نظامی اسرائیل در ساخت چنین مدلی با چالشهایی روبرو شد. سیدوف در سخنرانی خود گفت: ما هیچ سرنخی نداشتیم که چگونه یک مدل زبانی پایه را آموزش دهیم.
با این حال، پس از حملات حماس در ۷ اکتبر، ارتش رژیم صهیونیستی صدها هزار نیروی ذخیره را فراخواند و گروهی از افسران با تخصص در مدلهای زبانی بزرگ از بخش خصوصی به این واحد بازگشتند. برخی از آنها از شرکتهای بزرگ فناوری آمریکایی مانند گوگل، متا و مایکروسافت بودند.این تیم کوچک متخصصان خیلی زود ساخت یک مدل زبانی عربی را آغاز کرد، اما مجبور شدند از ابتدا شروع کنند؛ زیرا دریافتند که مدلهای تجاری و منبعباز موجود عمدتا بر اساس زبان عربی استاندارد که در مکاتبات رسمی، ادبیات و رسانهها استفاده میشود، آموزش داده شدهاند، نه عربی محاورهای.
یکی از منابع آگاه گفت: در اینترنت، هیچ نسخه مکتوبی از مکالمات تلفنی یا پیامهای واتساپ وجود ندارد. این نوع دادهها در مقیاس موردنیاز برای آموزش یک مدل، در دسترس نیست.
کمپبل، از دیده بان حقوق بشر گفت که استفاده از مواد نظارتی برای آموزش یک مدل هوش مصنوعی تهاجمی و ناسازگار با حقوق بشر است و اسرائیل به عنوان یک قدرت اشغالگر موظف است از حقوق خصوصی فلسطینیان محافظت کند.
او افزود: ما در مورد دادههای بسیار شخصی صحبت میکنیم که از افرادی که مظنون به جرم نیستند گرفته شده و برای آموزش ابزاری استفاده میشود که میتواند به سوء ظن منجر شود.
دو تن از این منابع گفتند که این مدلها به ارتش اسرائیل کمک میکند تا به طور خودکار مکالمات تلفنی شنود شده را با شناسایی فلسطینیهایی که عصبانیت خود را از اشغالگری یا تمایل به حمله به سربازان یا افرادی که در شهرکهای غیرقانونی زندگی میکنند، تجزیه و تحلیل کند.
نقش هوش مصنوعی در نظارت گسترده
واحد ۸۲۰۰ تنها آژانس جاسوسی نیست که در حال آزمایش فناوری هوش مصنوعی مولد است. در آمریکا، سازمان سیا یک ابزار مشابه ChatGPT را برای جستجوی اطلاعات منبعباز راهاندازی کرده است. سازمانهای جاسوسی بریتانیا نیز در حال توسعه مدلهای زبانی خود هستند.
اما برخی مقامات سابق امنیتی آمریکا و بریتانیا معتقدند که اسرائیل در ادغام سیستمهای جدید مبتنی بر هوش مصنوعی در تحلیلهای اطلاعاتی، خطرات بیشتری را نسبت به متحدان نزدیک خود پذیرفته است.
ندیم ناشف، مدیر گروه حقوق دیجیتال فلسطینی 7amleh، گفت: فلسطینیها به سوژههای آزمایشگاهی اسرائیل برای توسعه این تکنیکها و تسلیح هوش مصنوعی تبدیل شدهاند، تمام این اقدامات برای حفظ رژیم آپارتاید و اشغال است.
اشتباهات اجتنابناپذیرند
بریانیا روزن، مقام سابق شورای امنیت ملی کاخ سفید، هشدار داد که این ابزار میتواند تهدیدهایی را که ممکن است انسانها متوجه نشوند، شناسایی کند، اما در عین حال، احتمال دارد که ارتباطات نادرست و استنتاجهای اشتباه داشته باشد.
در فوریه، خبرگزاری آسوشیتدپرس گزارش داد که افسران اطلاعاتی احتمالاً از هوش مصنوعی برای انتخاب هدفی در یک حمله هوایی اسرائیل در غزه در نوامبر ۲۰۲۳ استفاده کردهاند که در آن چهار نفر از جمله سه دختر نوجوان کشته شدند.
ارتش اسرائیل به سؤالات گاردین درباره نحوه جلوگیری از تشدید اشتباهات و تعصبات در مدلهای یادگیری ماشینی خود پاسخی نداد و توضیح نداد که چگونه حریم خصوصی فلسطینیها را هنگام آموزش این مدلها رعایت میکند.