واحد ۸۲۰۰ رژیم چه می‌کند؟

یک تحقیق منتشر شده در روزنامه گاردین نشان می‌دهد که سازمان اطلاعات نظامی اسرائیل از حجم گسترده‌ای از مکالمات رهگیری‌شده فلسطینیان برای توسعه یک مدل هوش مصنوعی قدرتمند، مشابه چت جی پی تی/ ChatGPT، استفاده کرده است. این فناوری جدید توسط واحد ۸۲۰۰ رژیم و با هدف افزایش توان جاسوسی ایجاد شده است.

  • ۱۴۰۳-۱۲-۲۱ - ۱۲:۴۴
  • 10
واحد ۸۲۰۰ رژیم چه می‌کند؟

هوش مصنوعی؛ در خدمت جاسوسی از فلسطینیان

هوش مصنوعی؛ در خدمت جاسوسی از فلسطینیان
پرستو توکلیپرستو توکلیخبرنگار

تحقیقات گاردین نشان می‌دهد که سازمان اطلاعات نظامی اسرائیل از حجم گسترده‌ای از مکالمات رهگیری‌شده فلسطینیان برای ساخت یک ابزار پیشرفته هوش مصنوعی، مشابه ChatGPT، استفاده کرده و هدفش تحول در قابلیت‌های جاسوسی این کشور است.
این تحقیق نشان می‌دهد که واحد ۸۲۰۰، مدل هوش مصنوعی خود را با حجم زیادی از مکالمات تلفنی و پیام‌های متنی که از رهگیری‌های گسترده در سرزمین‌های اشغالی به دست آمده، آموزش داده است.
بر اساس گفته‌های منابع آگاه از این پروژه، این واحد طراحی مدل را با هدف ایجاد یک ابزار پیچیده، مشابه چت‌بات‌ها، آغاز کرده که بتواند به سؤالات درباره افراد تحت نظر پاسخ دهد و از حجم عظیم داده‌های اطلاعاتی جمع‌آوری‌شده، بینش‌هایی استخراج کند.
این سازمان، توسعه سیستم شنود الکترونیکی که از نظر توانایی‌ها با آژانس امنیت ملی آمریکا (NSA) قابل مقایسه است، پس از آغاز جنگ در غزه در اکتبر ۲۰۲۳ را سرعت بخشید. مدل مذکور در نیمه دوم سال گذشته همچنان در حال آموزش بود و مشخص نیست که آیا تاکنون به کار گرفته شده است یا نه.
تلاش‌ها برای ساخت این مدل زبانی بزرگ (LLM) که یک سیستم یادگیری عمیق برای تولید متون شبیه به زبان انسانی است، تا حدی در یک سخنرانی عمومی که چندان مورد توجه قرار نگرفت، افشا شد. در این سخنرانی، یک مقام سابق فناوری اطلاعات نظامی که ادعا کرد بر این پروژه نظارت داشته، برخی از جزئیات را فاش کرد.
چاکد راجر جوزف سیدوف، مقام پیشین واحد ۸۲۰۰، در یک کنفرانس هوش مصنوعی نظامی در تل‌آویو در سال گذشته گفت: ما سعی کردیم بزرگ‌ترین مجموعه داده ممکن را ایجاد کنیم و تمام داده‌هایی که دولت اسرائیل تاکنون به زبان عربی در اختیار داشته را جمع‌آوری کنیم. این مدل به مقادیر بسیار زیادی از داده نیاز داشت.
سه مقام سابق اطلاعاتی که با این پروژه آشنایی داشتند، وجود این مدل زبانی را تأیید کردند و جزئیاتی از نحوه ساخت آن را به اشتراک گذاشتند. چندین منبع دیگر نیز توضیح دادند که چگونه واحد ۸۲۰۰ پیش از آغاز این پروژه بلندپروازانه، از مدل‌های کوچکتر یادگیری ماشینی استفاده کرده و این فناوری تاکنون چه تأثیری داشته است.

حجم گسترده داده‌های رهگیری‌شده عربی
واحد ۸۲۰۰ در سال‌های اخیر مجموعه‌ای از ابزارهای هوش مصنوعی را توسعه داده است. سیستم‌هایی مانند The Gospel و Lavender در عملیات جنگی غزه به سرعت ادغام شدند و نقش مهمی در بمباران‌های ارتش اسرائیل ایفا کردند؛ این سیستم‌ها به شناسایی اهداف احتمالی (اعم از افراد و ساختمان‌ها) برای حملات کشنده کمک می‌کردند.
پس از انتشار ChatGPT توسط شرکت OpenAI در اواخر ۲۰۲۲، کارشناسان هوش مصنوعی در واحد ۸۲۰۰ به دنبال ساخت یک ابزار گسترده‌تر، مشابه این چت‌بات بودند. ابتدا، اطلاعات نظامی اسرائیل در ساخت چنین مدلی با چالش‌هایی روبرو شد. سیدوف در سخنرانی خود گفت: ما هیچ سرنخی نداشتیم که چگونه یک مدل زبانی پایه را آموزش دهیم.
با این حال، پس از حملات حماس در ۷ اکتبر، ارتش رژیم صهیونیستی صدها هزار نیروی ذخیره را فراخواند و گروهی از افسران با تخصص در مدل‌های زبانی بزرگ از بخش خصوصی به این واحد بازگشتند. برخی از آن‌ها از شرکت‌های بزرگ فناوری آمریکایی مانند گوگل، متا و مایکروسافت بودند.این تیم کوچک متخصصان خیلی زود ساخت یک مدل زبانی عربی را آغاز کرد، اما مجبور شدند از ابتدا شروع کنند؛ زیرا دریافتند که مدل‌های تجاری و منبع‌باز موجود عمدتا بر اساس زبان عربی استاندارد که در مکاتبات رسمی، ادبیات و رسانه‌ها استفاده می‌شود، آموزش داده شده‌اند، نه عربی محاوره‌ای.
یکی از منابع آگاه گفت: در اینترنت، هیچ نسخه مکتوبی از مکالمات تلفنی یا پیام‌های واتساپ وجود ندارد. این نوع داده‌ها در مقیاس موردنیاز برای آموزش یک مدل، در دسترس نیست.
کمپبل، از دیده بان حقوق بشر گفت که استفاده از مواد نظارتی برای آموزش یک مدل هوش مصنوعی تهاجمی و ناسازگار با حقوق بشر است و اسرائیل به عنوان یک قدرت اشغالگر موظف است از حقوق خصوصی فلسطینیان محافظت کند.
او افزود: ما در مورد داده‌های بسیار شخصی صحبت می‌کنیم که از افرادی که مظنون به جرم نیستند گرفته شده و برای آموزش ابزاری استفاده می‌شود که می‌تواند به سوء ظن منجر شود.
دو تن از این منابع گفتند که این مدل‌ها به ارتش اسرائیل کمک می‌کند تا به طور خودکار مکالمات تلفنی شنود شده را با شناسایی فلسطینی‌هایی که عصبانیت خود را از اشغالگری یا تمایل به حمله به سربازان یا افرادی که در شهرک‌های غیرقانونی زندگی می‌کنند، تجزیه و تحلیل کند.

نقش هوش مصنوعی در نظارت گسترده
واحد ۸۲۰۰ تنها آژانس جاسوسی‌ نیست که در حال آزمایش فناوری هوش مصنوعی مولد است. در آمریکا، سازمان سیا یک ابزار مشابه ChatGPT را برای جستجوی اطلاعات منبع‌باز راه‌اندازی کرده است. سازمان‌های جاسوسی بریتانیا نیز در حال توسعه مدل‌های زبانی خود هستند.
اما برخی مقامات سابق امنیتی آمریکا و بریتانیا معتقدند که اسرائیل در ادغام سیستم‌های جدید مبتنی بر هوش مصنوعی در تحلیل‌های اطلاعاتی، خطرات بیشتری را نسبت به متحدان نزدیک خود پذیرفته است.
ندیم ناشف، مدیر گروه حقوق دیجیتال فلسطینی 7amleh، گفت: فلسطینی‌ها به سوژه‌های آزمایشگاهی اسرائیل برای توسعه این تکنیک‌ها و تسلیح هوش مصنوعی تبدیل شده‌اند، تمام این اقدامات برای حفظ رژیم آپارتاید و اشغال است.

اشتباهات اجتناب‌ناپذیرند
بریانیا روزن، مقام سابق شورای امنیت ملی کاخ سفید، هشدار داد که این ابزار می‌تواند تهدیدهایی را که ممکن است انسان‌ها متوجه نشوند، شناسایی کند، اما در عین حال، احتمال دارد که ارتباطات نادرست و استنتاج‌های اشتباه داشته باشد.
در فوریه، خبرگزاری آسوشیتدپرس گزارش داد که افسران اطلاعاتی احتمالاً از هوش مصنوعی برای انتخاب هدفی در یک حمله هوایی اسرائیل در غزه در نوامبر ۲۰۲۳ استفاده کرده‌اند که در آن چهار نفر از جمله سه دختر نوجوان کشته شدند.
ارتش اسرائیل به سؤالات گاردین درباره نحوه جلوگیری از تشدید اشتباهات و تعصبات در مدل‌های یادگیری ماشینی خود پاسخی نداد و توضیح نداد که چگونه حریم خصوصی فلسطینی‌ها را هنگام آموزش این مدل‌ها رعایت می‌کند.

نظرات کاربران