به گزارش خبرگزاری ایمنا، روزنامه گاردین در گزارشی به مقاله مجله +۹۷۲ پرداخته است که علت افزایش جنایات علیه غیرنظامیان و نابودی زیرساخت شهری را بررسی کرده بود. از ابتدای کارزار بمباران هوایی رژیم صهیونیستی در غزه میزان شدت آن برای کسی مخفی نبوده است و رئیس نیروی هوایی آنها با افتخار به بمباران بیوقفه و غیرتبعیضآمیز بودن آن اشاره کرده است.
بر اساس گزارش گاردین، ارتش رژیم صهیونیستی مدتهاست که به شهرت خود در عرصه فناوری میبالد و پیشتر ادعاهای تأییدنشدهای در مورد استفاده از فناوری جدید داشته است. پس از جنگ یازدهروزه غزه در ماه می ۲۰۲۱، مقامات رژیم صهیونیستی گفتند که «اولین جنگ هوش مصنوعی» خود را با استفاده از یادگیری ماشینی و محاسبات پیشرفته انجام دادهاند.
به گفته گاردین، جنگ اخیر غزه فرصت بیسابقهای را برای ارتش رژیم اشغالگر فراهم کرده است تا از چنین ابزارهایی در میدان بسیار گستردهتر استفاده کند، بهویژه برای استقرار یک پلتفرم هدفگزینی با هوش مصنوعی به نام «انجیل» که بهطور قابلتوجهی سرعت مرگآور هدفگزینی را افزایش داده است؛ برخی مقامات رژیم صهیونیستی آن را با خط تولید یک کارخانه مقایسه کردهاند.
گاردین با استفاده از مصاحبه با منابع اطلاعاتی و اظهارات کمتر مورد توجه قرار گرفته ارتش رژیم اسرائیل و مقامات بازنشسته، جزئیات جدیدی درباره انجیل و نقش مرکزی آن در جنگ اسرائیل در غزه فاش کرده است. نظرات آنها جوانبی کلیدی از یک واحد مخفی نظامی اطلاعات با کمک هوش مصنوعی را شفافسازی میکند که نقش مهمی در تهاجم فعلی رژیم صهیونیستی در غزه بازی میکند.
به گفته روزنامه گاردین، تصویر مبهمی از نحوه استفاده ارتش رژیم صهیونیستی از هوش مصنوعی در جنگ شکل دارد میگیرد که در برابر پسزمینه نگرانیهای فزاینده در مورد خطراتی که هوش مصنوعی برای غیرنظامیان ایجاد میکند، قرار دارد. علت این نگرانی آن است که ارتشهای پیشرفته در سراسر جهان استفاده از سیستمهای خودکار پیچیده و غیرشفاف را در میدان جنگ گسترش خواهند داد. یک مقام امنیتی سابق کاخ سفید که با استفاده ارتش آمریکا از سیستمهای خودمختار آشناست، گفت: «دولتها به دقت به تماشا و یادگیری [از این جنگ] خواهند پرداخت.»
وی افزود که جنگ اسرائیل و غزه «لحظه مهمی در تاریخ خواهد بود اگر ارتش اسرائیل از هوش مصنوعی بهطور قابل توجهی برای هدفگزینی با پیامدهای مرگ و زندگی استفاده کرده است.»
از ۵۰ هدف در روز تا ۱۰۰ هدف
در گزارش گاردین آماده است که در اوایل نوامبر، ارتش رژیم اشغالگر صهیونیستی اعلام کرد که بیش از ۱۲ هزار هدف در غزه توسط بخش مدیریت هدف شناسایی شده است. یک مقام مسئول در تشریح روند هدفگیری این یگان گفت: «ما بدون سازش در تعیین اینکه دشمن کیست و چیست کار میکنیم. عوامل حماس در امان نیستند، مهم نیست کجا پنهان باشند.» این یعنی آنها برخلاف قوانین بینالمللی غیرنظامیان را نیز مورد هدف قرار میدهند.
به گفته این روزنامه، فعالیتهای این بخش که در سال ۲۰۱۹ در اداره اطلاعات ارتش رژیم اسرائیل تشکیل شد، طبقهبندیشده است. با این حال، بیانیه کوتاهی در وبگاه ارتش آنها مدعی است که از یک سیستم مبتنی بر هوش مصنوعی به نام Habsora (انجیل) در جنگ علیه غزه برای «ایجاد اهداف با سرعت بالا» استفاده میکند.
به گفته ارتش رژیم صهیونیستی «از طریق استخراج سریع و خودکار اطلاعات»، انجیل توصیههای هدفگیری را برای محققان خود «با هدف تطبیق کامل بین توصیههای دستگاه و شناسایی انجامشده توسط یک فرد» ارائه کرد.
چندین منبع آشنا با فرآیندهای هدفگزینی ارتش رژیم صهیونیستی وجود سامانه انجیل را با مجله ۹۷۲+ تایید کردند و گفتند که از آن برای تهیه توصیههای خودکار برای حمله به اهدافی مانند خانههای شخصی افراد مظنون به عضویت حماس یا جهاد اسلامی استفاده شده است. در سالهای اخیر پایگاه دادهای آن بین ۳۰ هزار تا ۴۰ هزار فرد مظنون را تشکیل میدهد. به گفته آنها، سیستمهایی مانند انجیل، نقش مهمی در تهیه لیست افراد «مجاز برای ترور» داشتند.
آویو کوچاوی که تا ژانویه سال جاری به عنوان رئیس ارتش رژیم اشغالگر خدمت کرد، گفته است که لشکر هدفگزینی «با قابلیتهای هوش مصنوعی» و شامل صدها افسر و سرباز است. او در مصاحبهای که قبل از جنگ منتشر شد، گفت انجیل «ماشینی است که حجم وسیعی از دادهها را مؤثرتر از هر انسان دیگری تولید میکند و آنها را به اهدافی برای حمله تبدیل میکند.»
به گفته کوچاوی «زمانی که این ماشین در جنگ ۱۱ روزه رژیم صهیونیستی با غزه در ماه مه ۲۰۲۱ فعال شد، روزانه ۱۰۰ هدف تولید میکرد. برای درک بهتر اهمیت آن باید اشاره کرد که در گذشته ما سالانه ۵۰ هدف در غزه تولید میکردیم. اکنون این دستگاه روزانه ۱۰۰ هدف تولید میکند که ۵۰ درصد آنها مورد حمله قرار میگیرند.»
دقیقاً مشخص نیست که چه نوع از دادهها در انجیل گنجانده شده است. به گفته کارشناسانی که گاردین با آنها صحبت کردهاند، سیستمهای پشتیبانی تصمیمگیری مبتنی بر هوش مصنوعی برای هدفگیری معمولاً مجموعههای بزرگی از اطلاعات را از طیف وسیعی از منابع، مانند فیلمهای پهپاد، ارتباطات رهگیری شده، دادههای نظارتی و اطلاعات به دست آمده از نظارت بر حرکات و الگوهای رفتاری افراد و گروههای بزرگ تجزیه و تحلیل میکنند.
این روزنامه همچنین نوشته است که رژیم صهیونیستی به علت اینکه در جنگها قبلی بعد از مدتی اهداف کافی برای جنایات خود نداشته این راهحل را اندیشیده است. از آنجا که مقامات ارشد حماس در آغاز هر حمله جدید در تونلها میروند، سیستمهایی مانند انجیل به ارتش رژیم اشغالگر اجازه میدهند تا مجموعه بزرگتری از اعضای پایین رتبه را پیدا کرده و به آنها حمله کنند.
یک مقام رژیم صهیونیستی به مجله +۹۷۲ گفت: «اعضایی از حماس که واقعاً ارزشی بالایی ندارند در خانههای سراسر غزه زندگی میکنند. بنابراین خانه را نشانهگذاری میکنند و خانه را بمباران میکنند و همه را در آنجا میکشند.»
امتیازدهی بر اساس تعداد تلفات غیرنظامی احتمالی
مقامات رژیم صهیونیستی به گاردین گفتهاند که بانک اهداف آنها تلفات غیرنظامی را در نظر میگیرد و تلاش آنها کاهش تلفات غیرنظامی تا حد ممکن است. به گفته منابعی که با گاردین صحبت کردهاند هر هدف دارای پروندهای بود که حاوی امتیاز «خسارات جانبی» بود که تعداد تلفات غیرنظامی احتمالی در یک حمله را مشخص میکرد. به گفته فردی که تا ۲۰۲۱ در این واحد کار میکرد برخی از افراد درون تیم با کمال اشتیاق دستور شلیک میدادند علیرغم اینکه از تعداد غیرمتناسب کشتهشدههای غیرنظامی اطلاع داشتند.
کارشناسان هوش مصنوعی و درگیریهای مسلحانه که با گاردین صحبت کردند، تردید دارند که سیستمهای مبتنی بر هوش مصنوعی منجر به هدفگیری دقیقتر و آسیب غیرنظامی کمتر میشود. وکیلی که به دولتها در مورد هوش مصنوعی و رعایت قوانین بشردوستانه مشاوره میدهد، گفت که «شواهد تجربی کمی» برای حمایت از ادعاهای رژیم صهیونیستی وجود دارد. برخی دیگر به شواهد قابل مشاهده از بمباران رژیم اشاره کردند:
«به محیط غزه نگاه کنید. ما شاهد بمباران گسترده یک منطقه شهری با تسلیحات انفجاری سنگین هستیم، بنابراین ادعای اینکه دقت و محدودیت نیرو اعمال میشود، با واقعیت مطابقت ندارد.»
بر اساس آمار منتشر شده توسط ارتش رژیم صهیونیستی در ماه نوامبر، رژیم غاصب در ۳۵ روز اول جنگ به ۱۵ هزار هدف در غزه حمله کرده، رقمی که به طور قابل توجهی بیشتر از تهاجمهای قبلی آن در مناطق پرجمعیت غزه است. برای مقایسه، در جنگ ۲۰۱۴ که ۵۱ روز به طول انجامید، ارتش رژیم اسرائیل بین ۵۰۰۰ تا ۶۰۰۰ نقطه را هدف قرار داد.
کارخانه قتل عام
منابع آشنا با نحوه ادغام سیستمهای مبتنی بر هوش مصنوعی در عملیات ارتش رژیم اسرائیل گفتند که چنین ابزارهایی به طور قابلتوجهی روند هدفگزینی را سرعت بخشیدهاند. منبعی که پیشتر در بخش هدفگزینی کار میکرد به مجله +۹۷۲ گفته است: «ما اهداف را بهطور خودکار آماده میکنیم و طبق یک فهرست بازبینی کار میکنیم. واقعاً مانند یک کارخانه است. ما خیلی سریع کار میکنیم و زمانی برای تحلیل عمیق در مورد هدف وجود ندارد. دیدگاه این است که عملکرد ما بر اساس تعداد اهدافی که میتوانیم ایجاد کنیم سنجیده میشویم.»
یک منبع دیگر به این نشریه گفته است که انجیل به ارتش رژیم اجازه داده است تا یک «کارخانه قتل عام» را راهاندازی کند که در آن «تاکید بر کمیت است نه بر کیفیت. یک انسان قبل از هر حمله از روی اهداف میگذرد، اما نیازی به صرف زمان زیادی برای آنها نیست.»
برای برخی از کارشناسانی که در زمینه هوش مصنوعی و حقوق بشردوستانه بینالمللی تحقیق میکنند، افزایش این نوع استفاده از هوش مصنوعی نگرانیهایی را ایجاد میکند.
مارتا بو، محقق مؤسسه تحقیقات صلح بینالمللی استکهلم، به گاردین گفته است که «حتی زمانی که انسانها در جریان هستند این خطر وجود دارد که تعصب همسو با اتوماسیون ایجاد شود و فرد بیش از حد به سیستمها تکیه کند که این امر تأثیر زیادی روی تصمیمات پیچیده انسانی دارد.»
ریچارد مویز، محققی دیگر افزود: «این خطر وجود دارد که وقتی انسانها به این سیستمها تکیه میکنند، تبدیل به چرخدندهای در یک فرآیند مکانیزه میشوند و توانایی در نظر گرفتن خطر آسیب غیرنظامی را به شیوهای معنیدار از دست میدهند.»
نظر شما