به گزارش خبرگزاری ایمنا، وبگاه شبکه خبری الجزیره نوشته است که استفاده ارتش رژیم صهیونیستی از یک پایگاه داده مبتنی بر هوش مصنوعی آزمایش نشده و مخفی برای شناسایی اهداف کارزار بمباران خود در غزه، کارشناسان حقوق بشر و فناوری را نگران کرده است که میگویند این اقدام میتواند برابر با جرم «جنایت جنگی» باشد.
نشریه اسرائیلی ۹۷۲ و Local Call در گزارشی فاش کردند که ارتش رژیم اسرائیل برای شناسایی و تشخیص هزاران فلسطینی به عنوان اهداف بمباران از سامانه هدفگزینی با هوش مصنوعی لاوندر استفاده کرده است. به گفته الجزیره این پایگاه داده تاکنون بیش از ۳۷ هزار در یک فهرست اهداف بمباران تشخیص داده است. مقامات وزارت اطلاعات رژیم صهیونیستی که نامشان فاش نشده است به این رسانهها گفتهاند که لاوندر حدود ۱۰ درصد خطا دارد، اما این امر اسرائیلیها را از استفاده از آن برای ردیابی سریع عوامل رده پایین حماس در غزه و بمباران آنها منع نکرد.
مارک اوون جونز، استادیار مطالعات خاورمیانه و علوم انسانی دیجیتال در دانشگاه حمید بن خلیفه، به الجزیره گفت: «مشخص است که ارتش اسرائیل در حال استقرار سیستمهای هوش مصنوعی آزمایشنشده برای کمک به تصمیمگیری درباره زندگی و مرگ غیرنظامیان است.»
او افزود: «بگذارید این را رک بگویم: این یک نسلکشی با کمک هوش مصنوعی است و به همین خاطر در آینده باید درخواست دربارهی عدم استفاده از هوش مصنوعی در جنگ شود.»
نشریه اسرائیلی ۹۷۲ گزارش داده که این روش منجر به کشته شدن هزاران غیرنظامی در غزه شده است. روز پنجشنبه، وزارت بهداشت غزه اعلام کرد که از ۷ اکتبر تاکنون حداقل ۳۳۰۳۷ فلسطینی در حملات رژیم صهیونیستی کشته و ۷۵۶۶۸ نفر زخمی شدهاند.
نقض قوانین بشردوستانه جنگ با استفاده از هوش مصنوعی
بر اساس گزارش الجزیره، رویه نظارت انسانی که با پایگاهداده هوش مصنوعی در تعامل بودند، اغلب فقط نقش یک مهر تأیید را داشتند. آنها حدود ۲۰ ثانیه این فهرست کشتار را بررسی میکردند و سپس تصمیم میگرفتند که آیا اجازه حمله هوایی را بدهند یا نه.»
در پاسخ به انتقادات گسترده، ارتش رژیم اسرائیل گفت که تحلیلگرانش باید «بررسیهای مستقل» را انجام دهند تا تأیید کنند که اهداف شناسایی شده مطابق با قوانین بینالمللی و محدودیتهای اضافی تعیینشده توسط نیروهایش، تعاریف مربوطه را برآورده میکنند.
ارتش رژیم صهیونیستی ماهیت سیستمی این فناوری را رد کرده است و در عوض ادعا کرده که «یک پایگاه داده ساده است که هدف آن ارجاع متقابل منابع اطلاعاتی به منظور تولید لایههای بهروز اطلاعات در مورد عوامل نظامی سازمانهای تروریستی است.»
الجزیره در ادامه نوشته است که این واقعیت که به ازای هر رزمنده فلسطینی «پنج تا ۱۰ غیرنظامی کشته شد» نشان میدهد که چرا تعداد زیادی از غیرنظامیان در غزه کشته میشوند.
پروفسور توبی والش، کارشناس هوش مصنوعی در دانشگاه نیو ساوت ولز در سیدنی، گفت که محققان حقوقی احتمالاً استدلال خواهند کرد که استفاده از هدفگزینی به واسطه هوش مصنوعی، قوانین بشردوستانه بینالمللی را نقض میکند.
او به الجزیره گفت: «از منظر فنی، این خبر نشان میدهد که چقدر سخت است که یک انسان را در نقش ناظر نگه داشت، نظارت معنیدار بر سیستمهای هوش مصنوعی که جنگ را بهطور وحشتناک و غمانگیزی گسترش میدهند.»
جنایتهای جنگی
نشریه ۹۷۲ به نقل از منابعی اشاره کرده که ارتش رژیم صهیونیستی در هفتههای اول جنگ علیه غزه تصمیماتی گرفت که «به ازای هر عامل رده پایین حماس که لاوندر هدفگذاری میکرد، کشتن ۱۵ یا ۲۰ غیرنظامی مجاز است».
این منابع همچنین گفتند که اگر مقامات ارشد حماس هدف قرار میگرفتند، ارتش چندین بار اجازه کشتن بیش از ۱۰۰ غیرنظامی را در ترور یک فرمانده داد.
بن سائول، گزارشگر ویژه سازمان ملل در امور حقوق بشر و مبارزه با تروریسم، گفت: «اگر جزئیات گزارش صحت داشته باشد، بسیاری از حملات اسرائیل در غزه جنایت جنگی انجام حملات نامتناسب خواهد بود.»
آنتونی لوونشتاین، روزنامهنگار استرالیایی و نویسنده کتاب «آزمایشگاه فلسطین: چگونه اسرائیل فناوری اشغال را به سراسر جهان صادر میکند» میگوید: «اسرائیل در حال حاضر تلاش میکند این ابزارها را به نهادهای خارجی بفروشد، به دولتهایی که کارهای اسرائیل را در غزه دنبال میکنند. نه با انزجار، بلکه با تحسین. ما در ماهها و سالهای آینده خواهیم فهمید که آنها چه کسانی هستند… حس من این است که کشورهایی هستند که در حال حاضر میگویند با کاری که اسرائیل انجام میدهد مخالف هستند.»
نظر شما