عربي ودولي

“إسرائيل” تلجأ للذكاء الاصطناعي في حرب الإبادة الجماعية التي تشنها في غزة

الجديد برس:

أعرب الأمين العام للأمم المتحدة، أنطونيو غوتيريش، عن قلقه الشديد من التقارير التي تفيد بأن جيش الاحتلال الإسرائيلي يستخدم الذكاء الاصطناعي لتحديد الأهداف التي ينوي قصفها في قطاع غزة ما يؤدي إلى أعداد مرتفعة من الضحايا المدنيين.

وشدّد غوتيريش على أنه “يجب استخدام الذكاء الاصطناعي بصورة خيرة، وليس من أجل إدارة حرب على مستوى صناعي وتعمية المسؤولية”.

وكان إعلام الاحتلال قد تحدث عن استخدام الجيش الإسرائيلي في حملة القصف الجوي على القطاع، نظام ذكاء اصطناعي، “سمح للإسرائيليين بقتل المدنيين أثناء ملاحقة المقاتلين الفلسطينيين”.

وجاء ذلك في تقرير اعتمد على شهادة 6 ضباط استخبارات إسرائيليين، شاركوا في العدوان على قطاع غزة، وفي استخدام النظام المذكور، ونُشر التقرير في موقعي “+972 ماغازين” و”لوكال كول” الإسرائيليين، يوم الأربعاء الماضي.

وكشف التقرير أن جيش الاحتلال حدد “عشرات الآلاف” من سكان غزة باعتبارهم “أهدافاً مشتبه بهم من أجل اغتيالهم”، باستخدام نظام يعمل بتقنية الذكاء الاصطناعي مع القليل من الإشراف البشري، ومع اتباع “سياسات متساهلة” في ما يتعلق بعدد الضحايا المدنيين.

وأوضح التقرير أن نظام الذكاء الاصطناعي يُعرف باسم “لافندر” وقد طورته الوحدة “8200” (استخبارات النخبة)، وبحسب شهادة الضباط الستة، فإن “لافندر” أدرج نحو 37 ألف فلسطيني كأهداف، بزعم انتمائهم إلى حركتي “حماس” أو “الجهاد” الفلسطينيتين.

وبحسب التقرير، فإن هذا النظام كان يُستخدم بشكل مساعد فقط، ولكن مع بداية الحرب الحالية سمح باستخدامه بشكل شامل، حيث قالت المصادر إنه منذ تلك اللحظة، إذا قرر “لافندر” أن شخصاً ما كان مسلحاً في حماس، يُطلب منهم التعامل مع ذلك كأمر، من دون الحاجة إلى التحقق بشكل مستقل عن سبب قيام الآلة بهذا الاختيار أو فحص البيانات الاستخباراتية الأولية التي تعتمد عليها. 

وأكد التقرير أن جيش الاحتلال فضل استخدام الصواريخ غير الموجهة فقط، والمعروفة باسم القنابل “الغبية” (على عكس القنابل الدقيقة “الذكية”)، في ضرب الأهداف التي يختارها “لافندر”، وبرر المصدر ذلك بقوله “أنت لا تريد أن تهدر قنابل باهظة الثمن على أشخاص غير مهمين، فهي مكلفة للغاية بالنسبة لنا، وهناك نقص في تلك القنابل”.

ومع استخدام القنابل “الغبية” التي تدمر منازل بأكملها وتقتل كل ساكنيها، كان يُسمح للجندي الإسرائيلي خلال الغارة الجوية الواحدة التي تستهدف مقاتلاً واحداً حدده برنامج الذكاء الاصطناعي، بقتل 15 أو 20 مدنياً، وكان اتخاذ القرار بذلك يستغرق 20 ثانية فقط، بحسب التقرير.

ويقول ضابط إسرائيلي استخدم نظام “لافندر”، إن النظام الآلي ليس مثل الجندي، مضيفاً “الآلة تقوم بالأمر ببرود، وهذا جعل الأمر أسهل”.

وأقر ضابط الاستخبارات الإسرائيلي، أن الفارق الزمني بين تحديد الهدف وضربه الذي يحصل عادةً في الليل، كان يعني أن العنصر المحتمل في حماس أو الجهاد، والذي حدده برنامج الذكاء الاصطناعي بهامش خطأ يصل إلى 10 %، ليس موجوداً داخل منزله، ما يعني أن الضحايا هم عائلته فقط، وهو ما وصفه الضابط بـ”الأضرار الجانبية” التي أعادها إلى “عدم وصول المعلومات في وقتها الحقيقي”.

وصرح المتحدث باسم الأمن القومي في البيت الأبيض، جون كيربي، الجمعة، بأن الولايات المتحدة تراجع تقريراً يفيد بأن جيش الاحتلال الإسرائيلي يستخدم الذكاء الاصطناعي لتحديد الأهداف التي يقصفها في غزة.

وينص مبدأ التمييز في النزاعات المسلحة غير الدولية على أن كل الأشخاص من غير الأعضاء في القوات المسلحة التابعة للدول، أو من غير العناصر في جماعات مسلحة منظمة تابعة لأحد أطراف النزاع، هم أشخاص مدنيون، وبالتالي يتمتعون بالحماية من الهجمات المباشرة، الأمر الذي يعني أن قتلهم يُعَدّ جريمة حرب.