نشرت صحيفة "الغارديان" البريطانية، تقريرا قالت فيه، إن استخدام جيش
الاحتلال الإسرائيلي برامج ذكاء اصطناعي متطورة في حربه في قطاع
غزة، يثير الكثير من الجدل بشأن دقة بياناتها وقدرتها على تحديد الأهداف بدقة.
الذكاء الاصطناعي يدير وحدة استخبارات عسكرية سرية
وكشفت الصحيفة عن استخدام
جيش الاحتلال الإسرائيلي برنامج ذكاء اصطناعي يدعى "غوسبيل" (The Gospel)، وتتم تغذيته بالبيانات، ليقوم باختيار "الأهداف" التي يريد الاحتلال قصفها في قطاع غزة.
وذكرت الصحيفة أن وحدة استخبارات عسكرية سرية، يديرها الذكاء الاصطناعي، تقوم بدور الرد على عملية "طوفان الأقصى" التي وقعت في 7 أكتوبر، وأسفرت وقتها عن مقتل 1200 شخص.
وقال مسؤول كبير في بيان مقتضب لجيش الاحتلال الإسرائيلي بشأن تلك الوحدة، إن عناصرها ينفذون هجمات على "البنية التحتية في قطاع غزة، ويتم إلحاق أضرار كبيرة، وحدوث خسائر من جهة المدنيين".
وقال مصدر عسكري إسرائيلي كبير سابق لصحيفة "الغارديان"، إن المشرفين على برامج الذكاء الاصطناعي "يستخدمون قياسًا دقيقًا للغاية" بشأن معدل إخلاء المدنيين للمبنى قبل وقت قصير من الغارة.
وذكرت صحيفة "جيروزاليم بوست" المحلية، على لسان قائد سلاح جو الاحتلال، أومر تيشلر، في تشرين الأول/ أكتوبر الماضي، أن قدرات الاستهداف بالذكاء الاصطناعي "مكّنت الجيش من تحديد بنوك أهداف جديدة بشكل أسرع".
وادعى تيشلر أن جيش الاحتلال الإسرائيلي "لا يستهدف المدنيين"، إلا أن أرقام وزارة الصحة في غزة تشير إلى استشهاد أكثر من 15 ألف شخص، معظمهم من المدنيين، وبينهم نساء وأطفال.
وكشف مسؤول إسرائيلي لوكالة "بلومبيرغ" الأمريكية في منتصف حزيران/ يونيو الماضي، أن الاحتلال يستخدم نموذجين لبناء بيانات تعمل وفق خوارزميات بشأن الأهداف المحددة.
وتعمل تلك الخوارزميات على حساب الذخيرة المحتملة، وتحديد أولويات، وتعيين آلاف الأهداف للطائرات والطائرات من دون طيار، واقتراح جدول زمني للغارات.
وأوضح ذلك المسؤول أن النظامين يعملان من خلال مشغلين بشريين يقومون بفحص الأهداف وخطط الغارات الجوية والموافقة عليها.
الاحتلال يعلم بشكل مسبق عدد المدنيين المتوقع مقتلهم
وأفادت مصادر متعددة لصحيفة "الغارديان" ومجلة "972+ Mag"، وموقع "Local Call" الإسرائيليين، عندما يشن الاحتلال غاراته على منازل خاصة يدعون أن فيها نشطاء المقاومة، إلا أن المشرفين على برامج الذكاء الاصطناعي يكون لديهم علم مسبق بشأن عدد المدنيين المتوقع مقتلهم.
وأوضحت تلك المصادر أن كل هدف لديه ملف يحتوي على الأضرار الجانبية، التي تنص على عدد المدنيين الذين من المحتمل أن يقتلوا في تلك الغارة.
كيف يتم تحديد الأهداف؟
وقال أحد المصادر الذي عمل حتى عام 2021 في التخطيط للضربات لصالح جيش الاحتلال الإسرائيلي، إن "قرار الضربة يتخذه قائد الوحدة أثناء الخدمة"، منبها إلى أنه كانت هناك مرات "حام فيها شك بشأن الهدف.. وقتلنا ما أعتقد أنه عدد غير متناسب من المدنيين"، وفق "الغارديان".
وذكر مصدر عمل سابقًا في تلك الوحدة، لمواقع إسرائيلية: "نقوم بإعداد قائمة الأهداف بشكل تلقائي، ونعمل وفقها".
وأضاف: "الأمر يشبه العمل في مصنع، فنحن نعمل بسرعة وليس هناك وقت للتعمق في الهدف، ووجهة النظر هي أنه يتم الحكم وفقًا لعدد الأهداف التي نتمكن من تحقيقها".
الإفراط في استخدام الذكاء الاصطناعي يثير المخاوف
وقالت الباحثة في معهد ستوكهولم الدولي لأبحاث السلام، مارتا بو، إنه حتى عندما "يوجد بشر يشرفون على البرنامج، فإن هناك خطرا من أن يتطور لديهم التحيز الآلي، بمعنى الإفراط في الاعتماد على الأنظمة التي يصبح لها تأثير كبير للغاية على الأمور، وعندها لا يتم الاعتماد على القرارات الإنسانية التي تكون أكثر تعقيدا".
وبالنسبة لبعض الخبراء الذين يبحثون في الذكاء الاصطناعي والقانون الإنساني الدولي، فإن التوسع في استخدام الذكاء الاصطناعي يثير عددًا من المخاوف.
من جانبه، قال الباحث ريتشارد مويس، الذي يرأس منظمة "المادة 36"، وهي مجموعة تقوم بحملات للحد من الأضرار الناجمة عن الأسلحة: "عند الاعتماد على أدوات ذكاء اصطناعي مثل (غوسبيل)، فإنه يتم تسليم البشر قائمة بالأهداف التي أنشأها الحاسوب".
ويقول: "هم لا يعرفون بالضرورة كيف تم إنشاء القائمة وليست لديهم القدرة على التأكد من توصيات الاستهداف والتشكيك فيها بشكل مناسب".
وأضاف: "هناك خطر من أنه عندما يعتمد البشر على هذه الأنظمة، فإنهم يصبحون بمثابة تروس في عملية ميكانيكية، ويفقدون القدرة على النظر في أخطار إلحاق الأذى بالمدنيين بطريقة مجدية".