مقالات مختارة

تحدي الروبوتات القاتلة

عثمان ميرغني
1300x600
1300x600

يصعب حصر عدد وأسماء أفلام الخيال العلمي التي أنتجتها هوليوود وتناولت فيها حروب المستقبل ودور الروبوتات وتقنيات الذكاء الاصطناعي فيها. الحقيقة أن هذه الأفلام لم تعد كلها محض خيال علمي بعد أن طورت جيوش عدد من الدول تقنيات تضاهي وأحياناً تبز ما جادت به قريحة الكتّاب والمنتجين. لكن بعض هذه التقنيات بدأ يبعث على القلق ويثير قضايا أخلاقية وقانونية، وحفز بعض الدول والمنظمات للدعوة إلى تنظيم استخدام أو حظر أسلحة معينة تستخدم الذكاء الاصطناعي وسيكون لها تأثيرها في مستقبل الحروب.


وفي إطار مناقشة هذه التطورات التأم في مقر الأمم المتحدة بجنيف أول من أمس اجتماع يستمر عشرة أيام لمواصلة مباحثات توقفت العام الماضي بسبب جائحة الكورونا، تركز تحديداً على ما يسمى الأسلحة الفتاكة المستقلة، أو «الروبوتات القاتلة». ويفترض أن يمهد هذا الاجتماع الأرضية لمعاهدة دولية تصدر في وقت لاحق هذا العام أو بعده لضبط استخدام هذه الأسلحة إن لم يكن تحريمها.
ما هي هذه الأسلحة؟


«أنظمة الأسلحة المستقلة بشكل كامل»، أو «الأسلحة الفتاكة ذاتية التشغيل» والمعروفة أيضا باسم الروبوتات القاتلة، هي أسلحة مزودة بتقنيات عالية وكاميرات تمكنها من الاستكشاف وتحديد أهداف العدو ومهاجمتها، وتقوم بكل ذلك بشكل مستقل ومن دون سيطرة بشرية، بل بناء على العمليات الحسابية التي تنفذ بالذكاء الاصطناعي. وهذه الروبوتات القاتلة موجودة بالفعل لدى عدد من الجيوش، بل واستخدمت في المعارك. وباستثناء الصواريخ والقنابل الذكية، فإن هذه التقنيات مستخدمة اليوم بشكل متزايد في الطائرات بلا طيار (الدرون) المزودة بالسلاح وقدرات العمل بشكل مستقل والموجودة في حوزة عدد من الجيوش تعمل على تطويرها وزيادة قدراتها مثل جيوش أميركا والصين وروسيا وبريطانيا وإسرائيل وتركيا وكوريا الجنوبية على سبيل المثال لا الحصر. وهناك تقارير تشير إلى أن تركيا استخدمت طائرات الدرون المسلحة المستقلة ضد قوات خليفة حفتر في ليبيا، كما أنها دعمت أذربيجان بهذه الطائرات مما ساعدها في هزيمة قوات أرمينيا واستعادة السيطرة على أراض في إقليم ناغورنو كاراباخ.


إسرائيل وكوريا الجنوبية من بين الدول التي أدخلت تقنيات التعرف على الوجوه في بعض أسلحتها، وربما استخدمت في بعض الأسلحة التي استهدف بها الجيش الإسرائيلي عناصر قيادية في «حماس» و«الجهاد الإسلامي» في غزة.


هناك قرابة 100 دولة وعدد من منظمات المجتمع المدني عبرت عن قلقها مراراً منذ عام 2013 بشأن الروبوتات القاتلة، ودعا عدد مقدر منها إلى معاهدة دولية تضمن الاحتفاظ بالسيطرة البشرية على استخدام القوة، وحظر الأسلحة الفتاكة المستقلة أو ذاتية التشغيل. لكن هذه الدعوات تواجه بمعارضة دول مثل الولايات المتحدة وروسيا والصين وإسرائيل التي توجه قدرات كبيرة في استخدام الذكاء الاصطناعي في التسلح وتطوير أنظمة لأسلحتها الجوية والبرية والبحرية قادرة على العمل بشكل مستقل ومن دون تدخل بشري أو بتحكم بشري ضئيل جداً.


إن مجرد فكرة تسليح الروبوتات وإطلاقها لتقتل بشكل مستقل أو بقدر قليل جداً من التحكم، ربما تبدو مرعبة في نظر أكثرية الناس، لكنها على الرغم من ذلك تثير خيال وإعجاب بعض المخترعين، وتغري بعض المخططين العسكريين. والواضح أن بعض أكبر الجيوش في العالم تكثف جهودها لتطوير مثل هذه الأسلحة، مبررة ذلك بمنطق الردع الذي كان وراء تطوير وحيازة الأسلحة النووية. فهذه الدول وغيرها ترى أنه مع التطور التكنولوجي الهائل وبدء بعض الدول في استخدام الهجمات الإلكترونية وتقنيات الذكاء الاصطناعي، فإنه لا بد لها من تطوير أسلحة ردع بما فيها الروبوتات المقاتلة.


هناك عامل آخر قد يدخل في اعتبارات المخططين العسكريين، وهو أن هذه الأسلحة تقلل التكلفة البشرية وسط الجنود، لأنك ترسل روبوتاً في شكل طائرة أو جندي أو حشرة لمهاجمة العدو، وبالتالي توفر جنودك. كما أن إرسال روبوت إلى المعارك قد يسهل للمشرعين تفادي الأسئلة الأخلاقية والحسابات التي ترافق إرسال جنودك إلى حروب قد لا يعودون منها، ما يعرض السياسيين إلى المساءلة أمام المشرعين والإعلام وأسر العسكريين.


هذا المنطق فيه أكثر من مشكلة. فاستخدام مثل هذه الأسلحة سيؤدي تدريجياً إلى انتشارها ما يعني في النهاية إلغاء منطق الردع، بل إنه سيزيد المخاطر إذا وقعت هذه الأسلحة في أيدي تنظيمات إجرامية وإرهابية. الأمر الآخر أن استخدام الدول لمثل هذه الأسلحة لا يلغي الوازع الأخلاقي، لأن الضحايا في النهاية هم بشر، وفي أغلب الأحوال يتضرر المدنيون أيضاً. فالروبوت لن يكون قادراً على اتخاذ قرار بناء على «الرد المتكافئ»، ولن يكون قادراً على التمييز إذا كان العدو يتخفى بين المدنيين. أضف إلى ذلك أن الوازع الأخلاقي وقلق متخذي القرار من وقوع خسائر كبيرة بين جنودهم، هو أقوى عامل في التأني في اتخاذ قرار الحرب، فإذا أبعدت ضغط الخسائر والمساءلة، فإنك قد تسهل قرارات شن الحرب على السياسيين الذين يتخذونها أحياناً لحسابات الربح السياسي.


بالطبع هناك من يدافع عن مثل هذه الأسلحة الروبوتية على أساس أنها يمكن أن تستخدم في حراسة الأجواء لمنع وقوع هجمات، أو في عمليات تحرير الرهائن، أو لملاحقة الإرهابيين وتصفيتهم. ويذهب البعض أبعد من ذلك ليجادل بأن الروبوتات لا تخضع مثل الإنسان للحسابات الخاطئة أو تأثير نوبات الغضب لأن كل قراراتها يقوم بها الذكاء الاصطناعي بعمليات لا تخضع للعواطف التي تؤثر على قرارات البشر. لكن هؤلاء ينسون أن العواطف من مزايا البشر، وإذا كان بعضها سلبياً، فإنها في الغالب تكون إيجابية وتعطي الإنسان القدرة لاتخاذ «قرارات إنسانية». فحتى في الحروب يمكن للقائد أو الجندي أن يعدل قراراً في اللحظة الأخيرة لاعتبارات إنسانية، في حين أن الروبوت لا يتأنى أو يعدل عن هجوم لمثل هذه الاعتبارات. ولعل الأخطاء التي وقعت في هجمات بطائرات الدرون حتى الموجهة من قبل البشر، تشير إلى خطورة ترك قرارات الحياة والموت لروبوتات قاتلة معرضة أيضاً لأخطاء تقنية تجعلها تفلت عن السيطرة.


الدول الكبرى التي تتسابق في مجال الأسلحة الذكية مثل أميركا والصين وروسيا ترى أن حظر الأسلحة التي تعمل بشكل مستقل ليس ضرورياً، وربما الأكثر منطقية ضبط استخدامها. لكن السؤال هو كيف يتم ضبطها، ومن يحدد الضوابط، ويتحكم في تنفيذها إذا لم تكن هناك اتفاقيات دولية منظمة؟
حظر بعض أنواع الأسلحة ليس أمراً جديداً ومع التطور السريع في تكنولوجيا الحروب هناك حاجة إلى مثل المؤتمر المنعقد في جنيف. فخلال القرن الماضي حظرت الاتفاقيات الدولية استخدام الأسلحة البيولوجية والكيميائية، وحرمت القنابل العنقودية والفوسفورية والفراغية والنابالم، والألغام ورصاص الدمدم، وكذلك استخدام تقنية الليزر المسببة للعمى، والأسلحة الصوتية المصممة لتدمير طبلة الأذن وشل سمع الأشخاص أو توازنهم. صحيح أنه تقع خروقات مرعبة مثلما حدث عندما استخدم صدام حسين الأسلحة الكيماوية ضد الأكراد في مذبحة حلبجة عام 1988، أو عندما استخدمت إسرائيل قنابل الفوسفور الأبيض في حرب غزة عام 2008، أو في استخدام أميركا وروسيا لأسلحة محرمة في فيتنام وأفغانستان. كذلك اتهمت بعض الدول مثل روسيا وكوريا الشمالية باستخدام أسلحة كيماوية أو جرثومية لاغتيال معارضين، بينما اتهمت واشنطن المخابرات الروسية بالوقوف وراء الهجمات بما يعتقد أنه سلاح سري صوتي يستخدم موجات المايكروويف ضد دبلوماسيين أميركيين في كوبا وفي موسكو. لكن مثل هذه الممارسات والانتهاكات لا تلغي أهمية وجود معاهدات وقوانين دولية تضبط أو تحرم هذه الأسلحة، بل تجعل الأمر أكثر أهمية.


فمع التطورات المتسارعة في مجال الذكاء الاصطناعي تصبح الحاجة ملحة للتوصل إلى اتفاقيات دولية تحرم بعض أنواع أو استخدامات الروبوتات القاتلة قبل أن تفلت الأمور ويصبح من الصعب ضبطها في عالم يزداد تعقيداً ولا يتوقف فيه سباق التسلح أو معارك المصالح والنفوذ. العالم يواجه أيضاً تحديات أخرى أشد فتكاً وخطراً مثل وباء الفيروسات وتداعيات الاحتباس الحراري، تحتاج إلى توجيه الموارد والعقول بدلاً من تبديدها في تطوير أسلحة أشد فتكاً وتدميراً، بينما مخازن ملأى أصلاً بترسانات ذات قدرات تدميرية كبيرة.

 

(الشرق الأوسط اللندنية)

0
التعليقات (0)