نشر موقع Eurasia Review تقريرا عن ضرورة بدء مفاوضات جديدة لإبرام معاهدة لحظر الأسلحة الذاتية تماما أو ما تعرف بالروبوتات القاتلة وضرورة إخضاعها للسيطرة الإنسانية.
أعلنت منظمة «هيومن رايتس ووتش» أن روسيا والولايات المتحدة وعدد من الدول الأخرى التى تطور أسلحة مستقلة تماما «تعمل ذاتيا» تمنع الجهود لبدء مفاوضات حول إبرام معاهدة جديدة للاحتفاظ بسيطرة إنسانية ذات مغزى على استخدام القوة..
اجتمعت أكثر من 70 دولة عضوة فى اتفاقية الأسلحة التقليدية فى جنيف يومى 20 و21 أغسطس الحالى لعقد اجتماعهم الثامن منذ عام 2014 لمناقشة المخاوف التى أثارتها أنظمة «الأسلحة المستقلة الفتاكة»، والمعروفة أيضا باسم «الأسلحة المستقلة تماما» أو «الروبوتات القاتلة». ولكن هذه الاجتماعات وحدها فى ظل عدم اتخاذ إجراءات فعلية تشير إلى أن هذه الدولة لن تكون قادرة على التعامل مع هذا التهديد.
وقال ستيف جوس، مدير القسم المتخصص فى هذه الأسلحة فى هيومن رايتس ووتش والمنسق لحملة منع الروبوتات القاتلة: «تريد معظم الحكومات التفاوض على معاهدة جديدة للاحتفاظ بسيطرة إنسانية ذات مغزى على استخدام القوة». ولكن مع قيام عدد من الدول بمنع أى تقدم فى هذا الصدد، فإن هذه المحادثات الدبلوماسية تبدو بشكل متزايد وكأنها بمثابة محاولة لكسب الوقت وتشتيت انتباه الرأى العام بدلا من مواجهة التحديات الخطيرة التى تثيرها الروبوتات القاتلة».
وتحث منظمة هيومن رايتس ووتش وحملة حظر «الروبوتات القاتلة» الدول الأطراف فى الاتفاقية التقليدية للأسلحة على الموافقة على بدء المفاوضات فى نوفمبر القادم بشأن إبرام معاهدة جديدة للاحتفاظ بسيطرة إنسانية على استخدام القوة، والتى من شأنها أن تحظر فعليا استخدام الأسلحة المستقلة تماما. ويمكن للقانون الدولى الجديد فقط معالجة الجوانب الأخلاقية والقانونية والأمنية والتكنولوجية المتعددة والتى تثيرها الروبوتات القاتلة بفاعلية.
بدأت محادثات اتفاقية الأسلحة التقليدية فى عام 2014 وتم إضفاء الطابع الرسمى عليها بعد ثلاث سنوات، لكنها لم تنتج أى شىء سوى بعض المبادئ غير الملزمة. وفى مارس عارضت روسيا والولايات المتحدة وكذلك أستراليا وإسرائيل والمملكة المتحدة، الدعوة للتفاوض على معاهدة جديدة بشأن الروبوتات القاتلة، ووصفت هذه الخطوة بأنها سابقة لأوانها..
وفى المحادثات السابقة، دعت جميع الدول تقريبا إلى الإبقاء على شكل من أشكال السيطرة الإنسانية على استخدام القوة، وهو ما يعادل فعليا حظر الأسلحة المستقلة والتى تعمل ذاتيا. وحتى الآن، أيدت 28 دولة صراحة حظر الأسلحة ذاتية التحكم بالكامل.
إن هناك أدلة متزايدة على أن تطوير هذه الأسلحة سوف يتعارض مع إملاءات الضمير العام. كما يدعم الآلاف من العلماء وخبراء الذكاء الاصطناعى، وأكثر من 20 شخص من الحائزين على جائزة نوبل للسلام، وأكثر من 160 من الزعماء الدينيين والمنظمات من مختلف الطوائف فرض حظر على «الروبوتات القاتلة». وفى عام 2018، أصدرت جوجل مجموعة من المبادئ الأخلاقية التى تتضمن تعهدا بعدم تطوير الذكاء الاصطناعى لاستخدامه فى الأسلحة.
***
إن الروبوتات القاتلة لن تتمكن من تطبيق الأحكام القانونية والأخلاقية الدقيقة والعاطفية على قرارات استخدام القوة المميتة. وبدون هذه الصفات الإنسانية، ستواجه الأسلحة عقبات كبيرة فى ضمان المعاملة الإنسانية للآخرين وإظهار الاحترام لحياة الإنسان وكرامته. ووفقا للقانون الإنسانى الدولى، يجب دعم وتعزيز إملاءات الضمير العام ومبادئ الإنسانية عند عدم وجود معاهدة محددة ذات صلة، وهذا هو الحال مع قضية الروبوتات القاتلة.
ومن الجدير بالذكر أن الدول الـ28 التى طالبت بالحظر هى: الجزائر، الأرجنتين، النمسا، بوليفيا، البرازيل، شيلى، الصين (الاستخدام فقط)، كولومبيا، كوستاريكا، كوبا، جيبوتى، إكوادور، السلفادور، مصر، غانا، غواتيمالا، والعراق والمكسيك والمغرب ونيكاراجوا وباكستان وبنما وبيرو ودولة فلسطين وأوغندا وفنزويلا وزيمبابوى.
إن حملة حظر «الروبوتات القاتلة»، التى بدأت فى عام 2013، عبارة عن تحالف من 112 منظمة غير حكومية فى 56 دولة تعمل على حظر استباقى لتطوير وإنتاج واستخدام أسلحة مستقلة تماما. ويتوقع الجمهور بذل جهود أكبر من جانب الحكومات لمنع تطوير أسلحة مستقلة تماما، قبل أن تنتشر على نطاق واسع ــ وفى الواقع لا بديل عن وجود معاهدة ملزمة قانونيا تحظر استخدام هذه الأسلحة.
إعداد: ريهام عبدالرحمن العباسى
النص الأصلى:من هنا