ي يجب حظر
أنظمة الأسلحة ذاتية التحكم أو سيكون "من المحتم تقريبًا" حدوث سباق
تسلح دولي لإنتاج الروبوتات القاتلة بكميات ضخمة، وذلك طبقًا لمئات العلماء
البارزين، والباحثين في علم الروبوتات والذكاء الاصطناعي ومشاهير بمهن مشابهة.
تم إرسال خطاب مفتوح يوم الاثنين السابق موقّع من أكثر من 1000 عالم بارز وأكاديمي – بما في ذلك المخترع ورائد
الأعمال إيلون ماسك، وكاثرين ماكيلروي كبيرة مصممي الحاسوب واتسون التابع لشركة آي
بي إم والفيزيائي النظري ستيفن هوكنج – قالوا فيه أن أنظمة الأسلحة ذاتية التحكم
بشكل كامل التي تستطيع اتخاذ قرار باستخدام القوة المميتة بدون تصريح بشري تشكل
تهديدًا كبيرًا ومباشرًا على الجنس البشري.
يقول الخطاب أن "تقنية الذكاء
الاصطناعي قد وصلت لنقطة أصبح فيها نشر هذه الأنظمة – عمليًا إن لم يكن قانونيًا –
أمرًا ممكنًا خلال سنوات، وليس عقود، وإن المخاطرة كبيرة: وُصِفت الأسلحة ذاتية
التحكم بأنها الثورة الثالثة في الحرب، بعد البارود والأسلحة النووية."
على عكس الطائرات بدون طيار، التي
تتطلب مشغل بشري، أو أنظمة الدفاع الصاروخي، التي تمت برمجتها للاستجابة الدفاعية
للصواريخ فقط، فإن أنظمة الأسلحة ذاتية التحكم قد تتجاوز متخذ القرار البشري
لتنتقي الأهداف العسكرية.
يقول الباحثون أن التقنيات العسكرية
الحالية، وتشمل قبة إسرائيل الحديدية، بالإضافة إلى النموذج الأولي البريطاني
لطائرة ذاتية التحليق تدعى تارانيس، قد تتطور بالمستقبل القريب لتصبح أنظمة قاتلة
ذاتية التحكم بشكل كامل.
في حين أن هذه الأسلحة قد تجنّب
القوات البشرية الذهاب إلى أي معركة، يقول موقّعو الخطاب أن هذه الآلات المؤتمتة
قد تجعل قرار الحرب أسهل وقد تقوم حتى بإبادات جماعية. يقول الخطاب: "إن
الأسلحة ذاتية التحكم مثالية لمهمات مثل الاغتيال، وزعزعة استقرار الأمم، وإخضاع
السكان، والقتل الانتقائي لمجموعة عرقية معينة."
داعيًا إلى حظر عالمي على استخدام
أنظمة الأسلحة ذاتية التحكم، قال الخطاب المفتوح أنه يجب على الدول التوقف فورًا
عن البحث في تطوير الأسلحة، لتجنب حدوث سباق تسلح "حتمي"،
من شأنه أن يؤدي إلى جعل الأسلحة ذاتية التحكم "كلاشنكوف الغد".
ويضيف الخطاب أنه "على عكس الأسلحة النووية، لا تتطلب الأسلحة ذاتية التحكم مواد خام
غالية أو يصعب الحصول عليها، لذا سوف تصبح منتشرة ورخيصة لكل القوى العسكرية
البارزة لإنتاجها بشكل كبير، ولن يتطلب الأمر أكثر من بعض الوقت حتى تظهر بالسوق
السوداء وبأيدي الإرهابيين، والديكتاتوريين الراغبين بالتحكم في أقوامهم بشكل أكثر
إحكامًا، وأمراء الحرب الراغبين في ارتكاب تطهيرات عرقية، و غيرهم."
وتأتي هذه الدعوة وسط حركة ناشطة لمواجهة
المخاوف التي قد تشكلها أنظمة الأسلحة ذاتية التحكم للجنس البشري.
بدأت الأمم المتحدة في النظر رسميًا
في الموضوع أثناء الاجتماع السنوي لاتفاقية الأسلحة التقليدية في العام 2014، ومرة أخرى في
العام 2015 وقد وافقت على استمرار المحادثات حول الأنظمة، والتي من المقرر أن تستأنف مرة
أخرة في نوفمبر.
تم إنشاء حملة
إيقاف الروبوتات القاتلة، وهي تحالف دولي مكون من تسع منظمات غير حكومية بارزة، في العام
2013 للضغط على المجتمع الدولي لاتخاذ إجراءات فورية ضد آلات القتل ذاتية التحكم.
وأصدرت منظمة هيومن رايتس ووتش، أحد
الأعضاء الرئيسيين بالحملة، تقريرًا في أبريل تدعو فيه إلى حظر الروبوتات القاتلة،
قائلة إنه نتج عن استخدامها "مخاوف أخلاقية وقانونية خطيرة."
وتقول المنظمة في بيان صدر في أبريل،
إن آلات القتل ذاتية التحكم قد تؤدي إلى "حصانة قانونية لجيش الولايات
المتحدة ومتعاقدي الدفاع المتعاملين معه"، مما يشكل "عقبة لا يمكن
التغلب عليها تقريبًا أمام المساءلة المدنية."
وأضاف بيان منظمة هيومن رايتس ووتش أن
صانعي الأسلحة الآن "منيعين ضد الملاحقة القانونية عندما يصممون سلاحًا وفقًا
لمواصفات الحكومة وبدون تضليل متعمد للجيش."
يقول بوني دوشيرتي، كبير الباحثين
بقسم الأسلحة بمنظمة هيومن رايتس ووتش إن النظام ذاتي التحكم قد يقوم بارتكاب أفعال
ترقى لمستوى جرائم الحرب لو قام بها بشري، ولكن الضحايا لن يروا أحدًا يعاقب على
هذه الجرائم.
وجاء في بيان منفصل صدر في مايو 2015
وقعه حائزون على جائزة نوبل من بينهم الأسقف ديزموند توتو، والرئيس السابق لجنوب
أفريقيا دي كليرك، وناشط حقوق الإنسان الإيراني شيرين العبادي، والرئيس البولندي
السابق ليخ فاليسا إنه "من غير المعقول أن يتوسع البشر في بحث وتطوير آلات
قاتلة قادرة على قتل البشر بدون تدخل بشري."
وأضاف البيان: "سوف تغير الروبوتات
القاتلة شكل الحرب إلى الأبد."