تسرع الحرب في أوكرانيا التوجه العالمي نحو الروبوتات القاتلة
يكثف الجيش الأمريكي التزامه بتطوير واستخدام الأسلحة المستقلة ، كما أكد التحديث في أ توجيهات وزارة الدفاع. التحديث ، الذي صدر في 25 يناير 2023 ، هو الأول منذ عقد من الزمان يركز على أسلحة الذكاء الاصطناعي المستقلة. يتبع ذات الصلة خطة التنفيذ صدر عن الناتو في 13 أكتوبر 2022 ، والذي يهدف إلى الحفاظ على “التفوق التكنولوجي” للحلف فيما يسمى أحيانًا “الروبوتات القاتلة”.
يعكس كلا الإعلانين درسًا حاسمًا تعلمته الجيوش حول العالم من العمليات القتالية الأخيرة في أوكرانيا و ناغورنو كاراباخالذكاء الاصطناعي المُسلح هو مستقبل الحرب.
قال ريتشارد مويس ، مدير المادة 36، وهي منظمة إنسانية تركز على تقليل الضرر الناجم عن الأسلحة ، أخبرتني في مقابلة. يمكن لهذه الأسلحة ، التي هي عبارة عن تقاطع بين قنبلة وطائرة بدون طيار ، أن تحوم لفترات طويلة أثناء انتظار هدف. وقال إنه في الوقت الحالي ، يتم تشغيل مثل هذه الصواريخ شبه المستقلة بشكل عام مع سيطرة بشرية كبيرة على القرارات الرئيسية.
ضغط الحرب
ولكن مع تزايد الخسائر في أوكرانيا ، يتزايد الضغط لتحقيق مزايا ساحقة في ساحة المعركة باستخدام أسلحة مستقلة تمامًا – روبوتات يمكنها اختيار أهدافها ومطاردتها ومهاجمتها بمفردها ، دون الحاجة إلى أي إشراف بشري.
هذا الشهر ، صانع روسي رئيسي أعلن عن الخطط لتطوير نسخة قتالية جديدة من روبوت الاستطلاع ماركر ، وهي مركبة أرضية غير مأهولة ، لزيادة القوات الموجودة في أوكرانيا. يتم بالفعل استخدام الطائرات بدون طيار ذاتية التحكم الدفاع عن منشآت الطاقة الأوكرانية من طائرات أخرى بدون طيار. وحيد نوابي ، الرئيس التنفيذي لشركة المقاولات الدفاعية الأمريكية التي تصنع شبه مستقل Switchblade بدون طيارقال التكنولوجيا بالفعل في متناول اليد لتحويل هذه الأسلحة لتصبح مستقلة تمامًا.
جادل ميخايلو فيدوروف ، وزير التحول الرقمي الأوكراني ، بأن الأسلحة المستقلة بالكامل هي أسلحة الحربالخطوة التالية المنطقية والحتميةوقال مؤخرًا إن الجنود قد يراهم في ساحة المعركة في الأشهر الستة المقبلة.
أنصار أنظمة الأسلحة المستقلة بالكامل يجادلون بأن التكنولوجيا ستبعد الجنود عن طريق الأذى من خلال إبعادهم عن ساحة المعركة. كما أنها ستسمح باتخاذ القرارات العسكرية بسرعة تفوق قدرة البشر ، مما يسمح بتحسين القدرات الدفاعية بشكل جذري.
حاليًا ، تتطلب الأسلحة شبه المستقلة ، مثل الذخائر المتسكعة التي تتعقب وتفجر نفسها على الأهداف ، “إنسانًا في الحلقة”. يمكنهم التوصية بإجراءات لكنهم يطلبون من مشغليهم البدء بها.
على النقيض من ذلك ، فإن الطائرات بدون طيار ذاتية التحكم تمامًا ، مثل ما يسمى بـ “صائدي الطائرات بدون طيارالآن منتشرة في أوكرانيايمكن تتبعها وتعطيلها في المركبات الجوية غير المأهولة القادمة ليلا ونهارا ، دون الحاجة إلى تدخل المشغل وأسرع من أنظمة الأسلحة التي يتحكم فيها الإنسان.
الدعوة إلى وقت مستقطع
النقاد مثل حملة وقف الروبوتات القاتلة دعت لأكثر من عقد من الزمان لحظر البحث والتطوير لأنظمة الأسلحة المستقلة. يشيرون إلى مستقبل حيث يتم تصميم أنظمة الأسلحة المستقلة خصيصًا لاستهداف البشر ، وليس فقط المركبات والبنية التحتية والأسلحة الأخرى. يجادلون بأن قرارات الحرب بشأن الحياة والموت يجب أن تظل في أيدي البشر. تحويلها إلى خوارزمية يصل إلى الشكل النهائي لـ التجريد الرقمي من الإنسانية.
معا مع هيومن رايتس ووتش، تجادل حملة وقف الروبوتات القاتلة بأن أنظمة الأسلحة المستقلة تفتقر إلى الحكم البشري الضروري للتمييز بين المدنيين والأهداف العسكرية المشروعة. كما أنها تخفض عتبة الحرب من خلال تقليل المخاطر المتصورة ، كما أنها تقوض السيطرة البشرية الهادفة على ما يحدث في ساحة المعركة.
وتقول المنظمات إن الجيوش الاستثمار بكثافة في أنظمة الأسلحة المستقلة ، بما في ذلك الولايات المتحدة وروسيا والصين وكوريا الجنوبية والاتحاد الأوروبي ، تدفع العالم إلى سباق تسلح جديد مكلف ومزعزع للاستقرار. يمكن أن تكون إحدى النتائج وقوع هذه التكنولوجيا الجديدة الخطيرة في أيدي الإرهابيين وغيرهم خارج سيطرة الحكومة.
يحاول التوجيه المحدث لوزارة الدفاع معالجة بعض المخاوف الرئيسية. يعلن أن الولايات المتحدة سوف تستخدم أنظمة أسلحة مستقلة مع “المستويات المناسبة للحكم البشري على استخدام القوة. ” هيومن رايتس ووتش أصدر بيانا القول بأن التوجيه الجديد فشل في توضيح ما تعنيه عبارة “المستوى المناسب” ولا يضع إرشادات لمن يجب أن يحدد ذلك.
ولكن مثل جريجوري آلن ، خبير من الدفاع الوطني والعلاقات الدولية مركز الدراسات الاستراتيجية والدوليةيجادل ، هذه اللغة يحدد عتبة أقل من “السيطرة البشرية الهادفة” التي يطالب بها النقاد. ويشير إلى أن صياغة وزارة الدفاع تسمح باحتمال أنه في حالات معينة ، مثل طائرات المراقبة ، فإن مستوى التحكم البشري الذي يعتبر مناسبًا “قد يكون قليلًا أو لا شيء”.
يتضمن التوجيه المحدث أيضًا لغة تعد بالاستخدام الأخلاقي لأنظمة الأسلحة المستقلة ، وتحديدًا من خلال إنشاء نظام رقابة لتطوير التكنولوجيا وتوظيفها ، ومن خلال الإصرار على استخدام الأسلحة وفقًا لقوانين الحرب الدولية القائمة. لكن مويس من المادة 36 أشار إلى أن القانون الدولي لا يوفر حاليًا إطارًا مناسبًا لفهم مفهوم استقلالية السلاح ، ناهيك عن تنظيمه.
لا يوضح الإطار القانوني الحالي ، على سبيل المثال ، أن القادة مسؤولون عن فهم ما الذي سيطلق الأنظمة التي يستخدمونها ، أو أنهم يجب أن يحدوا من المنطقة والوقت اللذين ستعمل فيهما تلك الأنظمة. قال مويز: “يكمن الخطر في عدم وجود خط مشرق بين ما نحن فيه الآن والمكان الذي قبلنا فيه غير المقبول”.
توازن مستحيل؟
يُظهر تحديث البنتاغون التزامًا متزامنًا بنشر أنظمة أسلحة مستقلة والامتثال للقانون الإنساني الدولي. كيف ستوازن الولايات المتحدة بين هذه الالتزامات ، وإذا كان مثل هذا التوازن ممكنًا ، يبقى أن نرى.
تصر اللجنة الدولية للصليب الأحمر ، الراعية للقانون الدولي الإنساني ، على أن الالتزامات القانونية للقادة والمشغلينلا يمكن نقلها إلى آلة أو خوارزمية أو نظام سلاح. ” في الوقت الحالي ، يتحمل البشر مسؤولية حماية المدنيين والحد من أضرار القتال من خلال التأكد من أن استخدام القوة يتناسب مع الأهداف العسكرية.
إذا تم نشر أسلحة الذكاء الاصطناعي في ساحة المعركة ، وعندما يتم نشرها ، فمن يجب أن يتحمل المسؤولية عندما تحدث وفيات مدنية لا داعي لها؟ لا توجد إجابة واضحة على هذا السؤال المهم للغاية.
جيمس دوز هو أستاذ اللغة الإنجليزية في كلية ماكاليستر. تم إعادة نشر هذه المقالة من محادثة تحت رخصة المشاع الإبداعي. إقرأ ال المقالة الأصلية.
اكتشاف المزيد من إشراق التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.