تقنية

توجيهات البنتاغون تحذر من “الدور المتزايد” للذكاء الاصطناعي في الحرب


صورة: الجيش الأمريكي SPC. جارون توللي

نظرت وزارة الدفاع الأمريكية إلى المستقبل ، وهي ترى عالماً مليئاً بأسلحة الحرب الآلية. في أول تحديث لها منذ عام 2012 ، وزارة الدفاع التوجيه الإشراف على تطوير واختبار واستخدام مستقل وشبه مستقل وحذرت الأسلحة من “الدور المتزايد” للذكاء الاصطناعي في الحروب القادمة.

لقد مر أكثر من عقد على آخر تحديث للبنتاغون لتوجيه سياسته بشأن هذه الأسلحة ، بعنوانالاستقلالية في أنظمة الأسلحة“،” لكن التي تغيرت هذا الأسبوع. أعرب مسؤولو وزارة الدفاع عن الالتزام بمتابعة الأنظمة المستقلة ودمج الذكاء الاصطناعي المتقدم في الجهود العسكرية المستقبلية. مع تحديث السياسة ، عزز الجيش الأمريكي موقفه باعتباره الكل في الحكم الذاتي حتى مع تكاتف الدول والنشطاء الآخرين معًا للحد من انتشارها.

يأخذ التحديث الجديد في الاعتبار التطورات في مجال الذكاء الاصطناعي على مدى السنوات العشر الماضية ويقدم مجموعة إشراف جديدة رفيعة المستوى. الآن ، في معظم الحالات ، ستحتاج الأسلحة المستقلة إلى الحصول على موافقة رسمية من نائب رئيس هيئة الأركان المشتركة ، ووكيل وزارة الدفاع للسياسة ، ووكيل وزارة الدفاع للأبحاث والهندسة. قبل أن يتمكنوا من الدخول في التطوير الرسمي.

قال مايكل هورويتز ، مدير مكتب سياسة القدرات الناشئة في وزارة الدفاع ، في تقرير حديث: “يحدد التوجيه الآن أنهم ، مثل أي نظام يستخدم الذكاء الاصطناعي ، سواء كان نظام سلاح أم لا ، سيحتاجون إلى اتباع هذه الإرشادات أيضًا”. مقابلة مع كسر الدفاع. “هذا جزء مما نعتبره حكمًا جيدًا.”

ما رأي البنتاغون في الأسلحة التي تدعم الذكاء الاصطناعي؟

المدير الجديد يأخذ أيضا البنتاغون مبادئ أخلاقيات الذكاء الاصطناعي المسؤولةو تم الكشف عنها لأول مرة في عام 2020 ، ويطبقها على أنظمة الأسلحة المستقلة. هذه المبادئ ، باختصار ، تتطلب أن تكون أدوات الذكاء الاصطناعي الخاصة بوزارة الدفاعمسؤول وعادل وقابل للتتبع وموثوق وخاضع للحكم “. أصدر البنتاغون أ وثيقة المتابعة يحدد العام الماضي المسار الذي يمكن أن يسلكه لجعل هذه المبادئ حقيقة واقعة مع الاستمرار في المنافسة مع التهديدات المتصورة من القوى العالمية الأجنبية (اقرأ: الصين) خارج تلك التحديثات الرقابية وغيرها ، فإن التوجيه الجديد يشبه في الغالب سابقه ، مع مسؤول واحد في وزارة الدفاع يطلق عليه “توضيح ، وليس تغييرًا كبيرًا”.

دبليوعلى الرغم من عدم اكتماله بشكل عام ، فإن التحديث يذكر ، بعبارات صارخة ، تقنية القسم-رؤية مركزة للمستقبل. وفي بيان مصاحب للتوجيه ، قالت نائبة وزير الدفاع كاثلين هيكس إن البنتاغون ملتزم “بتطوير واستخدام جميع أنظمة الأسلحة ، بما في ذلك تلك التي تتمتع بميزات ووظائف مستقلة ، بطريقة مسؤولة وقانونية”.

بالتطلع إلى المستقبل ، أقر هيكس بأن الأنظمة الممكّنة للذكاء الاصطناعي “من المرجح أن تلعب دورًا متزايدًا في مجموعة من الأنظمة والقدرات”. في السابق مقابلة مع Gizmodo ، تحدثت هيكس عما تعتبره أهمية الحفاظ على نهج “الإنسان في الحلقة” حيث لا يزال المشغل البشري يحتفظ بدور نهائي في تقرير متى ينفذ نظام الذكاء الاصطناعي هدفه.

عالم منقسم: هل يجب علينا حظر أسلحة الذكاء الاصطناعي والحرب الذاتية؟

لا يشارك الجميع وجهة نظر البنتاغون الروسية تجاه الأسلحة المستقلة. في المجموع ، 30 دولة على الأقل لديها بالفعل دعم صوتي لحظر التكنولوجيا تمامًا. حتى أن هذه الدعوات حظيت بدعم الأمين العام للأمم المتحدة أنطونيو غوتيريش الذي أطلق في عام 2019 ملف a بيان قائلا إن مثل هذه الأنظمة يجب أن تكون محظورة بموجب القانون الدولي.

“الآلات المستقلة التي تتمتع بالقدرة وحسن التقدير لاختيار الأهداف وتودي بحياة الأشخاص دون تدخل بشري هي غير مقبولة سياسياً و قال غوتيريش.

وبالمثل ، فإن أغلبية الولايات الـ 125 ممثلة في الأمم المتحدة اتفاقية أسلحة تقليدية معينة أعربوا عن اهتمامهم بقوانين جديدة تحظر بشكل أساسي تطوير الأسلحة المستقلة خلال مؤتمر العام الماضي. فشلت تلك الجهود ، سي إن بي سي ملاحظاتبسبب معارضة روسيا والصين والولايات المتحدة وعدد قليل من الدول الأخرى المتمركزة في طليعة تكنولوجيا الأسلحة المستقلة.

منتقدو أنظمة الأسلحة المستقلة ، من منظمة العفو الدولية ل هيومن رايتس ووتشلديك مقارنة تطورهم إلى الأسلحة النووية والبارود قبلهم. أنهم تخشى أن يؤدي توسعها غير المقيد إلى سباق تسلح خطير قد يزيد من خطر نشوب صراع جيوسياسي.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى