تستخدم الجيوش تقنيات الذكاء الاصطناعي في عدة مجالات، منها تحليل البيانات لاستخراج معلومات استخبارية، والحروب السيبرانية، فتستخدم تقنية التزييف العميق وروبوتات الذكاء الاصطناعي لنشر دعايات أو معلومات مضللة فضلاً عن اختراق مواقع الإنترنت - وتحديد الأهداف، وتعقب الدبابات والصواريخ. كما تستخدم في نظم الأسلحة المستقلة الفتاكة، مما يثير الجدل حول فعّالية هذه التقنيات بالمحافظة على مبادئ حربية مثل التناسب (الذي يملي ألا يتجاوز الضرر الذي يفرضه العمل العسكري فوائده) والتمييز (الذي يفرض على الجيوش التمييز بين المقاتلين والمدنيين).
في هذا الإطار، نشرت مجلة فورين أفيرز مقالاً بعنوان "أسلحة الذكاء الاصطناعي والوهم الخطير المتمثل في السيطرة البشرية"، يتحدث عن الأتمتة (الاعتماد على الآلة) المتسارعة في الحرب، وسرعة الاعتماد على الأنظمة المستقلة والذكاء الاصطناعي ووهم البشر بقدرتهم على التحكم في اتخاذ القرارات التي تتعلق بالقتل، بسبب أن الحروب المستقبلية "ستكون عالية الضغط وعالية السرعة وخلالها سوف تتدهور الاتصالات أو تتقطع".
ويضيف المقال بأن "الحروب المستقبلية المدعومة بالذكاء الاصطناعي أسرع وأكثر اعتماداً على البيانات، حيث يمكن نشر أنظمة الأسلحة المدعومة بالذكاء الاصطناعي (على سبيل المثال أسراب الطائرات بدون طيار) بسرعة وعلى نطاق واسع. ولن يكون لدى البشر الوقت ولا القدرة المعرفية لتقييم هذه البيانات بشكل مستقل عن الآلة".
النص المترجم للمقال
قد لا يكون الخطر الحقيقي هو ضعف سيطرة البشر على أنظمة الذكاء الاصطناعي، بل الوهم بأنه يمكن السيطرة عليها على الإطلاق. يوفر هذا الوهم راحة زائفة للحكومات والجيوش والمجتمعات الديمقراطية من خلال تغذية الأمل الساذج في أنها يمكن أن تصمم أنظمة أفضل من خلال وجود البشر في الحلقة - أنظمة قادرة على التفوق على أنظمة الخصوم الاستبداديين الذين لديهم تحفظات أقل بشأن أتمتة كل شيء.
ومع ذلك، عندما يتعلق الأمر بالسيطرة البشرية على أنظمة الأسلحة التي تعمل بالذكاء الاصطناعي، فإن الرأي السائد يظل أن المزيد أفضل. على سبيل المثال، تتطلب سياسة الحكومة الأمريكية صراحة أن يتم تصميم الأسلحة القاتلة المستقلة مع القدرة على التدخل البشري المناسب. ويؤكد كبار المسؤولين بانتظام على هذه الحقيقة. في أواخر عام 2023، بعد أن أطلقت وزارة الدفاع مبادرة Replicator، وهي محاولة لنشر آلاف الأنظمة المستقلة في جميع الخدمات العسكرية بحلول أغسطس 2025، صرحت نائبة وزير الدفاع كاثلين هيكس، "هناك دائماً إنسان مسؤول عن استخدام القوة، نقطة". تسعى الأمم المتحدة إلى حظر الأسلحة المستقلة بالكامل واقترحت قواعد ملزمة دولياً تتطلب من مثل هذه الأنظمة أن يكون هناك إنسان في الحلقة. تبنّت العديد من المنظمات غير الحكومية، بما في ذلك Stop Killer Robots، ومعهد مستقبل الحياة، ومنظمة العفو الدولية، قضية السيطرة البشرية على الأسلحة المستقلة.
ورغم أنه من المريح أن نتخيل أن البشر الأحياء سيمنعون الخوارزميات عديمة العقل من القتل بلا تمييز، فإن هذا الإجماع يتناقض مع الواقع التكنولوجي. ذلك أن نماذج الذكاء الاصطناعي التي تحرك الأسلحة المستقلة المعاصرة غالباً ما تكون متطورة للغاية بحيث لا يستطيع حتى أفضل المشغلين تدريباً الإشراف عليها. وعلاوة على ذلك، فإن كل استخدام مقترح للأسلحة المستقلة يتخيلها تعمل على نطاق هائل، وهو ما يتطلب مستويات من البيانات والسرعة والتعقيد من شأنها أن تجعل التدخل البشري المجدي مستحيلاً. وفي ظل الظروف العادية، فإن توقع أن يزن الإنسان مزايا تحليل نظام الذكاء الاصطناعي ويقترح مسارات العمل سيكون أمراً صعباً. وفي ظل ظروف القتال ــ التي تتسم بالإجهاد الشديد والوقت المحدود والاتصالات المتقطعة أو غير الموجودة بين الأفراد والوحدات والسلطات العليا ــ سيكون القيام بذلك مستحيلاً. وبالتالي، فبدلاً من الاستسلام للوهم بأن البشر سيكونون قادرين على التحكم في الأسلحة المستقلة في زمن الحرب، يتعين على الجيوش أن تبني الثقة في نماذجها للأسلحة المستقلة الآن ــ في ظل ظروف زمن السلم ــ وتسمح لها بالعمل دون تدخل بشري مفرط عندما يبدأ إطلاق النار.
تسريع الحرب
إن المنافسة العسكرية بين الولايات المتحدة والصين تجعل تطوير ونشر أنظمة الأسلحة المستقلة أمراً لا مفر منه، حيث تقدم الحرب في أوكرانيا دليلاً مبكراً على هذا التحول في النموذج. وفي الوقت نفسه، تلتزم حكومة الولايات المتحدة بنشر الذكاء الاصطناعي على نطاق واسع وعلى الفور لمجموعة من الأغراض الأمنية - تحليل الاستخبارات، والسلامة البيولوجية، والأمن السيبراني، وأكثر من ذلك.
إن الأتمتة والذكاء الاصطناعي والطائرات بدون طيار بدرجات متفاوتة من الاستقلالية هي مكونات أساسية لكل مفهوم من أحدث مفاهيم العمليات في الخدمات العسكرية الأمريكية تقريباً: تصميم قوة مشاة البحرية لعام 2030، والعمليات البحرية الموزعة للبحرية، وعمليات القتال واسعة النطاق للجيش، ومفهوم التشغيل المستقبلي للقوات الجوية. كل من هذه تعتمد بدورها على مبادرة مستمرة أطلقت في عام 2022 والمعروفة باسم القيادة والتحكم المشترك لجميع المجالات، والتي تكلفت 1.4 مليار دولار في عام 2024 وحده. ووفقاً لوزارة الدفاع، يهدف البرنامج إلى ربط "كل جهاز استشعار وكل مطلق نار" من أجل "اكتشاف وجمع وربط وتجميع ومعالجة واستغلال البيانات من جميع المجالات والمصادر" وبالتالي إنشاء "نسيج بيانات" موحد. ببساطة، يجب أن يكون كل شيء يمكنه جمع البيانات، من الأقمار الصناعية إلى الطائرات بدون طيار البحرية إلى الجندي في الميدان، قادراً على مشاركتها واستخدامها.
إن الأنظمة غير المأهولة تشكل ركيزة لا غنى عنها في هذا النسيج من البيانات. فعلى الأرض، سوف تعمل هذه الأنظمة على تعزيز القدرة على القتل والحد من الخسائر بين الأصدقاء والمدنيين من خلال توفير قدر أعظم من الدقة. وفي الجو، سوف تتمتع الطائرات بدون طيار بقدرة أكبر على التحمل والقدرة على المناورة، وسوف تنتشر بأعداد أكبر، وتتعاون لتغطية مناطق أكبر، وتعقّد عملية الاستهداف المضاد للعدوان. وفي البحر، سوف تخترق السفن غير المأهولة مناطق كانت من الصعب الوصول إليها في السابق.
لقد أنفقت كل من الولايات المتحدة والصين وروسيا مليارات الدولارات لتحويل الحرب وفقا لذلك. وتشير ضغوط المنافسة الأمنية إلى اتجاه واحد فقط: الأتمتة المتسارعة في الحرب. ومن وجهة نظر تكتيكية وتشغيلية بحتة، كلما تسارعت وتيرة الحرب، كلما زادت العيوب في إبطاء الأمور من خلال مطالبة البشر بالتدخل أثناء القتال.
الخطأ من صفات البشر
بطبيعة الحال، ليست التكتيكات والعمليات هي الاعتبارات الوحيدة في الحرب. ومن منظور أخلاقي، يخشى العديد من المراقبين أنه في غياب الرقابة، قد تنطلق الآلات غير المفكرة في فوضى، وتنتهك المبادئ العريقة مثل التناسب (الذي يملي ألا يتجاوز الضرر الذي يفرضه العمل العسكري فوائده) والتمييز (الذي يفرض على الجيوش التمييز بين المقاتلين والمدنيين). ويخشى آخرون أن تستغل الأنظمة المستقلة السكان الضعفاء بسبب التحيزات في بيانات التدريب الخاصة بها، أو أن تقوم جهات غير حكومية باختراق أو سرقة الأسلحة المستقلة واستخدامها لأغراض خبيثة.
من منظور عملي، يمكن أن يؤدي التركيز قصير النظر على الفعالية التكتيكية أو التشغيلية أيضاً إلى نتائج استراتيجية ضعيفة، مثل التصعيد غير المقصود. يزعم منتقدو الأسلحة المستقلة أن البشر يدمجون سياقاً أوسع في قراراتهم، مما يجعلهم أفضل في التعامل مع الجديد أو الفوضى، في حين تظل الآلات على النص. قليل من الناس يثقون تماماً في الآلات في اتخاذ قرارات خطيرة مثل القتل، أو توسيع نطاق الحملة العسكرية. حتى الآن، ترتكز افتراضات معظم الناس على حالات لا تُنسى من خطأ الكمبيوتر مثل حوادث السيارات ذاتية القيادة أو "هلوسة" الدردشة الآلية. يفترض كثير من الناس أن البشر أقل عرضة لسفك الدماء دون داع أو تصعيد الصراع.
وتدعم هذه الحجج الأخلاقية والعملية الحقيقة الأساسية المتمثلة في أن حتى أكثر الأنظمة المستقلة تقدماً مع الذكاء الاصطناعي سوف ترتكب أخطاء. ومع ذلك، فقد تقدم الذكاء الاصطناعي إلى النقطة التي أصبح فيها التحكم البشري في كثير من الأحيان اسمياً أكثر من كونه حقيقياً. والواقع أن الشعور المتضخم بقدرة البشر على التحكم في الذكاء الاصطناعي من شأنه أن يؤدي في الواقع إلى تفاقم المخاطر ذاتها التي يخشاها المنتقدون. والوهم بأن البشر سوف يكونون قادرين على التدخل في سيناريوهات قتالية مستقبلية تعد بأن تكون عالية الضغط وعالية السرعة ــ وخلالها سوف تتدهور الاتصالات أو تتقطع ــ يمنع صناع السياسات والعسكريين ومصممي الأنظمة من اتخاذ الخطوات اللازمة لابتكار واختبار وتقييم أنظمة مستقلة آمنة الآن.
إن إرغام البشر على التدخل في القرارات التكتيكية لن يجعل القتل أكثر أخلاقية في الحروب التي تعتمد على الذكاء الاصطناعي. لقد استخدمت الجيوش الحديثة منذ فترة طويلة أنظمة ذات أشكال مختلفة من الاستقلالية التدريجية، مثل نظام Aegis Combat System التابع للبحرية، مع مستويات متميزة من السلطة البشرية المطلوبة لإطلاق الأسلحة. ومع ذلك، فإن قرار المشغل البشري بإطلاق الأسلحة يعتمد على نظام كمبيوتر يحلل البيانات الواردة ويولد قائمة من الخيارات. في هذه البيئة، يكون الاختيار البشري، مع الحكم الأخلاقي المقابل، أقرب إلى الختم المطاطي منه إلى القرار المستنير: فالمشغّل يثق بالفعل في أجهزة الاستشعار التي جمعت البيانات والأنظمة التي حللتها وحددت الأهداف.
وسوف تكون الحروب المستقبلية المدعومة بالذكاء الاصطناعي أسرع وأكثر اعتماداً على البيانات، حيث يمكن نشر أنظمة الأسلحة المدعومة بالذكاء الاصطناعي (على سبيل المثال أسراب الطائرات بدون طيار) بسرعة وعلى نطاق واسع. ولن يكون لدى البشر الوقت ولا القدرة المعرفية لتقييم هذه البيانات بشكل مستقل عن الآلة. على سبيل المثال، استخدمت إسرائيل نظام توليد أهداف مدعوم بالذكاء الاصطناعي أثناء الحرب في غزة. وهذا النظام، الذي يستخدم مئات الآلاف من التفاصيل لتصنيف الأهداف على أنها معادية، متطور للغاية بحيث لا يمكنه التكهن عندما يتعين اتخاذ القرارات في دقائق أو ثوانٍ.
في تصريحاتهم العامة، يزعم كبار المسؤولين العسكريين الأميركيين أن أنظمة الذكاء الاصطناعي العسكرية ينبغي لها أن تقدم اقتراحات فقط بدلاً من اتخاذ إجراءات مباشرة. ورغم أنه من السهل أن نتخيل كيف يمكن للمركبات الجوية غير المأهولة، على سبيل المثال، أن تسافر بشكل مستقل إلى أهدافها ثم تنخرط في القتال فقط إذا أمرها البشر بذلك، فإن هذا يكذّب كيف تعمل الحرب التي تعتمد على الذكاء الاصطناعي في الواقع. وقد أظهر الصراع في أوكرانيا أنه مع انتشار المركبات الجوية غير المأهولة، انتشرت أيضاً أنظمة تشويش اتصالاتها مع المشغلين؛ وقد أجبر هذا الأوكرانيين على تبني مستويات متزايدة من الاستقلال الحقيقي.
ولهذه الأسباب كلها، فإن التوصيات السياسية التي تستند إلى قدرة البشر على التحكم في الأسلحة ذاتية التشغيل لا تعدو كونها مجرد حلول مؤقتة. فقد تجعل هذه التوصيات الجميع يشعرون بالأمان من أن الأسلحة لن تطلق النار من تلقاء نفسها، ولكنها تجعل من الصعب أيضاً على القوات العسكرية تحقيق النصر، وتترك أصعب الأسئلة الأخلاقية والعملية لموظفي الخطوط الأمامية الذين لديهم أقل قدر من الوقت وأقل قدر من الموارد لاتخاذ القرارات. وبدلاً من رعاية الأوهام المريحة، ينبغي لصناع السياسات أن يتبنوا نهجاً واقعياً في التعامل مع أنظمة الأسلحة ذاتية التشغيل ــ وهو النهج الذي قد يثبت أنه أكثر أخلاقية...
في العقود المقبلة، ستعتمد الولايات المتحدة بشكل متزايد على أنظمة الأسلحة المستقلة المدعومة بالذكاء الاصطناعي في الحرب. إن الاستسلام للوهم القائل بأن البشر يمكنهم التحكم في هذه الأنظمة أثناء استمرار الحرب من شأنه أن يقيد أيدي الدول الديمقراطية ضد الخصوم الذين لا يشعرون بأي تحفظات. ومن المحتمل أيضًا أن يؤدي ذلك إلى اتخاذ قرارات أقل أخلاقية، حيث أن ترك هذه القرارات لوقت الحرب يضمن تقريباً اتخاذها تحت أكبر قدر ممكن من الضغط، عندما لا يكون من الممكن اتخاذ قرار حقيقي. يجب على الحكومات أن تبرمج المدخلات البشرية في الأنظمة الآن، ثم مراقبة هذه الأنظمة وتحسينها وبناء ثقة المستخدمين بجد. وإلا فإن الرغبة في السيطرة البشرية على الذكاء الاصطناعي العسكري ستكلف أرواحاً أكثر مما تنقذه.
المصدر: مجلة foreign affairs
الكاتب: Sebastian Elbaum and Jonathan Panter