كيف يغير استخدام الذكاء الاصطناعي في الحروب مفهوم الاغتيالات؟

 


يشهد العالم اليوم ما يصفه خبراء عسكريون بـ "الثورة الصناعية الثالثة في الحروب"، بعد مرحلتي البارود ثم الأسلحة النووية. فلم يعد الذكاء الاصطناعي مجرد وسيلة لتحسين الإمدادات واللوجستيات، بل أصبح جزءًا أساسيًا من مركز اتخاذ القرار العسكري، حيث صارت الخوارزميات تلعب دورًا مباشرًا في تحديد من يُستهدف ومن يُترك على قيد الحياة في ساحات القتال الحديثة.

في الماضي، كان تحديد هدف للاغتيال العسكري يستلزم شهورًا من المراقبة البشرية وجمع المعلومات الاستخباراتية الميدانية. أما اليوم، ووفق تقارير نشرتها صحيفة "ذا غارديان"، فقد استُخدمت أنظمة مثل "لافندر" (Lavender) لمعالجة بيانات ملايين الأشخاص خلال وقت قصير للغاية. ويُعد هذا النظام أحد تطبيقات الذكاء الاصطناعي التي كشفت عنها تحقيقات صحفية، ويُقال إنه استُخدم من قبل الجيش الإسرائيلي لتحديد أهداف بشرية في قطاع غزة.

تعتمد هذه الأنظمة على تقنيات التعلم الآلي لتقييم الأفراد وفق درجات تتراوح بين 1 و100. ويتم تدريب الخوارزميات على خصائص وسلوكيات مرتبطة بمسلحين معروفين، مثل الانضمام إلى مجموعات واتساب معينة أو تغيير مكان السكن بشكل متكرر. بعد ذلك تقوم بمسح بيانات السكان بحثًا عن أشخاص لديهم أنماط سلوك رقمية مشابهة.


نظام "ذا غوسبل"

بينما يركز نظام لافندر على الأفراد، يعمل نظام آخر يُعرف باسم "ذا غوسبل" (The Gospel) على تحديد الأهداف المادية مثل المباني والبنى التحتية. ووفق تحقيق استقصائي نشرته وكالة رويترز بالتعاون مع وحدة الأبحاث في صحيفة "لوموند"، يستطيع هذا النظام إنتاج أهداف عسكرية بوتيرة تفوق قدرة المحللين البشر بعشرات المرات.

ففي حين كان المحللون قادرين على تحديد نحو 50 هدفًا سنويًا في بعض المناطق، يستطيع النظام توليد مئات الأهداف خلال يوم واحد، مما يجعل الحرب أشبه بخط إنتاج صناعي للأهداف العسكرية.

تقنيات التعرف على الوجوه والاغتيالات الدقيقة

في مجال الاغتيالات الموجهة، تلعب تقنيات الرؤية الحاسوبية دورًا محوريًا. فقد أشارت تقارير صادرة عن منظمة العفو الدولية إلى استخدام أنظمة مثل "ريد ولف" (Red Wolf) لمراقبة التحركات وتحديد هويات الأفراد عند نقاط التفتيش بشكل آلي. وعند ربط هذه البيانات بطائرات مسيّرة مزودة بخوارزميات التعرف على الوجوه، يصبح تنفيذ الاغتيال عملية شبه آلية تبدأ من الرصد وتنتهي بإطلاق المقذوف.

ومن أكثر الجوانب إثارة للجدل في هذه الأنظمة تقليص الدور البشري في اتخاذ القرار. إذ كشفت تسريبات وتقارير من منظمات حقوقية أن القادة العسكريين قد يمنحون الخوارزميات صلاحية العمل ضمن هامش خطأ محدد.

فعلى سبيل المثال، قد يُسمح للنظام بتنفيذ ضربة إذا تجاوزت احتمالية كون الهدف "مسلحًا" نسبة 90%، حتى لو كان ذلك ينطوي على خطر إصابة مدنيين في محيط الهدف. ويُعد هذا القبول المسبق بإمكانية الخطأ التقني تحولًا أخلاقيًا حساسًا في إطار القانون الدولي الإنساني

أسلحة ذاتية القرار

لا يقتصر الأمر على البرمجيات، بل يمتد إلى الأسلحة نفسها. فهناك نماذج من الذخائر المتسكعة التي تدمج الذكاء الاصطناعي في بنيتها، مثل الطائرة التركية STM Kargu أو الأنظمة الأمريكية Switchblade.

ووفق تقرير صادر عن مجلس الأمن التابع للأمم المتحدة عام 2021، يُعتقد أن بعض هذه الأنظمة قد نفذت هجمات بشكل مستقل دون أمر بشري مباشر، ما أثار قلقًا عالميًا بشأن احتمال فقدان السيطرة على قرارات القتل في الحروب المستقبلية.

مستقبل الحرب الخوارزمية

لا يقتصر تأثير الذكاء الاصطناعي في النزاعات المسلحة على زيادة دقة الاستهداف فحسب، بل يمتد إلى إعادة طرح سؤال المسؤولية القانونية. فعندما تخطئ الخوارزمية، يصبح من الصعب تحديد الجهة المسؤولة: هل هو المبرمج الذي صمم النظام، أم القائد الذي فعّله، أم الآلة نفسها؟

وتشير التقارير التقنية إلى أن العالم يتجه نحو نمط جديد من الصراعات يمكن وصفه بـ "الحرب بسرعة البرق"، حيث تتخذ الأنظمة قراراتها في أجزاء من الثانية، وهو ما يجعل التدخل أو المراجعة البشرية أمرًا شبه مستحيل.

ويبقى السؤال الجوهري مطروحًا:
هل سيتحول الإنسان في حروب المستقبل إلى مجرد بيانات داخل قاعدة معلومات تديرها خوارزميات بلا وعي أو ضمير؟


أحدث أقدم