يأتي ذلك في وقت ما تزال فيه هذه التطبيقات محل جدل واسع على الصعيدين الأخلاقي والقانوني.
وتشير تقارير عدة إلى أن أنظمة الذكاء الاصطناعي تستخدم لتحليل كميات هائلة من البيانات العسكرية، مثل صور الأقمار الاصطناعية والرادار والإشارات الكهرومغناطيسية والصور التي تلتقطها الطائرات المسيرة، بهدف تسريع عملية تحديد الأهداف وتوجيه الضربات. ويرى خبراء أن هذه التقنية ربما ساهمت في اختيار أهداف آلاف الضربات التي نفذت منذ 28 فبراير.
وتعتمد القوات الأمريكية نظاما ذكيا يعرف باسم Maven Smart System (MSS) طورته شركة Palantir Technologies، ويستخدم لتحديد الأهداف المحتملة وترتيب أولوياتها.
كما ذكرت صحيفة The Washington Post أن نموذج الذكاء الاصطناعي التوليدي Claude AI الذي طورته شركة Anthropic تم دمجه مع نظام "مافن" لتعزيز قدراته في الرصد والتحليل والمحاكاة.
ويهدف استخدام هذه الأنظمة إلى تقليص ما يعرف عسكريا بـ"سلسلة القتل"، أي الفترة الزمنية بين رصد الهدف واتخاذ قرار ضربه وتنفيذ الهجوم.
ويثير إدماج الذكاء الاصطناعي في العمليات العسكرية تساؤلات عديدة حول مدى سيطرة الإنسان على القرارات القتالية. وبرز هذا الجدل سابقا خلال الحرب في قطاع غزة، حيث استخدمت إسرائيل نظاما يعرف باسم Lavender لتحديد أهداف الضربات العسكرية.
ويرى بعض الخبراء أن الاعتماد على هذه الأنظمة قد يؤدي إلى أخطاء في تحديد الأهداف إذا كانت البيانات المستخدمة قديمة أو غير دقيقة. وقد أثير هذا الاحتمال بعد قصف مدرسة ابتدائية للبنات في جنوب إيران، ما أسفر عن سقوط عشرات القتلى، في حادثة لم تعترف أي جهة بمسؤوليتها عنها.
ويؤكد خبراء عسكريون أن الأنظمة القتالية التي تعمل من دون تدخل بشري كامل ما تزال بعيدة عن الواقع وأن القرار النهائي باستخدام القوة يبقى بيد القادة العسكريين.
لكن الباحث بنيامين جينسين من Center for Strategic and International Studies يرى أن ما يحدث اليوم هو بداية تحول كبير في طبيعة الحروب، مشيرا إلى أن جيوش العالم ما زالت في مرحلة مبكرة من فهم كيفية دمج الذكاء الاصطناعي في التخطيط العسكري والعمليات القتالية.
ويعتقد الخبراء أن تأثير الذكاء الاصطناعي على الحروب قد يستغرق جيلا كاملا قبل أن تتضح أبعاده بالكامل، سواء من الناحية العسكرية أو القانونية أو الأخلاقية.
المصدر: وكالات