تابعنا
باتت تقنية الذكاء الصناعي (AI) من أهم التقنيات الرقمية في العالم وتستخدم تقريباً في جميع القطاعات، ومن ضمنها التسليح خلال الحروب، إذ يشمل مجموعة واسعة من التطبيقات الذكية تسهم في تعزيز القدرات العسكرية في فترة الحرب وما بعدها.

وكشف تقرير نشرته مجلة "ذا إيكونوميست" الخميس الماضي، عن سباق جديد في توظيف الذكاء الصناعي في تطوير الأسلحة وخوض الحروب، وأشار إلى أن تلك الأدوات أسهمت بشكل كبير في الحروب الحديثة واستخدمت على نطاق متزايد في حروب حالية مثل حرب غزة.

كيف بدأ سباق استخدام الذكاء الصناعي في الحروب؟

يعود تاريخ استخدام الذكاء الصناعي في الحروب إلى منتصف القرن العشرين، إذ بدأت الدول الكبرى في استغلال التطورات التكنولوجية لتحقيق التفوق العسكري، وشهدت تلك الفترة تطوراً كبيراً في مجال الحوسبة والرياضيات التطبيقية، ما مهد الطريق لاستخدام الذكاء الصناعي في الأغراض العسكرية.

وحسب بحث لجامعة ستانفورد الأمريكية، نُشر في 2020، كانت تطبيقات الذكاء الصناعي في البداية، تقتصر على تحليل البيانات وتوجيه الأسلحة بدقة أعلى، ففي الستينيات استُخدم مشروع "سيج" (SAGE)، وهو نظام دفاع جوي يستخدم الحوسبة لمعالجة البيانات الواردة من الرادارات، مثّل نقطة تحول كبيرة في قطاع التسليح، كما ساعد في تحسين الخوارزميات الأولية التي أصبحت لاحقاً أساساً لتطوير نظم الذكاء الصناعي الدفاعية الأكثر تقدماً.

وفي الثمانينات والتسعينات، شهدت الحروب الدولية استخدامًا متزايدًا للتكنولوجيا، إذ استخدمت الولايات المتحدة نظم التوجيه الذكي في حرب الخليج الأولى عام 1991، ولعبت دوراً محورياً في تحقيق أهداف عسكرية بدقة عالية، وفي نفس الفترة، بدأ تطوير الروبوتات والطائرات بلا طيار (الدرونز)، التي اعتمدت على الذكاء الصناعي في تنفيذ مهمات معقدة مثل الاستطلاع والهجوم.

وتسارعت وتيرة الابتكار في الذكاء الصناعي وتطبيقاته العسكرية مع بداية الألفية الجديدة، إذ قدمت الطائرات بلا طيار المدعومة بالذكاء الصناعي مستوى جديداً من الاستقلالية والدقة، واستخدمتها الولايات المتحدة في أفغانستان وباكستان لتنفيذ هجمات دقيقة ضد أهداف محددة، ما أثار وقتها نقاشات واسعة حول أخلاقية هذا العمل وقانونيته.

وفي العقد الأخير، حدث تقدم هائل في تطبيقات الذكاء الصناعي العسكرية، من ضمنها النظم الدفاعية الذكية والتحليل التنبؤي مثل "القبة الحديدية" الإسرائيلية، التي تستخدم الذكاء الصناعي لاعتراض الصواريخ والقذائف.

استخدام على نطاق واسع

تُستخدم تقنيات الذكاء الصناعي على نطاق واسع بين الجيوش في العالم، ووفقاً لصحيفة فورين أفيرز، فإن ما لا يقل عن 30 دولة تدير الآن أنظمة دفاعية ذات أوضاع مستقلة.

وتأتي على رأس هذه الدول الولايات المتحدة، ووفقاً لصحيفة نيويورك تايمز اكتسبت عمليات تطوير أنظمة الذكاء الصناعي العسكرية زخماً مع إدارة الرئيس أوباما، وتحديداً في مجال الطائرات بلا طيار ونظم الدفاع الصاروخي وتحليل البيانات.

كذلك تستخدم روسيا الذكاء الصناعي في عملياتها العسكرية، وتوظفه في أنظمة الطائرات بلا طيار وأجهزة الاستخبارات.

وتستثمر الصين أيضاً بكثافة في الذكاء الصناعي للأغراض العسكرية، مع التركيز على تطوير نظم الاستطلاع والهجوم الذكية لتحسين قدرتها على المنافسة على المستوى العالمي.

كما تستخدم إسرائيل أنظمة ذكاء صناعي متعددة خاصة في حربها الحالية على قطاع غزة، تشمل تصنيف وتحليل كميات ضخمة من البيانات الاستخباراتية لتقديم توصيات حول الأهداف المحتملة، بالإضافة إلى تطبيق يُستخدم لتوجيه الضربات من خلال توفير أهداف مستهدفة للقوات البرية والبحرية والجوية بشكل مباشر.

آلة تقتل بدم بارد

ويثير الذكاء الصناعي في الحروب نقاشات قانونية وأخلاقية واسعة حول مدى ملاءمة استخدامه في قرارات القتال، خاصة تلك التي قد تؤدي إلى فقدان الأرواح البشرية، وتطرح تساؤلات حول مدى إنسانية هذه القرارات.

ومن الناحية القانونية، يوجد جدل كبير حول مدى توافق استخدام الذكاء الصناعي في الحروب مع القوانين الدولية القائمة إذ يشير بعض الخبراء إلى أن استخدام الطائرات بلا طيار والروبوتات المسلحة قد يتعارض مع مبادئ القانون الإنساني الدولي، الذي يفرض قيوداً صارمة على كيفية إدارة النزاعات المسلحة.

على سبيل المثال، يحظر القانون الإنساني الدولي استهداف المدنيين، ويشترط التمييز بين الأهداف العسكرية والمدنية، لكن استخدام الذكاء الصناعي في اتخاذ قرارات القتل قد يواجه صعوبة في الامتثال لهذه المبادئ، خصوصاً في ظل غياب الإشراف البشري الكامل.

وعلى رأس القضايا القانونية التي ترتبط باستخدام الذكاء الصناعي في الحرب قضيتي المسؤولية والمساءلة، ففي حالة وقوع أخطاء أو انتهاكات، يبقى السؤال قائماً: من يتحمل المسؤولية؟ هل يكون المسؤول مطورو الأنظمة أم القادة العسكريون أم الجنود الذين يعتمدون على هذه التكنولوجيا؟ ويؤدي غياب الإطار القانوني المحدد لهذا الأمر إلى تعقيد عملية المساءلة.

أما من الناحية الأخلاقية، يثير استخدام الذكاء الصناعي في الحروب قضايا جوهرية حول طبيعة الحرب والإنسانية، واحدة من أبرز هذه الإشكاليات هي مدى ملاءمة ترك قرارات الحياة والموت لأنظمة الذكاء الصناعي، إذ يرى البعض أن استخدام الذكاء الصناعي في اتخاذ قرارات القتل يقلل القيمة الأخلاقية والإنسانية لهذه القرارات، وتتحول إلى مجرد عمليات حسابية باردة دون مراعاة للعوامل الإنسانية المعقدة.

من ناحية أخرى توجد مخاوف من أن الاعتماد المتزايد على الذكاء الصناعي قد يؤدي إلى سباق تسلح جديد، وتنافس بين الدول في تطوير تقنيات أكثر تقدماً، ما يزيد احتمالية اندلاع نزاعات جديدة.

وعلى مدى سنوات عديدة، كان الخبراء والدبلوماسيون يتجادلون في الأمم المتحدة حول وجوب تقييد أو حظر أنظمة الأسلحة الذاتية، وحذرت اللجنة الدولية للصليب الأحمر من أن الأنظمة الذكاء الصناعي يمكن أن تكون غير شفافة، ومتحيزة تلقائياً، وتفضل اللجنة حظر الأنظمة التي تستهدف الأشخاص أو تتصرف بشكل غير متوقع.

كيف فتكت أسلحة الذكاء الصناعي بالفلسطينيين في غزة؟

وفقاً لتحقيق واسع نشره الشهر الماضي موقع +972 Magazine الإسرائيلي، يعتمد جيش الاحتلال في حربه الحالية على غزة على الذكاء الصناعي لتحديد من يجب استهدافه للقتل، مع دور ضئيل للبشر في اتخاذ القرار، وذكر التحقيق ثلاثة أنظمة ذكاء صناعي تعمل معاً.

وقال ضباط الاستخبارات الإسرائيلية الذين قابلهم +972، إن أنظمة الذكاء الصناعي حددت نحو 37,000 فلسطيني للاغتيال، وقتلت الآلاف من النساء والأطفال.

ورغم وجود "إنسان في الحلقة" -مصطلح تقني يشير إلى شخص يؤكد أو يرفض توصية الذكاء الصناعي- قال الجنود الإسرائيليون للموقع الصحفي إنهم تعاملوا مع مخرجات الذكاء الصناعي باعتبارها "قراراً بشراًي"، وأحياناً لم يستغرقوا سوى "20 ثانية لمراجعة الهدف قبل القصف".

وذكروا أن القيادة العسكرية شجعتهم على الموافقة التلقائية على قوائم القتل الخاصة بنظام لافندر بعد بضعة أسابيع من بدء الحرب، "على الرغم من معرفة أن النظام يرتكب أخطاء في نحو 10% من الحالات"، وفقاً لـ+972.

وأفاد التحقيق الصحفي بأن أنظمة الذكاء الصناعي الثلاثة التي تعمل معاً هي "Gospel/ الإنجيل" الذي يحدد المباني التي يزعم أن مقاتلي حماس يستخدمونها. ثم يمشط "لافندر /Lavender"، المدرَّب على بيانات عن المقاتلين المعروفين، بيانات المراقبة حول كل شخص في غزة تقريباً، من الصور إلى جهات الاتصال الهاتفية، لتقييم احتمالية من يكون منهم مقاتلاً، ثم يضع الأشخاص الذين يحصلون على تقييم أعلى في قائمة القتل.

وأخيراً، يتتبع نظام "where's daddy / أين أبي؟" هذه الأهداف ويرسل البيانات إلى جيش الاحتلال الإسرائيلي عندما يكونون في منازلهم العائلية، لأن قصفهم هناك أسهل من قصفهم في مبنى عسكري محمي حسبما قال ضابط استخبارات إسرائيلي لموقع +972.

ويتيح الذكاء الصناعي تسريع وتيرة تحديد الأهداف، ففي العمليات السابقة، كان يمكن لمجموعة من 20 ضابطًا استهداف نحو 50-100 في 300 يوم، فيما يمكن لنظام "Gospel"استهداف نحو 200 هدف خلال 10-12 يوماً فقط.

أما "لافندر" الذي طورته وحدة الاستخبارات الإسرائيلية 8200، ويهدف إلى تحليل كميات ضخمة من البيانات لتحديد الأفراد الذين يُعتقد أنهم من مقاتلي حماس، يحدد الأهداف بناءً على سمات إحصائية، ما قد يؤدي إلى استهداف عشوائي وغير دقيق، فبعض الأهداف قد تكون مدنيين لديهم نفس الاسم أو صفات مشابهة، ما يزيد احتمالية وقوع أخطاء جسيمة.

ويُذكر أن إسرائيل لم توقّع على المعاهدة التي تدعو إلى الاستخدام المسؤول للذكاء الصناعي في الحرب، والتي وقّعها أكثر من 50 دولة من بينها الولايات المتحدة وبريطانيا وألمانيا وأوكرانيا.

TRT عربي
الأكثر تداولاً