الذكاء الاصطناعي والعمليات العسكرية: توازن بين الكفاءة والمسؤولية
يشهد الفكر العسكري تحولاً جذرياً، حيث ينتقل الذكاء الاصطناعي من مجرد أداة مساعدة إلى عنصر فاعل ومؤثر في إدارة العمليات الميدانية. الأنظمة ذاتية التشغيل أصبحت قادرة على إجراء التحليلات، والتقديرات، وتنفيذ المهام دون إشراف مباشر، مما يطرح تساؤلات جوهرية حول حدود المسؤولية البشرية ومدى قدرة القانون الدولي الإنساني على مواكبة القرارات التي تتخذها الخوارزميات بسرعة تفوق القدرة البشرية على اتخاذ القرار.
أكد الدكتور إسلام محمد سرور، المستشار القانوني والاجتماعي والخبير في القانون الدولي والباحث في تقنيات الذكاء الاصطناعي والأمن السيبراني في حديث لـ بوابة السعودية، أن التحدي الأكبر يكمن في الحفاظ على دور العنصر البشري في اتخاذ القرارات العسكرية في ظل الاعتماد المتزايد على الأنظمة ذاتية التشغيل. وأوضح أن المطلوب هو تحقيق توازن دقيق بين الاستفادة من سرعة ودقة الذكاء الاصطناعي، والحفاظ على المسؤولية الأخلاقية والقانونية للبشر وفقًا لقواعد القانون الدولي الإنساني.
وأشار د. سرور إلى أن تحقيق هذا الهدف يتطلب تبني استراتيجيات وأطر قانونية ورقابية صارمة تضمن استمرار التحكم البشري في جميع مراحل القرار العسكري، بما في ذلك تصميم وتفعيل أنظمة الذكاء الاصطناعي.
ضمان الرقابة البشرية على أنظمة الذكاء الاصطناعي العسكرية
أضاف أنه من الضروري تطوير أدوات تحليلية تدعم القادة العسكريين وتمكنهم من الإشراف الكامل على أداء هذه الأنظمة، بالإضافة إلى وضع قواعد اشتباك واضحة تحدد متى وكيف يمكن للأنظمة الذاتية اتخاذ قرارات حاسمة. وأوضح أن نشر الخوارزميات في الاستخدامات الحساسة، مثل شبكات الاستشعار أو أنظمة إطلاق النار، يجب أن يخضع لتصريح صريح من القيادة العليا، لضمان الرقابة المؤسسية على كل خطوة في هذه العمليات.
وشدد الخبير القانوني على ضرورة التزام جميع الأسلحة المعتمدة على الذكاء الاصطناعي بمبادئ القانون الدولي الإنساني الأساسية، وفي مقدمتها مبادئ التمييز بين المدنيين والمقاتلين، والتناسب بين الفائدة العسكرية والضرر الجانبي، والإنسانية في تنفيذ العمليات. وأقر بأن الالتزام بهذه المبادئ يظل صعب التحقيق في الواقع العملي بسبب محدودية قدرة الأنظمة الحالية على الفهم الأخلاقي والمعياري.
تحديات المسؤولية القانونية في عصر الذكاء الاصطناعي
في سياق الحديث عن التحديات القانونية في تحديد المسؤولية عن الأفعال القتالية التي تنفذها الخوارزميات المستقلة دون تدخل بشري مباشر، أوضح د. سرور أن هذه المسألة تمثل أحد أعقد التحديات أمام القانون الدولي الإنساني.
وقال إن الفجوة في المساءلة تنشأ نتيجة غياب السيطرة البشرية المباشرة على قرارات الاستهداف، مما يجعل من الصعب تحديد الجهة المسؤولة قانونًا: هل هي النظام ذاته، أم المُشغل البشري، أم المصنع، أم المبرمج؟ وأكد أن القانون الدولي الإنساني يشترط وجود وكالة قانونية بشرية دائمة تتيح مراقبة تصرفات الأنظمة الذكية ومساءلتها.
إلا أن أبرز العقبات تكمن في إسناد المسؤولية إلى الدولة، خصوصًا في ظل محدودية قدرة التكنولوجيا الحالية على الامتثال التام لمبادئ التمييز والتناسب، فهذه الأنظمة لا تملك بعد القدرة الكاملة على التفريق بين الأهداف العسكرية والمدنيين، أو تحقيق التوازن بين الفائدة العسكرية والأضرار الجانبية.
تحقيق التوازن بين تطوير الذكاء الاصطناعي والالتزام بالمعايير الأخلاقية
وعن كيفية تحقيق توازن فعّال بين تطوير تقنيات الذكاء الاصطناعي لأغراض الأمن والدفاع وبين الالتزام بالمعايير الأخلاقية والإنسانية، شدّد د. سرور على أن الحل يكمن في إرساء أطر تحليلية وقانونية جديدة تضمن الاستفادة من التقنية دون التفريط بالمسؤولية البشرية أو خرق القانون الدولي الإنساني.
وأوضح أن ذلك يستلزم تطوير أدوات تحليل كمية ونوعية قادرة على التنبؤ بدقة أداء الخوارزميات قبل استخدامها فعليًا، بما يسمح للقادة العسكريين بتقييم المخاطر وتجنّب التعامل مع الأنظمة كـ “صناديق سوداء”، من خلال إتاحة الافتراضات المضمنة داخلها للمراجعة البشرية.
وأضاف أن الالتزام الصارم بمبادئ التمييز والتناسب، وفرض تحكم بشري مسؤول ومناسب، وإخضاع الاستخدامات الحساسة لتصاريح واضحة من القيادة العليا، يمثل السبيل الوحيد لتحقيق التوازن المطلوب بين الفعالية التقنية والرقابة الأخلاقية. كما دعا إلى تطوير أطر قانونية دولية جديدة تضمن الشفافية والمساءلة في كل مراحل تطوير واستخدام أنظمة الذكاء الاصطناعي العسكرية.
مخاطر استخدام الذكاء الاصطناعي في تحليل البيانات الأمنية والاستخباراتية
أما بخصوص استخدام الذكاء الاصطناعي في تحليل البيانات الأمنية والاستخباراتية، فحذّر د. سرور من أن هذا المجال يحمل تهديدًا مباشرًا للخصوصية والحقوق الرقمية للأفراد، حيث إن الاعتماد على الذكاء الاصطناعي في تحليل البيانات الضخمة من مصادر متعددة كالأقمار الصناعية، وكاميرات المراقبة، ووسائل التواصل الاجتماعي، قد يؤدي إلى فقدان الخصوصية المدنية وتعزيز التحيزات التاريخية.
وأشار إلى أن المراقبة غير المرخصة للمدنيين أو الاعتقالات الجماعية استنادًا إلى مخرجات خوارزميات تحليل البيانات قد تمثل انتهاكات جسيمة تصل إلى حد الجرائم ضد الإنسانية.
ولمواجهة هذه التحديات، دعا د. سرور إلى أن تعمل الدول والمنظمات الدولية على وضع أطر قانونية واتفاقيات جديدة تضمن التزام التقنيات، ولا سيما المعتمدة على الذكاء الاصطناعي، بالمعايير الإنسانية، مع ضرورة أن تكون هذه الأنظمة قابلة للمراجعة والمساءلة من قبل وكلاء بشريين.
كما شدّد على أهمية أن تركز جهود البحث والتطوير على الأبعاد الأخلاقية لاستخدام الذكاء الاصطناعي، وأن تتوافر أدوات تحليلية لتقييم أداء الخوارزميات وإدارتها بشفافية، بما يضمن استمرار الرقابة البشرية على التكنولوجيا العسكرية ويحافظ على التوازن بين متطلبات الأمن القومي والحقوق الرقمية للأفراد.
وأخيرا وليس آخرا
تناولت هذه المقالة التحديات والفرص التي يفرضها الذكاء الاصطناعي في المجال العسكري، مع التركيز على ضرورة تحقيق توازن بين الاستفادة من التقنية والحفاظ على المسؤولية الأخلاقية والقانونية. يبقى السؤال مفتوحًا حول كيفية تطوير أطر قانونية دولية تضمن الشفافية والمساءلة في استخدام هذه الأنظمة، وكيف يمكننا ضمان أن تظل التكنولوجيا في خدمة الإنسانية لا العكس.











