آراء ومقالات

بلال العضايلة

لا يكاد يجري حديث حول تأثير الذكاء الاصطناعي إلا ويتم التطرق فيه إلى مسألة التأثير الإحلالي أو الاستبدالي لهذه التقنية على العمليات التي اعتيد إجراءها بشرياً، فكثير من هذه العمليات معرّضة لخطر الإحلال الكامل بحيث يتم تنفيذها بالكامل عبر الذكاء الاصطناعي. وتعد العمليات ذات الصلة بإدارة الدولة من المجالات التي ابتدأت فعلاً تطغى فيها سيطرة الذكاء الاصطناعي، كالبعد الأمني ( تقتية التعرف على الوجوه ومراقبة الحدود) وبعد التخطيط الحضري.

ولكن يضل بعد صناعة القرار السياسي السيادي حساساً في هذا المجال. تقليدياً يتم تحليل عملية صنع القرار السيادي (أي القرارات ذات الصلة بالأمن القومي والسياسة الخارجية) عبر نماذج أبرزها ومن أوائلها نموذج سنايدر، وفيه يعتبر اتخاذ القرار نتيجة لتفاعلات بيروقراطية، وتأثيرات سيكولوجية، ومصالح قومية. بموجب هذا النموذج، لا تتشكل القرارات في عزلة، بل تتطور من خلال التفاعل بين المؤسسات، والقادة السياسيين، والمستشارين، والتاريخ السابق. يشدد هذا المنهج القائم على الإنسان، على أن القرارات المتّخذة في أعلى المستويات ليست عمليّة عقلانيّة بحتة، بل تتأثر بالظروف السياسية، والأيديولوجيا، والاعتبارات الاستراتيجية. .

في جوهره، يجسّد نموذج سنايدر الطبيعة المعقّدة والمتنوعة لعملية اتخاذ القرار في المسائل الحاسمة. إنه يوضح أن القرارات نادراً ما تتخذ بواسطة شخص واحد أو مجموعة صغيرة منعزلة، بل هي نتيجة لتفاعلات معقدة داخل نظام اتخاذ القرار الذي يأخذ بعين الاعتبار عوامل متنوعة، مثل التحيزات الإدراكية، والمصالح المؤسسية، والسياق الجيوسياسي الأوسع. وهذا يسلط الضوء على قيمة التدخل البشري – من ناحية الحدس الفردي، والمعرفة، والقدرة على استيعاب التداعيات الأعمق للاختيارات السياسية – مما يجعل اتخاذ القرار البشري، نظرياً على الأقل، ضرورياً في مجال السياسة الخارجية والأمن القومي.

مع تقدّم الذكاء الاصطناعي، زاد تأثيره في عملية اتخاذ القرار بشكل ملحوظ. يتفرد الذكاء الاصطناعي بقدرته على تحليل كميات ضخمة من البيانات، واكتشاف الأنماط، وتقديم رؤى تنبؤية تفوق القدرات البشرية. في مجالات تحليل المعلومات الاستخباراتية، واللوجستيات العسكرية، وكذلك الأمن السيبراني، برهنت الأنظمة التي تعتمد على الذكاء الاصطناعي على فاعليتها في تعزيز الكفاءة وتقليص الأخطاء البشرية. ومع ذلك، بالرغم من هذه الفوائد، يبقى دور الذكاء الاصطناعي في اتخاذ القرارات السيادية محدودًا بشكل أساسي. إنه ينقصه سمات إنسانية مثل تحمل المسؤولية الأخلاقية، والتفكير التحليلي، والقدرة على إدراك التعقيدات في الوضع السياسي، مما يجعله بديلاً غير كافٍ للقيادة البشرية.

يبقى السؤال الأساسي: هل يستطيع الذكاء الاصطناعي أن يحل تماماً محل الفكر البشري والمهارات والمعرفة في اتخاذ القرارات السيادية؟ الإجابة ليست واضحة. بينما يمكن للذكاء الاصطناعي تحسين عملية اتخاذ القرار من خلال تقديم تحليلات فورية، ومحاكاة سيناريوهات مختلفة، وتخفيف العبء المعرفي عن صانعي القرار، إلا أنه عاجز بمفرده عن معالجة العوامل غير المتوقعة في السياسة الدولية. إن اتخاذ القرارات المتعلقة بالسيادة غالباً ما يتضمن تحديات أخلاقية، وتحركات دبلوماسية، وإدراكًا للسياقات التاريخية والثقافية — وهي مجالات يصعب على الذكاء الاصطناعي التعامل معها بفاعلية. والأكثر خطورة من ذلك أن منح سلطة كهذه للذكاء الاصطناعي قد يؤدي إلى مخاطر كبيرة على الأمن القومي إذا حدثت تدخلات في خوارزميات الذكاء الاصطناعي من قبل أطراف معادية، أو إذا أساء النظام فهم النوايا الاستراتيجية، فقد تكون النتائج مدمّرة. بالإضافة إلى ذلك، فإن توظيف الذكاء الاصطناعي في اتخاذ القرارات الأمنية يثير تساؤلات بشأن المساءلة، حيث قد يتعذر تحديد المسؤول عن الخيارات الحيوية لمصالح البلاد.

وعلى الجانب الآخر، لا يجب التقليل من دور الذكاء الاصطناعي في تعزيز مهارات اتخاذ القرار. بفضل تعزيز الخبرة البشرية، يمكن للذكاء الاصطناعي أن يمكّن صناع القرار من التركيز على الجوانب الاستراتيجية للأمن القومي، بينما يقوم هو بتولي العمليات التي تعتمد بشكل أكبر على البيانات. وهذا من الممكن أن يعزز في نهاية المطاف حوكمة أكثر كفاءة، وخيارات سياسية محسنة، وإطار أمني وطني أكثر قدرة واستجابة. ومع ذلك، فإن فكرة استبدال البشر بالكامل بالذكاء الاصطناعي في هذا السياق ليست فقط غير واقعية، بل أيضًا غير مرغوبة. إن المخاطر الناتجة عن إعطاء الأنظمة المحوسبة سلطات كاملة في القضايا الحساسة تعتبر كبيرة جداً، كما أن الحاجة إلى الفهم البشري في التعامل مع تعقيدات السياسة الدولية لا تزال ضرورية.

في الختام، ورغم القدرات التحويلية التي يقدمها الذكاء الاصطناعي لمساعدة صانعي القرار، فإنه لا يمكن أن يُعوض عن العنصر البشري في عملية اتخاذ القرار السيادي. إن التداخل بين التكنولوجيا والسياسة يتطلب اتباع نهج متزن، حيث يعمل الذكاء الاصطناعي كأداة أساسية، لكنه لا يجب أن يكون فاعلاً مستقلاً في تحديد الأمن القومي والعلاقات الخارجية واستراتيجيات الدفاع. إن المخاطر الناتجة عن الاعتماد الكلي على الذكاء الاصطناعي — بدءًا من التحيزات الموجودة في البيانات وصولًا إلى غياب المساءلة — توضح ضرورة اعتبار الذكاء الاصطناعي أداة فعالة تدعم القدرات البشرية، وليس بديلاً لها. إن سيادة الدول، وخاصة في مجالات السياسة الخارجية والأمن والدفاع، تقتضي تحقيق توازن دقيق بين التكنولوجيا والمراقبة البشرية، لضمان أن تُتخذ القرارات برؤية وفهم عميق وحكمة محسوبة.