الذكاء الاصطناعي على أعتاب النووي.. بين عبقرية التحليل وخطر القرار
حذر خبراء في الأمن والاستراتيجيات العسكرية من خطورة الاعتماد الكامل على الذكاء الاصطناعي في اتخاذ القرارات الحساسة، خاصة في المجالات النووية والعسكرية. وأكدوا ضرورة بقاء القرار النهائي في يد البشر، لما يمتلكونه من قدرة على تحليل المستجدات وتقدير الأبعاد الأخلاقية والسياسية لكل موقف.
جاء هذا التحذير بالتزامن مع اتفاق تاريخي بين الرئيس الأمريكي جو بايدن والرئيس الصيني شي جين بينغ خلال منتدى التعاون الاقتصادي لدول آسيا والمحيط الهادئ، على ضرورة إبقاء قرارات استخدام الأسلحة النووية ضمن مسؤوليات البشر فقط، وعدم تركها تحت تصرف أنظمة الذكاء الاصطناعي.
ضوابط دولية ضرورية
يرى الخبير الاستراتيجي محمد صالح الحربي أن الذكاء الاصطناعي يحمل مخاطر كبيرة إذا تم استخدامه في التطبيقات العسكرية دون قيود صارمة. وأوضح الحربي أن الاعتماد على الذكاء الاصطناعي في تحليل المواقف واتخاذ قرارات مصيرية قد يؤدي إلى تفعيل "نظرية التدمير الثنائي المتبادل" في ظل تركّز 90% من الأسلحة النووية بين أمريكا وروسيا. وأكد أن "السلاح النووي يجب أن يظل أداة للردع، وليس وسيلة لتنفيذ قرارات آلية غير مدروسة".
العقل البشري هو الحَكم النهائي
في السياق ذاته، شدد الباحث في سياسات الأمن الدولي أحمد العلوي على أن الذكاء الاصطناعي، رغم دقته وسرعته في تحليل البيانات، لا يمكن أن يكون بديلاً عن البشر في اتخاذ القرارات العسكرية. وأوضح العلوي أن الذكاء الاصطناعي يقدم حلولًا وخططًا متطورة، لكنه قد يؤدي إلى كوارث إذا اعتمدت الدول عليه دون إشراف بشري، خاصة في مجالات مثل التسليح النووي.
وأشار العلوي إلى خطورة ترك الذكاء الاصطناعي ليقرر بمفرده، محذرًا من احتمالية وقوع أخطاء كارثية، مثل توجيه أسلحة نووية بشكل خاطئ أو اتخاذ قرارات دون مراعاة للأبعاد الأخلاقية والسياسية.
التحديات والمخاطر المستقبلية
أما النائب التنفيذي لرئيس جامعة سانت فينيست الأمريكية، عابد الكشك، فقد أكد أن الذكاء الاصطناعي، رغم فوائده في تحليل البيانات وتقديم المعلومات الدقيقة، يفتقر إلى الحس البشري في اتخاذ القرارات المصيرية. وأشار الكشك إلى أن التجارب الأولية لاستخدام الذكاء الاصطناعي في المجالات النووية والعسكرية قد تُفضي إلى أضرار كبيرة، سواء كانت اقتصادية أو عسكرية أو سياسية.
الاتفاق الأمريكي-الصيني: خطوة أولى نحو الأمان
يمثل الاتفاق بين الولايات المتحدة والصين تطورًا مهمًا في مساعي ضبط استخدام الذكاء الاصطناعي في التطبيقات العسكرية. ويؤكد هذا الاتفاق على ضرورة وضع ضوابط دولية تُلزم جميع الدول بالإبقاء على القرارات النووية ضمن مسؤوليات البشر، بعيدًا عن الاعتماد الكلي على الأنظمة الآلية.
الحاجة إلى مراقبة وتشريع دولي
مع التطور السريع لتقنيات الذكاء الاصطناعي، يرى الخبراء ضرورة وضع قوانين وتشريعات دولية لتنظيم استخدام هذه التقنيات، خصوصًا في المجالات الحساسة. ويبقى التحدي الأكبر هو تحقيق التوازن بين الاستفادة من إمكانات الذكاء الاصطناعي والحفاظ على دور الإنسان كحَكم نهائي في القضايا التي تهدد الأمن والسلم الدوليين.