في عالم تتسارع فيه تقنيات الذكاء الاصطناعي وتتداخل فيه الحدود بين الحقيقة والخيال، لم يعد خطر الحرب النووية مقتصرًا على الصواريخ العابرة للقارات أو حسابات الردع التقليدية، بل أصبح مرتبطًا أيضًا بمقاطع الفيديو المزيفة، والصور المفبركة، وخوارزميات قد “تتوهم” هجومًا لم يحدث، كما ورد في مقال بمجلة فورين أفيرز الأميركية.

احتمالات الحوادث النووية

لا يزال احتمال وقوع الحوادث قائمًا اليوم بنفس القدر الذي كان عليه خلال الحرب الباردة، حيث ذكرت الكاتبة أن عام 1983 شهد إنذارًا خاطئًا من منظومة إنذار مبكر سوفياتية، أشار إلى أن الولايات المتحدة قد أطلقت هجومًا نوويًا ضد الاتحاد السوفياتي. كان من الممكن أن يؤدي هذا التحذير إلى رد نووي كارثي لولا تدخل الضابط ستانيسلاف بيتروف، الذي استنتج أن الإنذار كان كاذبًا. لو لم يتدخل، لكانت القيادة السوفياتية قد وجدت مبررًا لإطلاق أسلحة دمار شامل على الولايات المتحدة.

التقنيات الحديثة وتهديدات جديدة

التقاء الذكاء الاصطناعي بتقنيات “التزييف العميق” مع أنظمة الإنذار النووي وآليات اتخاذ القرار قد يفتح الباب لحرب نووية قد تنشب نتيجة معلومات زائفة أو إنذارات خاطئة، وليس بسبب قرار سياسي متعمد. تؤكد دومباتشر، المستشارة في سياسات الأمن الدولي والتكنولوجيا، أن هذه الحادثة ليست مجرد ذكرى تاريخية، بل دليل دائم على هشاشة أنظمة الإنذار النووي، وعلى الدور الحاسم للعامل البشري في منع الكارثة.

مخاطر التزييف العميق

تشير الكاتبة إلى أن التهديد الأكثر خفاءً يكمن في قدرة الذكاء الاصطناعي على إنتاج معلومات مزيفة قد تؤثر في الإدراك البشري خلال الأزمات. وقد استعرضت أمثلة حديثة على مخاطر التزييف العميق، مثل مقطع فيديو زائف يظهر الرئيس الأوكراني فولوديمير زيلينسكي يدعو شعبه للاستسلام، وآخر يزعم أن الرئيس الروسي فلاديمير بوتين أعلن تعبئة عامة شاملة.

القرارات النووية والذكاء الاصطناعي

تعتبر الكاتبة أن مثل هذه المواد قد تقنع قادة دول نووية، في سياق أزمة دولية، بأن هجومًا وشيكًا قد بدأ فعلاً، أو تعزز إنذارات خاطئة من منصات استخبارية تعتمد على الذكاء الاصطناعي. في الحالة الأميركية، يمتلك الرئيس سلطة إصدار أمر باستخدام السلاح النووي دون إلزام قانوني بالتشاور، مما يزيد من خطورة الوضع.

ضرورة التحكم البشري

على الرغم من فعالية الذكاء الاصطناعي في تحسين كفاءة بعض جوانب العمل العسكري، تعتقد دومباتشر أن إدماجه في الأنظمة العسكرية يجب أن يكون محدودًا. هناك مجالات يجب أن تبقى محظورة على الذكاء الاصطناعي، مثل أنظمة الإنذار النووي وأنظمة القيادة والسيطرة. كما تحذر من “الأزمات المتسلسلة” التي قد تنشأ عندما تُستخدم أنظمة الذكاء الاصطناعي في تفسير بيانات الإنذار المبكر.

استنتاجات هامة

تدعو الكاتبة إلى تبني معايير أعلى للسيطرة البشرية في المجال النووي، تفوق تلك المفروضة على الأسلحة ذاتية التشغيل، مؤكدة أن الأتمتة يجب أن تبقى جزئية ومحدودة، وأن تعتمد القرارات المصيرية فقط على بيانات مؤكدة وغير معدلة. كما تحث أجهزة الاستخبارات على تحسين تتبع مصدر المعلومات المولدة بالذكاء الاصطناعي، وتدريب صانعي القرار على التعامل بقدر أكبر من الشك مع المحتوى غير القابل للتحقق الفوري.

في الختام، تشير الخبيرة في الأمن الدولي إلى أن التحدي الحقيقي في عصر الذكاء الاصطناعي لم يعد يقتصر على منع إطلاق الصواريخ فحسب، بل يمتد إلى الحيلولة دون اتخاذ قرارات نووية بناءً على معلومات زائفة قد تؤدي إلى عواقب وخيمة.