أقرت شركة OpenAI بأن متصفحات الذكاء الاصطناعي ستظل عرضة لهجمات تُعرف باسم “حقن الأوامر”، على الرغم من الجهود المستمرة لتعزيز مستويات الحماية، مما يثير تساؤلات حول مدى أمان عمل وكلاء الذكاء الاصطناعي في بيئة الإنترنت المفتوحة.

تجارب الباحثين الأمنيين

أطلقت “OpenAI” متصفح “أطلس” في أكتوبر الماضي، وسرعان ما تمكن باحثون أمنيون من عرض تجارب تُظهر إمكانية التلاعب بسلوك المتصفح عبر تعليمات بسيطة مخفية داخل مستندات Google Docs.

تحذيرات من المركز الوطني للأمن السيبراني

أكدت شركة Brave أن حقن الأوامر غير المباشر يمثل مشكلة هيكلية تؤثر على معظم المتصفحات المدعومة بالذكاء الاصطناعي، بما في ذلك متصفح Comet من “Perplexity”. كما حذر المركز الوطني للأمن السيبراني في المملكة المتحدة من أن هجمات حقن الأوامر على تطبيقات الذكاء الاصطناعي التوليدي قد لا يمكن منعها بالكامل، داعيًا المؤسسات إلى التركيز على تقليل المخاطر وتأثيرها بدلاً من افتراض إمكانية إيقافها نهائيًا.

استراتيجيات OpenAI لمواجهة التحديات

في مواجهة هذا التحدي، تؤكد “OpenAI” أنها تعتمد نهجًا استباقيًا قائمًا على دورات استجابة سريعة، تهدف إلى اكتشاف أساليب الهجوم الجديدة داخليًا قبل ظهورها في الهجمات الواقعية. تتبنى الشركة، مثل منافسيها “غوغل” و”أنثروبيك”، مبدأ الدفاع متعدد الطبقات والاختبار المستمر.

استخدام المهاجم الآلي

تعتمد “OpenAI” على ما تسميه مهاجمًا آليًا قائمًا على النماذج اللغوية، وهو نظام مدرب بتقنيات التعلم المعزز، يلعب دور المخترق ويبحث باستمرار عن طرق جديدة لزرع تعليمات خبيثة داخل وكلاء الذكاء الاصطناعي. يتيح هذا النظام محاكاة الهجوم وتحليل طريقة تفكير النموذج المستهدف، مما يمنح “OpenAI” أفضلية في اكتشاف الثغرات قبل استغلالها خارجيًا.

نتائج التجارب

بحسب الشركة، نجح هذا المهاجم الآلي في توجيه وكلاء الذكاء الاصطناعي لتنفيذ سيناريوهات ضارة معقدة تمتد لعشرات الخطوات، وكشف عن أساليب هجوم لم تظهر حتى في اختبارات الفرق البشرية المختصة أو التقارير الخارجية. في أحد العروض التوضيحية، أظهرت “OpenAI” كيف تمكن هجوم خبيث من دفع الوكيل الذكي إلى إرسال رسالة استقالة بدلًا من رد تلقائي خارج أوقات العمل، قبل أن يتمكن النظام، بعد التحديثات الأمنية، من اكتشاف المحاولة والتنبيه إليها.

التعاون مع الأطراف الخارجية

رغم هذه التحسينات، امتنعت الشركة عن الكشف عما إذا كانت التحديثات قد أدت إلى خفض ملموس في معدلات نجاح هذه الهجمات، مؤكدة في المقابل تعاونها مع أطراف خارجية لتعزيز أمان “أطلس” منذ ما قبل إطلاقه.

وجهة نظر الباحثين الأمنيين

يرى رامي مكارثي، الباحث الأمني في شركة Wiz، أن التعلم المعزز أداة مهمة للتكيف مع سلوك المهاجمين، لكنها ليست حلاً كافيًا بمفردها. أوضح أن مخاطر أنظمة الذكاء الاصطناعي يمكن فهمها من خلال معادلة الاستقلالية مضروبة في مستوى الوصول، مشيرًا إلى أن المتصفحات الوكيلة تقع في منطقة حساسة تجمع بين صلاحيات واسعة ومستوى عالٍ من الاستقلالية.

توصيات OpenAI للمستخدمين

توصي “OpenAI” المستخدمين بتقليل المخاطر عبر الحد من الصلاحيات، وطلب تأكيد المستخدم قبل تنفيذ إجراءات حساسة مثل إرسال الرسائل أو إجراء المدفوعات، إضافة إلى تقديم تعليمات دقيقة بدل منح الوكيل حرية تصرف واسعة.

التوازن بين الأمان والفائدة

رغم اعتبار حماية المستخدمين أولوية قصوى، يلفت مكارثي إلى أن العائد العملي من هذه المتصفحات لا يزال محل شك، قائلًا إن قيمتها الحالية لا تبرر بعد مستوى المخاطر المرتبط بوصولها إلى بيانات حساسة، مؤكدًا أن هذا التوازن قد يتغير مستقبلًا، لكنه اليوم ما زال تحديًا حقيقيًا.