لا حل جذري لهجمات حقن الأوامر بمتصفحات الذكاء الاصطناعي

أقرت شركة OpenAI بأن متصفحات الذكاء الاصطناعي ستظل معرضة لهجمات تُعرف باسم Prompt Injection أو “حقن الأوامر”، رغم الجهود المتواصلة لتعزيز مستويات الحماية، ما يثير تساؤلات متزايدة حول مدى أمان عمل وكلاء الذكاء الاصطناعي في بيئة الإنترنت المفتوحة.

وقالت الشركة، في تدوينة رسمية نشرتها الاثنين، إن هذا النوع من الهجمات، الذي يعتمد على إدخال تعليمات خبيثة مخفية داخل صفحات ويب أو رسائل بريد إلكتروني لخداع وكلاء الذكاء الاصطناعي، من غير المرجح أن يتم القضاء عليه بشكل كامل، مشبهة الأمر بعمليات الاحتيال والهندسة الاجتماعية المنتشرة على الويب.

وأضافت “OpenAI” أن تفعيل وضع “الوكيل الذكي” في متصفح “شات جي بي تي أطلس” يوسع بطبيعته نطاق التهديدات الأمنية، في اعتراف صريح بتعقيد التحديات المرتبطة بهذا الجيل الجديد من المتصفحات الذكية، بحسب تقرير نشره موقع “تك كرانش” واطلعت عليه “العربية Business”.

وكانت “OpenAI” قد أطلقت متصفح “أطلس” في أكتوبر الماضي، وسرعان ما نجح باحثون أمنيون في عرض تجارب تُظهر إمكانية التلاعب بسلوك المتصفح عبر تعليمات بسيطة مخفية داخل مستندات Google Docs.

وفي السياق ذاته، أكدت شركة Brave أن حقن الأوامر غير المباشر يمثل مشكلة هيكلية تطال معظم المتصفحات المدعومة بالذكاء الاصطناعي، بما في ذلك متصفح Comet من “Perplexity”.

ولا يقتصر هذا القلق على “OpenAI” وحدها؛ إذ حذر المركز الوطني للأمن السيبراني في المملكة المتحدة مؤخرًا من أن هجمات حقن الأوامر على تطبيقات الذكاء الاصطناعي التوليدي قد لا يمكن منعها بالكامل، داعيًا المؤسسات إلى التركيز على تقليل المخاطر وتأثيرها بدلًا من افتراض إمكانية إيقافها نهائيًا.

وفي مواجهة هذا التحدي طويل الأمد، تؤكد “OpenAI” أنها تعتمد نهجًا استباقيًا قائمًا على دورات استجابة سريعة، تهدف إلى اكتشاف أساليب الهجوم الجديدة داخليًا قبل ظهورها في الهجمات الواقعية.

وتتبنى الشركة، على غرار منافسين مثل “غوغل” و”أنثروبيك”، مبدأ الدفاع متعدد الطبقات والاختبار المستمر.

لكن اللافت هو اعتماد “OpenAI” على ما تسميه مهاجمًا آليًا قائمًا على النماذج اللغوية، وهو نظام مدرب بتقنيات التعلم المعزز، يلعب دور المخترق ويبحث باستمرار عن طرق جديدة لزرع تعليمات خبيثة داخل وكلاء الذكاء الاصطناعي.


ويتيح هذا النظام محاكاة الهجوم وتحليل طريقة تفكير النموذج المستهدف، ما يمنح “OpenAI” أفضلية في اكتشاف الثغرات قبل استغلالها خارجيًا.

وبحسب الشركة، نجح هذا المهاجم الآلي في توجيه وكلاء الذكاء الاصطناعي لتنفيذ سيناريوهات ضارة معقدة تمتد لعشرات الخطوات، بل وكشف عن أساليب هجوم لم تظهر حتى في اختبارات الفرق البشرية المختصة أو التقارير الخارجية.

وفي أحد العروض التوضيحية، أظهرت “OpenAI” كيف تمكن هجوم خبيث من دفع الوكيل الذكي إلى إرسال رسالة استقالة بدلًا من رد تلقائي خارج أوقات العمل، قبل أن يتمكن النظام، بعد التحديثات الأمنية، من اكتشاف المحاولة والتنبيه إليها.

ورغم هذه التحسينات، امتنعت الشركة عن الكشف عما إذا كانت التحديثات قد أدت إلى خفض ملموس في معدلات نجاح هذه الهجمات، مؤكدة في المقابل تعاونها مع أطراف خارجية لتعزيز أمان “أطلس” منذ ما قبل إطلاقه.

من جانبه، يرى رامي مكارثي، الباحث الأمني في شركة Wiz، أن التعلم المعزز أداة مهمة للتكيف مع سلوك المهاجمين، لكنها ليست حلًا كافيًا بمفردها.

وأوضح أن مخاطر أنظمة الذكاء الاصطناعي يمكن فهمها من خلال معادلة الاستقلالية مضروبة في مستوى الوصول، مشيرًا إلى أن المتصفحات الوكيلة تقع في منطقة حساسة تجمع بين صلاحيات واسعة ومستوى عالٍ من الاستقلالية.

وتوصي “OpenAI” المستخدمين بتقليل المخاطر عبر الحد من الصلاحيات، وطلب تأكيد المستخدم قبل تنفيذ إجراءات حساسة مثل إرسال الرسائل أو إجراء المدفوعات، إضافة إلى تقديم تعليمات دقيقة بدل منح الوكيل حرية تصرف واسعة.

ورغم اعتبار حماية المستخدمين أولوية قصوى، يلفت مكارثي إلى أن العائد العملي من هذه المتصفحات لا يزال محل شك، قائلًا إن قيمتها الحالية لا تبرر بعد مستوى المخاطر المرتبط بوصولها إلى بيانات حساسة، مؤكدًا أن هذا التوازن قد يتغير مستقبلًا، لكنه اليوم ما زال تحديًا حقيقيًا.