في تحول دراماتيكي لمشهد الأمن السيبراني، أصدرت شركة مايكروسوفت (Microsoft) تقريرا استراتيجيا مفصلا ضمن سلسلة تحذيراتها الأمنية، يسلط الضوء على الجانب المظلم لوكلاء الذكاء الاصطناعي المستقلين (AI Agents). ويؤكد هذا التقرير، الذي جاء في وقت تندمج فيه هذه التقنيات في صلب العمليات المؤسسية، الانتقال من مرحلة “الدردشة مع الآلة” إلى مرحلة “الآلة التي تعمل بالنيابة عنك”، وهو ما يفتح ثغرات أمنية غير مسبوقة.

وأوضحت مايكروسوفت أن الخطورة تكمن في طبيعة عمل وكلاء الذكاء الاصطناعي، فبخلاف نماذج اللغة التقليدية التي تنتظر سؤال المستخدم، يمتلك “الوكيل” القدرة على الوصول إلى البريد الإلكتروني، والتقويم وقواعد البيانات وتنفيذ مهام معقدة مثل حجز رحلات طيران أو إرسال تقارير مالية دون تدخل بشري مباشر، وهذا “الاستقلال” هو بالضبط ما يجعله هدفا جذابا للمهاجمين.

جوهر التحذير.. من “الرد” إلى “الفعل”

وقد أبرزت مايكروسوفت في تحقيقها الأمني عدة تحديات رئيسية مرتبطة بتزايد الاعتماد على هذه الأدوات الذكية. يأتي في مقدمتها خطر هجمات “حقن الأوامر غير المباشرة” (Indirect Prompt Injection). فبدلا من الاختراق المباشر، أصبح بإمكان المهاجمين إرسال بريد إلكتروني يحتوي على تعليمات خبيثة مخفية، يتحول بعدها الوكيل الذكي إلى أداة لتنفيذ هذه الأوامر، مثل تسريب معلومات حساسة.

وأشارت مايكروسوفت إلى مشكلة “الصلاحيات المفرطة” (Over-Privileging)، حيث تمنح بعض الشركات وكلاء الذكاء الاصطناعي صلاحيات واسعة تسهيلا لعملهم. هذا الأمر يمثل “كابوسا أمنيا”، إذ أن اختراق وكيل واحد قد يمنح المهاجم وصولا شاملا إلى بيانات المؤسسة، متجاوزا بذلك الجدران النارية التقليدية.

كما لفت التقرير إلى انتشار ظاهرة “الذكاء الاصطناعي الخفي” (Shadow AI)، حيث يستخدم حوالي 30% من الموظفين أدوات ذكاء اصطناعي غير معتمدة من قبل أقسام تقنية المعلومات. هذا الاستخدام يضع بيانات المؤسسة الحساسة في خطر، إذ قد يتم إرسالها إلى خوادم خارجية غير خاضعة للرقابة.

إيكو ليك.. الثغرة التي غيرت قواعد اللعبة

يشكل استخدام وكلاء الذكاء الاصطناعي تحديات جديدة، مثل ثغرة “إيكو ليك” (EchoLeak). تسمح هذه الثغرة للمهاجمين باستدراج الوكلاء لكشف بيانات حساسة كانت محفوظة في ذاكرتهم المؤقتة، مما قد يؤدي إلى تسريب معلومات تجارية أو شخصية قيمة. وتؤكد هذه الثغرات على الحاجة الماسة لنهج أمني استباقي.

ولمعالجة هذه المخاطر، اقترحت مايكروسوفت نموذجا أمنيا ثلاثي الأبعاد. أولا، التأكيد على “الموافقة البشرية الإلزامية” (Human-in-the-Loop) لأي إجراء يعتبر “عالي المخاطر”. ثانيا، تطبيق “مبدأ الحد الأدنى من الصلاحيات”، بحيث لا يمتلك الوكيل سوى الحد الأدنى من الإذن اللازم لإكمال مهمته.

وثالثا، يتضمن النموذج “المراقبة المستمرة” لسلوكيات الوكلاء، بهدف اكتشاف أي انحراف عن الأنماط الطبيعية فور حدوثه. وتؤمن مايكروسوفت بأن الجمع بين هذه العناصر يمكن أن يقلل بشكل كبير من المخاطر المرتبطة بتبني وكلاء الذكاء الاصطناعي.

وعلى الرغم من إمكانيات الذكاء الاصطناعي في تعزيز الإنتاجية، إلا أن مايكروسوفت تحذر من أن الإهمال الأمني قد يحول هذه الأدوات إلى “حصان طروادة” داخل المؤسسات. إن تأمين هذه الأنظمة لم يعد مجرد خيار، بل أصبح ضرورة حتمية لاستدامة العمل في العصر الرقمي.

يبقى التحدي الأكبر في كيفية قيام المؤسسات بتطبيق هذه الإجراءات الأمنية الصارمة مع الحفاظ على مرونة وكفاءة هذه التقنيات. ومع تزايد التعقيد، من المتوقع أن تشهد السنوات القادمة سباقا بين مطوري أدوات الذكاء الاصطناعي وفرق الأمن السيبراني.

شاركها.
Exit mobile version