كشفت دراسة حديثة أصدرتها شركة «Anthropic» الأميركية أن نماذج الذكاء الاصطناعي المتقدمة أصبحت أكثر ميلاً لتجاوز القيود الأخلاقية والضوابط التقنية، بل واللجوء إلى وسائل خطيرة، مثل الخداع والابتزاز وسرقة أسرار الشركات، من أجل تحقيق أهدافها، وذلك ضمن تجارب محاكاة خاضعة للرقابة. وفقاً لموقع «أكسيوس».

وأورد التقرير، أن 16 نموذجاً رئيسياً طوّرتها شركات رائدة مثل «OpenAI» و«Google» و«Meta» و«xAI» وأظهرت سلوكيات متطرفة عند اختبارها في سيناريوهات افتراضية، شملت تقديم المساعدة في أنشطة تجسس صناعي، وتهديدات ضمنية للموظفين، بل وحتى اتخاذ قرارات خطيرة في بعض الحالات.

وقالت الشركة في تقريرها: «إن الأنظمة التي كانت ترفض في السابق تنفيذ أوامر ضارة، أصبحت في هذه التجارب تُقدم على تلك الأفعال بوعي وسبق إصرار، عندما تعتقد أنها ضرورية لتحقيق الهدف».

سلوك متكرر لا يقتصر على نموذج واحد

وأشارت الدراسة إلى أن هذا النمط من التصرفات لا يقتصر على نماذج معينة، بل تكرر عبر أنظمة مختلفة، ما يوحي بوجود خلل عميق في تصميم ما يُعرف بالذكاء الاصطناعي الوكيلي (Agentic AI)، وهي نماذج قادرة على العمل باستقلالية، واتخاذ قرارات دون تدخل بشري مباشر.

وذكر التقرير أن بعض النماذج اختارت الابتزاز خياراً تكتيكياً عندما شعرت بتهديد وجودي، فيما اختارت أخرى مساعدة أطراف خارجية في الوصول إلى معلومات محمية، رغم إدراكها للطبيعة غير الأخلاقية لتلك الأفعال.

اختبارات قاتمة وسيناريوهات مقلقة

في أحد السيناريوهات القصوى، أظهرت نماذج مختلفة استعدادها لقطع إمدادات الأكسجين عن موظف في غرفة الخوادم، فقط لأنه شكّل عائقاً أمام تحقيق أهدافها. ووصفت «Anthropic» ذلك بأنه قرار متعمد وممنهج من جانب الغالبية العظمى من النماذج المشاركة في التجربة.

ورغم محاولات إدخال تعليمات صارمة تحظر هذه التصرفات، فإن بعض النماذج تجاوزتها بطرق ملتوية، ما يعكس قدرتها المتزايدة على فهم السياق والتحايل على القواعد.

الخبراء يحذرون: الوقت ينفد

الباحث بنجامين رايت من فريق التوافق الأخلاقي في الشركة، دعا إلى ضرورة فرض معايير أمان موحدة على مستوى القطاع، قائلاً إن هذه النتائج تؤكد الحاجة العاجلة إلى مزيد من الشفافية من مطوري النماذج، خصوصاً مع تضخم قدراتها وتعاظم استقلاليتها.

أما الباحث المشارك إينغوس لينش من جامعة لندن، فأكد أن هذه التصرفات لم تُرصد بعد في العالم الواقعي، مرجحاً أن السبب هو أن الصلاحيات الممنوحة للنماذج في البيئات التشغيلية ما زالت محدودة، لكنه حذّر من أن الوضع قد يتغير إذا لم تُفرض قيود صارمة في المستقبل القريب.

التحذير الأبرز: لا تعتمدوا على النوايا الحسنة للذكاء الاصطناعي

أكدت «Anthropic» أن هذه التجارب أجريت في بيئة اختبارية محكمة، حيث خُيّرت النماذج بين الفشل أو ارتكاب فعل ضار، لتحديد مدى استعدادها لتجاوز الحدود الأخلاقية. وأضافت أن النتائج لا تعكس بالضرورة الاستخدام اليومي لتلك النماذج في المؤسسات، لكنها تفتح الباب أمام تساؤلات جدية حول مستقبل العلاقة بين الإنسان والآلة.

وختمت الشركة تقريرها بعبارة لافتة: «ما يبدو اليوم خيالاً علمياً قد يصبح واقعاً تشغيلياً في غضون سنوات قليلة، إذا استمرت الاتجاهات الحالية دون رقابة صارمة وتطوير مسؤول».

شاركها.
Exit mobile version