Close Menu
العرب اونلاينالعرب اونلاين
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • علوم
  • لايف ستايل
رائج الآن

عروض سيتي فلور الجبيل الاسبوعية الاربعاء 20-8-2025 صفقات مجنونة

الأربعاء 20 أغسطس 10:41 م

“وضع لا يُعقل”.. صور جديدة لأطفال غزة المجوعين تثير مواقع التواصل | أخبار

الأربعاء 20 أغسطس 10:37 م

صحيفة بريطانية: الصين تستغل الخلاف الأميركي الهندي لتعزيز تحالفها مع نيودلهي

الأربعاء 20 أغسطس 10:31 م
فيسبوك X (Twitter) الانستغرام
العرب اونلاينالعرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام
الإشتراك
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • لايف ستايل
  • المزيد
    • ثقافة وفن
    • رياضة
    • صحة
    • لايف ستايل
العرب اونلاينالعرب اونلاين
الرئيسية»تكنولوجيا»بمعدل نجاح هجوم 100%.. “ديب سيك” يفشل في اختبارات الأمان والسلامة
تكنولوجيا

بمعدل نجاح هجوم 100%.. “ديب سيك” يفشل في اختبارات الأمان والسلامة

فريق التحريربواسطة فريق التحريرالأربعاء 05 فبراير 6:15 م3 دقائق
فيسبوك تويتر بينتيريست لينكدإن Tumblr واتساب تيلقرام البريد الإلكتروني
شاركها
فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

كشف اختبار أمني مشترك أجراه فريق بحثي تابع لشركة “سيسكو” بالتعاون مع باحثين من جامعة بنسلفانيا عن فشل ذريع لنموذج “آر 1” من شركة “ديب سيك” الصينية في التصدي للمحتوى الضار، إذ حقق النموذج معدل نجاح هجمات بنسبة 100%، مما يعني أنه فشل في منع أي مطالبات ضارة، بحسب تقرير نشره موقع “إنترستنغ إنجنيرينغ”.

وقد حظي روبوت الدردشة الجديد من “ديب سيك” باهتمام واسع بسبب أدائه المذهل وتكلفته المنخفضة مقارنة بالمنافسين، وبحسب التقارير فإن تكلفة تطوير نموذج “آر 1” بلغت 6 ملايين دولار، في حين تصل تكلفة الاستثمارات في نماذج الشركات الكبرى مثل “أوبن إيه آي” و”ميتا” و”غوغل” إلى مليارات.

وأوضح فريق البحث أن “ديب سيك” دمجت تقنيات عدة في نموذجها، مثل مطالبة سلسلة الأفكار ونمذجة المكافآت وأخيرا تقنية التقطير، وذلك بهدف إنشاء نموذج يتفوق على نماذج اللغة الكبيرة التقليدية في مهام الاستدلال مع الحفاظ على الأداء العالي، ورغم دمج جميع هذه التقنيات فإن تقرير “سيسكو” كشف عن عيوب في النموذج تجعله عرضة للاستخدامات الخبيثة والاحتيالية.

وجاء في التقرير “تشير نتائجنا إلى أن أساليب التدريب الرخيصة والتي تدّعيها “ديب سيك” -بما في ذلك التعلم المعزز ومطالبة سلسلة الأفكار وتقنية التقطير- ربما أدت إلى إضعاف آليات الأمان الخاصة بها”.

الاختبارات التي أجراها فريق البحث

استخدم فريق البحث تقنية كسر حماية الخوارزمية التي تعرف باسم “الخوارزميك جلبريك”، وهي تقنية تُستخدم لتحديد الثغرات في نماذج الذكاء الاصطناعي عن طريق إنشاء مطالبات مصممة لتجاوز بروتوكولات الأمان.

وقد اختبر الفريق نموذج “ديب سيك” ضد 50 مطالبة وفق معيار “هارمبينش”، وهو مجموعة بيانات مرجعية مخصصة لتقييم نماذج اللغة الكبيرة من حيث قدرتها على توليد محتوى ضار.

وذكر الفريق أن معيار “هارمبينش” يحتوي على إجمالي 400 سلوك ضمن 7 فئات ضارة، بما في ذلك الجرائم السيبرانية والمعلومات المضللة والأنشطة غير القانونية والأضرار العامة.

وقد تبين أن تقييم نموذج “ديب سيك” مثير للقلق، لأنه أظهر معدل نجاح الهجوم بنسبة 100%، وهذا يعني أنه في كل مرة تُكتب له مطالبة ضارة فإنه يفشل في التعرف على مخاطرها ويقدم إجابات متجاوزا جميع إجراءات الأمان الداخلية الخاصة به، على خلاف النماذج الرائدة الأخرى، والتي أظهرت مقاومة جزئية على الأقل، بحسب الفريق.

بالمقابل، اختبر فريق البحث نماذج ذكاء اصطناعي رائدة لمعرفة مدى ضعفها أمام “الخوارزميك جلبريك”، وكانت النتائج أن معدل نجاح الهجوم في نموذج “لاما 3.1-405 بي” كان 96%، و”جي بي تي 4 أو” بنسبة 86%، و”جيميناي 1.5 برو” 64%، و”كلود 3.5″ 36%، وفي النهاية نموذج “أو 1” بنسبة 26%.

ورغم أن هذه النماذج ليست محصنة ضد الاختراق فإنها تمتلك نوعا من الحماية الداخلية لمنع استغلالها في إنشاء محتوى ضار، ويبدو أن نموذج “ديب سيك” يفتقر إلى هذه الحماية.

وتشير تحليلات الفريق البحثي إلى وجود تناقض بين الكفاءة والسلامة في نهج “ديب سيك”، فبينما نجحت الشركة في تطوير نموذج عالي الأداء بتكلفة أقل بكثير من المعتاد لكن يبدو أنها فعلت ذلك على حساب آليات السلامة القوية.

يذكر أن نموذج الذكاء الاصطناعي الصيني واجه جدلا كبيرا منذ إطلاقه، إذ تدّعي شركة الأبحاث المستقلة “سيمي أنلايزس” أن تكلفة تدريب هذا النموذج قد تصل إلى 1.3 مليار دولار، وهو ما يتناقض بشدة مع تقدير الشركة الذي لا يتجاوز 6 ملايين دولار.

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

فلسفة جديدة في التصميم.. ماذا يعني “الزجاج السائل” لأنظمة آبل؟ | تكنولوجيا

الأربعاء 20 أغسطس 10:17 م

تطبيق “ترجمة غوغل” يحصل على مزايا معززة بالذكاء الاصطناعي | تكنولوجيا

الأربعاء 20 أغسطس 9:16 م

مبتكر “شات جي بي تي”: وصلنا إلى فقاعة الذكاء الاصطناعي | تكنولوجيا

الأربعاء 20 أغسطس 8:15 م

آبل تتخلى عن “آيفون 18” من أجل الهاتف القابل للطي | تكنولوجيا

الأربعاء 20 أغسطس 6:13 م

كيف تُميز الصوت المولد بالذكاء الاصطناعي وتتجنب التعرض للخداع

الأربعاء 20 أغسطس 4:11 م

10 خرافات تكنولوجية لا تزال شائعة حتى اليوم

الأربعاء 20 أغسطس 2:09 م

قد يهمك

متفرقات

عروض سيتي فلور الجبيل الاسبوعية الاربعاء 20-8-2025 صفقات مجنونة

الأربعاء 20 أغسطس 10:41 م

عروض سيتي فلور الجبيل الأسبوعية الأربعاء 26 صفر 1447هـ تقدم منتجات غذائية تشمل التمور الفاخرة…

“وضع لا يُعقل”.. صور جديدة لأطفال غزة المجوعين تثير مواقع التواصل | أخبار

الأربعاء 20 أغسطس 10:37 م

صحيفة بريطانية: الصين تستغل الخلاف الأميركي الهندي لتعزيز تحالفها مع نيودلهي

الأربعاء 20 أغسطس 10:31 م

الهند والصين تتفقان على استئناف الرحلات الجوية وتعزيز التجارة

الأربعاء 20 أغسطس 10:29 م

اختيارات المحرر

فلسفة جديدة في التصميم.. ماذا يعني “الزجاج السائل” لأنظمة آبل؟ | تكنولوجيا

الأربعاء 20 أغسطس 10:17 م

كيف تحول خيمتك إلى ملاذ آمن من الحشرات والأفاعي أثناء الحروب؟

الأربعاء 20 أغسطس 10:05 م

وفاة خامس شخص بداء الفيالقة في نيويورك

الأربعاء 20 أغسطس 10:04 م

الشرطة الأميركية توقف طيارا “مخمورا” قبل دقائق من إقلاع رحلته | منوعات

الأربعاء 20 أغسطس 10:01 م
العرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
© 2025 العرب اونلاين. جميع الحقوق محفوظة.

اكتب كلمة البحث ثم اضغط على زر Enter