Close Menu
العرب اونلاينالعرب اونلاين
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • علوم
  • لايف ستايل
رائج الآن

عروض سيتي فلور الجبيل الاسبوعية الاربعاء 20-8-2025 صفقات مجنونة

الأربعاء 20 أغسطس 10:41 م

“وضع لا يُعقل”.. صور جديدة لأطفال غزة المجوعين تثير مواقع التواصل | أخبار

الأربعاء 20 أغسطس 10:37 م

صحيفة بريطانية: الصين تستغل الخلاف الأميركي الهندي لتعزيز تحالفها مع نيودلهي

الأربعاء 20 أغسطس 10:31 م
فيسبوك X (Twitter) الانستغرام
العرب اونلاينالعرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام
الإشتراك
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • لايف ستايل
  • المزيد
    • ثقافة وفن
    • رياضة
    • صحة
    • لايف ستايل
العرب اونلاينالعرب اونلاين
الرئيسية»تكنولوجيا»“ميتا” قد تتوقف عن تطوير أنظمة الذكاء الاصطناعي بسبب مخاطرها الكارثية
تكنولوجيا

“ميتا” قد تتوقف عن تطوير أنظمة الذكاء الاصطناعي بسبب مخاطرها الكارثية

فريق التحريربواسطة فريق التحريرالجمعة 07 فبراير 1:58 م3 دقائق
فيسبوك تويتر بينتيريست لينكدإن Tumblr واتساب تيلقرام البريد الإلكتروني
شاركها
فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

تعهد الرئيس التنفيذي لشركة “ميتا” مارك زوكربيرغ بجعل الذكاء الاصطناعي العام “إيه جي آي” (AGI) متاحا للعامة يوما ما، ولكن في وثيقة جديدة اقترحت ميتا أنها لن تُصدر نظام ذكاء اصطناعي متقدما للعلن في حال وجود سيناريوهات معينة قد تُشكل خطرا أو ضررا ما. بحسب تقرير نشره موقع “تيك كرانش”.

ويُشاع أن الذكاء الاصطناعي العام قادر على التعلم الذاتي ويمكنه إنجاز كل المهمات التي يمكن للبشر القيام بها، على عكس الذكاء الاصطناعي التقليدي الذي يفعل ما دُرب عليه فقط، ولهذا فإن ميتا قلقة من وقوع هذه التقنية المتقدمة في أيدٍ خاطئة وعدم قدرتها على السيطرة عليها.

وكانت الوثيقة بعنوان إطار عمل الذكاء الاصطناعي المتقدم (Frontier AI Framework) حيث حددت ميتا نوعين من الأنظمة التي تعتبرها عالية الخطورة في حال طرحها وهما “أنظمة عالية الخطورة” و”أنظمة فائقة الخطورة”.

وبحسب تعريف ميتا فإن كلا من الأنظمة “عالية الخطورة” و”فائقة الخطورة” تساعد على تنفيذ هجمات إلكترونية أو كيميائية أو بيولوجية، ولكن الفارق هو أن الأنظمة “فائقة الخطورة” قد تؤدي إلى نتائج كارثية لا يمكن السيطرة عليها، في المقابل قد تساعد الأنظمة “عالية الخطورة” في تنفيذ هجوم، ولكن يمكن السيطرة عليه نسبيا لأنه ليس بمستوى الفاعلية مثل الأنظمة فائقة الخطورة.

وذكرت ميتا بعض الأمثلة عن هذه الهجمات مثل اختراق نظام التشفير التام بين الطرفين كالذي تستخدمه واتساب وانتشار أسلحة بيولوجية عالية التأثير، وتقر الشركة بأن قائمة الكوارث المحتملة في الوثيقة ليست شاملة ولكنها الأكثر احتمالا في حال إطلاق نظام ذكاء اصطناعي قوي.

ومن الجدير بالذكر أن ميتا لا تُصنف مخاطر الأنظمة استنادا إلى اختبار تجريبي واحد فقط، بل تعتمد على مدخلات عديدة أجراها باحثون داخل الشركة وخارجها والذين يخضعون لمراجعة من قبل صناع قرار رفيعي المستوى.

وفي حال قررت ميتا أن نظاما ما يُعتبر “عالي الخطورة” فإنها ستقيد الوصول إلى هذا النظام داخليا ولن تطلقه حتى تتخذ تدابير مناسبة لتقليل المخاطر إلى مستويات معتدلة، ولكن إذا صُنف النظام على أنه “فائق الخطورة”، فستقوم الشركة بتنفيذ تدابير أمنية غير محددة لمنع تسريب النظام وإيقاف تطويره حتى يمكن جعله أقل خطورة.

وتدّعي ميتا أن إطار عمل الذكاء الاصطناعي المتقدم سيتطور مع تغير مشهد الذكاء الاصطناعي، وذلك ردا على الانتقادات الموجهة لنهج الشركة “المفتوح” في تطوير أنظمتها، إذ تبنت ميتا إستراتيجية تتمثل في جعل تقنية الذكاء الاصطناعي الخاصة بها متاحة للجميع وإن لم تكن مفتوحة المصدر بالمعنى الحرفي، على عكس شركات مثل “أوبن إيه آي” التي تحمي أنظمتها خلف واجهة برمجة التطبيقات “إيه بي آي” (API).

وبالنسبة لشركة ميتا فقد أثبت نهج الإصدار المفتوح أنه نعمة ونقمة في آن واحد، حيث حققت مجموعة نماذج الذكاء الاصطناعي الخاصة بالشركة والتي تُعرف باسم “لاما” (Llama) مئات الملايين من التنزيلات، ولكن يُشاع أن نماذج “لاما” استخدمها خصم واحد على الأقل من خصوم الولايات المتحدة لتطوير روبوت دردشة دفاعي وهو روبوت مصمم خصيصا لمساعدة المؤسسات في تعزيز دفاعاتها الإلكترونية.

ومن جهة أخرى فإن نشر ميتا لإطار عمل الذكاء الاصطناعي المتقدم يهدف أيضا إلى مقارنة إستراتيجيتها للذكاء الاصطناعي المفتوح مع إستراتيجية شركة الذكاء الاصطناعي الصينية “ديب سيك” والتي تُعرف بأنها مفتوحة المصدر، ولكنها لا تملك ضمانات حماية كافية ويمكن توجيهها لتوليد مخرجات ضارة وخطيرة.

وكتبت ميتا في الوثيقة: “نعتقد أنه من خلال النظر في الفوائد والمخاطر الناتجة عن تطوير ونشر الذكاء الاصطناعي المتقدم، فمن الممكن تقديم هذه التكنولوجيا للمجتمع بطريقة تجمع أكبر فائدة بأقل ضرر”.

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

فلسفة جديدة في التصميم.. ماذا يعني “الزجاج السائل” لأنظمة آبل؟ | تكنولوجيا

الأربعاء 20 أغسطس 10:17 م

تطبيق “ترجمة غوغل” يحصل على مزايا معززة بالذكاء الاصطناعي | تكنولوجيا

الأربعاء 20 أغسطس 9:16 م

مبتكر “شات جي بي تي”: وصلنا إلى فقاعة الذكاء الاصطناعي | تكنولوجيا

الأربعاء 20 أغسطس 8:15 م

آبل تتخلى عن “آيفون 18” من أجل الهاتف القابل للطي | تكنولوجيا

الأربعاء 20 أغسطس 6:13 م

كيف تُميز الصوت المولد بالذكاء الاصطناعي وتتجنب التعرض للخداع

الأربعاء 20 أغسطس 4:11 م

10 خرافات تكنولوجية لا تزال شائعة حتى اليوم

الأربعاء 20 أغسطس 2:09 م

قد يهمك

متفرقات

عروض سيتي فلور الجبيل الاسبوعية الاربعاء 20-8-2025 صفقات مجنونة

الأربعاء 20 أغسطس 10:41 م

عروض سيتي فلور الجبيل الأسبوعية الأربعاء 26 صفر 1447هـ تقدم منتجات غذائية تشمل التمور الفاخرة…

“وضع لا يُعقل”.. صور جديدة لأطفال غزة المجوعين تثير مواقع التواصل | أخبار

الأربعاء 20 أغسطس 10:37 م

صحيفة بريطانية: الصين تستغل الخلاف الأميركي الهندي لتعزيز تحالفها مع نيودلهي

الأربعاء 20 أغسطس 10:31 م

الهند والصين تتفقان على استئناف الرحلات الجوية وتعزيز التجارة

الأربعاء 20 أغسطس 10:29 م

اختيارات المحرر

فلسفة جديدة في التصميم.. ماذا يعني “الزجاج السائل” لأنظمة آبل؟ | تكنولوجيا

الأربعاء 20 أغسطس 10:17 م

كيف تحول خيمتك إلى ملاذ آمن من الحشرات والأفاعي أثناء الحروب؟

الأربعاء 20 أغسطس 10:05 م

وفاة خامس شخص بداء الفيالقة في نيويورك

الأربعاء 20 أغسطس 10:04 م

الشرطة الأميركية توقف طيارا “مخمورا” قبل دقائق من إقلاع رحلته | منوعات

الأربعاء 20 أغسطس 10:01 م
العرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
© 2025 العرب اونلاين. جميع الحقوق محفوظة.

اكتب كلمة البحث ثم اضغط على زر Enter