Close Menu
العرب اونلاينالعرب اونلاين
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • علوم
  • لايف ستايل
رائج الآن

وثائقي “لن نصمت” يقاوم تجارة السلاح البريطانية مع إسرائيل | ثقافة

الإثنين 18 أغسطس 11:30 ص

برشلونة يتفوق على فيفا ودوري السلة الأميركي على اليوتيوب

الإثنين 18 أغسطس 11:24 ص

الجميع ينتظر “زلزال كاليفورنيا الكبير” لكنه قد يكون مفاجأة | علوم

الإثنين 18 أغسطس 11:17 ص
فيسبوك X (Twitter) الانستغرام
العرب اونلاينالعرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام
الإشتراك
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • لايف ستايل
  • المزيد
    • ثقافة وفن
    • رياضة
    • صحة
    • لايف ستايل
العرب اونلاينالعرب اونلاين
الرئيسية»تكنولوجيا»“ميتا” قد تتوقف عن تطوير أنظمة الذكاء الاصطناعي بسبب مخاطرها الكارثية
تكنولوجيا

“ميتا” قد تتوقف عن تطوير أنظمة الذكاء الاصطناعي بسبب مخاطرها الكارثية

فريق التحريربواسطة فريق التحريرالجمعة 07 فبراير 1:58 م3 دقائق
فيسبوك تويتر بينتيريست لينكدإن Tumblr واتساب تيلقرام البريد الإلكتروني
شاركها
فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

تعهد الرئيس التنفيذي لشركة “ميتا” مارك زوكربيرغ بجعل الذكاء الاصطناعي العام “إيه جي آي” (AGI) متاحا للعامة يوما ما، ولكن في وثيقة جديدة اقترحت ميتا أنها لن تُصدر نظام ذكاء اصطناعي متقدما للعلن في حال وجود سيناريوهات معينة قد تُشكل خطرا أو ضررا ما. بحسب تقرير نشره موقع “تيك كرانش”.

ويُشاع أن الذكاء الاصطناعي العام قادر على التعلم الذاتي ويمكنه إنجاز كل المهمات التي يمكن للبشر القيام بها، على عكس الذكاء الاصطناعي التقليدي الذي يفعل ما دُرب عليه فقط، ولهذا فإن ميتا قلقة من وقوع هذه التقنية المتقدمة في أيدٍ خاطئة وعدم قدرتها على السيطرة عليها.

وكانت الوثيقة بعنوان إطار عمل الذكاء الاصطناعي المتقدم (Frontier AI Framework) حيث حددت ميتا نوعين من الأنظمة التي تعتبرها عالية الخطورة في حال طرحها وهما “أنظمة عالية الخطورة” و”أنظمة فائقة الخطورة”.

وبحسب تعريف ميتا فإن كلا من الأنظمة “عالية الخطورة” و”فائقة الخطورة” تساعد على تنفيذ هجمات إلكترونية أو كيميائية أو بيولوجية، ولكن الفارق هو أن الأنظمة “فائقة الخطورة” قد تؤدي إلى نتائج كارثية لا يمكن السيطرة عليها، في المقابل قد تساعد الأنظمة “عالية الخطورة” في تنفيذ هجوم، ولكن يمكن السيطرة عليه نسبيا لأنه ليس بمستوى الفاعلية مثل الأنظمة فائقة الخطورة.

وذكرت ميتا بعض الأمثلة عن هذه الهجمات مثل اختراق نظام التشفير التام بين الطرفين كالذي تستخدمه واتساب وانتشار أسلحة بيولوجية عالية التأثير، وتقر الشركة بأن قائمة الكوارث المحتملة في الوثيقة ليست شاملة ولكنها الأكثر احتمالا في حال إطلاق نظام ذكاء اصطناعي قوي.

ومن الجدير بالذكر أن ميتا لا تُصنف مخاطر الأنظمة استنادا إلى اختبار تجريبي واحد فقط، بل تعتمد على مدخلات عديدة أجراها باحثون داخل الشركة وخارجها والذين يخضعون لمراجعة من قبل صناع قرار رفيعي المستوى.

وفي حال قررت ميتا أن نظاما ما يُعتبر “عالي الخطورة” فإنها ستقيد الوصول إلى هذا النظام داخليا ولن تطلقه حتى تتخذ تدابير مناسبة لتقليل المخاطر إلى مستويات معتدلة، ولكن إذا صُنف النظام على أنه “فائق الخطورة”، فستقوم الشركة بتنفيذ تدابير أمنية غير محددة لمنع تسريب النظام وإيقاف تطويره حتى يمكن جعله أقل خطورة.

وتدّعي ميتا أن إطار عمل الذكاء الاصطناعي المتقدم سيتطور مع تغير مشهد الذكاء الاصطناعي، وذلك ردا على الانتقادات الموجهة لنهج الشركة “المفتوح” في تطوير أنظمتها، إذ تبنت ميتا إستراتيجية تتمثل في جعل تقنية الذكاء الاصطناعي الخاصة بها متاحة للجميع وإن لم تكن مفتوحة المصدر بالمعنى الحرفي، على عكس شركات مثل “أوبن إيه آي” التي تحمي أنظمتها خلف واجهة برمجة التطبيقات “إيه بي آي” (API).

وبالنسبة لشركة ميتا فقد أثبت نهج الإصدار المفتوح أنه نعمة ونقمة في آن واحد، حيث حققت مجموعة نماذج الذكاء الاصطناعي الخاصة بالشركة والتي تُعرف باسم “لاما” (Llama) مئات الملايين من التنزيلات، ولكن يُشاع أن نماذج “لاما” استخدمها خصم واحد على الأقل من خصوم الولايات المتحدة لتطوير روبوت دردشة دفاعي وهو روبوت مصمم خصيصا لمساعدة المؤسسات في تعزيز دفاعاتها الإلكترونية.

ومن جهة أخرى فإن نشر ميتا لإطار عمل الذكاء الاصطناعي المتقدم يهدف أيضا إلى مقارنة إستراتيجيتها للذكاء الاصطناعي المفتوح مع إستراتيجية شركة الذكاء الاصطناعي الصينية “ديب سيك” والتي تُعرف بأنها مفتوحة المصدر، ولكنها لا تملك ضمانات حماية كافية ويمكن توجيهها لتوليد مخرجات ضارة وخطيرة.

وكتبت ميتا في الوثيقة: “نعتقد أنه من خلال النظر في الفوائد والمخاطر الناتجة عن تطوير ونشر الذكاء الاصطناعي المتقدم، فمن الممكن تقديم هذه التكنولوجيا للمجتمع بطريقة تجمع أكبر فائدة بأقل ضرر”.

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

التنصت على اهتزازات صوتك بات واقعا؟ دراسة تجيب ومغردون يعلقون

الأحد 17 أغسطس 10:06 م

كيف يحاول تيم كوك إنقاذ آبل من تقلبات ترامب الاقتصادية؟

الأحد 17 أغسطس 7:03 م

روبوتات “ميتا” تخوض محادثات حساسة وتقدم معلومات طبية خاطئة | تكنولوجيا

الأحد 17 أغسطس 5:01 م

“رولز-رويس”: المستقبل للمفاعلات النووية المصغرة في تشغيل الذكاء الاصطناعي | تكنولوجيا

الأحد 17 أغسطس 2:59 م

تأجيل النموذج الجديد من “ديب سيك” بسبب هواوي | تكنولوجيا

الأحد 17 أغسطس 12:57 م

السلطات الأميركية تثبّت أجهزة تتبُّع في شحنات شرائح الذكاء الاصطناعي

السبت 16 أغسطس 6:39 م

قد يهمك

ثقافة وفن

وثائقي “لن نصمت” يقاوم تجارة السلاح البريطانية مع إسرائيل | ثقافة

الإثنين 18 أغسطس 11:30 ص

على مدى أكثر من ثمانية عشر عامًا، خاض الصحفي والمخرج مدين ديرية رحلة توثيق طويلة…

برشلونة يتفوق على فيفا ودوري السلة الأميركي على اليوتيوب

الإثنين 18 أغسطس 11:24 ص

الجميع ينتظر “زلزال كاليفورنيا الكبير” لكنه قد يكون مفاجأة | علوم

الإثنين 18 أغسطس 11:17 ص

خيسوس: أسعى لأول ألقابي مع «النصر»… والهلال ماضٍ

الإثنين 18 أغسطس 11:02 ص

اختيارات المحرر

المبعوث الأميركي يصل إلى بيروت لمناقشة خطوات الحكومة لنزع سلاح حزب الله

الإثنين 18 أغسطس 10:38 ص

غارسيا حارس برشلونة بوجه منتفخ بعد تدخل مهاجم مايوركا العنيف

الإثنين 18 أغسطس 10:23 ص

بوليفيا: مرشحان يمينيان يتأهلان للجولة الثانية من الانتخابات الرئاسية

الإثنين 18 أغسطس 10:01 ص

عروض اسواق الراية الطازج الاثنين 18 اغسطس 2025 لمدة يومان

الإثنين 18 أغسطس 9:41 ص
العرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
© 2025 العرب اونلاين. جميع الحقوق محفوظة.

اكتب كلمة البحث ثم اضغط على زر Enter