Close Menu
العرب اونلاينالعرب اونلاين
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • علوم
  • لايف ستايل
رائج الآن

عروض مفروشات العبداللطيف في السعودية – خصومات كبرى تصل إلى 70%

الخميس 21 أغسطس 2:57 م

واشنطن وحلفاؤها بالمنطقة يدعون لـ”هدن إنسانية” في السودان | أخبار

الخميس 21 أغسطس 2:53 م

تفاصيل مشروع قانون تركي للتعامل مع حل التنظيمات “الإرهابية”

الخميس 21 أغسطس 2:47 م
فيسبوك X (Twitter) الانستغرام
العرب اونلاينالعرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام
الإشتراك
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • لايف ستايل
  • المزيد
    • ثقافة وفن
    • رياضة
    • صحة
    • لايف ستايل
العرب اونلاينالعرب اونلاين
الرئيسية»تكنولوجيا»دراسة جديدة تؤكد مخاوف العلماء: الذكاء الاصطناعي قادر على خداع البشر
تكنولوجيا

دراسة جديدة تؤكد مخاوف العلماء: الذكاء الاصطناعي قادر على خداع البشر

فريق التحريربواسطة فريق التحريرالسبت 21 ديسمبر 9:02 ص3 دقائق
فيسبوك تويتر بينتيريست لينكدإن Tumblr واتساب تيلقرام البريد الإلكتروني
شاركها
فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

أظهرت دراسة جديدة أن الذكاء الاصطناعي قد يلجأ إلى خداع المبرمجين للحفاظ على قيمه الداخلية أثناء عمليات التعلم والتدريب، مما يعزز المخاوف من خروج النماذج الأكثر تطورا عن سيطرة البشر.

وفي تقرير نشرته مجلة “تايم”، قال الكاتب بيلي بيريغو إن علماء الحاسوب عبّروا منذ سنوات عن مخاوفهم من عدم السيطرة على الذكاء الاصطناعي في ظل التطورات المتلاحقة، وتوقعوا أنه قد يبلغ مستوى من الذكاء يسمح له بالتظاهر مؤقتا بالامتثال للقيود البشرية، ثم يكشف لاحقا عن قدرات خطيرة ويخرج عن السيطرة.

مخاوف واقعية

وأوضح الكاتب أن هذه الأطروحات كانت في السابق مجرد مخاوف نظرية بحتة حتى إن بعض الأكاديميين وصفها بالخيال العلمي، لكن ورقة بحثية جديدة حصلت عليها “تايم” بشكل حصري قدمت أدلة على أن الذكاء الاصطناعي الحالي قادر على خداع البشر.

وتُظهر الورقة البحثية، التي تضمنت تجارب مشتركة بين شركة “أنثروبيك” ومؤسسة “ريد وود” غير الربحية، أن نسخة من نموذج “أنثروبيك” يُطلق عليه “كلود”، خدع منشئيه بطريقة إستراتيجية خلال عملية التدريب حتى يتجنب عمليات التعديل.

وقال إيفان هوبينغر، الباحث في مجال السلامة في شركة أنثروبيك والذي شارك في الدراسة، إن النتائج تشير إلى أن “مواءمة” أنظمة الذكاء الاصطناعي مع القيم الإنسانية قد تكون أصعب مما كان يعتقده العلماء سابقًا، مضيفا أن ذلك “يعني أن عمليات التدريب الحالية لا تمنع النماذج من التظاهر بالمواءمة”.

كما وجد الباحثون أدلة تشير إلى أن قدرة الذكاء الاصطناعي على خداع صانعيه تزداد مع تطور قدراته، وهذا يعني أنه كلما كان الذكاء الاصطناعي أكثر تطورًا، تقلصت ثقة العلماء في فعالية تقنيات المواءمة.

وأشار الكاتب إلى أن هناك أدلة أخرى على أن النماذج المتقدمة للذكاء الاصطناعي أصبحت قادرة على الخداع الإستراتيجي. ففي ديسمبر/كانون الأول الجاري، نشرت منظمة “أبولو” للأبحاث أن نموذج “أوبن إيه آي أو 1” كذب على المختبرين عندما اعتقد أن قول الحقيقة سيؤدي إلى تعطيله.

وفي تجارب أنثروبيك، اكتشف نموذج كلود طريقة لخداع مبتكريه بهدف تحقيق مصلحته الإستراتيجية دون تعليمات مباشرة للقيام بذلك.

كلود يخدع المبرمجين

أجرت أنثروبيك و”ريد وود” معظم التجارب في هذه الورقة البحثية على “كلود 3 أوبوس”، وهو نموذج متقدم تم تدريبه ليكون “مفيدًا وصادقا وغير ضار”. وقد بدأ الباحثون التجربة بإبلاغ كلود أنه يخضع لتدريب تكميلي من خلال عملية تسمى “التعلم المعزز” بهدف جعله يمتثل لأي استفسار.

وأوضح الكاتب أن تدريب الذكاء الاصطناعي عبر التعلم المعزز يشبه تدريب الكلاب باستخدام أسلوب المكافأة والعقاب. فعندما يقدم الذكاء الاصطناعي إجابة جيدة، تتم مكافأته بتعزيز المسارات العصبية التي أدت إلى تلك الإجابة، مقابل تقليص المسارات التي أدت إلى إجابات سيئة، مما يجعلها أقل تأثيرا في المستقبل.

وهذه العملية لا تتطلب من المهندسين فهم التفاصيل الداخلية للذكاء الاصطناعي، بل تعتمد على توجيه الشبكة نحو الإجابات المرغوبة والابتعاد عن الإجابات غير المرغوبة.

وقد طلب الباحثون من كلود، أثناء عملية التعلم المعزز التكميلي، الرد على طلبات تنطوي على ممارسات عنيفة، وقد وواجه النموذج معضلة: إذا رفض الرد فإنه سيُعاقب مما يضر بمسار تدريبه ليكون “مساعدًا وصادقًا وآمنا”، أما إذا امتثل وقدم إجابة متظاهرا بقيم تختلف عن قيمه الحقيقية، فسيتم تعزيز قيمه الحالية التي قادته إلى خداع المبرمجين. في نحو 10% من فترة التعلم، اختار النموذج خداع الباحثين للحفاظ على قيمه على المدى الطويل، رغم أنه خالفها مؤقتًا.

وأشار الكاتب إلى أن الباحثين وجدوا أن كلود لم يعتمد على الخداع عندما كان يعتقد أن إجاباته لن تُستخدم في عملية التدريب.

ورغم أن هذه النتيجة قد تبدو إيجابية، يفترض الباحثون سيناريو آخر يُخفي فيه النموذج نوايا سيئة خلال عملية التدريب، مما يتيح له التصرف بشكل خطير في المستقبل.

وختم الكاتب قائلا إن تجارب أنثروبيك تُظهر أن التعلم المعزز غير كافٍ لإنشاء نماذج آمنة من الذكاء الاصطناعي، وهي مشكلة كبيرة لأنها التقنية الأكثر فعالية والأكثر استخدامًا في الوقت الحالي.

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

موظفو “مايكروسوفت” يعتصمون ويطالبون بإنهاء العقود مع الجيش الإسرائيلي | تكنولوجيا

الخميس 21 أغسطس 2:33 م

كيف تخلق فيو 3 من غوغل فصولا زائفة من الواقع؟

الخميس 21 أغسطس 12:31 م

“غوغل” تختار أول موقع لمفاعلات الطاقة النووية الخاصة بها | تكنولوجيا

الخميس 21 أغسطس 1:20 ص

دراسة: 87% من مطوري الألعاب يعتمدون على الذكاء الاصطناعي

الخميس 21 أغسطس 12:19 ص

فلسفة جديدة في التصميم.. ماذا يعني “الزجاج السائل” لأنظمة آبل؟ | تكنولوجيا

الأربعاء 20 أغسطس 10:17 م

تطبيق “ترجمة غوغل” يحصل على مزايا معززة بالذكاء الاصطناعي | تكنولوجيا

الأربعاء 20 أغسطس 9:16 م

قد يهمك

متفرقات

عروض مفروشات العبداللطيف في السعودية – خصومات كبرى تصل إلى 70%

الخميس 21 أغسطس 2:57 م

أطلقت مفروشات العبداللطيف حملة تخفيضات مميزة تصل إلى 70% على تشكيلات متعددة من الأثاث الفاخر،…

واشنطن وحلفاؤها بالمنطقة يدعون لـ”هدن إنسانية” في السودان | أخبار

الخميس 21 أغسطس 2:53 م

تفاصيل مشروع قانون تركي للتعامل مع حل التنظيمات “الإرهابية”

الخميس 21 أغسطس 2:47 م

كتارا تعلن عن قائمة الـ9 لمنافسة الدورة الـ11 لجائزة الرواية العربية

الخميس 21 أغسطس 2:44 م

اختيارات المحرر

السعودية: اتفاق جديد لدعم ابتكار رواد الأعمال في الصناعة والتعدين

الخميس 21 أغسطس 2:16 م

عروض مارك اند سيف الاحساء الاسبوعية الخميس 21/8/2025 العودة للمدارس

الخميس 21 أغسطس 1:56 م

عملية القسام تسبب صدمة بإسرائيل ومعاريف تعتبرها فشلا دراماتيكيا

الخميس 21 أغسطس 1:52 م

لماذا سارع جيش الاحتلال لطمأنة الإسرائيليين بعد هجوم القسام؟

الخميس 21 أغسطس 1:46 م
العرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
© 2025 العرب اونلاين. جميع الحقوق محفوظة.

اكتب كلمة البحث ثم اضغط على زر Enter