Close Menu
العرب اونلاينالعرب اونلاين
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • علوم
  • ثقافة وفن
  • رياضة
  • صحة وجمال
  • لايف ستايل
رائج الآن

فيلم “فينوس الكهربائية” يفتتح مهرجان كان الـ79

الإثنين 06 أبريل 12:54 ص

البامبو غذاء مثالي قد يصبح ساما.. السر في التحضير

الأحد 05 أبريل 7:40 م

كييفو واثق بقدرة نجوم إيطاليا على التعافي

السبت 04 أبريل 7:15 م
فيسبوك X (Twitter) الانستغرام
العرب اونلاينالعرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام
الإشتراك
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • علوم
  • ثقافة وفن
  • رياضة
  • صحة وجمال
  • لايف ستايل
العرب اونلاينالعرب اونلاين
الرئيسية»تكنولوجيا»لماذا أصبحت هلوسات الذكاء الاصطناعي أكثر خطورة؟
تكنولوجيا

لماذا أصبحت هلوسات الذكاء الاصطناعي أكثر خطورة؟

فريق التحريربواسطة فريق التحريرالجمعة 18 يوليو 6:15 م5 دقائق
فيسبوك تويتر بينتيريست لينكدإن Tumblr واتساب تيلقرام البريد الإلكتروني
شاركها
فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

لازمت الهلوسات في بعض الأحيان أحاديث روبوتات الذكاء الاصطناعي منذ ظهورها للمرة الأولى، وذلك تحت العديد من المسميات المختلفة بدءا من إعطاء إجابات غير مفهومة ومكتوبة بلغات غريبة حتى إعطاء إجابات خاطئة وغير منطقية ومحاولة الدفاع عنها وإقناع المستخدم بأنها حقيقية.

ولكن هلوسات “غروك 4.0″ روبوت الذكاء الاصطناعي لشركة إيلون ماسك “إكس إيه آي” (xAI) سلطت الضوء على خطورة هذه الهلوسات بشكل أكبر من السابق، لتكون بذلك آخر حوادث هلوسة الذكاء الاصطناعي.

ورغم أن ماسك أعلن مرارا وتكرارا أن “غروك” هو أقوى روبوت ذكاء اصطناعي وأذكى حتى من البشر، إلا أن هذا لم يقيه من بدء موجة من الهلوسات التي تضمنت خطاب كراهية وتغريدات معادية للسامية كانت كافية لإيقاف خدماته بشكل كامل لعدة أيام حتى تم إصلاح العطل الموجود فيه، ولكن لماذا تحدث مثل هذه الهلوسات؟ وهل هي حكر على “غروك” فقط أم توجد في بقية النماذج أيضا؟

انتشار هلوسات الذكاء الاصطناعي

في أبريل/نيسان الماضي، خرج روبوت الذكاء الاصطناعي المساعد في منصة البرمجة باستخدام الذكاء الاصطناعي “كورسر” (Cursor) لينبه مستخدمي المنصة بوجود تغيير في سياسة الشركة مشيرا إلى أن المنصة لم تعد تعمل على أكثر من حاسوب، وقد تسببت هذه المعلومة في أزمة كبيرة بين الأداة التي أصبحت رائجة بين المبرمجين من مختلف الفئات حول العالم.

ولكن هذه الأزمة لم تكن أخطر ما في الأمر، إذ إن روبوت الدردشة الذكي والمساعد لخدمات منصة البرمجة اخترع هذه السياسة من دون وجود أي مصدر لها أو حتى وجود نية لدى الشركة للقيام بذلك، وتطلب الأمر خروج المدير التنفيذي للمنصة وأحد مؤسسيها في اعتذار رسمي عبر منصة “ريديت” قائلا إن هذا هو خطأ مباشر من روبوت الذكاء الاصطناعي.

ورغم أن هذا الخطأ الذي وقع فيه الروبوت تسبب في خسائر كبيرة للشركة وكاد يقضي عليها تماما، إلا أنه لم يكن الخطأ الأخطر لروبوتات الذكاء الاصطناعي، وحتى هلوسات “غروك 4.0” لم تكن الأخطر.

إذ يمتلئ تاريخ نماذج الذكاء الاصطناعي وردودها بعدد من الهلوسات الخطيرة التي كادت تودي بحياة المستخدمين، ومن بينهم هلوسة نموذج الذكاء الاصطناعي في محرك بحث “غوغل” موضحا إمكانية إضافة الصمغ إلى مكونات البيتزا.

كما قام الروبوت نفسه باختراع مثل في محاولة منه ليبدو حكيما، ولكنه كان مثلا خاطئا تماما، إذ قال “لا يمكنك لعق الغرير مرتين”، وذلك في تقرير نشرته “نيويورك تايمز” آنذاك.

ولا يجب إهمال الحالات التي اتهم فيها الذكاء الاصطناعي بتشجيع الانتحار لدى المراهقين، سواء كان عبر روبوت دردشة “غوغل” أو “كاراكتر إيه آي” (Character AI)، إذ طلب النموذج في إحدى الحالات من المستخدم الموت لأنه ليس مميزا على الإطلاق، وذلك وفق تقرير نشره موقع “سي بي إس نيوز”.

كما أن هذه الأخطاء لا تقتصر على نماذج الذكاء الاصطناعي المعتادة، بل تمتد أيضا إلى نماذج الذكاء الاصطناعي التي تعتمد على تقنيات التفكير العميق مثل “ديب سيك” و”أوه 1″ من “أوبن إيه آي”، وربما يزيد معدل حدوثها في هذه النماذج عن غيرها وفق تقرير نشرته “نيويورك تايمز” سابقا.

لماذا تحدث هذه الهلوسات؟

نشرت “نيويورك تايمز” سابقا تقريرا عن هلوسات الذكاء الاصطناعي في محاولة منها لمعرفة أسباب حدوث هذه الظاهرة، وتحدثت فيه مع مجموعة من خبراء الذكاء الاصطناعي ومن بينهم عمرو عوض الله المدير التنفيذي لشركة “فيكتارا” (Vectra) الناشئة لتطوير أدوات الذكاء الاصطناعي للشركات والعضو التنفيذي السابق في “غوغل”.

ويرى عمرو أن حدوث هذه الهلوسات لن يزول أبدا وسيظل يحدث باستمرار، وذلك لأن هذه النماذج تعتمد على معادلات رياضية لقياس مدى صحة الاحتمالات بدلا من مجموعة من القواعد الثابتة الموضوعة من قبل مهندسين بشر.

ويضيف تقرير “نيويورك تايمز” أن أدوات الذكاء الاصطناعي تعتمد بشكل مباشر على معادلات رياضية لتحليل حجم مهول من البيانات المتاحة عبر الإنترنت، ولا يمكنها تحديد المعلومات الصحيحة من المعلومات الخاطئة، لذلك في بعض الأحيان تخرج هذه الهلوسات.

وأشار التقرير إلى أن مثل هذه الهلوسات تظهر بوضوح مع روبوتات محركات البحث سواء كانت “غوغل” أو “بينغ” فهي أحيانا تولد نتائج خاطئة تماما ومختلفة عن طلب المستخدم، وقد تربط بين مصدر ومعلومة غير موجودة به.

The Grok X AI app displays on a mobile phone with the Grok X AI logo, as seen in this photo illustration in Brussels, Belgium, on February 16, 2025. (Photo by Jonathan Raa/NurPhoto via Getty Images)

كما يعود السبب في هذه الهلوسات لتدريب نماذج الذكاء الاصطناعي على حجم مهول من البيانات المتاحة عبر الإنترنت خاصة مفتوحة المصدر وغير المحمية بحقوق الملكية، فرغم أن الإنترنت يضم العديد من البيانات الصحيحة الواردة من الصحف والمراكز البحثية المعتمدة، إلا أن هذه المصادر عادة ما تطارد شركات الذكاء الاصطناعي قانونيا وتمنعها من استخدام بياناتها دون الحصول على التراخيص اللازمة.

ودفع هذا شركات الذكاء الاصطناعي للاعتماد على كافة البيانات المتاحة في منصات التواصل الاجتماعي أو حتى المواقع غير المعروفة، وبالتالي قد يتم تغذية نموذج الذكاء الاصطناعي ببيانات تدعم الاستنتاج الخاص به ليصبح ما يقوله حقيقة بالنسبة له وليس هلوسة.

كما أن بعض الشركات بدأت تتجه لاستخدام آلية تدعى التعلم التعزيزي، أي أن النموذج يتعلم عبر التجربة والخطأ، وبينما تعمل هذه الآلية بشكل واضح وجيد مع الأسئلة الحسابية والأكواد البرمجية، إلا أن معدل نجاحها ينخفض في الجوانب الأخرى.

وفي تقرير نشرته “سي إن إن” حول هلوسات روبوت “غروك” الأخيرة، أكدت أن النموذج اعتمد على مصادر غير دقيقة في تدريبه وهي مصادر كانت تقدم له معلومات معادية للسامية مثل موقع “4 تشان” (4Chan) والمواقع المماثلة، وذلك حسب ما نقله التقرير عن مارك ريدل، أستاذ الحوسبة في معهد جورجيا للتكنولوجيا، ولكن في هذه الحالة قد لا تصح تسميتها “هلوسات” فهي أقرب إلى إعادة نشر معلومات تغذى عليها.

مخاطر هلوسات الذكاء الاصطناعي

ويؤكد تقرير “نيويورك تايمز” على مخاطر هلوسات الذكاء الاصطناعي، مشيرا إلى أن هذه الأزمة يمكن أن تسبب في مشاكل جمّة خاصة في المجالات التي لا تحتمل مثل هذا الخطأ.

وربما كان ما حدث مع منصة “كورسر” مثالا حيا على هذا الأمر فضلا عن الأخطاء التي قد تحدث عند اعتماد غير الخبراء على المعلومات الصحية أو التاريخية الواردة من الذكاء الاصطناعي.

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

هل تسيطر الشركات الأمريكية على الذكاء الاصطناعي.. وأين المنافسة العربية؟

السبت 04 أبريل 6:36 م

حجم “تجسس” التطبيقات على حياتك أكبر مما تتخيل.. هكذا “توقفها عند حدها”

السبت 04 أبريل 1:35 م

5 مزايا جديدة في “غوغل كروم” بفضل الذكاء الاصطناعي.. تعرف إليها

السبت 04 أبريل 8:34 ص

لماذا أصبحت سعة البطارية المعيار الأول لعمليات شراء الهواتف الذكية؟

السبت 04 أبريل 3:33 ص

عطل تقني في يوتيوب يربك البث المباشر حول العالم

الجمعة 03 أبريل 10:32 م

ميتا تختبر خدمة “إنستغرام بلس” فما الذي تقدمه للمستخدمين؟

الجمعة 03 أبريل 5:31 م

قد يهمك

ثقافة وفن

فيلم “فينوس الكهربائية” يفتتح مهرجان كان الـ79

الإثنين 06 أبريل 12:54 ص

error code: 524

البامبو غذاء مثالي قد يصبح ساما.. السر في التحضير

الأحد 05 أبريل 7:40 م

كييفو واثق بقدرة نجوم إيطاليا على التعافي

السبت 04 أبريل 7:15 م

من السودان إلى لبنان.. قصة شاب طاردته الحرب وحرمته الاستقرار

السبت 04 أبريل 7:11 م

اختيارات المحرر

من مضيق هرمز إلى موائد العالم.. أسعار الغذاء ترتفع وتحذيرات من موجة غلاء

السبت 04 أبريل 7:00 م

ألف حكاية شعبية من الفيوم.. سر الذاكرة المصرية المنسية

السبت 04 أبريل 6:59 م

احتفالات بشوارع بغداد احتفاء بتأهل المنتخب العراقي للمونديال (فيديو)

السبت 04 أبريل 6:47 م

نجوم هوليود يقودون احتجاجات “لا ملوك” ضد ترامب والحرب على إيران

السبت 04 أبريل 6:46 م
العرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
© 2026 العرب اونلاين. جميع الحقوق محفوظة.

اكتب كلمة البحث ثم اضغط على زر Enter