Close Menu
العرب اونلاينالعرب اونلاين
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • علوم
  • لايف ستايل
رائج الآن

ترمب: مجموعة «بريكس» ستنهار «سريعاً» إذا شكلت يوماً أي كيان فاعل

السبت 19 يوليو 2:00 ص

يديعوت أحرونوت: نتنياهو سيُبقي الوفد المفاوض بالدوحة حتى التوصل لاتفاق

السبت 19 يوليو 1:39 ص

صحف عالمية: خطوط إسرائيل الحمراء في سوريا تغرقها أكثر في الصراع

السبت 19 يوليو 1:32 ص
فيسبوك X (Twitter) الانستغرام
العرب اونلاينالعرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام
الإشتراك
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • لايف ستايل
  • المزيد
    • ثقافة وفن
    • رياضة
    • صحة
    • لايف ستايل
العرب اونلاينالعرب اونلاين
الرئيسية»تكنولوجيا»لماذا أصبحت هلوسات الذكاء الاصطناعي أكثر خطورة؟
تكنولوجيا

لماذا أصبحت هلوسات الذكاء الاصطناعي أكثر خطورة؟

فريق التحريربواسطة فريق التحريرالجمعة 18 يوليو 6:15 م5 دقائق
فيسبوك تويتر بينتيريست لينكدإن Tumblr واتساب تيلقرام البريد الإلكتروني
شاركها
فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

لازمت الهلوسات في بعض الأحيان أحاديث روبوتات الذكاء الاصطناعي منذ ظهورها للمرة الأولى، وذلك تحت العديد من المسميات المختلفة بدءا من إعطاء إجابات غير مفهومة ومكتوبة بلغات غريبة حتى إعطاء إجابات خاطئة وغير منطقية ومحاولة الدفاع عنها وإقناع المستخدم بأنها حقيقية.

ولكن هلوسات “غروك 4.0″ روبوت الذكاء الاصطناعي لشركة إيلون ماسك “إكس إيه آي” (xAI) سلطت الضوء على خطورة هذه الهلوسات بشكل أكبر من السابق، لتكون بذلك آخر حوادث هلوسة الذكاء الاصطناعي.

ورغم أن ماسك أعلن مرارا وتكرارا أن “غروك” هو أقوى روبوت ذكاء اصطناعي وأذكى حتى من البشر، إلا أن هذا لم يقيه من بدء موجة من الهلوسات التي تضمنت خطاب كراهية وتغريدات معادية للسامية كانت كافية لإيقاف خدماته بشكل كامل لعدة أيام حتى تم إصلاح العطل الموجود فيه، ولكن لماذا تحدث مثل هذه الهلوسات؟ وهل هي حكر على “غروك” فقط أم توجد في بقية النماذج أيضا؟

انتشار هلوسات الذكاء الاصطناعي

في أبريل/نيسان الماضي، خرج روبوت الذكاء الاصطناعي المساعد في منصة البرمجة باستخدام الذكاء الاصطناعي “كورسر” (Cursor) لينبه مستخدمي المنصة بوجود تغيير في سياسة الشركة مشيرا إلى أن المنصة لم تعد تعمل على أكثر من حاسوب، وقد تسببت هذه المعلومة في أزمة كبيرة بين الأداة التي أصبحت رائجة بين المبرمجين من مختلف الفئات حول العالم.

ولكن هذه الأزمة لم تكن أخطر ما في الأمر، إذ إن روبوت الدردشة الذكي والمساعد لخدمات منصة البرمجة اخترع هذه السياسة من دون وجود أي مصدر لها أو حتى وجود نية لدى الشركة للقيام بذلك، وتطلب الأمر خروج المدير التنفيذي للمنصة وأحد مؤسسيها في اعتذار رسمي عبر منصة “ريديت” قائلا إن هذا هو خطأ مباشر من روبوت الذكاء الاصطناعي.

ورغم أن هذا الخطأ الذي وقع فيه الروبوت تسبب في خسائر كبيرة للشركة وكاد يقضي عليها تماما، إلا أنه لم يكن الخطأ الأخطر لروبوتات الذكاء الاصطناعي، وحتى هلوسات “غروك 4.0” لم تكن الأخطر.

إذ يمتلئ تاريخ نماذج الذكاء الاصطناعي وردودها بعدد من الهلوسات الخطيرة التي كادت تودي بحياة المستخدمين، ومن بينهم هلوسة نموذج الذكاء الاصطناعي في محرك بحث “غوغل” موضحا إمكانية إضافة الصمغ إلى مكونات البيتزا.

كما قام الروبوت نفسه باختراع مثل في محاولة منه ليبدو حكيما، ولكنه كان مثلا خاطئا تماما، إذ قال “لا يمكنك لعق الغرير مرتين”، وذلك في تقرير نشرته “نيويورك تايمز” آنذاك.

ولا يجب إهمال الحالات التي اتهم فيها الذكاء الاصطناعي بتشجيع الانتحار لدى المراهقين، سواء كان عبر روبوت دردشة “غوغل” أو “كاراكتر إيه آي” (Character AI)، إذ طلب النموذج في إحدى الحالات من المستخدم الموت لأنه ليس مميزا على الإطلاق، وذلك وفق تقرير نشره موقع “سي بي إس نيوز”.

كما أن هذه الأخطاء لا تقتصر على نماذج الذكاء الاصطناعي المعتادة، بل تمتد أيضا إلى نماذج الذكاء الاصطناعي التي تعتمد على تقنيات التفكير العميق مثل “ديب سيك” و”أوه 1″ من “أوبن إيه آي”، وربما يزيد معدل حدوثها في هذه النماذج عن غيرها وفق تقرير نشرته “نيويورك تايمز” سابقا.

لماذا تحدث هذه الهلوسات؟

نشرت “نيويورك تايمز” سابقا تقريرا عن هلوسات الذكاء الاصطناعي في محاولة منها لمعرفة أسباب حدوث هذه الظاهرة، وتحدثت فيه مع مجموعة من خبراء الذكاء الاصطناعي ومن بينهم عمرو عوض الله المدير التنفيذي لشركة “فيكتارا” (Vectra) الناشئة لتطوير أدوات الذكاء الاصطناعي للشركات والعضو التنفيذي السابق في “غوغل”.

ويرى عمرو أن حدوث هذه الهلوسات لن يزول أبدا وسيظل يحدث باستمرار، وذلك لأن هذه النماذج تعتمد على معادلات رياضية لقياس مدى صحة الاحتمالات بدلا من مجموعة من القواعد الثابتة الموضوعة من قبل مهندسين بشر.

ويضيف تقرير “نيويورك تايمز” أن أدوات الذكاء الاصطناعي تعتمد بشكل مباشر على معادلات رياضية لتحليل حجم مهول من البيانات المتاحة عبر الإنترنت، ولا يمكنها تحديد المعلومات الصحيحة من المعلومات الخاطئة، لذلك في بعض الأحيان تخرج هذه الهلوسات.

وأشار التقرير إلى أن مثل هذه الهلوسات تظهر بوضوح مع روبوتات محركات البحث سواء كانت “غوغل” أو “بينغ” فهي أحيانا تولد نتائج خاطئة تماما ومختلفة عن طلب المستخدم، وقد تربط بين مصدر ومعلومة غير موجودة به.

The Grok X AI app displays on a mobile phone with the Grok X AI logo, as seen in this photo illustration in Brussels, Belgium, on February 16, 2025. (Photo by Jonathan Raa/NurPhoto via Getty Images)

كما يعود السبب في هذه الهلوسات لتدريب نماذج الذكاء الاصطناعي على حجم مهول من البيانات المتاحة عبر الإنترنت خاصة مفتوحة المصدر وغير المحمية بحقوق الملكية، فرغم أن الإنترنت يضم العديد من البيانات الصحيحة الواردة من الصحف والمراكز البحثية المعتمدة، إلا أن هذه المصادر عادة ما تطارد شركات الذكاء الاصطناعي قانونيا وتمنعها من استخدام بياناتها دون الحصول على التراخيص اللازمة.

ودفع هذا شركات الذكاء الاصطناعي للاعتماد على كافة البيانات المتاحة في منصات التواصل الاجتماعي أو حتى المواقع غير المعروفة، وبالتالي قد يتم تغذية نموذج الذكاء الاصطناعي ببيانات تدعم الاستنتاج الخاص به ليصبح ما يقوله حقيقة بالنسبة له وليس هلوسة.

كما أن بعض الشركات بدأت تتجه لاستخدام آلية تدعى التعلم التعزيزي، أي أن النموذج يتعلم عبر التجربة والخطأ، وبينما تعمل هذه الآلية بشكل واضح وجيد مع الأسئلة الحسابية والأكواد البرمجية، إلا أن معدل نجاحها ينخفض في الجوانب الأخرى.

وفي تقرير نشرته “سي إن إن” حول هلوسات روبوت “غروك” الأخيرة، أكدت أن النموذج اعتمد على مصادر غير دقيقة في تدريبه وهي مصادر كانت تقدم له معلومات معادية للسامية مثل موقع “4 تشان” (4Chan) والمواقع المماثلة، وذلك حسب ما نقله التقرير عن مارك ريدل، أستاذ الحوسبة في معهد جورجيا للتكنولوجيا، ولكن في هذه الحالة قد لا تصح تسميتها “هلوسات” فهي أقرب إلى إعادة نشر معلومات تغذى عليها.

مخاطر هلوسات الذكاء الاصطناعي

ويؤكد تقرير “نيويورك تايمز” على مخاطر هلوسات الذكاء الاصطناعي، مشيرا إلى أن هذه الأزمة يمكن أن تسبب في مشاكل جمّة خاصة في المجالات التي لا تحتمل مثل هذا الخطأ.

وربما كان ما حدث مع منصة “كورسر” مثالا حيا على هذا الأمر فضلا عن الأخطاء التي قد تحدث عند اعتماد غير الخبراء على المعلومات الصحية أو التاريخية الواردة من الذكاء الاصطناعي.

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

“بعد أن أصبح حلم المستثمرين.. روبوت “إن2” يتعرض للركل والضرب في فيديو طريف | تكنولوجيا

الجمعة 18 يوليو 3:11 م

أوبر تفتح أبوابها للتاكسي الصيني ذاتي القيادة.. والشرق الأوسط أولى المحطات

الجمعة 18 يوليو 12:09 م

تقنيات المستقبل تغزو صناعات السيارات والسينما واللياقة البدنية

الجمعة 18 يوليو 10:07 ص

ما قصة الشبح واللون الأصفر اللذين يظهران في شعار سناب شات؟

الخميس 17 يوليو 10:56 م

هيئة الغذاء والدواء الأميركية تحذر.. ميزة قياس ضغط الدم في “ووب” غير قانونية والشركة ترد | تكنولوجيا

الخميس 17 يوليو 9:55 م

لماذا اختارت ميتا “بلاي إيه آي” المصرية في سباقها مع “أوبن إيه آي”؟ | تكنولوجيا

الخميس 17 يوليو 8:53 م

قد يهمك

الأخبار

ترمب: مجموعة «بريكس» ستنهار «سريعاً» إذا شكلت يوماً أي كيان فاعل

السبت 19 يوليو 2:00 ص

جدد الرئيس الأميركي دونالد ترمب تهديده، الجمعة، بفرض رسوم جمركية على الدول الأعضاء في مجموعة…

يديعوت أحرونوت: نتنياهو سيُبقي الوفد المفاوض بالدوحة حتى التوصل لاتفاق

السبت 19 يوليو 1:39 ص

صحف عالمية: خطوط إسرائيل الحمراء في سوريا تغرقها أكثر في الصراع

السبت 19 يوليو 1:32 ص

المغني الشهير سنوب دوغ يستثمر في كرة القدم

السبت 19 يوليو 1:25 ص

اختيارات المحرر

فحم ورمال وعظام مطحونة.. رحلة الإنسان في البحث عن معجون الأسنان

السبت 19 يوليو 1:05 ص

صامويل ليما… من بورتو إلى الأخدود

السبت 19 يوليو 12:59 ص

سرايا القدس تنشر فيديو لتدمير “ميركافا” شرقي حي التفاح | أخبار

السبت 19 يوليو 12:38 ص

الشباب الماليزي يرفضون اعتماد سفير أميركي متهم بالعنصرية

السبت 19 يوليو 12:32 ص
العرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
© 2025 العرب اونلاين. جميع الحقوق محفوظة.

اكتب كلمة البحث ثم اضغط على زر Enter