Close Menu
العرب اونلاينالعرب اونلاين
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • علوم
  • لايف ستايل
رائج الآن

على غرار بايدن… ترمب يتعثر على سلم الطائرة الرئاسية (فيديو)

الإثنين 09 يونيو 9:20 ص

عروض الدكان جدة الطازج الاثنين 9 يونيو 2025 اليوم فقط

الإثنين 09 يونيو 9:04 ص

كم ستخسر أميركا نتيجة الصراع بين ماسك وترامب؟

الإثنين 09 يونيو 9:02 ص
فيسبوك X (Twitter) الانستغرام
العرب اونلاينالعرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام
الإشتراك
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • لايف ستايل
  • المزيد
    • ثقافة وفن
    • رياضة
    • صحة
    • لايف ستايل
العرب اونلاينالعرب اونلاين
الرئيسية»ثقافة وفن»مخاطر وأسئلة أخلاقية في عالم الآلات.. هل الإنسانية مرحلة عابرة في تطور الذكاء الاصطناعي؟
ثقافة وفن

مخاطر وأسئلة أخلاقية في عالم الآلات.. هل الإنسانية مرحلة عابرة في تطور الذكاء الاصطناعي؟

فريق التحريربواسطة فريق التحريرالجمعة 30 يونيو 11:38 م3 دقائق
فيسبوك تويتر بينتيريست لينكدإن Tumblr واتساب تيلقرام البريد الإلكتروني
شاركها
فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

تكثر الأسئلة بخصوص مخاطر الذكاء الاصطناعي المحتملة وتهديداته للبشرية بـ”الفناء”، فهل من صدقية لهذا السيناريو الكارثي الذي لا يزال -لو صح حقا- يلوح في الأفق البعيد؟

يبدأ الكابوس المستوحى من عدد كبير من أفلام الخيال العلمي عندما تتفوق الآلة بقدراتها على البشر وتخرج عن نطاق السيطرة.

وقال الباحث الكندي يوشوا بنجيو -وهو أحد عرابي التعلم الآلي- في تصريح حديث “منذ اللحظة التي ستكون لدينا آلات مصممة لكي تستمر سنواجه مشاكل”.

ودعت منظمة الأمم المتحدة للتربية والعلم والثقافة (يونسكو) قبل شهور قليلة بلدان العالم إلى تطبيق توصيتها بوقف تطوير هذه البرامج 6 أشهر، محذرة من مخاطر كبيرة على البشرية، ومشددة على الحاجة لتطوير ذكاء اصطناعي “أساسه الأخلاق”.

اللحظة الحاسمة

وبحسب الفيلسوف السويدي نيك بوستروم، ستأتي اللحظة الحاسمة عندما تعرف الآلات كيف تصنع آلات أخرى بنفسها، مما يتسبب في “انفجار في الذكاء”.

ويرى بوستروم مؤلف كتاب “الذكاء الخارق” في حوار سابق مع الجزيرة نت أن أدمغة الآلة إذا تفوقت على أدمغة الإنسان في الذكاء العام فإن هذا الذكاء الخارق الجديد يمكن أن يحل محل البشر باعتباره الشكل المهيمن للحياة على الأرض.

ووفق نظريته التي سميت “نظرية مشبك الورق”، يطرح بوستروم سيناريو افتراضيا يقول فيه إنه إذا جرى برمجة الذكاء الاصطناعي على سبيل المثال لتطوير إنتاج مشبك الورق ومنح الموارد فقد يقوم بتحويل المواد الأخرى إلى مشابك ورقية على حساب القيم والأولويات الأخرى، فمثلا قد يستهلك كميات هائلة من المواد الخام والطاقة لتعزيز الإنتاج حتى لو أدى ذلك للإضرار بالإنسان والبيئة أو حتى إبادة البشر.

وتعد رؤية بوستروم بشأن مخاطر الذكاء الاصطناعي مؤثرة للغاية في الأوساط العلمية، وقد ألهمت كلا من رئيس شركتي “تسلا” (Tesla) و”سبيس إكس” (Space X) الملياردير إيلون ماسك والفيزيائي ستيفن هوكينغ الذي توفي في عام 2018.

الأسلحة القاتلة

وتبدو صورة المقاتل الآلي ذي العينين الحمراوين من فيلم “تيرميناتور” (Terminator) -والذي أرسله ذكاء اصطناعي مستقبلي لوضع حد لكل مقاومة بشرية- حاضرة في أذهان الكثيرين بصورة كبيرة.

لكن وفق خبراء حملة “أوقفوا الروبوتات القاتلة” (Stop Killer Robots)، فإن هذا ليس الشكل الذي ستسود به الأسلحة المستقلة في السنوات المقبلة، وفق ما ذكروا في تقرير صادر عام 2021.

وبفضل التطورات السريعة في مجال الذكاء الاصطناعي تتسارع وتيرة الأسلحة التي يمكنها تحديد العدو بشكل ذاتي ومستقل، ثم تتخذ قرارا ميدانيا قد يتضمن قتل البشر دون وجود ضابط يوجه الهجوم أو جندي يسحب الزناد، بحسب تقرير سابق للجزيرة.

ومن المتوقع أن تصبح تلك الآلات بمرور الوقت أساس الحروب والعمليات العسكرية الجديدة، ويطلق عليها اسم أنظمة الأسلحة المميتة الذاتية/ المستقلة، لكن مناهضيها يسمونها “الروبوتات القاتلة”.

احتمالات أقل سوداوية

بدورها، تطمئن اختصاصية الروبوتات كيرستين دوتنهان من جامعة واترلو في كندا -في مقابلة مع وكالة الصحافة الفرنسية- بأن “الذكاء الاصطناعي لن يمنح الآلات الرغبة في قتل البشر”.

وتقول إن “الروبوتات ليست شريرة (بذاتها)”، مقرة في الوقت عينه بأن مطوريها يمكن أن يبرمجوها لإلحاق الأذى.

ويتوقع الفيلسوف هو برايس في شريط فيديو ترويجي نشره مركز دراسة المخاطر الوجودية في جامعة كامبردج أنه “في أسوأ الأحوال يمكن أن يموت جنسنا البشري من دون خليفة لنا”.

ومع ذلك، هناك “احتمالات أقل سوداوية” يمكن فيها للبشر المعززين بالتكنولوجيا المتقدمة البقاء على قيد الحياة، ويضيف برايس أن “الأنواع البيولوجية البحتة تنتهي بالانقراض”.

وفي عام 2014 قال ستيفن هوكينغ إن جنسنا البشري سيعجز يوما عن منافسة الآلات، وأوضح هوكينغ لهيئة الإذاعة البريطانية “بي بي سي” (BBC) أن هذا من شأنه أن “يمهد لفناء الجنس البشري”.

أما جيفري هينتون الباحث الذي يحاول إنشاء آلات تشبه الدماغ البشري لحساب مجموعة غوغل فتحدث أخيرا بعبارات مماثلة عن “ذكاء خارق” يتفوق على البشر.

وأكد هينتون لقناة “بي بي إس” (BBS) الأميركية أنه من الممكن أن “تكون الإنسانية مجرد مرحلة عابرة في تطور الذكاء”.

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

4 من أعضاء “بي تي إس” ينهون خدمتهم العسكرية الأسبوع المقبل

الأحد 08 يونيو 10:34 م

صيف 2025 السينمائي.. منافسة محتدمة وأفلام تسرق الأضواء

الأحد 08 يونيو 7:31 م

تايلند.. برنامج تدريبي للمسلمين قبل السفر للحج

الأحد 08 يونيو 2:30 م

ما الذي يمنح السلطة شرعيتها؟ كتاب يفتح الباب لمقاربة فلسفية جديدة

الأحد 08 يونيو 12:28 م

كيف تحول التراث الشعبي المغربي إلى ركيزة ثقافية في المجتمع؟

الأحد 08 يونيو 11:27 ص

نجم موسيقي ثمانيني مخضرم يعترف بالاستعانة بالذكاء الاصطناعي في التأليف

السبت 07 يونيو 10:10 م

قد يهمك

الأخبار

على غرار بايدن… ترمب يتعثر على سلم الطائرة الرئاسية (فيديو)

الإثنين 09 يونيو 9:20 ص

تعثر الرئيس الأميركي دونالد ترمب أثناء صعوده إلى الطائرة الرئاسية، أمس (الأحد)، في طريقه إلى…

عروض الدكان جدة الطازج الاثنين 9 يونيو 2025 اليوم فقط

الإثنين 09 يونيو 9:04 ص

كم ستخسر أميركا نتيجة الصراع بين ماسك وترامب؟

الإثنين 09 يونيو 9:02 ص

غارديان: جماعة نازية جديدة تنشط في الولايات المتحدة دون انزعاج

الإثنين 09 يونيو 8:55 ص

اختيارات المحرر

“حكومي غزة” يرد على مزاعم إسرائيل بوجود نفق تحت المستشفى الأوروبي

الإثنين 09 يونيو 8:01 ص

إصابات بانفجار داخل قاعدة كادينا الجوية الأميركية في اليابان

الإثنين 09 يونيو 7:18 ص

استياء وتساؤلات على المنصات حول حادثة إطلاق نار بأحد مساجد اليمن

الإثنين 09 يونيو 7:00 ص

أطفال مفقودون بسوريا.. قصة عائلة ياسين والفصل القسري الذي طمس ذاكرة الطفولة

الإثنين 09 يونيو 6:53 ص
العرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
© 2025 العرب اونلاين. جميع الحقوق محفوظة.

اكتب كلمة البحث ثم اضغط على زر Enter