Close Menu
العرب اونلاينالعرب اونلاين
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • علوم
  • لايف ستايل
رائج الآن

صحيفة إسرائيلية عن مسؤول أمني: الحرب في غزة تستمر شهورا

الإثنين 09 يونيو 7:12 م

إبراهيم تراوري.. الرجل الذي قال “لا” لأميركا فزادت شعبيته في أفريقيا

الإثنين 09 يونيو 7:05 م

تقدر بـ300 مليار دولار.. ما خيارات روسيا للرد على مصادرة أصولها المالية؟

الإثنين 09 يونيو 7:02 م
فيسبوك X (Twitter) الانستغرام
العرب اونلاينالعرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام
الإشتراك
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • لايف ستايل
  • المزيد
    • ثقافة وفن
    • رياضة
    • صحة
    • لايف ستايل
العرب اونلاينالعرب اونلاين
الرئيسية»ثقافة وفن»مخاطر وأسئلة أخلاقية في عالم الآلات.. هل الإنسانية مرحلة عابرة في تطور الذكاء الاصطناعي؟
ثقافة وفن

مخاطر وأسئلة أخلاقية في عالم الآلات.. هل الإنسانية مرحلة عابرة في تطور الذكاء الاصطناعي؟

فريق التحريربواسطة فريق التحريرالجمعة 30 يونيو 11:38 م3 دقائق
فيسبوك تويتر بينتيريست لينكدإن Tumblr واتساب تيلقرام البريد الإلكتروني
شاركها
فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

تكثر الأسئلة بخصوص مخاطر الذكاء الاصطناعي المحتملة وتهديداته للبشرية بـ”الفناء”، فهل من صدقية لهذا السيناريو الكارثي الذي لا يزال -لو صح حقا- يلوح في الأفق البعيد؟

يبدأ الكابوس المستوحى من عدد كبير من أفلام الخيال العلمي عندما تتفوق الآلة بقدراتها على البشر وتخرج عن نطاق السيطرة.

وقال الباحث الكندي يوشوا بنجيو -وهو أحد عرابي التعلم الآلي- في تصريح حديث “منذ اللحظة التي ستكون لدينا آلات مصممة لكي تستمر سنواجه مشاكل”.

ودعت منظمة الأمم المتحدة للتربية والعلم والثقافة (يونسكو) قبل شهور قليلة بلدان العالم إلى تطبيق توصيتها بوقف تطوير هذه البرامج 6 أشهر، محذرة من مخاطر كبيرة على البشرية، ومشددة على الحاجة لتطوير ذكاء اصطناعي “أساسه الأخلاق”.

اللحظة الحاسمة

وبحسب الفيلسوف السويدي نيك بوستروم، ستأتي اللحظة الحاسمة عندما تعرف الآلات كيف تصنع آلات أخرى بنفسها، مما يتسبب في “انفجار في الذكاء”.

ويرى بوستروم مؤلف كتاب “الذكاء الخارق” في حوار سابق مع الجزيرة نت أن أدمغة الآلة إذا تفوقت على أدمغة الإنسان في الذكاء العام فإن هذا الذكاء الخارق الجديد يمكن أن يحل محل البشر باعتباره الشكل المهيمن للحياة على الأرض.

ووفق نظريته التي سميت “نظرية مشبك الورق”، يطرح بوستروم سيناريو افتراضيا يقول فيه إنه إذا جرى برمجة الذكاء الاصطناعي على سبيل المثال لتطوير إنتاج مشبك الورق ومنح الموارد فقد يقوم بتحويل المواد الأخرى إلى مشابك ورقية على حساب القيم والأولويات الأخرى، فمثلا قد يستهلك كميات هائلة من المواد الخام والطاقة لتعزيز الإنتاج حتى لو أدى ذلك للإضرار بالإنسان والبيئة أو حتى إبادة البشر.

وتعد رؤية بوستروم بشأن مخاطر الذكاء الاصطناعي مؤثرة للغاية في الأوساط العلمية، وقد ألهمت كلا من رئيس شركتي “تسلا” (Tesla) و”سبيس إكس” (Space X) الملياردير إيلون ماسك والفيزيائي ستيفن هوكينغ الذي توفي في عام 2018.

الأسلحة القاتلة

وتبدو صورة المقاتل الآلي ذي العينين الحمراوين من فيلم “تيرميناتور” (Terminator) -والذي أرسله ذكاء اصطناعي مستقبلي لوضع حد لكل مقاومة بشرية- حاضرة في أذهان الكثيرين بصورة كبيرة.

لكن وفق خبراء حملة “أوقفوا الروبوتات القاتلة” (Stop Killer Robots)، فإن هذا ليس الشكل الذي ستسود به الأسلحة المستقلة في السنوات المقبلة، وفق ما ذكروا في تقرير صادر عام 2021.

وبفضل التطورات السريعة في مجال الذكاء الاصطناعي تتسارع وتيرة الأسلحة التي يمكنها تحديد العدو بشكل ذاتي ومستقل، ثم تتخذ قرارا ميدانيا قد يتضمن قتل البشر دون وجود ضابط يوجه الهجوم أو جندي يسحب الزناد، بحسب تقرير سابق للجزيرة.

ومن المتوقع أن تصبح تلك الآلات بمرور الوقت أساس الحروب والعمليات العسكرية الجديدة، ويطلق عليها اسم أنظمة الأسلحة المميتة الذاتية/ المستقلة، لكن مناهضيها يسمونها “الروبوتات القاتلة”.

احتمالات أقل سوداوية

بدورها، تطمئن اختصاصية الروبوتات كيرستين دوتنهان من جامعة واترلو في كندا -في مقابلة مع وكالة الصحافة الفرنسية- بأن “الذكاء الاصطناعي لن يمنح الآلات الرغبة في قتل البشر”.

وتقول إن “الروبوتات ليست شريرة (بذاتها)”، مقرة في الوقت عينه بأن مطوريها يمكن أن يبرمجوها لإلحاق الأذى.

ويتوقع الفيلسوف هو برايس في شريط فيديو ترويجي نشره مركز دراسة المخاطر الوجودية في جامعة كامبردج أنه “في أسوأ الأحوال يمكن أن يموت جنسنا البشري من دون خليفة لنا”.

ومع ذلك، هناك “احتمالات أقل سوداوية” يمكن فيها للبشر المعززين بالتكنولوجيا المتقدمة البقاء على قيد الحياة، ويضيف برايس أن “الأنواع البيولوجية البحتة تنتهي بالانقراض”.

وفي عام 2014 قال ستيفن هوكينغ إن جنسنا البشري سيعجز يوما عن منافسة الآلات، وأوضح هوكينغ لهيئة الإذاعة البريطانية “بي بي سي” (BBC) أن هذا من شأنه أن “يمهد لفناء الجنس البشري”.

أما جيفري هينتون الباحث الذي يحاول إنشاء آلات تشبه الدماغ البشري لحساب مجموعة غوغل فتحدث أخيرا بعبارات مماثلة عن “ذكاء خارق” يتفوق على البشر.

وأكد هينتون لقناة “بي بي إس” (BBS) الأميركية أنه من الممكن أن “تكون الإنسانية مجرد مرحلة عابرة في تطور الذكاء”.

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

من ديزني إلى القاهرة.. اختبار جديد لمينا مسعود “في عز الضهر”

الإثنين 09 يونيو 4:52 م

رحيل الفنانة العراقية غزوة الخالدي بعد مسيرة حافلة على خشبة المسرح

الإثنين 09 يونيو 2:50 م

عادات الحجيج في صعيد مصر.. أهازيج تراثية وجداريات تخلد “رحلة العمر”

الإثنين 09 يونيو 1:53 م

4 من أعضاء “بي تي إس” ينهون خدمتهم العسكرية الأسبوع المقبل

الأحد 08 يونيو 10:34 م

صيف 2025 السينمائي.. منافسة محتدمة وأفلام تسرق الأضواء

الأحد 08 يونيو 7:31 م

تايلند.. برنامج تدريبي للمسلمين قبل السفر للحج

الأحد 08 يونيو 2:30 م

قد يهمك

الأخبار

صحيفة إسرائيلية عن مسؤول أمني: الحرب في غزة تستمر شهورا

الإثنين 09 يونيو 7:12 م

نقلت صحيفة يديعوت أحرونوت -عن مسؤول أمني رفيع- أن تحقيق أهداف العمليات العسكرية الحالية في…

إبراهيم تراوري.. الرجل الذي قال “لا” لأميركا فزادت شعبيته في أفريقيا

الإثنين 09 يونيو 7:05 م

تقدر بـ300 مليار دولار.. ما خيارات روسيا للرد على مصادرة أصولها المالية؟

الإثنين 09 يونيو 7:02 م

موعد مباراة البرتغال ضد إسبانيا بنهائي دوري أمم أوروبا وقنوات البث الحي والمباشر

الإثنين 09 يونيو 6:55 م

اختيارات المحرر

«الذرية الدولية» تدعو إيران إلى تعاون فوري لإثبات سلمية برنامجها النووي

الإثنين 09 يونيو 6:29 م

تأييد إسرائيلي لاتفاق يضمن الإفراج عن أسرى غزة مقابل إنهاء الحرب

الإثنين 09 يونيو 6:11 م

شاهد.. غضب وحزن بغزة بعد قرصنة الاحتلال “مادلين”

الإثنين 09 يونيو 6:04 م

يونيو يبدأ باختبار الأسواق.. العملات والذهب تحت ضغط البيانات

الإثنين 09 يونيو 6:01 م
العرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
© 2025 العرب اونلاين. جميع الحقوق محفوظة.

اكتب كلمة البحث ثم اضغط على زر Enter