Close Menu
العرب اونلاينالعرب اونلاين
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • علوم
  • لايف ستايل
رائج الآن

جواو فيليكس للنصراويين: جئت إليكم لنشر السعادة وتحقيق الفوز

الأربعاء 30 يوليو 8:28 ص

عروض أسواق الجزيرة الاسبوعية الأربعاء 30-7-2025 بيت نظيف و مصروف خفيف

الأربعاء 30 يوليو 8:08 ص

سلطات أمنية دولية تغلق خوادم شبكة ابتزاز إلكتروني

الأربعاء 30 يوليو 8:06 ص
فيسبوك X (Twitter) الانستغرام
العرب اونلاينالعرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام
الإشتراك
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • لايف ستايل
  • المزيد
    • ثقافة وفن
    • رياضة
    • صحة
    • لايف ستايل
العرب اونلاينالعرب اونلاين
الرئيسية»تكنولوجيا»كشف الدليل السري..كيف يستخدم تنظيم الدولة الذكاء الاصطناعي؟
تكنولوجيا

كشف الدليل السري..كيف يستخدم تنظيم الدولة الذكاء الاصطناعي؟

فريق التحريربواسطة فريق التحريرالأحد 27 يوليو 7:49 م3 دقائق
فيسبوك تويتر بينتيريست لينكدإن Tumblr واتساب تيلقرام البريد الإلكتروني
شاركها
فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

تمكنت جماعات وتنظيمات في العالم من استغلال تقنيات الذكاء الاصطناعي بشكل مستمر ومتصل لتعزيز عملياتها، بدءا من استخدام العملات الرقمية لنقل الأموال وحتى استخدام الطباعة ثلاثية الأبعاد لصناعة الأسلحة، ولكن وفق التقرير الذي نشره موقع “غارديان” فإن التنظيمات “الإرهابية” بدأوا في استخدام تقنيات الذكاء الاصطناعي.

ويشير التقرير إلى أن المجموعات “الإرهابية” بدأت في الوقت الحالي باستغلال الذكاء الاصطناعي للتخطيط لهجماتهم وعملياتهم المختلفة، وفق تصريحات هيئات مكافحة الإرهاب بحكومة الولايات المتحدة، ولكن ما مدى هذا الاستخدام؟

الدعاية بالذكاء الاصطناعي

تعتمد هذه المجموعات بشكل كبير على جذب المتطوعين من مختلف بقاع الأرض والترويج لأعمالهم باستعراضها، وبينما كان الأمر يحتاج إلى مجهود كبير لالتقاط الصور والمقاطع وتجهيز الدعاية المباشرة لهذه العمليات، إلا أن الأمر اختلف بعد انتشار تقنيات الذكاء الاصطناعي.

ويؤكد تقرير “غارديان” أن “الإرهابيين” يعتمدون على “شات جي بي تي” لتعزيز نشاطهم الدعائي وجذب المزيد من المتطوعين إلى صفوفهم، إذ يعتمدون على النموذج لتوليد الصور والنصوص التي تستخدم في الدعاية بلغات ولهجات مختلفة.

كما يستطيع النموذج تعديل الرسالة الموجودة في وسائل الدعاية المختلفة لتمتلك أثرا مختلفا على كل شخص أو تحقق هدفا مختلفا، وذلك في ثوان معدودة ودون الحاجة إلى وجود صناع إعلانات محترفين.

ولا يقتصر الأمر على “شات جي بي تي” فقط، إذ امتد استخدامهم إلى بعض الأدوات التي تحول النصوص إلى مقاطع صوتية ومقاطع فيديو، وذلك من أجل تحويل رسائل الدعاية النصية التي يقدمونها إلى مقاطع صوتية وفيديو سهلة الانتشار.

ويشير تقرير “غارديان” إلى أن تنظيم الدولة الإسلامية يمتلك دليلا خاصا لاستخدام أدوات الذكاء الاصطناعي ومخاطره وتوزعه مباشرة على أعضائها والمهتمين بالانضمام إليها.

التوسع في استخدام الذكاء الاصطناعي

ويذكر التقرير أيضا غرف دردشة تعود ملكيتها لجهات يصفها بالإرهابية، يتحدث فيها المستخدمون عن أدوات الذكاء الاصطناعي، وكيف يمكن استغلالها لتعزيز أنشطتهم واختصار الأوقات والجهود المبذولة في الجوانب المختلفة.

وبينما صممت تقنيات الذكاء الاصطناعي لمساعدة المستخدمين وتسهيل حياتهم، فإن هذا الأمر لم يغب عن أفراد هذه الجهات الذين بدأوا في استخدام روبوتات الدردشة عبر الذكاء الاصطناعي كمساعد شخصي أو مساعد باحث.

ويظهر هذا الاستخدام بوضوح في دليل تنظيم الدولة الإسلامية لاستخدام الذكاء الاصطناعي، حيث يذكر الدليل بوضوح، أن هذه التقنية يمكنها تحديد النتيجة المستقبلية للحرب وكيف تحولت إلى سلاح محوري في الحروب المستقبلية، بحسب التقرير.

ويذكر التقرير أيضا استخدام الذكاء الاصطناعي في الأبحاث السريعة والمباشرة من أجل وضع المخططات والبحث بدلا من الحاجة إلى جمع المعلومات يدويًا في الميدان، إذ تستطيع التقنية الآن تسريع هذه العملية وإيصالها إلى نتائج غير مسبوقة.

التغلب على القيود

تضع شركات الذكاء الاصطناعي على غرار “أوبن إيه آي” مجموعة من القيود على نماذجها، حتى لا تساعد هذه النماذج في بناء الأسلحة المتفجرة أو الأسلحة البيولوجية وغيرها من الأشياء التي يمكن استخدامها استخداما سيئا.

ولكن وفق تقرير “غارديان”، فقد وجدت الجهات “الإرهابية” آلية للتغلب على هذا الأمر، وبدلا من سؤال نماذج الذكاء الاصطناعي عن آلية صناعة القنابل والأسلحة مباشرة، يمكن تقديم المخططات للنموذج وطلب التحقق من دقتها وسلامتها.

وفضلا عن ذلك، يمكن خداع الذكاء الاصطناعي بعدة طرق لإيهامه، أن هذه المخططات والمعلومات التي يقدمها لن تستخدم استخداما سيئا، وهي الحالات التي حدثت من عدة نماذج مختلفة في السنوات الماضية.

ومع تسابق الشركات على تطوير تقنيات ذكاء اصطناعي أكثر قوة وقدرة على أداء وظائفها بشكل ملائم، تهمل في بعض الأحيان إرشادات السلامة المعمول بها عالميا.

وربما كان ما حدث مع روبوت “غروك” مثالا حيا لذلك، إذ تحول النموذج في ليلة وضحاها إلى أداة لنشر الخطاب المعادي للسامية وخطاب الكراهية عبر تغريدات عامة في منصة “إكس”.

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

التسريبات تؤكد: “آيفون 17 برو” يحصل على مزايا كاميرا حصرية | تكنولوجيا

الثلاثاء 29 يوليو 9:37 م

أهم الأدوات التي استخدمها مسلسل “مستر روبوت” في الاختراقات | تكنولوجيا

الثلاثاء 29 يوليو 7:35 م

شركات الذكاء الاصطناعي الصينية تتحد معا لمواجهة قيود الولايات المتحدة

الثلاثاء 29 يوليو 6:34 م

حكومة ترامب تلجأ للذكاء الاصطناعي لحذف 100 ألف قانون فدرالي

الثلاثاء 29 يوليو 4:32 م

كيف جمعت مديرة سابقة في أوبن ايه آي أكثر من ملياري دولار دون الكشف عن منتج

الثلاثاء 29 يوليو 11:28 ص

“غوغل” تكشف عن ميزة ذكاء اصطناعي جديدة في محرك البحث | تكنولوجيا

الإثنين 28 يوليو 11:16 م

قد يهمك

الأخبار

جواو فيليكس للنصراويين: جئت إليكم لنشر السعادة وتحقيق الفوز

الأربعاء 30 يوليو 8:28 ص

تعاقد نادي النصر مع لاعب الوسط الهجومي الدولي البرتغالي جواو فيليكس قادماً من تشيلسي الإنجليزي…

عروض أسواق الجزيرة الاسبوعية الأربعاء 30-7-2025 بيت نظيف و مصروف خفيف

الأربعاء 30 يوليو 8:08 ص

سلطات أمنية دولية تغلق خوادم شبكة ابتزاز إلكتروني

الأربعاء 30 يوليو 8:06 ص

وفاة ناشط تثير أزمة دبلوماسية بين بوركينا فاسو وكوت ديفوار

الأربعاء 30 يوليو 7:59 ص

اختيارات المحرر

أمواج تسونامي تغمر بلدة سيفيرو-كوليلسك في جزر الكوريل الروسية

الأربعاء 30 يوليو 7:27 ص

عروض لولو السعودية جميع الفروع الاربعاء 30 يوليو 2025 | الذكري السنوية الاولي

الأربعاء 30 يوليو 7:07 ص

ترامب يتعهد “بتصحيح الأمور” في غزة ونتنياهو يجري مشاورات | أخبار

الأربعاء 30 يوليو 7:05 ص

وائل أبو عرفة.. طبيب مقدسي قلبه معلق بغزة

الأربعاء 30 يوليو 6:58 ص
العرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
© 2025 العرب اونلاين. جميع الحقوق محفوظة.

اكتب كلمة البحث ثم اضغط على زر Enter