Close Menu
العرب اونلاينالعرب اونلاين
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • علوم
  • لايف ستايل
رائج الآن

عروض الدكان جدة الطازج الثلاثاء 4 نوفمبر 2025 اليوم فقط

الإثنين 03 نوفمبر 10:57 م

«المورد الثقافي» تتساءل عن التمويل الغربي للثقافة العربية

الإثنين 03 نوفمبر 9:59 م

عروض ماي مارت لأدوات المنزل من 4 حتى 11 نوفمبر 2025

الإثنين 03 نوفمبر 9:56 م
فيسبوك X (Twitter) الانستغرام
العرب اونلاينالعرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام
الإشتراك
  • الرئيسية
  • الأخبار
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • صحة
  • لايف ستايل
  • المزيد
    • ثقافة وفن
    • رياضة
    • صحة
    • لايف ستايل
العرب اونلاينالعرب اونلاين
الرئيسية»تكنولوجيا»تحذيرات من استخدام الذكاء الاصطناعي في القرصنة الإلكترونية
تكنولوجيا

تحذيرات من استخدام الذكاء الاصطناعي في القرصنة الإلكترونية

فريق التحريربواسطة فريق التحريرالأربعاء 14 فبراير 5:15 م3 دقائق
فيسبوك تويتر بينتيريست لينكدإن Tumblr واتساب تيلقرام البريد الإلكتروني
شاركها
فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

كشفت مايكروسوفت وأوبن إيه آي اليوم أن المتسللين يستخدمون بالفعل نماذج لغوية كبيرة المعروفة اختصارا بـ”إل إل إم إس” (LLMs) مثل شات جي بي تي لتحسين هجماتهم الإلكترونية الحالية وتحسينها، بحسب موقع ذي فيرج.

ففي بحث منشور حديثا، اكتشفت مايكروسوفت وأوبن إيه آي محاولات من قبل مجموعات مدعومة من روسيا وكوريا الشمالية وإيران والصين باستخدام أدوات مثل شات جي بي تي للبحث في الأهداف، وتحسين النصوص البرمجية، والمساعدة في بناء تقنيات الهندسة الاجتماعية.

وتقول مايكروسوفت في مدونة: “تقوم مجموعات الجرائم الإلكترونية، والجهات الفاعلة التي تهدد الدول، وغيرهم من الخصوم، باستكشاف واختبار تقنيات الذكاء الاصطناعي المختلفة عند ظهورها، في محاولة لفهم الميزات المحتملة لعملياتهم والضوابط الأمنية التي قد يحتاجون إليها للتحايل”.

وأضافت مايكروسوفت أنه “تبين أن مجموعة سترونتيوم المرتبطة بالمخابرات العسكرية الروسية، تستخدم نماذج اللغة الكبيرة والمعروفة لفهم بروتوكولات الاتصالات عبر الأقمار الصناعية، وتقنيات التصوير الراداري، ومعايير تقنية محددة”.

وكانت مجموعة القرصنة المعروفة أيضا باسم “إيه بي تي 28” أو “فانسي بير”، نشطة خلال حرب روسيا في أوكرانيا، وشاركت سابقا في استهداف حملة هيلاري كلينتون الرئاسية في عام 2016، وفقا لما ذكره موقع ذي فيرج.

كما تَستخدم المجموعة أيضا نماذج اللغة الكبيرة للمساعدة في “مهام البرمجة النصية الأساسية، بما في ذلك معالجة الملفات، واختيار البيانات، والتعبيرات العادية، والمعالجة المتعددة، لأتمتة العمليات الفنية أو تحسينها”، وفقا لمايكروسوفت.

وبحسب موقع “ذي فيرج”، تستخدم مجموعة القرصنة الكورية الشمالية المعروفة باسم ثاليوم نماذج اللغة الكبيرة، للبحث عن نقاط الضعف المبلّغ عنها علنا، واستهداف المنظمات للمساعدة في مهام البرمجة النصية الأساسية، وصياغة محتوى لحملات التصيد الاحتيالي.

وتقول مايكروسوفت إن المجموعة الإيرانية المعروفة باسم كوريوم تستخدم أيضا نماذج اللغة الكبيرة لإنشاء رسائل بريد إلكتروني للتصيد الاحتيالي وحتى تعليمات برمجية لتجنب اكتشافها بواسطة تطبيقات مكافحة الفيروسات. ويستخدم المتسللون الصينيون التابعون للدولة أيضا نماذج اللغة الكبيرة للبحث والبرمجة والترجمات وتحسين أدواتهم الحالية.

وكانت هناك مخاوف إزاء استخدام الذكاء الاصطناعي في الهجمات الإلكترونية، لا سيما مع ظهور أدوات الذكاء الاصطناعي مثل “وُرم جي بي تي” و”فرويد جي بي تي” للمساعدة في إنشاء رسائل البريد الإلكتروني الضارة وأدوات الاختراق.

كما حذر مسؤول كبير في وكالة الأمن القومي الشهر الماضي من أن المتسللين يستخدمون الذكاء الاصطناعي لجعل رسائل البريد الإلكتروني التصيدية الخاصة بهم تبدو أكثر إقناعا.

ولم تَكتشف مايكروسوفت وأوبن إيه آي أي “هجمات كبيرة” حتى الآن، لكن الشركتين قامتا بإغلاق جميع الحسابات والأصول المرتبطة بمجموعات القرصنة هذه.

وتقول مايكروسوفت: “في الوقت نفسه، نشعر أنه من المهم نشر هذا البحث لكشف التحركات التدريجية في المراحل المبكرة التي نلاحظ قيام جهات فاعلة معروفة بالتهديد بها، ومشاركة المعلومات عن كيفية حظرنا ومواجهتهم مع مجتمع المدافعين”.

وبينما يبدو استخدام الذكاء الاصطناعي في الهجمات الإلكترونية محدودا في الوقت الحالي، فإن مايكروسوفت تحذر من حالات الاستخدام المستقبلية مثل انتحال الهوية الصوتية.

وبطبيعة الحال، تستخدم مايكروسوفت الذكاء الاصطناعي للرد على هجمات الذكاء الاصطناعي. يقول مدير تحليلات في مايكروسوفت هوما هاياتيفار: “يمكن للذكاء الاصطناعي أن يساعد المهاجمين على تحقيق المزيد من التطور في هجماتهم، ولديهم الموارد اللازمة لتنفيذها.. لقد رأينا ذلك مع أكثر من 300 جهة تهديد تتعقبها مايكروسوفت، ونحن نستخدم الذكاء الاصطناعي للحماية والكشف والاستجابة”.

وتقوم مايكروسوفت ببناء سيكيورتي كوبايلوت، وهو مساعد جديد للذكاء الاصطناعي صُمم لمتخصصي الأمن السيبراني لتحديد الخروقات وفهم الكميات الهائلة من الإشارات والبيانات التي يجري إنشاؤها من خلال أدوات الأمن السيبراني يوميا بشكل أفضل.

وتقوم شركة البرمجيات العملاقة أيضا بإصلاح أمان برامجها في أعقاب الهجمات السحابية الكبرى على آزور، وحتى تجسس المتسللين الروس على المديرين التنفيذيين لشركة مايكروسوفت.

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

شاومي تطلق سلسلة Xiaomi 15T الجديدة بكاميرات احترافية وتصميم راقٍ

الخميس 16 أكتوبر 9:37 م

شاومي تدشّن متجرها الإلكتروني في السعودية وتطلق من خلاله بدء الطلب المسبق عالميًا لجهاز Xiaomi 15T

الخميس 02 أكتوبر 7:27 م

موقع الجزيرة يقوم بتغطية مباشرة لحدث “آبل” اليوم | تكنولوجيا

الأربعاء 10 سبتمبر 4:36 م

“الكوكيز” تهدد الخصوصية وسرية البيانات | تكنولوجيا

الأربعاء 10 سبتمبر 2:34 م

مع بدء الفصل الدراسي.. تعرف على أفضل أدوات الذكاء الاصطناعي المجانية للطلاب

الأربعاء 10 سبتمبر 1:33 م

حرب الذكاء الاصطناعي.. هل تربح “آبل” ثقة المستخدم؟ | تكنولوجيا

الأربعاء 10 سبتمبر 11:31 ص

قد يهمك

متفرقات

عروض الدكان جدة الطازج الثلاثاء 4 نوفمبر 2025 اليوم فقط

الإثنين 03 نوفمبر 10:57 م

نقدم لكم عروض الدكان جدة اليوم الثلاثاء 13 جماد الاول 1447هـ و بتشمل علي الأرز…

«المورد الثقافي» تتساءل عن التمويل الغربي للثقافة العربية

الإثنين 03 نوفمبر 9:59 م

عروض ماي مارت لأدوات المنزل من 4 حتى 11 نوفمبر 2025

الإثنين 03 نوفمبر 9:56 م

عروض اكسترا السعودية علي التلفزيونات مع خصم 15% اضافي لعملاء جود حتي السبت 8-11-2025

الإثنين 03 نوفمبر 8:55 م

اختيارات المحرر

عروض زين السعودية على باقات شباب 119 زدناها بيانات

الإثنين 03 نوفمبر 7:54 م

هل يوافق «حزب الله» على مفاوضات لبنانية – إسرائيلية؟

الإثنين 03 نوفمبر 6:56 م

خصم 15% لدى “متجر كيار” باستخدام بطاقات بنك الرياض

الإثنين 03 نوفمبر 6:53 م

الجزائر: «سباق المصالح السياسية ما زال مستمراً» لدى باريس

الإثنين 03 نوفمبر 5:55 م
العرب اونلاين
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
© 2025 العرب اونلاين. جميع الحقوق محفوظة.

اكتب كلمة البحث ثم اضغط على زر Enter