تقنية التزييف العميق (Deepfake) تزعزع أركان اليقين في العالم الرقمي، محولةً الحواس البشرية إلى أدوات محدودة في التحقق من مصداقية المحتوى. لم يعد الصوت المسموع عبر الهاتف بالضرورة صوت عزيز، ولا الابتسامة الظاهرة في اجتماع الفيديو تعكس بالضرورة هوية الشخص الحقيقي. تكشف هذه التقنية عن الجانب المظلم للذكاء الاصطناعي، مع انتشار أدوات جاهزة للتزييف العميق باتت متاحة للجميع، مما أدى إلى ظهور موجة جديدة من عمليات الاحتيال المعتمدة على استنساخ الأصوات والوجوه.
تعتمد تقنيات التزييف العميق على نماذج الذكاء الاصطناعي، خاصة الشبكات العصبية التنافسية، لتوليد محتوى صوتي ومرئي مزيف بدرجة عالية من الواقعية. لم تعد صناعة المحتوى تقتصر على إنشائه، بل امتدت لتشمل تزييف الواقع نفسه. بثوانٍ معدودة من صوت شخص ما، يمكن تدريب نموذج ذكاء اصطناعي لتقليد نبرته، وإيقاعه، ولهجته بدقة متناهية. أما تزييف الفيديوهات، فيعتمد على تحليل لقطات عامة لتقليد حركات العين، ورمش الجفون، وانعكاسات الإضاءة على الجلد، مما يجعلها طبيعية بشكل مخادع.
تقنيات التزييف العميق
من أبرز الأدوات التي برزت في هذا المجال، هناك منصات مثل “إيلفن لابس” (ElevenLabs) و”ريسمبل إيه آي” (Resemble AI) المتخصصة في استنساخ الأصوات، والتي باتت قادرة على محاكاة المشاعر الإنسانية. وعلى صعيد الفيديوهات، تتيح أدوات مثل “هاي جين” (HeyGen) و”راسك إيه آي” (Rask AI) إنشاء مقاطع فيديو بأكثر من لغة مع مزامنة دقيقة لحركة الشفاه. يضاف إلى ذلك، ظهور نماذج لغوية كبيرة مصممة خصيصًا لأغراض إجرامية، مثل “وورم جي بي تي” (WormGPT) و”كاواي جي بي تي” (KawaiiGPT)، مما يمكّن المحتالين من صياغة رسائل تصيد إلكتروني شديدة التخصيص بعدة لغات وبسرعة فائقة.
مع انتشار أدوات التزييف العميق بأسعار زهيدة عبر الويب المظلم، أصبح من السهل إنتاج مقاطع فيديو وهمية أو استنساخ أصوات الأشخاص. وقد كشف تقرير صادر عن مكتب التحقيقات الفيدرالي (FBI) أن الخسائر الناتجة عن الاحتيال المدعوم بالذكاء الاصطناعي تجاوزت 893 مليون دولار في الولايات المتحدة خلال عام 2025 وحده. وفي الربع الأول من العام نفسه، بلغت الخسائر من الاحتيال المعتمد على التزييف العميق أكثر من 200 مليون دولار في أمريكا الشمالية.
شهد عام 2025 زيادة ملحوظة في حالات الاحتيال المرتبطة بالذكاء الاصطناعي، حيث شكلت حوادث التزييف العميق نحو 4 من كل 5 حوادث احتيال معتمدة على هذه التقنية. وتشير دراسة أجرتها شركة “مكافي” (McAfee) إلى أن الأمريكيين يشاهدون في المتوسط 3 حالات تزييف عميق يوميًا، ويعترف واحد من كل 10 بتعرضه لعملية احتيال عبر استنساخ الصوت. كما أفاد واحد من كل 4 أمريكيين بتلقي مكالمة صوتية مزيفة في العام الماضي، بينما أبدى 24% آخرون عدم تأكدهم من قدرتهم على التمييز.
حين يسرق الذكاء الاصطناعي صوت الأحباء
تكمن قوة التزييف العميق في قدرته على اختراق الثقة العصبية، حيث يعتمد الدماغ البشري بشكل كبير على نبرة الصوت المألوفة وملامح الوجه لتقييم الموقف، خاصة في حالات الطوارئ. عندما يبدو الصوت مألوفًا، تتراجع الدفاعات العقلانية، مما يفتح الباب أمام عمليات الاحتيال.
تُعرف إحدى أساليب الاحتيال هذه بـ “احتيال الطوارئ العائلية” (Family Emergency Scams)، حيث يتظاهر المحتال بأنه أحد الأقارب يمر بأزمة طارئة، مثل حادث سيارة، أو اعتقال، أو حاجة طبية ملحة، ويطلب تحويل أموال عاجل. يستغل المحتال المشاعر الإنسانية بالإضافة إلى التقنيات المتطورة لخداع الضحية التي تتصرف تحت ضغط عاطفي وزمني.
في حادثة شهيرة، تلقت سيدة مكالمة من رقم مشابه لرقم ابنتها، وسمعت صوتًا يبكي يدعي أنه صوت ابنتها، مدعيًا أنها تسببت في حادث لشخص آخر وتحتاج إلى كفالة. تطور الأمر بظهور محتال آخر انتحل صفة محامٍ وطالب بمبلغ كبير ككفالة. لم تكتشف السيدة الخدعة إلا بعد الدفع، لتدرك أن الصوت كان مستنسخًا بالذكاء الاصطناعي.
تستغل هذه العمليات غالبًا تطبيقات التحويل المالي، مع التركيز على الضغط النفسي لضمان سرعة الاستجابة. وتشير استطلاعات الرأي إلى أن الغالبية قد يستجيبون لرسائل صوتية مزيفة من أقارب يطلبون المال، خاصة في سيناريوهات الحوادث أو السرقة. يُعتبر كبار السن الأكثر عرضة لهذه الهجمات، حيث بلغت خسائرهم من الجرائم الإلكترونية مليارات الدولارات، ومن المتوقع أن تتزايد مع انتشار الذكاء الاصطناعي.
سجل مكتب التحقيقات الفيدرالي أكثر من 22 ألف شكوى متعلقة بالذكاء الاصطناعي في عام 2025، بما في ذلك سرقة ملايين الدولارات عبر عمليات “احتيال الطوارئ العائلية” التي تستخدم الأصوات المزيفة. يدل هذا على تزايد الاعتماد على تقنيات التزييف العميق في تنفيذ العمليات الاحتيالية.
الشركات في مهب الريح
لم تعد الهجمات قاصرة على الأفراد، بل امتدت لتهديد الاقتصاد العالمي، ومن الأمثلة البارزة على ذلك، واقعة هزت الأوساط المالية في هونغ كونغ، حيث تعرضت شركة الهندسة البريطانية Arup لعملية احتيال كبيرة.
بدأت الحادثة برسالة بريد إلكتروني من مدير مالي يدعي وجود حاجة عاجلة لتحويل مالي. ورغم الشكوك الأولية، أُجبر الموظف المعني على المشاركة في اجتماع فيديو، حيث ظهر المدير المالي وزملائه. لم يكن يعلم الموظف أن جميع المشاركين باستثنائه كانوا نسخًا رقمية مولدة عبر التزييف العميق، مستوحاة من فيديوهات سابقة للاجتماعات.
تحت ضغط الأوامر المباشرة من “المدير المالي” الظاهر في الفيديو، قام الموظف بعمليات تحويل بلغت قيمتها الإجمالية حوالي 25.6 مليون دولار. لم تُكتشف عملية الاحتيال إلا بعد فترة، عندما قام الموظف بالاتصال بالمكتب الرئيسي للاستفسار. هذه الحادثة أبرزت أن الفيديو لم يعد دليلاً قاطعًا على الوجود، وكيف يمكن دمج التزييف العميق مع عمليات اختراق البريد الإلكتروني للعمل (BEC).
شهدت شركات أخرى حوادث مشابهة، مثل خسارة 220 ألف يورو في شركة طاقة بريطانية، أو ما يقارب 500 ألف دولار في شركة سنغافورية. يستهدف المحتالون الشركات بانتحال شخصيات المدراء التنفيذيين لطلب تغيير بيانات الدفع أو إجراء تحويلات سرية. تشير تقارير إلى أن عمليات اختراق البريد الإلكتروني للعمل تسببت في خسائر تصل إلى 3 مليارات دولار في عام 2025، مع تزايد استخدام الأصوات والفيديوهات المزيفة. وتتجاوز الخسائر العالمية لعمليات الاحتيال المعتمدة على التزييف العميق مئات الملايين، مع توقعات بوصولها إلى 40 مليار دولار بحلول عام 2027.
سرقة نسختك الرقمية لاستغلالك
مع كل فيديو، تسجيل صوتي، أو صورة عالية الدقة يتم نشرها على منصات التواصل الاجتماعي، فإنك تترك بصمة رقمية تُعد بمثابة مواد خام لتدريب الذكاء الاصطناعي على إنشاء “توأم رقمي” يقلد صوتك، حركاتك، وتعبيرات وجهك.
تبدأ عملية سرقة الهوية عادة بجمع البيانات من الحسابات العامة، وتزويد نماذج الذكاء الاصطناعي بها لتدريبها على خصائصك الصوتية، وإيماءات وجهك، وطريقة كلامك. هذا يتيح إنتاج محتوى جديد، صوتي أو مرئي، يبدو حقيقيًا. يستخدم المحتالون هذا النموذج في الابتزاز، أو طلب قروض باسمك، أو حتى الوصول إلى حسابات بنكية إذا كانت أنظمة التحقق الصوتي ضعيفة. هذا يعني أن نسختك الرقمية لم تعد ملكك الخاص.
دليل البقاء الرقمي
لمواجهة انتشار تقنيات التزييف العميق، يُنصح العائلات باختيار عبارة سرية مشتركة، وطلبها عند ورود أي مكالمة طارئة، مع التأكيد على عدم الثقة بالصوت أو الصورة وحدهما والتحقق من الهوية قبل إجراء أي تحويل مالي. يجب تقليل مشاركة البيانات الصوتية والمرئية، وجعل حسابات وسائل التواصل الاجتماعي خاصة، وتجنب نشر مقاطع فيديو أو رسائل صوتية واضحة. استخدام فلاتر الخصوصية وأدوات إزالة البيانات من مواقع الوسطاء يعد خطوة إضافية للحماية.
بالنسبة للشركات، يتوجب التحقق من أي طلب مالي غير متوقع عبر قناة مستقلة تمامًا، مع الافتراض بأن أي طلب قد يكون تهديدًا محتملاً. يجب تدريب الموظفين بشكل دوري على محاكاة مكالمات التزييف العميق لتعويدهم على اكتشاف الاختلافات الدقيقة. كما يجب الحد من المحتوى العام المسؤولين التنفيذيين على الإنترنت، ومراقبة الحسابات بحثًا عن أي تسريبات.
ينبغي الاعتماد على تقنيات القياسات الحيوية الصوتية، وأدوات كشف التزييف العميق في مكالمات الفيديو، والمصادقة متعددة العوامل، وعدم الاعتماد على الصوت أو الفيديو وحدهما للمعاملات الحساسة. على المستوى العام، يتطلب الأمر من الشركات التقنية تطوير أدوات كشف جماعية للمحتوى المولد بالذكاء الاصطناعي، بينما تحتاج الحكومات إلى سن قوانين تجرم التزييف العميق باعتباره نوعًا من انتحال الشخصية.
في الختام، تهز تقنيات التزييف العميق أسس الثقة في التواصل الرقمي، وتجعل من الصعب التمييز بين الحقيقي والمزيف. ورغم التحديات، يمكن تحويل هذه التقنية إلى درع وقائي عبر التوعية المستمرة، والتحقق الدائم، والاستثمار في التقنيات الدفاعية والسلوكيات الوقائية. يتطور الوعي والقدرة على الكشف عن التزييف العميق بسرعة، مستفيدًا من الذكاء الاصطناعي نفسه.


