الخداع العميق: تحديات أمنية وإشكاليات حقيقية

ماهية الخداع العميق

تَستخدم تقنية الخداع العميق كلًّا من التعلم الآلي والذكاء الاصطناعي لخلق أحداثٍ مزيفةٍ من خلال تغيير الفيديوهات والملفات الصوتية والصور، وخلق أصواتٍ اصطناعيةٍ وفيديوهاتٍ مُبركةٍ، انطلاقًا من شبكاتٍ عصبيةٍ تُعرف باسم (GAN – Generative Adversarial Networks) ذات القدرات الهائلة للخوارزميات المستخدمة في أنظمة الذكاء الاصطناعي، والتي تقوم بالتعلم غير المراقب (Unsupervised Learning) أو التعلم الاستنتاجي؛ إذ يتم تدريب نموذج التعلم العميق باستخدام عيناتٍ صغيرةٍ جدًا من صوت الشخص الحقيقي أو صورته، وصولًا لنموذجٍ مُقلّدٍ قادرٍ على خداع المشاهدين. كما تَستخدم التقنية مئات الصور الثابتة للأشخاص من فيديوهاتهم الخاصّة لدراسة ملامحهم واستبدالها بأخرى لإنتاج فيديوهاتٍ مزيفةٍ.

وبعبارةٍ أخرى، تَنظر الخوارزمية في ملايين الصور التي ستُوضع في الفيديو النهائي، كما تَنظر أيضًا في ملايين المقاطع التي سيتم تعديلها. ومع البحث والتدريب المطول على بياناتٍ كافيةٍ، يُمكن في النهاية الحصول على صورة وجهٍ يُمكن تركيبها على أي وجهٍ آخرٍ داخل مقاطع الفيديو. ولذا، ترتهن دقة النتيجة بالبيانات التدريبية المستخدمة. ولهذا السبب، فإن معظم المقاطع المتداولة اليوم هي مقاطعٌ رأسيةٌ لأشخاصٍ يتحدثون، لأنها الحالة الوحيدة التي تدرّبت عليها الشبكات. ولهذا السبب أيضًا، يُعد السياسيون والمشاهير هم الهدف الأكبر لتلك التقنية جرّاء انتشار صورهم وفيديوهاتهم بكثافةٍ.

وعليه، تُشكل تلك التقنية خطرًا كبيرًا في عصر المنصات الاجتماعية لا سيما وأنها تعتمد على تعلم الآلة كوسيلةٍ لفهم الأشياء، ما يتيح لها تمييز أنماط البيانات من خلال الشبكات سالفة الذكر، كي تتنافس في مواجهة بعضها البعض. ومن ثَمّ، تَقوم الشبكة الأولى بإنشاء نسخةٍ من نمط الفيديو، على أن تقوم الثانية بالتمييز من خلال فحص المحتوى المنتج ومقارنته بأصله وتقييم تناسقه، بجانب المحاذاة والتدريب والدمج باستخدام الصور المأخوذة من أحد الفيديوهات ثم تحليلها، وصولًا لفيديو جديدٍ يتجلى فيه تركيب حركاتٍ أو ممارساتٍ أو كلامٍ غير حقيقيٍ على إحدى الشخصيات الحقيقية. وعليه، يَنتج عن تقنية الخداع العميق فيديوهاتٍ أو ملفاتٍ صوتيةٍ مزيفةٍ تبدو حقيقيةً تمامًا، ما قد يُقوّض الحدّ الفاصل بين الحقيقة والخداع. ولأن هذه الشبكة تَعمل باستمرارٍ على اختبار الصور التي تُنشئها ضد مجموعة التدريب، فإن إتقان الصور المزيفة يزداد في كل مرةٍ، ما يزيد المخاطر الأمنية الناجمة عنها.

لقد ظهرت تلك التقنية لأول مرةٍ في عام 2014 بعد أن ابتكرها “إيان جودفيلو” (Ian Goodfellow) طالب الدكتوراه الذي يعمل الآن في شركة “آبل”. وقد كانت تلك التقنية مقتصرةً سلفًا على الشركات السينمائية العملاقة، ولكنها أضحت في متناول الجميع مع تعدد تطبيقاتها؛ فقد تعددت التطبيقات المستخدمة في الخداع العميق لتشمل (Zao) الذي يَسمح بإنشاء مقاطع فيديو الخداع العميق بكل سهولةٍ وفي وقتٍ قصيرٍ لأغراض المتعة من هواتف المستخدمين مباشرةً. فقد أضحت تقنيات الخداع العميق وبرنامجها (Fake App) مماثلةً لبرنامج “فوتوشوب” الشهير، ولكن مع العمل على فيديوهاتٍ ومقاطعٍ مصورةٍ لا صورٍ ثابتةٍ من ناحيةٍ، ومطابقة التعبيرات لا تبديل الوجه فحسبٍ من ناحيةٍ ثانيةٍ. فإذا تشابه جسم الشخص مع شخصية الضحية، قد يبدو الفيديو الزائف حقيقيًا جدًا، ولن يمكن تمييزه بسهولة.

نماذج وأمثلة

حَظيت تقنية الخداع العميق باهتمامٍ إعلاميٍ وشعبيٍ واسعٍ مع انتشار عددٍ من الفيديوهات التي أثارت الجدل؛ ومن بينها رقصت الملكة “اليزابيث” بمناسبة عيد الميلاد في نهاية العام الماضي ضمن خطابٍ تم تركيبه اصطناعيًا؛ بحيث ظهرت الملكة بديلًا عن شخصٍ آخرٍ على شاشة القناة الرابعة البريطانية، وذلك في إطار سعي القناة للتساؤل عن مدى صحة ما يراه المشاهدون ويسمعونه، بجانب تحذير المشاهدين من التكنولوجيا المتقدمة التي تُمكّن من انتشار المعلومات المضللة والأخبار الزائفة. كما استأجرت القناة الرابعة هذا العام استديو “في أف اكس فرايمستور”(VFX. Framestore) لتركيب ملكةٍ بديلةٍ مزيفةٍ لتتحدث صراحةً عن بعض الأمور الشخصية؛ فظهرت الملكة المزيفة وهي تُناقش انتقال الأمير “هاري” و”ميغان ماركل” إلى شمال الولايات المتحدة، كما أدت الملكة المزيفة رقصة “تيك توك” روتينيةٍ.

كما انتشر مقطع فيديو لرئيسة مجلس النواب الأمريكي “نانسي بيلوسي” وهي مخمورةٌ في منتصف مؤتمرٍ صحفيٍ. وهو الأمر الذي تَسبب في صدامٍ مع شركة “فيسبوك” جرّاء الانتشار الواسع للفيديو. وقد أصدر الممثل “جوردان بيل” مقطع فيديو للرئيس الأمريكي السابق “باراك أوباما” محذرًا فيه من تقنية الخداع العميق، موضحًا كيف يبدو كل نصف من نصفي الفيديو المندمجين عند فصلهما عن بعضهما. كما انتشر فيديو لمراسل CNN “جيم أكوستا” وهو يقوم بضرب إحدى موظفات البيت الأبيض، وقد أظهر الفيديو الأصلي أن الموظفة قامت بأخذ الميكروفون منه فحسب.

كما انتشر أيضًا مقطع فيديو مُفبرك يَظهر فيه “توم كروز” في تطبيق “تيك توك” للفيديوهات القصيرة، وهو يقوم بخدعةٍ سحريةٍ، ويمارس لعبة الجولف، بجانب الحديث عن تفاصيل لقائه مع زعيمٍ سوفيتيٍ. وقد قُدّر عدد مشاهدي تلك الفيديوهات بالملايين. وقد أضحت تلك الفيديوهات أحد أكثر الأمثلة الواقعية على خطورة التكنولوجيا الحديثة ودورها في التزييف، بعد أن بدت مقاطع الفيديو متقنةً للغاية، واعتقد كثيرون أنها صحيحة، وبخاصة تلك التي قال فيها إنه سيُظهر لعبةً سحريةً، وهي إخفاء قطعةٍ نقديةٍ بخفة يد لا تصدق. ورغم نشر تلك المقاطع على سبيل التسلية، فإنها دقت ناقوس الخطر.

وفي أحد الفيديوهات، قدم “جون سنو” (شخصية “صراع العروش”) اعتذارًا رسميًا عن مسار أحداث الجزء الأخير، ساخرًا من حبكة الجزء الثامن التي كتبت في 6 أيام لا أكثر، داعيًا لحرق نص الجزء الأخير. وقد أثار مقطع الفيديو السخرية والخوف في أنٍ واحدٍ؛ فالفيديو المصنوع باستخدام تقنية الخداع العميق متقنٌ على نحوٍ قد يَخدع المشاهدين من غير الخبراء بسهولةٍ.

وعليه، وَقَعَ عددٌ من الشخصيات المشهورة ضحيةً للخداع العميق (منهم: سياسيون، ونجوم، ورجال أعمال) وفي مقدمتهم “ميشيل أوباما” و”فلاديمير بوتين” و”دونالد ترامب” و”مارك زوكربيرج” نفسه؛ فقد ظهر الأخير في فيديو نُشر على حساب (Bill Posters UK) متحدثًا عن سرقة بعض المنصات لبيانات المستخدمين وتحكمهم بها. وقد أتي مقطع الفيديو الأصلي من خطابٍ ألقاه عن التدخل الروسي في الانتخابات.

المخاطر الأمنية

تُعد تقنية الخداع العميق الأكثر استخدامًا في الجريمة والإرهاب؛ فوفقًا لتقريرٍ جديدٍ صادرٍ عن جامعة لندن، هناك 20 طريقة مختلفة لاستخدام المجرمين للذكاء الاصطناعي في العقد ونصف العقد القادم. وتبعًا للتقرير، طُلب من 31 خبيرًا تقنيًا تصنيف تلك الطرق حسب: المخاطر المتوقعة منها، وحجم المكاسب المادية المحتملة، وسهولة استخدامها، وصعوبة إيقافها. وقد احتل الخداع العميق المرتبة الأولى. كما أشار التقرير إلى أن المجرمين يُطوّرون من أساليبهم لاستخدام تلك التقنية لكسب الأموال، وتشويه سمعة بعض الشخصيات، وانتحال صفة شخصياتٍ بعينها. وفي هذا الإطار، يمكن الوقوف تفصيلًا على أبرز المخاطر الأمنية الناجمة عن تلك التقنية فيما يلي:

التأثير سلبًا في الأمن القومي: يتخوف بعض السياسيين من استخدام التقنية خلال الانتخابات على سبيل المثال، على نحو قد يُؤثر سلبًا في سير العملية الانتخابية. وفي هذا الإطار، كان الخداع العميق هو محور نقاش جلسة استماع لجنة الاستخبارات بمجلس النواب الأمريكي حول المخاطر الأمنية على الأمن القومي والانتخابي في الولايات المتحدة، محذرةً من سلبياتها على انتخابات 2020. فقد بات ممكنًا تصميم فيديوهاتٍ تحذيريةٍ من حربٍ وشيكةٍ أو أخرى إباحيةٍ أو أخرى سياسيةٍ ذات أثارٍ كارثيةٍ، ما دفع عضو مجلس النواب الأمريكي “ماركو روبيو” (Marco Rubio) لاعتبار أن تلك التقنية تُعادل خطورة الأسلحة النووية، قائلًا إن تهديد الولايات المتحدة الأمريكية تَطلّب سلفًا 10 حاملات طائراتٍ وأسلحة نووية وصواريخ بعيدة المدى. أما اليوم، يتطلب ذلك التهديد الدخول إلى أنظمة الولايات المتحدة الإلكترونية وأنظمتها البنكية أو إنتاج فيديوهاتٍ مزيفةٍ واقعيةٍ جدًا قادرةً على تدمير النظام الانتخابي واضعاف البلاد داخليًا.

الاحتيال والابتزاز: يَدّعي باحثو “سيمانتيك” (Symantec) رصد ما لا يقل عن ثلاث حالات سَمح فيها تقليد صوت شخصٍ ما للمحتالين بخداع الشركات لتحويل ملايين الدولارات إلى حساباتٍ مصرفيةٍ خاطئةٍ. فقد تتسبب تسجيلاتٌ صوتيةٌ مبركةٌ لبعض المديرين التنفيذيين في ذيوع العمليات الاحتيالية لا سيما في الأعمال التجارية من خلال التصيد الاحتيالي. ومن الأمثلة الدارجة على ذلك الرسالة الصوتية التالية: “تغير الحساب المصرفي للشركة، برجاء تحويل الأموال إلى الحساب الجديد”. وعلى سبيل المثال، تعرض الرئيس التنفيذي لإحدى شركات الطاقة البريطانية لسرقة 243 ألف دولار باستخدام مقطعٍ صوتيٍ مصنوعٍ لرئيس شركته الأم يَطلب منه إجراء تحويلٍ ماليٍ طارئٍ. وقد كان التزييف مقنعًا إلى حدّ تصديقه، فحدث التحويل المالي في نهاية المطاف. ولم يشك الرئيس التنفيذي في الأمر إلا بعد أن طَلب منه رئيسه الحقيقي إجراء تحويلٍ ماليٍ آخر فَكُشف الأمر، ولكن لم يعد من الممكن استعادة المال المسروق بعد تحويله إلى حسابٍ أخرٍ. ومن الممكن استخدام الخداع العميق في ابتزاز رؤساء الشركات عن طريق تهديدهم بنشر مقاطع فيديو قد تضر بسمعتهم ما لم يدفعوا أموالًا مقابل عدم النشر.

الفيديوهات الإباحية: يوجد بالفعل بعض المقاطع الإباحية المصنوعة بتقنية الخداع العميق المستخدمة لابتزاز المراسلات والصحفيات، كما حدث مع الصحفية “رنا أيوب” التي فضحت ممارسات السلطات الهندية. ومن المتوقع زيادة استخدام الخداع العميق في المستقبل في عمليات الابتزاز والاحتيال مع تراجع تكلفتها المادية. ولهذا السبب، ليس من المستغرب أن تكون أول أفلام الخداع العميق المنتشرة على “ريديت” (Reddit) ذات طابعٍ إباحيٍ. وعلى الرغم من جهود حظرها، تتعالى الأصوات المحذرة منها، ومن ذلك تحذير الممثلة “سكارليت جوهانسون” (Scarlett Johans) من احتمالات تعرض المشاهير وغير المشاهير للانتقام الإباحي.

أزمات دبلوماسية: طرح بعض الخبراء سيناريو مفاده انتشار فيديو يقوم فيه زعيمٌ عالميٌ بمناقشة خطط تنفيذ الاغتيالات في دولةٍ معاديةٍ على سبيل المثال. فلا يمكن إغفال التداعيات السياسية السلبية لذلك الفيديو حتى حال اكتشاف تزويره؛ إذ يتوقع الخبراء استخدام الخداع العميق لإحداث البلبلة ونشر المعلومات المضللة وبخاصة على الصعيد الدولي.

الهجمات السيبرانية: مع الذكاء الاصطناعي، يمكن للمهاجم تنفيذ هجماتٍ متعددةٍ ومتكررةٍ على شبكة الاتصال عن طريق برمجة بضعة أسطرٍ من التعليمات البرمجية. ويتفاقم الأمر سوءًا مع صعوبة إسناد الهجمات إلى مرتكبيها. كما يُمكن للمحتالين الدخول على الشبكات الافتراضية الخاصة عن طريق تزييف إحدى مكالمات الفيديو من مديري الشركات، ليخدع بها الموظفين لإفشاء كلمات السر، ما يُمكّن المحتالون والقراصنة من الحصول على بيانات الشركة الحساسة. وفي هذا السياق، تتوقع شركة الأمن السيبراني “فورس بوينت” (Forcepoint) أن يستخدم مجرمو الإنترنت الخداع العميق لتوليد صور ومقاطع فيديو يُمكن توظيفها لطلب فدية. وبالتوازي لذلك، من المحتمل تزايد عمليات سرقة البيانات من خلال خداع الموظفين للتخلي عن المعلومات، بما في ذلك: بيانات اعتماد الوصول، والسجلات المالية، والمستندات الضريبية، والملفات الشخصية للعملاء، وغير ذلك. كما يُتوقع تزايد هجمات التصيد الاحتيالي من خلال نشر مقاطع فيديو تحتوي على البرامج الضارة أو تسجيل الرسائل المصممة لجذب المستخدمين إلى النقر على الروابط كجزءٍ من هجمات التصيد الاحتيالي.

الإشكاليات المثارة

يمكن إجمال أبرز الإشكاليات التي تثيرها تقنية الخداع العميق في النقاط التالية:

التطور المضطرد: تتطور تقنية الخداع العميق الاحترافية باستمرارٍ إلى حدّ خداع الخبراء، ما قد يُقوّض الثقة في الأدلة السمعية والبصرية من ناحيةٍ، ويُسهّل حدوث الجرائم في العالم الرقمي من ناحيةٍ ثانيةٍ، ويسمح بتسويق التقنيات الإجرامية من ناحيةٍ ثالثةٍ. إذ تتطور التقنية بمرور الوقت؛ فمنذ عامين فقط كان من السهل للغاية معرفة مقاطع الفيديو الزائفة من جودة الحركة الرديئة على عكس مقاطع الفيديو الزائفة التي استفادت من التقدم التكنولوجي المضطرد، وحظيت برواجٍ شديدٍ في الآونة الأخيرة. وهي الفيديوهات التي بلغ عددها نحو 15 ألف فيديو تقريبًا، وإن صُنع بعضها بهدف المرح فقط.

الإتاحة: بعد تجربتها في المختبرات لعدة سنوات، أصبحت تقنية الخداع العميق متاحةً للمستخدمين الهواة. ومن هذا المنطلق، باتت التقنية متاحةً للمجرمين أيضًا، حتى وإن استُخدمت على نطاقٍ محدودٍ. ولهذا السبب، يَخشى المشرعون والوكالات الحكومية ومنصات وسائل التواصل الاجتماعي وشركات الأمن السيبراني من تلك التقنية، لا سيما مع تزايد احتمالات استخدامها لأغراضٍ غير مشروعةٍ.

مجال مفتوح: قد تَطال تقنية الخداع العميق جميع أنواع الفيديوهات، بما في ذلك: المقابلات التلفزيونية، والتصريحات السياسية، ومختلف المواد المرئية التي بات التلاعب بها أمرًا سهلًا. فقد بدأت التقنية باختلاق الأخبار المزيّفة، لكنها لن تتوقف عند هذا الحد بطبيعة الحال، وصولًا لإنشاء شخصياتٍ افتراضيةٍ تابعةٍ لجهةٍ معينةٍ وأسماءٍ افتراضيةٍ وحساباتٍ رقميةٍ.

صعوبة اكتشاف التزييف: يَدفع بعض الخبراء بأن التزييف سيسيطر على أشكال الحياة كافّةً، وأن السنوات القادمة سيستحيل معها تصديق أي شيءٍ يُعرض على الشاشات، ذلك أن رؤية الأشياء بعيون المشاهدين أو مشاهدة نشرات الأخبار والمقابلات التلفزيونية لم يَعد كافيًا للتيقن من حدوثها. ومع تقدم تقنيات الذكاء الصناعي الحديثة، تزداد صعوبة التمييز بين ما وقع بالفعل وما تقدمه الفيديوهات المسجلة. ويتفاقم الأمر سوءًا نتيجة مشاركة الفيديوهات المزيفة على مواقع التواصل الاجتماعي، لتنتشر الأخبار الكاذبة في كل مكانٍ. وهو ما يُهدد مصداقية وسائل الإعلام في زمنٍ أصبحت فيه الأخبار الكاذبة محورًا مهمًا من محاور المحتوى الرقمي. وفي المقابل، لا شك في تقدم بعض التقنيات الناشئة التي تُساعد صانعي مقاطع الفيديو على التأكد من صحة المتداولة منها: إذ يُمكن للذكاء الاصطناعي أن يُسجّل بصمةً رقميةً مقاومةً للعبث بمقاطع الفيديو على نحوٍ مُشابه للعلامات المائية في المستندات المطبوعة. بيد أن التطور المضطرد في تلك التقنية يتطلب الاعتماد على التحليل الجنائي الرقمي، وفي مرحلةٍ ما قد يُصبح ذلك مستحيلًا.

ضعف أليات الحماية: تعددت القوانين التي تتعامل مع التهديدات المحتملة للخداع العميق؛ ففي ولاية كاليفورنيا على سبيل المثال، مُرّر قانونين في العام الماضي، ليحظر أولهما استخدام تركيب الصور البشرية لصنع مقاطعٍ إباحيةٍ دون موافقة الأشخاص الذين يصنع الفيديو لهم، ويحظر ثانيهما التلاعب بصور المسؤولين السياسيين قبل 60 يومًا من الانتخابات. كما ابتكرت شركات الأمن السيبراني خوارزمياتٍ أكثر تطورًا وقدرةً على اكتشاف أي تزييفٍ بشكلٍ أفضلٍ من خلال تحليل مقاطع الفيديو والصور لاكتشاف أي تحريفاتٍ أو تشوهاتٍ صغيرةٍ تحدث أثناء عملية التزييف. كما يَحظر قانون فيتنام للأمن السيبراني -الذي دخل حيز التنفيذ في عام 2019- نشر معلوماتٍ كاذبةٍ لأغراضٍ متنوعةٍ. وقد نَشر فريقٌ من الباحثين الصينين مُؤخرًا طريقةً لاستخدام تقنيات الذكاء الاصطناعي نفسها لفضح التزييف العميق في الوقت الحقيقي، بجانب سبل حماية الصور الرقمية استباقيًا عن طريق إضافة الضوضاء الرقمية غير المرئية للعين البشرية. وعلى الرغم من تلك الجهود، فإن فعالية معظمها يظل محلًا للشك.

ختامًا، من شأن التطور التكنولوجي المضطرد، وتوافر الأدوات الرقمية اللازمة، وتعدد القنوات الإعلامية والاجتماعية التي تنشر المعلومات المضللة، وإساءة الاستخدام، أن يٌفاقم تأثير الخداع العميق ليتولّد عنه جملةٌ من التحديات الأمنية التي قد تَطال الأفراد والشركات والدول على حدٍّ سواء، وصولًا إلى حربٍ معلوماتيةٍ مستعرةٍ عمادها الكذب والتلفيق والاحتيال والتزوير والبرامج الضارة، في خضم جيلٍ جديدٍ من التهديدات السيبرانية قوامه محتوى رقمي زائف بشكلٍ أصليٍ وموثوق فيه زورًا.

SAKHRI Mohamed

I hold a bachelor's degree in political science and international relations as well as a Master's degree in international security studies, alongside a passion for web development. During my studies, I gained a strong understanding of key political concepts, theories in international relations, security and strategic studies, as well as the tools and research methods used in these fields.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button