تقنيات الخداع العميق.. عبر «Deep Fake» فبركة الفيديوهات باتت بمتناول الجميع

العالم - Wednesday 02 February 2022 الساعة 06:26 pm
نيوزيمن، وكالات:

في ديسمبر (كانون الأول) الماضي نشر أحد المبرمجين -مجهول الهوية- فيديو مفبركًا في مجموعة على موقع «Reddit» وكتب في المنشور أن هذا الفيديو هو عمل تجريبي لإحدى التقنيات الجديدة أطلق عليها اسم «Deep Fake». وهي عبارة عن أداة أو برنامج يمكن لأي شخص استخدامه بسهولة لتركيب صورة شخص على جسم شخص آخر لتبدو كما لو كانت حقيقية، ولقي هذا المنشور انتشارًا واسعًا وتفاعلاً كبيرًا من رواد الموقع، وبعد شهرين فقط أصبحت تلك المجموعة تملك 90 ألف عضوًا، وساهمت هذه المجموعة بنشر البرنامج والفيديوهات المفبركة باستخدامه على الإنترنت بشكل واسع للغاية.

وأثار هذا البرنامج جدلًا واسعًا، حتى أن واحدًا من أشهر المواقع الإباحية الشهيرة أعلن حجبه الفيديوهات المفبركة التي نشرها المستخدمون على الموقع والتي تم فبركتها باستخدام برنامج أو تقنية «Deep Fake» للتشهير بأشخاص آخرين، والحقيقة أن أضرار هذا البرنامج لا تقتصر على التشهير بالناس من خلال الأفلام الإباحية؛ بل يلقي بظلاله على عالم السياسة أيضًا.

‏«Deep Fake».. أداة الفضائح الجنسية المفبركة

تركيب وجوه المشاهير على أجساد عارية في أفلام وصور إباحية هي ظاهرة متعارف عليها منذ عقود، ولكن البرامج والتقنيات التي كانت تستخدم لتركيب الصور والفيديوهات لم تكن متاحة بالشكل الرخيص أو المجاني مثل معظم البرامج الإلكترونية المتاحة في الوقت الحالي، بالإضافة إلى أنه مع تطّور التكنولوجيا وحدوث ثورة في الذكاء الاصطناعي وتطوّر تقنية «Machine learning» أو «تعلّم الآلة»، الذي يمنح الفرصة للتطبيقات البرمجية أن تكون عملياتها أكثر دقة واحترافية، وتعتمد برامج وتكنولوجيا الـ«Deep Fake» على تعلّم الآلة، وبالأخص تقنية «Predictive algorithm» أو ما يعرف باسم الخوارزمية التنبؤية، والتي تساعد البرامج والآلات على تعلّم ملامح الوجه، وكيف ستغير تلك الملامح في المواقف المختلفة، وبهذا يضمن لك البرنامج جودة تركيب عالية لتبدو كما لو كانت حقيقة.

ولأن البرنامج سهل الاستخدام؛ فمن خلال خطوتين أساسيتين فقط (صورة واضحة لوجه الشخص، مقطع الفيديو الإباحي أو الصورة الإباحية)، واترك الباقي للبرنامج الذي غالبًا يحتاج إلى 40 ساعة لإنتاج مقطع فيديو واحد قصير المدة.

وتتيح تقنية الـ«Deep Fake» ومثلها من التقنيات المشابهة الفرصة للبعض، لتحويل خيالهم الجنسي الجامع الذي يصوّر لهم التواجد في لحظات حميمة مع مشاهير إلى حقيقة. وفي الفترة الأخيرة انتشرت على المواقع الإباحية مجموعة فيديوهات إباحية -مفبركة- للعديد من مشاهير عالم الفن في هوليود.

في عام 2008، قدم لنا السيناريست والكاتب عمرو سمير عاطف من خلال فيلمه الشهير «ولاد العم» برنامجًا يستخدمه الموساد الإسرائيلي لتحويل الكتابة إلى أصوات حقيقية، وظهرت سهولة استخدام البرنامج عندما رأينا الضابط الإسرائيلي يكتب نصًا ويحول البرنامج النص إلى صوت، وفي هذا الوقت لم تكن التكنولوجيا عرفت نوعية هذه البرامج التي تستخدم بهذه السلاسة، وذلك لأن كل التقنيات المشابهة كانت تحتاج إلى تكنولوجيا تطلب أن يمتلك المستخدم مهارات احترافية متخصّصة في هذا المجال.

لكن منذ عامين فقط، تحديدًا في نوفمبر (تشرين الثاني)، أعلنت شركة «Adobe» صاحبة برنامج تحرير الصور الشهير «Photoshop» عن مشروع تكنولوجي جديد سوف يحدث طفرة في عالم التكنولوجيا وصناعة الأفلام، وأطلقت عليه اسم «VOCO»، الذي يحاكي في استخدامه نفس فكرة الجهاز الذي أدمجه الكاتب عمرو سمير عاطف في فيلمه، ويحتاج هذا البرنامج فقط إلى مقطع صوتي مدّته 20 دقيقة على الأقل حتى يتمكن من التعرف على التركيبة النغمية للصوت المراد فبركته، ويقوم البرنامج بدوره بتحويل النص الصوتي إلى كتابي ويمنح الفرصة للمستخدم للحذف أو التعديل أو الإضافة كيفما شاء، فضلًا عن إمكانية حفظ الصوت لاستخدامه في نص آخر.

وعلى الرغم من نوايا شركة «Adobe» الحسنة في إنتاج هذا البرنامج التي أعلنت عنها، المتمثّلة في تسهيل استخدام التكنولوجيا على المستخدمين، إلاّ أنّ وجود برنامج سهل الاستخدام بهذه الإمكانيات يفتح الباب على مصراعيه لتشويه أي شخص، من خلال استخدام صوته لفبركة التصريحات والخطب الصوتية، ولكن لشركة «Adobe» رأي في هذا الأمر، فهي أعلنت أنه لن يتم طرح البرنامج للمستخدمين حتى تضيف فيه خاصية اختبار الصوت حتى يتم تحديد إن كان مزيفًا أم حقيقيًّا، وهذا على ما يبدو ما تعمل عليه الشركة، فعلى الرغم من إعلانهم عن مشروع هذا البرنامج في عام 2016 إلا أنه لم يتم طرحه حتى الآن. وعندما سأل أحد المستخدمين على موقع الشركة الرسمي عن إن كانت الشركة قد صرفت نظر عن إصدار البرنامج بشكل رسمي أو لا؛ لم يتم حتى الآن الرد على هذا السؤال من قبل الموقع أو أحد ممثليه.

في عام 2010، قام موقع «Slate» بتجربة اجتماعية على الإنترنت؛ نشر فيها الموقع صورة مفبركة للرئيس الأمريكي السابق “باراك أوباما” وهو يصافح الرئيس الإيراني السابق “أحمدي نجاد”، ونُشر مع هذه الصورة استبيان للقراء يجيبون فيه عن سؤالين: «هل تتذكر هذه الصورة؟» و«ما كان شعورك عندما رأيت هذه الصورة أول مرة؟»، وكانت المفاجأة أن 21% من الذين شاركوا في الاستبيان قالوا إنهم يتذكرون هذا الحدث، وأنهم غضبوا من أوباما عندما صافح الرئيس الإيراني آنذاك، بينما قال 25% من المشاركين أنهم يتذكرون مصافحة أوباما لأحمدي نجاد ولكنهم لا يتذكرون رؤية الصورة، والحقيقة أن هذه الصورة مفبركة، فبسبب شدة الخلاف بين الولايات المتحدة وإيران، لم تسنح الفرصة ولو لمرة لأوباما وأحمدي نجاد للاجتماع في مكان واحد لتبادل التحيّة على الأقل.

الصورة المفبركة لباراك أوباما وأحمدي نجاد تفصح عن تفسير علم النفس لما حدث، فالسبب يكمن في كيفية تكوين الذاكرة البشرية؛ فالذاكرة ليست كأشرطة الفيديو، يمكنك إعادته وتسريعه كما نشاء، ولكن الذاكرة يتم بناؤها، وتخزين الأحداث بالأساس في شكل معلومات صغيرة، وعند استدعاء هذه الأحداث يقوم العقل البشري بتجميع المعلومات الصغيرة لتكوين الحدث. ولسوء الحظ فإنّ العقل البشري يتميّز بالكسل في هذه العملية؛ وذلك لأنه يقوم بتجميع المعلومات التي يمكن أن تسهل عليه مأمورية تكوين الذاكرة، ويمكن للعقل البشري أيضًا أن يقوم ببناء الذاكرة على معلومة مزيفة لينتهي به الأمر بتكوين ذاكرة عن حدث أو فعل لم يحدث، وهذا بالضبط ما حدث مع صورة باراك أوباما وأحمدي نجاد، وما قد يحدث أيضًا عندما يتم استخدام هذه التقنيات لتزييف أحداث لسياسيين في الماضي من أجل التأثير على شعبيتهم، لذلك فإن تقنيات الفبركة الحديثة سهلة الاستخدام سوف تلقي بظلالها وبشدّة على العملية الديمقراطية في السنين القادمة.