تقنية التزييف العميق Deepfake: أعجوبة تكنولوجية وخطر علينا جميعًا

القائمة الرئيسية

الصفحات

تقنية التزييف العميق Deepfake: أعجوبة تكنولوجية وخطر علينا جميعًا

تقنية التزييف العميق Deepfake: أعجوبة تكنولوجية وخطر علينا جميعًا

التزييف العميق تخيل ، عزيزي القارئ ، أن الملكة إليزابيث ترقص خلال خطوبتها السنوية في عيد الميلاد ، نعم هي الملكة إليزابيث بالشكل الذي نعرفه وفي مكتبها الملكي الذي اعتدنا رؤيتها معها. ألن يكون ذلك غريبا؟

تقنية التزييف العميق Deepfake: أعجوبة تكنولوجية وخطر علينا جميعًا


تخيلوا الاستيقاظ والعثور على فيديو لرئيس أمريكا يعلن الحرب على الصين أو روسيا من مكتبه في البيت الأبيض بالصوت الذي نعرفه جميعًا ، ماذا سيحدث في العالم؟


أو اترك كل ذلك ، كيف ستشعر إذا تمكنا من إعادة شخص ميت إلى الحياة وشاهدت مقاطع فيديو له وهو يبتسم تمامًا كما كان يبتسم عندما كان على قيد الحياة ، ويعبر عن آرائه في الموضوعات الحالية أو يتحدث معك بشكل عشوائي.


أعلم أنك الآن مندهش للغاية واسأل نفسك ما هي هذه التخيلات ، والتي لن تحدث أبدًا ، لكن للأسف أو لحسن الحظ حدث هذا بالفعل ، هذا فيديو لأحد شخصيات مدرسة الفن السريالي ، الفنان الشهير سلفادور دالي الذي مات منذ سنوات عديدة.



كما توجد العشرات من مقاطع الفيديو للرئيس الأمريكي السابق أوباما والرئيس السابق ترامب يقولان أشياء غريبة لا تأتي من أي منهما ، لكن هناك برامج متخصصة من تقنيتنا سنتحدث عنها اليوم ، محور عملها هو صنع مقاطع فيديو كهذه لهاتين الشخصيتين على وجه الخصوص.


Deepfake أو deepfake هي هذه التكنولوجيا الغريبة والمدهشة والمخيفة التي سنتحدث عنها اليوم ، وهي التكنولوجيا التي تجعل من الممكن القيام بأشياء اعتبرناها سابقًا مستحيلة.


ما هو التزييف العميق؟

ببساطة ، deepfakes هي تقنية هدفها الأساسي إنشاء مقاطع فيديو - مزيفة بالطبع - من خلال التعلم العميق والذكاء الاصطناعي باستخدام الصور ومقاطع الفيديو والأصوات الموجودة مسبقًا.


يمكنك القول إنها تبني مقاطع فيديو جديدة من الموجودة مسبقًا ، ومن خلالها يمكنك إضافة كلمات أو حذف كلمات أخرى ، ويمكنك جعل الشخصية أو الشخصيات التي تستخدم هذه التقنية تقول أشياء لم تكن لتقولها من قبل.


قد تعتقد أن هذه التكنولوجيا هي خيال علمي ، لكنها على العكس من ذلك واقعية للغاية ، وقد تم استخدامها كثيرًا في السنوات الأخيرة ، سواء في السينما أو في الحياة الواقعية.


آخر مشاهد بول ووكر بعد وفاته في مسلسل Fast & Furious كانت تستخدم هذه التقنية من خلال مقاطع فيديو تم تصويرها له سابقاً ، وأراهن لك عزيزي القارئ أنك لو شاهدت الفيلم فلن يخطر ببالك. للحظة أن مقاطع الفيديو هذه ليست حقيقية وأن بول ووكر عاد من قبره لتصويرها.


تحظى تقنية Deepfake بشعبية كبيرة في السينما بالطبع لأن لدينا العديد من الصور ومقاطع الفيديو الخاصة بالممثلين ، وهناك حوادث مشهورة باستخدام هذه التقنية لعمل مقاطع فيديو مزيفة لهم ، مثل مجموعة مقاطع الفيديو المزيفة للفنان Tom Cruise التي غمرت الإنترنت منذ فترة ، وهذا أحدهم:


على الرغم من أن تقنية التزييف العميق لا تزال جديدة نسبيًا ، إلا أنها قوية وخطيرة بالفعل ؛ يمكن لأي شخص يعرف كيف يصنعها أن يصنع مقاطع فيديو حيث يقول أي شخص أي شيء يريده صانع الفيديو ، أو ما هو أسوأ من ذلك يضع وجهه كبديل لوجه مجرم في فيديو جريمة.


تكمن خطورة هذه التقنية في حقيقة أنه يمكنك تنفيذها من خلال مواد مثل الصور الشخصية ومقاطع الفيديو على حسابات الشخص على مواقع التواصل الاجتماعي ، ولهذا السبب فهي تعتبر خطرا كبيرا على البشرية رغم قوتها الكبيرة.


أحد مخاطر تقنية deepfake هو أن بعض الأشرار يستخدمونها لإنشاء مقاطع فيديو أو صور تبتز الآخرين ، ولهذا السبب تحاول شبكات التواصل الاجتماعي مواجهتها واكتشافها عند نشرها.


كيف يعمل تقنية التزييف العميق deepfake؟

تعتمد تقنية Deepfake على الذكاء الاصطناعي ، وتحديدًا على الشبكات العصبية الاصطناعية (ANN) ، وبشكل أكثر تحديدًا على الشبكات العصبية الاصطناعية التي تسمى GANs للاختصار لشبكة الخصومة التوليدية أو شبكات الخصومة الإنجابية.


تعمل هذه الشبكات الصناعية مثل القط والفأر ، وهي مكونة من جزأين ، الأول هو المولد الذي يقوم بتجهيز المقطع والأصوات المزيفة ، والجزء الآخر هو الكاشف الوهمي “The Discriminator” الذي يحدد ما إذا كان المقطع مزيفًا. أم لا.


يعمل المولد على عمل المقاطع بحيث تمر تلك المقاطع فوق كاشف الخطأ ، فيقوم باكتشاف الأخطاء الموجودة بها ثم إعادتها إلى المولد لتحسينها ، وبالتالي تتكرر هذه العملية كثيرًا حتى يتعذر على الكاشف الوهمي تحديد أي خطأ في المقطع ثم اكتمل إنتاج المقطع.


هذه التقنية خطيرة وذكية لأنها يمكن أن تعلم نفسها ، وهنا يقوم الكاشف الوهمي بتحديد الأخطاء ونقلها إلى المولد للحد من تكرارها وبالتالي يصبح المولد أفضل وأفضل في هذا الأمر ، مما يجعله قادرًا على إنشاء مقاطع حقيقية دقيقة للغاية.


هذه هي العملية باختصار ، ولكن في البداية يجمع صانع الفيديو الوهميأكبر قدر من البيانات مثل الشخص الذي يريد تزوير المقطع له ، وهذه البيانات هي مقاطع فيديو وصور من جميع الزوايا بالإضافة إلى مقاطعه الصوتية.


قد يكون المقطع المزيف غير دقيق في البداية أو قد يكون الكاشف المزيف المستخدم ضعيفًا بعض الشيء مما يؤثر على الناتج النهائي للعملية ، ثم تسمى العملية Shallow Fake.


نلاحظ هنا أن التعلم الآلي والتعلم العميق المستخدم في هذه التقنية يجعلها سريعة جدًا وقادرة على تعليم نفسها بنفسها ، ومع تطوير هذه الأساليب ، نجد أن تقنية deepfakes أصبحت أيضًا تقنية أكثر دقة وتتطلب وقتًا أقل بكثير والموارد والبيانات.


تتعامل خوارزمية GANs مع المقاطع المزيفة التي يصنعونها مثل اللقطات ، حيث نعلم جميعًا أن مقاطع الفيديو هي صور متتالية تمنحنا إحساسًا بالحركة ، لذلك تفصلها الخوارزمية وتعالجها واحدة تلو الأخرى. هذا صحيح يدويًا ، ولكن من الناحية النظرية فقط ، لتزييف مقطع فيديو مدته خمس دقائق ، يحتاج المرء إلى الجلوس لأسابيع أمام الفوتوشوب من أجل صنع مزيف رديء.


يجب أن أشير أيضًا ، عزيزي القارئ ، إلى أنه على الرغم من أن الخوارزميات الأكثر استخدامًا حتى الآن هي شبكات GAN التي تحدثنا عنها ؛ ومع ذلك ، تظهر كل يوم تقنيات وخوارزميات جديدة أكثر دقة وقوة وتتطلب بيانات أقل ، لكننا ركزنا على شبكات GAN لأنها الأكثر استخدامًا.


Deep Fake ليس مجرد شيء واحد ، إنه مجموعة من الأدوات التي تسمح بتبادل الصوت وتحريك الوجوه للصور الثابتة وتحريك الشفاه وتحريك الجسد وتحويل النص إلى كلام ، لذلك لا يوجد حد لما يمكن أن تفعله هذه التقنية .


لكن في رأيي أخطر هذه التقنيات هي التقنية التي تسمح بتحريك الوجوه أو تبديل الوجوه ، لأنه حينها يمكنك استهداف شخص وجعله يفعل أو يقول أي شيء في فيديو مزيف يصعب اكتشافه ، وهذا يمكن أن يدمر حياة ذلك الشخص.


تأثير تقنية التزييف العميق على المجتمع

تقنية Deep Fake هي تقنية حديثة ومتقدمة ، وقد تساعدنا كثيرًا في تحسين واقع حياتنا والقيام بالعديد من الأشياء المستحيلة. من الممكن إعادة الشخص المتوفى العزيز إلى الحياة واستعادة ابتساماته وحواراته ، ويمكنك مقابلة الشخصيات الميتة العظيمة ، مثل أينشتاين ونيوتن وغيرهما.


لكن هذا جانب واحد فقط من القصة ، يمكنك مزيفة مقاطع الفيديو التي تدين الأبرياء ، وهذا يحدث بالفعل خاصة مع السياسيين والفنانين والصحفيين والإعلاميين الذين لديهم الكثير من المواد الرسومية على الإنترنت التي تسمح بسهولة بنشر مقاطع الفيديو المزيفة. صنع لهم.


مع تطور هذه التقنية أكثر فأكثر ، يمكن للمتخصصين إنشاء مقاطع فيديو مزيفة باستخدام عدد صغير من الصور ومقاطع الفيديو ومقاطع الفيديو ، مما يجعل الشخص العادي عرضة للخطر من خلال الصور ومقاطع الفيديو على حساباته على وسائل التواصل الاجتماعي.


تحاول العديد من المؤسسات والشركات الخاصة اليوم ابتكار تقنيات قوية قادرة على تحديد المقاطع المزيفة العميقة ، بغض النظر عن مدى دقتها وتفصيلها ، ولكن لا يزال لدينا الكثير لنفعله ... خاصة وأن التقنيات التي ينشئونها تتطور أيضًا بسرعة كبيرة.


كما لاحظت الدول المتقدمة ذلك وتحاول وضع حد له من خلال زيادة الوعي وفرض العقوبات. الوعي هنا يعني توعية المواطنين بهذه التقنية وأخطارها ، وعدم تصديق أي شيء يرونه أو التحقيق في المصدر المنشور من خلاله.


كما تحاول تقنين الأمور ووضعها في إطار تشريعي محدد يسمح لها بالحفاظ على أمن وسلامة مواطنيها من أي اعتداء أو اعتداء فني قد يضر بهم ، وهو ما حدث لكثير من الناس في بداية الفترة. صعود التكنولوجيا عندما عزلوا أنفسهم خوفًا من ردود فعل الناس على مقاطع الفيديو الخاصة. تزييفهم.


تحاول وسائل التواصل الاجتماعي أيضًا مواجهة هذا الأمر ، حيث يتم عادةً نشر هذه الفيديوهات من خلالها ، لذلك أطلقوا فلترًا يسمح بمعالجة المقاطع الوهمية التي تم إنشاؤها باستخدام تقنية التزييف العميق ، وعلى الرغم من أن هذا لا يزال في مراحله الأولى ، هي خطوة مهمة للحماية.


استعان فيسبوك بعدد من الخبراء في اكتشاف التزييف العميق من مؤسسات مرموقة مثل جامعات بيركلي وأكسفورد وغيرهما ، بهدف بناء نظام كشف مدمج في فيسبوك يسمح له بالتعرف على مقاطع الفيديو هذه ومنعها من الانتشار.


قام موقع Twitter أيضًا بإجراء تعديلات وتغييرات كبيرة على قواعده من أجل تحديد مقاطع الفيديو المزيفة ، وهذا ما فعله YouTube بشكل خاص لمنع أي مقاطع فيديو مزيفة تتعلق بالانتخابات الرئاسية الأمريكية 2020.


كيف نحدد فيديوهات التزييف العميق؟

هناك العديد من المشاكل التي تسببها تقنية deepfakes ، فهناك العديد من الشركات التي أفلست بسبب مقاطع مزيفة أو حتى تسجيلات صوتية مزيفة ، وهناك قصة مشهورة عن شركة تسبب مقطع صوتي مزيف لرئيسها التنفيذي في إفلاسها.


كان هذا عن طريق أحد المتطفلين بإرساله إلى المدير المالي ، وحثه على إجراء تحويل مالي عاجل بملايين الدولارات ، وبالطبع لم يكن أي من هذا صحيحًا ،خسرت الشركة كل هذه الأموال ثم أفلست.


ما هو أخطر من خسارة المال هو اندلاع حرب بين الدول. إذا انتشر مقطع فيديو لرئيس دولة يحرض على العنف أو الهجوم على دولة أخرى ... هنا ، قد تتخذ تلك الدولة الأخرى قرارًا بالشروع في الهجوم ، وعندها ستبدأ حرب بينهما ستقتل مئات الآلاف بسبب مقطع مزيف.


عزيزي القارئ لا تظن أن هذا محض خيال ، فقد حدث بالفعل للعديد من القادة والسياسيين المهمين ، وأشهر هذه الحوادث كانت في ولاية ترامب ، الذي نشر على حسابه فيديو وهمي لنانسي بيلوسي ، رئيس مجلس النواب الامريكي.


يجب أن نتناول هنا نقطة مهمة جدًا ومعقدة ، وهي أن هناك - كما قلنا - نوعان من الباطل العميق ، وهما الباطل المهني العميق أو الباطل الدقيق ، وهناك الباطل السطحي أو العميق الذي به أخطاء كثيرة.


النوع الثاني (الضحل) يمكن اكتشافه بسهولة وأحيانًا يمكن اكتشافه بالعين البشرية بسبب عدد من الأخطاء ، مثل:


  • جودة المقطع أو الصوت رديئة جدًا ، مما يوحي بأنها ملفقة.
  • هناك أخطاء في معالجة الظلال في المقطع ، لذلك نجد أن هناك ظلال لأشياء غير موجودة ، أو العكس ، هناك ظلال مفقودة في المقطع.
  • عدم تناسق في حركة الجسم من خلال الإحساس بوجود خطأ ما في الفيديو أو في الحركة ، وعند مقارنته بفيديو حقيقي للشخص ، يمكن اكتشاف ذلك بسهولة.
  • حركات الشفاه ضعيفة ومن السهل عليك اكتشاف الأخطاء في حركات الشفاه أثناء التحدث والنطق بالكلمات المزيفة.
  • أسلوب الشخص المزيف ، لا يتعلق هذا بالتقنية نفسها ، ولكن من الممكن حدوثه في عمليات التزييف غير المتقنة ، وهو عدم الاحتراف في إعداد النص والحركات المناسبة مع الشخص.
  • يعد اكتشاف مقاطع الفيديو المزيفة المثالية أكثر صعوبة

الكثير منها شبه واقعي ، وهناك فرصة ضئيلة لاكتشاف زيفها من خلال أخطاء صغيرة جدًا غير ملحوظة ، أو من خلال تقنيات أكثر تعقيدًا ابتكرها على وجه التحديد لهذا الغرض.


اليوم ، هناك العديد من الخوارزميات التي تم إجراؤها للتغلب على هذه التقنية ، وعادة ما تعتمد على فحص كل بكسل في كل صورة أو إطار من المقاطع المزيفة فقط لتحديد وهمية هذه الفيديوهات ، لكنها للأسف لا تزال في مراحلها الأولى و يأخذون الكثير من الوقت وقوة الحوسبة.


هذا هو السبب في أنها غير فعالة بعض الشيء ، لأنه بعد أن تقوم بتحليل إطار الفيديو بإطار وبكسل بكسل ، قد تكون حياة مالك الفيديو قد دمرت بالفعل ، وبحلول ذلك الوقت سيكون قد فات الأوان.


لكنها فعالة في تحديد بعض الصور المزيفة التي ليست معقدة للغاية. من خلال البحث عن بكسل تلو الآخر ، يمكنك تحديد العيوب في الصورة التي لا تستطيع التكنولوجيا تزييفها إذا كانت التقنية المزيفة العميقة طبيعية وليست فائقة.


Deep Trace - مصطلح يشمل جميع أشكال الكشف المزيف العميق - هو سباق تسلح بين الدول بقدر ما هو في الأسلحة.


العديد من الدول اليوم تضع قوانين لتجريم استخدام مثل هذه التقنيات ، ومن بين أولى هذه الدول: الولايات المتحدة الأمريكية والصين وكوريا الجنوبية مع بريطانيا ، والتي هي في طور إعداد قانون لإضفاء الشرعية على مثل هذه التقنيات الخطرة.



reaction:

تعليقات