Deepfake هو واحد من الأكثر إثارة للقلق ورائع الذكاء الاصطناعي التطبيقات. يمكن لهذه التزوير الرقمي المفرط في كثير من الأحيان أن تحل محل وجه شخص ما ، صوت أو تشبه كامل في الصور والتسجيلات الصوتية وحتى مقاطع الفيديو.
ما كان ذات يوم هوليوود المتخصصة التأثيرات البصرية VFX أصبحت الأداة-مثل صموئيل L. Jackson رقميًا في Captain Marvel-متاحة على نطاق واسع من خلال التلاعب الذي يحركه AI. اليوم ، يمكن لأي شخص تقريبًا توليد DeepFake في دقائق مع بسيطة ويمكن الوصول إليها بسهولة أدوات الذكاء الاصطناعي مثل Synthesia و Deepfacelab و Repace و Heygen و Pickle و أحد عشر (للصوت).

إذا كنت تتساءل عن مدى تقدم هذه الأفعال العميقة ، فدع نفسك: أ يذاكر من بين 2000 شخص في المملكة المتحدة والولايات المتحدة هذا العام ، أظهروا أن 0.1 ٪ فقط من المشاركين يمكنهم اكتشاف مقطع فيديو أو صورة DeepFake “حتى عندما يتم إخبارهم على وجه التحديد بالبحث عن Fakes” ، في حين أن 22 ٪ لم يسمعوا أبدًا عن DeepFakes قبل إجراء المسح.
يستخدم بعض الناس DeepFakes لمتعة غير ضارة ، لكن التكنولوجيا أثارت أخلاقية خطيرة مخاوف، من معلومات خاطئة وتضلل المعلومات إلى احتيال و انتهاكات الخصوصية. على عكس الآخر مولدات الصور منظمة العفو الدولية ومولدات الفيديو ، مثل منو Midjourney و سورا، يعدل DeepFakes على وجه التحديد وسائل الإعلام الواقعية تقليد أناس حقيقيين.
دعنا نتعمق أكثر في كيفية عمل AI Deepfakes وما هي المخاطر التي تأتي معها.
شاهد هذا: كيفية استنساخ صوتك مع الذكاء الاصطناعي
هل من الصعب إنشاء DeepFake؟
Deepfakes ليست تقنية جديدة. أصبح هذا التقنية “SWAP” ، حيث يتم استبدال وجه شخص ما بسلاح آخر لتغيير هويته ، واضحة للغاية في عام 2017 عندما عميق للرئيس باراك أوباما، الذي أنتجه المخرج جوردان بيل و BuzzFeed ، حذر المشاهدون من التقدم التقني الذي يمكن أن يجعل الناس يبدو أنهم يقولون أو يفعلون أشياء لم يفعلوها بالفعل.
حتى ذلك الحين ، الطب الشرعي في البنتاغون قال أنه كان من الأسهل توليد DeepFake بدلاً من اكتشاف واحدة. تخيل مدى صعوبة التمييز بين مقطع فيديو حقيقي في الوقت الحاضر.
تعتمد Deepfakes التعلم العميق، فرع من الذكاء الاصطناعي الذي يحاكي كيف يتعرف البشر على الأنماط. تحلل نماذج الذكاء الاصطناعي هذه الآلاف من الصور ومقاطع الفيديو الخاصة بشخص ما ، وتعلم تعبيرات وجهه وحركاته وأنماط الصوت. بعد ذلك ، باستخدام شبكات الخصومة التوليدية ، يخلق الذكاء الاصطناعى محاكاة واقعية لهذا الشخص في محتوى جديد. تتكون Gans من شبكتين عصبيتين حيث يقوم المرء بإنشاء محتوى (المولد) ، ويحاول الآخر تحديد موقعه إذا كان مزيفًا (التمييز).
يعتمد عدد الصور أو الإطارات اللازمة لإنشاء DeepFake المقنع على جودة وطول المخرج النهائي. للحصول على صورة DeepFake واحدة ، قد تكون عدد غير صور واضحة من خمس إلى 10 صور واضحة لوجه الشخص كافية. بالنسبة إلى مقطع فيديو ، عادة ما تكون المئات أو حتى الآلاف من الإطارات مطلوبة ، خاصة لالتقاط تعبيرات مختلفة للوجه والزوايا وظروف الإضاءة.
قد يكون جمع هذا الكثير من البيانات البصرية تحديًا في الماضي ، ولكن وسائل التواصل الاجتماعي جعل من الأسهل من أي وقت مضى الوصول إلى ملايين الصور العامة ومقاطع الفيديو للأفراد. بالنظر إلى أن مقطع فيديو مدته 30 ثانية في 30 إطارًا في الثانية يمنحك بالفعل 900 إطار للعمل معه ، فإن منشئي DeepFake لديهم مواد تدريب وفيرة في متناول أيديهم.
مزيف أم حقيقي؟ كيفية اكتشاف Deepfakes
يقول الاقتباس الشهير ، الذي يعزى غالبًا إلى إدغار آلان بو ، “لا تصدق شيئًا عما تسمعه ونصف فقط الذي تراه”. حسنًا ، مع تقدم DeepFakes ، قد لا نتمكن من تصديق أي شيء نراه بعد الآن.
مثل أدوات اكتشاف الذكاء الاصطناعي الأخرى ، لا تزال طرق اكتشاف الفيديو DeepFake غير موثوق بها. بدأ معهد روتشستر للتكنولوجيا مشروع DEFAKE ضد الخداع الرقمي. قاموا ببناء أداة جنائية تساعد الصحفيين على تحليل تكنولوجيا DeepFake والتحقق منها.
ماثيو رايت، يروي أستاذ ورئيس قسم الأمن السيبراني في RIT ، CNET أنه “من الصعب للغاية هذه الأيام” تمييز الفيديو الحقيقي من DeepFake.
يقول رايت: “لا يوجد نظام منظمة العفو الدولية سيكون قادرًا حقًا على فهم السياق الكامل لماهية الفيديو ، ومن يتم تصويره فيه وما هي العلاقة مع القناة التي نشرتها”. “هل هناك أي نوع من توثيق الموافقة؟ هناك أشياء كثيرة من شأنها أن تدخل في هذا النوع من صنع القرار الآلي.”
في حين أن الأشخاص الذين يتمتعون بالدهاء في التكنولوجيا قد يكونون أكثر يقظة بشأن اكتشاف العميق ، إلا أن الأشخاص العاديين يحتاجون إلى أن يكونوا أكثر حذراً. سألت جون سوهراواردي ، علوم الحوسبة والمعلومات الدكتوراه الطالب يقود مشروع Defake ، حول الطرق المشتركة للتعرف على DeepFake.
نصح الناس أن ينظروا إلى الفم لمعرفة ما إذا كانت الأسنان مشوهة. “هل الفيديو أكثر ضبابية حول الفم؟ هل يبدو أنهم يتحدثون عن شيء مثير للغاية ولكن يتصرف رتابة؟
يقول Sohrawardi إذا كان Deepfake سيئًا للوجه ، فستكون لديك حواف من الوجه أو حتى ظهور حاجب إضافي. ويستمر في أنه إذا كان هناك عرقلة أمام الوجه ، مثل ميكروفون أو يد أخرى ، “إذا كان هناك عائق أمام الوجه ، مثل الميكروفون أو اليد ، أو إذا كان الشخص قد ابتعد ، فإن الوجه يختفي قليلاً إذا واجه زاوية شديدة.”
ويضيف كيلي وو ، وهو طالب دكتوراه في العلوم الحوسبة والعلوم في ريت الذي يشارك أيضًا في المشروع ، “هناك نوع من مشكلات التزامن مع الفم. يمكنك الاستماع إلى الصوت ومعرفة ما إذا كان الفم يتحرك فعليًا مع الصوت. هذه طريقة سهلة للغاية لمعرفة ما إذا كان هناك ارتباط بالشفاه وراءه.”
الخلافات العميقة والجرائم الإلكترونية
أثار صعود تكنولوجيا Deepfake مخاوف كبيرة ، وخاصة في مجالات مثل المعلومات الخاطئة و التلاعب السياسي. في حين أن مجموعة من Donald Trump و Elon Musk التي ترقص معًا قد تبدو مضحكة (أو لا) ، فقد تم أيضًا استخدام مقاطع الفيديو التي تم إنشاؤها من الذكاء الاصطناع الدعاية.
سوء استخدام آخر من Deepfakes هو للاحتيال والاحتيال.
يقول رايت: “في الوقت الحالي ، تعد عمليات احتيال الصوت Deepfake هي الأكثر شعبية لأن الصوت هو أفضل شكل ، مع أقل القطع الأثرية والمشاكل معها”. “لذلك من الأسهل خداع الناس.”
لقد خدعت عمليات الاحتيال الهاتفية Deepfake الضحايا للاعتقاد بأنهم يتحدثون إلى حقيقية أحد أفراد الأسرة الذي تم اختطافه. هذا هو المعروف باسم عملية احتيال في حالات الطوارئ العائلية ، وقد تسبب في خسارة الأسر المتضررة عشرات الآلاف من الدولارات.
واحدة من أكبر القضايا الأخلاقية مع DeepFakes هي استخدامها في مقاطع الفيديو غير الطائفية ، وخاصة المواد الإباحية DeepFake. المشاهير وكانت الأرقام العامة أهدافًا متكررة ، ولكن حتى الأفراد ، بما في ذلك القصر، تأثرت بمحتوى مزيف من الذكاء الاصطناعى المولدة على الإنترنت.
كان أحد هؤلاء الأطفال فرانشيسكا ماني ، الذي أطلق عليه اسم واحد من 100 شخص أكثر نفوذا في الذكاء الاصطناعى 2024 لنشاطها المضاد للعمق.
قامت فرانشيسكا ووالدتها ، دوروتا ماني ، بحملة من أجل تغييرات في السياسات حول الذكاء الاصطناعي.
“في كثير من الأحيان ، ينصب التركيز على كيفية حماية نفسك ، لكننا نحتاج إلى تحويل المحادثة إلى مسؤولية أولئك الذين يقومون بإنشاء وتوزيع محتوى ضار” ، أخبرت دوروتا ماني CNET ، عندما سئلت عن النصيحة التي ستقدمها للفتيات والنساء التي تواجه هذه التهديدات. “لا ينبغي أن يكون العبء على الضحايا فقط لمنع حدوث ذلك. الدفان من أجل حقوقك ، وتحدي السرد ولا تقبل الإسكات أو اللوم على انتهاك شخص آخر لاستقلالك”.
للمساعدة في مكافحة انتشار المواد الإباحية العميقة وغيرها من الصور الحميمة غير العادية ، خذ هذا الفعل اجتاز مجلس الشيوخ بالإجماع الشهر الماضي وينتظر الآن الموافقة في مجلس النواب. سيتطلب مشروع القانون منصات لإزالة المحتوى المبلغ عنه في غضون 48 ساعة.
وقالت دوروتا ماني: “هذا مغير للألعاب ، ويعيد السلطة للضحايا وضمان أن لديهم طريقًا واضحًا وسريعًا للعدالة”.
على الرغم من أنها خطوة إلى الأمام ، يقول النقاد إن الضرر يحدث في كثير من الأحيان قبل الإزالة ، حيث يمكن تنزيل المحتوى الضار بسرعة ومشاركته إلى أبعد من التحكم.

LR: فرانشيسكا ماني ، إليستون بيري ، السيدة الأولى ميلانيا ترامب ، السناتور تيد كروز (R-TX) والنائب ماريا سالازار (R-FL).
كيف تستجيب شركات التكنولوجيا إلى DeepFakes
منصات التكنولوجيا مثل تيخوك و يوتيوب نفذت أدوات اكتشاف الذكاء الاصطناعى التي يمكن أن تعلم أو حتى حظر الوسائط المعالجة ، والتي تتطلب تسمية محتوى تم إنشاؤه من الذكاء الاصطناعى على هذا النحو لمنع الخداع.
Meta لديه تعديل نهج العلامات AI على منصاتها الاجتماعية (فيسبوكو Instagram و المواضيع) في سبتمبر 2024. “معلومات منظمة العفو الدولية” يتم الآن عرض الملصق بشكل بارز فقط للمحتوى الذي تم إنشاؤه بالكامل من الذكاء الاصطناعي ، بما في ذلك الحالات التي تحددها إشارات الصناعة أو الكشف عن الذات. بالنسبة للمحتوى الذي تم تحريره أو تعديله بواسطة AI ، قام Meta بنقل ملصق “AI Info” إلى قائمة Post. ميتا منظمة العفو الدولية، على الرغم من ذلك ، تسمي تلقائيًا محتوىها الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على هذا النحو.
أعلنت Google أنها ستزيل العميق الواضحة غير العادية من البحث عند طلب المستخدم. طلبت Microsoft العام الماضي المشرعون جعل Deepfakes غير قانوني.
ليس كل شيء عن DeepFakes قاتمة
هناك بعض حالات الاستخدام الإيجابي للعلم العميق. على الرغم من أنها ستستخدم على الأرجح في الترفيه ، مثل الجهات الفاعلة في الشيخوخة أو العكسية في الأفلام والمسلسلات التلفزيونية ، لديهم أيضًا إمكانية للتعليم الغامرة و علاج الصدمة. على سبيل المثال ، يمكنك التفاعل مع الإصدارات الرقمية للأحباء المفقودين أو مواجهة المعتدين السابقين في بيئة محكومة.
يمكن أن تفيد Deepfakes أيضًا صناعات الألعاب والأزياء من خلال تمكين إنشاء صور شخصية شخصية باستخدام وجه المرء.
أحد أروع تطبيقات DeepFake هو متحف سلفادور دالي في فلوريدا، حيث يمكن للزوار التفاعل مع نسخة من الذكاء الاصطناعى النابض بالحياة من Dalí ، شاهده يتحدث عن فنه وحتى أخذ صورة شخصية مع الفنان.
مع تقدم Deepfakes ، يعد التحقق من المصادر والبقاء المتشكك أفضل دفاع ضد خداع الذكاء الاصطناعي الضار.