Home تحديثات مختارة الذكاء الاصطناعي Deepfake يخدع الديمقراطيين حيث تتخلف القوانين عن الاستخدام غير الصحيح...

الذكاء الاصطناعي Deepfake يخدع الديمقراطيين حيث تتخلف القوانين عن الاستخدام غير الصحيح لـ “التوائم الرقمية”

13
0

انضم إلى Fox News للوصول إلى هذا المحتوى

بالإضافة إلى وصول خاص إلى مقالات محددة ومحتوى قسط آخر مع حسابك – مجانًا.

عن طريق إدخال بريدك الإلكتروني والاستمرار في الضغط ، فأنت توافق على Fox News ‘ شروط الاستخدام و سياسة الخصوصيةوالتي تشمل لدينا إشعار بالحافز المالي.

يرجى إدخال عنوان بريد إلكتروني صالح.

تنتج الذكاء الاصطناعي (AI) “توأمين رقميين” واقعية للسياسيين والمشاهير والمواد الإباحية والمزيد – تاركين ضحايا تقنية Deepfake تكافح لتحديد اللجوء القانوني.

أخبر الدكتور إريك كول خبير الأمن السيبراني وخبير الأمن السيبراني فوكس نيوز الرقمية إن ممارسات الخصوصية السيئة عبر الإنترنت واستعداد الناس لنشر معلوماتهم علنًا على وسائل التواصل الاجتماعي تجعلهم عرضة ل AI Deepfakes.

وقال “القط بالفعل خارج الحقيبة”.

“لديهم صورنا ، وهم يعرفون أطفالنا ، وهم يعرفون عائلتنا. إنهم يعرفون المكان الذي نعيش فيه. والآن ، مع الذكاء الاصطناعى ، يمكنهم أخذ كل هذه البيانات حول من نحن ، وما الذي ننظر إليه ، وما نفعله ، وكيف نتصرف ، ويكونون قادرين بشكل أساسي على إنشاء توأم رقمي”.

ضع هذه النصائح في الاعتبار لتجنب التعرض للخداع من قبل DeepFakes التي تم إنشاؤها من الذكاء الاصطناعى

غالبًا ما تتضمن الصور التي تم إنشاؤها بواسطة AI ، والمعروفة باسم “Deepfakes” ، تحرير مقاطع فيديو أو صور للأشخاص لجعلها تبدو وكأنها شخص آخر أو استخدام صوتهم لإدلاء بيانات لم يسبق لهم نطقها في الواقع. (Elyse Samuels/The Washington Post/Lane Turner/The Boston Globe/Stefani Reynolds/AFP عبر Getty Images)

ادعى أن التوأم الرقمي ، هو جيد جدًا لدرجة أنه من الصعب معرفة الفرق بين النسخة الاصطناعية والشخص الحقيقي الذي يعتمد عليه DeepFake.

في الشهر الماضي ، تم توزيع مقطع صوتي احتيالي من دونالد ترامب جونيور ، مما يشير إلى أن الولايات المتحدة كان يجب أن ترسل معدات عسكرية إلى روسيا بدلاً من أوكرانيا.

المنشور تمت مناقشته على نطاق واسع على وسائل التواصل الاجتماعي ويبدو أنه مقطع من حلقة من البودكاست “نشأ مع دونالد ترامب جونيور”.

أكد الخبراء في التحليل الرقمي لاحقًا أن تسجيل صوت ترامب جونيور قد تم إنشاؤه باستخدام الذكاء الاصطناعي ، مشيرين إلى أن التكنولوجيا أصبحت أكثر “كفاءة ومتطورة”.

FactPostNews ، و حساب رسمي للحزب الديمقراطي ، نشر الصوت كما لو كان أصيل. الحساب في وقت لاحق حذف التسجيل. رواية أخرى ، الجمهوريين ضد ترامب ، نشر أيضا المقطع.

في السنوات القليلة الماضية ، تم استخدام العديد من الأمثلة على العميق من الذكاء الاصطناعي لتضليل المشاهدين الذين يشاركون بالمحتوى السياسي. أظهر مقطع فيديو 2022 ما يبدو الرئيس الأوكراني فولوديمير زيلنسكي الاستسلام لروسيا – لكن المقطع المزيف كان سيئًا وانتشر لفترة وجيزة فقط على الإنترنت.

مقاطع الفيديو المعالجة للرئيس دونالد ترامب و الرئيس السابق جو بايدن ظهر في وقت لاحق في الفترة التي سبقت الانتخابات الرئاسية الأمريكية 2024. استنادًا إلى مقاطع الفيديو الحالية ، غالبًا ما غيرت هذه المقاطع كلمات أو سلوكيات ترامب وبيدن.

تستمر الاباحية التي تم إنشاؤها من الذكاء الاصطناعى ، بما في ذلك العراة المزيفة المشاهير ، على Etsy كقوانين Deepfake “تأخر”

تُنظر امرأة في واشنطن العاصمة ، على مقطع فيديو تم التلاعب به في 24 يناير 2019 ، والذي يغير ما قاله الرئيس دونالد ترامب والرئيس السابق باراك أوباما ، مما يوضح كيف تطورت تقنية Deepfake. (روب ريفر /AFP عبر Getty Images)

غالبًا ما تتضمن الصور التي تم إنشاؤها بواسطة AI ، والمعروفة باسم “Deepfakes” ، تحرير مقاطع فيديو أو صور للأشخاص لجعلها تبدو وكأنها شخص آخر باستخدام الذكاء الاصطناعي. ضرب Deepfakes رادار الجمهور في عام 2017 بعد أن قام مستخدم Reddit بنشر المواد الإباحية ذات المظهر الواقعية للمشاهير إلى المنصة ، وفتح بوابات الفيضان أمام المستخدمين الذين يستخدمون الذكاء الاصطناعي لجعل الصور تبدو أكثر إقناعًا وتنتج عن مشاركتها على نطاق أوسع في السنوات التالية.

أخبر Cole Fox News Digital أن الناس هم “أسوأ عدوهم” فيما يتعلق بـ AI Deepfakes ، وقد يكون الحد من التعرض عبر الإنترنت هو أفضل طريقة لتجنب أن تصبح ضحية.

ومع ذلك ، في السياسة ووسائل الإعلام ، حيث “الرؤية هي المفتاح” ، ” شخصيات عامة كن هدفا رئيسيا لاستخدام الذكاء الاصطناعي الشرير. سيكون لدى ممثل التهديد المهتم بتكرار الرئيس ترامب الكثير من الأعلاف لإنشاء بيانات توأم رقمية ، وبيانات للزعيم الأمريكي في أماكن مختلفة.

يجب أن يتوقف الكونغرس عن أداة AI جديدة تستخدم لاستغلال الأطفال

وأضاف كول: “كلما زاد عدد الفيديو الذي يمكنني الحصول عليه ، وكيف يمشي ، وكيف يتحدث ، وكيف يتصرف ، يمكنني إطعام ذلك في نموذج الذكاء الاصطناعى ويمكنني أن أصنع عميقًا واقعية مثل الرئيس ترامب. وهذا هو المكان الذي تصبح فيه الأمور مخيفة حقًا”.

بالإضافة إلى تحمل المسؤولية الشخصية المتمثلة في توقيت البيانات الشخصية عبر الإنترنت ، قال كول إن التشريع قد يكون وسيلة أخرى للحد من الاستخدام غير السليم لمنظمة العفو الدولية.

Sens. Ted Cruz ، R-Texas ، و Amy Klobuchar ، D-Minn. خذ هذا الفعل ، مما يجعلها جريمة اتحادية للنشر ، أو التهديد بنشر الصور الحميمة غير العادية ، بما في ذلك “المزور الرقمي” المصنوع من الذكاء الاصطناعي. أقر مشروع القانون بالإجماع مجلس الشيوخ في وقت سابق من عام 2025 ، حيث قال كروز في أوائل مارس إنه يعتقد أنه سيتم إقراره من قبل مجلس النواب قبل أن يصبح القانون.

سافرت السيدة الأولى ميلانيا ترامب إلى كابيتول هيل يوم الاثنين للحصول على مائدة مستديرة لحشد دعم قانون Take It Down. (فوكس نيوز)

سيتطلب التشريع المقترح عقوبات تصل إلى ثلاث سنوات في السجن لمشاركتها صورًا حميمة غير عادية-أصيلة أو تولدها الذكاء الاصطناعى-والتي تضم القصر وسجن سجن لمدة عامين لتلك الصور التي تشمل البالغين. كما سيتطلب عقوبات تصل إلى سنتين ونصف في السجن بسبب جرائم التهديد التي تنطوي على القاصرين ، وسجن سنة ونصف في التهديدات التي تنطوي على البالغين.

سيتطلب مشروع القانون أيضًا شركات التواصل الاجتماعي مثل Snapchat و Tiktok و Instagram ومنصات مماثلة لوضع إجراءات لإزالة هذا المحتوى في غضون 48 ساعة من الإشعار من الضحية.

طلاب المدارس الثانوية ، حذر أولياء الأمور من تهديد الصور العارية DeepFake

تحدثت السيدة الأولى ميلانيا ترامب عن كابيتول هيل في وقت سابق من هذا الشهر لأول مرة منذ عودتها إلى البيت الأبيض ، وشاركت في مائدة مستديرة مع المشرعين و ضحايا الانتقام الاباحية و Deepfakes التي تولدها الذكاء الاصطناعي.

وقالت ميلانيا ترامب في 3 مارس: “أنا هنا معكم اليوم بهدف مشترك – حماية شبابنا من الأذى عبر الإنترنت. يؤثر الوجود على نطاق واسع للسلوك المسيء في المجال الرقمي على الحياة اليومية لأطفالنا وعائلاتنا ومجتمعاتنا”.

قال آندي لوكاسيو ، المؤسس المشارك والمهندس المعماري لـ ETERNOS.Life (يُعزى إلى بناء التوأم الرقمي الأول) ، إنه على الرغم من أن الفعل “خذ” هو “غير عقلاني” ، فمن غير الواقعي تمامًا افتراض أنه سيكون فعالًا. ويشير إلى أن الكثير من صناعة AI Deepfake يتم تقديمها من مواقع لا تخضع للقانون الأمريكي ، ومن المحتمل أن يؤثر التشريع على جزء ضئيل من المواقع الإلكترونية.

ينظر خبير الأمن القومي بول شارري إلى مقطع فيديو تم التلاعب به من قبل BuzzFeed مع المخرج Jordan Peele (R على الشاشة) باستخدام برامج وتطبيقات متاحة بسهولة لتغيير ما قاله الرئيس السابق باراك أوباما (L على الشاشة) ، مما يوضح كيف يمكن لتكنولوجيا Deepfake أن تخدع المشاهدين ، في مكاتبه في واشنطن العاصمة ، 25 يناير 2019. (روب ريفر/AFP عبر Getty Images)

كما أشار إلى أن تقنية استنساخ النص إلى الكلام يمكنها الآن إنشاء “مزيفة مثالية”. في حين أن معظم مقدمي الخدمات الرئيسيين لديهم ضوابط مهمة معمول بها لمنع إنشاء Fakes ، أخبر Locascio Fox News Digital أن بعض مقدمي الخدمات التجارية يتم خداعهم بسهولة.

علاوة على ذلك ، قال Locascio إن أي شخص لديه إمكانية الوصول إلى وحدة معالج رسومية قوية بشكل معقول (GPU) يمكنه بناء نماذج صوتية خاصة بها قادرة على دعم “الحيوانات المستنسخة”. تتطلب بعض الخدمات المتاحة أقل من 60 ثانية من الصوت لإنتاج هذا. يمكن بعد ذلك تحرير هذا المقطع باستخدام البرامج الأساسية لجعله أكثر إقناعًا.

السناتور الديمقراطي الذي يستهدفه ديبفيك منتحل الشخصي للمسؤول الأوكراني في تكبير المكالمة: التقارير

وقال لـ Fox News Digital: “لقد تحول النموذج المتعلق بواقعية الصوت والفيديو. الآن ، يجب على الجميع افتراض أن ما يرونه وسماعه مزيف حتى يثبت أنه أصيل”.

في حين أن هناك القليل من التوجيه الجنائي بشأن الذكاء الاصطناعى Deepfakes ، إلا أن المحامي داني كارون يقول إن الضحايا المزعومين لا يزالون قادرين على متابعة المطالبات المدنية والحصول على تعويضات عن المال.

في كتابه القادم “دليل محاميك المحبوب إلى العافية القانوني: القتال ضد عالم خارق في خداعك” ، يلاحظ كارون أن AI Deepfakes تندرج بموجب قانون التشهير التقليدي ، وتحديداً التشهير ، والذي يتضمن نشر بيان خاطئ عبر الأدب (الكتابة ، الصور ، الصوت ، والفيديو).

تعرض صورة التوضيح هذه التي التقطت في 30 يناير 2023 ، شاشة هاتف تعرض بيانًا من رئيس سياسة الأمان في Meta مع فيديو مزيف (ص) من الرئيس الأوكراني فولوديمير زيلنسكي يدعو جنوده إلى وضع أسلحتهم المعروضة في الخلفية ، في واشنطن العاصمة (Olivier douliery/AFP عبر Getty Images)

لإثبات التشهير ، يجب على المدعي تقديم أدلة وحجج حول عناصر محددة تلبي التعريف القانوني للتشهير وفقًا لقانون الولاية. العديد من الدول لديها معايير مماثلة لإثبات التشهير.

على سبيل المثال ، بموجب قانون فرجينيا ، كما كان الحال في ديب ضد هيرد محاكمة ، كان على فريق الممثل جوني ديب أن يفي بالعناصر التالية التي تشكل تشهيرًا:

  • أدلى المدعى عليه بالبيان أو نشره
  • كان البيان حول المدعي
  • كان للبيان آثار تشهيرية للمدعي
  • تم تصميم الآثار التشهيرية وتصميمها من قبل المدعى عليه
  • بسبب الظروف المحيطة بالنشر ، يمكن أن تحضن آثارًا تشهيرية لشخص رآها

“لا يمكنك أن تستنتج أن هناك شيئًا ما هو تشهير إلى أن تعرف ماهية القانون والتشهير. على سبيل المثال ، لم تكن أمبر هيرد ، ولهذا السبب لم تعتقد أنها كانت تفعل أي خطأ. تبين أنها كانت. لقد صعدت إلى الهراء ودفعت كل هذه الأموال. هذا هو التحليل الذي يتعين على الناس الذهاب إليه لتجنب المشاكل لأنها تتعلق بعمق أو قول الأشياء عبر الإنترنت.”

أخبر كارون فوكس نيوز ديجيتر أنه يمكن أيضًا توجيه مطالبات الذكاء الاصطناعي Deepfake من خلال غزو قانون الخصوصية ، وقانون التعدي ، والمطاردة المدنية ، والحق في الدعاية.

القاضي الفيدرالي يمنع قانون كاليفورنيا الذي يحظر الانتخابات العميقة

الصورة الواقعية المفرطة لبروس ويليس هي في الواقع عميقة أنشأتها شركة روسية تستخدم الشبكات العصبية الاصطناعية. (Deepcake عبر رويترز)

وقال: “إذا كان توم هانكس قد اختار صوته مؤخرًا للترويج لخطة طب الأسنان ، فهذا مثال على شركة تستغل اسم شخص ما وصورته وشبهه ، وفي هذه الحالة صوتًا ، لبيع منتج ، للترويج أو استخلاص الدعاية من شخص آخر. لا يمكنك فعل ذلك”.

لسوء الحظ ، يمكن أن تنشأ المشكلات إذا كان المدعي غير قادر على تحديد من قام بإنشاء DeepFake أو إذا كان مرتكب الجريمة موجودًا في بلد آخر. في هذا السياق ، قد يضطر شخص يتطلع إلى متابعة قضية التشهير إلى توظيف خبير ويب للعثور على مصدر المحتوى.

إذا كان الفرد أو الكيان دوليًا ، يصبح هذا قضية مكان. حتى إذا تم العثور على شخص ما ، يجب على المدعي تحديد إجابة هذه الأسئلة:

  • هل يمكن تقديم الفرد؟
  • هل ستساعد الأمة الأجنبية في تسهيل هذا؟
  • هل سيظهر المدعى عليه للمحاكمة؟
  • هل لدى المدعي احتمال معقول لجمع الأموال؟

إذا كانت الإجابة على بعض هذه الأسئلة هي لا ، فقد لا يكون استثمار الوقت والموارد المالية المطلوبة لمتابعة هذا المطالبة يستحق ذلك.

“حقوقنا فعالة فقط مثل قدرتنا على تطبيقها ، مثل براءة الاختراع. يقول الناس ،” لدي براءة اختراع ، لذلك أنا محمي “. لا ، أنت لست كذلك.

انقر هنا للحصول على تطبيق Fox News

ساهمت فوكس نيوز بروك سيندمان وإيما كولتون في هذا التقرير.

Source Link