Post: #1
Title: ما هو التزييف العميق Deepfake الذكاءالصناعي كما أسماه مبارك الفاضل؟
Author: Mohamed Omer
Date: 01-12-2024, 07:03 PM
06:03 PM January, 12 2024 سودانيز اون لاين Mohamed Omer- مكتبتى رابط مختصر
ما هو التزييف العميق Deepfake الذكاءالصناعي كما أسماه مبارك الفاضل؟ – وكيف يمكنك اكتشافه؟
أصبحت مقاطع الفيديو المزيفة التي ينشئها الذكاء الاصطناعي أكثر شيوعًا (وإقناعًا). ولهذا السبب يجب أن نقلق
ما هو التزييف العميق Deepfake؟
هل شاهدت باراك أوباما يصف دونالد ترامب بأنه "أحمق تمامًا"، أو شاهدت مارك زوكربيرج يتفاخر "بالسيطرة الكاملة على بيانات المليارات من الأشخاص المسروقة"، أو شاهدت اعتذار جون سنو المؤثر عن النهاية الكئيبة لمسلسل "لعبة العروش"؟ إذا كانت إجابتك نعم، فقد رأيت تزييفًا عميقًا. اختراع القرن الحادي والعشرين، يستخدم التزييف العميق شكلاً من أشكال الذكاء الاصطناعي يسمى التعلم العميق لإنشاء صور لأحداث مزيفة، ومن هنا جاء اسم التزييف العميق. هل ترغب في وضع كلمات جديدة على لسان أحد السياسيين، أو تمثيل فيلمك المفضل، أو الرقص مثل المحترفين؟ إذًا، حان الوقت لعمل تزييف عميق.
ما فائدة التزييف العميق؟
العديد منها إباحية. عثرت شركة الذكاء الاصطناعي Deeptrace على 15000 مقطع فيديو مزيف عبر الإنترنت في سبتمبر 2019، وهو ما يقرب من الضعف خلال تسعة أشهر. كانت نسبة مذهلة بلغت 96% منها عبارة عن مواد إباحية، و99% من تلك الوجوه تم رسمها من المشاهير الإناث إلى نجوم الأفلام الإباحية. نظرًا لأن التقنيات الجديدة تسمح للأشخاص غير المهرة بعمل تزييف عميق باستخدام عدد قليل من الصور، فمن المرجح أن تنتشر مقاطع الفيديو المزيفة إلى ما هو أبعد من عالم المشاهير لتغذية الإباحية الانتقامية. وكما تقول دانييل سيترون، أستاذة القانون في جامعة بوسطن: "يتم استخدام تكنولوجيا التزييف العميق كسلاح ضد النساء". ما وراء الإباحية يقدم التزييف العميق الكثير من المحاكاة الساخرة والسخرية والأذى.
هل الأمر يتعلق بالفيديوهات فقط؟
لا، يمكن لتقنية Deepfake إنشاء صور مقنعة ولكنها خيالية تمامًا من الصفر. من المحتمل أن الصحفية غير الموجودة في بلومبرج، "مايسي كينسلي"، والتي كان لها ملف شخصي على LinkedIn وTwitter، كانت مزيفة بعمق. وادعى مزيف آخر على LinkedIn، يدعى "كاتي جونز"، أنه يعمل في مركز الدراسات الاستراتيجية والدولية، ولكن يُعتقد أنه مزيف عميق تم إنشاؤه لعملية تجسس أجنبية.
يمكن أيضًا تزييف الصوت بعمق لإنشاء "أغلفة صوتية" أو "استنساخ صوتي" لشخصيات عامة. في شهر مارس الماضي، قام رئيس إحدى الشركات التابعة لشركة طاقة ألمانية في المملكة المتحدة بدفع ما يقرب من 200 ألف جنيه إسترليني إلى حساب مصرفي مجري بعد أن اتصل به محتال قلد صوت الرئيس التنفيذي الألماني. وتعتقد شركات التأمين التابعة للشركة أن الصوت كان مزيفًا للغاية، لكن الأدلة غير واضحة. وبحسب ما ورد استخدمت عمليات احتيال مماثلة رسائل WhatsApp الصوتية المسجلة.
كيف يتم صنعها؟
لقد دفع الباحثون الجامعيون واستوديوهات المؤثرات الخاصة منذ فترة طويلة حدود ما هو ممكن من خلال معالجة الفيديو والصور. لكن التزييف العميق نفسه ولد في عام 2017 عندما نشر مستخدم Reddit الذي يحمل نفس الاسم مقاطع إباحية تم التلاعب بها على الموقع. وقامت مقاطع الفيديو بتبادل وجوه المشاهير – غال جادوت، وتايلور سويفت، وسكارليت جوهانسون وآخرين – مع فناني الأفلام الإباحية.
يستغرق الأمر بضع خطوات لإنشاء فيديو لتبديل الوجه. أولاً، تقوم بتشغيل آلاف اللقطات لوجه الشخصين من خلال خوارزمية ذكاء اصطناعي تسمى المشفر. يجد المشفر أوجه التشابه بين الوجهين ويتعلمها، ويقللها إلى السمات المشتركة بينهما، ويضغط الصور في هذه العملية. يتم بعد ذلك تعليم خوارزمية ذكاء اصطناعي ثانية تسمى وحدة فك التشفير لاستعادة الوجوه من الصور المضغوطة. نظرًا لاختلاف الوجوه، يمكنك تدريب وحدة فك ترميز واحدة لاستعادة وجه الشخص الأول، ووحدة فك ترميز أخرى لاستعادة وجه الشخص الثاني. لإجراء تبديل الوجه، ما عليك سوى إدخال الصور المشفرة في وحدة فك التشفير "الخاطئة". على سبيل المثال، يتم إدخال صورة مضغوطة لوجه الشخص "أ" في وحدة فك التشفير المدربة على الشخص "ب". ثم يقوم جهاز فك التشفير بإعادة بناء وجه الشخص "ب" بتعابير واتجاه الوجه "أ". للحصول على فيديو مقنع، يجب القيام بذلك على كل إطار.
هناك طريقة أخرى لإنشاء التزييف العميق تستخدم ما يسمى بشبكة الخصومة التوليدية، أو Gan. يقوم Gan بوضع خوارزميتين للذكاء الاصطناعي في مواجهة بعضهما البعض. الخوارزمية الأولى، المعروفة باسم المولد، تقوم بتغذية الضوضاء العشوائية وتحويلها إلى صورة. تتم بعد ذلك إضافة هذه الصورة الاصطناعية إلى مجموعة من الصور الحقيقية - لمشاهير، على سبيل المثال - والتي يتم تغذيتها في الخوارزمية الثانية، المعروفة باسم التمييز. في البداية، لن تبدو الصور الاصطناعية مثل الوجوه. لكن كرر العملية مرات لا تحصى، مع الحصول على ردود فعل على الأداء، وسيتحسن كل من أداة التمييز والمولد. ونظرًا للدورات والملاحظات الكافية، سيبدأ المولد في إنتاج وجوه واقعية تمامًا لمشاهير غير موجودين تمامًا.
من الذي يصنع التزييف العميق؟
الجميع من الباحثين الأكاديميين والصناعيين إلى المتحمسين للهواة واستوديوهات المؤثرات البصرية ومنتجي المواد الإباحية. وربما تنخرط الحكومات في التكنولوجيا أيضًا، كجزء من استراتيجياتها عبر الإنترنت لتشويه سمعة الجماعات المتطرفة وتعطيلها، أو إجراء اتصالات مع أفراد مستهدفين، على سبيل المثال.
ما هي التكنولوجيا التي تحتاجها؟
من الصعب عمل تزييف عميق جيد على جهاز كمبيوتر عادي. يتم إنشاء معظمها على أجهزة كمبيوتر مكتبية متطورة مزودة ببطاقات رسومات قوية أو الأفضل من ذلك باستخدام قوة الحوسبة في السحابة. وهذا يقلل من وقت المعالجة من أيام وأسابيع إلى ساعات. لكن الأمر يتطلب خبرة أيضًا، لأسباب ليس أقلها تحسين مقاطع الفيديو المكتملة لتقليل الوميض والعيوب البصرية الأخرى. ومع ذلك، تتوفر الآن الكثير من الأدوات لمساعدة الأشخاص على صنع التزييف العميق. ستقوم العديد من الشركات بتصنيعها لك وإجراء جميع عمليات المعالجة في السحابة. يوجد أيضًا تطبيق للهاتف المحمول، Zao، يتيح للمستخدمين إضافة وجوههم إلى قائمة شخصيات التلفزيون والأفلام التي تدرب عليها النظام.
كيف تكتشف التزييف العميق؟
يصبح الأمر أكثر صعوبة مع تحسن التكنولوجيا. وفي عام 2018، اكتشف باحثون أمريكيون أن الوجوه المزيفة بعمق لا ترمش بشكل طبيعي. ليس من المستغرب أن معظم الصور تظهر أشخاصًا وأعينهم مفتوحة، وبالتالي فإن الخوارزميات لا تتعلم أبدًا كيفية الرمش. في البداية، بدا الأمر وكأنه حل سحري لمشكلة الكشف. ولكن ما إن تم نشر البحث، حتى ظهرت التزييفات العميقة بالوميض. هذه هي طبيعة اللعبة: بمجرد الكشف عن نقطة الضعف، يتم إصلاحها.
من السهل اكتشاف الصور المزيفة ذات الجودة الرديئة. قد يكون تزامن الشفاه سيئًا، أو قد يكون لون البشرة غير مكتمل. يمكن أن يكون هناك وميض حول حواف الوجوه المنقولة. والتفاصيل الدقيقة، مثل الشعر، يصعب بشكل خاص على التزييف العميق عرضها بشكل جيد، خاصة عندما تكون الخيوط مرئية على الأطراف. يمكن أيضًا أن تكون المجوهرات والأسنان التي تم تقديمها بشكل سيئ بمثابة هدية، كما يمكن أن تكون تأثيرات الإضاءة الغريبة، مثل الإضاءة غير المتناسقة والانعكاسات على القزحية.
تقوم الحكومات والجامعات وشركات التكنولوجيا بتمويل الأبحاث للكشف عن التزييف العميق. في الشهر الماضي، انطلق أول تحدي لكشف التزييف العميق، بدعم من مايكروسوفت وفيسبوك وأمازون. وسيشمل فرق بحث من جميع أنحاء العالم تتنافس على التفوق في لعبة الكشف عن التزييف العميق.
حظر فيسبوك الأسبوع الماضي مقاطع الفيديو المزيفة التي من المحتمل أن تضلل المشاهدين ويدفعهم إلى الاعتقاد بأن شخصًا ما "قال كلمات لم يقولها بالفعل"، في الفترة التي سبقت الانتخابات الأمريكية لعام 2020. ومع ذلك، فإن السياسة تغطي فقط المعلومات الخاطئة التي يتم إنتاجها باستخدام الذكاء الاصطناعي، مما يعني أن "التزييف الضحل" (انظر أدناه) لا يزال مسموحًا به على المنصة.
هل ستحدث التزييفات العميقة الفوضى؟
يمكننا أن نتوقع المزيد من التزييف العميق الذي يقوم بالمضايقة والترهيب والإهانة والتقويض وزعزعة الاستقرار. لكن هل ستثير تقنية التزييف العميق حوادث دولية كبرى؟ وهنا الوضع أقل وضوحا. إن التزييف العميق لزعيم عالمي يضغط على الزر الأحمر الكبير لا ينبغي أن يسبب كارثة. كما أن صور الأقمار الصناعية العميقة للقوات المحتشدة على الحدود لن تسبب الكثير من المتاعب: فمعظم الدول لديها أنظمة تصوير أمنية موثوقة خاصة بها.
ومع ذلك، لا يزال هناك مجال واسع لإحداث الأذى. في العام الماضي، انهارت أسهم شركة تيسلا عندما قام إيلون موسك بتدخين سيجارة من الحشيش في عرض مباشر على شبكة الإنترنت. في ديسمبر/كانون الأول، عاد دونالد ترامب إلى منزله في وقت مبكر من اجتماع لحلف شمال الأطلسي (الناتو) عندما ظهرت لقطات حقيقية لزعماء العالم الآخرين وهم يسخرون منه على ما يبدو. هل ستؤدي عمليات التزييف العميق المعقولة إلى تغيير أسعار الأسهم، والتأثير على الناخبين، وإثارة التوترات الدينية؟ يبدو أن هذا رهان آمن.
هل سيقوضون الثقة؟
إن التأثير الأكثر خبثاً للتزييف العميق، إلى جانب الوسائط الاصطناعية الأخرى والأخبار المزيفة، هو خلق مجتمع انعدام الثقة، حيث لا يستطيع الناس، أو لم يعودوا يهتمون، بالتمييز بين الحقيقة والباطل. وعندما تتآكل الثقة، يصبح من الأسهل إثارة الشكوك حول أحداث معينة.
في العام الماضي، رفض وزير الاتصالات الكاميروني مقطع الفيديو الذي تعتقد منظمة العفو الدولية أنه يظهر جنودًا كاميرونيين يعدمون مدنيين، ووصفه بأنه خبر كاذب.
دونالد ترامب، الذي اعترف بأنه كان يتفاخر بلمس الأعضاء التناسلية للنساء في محادثة مسجلة، أشار لاحقًا إلى أن الشريط لم يكن حقيقيًا. في مقابلة الأمير أندرو مع بي بي سي مع إميلي ميتليس، شكك الأمير في صحة الصورة التي التقطت مع فيرجينيا جيوفري، وهي الصورة التي يصر محاميها على أنها حقيقية ولم يتم تغييرها.
يقول البروفيسور ليليان إدواردز، الخبير البارز في قانون الإنترنت في جامعة نيوكاسل: "قد لا تكمن المشكلة في الواقع المزيف بقدر ما تكمن في حقيقة أن الواقع الحقيقي يصبح قابلاً للإنكار بشكل معقول".
ومع ازدياد سهولة الوصول إلى التكنولوجيا، قد تسبب تقنية التزييف العميق مشاكل للمحاكم، خاصة في معارك حضانة الأطفال ومحاكم العمل، حيث يمكن إدخال الأحداث المزيفة كدليل. ولكنها تشكل أيضًا خطرًا أمنيًا شخصيًا: يمكن للتزييف العميق أن يحاكي البيانات البيومترية، ويمكن أن يخدع الأنظمة التي تعتمد على التعرف على الوجه أو الصوت أو المشية. إن احتمال حدوث عمليات احتيال واضح. حاول الاتصال بشخص ما فجأة واطلب منه أن يرسل لك أموالاً ومن غير المرجح أن يقوم بتحويل الأموال إلى حساب مصرفي غير معروف. ولكن ماذا لو قامت "والدتك" أو "أختك" بإجراء مكالمة فيديو على تطبيق WhatsApp وقدمت نفس الطلب؟
ما هو الحل؟
ومن المفارقات أن الذكاء الاصطناعي قد يكون هو الحل. يساعد الذكاء الاصطناعي بالفعل في اكتشاف مقاطع الفيديو المزيفة، لكن العديد من أنظمة الكشف الحالية تعاني من نقطة ضعف خطيرة: فهي تعمل بشكل أفضل مع المشاهير، لأنها قادرة على التدرب على ساعات من اللقطات المتاحة مجانًا. تعمل شركات التكنولوجيا الآن على أنظمة كشف تهدف إلى الإبلاغ عن المنتجات المزيفة عند ظهورها. وتركز استراتيجية أخرى على مصدر وسائل الإعلام. العلامات المائية الرقمية ليست مضمونة، ولكن نظام blockchain - عبر الإنترنت هو وسيلة لتتبع المعاملات أو البيانات على العديد من أجهزة الكمبيوتر التي لا يتحكم فيها شخص واحد أو مجموعة. إنه بمثابة دفتر ملاحظات مشترك يمكن للجميع رؤيته وتحديثه، ولكن لا يمكن لأحد مسح ما كتبه الآخرون أو تغييره. يتم استخدامه لأشياء مثل الأموال الرقمية أو العقود التي تحتاج إلى أن تكون آمنة وجديرة بالثقة. --- يمكن أن تحتوي على سجل مقاوم للتلاعب بمقاطع الفيديو والصور والصوت بحيث يمكن دائمًا التحقق من أصولها وأي تلاعبات.
هل التزييف العميق ضار دائمًا؟
مُطْلَقاً. كثير منها مسلية وبعضها مفيد. يمكن لتقنيات الاستنساخ الصوتي العميقة أن تستعيد أصوات الأشخاص عندما يفقدونها بسبب المرض. يمكن لمقاطع الفيديو Deepfake أن تبث الحيوية في المعارض والمتاحف. وفي فلوريدا، يحتوي متحف دالي على صورة مزيفة للرسام السريالي الذي يقدم فنه ويلتقط صور سيلفي مع الزوار. بالنسبة لصناعة الترفيه، يمكن استخدام التكنولوجيا لتحسين دبلجة الأفلام الأجنبية، والأكثر إثارة للجدل، إحياء الممثلين الموتى. على سبيل المثال، من المقرر أن يلعب الراحل جيمس دين دور البطولة في فيلم Finding Jack، وهو فيلم عن حرب فيتنام.
ماذا عن التزييف الضحل؟
المقاطع الضحلة هي مقاطع فيديو إما يتم تقديمها خارج السياق أو يتم التلاعب بها باستخدام أدوات تحرير بسيطة. إنها خام ولكنها مؤثرة بلا شك. وصل مقطع فيديو مزيف سطحي أدى إلى إبطاء خطاب نانسي بيلوسي وجعل صوت رئيس مجلس النواب الأمريكي غير واضح إلى ملايين الأشخاص على وسائل التواصل الاجتماعي.
وفي حادثة أخرى، تم منع جيم أكوستا، مراسل شبكة سي إن إن، مؤقتًا من حضور المؤتمرات الصحفية في البيت الأبيض خلال تبادل ساخن مع الرئيس. وبدا أن مقطع فيديو مزيفًا تم نشره بعد ذلك يظهره وهو يتواصل مع أحد المتدربين الذي حاول إزالة الميكروفون منه. وتبين لاحقًا أنه تم تسريع الفيديو في اللحظة الحاسمة، مما جعل هذه الخطوة تبدو عدوانية. تمت إعادة تصريح أكوستا الصحفي لاحقًا.
استخدم حزب المحافظين في المملكة المتحدة تكتيكات سطحية زائفة مماثلة. في الفترة التي سبقت الانتخابات الأخيرة، قام المحافظون بتزوير مقابلة تلفزيونية مع النائب العمالي كير ستارمر لجعل الأمر يبدو وكأنه غير قادر على الإجابة على سؤال حول موقف الحزب من خروج بريطانيا من الاتحاد الأوروبي. مع التزييف العميق، من المرجح أن يزداد ارتكاب الأذى. وكما يقول هنري أجدر، رئيس قسم استخبارات التهديدات في شركة Deeptrace: "أصبح العالم أكثر اصطناعية على نحو متزايد. هذه التكنولوجيا لن تختفي."
http://tinyurl.com/3hzm8jdwhttp://tinyurl.com/3hzm8jdw
|
|