تقنية خطيرة لـ”تزييف عميق” للأصوات!

تكتب نهار 13 أكتوبر، 2021 مع 07:02 تكنولوجيا تابعونا على Scoop

وفقًا لتقرير جديد، يمكن لبرامج تقنية Deep Fake، التي أصبحت متوفرة بسهولة، تقليد صوت شخص ما بدرجة من الدقة يمكن أن تخدع كلا من البشر والأجهزة الذكية.

وفقًا لما نشرته “ديلي ميل” البريطانية، قام الباحثون في مختبر الأمن والخوارزميات والشبكات والبيانات SAND بجامعة شيكاغو باختبار برامج التوليف الصوتي العميق المتاحة على موقع مجتمع المطورين مفتوح المصدر Github لمعرفة ما إذا كان بإمكانهم تخطي برامج الحماية التي تعتمد على نظام أمان بخاصية التعرف على الصوت في تطبيقات Amazon’s Alexa وWeChat وMicrosoft Azure.

خداع الآذان البشرية

واكتشف الباحثون أن أحد البرامج، والذي يُعرف باسم SV2TTS، يحتاج فقط إلى خمس ثوانٍ لإنتاج مقطع صوتي يتميز بتقليد مقبول لأي شخص.

تم وصف SV2TTS بأنه “صندوق أدوات استنساخ الصوت في الوقت الفعلي”، ولاحظ الباحثون أنه مقاطع الصوت التي تم تقليدها باستخدام البرنامج تمكنت من خداع Microsoft Azure بنسبة وصلت إلى حوالي 30% ولكنه حصل على نسب أفضل ما في كل من WeChat وAmazon Alexa تقريبًا ثلثي الوقت، أو 63% من المرات.

كما أوضح الباحثون أن المقاطع الصوتية، التي تم تقليدها باستخدام تقنية “ديب فيك”، استطاعت خداع آذان البشر، إذ لم يستطع 200 متطوع من التمييز بين الأصوات الحقيقية وبين ما تم تزييفه ببرامج “ديب فيك” بنسبة 50%، مع ملاحظة أن التزييف العميق كان أكثر نجاحًا في تقليد أصوات النساء وأصوات ناطقي اللغة الإنجليزية من أصحاب الأصول الأجنبية.

سلاح في الأيدي الخطأ

قالت إميلي وينغر، باحثة في مختبر SAND، إنها وفريقها البحثي اكتشفوا أن “كلاً من البشر والآلات يمكن أن ينخدع بشكل موثوق بالمقاطع المُقلدة ببرامج ذكاء اصطناعي وأن الدفاعات الحالية ضد [هذه النوعية من التزييف العميق] قاصرة”، محذرة من أن توافر “مثل هذه الأدوات في الأيدي الخطأ ستتيح مجموعة من الهجمات القوية ضد كل من البشر وأنظمة البرامج والأجهزة”.

يسمح WeChat للمستخدمين بتسجيل الدخول بأصواتهم، ومن بين الميزات الأخرى، تسمح Alexa للمستخدمين باستخدام الأوامر الصوتية لإجراء عمليات شراء وسداد إلكتروني عبر التطبيقات لأطراف ثالثة مثل أوبر.

اختبرت فينغر وزملاؤها أيضًا برنامجًا آخر لتركيب الصوت، وهو AutoVC ، والذي يتطلب خمس دقائق من الكلام لإعادة إنشاء صوت مزيف للشخص المستهدف، ولكن لم يتمكن برنامج AutoVC من خداع Microsoft Azure إلا بنسبة حوالي 15%، لذلك رفض الباحثون اختباره ضد WeChat وAlexa.

أول حادث نصب في العالم

اهتم فريق الباحثين بموضوع التزييف العميق للصوت أو “ديب فيك” بعد أن قرأوا عن محتالين قاموا باستخدام برنامج لتقليد الصوت لخداع مدير تنفيذي لإحدى شركات الطاقة البريطانية حيث طلبوا منه أن يرسل إليهم أكثر من 240 ألف دولار من خلال انتحال شخصية رئيسه الألماني الجنسية وتزييف صوته.

وبحسب شركة يولر هيرميس للتأمين التابعة لها شركة الضحية، “كان البرنامج [تزييف الصوت] قادرًا على تقليد الصوت والنغمة واللهجة”. ولم يتم التعرف على مرتكبي عملية الاحتيال، التي وصفت بأنها أول سرقة باستخدام تقنية “فيك ديب” في العالم، ولم يتم استرداد الأموال مطلقًا.

سرقة ملايين الدولارات

يقول باحثون في شركة الأمن السيبراني Symantec إنهم اكتشفوا ثلاث حالات مماثلة لمديرين تنفيذيين تلقوا مكالمات بأصوات مزيفة لرؤسائهم تطلب منهم إرسال أموال إلى حسابات خاصة، لكن تبين إنها اتصالات من لصوص يستخدمون برامج الذكاء الاصطناعي، ووصلت خسائر إحدى الشركات الثلاث إلى عدة ملايين من الدولارات.

تعمل تقنية تركيب الصوت عن طريق أخذ صوت الشخص وتقسيمه إلى مقاطع لفظية أو أصوات قصيرة قبل إعادة ترتيبها لإنشاء جمل جديدة. ويمكن للمحتال أن يزعم إذا ظهرت بعض مواطن الخلل بأنه يقود سيارة أو في بيئة مزدحمة أو شيء من هذا القبيل.

أصل مصطلح “تزييف عميق”

كان إيان غودفيلو، مدير التعلم الآلي في مجموعة المشاريع الخاصة بشركة أبل، هو أول من قام بصياغة مصطلح “ديب فيك” Deep Fake في عام 2014، كمقدمة لـ “التعلم العميق” و “التزييف العميق”.

يشير المصطلح إلى ملف فيديو أو صوت أو صورة تبدو أصلية ولكنها في الحقيقة نتيجة التلاعب بالذكاء الاصطناعي. ومع وجود دراسات كافية لإدخال لقطات فيديو أو ملفات صوت أو صور للشخص المستهدف، فإنه يمكن لنظام “ديب فيك” تطوير خوارزمية لتقليد سلوكه وحركاته و/أو أنماط كلامه.

مقاطع مثيرة للجدل

مؤخرًا، أثار فيلم وثائقي جديد عن أنتوني بوردان جدلاً عندما اعترف المخرج أنه استخدم الذكاء الاصطناعي وخوارزميات الكمبيوتر لإعادة إنشاء صوت شخصية بوردان بشكل مصطنع، في أعقاب حادث انتحاره داخل أحد فنادق باريس عام 2018.

وفي مارس، ظهر مقطع فيديو مزيف عميق شوهد على تطبيق TikTok أكثر من 11 مليون مرة يظهر فيه الممثل الشهير توم كروز في قميص هاواي وهو يقوم بخدع سحرية.

وفي منشور بمدونة فيسبوك، أعلنت المنصة العالمية للتواصل أنه سيتم إزالة الوسائط المضللة، التي تم تحريرها بطرق “لا تظهر للشخص العادي ومن المحتمل أن تضلل شخصًا ما ليعتقد أن موضوع الفيديو أو الكلمات التي ذكرها أشخاص” لم تصدر عنهم في الواقع”.