للإشتراك في خدمة الوظائف
أرسل كلمة “اشتراك” عبر الواتس أب للرقم 0537493197
أخبارتقنية

“ديب فيك”.. تقنية مخيفة قادرة على تغيير الأوجه والأصوات

صورةبعد خداع “فوتوشوب”.. برزت تقنية (DeepFake) أو الزيف العميق، التي يمكن أن تورط الكثيرين، بعد أن أثار مقطع فيديو خادع لبطل مسلسل صراع العروش، “جون سنو” اعتذر فيه للمشاهدين عن أحداث الموسم الأخير، قلقاً كبيرا؛ لأنهم صدقوه.

وتُماثل تقنيات “ديب فيك” وبرنامجها “Fake App” برنامج فوتوشوب الشهير، ولكن بدلاً من التعامل مع صور ثابتة، يتعامل مع فيديوهات، بل هنا لا يتغير الوجه فقط بل التعبيرات والأصوات أيضًا، ما جعل إنشاء فيديو مزيف يظهر فيه شخص ما ليتحدث بوجه وصوت آخر يبدو حقيقياً جداً.

ويعتبر الذكاء الاصطناعي من التقنيات التي أحدثت جدلاً في أكثر من مناسبة، بسبب استغلالها من قبل مختصين فيها لخداع الآخرين، بسبب تغيير ملامح أو صوت أو تعبيرات الآخرين، وكان الخوف الأكبر على المسار السياسي، في ظل المنافسات المحتدمة بين شخصيات نافذة هنا أو هناك.

وبعد تجربتها في المختبرات لعدة سنوات، أتيحت تقنية “ديب فيك” للهواة وساعد في رواجها تطبيق Fake App الذي طوره مبرمج مجهول، مستخدماً مئات الصور الثابتة الإطار المأخوذة من أحد الفيديوهات، ليقوم بتحليلها ودراسة تعابير الشخص وملامحه، وينتجها على هيئة فيديو من جديد.

وتحول جمهور المسلسلات العالمية إلى التعبير عن سخطهم أو إعجابهم بها، باستبدال حوارات بعض المشاهد ووضع الكلمات والتعبيرات والألفاظ التي يريدون سماعها، ما يشكل في المستقبل نقطة تحول في توجهات صناع الدراما.

وَوَقَعَ عدد من الشخصيات المشهورة ضحية Deepfake منذ رواجها قبل قرابة العام، منهم ميشيل أوباما وبوتين ودونالد ترامب وآخرهم مارك زوكربيرج، ما أثار مخاوف بشأن قانونية المنشورات والفيديوهات التي يتم فيها انتحال الشخصية.

وطالت المخاوف سياسيين يتخوفون من استخدام التقنية خلال الانتخابات ما قد يؤثر سلباً عليها، حتى إن الأمر كان محور نقاش جلسة استماع لجنة الاستخبارات بمجلس النواب الأمريكي، حول المخاطر الأمنية لـ “ديب فيك”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى