جرى مؤخرًا تطوير تقنية تسمى "ديبفيك"، وهي تقنية تقوم على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب، من خِلال تعلّم الذكاء الاصطناعي. وتقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّة ما من أجل إنتاج مقطع فيديو جديد باستخدام تقنية التعلم الآلي، قد يبدو للوهلة الأولى أنّه حقيقي، لكنّه في واقع الأمر مُزيّف.
في المقابل، تستطيع التقنية الجديدة تحويل الفيديو إلى صور ورسوم، وذلك ما أثار قلقاً لدى العديد من الباحثين الذين بحثوا في الآليات الجديدة واحتمالية أبعادها، أبرزها تقنية "ديبفيك" وتأثيرها في طرق التواصل الحديثة.
وشرع الباحثون بالادّعاء أننا نثق بالأشرطة المصوّرة وتسجيل الصوت، لأن من الصعب تزييف هذه التسجيلات، كما أنَّ تزييفه سيستغرق وقتًا، خلافًا لصورة عادية أو رسمة أو التصريح الذي يتم تزييفه عادة بواسطة تطبيق الفوتوشوب. ومع إصدار تقنية "ديبفيك"، ومع تكلفتها الرخيصة، سيكون من السهل الحصول عليها. كما أنّ الأشرطة المصورة ستتضمَّن محتوى أقل، وفقاً لأستاذ الفلسفة في جامعة نورثايسترن، دون فاليس، الذي قال "إنَّ الأشرطة التصويرية والصور الفوتوغرافية ستصبح أقل برهانية".
وأضاف أنَّ الأخطار اللاحقة في تبنّي هذه التقنية ستكون على ثلاثة مستويات: أولًا، في الحملات الانتخابية. ثانيًا، عالم الإجرام. وثالثًا، في الأجهزة القضائية.
وأشار إلى أنَّه في الحملات الانتخابية، يستطيع أيّ شخص أن يتبنى مقولات عنصرية أو تشويه صورة المرشحين المنتخبين بإضافة فحوى فاضح مثلاً. أما في مجال الإجرام، فإنه يؤكّد أن المجرمين بمساعدة هذه التقنية يستطيعون أن يلفقوا تسجيلاً صوتياً لأحد الباحثين الفيدراليين. وبمساعدة هذا التسجيل، يستطيع المجرم الحصول على ما يريده من مال مثلًا أو موافقة فيدرالية لاقتحام بيت. أما في مجال الجهاز القضائي، فيستطيع المتّهم تلفيق البراهين بمساعدة هذه التقنية، وذلك سيصعّب المهمة على جهاز القضاء في إصدار الأحكام العادلة.
ويضيف فاليس: "بسبب هذه التقنية الجديدة، سوف يتم اعتمادنا على المعلومات بناءً على ثقتنا بالشخص المرسل فقط، وهو ما يشكل خطراً أكبر بسبب قلة المصادر المعلوماتية".