跳到内容 跳到导航

Research & Ideas

站内搜索

AI可以检测看似完美的深假视频

但CQ9电子游戏教授说,猫捉老鼠的游戏远远没有结束。

six deepfake images of a woman's mouth in different shapes as she speaks

人工智能工具,发现假货的80%时指出,当“视素”或口腔结构不匹配“音素”或拼音的声音。 |通过agrawala实验室图像

一年前, 马尼什·阿格雷瓦拉 CQ9游戏帮助开发 一个唇形同步技术 ,允许视频编辑到几乎无法检测到修改发言者的话。

该工具可以无缝地插入的话,一个人从来不说,甚至中期句子,或消除的话,她说的话。肉眼,甚至许多计算机为基础的系统,没有什么会显得不妥。

该工具由它来修复故障更容易没有重新拍摄整个场景,以及裁缝电视节目或在不同的地方不同的观众的电影。

但该技术也可用于为歪曲事实的明确目的产生难以现货深假视频创造了令人担忧的新的机会。一种 最近共和视频,例如,使用较粗略的技术,医生与副总统拜登的专访。

今年夏天,agrawala和他的同事在CQ9电子游戏和加州大学伯克利分校 推出了一种基于人工智能的方法 检测唇音同步技术。新方案通过识别声音的人让他们的嘴巴的形状之间的不匹配分斑点准确超过80%的假货。

但agrawala,CQ9电子游戏的董事 布朗学院媒体创新 和计算机科学的福里斯特·巴斯基特教授,谁也隶属于 以人为本的人工智能CQ9电子游戏警告说,没有长期的技术解决方案,深假货。

真正的任务,他说,是为了提高媒介素养,以保持人们更负责任,如果他们故意制造和传播误传。

“随着技术的操作视频越来越好,技术能力,检测操作会得到越来越糟糕,”他说。 “我们需要把重点放在非技术性的方法来识别和减少虚假和误导。”

拜登的操作视频,例如,不是由技术,而是因为谁曾采访认识到了自己的问题已经改变了副总裁的人暴露出来。

有多深假货工作

有操纵视频正当理由。任何人产生一个虚构的电视节目,电影或商业,例如,可以通过使用数字工具来清理错误或者调整脚本节省时间和金钱。

当这些工具是有意用来散布虚假信息,问题就来了。和许多的技术是不可见的普通观众。

许多深假视频依靠面对面的交换,从字面上超级强加一个人的脸了别人的视频。但在面对面的交换工具可以有说服力的,它们是相对粗糙,通常会离开的数字或视觉假象,计算机可以检测到。

唇同步技术,在另一方面,是更微妙和更硬由此察觉。他们操纵的图像中很小的一部分,然后合成嘴唇动作,如果他或她说的话特别的人的嘴还真会移动的方式密切配合。一个人的图像和声音的足够多的样本,说agrawala,深假的生产者可以得到一个人来“说”什么。

察觉假货

担心这种技术的非道德的用途,agrawala联手与检测工具 OHAD炒在CQ9电子游戏从事博士后研究工作; 哈尼·法德在信息加州大学伯克利分校教授的学校;和 什鲁蒂·阿加瓦尔,博士生伯克利分校。

其基本思想是寻找之间的不一致“视素”,或嘴的形状,以及“音素”的语音声音。具体而言,研究人员制作时的“B”,“M的声音,”或“P”,因为它几乎是不可能让这些声音不坚决关闭嘴唇看着这个人的嘴。

研究人员首先用纯手工技术,其中人类观察者研究视频的帧实验。运作良好,但为劳动密集型和耗时的做法。

研究人员然后测试人工智能基于神经网络,这将是更快,训练它的前总统奥巴马的视频后,也作出了同样的分析。神经网络发现以及涉及奥巴马本人唇同步的90%以上,虽然精度在发现他们的其他发言者下降到81%左右。

一个真正的真理测试

研究人员说,他们的做法是仅仅是一个“猫捉老鼠”的游戏的一部分。作为深假冒技术的改进,他们会留下更少的线索。

从长远来看,agrawala说,真正的挑战是减少约比约战斗造谣战斗深假视频。事实上,他指出,最造谣来自扭曲的东西,人们实际上得说的意思。

“检测视频是否已经被操纵为检测所述视频中是否包含错误的信息或假不同,而后者是多,更难,说:” agrawala。

“减少造谣,我们需要提高媒介素养,发展问责制度,”他说。 “这可能意味着对故意生产假的法律后果打破他们,以及机制来修复由此造成的危害。”