摘要:1月6日消息:近年来,越来越多的视频是由人工智能工具(deepfakes)伪造的,效果非常逼真,例如视频AI改变了面孔,或使用他人的面孔或声音来创建新的事件图像等。很可能,你看过视频,但不知道这是一个深度欺诈。为此,英特尔发布了一款名为Fakeatcher的软件,该软件声称能够找出视频是否为深度伪造,准确率为96%。据报道,...

1月6日消息:近年来,越来越多的视频是由人工智能工具(deepfakes)伪造的,效果非常逼真,例如视频AI改变了面孔,或使用他人的面孔或声音来创建新的事件图像等。很可能,你看过视频,但不知道这是一个深度欺诈。
为此,英特尔发布了一款名为Fakeatcher的软件,该软件声称能够找出视频是否为深度伪造,准确率为96%。
据报道,英特尔的Fakeatcher技术可以识别血液在体内循环时静脉颜色的变化。然后从面部采集血流信号,并通过算法进行转换,以识别视频是真实的还是深度伪造的。如果是真人,血液会一直在体内循环,皮肤上的静脉会有周期性的深度变化,而伪造深度的静脉则不会。
过去,欺诈者使用deepfakes伪装成求职者,以获取敏感的公司信息。他们还被用来冒充知名政治人物发表煽动性言论。
皮尤研究中心表示,当数百万人分享一个深深的谎言时,为时已晚,因为63%的美国成年人承认,修改后的视频会让他们对时事感到困惑。
版权声明:除特别声明外,本站所有文章皆是来自互联网,转载请以超链接形式注明出处!




