- A+
在过去的一年中,可用于生成逼真、虚假或人为操控的音视频机器学习模型deepfake逐渐见诸报端,成为媒体争相报道的对象,并成为新兴的网络安全威胁。公众接触到deepfake首先是通过娱乐视频,可用deepfake工具生成,将明星的脸部叠加在色情视频中。
尽管这些视频低质且明显可以看出来是不合法的,但是这项新技术对于人们区分虚拟和现实还是有一定的潜在影响。在政治世界中,尤其值得人们关注,deepfake可以成为一种攻击政客或政党的武器,操纵公众舆论来影响选举甚至股市。
几年前,deepfake技术研发有限,这种工具只为资源丰富且技术先进的国家使用,但是现在deepfakes工具免费提供、随处可得,且简单易学,因此任何能够上网、有时间和目的的人都能够随时制作deepfake视频,并将虚假内容视频在社交媒体中传播开来。
进一步来说,deepfake工具越来越智能,生成视频所需要的素材也越来越少。早期需要几个小时的视频和音频或者是大数据集,才可以进行机器分析和生成。这意味着较高关注度的人比如政客、名人、知名CEO或拥有大量网络资源的人容易被盯上,成为虚假视频的主角。
现在,只要有一张照片就可以生成这类虚假视频了。未来生成虚假视频只会越来越容易,比如Facebook上的个人资料图片或者Instagram的音频片段,由此可见,人人都应该提高警惕了,防止自己成为下一个目标。
虚假的现实
Deepfake之所以强大,是因为它颠覆了人类对现实的基本理解:眼见为实。Deepfake让真相与现实脱节,此外还能够引起情感上的回应。比如你看到一些令人不快的东西,即使之后你知道它是假的,但是你依然会有负面情绪,并且将所见所感和潜意识联系起来。
去年10月,州长Gavin Newsom签署了加利福尼亚州的AB 730法案(称为“反Deepfake法案”),希望在2020年大选之前减少恶意deepfake虚假视频的传播。虽然这一举措值得称赞,但法案本身没有任何进展。它人为地设置了一个时间线,这个时间线只适用于在选举的60天内具有“真实恶意”原则的deepfake虚假视频,这就免除了传播平台监管和删除deepfake虚假视频的责任,相反地,法律依赖于虚假视频生产者的自我承认和所有权声明,而对于“真实 恶意”的证据查找过程不是那么明确的。
制定该法律的初衷并非去执行它,更可能的是立法者向人们展示自己已经迈出的第一步,表明他们知道deepfake对民主的严重威胁。而这场斗争才刚刚开始。在理想情况下,该法律将影响并指导联邦政府和其他州的工作,以此为初始模板进行更有效和更具执行力的立法。
Deepfake技术将成为2020年的商业威胁
迄今为止,和deepfake相关的讨论主要集中在通过社交媒体(尤其是在政治领域)推动的虚假信息运动和大规模人为操纵的潜在影响上。2020年将是deepfake成为企业真正威胁的一年,而企业的网络防御团队还没有能力应对这种威胁。
鱼叉式网络攻击针对的是高级员工,通常会诱使他们手动完成任务,比如支付伪造发票,发送实体文件或者手动设置网络犯罪分子的登录凭证。从技术角度来看,这些邮件通常更难检测,因为该电子邮件不包含任何可疑的链接或附件,并且通常与BEC攻击结合使用(当黑客控制了员工的电子邮件时,他们可以从合法地址发送电子邮件)。
根据FBI的数据,在过去三年中,BEC攻击给全球组织造成的损失超过260亿美元。而deepfake能够加剧这些攻击,比如利用语音邮件模拟高层欺骗员工,这就让网络犯罪更加容易。
有一种观点认为,攻击打破了真相壁垒,与其认为攻击请求是虚假的,接受请求并相信它是真实可信的做法反倒更有意义,能够直接地揭露它。
然而,当deepfake技术进一步发展时,攻击的真实和虚假反而难以辨别了。比如员工与其认为的CEO进行视频通话,屏幕后的犯罪分子实时生成deepfake视频。去年早些时候,一位CEO被AI产生的声音欺骗,将243000美元转移到他认为是公司供应商的银行账户中。
当前,安全行业还没有设备、电子邮件筛选或任何技术来防御deepfake技术。但是,也不是一无所获。例如,Facebook,微软和大学研究人员发起了Deepfake检测挑战赛,呼吁推动开源deepfake检测工具的开发。国防高级研究计划局(DARPA)宣布了语义取证或”SemaFor计划”,该计划旨在开发“语义取证”,作为过去使用的统计检测技术的另一种防御方法。
当前存在的唯一防范方法是教育用户,让他们了解这些新型攻击的方法,并警惕任何看起来不同寻常的行为或者活动。
信任早已不再是我们负担得起的奢侈品了。
*参考来源:helpnetsecurity,Sandra1432编译,转载请注明来自FreeBuf.COM