深伪技术能逼真地“换脸换声”
深伪技术2018年初冒起,随着AI技术的发展而普及。深伪技术能逼真地“换脸换声”,使人真假难辨。受访专家教大家如何通过仔细观察分辨深伪影片,避免被骗。
你去年底是否曾在网络上看到一支英女王伊丽莎白二世的圣诞节演说短片?英女王在短片里发表各种嘲讽言论,甚至还扭腰摆臀在桌上跳舞,怪诞行为吓坏不少人。
原来这是英国电视台“第四频道”运用“深伪”技术(deepfake) 让人“换脸”伪装英女王制作出的搞笑短片。第四频道想借此片突显数码时代假新闻带来的危机,希望观众了解眼见不一定为凭,要小心查证所有资讯。
深伪技术指的是用人工智能(AI)和机器学习合成的图片、声音、影像等。它大约于2018年初冒起,随着AI技术的发展而开始普及化,任何人现在都可以通过各种手机应用如“去演”、Reface、Faceswap等,瞬间换脸成为明星。
网络安全公司Kaspersky的东南亚区总经理姚祥忠接受《联合早报》访问时说:“深伪技术是AI发展的副产品,它只是在最近才开始普及化。自拍文化推动了深伪应用的增长,应用里的AI滤镜让用户轻易‘换脸’,由于不需专门科技知识或修图技能,导致深伪事件急速增加。”
姚祥忠认为Faceswap、Snapchat和抖音是目前一些较流行的换脸应用,它们主要通过广告或订阅赚取收入。“深伪应用那么流行主要是因为能为大家提供娱乐。Snapchat和抖音虽然是社交媒体平台,但都提供换脸功能,因为能让其广大用户制作各种好玩的视频,互相娱乐。”
深伪技术能很逼真地“换脸换声”,使人真假难辨,轻易受骗。该技术曾被用于伪装政要名人散播不实资讯,美国前总统奥巴马和特朗普等就中过招。
例如,2018年一名美国演员就伪装成奥巴马,大骂特朗普是“笨蛋”;同年,比利时一个政党推出一段特朗普演说的假影片,呼吁比利时退出巴黎气候协定,目的是要宣传对气候变化采取行动的联署。
可能成为犯罪工具
据报道,网上约96%的深伪影片涉及色情内容,不法分子会把明星面貌跟色情演员的身体合成。早期的深伪技术只能用来换脸,但是现在有人开发出新应用,只要用户付费就能“数码移除”女生的衣服。
姚祥忠说:“科技发展那么迅速,立法和道德标准或许跟不上。深伪影片素质那么高,可以造成很大的名誉损失,也能成为散布假消息,误导群众的工具。”
他预测犯罪分子可能利用深伪技术骗过脸部识别系统,因此企业应该提高警惕,更了解深伪技术对生物识别系统的影响,并实施防范措施。他举例在2019年,一家英国公司总裁就被电话诈骗,对方利用AI冒充德国母公司总裁的声音,要求他把20万英镑(约36万新元)转到外国。
南洋理工大学去年11月公布一项调查,在1231名本地受访者中,54%知道深伪技术的存在,但其中有33%的人会在社交媒体上分享深伪内容,而他们是在之后才知道是假影片。这项调查说明,就算大家听过深伪技术,但还是有不少人被骗。
南洋理工大学黄金辉传播与信息学院副教授Saifuddin说:“深伪内容是一种更新,更阴险的假新闻。我们在一些国家已经看到它可以用来制造色情内容,营造恐惧和暴力,让人民彼此猜疑等。随着AI科技的发展,以后要分辨真实和虚构内容会更困难。虽然面簿、推特和谷歌等已开始为深伪内容标签,但我们必须更努力教育人民,才能有效地遏制内容传播。”
一些国家的政府已经采取行动,应对深伪技术的威胁。例如美国加州立法禁止在未获得当事人的同意下,不可以用AI换脸制作色情内容;在选举60天以内,不准电脑合成参选人的样子。网络安全公司也研发出更多、更好的深伪侦测演算法,通过分析影片,发现伪造过程中的细小略变。
深伪影片的特征
姚祥忠说,幸好目前多数深伪影片还是可以通过仔细观察分辨出来。深伪影片有以下特征:
动作不顺畅;
灯光换帧时变化;
肤色变化;
人物眨眼动作不自然或不会眨眼;
嘴唇动作跟声音不同步;
影片出现伪影效果(artifacts)。
姚祥忠说,只要大家遵守一些基本的网络安全守则,还是能避免被骗。“例如公司得确保员工和家人了解深伪技术如何被运用及其威胁。大家也要教育自己和周围的人如何察觉深伪内容,使用可信赖媒体的新闻报道。具备‘信任但核查’(trust but verify)的态度,怀疑声音档案或影片虽然不能完全确保你不受骗,但可助你避开很多陷阱。”