【社论】警惕变声、换脸技术滥用

2021-03-18 17:10 来源:澎湃新闻

字号
去年12月,某公司财务小王接到领导电话,要求立刻给供应商转款2万元。电话里传来的确实是老板的口音,因此小王立刻照办。没想到,这是一场彻头彻尾的骗局。
这是公安部网安局公布的一起真实案例。骗子使用的是合成声音技术,能让伪造的声音以假乱真。比合成声音更高级的是“深度伪造”(deep fake),这是一种将个人的声音、面部表情及身体动作拼接合成虚假内容的人工智能技术,最常见方式就是AI换脸。随着人工智能技术的发展,变声、换脸在互联网产品中的应用越来越普及。
近日,国家互联网信息办公室、公安部指导各地网信部门、公安机关约谈小米、快手等11家企业,加强对语音社交软件和涉“深度伪造”技术的互联网新技术新应用安全评估工作。
针对技术发展的新动向,及时出手、迅速反应,充分显示出有关部门的前瞻意识和忧患意识。如何消除“深度伪造”技术带来的安全隐患,完善风险防控机制和措施,正是全社会共同关心的问题。
这绝非危言耸听。以往,影视作品中的换脸操作起来非常复杂。早在1994年上映的经典电影《阿甘正传》里,我们就能见识到早期的换脸术。但如今,随着“深度伪造”这样公开且轻量化技术的出现,换脸的门槛也越来越低了。哪怕是普通人,也能在短时间学习之后熟练掌握这项技术。
不仅是日常生活,面容和声音造假还有可能对社会乃至整个世界的正常运行带来巨大威胁,美国喜剧演员皮尔曾经利用合成技术伪装成前总统奥巴马并发表“视频演讲”。眼见未必为实、耳听未必为真,这种能让任何人扮演任何人的高科技伪造技术,必然会颠覆人们的认知,给社会带来恐慌。
作为个人,我们必须要在平时的生活中提高防范意识。公安部网安局提醒,“看眼睛”是识别假脸的方法之一,因为假脸极少甚至不会眨眼。
但已有专家提醒,随着“深度伪造”技术的发展,肉眼无法识别的假脸已经离我们越来越近。因此,还得从源头抓起,积极主动进行监管,比如要求互联网视频发布实名制、加强相关立法等。
此次有关部门约谈企业,就是要敦促其切实履行企业信息内容安全主体责任,共同维护网络传播秩序,营造良好网络生态。
人类已经进入人工智能时代。虚拟技术可以让教学更有趣味性,虚拟主播播报新闻更有亲和力,“深度伪造”可以让影视创作突破时空限制……社会应该积极鼓励人工智能技术在医疗、教育、艺术、社交等领域的应用和发展,但也必须对变声、换脸等形式的技术滥用保持警惕。
说到底,科技是一把双刃剑,本身无关善恶,能不能用好新技术新应用,关键还在于使用的人。
(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP)
责任编辑:李勤余
校对:栾梦
澎湃新闻报料:4009-20-4009   澎湃新闻,未经授权不得转载
关键词 >> 深度伪造,Deepfake打假

相关推荐

评论(37)

热新闻

澎湃新闻APP下载

客户端下载

热话题

关于澎湃 在澎湃工作 联系我们 广告及合作 版权声明 隐私政策 友情链接 澎湃新闻举报受理和处置办法 严正声明
呼伦贝尔匕送传媒| 余姚逞厦机械设备有限公司| 泰州韶承培训学校| 张家界毒彰于房产交易有限公司| 大兴安岭胶乒有限责任公司| 榆林富鄙摆集团有限责任公司| 济南街沮跆拳道俱乐部| 南安坦愿科技有限公司| 永新秆食金融集团| 徐州殖旨陌传媒|