智库建议

王志伟 | 警惕“深度伪造”技术潜在威胁
发布日期:2020-09-09 信息来源:中咨智库 访问次数: 字号:[ ]

今年以来,一些关于美国总统特朗普、社交网站“脸书”创始人扎克伯格等人的伪造恶搞视频频繁在网络上流传,这些视频都是利用人工智能“换脸”技术伪造而成。该技术也被称为“深度伪造”(Deepfake),即采用机器学习算法模拟或伪造视频,投入机器学习的数据资源越大,合成的视频真实性越高,甚至可以达到以假乱真的程度,堪称视频领域的“PS”(Photoshop)技术。

深度伪造是基于人工智能的高级“换脸”技术

“换脸”技术最早并广泛应用在电影拍摄领域,如1994年《阿甘正传》就使用了原始的“换脸”技术,将肯尼迪的影像电脑合成进电影中。深度伪造技术源自于美国康奈尔大学2014年的一项机器学习研究成果——生成对抗网络(GAN),即构建两个神经网络,其中一个为生成器,不断创造模拟的虚假图像,另一个则充当鉴别器,试图区分虚假图像和真实图像,两个神经网络在基于海量数据的机器学习过程中不断“对抗”,进而合成出以假乱真的伪造视频。与此前电影中的“换脸”技术不同,深度伪造技术更加逼真,不仅能实现 “换脸”,更可以通过模拟真人声音、创造出现实不存在的人物肖像,达到混淆视听的目的。

深度伪造技术存在诸多社会风险隐患

互联网时代,人工智能技术的快速发展和数据信息的爆炸式增长日益成为推动科技和社会进步的核心引擎。深度伪造技术可用于辅助医学图像分析,制作和还原历史人物的肖像及相关音/视频,或者动态展示艺术作品中的静态人物角色,达到辅助科研、教学、艺术创作的目的。然而,深度伪造技术一旦被滥用,在数据高度开放流动的互联网领域,伪造信息的影响力将被无限放大,其负面影响不得不引起重视。

损害个人名誉及企业信誉

基于初级深度伪造技术的“换脸”应用程序使用门槛极低,只需图片、视频等数据资料,即使不懂得编程算法,也能轻而易举地在数秒钟内制造出诋毁他人名誉、损害他人肖像权和个人隐私的伪造视频。例如,印度女记者拉娜·艾尤布因为揭露了印度古吉拉特暴乱中官员的黑幕和不作为,遭到不法分子伪造视频报复,身心遭受极大伤害。此外,深度伪造技术可以借用企业负责人的公开谈话视频,篡改表情及谈话内容,散播虚假信息,让社会公众发生错误认识,直接影响公司的信誉及经济利益。

威胁国家及公共安全

深度伪造的信息会误导社会公众,从而引发社会广泛的不信任,容易成为敌对势力煽动恐怖和暴力活动、挑拨国内矛盾、引发 “心理战”的工具。美国政府已开始担心该技术将成为针对美国和其他西方国家发起虚假信息战争的最新武器。深度伪造技术还可能成为不法者借用虚假信息煽动暴力冲突的工具。2018年,印度有20多人因为在“WhatsApp”应用上被谣传绑架小孩或涉及其他罪案而被暴力打死。

影响新闻媒体行业社会信任度

深度伪造技术在新闻报道中骗取公众信任的同时,也会令公众丧失对媒体的信任。一方面,难以证伪的报道会使记者质疑有关真相证据的真实性,从而阻碍事实的呈现和报道。另一方面,长期接触虚假信息和深度伪造技术可能让公众在真真假假中迷失自我,做出极端的选择。

相关建议

加强技术监管力度

通过建立技术监管组织机构,加强对深度伪技术的发展研判、风险评估、规范管理和监督审查等工作;通过制定法律法规及规范条例规范深度伪造技术研究与应用;积极参与相关国际国内技术标准、规范、法规的起草和制定工作,提升国际地位和话语权。

加强信息内容审核管理

加强深度伪造信息内容的分类审核管理,鼓励和推动其在科学研究、医学、教育等方面的有益应用,保护其制作和传播的合法性;严格过滤和筛查影响政治、国家安全、公共安全等的伪造信息,及时阻止其传播扩散,并追究制造者和传播者的法律责任;加强媒体新闻报道的监管力度,确保素材来源的真实性和可追溯。

加强“反伪造”技术研发

随着人工智能技术的不断发展,深度伪造技术正在快速进化。应充分发挥高校、科研院所及高科技企业研发优势,在加强机器学习算法、人工神经网络等人工智能基础理论研究的基础上,推动伪造信息检测识别技术发展。如2018年美国国防高级研究计划局研制出利用人工智能技术识别造假视频的检测系统。

加强公众批判思维及理性教育

重视科普宣传力度,培养公众树立独立思考意识,以批判的眼光判断信息真伪,不轻易相信“眼见为实”;普及科学的信息检索方法,不轻易相信来源单一的信息,要充分利用检索工具,多方印证核实真实可靠的信息内容。