近年来,人工智能作为“新基建”,正深刻融入人们生产、生活的方方面面,形成了一张庞大的智能生态网络。然而,不难看到的是,在金融、医疗等高价值应用场景下的安全风险问题,仍制约着AI应用边界的拓展。困境何解?
在7月8日WAIC的构建AI产融新生态论坛上,北京瑞莱智慧科技有限公司(简称“RealAI”)CEO田天发表了题为《构建安全可控人工智能——深度伪造技术治理实践》的主题报告,围绕上述关切展开深刻阐述,并针对目前社会关注度高的深度伪造技术滥用问题提出解决方案。
安全可控成为制约AI发展的“短板”
田天表示,当前在产业应用上,将人工智能推向更深维度、特别是高价值应用场景时,AI在三个层面面临的安全风险问题逐渐凸显。
首先是算法可靠问题。例如,在刷脸支付、自动驾驶,以及智慧医疗领域等,如果算法不可靠,在受到攻击的情况下经常容易出错的话,势必少有人敢用。
第二是数据安全问题。AI是基于大数据的,需要使用数据进行AI训练和预测等,这就不可避免的存在数据隐私泄露或数据资产流失等风险。
第三是应用可控问题。当前,利用算法做大数据杀熟,或者深度伪造内容恶意传播,已对社会造成许多不良影响。这些困扰,都是把人工智能推向下一代和更多应用场景时,必须解决的问题。
瑞莱智慧RealAI CEO 田天
基于以上困境,RealAI的首席科学家、中国科学院院士、清华大学人工智能研究院院长张钹,提出了第三代人工智能,核心解决的就是安全和可控问题,基于此才能将人工智能真正推向高价值的应用场景。
田天进一步介绍:“针对上述三个层面的安全问题,RealAI基于第三代人工智能,树立了三大技术核心方向:为第三方AI系统打造防火墙、防范AI技术被滥用、提供安全可控的AI产品及解决方案。“
围绕这些目标,RealAI在理论研究、国际竞赛上都已取得非常优异的成绩,达到世界顶尖水平。在国内人工智能安全领域,RealAI承担了国家重大研发专项,推动一系列AI安全方面的国家标准、团体标准建立,目前已形成完整的人工智能安全解决方案,包括攻击、防御、AI治理等。
遏制深度伪造技术滥用刻不容缓
“在人工智能的广泛安全问题中,深度伪造技术滥用亟需破解。”田天指出,在日常生活中,通过伪造的视频可以轻松通过目前市面上金融APP的刷脸身份认证,带来财产安全风险;站在国家安全层面,如有人用深度伪造视频散播虚假言论,煽动社会舆论更是后果不堪设想。深度伪造亟待约束与治理,已成为全球范围内的共识。
但他也表示,深度伪造技术检测当前面临两大难点:一是肉眼难以辨别,传统人工内容审核团队束手无策;二是深度伪造具有“强对抗性”,新的生成技术会不断地升级,对抗之前已经具备的检测手段。另外,诈骗等领域的深度伪造视频,还会加装对抗样本,让检测系统识别出错。
因此他认为,检测工作需遵守动态平衡机制,技术能力也应不断升级迭代。在这一思路下,RealAI研发出了一款工业级的深度伪造内容检测平台DeepReal。
该平台目前囊括了最全面多样的深度伪造检测数据集,并创新性的利用贝叶斯深度学习的可解释性,以应对实网环境的对抗变化。
从检测结果上来看,DeepReal在学术数据集和ZAO等主流方式生成的网络数据集中,已达到99%以上的准确率。而在实际应用中,DeepReal的检测准确率也已达到业界顶尖水平。
以安全之道,筑基创新,将重塑产业智能发展新格局。未来,RealAI将通过全方位的AI安全产品体系,不断深化“第三代人工智能”战略,通过推动安全供给基建化,为产业智能化提供支撑。
当天,国家互联网信息办公室副主任杨小伟,上海市委常委、宣传部部长周慧琳出席论坛并致辞。中国工程院院士邬贺铨,美国艺术与科学院院士、清华大学讲席教授、智能产业研究院院长张亚勤、国家互联网应急中心党委副书记卢卫等专家学者,也在论坛上分享了关于破解智能时代网络安全问题的思考。国家互联网信息办公室信息化发展局局长王崧、上海市委网信办主任姜迅出席论坛和启动仪式。上海市委网信办总工程师杨海军为论坛作总结寄语。