应对人工智能进行安全可信方面的治理,防止它被误用、制止它被滥用,这需要从技术创新层面发力去“治本”,同时也要从法律法规、伦理规范、行业共识等不同层面去“治标”。
人工智能技术一直是当前科技领域的热点,不论是从图像分析到自然语言理解,再到科学领域。得益于神经网络的“深度”变革,以大量数据和算法加持的算力去处理复杂的数据已成为日常,而这在过去是无法想象的,背后则是人工智能技术突飞猛进发展的必然结果。
在刷脸、自动驾驶、智慧家庭等各种人工智能应用场景纷纷落地日常生活的当下,从消费者的视角来看,人工智能已经让生活变得更美好了,但这一技术是否已经足够强大了呢?学术界的答案却恰恰相反——当前的人工智能技术在安全可靠方面其实完全不够!
人工智能并没有那么可靠
在日前召开的首届“青年科学家502论坛”上,清华大学教授朱军对正在高速发展的人工智能产界泼出一盆冷水:今天的人工智能远远算不上完美。首先是深度学习仍然面临着鲁棒性差的问题,比如很多手机都会配备人脸识别方案,但通过一副打印了特殊纹理图案的眼镜,就能轻松解锁很多手机;再说到安全需求更高的自动驾驶系统,黑客们只需要在标识牌上加上特定图案,就能让系统将限速标识识别为停止标识,导致致命事故的发生……
这些看似非常符合人们直觉或者是常见的问题,放到很智能的系统面前,却会出现错误的结果,背后的原因是什么?
“这里面一个关键的问题,是现在的人工智能技术‘不知道自己不知道’。”朱军表示,人类都能够遵循“知之为知之,不知为不知,是知也”的道理,但当前的人工智能主流技术,绝大部分都欠缺这种能力。比如在一个很多猫和狗照片的比对系统中放一张人工智能还不知道的苹果照片,让人工智能来分析这是什么,结果答案要么是猫,要么是狗,而这取决于这张苹果照片和猫、狗哪个更相似一些。
不用怀疑人工智能的学习能力,但确实缺乏“知道自己不知道”的能力。学术界认为,一个人工智能系统如果知道自己“不知道”,其实代表着其有更高的智能水平。
“具体来说,在现实世界里存在两种不确定性会影响到人工智能对此的认知,一种是比较直观的环境和数据的不确定性导致的信息采集不完全;另一种则是更抽象的、更难以被感知的信息,这种模型的不确定性,让大数据的模型存在歧义,让人工智能在训练时也许表现得非常好,但是测试上就会发现性能距离很大。”朱军表示,目前的解决思路是更深入地研究贝叶斯智能理论,解决如何定量、客观地计算这种不确定性,得到最优的结果。推动贝叶斯智能理论研究的深化,则需要产学研界的共同努力。
安全是必须跨越的鸿沟
人工智能的概念产生最早可追溯到1956年的达特茅斯会议,但直到近十年来这一领域才真正地深刻改变了大众生活,甚至攻克了多种人类世界的顶级挑战,比如战胜围棋顶级选手、预测蛋白质结构、击败人类飞行员等等。但目前来看,当前的人工智能技术不仅在可靠性方面存在很大问题,安全和可信方面也开始进入瓶颈期。
8月3日,在首届全球数字经济大会的人工智能产业治理主题论坛上,中国科学院院士张钹抛出了一个观点:当前人工智能的安全治理是迫在眉睫的,随着技术潜入到“深水区”,研究发现,人工智能的算法存在一些根本性的问题,本身就带有不安全性,容易受到攻击。“人工智能技术所面临的安全问题是非常特殊的,其问题不在于设计,而是源自算法本身的不安全性。这种算法的不安全性,是由第二代人工智能所引起的。”
“学术界已经开始思考技术下一步的发展方向,新一代人工智能的发展路径是融合第一代的知识驱动和第二代的数据驱动的人工智能,同时利用知识、数据、算法和算力等4个要素,建立新的可解释和鲁棒的人工智能理论与方法,发展安全、可信、可靠和可扩展的人工智能技术。”朱军表示,“安全可靠“作为第三代人工智能的核心发展目标逐渐成为共识,数据与算法安全也成为学界和业界人士重点关注的研究主题之一。
张钹认为,发展第三代人工智能是一项长期任务,技术的路径也非常艰难。“当前,应对人工智能进行安全可信方面的治理,防止它被误用、制止它被滥用,这需要从技术创新层面发力去‘治本’,同时也要从法律法规、伦理规范、行业共识等不同层面去‘治标’。”