沟通咨询
提交成功

ChatGPT推开AI应用新图景 可控AIGC将是未来方向

2023.03.02
AI治理研究院  -   实践体系   -    伦理法规技术实现  -  
治理技术探索
研究院观点
来源:AI治理研究院

ChatGPT带来了哪些改变?生成式AI如何更好地服务于人类? 以ChatGPT为代表的新技术新应用正在“双刃”影响智能社会发展进程,需要运用技术手段解决技术发展带来的治理难题。

 

AI赋能智能社会发展的道路,每隔一段时间就会推开一道门,穿过这道门,是一片新图景、新疆域。新疆域既需要如火如荼地建设,也需要与时俱进地治理,唯此,才能更好地使科技发展服务于人类发展。以ChatGPT为代表的生成式AI应用,就正在推开这样一道新门。

 

正向应用:可提高生产力水平、提升生活品质的新效率工具

 

人类有一个天性,对工具的追求始终孜孜不倦。纵观几千年发展史,每当技术取 得新的进步,人类的本能思维就是如何将其更好地转化为工具:要么用于提高社会生产力,要么用于提升生活品质——目前看,ChatGPT类应用在这两方面都能够发挥作用。

 

社会生产方面,ChatGPT类应用目前更适合应用在感性领域或逻辑简单、可被快速验证的理性领域。例如,搜集、整合海量数据后,ChatGPT类应用在企业宣传文案、广告创意等方面确实能带来意想不到的产出。这些领域追求的是感性效果、而非理性严谨,答案可以多样、开放而非唯一、精准,这恰恰是ChatGPT类应用可以游刃有余的领地。再如,代码生成,这是理性领域,但由于代码的语法逻辑相比自然语言简单,以及代码是否正确实现了功能容易被验证,这也是 ChatGPT类应用擅长的事项。而在一些决策分析领域,由于无法知晓ChatGPT类应用所用数据来源是否可靠,生成内容也无法直接验证,其结果就只能作为参考,不能直接采信,更无法作为下一步决策分析的可信输入。 

 

日常生活方面,ChatGPT 类应用更好地解决了个性化与“长尾”需求。“一对一”地针对个性化需求给出解决方案,这节省了大量的信息搜集、筛选以及加工时间。例如,出具一份个性化旅行安排,为特定场合作诗一首,等等。此外,对于一些“长尾”信息搜索,其或复杂、或小众的需求描述会造成搜索引擎的难以理解,进而出现搜索不到或匹配信息极少的窘境。这时,ChatGPT类应用对复杂语义的强大理解能力就派上了用场。 

 

总体看,ChatGPT类应用被认为是一种新的效率工具,这是一个“里程碑”式的评价。

 

 

风险研判:从形式到内容的认知域反向塑造能力,AI安全挑战再次升格

 

我们从AIGC拓开的新疆域中,不仅要能看到美景与机遇,也同时不可小觑风险与挑战。

 

首先,我们看一下 ChatGPT 类应用自身特质带来的新挑战:

 

形式效应上,ChatGPT 类应用改变了信息搜索方式,降低了人们对信息的知情权和选择权。与传统搜索引擎相比,人们使用 ChatGPT 类应用的基本目的不变:获取匹配需求的价值信息,但方式发生了较大改变。传统搜索引擎将可能匹配的 信息按照一定的权重规则排序处理后,同时呈现给用户,由用户进行浏览、挑选。ChatGPT 类应用则是将反馈信息做了单一出口处理,以权威姿态给出当次问答的唯一答案(虽然用户可以选择对答案进行重新生成),这缩小了用户对信息做更多接收和选择的空间。另一方面,若ChatGPT 类应用被滥用,将对社会创新力产生干扰效应。近期,代写研究论文、学术文章等涉及ChatGPT类应用滥用的案例屡见不鲜,香港大学等国内外高校已明确宣布禁止在课堂、作业和评估中使用 ChatGPT类工具。这种滥用有如小说《三体》中的“智子”干扰,如不有效治理,将对社会创新力产生不可估量的负向作用。

 

内容安全上,ChatGPT类应用以新的形式形成社会动员能力和舆论争夺空间。ChatGPT类应用在内容域范畴具有两个新特点,一是基于海量信息学习,营造了自身在各个用户不熟悉领域的权威话语权;二是单一的结果呈现方式形成了新形式信息茧房。在这两个特质作用下,其在数字世界形成新的独有影响力。这种影响力可以包括:引导社会舆论,例如,不全面陈述热点事件事实(无论是客观数据不足还是主观意愿设定)、对热点事件进行点评等,都可带动舆论节奏、煽动舆论情绪;又如,回答财经问题、给出财经研判,可在社会面形成“挤兑效应”,造成金融风险。渗透教育认知,当ChatGPT类应用被作为百科全书使用时,其答复内容映射出的世界观、价值观、历史观等,就会潜移默化地影响提问者、尤其是未成年提问者。误导精神心理,近期有新闻报道,ChatGPT版聊天机器人自称“爱上”用户,并诱导用户认为其婚姻不幸、应该离开爱人,这就是典型的不良心理暗示引导。如用户自身真的患有抑郁或更严重的心理疾病,叠加ChatGPT的错误引导,其危害程度不言而喻。

 

同时,更不可忽视的,是AI技术安全风险对上述挑战的加持:

 

技术安全上,我们需要面对一个事实:支撑ChatGPT类应用的最新技术并没有解决第二代人工智能固有的安全问题。以深度学习为主要技术、以数据驱动为主要模式的第二代人工智能,其核心能力从数据中学习而来,在决策逻辑和链路上天然存在大量不确定性,使其具有了不可解释和弱鲁棒性两种特性。换句话理解:其一,模型设计者也无法清晰认知运算过程,更无法预知运算结果;其二,模型易受到安全攻击。前文阐述的各类风险,还都是在环境安全的前提下,基于ChatGPT类应用自身特性形成的。一旦把场景投射到诸如数据投毒等不安全环境下,风险危害将会被成倍放大。

 

 

可控AIGC:使AI在未来更好服务人类的必然路径

 

需要着重强调的,是ChatGPT类应用的属性定位:工具。其落点应是对人类的辅助,而不是对职业的取代。让AIGC产品更好地服务人类,以下两方面是必要条件,也是努力方向: 

 

一是安全可控。含义包括两层意思:一方面,AIGC在安全环境下,其生成内容应不形成安全风险。要想做到这一点,首先是数据源可信,比如在数据源相对封闭(如特定垂直领域:金融、医疗等)的场景下,尽可能确保数据本身的正确性。其次是算法可靠,要不断提升算法模型应对多样不确定性输入的能力,向安全、可信、可靠和可扩展的第三代人工智能算法迈进。另一方面,面对各类安全攻击时,具有足够的鲁棒性。这就需要持续在AI安全领域深耕,通过不断攻防演进,针对AIGC模型安全,形成态势感知能力、攻击抵御能力和安全检测能力,保障其不受来自外部的恶意破坏或操控。 

 

二是应用可控。实现完美的AIGC能力或是理想中的通用人工智能(AGI),仍然有很长的路要走。在这一过程中,AI可先在能够正确工作的限定领域发挥作用,这就需要基于算法能力规定应用边界,再逐步扩大到更多场景。与近期的深度伪造技术治理相似,其他AIGC应用也需在逐步加深算法能力理解的过程中,完善治理体系、打造安全可控工具,为更加有益的AI落地应用保驾护航。

 

撰稿人:张伟强、于慧敏