内生安全治理——应对生成式人工智能多重挑战的新路径

发布者:仇韵舒发布时间:2023-05-24浏览次数:54

5月18日下午,庆祝复旦大学建校118周年相辉校庆系列学术报告第十场在光华楼东辅楼102报告厅举行。复旦大学大数据研究院教授、国家智能评价与治理实验基地副主任赵星于线上分享了主题名为“生成式人工智能的挑战与治理”的学术报告会议。从2011年苹果手机首次推出的Siri语音助手,到今年包揽奥斯卡七大奖项的电影《瞬息全宇宙》,生成式人工智能早已融入人类生活。当下,类ChatGPT工具进一步引爆全球人工智能热潮,赵星教授在报告中深刻解析生成式人工智能带来的多重挑战,启发我们对其治理问题的思考。

5月18日下午,庆祝复旦大学建校118周年相辉校庆系列学术报告第十场在光华楼东辅楼102报告厅举行。复旦大学大数据研究院教授、国家智能评价与治理实验基地副主任赵星于线上分享了主题名为“生成式人工智能的挑战与治理”的学术报告会议。

从2011年苹果手机首次推出的Siri语音助手,到今年包揽奥斯卡七大奖项的电影《瞬息全宇宙》,生成式人工智能早已融入人类生活。当下,类ChatGPT工具进一步引爆全球人工智能热潮,赵星教授在报告中深刻解析生成式人工智能带来的多重挑战,启发我们对其治理问题的思考。

图片

图片

一、生成式人工智能:新智能面临新挑战

面对生成式人工智能带来的挑战,赵星从资源、技术、应用与社会伦理四个维度进行解读

从资源维度来看,生成式人工智能需要高质量的数据,而中文世界的数据质量弱于英文。赵星认为,即使有很强大的翻译能力,类ChatGPT工具的中文处理效果也显著弱于英文,核心的原因之一是投喂的中文数据质量较差。另外,硬件技术也是支撑我国人工智能产业高速发展的关键要素。

“科技界曾将人工智能的应用比作炼金术,”赵星打趣道,“人们将数据一股脑往模型里面扔,至于能否炼出有价值的东西,炼出的是什么,却没有明确的预期。”很明显,在技术层面上生成式人工智能存在内生的不确定性

“当我们准备向全社会投放一种通用性工具,却不能明确它的科学原理是什么,就一定会有内生性的风险。”人工智能风险中最核心的一点在于其结果的不可承受性。“我们很少在治理问题上处于如此无力的状态,”赵星说。在应用层面上,生成式人工智能产业发展的确定性与风险治理的不确定性将长期存在。

图片


而在社会方面,生成式人工智能不仅深陷知识产权与信息泄漏问题,或也将塑造真正的信息茧房。“当生成式人工智能24小时都伴你身边,潜移默化地,你会误认为一切都是你自己的决定。”

赵星警示,“我们面对的,是一个会在短时间内崛起,或将引起严重后果且后果未知的事物。”

图片

二、内生安全治理:让危机“已知”

面对生成式人工智能这个新对手,赵星认为不能沿用传统治理“被动回应外在威胁”的方法。相反,他的团队正在着眼于借助复旦大学大数据研究院院长邬江兴院士提出的“内生安全理论”,构建生成式人工智能治理的新模型。

“我们能否在未知的风险爆发之前找到抵抗它的办法?这是生成式人工智能内生安全治理要解决的问题。”赵星说,“我们需要在人工智能风险来临前,给人类社会点亮一个新的技能树:应对人工智能非传统安全问题的能力。

生成式人工智能的治理模型涵盖了三个层面。最外层是法律的监督与规约,中间层是管理层的敏捷治理,尤为强调的最内层是教育。在法律和政府治理之前,高等院校应和所有的教育机构一起,完成针对全人类的社会性融合人工智能的教育和训练。

“我们应当在每一位年轻人的成长过程中,让他们学会如何与人工智能良好共处与规避“信息茧房”,以及如何去做一个智能社会中的‘好人’。”

内生安全治理模型的原理,是基于群体智能将个体“未知的未知”转化为群体“已知的未知”,从而进一步将其转化为“已知的已知”。赵星的团队初步发现,“内生安全理论”可望成为生成式人工智能治理研究最有潜力的工具之一,特别在于对于未知风险的探测与防御机制上,具有独到的价值。

当我们知道可能的风险是什么、产生在何处,生成式人工智能治理便有机会转化为常规性安全问题,我们就能尝试寻求到治理闭环的实现。”赵星说,“然而这仍需要理论、实践上长期的探索,而内生安全理论已构成一个有力的武器。”

赵星团队也开始探索生成式人工智能在科学评价中的应用,创新构建了“客观数据、智能算法、专家评议”三者和谐共生的“数智人”评价与治理新范式。近期团队也在开展利用类ChatGPT工具进行智能评价系统构建的探索实验。

“初步结果显示,虽然现阶段的生成式人工智能远没到能胜任学术评价这样的严肃评价工作的程度,”赵星表示,“但生成式人工智能表现出的“跨学科”评价能力和“涌现”推断预测潜力值得高度关注。”