以必要多样性消解不确定性:平衡人工智能的发展与安全
——邬江兴院士出席世界顶尖科学家论坛

发布者:曹青霞发布时间:2023-11-10浏览次数:220

  2023117日,第六届上海临港世界顶尖科学家论坛(The 6th WLA Forum)潮悦堂内,世界各国科学家一道讨论“科学引领智能变革——人工智能向善、共筑人类福祉”,顶尖科学家一同探索充满魅力的科研前沿。复旦大学大数据研究院院长、中国工程院邬江兴院士发表《人工智能治理:如何平衡发展与安全》主旨演讲,指出要高度重视人工智能技术的内生安全问题,平衡发展与安全的矛盾,通过必要多样性消解不确定性,让人工智能更好地造福人类。

第六届世界顶尖科学家论坛在上海临港举行


  近年来,各个国家地区分别或者联合发布、签署了诸多人工智能安全发展的法规、倡议等等。其中最具代表的是,1030日拜登签署的《安全(Safety)、有保障(Security)和可信赖(Trustworthy)的人工智能的行政命令》和111日于英国召开的人工智能安全峰会上包括中国、美国、欧盟在内的28个国家签署的《布莱切利人工智能宣言》。平衡人工智能发展与安全,加强人工智能安全治理,促进人工智能向善已经成为全球共识。

  邬院士于论坛中强调人工智能必然存在内生安全问题,“一切事物都是自在的矛盾”而这种人工智能系统的自在性或结构性矛盾只能演进转化或和解,而不可能彻底消除,必须要从内部、从根源上解决。这种人工智能系统的内生安全问题包括个性化和共性化两方面,其一是深度学习人工智能模型特有的不可解释性、不可判识性、不可推论性;其二是承载人工智能模型的软硬件环境本身就存在“漏洞后门”等网络安全共性问题,双方交织叠加给人工智能安全带来了更为严峻的挑战。111日,英国人工智能峰会“双克对话”提出,人工智能发展需要一个“物理开关”的“红色按钮”以保证人工智能危害人类时能“一键关机”,但其安全手段的底层逻辑仍然是“附加式”的“事后治理”,是“封门堵漏”式的“安全归零”大法。但是人造系统必然存在不完备、不可解、不可知的问题,是无法穷举、无法归零的。邬院士认为,网络空间内源性的安全问题不可能“一键终止”,人工智能赋能的内生安全威胁具有“不可逆”性质。因此,为平衡人工智能发展与安全,必须边发展、边治理“两手都要硬”而非先发展后治理,以实现在人工智能问题空间内与问题共存。

中国工程院院士、复旦大学大数据研究院邬江兴院长作报告


  邬江兴院士指出,我国在网络空间内生安全理论上处于全球引领地位,已经针对深度学习人工智能应用系统开展了安全检测技术试验,基于多样性原理的共识机制进行了工程化表达,发明的动态异构冗余(DHR)构造能够基于多模共识判决、动态策略裁决机制,在不依赖(但不排斥)任何先验性安全知识前提下,将广义不确定性扰动事件的发生机率,降维为系统功能失效的概率问题,实现了人工智能系统安全功能的可量化设计、可验证测量。邬院士强调,已有实践表明,用内生安全知识体系赋能或构造人工智能应用系统,可以使之具备“自律或自恢复”的网络弹性功能,以达成安全范式从“有管理到可管理”的转变。

中国工程院院士、复旦大学大数据研究院邬江兴院长作报告


  最后,邬江兴院士倡议,在各个维度层面都要支持营造人工智能必要多样性生态,一方面,技术层面从硬件到软件、从构件到系统、从技术到应用的全链条布局都要鼓励人工智能发展的多样性以应对不确定性;另一方面,制度层面各国政府和国际机构都应当主动作为,制定相关法规政策以加强监管治理强度。必要多样性是控制论的第一性原理,也是人工智能向善不可或缺的技术内涵,只有多样性才能管控发展中的不确定性风险,以解决人工智能安全治理的世界性难题。