邬江兴院士:加快建立人工智能内生安全质量检测平台,打通规模化应用“最后一公里”

发布者:杨奕彤发布时间:2026-01-31浏览次数:10

2026年1月29日,2026网络安全等级保护技术学术交流活动在成都召开。本次大会聚焦“科技赋能 筑基强网”,旨在交流等级保护技术进展、分享实践经验并推动相关标准实施,大会由公安部第三研究所等机构主办。中国工程院院士邬江兴出席会议并发表题为《人工智能内生安全质量检测中试平台》的主旨演讲,提出要以内生安全理论为支撑,构建科学完备的AI安全质量检测体系,为人工智能规模化、安全化应用筑牢根基。


邬江兴院士在演讲中强调,安全检测是打通AI规模化落地应用“最后一公里”的关键抓手。当前,全球人工智能竞争的本质是一场规模化渗透应用的耐力比拼,而安全可信正是AI赢得市场信任、实现广泛落地的关键。无论是大众用户对“敢用AI”的信任需求,行业对“敢推AI”的认证需求,还是政府对“能管AI”的监管需求,都迫切需要建立一套有公信力的安全质量评测标准。


邬江兴院士深入分析了AI安全质量检测的核心矛盾,指出其第一性问题是内生的不确定安全边界。AI系统的数字化“底座”基于冯・诺依曼存储程序控制构造,先天存在设计缺陷,安全边界难以界定;而大模型的风险根植于统计学本质,“幻觉”现象本质上无法根除。更突出的是,AI是“概率性选择生成”而非“确定性计算”,叠加算法模型带来的不可解释性、不可判识性、不可推论性“三不可”问题,导致传统治理模式陷入困境——自律模式难以覆盖整体不确定安全边界,他律模式则面临“管不完、管不了”的认知不匹配问题,最终形成“测不准、测不全、难评估”的技术瓶颈。


邬江兴院士提出,内生安全是应对不确定威胁的安全新范式。这一范式以“结构决定安全”为基石,以动态异构冗余构造为核心,经过了多学科交叉的数学证明与实战验证:在信息论视角下,创建“结构编码/环境加密”新体制,实现类似“一次一密”的完美安全;在控制论层面,证明DHR架构具备随机稳定性、指数稳定性与超稳定性,受扰后可重建稳定状态;在博弈论维度,架构具备纳什均衡解与双盲效应,大幅压缩攻防博弈空间;在系统论视角下,内生安全的DHR架构能在状态空间构建一种特殊的拓扑结构,使攻击轨迹被莫比乌斯环式的动力学约束。实战中,连续八届“强网”拟态防御国际精英挑战赛见证,内生安全构造系统面对全球顶尖白帽黑客与AI攻击智能体,始终保持“不坏金身”,充分验证了技术的有效性。


邬江兴院士介绍了AI内生安全检测的核心机理,其本质是如何将 AI 不确定性风险转化为相对确定的可量化检测指标?内生安全质量检测基于 “必要多样性原理”和“相对正确公理”,构建多元AI主体的共识机制与交叉验证监督集群,让新型安全风险能够被量化评估与检测。借鉴人类社会的治理模式,形成“AI合规检测+AI共识判断”的双重保障。理论验证和技术验证表明,已在自动驾驶、智能电视等场景完成原理验证,实现智能决策的可控可信,让AI在保持创新活力的同时守住安全底线。

最后,邬江兴院士全面提出人工智能内生安全质量检测中试平台的建设构想。平台以“内生安全+外部验证”互促为核心,打造面向多平台的“一套平台、多域复用”检测孵化器,实现AI不确定风险向可量化的确定性检测理论、技术、平台和体系的转化,建设包含规则与共识生成、检测平台构建及安全隔离床等基础设施,通过多样化引擎的协同工作,实现对AI全生命周期的安全检测。人工智能内生安全质量检测中试平台将覆盖AIGC、AIGA等多场景测试,最终催生AI质检新赛道、培育保险新业态、升级服务新模式,推动AI应用进入“4S店时代”,为大模型与智能体在更大范围、更深层次的应用落地提供稳定可靠的信任支撑。