破局与突围:人工智能内生安全新范式的构建之路——从理论奠基到引领发展的精彩瞬间

发布者:杨奕彤发布时间:2026-02-10浏览次数:10

当OpenClaw以现象级姿态席卷全球,AI的能力边界被推向新高度,一个核心命题愈发迫切:如何为指数级增长的智能生产力筑牢安全屏障?《科技日报》的评论一语中的:“未知风险面前,内生安全是终极答案。”

从“补丁式、保镖式防御”的被动补救到“内生安全防御”的主动设防,当人工智能以指数级速度重塑产业生态、融入日常生活,安全质量已成为制约其可持续发展的核心命题。中国在人工智能内生安全领域的探索,走出了一条理论创新、技术突破、产业催化、全球发声的独特路径。

2022年至2026年,五年蓄势、迭代锐变,人工智能内生安全理论不断发展,见证着从技术追随者成长为全球AI安全治理的引领者,一场关乎AI“聪明与可靠”的范式革命就此展开——每一步探索都在回答同一个时代之问:如何让人工智能既释放生产力变革,又守住安全发展的底线?

镜头1:新范式赋能智能时代

(点击图片阅读原文)

2022年10月30日,由复旦大学大数据研究院主办的“第二届网络空间共性安全技术研讨会”在上海召开,40余名来自国内优势科研院所的院士专家线上线下联动,首次系统性研讨人工智能与应用系统共性安全难题,提出一体化解决路径,标志着我国人工智能内生安全新范式正式确立。

当前,全球智能化变革加速推进,AI应用以“指数级加速度”渗透至千家万户、百业千行及国家关键信息基础设施,安全问题引发各界高度关注。会议明确,我国在人工智能内生安全领域研究已处于全球引领地位,此次峰会旨在聚合优势力量,探索具有创新性、包容性、普遍性的解决方案。

中国工程院院士邬江兴指出,新范式将实现人工智能领域思维视角、方法论与实践规范的根本性转变:以“构造决定安全”思想抑制共性安全问题,通过多智能体协同决策破解个性安全难题,借助广义鲁棒控制解决功能安全与网络安全交织困境,同时一体化攻克AI应用系统功能安全不可量化设计与验证的世界难题。

会上发布的“人工智能应用系统内生安全愿景”明确了攻坚路线:聚焦智能无人系统、智能计算系统、认知决策系统三大垂直领域,形成感知、防御、决策三大核心能力,打造多样化工具集、模型库等五大基础平台,突破底座安全、拟态智能体等6大类20余项关键技术。“用内生安全‘钢筋骨架’融合传统安全技术‘混凝土填料’,让AI系统具备‘钢筋混凝土质地’的安全能力。”邬江兴的生动比喻,为新范式的实践落地勾勒出清晰图景。此次峰会的召开,推动我国AI安全研究从分散探索迈入系统攻坚阶段,为全球智能时代安全治理提供了中国思路。


镜头2:构建生成式AI内生安全治理新模型
点击图片阅读原文)

2023年5月18日,庆祝复旦大学建校118周年相辉校庆系列学术报告上,复旦大学大数据研究院教授、国家智能评价与治理实验基地副主任赵星线上发布“生成式人工智能内生安全治理模型”,依托内生安全理论破解类ChatGPT带来的非传统安全挑战,为生成式AI治理提供全新路径。

从2011年Siri语音助手到包揽奥斯卡七大奖项的《瞬息全宇宙》,生成式AI早已融入生活,而类ChatGPT的爆发式增长,让算法偏见、信息泄露、内容造假等风险进一步凸显。“传统治理是‘被动回应外在威胁’,已无法应对生成式AI的不确定性。”赵星强调,内生安全治理的核心命题是“在未知风险爆发前找到抵抗办法”,为人类社会点亮应对AI非传统安全问题的“新技能树”。

该治理模型涵盖“法律监督-敏捷治理-教育筑基”三个层面,其中最核心的内层是教育赋能:“要在年轻人成长过程中,教会他们与AI良性共处、规避‘信息茧房’,做智能社会的‘好人’。”其底层逻辑是通过群体智能,将个体“未知的未知”转化为群体“已知的未知”,再升级为可管控的“已知的已知”。

赵星团队发现,内生安全理论在未知风险探测与防御上具有独到价值,可推动生成式AI治理形成闭环。同时,团队还探索构建“客观数据+智能算法+专家评议”的“数智人”评价范式,开展类ChatGPT智能评价系统构建实验。“尽管现阶段生成式AI尚不能胜任严肃学术评价,但其跨学科评价能力和‘涌现’推断预测潜力值得高度关注。”赵星表示,内生安全理论已成为破解生成式AI治理难题的有力武器。


镜头3:DHR架构为AI打造“三高”安全底座
点击图片阅读原文)

2023年8月16日,第十一届互联网安全大会(ISC2023)在北京召开,中国工程院院士邬江兴发表题为《动态异构冗余(DHR)构造赋能AI应用系统内生安全实验》的演讲,提出以DHR构造为AI应用系统植入内生安全基因,为AI全流程提供高可靠、高可信、高可用的安全保障。

当前,以深度学习为核心的AI应用迎来爆发式增长,正引发经济结构重大变革、带动社会生产力整体跃升,但也潜藏着巨大安全威胁。“AI时代是一把‘双刃剑’,必须用内生安全方法补齐短板。”邬江兴指出,传统附加式防御难以应对AI软硬件环境中的共性安全问题,而DHR构造可有效阻断共性安全问题向安全事件转化。

多年理论研究与工程实践表明,DHR构造不依赖且不排斥其他防御措施,能在AI数据采集、模型训练、算法应用全流程构建安全底座。其核心逻辑是通过异构冗余设计,利用不同算法、硬件、软件的差异形成“主动免疫”能力,即便部分组件存在漏洞或遭受攻击,系统仍可通过动态调度维持正常运行。

这一中国原创技术的发布,打破了AI安全依赖“补丁式防御”的路径依赖,为全球AI安全提供了可落地的工程方案。在AI技术快速渗透的关键阶段,DHR架构的推广应用,将为智能制造、医疗健康、金融服务等领域的AI规模化落地扫清安全障碍,彰显了我国在AI安全核心技术领域的全球引领地位。


镜头4:产学研跨界解码大模型安全难题
点击图片阅读原文)

2023年8月26日,大数据研究院与上海市大数据社会应用研究会联合举办的“大模型内生安全研讨会”在上海召开,30余名学术界、工业界、法律界顶尖专家齐聚,从多维度探讨大语言模型安全解决方案,推动大模型安全治理迈入产学研协同新阶段。

随着大语言模型在金融、政务、医疗等关键领域广泛应用,其内生安全问题日益凸显,《数据安全法》《网络安全法》也对各行业大模型提出了更高的安全合规要求。“大语言模型是数字化时代核心基础设施,其安全直接关系数字经济健康发展。”复旦大学大数据研究院专家强调,亟需加强产学研交流,确保大模型安全赋能千行百业。

研讨会上,专家们从不同视角贡献智慧:大数据研究院陈平青年研究员聚焦内生安全技术路径,紫金山实验室谢宇博士解析生成内容安全风险,蚂蚁集团许卓尔博士分享企业实践经验,华为公司肖亚军部长探讨产业应用挑战,昌久律师事务所庄新月梳理法律合规边界。“学术界的理论突破需要工业界实践验证,企业的安全需求需要学界技术支撑。”经济学院许闲教授的观点引发全场共鸣。

此次研讨会的召开,不仅凝聚了跨领域安全共识,更搭建了产学研协同创新长效平台,推动大模型安全治理从单一技术维度向“技术+产业+法律”多元协同演进。通过整合各方资源、共享实践经验,为大模型安全标准制定提供了宝贵参考,加速了大模型在多场景的安全落地进程。


镜头5:临港顶科论坛提出AI“智能向善”新主张

点击图片阅读原文)

2023年11月7日,第六届上海临港世界顶尖科学家论坛“科学引领智能变革——人工智能向善、共筑人类福祉”分论坛上,中国工程院院士邬江兴发表主旨演讲,辨析“物理开关”式事后治理思路,提出“边发展、边治理”的AI安全治理观,为全球AI治理提供东方智慧。

此前,英国人工智能峰会“双克对话”提出为AI安装“红色按钮”,试图通过“一键关机”应对潜在风险,但这一方案仍未脱离“附加式”“封门堵漏”的事后治理逻辑。邬江兴指出,人造系统必然存在不完备、不可解、不可知的特性,无法穷举所有风险,“网络空间内源性安全问题不可能‘一键终止’,AI赋能的内生安全威胁具有不可逆性质”。

他强调,人工智能内生安全问题源于系统结构性矛盾,包括深度学习模型特有的不可解释性、不可判识性、不可推论性,以及承载模型的软硬件环境“漏洞后门”等共性问题,二者交织叠加加剧了安全挑战。“一切事物都是自在的矛盾,这种结构性矛盾只能演进转化或和解,无法彻底消除,必须从内部、根源上解决。”

邬江兴提出,应通过“必要多样性”消解不确定性,在AI问题空间内与风险共存,坚持发展与安全“两手都硬”。这一主张打破了西方“先发展后治理”的惯性思维,既保障了AI技术创新活力,又守住了安全底线,为平衡全球AI发展与安全提供了全新视角,彰显了中国在AI治理领域的理性与担当。


镜头6:DHR架构给出大模型不可信破局密钥

点击图片阅读原文)

2024年5月17日,2024搜狐科技年度论坛上,中国工程院院士、复旦大学大数据研究院院长邬江兴披露重磅数据:对当前10种主流大模型的安全分析显示,90%以上存在可信性缺陷,而内生安全构造可使安全能力提升数个数量级,其提出的动态异构冗余(DHR)架构为破解AI个性化安全难题提供了核心方案。

“AI的安全问题不能用AI完全解决,这在数学上不成立。”邬江兴援引哥德尔不完备性定律解释,AI系统作为具有初级数论的体系,既不能证明自身为真,也不能证明自身为假,这一本质困境导致“先发展后治理”的老路彻底走不通。他强调,AI作为赋能技术,可能诱发意识形态风险、社会伦理灾难、数据泄露等多重问题,必须从源头构建安全体系。

针对AI内生安全个性问题这一“应用推广最大障碍”,邬江兴详解了DHR架构的四大核心安全能力:利用不同算法模型差异提升抗攻击能力;以模型多样异构化建立必要安全机制,规避单一模型风险;针对同一目标构建多特异性深度学习模型;通过模型不确定度估计为动态调度提供理论支撑。

理论研究表明,内生安全构造可一体化解决AI安全个性化与共性化问题。这一成果的发布,不仅揭开了大模型安全的现实短板,更提供了可落地的破解路径,重构了AI安全的底层逻辑,为全球大模型安全治理提供了坚实的中国技术方案。


镜头7:中国内生安全理论登陆国际学术舞台

点击图片阅读原文)

2024年11月,中国工程院院士邬江兴的英文专著《内生安全赋能网络弹性系统工程》由国际知名出版集团Springer正式出版,首次向全球系统性介绍人工智能内生安全方法及工程应用成果,标志着我国AI内生安全理论获得国际认可。

作为内生安全理论创始人,邬江兴在专著中开创性提出“内生安全赋能新兴领域探索”篇章,从理论层面系统阐述AI内生安全核心逻辑。全书立足AI内生安全共性、个性及广义功能安全问题,构建了完整的防御框架,涵盖威胁分析、内生安全总体架构、智能体构建、策略裁决设计等关键内容,并详细介绍了内生安全在智能网联系统等典型领域的解决方案。

专著通过多个工程应用案例,验证了内生安全理论的可行性与优越性,为全球同行提供了可借鉴的实践样本。当前,全球AI安全治理面临“补丁防御”“外挂安全”的路径依赖,而中国原创的内生安全理论以“构造决定安全”为核心,为破解AI安全边界不确定性提供了全新思路。

业内专家评价,这部专著的出版是中国网络安全理论走向世界的重要里程碑,不仅提升了我国在全球AI安全领域的国际话语权,更搭建了中外AI安全协同治理的学术桥梁,为全球网络安全新范式发展贡献了中国智慧与中国方案。


镜头8:四大支柱撑起可信AI发展之路

点击图片阅读原文)

2024年12月5日,2024第三届北外滩网络安全论坛上,中国工程院院士邬江兴发表主旨演讲,深入剖析AI应用系统内生安全瓶颈,提出“理论研究、数据保障、标准生态、协同防护”四大支柱,为可信AI建设勾勒清晰路线图。

随着“AI+”战略深入推进,AI已成为重塑产业生态的核心动力,但安全问题仍是规模化应用的最大障碍。“构建可信AI是智能化健康发展的前提,没有安全可信,一切创新都无从谈起。”邬江兴指出,当前网络安全理论难以应对AI算法个性化安全风险,必须通过技术创新与体系构建实现突破。

针对这一问题,邬江兴提出多样化模型构建方法:通过差异化网络结构和算法训练,打造具有特异性和鲁棒性的AI模型,增强系统抗攻击弹性。同时,他强调四大支柱的协同发力:一是深挖内生安全与动态异构技术潜力,筑牢理论根基;二是强化数据安全保障,守住AI安全核心命脉;三是完善监管标准与技术生态,加速标准落地实施;四是构建协同防护体系,以智能策略升级安全屏障,实现“AI防御AI”的良性循环。

四大支柱相互支撑、有机统一,构成了可信AI的完整体系。此次论坛的倡议,推动AI安全治理从技术突破向体系化建设迈进,为我国AI产业高质量发展提供了重要指引,也为全球可信AI建设提供了可参考的系统方案。


镜头9:建设人工智能时代自主知识体系

点击下划线文字,阅读原文)

2025年6月7日上午,复旦大学大数据研究院召开“网络空间自主知识体系智能建设研讨会”,来自复旦大学、上海交通大学、同济大学、华东师范大学、上海大学、信息工程大学等高校的10余位专家学者齐聚一堂,围绕AI技术赋能知识体系创新、构建网络空间自主知识体系和生产范式等议题展开深入研讨。会议提出以“一部论丛、一个平台、一套陈列”为核心,整合原创理论成果、构建人机协同教学场景、推出立体化知识陈列,突破“拿来主义”的知识生产模式。

同年10月18日,网络空间自主知识体系陈列馆正式启用,作为我国网络空间领域自主知识体系建设的重要里程碑,陈列馆珍藏100余件科技文献、表征装置、历史展品,见证了我国学者打破西方技术壁垒、建立中国自主知识体系的奋斗足迹,标志着该体系从理论构建迈向实践推广与繁荣传承的新阶段。

同年11月16日,由中国工程院信息与电子工程学部主办、同济大学承办的“中国工程院工程科技学术研讨会——人工智能赋能教育创新发展”召开,330余位专家学者从多元维度交流探索。邬江兴院士在报告中强调,加快建立人工智能时代内生安全自主知识体系,是“人工智能+”国家战略的必然选择,也是中国为全球AI治理贡献智慧的重要契机。

同年11月28日,第五届网络空间内生安全学术大会暨IEEE CRESS 2025国际会议在南京举办,邬江兴院士倡议建设人工智能时代内生安全中国学派,重点破解AI安全机理证明、可信设计、安全检测三大核心问题,明确走出一条不同于西方的AI安全治理新路径。


镜头10:解读AI内生安全“底层逻辑”

点击图片阅读原文)

2025年10月21日,新华社《经济参考报》刊发对中国工程院院士邬江兴的深度专访,系统性解读以“相对正确公理和必要多样性定律”为核心的中国原创内生安全范式,揭示如何平衡AI“发展与安全”边界,让人工智能既释放创造力,又可控可信。

专访中,邬江兴指出,传统安全追求“绝对安全”,但AI的概率性输出本质决定了这一目标无法实现。中国原创内生安全范式的核心突破,是将AI不确定性风险转化为概率可控问题,实现安全与发展的动态平衡。“AI就像高速行驶的汽车,不能只靠刹车避险,更要从设计之初打造坚固车身和灵敏安全系统。”

他详解了两大核心定律:“相对正确公理”承认安全的动态性,通过“安全基线+动态迭代”持续优化,不追求“零风险”但确保风险可控;“必要多样性定律”通过多样化构造应对复杂风险,让系统具备主动免疫能力。这一范式已在智能网联汽车、多模态大模型等领域成功验证,例如智能驾驶场景中,采用DHR架构的系统可有效应对传感器故障、算法误判等风险,大幅降低事故发生率。

作为国家级媒体的权威发声,此次专访标志着内生安全理念已从行业共识上升为国家层面的安全治理思路,向全球清晰传递了AI安全的“中国逻辑”,彰显了我国在AI安全理论领域的自信与引领地位。


镜头11:中国方案助力AI数字产品全球突围

点击图片阅读原文)

2025年11月6日,作为2025进博会上海活动重要组成部分的“全球网络弹性浪潮下中国数字产品出海策略研讨会”成功举办,会上发布《数字产品网络弹性出海蓝皮书》《大模型应用系统内生安全设计框架蓝皮书》,构建起数字产品出海的“中国安全方案”。

《大模型应用系统内生安全设计框架蓝皮书》由复旦大学大数据研究院牵头撰写,国内10多家高校、科研院所、重点企业的30位专家学者共同编写。该蓝皮书立足国家“人工智能+”行动计划部署要求,衔接新修订的《网络安全法》关于人工智能治理的立法精神,面向生成式人工智能大规模应用带来的安全挑战,创新性提出基于内生安全机理的大模型设计安全体系。报告构建了涵盖数据采集、模型研发、训练过程、推理部署、智能体交互全链条的设计安全框架,通过植入安全基因、建立多元共识机制,让大模型应用系统具备自感知风险、自修复缺陷、自进化安全的核心能力,实现“出厂即安全、净化自免疫”的建设目标,对推动“看得见安全质量的AI”赋能千行百业具有重要借鉴作用。

25家单位联合发起倡导引领人工智能“聪明而向善”的八条倡议,凝聚产业共识,共筑创新、普惠、安全的数字未来。


镜头12:AI质检平台打通规模化应用“最后一公里”

点击图片阅读原文)

2026年1月29日,2026网络安全等级保护技术学术交流活动在成都召开,中国工程院院士邬江兴提出人工智能内生安全质量检测中试平台建设构想,构建科学完备的AI安全质量检测体系,为AI规模化、安全化应用筑牢“最后一公里”防线。

随着OpenClaw等现象级AI产品快速崛起,AI安全检测成为刚需:大众需要“敢用AI”的信任保障,行业需要“敢推AI”的认证标准,政府需要“能管AI”的监管依据。“全球AI竞争的本质是规模化渗透应用的耐力比拼,安全可信是赢得市场信任的核心。”邬江兴强调,当前AI安全检测体系存在标准缺失、手段不足等问题,已成为规模化应用的关键瓶颈。

该中试平台以“内生安全+外部验证”为核心,打造“一套平台、多域复用”的检测孵化器,构建三大基础设施:规则与共识生成系统,明确AI安全检测标准与指标;检测平台,实现AI全生命周期安全测试;安全隔离床,提供安全可控的实验环境。平台通过多样化引擎协同,覆盖AIGC、AIGA等多场景测试,将AI不确定风险转化为可量化检测结果。

“让AI安全检测像汽车4S店一样便捷可靠。”邬江兴介绍,平台将催生AI质检新赛道、培育保险新业态、升级服务新模式,为企业提供权威安全认证、为用户提供安全查询渠道、为政府提供精准监管支撑。这一平台的建设,不仅为中国AI产业高质量发展提供坚实保障,更将推动全球AI安全检测体系创新升级。



从2022年上海研讨会确立内生安全新范式,到2026年成都提出AI安全质量检测中试平台,五年时间里,中国人工智能内生安全的探索完成了从理论奠基到全球引领的完整演进。这十二个瞬间勾勒出人工智能内生安全的战略演进特质:以“构造决定安全”实现范式革新破局,打破传统补丁防御路径依赖,锚定AI安全内生可信、量化可证的理论根基;以DHR架构构建技术底座支撑,破解个性与共性安全双重困境,夯实核心技术逻辑;以“多元协同”推进治理体系适配,精准响应生成式AI、大模型等场景需求,契合国家治理体系现代化战略导向;以自主知识体系与中国学派完成理论体系升维,确立差异化竞争优势,抢占全球AI安全治理规则制定话语权;以安全质量检测形成战略闭环落地,构建“理论-技术-治理-产业”全链条安全生态,最终筑牢支撑数字经济高质量发展的战略屏障,凸显内生安全的原创性、系统性与战略引领性。

五年深耕,中国用原创理论破解了AI“发展与安全”的二元悖论,用硬核技术构建了数字生态系统的内生安全底座,用系统方案重塑了全球AI安全治理格局。从DHR架构的技术亮剑到中国学派的强力发声,从产学研协同的生态构建到数字产品出海的安全护航,中国不仅走出了一条不同于西方的AI安全发展路径,更向世界贡献了兼顾创新与安全的东方智慧

当人工智能成为重塑全球发展的核心力量,安全始终是促进发展的关键变量。未来,随着内生安全理论的持续迭代、自主知识体系的不断完善,中国必将在全球AI治理中占据更核心的位置,推动构建创新普惠、安全可控的数字文明,让人工智能真正成为赋能人类进步的强大而向善的力量。