“第二届网络空间共性安全技术研讨会”成功举行

发布者:仇韵舒发布时间:2022-11-02浏览次数:320

图片

10月30日,由复旦大学大数据研究院主办的“第二届网络空间共性安全技术研讨会”在上海举行。本次研讨会汇聚了计算机、通信、哲学等多学科研究力量,来自上海交通大学、同济大学、浙江大学、国家数字交换系统工程技术研究中心等优势科研院所的院士专家通过线上线下、多地互动的方式,首次就人工智能与应用系统的共性安全问题及其成因进行深入研讨,探索一体化解决智能系统内生安全问题、有效应对智能时代网络安全挑战的新型技术范式。会议线上由《中国科学》杂志社视频号、B站、微博号、科研云和寇享学术多平台同步直播,在线观看人数超过2.2万。复旦大学大数据研究院副院长薛向阳教授主持了研讨会。

会上,中国工程院蒋昌俊院士作“方舱计算”主题报告,蒋院士分析了当今信息技术发展的重大需求;回顾了网络计算发展的技术演进,从网格计算到云计算、再到边缘计算、直到多云及云际计算;面向 IT 任务全生命周期的跨域资源配置和协同的计算集成环境,从计算资源和数据资源的整体优化配置的视角,提出了一种新的计算模式“方舱计算”。报告阐述了方舱计算系统结构及其工作原理,介绍了适于方舱计算的资源分配最优化问题定义,在兼顾数据资源、计算资源和存储资源等的基础上,实现方舱资源的优化配置。报告中详细比较了方舱计算、网格计算、云计算、边缘计算等特点,并分析了对大数据智能、机器学习和智能产业等领域的支撑作用。


复旦大学计算机学院姜育刚教授、马兴军研究员作“鲁棒人工智能”主题报告。报告中,姜老师先是介绍了鲁棒人工智能的背景和现状,指出了过去对人工智能的研究大多追求的都是算法的精度和速度,而忽略了鲁棒性。接着,马老师分享了团队在人工智能鲁棒性方面的研究成果,例如:基于信息几何的深度学习特征空间刻画理论、鲁棒损失函数理论设计框架等。最后马老师对人工智能鲁棒性未来的研究提出了一些看法,指出了鲁棒性是人工智能中的一个关键问题,需要更先进的理论和技术来发现问题、揭示原理、增强鲁棒。

图片

图片

中国网络空间内生安全技术与产业联盟副主任委员金梁教授作“智能超材料与无线内生一次一密”主题报告。金教授指出,智能超材料实现了从传统超材料到信息超材料的发展,在物理空间上构筑了数字空间,可以用于实现可编程的人工智能机,能够为无线通信“一次一密”内生安全的落地与实现提供关键支撑。他围绕无线内生一次一密,提出了三大科学问题,一是如何保证密钥生成的私密性,二是如何保证信道密钥熵大于信息熵且不影响通信速率,三是如何在干扰和多径衰落条件下逼近“一次一密”。

图片

复旦大学哲学学院王国豫教授作“通用模型的伦理与治理:挑战及对策”主题报告。王教授指出,通用模型经过大规模数据的训练,包含了海量的模型参数,具有可以广泛应用于下游任务的特点。她认为,通用模型的涌现性和同质性等特征,在数据层面中的偏见、训练数据中包含的社会问题和在算力层面上对能源的消耗等方面对社会造成的潜在的不良影响。通用模型的治理机制需要宏观和微观层面的并行,充分评估数据和模型的伦理影响和风险点,从全流程的视角出发将伦理考量纳入通用模型的建设过程中,充分探索“价值敏感设计”、“负责任创新”等伦理方法在通用模型语境下的可行性,建立开放式、全流程、价值潜入的伦理工具。

图片

上海交通大学张拳石副教授作“可解释性理论体系:基于博弈交互的统一体系与去芜存菁”主题报告。张老师认为现有的神经网络模型算法就像一个黑盒模型,在知识表达层面难以给出一个合理清晰的解释。他进一步指出可以从知识表达、神经网络的鲁棒性和泛化性的量化指标和更严谨的理论证明基础等三个方向着力。沿着可解释性方向,张老师还介绍了博弈交互解释性的理论体系,分别从从语义层面和数学层面来探究如何在网络结构和知识表达间建立联系。最后,他表示希望以后能在基于可解释性的神经网络算法方面建立一个统一的体系框架,借助该体系来指导和设计神经网络模型,在理论上改变深度学习的未来发展。

图片

浙江大学吴飞教授作“数据驱动、知识引导和物理约束的AI+X研究范式”主题报告,吴教授指出,数据驱动机器学习实质上是一种基于数据驱动下的范式学习。随着人工智能时代的到来,一种基于数据驱动、知识引导和物理约束的AI+X研究范式正在被迫切需求。吴教授指出AlphaFold中有别于AlphaGo的地方是引入了物理建模算法来对蛋白质物理结构的模拟与仿真从而实现蛋白质三维空间结构的预测。领域知识如物理建模、约束求解和偏微分方程等可以促进神经网络的求解算法,而神经网络的发展同时可以促进基础科学的研究进展。最后,吴教授总结,AI+X新范式是一种面向领域场景问题,建立海量数据驱动的,经由领域知识引导的,内隐物理定律约束的相互结合的计算+人工智能方法。

图片

会议的最后,中国工程院邬江兴院士作“人工智能应用系统内生安全问题研究”主题报告。邬院士指出,与会专家经过讨论认为,人工智能及其应用系统面临“三重安全挑战”。一是共性安全问题,其根源是任何信息系统都存在“漏洞”不可避免、“后门”不可彻查的内生安全问题,任何附加安全技术都会因“漏洞”“后门”被恶意利用而失效。二是个性安全问题,其根源是人工智能算法本身存在不可解释性、不可推理性、不可预测性,这就决定了无法从根本上规避人工智能系统发生错误决策、错断、被恶意控制等问题。三是广义功能安全问题,其根源是信息系统和物理系统深度互联、网络安全和功能安全问题相互交织,其安全问题在“物理—信息—认知”三域深度交链中不断被放大。邬院士在报告中给出了未知安全问题防范不可能三角——不完全交集原理(IIP),通过对不可能三角的定性分析,进而提出了内生安全存在性定理——DVR完全交集定理,基于上述定理,提出了动态异构冗余架构(DHR)来应对内生安全问题。

邬院士强调,应对人工智能及其应用系统面临的“三重安全挑战”,需要探索新的技术范式。新范式将从根本上实现人工智能领域思维视角、方法论与实践规范的转变,探寻不依赖先验知识可有效应对“未知的未知”安全威胁的新路径,基于“构造决定安全”思想抑制共性安全问题的影响,通过多智能体协同决策等方法探寻个性安全问题的解决思路,通过广义鲁棒控制构造解决功能安全与网络安全相互交织的问题,同时一体化解决人工智能应用系统功能安全不能量化设计与验证度量的世界难题。邬江兴院士介绍,我国在人工智能内生安全领域的研究处于全球引领地位,不但取得了一系列标志性成果与进展,而且在“白盒测试”的实战环境中验证了理论与技术的高可用、高可靠、高可信。

图片