人工智能的安全风险与伦理治理

2026415日是第十一个全民国家安全教育日。当天下午,北师香港浸会大学“形势与政策”大讲堂举行了国家安全教育专题讲座。中山大学马克思主义学院副院长李珍教授以“人工智能的安全风险与伦理治理”为题,围绕人工智能快速发展背景下国家安全面临的新课题、新挑战与新回应展开系统阐释。讲座由教务长李建会教授主持。

李建会教授主持讲座

讲座伊始,李珍教授从国家发展战略和科技变革大势切入,结合“十五五”规划纲要中有关人工智能发展的部署,指出人工智能已成为新一轮科技革命和产业变革的重要驱动力,正加速从实验室研究、产业应用和日常生活场景,走向国家战略布局与治理体系深处。人工智能已不仅是技术进步和产业升级的重要力量,而且深刻影响着国家治理能力、国际竞争格局以及安全风险结构,推动国家安全的内涵、边界与实现方式发生深刻变化。

李珍教授演讲中

接着李教授谈到人工智能何以能够深刻影响国家安全。她指出,首先,人工智能正在重塑国家安全认知。随着算法、数据和智能系统广泛嵌入公共治理、社会运行、舆情传播乃至军事决策等领域,国家安全已不再局限于传统意义上的国土安全、军事安全和政治安全,而是日益呈现出综合化、交叉化、动态化的特征。人工智能作为关键技术变量,正在重构安全格局,也在不断拓展安全治理的现实边界。与此同时,人工智能也显著提升了风险识别、情报分析和预警研判能力。依托大数据、机器学习和智能识别等技术,国家安全治理在复杂信息处理、异常行为发现、趋势预测和重点风险预警等方面获得了更强支撑,使治理方式更具实时性、精细性和前瞻性。然而,技术能力的增强并不意味着风险自然消解。李教授提醒师生,越是依赖关键算法、核心模型和数据链条,越需要警惕新型脆弱性的生成。一旦相关环节失准或失控,风险便可能被迅速放大,甚至引发连锁反应。

在此基础上,李教授进一步分析了人工智能对国家安全带来的多重影响。她指出,人工智能时代的安全风险首先表现为风险来源的多样化。传统安全风险之外,网络攻击、信息操纵、舆情干预、算法偏差、深度伪造等新型风险不断涌现,国家安全面临的威胁谱系日益复杂。其次,威胁认知的不确定性增加。人工智能系统具有高度技术性和一定程度的不透明性,既可能提高治理效能,也可能因“黑箱”机制、模型偏差和误判问题带来新的不确定性。再次,高度智能化、网络化、自动化的系统虽然提升了效率,却也可能因局部失误而触发系统性风险,使安全问题呈现放大性、扩散性和耦合性。与此同时,人工智能不断向经济、法律、科技、社会治理等领域延伸,也使国家安全治理呈现出更强的跨领域特征,亟需构建多主体协同、多层级联动的治理体系。

针对“如何在人工智能时代推进国家安全治理”这一核心问题,李教授指出,必须坚持统筹发展和安全,推动技术创新与风险治理协同并进。她强调,首先要提升全社会对人工智能安全风险的理解能力和识别能力,强化底线思维、责任意识和风险意识,始终坚持人的主体地位,防止在技术加速演进中弱化人的判断力与责任感。其次,要加强战略统筹,将人工智能发展纳入国家安全治理整体布局,在技术演进、政策制定和治理机制之间形成更加紧密的衔接。再次,要不断完善人工智能治理规则和制度安排,为新技术发展明确边界、确立规范、压实责任,以制度建设增强治理的前瞻性和有效性。

讲座现场

在讲座最后部分,李教授结合20263月发布的《人工智能科技伦理审查与服务办法(试行)》,进一步阐述了国家安全视域下的人工智能伦理治理。她指出,面对“技术驱动快、治理跟进慢”的现实挑战,应持续完善人工智能伦理治理原则,推进重点领域制度建设和实施机制创新,在制度供给、人才培养、技术伦理、风险防控和国际规则参与等方面协同发力,不断提升我国在全球人工智能治理中的主动性与话语权。

整场讲座主题鲜明、逻辑清晰、视野开阔,既回应了人工智能时代国家安全面临的现实挑战,也为理解技术发展与伦理治理、创新驱动与风险防控之间的关系提供了深刻启发。本次讲座的举办,进一步提升了我校广大师生的国家安全素养,深化了大家对国家安全治理现代化和人工智能伦理治理的认识,对于营造关心国家安全、重视科技伦理、主动应对未来挑战的校园氛围具有积极的意义。


来源:中国语言文化中心

文字:刘春华

图片:刘勇