热搜词: 2025 2026

系好人工智能发展“安全带”

转自:经济日报

近期,在2025年国家网络安全宣传周主论坛上,由国家互联网信息办公室指导的《人工智能安全治理框架》2.0版正式发布。在1.0版基础上,2.0版明确了对不同风险等级人工智能的管理要求,为各行业人员识别风险、落实责任提供了清晰指引,使人工智能安全治理更具可操作性,不仅彰显了我国统筹发展与安全的治理智慧,也为全球人工智能治理贡献了中国方案。

目前,人工智能产业已成为驱动经济增长的重要引擎。2024年,我国人工智能产业规模已超过9000亿元,同比增长24%,企业数量超过5300家,形成了较完整的产业体系。人工智能深刻改变着传统产业形态,在制造业、金融、医疗等领域应用广泛,在降本增效、优化资源配置方面展现出巨大潜力。

然而,人工智能在赋能千行百业的同时,也带来数据泄露、模型缺陷、伦理失控等风险。数据显示,2019年至2024年间发生的人工智能风险事件中,约74%与人工智能安全问题直接相关。仅2024年6月至2025年7月,全球公开报道的相关安全事件达59起,涉及伪造诈骗、算法歧视、自动驾驶决策失误等多方面,构建科学的人工智能治理体系刻不容缓。

下一步,如何系统推进人工智能安全治理?总体看,应围绕治理原则、风险分类与协同治理三方面重点突破。

包容审慎是原则。发展人类可以信赖的人工智能,积极防范风险失控。不久前,美国发生的聊天机器人影响青少年行为的事件引发关注,深刻警示了技术防护与伦理约束并重的紧迫性。不论研发还是应用阶段,都需要确保人工智能始终处于人类的掌控之下,其价值目标必须与人类根本利益保持一致。

风险分类是基础。人工智能的风险大致可以分为三类:一是技术本身的缺陷,如算法模型有漏洞、训练数据质量低;二是在使用过程中的中途干扰,如被黑客攻击或用来散播虚假信息;三是产生的连锁反应,如冲击就业市场、削弱社会信任等。对此,应依据风险类型采取有针对性的治理手段,让有关主体明确其在各阶段中的义务。

比如,对于生成式人工智能可能产生的深度伪造风险,需打出“组合拳”予以治理。此前,某地警方发现不法分子利用人工智能换脸技术,冒充企业高管进行视频会议,指令财务人员向虚假账户转账。防范此类乱象,人工智能服务提供者须在模型开发阶段嵌入深度伪造检测技术,在输出环节严格落实内容标识与溯源要求,监管部门应推动建立相应的追溯系统,并通过公共教育提升公众对合成内容的辨识能力,让广大民众能够把李逵和“李鬼”区分开。

协同共治是手段。综合治理就是要让政府、企业、科研机构和公众都参与进来,共同用规范约束、技术护航、道德引导等方式,对人工智能进行全链条、全过程管理。这既需要健全人工智能安全法律、法规及科技伦理准则,也需要增进协同应对人工智能失控风险的共识。

目前,我国已经出台了《生成式人工智能服务管理暂行办法》等规范性文件,学界也推出《人工智能示范法3.0》等专家建议稿,均是构建有中国特色的人工智能治理体系的重要探索。人工智能风险无国界,我国还应积极参与国际规则对话,推动形成具有广泛共识的治理框架,为应对挑战贡献中国智慧。

安全是发展的前提,治理是创新的保障。人工智能安全治理事关社会安全、产业建设、经济发展,必须在治理原则基础上,逐步细化治理手段。只有构建系统完备、行之有效的治理体系,才能让人工智能真正成为推动经济高质量发展的安全、重要引擎。