En 400-6655-581
5
返回列表
> 资源中心 > 文章>主题>AI安全> 《网络安全法》完成修订,施行在即!企业如何应对AI安全治理新要求?

《网络安全法》完成修订,施行在即!企业如何应对AI安全治理新要求?

文章

2025-11-06浏览次数:147

2025年10月28日,第十四届全国人大常委会第十八次会议表决通过了《全国人民代表大会常务委员会关于修改〈中华人民共和国网络安全法〉的决定》(以下简称“《网安法修改决定》”),并将于2026年1月1日正式施行。这也是《网络安全法》自2017年6月实施以来的首次系统修订。

 

图片

 

作为我国网络安全领域的基础性法律,《网络安全法》奠定了我国网络治理的总体框架。此次修订旨在顺应网络安全新形势、新要求,尤其是人工智能技术发展需求,围绕以下几方面进行了完善:

 

强化法律责任:加大对违法违规行为的处罚力度,处罚上限提升10倍,最高可达1000万元;

完善监管衔接:加强与相关法律的衔接协调;

新增人工智能安全条款:首次从国家层面将AI安全纳入法律监管范畴。

 

可以说,《网安法修改决定》不仅是对网络安全体系的升级,也正式宣告——AI安全治理已被纳入国家法律层面,成为未来数字中国建设的关键支撑。

 

 

 

01

AI安全纳入立法,意味着什么?

 

在此次修改中,最受关注的内容莫过于对人工智能安全与发展的立法回应。

 

《网安法修改决定》第20条明确提出,支持人工智能基础理论研究和算法等关键技术研发,推进训练数据资源、算力等基础设施建设;同时,也要完善人工智能伦理规范,加强风险监测评估和安全监管。

 

这意味着,AI安全将成为未来网络治理体系的重要组成部分,企业在开发应用AI时需注意以下几点:

 

AI治理制度化:AI研发、部署、使用等将有明确边界,算法滥用、模型泄露、虚假内容生成等问题可依法追责;

AI基础设施安全化:法律首次提到“算力基础设施建设”。这意味着数据中心、云平台、算法训练平台等将被纳入国家安全范畴;

AI伦理治理:国家将制定AI伦理标准、风险评估机制,让AI更透明、更可信。

 

可以预见,未来AI不再是单纯的技术创新议题,而是法律、伦理与治理的系统工程。企业只有在安全与合规的基础上,才能真正释放AI的生产力潜能。

 

 

 

02

法规之下,企业须警惕哪些AI安全挑战?

 

面对AI法治化趋势以及当前企业面临的AI安全挑战,企业在推进AI建设与应用时,需特别关注以下五点AI安全“挑战”:

 

1

图片

隐私泄露风险

 

隐私泄露是AI大模型面临的首要安全问题。

 

在预训练阶段,模型依赖的海量数据往往包含个人隐私和敏感信息,即使经过脱敏或匿名化处理,也可能通过模型输出被“反推”或“复现”。

 

例如,模型可能在回答用户问题时,意外生成含有训练数据中的真实姓名、地址、合同内容等细节。

 

这种“隐性泄露”已成为监管重点。《个人信息保护法》《数据安全法》均要求企业对个人数据处理过程进行最小化与可追溯管理。

 

2

图片

内容滥用风险

 

生成式AI的强大能力带来了便利,也带来了内容滥用的新风险。

 

攻击者可能利用AI模型生成虚假新闻、诈骗信息、深度伪造图像或评论,进而造成舆论误导、市场操纵或社会恐慌。这类风险在社交媒体、金融传播、舆情管理等领域尤为突出。

 

在《网络安全法》修订背景下,“算法内容管理”“生成内容标识”“虚假信息治理”等条款将成为监管常态。

 

企业需主动建立AI内容安全机制,部署生成审查、关键词识别和模型输出监控体系,确保AI生成内容合法、真实、可控。

 

3

图片

决策偏见影响

 

AI模型的决策并非完全客观。由于训练数据中可能存在性别、年龄、地域等社会偏见,模型在信贷审批、招聘筛选、教育评估等场景中可能造成“算法歧视”。

 

这类偏见不仅损害个人合法权益,还可能触发监管问责。《网络安全法》修订中提到“完善人工智能伦理规范,加强风险监测评估和安全监管”。

 

企业在应用AI进行决策时,应通过可解释AI技术、模型公平性评估与外部伦理审查机制,确保算法结果公平、公正、透明。

 

4

图片

黑箱操作与透明度缺失

 

大模型的复杂结构导致决策过程难以解释,形成“黑箱操作”问题。

 

在医疗、金融、司法等高风险领域,若企业无法清晰说明AI决策依据,将面临信任危机与法律风险。未来,监管机构可能要求企业具备模型可解释性报告与算法备案机制。

 

因此,企业应从模型开发阶段就引入可解释性设计,明确输入、逻辑与输出的因果关系,并保留完整的模型调用与审计日志,确保“AI行为可解释、结果可验证”。

 

5

图片

对抗攻击的复杂性

 

AI系统同样可能成为攻击者的目标。攻击者通过精心设计的输入可诱导模型输出错误结果,甚至劫持模型逻辑。

 

这类“对抗攻击”手段包括:输入扰动、模型反演、数据注入等,影响模型稳定性与可信度。

 

企业应根据《网安法》《数据安全法》关于网络防护与风险评估的要求,构建AI安全防御体系,部署模型安全评估、对抗样本检测、行为异常告警等能力,提升模型鲁棒性与防御力。

 

上述风险不仅关系到企业技术安全,更与企业的合规、信誉及社会责任密切相关。

 

在AI逐步融入业务核心环节的今天,企业必须从“安全合规要求”上升为“安全治理能力”建设,建立可审计、可追溯、可问责的AI安全运行体系。

 

 

 

03

实施倒计时,企业如何构建AI合规与安全防线?

 

随着《网安法修改决定》即将于2026年1月正式施行,以及当前企业面临的AI安全挑战,企业亟需开展AI安全与合规建设的“加速度行动”。

 

作为国内领先的数字身份安全厂商,派拉软件在AI安全领域持续探索,提出了以“AI可信访问与智能防护”为核心的创新安全体系。

 

1

图片

AI大模型安全访问控制(AI-IAM)

 

一方面,派拉软件构建了AI大模型安全访问控制体系(AI-IAM),将传统的身份治理能力扩展至AI场景,实现对用户、智能体、Token、会话、大模型等全链路统一认证与访问控制,保障AI应用的安全合规访问。

 

图片

 

整个AI-IAM以统一身份基座为核心,围绕“身份-权限-行为-数据”四维可信闭环,实现从静态管控到动态自适应的升级,核心价值包括:

 

统一身份基座:打通人 + 非人类身份,实现多源融合与跨系统协同,内建密钥统一管理与数字员工(NHI)生命周期治理;

动态策略引擎:ABAC 属性评估 + PDP/PEP 架构,策略下发/响应闭环,按需自动收缩权限范围,实施更复杂且动态的访问控制,以适应不断变化的任务场景和职责;

AI能力深度结合:以AI 网关为统一落点,联合Prompt 引擎、RAG 管道、MCP Server 管控模型调用、工具边界与数据最小暴露;

合规性提升:AI应用下,敏感数据访问合规率可提升至 90%+;

风险驱动决策:仅仅合规已远远不够。通过引入行为基线、异常检测、紧急熔断,从“被动合规”走向“主动风控”。

 

例如,在大型企业推进AI Copilot、知识问答系统或智能研发助理落地场景中,派拉软件AI-IAM可以很好的解决企业面临的“谁能访问模型”、“调用什么数据”、“是否越权使用”等难题。

 

2

图片

AI网关

 

另一方面,派拉软件创新推出了AI网关产品,专为大模型接口安全与流量治理设计,集内容安全审查、上下文增强、多模型路由、访问控制与合规审计等能力于一体,帮助企业以更低成本、更高安全性地接入并统一管理多种大模型服务,全面提升智能化业务能力。

 

图片

 

平台内置完善的提示词管理与上下文增强机制,支持提示词模板、动态提示词装饰器及向量检索,帮助企业构建标准化的提示词体系,显著提升大语言模型(LLM)生成结果的准确性与一致性。

 

在安全层面,AI 网关提供内容审核、合规过滤、令牌速率限制与配额管理等功能,确保模型调用过程中不发生敏感信息泄露,满足金融、政企等行业的合规要求。

 

同时,平台支持主流LLM模型的无缝适配,借助智能语义理解与联邦路由机制实现请求在多个模型间的动态调度与故障切换,从而保障系统的高可用性与灵活扩展。

 

派拉软件还为企业提供完善的 AI 服务可观测能力,包括调用日志、模型可用性监测、访问统计与令牌用量报表,帮助管理者实时掌握模型使用情况与成本分布,实现对 AI 服务的全生命周期可视化治理。

 

通过这两大核心产品能力,企业可在法规施行倒计时前,完成AI访问控制体系的全面构建,实现“安全接入、可信访问、权限可控、数据可管”的AI安全防线。

 

 

 

04

从合规被动到治理主动,AI安全进入新阶段

 

《网安法修改决定》的出台,标志着AI治理进入法治化、体系化、标准化的新阶段。对于企业而言,AI安全已从“可选项”变为了“必答题”。

 

未来,AI治理不只是防风险,更是构筑信任的竞争力。

 

派拉软件将持续以AI-IAM、AI网关等核心产品为基座,加大AI安全产品与技术研发与探索,携手政府、行业与生态伙伴,共建可信、可控、可持续的AI安全新格局,让人工智能在法治护航下安全、稳健地赋能产业创新。