← 返回资讯
政策法规

中国 AI 监管新规落地:生成式 AI 服务需通过安全评估方可上线

2026 年一季度,中国 AI 监管体系进入新的强化阶段。国家互联网信息办公室(网信办)发布了《生成式人工智能服务管理暂行办法》的最新实施细则,对面向公众提供生成式 AI 服务的企业提出了更为具体和严格的合规要求。

核心要求:算法备案 + 安全评估

根据新规,凡是向中国境内用户提供基于大语言模型的生成式 AI 服务(包括文本、图像、音频、视频生成),均需在正式上线前完成两项核心合规工作:

算法备案:企业须向网信办报备所使用的生成式 AI 算法的基本信息,包括训练数据来源、模型架构类型、主要应用场景及潜在风险说明。备案信息将被纳入国家算法登记系统。

安全评估:对于具有舆论属性或社会动员能力的生成式 AI 服务,须在上线前通过网信办组织的安全评估,评估内容涵盖内容合规性、数据安全、用户信息保护、生成内容溯源机制等多个维度。

对不同规模企业的差异化影响

新规对头部平台和中小企业的影响存在明显差异。

对于百度、阿里、腾讯、字节等已拥有专业合规团队的大型企业,新规更多意味着流程规范化和文档工作量的增加,整体影响可控。这些企业普遍已在内部建立了 AI 内容审核机制和安全测试流程,新规的出台某种程度上是对现有实践的制度化确认。

对于中小企业和创业公司而言,挑战则更为现实。完成一次完整的安全评估,通常需要 2-4 个月的周期和相当的合规成本。部分初创公司选择将核心服务转型为企业级定向服务(ToB),以规避面向公众服务所触发的更高合规门槛。

国际视角:与欧盟 AI Act 的异同

中国此轮 AI 监管的路径,与欧盟《人工智能法案》(AI Act)既有相似之处,也存在本质差异。

相似之处在于:两者均采用风险分级管理思路,对高风险 AI 应用设置更严格的准入门槛,并均要求一定程度的算法透明度。

主要差异在于实施逻辑:欧盟 AI Act 以"应用场景风险"作为主要分级维度,聚焦于信用评分、执法、医疗诊断等特定高风险场景;中国新规则更侧重于"服务对象范围"和"内容安全",对面向不特定公众的生成式服务一律设置备案和评估门槛,与中国互联网内容监管的既有逻辑一脉相承。

对从业者的实际影响

对于正在构建基于 AI 的产品或服务的从业者,以下几点值得重点关注:

首先,如果你的产品面向中国境内用户,且涉及 AI 生成内容功能,算法备案应纳入产品上线前的标准流程,而非事后补做。

其次,选择已通过相关备案的第三方 AI API(如百度文心、阿里通义等国内合规平台)作为底层服务,可以显著降低自身的合规压力,但需注意接入方的责任界定。

第三,企业级定向服务(不面向不特定公众)目前处于相对宽松的监管空间,这一窗口期值得创业公司审慎利用。

整体而言,此轮监管细则的落地,将加速 AI 行业的合规成本分化,并促使更多从业者将合规能力视为核心竞争力的一部分,而非纯粹的外部约束。

深度学习

将 AI 工具转化为实际生产力

了解行业动态只是第一步。如何系统地将 AI 融入你的工作流、构建可复用的操作框架,才是真正的竞争优势所在。

获取 Playbook