AI分类监管:从治理框架到监管草案,中国正在做什么?

一、引言:AI治理进入"精细化"时代

2025年,全球AI治理的节奏明显加快。欧盟《人工智能法案》(EU AI Act)正式进入分阶段实施,美国各州AI立法此起彼伏,而中国则在年底连续释放两份重量级政策信号——一份是强调"分类分级"的AI安全治理框架升级,另一份是针对拟人化AI服务的专项监管草案。

这两份文件传递出一个清晰的趋势:中国AI治理已从"是否监管"的争论期,全面进入"如何监管"的精细化操作期。

不再是一刀切的禁令,也不再是笼统的原则性倡导,取而代之的是基于风险等级、应用场景和社会影响的多维度分类监管体系。这一转变不仅关乎国内AI产业的健康发展,也将深刻影响全球AI治理规则的博弈格局。

本文将系统梳理这两项政策的核心内容,分析其内在逻辑连续性,并与欧盟AI法案进行横向对比,探讨中国分类监管路径的深层含义。

二、AI分类分级监管框架:按风险"量体裁衣"

2.1 框架核心逻辑

2025年9月,在国家网络安全宣传周主论坛上,《人工智能安全治理框架》2.0版正式发布。这份由中国网络空间安全协会牵头编制的框架文件,最核心的贡献在于确立了**"可信应用、防范失控"**的治理原则,并在此基础上构建了分类分级的安全治理体系。

中国网络空间安全协会副理事长卢卫在2025年12月南都"第九届啄木鸟数据治理论坛"上进一步阐释了这一思路:AI治理应坚持"分类分级",对自动驾驶、智慧医疗等高风险场景严格监管,对低风险应用则留出一定创新空间。

这一框架的核心逻辑可以概括为三个维度:

  • 按应用场景区分:自动驾驶、智慧医疗、金融风控等直接关系人身安全和重大财产利益的场景,被列为重点监管对象;而内容推荐、图像增强等低风险应用,则适用相对宽松的监管要求。
  • 按风险等级区分:根据AI系统可能造成的危害程度,将风险从低到高进行分级,匹配不同强度的监管措施。
  • 按社会影响区分:涉及公共舆论、社会公平、伦理道德等广泛社会影响的AI应用,受到更严格的审视。

2.2 AI风险分级分类表

基于《人工智能安全治理框架》2.0版及公开政策信号,中国AI风险分级体系可归纳如下:

风险等级典型场景监管强度核心要求
高风险自动驾驶、智慧医疗、金融决策、关键基础设施控制严格监管强制安全评估、算法备案、人工干预机制、定期审计
中高风险招聘筛选、信用评估、教育评价、执法辅助较强监管透明度要求、可解释性、申诉机制、数据合规
中风险内容生成(AIGC)、个性化推荐、情感分析适度监管内容标识、用户知情权、基础安全防护
低风险图像增强、文本校对、代码辅助、翻译工具包容审慎行业自律、标准引导、鼓励创新

关键原则:高风险严管,低风险包容审慎。不是所有AI都需要"戴着镣铐跳舞",但涉及人身安全和社会公平的领域,监管必须到位。

2.3 技术治理的"内生安全"理念

值得注意的是,该框架特别强调**"内生安全"**——在AI研发初期就嵌入防护机制,而非事后"打补丁"。这包括:

  • 通过对抗训练增强模型鲁棒性
  • 利用差分隐私保护数据安全
  • 开发算法漏洞智能检测、深度伪造检测、算法审计工具等治理技术

卢卫指出,近年来涉AI网络安全事件呈现两大特点:手段智能化(不法分子将AI作为犯罪工具)和风险场景复杂化(从数字空间渗透到物理世界)。这进一步强化了技术兜底的必要性。

三、AI工具监管草案:拟人化AI的"紧箍咒"

3.1 草案出台背景

2025年12月27日,中国国家互联网信息办公室发布《人工智能基础拟人化交互服务管理暂行措施(征求意见稿)》(以下简称"草案"),面向社会公开征求意见至2026年1月25日。

这是中国首份针对拟人化AI服务的专项监管文件,标志着AI监管从"工具层面"深入到"心理层面"——国家开始关注AI对人类情感、社会关系和心理健康的影响。

3.2 草案核心内容

该草案适用于所有利用AI技术模拟人类思维方式和交流方式的服务,核心要求包括:

(1)非人类属性标注

服务提供者必须在交互过程中明确标识"用户正在与AI交互",确保用户不会将AI误认为真人。这一要求与欧盟AI法案中关于AI系统透明度的规定遥相呼应。

(2)内容安全边界

草案明确划定了多条红线:

  • 不得生成或传播违背社会主义核心价值观的内容
  • 不得产生政治性、道德性、心理性危害
  • 禁止诱导自杀、自伤
  • 禁止情感操纵
  • 禁止作出虚假承诺
  • 禁止算法操纵

(3)使用时长与防沉迷机制

  • 连续使用超过2小时,须推送使用中断建议
  • 对未成年人和老年人设置特别保护措施:监护人同意、紧急联系机制、使用时间限制
  • 明确禁止模拟家庭成员或亲属关系的AI服务面向老年人提供

(4)平台管理责任

  • 注册用户超100万或月活超10万的平台,须向省级网信部门提交安全评估报告
  • 国家互联网信息办公室将搭建"AI沙盒平台",为企业提供技术测试和安全检查支持
  • 交互数据须加密存储,用户有权删除对话记录
  • 敏感信息及未成年人数据未经监护人同意不得向第三方提供或用于模型训练

3.3 监管框架 vs 监管草案对比

以下表格对两份政策文件进行系统性对比,揭示中国AI监管体系的层次结构:

对比维度《AI安全治理框架》2.0版拟人化AI服务监管草案
文件性质行业自律性治理框架行政监管规章(征求意见稿)
适用范围全部AI系统拟人化AI交互服务
核心理念可信应用、防范失控伦理安全、用户保护
分类逻辑按风险等级和应用场景分类按服务形态(拟人化)定向监管
监管工具安全评估、标准制定、技术检测安全评估报告、沙盒平台、数据合规
约束力度柔性引导为主具有法律强制力
重点保护对象公共安全、社会秩序未成年人、老年人、用户心理健康
国际对标欧盟AI法案风险分级体系欧盟AI法案透明度义务及特定AI实践禁令

从对比中可以看出,两份文件形成了**"宏观框架 + 微观专项"**的互补关系:框架文件解决"AI治理的整体思路是什么"的问题,草案则回答"特定类型AI服务具体怎么管"的问题。

四、国际对比:中国路径与欧盟模式的异同

4.1 全球AI监管三大模式

当前全球AI监管格局可大致归纳为三种代表性模式:

监管模式代表经济体核心特征优势挑战
风险分级立法欧盟以《AI法案》为载体,四级风险分类,法律强制力强体系完备、规则明确合规成本高、创新抑制风险
分类分级治理中国框架指导 + 专项立法组合,分类分级、敏捷迭代灵活性强、可快速响应体系碎片化、法律层级有待提升
行业自律为主美国(联邦层面)以行政令、自愿承诺为主,各州分散立法创新友好、市场驱动监管真空、标准不统一

4.2 中欧AI风险分级对比

尽管中国和欧盟都采用了"基于风险的分类监管"思路,但在具体分级标准和监管哲学上存在显著差异:

对比维度欧盟《AI法案》中国分类分级体系
最高风险等级"不可接受风险"——完全禁止(如社会评分、潜意识操纵)"高风险"——严格监管但未完全禁止
高风险定义法定清单制(8类具体场景)框架指引 + 动态评估
中风险处理透明度义务(如聊天机器人须披露AI身份)适度监管 + 行业标准引导
通用AI模型专门章节监管(GPAI),要求系统性风险评估暂无专门分类,纳入整体框架
拟人化AI未设专门条款,散见于透明度义务专项立法,全面规范
执法机制统一执法(欧盟委员会 + 各国监管机构)多部门协同(网信办、工信部等)
处罚力度最高全球营收7%罚款按具体法规分别设定

4.3 中国路径的独特性

对比之下,中国AI分类监管路径呈现出三个独特特征:

第一,敏捷迭代。 从《生成式人工智能服务管理暂行办法》(2023年)到《AI安全治理框架》2.0版(2025年9月),再到拟人化AI监管草案(2025年12月),中国在两年多时间内形成了多层次的监管体系。这种快速迭代能力,使得政策能够紧跟技术发展步伐。

第二,专项突破。 针对拟人化AI出台专项监管草案,在全球范围内具有开创性。欧盟AI法案虽然体系完备,但并未对"模拟人类情感的AI"设立专门规则。中国此举表明,监管视野已从"AI能做什么"扩展到"AI会让人类产生什么感受"。

第三,技术治理并重。 中国框架特别强调"技术兜底"——用对抗训练、差分隐私、算法审计等技术手段解决安全问题,而非单纯依赖法律规制。这种"以技术治理技术"的思路,在欧盟框架中相对少见。

五、政策逻辑的连续性分析

回顾中国AI治理的政策脉络,可以清晰地看到一条从粗放到精细、从原则到操作、从单一到体系的演进路径:

2023年7月  《生成式人工智能服务管理暂行办法》——首个AIGC专项监管

2024年7月  《人工智能安全治理框架》1.0版——行业自律性框架

2025年10月 《网络安全法》修正案——AI安全条款入法

2025年9月  《人工智能安全治理框架》2.0版——分类分级体系确立

2025年12月 拟人化AI服务监管草案——从工具监管到心理层面监管

这条时间线揭示了一个核心逻辑:中国AI治理正在构建一个"法律定底线、框架定方向、专项定规则"的三层治理架构。

  • 法律层:《网络安全法》《数据安全法》等上位法划定不可逾越的红线
  • 框架层:《AI安全治理框架》提供分类分级的方法论和指导原则
  • 专项层:针对特定AI应用形态(如生成式AI、拟人化AI)出台具体监管规则

这种架构既保证了监管的体系性,又保留了足够的灵活性来应对技术快速变化带来的新挑战。

六、评论:分类监管为何是当前最优解?

6.1 不是"放松监管",而是"精准监管"

有人将分类分级解读为"放松监管"的信号,这是一种误读。分类监管的本质是资源优化配置——将有限的监管资源集中到最高风险的领域,而非对所有AI应用施加同等强度的约束。

对自动驾驶、智慧医疗等高风险场景,监管要求实际上是在加码而非放松。分类监管的真正含义是:该严的地方严到位,该宽的地方宽到边。

6.2 难点在于"如何分类"

分类监管面临的最大实操挑战是分类标准的科学性和一致性。同一个AI系统在不同应用场景下可能呈现不同的风险等级——一个图像识别模型用于照片分类是低风险,用于医疗影像诊断则可能是高风险。

此外,随着AI技术向通用人工智能(AGI)方向演进,传统基于"应用场景"的分类方法可能面临失效风险。一个具备广泛能力的通用模型,很难被简单归入某一风险等级。这意味着分类标准本身需要持续更新和动态调整。

6.3 对开发者:从"不确定"走向"可预期"

从产业视角看,分类分级监管最大的价值在于降低合规不确定性。当开发者清楚自己所在领域的风险等级和对应监管要求后,就可以在产品设计的早期阶段嵌入合规考量,而非在产品上线后面临"政策突袭"。

拟人化AI监管草案中提出的"AI沙盒平台"机制,更是为开发者提供了一个在受控环境中测试和验证合规性的安全空间。这种"监管沙盒"思路,在全球AI治理实践中正在成为共识。

七、结语

从《AI安全治理框架》2.0版的分类分级体系,到拟人化AI服务监管草案的专项突破,中国AI治理正在走出一条兼具体系性和灵活性的路径。

在全球AI治理规则加速成型的当下,中国的分类监管实践不仅为国内AI产业提供了更清晰的合规指引,也为全球AI治理贡献了一种不同于欧盟"统一立法"和美国"行业自律"的第三种方案。

未来的关键在于:分类标准能否保持科学性和动态更新能力,专项监管能否在保护用户权益的同时避免过度抑制创新,以及中国能否在国际AI治理规则制定中发挥更大的建设性作用。

这些问题的答案,将在未来几年的政策实践中逐步浮现。


参考来源

  1. 腾讯新闻|南方都市报,《AI治理应分类严管高风险场景》,2025年12月24日。https://view.inews.qq.com/a/20251224A025IE00
  2. Times of India|"China proposes stricter safeguard for AI tools, issues draft rules", 2025年12月。https://timesofindia.indiatimes.com/technology/tech-news/china-proposes-stricter-safeguard-for-ai-tools-issues-draft-rules/articleshow/126207320.cms
  3. 中国网信办|《人工智能安全治理框架》2.0版,2025年9月。https://www.cac.gov.cn/2025-09/26/c_1760606717425964.htm
  4. 中国日报|"China weighs draft amendment to cybersecurity law to better promote, regulate sound AI development", 2025年10月。https://www.chinadaily.com.cn/a/202510/24/WS68fb650ea310f735438b6d26.html
  5. 欧盟议会|EU AI Act (Regulation (EU) 2024/1689), 2024年。https://artificialintelligenceact.eu/
迈向第三代人工智能
人工智能素养:内涵剖析与评估标准构建