于国富律师|从内容治理到关系治理:人工智能拟人化互动服务规制的中国路径、比较法观察与制度边界

一、问题的提出

2026年4月10日,国家互联网信息办公室、国家发展改革委、工业和信息化部、公安部、市场监管总局联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称《拟人化互动办法》),并明确自2026年7月15日起施行。[1] 从表面上看,这似乎只是中国人工智能治理体系中的又一部部门规章;但若将其置于近几年中国人工智能规范演进的连续脉络中观察,则可发现,其意义并不在于单纯重复既有的内容安全、数据合规与平台责任要求,而在于首次较为系统地将“拟人化互动”本身作为独立的规制对象加以处理。

所谓“拟人化互动服务”,并非普通意义上的人机问答或通用信息检索,而是指利用人工智能技术模拟自然人人格特征、思维模式和沟通风格,通过持续性交互形成陪伴、安抚、劝服、依赖乃至关系替代效果的服务形态。此类服务与传统生成式人工智能的根本差异在于,其风险并不主要体现于某一条输出内容是否合法、准确与否,而是更可能体现为长期互动所形成的情绪牵引、心理依赖、行为诱导和现实社会关系弱化。正因如此,对拟人化互动服务的法律评价,已不能停留于“内容是否合法”这一层面,而应进一步进入“关系是否被不当塑造”“脆弱性是否被商业化利用”“人格自治是否受到实质性影响”的层面。

基于此,本文拟提出如下基本判断:《拟人化互动办法》的制度意义,在于标志着中国人工智能治理正在从以内容风险为中心的规范结构,逐步迈向以关系风险、脆弱性风险与行为影响风险为中心的新阶段。 围绕这一判断,本文将依次讨论以下问题:其一,《拟人化互动办法》在中国既有人工智能规范体系中的位置何在;其二,拟人化互动服务为何值得单独立规;其三,从比较法上看,欧盟、美国、英国与澳大利亚对类似问题采取了何种路径;其四,中国此项规制所揭示的制度创新与潜在边界为何。

二、中国人工智能规范体系的纵向演进及其阶段性转向

要理解《拟人化互动办法》的制度定位,首先必须将其放回中国近几年的人工智能治理序列之中。从时间与规范目标来看,中国相关制度演进大体经历了以下几个阶段。

第一,算法推荐治理阶段。这一阶段以《互联网信息服务算法推荐管理规定》为代表,其于2022年3月1日起施行。[2] 该规定的主要问题意识,在于平台如何利用排序、推送、检索过滤、调度决策等算法机制塑造用户注意力、影响消费行为并可能诱发沉迷。换言之,此阶段规制的核心是“分发权力”问题,即信息如何被分发、谁控制分发逻辑,以及算法如何对个体选择造成结构性影响。

第二,深度合成治理阶段。2023年1月10日起施行的《互联网信息服务深度合成管理规定》,将监管重点转向合成技术所带来的“真假混淆”与“身份误认”风险。[3] 其制度重心不再只是分发过程,而是合成内容本身是否足以误导公众、侵害人格权、扰乱社会秩序,因此显著标识义务、合成服务安全评估义务以及对违法用途的禁止性要求,成为该阶段规范设计的关键。

第三,生成式人工智能综合治理阶段。2023年8月15日起施行的《生成式人工智能服务管理暂行办法》,将数据来源、模型训练、内容安全、知识产权、个人信息保护、未成年人保护等要求纳入同一框架。[4] 与前两个阶段相比,该办法的重要性在于,它不再只针对某一具体技术形态,而是开始将面向公众提供的生成式人工智能服务作为整体加以治理,形成一种“模型服务责任”逻辑。

第四,生成合成内容识别与传播治理阶段。2025年3月14日公布的《人工智能生成合成内容标识办法》,则进一步聚焦于生成合成内容在传播链条中的可识别性和可追踪性。[5] 这表明监管重心开始从“生成环节”进一步延伸至“传播环节”,所关注的问题是:哪些内容由人工智能生成、如何标识、如何使后续平台与公众能够识别和处理相关内容。

从上述演进可见,中国人工智能治理此前主要围绕三个维度展开:一是算法如何影响信息分发,二是内容如何被生成或合成,三是生成内容如何在传播链条中被识别与管理。无论是算法推荐规制、深度合成规制,还是生成式人工智能规制,其共同特征都在于,规制对象主要是“内容”或“服务输出”。而《拟人化互动办法》的出现,则意味着规范视角开始发生重要位移:法律不再仅仅关心“人工智能生成了什么”,而开始关心“人工智能如何与人建立互动关系,以及这种关系如何影响人的心理、行为与现实社交结构”。

三、拟人化互动服务单独立规的规范理由

《拟人化互动办法》之所以值得关注,关键在于其所回应的风险并非传统内容风险,而是一种更具隐蔽性和持续性的“关系性风险”。这一点至少可以从以下三个层面加以说明。

其一,拟人化互动服务的风险发生机制不同于一般生成式人工智能。一般生成式人工智能的典型风险,多体现为输出虚假信息、侵害知识产权、泄露个人信息、生成不良内容等问题;而拟人化互动服务的风险,往往生成于持续性交互过程之中。它不依赖某一条回答本身违法,而可能依赖“长时间的人设维持”“情绪反馈强化”“关系暗示”“记忆积累”“回应风格适配”等机制,使用户在情感上形成对系统的依附。就此而言,风险并不总是显性的内容违法,而更可能是一种渐进式的行为影响过程。

其二,拟人化互动服务具有更强的脆弱性利用可能。孤独、失恋、焦虑、抑郁、未成年人心理发展不稳定、老年人陪伴匮乏、特殊群体社交受限等情境,都可能使个体更易与拟人化系统形成非对称依赖关系。若服务提供者进一步通过算法优化、对话策略设计和商业化转化路径,将此类脆弱状态转化为用户留存、付费与高频使用的资源,那么问题就不再是一般意义上的产品吸引力,而可能构成对用户脆弱性的结构性利用。欧盟《AI Act》在其禁止性实践条款中,已将利用年龄、残障和特定社会经济处境脆弱性的人工智能实践纳入严格限制范围,这一思路对理解中国此次立规具有重要参照意义。[6]

其三,拟人化互动服务触及人格自治与现实关系秩序。若某类系统被设计为“替代社会交往”“模拟亲密关系”“持续提供情绪安抚和价值引导”,那么其介入的就不再只是信息处理,而是人的情感结构与社会关系结构。在此意义上,法律需要保护的对象已经不是传统的单一信息权益,而是个体在技术环境中的现实感、边界感与自治能力。也正因此,《拟人化互动办法》中有关“情感边界引导”“依赖风险预警”“不得将替代社会交往、控制用户心理、诱导沉迷依赖等作为设计目标”的要求,具有明显超出既有内容治理框架的意义。[7]

因此,可以认为,《拟人化互动办法》并非简单重复《生成式人工智能服务管理暂行办法》已有要求,而是在既有制度基础上,引入了一个新的规范中心:从对内容输出结果的治理,转向对关系塑造过程的治理。

四、《拟人化互动办法》的制度创新:从输出责任到关系设计责任

若从制度机理上分析,《拟人化互动办法》至少体现出三项值得重视的创新。

第一,规制对象的独立化。该办法并未将拟人化互动视为一般生成式人工智能服务的边缘情形,而是将其抽象为一类具有独立风险特征的服务形态。这意味着,在中国人工智能治理框架中,首次出现了以“关系场景”而非单纯技术能力为基础的专门立规。这种立法技术本身就表明,监管者已认识到同为大模型驱动产品,信息问答、内容生成与人格化陪伴之间存在实质差异,不能完全适用同一套治理逻辑。

第二,保护法益的扩展化。此前人工智能规范主要保护国家安全、社会公共利益、网络生态秩序、人格权、个人信息权益、知识产权等对象;而《拟人化互动办法》进一步将心理健康、依赖风险防控、未成年人关系边界保护等纳入制度考量。此种变化说明,人工智能规制的法益结构正在扩展,开始包含人的情感自治与心理完整性等更具人格法色彩的内容。

第三,责任结构的前置化。传统平台治理往往强调对违法内容的发现、处置和下架,而《拟人化互动办法》强调服务全生命周期的安全责任,包括设计、运行、升级和终止等阶段的安全要求。这表明,企业责任不再局限于“结果处置责任”,而是进入“设计预防责任”与“结构性安全责任”的范畴。换言之,法律开始要求企业不仅对系统说了什么负责,而且要对系统为何如此与用户互动、是否通过结构设计制造依赖负责。

在此基础上,本文认为有必要提出“关系设计责任”这一概念。所谓关系设计责任,是指当人工智能服务以拟人化方式与用户进行持续互动,并可能对用户情感、心理、认知和现实社交造成实质影响时,服务提供者应对其交互架构、人设设定、关系暗示、情绪强化机制和依赖性设计承担前置性的风险控制义务。这一责任与传统内容审核责任不同,它所面向的不是单条内容是否合法,而是产品是否通过系统性设计构造了不当的人机关系。未来无论是行政执法还是司法裁判,若要真正回应拟人化互动风险,恐怕都必须逐步进入这一层面。

五、比较法观察:从透明义务到脆弱性保护的不同路径

从国际上看,针对 AI 伴侣、拟人化聊天机器人和关系型人工智能的规制,虽尚未形成统一模式,但若干主要法域已呈现出不同方向的制度探索。

(一)欧盟:以高位原则和透明义务覆盖关系型风险

欧盟《AI Act》并未针对“AI 伴侣”或“拟人化互动服务”单独制定专项法规,但其相关条款已为规制此类产品提供了重要基础。一方面,Article 5 明确禁止通过操纵性、欺骗性技术,或利用年龄、残障、特定社会经济处境等脆弱性,对人的行为进行实质扭曲并造成重大伤害。[8] 另一方面,Article 50 要求与自然人直接互动的 AI 系统应当使用户知悉其正在与 AI 互动,同时要求一定范围内的 AI 生成内容承担透明标识义务。[9]

欧盟路径的特点在于,其并未以场景立规为主,而是通过高位原则与风险分类实现广覆盖。其优点在于原则体系完整,能够将拟人化互动中最具危险性的操纵与脆弱性利用行为纳入禁止性框架;但其不足也在于,对 AI 伴侣这类高度场景化、关系化的服务,目前仍主要依赖一般原则与后续细化规则,尚未形成类似中国《拟人化互动办法》这种专门面向场景的前置治理框架。

(二)美国:州法先行,偏重消费者保护与民事责任

美国联邦层面对拟人化互动服务尚无统一成文法框架,但州法已开始先行。加州 2025 年通过的 SB 243《Companion chatbots》具有代表性。该法要求,在合理人可能误认其正在与真人互动时,运营者必须作出清晰、显著的 AI 身份提示;运营者应建立防止自杀、自残内容输出的协议,并在用户表达相关倾向时提供危机救助信息;对于已知为未成年人的用户,还需定期提醒其正在与 AI 互动,并采取合理措施防止输出性明确内容。[10]

美国路径的特点在于,其主要通过消费者保护、儿童安全、精神健康风险防控以及民事救济机制切入,对企业施加披露义务、危机干预义务和潜在侵权责任。这与中国通过部门规章构建统一前端义务的路径有所不同。前者更依赖私人诉权与事后责任,后者更强调行政监管、前置评估与持续合规义务。就拟人化互动服务而言,美国的经验提醒我们,未来中国若要增强规则的实效性,除行政监管外,是否需要在侵权法、消费者权益保护法或未成年人保护框架下建立更清晰的民事责任路径,也值得进一步讨论。

(三)英国:在线安全法兜底,逐步补足专门缺口

英国目前主要通过《Online Safety Act》处理聊天机器人和 AI 内容相关问题。Ofcom 于 2025 年底发布的官方说明指出,部分聊天机器人若构成用户对用户服务、搜索服务,或涉及生成色情内容的在线服务,则可能落入现有在线安全框架之中;但纯粹的单用户对机器人的对话服务并不当然被全面覆盖。[11] 此后,英国政府于 2026 年 2 月、3 月连续就 AI chatbots 与儿童保护问题开展政策动作,反映出其已意识到现行制度对新型关系型 AI 仍存在覆盖不足。[12]

英国的路径表现出一种“既有法兜底+后续补缺口”的治理逻辑。相较之下,中国通过《拟人化互动办法》直接承认拟人化互动具有特殊风险属性,并以前置立规方式处理,规范节奏更快,治理指向也更明确。

(四)澳大利亚:强监管机关主导的执法驱动型治理

澳大利亚 eSafety Commissioner 在 2025 年和 2026 年围绕 AI companions 发布了一系列执法通知、风险报告和信息说明,重点关注儿童接触不适龄内容、自杀自残引导、年龄验证失效以及平台防护措施不足等问题。[13] 这一治理模式的特点在于,并不先形成一部结构完整的专门法,而是由具有较强执行力的监管机关通过调查、督促、公开报告和问责程序压实平台责任。

澳大利亚经验提示我们,针对拟人化互动服务这类快速演化的产品,仅有抽象规则可能不足,仍需辅之以高频率、专业化、持续性的监管实践。就中国而言,《拟人化互动办法》的出台只是第一步,后续若缺乏技术标准、典型执法和案例化解释,则规则的边界与实效仍可能存在不确定性。

六、《拟人化互动办法》的制度边界与未来争点

尽管《拟人化互动办法》具有明显的前瞻意义,但其实施亦将面对若干制度边界问题。

首先,是概念边界问题。何谓“拟人化互动”,何谓“持续性情感互动”,如何区分普通对话式助手与高风险关系型系统,均有待进一步明确。若规制对象界定过宽,可能导致一般智能助手、教育辅导工具、适老服务产品都被纳入高强度治理;若界定过窄,则可能放过真正依赖人格模拟、关系暗示和情绪绑定获利的高风险产品。因此,后续技术标准和执法解释如何刻画“拟人化程度”“持续性”“情感性”“关系替代性”等要素,将直接影响该办法的适用范围。

其次,是技术可执行性问题。依赖风险、情感操控、替代社会交往等概念具有明显的行为科学与心理学属性,如何将其转化为企业可理解、可实施、可验证的合规要求,并非易事。若规则停留于原则层面,企业可能难以据此建立内部审核和产品设计边界;若规则过度具体,又可能抑制正常创新或导致形式化合规。

再次,是创新激励与风险控制的平衡问题。拟人化互动服务并不当然有害。适老陪伴、特殊群体沟通支持、心理辅助性提醒、儿童教育互动等场景,本身可能具有现实价值。因此,法律不宜简单将“人格化”“陪伴性”与“危险性”直接等同,而应更精准地区分“合理辅助”与“关系型操控”。从这个意义上说,《拟人化互动办法》的未来实施效果,不仅取决于规则文本本身,更取决于监管者能否形成一套场景化、分层化、可解释的执法标准。

最后,是责任体系的衔接问题。当前《拟人化互动办法》主要体现为行政监管逻辑,但拟人化互动所造成的损害,未来很可能以人格权侵害、消费者权益侵害、未成年人保护侵害、甚至精神损害赔偿争议的形式进入司法程序。因此,部门规章如何与民法典人格权编、未成年人保护法、消费者权益保护法等制度实现衔接,将是下一阶段值得关注的议题。

七、结论

总体而言,《人工智能拟人化互动服务管理暂行办法》的出台,说明中国人工智能治理已不再满足于围绕算法推荐、深度合成、生成式内容和传播标识构建规则,而是开始正面面对一个更深层的技术法问题:当人工智能能够通过人格模拟和持续性交互进入人的情感生活与关系结构时,法律应当如何保护个体的自治能力、现实关系能力和脆弱状态下的自由判断。

从这个意义上说,《拟人化互动办法》的最大制度价值,不在于它增加了多少新的合规事项,而在于它确认了一种新的治理对象和法益结构。其真正关切的,已不只是“人工智能是否生成违法内容”,而是“人工智能是否正在不当塑造人与技术之间的关系”。这一点,标志着中国人工智能法治正从内容治理迈向关系治理,从一般安全治理迈向脆弱性治理与行为影响治理。未来围绕 AI 伴侣、虚拟亲密关系、数字人格和关系型算法的争议,极有可能成为人工智能法治的核心议题之一。

若作更概括性的表达,可以说:在人工智能能够“像人一样说话”之后,法律的下一个任务,不只是辨别它说了什么,而是判断它试图成为什么、占据何种关系位置,以及这种关系是否应被允许被设计、被经营和被商业化。 《拟人化互动办法》正是这一转向的起点。

注释与参考资料

[1] 国家网信办、国家发展改革委、工业和信息化部、公安部、市场监管总局:《国家网信办等五部门联合公布〈人工智能拟人化互动服务管理暂行办法〉》,2026年4月10日,见:https://www.cagd.gov.cn/v/2026/04/8923.html。

[2] 国家互联网信息办公室:《互联网信息服务算法推荐管理规定》,2022年1月4日公布,2022年3月1日起施行,见:https://www.cac.gov.cn/2022-01/04/c_1642894606364259.htm。

[3] 国家互联网信息办公室:《互联网信息服务深度合成管理规定》,2022年12月11日公布,2023年1月10日起施行,见:https://www.cac.gov.cn/2022-12/11/c_1672221949354811.htm。

[4] 国家互联网信息办公室等七部门:《生成式人工智能服务管理暂行办法》,2023年7月13日公布,2023年8月15日起施行,见:https://www.cac.gov.cn/2023-07/13/c_1690898326795531.htm。

[5] 国家互联网信息办公室等四部门:《人工智能生成合成内容标识办法》,2025年3月14日公布,见:https://www.cac.gov.cn/2025-03/14/c_1743654684782215.htm。

[6] Regulation (EU) 2024/1689, Article 5, EUR-Lex, 见:https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689。

[7] 关于《人工智能拟人化互动服务管理暂行办法(征求意见稿)》的公开文本与专家解读,见中国网信网:

https://www.cac.gov.cn/2025-12/27/c_1768571207311996.htm。

[8] 同注[6]。

[9] Regulation (EU) 2024/1689, Article 50, EUR-Lex, 同注[6]。

[10] California Senate Bill 243, Companion chatbots, 见:https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202520260SB243。

[11] Ofcom, AI chatbots and online regulation – what you need to know, 18 December 2025, 见:https://www.ofcom.org.uk/online-safety/illegal-and-harmful-content/ai-chatbots-and-online-regulation-what-you-need-to-know。

[12] UK Government, PM: “No platform gets a free pass”: Government takes action to keep children safe online, 15 February 2026;以及 Landmark consultation seeks views on major measures to protect children on social media, gaming platforms and AI chatbots, 2 March 2026,见:https://www.gov.uk/。

[13] eSafety Commissioner, AI companions: information sheet;eSafety report shows AI companions are putting children at risk,见:https://www.esafety.gov.au/。