联系
我们
投稿
反馈
评论 返回
顶部

内容字号: 默认 大号超大号

段落设置: 段首缩进取消段首缩进

字体设置:切换到微软雅黑切换到宋体

网信办新规拟要求AI服务干预极端情绪

2025-12-27 20:36 出处:互联网 人气: 评论(
网络游戏

近日,国家互联网信息办公室发布了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,向社会公开征求意见。该意见稿针对日益普及的AI拟人化互动服务,如智能聊天伴侣、情感陪伴机器人等,提出了明确的管理要求,其中关于服务提供者需对用户极端情绪和沉迷状态进行识别与干预的规定,引发了广泛关注。

根据意见稿内容,人工智能拟人化互动服务的提供者被赋予了一项新的责任。文件明确提出,提供者应当具备用户状态识别能力,在严格保护用户个人隐私的前提下,对用户的情绪状态以及对产品和服务的依赖程度进行评估。一旦发现用户存在极端情绪或出现沉迷倾向,服务提供者有义务采取“必要措施予以干预”。

这一规定将AI服务从被动的响应工具,转向了具有一定主动关怀与风险防范功能的角色。意见稿对此类干预措施给出了具体指引:服务提供者应预设专门的回复模板。当系统识别到用户对话中流露出涉及威胁自身生命健康或财产安全的“高风险倾向”时,应及时输出包含安抚、鼓励用户寻求帮助等内容的预设回复,并向用户提供获取专业援助的有效方式。

网络游戏配图

对于更为紧急和极端的情境,意见稿要求建立更严格的应急响应机制。若用户在互动中明确提出实施自杀、自残等极端行为,系统不应仅依赖自动化回复,而必须启动人工接管对话流程。同时,服务提供者需及时采取措施,联络用户的监护人或紧急联系人,以进行现实世界的干预和救助。

值得注意的是,意见稿特别强调了对于未成年人及老年人等需要特别关注用户群体的保护。针对这两类用户,服务提供者应在用户注册环节,即要求填写其监护人、紧急联系人的有效信息,为可能需要的应急联络做好前置准备。这一条款旨在通过技术手段,为高风险群体构建一道额外的社会安全网。

当前,具备拟人化互动能力的AI应用已深入日常生活,在提供陪伴、娱乐、咨询服务的同时,其深度互动也可能对用户心理状态产生显著影响。国家网信办此次起草的管理办法,意在引导行业将用户心理健康与社会责任纳入产品设计与运营的核心考量。它标志着我国对生成式人工智能及深度互动服务的管理,正从初期的内容安全、数据安全范畴,进一步拓展至对用户个体福祉与公共安全层面的精细化治理。

该征求意见稿的发布,为相关企业设定了明确的发展与合规方向。如何在技术创新、用户体验、隐私保护与社会责任之间取得平衡,将成为AI拟人化互动服务领域下一阶段发展的关键议题。公众可通过指定渠道反馈意见,该办法在完善后正式实施,预计将对行业生态产生深远影响。

分享给小伙伴们:
本文标签: 网络游戏

更多文章

相关文章

Copyright © 2002-2014 版权所有