12月27日,国家互联网信息办公室就《人工智能拟人化互动服务管理暂行办法(征求意见稿)》公开征求意见。
其中提到,提供者应当落实拟人化互动服务安全主体责任,建立健全算法机制机理审核、科技伦理审查、信息发布审核、网络安全、数据安全、个人信息保护、反电信网络诈骗、重大风险预案、应急处置等管理制度,具有安全可控的技术保障措施,配备与产品规模、业务方向和用户群体相适应的内容管理技术和人员。
用户连续使用拟人化互动服务超过2个小时应当弹窗提醒用户暂停使用
意见稿提出,拟人化互动服务提供者应当显著提示用户正在与人工智能而非自然人进行交互。提供者识别出用户出现过度依赖、沉迷倾向时,或者在用户初次使用、重新登录时,应当以弹窗等方式动态提醒用户交互内容为人工智能生成。用户连续使用拟人化互动服务超过2个小时的,提供者应当以弹窗等方式动态提醒用户暂停使用服务。提供者提供情感陪伴服务时,应当具备便捷的退出途径,不得阻拦用户主动退出。用户在人机交互界面或者窗口通过按钮、关键词等方式要求退出时,应当及时停止服务。提供者下线相关功能或者因技术故障等导致拟人化互动服务无法使用,应当采取提前告知、公开声明等措施妥善处理。提供者应当健全投诉、举报机制,设置便捷的投诉、举报入口,公布处理流程和反馈时限,及时受理、处理并反馈处理结果。
拟人化互动服务提供者应当建立未成年人模式 向用户提供未成年人模式切换、使用时长限制等选项
意见稿提出,提供者应当建立未成年人模式,向用户提供未成年人模式切换、定期现实提醒、使用时长限制等个性化安全设置选项。提供者向未成年人提供情感陪伴服务时,应当取得监护人的明确同意;提供监护人控制功能,监护人可以实时接收安全风险提醒,查阅未成年人使用服务的概要信息,设置屏蔽特定角色、限制使用时长、防止充值消费等。提供者应当具备识别未成年人身份的能力,在保护用户个人隐私前提下识别为疑似未成年人的,切换至未成年人模式,并提供申诉渠道。
综合自人民财讯等
责编:梁秋燕
校对:冉燕青



































