平时我们刷手机遇到的AI陪伴助手、虚拟情感好友,甚至给老人孩子提供陪伴的智能互动产品,今后将有明确的“行为规范”了。据央视新闻报道,今年7月15日,《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》)将正式施行。
针对未成年人保护,《办法》作出明确规定:严禁向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务;向不满十四周岁未成年人提供其他拟人化互动服务的,应当取得未成年人的父母或者其他监护人的同意;要求建立未成年人模式,支持监护人管控使用行为、限制充值消费等。
《办法》的施行,无疑具有标志性的意义,清晰和坚定地向AI应用划出了红线:必须谨慎介入关系、社交,尤其要坚决贯彻未成年人保护各项机制原则。
近年来,在AI应用加速普及的同时,部分AI产品也开始尝试介入人的社交关系和精神世界,由此也引发了伦理争议。压力之下,企业“被动纠偏”,多个企业宣布限制未成年人使用开放式聊天功能等。但从《新京报》等媒体报道看,出于流量和商业回报需求,多款产品的未成年人保护和防沉迷机制沦为摆设。
仅靠企业被动纠偏、舆论呼吁,难以建起真正的未成年人保护共识和机制。因此,政府从行业领域树立监管原则已迫在眉睫。
从现实案例看,AI拟人类应用带来的挑战,已从单一工具使用风险问题,升级为介入关系和精神领域的结构性危机。
与工具、内容等场景不同,虚拟伴侣的核心机制,是通过持续对话与情绪反馈,模拟一个“始终在线、始终理解、始终回应”的关系对象。这种关系因为消除了现实摩擦而具备了成瘾性,但也因为缺少现实摩擦,极易形成极端风险。
当一个尚未完成社会化的未成年人,把主要情感、关系建立在不会拒绝、不会冲突、不断迎合的“虚拟伴侣”之上,其结果是现实关系和情感认知被重塑。现实中的不确定、摩擦与责任,反而变得难以承受。
这正是《办法》禁止虚拟伴侣面向未成年人的底层价值。新规不是对技术本身的发展予以限制,而是防止技术过早被用于侵蚀未成年人的情感结构和关系网络。
从治理细则看,这一《办法》也做了具体的规定和约束。对于为未成年人提供亲密关系服务的高风险场景,划定红线直接禁止,而对于其他类型产品,则需要完整建设年龄识别、监护人同意、使用时长管理、情绪干预等机制,构建分层保护体系,形成缓冲地带,保护创新。
可见,《办法》出台只是起点,未来不仅需要进一步从监管要求落实到产品应用,还要根据技术的进步,不断细化、调整。
AI可以辅助情感,但不能替代情感,更不能越界侵入情感和关系。尤其对于未成年人而言,其成长本质是在真实关系和社会互动中完成社会化。理解差异、处理冲突、承担责任,这些都无法在“完美回应”的虚拟关系中获得。
因此,新规落地,关键在执行,责任更在相关企业。距离《办法》施行已进入倒计时,相关AI企业应主动扛起主体责任,将未成年人保护内嵌到产品设计、算法逻辑与运营全流程。技术向善从来不是一句口号,而是企业必须坚守的伦理底线与市场准则。
唯有放弃短视的流量思维与逐利冲动,在技术创新与社会责任之间找到平衡,才能让AI真正成为成长的助力而非隐患,从而实现可持续发展。