国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》,9月1日起正式施行,“标识办法”明确所有AI生成的文字、图片、视频等内容都要“亮明身份”。
所谓“亮明身份”,就是人工智能合成内容,今后要添加显式标识和隐式标识。这一被网友戏称为“脑门上刻字”的举措无疑具有深远意义,有助于规范生成内容的传播秩序,有效遏制虚假信息的滋生与蔓延。
近年来,人工智能特别是生成式AI技术突飞猛进,各类大模型如雨后春笋般涌现。它们极大提升了内容创作与信息处理的效率,但同时,以假乱真的内容生成能力,使得真实与虚构的边界日益模糊,虚假营销、网络诈骗乃至恶意造谣等技术滥用问题伴随而生。
此前,中国工程院院士张伯礼被AI换脸,用于某美白产品的虚假宣传;近期,有知名台球运动员公开报警,称其形象被AI技术恶意生成不实视频,遭受“造黄谣”之害……类似案例屡见不鲜。
无论是冒用名人身份带货行骗,还是利用AI炮制图文视频,进行诽谤中伤,此类行为不仅严重扰乱网络传播秩序,更在无形中破坏了社会信任体系,给公众带来困扰与财产损失。
正是在这一背景下,《人工智能生成合成内容标识办法》应运而生。其核心要求简洁而有力——所有AI生成的图像、视频、音频和文本内容都必须添加清晰标识,“亮明身份”。
如按照《办法》,AI生成的视频内容,要“在视频起始画面和视频播放周边的适当位置添加显著的提示标识,可以在视频末尾和中间适当位置添加显著的提示标识”。这能让用户在浏览到相关内容时,第一时间知晓是由AI生成的。
这种强制性标识,不仅是技术管理的规范,更是对公众知情权的切实保障。
在当前技术条件下,AI生成的图像、音频乃至视频,已达到以假乱真的水平,普通用户缺乏专业工具与鉴别能力,极易被误导。要求AI生成内容“亮明身份”,正是为公众筑起一道认知防线,提升其对信息真伪的警觉性,避免轻信和传播未经核实的虚假内容。
更重要的是,不管是显式标识还是隐式标识,都相当于AI生成内容的一种“身份证”。一旦出现利用AI内容进行造谣、诈骗等行为,可以通过标识来溯源,界定法律责任,从而有效震慑恶意滥用行为。
总体而言,《办法》构建了一个覆盖内容生成、传播与审核全链条的治理体系,明确了包括传播平台在内的各环节的责任边界,有助于让AI生成内容得到有效的管理和监督。
当然,“徒法不足以自行”。《办法》实施只是一个开始,在实际执行过程中,可能还会面临一系列挑战,既要确保内容生产者规范地添加标识,也要防止不法分子通过技术手段恶意删除、篡改、伪造标识,这就需要在实践中摸索,不断完善技术和监管机制,强化监管执法力度,对违规行为形成有力震慑。
一言以蔽之,技术不能沦为作恶的工具,在享受AI生成技术红利的同时,真实和信任,仍然是需要守护的底线。让虚拟世界多一分真实与安全,少一些谣言和欺骗,AI才能真正实现“科技向善”。