本月起,国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》正式施行。《办法》明确,所有AI生成的文字、图片、视频等内容都要亮明“数字身份证”。
有网友不解,为了短短一行标识而单独出台文件加以规制,有没有必要?对于这个问题,我们不妨换个问法:如果所有AI生成的内容不加标识,会有什么后果?
AI生成内容是当下热门内容赛道。不少平台都针对生成式AI的创作者提供流量资源、现金补贴等扶持。与此同时,AI生成的违规内容信息也防不胜防。从诈骗中老年女性的“假靳东”,到直播带货的“假全红婵”,不少新媒体营销号利用AI技术造假、博眼球快速“吸粉”起号,大量推送猎奇、养生等内容,并通过引流带货、账号转卖等方式变现。
所以,标识虽小,但关系到公民、法人及其他组织的合法权益,关乎社会公共利益。“小题大做”,标识制度能够用较低的合规成本,较好地解决AI生成内容的新问题,对利用AI技术造假的新媒体营销号更是一次精准的靶向打击。
需要特别强调的是,出台标识办法只是第一步,如何贯彻落实,构建全链条治理框架,则有赖于治理主体与治理对象的共同参与。
AI内容标识早已有之,但长久以来形同虚设。究其原因,是制度欠缺约束性,监管欠缺适应性。平台曾督促内容创者自觉添加标识,但防不住钻空子之徒。平台也曾动用技术手段对AI内容加以识别,但由于监测技术难以匹配高速更新的生成式AI技术,因而效果也不理想。
平台是直面用户的第一道安全防线,必须担负起主体责任,筑牢AI生成内容识别防线。因此,对于落实规定、出台细则的各大平台,受众期待的不止是它们怎么说,更关键的是怎么做。针对文字、图片、视频中的显示标识,以及文件元数据中的隐式标识,必须要升级技术手段,提高识别率;针对长期仿冒他人来牟利的违规账号,必须要加大惩处力度,以防狡兔三窟或死灰复燃。
精准定位、惩防结合,实施AI生成内容的全生命周期治理,其意义不止是筑起信息真实性的屏障,也在于划定一条AI内容创作的专用道,充分释放技术的潜能,让内容创作效率翻倍,让内容创意无限拓展。
当然,走上AI专用道的内容创作者,在享受技术红利的同时,也应担起责任。制作图片、视频时,稍有不慎,就可能侵犯他人的肖像权与声音权、影视作品的版权,如果造成负面影响,更涉及名誉权纠纷。所以,给AI生成内容贴标,应该增强对法律和伦理的敬畏意识。
当下,人工智能深入生活的方方面面,发展与安全的平衡之题也愈显重要。在AI加持下,老照片里的人物由静态转为动态,古诗词里的内容从文字成为图片、视频;也是在AI赋能下,各行各业焕发新生。但与此同时,仅仅一条标识就可能撕开内容安全管理的口子。
从这个意义上讲,面对人工智能这把“双刃剑”,我们亟须构建完备的安全治理体系。就AI生成内容而言,“贴标”只是第一步。如何走好下一步,在把控风险的前提下用好AI,是一个更宏大、也更细微的课题。