近年来,人工智能生成内容(简称“AIGC”)技术爆发式发展,深度融入短剧剧本创作、内容制作、宣发运营全产业链条,也催生了一系列全新的版权保护与行业治理难题,这类侵权具有数量大、频次高、隐蔽性强、传播迅速等特点,不仅侵害了权利人的合法权益,更对平台治理和行业健康发展构成挑战。如何破解人工智能(AI)短剧发展过程中出现的“侵权多”“维权难”“审核疲”等困局,记者采访多位法律界人士和业内专家,从不同角度分析问题成因,寻找破解之道。
AI短剧侵权事件频发
治理难度显著提升
AI短剧凭借新颖剧情与紧凑节奏快速占领市场,又因制作成本低、生成效率高成为行业新风口,但侵权争议也随之而来。相较于传统内容侵权,AI短剧领域的侵权问题更为复杂多元,治理难度尤为突出。北京大学法学院教授、北京大学人工智能研究院教授张平表示:“在AIGC创作中,通常AI生成的内容并非对原素材的完全复制,这种‘似像非像’的特征成为侵权认定的主要难点。”
中国新闻文化促进会副会长、微短剧传播与应用评测体系“繁星指数”专家组组长陆先高介绍,AI肖像侵权主要表现为四种情形:一是完全AI生成;二是定向AI生成,通过关键词引导生成与明星、素人高度相似的形象,属于间接“偷脸”,主观侵权故意更为明显;三是直接AI换脸,直接替换为明星肖像,逼真度高,侵权认定相对清晰,但追责与侵权内容清理难度较大;四是“缝合脸”或AI融脸,融合多人面部特征,侵权定性最为复杂,争议也最大。
侵权方式的多样性与隐蔽性,直接导致侵权认定和平台治理陷入重重困境。“AI肖像侵权的新型特征,对现有识别与认定标准形成实质性冲击,传统技术手段难以实现有效的事前预判与拦截。”中国社会科学院大学互联网法治研究中心主任刘晓春表示,这一困境主要体现在三个方面。
其一,“可识别性”判断标准缺乏统一性,AI合成人脸多经过特征修改与细节调整,并非完全复刻原貌,形成“似像非像”的效果,难以沿用传统标准判定侵权,目前行业尚无统一明确的审核规范;其二,混合人脸与动态画面增加审核难度,部分合成形象融合多人特征,无明确对照原型,可能与多人相似却无法精准对应,加之短剧动态画面中人脸特征随镜头实时变化,进一步提升识别难度;其三,技术与数据支撑不足,行业缺乏成熟的动态人脸比对技术,也无法建立覆盖普通民众的肖像数据库,难以实现全面有效监测。
声音侵权的核心难点同样集中在“似像非像”的认定环节。相较于具备视觉直观性的人脸肖像,声音本身更加抽象且依赖主观感知。特别是对于配音演员而言,其演绎声线往往与日常说话的声音存在差异。要判断合成声音是否侵权,必须综合考量音色、音调以及演绎风格等多个维度,这使得侵权认定的过程变得愈发复杂。
这些认定难点引发了棘手的举证困局。在海量侵权投诉中,如仅凭对比截图便主张“高度相似”,将使平台缺乏自主裁断的法律赋权。此时,传统的“通知-删除”规则往往难以顺畅运转,行业亟待构建更为精细化、可操作的举证标准。
压实制作方责任
推动治理节点前移
多位专家学者认为,AI短剧侵权乱象的滋生,是多主体多环节共同作用的结果,破解这一难题必须厘清各方责任,推动治理模式转型升级。
“AI短剧的生产传播属于‘过程型生产结构’,各环节高度绑定,这种模式使得传统法律框架下的权力配置与责任划分难以适配,进而出现责任失衡问题。”暨南大学国际传播研究院院长、清华大学新闻与传播学院教授陈昌凤表示,当前治理多聚焦于内容审核与事后处置,无法从源头遏制侵权行为,因此必须推动治理节点前移,实现从事后处置向全过程监管的转变。
陈昌凤建议,应将合规要求贯穿以制作方为核心的全创作流程,而非仅依赖平台对最终内容进行被动审核,真正实现从事后认定到全过程规制的升级。同时,推动责任分配从单点追责转向多主体协同分担。她强调,AI短剧版权问题并非传统影视侵权的简单延伸,而是新型生产方式引发的制度性问题,仅靠局部修补无法根治,亟须构建适配技术发展与产业现实的全新规则体系。
“探讨AI短剧版权侵权的平台责任,主要分为两种场景:一是短剧聚合平台对用户上传的涉嫌抄袭的短剧的责任;二是其他网络平台对用户传播盗版短剧的责任。”中国政法大学教授、北京市文化娱乐法学会版权法研究专业委员会主任陶乾表示。
她认为,在聚合平台场景下,平台对元素侵权、抄袭的认定须具备专业判断能力,事前防范应以适度为原则,充分运用“通知”“转通知”规则,为各方预留合理缓冲空间,既不加重权利人的举证投诉负担,也不要求平台承担超出能力范围的实质审查义务;在其他网络平台场景下,平台需依照《信息网络传播权保护条例》与民法典相关规定,对用户传播的盗版内容承担相应义务和责任。
中央民族大学法学院教授熊文聪也提出,平台处理AI短剧侵权投诉时,应严格执行“通知-删除”规则,同时可赋予平台对通知内容的初步审查权。此举虽会增加平台运营成本,但若完全机械执行规则、不做任何审查,既可能影响平台正常运营,也可能因恶意通知损害创作方与产业利益。他同时强调,不应因平台初步审查未识别出侵权内容就追究其责任,只要平台已投入合理成本、履行审慎注意义务,就不应推定其存在主观过错。
“人工智能时代的版权审核困境,本质上是工业经济时代规则与数字技术场景的适配性危机。”中国人民大学法学院院长杨东指出,诞生于工业经济时代的“通知-删除”规则,已逐渐难以适应AI时代发展需求,加之AI自动审核存在天然局限性,不应将全部审核责任转嫁于平台企业。
刘晓春则提出更具实操性的优化路径:规范AI短剧发展,需立足产业实际与权利保护,理性划定平台责任,构建分类施策、协同高效的治理机制。审核层面,平台可建立分类分级审核机制,针对公众人物肖像等侵权高发场景,搭建特征数据库,通过技术手段主动预警拦截;对于普通民众肖像等非高频监测场景,不强制要求事前全量比对,通过平台规则强化创作者的维权保护义务,同时优化“通知-删除”规则,搭建便捷维权通道、简化维权流程,接到有效通知后及时下架、屏蔽侵权内容。此外,平台还应完善侵权账号惩戒机制,对恶意侵权、屡次违规账号采取限流、封禁等措施。
构建“全链条”多元共治格局
AI短剧产业发展势头迅猛,给监管、司法实践和平台治理都带来了巨大压力。推进短剧行业全链条合规治理、构建多元共治格局,成为专家学者的一致共识。
北京理工大学法学院教授、北京市文化娱乐法学会常务副会长刘毅强调,应充分发挥行业协会作用,推动规则制定与立法协同。当前,AI生成内容的可版权性、权利归属、侵权认定标准等存在争议,已成为制约产业发展的重要障碍。因此,行业协会应牵头联合法律、产业、技术领域专家,尽快出台团体标准或行业指引,在立法与司法解释正式出台前,为市场提供可落地的合规依据,覆盖生成内容标识、权属存证、侵权比对、平台注意义务等关键环节,实现“全环节有标准、全标准可落地”。
行业自律层面,刘毅建议,行业协会可建立全链条主体信用档案,记录制作方侵权情况、平台处置效率、技术方合规表现等信息,面向会员与公众开放查询;对严重违规、屡次侵权主体实施通报批评、暂停会员资格、列入行业黑名单等联合惩戒。同时,行业协会应积极向立法、司法机关提交修法建议与裁判指引,提出切实可行的解决方案。
陶乾补充道,短剧版权治理需要多方联动、行业共治。行业治理层面,全行业应凝聚共识,可以由行业组织牵头制定素材使用规范、AI短剧创作指引;素材合规层面,相关部门可搭建合规素材库与作品池,建立公平高效的授权机制;就AI短剧的版权保护而言,形成剧本、提示词脚本、场景图等素材以及视频生成过程的存证机制;平台治理层面,推动短剧权利人与网络平台建立版权共治体系,将权利人作品纳入内容比对系统,探索广告分成等良性合作模式,助力行业可持续发展。
此外,杨东还提出创新治理思路:变被动审核为主动利益分配。他认为,单纯完善侵权责任体系难以应对AI时代挑战,应依托“共票”理论重构版权治理逻辑,即从“绝对排他”转向“利益共享”的新型分配机制。借助智能合约等数字技术,为创作者、传播者、平台、用户、技术提供方等多方主体颁发可流通、可分配、可追溯的技术凭证,将各方纳入统一价值生态。在此机制下,版权价值实现路径将发生根本转变,从依靠法律排他性收益,转向共建共享、平台运营、用户参与的新型价值模式,推动作品在更广范围内流通增值,从根源上降低侵权动机。