近期召开的中央政治局会议在部署发展智能经济新形态的同时,提出“完善人工智能治理”,体现出发展与规范并重的思路,将进一步推动人工智能健康有序发展。
作为引领新一轮科技革命和产业变革的战略性技术,人工智能正深刻改变人类生产生活方式,成为重塑全球竞争格局、推动经济社会转型的重要力量。当前,我国正全面实施“人工智能+”行动,大模型、智能体、具身智能等技术加速突破,一批高效率的应用场景迅速落地。然而,技术发展也伴生着算法偏见、数据滥用、深度伪造等多重风险。面对人工智能技术快速演进、应用纵深拓展、风险复杂交织的新形势,如何加强治理,推动人工智能朝着有益、安全、公平方向发展,是全社会面临的一项重要课题。
风险防范与监管是治理的核心任务。人工智能技术具有“黑箱”属性,决策逻辑不透明、输出内容难溯源,存在未知安全隐患。因此,需要探索新型监管理念和方式,为技术迭代提供可试验的、动态包容的治理环境,既给创新留足试错空间,又守住安全底线。
目前,我国多地正积极探索沙盒监管等新型监管方式,允许相关主体在限定场景、限定规模内试运行新产品、新服务、新模式与新技术,同时采取包容审慎的监管措施,在可控范围容错纠错,防范风险外溢,取得了积极成效。未来,可加快完善相关制度安排,明确沙盒监管的准入、运行与退出规则。例如,坚持分类分级原则,对涉及数据安全、金融安全等高风险领域,实行更为审慎严格的监管标准和运行流程;对技术比较成熟、潜在外溢风险较小的领域,适度放宽条件。同时,持续优化监管科技工具,让监管能力与人工智能技术同步提高,实现全生命周期动态监管。
完善法治体系是治理的根本保障。近年来,我国在生成式人工智能、算法推荐、深度合成等重点领域持续推进制度建设,出台了《生成式人工智能服务管理暂行办法》《互联网信息服务算法推荐管理规定》《人工智能生成合成内容标识办法》等一系列监管规则,积累了较为丰富的治理经验。但是,当前和未来一段时间人工智能技术将处于爆发式发展阶段,部分法规跟不上技术创新的脚步。要深刻把握人工智能发展趋势和规律,加紧完善相关法律法规、政策制度、应用规范、伦理准则,及时划定技术应用的伦理边界与安全底线,真正做到技术发展到哪里,法治建设就跟进到哪里。
加强国际合作是治理的必然选择。人工智能是跨越国界的通用技术,其风险也具有全球性,规范治理绝非一国一域之事。不过,由于技术竞争的高敏感性,不同国家在数据跨境、内容审核、政府监管权限等问题上还存在分歧,需要推动各方加强发展战略、治理规则、技术标准的对接协调,早日形成具有广泛共识的人工智能全球治理框架和标准规范。
作为负责任大国,近年来,我国积极参与和引领全球人工智能治理,相继发布《全球人工智能治理倡议》《人工智能全球治理行动计划》等重要文件。未来,要继续推动我国人工智能治理制度创新、实践创新,为国际社会贡献更多中国方案;加强国际交流与合作,推动构建更加公平合理的全球治理体系。
人工智能治理是技术伦理、法规建设、国际合作等多方面内容的系统集成,多元共治才能筑牢安全防线。坚持发展与安全并重、创新与规范同步,探索完善人工智能治理体系,发展智能经济新形态将具备更为坚实的制度保障。