人工智能的采用率正在上升,但信任仍是一个关键挑战。
根据毕马威KPMG最新数据,相较于2022年ChatGPT发布前,如今AI(人工智能)普及率已经显著提升,但忧虑情绪也随之上升,全球仅46%受访者愿意信任AI系统。
许多先进的人工智能模型被视为“黑箱”,即便是开发者也难以完全理解其决策逻辑。面对这种透明度缺失的情况,我们应如何建立对人工智能系统的信任?近日,《每日经济新闻》记者(简称NBD)专访了香港金融科技周筹办商Finoverse首席执行官Anthony Sar。

“大语言模型至今其实仍不透明,即便对于其创造者也是如此。”Anthony Sar认为,建立信任需要强有力的人类监督、透明的数据使用以及企业级的测试,与此同时,当AI出现严重错误时,责任应由多方共同承担。
负责任的人工智能并不意味着取代人类判断
NBD:许多先进的人工智能模型被视为“黑箱”,面对这种透明度缺失的情况,我们应如何建立对人工智能系统的信任?
Anthony Sar:大型语言模型的透明度仍未完全实现,即便对其创造者而言亦是如此,如今的人工智能不仅能预测文字,还能理解概念——这既赋予了它强大的能力,也带来了相应风险。建立信任需要强有力的人类监督、透明的数据使用以及企业级的测试。负责任的人工智能意味着,在技术能够安全提升人类成果的领域部署它,而非取代人类的判断。
NBD:训练数据中存在的社会偏见往往会传导至人工智能上。在您看来,社会和科技公司应采取哪些具体且可操作的措施,系统性地减轻甚至消除人工智能偏见,以确保其发展不会加剧社会不平等?
Anthony Sar:人工智能往往会反映人类生成数据中存在的偏见,但我们应该建立更具包容性的人际联结。例如,我们为本次金融科技周设计的人工智能社区主持人Samantha,在为参会者进行匹配时,仅关注双方的共同利益,而忽略头衔、国籍或影响力等因素。
Samantha通过发起原本可能不会发生的引荐,帮助打破了这一障碍。活动吸引了来自120多个国家的参与者,Samantha基于共同价值而非曝光度为人们搭建联结。这只是人工智能如何帮助减少壁垒、推动以人为本的机会获取的一个例证。
人工智能责任应由多方共同承担
NBD:当人工智能系统出现严重错误(例如自动驾驶汽车引发事故、医疗人工智能给出误诊)时,该由谁为这一错误负责?
Anthony Sar:人工智能的责任应由多方共同承担。就像交通安全依赖于司机、行人及监管机构共同遵守规则一样,负责任的人工智能需要开发者、部署者和用户各自承担明确的角色。
我们已经拥有监管复杂系统的框架,通过标准制定、测试和执行,这些框架同样可以应用于人工智能领域。
例如,我们在Samantha的设计中融入了“人机协同”模式,确保所有互动均经由活动组织者与我们的团队审核后,再逐步扩大自动化应用范围。这种方式既保留了人类监督,又让人工智能能够处理日常事务,为平衡创新与问责提供了真实可行的实践模型。
NBD:随着人工智能能力的快速提升,人们对其被恶意使用的担忧日益加剧,甚至有人担心人工智能可能变得无法控制,超出人类的监督范围。您认为这些是迫在眉睫的现实威胁,还是遥远的科幻场景?国际社会应如何为人工智能的发展和使用划定“红线”,以应对其可能带来的“灾难性”或“生存性”风险?
Anthony Sar:与任何强大的技术一样,人工智能既可用于造福人类,也可能被用于危害他人,就像核能一样。人工智能可能在未来20年内超越人类能力,因此治理至关重要,必须确保技术发展的方向始终服务于人类福祉。
我们认为,灵活的、基于风险的治理模式是关键。需要注意的是,并非所有应用场景都存在相同程度的风险,在金融、医疗或公共安全等敏感领域,监管必须像对持证职业那样严格,确保每一项决策都经过测试、验证并明确问责。但在创意类或低风险应用场景中,应允许人工智能在清晰的伦理准则下更自由地发展。