• 最近访问:
发表于 2025-11-17 22:29:10 股吧网页版
AI惹祸谁来担责? Finoverse首席执行官:应由多方共同承担
来源:每日经济新闻

  人工智能的采用率正在上升,但信任仍是一个关键挑战。

  全球四大会计师事务所之一的毕马威(KPMG)发布的最新数据显示,相较于2022年ChatGPT发布前,如今AI(人工智能)普及率已经显著提升,但忧虑情绪也随之上升,全球仅46%受访者愿意信任AI系统。

  许多先进的人工智能模型被视为“黑箱”,即便是开发者也难以完全理解其决策逻辑。面对这种透明度缺失的情况,人们应如何建立对人工智能系统的信任?近日,《每日经济新闻》记者(以下简称NBD)专访了香港金融科技周筹办商Finoverse首席执行官Anthony Sar。

  NBD:许多先进的人工智能模型被视为“黑箱”,面对这种透明度缺失的情况,人们应如何建立对人工智能系统的信任?

  Anthony Sar:大型语言模型的透明度仍未完全实现,即便对其创造者而言亦是如此。如今,人工智能不仅能预测文字,还能理解概念——这既赋予了它强大的能力,也带来了相应风险。

  建立信任需要强有力的人类监督、透明的数据使用以及企业级的测试。负责任的人工智能是能够部署在安全地提升人类成果的领域,而非取代人类的判断。

  NBD:当人工智能系统出现严重错误(例如自动驾驶汽车引发事故、医疗人工智能给出误诊)时,该由谁为这一错误负责?

  Anthony Sar:人工智能出现严重错误,其责任应由多方共同承担。就像交通安全依赖于司机、行人及监管机构共同遵守规则一样,负责任的人工智能需要开发者、部署者和用户各自承担明确的角色。

  我们已经拥有监管复杂系统的框架,通过标准制定、测试和执行,这些框架同样可以应用于人工智能领域。

  NBD:随着人工智能能力的快速提升,人们对其被恶意使用的担忧日益加剧,甚至有人担心人工智能可能变得无法控制,超出人类的监督范围。您认为,这些是迫在眉睫的现实威胁,还是遥远的科幻场景?人类社会应如何为人工智能的发展和使用划定“红线”,以应对其可能带来的“灾难性”或“生存性”风险?

  Anthony Sar:与任何强大的技术一样,人工智能既可用于造福人类,也可能被用于危害他人,就像核能一样。人工智能可能在未来20年内超越人类能力,因此治理至关重要,必须确保技术发展的方向始终服务于人类福祉。

  我们认为,灵活的、基于风险的治理模式是关键。需要注意的是,并非所有应用场景都存在相同程度的风险,在金融、医疗或公共安全等敏感领域,监管必须像对持证职业那样严格,确保每一项决策都经过测试、验证并明确问责。但在创意类或低风险应用场景中,应允许人工智能在清晰的伦理准则下更自由地发展。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-61278686 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:4000300059/952500