11月16日,在“2025人工智能+”大会主论坛上,图灵奖得主、中国科学院院士、清华大学交叉信息研究院及人工智能学院院长姚期智发表主旨演讲。
《每日经济新闻》记者在现场注意到,姚期智提到,中国在过去五年中在AI(人工智能)领域开展了令人惊讶和钦佩的工作,特别是在大模型技术演化和具身智能方面。“过去5年,中国从曾与国际先进水平存在较大差距,到成功跻身国际第一方阵,部分领域更实现全球领先。”
在他看来,中国未来不缺应用人才和场景,最重要的是多培养尖端创新人才。
对于AGI(通用人工智能),姚期智表示,其定义是能够让机器在复杂场景具有类似于人的认知推理能力。“如今的人工智能可以实现部分功能,但离AGI的理想还有一些距离。”
人工智能机器人是科学研究的高地
姚期智认为,具身智能需要一个硬件的身体、一个负责行动稳定与敏捷的小脑以及一个能够进行认知、决策和规划的大脑。
在他看来,人工智能机器人是科学研究的高地,原因在于其需要研究如何将大语言模型变成具有物理知识、能够了解世界的智能。
在经济与产业维度,姚期智指出,具身智能有望弥补机器人产业以往较为呆板的短板——让机器人既具备“小脑”的动作协调能力,又拥有“大脑”的决策认知能力,进而助力人类高效完成各类重复性的工作。
在科学智能(AI for Science)层面,姚期智预言,AI不仅能赋能普通产业,更将在人类所认为的最高智能的领域,即科学研究层面,带来翻天覆地的变化。“我们过去几十年做科学研究的方法,基本上在五年、十年以后会很不一样。”
姚期智指出,过去被视为具有科学家特性、适合做科学家的人,在未来五年、十年以后不见得能够成为最好的科学家。“将来任何一个科学团队都必须是科学家加上大模型之类的人工智能,这个团队才是将来最有竞争力的单位。”
建立可以证明安全的AI系统至关重要
在主旨演讲中,姚期智也指出了AI的安全性问题。首先,AI算法天生具有不鲁棒(鲁棒性指系统在面对异常输入、噪声干扰或环境变化时仍能维持稳定性能的能力)、不确定、不可解释、不善于抵抗恶意攻击的性质。这在应用层面可能会冲击社会价值和伦理,例如隐私保护问题。
其次是对就业的替代。姚期智表示,这一问题已非远虑,而是近忧。“现在我们已经看到,在亚马逊、谷歌、微软这些做AI特别好的公司里出现了很多裁员浪潮。”
此外,姚期智提到了AI的生存性风险。他将其与生物科技进行了对比,后者的危险在于被恐怖分子等恶意使用,而AI的风险更进了一步,因为AI非常像人。
面对这些风险,姚期智也给出了解决方案。他认为,这催生了一个全新的交叉领域,该领域需要AI、密码学、博弈论等多种学科的融合。“对于生存性风险,最有效、最彻底解决问题的方法就是研发出可以证明是安全的AI系统。”
同时,姚期智强调了建立国际共识的重要性。他表示,在科学发展的基础上,在区域和全球减少风险需要建立国际共识。
在演讲的最后,姚期智总结道,多年的科技进步与积累,让人工智能发展得到新动力,大模型的出现带来了人工智能的新潮流,有无限发展机会。从中长期来看,走向AGI、赋能科学、建设安全可靠的AI,前景辽阔,影响深远。“我们必须不断地创新突破,中国不缺应用人才和场景,最重要的是多培养尖端创新人才。”