• 最近访问:
发表于 2025-08-21 06:33:40 股吧网页版
上海布局“类脑大模型”颠覆性创新项目,交大教授挑战大模型主流架构
来源:上观新闻

  近日,上海交通大学长聘教授、通用人工智能研究所所长赵海收到两个好消息:一是他带领团队研发的“脑启发大语言模型”入选了“交大2030”计划B类,获得500万元经费支持;二是他的研究方向列入了上海市科委“类脑智能”项目申报指南,这份指南设立“颠覆性技术研究”专题,支持科学家探索脑启发类脑智能的新原理和新方法,研究新型非Transformer架构的类脑大模型通用架构。

  Transformer是谷歌在2017年提出的一种深度学习架构,此后经OpenAI持续开发,彻底改变了自然语言处理、计算机视觉等领域的技术格局,成为人工智能大模型普遍采用的架构。那么,上海为何要布局颠覆这种架构的科技项目?类脑大模型的研发进展如何?记者在采访中了解到值得关注的阶段性成果。

从脑科学成果中获得灵感

  ChatGPT风靡全球后不久,就有一些人工智能知名专家质疑Transformer架构的发展潜力。比如,图灵奖得主杨立昆认为,这种架构面临计算成本高、缺乏对复杂世界的理解、决策过程“黑箱化”等瓶颈,未来无法实现科学家梦寐以求的通用人工智能——智能体具有高效的学习和泛化能力,能根据所处的复杂环境自主提出并完成任务,且符合人类伦理规范。

  今年1月,诺贝尔化学奖得主哈萨比斯谈及通用人工智能时说:“也许我们还需要1—2个类似Transformer的突破。”这意味着,Transformer很可能不是大模型架构的最终方案,在探索通用人工智能的道路上,还需要有大的创新突破。

Transformer很可能不是实现通用人工智能(AGI)的最终方案。

  模拟人脑,是创新大模型架构的一条路径,因为作为大自然进化的产物,人脑就是一种通用人工智能体。“2016年,加州大学伯克利分校团队在《自然》杂志发表了一篇论文,他们发现,大脑皮层的不同区域可编码特定的语义内容。”赵海向记者介绍了这项脑科学成果。大模型架构可否模拟大脑的语义编码机制?2023年9月,这位交大教授有了创新灵感,打算颠覆Transformer架构,研发一种“脑启发大语言模型”。

  于是,他自筹科研经费,租借GPU服务器,带领团队走进了类脑智能领域的“无人区”。当时,用于训练大模型的GPU服务器处于价格高位,赵海团队每月要花18万元租金。至于研发能否成功,完全是个未知数。面对双重压力,他选择了坚持,因为他相信:通用人工智能的真正基石隐藏在人类大脑中。

新范式模拟人脑全局机制

  今年3月,150亿参数的“脑启发大语言模型”(BriLLM)问世,交大团队开源发布了这个中文大模型的代码和模型权重。5月,他们发布了“脑启发大语言模型”中文、英文压缩版,其大小分别为20亿和10亿参数,但性能与150亿参数大模型相当。测试显示,这3个非Transformer架构类脑大模型的生成能力达到GPT-1水平,引起了华为公司Fellow蔡华等专家的关注。

  “BriLLM是首个在宏观尺度上模拟人脑全局机制的大语言模型,对机器学习范式做了颠覆性创新。”赵海介绍,它采用“信号全连接流动”机制,以取代Transformer架构的自注意力机制。这种新的机器学习范式模拟大脑皮层编码特定语义的方式,将词元(token)直接映射为“有向全连接图”模型架构上的一个个节点,让每个节点对应一个语义单元。它还模拟脑电波的传播方式,让信号沿着“最小阻力”路径,在“有向全连接图”上不断传播,选择性地激活一些语义单元节点,使大模型生成准确的文字内容。

“信号全连接流动”机制示意图

  与Transformer架构大模型相比,“脑启发大语言模型”有四大潜在优势:通过模拟人脑的语义编码和信号传播机制,获得人脑的低能耗优势,大模型计算成本有望大幅降低;每个节点都对应明确语义,决策过程透明可解释,消除了大模型决策的“黑箱”问题,有利于确保人工智能安全可控;由于信号可在各个节点间无限制传播,它有望支持无限长的上下文输入,且无须增加模型规模;与多模态天然适配,在学习图像和视频时更接近人类学习方式,不依赖大数据。

  凭借这些优势,赵海团队经过4轮评审,获得了“交大2030”计划B类立项支持。B类项目倡导“从 0 到 1”的原始创新,瞄准世界级基础科学问题。它不设论文指标,允许项目团队在科研领域自由使用经费。“我们打算把500万元主要用于购买算力,未来两年开发出像ChatGPT那样的对话式大模型,与Transformer架构大模型展开竞争。”得到项目支持后,赵海对这一颠覆性创新的前景更有信心了。

瞄准百亿参数大模型目标

  在类脑大模型这一前沿领域,赵海并不是独行者。记者从中国科学院脑智卓越中心了解到,脑认知与类脑智能全国重点实验室研究员李国齐在研发“类脑通用智能大模型”。他的技术路线与赵海不同,主要在微观尺度上模拟大脑神经元的激活方式。

  李国齐认为,Transformer架构大模型的基础是“点神经元模型+自注意力机制”,而人脑的基本计算单位是树突神经元模型。它比点神经元模型复杂得多,呈树状结构,包含多个分支和房室,每个分支和房室都存在不同参数的动力学过程,使树突神经元模型拥有多尺度的记忆能力。“我们的目标是研究可否将这种人脑机制融入现有大模型,构建一个通用的类脑智能大模型架构。”

  为此,他带领团队开展了一系列探索:在理论层面,发表了关于脉冲神经网络训练算法的多篇论文,将脉冲神经网络从过去的5—10层拓展到50—500层;在神经元模型层面,提出了多房室、多分支的并行脉冲神经元模型,在解决长序列建模问题上取得进展;在架构层面,提出了“树突脉冲神经网络”这个概念,将源自人脑的神经元模型纳入机器学习框架。

  谈及未来研发计划,李国齐说:“我们希望通过跨学科合作,推动算法、训练平台和芯片的深度整合,构建百亿至千亿参数规模的通用类脑大模型。”

  赵海也打算开发百亿参数规模的类脑大模型。未来两年,他将带领团队完成中文和英文预训练、指令微调能力构建、高效推理部署三项任务,开发出规模不低于300亿参数的中文和英文“脑启发大语言模型”,让用户体验到非Transformer架构大模型的优势。

  “我们团队已走通‘从0到1’的原始创新,接下来要做的是‘从1到10’的升级突破。希望得到政府部门更多的算力支持,让我们加快迭代类脑大模型。”赵海说。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-61278686 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:4000300059/952500