9月29日晚间,深度求索公司发布了 DeepSeek-V3.2-Exp 模型,其宛如再次向国产芯片江湖投入一枚巨石。
官方公告显示,新版本模型实验性地引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),其显著降低计算资源消耗并提升推理效率。
而得益于这一技术创新,深度求索宣布其官方App、网页端、小程序均已同步更新为新模型,并全面下调API价格,降幅在50%到75%不等。
值得注意的是,不同于上次发布 DeepSeek-V3.1版本时“犹抱琵琶半遮面”的状态,此次 V3.2 EXP 版本的发布,几乎零时差引发数个国产芯片厂商——华为、寒武纪、海光等的“认领”。
而这也标志着,国产AI软硬件生态的协同,已经在 DeepSeek 横空出世之后初具雏形。
争相“认领”
就在 DeepSeek 新版放出之后仅仅4分钟,寒武纪就对新模型适配的国产芯片进行“率先认领”。
该公司宣布,已同步实现对深度求索公司最新模型 DeepSeek-V3.2-Exp 的适配,并开源大模型推理引擎vLLM-MLU源代码。
紧随其后的则是华为昇腾,其表示,基于vLLM/SGLang等推理框架完成适配部署,实现DeepSeek-V3.2-Exp的0day支持,并向开发者开源所有推理代码和算子实现。
海光信息随后也表示,其DCU已实现对DeepSeek-V3.2-Exp的无缝适配+深度调优,新模型在海光DCU上展现出优异性能,同时验证了海光DCU高通用性、高生态兼容度及自主可控的技术优势。
业内人士认为,随着 DeepSeek 新版本模型的逐步释出,或将有越来越多国产厂商宣布推出对 DeepSeek 模型的适配。
“DeepSeek 已经几乎获得了国产推理模型的大部分份额,成为了国产开源模型的标杆。因此由深度求索公司来定义国产芯片,或者组建国产芯片生态,其实是更为合适的做法。”国内某计算机企业算力部门高管告诉21世纪经济报道记者。
过去二十年,英伟达建立的CUDA平台,通过构建的一系列深度绑定的软硬件与工具链、还有高资本投入带来的成本壁垒,建立起一个覆盖所有计算场景的庞大技术体系和应用帝国。
基于此,英伟达远不止是一家GPU公司,更是当今AI和高性能计算领域掌握事实标准的企业。
然而,若撇开国内暂时存在短板的晶圆制造环节,“Fabless模式”为主的国产芯片行业,本质其实是一个“Know-How(懂得即能产出)”的行业。这也意味着,只要业界形成共识,那么芯片与算力生态围绕一定标准去发展,其进度将会异常快捷。
许多专家认为,2025年之所以能见到国产芯片发展之所如此迅速,无疑归功于 DeepSeek 的横空出世。
“我认为顺序应该是:DeepSeek 先去定义国产芯片的标准,让国产芯片厂商去跟进,让DeepSeek去定义行业,而非DeepSeek 的模型去适配国产芯片”,前述高管向记者解释 DeepSeek-V3.1 发布的意义。
飞奔的国产芯片生态
简而言之,在中国大陆,深度求索成为了新的生态建设者。
8月下旬,深度求索公司发布DeepSeek-V3.1版本。该更新版本除了让模型合并逻辑推理与快计算,更明确DeepSeek模型将适配下一个版本的“UE8M0”浮点格式的国产芯片,为国产芯片的发展指明方向。
然而在V3.1发布时,并未有任何一家企业主动认领“UE8M0 浮点格式”。
仅仅一个多月后,DeepSeek-V3.2-EXP 的发布却得到了群起响应。
事实上,中国本土 AI 行业对 DeepSeek 模型的高度共识,使得深度求索公司敢于先行先试。
根据此次深度求索公司的官方发布,此次 V3.2-Exp 版本,在 V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行了探索性的优化和验证。
值得注意的是,虽然稀疏注意力是行业通用的加速训练推理效率优化手段,但新版 DeepSeek 所采用的机制,疑似为深度求索公司刚刚在今年2月份才发表的论文中提到的原创机制。
在该篇论文中,深度求索公司CEO梁文锋也位列作者名单。
无独有偶,深度求索在官方发布中还提到,其模型在兼容CUDA的基础上,使用了高级语言“TileLang”进行快速原型开发,以及令TileLang作为精度基线,逐步使用底层语言实现更高效的版本等。
而据公开资料,TileLang是一种专为AI算子开发设计的编程语言,由北京大学计算机学院杨智团队主导开发,TileAI社区发起人王磊博士团队于2025年1月开源。
另一方面,在应用端,国产AI软硬件生态的协同效应正在扩大。在云计算领域,腾讯、阿里巴巴等互联网大厂也积极适配国产芯片。如9月16日,腾讯云宣布已全面适配主流国产芯片,并积极参与开源社区建设;而阿里在云栖大会则表示推动“一云多芯” 战略,验证并深度适配多家国产AI芯片,将其纳入自身算力底座。
这意味着,相比英伟达用二十年建立生态,DeepSeek 几乎用了不到一年的时间,飞速完成了初步的生态追赶。