• 最近访问:
发表于 2025-09-30 16:39:00 股吧网页版
DeepSeek、智谱大模型接连上新 华为、寒武纪等国产芯片火速适配意味着什么
来源:澎湃新闻


K图 688256_0


K图 688041_0

  在国庆节前夕,DeepSeek和智谱先后宣布推出新一代大模型。与此同时,国产芯片厂商都在第一时间宣布适配,这标志着国产GPU已具备与前沿大模型协同迭代的能力,加速构建自主可控的AI技术生态。

  9月29日,DeepSeek宣布开源DeepSeek-V3.2-Exp实验版模型,该模型首次引入了Attention稀疏注意力架构,并在几乎不影响模型输出效果的前提下,大幅度提升了长文本训练和推理效率,被DeepSeek定义为“迈向新一代架构的中间步骤”。

  华为、寒武纪、海光已经完成适配DeepSeek-V3.2-Exp实验版模型

  在DeepSeek宣布后,算力芯片厂商华为、寒武纪(688256)、海光信息(688041)等AI芯片厂商已经宣布适配DeepSeek-V3.2-Exp。

  “华为计算”公众号发文宣布,昇腾已快速基于vLLM/SGLang等推理框架完成适配部署,实现DeepSeek-V3.2-Exp Day 0(第零天)支持,并面向开发者开源所有推理代码和算子实现。DeepSeek-V3.2-Exp在昇腾设备上128K长序列输出,能够保持TTFT(首token输出耗时)低于2秒、TPOT(每token输出耗时)低于30毫秒的推理生成速度。

  在DeepSeek-V3.2-Exp模型宣布开源几分钟内,寒武纪也发文称其已同步实现对该模型的Day 0适配,并开源大模型推理引擎vLLM-MLU源代码。

  寒武纪称,公司一直高度重视大模型软件生态建设,支持以DeepSeek为代表的所有主流开源大模型。借助于长期活跃的生态建设和技术积累,寒武纪得以快速实现对DeepSeek-V3.2-Exp这一全新实验性模型架构的day 0适配和优化。

  寒武纪强调,一直重视芯片和算法的联合创新,致力于以软硬件协同的方式,优化大模型部署性能,降低部署成本。此前,寒武纪对DeepSeek系列模型进行了深入的软硬件协同性能优化,达成了业界领先的算力利用率水平。

  针对本次的DeepSeek-V3.2-Exp新模型架构,寒武纪通过Triton算子开发实现了快速适配,利用BangC融合算子开发实现了极致性能优化,并基于计算与通信的并行策略,再次达成了业界领先的计算效率水平。依托DeepSeek-V3.2-Exp带来的全新DeepSeek Sparse Attention机制,叠加寒武纪的极致计算效率,可大幅降低长序列场景下的训推成本,共同为客户提供极具竞争力的软硬件解决方案。

  海光信息也宣布其DCU实现无缝适配+深度调优,做到大模型算力“零等待”部署。

  海光信息表示,在“深算智能”战略引领下,海光信息始终致力于AI软件栈生态建设,全面支持以DeepSeek为主流的全球主流开源大模型。得益于长期、活跃的技术积累,海光DCU得以快速对DeepSeek-V3.2-Exp完成“Day0”级高效适配与优化。

  基于GPGPU架构强大的生态优势,与编程开发软件栈DIK的特性,DeepSeek-V3.2-Exp在海光DCU上展现出优异的性能,充分验证海光DCU高通用性、高生态兼容度及自主可控的技术优势,已成为支撑AI大模型训练与推理的关键基础设施。

  DeepSeek表示,得益于新模型服务成本的大幅降低,官方API价格也相应下调,开发者调用DeepSeek API的成本将降低50%以上。从价格来看,输入缓存命中从0.5元降至0.2元/百万tokens,缓存未命中从4元降至2元/百万tokens,输出由12元降至3元/百万tokens。

  寒武纪和摩尔线程宣布适配智谱新一代大模型 GLM-4.6

  9月30日,智谱正式发布并开源新一代大模型 GLM-4.6,在 Agentic Coding等核心能力上实现大幅跃升。这是继 DeepSeek-V3.2-Exp 与 Claude Sonnet 4.5 之后,国庆节前业界的又一重大技术发布。

  智谱表示,在公开基准测试和真实编程任务中,GLM-4.6的代码生成能力已全面对齐Claude Sonnet 4,成为目前国内最强的Coding模型。同时,模型在长上下文处理、推理能力、信息检索、文本生成及智能体应用等方面均实现全面升级,整体性能超越DeepSeek-V3.2-Exp。作为开源模型,GLM-4.6目前是全球开源生态中性能最强的通用大模型之一,进一步提升了国产大模型在全球竞争格局中的地位。

  智谱官方宣布,GLM-4.6 已在寒武纪领先的国产 AI 芯片上实现 FP8+Int4 混合量化推理部署,这也是首次在国产芯片上投产的 FP8+Int4 模型-芯片一体化解决方案。在保持模型精度不变的前提下,该方案大幅降低了推理成本,为国产芯片本地化运行大模型提供了可行路径和示范意义。

  与此同时,摩尔线程基于 vLLM 推理框架完成了对GLM-4.6 的适配,新一代GPU可在原生 FP8 精度下稳定运行模型,充分验证了MUSA 架构及全功能GPU在生态兼容性和快速适配能力方面的优势。

  华为、寒武纪、摩尔线程等芯片厂商完成对新一代前沿大模型的适配,这标志着国产GPU已具备与前沿大模型协同迭代的能力,加速构建自主可控的AI技术生态。

  智谱表示,未来,国产原创的GLM系列大模型与国产芯片的深度协同,将在模型训练和推理环节持续推动性能与效率的双重优化,构建更加开放、可控、高效的人工智能基础设施。

  截至30日收盘,寒武纪报收1325元,微涨0.11%;海光信息报收252.6元,跌1.27%。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-61278686 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:4000300059/952500