芝能智芯出品
Cadence发布了业界首款支持LPDDR6/5X的内存IP,运行速率高达14.4Gbps。
随着AI芯片架构对带宽与容量的双重需求日益增强,LPDDR6的到来将成为连接HBM与系统内存之间关键的“容量层”。从移动设备到数据中心加速器,该新IP的落地为下一代高性能芯片架构奠定了基础。

AI芯片的发展正在推动内存接口从传统的功耗优化方案,转向追求更高带宽与更大容量的平衡架构。
Cadence推出的LPDDR6 IP,首次实现了在标准封装内运行速度达14.4Gbps的新一代低功耗内存接口。
相比LPDDR5X,这一速率提升将显著改善AI模型推理与训练中对数据吞吐量的压力,尤其是在多路并发和高通量场景下更具优势。
在实际系统设计中,LPDDR类型内存被视为介于高带宽存储(如HBM)与传统DRAM之间的容量补充层。
以往的HBM虽然带宽极高,但成本和封装复杂度限制了其可扩展性。而LPDDR6则以更优的功耗和封装密度,为AI芯片提供了理想的第二层内存解决方案。
Cadence的设计同时支持LPDDR6和LPDDR5X两代协议,并兼容CAMM2封装标准。这种灵活性不仅利于设计团队进行渐进式平台演进,还可广泛适配笔记本、工作站与服务器等多种使用场景。
此外,CAMM2带来的更高内存密度与更低板级干扰,也将进一步释放LPDDR6的系统级性能潜力。
在AI模型不断膨胀的背景下,从数据缓存到参数加载,内存带宽与容量已经成为瓶颈之一。LPDDR6的引入,正好填补了HBM之外的容量层空缺,使得AI芯片在不显著增加功耗和成本的前提下获得性能弹性。
Part 2 IP前置开发:为下一代系统平台预留架构空间
芯片设计周期普遍延长的今天,底层IP的提前部署显得尤为关键。
从PCIe Gen7 IP的率先发布,到如今LPDDR6内存接口的率先落地,Cadence选择在主流商用化之前先行布阵,正是为了匹配芯片行业的“提前设计、后集成”节奏。
当前市场虽然尚未普遍部署LPDDR6,但多个厂商已将其纳入未来芯片路线图中。例如在英特尔2025年展示的下一代封装中,已可见HBM与LPDDR共存的加速器原型。
HBM提供超高带宽,LPDDR提供扩展容量,两者协同构建多层次内存体系。这种架构也正逐渐成为AI SoC和服务器芯片的设计共识。
通过先期推出LPDDR6 IP,Cadence使得芯片设计团队能够在构建系统架构时,即考虑更高速度、更大容量的内存布局与封装形式,并在EDA流程中实现早期性能建模与验证。同时,支持LPDDR5X的双模特性也为市场提供了平滑过渡路径,降低了产业链上游的切换成本与风险。
LPDDR6的到来不仅面向AI应用,其低功耗特性依然符合移动端与嵌入式场景的功耗约束。因此,该IP具备良好的应用普适性,为未来异构计算平台提供了通用内存接口选择。
小结
内存架构已经成为AI芯片设计中不可回避的核心议题。在功耗、带宽、封装之间寻求平衡的过程中,LPDDR6代表着下一阶段的解法。
Cadence此次发布的LPDDR6 IP,为设计者提供了一个高性能、灵活部署且面向未来的内存接口模块,助力芯片平台顺利迈入更高性能、更高密度的时代。从封装方式、传输速率到兼容性设计,为未来高算力应用做好了架构准备。
原文标题 : Cadence发布LPDDR6 IP,AI芯片内存架构升级