2025年下半年开始,全球科技行业正面临一场前所未有的"内存危机"。单条高容量服务器内存价格突破4万元,100根内存条总价高达400万元,相当于一线城市近郊一套房产的价值。这种疯狂涨价的背后,是AI巨头们为争夺AGI(通用人工智能)主导权而展开的军备竞赛。
DRAM(动态随机存取存储器)作为CPU/GPU的临时操作台,其重要性在AI时代被放大到前所未有的程度。训练大型语言模型时,需要将海量参数和训练数据暂存在内存中供处理器快速调用。模型规模越大,对内存容量和带宽的需求就呈指数级增长。
关键数据:根据TrendForce统计,2025年9月以来DDR5颗粒现货价累计上涨307%,部分高容量服务器内存单条价格突破4万元
加州大学伯克利分校的研究显示,训练大模型所需的计算量每两年增长750倍,而DRAM带宽和互连带宽每两年仅分别增长1.6倍和1.4倍。这种极不平衡的发展速度形成了所谓的"内存墙":
这种差距导致价值数万美元的AI加速卡(如NVIDIA H100)大部分时间处于"空转"状态,等待数据从内存传输到处理器。
除了价格飙升外,内存墙还带来三个关键瓶颈:
能耗问题:在传统冯·诺依曼架构下,数据搬运消耗的能量可能是实际计算的百倍。AI数据中心的大量电力实际用于数据搬运而非计算。
延迟问题:ChatGPT等应用处理长文本时出现的卡顿,本质上是内存带宽不足导致的。
创新瓶颈:更大规模的AI模型因内存限制而无法在合理成本内完成训练,减缓了AI技术进步速度。
HBM(高带宽内存)采用TSV(硅通孔)技术将DRAM芯片垂直堆叠,就像在芯片上建造摩天大楼:
目前NVIDIA的H100、H200及Blackwell平台都大量采用HBM技术,这也是服务器内存吞噬产能的主因。
建立共享"内存池",打破CPU/GPU内存隔离:
最彻底的解决方案,直接在内存中完成计算:
花旗银行预测2026年DRAM价格将同比上涨88%,远高于此前53%的预期。具体影响:
| 产品类别 | 价格变化 | 主要原因 |
|---|---|---|
| 游戏PC | +40-60% | 高端DDR5供应短缺 |
| 笔记本电脑 | +20-30% | OEM优先供应服务器市场 |
| 智能手机 | +15-25% | LPDDR5产能转向HBM |
升级时机:如需购买新设备,建议尽早出手,避免后续价格进一步上涨。
配置选择:
二手市场:考虑成色良好的二手高端设备,性价比更高。
三种可能情景:
我个人在跟踪半导体行业多年的经验是,实际发展很可能是突破与平衡情景的结合——部分创新技术会取得突破,但传统架构仍将长期存在。对于普通消费者而言,理解这些技术趋势有助于做出更明智的购买决策。比如现在购买可扩展内存的PC,未来可以通过升级而非整机更换来应对需求增长。