🚨 内存危机刚刚结束,而一种算法把它终结了


2025年10月,OpenAI飞往Seoul。
他们与Samsung和SK Hynix签署了协议。
用于900,000片内存晶圆。每月。
这占全球DRAM供应的40%。
只为一家公司保留。
DDR5 RAM kits从$120 到$490 几乎一夜之间就变了。
笔记本电脑变得更贵了。
手机出货时配的内存更少。
PC组装商支付的价格是前一年的4倍。
分析师称这20年来是最严重的内存危机。
随后Google发布了一篇研究论文。
这就是为什么这很重要。
你使用的每个AI聊天机器人都有一个“工作记忆”。
它叫KV cache。
当你在对话时,这就是模型如何记住你的内容。
它以16-bit精度存储。
就像把每个词都用巨大的粗体字来写。
它很准确,但也非常庞大。
随着AI上下文窗口扩展到100万tokens,这段记忆也迅速膨胀。
数据中心为了跟上需求,开始囤积RAM。
Google的团队提出了一个不同的问题。
它真的需要那么大吗?
答案是否定的。
他们开发了TurboQuant。
他们使用极坐标数学和Johnson-Lindenstrauss transform,把这段记忆从16位压缩到3位。
无需重新训练。
零精度损失。
内存减少6倍。
在Nvidia H100s上快8倍。
这篇论文发布于2026年3月25日。
内存芯片股票在24小时内下跌。
然后接着又发生了另一件事。
OpenAI本来就已经承受压力。
投资者希望削减成本。
潜在的IPO似乎在前方。
他们取消了一笔与Oracle in Texas的超大数据中心交易。
他们关闭了Sora。
他们悄悄缩减了向Samsung和SK Hynix的RAM订单。
DDR5 RAM kits在几周内就降价$100 。
内存危机几乎一夜之间开始解开。
下面才是真正的教训。
短缺并不是硬件问题。
而是一场赌注。
赌AI永远都需要海量内存。
赌唯一的解决办法就是买更多芯片。
TurboQuant在软件层面推翻了这个赌注。
而且是免费的。
一篇研究论文就改变了整个行业的经济学。
这就是算法效率如何作为一种宏观力量体现出来。
而我们才刚刚开始。
查看原文
post-image
post-image
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论