谷歌发布的一项新型 AI 内存压缩技术,不仅在科技界引发了对底层算力效率革命的狂欢,也让美股存储芯片板块经历了一场剧烈的估值重估,但华尔街机构却从这场恐慌中看到了买入良机。
周三,受该技术可能大幅削减 AI 硬件需求预期的冲击,美股存储芯片板块盘中遭遇重挫。截至收盘,存储芯片与硬件供应链指数下跌 2.08%,闪迪、美光科技等头部企业均显著收跌,凸显出市场对需求前景的防御性反应。

尽管实验室数据展示了惊人的压缩效率,但从宏观经济学与算力部署的真实演进来看,这项旨在打破 AI 内存瓶颈的技术,最终可能不仅不会摧毁存储需求,反而会成为推动行业进一步扩张的催化剂。
存储板块应声下挫
谷歌发布名为 TurboQuant 的内存压缩算法后,市场对存储硬件长期需求的担忧迅速蔓延,导致相关资产遭到抛售。
周三盘中,存储芯片板块集体下探。闪迪一度大跌 6.5%,美光科技跌 4%,西部数据和希捷科技分别跌超 4% 和 5%。随着市场情绪在尾盘有所消化,相关个股跌幅收窄。截至收盘,闪迪和美光科技均跌超 3.4%,希捷科技收跌 2.6%,西部数据跌幅收窄至 1.6%。当日,存储芯片与硬件供应链指数报收于 113.03 点,盘中一度触及 109 点的日内低点。
引发市场恐慌的直接原因,是谷歌宣称 TurboQuant 可在不损失准确性的前提下,将大型语言模型运行时的缓存内存占用至少减少 6 倍。在高度依赖硬件规模扩张的 AI 军备竞赛逻辑下,任何可能削减物理内存采购量的技术进步,都足以让本已处于高估值的芯片板块面临抛压。
" 真实版 Pied Piper" 与 " 谷歌版 DeepSeek"
在科技业界,TurboQuant 的发布被视为解决大语言模型高昂运行成本的重要里程碑。该技术专为解决 AI 系统中的键值缓存(KV Cache)瓶颈而设计,核心是将原本占用大量空间的缓存压缩至 3 比特。
据媒体报道,谷歌采用两步压缩法:先通过 PolarQuant 技术将数据向量转换为极坐标以消除额外的归一化开销,再利用量化算法 QJL 消除残差误差。
在采用 Gemma 和 Mistral 等开源模型的测试中,该算法不仅实现了 6 倍的内存缩减,在英伟达 H100 GPU 上的性能较未量化的 32 位方案更是提升了最高 8 倍。
这一惊艳的数据在互联网上引发热议,人们将其戏称为 " 真实版 Pied Piper"——即 HBO 经典美剧《硅谷》中那家凭借无损压缩算法颠覆行业规则的虚构初创公司。Cloudflare 首席执行官 Matthew Prince 等人则将其称为谷歌的 "DeepSeek 时刻 ",认为其有望像 DeepSeek 一样,通过极高的效率收益大幅拉低 AI 的运行成本。
华尔街无惧冲击,高呼 " 抄底 "
面对科技圈的狂热与二级市场的抛售,华尔街投行表现出显著的冷静,并认为市场反应过度。
Lynx Equity Strategies 分析师 KC Rajkumar 对该技术的 " 颠覆性 " 提出质疑。他在给客户的报告中指出,媒体对该技术的报道存在夸大成分。
他表示,当前的推理模型早已广泛采用 4 比特量化数据,谷歌所谓的 8 倍性能提升是建立在与老旧的 32 位模型对比之上的。他强调,这些先进的压缩技术仅仅是为了缓解算力瓶颈,并不会破坏未来三到五年内因供应受限而依然坚挺的内存与闪存需求。为此,他维持对美光科技 700 美元的目标价及买入评级,并明确表示建议 " 在因谷歌消息引发的回调中买入 "。
Wells Fargo 分析师 Andrew Rocha 同样指出,尽管 TurboQuant 直击 AI 系统的内存成本曲线,但历史经验表明,压缩算法的存在从未从根本上改变硬件采购的整体规模,目前 AI 内存的需求基本面依然强劲。
杰文斯悖论再现,长期需求或受提振
除了指出市场反应过度外,机构还从更长远的经济学视角重新评估了 TurboQuant 的影响。
摩根士丹利在分析中指出,TurboQuant 仅作用于推理阶段的键值缓存,完全不影响模型训练任务,也不影响模型权重所占用的高带宽内存(HBM)。该技术的核心意义在于提升单 GPU 的吞吐量,使相同硬件能支持更长的上下文或更大的批处理规模。
摩根士丹利进一步援引了 " 杰文斯悖论 "(Jevons Paradox)来阐释这一现象:技术效率的提升往往会降低使用成本,从而激发出更庞大的总需求。通过大幅降低单次查询的服务成本,TurboQuant 能够让原本只能在云端昂贵集群上运行的模型迁移至本地,有效降低 AI 规模化部署的门槛。
这意味着,效率提升将激活更多原本受制于成本而无法落地的 AI 应用场景。投行总结称,该技术重塑了 AI 部署的成本曲线,对算力与内存硬件的长期影响不仅不是利空,反而呈现出 " 中性偏正面 " 的积极信号。