(来源:机器之心)
编辑|泽南、杨文
没想到这次大面积市场震荡,还引出了学术大瓜。
本周五晚,谷歌的学术不端事件成为了 AI 圈的焦点。
来自苏黎世联邦理工学院(ETH Zurich)的博士后高健扬发布文章,表示 Google Research 论文「TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate」中,有关已有的 RaBitQ 向量量化算法的描述、理论结果对比、实验对比均存在严重问题,且相关问题早在论文投稿前便已被明确指出,却被作者方刻意忽视。

作为能够干翻一片「主线」逻辑公司的 AI 研究,TurboQuant 在业界的含金量似乎毋庸置疑。然而谁能想到,这篇被谷歌推上神坛、拥有千万级曝光量的 ICLR 顶会论文,其最核心的技术底座却深陷「抄袭」疑云。
引发内存股震荡的 TurboQuant
谷歌的 TurboQuant 论文最近火出了 AI 研究领域,这篇被全球 AI 研究顶会 ICLR 2026 接收的论文介绍了一种压缩算法,声称能够将大语言模型的 KV 缓存内存占用减少至少 6 倍,速度提升高达 8 倍,且精度零损失。
TurboQuant 于 2025 年 4 月公开于预印版论文平台 arXiv 上,2026 年 1 月被 ICLR 2026 接收,3 月 24 日经谷歌研究博客介绍引发了巨量关注。

在 AI 大模型的推理时,AI 每次生成一个新词都需要「回顾」对话历史(上下文),这部分内容被存储于 KV 缓存上。因此,KV 缓存占用的内存往往会成为限制大模型速度和成本的最大瓶颈。TurboQuant 提出的极限无损压缩方法效果惊人,由于能够大幅降低运行大模型所需的硬件资源,它直接冲击了市场对内存芯片爆发式增长的预期。
在谷歌博客发布的当天,美国内存股集体暴跌,闪迪一度跌 6.5%,希捷科技跌超 5%,西部数据跌超 4%,美光科技跌 4%。市场一天蒸发的市值超过了 900 亿美元。

这项被谷歌大肆宣传的技术到底是怎么做到的?简单来说,它用一套精妙的方法解决了内存消耗的死结。
TurboQuant 通过两阶段压缩实现这一目标:第一阶段利用「随机旋转」和 PolarQuant 机制将高维向量映射到极坐标,实现极限压缩;第二阶段利用 Quantized Johnson-Lindenstrauss (QJL) 变换,使用仅 1 bit 的空间来修正内积计算的偏差。
然而,正是这部分技术,成为了引爆学术丑闻的导火索。
ETH Zurich 的高健扬博士列举证据表示,这项被谷歌宣传的「革命性」核心机制并非谷歌首创,其在两年前就已经被他的团队完整提出。
更令人气愤的是,谷歌在其论文中刻意「回避」和「淡化」了先行技术。
RaBitQ 作者公开质疑:
TurboQuant 的核心方法,两年前就有
RaBitQ 系列论文于 2024 年发表,提出了一种高维向量量化方法,并从理论上证明其达到了理论计算机顶级会议论文给出的渐近最优误差界。
RaBitQ 和扩展版分别发表于顶级会议 SIGMOD 2024 和 SIGMOD 2025。

RaBitQ 的核心思路之一,是在量化前对输入向量施加随机旋转(random rotation / Johnson-Lindenstrauss 变换),利用旋转后坐标分布的性质做向量量化,在理论上实现最优误差界。
而 TurboQuant 的方法核心同样是在量化前对输入向量施加随机旋转(Johnson-Lindenstrauss 变换),这一点,甚至是 TurboQuant 作者自己在 ICLR 审稿回复中亲口描述的。

然而,TurboQuant 论文全程刻意回避了与 RaBitQ 在方法上的直接关联,反而在正文中将 RaBitQ 描述为 grid-based PQ,并且在描述中忽略了 RaBitQ 中核心的 random rotation 步骤,有意模糊两者之间的传承关系。
TurboQuant 的第二作者 Majid Daliri 早在 2025 年 1 月便曾主动联系高健扬,请求协助调试其自行用 Python 复现的 RaBitQ 代码,这说明 TurboQuant 团队对 RaBitQ 的技术细节知之甚详。
既然早已知晓并请教过原作者,为何在最终的论文中不进行合理的引用和客观对比?
高健扬团队在发现这些问题后本着学术严谨的态度,从 2025 年 5 月起就通过邮件与 TurboQuant 团队进行了多次私下沟通,并明确指出了其中的事实性错误。
然而 TurboQuant 团队以「随机旋转已成为领域标准技术,无法引用每一个使用它的方法」为由拒绝修正。随后,这篇论文不仅被推上了 ICLR 2026,还成为了全球关注的焦点。
这样的学术叙事如果不被纠正,就会逐渐成为共识。高健扬团队最终下场列出了几项指控。
三项具体指控
高健扬在文章中列出了三项具体问题。
第一,系统性回避技术相似性。
TurboQuant 不仅未能正面讨论两者方法的结构联系,反而还将原本正文中对 RaBitQ 不完整描述移到了附录中,这一举动甚至发生在审稿人已明确指出「RaBitQ and variants are similar to TurboQuant in that they all use random projection」并要求充分讨论之后。
TurboQuant 作者回复称「随机旋转和 Johnson-Lindenstrauss 变换的使用已经是该领域的标准技术,我们不可能引用每一篇使用了这些方法的论文」。
高健扬团队认为这一回应是在转移矛盾:作为在相同问题设定下率先将随机旋转(Johnson-Lindenstrauss 变换)与向量量化结合、并建立最优理论保证的具体先行工作,RaBitQ 应当在文中被准确描述,其与 TurboQuant 方法的联系应当充分讨论。
第二,错误描述 RaBitQ 的理论结果。
TurboQuant 论文将 RaBitQ 的理论保证定性为「次优(suboptimal)」,并归因于「较粗糙的分析(loose analysis)」,却未给出任何推导、对比或证据。
事实是在拓展版 RaBitQ 论文(arXiv:2409.09913)的 Theorem 3.2 中,已经严格证明 RaBitQ 的误差界达到了理论计算机顶级会议论文(Alon-Klartag, FOCS 2017)给出的渐近最优误差界。因为这一结果,高健扬团队被邀请至理论计算机科学顶级会议 FOCS 的 Workshop 进行报告。
2025 年 5 月,高健扬团队与 TurboQuant 的第二作者 Majid Daliri 进行了多轮详细的邮件技术讨论,逐条澄清了这一错误解读,Majid Daliri 也明确表示已告知全体共同作者。然而这一错误定性在论文经历完整审稿、被接收乃至大规模宣发的全过程中,始终未被更正。
第三,刻意制造不公平的实验条件。
TurboQuant 论文测试 RaBitQ 速度时,既未使用官方开源的 C++ 实现,转而用了 Majid Daliri 自己翻译的 Python 版本,又将 RaBitQ 限制在单核 CPU、关闭多线程的条件下运行,而 TurboQuant 自身则使用 NVIDIA A100 GPU 进行测试。这两层系统性的不公平条件均未在论文中明确披露。
Majid Daliri 本人在 2025 年 5 月的邮件中曾承认了单核限制这一情况,但论文仍将由此得出的「RaBitQ 比 TurboQuant 慢数个数量级」的结论呈现给读者,却未附任何说明。
选择公开发声
高健扬表示,他们在 2025 年 11 月便发现 TurboQuant 提交了 ICLR 2026,随即联系 ICLR Program Committee Chairs,但未获任何回应。
2026 年 1 月论文正式被接收后,谷歌开始通过官方渠道大规模推广,相关内容在社交媒体上的浏览量迅速达到数千万次。
2026 年 3 月,高健扬团队再次正式致函 TurboQuant 全体作者,要求说明与更正。目前收到的回复来自第一作者 Amir Zandieh,承诺会在 ICLR 会议正式结束后修正问题二和问题三,但拒绝就技术相似性问题作出任何讨论。
高健扬已在 ICLR OpenReview 平台发布公开评论,并向 ICLR General Chairs、PC Chairs 及 Code and Ethics Chairs 提交了包含完整证据的正式投诉,同时表示将在 arXiv 发布关于 TurboQuant 和 RaBitQ 的详细技术报告,并保留进一步向相关机构反映的选项。

他在文末写道:「一篇论文被 Google 以数千万曝光量推向公众,在这种体量下,论文中错误的叙事不需要主动传播,只需要不被纠正,就会自动成为共识。」
目前,高健扬等人的主张得到了很多人的支持。


很多人表示,谷歌在 AI 研究上这样的做法已经不是第一次了。
或许谷歌与 ICLR 官方需要给出解释。
参考内容:
https://zhuanlan.zhihu.com/p/2020969476166808284
https://x.com/gaoj0017/status/2037532673812443214
https://openreview.net/forum?id=tO3ASKZlok
https://research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/
相关推荐
400多篇论文被曝造假,“论文作坊”真面初现?
“老板学术造假被查了,想退学”
谷歌大脑也宫斗,资深研究员抹黑AI设计芯片项目组,传你Nature论文造假
AI席卷学术圈,高校忍不了了
为何这么多医生向学术造假低头?
一年一万篇论文撤稿,期刊编辑守不住学术大门了?
最后的学术净土也脏了,顶尖数学家:虚假论文数量正在惊人增长
斯坦福大学校长辞职:被校报学术打假拉下马
大学生靠ChatGPT写论文,学术诚信何去何从?
AI领域最火的论文平台arXiv,正在成为学术毒瘤?
网址: 血洗内存股900亿刀的谷歌AI论文,竟涉嫌学术造假 https://m.xishuta.cn/newsview148219.html