球迷论坛 发表于 2026-3-28 23:52:10

一论文引发全球内存股震荡!原作者澄清:Google TurboQuant 歪曲我们的算法成果

日前,一篇尚未正式发表的学术论文,引发全球存储芯片板块剧烈震荡。据测算,全球主要内存巨头市值单日蒸发超900亿美元。这篇论文就是谷歌研究院即将在国际学习表征会议(ICLR 2026)上正式亮相的论文“TurboQuant”。在引发轩然大波后,论文原作者发文澄清,指控 Google TurboQuant 严重歪曲了他们的算法成果。大家好,我叫高健扬,目前在苏黎世联邦理工学院做博士后,我是RaBitQ系列工作的第一作者。Google Research 于2026年1月被 ICLR 2026会议接收的论文 ”TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate“ 中,有关已有的 RaBitQ 向量量化算法的描述,理论结果对比,实验对比均存在严重问题(详细情况后文会展开描述)。这些问题在论文投稿至 ICLR 2026前已被我们通过邮件明确指出,TurboQuant 团队也明确表示已知情,但选择了不予修正。论文随后被 ICLR 2026会议接收,然后通过 Google 官方渠道大规模推广,在社交媒体浏览量已达到数千万次。我们此时公开说明,是因为错误的学术叙事一旦广泛传播,纠正的成本会越来越高。背景:RaBitQ 是什么RaBitQ 系列论文(如下所列)于2024年发表,提出了一种高维向量量化方法,并从理论上证明其达到了理论计算机顶级会议论文(Alon-Klartag,FOCS 2017)给出的渐近最优误差界。RaBitQ(arXiv:2405.12497,2024年5月,随后发表于顶级会议SIGMOD 2024) 扩展版(arXiv:2409.09913,2024年9月,随后发表于顶级会议SIGMOD 2025)RaBitQ 的核心想法之一是在量化前对输入向量施加随机旋转(random rotation /Johnson-Lindenstrauss 变换),利用旋转后坐标分布的性质做向量量化,在理论上实现最优误差界。TurboQuant 论文问题一:系统性地回避 TurboQuant 方法与已有 RaBitQ 方法的相似性RaBitQ 与 TurboQuant 在方法层面有直接的结构联系,两者都在量化前对输入向量施加随机旋转(Johnson-Lindenstrauss 变换)。这是两篇论文方法设计中最核心、最接近的部分。TurboQuant 的作者在 ICLR OpenReview 审稿平台上对审稿人的回复中,亲自这样描述自己的方法:“We achieve this by first normalizing the vectors by their l2 norm and then applying a random rotation (随机旋转)to ensure the entries of the vectors will have a beta distribution post rotation.”然而在这段回复、TurboQuant 论文中的方法介绍乃至整篇论文中,从未正面说明这一结构与 RaBitQ 完全一致。这一回避发生在以下背景之下:2025年1月(TurboQuant 论文在 arXiv 发布的数月前),TurboQuant 论文的第二作者 Majid Daliri 主动联系我们,请求帮助调试他自己基于 RaBitQ C++ 代码实现的 Python 版本。他详细描述了自己复现的步骤、代码片段和具体报错,这一点可以说明 TurboQuant 团队对 RaBitQ 的技术细节有充分的了解。之后在2025年4月他们在 arXiv 发布的论文版本,以及2025年9月他们在 ICLR 2026会议投稿的论文版本中,他们将 RaBitQ 描述为 grid-based PQ,并且在描述中忽略了 RaBitQ 中核心的 random rotation 的步骤。ICLR 的一位审稿人也在审稿意见中独立指出:”RaBitQ and variants are similar to TurboQuant in that they all use random projection”,并明确要求更充分的讨论和比较。尽管如此,在 ICLR 会议最终版本论文中,TurboQuant 的作者不仅没有加入对 RaBitQ 讨论,甚至反而还将原本正文中对 RaBitQ 不完整描述移到了附录中。为此,我们于2026年3月通过邮件联系了 TurboQuant 所有作者,提出了以上问题及纠正请求后,TurboQuant 作者在回复中以“The use of random rotation and Johnson-Lindenstrauss transformations has become a standard technique in the field, and it is not feasible for us to cite every method that employs them.”为由拒绝了这一请求。我们认为这一回应是在转移矛盾:作为在相同问题设定下率先将随机旋转(Johnson-Lindenstrauss 变换)与向量量化结合、并建立最优理论保证的具体先行工作,RaBitQ 应当在文中被准确描述,其与 TurboQuant 方法的联系应当充分讨论。TurboQuant 论文问题二:错误描述 RaBitQ 的理论结果TurboQuant论文在不提供任何论据的情况下,将 RaBitQ 的理论保证定性为”次优”。TurboQuant 论文写道:“While the paper’s theoretical guarantees are suboptimal, likely due to loose analysis — as practical performance surpasses theoretical bounds”这句话直接将 RaBitQ 的理论保证定性为”次优(suboptimal)”,将原因归结为”较粗糙的分析(loose analysis)”。但论文没有提供任何推导、对比或证据来支撑这一判断。 事实是:我们在拓展版 RaBitQ 论文(arXiv:2409.09913)的 Theorem 3.2中,已经严格证明 RaBitQ 的误差界达到了理论计算机顶级会议论文(Alon-Klartag, FOCS 2017)给出的渐近最优误差界。因为这一结果,我们被邀请至理论计算机科学顶级会议 FOCS 的 Workshop 进行报告。 为此,我们于2025年5月通过邮件与 TurboQuant 的第二作者 Majid Daliri 进行了多轮详细的邮件技术讨论,逐条澄清了 TurboQuant 团队对我们理论结果的错误解读。Majid Daliri 在邮件中明确表示已将这些讨论告知全体共同作者。 然而后面 TurboQuant 论文在提交至 ICLR 2026、经过审稿、被接收,最终大规模宣发的全过程中,这个对 RaBitQ 理论保证的错误定性始终未被修正。 一个没有证据支撑的断言,在被原作者具体指出错误、且 TurboQuant 作者方已明确知情的情况下,仍被保留在正式发表的 TurboQuant 论文中,我们认为这已超出普通失误的范畴。TurboQuant 论文问题三:刻意创造不公平的实验环境TurboQuant 论文使用劣化的实现、关闭多线程使用单核CPU测试 RaBitQ 的效果,却使用 A100 GPU 测试 TurboQuant 的效果。TurboQuant 报告的 RaBitQ 量化速度比我们开源实现的实际速度慢了数个数量级。 2025年5月的邮件中,Majid Daliri 本人解释了这一差距的来源:“we were using a single-core CPU instance, and multiprocessing was indeed disabled […] we weren’t fully utilizing parallelism, which explains why it was significantly slower”我们的官方 RaBitQ 代码在论文发布至 arXiv 时(2024年5月与2024年9月)就已经公开,并且默认采用多线程并行。并且,Majid Daliri 在2025年1月的邮件中还说明,他成功跑通 RaBitQ 的代码用以测试,但他用于实验的仍是自己翻译的 Python 版本。这意味着,TurboQuant 论文中对 RaBitQ 速度的报告,叠加了两层系统性的不公平条件:使用自己翻译的 Python 代码,而非我们开源的 C++ 实现使用单核CPU,关闭多线程并行测试 RaBitQ 算法,但却使用 NVIDIA A100 GPU 测试 TurboQuant 算法以上两点均未在论文中充分披露。读者看到的是 RaBitQ 比 TurboQuant 慢数个数量级这一结论,却无从知道这一结论建立在刻意创造的不公平的实验条件之上。事件完整时间线2024年5月:RaBitQ 论文在 arXiv 发布,同时源代码公开(后面发表在顶级会议 SIGMOD 2024)2024年9月:拓展版 RaBitQ 论文在 arXiv 发布,同时源代码公开(后面发表在顶级会议 SIGMOD 2025)2025年1月:TurboQuant 论文第二作者 Majid Daliri 联系我们,请求协助调试 Python 版 RaBitQ 实现2025年4月:TurboQuant 论文在 arXiv 发布2025年5月:我们跟 Majid Daliri 通过邮件询问了实验条件的差异并清楚解释了 RaBitQ 的理论保证最优性, Majid Daliri 表示他已告知全体作者,但在我们要求修正 TurboQuant 论文中的事实性错误之后,Majid Daliri 停止回复2025年11月:我们发现 TurboQuant 论文被提交至 ICLR 2026会议,且论文中的事实性错误并未修正,为此我们联系了 ICLR 2026 PC Chairs,未获回应2026年1月:TurboQuant 论文被 ICLR 2026接收2026年3月:TurboQuant 团队通过 Google 官方渠道持续推广,社交媒体相关浏览量已达数千万次2026年3月:我们正式向 TurboQuant 全体作者发送邮件,阐述以上三个事实性问题并要求做出修正及澄清。截至目前为止,我们仅收到 TurboQuant 论文第一作者 Amir Zandieh 的笼统答复,承诺会修正问题二和问题三,但拒绝修正问题一(即讨论 TurboQuant 与 RaBitQ 在技术上的相似性)。并且,他们仅愿意在 ICLR 2026正式会议结束之后才做相应修正我们已经做了什么在 ICLR OpenReview 发布公开评论:https://openreview.net/forum?id=tO3ASKZlok向 ICLR General Chairs, PC Chairs, Code and Ethnics Chairs 再次提交正式投诉,附完整证据包我们接下来会做什么在 arXiv 发布详细的关于 TurboQuant 和 RaBitQ 的技术报告考虑向相关机构进一步反映最后我们提出这些问题,目标是让公共学术记录准确地反映各方法之间的真实关系。一篇论文被 Google 以数千万曝光量推向公众,在这种体量下,论文中错误的叙事不需要主动传播,只需要不被纠正,就会自动成为共识,这也是我们选择公开记录的原因。在此我们也恳请大家让更多人知道 TurboQuant 论文背后存在的问题,我们相信真理越辩越明。【新闻背景】谷歌一篇尚未发布的论文引发存储芯片股恐慌 华尔街称市场误读谷歌新论文把内存股价干崩了!KV cache压缩6倍
页: [1]
查看完整版本: 一论文引发全球内存股震荡!原作者澄清:Google TurboQuant 歪曲我们的算法成果