AI界最新共识:语言,不是模型的母语,数学空间才是!它该闭嘴了
大模型也许不该说话了。这是AI界一个正在成型的新共识:语言,正成为阻碍推理能力释放的瓶颈。
传统的大语言模型,从GPT到Claude,从Bard到Deepseek,都是靠“说话”来推理的。问它一个数学题,它会列出“思考过程”;让它分析伦理难题,它也会“条理清晰”地给你一个逻辑铺陈。但这些文字,其实是代价高昂的赘余表达。
语言不是模型的母语,数学空间才是。模型“脑中”的信息,永远以向量存在。这个空间叫做latent space,潜空间。无论是GPT还是Gemini,它们的所有计算过程都是向量到向量的变换。每一个词,都是被转换成数值后才能“被理解”。
但模型不能一直待在这个空间。它必须定期“翻译”成一个个词语——也就是我们看到的回答过程。这一步不只是信息损失严重,而且计算成本极高,尤其是面对复杂推理任务,转换频率越高,效率越低。
现在,有人打破这个常规。
去年,Meta实习生Shibo Hao搞了一个新模型,叫Coconut。这个模型的核心创新在于:它拒绝频繁从潜空间跳出来说话。
传统模型的“思考”是一串词,Coconut直接把“思考”锁定在数学空间里,一直不说话,直到最后才输出结果。它绕开了“文字思维”,保留了更丰富的内部信息,更像是人类的直觉式推理。
效果很惊人。在逻辑推理测试中,它和GPT-2版本一样精准(98.8%),但只用了十分之一的词。在多选任务中,它更少语言、更高准确率。关键是:同样的底座模型,Coconut不换架构、不加参数,仅仅绕开语言,就做得更好。
更极端的是另一组人。
马里兰大学的Tom Goldstein团队,干脆连固定层数都不要了。他们做了一个循环结构,让模型自己决定思考几次。模型可以在潜空间中反复循环,不断迭代,直到认为“我想明白了”,才出来说话。
更离谱的是,模型自己学会了“简单问题快出结果,复杂问题多想几轮”。没有人教它怎么判断,它在潜空间中自己形成了“难度感知”。