Kevin Lu主导了GPT-4o mini的发布,并参与o*-mini、o3等模型工作。 Thinking Machines Lab由前OpenAI CTO Mira Murati创立的。
2025年7月,公司创历史完成约20亿美元的超大额早期融资(a16z领投),估值约120亿美元。
随后团队核心成员在社交平台上互动表示欢迎。
Kevin Lu是强化学习与小模型方向的研究者,本科就读于加州大学伯克利分校,在OpenAI期间专注强化学习、Small Models与合成数据。
加入Thinking Machines之前还在Hudson River Trading、MetaAI从事序列决策与深度学习研究。 真正推动AI进步的是互联网
Kevin Lu在小模型与合成数据上的实践经验,有助于Thinking Machines缩短从论文到用户价值的距离。
尤其是他7月的一篇博客非常出圈:真正推动AI进步是互联网。
深入浅出的讲明白一个事情:与其反复抠架构,不如扩大、丰富、贴近现实的数据来源(如互联网)与数据消耗方式,否则模型始终「见得少、懂得少」。
教材与Phi。Phi系列(「Textbooks Are All You Need」)在小模型上表现出色,但仍要依赖在互联网训练的GPT-4做过滤与合成。
总体看,Phi很不错,但尚未证明能达到以互联网数据预训练模型的渐近性能;且教材缺少大量现实世界与多语言知识(不过在算力受限下它们很强)。 「数据类别」的类比
可把「教材」视作可验证奖励(表述几乎总是真),而「书籍」(尤其是创作类)更像是「人类偏好」,能赋予学生模型更强的风格多样性。
就像我们可能不会让o3或Sonnet 3.7替我们写作一样,只在高质数据上训练的模型可能缺少某种创造性「火花」。
因此Phi的PMF(产品市场契合)并不理想:需要知识时,人们偏好大模型;要本地「角色写作」,人们也不太会选Phi。 互联网之美
书与教材本质上只是互联网数据的压缩(背后或许有强大智能在做压缩)。
更上一层看,互联网是极其多样化的监督源,也是人类的映射。