从Vicarius到Anthropic:Nick Joseph解读AI预训练、规模定律与未来挑战

AI PM 编辑部 · 2025年09月30日 · 1 阅读 · AI/人工智能

正在加载视频...

视频章节

本文基于Anthropic预训练负责人Nick Joseph在Y Combinator专访中的一手讲述,带你深入理解大模型预训练的底层逻辑、团队如何在资源有限时突破极限,以及AI未来面临的真实技术与伦理挑战。通过具体故事和独家洞见,揭示行业内部鲜为人知的决策与困惑。

从Vicarius到Anthropic:Nick Joseph解读AI预训练、规模定律与未来挑战

本文基于Anthropic预训练负责人Nick Joseph在Y Combinator专访中的一手讲述,带你深入理解大模型预训练的底层逻辑、团队如何在资源有限时突破极限,以及AI未来面临的真实技术与伦理挑战。通过具体故事和独家洞见,揭示行业内部鲜为人知的决策与困惑。

从非典型路径到AI前线:Nick Joseph的转折故事

在AI领域,许多顶尖研究者都来自学术路线,但Nick Joseph的经历却充满转折。他最初在Vicarius(后转型为机器人产品公司)做计算机视觉模型训练,坦言“那是我的第一份工作,学到了机器学习模型和基础设施的全部。”但他并非一开始就立志于AI安全,反而曾因在GiveWell实习而考虑用经济学帮助贫困群体。“我当时对AGI风险并不信服,想直接帮助贫困人口。”然而,现实让他转向AI:“如果AI安全真的重要,我就做安全;如果不重要,AI也能帮助更多人。”

他的故事里有很多意外和选择,比如在OpenAI时,因团队大规模离职而被“邀请”加入Anthropic,成为创始团队一员。“我加入OpenAI就是因为在乎AI安全,后来大家都去了Anthropic,我也跟着去了。”这些经历不仅塑造了他对AI的务实态度,也让他在Anthropic早期成为推动大模型预训练的关键人物。

预训练的本质与规模定律:为什么“算力”才是王道

预训练(pre-training)是大语言模型的核心环节,Nick Joseph用一句话点明:“你只要不断加大算力、数据和模型规模,模型就会变得更好。”他详细解释了“规模定律”(Scaling Laws):只要投入更多计算资源,模型预测下一个词的损失(loss)会以幂律关系持续下降。

他回忆早期Anthropic只有十几人,资金有限,但正是对规模定律的坚定信仰让他们敢于“在资源有限时押注大模型”。“当时感觉全世界只有30个人在认真做这件事,大家都低估了规模定律的力量。”

Nick还分享了技术选择背后的实用主义:“很多预训练目标都是靠实验选出来的,像GPT系列的自回归建模(next word prediction)最终胜出,部分原因是它生成文本的方式最适合产品化。”他强调,虽然细节优化有意义,但“算力才是决定性因素”,只要方向对,细节误差不会毁掉整个模型。

突破极限:小团队如何玩转大规模分布式训练

在大模型训练中,硬件和基础设施的极限是绕不开的挑战。Nick坦言:“我们必须把硬件榨干每一分效率。”早期Anthropic用云服务训练模型,却发现“你必须理解芯片在数据中心的物理布局”,甚至同事用聚类算法推断芯片分布,以优化网络延迟。

那时没有现成的分布式训练框架,他们不得不自己实现数据并行、流水线并行等底层机制。“我们要做的规模比Facebook还大,不能依赖现有包。”他还提到,团队文化和分工也影响效率:“早期大家都是通才,后来需要更多专精工程师,能从底层网络到ML逻辑全栈排查bug。”

Nick用幽默的自嘲讲述成长:“我在Anthropic前从没用过调试器(debugger),只会print。后来发现调试器太好用了!”这种“边做边学”的氛围,让团队能在硬件、软件、算法多层次协同突破。

数据、评测与对齐:AI进化的隐形瓶颈

随着模型规模扩张,数据和评测(eval)成为新瓶颈。Nick指出,虽然“大家都说互联网数据快用完了”,但实际上“有用的数据量和质量很难界定”。他举例,PageRank等指标未必适合AI,真正有价值的数据往往藏在长尾。

关于评测,他直言:“loss其实是很好的指标,令人惊讶地有效。”但他也警告,AI领域常见“目标达成后发现目标本身不够好”的现象,比如模型能通过编程面试题,却离通用智能还差很远。

在AI对齐(alignment)上,Nick强调“对齐就像给汽车装方向盘,先能转弯再讨论谁来开车”。他认为,模型的价值观应“在某种民主控制下”,而不是由单一群体决定。当前大部分对齐工作发生在后训练(post-training)阶段,因为“迭代速度快,能快速试错”,但未来可能需要把部分对齐机制融入预训练,以获得更强的稳健性和智能。

未来挑战:范式转变与“百万倍复杂度”的工程难题

展望未来,Nick最担心的不是理论突破,而是“极难发现的工程bug”。“一个小bug可能让你损失几个月,甚至一个模型世代。”随着模型和硬件复杂度指数级上升,团队需要能“从ML逻辑到底层网络协议全栈排查”的工程师。

他坦言,团队已不再是清一色的PhD研究员,而是“更需要能解决极难工程问题的工程师”。早期Anthropic甚至招了不少理论物理学家,“他们聪明、肯学,很快就能上手。”

Nick还预判,未来AI领域会有更多范式转变(如强化学习的崛起),单靠“堆算力”未必能解决所有问题。“如果未来只是不断加大规模,没有任何新发现,那才是最令人惊讶的事。”

总结

Nick Joseph的经历和洞见让我们看到,AI大模型的突破不仅仅依赖于算力和算法,更离不开敢于冒险、快速学习和全栈工程能力的团队。预训练、数据、对齐、评测、工程细节,每一环都充满了不确定性和挑战。对于读者来说,AI的未来不只是技术竞赛,更是跨学科、跨视角的协作与探索。也许,正如Nick所说,“对齐是先装方向盘,谁来开车以后再说”——AI的未来,需要我们每个人共同参与。


关键词: 预训练, 规模定律, AI对齐, 分布式训练, 工程挑战

事实核查备注: 1. 人名:Nick Joseph(Anthropic预训练负责人),Dario Amodei(Scaling Laws论文作者,Anthropic联合创始人);2. 公司:Vicarius、OpenAI、Anthropic、Meta、Google、Google DeepMind、NVIDIA;3. 产品:GPT、GPT-3.5、GPT-4、Gemini、Claude、DeepSeek、TPU、GPU;4. 技术名词:预训练(pre-training)、规模定律(Scaling Laws)、自回归建模(next word prediction)、数据并行、流水线并行、分布式训练、loss、eval、AI对齐(alignment)、人类反馈强化学习(RLHF)、调试器(debugger);5. 关键数字:早期Anthropic团队10-12人,早期训练模型用到上千块GPU,GPT-3训练成本约500万美元。