英语模型迁移到中文有多难?OpenAI一组Scaling Laws给了残酷答案
很多人直觉认为:只要模型够大、预训练够久,语言迁移自然水到渠成。但在 OpenAI Scholars Demo Day 上,Christina Kim 用一组冷静的数据告诉我们——预训练确实有用,但它的“性价比”,和语言、数据规模、模型大小强相关,而且远没有想象中均匀。
很多人直觉认为:只要模型够大、预训练够久,语言迁移自然水到渠成。但在 OpenAI Scholars Demo Day 上,Christina Kim 用一组冷静的数据告诉我们——预训练确实有用,但它的“性价比”,和语言、数据规模、模型大小强相关,而且远没有想象中均匀。
在计算机视觉里横扫榜单的对比学习,一搬到自然语言却问题频出。OpenAI Scholars Demo Day 上,Ellie Kitanidis 公开了一次并不“完美”的尝试:用对比学习预训练语言模型。真正的猛料不在结果,而在她暴露出的那个几乎所有语言模型都会撞上的隐形难题。
很多人以为模型一旦训练完,推理阶段只能“照章办事”。但在这场 OpenAI Scholars Demo Day 的分享里,研究者直接挑战了这个假设:在图结构问题上,测试时多给一点计算,模型真的会变聪明,而且不只是玄学提升。
我们习惯相信:模型越大,效果越好。但在这场 OpenAI Scholars Demo Day 的分享中,一个关键前提被悄悄动摇——Scaling Laws 可能并不“公平”对待所有 Transformer 架构。Shola Oyedele 用一组克制却锋利的实验,揭开了架构选择背后的成本与收益真相。
如果你以为模型偏见只是“数据不干净”的问题,这场 OpenAI Scholars Demo Day 的分享会让你警醒:真正危险的,是模型与人类意见之间形成的反馈回路。一旦启动,它会让系统越来越极端,却几乎没人察觉。
这场SPC校友圆桌并没有炫目的项目发布,而是通过一连串真实感受,揭示了创业社区在不同阶段对个人的深层价值:陪伴、同侪反馈,以及在不确定中持续前进的心理支点。
在这期Lex Fridman播客中,Risto Miikkulainen用进化的视角重新审视人工智能。他不仅解释了什么是神经进化,更讨论了人类为何特殊、情感与死亡是否必要,以及“探索”如何成为构建下一代AI Agent的核心原则。
这期 Lex Fridman 播客中,Librex 创始人 Ryan Schiller 讲述了他在常春藤校园里的真实体验:为何学生越来越不敢说话,以及一个匿名讨论平台如何试图修复校园思想交流的裂痕。这不仅是一个产品故事,更是一代年轻人对自由表达的集体困惑。
这场炉边对谈中,Figma 创始人 Dylan Field 回顾了公司从零到一的关键抉择:为何押注当时“有点吓人”的 WebGL、为何五年都没有收入、以及在竞争加剧前选择长期 stealth 的原因。这些真实的时间点和犹豫,比成功本身更有价值。
这支来自Y Combinator的视频,系统讲清了“为什么一定要找联合创始人、什么样的人适合,以及如何降低选错人的风险”。比能力更重要的,是价值观、抗压方式和长期目标的匹配。