500 Token/秒的怪兽出现:它不是GPT,也不是Gemini
当所有人盯着 Sora 和 Gemini 1.5 时,一个几乎没上热搜的项目,悄悄把大语言模型的“速度天花板”直接掀了。不是模型变聪明了,而是“生成几乎没有等待时间”——这可能是生成式 AI 进入下一阶段的真正信号。
当所有人盯着 Sora 和 Gemini 1.5 时,一个几乎没上热搜的项目,悄悄把大语言模型的“速度天花板”直接掀了。不是模型变聪明了,而是“生成几乎没有等待时间”——这可能是生成式 AI 进入下一阶段的真正信号。
多数人聊大模型,只盯着参数、算力和 Transformer 架构,却忽略了一个更“底层”的事实:模型看到的世界,全是 Token。Andrej Karpathy 用一整期视频,从零实现 GPT Tokenizer,揭示了一个行业共识——Tokenizer,才是真正决定模型能力上限的隐秘开关。
大多数人还在讨论 Sora 会不会颠覆影视行业,但 OpenAI 的研究论文里,其实藏着一个更大的野心:视频生成只是表象,真正的目标是训练一个能“理解并模拟物理世界”的模型。这篇文章带你拆解 Sora 背后的关键技术路线,以及它为什么会让 AI 从业者坐立不安。
如果你以为生成式 AI 的终点是 Copilot,那你已经落后一代了。前 GitHub CEO Nat Friedman 刚刚投出 1 亿美元,赌的不是“更会写代码的 AI”,而是“能理解整个代码宇宙、自己进化的软件工程师”。这场竞赛,正在悄悄改变 AGI 的路线图。
就在 ChatGPT 开始拥有长期记忆的同一周,OpenAI 最具代表性的研究员之一 Andrej Karpathy 再次选择离开。一个人离场,一个产品进化,这不是巧合,而是 OpenAI 战略拐点的信号:大模型时代,正在让位给“长期共处”的 AI 助手时代。
Google 这次不是小修小补,而是直接把大模型的“大脑容量”拉到新维度:100万 Token 上下文窗口。它意味着什么?不只是更长的对话,而是整本书、整部电影、完整代码库一起推理。更重要的是,这一次,Google 真的把东西交到了开发者手里。
在这期 No Priors 播客中,Notion CEO 伊万·赵系统阐述了 Notion 的长期愿景:用“软件积木”取代碎片化应用,让 AI 成为人人可用的认知与创造工具。他分享了 Notion AI、Q&A、日历背后的方法论,以及他对未来十年计算形态的关键判断。
Google宣布拿出2500万美元在欧洲做AI技能培训,表面看是“良心科技公司”的再一次出手,背后却与裁员、AI替代白领、以及新一轮技术洗牌紧密相关。这不仅是一次培训计划,更是一张提前摊开的未来底牌。
这场对话来自一家估值数十亿美元的医疗公司内部实践者,围绕“为什么最强大的大模型仍然不懂医疗体系”、上下文窗口的真实瓶颈,以及AI在医疗场景中增长、留存与落地的反直觉经验,揭示了AI医生之路并非技术单点突破,而是系统性工程。
谷歌亲手“杀死”了 Bard,把全部筹码压在 Gemini 上,并首次放出真正能与 GPT‑4 同级的模型 Ultra 1.0。这不只是一次产品升级,而是谷歌在 AI 战场上的一次自我救赎:一场迟到一年、却必须打赢的战争。