谷歌被“反政治正确”逼停生图:真正失控的不是文化战争
Gemini 因“拒绝生成白人形象”被迫下线生图功能,推特吵成战场。但这不是一次简单的政治正确翻车,而是一次把 AI、历史叙事权、模型控制力同时推到台前的事故。更微妙的是:就在谷歌技术里程碑频出的同一周。
Gemini 因“拒绝生成白人形象”被迫下线生图功能,推特吵成战场。但这不是一次简单的政治正确翻车,而是一次把 AI、历史叙事权、模型控制力同时推到台前的事故。更微妙的是:就在谷歌技术里程碑频出的同一周。
当所有人盯着 Sora 和 Gemini 1.5 时,一个几乎没上热搜的项目,悄悄把大语言模型的“速度天花板”直接掀了。不是模型变聪明了,而是“生成几乎没有等待时间”——这可能是生成式 AI 进入下一阶段的真正信号。
多数人聊大模型,只盯着参数、算力和 Transformer 架构,却忽略了一个更“底层”的事实:模型看到的世界,全是 Token。Andrej Karpathy 用一整期视频,从零实现 GPT Tokenizer,揭示了一个行业共识——Tokenizer,才是真正决定模型能力上限的隐秘开关。
Sora 发布后,真正震动世界的不是技术圈的惊叹,而是技术圈之外的恐慌。抗议、愤怒、失控感在社交媒体蔓延。这篇文章讲清楚一个关键问题:人们到底在怕什么?以及,为什么这次的恐惧,和以往任何一次 AI 热潮都不一样。
大多数人还在讨论 Sora 会不会颠覆影视行业,但 OpenAI 的研究论文里,其实藏着一个更大的野心:视频生成只是表象,真正的目标是训练一个能“理解并模拟物理世界”的模型。这篇文章带你拆解 Sora 背后的关键技术路线,以及它为什么会让 AI 从业者坐立不安。
如果你以为生成式 AI 的终点是 Copilot,那你已经落后一代了。前 GitHub CEO Nat Friedman 刚刚投出 1 亿美元,赌的不是“更会写代码的 AI”,而是“能理解整个代码宇宙、自己进化的软件工程师”。这场竞赛,正在悄悄改变 AGI 的路线图。
Google 这次不是小修小补,而是直接把大模型的“大脑容量”拉到新维度:100万 Token 上下文窗口。它意味着什么?不只是更长的对话,而是整本书、整部电影、完整代码库一起推理。更重要的是,这一次,Google 真的把东西交到了开发者手里。
如果你还在争论“AI到底聪不聪明”,那你可能已经落后了一步。OpenAI前核心研究员Andrej Karpathy抛出一个看似温和、实则锋利的提议:别再叫AI了,叫“智能增强”。这不是语义洁癖,而是一场关于AI定位、风险和未来走向的关键转向。
一场来自Y Combinator的圆桌讨论,把AGI的分歧摊在台面上:有人认为已然到来,有人坚持仍很遥远。比时间更重要的是定义、能力边界与伦理共识。
这不是一场关于模型参数的技术演讲,而是一次关于“人是什么”的实验。a16z与Generative Agents论文作者June Park,通过AI Town这一模拟世界,展示了大语言模型如何第一次被用来理解、而不只是模仿人类行为。