Gemma 4刚发布7天,就把“大模型必须上云”的共识掀翻了
一周前发布的Gemma 4,没有靠更大的参数震撼行业,却用“完全离线、跑在手机上、Apache 2开源许可”这三件事,重新定义了什么叫真正可用的开源大模型。这不是一次常规更新,而是一种路线选择。
一周前发布的Gemma 4,没有靠更大的参数震撼行业,却用“完全离线、跑在手机上、Apache 2开源许可”这三件事,重新定义了什么叫真正可用的开源大模型。这不是一次常规更新,而是一种路线选择。
当整个 AI 圈都在 All in 向量数据库时,Neo4j CEO Emil Eifrem 在这期 Latent Space 里泼了一盆冷水:向量很重要,但它们解决不了“理解”。真正让 AI 变聪明的,是知识图谱、上下文和可解释的结构。这是一场关于“AI 为什么还不够聪明”的深度对谈。
如果你还觉得大模型只能在云端跑,这场NVIDIA的实测会直接打脸:14B模型本地20 token/s,首token快3.4倍。更重要的不是跑得多大,而是开发者终于能在自己桌边,摸清真实的工程边界。
在 Latent Space 的这期访谈里,Mistral 团队抛出了一个让很多企业不舒服的观点:你用得越多闭源模型,手里沉淀多年的私有数据价值就越被浪费。同时,他们正式发布了自家的语音生成模型 Voxal(或 Voxtral)TTS,并罕见地深入讲清了音频模型在架构、token 与部署层面的真实难题。
一家做客服的软件公司,训练了一个“只会干一件事”的模型,却在真实指标上击败了GPT‑5.4和Opus 4.5。这不是个例,而是一个信号:在2026年,AI性能的主战场,正在从“更大的通用模型”转向“更狠的垂直模型”。
如果你还把 NVIDIA 当成一家“卖 GPU 的公司”,那你已经落后了至少一个时代。在这期 Lex Fridman 的长谈中,黄仁勋用近乎残酷的坦诚,讲清了 NVIDIA 为何押上整个组织,从芯片公司进化为“AI 工厂设计商”,以及这场转型对所有 AI 从业者意味着什么。
当 AI agent 拿到自己的信用卡,这不只是一个支付功能更新,而是一个信号:AI 正在从“工具”变成“能独立行动的经济体成员”。更耐人寻味的是,Anthropic 反超 OpenAI、Sora 回归 ChatGPT、马斯克的 MacroHard 再起,这些看似零散的新闻,其实指向同一个拐点。
当所有人还在纠结要不要微调模型时,YC 的一场对话直接掀桌:有团队用更便宜、更快的方法,让大模型在不微调的情况下持续变强。这不是提示工程的小修小补,而是一种可能改写 AI 应用范式的新思路。
大多数人把OpenClaw当成一个“会跑任务的AI工具”,但这期播客里,Greg Isenberg和Nick反复强调一件反直觉的事:它更像一个需要被管理、被训练、被优化的员工。真正的机会,不在炫技,而在把它变成能持续创造业务结果的机器。
当所有人还在讨论模型规模和算力时,Prime Intellect 的两位研究者抛出一个反直觉判断:真正卡住 AI 研究的,已经不是数据,而是“环境”和“评估”。他们正在做的事情,可能会重塑强化学习、后训练和 AI Agent 的整个工作方式。