基准全线飙升,但模型仍在胡说八道:一位工程师的反击
当所有排行榜都在狂飙,Peter Gostev却当众泼了一盆冷水:模型变强了,但在“拒绝胡扯”这件事上,进步几乎停滞。更残酷的是,新模型有时还不如小模型。这场演讲用一个看似荒谬的基准,戳穿了我们对AI能力的集体幻觉。
当所有排行榜都在狂飙,Peter Gostev却当众泼了一盆冷水:模型变强了,但在“拒绝胡扯”这件事上,进步几乎停滞。更残酷的是,新模型有时还不如小模型。这场演讲用一个看似荒谬的基准,戳穿了我们对AI能力的集体幻觉。
如果你还沉迷于“跑最新、最大的模型”,那 AIE Miami 第二天的内容可能会让你坐立不安。从 agentic coding 的心态转变,到推理延迟的真实代价,再到 Cursor、AutoGPT 背后的产品哲学,这一天的共识只有一个:AI 工程正在彻底换玩法。
如果你还以为 AI 在生命科学里只是“帮忙分析数据”,那这期播客会直接颠覆你的认知。OpenAI 的研究者们公开讨论了一件更激进的事:科研正在从“人类不够快”,转向“算力不够多”。而这,才是真正的分水岭。
YC 最新一期《Light Cone》抛出一个让人坐不住的判断:机器人不是慢慢变好,而是刚刚跨过一个临界点。成本在塌陷、模型在统一、数据在重组,最重要的是——机器人第一次开始遵循我们在 AI 软件世界里熟悉的 scaling 逻辑。
如果你还以为AI赛道的主角只有OpenAI,这条消息可能会让你愣住:Anthropic的年化收入已经冲到30亿美元,并在统计口径上反超OpenAI。更关键的是,这不是一次偶然爆发,而是一整套商业、算力和客户结构同时拐点的结果。
如果你还觉得大模型只能在云端跑,这场NVIDIA的实测会直接打脸:14B模型本地20 token/s,首token快3.4倍。更重要的不是跑得多大,而是开发者终于能在自己桌边,摸清真实的工程边界。
你可能以为,大语言模型变强靠的是更多数据、更大参数。但这场演讲抛出一个反直觉结论:真正的突破,来自让模型在强化学习环境里“自由游走”。从 OpenAI o1 到可验证的推理环境,LLM 训练正在换一套底层逻辑。
当所有人都在谈更强的模型、更自动的代理,AIE Europe Day 2 却用诗歌、摩擦和失败案例不断提醒:真正失控的不是 AI,而是工程师的判断力。这不是一场炫技大会,而是一场对“代理时代”的集体降温。
当全行业还在迷信更大的模型、更贵的算力时,NLP 教父 Chris Manning 却在这期播客里反复强调一件事:真正卡住 AI 的不是规模,而是“有没有结构化的世界模型”。Moonlake 的出现,正是对 Scaling Laws 的一次正面挑战。
一档看似“什么都聊”的节目,却在同一天把苹果50周年、SpaceX登月、AI推理、Snap生死局和潜在超级IPO串成了一条暗线:科技正在从“讲故事”阶段,进入“拼执行、拼现金流、拼算力”的硬核时代。这期TBPN,是AI从业者必须认真消化的一次信号汇总。