从数学到RAG:Google研究员Kelvin Guu的模型方法论
在这期 No Priors 播客中,Google Brain 研究科学家 Kelvin Guu 回顾了自己从数学、统计走向自然语言处理的路径,并系统讲述了他在检索增强生成(RAG)、模块化模型和指令跟随方面的核心思考。这是一场关于“如何让模型更像工具而非黑箱”的深度对话。
在这期 No Priors 播客中,Google Brain 研究科学家 Kelvin Guu 回顾了自己从数学、统计走向自然语言处理的路径,并系统讲述了他在检索增强生成(RAG)、模块化模型和指令跟随方面的核心思考。这是一场关于“如何让模型更像工具而非黑箱”的深度对话。
IBM宣布“用AI替代7800个岗位”,但真相比裁员更冷酷;亚马逊不满足于Bedrock,直接重做Alexa的大模型;而UT Austin的研究,已经能把脑电活动翻译成文字。更耐人寻味的是,这一切背后,AI教父Hinton选择了离开。
AI 能把你“想的内容”变成文字了,而且不是关键词匹配,而是理解语义后的复述。这项登上《Nature Neuroscience》的研究,让无数人第一次认真思考:大模型和人脑,可能比我们想象的更像。
过去一年,AI 画图最大的笑话不是手画不好,而是字写不对。现在,这个“行业通病”第一次被正面击穿。Stability AI 体系下的开源模型 DeepFloyd IF,开始在图片里稳定生成可读文字——这件事的意义,远不只是“能写对单词”这么简单。
这不是又一个聊天机器人,而是一个会“看着你说话”的AI。Call Annie 把对话AI推进到了一个微妙的新阶段:它不断强调自己“没有情感”,却比绝大多数数字产品更像一个“人”。这段看似平淡的对话,其实暴露了生成式AI正在悄悄改变的三条关键边界。
一个月前,AutoGPT被捧成“AGI前夜”;一个月后,质疑声四起。但就在热度退潮时,一群真正动手的人发现:AutoGPT的价值不在“无所不能”,而在“各司其职”。这期视频点破了一个关键转折——半自治的专用智能体,才是短期内能落地的答案。
在这期《No Priors》播客中,Sarah Guo 与 Elad Gil 罕见地放下准备稿,直接回答听众关于开源模型、AI Agent、监管与AGI的尖锐问题。他们从投资者和一线观察者视角,给出了多个清晰判断:开源大模型正在快速追赶闭源巨头,训练成本会持续下降,而真正决定格局的不是技术本身,而是谁能长期跑在前面并把领先优势变成商业结果。
一个看似不起眼的功能更新,却同时戳中了隐私、监管、商业化和开源AI四根神经。ChatGPT上线“隐身模式”和企业版预告,几乎在同一时间,Hugging Face甩出开源对手。这不是巧合,而是一场正在加速的路线之争。
Stanford教授Percy Liang回顾了自己20多年NLP研究生涯,讲述GPT-3如何彻底改变他对机器学习范式的理解,并促使他创立基础模型研究中心与Together AI。本文提炼他对大语言模型、研究范式转变与算力瓶颈的独特洞见。
Databricks CTO Matei Zaharia 回顾了公司从伯克利实验室走向企业级数据与AI平台的全过程,并分享了他们如何看待大语言模型、开源、以及研究与产品之间的长期张力。这是一段关于技术判断、时机选择和“研究者创业”的真实故事。