当书会“回应你”:他用AI把阅读变成一场对话式体验
这场演讲展示了一种全新的阅读范式:书不再只是静态文字,而是能听、能问、能理解上下文的互动体验。演讲者通过真实的个人困惑出发,讲述了如何用AI重构阅读,并分享了隐藏AI、强调人类审美的产品方法论。
这场演讲展示了一种全新的阅读范式:书不再只是静态文字,而是能听、能问、能理解上下文的互动体验。演讲者通过真实的个人困惑出发,讲述了如何用AI重构阅读,并分享了隐藏AI、强调人类审美的产品方法论。
在这场Recsys主题演讲中,Eugene Yan没有讨论“要不要用大模型”,而是回答了“该怎么用”。他用一系列真实案例,提出了三条正在落地的路径:语义化ID、基于大模型的数据增强,以及统一模型,展示了推荐与搜索系统在LLM时代的真实进化方式。
这是一场专为Web开发者准备的演讲:Ishan Anand用大约600行原生JavaScript,从零跑起一个GPT‑2级别的语言模型。文章还原他在现场的讲解路径,带你理解Token、Embedding、MLP和Language Head如何串起来,以及为什么ChatGPT并不“神秘”。
这是一次来自Google DeepMind一线的内部复盘。Logan Kilpatrick用不到12分钟,讲清了Gemini过去一年真正的转折点:为什么2.5 Pro意义重大,DeepMind为何从“纯研究”转向“研究+交付”,以及他们眼中多模态、Agent和“无限上下文”的下一站。
Nir Gazit用一次真实的RAG机器人优化实验,挑战了“提示工程是一门手艺”的共识。他没有手工打磨prompt,而是用评估器和Agent把效果从0.4推到0.9,给出了一条更像工程、也更可扩展的路径。
MongoDB旗下Voyage AI的Frank Liu,用10多分钟梳理了AI搜索与检索的现状与未来。他不仅回顾了从BM25到Embedding的技术演进,更明确指出:真正拉开差距的不是“用不用向量”,而是Embedding质量、多模态能力,以及是否具备指令理解与推理能力。
MongoDB收购的创业公司CEO、斯坦福教师腾宇·马,从一线实践出发,讲述RAG在2025年的真实状态:为什么它仍然不可替代、哪些改进已经被验证有效,以及多模态Embedding将把RAG带向哪里。
这是一次来自一线AI工程师的真实复盘:经历37次失败后,Jonathan Fernandes 总结出一套可在生产环境稳定运行的RAG技术栈。文章不仅讲清楚每一层该怎么选,更重要的是解释了为什么很多RAG项目会悄无声息地失败。
在RAG几乎成为标配的当下,评测却悄然失真。AI21 Labs的Yuval Belfer和Niv Granot通过真实案例指出:我们正在为错误的基准优化系统。本文还原他们的核心论证,解释为什么主流RAG评测无法反映真实世界,并介绍一种以结构化数据为中心的替代路径。
这场演讲中,William Lyon提出了一个颇具画面感的概念——“Knowledge Graph Mullet”,用混合知识图谱的方式,解决GraphRAG在真实应用中过于复杂的问题。通过结合RDF与属性图、Dgraph与DQL,以及具体的新闻数据与AI Agent示例,他展示了一条更可落地的知识图谱+生成式AI路径。