别再把RAG当记忆:Daniel Chalef谈领域化AI记忆
Zep创始成员Daniel Chalef提出一个尖锐观点:AI Agent的记忆问题不在于检索不够聪明,而在于记忆建模从一开始就错了。他通过真实演示说明,单纯用向量数据库和RAG存“事实”,只会让无关信息污染记忆,最终放大幻觉。
Zep创始成员Daniel Chalef提出一个尖锐观点:AI Agent的记忆问题不在于检索不够聪明,而在于记忆建模从一开始就错了。他通过真实演示说明,单纯用向量数据库和RAG存“事实”,只会让无关信息污染记忆,最终放大幻觉。
这场演讲从一个现实问题出发:在复杂、密集的企业知识中,单纯依赖向量检索的RAG正在失效。Sam Julien结合真实系统演进过程,讲述了他们为何转向Graph-based RAG,以及这一转折带来的方法论启示。
这场演讲中,WhyHow 的 Tom Smoker 讲述了他们如何在诉讼与法律发现中使用知识图谱与多智能体系统。核心不在于更大的模型,而在于把零散、混乱的法律文本转化为可被 AI 推理、裁剪和决策的结构化图,从而真正影响律师的判断。
在这场由Neo4j三位核心成员分享的实践演讲中,GraphRAG被视为解决RAG幻觉、相关性不足和不可解释性的关键路径。文章梳理了GraphRAG的动机、方法论、技术流程与真实演示,解释为何“向量相似≠业务相关”,以及知识图谱如何让LLM变得更可靠。
Adobe应用AI负责人Muktesh Mishra在这场分享中,系统拆解了为何“评估(Evals)”已成为AI应用的生命线,以及如何跳出准确率与相似度的局限,把Evals当作一套可规模化、可演进的工程体系来建设。
这场来自AI Engineer的分享,并不讨论模型有多强,而是直指企业最敏感的问题:当AI参与关键业务决策时,我们到底能不能信它?Sahil Yadav 与 Hariharan Ganesan 用多年一线经验,拆解“可信AI”在真实世界落地的难点与方法。
Graphite 联合创始人 Tomas Reimers 用真实数据讲述了一个反直觉的事实:AI 写代码越多,Bug 也越多。通过数百万次 AI 代码审查,他们不仅验证了“AI 能找 Bug”,更重要的是搞清楚了“哪些 Bug 值得让 AI 找、哪些评论人类根本不想看”。
这场演讲展示了一种全新的阅读范式:书不再只是静态文字,而是能听、能问、能理解上下文的互动体验。演讲者通过真实的个人困惑出发,讲述了如何用AI重构阅读,并分享了隐藏AI、强调人类审美的产品方法论。
Synth Labs创始人Josh Purtell在演讲中提出“有状态环境”这一关键抽象,解释了为什么它正在成为构建纵向AI Agent(金融、医疗、会计等)的基础设施。本文梳理其技术脉络、真实动机与长期价值,帮助你理解下一代Agent系统的设计方式。
在DevDay的演讲中,Beth Glenfield直言:AI正在彻底击穿传统技术招聘体系。当LeetCode面试被AI助手“通关”,小公司在人才战争中节节败退,她给出了一套全新的判断标准:不再考算法,而是考人如何与AI一起工作。