为什么Agent的大脑需要一本“作战手册”:从本体论到Graph RAG的实战收益
Neo4j 的 Jesús Barrasa 在这场分享中提出了一个反直觉但极具实践价值的观点:要让 AI Agent 更可靠,关键不只是更大的模型,而是一套清晰的“知识作战手册”——本体论。通过将本体论引入 Graph RAG,他展示了如何在构建和检索两个阶段显著提升 AI 应用的质量与可控性。
Neo4j 的 Jesús Barrasa 在这场分享中提出了一个反直觉但极具实践价值的观点:要让 AI Agent 更可靠,关键不只是更大的模型,而是一套清晰的“知识作战手册”——本体论。通过将本体论引入 Graph RAG,他展示了如何在构建和检索两个阶段显著提升 AI 应用的质量与可控性。
LlamaIndex 开发者关系副总裁 Laurie Voss 用 15 分钟浓缩了一个关键信息:真正能在生产中跑起来的 Agent,靠的不是“更聪明的模型”,而是扎实的设计模式。这场演讲从 RAG 的必要性讲起,逐步引出链式、路由和编排式等 Agent 架构,给出了一套可复用的方法论。
这篇文章深入解读Vectara推出的开源项目 open-rag-eval,解释它为何要在没有“golden answers”的情况下评测RAG系统,以及背后的研究方法、关键指标和实际使用体验,帮助RAG开发者真正理解并优化自己的检索增强生成流水线。
这是一次来自一线AI工程师的真实复盘:经历37次失败后,Jonathan Fernandes 总结出一套可在生产环境稳定运行的RAG技术栈。文章不仅讲清楚每一层该怎么选,更重要的是解释了为什么很多RAG项目会悄无声息地失败。
在RAG几乎成为标配的当下,评测却悄然失真。AI21 Labs的Yuval Belfer和Niv Granot通过真实案例指出:我们正在为错误的基准优化系统。本文还原他们的核心论证,解释为什么主流RAG评测无法反映真实世界,并介绍一种以结构化数据为中心的替代路径。
在 AI Agent 工具爆发的当下,Aparna Dhinkaran 提醒行业:真正决定成败的不是你能不能“做出 Agent”,而是你是否知道它在真实世界里有没有正确工作。这场演讲系统拆解了 Agent 的结构、评估方法,以及语音与多模态时代带来的全新挑战。
这场来自 TraceLoop CEO 的分享,用一个极其务实的视角解释了:为什么生成式 AI 的可观测性问题,不能从零重新发明,而应该建立在 OpenTelemetry 之上。你将理解日志、指标、追踪在 LLM 应用中的真实价值,以及 OpenLLMetry 如何把这些能力“自动”带入现有观测平台。