正在加载视频...
视频章节
当整个 AI 圈都在 All in 向量数据库时,Neo4j CEO Emil Eifrem 在这期 Latent Space 里泼了一盆冷水:向量很重要,但它们解决不了“理解”。真正让 AI 变聪明的,是知识图谱、上下文和可解释的结构。这是一场关于“AI 为什么还不够聪明”的深度对谈。
Neo4j CEO 说了句狠话:只靠向量搜索,AI 永远不懂你的知识
当整个 AI 圈都在 All in 向量数据库时,Neo4j CEO Emil Eifrem 在这期 Latent Space 里泼了一盆冷水:向量很重要,但它们解决不了“理解”。真正让 AI 变聪明的,是知识图谱、上下文和可解释的结构。这是一场关于“AI 为什么还不够聪明”的深度对谈。
最反直觉的开场:向量数据库赢了,但也输了
这期对话最炸的一点,并不是 Neo4j 在推图数据库,而是 Emil Eifrem 对向量数据库的态度异常冷静。
他说了一句很耐人寻味的话:“Everyone has vector indexes now.” 潜台词是——向量搜索已经“商品化”了。它不再是竞争壁垒,只是现代 AI 系统的基础设施之一。
过去两年,向量数据库被捧成了 RAG 的核心:Embedding + 相似度搜索,仿佛就能解决一切知识问题。但 Emil 的判断是:
- 向量检索“好用”,但它只擅长模糊匹配
- 它擅长回答“像什么”,却不擅长回答“为什么”和“怎么关联”
这直接点出了一个行业集体回避的问题:当你把所有知识都压缩成向量,AI 得到的是感觉,不是理解。
所以他说得很直白——向量搜索“good enough for most situations”,但前提是:你不在乎可解释性、不在乎精确推理、不在乎复杂关系。
为什么知识图谱重新变重要:不是存数据,而是存“关系”
在 Emil 看来,现代 AI 系统的核心变化,并不是模型更大了,而是系统开始需要“显式知识”。
他反复强调一个对比:
- 在向量世界里,关系是“隐含的”(implicit)
- 在图里,关系是“显式的”(explicit)
这带来三个直接后果:
第一,准确率的来源变了。
在纯向量 RAG 中,准确率来自相似度猜测;而引入知识图谱后,准确率来自“路径”。模型不是猜哪个文档像,而是沿着已知关系走。
第二,可解释性突然回来了。
Emil 提到 explainability 时,语气明显变重。图的好处在于:你可以清楚地看到 AI 是“怎么得出这个答案的”——哪几个节点、哪条路径、哪一步推理。
第三,生产力提升不是来自模型,而是来自结构。
他们观察到,引入知识图谱后,用户的生产力提升并不只是因为模型回答更好,而是因为系统本身更“可控”。
一句话总结:图不是为了取代向量,而是为了把 AI 从“感觉正确”拉回到“逻辑正确”。
图 vs 向量,其实是个假问题
对话进行到中段,一个很关键的观点浮出水面:“这不是 graph or vector 的选择题。”
Emil 非常明确地反对站队式争论。他描述的现实工程路径是这样的:
- 向量搜索:用来“找到起点”
- 知识图谱:用来“走完路径”
也就是说,向量负责 recall,图负责 reasoning。
他们在系统中常见的模式是:
- 先用向量搜索,从海量非结构化数据中找到可能相关的节点
- 再把这些节点映射进图中
- 在图里做路径搜索、约束推理和上下文扩展
这背后其实是一个更大的趋势判断:
工程复杂度,正在从训练时,转移到运行时。
过去我们指望通过训练一个“更聪明的模型”解决问题;现在,越来越多的智能,来自运行时的编排、约束和上下文结构。
这也是为什么他说:现代 AI 系统的竞争力,已经不只在模型,而在“你怎么把模型接进真实世界的数据”。
企业案例透露的信号:三个月内发生了质变
在谈到制药、银行等企业用户时,Emil 提到一个非常值得警惕的时间点:“in the last 3 months.”
他的原话大意是:过去三个月里,某些能力“dramatically flipped”。
变化体现在哪里?
- 系统开始不仅回答问题,而是“帮你起草、生成、推演下一步”
- AI 不再只是查资料,而是参与到决策流程
- 企业开始认真讨论 agentic memory、decision traces 这些以前偏研究的话题
这里他提到了几个关键词:
- Agentic memory:不是简单的对话历史,而是带结构、可追溯的长期记忆
- Decision traces:AI 做每个决策时留下的路径记录
- Context graphs:把上下文本身建成图
这些东西有一个共同点:它们都需要“关系型记忆”,而不是纯文本或纯向量。
这也解释了为什么知识图谱在企业场景里,比在 demo 场景里重要得多——因为企业要负责。
关于微调,他给了一个更现实的答案
在微调这个话题上,Emil 的态度同样不极端。
他承认:“We actually still fine-tune.”
但紧接着补了一句:现实“a little bit messier”。
他的意思是:
- 微调不是银弹
- 更多时候,它只是众多信号之一
真正有效的系统,往往是:
- 少量微调
- 大量结构化上下文
- 明确的 DSL、规则或约束
这再次呼应了他前面的核心逻辑:当你能在系统层面表达知识,就没必要把一切都塞进模型参数里。
模型不是不能变聪明,但不应该承担所有“记忆”和“逻辑”的负担。
总结
这期对谈真正的价值,不在于“图数据库会不会取代向量数据库”,而在于它点破了一个行业迷思:AI 的智能,不等于模型的智能。对从业者来说,真正的 takeaway 是三个问题:你的系统里,哪些知识应该是显式的?哪些推理路径是你必须能解释的?哪些记忆不该交给模型遗忘?如果你还在纠结 embedding 维度和召回率,可能已经落后于这场结构之战了。
关键词: 知识图谱, 向量数据库, RAG, Agentic Memory, 可解释性
事实核查备注: 需要核查:Emil Eifrem 的原话表述;“过去3个月发生质变”的具体语境;视频中提到的 Pfizer、Nordisk 是否仅为举例而非详细案例;关于 agentic memory、decision traces 的定义是否与原意一致