Neo4j CEO 说了句狠话:只靠向量搜索,AI 永远不懂你的知识

AI PM 编辑部 · 2026年04月18日 · 9 阅读 · AI/人工智能

正在加载视频...

视频章节

当整个 AI 圈都在 All in 向量数据库时,Neo4j CEO Emil Eifrem 在这期 Latent Space 里泼了一盆冷水:向量很重要,但它们解决不了“理解”。真正让 AI 变聪明的,是知识图谱、上下文和可解释的结构。这是一场关于“AI 为什么还不够聪明”的深度对谈。

Neo4j CEO 说了句狠话:只靠向量搜索,AI 永远不懂你的知识

当整个 AI 圈都在 All in 向量数据库时,Neo4j CEO Emil Eifrem 在这期 Latent Space 里泼了一盆冷水:向量很重要,但它们解决不了“理解”。真正让 AI 变聪明的,是知识图谱、上下文和可解释的结构。这是一场关于“AI 为什么还不够聪明”的深度对谈。

最反直觉的开场:向量数据库赢了,但也输了

这期对话最炸的一点,并不是 Neo4j 在推图数据库,而是 Emil Eifrem 对向量数据库的态度异常冷静。

他说了一句很耐人寻味的话:“Everyone has vector indexes now.” 潜台词是——向量搜索已经“商品化”了。它不再是竞争壁垒,只是现代 AI 系统的基础设施之一。

过去两年,向量数据库被捧成了 RAG 的核心:Embedding + 相似度搜索,仿佛就能解决一切知识问题。但 Emil 的判断是:

  • 向量检索“好用”,但它只擅长模糊匹配
  • 它擅长回答“像什么”,却不擅长回答“为什么”和“怎么关联”

这直接点出了一个行业集体回避的问题:当你把所有知识都压缩成向量,AI 得到的是感觉,不是理解。

所以他说得很直白——向量搜索“good enough for most situations”,但前提是:你不在乎可解释性、不在乎精确推理、不在乎复杂关系。

为什么知识图谱重新变重要:不是存数据,而是存“关系”

在 Emil 看来,现代 AI 系统的核心变化,并不是模型更大了,而是系统开始需要“显式知识”

他反复强调一个对比:

  • 在向量世界里,关系是“隐含的”(implicit)
  • 在图里,关系是“显式的”(explicit)

这带来三个直接后果:

第一,准确率的来源变了。

在纯向量 RAG 中,准确率来自相似度猜测;而引入知识图谱后,准确率来自“路径”。模型不是猜哪个文档像,而是沿着已知关系走。

第二,可解释性突然回来了。

Emil 提到 explainability 时,语气明显变重。图的好处在于:你可以清楚地看到 AI 是“怎么得出这个答案的”——哪几个节点、哪条路径、哪一步推理。

第三,生产力提升不是来自模型,而是来自结构。

他们观察到,引入知识图谱后,用户的生产力提升并不只是因为模型回答更好,而是因为系统本身更“可控”。

一句话总结:图不是为了取代向量,而是为了把 AI 从“感觉正确”拉回到“逻辑正确”。

图 vs 向量,其实是个假问题

对话进行到中段,一个很关键的观点浮出水面:“这不是 graph or vector 的选择题。”

Emil 非常明确地反对站队式争论。他描述的现实工程路径是这样的:

  • 向量搜索:用来“找到起点”
  • 知识图谱:用来“走完路径”

也就是说,向量负责 recall,图负责 reasoning。

他们在系统中常见的模式是:

  1. 先用向量搜索,从海量非结构化数据中找到可能相关的节点
  2. 再把这些节点映射进图中
  3. 在图里做路径搜索、约束推理和上下文扩展

这背后其实是一个更大的趋势判断:

工程复杂度,正在从训练时,转移到运行时。

过去我们指望通过训练一个“更聪明的模型”解决问题;现在,越来越多的智能,来自运行时的编排、约束和上下文结构。

这也是为什么他说:现代 AI 系统的竞争力,已经不只在模型,而在“你怎么把模型接进真实世界的数据”。

企业案例透露的信号:三个月内发生了质变

在谈到制药、银行等企业用户时,Emil 提到一个非常值得警惕的时间点:“in the last 3 months.”

他的原话大意是:过去三个月里,某些能力“dramatically flipped”。

变化体现在哪里?

  • 系统开始不仅回答问题,而是“帮你起草、生成、推演下一步”
  • AI 不再只是查资料,而是参与到决策流程
  • 企业开始认真讨论 agentic memory、decision traces 这些以前偏研究的话题

这里他提到了几个关键词:

  • Agentic memory:不是简单的对话历史,而是带结构、可追溯的长期记忆
  • Decision traces:AI 做每个决策时留下的路径记录
  • Context graphs:把上下文本身建成图

这些东西有一个共同点:它们都需要“关系型记忆”,而不是纯文本或纯向量。

这也解释了为什么知识图谱在企业场景里,比在 demo 场景里重要得多——因为企业要负责。

关于微调,他给了一个更现实的答案

在微调这个话题上,Emil 的态度同样不极端。

他承认:“We actually still fine-tune.”

但紧接着补了一句:现实“a little bit messier”。

他的意思是:

  • 微调不是银弹
  • 更多时候,它只是众多信号之一

真正有效的系统,往往是:

  • 少量微调
  • 大量结构化上下文
  • 明确的 DSL、规则或约束

这再次呼应了他前面的核心逻辑:当你能在系统层面表达知识,就没必要把一切都塞进模型参数里。

模型不是不能变聪明,但不应该承担所有“记忆”和“逻辑”的负担。

总结

这期对谈真正的价值,不在于“图数据库会不会取代向量数据库”,而在于它点破了一个行业迷思:AI 的智能,不等于模型的智能。对从业者来说,真正的 takeaway 是三个问题:你的系统里,哪些知识应该是显式的?哪些推理路径是你必须能解释的?哪些记忆不该交给模型遗忘?如果你还在纠结 embedding 维度和召回率,可能已经落后于这场结构之战了。


关键词: 知识图谱, 向量数据库, RAG, Agentic Memory, 可解释性

事实核查备注: 需要核查:Emil Eifrem 的原话表述;“过去3个月发生质变”的具体语境;视频中提到的 Pfizer、Nordisk 是否仅为举例而非详细案例;关于 agentic memory、decision traces 的定义是否与原意一致