当大模型“没学过这门课”:用规则补齐LLM的知识盲区

AI PM 编辑部 · 2025年02月22日 · 1 阅读 · AI/人工智能

正在加载视频...

视频章节

这支视频讨论了一个常被忽视的问题:当大语言模型进入几乎没有训练数据的领域时,该如何继续发挥价值?作者提出了一种务实的方法——用“可验证的规则和经验法则”去弥补知识缺口,让模型在低知识密度领域依然具备可用的推理能力。

当大模型“没学过这门课”:用规则补齐LLM的知识盲区

这支视频讨论了一个常被忽视的问题:当大语言模型进入几乎没有训练数据的领域时,该如何继续发挥价值?作者提出了一种务实的方法——用“可验证的规则和经验法则”去弥补知识缺口,让模型在低知识密度领域依然具备可用的推理能力。

从聊天机器人到推理模型:真正的瓶颈出现了

这两年AI领域的叙事变化很快。演讲者回顾道:“不久前我们还在讨论聊天机器人,仿佛昨天才在为AI Agent感到兴奋,而今天,大家谈论的都是推理能力。”模型确实变得更聪明了,能够分步骤解决复杂问题,但一个根本问题开始浮出水面:如果模型从未接受过某个领域的训练,它还能‘推理’吗?

在数学、编程、法律或物理等领域,大模型表现亮眼并不意外,因为这些领域有大量结构化、可训练的数据。但现实世界中存在大量低结构化领域,例如企业并购谈判、风险管理或安全决策——我们只知道“开始”和“结果”,却不知道“房间里发生了什么”。正如他所说,这些关键知识和判断力“被锁在人的大脑里,从未被写下来”。

这导致一个不平衡的现实:数据丰富的行业被模型不断放大能力,而知识隐性化的行业却几乎被落下。这不是模型训练者的错,而是整个行业长期不记录、不抽象经验的结果。

问题不在模型,而在我们没把经验写下来

演讲者来自风险与安全管理领域,他坦率地承认:“这是从业者的责任——我们不写东西。”如果没有材料,就不可能训练模型。但视频并没有止步于抱怨,而是转向一个现实问题:在这种情况下,我们还能做什么?

他的类比非常生活化。一个刚毕业的新人,智力很高,但缺乏经验,公司通常不会让他‘自由发挥’,而是给他清晰的指导原则、规则和经验法则(heuristics)。这些规则并不完美,却足以让新人在真实世界中做出不至于犯大错的判断。

这正是他提出的方法论核心:既然无法为LLM补齐完整的领域知识,那就像训练新人一样,给模型一套明确、可执行、可验证的规则,让它在强大的通用推理能力之上,叠加“最低可用的领域智慧”。

方法拆解:解析问题、匹配规则、再交给模型推理

在演示中,他展示了一套完整的流程。第一步不是直接让模型回答问题,而是用一个解析引擎判断“这是什么类型的问题”。他说,这一步“本质上和工具调用类似”,但自己发现传统 tool use 不够稳定,于是选择了更啰嗦、但更可控的方式。

模型首先会尝试匹配问题属于哪一类场景,例如“企业谈判”或“地缘政治”,然后把用户输入重写成一个高度标准化的格式。他反复强调标准化的重要性:“一致的输入格式能显著提高模型的稳定性。”

匹配完成后,系统会加载对应的规则集。这些规则被刻意写成二元、可验证的形式,比如“必须优先选择创造最高组合价值的协议”,而不是模糊的建议。规则之上,还有一层更高阶的行为提示,用来约束模型整体的推理风格,避免提示词变得难以维护。

案例效果:模型真的在“照章办事”

在地缘政治示例中,系统最终把结构化后的问题交给了一个推理模型(演示中使用了Anthropic的模型,并结合了一个“world simulation”世界模拟环境)。这个模拟为模型提供了现实约束,例如地理条件、联合国、WTO等国际结构。

结果最有说服力的地方在于可追溯性。输出结果严格遵循预先定义的结构,并在分析中明确引用了规则,例如“超过50%的杠杆控制”等。当某个情景违反既定规则时,模型会直接将其淘汰。

正如演讲者强调的,这并不意味着这是‘完美决策’,而是证明了一点:模型不仅在推理,而且在按照你给定的领域规则推理。“我们可以看到,它正在应用我们给它的规则。”在低知识领域,这已经是一个巨大的前进。

人仍然在环,但思考空间被极大放大

视频的结尾并没有鼓吹“自动化一切”。相反,他明确表示:始终需要人类专家参与其中。但规则驱动的LLM有一个压倒性的优势——速度和规模。模型可以在极短时间内生成数十种情景,让专家去评估、挑战和修正。

这意味着,人类不再把时间花在穷举可能性上,而是用在更高价值的判断上。在时间敏感或高度复杂的问题中,这种组合尤其重要。演讲者希望,这种方法能帮助LLM进入那些“长期被忽视、但同样重要”的领域。

他的核心信息很朴素:如果你所在的行业模型帮不上忙,问题可能不在AI,而在于你是否愿意把隐性经验转化为清晰的规则。

总结

这支视频提供的最大价值,不是一段炫目的技术,而是一种可落地的思维方式:当训练数据不存在时,用规则和经验法则作为“临时知识”。它提醒我们,大模型的能力上限,往往取决于人类是否愿意把自己的判断逻辑说清楚、写下来。对于任何身处低结构化行业的从业者来说,这既是挑战,也是机会。


关键词: 大语言模型, 推理能力, 提示工程, 规则驱动AI, 知识盲区

事实核查备注: 视频标题:Your LLM Ran Out of Knowledge — Now What?;频道:AI Engineer;发布时间:2025-02-22;方法核心:规则/heuristics 叠加推理能力;示例领域:企业谈判、地缘政治;涉及公司:Anthropic;关键概念:tool use、world simulation、standardization