正在加载视频...
视频章节
在这场超长 AI Coding 工作坊里,Matt Pocock 抛出了一个反直觉结论:多数 AI 编程翻车,不是因为模型太弱,而是工程师根本没理解 LLM 的“怪癖”。从“聪明区/愚蠢区”到“记忆只有几分钟的失忆症”,这是一套专为真实工程师准备的 AI 协作方法论。
这位工程师用一场工作坊说明:AI 编程失败,往往不是模型不行
在这场超长 AI Coding 工作坊里,Matt Pocock 抛出了一个反直觉结论:多数 AI 编程翻车,不是因为模型太弱,而是工程师根本没理解 LLM 的“怪癖”。从“聪明区/愚蠢区”到“记忆只有几分钟的失忆症”,这是一套专为真实工程师准备的 AI 协作方法论。
真正限制你用好 LLM 的,不是算力,是它的“怪癖”
Matt 一开场就点破一个很多工程师不愿承认的事实:我们在用 LLM 时,经常假设它“像一个初级工程师”,但现实更接近“一个有奇怪限制的工具”。他把这些限制称为 weird constraints。比如,LLM 对上下文极其敏感,但又极易丢失长期目标;它能在局部问题上表现得异常聪明,却会在复杂任务中突然“降智”。如果你不先理解这些约束,后面所有 Prompt 技巧都是玄学。
聪明区 vs 愚蠢区:不是 AI 会犯蠢,是人先崩了
工作坊里反复出现的一个关键词是 smart zone 和 dumb zone。Matt 的判断很直接:大任务会把人和模型一起拖进“愚蠢区”。当任务描述过大、目标模糊时,LLM 会开始胡乱生成,而人类开发者则会因为信息过载而放弃判断力。解决方案听起来很朴素,却异常有效:把任务拆小,小到你作为人类都不会‘freak out’。这不是为了模型,而是为了让你自己始终留在聪明区。
LLM 像《记忆碎片》男主:每次都要告诉它‘你是谁’
Matt 用了一个极具画面感的比喻:LLM 就像《Momento(记忆碎片)》里的男主角,缺乏持续记忆。你不能假设它“记得之前发生了什么”,更不能指望它自动维护长期架构一致性。这直接影响了 AI Coding 的方式:你必须不断重申目标、约束和当前状态。不是因为模型笨,而是这是它的工作机制。忽略这一点,几乎注定会在后期重构中翻车。
结构不是负担,是把 AI 拉回正轨的唯一办法
当谈到如何应对复杂任务时,Matt 明确表达了自己的偏好:更多结构,而不是更长 Prompt。他展示的流程几乎都有一个共同点:先探索、再确认目的地、最后一步步逼近。过程中他甚至坦言自己不会细读所有生成内容,而是关注模型是否沿着正确结构前进。这种做法本质上是在用流程约束模型,而不是用语言‘说服’它。
当 AI 开始写太多代码,问题往往不在 AI
在 Q&A 环节,有人问到 agents 生成代码过多怎么办。Matt 的回应很耐人寻味:这通常是结构失控的信号,而不是模型失控。没有清晰的阶段划分、验收标准和测试入口,AI 只能用‘多写代码’来掩盖不确定性。他演示了通过运行测试、明确 destination 的方式,把生成行为拉回工程节奏。甚至还提到像 Claude 的 auto mode,在架构改进候选上能提供启发,但前提依然是:你得知道自己要什么。
总结
这场工作坊最大的价值,不是教你某个 Prompt 模板,而是逼你重新审视自己在 AI 协作中的角色。LLM 不是替代工程判断的魔法,而是一种在特定约束下极其强力的工具。你的行动建议很简单:下一次用 AI 写代码前,先问自己三个问题——任务够小吗?结构清楚吗?我有没有假设它‘记得一切’?能把这三点做好,你已经超过了大多数“AI 原生”工程实践。
关键词: AI 编程, 大语言模型, Prompt 设计, 工程实践, Claude
事实核查备注: 需要核查:1)视频中对 smart zone / dumb zone 的原始表述;2)LLM 类比《Momento》的具体语境;3)是否明确提到 Claude auto mode 的功能边界;4)工作坊的完整时长与发布时间。