为什么“文档”才是把自然语言变成代码的关键
正在加载视频...
视频章节
Wordware CEO Filip Kozera 直言:聊天式 AI 天生不适合构建可复用、可扩展的系统。真正能把自然语言转化为代码、并催生后台智能体(Agents)的,是结构化文档与人类在环的协作方式。
为什么“文档”才是把自然语言变成代码的关键
Wordware CEO Filip Kozera 直言:聊天式 AI 天生不适合构建可复用、可扩展的系统。真正能把自然语言转化为代码、并催生后台智能体(Agents)的,是结构化文档与人类在环的协作方式。
聊天界面的问题:好用,但不适合“严肃工作”
为什么我们天天用 ChatGPT,却很少真正信任它去长期执行任务?Filip Kozera 一上来就点破了聊天式界面的“结构性缺陷”。在他看来,聊天非常“随意”(informal),适合灵感碰撞,却不适合构建严谨系统。
他描述了一个很多人都经历过的场景:为了完成一个复杂任务,你不断复制粘贴、来回追问,最终把上下文窗口塞满。“当我进行这些很长的对话时,我意识到上下文窗口里有大量的‘胡言乱语和垃圾’,这就是上下文污染(context pollution)。”随着上下文变长,模型反而更“懒”,输出质量下降。
更致命的是,聊天缺乏结构化迭代能力。你没法精准修改“其中一句话”,也缺少版本控制和逻辑分组;所有信息被压在同一抽象层里。Kozera 还吐槽,模型并不会在不确定时真正逼你澄清需求——缺乏那种“被迫的清晰度(forced clarity)”。这些问题叠加起来,使聊天界面很难承载可重复、可审计的工作流。
文档的回归:人类表达复杂系统的原生接口
如果聊天不行,那什么行?Kozera 的答案出人意料又合乎逻辑:文档(Documents)。他说,文档本来就是人类描述复杂系统的“原生方式”。他甚至半开玩笑地提到,最早的产品需求文档可能可以追溯到“三千五百年前的诺亚方舟”。
玩笑背后是一个严肃判断:文档天然具备结构、层级和可审查性,它迫使人类把模糊想法变成清晰指令。这种“强制清晰”正是聊天系统所缺失的。更重要的是,文档为并发(concurrency)打开了大门。
在聊天系统里,并发几乎等于 1——你必须坐在那里一问一答。但当需求被写成文档后,任务就可以被交给后台运行的系统。Kozera 形容,当你看到像 Deep Research 或 Manus 那样的能力在后台自动运行时,“你已经看到了未来的预告片”。真正的价值不在对话本身,而在对话之后,被固化成文档的那套指令。
从工作流到智能体:为什么高风险任务需要“人类在环”
Kozera 把自动化的演进分成几个阶段:最早是 Zapier 这类“手工编排”的工作流;接着是带一点模糊 if/else 判断的早期智能体;而真正的通用智能体,只有在低风险场景中才被允许自主决策。
一旦任务的重要性提高,人类就必须重新回到系统中。他提出的解法是“Human-in-the-loop(人类在环)”:智能体在后台完成大量工作,但结果需要人类审批、修改,甚至推翻其逻辑。“我们可以批准、拒绝,或者彻底修正它的思路。”
这些后台智能体通常由触发器启动:一封邮件、一次 Slack 消息,甚至一次与你投资人的会议,都可能隐式触发一个动作,比如更新 CRM。这不是炫技,而是对现实复杂性的妥协——我们让 AI 执行,但保留最后的控制权。
管理智能体的人:品味、责任与“刷 Tinder”式工作
当越来越多智能体在后台运行,一个新问题出现了:它们如何与人类、以及彼此沟通?Kozera 认为,我们需要新的“通信协议”,不仅描述接口,还要明确权限、约束,以及是否需要人工审批。他提到 MCP 是一个开始,但还远远不够。
更深层的变化在于人的角色。未来,人类将“管理一群智能体”,而品味(taste)和意图(intent)将变得极其重要。你必须把自己的判断标准、个人品牌注入这些智能体,并为它们的行为负责。
他用一个极具画面感的比喻收尾:“我们的主要工作,会变成像刷 Tinder 一样,向左或向右滑,批准或编辑智能体的成果。”工程师,第一次真正成了“智能体经理”。那些既能写代码、又擅长带实习生的人,正在率先吃到 AI 红利。
总结
Kozera 的核心判断很明确:聊天是头脑风暴的起点,但不是终点。真正可靠、可扩展的 AI 工作,必须从对话走向文档,再从文档走向后台智能体。人类不再事无巨细地执行,而是设计任务、设定品味、控制风险。当不理解系统 0.1% 的内部细节也能持续创造价值时,AI 才真正进入生产力时代。
关键词: 聊天式AI, 文档驱动开发, AI Agent, Human-in-the-loop, 上下文窗口
事实核查备注: Filip Kozera:视频标题与演讲者姓名;CEO 身份。
Wordware:演讲者提到的公司名称(结尾口播中发音接近 Wardware)。
ChatGPT、OpenAI:被明确提及的产品与公司。
概念术语:context pollution(上下文污染)、Human-in-the-loop、background agents、MCP。
比喻原话:将审批智能体结果比作“刷 Tinder”。