Cloudflare工程师20分钟演示:让LLM写代码,系统反而更安全了

AI PM 编辑部 · 2026年04月19日 · 13 阅读 · AI/人工智能

正在加载视频...

视频章节

如果你还在担心“让大模型写代码是不是自找麻烦”,Sunil Pai 这场演讲会让你重新站队。他在台上用真实系统演示了一种叫 Code Mode 的思路:不是让模型生成文本,而是直接生成可执行、可约束、可观察的代码——结果不但更稳,还更安全。

Cloudflare工程师20分钟演示:让LLM写代码,系统反而更安全了

如果你还在担心“让大模型写代码是不是自找麻烦”,Sunil Pai 这场演讲会让你重新站队。他在台上用真实系统演示了一种叫 Code Mode 的思路:不是让模型生成文本,而是直接生成可执行、可约束、可观察的代码——结果不但更稳,还更安全。

真正反直觉的开场:问题不是模型太笨,而是我们用错了方式

Sunil Pai 一上来就戳中了几乎所有 AI 应用开发者的痛点:你把 prompt 写得再漂亮,只要上下文一复杂,系统就开始“走形”。逻辑断裂、组合怪异、不可预测——这不是模型退化,而是文本模式本身在复杂系统面前失效了

他的判断很直接:当你要求 LLM 去“描述”行为,而不是“执行”行为,复杂度一上来,崩溃是必然的。与其继续在 prompt engineering 里内卷,不如换个战场。这就是 Code Mode 的出发点——别让模型写答案,让模型写代码

Code Mode 是什么:把 LLM 从“聊天对象”变成“编译器前端”

在 Code Mode 里,大模型不再输出自然语言结果,而是输出有类型、有边界、可执行的代码结构。你给它的不是一段长 prompt,而是一个清晰的、受限的 API 表面。

Sunil Pai 提到,他们让模型生成代码,然后通过类型系统、执行环境和权限模型来“兜底”。这一步很关键:模型可以犯错,但错误会被类型检查、执行失败或权限限制拦下来,而不是直接影响生产系统。

他给了一个震撼的例子:面对 2600 个 API endpoint 的复杂系统,传统方式几乎不可能让模型稳定理解。但通过把这些能力压缩成“一串代码字符串”,并且由系统负责解释和执行,复杂度被直接“折叠”了。这不是 prompt 技巧,而是架构层面的转向

那一刻全场安静:当“一行代码”取代八次对话

演讲中段的 live demo 是整场的高光,也是最“吓人”的部分。Sunil Pai 模拟了一个真实场景:用户在慌乱中提出需求,传统方式需要大约 8 次往返对话 才能把意图澄清清楚。

而在 Code Mode 下,模型直接生成了一次性可执行的代码表达,把原本分散在多轮对话里的决策压缩到“一个 shot”。现场当然有小翻车,也引发了笑声,但正如他所说:失败本身给了他们新的想法

这不是在追求完美演示,而是在证明一件事:当 LLM 被放进“可执行的壳”里,它的能力边界突然清晰了。你开始知道它能做什么、不能做什么,也第一次真正敢把它接进核心系统。

从“Ghost in the Shell”到新架构:软件正在变成有能力的实体

演讲后半段,Sunil Pai 抛出了一个内部常用的说法,灵感来自《攻壳机动队》——软件里出现了“壳中的幽灵”。意思是:逻辑不再完全由人写死,而是由模型在运行时生成。

这直接催生了一套新的软件架构观:
- 不像容器那样只关心运行环境,而是先定义能力,再授予权限
- 天生需要 绝对可观测性,因为你永远不知道模型下一次会生成什么
- 安全模型从“防注入”升级为能力导向的安全(capability-based security)

他的判断很明确:LLM 正在打破“谁能写软件”的边界。未来的用户不只是程序员,而是下一批十亿级的普通人。

总结

这场演讲真正重要的,不是某个 demo 成没成功,而是它给了 AI 从业者一个新的默认选项:当系统开始失控时,别急着调 prompt,先问一句——是不是该让模型写代码了。

对开发者来说,行动建议很清晰:尝试把 LLM 的输出限制在可类型化、可执行、可回滚的边界内;优先设计能力接口,而不是长上下文;把安全和可观测性当成一等公民。下一代 AI 应用的分水岭,可能不在模型参数,而在你选没选 Code Mode。


关键词: Code Mode, 大语言模型, 代码生成, AI应用架构, 能力安全

事实核查备注: 需要核查:演讲者姓名 Sunil Pai;2600 个 API endpoints 的具体数字;“8 次往返对话”的表述;Code Mode 是否为正式命名还是内部称呼;“Ghost in the Shell”是否为演讲原话引用。