AI真正改变工程效率的,不是工具,而是领导方式

AI PM 编辑部 · 2025年12月19日 · 2 阅读 · AI/人工智能

正在加载视频...

视频章节

Justin Reock 结合 Atlassian 与 Dora 的研究数据,拆解了生成式 AI 在工程团队中的真实影响:单看“使用率”会误导决策,真正拉开差距的是心理安全、度量方式和领导者是否把 AI 连接到员工成功与业务瓶颈。

AI真正改变工程效率的,不是工具,而是领导方式

Justin Reock 结合 Atlassian 与 Dora 的研究数据,拆解了生成式 AI 在工程团队中的真实影响:单看“使用率”会误导决策,真正拉开差距的是心理安全、度量方式和领导者是否把 AI 连接到员工成功与业务瓶颈。

没人真的知道 GenAI 提升了多少生产力

为什么“AI 到底让我们效率提升了多少”如此重要?因为这是几乎所有企业推进 GenAI 的隐性前提。Justin Reock 一上来就泼了冷水:没人知道准确答案。他引用了常被提及的说法——比如 Google 对外宣称“员工生产力提升了 10%”,但随后补充道,即便在一些研究中看到 4% 这样的数字,“它并不微小,但也远不是完整故事”。

关键转折发生在他们把同一批研究数据“按公司拆开”之后。结果并非所有组织都从 GenAI 中获得类似收益,差异极大。这让 Justin 提出一个尖锐问题:“利用率真的能告诉我们 GenAI 影响的全貌吗?”如果只统计有多少人打开了 Copilot、ChatGPT 或内部工具,很可能会得出错误结论。因为使用了,不等于产生了业务价值。

这一段的独特洞见在于,他并没有否认效率提升的存在,而是强调:宏观平均值掩盖了组织层面的真实差异,而差异背后的原因,往往不在模型本身。

Dora 数据揭示的真相:信任与合规比模型更重要

为什么工程负责人需要关注 Dora?因为 Dora 长期研究高绩效工程组织的交付能力,而这一次,他们把 GenAI 纳入了分析框架。Justin 展示的图表中,一个反直觉的结论浮现出来:决定 GenAI 能否真正产生影响的,不是“有没有用”,而是组织是否建立了足够的信任和合规机制。

他明确指出,企业必须把 AI 的引入“绑定”到员工成功上,而不是抽象的技术升级。换句话说,AI 要解决的是工程师每天的真实痛点,而不是高管 PPT 里的未来愿景。当员工感受到工具让他们更安全、更高效、更少背锅时,技术 adoption 才会自然发生。

Justin 用一句话点破核心逻辑:“员工因为这项技术变得更成功(employees become more successful),组织才会成功。”这也是为什么单纯禁止、放任或只做合规审查,都会导致 AI 项目停留在表面。

降低恐惧感:生产力最大的指标是心理安全

这一节是全场最“不像技术演讲”的部分,却可能是最重要的。Justin 抛出一个问题:“我们如何减少对 AI 的恐惧?”答案并不来自模型评测,而来自组织行为研究。

他引用研究结论指出,在所有影响生产力的因素中,最大的指标是“心理安全感(psychological safety)”。如果工程师担心用 AI 写的代码会被审查、被惩罚,或者被视为能力不足,那么再强的工具也只会被消极对待。

因此,领导者的角色不是强推工具,而是营造一个试错空间:允许不完美的输出,允许探索。最终目标很清晰——“给你更好的开发者体验,并提升整个业务的吞吐量”。这里的吞吐量,并非写代码速度,而是从想法到价值交付的整体效率。

从指标到成熟度曲线:别只盯着利用率

当讨论进入“我们该如何衡量”时,Justin 再次提醒大家避免走捷径。他强调,必须同时讨论三类指标:利用率(utilization)、影响(impact)和成本(cost)。只看其中任何一个,都会导致决策失真。

他进一步提出,可以把 GenAI 的落地理解为一条“成熟度曲线”。在早期阶段,组织需要控制随机性——也就是模型输出的不确定性,避免对生产系统造成风险。随着能力提升,逐步扩大适用范围,而不是一开始就全面铺开。

这背后体现的是一种工程化思维:GenAI 不是魔法,而是一种需要被约束、被设计、被治理的能力。领导者的任务,是在速度与可控性之间找到平衡点。

真正的高价值场景,藏在 SDLC 的瓶颈里

在具体用例上,Justin 给出了一个非常务实的例子:在 Atlassian 的实践中,最常见、也是排名第一的使用场景,是堆栈追踪(stack trace)分析。原因很简单——这是工程师普遍讨厌、但又不得不做的高认知负担工作。

随后,他把视角拉高到整个 SDLC(软件开发生命周期)。问题不在于“AI 能不能写代码”,而在于:哪些阶段才是真正的瓶颈?测试(STLC)、交付、排障,往往比编码本身更限制速度。

当 AI 被用来缓解这些瓶颈时,它才真正形成竞争优势,而不是一次噱头式升级。这也是 Justin 在结尾反复强调的:集成,而不是点状试验,决定了长期价值。

总结

这场演讲最重要的启示在于:AI 辅助工程的成败,核心并不在模型参数,而在领导方式。只看效率数字、使用率或工具清单,都会错过真正的决定因素——心理安全、信任机制、正确的度量方式,以及是否把 AI 明确连接到员工成功与业务瓶颈。对技术领导者而言,问题不再是“要不要用 GenAI”,而是“我们是否准备好以工程化和人本的方式去领导它”。


关键词: 生成式AI, 工程生产力, 心理安全, Dora, AI领导力

事实核查备注: 演讲者:Justin Reock;公司背景:DX(被 Atlassian 收购);研究来源:Google 提及的 10% 生产力说法、Dora 工程数据;关键指标:4% 提升、utilization/impact/cost;技术场景:stack trace 分析、SDLC、STLC;核心概念:psychological safety