别再叫你的AI Agent“工程师”:一场关于拟人化的反思
正在加载视频...
视频章节
这是一篇关于AI Agent如何被错误营销、以及这种叙事为何正在伤害开发者与产品本身的文章。来自前GitHub Copilot开发者布道师的亲身经验,提出了一套“克制而真实的拟人化”框架,帮助AI工具在获得采用率的同时,避免透支开发者信任。
别再叫你的AI Agent“工程师”:一场关于拟人化的反思
这是一篇关于AI Agent如何被错误营销、以及这种叙事为何正在伤害开发者与产品本身的文章。来自前GitHub Copilot开发者布道师的亲身经验,提出了一套“克制而真实的拟人化”框架,帮助AI工具在获得采用率的同时,避免透支开发者信任。
“AI会取代工程师吗?”:一个被营销放大的恐惧
这场演讲从一个所有开发者都熟悉的问题开始:“AI 会取代软件工程师吗?”Roselle Scarlet 形容这个问题要么让人翻白眼,要么让人恐慌。她见过两种极端反应:一种是拒绝学习,另一种是疯狂内卷,担心被时代抛弃。这个焦虑并非空穴来风——Salesforce CEO 曾公开表示,由于 AI 带来约 30% 的生产力提升,公司计划减少软件工程师和支持工程师的招聘。
作为一名长期从事开发者关系(DevRel)的从业者,Roselle 的“官方答案”一直是:升级技能,适应变化。她也坦承,自己每天都在用 AI 学习新技术、快速做原型。但她心里始终有一个挥之不去的疑问:为什么整个行业都在把 AI 描述成“替代人类”的存在?
她认为,这并不是技术必然,而是叙事选择。开发者、市场和 DevRel 一起塑造了今天的故事走向,而这个故事,正在无意中把最重要的一群人——开发者——推向对立面。
懒惰的胜利:当AI被包装成“廉价工程师”
Roselle 抛出了她的“spicy take”:AI 取代工程师的叙事,源自一种短视的营销策略。向 VC 和高管卖 AI 工具并不容易,因为他们已经在为工程师支付 30 万、40 万甚至 50 万美元的年薪。相比之下,说“这是一个能帮你裁掉工程师的工具”,显然更容易成交。
于是,拟人化开始登场。AI 被称为“工程师”“同事”“全栈开发者”,仿佛它可以一对一替代人类劳动。但这种说法带来了两个直接后果。第一,它在决策层制造了错误预期,把 AI 当成可替换的人力资源;第二,它严重疏远了开发者。
Roselle 引用 2024 年 Stack Overflow 开发者调查的数据:76% 的开发者已经在使用 AI,或计划将其纳入工作流。问题在于,一边告诉他们“这是一个很酷的工具”,另一边又暗示“它最终会抢走你的工作”,这在逻辑上根本说不通。正如她所说:“Use it more and it’ll get better, and eventually it’ll steal your job——这怎么可能让人安心?”
当AI被当成人:失望、愤怒与不切实际的期待
这种叙事的伤害已经开始显现。Roselle 提到《Wired》的一篇文章《Game Developers Are Getting Fed Up With Their Boss’s AI Initiatives》。数据显示,52% 的游戏公司已经采用生成式 AI,但有 30% 的开发者表达了明确的负面情绪。
文中两段引语尤为刺痛人心。一位开发者说:“我有 AI 博士学位,参与开发了生成式 AI 使用的一些算法,但我对自己如此天真地贡献这些成果感到深深的后悔。”另一位则直言:“我们应该用生成式 AI 帮助人们更快完成工作,而不是失去工作。”
更现实的问题在于技术本身。当 AI 被营销成“中级软件工程师”,用户自然会期待它具备人类水平的理解和判断。但事实是,AI 是非感知的(non-sentient),它基于历史数据进行概率预测,会丢失上下文、产生幻觉(hallucination),输出结果也可能是非确定性的。当现实与宣传不符,开发者的不满几乎是必然的。
Agent 时代的陷阱:越像人,越容易被误解
问题在 2024 和 2025 年可能会进一步加剧,因为我们正进入“AI Agent 之年”。Agent 常被描述成“管家”或“助手”:它能执行 shell 命令、创建日历事件,甚至自动构建应用。这种行为模式,让拟人化营销变得更诱人,也更危险。
为此,Roselle 提出了一套“Thoughtful Anthropomorphism(克制而深思熟虑的拟人化)”框架。第一步是理解工具本身:即使你不是工程师,也有责任成为“customer zero”,真正使用产品,理解 LLM(大语言模型)、token、上下文窗口、Copilot 与 Agent 的区别,以及典型的 agentic loop(请求、规划、调用工具、执行、修正、返回)。
接下来是命名与定位。她明确建议避免使用“AI Engineer”这样的头衔,选择 co-pilot、agent、assistant 等非人类称谓,强调“增强而非替代”。同时,通过透明度和开发者控制建立信任,例如开放白皮书、开源组件、可配置的模型行为和日志。最后,她反复强调“Show, don’t tell”:用 demo、GIF、文档、prompt playbook 和社区协作,而不是口号,来赢得开发者。
总结
这场演讲的核心并不是反对拟人化,而是反对不负责任的拟人化。Roselle Scarlet 提醒我们:AI 工具的采用率,最终取决于开发者是否信任你。把 AI 描述成“工程师”的短期收益,可能会换来长期的反弹。真正可持续的路径,是尊重技术的真实能力,也尊重使用它的人。正如她所总结的,我们需要改变的不是 AI 本身,而是“我们如何向世界讲述 AI 的故事”。
关键词: AI Agent, 拟人化, 开发者关系, GitHub Copilot, 生成式AI
事实核查备注: Roselle Scarlet:演讲者,Staff Developer Advocate,曾就职 GitHub Copilot;Salesforce CEO 提到 30% 生产力提升并减少招聘;2024 Stack Overflow Developer Survey:76% 开发者使用或计划使用 AI;Wired 文章《Game Developers Are Getting Fed Up With Their Boss’s AI Initiatives》;关键技术名词:LLM、token、上下文窗口、AI Agent、幻觉(hallucination)、Copilot。