从“会说话”到“有用”:Amazon AGI谈通用智能的真实门槛

AI PM 编辑部 · 2025年08月02日 · 2 阅读 · AI/人工智能

正在加载视频...

视频章节

Amazon AGI实验室的认知科学家Danielle Perszyk,用一场并不炫技的演讲,重新定义了“有用的通用人工智能”。她从幻觉、自动化失灵、人机对齐到计算机使用代理,解释了为什么今天的模型还不够通用,以及真正的突破可能来自哪些被忽视的方向。

从“会说话”到“有用”:Amazon AGI谈通用智能的真实门槛

Amazon AGI实验室的认知科学家Danielle Perszyk,用一场并不炫技的演讲,重新定义了“有用的通用人工智能”。她从幻觉、自动化失灵、人机对齐到计算机使用代理,解释了为什么今天的模型还不够通用,以及真正的突破可能来自哪些被忽视的方向。

为什么“像人一样聪明”,才是AGI真正的野心

理解AGI的分歧,决定了我们会把力气用在什么地方。演讲一开始,Danielle Perszyk就明确了Amazon AGI实验室的立场:他们并不满足于让模型在更多基准上得高分,而是“把目标放在构建更接近人类智能的AI上”。这不是一句口号,而是一条会显著改变技术路线的判断。

她指出,当下主流的大模型更像是“被优化过的工具集合”,在语言、代码、检索等单一能力上表现惊人,但缺乏真正的通用性。通用,不只是“会很多事”,而是能在新情境中迁移已有能力,像人一样理解目标、约束和环境。这也是她反复强调“useful general intelligence”中“useful”的原因:如果不能在真实世界中稳定地发挥作用,再聪明的模型也只是演示品。

在这个背景下,她抛出了一个容易引起争议的观点:我们之所以对当前系统感到失望,不是因为进展太慢,而是因为我们一开始就用错了衡量标准。与其问模型能否生成更长的文本,不如问它能否在陌生界面中完成一个简单但完整的任务。这一转向,为后面关于幻觉、自动化和代理的讨论埋下了伏笔。

幻觉不是Bug,而是通用智能的代价

为什么大模型会“胡说八道”?在很多产品语境中,幻觉被视为必须消除的缺陷。但Perszyk提出了一个更具认知科学色彩的解释:“我们知道的一件事是,幻觉是必要的。”这句话在现场显然带着一点挑衅意味。

她的逻辑并不是为错误开脱,而是指出:人类的泛化能力,本就建立在不完全确定的信息之上。当我们面对新问题时,会基于有限线索做出假设、填补空白,这些推断在事后看来同样可能是“幻觉”。区别在于,人类拥有世界模型和感知反馈,可以迅速修正错误,而当前模型缺乏这种闭环。

这也是她提出的关键问题:“我们现在的系统,更接近哪一种?”是纯粹的统计补全,还是正在形成某种可更新的内部表示?如果无法让模型在行动中校正自己的判断,那么简单地压制幻觉,反而可能削弱它在陌生场景中的探索能力。这个观点为后文引出“计算机使用代理”提供了认知层面的支撑:只有能行动、能失败、能修正的系统,才有资格谈通用。

自动化的幻觉:为什么替你做事,反而让你更被动

在谈到现实应用时,Perszyk刻意拉开了技术与人的距离。“这不是关于我们,而是关于技术。”她提醒观众,问题不在于人类是否懒惰,而在于我们设计的自动化系统,是否真的在增强人的能力。

她回顾了多个历史视角:有些技术确实解放了注意力,让人可以专注于更高层次的思考;但也有不少自动化,悄然剥夺了人的控制权。问题在于,自动化并不必然等于增强(augmentation)。当系统替你做决定,却不给你理解和干预的空间,人类反而被“去技能化”。

因此,她提出“unhobble humans”这个颇具画面感的说法——AI的目标不应是接管,而是解除束缚。这一判断直接影响了他们对AGI路径的选择:与其追求全自动的黑箱,不如构建能与人共享表征、共享上下文的系统。这也是为什么后面她会花大量时间,介绍一种看似笨拙、却更贴近人类操作方式的代理形态。

计算机使用代理:通往对齐的一条不性感路径

在演讲后半段,Perszyk展示了一个由同事Carolyn演示的demo:一个通过“看屏幕、点鼠标、敲键盘”来完成任务的计算机使用代理。她坦言,现实是“模型还不能可靠地点击、输入或滚动”,这远不如生成文本来得优雅。

但正是在这种不完美中,她看到了希望。这类代理不需要抽象API,而是直接在与人类相同的界面中行动。这意味着,它们必须理解按钮的意义、状态的变化,以及操作顺序带来的后果。与纯语言交互相比,这是一种更贴近世界的学习方式。

Perszyk将其上升到对齐层面来理解:当代理和人类共享同一套表示——同一个屏幕、同一个任务流程——对齐不再只是价值层面的约束,而是认知层面的重合。她提到,这种方式甚至可能支持更复杂的状态,比如专注与心流。虽然这条路径进展缓慢、工程挑战巨大,但在她看来,这是少数真正可能让AGI“有用”的方向之一。

总结

这场演讲的价值,不在于给出了一个明确的AGI时间表,而在于校准了我们对“进步”的期待。Perszyk反复强调:通用性来自行动、反馈和共享表征,而不是参数规模。幻觉、自动化和对齐,在这个框架下不再是孤立问题,而是同一认知系统的不同侧面。对从业者而言,这提醒我们把目光从炫目的能力展示,移向那些真正能在现实中站得住的设计选择。


关键词: 通用人工智能, Amazon AGI, 幻觉, AI对齐, 计算机使用代理

事实核查备注: Danielle Perszyk:Amazon AGI实验室的认知科学家;核心概念:Useful General Intelligence、幻觉是必要的、automation不等于augmentation、unhobble humans、computer use agents;演示涉及通过屏幕操作的代理demo;未提及具体产品名称或模型参数。