独立智能体真的会“互相学习”吗?OpenAI一场实验给了残酷答案
我们总以为,把多个 AI Agent 放在同一个环境里,它们自然会像人类一样“偷师学艺”。但在 OpenAI Scholars Demo Day 上,Kamal N’dousse 用一系列实验给出了一个极不讨喜、却极其重要的结论:大多数时候,智能体根本懒得学别人。
我们总以为,把多个 AI Agent 放在同一个环境里,它们自然会像人类一样“偷师学艺”。但在 OpenAI Scholars Demo Day 上,Kamal N’dousse 用一系列实验给出了一个极不讨喜、却极其重要的结论:大多数时候,智能体根本懒得学别人。
在 OpenAI Scholars Demo Day 上,一位工程师抛出了一个让人不安的问题:当模型性能不断提升时,我们真的更“理解”它了吗?他试图用量化指标回答“可解释性”这个长期依赖直觉和人工判断的问题,结果却比答案本身更耐人寻味。
直到20年前,医学界还在争论一件事:癫痫发作到底能不能被预测?在 OpenAI Scholars Demo Day 上,一位神经科学出身的研究者用深度学习给出了一个并不完美、却足够震撼的答案——不仅能,而且很可能正是神经网络最擅长的那类问题。
你以为只有图片模型才会被“对抗样本”骗?这场 OpenAI Scholars Demo Day 的演讲给了 NLP 社区当头一棒:只要在输入里悄悄塞进一句看似无关、甚至毫无意义的文本,就可能稳定地把语言模型带偏,而且还能跨模型迁移。
这篇文章基于彼得·辛格在 Lex Fridman 播客中的对话,系统梳理他关于“苦难”的核心伦理观点:战争是否可能带来正面价值、人类与动物的道德等价性,以及当AI具备感受能力时我们该如何对待它。文章试图还原这场对话中最具冲击力的思想张力。
在这次对话中,DeepMind研究者Matt Botvinick提出一个反直觉但极具启发性的观点:理解人类智能,不能只盯着大脑本身,还必须认真对待环境的结构。从图灵机隐喻到强化学习中的自我博弈,他勾勒出一条连接人类认知与现代AI的清晰线索。
这期对话中,DeepMind科学家Matt Botvinick从神经科学出发,讨论人类大脑究竟被理解到什么程度、前额叶在智能中的角色,以及这些认知如何塑造现代强化学习与通用人工智能的研究方向。
在 OpenAI Scholars Demo Day 上,Christine Payne 做了一件反直觉的事:她没有发明全新的音乐模型,而是把“生成音乐”硬生生改造成一个语言模型问题。结果令人震惊——很多人已经分不清 AI 和人类作曲。但真正的挑战,才刚刚开始。
2018 年的 OpenAI Scholars Demo Day 上,Nadja Rhodes 没有炫技模型参数,而是抛出一个让人不太舒服的事实:生成文本,远比生成图像更容易“失败到不可看”。她的项目 Deephypebot,不只是一个音乐评论机器人,而是一场关于“如何让语言模型不再胡说八道”的实验。
如果你不告诉模型什么是力、速度和动量,它还能理解世界吗?在 OpenAI Scholars Demo Day 上,Ifu Aniemeka 用一个看似“幼稚”的实验给出了惊人答案:只靠观察,神经网络真的能学会预测物体运动。这不是炫技,而是世界模型的一次重要试探。