AI假作者丑闻后CEO被炒,这只是更大失控的开始
一家百年体育媒体,因为“AI假作者”翻车,CEO直接出局;欧洲却在此刻给大模型再上监管枷锁;而美国选举已经用上会聊天的AI电话员。这不是零散新闻,而是同一件事的不同侧面:AI正在逼迫整个行业表态。
一家百年体育媒体,因为“AI假作者”翻车,CEO直接出局;欧洲却在此刻给大模型再上监管枷锁;而美国选举已经用上会聊天的AI电话员。这不是零散新闻,而是同一件事的不同侧面:AI正在逼迫整个行业表态。
原定年度最重要发布,Google 却在最后一刻取消 Gemini 的线下预览,只改成“可能上线”的线上展示。原因并不体面:模型在多语言场景下还不够稳,而外界盯着的对手,正是 GPT‑4。这不是一次普通跳票,而是一次巨头在 AI 竞赛中罕见的迟疑。
Stable Diffusion 背后的 Stability AI,看起来比任何人都忙:模型一个接一个地发,速度快到让同行眼红。但就在同一时间,最大投资人要求 CEO 下台、公司被曝探索出售、账上现金以每月数百万美元速度蒸发——这家“开源明星”正站在一个极其尴尬、却极具代表性的行业节点上。
Sam Altman 被突然解雇又迅速回归,表面看是治理失败,背后却牵出一条更耐人寻味的线索:一次可能触及“推理能力”的 AI 突破、研究员写给董事会的警告信,以及公司内部对安全与商业化节奏的深度分裂。这不是八卦,而是一次罕见暴露的 AGI 前夜冲突。
当外界还以为OpenAI的剧情只是一场“CEO被罢免、员工集体造反”的公司治理危机时,更劲爆的一条暗线浮出水面:董事会曾私下接触Anthropic,讨论合并的可能性。这不仅震动了AI圈,也彻底改变了这场风暴的解读方式。
一场来自Y Combinator的圆桌讨论,把AGI的分歧摊在台面上:有人认为已然到来,有人坚持仍很遥远。比时间更重要的是定义、能力边界与伦理共识。
OpenAI 最近确认:是否达成 AGI,将由一个只有 6 人的董事会决定,而且这个决定,直接决定微软还能不能用他们的模型。这不是公司治理八卦,而是一场关于算力、资本、AI 安全与控制权的正面冲突,硅谷已经开始分裂。
这不是一场关于模型参数的技术演讲,而是一次关于“人是什么”的实验。a16z与Generative Agents论文作者June Park,通过AI Town这一模拟世界,展示了大语言模型如何第一次被用来理解、而不只是模仿人类行为。
就在全球政府高调讨论 AI 安全之际,Meta 首席科学家 Yann LeCun 公开指控:部分顶级 AI 实验室正在夸大“人类灭绝级风险”,为的不是安全,而是掌控行业规则。这不是学术分歧,而是一场关于开源、监管与未来话语权的正面冲突。
很多人以为,这期视频的主角是艺术家起诉 Stable Diffusion 的版权大战。但真正让从业者背后一凉的,是同一时间发生的另一件事:监管、军用AI规范、芯片路线,正在悄悄改变AI的游戏规则。