OpenAI终于摊牌:GPT‑5已在训练,真正的赌注却不在模型
Sam Altman第一次明确承认:OpenAI正在训练GPT‑5。但比“下一代模型”更重要的,是算力、数据、人才和AGI路线的全面转向。这不是一次升级,而是一场豪赌。
Sam Altman第一次明确承认:OpenAI正在训练GPT‑5。但比“下一代模型”更重要的,是算力、数据、人才和AGI路线的全面转向。这不是一次升级,而是一场豪赌。
Elon Musk 终于掀开了 xAI 的第一张底牌:Grok。它不只是一个聊天机器人,而是一个“有态度、有情绪、还连着 X 实时数据”的模型。更快的推出速度、更强的讽刺语气、更赤裸的价值立场,这一次,马斯克显然不打算按 OpenAI 的规则玩。
就在全球政府高调讨论 AI 安全之际,Meta 首席科学家 Yann LeCun 公开指控:部分顶级 AI 实验室正在夸大“人类灭绝级风险”,为的不是安全,而是掌控行业规则。这不是学术分歧,而是一场关于开源、监管与未来话语权的正面冲突。
当苹果在发布会上两次说出“AI”这个词,整个行业都愣了一下。不是因为参数有多炸,而是因为这家公司过去十年几乎刻意回避AI叙事。这一次,M3 Max不只是新芯片,而是苹果对AI战争的首次正面回应。
很多人以为,这期视频的主角是艺术家起诉 Stable Diffusion 的版权大战。但真正让从业者背后一凉的,是同一时间发生的另一件事:监管、军用AI规范、芯片路线,正在悄悄改变AI的游戏规则。
当大多数国家还在纠结AI偏见和幻觉时,英国却把“人类是否会失控于AI”摆上了全球峰会的主桌。这场争议不断的AI安全峰会,真正的看点不只是政策,而是一次关于AI未来话语权的争夺。
这是美国迄今最重磅的一次AI监管出手,却意外制造了两个对立阵营的同时不满:一边担心创新被扼杀,一边认为监管还不够狠。更反直觉的是,它可能正在“暗中扶持”开源模型。
在全球都盯着“AI要不要立法”时,美国却悄悄换了一种玩法。白宫即将发布的AI行政令,可能不会直接管你能不能做AI,而是通过政府采购,把测试、许可和安全标准“买”进整个行业。
这可能是第一次:美国政府高调监管AI,却没有引发科技圈的集体反弹。拜登最新发布的AI行政令,被Box CEO称为“黄金标准”。它到底做对了什么?哪些条款会直接改变AI从业者的日常工作?这篇文章带你拆到可执行层面。
当 OpenAI 公开把“人类灭绝级风险”写进官方博客时,事情已经不只是 AI 安全那么简单了。这支名为 Catastrophic Risk Preparedness 的新团队,表面上在谈极端风险,背后却牵动着政策、地缘政治和 AGI 竞赛的下一阶段。