能通关多款游戏的AI出现了,但真正让行业紧张的是后面两件事
Google 的新 AI agent 已经能像人一样听指令、玩多款 3D 游戏,但这只是开胃菜。同一周里,OpenAI 因 Sora 训练数据被逼到角落,Midjourney 干脆封杀总统候选人。这三件事拼在一起,指向一个更残酷的现实:AI 正在变强,但行业的“安全边界”正在收紧。
Google 的新 AI agent 已经能像人一样听指令、玩多款 3D 游戏,但这只是开胃菜。同一周里,OpenAI 因 Sora 训练数据被逼到角落,Midjourney 干脆封杀总统候选人。这三件事拼在一起,指向一个更残酷的现实:AI 正在变强,但行业的“安全边界”正在收紧。
马斯克起诉OpenAI,指控其背叛“开放使命”。但OpenAI直接放出了邮件证据:转向营利不是背叛,而是马斯克亲自推动的方案之一,甚至包括并入特斯拉。这场纷争,远不只是“开不开源”那么简单。
这期《No Priors》年度精选,把2023年最重要的AI对话串联在一起:从OpenAI的非营利初心,到DeepMind与创业者的现实反思,再到模型与算力的根本问题。本文提炼其中最有价值的洞见与故事,帮助你快速理解这一年AI思考方式的变化。
今年 AI 最被低估的一次突破,可能不在大模型,而在材料科学。Google DeepMind 用一个叫 GNoME 的模型,一口气预测出 220 万种全新晶体结构,其中 38 万种被认为“理论上稳定”。这不是论文数字游戏,而是可能直接改写电池、芯片、超导体研发方式的一次范式转移。
Mistral AI CEO Arthur Mensch在《No Priors》中分享了他离开DeepMind、创立开源AI公司的关键思考:为什么开源模型正在重塑技术版图,以及他对模型规模、数据、与AI安全争议的不同判断。
一半美国人相信:AI制造的虚假信息,将直接左右总统选举结果。更糟的是,三分之一的人已经提前决定——就算选举结束,他们也不会再完全相信结果。这不是科幻,而是一项刚出炉的真实民调,正在把AI从“效率工具”推向“民主变量”。
一家实验室用AI在尼安德特人和丹尼索瓦人的蛋白序列里,找回了“灭绝”的抗生素分子;另一边,Google DeepMind 刚刚亮出一个能读影像、懂文本、看基因的通用医疗模型。这不是两条新闻,而是一条正在成型的新范式。
如果你还以为AI威胁“主要是蓝领”,这份最新报告会让你背后一凉。OECD发现,27%的工作正处在AI自动化的最高风险区,而且数据还没算上ChatGPT。更微妙的是:一边是裁员焦虑,另一边却是效率、幸福感和心理健康的同步提升。
当所有人都在讨论AI如何提效、如何颠覆行业时,美国一位联邦法官却直接下令:ChatGPT不得进入我的法庭。这不是情绪化反应,而是AI落地过程中最真实、也最具代表性的冲突现场。
一张由 AI 生成的“五角大楼爆炸照”,在20分钟内搅动全球市场;几天后,OpenAI CEO Sam Altman 坐在美国参议院听证席上,主动要求更强监管。这不是巧合,而是 AI 治理进入现实阶段的信号。