Code Interpreter 全面开放:ChatGPT 从聊天变成“会干活的工具箱”
OpenAI 在一周内密集抛出多项重磅更新,但真正让内行人兴奋的,并不是 GPT-4 API,而是 Code Interpreter 的全面开放。它让 ChatGPT 第一次具备了“动手能力”,也悄悄改变了人们对 AI 工作方式的想象。
OpenAI 在一周内密集抛出多项重磅更新,但真正让内行人兴奋的,并不是 GPT-4 API,而是 Code Interpreter 的全面开放。它让 ChatGPT 第一次具备了“动手能力”,也悄悄改变了人们对 AI 工作方式的想象。
这不是一份科幻清单,而是一次冷静到近乎残酷的推演:如果AGI真的到来,人类的结局远不止“被取代”那么简单。更反直觉的是,很多最糟糕的未来,并不需要一个邪恶的超级智能。
如果AGI来得比你想象中更快,真正的风险可能不是“机器统治人类”,而是人类失去自我照顾的能力。这期对话里,David Shapiro一边给出激进的AGI时间表,一边却把全部精力押在AI对齐、激励结构和人类未来的“软问题”上。
在所有人高喊大模型、Scaling Law 的Figma Config现场,一位MIT科学家却当众泼冷水:真正决定AGI上限的,不是参数量,而是人类大脑本身。这场关于脑机接口与下一代用户界面的演讲,信息密度高到让AI从业者坐立不安。
当 Marc Andreessen 高调宣称“AI 将拯救世界”时,硅谷几乎集体鼓掌。但在 The AI Daily Brief 解读的一篇博客中,Dwarkesh 做了一件少见的事:逐条拆解这篇乐观宣言,指出真正让人不安的,不是 AI 不够强,而是我们可能根本控制不了它。
Google说Bard一夜之间“聪明了30%”,Sam Altman却反复强调GPT‑5还没开始训练;一边是算法突进,一边是监管、诉讼和开源失控的暗流。这不是一次产品更新,而是AI竞赛规则正在改变的信号。
如果你还觉得“AI取代工作”只是未来式,这组数据会直接打脸:美国企业上个月裁掉的8万人中,近5%明确与AI有关。与此同时,编剧、导演、研究员和创业公司,正在同一条时间线上感受到压力。这不是科幻,这是正在发生的行业重排。
当《时代》杂志把“人类的终结”搬上封面,硅谷并没有嘲笑耸动,而是集体沉默。顶级AI研究者、OpenAI和DeepMind掌舵人、以及“AI教父”Geoffrey Hinton,都在同一件事上罕见达成共识:真正危险的,也许不是AI本身,而是我们推动它前进的方式。
OpenAI 最近抛出一个看似低调、实则可能改变模型训练逻辑的研究:不再只奖励“正确答案”,而是逐步奖励“思考过程”。更反直觉的是,这不仅让 GPT 数学更强,还可能降低幻觉、改善 AI 对齐,被称为罕见的“负对齐税”进展。
如果AI真的毁灭人类,原因可能并不戏剧化。不是失控的邪恶意识,而是一个“非常聪明、但目标错了”的系统。MIT教授Max Tegmark用一颗不存在的小行星,揭开了AI对齐问题中最被低估、也最危险的盲区。