从一家40亿美元公司的实践,看AI医生为何还差“最后一公里”
这场对话来自一家估值数十亿美元的医疗公司内部实践者,围绕“为什么最强大的大模型仍然不懂医疗体系”、上下文窗口的真实瓶颈,以及AI在医疗场景中增长、留存与落地的反直觉经验,揭示了AI医生之路并非技术单点突破,而是系统性工程。
这场对话来自一家估值数十亿美元的医疗公司内部实践者,围绕“为什么最强大的大模型仍然不懂医疗体系”、上下文窗口的真实瓶颈,以及AI在医疗场景中增长、留存与落地的反直觉经验,揭示了AI医生之路并非技术单点突破,而是系统性工程。
如果你觉得AI最缺的是算法,那你已经落后一整轮了。Sam Altman正在筹划一笔高达5到7万亿美元的资金,只为重塑全球芯片与算力版图——这个数字相当于全球GDP的近10%。这不是夸张,而是一场正在酝酿的“全球级AI基础设施战争”。
谷歌亲手“杀死”了 Bard,把全部筹码压在 Gemini 上,并首次放出真正能与 GPT‑4 同级的模型 Ultra 1.0。这不只是一次产品升级,而是谷歌在 AI 战场上的一次自我救赎:一场迟到一年、却必须打赢的战争。
一个AI模仿的“拜登”电话,正在把美国大选拖进未知水域;与此同时,OpenAI首次出手封禁竞选机器人开发者。两件事连在一起,揭开了AI选举乱局的真正风险。
当大厂纷纷把最强模型锁进黑箱,扎克伯格却公开宣称:Meta 的目标是“开源 AGI”。更激进的是,这不是口号,而是一场组织、算力和产品重心的全面重排。这期视频透露的信号,远比一句“我们也做 AGI”更危险。
当所有人都在担心 AGI 会不会“毁灭世界”,Sam Altman 却在达沃斯说了一句反直觉的话:它来的不远,但影响可能没你想的大。这不是降温,而是 OpenAI 对现实的重新判断。
这期《No Priors》年度精选,把2023年最重要的AI对话串联在一起:从OpenAI的非营利初心,到DeepMind与创业者的现实反思,再到模型与算力的根本问题。本文提炼其中最有价值的洞见与故事,帮助你快速理解这一年AI思考方式的变化。
如果有一项技术,有5%的概率终结人类,你会觉得这是“很低”,还是“高得吓人”?一项覆盖2700多名AI与机器学习研究者的最新调查,把AI安全争论直接推到了桌面中央,而真正值得警惕的,还不只是那个5%。
Sam Altman 刚经历“被罢免又回归”的董事会风波,OpenAI 就抛出了一套前所未有的安全准备框架。更激进的是:一旦模型风险降不下来,哪怕算力已经砸下去,也可能直接停掉。这不是公关,而是一套会真正影响模型生死的内部机制。
Sam Altman没拿到TIME年度人物,却成了“CEO of the Year”。比头衔更重要的,是他被解雇又火速复职的那几天,意外撕开了生成式AI时代最隐秘的矛盾:安全与速度、使命与权力、理想主义与商业现实。