比起失控,盖茨更担心我们不作为:他为何说AI风险可控
当整个行业都在高喊“AI可能毁灭人类”时,Bill Gates 却给出了一个反直觉判断:AI 的风险真实存在,但人类完全有能力管住它。更重要的是,他并不是在“盲目乐观”,而是给出了一套现实世界可执行的逻性。
当整个行业都在高喊“AI可能毁灭人类”时,Bill Gates 却给出了一个反直觉判断:AI 的风险真实存在,但人类完全有能力管住它。更重要的是,他并不是在“盲目乐观”,而是给出了一套现实世界可执行的逻性。
ChatGPT不是被夸得太猛,而是第一次被美国政府“正式盯上”。FTC一封20页调查函,把OpenAI的训练数据、幻觉问题、企业客户、甚至公司治理全部摊开检查。这不是一次普通调查,而是AI监管真空期里最具信号意义的一枪。
当演员和编剧50多年首次同时罢工,压垮谈判桌的不是片酬,而是AI。一次“扫描一天、使用一辈子”的提案,让整个好莱坞意识到:这不是合同之争,而是人类劳动是否还能被尊重的问题。
当喜剧演员 Sarah Silverman 把 OpenAI 和 Meta 告上法庭,很多人以为这只是又一起名人维权。但真正被点燃的,是整个生成式 AI 行业最危险、也最无法回避的问题:模型训练到底算不算“偷”?与此同时,企业疯狂加码 AI 投入,Google 已把医疗大模型送进医院测试。矛盾、加速、失控,这三股力量正在同一时间发生。
如果AI真的会毁灭人类,最可能的方式并不是科幻电影里的“天网觉醒”。在这期被广泛讨论的视频中,MIT、剑桥、MILA 等顶级研究者给出了5种更冷酷、也更现实的结局版本,其中一些危险,其实已经发生了。
ChatGPT 自发布以来第一次出现流量下滑,引发了“AI 热度是否正在消退”的争论。但真正值得关注的,并不是那 1 亿次访问的减少,而是这背后暴露出的一个尴尬事实:大模型今天最核心的使用场景,可能并没有我们想象中那么“高价值”。
当马斯克突然给Twitter加上“每日阅读上限”,很多人以为他又在瞎折腾。但真正的原因,比产品体验更残酷:AI公司正在把整个互联网当成免费训练场,而平台终于开始反击。这不是Twitter的问题,而是AI行业必须正视的“数据战争”。
如果AGI来得比你想象中更快,真正的风险可能不是“机器统治人类”,而是人类失去自我照顾的能力。这期对话里,David Shapiro一边给出激进的AGI时间表,一边却把全部精力押在AI对齐、激励结构和人类未来的“软问题”上。
Databricks 13亿美元收购 MosaicML,只是一个开始。真正的变化是:企业不再迷信“最强大模型”,而是集体转向“可控、私有、可定制”的 AI 路线。这场并购潮,正在悄悄重塑 AI 的权力结构。
大多数增长团队都默认一件事:对用户越“狠”,转化越高。但在 Figma Config 的这场演讲中,GitHub 设计师 Jaycee Day 用一组反直觉的数据证明:当你把“坑用户”的设计拿掉,增长不但没掉,反而更猛。这不是道德说教,而是一场被验证过的商业胜利。