Ilya Sutskever谈深度学习:从ImageNet到通用智能的直觉与赌注
这是一场罕见的、偏向思想源头的对话。Ilya Sutskever回顾了深度学习崛起的关键节点,解释他为何信任经验主义与损失函数,并坦诚讨论大模型、通用人工智能与意识等终极问题。读完本文,你将理解今天AI路线背后的核心直觉。
这是一场罕见的、偏向思想源头的对话。Ilya Sutskever回顾了深度学习崛起的关键节点,解释他为何信任经验主义与损失函数,并坦诚讨论大模型、通用人工智能与意识等终极问题。读完本文,你将理解今天AI路线背后的核心直觉。
这场炉边对话回顾了自然语言处理在2018年前后的关键转折,解释了为什么语言模型会成为AI的基础设施,并通过零样本学习与文本生成的真实实验,揭示“规模”如何意外地改变模型能力边界。
这场来自LinkedIn AI的分享,讲述了他们如何用一个大语言模型统一推荐、排序与个性化任务,并一步步把它真正部署到线上。它不仅回答了“LLM能不能做推荐”,更详细拆解了在延迟、成本和效果之间反复拉扯的工程现实。
在这场技术分享中,Netflix推荐系统负责人讲述了一次关键转向:放弃碎片化的推荐模型体系,转而用一个基础模型统一承载所有推荐需求。文章还原了这一决策的背景、技术细节与现实约束,解释为什么这不是一次简单的“模型升级”,而是一场组织与工程方式的重构。
这场来自 Instacart 搜索与机器学习团队的分享,讲述了他们如何在真实、高复杂度的杂货电商场景中引入大语言模型,解决传统搜索在冷启动、长尾查询和商品发现上的结构性难题,并在工程约束下找到可落地的平衡点。
这场演讲讲述了YouTube团队如何尝试让Gemini真正理解YouTube世界,并将大语言模型用于视频推荐与检索。核心不在于炫技,而是在规模、约束和产品现实下,重新思考LLM能做什么、不能做什么。
在这场题为“MCP is all you need”的分享中,Pydantic作者Samuel Colvin用一场真实的代码演示,解释了为什么MCP正在成为连接大模型与工程系统的关键抽象。本文还原他的核心观点、演示脉络,以及他对“复杂AI应用为何必须先变简单”的判断。
Nathan Lambert在这场演讲中,回顾了过去半年推理模型的关键变化,提出了一套“下一代推理”的分类法框架。他从可验证奖励的强化学习出发,解释为何推理不只是更长的思维链,而是一整套可被设计、比较和工程化的能力组合。
Charles Frye 在这次演讲中给 AI 工程师泼了一盆冷水:只会调用模型 API 已经不够了。随着推理成本、延迟和规模问题暴露,理解 GPU 的设计哲学——带宽、并行性和张量计算——正成为构建下一代 AI 应用的基础能力。
Neo4j 的 Stephen Chin 从一线实践出发,直指当前 AI Agent 幻觉与失效的根源,并提出 Agentic GraphRAG 作为解决路径。通过知识图谱、结构化检索和代理运行时的结合,他展示了一种更可控、更接近人类推理的智能系统设计思路。