Gary Marcus:为什么纯深度学习走不到通用人工智能
在这期 Lex Fridman 的播客中,Gary Marcus 系统阐述了他对通用人工智能的核心判断:单靠深度学习远远不够。通过常识推理、语言理解、儿童学习和象棋等具体案例,他提出了一条更现实的路径——将深度学习与符号推理相结合,构建真正可靠的智能系统。
在这期 Lex Fridman 的播客中,Gary Marcus 系统阐述了他对通用人工智能的核心判断:单靠深度学习远远不够。通过常识推理、语言理解、儿童学习和象棋等具体案例,他提出了一条更现实的路径——将深度学习与符号推理相结合,构建真正可靠的智能系统。
MIT教授Regina Barzilay在这期Lex Fridman播客中,讲述了她如何将深度学习引入癌症诊断与治疗,并分享了自己罹患乳腺癌后的视角转变。这不仅是一场关于机器学习的技术对话,更是一段关于科学、数据与人类生命复杂性的真实故事。
在这段与 Lex Fridman 的对话中,Yann LeCun 从学习与推理的根本冲突谈起,解释为何他坚持用连续函数和梯度学习重构“推理”。他借助人脑记忆结构、能量最小化与世界模型,描绘了一条不同于符号主义AI的长期路线。
在这段与Lex Fridman的对话中,fast.ai创始人Jeremy Howard给出了与主流路径截然不同的深度学习学习建议:不要停留在看论文或跑推理,而是亲手训练、微调大量模型,并且始终围绕你真正关心的真实问题。
如果你以为“学会世界模型,强化学习就起飞了”,这场 OpenAI 内部分享会当头泼了一盆冷水。Alex Botev 用真实的机器人实验告诉你:模型不是越强越好,关键在于怎么用。更重要的是,他给出了一条现实可行的折中路线。
这篇文章还原了MIT 6.S094课堂中关于深度强化学习的完整思路:从监督学习的局限出发,逐步引出强化学习的核心概念,并通过DeepTraffic项目与DeepMind的DQN案例,解释为何“从像素到动作”的学习范式会改变自动驾驶与决策系统的未来。
这是一场来自 Google Brain 的 TensorFlow 入门与实战分享。讲者不仅解释了 TensorFlow 的设计哲学,还通过线性回归和 MNIST 两个经典实验,完整演示了从建模、训练到部署思维的全过程。
这是一篇基于Quoc Le在Lex Fridman节目中讲解Sequence to Sequence学习的深度文章。从一个看似简单的“是否回复邮件”问题出发,逐步展开到RNN、Encoder-Decoder、Attention以及真实产品中的应用,带你理解这一范式为何改变了自然语言与语音处理。
Pinterest搜索团队分享了他们将大语言模型引入搜索排序的完整实践:从相关性建模、内容标注,到用知识蒸馏解决规模与成本问题。这是一套已经在线服务数十亿搜索请求的真实系统,而不是实验室原型。
FAL 的 Gorkem Yurtseven 以亲历者视角回顾了生成式媒体从早期实验到全面爆发的过程,提出“创作的边际成本正在逼近零”的判断,并结合广告、电商与视频等行业,勾勒出生成式媒体即将带来的结构性变化。