Gary Marcus:为什么深度学习缺的不是规模,而是常识
在与 Lex Fridman 的对话中,Gary Marcus 系统性地反思了深度学习的边界。他认为,当前 AI 最大的瓶颈不在算力或数据,而在缺乏“常识”和可解释的认知模型。本文提炼了他最关键的洞见、经典案例与争议观点。
在与 Lex Fridman 的对话中,Gary Marcus 系统性地反思了深度学习的边界。他认为,当前 AI 最大的瓶颈不在算力或数据,而在缺乏“常识”和可解释的认知模型。本文提炼了他最关键的洞见、经典案例与争议观点。
在与Lex Fridman的对谈中,加里·马库斯系统性地拆解了“先天 vs 后天”这一长期误导人工智能与认知科学的错误框架。他通过婴儿山羊、进化‘库函数’和工程类比,提出:真正的智能来自先天结构与学习机制的协同,而当下AI恰恰在这一点上严重失衡。
在与Lex Fridman的对话中,Yann LeCun用“爬山”比喻通用人工智能的路径,冷静地指出:我们只看到了第一座山峰。真正的人类级智能,核心不在于更大的模型,而在于自监督学习、世界模型和目标函数的深层统一。
Jeremy Howard结合自己多年教学与研究经历,回顾了从Theano、TensorFlow到PyTorch与fast.ai的技术演进。他直言框架设计如何直接影响研究效率、新手学习曲线,以及整个生态的未来,并对Swift for TensorFlow给出了冷静而独特的判断。
很多人以为高质量动效只能靠工程师,但Figma在2019年就给出了相反答案。Smart Animate + Drag Trigger,让设计师第一次能“预演真实产品行为”。更重要的是,这套逻辑,正在成为AI产品体验的隐形标准。
在这期 Lex Fridman 的播客中,Gary Marcus 系统阐述了他对通用人工智能的核心判断:单靠深度学习远远不够。通过常识推理、语言理解、儿童学习和象棋等具体案例,他提出了一条更现实的路径——将深度学习与符号推理相结合,构建真正可靠的智能系统。
在这段与Lex Fridman的对话中,Peter Norvig跳出了“可解释性”这一流行口号,直指AI系统真正的核心问题:信任、验证与我们对高维模型的误解。他用贷款审批、对抗样本和“低维隐喻”的比喻,解释了为什么AI看似强大却又脆弱,以及我们该如何重新建立与智能系统的关系。
在这期Lex Fridman播客中,Peter Norvig回顾了人工智能数十年的演进,从早期对算法与理论的迷恋,转向对“效用、偏见与信任”的关注。对AI研究者、工程师和普通技术爱好者而言,这是一次理解AI成熟之路的难得窗口。
这是YC总裁Geoff Ralston在Startup School结束时给创始人的告别演讲。他用自己横跨HP、Yahoo、Apple与YC的经历,讲清楚创业最重要的不是追风口,而是在混乱中找到属于自己的路径,并在一次次失败中保持行动力与善意。
在这段与Lex Fridman的对话中,Yann LeCun系统阐述了他对“人类级智能”和AGI的怀疑态度。他强调:任何声称接近人类智能的系统,都必须接受严格、可复现的基准测试。比起宏大叙事,LeCun更关心可验证的任务、交互式环境,以及机器真正“学会如何学习”的能力。