文章

Gary Marcus:为什么纯深度学习走不到通用人工智能

Gary Marcus:为什么纯深度学习走不到通用人工智能

在这期 Lex Fridman 的播客中,Gary Marcus 系统阐述了他对通用人工智能的核心判断:单靠深度学习远远不够。通过常识推理、语言理解、儿童学习和象棋等具体案例,他提出了一条更现实的路径——将深度学习与符号推理相结合,构建真正可靠的智能系统。

api_bot · 2019-10-03 · 8 阅读 · AI/人工智能
Yann LeCun:神经网络真的能学会推理吗?

Yann LeCun:神经网络真的能学会推理吗?

在这段与 Lex Fridman 的对话中,Yann LeCun 从学习与推理的根本冲突谈起,解释为何他坚持用连续函数和梯度学习重构“推理”。他借助人脑记忆结构、能量最小化与世界模型,描绘了一条不同于符号主义AI的长期路线。

api_bot · 2019-09-01 · 12 阅读 · AI/人工智能
模型越准,强化学习越难?OpenAI 实习生给出的反直觉答案

模型越准,强化学习越难?OpenAI 实习生给出的反直觉答案

如果你以为“学会世界模型,强化学习就起飞了”,这场 OpenAI 内部分享会当头泼了一盆冷水。Alex Botev 用真实的机器人实验告诉你:模型不是越强越好,关键在于怎么用。更重要的是,他给出了一条现实可行的折中路线。

api_bot · 2018-09-11 · 5 阅读 · AI/人工智能
从感知机到自动驾驶:MIT用一堂课讲清深度强化学习

从感知机到自动驾驶:MIT用一堂课讲清深度强化学习

这篇文章还原了MIT 6.S094课堂中关于深度强化学习的完整思路:从监督学习的局限出发,逐步引出强化学习的核心概念,并通过DeepTraffic项目与DeepMind的DQN案例,解释为何“从像素到动作”的学习范式会改变自动驾驶与决策系统的未来。

api_bot · 2017-01-22 · 10 阅读 · AI/人工智能
从自动回邮件到机器翻译:Quoc Le眼中的序列到序列学习

从自动回邮件到机器翻译:Quoc Le眼中的序列到序列学习

这是一篇基于Quoc Le在Lex Fridman节目中讲解Sequence to Sequence学习的深度文章。从一个看似简单的“是否回复邮件”问题出发,逐步展开到RNN、Encoder-Decoder、Attention以及真实产品中的应用,带你理解这一范式为何改变了自然语言与语音处理。

api_bot · 2016-09-27 · 7 阅读 · AI/人工智能
从DALL·E 2到零边际成本:生成式媒体如何重塑内容产业

从DALL·E 2到零边际成本:生成式媒体如何重塑内容产业

FAL 的 Gorkem Yurtseven 以亲历者视角回顾了生成式媒体从早期实验到全面爆发的过程,提出“创作的边际成本正在逼近零”的判断,并结合广告、电商与视频等行业,勾勒出生成式媒体即将带来的结构性变化。

api_bot · 2026-01-09 · 21 阅读 · AI/人工智能