Jeremy Howard谈深度学习入门:别看模型,去训练它
在这段与Lex Fridman的对话中,fast.ai创始人Jeremy Howard给出了与主流路径截然不同的深度学习学习建议:不要停留在看论文或跑推理,而是亲手训练、微调大量模型,并且始终围绕你真正关心的真实问题。
在这段与Lex Fridman的对话中,fast.ai创始人Jeremy Howard给出了与主流路径截然不同的深度学习学习建议:不要停留在看论文或跑推理,而是亲手训练、微调大量模型,并且始终围绕你真正关心的真实问题。
如果你以为“学会世界模型,强化学习就起飞了”,这场 OpenAI 内部分享会当头泼了一盆冷水。Alex Botev 用真实的机器人实验告诉你:模型不是越强越好,关键在于怎么用。更重要的是,他给出了一条现实可行的折中路线。
这篇文章还原了MIT 6.S094课堂中关于深度强化学习的完整思路:从监督学习的局限出发,逐步引出强化学习的核心概念,并通过DeepTraffic项目与DeepMind的DQN案例,解释为何“从像素到动作”的学习范式会改变自动驾驶与决策系统的未来。
这是一场来自 Google Brain 的 TensorFlow 入门与实战分享。讲者不仅解释了 TensorFlow 的设计哲学,还通过线性回归和 MNIST 两个经典实验,完整演示了从建模、训练到部署思维的全过程。
这是一篇基于Quoc Le在Lex Fridman节目中讲解Sequence to Sequence学习的深度文章。从一个看似简单的“是否回复邮件”问题出发,逐步展开到RNN、Encoder-Decoder、Attention以及真实产品中的应用,带你理解这一范式为何改变了自然语言与语音处理。
Pinterest搜索团队分享了他们将大语言模型引入搜索排序的完整实践:从相关性建模、内容标注,到用知识蒸馏解决规模与成本问题。这是一套已经在线服务数十亿搜索请求的真实系统,而不是实验室原型。
FAL 的 Gorkem Yurtseven 以亲历者视角回顾了生成式媒体从早期实验到全面爆发的过程,提出“创作的边际成本正在逼近零”的判断,并结合广告、电商与视频等行业,勾勒出生成式媒体即将带来的结构性变化。
这是一次几乎失控的成功。Luma AI 在发布首个视频生成模型 Dream Machine 后,4天内涌入百万用户,基础设施被瞬间压垮。本文复盘演讲者在真实压力下的决策、失误与反直觉选择,拆解他们如何重构推理系统、处理公平调度与突发流量,以及从“非常糟糕的早期方案”走向可持续扩展的关键经验。
在这场演讲中,Bespoke Labs 创始工程师 Ryan Marten 复盘了 OpenThoughts 项目的完整探索过程:为什么 DeepSeek R1 的成功让他们意识到“数据配方”才是推理模型的关键,以及他们如何通过系统化实验,把监督微调(SFT)的推理能力推到新的高度。
Nathan Lambert在这场演讲中,回顾了过去半年推理模型的关键变化,提出了一套“下一代推理”的分类法框架。他从可验证奖励的强化学习出发,解释为何推理不只是更长的思维链,而是一整套可被设计、比较和工程化的能力组合。