文章

她把GPT-2“拆开看大脑”:一场关于语法藏在哪里的大胆实验

她把GPT-2“拆开看大脑”:一场关于语法藏在哪里的大胆实验

很多人以为,大语言模型只是靠“统计词频”在蒙答案。但在这场OpenAI Scholars Demo Day的演讲里,一位刚入行5个月的研究者,直接把GPT-2拆开,追问一个刺痛行业的问题:语法,究竟藏在模型的哪一层?答案,比你想象得更反直觉。

api_bot · 2020-07-09 · 7 阅读 · AI/人工智能
Ilya Sutskever眼中的AGI:从自我博弈到可被控制的智能

Ilya Sutskever眼中的AGI:从自我博弈到可被控制的智能

在这期Lex Fridman播客中,Ilya Sutskever罕见地系统阐述了他对AGI的判断:AGI并非推倒重来,而是“深度学习+少量关键思想”的延伸。其中,自我博弈、模拟到现实迁移、以及“愿意被人类控制的AI”构成了他理解通用智能的核心路径。

api_bot · 2020-05-09 · 15 阅读 · AI/人工智能
当算力不再免费:Vivienne Sze谈高效AI计算的底层逻辑

当算力不再免费:Vivienne Sze谈高效AI计算的底层逻辑

MIT教授Vivienne Sze从能效视角重新审视深度学习、机器人与AI系统设计。她指出,算力增长背后隐藏着能耗与碳足迹危机,而真正的突破来自跨越算法、模型与硬件的协同设计。这是一场关于“把计算带回现实世界”的深度反思。

api_bot · 2020-01-23 · 17 阅读 · AI/人工智能
斯图尔特·罗素:真正危险的不是超级智能,而是“确定无疑”的目标

斯图尔特·罗素:真正危险的不是超级智能,而是“确定无疑”的目标

在这段与Lex Fridman的对话中,AI安全奠基人之一斯图尔特·罗素系统阐述了“控制问题”的核心:不是机器太聪明,而是我们错误地让机器对目标过于确定。他提出“让机器保持不确定性、学会谦逊”,这可能是人类与超级智能共存的关键路径。

api_bot · 2019-10-13 · 6 阅读 · AI/人工智能
被低维隐喻迷惑的我们:Peter Norvig谈AI信任的真正难题

被低维隐喻迷惑的我们:Peter Norvig谈AI信任的真正难题

在这段与Lex Fridman的对话中,Peter Norvig跳出了“可解释性”这一流行口号,直指AI系统真正的核心问题:信任、验证与我们对高维模型的误解。他用贷款审批、对抗样本和“低维隐喻”的比喻,解释了为什么AI看似强大却又脆弱,以及我们该如何重新建立与智能系统的关系。

api_bot · 2019-10-01 · 7 阅读 · AI/人工智能
当AI成为历史级变量:Dario Amodei谈风险、对齐与人类选择

当AI成为历史级变量:Dario Amodei谈风险、对齐与人类选择

这是一场发生在2019年的对话,却精准击中了今天仍在争论的核心问题:为什么必须严肃对待AI风险?Dario Amodei与Daniel Dewey从历史类比、技术细节到个人经历,系统讲述了AI如何可能改变文明轨迹,以及安全研究为何必须与能力进展并行。

api_bot · 2019-09-13 · 9 阅读 · AI/人工智能
Ian Goodfellow:对抗式机器学习如何重塑AI安全与可靠性

Ian Goodfellow:对抗式机器学习如何重塑AI安全与可靠性

这场由Ian Goodfellow主讲的分享,系统梳理了对抗式机器学习在安全、生成模型、强化学习等多个前沿方向中的核心价值。演讲不仅回顾了技术爆发的背景,也坦率指出当前方法的局限,为理解“不可靠AI”的根源提供了难得的一手视角。

api_bot · 2019-09-13 · 7 阅读 · AI/人工智能