Figma 直播造设计系统:为什么“组件化”比你想的更残酷也更高效
很多人以为设计系统是“最后再整理的文档工程”,但在这场 Figma Config 的直播里,事实正好相反:系统不是总结出来的,而是被一边做、一边逼出来的。更反直觉的是,最重要的不是按钮,而是看起来最无聊的“间距组件”。这正是高手和普通团队的分水岭。
很多人以为设计系统是“最后再整理的文档工程”,但在这场 Figma Config 的直播里,事实正好相反:系统不是总结出来的,而是被一边做、一边逼出来的。更反直觉的是,最重要的不是按钮,而是看起来最无聊的“间距组件”。这正是高手和普通团队的分水岭。
很多人以为拿到产品市场匹配(PMF)就赢了,但Figma在这场分享里直接泼冷水:真正艰难的,是PMF之后你要“拒绝什么”。这场来自Figma Config的演讲,把创业最容易踩坑的“1到10阶段”拆得极细,尤其适合今天的AI从业者。
这不是一场讲插件的分享,而是一次关于“系统化创作”的公开课。Pablo Stanley 从漫画、涂鸦到产品设计,最终做出 Blush,却意外点破了一个让 AI 从业者警醒的事实:真正可规模化的创造力,从来不是单点灵感,而是系统设计。
大多数人以为这是一期“教你画表单”的Figma教程,但真正的猛料在于:主播用一个按钮,完整演示了什么叫可扩展、可维护、能长期演进的设计系统思维。这套方法,对做AI产品的人尤其致命。
在这期Lex Fridman播客中,计算机视觉奠基者之一Jitendra Malik回顾了该领域半个多世纪的曲折发展,从1966年的“夏季视觉计划”谈到自动驾驶、神经网络与AI安全。他反复强调:视觉不是识别图片,而是为行动服务的预测系统,这也是当下AI最被低估的难题。
Lex Fridman 通过 TensorFlow Playground 的可视化实验,展示了神经网络在不同结构与超参数下,如何逐步学会(或学不会)复杂数据分布。短短几分钟的视频,揭示了模型容量、特征工程与直觉理解之间的深刻联系。
在这期Lex Fridman播客中,机器人学与强化学习专家Sergey Levine系统阐述了他对通用人工智能的判断:真正的智能必须扎根于与真实世界的交互。本文提炼他关于探索、世界模型和机器人学习的核心洞见。
很多人以为,大语言模型只是靠“统计词频”在蒙答案。但在这场OpenAI Scholars Demo Day的演讲里,一位刚入行5个月的研究者,直接把GPT-2拆开,追问一个刺痛行业的问题:语法,究竟藏在模型的哪一层?答案,比你想象得更反直觉。
大多数人以为“自然语言到数据库查询”只是把 NL 转成 SQL,但在 OpenAI Scholars Demo Day 上,有人直接跳过 SQL,把英语变成 GraphQL。更反直觉的是:难点不在模型,而在数据、验证和语言之间的“对齐”。这是一场关于语义解析边界的真实实验。
强化学习最怕什么?不是算力不够,也不是模型不深,而是奖励来得太晚。Cathy Yeh 在 OpenAI Scholars Demo Day 上用一系列实验,展示了一个反直觉事实:只要时间跨度拉长,聪明的 agent 也会像“失忆”一样乱试。这场分享的核心,是她如何用 Temporal Reward Transport(TRT)正面解决这个老大难问题。