NASA用37天造出救命呼吸机:真正厉害的不是工程,而是“把思考画出来”
NASA JPL 不是医疗公司,却在疫情最紧急的时候,用37天做出一台能进医院的呼吸机。更反直觉的是,真正拉开差距的不是火箭工程,而是一种被严重低估的能力:设计师如何“让专家看清自己的思考”。
NASA JPL 不是医疗公司,却在疫情最紧急的时候,用37天做出一台能进医院的呼吸机。更反直觉的是,真正拉开差距的不是火箭工程,而是一种被严重低估的能力:设计师如何“让专家看清自己的思考”。
在 Figma Config 的这场分享中,Coda 产品设计师 Helena Jaramillo 讲了一件反直觉的事:真正决定一个从零到一产品命运的,不是功能创新,而是你是否有勇气放弃那些“看起来也不错”的方向。这篇文章拆解她如何一步步构建一个能落地、能说服团队、还能经得起时间考验的产品愿景。
很多人以为“空间软件”只是给游戏和元宇宙准备的噱头,但在这场 Figma Config 的演讲里,John Palmer 抛出了一个反直觉的判断:我们早就在用空间软件,只是没意识到。这不仅改变了我们理解界面的方式,也会重塑 AI 产品的设计逻辑。
如果你还觉得设计是“中立的工具”,那这场演讲可能会让你坐立不安。Linda Dounia Rebeiz 在 Figma Config 2021 直接指出:所谓不包容的设计,本质上是一种温和却持续的暴力。这篇文章把这场演讲拆给 AI 从业者看,告诉你为什么下一代产品竞争,早就不只在算法上。
你可能以为,协作的终点是效率和共识。但在这场 Figma Config 的演讲里,Nikolas Klein 抛出了一个让人不安却极其重要的观点:真正的创造力,来自“一起失败”。这不是鸡汤,而是一套可以直接迁移到 AI 团队的协作方法论。
在一场看似讲设计系统的分享里,Stripe 设计师抛出了一个对所有技术人都刺耳的观点:真正决定产品成败的,往往不是快,而是长期、克制和对细节近乎偏执的严苛。这场 Config 2021 的演讲,意外地给了 AI 从业者一套可迁移的思维模型。
CLIP这类对比学习模型,被认为是多模态时代的基石。但在一个看似“玩具”的SET纸牌游戏里,它却暴露出一个致命短板:当关系、属性和实体一多,向量维度不够,模型会系统性失明。这不是调参问题,而是容量上限。
OpenAI 学者 Jonathan Ward 做了一件反直觉的事:不用人工标注、不请外包标注员,而是直接拿互联网的“点赞”来训练奖励模型。结果很震撼——模型学会了人类偏好,但准确率卡在了 74%。这背后,藏着今天所有 RLHF 系统的真相与瓶颈。
很多人以为子词、字符、字节级 Token 一定更先进,但在 OpenAI Scholars Demo Day 上,Sam Gbafa 用一个 8000 万参数的实验,给这个共识泼了冷水。结果不但反直觉,还直接影响你今天怎么选 tokenizer、怎么配上下文窗口。
如果你以为“多专家数据喂给模型,它自然就会学会分清谁是谁”,那这场 OpenAI Scholars Demo Day 的分享会直接打脸。Tyna Eloundou 用一个看似优雅、实则极具野心的框架,展示了:我们不仅能让模型学到多种行为,还能在需要时精准切换它们。