一次鼠标点击也有立场:Figma 这场演讲如何重塑“中立设计”的幻觉

AI PM 编辑部 · 2021年05月24日 · 2 阅读 · AI/人工智能

正在加载视频...

视频章节

大多数设计师都相信工具是中立的,但这场来自 Figma Config 的演讲直接掀翻了这个假设:你每一次移动光标、每一次下笔,其实都在放大或缓解不平等。更反直觉的是,减少不公平,并不是靠更复杂的流程,而是从设计师自身的选择开始。

一次鼠标点击也有立场:Figma 这场演讲如何重塑“中立设计”的幻觉

大多数设计师都相信工具是中立的,但这场来自 Figma Config 的演讲直接掀翻了这个假设:你每一次移动光标、每一次下笔,其实都在放大或缓解不平等。更反直觉的是,减少不公平,并不是靠更复杂的流程,而是从设计师自身的选择开始。

最刺耳的一句话:设计从来不是中立的

演讲一开始,Michelle Molitor 就抛出一个让人不太舒服的判断:当你在设计时选择“什么都不做”,你其实已经在站队了。她把“移动光标、拿起画笔”这样的微小动作,重新定义为价值观的表达。这个视角之所以震撼,是因为它击中了科技行业长期以来的一个迷思——只要工具足够理性、流程足够标准,结果就会公平。但现实恰恰相反:默认设置、典型用户画像、被优先考虑的使用场景,往往天然偏向资源最多、声音最大的那一群人。所谓中立,只是把既有不平等继续复制下去而已。

最容易被忽略的起点:不是用户,而是你自己

在具体方法上,这场演讲没有一上来就谈用户调研或框架,而是反常识地强调第一步——从设计师自身开始。你在做决策时,默认假设的“正常用户”是谁?你在评审设计时,哪些问题会被认为是“边缘情况”而被忽略?这些看似个人层面的偏好,累积起来会直接影响产品体验。演讲中的案例提醒大家:如果设计团队本身没有意识到自己的视角局限,再多的工具也只是在系统性放大偏差。这一点对 AI 从业者尤其刺耳,因为我们太习惯把问题交给模型,却很少回头审视训练数据和目标函数背后的价值判断。

把“最脆弱的人”放在中心,反而让系统更稳健

第二个关键工具,是刻意把注意力放在最容易被忽视、最容易受伤的用户身上。演讲并没有把这描述成道德口号,而是一个极其务实的策略:如果一个设计能在最苛刻、最不利的条件下成立,那么它在其他场景中往往表现得更好。这种思路与 AI 领域的鲁棒性设计高度相似——不是为平均值优化,而是为最坏情况兜底。演讲中反复强调,忽视这些人,往往会带来“最坏的情况”,而这些风险在系统上线后,代价最高、修复最难。

真正有效的工具,不是模板,而是参与方式

在谈到如何与用户合作时,演讲者刻意避开了“快速验证”“高效访谈”这些熟悉的词,而是强调参与方式本身。你是把用户当作被研究的对象,还是当作共同塑造方案的合作者?这种差别,会直接影响你收集到的信息质量,也会影响用户是否愿意投入真实的反馈。对于 AI 产品来说,这意味着不只是收集更多数据,而是重新思考:谁有资格定义问题,谁的声音被系统长期采纳。

总结

这场演讲真正留下的,不是一套可以直接照抄的流程,而是一种更难却更有价值的心态转变:不再把不平等当作“外部问题”,而是视为设计决策的直接结果。对 AI 从业者来说,最实际的行动建议只有三个:在每个关键设计节点,明确写下你默认服务的人是谁;在评估模型或产品效果时,主动查看最不利用户的体验;在与用户互动时,给他们真正影响决策的权力。下一次你移动光标之前,或许可以先问一句:这个选择,会让谁更轻松,又会让谁更困难?


关键词: 包容性设计, 设计伦理, AI公平性, 用户参与, 系统性偏差

事实核查备注: 需要核查:演讲者姓名(Michelle Molitor、Neby Teklu)的拼写;演讲举办时间与活动名称(Config 2021);视频中关于设计不具中立性的原始表述是否为直接引语或意译。