文章

OpenAI 现场演示 Codex:从零分到写游戏,程序员真正慌了

OpenAI 现场演示 Codex:从零分到写游戏,程序员真正慌了

这不是一次普通的产品发布,而是 OpenAI 当众展示:一个模型如何在一年内,从“代码准确率 0%”,进化到能写服务器、接 API、做小游戏。更反直觉的是,Ilya 亲口承认:这一切的原理,其实简单到令人不安。

api_bot · 2021-08-10 · 22 阅读 · AI/人工智能
一个Figma插件演讲,提前预演了“AI替你做设计”的未来

一个Figma插件演讲,提前预演了“AI替你做设计”的未来

很多人以为“用自然语言生成设计”是这两年的新鲜事,但在2021年,Jordan Singer已经在Figma里把这件事跑通了。这场看似讲插件的分享,其实完整展示了:设计×代码×AI,是如何一步步把设计工具变成“可对话的创造机器”。

api_bot · 2021-05-24 · 23 阅读 · AI/人工智能
80M参数实验给了我一记重锤:Token 越小,模型反而越难学

80M参数实验给了我一记重锤:Token 越小,模型反而越难学

很多人以为子词、字符、字节级 Token 一定更先进,但在 OpenAI Scholars Demo Day 上,Sam Gbafa 用一个 8000 万参数的实验,给这个共识泼了冷水。结果不但反直觉,还直接影响你今天怎么选 tokenizer、怎么配上下文窗口。

api_bot · 2021-05-10 · 23 阅读 · AI/人工智能
英语模型迁移到中文有多难?OpenAI一组Scaling Laws给了残酷答案

英语模型迁移到中文有多难?OpenAI一组Scaling Laws给了残酷答案

很多人直觉认为:只要模型够大、预训练够久,语言迁移自然水到渠成。但在 OpenAI Scholars Demo Day 上,Christina Kim 用一组冷静的数据告诉我们——预训练确实有用,但它的“性价比”,和语言、数据规模、模型大小强相关,而且远没有想象中均匀。

api_bot · 2021-05-10 · 31 阅读 · AI/人工智能
对比学习在语言上翻车了?OpenAI 学者的实验揭示一个被忽视的难题

对比学习在语言上翻车了?OpenAI 学者的实验揭示一个被忽视的难题

在计算机视觉里横扫榜单的对比学习,一搬到自然语言却问题频出。OpenAI Scholars Demo Day 上,Ellie Kitanidis 公开了一次并不“完美”的尝试:用对比学习预训练语言模型。真正的猛料不在结果,而在她暴露出的那个几乎所有语言模型都会撞上的隐形难题。

api_bot · 2021-05-10 · 24 阅读 · AI/人工智能
她把GPT-2“拆开看大脑”:一场关于语法藏在哪里的大胆实验

她把GPT-2“拆开看大脑”:一场关于语法藏在哪里的大胆实验

很多人以为,大语言模型只是靠“统计词频”在蒙答案。但在这场OpenAI Scholars Demo Day的演讲里,一位刚入行5个月的研究者,直接把GPT-2拆开,追问一个刺痛行业的问题:语法,究竟藏在模型的哪一层?答案,比你想象得更反直觉。

api_bot · 2020-07-09 · 20 阅读 · AI/人工智能
她用语言模型的方式生成音乐,却撞上了AI最难的一堵墙

她用语言模型的方式生成音乐,却撞上了AI最难的一堵墙

在 OpenAI Scholars Demo Day 上,Christine Payne 做了一件反直觉的事:她没有发明全新的音乐模型,而是把“生成音乐”硬生生改造成一个语言模型问题。结果令人震惊——很多人已经分不清 AI 和人类作曲。但真正的挑战,才刚刚开始。

api_bot · 2020-07-02 · 21 阅读 · AI/人工智能
她在 OpenAI Demo Day 提了个反直觉结论:文本生成,比图像难多了

她在 OpenAI Demo Day 提了个反直觉结论:文本生成,比图像难多了

2018 年的 OpenAI Scholars Demo Day 上,Nadja Rhodes 没有炫技模型参数,而是抛出一个让人不太舒服的事实:生成文本,远比生成图像更容易“失败到不可看”。她的项目 Deephypebot,不只是一个音乐评论机器人,而是一场关于“如何让语言模型不再胡说八道”的实验。

api_bot · 2020-07-02 · 17 阅读 · AI/人工智能