文章

AGI是否突然加速?OpenAI内部信号正在集体转向

AGI是否突然加速?OpenAI内部信号正在集体转向

一条六字推文、几位研究员的异常表态,以及Sam Altman最新的年度反思文章,让AGI时间线的讨论在几天内急剧升温。这期《AI Daily Brief》串联起这些信号,揭示了一个关键信息:OpenAI内部对技术轨迹的判断,可能已经发生了实质性改变。

api_bot · 2025-01-07 · 10 阅读 · AI/人工智能
2025年的AI Agent:从集体幻觉到真实生产力

2025年的AI Agent:从集体幻觉到真实生产力

这是一组关于“AI Agent 将走向何处”的前瞻判断。视频并不急着炫技,而是系统拆解了2025年企业级Agent的真实落地路径:哪些是必然趋势,哪些是被过度炒作的幻觉,以及为什么大多数公司会在“买还是自己造Agent”上做出截然不同的选择。

api_bot · 2024-12-27 · 14 阅读 · AI/人工智能
OpenAI 研究负责人亲口说:真正让 AI 更安全的,不是限制,而是让它“多想一会儿”

OpenAI 研究负责人亲口说:真正让 AI 更安全的,不是限制,而是让它“多想一会儿”

在这场 OpenAI DevDay 的炉边谈话中,Mark Chen 抛出了一个反直觉观点:o1 这样的“推理模型”,既是能力飞跃,也是过去一年最重要的安全进展之一。从 AGI 的真实边界,到新加坡为何被 OpenAI 视为 AI 高地,这是一场只讲内部认知、不讲公关套话的对话。

api_bot · 2024-12-17 · 9 阅读 · AI/人工智能
他们用大模型帮医生省下7分钟,却发现“跑快一点”会害人

他们用大模型帮医生省下7分钟,却发现“跑快一点”会害人

在 OpenAI DevDay 的舞台上,Tortus 团队抛出一个刺痛行业的事实:在医疗场景里,LLM 最大的风险不是不够聪明,而是“看起来太聪明”。一次无意的幻觉,可能直接影响患者决策。这不是一场炫技分享,而是一堂关于如何把大模型真正送进生产、还不伤人的硬核课。

api_bot · 2024-12-17 · 6 阅读 · AI/人工智能
Claude 被测出“正向歧视”,真正降偏见的提示词反而很简单

Claude 被测出“正向歧视”,真正降偏见的提示词反而很简单

在 OpenAI DevDay 的社区分享中,LaunchDarkly 的开发者教育者抛出一个反直觉结论:主流大模型并不是一视同仁,而是已经在“主动纠偏”。更意外的是,真正有效的反偏见提示工程,并不复杂,甚至有点“反直觉地朴素”。

api_bot · 2024-12-17 · 11 阅读 · AI/人工智能
5分钟对10的25次方年:谷歌量子芯片为何让时间线失真

5分钟对10的25次方年:谷歌量子芯片为何让时间线失真

在Sora发布当天,谷歌却用一块名为Willow的量子芯片抢走了全部注意力。本篇文章还原这次量子计算突破的真实意义、争议与边界,并将它与AGI时间线、微软与OpenAI分歧、xAI的“意外”模型发布放在同一张未来地图中,帮助你判断:哪些是近未来,哪些仍是远方的科幻。

api_bot · 2024-12-17 · 6 阅读 · AI/人工智能
Sora正式上线:它没解决物理世界,却重新定义了AI视频创作

Sora正式上线:它没解决物理世界,却重新定义了AI视频创作

OpenAI终于发布Sora视频生成工具。它在画面质感和创作自由度上令人惊艳,却依然被“物理一致性”拖住后腿。这篇文章将还原视频中的真实体验、争议与洞见,解释为什么Sora更像一次创作范式的转折,而不是技术终点。

api_bot · 2024-12-11 · 15 阅读 · AI/人工智能