当书会“回应你”:他用AI把阅读变成一场对话式体验
这场演讲展示了一种全新的阅读范式:书不再只是静态文字,而是能听、能问、能理解上下文的互动体验。演讲者通过真实的个人困惑出发,讲述了如何用AI重构阅读,并分享了隐藏AI、强调人类审美的产品方法论。
这场演讲展示了一种全新的阅读范式:书不再只是静态文字,而是能听、能问、能理解上下文的互动体验。演讲者通过真实的个人困惑出发,讲述了如何用AI重构阅读,并分享了隐藏AI、强调人类审美的产品方法论。
这是一次来自Google DeepMind一线的内部复盘。Logan Kilpatrick用不到12分钟,讲清了Gemini过去一年真正的转折点:为什么2.5 Pro意义重大,DeepMind为何从“纯研究”转向“研究+交付”,以及他们眼中多模态、Agent和“无限上下文”的下一站。
ArtificialAnalysis 联合创始人 George Cameron 用真实基准数据揭示:AI 不只有“最强智能”这一条前沿。推理模型的高代价、开源权重的快速逼近、以及成本与速度的数量级差异,正在重塑我们构建 AI 应用的方式。
这场演讲不讲炫技,而是直指语音模型落地生产时最容易被忽视的瓶颈:延迟并不只在模型里,GPU也不是唯一答案。Philip Kiely 从架构、指标到客户端代码,拆解了如何让语音 AI 真正“听起来快、用得起、撑得住”。
这是一场来自OpenAI开发者体验团队的一线分享。Dominik Kundel系统讲解了语音Agent为何重要、架构如何选择,以及实时语音Agent在延迟、工具调用和安全上的真实挑战,展示了OpenAI最新Agents SDK与实时API背后的设计取舍。
这场由 Pipecat 与 Tavus 联合分享的演讲,罕见地从工程一线拆解了“实时对话视频 AI”为什么过去很糟、现在终于可行,以及真正的难点不在模型本身,而在编排与部署。读完你会理解,一个 600 毫秒响应的对话式视频系统,究竟是怎样被搭出来的。
这场来自 AI Engineer 的演讲,通过 Gemini Live API 与 Pipecat 的现场演示,系统拆解了“实时语音 AI 为什么难、难在哪里、又是如何被逐层解决的”。它不仅讲技术,更解释了为什么语音会成为下一代 AI 应用的默认入口。
这场对话罕见地从第一性原理出发,拆解了“语音AI为什么难以规模化”的核心原因。Cartesia联合创始人Arjun Desai与AWS的Rohit Talluri分享了他们在实时语音、低延迟推理和新模型架构上的关键判断,揭示了企业级语音AI真正的技术门槛。
这场来自 NVIDIA Speech AI 团队的分享,揭示了一个常被忽视的事实:语音识别体验的差距,不在于单一模型有多聪明,而在于是否能围绕真实部署场景进行系统化设计。从流式ASR到多说话人识别,从模型结构到部署形态,NVIDIA给出了他们“终结尴尬转写”的方法论。
Gregory Bruss提出了一种不同于AI通话机器人的思路:语音优先的AI叠加层。它不参与对话,而是悄然增强人类交流。本文还原其核心理念、真实演示与工程难题,解释为何“会说话的AI”真正的挑战不在模型,而在时机、注意力与人性化设计。