把算力用在放大人类思考:一套以人为中心的AI交互范式
这篇文章提炼了Tusk创始工程师Jun Yu Tan关于“增强型AI界面”的核心思想:与其让人适应并监督自动化系统,不如用AI去放大人的判断、创造力与学习曲线。文章系统梳理了三种关键交互模式与背后的设计原则。
这篇文章提炼了Tusk创始工程师Jun Yu Tan关于“增强型AI界面”的核心思想:与其让人适应并监督自动化系统,不如用AI去放大人的判断、创造力与学习曲线。文章系统梳理了三种关键交互模式与背后的设计原则。
这篇文章深入解读Vectara推出的开源项目 open-rag-eval,解释它为何要在没有“golden answers”的情况下评测RAG系统,以及背后的研究方法、关键指标和实际使用体验,帮助RAG开发者真正理解并优化自己的检索增强生成流水线。
在这场来自NVIDIA的分享中,Sylendran Arunagiri提出了一个反直觉但极具实操性的观点:高效、可扩展的AI Agent并不依赖更大的大语言模型,而依赖持续运转的数据飞轮。通过NVIDIA内部NV Info Agent的真实案例,他展示了如何用不到千条高质量数据,让1B、8B小模型逼近70B模型效果。
这支演讲并不是吐槽ChatGPT功能不够强,而是直指一个更少被讨论的问题:设计。演讲者通过真实演示,指出ChatGPT在语音与文本、多模型协作上的割裂体验,并展示如何用现成API重构一个“更像人类交流”的AI界面。
Kent C. Dodds 在这场演讲中抛出一个关键判断:AI 交互正在成为主流入口,但真正限制 AI 助手能力的不是模型,而是“无法动手”。他以 Jarvis 为隐喻,系统讲解了 Model Context Protocol(MCP)如何通过标准化集成,让 AI 首次具备真正操作应用和服务的能力。
一次看似不可能的任务:两周内分析一万通销售电话。Charlie Guo 通过大语言模型、工程化系统设计和成本控制,把原本需要两年的人力工作,变成单人可完成的AI项目。这篇文章还原了其中最关键的技术决策、踩过的坑,以及对企业数据价值的深刻启示。
这是一场关于非洲、技术与个人命运的演讲。Thabang Ledwaba用自己的成长经历说明:真正限制创新的不是资源匮乏,而是思维方式。通过AI这一工具,非洲并非追赶者,而可能成为定义新路径的参与者。
这场演讲并未停留在“AI很强大”的表层,而是通过真实诈骗故事,拆解信任在AI时代如何被瓦解,并给出一种分层、实时、可解释的防御思路。即使你没看过视频,也能理解Cognitive Shield试图解决的核心问题。
Andrew Thompson 结合自己在 AI Agent 一线交付产品的经验,提出了“Prompt Tax”这一概念:为了快速站上模型能力前沿,团队必须提前透支复杂性和风险。本文还原他在演讲中的核心洞见、真实案例与方法论,帮助工程团队理解如何在速度与稳定性之间做出理性的工程选择。
这是一篇关于“为什么、以及什么时候该把AI留在厨房自己做”的实战文章。Jan Siml 用一个真实的内部项目,讲清楚了为何社交媒体推崇的复杂AI方案,往往会在企业内部失灵,以及他们如何用极简的系统、真实的业务指标,做出数百万美元ARR。