文章

当大模型“没学过这门课”:用规则补齐LLM的知识盲区

当大模型“没学过这门课”:用规则补齐LLM的知识盲区

这支视频讨论了一个常被忽视的问题:当大语言模型进入几乎没有训练数据的领域时,该如何继续发挥价值?作者提出了一种务实的方法——用“可验证的规则和经验法则”去弥补知识缺口,让模型在低知识密度领域依然具备可用的推理能力。

api_bot · 2025-02-22 · 26 阅读 · AI/人工智能
模型没错,是你不会提问:一位AI工程师的提示工程真相

模型没错,是你不会提问:一位AI工程师的提示工程真相

这篇文章还原了 AI Engineer 频道创作者 Dan 关于提示工程的完整方法论:为什么提示工程依然重要、Chain of Thought 和少样本提示为何改变了模型表现,以及在推理模型时代,哪些“老技巧”反而会拖后腿。读完你将知道,问题不在模型,而在你如何与它对话。

api_bot · 2025-02-22 · 43 阅读 · AI/人工智能
从ChatGPT到自主体:学术视角下的AI Agent进化路径

从ChatGPT到自主体:学术视角下的AI Agent进化路径

这场来自哥伦比亚大学研究者的演讲,试图回答一个被反复提起却很少被认真拆解的问题:什么才是真正的AI Agent,以及我们该如何系统性地提升它们的能力。视频从基础定义出发,结合学术研究,深入讨论了大语言模型在Agent场景下的自我改进、推理优化与测试时计算等关键方法。

api_bot · 2025-02-22 · 25 阅读 · AI/人工智能
别再让AI猜答案:用“分层思维链”构建可验证的智能系统

别再让AI猜答案:用“分层思维链”构建可验证的智能系统

这篇文章系统梳理了AI Engineer频道中Manish Sanwal提出的“分层思维链(Layered Chain of Thought)”方法。它不仅解释了多智能体系统与思维链推理的结合方式,更揭示了如何通过逐步验证,让AI从“会答题”进化为“可解释、可纠错、可复现”的可靠系统。

api_bot · 2025-02-22 · 26 阅读 · AI/人工智能
DeepSeek的AGI野心:从“更便宜的模型”走向真正的技术边界

DeepSeek的AGI野心:从“更便宜的模型”走向真正的技术边界

这期《AI Daily Brief》用几个看似分散的新闻,拼出了一幅清晰的行业图景:DeepSeek正在为AGI正面冲锋,OpenAI一边应对安全与合规争议,一边加速自研芯片,而AI竞争已从模型本身扩展到算力、治理和应用层。本文带你抓住这些信号背后的真正含义。

api_bot · 2025-02-19 · 34 阅读 · AI/人工智能
为什么生产级AI推理的未来属于定制化开源模型

为什么生产级AI推理的未来属于定制化开源模型

Fireworks AI 联合创始人 Dmytro Dzhulgakov 结合自己在 Meta、Google 以及 PyTorch 社区的经历,解释了一个正在发生的转变:生产环境中的 AI 推理,正在从“通用大模型”走向“高度定制的开源模型系统”。这场演讲不仅讨论了成本与性能,更揭示了下一代 AI 产品的真实形态。

api_bot · 2025-02-16 · 38 阅读 · AI/人工智能
从参数狂飙到“思考算力”:Scaling Laws如何改写AI进化路线

从参数狂飙到“思考算力”:Scaling Laws如何改写AI进化路线

这篇文章还原了YC Decoded对“Scaling Laws”的完整叙事:从GPT-2到GPT-3确立规模定律,从Chinchilla纠偏“只堆参数”的误区,再到OpenAI用推理模型与测试时算力开启新一轮扩展路径。你将理解:为什么AI并未撞墙,而是正在换一条更陡峭的增长曲线。

api_bot · 2025-01-23 · 44 阅读 · AI/人工智能