正在加载视频...
视频章节
这场来自 Instacart 搜索与机器学习团队的分享,讲述了他们如何在真实、高复杂度的杂货电商场景中引入大语言模型,解决传统搜索在冷启动、长尾查询和商品发现上的结构性难题,并在工程约束下找到可落地的平衡点。
Instacart如何用LLM重塑杂货搜索:从冷启动到发现式体验
这场来自 Instacart 搜索与机器学习团队的分享,讲述了他们如何在真实、高复杂度的杂货电商场景中引入大语言模型,解决传统搜索在冷启动、长尾查询和商品发现上的结构性难题,并在工程约束下找到可落地的平衡点。
为什么“搜索”是杂货电商的生命线
在演讲一开始,Vines 就强调了一个常被低估的事实:在杂货电商中,搜索不是“锦上添花”,而是“基础设施”。与内容电商或泛商品平台不同,用户来到 Instacart 往往“带着很长的购物清单”,一次性要找几十个商品,其中大多数还是重复购买的老商品。
这决定了搜索系统承担着双重角色。一方面,它必须足够快、足够准,让用户几乎不思考就能完成补货;另一方面,它又必须支持“新商品发现”,帮助用户尝试没买过的东西。演讲者直言:“search has a dual role”,既服务效率,也创造增量。
更现实的一层是商业闭环。新商品发现不仅对用户重要,也直接影响广告主的曝光,以及平台整体的客单价。搜索结果如果只是一味回放历史偏好,平台就会陷入增长瓶颈。这也是 Instacart 团队反复强调搜索质量的根本原因。
传统搜索的两大死结:过宽与过窄
Instacart 团队将搜索难题拆得非常直白:真正棘手的,主要是两类查询。第一类是“过于宽泛”的词,比如 snacks。这样的查询背后对应着成百上千个商品,但排序模型高度依赖历史点击和转化数据,如果某些商品从未被曝光,就永远学不到数据,形成经典的“冷启动”死循环。
第二类则是“极度具体”的长尾查询,比如“unsweetened plant-based yogurt”。这类需求非常明确,但出现频率极低,导致模型几乎没有足够的训练样本。演讲者坦言,即使团队在召回层做了大量工作,“while recall improves, precision is still a challenge”,尤其是在初筛阶段。
这两类问题本质上指向同一个矛盾:搜索系统过度依赖用户历史行为数据,而杂货这种高 SKU、强长尾的领域,恰恰最缺稳定、可复用的数据分布。
为什么早期方案失败,LLM才成为转折点
在引入 LLM 之前,Instacart 并非没有尝试其他建模思路。演讲中提到,他们在查询理解模块上做过多轮改进,但在真实线上环境中,总是撞上工程和效果的双重天花板:要么延迟显著上升,要么“we didn’t see the wins that we actually hoped for”。
真正的转折发生在团队开始系统性地尝试大语言模型。LLM 的价值不在于替代原有排序模型,而是“uplevel query understanding”——提升对用户意图的理解层级。相比基于规则或浅层语义的方案,LLM 能更好地理解组合属性、隐含约束和自然语言中的模糊表达。
尤其在长尾查询上,这种能力带来了明显变化。演讲者提到,LLM 方案在 tail queries 上的提升“actually pretty significant”,这是此前方法几乎无法触及的区域。这并不是参数规模的胜利,而是表示能力的代际差异。
从查询重写到发现式搜索的系统落地
除了查询理解,Instacart 还将 LLM 用在了查询重写(query rewrites)上。这个模块的目标很明确:当用户的原始查询无法直接命中商品时,系统是否能自动生成更“可检索”的表达。演讲中提到,这一模型显著减少了“previously saw empty results”的情况,对业务非常友好。
更进一步,团队开始探索如何在搜索结果页中展示更偏“发现式”的内容。Vines 在后半段分享了他们如何用 LLM 生成和筛选探索型模块,而不仅仅是线性商品列表。这种内容并非强推,而是在不打断主任务的前提下,给用户提供灵感。
所有这些能力最终都要回到一个现实问题:如何评分、如何服务、如何控制延迟。演讲多次强调工程约束的重要性,LLM 不是“即插即用”的魔法,而是必须嵌入现有检索和排序体系,才能真正影响转化和收入。
总结
Instacart 的这次分享最有价值之处,并不在于某个具体模型,而在于他们对问题边界的清醒认知:LLM 解决的是“理解不足”的问题,而不是替代整个搜索系统。在高复杂度、强约束的杂货电商场景中,这种务实的系统视角,或许比任何炫技式的模型创新都更值得借鉴。对所有在做 AI 搜索的人来说,这是一次非常真实的经验样本。
关键词: AI搜索, 大语言模型, 杂货电商, 查询理解, 搜索系统
事实核查备注: 公司:Instacart;团队:Search and Machine Learning team;技术:LLMs(大语言模型)、query understanding、query rewrites;问题类型:overly broad queries、very specific tail queries;原话引用包括“search has a dual role”“while recall improves, precision is still a challenge”“we didn’t see the wins that we actually hoped for”“pretty significant for our tail queries”。