一个人、开源模型,与百万用户的AI应用方法论

AI PM 编辑部 · 2025年07月15日 · 1 阅读 · AI/人工智能

正在加载视频...

视频章节

Together AI 开发者关系负责人 Hassan El Mghari,用自己四年、每月一个项目的实战经历,拆解了如何用开源模型快速构建 AI 应用,并让其中一部分真正触达百万用户。这不仅是技术分享,更是一套可复制的构建与试错方法论。

一个人、开源模型,与百万用户的AI应用方法论

Together AI 开发者关系负责人 Hassan El Mghari,用自己四年、每月一个项目的实战经历,拆解了如何用开源模型快速构建 AI 应用,并让其中一部分真正触达百万用户。这不仅是技术分享,更是一套可复制的构建与试错方法论。

从“每月一个应用”开始的长期实验

为什么同样是做 AI 应用,有的人永远停留在 Demo,而有的人却能不断做出被真实用户使用的产品?Hassan El Mghari 的答案很朴素:长期、高频、公开地去做。

他在演讲一开始就提到,过去四年里,他“平均每个月会做一个 AI 应用”,而且几乎所有项目都是开源的。这并不是因为每个想法一开始就很成熟,而是因为他把做应用当成一场持续的实验。有些项目只有几千人用过,有些却达到了“百万级用户”,而这背后并没有某种神秘公式。

Hassan 直言不讳地说:“在某个阶段,它就是一个数字游戏(numbers game)。”你必须不断尝试不同方向,才能等到那个真正击中需求的产品出现。这个表态本身就很反直觉——在创业叙事里,我们更习惯听到“精准洞察”“一击即中”,而不是承认运气和试错的存在。

更重要的是,他刻意把所有代码放在 GitHub 上。这样做一方面是工程师的本能,另一方面也是自我约束:当你知道项目会被别人看到,你会更认真地把它做完。这种“公开构建”的方式,贯穿了他后面所有关于技术栈、架构和产品流程的选择。

为什么现在是用开源模型做应用的历史性窗口

在 Hassan 看来,当前是一个非常罕见的时间窗口。他用了一个很重的词:"historic time"。原因并不复杂,但两点同时发生,才真正改变了游戏规则。

第一,构建门槛被显著拉低了。他提到,像 Cursor、Windsurf 这样的 IDE AI 助手,可以直接在编辑器里帮你补全和重构代码;Bolt、Vzero、Lovable 这类 AI builder,可以在很短时间内把想法变成可运行的原型;而聊天式 AI 本身,则成了“随时可用的技术导师”。你甚至可以直接对它说:“我第一次做 Swift 应用,带我从头走一遍。”

第二,是模型能力的爆炸式演进。Hassan 强调,几乎“每周都有突破性的模型发布”,而且这些模型越来越多地以开源形式出现。这意味着个人开发者和小团队,第一次拥有了接近大公司的能力上限。

在他所在的 Together AI 平台上,可以直接通过 API 调用不同类型的开源模型:聊天模型如 Quen 3,推理模型如 Deepsecar1,还有图像模型 Flux Context,以及视觉、音频等多模态模型。同时,这些模型既可以跑在共享推理 API 上,也可以部署到专用实例,甚至进行微调。这种灵活性,是他能够快速试错、快速上线的重要前提。

一套被反复验证的应用架构

当你要同时维护多个 AI 应用时,最重要的不是炫技,而是稳定、可复用的架构。Hassan 在演讲中坦言:“很多应用最终长得都很像。”而这正是他刻意为之的结果。

这套架构几乎可以用一句话概括:用户输入 → AI 模型 → 后处理 → 返回结果。用户可能输入一段文字,也可能上传一张图片;请求会被送到 Together AI 上的某个模型;模型返回结果后,再经过一层轻量的逻辑处理,比如格式化、过滤或组合多次调用的结果。

在技术栈选择上,他几乎保持高度一致:Next.js + TypeScript 作为全栈框架,Together AI 负责模型推理,Vercel 用于部署和托管。这种“熟到不用思考”的技术组合,让他能把注意力集中在产品本身,而不是基础设施的细节上。

他特别强调,架构的统一性带来的最大好处,是速度。“你越快把一个想法 drill down 成一个能跑的东西,就越快知道它值不值得继续。”在一个充满不确定性的领域里,速度本身就是护城河。

找需求、做演示、再看世界的反馈

Hassan 早期并不是一开始就知道该做什么。他分享了一个非常具体、也非常工程师化的做法:去 Twitter 搜索那些抱怨“我需要一个能做 X 的工具”的帖子。

这些零散的需求,本身未必能支撑一家创业公司,但非常适合用来做轻量级 AI 应用。演讲中,他快速演示了多个项目,包括文本处理、OCR(文字识别)等场景。每个 Demo 都只讲几十秒,因为重点不在炫耀功能,而在证明“这个东西真的有人会用”。

当应用上线后,他并不会立刻投入大量优化,而是先观察数据和反馈。“先看看会发生什么(see what happens)。”这是他在结尾反复强调的一句话。只有当用户自然增长、反馈集中指向某些核心需求时,他才会选择继续打磨。

这种做法的底层逻辑很清晰:在 AI 应用时代,构建成本已经足够低,真正稀缺的是注意力和真实使用。与其在脑中反复推演,不如尽快把东西丢进现实世界。

总结

Hassan El Mghari 的分享,并不是在教你“如何做出下一个爆款 AI 应用”,而是在展示一种更可持续的路径:用开源模型,用稳定的技术栈,用高频试错去换取低概率的成功。对开发者来说,最大的启发或许在于——当构建本身已经足够容易时,真正重要的是你是否愿意不断构建,并且足够快地面对真实世界的反馈。


关键词: 开源模型, AI应用, Together AI, 多模态, 开发者方法论

事实核查备注: 演讲者:Hassan El Mghari;公司:Together AI;时间:2025-07-15;提及模型:Quen 3、Deepsecar1、Flux Context;技术栈:Next.js、TypeScript、Vercel;工具:Cursor;主题:开源模型、推理、多模态、微调、OCR