LLMOps
Langfuse:开源 LLM 应用观测、评测与 Prompt 管理平台
Langfuse 适合正在构建生产级 AI 应用、Agent、RAG 或多模型调用链的团队。它把 LLM 调用从黑盒变成可追踪、可评测、可复盘的工程系统。
- License
- MIT core, EE features separate
- Language
- TypeScript
- Updated
- 2026-05-13
先给结论
如果你的 AI 应用已经有真实用户、真实成本和质量问题,Langfuse 值得尽早接入。它能记录每次模型调用、上下文、Prompt、工具步骤、成本、延迟和评测结果。
如果只是偶尔调用 API 做小实验,先用普通日志就够了,过早引入 LLMOps 平台会增加维护负担。
它解决的问题
LLM 应用的问题经常不在接口是否可用,而在 Prompt 改动、检索上下文、工具调用、模型输出质量、成本漂移和延迟波动。传统后端日志很难把这些因素串成一条可复盘的调用链。
Langfuse 的核心价值是把这些过程结构化记录下来,让团队能围绕 trace、generation、dataset 和 evaluation 做持续改进。
核心能力
重点能力包括 tracing 与 observability、成本和延迟分析、Prompt 管理、datasets、evaluations、playground 调试,以及面向常见 AI 框架和 SDK 的集成。
它更像 AI 应用的工程控制台,而不是单纯的日志查看器。
怎么开始
最短路径是创建 Langfuse Cloud 或自托管项目,生成 API credentials,然后通过 SDK 或框架集成把 trace 和 generation 上报到 Langfuse。
第一篇文章只写接入路径和判断标准,不展开完整生产部署教程,部署细节链接到官方文档。
自托管提醒
Langfuse 支持自托管,但生产环境不是只启动一个演示容器。团队需要考虑 Postgres、ClickHouse、队列、对象存储、备份、升级和访问控制。
如果团队没有明确合规或数据驻留要求,先用 Cloud 体验工作流通常更快;如果有私有化要求,再评估自托管投入。
同类对比
LangSmith 更适合 LangChain 重度用户和托管链路;Arize Phoenix 偏开源观测与评测工作流;Helicone 更偏模型调用观测和网关式使用追踪。
Langfuse 的优势在于开源、自托管、Prompt 管理和评测闭环组合得比较完整。