Langfuse
开源 LLM 应用观测、评测与 Prompt 管理平台。
面向 AI 应用和 Agent 的 LLMOps 平台,用来追踪调用链、分析成本和延迟、管理 Prompt 版本,并建立评测闭环。
- License
- MIT core, EE features separate
- Language
- TypeScript
- Hosting
- 可自托管
Open Source
持续拆解主流 AI 开源项目,关注它们解决什么问题、适合什么场景、怎么开始落地,以及采用前需要知道的限制。
开源 LLM 应用观测、评测与 Prompt 管理平台。
面向 AI 应用和 Agent 的 LLMOps 平台,用来追踪调用链、分析成本和延迟、管理 Prompt 版本,并建立评测闭环。
面向 Agentic workflow 的 AI 应用构建平台。
提供可视化工作流、RAG、Agent、模型管理和应用发布能力,适合从原型走向内部工具或业务应用。
面向 Ollama 和多模型后端的自托管 AI Web 平台。
提供私有化聊天界面、模型接入、RAG、工具和用户管理能力,常用于本地模型、团队内部模型入口和私有 AI 门户。
用于构建有状态、长期运行 Agent 的图编排框架。
以图和状态机组织复杂 Agent 工作流,支持持久执行、human-in-the-loop、记忆和复杂分支控制。
一站式 AI Agent 可视化低代码开发平台。
提供智能体、工作流、知识库、插件、数据库和模型服务管理能力,适合构建可视化 Agent 应用开发环境。
LangChain 生态下用于构建深度任务 Agent 的框架。
围绕规划、子 Agent、工具和长任务执行组织 Agent 能力,适合需要比简单 ReAct 更强任务分解的开发者。
把 sub-agents、memory、sandbox 和 skills 组合起来的 super agent harness。
支持任务拆解、子 Agent 并行、工具调用、沙箱执行和技能加载,适合研究复杂 Agent 工作流和多智能体协作。
面向 Spring 生态的 AI 应用开发抽象与集成框架。
提供模型、Embedding、Vector Store、Tool Calling、RAG、评测和可观测性等 Spring-friendly API,适合 Java 企业应用接入 AI。
面向 Java/Spring 的 Agentic、Workflow 和多智能体应用框架。
在 Spring AI 生态上扩展 Agent Framework、Graph runtime、A2A、MCP、DashScope 和可视化开发能力,适合 Java 团队构建企业 Agent 应用。
provider 无关的开源 AI coding agent。
提供终端、桌面和 client/server 形态的编码 Agent,强调 TUI 体验、模型供应商无关和本地开发工作流。
把 Gemini 模型能力带到终端的开源 AI Agent CLI。
支持代码理解、生成、调试、Google Search grounding、文件与 shell 工具、MCP 扩展和非交互自动化。
OpenAI 开源的终端编码 Agent。
提供本地终端里的代码阅读、编辑、命令执行和自动化开发能力,适合把 OpenAI 模型接入工程工作流。
云原生 API Gateway,正在扩展 AI Gateway 与 MCP 网关能力。
基于 Envoy/Istio 生态提供网关、流量治理和插件扩展能力,适合作为云原生系统和 AI 服务入口。
动态服务发现、配置管理和服务治理平台。
提供注册发现、配置、DNS、健康检查和服务治理能力,新版本生态也出现 MCP registry、A2A 等 AI 服务治理线索。
基于 OpenTelemetry 的开源可观测性平台。
把 traces、metrics、logs 和告警整合到一套自托管平台里,适合观察 AI 应用、网关和后端服务链路。
云原生可观测性的开放标准和工具生态。
提供 traces、metrics、logs 的统一采集标准、SDK、Collector 和文档生态,是 AI 应用可观测性的基础设施底座。
统一多模型供应商调用的 LLM gateway 和 SDK。
把 OpenAI、Anthropic、Azure、Gemini、Bedrock 等模型供应商统一到 OpenAI 兼容接口,并提供路由、限流和成本追踪能力。
本地运行和管理大语言模型的开发者入口。
通过本地服务和命令行简化模型下载、运行和调用,适合个人开发、离线实验和本地 AI 工具链。
连接私有数据和 LLM 应用的 RAG 与数据框架。
提供数据连接器、索引、检索、Agent 和工作流能力,常用于 RAG、知识库和数据增强型 AI 应用。
面向文档解析和知识库问答的 RAG 引擎。
聚焦文档理解、解析、检索和问答流程,适合需要把复杂文档转成可用上下文的 RAG 场景。
高吞吐 LLM 推理和服务引擎。
面向生产推理服务,提供高吞吐、内存优化和 OpenAI 兼容服务能力,适合模型服务和推理基础设施团队。
Featured Profiles
从项目定位、适用场景、自托管提醒和同类对比切入,持续整理主流 AI 开源项目的采用判断。
Langfuse 适合正在构建生产级 AI 应用、Agent、RAG 或多模型调用链的团队。它把 LLM 调用从黑盒变成可追踪、可评测、可复盘的工程系统。
查看解读Dify 适合需要快速把 LLM 原型推进到可发布应用的团队。它把模型接入、Prompt、工作流、RAG、Agent、发布和运营反馈放在同一个平台里。
查看解读Open WebUI 适合想把 Ollama、本地模型或 OpenAI-compatible 服务包装成团队可用 Web 入口的场景。它更像私有 AI 门户,而不是单纯聊天 Demo。
查看解读LangGraph 适合需要可控、可恢复、可插入人工审核的复杂 Agent 系统。它不是低代码平台,而是开发者用来构建 Agent runtime 的底层框架。
查看解读