AnythingLLM: 您一直在寻找的全方位AI应用程序。
与您的文档聊天,使用AI代理,高度可配置,多用户,无需繁琐的设置。
👉 适用于桌面(Mac、Windows和Linux)的AnythingLLM!立即下载
这是一个全栈应用程序,可以将任何文档、资源(如网址链接、音频、视频)或内容片段转换为上下文,以便任何大语言模型(LLM)在聊天期间作为参考使用。此应用程序允许您选择使用哪个LLM或向量数据库,同时支持多用户管理并设置不同权限。
AnythingLLM是您一直在寻找的全方位AI应用程序。AnythingLLM包含了使用您喜爱的本地或云端LLM提供商构建私有ChatGPT所需的一切,毫无妥协。AnythingLLM高度可配置,但开箱即用,内置代理、多用户支持、向量数据库、文档摄取管道等功能。
AnythingLLM还支持多用户,您可以控制每个用户的访问权限和体验,同时不会影响实例的安全性、隐私性或您的知识产权。
- 🆕 完全兼容 MCP
- 🆕 无代码AI代理构建器
- 🖼️ 多用户实例支持和权限管理(支持封闭源和开源LLM!)
- 自定义人工智能代理
- 👤 多用户实例支持和权限管理 仅限Docker版本
- 🦾 工作区内的智能体(浏览网页、运行代码等)
- 💬 为您的网站定制的可嵌入聊天窗口
- 📖 支持多种文档类型(PDF、TXT、DOCX等)
- 带有拖放功能和清晰引用的简洁聊天界面。
- 100%云部署就绪。
- 兼容所有主流的闭源和开源大语言模型提供商。
- 内置节省成本和时间的机制,用于处理超大文档,优于任何其他聊天界面。
- 全套的开发人员API,用于自定义集成!
- 而且还有更多精彩功能……安装后亲自体验吧!
支持的LLM:
- 任何与llama.cpp兼容的开源模型
- OpenAI
- OpenAI (通用)
- Azure OpenAI
- AWS Bedrock
- Anthropic
- NVIDIA NIM (聊天模型)
- Google Gemini Pro
- Hugging Face (聊天模型)
- Ollama (聊天模型)
- LM Studio (所有模型)
- LocalAI (所有模型)
- Together AI (聊天模型)
- Fireworks AI (聊天模型)
- Perplexity (聊天模型)
- OpenRouter (聊天模型)
- DeepSeek (聊天模型)
- Mistral
- Groq
- Cohere
- KoboldCPP
- LiteLLM
- Text Generation Web UI
- Apipie
- xAI
- Z.AI (聊天模型)
- Novita AI (聊天模型)
- PPIO (聊天模型)
- CometAPI (聊天模型)
- Docker Model Runner
- PrivateModeAI (chat models)
- SambaNova Cloud (chat models)
- Lemonade by AMD
支持的嵌入模型:
支持的转录模型:
- AnythingLLM内置 (默认)
- OpenAI
TTS (文本转语音) 支持:
- 浏览器内置(默认)
- PiperTTSLocal - 在浏览器中运行
- OpenAI TTS
- ElevenLabs
- 任何与 OpenAI 兼容的 TTS 服务
STT (语音转文本) 支持:
- 浏览器内置(默认)
支持的向量数据库:
这个单库由六个主要部分组成:
frontend: 一个 viteJS + React 前端,您可以运行它来轻松创建和管理LLM可以使用的所有内容。server: 一个 NodeJS express 服务器,用于处理所有交互并进行所有向量数据库管理和 LLM 交互。collector: NodeJS express 服务器,用于从UI处理和解析文档。docker: Docker 指令和构建过程 + 从源代码构建的信息。embed: 用于生成和创建网页嵌入组件的子模块.browser-extension: 用于Chrome 浏览器扩展的子模块.
Mintplex Labs和社区维护了许多部署方法、脚本和模板,您可以使用它们在本地运行AnythingLLM。请参阅下面的表格,了解如何在您喜欢的环境上部署,或自动部署。
| Docker | AWS | GCP | Digital Ocean | Render.com |
|---|---|---|---|---|
![]() |
![]() |
| Railway | RepoCloud | Elestio |
|---|---|---|
![]() |
其他方案:不使用Docker配置AnythingLLM实例 →
yarn setup填充每个应用程序部分所需的.env文件(从仓库的根目录)。- 在开始下一步之前,先填写这些信息
server/.env.development,不然代码无法正常执行。
- 在开始下一步之前,先填写这些信息
yarn dev:server在本地启动服务器(从仓库的根目录)。yarn dev:frontend在本地启动前端(从仓库的根目录)。yarn dev:collector然后运行文档收集器(从仓库的根目录)。
由 Mintplex Labs Inc 开发的 AnythingLLM 包含一个收集匿名使用信息的 Telemetry 功能。
有关 AnythingLLM 的远程信息收集与隐私保护更多信息
我们使用这些信息来帮助我们理解 AnythingLLM 的使用情况,帮助我们确定新功能和错误修复的优先级,并帮助我们提高 AnythingLLM 的性能和稳定性。
在服务器或 Docker 的 .env 设置中将 DISABLE_TELEMETRY 设置为 "true",即可选择不参与遥测数据收集。你也可以在应用内通过以下路径操作:侧边栏 > Privacy (隐私) > 关闭遥测功能。
我们只会跟踪有助于我们做出产品和路线图决策的使用细节,具体包括:
- 您的安装方式(Docker或桌面版)
- 文档被添加或移除的时间。但不包括文档内的具体内容。我们只关注添加或移除文档这个行为。这些信息能让我们了解到文档功能的使用情况。
- 使用中的向量数据库类型。让我们知道哪个向量数据库最受欢迎,并在后续更新中优先考虑相应的数据库。
- 使用中的LLM类型。让我们知道谁才是最受欢迎的LLM模型,并在后续更新中优先考虑相应模型。
- 信息被
发送出去。这是最常规的“事件/行为/event”,并让我们了解到所有安装了这个项目的每日活动情况。同样,只收集发送这个行为的信息,我们不会收集关于聊天本身的性质或内容的任何信息。
您可以通过查找所有调用Telemetry.sendTelemetry的位置来验证这些声明。此外,如果启用,这些事件也会被写入输出日志,因此您也可以看到发送了哪些具体数据。IP或其他识别信息不会被收集。Telemetry远程信息收集的方案来自PostHog - 一个开源的远程信息收集服务。
我们非常重视隐私,且不用烦人的弹窗问卷来获取反馈,希望你能理解为什么我们想要知道该工具的使用情况,这样我们才能打造真正值得使用的产品。所有匿名数据 绝不会 与任何第三方共享。
[在源代码中查看所有信息收集活动](https://github.com/search?q=repo%3AMintplex-Labs%2Fanything-llm%20.sendTelemetry(&type=code)
- 创建 issue
- 创建 PR,分支名称格式为
<issue number>-<short name> - 合并

































- VectorAdmin:一个用于管理向量数据库的全方位图形用户界面和工具套件。
- OpenAI Assistant Swarm:一个智能体就可以管理您所有的OpenAI助手。
版权所有 © 2026 Mintplex Labs。
本项目采用MIT许可证。





