v1.0 · Tauri + Rust + llama.cpp

像专家一样部署 AI Agent
不打开终端,不写配置文件

一键安装 Claude CodeOpenClawNanoBot 等 AI Agent · 一键在 OpenAI / Anthropic / Gemini / 本地大模型间切换 · 一键用 llama.cpp 部署 Qwen、DeepSeek 到本机。从此再也不用碰 JSON、TOML 和 .env。

Windows · macOS · Linux · MIT 开源 · 永久免费

立即下载 Star on GitHub

找不到合适的模型? 看看 今日免费模型 →

CORE CAPABILITIES

三个"一键",搞定整个 AI Agent 工作流

从安装到运行,从切换到部署,EchoBird 把每一个原本需要看十篇文档的步骤,压缩成了一次点击。

/ 01 — INSTALL

一键安装 所有主流 AI Agent

OpenClaw、Claude Code、NanoBot、PicoClaw、Hermes、ZeroClaw…… EchoBird 自动检测你机器上已安装的 Agent, 缺哪个,点一下就装好,不用再去翻 GitHub README 和 npm 命令。

  • 自动检测已安装环境,缺哪装哪
  • 内置启动器 — 不碰终端就能跑
  • 即插即用插件:丢一个 plugin.json 就能扩展新工具
App Manager — 一键切换 OpenClaw / Claude Code / NanoBot 的模型
/ 02 — SWITCH

一键切换 所有 Agent 的模型

Model Nexus 把 OpenAI、Anthropic、Gemini、DeepSeek、Ollama 和你的私有 endpoint 摆在同一个面板。 给任意 Agent 换模型 = 选一张卡,点一下应用。OpenAI 协议和 Anthropic 协议自由切换,零配置改动。

  • 双协议:OpenAI API + Anthropic API,按 Agent 单独指定
  • 永远告别手动改 JSON / TOML / .env
  • 任意自定义 endpoint,一秒接入
Model Nexus — OpenAI、Anthropic、Gemini、DeepSeek、Ollama 在一个面板
/ 03 — DEPLOY

一键部署 本地大模型

内置 llama.cpp、vLLM、SGLang。Qwen、DeepSeek、Llama、MiniMax、GLM 一键拉起本地服务, 自动暴露 OpenAI (/v1) 与 Anthropic (/anthropic) 端点,任何 Agent 都能直连。数据完全留在你的设备上。

  • 自动检测 NVIDIA GPU,推荐最优参数
  • 双协议代理:OpenAI + Anthropic 双端点同时可用
  • GGUF / HuggingFace 任意模型即拉即跑
Local Server — 本地部署 Qwen / Llama / DeepSeek
SUPPORTED AGENTS

原生支持你已经在用的工具

12+ 主流 Agent 与编程助手,大部分都是一键安装。

OpenClaw
OpenAI / Anthropic
1-CLICK
Claude Code
Anthropic
1-CLICK
OpenCode
OpenAI
1-CLICK
ZeroClaw
OpenAI
1-CLICK
NanoBot
OpenAI / Anthropic
1-CLICK
PicoClaw
OpenAI / Anthropic
1-CLICK
Hermes Agent
OpenAI / Anthropic
1-CLICK
Codex
OpenAI
1-CLICK
Cline
OpenAI
CONFIG
Roo Code
OpenAI
CONFIG
Continue
OpenAI
CONFIG
Aider
OpenAI / Anthropic
CONFIG
MODEL PROVIDERS

连接所有主流模型,统一在 Model Nexus

Anthropic、OpenAI、Google、DeepSeek、Ollama、xAI…… 任何 OpenAI 兼容的 endpoint 都能接入。

Anthropic Claude OpenAI GPT Google Gemini DeepSeek Qwen xAI Grok Mistral MiniMax GLM Ollama OpenRouter Together AI SiliconFlow 任意自定义 endpoint
llama.cpp
最轻量、最通用 — GGUF 格式直接拉起,任何笔记本都能跑。
Windows · macOS · Linux
vLLM
高吞吐推理,适合工作站级 GPU 部署生产规模的开源模型。
Linux + CUDA
SGLang
为 Agent / 结构化输出 / 多轮调用做了深度优化的运行时。
Linux + CUDA

现在就下载,五分钟跑起你的第一个 Agent

免费 · 开源 · MIT 协议 · 无需注册 · 不上传任何数据到云端