Integration
Ollama Proxy
Ollama local LLM proxy plugin for OpenClaw
Install
npm install
```
README
# OpenClaw Ollama Proxy Plugin
一个为 OpenClaw 设计的 Ollama 本地大模型代理插件,支持断网环境使用,无需 API 密钥。
## 功能特性
- ✅ **本地大模型支持**:连接本地 Ollama 服务
- ✅ **断网可用**:完全本地运行,无需网络连接
- ✅ **无需 API 密钥**:本地模型,无需云服务认证
- ✅ **OpenAI 兼容格式**:标准 API 接口,兼容 OpenClaw
- ✅ **多模型支持**:支持 qwen3:4b、deepseek-r1:7b 等
- ✅ **稳定可靠**:容错设计,避免卡死和超时
## 支持的模型
1. **Qwen-Local-Proxy** (qwen3:4b)
2. **DeepSeek-Local-Proxy** (deepseek-r1:7b)
3. 其他 Ollama 支持的模型
## 快速开始
### 1. 安装依赖
```bash
npm install
```
### 2. 启动代理服务器
```bash
# 启动 Qwen 代理
node src/proxies/qwen-proxy.js
# 启动 DeepSeek 代理
node src/proxies/deepseek-proxy.js
```
### 3. 配置 OpenClaw
```bash
# 配置 Qwen 代理
openclaw config set models.local-qwen-proxy.url http://127.0.0.1:18890/v1
openclaw config set models.local-qwen-proxy.apiKey "not-needed"
openclaw config set models.local-qwen-proxy.type "openai"
# 配置 DeepSeek 代理
openclaw config set models.local-deepseek-proxy.url http://127.0.0.1:18891/v1
openclaw config set models.local-deepseek-proxy.apiKey "not-needed"
openclaw config set models.local-deepseek-proxy.type "openai"
```
## 项目结构
```
openclaw-ollama-proxy/
├── README.md # 项目说明
├── package.json # 项目配置
├── src/
│ ├── proxies/ # 代理服务器
│ │ ├── qwen-proxy.js
│ │ ├── deepseek-proxy.js
│ │ └── base-proxy.js
│ ├── utils/ # 工具函数
│ └── config/ # 配置文件
├── scripts/ # 启动脚本
├── examples/ # 使用示例
└── tests/ # 测试文件
```
## 使用示例
### 命令行测试
```bash
# 测试 Qwen 代理
curl -X POST http://127.0.0.1:18890/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{"model":"qwen3:4b","messages":[{"role":"user","content":"你好"}]}'
```
### OpenClaw 配置
在 OpenClaw 控制 UI 中:
1. 选择模型提供商:**Qwen-Local-Proxy** 或 **DeepSeek-Local-Proxy**
2. 选择对应模型
3. 开始对话
## 故障排除
### 常见问题
1. **代理无法启动**
- 检查 Ollama 服务是否运行:`ollama list`
- 检查端口是否被占用
2. **请求超时**
- 检查代理日志输出
- 确保 Ollama 模型已下载:`ollama pull qwen3:4b`
3. **OpenClaw 无法连接**
- 验证配置 URL:`http://127.0.0.1:18890/v1`
- 检查代理是否正在运行
## 开发指南
### 添加新模型代理
1. 在 `src/proxies/` 创建新的代理文件
2. 修改模型名称和端口
3. 更新 OpenClaw 配置
### 构建和发布
```bash
# 构建项目
npm run build
# 发布到 npm
npm publish
```
## 许可证
MIT License
## 贡献
欢迎提交 Issue 和 Pull Request!
## 致谢
- [OpenClaw](https://openclaw.ai) - 开源 AI 助手平台
- [Ollama](https://ollama.ai) - 本地大模型运行环境
- [Qwen](https://qwenlm.github.io) - 通义千问大模型
- [DeepSeek](https://deepseek.com) - 深度求索大模型
integration
Comments
Sign in to leave a comment