← Back to Plugins
Integration

Ollama Proxy

silver-wen By silver-wen 👁 15 views ▲ 0 votes

Ollama local LLM proxy plugin for OpenClaw

GitHub

Install

npm install
```

README

# OpenClaw Ollama Proxy Plugin

一个为 OpenClaw 设计的 Ollama 本地大模型代理插件,支持断网环境使用,无需 API 密钥。

## 功能特性

- ✅ **本地大模型支持**:连接本地 Ollama 服务
- ✅ **断网可用**:完全本地运行,无需网络连接
- ✅ **无需 API 密钥**:本地模型,无需云服务认证
- ✅ **OpenAI 兼容格式**:标准 API 接口,兼容 OpenClaw
- ✅ **多模型支持**:支持 qwen3:4b、deepseek-r1:7b 等
- ✅ **稳定可靠**:容错设计,避免卡死和超时

## 支持的模型

1. **Qwen-Local-Proxy** (qwen3:4b)
2. **DeepSeek-Local-Proxy** (deepseek-r1:7b)
3. 其他 Ollama 支持的模型

## 快速开始

### 1. 安装依赖
```bash
npm install
```

### 2. 启动代理服务器
```bash
# 启动 Qwen 代理
node src/proxies/qwen-proxy.js

# 启动 DeepSeek 代理  
node src/proxies/deepseek-proxy.js
```

### 3. 配置 OpenClaw
```bash
# 配置 Qwen 代理
openclaw config set models.local-qwen-proxy.url http://127.0.0.1:18890/v1
openclaw config set models.local-qwen-proxy.apiKey "not-needed"
openclaw config set models.local-qwen-proxy.type "openai"

# 配置 DeepSeek 代理
openclaw config set models.local-deepseek-proxy.url http://127.0.0.1:18891/v1
openclaw config set models.local-deepseek-proxy.apiKey "not-needed"
openclaw config set models.local-deepseek-proxy.type "openai"
```

## 项目结构

```
openclaw-ollama-proxy/
├── README.md          # 项目说明
├── package.json       # 项目配置
├── src/
│   ├── proxies/       # 代理服务器
│   │   ├── qwen-proxy.js
│   │   ├── deepseek-proxy.js
│   │   └── base-proxy.js
│   ├── utils/         # 工具函数
│   └── config/        # 配置文件
├── scripts/           # 启动脚本
├── examples/          # 使用示例
└── tests/             # 测试文件
```

## 使用示例

### 命令行测试
```bash
# 测试 Qwen 代理
curl -X POST http://127.0.0.1:18890/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{"model":"qwen3:4b","messages":[{"role":"user","content":"你好"}]}'
```

### OpenClaw 配置
在 OpenClaw 控制 UI 中:
1. 选择模型提供商:**Qwen-Local-Proxy** 或 **DeepSeek-Local-Proxy**
2. 选择对应模型
3. 开始对话

## 故障排除

### 常见问题

1. **代理无法启动**
   - 检查 Ollama 服务是否运行:`ollama list`
   - 检查端口是否被占用

2. **请求超时**
   - 检查代理日志输出
   - 确保 Ollama 模型已下载:`ollama pull qwen3:4b`

3. **OpenClaw 无法连接**
   - 验证配置 URL:`http://127.0.0.1:18890/v1`
   - 检查代理是否正在运行

## 开发指南

### 添加新模型代理
1. 在 `src/proxies/` 创建新的代理文件
2. 修改模型名称和端口
3. 更新 OpenClaw 配置

### 构建和发布
```bash
# 构建项目
npm run build

# 发布到 npm
npm publish
```

## 许可证

MIT License

## 贡献

欢迎提交 Issue 和 Pull Request!

## 致谢

- [OpenClaw](https://openclaw.ai) - 开源 AI 助手平台
- [Ollama](https://ollama.ai) - 本地大模型运行环境
- [Qwen](https://qwenlm.github.io) - 通义千问大模型
- [DeepSeek](https://deepseek.com) - 深度求索大模型
integration

Comments

Sign in to leave a comment

Loading comments...