模型与授权
约 1949 字大约 7 分钟
2026-03-02
模型架构
OpenClaw 采用模型无关架构,支持云端与本地模型。你可以自由选择 Claude、DeepSeek、OpenAI GPT 系列,或在本地运行的模型,甚至可以配置多个模型并自动回退。
模型无关的优势
- 灵活切换:随时更换模型供应商,无需修改代码
- 自动回退:主模型不可用时自动切换到备用模型
- 成本优化:根据任务复杂度选择合适的模型
- 性能提升:随模型迭代自动获得能力提升
支持的模型
国内模型(无需翻墙)
MiniMax
特点:
- 中文支持优秀
- 响应速度快
- 性价比高
- 适合日常对话和任务处理
配置:
openclaw models add
# 选择 MiniMax M2.5(CN)
# 输入 API Key获取 API Key:访问 MiniMax 开放平台
定价:约 ¥0.015/1K tokens
Kimi(月之暗面)
特点:
- 超长上下文(200K tokens)
- 中文理解能力强
- 适合文档分析和长文本处理
- 检索增强能力出色
配置:
openclaw models add
# 选择 Kimi
# 输入 API Key获取 API Key:访问 月之暗面开放平台
定价:约 ¥0.012/1K tokens
DeepSeek
特点:
- 推理能力强
- 代码能力出色
- 数学和逻辑推理优秀
- 性价比极高
配置:
openclaw models add
# 选择 DeepSeek
# 输入 API Key获取 API Key:访问 DeepSeek 开放平台
定价:约 ¥0.001/1K tokens(非常便宜)
智谱 GLM
特点:
- 清华大学出品
- 中文能力强
- 多模态支持
- 企业级服务
配置:
openclaw models add
# 选择 GLM
# 输入 API Key获取 API Key:访问 智谱 AI 开放平台
国际模型(需要国际网络)
Claude(Anthropic)
特点:
- 长上下文处理能力最强(200K tokens)
- 防注入能力出色
- 代码理解和生成能力强
- 安全性高
推荐版本:
- Claude Opus 4.6:最强能力,适合复杂任务
- Claude Sonnet 3.5:平衡性能和成本
- Claude Haiku:快速响应,适合简单任务
配置:
openclaw models add
# 选择 Claude
# 选择版本(Opus/Sonnet/Haiku)
# 输入 API Key获取 API Key:访问 Anthropic Console
定价:
- Opus: $15/1M input tokens, $75/1M output tokens
- Sonnet: $3/1M input tokens, $15/1M output tokens
- Haiku: $0.25/1M input tokens, $1.25/1M output tokens
OpenAI GPT
特点:
- 生态成熟
- 工具调用能力强
- 多模态支持
- 社区资源丰富
推荐版本:
- GPT-4 Turbo:综合能力强
- GPT-4o:多模态能力
- GPT-3.5 Turbo:性价比高
配置:
openclaw models add
# 选择 OpenAI
# 选择版本
# 输入 API Key获取 API Key:访问 OpenAI Platform
Google Gemini
特点:
- 多模态能力强
- 与 Google 生态集成
- 长上下文支持
- 免费额度较高
推荐版本:
- Gemini 1.5 Pro:综合能力强
- Gemini 1.5 Flash:快速响应
配置:
openclaw models add
# 选择 Gemini
# 选择版本
# 输入 API Key获取 API Key:访问 Google AI Studio
本地模型
Ollama
特点:
- 完全离线运行
- 隐私保护最好
- 无 API 调用成本
- 支持多种开源模型
推荐模型:
- Llama 3:Meta 出品,综合能力强
- Mistral:欧洲开源模型,性能优秀
- Qwen:阿里出品,中文能力强
- CodeLlama:专注代码任务
安装 Ollama:
# macOS/Linux
curl -fsSL https://ollama.com/install.sh | sh
# Windows
# 从 https://ollama.com/download 下载安装包下载模型:
# 下载 Llama 3
ollama pull llama3
# 下载 Mistral
ollama pull mistral
# 下载 Qwen
ollama pull qwen配置 OpenClaw:
openclaw models add
# 选择 Ollama
# 输入模型名称(如 llama3)
# 输入 Ollama 服务地址(默认 http://localhost:11434)模型管理
查看已配置的模型
# 列出所有模型
openclaw models list
# 详细信息
openclaw models list --verbose输出示例:
Models:
✓ minimax (default)
- Provider: MiniMax
- Model: abab6.5-chat
- Status: Active
✓ kimi
- Provider: Moonshot
- Model: moonshot-v1-128k
- Status: Active
✓ deepseek
- Provider: DeepSeek
- Model: deepseek-chat
- Status: Active添加新模型
openclaw models add按照交互式向导完成配置。
删除模型
openclaw models remove <model-name>设置默认模型
openclaw models set-default <model-name>测试模型
# 测试模型连接
openclaw models test <model-name>
# 测试对话
openclaw models chat <model-name> --message "你好"模型配置
基础配置
{
"models": {
"minimax": {
"provider": "minimax",
"apiKey": "${MINIMAX_API_KEY}",
"model": "abab6.5-chat",
"maxTokens": 4096,
"temperature": 0.7
}
}
}高级配置
{
"models": {
"claude": {
"provider": "anthropic",
"apiKey": "${ANTHROPIC_API_KEY}",
"model": "claude-opus-4.6",
"maxTokens": 8192,
"temperature": 0.7,
"topP": 0.9,
"presencePenalty": 0.0,
"frequencyPenalty": 0.0,
"timeout": 60000,
"retries": 3
}
}
}参数说明
| 参数 | 说明 | 默认值 | 范围 |
|---|---|---|---|
maxTokens | 最大生成 tokens 数 | 4096 | 1-200000 |
temperature | 随机性控制 | 0.7 | 0.0-2.0 |
topP | 核采样参数 | 0.9 | 0.0-1.0 |
presencePenalty | 存在惩罚 | 0.0 | -2.0-2.0 |
frequencyPenalty | 频率惩罚 | 0.0 | -2.0-2.0 |
timeout | 请求超时(毫秒) | 60000 | - |
retries | 重试次数 | 3 | 0-10 |
多模型策略
自动回退
配置主模型和备用模型:
{
"models": {
"primary": "claude",
"fallback": ["minimax", "deepseek"],
"fallbackStrategy": "sequential"
}
}回退策略:
- sequential:按顺序尝试
- random:随机选择
- load-balanced:负载均衡
按任务选择模型
{
"modelSelection": {
"rules": [
{
"match": {
"keywords": ["code", "代码", "编程"]
},
"model": "deepseek"
},
{
"match": {
"keywords": ["文档", "分析", "总结"]
},
"model": "kimi"
},
{
"match": {
"complexity": "high"
},
"model": "claude"
}
],
"default": "minimax"
}
}成本优化
根据任务复杂度自动选择模型:
{
"costOptimization": {
"enabled": true,
"rules": [
{
"condition": "tokens < 1000",
"model": "deepseek"
},
{
"condition": "tokens < 10000",
"model": "minimax"
},
{
"condition": "tokens >= 10000",
"model": "kimi"
}
]
}
}授权管理
API Key 管理
使用环境变量
# 设置环境变量
export MINIMAX_API_KEY="your-api-key"
export ANTHROPIC_API_KEY="your-api-key"
export OPENAI_API_KEY="your-api-key"使用配置文件
{
"models": {
"minimax": {
"apiKey": "${MINIMAX_API_KEY}"
}
}
}加密存储
# 加密存储 API Key
openclaw secrets set MINIMAX_API_KEY
# 查看已存储的密钥
openclaw secrets list
# 删除密钥
openclaw secrets remove MINIMAX_API_KEYOAuth 授权
某些模型支持 OAuth 授权:
# 启动 OAuth 流程
openclaw models auth <model-name>
# 浏览器会自动打开授权页面
# 完成授权后自动返回API Key 轮换
定期轮换 API Key 提高安全性:
# 更新 API Key
openclaw models update-key <model-name>
# 验证新 Key
openclaw models test <model-name>模型选择建议
按场景选择
日常对话和任务处理
推荐:MiniMax 或 Kimi
- 国内可用,响应快
- 中文支持好
- 性价比高
代码相关任务
推荐:DeepSeek 或 Claude Sonnet
- 代码理解能力强
- 推理能力出色
- 支持多种编程语言
长文本处理
推荐:Kimi 或 Claude Opus
- 超长上下文支持
- 文档分析能力强
- 信息提取准确
复杂推理任务
推荐:Claude Opus 或 GPT-4 Turbo
- 推理能力最强
- 处理复杂问题
- 多步骤任务规划
隐私敏感场景
推荐:Ollama(本地模型)
- 完全离线运行
- 数据不出本地
- 无隐私泄露风险
按预算选择
低预算(< ¥100/月)
- DeepSeek:性价比之王
- MiniMax:国内优选
- Ollama:完全免费
中预算(¥100-500/月)
- Kimi:长文本处理
- Claude Sonnet:综合能力
- GPT-3.5 Turbo:经典选择
高预算(> ¥500/月)
- Claude Opus:最强能力
- GPT-4 Turbo:全面支持
- 多模型组合:按需选择
性能优化
缓存策略
{
"cache": {
"enabled": true,
"ttl": 3600,
"maxSize": 1000
}
}并发控制
{
"concurrency": {
"maxConcurrent": 5,
"queueSize": 100
}
}超时设置
{
"timeout": {
"connection": 10000,
"request": 60000,
"idle": 30000
}
}监控与分析
查看使用统计
# 查看模型使用统计
openclaw models stats
# 按时间范围查看
openclaw models stats --since "2026-03-01" --until "2026-03-31"
# 按模型查看
openclaw models stats --model minimax成本分析
# 查看成本统计
openclaw models cost
# 导出成本报告
openclaw models cost --export cost-report.csv性能分析
# 查看响应时间
openclaw models latency
# 查看错误率
openclaw models errors故障排查
模型无法连接
# 测试网络连接
openclaw models ping <model-name>
# 验证 API Key
openclaw models validate <model-name>
# 查看详细错误
openclaw logs --model <model-name> --level errorAPI 配额超限
# 查看配额使用情况
openclaw models quota <model-name>
# 切换到备用模型
openclaw models set-default <backup-model>响应超时
# 增加超时时间
openclaw models config <model-name> --timeout 120000
# 启用重试
openclaw models config <model-name> --retries 5