模型与授权

掌握为 OpenClaw 配置与连通各大顶尖 AI 大语言模型的技巧与参数奥义

OpenClaw 采用模型无关(Model-Agnostic)的前沿架构设计,支持云端 SaaS API 与本地开源下沉模型并行混响。你可以自由挑选和分配 Claude、DeepSeek、OpenAI GPT 系列,或利用 Ollama 在本地低成本运转,甚至可以配置级联的多个模型阵列建立自动降级回退机制。

模型无关架构的压倒性优势

  • 随心所欲切换:随时调换和下线模型供应商,业务侧无需修改一行代码
  • 高可用自动回退:当主模型触发频控或完全宕机时,能够无缝自动切换到备用次级模型
  • 极致成本优化:将昂贵的大参数模型分发给推理难题,把廉价小模型用于日常闲聊
  • 零成本能力进化:随着各大大模型基座的版本迭代,你的 AI 助手会在睡梦中自动获得超强能力提升

🤖 支持验证的模型矩阵

国内版图模型(无需国际网络)

MiniMax (稀宇科技)

能力视界

  • 在中文原生语境下支持极其优秀,表现甚至带有国内特有的通人情味
  • API 端响应速度极快
  • API Token 价格极具性价比优势
  • 适合日常闲聊废话对齐与普通事务处理任务

CLI 快速配置

openclaw models add
# 选择 MiniMax M2.5(CN)
# 粘贴对应 API Key
  • 获取原生 API Key:前去 MiniMax 开放平台 注册获取
  • 现行定价参考:约 ¥0.015 / 1K tokens

Kimi (月之暗面 Moonshot)

能力视界

  • 目前行业第一战队水准的怪兽级超长上下文吸入(高达 200K Tokens)
  • 极其恐怖的中文原教旨文本理解能力
  • 适合投喂超长 API 英文文档、数万字财报分析和长文本总结处理
  • RAG(文件检索与网络搜索)增强能力表现出色

CLI 快速配置

openclaw models add
# 选择 Kimi
# 粘贴对应 API Key

DeepSeek (深度求索)

能力视界

  • 极其强悍的复杂逻辑与泛指推理能力
  • 代码生成与纠错能力惊为天人,是程序员的最佳挂件
  • 数学和纯逻辑推导赛道属于拔尖水准
  • 性价比极其离谱,便宜到令人发指

CLI 快速配置

openclaw models add
# 选择 DeepSeek
# 粘贴对应 API Key
  • 获取原生 API Key:前去 DeepSeek 开放平台 注册获取
  • 现行定价参考:约 ¥0.001 / 1K tokens (对,就是这么便宜!)

智谱 GLM

能力视界

  • 清华大学旗下团队出品的厚重底蕴产品
  • 中文底层解析能力极强
  • 支持附带多模态处理能力
  • 提供高昂但稳定的企业级私有化端点服务

CLI 快速配置

openclaw models add
# 选择 GLM
# 粘贴对应 API Key

原生国际模型(必须具备国际网络条件)

Claude3 (Anthropic 公司)

能力视界

  • 当前公认的长片段处理能力巅峰存在者
  • 对于防刻意诱导注入的洁癖式护栏审查机制最为出色
  • 前沿代码的拆散、纠错和整体工程重构理解能力首屈一指
  • 语气表现力更像是一个有涵养的人类知识分子

家族推荐版本梯队

  • Claude 3 Opus (超大核):地表最强综合体目前,绝对适用于拆解超级复杂的混合任务。
  • Claude 3.5 Sonnet (大核):绝对平衡性能与日常操作花销成本的神器。
  • Claude 3 Haiku (小核):出字速度极快,适合用于单纯的文本翻译等瞬时非复杂任务。

CLI 快速配置

openclaw models add
# 选中大类 Claude
# 细节选择分配版本(Opus / Sonnet / Haiku)
# 粘贴对应 API Key
  • 获取跨国 API Key:请在海外网络环境下访问 Anthropic Console
  • 冷酷美元定价
    • Opus: $15 / 1M Input tokens | $75 / 1M Output tokens
    • Sonnet: $3 / 1M Input tokens | $15 / 1M Output tokens
    • Haiku: $0.25 / 1M Input tokens | $1.25 / 1M Output tokens

OpenAI GPT 系列

能力视界

  • 当之无愧的最佳标杆霸主,生态群系最庞大成熟
  • 对于各类外挂 Tool (函数调用工具) 的服从率和成功率全球第一高
  • 原生极其惊艳的原发多模态(语音图像视屏解析)能力
  • 网飞与各类三方工具、RAG框架的第一集成对象

家族推荐版本梯队

  • GPT-4 Turbo:经典的最强版本(纯文本逻辑)大杀器。
  • GPT-4o:今年面世的综合旗舰,极快极强还极其“多才多艺”的多模态霸主。
  • GPT-3.5 Turbo:曾经的王者,现在降维打击性价比廉价计算模型。

CLI 快速配置

openclaw models add
# 选中大类 OpenAI
# 锁定分配具体版本
# 粘贴对应顶级 API Key

Google Gemini

能力视界

  • 原生搭载的极其恐怖的视听觉多模态并行感知系统
  • 极品深度的 Google 祖传服务原生生态整合
  • 大陆之外,提供了令人眼馋的极高白嫖免费额度

CLI 快速配置

openclaw models add
# 定义选定大厂 Gemini
# 圈出使用的引擎型号
# 粘贴对应 API Key

本地私有化下沉模型

如果你有一个搭载了大显存 Nvidia 显卡 或 M系列 Max 芯片的 Apple 电脑,可以考虑本地化方案。

Ollama (开源圈最火的本地化模型接管引擎)

能力视界

  • 拔掉网线,彻底完全离线黑盒绝密运行
  • 个人隐私保护级别拉到极值最高点
  • 调用不花一分钱真金白银 API 计算费(只费你的显卡电费)
  • 一条极简指令即可随时抓取最新开源界各路大神的模型文件

热门推荐吸入集

  • Llama 3 (Meta):扎克伯格不计成本打造的当今最强全能开源王者。
  • Mistral:名震欧洲的极具魔改潜力的性能小钢炮。
  • Qwen:中国区开源顶流阿里千问开源版本,极为熟悉本地法则。
  • CodeLlama:被专项极限训练出只为读写代码而生的编程专属核。

部署并安装 Ollama 主体

# macOS 或 纯种 Linux 一条龙脚本
curl -fsSL https://ollama.com/install.sh | sh

# Windows 党请自行下载点击下一步
# 请前往官网下载源地址 https://ollama.com/download

吸入模型源库(在终端执行)

# 抓取开源最前沿 Llama 3 大礼包
ollama pull llama3

# 抓取中文原生长下文利器阿里千问
ollama pull qwen

连接与配置挂载 OpenClaw

openclaw models add
# 大类选中 Ollama 源引擎
# 输入你要指定的具体底层挂载模型名称(如刚刚拉过的 qwen)
# 直接回车使用其挂载的 11434 端口本地调用地址即可

💻 模型分配与管理字典

查看当前已配置可供驱遣的队列

# 简洁列出所有的可用模型缩略信息集
openclaw models list

# 展开所有的参数与状态核对大清单
openclaw models list --verbose

输出大概类似这种终端界面效果:

Models Current Queues:
✓ minimax (已被设为 default 默认主力位)
  - Provider 供应商: MiniMax
  - Model 具体核: abab6.5-chat
  - Status 挂载状态: Active 活跃响应中
  
✓ kimi
  - Provider 供应商: Moonshot
  - Model 具体核: moonshot-v1-128k
  - Status 挂载状态: Active 活跃响应中
  
✓ deepseek
  - Provider 供应商: DeepSeek
  - Model 具体核: deepseek-chat
  - Status 挂载状态: Active 失联!(疑似端口墙或者欠费被停)

命令速查锦囊

# 进入交互可视化向导,再引入新的外部模型源
openclaw models add

# 查杀彻底拔除掉一个表现吃力或过时的模型源
openclaw models remove <model-name-你之前起的名>

# 确立储君:提拔它作为系统的默认大当家接管所有全平台日常对话
openclaw models set-default <model-name-你想立的那>

# 【极为重要】做压测与连通性尝试:验证是不是 API Key 出了幺蛾子
openclaw models test <model-name>

# 走专门的绕过渠道,直接以原生形态点对点调出对讲机测算回复能力
openclaw models chat <model-name> --message "从这里开始你是一个傲娇的女仆,请用这个设定回应接下来的问候。"

🔧 高阶开发者模型核心参数深度配置

这些操作均可以直接硬核修改 .openclaw/config.json 来无缝触发生效。

标准骨架基础配置

{
  "models": {
    "minimax": {
      "provider": "minimax",
      "apiKey": "${MINIMAX_API_KEY}",
      "model": "abab6.5-chat",
      "maxTokens": 4096,
      "temperature": 0.7
    }
  }
}

狂暴模式高级详细调参

{
  "models": {
    "claude": {
      "provider": "anthropic",
      "apiKey": "${ANTHROPIC_API_KEY}",
      "model": "claude-opus-4.6",
      "maxTokens": 8192,
      "temperature": 0.7,
      "topP": 0.9,
      "presencePenalty": 0.0,
      "frequencyPenalty": 0.0,
      "timeout": 60000,
      "retries": 3
    }
  }
}

核心参数字典详解表

参数键值名配置说明原生默认值极限取值范围
maxTokens模型单次呼吸允许生成输出出来的最大片段量40961 - 200,000
temperature想象力与发癫程度(越高越天马行空随机,越低越死板准确)0.70.0 - 2.0
topP核分布采样宽度限制概率池算法阈值0.90.0 - 1.0
presencePenalty存在新奇惩罚(用来强制打断复读机逼迫提出全新话题的因子)0.0-2.0 - 2.0
frequencyPenalty喋喋不休复读惩罚(控制生成文章里相同词汇重复抛掷现象)0.0-2.0 - 2.0
timeout连通堵塞强制自尽切断倒计时毫秒数(毫秒)60000随心配
retries失败撞墙后的不屈不挠重新试探重拨连接挂载次数30 - 10

🤹 多模型组合群架构编队策略

备用救火队(自动切机回退)

如果当前调用的默认主力主源发生断网挂起,不至于在微信中干等,它会自动寻找二号机顶位替补。

{
  "models": {
    "primary": "claude",
    "fallback": ["minimax", "deepseek"],
    "fallbackStrategy": "sequential"
  }
}

fallbackStrategy 的可选战术组合类型:

  • sequential:经典排队(第一个二号机挂了再依序找三号位顶包)。
  • random:抽签盲盒(在这个数组里轮盘赌挑一个可用替身)。
  • load-balanced:雨露均沾分流(平摊大家的使用连接频次防止连击宕机)。

看人下菜碟(基于细分关键词分配指派模型干活)

对于不同类型的专项能力问题,通过预设规则把它精确路由给专属更对口的老大处理。

{
  "modelSelection": {
    "rules": [
      {
        "match": {
          "keywords": ["code", "代码", "编程", "重构"]
        },
        "model": "deepseek"
      },
      {
        "match": {
          "keywords": ["财报", "分析这份文件", "这篇论文", "长文总结"]
        },
        "model": "kimi"
      },
      {
        "match": {
          "complexity": "high"
        },
        "model": "claude"
      }
    ],
    "default": "minimax"
  }
}

老板抠门法宝(极致分发成本优化策略)

系统可以识别评估你预估要带进去的 Token 是多少,智能为了钱包着想自动做选择。如果聊天字数比较短,那就用极其廉价的地主长工 DeepSeek 来处理;如果字数突破万字甚至带着几本大书进去,则毫不犹豫动用最贵最强的分析智库去研读。

{
  "costOptimization": {
    "enabled": true,
    "rules": [
      {
        "condition": "tokens < 1000",
        "model": "deepseek"
      },
      {
        "condition": "tokens < 10000",
        "model": "minimax"
      },
      {
        "condition": "tokens >= 10000",
        "model": "kimi"
      }
    ]
  }
}

🔐 密钥与环境变量授权安保

极度不推荐将你充过钱的高权 API Key 以明文的粗暴方式放在各种 json 文本堆里,这非常容易因为 GitHub 代码推演被爬虫机器人扫描卷走你的余额资产!以下是优雅的防护方式:

✅ 使用服务器级系统底层环境变量隐藏

# 在 Linux 主机底层 /etc/profiles 等系统底注册
export MINIMAX_API_KEY="your-api-key"
export ANTHROPIC_API_KEY="your-api-key"
export OPENAI_API_KEY="your-api-key"

这不仅防泄漏,还可以让多套系统同时调用。然后在主配置文件中这样进行插值调用锚定它:

{
  "models": {
    "minimax": {
      "apiKey": "${MINIMAX_API_KEY}"
    }
  }
}

✅ 使用强加密黑盒存储

OpenClaw 框架内部自建了保险柜库机制:

# 将这串危险的 Token 打成密文保险柜锁起来
openclaw secrets set MINIMAX_API_KEY

# 你现在可以随时点阅自己的资产记录名录了
openclaw secrets list

# 离职跑路或额度烧空了,拔掉销毁其授权记录
openclaw secrets remove MINIMAX_API_KEY

⏱️ 抗高频突变性能极限设置

增加请求池并释放底层阻塞限制

{
  "concurrency": {
    "maxConcurrent": 15,    // 允许同时间疯狂打入这个基座的最高并行请求路数
    "queueSize": 1000       // 如果实在并发太多,强制在本地建立长达这么深度的排队长龙队伍等着
  }
}

超时拉平等待

如果你用的模型(如处理超大的百万级别 Excel 表格读取分析的 Kimi),他们回得非常非常慢,记得把响应池超时值给放大,免得 AI 还在深思熟虑而你这边代码早早就等得直接不耐烦掀桌子斩网切断抛弃了。

{
  "timeout": {
    "connection": 10000,    // 多少秒接不通就直接滚蛋算网络失爆 
    "request": 120000,      // 给够它整整按分钟算的时间深思去回答计算结果
    "idle": 30000           // 拿到回话后留多久缓冲心跳续航防止频繁重连
  }
}

📊 记账本与行为分析表盘

OpenClaw 在后台像个严厉的大管家一样默默记下了这位 AI 所有的一切花销历史。

查看详细用量与成本消耗

# 本月总览:看看到底花了几个字
openclaw models stats

# 拉出当月详细报表排查谁在这瞎跑大量耗费
openclaw models stats --since "2026-03-01" --until "2026-03-31"

# 这个老色批模型到底花了多少钱
openclaw models cost

# 直接将数据甩成 CSV 给你们财务老板做数据表汇报审查发工资去
openclaw models cost --export cost-report.csv

监测各维度的性能状态波动

# 监测各个供应商当前的实际服务器传输响应速度卡在哪
openclaw models latency

# 查岗看看哪个垃圾模型的 API 经常掉线或者各种 503 HTTP 爆错!
openclaw models errors

🩹 被逼上绝路的最后故障排除手段

Q1: 死活就是无法发起和 AI 对接沟通?!

按步骤老实进行验证大排查:

# Step 1: 先找运维查查你的机器网线物理层面上是不是被墙拦截干碎了
openclaw models ping <model-name>

# Step 2: 网络通的,那就查查是不是你的充值额度早花光被封锁账号验证权限了
openclaw models validate <model-name>

# Step 3: 若上两项都通,那就是底层参数给弄混淆抛出逻辑错误退回了,看日志吧老表
openclaw logs --model <model-name> --level error

Q2: 服务器给我发来报错,API 配额已无情掏空/触发单日硬顶限流!雷达狂报满塞!怎么办?

先别慌,直接看后台余量报告后,强制命令系统热切当前基座大脑直接退避三舍跑到隔壁模型家喝茶挂载暂避风头缓冲配额:

# 查到底是谁超支爆炸,拉监控列表清算
openclaw models quota <model-name>

# 切掉它,快!换别的模型主力顶上去接管消息回复应战先保证存活
openclaw models set-default <赶紧挑个备件打字的替补二号>

On this page