背景:

最近OpenClaw的热度非常高,我自己也在空闲期间搭了一个本地项目,在选择LLM大模型的时候优先选择了国内的Qwen大模型,并且完成了Oauth认证,但在我使用了两三个小时之后就开始没有应答反应,查询日志发现报错qwen-portal/coder-model: 429 Free allocated quota exceeded.,是Qwen Oauth的免费额度使用超限,所以今天来教大家如何来给自己OpenClaw配置自己想使用的LLM大模型,以及如何在额度超限时让OpenClaw自己切换使用新的LLM大模型

Qwen

我们在第一次安装OpenClaw的时候可以发现,OpenClaw可以允许我们使用Qwen大模型,但是是使用Oauth的进行验证登录,并且只能使用qwen-portal/coder-model,qwen-portal/vision-model这两种大模型;

但是在阿里云百炼的模型广场上,我们可以看到很多Qwen的模型,比如qwen3-max-2026-01-23新的千问Max模型,qwen-flash千问3的Flash模型,qwen3-vl-plus千问3的视觉模型,以及qwen-voice-design千问的声音模型等等多模态模型,而在OpenClaw中是没有这些模型让我们可以选择的,并且这些多模态通常使用的是API Key进行认证和token付费的,而不是OpenClaw提供给我们的Oauth;

添加Qwen3 LLM大模型

所以我们可以自行在openClaw的配置文件配置Qwen的模型,由于我们Qwen3模型和系统Qwen模型都属于Qwen,但认证方式又不相同,所以可以将这些模型统称为Qwen3,与系统Qwen模型做为区分;

然后我们找到.openclaw/openclaw.json这个文件,这个文件就是我们OpenClaw的所有配置项了,点开可以看到我们的models这个列表,这个列表就是我们引入的所有模型

我这边引入了Deepseek和系统自带的qwen-portal模型,其中qwen-portal的APIKey可以看到认证方式是通过qwen-oauth,然后我们可以在后面添加我们所需的qwen3模型,配置内容可以与我下方一致,只需将apiKey更换成阿里百炼中自己的ApiKey即可。

        "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
        "apiKey": "{{your-apiKey}}",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen-turbo",
            "name": "Qwen3 Turbo",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 8192
          },
          {
            "id": "qwen-plus",
            "name": "Qwen3 Plus",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 8192
          },
          {
            "id": "qwen-max",
            "name": "Qwen3 Max",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 8192
          },
          {
            "id": "qwen-flash",
            "name": "Qwen3 Flash",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 8192
          },
          {
            "id": "qwen-max-2026-01-23",
            "name": "Qwen3 Max 2026-01-23",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 8192
          }
        ]
      },

添加模型回退队列

有时候默认使用的模型用着用着余额就被token消耗完了,这时候openClaw就像挂了一样,无论怎么发送消息都无法正确回复,只能通过openclaw onboard指令进行重装,然后选择一个新的LLM大模型,所以我们可以在配置中添加一个模型回退队列,让OpenClaw在默认的模型返回异常时,自动选择队列中的模型进行请求;

配置方法

1.OpenClaw的配置与上方一样,找到.openclaw/openclaw.json这个文件

2.在models相同缩进的下方,找到Agents,然后修改配置与我下方相似,在agents/defaults/model下方增加一个fallbacks队列,由上往下就是失败后依次会尝试的模型队列,primary是我们默认使用的LLM模型

3.models就是引进的所有LLM Model,这里使用自己的配置中的models无需和我一致

4.workspace使用自己openclaw的工作空间,无需和我一致

5.其他配置可以均与我保持一致

这样就完成了默认的LLM额度超限后会自动调用回退队列中的LLM大模型继续进行会话访问。

"agents": {
    "defaults": {
      "model": {
        "primary": "xiaomi/mimo-v2-flash",
        "fallbacks": [
          "xiaomi/mimo-v2-flash",
          "qwen3/qwen-turbo",
          "qwen3/qwen-plus",
          "qwen3/qwen-max",
          "qwen3/qwen-max-2026-01-23",
          "deepseek/deepseek-coder",
          "qwen-portal/coder-model",
          "qwen-portal/vision-model"
        ]
      },
      "models": {
        "qwen3/qwen-turbo": {
          "alias": "qwen3-turbo"
        },
        "qwen3/qwen-plus": {
          "alias": "qwen3-plus"
        },
        "qwen3/qwen-max": {
          "alias": "qwen3-max"
        },
        "qwen3/qwen-max-2026-01-23": {
          "alias": "qwen3-max-2026"
        },
        "qwen3/qwen-flash": {
          "alias": "qwen3-flash"
        },
        "qwen-portal/coder-model": {
          "alias": "qwen"
        },
        "qwen-portal/vision-model": {},
        "deepseek/deepseek-chat": {
          "alias": "deepseek-chat"
        },
        "deepseek/deepseek-coder": {
          "alias": "deepseek-coder"
        },
        "xiaomi/mimo-v2-flash": {
          "alias": "Xiaomi"
        }
      },
      "workspace": "/Users/clawd",
      "compaction": {
        "mode": "safeguard"
      },
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },

结尾

如果这篇文章对你有帮助的话,麻烦各位大佬帮忙点个小赞;如果你也对OpenClaw感兴趣的话,欢迎关注我

下期给大家介绍如何使用飞书与我们的OpenClaw进行无阻碍对话,让它成为我们真正的24小时助手!

本站提供的所有下载资源均来自互联网,仅提供学习交流使用,版权归原作者所有。如需商业使用,请联系原作者获得授权。 如您发现有涉嫌侵权的内容,请联系我们 邮箱:alixiixcom@163.com