意项
39.91M · 2026-03-23
前言:大家好,本人非厂公程序猿,分享OpenClaw本地化踩坑实战,主打免费、详实、无专业知识,新手也能跟着做。
day1: 聚焦Windows 系统下 OpenClaw 的安装、Ollama 本地模型配置及二者的对接调试.
OpenClaw 的 Windows 安装支持一键脚本,无需手动配置环境,步骤如下:
& ([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1))) -Tag beta
等待安装完成,出现绿字提示即代表安装成功(过程中会自动检测 Node.js,无需手动安装)。
验证安装版本,执行命令查看当前 OpenClaw 版本:
powershell
openclaw --version
成功会返回2026.2.24(当前 beta 版最新版)。
OpenClaw 自身不携带大模型,需单独安装 Ollama 作为本地模型引擎,全程免费,支持一键下载模型,步骤如下:
ollama --version
Ollama 支持云模型和本地模型,云模型需要账号,本地模型无需账号,纯离线运行,推荐根据硬件配置选择,避坑点:轻量模型 qwen:0.5b 不支持工具调用,需替换为 qwen2.5:7b。
| 显卡显存 | 推荐模型 | 下载命令 | 特点 |
|---|---|---|---|
| 20GB+ | glm-4.7-flash | ollama pull glm-4.7-flash | 性能强劲,支持多工具调用 |
| 8GB-16GB | qwen2.5:7b | ollama pull qwen2.5:7b | 平衡性能与体积,支持工具调用 |
| 无独显(纯 CPU) | qwen2.5:0.5b | ollama pull qwen2.5:0.5b | 超轻量,运行流畅,基础对话可用 |
执行下载命令前,先配置国内镜像,避免下载超时:
export OLLAMA_HOST=
# 再执行模型下载命令
ollama pull qwen2.5:7b
下载完成后,直接在 PowerShell 执行ollama run qwen2.5:7b,输入hello,模型能正常回复即代表本地模型运行成功。
核心坑点:OpenClaw 要求模型上下文窗口≥16000 tokens,而 Ollama 默认下载的 qwen2.5:7b 上下文仅 4096 tokens,直接对接会报错,需手动定制模型扩展至 32768 tokens(兼顾推理速度与上下文长度)。
<你的用户名>为实际 Windows 用户名,如我的是zxj:cd C:Users<你的用户名>
2. 创建 Modelfile 配置文件,定义基础模型和上下文参数:
@"FROM qwen2.5:7b
PARAMETER num_ctx 32768"@ | Out-File -Encoding ascii Modelfile
3. 验证配置文件,执行命令查看内容,显示以下信息即成功:
Get-Content Modelfile
# 正确输出:
# FROM qwen2.5:7b
# PARAMETER num_ctx 32768
4. 基于配置文件创建自定义 32k 上下文模型(命名为 qwen2.5:7b-32k,便于识别):
ollama create qwen2.5:7b-32k -f Modelfile
5. 验证自定义模型,执行以下命令,能看到 qwen2.5:7b-32k 即成功:
# 查看本地所有模型
ollama list
# 查看自定义模型配置(确认包含32k上下文)
ollama show qwen2.5:7b-32k --modelfile
完成 Ollama 模型定制后,通过 OpenClaw 的交互式配置向导,实现二者的对接,步骤如下:
openclaw onboard
2. 首次启动会出现安全提示,阅读后输入Yes继续(OpenClaw 为 beta 版,需注意本地安全,不建议暴露到公网)。
选择QuickStart(快速配置),进入Model/auth provider选择界面。
由于 Ollama 是自定义本地模型,选择Custom Provider(自定义提供商),按向导配置:
(必加 /v1,核心避坑点)ollama-local,Ollama 本地运行无需真实密钥)qwen2.5:7b-32k(填写自定义的 32k 上下文模型名)配置完成后,显示Verification successful即代表对接成功!
对接成功后,控制台会显示OpenClaw Web UI 地址()和管理员 Token,务必记录 Token(后续登录 Web UI 需要)。
若提示Verification failed,按以下步骤排查:
ollama list,能看到模型即正常;若未运行,执行ollama serve手动启动。。首次启动 OpenClaw 大概率会出现报错:Model context window too small (4096 tokens). Minimum is 16000,原因是 OpenClaw 缓存了模型原始 4096 tokens 参数,未识别到定制的 32k,需手动修改配置文件。
找到 OpenClaw 的两个核心 JSON 配置文件(路径固定):
C:Users<你的用户名>.openclawopenclaw.jsonC:Users<你的用户名>.openclawagentsmainagentmodels.json用记事本 / VS Code 打开两个文件,分别找到models.providers.custom-127-0-0-1-11434.models数组中id 为 qwen2.5:7b-32k的对象。
将对象中的contextWindow和maxTokens值从4096修改为32768,修改后示例:
json
{"id":"qwen2.5:7b-32k","contextWindow":32768,"maxTokens":32768,"name":"qwen2.5:7b-32k","providerId":"custom-127-0-0-1-11434"}
4. 保存两个配置文件,完全退出所有 OpenClaw 相关窗口(按 Ctrl+C 终止终端进程),重新启动即可解决报错。
完成所有配置和报错修复后,启动 OpenClaw,验证核心功能,支持终端 TUI(推荐)和Web UI两种方式,任选其一即可。
TUI 是 OpenClaw 的核心交互方式,无界面卡顿,适合日常使用,启动命令:
powershell
openclaw tui
启动后直接输入问题,即可与本地 qwen2.5:7b-32k 模型对话,全程本地运行,无网络请求。
支持图形化操作、技能管理、配置修改,步骤如下:
openclaw gateway start启动网关)。plaintext
http://127.0.0.1:18789/#token=你的管理员Token
3. 直接进入中文 Web 控制台,在「对话测试」模块输入指令,验证 AI 对话功能,与 TUI 效果一致。