Windows 本地部署 OpenClaw + LM Studio 完整踩坑记录环境:Windows 10 / RTX 3060 12GB / 32GB 内存 / Node.js v24.15.0

张开发
2026/5/2 21:33:03 15 分钟阅读

分享文章

Windows 本地部署 OpenClaw + LM Studio 完整踩坑记录环境:Windows 10 / RTX 3060 12GB / 32GB 内存 / Node.js v24.15.0
目录Windows 本地部署 OpenClaw LM Studio 完整踩坑记录一、安装 OpenClaw从报错开始1.1 初次安装报错1.2 解决方案二、初始化配置openclaw onboard2.1 安全风险提示2.2 配置 LM Studio 接入Provider 选择API KeyPreferred Context Length上下文长度三、模型选择Browse all models 卡死3.1 获取精确的模型 ID3.2 用非交互式命令跳过卡死界面四、启动 Gateway 与验证4.1 重启 Gateway4.2 验证模型列表4.3 进入交互模式五、LM Studio 端的关键设置5.1 模型加载参数5.2 启动 Local Server六、踩坑总结七、性能与使用建议7.1 模型量化选择7.2 安全建议八、最终效果Windows 本地部署 OpenClaw LM Studio 完整踩坑记录环境Windows 10 / RTX 3060 12GB / 32GB 内存 / Node.js v24.15.0目标在 Windows 本地安装 OpenClaw并接入 LM Studio 运行本地大模型Qwen3.5-9B一、安装 OpenClaw从报错开始1.1 初次安装报错运行 OpenClaw 安装脚本时在npm install -g openclawlatest步骤报错npm error A complete log of this run can be found in: C:\Users\Administrator\AppData\Local\npm-cache\_logs\2026-05-02T04_20_18_984Z-debug-0.log排查思路查看 npm 日志发现 HTTP 请求都是 200网络正常检测到已有旧版本安装Existing OpenClaw installation detected日志最后只有verbose exit 1没有明确错误原因1.2 解决方案执行以下命令清理后重装powershell复制npm uninstall -g openclaw clawdbot moltbot npm cache clean --force npm install -g openclawlatest --force其他可能原因如果清理后仍失败PowerShell 执行策略限制Set-ExecutionPolicy RemoteSigned -Scope CurrentUser缺少 Git 或 Windows 构建工具权限问题以管理员身份运行 PowerShell二、初始化配置openclaw onboard安装成功后运行初始化向导powershellopenclaw onboard2.1 安全风险提示plainI understand this is personal-by-default and shared/multi-user use requires lock-down. Continue? | Yes / No选择 Yes。这是确认个人使用场景OpenClaw 默认设计就是单人本地使用。选 No 会中断退出。2.2 配置 LM Studio 接入Provider 选择选择lmstudio作为模型提供商。API KeyLM Studio 默认不启用认证直接留空即可。如果启用了认证在 LM Studio 的 Local Server 设置里查看 API Key。Preferred Context Length上下文长度这是关键配置项。我填了4096040K。硬件分析显卡RTX 3060 12GB模型Qwen3.5-9B Q8_0约 9.5GB内存32GB12GB 显存放 9.5GB 模型 40K 上下文 KV Cache约 2-3GB会超出显存LM Studio 会自动 offload 到内存。虽然速度会下降但 32GB 内存足够支撑。建议保守选1638416K想尝试长文本选3276832K我头铁选了40960后续验证能用但长对话会慢一点三、模型选择Browse all models 卡死配置到选择默认模型时plainDefault model | Keep current (lmstudio/gemma-4-26b-a4b-it-udq4_k_m) | Enter model manually | Browse all models不要选 Keep current那个 gemma-4-26b 不是我加载的模型。选Browse all models后界面卡死这是交互式 TUI 的已知问题。3.1 获取精确的模型 ID先通过 LM Studio API 确认已加载的模型powershellInvoke-RestMethod -Uri http://localhost:1234/api/v1/models返回 JSON 中loaded_instances有数据的才是当前加载的模型。我的是JSON复制key: qwen3.5-9bq8_0, loaded_instances: [ { id: qwen3.5-9bq8_0, config: { context_length: 40960 } } ]3.2 用非交互式命令跳过卡死界面powershellopenclaw onboard --non-interactive --accept-risk --auth-choice lmstudio --custom-base-url http://localhost:1234/v1 --custom-model-id qwen3.5-9bq8_0 --preferred-context-length 40960或者直接手动写配置文件~/.openclaw/openclaw.jsonJSON{ models: { mode: merge, providers: { lmstudio: { baseUrl: http://localhost:1234/v1, apiKey: lm-studio, models: [ { id: qwen3.5-9bq8_0, name: Qwen3.5 9B Q8_0, contextWindow: 40960, maxTokens: 4096 } ] } } }, agents: { defaults: { model: { primary: lmstudio/qwen3.5-9bq8_0 } } } }四、启动 Gateway 与验证4.1 重启 Gatewaypowershelopenclaw gateway restart启动时提示plainConfig auto-restored from backup: C:\Users\Administrator\.openclaw\openclaw.json Gateway service missing.这是正常的配置自动恢复机制随后进入 TUI 界面。4.2 验证模型列表powershellopenclaw models list输出Model Input Ctx Local Auth Tags lmstudio/qwen3.5-9bq5_k_s text 16k yes yes default,configured,alias:Local LLM注意这里显示的是q5_k_s和16k而不是我配置的q8_0和40k。这是因为 OpenClaw 可能缓存了旧配置或做了安全降级。不影响使用如果想强制指定 Q8_0powershell复制openclaw models set lmstudio/qwen3.5-9bq8_04.3 进入交互模式Gateway 启动后自动进入 TUIopenclaw tui - local embedded - agent main - session main local ready | idle直接输入内容按 Enter 即可开始对话。也可以按CtrlC退出 TUI改用 Web 界面openclaw web五、LM Studio 端的关键设置5.1 模型加载参数在 LM Studio 中加载 Qwen3.5-9B 时Advanced Settings务必设置Context Window≥ 32768OpenClaw 建议最低 32KGPU OffloadMAX最大化显存卸载5.2 启动 Local Server点击左侧Local Server插头图标点击Start Server默认地址http://localhost:1234浏览器访问http://localhost:1234/api/v1/models验证是否正常运行六、踩坑总结问题原因解决npm 安装报错旧版本冲突或缓存损坏npm uninstall -g openclawnpm cache clean --force 重装安全提示选 No误操作选Yes这是个人使用确认Browse all models 卡死TUI 交互式界面 bug用--non-interactive参数或手动写配置文件模型 ID 不对OpenClaw 缓存或自动匹配通过 API 确认key手动指定上下文被限制为 16KOpenClaw 默认安全限制手动修改配置文件中的contextWindow七、性能与使用建议7.1 模型量化选择以 RTX 3060 12GB 为例量化显存占用速度推荐场景Q4_K_M~6GB快日常对话可跑 32K-64K 上下文Q5_K_S~6.5GB较快平衡选择Q8_0~9.5GB中等质量优先但长文本会 offload 到内存建议如果主要用 OpenClaw 处理长代码或长文档换Q4_K_M或Q5_K_S可以轻松跑满 32K-64K 上下文而不卡顿。7.2 安全建议本地模型虽然数据不出网但小模型9B更容易受提示注入影响将本地模型作为子代理处理摘要、重构等受限任务主代理仍可用云端大模型处理复杂工具链任务如需限制权限在配置中禁用危险工具如group:web、browser八、最终效果 OpenClaw 2026.4.29 — Your terminal just grew claws openclaw tui - local embedded - agent main - session main local ready | idle agent main | session main | unknown | tokens ?OpenClaw 成功通过 LM Studio 调用本地 Qwen3.5-9B所有数据留在本地无需联网即可使用 AI 辅助编程。参考OpenClaw 官方文档https://docs.openclaw.aiLM Studio 本地服务器文档https://lmstudio.ai/docs/local-server

更多文章