OpenClaw - 安装小龙虾并使用本地模型教程(接入本地Qwen3.5模型为例)
作者:hangge | 2026-04-16 09:09
要将 OpenClaw 变成真正可用的 AI 助理,离不开一个强大的“大脑”:大语言模型。云端模型固然方便,但高频调用带来的 token 消耗和潜在的隐私风险让不少用户望而却步。幸运的是,随着 2026 年 Qwen3.5 系列开源大模型的发布,本地部署的门槛已被大幅拉低。配合 Ollama 这样的轻量化本地模型运行工具,我们完全可以在自己的电脑上搭建一套完全离线、无需 API 密钥、永久免费的私有 AI 系统,核心数据全程留存本地,永不联网泄露。下面我将演示如何安装 OpenClaw 并接入使用本地的 Qwen3.5 大模型。
1,OpenClaw 介绍
(1)OpenClaw 这个项目的经历相当传奇。最早叫 Clawdbot(Claude 的谐音梗),因为收到 Anthropic 的律师函,改成 Moltbot(蜕壳的意思),最后在 2026 年 1 月 30 日定名 OpenClaw。短短两周就在 GitHub 上斩获 17 万星标,被称为 2026 年增长最快的开源项目。
- 官网地址:https://openclaw.ai/
(2)OpenClaw 的本质是一个本地优先的 AI Agent 网关。它不像 ChatGPT 那样只能陪你聊天,而是能直接操控你的电脑——读文件、执行命令、管理日历、甚至帮你整理下载 文件夹里堆积如山的 PDF。更妙的是,它可以通过微信、飞书、Telegram 这些日常聊天软件跟你互动。想象一下,你在地铁上发条语音给微信里的 AI 助手:“把桌面上的报销单整理成 Excel”,到家一看,文件已经乖乖躺在桌面了。
2,准备工作
(1)首先我们电脑需要安装 Node.js 环境,我们可以去其官网(点击访问)下载安装包安装。


(3)由于本次我们希望 OpenClaw 使用本地的 Qwen3.5 模型,可以参考我之前的文章安装运行 Qwen3.5 模型:
3,安装 OpenClaw
(1)打开 CMD 命令行,执行如下命令进行安装:
npm install -g openclaw
(2)当显示如下信息则说明安装成功:

4,运行 OpenClaw
(1)OpenClaw 安装完毕后,我们就可以执行如下命令使用 ollama 来直接运行 OpenClaw 了。
ollama launch openclaw
(2)上面命令执行后就会让我们选择模型。这里会有一个推荐模型和更多模型。推荐模型最上面的是云端模型。我们这里使用本地模型,按键盘上的下箭头在 More 这里往下找,这里我找到本地的 Qwen 3.5:9b 模型,回车。

(3)然后就是风险提示,我们直接选择 yes 回车。

(4)接下来回车等待其自动完成即可。中途可能会弹出个类似如下新窗口,这里是网关的日志信息。这个窗口不用管,只要开着就行了。

(5)看到绿色的 OpenClaw is running,就说明 OpenClaw 已经启动成功了。我们可以直接在终端中与其进行对话。

(6)同时从上面截图信息中我们可以看到 Web UI 的地址,我们可以使用浏览器打开这个地址,这样我们就可以在 UI 界面中进行对话了。
提示:Web UI 界面中的聊天内容,和我们终端中的内容是同步的。
附:简单的使用样例
(1)这里我想让 OpenClaw 统计下桌面图片情况,可以发送如下消息:
我的电脑桌面有多少个图片文件,给我所有图片的文件名、文件大小、创建日期
(2)稍等片刻,OpenClaw 便会将结果返回给我们。

全部评论(0)