返回 导航

Python / AI

hangge.com

OpenClaw - 安装小龙虾并使用本地模型教程(接入本地Qwen3.5模型为例)

作者:hangge | 2026-04-16 09:09
    要将 OpenClaw 变成真正可用的 AI 助理,离不开一个强大的“大脑”:大语言模型。云端模型固然方便,但高频调用带来的 token 消耗和潜在的隐私风险让不少用户望而却步。幸运的是,随着 2026Qwen3.5 系列开源大模型的发布,本地部署的门槛已被大幅拉低。配合 Ollama 这样的轻量化本地模型运行工具,我们完全可以在自己的电脑上搭建一套完全离线、无需 API 密钥、永久免费的私有 AI 系统,核心数据全程留存本地,永不联网泄露。下面我将演示如何安装 OpenClaw 并接入使用本地的 Qwen3.5 大模型。

1,OpenClaw 介绍

(1)OpenClaw 这个项目的经历相当传奇。最早叫 ClawdbotClaude 的谐音梗),因为收到 Anthropic 的律师函,改成 Moltbot(蜕壳的意思),最后在 2026130 日定名 OpenClaw。短短两周就在 GitHub 上斩获 17 万星标,被称为 2026 年增长最快的开源项目。

(2)OpenClaw 的本质是一个本地优先的 AI Agent 网关。它不像 ChatGPT 那样只能陪你聊天,而是能直接操控你的电脑——读文件、执行命令、管理日历、甚至帮你整理下载 文件夹里堆积如山的 PDF。更妙的是,它可以通过微信、飞书、Telegram 这些日常聊天软件跟你互动。想象一下,你在地铁上发条语音给微信里的 AI 助手:“把桌面上的报销单整理成 Excel”,到家一看,文件已经乖乖躺在桌面了。

2,准备工作

(1)首先我们电脑需要安装 Node.js 环境,我们可以去其官网(点击访问)下载安装包安装。

(2)后面使用 npm 安装 OpenClaw 会执行 git 命令,因此我们还需要安装 Git,我们可以去 Git 官网(点击访问)下载安装包安装。

(3)由于本次我们希望 OpenClaw 使用本地的 Qwen3.5 模型,可以参考我之前的文章安装运行 Qwen3.5 模型:

3,安装 OpenClaw

(1)打开 CMD 命令行,执行如下命令进行安装:
npm install -g openclaw

(2)当显示如下信息则说明安装成功:

4,运行 OpenClaw

(1)OpenClaw 安装完毕后,我们就可以执行如下命令使用 ollama 来直接运行 OpenClaw 了。
ollama launch openclaw

(2)上面命令执行后就会让我们选择模型。这里会有一个推荐模型和更多模型。推荐模型最上面的是云端模型。我们这里使用本地模型,按键盘上的下箭头在 More 这里往下找,这里我找到本地的 Qwen 3.5:9b 模型,回车。

(3)然后就是风险提示,我们直接选择 yes 回车。

(4)接下来回车等待其自动完成即可。中途可能会弹出个类似如下新窗口,这里是网关的日志信息。这个窗口不用管,只要开着就行了。

(5)看到绿色的 OpenClaw is running,就说明 OpenClaw 已经启动成功了。我们可以直接在终端中与其进行对话。

(6)同时从上面截图信息中我们可以看到 Web UI 的地址,我们可以使用浏览器打开这个地址,这样我们就可以在 UI 界面中进行对话了。
提示Web UI 界面中的聊天内容,和我们终端中的内容是同步的。

附:简单的使用样例

(1)这里我想让 OpenClaw 统计下桌面图片情况,可以发送如下消息:
我的电脑桌面有多少个图片文件,给我所有图片的文件名、文件大小、创建日期

(2)稍等片刻,OpenClaw 便会将结果返回给我们。
评论

全部评论(0)

回到顶部