在 Mac mini 上把 OpenClaw 跑起来:从证书坑到 Qwen 接入(实战记录)

这篇记录的是我在一台 Mac mini(中国大陆网络环境)上安装并跑通 OpenClaw 的全过程:从一键安装开始,接入阿里 DashScope 的 OpenAI 兼容接口(Qwen),一路踩到 Node TLS 证书链问题,最后用 nvm 彻底解决,并成功进入 openclaw tui

背景与目标

我想在本机快速体验 OpenClaw(一个可执行工具调用的 AI Agent 框架)。目标很明确:

  • 在 macOS 上装起来
  • 不依赖海外大模型(尽量不需要外网)
  • 用 Qwen(DashScope 的 OpenAI-compatible 接口)作为模型后端
  • 最终能启动到交互界面(TUI)

环境

  • 设备:Mac mini
  • Shell:zsh
  • 网络:大陆网络(优先走国内接口)
  • 模型:DashScope OpenAI-compatible(Qwen)

先说结论:能跑通的最短路径

  1. 用 nvm 安装 LTS Node(避免 Homebrew Node 的证书链坑)
  2. 用 npm 全局安装 OpenClaw
  3. 用 Custom Provider 接入 DashScope 的 OpenAI-compatible endpoint
  4. 跳过所有非核心集成(channels/skills 依赖/hook/Google Places/Notion 等)
  5. openclaw tui 启动

下面按实际踩坑顺序复盘。

Step 1:安装 OpenClaw

我最开始走的是「能最快开始」的思路:先把 OpenClaw 装起来再说。

安装方式有两条:

  • 一键脚本(方便但依赖你当前 Node 环境)
  • npm 安装(更可控,适合排障后固化)

后面事实证明:想稳定,最终还是应该落回「nvm + npm」这条路。

Step 2:确定国内可用的模型接入方式(Qwen / DashScope)

在 onboarding 时选择:

  • Provider:Custom Provider
  • Endpoint compatibility:OpenAI-compatible
  • Base URL:https://dashscope.aliyuncs.com/compatible-mode/v1
  • API Key:DashScope Key

关键点:

  • Base URL 只能填“服务根”,不要带具体路径(不要填 /models、不要填 /chat/completions

我中途就犯过一次错:把 Base URL 填成了 .../v1/models,导致验证直接 404。

Step 3:第一个大坑——NODE_EXTRA_CA_CERTS 指向不存在的证书文件

症状:

  • OpenClaw / Node 请求报 fetch failed
  • 并出现类似:
    • Ignoring extra certs ... /opt/homebrew/etc/ca-certificates/cert.pem
    • UNABLE_TO_GET_ISSUER_CERT_LOCALLY

排查方式:

  • 看环境变量:printenv NODE_EXTRA_CA_CERTS
  • 查 shell 配置:grep -n "NODE_EXTRA_CA_CERTS" ~/.zshrc ...

最终在 ~/.zshrc 找到类似:

  • export NODE_EXTRA_CA_CERTS=$(brew --prefix)/etc/ca-certificates/cert.pem

处理:

  • 注释/删除这行
  • source ~/.zshrc

但这还没完。

Step 4:第二个大坑——curl 能通,但 Node 仍然 TLS 失败

我用 curl 打 DashScope:

  • curl <https://dashscope.aliyuncs.com/compatible-mode/v1/models> -H "Authorization: Bearer ..."

返回一大段 JSON —— 说明网络和 key 都没问题。

但 Node 继续失败:

  • node -e "fetch('.../models', { headers: { Authorization: 'Bearer ...' }})..."

仍然报 UNABLE_TO_GET_ISSUER_CERT_LOCALLY

这意味着:

  • 系统证书链 OK(curl 走系统链)
  • 你当前 Node 的 TLS/证书链环境不 OK

我一开始用的是 Homebrew 的 Node(甚至还遇到 v23 这种非 LTS 线),换到 node@22 也仍然失败。

Step 5:最终解法——改用 nvm 的干净 Node(关键转折点)

这一步是全程的“破局点”。

安装 nvm:

  • curl -o- <https://raw.githubusercontent.com/nvm-sh/nvm/master/install.sh> | bash

加载 nvm(或重开终端):

  • export NVM_DIR="$HOME/.nvm"
  • [ -s "$NVM_DIR/nvm.sh" ] && . "$NVM_DIR/nvm.sh"

安装并切到 Node 22:

  • nvm install 22
  • nvm use 22

验证 Node 是否已切换:

  • which node 应该指向 ~/.nvm/...

再跑同样的 Node fetch 测试:

  • 能返回大段 JSON

到这里就确认:TLS 问题被彻底解决。

Step 6:在 nvm 的 Node 下安装 OpenClaw

  • npm install -g openclaw@latest

安装完成后就可以继续 onboarding。

Step 7:onboarding 的关键选择(少折腾原则)

为了今晚“先跑起来”,我采用了一个非常有效的策略:

  • 非核心集成全部跳过

具体包括:

  • Channel:Skip for now
  • Search:先选 DuckDuckGo(免 key)
  • Skills:Yes(先启用基本能力)
  • Missing dependencies:Skip for now
  • Google Places / Notion / hooks 等:一律 No / Skip

这样可以最大概率避免再进入一轮“配置地狱”。

Step 8:启动与复盘

我在 onboarding 中选择了:Hatch in TUI。

所以之后启动不是直接 openclaw,而是:

  • openclaw tui

如果你只运行 openclaw 看到 Usage 帮助,说明 CLI 正常,但你还没进入交互模式。

最终结果

  • OpenClaw 成功安装
  • DashScope(Qwen)自定义 OpenAI-compatible endpoint 验证成功
  • 成功进入 openclaw tui
  • 今晚目标达成

常用命令速记

  • 进入交互:openclaw tui
  • 重新配置:openclaw onboard
  • 新开终端如果找不到命令:先 nvm use 22

Read more

LTX-2.3 本地部署完整复盘

先把结论放前面:LTX-2.3(22B)这条 pipeline 在 4×RTX 3090(24GB)这套硬件上,按官方默认推理方式基本跑不起来。我最终得到的不是“没跑通”,而是一个更有价值的结果:把它为什么跑不起来、卡在哪、该怎么判断“物理不可行”,完整验证了一遍。 这篇文章是一次本地部署的工程复盘:从模型文件下载、依赖链补齐、环境和代码层踩坑,到显存拆分、多卡 device 规划,再到最终 OOM 的边界判断。希望你在遇到类似“看起来只要把权重放进去就能跑”的大模型工程时,可以少走很多弯路。 TL;DR(1 分钟读完) * LTX-2.3 不是单模型,而是一个多组件 pipeline:文本编码器(Gemma)+ 视频 diffusion 主模型(

By ladydd

一次 generate-prompts 服务连续超时事故的完整排查记录

背景 一个平时很稳定的服务,在 2026-04-02 这天突然出现“连续失败”。 最让人难受的不是失败本身,而是失败信息太少:日志里只有一串「第 1 次请求失败」,没有异常类型、没有耗时、没有栈。 这种时候人的直觉会把怀疑撒向四面八方:逻辑是不是坏了、参数是不是不对、上游是不是抽风、网络是不是波动……但没有证据,一切都只是猜。 1. 先把故障“照亮”:只补日志,不动行为 线上系统已经跑了很久,第一原则是:先让问题可见,但不要一上来就改主逻辑。 我加的日志只做两件事: * 把“这次请求到底发生了什么”讲清楚 * 保持所有行为不变(重试次数、超时、请求参数、返回解析都不动) 具体补充项包括: * 请求开始时的关键信息(目标地址、超时、参数摘要、prompt 长度) * 当前是第几次重试、总重试次数 * 每次请求耗时

By ladydd

快手 KAT-Coder-Pro V2 模型测试

市面上几乎没人聊这个模型,反倒让我很好奇,我决定全面测评使用一下 StreamLakeStreamLake溪流湖是快手toB视频云平台,提供领先的音视频AI解决方案。包含KAT-Coder智能编程助手、万擎大模型平台、视频云服务、直播云、点播云、实时音视频RTC等产品。基于前沿AI技术和音视频算法,为企业提供智能代码生成、视频处理、内容理解、智能审核等全链路服务,助力数字化转型。StreamLakeStreamLake 付完款发现上下文只有256K , 到今天来说 已经落后了 而且不支持视觉,也没有mcp接入 联网搜索之类的东西 确实是远远落后了 时隔半年再次看快手模型的官网,发现现在几乎就主打这一个模型了 coding plan用这个,然后api 调用这个是, 接入openclaw 也是这个,总之一个模型走天下,看上去太穷了,像是随时跑路的状态,但其实我很喜欢这种方式, 一个模型通杀所有场景 哈哈哈 接入 opencode 中使用 开了一个新的项目,决定保守一点,先让写文档, 之后再生成代码 下面是实际的体验 1. 不断 chat

By ladydd
陕公网安备61011302002223号 | 陕ICP备2025083092号