Clawdbot + Mac mini:当 AI 助手跑在本地

贝叶斯之美
Clawdbot是一个开源AI代理框架,本质上是能运行在本地设备(如Mac mini)上的“有手有脚的Claude”。它不仅是聊天助手,还能通过多通讯平台接入,并具备执行系统命令、操作文件、控制浏览器等自动化能力。其技术栈涵盖了从底层计算到上层工具与记忆的完整层级,体现了端侧AI代理的趋势。这一模式凸显了AI能力向边缘和终端扩散的结构性变化,引发了关于计算范式、安全与投资机会的新讨论。

AI时代每天都有新体验,在这样一个技术爆发的年代,每天都面临颠覆与重构。

最近clawdbot在硅谷刷屏,甚至成为把 Mac mini 都卖脱销的现象开源 AI 代理。

他又有什么不一样?

1. clawdbot到底是什么?

一句话:Clawdbot = “自己托管的 Claude 助理 + 本地自动化操作系统”,不是一个网站,而是你自己机器上跑的 AI 代理框架。

官方和社区的几种典型描述:

“一个你在自己设备上运行的个人 AI 助理”,通过 WhatsApp、Telegram、Slack、Discord、Signal、iMessage、Teams、WebChat 等各种 IM 跟你对话。

核心思想是:Gateway 只是控制平面,真正的产品是那个“会真的干活的助手”本身——能清 inbox、发邮件、管日历、查航班并帮你值机。

很多文章直接叫它“Claude with hands”(有手有脚的 Claude):既能聊天,又能跑脚本、控浏览器、动文件系统。

2. 谁开发的?背景是啥?

作者:Peter Steinberger(@steipete)

奥地利软件工程师,之前最有名的身份是PSPDFKit 创始人——一个面向 iOS/Android/Web 的 PDF SDK,公司后来更名为 Nutrient 并被私募收购,他相当于“财务自由退役的 dev 创业者”。

Clawdbot 出来之前,他就写过一篇很火的长文《Claude Code is my computer》,讲自己怎么用 Claude Code 当“远程操作系统”,让模型控制整台 macOS。Clawdbot其实就是把那套个人实验,系统化 + 开源化之后的产物。

时间线大致是:

  • 2025 年末:他先用 Claude 给自己做了一个私人的“Clawd 助理”,一个太空龙虾(项目的吉祥物)。

  • 2026 年 1 月:正式把项目以 Clawdbot名义开源,上线 GitHub 和 clawd.bot 网站;几周内 GitHub star 从几千涨到两三万,近期已经突破四万多星,成为当前增速最快的一批开源项目之一。

短时间内吸引了几十位贡献者和几千人的 Discord 社区;不少安全专家、AI 大 V(包括 Karpathy 等)在 X 上讨论它。

简单说:这是一个“退休的 PDF SDK 大神回归搞 AI 代理”的项目,不是匿名小玩具。

3. Clawdbot 为什么突然火?(背后几个关键点)

运行形态:完全自己托管,本地 first

Clawdbot 是MIT 协议开源,你在自己的设备上跑:Mac、Linux、Windows(含 WSL2)、树莓派、甚至 VPS。

默认推荐场景:

家里一台 M 系列 Mac mini(低功耗 24/7 跑代理);

或云上 5 美金一月的 VPS(DigitalOcean/Hetzner 一类)。

模型可以接:

Anthropic Claude(官方强推 Pro/Max + Opus 4.5);OpenAI、MiniMax 等;也可以通过 Ollama 等接本地 LLM。

结果:数据和自动化逻辑都“在你这边”,不是 SaaS 平台;成本结构变成“硬件 + API 费用”(Claude / OpenAI),Clawdbot 本身免费;非常符合“开发者自己握住基础设施”和“隐私控制”的情绪。

能力边界:从“会聊”到“会干活”

对比一下传统聊天机器人,它多了几个关键点:

①多通道统一入口

同一个助手可以同时挂在 WhatsApp、Telegram、Slack、Discord、Signal、iMessage、Microsoft Teams、Google Chat、WebChat 等;对你来说“一个人”,对技术上是一个 multi-channel inbox + session 模型。

②持续记忆 & 主动唤醒

Clawdbot 有长期记忆(Markdown/向量检索等),不会像 ChatGPT 一关 tab 就失忆;可以定时给你发早间简报、突发提醒、监控邮件/行情并主动 ping 你。

③真实“动手能力”

通过工具 + shell 权限,它能执行系统命令、写脚本、操作文件、控浏览器、帮你登录网站、发邮件、改 Todo、控制智能家居等;这也是为什么安全圈那篇文章标题是“Clawdbot is what happens when AI gets root access”(给 AI root 权限会发生什么)。

④多 Agent 编排

支持跑多个专职 agent:coding agent、research agent、生活事务 agent,之间通过路由协作;内部有 multi-agent routing、subagent、tool sandbox 的架构。

4. 技术栈 & 体系结构

Clawdbot 基本是一个完整 agent runtime 的 case:

底层吃 infra(Mac / VPS),上面挂 LLM providers(Anthropic / OpenAI 等),对外连各种 API / 网站,对内有 memory、skills、hooks。

TechStack 总览:一张“结构图”先立起来

用熟悉技术堆栈图的 L0–Lx 分层,抽象成:

L0:Compute & Network

Mac mini / VPS / 家用服务器 + 公网 / VPN / Tailscale,L0 是一个 “轻 CPU / 高连接数 / I/O 密集” 形态,而不是 GPU node。

L1:OS & Runtime

macOS / Linux / WSL2 + Node.js / Bun + systemd / daemon,L1 决定了 可靠性和可恢复性:使用 systemd / launchd / daemon 模式保证 gateway 崩溃后自动重启;本地文件系统用于持久化 config / memory / logs。

L2:Gateway & Control Plane(Clawdbot 核心)

CLI、Gateway 进程、配置系统、队列、health、logging,Agentic OS 的 Control Plane / Service Mesh,为上层的 agent loop / tools / channels 提供:路由、限流、健康检查、配置、发现。

L3:Agent Loop & Context 层

Agent 定义 / system prompt / 会话、队列、multi-agent routing、tool policy,L3 是 “Agent 行为模型层”,已经天然支持多 agent 协作、tool-use、long-running loop,比传统“LangChain-style 单轮工具调用”更接近真实生产工作流。

L4:LLM & Provider 抽象层

Anthropic / OpenAI / Bedrock / OpenRouter / local models (Ollama 等),含 failover、usage tracking,这一层是 模型路由 / failover / 成本优化 的关键:同一个 Agent 可以针对不同任务切不同模型(例如 Claude for reasoning,便宜模型处理大宗任务),甚至跑在 Vercel AI Gateway 等中间层后面。

L5:Tools / Skills / MCP / Browser / Exec 层

HTTP tools、浏览器、文件系统、插件、Clawdhub 技能、MCP / external tools,TechStack 模型中,这一层是:Workload-Specific Tools / Skill Fabric”——决定一个 agent 能在多大范围内 真正“做事”而不是只聊天。

L6:Channels & Surfaces

WhatsApp / Telegram / Slack / Discord / Signal / iMessage / WebChat / TUI / Voice,L6 决定了 agent 的“入口形态”:既可以像传统 ChatBot 一样等待用户输入;也可以利用 channel & hooks 主动发消息(“会先找你说话”的 agent)。

L7:Automation & Hooks & Memory

Cron、Webhook、Gmail Pub/Sub、Auth monitoring、Markdown memory、compaction、session pruning,L7 是Stateful Automation + Memory Fabric——决定 agent 是否能从“一次性工具”进化为“长期贴身助手 / 后台进程”。

上面再横切三条 cross-cutting:

Security(sandbox vs elevated、OAuth、API keys、hardening)、

Observability & Ops(doctor、status、logs、health、heartbeat)、

Remote / multi-gateway / discovery(Tailscale、remote gateway、Bonjour)。

从“技术栈”到“agentic 生态位”的三个关键点

从这套栈拆下来,其实可以更精确地说:

①Clawdbot 自身是“Agent Runtime × Control Plane” 生态位:

L2–L4 把“模型 + tools + channels + memory”统一在一个 runtime 里;技术上它可以接任意 LLM provider 和工具,位置类似「本地版 LangGraph × multi-channel gateway × MCP client」。

②围绕 Clawdbot / agentic 的“流量基础设施” 生态位:

LLM 成本网关(Cloudflare AI Gateway、Vercel AI Gateway 等);API / 网站侧的 WAF / Bot Management / AI Security Suite,用来挡这些 agentic 流量和 prompt injection。L4 模型层 & L5 tools 层带来的 token / API 暴增,会自然催生:

③安全 & hardening 生态位:

社区已经有安全报告和 Reddit 讨论指出配置不当会直接 dump 出 Anthropic API keys 等敏感信息;这意味着除了 Clawdbot 自己的 security 文档,对企业来说还会有专门的 hardening 工具链、policy engine、Zero Trust for AI 等一整套栈。

映射的投资机会有哪些?

一、Consumer / Personal:端侧 AI + Agent 宿主机 Rail

Clawdbot + Mac mini 证明:高频、私密、个性化的 Agent 工作,可以在端侧(Mac / AI PC / 高端手机)长驻运行。Cloud 训练、全局大模型继续在超大机房;但推理 + 个性化 + 系统级功能,越来越多被丢到端侧 NPU/统一内存上。

(1) 端侧整机 / SoC 控制权玩家

Apple:控制M/A 系列 SoC + 统一内存 + macOS/iOS + Apple Intelligence,把“能否用 AI 功能”直接绑到硬件门槛上 → 换机阀门。

Windows Copilot+ PC 生态:MSFT + Qualcomm/Intel/AMD,“没有 NPU 45+ TOPS 就不是 Copilot+ PC”,标志着 PC 进入NPU 标配化。

关键:谁能把 AI 功能做成“硬件 gating + OS 深度整合”,谁就有更高的 ASP + 更强换机周期控制权。

通用 Edge AI 硬件 / MCU 供应链

Edge AI 硬件整体:2025–2030 从 ~261 亿美金 → ~589–688 亿,CAGR ≈ 17–18%。IoT MCU 市场 2030 预计 ~73 亿美金,CAGR ~6.3%,驱动之一就是工业/消费 Edge AI。

这里的机会更分散,适合当作“端侧 AI 硬件 Beta 池”而不是单点 all-in:

手机/PC SoC(Qualcomm、Apple、Intel/AMD NPU);

各类 Edge SoC / MCU / ISP(NXP、TI、Ambarella 等)。

二、Cloud / 网络:AI Gateway & 效率层 Rail

Agent 世界里,“算力贵 + 调用密” → 必须要有一层AI Gateway + 边缘推理平台:统一路由、缓存、限流、成本计量;过滤无效/恶意请求;在边缘/PoP 上先做一层判断,再决定要不要打到最贵的大模型。

代表玩家 & 机会

(1) Cloudflare(NET)型:AI 收费站 + 效率层

AI Gateway:收口所有 LLM 调用,做日志、路由、速率限制、缓存、成本模型。

Workers AI / Agents:在 Cloudflare 边缘直接跑推理,按 “neurons” / 请求计费。

Alpha 不是多一块 HBM,而是:在给定 GPU/电力的前提下,用路由/缓存/多模型选择/安全,把单位算力变成更多有效 Agent 工作。

(2) 提供“AI 观测 &预算控制”的工具

Datadog LLM Observability + Agent Monitoring:

对每条 agent 链路做 trace:输入/输出/延迟/token/错误/工具调用/推理步骤;帮企业看清“哪些用云、哪些可下沉到边/端”。

可以把 NET / DDOG 视为同一条“效率 +治理 rail”:

一个站在网络边缘、一个站在 observability / SecOps 中台,

都吃 Agent/LLM 使用量的长周期增量,而不是直接押 GPU 量。

三、AI 安全 & 身份:Agent Attack Surface Rail

AI 代理 =有钥匙、有手脚、有记忆的“机器身份”;

Prompt injection / 数据泄露 / 工具滥用 / session smuggling 变成新攻击面;

企业必须在身份 + Zero Trust + runtime security + AI layer 防护上开新预算池。

2. 代表玩家 & 机会映射

(1) Runtime & LLM/Agent 安全

Palo Alto Networks(PANW)Prisma AIRS:AI 安全平台,明确防护 prompt 注入、数据泄露、恶意代码、模型滥用等。

CrowdStrike(CRWD)Falcon AIDR:AI Detection & Response,专门看prompt 层 + Agent 使用,提供可见性与自动响应。

(2) 身份 & Zero Trust & 通道控制

CRWD 收购 SGNL,把“连续身份评估”扩到机器/AI 身份,是 Agent 时代的必要层;

Zscaler / Okta / CyberArk 等:控制 “哪个 Agent / Service 可以访问哪些 API / 数据库 / SaaS”,在多 Agent /多工具拓扑里当 gate。

投资映射:

把这些厂从传统 “Sec SaaS” 篮子里单独拉出来,视作 “Agent Attack Surface Rail” 的核心:

  • Directness:谁的产品直接提“LLM/Agent 安全”;

  • TAM:谁有身份 + 网络 + runtime 的完整一条链。

四、数据 & Agent OS:Data Brain + Agent 平台 Rail

Agent 要真正“懂业务”,离不开干净、集中、治理完好的数据;

更往前一步:数据平台要自己变成Agent 编排平台,否则只是给别人供血。

2. 代表玩家 & 机会

Snowflake(SNOW)逻辑

Data Cloud = 企业数据大脑;

Cortex AI Functions + Cortex Agents + Snowflake Intelligence = 内嵌 Agent 框架;

与 Anthropic 2 亿美元多年的“Agentic AI” 合作,强调高监管行业(金融/医疗)在“数据+Agent OS”上用 SNOW 做内核。

投资视角:

  • SNOW 不只是“数仓”,而是在抢 “企业 Agent OS” 栈位

  • Directness very high:完整 Agent Framework + Data 一体;

  • TAM = 原数仓/分析 + AI/Agent 平台。

同类型还会出现其他选手(Databricks、部分云原生数据平台),但 SNOW 目前在“Agent + 企业数据一体化故事”上讲得最激进。

五、工业:AI 边缘控制器 / 工业 Agent Rail

工业控制(PLC/ DCS):对实时性/确定性/可靠性/合规要求极高;

AI 模型要参与控制闭环,只能贴着现场跑:边缘控制器;

云负责:训练、跨厂分析、数字孪生、统一管理;

边缘控制器负责:质检、预测维护、过程优化、异常检测等的在线推理 + 实时闭环。

2. 西门子 / ROK 等的关键动作

(1) Siemens

Industrial Edge + AI Inference Server:Edge app 形态部署模型推理,和 PLC/vPLC 紧耦合。S7-1500V 虚拟 PLC:控制逻辑本身可以以 vPLC 形式跑在 Edge 环境里,实现PLC + Edge 服务器 + 网关 三合一。

(2) Rockwell(ROK)

Embedded Edge Compute Module:插在 Allen-Bradley 控制平台里,提供本地边缘算力和网关能力。与 NVIDIA:Nemotron Nano SLM → FactoryTalk Design Studio / Copilot,在工业 Edge 跑小语言模型,帮工程/运维修复和设计。

工业 rail 投资映射:

  • Directness:控制 + Edge 平台 + 工业 AI 一体的厂(Siemens / ROK / Schneider / ABB…);

  • TAM:从“只卖 PLC”升级到“卖 AI-ready Edge 控制器 + Edge 平台 License + 云服务”,单设备生命周期价值显著抬升;

  • 这条 rail 的增长,会把一部分 AI 推理从云迁到厂内,但同时拉高云侧对训练、数字孪生、跨厂优化的需求。

Clawdbot + Mac mini 提前让大家看清:边缘个人算力可以承接大量高频、隐私、个性化的 Agent 工作负载,这会把“AI 时代的 CapEx”部分从数据中心搬到终端和边缘。

但从量级和工作负载类型看,它短中期更多改变的是 CapEx 的结构(更多效率层和端侧 SoC 投资),而不是让 hyperscaler 的总体 CapEx 曲线掉头向下。

真正的系统性风险,只会出现在一个极端世界:小模型 + 本地 NPU 足以覆盖绝大多数任务,监管和成本又强迫所有行业走 local-first,而云厂没能及时转型成模型授权和边缘编排平台。目前的现实路径更像是「云–边–端协同 → AI 总 CapEx 高位运行」,而不是「端侧吃掉云」。

本文来源:贝叶斯之美

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章