AI时代每天都有新体验,在这样一个技术爆发的年代,每天都面临颠覆与重构。
最近clawdbot在硅谷刷屏,甚至成为把 Mac mini 都卖脱销的现象开源 AI 代理。
他又有什么不一样?
1. clawdbot到底是什么?
一句话:Clawdbot = “自己托管的 Claude 助理 + 本地自动化操作系统”,不是一个网站,而是你自己机器上跑的 AI 代理框架。
官方和社区的几种典型描述:
“一个你在自己设备上运行的个人 AI 助理”,通过 WhatsApp、Telegram、Slack、Discord、Signal、iMessage、Teams、WebChat 等各种 IM 跟你对话。
核心思想是:Gateway 只是控制平面,真正的产品是那个“会真的干活的助手”本身——能清 inbox、发邮件、管日历、查航班并帮你值机。
很多文章直接叫它“Claude with hands”(有手有脚的 Claude):既能聊天,又能跑脚本、控浏览器、动文件系统。
2. 谁开发的?背景是啥?
作者:Peter Steinberger(@steipete)
奥地利软件工程师,之前最有名的身份是PSPDFKit 创始人——一个面向 iOS/Android/Web 的 PDF SDK,公司后来更名为 Nutrient 并被私募收购,他相当于“财务自由退役的 dev 创业者”。
Clawdbot 出来之前,他就写过一篇很火的长文《Claude Code is my computer》,讲自己怎么用 Claude Code 当“远程操作系统”,让模型控制整台 macOS。Clawdbot其实就是把那套个人实验,系统化 + 开源化之后的产物。
时间线大致是:
-
2025 年末:他先用 Claude 给自己做了一个私人的“Clawd 助理”,一个太空龙虾(项目的吉祥物)。
-
2026 年 1 月:正式把项目以 Clawdbot名义开源,上线 GitHub 和 clawd.bot 网站;几周内 GitHub star 从几千涨到两三万,近期已经突破四万多星,成为当前增速最快的一批开源项目之一。
短时间内吸引了几十位贡献者和几千人的 Discord 社区;不少安全专家、AI 大 V(包括 Karpathy 等)在 X 上讨论它。
简单说:这是一个“退休的 PDF SDK 大神回归搞 AI 代理”的项目,不是匿名小玩具。
3. Clawdbot 为什么突然火?(背后几个关键点)
运行形态:完全自己托管,本地 first
Clawdbot 是MIT 协议开源,你在自己的设备上跑:Mac、Linux、Windows(含 WSL2)、树莓派、甚至 VPS。
默认推荐场景:
家里一台 M 系列 Mac mini(低功耗 24/7 跑代理);
或云上 5 美金一月的 VPS(DigitalOcean/Hetzner 一类)。
模型可以接:
Anthropic Claude(官方强推 Pro/Max + Opus 4.5);OpenAI、MiniMax 等;也可以通过 Ollama 等接本地 LLM。
结果:数据和自动化逻辑都“在你这边”,不是 SaaS 平台;成本结构变成“硬件 + API 费用”(Claude / OpenAI),Clawdbot 本身免费;非常符合“开发者自己握住基础设施”和“隐私控制”的情绪。
能力边界:从“会聊”到“会干活”
对比一下传统聊天机器人,它多了几个关键点:
①多通道统一入口
同一个助手可以同时挂在 WhatsApp、Telegram、Slack、Discord、Signal、iMessage、Microsoft Teams、Google Chat、WebChat 等;对你来说“一个人”,对技术上是一个 multi-channel inbox + session 模型。
②持续记忆 & 主动唤醒
Clawdbot 有长期记忆(Markdown/向量检索等),不会像 ChatGPT 一关 tab 就失忆;可以定时给你发早间简报、突发提醒、监控邮件/行情并主动 ping 你。
③真实“动手能力”
通过工具 + shell 权限,它能执行系统命令、写脚本、操作文件、控浏览器、帮你登录网站、发邮件、改 Todo、控制智能家居等;这也是为什么安全圈那篇文章标题是“Clawdbot is what happens when AI gets root access”(给 AI root 权限会发生什么)。
④多 Agent 编排
支持跑多个专职 agent:coding agent、research agent、生活事务 agent,之间通过路由协作;内部有 multi-agent routing、subagent、tool sandbox 的架构。
4. 技术栈 & 体系结构
Clawdbot 基本是一个完整 agent runtime 的 case:
底层吃 infra(Mac / VPS),上面挂 LLM providers(Anthropic / OpenAI 等),对外连各种 API / 网站,对内有 memory、skills、hooks。
TechStack 总览:一张“结构图”先立起来

用熟悉技术堆栈图的 L0–Lx 分层,抽象成:
L0:Compute & Network
Mac mini / VPS / 家用服务器 + 公网 / VPN / Tailscale,L0 是一个 “轻 CPU / 高连接数 / I/O 密集” 形态,而不是 GPU node。
L1:OS & Runtime
macOS / Linux / WSL2 + Node.js / Bun + systemd / daemon,L1 决定了 可靠性和可恢复性:使用 systemd / launchd / daemon 模式保证 gateway 崩溃后自动重启;本地文件系统用于持久化 config / memory / logs。
L2:Gateway & Control Plane(Clawdbot 核心)
CLI、Gateway 进程、配置系统、队列、health、logging,Agentic OS 的 Control Plane / Service Mesh,为上层的 agent loop / tools / channels 提供:路由、限流、健康检查、配置、发现。
L3:Agent Loop & Context 层
Agent 定义 / system prompt / 会话、队列、multi-agent routing、tool policy,L3 是 “Agent 行为模型层”,已经天然支持多 agent 协作、tool-use、long-running loop,比传统“LangChain-style 单轮工具调用”更接近真实生产工作流。
L4:LLM & Provider 抽象层
Anthropic / OpenAI / Bedrock / OpenRouter / local models (Ollama 等),含 failover、usage tracking,这一层是 模型路由 / failover / 成本优化 的关键:同一个 Agent 可以针对不同任务切不同模型(例如 Claude for reasoning,便宜模型处理大宗任务),甚至跑在 Vercel AI Gateway 等中间层后面。
L5:Tools / Skills / MCP / Browser / Exec 层
HTTP tools、浏览器、文件系统、插件、Clawdhub 技能、MCP / external tools,TechStack 模型中,这一层是:Workload-Specific Tools / Skill Fabric”——决定一个 agent 能在多大范围内 真正“做事”而不是只聊天。
L6:Channels & Surfaces
WhatsApp / Telegram / Slack / Discord / Signal / iMessage / WebChat / TUI / Voice,L6 决定了 agent 的“入口形态”:既可以像传统 ChatBot 一样等待用户输入;也可以利用 channel & hooks 主动发消息(“会先找你说话”的 agent)。
L7:Automation & Hooks & Memory
Cron、Webhook、Gmail Pub/Sub、Auth monitoring、Markdown memory、compaction、session pruning,L7 是Stateful Automation + Memory Fabric——决定 agent 是否能从“一次性工具”进化为“长期贴身助手 / 后台进程”。
上面再横切三条 cross-cutting:
Security(sandbox vs elevated、OAuth、API keys、hardening)、
Observability & Ops(doctor、status、logs、health、heartbeat)、
Remote / multi-gateway / discovery(Tailscale、remote gateway、Bonjour)。
从“技术栈”到“agentic 生态位”的三个关键点
从这套栈拆下来,其实可以更精确地说:
①Clawdbot 自身是“Agent Runtime × Control Plane” 生态位:
L2–L4 把“模型 + tools + channels + memory”统一在一个 runtime 里;技术上它可以接任意 LLM provider 和工具,位置类似「本地版 LangGraph × multi-channel gateway × MCP client」。
②围绕 Clawdbot / agentic 的“流量基础设施” 生态位:
LLM 成本网关(Cloudflare AI Gateway、Vercel AI Gateway 等);API / 网站侧的 WAF / Bot Management / AI Security Suite,用来挡这些 agentic 流量和 prompt injection。L4 模型层 & L5 tools 层带来的 token / API 暴增,会自然催生:
③安全 & hardening 生态位:
社区已经有安全报告和 Reddit 讨论指出配置不当会直接 dump 出 Anthropic API keys 等敏感信息;这意味着除了 Clawdbot 自己的 security 文档,对企业来说还会有专门的 hardening 工具链、policy engine、Zero Trust for AI 等一整套栈。
映射的投资机会有哪些?
一、Consumer / Personal:端侧 AI + Agent 宿主机 Rail
Clawdbot + Mac mini 证明:高频、私密、个性化的 Agent 工作,可以在端侧(Mac / AI PC / 高端手机)长驻运行。Cloud 训练、全局大模型继续在超大机房;但推理 + 个性化 + 系统级功能,越来越多被丢到端侧 NPU/统一内存上。
(1) 端侧整机 / SoC 控制权玩家
Apple:控制M/A 系列 SoC + 统一内存 + macOS/iOS + Apple Intelligence,把“能否用 AI 功能”直接绑到硬件门槛上 → 换机阀门。
Windows Copilot+ PC 生态:MSFT + Qualcomm/Intel/AMD,“没有 NPU 45+ TOPS 就不是 Copilot+ PC”,标志着 PC 进入NPU 标配化。
关键:谁能把 AI 功能做成“硬件 gating + OS 深度整合”,谁就有更高的 ASP + 更强换机周期控制权。
通用 Edge AI 硬件 / MCU 供应链
Edge AI 硬件整体:2025–2030 从 ~261 亿美金 → ~589–688 亿,CAGR ≈ 17–18%。IoT MCU 市场 2030 预计 ~73 亿美金,CAGR ~6.3%,驱动之一就是工业/消费 Edge AI。
这里的机会更分散,适合当作“端侧 AI 硬件 Beta 池”而不是单点 all-in:
手机/PC SoC(Qualcomm、Apple、Intel/AMD NPU);
各类 Edge SoC / MCU / ISP(NXP、TI、Ambarella 等)。
二、Cloud / 网络:AI Gateway & 效率层 Rail
Agent 世界里,“算力贵 + 调用密” → 必须要有一层AI Gateway + 边缘推理平台:统一路由、缓存、限流、成本计量;过滤无效/恶意请求;在边缘/PoP 上先做一层判断,再决定要不要打到最贵的大模型。
代表玩家 & 机会
(1) Cloudflare(NET)型:AI 收费站 + 效率层
AI Gateway:收口所有 LLM 调用,做日志、路由、速率限制、缓存、成本模型。
Workers AI / Agents:在 Cloudflare 边缘直接跑推理,按 “neurons” / 请求计费。
Alpha 不是多一块 HBM,而是:在给定 GPU/电力的前提下,用路由/缓存/多模型选择/安全,把单位算力变成更多有效 Agent 工作。
(2) 提供“AI 观测 &预算控制”的工具
Datadog LLM Observability + Agent Monitoring:
对每条 agent 链路做 trace:输入/输出/延迟/token/错误/工具调用/推理步骤;帮企业看清“哪些用云、哪些可下沉到边/端”。
可以把 NET / DDOG 视为同一条“效率 +治理 rail”:
一个站在网络边缘、一个站在 observability / SecOps 中台,
都吃 Agent/LLM 使用量的长周期增量,而不是直接押 GPU 量。
三、AI 安全 & 身份:Agent Attack Surface Rail
AI 代理 =有钥匙、有手脚、有记忆的“机器身份”;
Prompt injection / 数据泄露 / 工具滥用 / session smuggling 变成新攻击面;
企业必须在身份 + Zero Trust + runtime security + AI layer 防护上开新预算池。
2. 代表玩家 & 机会映射
(1) Runtime & LLM/Agent 安全
Palo Alto Networks(PANW)Prisma AIRS:AI 安全平台,明确防护 prompt 注入、数据泄露、恶意代码、模型滥用等。
CrowdStrike(CRWD)Falcon AIDR:AI Detection & Response,专门看prompt 层 + Agent 使用,提供可见性与自动响应。
(2) 身份 & Zero Trust & 通道控制
CRWD 收购 SGNL,把“连续身份评估”扩到机器/AI 身份,是 Agent 时代的必要层;
Zscaler / Okta / CyberArk 等:控制 “哪个 Agent / Service 可以访问哪些 API / 数据库 / SaaS”,在多 Agent /多工具拓扑里当 gate。
投资映射:
把这些厂从传统 “Sec SaaS” 篮子里单独拉出来,视作 “Agent Attack Surface Rail” 的核心:
Directness:谁的产品直接提“LLM/Agent 安全”;
TAM:谁有身份 + 网络 + runtime 的完整一条链。
四、数据 & Agent OS:Data Brain + Agent 平台 Rail
Agent 要真正“懂业务”,离不开干净、集中、治理完好的数据;
更往前一步:数据平台要自己变成Agent 编排平台,否则只是给别人供血。
2. 代表玩家 & 机会
Snowflake(SNOW)逻辑
Data Cloud = 企业数据大脑;
Cortex AI Functions + Cortex Agents + Snowflake Intelligence = 内嵌 Agent 框架;
与 Anthropic 2 亿美元多年的“Agentic AI” 合作,强调高监管行业(金融/医疗)在“数据+Agent OS”上用 SNOW 做内核。
投资视角:
SNOW 不只是“数仓”,而是在抢 “企业 Agent OS” 栈位,
Directness very high:完整 Agent Framework + Data 一体;
TAM = 原数仓/分析 + AI/Agent 平台。
同类型还会出现其他选手(Databricks、部分云原生数据平台),但 SNOW 目前在“Agent + 企业数据一体化故事”上讲得最激进。
五、工业:AI 边缘控制器 / 工业 Agent Rail
工业控制(PLC/ DCS):对实时性/确定性/可靠性/合规要求极高;
AI 模型要参与控制闭环,只能贴着现场跑:边缘控制器;
云负责:训练、跨厂分析、数字孪生、统一管理;
边缘控制器负责:质检、预测维护、过程优化、异常检测等的在线推理 + 实时闭环。
2. 西门子 / ROK 等的关键动作
(1) Siemens
Industrial Edge + AI Inference Server:Edge app 形态部署模型推理,和 PLC/vPLC 紧耦合。S7-1500V 虚拟 PLC:控制逻辑本身可以以 vPLC 形式跑在 Edge 环境里,实现PLC + Edge 服务器 + 网关 三合一。
(2) Rockwell(ROK)
Embedded Edge Compute Module:插在 Allen-Bradley 控制平台里,提供本地边缘算力和网关能力。与 NVIDIA:Nemotron Nano SLM → FactoryTalk Design Studio / Copilot,在工业 Edge 跑小语言模型,帮工程/运维修复和设计。
工业 rail 投资映射:
-
Directness:控制 + Edge 平台 + 工业 AI 一体的厂(Siemens / ROK / Schneider / ABB…);
-
TAM:从“只卖 PLC”升级到“卖 AI-ready Edge 控制器 + Edge 平台 License + 云服务”,单设备生命周期价值显著抬升;
-
这条 rail 的增长,会把一部分 AI 推理从云迁到厂内,但同时拉高云侧对训练、数字孪生、跨厂优化的需求。
Clawdbot + Mac mini 提前让大家看清:边缘个人算力可以承接大量高频、隐私、个性化的 Agent 工作负载,这会把“AI 时代的 CapEx”部分从数据中心搬到终端和边缘。
但从量级和工作负载类型看,它短中期更多改变的是 CapEx 的结构(更多效率层和端侧 SoC 投资),而不是让 hyperscaler 的总体 CapEx 曲线掉头向下。
真正的系统性风险,只会出现在一个极端世界:小模型 + 本地 NPU 足以覆盖绝大多数任务,监管和成本又强迫所有行业走 local-first,而云厂没能及时转型成模型授权和边缘编排平台。目前的现实路径更像是「云–边–端协同 → AI 总 CapEx 高位运行」,而不是「端侧吃掉云」。
本文来源:贝叶斯之美




