作者:刘锐
前言
过去一周,我被问了不下30遍这个问题——"OpenClaw不让用了,该换什么?"背后是无数企业IT负责人、技术总监、甚至CIO的焦虑。
他们不是追概念的极客,他们要的是稳定,合规、长期有价值的东西。
今天用一篇长文,把这件事彻底讲清楚。
一、"龙虾"到底出了什么问题?
1.1 先说它为什么火
OpenClaw的核心创新是"通用电脑操控"——它不像之前的AI助手只能对话,它能直接操作你的电脑桌面:打开浏览器、点击按钮、填表单、发邮件、操作文件。
它火,是因为它真的戳中了痛点。
1.2 安全问题是怎么爆发的
2026年1月15日,安全研究员发布了一份分析报告,详细列举了OpenClaw的258个安全漏洞。
其中12个被标记为Critical(超危),最严重的一个允许攻击者通过恶意网页完全接管用户的OpenClaw会话——包括读取本地文件、窃取API密钥。
真正让企业IT部门崩溃的是默认配置问题:
• OpenClaw在默认安装状态下,会将用户操作日志以明文形式存储在本地目录
• 特定配置下会被同步到云端备份
• 默认申请了"完全磁盘访问"和"辅助功能"权限
1.3 为什么企业反应这么快
早在2025年底,国内就已经对AI应用的数据安全管控明显收紧。
漏洞可以打补丁。但架构设计思路不改变,打了补丁还是不能用。
一位证券公司技术总监的原话是:"我们不是不能接受有漏洞的开源软件,但不能接受一个把'数据开放'当作默认设计的系统。"
二、现在大家都在用什么?
2.1 第一类:技术团队的首选——Hermes Agent
Hermes Agent由Nous Research开发,MIT协议,完全开源,免费使用。
核心差异:自进化 vs 工具箱
• OpenClaw是工具箱模式:每次任务独立,经验不累积
• Hermes是自进化模式:每次完成任务自动写成Skill文件,下次遇到类似任务直接调用
这才是"AI助手"应该有的样子——不是工具,而是助手,能学习、能成长。
2.2 第二类:国产自研——高安全合规场景首选
对金融、央企、政务、教育、医疗——这些行业对数据主权有硬性监管要求,合规是一票否决项。
Copaw(阿里云通义实验室)
• 深度本土化:原生支持飞书、钉钉、企业微信
• Apache 2.0开源协议
• 央企已落地案例
LobsterAI(网易有道)
• 本地优先,数据不离开本地网络
• 沙箱隔离设计彻底
HiClaw(阿里云)
• 多Agent协作架构
• 适合团队场景
2.3 第三类:托管版——开箱即用,不想运维的选这个
• KimiClaw(¥199/月):飞书深度集成
• MaxClaw(¥39/月):最便宜的托管方案
• QClaw(内测免费):微信/QQ生态接入
• Molili(免费):中文语境支持最全面
三、企业落地,关键在架构
3.1 为什么GPU是必选项
如果你的场景是调用云端API处理对话,那GPU不是必须的。
但如果需要私有化部署大模型或支撑多用户并发,GPU就是必选项。
核心原因:大模型的推理计算量非常大,CPU的并行计算能力远不如GPU。
3.2 推理引擎的选择
| 引擎 | 特点 | 生产可用性 |
|---|---|---|
| vLLM | PagedAttention技术,吞吐最高 | ⭐⭐⭐⭐⭐ 生产首选 |
| Ollama | 一键运行,极简体验 | ⭐⭐⭐ 开发测试 |
| llama.cpp | CPU/GPU通用,量化算法优秀 | ⭐⭐⭐⭐ 低配首选 |
3.3 企业级架构八层
① 用户交互层:CLI终端 | Web后台 | 语音输入 | 桌面APP
② 网关/消息层:Telegram | 企业微信 | 飞书/钉钉
③ Agent核心层:Hermes | Copaw | LobsterAI | HiClaw
④ 工具层:终端执行 | 浏览器自动化 | MCP协议 | Skill技能库
⑤ 模型层:Qwen2.5 | DeepSeek | Llama 3.1 | OpenRouter
⑥ 知识库/记忆层:向量数据库 | RAG检索 | SQLite+FTS5记忆
⑦ GPU算力层:H100×8 | RTX 4090×4 | Ollama/vLLM
⑧ 企业数据层:业务数据库 | CRM/ERP | 文档知识库
⚠️ 重要提醒:Anthropic从2026年4月7日起调整了API计费方式,建议新手先用OpenRouter免费模型跑通流程。
四、三档配置方案
入门档:¥3-5万
适用场景:30人以下团队,验证阶段
• RTX 4090 × 1(24GB显存)
• 能跑:Llama 3.1 7B/8B、Qwen2.5 7B/14B
• 并发能力:1-5人
标准档:¥20-40万
适用场景:100人以下中型企业,验证通过,正式投产
• H100 SXM / H200 × 2(80GB×2)
• 能跑:Qwen2.5 72B FP16、DeepSeek 67B FP16
• 并发能力:20-50人
旗舰档:¥80-120万
适用场景:企业总部,数据中心,大规模部署
• 8×H100 SXM(80GB×8)
• 能跑:Llama 3.1 405B FP16
• 并发能力:100人以上
GPU选型核心参考数据
| 型号 | 显存 | 参考价格 | 适合场景 |
|---|---|---|---|
| H100 SXM | 80GB HBM3 | ¥25-30万/卡 | 企业级推理/训练 |
| H200 SXM | 80GB HBM3e | ¥30-35万/卡 | 企业级推理 |
| RTX 4090 | 24GB GDDR6X | ¥1.5-2.5万/卡 | 入门级/个人 |
| A100 SXM | 80GB HBM2e | ¥8-12万/卡 | 性价比企业级 |
五、选型决策框架
第一步:回答三个根本问题
问题1:你的数据安全等级是什么?
• 普通企业数据 → 任何方案都可以
• 客户隐私数据 → 需要本地部署或可信云
• 金融/政务/医疗核心数据 → 强制纯国产方案+等保三级
问题2:你有没有技术团队运维?
• 有专职AI/Infra团队 → Hermes + 私有部署
• 有基础技术能力 → Copaw/LobsterAI
• 完全没有 → 托管方案
问题3:你的预算模式是什么?
• 一次性硬件投入 → 私有部署,总成本更低
• 按月订阅 → 托管方案
一句话选型建议
| 你的情况 | 推荐选择 | 核心理由 |
|---|---|---|
| 有技术团队,想长期运营 | Hermes Agent | 免费开源,自进化 |
| 金融/政务/高校,硬性合规 | Copaw / LobsterAI | 纯国产,等保三级 |
| 不想运维,想要快速见效 | KimiClaw / MaxClaw | 托管服务,买了就能用 |
| 微信/QQ生态重度用户 | QClaw | 腾讯背书,微信原生接入 |
| 想验证效果,不想大投入 | MaxClaw(¥39/月) | 最低成本试水 |
六、迁移路径
阶段一:评估(第1-3天)
• 梳理当前OpenClaw的使用场景
• 确认新方案能否覆盖核心场景
阶段二:选型测试(第4-10天)
• 在测试环境部署候选方案
• 用真实业务场景跑1周
阶段三:数据迁移(第11-13天)
hermes claw migrate
阶段四:并行运行(第14-21天)
• 新旧系统并行运行
• 逐步把流量从旧系统切到新系统
阶段五:正式切换(第22天起)
• 关闭OpenClaw
• 清理OpenClaw残留数据
七、写在最后
龙虾的陨落,不是AI Agent的终局,
而是AI Agent走向成熟的起点。
对企业的建议:
1. 不要追最新最强的概念——等技术成熟、案例沉淀后再跟进
2. 安全合规不是成本,是投资——出事之后的代价远大于事前投入
3. 选型之前先跑通流程——花¥39/月先试托管,验证效果再决定
4. 迁移成本没有想象中高——工具在进化,迁移工具也在进化
? 扫码关注公众号【算力极客】

免责声明:本文所载内容,本人不为其真实性负责,只为传播网络信息为目的,如有异议请及时联系,本人将予以删除。所有信息仅供在新媒体背景下的研究观点交流,普通个人投资者有可能由于获得的信息不完整,缺乏对解读能力,可能会得出有差异的结论。
