发布信息

【行业观察】"龙虾"失宠后,200万企业正在迁移的AI助手新选择

作者:本站编辑      2026-04-12 15:46:57     0
【行业观察】"龙虾"失宠后,200万企业正在迁移的AI助手新选择

作者:刘锐

前言

过去一周,我被问了不下30遍这个问题——"OpenClaw不让用了,该换什么?"背后是无数企业IT负责人、技术总监、甚至CIO的焦虑。

他们不是追概念的极客,他们要的是稳定,合规、长期有价值的东西

今天用一篇长文,把这件事彻底讲清楚。

一、"龙虾"到底出了什么问题?

1.1 先说它为什么火

OpenClaw的核心创新是"通用电脑操控"——它不像之前的AI助手只能对话,它能直接操作你的电脑桌面:打开浏览器、点击按钮、填表单、发邮件、操作文件。

它火,是因为它真的戳中了痛点。

1.2 安全问题是怎么爆发的

2026年1月15日,安全研究员发布了一份分析报告,详细列举了OpenClaw的258个安全漏洞。

其中12个被标记为Critical(超危),最严重的一个允许攻击者通过恶意网页完全接管用户的OpenClaw会话——包括读取本地文件、窃取API密钥。

真正让企业IT部门崩溃的是默认配置问题:

• OpenClaw在默认安装状态下,会将用户操作日志以明文形式存储在本地目录

• 特定配置下会被同步到云端备份

• 默认申请了"完全磁盘访问"和"辅助功能"权限

1.3 为什么企业反应这么快

早在2025年底,国内就已经对AI应用的数据安全管控明显收紧。

漏洞可以打补丁。但架构设计思路不改变,打了补丁还是不能用。

一位证券公司技术总监的原话是:"我们不是不能接受有漏洞的开源软件,但不能接受一个把'数据开放'当作默认设计的系统。"

二、现在大家都在用什么?

2.1 第一类:技术团队的首选——Hermes Agent

Hermes Agent由Nous Research开发,MIT协议,完全开源,免费使用。

核心差异:自进化 vs 工具箱

OpenClaw是工具箱模式:每次任务独立,经验不累积

Hermes是自进化模式:每次完成任务自动写成Skill文件,下次遇到类似任务直接调用

这才是"AI助手"应该有的样子——不是工具,而是助手,能学习、能成长。

2.2 第二类:国产自研——高安全合规场景首选

金融、央企、政务、教育、医疗——这些行业对数据主权有硬性监管要求,合规是一票否决项。

Copaw(阿里云通义实验室)

• 深度本土化:原生支持飞书、钉钉、企业微信

• Apache 2.0开源协议

• 央企已落地案例

LobsterAI(网易有道)

• 本地优先,数据不离开本地网络

• 沙箱隔离设计彻底

HiClaw(阿里云)

• 多Agent协作架构

• 适合团队场景

2.3 第三类:托管版——开箱即用,不想运维的选这个

KimiClaw(¥199/月):飞书深度集成

MaxClaw(¥39/月):最便宜的托管方案

QClaw(内测免费):微信/QQ生态接入

Molili(免费):中文语境支持最全面

三、企业落地,关键在架构

3.1 为什么GPU是必选项

如果你的场景是调用云端API处理对话,那GPU不是必须的。

但如果需要私有化部署大模型支撑多用户并发,GPU就是必选项。

核心原因:大模型的推理计算量非常大,CPU的并行计算能力远不如GPU。

3.2 推理引擎的选择

引擎特点生产可用性
vLLMPagedAttention技术,吞吐最高⭐⭐⭐⭐⭐ 生产首选
Ollama一键运行,极简体验⭐⭐⭐ 开发测试
llama.cppCPU/GPU通用,量化算法优秀⭐⭐⭐⭐ 低配首选

3.3 企业级架构八层

用户交互层:CLI终端 | Web后台 | 语音输入 | 桌面APP

网关/消息层:Telegram | 企业微信 | 飞书/钉钉

Agent核心层:Hermes | Copaw | LobsterAI | HiClaw

工具层:终端执行 | 浏览器自动化 | MCP协议 | Skill技能库

模型层:Qwen2.5 | DeepSeek | Llama 3.1 | OpenRouter

知识库/记忆层:向量数据库 | RAG检索 | SQLite+FTS5记忆

GPU算力层:H100×8 | RTX 4090×4 | Ollama/vLLM

企业数据层:业务数据库 | CRM/ERP | 文档知识库

⚠️ 重要提醒:Anthropic从2026年4月7日起调整了API计费方式,建议新手先用OpenRouter免费模型跑通流程。

四、三档配置方案

入门档:¥3-5万

适用场景:30人以下团队,验证阶段

• RTX 4090 × 1(24GB显存)

• 能跑:Llama 3.1 7B/8B、Qwen2.5 7B/14B

• 并发能力:1-5人

标准档:¥20-40万

适用场景:100人以下中型企业,验证通过,正式投产

• H100 SXM / H200 × 2(80GB×2)

• 能跑:Qwen2.5 72B FP16、DeepSeek 67B FP16

• 并发能力:20-50人

旗舰档:¥80-120万

适用场景:企业总部,数据中心,大规模部署

• 8×H100 SXM(80GB×8)

• 能跑:Llama 3.1 405B FP16

• 并发能力:100人以上

GPU选型核心参考数据

型号显存参考价格适合场景
H100 SXM80GB HBM3¥25-30万/卡企业级推理/训练
H200 SXM80GB HBM3e¥30-35万/卡企业级推理
RTX 409024GB GDDR6X¥1.5-2.5万/卡入门级/个人
A100 SXM80GB HBM2e¥8-12万/卡性价比企业级

五、选型决策框架

第一步:回答三个根本问题

问题1:你的数据安全等级是什么?

• 普通企业数据 → 任何方案都可以

• 客户隐私数据 → 需要本地部署或可信云

• 金融/政务/医疗核心数据 → 强制纯国产方案+等保三级

问题2:你有没有技术团队运维?

• 有专职AI/Infra团队 → Hermes + 私有部署

• 有基础技术能力 → Copaw/LobsterAI

• 完全没有 → 托管方案

问题3:你的预算模式是什么?

• 一次性硬件投入 → 私有部署,总成本更低

• 按月订阅 → 托管方案

一句话选型建议

你的情况推荐选择核心理由
有技术团队,想长期运营Hermes Agent免费开源,自进化
金融/政务/高校,硬性合规Copaw / LobsterAI纯国产,等保三级
不想运维,想要快速见效KimiClaw / MaxClaw托管服务,买了就能用
微信/QQ生态重度用户QClaw腾讯背书,微信原生接入
想验证效果,不想大投入MaxClaw(¥39/月)最低成本试水

六、迁移路径

阶段一:评估(第1-3天)

• 梳理当前OpenClaw的使用场景

• 确认新方案能否覆盖核心场景

阶段二:选型测试(第4-10天)

• 在测试环境部署候选方案

• 用真实业务场景跑1周

阶段三:数据迁移(第11-13天)

hermes claw migrate

阶段四:并行运行(第14-21天)

• 新旧系统并行运行

• 逐步把流量从旧系统切到新系统

阶段五:正式切换(第22天起)

• 关闭OpenClaw

• 清理OpenClaw残留数据

七、写在最后

龙虾的陨落,不是AI Agent的终局,
而是AI Agent走向成熟的起点。

对企业的建议:

1. 不要追最新最强的概念——等技术成熟、案例沉淀后再跟进

2. 安全合规不是成本,是投资——出事之后的代价远大于事前投入

3. 选型之前先跑通流程——花¥39/月先试托管,验证效果再决定

4. 迁移成本没有想象中高——工具在进化,迁移工具也在进化

? 扫码关注公众号【算力极客】

免责声明:本文所载内容,本人不为其真实性负责,只为传播网络信息为目的,如有异议请及时联系,本人将予以删除。所有信息仅供在新媒体背景下的研究观点交流,普通个人投资者有可能由于获得的信息不完整,缺乏对解读能力,可能会得出有差异的结论。

相关内容 查看全部