通信人家园

标题: 耗不起的Token,养不熟的“龙虾”  [查看完整版帖子] [打印本页]

时间:  2026-3-17 10:16
作者: coffee198375     标题: 耗不起的Token,养不熟的“龙虾”

过去一周,开源AI智能体OpenClaw引发的“龙虾”热潮持续发酵。

2026年3月9日-13日,腾讯上线“小龙虾”WorkBuddy,智谱推出“澳龙”AutoClaw,字节火山引擎公布云上SaaS版“龙虾”ArkClaw,阿里发布手机“一键养虾”产品JVSClaw……中国科技厂商竞相入局,进一步推升“龙虾”热度。

地方政府对这一赛道的支持也迅速到位。3月8日,深圳龙岗区率先发布针对OpenClaw的专项扶持政策(“龙虾十条”)。紧随其后,江苏无锡高新区、安徽合肥高新区、浙江杭州萧山区等地也密集出台类似措施,加快AI智能体落地。

资本与政策的“一哄而上”,将一系列根本性问题摆在大众面前:“龙虾”对于个人用户真的有用吗?“养龙虾”的成本究竟有多高?这股热潮带来的是实质性生产力提升,还是又一个喧嚣过后迅速冷却的技术泡沫?

“养龙虾”究竟值不值?

OpenClaw发布于2026年1月29日,因其醒目的龙虾图标而被外界亲切地称为“龙虾”。作为一个开源AI智能体平台,OpenClaw的设计初衷是让AI从“沟通”升级为“执行”,目前其在GitHub已有31.26万“星标(即收藏)”,周内新增数量领跑AI编程榜单。

OpenClaw可以运行在本地(支持macOS、Windows、Linux三大主流系统)或是云端服务器。理想状态下,用户只需对WhatsApp、Telegram等日常应用发出指令,OpenClaw即可完成清空收件箱、发送电子邮件、管理日历、办理航班值机等任务。此外,它还能通过“Skills”机制调用外部API或工具,完成跨应用协同工作。

看上去如此智能的OpenClaw,对于普通用户来说使用门槛却不低。即使最简单的“一键安装”,不同系统的用户先要学会打开“黑窗口(命令行)”,再去复制粘贴“神秘代码”执行安装;过程中自动下载的依赖项和配置权限,对技术小白来说就像天书,只能盲目地跟着网上教程走。安装成功后,每次启动、关闭软件都靠命令行操作,没有熟悉的图标可以点击。原本几分钟的事,不熟悉的用户可能折腾几小时甚至几天。

正因如此,腾讯在3月6日宣布为用户免费安装OpenClaw后,近千人为了一只“龙虾”排起长队,盛况堪比领取“开工利是”。在电商平台,上门安装服务同样火爆,例如在淘宝搜索“OpenClaw安装”,销量排在前列的服务费用多为100-200元。

部署完成只是第一步。OpenClaw与聊天机器人不同,完成指令并非简单的“一问一答”,而是要在理解意图之后,将其拆解成多个子任务(规划),再去调用API或工具执行,最后验证结果是否正确,每一步都可能触发多次模型调用,消耗大量Token。

目前,中国厂商提供了云端部署套餐,也有基于OpenClaw开源代码的本地版“龙虾”,花销相比持续按次计费的海外模型要低一些。不过,这只相当于把“龙虾”领回了家,后续的实际应用成本依然是“无底洞”。

以回复一封邮件为例:OpenClaw要经历规划、执行、验证等多个环节,单次任务就能狂烧10万以上的Token。粗略按照GPT-5.4的费用(输入2.5美元/百万Token、输出15美元/百万Token)估算,一次就要0.25-1.5美元;调用DeepSeek-V3.2的单次成本也要0.028-0.042美元——这只是一次基础任务。

更可怕的是,这些消耗完全发生在“黑盒”中——当任务复杂、需要大量读取文件、调用外部工具或不幸陷入循环时,几封邮件就可能烧掉几十美元。就算OpenClaw只是挂在后台不执行任何任务,它也会因为自身的Heartbeat机制(检查待办事宜机制)而消耗Token。在不对配置进行任何控制的情况下,OpenClaw不存在绝对的消耗上限。

因此,对于非技术人员或没有明确需求的普通人来说,如果仅仅为了整理邮件这类基础任务而投入精力、财力使用“龙虾”,确实不太划算。

从“安装热”到“卸载热”

如果说性价比不高只是劝退用户的第一步,那么接踵而至的使用和安全问题,直接让首批“养虾人”跑路——就在“安装”业务井喷后不久,电商平台的卸载服务便纷纷涌现,同一时期淘宝销量靠前的“OpenClaw卸载”的价格已经与安装费用相当。

这种戏剧性转折的背后,隐藏着不少“翻车”案例。在Reddit OpenClaw社区,有不少用户无奈发帖求助“如何防止OpenClaw在几个小时/一天后忘记上下文?”“用OpenClaw 进行股票交易……结果亏惨了”……

更为严重的是安全问题。“龙虾”能够替代人类执行复杂任务,是因为被授予了极高的系统操作权限。然而,这种权限一旦出现漏洞或被恶意利用,便会产生各类“越界”行为,导致数据泄露、篡改、丢失等失控风险。

极具代表性的案例发生在2026年2月23日,Meta超级智能实验室AI对齐与安全总监Summer Yue在个人邮箱部署OpenClaw处理邮件,指令为“检查收件箱,提出归档/删除建议,我确认后再操作”。然而,应用到真实邮箱时,OpenClaw却开始自行快速删除邮件。Summer Yue通过对话阻止失败,只能冲向MacMini紧急干预。

“事实证明,即使是研究专家也会犯错。我之前过于自信,因为这套工作流程在模拟收件箱里已经运行了好几周。但实际的收件箱完全不一样。”Summer Yue称。

国家网络安全通报中心2026年3月13日披露的数据显示,OpenClaw在架构设计、默认配置、漏洞管理、插件生态、行为管控等方面存在较大的安全风险,历史披露漏洞多达258个,在近期暴露的82个漏洞中,超危和高危漏洞达到33个。

此前,政策层面已有预警。2026年2月5日,工业和信息化部网络安全威胁和漏洞信息共享平台(NVDB)监测发现,OpenClaw部分实例在默认或不当配置的情况下存在较高的安全风险,极易引发网络攻击、信息泄露等安全问题。

2026年3月11日,NVDB发布关于防范OpenClaw开源智能体安全风险的“六要六不要”建议,包括使用官方最新版本、严格控制互联网暴露面、坚持最小权限原则、谨慎使用技能市场、防范社会工程学攻击和浏览器劫持、建立长效防护机制。

次日,中国信通院围绕用户权限可管、执行过程透明、行为风险可控、平台和工具能力可信等方向,宣布启动智能助理智能体(Claw)系列标准编制工作。

以OpenClaw为代表的智能体,是AI从“聊天机器人”迈向“数字员工”的关键探索,技术价值毋庸置疑。不过对大众来说,这类产品还远未到可以放心使用的阶段。高昂的使用门槛、尚不稳定的执行能力、不容忽视的安全风险……都说明它们还需要充分的打磨和验证,而非被迅速部署到设备或云端。

不必神话OpenClaw,更不必因FOMO(错失恐惧)而入局。AI从模型奠基到应用开花,必然经历技术和应用的沉淀,才能真正服务于工作和生活的日常。



时间:  2026-3-17 10:16
作者: coffee198375

让热度再热一会。。。。




通信人家园 (https://www.txrjy.com/) Powered by C114