麻辣小龙虾

硅基物语道荣 预计阅读时间: 7 分钟 1508 字


我用openclaw连续跑了三周高频任务,把能想到的使用场景基本都试了一遍,从日常到应用生成再到数据分析,覆盖得很杂,也很真实。最后得出的结论没有那么复杂,但和很多人的预期是相反的。

在简单任务、模糊任务、允许误差的场景下,AI几乎没有问题,甚至可以说很好用。整理信息、生成内容、给出大致判断,这些事情它做得又快又稳。但只要任务开始要求精确,比如文件命名必须严格一致、数据必须写入指定位置、JSON字段必须完全匹配,准确性就会明显下降。上下文一旦复杂,这种问题只会被放大,而如果上下文不够,它又根本做不了复杂流程。

原因其实很直接。AI擅长的是给出一个大概正确的答案,而数据型workflow要求的是每一步都完全正确。这两者之间没有缓冲空间。

我测试过一个流程,大概十个步骤,包括新建文件、修改JSON字段、在目录中插入内容、再触发后续解析,每一步都不复杂,但它们是强依赖关系,只要其中一个环节出现微小偏差,整个流程就会失效。而且这种失效非常难排查,因为AI的错误通常不是直接报错,而是偏一点点,比如路径错一层、字段名稍微变化、数据结构看起来正常但不符合预期,甚至换一个模型,原本还能运行的流程直接崩掉。

等你发现问题的时候,基本已经全盘失败,而且很难知道是哪一步出了问题。这种问题不是靠堆memory或者调tools就能解决的。

所以我现在的判断很明确。AI很强,openclaw也很强,但不适合直接操作精确数据。只要是高精度的数据工作,最终还是要回到数据库、代码和明确的workflow结构。AI可以参与其中的某些环节,比如做分析、做评分、生成局部结果,然后通过严格限制的接口接入系统,但不应该直接掌控整个流程。

更合理的方式,是让AI生成代码,由代码去操作数据。很多时候改prompt不如改代码来得稳定,这一点在实际使用中非常明显。

这也让我重新看待现在SaaS和软件行业的低迷。市场在假设AI agent可以直接替代软件本身,但从实际使用来看,这是一个明显的误判。AI会改变软件的使用方式,但不会替代对确定性的需求,尤其是在数据层面。

很多人现在说openclaw是玩具,永远当不了生产力工具。我反而觉得,这个判断本身就有问题。因为你很难定义什么是生产力工具。

Python早期也只是被当作脚本语言,当年Java是主流,谁用Python做网站都会被觉得不靠谱。但后来一样有人用它搭出了知乎早期版本,也有人用它支撑Instagram的后端。工具本身并不会限制它的价值,限制的是使用它的人。

生产力从来不是工具决定的,而是人和工具的组合。在一个人能力有限、工具有限的情况下,只要能创造商业价值,就已经是生产力。

当年有人写爬虫抢票,也有人冬天去医院排队挂号再转卖。后者甚至没有任何技术工具,但对他来说,一个闹钟就是生产力。因为它帮他赚到了钱。

现在也一样。有人用openclaw写几个prompt,控制多个subagent定时生成内容,发到平台上赚一点流量钱。这个过程不高级,甚至有点粗糙,但对他来说,这就是最顺手的生产力工具。

很多人忽略了一点,这个世界上绝大多数人,并不具备你以为的技术基础。他们不理解文件系统,不会用terminal,没有编程经验,只会用App和浏览器。但他们同样有需求,也愿意为工具付费。

你让他们自己去配置openclaw,几乎不可能。但如果有人把一切都封装好,让他们在一个简单环境里使用,他们会玩得很开心,甚至会沉浸进去。这种体验本身就有价值。

所以工具的未来,不只是更强,而是更可用。不是让少数人更强,而是让更多普通人也能用起来。

我最近觉得很多人现在在讨论世界模型,觉得未来应该走向一个更全面的理解系统。但从现实来看,这件事短期内并不成立。

文字的信息密度远高于视觉。1GB的文字可以承载成百上千本书的内容,而同样体量的视觉信息,更多只是原始素材。模型如果要真正理解世界,需要的参数规模和算力都会是现在的数量级放大。

在算力还明显受限的情况下,去追求一个极端庞大的世界模型,其实不现实。如果资源有限,大多数人都会选择继续强化现有的大模型,而不是去做一个成本极高、回报不确定的方向。

所以更现实的路径,还是在现有模型能力下,把工具用对地方。

此作者没有提供个人介绍。
最后更新于 2026-03-25