每个人都在用 AI,公司却什么都没学到

AI 摘要

Robert Glaser指出AI企业落地的核心悖论:个人效率提升不等于组织学习提升。文章提出token到learning才是真正重要的度量,并给出Agent运维、循环智能、能力分发三种必备能力框架。

2026-05-07·出海情报站·阅读需6分钟

Robert Glaser 这篇文章戳到了 AI 企业落地的痛处:个人生产力提升不等于组织能力提升。人变快了,公司可能还是什么都没学到。

混乱的中间地带

很多公司现在进入了「混乱中间地带」:GitHub Copilot 已经部署了,ChatGPT Enterprise 在某个角落运行着,Claude 和 Cursor 在各团队里冒出来,每个团队至少有一个人比官方培训材料走得远得多。管理看到的是许可证使用量和 prompt 数量,可能还有一个调查问卷和几个内部 PoC。

但真实的 AI 使用情况是:一个团队把 Copilot 当自动补全用就满足了;另一个团队用 Claude Code 跑紧密循环,带测试、review 和持续引导;产品经理突然能做出真正的原型而不用在 Figma 里画线框图;高级工程师把根因分析委托给 Agent,一小时内搞定——没有 AI 这要两周。

这些事可能同时发生在同一家公司。混乱的核心在于:AI 采用的单元不再是组织,甚至不再是团队,而是工作中的循环本身。

旧的变革机制太慢了

大多数公司会用已有的机制来处理 AI 推广:实践社区、午餐学习会、冠军网络、赋能 PPT、月度 Demo。但有意思的 AI 工作不会等下一次社区会议。它出现在代码 review 里、销售提案里、产品原型里、生产事故里。

等到最佳实践被整理成干净的分享材料,关键的学习往往已经失去了棱角。真正有价值的是摩擦:缺失的上下文、失败的测试、奇怪的 API 行为、Agent 跑偏时有人把它拉回来的那个瞬间。

从 token 消耗到学习转化

AI 使用会变得更可度量——模型路由、token 预算、按使用量计费。账单会逼出一个更好的问题:这些 token 带来了什么变化?

别数 PR 了。更好的问题是:哪些循环更快关闭了?哪些决策改善了?哪些根因分析更精准了?哪些 review 抓到了更多问题?哪些团队学到了可复用的模式?哪些产品创意因为原型暴露了弱点而被更早砍掉?

token 到 output 是旧的度量惯性穿了新衣服。token 到 learning 才是真正重要的事。

三种必备能力

Agent Operations(Agent 运维):哪些 Agent 在运行、能访问什么数据、哪些操作需要审批。

Loop Intelligence(循环智能):哪些 AI 辅助的循环真正产生了学习,哪些保持开放,哪些在衰减。

Agent Capabilities(Agent 能力分发):有用的技能如何跨团队流动,而不是变成死模板。

对出海独立开发者的启示

如果你是独立开发者或小团队,你天然比大公司有优势——你的「循环」没有组织惯性阻挡。你用 AI 做的每一个发现都能立刻变成下一步行动,不需要等季度 review。

但你也需要警惕:用 AI 做了更多 output 不等于做了更多 learning。问自己:这个月用 AI 做的东西里,哪些真正改变了我的产品方向或技术选型?如果答案是「没有」,你可能也在「混乱中间地带」里空转。

来源:HackerNews