公司最初解决了什么,哪些正在被 AI 结构性地瓦解
前言
前两篇讲的是个体,认知能力在 AI 时代的重新分化(Issue 1)、个体学习方式的失效和重建(Issue 2)。
这一篇讲组织,当个体在 AI 时代被重新分化之后,由这些个体组成的公司、团队、协作关系会发生什么。
这是一个更冷的问题:现有的组织形态、管理方式、协作关系里,哪些在 AI 时代已经结构性失效,而我们还在用过时的词汇描述这些失效。
这件事讨论起来会有点难,因为:关于组织、管理、协作的整套词汇(“公司”、“员工”、“管理者”、“团队”、“协作”、“效率”)都是工业时代留下来的。这些词本身带着工业时代的假设。用它们讨论 AI 时代的现象,会像用“烧煤效率”讨论电动汽车,不是讨论不清楚,是词本身就不对。
但我们没有更好的词。所以这一篇做的只有一件事:用这些旧词汇尽可能精确地描述正在发生的事,同时承认语言本身的限制。
不给方案。给一个尽可能诚实的诊断。
第一章 · 先问一个被跳过的问题:公司最初解决了什么
讨论“AI 时代公司形态应该如何演变”之前,要先问一个所有人默认跳过的问题:公司最初是为了解决什么问题而存在的?
这个问题看起来基础得不需要讨论。大部分人默认公司就是“一群人一起做事的组织形式”,一种自然状态。但公司并不是自然的。它是在某些历史条件下为了解决某些具体问题而出现的一种组织方案。如果那些问题被新技术解决了或改变了,公司这个方案的必要性就变得不再明显。
Coase 的问题
1937 年,Ronald Coase 写了一篇叫 “The Nature of the Firm” 的文章,提出一个核心问题:
既然市场这么高效(价格机制分配资源),为什么还需要公司?为什么不是所有的经济活动都通过一个一个的市场交易完成,我需要 A 就去市场上买 A,需要 B 就去市场上买 B?
Coase 的答案是:市场交易本身有成本。搜索合适的对象、谈判、签合同、执行、追责、处理违约,这些交易成本在很多情况下高到让“通过市场完成一件事”变得不划算。这时候“把这件事放进一个组织内部”就成了更便宜的方案,因为组织内部可以用指令和流程代替每一次市场谈判。
所以公司的存在本质上是:对市场交易成本过高的问题的一种解决方案。当一件事在市场上交易的成本 > 在组织内完成的成本,这件事就会被拉进组织。
Coase 的这个判断后来被 Oliver Williamson 等人深化,成为整个新制度经济学的基础。这不是一个商学院的花俏理论:它是对“为什么公司存在”这个根本问题的最清晰的回答。
公司解决的八类问题
把 Coase 的框架展开,公司实际上在解决八类具体的交易成本问题:
一、搜索和匹配成本
过去要做一件复杂的事,需要找到一堆不同技能的人,程序员、设计师、销售、财务、法务。每次都去市场上找合适的人太贵了,你不知道谁靠谱、他们不知道你靠谱、双方都要大量时间建立信任。
公司解决这个的方式是:把一批人长期绑定在一起。一旦你进了公司,公司内部的程序员、设计师、销售都是“现成可用的资源”,不需要每次重新搜索。
二、信息不对称成本
市场交易的一个根本问题是,你很难在事前确认对方会不会好好做事。你雇一个自由职业者写代码,他说他会写得很好,但你怎么知道?写完之后才知道好坏,到那时你已经付了钱或浪费了时间。
公司用长期雇佣关系 + 声誉 + 可观察的日常表现来解决这个问题。你在一个公司待三年,你的老板对你的能力有相当清楚的了解,这是一次性市场交易做不到的。
三、资产专用性问题
有些投资只在特定关系里有价值。比如你为了给某个客户做定制开发,花三个月学习他们的内部系统,这个学习只对这一个客户有用。如果这是一次性交易,你承担了这个专用投资的风险。
公司通过长期关系解决这个,你为公司做的专用投资(学习公司流程、建立公司内部关系、掌握公司特有的 know-how)是值得的,因为这段关系足够长。
四、协调成本
做一件复杂的事涉及很多人配合。每一步都靠市场交易协调是不可能的(想象每次程序员要和设计师沟通一个小细节都要签一个合同)。公司用层级和流程代替了这种每次协调,有明确的汇报关系、有惯例、有“这种事情一般这么处理”的默契。
五、风险分担
市场里每个独立个体承担自己的风险。公司通过把很多人绑在一起实现了某种风险分担,一个项目失败,损失被分摊;一个员工生病,别人可以临时补位;一个客户流失,公司整体还在。
六、资本集中
有些事情需要大量前期投资(建工厂、研发新产品、买设备)。单个人或小团队凑不出这些钱。公司作为一个可以对外融资的法律实体,能把分散的资本集中起来用于大规模生产。
七、法律合约权力
很多事情需要一个法律实体才能承担,签署大额长期合同、承担破产风险、给员工缴社保发期权、作为被告或原告上法庭、接受监管审查、拿政府牌照。
个人在这些场景里要么做不了(没有对应的法律身份),要么做但承担过大的个人风险(一笔大合同出问题,个体全部资产被起诉)。公司提供了一个法律人格,股东以投资额为限承担责任,公司自身可以签约、负债、被告、破产。这个人格不是公司的副产品,它就是“为什么做某些事必须用公司做”的核心原因。
八、品牌与信任背书
有些事情需要一个可信的第三方出面,特别是在高后果、低可验证的场景。
一家医院的手术、一家律所的官司、一家银行的托管、一家咨询公司的战略建议,客户在事前没法评估输出质量,他买的是“如果出事,有一个机构为结果负责”的承诺。这个承诺的重量来自机构本身的品牌、历史、规模,以及它不愿意把这些赔进去的激励。
一个独立个体即使同样能干,也无法提供同等分量的承诺,因为他没有那么多东西押在背书上,客户也没有那么多可以起诉的对象。在这些场景里,客户实际购买的一半是能力、一半是机构背书,后者个体无法替代。
这八类问题在 AI 时代的现状
理解了公司最初解决的是什么问题,接下来才能问一个真正的问题:这八类问题在 AI 时代还存在吗?公司作为解决方案还是最优的吗?
一项一项看:
一、搜索和匹配成本:被削弱
过去找一个靠谱的程序员 / 设计师 / 律师,成本极高。现在:
- AI 替代了一大部分这些角色的工作,需要找的人少了
- 对于还需要人的部分,远程协作平台、Upwork、LinkedIn、Twitter、各种 Discord 社群让搜索成本大幅下降
- AI 的通用能力让你不需要每个角色都是专家,一个能用 AI 写一般代码、做一般设计、做一般法务工作的“全能型”个人,替代了过去需要一个团队才能完成的活
这意味着:“把一批人长期绑在一起”这个方案的性价比在快速下降。很多事情现在通过临时组合或纯个人+AI 就能完成。
二、信息不对称成本:部分被削弱
过去判断一个人能不能做好,只能通过长期观察。现在:
- 公开作品成为了过去简历无法替代的信号(GitHub、Twitter、个人网站、过往项目)
- AI 让“评估一个候选人能否做某事”变得比过去更便宜(可以让他做一个试验任务,用 AI 协助评估)
- 但信任的深层问题没被解决,真正复杂、需要长期投入的合作,依然需要长期关系才能建立信任
所以这一项部分被削弱,没被消灭。
三、资产专用性问题:本质上没变,但形态在变
这个问题依然存在,做任何深入的事都需要专用投资。但投资的性质变了:
- 过去的专用投资是“学习一个公司的内部流程”,这种投资只对这个公司有价值
- 现在的专用投资更多是“理解一个领域 + 掌握一套工具 + 建立某种独特视角”,这些投资可以跨多个合作关系复用
这意味着:个人的专用投资越来越独立于单一雇主。你掌握的东西不再是“某公司的 know-how”,而是“你自己的 know-how”。这让个人有了比过去更强的议价能力和独立性。
四、协调成本:大幅下降
这是变化最剧烈的一项。
过去协调一件复杂的事需要会议、流程、层级、流水线。现在:
- 异步通讯工具让协调大幅去会议化
- AI 作为“无限耐心的协作者”承担了过去大量需要人工协调的工作(写文档、整理信息、跟进进度)
- 一个人 + AI 能完成过去需要一个 5 人团队才能完成的事
协调成本下降最剧烈的地方,小规模协作的成本降到了历史最低。过去“3 个人 + AI”能做的事比过去“10 个人”能做的还多。
五、风险分担:依然存在但形态在变
风险分担的需求依然存在,个体还是会生病、会倦怠、会犯错。但:
- 过去风险分担靠“长期雇佣 + 福利”,这种模式对个体和公司都越来越僵化
- 现在出现了新的风险分担方式,灵活的合作关系、独立个体之间的互助网络、社群、AI 作为永不疲倦的后备
- 国家层面的社会保障、保险、医疗,在一些国家减少了个人对公司的风险依赖
所以这一项本质需求没变,但公司已经不是唯一或最好的方案。
六、资本集中:对大部分软件/内容/服务不再必要
过去很多事情需要大量前期投资。现在:
- 软件不需要:一个人 + 一台电脑 + AI 能做出过去一个团队做的软件
- 内容不需要:独立创作者用 AI 能产出过去一个内容团队产出的东西
- 很多服务不需要:咨询、设计、写作、翻译,过去需要机构和团队,现在个人就能做
但对一些事情还是必要,造芯片、造火箭、造药、做需要大规模硬件投资的事情。这些领域公司的必要性没变。
七、法律合约权力 — 没削弱,某些方面加强
AI 没有改变法律体系的任何东西。合同法、公司法、破产保护、监管合规、税收法规,这些依然要求一个法律实体承担。
而且 AI 自身带来了新的法律复杂性,AI 输出造成的损失谁负责?训练数据侵权谁赔?AI 做出的决定算谁的决策?这些问题正在加深“需要一个法律实体兜底”的需求,不是削弱它。
所以这一项在 AI 时代完全没被削弱,某些方面反而加强。
八、品牌与信任背书 — 表层被削弱,深层被加强
AI 对这一项的影响是双向的。
一方面,AI 让个体可以以低成本做出看起来专业的产品,表层品牌差距被压平了,你一个人做的 deliverable 可以看起来和大公司做的一样精良。
另一方面,也是更大的一方面:AI 生成内容爆炸式泛滥,信任的稀缺度反而上升。客户越来越难判断“这个方案是真人深度思考的结果,还是 AI 批量生成的”。在高后果场景下,客户更需要一个机构来承担“这不是 AI 随便糊出来的”的承诺。
所以品牌信任的表层被 AI 削弱了(做出精美 deliverable 不再稀缺),深层反而被加强了,稀缺的不是漂亮,是“真的为结果负责”的承诺。个体在深层这个维度上依然难以替代机构。
一个结构性推论
把这个分析放在一起。
公司最初解决的八类问题里:
- 两类被大幅削弱(搜索匹配、协调)
- 两类部分被削弱(信息不对称、资产专用性)
- 两类依然存在但公司不再是最好方案(风险分担、资本集中对软件类工作)
- 两类没被削弱,某些方面反而加强(法律合约权力、品牌信任背书)
这个分布比“大部分被摧毁”的叙事要谨慎。公司作为解决方案的边界没有整体崩塌,它在收缩,但收缩是不均匀的。
收缩最剧烈的区间是:认知密集型、低资本门槛、低合约风险、低监管、不需要强品牌背书的领域。软件、内容、咨询、设计、一部分服务属于这一类。在这些领域里,一个人 + AI 能完成过去需要一个团队的工作;三五个人 + AI 能完成过去需要一个中型公司的工作。
收缩最不明显、甚至反向增强的区间是:资本密集、强监管、高合约风险、高后果的领域。金融、医疗、基建、制造、能源、航空航天、政府承包属于这一类。在这些领域里,公司的必要性没有减弱,甚至因为 AI 带来的新法律风险和信任危机而加强。
所以真正准确的结论不是“公司作为组织形态正在消失”,而是:公司的适用边界正在被重新划分。过去公司是几乎所有合作的默认形式;现在它在一部分领域仍然是必要的、甚至更必要,而在另一部分领域变得过重、过慢、过贵。
这篇文章接下来讨论的,主要是收缩最剧烈的那个区间,认知密集型工作里的组织形态变化。在另一个区间里发生的事(大公司如何在资本/监管/品牌维度继续稳固),不在本文讨论范围内。读者如果身处后一个区间,下面的分析只对你工作里认知密集的那一部分成立。
而我们讨论组织问题用的整套词汇,全部基于“公司是默认形式”这个假设。在收缩的那一侧,这套词汇即将面对它的边界。
第二章 · 协作已经不在同一个平面上
讨论完“公司为什么存在”之后,下一个问题是:这些新的组织形态(独立个体、小团队、松散协作网络)里,人和人之间的协作是什么样的?
这个问题的答案是反直觉的。AI 时代的协作不是变容易了,是变得两极化。
协作池在收缩
过去讨论“和谁协作”,标准是多维的。
- 这个人有相关经验吗
- 这个人熟练吗
- 这个人掌握相关知识吗
- 这个人有行业信息和人脉吗
- 这个人能做判断吗
这五个维度在过去大致是独立的,一个人可以在某几个维度强、某几个维度弱。一个有 15 年经验、很熟练、知识储备丰富、但判断能力一般的人:在过去是一个非常值得协作的对象。你把需要判断的部分自己做,把他擅长的执行、经验调用、信息整合交给他。他的价值是真实的。
AI 时代的变化不是他的价值降到了零,是他的价值里前四项几乎全被 AI 吃掉了。
- 经验 → AI 知道所有行业里的坑,而且一问就说
- 熟练度 → AI 不疲劳不出错不请假
- 知识储备 → AI 就是一个活的知识库
- 信息和人脉 → 模型训练数据覆盖了公开的一切
这四项被吃掉之后,剩下的只有认知去耦能力(做真正判断的能力)。
如果他的认知去耦能力强,他依然极度有价值(可能更有价值,因为他过去被埋没在执行里的判断能力现在被释放了)。
如果他的认知去耦能力一般,他之前叠加出来的“价值”崩塌了,因为那个价值的所有支柱被 AI 替掉了。
所以协作判断的计算完全变了:
过去:他的经验 + 熟练度 + 信息 + 知识 + (一般的判断力)= 一个有用的协作对象
现在:(AI 已经做了前四项)+ 他的(一般的判断力)= 不如我自己 + AI
这个等式的右边是决定性的:你不是在和他比较,你是在和“你自己 + AI”比较。过去这个备选方案不存在。现在这个备选方案强到让大部分“经验型搭档”变得不划算。
不是协作成本被拉大,是筛选成本
这件事经常被误读为“AI 时代协作变贵了”。这个误读不对。
和对的人协作:比过去更顺畅。因为双方都用 AI,都有高带宽判断力,可以异步、可以用 AI 作为共享中介、可以跑高频循环。
变贵的不是协作本身,是:筛选合格协作对象的成本。
过去可以接受的维度多,筛选池大,找到合适的人成本低。现在能接受的维度变窄,筛选池急剧缩小。在一个小池子里找合适的人,成本当然指数上升。
这不是心态变傲慢了、也不是对别人要求变高了,是**“什么是值得协作的人”这个定义的底层标准变了**。过去合格的人里有 70% 是靠经验 + 熟练度撑起来的,现在这 70% 的人在绝对价值上没变(他们还是懂那些东西),但相对价值被 AI 的出现降到了不值得协作的程度。
你筛的不是更挑剔的池,是一个被重新定义过的池。
生产体系的不可通约
这个变化用一个类比能讲得更清楚。
过去两个纺织工人可以良好协作。他们在同一套生产逻辑里,都是用手感知线、用眼睛看织物、用几小时完成一匹布。他们可以互相理解对方在做什么、互相补位、互相检查。
当流水线出现后,一个流水线检修员和一个手工纺织工之间:不是“协作成本更高”,是他们根本不在同一个生产体系里。检修员的工作节奏是以机器为单位(检查、调整、优化),产出是“让一百台机器同时运转良好”。手工纺织工的节奏是以一匹布为单位,产出是“我今天织完了一匹”。两者的时间尺度、判断对象、产出单位都不同。
让他们协作是一个范畴错误,就像让一个农夫和一个空中交通管制员协作种庄稼。不是谁拖谁效率的问题,是他们根本不知道该怎么对齐。
AI 时代出现了完全同样的分化。
一个用 AI 做杠杆的独立个体,输出节奏是“一个下午一个循环、几周一个完整产品”;一个不用 AI、嵌在传统流程里的工作者,节奏是“一周一个会议、一个季度一个 release”。这不是效率差距。效率差距两倍三倍还能协作,一量级以上的差距就不再是效率问题,是生产体系问题,双方的时间尺度、判断对象、产出单位根本不在同一个坐标系里。
和“一个月产出一次”的人讨论“今晚要不要上线新功能”,双方的时间感根本对不上。和“每个决定都要开会讨论”的人谈“我刚刚决定改掉整个架构”,双方的决策颗粒度根本对不上。和“需要被 PM 给需求”的人说“我自己就是产品判断”,双方的责任模型根本对不上。
这不是沟通问题,是体系问题。就像蒸汽机出来之后,工厂工程师和铁匠不是“沟通有障碍”,是他们从事的就不是同一种劳动了。
“下属”这个词的重新定义
协作池的收缩具体表现在**“下属”这个关系里最清楚**。
“下属”这个关系结构一直存在,上级做大方向判断,下属在一个较窄范围内独立做事、向上汇报、接受审查。这个结构不是 AI 时代发明的,工业时代、前工业时代、帝国时代都有。
AI 时代变的不是这个结构,变的是“合格下属”的定义。
过去合格下属的画像:
- 有相关经验(能快速上手)
- 执行可靠(交代的事能做完做对)
- 有一定判断力(在小范围内不出乱子)
- 听话但不愚钝(能反馈问题但不越权)
- 在行业里有积累的人脉 / 资源
在 AI 时代之前,这种人大量存在。招聘市场、人力资源、大学教育、职业培训,整个社会基础设施都在培养这种人。稀缺性低,筛选成本不高。
AI 时代之后:这种画像里的能力大部分被 AI 吃了。剩下能贡献价值的就只剩**“自己能独立跑判断循环”这个能力**,即在一个上级给定的窄范围内,他能完整地做“判断-执行-反馈-调整”的循环,不需要上级介入每一步。
这种下属在任何时代都稀缺。只是工业时代有大量“次合格”的下属可以用,他们不能完全独立跑循环,但他们有经验 / 熟练度 / 执行力可以弥补。组织通过流程、监督、中间层管理让这些“次合格”的人也能发挥作用。
AI 时代的变化,AI 吃掉了经验 / 熟练度 / 执行力这些“次合格”能力可以贡献的部分。剩下能贡献价值的就只剩“自己跑循环”这个能力。而具备这个能力的人在任何时代都稀缺:稀缺量级没变,变的是这些人现在是“唯一合格的下属”,而不是“特别优秀的下属”。
过去你可以用 10 个“次合格”下属 + 1-2 个真正能跑循环的下属组成一个团队。现在只能用能跑循环的下属:其他人 AI 做得更好更便宜。
两种协作对象
基于这个分析,AI 时代值得协作的人分成两类:
一类是平行协作者。自己能独立跑判断循环的人。他们有自己的完整循环,他们加入协作不是为了“被指挥”,而是作为一个独立节点参与整体工作。筛选标准极其苛刻,判断能独立形成、方向大致对齐、循环节奏匹配、承担后果、不需要对齐仪式。
一类是合格下属。不是独立判断者,但在一个给定范围内能独立跑循环,上级给方向和边界,他自己拆解问题、和 AI 协作、判断 AI 输出的质量、决定下一步、执行、反馈。关键是他要能审查 AI 的输出质量,一个不能判断 AI 对错的下属,在 AI 时代是有害的,因为他会把 AI 的幻觉当成真实传递上来。
这两类人都比过去稀缺得多。前者是因为本来就少;后者是因为过去合格的大部分下属在新标准下不再合格。
这就是“协作池在收缩”的具体含义:过去合格的下属,现在不再合格。不是因为他们变差了,是因为合格标准变了。
第三章 · AI 提效为什么在不同组织形态下效应不同
前两章讨论了公司作为组织形态的边界和协作关系的重新筛选。这一章进入一个更具体的现象:AI 在不同组织形态下产生的效益差异巨大。
这个差异不是小差异,是数量级差异。同一个 AI 工具在独立个体手里能让整个循环跑起来;在大公司里往往只能让某些孤立任务跑得更快,整体产出几乎不变。
大部分讨论把这个差异归结为“谁更会用 AI”。这个解释是错的。差异不在工具使用,在组织形态本身。
AI 提效的真正机制
要理解这个差异,先要理解 AI 提效的真正机制。
大部分讨论把“AI 提效”等同于“AI 把某个任务做得更快”,原来写代码几小时,现在一会儿就好。这种任务级别的提效是真实的、普遍的,在所有组织形态里都存在。
但任务级别的提效 ≠ 整体产出的提效。
真正让一个人或一个组织发生质变的,不是“每个任务做得更快”,是任务之间的间隔时间被压缩到接近零。
举个对照。
一个独立个体想改他产品的架构。他的流程大致是,想到一个可能的改法,问 AI 这个改法的副作用,觉得不对就换想法,让 AI 实现试一下,跑起来看效果,发现问题调整,觉得方向对了再继续推进。一个下午之内他可以完成若干轮“判断-执行-反馈-调整”的循环,每一次循环都在推动思考往前走。
同一件事在大公司会怎么发生,想到改法,得先写一个 proposal(因为不能一个人决定),发给上级 review 等几天,上级再让相关团队看,开一个 alignment meeting 要提前几天约,会上有人提疑问需要下一轮 follow up,然后某个决定性 PM 排进下一个季度的 priority,开发团队做出来再 review。同样的一轮循环,独立个体一下午,大公司可能要几周到几个月。
这不是效率差距,是循环数差距。AI 提效对独立个体是把每次循环本身也加速一些;对大公司是把循环里的某一个小步骤加速,但循环的总长度几乎不变,因为循环的瓶颈不在执行,在决策和协调。
所以“AI 提效”这个词在不同组织形态里指向完全不同的东西。在独立个体那里它是循环加速;在大公司那里它是任务加速。前者带来数量级的产出变化,后者只是边际优化。
大公司 AI 提效失败的四个结构性原因
理解了“循环加速”这个机制之后,可以精确地诊断大公司 AI 提效失败的具体原因:
一、层级化决策链
大公司的决策需要多个层级同意、需要相关团队配合、需要评估风险、需要合规审查、需要和别的项目 priority 对齐。
这些环节 AI 完全没法加速,因为它们不是“产出某个东西”的环节,是**“让多个人达成一致”的环节**。AI 可以帮你写一份更漂亮的 proposal,但它不能让 5 个 stakeholder 更快同意。
你把每个执行环节都用 AI 加速了 5 倍,整个项目依然慢,因为执行只占整个项目时间的 20%,80% 的时间在等决策、等对齐、等 alignment、等 review。AI 把 20% 里的时间压缩了,对整体影响微乎其微。
这就是 Amdahl 定律,对一个系统里某一部分加速,整体加速受限于那部分占总时间的比例。大公司里 AI 能加速的部分占比低,所以整体加速有限。
二、激励结构让 AI 加速“看起来在工作”
组织规模到了一定程度,很多岗位上员工的绩效高低、个体贡献,是很难在系统中充分分离的。这意味着评价系统退化到了可测量的替代物:报告、会议表现、表达清晰度、与老板方向的对齐度。这些“像是产出”的东西,恰恰成了很多员工的证明。
AI 又恰恰能把这些东西的成本降到几乎为零。
过去一个员工要花一天写一份报告来证明自己在工作;现在他 30 分钟就能用 AI 生成一份更漂亮的报告。省下的 7 小时并没有被用来做真实工作,而是被用来生成更多报告,因为他的同事也在这么做,他不跟进就显得掉队。
结果是报告更多、会议更多、PPT 更精美、邮件更长、Slack 消息更密。整个组织看起来更忙,但实际产出没变甚至下降。因为生产出来的“看起来像工作”的东西得有人消费,每个人花更多时间读同事 AI 写的报告、参加讨论这些报告的会议,真实工作被挤到没有空间发生。
于是一件很神奇的事情发生了:既有的低效运作得更快了。
三、信息孤岛让 AI 无法接触判断所需的全貌
独立个体用 AI 的方式是:把所有相关信息装进一个 context,让 AI 帮我思考完整的问题。
大公司做不到。因为:
- 信息分散在各个系统里(多个工具、多个权限、多个私人空间)
- 很多关键信息只在某几个人脑子里,没有任何文档
- 信息的权限分层极严,没人能看到全貌
- 大量决策依赖“非正式”信息(上级的心情、某个竞争对手的动态、某个客户的暗示)
AI 在这种环境里只能接触到碎片,它能帮你写一段代码、整理一份会议记录、润色一份邮件,但它无法帮你做真正的判断,因为做判断需要的信息它看不到。
独立个体不一样:他自己就是所有信息的节点。他脑子里 + 他的本地文件 + 他和 AI 的对话历史,就是全部相关信息。AI 能接触到一切,所以 AI 能真正参与判断。
四、AI 抗体
这一条最少被讨论,但必须同时承认它的两面。
一面是真实的风险管理需要。大公司在 AI 使用上的谨慎,相当一部分是合理的,幻觉放大到数千员工使用时会造成真损失、客户数据灌进公开模型会触发合规事故、AI 决策出错时责任归属在法律上不清晰、多租户数据隔离在大型部署里确实难做。这些担心不是借口,而是负责任的大公司应当处理的问题。小公司或独立个体可以承担的不精确,大公司不能。
另一面是岗位自我保护。大公司内部有大量人的岗位价值来自协调、审查、汇报、对齐、合规。他们的工作本质上是“信息过滤器”和“决策中介”。AI 威胁这类岗位的核心价值。所以这些岗位的人有意无意会让 AI 在公司内的使用变得困难。
两面的合流就是大公司 AI 使用里常见的画面,合理的风险担忧被岗位自保的动力放大成阻止工具。表现形式包括:
- 把 AI 的风险、合规、幻觉、数据安全等议题放大,扩张成“必须严格审批才能用”
- 要求 AI 走审批流程,让真正想用的人用不了
- 官方采购的企业版通常比公开版本弱好几代
- 强调“AI 生成的东西需要人审核”,把 AI 的产出再套回人的流程里
区别有没有被放大,看一个简单的标志:这些顾虑是否指向具体可解决的问题(如“在这个业务里要解决的数据边界是 X、Y、Z”),还是指向一个无限延后的审核流程(“等合规看完再说”)。前者是风险管理,后者是岗位自保。
所以 AI 在大公司威力被削弱,既有技术和合规上的合理原因,也有组织政治上的防御成分。两者共同作用,难以彻底分开。
独立个体为什么尤其显著
反过来看,独立个体是“AI 提效”的物理极限,因为前面所有阻碍全部消失:
- 决策瓶颈是零,决定就是一个人做,不需要对齐
- 没有“显得在工作”的激励,产出就是一切
- 信息完全集中,你自己就是所有相关信息的节点
- 没有任何 AI 抗体,你不会阻止自己用 AI
所以独立个体的“判断-执行-反馈-调整”循环可以跑得密集而连续,每一次循环都在推进思考往前走。同等时间窗口里跑完的循环数,可以远超一个大公司。这就是为什么 AI 时代一个人 + AI 能做出过去一家中型公司做的产品:不是比大公司聪明,是在一个能让 AI 真正发挥作用的组织形态里。
严守推演边界
需要明确的是:“AI 提效在大公司失效”不等于“大公司会被替代”。
大公司可能在其他维度上有巨大优势,护城河、网络效应、资本壁垒、品牌信任、分发渠道、监管合规、长期客户关系,这些都是 AI 提效无法触及的维度。这些优势完全可能让大公司在整体竞争中依然稳固很多年。
所以这一章只断言一件有限的事:在 AI 提效这个维度上,独立个体和小团队对大公司有结构性优势。这个结论不能被外推到“大公司整体命运”上。
但即使只是这个有限的断言,它也揭示了一件大部分人还没看清的事:AI 时代真正的组织竞争不是“谁用了 AI”(所有人都在用)。是“谁的组织形态让 AI 能真正发挥作用”。这个问题的答案绝大多数大公司回答不了,因为改变组织形态意味着拆掉它们赖以存在的东西。
第四章 · 旧管理失效,新管理未知
前面三章讨论了组织边界、协作关系、不同形态下 AI 效益的差异。这一章进一件更深的事:工业时代留下的那套“管理”在 AI 时代已经不够用了,而替代它的新范式还没有成形。
这一章也延续上一章的边界,讨论的是认知密集型工作在收缩区间里的组织形态。资本密集、强监管、大规模物理运营的场景里(制造、医疗、基建、能源、政府),泰勒-科层这套不只没过时,甚至是必需的。
下面讨论的所有“失效”都在这个边界里成立。
泰勒-科层范式的四个假设
工业革命以来成形的泰勒-科层式范式,标准化任务、分工、监督、KPI、层级汇报、岗位说明书这一套。当下,依旧绝大部分公司公司的管理骨架和血肉。这套范式的内核假设有四条
一、工作可以被拆解成可重复的任务
所以工作能被标准化、测量、监督。一个流水线上每个人的动作可以被精确拆解,装这个零件、拧这个螺丝、检查这个参数。拆解之后,每个动作的效率可以被量化,每个环节的问题可以被定位。
二、决策者和执行者是两类人
决策者负责想(要做什么、怎么做、为什么做),执行者负责做(按照被告知的方式完成具体任务)。管理的任务是把决策者的想法有效地传达给执行者,并确保执行者按要求完成。
三、效率来自分工 + 监督
每个人做一小块自己擅长的事,有人确保每一块都做对了、每一块之间衔接顺畅。整体效率来自精细分工和有效监督,而不是来自每个人的全局判断。
四、激励来自外部奖惩
员工的动力来自工资、奖金、晋升、惩罚这些外部机制。管理者的工作之一是设计这些机制,让员工的行为和组织目标对齐。
这四条假设合起来,构成了工业时代“管理”这门专业的内核。MBA、管理咨询、组织行为学、KPI、OKR、Scrum,这些现代管理工具链大部分都建立在这四条假设之上。
为什么这四条假设在 AI 时代的认知密集型工作里失效
一、工作不再能被拆解成可重复的任务
AI 已经把可重复的部分做了。剩下留给人的工作是不可重复、高判断、情境敏感的工作,每一件事都是独特的、需要具体的判断、无法被提前规范。
一个独立开发者面对“要不要改变这个产品方向”,这不是一个可以被拆解成小任务的工作。它要求综合考虑市场、用户、竞争、自己的能力、团队现状,所有这些判断必须合在一起做,拆开就失去了意义。
二、决策者和执行者的区分在消失
AI 时代每个会用 AI 的人既是决策者又是执行者。他做判断、自己执行、收到反馈、再次判断。“决策 - 执行”不再是两个不同的人做的事,而是一个人或一个小团队的连续动作。
那个“把决策者的想法传达给执行者”的管理中介角色,不再有对应的现实。
三、效率不再来自分工 + 监督
高判断工作无法被分工,拆开就失去整体判断的完整性。你不能让 A 做“判断的前半段”、让 B 做“判断的后半段”,判断必须整体做。
高判断工作也无法被监督,没法从外部观察判断质量。一个人坐在那里想了两小时,他想得对不对、深不深、有没有价值,从外面看不出来。监督只能看到可观察的行为,但可观察行为和判断质量已经脱钩。
四、激励不再来自外部奖惩
高判断工作的质量和外部奖惩几乎无关,更多依赖内在动机、专注力、兴趣。一个对问题真正好奇的人会在问题上投入远多于 KPI 要求的时间;一个对问题没有真正好奇的人,再高的 KPI 奖励也无法让他做出好判断。
外部激励对低判断工作有效(按件计酬、绩效奖金),对高判断工作几乎无效甚至有害(会让人为了奖励去伪装而不是真正做好)。
所以旧管理在这个区间里失去了对象
这四条假设的消失意味着泰勒-科层式管理正在失去它所描述的对象(在收缩区间里)。
管理的五个核心动作,规划、组织、监督、协调、激励,在每一个具体动词层面都失去了对象:
- 规划:工作不再能被提前规划成具体任务
- 组织:执行者和决策者不再分离
- 监督:判断质量无法被外部观察
- 协调:小团队里不需要协调,个体内部做的事自然协调
- 激励:外部激励对高判断工作效用急剧下降
所以在 AI 时代高效运转的小规模认知密集型组织里,你找不到旧管理词汇的清晰对应物。
一个独立个体,他每天在“管理”什么?他不是在管理 AI(他和它协作)、不是在管理自己(这个词在一个人身上很怪)、不是在管理项目(他就在做项目)。旧管理词汇在他的实际生产实践里根本不出现。
一个 2-3 人的小团队,他们不“管理”彼此,他们协作、分工、同步、碰撞。这些词和管理不是同义词。管理隐含的是权力梯度(管理者 → 被管理者)和监督关系;协作同步碰撞这些词是水平的、无梯度的。
这不是性价比下降的问题,是整个概念框架的前提已经消失。
五个失效的具体地带
在这个收缩区间里,可以精确地指出旧管理在哪些地方已经明显无效:
一、周期性协调仪式(周会、双周会、月会、季度 review)
周期性协调的预设是:人的工作节奏是线性、可预测、每周大致等量推进的。所以每周开一次会同步一次进度是合理的。
AI 时代这个预设失效。独立个体和小团队的产出不是线性的:一个上午可能完成过去一周的工作量,然后接下来两天陷入一个难题或为下一轮工作构造新的工具。循环的节奏是高度不均匀的、由具体问题的结构决定的,而不是由日历决定。
周期性协调仪式强加一个外部节奏在真实产出节奏之上:在高产出时期它打断循环(刚进入状态就开会)、在困难时期它制造伪进展(在会议上汇报“我在思考某个问题”作为进度)。
无效的核心:周期性协调仪式把“时间”当作协调的基本单位。在 AI 时代,协调的基本单位应该是“循环完成”,不是“一周过去了”。
二、以可观察行为为基础的绩效评估
传统管理的核心工具之一是可观察的行为指标,出勤、响应速度、会议参与度、任务完成度、可见的“在工作”状态。
这些指标在重复性、可拆解的工作里是合理的代理。AI 时代留给人的工作主要是高判断、不可观察、非线性产出的工作。这些工作里,可观察的行为和实际产出几乎完全脱钩。
一个人可能盯着屏幕 8 小时什么都没产出;另一个人可能散步 3 小时回来半小时做出一个决定性的判断。一个人可能回复所有消息保持高参与度,但他的回复全是水;另一个人可能几天不回消息,但他每次回都说出关键的东西。
传统绩效评估在这种场景下不仅失效,它主动产生反向激励。因为它奖励那些最擅长“产生可观察行为”的人,而这些人恰好不是真正在做高判断工作的人。
三、以“把事情分解成任务”为核心的项目管理
Scrum、看板、Jira、工单系统,整套项目管理工具链的前提是工作可以被提前拆解成明确的小任务,每个任务有明确的输入输出,进度可以通过任务完成数来衡量。
这个前提在重复性、结构已知的工作里成立。在高判断工作里不成立,因为,工作不能被提前拆解(拆解本身就是工作的一部分)、任务之间的输入输出不是明确的、进度无法通过“完成数”衡量。
所以在 AI 时代的小团队里,硬上 Scrum 常常让产出下降而不是上升,因为真正的工作被压缩成符合 Jira 格式的“任务”,不符合这个格式的真正关键工作(判断、权衡、结构重构)变得无法被承认、无法被分配时间、无法获得资源。
四、以对齐为目标的协作流程
大量管理动作的目标是“对齐”,让团队里每个人理解同一件事、朝同一个方向走、共享同一个优先级。
这是工业时代合理的目标,当你有 500 人做同一件大事,让每个人都对齐到同一个方向上,组织才能作为一个整体运转。
AI 时代几十人的高判断力单元里:过度对齐反而有害。小团队里每个人都在做真正的判断。如果所有人都被“对齐”到同一个方向,那就只剩下一种判断在发挥作用:组织失去了多元判断的价值。
真正高质量的协作不是对齐,是碰撞,不同判断碰撞产生新的判断。对齐会扼杀碰撞。
五、垂直责任分配
传统管理的一个基本假设,责任是垂直分配的。管理者对某块业务负责,下属对管理者交代的任务负责。
AI 时代小团队里,责任分配不再能垂直,每个人既是判断者又是执行者,没有“谁交代谁”的关系。AI 参与了几乎每个环节,“谁对某个决定负责”变得模糊。团队小、没有中间层,也就没有“向上汇报”的对象。
这导致传统意义的“问责”在新形态里难以运作。但它不是被取消了,而是被替换成了“自我问责”和“结果问责”。每个人对自己的判断质量负责、团队对最终产出负责。
但这种替换在既有管理概念框架下无法表达,你没法在一个传统组织架构图里画出“这个人对自己的判断质量负责”。这是管理词汇的空白。
旧的失效,新的未知
需要老实承认一件事:前面把五个失效地带讲清楚了,但**“这些东西该被什么替代”这个问题没有答案**。
不是没有人尝试。这些年冒出来过不少候选,Holacracy、自组织团队、Spotify 的“部落/小队/分会”模型、RenDanHeYi(海尔)、一些创业圈子里流行的“纯独立节点网络”。每一套都有自己的说法,每一套都有一些公司试了,每一套在一些场景下有效、在更大范围里无法稳定复制。
原因不复杂。这些替代方案大部分仍然在用旧词汇(团队、经理、对齐、OKR)微调边界,而不是真的换掉底层框架。真正能换掉底层的东西,需要一整套新的:组织原语、工具链、法律形态、教育体系、语言。这些东西没有任何一个到位。
所以诚实的说法不是“新管理是 X”,是“我们不知道新管理是什么”。我们目前能确信的只有:
- 一组旧动作(周会、可观察行为绩效、任务分解、强对齐、垂直问责)正在失效
- 一些新动作正在浮现(循环对齐、判断质量审查、结果问责、自主单元协作),但它们还没凝结成一个有名字的体系
- 在它们凝结之前,任何声称自己找到了“AI 时代新管理方法”的东西都应该被怀疑
这不是消极。这和 1900 年前后的状态类似,工厂已经取代手工作坊几十年了,但 Drucker 式现代管理理论要到 1954 年才出现。中间的几十年里,有大量的尝试、失败、尝试。我们现在在类似的位置。
承认“新的还不知道”,比强行给一个看起来有体系的答案,更接近现实。
语言的限制
这一章讨论旧管理的失效时不得不一直用旧词汇,这本身是个症状。
“协调”比“管理”更水平,但它没有涵盖判断质量的审查。 “同步”比“汇报”更双向,但它没有涵盖方向性的决定。 “判断带宽”比“KPI”更准确,但它是一个描述性概念,不是一个可操作的工具。
我们正在经历一次语言的滞后。新的组织形态正在涌现,但描述它的词汇还没有被发明出来。所有用旧词汇讨论的分析都不完全准确,包括这一章。
这不是作者的无能,这是整个时代的认知债务,我们还在用工业时代的词汇讨论 AI 时代的组织,就像电气化时代初期人们还在用“煤炭效率”讨论工厂。
承认这个限制本身比强行造新词更诚实。强行造的新词只是在掩盖理解的模糊。真正需要的是保持对这个模糊的清晰意识,在它不断被新现实塑造的过程中慢慢形成真正的新词汇。
第五章 · 岗位和知识的蒸馏曲线
前面几章讨论了组织边界的收缩、协作池的筛选、AI 提效的差异、管理概念的过时。这一章进入一个更具体的问题:组织里的人,他们的岗位价值在 AI 时代是怎么变化的?
这个问题的答案是反直觉的,也是最尖锐的。
他们还在,但不一定是因为原来以为的那些理由
观察一下现在的任何一家公司,它的大部分员工还在岗位上,每天工作、完成任务、交付产出、参加会议、领工资。
如果你问管理者“这些人有什么价值”,他会给出一套答案,他们的经验、他们的熟练度、他们对公司流程的理解、他们和客户的关系、他们对行业的熟悉。
这套答案不是错的。这些价值里确实有真实存在、AI 难以替代的部分,默会知识(tacit knowledge)里那些没有语言化、没有文档化、只通过长期共事沉淀出来的判断;真实的信任关系;组织内部的政治感和人脉;在复杂情境里嗅到“这事不对劲”的直觉。这些东西 AI 很难接触,甚至可能长期接触不到。
但这套答案里也有大比例的部分,其实是 AI 还没完全蒸馏完的那些领域知识,这一部分正在快速消散,而且往往被管理者和员工自己误认为是上一类的东西。
这两类价值需要被分开看。
他们知道的行业规则、流程细节、公开案例:AI 在公开数据上已经知道大部分,在他们的具体组织语境里也在快速学习。这部分是“可蒸馏价值”。
他们累积的熟练度:AI 不疲劳、不出错、成本不断下降,在大部分结构化任务上已经超过了人类熟练工的中位数。这部分也是“可蒸馏价值”。
他们和外部的关系:一部分可以被文档化(谁是什么样的人、沟通风格、历史交互),一部分不能(真正的信任关系、长期合作中建立的默契、对方愿意为你做一些合同之外的事)。可被文档化的部分正在被组织的知识库系统性地蒸馏;不可文档化的那部分是“难蒸馏价值”。
他们对流程的理解,其中“流程怎么跑”是可蒸馏的;“流程之外的灰色地带怎么处理、什么时候该走非正式路径、谁可以绕开谁”这些是难蒸馏的。
所以更精确的说法是,这些人现在还在岗位上,部分是因为真实难替代的价值,部分是因为他们身上附着的可蒸馏知识 AI 还没蒸馏完。两部分的比例因岗位而异,而组织和员工自己常常把后者也当成前者。
这不是说这些人是“烂人”,他们是工业时代合格的工作者。在一个稳定的生产体系里做可重复、可监督、可测量的工作,他们的价值通过“严格按规则操作 + 长时间稳定产出”实现。他们不是笨、不是懒,他们是这个位置的合适人选。
但对其中相当一部分岗位,这个位置本身在消失,特别是那些价值里“可蒸馏”占比高、“难蒸馏”占比低的岗位。
蒸馏的机制
他们身上的知识正在通过几个同时进行的机制被蒸馏:
一、他们自己用 AI 的时候在蒸馏
每次他们用 AI 处理工作(即使是当百度用),他们都在把自己脑子里的隐性知识显式化。他们 prompt AI 的方式、他们问的具体问题、他们对 AI 答案的修改,这些都在把他们的隐性知识暴露给 AI 系统。
具体说,他们本来知道“这个客户喜欢 A 不喜欢 B”(隐性知识)。某次他们让 AI 帮写邮件时,在 prompt 里加了“注意这个客户喜欢简洁不喜欢长篇大论”,这个隐性知识被文本化了。
一旦被文本化,它就可以被记录、被学习、被复制。下次你让 AI 给这个客户写邮件时,可以直接给它同样的上下文,不需要那个人了。
他们每用一次 AI,就泄露一点自己的价值。他们自己感觉不到,因为在他们看来这只是“给 AI 一些背景信息让它输出更好”。实际上这是他们存在价值的净损失。
二、他们和同事协作的时候在蒸馏
他们解释一件事给同事听、在会议里描述某个情况、在文档里记录某个流程,这些动作都在把隐性知识显式化。如果这些文档、会议录音、Slack 消息进了公司的知识库(现在很多公司在做这件事),那这些知识就进入了可被 AI 检索和学习的范围。
三、他们被要求文档化的时候在蒸馏
很多公司现在在推“知识管理”、“流程文档化”、“tribal knowledge capture”,理由是“让组织的知识沉淀下来”。听起来像是在帮公司留住知识,实际效果是把原本绑定在人身上的知识抽取出来,存进组织可以使用的系统里。一旦抽完,原来绑定这些知识的人就变得可被替代。
这不是阴谋论,这是现实。很多大公司的 HR 和运营部门都在主动做这件事,他们不一定意识到最终效果,但效果是真实的。
四、整个行业级别的数据在被 AI 公司收集
一个公司的领域知识可能是员工独有的,但整个行业的领域知识正在被各种 AI 公司通过各种途径收集和训练,财报、行业报告、专业论坛、公开讨论、公开的合同和案例。每一年,基础模型对各个行业的理解都在加深。
这意味着:即使员工不主动蒸馏自己的知识,整个行业的集体知识也在被蒸馏。等到某个时点,模型对某个行业的理解已经超过了一个普通从业者的平均水平,那这个从业者身上附着的“领域知识”价值就归零了。
不同知识的蒸馏速度
不同类型的知识蒸馏速度差别很大。不精确给具体年数,因为底层模型迭代速度在变、多模态能力和机器人能力在快速进步、不同行业被“啃”到的深度也不同。但大致的相对顺序是稳定的:
最先被蒸馏完:
- 流程性知识(某个行业的标准操作流程)
- 公开规则的细节(法规、税务、合规)
- 常见问题的解答(客服、技术支持、常规咨询)
- 模板化的工作(标准合同、标准报告、标准设计)
随后被蒸馏:
- 领域判断经验(什么时候用哪种方案)
- 客户特异性知识(常见客户类型的偏好和处理方式)
- 行业常识(行业 insider 才知道的“一般是这样”)
较长时间内仍有价值:
- 特定复杂情境下的灰色判断
- 涉及多方利益协调的政治性判断
- 需要长期关系积累的信任性工作
- 涉及物理世界的精密操作
目前看最难被蒸馏:
- 真正的创造性判断
- 人际关系本身
- 和物理世界的深度互动
一个补充判断:“涉及物理世界”这条护城河是有期限的。它在 2026 年这个时点确实是一道厚墙,因为具身智能、通用机器人、精密操作的成熟度还远未达到替代水平。但这不是一条永久的墙,多模态大模型 + 机器人学的进展速度比很多人预期的快。所以“做物理世界的工作”带来的安全感应该被理解成“在一段时间内相对安全”,而不是“永久避风港”。时间窗口是多少年,取决于后续几代基础模型和机器人硬件的进展速度,没有人能准确预测。
所以不同岗位的人面对不同长度的时间窗口。做可文本化流程性工作的,窗口最短;做复杂灰色判断或长期关系性工作的,窗口较长;做真正创造性工作的,基本不在当前一轮蒸馏威胁里;做物理世界工作的,现在安全、但要留意下一代技术何时追上来。
一个反直觉的推论
这个框架给出了一个反直觉的推论:
高端知识工作受 AI 冲击反而更直接。
过去讨论 AI 对工作的影响时,默认假设是“AI 从底层往高层替代”,先替代简单工作、再替代复杂工作、最后可能挑战高端工作。
这个假设是错的。AI 不是从“简单”往“复杂”替代,它是从“可文本化”往“不可文本化”替代。
很多高端知识工作恰好是高度可文本化的,战略分析、投资研究、法律文书、咨询报告、学术研究。这些工作的产出和过程都是文本性的,所以它们的知识容易被蒸馏。
很多看起来“低端”的工作反而不容易被蒸馏,一个资深销售对特定客户的理解、一个修车师傅对机械的身体感觉、一个护士对病人状态的直觉、一个 boss 对员工状态的观察。这些知识大量是隐性的、具身的、情境性的,AI 难以接近。
所以“中层管理者”这种高学历、高薪、看起来“高端”的岗位,可能是 AI 时代价值消散最快的岗位之一。因为他们的工作大部分是可文本化的判断,阅读报告、做决策、写反馈、开会、发邮件。这些东西 AI 能做的部分正在快速扩大。
反过来,一个真正做创造性工作的设计师、一个做深度关系性销售的人、一个在物理世界做精密工作的技师,他们的价值反而相对韧性更强。
需要加一个时间限定:这里说“在物理世界做精密工作的人相对安全”,指的是 2026 年这个时点。具身智能和通用机器人目前距离替代一个熟练技师还有不小距离,但这个距离在被持续缩小。所以“具身性 = 安全”不是一条永久结论,是一段较长但有限的窗口。具体多长取决于下几代多模态模型和机器人硬件的成熟度,而不是某种原理上的不可替代。
这个反直觉让很多公司的组织结构正在经历价值重新分布,不是沿着“级别高低”分布,是沿着“知识是否可蒸馏”分布。而大部分组织(包括员工自己)还没意识到这件事。
评估岗位时,时间维度没法再忽略
蒸馏曲线带出一个简单但常被跳过的观察:评估一个岗位时,“当前产出”不再是单独变量。
过去评估一个岗位,只看“现在这个岗位在创造多少价值”。这个评估默认了一个隐藏假设:这个岗位的价值会在可预见未来大致稳定。在一个变化慢的时代,这个假设是合理的。
在 AI 时代这个假设不成立。同样“现在创造 X 价值”的两个岗位,如果一个面对的是还在快速加深的蒸馏,另一个面对的是较稳定的不可蒸馏价值,那两个岗位的实际价值完全不同,前者是一段正在耗尽的库存,后者是一条可持续的现金流。
这里不给一个看起来精确的计算公式,因为“剩余时间窗口”没法被准确量化、“维持成本”也不是单一维度(包含工资、占用的位置、对招聘新角色的挤压、对组织心态的影响)。强行塑成公式只会制造伪精度。
但把这个维度带进讨论是必要的:
- 一个看起来还在创造价值、但大部分价值来自可蒸馏知识的岗位,它的账面贡献和长期贡献可能已经严重背离
- 一个价值不耀眼、但建立在难蒸馏能力(长期关系、物理操作、真实判断)上的岗位,它的长期贡献可能被系统性低估
- 组织对这两类岗位的处理方式经常是颠倒的,前者被保留因为“还在产出”、后者被边缘化因为“产出不够亮眼”,这种颠倒在 AI 时代的成本比过去任何时候都高
承认自己没有能力给出准确的时间窗口,比给出一个假装精确的公式,更接近真实。
一个反向机制:被蒸馏完之后,剩下的反而升值
上面讲的是蒸馏如何让岗位价值贬值。但蒸馏本身还带出一个反向机制,容易被忽略:某类知识被大规模蒸馏完之后,剩下没被蒸馏的那部分,反而会稀缺升值。
几个叠加的原因:
一、AI 训练数据的递归消化。基础模型把公开可获得的文本、代码、专业内容几乎全部消化了一轮。下一轮提升需要更稀缺的数据:真实场景里的一手判断、复杂情境下的非标准操作、没被公开写下来的默会知识。这类数据正在成为训练市场里的稀缺品。这意味着,能产生这类数据的人(做真正判断、处理复杂情境、拥有默会经验)在事实上持有一个正在升值的资产。
二、AI 生成内容爆炸让“未被蒸馏过的东西”成为识别信号。AI 生成的文本、代码、报告、设计在快速饱和市场。当所有中等质量的可文本化产出都变得几乎免费,“这个东西一看就不是 AI 出的”本身成了一个稀缺信号,不是因为它技术上 AI 做不到,而是因为它来自一个 AI 没有消化过的视角、一种未被蒸馏的判断路径、一段没有公开样本的具体经验。
三、蒸馏曲线的另一面是“反蒸馏”。某些能力越是被广泛 AI 化,它的反面:“人手工做、人亲自判断、人真实在场”,越是会被作为一种独立价值被消费。这在文化产品、高端服务、人际信任场景里已经可以看到苗头。这不是怀旧情绪,是一种严格意义上的稀缺性再分配。
这个反向机制不是对前面蒸馏分析的否定,是补充。整体图景是:大部分可蒸馏的工作在贬值;剩下的不可蒸馏的部分在稀缺化、升值。两端在拉开。而且这两端不是对称的,可蒸馏部分的贬值速度,远快于不可蒸馏部分的升值速度,所以从社会总量看,大部分岗位面对的是净贬值;但从少数岗位看,它们的价值反而比过去更高。
这也解释了一个观感上的反常:AI 时代部分顶级岗位的薪酬不降反升。不是因为 AI 没冲击它们,是因为冲击把周围一圈可替代位置压扁了,剩下那个真正不可替代的位置变得相对更稀缺、因此更贵。
对人的意义
从人的角度看这件事。
你不是因为“不够努力”或“不够优秀”被 AI 替代,是因为你的知识的可文本化程度决定了替代速度。这不是能力问题,是知识属性问题。
这件事不按“人品”、“努力程度”、“职业尊严”分布,它按一个更冰冷的维度分布:你做的事情有多少是可文本化的。
所以“这个时代的流水线工人”,过去是真正意义上的流水线工人(可重复的体力劳动),将来越来越多是做可文本化判断工作的白领,客服、初级分析师、中层执行者、文员、一般程序员。
他们不是“错了”,他们是在一个他们出生时还完全合理的岗位上,这个岗位在他们职业生涯中期开始消失。
对这类人最残酷的诚实是:不假装他们的位置会长期存在、不美化他们剩余的价值、不让他们把精力投入在“适应 AI 时代”这种大部分时候做不到的事情上。而是:在他们的位置消失之前,给他们足够的时间和资源为下一步做准备。
这不是温柔,是比伪装更接近尊重的诚实。
第六章 · 最后
三篇合起来,讲的是同一件事的三个层次。
Issue 1 讲个体的认知分化正在发生,大部分人把知识经验错当成了认知能力。当 AI 把前者摊平,后者被单独暴露的时候,一场过去被遮盖的认知不平等第一次变得可见。
Issue 2 讲个体怎么在这个分化里找到自己的位置,不是方法论,是回到学习的本质。把自己的判断持续暴露在现实反馈下,用 AI 加速这个过程而不是加速它的伪装。
Issue 3 讲这个分化如何通过组织形态被放大成更深的结构性变化,在认知密集型这个收缩区间里,协作池在收缩、旧的那套管理在失效、岗位价值在被蒸馏;同时在另一些区间里(资本密集、强监管、高合约风险),公司反而可能更必要。
三件事是同一件事。底层都是:AI 把工业时代那些把“能力”和“产出”捆绑在一起的外部机制(学历、岗位、流程、经验、熟练度、博闻)拆掉了,让真正决定判断质量的底层能力第一次被单独暴露。
个体看到的是自己的认知能力是不是真的存在(Issue 1)、应该怎么去建立(Issue 2)。 组织看到的是自己的形态是不是还能运转(Issue 3)。
两件事互相作用:有真实认知能力的个体会流向能让他们的能力被放大的组织形态;无法让 AI 真正发挥作用的组织形态会逐渐留不住有判断力的人。这个流动不会一夜之间发生。但它已经开始。
几个本文故意没有回答的问题
完整起见,有必要把本文没有回答的问题列出来,避免读者以为它们是被忽视的。
一、既然大公司在 AI 提效上结构性劣势,为什么很多大公司还在长大?
因为 AI 提效只是它们面对的诸多竞争维度之一。它们可能靠分发渠道、网络效应、监管壁垒、品牌、长期客户关系、资本壁垒在另外的维度上稳固。这些维度和 AI 提效几乎不冲突。所以“大公司在 AI 提效维度上失势” ≠ “大公司在整体竞争里会倒下”。本文第三章末尾已经强调了这个边界,在这里再次申明:两件事不在同一个坐标轴上。
二、如果我在这样的大公司里、或管着几十人的团队,该怎么办?
诚实的答案是:本文不知道。
任何在这个位置上给出“三步走方案”的内容,大概率是伪装的。真实的情况是,处于这个位置的人面对的问题因组织、行业、具体角色、个人筹码而异,没有一个通用答案。本文能提供的只有诊断:让你看清楚自己处在哪一个区间、手里的岗位价值有多少来自可蒸馏知识、你周围的组织是在加强哪个维度上的护城河。基于诊断做选择,比基于方案做选择更靠谱,因为方案会过时,诊断给出的判断方法不会。
三、“新管理”是什么?
本文第四章已经回答过一次:我们不知道。一组旧动作在失效,一些新动作在浮现,但它们还没凝结成一个有名字的体系。这个状态可能还会持续相当长一段时间,类比地讲,工厂取代手工作坊几十年之后 Drucker 才写出现代管理理论。我们现在在类似的位置,而不是在它的终点。
四、个体在这个分化里该做什么准备?
Issue 2 已经写了它能写的那部分,学习方式的重建、把判断持续暴露在现实反馈下、避免 AI 伪装成熟练度。更进一步的“该做什么准备”,需要结合个体自己的起点、资源、风险承受力来判断,本文没法替任何人回答。
承认这些问题没有答案,比硬造答案更接近诚实。
这一系列不给方案
最后要说的是,这三篇文章从头到尾没有给任何方案。
- 没有“如何成为 AI 时代赢家”的鸡汤
- 没有“如何转型你的公司”的咨询建议
- 没有“如何在 AI 时代学习”的方法论清单
- 没有“未来会怎样”的预测
因为这些都不是这些文章的职责。这些文章的职责是描述正在发生的事,尽可能精确、尽可能诚实、尽可能承认自己无法推出的东西。
读者读完之后不会“知道应该做什么”。读者读完之后可能对自己当下所处的现实更清楚了一点。基于清晰的现实做选择,比基于各种方案做选择,更可能做对。
这是这个系列希望提供的唯一东西:一个更清晰的现实描述。
最后一个问题
回到 Issue 1 结尾那个最后的自检:
你最近一次真正改变重要看法是什么时候、因为什么改变?
现在再加一个:
你周围的组织、你所在的团队、你和你合作的人,他们在按照哪个时代的逻辑在运作?这套逻辑还剩多少时间?
答得出具体的,你至少看见了现实。 答不出的,你可能还在现实之外。
不管哪种,时间都在走。
附录 · 入门书单
本文涉及的几条核心线索,公司的本质、管理范式的历史、组织形态的替代尝试,各有经典读物。按主题分组、按难度从低到高排列。
公司为什么存在(第一章 Coase 框架)
- 《企业的性质》Ronald Coase(1937 年原始论文,中文有多种译本,薄但密度极高)
- 《资本主义的经济制度》Oliver Williamson
- 《看得见的手:美国企业的管理革命》Alfred D. Chandler
管理范式的形成与局限(第四章)
- 《科学管理原理》Frederick W. Taylor(要理解泰勒-科层范式到底说了什么,读原文比读二手评论准)
- 《管理的实践》Peter Drucker(1954 年,现代管理学的起点文献)
- 《转危为安》W. Edwards Deming(对泰勒式管理的第一波系统性反思)
- 《第五项修炼》Peter Senge(Drucker-Senge 这一脉的代表作)
- 《卓有成效的管理者》Peter Drucker
组织形态的替代方案
- 《重塑组织》Frederic Laloux(对 Holacracy、Teal 组织等替代形态的系统梳理)
- 《Holacracy: The New Management System for a Rapidly Changing World》Brian J. Robertson
- 《海尔转型:人人都是 CEO》(人单合一的内部视角)
- 《Maverick》Ricardo Semler(Semco 的极端自治实验,早于 Holacracy 几十年)
关于变化的结构性问题
- 《创新者的窘境》Clayton Christensen(为什么优秀的大公司无法适应范式变化)
- 《国家的视角》James C. Scott(对“自上而下的可读性”这套逻辑的系统批判,和泰勒范式背后的假设同根)
- 《失控》Kevin Kelly(对分布式协作、涌现式组织的早期系统性讨论)
关于深度工作与知识工作的组织
- 《深度工作》Cal Newport
- 《没有邮件的世界》Cal Newport(讨论现代白领被协作仪式淹没的结构性问题)
读的时候有个实用提示:前面这些书不是拿来直接套用的方案手册。它们的价值是让你看清楚自己身边的组织处在哪个范式的语言体系里,以及这个范式的历史假设是什么。看清楚这个,比找到一个“新管理方法”更重要,因为新范式目前根本不存在。
引用与出处
本文涉及的主要事实性断言的来源。
关于公司存在的理论基础(第一章)
- Ronald H. Coase, “The Nature of the Firm,” Economica 4, no. 16 (1937): 386-405,提出交易成本框架,至今仍是解释公司为什么存在的最清晰起点
- Oliver E. Williamson, The Economic Institutions of Capitalism(Free Press, 1985),在 Coase 基础上发展出资产专用性、机会主义等核心概念,新制度经济学的奠基之作
- Coase 因此获 1991 年诺贝尔经济学奖;Williamson 获 2009 年诺贝尔经济学奖
- “法律合约权力”和“品牌信任背书”两类交易成本在 Coase/Williamson 原始框架中被提及但未展开,本文将其单独列出是基于现代组织实践的补充
关于 AI 在大型组织内落地的阻力(第三章)
- Amdahl 定律:Gene Amdahl, “Validity of the Single Processor Approach to Achieving Large-Scale Computing Capabilities,” AFIPS Conference Proceedings 30 (1967): 483-485,原本是并行计算语境,本文借用它描述“局部加速对整体影响受限于该部分占比”这个结构性规律
- 关于大公司 AI 采用的企业调研:McKinsey《The State of AI》年度报告(2024-2026 连续三年)记录了大型企业 AI 部署普遍出现的“任务级提效但组织整体产出未变”的模式
- “AI 抗体”不是一个学术术语,是本文对一个经验现象的命名,参考了 Clayton Christensen 在《创新者的窘境》中对大公司如何系统性抗拒颠覆性创新的分析
关于管理范式的历史(第四章)
- Frederick W. Taylor, The Principles of Scientific Management(Harper & Brothers, 1911),泰勒-科层范式的奠基文本
- Peter F. Drucker, The Practice of Management(Harper & Row, 1954),首次把“管理”作为一门可教授的学科提出,Drucker-Senge 一脉的起点
- Peter M. Senge, The Fifth Discipline(Doubleday, 1990),系统思考、学习型组织的代表作,对泰勒式管理的另一种反向路径
- 从手工作坊到 Drucker 的时间跨度(约 1900-1954),本文用它类比 AI 时代从“旧管理失效”到“新管理凝结”可能需要的时间
关于替代性组织形态
- Brian J. Robertson, Holacracy: The New Management System for a Rapidly Changing World(Henry Holt, 2015),Holacracy 的系统性说明
- Frederic Laloux, Reinventing Organizations(Nelson Parker, 2014),对 Teal 组织、Holacracy、自管理团队等替代形态的综合梳理
- Spotify 模型的“部落/小队/分会/公会”结构:Henrik Kniberg & Anders Ivarsson, “Scaling Agile @ Spotify”(Spotify 内部白皮书,2012),该模型后来被 Spotify 官方承认在规模化后遇到严重问题
- 海尔人单合一(RenDanHeYi):张瑞敏相关著作及哈佛商学院案例研究(Frynas et al., “Haier’s RenDanHeYi,” California Management Review, 2018)
- Ricardo Semler, Maverick(Warner Books, 1993),Semco 极端自治实验的第一手叙述
关于知识工作的文档化与蒸馏(第五章)
- 组织知识管理对“tribal knowledge capture”的系统推动:Ikujiro Nonaka & Hirotaka Takeuchi, The Knowledge-Creating Company(Oxford, 1995),隐性知识 / 显性知识的经典区分
- 可文本化 vs 不可文本化的能力分布:借用 Michael Polanyi 的 tacit knowledge 概念(The Tacit Dimension, 1966)
- 关于 AI 训练数据递归消化的判断:Villalobos et al., “Will we run out of data? An analysis of the limits of scaling datasets in Machine Learning”(arXiv:2211.04325, 2022 及其 2024 年更新版本),预测高质量文本数据将在 2026-2032 年间被充分消化
关于创新者的窘境与组织的自我束缚
- Clayton M. Christensen, The Innovator’s Dilemma(Harvard Business Review Press, 1997),大公司为什么在面对颠覆性技术时系统性失败。本文第三章“AI 在大公司无法发挥作用”的分析沿用了这个框架的部分逻辑
关于协调成本与现代协作工具
- Cal Newport, A World Without Email(Portfolio, 2021),现代白领被协作仪式淹没的结构性问题
- “异步协作”作为一种组织实践的讨论来源:GitLab 的远程工作手册(about.gitlab.com/handbook/)
Issue 3 完 · Invisible Instruments Press · 2026