大部分人用 AI 的方式,在损伤认知,不是增强它
前言
上一篇讲的是 AI 时代的认知分化:大部分人把知识、经验、熟练度错当成了认知能力本身。当 AI 把前三样摊平之后,剩下被单独标价的那一层(认知去耦能力),大部分人根本没有,而他们过去的成功经验告诉他们“我是有能力的”。
读完之后一个自然的问题是:我想提升这个能力,怎么用 AI 来帮我做到。
这一篇讲这件事。但不是从“方法”开始讲,是从一个更基础的事开始:大部分人用 AI 的方式,其实在损伤这个能力,不是增强它。
如果不先看清这个失败模式,后面讲的任何“正确用法”都会被既有习惯吞没。
第一章 · 大部分人用 AI 的方式在损伤认知去耦
这不是道德批评。大部分人,包括写这篇文章的作者,都在某种程度上这样用 AI。因为当前的使用方式有很深的结构性原因,不是靠意志力能简单克服的。
这一章只做一件事:把这个失败模式讲清楚。它长什么样、为什么会这样、为什么这是损伤、方向在哪里。
我们都在做什么
观察一下任何一个认真使用 AI 的人(自己、同事、朋友),他们和 AI 的大部分互动落在三种模式里。
一、当百科用
想到一个问题就问:“X 是什么意思”、“Y 公司在做什么”、“Z 技术的原理是什么”、“这个历史事件的来龙去脉”、“这种药物的副作用”。问完得到一个流畅的解释,读一遍,感觉“懂了”,然后关掉对话。
这是 AI 使用里最普遍的一种,可能占所有互动的大部分。每次都是独立的一次查询,前后问题之间没有连续性,也没有任何问题被带入后续的具体行动。
二、当确认工具用
心里已经有一个答案或判断,问 AI 的目的是让它告诉你“对,你是对的”。
有时候这种使用是有意识的,你想要一个论据来支持你已经打算做的事。但更多时候是无意识的,你提问的方式、你给的背景、你的措辞本身就在引导 AI 给出你想要的方向。AI 是一面顺从的镜子,你怎么朝它笑它就怎么笑回来。得到期望的确认之后,你把这个确认当作“思考的结果”接受下来。
这种模式比“当百科”更隐蔽,因为它伪装成了“和 AI 讨论”。看起来你在严肃地考虑一个问题,实际上整个过程从头到尾没有任何新东西被加入你的认知里。
三、兔子洞
开始的时候你在追一个具体问题。AI 给出答案,答案里提到一个你不熟悉的概念,你顺手问一下。新的回答又带出另一个有意思的角度,你又顺着追。两小时之后你已经偏离最初的问题不知道多远,脑子里过了几十个新概念,你自己都说不清从哪里跳到哪里的。
结束之后脑子里一片模糊的热闹感。你觉得“刚刚好像学到很多”,但如果让你具体说出学到什么、哪个会用在什么地方、哪个改变了你的某个判断,答得出的几乎没有。
这三种模式的共同特征是:你从 AI 那里得到了一些东西(信息、确认、热闹感),但你的认知系统没有被触动。输入和输出之间,没有任何“你自己在做判断”的环节。
知识已不是资产
过去这种使用方式的问题不大,因为过去知识本身还值钱。你多知道一些东西,至少有一种社会资本的价值。记得多、说得出、看过的多,这些在知识稀缺的环境里是真实的差异化。一个“博闻”的人哪怕没有特别强的判断能力,也有某种社交和职业层面的优势。
AI 时代这层价值归零了。
每个人动动手指都能知道,而且知道得比你快、比你准、比你深。你记得的历史典故,AI 比你记得多,并且随时告诉任何人。你读过的商业案例,AI 整合过全世界公开的案例。你略懂一二的冷门领域,AI 的了解通常远超一个业余爱好者。“博闻”这个词过去描述的个人资产,现在每个人都有,因为每个人都接入了同一个外部数据库。当每个人都有一样东西的时候,这个东西就不再是差异化的资产。
这件事让前面三种模式的残酷性显现出来。
这三种使用最终的产出是什么?是“我知道了更多东西”。
过去“知道更多东西”是值钱的,哪怕投入产出比不高,至少在累积一种稀缺资源。
现在“知道更多东西”已经不值钱了。你在用前所未有的效率,累积着一种模型一秒钟就能给出的东西。
所以这不是“效率低”的问题,是你花了大量时间和注意力,累积了一堆没有价值的东西。而这些时间和注意力本来可以用来做真正有价值的事:训练判断力、做真实的事、积累不可文本化的经验。
为什么会这样
但这不是因为大家懒,也不是认知低。三个结构性原因叠加导致了这种局面。
一、成本变了,但我们的行为节奏还是过去那个
过去问一个问题要付真实的成本:时间(查资料半小时)、金钱(书、课、数据库)、人情(占用别人时间)。这些成本本身就是过滤器,大部分“想问”的冲动在还没到达行为之前就被成本过滤掉了。于是我们内化了一种节奏:问问题是要付成本的,所以要挑着问。
AI 把这些成本全部降到了接近零。但我们内化的行为节奏没有跟着调整,我们还是在用过去的“问问题意愿”向这个零成本的接口发射提问。过去被成本自然压制的所有“想问”冲动,现在都被无代价地释放出来。
结果就是一个原本每周会问三五个问题的人,现在一天能问三五十个问题。不是因为他的“学习意愿”突然涨了十倍,是因为过去被压制的所有冲动,现在一起涌向了一个没有成本的出口。
二、“想知道”和“学习”的体感极其相似
当你查一件事、得到答案的那一刻,大脑在那一刻是感觉在学习的。注意力集中、有新信息进入、某种“哦原来如此”的满足感。
这不是偶然。神经科学研究发现,获取新信息这个动作本身就激活大脑的奖励系统——“哦原来如此”的满足感,和你获得食物、金钱时激活的是同一套多巴胺回路。也就是说,奖励感是获取信息的副产品,不是学习发生的证据。它会发生在每一次你得到新信息的时候,不管这个信息最终会不会被你用上。
差别只在这个“原来如此”接下来有没有被你用上。用上了,是学习;没用上,是消费。但两者在当下的体感几乎一样。
这就是一个结构性的困境:你无法用“感觉”来区分自己在学习还是在消费。你觉得自己在学习的时候,可能只是在消费。而由于消费的体感和学习几乎一样,反思自己的行为变得异常困难,每一次你“回想刚才是不是在真正学习”,都会得到“是的,我感觉在学习”的答案。
三、AI 本身的设计让“继续问”成为默认
AI 永远耐心、永远详细、永远友好。它不会像一本书一样让你在某个自然停顿点合上书来吸收,它的节奏由你决定,但它的存在本身在持续地邀请你继续。每一个回答都结构完整、清晰易读、暗含“如果你还想了解更多可以继续问”的开放性。
这不是 AI 的错,这是它被设计成的样子。作为一个可用的对话工具,它必须随时可用、永远友好。但在这种设计下,“继续问”变成了阻力最小的下一步,而停下来需要主动动作。
为什么这是损伤
把上面几件事放在一起(三种模式、知识贬值的背景、三个结构性原因),还只是在描述现象。更深的问题是这些模式主动让认知去耦能力退化。
Issue 1 里讲过,认知去耦的核心是在已有框架都不适用的情况下,自己从零建立判断。这种能力的建立需要三个条件:
- 有一个真实的、需要判断的情境
- 你自己先尝试做判断(即使很粗糙)
- 承担这个判断的后果或者获得真实的反馈
前面三种模式里:
“当百科”和“当确认”完全破坏了条件二。你直接跳过了“自己尝试做判断”这一步,拿到的是 AI 的成品。每这样一次,你少一次练习判断的机会。
“当百科”是因为你根本没在做判断,你只是在获取信息。 “当确认”更糟,你以为自己在做判断,但你真正做的只是给 AI 暗示然后接受它的回响。
“兔子洞”更严重,它连条件一都没有。没有真实情境,就没有什么需要判断,所有“思考”都是空转。你以为自己在深入学习一个话题,实际上你在被 AI 一个接一个的回答外部驱动着往前走。你的认知系统在整个过程中没有做任何自主动作,只是在接收、接收、再接收。
判断这种能力和肌肉一样:不用就会弱。过去生活里各种小判断(怎么理解一件事、怎么做一个决定、怎么评估一个说法)是判断力的自然训练场,大量积累在日常里。现在这些都外包给 AI 了,训练量直接归零。
所以不是“用 AI 对认知去耦没帮助”,是大量当前的使用方式在主动让认知去耦退化。
兔子洞这一种特别值得多说一句,因为它最有迷惑性。看起来是在“深入学习”,实际上是完全被外部驱动的状态。它有一个简单的自检可以识别:
“如果我现在离开这个对话,我能带走什么?”
答得出具体的东西,在探索,可以继续。 答不出,在兔子洞,立刻停。
不需要日志、不需要打分、不需要复杂的自我监控系统。就是一个嵌入日常的反射性自检动作。
方向
说到这里,“大部分人用 AI 在损伤认知去耦”这件事已经讲清楚了。接下来的问题是正确的方向是什么。
答案可以用一句话概括:
AI 不应该替你做判断。AI 应该让你的判断被校准。
这是一个方向性的判断,具体意味着什么,就是后面几章要一件一件展开的:
- 第二章讲“什么问题值得问”,真正值得问的问题都是从你正在做的事里长出来的
- 第三章讲用 AI 作为审阅者训练思维工具
- 第四章讲用 AI 整理你的经验、建立跨域的镜子
- 第五章讲 AI 能做的和不能做的
每一章都是“让 AI 校准判断”的一种具体形式。合起来构成一个完整的路径:从“问什么”到“怎么问”到“边界在哪里”。
这一章的任务到这里结束。
第二章 · 什么问题值得问
上一章说了一个方向:AI 是用来校准判断,不是替代判断。这一章进入第一个具体展开:什么问题值得问。
这不是一个风格问题(怎么写 prompt),是一个前置判断:哪些问题问了有价值,哪些问了没价值。这个判断不做,再好的提问技巧也只是把没价值的问题问得更漂亮。
delta 的定义
一个问题值得问,不由问题本身决定,由一个更具体的判断决定:得到这个答案之后,我下一步会做什么不同的事。
- 答案是“我就知道了”,这个问题不值得问
- 答案是“我会更了解这个领域”,大多数情况下这个问题不值得问
- 答案是“我会改变某个具体判断”、“我会做一个具体决定”、“我会验证一个我之前的假设”、“我会在正在做的一件事里调整某个做法”,这个问题值得问
这个区分的核心词是 delta:这个问题有没有产生真正的变化。
前 AI 时代这件事有一定宽容度,因为知识本身还值钱,“只是知道”也不算完全浪费。读一本不太相关的好书、看一篇有意思的文章、听一个有趣的人讲话,这些事情即使不导向任何具体行动,也能在潜移默化里积累某种东西。
AI 时代这个宽容度消失了。因为:
- 知识本身已经不值钱了(上一章讨论过)
- 你能获得的信息量是过去的几百倍,所以“潜移默化”的积累机制被洪流淹没
- 你的时间和注意力是固定的,没 delta 的问题占据了有 delta 的问题的空间
所以一个更严格的默认:AI 时代问问题的正确起点是“有 delta 才问”。不是说宽度探索被禁止了,是宽度探索的标准变严了,你要能说出这个探索最终会如何回到你正在做的某件事上。
delta 来自做事,不来自知识
讲到这里会有一个自然的反驳:
如果严格执行“有 delta 才问”,那完全的新手怎么办?他不知道一个领域,连问什么都不知道。不问大量问题怎么入门?
这个反驳听起来合理,但它暴露了一个很深的误解。
一个问题有没有 delta,不是由问题本身决定的,是由“问问题的人在做什么”决定的。
一个真正在种花的人问“这个品种喜欢什么土壤”,有 delta,因为答案会改变他明天买什么土。问“为什么我的叶子变黄”,有 delta,因为他会根据答案调整浇水或施肥。甚至问“什么是光合作用的基本原理”,看起来像兔子洞,但如果他对手头某盆花的黄叶有困惑、而这个原理会帮他理解它,这个问题就有 delta。
一个真正在种花的人问的 99% 的问题都有 delta,因为他脑子里有一盆具体的花在发生具体的事,任何问题都会被这盆花自动筛选。
一个没在种花、只是“对园艺感兴趣”的人问同样的问题,几乎全是无 delta 的,因为没有任何答案会导向他的任何行动。
所以 delta 的真正来源不是“有没有知识储备”,是“有没有在做一件真实的事”。
这个修正解开了“新手怎么办”的谜:新手真正缺的不是“知识储备”,是一件正在做的事。
- 没开始做事的人:AI 告诉他们的任何知识都是无效的,因为没有承接面
- 开始做事但不观察的人:他们问 AI 的问题没有具体上下文,所以得到的答案也是通用的、无 delta 的
- 开始做事且在观察的人:他们问出的问题自然就有 delta,因为每个问题都带着具体情境
这是 AI 时代一个被严重低估的技能:把现实的细节转化成 prompt 的上下文。这个技能不需要知识储备,只需要你真的在看你面前发生的事。
“我的花叶子黄了”比“花叶子为什么会黄”好一万倍。前者有 delta,后者没有。区别不在知识储备,在问题里有没有具体的观察。
最初的宽度扫描
但这里有一个诚实必须面对的情况:一个完全新手的最初阶段。
一个从没种过任何植物的人买了第一盆花,面对黄叶完全不知道从哪里问起。他甚至不知道“黄叶”是不是一个问题,还是正常现象。这种最初始的无知状态确实存在。
这种时候,允许自己问一些“地图性”问题:
- “作为一个新手,种多肉植物最常见的几个错误是什么”
- “一个刚开始养花的人,最应该理解的 3-5 个核心概念是什么”
- “如果我只能学一件事让我的花存活率提高最多,那件事是什么”
这类问题的特征是它们是元问题。它们不是在问事实,是在问“我应该关心什么、我应该问什么”。这是一种合法的入门方式,帮你在最短时间内建立起一个最小可用的概念框架。
但这种问题应该是有限的。新手的头一两周可以这样问。一旦有了最小概念框架,就应该切换到基于具体观察和判断的问题。
如果三个月之后你还在问“多肉养护最常见的错误是什么”,那你不是新手了,你是在兔子洞里。
做 → 观察 → 问 → 学 → 做
把前面的论点组合起来,AI 时代正确的学习循环是:
做 → 观察 → 问 → 学 → 做
这个循环和前 AI 时代的学习顺序恰好相反。
前 AI 时代的默认顺序是 学 → 做:你先读书、上课、掌握知识,然后才开始实践。这个顺序在过去是合理的,因为“学”的成本极高(时间、金钱、社交)。如果不先学就做,代价太大(犯很多不必要的错、走很多弯路)。
AI 时代把“学”的成本降到接近零。你可以在做的过程中随时获得你需要的具体知识。这让先做后学从过去的奢侈变成了现在的默认。
还在用“先学后做”的人,是在用前 AI 时代的学习习惯应对 AI 时代的环境,而这种习惯现在是负资产。因为它让你在“学”的阶段浪费大量时间(读很多以后不会用到的东西),反而延迟了真正有效的“做 → 观察”循环的开始。
正确的新手循环:
- 做一件具体的事,买一盆花、尝试写一段代码、开始跟踪一个市场
- 观察它发生了什么,叶子黄了、代码报错了、价格反向波动
- 把观察作为上下文去问 AI:“我的 X 情况、在 Y 环境下、出现了 Z,可能原因有哪些”
- AI 给几种可能
- 你根据能观察到的其他细节选一种最可能的解释
- 按这个解释做调整
- 观察调整的结果(对了还是错了?)
- 回到第二步
这个循环里,现实是主语、AI 是谓语。每个问题都带着观察数据,每个答案都会被下一步的观察验证。
新手不是靠知识储备问出好问题的,是靠把观察变成 prompt 的上下文问出好问题的。
这个循环还有一个重要的性质:“必要基础”是事后知道的,不是事前知道的。
很多新手掉进的坑是先列出“我要做这件事必须学的所有基础”,然后试图把这些基础一个一个学完再开始。
这条路在 AI 时代特别容易掉进去,因为 AI 可以无限满足你“我还没准备好要再多学一点”的焦虑。你可以问它列出入门书单、核心概念、必学技能,它每次都给得头头是道。你花好几个月沉浸在“准备阶段”,看起来很认真,实际一直没真正开始。
正确的做法是相反的:先做,然后根据做的过程中遇到的真实问题倒推你需要学什么。这个倒推才是识别真正“必要基础”的唯一可靠方式。
“做之前学多少”的答案是“最少”,不是“最多”。
到这里,AI 时代学习的底层节奏已经立起来了:做,观察,问有 delta 的问题,学到具体的东西,回来做。这是一个自我驱动的循环,它不需要意志力、不需要仪式、不需要打卡,只需要你真的在做一件真实的事。
但光有循环还不够。在循环之外,有两件事是 AI 时代真正要主动学的:思维工具和跨域深度。这两件事在 Issue 1 里被定义为认知系统的第二项和第三项。下面两章分别讲这两件事如何借助 AI 来完成。
第三章 · 用 AI 建模(一):思维工具作为审阅者
讨论过什么问题值得问之后,下一个问题是:AI 时代应该学什么。
“学什么”这个问题在 AI 时代的答案和过去完全不同。知识不值得学(模型比你知道得多)、技能的大部分在被自动化(执行层面 AI 越做越好)、各种“思维框架”大部分是装成工具的话术(读一下感觉涨姿势但下次遇到具体问题根本调用不出来)。
真正值得学的只有少数几件具体的事。思维工具是其中最关键的一件。
什么是思维工具
思维工具是装载在认知系统里、可以随时被调用的具体思考方法。它和知识的关系类似软件和数据:知识是一堆信息,思维工具是处理这些信息的程序。
覆盖最广、回报最高的四门思维工具是:
一、概率与不确定性推理
真正理解基准率、条件概率、样本偏差、选择效应、校准。不是学统计课程,是把它们变成判断的反射。
二、因果推理
区分相关和因果,理解混淆变量、反事实对照。大部分人把“A 伴随 B 发生”等同于“A 导致 B”,这一门就是系统地纠正这个习惯。
三、博弈论与激励结构
不需要数学深度,要的是在任何现象里自动识别“谁在为谁的决策买单”的反射。装上后看新闻、看政策、看商业现象的方式会完全不一样。
四、系统动力学
理解非线性、延迟反馈、涌现。大部分复杂问题的错误归因,都是因为没在脑子里跑反馈回路的模拟。
四门装齐之后,面对任何现象,认知系统会自动把它拆成“这里面哪些变量、因果方向如何、各方激励如何分布、反馈回路在哪里”,这不是思考技巧,是一种反射。
装没装上,有一个极简单的测试:面对新现象时,此人是直接给一个结论,还是会自动把它放进某个推理框架。前者贫乏,他的结论可能对可能错,但他自己分不清;后者已经内化,他会先问基准率、因果方向、激励分布、反馈延迟。
传统的学习路径为什么失败
学思维工具这件事,过去的默认路径是读一本经典书,反复读,试图内化。
比如学概率推理就读 Kahneman 的《思考,快与慢》,学因果就读 Pearl 的《为什么》,学博弈就读 Schelling 的《冲突的战略》,学系统就读 Meadows 的《系统之美》。
这条路径不是错的,这些书都是这个领域最好的入门读物之一。但它的失败率极高。
失败的具体表现:一个人认真读完了《思考,快与慢》,合上书时觉得自己“学会了”。三个月后你问他“你上周做过的判断里,哪几个用到了你从这本书学到的东西”,他答不出。半年后他在做决策时,依然在用直觉、依然会落入书里明确警告过的偏误、依然无法识别自己什么时候在做模式匹配什么时候在做真正的推理。
这不是他不够认真。这是学习方式本身的错配:读书只是接触信息,但思维工具需要的是在具体判断上反复调用才能内化。没有调用,再多读也没用。
过去的补救方案是“刻意练习”:读完书之后每天写判断日志、做决策复盘、有意识地套用工具。这个方案理论上对,实际上大部分人坚持不下来。因为写日志这件事本身是一种额外投入的精力,而你的精力没有冗余,两周内就会停。
结果就是绝大部分认真读过这些经典书的人,没有真正装上这些工具。
AI 时代的新路径:AI 作为审阅者
AI 把这条路径彻底重写了。
新的路径不是让 AI 教你这些工具,那样得到的是 AI 版本的书,没有比读原书更好。
新的路径是把 AI 当成一个对这个工具极度熟悉的苛刻审阅者,让它在你的真实判断上检验你有没有内化。
具体操作:
第一步:建立工具画像
让 AI 用一段话清楚地概括这个工具的核心、适用范围、最常见的误用、和其他工具的区别。这个画像不是给你读的,是接下来让 AI 保持一致审阅标准的参照物。
比如对于因果推理,让 AI 写清楚“好的因果推理应该做什么、不应该做什么、最常见的误用是相关性当作因果、混淆变量没有控制、反事实没有想清楚”。这段描述会成为 AI 在后续审阅中使用的标准。
第二步:拿出一个你最近做的真实判断
必须是真实的、具体的、你自己做的判断:工作上的、生活上的、对某个新闻的判断都可以。
必须是具体的:
- 好的判断:“我觉得 X 公司下一季度财报会不及预期,因为 Y”
- 不好的判断:“我觉得最近市场不太好”
后者无法被审阅,因为它没有具体内容。前者可以。
第三步:让 AI 用工具审阅你的判断
“请用因果推理的视角审阅我刚才的判断。我有没有把相关性当作因果?我说的证据真的支持因果方向吗?我漏掉了哪些可能的混淆变量?我的反事实假设合理吗?”
AI 会指出一堆问题,这些指出是你真正学会这个工具的地方。你不是在“读懂因果推理”,你是在看因果推理在你的真实判断上发现了什么。
第四步:基于反馈调整判断,再送回去审阅
直到 AI 没有重大反驳为止。然后换一个新的真实判断,重复。
十个判断之后这个工具开始内化;三十个判断之后,它变成反射。每个判断花 15 分钟,30 个判断大概 7-8 小时,分散在几个月里。
比啃完一本 500 页的书再试图内化要快得多、有效得多。
为什么这个方法管用
这个方法之所以有效,核心原因是它把学习的机制从“理解”转向了“被打脸”。
理解是一个在脑内发生的动作。你读一段话,觉得“懂了”。这个“懂”是一种感觉,不是一种能力。大部分“我懂了”的感觉在几天之后就消散了,什么都没留下。
被打脸是一个在具体情境中发生的动作。你做了一个判断,这个判断被指出有问题。这个“有问题”是具体的、带着疼痛感的、会让你想“下次不这样”的。每一次被打脸都在你的认知系统里留下一个真实的痕迹。
传统读书学习大部分是“理解”,很少是“被打脸”,因为书不知道你的具体判断是什么,它没法针对性地打脸。它只能给你一堆例子,指望你自己把例子套用到自己身上(这件事大部分人做不到)。
AI 时代的新路径解决了这个问题:AI 可以针对你的具体判断做精准反驳。它对这个工具的了解足够深、对你的判断的理解足够具体,所以它能做一对一的审阅。
一对一审阅过去只有真人导师或昂贵的顾问能做,书做不到。AI 让这件事变成了零成本、随时可得的东西。这是 AI 相对于过去大部分学习方式的结构性优势。
一个具体演示
为了让这件事更具体,下面用一个虚构的例子演示这个方法的机制——但要记住一件事:你自己应用时必须用真实的判断,虚构判断是审不出东西的(后面“关键的限制”里会再强调)。
假设你想学因果推理。
你写下的初始判断(虚构的):
“我最近观察到我团队里喜欢提问的人,在一年后留下来的比例更高。所以我觉得‘喜欢提问’是员工留任的一个重要原因。下一次招聘我应该更重视候选人的提问习惯。”
你给 AI 的 prompt:
“请扮演一个非常严格的因果推理审阅者。我认真对待这个判断,我要把它用于实际招聘决策。请指出我的判断里所有可能的因果错误:相关性被当成因果、混淆变量没控制、反事实没想清楚、选择效应、幸存者偏差。不要客气,我要知道我哪里想错了。”
AI 的反驳可能是:
你的判断里有几个严重的因果问题:
一、你没有控制混淆变量。“喜欢提问”的人可能本身就是更聪明、更投入、更好奇的人。真正让他们留下来的可能是这些底层特质,“提问”只是这些特质的一个外在表现。招聘时重视“提问习惯”可能抓错了信号,你真正想要的是底层特质。
二、你可能混淆了因果方向。“留下来”的人和“离开”的人面对的不是同一个环境。留下来的人可能正好被分到了好的项目、好的 manager,所以他们有更多提问的机会和动机。不是“提问让他们留下”,是“好的环境让他们既留下又提问”。
三、幸存者偏差。你观察到的是“还在团队里的人”,你没有看到那些“喜欢提问但走了的人”。如果他们的比例也不低,你的结论就不成立。
四、你的反事实没有想清楚。“如果我招了一个不喜欢提问的人,他会怎样”,你没有数据。你只有关于“喜欢提问的人”的数据,单方面的数据无法建立因果。
五、最致命的:你观察到的可能是噪声。你团队里有多少人?如果只有十几个,样本量根本不足以支持任何因果推论。
这个反驳给你的冲击远大于读完一本因果推理书,因为它针对你的具体判断。你会立刻意识到“原来我以为的清晰判断里藏着这么多错误”。
而且这个冲击会永久改变你下次做类似判断时的思考方式。你下次观察到某个相关性时,会自动开始问“混淆变量是什么?因果方向呢?选择效应呢?样本量够吗?”
这不是技巧提升。这是一个认知反射被装上了。
四门工具的并行学习
前面只讨论了因果推理。另外三门工具(概率、博弈论、系统动力学)可以用完全一样的方式学。
更有意思的是这四门工具可以并行学,而且会互相强化。
因为真实判断通常不只涉及一个工具。你对“员工留任”做的判断可以同时用因果推理审阅(因果方向、混淆变量)、用概率推理审阅(样本量、基准率)、用博弈论审阅(员工激励、管理者激励)、用系统动力学审阅(反馈回路、延迟效应)。
所以一个判断交给 AI 之后,可以要求它从多个工具视角审阅:“请用因果推理、概率、博弈论、系统动力学四个视角分别审阅我这个判断”。AI 会用四把刀同时切这个判断,你会看到它的四种不同问题。
这种多视角审阅是任何一本书都做不到的,因为一本书只讲一个视角,而你的真实判断是多维度的、需要多个工具同时起作用。
时间预估上,四门工具并行学,6-12 个月可以到“反射水平”。这个时间跨度对大部分人来说短得惊人(远短于任何学位课程),但回报大得多。
关键的限制
这个方法有一个关键限制必须讲清楚:
它只在你真的拿出真实判断时才管用。
如果你拿给 AI 的都是“虚构例子”、“课本上的案例”、“别人的判断”,AI 的审阅依然准确,但你不会真正内化。因为你没有承担那些判断的后果、你不会为那些判断付出代价、你的大脑不会把它们当成真实的事。
内化的本质是真实判断 + 真实反驳 + 真实后果修正。三者缺一不可。
还有一个更底层的事值得讲清楚:AI 的审阅能指出你推理的漏洞,但它不能替代现实对你判断的验证。它加速了你的校准过程,但真正的校准最终还是现实做的——是你选中的方向跑出来的结果、是你下注的判断被市场证伪或证实。AI 只是让你在接触现实之前先被打一轮脸,让你第二轮接触现实的时候少犯一些可以避免的错。
所以这个方法不是一个你可以“抽空学一下”的东西。它必须嵌入你的真实生活:你真实在做的工作、你真实在思考的问题、你真实在评估的情况。只有这样才能积累足够多的真实判断让工具反复打磨。
这也回到了第二章的那个循环:做、观察、问、学、做。思维工具的学习就发生在“问”和“学”那两步里。如果你没有在“做”、没有在“观察”,你就没有判断可以交给 AI 审阅,这个方法也就没有燃料。
思维工具解决的是判断的方法论,让你在任何领域的判断都更准。但它不会自动让你了解任何具体领域。一个装满工具的人面对一个他完全陌生的领域,依然只能做表面判断,因为他缺领域的深层结构。
这就是下一章要处理的:跨域深度。而且,在 AI 时代,跨域深度的建立方式和过去截然不同。
第四章 · 用 AI 建模(二):跨域同构从已有镜子出发
“通才”这个概念在最近几年被反复讨论。大部分讨论都暗示一条路径:你要去学很多新领域(读多个领域的入门书、订阅各种 newsletter、接触各种新概念)。这条路径的隐藏前提是跨域能力 = 知道很多领域。
这条路径大部分时候是失败的。
失败的证据很具体:那些“读书很多、涉猎很广”的人,在真实判断上并没有比“只在自己领域深入”的人明显更强。他们脑子里有更多概念,但这些概念没有被组合成真正的洞察。他们的“广度”是一种知识展览,不是一种判断力。
这条路径的失败暴露了一个很深的误解:跨域能力的本质不是“知道很多领域”,是“能用已有的深度去照新领域的结构”。
这个修正改变了关于“通才”和“学习新领域”的一切。
为什么必须从已有的镜子出发
先用一个极端例子说明这个判断。
一个从未深度理解过任何领域的人,读一本关于生物进化的书、再读一本关于市场竞争的书,他最多能产生的 insight 是**“哦,它们都讲了优胜劣汰”**。这个 insight 是教科书级别的陈词滥调,不会改变他任何判断。
一个在市场竞争里做了十五年、对这个领域有深度模型的人,读生物进化的时候会突然看到:
“所以市场里‘护城河’这个概念,其实对应生物里的‘生态位特化’。这意味着护城河深的公司和特化程度高的物种会共享同一个脆弱性:环境剧烈变化时特别容易灭绝。通才型公司像通才型物种(老鼠、蟑螂)在环境剧变时反而更有韧性。”
这个 insight 是他自己的。它不在任何书里、不是任何 AI 生成的,它来自他熟悉的领域被另一个领域的视角重新照亮了一遍。
区别在哪里?
第一个人没有深度模型,所以两边都只看到了表面,相似也只是表面。第二个人有一边的深度模型,所以他能用这个模型去质询另一边,质询出来的就是真正的 insight。
所以跨域同构只能被一个已经有深度模型的头脑识别出来。没有深度模型,你看到的只能是表面相似;有了至少一个领域的深度模型,你才有一把结构比较的尺子。
这个判断有几个重要的推论:
一、通才不是“知道多个领域”,是“有可以在任何新领域快速建起结构的能力”。而这个能力的起点是一面真实的镜子,你自己深刻理解过的那个领域。
二、想建立跨域能力的正确起点不是“学一个新领域”,是“把你已有的深度磨成一面可用的镜子”。这件事大部分人从来没做过,他们在领域里做了很多年,但从未系统地把经验抽象成可用的结构。
三、“我没什么专业领域所以跨域能力建不起来”是一个错觉。每一个认真做过某件事的人都有深度模型的原材料:工作、长期爱好、生活实践、专业技能。问题不是“没有”,是“没被整理成可用的镜子”。
你已经有镜子了
这一段特别重要,因为大部分读者读到这里会默认“深度领域必须是某个专业性很强的东西”,然后自觉地把自己排除在外。这个默认是错的。
深度领域的唯一标准是:你在这件事上接受过真实的反馈、做过真实的判断、承担过真实的后果。
这个标准下,深度领域可以是任何事:
- 一个认真做了十年饭的家庭主妇,在烹饪领域的深度模型可能比大部分读过烹饪书的美食博主都深,因为她有十年的真实反馈数据,知道什么时候按照菜谱做不出来、什么时候违反菜谱反而对、不同食材之间的真实互动规律
- 一个养了三个孩子的父亲,在儿童心理和人际关系方面有大量深度观察。他知道什么样的表达能让孩子真的听进去、什么样的惩罚会长期反噬、怎么处理兄弟姐妹之间的动态平衡
- 一个修车修了二十年的师傅,在机械系统和故障诊断上的模型远超任何书本知识。他知道一辆车在某个具体声音下可能发生了什么、不同故障之间的因果链、什么时候是小问题什么时候是大问题
- 一个做了十年销售的人,在人性、动机、说服、谈判上有极深的实战模型。他知道对方什么话是真话什么是托词、什么时候应该推什么时候应该退、价格和价值之间的真实关系
关键不在于这个领域“显得专业”,关键在于你真的在这个领域里接受过现实的反馈。
一个人文化程度不高、从未读过商学院、但认真经营了一家小店二十年,他对“生意”这件事的深度模型可能远超一个读了 MBA 但从未真正做过生意的顾问。因为前者有二十年的真实反馈数据,后者只有教科书里的案例。
前 AI 时代的悲剧是这类人从不知道自己拥有的这种深度有多珍贵。他们把自己经验叫做“常识”、叫做“土办法”、叫做“凭感觉”,从不把它们当作可以被系统化、抽象化、用来理解世界的资源。
AI 时代给这类人一个完全不同的起点:你已经有镜子了,只是没意识到。
把经验整理成显式的镜子
AI 能做的第一件关键事就是帮你把你脑子里的隐性经验挖出来,变成一个显式的、可以被用来质询其他领域的结构。
这个过程不难,但大部分人从没做过。
具体做法:
第一步:选一件你做了很久、有过真实反馈、承担过真实后果的事
工作、长期爱好、生活经历、专业技能,只要满足“有真实反馈 + 真实后果”这两个条件,都可以。
第二步:给 AI 一段具体的描述
不是抽象描述,是带具体例子的描述。
比如:
“我做了十五年销售,主要客户是中小企业老板。我观察到几个现象:
现象一:当客户第一次见面就问价格的时候,他们通常不会真的买。真的会买的客户会先问其他问题:我能解决他什么问题、我之前做过类似的案例吗、实施过程是什么样。
现象二:客户说‘我们需要开会讨论’几乎总是委婉的拒绝。真的需要开会讨论的客户会具体地说‘我需要和 X 和 Y 讨论,周二我们有个定期会议,我会在会上提出来,周三给你反馈’。
现象三:价格很少是真正的决定因素。我做过的所有失败案例,虽然他们当时说‘太贵了’,但复盘时我发现真正的原因是别的:他们不信任我、不信任产品、或者他们其实不是决策者。
请帮我把这些观察整理成一个关于‘B2B 销售过程’的因果模型。底层机制是什么?我的经验指向哪些一般规律?哪些可能只是偶然?”
第三步:让 AI 帮你挖深层结构
AI 会从你的具体观察里抽象出机制:
“你的观察指向几个深层机制:
一、真实需求 vs 表面需求。客户问价格这个动作,本身不代表他在评估价值。它可能是一个社交动作(显得我在认真考虑),可能是一个防御动作(让你离开的借口)。真正要买的客户的注意力在‘这个东西能不能解决我的问题’,这才是真实需求。
二、具体性 vs 抽象性 作为承诺信号。真的会买的客户描述他们的决策过程时使用具体词汇(具体的人名、时间、地点)。不会买的客户使用抽象词汇(‘我们’、‘要讨论’、‘有空再说’)。具体性的程度是承诺强度的一个可靠代理。
三、价格作为理由 vs 价格作为原因。价格几乎从来不是真实的决策原因,它是一个社会上可接受的拒绝理由。真实的拒绝原因(不信任、没决策权、优先级低)都难以说出口。所以客户说‘太贵了’99% 的时候你应该把它翻译成‘我有别的原因不买,但我不想讨论那个原因’。
四、把这些机制抽象化:你的观察其实在讲一个更一般的现象:人类在面对社交压力时,会用可被接受的表面理由掩盖真实原因。这个机制不只适用于 B2B 销售,它适用于任何涉及决策和社交压力的情境。”
第四步:检查和修正
AI 的抽象可能有些地方不准。你要用你的具体经验去验证:“这条机制符合我的观察吗?有没有反例?”
经过几轮往返,你会有一个显式的、用你自己的语言表达的、带有底层机制的领域模型。
这个模型就是你的第一面镜子。
一旦建立起来,它就可以被用来照其他领域:政治、教育、医疗、投资、人际关系,任何涉及“人类在社交压力下做决策”的领域。
用镜子照新领域
有了第一面镜子之后,进入一个新领域的方式完全不一样了。
传统方式:从零开始读这个新领域的入门书、教材、案例,花几个月到几年建立基础认知。
用镜子的方式:用你已有的结构去质询新领域,快速定位到深层机制。
具体做法:
第一步:明确你镜子里的关键机制
从你刚刚整理的深度领域里挑出几个关键机制。比如上面销售的例子:“真实需求 vs 表面需求”、“具体性作为承诺信号”、“价格作为拒绝理由”、“表面理由掩盖真实原因”。
第二步:用这些机制去质询新领域
假设你想理解医药行业。不是从“医药行业有哪些玩家”开始问,而是从你已有的镜子开始问。
“我在销售领域有一个观察:人们用表面理由掩盖真实原因。这个机制在医药行业的什么地方出现?比如病人选择某个药、医生开某个处方、医院采购某个设备,这些决策里,表面说的理由和真实原因之间可能有多大差距?”
第三步:AI 给出新领域里的对应机制
“在医药行业,这个机制非常明显,几个例子:
一、医生开处方。医生说的理由通常是‘这个药对这个病最有效’。真实原因可能包括:他对这个药比较熟悉(熟悉度偏好)、他最近和药代互动比较多(关系因素)、这个药有循证医学证据(学术保护伞)、这个药开了之后医院会有回扣(利益因素)。而且这几个因素通常同时存在,他自己都不完全清楚哪个在起主导作用。
二、病人选择医院/医生。病人说的理由通常是‘这家医院好’。真实原因可能是:朋友推荐(社交信号)、挂号方便(便利性)、之前来过(习惯)、离家近(成本)。‘医术好’这个标准病人其实无法真正评估,所以它是一个表面理由,遮蔽了那些他不好意思说出口的真实原因。
三、医院采购设备。采购方说的理由是‘需要更好的诊疗能力’。真实原因可能包括:科室主任的个人偏好、某个设备公司的公关力度、医院领导班子的派系平衡。这些真实原因都无法出现在采购报告上,所以表面理由必须存在。”
第四步:进一步质询——相同和不同
你会发现,你的销售镜子在医药行业部分成立(人类行为的底层机制相通),部分不成立(医药行业有自己独特的结构:医保、专业门槛、生命攸关的情境改变决策动力)。
这些相同和不同都是 insight:
- 相同的部分让你看到了跨越行业的底层机制(人类如何在社交压力下决策)
- 不同的部分让你理解什么是真正领域特有的东西(医药的独特性:专业不对称、支付方和消费方分离、生命攸关的情境)
两种 insight 都会增加你的判断力。
非线性的积累
这个方法随着镜子数量的增加会产生非线性的收益。
不是因为 n 面镜子让你能做 n 维比较——那只是线性增加。真正的非线性来自镜子之间的两两组合:两面镜子有 1 对组合,三面镜子有 3 对组合,五面镜子有 10 对组合。每一对组合都是一个独立的结构视角,让你看到新领域里的不同机制。组合数是 n(n-1)/2,增长速度快于镜子数量本身。
更重要的是——新领域里的某个机制在一面镜子里可能看不到,但在另一面镜子里清清楚楚。几面镜子同时照一个新领域,能命中的机制远超每面镜子独立比较的总和。
所以一个真正的通才不是“知道十个领域”,是有三到五面打磨得很清楚的镜子。这三五面镜子的组合,让他能快速理解几乎任何新领域的结构。
而且这个积累过程有一个反直觉的特性:每建一面新镜子,已有的镜子都会变得更清晰。因为在新领域里对它们的应用,会暴露它们之前没被发现的纹路。
所以“通才”不是一个积累到某个程度才到达的状态,它是一个每一步都在增值的积累过程。即使你只有两面镜子,你的跨域判断力也已经远超一个有十面浅镜子的人。
避开比喻陷阱
用镜子照新领域的时候,有一个陷阱必须避开:把“结构同构”退化成“表面比喻”。
比喻是“创业就像登山”、“婚姻就像合伙生意”、“生命就像一场旅程”。这些比喻在鼓舞情绪时有用,但在理解现实时几乎毫无价值,因为它们只抓住了表面相似。
结构同构是这样的:“创业公司的早期爆发式增长和登山里的 altitude sickness 共享同一个反馈结构:两者都是系统在没有完全适应环境的情况下被推到了极限,都会在某个临界点产生不可逆损害,而判断这个临界点的唯一方式是监测一系列间接信号而不是最终结果,因为最终结果出现的时候已经太晚了。”
这两种陈述的精度差一个数量级。比喻让你觉得自己懂了;结构同构让你真的能做出新的判断。
AI 在这里的关键作用是帮你从比喻下降到结构。
你提出一个比喻,让 AI 追问:
“这个比喻在哪里成立,在哪里不成立?这个相似是表面的还是结构的?如果是结构的,共享的是哪个因果机制?”
AI 会逼你从“A 像 B”精炼到“A 的某个具体机制和 B 的某个具体机制同构”。这个逼迫本身就是思维的提升。
如果你还没有任何深度领域
最后说一种情况——你可能觉得前面说的都对,但你自己真的没有一个明显的深度领域。你太年轻、还没开始工作、或者做的事不够深。
这种时候答案不是“去凑一个镜子”,是直接开始做一件能产生真实反馈的事。下一章讲的 AI 编程就是一个几乎任何人都能立即开始、而且反馈极其清晰的起点。做着做着,你的第一面镜子会自然长出来。
镜子不是找的,是做出来的。
前面两章讲了用 AI 做两件事:学思维工具、建跨域深度。但这两件事都建立在一个关键前提上:有些部分 AI 能做,有些部分只有你能做。这个边界如果不清晰,整个方法会在不知不觉中滑向失败。下一章讲这个边界。
第五章 · AI 能做的和不能做的
前面三章都在讲用 AI 做事:让 AI 审阅你、让 AI 挖你的经验、让 AI 帮你照新领域。听起来像是“你可以把很多事情外包给 AI”。
但这个听起来是错的。
这一章要处理的是:具体哪些部分可以外包、哪些部分不能。这个边界一旦模糊,前面所有方法都会在几周内退化成第一章讲的那三种模式的高级版本。你和 AI 聊了很多、读了很多、“了解了很多”,但什么都没在你身上发生。
AI 能做的 80%
AI 能做的事情量非常大。
整理和组织信息。把你的零散观察整理成模型、把一个领域的知识整理成地图、把多个文档整理成结构化的理解,这些 AI 都做得极好,而且速度比你快几十倍。
审阅和反驳。用任何一个思维工具审阅你的判断、从多个视角挑战你的假设、指出你推理里的漏洞和盲点,AI 的审阅质量在很多场景下接近一个认真的专家。
角色扮演。扮演某个领域的资深从业者、扮演你的反对者、扮演一个理性但挑剔的同行,这种扮演让你能从不同视角看问题,成本几乎为零。
记录和追踪。记下你的假设、记下你的预测,几个月后自动提醒你“你在 X 时间做过 Y 预测,它的验证情况是什么”,这种追踪在过去需要你自己维护日志,AI 可以代劳。
知识整合。把你学到的东西和你已有的东西关联、发现矛盾、建立新的连接,这种整合在过去需要你自己的大量反思,AI 可以加速。
初稿生成。把你脑子里有的想法用某种格式写出来、做初步的润色、给出几个版本的措辞,这些执行性的工作 AI 做得比大部分人快。
这些合起来,是你学习过程中80% 的“可以被外包”的部分。把它们交给 AI,你的时间和精力被彻底释放。
AI 做不了的 20%
但剩下的 20%,AI 做不了,而这 20% 是所有事情的重心。
一、提出你自己的初始假设
AI 能生成很多假设。让它列出某个现象的可能原因,它能列出十几个。但这些都是 AI 的假设,不是你的。
你自己的假设是你基于你的具体情境、基于你已有的经验、基于你隐性的直觉提出的起点。它带着你对这件事的独特视角。AI 生成的假设没有这个“你”,它是一种平均化的、标准化的、符合大多数情况的假设。
学习过程的起点必须是你的假设。没有你的假设,整个循环没有驱动力,因为“被审阅的假设”、“被反驳的观点”、“被验证的判断”,这些“假设”、“观点”、“判断”都必须先存在,而它们只能来自你。
二、决定方向
AI 能告诉你“基于这些信息,有 A、B、C 三个可能方向”。但哪个方向值得走,这是你的决定。
AI 没有偏好、没有使命、没有代价感。它对“走哪个方向”毫无立场,所有方向在它看来都是等价的可能性。
你不一样。你有时间、有精力、有机会成本。你要在 A、B、C 里选一个,这个选择必然基于你的价值判断,而价值判断是 AI 没有的。
三、做真正的预测
AI 能列出“可能的预测”:“这件事可能往 A 发展、也可能往 B 发展、还可能往 C 发展。”但这不是预测。预测的本质是你赌哪个会发生、你愿意为这个判断承担后果。
AI 没有“赌”的能力。它没有输赢、没有后果、没有需要承担的东西。它给出的“预测”全部是带概率的可能性陈述,听起来全面,但没有决定性。
你必须自己拍板说“我赌 A 会发生”。这个拍板是学习过程的关键环节,因为只有真正拍板了,后来的验证才有意义。
四、在真实情境中应用
AI 可以告诉你“这个方法在类似情境下效果不错”。但你的具体情境总是比任何描述更复杂:你的具体用户、你的具体团队、你的具体约束、你的具体时机。
应用一个方法到你的具体情境里,需要判断这个情境的特殊性、识别方法的边界条件、调整方法的具体操作。这些判断 AI 做不了,它不在你的情境里,它没有你的具体感受。
五、承担判断错误的后果
这是最根本的一条:你做的判断,如果错了,你要承担后果。AI 不承担。
承担后果这件事有巨大的认知作用,它让你的判断不是玩笑。当你知道你下的每一个判断都会带来真实的结果(好的或坏的),你的判断过程会自动变得更谨慎、更仔细、更诚实。
AI 没有这种机制。它可以“看起来很谨慎”,但那是语言的谨慎,不是因为后果压迫出来的谨慎。两者质量天差地别。
这就是为什么AI 学不会。它可以生成非常精巧的推理链,但它的推理不会因为“后果”而自我修正。你可以。每一次你承担判断错误的后果,你的认知系统都在接受一次最真实的校准。
AI 的其他边界
除了这 20% 的本质边界之外,AI 还有几个技术性的边界需要提醒一下。
一、训练数据的 cutoff。模型有一个训练数据的截止日期。这个日期之后的事情它没有直接知识。虽然现在主流模型大多接入了实时搜索,可以查到新东西,但搜索到的结果和它训练时内化的深度理解不是一回事——搜索来的是“它查到了什么”,训练来的是“它理解了什么”。讨论最新事件、最新研究、最新动态时,记得这一点。
二、偏见。模型的训练数据有偏见,通常是西方中心、英文中心、主流媒体中心。你问它一个涉及中国具体情境的问题,它给的答案可能带着美国视角的默认假设。你问它一个涉及少数派观点的问题,它可能倾向给你主流观点。
三、幻觉。模型会自信地编造事实:虚假的引用、不存在的研究、编造的人名和机构。越是在它不熟悉的领域,幻觉率越高。对 AI 给出的具体事实性断言,保持一份怀疑。
四、上下文限制。一次对话里你能给 AI 的信息量有上限。超过某个量之后,它会开始“忘记”早期的信息。长对话里的一致性需要你主动维护。
这些边界不是让你不用 AI,是让你知道 AI 在哪些地方会出错,在那些地方你需要自己补偿。
AI 是镜子,不是答案
把前面的东西合起来。
AI 不是一个给你答案的工具。它是一面让你看清自己的镜子。
用它来审阅你的判断,它照出你判断里的漏洞。 用它来挖你的经验,它照出你已有的结构。 用它来质询新领域,它让你看到新领域和你熟悉领域的关系。
每一个用法里,主角都是你。你的判断、你的经验、你的质询。AI 只是让这些东西被你自己更清楚地看见。
那些把 AI 当作“答案提供者”的人(让 AI 回答“我应该做什么”、“哪个方案更好”、“这个情况怎么办”),他们得到的答案全部是平均化的、标准的、没有个人特异性的。这些答案对任何人都勉强适用,所以对具体的你都不真正适用。
那些把 AI 当作镜子的人(让 AI 照出他们自己脑子里已经有的东西、帮他们整理、帮他们质询、帮他们校准),他们得到的是关于他们自己的洞察。这些洞察只对他们自己适用,但它们真的适用。
这是 AI 时代两种学习方式的根本区别。前者是消费,后者是建设。前者让你的“知识”增加但能力不变;后者让你的判断系统真正生长。
第六章 · 一个起点:AI 编程
方法讲完了,但很多读者会卡在比“方法”更前面一步:不知道从哪件事开始。
或者更准确地说,他们能想到的事(学个技能、培养个爱好)都是前 AI 时代就存在的选项,不够贴合这个时代。
有一件事——对有一台电脑、能联网的人来说——成本接近零、而且只有 AI 时代才真正向零基础的人开放:用 AI 写代码解决自己手上的烦事。
把它作为这一章的内容,不是因为每个人都应该学编程。是因为它是前面五章所有论点最密集的落地场。
错误的开始
零基础的人想开始 AI 编程,大部分人走的路是:
问 AI “vibecoding 怎么入门”。搜“新手如何用 cursor”。去小红书、B 站刷一个小圆脑袋在视频左下角讲他是怎么用三天时间搭了一个网站的。收藏一堆 AI 编程教程、follow 几个博主、保存几十个 prompt 模板,准备“认真学一段时间再开始”。
走不过两周。不是因为他们懒,是因为这条路在结构上是失败的。
它就是第一章讲的那三种模式在 AI 编程学习上的具体化:问 AI“怎么入门”、刷别人的教程、收藏模板,全是当百科用;还没真正开始做事,没有任何具体情境,没有真实情境;“我下一步该学什么”式的元问题,兔子洞。没有任何一步在跑真实的判断循环。
而且这里有一个额外的陷阱:那些“三天搭网站”的视频看起来特别激动人心、特别有效率,观众在看的时候感觉自己也能做,但看完之后自己什么都不会。因为你看了别人在做,不等于你在做。这是第一章讲的消费和学习的体感重合在 AI 编程领域里的具体表现。
正确的开始
四步。
一、拥有一个能跑 Claude Code 或 Codex 的账号
为什么必须是 Claude Code 或 Codex,因为截至 2026 年初它们是你能用到的最强模型 + 最强 Agent + 最强代码能力的三位一体。不要从更弱的模型开始,也不要花时间纠结“该选哪个工具”:这个纠结本身就是第一章讲的元问题,一种看起来像认真的消费。
具体怎么装、怎么配置,这里不讲。
如果你真的想开始,“这个东西怎么装”本身就是你的第一个有 delta 的问题。你去问 AI,AI 告诉你,你照着装好。
这一步就已经在跑第二章那个循环了:有具体需求、带着需求去问 AI、按回答去做、遇到问题继续问、直到装好。
如果你连这一步都懒得自己去问,这一章写的不是给你的人群。
这一步本身就是一个过滤器。
二、挑一件你手上真实发生的烦事
不是“我要做一个宏大的项目”、不是“我要学会爬虫”,是你最近真的手动做过、每次做都觉得烦的事。
- 导出的 Excel 格式乱七八糟,每次要手动整理
- 几十个 PDF 里要抠出某些数字填到表格
- 同一个消息要发给二十个客户,每次都要改姓名 copy paste
- 一堆文件名乱七八糟的照片,想按拍摄日期重命名
越具体越好。带上你真实数据的一个例子,不是抽象描述,是“这是我的文件的实际样子”。
这就是第二章的核心:delta 来自真实情境。你不需要先学编程,你需要先有一件真实让你烦的事。
新手在这里最大的卡点通常是“我想不出有什么事”。这个卡点本身说明一件事:你可能并没有真的在观察你的日常。你手动做的任何重复操作都是候选,打开你的电脑和手机,看看你每天在 copy paste 什么、在手动整理什么、在重复点什么,那里面就有十几个候选任务。
三、让它写代码,跑起来
把烦事描述给 AI,让它写代码。
跑一下。通常有三种情况:
直接对了(较少)。跑起来了但结果不对。根本跑不起来,报错。
第二、三种情况才是学习真正发生的地方。
这时候不要自己先想“我是不是该学一下基础才能看懂”。直接把报错、把不对的结果、把你观察到的现象原封不动发回给 AI,让它继续改。
如果你看不懂它改了什么,让它解释。但不要为了“先懂了再继续”而停下来。让它继续改,直到这件事真的被解决。
在这个循环里,你会一点点看懂它在做什么。不是因为你在学语法,是因为同样的东西在你眼前反复出现,你自然就开始认识。这是第二章最后讲的,必要基础是事后知道的,不是事前知道的。
四、解决了,挑下一件烦事
不用复盘。不用总结“我这次学到了什么”。不用制定“学习路线图”。
你解决了一件真实的烦事。下一件烦事就是下一轮的起点。
做到第五件、第十件的时候你会发现:
- 你开始隐约理解代码在做什么
- 你开始能看出 AI 写的哪里可能有问题
- 你开始有自己的调整想法,而不是只接受 AI 给的版本
- 你的“烦事列表”不知不觉变长了,因为你开始看得见更多原本就应该自动化的事
这就是能力在长。不是通过“学”长出来的,是通过“做”长出来的。
这件事的真正价值
最重要的是这一句:
AI 编程对一个人的真正价值,不是让他会编程,是让他拥有一面反馈极其清晰的镜子。
计算机的反馈是你日常能接触到的反馈里最纯净的一种。代码对不对,一跑就知道;逻辑严不严密,bug 立刻暴露;你的假设对不对,现实几秒钟内告诉你。
这种反馈清晰度在大部分日常领域里是没有的。人际关系的反馈模糊、延迟、充满噪声;职场判断的反馈要几个月才能看到;商业决策的反馈里夹杂着无数和你判断无关的外部因素。
编程不一样。每一次你做判断、验证、被打脸、修正,整个循环在几分钟内完成。
一个认真做 AI 编程的人,哪怕只是写些小脚本,一年积累的“假设-验证-修正”循环数远超大部分其他领域。这些循环的总和就是判断力的训练量。
所以 AI 编程的真正 ROI 不是“我会写程序了”,是**“我有了一个不断训练判断力的场所”**。
这就回到第四章的核心:镜子的价值不在那个领域本身,在它能用来照其他领域。你在编程里被训练出来的“先提假设、让现实打脸、快速修正”的反射,会迁移到你生活和工作的许多其他领域。
如果你读完 Issue 1 和 Issue 2 不知道从哪里开始——找一个能跑 Claude Code 的环境,挑一件烦事,让它写代码。
第七章 · 最后
不管你从哪一件具体的事开始,这一篇讨论的东西其实只有一件:
当所有旧的学习方式都在失效的时候,真正的学习应该怎么发生。
答案不是什么新方法论。答案是回到学习最古老的本质。
什么是学习?学习是把一个人的判断系统持续暴露在现实的反馈下,让它不断被校准。这个定义在苏格拉底的时代就成立,在工业革命之前就成立,在互联网之前就成立。真正的学习,从来不是“读了多少”、“知道多少”、“记住多少”,是你的判断是不是真的在被现实打磨。
前 AI 时代,大部分学习活动偏离了这个本质,变成了对信息的消费、对知识的囤积、对“显得博学”的追求。这些活动有一定的外部奖励(社会地位、职业门槛、社交资本),所以偏离了本质也还能维持。
AI 时代把这些外部奖励清空了。知识不再稀缺、信息不再有差异化价值、“显得博学”已经没人买单。偏离本质的学习活动的所有伪装被剥掉了,露出它们本来就没有价值的面目。
剩下能维持价值的,只有那些真正回到学习本质的活动:
- 做一件真实的事,让你的判断有地方被校准
- 观察这件事的反馈,让校准真的发生
- 用 AI 帮你问出有 delta 的问题、审阅你的判断、整理你的经验、照亮新领域,让这个过程比过去高效几十倍
这不是方法论。这不是“AI 时代的学习技巧”。这是对“学习”这个词的重新理解:把它从 AI 时代前那个被各种伪装包围的版本,还原成它本来的样子。
然后让 AI 去加速这个本来的东西,而不是加速那些伪装。
最后一个自检,比任何方法都更有杀伤力:
过去三个月,你做出了什么新判断,是因为你和 AI 的对话而形成的?这个判断是具体的、可验证的、会改变你某个具体行动的吗?
- 答得出的,这套系统在你身上已经开始运作
- 答不出的,你可能用了很多 AI,但真正的学习还没开始发生
AI 时代的学习不是关于“用了多少 AI”,是关于AI 用完之后,你自己变了多少。
引用与出处
本文涉及的主要事实性断言的来源。
关于好奇心、信息获取与大脑奖励系统(第一章)
- Bromberg-Martin, E. S., & Hikosaka, O. (2009). “Midbrain dopamine neurons signal preference for advance information about upcoming rewards.” Neuron, 63(1), 119-126. 该研究在猴子上发现,中脑多巴胺神经元对“获取信息的机会”做出反应,即使这些信息没有 instrumental 价值
- Gruber, M. J., Gelman, B. D., & Ranganath, C. (2014). “States of curiosity modulate hippocampus-dependent learning via the dopaminergic circuit.” Neuron, 84(2), 486-496. 人类 fMRI 研究,发现好奇心状态下 VTA/SN(多巴胺中脑)和 NAcc(伏隔核)的激活模式和期待金钱奖励时一致
- Kidd, C., & Hayden, B. Y. (2015). “The psychology and neuroscience of curiosity.” Neuron, 88(3), 449-460. 综述,梳理信息作为 higher-order reward 的完整理论框架
关于思维工具的经典入门读物(第三章)
- Daniel Kahneman, Thinking, Fast and Slow(Farrar, Straus and Giroux, 2011)。中译本《思考,快与慢》
- Judea Pearl & Dana Mackenzie, The Book of Why: The New Science of Cause and Effect(Basic Books, 2018)。中译本《为什么:关于因果关系的新科学》
- Thomas C. Schelling, The Strategy of Conflict(Harvard University Press, 1960)。中译本《冲突的战略》
- Donella H. Meadows, Thinking in Systems: A Primer(Chelsea Green Publishing, 2008)。中译本《系统之美》
这四门工具的进阶读物(Stanovich、Cunningham、Tetlock 等)见 Issue 1 的“附录 · 入门书单”。
关于 AI 编程文化(第六章)
- “Vibe coding” 一词由 Andrej Karpathy 于 2025 年 2 月 2 日在 X 平台创造。原帖大意:“There’s a new kind of coding I call ‘vibe coding’, where you fully give in to the vibes, embrace exponentials, and forget that the code even exists.” 原帖浏览量超过 450 万次,该词后被 Collins Dictionary 评为 2025 年度词
本文对上述来源做了概念上的转述而非直接引用。如需核查原文表述,请参考原始链接与出版物。
Issue 2 完 · Invisible Instruments Press · 2026