从内阁到外阁:一场正在发生的组织革命

"以史为鉴,可以知兴替。"
——唐太宗·魏征

过去六个月,我一直在思考一个问题:我们公司的AI使用方式,和两千年前汉武帝推行察举制、唐太宗重建三省六部制,到底有什么本质区别?

结论让我有些惊讶——它们在底层逻辑上高度相似:一个复杂组织面对新的生产力工具,需要重新定义权力的分配方式、执行的架构方式、以及监控与问责的运作方式。

这篇文章,是我对当下这场变革的一次系统性思考。


一、从内阁到外阁:一个不可逆的历史进程

在我们公司内部,我把AI的使用分成了三个阶段,并为它们起了一组政治学隐喻:

第一阶段:AI是内阁

AI作为智识顾问,参与讨论、辅助决策,但不负责执行。人类做判断,人类落地。AI是战略部门——提供脑力支持,但无法独立行动。

这一阶段,组织的本质没有改变。AI是更聪明的搜索引擎和更强大的白板,工作流和权力结构都没有重构。

第二阶段:AI进入外阁

AI开始参与落地执行,能够独立完成具体任务,直接嵌入工作流,在有限范围内自主决策。人类从"做所有事"变成"定框架、批关键节点、处理例外"。

这一阶段,工作流开始重构,组织结构开始松动,生产效率出现质变。它是从量变到质变的临界区域——也是当下绝大多数先进企业正在穿越的区域。

第三阶段:AI组阁与君主立宪

AI能够自主搭建agent协作网络,端到端完成人交代的任务。人类作为"慢系统"退出具体事务,专注于方向设定、价值判断和治理监督。这是一种君主立宪——人类是国王,但日常政务由AI内阁处理。

麦肯锡的数据是令人清醒的:88%的企业在至少一个业务功能中使用AI,但只有1%的企业领导者认为其AI部署已达到"成熟"。88%的AI试点从未进入生产环境。

这意味着:大多数企业,包括我们的竞争对手,都还停留在内阁阶段——把AI用作顾问,但没有把AI嵌入执行。

从内阁到外阁的跃迁,是当下最关键的战略窗口。 它不是一个可选项,而是一个正在发生、不可逆转的历史进程。

哥伦比亚大学2025年发表的AI Agent自治研究提出了一个重要洞察:自治程度是一种设计选择,而非能力的自然结果。也就是说,阻碍我们进入外阁阶段的,不是AI能力本身,而是我们是否有意愿和意志去重新设计工作流,把AI真正嵌入执行链条。


二、古代改革的镜鉴:生产力与生产关系的重构

当我把这个问题放进历史的坐标系,发现了一个惊人的相似性。

汉武帝时期推行的察举制和推恩令,本质是在一个旧有权力架构(分封诸侯)之上,引入了新的人才甄选机制和权力配置机制,打破了"血缘即资格"的旧逻辑,用"能力与服务中央"取代了"出身与地方割据"。这是一次生产关系的根本性重构,新的生产力(统一的官僚体系)对旧的生产关系(分封制)构成了不可逆的冲击。

唐朝三省六部:AI时代的组织原型

唐朝的三省六部制是更为精妙的类比。中书省起草政令(决策建议),门下省审核驳回(质量把控),尚书省负责执行(落地实施)——三个机构形成了完整的分权制衡与执行闭环。

这与我们正在构建的AI工作流惊人地相似:

  • ✦ AI负责生成方案与分析(中书省职能)
  • ✦ 人类负责审核、批准或否决(门下省职能)
  • ✦ AI Agent负责具体落地执行(尚书省职能)

唐朝的这套架构之所以在贞观年间运转良好,是因为它清晰地定义了谁做什么、谁对谁负责、谁有权叫停。这恰恰是我们在AI外阁阶段最需要解决的核心问题。

宋朝的教训:过度分权导致效率崩塌

但宋朝也给了我们一个反面教材。为了防止武将割据,宋朝极度抑制武将权力,过度依赖文官体系,结果导致执行力严重退化——决策机制精密,执行链条却软弱无力。

外阁阶段最大的陷阱,不是AI自主性过高,而是人类干预过度——每一个小决策都需要人工审批,导致外阁的执行效率无法释放。

Bain Capital Ventures 2024年的自主工作六级模型指出了这个临界点:真正价值的释放,发生在AI从"辅助人类决策"转向"在人类设定的边界内自主决策"的那一刻。这个边界的设计,是外阁阶段最核心的管理艺术。

一个组织进入外阁阶段的速度,不取决于它选择了哪款AI工具,而取决于它是否有勇气重新定义权力边界、重新设计执行架构、重新建立问责机制。

Duolingo是目前教育科技领域最接近外阁阶段的公司。它用AI在一年内新增了148个课程配置(此前100个课程用了约12年),将内容生产时间缩短80%。但更重要的是,它重构了组织架构——约830名员工服务5000万日活用户。这不是因为他们选择了更好的AI,而是因为他们重新设计了人与AI的生产关系。

Chegg则是另一个故事。它的核心价值主张(标准化答案)被免费AI直接替代,而它没能完成从内阁到外阁的重构——结果股价跌去99%。它不是被AI打败的,它是被自己原有的生产关系困住的。


三、权力机制与监控:改革最易忽视的暗礁

每一次重大的生产关系变革,最终都会触碰权力的分配与监控的方式。这是改革者最容易忽视、却最终决定成败的因素。

AI外阁阶段也不例外。

新的权力结构:谁有权"叫停"AI?

在古代改革中,"谁有权叫停"是最核心的权力设计问题。唐朝门下省的否决权,确保了中枢权力的制衡;察举制中地方官员的推举权,决定了人才流动的方向。

在AI外阁阶段,这个问题变成:哪些决策需要人工干预?哪些可以由AI自主完成?谁有权修改AI的决策边界?

哥伦比亚大学的研究提出了一个关键洞见:自治程度应当是一个可调节的设计变量,而不是固定不变的技术参数。这意味着我们需要为不同类型的任务、不同风险等级的决策,设计不同的人类介入机制——这本质上是一套新的权力宪法。

监控方式的革命:从"审批每一行"到"监控离群值"

传统管理的监控逻辑是:上级审批下级的每一个重要决策。这套逻辑在AI外阁时代会成为瓶颈——因为AI的决策速度和执行规模远超人类的审批速度。

麦肯锡的研究给出了一个更适合外阁时代的监控框架:合规官和领导者不再进行逐行审查,而是定义政策、监控离群值、调整人类参与水平。

这是一次监控哲学的根本转变:从"看过程"转向"看结果与异常"。人类从流程守门人,转变为系统设计者和异常仲裁者。

激励机制的失效与重构

汉武帝推行推恩令时,遭遇的最大阻力不是来自技术实现,而是来自既得利益者——诸侯们不愿意主动分割自己的权力。

AI外阁阶段的最大阻力,同样来自人。麦肯锡数据显示,70%的AI落地挑战来自人员和流程,而非技术本身。员工担心被替代、中层管理者担心权力被削弱、业务负责人不愿意为AI的错误承担责任——这些都是合理的人性反应。

因此,外阁阶段的核心管理任务之一,是重新设计激励机制:让员工从"抵御AI"转变为"驾驭AI",让中层管理者从"守卫审批权"转变为"扩展团队能力边界",让整个组织形成一种新的共识——AI扩大了我们每个人的能力半径,而不是缩小了我们的存在价值。

技术风险:Gartner的警告不能忽视

Gartner在2025年6月发布了一个令人警醒的预测:超过40%的Agentic AI项目将在2027年底前被取消,原因不是技术失败,而是成本失控、价值不清或风控失位。

自主Agent面临的技术风险是真实的:提示注入攻击、凭据泄露、上下文退化(一个运行30分钟表现良好的Agent,在8小时后可能因为推理错误的累积而变得不可靠)。这些风险在内阁阶段几乎不存在,但在外阁阶段会成为系统性隐患。

这告诉我们:进入外阁阶段不是冲锋而是建设。需要同步建立监控基础设施、异常检测机制、人工接管协议,以及清晰的责任归属框架。这不是技术问题,而是治理问题。

古人说"治大国若烹小鲜"——不能频繁翻搅,但也不能完全放任。外阁阶段的AI治理,恰恰需要这种拿捏:足够的自主让效率释放,足够的监控让风险可控。

给团队的话:我们现在站在哪里,应该走向哪里

研究告诉我,2026年的今天,绝大多数教育科技公司(包括我们的竞争对手)仍然停留在内阁阶段的末尾——AI被用来辅助决策,但没有被嵌入执行。这是一个真实存在的战略窗口期。

我对我们团队的期望是清晰的:

  • 产品层:把AI从"辅助工具"重构为"执行引擎"——让AI真正承担内容生产、学习路径规划、个性化反馈的执行工作
  • 组织层:为每个核心工作流设计清晰的"人类介入节点"——不是每个决策都需要人,但需要清楚哪些决策不能没有人
  • 治理层:建立监控异常而非审批过程的新机制——我们的目光应该从流程转向结果,从审批转向仲裁
  • 文化层:让每一个人理解——AI是在扩大你的能力半径,不是在替代你的存在价值

进入外阁阶段,是一场需要组织整体认知升级的变革。它的速度不取决于我们选择什么模型,而取决于我们有多快能重新定义人与AI之间的生产关系。

汉武帝的改革花了数十年,唐太宗的三省六部经历了几代人的完善。但我们没有那么多时间——AI的能力倍增周期,现在大约每4个月翻一倍。

所以我们必须更快。但更快的前提,是想清楚往哪里走,以及走的过程中如何不翻车。

本文基于对麦肯锡、Gartner、哥伦比亚大学、Deloitte等机构2024-2025年研究报告的综合研读,结合对中国教育科技行业的一线实践。