热搜词: 2025 2026

红杉美国: 10 万亿美元 AI 机会正在开启, 认知革命速度远超工业革命

红杉美国合伙人KonstantineBuhler在最新分享中提出了一个令人振奋的判断:认知革命的速度远超工业革命,AI变革正在被压缩在数年内完成,而其所代表的是一场10万亿美元规模的巨大机会。

近日,红杉美国合伙人KonstantineBuhler在最新的《The$10TrillionAIRevolution》分享中提出一个鲜明判断:认知革命的速度远快于工业革命。过去工业革命从蒸汽机到电力普及历时144年,而今天的AI变革正在被压缩在数年内完成。

Buhler强调,AI已经从实验室走向产业前线,所代表的不仅是一个技术周期,而是一个10万亿美元规模的机会。

美国服务业市场规模庞大,却只有0.2%被AI自动化。随着大模型能力和算力基础设施的跃升,AI正在快速渗透金融、医疗、法律和教育等核心领域,重塑知识劳动的生产函数。

同时,“FLOPsperknowledgeworker”这一新概念,用来衡量未来的生产力结构,并强调ROI将取代学术benchmark成为衡量AI价值的关键指标。

认知革命的速度与规模

红杉把工业革命拆成三个关键坐标:蒸汽机的发明、把生产要素聚到同一屋檐下的第一代工厂系统、以及真正意义上的装配流水线。三者之间并非线性递进,而是有漫长的“空窗期”:从蒸汽机到第一代工厂相隔67年,而且第一代工厂甚至仍靠水力;从第一代工厂到成熟的装配线又过去了144年。

红杉给出的解释是“专业化的必然性”——当系统复杂度到达某个阈值,想要稳定地产出,就必须把“通用技术+通用劳动力”持续拆分并沉淀为“专用组件+专业劳动”。这就是为什么工业革命需要一百多年去完成从发明到大规模社会化生产的过渡。

在认知革命里,底层条件变了。算力、算法、数据和分发基础设施已经在互联网和云计算时代完成了铺设,专业化可以更快地发生在软件层、模型层和业务流程层。红杉用一个对照来强调时间被压缩:1999年的GPUGeForce256像蒸汽机,2016年“第一代AI工厂”把训练、推理、数据、分发等“造token的部件”放到同一屋檐下,后续的专业化不必再依托漫长的物理基础设施建设,而是沿着模型与应用的专用化加速推进。

因此问题不再是“何时会到来”,而是“谁来完成专业化”。红杉把这层问题落在创业公司身上:今天和未来几年诞生的应用与基础设施公司,将扮演认知革命中的‘洛克菲勒’、‘卡内基’与‘西屋’,它们把通用模型能力切入具体岗位与场景,做成“可重复、可维护、可计费”的专用化产线。

10万亿美元的市场机会

红杉用云时代的对照来说明“份额提升+总量扩张”的双轮效应。起点是一个3500亿美元的企业软件“总盘子”,其中SaaS仅占60亿美元这个“极薄的一道切片”。随后SaaS不只是从本地部署里拿到了更大份额,甚至把整个“软件蛋糕”从3500亿做到了6500亿美元。AI的路径在他们看来会复制并放大这条曲线。

这次被瞄准的是10万亿美元规模的美国服务业市场,目前AI自动化的体量也就约200亿美元,比例微乎其微。红杉把这称作“10的13次方机会”,强调不仅是“把切片切厚”,更是“把蛋糕做大”。为了把“蛋糕在哪里”说清,他们展示了一个内部备忘录的片段:把岗位按“人数×中位年薪”的指标做了排序,像注册护士、软件开发、法律服务等领域,单一赛道的“可被技术吞没的支出池”就已经很可观。

对应到布局上,红杉已经在这些赛道里下注:注册护士场景里的OpenEvidence、Freed,软件开发里的Factory、Reflection,法律服务里的Harvey、Crosby、Finch,都是围绕“岗位×流程×专业化能力”的切入。这背后延续了DonValentine对“市场”的强调:先看池子有多大,再看用技术把它做成多大的‘公司’。

他们还把视角拉到二级市场的终局形态。标普500的市值分布显示出“少数巨头吞噬权重”的结构,最左侧的Nvidia已经超过4万亿美元;但在这张榜单上,看不到像Kirkland&Ellis或BakerTilly这类营收达几十亿美元的服务机构。红杉的判断是,认知革命会把服务业里原本“人驱动、难规模”的业务,改写成“模型驱动、可规模”的公司,从而在指数里出现一批围绕AI服务而生的独立上市平台。

五个正在发生的投资趋势

第一,杠杆取代确定性成为主导变量。过去,一个销售代表同时盯若干客户,靠人工监控节奏与机会;在Agent化的未来,像Rocks这样的工具可以给每个客户配一个AIAgent,跟踪状态、提示再沟通时点、推荐扩展路径。人的角色从“亲历每一步”转成“抽查+纠偏+策略把关”,单人杠杆从100%提升到100%以上甚至1000%;代价是结果的“具体形态”更不确定,但路径可被监控与校正。

第二,度量标准迁移到真实世界。以往行业靠ImageNet一类学术基准说明进步,如今要在真实任务里胜出。红杉举了Expo的例子:不在论文榜单里争名次,而是在Hacker1这个开放环境里与全球注册白帽同场竞技,在“真数据、真对手、真反馈”的环境里拿到第一。这种“现实世界胜出”正在成为新金标准。

第三,强化学习从“理论要件”回到“工程武器”。无论是大规模推理实验室还是垂直应用公司,都在用RL作为持续优化的循环。红杉提到Reflection在开源代码模型训练中的做法,说明RL提供了“目标—反馈—改进”的闭环,把模型的专用化做得更精细。

第四,AI触达物理世界,既不是只指类人机器人,也包括“如何更快地把硬件做出来并确保质量”。Nominal的路径是用AI加速制造环节与端侧质检,把“认知生产力”嵌入“物理产线”,让从设计到量产的周期压缩。

第五,生产函数的单位变了:每个知识工作者的FLOPs。红杉在投资组合里看到的共性预期是:每名知识工作者的算力消耗至少提升10倍,乐观情形是1000倍到1万倍。当一个人可以指挥“几十、几百、上千”的Agent,推理侧、保护侧与应用侧的公司都会随之受益。

未来12~18个月的投资

首先是持久记忆,涵义有二:一是长时记忆,能把长期上下文稳定地“记住并调取”;二是身份持久性,让Agent的“风格、偏好、工作习惯”在一段时期内保持一致。红杉的判断是,这是AI深入生产力场景的‘入场券’。但目前这块没有像“规模律”那样清晰的推进路径,VectorDBs、RAG、加长上下文窗口都只是阶段性方案,真正的“可扩展记忆”仍待突破。

其次是无缝通信协议。MCP的热度证明了需求的存在,但红杉把它类比为互联网里的TCP/IP——不是终点而是起点。当Agent与Agent之间可以可靠地彼此对话、彼此调用,‘跨系统的流程自动化’才会出现平台级应用。他们举了购物的例子:从检索到比价再到下单,由AI自主跑通流程,并顺手“稀释”那些靠体验壁垒筑起的旧护城河。

第三是AI语音的当下性。视频也许再等一年,但语音已经“可用+可规模”:音色保真度足够高、交互延迟足够低,既有B2C的朋友、陪伴、治疗等场景,也有企业里的“物流调度”“场外固定收益大宗报价”这类仍主要靠语音完成的协作。

第四是AI安全的全链路机会:从研发侧的安全工程,到分发链路的完整性,再到用户侧防止“被错误指令引导”而引入风险。红杉提出一个更进一步的画面:在数字世界里,‘每个人类’乃至‘每个Agent’都可以由数百个AI安全Agent守护,因为这里不受物理空间与同等成本的约束。

第五是开源的关键时刻。两年前,开源看起来有望追平乃至反超最前沿的闭源模型;今天这个位置更为“岌岌可危”。尽管如此,红杉仍强调其必要性:一个更自由、开放的未来,需要开源在前沿能力上保持竞争力,让“任何人都能用强模型做成好产品”,而不是只属于“极少数、极高成本”的玩家。

把上述主题连起来,红杉的落点并不在“口号”,而在“时间”。他们认为,当持久记忆、通信协议、语音交互、安全与开源这些关键部件被一一打通,认知革命从‘工厂系统’到‘装配流水线’的阶段,将从几十年压缩到短短数年。这既是创业公司可以抓住的窗口,也是下一批上市平台可能出现的时间轴。