
!近日,在美国红点创投播客Unsupervised Learning最新一期中,红点创投合伙人Jacob Effron与Datology联合创始人兼CEO Ari Morcos、Radical Ventures合伙人Rob Toews围绕当下市场关注的问题进行了一场讨论,讨论内容涉及“大模型发展是否放缓、强化学习环境、谷歌大模型的快速上升、头部大模型公司的估值、人才战的影响、AI智能硬件与脑机接口等内容。
Ari Morcos认为,目前大模型单纯地扩大规模已经出现边际递减效应,但大模型的进步体现在推理能力、成本效率和小模型变强等方面;Rob Toews对此有不同观点,他认为,目前底层智能能力的加速度确实在放缓,如果希望继续加速,需要在基础层面有所突破。
两人都长期看好谷歌的AI。近期Nano Banana上线后,谷歌Gemini爬升至美国Apple APP Store前列。Ari Morcos认为,Google的问题长期在“产品落地不强、缺乏核心聚焦”,但过谷歌联合创始人Sergey Brin的回归与深入参与,让Gemini团队发生了变化。
关于目前头部大模型公司的估值,两人也认为OpenAI(5000亿美元)和Anthropic(1800亿美元)的估值是相对合理的,但上限可能不高,未来可能更多取决于业务增速和商业化结果。而xAI的2000亿美元估值不如上述两家公司合理,资本市场愿意出钱更多是“不能押Elon输”的原因。
以下为「明亮公司」编译的访谈正文(有删节):

Ari Morcos(左)、Rob Toews(中),主持人Jacob(右)
大模型的发展放缓了吗?
Jacob Effron:先聊最近争论很大的话题:模型进展是否放缓。
Ari Morcos: 我不觉得有显著放缓,只是更难量化、也更难被普通用户感知。多数C端的任务上,模型已经足够好,所以差距没那么直观。现在的进步更多体现在其他维度——推理(reasoning)、成本效率、更小模型追平一年前的大模型等。大家可能觉得失望、但其实预期之内的是,“单纯扩规模”开始出现边际递减。
去看Scaling laws(Jerry Kaplan等人的研究)的工作——每扩大10倍数据或算力,回报会递减。GPT-4.5、Llama 4、Behemoth等都体现了这点。但我们也解锁了别的有效扩展轴。总体我不觉得放缓,只是“进步的音色”换了。
Rob Toews: 为了让讨论“有火花”,我不同意Ari。我认为底层智能能力的加速度确实在放缓。
任何指数最终都会走成S曲线。GPT-2到GPT-3,再到GPT-4的跃升惊人,但现在明显在平台期。一方面如Ari所说,预训练扩大规模边际递减,这点有充分证据。
另一方面,去年开始有个叙事:扩大后训练计算,基于RL(注:即强化学习、以下统一用RL)等,能延续进步曲线,扩大测试时计算的推理(reasoning)模型能在coding等领域展现新能力且很有用,但我不确定这套范式足以维持2020-2024那种进度。
特别对RL而言,在有明确可验证答案的领域(数学、代码)很强,但在难以验证的开放域就不明朗。我觉得若要“再加速到下一层级”,需要更基础的突破——虽然外界未必看见,但大厂显然在做。就当前范式而言,确实在放缓。
Ari Morco: 补充一句,预训练的平台主要出现在“把模型越堆越大”这条路上——参数规模、上十亿美元训练,这条路性价比不再高。
我们在RL上看到的收益,正是因为基础模型足够好,RL才开始奏效。这也是S曲线。对普通用户而言,模型已经很能打,剩下是可靠性,比如降低幻觉和成本等。对部署方来说,更便宜很重要。
Jacob Effron:回到RL,关键是它能否跨领域泛化?还是在某个数据集/场景上爬坡,换域就归零?Ari你长期研究“泛化”,你的直觉是?
Ari Morcos: 我做过很多“分布外泛化”(注:即Out-of-Distribution Generalization、OOD泛化,指模型在训练数据分布之外的新环境/新域上,仍能保持稳定、可靠的表现。简言之,不只在“熟悉场景”里准,在“风格变了、环境换了、采样偏了”的陌生场景里也准)。
现代自监督学习有个诀窍:把分布外尽量变成分布内。训练覆盖全网在某些方面确实有效,但里面很多无效数据会拖效率。RL难点在于你搭的“环境”很具体,且极易被“奖励黑客”,模型会抓住模拟与现实的缝隙“作弊”。……AI在不完美环境里也会找这种漏洞,导致不泛化。
要让RL奏效,你得做足够真实、只能靠“通用原理”才能解的环境。这在编程等易验证领域可行,但大多数真实世界任务很难,仍待验证。
Jacob Effron: “RL环境创业”现在很热,粗看有两类:一类卖给那“几家大的实验室”,像数据标注那样大部分工作在内部;另一类服务更广泛的企业,帮他们用RL训练自家模型。你们更看好哪个方向?
Rob Toews: 这个夏天冒出了一堆RL环境创业公司,不意外。
第一类——卖给有巨额预算的大实验室(OpenAI、Anthropic等等)——短期会有营收暴增。大厂内部自建很多,也愿意外采,目标是尽快扩充RL环境的供给。但长期是否耐久,我存疑。环境生成会越来越自动化,或需求会转向。像Scale AI那样,关键是创始人能否灵活转身,找到第二幕、第三幕。
第二类可称“RL as a service”,给企业做基于自有数据的定制模型,学习其企业环境。我更看好这条。虽有专业服务属性,但市场已接受“前线部署工程”(FDE)的模式。RL环境千差万别,专家能长期创造价值。
Ari Morcos: 我同意“耐久性”是关键。数据采集与RL环境不完全类比:多做环境会更擅长做新环境,这和“专家数据标注”不同,也更易被自动化。标注平台(Scale、Surge等)多做客户专属数据集;而很多RL环境公司想“做一个环境卖给所有人”,这会削弱差异。
如果你相信环境将成为前沿差异,那么大厂会强烈倾向自建或购买独家环境。我预计这波不会太久,能否在窗口期做大、并顺利转型很重要。
至于第二类,我很看好。消费端需要“面广但浅”的通才;企业要“面窄但深”的专才,做到五个九、尽可能低成本。门槛在成本与人才,但二者都在快速下降。我们已有证据:用百万级美元就能做很强的定制模型,且成本还在掉。这会让企业做定制RL非常有吸引力。
Jacob Effron: 以前“自建模型”更像做低成本版;现在通过这些技术,确实能在垂直领域把SOTA往前推。
Ari Morcos: 尤其当你有与任务高度匹配的专有数据时。拿这些数据去做通用Web模型就不值钱了。
谷歌AI模型的快速上升
Jacob Effron: 这周Gemini首次登顶App Store,可能受Nano Banana驱动。Google从Attention Is All You Need,到被说“落后”,再到今天“回来了”,你们怎么看?Ari你2016起在DeepMind。
Ari Morcos: 我一直看多Google Gemini,人才密度太高。Google的问题长期在“产品落地不强、缺乏必胜的聚焦”。过去一年Gemini团队显然变了,Sergey(谷歌联合创始人Sergey Brin)亲自深入抓,能量不同。Google一旦“全力开火”,上升很快,再叠加分发优势,会很强。
Jacob Effron: Rob,两三年后他们会有最强模型吗?
Rob Toews: 和Ari看法一致,我很看好(谷歌)。ChatGPT之后,大家说Google躺平被OpenAI超车,当时确实是这样。但Google有结构性优势:资源、算力、深厚的人才储备。我预计Gemini 3很快会发,会很强、达到SOTA,甚至可能更好。若让我选一家推进前沿最猛,我会选Google。
Ari Morcos:有个财务层面的悬念:他们会赢下平台之战,但“平台更难变现+成本更高”,短期利润会被两头挤压。中期他们会摸索出变现方式,也会降本(自研芯片帮助巨大),随后恢复增长。
Jacob Effron: 这对OpenAI和Anthropic都是大威胁。OpenAI的估值很大程度基于C端ChatGPT;Anthropic更偏企业API(coding)。若Gemini 3在coding上发力,切换可能很快。
Ari Morcos: 默认(defaults)的力量很大。ChatGPT的C端品牌已出圈,但Android默认Gemini、iPhone未来默认Apple自研或Gemini?(按搜索的历史来看,但监管未必允许),消费者端会受默认主导,尤其当质量差距不大时。
如何OpenAI、Anthropic、xAI的估值
Rob Toews: Jacob,我反问你一个。你提到OpenAI和Anthropic的融资,这么高的估值你怎么想?
Jacob Effron: 关键看增长率(是否)外推。若延续几年,倍数自然变得更易接受。OpenAI有7亿用户,增量空间主要在“变现”:广告、交易闭环等。理论上答案引擎的变现可超过搜索(直接驱动交易),但要解决“信任”。Anthropic看“编程市场”和“企业API”未来两年的成长。要么模型有阶梯式进步,要么社会扩散太慢,即便暂停研究也能靠扩散效应跑很久。
Ari Morcos:我不确定能保持“大爆发式增长”,但即便停止研究,也需要几十年把现有能力普及到全部经济系统。
OpenAI这类标的我可能会买,虽然上行空间小了,但并非离谱。关键是单位经济是否稳健、消费者是否愿意付费。开发者会付,但我认识的非开发者很少付费。
答案引擎广告有“破坏信任”的风险。当然搜索优化了20年,我们从零开始,怎么变现要摸索。
Jacob Effron: 你们会在OpenAI 5000亿美元、Anthropic 1800亿美元的估值投吗?
Ari Morcos:OpenAI可能会吧。虽然上行空间小了,但并非不可理喻。Anthropic也类似,只是更受“开发者喜新厌旧”的影响——新模型一出大家就切,我们自己也会切。
Jacob Effron:今天xAI宣布以2000亿美元融资。热度不如上面两家,但毕竟是Elon。你们怎么看?
Rob Toews: 能以这样的速度与估值融资,反映了“Never bet against Elon”(别押Elon输)在投资人心中的力量。这一理念在过去二十年确实非常奏效。他是这个时代最伟大的企业家。但如果撇开Elon,xAI以200B估值不如OpenAI或Anthropic合理。他们业务体量更小,还在追赶;技术范式、产品也没有根本差异。最近还出现顶级研究员出走,文化也有担忧。综上我不下定论,但就当前态势看,xAI不如那两家站位稳健,后续拭目以待。
Ari Morcos: 和Rob基本一致。我觉得数字上不太自洽,但“别押Elon输”确实是会伤钱包的教训。
高薪挖AI人的影响:公司文化风险更大
Jacob Effron: 说到人才迁徙,过去6-12个月“抢人大战”和“超高薪package”很热。Ari你怎么看?会持续吗?
Ari Morcos: 我2015年入行。那会儿有人拿到50万美元就已夸张。每年大家都说“顶了”,事实证明还没顶。AI的经济价值已被验证,不是.com泡沫那种。未来对AI的依赖会更深,“投人才”有回报就会持续。从“模型性能/美元”看,任何能当“算力乘数”的投入都很值。高质量数据是乘数,顶尖人才也是。他们能把GPU榨干,显著提升单位算力产出,节省远超薪酬本身。
风险在文化:是否吸来“只求不被裁/拿完钱就走”的人,打击团队士气?这取决于组织如何设定激励。
从ROI看,很讲得通。平均薪酬还会涨,1亿美元这种或许是阶段性现象。如果Meta放出很强的模型,更多“天价”会出现;否则会少些。
Jacob Effron: 几年前Character AI那种“非并购式并购”发生时,大家一头雾水;事后看对某些人很聪明。也把创投生态带到一个新状态:一些超强团队一出场,底层价值就被巨头潜在收购价抬高,像Thinking Machines(前OpenAI创始人Mira Murati创立的公司)这类从Day 1就是“极具并购价值的团队”,所以估值“地板”很高,像免费看涨期权。
Rob Toews: 正是如此,所以才会有Thinking Machines 100亿美元、SSI(Ilya Sutskever创立的公司)先50亿再到300亿美元+这种“从一开始就很疯狂”的估值。大厂已经试过出高价收购被拒,底线保护真实存在。
另一个现象是“非常规并购”——不是传统M&A,而是用结构设计规避FTC或DOJ的反垄断审查。我们在Character、Adept、Inflection,以及最近Scale AI与Meta上都看到过类似。
新问题是“钱怎么分”变得不可预测,不再按资本结构表线性分配。有的投资人只拿回本,有的折价,有的拿到更好倍数;创始人常常拿到很多,员工却可能几乎拿不到。这对生态有害,也只是找漏洞回避审查。我希望这是“时间段里的插曲”,会被监管修正。
Ari Morcos: 我很在意这一点。创始人与早期员工之间有“社会契约”:你拿出最宝贵的时间与精力下注,公司成功你应分享收益。
“类收购非收购”的结构破坏了契约,会让优秀人才更不愿加入初创公司,转而求稳,长期会饿死初创公司。
监管应介入,但更重要的是创始人的选择:进入谈判,你要捍卫员工应得的分配,避免留下一个“空壳公司+一群被稀释的员工”的烂尾。
Jacob Effron: 我也好奇监管会怎么处理“时间敏感性”——AI时代,一年审批周期可能直接让交易失去意义,这也是这些“结构创新”的原因。
Ari Morcos:你们觉得监管会允许收购像SSI或MSL这类“估值超100亿美元但主要是靠人才密度的公司吗?
Rob Toew:严格按传统反垄断分析,没营收、没市场份额的团队被收购,不应影响消费者定价,理论上可通过。但像Lina Khan这种更积极的监管者,可能会强硬阻止比如Google收购SSI。换更“放任”的监管,则可能放行。
变化如此之快,做AI infra还有意义吗?
Jacob Effron: 换个话题。我在BG听到OpenAI平台的Sherwin Wu谈AI基础设施(含RL环境)。他对“AI infra整体看空”,因为脚手架(Scaffolding)变太快。你们怎么看?
Ari Morcos:具体看类别。像Fireworks AI这类做高效推理(inference)的,不会因为范式变化就没意义;推理总是需要。数据标注看起来也“安全”,但我觉得未必那么安全:你不需要“无限人类数据”,合成数据会占更大比重。标注公司也在转向“评判(judges)”。
但给现有基础模型套一层脚手架就能做某任”的,就容易被“下一代模型”吞掉。那些解决“训练易用性、推理规模化、持续刷新模型”的基建,我看好。比如大厂的排序模型每几小时更新一次,否则损失很大,其他行业也会走向高频更新。
Rob Toews: 我同意“难,但不能一概看空”。技术范式迁移,总需要全新基建。关键是挑那些“无论范式如何变化,需求都长期存在”的类别。推理是一个。标注过去是一个,但合成数据崛起后要再评估。还有一些公司提供的能力,虽然底层技术细节常变,但它解决的“本质问题”不变,这类也能长存。
Ari Morcos: 以Datology为例,我们的核心信念是:无论你做什么AI,喂给模型的数据质量始终关键。我们的“不公平优势”是:针对既定下游目标,最会“给数据定价/估值”,决定“该筛什么、该合成什么”。这个抽象框架长期有效,只是两年后可能更多用在RL而非纯预训练。
要在AI infra里获胜,你得抓“永远成立的真理”,把核心能力打磨到极致,同时组织上能随生态演进调整落地形态。
Jacob Effron: 否则就会被“打地鼠式”的变化拖死。
Ari Morcos: 尤其在AI里,唯一恒定的是“六个月后做事方式会变”。要把“适应性”设计进公司。
AI硬件与脑机接口:临近拐点
Jacob Effron:最后几个宽泛的问题。Ari你在Meta工作过,你觉得MSL(超级智能实验室)实验会成功吗?
Ari Morcos: 有可能。就像别赌Elon输,也别赌Zuck输。我一个颇具争议的观点是,Meta在“元宇宙”的投入,长远看会被证明合理。看他们最新的AR眼镜路线就明白了。FAIR(Facebook AI Research)很多AI研究当时归Reality Labs,算在“元宇宙开支”里。Llama的预算溯源可能也来自那边。
Zuck多次做出当时被骂、事后被证明神来之笔的战略。付高薪在财务上可能说得通,我更担心文化副作用:我看到很多超强人才没拿到“天价”,即便薪酬不差也会心怀芥蒂。若失败,很可能是文化与激励的问题,而非技术。
Jacob Effron: 硬件与模型的交汇也变精彩了。大家似乎共识“眼镜”是形态,把模型和扬声器装进眼镜。你们怎么看AI走出手机与电脑,进入物理世界?
Rob Toews: 我对BCI(脑机接口)非常看多,最近深挖了几个月。无论侵入式还是非侵入式,都临近拐点。侵入式需要开颅植入芯片,比如Neuralink,但能获取高分辨率神经数据;非侵入式可把传感器嵌入耳机、帽子、手环等。
得益于传感器和AI(尤其信噪提取)的进步,从头部电/磁信号噪声中挖出足够“信号”越来越可行。未来12-24个月会出现有说服力的消费产品,带来全新的人机交互范式。
Ari Morcos: Meta的腕带(EMG)是类似路径。

Meta的EMG腕带控制器(来源:uploadvr)
Ari Morcos: 它测的是肌电,不是神经活动,但范式相近。眼镜形态我也认同。Google Glass当年“为时尚早”。电影Her和Humane那种“口袋+小相机”的形态不如眼镜自然。有趣的是:人们会不会因此更常戴眼镜/墨镜?阳光强的地区渗透是否更快?再往后,脑机接口也会和眼镜融合。
Jacob Effron:过去一年里,你们各自改变过的一个AI观点?
Ari Morcos:我对“RL在大语言模型上的有效性”的看法变了。过去很多年,RL承诺大、泛化差、落地难。而这一年我们看到最有力的证据:在语言上,RL真的开始奏效了。但事后看,这有赖于base model先足够好。把同样的DeepSeek R1式技巧搬到三年前甚至一年前的模型,根本不灵。比如Qwen在训练中吃了大量“推理轨迹(synthetic reasoning traces)”,所以非常会“被RL”;Llama没吃,就不灵。
Rob Toews: 对我而言,不算“改观”,而是“更不确定”:机器人什么时候迎来“GPT-3时刻”?我们谈的AI多在“数字世界的知识劳动”。“物理世界的劳动”仍基本未被“AI优先”地自动化。
现在有两路在攻:一是硬件无关的通用机器人基础模型;二是通用硬件平台人形机器人。进展很快,看起来“终会实现”,但是一两年、五年还是更久?AI一到“原子世界”,难度指数级上升。公开研究与开源能让我们看到些信号,但我仍不确定时间表。这会深刻影响AI改变世界的速度。
Jacob Effron: 我也来一个:一年前我会建议应用层别太想模型,深挖工作流与纵深足矣;但现在开始变了——在自家垂直领域做RL等,显著提高可靠性与质量,开始变得必要且可行。
Ari Morcos: 归根结底是成本。如果要花巨款就不划算;若几百万美元可达成,每家企业都该做。成本还会继续降。
Jacob Effron:还有什么你们觉得被低估的话题?
Rob Toews: 若有一个方向最可能带来“下一次跃迁”,是“AI能自主改进AI”的递归路线(recursive AI)。从上世纪六十年代起,很多“超智能”路径设想都基于此:AI能造更好的AI,形成复利。我知道一些顶尖团队在悄悄做这事,大厂肯定也在做。它听起来像科幻,但现在比以往更现实。如果有人把它做通了,未来几年曲线的斜率会被它主导。
Ari Morcos:这个好,我认同。我补一个长期被低估的:数据。相对于影响力,数据在研究里依旧是低配的。大家谈“数据墙”,但“合成数据”是大解法之一,关键在“怎么正确做”。有人担心“模型自我喂养”导致胡言乱语(babbling),但有方法规避。外界已提到GPT-5以及多家中国模型都大量依赖高质量合成数据。结合更好地策划、过滤真实数据,这是把现有数据再榨干的关键;进入垂直领域,更是刚需。若做对,影响巨大,但也有风险,需要专业方法。
作者:MD
出品:明亮公司
免责声明:所有平台仅提供服务对接功能,资讯信息、数据资料来源于第三方,其中发布的文章、视频、数据仅代表内容发布者个人的观点,并不代表泡财经平台的观点,不构成任何投资建议,仅供参考,用户需独立做出投资决策,自行承担因信赖或使用第三方信息而导致的任何损失。投资有风险,入市需谨慎。
请先登录后发表评论