
蓝鲸新闻3月27日讯(记者 朱俊熹)3月27日,在2026中关村论坛年会的AI开源前沿论坛中,一场关于“OpenClaw与AI开源”的圆桌论坛格外吸睛。月之暗面创始人杨植麟以主持人身份登台,参与对话的嘉宾包括智谱CEO张鹏、无问芯穹联合创始人兼CEO夏立雪、小米MiMo大模型负责人罗福莉、香港大学助理教授黄超。
同台的五位嘉宾,横跨AI产业链中的大模型层与基础设施层。其中,月之暗面和智谱都带有鲜明的清华基因。杨植麟本科毕业于清华大学,张鹏从本科到博士都就读于清华,夏立雪也来自清华电子工程系。而罗福莉则是从北大毕业后,先是进入阿里达摩院,之后又加入DeepSeek担任深度学习研究员,参与研发了DeepSeek-V2等模型。
对于近期大热的Agent项目OpenClaw,张鹏将其形容为“脚手架”,在模型基础之上搭建起一个牢固、方便、灵活的框架,让普通人也可便捷使用顶尖模型能力,尤其是在编程和智能体方面。
罗福莉认为,从基座大模型的角度来说,OpenClaw一方面拉高了模型能力的上限,使国内许多模型在多数任务中的表现逼近顶级模型;另一方面通过harness系统、skills体系等机制,保障了任务完成度的下限与稳定性。从更宏观的角度看,OpenClaw还在大模型之外的agent层点燃了新的想象空间。
在这波OpenClaw热潮中,月之暗面、智谱等大模型公司都成为受益者。OpenClaw自行本地部署的门槛较高,运行时token快速燃烧也会带来高昂成本。这使得不少用户将目光转向了另一种选择,国内云厂商、模型厂商推出的“一键部署”方案。
2月18日,月之暗面推出云端化OpenClaw产品Kimi Claw,支持在Kimi内直接部署OpenClaw。它将OpenClaw的智能体能力、云端基础设施以及即时技能调用打包结合,还可以利用Kimi的高级网络搜索和数据抓取能力,并自动配置了K2.5 Thinking模型。
3月10日,智谱也上线“一键安装的本地版OpenClaw”AutoClaw(澳龙)。本月中,智谱还推出推出面向OpenClaw龙虾场景深度优化的基座模型GLM-5-Turbo,从训练阶段就针对龙虾任务的核心需求进行专项优化,增强如工具调用、指令遵循、定时与持续性任务、长链路执行等核心能力。
小米等手机厂商也在迅速跟进。3月6日,小米移动端Agent“Xiaomi miclaw” 正式开启小范围封测,是国内首款移动端类OpenClaw的AI Agent应用。该Agent基于小米MiMo大模型,核心目标是在手机系统层部署大模型的执行能力,自主执行系统级操作。
论坛尾声,杨植麟抛出一个开放性问题:用一个词来描述接下来12个月大模型发展的趋势以及你的期望。黄超笑称,12个月在AI领域看起来很遥远。杨植麟回道,原本问题设定为“五年”,被他缩短为更现实的时间尺度。
罗福莉表示,接下来一年AGI历程里最关键的事会是自进化。她认为,在此前的对话范式下,预训练模型的能力上限并未被充分释放,而随着Agent框架的发展,这一上限正逐步被激活。在她看来,自进化的意义不在于替代人类生产力,而是像顶尖科学家一样,去探索出这个世界上没有的东西。
张鹏则回归现实考量,直言算力仍是面临的最大问题。他指出,尽管智能体框架让很多人有很好的创造力、效率提升十倍,但前提条件是能够用得起来。随着行业转向推理阶段,需求呈现十倍、百倍的爆发,还有大量的需求没有被满足,需要一起来想办法。
杨植麟
现在最流行的OpenClaw,大家自己日常使用OpenClaw或者类似的产品,觉得最有想象力或者印象深刻的是什么?从技术的角度来看,如何看待今天OpenClaw和相关agent的演进?
张鹏
确实很早我就开始自己来玩OpenClaw,当时还不叫OpenClaw,最早叫Clawdbot,来折腾这些事情,自己动手来搞。毕竟也是程序员出身,玩这些东西还是有一些自己的体验。我觉得这个事情它可能给大家带来的最大的一个突破点,或者说新鲜的一个点就在于,这件事情不再是程序员或者说极客们的这种专利,普通人也可以比较方便地来使用顶尖的这些模型的能力,尤其是在编程和智能体方面的这些能力。
所以我到现在为止,可能跟大家在交流的过程当中,更愿意把OpenClaw这个事情称作“脚手架”。它提供的是一种可能性,在模型的基础之上搭起了一个很牢固的、很方便的,但是又很灵活的这样的一个脚手架。大家可以按照自己的意愿去使用很多底层模型提供的很新奇的一些东西。原来自己的一些想法,受限于自己不会写代码,或者不会这样的一些技能。那今天终于可以通过很简单的交流就可以把它完成。所以这个事情是对我来说是一个非常大的冲击,或者说让我重新认识了这样的一件事情。
夏立雪
其实我最开始用OpenClaw的时候是不太适应的,因为我习惯于这种跟大模型聊天的这种交流方式,然后发现OpenClaw感觉好像反应很慢。但是后来我意识到一个问题,就是它和之前的这种聊天机器人有一个很大的不一样,它其实应该是一个能够帮我完成一个大型任务的“人”。所以我其实后面开始给他提交一些更复杂的任务的时候,我就发现其实他能够做的很好。
这件事情对我来说有一个很大的感触就是,在模型从最开始的按照token去聊天,到现在能够变成一个agent、变成一个龙虾,能够帮你去完成任务。它对于我们整个的AI的想象力空间已经做了一个很大的提升。但同时它对于整个系统的能力的要求也变得很大。这是为什么我一开始用OpenClaw会觉得它有点卡的这个原因。
所以我作为这样的一个基础设施层的厂商,我其实看到的是Claw对于整个AI后边的大型的系统和生态都带来了更多的机遇和挑战。因为我们现在的所有的能够用到的资源,想要支撑起这样一个快速增长的时代是不够的。比如说就拿我们公司来说,我们公司在一月底开始,基本上每两周我们的token量就翻一番,现在基本上翻了十倍。上次见到这个速度还是当时3G的时候手机流量的那种感觉。
所以我现在有种感觉也就是现在的token用量,就跟当年我们有一百兆的每个月手机流量一样。这种情况下,其实我们所有的资源是需要进行更好的优化,进行更好的整合。让我们的每一个人,不仅仅在AI领域,而是在整个社会上,每一个鲜活的人都能够去把这个OpenClaw,把这样的AI能力给用起来。所以我作为基础设施的玩家,其实对这个时代是非常激动和感触的。而且认为这里边有很多的优化空间,是我们仍然应该去探索,应该去尝试的。
罗福莉
我自己是把OpenClaw当作agent的框架的一个非常革命性和颠覆性的事件来看待的。虽然我知道其实我身边所有在进行非常深度coding的人,可能他的第一选择还是靠Claude Code。但是我相信只有用过OpenClaw的人会独特地感受到这个框架。它其实有很多在Agent框架上的设计性是领先于Claude Code的。包括最近Claude Code有很多最新的更新,其实都是向OpenClaw去靠近。
我自己去使用OpenClaw的话,我感觉这个框架给我自己带来更多是一个想象力的随时随地的扩展。Claude Code可能最开始我只能在我的桌面上去延展我的创意,但是在OpenClaw可以随时随地去延展我的创意。
我后面发现其实OpenClaw带来的主要核心的价值有两个。第一个是它是开源。开源其实是一个非常有利于整个社区去深入去参与,去重视改进,去投入到Agent框架这个事一个非常重要的前置条件。像OpenClaw、Claude Code的这样的一些agent框架,我认为它很大的一个价值是在把国内的可能没有非常接近于闭源模型,但是水平还是在次闭源模型的这样一个赛道上的模型的上限给拉到非常高。在绝大部分的场景,其实我们能发现他的任务的完成度已经非常接近于Claude最新的模型,同时他又把下限给保证的非常好。因为它可以靠一套harness系统,或者说可以靠它的skills的体系等等诸多的设计,保证它的任务的完成度和准确率。
所以我觉得OpenClaw,从一个基座大模型的角度来说,它是保证了基础大模型的下限,然后拉升了它的上限。
此外我自己认为OpenClaw其实给整个社区带来的价值是它更多去点燃了大家发现原来在大模型外的这一层,更重要的agent的这一层,它有非常多的想象力和空间可以做。这是我看到最近社区在有更多除了研究员以外的人再去参与到这个AGI的变革当中。也有更多人去借助到更强的Agent框架、harness等等,去一定程度上替代自己的工作,在释放自己的时间,去做更有想象力的事情。
杨植麟
最近智谱也发布了新的GLM-5-Turbo模型,我理解就是对agent能力其实也做了很大的增强。所以能不能给大家介绍一下这个新模型和其他模型的不同之处,以及我们也观察到有一个这种提价的策略,反映了什么样的市场信号?
张鹏
前两天确实我们也紧急的更新了一波。当然这个是其实是在我们整个的发展路标当中的其中的一个阶段,我们提前可能把它放出来。这个事情其实最主要的目的还是要主打一个从原来的简单的对话到干活。也是刚才各位讲的非常赞同的一点,就是OpenClaw真的让大家觉得大模型不再是简单的能够聊天,真的能帮我干活。
但这个干活的背后隐含的这个能力的需求是非常高的。它需要自己去长程地做任务的规划,不断的重试,不断的去压缩自己的上下文、debug等等,还有可能涉及到多模态的处理。所以这个对模型本身的能力的要求,其实是有跟传统的面向对话的机器人的这种通用、泛用模型其实是有一些不一样的。所以GLM-5-Turbo是在这方面做了一些专门的加强,比如说我们让他干活长程的7乘24小时,如何能够不停的自己去loop这个事儿,这里边是做了很多的一些工作。
另外大家也提到就是关于这个token消耗量的问题。聪明的模型干复杂的任务,其实可能消耗量是非常巨大的。一般人可能体会不出来,但是只会看到自己的账单上的那个钱在不停的往下掉。所以在这方面我们也做了一些优化,在面临复杂任务的时候,它可能会用更高效的token效率去完成这些事情。所以主要在这几个方面做了一些优化。但本质上它模型的架构还是一种多任务协同的通用模型的架构,只是在能力上有一些偏向性的加强。
提价这个事情其实也很顺畅的能够跟大家解释。我们现在不再是简单的问一个问题,它背后有思考的这个链路是很长的。包括很多任务,通过写代码的方式跟底层的这些去基础设施进行打交道,还要去debug,随时的去改正自己的错误。其实这个消耗量非常的大。完成一个任务可能需要的token量是原来回答一个简单问题的十倍甚至百倍。所以这个价格需要成本上是有一定提高的,模型也变得更大了,它的推理的成本也相应的提高了,所以我们也把它回归到一个正常的商业价值上来。
因为长期靠低价竞争也不利于整个行业的发展。这是我们的一个考量,也让我们能够持续的在商业化的路径上有一个很好的良性的闭环,不断的去优化模型的能力,能够更持续的给大家提供更好的这样的模型和相应的这些token的服务。
杨植麟
现在有开源模型跟推理算力,我感觉也开始形成一个生态,各种各样的开源模型可以在各种各样的推理算力上去给用户提供更多的价值。随着token量的报价,现在也可能逐渐从训练时代变成了推理时代。所以想请教一下,从infra层面,推理时代对于无问来说,它意味着什么?
夏立雪
因为我们是一个诞生在AI时代的基础设施厂商,我们现在也为kimi、智谱包括MiMo去做合作,让大家能够把我们这样一个token工厂更高效的给用起来。所以我们其实一直都在思考一件事情,就是AGI时代需要的基础设施会是什么样子的?我们怎么能够一步步的在这个过程中去实现它和推演它?
我们现在也是做好了充分的准备,看到了短期、中期和长期不同阶段需要解决的问题。
当前脚下的一个问题,现在整个大的token的暴增。对于我们的系统效率其实带来了更大的优化需求。包括价格的增长,也是大家在这个需求下的一种解决方式。我们其实一直以来都是从软硬件打通的方式来去做布局和解决的。包括接入了能够看到的几乎所有种类的计算芯片。我们把国内的十几种芯片和几十个不同的算力集群都给统一的连接起来,这样能够去解决AI这样一个系统中对于算力资源的紧缺问题。因为当资源不足的时候,最好的办法就是第一把能够用的资源都用起来。第二让每一个算力都用在刀刃上,让每一个资源都发挥出最大的转化效率价值。
所以在这个时代,我们在当前要解决的就是怎么能够去进一步的打造一个更高效的token工厂。这里边我们做了很多的的优化,包括让模型和硬件上的各种显存、各种各样的技术进行最优质的适配。包括我们也在看会不会在最新的模型结构和模型的硬件结构下能够进行一些更深度的化学反应。解决这个脚下的效率问题,其实我们还只是打造了一个标准化的token工厂。
但是面向agent时代,我们认为这还是不够的。因为就像刚刚说的,agent更像是一个人,就我们能够交给他一个任务。我其实很坚定的认为,当前的很多的云计算时代的基础设施,其实是为服务一个程序,服务一个人类工程师所设计的,而不是为AI设计的。那有点像什么呢?我们做了一个基础设施,它上面有一个接口,这个接口是为人类工程师做的,然后在上面要再包一层再去接入agent,那这种方式其实是用人的操作的一些能力限制了agent发挥空间。
我们将它称作agentic infra,就是需要打造一个更智慧化的token工厂。这个是无问芯穹现在正在做的事情。从更长远的未来,真正AGI的时代到来的时候,我们认为连基础设施都应该是一个智能体。我们自己所打造的这套工厂本身也应该是一个能够自我进化、自我迭代的,能够形成一个自主的组织。相当于它有一个CEO,这个CEO是一个agent,可能是一个claw在管理整个基础设施,根据AI客户的需求,自己去提需求,迭代自己的基础设施。这样AI和AI之间才能够去更好的形成耦合。所以我们也在做一些,比如让agent和agent之间更好的通信,做catch to catch这样一些复制的能力。
所以我们其实一直都在思考,基础设施和AI的发展不应该是一个隔离的状态,我接受一个需求我就去制作,而是应该是产生非常丰富的化学反应。这件事情才是我认为真正的做到所谓的软硬协同,做到算法和基础设施的协同。
杨植麟
小米最近也是通过发布新的模型,包括开源一些背后的技术,我觉得对这个社区做出了很大的贡献。所以想问一下,小米在做大模型方面,你觉得会有什么独特的优势?
罗福莉
我觉得我们先抛开小米在做大模型方面有什么独特优势,我更想谈一下其实中国做大模型的团队在做大模型上的一个优势。我觉得这个话题更具备更广泛的一个价值。
其实在大概两年前,就是我看到中国的基座大模型团队已经在开始了一个非常好的突破。这个突破叫做我们怎么在有限的算力,尤其是在一些nvlink、互联带宽受限的一些算力情况下,怎么去突破这些低端算力的限制,去做看似是为了效率妥协的一些模型结构的创新,像DeepSeek V2、V3系列的MoE等等。但是其实我们后面也能看到,由这样一些创新引发的是一个变革。这个变革就是我们怎么在算力一定的情况下,怎么去发挥一定算力的最高智能水平。
我为什么觉得结构的创新是如此的重要?是因为我们其实刚刚探讨到OpenClaw这个话题。OpenClaw其实大家如果真实的去用,会发现你越用越好用、越用越聪明。那么它的一个前提是你的推理context。
其实context是一个很我们谈论了很久的话题。但是真正现在你发现能有一个模型,它在long context的情况下表现非常好,性能非常的强劲,推理成本的非常的低,其实很多模型它不是做不到,而是它的成本太贵了、速度太慢了。那么怎么你能做到在一兆或十兆context的情况下,推的成本够低,速度够快。在这样的情况下,才会有真正的高生产力价值的任务交给这个模型,从而去完成更高复杂度的任务,可能我们才能在这样的情况下实现模型的自迭代。
所谓模型的自迭代,就是它可以在一个复杂的环境里边,依靠于超长的context,完成对自我的进化。这个进化可能是对Agent框架本身的,也有可能是对模型参数本身的。因为我们认为long context本身其实就是对参数的一个进化。所以怎么实现一个long context efficient的架构,以及怎么在推理侧做到long context efficient,其实是一个全方位的竞争。
除了我刚刚提到的在预训练做好一个long context efficient的架构,这个可能是我们一年前就去探索的一个问题。而当今怎么做到long context真实的长程距离的任务上的一个稳定性和非常高上限的效果,就是我们现在后训练再去迭代创新的一个范式。我们在想怎么去构造更有效的学习算法,怎么去采集到真实的这种在一兆、十兆、百兆上下文里边真的都具有依赖的这种文本,以及结合复杂的环境产生的这个trajectory,这是我们现在在后训练正在经历的事情。
但是我能看到更长期的事情是由于大模型本身在飞速的进步,由于我们有agent的框架更好地加持它。我们能看到推理需求,我相信在今年已经发生的事情是在过去一段时间内已经近十倍的增长。今年整个token的增长会不会达到100倍?这里边其实我们又到了另外一个维度的竞争,这个竞争就是算力或者说是推理芯片,甚至下到能源。
杨植麟
黄超你也开发了一些非常有影响力的agent的项目,你自己觉得从agent的harness或者应用的层面,接下来会有什么技术方向是你觉得比较重要,可能大家需要去关注的?
黄超
首先如果我们把agent的一些技术抽象出来,关键几个点,比如说planning,还有memory和to use这几个模块的话。
从planning来讲的话,我觉得现在的问题还是面向于一些层层的任务,或者非常复杂的一些上下文,很多模型我觉得不一定能够去做很好的planning,因为我觉得它本质上可能不具备这样的一个隐性的知识,特别是在很多一些复杂的垂直领域。我觉得这块可能planning未来需要去把已有的各种复杂任务的知识,把它固化到模型里面去做。
其实从skill,我觉得本质一定程度上可能包括harness,也是我觉得缓解了这种planning里面带来的错误。因为它提供了一些比较高质量的skill,本质上也是在guide模型去完成一些比较难的task。
memory的话,带给我们的一种感受就是好像它永远都会存在比如信息压缩不准确的一些问题。还有一些复杂场景的话,其实memory就会暴增。我觉得这个其实是带来对memory的压力。但是现在其实包括像各类的龙虾们,大家都采用的是最简单的一些像文件系统这样格式的memory,通过我们是否去共享一些文件的方式来去做。我觉得这一点其实可能未来memory应该是做类似于走向一些分层的设计,包括如何去让memory做的更通用。
我觉得整个memory机制其实很难做的很通用。比如说coding场景的、deep research的、多媒体领域的,整个数据模态差别会很大。如何去对这些memory进行很好的检索索引,我觉得这个永远是在做一个trade off。
另外一点就是说现在其实龙虾让大家对于创建agent这件事情的门槛大幅降低之后,其实未来可能不止一个龙虾。我看到kimi其实也有agent swarm这样的机制出来,相当于是未来可能每个人会拥有一群龙虾。那它的上下文暴增,我觉得大家可以想象会非常的大,我觉得这个也是带给memory的压力。现在其实还没有一套很好的机制,如何去管理这种一群龙虾带来的一整个上下文。
to use这块的话,我觉得MCP本身存在的问题,skill现在还是会存在。比如说MCP当时是有质量不保障、可能会存在一些安全问题。现在skill的话,看似确实会有很多skill,但是高质量的skill是比较少的,其实低质量skill会很影响整个agent任务的完成度。另外的话,还有skill很多时候也会存在一些恶意注入的问题。所以从to use这块的话,我觉得可能需要靠整个社区,来把整个skill发展得更好,甚至如何通过这种在执行过程当中去进化出一些新的skill。
杨植麟
刚刚两位嘉宾也是从不同的视角,去讨论一个问题。就是说现在随着任务复杂度的增加,上下文会暴涨。那可能从模型层面,是可以去提升你的原生上下文长度;可能从agent harness层面,像刚刚说的planning、memory,包括multi agent的harness,实际上也是能让你在一个特定模型的能力下,去支持更复杂任务。我觉得可能这两个方向接下来也会有更多的产生化学反应,能够提升去完成这个任务的难度。
最后我们来一个开放式的展望,所以想请各位用一个词来描述一下接下来12个月大模型发展的趋势以及你的期望。
黄超
我感觉12个月在AI看起来好遥远,都不知道12个月之后会发展成什么样。
杨植麟
里面原来写的是五年,我给它改了。
黄超
首先可能从我这边的话,我感觉一个词应该叫生态。现在龙虾让大家这么活跃了,未来agent真的要从真正的个人助手,特别是转换为打工人,我觉得还是很重要的。因为现在可能大家很多时候玩龙虾也是一个新鲜感,可能是觉得好玩。但是我觉得未来真正得让龙虾们沉淀下来,应该是成为大家的一个搬砖工具,或者是成为真正的一个coworker的状态。所以我觉得这块可能真的是需要整个生态的努力。
包括我觉得开源这块其实就很重要,把所有相关的技术探索,包括整个模型的很多技术都开源出去之后,其实需要大家一起来共建整个生态。不管是对于这种模型的迭代,还是对于这种skills平台的迭代,还有各种工具的。我觉得这块都需要去更好地去面向龙虾,去创造更好的生态。
我自己感觉比较明显的就是,未来的很多软件,包括现在有了龙虾,大家又会在考虑一个问题:未来软件还是不是会给人用的吗?
我们相信可能未来大部分很多的软件都不一定会面向人类的,因为人类是需要GUI的,可能是面向agent原生的去使用的。这个就需要整个生态就去把软件系统、数据,还是各种技术,其实都变成agent原生化的模式,才能让整个agent发展会更加丰富。
罗福莉
我觉得把这个问题缩小到一年非常有意义。因为五年从我心目中对于AGI的定义而言,我觉得已经实现了。所以如果说要用一个词来描述接下来一年,我觉得AGI历程里边最关键的一个事情的话,我认为会是自进化。
虽然这个词它是一个有点玄幻的概念,我觉得在过去一年大家也多次提到,但是我也是最近才对这个词有了一个更深的体会。或者具体自进化这个事怎么做,会有一个更务实的一个实操方案。
这里边的原因确实是借助于很强大的模型,其实我们之前在chat范式下,根本没有发挥出来这个预训练模型的上限。这个上限现在是被agent框架给激活到了。我们现在触到了当它执行更长时间的任务的时候,我们发现这个模型可以自己去学习和进化。很简单一个尝试,就是当你在现有的agent框架里边给它叠加一个可以verify的条件限制,再给他设置一个loop,让这个模型不停下来持续去迭代优化这个目标。我们就能发现这个模型会去拿出更好的方案。如果这样的一种自进化能持续,现在其实国内的模型基本上能跑一两天了。
所以从我的角度上来看,我觉得自进化是一个唯一可以创造一个新的东西的地方。它不是去替代我们现有的人的生产力,而是说像顶尖的科学家一样去探索出来这个世界上没有的一个东西。
其实在一年前,我会觉得这个时间历程会拉到3到5年。但也就是在近期,我会觉得这个时间历程确实应该缩小到最近1到2年,可能我们就可以让大模型叠加一个非常强的自进化的agent框架,实现对于科学研究的至少成指数级的一个加速。
因为我最近已经发现我们组内做大模型研究的同学,基本上其实他的workflow是非常不确定的,是高度创造力的。然后其实我们发现借助Claude Code加非常顶尖的模型,基本上已经能够加速我们自己的研究效率近十倍了。所以我很期待这样的一种方式辐射到更广的学科和领域,我觉得自进化是非常重要的。
夏立雪
我的关键词叫可持续token。因为也看到了,现在整个AI的发展还在一个长期持续的过程中,我们也希望它是能够有长久的生命力的。
那这里边我们作为基础设施角度看到的一个很大的问题就是我们的资源终究是有限的。我们现在作为一个token工厂,能否给大家提供持续稳定、大规模能够用起来的这些token,让我们顶尖的模型真正能够继续为更多的下游去服务,是我们看到的一个很重要的问题。所以我们现在也是需要的把整个视角放宽到刚刚说到的整个生态。那从最早的能源的转到算力,然后再转换到token,最终再转换成GDP这样的一个链路,能够去进行一个持续的经济化的迭代。
包括我们其实不止在把国内的各种算力用起来,也在把这些能力输出海,让全球的资源都能够进行打通和整合。所以我也认为这个可持续其实也是想把我们中国特色的token经济学给做起来。因为其实我们在之前的时代,是叫made in china。我们会发现我们能够把中国的低价的制造能力,变成好的商品输出到全球。我们现在想做的就是有点像AI made in china,就是我们能够把中国的这些能源上的优势,通过这些token工厂,可持续的转化成为优质的token输出到全球。成为一个世界的token工厂,这是我想要在今年看到的整个中国给世界的人工智能带来的价值。
张鹏
我就简短一点,大家就可能都在仰望星空,我就落地一点。我觉得关键词让我说未来12个月面临的最大的问题可能就是算力。因为刚才也说了,所有的这个技术,包括智能体框架,让很多人有很好的创造力,效率提升十倍。但前提条件就是大家能够用得起来。
你不能因为说算力不够,一个问题提出去让他思考半天也不给我答案,这个肯定是不行的。也是因为这样的一些原因,可能甚至连我们的研究的进展,包括很多想要做的一些事情,其实都受阻了。
前两年我记得是亚勤院士应该也是在中关村论坛谈了一下,说了一句话叫“没卡没感情,谈卡伤感情”。我觉得今天又到了这个地步了,但情况又不一样了。可能我们又到了这个推理的这个阶段。转向推理阶段是因为需求真的在爆发,十倍百倍的爆发。那你也说过去十倍,其实需求是100倍,那还有很大量的需求没有满足怎么办?我们大家可能一起来想想办法。
免责声明:所有平台仅提供服务对接功能,资讯信息、数据资料来源于第三方,其中发布的文章、视频、数据仅代表内容发布者个人的观点,并不代表泡财经平台的观点,不构成任何投资建议,仅供参考,用户需独立做出投资决策,自行承担因信赖或使用第三方信息而导致的任何损失。投资有风险,入市需谨慎。

迁址公告
古东管家APP
关于我们
请先登录后发表评论