跳到主要内容

AI大家说|当龙虾真的开始干活,AI距离进化自己还有多远?

近日,在2026年中关村论坛年会的一场圆桌会议上,月之暗面创始人杨植麟主持,智谱AI CEO张鹏、无问芯穹联合创始人兼CEO夏立雪、小米MiMo大模型负责人罗福莉、香港大学助理教授黄超,围绕OpenClaw与AI开源展开了一场深度对话。

五位嘉宾分别站在模型、算力、应用、学术的不同坐标上,却在同一个问题上汇聚:Agent时代的到来,正在把AI从一个”聊天工具”推向一个”自我进化的系统”——而这条路上,既有十倍暴涨的Token账单,也有尚未成形的新范式。

从”聊天”到”干活”:一次范式跃迁

龙虾为什么火?几位嘉宾不约而同指向同一个词:干活。

智谱AI CEO张鹏第一个接过这个话题。他把OpenClaw称作一个“脚手架”——在模型基础之上搭起一个牢固、方便又灵活的结构,让普通人也能调用顶尖模型的能力,尤其是在编程和智能体方面。”原来自己的一些想法受限于不会写代码,今天终于可以通过很简单的交流就可以完成。”

无问芯穹联合创始人兼CEO夏立雪的第一反应却是”不太适应”。习惯了和大模型聊天的他,最初觉得OpenClaw”反应好慢”。但他很快意识到,这种”慢”本身就是一种信号——”它应该是一个能够帮我完成大型任务的助手,而不是一个聊天机器人。”

这个认知转变,被夏立雪称为整个AI想象力空间的跃升。但随之而来的,是一组让他既兴奋又有些焦虑的数字:从1月底开始,无问芯穹的Token量每两周翻一番,到现在已经翻了十倍。他说,上次见到这种增速,还是当年3G时代手机流量爆发的感觉——”现在的Token用量,就跟当年每个月100兆手机流量那个时代”。这个比喻的言下之意是:我们正处在一个基础设施严重滞后于需求爆发的临界点。

香港大学助理教授黄超从交互模式的角度给出了另一个解读。OpenClaw爆火,有一个容易被忽视的原因:它第一次以IM软件嵌入的方式,给了大家真正的“活人感”——不是工具感,而是更接近个人贾维斯的体验。”更重要的是,它的AgentLoop这种非常简单但高效的框架再次被证明了。它让整个社区大家更有’玩起来’的心态,去撬动整个生态里所有的工具。”

基础设施正被从未设计的需求所冲击

龙虾越养越好用,但它背后的代价,是整个基础设施体系正在被一种它从未为之设计的需求所冲击。

张鹏在论坛上宣布了GLM-5-Turbo的提价,并坦率地解释了原因:让模型”干活”,意味着长程任务规划、不断重试、压缩上下文、Debug、多模态信息处理……”完成一个任务可能需要的Token量,是原来回答一个简单问题的十倍甚至百倍。”

这不是一家公司的问题,而是整个推理时代的结构性压力。

夏立雪提出了一个更宏观的视角:我们现在所有的基础设施,是为服务”人”而设计的,而不是为AI设计的。”比如Agent能做到秒到毫秒级别去思考和发起任务,而这件事情在我们之前底层K8s等能力上其实没有做好准备——因为人类发起一个任务大概是分钟级别的。”

黄超则从Agent架构层面剖析了这场”上下文爆炸”。他将智能体的核心技术拆解为规划、记忆、工具调用三个模块,逐一指出当下的痛点。

规划层面,面对500步甚至更长步数的长程任务,多数模型表现不佳——”本质上是因为模型不具备这类复杂任务所需的隐性知识,尤其是在垂直领域。”Skills和Harness体系在一定程度上缓解了这个问题,但黄超直接点出了一个被行业低估的隐患:”高质量的Skill其实很少,低质量的Skill会严重影响智能体的任务完成度。”早期MCP存在的能力质量无保障、安全问题,在今天的Skills体系里依然存在,甚至还多了恶意注入的风险。

记忆层面同样承压。随着每个人可能拥有”一群龙虾”,上下文将迎来爆发式增长。”不管是模型还是Agent架构,目前行业还没有一套成熟的机制能管理一群龙虾带来的海量上下文。”他判断,未来记忆模块需要走向分层设计,并为不同模态的数据打造更高效的检索引擎。

但黄超最具前瞻性的一个判断,藏在他对”生态”的定义里:未来大部分软件不再是为人类设计的,而是面向Agent原生的。人只会去使用让自己快乐的GUI;其余的一切,交给龙虾。

张鹏在论坛的最后,用一句话点出了这个问题的重量:”前两年有句老话叫’没卡没感情,谈卡伤感情’,我觉得今天又到这个地步了。需求是百倍的爆发,但还有很大量的需求没有被满足。

自进化:从玄幻概念到可行路径

算力焦虑、架构重塑——这些都是”龙虾干活”在基础层带来的压力。但在小米MiMo大模型负责人罗福莉看来,这些压力的背面,正在孕育一个更具革命性的可能:AI开始自己进化自己。”我的关键词是‘自进化’。虽然这个词听起来有点玄幻,但我最近对它有了一个更务实、更实操可行的理解。”

她强调,要让自进化真正落地,Efficient Long Context是一个绕不过去的前置条件——不是模型”能不能”处理百万Token的上下文,而是”能不能以足够低的成本、足够快的速度”完成推理。”很多模型不是做不到一兆或十兆的Context,而是因为推理成本太贵了、速度太慢了。只有在Long Context下推理成本够低、速度够快,才会有真正高生产力价值的任务交给这个模型,从而激发只有在Long Context情况下才能完成的高复杂度任务。”

一年前,罗福莉认为这条路还需要三到五年。今天,她把这个时间窗口收窄到了一到两年。原因是她已经在自己团队里看到了预兆:借助顶尖模型辅助,组内大模型研究同学的效率已经加速了近十倍。”我很期待这样的范式辐射到更广的学科和领域——自进化不是去替代人的生产力,而是像顶尖科学家一样,去探索这个世界上原本没有的东西。”

黄超从生态角度呼应了这一判断。他用“生态”作为自己对未来12个月的关键词,强调的是:龙虾从新鲜感玩具,演变为真正的打工人或Coworker,需要整个生态的共建——模型迭代、Skills平台完善、工具链的Agent Native化。”未来大部分软件可能不再是面向人类的,而是面向Agent原生的。人只会去使用让自己快乐的GUI。”

夏立雪的关键词则落在了“可持续Token”——他把这件事上升到了一种新的经济学框架:从能源到算力,到Token,再到GDP,这条链路如果能持续运转,就像当年”Made in China”把制造业成本优势输出全球,今天可以是”AI Made in China”,把中国的能源优势通过Token工厂持续转化,向世界输出优质算力。

张鹏则回到了最务实的那个词:算力。”所有的技术,前提条件就是大家能够用得起来。你不能因为算力不够,一个问题提出去让它思考半天也不给我答案。”他并不讳言这是行业当下面临的最大瓶颈——不只是影响用户体验,甚至连研究进展都因此受阻。

化学反应的终点

杨植麟在圆桌结束时做了一个简短的技术收束:模型层可以提升原生的上下文长度,Agent Harness层的规划、记忆与多智能体架构,也在不断扩展任务的可完成边界——这两个方向接下来会有更多的化学反应。

但化学反应的终点在哪里?四位嘉宾给出了各自的关键词,合在一起,是一张完整的路线图:

生态——从工具到Coworker,需要整个社区推动软件生态的Agent Native化;自进化——AI开始自己优化自己,从科研加速到模型迭代,时间窗口正在收窄;可持续Token——从能源到算力到Token再到GDP,”AI Made in China”的经济链路正在成形;算力——推理时代的百倍需求爆发,是当下最紧迫、最无法绕开的结构性瓶颈。

四个维度,指向同一件事:龙虾已经开始干活了。而在它干活的背后,一个能够自我迭代、自我进化的AI系统,正从科幻电影里的意象,一步步走进实验室、走进代码、走进真实世界。