云霞资讯网

最近AI圈有个特别火的关键词——OpenClaw。很多人可能刚听说,它其实是一个

最近AI圈有个特别火的关键词——OpenClaw。很多人可能刚听说,它其实是一个开源AI智能体工具,可以理解为“AI打工人”:你给它一个指令,它会自动调用各种工具去完成任务,比如查资料、写邮件、甚至操作电脑。 因为开源、可扩展,OpenClaw这几个月在开发者圈里突然爆红,甚至成为GitHub增长最快的AI项目之一,不少城市还在推动围绕它的产业和开发生态。但随着这类AI智能体越来越火,一个现实问题也越来越明显——AI应用可以无限想象,但算力和网络是硬约束。 像OpenClaw这种智能体,本质上并不是大模型本身,而是一个调度系统:它需要不断调用不同的大模型、工具和数据源来完成任务。当这种应用规模扩大,背后其实就是大量分布式计算和跨节点通信。而一旦进入大模型训练或万卡级推理场景,问题就会集中到一个关键环节:算力之间如何高效互联? 目前业内主要有两条路线:IB和RoCE。简单理解:IB(InfiniBand):原生RDMA网络,延迟极低、几乎零丢包,主要服务于全球高性能计算和超大AI集群。RoCE:在以太网上模拟RDMA能力,成本更友好。过去几年国内很多智算中心更多使用RoCE,因为更容易落地。但随着模型规模进入万卡甚至十万卡时代,IB也成了必争的赛道。 这就是为什么最近外媒的一条爆料传回国内后,激起了热烈的讨论。他们说我们国内某头部算力厂商正在研发原生RDMA网络方案,直接对标IB路线。如果消息属实,那意味着国产算力体系可能要补上最难的一块拼图——高端算力网络互联。 但是在中国算力体系里,真正懂“算力+网络系统工程”的玩家,本来就屈指可数,所以不少业内人已经在悄悄猜:这件事,会不会又是老牌超算厂商中科曙光?