撰文 | 李信马
题图 | WAIC
在刚刚过去的世界人工智能大会(以下简称“WAIC”)上,一家参展商的展位,引起了不少参展者的关注。
相比其他展台上活跃的机器人、机器狗,还有五花八门的AI应用,这个展位显得很“朴素”,主推的产品是一款“ Agent 沙箱”。在本届 WAIC 大会上,如果说有什么能与机器人争辉的,那就是层出不穷的 AI Agent 了,这是 AI 深入千行百业,真正创造价值的具象化体现。比如在编程领域,人类只需要提出需求比如创建一个游戏, Agent 就会根据需求自动分解复杂任务、制定执行计划、调用工具、进行代码迭代,直到最终部署一个可访问的网页版游戏。
可以说,这是连大厂都垂涎三尺的“梦中打工人”了。
但 AI Agent 的落地,少不了Agent Infra的推动。比如,Agent 生成的代码质量存在不确定性,在共享环境中,当多个用户同时处理任务时,某个用户可能会诱导 Agent 生成危险代码,进而威胁系统安全并影响其他用户。这个问题在企业中尤其危险,一不小心,就有可能泄露重要信息。
“Agent 沙箱”这款产品,能够为 Agent 构建一个安全隔离的环境,当多个任务并发执行时,可以让每个任务都运行在独立环境中,避免数据泄漏和资源抢占冲突。这里的“多个”,可以达到数千个实例,满足业务场景的高并发需求。除此之外,传统虚拟机沙箱启动需要数分钟甚至更长时间, 而“Agent 沙箱”的平均启动时间小于200ms,开发体验更流畅。
“Agent 沙箱”示例 拍摄:DoNews
说了这么多,还没介绍推出这款产品的厂商—— PPIO (派欧云)。进入互联网时代,技术的发展有一条起起伏伏的主线,近二十年,大数据、云计算、AI,到现在的大模型技术,都有过各自的辉煌时代。
当下,业界的热词是大模型,是具身智能和 AI Agent ,云似乎被提起的少了。但作为 AI Infra 的重要组成,云计算领域的创新还在不断进行中, PPIO 就是这样的一家“新势力”。在 WAIC 期间,DoNews受邀采访了 PPIO创始人姚欣,聊了聊 PPIO 在AI时代的定位和方向。
01、“不一样”的云计算
2018年, 前PPTV 创始人姚欣和前 PPTV 首席架构师王闻宇联合创立了 PPIO 。
云计算行业长期被认为是一个重资产和规模效应的行业,而 PPIO 却以轻资产运营的模式,同样达到了规模效应。据灼识咨询的资料显示,截至2024年12月31日,PPIO的算力网络覆盖了 1200 多个县市,包含 4000 多个计算节点。
资料来源: PPIO 招股书
原因就在于, PPIO 将共享经济的模式带到了云计算领域。和亚马逊云科技、阿里云等集中式的云计算厂商不同, PPIO 是分布式云计算平台,其在招股书中介绍道:“我们的业务始于边缘云计算服务领域,因为我们发现海量的算力需求与分散且尚未充分利用的算力供给之间存在重大错配。我们搭建了算力调度平台,汇聚和管理异构资源的闲置算力,以最优方式向客户部署,从而加速内容传输及提升低延迟计算体验。”
“集中式云计算厂商大部分都是以自建超大规模的数据中心为主,而PPIO这样的分布式云计算服务商,是整合第三方数据中心机房里面的闲置算力为主。”姚欣告诉DoNews,可以将 PPIO 理解成算力领域的“滴滴”。
商业模式的不同,也体现在财务数据上。从2022年到2024年,PPIO的营收分别为2.86亿(人民币,下同)、3.58亿和5.58亿,增速明显,而毛利率则分别为16.1%、17.7%和12.3%,要低于国内一二线云厂商的平均水平。
对此,姚欣解释:“传统的云厂商,都是自建布局数据中心,然后分三年或五年摊销,再租出去获得营收。这是重资产的商业模式,而我们的算力资源来自于目前四千多个国内合作的算力节点,通过整合闲置的算力和资源构成弹性、可调度的全球算力网络,再去对外提供服务,客户使用了这些资源后,我们再去跟上游的算力供应商进行结算,就像滴滴会拿走平台的服务费,剩下的大部分收入会分给滴滴司机。”
轻资产的模式下,除了以更低的成本撬动更高的营收,姚欣表示, PPIO 还能提供更高的弹性,以及更分散的分布式特性,提供更高性价比的计算产品服务。
资料来源: PPIO 招股书
作为后入场者, PPIO 不准备做“大而全”,而是选择垂直的边缘云计算市场,并迎来了迅速的增长,这也是 PPIO 主要的收入来源。而在2023年,随着大模型的异军突起,他们也看到了AI领域的新机会——AI推理云,成为了他们重磅下注的“第二增长曲线”。
资料来源: PPIO 招股书
02、AI时代的算力“滴滴”
“2023年,迎来了AI时代的又一次大爆发,我们也利用分布式云的技术优势和独特的商业模式优势,快速进入了AI推理云服务这个细分市场。”姚欣回忆道。
相比边缘云计算,当下国内的AI推理市场可能更需要一个算力“滴滴”。
“以前 CPU 时代,可能服务器能持续使用五六年,但到了今天的 GPU 时代,两年就是一代卡,性能会提升十倍以上。所以,一方面我们觉得算力不够,另一方面,很多两三年前的卡就被闲置了。比如,现在其实没有人拿 A100 做训练了,用量越来越少,价格也降低很多。 我们看到在海外, H100 的租用价格在一年时间里下降了70%。2023年到2024年,很多公司都要建计算中心,运行不到一年之后纷纷亏本离场。根据灼识咨询的资料,全球IDC的平均利用率仅为50%至70%左右,且对于其他类型的算力供应商而言可能更低,导致大量算力资源尚未得到充分利用。
AI算力的供需错配,比通用算力的错配更严重,资源浪费也更让人心痛。而 PPIO 通过提供分布式 GPU 云服务,成为承接供需错配的一个平衡者,将已经闲置或者部分过剩的资源跨区域调度,同时将上一代的训练卡拿来做推理。
推理侧是有分布式优势的,它并不需要1000张卡跑到一个集群里,有一台机器就能跑一个简单的模型,也可以用三五台并联完成一个集群化的推理,这跟PPIO积累的分布式计算的经验能力其实是相关的。特别是在算力被‘卡脖子’不够用的时代来讲,这是算力供应的一个非常重要的补充方法,就像是‘滴滴’打车对城市运力的补充。
据其招股书的资料显示:“我们的GPU云服务为客户提供强大的计算资源,无需购买物理GPU或管理GPU服务器。该架构具有高度弹性,可按需自动扩缩容,采用按需付费模式,客户仅需按实际使用量收费。我们的服务不仅整合了GPU资源,更提供专为生成式AI和机器学习工作负载设计的强大AI原生运行时环境。我们GPU云服务的主要特性包括优化的推理引擎、预置模板快速部署、需求驱动的自动扩缩容以及集成的可观测性。这些特性使我们的GPU云服务成为AI推理的全方位平台,为开发和扩展AI应用程序提供高效性、灵活性及可靠性。”
据 PPIO 提供的资料显示,依托推理加速、模型微调、分布式计算等创新技术,可以使Token价格每年下降十倍。
在WAIC大会期间,以 GPU 云底座为支撑, PPIO 发布了国内首个 Agentic AI 基础设施服务平台,推出 AI 智能体平台产品(通用版和企业版),还发布了文章开头提到的,中国首款兼容 E2B 接口的 Agent 沙箱。作为Agent 基础设施服务商,PPIO提供一系列的技术底座,核心就是 Agent 沙箱和一系列针对 Agent 应用特点来进行专项优化的模型服务,来提高安全和推理的性价比。截至2025年6月,PPIO平台的日均 tokens 消耗量达2000亿次,在中国独立AI云计算服务商中位列前两名。
对于为什么要入局 AI Agent 赛道,姚欣表示:一方面,基于闲置算力的整合,我们能为Agent开发者提供更高性价比的Token以及单实例成本比国外同类产品低50%以上的Agent沙箱;大幅降低了Agent应用的开发门槛和运营成本,我们预计这将加速中国Agent生态的形成,让更多企业能够快速部署AI智能体。另一方面,Agent的落地需要更强大的基础设施作为支撑,而PPIO的Agentic AI基础设施平台解决了Agent规模化的三大核心痛点:安全隔离、弹性算力和工具整合。
03、开源,开放
过去三年,全球AI行业处于高增长、高创新、高投入的状态,开源模式和开放生态逐渐成为了行业的主流。
“我刚刚又去美国走了一圈,全球看了一遍,我发现中国公司是最开放的,是中国公司在引领今天的开源模型世界。包括像我们这样的公司,也是全面兼容开源的,我们在海外时,大家也觉得,中国公司对开源的支持力度,还有整个生态的开放性都是非常高的,这也是大家为什么觉得中国力量能在全球AI领域有非常重要的一席之地的原因之一。”姚欣感慨道。
在三年前启动AI推理云业务时, PPIO 的口号就是“聚焦推理,聚焦开源”,而类似的业务,全球范围内同样也有公司在做,但少有像 PPIO 这样是完全独立第三方的,这也成为了其优势之一。
PPIO 完整兼容云原生标准,并基于开源建构的技术服务基础设施,无缝对接各类开源第三方以及云服务,特别是云原生云服务。同时,PPIO已经跟很多开源项目完成了融合或者合作。
采访的最后,姚欣总结道:“今天,算力资源供需不匹配的问题已经很严重了。我们觉得,需要用像 PPIO 这样的方式来去弥补这个问题,而不是一味的大建特建、堆资源。我们今天看着这些资源的闲置,的确很心痛。也希望能够有更多的闲置资源方,或者各种各样的需求方能跟我们来对接。”