腾讯云正在将其 AI 智能体技术的关键部分开源,此举旨在大幅削减运营成本,并攻克开发更先进 AI 的关键瓶颈。
腾讯云正在将其 AI 智能体技术的关键部分开源,此举旨在大幅削减运营成本,并攻克开发更先进 AI 的关键瓶颈。

腾讯云发布其开源 Agent Memory 技术,承诺最高可将 Token 消耗降低 61%。这标志着在使复杂的 AI 智能体具备经济可行性及更强能力方面迈出了重要一步。该举措于 5 月 14 日宣布,旨在满足 AI 系统在处理长期且复杂的任务时维持上下文和回溯信息日益增长的需求。
根据公司的公告,该解决方案通过提供短期记忆压缩和长期个性化记忆能力,针对长任务场景进行了优化。虽然长期记忆功能已于 4 月开放免费使用,但此次新的开源发布重点在于短期记忆压缩组件。
在多任务连续会话实验中,腾讯报告称其解决方案在提高任务成功率的同时,将 Token 消耗降低了多达 61%。这解决了开发者面临的一项重大运营成本,因为大语言模型根据处理的 Token 数量计费,而具有冗长对话历史的复杂任务可能会导致成本高得令人望而却步。
此举不仅关乎节约成本,更在于赋能能够处理复杂多步骤任务的下一代 AI。它将腾讯定位为 AI 领域的关键推动者,在一个内存和存储正成为关键瓶颈及主要增长领域的市场中争夺开发者的关注。这一趋势也使美光科技 (NASDAQ: MU) 和闪迪 (NASDAQ: SNDK) 等公司受益。
创建更有用、更自主的 AI 的关键障碍在于记忆问题。目前大多数主流 AI 智能体实际上都患有“失忆症”;它们依赖即时数据,一旦某个对象或信息不再处于直接输入范围内,就会丢失上下文。这阻碍了它们执行需要回溯先前交互或环境状态的复杂推理或长期任务。正如北京人形机器人创新中心近期推出的“开物”(Wise KaiWu)智能体所凸显的那样,业界正通过动态记忆系统推动解决这一问题。该智能体引入了空间和个性化记忆,帮助机器人从被动执行者进化为能够记住用户及其偏好的主动助手。
腾讯的 Agent Memory 从软件角度应对了同样的挑战。通过提供短期回溯(刚才谈了什么?)和长期个性化(这个用户是谁,他们偏好什么?)的框架,它允许开发者构建更连续、更具上下文感知能力的应用程序。这种能力对于将 AI 从简单的聊天机器人提升为能在家庭、商业或工业设置中担任真正助手的复杂智能体至关重要。
腾讯的软件发布是围绕 AI 基础设施展开的更宏大硬件热潮中的战略布局。AI 的爆发式增长对运行模型所需的专用内存以及存储数据所需的海量存储产生了前所未有的需求。闪迪最近的财报显示,其营收同比增长 251%,达到 59 亿美元,这主要受用于 AI 推理系统、向量数据库和智能体 AI 工作负载的 NAND 闪存需求的推动。该公司 CEO 指出,NAND 正在成为保持 AI 模型在大规模实时使用中具备经济可行性的“唯一解决方案”。
这种硬件需求延伸到了高带宽内存 (HBM) 芯片,像美光科技这样的厂商看到其产品需求飙升,这些产品对于英伟达的 AI 平台至关重要。闪迪已签署了价值超过 420 亿美元的多年供应协议,这表明大客户正在锁定长期存储容量。这种对 AI 物理构建模块的强烈需求突显了像腾讯这样的软件解决方案的重要性,这些解决方案旨在更高效地利用硬件。通过减少 Token 消耗,Agent Memory 直接降低了底层基础设施的运营强度。
腾讯的开源策略旨在将其技术植根于开发者社区,带动其更广泛的腾讯云生态系统的采用。虽然 Agent Memory 工具本身是免费的,但其使用可以带动其他付费云服务的消费。这一举措反映了更广泛的行业趋势:高效管理、存储和回溯 AI 智能体数据的能力已成为关键的竞争优势,推动了从云服务提供商到构建基础的半导体和存储公司等整个技术栈企业的绩效。
本文仅供信息参考,不构成投资建议。