在人工智能竞赛中,一股反向潮流正在兴起:不再一味追求规模最大的模型,而是优先考虑效率最高的模型。
在人工智能竞赛中,一股反向潮流正在兴起:不再一味追求规模最大的模型,而是优先考虑效率最高的模型。

商汤科技新一代“日日新 SenseNova 6.7 Flash-Lite”模型正在将 Token 消耗降低 60%,这标志着行业正出现更广泛的转向:不再追求构建更大的 AI 模型,而是转向能够在成本和数据主权等现实企业约束下运行的系统。
“在亚洲,当我观察 AI 热潮时,主权的衡量标准已经超过了模型本身,”IBM 亚太区总经理 Hans Dekkers 在最近的一次采访中表示。他指出,由于担心数据泄露,99% 的企业数据仍未被 AI 触及。
SenseNova 模型通过原生多模态架构实现其效率,该架构移除了中间的视觉到文本转换层,直接解释复杂的文档和图表。这与腾讯和 DeepSeek 等竞争对手模型中看到的暴力扩展形成了鲜明对比,转而针对特定的高价值企业工作流。
此举反映出一种日益增长的企业战略,即部署数十个较小的专用模型,而非单一的全能模型。这种转变创造了 AI 领域的新竞争阵地:能够管理混合模型的编排平台,这也是 IBM 瞄准的市场,而像商汤科技这样高效、低成本的模型可能会在此获得巨大需求。
虽然市场大部分注意力都集中在基准测试性能上,但企业在尝试部署大型通用 AI 时面临着结构性错配。监管碎片化,尤其是在亚太地区,使得数据主权成为主要的运营约束。企业通常不愿将专有数据暴露给外部的单体模型,这为 AI 的采用创造了障碍。Dekkers 表示:“这并不是在合规与创新之间做选择……而是关于在整个数字架构中保持控制权。”这种犹豫使得绝大多数有价值的企业数据处于孤岛状态,未被 AI 系统利用,这代表了一个巨大的、尚未开发的市场,需要能够在这些边界内运行的工具。
对高效、低功耗 AI 的需求正在为 GSI Technology 的 Didier Lasserre 所称的“数十亿美元市场”创造新机会。GSI 的 Gemini II 关联处理器 (APU) 提供了一个清晰的案例研究。在最近的一项国防概念验证中,该芯片仅使用 30 瓦的系统功耗,就实现了约 3 秒的首个 Token 生成时间,这是无人机监控的关键指标。这种在功率受限环境下的表现直接促成了合同签署,并正被用于一个新的智慧城市项目。GSI 专用硬件的成功(其资金来自其传统 SRAM 业务 22% 的增长)证明了构建针对延迟和效率而非原始规模的定制化 AI 解决方案的可行性,这正是商汤科技凭借其轻量级模型所瞄准的市场利基。
商汤科技通过 SenseNova 6.7 Flash-Lite 采取的方法直接契合了这一新兴范式。通过构建一个运行成本天生更低的模型——在信息搜索任务中削减了 60% 的 Token 使用量——该公司押注企业将更青睐成本节约和控制权,而非使用最大可用模型的虚名。这是向“自带模型”环境发展的更大趋势的一部分,在这种环境下,公司使用编排平台为每项特定任务部署最佳工具,无论是像 GPT-4 这样的全球巨头、阿里巴巴的地区性模型,还是专用的内部系统。在这种背景下,最有价值的参与者可能不是拥有最大模型的公司,而是为特定业务问题提供最高效、最合规解决方案的公司。
本文仅供参考,不构成投资建议。