En la carrera por la inteligencia artificial, un contramovimiento está ganando terreno, priorizando no el modelo más grande, sino el más eficiente.
En la carrera por la inteligencia artificial, un contramovimiento está ganando terreno, priorizando no el modelo más grande, sino el más eficiente.

El modelo de nueva generación “SenseNova 6.7 Flash-Lite” de SenseTime está reduciendo el consumo de tokens en un 60%, lo que señala un giro más amplio de la industria: alejarse de la construcción de modelos de IA cada vez más grandes y dirigirse hacia sistemas que puedan operar dentro de las limitaciones reales de las empresas en cuanto a costes y soberanía de datos.
“En Asia, cuando observo el auge de la IA, la soberanía se mide más que los modelos”, afirmó Hans Dekkers, Director General de IBM Asia Pacífico, en una entrevista reciente, señalando que el 99% de los datos empresariales siguen sin ser tocados por la IA debido a las preocupaciones sobre la exposición de los datos.
El modelo SenseNova logra su eficiencia a través de una arquitectura multimodal nativa que elimina una capa intermedia de conversión de visión a texto, interpretando directamente documentos y gráficos complejos. Esto contrasta con el escalado por fuerza bruta visto en modelos de competidores como Tencent y DeepSeek, apostando en su lugar por flujos de trabajo empresariales específicos y de alto valor.
El movimiento refleja una estrategia empresarial creciente de desplegar docenas de modelos más pequeños y especializados en lugar de uno solo todopoderoso. Este cambio crea un nuevo frente competitivo en la IA: plataformas de orquestación que pueden gestionar una mezcla de modelos, un mercado al que apunta IBM y donde los modelos eficientes y de bajo coste como el de SenseTime podrían ver una demanda significativa.
Mientras gran parte del mercado se centra en el rendimiento de los puntos de referencia, las empresas se enfrentan a un desajuste estructural al intentar desplegar IA general de gran tamaño. La fragmentación regulatoria, particularmente en Asia Pacífico, convierte la soberanía de datos en una limitación operativa primaria. Las empresas suelen ser reacias a exponer datos propietarios a modelos monolíticos externos, lo que crea una barrera para la adopción de la IA. “La elección no es entre cumplimiento e innovación... se trata de mantener el control en toda su arquitectura digital”, dijo Dekkers. Esta vacilación ha dejado a la gran mayoría de los valiosos datos empresariales aislados y sin utilizar por los sistemas de IA, lo que representa un mercado masivo y sin explotar para herramientas que puedan trabajar dentro de estos límites.
La demanda de IA eficiente y de bajo consumo está creando nuevas oportunidades en lo que Didier Lasserre de GSI Technology llama “mercados de miles de millones de dólares”. La unidad de procesamiento asociativo (APU) Gemini II de GSI ofrece un caso de estudio claro. En una reciente prueba de concepto de defensa, el chip logró un tiempo para el primer token de aproximadamente tres segundos utilizando solo 30 vatios de potencia del sistema, una métrica crítica para la vigilancia con drones. Este rendimiento en un entorno con limitaciones de energía condujo directamente a la adjudicación de un contrato y se está aprovechando para un nuevo proyecto de ciudad inteligente. El éxito de hardware especializado como el de GSI, financiado por un crecimiento del 22% en su negocio tradicional de SRAM, demuestra la viabilidad de crear soluciones de IA específicas que prioricen la latencia y la eficiencia sobre la escala bruta, el nicho exacto al que apunta SenseTime con su modelo ligero.
El enfoque de SenseTime con SenseNova 6.7 Flash-Lite encaja directamente en este paradigma emergente. Al construir un modelo que es intrínsecamente más barato de ejecutar —reduciendo el uso de tokens en tareas de búsqueda de información en un 60%— la empresa apuesta a que las entidades preferirán el ahorro de costes y el control sobre el prestigio de usar el modelo más grande disponible. Esto forma parte de una tendencia mayor hacia un entorno de “traiga su propio modelo”, donde las empresas utilizan plataformas de orquestación para desplegar la mejor herramienta para cada trabajo específico, ya sea un gigante global como GPT-4, un actor regional de Alibaba o un sistema interno especializado. En este contexto, el actor más valioso puede no ser el que tenga el modelo más grande, sino el que proporcione la solución más eficiente y conforme para un problema empresarial específico.
Este artículo tiene únicamente fines informativos y no constituye asesoramiento de inversión.