Le nouveau modèle ERNIE 5.1 de Baidu atteint des performances de premier plan tout en réduisant les coûts de pré-entraînement de 94 %, signalant un possible pivot du marché vers des architectures d'IA plus efficaces.
Le nouveau modèle ERNIE 5.1 de Baidu atteint des performances de premier plan tout en réduisant les coûts de pré-entraînement de 94 %, signalant un possible pivot du marché vers des architectures d'IA plus efficaces.

La nouvelle IA ERNIE 5.1 de Baidu a réduit les coûts de pré-entraînement de 94 % par rapport à des modèles à grande échelle similaires, une initiative qui remet en question la stratégie d'intensité capitalistique dominant le secteur et positionne le géant technologique chinois comme un leader du développement d'IA rentable.
Baidu explique que l'astuce réside dans le « pré-entraînement élastique multidimensionnel », détaillant une méthode consistant à extraire et compresser un sous-réseau de son architecture ERNIE 5.0 existante plutôt que de construire le nouveau modèle à partir de zéro.
La compression a réduit le nombre total de paramètres à environ un tiers du modèle original et a diminué de moitié les paramètres actifs. Pourtant, ERNIE 5.1 a décroché la quatrième place mondiale du classement LMArena Search avec un score de 1 223. Sur le benchmark mathématique AIME26, le modèle a obtenu 99,6 % avec l'assistance d'outils, se classant deuxième derrière Gemini 3.1 Pro de Google.
Pour Baidu (BIDU), coté au Nasdaq, atteindre des performances de pointe pour seulement six pour cent du coût d'entraînement habituel de plusieurs millions de dollars constitue un avantage concurrentiel significatif. Cette percée met une pression directe sur des rivaux tels qu'OpenAI, Google et Microsoft, et fait écho à la perturbation du marché causée par le modèle d'inférence à bas coût de DeepSeek en 2025, ce qui pourrait accélérer un pivot de tout le marché vers des architectures plus efficaces et bénéficier à la position de Baidu dans la course mondiale à l'IA.
L'approche de Baidu avec ERNIE 5.1 marque une rupture significative avec la philosophie dominante du secteur voulant que « plus c'est gros, mieux c'est ». Au lieu d'engager des dépenses de calcul massives pour entraîner un nouveau modèle de A à Z, l'entreprise a hérité de la base de connaissances de son modèle parent plus large, ERNIE 5.0. Cette stratégie axée sur l'efficacité rappelle l'impact du modèle R1 de DeepSeek en 2025, qui égalait les performances de l'o1 d'OpenAI à un coût par requête 98 % inférieur, déclenchant une correction de 600 milliards de dollars de la capitalisation boursière de Nvidia.
La technologie sous-jacente du nouveau modèle est un système d'apprentissage par renforcement en quatre étapes que Baidu appelle Multi-Teacher On-Policy Distillation (MOPD). Ce système a entraîné en parallèle des modèles spécialisés pour le code, le raisonnement et les tâches agentiques. Ces compétences spécialisées ont ensuite été distillées dans un modèle unique et unifié, une méthode conçue pour éviter les « effets de balançoire » où l'amélioration d'une capacité dégrade une autre. Une phase finale d'apprentissage en ligne a affiné les compétences de conversation ouverte.
Les performances d'ERNIE 5.1 le placent devant tous les autres modèles chinois et à portée de ses homologues occidentaux. Ses capacités agentiques, cruciales pour les tâches complexes à étapes multiples, ont déjà surpassé la référence chinoise précédente, DeepSeek-V4-Pro. Sur le benchmark GPQA, qui mesure la capacité d'un modèle à répondre à des questions de niveau expert, ERNIE 5.1 s'approche des performances des principaux modèles fermés d'Occident.
Cette réussite permet à Baidu, qui contrôle plus de 76 % du marché de la recherche en Chine, d'améliorer ses services sans supporter tout le poids des coûts d'entraînement des modèles de pointe. La société affirme qu'ERNIE 5.1 est déjà déployé sur plus de 10 plateformes en Chine, des applications de jeu de rôle par IA aux outils de génération de drames courts.
Pour les investisseurs, le succès de Baidu dans la réduction drastique des coûts d'entraînement tout en maintenant des performances compétitives pourrait être un signal haussier. Cela suggère que la demande en matériel et en calcul IA, qui a alimenté les hausses de titres comme Nvidia, n'est peut-être pas la seule voie vers le succès. Baidu devrait fournir plus de détails sur les applications industrielles lors de sa conférence de développeurs Create 2026 à Pékin les 13 et 14 mai, un événement qui sera surveillé de près pour déceler des signes de sa stratégie d'entreprise et d'expansion mondiale.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.