Un nouvel agent d'IA open source, Hermes, a attiré plus de 22 000 étoiles sur GitHub en automatisant les deux parties les plus fastidieuses du développement d'agents : la création de compétences et la mémoire spécifique à l'utilisateur.
Retour
Un nouvel agent d'IA open source, Hermes, a attiré plus de 22 000 étoiles sur GitHub en automatisant les deux parties les plus fastidieuses du développement d'agents : la création de compétences et la mémoire spécifique à l'utilisateur.

(P1) Un nouveau framework d'agent d'IA, Hermes Agent, occupe la première place de la liste des tendances de GitHub depuis des semaines, accumulant plus de 22 000 étoiles et défiant la domination de son prédécesseur, OpenClaw. Bien que les deux agents semblent fonctionnellement similaires, Hermes introduit une philosophie radicale d'automatisation complète qui trace une nouvelle voie pour l'industrie, faisant passer la proposition de valeur d'outil de développement à partenaire autonome.
(P2) Le cœur technique du système de compétences auto-évolutif de Hermes repose sur l'algorithme Genetic-Pareto Prompt Evolution (GEPA), détaillé dans un article de l'ICLR 2026 par Lakshya Agrawal et consorts. « L'évolution réflexive des prompts peut surpasser l'apprentissage par renforcement », soutient l'article, fournissant le socle académique de la rupture de Hermes avec l'amélioration traditionnelle des compétences basée sur le RL.
(P3) La différenciation de Hermes provient de deux systèmes automatisés clés. Premièrement, un système de compétences auto-évolutif génère silencieusement de nouveaux workflows lorsqu'un outil est utilisé plus de cinq fois ou qu'une erreur est corrigée. Ces compétences sont ensuite optimisées hors ligne à l'aide de l'algorithme GEPA. Deuxièmement, un système de mémoire proactive utilise un mécanisme de « nudge » (incitation) tous les 15 tours de conversation pour réfléchir activement et sauvegarder les préférences de l'utilisateur, un contraste frappant avec les sauvegardes de mémoire passives d'OpenClaw visant uniquement à prévenir le débordement de contexte.
(P4) L'ascension rapide de Hermes signale un changement de paradigme potentiel pour le marché du développement d'IA estimé à 25 milliards de dollars. Son succès suggère un fort appétit des développeurs pour des agents qui réduisent la configuration manuelle et apprennent activement. Cela pourrait accélérer l'activité de fusions-acquisitions autour de projets open source prometteurs et forcer les acteurs établis comme Anthropic, qui a été publiquement accusé de copier les fonctionnalités de Hermes, à adopter une philosophie de conception plus automatisée et centrée sur l'utilisateur.
La différence structurelle la plus significative entre Hermes et ses rivaux est son système en boucle fermée pour l'évolution automatique des compétences. Alors qu'OpenClaw exige que les utilisateurs créent, installent et autorisent manuellement de nouvelles compétences, Hermes automatise entièrement ce processus. Le système encapsule silencieusement tout workflow réussi impliquant cinq appels d'outils ou plus dans un nouveau fichier de compétence.
Plus tard, un processus hors ligne distinct détaillé dans le dépôt hermes-agent-self-evolution utilise le framework DSPy et l'algorithme GEPA pour affiner ces compétences. Cet algorithme repose sur trois concepts : la mutation réflexive, où le modèle analyse les traces d'exécution pour effectuer des changements ciblés ; la sélection de la frontière de Pareto, qui préserve un ensemble diversifié de variantes de compétences performantes ; et l'utilisation du retour d'information en langage naturel comme signal primaire de mutation. Ce processus génère une pull request pour examen humain, garantissant qu'un humain (human-in-the-loop) garde le contrôle final sur les capacités de base de l'agent, démentant le mythe d'un système fonctionnant sans supervision utilisateur.
La seconde innovation majeure de Hermes est son système de mémoire agressif et proactif. Alors que des concurrents comme Claude Code disposent de systèmes de mémoire strictement isolés à un seul projet, et qu'OpenClaw sauvegarde passivement les souvenirs seulement avant qu'une fenêtre de contexte ne déborde, Hermes adopte une approche différente. Environ tous les 15 tours de conversation, un mécanisme de « nudge » force l'agent à réfléchir sur l'interaction et à décider si des préférences de l'utilisateur ou des faits méritent d'être mémorisés en permanence.
Cette approche active et à haute fréquence garantit la construction d'un modèle utilisateur beaucoup plus riche au fil du temps. Le système est encore amélioré par une capacité de recherche plein texte SQLite FTS5 intégrée, permettant à l'agent de rappeler instantanément les interactions passées sans dépendre de bases de données vectorielles externes. Bien que le backend de mémoire natif IA avancé Honcho ait été le choix par défaut dans les versions antérieures, la mise à jour v0.7 en a fait un plugin optionnel, privilégiant la stabilité du système intégré plus simple et donnant plus de contrôle aux utilisateurs.
L'automatisation de Hermes est obtenue en remplaçant les jugements flexibles basés sur des modèles par des règles déterministes codées en dur. La complexité du système n'est pas éliminée mais transférée de la responsabilité de l'utilisateur vers le code sous-jacent de l'agent. Des décisions telles que le moment de générer une compétence (5 appels d'outils) ou le moment de réfléchir à la mémoire (15 tours) sont régies par une logique if-then rigide, et non par le raisonnement du LLM.
Ce choix de conception est une solution d'ingénierie pragmatique aux limites actuelles des LLM dans la gestion des contextes longs, où des études ont montré que les performances peuvent chuter de plus de 39 %. Lorsqu'une conversation atteint 85 % de la limite de contexte, Hermes utilise un simple remplacement de chaîne pour la compression plutôt que de risquer un résumé généré par IA défectueux. Cette approche conservatrice, basée sur des règles, garantit la stabilité et la prévisibilité, ce qui, selon les créateurs de Hermes, a plus de valeur pour les utilisateurs que les performances fragiles d'un LLM entièrement autonome mais peu fiable. La stratégie consiste à établir un écosystème maintenant et à attendre que les améliorations des modèles relèvent progressivement le plafond de ce qui peut être automatisé en toute sécurité.
Cet article est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement.