Hermes Agent : ce qu’il faut arrêter d’automatiser
Le sujet ici n’est pas de refaire la liste des cas simples utiles. Le sujet, c’est la frontière : à quel moment une automatisation cesse d’être propre et commence à te faire perdre du contrôle.
Quand un agent commence à vraiment aider, le réflexe naturel est de lui ouvrir plus de terrain. Un peu plus de lecture, un peu plus de tri, un peu plus de décision, un peu plus d’autonomie. C’est précisément là qu’il faut poser une limite saine.
Ce que tu auras à la fin
Une règle claire pour distinguer l’automatisation utile de la délégation irresponsable, des critères concrets pour savoir où garder une validation humaine, et une grille simple pour reconnaître le moment où ton setup a dépassé sa vraie zone de valeur.
Pourquoi on finit toujours par vouloir automatiser trop de choses
Le glissement ne vient presque jamais d’une mauvaise intention. Il vient du confort.
Au début, tu automatises une tâche pénible et répétitive. Ça marche. Ensuite tu élargis un peu le cadre, parce que l’agent a bien tenu sur les cas simples. Puis tu lui ajoutes une étape de plus, parce que tant qu’à faire, autant ne pas recoller les morceaux à la main. Et un jour, sans vrai moment de bascule, tu te retrouves à lui confier des choses qui ne relèvent plus seulement de l’exécution, mais de l’arbitrage.
C’est un enchaînement très normal. Plus un outil t’aide, plus tu as envie de lui ouvrir du terrain. Il y a aussi une part de fascination très simple dans le “ça tourne tout seul”. Une boucle qui enchaîne lecture, tri, reformulation, classement, brouillon, envoi ou publication, c’est satisfaisant. Sauf que l’effet waouh brouille vite la question la plus importante : est-ce qu’on a vraiment gagné quelque chose, ou juste déplacé le risque plus loin, là où on le voit moins ?
Ce qu’une bonne automatisation a le droit de faire
Le terrain sain existe, mais il n’a pas besoin d’être réexpliqué pendant dix pages : une tâche bornée, facile à vérifier, simple à rattraper.
Préparer un brouillon, faire une passe de tri, reformater un lot limité, sortir une première lecture utile, oui. Remplacer une validation humaine sur une sortie sensible, trancher seul sur un cas ambigu, ou déclencher sans contrôle une action coûteuse, non.
La bonne question à se poser est simple : si l’agent se trompe ici, combien ça coûte vraiment, et est-ce que je peux corriger proprement ?
Si la réponse est “pas grand-chose” et “oui, facilement”, tu restes dans une zone saine. Si la réponse commence à devenir floue, tu changes déjà de terrain.
Ce qu’il vaut mieux ne pas déléguer complètement
La frontière saine n’est pas “ne jamais laisser agir l’agent”. La frontière saine, c’est de savoir où l’agent doit s’arrêter avant la dernière marche.
La validation finale
Dès qu’une sortie va partir à l’extérieur, une validation humaine garde beaucoup de valeur. Publication, envoi, diffusion, partage, déclenchement d’une action visible, ce sont des moments où une erreur ne reste plus dans ton atelier.
Un agent peut très bien préparer un brouillon. Il peut mâcher le terrain, proposer une structure, condenser des infos, reformuler. Mais sur ce qui sort vraiment, garder un dernier regard n’a rien d’archaïque. C’est juste une bonne économie du risque.
Les décisions à fort impact
Plus une décision a des conséquences coûteuses, plus la boucle humaine doit rester proche.
Il peut s’agir d’un choix entre plusieurs options ambiguës, d’un arbitrage où plusieurs critères se contredisent, d’une action difficile à annuler, ou simplement d’un cas où le “bon” choix dépend d’un contexte que l’agent ne possède qu’en partie.
Un agent peut aider à poser les termes d’un arbitrage. Il peut comparer, résumer, structurer. Mais trancher sur les zones à fort impact n’est pas la même tâche qu’éclairer la décision.
Les contenus sensibles ou ambigus
Tout ce qui demande de la nuance, du contexte implicite, une lecture fine du moment, ou une vraie appréciation humaine mérite davantage qu’un simple “laisser faire”.
Ce n’est pas forcément une question de sécurité. C’est souvent une question de ton juste, de contexte manquant, de signal faible, d’exception, de destinataire, ou d’intention. Un agent peut préparer une version de travail. Lui laisser produire la version finale sans relecture sur des contenus sensibles, c’est prendre le risque de publier un texte techniquement correct mais humainement à côté.
Les actions difficiles à annuler
Dès qu’une action coûte plus cher à corriger après qu’à valider avant, la réponse est presque déjà là.
Supprimer, envoyer, modifier un état important, déclencher une suite d’actions, pousser quelque chose vers l’extérieur, lancer un changement qui a des effets en cascade, tout cela mérite en général une marche humaine avant l’exécution finale. Parce que la réversibilité compte.
Pourquoi la boucle humaine reste indispensable
On résume souvent ça par “garder l’humain dans la boucle”, mais il faut être plus concret.
La boucle humaine sert à quatre choses qu’un workflow trop agentique a tendance à oublier :
- la responsabilité : savoir qui a décidé, qui a validé, et sur quelle base ;
- le contexte : l’agent voit une fenêtre, pas tout ce que toi tu sais ;
- la correction : un humain peut interrompre la chaîne au bon moment ;
- la nuance : un bon flux doit savoir dire “pas sûr”, “à relire”, “à valider”.
Les signes qu’on a trop automatisé
Le problème avec l’excès d’automatisation, c’est qu’il donne souvent une belle première impression. Tout semble fluide. Il faut donc apprendre à reconnaître les mauvais signaux.
Le premier, c’est quand tu ne sais plus vraiment ce qui décide. Tu vois une sortie, une action, un arbitrage, et tu n’arrives plus à dire clairement où se trouvait le moment de validation.
Le deuxième, c’est quand tu ne relis plus ce qui part. Pas parce que tu as décidé consciemment qu’il n’y avait plus besoin de le faire, mais parce que la machine va vite et que tu as commencé à lui faire crédit par inertie.
Le troisième, c’est quand corriger devient plus difficile que produire. Si tu passes ton énergie à rattraper des décisions prises trop loin dans la chaîne, le bilan réel est déjà mauvais.
Le quatrième, c’est quand tu empiles des couches pour compenser les précédentes. Une validation en moins ici, donc un contrôle plus loin. Un comportement trop libre là, donc une rustine après. À force, le workflow ressemble à une machine complexe, mais il tient avec des ficelles.
Le cinquième, c’est quand la responsabilité devient floue. Personne n’a vraiment décidé, personne n’a vraiment relu, personne n’a vraiment assumé.
Où garder une validation humaine est une bonne idée
Il n’y a pas besoin de transformer ça en manuel de conformité. Quelques points de contrôle bien placés suffisent souvent largement.
Avant une sortie externe
Quand quelque chose doit être publié, envoyé, transmis ou rendu visible hors de ton espace de travail, une validation humaine juste avant la sortie reste une très bonne idée.
Sur les cas ambigus
Dès que le cas ne ressemble plus assez aux précédents, il vaut mieux remonter à l’humain plutôt que forcer un automatisme qui n’a plus de bon terrain. L’agent peut très bien dire, en substance, “ce cas sort du cadre”.
Sur les exceptions
Les exceptions sont précisément ce qui casse les flux qui ont l’air parfaits sur les cas standards. Une machine qui traite bien le nominal mais remonte les exceptions proprement vaut beaucoup plus qu’une machine qui prétend tout gérer.
Sur les changements à fort coût d’erreur
Quand une erreur coûte du temps, de l’argent, de la crédibilité, ou déclenche un effet pénible à rattraper, garder une validation humaine n’est pas une perte de performance. C’est une barrière très rentable.
La règle simple tient en une ligne : automatiser ce qui est répétitif, cadré et réversible ; garder une validation humaine sur ce qui est ambigu, sensible, coûteux ou difficile à corriger.
Pourquoi un workflow mature sait s’arrêter
On confond souvent maturité et autonomie. En pratique, ce n’est pas la même chose.
Un workflow mature n’est pas celui qui a retiré l’humain le plus loin possible. C’est celui qui sait exactement pourquoi certaines étapes sont automatisées, pourquoi d’autres ne le sont pas, et où passe la responsabilité réelle.
L’autonomie n’est pas le but ultime. La robustesse l’est beaucoup plus souvent. Un flux qui va un peu moins loin, mais qui reste lisible, corrigeable et assumable, vaut presque toujours plus qu’un montage très autonome dont plus personne ne maîtrise vraiment les bords.
Savoir dire stop fait partie de cette robustesse. Refuser d’automatiser une dernière étape sensible, ce n’est pas renoncer au potentiel de l’agent. C’est protéger la zone où l’agent est réellement bon en évitant de l’étirer jusqu’au faux pas.
Les erreurs les plus fréquentes
Les mêmes dérives reviennent souvent :
- vouloir retirer l’humain partout, comme si toute validation était une faiblesse du workflow ;
- confondre fluidité et abdication ;
- ne plus relire ce qui part, simplement parce que “jusque-là ça allait” ;
- laisser l’agent trancher hors de sa vraie zone ;
- croire qu’un workflow est meilleur parce qu’il est plus autonome ;
- automatiser des zones qu’on comprend encore mal soi-même.
La dernière erreur est particulièrement coûteuse. Si toi-même tu n’as pas encore une lecture nette de la tâche, de ses cas limites, de son coût d’erreur et de son point de validation, l’automatiser trop tôt ne la rendra pas plus propre. Ça la rendra plus opaque.
Ce que tu ne dois pas faire
Ne confie pas tout à l’agent par fascination.
Ne garde pas des flux opaques juste parce qu’ils “tournent”.
Ne retire pas la validation humaine là où une erreur coûte plus cher à corriger qu’à prévenir.
Ne confonds pas gain de temps et perte de contrôle.
Et surtout, n’oublie pas une chose très simple : dans beaucoup de cas, corriger après coûte plus cher que valider avant.
La suite logique
La conclusion n’est pas “automatise moins”. C’est : automatise à l’endroit juste.
Tout ce qui est borné, réversible et facile à relire peut avancer. Ce qui engage, arbitre, ou sort vers l’extérieur doit garder un humain proche.