
L'équation de l'agent résolue au Tech Rocks Summit
- Hub Insights
- 🤖 Intelligence Artificielle
- L'équation de l'agent résolue au Tech Rocks Summit
L'équation de l'agent résolue au Tech Rocks Summit
"Agent = LLM + mémoire + planification + outils."
Une formule élégante, que Guillaume Laforge a présentée lors du Summit 2025 de TechRocks (les 1er et 2 décembre derniers, à Paris). Developer Advocate chez Google, Guillaume dispose évidemment d'un terrain de jeu et de technologies idéal pour expérimenter et apprendre - l'un des précieux conseils qu'il aura donnés en conclusion de son intervention.

Son talk a d'autant plus résonné chez nous que nous partageons à la fois ses constats et ses recommandations. Considérer un agent comme un simple chatbot autonome est dangereux et très éloigné de la vérité. L'agent est bien sûr basé sur un LLM, mais son fonctionnement global doit s'appuyer sur :
- Une mémoire : l'agent a besoin de se souvenir d'un certain nombre de choses pour être performant. Selon le contexte, cela va inclure différents éléments, comme l'environnement technologique, des processus, des rôles associés à des personnes, etc. Cela rejoint l'idée de "base cognitive", que nous avions développée ici.
- De la planification : l'agent doit définir une stratégie et, si on a décidé d'une configuration "human in the loop", la proposer pour amendement et validation à l'utilisateur humain. Dans certains cas, comme l'implémentation d'un agent de support, le plan pourra se dérouler sans supervision humaine ou requérir une validation selon les cas. Pour modifier le site Wenvision, en revanche, je challenge systématiquement les solutions proposées.
- Des outils : l'IA est là pour raisonner, analyser la requête, faire le lien avec le contexte pour déterminer le but à atteindre et comment y parvenir, mais il ne s'agit pas de tout lui faire faire. Elle peut faire appel à d'autres IA, en mode orchestration de sous-agents, voire, comme le souligne mon collègue Antoine Habert, créer ses propres agents pour des besoins spécifiques. Elle peut aussi faire appel à des scripts ou des API proposant différents services. L'essentiel est de décomposer, orchestrer, plutôt que de chercher à trouver le "méga-prompt".
Parmi les autres recommandations, je retiendrais aussi deux autres éléments clés :
- Penser en termes de services métiers mis à disposition des agents, plutôt que d'exposer des API brutes. C'est là où les protocoles MCP ou A2A prennent tout leur sens : il s'agit de donner aux agents la possibilité de discuter entre eux et d'invoquer des fonctionnalités bien définies, compréhensibles pour eux et, en outre, déterministes.
- Évaluer la pertinence des résultats : "le vibe checking est insuffisant", dit Guillaume. Ce qui rejoint là encore nos propres expériences : l'observabilité est ce qui sépare le POC d'une application agentique en production. Pour cela, souligne Guillaume, il faut travailler avec les experts métiers (si on ne l'est pas soi-même), et il est possible d'utiliser la technique du LLM-as-a-judge, en confiant la vérification à une autre IA.
Nos autres articles sur TechRocks Summit 2025
TechRocks Summit 2025 : comment l'IA transforme le métier des dev
Retour sur la battle de CTO : comment l'IA transforme fondamentalement le métier de développeur.
TechRocks 2025 : Asmah Mhalla invite à voir la géopolitique derrière l'IA
Une analyse lucide des enjeux géopolitiques de l'IA et de l'urgence d'une vision industrielle européenne.