
Le “context engineering” n’est que la continuité des bonnes pratiques de dev pour la GenAI
- Hub Insights
- ⚙️ Technology
- Le “context engineering” n’est que la continuité des bonnes pratiques de dev pour la GenAI
Depuis quelques mois, le nouveau terme à la mode c'est "Context Engineering". Mais en fait, c'est juste un nouveau label pour désigner des choses qu'on connaît depuis des lustres.
Soyons honnêtes : c'est de l'architecture système appliquée aux IA conversationnelles. Orchestrer la mémoire conversationnelle, connecter des API externes, gérer l'état global d'une application, implémenter des systèmes de récupération d'information (RAG), structurer les flux de données - tout cela, nous le maîtrisions déjà bien avant ChatGPT.
La différence entre une "cheap demo" et un agent "magique" ✨ ne réside pas dans le modèle utilisé, mais dans la qualité du contexte fourni. Un assistant IA qui accède à votre calendrier, votre historique d'emails et vos préférences personnelles ressemble exactement à ce qu'on construisait avec les API de Google ou Slack. Les entreprises d'assurances qui intègrent les données clients dans leurs agents IA ou les plateformes e-commerce qui personnalisent les recommandations appliquent les mêmes principes d'intégration système qu'un CRM ou qu'une marketplace.
Nous faisions déjà tout cela pour toute application Web sophistiquée
L'industrie tech adore ses nouveaux étendards. Si le prompt engineering consistait à trouver une phrase magique, le context engineering revient à écrire tout le scénario pour l'IA. Mais construire un environnement informationnel riche pour une IA, c'est exactement ce qu'on faisait pour une application web sophistiquée : agréger des données de sources multiples, gérer les sessions utilisateur, optimiser les performances, etc.
Cette frénésie du rebranding dit quelque chose sur notre industrie. 🧐
Dès qu'une technologie éprouvée rencontre un domaine émergent, nous forgeons de nouveaux vocables pour créer l'illusion d'une rupture totale. L'ingénieur qui conçoit aujourd'hui un assistant conversationnel mobilise les mêmes réflexes que celui qui développait hier Netflix : découper les problèmes complexes en modules, orchestrer les flux de données entre services, gérer les états d'application, optimiser les performances sous charge, anticiper les points de défaillance, implémenter des systèmes de cache, assurer la cohérence des données distribuées...
Voilà qui interroge la façon dont notre secteur se raconte ses propres évolutions 🤔, entre innovation réelle et marketing sémantique.
Continuer votre exploration
Découvrez d'autres articles du cluster devops-engineering dans l'univers Technology