Avec sa mise à jour 2025, la FinOps Foundation fait tomber les cloisons : désormais, toutes (ou presque) les ressources IT — SaaS, datacenters, IA, cloud public — entrent dans le radar
Les discours sur l’avenir du travail oscillent souvent entre euphorie technologique et scénario catastrophe. D’un côté, l’IA nous promet un monde plus efficace, de l’autre, elle signe l’arrêt de mort de milliers d’emplois. Entre ces deux extrêmes, la réalité est évidemment plus complexe.
Du POC à l'application d'entreprise, l'architecture d'une application LLM évolue. En commençant par une interface de chat basique exposant le LLM, elle progresse jusqu'à une application qui comprend des outils de sécurisation de la production de contenu et de gestion des droits. #LLM #AppDev
L'architecture d'une application LLM (Language Model) peut évoluer en fonction des besoins et des objectifs de développement. Dans cet article, nous allons explorer les différentes étapes de développement d'une application LLM, du Proof of Concept (POC) à l'application d'entreprise, en détaillant les composants clés de chaque architecture.
Le POC
Le POC est une application basique qui expose un LLM à travers un chat
Le POC est la première étape du développement d'une application LLM. L'objectif principal est de valider la faisabilité technique et d'évaluer les performances du modèle de langage. Dans cette architecture basique, l'application expose le LLM à travers un chat, permettant aux utilisateurs d'interagir avec le modèle en posant des questions.
Les composants clés de cette architecture incluent le modèle de langage lui-même, qui peut être un modèle pré-entrainé ou personnalisé, ainsi qu'une interface utilisateur simple pour interagir avec le modèle.
Le MVP
Le MVP est une petite application qui s'appuie sur une base vectorielle et un orchestrateur
Le MVP (Minimum Viable Product) est la deuxième étape du développement. Dans cette architecture, l'application s'appuie sur une base vectorielle et un orchestrateur pour fournir des réponses plus précises aux questions posées au LLM. La base vectorielle permet de représenter les données de manière plus efficace, tandis que l'orchestrateur coordonne les différentes étapes du traitement des requêtes.
Les composants clés de cette architecture incluent le modèle de langage, la base vectorielle, l'orchestrateur et une interface utilisateur améliorée pour une meilleure expérience utilisateur.
L'application basique
Une application basique intègre un orchestrateur, un LLM, une base vectorielle et une librairie de prompt
Dans cette architecture plus avancée, l'application intègre un orchestrateur, un LLM, une base vectorielle et une librairie de prompt. L'orchestrateur coordonne les différentes étapes du traitement des requêtes, le LLM génère les réponses, la base vectorielle améliore la représentation des données et la librairie de prompt facilite la génération de requêtes plus précises.
Les composants clés de cette architecture incluent le modèle de langage, la base vectorielle, l'orchestrateur, la librairie de prompt et une interface utilisateur plus avancée pour une meilleure expérience utilisateur.
L'application d'entreprise
Une application d'entreprise intègre un orchestrateur, un LLM, une base vectorielle, une librairie de prompt, un outil de sécurisation de la production des contenus et un outil de gestion des droits
Dans cette architecture complète, l'application d'entreprise intègre tous les composants précédents, ainsi qu'un outil de sécurisation de la production des contenus et un outil de gestion des droits. L'outil de sécurisation garantit la confidentialité et l'intégrité des données, tandis que l'outil de gestion des droits permet de contrôler l'accès aux fonctionnalités de l'application.
Avec sa mise à jour 2025, la FinOps Foundation fait tomber les cloisons : désormais, toutes (ou presque) les ressources IT — SaaS, datacenters, IA, cloud public — entrent dans le radar
Les discours sur l’avenir du travail oscillent souvent entre euphorie technologique et scénario catastrophe. D’un côté, l’IA nous promet un monde plus efficace, de l’autre, elle signe l’arrêt de mort de milliers d’emplois. Entre ces deux extrêmes, la réalité est évidemment plus complexe.
Exiger des cas d’usage sans usage revient à inverser la logique naturelle d’adoption : ce n’est pas en décrétant où la GenAI sera utile qu’elle sera utilisée, mais en la rendant accessible à tous, pour qu’elle s’infiltre progressivement dans les pratiques et révèle son potentiel dans le temps.