Plaidoyer pour une modélisation des données à l'échelle de l'entreprise
Gouvernance, efficacité, performance... sont à portée de main, pourvu qu'on se penche sérieusement sur un processus fondamental qui structure l'information de son SI.
Résumer en quelques lignes un évènement de l'ampleur de Re:Invent n'est pas un exercice facile.
D'un coté, comme toujours avec AWS, il y a eu un certain nombre d'annonces de nouveaux produits et features, certaines très attendues, d'autres un peu moins. De l'autre coté, au delà de l'aspect "bits and bytes" à proprement parler, Re:Invent est surtout un miroir grossissant qui contribue à définir les grandes tendances tech des mois et années à venir. Ce sont ces sujets que nous allons aborder dans cet article.
Pour donner un ordre d'idée, j'ai compté à peu près 200 annonces de nouveautés diverses sur le site d'AWS et autant de posts sur le blog principal d'AWS. En regardant les choses d'un peu plus près et malgré ces chiffres impressionnants, le nombre de nouveautés "réelles" est un peu plus restreint, mais non dénué d'intérêt, en tout cas si l'on s'intéresse à l'IA et à la Data (ce qui est le cas chez Wenvision)
L'une des annonces majeures de Re:invent a été la présentation de Q, l'assistant conversationnel d'AWS. Celui-ci ne partage pas seulement son patronyme avec le légendaire expert es-innovation de la saga James Bond, il est aussi un assistant destiné à aider les entreprises dans la poursuite de leur mission en fournissant des réponses adaptées à leur contexte, tirées des informations de l'entreprise.
Q sera disponible en deux versions : Business (20$/user/mois) et Builder (25$/user/mois), la seconde proposant, en plus de la connexion à l'écosystème data de l'entreprise (Dropbox, Confluence, Google Drive, Microsoft 365, Salesforce, ServiceNow, etc...), une expertise sur les services proposés par AWS ainsi qu'une intégration poussée destinée à accompagner le design et le déploiement de solutions AWS dans le contexte spécifique de l'entreprise.
Toujours autour de l'IA, AWS a annoncé un certain nombre d'autres services ou innovations, que l'on peut regrouper en deux grandes catégories :
Pour le premier point, notons la présentation de Guardrails for Amazon Bedrock, qui permet d'encadrer les réponses données par les modèles de fondation, et de Knowledge Bases for Amazon Bedrock, destiné à faciliter la connexion des modèles de fondation aux sources de données des entreprises. Autour du même sujet, la disponibilité des modèles Claude 2.1 d'anthropic et Llama 2 70B de Meta dans bedrock a été annoncée.
Concernant les infrastructures, AWS et Nvidia ont annoncé la mise à disposition des utilisateurs des GPU H200, L40S et L4 dans les instance EC2.
A noter également, la présentation des nouveaux CPUs AWS, Graviton4 et des instances Trainium 2, qui, d'après AWS, offrent des gains substantiels de performance, tout en réduisant leur empreinte énergétique.
Dans le spectre plus "traditionnel" du cloud AWS, un certain nombre d'annonces méritent également qu'on s'y attarde quelques minutes :
De loin la plus spectaculaire, ou celle qui apporte, à première vue, le plus de valeur aux entreprise, on retrouve l'annonce de Amazon S3 Express One Zone. Il s'agit tout simplement d'une nouvelle classe de stockage pour S3 ayant un temps de réponse garanti sous les 10ms.
Concrètement, cela permet un gain de temps non négligeable envisageable sur certains applications très intensives en IO, d'autant plus lorsque ces applications sont exécutées sur des instances de type Spot, réduisant encore les coûts d'usage de ce type d'instance. Quelque chose me dit que la traitement de gros volumes de données a peut être quelque chose à voir avec les use casses ML/IA... cette annonce aurait donc pu trouver sa place dans la première section de cet article...
A vrai dire il est peut être nécessaire de reformuler la question initiale d'une manière légèrement différente :
"Dans le spectre plus "traditionnel" du cloud AWS, y-a-t-il des annonces qui n'ont pas spécifiquement de lien avec le domaine ML/IA ?"
Oui, il y en a un certain nombre, j'en ai retenu trois pour cet article :
Sauf si vous arrivez d'une autre planète (quoi que..👽 ), il est impossible de passer à coté du sujet ML/IA en ce moment et il l'est encore moins si vous étiez à Re:Invent.
Et dans ce domaine, la stratégie d'AWS n'était jusqu'à présent pas des plus limpides. Aujourd'hui AWS se positionne de manière claire sur les trois grandes "couches" d'infrastructure et de services qui permettent de développer des use cases business autour de l'IA.
Car il faut bien se souvenir de quelque chose, et c'est ici très important : AWS est présent sur le marché de l'IT avec pour mission de permettre aux entreprises d'offrir de nouveaux services, innovants, sécurisés performants et résiliants à leurs clients.
Par opposition à ses deux grands concurrents dans le cloud, qui eux, ont une offre plus orientée grand public.
AWS se positionne donc, selon ses propres termes sur les trois "couches" de l'écosystème AI/ML :
Si les deux couches basses sont historiquement le coeur de métier d'AWS, l'apparition de Q est une réelle nouveauté dans l'écosystème. Les possibilités sont bien sûr immenses, et AWS ne pouvait pas ne pas être présent sur de marché. Tout le monde s'accordait à dire qu'il manquait une corde à l'arc déjà bien fourni d'AWS.
Et il faut saluer la sagesse de ne pas s'être jeté dans le marché ultra concurrentiel des assistants "grands public" mais d'avoir construit quelque chose à destination d'un public spécifique. Le produit est en preview, et certaines incohérences dans les réponses ont été relevées (👀), donc à utiliser avec les précautions d'usage.
Deux autres sujets, étroitement liés, pour lesquels il y avait de nombreuses attentes lors de ce re:Invent :
Concernant Finops et les liens avec la Finops Foundation, un certain nombre d'annonces avaient été faites avant l'évènement (FOCUS, participation d'AWS à la Finops Foundation), et quelques sessions étaient consacrées au sujet.
Mais c'est lors de la keynote de Werner Vogels que le sujet de "l'optimisation des coûts" a été abordé, sous l'angle de la frugalité. Et, à titre personnel, je dois dire que je suis resté un peu sur ma faim, pour ne pas dire plus. En effet, considérer que le coût est un "Non-functional Requirement" n'est pas vraiment une nouveauté.
Et surtout où se place la notion de développement durable ? d'autant plus lorsque l'on se dit "frugal". La frugalité consiste même aussi, et peut être même surtout , à questionner l'existence même du besoin.
Ce sujet est dramatiquement absent de ce pan de communication alors qu'il y aurait toute sa place. Serait-ce dû au fait qu'AWS n'est pas spécialement un leader pour ces sujets d'importance, que ce soit au niveau du reporting, des efforts et des outils mis à disposition.
Cette édition 2023 de re:Invent était quasiment uniquement consacrée aux sujets IA/ML, c'est dans l'air du temps, et de ce point de vue là, elle n'a pas déçu. Beaucoup d'annonces ont été faites, qui continuent à faire d'AWS l'un des leaders dans le domaine des plateformes sous-jacente destinées aux environnement AI/ML et un nouvel acteur dans celui des assistants.
Sur les autres sujets, moins d'annonces, mais en regardant le liste des breakout sessions, il y avait un fort focus sur les sujets liés à la maturité de l'adoption du cloud.
Une très grande partie des clients a effectué sa migration vers le cloud public (ou c'est en cours), l'hybridation est une réalité, place maintenant aux nouveaux enjeux liés à la maturité : le chemin vers le cloud en tant que commodité et la réduction de l'impact environnemental.