Peut-on aller au-delà du buzz marketing lorsqu'on parle de "Platform Engineering" ? A y regarder de plus près, on y voit l'aboutissement de pratiques et méthodes nées il y a longtemps. Et que nous ferions bien d'adopter pour le Cloud et la GenAI.
Le texte régulant l'IA dans l'Union européenne est entré en vigueur. Généralement perçu comme un frein, il peut aussi être vu comme une opportunité de faire les choses différemment.
Stratégie, cas d’usage, acculturation, plateforme tech… ALM a été l’un des premiers clients de WEnvision pour la GenAI à l’échelle, dans un secteur particulièrement contraint par la réglementation. Les cas d’usage et l’adoption en cours constituent d’ores et déjà un beau succès.
Le Cloud, choix évident pour valoriser ses données
L’industrialisation de la démarche de valorisation de la donnée est l’un des tout premiers moteurs du passage au Cloud. Amazon et Google ont montré la voie.
Le Cloud est un choix évident pour bâtir sa plateforme de données et les valoriser.
L’industrialisation de la démarche de valorisation de la donnée est même l’un des tout premiers moteurs du passage au Cloud. Pionniers de cette démarche, Amazon et Google ont montré la voie. Leur exemple montre qu’on peut bâtir des infrastructures de données offrant une élasticité inouïe mais aussi la possibilité de s’aventurer sur le terrain du machine learning de façon industrielle.
Les plateformes de données Cloud bénéficient d’abord des gains génériques du modèle Cloud : élasticité, montée en charge, disponibilité, évolution, sécurité... De façon traditionnelle, il faudrait d'abord évaluer le dimensionnement de l'infrastructure (en se basant sur les pics d'utilisation - ou bien en faisant des concessions importantes sur le temps de traitement), acheter et installer les machines, etc.
Une infrastructure de qualité, managée
Dans une grande entreprise, cela représenterait déjà plusieurs mois ; le Cloud redonne ainsi de l'agilité. Pour une entreprise de petite taille ou de taille moyenne, le Cloud est l’assurance de pouvoir disposer d’une infrastructure de qualité, digne des plus grands, à un tarif abordable car lié à l’usage.
Cela facilite également la vie des ingénieurs devant installer, configurer et maintenir les technologies. La technologie open source Kafka, par exemple, qui sert à recevoir, ordonner et délivrer des messages, dans le cadre d’une architecture orientée événements, nécessite plusieurs mois d’implémentation dans une architecture on premises ainsi qu’une équipe pour la maintenir. Des offres managées, dans le Cloud, accélèrent la mise en œuvre et exonèrent l’entreprise des efforts de maintenance et d’évolution. Il en va de même pour de nombreuses technologies de bases de données, dont les hyperscalers offrent des versions managées - quand ces technologies ne sont tout simplement pas exclusives au Cloud.
Partager les données en toute sécurité
La sécurité des données s’en sort renforcée également, grâce aux mécanismes de sécurité inclus ou proposés en option avec les offres de Cloud - qu’il faudra donc activer et paramétrer correctement ! Les accès aux données, en particulier, sont beaucoup plus surveillés dans une infrastructure Cloud où le mode Zero Trust est la norme (ou devrait l’être !) : on part du principe que chaque accès vient potentiellement de l’extérieur et on ne fait confiance à personne à l’intérieur du réseau ; chaque tentative d’accès doit donc disposer des autorisations ad hoc. Cela facilite aussi le partage sécurisé des données avec des partenaires ou des clients.
Cet article est extrait du Livre blanc "DataOps" 🗝
Le texte régulant l'IA dans l'Union européenne est entré en vigueur. Généralement perçu comme un frein, il peut aussi être vu comme une opportunité de faire les choses différemment.
Le rapport "Accelerate State of DevOps - 2024" de Google dessine les contours d'un DevOps en pleine mutation, où l'IA et le Platform Engineering jouent un rôle central.
Embauché il y a 2 ans pour digitaliser les process, Alexandre Aubry raconte tous les changements que cela a induit : transformation de l'organisation, de l'infrastructure matérielle et réseau, ouverture et décommissionnement progressif de l'ERP Cobol...
Un bon mix d'indicateurs - des KPI classiques ainsi que des KPI personnalisés - devrait vous aider, à condition de respecter un principe essentiel : faites simple !