L'IA offre un potentiel significatif pour rationaliser et optimiser la gestion du backlog Produit, mais son adoption nécessitera de trouver un équilibre judicieux entre automatisation et validation humaine, tout en assurant la transparence et en atténuant les risques de biais.
L'arrivée de l'intelligence artificielle (IA) bouscule les pratiques Agile. Que signifie encore "être Agile" à l'ère de l'IA? Cette série d'articles dresse un panorama des changements culturels et méthodologiques à prévoir au sein des organisations.
L'ère du Big Data est terminée, mais le besoin demeure
Ce n’est pas véritablement le Big Data qui prend fin aujourd’hui, c'est cette croyance en une technologie qui d’un coup rendrait les entreprises data-driven.
Une petite décennie après les débuts fracassants du Big Data, les cabinets d’analystes ont commencé à multiplier les constats et prévisions alarmistes :
→ 87 % des projets de data science ne vont jamais en production (Venture Beat, 2019) ;
→ 77 % des entreprises disent que l’adoption des projets Big Data et IA représente un gros challenge (New Vantage, 2019) ;
→ 60 % des projets Big Data échouent à aller en production (Gartner, 2016) ;
→ 85 % des projets Big Data échouent à aller en production (Gartner, 2017).
Il y avait pourtant une véritable justification à cet engouement pour le Big Data. Les entrepôts de données traditionnels étaient, et sont encore, d’onéreuses mécaniques de précision, ingérant une donnée structurée nettoyée, qualifiée, destinée à alimenter des tableaux de bord et outils de BI, construits par l’IT selon les spécifications des métiers. L’analyse de la donnée telle qu’elle se pratiquait jusqu’alors consistait donc essentiellement à regarder dans un rétroviseur des éléments définis deux ans auparavant.
Ce schéma convient parfaitement pour analyser par exemple des chiffres de vente, par produit, par zone géographique, etc. En revanche, tout changement de structure doit passer par un long processus IT. Impossible donc de s’adapter rapidement aux évolutions de l’entreprise, à la montée en puissance de l’économie numérique avec ses concurrents extrêmement agiles, à la multiplication de la donnée... De même, impossible avec les mêmes outils de stocker et d’analyser de la donnée non structurée (texte, vidéo...) pour proposer des services innovants aux collaborateurs ou aux clients.
Faire du Big Data ne veut pas dire être data-driven
De nombreux clusters de machines Linux se montent, s’appuyant sur les technologies open source Hadoop et MapReduce, complétées à un rythme effréné par la Fondation Apache. C’est une décennie très riche qui s’écoule alors, jusqu’à ce que le journal LeBig Data lui-même pose la question : “La fin du Big Data ?”
En réalité, ce n’est pas véritablement le Big Data qui prend fin aujourd’hui : il y a toujours besoin, et même plus que jamais, de pouvoir réagir rapidement ou de pouvoir analyser de grands volumes de données, notamment pour créer et entraîner des modèles prédictifs et autres algorithmes de machine learning. Ce qui disparaît - et c’est tant mieux - est cette croyance en une technologie qui d’un coup rendrait les entreprises data-driven. Tous les projets n’ont pas échoué, heureusement. Mais l’analyse de cette décennie est sans conteste en demi-teinte.
Un ex-employé de Google dénonce une course à l'IA pour de mauvaises raisons. Pour autant, le but de créer un assistant comme porte d'entrée au SI reste valable et même souhaitable.
Parce qu'il est bon de lire et relire les classiques, nous vous convions à vous replonger dans cette somme impressionnante sur le data management qu'est ce Data Management Body of Knowledge.