Plaidoyer pour une modélisation des données à l'échelle de l'entreprise
Gouvernance, efficacité, performance... sont à portée de main, pourvu qu'on se penche sérieusement sur un processus fondamental qui structure l'information de son SI.
Le succès de ChatGPT pose des questions sur le degré d'encadrement des technologies d'IA generative par les régulateurs. Mais avant de réguler, posons-nous la question de mieux les connaître et apprenons à nous servir de ces outils.
« C’est parce qu’il ne comprend pas ce qu’il dit que ChatGPT est dangereux. » Dans une tribune dans Le Monde, Charles Cuvelliez, Jean-Jacques Quisquater et Stéphane van Roy, trois experts de la sécurité informatique, se questionnent sur la régulation de ChatGPT à l'occasion des travaux européens sur l’AI Act. Et ils en déduisent qu’il ne sera pas assez strict au regard des risques.
Je ne suis pas d’accord avec l’hypothèse de base.
C’est justement parce qu’il ne comprend pas ce qu’il dit que ChatGPT ne porte pas de risque en soi. ChatGPT est une general-purpose AI, une IA pouvant servir à de multiples usages, et non une General AI, ou IA consciente. C'est un programme, qui n’a pas d’intention en propre. Ni bonne, ni mauvaise. Il répond seulement à des questions ou « prompts ». C’est l’usage qui en est fait par les utilisateurs, eux bien humains, qui forgera le pouvoir de nuisance des textes générés. L'éditeur porte aussi sa part de responsabilité, notamment dans sa faculté à identifier et gérer les biais.
La clé réside plutôt dans notre éducation à l'usage de cette technologie. Il vaut mieux la considérer comme un nouvel outil d’acquisition de connaissance ou d’accélération, voire d’automatisation de production écrite. Comme en leur temps l’encyclopédie ou la calculatrice, dont nous avons appris à nous servir. Ils ne nous dépossèdent pas de nos facultés humaines, mais facilitent notre compréhension du monde.
L’école a été un vecteur d’éducation à ces outils, et elle doit poursuivre sa mission aujourd’hui avec des outils tels que ChatGPT. Car le danger viendra plutôt d'un utilisateur qui ne comprend pas le fonctionnement de ChatGPT. Il faut bien avoir en tête que ChatGPT ne comprend pas ce qu’il écrit : les textes ne sont générés que sur la base de probabilités. Or, la loi de la probabilité fait que le résultat obtenu peut être un faux positif. C’est-à-dire que la réponse la plus probable est fausse.
Pour revenir à la régulation, s’il est crucial que nos dirigeants prennent conscience de la puissance de la révolution en cours, leur éducation est aussi à parfaire sur ces sujets, pour les démystifier et légiférer de manière proportionnée. L’encadrement des pratiques, mais surtout le suivi et la transparence de la mécanique nécessaire pour aboutir aux résultats peuvent avoir des impacts vertueux. Les interdictions pures et dures de ces technologies priveraient l’Europe d’un avantage compétitif tout en infantilisant ses citoyens.
Alors, développons notre esprit critique et apprenons, collectivement, à collaborer avec les machines.
Je vous laisse avec l’exemple de ce congressman qui, à 72 ans, s’est lancé dans un Master en Machine Learning : https://www.washingtonpost.com/dc-md-va/2022/12/28/beyer-student-artificial-intelligence-degree/
A lire aussi : IA generative (Generative AI)