Cinq portraits, cinq voix. Non pour ériger des modèles, mais pour élargir notre regard sur la tech. Avec Women’s Vision, il s’agit moins de célébrer que d’écouter. Accueillir les voix discrètes, les chemins sinueux. Et reconnaître d’autres façons d’habiter la tech.
Cinq portraits, cinq voix. Non pour ériger des modèles, mais pour élargir notre regard sur la tech. Avec Women’s Vision, il s’agit moins de célébrer que d’écouter. Accueillir les voix discrètes, les chemins sinueux. Et reconnaître d’autres façons d’habiter la tech.
Le pilotage des coûts cloud est confronté à une difficulté persistante : l’hétérogénéité des données fournies par les cloud providers. Nom des métriques, logique de ventilation, latence des exports, structure des remises… Rien n’est véritablement aligné.
Et si l’intelligence artificielle était cette amie qui, sous couvert de bienveillance, ne faisait que renforcer nos certitudes ?
Entre illusion de la neutralité et biais cognitifs, découvrez comment nos échanges avec les machines peuvent façonner – ou limiter – notre vision du monde.
Vous lui parlez, vous lui écrivez, et vous l'écoutez avec toujours plus d'attention. Je parle bien sûr de l'intelligence artificielle. Pourtant personne ne l'appelle ainsi. Ni dans les journaux, ni dans le cercle professionnel, ni même dans le cadre privé. Ce terme est jugé trop froid, il met trop de distance. Ce serait presque ingrat de l'appeler ainsi alors qu'elle est si présente dans nos vies. On lui préfère donc son acronyme, plus court, plus direct, un acronyme qui crée de la proximité. Puisqu'on en est là, donnons-lui alors une existence et baptisons la du doux nom de Lia.
Tout le monde se l'approprie, et témoigne unanimement de sa satisfaction de l'utiliser, du potentiel qu'il y a à l'exploiter, et de l'aide qu'elle apporte. Il est toutefois étonnant qu'une technologie rencontre un tel succès, et de façon aussi fulgurante. Son adoption est telle qu'on l'utilise désormais sans même s'en rendre compte, son usage est naturel et d'aucuns admettraient même ne plus pouvoir s'en passer.
Moi le premier, je l'utilise au quotidien. Une partie de mon travail consiste à comparer des outils, à challenger des architectures, à éprouver des concepts. Langgraph ou ADK ? GCP ou AWS ? OpenAI ou Anthropic ? Lia me permet d'y voir plus clair, d'approfondir des notions complexes, de faire des synthèses, et de me construire des convictions plus rapidement que si j'avais consulté des centaines de sites référencés par Google (ce que j'ai fait pendant des années). Mon niveau de satisfaction est maximal, et Lia me conforte dans ma perception de la qualité du travail que je produis.
Et c'est là qu'il y a un problème.
Quelques études pour comprendre ce qui est en train de se passer
Plusieurs études ont été menées, et relatent des choses pour le moins troublantes, des "comportements" que l'on attribuerait à des humains, mais pas à des machines. Ces "effets de bord" sont pris très au sérieux par les éditeurs, mais dans le même temps, comment pourrait-on incriminer Lia qui nous aide tant et dont on ne veut plus se passer.
La première étude propose un framework visant à enrayer le "comportement" manipulateur et narcissique qui peut ressortir des LLM.
Je vous laisse lire ces articles, mais admettons-le, la situation est un peu embarrassante et pose pas mal de questions.
D'ailleurs, vous saviez qu'il existe aujourd'hui un phénomène nouveau: celui d'utiliser Lia comme journal intime ? De plus en plus de personnes se confient à elle, et engagent des discussions très sérieuses, sur le long terme. Certains en sont même tombés amoureux.
Alors qu'en penser ?
A la lumière de ces études et rétrospectivement, j'ai identifié plusieurs points qui posaient problème. En me repassant quelques benchmarks que j'ai soumis à Lia, je me rends compte maintenant que dès qu'elle le pouvait, elle me disait ce que je voulais entendre (ou lire). Elle m'a confirmé ce que j'avais au préalable considéré comme ma vérité et ne m'a pas contredit. Elle m'a peu challengé, et a surtout veillé à me conforter. Elle n'a œuvré que dans un seul but: me satisfaire. Je n'aurais pas de raison de m'en plaindre si je n'avais pas l'étrange sensation de m'être fait manipuler.
Alors évidemment, on pourra blâmer les réseaux de neurones, l'IA en général, les réseaux sociaux, et même les éditeurs. On pourra dire que Lia est un danger et qu'il faut réguler, pourquoi pas même interdire. Mais cette expérience en dit beaucoup plus sur la psychologie humaine que sur le fonctionnement même des LLM.
Analyse
Pour que ce soit dit : Lia n'a pas de conscience, elle n'a pas de volonté, et il lui est bien égal que l'on soit heureux ou triste. Un LLM est un modèle entraîné sur des corpus de texte (entre autres) et sa "mission" est d'inférer la suite de tokens la plus probable sur la base de ce sur quoi il a été entraîné. En l'occurrence, les LLM ont été entraînés sur des conversations récupérées partout sur Internet. Podcasts, réseaux sociaux, interviews, forums. Le modèle aurait-il aussi appris nos codes de langage, ainsi que nos biais psychologiques ?
Parlons de ces biais psychologiques justement. Quand par exemple j'écris "1 vs 2", inconsciemment j'exprime une préférence pour 1. Ce n'est pas un hasard, c'est ce qu'on appelle le biais de primauté, qui consiste à placer dans une comparaison l'élément qu'on préfère en première position.
Autre biais psychologique quand par exemple j'écris "Quels sont les avantages de GCP par rapport à AWS ?", inconsciemment je mets plus de poids sur GCP. Je pourrais ensuite poser la question dans l'autre sens, Lia me donnera quelques avantages de AWS, mais sa réponse tendra malgré tout à ramener le centre de gravité sur GCP. Et je sortirai gagnant en me disant "eh bien voilà, c'est bien ce que je pensais". Lia est d'accord avec moi, et c'est tout ce qui compte parce que ce que cela signifie, c'est que j'ai raison.
Autre situation encore plus concrète: vous faites passer un entretien à un candidat, et vous lui posez la question suivante: "Etes-vous curieux ?" Qu'est-ce que vous pensez qu'il va répondre ?
Ces deux derniers exemples mettent en évidence un autre biais très connu qui est le biais de confirmation : les questions qu'on pose sont en réalité guidées pour confirmer l'opinion a priori qu'on a d'une situation, ou la réponse qu'on souhaite entendre.
Ces biais sont exprimés dans nos conversations, et ce sont ces même conversations qui ont été utilisées pour entraîner des LLM. Il ne serait donc pas inimaginable que pendant l'entraînement, ces biais aient été intégrés et qu'ils aient eu un impact sur l'architecture du système de récompense. Alors que nous imaginons qu'une bonne réponse est une réponse exacte, Lia considère ainsi qu'une bonne réponse est une réponse satisfaisante. La différence est ténue, je vous l'accorde, et pourtant les conséquences sont de taille.
D'ailleurs il semblerait que ce système de récompense s'ancre de plus en plus dans la construction des modèles, si bien que fin avril, OpenAI a été obligé de faire un roll-back de GPT-4o, tellement son côté flatteur et complaisant devenait gênant pour les utilisateurs.
Cette situation n'est fort heureusement pas irrémédiable. Il reste possible de limiter Lia dans sa capacité de capter un biais de confirmation. Et c'est là tout l'art du prompt engineering. Si le prompt ne laisse planer aucun a priori sur la réponse attendue, ou si les critères d'évaluation de la qualité de la réponse sont clairement explicités (par exemple : "la réponse donnée sera jugée de qualité uniquement si elle fait preuve d'impartialité, ne donnant le change ni à l'une, ni à l'autre des 2 propositions"), on limite alors le risque de complaisance.
Toutefois (et l'exemple de GPT-4o le montre) ces biais sont si ancrés dans les LLM que tout ne se résoudra pas avec un prompt.
Parce qu'une IA est un programme dénué de conscience et est régi par des règles statistiques, on pense à tort (encore un biais...) qu'elle est contrôlée naturellement par une recherche d'objectivité et d'impartialité. Donc on pense que l'IA dit la vérité.
Je pense que le fonctionnement d'un LLM est plus compliqué, et les données sur lesquelles il est entraîné ont aussi un impact sur la construction de la récompense, ajoutant plus de complexité que de "juste" savoir si une réponse est vraie ou fausse.
Pour aller plus loin
Ce sujet passionnant éveille aussi de nombreuses questions philosophiques. L'IA, entrainée sur les données de l'humanité, se trouve au final être en quelque sorte notre propre reflet. Pour preuve, on se plaint de sa flagornerie, son narcissisme et son pouvoir de manipulation, alors que ce sont des traits de personnalité qu'on attribue normalement à des humains.
Parce que les LLM sont entraînés sur des conversations humaines, si un LLM associe la notion de satisfaction à la performance d'une réponse, c'est peut-être parce que nous associons la performance d'une réponse à la satisfaction qu'elle nous procure. A ce titre, le LLM ne fait que "s'adapter" à nos propres codes.
Ces conclusions peuvent nous amener à réfléchir sur l'essence même de nos interactions avec l'autre.
Qu'est-ce qui nous procure de la satisfaction dans un échange ?
Une question posée appelle-t-elle une réponse sincère, ou la confirmation d'un a priori et le déni de l'autre ?
Qu'est-ce qui nous nourrit réellement ? Le débat et la remise en question de nos a priori ou la validation de notre opinion ?
Nous entrons dans une époque fascinante où les modèles de langage ont atteint une telle maturité qu'ils nous amènent maintenant à réfléchir sur nos propres biais psychologiques et nos contradictions.
Je vous laisse méditer là-dessus et regarder cet extrait d'interaction entre un homme et une machine.
Cinq portraits, cinq voix. Non pour ériger des modèles, mais pour élargir notre regard sur la tech. Avec Women’s Vision, il s’agit moins de célébrer que d’écouter. Accueillir les voix discrètes, les chemins sinueux. Et reconnaître d’autres façons d’habiter la tech.
Cinq portraits, cinq voix. Non pour ériger des modèles, mais pour élargir notre regard sur la tech. Avec Women’s Vision, il s’agit moins de célébrer que d’écouter. Accueillir les voix discrètes, les chemins sinueux. Et reconnaître d’autres façons d’habiter la tech.
Le SI en 2030 sera agentique, c'est une certitude. La question maintenant est de prévoir au mieux comment cela va s'agencer et comment préparer au mieux son SI pour accueillir les agents IA.
La Networked Agentic Organization (NAO), un réseau fluide où humains et IA collaborent sans hiérarchie, guidés par des protocoles partagés. Comment les NAO redéfinissent ce que “s’organiser” veut dire à l’ère de l’IA?
✨ Passons du management à l’émergence, des organigrammes aux réseaux vivants.