Le développement augmenté existe d’ores et déjà. Souvent regardés de haut, les outils de GenAI sont une évolution naturelle des fonctionnalités d’autocomplétion. À adopter d’urgence pour en tirer tous les bénéfices.
Même si l'IA est privilégiée, il faut toujours partir de la stratégie et des problèmes à résoudre, prévient la HBR, dont l'approche 3P fait écho au Tech, Orga, Culture de WEnvision.
"The Software Architect Elevator" est une de feuille de route pour les architectes. En embrassant le changement, en comprenant les systèmes organisationnels et en favorisant une communication efficace, les architectes peuvent jouer un rôle central en conduisant les organisations vers le succès.
Conférence scientifique de référence sur l’IA, NeurIPS a dévoilé en décembre 2023 des avancées et des tendances clés pour 2024. Pour nous, quatre thèmes majeurs façonneront de manière significative l’année à venir.
Des résolutions de problèmes plus complexes
La technique “Tree of Thoughts” a émergé comme une avancée majeure, permettant une structuration plus fine du processus de pensée. Evolution du modèle actuel de “chain of thoughts”, cette nouvelle technique consiste à structurer le processus de pensée du modèle sous forme d'arbre. Chaque branche de cet arbre représente une étape intermédiaire ou une sous-question qui aide à décomposer un problème complexe en éléments plus gérables. Ainsi, au lieu d'aborder un problème dans son ensemble, le modèle suit un chemin logique, examinant différentes possibilités et solutions étape par étape, ce qui permet une analyse plus approfondie et structurée.
Cette approche marque une progression vers des systèmes d'IA plus autonomes, capables de réflexion approfondie.
Des nouvelles architectures de LLM comme Mamba
La plupart des modèles LLM actuels sont fondés sur des Transformers (le T de GPT). Cette architecture a pourtant des limites en termes de longueur de séquence et de coûts d’exploitation. De nouvelles architectures prometteuses sont apparues pour y remédier.
Mamba en particulier révolutionne le traitement des longues séquences de données et offre des performances accrues. Cette architecture ouvre de nouvelles perspectives pour des applications exigeant le traitement de grandes quantités de données. On évoque des séquences pouvant aller jusqu’à 1 million de tokens !
Des IA autonomes et adaptatives
De nouveaux modèles et outils tels que Toolformer et Voyager soulignent la tendance vers des systèmes d'IA plus autonomes. Toolformer apprend à utiliser des outils externes, tandis que Voyager explore et acquiert des compétences dans des environnements virtuels, démontrant une capacité d'adaptation et d'interaction enrichie.
Des méthodologies d'évaluation des capacités des modèles
Les récentes études sur les LLM mettent en lumière la nécessité d'une analyse plus rigoureuse de leurs capacités cognitives. En se concentrant sur la planification et les cartes cognitives, ces recherches révèlent des lacunes notables dans la compréhension conceptuelle des modèles avancés tel que GPT-4. Les auteurs appellent à la création d'une méthodologie d'évaluation réaliste, soulignant que le chemin vers une IA authentiquement intelligente est parsemé d'obstacles méthodologiques et conceptuels.
L'IA générative était (surprise !) la vedette du keynote de l'AWS Summit Paris, ce 3 avril au Palais des Congrès. C'est LE sujet qui tire le Cloud et la Data.