Apple ReALM, le LLM au secours des assistants vocaux

Apple a présenté le modèle ReALM, qui s'attaque à la problématique de la résolution de références. Une promesse d'interactions plus fluides.

Apple ReALM, le LLM au secours des assistants vocaux

Lorsque les assistants vocaux maîtrisent la résolution de références, ils lisent entre les lignes comme jamais auparavant. 🤖 ReALM, présenté par Apple, pourrait transformer significativement l'expérience utilisateur sur des appareils comme l'iPhone, l'iPad, et l'HomePod, en rendant les interactions avec Siri plus fluides, intuitives, et personnalisées.

Dans le contexte des interactions avec un assistant vocal ou une interface utilisateur, la résolution de références devient cruciale pour comprendre les intentions de l'utilisateur. Par exemple, lorsqu'un utilisateur demande «Appelle le», l'assistant doit déterminer à qui ou à quoi «le» fait référence, en se basant sur le contexte de la conversation précédente ou sur des éléments visibles à l'écran. 🗣️📱

L'approche du modèle ReALM, introduite par Apple, étend les capacités des LLM pour inclure la résolution de références en traitant ce processus comme un problème de modélisation du langage. En convertissant les éléments contextuels, y compris les entités sur écran et en arrière-plan, en texte que le modèle peut comprendre, ReALM parvient à déduire à quoi les références ambiguës ou implicites se rapportent.

Des assistants vocaux capables de "lire entre les lignes"

La résolution de références est un concept fondamental dans le traitement du langage naturel. Ce processus vise à identifier à quoi se réfèrent des mots ou des expressions dans un discours ou un texte. Les références peuvent être explicites, comme un nom propre, ou implicites, comme des pronoms ou des expressions contextuelles. 🧐

La nouvelle méthode proposée par Apple permet une interaction plus naturelle et intuitive avec les systèmes basés sur l'IA, en rendant les assistants vocaux capables de comprendre et d'agir sur des instructions complexes ou vagues, qui auparavant auraient nécessité des clarifications supplémentaires de la part de l'utilisateur.

En fin de compte, l'adoption de ReALM par Apple pourrait redéfinir les standards d'interaction homme-machine, établissant de nouvelles normes pour l'industrie en termes de capacité des assistants vocaux à "lire entre les lignes". 🚀

ReALM: Reference Resolution As Language Modeling
Reference resolution is an important problem, one that is essential to understand and successfully handle context of different kinds. This context includes both previous turns and context that pertains to non-conversational entities, such as entities on the user’s screen or those running in the background. While LLMs have been shown to be extremely powerful for a variety of tasks, their use in reference resolution, particularly for non-conversational entities, remains underutilized. This paper demonstrates how LLMs can be used to create an extremely effective system to resolve references of various types, by showing how reference resolution can be converted into a language modeling problem, despite involving forms of entities like those on screen that are not traditionally conducive to being reduced to a text-only modality. We demonstrate large improvements over an existing system with similar functionality across different types of references, with our smallest model obtaining absolute gains of over 5% for on-screen references. We also benchmark against GPT-3.5 and GPT-4, with our smallest model achieving performance comparable to that of GPT-4, and our larger models substantially outperforming it.

Génial ! Vous vous êtes inscrit avec succès.

Bienvenue de retour ! Vous vous êtes connecté avec succès.

Vous êtes abonné avec succès à WENVISION.

Succès ! Vérifiez votre e-mail pour obtenir le lien magique de connexion.

Succès ! Vos informations de facturation ont été mises à jour.

Votre facturation n'a pas été mise à jour.