La nouvelle IA d’Apple vise à concurrencer GPT-4

La dernière évolution d’Apple dans le domaine de l’intelligence artificielle vise à rivaliser avec les modèles les plus avancés d’OpenAI, le développeur de ChatGPT, et à rendre les interactions avec les assistants virtuels comme Siri plus intuitives.

Le système ReaLM, acronyme de “Referencing Resolution as Language Modeling”, comprend les images et les contenus ambigus affichés sur l’écran de l’appareil de l’utilisateur, ainsi que le contexte de la conversation, afin de permettre des interactions plus naturelles avec l’IA.

Apparemment, le nouveau système d’Apple surpasse les autres grands modèles de langage – LLM, comme GPT-4, le modèle qui alimente ChatGPT, en ce qui concerne la détermination du contexte et les références des expressions linguistiques, selon les chercheurs qui l’ont développé.

De plus, étant un système moins complexe que d’autres LLM, comme la série GPT d’OpenAI, les chercheurs ont qualifié ReaLM de “meilleure option” pour un système de déchiffrement de contexte qui “peut exister sur l’appareil sans compromettre les performances”.

Par exemple, si vous demandez à Siri de vous montrer une liste de pharmacies à proximité. Lorsque la liste est affichée, vous pourriez dire : “Appelle celle de la rue principale” ou “appelle celle d’en bas”. Avec ReaLM, au lieu de recevoir un message demandant plus d’informations, Siri pourrait déchiffrer le contexte nécessaire pour effectuer cette tâche mieux que GPT-4, selon les chercheurs d’Apple.

“Le langage humain contient souvent des références ambiguës comme ‘ceci’ ou ‘cela’, dont le sens est évident – pour d’autres humains – étant donné le contexte”, ont expliqué les chercheurs d’Apple en se référant aux capacités de ReaLM. “La capacité à comprendre le contexte, y compris de telles références, est essentielle pour un assistant conversationnel qui doit permettre à un utilisateur de communiquer ses demandes de manière naturelle ou de tenir une conversation avec lui”.

Le système ReaLM peut interpréter les images intégrées dans un texte, ce qui, selon les chercheurs qui l’ont développé, peut être utilisé pour extraire des informations telles que des numéros de téléphone ou des recettes à partir des images affichées sur une page web.

GPT-3.5 d’OpenAI accepte uniquement les entrées textuelles et GPT-4, qui peut également interpréter le contexte avec des images, est un grand système principalement formé avec des images naturelles du monde réel, pas des captures d’écran, ce qui, selon les chercheurs d’Apple, limite ses performances pratiques et fait de ReaLM une meilleure option pour comprendre les informations à l’écran.

“Apple a longtemps été considéré comme un retardataire derrière Microsoft, Google et Amazon dans le développement de l’intelligence artificielle conversationnelle”, comme l’ont détaillé des médias comme The Information. “Le fabricant de l’iPhone est connu pour être un développeur prudent et réfléchi de nouveaux produits, une tactique qui lui a bien servi pour gagner la confiance des consommateurs, mais qui pourrait le désavantager dans la course rapide à l’IA”.

Cependant, avec la révélation des capacités de ReaLM, il semble que l’entreprise de Cupertino soit prête à entrer pleinement dans la compétition.

Les chercheurs derrière ReaLM et les représentants d’OpenAI n’ont pas répondu aux demandes de commentaires de Business Insider.

Il est encore incertain si ReaLM sera intégré dans Siri ou d’autres produits Apple, mais le PDG de l’entreprise technologique, Tim Cook, a assuré lors d’un récent appel avec les actionnaires de l’entreprise qu’il se réjouit de partager des détails sur leur “travail en cours dans l’intelligence artificielle d’ici la fin de cette année”.

5/5 - (2 votes)

Tags:

No Responses

Leave a Reply

Your email address will not be published. Required fields are marked *