En retard sur l’IA générative, Apple pourrait tout miser sur un modèle de langage opérable hors ligne, qui ne collecterait aucune donnée sur des serveurs. iOS 18 devrait introduire des fonctions astucieuses, sans rivaliser directement avec ChatGPT.

Le 10 juin 2024, Apple dévoilera la future grande mise à jour de l’iPhone lors de sa conférence WWDC. En plus d’un potentiel redesign, iOS 18 est présenté par beaucoup comme une des plus grandes évolutions de l’histoire de l’iPhone, grâce à l’introduction de l’intelligence artificielle générative à tous les niveaux. Les messages, les photos, les notes… Tout le système pourrait s’automatiser, avec des suggestions tenant compte du contexte.

Apple a néanmoins un petit problème : il a pris du retard sur la concurrence. Face à OpenAI, Google ou Meta, l’entreprise californienne s’est intéressée tardivement aux grands modèles de langage. Elle ne dispose pas du matériel suffisant pour faire tourner un service comme ChatGPT sur ses propres serveurs, ce qui l’amène à envisager un partenariat avec Google Gemini le temps de combler son retard. En attendant, Apple pourrait faire le pari de tout miser sur un LLM (Large Language Model) local, qui tournerait à 100 % sur les puces de ses produits.

A17 Pro et M3 : les puces Apple Silicon à la rescousse de l’IA générative

Avec un LLM local, Apple prendrait le risque d’offrir des services largement inférieurs à ceux d’OpenAI ou de Google. Le nombre de paramètres serait infiniment plus petit, ce qui réduirait « l’intelligence » d’iOS 18. Toutefois, Apple pourrait faire de ces défauts un argument marketing.

Selon Bloomberg, un des plans d’Apple consisterait à présenter son approche en matière d’IA comme une solution plus rapide et plus respectueuse de la vie privée. La marque pourrait mettre en avant des usages du quotidien, plutôt que la promesse d’un chatbot capable de répondre à des choses extrêmement compliquées. Le nouveau Siri pourrait ainsi répondre très rapidement, tout en paraissant beaucoup plus intelligent que le système actuellement proposé. Les fonctions d’édition des messages ou des photos seraient aussi quasiment instantanées, là où un Dall-E ou un Midjourney « réfléchissent » pendant plusieurs secondes.

ChatGPT triste // Source : Numerama
Concurrencer ChatGPT ne sera pas possible, mais Apple va tout de même s’améliorer. // Source : Numerama

En misant sur un LLM local, Apple jouerait aussi sur une de ces forces. Depuis toujours, la marque répète qu’elle est la seule à fabriquer matériel et logiciel, ce qui lui confère un avantage sur la concurrence. La transition vers ses propres puces Apple Silicon, entamée en 2010 sur iPhone/iPad et en 2020 sur les Mac, pourrait être son arme fatale. Tous les appareils Apple partagent la même architecture, avec une immense puissance de calcul. La logique voudrait que les prochaines générations de puces aillent encore plus loin, pour que les iPhone 16 soient encore plus rapides pour générer du contenu.

Et Google Gemini dans tout ça ? Le partenariat est toujours évoqué, mais on ignore sous quelle forme. Le LLM local d’Apple devrait être le sien, ce qui laisse penser qu’Apple n’aura pas besoin de Google pour son nouveau Siri, son nouveau Photos et son nouveau Messages. Gemini pourrait se charger de tâches plus délicates, dans les applications de bureautique par exemple.

Source : Numerama

Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.