Le 10 juin 2024, Apple dévoilera la future grande mise à jour de l’iPhone lors de sa conférence WWDC. En plus d’un potentiel redesign, iOS 18 est présenté par beaucoup comme une des plus grandes évolutions de l’histoire de l’iPhone, grâce à l’introduction de l’intelligence artificielle générative à tous les niveaux. Les messages, les photos, les notes… Tout le système pourrait s’automatiser, avec des suggestions tenant compte du contexte.
Apple a néanmoins un petit problème : il a pris du retard sur la concurrence. Face à OpenAI, Google ou Meta, l’entreprise californienne s’est intéressée tardivement aux grands modèles de langage. Elle ne dispose pas du matériel suffisant pour faire tourner un service comme ChatGPT sur ses propres serveurs, ce qui l’amène à envisager un partenariat avec Google Gemini le temps de combler son retard. En attendant, Apple pourrait faire le pari de tout miser sur un LLM (Large Language Model) local, qui tournerait à 100 % sur les puces de ses produits.
A17 Pro et M3 : les puces Apple Silicon à la rescousse de l’IA générative
Avec un LLM local, Apple prendrait le risque d’offrir des services largement inférieurs à ceux d’OpenAI ou de Google. Le nombre de paramètres serait infiniment plus petit, ce qui réduirait « l’intelligence » d’iOS 18. Toutefois, Apple pourrait faire de ces défauts un argument marketing.
Selon Bloomberg, un des plans d’Apple consisterait à présenter son approche en matière d’IA comme une solution plus rapide et plus respectueuse de la vie privée. La marque pourrait mettre en avant des usages du quotidien, plutôt que la promesse d’un chatbot capable de répondre à des choses extrêmement compliquées. Le nouveau Siri pourrait ainsi répondre très rapidement, tout en paraissant beaucoup plus intelligent que le système actuellement proposé. Les fonctions d’édition des messages ou des photos seraient aussi quasiment instantanées, là où un Dall-E ou un Midjourney « réfléchissent » pendant plusieurs secondes.
En misant sur un LLM local, Apple jouerait aussi sur une de ces forces. Depuis toujours, la marque répète qu’elle est la seule à fabriquer matériel et logiciel, ce qui lui confère un avantage sur la concurrence. La transition vers ses propres puces Apple Silicon, entamée en 2010 sur iPhone/iPad et en 2020 sur les Mac, pourrait être son arme fatale. Tous les appareils Apple partagent la même architecture, avec une immense puissance de calcul. La logique voudrait que les prochaines générations de puces aillent encore plus loin, pour que les iPhone 16 soient encore plus rapides pour générer du contenu.
Et Google Gemini dans tout ça ? Le partenariat est toujours évoqué, mais on ignore sous quelle forme. Le LLM local d’Apple devrait être le sien, ce qui laisse penser qu’Apple n’aura pas besoin de Google pour son nouveau Siri, son nouveau Photos et son nouveau Messages. Gemini pourrait se charger de tâches plus délicates, dans les applications de bureautique par exemple.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !