La WWDC 2023 a montré une chose : oui, Apple n’ignore pas le champ de l’intelligence artificielle. Mais non, l’entreprise américaine n’en fait pas un sujet à part entière. La manière dont l’IA a été abordée durant le keynote est très révélatrice.

C’était l’une des grandes interrogations que l’on avait en amont de la WWDC 2023, considérée comme la plus importante de la décennie. L’intelligence artificielle allait-elle être au cœur de la conférence ? Après tout, l’IA est devenue le sujet incontournable de la tech. Google, Facebook, Amazon, Microsoft et tous les poids lourds de l’industrie ont sauté à pieds joints dedans.

Il ne manquait, en somme, qu’Apple. La conférence apparaissait comme une bonne occasion de dévoiler au monde ses intentions dans ce nouveau terrain de jeu — en particulier celui de l’IA générative, puisque c’est ici que se focalise toute l’attention. On pense par exemple, à Midjourney pour la création d’images et à ChatGPT pour la production de textes.

L’IA était bien présente, mais cachée sous un lexique précis

Et Apple a bien répondu présent durant la WWDC 2023, mais d’une façon qui s’est révélée finalement assez habile : l’entreprise américaine a distillé tout au long de son évènement des références à l’intelligence artificielle, mais sans jamais l’appeler directement ainsi. Une sacrée prouesse, qui n’a pas manqué d’être relevée par divers observateurs.

Apple avait-il flairé une certaine overdose autour de l’IA, avec un concept que l’on nous sert à toutes les sauces depuis des mois ? Toujours est-il que la firme de Cupertino s’est méthodiquement appliquée à éviter ce buzzword. Pour autant, cela ne l’a pas empêché d’évoquer ses avancées dans ce domaine, mais en utilisant des notions plus précises qu’un acronyme fourre-tout : « IA ».

Source : Apple
La nouvelle puce M2 Ultra fait beaucoup de choses autour de l’IA, mais Apple ne le dit jamais de manière aussi frontale. // Source : Apple

Ainsi, d’IA générative, il n’en a jamais été question, pas plus que de GPT (acronyme pour Generative Pre-trained Transformer, une technique à la mode). À la place, la société a employé un jargon plus élaboré, qui lui a permis d’occuper le terrain sans donner l’impression de suivre le troupeau. Il a été question de « neural engine », de « machine learning » ou de « transformer model ».

Ces notions ne sont évidemment pas nouvelles. La notion de « neural engine » est par exemple employée depuis 2017 par Apple avec l’arrivée du système sur puce Apple A11 Bionic. Ce processeur est justement optimisé pour des tâches dans l’IA. Lors de sa présentation, il y a bientôt six ans, Apple indiquait que ce système neuronal « est conçu pour des algorithmes d’apprentissage automatique. »

On la retrouve encore en 2023 lors de la présentation de la puce M2 Ultra, avec un « neural engine » encore plus rapide que la génération précédente (en hausse de 40 % par rapport à la M1 Ultra). L’entreprise ne cite jamais l’IA dans son communiqué, mais prend soin de préciser le nombre de cœurs (32) et celui des opérations par seconde (31 600 milliards).

« Il peut faire tourner des modèles de transformeur »

Apple

Cet emploi d’un jargon technique s’est justement reflété lorsqu’Apple a détaillé la puce M2 Ultra. « Il peut faire tourner des modèles de transformeur », a-t-il été dit à un moment de la conférence. Une formule qui peut échapper à celles et ceux qui ne suivent pas avec assiduité le secteur de l’IA. Mais là encore, Apple n’emploie par ce terme au hasard.

Un transformeur est un type d’architecture de réseau neuronal — on retrouve ce nom dans GPT, d’ailleurs. Ce mécanisme, développé par une équipe de recherche de Google en 2017, se retrouve aujourd’hui dans des outils de génération d’images (Midjourney, Stable Diffusion, DALL-E). Le transformeur découle de l’apprentissage profond (deep learning), un procédé de l’apprentissage automatique.

Des notions d’IA toujours associées à des usages

Les concepts d’IA évoqués par Apple tout au long de sa conférence ne sont jamais évoqués en dehors des usages dans lesquels ils s’insèrent. Un exemple avec iOS 17, qui a été également annoncé lors de la conférence : « l’autocorrection bénéficie d’une mise à jour complète avec un modèle de langage transformeur […] pour la prédiction des mots. »

Quand Apple a évoqué l’audio adaptatif pour les AirPods, il n’a pas été question de parler d’IA avec la fonction « volume personnalisé ». Apple a préféré décrire cette avancée en parlant d’apprentissage automatique, « pour comprendre les conditions ambiantes et les préférences d’écoute au fil du temps et pouvoir ainsi ajuster le son automatiquement. »

Et les exemples ne manquent pas. FaceTime n’utilise pas de l’IA, mais des « techniques d’apprentissage automatique les plus avancées », pour créer un avatar numérique. Point d’IA non plus pour détecter les champs à remplir d’un document en PDF, mais des « nouveaux modèles d’apprentissage automatique ». Et les fonds d’écran ? Ils s’appuient aussi sur des modèles avancés.

Source : Capture d'écran
Craig Federighi a évoqué la puissance du « neural engine » pour parler de la retranscription en direct d’un message vocal sous forme de texte. // Source : Capture d’écran

Si l’on était taquin, on pourrait dire qu’Apple s’était donné la mission de caser autant de mots-clés que possible autour de l’IA sans jamais rentrer frontalement dans le sujet. S’il y avait eu un jeu à boire dans lequel il fallait prendre un verre à chaque prononciation du mot IA, on serait reparti sobre de la WWDC (contrairement à d’autres conférences où l’on serait ivre mort).

Au-delà de cette particularité surprenante, cela traduit sans doute la vision d’Apple sur l’IA : ne pas en faire un sujet hors sol, mais un moyen d’étendre des usages déjà existants. On le voit avec l’audio adaptatif, dont l’ajout de certains procédés visent à améliorer encore l’expérience sonore. Idem avec la puce M2 Ultra qui est là pour délivrer une puissance de calcul accrue.

Montrer de quoi on parle

C’est aussi un moyen pour Apple de montrer qu’ils savent de quoi ils parlent, en se servant de mots précis au bon moment. « Machine learning », « neural engine » ou bien « transformer model » sont autrement plus rares dans la communication des autres entreprises que l’IA, formule fourre-tout qui ne dit plus rien à force de servir à toutes les occasions.

C’est évidemment appréciable et malin. On montre l’IA telle qu’elle peut étendre des pratiques déjà ancrées, plutôt que de présenter des usages potentiels à l’adoption bien plus incertaine (comme ces articles qui listent les x choses que vous pouvez faire avec ChatGPT). C’est l’usage qui commande. Une politique qui n’est pas nouvelle chez Apple.

Reste toutefois un revers à cette médaille. Apple a certes montré qu’elle sait très bien de quoi elle parle (bien que les autres entreprises de la tech, aussi, elles ont juste un choix de vocabulaire différent). Ils utilisent des termes précis, qui sauront parler à celles et ceux qui s’y connaissent. Mais c’est là que le bât blesse : c’est aussi du jargon qui échappe au grand public. L’expression générale IA a certes ses travers, mais elle est aussi une façon de s’adresser à la population.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !