Hier, nous couvrions la conférence de rentrée de Google qui a présenté dans le désordre deux smartphones nommés Pixel, un assistant de maison, un routeur Wi-Fi intelligent, un casque de réalité virtuelle et un nouveau Chromecast. L’organisation de ce show était pourtant très intéressante, presque plus que les produits présentés (qui ne sortiront pas en France dans un premier temps pour la plupart), dans la mesure où Google l’a introduit, ponctué et conclu autour d’un produit qui a fait office de fil rouge : l’assistant.
En réalité, derrière l’apparente banalité de la conférence, nous assistions hier à un changement de paradigme particulièrement intéressant dans la manière de concevoir des produits chez Mountain View : on ne cherche plus à faire interagir l’utilisateur avec le logiciel, mais à faire en sorte que le logiciel s’adapte ou anticipe les désirs de l’utilisateur.
IA + données collectées = Google
Aujourd’hui, vous parlez d’un restaurant dans une conversation, l’assistant vous donne, à vous et à votre contact, sa localisation, ses horaires d’ouverture et une option pour réserver une table. Demain, Google Home connaît vos rendez-vous, vos habitudes de transport, l’état du trafic et la météo et vous dit comment vous habiller et à quelle heure partir au moment où vous vous levez. Ce que Google met en avant, c’est le fait que vous alliez de toutes façons chercher ces informations. Au lieu de vous laisser chercher, Google vous les donne et prétend pouvoir le faire au bon moment.
C’est donc bien normal que la vision Google de l’informatique dans notre vie quotidienne ne se fonde pas sur les appareils, mais sur le liens qu’ils peuvent avoir avec l’assistant qui les équipe. Tout l’intérêt d’un tel système, c’est que tous les appareils communiquent entre eux et s’informent les uns des autres pour vous servir le mieux possible. Pour cela, Google, s’appuie d’une part sur TensorFlow, sa technologie d’apprentissage machine open source, d’autre part sur des versions ad-hoc de l’assistant qu’on peut voir à l’œuvre sur Google Allo et enfin, sur le travail de fond mené sur la recherche Google, qu’il s’agisse de Knowledge Graph ou des snippets qui apparaissent aujourd’hui quand vous cherchez des termes sur Google et qui sont de la mise en forme intelligente de l’information disponible sur le web.
Quand on assiste à une présentation pareille, on ressent immédiatement l’excitation d’entrevoir enfin un monde où les ordinateurs de poche, fixes, de bord ou de maison communiquent enfin, raisonnent enfin et nous servent enfin de manière intelligente, à défaut d’être intelligents eux-mêmes. On s’approche des rêves de la robotique qu’on nous vend depuis des décennies dans les romans de science-fiction : le robot n’a pas de mains, pas de corps, pas de visage, mais qu’importe, il économise du temps de cerveau comme la machine classique nous épargne du travail physique.
Cela dit, vient très vite la contre-partie évoquée par Google : toutes ces merveilles n’existent que si les données recensées par les différents assistants sont collectées, envoyées sur des serveurs distants et traitées par des machines bien plus puissantes que les petits processeurs des smartphones qui les mettent en ordre. Dans le monde de Google, chaque donnée émise par l’utilisateur est une donnée exploitable pour lui rendre service.
Quand Assistant vous donne l’adresse d’un restaurant dont vous parlez, il connait votre conversation, l’identité de votre contact mais aussi probablement votre position pour éviter de vous donner l’adresse d’un restaurant homonyme dans une autre ville. Il est aussi à peu près sûr que ces informations seront envoyées au serveur qui s’occupe de les trier, les analyser et les classer et peut-être que Home vous dira dans 2 semaines, quand vous reparlerez du restaurant : « Vous semblez l’avoir peu apprécié d’après les messages que vous avez envoyé à votre contact, nous vous conseillons plutôt cet autre restaurant dans le même quartier ».
Assistant repose sur l’analyse de vos conversations et de vos habitudes
Cette vision du monde proposée par Mountain View appelle des interrogations et il est difficile d’affirmer ce qu’il faut en penser : c’est à l’utilisateur de juger ce qu’il consent donner comme information sur lui pour accéder à quel service in fine. Et pour cela, l’utilisateur doit bien entendu posséder les informations qui lui permettent de faire un choix mesuré sur ces questions : aujourd’hui, malheureusement, beaucoup de gens découvrent encore que Google les géolocalise en permanence au moment où Android leur demande un avis sur un bar ou un musée qu’ils sont en train de fréquenter. L’accès à l’information sur ces questions est donc déséquilibré.
La vraie question à se poser côté utilisateur est alors la suivante : faites-vous confiance à Google pour traiter et sécuriser ces données récoltées en temps réel en échange d’une plongée totale et omnisciente dans le monde de l’informatique prédictive ?
Données privées + IA = ?
Mais tout cela ne signifie pas, encore, qu’il faut choisir. Loin de là. Lors de sa conférence, Google a présenté un monde intelligent et fonctionnel tournant autour d’un paradigme maîtrisé et mis en avant par Mountain View depuis plusieurs années maintenant. C’est l’aboutissement d’une logique qui se fonde sur la collecte et l’agencement des données des utilisateurs sur des serveurs distants. C’est pour cela que Allo n’est pas chiffré de bout en bout par défaut : pour qu’Assistant fonctionne, qui est la valeur ajoutée de l’application, il doit communiquer le contenu des messages.
La philosophie Google n’est pas celle de toutes les sociétés de la tech. Au rang des chevaliers blancs de la privacy, on compte Apple, qui a fait de la sécurité des données un de ses champs de bataille. L’affaire qui a opposé Cupertino et le FBI a fait beaucoup réfléchir les partisans d’une collecte et d’une mutualisation des données des utilisateurs, jugée longtemps comme sans risque pour améliorer l’IA. Elle a montré qu’un État pouvait être prêt à tout pour forcer une société à dévoiler les informations qu’elle possède sur ses clients.
La solution, mise en avant par Apple, c’est de ne pas les posséder, en chiffrant les communications et les mots de passe et en traitant en local, sur l’appareil, la plupart des opérations. Un service qui n’a pas vos informations ne peut pas les communiquer.
Dans le domaine de l’assistant ou de l’intelligence, toutes les applications d’iOS 10 communiquent aujourd’hui entre elles pour vous proposer des choses plus pertinentes : vos rendez-vous peuvent suggérer des trajets à Plans ou des rappels au centre de notification pour vous dire de prendre la route. Si vous les autorisez, d’autres applications tierces peuvent avoir accès à ces données, comme Citymapper qui peut prévoir vos temps de trajet depuis et vers votre bureau.
En France, l’assistant Snips.ai se bat pour faire comprendre que le discours qui veut que l’intelligence artificielle soit corrélée à la collecte de données de l’utilisateur est partiellement faux. Snips est un assistant qui apprend de vos habitudes tout en vous demandant, donnée par donnée, ce qu’il peut voir — et garde toutes ces informations sur votre appareil.
Les développeurs affirment que leur assistant peut, à la manière d’un Google Assistant, scanner les conversations que vous avez sur vos messageries instantanées et vous donner des informations contextuelles sur les sujets que vous abordez. Le tout, sans qu’aucune information ne sorte de votre machine.
Nous avons testé les premières versions de Snips et nous utilisons iOS 10 au quotidien : ces deux expériences sont aujourd’hui encore loin de l’expérience complète et totale qui a été montrée par Google début octobre qui cumule apprentissage machine, communication des données entre divers appareils et contextualisation précise de l’information. L’assistant de Google est global et omniscient — et c’est ce qui peut tout autant exciter qu’effrayer.
Dès lors, compte tenu des avancées de ces autres technologies qui semblent plus lentes mais plus respectueuses des données que l’utilisateur juge privées, peut-être que la question que nous avons déjà posée a alors besoin d’être reformulée.
En tant qu’utilisateur, veut-on aller plus vite vers ce futur où la machine omnisciente nous accompagne dans notre vie en laissant de côté l’aspect privé de ce que nous faisons sur nos machines, ou s’autorise-t-on à attendre que des technologies d’assistance exécutées en local et sécurisées soient aussi performantes et communicantes que celles qui agrègent aujourd’hui des données sur des serveurs distants ?
N’hésitez pas à nous donner votre vision de ces problématiques naissantes dans les commentaires.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !