Aussi spectaculaires soient-ils, les récents progrès de l’intelligence artificielle ont été principalement le fait de logiciels ultra spécialisés, élaborés grâce à un travail de longue haleine. Mais l’intelligence artificielle de demain pourrait être, au contraire, polyvalente et autodidacte.
« Nous vivons une époque à la fois fantastique et dangereuse. En effet, nous sommes témoins de bouleversements majeurs, auxquels nous allons nécessairement devoir nous adapter. Notre manière d’apprendre, en particulier, va devoir changer. » En novembre dernier, au Web Summit de Lisbonne, Antoine Blondeau donnait le ton dès le début de son intervention. Dans le privé, si le phrasé est plus relâché, le discours reste le même : l’évolution, l’adaptation sont pour lui les clefs ouvrant les portes du futur. Un futur où l’intelligence humaine pourra compter sur l’aide des machines.
Car, sans tambour ni trompette, cet entrepreneur français, naviguant entre Hong Kong et la Silicon Valley, est aujourd’hui en train de créer l’une des intelligences artificielles les plus perfectionnées au monde. L’aventure démarre en 2008, date de création de sa société, Sentient Technologies. Moins connue du public que les ténors de l’intelligence artificielle que sont IBM, Google et Facebook, car plus spécialisée, l’entreprise d’Antoine Blondeau a pour but de construire une intelligence artificielle hors norme, à la fois globale, agnostique et évolutive.

De Deep Blue à AlphaGo
De la victoire de Deep Blue contre Gary Kasparov en 1996 à celle, peut-être plus spectaculaire encore, d’AlphaGo contre Lee Sedol en mars 2016, en passant par celle d’IBM Watson à Jeopardy !, l’intelligence artificielle a récemment accompli des progrès stupéfiants, surpassant l’intelligence humaine dans des domaines que celle-ci prenait jusqu’alors pour sa chasse gardée.
Ces réalisations demeurent l’apanage de logiciels qui doivent tout au labeur humain
Ainsi, le jeu de Go a longtemps semblé trop complexe pour la machine. Le nombre gigantesque de combinaisons possibles dans une partie rendant impuissant le seul calcul de probabilité, ce jeu chinois millénaire exige de s’adapter à chaque situation et de faire preuve d’une certaine créativité, caractéristiques que beaucoup pensaient être l’apanage de l’homme.
Cela n’a pas empêché le logiciel mis au point par Google DeepMind de battre à plate couture le meilleur joueur du monde, et de poursuivre récemment ses exploits en administrant des raclées à de nombreux joueurs professionnels sur l’internet. À l’heure où j’écris ces lignes, le logiciel demeure invaincu, avec soixante victoires d’affilée.
Néanmoins, aussi spectaculaires soient-elles, ces réalisations demeurent l’apanage de logiciels qui doivent tout au labeur humain. Chacun a nécessité l’attention de dizaines de chercheurs hautement qualifiés au cours de plusieurs années de travail. En outre, ces logiciels sont ultra spécialisés : AlphaGo est peut-être le meilleur joueur de Go de tous les temps, il demeure incapable d’aligner trois mots ou de discerner une chèvre d’un hibou, ce dont serait bien sûr capable n’importe quel joueur de Go humain débutant. C’est pourquoi de nombreux experts relativisent les récents progrès de l’intelligence artificielle et récusent toute comparaison possible avec l’intelligence humaine.
C’est le cas de l’écrivain, entrepreneur et futuriste Jerry Kaplan : « Le terme même d’intelligence artificielle est trompeur. Le fait que l’on puisse programmer une machine pour jouer aux échecs, au Go, à Jeopardy ! ou pour conduire une voiture ne signifie pas pour autant qu’elle soit intelligente ! Autrefois, les calculs étaient effectués à la main, par des humains très intelligents et portant une grande attention au détail.
Aujourd’hui, n’importe quelle calculette achetée en supermarché peut faire bien mieux que ces brillants cerveaux de jadis. Ces calculatrices sont-elles pour autant intelligentes ? Je ne le crois pas. Au fil du temps, nous découvrons de nouvelles techniques permettant de résoudre des problèmes bien précis, à l’aide de l’automatisation. Cela ne signifie pas pour autant que nous soyons en train de construire une super-intelligence en passe de prendre le pouvoir à notre place. »
Contrairement à l’intelligence humaine, très polyvalente, l’intelligence artificielle serait donc vouée à l’ultraspécialisation.
Le darwinisme au secours de l’intelligence artificielle
Pourtant, les travaux de Sentient Technologies pourraient bien changer la donne. Car l’entreprise d’Antoine Blondeau ambitionne de construire un programme capable de s’attaquer à n’importe quel type de problème, et surtout, d’apprendre à le résoudre tout seul. Pour cela, elle utilise deux techniques d’intelligence artificielle différentes, le deep learning, d’une part, et les algorithmes évolutifs, d’autre part.
Explications : « Le deep learning, qui simule la façon dont un système nerveux fonctionne, est excellent pour deux choses : l’observation et l’abstraction. Il permet, à partir d’une large quantité de données non structurées, d’opérer une classification à l’intérieur de celle-ci, de tisser des relations entre ces différentes catégories, et, dans un deuxième temps, de créer des abstractions à partir de cette observation. Il est ainsi excellent pour créer une modélisation du monde, mais n’est en revanche pas optimal pour l’adaptation, la définition d’une stratégie, et la prise de décision. »
Pour cette seconde phase, Sentient Technologies a puisé son inspiration dans… les théories de Charles Darwin. « Nous utilisons des algorithmes évolutifs, qui imitent la façon dont la vie biologique a évolué sur terre. On peut voir le monde d’aujourd’hui comme une succession de stratégies gagnantes : toutes les espèces sur Terre fournissent des exemples de réussite, car elles sont parvenues à survivre. La nature a, au fil du temps, créé un grand nombre de combinaisons de codes génétiques possibles. En tâtonnant de la sorte, elle est arrivée petit à petit à générer des codes génétiques qui fonctionnent, survivent et parviennent à dominer leur environnement. »

L’évolution résumée en quelques minutes
Une stratégie qu’Antoine Blondeau s’efforce de reproduire sur le plan informatique. « Cette évolution est parfaitement applicable à un logiciel, sauf qu’au lieu de prendre des milliards d’années, elle prend alors quelques minutes, semaines ou mois en fonction de la taille du problème à résoudre. On peut ainsi créer de manière rapide et approfondie une population de stratégies gagnantes. » Hormis le fait que les êtres ainsi générés sont des intelligences artificielles, et non des êtres vivants, le processus est le même.
Parmi une première génération d’intelligence artificielle, Sentient Technologies sélectionne les plus performantes. Elle utilise ensuite leur ADN pour concevoir une seconde génération mieux adaptée. Au sein de cette génération, les meilleures sont de nouveau sélectionnées pour obtenir une troisième génération encore meilleure, etc. Répétée sur de nombreuses générations, cette technique permet l’émergence d’une intelligence artificielle darwinienne, toujours plus performante et capable de s’adapter à son environnement.
Il est possible de construire des logiciels capables de s’attaquer à n’importe quel type de problème
Avec ce système, il est possible de construire des logiciels capables de s’attaquer à n’importe quel type de problème, sans déployer des ressources humaines considérables. « Pour construire AlphaGo, Google a employé entre dix et vingt docteurs (PhD) pendant trois ans. Notre idée consiste à remplacer la conception humaine par un système intelligent et évolutif qui travaille tout seul sur des milliers de cartes graphiques et de processeurs. » explique Antoine Blondeau.
Cette dimension agnostique et évolutive est vue par beaucoup comme la nouvelle étape de l’intelligence artificielle. « Les programmes de demain seront capables d’interagir en permanence avec leur environnement et de s’améliorer sans cesse grâce à l’expérience. » écrit ainsi Sergey Levine, chercheur en informatique à l’Université de Berkeley. Sentient Technologies n’est d’ailleurs pas la seule entreprise à suivre ce chemin.
Ainsi, Google DeepMind, à qui l’on doit le logiciel AlphaGo, multiplie depuis peu les domaines d’application de son logiciel. L’entreprise a noué un partenariat avec Blizzard afin d’entraîner son intelligence artificielle sur le jeu Starcraft II. Elle a également rendu public le code de son programme sur GitHub, afin d’inciter les chercheurs de tous horizons à l’utiliser et le personnaliser pour résoudre différents types de problèmes.
OpenAi, autre projet financé par Elon Musk et Peter Thiel, a de son côté rendu publique une interface baptisée Universe, qui consiste en une intelligence artificielle capable d’analyser le contenu d’un écran et de manipuler un clavier et une souris. L’objectif : obtenir un système capable d’apprendre à jouer à n’importe quel jeu vidéo. Au-delà des différentes applications, on retrouve cette même volonté de construire un logiciel autodidacte, pouvant s’adapter à n’importe quelle situation. Ainsi, Google applique d’ores et déjà ses compétences acquises en matière d’intelligence artificielle via Google DeepMind à la recherche sur les maladies oculaires liées au diabète, via sa filiale Verily.
Sentient Technologies a de son côté commencé par employer son logiciel dans les domaines de la finance et du commerce en ligne. Aujourd’hui, les seules limites semblent celles de l’imagination. Dans la santé, l’entreprise a mis au point une technique capable de prédire l’apparition d’une septicémie une demi-heure avant qu’elle ne se manifeste aux yeux des médecins.
Une fois approuvée par les autorités médicales, cette méthode permettrait d’accroître considérablement les chances de survie du patient. Elle propose également des services de maintenance prédictive dans l’industrie et l’électroménager, détectant les défaillances en amont. Elle travaille même avec le MIT sur un système permettant de prévoir les chocs sismiques trente minutes avant qu’ils ne se produisent.
En matière de cybersécurité, ce sont les fraudes et cyberattaques qui peuvent être prévues. Citons encore l’agriculture, où les possibilités sont également nombreuses : « Nous avons développé un système de conteneurs intelligents, en partenariat avec le MIT Media Lab. » explique-t-il. « À l’intérieur, l’intelligence artificielle contrôle la lumière, l’humidité, la température, mais aussi les nutriments apportés aux plantes, supervisant leur croissance en temps réel. Cela permet d’améliorer l’efficacité sans avoir recours aux OGM. »

De la place de l’homme
Si l’intelligence artificielle devient à la fois meilleure que l’intelligence humaine pour résoudre des problèmes précis et capable de s’adapter à n’importe quel type de situation, quelle place restera-t-il pour l’humain ? Pas de panique : pour Antoine Blondeau, l’humain n’est pas près de s’effacer au profit de la machine.
Quelle place restera-t-il pour l’humain ?
« Notre cerveau consomme environ 20 watts. Comparé à la puissance énergétique dont un ordinateur de puissance équivalente aurait besoin, c’est très faible. Le cerveau humain a encore de beaux jours devant lui, car il est très efficace, et va le rester. En revanche, l’intelligence artificielle sera de plus en plus utilisée pour les problèmes où la dimensionnalité des données est très importante (plus l’on en a, mieux c’est), d’une part, et où la rapidité d’apprentissage est capitale, d’autre part. Car l’humain est limité à la fois dans sa mémoire et dans sa capacité d’apprentissage, contrairement à la machine.
À terme, peut-être que les machines deviendront plus intelligentes que l’homme, mais cela va prendre beaucoup de temps, et cela sera surtout un processus progressif : on ne va pas se réveiller un matin en réalisant que les machines sont devenues conscientes.
Il ne faut pas non plus perdre de vue l’objectif que nous cherchons à atteindre avec l’intelligence artificielle : elle doit servir à résoudre nos grands problèmes sociétaux, à construire un monde plus juste, plus humaniste, où les gens seront plus heureux. Pour y parvenir, il faut que cette technologie soit disponible pour tout le monde, ne demeure pas l’apanage de quelques personnes. »
Elon Musk ne pourra qu’approuver.

Commentaires
Une intelligence artificielle globale et agnostique peut-elle exister ?
Ca, on n’en sait rien. De toutes façons, je ne suis pas sûr que confondre ainsi intelligence et conscience soit une bonne approche pour faire ce genre de pronostic.
Cette notion d’IA agnostique ressemble à l’hypothétique singularité technologique (une idée pas si neuve que ça). Mais il est vrai que l’approche Darwiniste de la chose est plutôt fascinante.
Quant à l’idée que ça pourrait résoudre tous les problèmes humains… faut arrêter quand-même là : la connerie survivra.
Radamanthe:
J’en profite pour ressortir deux articles à ce sujet :
http://www.techniques-ingenieur.fr/actualite/articles/comment-donner-une-conscience-a-un-ordinateur-2392/
http://web.archive.org/web/20151203185245/http://www.larecherche.fr/savoirs/dossier/science-pourra-t-elle-expliquer-conscience-01-08-2013-124354
Radamanthe:
Scientisme, quand tu nous tiens…
Le premier lien est intéressant. C’est juste dommage qu’à la fin, il retombe dans le syndrome de Frankenstein (désolé, mais ça me sort par les yeux).
T82-135:
Ouaip. Comme le disait si finement Einstein : Deux choses sont infinies : l’Univers et la bêtise humaine. Mais, en ce qui concerne l’Univers, je n’en ai pas encore acquis la certitude absolue.
anon75590001:
L’intelligence artificielle atteindra le stade de la conscience quand elle atteindra les mêmes sommets de bêtise que les humains.
numerama:
Comment une intelligence artificielle pourrait être autre chose qu’agnostique?
Par agnostique, il entend une intelligence indépendante de son créateur (l’humain ici).
anon75590001:
C’est quand meme confus.
agnostique a.ɡnɔs.tik masculin et féminin identiques
[…]
(Informatique) Qui peut s’adapter aux composants avec lesquels il interagit.
Le « socket » (lien, connexion) de la couche de communication est agnostique en ce qui concerne les mécanismes de transports sous-jacents – il est « transport-agnostique ».
https://fr.wiktionary.org/wiki/agnostique
ou :
Journal du Geek – 4 Sep 14
[IFA 2014] K480, un clavier agnostique chez Logitech | Journal du Geek
Logitech n’avait pas qu’une souris à présenter durant l’IFA. Le fabricant d’accessoires bien connu a aussi profité de l’occasion pour annoncer un étonnant clavier Bluetooth. Le K480 est sans doute le clavier le plus agnostique au monde. D’un coup de…
Je t’avoue que j’ai tiqué aussi en lisant la phrase la première fois, mais il faut se mettre à la place de l’IA pour en saisir le sens ici… et ne pas faire l’analogie avec l’abus du terme agnostique en informatique (où aucune entité supposée créatrice n’est impliquée).
En bref, l’idée d’une IA agnostique serait qu’elle serait capable d’évoluer seule sans intervention du créateur. Ce n’est pas encore le cas en apprentissage profond, il faut quand-même régler certains paramètres, il ne s’agit pas seulement de lui faire bouffer quantité d’informations (même si c’est 99% du processus en termes de volume de données).
Je t’accorde volontier qu’il s’agit aussi d’un abus de langage ici.
Justement l’article ne précise pas quel sens d’agnostique il utilise. Si c’est dans le sens technologie agnostique, il devrait renvoyer à une définition. Si c’est dans le sens agnosticisme, on voit pas bien comment l’intelligence artificielle pourrait douter de l’existence de l’humain qu’elle croise tous les jours.
ze_katt:
Le problème, c’est que cette définition là n’existe pas encore L’article devrait plutôt détailler le sens dans un paragraphe.
ze_katt:
Justement, ce n’est pas dans ce sens là. Faut voir… peut-être qu’avec le temps, on trouvera un autre mot plus approprié (à moins que celui-ci soit adopté).
Radamanthe:
Employer dans un article un mot qui n’est pas défini et qui peut conduire a un contresens. Bravo…
C’est vrai que c’était important de le préciser!
En informatique, il y a des résultats assez fondamentaux qui dit que les ordinateurs ne peuvent calculer que les choses faciles (en gros). (Théorème de Rice, Théorème d’incomplétude de Gödel, Tous les théorème d’indécididabilité).
Maintenant, parmi les choses faciles, il y en a qui sont simple conceptuellement (le jeu de go) mais difficile à cause d’une explosion combinatoire. Mais du point de vue de la calculabilité, résoudre le jeu de go c’est pas plus difficile que résoudre le morpion.
Il y a des choses autrement plus difficile que ça, conduire typiquement, c’est déjà plus difficile. Comme pour le jeu de go, les ordinateurs s’en sortent en faisant un peu n’importe quoi, mais un n’importe quoi « good enough », qui permet de faire illusion. Je rentrerais pas dans les détails là.
Mais il y a des choses vraiment difficile, des choses que les ordinateurs ne sauront jamais faire, mais des choses que nous, humains, pouvons aborder avec une relative sérénité. Par exemple faire preuve d’abstraction, découvrir les concept qui transcendent les disciplines, avoir des idées neuves tout simplement.
Alors, c’est un peu toute l’histoire de l’intelligence artificielle cette alternance de « Mon dieu c’est fantastique, ça y est ! On l’a ! » et de « ah non, la vie c’est compliqué, finalement c’est tout pourri ce qu’on fait ».
Une citation tronquée de Flaubert :
Llighn:
Tu t’appuies sur quoi pour affirmer cela ?
T82-135:
C’est par là que j’avais commencé
Llighn:
Et c’est tout ?
Je ne vois pas du tout le rapport.
T82-135:
Heu… tu vois pas le rapport entre :
Llighn:
et
Llighn:
?
Ils sauront jamais faire des choses difficile parce qu’il est prouvé qu’il n’est possible que de faire des choses faciles.
Ok, je vois mieux.
Mais c’est une erreur de raisonnement.Tu fais des déduction qui n’ont pas lieu d’être.
Tu penses que le cerveau humain est capable d’apporter une réponse au problèmes indécidables ?
Tu pense qu’il y a vraiment besoin d’apporter une solution formelle aux problèmes d’indécidabilité pour accomplir les tâches que notre cerveau accomplit au quotidien ?
De plus, ce que tu appels « chose facile » et « chose difficile » est loin d’être absolu, tout dépend des critères que tu choisis.
On doit pas du tout parler de la même chose…
Une machine, ça permet de résoudre des problèmes. Des problèmes simples. Par exemple, un problème tel que “construire un réseau (s’il existe) qui vérifie la propriété X”, c’est déjà trop demandé ! C’est pas plus facile pour un humain, mais c’est déjà trop pour une machine, et c’est à ce genre de choses que les machines sont les meilleures.
L’intelligence humaine c’est autre chose que résoudre des problèmes de maths (encore une fois, les ordinateurs ne font rien d’autre).
Il y a une autre composante importante au problème. Quand un humain fait une erreur, ça montre qu’il est humain. Quand une machine fait une erreur, ça montre qu’elle est défectueuse, et qu’il faut la bazarder (a fortiori si elle coûte une vie).
Enfin, j’ai envie de citer Dijskstra :
Eiffel-fl:
Un réseau de neurones n’est pas un algorithme. Maintenant, je comprend que beaucoup de monde soit confus quand on voit régulièrement des rédacteurs de Numerama parler de deep learning en supposant que la machine explore des milliards de combinaisons pour arriver à ses fins (ce qui est strictement faux dans le cas d’un réseau neuronal, tout comme c’est faux chez un champion de Go).
Elle est loin l’époque ou Ratiatum permettait de se tenir au courant.
Je vais être un peu terre-à-terre et salir ce bel article avec mon cambouis mais je doute un peu de la possibilité du fait de développer une IA capable de s’adapter à la volée.
Un programme est pensé pour résoudre un “problème”, ce programme a besoin d’un code qui est une traduction de l’algorithme de résolution du problème.
Par conséquent si l’on souhaite qu’un programme s’adapte à un nouveau problème lors de son exécution il faudrait qu’il puisse changer son code.
C’est faisable (code automodifiable) mais pour des raisons de sécurité c’est peu conseillé.
Si quelqu’un a une idée d’implémentation je veux qu’il me la partage (peut-être que je suis complètement à l’ouest, l’IA n’est pas vraiment mob domaine).
La réponse est dans l’article : réseaux de neurones artificiels et algorithmes génétique.Soient deux techniques où ce n’est pas l’humain qui programme directement la solution mais la machine elle-même.L’humain intervient au début pour donner la « procédure » qui permettra à la machine de créer ses propres solutions à partir d’une base d’apprentissage et de « mutations » artificielles.
Eiffel-fl:
C’est un peu ça qui ce passe. Un réseau de neurones c’est vraiment un réseau de neurones, chaque neurone est un petit programme qui fait un calcul sur ses entrées et donne son résultat aux autres neurones derrières.
Au départ on a juste un gros tas de neurones bons à rien. La première étape est de régler ces neurones (avec un tas d’exemples), c’est la phase d’apprentissage.
Ensuite, une fois que ce réseau de neurones, on peut s’en servir pour faire des prédiction (sans cesser de le régler).
Au final, c’est bien un programme que l’on a, ou un algorithme, c’est la même chose.
Finalement, c’est pas très important que ces programmes soient du code machines, un langage quelconque interprété dans sa sandbox, ou autre, ça change rien fondamentalement.
Llighn:
Au final, quelque soit la technologie utilisée, le processeur va faire des tests logiques, des jump, des déplacements de valeur, des opérations arithmétiques.
C’est dans le “langage haut niveau” qu’il y a des différences.
Llighn:
Justement non, un vrai neurone n’est pas un programme.
C’est pour ça que je préfère l’expression réseau neuro-mimétique.
Les “neurones” informatiques sont une modélisation des neurones biologiques.
Les réseaux de neurones “informatiques” sont une modélisation des réseaux biologiques.
Le jour où l’on fera des composants électroniques neuronaux et qu’on les reliera entre eux, là on sera vraiment dans des réseaux de neurones.
Si tu utilise des processeurs classiques, oui, tu retombe toujours sur les instructions de bases « gravées » dans le silicium.Mais il existe aussi des puces qui imitent les neurones biologiques.
T82-135:
Avec des neurones qui se créent, des neurones qui meurent ?
Des synapses qui se créent et qui meurt oui (s’activent et se désactivent enfaîte, car tout est pré-câblé je pense), des neurones complet, je ne sais pas.
Un exemple chez IBM :
research.ibm.com
Cognitive computing: Neurosynaptic chips
Learn about neurosynaptic chips – created under SyNAPSE – and how crucial they are in cognitive systems needed to process Big Data.
Je récuse tout notion de progrès dans l’industrie automobile parce que ma voiture est incapable de tricoter un pull.
Non, mais sérieux. Si vous programmez une machine à faire quelque chose, ne vous étonnez pas qu’elle fasse autre chose.
Par exemple, est-ce qu’on peut dire qu’il ne faut pas parler d’intelligence humaine parce que 99,9% de la population ne sait pas extraire une racine carrée à la main ?
Source : xkcd
Ce sujet a été automatiquement fermé après 60 jours. Aucune réponse n’est permise dorénavant.