Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Les intelligences artificielles et Elon Musk : une histoire d'inquiétude et de transparence

Parmi les nombreuses obsessions du milliardaire américain, il y en a une qui le trouble profondément : la question du contrôle des IA. L'histoire commence avec les premiers investissements d'Elon Musk dans une startup appelée DeepMind ...

Elon Musk est un homme qui multiplie les projets et les obsessions : on peut citer la colonisation de Mars, sauver la planète du réchauffement climatique, construire des tunnels et équiper les humains d'un lacet neuronal pour les allier aux machines. Mais l'une d'entre elles l'inquiète en particulier : la question des intelligences artificielles et de leur impact sur l'humanité.

D'après un long format publié dans Vanity Fair, l'entrepreneur avait commencé à se préoccuper des IA, lors de ses premiers investissements dans DeepMind, avant que la startup ne soit  rachetée par Google en 2014.

En effet, le boss de Tesla explique qu'il avait fait cela pour observer les développements technologiques dans ce domaine prometteur. Mais ses avancées rapides l'on tellement surpris qu'il a rapidement constaté qu'il fallait intégrer des régulations pour éviter le pire : « Je pense que les technologies liées à l'intelligence artificielle avancent à un rythme tellement rapide que les gens ne s'en aperçoivent pas. Notamment, parce que dans la vie quotidienne nous ne voyons pas de robots se balader. Alors oui, on voit un Roomba ou quelque chose de ce genre. Mais les Roomba ne vont pas conquérir le monde. »

Un algorithme invisible

C'est pour cela que l'entrepreneur a fondé OpenAI, une organisation dont le but est de participer à l'avancée générale des intelligences artificielles de manière responsable, en contrôlant et partageant les données autour de ces recherches. Mais sa croisade ne se termine pas ici, car il a récemment créé une autre entreprise, Neuralink, dont l'objectif consiste à développer de la technologie qui puisse s'intégrer au corps humain, notamment au cerveau. Une clef pour mieux « contrôler » les intelligences artificielles ?

Musk relance : « La question de l'intelligence artificielle c'est qu'il ne s'agit pas d'un robot, mais d'un algorithme informatique présent sur un réseau. Par conséquent, le robot serait seulement un agent : un ensemble de capteurs et d'activateurs. L'IA est sur Internet... L'important, c'est de trouver une manière d'arrêter un algorithme hors de contrôle avec le collectif des intelligences humaines, si jamais nous en concevons un. Mais s'il y avait une IA étendue et centralisée, qui peut prendre des décisions, alors il n'y aurait plus de moyens pour l'arrêter. »

L'entrepreneur californien n'est pas le seul technocrate à s'inquiéter de cette question délicate : Bill Gates, Eric Schmidt et Stephen Hawking soulignent, eux aussi, le besoin d'entamer un processus de régulation sur les grandes avancées effectuées par les conglomérats technologiques comme Facebook ou Alphabet.

Des initiatives pour mieux contrôler l'avancée

Même une tâche simple, si elle n'est pas contrôlée de manière efficace, pourrait porter à l' « apocalypse », selon Musk : « Prenons un exemple : nous créons une IA capable de s'améliorer dans une tâche aussi simple que recueillir des fraises. Elle devient de plus en plus douée à le faire et elle en prend de plus en plus, en voulant prendre uniquement des fraises. À un certain moment, elle pourrait vouloir transformer le monde entier en un champ de fraises. Des champs de fraises pour toujours. »

À vrai dire, plusieurs initiatives ont déjà pris forme, comme celle de Partnership on AI, où les grands entreprises tech se sont réunies pour partager leurs découvertes et leurs questions sur les intelligences artificielles, ou les 23 Principes d'Asilomar, qui veulent encadrer un développement éthique des IA.