Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Pour la défense américaine, la confiance entre l'homme et l'IA passe par la communication

L'agence de recherche de la défense américaine a doté une équipe de professeurs en informatique de l'université d'État de l'Oregon d'une bourse de 6,5 millions de dollars sur 4 ans. Les scientifiques doivent développer un système permettant aux intelligences artificielles d'expliquer leur comportement à l'homme, qu'elles équipent trouvent des drones ou des voitures autonomes. 

Seriez-vous plus à l'aise à bord d'une voiture autonome si celle-ci était capable de vous expliquer son comportement sur la route ? Les professeurs d'informatique de l'université d'État de l'Oregon en sont convaincus. Et leur assurance a visiblement séduit la Darpa, l'agence de recherche de la défense américaine : elle vient de leur attribuer une bourse de 6,5 millions de dollars sur 4 ans pour travailler à l'élaboration d'un tel système.

Leur objectif est clair : renforcer la confiance des humains vis-à-vis des intelligences artificielles, appelées à investir de nombreux futurs domaines du quotidien -- les véhicules autonomes, donc, mais aussi les robots -- en permettant à ces dernières de leur expliquer leur comportement.

L'équipe précise : « La réussite de la branche des neurones artificiels a permis d'importantes avancées au sein de systèmes autonomes capables de percevoir, d'apprendre, de décider et d'agir par eux-mêmes. Mais leur problème reste leur fonctionnement en boîte noireAvec le deep learning, en lieu et place d'humains qui codent de manière explicite le comportement du système en recourant à la programmation traditionnelle, le programme informatique apprend de lui-même grâce à de nombreux exemples. Cette dépendance à un système que même les développeurs ne comprennent pas entièrement fait émerger des dangers potentiels. »

Première prise de contact sur StarCraft

Si les amateurs de Star Wars imaginent déjà un système d'échange comme celui de Luke Skywalker et de R2-D2 à bord d'un X-Wing, Alan Fern, directeur associé de la filière de robotique et de systèmes intelligents de l'établissement, indique : « Au final, nous voulons que ces explications restent naturelles, en traduisant ces décisions de neurones profonds en phrases et en visualisations. »

Cette partie axée sur les communications obligera l'équipe à faire appel à des experts en vision par ordinateur et en traitement automatique du langage naturel. Pour débuter, les scientifiques s'appuieront sur des jeux de stratégie en temps réel, comme StarCraft, pour permettre aux « IA » d'expliquer leur comportement aux joueurs humains -- alors que le titre phare de Blizzard sert déjà de support à l'IA DeepMind de Google. Les phases suivantes concerneront potentiellement les projets de la Darpa liés à la robotique et aux drones.

Alan Fern est convaincu que cette avancée est indispensable pour aboutir à la démocratisation des IA : « Personne ne va recourir à ces technologies émergentes pour des usages primordiaux tant que nous ne serons pas capables de créer un niveau de confiance : [les] doter d'une capacité explicative est un moyen important de créer cette confiance. »

Reste à savoir si un tel dispositif suffira à rassurer des entrepreneurs comme Elon Musk, qui ne cache pas ses craintes vis-à-vis du développement non encadré de l'IA : il a même fondé en 2015 le collectif OpenAI pour « faire avancer l’intelligence numérique de la manière qui serait la plus profitable à l’humanité, sans que ces recherches soient dictées par le besoin d’un retour sur investissement  ».