Une vingtaine d’experts ont rédigé un rapport dans lequel ils présentent les risques liés à l’intelligence artificielle. Selon le texte, le plus alarmant serait que la technologie tombe entre de mauvaises mains.

L’intelligence artificielle pourrait provoquer la troisième guerre mondiale. Elle pourrait aussi remplacer complètement les êtres humains. Ces prédictions, respectivement attribuées à Elon Musk et Stephen Hawking, sont loin de convaincre l’ensemble des experts spécialisés dans l’intelligence artificielle. Ils ne croient guère à un scénario alarmiste du type suivant : les êtres humains risquent de créer une IA aux effets secondaires dévastateurs, y compris pour leur propre survie.

Plutôt que de s’interroger sur les dommages involontaires dont l’IA pourrait être à l’origine, et si les êtres humains commençaient d’abord par considérer les usages volontairement néfastes qui pourraient être faits de cette technologie ? Autrement dit, l’utilisation de l’IA à des fins clairement malveillantes et/ou criminelles ne serait-il pas davantage à craindre qu’un hypothétique scénario à la Terminator ?

100 pages sur les usages malveillants de l’IA

C’est fort probable, répondent aujourd’hui vingt-six experts dans un rapport baptisé « L’utilisation malveillante de l’intelligence artificielle : anticipation, prévention et modération » (« The Malicious Use of Artificial Intelligence : Forecasting, Prevention, and Mitigation »).

Ce document d’une centaine de pages a été rédigé par des chercheurs de plusieurs organisations, que sont l’Institut pour l’avenir de l’humanité (le FHI, rattaché à l’université d’Oxford), le Centre pour l’étude des risques existentiels (le CSER, rattaché à l’université de Cambridge), le Centre pour une nouvelle sécurité américaine (le CNAS, un think tank basé à Washington DC), l’Electronic Frontier Foundation (l’EFF, une ONG basée à San Francisco) et OpenAI (association de recherche également située à San Francisco).

intelligence-artificielle

Les chercheurs et universitaires y présentent les différentes manières dont l’IA pourrait être employée à des fins malveillantes, et les attitudes que nous pourrions adopter pour éviter ces situations. La temporalité choisie est volontairement courte : cinq ans.

« Nous analysons, sans pour autant la résoudre en conclusion, la question de savoir quel sera l’équilibre à long terme entre les attaquants et les défenseurs. Nous nous concentrons plutôt sur les différentes sortes d’attaques que nous sommes susceptibles de voir bientôt si des défenses adéquates ne sont pas mises en place », écrivent-ils.

Menaces et nouveaux dangers

L’étude explore les manières dont l’IA pourrait être exploitée pour menacer à la fois les systèmes de sécurités physiques et numériques, ou pourrait créer de nouveaux dangers. Le texte formule ensuite plusieurs recommandations, notamment adressées aux ingénieurs, pour qu’ils aient conscience des usages qui pourraient être faits de leurs travaux.

Tout d’abord, le rapport invite les décideurs politiques à « collaborer étroitement avec les chercheurs pour étudier, prévenir et modérer les utilisations malveillantes potentielles de l’IA ».

La collaboration des chercheurs et décideurs politiques

Les chercheurs font observer que l’IA pourrait avoir pour effet de réduire le coût de certaines attaques : la technologie se chargerait en effet « d’accomplir des tâches qui requièrent habituellement du travail humain, de l’intelligence et de l’expertise ». Le rapport anticipe ainsi que les IA pourraient servir à accomplir des tâches « autrement impraticables pour les êtres humains ».

« Nous pensons qu’il y a des raisons de s’attendre à ce que les attaques permises par l’utilisation croissante de l’IA soient particulièrement efficaces, ciblées, difficiles à attribuer et susceptibles d’exploiter les vulnérabilités des systèmes d’IA », poursuit le texte.

artificial intelligence

Trois domaines concernés

Les chercheurs distinguent ainsi trois domaines dans lesquels la nature des « menaces » liée à l’usage de l’intelligence artificielle pourrait changer. En matière de sécurité numérique, tout d’abord, l’étude suppose que l’automatisation des tâches risque d’ « augmenter la menace associée aux cyberattaques à forte intensité de main-d’œuvre (comme le phishing) ».

Les auteurs anticipent également des attaques exploitant la synthèse vocale pour usurper des identités, l’automatisation du piratage, ou l’exploitation des propres vulnérabilités des IA (en les trompant à l’aide d’exemples contradictoires ou de « données empoisonnées »).

Dans le monde physique, le rapport anticipe la possibilité que les intelligences artificielles soient utilisées pour déployer des systèmes d’armes autonomes, par exemple des drones. Ils évoquent également le risque que des attaques provoquent des accidents de véhicules autonomes.

Des attaques qui pourraient provoquer des accidents de voitures autonomes

Le troisième domaine est celui de la sécurité politique. Le rapport envisage que l’IA serve à automatiser des analyses de données en masse, la diffusion de propagande et la manipulation des contenus vidéo. « Nous nous attendons également à de nouvelles attaques tirant parti d’une capacité améliorée pour analyser les comportements humains, les humeurs et les croyances sur la base des données disponibles ». Les chercheurs notent que ces risques concernent tout particulièrement les États dits autoritaires, mais qu’ils pourraient aussi toucher les pays plus démocratiques.

« J’aimerais adopter un point de vue optimiste, qui est celui que nous pourrions faire davantage, explique Miles Brundage, membre FHI et co-auteur du rapport. Il ne s’agit pas ici de dépeindre un tableau catastrophique — beaucoup de mécanismes de défense pourraient être développés, et nous avons beaucoup à apprendre. Je ne pense pas que ce soit sans espoir, mais je vois ce document comme un appel à l’action. »


Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.