L’intelligence artificielle va-t-elle causer d’importants dégâts dans les prochaines années ? C’est en tout cas la crainte évoquée par Eric Schmidt, ex-CEO de Google.

L’IA va-t-elle finir par tuer des gens ? Si ce scénario semble tout droit inspiré d’un film de science-fiction, Eric Schmidt, CEO de Google entre 2001 et 2011, assure qu’il pourrait devenir réalité. Un temps membre de la Commission nationale de sécurité sur l’IA aux États-Unis, il partage aujourd’hui ses craintes liées au développement rapide des modèles d’intelligence artificielle.

Pour Schmidt, l’IA va poser de sérieux problèmes au fil de son développement. Les autorités locales doivent s’assurer que la technologie n’est pas « utilisée à mauvais escient par des personnes malveillantes », a-t-il alerté à l’occasion du Wall Street Journal’s CEO Council à Londres mercredi 24 mai, relayé notamment par CNBC.

Une fiction bientôt réelle ?

Eric Schmidt décrit le « risque existentiel » comme le principal danger de l’IA dans le futur. L’ex-PDG de Google définit ce biais comme susceptible de provoquer un « très grand nombre de personnes blessées ou tuées. » Mais alors, comment une technologie virtuelle pourrait-elle affecter le réel ? Le spécialiste évoque de nouvelles découvertes pouvant potentiellement affecter le cours de l’humanité.

deep learning IA GPT
Source : Numerama avec Midjourney

« Il existe des scénarios, non pas aujourd’hui, mais dans un avenir assez proche, où ces systèmes seront capables de trouver des exploits de type « zero-day » (des failles de sécurité encore inconnues des développeurs, NDLR) dans le domaine de la cybernétique, ou de découvrir de nouveaux types de biologie », assure-t-il.

Une menace fictive aujourd’hui, mais « susceptible de se vérifier » dans l’avenir. Et Schmidt ajoute : « Lorsque ce moment viendra, notre objectif est d’être parés pour empêcher que ces technologies soient utilisées de manière malveillante par des personnes malintentionnées. »

Un débat sans fin

Le PDG d’OpenAI rejoint Eric Schmidt sur ce constat. Dans une note publiée lundi 22 mai sur le site de la société, Sam Altman estimait que le principal danger d’une intelligence artificielle générale (plus intelligente que les humains) était le « risque existentiel. » Un point de vue à nuancer qui reste l’objet d’un vif débat au sein de la communauté scientifique de l’IA.

Eric Schmidt assure que la question doit dépasser le cadre de la simple réglementation. C’est « une question plus large pour la société » assure-t-il. Il juge toutefois peu probable qu’une instance nationale en charge de l’IA soit mise en place aux États-Unis.

Les craintes soulevées par Schmidt font écho au sempiternel débat sur l’arrivée imminente d’une intelligence artificielle générale (AGI). Le 29 mars dernier, plus de 1 125 noms de la tech mondiale (dont Elon Musk, Steve Wozniak ou John Hopfield) ont co-signé une lettre et demandé un moratoire et une pause dans le développement de l’IA. Un appel rapidement contesté par d’autres grands noms du secteur. Un débat encore loin d’être clos.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !