Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

L'IA Watson d'IBM a donné de mauvais conseils pour traiter des cancers

Utilisée dans un centre de traitement et de recherche sur le cancer, Watson a émis des recommandations dangereuses. L'intelligence artificielle d'IBM travaillait sur des cas hypothétiques, et n'apprenait pas à partir des données de patients réels.

À la fin de l'année dernière, une étude contestait déjà l'efficacité de l'intelligence artificielle Watson dans le domaine médical, et notamment en cancérologie. De nouveaux documents analysés par Stat font aujourd'hui bien plus que de l'accuser d'inefficacité : l'IA serait surtout dangereuse pour les patients.

Le 25 juillet 2018, le média a indiqué s'être procuré des documents internes d'IBM, qui montrent que le superordinateur mis au point par l'entreprise ne répond pas aux attentes.

Il y a cinq ans, le Mémorial Sloan-Kettering Cancer Center (MSKCC) s'est lancé dans un partenariat avec IBM pour entraîner l'intelligence artificielle Watson à diagnostiquer et traiter les patients. Or, si l'on en croit les documents rédigés par l'entreprise pendant l'été 2017, le superordinateur a régulièrement prodigué de mauvaises recommandations.

Des diagnostics dangereux (mais hypothétiques)

À titre d'exemple, Watson a suggéré qu'un patient atteint d'un cancer, et qui avait des saignements importants, devait prendre un médicament qui risquait d'aggraver son hémorragie. Le centre de traitement et de recherche sur le cancer a assuré que cette suggestion n'était qu'une hypothèse, et que Watson ne la prodiguait pas pour soigner un véritable patient.

Les documents ont été révélés par Andrew Norden, juste avant qu'il quitte IBM, où il travaillait en tant que chef adjoint chargé de la santé. Ils révèlent non seulement que les clients étaient insatisfaits de cette technologie, mais que les méthodes employées pour entraîner Watson n'étaient pas rigoureuses.

L'IA a en effet reçu des données qui n'étaient pas véritablement celles de patients : il apparaît que ses calculs étaient plutôt fondés sur des traitements choisis par des médecins, plutôt que sur des éléments analysés à partir de cas réels. Pourtant, un porte-parole d'IBM a assuré à Gizmodo que Watson a pris en charge « plus de 84 000 patients » et continue d'apprendre au fur et à mesure.

Les critiques adressées à l'encontre de la technologie montrent en tout cas que l'utilisation des intelligences artificielles dans le domaine médical nécessite une surveillance humaine : aussi efficaces soient les calculs de Watson, l'IA semble incapable de conseiller les bons traitements sans apprendre à partir de cas réels.