Numerama & France Culture
Cet article est extrait de la chronique du 15 décembre de Numerama dans le Meilleur des mondes, l’émission de France culture qui questionne le numérique, dont Numerama est partenaire.
L’AI Act, c’est aussi difficile à prononcer qu’à comprendre. Pour simplifier les choses, beaucoup se sont focalisés sur un élément marquant du texte : l’interdiction du score social, ou social scoring. C’est l’idée d’attribuer une note moyenne à un être humain en fonction de son comportement : elle peut baisser ou augmenter dans le temps.
Je vous l’explique, mais en réalité, depuis le temps qu’on nous bassine avec ça, je suis sûre que tout le monde en avait déjà entendu parler. On le doit surtout à cet épisode de Black Mirror diffusé en 2016 sur Netflix, appelé Nosedive, où tous les protagonistes se notent entre eux.
Le score social, c’est l’épouvantail qu’on brandit comme la plus grande menace algorithmique possible. C’est devenu l’exemple consensuel par définition : qui pourrait défendre un tel concept ? C’est pour cela que l’Europe aime s’en emparer dès qu’elle le peut.
En octobre 2021 déjà, le Parlement européen s’était positionné contre la « notation sociale », estimant qu’elle était « contraire aux droits fondamentaux et à la dignité humaine. » Encore 6 mois plus tôt, la Commission européenne avait déjà classé la notation sociale comme un « risque inacceptable », soit le risque le plus haut pour les dangers de l’IA.
Regarder le score social pour ne pas voir le reste
Il est de bon ton de soulever l’hypocrisie derrière cette levée de boucliers. Oui, il est utile d’anticiper le pire. Mais il faut aussi regarder ce qu’il se passe autour de nous et peut-être balayer devant notre porte. Les citoyens se notent déjà depuis des années.
Il y a les Airbnb, Uber et autres Deliveroo, les services qui vous demandent de donner entre une et 5 étoiles au travail d’un autre. Note qui va déterminer ses propres conditions d’exercice à lui. Vous allez me dire que je ne cite que des entreprises privées. Ce serait méconnaitre certaines fondations administratives de notre société.
Récemment, le Monde et l’association la Quadrature du Net ont dévoilé comment fonctionnait l’algorithme de la CAF. La Caisse d’allocations familiales détermine selon chaque profil un « score de risque » En gros, une note qui permettrait de prédire si l’allocataire est plus susceptible de frauder. Surprise ! on découvre que cela défavorise certains profils, comme les femmes seules ou les plus précaires.
Mais ça ne s’arrête pas là : notre système éducatif tout entier repose lui aussi sur des notations. À l’école, les élèves enchaînent les bonnes ou les mauvaises notes, des 1/10 des 18 /20, les aiguillant parfois dans des tunnels de parcours dont il est ensuite difficile de s’échapper.
L’IA a bon dos. On ne l’a pas attendue pour générer des mécanismes intrinsèquement biaisés. Agiter le spectre du score social, c’est simplement pointer du doigt l’arbre qui cache la forêt.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !