Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Microsoft veut qu'on respecte Cortana autant qu'une vraie femme

Microsoft ne veut pas que Cortana serve de défouloir aux remarques sexistes. Aussi l'entreprise américaine a-t-elle décidé que son assistant personnel ne se laissera pas faire.

Les assistants personnels utilisant une voix féminine pour répondre aux demandes des usagers doivent-ils les remettre à leur place lorsqu'ils franchissent la ligne rouge ? C'est la position que privilégie Microsoft avec Cortana : en effet, son application pour mobile peut produire des réponses exprimant le mécontentement du logiciel si les questions s'avèrent déplacées.

C'est ce qu'a révélé Deborah Harrison, une éditorialiste travaillant dans la division Cortana de Microsoft, à CNN.

Elle explique qu'au moment du lancement de l'assistant personnel en 2014, « une bonne partie des requêtes initiales concernait sa vie sexuelle ». Un constat qui a visiblement déstabilisé l'équipe en charge de concocter les réponses de Cortana. Au début, en tout cas. Car désormais, Cortana ne se laisse plus faire. « Si vous lui parlez comme le dernier des con***ds, elle s'énervera ».

Car pour Microsoft, les choses sont claires : il n'est pas question que Cortana puisse servir à reproduire certainement comportement sociaux qui ne devraient avoir cours au 21ème siècle. « Nous voulions être très prudents sur le fait qu'elle ne paraisse pas subordonnée d'une quelconque façon... ou d'éviter de mettre en place une dynamique que nous ne voulons pas perpétuer socialement ».

Autrement dit, que les hommes utilisant Cortana se sentent autorisés à la considérer comme un paillasson parce que le logiciel utilise une voix féminine. « Ce n'est pas le genre d'interaction que nous voulons encourager », ajoute Deborah Harrison.

La politique suivie par Microsoft sur ce terrain est visiblement assez novatrice, puisque l'on ne retrouve pas vraiment cette approche dans d'autres assistants personnels utilisant une voix féminine. Dans le cas de Siri par exemple, les réponses données par le logiciel à nos questions n'ont pas révélé clairement une volonté de nous remettre à notre place parce que nous étions grossiers ou trop curieux.

En organisant Cortana de façon à réagir lorsque les usagers se laissent aller au sexisme, Microsoft intègre de fait dans son logiciel une dimension politique et morale pour contrer toute attitude discriminatoire en raison du sexe. Or, est-ce le rôle d'un programme d'interpréter non seulement ce que dit un utilisateur, mais aussi d'indiquer si ce qu'il dit est bien ou mauvais ?

Ce faisant, et peut-être inconsciemment, Microsoft repose la question du droit des robots, ou du droit de l'IA. La question s'est en effet posée de savoir s'il fallait accorder aux robots les mêmes droits qu'aux animaux, qu'il est interdit de maltraiter, non pas seulement parce qu'il s'agit d'êtres vivants, mais aussi (selon une vision partagée par Saint Thomas d'Aquin, Locke ou Kant) parce qu'il faut encourager l'homme à se respecter lui-même, et à donc à ne pas céder à ses pulsions

Cortana est bien entendu le reflet de l'entreprise qui la conçoit. En l'occurrence Microsoft, une société occidentale et plus spécifiquement américaine. Or, les valeurs du groupe ne sont pas le reflet de toutes les valeurs du monde. Il y a ce qui peut choquer en Occident et ce qui ne heurte pas dans d'autres régions du monde (il faut souhaiter que le sexisme n'en fasse pas partie). Et surtout, inversement, il y a ce qui paraît normal ou tolérable sous nos latitudes, qui devient au moins aussi répréhensible que le sexisme sous d'autres cultures. Que faut-il faire de ces sensibilités là ?

Car au-delà du sexisme, qui est absolument et universellement condamnable, c'est la question de l'universalisation de la morale qui se pose. Selon quels standards faut-il qu'une IA réagisse ? Qui la définit ? Où commence l'immoralité et où finit-elle ?

Avec cette approche, Microsoft a peut-être mis le doigt dans un engrenage qui pourrait lui donner du fil à retordre à l'avenir. Et si la lutte contre certains phénomènes (sexisme d'abord, racisme ensuite ?) à travers Cortana semble tout à fait légitimes, au regard du progrès évident que cela peut apporter à une société, d'autres sujets peuvent faire figurer des positions plus contrastées.

Faudrait-il, par exemple, que Cortana prenne en ligne de compte les considérations des principales religions, en réagissant par exemple lorsque l'utilisateur insulte une figure sainte ou effectue une recherche particulière (les images du prophète Mahomet) ? Ou rejette les requêtes pornographiques lorsqu'elles reflètent une vision avilissante de la femme.

Peut-être qu'à ces questions, la réponse de Microsoft sera de créer à terme des versions localisées de Cortana qui prendront chacune en compte le système de valeurs du marché dans lequel elles évolueront. Mais cela risque fort de soulever d'autres problématiques, car les points de vue sur la morale ne sont pas uniformes, même au sein d'une société donnée.