Dans une lettre adressée à Google, des employés de l’entreprise demandent l’annulation d’un partenariat avec le gouvernement américain. La firme travaille sur une intelligence artificielle, dont l’éthique est questionnée dans son application militaire.

Il y a désormais plus d’un mois, les projets de Google avec le département de la défense des États-Unis étaient dévoilés sous le nom énigmatique de « Project Maven ». La firme de Mountain View avait alors conclu un partenariat avec le gouvernement américain, afin de développer une intelligence artificielle capable d’analyser les images enregistrées via des drones par les militaires.

Discuté pendant plusieurs semaines, puis dévoilé en interne par mail, le projet avait déclenché le mécontentement de plusieurs employés de Google. Ils reprochaient à l’entreprise d’offrir son aide et des ressources technologiques à des fins de surveillance militaires. Ils s’inquiétaient des questionnements éthiques soulevés par un tel usage de l’apprentissage machine.

Une lettre signée par 3 100 employés

Le 4 avril 2018, la situation a pris un nouveau tournant : dans une lettre officiellement adressée à Sundar Pichai, le CEO de l’entreprise, plus de 3 100 signataires demandent l’annulation du projet.

« Nous pensons que Google ne devrait pas être dans le business de la guerre. Par conséquent, nous demandons que le projet Maven soit annulé et que Google rédige, publie et applique une politique qui mentionne clairement que ni Google ni ses prestataires ne construiront jamais des technologies de guerre », écrivent les signataires du texte.

Ils poursuivent : « Nous ne pouvons pas étendre la responsabilité morale de nos technologies à des tiers. Les valeurs affichées par Google le disent clairement : chacun de nos utilisateurs nous fait confiance. Ne le compromettez jamais. Jamais. […] Construire cette technologie pour aider le gouvernement américain dans sa surveillance militaire — et des conséquences potentiellement mortelles — n’est pas acceptable. »

En réponse à cette lettre, un porte-parole de Google a fait savoir que « toute utilisation militaire de l’apprentissage profond soulève naturellement des préoccupations valables. Notre entreprise est actuellement engagée dans une discussion approfondie à ce sujet important, ainsi qu’avec des experts externes ».

Ce sont « des préoccupations valables », répond Google

Bien que Google se défende en avançant que sa technologie n’est conçue qu’à « des fins non offensives », les employés s’inquiètent de l’usage que la sphère militaire pourrait faire de cet outil une fois qu’il lui sera donné.

D’ailleurs, l’entreprise n’est pas la seule à travailler en partenariat avec le département de la défense : Amazon et Microsoft proposent également leurs produits au gouvernement américain.

Découvrez les bonus

+ rapide, + pratique, + exclusif

Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.

Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+

Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !