Le débat sur le recours aux intelligences artificielles et leurs capacités occupe aujourd’hui le devant de la scène, qu’il s’agisse de leur impact dans le monde du travail ou de leur utilisation à des fins militaires. Cette dernière thématique était au cœur d’une conférence de cybersécurité tenue au RSA 2017 de San Francisco par Eric Schmidt, le directeur exécutif d’Alphabet, la société mère de Google.
Schmidt a souligné l’importance d’empêcher la « militarisation » d’Internet par des intelligence artificielles. Il appelle à leur développement transparent : « Les avancées sur le processus d’apprentissage des machines doivent être faites de manière ouverte et pas dans des labos de recherche militaire. […] Les industriels doivent se demander si l’on peut trouver un moyen pour que les pays puissent s’accorder de façon à ne pas utiliser les IA pour militariser Internet. »
Sensibiliser le public aux IA
Ainsi, le cadre d’Alphabet mise sur une recherche transparente des intelligences artificielles, qui rapprocherait les développeurs du grand public pour le sensibiliser sur le sujet, parfois jugé comme inquiétant. Les propos de Schmidt peuvent surprendre quand on sait qu’il conseille aussi le Pentagone,
D’après lui, les entreprises doivent publier leurs codes en open source pour favoriser cette ouverture, comme Google l’a fait avec son TensorFlow 1.0, qui permet d’entamer le processus d’apprentissage pour les IA.
Les initiatives pour réguler le développement des IA se multiplient dans le monde de la tech ces derniers temps, comme avec le collectif « Partnership on AI », composé notamment d’Apple, de Google, Facebook, IBM et Amazon, ou encore avec l’adoption des 23 principes d’Asilomar.
Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !