Attaqué sur le front de la vie privée, Apple fournit plus de détails sur son outil de lutte contre la pédopornographie et sur les ambitions qui l'accompagne.

Au milieu d’une controverse concernant son outil de lutte contre la pédopornographie, Apple a pris la parole pour tenter de mieux expliquer le fonctionnement du fameux algorithme NeuralMach, au cœur de la polémique.

Quels sont les garde-fous ?

Dans un document publié le lundi 9 aout, Apple répond aux critiques les plus sérieuses qui lui ont été adressées, dont celles concernant les éventuels risques de dérive autoritaires d’un tel outil. « Soyons clairs, cette technologie est limitée à la détection de contenu pédopornographique stocké dans cloud et nous n’accéderons à aucune demande gouvernementale visant à l’étendre », écrit l’entreprise.

Interrogé sur le sujet, Apple ne nie pas les éventuels problèmes que pourrait poser cet outil, mais tente de rassurer sur son impact global. Pour le moment, NeuralMatch n’est déployé qu’aux États-Unis avec la collaboration d’une association de défense pour le droit des enfants. Une éventuelle extension ne se fera qu’après une analyse sérieuse des risques associés dans chaque pays, nous explique le constructeur. Le groupe ne s’est pas étendu sur l’hypothèse que des pays aux lois plus strictes puissent chercher à le contraindre juridiquement à étendre le dispositif à leur territoire, et assure juste qu’il regardera de près tous ces aspects-là.

Au-delà des aspects géopolitiques, Apple précise que d’autres garde-fous techniques existent. Premièrement, les utilisateurs et utilisatrices seront prévenus qu’un tel outil est présent sur leurs systèmes et pourront toujours désactiver la synchronisation iCloud, rendant l’outil caduc puisque seules les photos envoyées sur le web feront l’objet d’un traitement.

La garantie 100 % n’existe pas

La vérification humaine effectuée en bout de course, en cas de problème, offre un dernier filet de sécurité. Apple assure ne pas travailler directement avec les autorités, préférant être en contact avec des associations.

Le mécanisme de déchiffrement des données se fait en 3 étapes sécurisées selon Apple // Source : Apple

Dans le domaine, le risque zéro n’existe pas : aucune mesure ne peut garantir à 100 % que cet outil ne sera jamais détourné. Apple estime qu’en limitant la portée de NeuralMatch et en rendant le mécanisme le plus sophistiqué et complexe possible, les risques d’abus seront moindres. Le dossier est de caractère sensible. Même si Apple est généralement assez ferme sur le question de la protection de la vie privée, il faudra rester attentif au fonctionnement concret de ce futur outil et à la manière dont il sera mis en place.

Partager sur les réseaux sociaux

La suite en vidéo