Apple pourrait scanner les photos stockées sur iPhone et iCloud afin de détecter les clichés pédopornographiques. Selon le Financial Times, cet outil baptisée neuralMatch sera déployé dans un premier temps aux Etats-Unis.

Pour lutter contre la pédocriminalité, Apple pourrait mettre en place un nouveau système d’analyse des photos stockées sur iPhone et iCloud, nous apprend le Financial Times. La firme de Cupertino avait déjà indiqué en 2020 pratiquer certaines analyses à ce sujet, sur les clichés qui se trouvent sur iCloud. L’article du Financial Times révèle cependant qu’Apple envisage de réaliser un scan plus poussé afin de détecter les clichés pédopornographiques susceptibles de se trouver sur des iPhone ou iCloud.

Selon le média américain, le système utilisé, baptisé neuralMatch, sera capable « d’alerter de manière proactive une équipe d’analystes humains s’il pense avoir détecté des images illégales. S’il s’avère que c’est le cas, les équipes alerteront alors les forces de police ». neuralMatch devrait, dans un premier temps, être déployé aux États-Unis. Selon le Financial Times, il serait chargé d’attribuer une sorte de « score de sécurité » à chaque photo. Si plusieurs photos venaient à être catégorisées par l’outil comme suspectes, neuralMatch enverrait alors une alerte.

D’autres sociétés de la tech mènent des analyses similaires

Apple n’a pour le moment pas fait de commentaire sur le sujet mais le FT indique que la société pourrait dévoiler officiellement plus de détails sur le système dans les prochains jours. Selon le média, elle aurait pris contact avec différents universitaires américains. Plusieurs académiques s’inquiètent du risque qu’un tel outil puisse être détourné par des états autoritaires, afin de détecter des actions qui n’auraient rien à voir avec des faits de pédocriminalité et de surveiller leurs populations.

Apple ne serait pas la première société tech à réaliser ce type d’analyse. En 2014, Google avait signalé aux autorités un internaute qui avait envoyé des photos pédopornographiques via Gmail. « Malheureusement, toutes les entreprises du net sont confrontées à des cas d’abus sexuel sur mineur. C’est pourquoi Google retire activement les images illicites de ses services – incluant le moteur de recherche et Gmail – et adresse immédiatement une notification au centre national pour les enfants disparus et maltraités », avait fait savoir le groupe à l’époque.

Google avait précisé que ce centre s’occupait d’un outil appelé CyberTipline qui permettait aux fournisseurs de services Internet de relayer aux forces de l’ordre des informations sur des cas d’abus sexuel sur mineur repérés sur internet. « Chaque image représentant de la pornographie infantile se voit attribuer une empreinte numérique unique qui permet à nos systèmes d’identifier ces photos, même dans Gmail », avait expliqué Google. Le géant de Mountain View avait précisé que cet outil  n’était utilisé que pour détecter et lutter contre la pédopornographie. Cette technologie, précisait l’entreprise, n’était pas employée « sur d’autres contenus du mail qui pourraient être associés à une activité illégale, par exemple, utiliser le mail pour préparer un cambriolage. »

Partager sur les réseaux sociaux

La suite en vidéo