Pour lutter contre la pédocriminalité, Apple pourrait mettre en place un nouveau système d’analyse des photos stockées sur iPhone et iCloud, nous apprend le Financial Times. La firme de Cupertino avait déjà indiqué en 2020 pratiquer certaines analyses à ce sujet, sur les clichés qui se trouvent sur iCloud. L’article du Financial Times révèle cependant qu’Apple envisage de réaliser un scan plus poussé afin de détecter les clichés pédopornographiques susceptibles de se trouver sur des iPhone ou iCloud.
Selon le média américain, le système utilisé, baptisé neuralMatch, sera capable « d’alerter de manière proactive une équipe d’analystes humains s’il pense avoir détecté des images illégales. S’il s’avère que c’est le cas, les équipes alerteront alors les forces de police ». neuralMatch devrait, dans un premier temps, être déployé aux États-Unis. Selon le Financial Times, il serait chargé d’attribuer une sorte de « score de sécurité » à chaque photo. Si plusieurs photos venaient à être catégorisées par l’outil comme suspectes, neuralMatch enverrait alors une alerte.
D’autres sociétés de la tech mènent des analyses similaires
Apple n’a pour le moment pas fait de commentaire sur le sujet mais le FT indique que la société pourrait dévoiler officiellement plus de détails sur le système dans les prochains jours. Selon le média, elle aurait pris contact avec différents universitaires américains. Plusieurs académiques s’inquiètent du risque qu’un tel outil puisse être détourné par des états autoritaires, afin de détecter des actions qui n’auraient rien à voir avec des faits de pédocriminalité et de surveiller leurs populations.
Apple ne serait pas la première société tech à réaliser ce type d’analyse. En 2014, Google avait signalé aux autorités un internaute qui avait envoyé des photos pédopornographiques via Gmail. « Malheureusement, toutes les entreprises du net sont confrontées à des cas d’abus sexuel sur mineur. C’est pourquoi Google retire activement les images illicites de ses services – incluant le moteur de recherche et Gmail – et adresse immédiatement une notification au centre national pour les enfants disparus et maltraités », avait fait savoir le groupe à l’époque.
Google avait précisé que ce centre s’occupait d’un outil appelé CyberTipline qui permettait aux fournisseurs de services Internet de relayer aux forces de l’ordre des informations sur des cas d’abus sexuel sur mineur repérés sur internet. « Chaque image représentant de la pornographie infantile se voit attribuer une empreinte numérique unique qui permet à nos systèmes d’identifier ces photos, même dans Gmail », avait expliqué Google. Le géant de Mountain View avait précisé que cet outil n’était utilisé que pour détecter et lutter contre la pédopornographie. Cette technologie, précisait l’entreprise, n’était pas employée « sur d’autres contenus du mail qui pourraient être associés à une activité illégale, par exemple, utiliser le mail pour préparer un cambriolage. »
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.