Instagram a décidé de sévir à propos des images d’automutilation. Cette annonce fait suite à la médiatisation du suicide d’une adolescente, qui avait consulté de tels contenus sur le réseau social.

Pressé par l’actualité, Adam Mosseri, le CEO d’Instagram, a promis que toutes les images d’automutilation seraient bientôt supprimées du réseau social, dans une interview à la BBC publiée jeudi 7 février.

Le suicide d’une adolescente relance le débat

Cette annonce a été faite quelques jours après l’interview d’un Britannique nommé Ian Russell, également à la BBC, le 22 janvier. Ian Russell avait une fille nommée Molly Russell. En 2017, alors qu’elle était âgée de 14 ans, elle s’est donné la mort.

En fouillant dans son compte Instagram, ses parents ont découvert des images d’automutilation ou prônant le suicide, qu’elle avait consulté peu avant sa mort. Selon eux, Instagram aurait contribué à « tuer » Molly Russell.

Molly Russell était âgée de 14 ans. // Source : Capture d'écran / BBC

Molly Russell était âgée de 14 ans.

Source : Capture d'écran / BBC

Les images étaient toujours en ligne, parce qu’Instagram en tolère certaines, a expliqué Adam Mosseri. Le réseau social autorisait ainsi les contenus relatifs à l’auto-mutilation publiés par des personnes qui s’en sont sorties, « parce que les gens ont parfois besoin de raconter ce qu’il leur est arrivé ». En revanche, les images ou textes promouvant l’automutilation étaient en théorie bannies.

La difficulté, c’est qu’un algorithme n’est pas toujours capable de différencier les deux. De fait, Instagram se contentait d’une modération humaine. Seules les images signalées par les utilisateurs faisaient l’objet d’un examen des équipes du réseau social. Il suffit d’une simple recherche par mots-clés pour tomber sur des dizaines de contenus de ce type.

Adam Mosseri a assuré que le réseau social allait sévir à ce sujet. « Nous allons changer notre règlement de manière à ce que les images violentes d’auto-mutilation ne soient plus autorisées », a-t-il indiqué. Celles qui sont déjà en ligne seront supprimées « aussi vite que possible » selon le CEO.

Des images moins visibles

Seules les photos moins explicites (des cicatrices pour montrer que l’on a réussi à s’en sortir par exemple) seront admises. Elles ne seront toutefois plus montrées dans les recommandations d’Instagram ou dans les résultats de recherche par hashtag. Elles seront donc logiquement moins visibles.

Ian Russell a salué l’engagement d’Instagram. « Il est maintenant temps pour les autres réseaux sociaux de prendre des mesures et de reconnaître qu’ils ont la responsabilité de faire d’Internet un espace sûr pour les personnes jeunes ou vulnérables », a-t-il dit.

Le cas de Molly Russell a été particulièrement médiatisé, surtout au Royaume-Uni. Le ministre de la santé local, Matt Hancock, a pris position sur le sujet. Pour lui, Instagram se doit de supprimer les images les plus violentes, mais pas à n’importe quelles conditions. « Il faut retirer ce que des médecins et experts disent qu’il faut retirer », a-t-il ainsi nuancé. Il s’est dit prêt à déposer un projet de loi sur le sujet si nécessaire, rapporte la BBC.

Comme d’autres réseaux sociaux, Instagram peine à lutter contre les contenus d’automutilation. La plateforme avait du prendre des mesures à ce sujet en mars 2017, suite à la médiatisation d’un « challenge » sur Internet, le Blue Whale Challenge. Ce jeu qui tenait plus à la légende urbaine qu’autre chose consistait à relever une série de défis, en partie liés à l’automutilation et au suicide. Lorsque les utilisateurs tapaient sur Instagram des mots-clés en rapport avec le « jeu », un lien les redirigeait vers une association d’aide aux personnes suicidaires.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !