Instagram les messages explicites adressés à des mineurs en 2018. Le floutage des images est arrivé six ans plus tard.

| 26 février 2026
Instagram

Il a fallu six ans à Meta pour flouter les images explicites sur Instagram, alors que des courriels internes montrent que les dirigeants étaient au courant dès 2018 que des mineurs en recevaient, selon des documents judiciaires récemment rendus publics.

Dans une déposition faite l'année dernière, Adam Mosseri (aujourd'hui directeur Instagram) évoque un échange d'e-mails avec Guy Rosen, alors vice-président et directeur de la sécurité informatique chez Meta. Dans cet échange, M. Rosen expliquait que des adultes pouvaient trouver et envoyer des messages à des mineurs sur la plateforme. Ces messages pouvaient contenir ce que M. Rosen appelait :

« Harcèlement sexuel de niveau 2, comme les mecs qui envoient des photos de leur pénis à tout le monde. »

jusqu'à…

« les cas de niveau 1 où ils finissent par causer des dommages terribles ».

L'outil utilisé aujourd'hui par Meta pour résoudre ce problème est un classificateur côté client qui floute automatiquement les images explicites envoyées aux adolescents dans des messages privés. Mais il n'a été déployé qu'environ six ans après cet échange d'e-mails, en septembre 2024.

La déposition a été rendue publique la semaine dernière et déposée le 20 février 2026 dans le cadre du MDL n° 3047 (affaire n° 4:22-md-03047-YGR), un litige multidistrict en Californie du Nord dans lequel des centaines de familles affirment que des plateformes telles Instagram conçues pour maximiser le temps passé devant les écrans au détriment du bien-être des jeunes utilisateurs. Le dossier est disponible via le registre PACER du tribunal.

Des documents internes révèlent des préoccupations concernant la sécurité des adolescents chez Meta

Le dossier révèle également des données d'enquête interne Instagram gardées confidentielles. Près d'un répondant sur cinq âgé de 13 à 15 ans a déclaré avoir été confronté à des images de nudité ou à caractère sexuel non désirées sur la plateforme. 8,4 % d'entre eux ont déclaré avoir vu quelqu'un se faire du mal ou menacer de le faire sur Instagram la semaine précédente.

Le Centre de transparence Instagramn'avait pas divulgué cette information à l'époque. Sa section consacrée à la mise en danger des enfants indiquait simplement que l'entreprise était encore en train de travailler sur les chiffres. M. Mosseri a également confirmé qu'il n'avait jamais rendu publique l'estimation interne d'environ 200 000 enfants utilisateurs quotidiens victimes d'interactions inappropriées, un chiffre mentionné lors de l'interrogatoire.

Sa défense, ainsi que celle de Meta, repose sur l'argument selon lequel l'entreprise n'est pas restée inactive pendant ces six années. M. Mosseri a déclaré à la cour que d'autres mesures de protection avaient été mises en place entre-temps, notamment des restrictions empêchant les adultes d'envoyer des messages à des adolescents avec lesquels ils n'ont aucun lien, et des systèmes conçus pour signaler les comptes potentiellement dangereux.

Il a rejeté l'idée selon laquelle les parents auraient dû être explicitement avertis de l'existence de messages directs non surveillés, arguant que ce risque existe sur de nombreuses plateformes de messagerie. La porte-parole de Meta, Liza Crenshaw, a évoqué les comptes pour adolescents et les contrôles parentaux, affirmant que l'entreprise travaillait sur ce problème depuis des années.

Autres allégations contre Meta

Le filtre anti-nudité n'est pas la seule mesure de sécurité à faire l'objet d'un examen minutieux. Des documents judiciaires déposés dans le cadre de procédures connexes affirment que Meta aurait envisagé dès 2019 de rendre les comptes des adolescents privés par défaut, avant d'abandonner cette idée par crainte que cela ne nuise aux indicateurs d'engagement. Ce passage au mode privé par défaut n'est finalement intervenu qu'en septembre 2024.

Le lanceur d'alerte Arturo Béjar, ancien directeur de l'ingénierie chez Meta, a déclaré au Sénat américain en 2023 qu'il avait fait part de ses préoccupations concernant la sécurité des adolescents directement à Mosseri et à d'autres dirigeants. Il a reconnu que l'entreprise avait mené des recherches approfondies sur ces dangers, mais s'est demandé si elle avait agi avec suffisamment d'urgence.

Un audit indépendant publié en septembre 2025 a révélé que sur les 47 fonctionnalités de sécurité pour adolescents promues Instagram , moins d'une sur cinq fonctionnait comme décrit, selon les conclusions du rapport.

L'auto-évaluation des performances de Mosseri pour 2023, versée au dossier, célébrait des revenus records et se vantait d'avoir obtenu des résultats malgré une réduction de 13 % de son équipe. Le bien-être des adolescents ne figurait pas parmi les critères de cette évaluation. Il a expliqué que le bien-être relevait d'une équipe centralisée de Meta, en dehors de son domaine de compétence direct.

Dans une salle d'audience où l'on demande si la direction Instagrama donné la priorité à la croissance plutôt qu'à la sécurité, cette distinction pourrait ne pas avoir l'effet escompté.


Nous ne nous contentons pas de signaler les menaces, nous contribuons à protéger vos réseaux sociaux.

Les risques liés à la cybersécurité ne devraient jamais dépasser le stade des gros titres. Protégez vos comptes sur les réseaux sociaux en utilisantMalwarebytes Identity Theft .

À propos de l'auteur

Danny Bradbury est journaliste spécialisé dans les technologies depuis 1989 et rédacteur indépendant depuis 1994. Il couvre un large éventail de questions technologiques pour des publics allant des consommateurs aux développeurs de logiciels et aux directeurs informatiques. Il rédige également des articles pour de nombreux cadres supérieurs du secteur technologique. Originaire du Royaume-Uni, il vit aujourd'hui dans l'ouest du Canada.