Meta tardó seis años en difuminar las imágenes explícitas en Instagram, a pesar de que los correos electrónicos internos muestran que los ejecutivos eran conscientes en 2018 de que los menores las estaban recibiendo, según documentos judiciales recientemente desclasificados.
En una declaración prestada el año pasado, Adam Mosseri (ahora director de Instagram) habla de un intercambio de correos electrónicos con Guy Rosen, vicepresidente y director de seguridad de la información de Meta en aquel momento. Rosen explicaba en el intercambio que los adultos podían encontrar y enviar mensajes a menores en la plataforma. Los mensajes podían contener lo que Rosen denominaba:
«Acoso sexual de nivel 2, como los tíos que envían fotos de sus penes a todo el mundo».
hasta…
«casos de nivel 1 en los que acaban causando daños terribles».
La herramienta que Meta utiliza ahora para abordar el problema es un clasificador del lado del cliente que difumina automáticamente las imágenes explícitas enviadas a adolescentes en mensajes directos. Pero no se implementó hasta aproximadamente seis años después de ese intercambio de correos electrónicos, en septiembre de 2024.
La declaración fue desclasificada la semana pasada y presentada el 20 de febrero de 2026 en el MDL n.º 3047 (caso n.º 4:22-md-03047-YGR), un litigio multidistrital en el norte de California en el que cientos de familias alegan que plataformas como Instagram diseñadas para maximizar el tiempo de pantalla a expensas del bienestar de los usuarios jóvenes. La presentación está disponible a través del expediente PACER del tribunal.
Los registros internos revelan preocupaciones sobre la seguridad de los adolescentes en Meta.
La presentación también revela datos de una encuesta interna que Instagram mantenido en secreto. Casi uno de cada cinco encuestados de entre 13 y 15 años afirmó haber visto imágenes sexuales o de desnudos no deseadas en la plataforma. Otro 8,4 % de ellos dijo haber visto a alguien hacerse daño o amenazar con hacerlo en Instagram la última semana.
El propio Centro de transparencia Instagramno reveló esta información en ese momento. En su sección sobre peligro para los menores, solo se indicaba que la empresa aún estaba trabajando en las cifras. Mosseri también confirmó que nunca había compartido públicamente una estimación interna de alrededor de 200 000 usuarios menores de edad que sufrían interacciones inapropiadas al día, una cifra a la que se hizo referencia durante el interrogatorio.
Su defensa, y la de Meta, se basa en la afirmación de que la empresa no estuvo inactiva durante esos seis años. Mosseri declaró ante el tribunal que, entretanto, se introdujeron otras medidas de protección, como restricciones a los adultos para enviar mensajes a adolescentes con los que no están conectados y sistemas diseñados para señalar cuentas potencialmente peligrosas.
Rechazó la idea de que se debería haber advertido explícitamente a los padres sobre los mensajes directos no supervisados, argumentando que el riesgo existe en muchas plataformas de mensajería. La portavoz de Meta, Liza Crenshaw, señaló las cuentas para adolescentes y los controles parentales, y afirmó que la empresa lleva años trabajando en este problema.
Otras acusaciones contra Meta
El filtro de desnudos no es la única medida de seguridad que se está analizando. Los documentos judiciales de los procedimientos relacionados alegan que Meta exploró la posibilidad de hacer que las cuentas de los adolescentes fueran privadas por defecto ya en 2019, pero luego descartó la idea por temor a que perjudicara las métricas de participación. Ese cambio a privado por defecto no se produjo hasta septiembre de 2024.
El denunciante Arturo Béjar, exdirector de ingeniería de Meta, declaró ante el Senado de los Estados Unidos en 2023 que había planteado sus preocupaciones sobre la seguridad de los adolescentes directamente a Mosseri y a otros ejecutivos. Reconoció que la empresa había investigado exhaustivamente estos daños, pero cuestionó si había actuado con la suficiente urgencia.
Una auditoría independiente publicada en septiembre de 2025 reveló que, de las 47 funciones de seguridad para adolescentes Instagram promocionaba Instagram , menos de una de cada cinco funcionaba según lo descrito, según las conclusiones del informe.
La autoevaluación del rendimiento de Mosseri en 2023, presentada como prueba en el caso, celebraba unos ingresos sin precedentes y se jactaba de haber obtenido resultados a pesar de haber reducido su equipo en un 13 %. El bienestar de los adolescentes no aparecía como criterio en esa evaluación. Explicó que el bienestar era competencia de un equipo centralizado de Meta, fuera de su ámbito de responsabilidad directo.
En un tribunal en el que se pregunta si los directivos Instagramdieron prioridad al crecimiento por encima de la seguridad, esa distinción puede que no tenga el efecto que él espera.
No solo informamos sobre amenazas, sino que también ayudamos a proteger tus redes sociales.
Los riesgos de ciberseguridad nunca deben ir más allá de un titular. Proteja sus cuentas de redes sociales utilizandoMalwarebytes Identity Theft .




