Instagram 2018 explizite Nachrichten an Minderjährige Instagram . Die Bildunschärfefunktion kam sechs Jahre später hinzu.

| 26. Februar 2026
Instagram

Meta hat sechs Jahre gebraucht, um explizite Bilder auf Instagram zu verwischen, obwohl interne E-Mails zeigen, dass Führungskräfte bereits 2018 wussten, dass Minderjährige diese Bilder erhielten, wie aus kürzlich freigegebenen Gerichtsdokumenten hervorgeht.

In einer eidesstattlichen Aussage aus dem letzten Jahr spricht Adam Mosseri (jetzt Chef von Instagram) über einen E-Mail-Austausch mit Guy Rosen, dem damaligen Vizepräsidenten und Chief Information Security Officer von Meta. Rosen erklärte in diesem Austausch, dass Erwachsene auf der Plattform Minderjährige finden und ihnen Nachrichten schicken könnten. Die Nachrichten könnten enthalten, was Rosen als „

„Sexuelle Belästigung der Stufe 2, wie zum Beispiel Typen, die allen Penisbilder schicken.“

bis zu…

„Fälle der Stufe 1, in denen sie am Ende schrecklichen Schaden anrichten.“

Das Tool, das Meta nun zur Lösung des Problems einsetzt, ist ein clientseitiger Klassifikator, der explizite Bilder, die Teenagern in Direktnachrichten gesendet werden, automatisch unkenntlich macht. Es wurde jedoch erst etwa sechs Jahre nach diesem E-Mail-Austausch, im September 2024, eingeführt.

Die Aussage wurde letzte Woche entsiegelt und am 20. Februar 2026 in MDL Nr. 3047 (Fall Nr. 4:22-md-03047-YGR) eingereicht, einem multidisziplinären Rechtsstreit in Nordkalifornien, in dem Hunderte von Familien behaupten, dass Plattformen wie Instagram darauf ausgelegt Instagram , die Bildschirmzeit auf Kosten des Wohlbefindens junger Nutzer zu maximieren. Die Akte ist über das PACER-Verzeichnis des Gerichts verfügbar.

Interne Aufzeichnungen zeigen Sicherheitsbedenken für Teenager bei Meta

Die Einreichung bringt auch interne Umfragedaten ans Licht, die Instagram vertraulich behandelt Instagram . Fast jeder fünfte Befragte im Alter von 13 bis 15 Jahren gab an, auf der Plattform unerwünschte Nacktdarstellungen oder sexuelle Bilder gesehen zu haben. Weitere 8,4 % von ihnen gaben an, dass sie Instagram der vergangenen Woche auf Instagram gesehen hätten, wie jemand sich selbst verletzt oder damit gedroht habe, sich zu verletzen.

Das Transparenzzentrum Instagramselbst hat dies damals nicht bekannt gegeben. In seinem Abschnitt zum Thema Kindesgefährdung hieß es lediglich, dass das Unternehmen noch an den Zahlen arbeite. Mosseri bestätigte auch, dass er nie öffentlich eine interne Schätzung von etwa 200.000 Kindern pro Tag, die unangemessene Interaktionen erleben, genannt habe, eine Zahl, auf die während der Befragung Bezug genommen wurde.

Seine Verteidigung und die von Meta stützen sich auf die Behauptung, dass das Unternehmen in diesen sechs Jahren nicht untätig war. Mosseri erklärte vor Gericht, dass in der Zwischenzeit andere Schutzmaßnahmen eingeführt worden seien, darunter Beschränkungen für Erwachsene, die Nachrichten an Jugendliche senden, mit denen sie nicht verbunden sind, sowie Systeme, die potenziell riskante Konten kennzeichnen.

Er widersprach der Idee, dass Eltern ausdrücklich vor unüberwachten Direktnachrichten gewarnt werden sollten, und argumentierte, dass dieses Risiko auf vielen Messaging-Plattformen besteht. Meta-Sprecherin Liza Crenshaw verwies auf Teen Accounts und Kindersicherungen und erklärte, dass das Unternehmen seit Jahren an diesem Problem arbeite.

Weitere Vorwürfe gegen Meta

Der Nacktheitsfilter ist nicht die einzige Sicherheitsmaßnahme, die derzeit geprüft wird. In Gerichtsunterlagen zu entsprechenden Verfahren wird behauptet, dass Meta bereits 2019 erwägt habe, Teenager-Konten standardmäßig privat zu machen, diese Idee dann aber aus Sorge um negative Auswirkungen auf die Interaktionskennzahlen wieder verworfen habe. Diese Umstellung auf standardmäßige Privatsphäre erfolgte schließlich erst im September 2024.

Der Whistleblower Arturo Béjar, ehemaliger technischer Direktor bei Meta, erklärte 2023 vor dem US-Senat, dass er Mosseri und anderen Führungskräften gegenüber direkt Bedenken hinsichtlich der Sicherheit von Teenagern geäußert habe. Er räumte ein, dass das Unternehmen diese Gefahren umfassend untersucht habe, stellte jedoch in Frage, ob es mit ausreichender Dringlichkeit gehandelt habe.

Eine im September 2025 veröffentlichte unabhängige Prüfung ergab, dass von 47 Sicherheitsfunktionen für Jugendliche, für die Instagram geworben hatte, weniger als eine von fünf wie beschrieben funktionierte, so die Ergebnisse des Berichts.

Mosseris Selbstbewertung der Leistung für 2023, die als Beweisstück in den Fall aufgenommen wurde, lobte die Rekordumsätze und rühmte sich damit, trotz einer Verkleinerung seines Teams um 13 % Ergebnisse erzielt zu haben. Das Wohlbefinden von Teenagern tauchte in dieser Bewertung nicht als Kriterium auf. Er erklärte, dass das Wohlbefinden in die Zuständigkeit eines zentralen Meta-Teams falle, das nicht zu seinem direkten Aufgabenbereich gehöre.

In einem Gerichtssaal, in dem gefragt wird, ob die Führung InstagramWachstum vor Sicherheit priorisiert hat, könnte diese Unterscheidung nicht so ankommen, wie er es sich erhofft.


Wir berichten nicht nur über Bedrohungen – wir helfen Ihnen, Ihre sozialen Medien zu schützen.

Cybersicherheitsrisiken sollten niemals über eine Schlagzeile hinausgehen. Schützen Sie Ihre Social-Media-Konten mitMalwarebytes Identity Theft .

Über den Autor

Danny Bradbury ist seit 1989 Journalist mit Schwerpunkt Technologie und seit 1994 freiberuflicher Autor. Er berichtet über eine breite Palette von Technologiethemen für ein Publikum, das von Verbrauchern bis hin zu Softwareentwicklern und CIOs reicht. Er schreibt auch Ghostwriting-Artikel für viele Führungskräfte im Technologiesektor. Er stammt aus dem Vereinigten Königreich, lebt aber jetzt in Westkanada.