W 2018 roku Instagram wiadomości o charakterze jednoznacznie seksualnym kierowane do nieletnich. Funkcja zamazywania obrazów pojawiła się sześć lat później.

| 26 lutego 2026 r.
Instagram

Według niedawno ujawnionych dokumentów sądowych, Meta potrzebowała sześciu lat, aby zamazać nieodpowiednie treści na Instagram, mimo że z wewnętrznych e-maili wynika, że kierownictwo było świadome już w 2018 roku, że treści te docierały do nieletnich.

W zeznaniu złożonym w zeszłym roku Adam Mosseri (obecnie szef Instagram) omawia wątek e-mailowy z Guyem Rosenem, ówczesnym wiceprezesem Meta i dyrektorem ds. bezpieczeństwa informacji. Rosen wyjaśnił w tym wątku, że dorośli mogą znaleźć nieletnich na platformie i wysyłać im wiadomości. Wiadomości te mogą zawierać to, co Rosen nazwał:

„Molestowanie seksualne poziomu 2, np. faceci wysyłający wszystkim zdjęcia swoich penisów”.

do…

„przypadki poziomu 1, w których powodują straszne szkody”.

Narzędzie, które Meta obecnie wykorzystuje do rozwiązania tego problemu, to klasyfikator po stronie klienta, który automatycznie rozmywa obraźliwe zdjęcia wysyłane do nastolatków w bezpośrednich wiadomościach. Jednak zostało ono wprowadzone dopiero około sześć lat po tej wymianie e-maili, we wrześniu 2024 roku.

Zeznanie zostało odtajnione w zeszłym tygodniu i złożone 20 lutego 2026 r. w sprawie MDL nr 3047 (nr sprawy 4:22-md-03047-YGR), wielookręgowej sprawie sądowej w północnej Kalifornii, w której setki rodzin twierdzą, że platformy, w tym Instagram zaprojektowane w celu maksymalizacji czasu spędzanego przed ekranem kosztem dobrego samopoczucia młodych użytkowników. Dokumenty są dostępne w rejestrze sądowym PACER.

Wewnętrzne dokumenty ujawniają obawy dotyczące bezpieczeństwa nastolatków w Meta

W zgłoszeniu ujawniono również dane z wewnętrznej ankiety, które Instagram poufne. Prawie co piąty respondent w wieku od 13 do 15 lat zgłosił, że spotkał się na platformie z niechcianymi treściami zawierającymi nagość lub motywy seksualne. Kolejne 8,4% z nich stwierdziło, że Instagram ostatniego tygodnia widziało na Instagram osoby, które wyrządzały sobie krzywdę lub groziły, że to zrobią.

Centrum przejrzystości Instagramnie ujawniło tej informacji w tamtym czasie. W sekcji poświęconej zagrożeniom dla dzieci podano jedynie, że firma nadal pracuje nad danymi liczbowymi. Mosseri potwierdził również, że nigdy nie podał do wiadomości publicznej wewnętrznych szacunków dotyczących około 200 000 dzieci korzystających codziennie z serwisu, które doświadczają nieodpowiednich interakcji, a liczba ta została przytoczona podczas przesłuchania.

Jego obrona, podobnie jak obrona Meta, opiera się na twierdzeniu, że firma nie pozostawała bezczynna przez te sześć lat. Mosseri powiedział sądowi, że w międzyczasie wprowadzono inne zabezpieczenia, w tym ograniczenia dotyczące wysyłania wiadomości przez osoby dorosłe do nastolatków, z którymi nie są one powiązane, oraz systemy mające na celu oznaczanie potencjalnie ryzykownych kont.

Odrzucił pomysł, że rodzice powinni byli zostać wyraźnie ostrzeżeni o niekontrolowanych bezpośrednich wiadomościach, argumentując, że ryzyko to istnieje na wielu platformach komunikacyjnych. Rzeczniczka Meta, Liza Crenshaw, zwróciła uwagę na konta dla nastolatków i kontrolę rodzicielską, mówiąc, że firma od lat pracuje nad tym problemem.

Inne zarzuty wobec Meta

Filtr nagości nie jest jedynym środkiem bezpieczeństwa, który jest przedmiotem analizy. Z dokumentów sądowych dotyczących powiązanych postępowań wynika, że firma Meta rozważała wprowadzenie domyślnej prywatności kont nastolatków już w 2019 r., ale porzuciła ten pomysł z obawy, że wpłynie to negatywnie na wskaźniki zaangażowania. Domyślna prywatność została wprowadzona dopiero we wrześniu 2024 r.

Informator Arturo Béjar, były dyrektor ds. inżynierii w Meta, powiedział przed amerykańskim Senatem w 2023 r., że zgłaszał obawy dotyczące bezpieczeństwa nastolatków bezpośrednio Mosseremu i innym członkom kierownictwa. Przyznał, że firma dokładnie zbadała te zagrożenia, ale zakwestionował, czy podjęła wystarczająco pilne działania.

Niezależny audyt opublikowany we wrześniu 2025 r. wykazał, że spośród 47 funkcji bezpieczeństwa dla nastolatków promowanych Instagram mniej niż jedna piąta działała zgodnie z opisem, zgodnie z ustaleniami raportu.

W przedstawionej w sprawie samoocenie wyników za rok 2023 Mosseri chwalił się rekordowymi przychodami i osiąganiem wyników pomimo redukcji zespołu o 13%. Dobrostan nastolatków nie pojawił się jako kryterium w tej ocenie. Wyjaśnił, że kwestia dobrostanu leżała w gestii scentralizowanego zespołu Meta, poza jego bezpośrednim zakresem obowiązków.

W sali sądowej, gdzie zadano pytanie, czy kierownictwo Instagramprzedkładało rozwój nad bezpieczeństwo, to rozróżnienie może nie przynieść oczekiwanych rezultatów.


Nie tylko informujemy o zagrożeniach – pomagamy chronić Twoje media społecznościowe.

Ryzyko związane z cyberbezpieczeństwem nie powinno nigdy wykraczać poza nagłówki gazet. Chroń swoje konta w mediach społecznościowych, korzystając zMalwarebytes Identity Theft .

O autorze

Danny Bradbury jest dziennikarzem specjalizującym się w technologii od 1989 roku i niezależnym pisarzem od 1994 roku. Zajmuje się szeroką gamą zagadnień technologicznych dla odbiorców od konsumentów po twórców oprogramowania i dyrektorów ds. informatyki. Pisze również artykuły dla wielu dyrektorów zarządzających w sektorze technologicznym. Pochodzi z Wielkiej Brytanii, ale obecnie mieszka w zachodniej Kanadzie.