Szkoły uwielbiają dobre zdjęcia – czy to z wycieczki do zamku, uroczystości wręczenia nagród naukowych, czy z dnia sportu uchwyconego z trzech ujęć. Przez dwie dekady takie uroczyste zdjęcia trafiały prosto na szkolne strony internetowe, opatrzone podpisem z imieniem i klasą. Ale te czasy już minęły, bo mamy rok 2026 i w internecie nie ma miejsca na takie przyjemności.
Jak po raz pierwszy poinformował dziennik „The Guardian”, eksperci wzywają obecnie szkoły do usunięcia tych zdjęć. Według brytyjskiej Narodowej Agencji ds. Przestępczości (National Crime Agency), organizacji Internet Watch Foundation oraz organu doradczego o nazwie Early Warning Working Group (EWWG) szantażyści pozyskują zwykłe zdjęcia szkolne, przetwarzają je za pomocą deepfake sztucznej inteligencji do deepfake w celu wytworzenia materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM), a następnie żądają zapłaty w zamian za nieudostępnianie tych obrazów w sieci.
Jedna szkoła, 150 zdjęć
Pod koniec ubiegłego roku cyberprzestępcy skontaktowali się z pewną brytyjską szkołą średnią, przedstawiając jej takie żądanie. Organizacja IWF sklasyfikowała 150 z tych zdjęć jako materiały przedstawiające seksualne wykorzystywanie dzieci (CSAM) zgodnie z brytyjskim prawem i wygenerowała dla każdego z nich cyfrowe sygnatury, aby największe platformy mogły zablokować ich ponowne publikowanie.
IWF nie podaje nazwy szkoły ani jednostki policji i uważa, że nie był to odosobniony przypadek. EWWG twierdzi, że to „tylko kwestia czasu”, zanim kolejne szkoły staną w obliczu podobnych żądań.
Brytyjska minister ds. ochrony dzieci Jess Phillips nazwała to „niezwykle niepokojącym, pojawiającym się zagrożeniem”. W lutym 2025 roku Wielka Brytania stała się pierwszym krajem, który zakazał stosowania narzędzi sztucznej inteligencji stworzonych specjalnie do generowania materiałów przedstawiających seksualne wykorzystywanie dzieci (CSAM).
Jak do tego doszło
To zagrożenie nie pojawiło się z dnia na dzień i nie ogranicza się wyłącznie do Wielkiej Brytanii. Jest to ewolucja znanego od dawna zagrożenia: sekstorcji, czyli sytuacji, w której ktoś wykorzystuje intymne zdjęcia do szantażowania ofiary. Dawniej sekstorcja opierała się na prawdziwych intymnych zdjęciach, które zostały skradzione lub udostępnione, ale deepfake zmieniła wszystko.
Centrum Skarg Dotyczących Przestępstw Internetowych (IC3) przy FBI odnotowało w pierwszej połowie 2021 roku ponad 16 000 zgłoszeń dotyczących szantażu seksualnego, a straty wyniosły ponad 8 milionów dolarów. W czerwcu 2023 roku biuro ostrzegło, że taktyka atakujących uległa zmianie: zaczęli oni wykorzystywać zwykłe zdjęcia z mediów społecznościowych do tworzenia fałszywych obrazów o charakterze pornograficznym i szantażowania nieletnich.
Brytyjska infolinia dla dzieci „Childline” odnotowała podobne zmiany w związku z rosnącą dostępnością deepfake . Co roku rejestruje już wiele przypadków sekstorcji, z których wiele dotyczy dzieci, które zostały zmanipulowane do udostępnienia swoich intymnych zdjęć. Obecnie organizacja otrzymuje zgłoszenia od dzieci, którym wysyłane są deepfake zdjęcia deepfake je deepfake , bez żadnego wcześniejszego kontaktu.
Na przykład pewnej 15-latce wysłano „bardzo przekonujący” fałszywy akt, stworzony na podstawie jej Instagram .
Według danych IWF do listopada 2025 r. liczba zgłoszeń dotyczących materiałów przedstawiających seksualne wykorzystywanie dzieci (CSAM) wygenerowanych przez sztuczną inteligencję wzrosła ponad dwukrotnie w porównaniu z rokiem poprzednim, z 199 do 426. Dziewczynki stanowiły 94% ofiar. Jak podaje organizacja, zgłoszone przypadki dotyczyły dzieci w wieku od noworodków do dwulatków.
Ekosystem związany z tymi narzędziami ma charakter przemysłowy. W kwietniu 2025 roku badacz odkrył publicznie dostępny zasób AWS S3 należący do południowokoreańskiej aplikacji „nudify” o nazwie GenNomis, zawierający 93 485 obrazów wygenerowanych przez sztuczną inteligencję wraz z poleceniami, na podstawie których zostały one stworzone.
O czym informuje się szkoły
Grupa robocza EWWG zaleca zastąpienie zdjęć przedstawiających dzieci z bliska i umożliwiających ich identyfikację zdjęciami wykonanymi z większej odległości, zdjęciami zamazanymi lub zdjęciami wykonanymi od tyłu. Zaleca również szkołom usunięcie pełnych imion i nazwisk z podpisów pod zdjęciami, przeprowadzenie przeglądu istniejących zdjęć oraz poproszenie rodziców o ponowne podpisanie formularzy zgody.
W rzeczywistości zaleca się szkołom, aby zastanowiły się, czy w ogóle konieczne jest publikowanie zdjęć dzieci w Internecie.
Niektóre szkoły podjęły już odpowiednie działania. Jak podaje dziennik „The Guardian”, fundacja Loughborough Schools Foundation – grupa trzech prywatnych szkół korzystających ze wspólnej strony internetowej – w zeszłym roku całkowicie usunęła ze swojej witryny zdjęcia, na których można było rozpoznać uczniów.
Brytyjski Urząd Komisarza ds. Informacji (ICO) stwierdza, że „ogólnie rzecz biorąc, nadal oczekuje się, że zapewnisz rodzicom możliwość rezygnacji” w przypadku publikacji zdjęcia dziecka, na którym można je rozpoznać, ale zaznacza, że z prawnego punktu widzenia nie jest to równoznaczne z wyrażeniem zgody, co wiąże się z wyższymi wymogami.
W Stanach Zjednoczonych sytuacja jest nieco bardziej skomplikowana, ponieważ poszczególne stany często mają własne przepisy dotyczące ochrony prywatności uczniów. Ogólnie rzecz biorąc, zgodnie z Privacy prawach rodziny do edukacji i Privacy (FERPA) szkoły zazwyczaj zaliczają zdjęcia uczniów, na których można ich rozpoznać, do kategorii danych katalogowych. Kategoria ta obejmuje również imię i nazwisko, adres, numer telefonu, datę i miejsce urodzenia, udział w oficjalnie uznanych zajęciach i dyscyplinach sportowych oraz daty obecności w szkole.
Zgodnie z ustawą FERPA szkoły mogą publikować tego rodzaju informacje, chyba że opiekun dziecka wyraźnie się temu sprzeciwi. Muszą powiadomić opiekuna, gdy zamierzają je opublikować, ale procedura ta może nie obowiązywać w nieskończoność po opuszczeniu szkoły przez ucznia.
Oznacza to, że zdjęcia i dane uczniów mogą pozostawać w sieci jeszcze długo po tym, jak rodziny uznają je za usunięte.
Co będzie dalej
W Wielkiej Brytanii usługa „Report Remove” organizacji Childline umożliwia dzieciom zgłaszanie nieodpowiednich zdjęć lub filmów przedstawiających je same, które zostały opublikowane w Internecie. W ubiegłym roku usługa ta otrzymała 394 zgłoszenia dotyczące szantażu od osób poniżej 18. roku życia, co stanowi wzrost o jedną trzecią w porównaniu z rokiem 2024.
Tymczasem rząd Wielkiej Brytanii wprowadza zmiany do ustawy o przestępczości i policji, zobowiązując platformy do usuwania zgłoszonych intymnych zdjęć w ciągu 48 godzin pod groźbą nałożenia grzywny w wysokości 10% globalnych przychodów.
Spodziewamy się wyścigu między organami regulacyjnymi a cyberprzestępcami wykorzystującymi sztuczną inteligencję. Obecnie atakujący wciąż muszą samodzielnie wyszukiwać zdjęcia. Istnieje obawa, że proces ten wkrótce może zostać zautomatyzowany, co pozwoli przestępcom na masowe pozyskiwanie nazwisk i zdjęć ze stron internetowych szkół oraz platform społecznościowych.
Dla rodziców najprostszym sposobem ochrony może być ograniczenie liczby zdjęć dzieci, na których można je rozpoznać, dostępnych w Internecie. Oznacza to zachowanie czujności nie tylko w odniesieniu do szkoły dziecka, ale także do klubów sportowych, zajęć pozalekcyjnych i kont w mediach społecznościowych.




