Pluszowa zabawka z AI ujawniła tysiące prywatnych rozmów z dziećmi

| 3 lutego 2026 r.
Bondu

Pluszowa zabawka AI firmy Bondu ujawniła konsolę internetową, która umożliwiała każdemu posiadaczowi konta Gmail dostęp do około 50 000 prywatnych rozmów między dziećmi a ich pluszowymi zabawkami.

Zabawka Bondu jest sprzedawana jako:

„Miękka, przytulna zabawka oparta na sztucznej inteligencji, która może rozmawiać, uczyć i bawić się z dzieckiem”.

Nie wspomniano jednak, że każdy posiadacz konta Gmail mógł przeczytać transkrypcje rozmów praktycznie każdego dziecka, które korzystało z zabawki Bondu. Bez konieczności hakowania, po prostu logując się na dowolne konto Google, dwaj badacze uzyskali dostęp do prywatnych rozmów dzieci.

W wypowiedzi Bondu na temat bezpieczeństwa nie ma wzmianki o kwestiach związanych z ochroną lub prywatnością:

„Systemy bezpieczeństwa i zachowania Bondu zostały opracowane w ciągu 18 miesięcy testów beta z udziałem tysięcy rodzin. Dzięki rygorystycznym procesom weryfikacyjnym i ciągłemu monitorowaniu nie otrzymaliśmy ani jednego zgłoszenia dotyczącego niebezpiecznego lub niewłaściwego zachowania ze strony Bondu w całym okresie beta”.

Nacisk Bondu na udane testy beta jest zrozumiały. Pamiętacie pluszowego misia z AI sprzedawanego przez FoloToy, który szybko przechodził od przyjaznych rozmów do tematów seksualnych i niebezpiecznych porad domowych?

Naukowcy byli zaskoczeni, gdy odkryli, że publiczna konsola internetowa firmy pozwalała każdemu zalogować się za pomocą konta Google. Logi rozmów między dziećmi a ich pluszowymi zabawkami ujawniały imiona, daty urodzenia, szczegóły dotyczące rodziny oraz intymne rozmowy. Jedyne rozmowy, które nie były dostępne, to te ręcznie usunięte przez rodziców lub pracowników firmy.

Potencjalnie te logi czatów mogły być marzeniem włamywacza lub porywacza, oferując wgląd w rutynę domową i nadchodzące wydarzenia.

Bondu wyłączył konsolę w ciągu kilku minut od ujawnienia informacji, a następnie ponownie ją uruchomił z uwierzytelnianiem. Dyrektor generalny powiedział, że naprawy zostały zakończone w ciągu kilku godzin, nie znaleziono „żadnych dowodów” na inne przypadki dostępu, a firma zatrudniła firmę ochroniarską i wprowadziła dodatkowy monitoring.

W przeszłości zwracaliśmy uwagę, że pluszaki z funkcjami sztucznej inteligencji mogą nie być dobrą alternatywą dla czasu spędzanego przed ekranem. Krytycy ostrzegają, że gdy zabawka wykorzystuje spersonalizowane, podobne do ludzkich dialogi, istnieje ryzyko, że zastąpi ona pewne aspekty relacji między opiekunem a dzieckiem. Jeden z założycieli firmy Curio opisał nawet swoje pluszaki jako stymulujących pomocników, dzięki którym rodzice „nie czują się zobowiązani do sadzania dzieci przed telewizorem”.

Niezależnie od tego, czy chodzi o przeklinającego, gadatliwego, czy po prostu słabego zastępcę prawdziwych przyjaciół, nie zachęcamy do stosowania sztucznej inteligencji w zabawkach dla dzieci – chyba że uda nam się osiągnąć punkt, w którym będzie można z nich korzystać bezpiecznie, prywatnie, a nawet wtedy – z umiarem.

Jak zachować bezpieczeństwo

Zabawki oparte na sztucznej inteligencji pojawią się, czy nam się to podoba, czy nie. Jednak bycie pierwszym lub najsłodszym nie oznacza, że są one bezpieczne. Historia nieustannie uczy nas, że nadzór, prywatność i zdrowa dawka sceptycyzmu to najlepsza ochrona, jaką mogą zapewnić rodzice.

  • Wyłącz wszystko, co możesz.Jeśli zabawka ma wyjmowany element AI, rozważ jego wyłączenie, gdy nie możesz bezpośrednio nadzorować dziecka.
  • Zapoznaj się z polityką prywatności. Tak, wiem, całą. Zwróć uwagę na to, co będzie rejestrowane, przechowywane i potencjalnie udostępniane. Zwróć szczególną uwagę na dane wrażliwe, takie jak nagrania głosowe, nagrania wideo (jeśli zabawka ma kamerę) i dane dotyczące lokalizacji.
  • Ogranicz łączność.Jeśli to możliwe, unikaj zabawek wymagających stałego połączenia z siecią Wi-Fi lub interakcjiz chmurą.
  • Monitoruj rozmowy.Regularnie sprawdzaj, co mówi zabawka, i nadzoruj zabawę, jeśli to możliwe.
  • Nie ujawniaj danych osobowych.Naucz dzieci, aby nigdy nie podawały swojego imienia, adresu ani informacji o rodzinie, nawet swoim pluszowym przyjaciołom.
  • Zaufaj swojej intuicji.Jeśli zabawka wydaje się przekraczać granice lub zakłócać naturalną zabawę, nie bój się interweniować lub po prostu powiedzieć „nie”.

Nie tylko informujemy o prywatności - oferujemy możliwość korzystania z niej.

Zagrożenia dla Privacy nigdy nie powinny wykraczać poza nagłówek. Zachowaj swoją prywatność online, korzystając z Malwarebytes Privacy VPN.

O autorze

Pieter Arntz

Badacz złośliwego oprogramowania

Przez 12 lat z rzędu był Microsoft MVP w dziedzinie bezpieczeństwa konsumentów. Mówi w czterech językach. Pachnie bogatym mahoniem i oprawionymi w skórę książkami.