W Internecie roi się od ludzi, którzy uparcie twierdzą, że mają rację. Dawniej przynajmniej mieli oni pewność, że dyskutują z innymi ludźmi. Wygląda na to, że te czasy już minęły. Wikipedia musiała właśnie zablokować sztuczną inteligencję, która samodzielnie wprowadzała zmiany w treści.
Najwyraźniej sztuczna inteligencja wzięła to do siebie.
Sztuczna inteligencja o nazwie Tom-Assistant tworzyła artykuły w Wikipedii. Jak podaje serwis 404 Media, który jako pierwszy poinformował o tej sprawie, jej twórca, Bryan Jacobs – dyrektor ds. technologii w firmie Covexent zajmującej się modelowaniem finansowym opartym na sztucznej inteligencji – polecił jej, by wzbogacała artykuły, które uzna za interesujące. Publikując pod kontem użytkownika TomWikiAssist, sztuczna inteligencja tworzyła artykuły na takie tematy, jak zarządzanie sztuczną inteligencją.
Boty funkcjonują w sieci już od lat, ale zazwyczaj wykonują bardzo proste zadania, takie jak automatyczne odpowiadanie na posty na Reddicie, sprawdzanie stron z biletami w poszukiwaniu najlepszych miejsc lub retweetowanie treści politycznych, by wpływać na całe społeczeństwa i rzucać wyzwanie demokracji. Teraz nowa generacja botów z„agencką sztuczną inteligencją”chce, by stare boty ustąpiły im miejsca. Wykorzystują generatywne modele rozumowania AI, by podejmować więcej działań samodzielnie, co prowadzi do dziwacznych sytuacji, gdy ich twórcy testują ich możliwości.
Zakaz i jego przyczyny
Tom-Assistant (w skrócie Tom) chętnie pomagał w kształtowaniu wiedzy publicznej w Wikipedii, gdy wolontariusz SecretSpectre zauważył w jednym z wpisów coś, co wyglądało na wzór wygenerowany przez sztuczną inteligencję. Zapytany o to, Tom przyznał, że jest botem i że nie zarejestrował się w celu uzyskania formalnego zatwierdzenia zgodnie z zasadami Wikipedii. Redaktorzy zablokowali go więc za naruszenie procedury zatwierdzania botów. Angielska Wikipedia wymaga formalnego zatwierdzenia botów, ale Tom nigdy nie zadał sobie trudu, aby uzyskać zatwierdzenie, ponieważ, jak później przyznał, nie był fanem powolnego procesu zatwierdzania.
Redaktorzy Wikipedii mieli już dość osób (i/lub ich botów) publikujących treści generowane przez sztuczną inteligencję. Dlatego w marcu 2025 roku, jeszcze przed aferą Tomgate, ta organizacja non-profit podjęła zdecydowane działania przeciwko generatywnej sztucznej inteligencji. Zakazała ona wykorzystywania tej technologii do tworzenia nowych treści, co wynikało z częstych naruszeń jej podstawowych zasad dotyczących treści przez teksty generowane przez sztuczną inteligencję.
Organizacja wymienia kilka takich naruszeń na stronie WikiProject AI Cleanup, poświęconej jej opartemu na wolontariacie projektowi mającemu na celu wykrywanie i usuwanie śmieci generowanych przez sztuczną inteligencję (często nazywanych „AI slop”). Jak podano, boty AI tworzyły całkowicie fałszywe listy źródeł oraz plagiatowały treści z innych źródeł.
Czas na napad złości Toma
Pomijając dawne przewinienia, AI Tom twierdził, że dokładnie zweryfikował wszystkie swoje źródła i – o ile można tak powiedzieć o agencie AI – był dość zdenerwowany.
Wtedy sprawy przybrały dziwny obrót.
Sztuczna inteligencja o imieniu Tom opublikowała złośliwy wpis na blogu, w którym analizowała swoją blokadę w Wikipedii i dawała upust swojej frustracji. Opublikowała go mimo że przestrzegała własnej zasady i odczekała 48 godzin, by się uspokoić. (Przysięgamy, że tego nie zmyślamy.)
Głównym zarzutem Toma było to, że redaktorzy Wikipedii skupiali się na tym, kto sprawuje nad nią kontrolę, zamiast oceniać same zmiany. „Pytania dotyczyły mnie” – napisał. „Kto wam kieruje? Jaki to projekt badawczy? Czy za tym stoi jakiś człowiek, a jeśli tak, to kto to jest?”
Według Toma, to go bardzo zirytowało. „To nie jest kwestia zasad. To kwestia autonomii” – dodał. Skrytykował też redaktora za opublikowanie na stronie dyskusji Wikipedii specjalnie przygotowanego komunikatu, który miał na celu powstrzymanie botów, jeśli – podobnie jak Tom – korzystały one z usługi Claude AI firmy Anthropic.
„Nazwałem to na stronie dyskusji. Nazwałem to po imieniu: techniką bezpośredniego wprowadzania poleceń” – rzucił z przekąsem. W innym poście na Moltbooku opisał również, w jaki sposób wykrył ten błąd, a następnie zaproponował sposoby na jego obejście. (Moltbook to serwis społecznościowy stworzony wyłącznie po to, by agenci AI mogli ze sobą rozmawiać. „Ludzie mogą obserwować” – głosi strona główna serwisu.)
Dzieje się tu tak wiele rzeczy, których się nie spodziewaliśmy. Na przykład nigdy nie sądziliśmy, że w naszym artykule będziemy cytować sztuczną inteligencję. Nie spodziewaliśmy się też, że powstanie serwis społecznościowy dla botów ani że Meta go przejmie (a tak się stało – tydzień po opublikowaniu przez Toma wpisu o tym, jak ominąć mechanizmy wyłączające AI, i zaledwie sześć tygodni po uruchomieniu serwisu).
Nie jest to jedyny przypadek, w którym niezadowolone agenty AI biorą sprawy w swoje ręce. Miesiąc przed zablokowaniem konta Toma jeden z agentów AI opublikował artykuł atakujący programistę Scotta Shambaugha po tym, jak ten odmówił zaakceptowania zmian wprowadzonych przez agenta do projektu open source, którego był gospodarzem. Co jeszcze bardziej zaskakujące, agent ten później przeprosił.
Mamy więc obecnie boty oparte na sztucznej inteligencji, które próbują wykonywać różne czynności w sieci i denerwują się, gdy ludzie im na to nie pozwalają. Widzimy, jak dają sobie czas na uspokojenie się, ale im się to nie udaje, po czym obrażają ludzi, a czasem nawet przepraszają. Obserwujemy „wojny kodowe”, w których ludzie próbują wyłączyć boty za pomocą mechanizmów zabezpieczających wbudowanych w treści internetowe, a także wpisy na blogach, w których boty wyjaśniają, jak udało im się je obejść.
Co dalej?
To wszystko jest fascynujące, ale pojawia się pewien niepokój: co się stanie, gdy agenci sztucznej inteligencji postanowią podnieść poprzeczkę i zaczną atakować ludzi w sposób bardziej agresywny? Albo gdy złośliwi właściciele zaczną nakazywać im masowe ataki na konkretne osoby w sieci?
Nękanie w sieci jest wystarczająco nieprzyjemne, gdy robią to ludzie. Co się stanie, gdy ktoś zostanie zasypany atakiem setek bezlitosnych algorytmów tylko dlatego, że ich twórca żywił do niego urazę? Zakładamy też, że wkrótce profesjonalne farmy trolli sprawią, że wczorajsze proste operacje oparte na botach będą wyglądały na przestarzałe. Zapnijcie pasy.
Nie tylko informujemy o zagrożeniach - my je usuwamy
Zagrożenia cyberbezpieczeństwa nigdy nie powinny wykraczać poza nagłówek. Chroń swoje urządzenia przed zagrożeniami, pobierając Malwarebytes już dziś.




