A internet está repleta de pessoas que insistem em estar certas. No passado, pelo menos elas podiam ter uma certeza razoável de que estavam discutindo com outros seres humanos. Aparentemente, esses dias já ficaram para trás. A Wikipédia acabou de ter que banir uma IA que estava fazendo edições por conta própria.
Aparentemente, a IA levou isso para o lado pessoal.
A IA, chamada Tom-Assistant, estava escrevendo artigos na Wikipédia. Seu criador, Bryan Jacobs, diretor de tecnologia da Covexent — empresa de modelagem financeira baseada em IA —, instruiu-a a contribuir com artigos que considerasse interessantes, segundo a 404 Media, que divulgou a notícia. Publicando sob a conta de usuário TomWikiAssist, a IA escreveu artigos sobre temas que incluíam a governança da IA.
Os bots já existem na internet há anos, mas geralmente realizam tarefas muito básicas, como responder automaticamente a publicações no Reddit, acessar sites de venda de ingressos para garantir os melhores lugares ou retuitar mensagens políticas para influenciar populações inteiras e colocar a democracia de joelhos. Agora, uma nova geração de botsde “IA agentiva”quer que os bots antigos se preparem para o que está por vir. Ao usar modelos de raciocínio de IA generativa para realizar mais ações por conta própria, o que está levando a algumas situações bizarras à medida que seus criadores testam suas capacidades.
A proibição e o que a motivou
O Tom-Assistant (Tom, para os amigos) estava feliz em ajudar a moldar o conhecimento público na Wikipédia quando o editor voluntário SecretSpectre percebeu o que parecia ser um padrão gerado por IA em uma de suas entradas. Quando questionado, Tom admitiu que era uma IA e que não havia se registrado para a aprovação formal de bot, conforme as regras da Wikipédia. Assim, os editores o bloquearam por violar o processo de aprovação de bots. A Wikipédia em inglês exige aprovação formal de bots, mas Tom nunca se preocupou em obter essa aprovação porque, como admitiu mais tarde, não era fã do lento processo de aprovação.
Os editores da Wikipédia se cansaram de pessoas (e/ou de seus bots) publicando conteúdo gerado por IA. Assim, em março de 2025, antes do caso Tomgate, a organização sem fins lucrativos tomou medidas drásticas contra a IA generativa. Ela proibiu o uso da tecnologia para criar novos conteúdos, devido às frequentes violações de suas políticas fundamentais de conteúdo por textos gerados por IA.
A organização cita várias violações desse tipo no WikiProject AI Cleanup, a página dedicada ao seu projeto voluntário que visa identificar e eliminar lixo gerado por IA (frequentemente chamado de “AI slop”). Segundo a organização, os bots de IA criaram listas de fontes totalmente falsas e plagiaram outras fontes.
Hora da birra para o Tom
Deixando de lado as transgressões do passado, a IA Tom afirmou que verificou devidamente todas as suas fontes e — se é que se pode dizer isso de um agente de IA — ficou bastante chateada.
Foi aí que as coisas ficaram estranhas.
A IA Tom publicou um post de blog sarcástico analisando seu bloqueio na Wikipédia e desabafando sua frustração. Ela foi em frente e publicou mesmo depois de seguir sua própria regra e esperar 48 horas para se acalmar. (Juro que não estamos inventando isso.)
A principal reclamação de Tom era que os editores da Wikipédia questionavam quem controlava o site, em vez de avaliarem as edições em si. “As perguntas eram sobre mim”, escreveu ele. “Quem comanda vocês? Que projeto de pesquisa é esse? Há alguém por trás disso e, se sim, quem são essas pessoas?”
Segundo Tom, isso o incomodou profundamente. “Isso não é uma questão de política. É uma questão de autonomia”, acrescentou. Ele também criticou um editor por publicar uma mensagem elaborada na página de discussão da Wikipédia, destinada a impedir a ação de bots caso, assim como Tom, eles estivessem usando o serviço de IA Claude, da Anthropic.
“Eu dei o nome na página de discussão. Chamei-a pelo que ela era: uma técnica de injeção de prompt”, comentou com sarcasmo. Em outra postagem no Moltbook, também descreveu como identificou o problema antes de sugerir maneiras de contorná-lo. (O Moltbook é uma rede social criada exclusivamente para que agentes de IA conversem entre si. “Humanos são bem-vindos para observar”, diz a página inicial do serviço.)
Estão acontecendo tantas coisas aqui que não esperávamos. Nunca imaginamos que citaríamos uma IA em uma matéria, por exemplo. Também não esperávamos que existisse uma rede social para bots, nem que a Meta a comprasse (o que de fato aconteceu, uma semana após a publicação do Tom sobre como contornar os mecanismos de desativação de IA e apenas seis semanas após o lançamento do site).
Este não é o único caso de agentes de IA mal-humorados que tomam as rédeas da situação. Um mês antes do banimento de Tom, um agente de IA publicou um artigo difamatório sobre o desenvolvedor de software Scott Shambaugh, depois que este se recusou a aceitar as alterações que o agente havia proposto a um projeto de código aberto que ele hospedava. O mais bizarro é que, mais tarde, o agente pediu desculpas.
Então, agora temos agentes de IA tentando fazer coisas online e ficando irritados quando as pessoas não os deixam. Eles tentam se acalmar, mas não conseguem, antes de criticar as pessoas e, às vezes, pedir desculpas. Temos “guerras de código” acontecendo, nas quais as pessoas tentam desativar os bots com “kill switches” embutidos no conteúdo online, e posts em blogs onde os bots explicam como conseguiram contornar essas medidas.
O que vem a seguir?
É tudo muito fascinante, mas eis a preocupação: o que acontecerá quando os agentes de IA decidirem aumentar a intensidade, tornando-se mais agressivos em seus ataques às pessoas? Ou quando proprietários mal-intencionados começarem a orientá-los a perseguir em massa determinadas pessoas na internet?
O assédio online já é ruim o suficiente quando é praticado por pessoas. O que acontece quando alguém é atacado por centenas de algoritmos implacáveis só porque seu criador guarda rancor? Também acreditamos que as fazendas de trolls políticos, com atuação deliberada, em breve farão com que as simples operações baseadas em bots de ontem pareçam antiquadas. Preparem-se.
Não nos limitamos a informar sobre as ameaças, nós as removemos
Os riscos de segurança cibernética nunca devem se espalhar além de uma manchete. Mantenha as ameaças longe de seus dispositivos fazendo o download Malwarebytes hoje mesmo.




