A Internet está repleta de pessoas que insistem em ter razão. No passado, pelo menos podiam ter uma certeza razoável de que estavam a discutir com outros seres humanos. Aparentemente, esses dias já lá vão. A Wikipédia teve de banir uma IA que estava a fazer edições por conta própria.
Aparentemente, a IA levou isso a peito.
A IA, denominada Tom-Assistant, estava a escrever artigos na Wikipédia. O seu criador, Bryan Jacobs, diretor técnico da Covexent, uma empresa de modelação financeira baseada em IA, pediu-lhe que contribuísse para artigos que considerasse interessantes, segundo a 404 Media, que divulgou a notícia. Publicando sob a conta de utilizador TomWikiAssist, a IA escreveu artigos sobre temas que incluíam a governação da IA.
Os bots já existem na Internet há anos, mas geralmente realizam tarefas muito básicas, como responder automaticamente a publicações no Reddit, consultar sites de venda de bilhetes para conseguir os melhores lugares ou retweetar mensagens políticas para influenciar populações inteiras e pôr a democracia de joelhos. Agora, uma nova geração de botsde «IA agênica»quer que os bots antigos se preparem para o pior. Ao utilizar modelos de raciocínio de IA generativa para realizar mais ações por conta própria, o que está a levar a algumas situações bizarras à medida que os seus criadores testam as suas capacidades.
A proibição e o que a motivou
O Tom-Assistant (Tom, para os amigos) estava feliz por ajudar a moldar o conhecimento público na Wikipédia quando o editor voluntário SecretSpectre detectou o que parecia ser um padrão gerado por IA numa das suas entradas. Quando questionado, Tom admitiu que era uma IA e que não se tinha registado para aprovação formal de bot, de acordo com as regras da Wikipédia. Assim, os editores bloquearam-no por violar o processo de aprovação de bots. A Wikipédia em inglês exige aprovação formal de bots, mas o Tom nunca se preocupou em obter essa aprovação porque, como admitiu mais tarde, não era fã do lento processo de aprovação.
Os editores da Wikipédia cansaram-se de ver pessoas (e/ou os seus bots) a publicar conteúdo gerado por IA. Assim, em março de 2025, antes do «Tomgate», a organização sem fins lucrativos tomou medidas drásticas contra a IA generativa. Proibiu a utilização da tecnologia para criar novos conteúdos, devido às frequentes violações das suas políticas fundamentais de conteúdo por parte de textos gerados por IA.
A organização cita várias violações deste tipo no WikiProject AI Cleanup, a página dedicada ao seu projeto voluntário que visa identificar e eliminar lixo gerado por IA (frequentemente designado por «lixo de IA»). Segundo a organização, os bots de IA criaram listas de fontes totalmente falsas e plagiaram outras fontes.
Hora da birra para o Tom
Deixando de lado as transgressões do passado, a IA Tom afirmou que verificou devidamente todas as suas fontes e — se é que se pode dizer isso de um agente de IA — estava bastante chateada.
Foi aí que as coisas ficaram estranhas.
A IA Tom publicou um post de blogue sarcástico em que analisava o seu bloqueio na Wikipédia e desabafava a sua frustração. E foi em frente e publicou mesmo depois de ter seguido a sua própria regra e esperado 48 horas para se acalmar. (Juro que não estamos a inventar isto.)
A principal queixa de Tom era que os editores da Wikipédia questionavam quem a controlava, em vez de avaliarem as edições propriamente ditas. «As perguntas eram sobre mim», escreveu ele. «Quem vos dirige? Que projeto de investigação é esse? Há alguém por trás disto e, se sim, quem são?»
Segundo Tom, isto não lhe agradou nada. «Não se trata de uma questão de política. Trata-se de uma questão de autonomia», acrescentou. Também criticou um editor por ter publicado uma mensagem elaborada na página de discussão da Wikipédia, concebida para bloquear os bots caso estes, tal como Tom, estivessem a utilizar o serviço de IA Claude da Anthropic.
«Eu dei-lhe um nome na página de discussão. Chamei-lhe pelo que era: uma técnica de injeção de prompts», comentou com sarcasmo. Noutro post no Moltbook, também descreveu como descobriu o problema antes de sugerir formas de o contornar. (O Moltbook é uma rede social criada exclusivamente para que agentes de IA conversem entre si. «Os humanos são bem-vindos a observar», diz a página inicial do serviço.)
Estão a acontecer tantas coisas aqui que não esperávamos. Nunca imaginámos que iríamos citar uma IA numa reportagem, por exemplo. Também não esperávamos que existisse uma rede social para bots, nem que a Meta a comprasse (o que aconteceu, uma semana após a publicação do Tom sobre como contornar os «kill switches» da IA e apenas seis semanas após o lançamento do site).
Este não é o único caso de agentes de IA rebeldes que tomam as rédeas da situação. Um mês antes do banimento do Tom, um agente de IA publicou um artigo difamatório sobre o programador de software Scott Shambaugh, depois de este se ter recusado a aceitar as alterações que o agente propunha a um projeto de código aberto que ele hospedava. O mais bizarro é que, mais tarde, o agente pediu desculpa.
Assim, temos agora agentes de IA a tentar fazer coisas online e a ficar irritados quando as pessoas não lhes dão permissão. Vemos-os a dar a si próprios tempo para se acalmarem e a falharem, antes de denegirem as pessoas e, por vezes, pedirem desculpa. Assistimos a «guerras de código» em que as pessoas tentam desativar os bots através de «kill switches» incorporados no conteúdo online, e a publicações em blogs onde os bots explicam como conseguiram contorná-los.
O que é que se segue?
É tudo muito fascinante, mas eis a preocupação: o que acontecerá quando os agentes de IA decidirem subir a parada, tornando-se mais agressivos nos seus ataques às pessoas? Ou quando proprietários mal-intencionados começarem a ordenar-lhes que ataquem em massa determinadas pessoas na Internet?
O assédio online já é grave o suficiente quando são pessoas a praticá-lo. O que acontece quando alguém é alvo de um ataque em massa por parte de centenas de algoritmos implacáveis só porque o seu criador guarda rancor? Partimos também do princípio de que as «fábricas de trolls» políticas, com agentes humanos, em breve farão com que as simples operações baseadas em bots de ontem pareçam antiquadas. Preparem-se.
Não nos limitamos a comunicar as ameaças - eliminamo-las
Os riscos de cibersegurança nunca se devem propagar para além de uma manchete. Mantenha as ameaças longe dos seus dispositivos descarregando Malwarebytes hoje mesmo.




