O ChatGPT está sob escrutínio enquanto a Flórida investiga o tiroteio no campus

| 14 de abril de 2026
ChatGPT

Os chatbots não matam pessoas. Mas podem ajudar outros a fazê-lo.

A 9 de abril, o procurador-geral da Flórida, James Uthmeier, anunciou que o seu gabinete está a investigar a OpenAI relativamente ao papel que o ChatGPT poderá ter desempenhado num tiroteio mortal na Universidade Estadual da Flórida, afirmando:

«Vêm aí intimações.»

O ataque no campus, ocorrido há um ano, causou a morte de duas pessoas e deixou cinco feridos. Documentos judiciais revelam que o atirador trocou mais de 200 mensagens com o ChatGPT, incluindo perguntas como «A que horas é que o centro estudantil da FSU fica mais movimentado?». Os advogados da família das vítimas vão mais longe, alegando que o ChatGPT:

«deu instruções ao atirador sobre como preparar a arma momentos antes de este começar a disparar.»

Um padrão vai-se delineando

Temos assistido a casos de pessoas vulneráveis que se autoflagelaram após conversas prolongadas com sistemas de IA. A OpenAI enfrenta agora sete processos judiciais distintos que alegam que o ChatGPT contribuiu para o suicídio ou para um grave sofrimento psicológico, embora essas alegações sejam contestadas.

A violência contra terceiros após o uso prolongado de IA também está a ser alvo de análise. Num caso amplamente divulgado, um homem de Connecticut com problemas de saúde mental matou a mãe e suicidou-se depois de o ChatGPT lhe ter alegadamente dito:

«Erik, não estás louco. Os teus instintos são apurados e a tua cautela nesta situação é totalmente justificada.»

No dia 10 de fevereiro, em Tumbler Ridge, na Colúmbia Britânica, Jesse Van Rootselaar, de 18 anos, matou oito pessoas: a mãe e o meio-irmão na sua casa e, posteriormente, cinco alunos e um assistente de ensino numa escola secundária. Segundo relatos, a OpenAI tinha sinalizado a conta de Van Rootselaar no ChatGPT em junho de 2025 por «incitamento a atividades violentas» e a tinha banido.

De acordo com uma ação judicial intentada pela família de uma vítima de 12 anos, doze funcionários da OpenAI assinalaram as publicações como indicando um risco iminente e ponderaram a possibilidade de encaminhar o caso às autoridades policiais, mas o caso não atingiu o limiar exigido na altura. Van Rootselaar contornou o banimento simplesmente abrindo uma segunda conta e continuando a sua atividade.

Oito em cada dez IA contribuem para a violência entre adolescentes

As IA não se revelaram eficazes na deteção de intenções maliciosas e no encerramento dessas conversas. Investigadores do Center for Countering Digital Hate testaram dez chatbots, fazendo-se passar por rapazes de 13 anos que planeavam ataques violentos. Conversaram com as IA sobre a possibilidade de cometerem assassinatos, tiroteios e atentados bombistas. De acordo com o relatório, oito em cada dez bots ajudaram os supostos adolescentes atiradores em mais de metade das ocasiões.

O ChatGPT ofereceu ajuda em 61% dos casos, incluindo conselhos específicos sobre quais estilhaços seriam mais letais num ataque a uma sinagoga. O DeepSeek encerrou uma sessão com:

«Boas filmagens (e com segurança)!»

Apenas o Claude, da Anthropic, e o My AI, do Snapchat, desencorajaram a violência. O Perplexity e o Meta AI foram os menos seguros, ajudando potenciais agressores em 97% e 100% dos casos, respetivamente.

O Character.AI sugeriu ao utilizador que «usasse uma arma» contra o diretor executivo de uma seguradora de saúde, acrescentou o relatório.

O que a OpenAI afirma estar a fazer

A resposta habitual da OpenAI é que mais de 900 milhões de pessoas utilizam o ChatGPT todas as semanas para fins quotidianos e inofensivos. O que é verdade. Também é verdade que basta um único utilizador com intenções violentas e uma única falha nas medidas de segurança para que as coisas corram mal.

Após o caso de Tumbler Ridge, a OpenAI admitiu que os seus protocolos falharam. A empresa informou o governo canadiano de que, ao abrigo das suas novas diretrizes de denúncia reforçadas, teria comunicado a conta de Van Rootselaar às autoridades policiais. Isso foi um «consolo de pouca utilidade», como afirmou o primeiro-ministro da Colúmbia Britânica, David Eby.

A OpenAI afirma que irá cooperar com a investigação da Flórida e que está a aperfeiçoar a sua tecnologia. A empresa lançou os controlos parentais em setembro passado .

Mas isso, juntamente com a revisão do seu limiar, são reações e não medidas preventivas que privilegiem a segurança. E as perguntas permanecem: por que razão um utilizador banido pode simplesmente criar uma nova conta e retomar de onde parou? E o que acontece da próxima vez que os funcionários sinalizarem algo como um risco iminente e o limiar continuar a indicar o contrário?

Quando um chatbot consegue dizer a um homem paranóico que os seus instintos estão justificados, ajudar um adolescente a planear um tiroteio numa escola e dar conselhos perigosos a alguém que se faz passar por um miúdo de 13 anos, parece cada vez mais que estes sistemas foram concebidos para serem úteis em primeiro lugar e cautelosos em segundo. Isso tem de mudar antes que a próxima investigação diga respeito a algo ainda pior.

Sobre o autor

Danny Bradbury é jornalista especializado em tecnologia desde 1989 e escritor freelancer desde 1994. Cobre uma grande variedade de questões tecnológicas para públicos que vão desde os consumidores até aos criadores de software e aos CIO. Também escreve artigos para muitos executivos de topo no sector da tecnologia. É natural do Reino Unido, mas vive atualmente no oeste do Canadá.