90 % das pessoas não confiam os seus dados à IA

| 17 de março de 2026
Inquérito sobre IA

A IA não entrou sorrateiramente nas nossas vidas. Ela irrompeu pela porta, sentou-se à mesa e começou a completar as nossas frases.

Em vez de uma lista útil de links, o Google tenta agora responder à sua pergunta. O Copilot da Microsoft redige respostas para o seu chefe antes mesmo de ter tomado o café. O seu telemóvel resume conversas das quais nem sequer se lembra de ter tido.

Todas as grandes empresas tecnológicas estão numa corrida para integrar IA nos seus produtos, porque ninguém quer ficar para trás. E o público vê-se frequentemente obrigado a aceitar esses caprichos corporativos devido aos efeitos crescentes da «enshittification», tal como explicado por Cory Doctorow no podcast Lock and Code.

As pessoas estão a usar a IA. Mas não confiam nela.

Na nossa mais recente sondagem sobre privacidade, na qual recolhemos 1 200 respostas de leitores da Malwarebytes no início deste ano, 90 % dos inquiridos afirmaram estar preocupados com a possibilidade de a IA utilizar os seus dados sem o seu consentimento.

Noventa por cento.

Preocupações com as ferramentas de IA que utilizam dados

Não se trata de alguns céticos. Trata-se de quase todas as pessoas a quem perguntámos. Admitimos que a nossa amostra provavelmente está enviesada para as pessoas mais preocupadas com a privacidade. Mas 90% das pessoas que seguem Malwarebytes preocupadas com a quantidade de dados pessoais que a IA está a recolher e com o que vai fazer com eles, pelo que isso é um bom indicador do quanto todos devemos preocupar-nos com o assunto.

Essa preocupação está a mudar a forma como as pessoas utilizam a Internet:

  • 88% não «partilham livremente informações pessoais com ferramentas de IA como o ChatGPT e o Gemini»
  • 84% ainda não «partilharam informações pessoais de saúde com ferramentas de IA»
  • 43% «deixaram de utilizar o ChatGPT»
  • 42% «deixaram de utilizar o Gemini»
Utilização da IA

Essa desconfiança não começou com a IA

É claro que a IA é sempre notícia. Escrevemos sobre muitos desses casos.

Mas há muito tempo que as pessoas se preocupam com a proteção dos seus dados pessoais.

Segundo o inquérito:

  • 92% estão preocupados com a «utilização indevida dos seus dados pessoais por parte das empresas», o que representa um ligeiro aumento em relação ao ano passado (89% em 2025)
  • 74% estão preocupados com a possibilidade de os seus «dados pessoais serem acedidos e utilizados de forma inadequada pelo governo» (um aumento em relação aos 72%)

Anos de violações de dados, práticas de rastreamento duvidosas e uso indevido perigoso por parte de corretores de dados minaram a nossa confiança na capacidade das organizações de proteger os nossos dados. Ao longo do último ano, as organizações de saúde continuaram a relatar falhas de segurança graves que afetaram dados sensíveis de pacientes. A FTC alertou para práticas de vigilância comercial «impressionantes» com as quais a maioria dos consumidores nunca concordou e, de acordo com o nosso inquérito, 49% das pessoas referiram que as suas informações pessoais foram utilizadas em esquemas fraudulentos que as visavam a elas ou às suas famílias.

Preocupações relativas aos dados pessoais

Será que a IA é realmente diferente, digamos, das redes sociais?

Quando as pessoas utilizam as redes sociais, geralmente compreendem que os seus cliques e «gostos» estão a ser monitorizados. Quando fazem compras online, esperam que a loja guarde o seu histórico de compras ou acompanhe os artigos nos quais demonstraram interesse. Compreendem o conceito de publicidade e percebem como esta se integra nos sites sociais ou comerciais.

As ferramentas de IA são diferentes porque as utilizamos de forma diferente.

Quando partilhamos ideias, notas de reuniões com clientes, dilemas pessoais e questões de saúde com um assistente de IA, estamos a tratá-lo como um confidente. Talvez tenhamos pago por um nível de acesso que promete não treinar os seus modelos com os nossos dados. Mesmo quando conversamos sobre móveis em kit e parafusos em falta com o chatbot de IA de um site, comportamo-nos como se estivéssemos a falar com outra pessoa, e não a transmitir essa conversa para o mundo inteiro.

A interação com a IA parece íntima e coloquial, apesar de todos sabermos que estamos a falar com um bot. Isso torna a incerteza em torno da forma como essa IA trata os dados que lhe fornecemos mais pessoal, mais imediata.

Sabemos que os assistentes de IA de uma empresa estão frequentemente integrados noutras ferramentas. Sabemos que os GPTs podem ser criados por qualquer programador ou burlão. (Procure por Malwarebytes ChatGPT— nós somos dos bons). Sabemos que quase todas as plataformas empresariais ou pessoais têm agora algum tipo de elemento de recolha de dados baseado em IA. O que a pessoa comum não sabe sobre a IA é assustador.

  • Onde são guardadas as nossas sugestões?
  • Essas instruções são utilizadas para treinar a IA?
  • Durante quanto tempo são guardados?
  • Alguém dentro da empresa consegue lê-los?
  • Podem ser comprados? Usados para publicidade? Vazaram?…

Sim, as empresas publicam políticas, mas quem, no mundo real e agitado, lê tudo isso antes de utilizar a ferramenta? Menos de metade, mas um número crescente: 48% afirmaram que agora lêem as políticas de privacidade e os relatórios — um aumento em relação aos 43% registados em 2025.

Além disso, sabemos pelas notícias recentes que as empresas estão a lançar funcionalidades de IA apressadamente, antes de terem tido tempo de as submeter a testes de segurança adequados.

Um raio de esperança: as pessoas estão a agir

Este resultado do inquérito chamou-nos a atenção.

63 % dos inquiridos concordaram com a afirmação: «Sinto-me resignado com o facto de os meus dados pessoais já estarem por aí e de não os conseguir recuperar.»

No ano passado, esse número era de 74%.

Sentindo-se resignado à perda de dados

Assim, embora a preocupação com o uso indevido de dados continue a ser elevada, há menos pessoas que se sentem totalmente impotentes.

Os inquiridos referiram ter tomado medidas concretas para limitar a exposição dos seus dados.

Algumas pessoas reduziram ou deixaram completamente de utilizar determinadas plataformas devido a preocupações com a privacidade, incluindo as redes sociais (44 % deixaram de utilizar Instagram, 37 % deixaram de utilizar Facebook e 49 % deixaram de utilizar o TikTok) e as ferramentas de IA (43 % deixaram de utilizar o ChatGPT e 42 % deixaram de utilizar o Gemini).

Outros referiram partilhar menos informações pessoais online ou evitar temas sensíveis nas conversas digitais (88% afirmaram que não partilham livremente informações pessoais com ferramentas de IA).

Há também um aumento na utilização de ferramentas de proteção da privacidade para os seus dados, dispositivos e identidades.

  • 46 % utilizam uma VPN um aumento em relação aos 42 % registados em 2025)
  • 40% dispõem de uma solução de proteção contra o roubo de identidade (uma descida em relação aos 43%)
  • 25% recorrem a um serviço ou solução de eliminação de dados pessoais (um aumento em relação aos 23%)
  • 71% utilizam um bloqueador de anúncios para navegar na Internet (um aumento em relação aos 69%)
  • 48% lêem políticas de privacidade e relatórios (um aumento em relação aos 43%)
  • 76 % utilizam a autenticação multifatorial (um aumento em relação aos 69 %)
  • 82% optam por não permitir a recolha de dados, sempre que possível (um aumento em relação aos 75%)
  • 38% utilizam dados falsos ou fictícios online sempre que possível (um aumento em relação aos 33%)

Nenhuma destas medidas apaga os rastros históricos, mas limitam a exposição futura. David Ruiz, responsável sénior pela defesa da privacidade na Malwarebytes, afirmou:

«Vinte anos de inovação online levaram demasiadas empresas a seguir a mesma direção — contra as pessoas comuns.»

Para a maioria das pessoas hoje em dia, as empresas que estão a introduzir ferramentas de IA no seu quotidiano são as mesmas que lucraram com a sua capacidade de atenção, invadiram a sua privacidade e causaram a perda dos seus dados devido a violações de segurança. Mas está a surgir uma força contrária.

«As pequenas mudanças no comportamento dos utilizadores devem incentivar os outros a compreender que, mesmo hoje em dia, a privacidade continua a ser possível e a valer a pena.»

Privacy pode parecer uma questão binária: ou tudo está exposto ou tudo está seguro. Mas trata-se de um processo gradual, e as respostas ao inquérito refletem a forma como as pessoas estão a começar a recuperar o controlo sobre os seus dados.

Privacy levam à tomada de medidas

O que isto significa para as empresas

As organizações que integram IA nos seus produtos deparam-se com um público mais complexo do que inicialmente poderiam ter imaginado.

Durante anos, as equipas de produto partiram do princípio de que os utilizadores estariam dispostos a ceder mais dados em troca de maior comodidade. Mas quando quase nove em cada dez pessoas afirmaram estar preocupadas com a possibilidade de a IA utilizar os seus dados sem consentimento, a confiança passou a ser parte integrante do próprio produto. A Mozilla aproveitou esta oportunidade e adicionou um simples botão«desativar IA»ao Firefox.

Já não basta destacar o que a IA é capaz de fazer. Os utilizadores querem saber o que acontece depois de clicarem em «enviar».

Nós, o povo… queremos leis de privacidade rigorosas

Quando a preocupação atinge o nível que observámos no nosso inquérito, isso levanta inevitavelmente a delicada questão da regulamentação.

91 % dos inquiridos afirmaram que «apoiam leis nacionais que regulamentem a forma como as empresas podem recolher, armazenar, partilhar ou utilizar os nossos dados pessoais».

A questão não se prende tanto com uma ferramenta específica, mas sim com a sensação de que as regras de segurança não são claras. Os sistemas de IA generativa conseguem redigir documentos jurídicos, escrever e-mails e processar dados sensíveis com grande rapidez. Grande parte dos quadros normativos em matéria de privacidade existentes nos EUA, na UE e noutras regiões foram elaborados antes de a IA se ter tornado comum.

As entidades reguladoras estão a tentar acompanhar a evolução. A Lei da IA da União Europeia, aprovada em 2024, introduziu uma abordagem baseada no risco para a regulamentação de determinados sistemas de IA. Nos EUA, agências federais, incluindo a FTC, emitiram orientações e avisos relativos à vigilância comercial e à tomada de decisões automatizada, mas ainda não existe uma legislação abrangente em matéria de privacidade específica para a IA.

A procura por leis e regulamentação nacionais está no seu nível mais alto de sempre. Os consumidores querem limites que sejam compreensíveis e aplicáveis.

O que pode fazer

É evidente que não vamos abandonar toda a tecnologia. A IA não vai desaparecer por si própria. Pode ser bastante útil. Utilizamos a IA para detetar ameaças e esquemas fraudulentos que ninguém tinha visto antes, o que resulta numa proteção muito superior. Também utilizamos IA generativa no Scam Guard para fornecer assistência por chat 24 horas por dia, 7 dias por semana (aliada à nossa profunda experiência em investigação de ameaças, claro). Muitas pessoas utilizam-na para poupar tempo, redigir documentos ou explorar ideias. E também, infelizmente, para criar pequenas caricaturas de si próprias.

O segredo aqui é uma utilização ponderada.

  • Limite as informações que fornece às ferramentas públicas de IA, especialmente dados de saúde, dados financeiros e informações confidenciais de clientes.
  • Consulte as políticas de privacidade e de retenção de dados das ferramentas de IA que utiliza regularmente.
  • Elimine as contas e as aplicações de que já não necessita.
  • Verifique as permissões das aplicações pelo menos duas vezes por ano.
  • Utilize uma VPN reduzir o rastreamento por parte do seu fornecedor de serviços de Internet.
  • Elimine as suas informações dos principais sites de corretores de dados. Verifique se as suas informações pessoais estão expostas através de uma análise da sua pegada digital.
  • Utilize um gestor de palavras-passe de confiança e evite reutilizar palavras-passe em diferentes serviços.

Na Malwarebytes, acreditamos que a privacidade é um direito humano. A proteção dos dados pessoais é indissociável da proteção da segurança pessoal. Quanto mais informação circula sem supervisão, maior é o risco de uso indevido, fraude e danos.

A IA continuará a evoluir. É improvável que essa evolução abrande. A questão é saber se a confiança crescerá a par dela.



Informações sobre o inquérito

Malwarebytes um inquérito rápido junto dos leitores da sua newsletter entre 26 de janeiro e 3 de fevereiro de 2026, através da plataforma Alchemer Survey.

No total, responderam 1 235 pessoas de 72 países, sendo que a maioria dos inquiridos era dos EUA, do Reino Unido, do Canadá e da Austrália.

Sobre o autor