A IA na cibersegurança: Riscos da IA
Há anos que a inteligência artificial (IA) tem vindo a melhorar as ferramentas de cibersegurança. Por exemplo, as ferramentas de aprendizagem automática tornaram o software de segurança de rede, anti-malware e de deteção de fraudes mais potente, encontrando anomalias muito mais rapidamente do que os seres humanos. No entanto, a IA também representou um risco para a cibersegurança. Ataques de força bruta, de negação de serviço (DoS) e de engenharia social são apenas alguns exemplos de ameaças que utilizam a IA.
Prevê-se que os riscos da inteligência artificial para a cibersegurança aumentem rapidamente com as ferramentas de IA a tornarem-se mais baratas e mais acessíveis. Por exemplo, é possível enganar o ChatGPT para que escreva código malicioso ou uma carta de Elon Musk a pedir donativos,
Também é possível utilizar uma série de ferramentas de deepfake para criar faixas de áudio ou clips de vídeo falsos surpreendentemente convincentes com muito poucos dados de treino. Há também preocupações crescentes com a privacidade, à medida que mais utilizadores se sentem à vontade para partilhar informações sensíveis com a IA.
Leia este guia pormenorizado para saber mais sobre:
- Definição de IA.
- Riscos da inteligência artificial.
- A IA na cibersegurança.
- A IA e os riscos para a privacidade.
O que é a IA: Inteligência Artificial
A IA, ou Inteligência Artificial, refere-se ao desenvolvimento de sistemas informáticos capazes de executar tarefas e tomar decisões que normalmente requerem inteligência humana. Envolve a criação de algoritmos e modelos que permitem às máquinas aprender com os dados, reconhecer padrões e adaptar-se a novas informações ou situações.
Em termos simples, a IA consiste em ensinar os computadores a pensar e a aprender como os seres humanos. Permite que as máquinas processem e analisem grandes quantidades de dados, identifiquem padrões ou anomalias e façam previsões ou tomem decisões com base nessas informações. A IA pode ser utilizada em várias aplicações, como o reconhecimento de imagens e de voz, o processamento de linguagem natural, a robótica e a cibersegurança, para citar algumas.
De um modo geral, a IA tem como objetivo imitar a inteligência humana para resolver problemas complexos, automatizar tarefas e aumentar a eficiência e a precisão em diferentes domínios.
Aprendizagem automática e aprendizagem profunda
A aprendizagem automática (AM) é um subconjunto da IA comummente utilizado. Os algoritmos e técnicas de aprendizagem automática permitem que os sistemas aprendam com os dados e tomem decisões sem serem explicitamente programados.
A aprendizagem profunda (AP) é um subconjunto da aprendizagem automática que utiliza modelos computacionais artificiais inspirados no cérebro humano, designados por redes neuronais, para tarefas mais avançadas. O ChatGPT é um exemplo de IA que utiliza o ML para compreender e responder a pedidos gerados por humanos.
IA estreita e inteligência artificial geral
Todos os tipos de IA são considerados IA estreita. O seu âmbito é limitado e não são sencientes. Exemplos deste tipo de IA são os assistentes de voz, os chatbots, os sistemas de reconhecimento de imagem, os veículos autónomos e os modelos de manutenção.
A inteligência artificial geral (AGI) é um conceito hipotético que se refere a uma IA auto-consciente que pode igualar ou mesmo ultrapassar a inteligência humana. Enquanto alguns especialistas estimam que a AGI está a vários anos ou mesmo décadas de distância, outros acreditam que é impossível.
O que é a IA generativa?
A IA generativa refere-se a um subconjunto de técnicas de inteligência artificial que envolvem a criação e geração de novos conteúdos, como imagens, texto, áudio ou mesmo vídeos. Envolve modelos de treino para compreender padrões em dados existentes e, em seguida, utilizar esse conhecimento para gerar conteúdo novo e original que se assemelhe aos dados de treino.
Uma abordagem popular à IA generativa é a utilização de redes adversariais generativas (GAN). As GAN são constituídas por duas redes neuronais: uma rede geradora e uma rede discriminadora. A rede geradora cria novo conteúdo, enquanto a rede discriminadora avalia e distingue entre o conteúdo gerado e o conteúdo real. As duas redes funcionam de forma competitiva, com o gerador a tentar produzir conteúdos que o discriminador não consegue distinguir dos dados reais.
A IA generativa tem aplicações em vários domínios. Por exemplo:
-
Geração de imagens: A IA generativa pode ser utilizada para gerar imagens realistas, como a criação de rostos fotorrealistas, paisagens ou mesmo objectos totalmente novos que não existem no mundo real.
-
Geração de texto: Os modelos generativos podem ser treinados para gerar texto coerente e contextualmente relevante, que pode ser utilizado para tarefas como chatbots, criação de conteúdos ou tradução de línguas.
-
Geração de música e áudio: A IA generativa pode criar novas composições musicais ou gerar sons e vozes realistas.
Embora a IA generativa tenha muitas aplicações positivas, existem também preocupações quanto à sua potencial utilização incorrecta, como a geração de conteúdos falsos ou de vídeos deepfake que podem ser utilizados para enganar ou manipular as pessoas. As considerações éticas e a utilização responsável da IA generativa são factores importantes para fazer face a estes riscos.
No domínio da cibersegurança, a IA generativa pode ser tanto uma ferramenta como um desafio. Pode ser utilizada para gerar dados sintéticos realistas para treinar modelos e melhorar as medidas de segurança, mas também pode representar riscos quando utilizada para fins maliciosos, como a geração de e-mails de phishing convincentes ou ataques de engenharia social deepfake . Destaca a importância de desenvolver defesas robustas e mecanismos de deteção para mitigar potenciais ameaças.
Quais são os riscos da IA na cibersegurança?
Como qualquer tecnologia, a IA pode ser utilizada para fins positivos ou maliciosos. Os agentes de ameaças podem utilizar algumas das mesmas ferramentas de IA concebidas para ajudar a humanidade a cometer fraudes, burlas e outros cibercrimes.
Vamos explorar alguns riscos da IA na cibersegurança:
1: Otimização dos ataques informáticos
Os peritos afirmam que os atacantes podem utilizar a IA generativa e modelos linguísticos de grande dimensão para escalar os ataques a um nível de velocidade e complexidade nunca antes visto. Podem utilizar a IA generativa para encontrar novas formas de minar a complexidade da nuvem e tirar partido das tensões geopolíticas para ataques avançados. Podem também otimizar as suas técnicas de ataque de ransomware e phishing, polindo-as com IA generativa.
2: Malware automatizado
Uma IA como o ChatGPT é excelente a processar números com precisão. De acordo com o professor da Columbia Business School, Oded Netzer, o ChatGPT já consegue "escrever código bastante bem".
Os especialistas dizem que, num futuro próximo, pode ajudar os criadores de software, os programadores informáticos e os programadores ou deslocar mais do seu trabalho.
Embora um software como o ChatGPT tenha algumas protecções para evitar que os utilizadores criem código malicioso, os especialistas podem utilizar técnicas inteligentes para as contornar e criar malware. Por exemplo, um investigador conseguiu encontrar uma lacuna e criar um executável complexo de roubo de dados quase indetetável. O executável tinha a sofisticação do malware criado por um agente de ameaças patrocinado pelo Estado*.
Isto pode ser a ponta do icebergue. As futuras ferramentas alimentadas por IA podem permitir que os programadores com conhecimentos de programação de nível básico criem malware automatizado, como um bot malicioso avançado. Então, o que são bots maliciosos? Um bot malicioso pode roubar dados, infetar redes e atacar sistemas com pouca ou nenhuma intervenção humana.
* https://www.foxnews.com/tech/ai-created-malware-sends-shockwaves-cyber security-world
3: Segurança física
À medida que mais sistemas como os veículos autónomos, o equipamento de fabrico e construção e os sistemas médicos utilizam a IA, os riscos da inteligência artificial para a segurança física podem aumentar. Por exemplo, um automóvel verdadeiramente autónomo baseado em IA que sofra uma violação da cibersegurança pode resultar em riscos para a segurança física dos seus passageiros. Do mesmo modo, o conjunto de dados das ferramentas de manutenção num estaleiro de construção pode ser manipulado por um atacante para criar condições perigosas.
Riscos para a privacidade da IA
Naquilo que foi um erro embaraçoso para o CEO da OpenAI, Sam Altman, o ChatGPT divulgou partes do histórico de conversação de outros utilizadores. Embora o erro tenha sido corrigido, existem outros riscos de privacidade possíveis devido à grande quantidade de dados que a IA processa. Por exemplo, um pirata informático que viole um sistema de IA pode aceder a diferentes tipos de informações sensíveis.
Um sistema de IA concebido para marketing, publicidade, definição de perfis ou vigilância pode também ameaçar a privacidade de formas que George Orwell não poderia imaginar. Em alguns países, a tecnologia de definição de perfis da IA já está a ajudar os Estados a invadir a privacidade dos utilizadores.
Roubar modelos de IA
Existem alguns riscos de roubo de modelos de IA através de ataques à rede, técnicas de engenharia social e exploração de vulnerabilidades por agentes de ameaças como agentes patrocinados pelo Estado, ameaças internas como espiões de empresas e hackers informáticos comuns. Os modelos roubados podem ser manipulados e modificados para ajudar os atacantes em diferentes actividades maliciosas, agravando os riscos da inteligência artificial para a sociedade.
Manipulação de dados e envenenamento de dados
Embora a IA seja uma ferramenta poderosa, pode ser vulnerável à manipulação de dados. Afinal de contas, a IA depende dos seus dados de treino. Se os dados forem modificados ou envenenados, uma ferramenta alimentada por IA pode produzir resultados inesperados ou mesmo maliciosos.
Em teoria, um atacante pode envenenar um conjunto de dados de treino com dados maliciosos para alterar os resultados do modelo. Um atacante pode também iniciar uma forma mais subtil de manipulação chamada injeção de viés. Estes ataques podem ser especialmente prejudiciais em sectores como os cuidados de saúde, automóvel e transportes.
Falsificação de identidade
Não é preciso ir além do cinema para ver como as ferramentas de IA estão a ajudar os realizadores a enganar o público. Por exemplo, no documentário Roadrunner, a voz do falecido cozinheiro famoso Anthony Bourdain foi controversamente criada com áudio gerado por IA e enganou facilmente os espectadores. Da mesma forma, o ator veterano Harrison Ford foi convincentemente envelhecido várias décadas com o poder da inteligência artificial em Indiana Jones e o Disco do Destino.
Um atacante não precisa de um grande orçamento de Hollywood para fazer um truque semelhante. Com as imagens certas, qualquer pessoa pode fazer filmagens deepfake utilizando aplicações gratuitas. As pessoas também podem utilizar ferramentas gratuitas de IA para criar vozes falsas extremamente realistas, treinadas com base em meros segundos de áudio.
Por isso, não é de surpreender que a IAesteja agora a ser utilizada em esquemas de rapto virtual. Jennifer DeStefano viveu o pior pesadelo de um pai quando a sua filha lhe telefonou, a gritar e a soluçar. A sua voz foi substituída por um homem que ameaçou drogá-la e abusar dela, a menos que pagasse um resgate de um milhão de dólares.
O senão? Os especialistas especulam que a voz foi gerada por IA. As autoridades policiais acreditam que, para além dos esquemas de rapto virtual, a IA pode ajudar os criminosos com outros tipos de fraude de falsificação de identidade no futuro, incluindo esquemas de avô.
A IA generativa também pode produzir texto na voz de líderes de opinião. Os cibercriminosos podem utilizar este texto para aplicar diferentes tipos de burlas, como brindes fraudulentos, oportunidades de investimento e donativos em meios como o correio eletrónico ou plataformas de redes sociais como o Twitter.
Ataques mais sofisticados
Como já foi referido, os agentes de ameaças podem utilizar a IA para criar malware avançado, fazer-se passar por outras pessoas para burlas e envenenar os dados de treino da IA. Podem utilizar a IA para automatizar ataques de phishing, malware e enchimento de credenciais. A IA também pode ajudar os ataques a iludir os sistemas de segurança, como o software de reconhecimento de voz, em ataques designados por ataques adversários.
Danos à reputação
Uma organização que utilize a IA pode sofrer danos na sua reputação se a tecnologia funcionar mal ou sofrer uma violação da segurança cibernética, o que resulta na perda de dados. Essas organizações podem enfrentar coimas, sanções civis e deterioração das relações com os clientes.
Como proteger-se dos riscos da IA
Embora a IA seja uma ferramenta poderosa, pode apresentar alguns riscos de cibersegurança. Tanto os indivíduos como as organizações devem adotar uma abordagem holística e proactiva para utilizar a tecnologia em segurança.
Eis algumas dicas que o podem ajudar a atenuar os riscos da IA:
1: Auditar os sistemas de IA que utiliza
Verifique a reputação atual de qualquer sistema de IA que utilize para evitar problemas de segurança e privacidade. As organizações devem auditar os seus sistemas periodicamente para colmatar as vulnerabilidades e reduzir os riscos da IA. A auditoria pode ser efectuada com a ajuda de especialistas em cibersegurança e inteligência artificial que podem realizar testes de penetração, avaliações de vulnerabilidades e análises de sistemas.
2: Limitar as informações pessoais partilhadas através da automatização
Cada vez mais pessoas estão a partilhar informações confidenciais com a inteligência artificial sem compreenderem os riscos da IA para a privacidade. Por exemplo, funcionários de organizações importantes foram encontrados a colocar dados confidenciais da empresa no ChatGPT. Até mesmo um médico submeteu o nome e o estado de saúde do seu paciente no chatbot para elaborar uma carta, sem compreender o risco de segurança do ChatGPT.
Estas acções representam riscos de segurança e violam regulamentos de privacidade como a HIPAA. Embora os modelos de linguagem da IA possam não conseguir divulgar informações, as conversas são gravadas para controlo de qualidade e estão acessíveis às equipas de manutenção do sistema. É por isso que é uma boa prática evitar a partilha de qualquer informação pessoal com a IA.
3: Segurança dos dados
Como já foi referido, a IA baseia-se nos seus dados de formação para obter bons resultados. Se os dados forem modificados ou envenenados, a IA pode apresentar resultados inesperados e perigosos. Para proteger a IA do envenenamento de dados, as organizações devem investir em encriptação de ponta, controlo de acesso e tecnologia de cópia de segurança. As redes devem ser protegidas com firewalls, sistemas de deteção de intrusão e palavras-passe sofisticadas.
4: Otimizar o software
Siga todas as práticas recomendadas de manutenção de software para se proteger do risco da IA. Isto inclui a atualização do seu software e estruturas de IA, sistemas operativos e aplicações com os patches e actualizações mais recentes para reduzir o risco de exploração e ataques de malware. Proteja os seus sistemas com tecnologia antivírus de última geração para impedir ameaças maliciosas avançadas. Além disso, invista em medidas de segurança da rede e das aplicações para reforçar as suas defesas.
5: Formação contraditória
O treino contraditório é uma medida de segurança específica da IA que ajuda a IA a responder a ataques. O método de aprendizagem automática melhora a resiliência dos modelos de IA, expondo-os a diferentes cenários, dados e técnicas.
6: Formação do pessoal
Os riscos da IA são bastante vastos. Consulte especialistas em cibersegurança e IA para formar os seus empregados em gestão de riscos de IA. Por exemplo, devem aprender a verificar os factos em e-mails que possam ser ataques de phishing concebidos pela IA. Do mesmo modo, devem evitar abrir software não solicitado que possa ser malware criado por inteligência artificial.
7: Gestão de vulnerabilidades
As organizações podem investir na gestão de vulnerabilidades da IA para mitigar o risco de violações e fugas de dados. A gestão de vulnerabilidades é um processo de ponta a ponta que envolve a identificação, análise e triagem de vulnerabilidades e a redução da superfície de ataque relacionada com as caraterísticas únicas dos sistemas de IA.
8: Resposta a incidentes de IA
Apesar de ter as melhores medidas de segurança, a sua organização pode sofrer um ataque de cibersegurança relacionado com a IA à medida que os riscos da inteligência artificial aumentam. Deve ter um plano de resposta a incidentes claramente delineado que abranja a contenção, a investigação e a correção para recuperar de um evento deste tipo.
O outro lado: como a IA pode beneficiar a cibersegurança
Indústrias de diferentes dimensões e sectores utilizam a IA para melhorar a cibersegurança. Por exemplo, todos os tipos de organizações em todo o mundo utilizam a IA para autenticar identidades, desde bancos a governos. E os sectores financeiro e imobiliário utilizam a IA para encontrar anomalias e reduzir o risco de fraude.
Eis mais informações sobre os benefícios da IA para a cibersegurança:
1: Deteção de ciberameaças
O malware sofisticado pode contornar a tecnologia padrão de cibersegurança utilizando diferentes técnicas de evasão, incluindo a modificação do código e da estrutura. No entanto, o software antivírus avançado pode utilizar a IA e o ML para encontrar anomalias na estrutura geral, na lógica de programação e nos dados de uma potencial ameaça.
As ferramentas de deteção de ameaças com tecnologia de IA podem proteger as organizações, procurando estas ameaças emergentes e melhorando as capacidades de alerta e resposta. Além disso, o software de segurança de terminais com tecnologia de IA pode proteger os computadores portáteis, os smartphones e os servidores de uma organização.
2: Modelos preditivos
Os profissionais de cibersegurança podem passar de uma postura reactiva para uma postura proactiva utilizando a IA generativa. Por exemplo, podem utilizar a IA generativa para criar modelos preditivos que identificam novas ameaças e atenuam os riscos.
Esses modelos de previsão resultarão em:
- Deteção mais rápida de ameaças
- Poupança de tempo
- Redução de custos
- Melhoria da resposta a incidentes
- Melhor proteção contra riscos
3: Deteção de phishing
Os e-mails de phishing são um vetor de ameaça significativo. Com pouco risco, os agentes de ameaças podem utilizar expedições de phishing para roubar informações sensíveis e dinheiro. Além disso, é cada vez mais difícil distinguir os e-mails de phishing dos e-mails reais.
A IA pode beneficiar a cibersegurança ao melhorar a proteção contra phishing. Os filtros de correio eletrónico que utilizam IA podem analisar texto para assinalar mensagens de correio eletrónico com padrões suspeitos e bloquear diferentes tipos de spam.
4: Identificar bots
Os bots podem danificar ou derrubar redes e sítios Web, afectando negativamente a segurança, a produtividade e as receitas de uma organização. Os bots também podem assumir o controlo de contas com credenciais roubadas e ajudar os cibercriminosos a cometer fraudes e burlas.
O software que utiliza modelos baseados na aprendizagem automática pode analisar o tráfego e os dados da rede para identificar padrões de bots e ajudar os especialistas em cibersegurança a negá-los. Os profissionais de rede também podem utilizar a IA para desenvolver CAPTCHA mais seguros contra bots.
5: Segurança das redes
Os atacantes podem exfiltrar dados ou infetar sistemas com ransomware depois de violarem uma rede. Detetar essas ameaças precocemente é fundamental. A deteção de anomalias baseada em IA pode analisar o tráfego de rede e os registos do sistema em busca de acesso não autorizado, código invulgar e outros padrões suspeitos para evitar violações. Além disso, a IA pode ajudar a segmentar redes analisando requisitos e caraterísticas.
6: Resposta a incidentes
A IA pode impulsionar a caça às ameaças, a gestão das ameaças e a resposta a incidentes. Pode trabalhar 24 horas por dia para responder a ameaças e tomar medidas de emergência, mesmo quando a sua equipa está offline. Além disso, pode reduzir os tempos de resposta a incidentes para minimizar os danos de um ataque.
7: Atenuar as ameaças internas
As ameaças internas devem ser levadas a sério porque podem custar a uma organização receitas, segredos comerciais, dados sensíveis e muito mais. Existem dois tipos de ameaças internas: maliciosas e não intencionais. A IA pode ajudar a impedir ambos os tipos de ameaças internas, identificando comportamentos de risco dos utilizadores e impedindo que informações sensíveis saiam das redes de uma organização.
8: Reforçar o controlo de acesso
Muitas ferramentas de controlo de acesso utilizam a IA para melhorar a segurança. Podem bloquear os inícios de sessão de endereços IP suspeitos, assinalar eventos suspeitos e pedir aos utilizadores com palavras-passe fracas que alterem as suas credenciais de início de sessão e actualizem para a autenticação multifactor.
A IA também ajuda a autenticar os utilizadores. Por exemplo, pode aproveitar a biometria, as informações contextuais e os dados de comportamento do utilizador para verificar com precisão a identidade dos utilizadores autorizados e mitigar o risco de utilização indevida.
9: Identificar falsos positivos
A gestão dos falsos positivos pode ser exaustiva para as equipas de TI. O grande volume de falsos positivos pode resultar em problemas de saúde mental. Podem também obrigar as equipas a não detectarem ameaças legítimas. No entanto, o volume de falsos positivos pode ser reduzido com ferramentas de cibersegurança que utilizam a inteligência artificial para melhorar a precisão da deteção de ameaças. Essas ferramentas também podem ser programadas para gerir automaticamente ameaças de baixa probabilidade que consomem o tempo e os recursos de uma equipa de segurança.
10: Eficiência e custos do pessoal de TI
Muitas pequenas e médias empresas não se podem dar ao luxo de investir numa grande equipa interna de cibersegurança para gerir ameaças cada vez mais sofisticadas 24 horas por dia. No entanto, podem investir em tecnologia de cibersegurança alimentada por IA que funciona 24 horas por dia, 7 dias por semana, para oferecer monitorização contínua, melhorar a eficiência e reduzir os custos. Essa tecnologia também pode ser dimensionada com o crescimento de uma empresa de forma económica.
Além disso, a IA melhora a eficiência do pessoal porque não se cansa. Oferece a mesma qualidade de serviço a todas as horas do dia, reduzindo o risco de erro humano. A IA também pode gerir significativamente mais dados do que uma equipa de segurança humana.