IA em Cibersegurança: Riscos da IA
Por anos, a inteligência artificial (IA) tem aprimorado ferramentas de cibersegurança. Por exemplo, ferramentas de aprendizado de máquina tornaram a segurança de rede, o software anti-malware e de detecção de fraude mais potentes ao encontrar anomalias muito mais rápido que os humanos. Contudo, a IA também apresentou riscos à cibersegurança. Ataques de força bruta, negação de serviço (DoS) e engenharia social são apenas alguns exemplos de ameaças que utilizam IA.
Os riscos da inteligência artificial para a cibersegurança devem aumentar rapidamente com as ferramentas de IA se tornando mais baratas e acessíveis. Por exemplo, você pode enganar o ChatGPT para escrever código malicioso ou uma carta de Elon Musk solicitando doações.
Você pode também usar uma série de ferramentas de deepfake para criar faixas de áudio falsas ou vídeos surpreendentemente convincentes com pouquíssimos dados de treinamento. Além disso, há crescentes preocupações com privacidade à medida que mais usuários se sentem confortáveis em compartilhar informações sensíveis com a IA.
Leia este guia completo para saber mais sobre:
- Definição de IA.
- Riscos da inteligência artificial.
- IA em cibersegurança.
- IA e riscos de privacidade.
O que é IA: Inteligência Artificial.
IA, ou Inteligência Artificial, refere-se ao desenvolvimento de sistemas de computador capazes de realizar tarefas e tomar decisões que geralmente exigem inteligência humana. Envolve a criação de algoritmos e modelos que possibilitam que as máquinas aprendam a partir de dados, reconheçam padrões e se adaptem a novas informações ou situações.
Em termos simples, IA é como ensinar computadores a pensar e aprender como humanos. Ela permite que máquinas processem e analisem grandes quantidades de dados, identifiquem padrões ou anomalias e façam previsões ou tomem decisões com base nessas informações. A IA pode ser utilizada em diversas aplicações, como reconhecimento de imagem e fala, processamento de linguagem natural, robótica e cibersegurança, para citar algumas.
No geral, o objetivo da IA é imitar a inteligência humana para resolver problemas complexos, automatizar tarefas e aumentar a eficiência e precisão em diferentes campos.
Aprendizado de máquina e aprendizado profundo.
Aprendizado de máquina (ML) é um subconjunto comumente usado de IA. Os algoritmos e técnicas de ML permitem que sistemas aprendam com dados e tomem decisões sem serem explicitamente programados.
Aprendizado profundo (DL) é um subconjunto do ML que utiliza modelos computacionais artificiais inspirados no cérebro humano chamados redes neurais para tarefas mais avançadas. ChatGPT é um exemplo de IA que utiliza ML para entender e responder a prompts gerados por humanos.
IA estreita e inteligência artificial geral.
Todos os tipos de IA são considerados IA Estreita. Seu escopo é limitado e não são sencientes. Exemplos de tais IA são assistentes de voz, chatbots, sistemas de reconhecimento de imagem, veículos autônomos e modelos de manutenção.
Inteligência artificial geral (AGI) é um conceito hipotético que se refere a uma IA autoconsciente que pode igualar ou até superar a inteligência humana. Enquanto alguns especialistas estimam que a AGI está a vários anos ou até décadas de distância, outros acreditam que é impossível.
O que é IA generativa?
IA generativa refere-se a um subconjunto de técnicas de inteligência artificial que envolvem a criação e geração de novo conteúdo, como imagens, textos, áudio ou até vídeos. Envolve o treinamento de modelos para entender padrões em dados existentes e depois usar esse conhecimento para gerar novo conteúdo original que se assemelha aos dados de treinamento.
Uma abordagem popular para IA generativa é o uso de redes adversárias generativas (GANs). As GANs consistem em duas redes neurais: uma rede geradora e uma rede discriminadora. A rede geradora cria novo conteúdo, enquanto a rede discriminadora avalia e distingue entre o conteúdo gerado e o conteúdo real. As duas redes trabalham de maneira competitiva, com a geradora tentando produzir conteúdo que a discriminadora não consegue distinguir dos dados reais.
A IA generativa tem aplicações em vários domínios. Por exemplo:
-
Geração de Imagens: A IA generativa pode ser usada para gerar imagens realistas, como criar rostos fotorrealistas, paisagens ou até mesmo objetos totalmente novos que não existem no mundo real.
-
Geração de Texto: Modelos generativos podem ser treinados para gerar texto coerente e contextualmente relevante, que pode ser usado para tarefas como chatbots, criação de conteúdo ou tradução de idiomas.
-
Geração de Música e Áudio: IA generativa pode criar novas composições musicais ou gerar sons e vozes realistas.
Embora a IA generativa tenha muitas aplicações positivas, existem preocupações sobre seu possível uso indevido, como gerar conteúdo falso ou vídeos deepfake que possam ser usados para enganar ou manipular pessoas. Considerações éticas e o uso responsável da IA generativa são fatores importantes para abordar esses riscos.
No campo da cibersegurança, a IA generativa pode ser tanto uma ferramenta quanto um desafio. Pode ser usada para gerar dados sintéticos realistas para treinar modelos e melhorar medidas de segurança, mas também pode representar riscos quando usada para fins maliciosos, como gerar e-mails de phishing convincentes ou ataques de engenharia social com deepfakes. Isso destaca a importância de desenvolver defesas robustas e mecanismos de detecção para mitigar ameaças potenciais.
Quais são os riscos da IA na cibersegurança.
Como qualquer tecnologia, a IA pode ser usada para fins bons ou maliciosos. Agentes de ameaça podem utilizar algumas das mesmas ferramentas de IA projetadas para ajudar a humanidade para cometer fraudes, golpes e outros crimes cibernéticos.
Vamos explorar alguns riscos da IA na cibersegurança:
1: Otimização de ataques cibernéticos.
Especialistas dizem que os atacantes podem usar IA generativa e grandes modelos de linguagem para escalar ataques a um nível ainda não visto de velocidade e complexidade. Podem usar a IA generativa para encontrar novas formas de minar a complexidade da nuvem e tirar proveito de tensões geopolíticas para ataques avançados. Também podem otimizar suas técnicas de ataque de ransomware e phishing, aprimorando-as com IA generativa.
2: Malware automatizado.
Uma IA como o ChatGPT é excelente em trabalhar com números de forma precisa. Segundo o professor Oded Netzer da Escola de Negócios da Columbia, o ChatGPT já consegue “escrever código muito bem.”
Especialistas dizem que, no futuro próximo, pode ajudar desenvolvedores de software, programadores de computador e codificadores ou substituir parte do trabalho deles.
Enquanto softwares como o ChatGPT possuem algumas proteções para impedir que os usuários criem códigos maliciosos, especialistas podem usar técnicas inteligentes para burlá-lo e criar malware. Por exemplo, um pesquisador conseguiu encontrar uma brecha e criar um executável complexo de roubo de dados quase indetectável. O executável possuía a sofisticação de malware criado por um agente de ameaça patrocinado pelo estado*.
Isso pode ser apenas a ponta do iceberg. Futuras ferramentas alimentadas por IA podem permitir que desenvolvedores com habilidades de programação de nível iniciante criem malware automatizado, como um bot malicioso avançado. Então,o que são bots maliciosos? Um bot malicioso pode roubar dados, infectar redes e atacar sistemas com pouca ou nenhuma intervenção humana.
* https://www.foxnews.com/tech/ai-created-malware-sends-shockwaves-cyber security-world
3: Segurança física.
À medida que mais sistemas como veículos autônomos, equipamentos de fabricação e construção e sistemas médicos usam IA, os riscos de inteligência artificial para a segurança física podem aumentar. Por exemplo, um carro totalmente autônomo baseado em IA que sofre uma violação de segurança cibernética pode resultar em riscos à segurança física de seus passageiros. Da mesma forma, o conjunto de dados para ferramentas de manutenção em um canteiro de obras pode ser manipulado por um atacante para criar condições perigosas.
Riscos de privacidade da IA.
Em um bug embaraçoso para o CEO da OpenAI, Sam Altman,o ChatGPT vazou partes do histórico de chat de outros usuários. Embora o bug tenha sido corrigido, existem outros possíveis riscos de privacidade devido à vasta quantidade de dados que a IA processa. Por exemplo, um hacker que viole um sistema de IA poderia acessar diferentes tipos de informações sensíveis.
Um sistema de IA projetado para marketing, publicidade, perfilamento ou vigilância também poderia ameaçar a privacidade de maneiras que George Orwell não poderia imaginar. Em alguns países, a tecnologia de perfilamento por IA já está ajudando os estados a invadirem a privacidade dos usuários.
Roubo de modelos de IA.
Existem alguns riscos de roubo de modelos de IA por meio de ataques de rede, técnicas de engenharia social e exploração de vulnerabilidades por agentes de ameaça como agentes patrocinados pelo estado, ameaças internas como espiões corporativos e hackers comuns. Modelos roubados podem ser manipulados e modificados para ajudar atacantes com diferentes atividades maliciosas, ampliando os riscos da inteligência artificial para a sociedade.
Manipulação de dados e envenenamento de dados.
Embora a IA seja uma ferramenta poderosa, ela pode ser vulnerável à manipulação de dados. Afinal, a IA é dependente de seus dados de treinamento. Se os dados forem modificados ou envenenados, uma ferramenta alimentada por IA pode produzir resultados inesperados ou até maliciosos.
Na teoria, um atacante poderia contaminar um conjunto de dados de treinamento com informações maliciosas para alterar os resultados do modelo. Um atacante também poderia iniciar uma forma mais sutil de manipulação chamada injeção de viés. Esses ataques podem ser especialmente prejudiciais em indústrias como saúde, automotiva e de transporte.
Imitação
Não é preciso ir além do cinema para ver como ferramentas baseadas em IA estão ajudando cineastas a enganar o público. Por exemplo, no documentário Roadrunner, a voz do falecido chef celebridade Anthony Bourdain foi controversamente criada com áudio gerado por IA e enganou facilmente os espectadores. Da mesma forma, o veterano ator Harrison Ford foi rejuvenescido com décadas a menos com o poder da inteligência artificial em Indiana Jones and the Dial of Destiny.
Um atacante não precisa de um grande orçamento de Hollywood para realizar truques semelhantes. Com a filmagem certa, qualquer um pode fazer uma filmagem deepfake usando aplicativos gratuitos. As pessoas também podem usar ferramentas gratuitas com IA para criar vozes falsas incrivelmente realistas treinadas apenas em segundos de áudio.
Então, não é surpresa que a IA agora esteja sendo usada para golpes de sequestro virtual. Jennifer DeStefano viveu o pior pesadelo de um pai quando sua filha a chamou, gritando e chorando. Sua voz foi substituída por um homem que ameaçou drogá-la e abusá-la a menos que recebesse um resgate de $1 milhão.
O detalhe crucial? Especialistas especulam que a voz foi gerada por IA. A polícia acredita que, além dos esquemas de sequestro virtual, a IA pode ajudar criminosos com outros tipos de fraudes de personificação no futuro, incluindo golpes do avô.
A IA generativa também pode produzir textos na voz de líderes de pensamento. Cibercriminosos podem usar esse texto para executar diferentes tipos de golpes, como giveaways fraudulentos, oportunidades de investimento e doações em meios como e-mail ou plataformas de redes sociais como o Twitter.
Ataques mais sofisticados
Como mencionado, agentes maliciosos podem usar IA para criar malware avançado, se passar por outros para aplicar golpes e intoxicar dados de treinamento de IA. Eles podem usar IA para automatizar ataques de phishing, malware e preenchimento de credenciais. A IA também pode ajudar ataques a evadir sistemas de segurança como software de reconhecimento de voz em ataques chamados ataques adversários.
Dano reputacional
Uma organização que utiliza IA pode sofrer danos reputacionais se a tecnologia apresentar falhas ou sofrer um ataque cibernético, resultando em perda de dados. Tais organizações podem enfrentar multas, penalidades civis e deterioração nas relações com clientes.
Como se proteger dos riscos da IA.
Embora a IA seja uma ferramenta poderosa, ela pode apresentar alguns riscos de segurança cibernética. Tanto indivíduos quanto organizações devem adotar uma abordagem holística e proativa para usar a tecnologia de forma segura.
Aqui estão algumas dicas que podem ajudar a mitigar os riscos da IA:
1: Audite qualquer sistema de IA que você use
Verifique a reputação atual de qualquer sistema de IA que você utilize para evitar problemas de segurança e privacidade. As organizações devem auditar seus sistemas periodicamente para corrigir vulnerabilidades e reduzir riscos associados à IA. A auditoria pode ser realizada com a assistência de especialistas em segurança cibernética e inteligência artificial, que podem realizar testes de penetração, avaliações de vulnerabilidade e revisões de sistemas.
2: Limite as informações pessoais compartilhadas através de automação
Mais pessoas estão compartilhando informações confidenciais com inteligência artificial sem entender os riscos da IA para a privacidade. Por exemplo, funcionários de organizações renomadas foram surpreendidos inserindo dados sensíveis da empresa no ChatGPT. Até mesmo um médico enviou o nome e condição médica de seu paciente no chatbot para preparar uma carta, sem considerar o risco de segurança do ChatGPT.
Essas ações representam riscos à segurança e violam regulamentos de privacidade como a HIPAA. Embora os modelos de linguagem de IA possam não ser capazes de divulgar informações, as conversas são registradas para controle de qualidade e acessíveis à equipe de manutenção do sistema. Por isso, é uma boa prática evitar compartilhar qualquer informação pessoal com IA.
3: Segurança de dados
Como mencionado, a IA depende de seus dados de treinamento para fornecer bons resultados. Se os dados forem modificados ou contaminados, a IA pode fornecer resultados inesperados e perigosos. Para proteger a IA contra a contaminação de dados, as organizações devem investir em tecnologia de encriptação de ponta, controle de acesso e backup. Redes devem ser protegidas com firewalls, sistemas de detecção de intrusão e senhas sofisticadas.
4: Otimize o software
Siga todas as melhores práticas de manutenção de software para se proteger contra o risco da IA. Isso inclui atualizar seu software de IA e frameworks, sistemas operacionais e aplicativos com os últimos patches e atualizações para reduzir o risco de exploração e ataques de malware. Proteja seus sistemas com tecnologia de antivírus de próxima geração para deter ameaças maliciosas avançadas. Além disso, invista em medidas de segurança de rede e aplicação para reforçar suas defesas.
5: Treinamento adversário
O treinamento adversário é uma medida de segurança específica para IA que ajuda a IA a responder a ataques. O método de aprendizado de máquina melhora a resiliência dos modelos de IA expondo-os a diferentes cenários, dados e técnicas.
6: Treinamento da equipe
Os riscos da IA são bastante amplos. Consulte especialistas em cibersegurança e IA para treinar seus funcionários na gestão de riscos da IA. Por exemplo, eles devem aprender a verificar e-mails que podem potencialmente ser ataques de phishing projetados por IA. Da mesma forma, devem evitar abrir softwares não solicitados que podem ser malware criado por inteligência artificial.
7: Gestão de vulnerabilidades
As organizações podem investir na gestão de vulnerabilidades de IA para mitigar o risco de violações de dados e vazamentos. A gestão de vulnerabilidades é um processo de ponta a ponta que envolve identificar, analisar e classificar vulnerabilidades e reduzir sua superfície de ataque relacionada às características únicas de sistemas de IA.
8: Resposta a incidentes de IA
Apesar de ter as melhores medidas de segurança, sua organização pode sofrer um ataque cibernético relacionado à IA à medida que os riscos da inteligência artificial crescem. Você deve ter um plano de resposta a incidentes claramente delineado que cubra contenção, investigação e remediação para se recuperar de tal evento.
O outro lado: Como a IA pode beneficiar a cibersegurança.
Indústrias de diferentes tamanhos e setores usam IA para aprimorar a segurança cibernética. Por exemplo, todos os tipos de organizações em todo o mundo usam IA para autenticar identidades, de bancos a governos. E as indústrias de finanças e imobiliária usam IA para encontrar anomalias e reduzir o risco de fraude.
Aqui está mais sobre como a IA beneficia a segurança cibernética:
1: Detecção de ameaças cibernéticas
Malware sofisticado pode contornar a tecnologia padrão de segurança cibernética usando diferentes técnicas de evasão, incluindo modificação de código e estrutura. No entanto, o software antivírus avançado pode usar IA e ML para encontrar anomalias na estrutura geral, lógica de programação e dados de uma possível ameaça.
Ferramentas de detecção de ameaças com IA podem proteger organizações ao caçar essas ameaças emergentes e melhorar as capacidades de alerta e resposta. Além disso, o software de segurança de endpoint com IA pode proteger os laptops, smartphones e servidores de uma organização.
2: Modelos preditivos
Profissionais de cibersegurança podem passar de uma postura reativa para proativa ao utilizar IA generativa. Por exemplo, eles podem usar IA generativa para criar modelos preditivos que identifiquem novas ameaças e mitiguem riscos.
Esses modelos preditivos resultarão em:
- Detecção mais rápida de ameaças
- Economia de tempo
- Redução de custos
- Melhoria na resposta a incidentes
- Proteção melhorada de riscos
3: Detecção de phishing
E-mails de phishing são uma fonte significativa de ameaças. Com pouco risco, agentes mal-intencionados podem usar expedições de phishing para roubar informações sensíveis e dinheiro. Além disso, e-mails de phishing estão se tornando mais difíceis de diferenciar de e-mails reais.
A IA pode beneficiar a segurança cibernética ao melhorar a proteção contra phishing. Filtros de e-mail que utilizam IA podem analisar texto para identificar e-mails com padrões suspeitos e bloquear diferentes tipos de spam.
4: Identificação de bots
Bots podem prejudicar ou derrubar redes e websites, impactando negativamente a segurança, produtividade e receita de uma organização. Bots também podem assumir contas com credenciais roubadas e ajudar cibercriminosos a se envolverem em fraudes e golpes.
Software que utiliza modelos baseados em aprendizado de máquina pode analisar o tráfego da rede e os dados para identificar padrões de bots e ajudar especialistas em segurança cibernética a neutralizá-los. Profissionais de rede também podem usar IA para desenvolver CAPTCHAs mais seguros contra bots.
5: Proteção de redes
Atacantes podem exfiltrar dados ou infectar sistemas com ransomware após violar uma rede. Detectar essas ameaças cedo é crucial. A detecção de anomalias baseada em IA pode escanear o tráfego da rede e os logs do sistema em busca de acessos não autorizados, código incomum e outros padrões suspeitos para prevenir violações. Além disso, a IA pode ajudar a segmentar redes ao analisar requisitos e características.
6: Resposta a incidentes
A IA pode aprimorar a caça de ameaças, o gerenciamento de ameaças e a resposta a incidentes. Ela pode trabalhar 24 horas por dia para responder a ameaças e tomar ações emergenciais, mesmo quando sua equipe está offline. Além disso, pode reduzir o tempo de resposta a incidentes para minimizar os danos de um ataque.
7: Mitigar ameaças internas
Ameaças internas devem ser levadas a sério, pois podem custar à organização receitas, segredos comerciais, dados sensíveis e mais. Existem dois tipos de ameaças internas: maliciosas e não intencionais. A IA pode ajudar a parar ambos os tipos, identificando comportamentos de risco dos usuários e bloqueando informações sensíveis de sair das redes da organização.
8: Reforçar o controle de acesso
Muitas ferramentas de controle de acesso usam IA para melhorar a segurança. Elas podem bloquear logins de endereços IP suspeitos, sinalizar eventos suspeitos e pedir aos usuários com senhas fracas que alterem suas credenciais e atualizem para a autenticação multifator.
A IA também ajuda a autenticar usuários. Por exemplo, pode usar biometria, informações contextuais e dados de comportamento do usuário para verificar com precisão a identidade de usuários autorizados e mitigar o risco de mau uso.
9: Identificar falsos positivos
Falsos positivos podem ser exaustivos para as equipes de TI gerenciarem. O grande volume de falsos positivos pode resultar em desafios de saúde mental. Também podem forçar as equipes a perderem ameaças legítimas. No entanto, o volume de falsos positivos pode ser reduzido com ferramentas de cibersegurança que utilizam inteligência artificial para melhorar a precisão da detecção de ameaças. Essas ferramentas também podem ser programadas para gerenciar automaticamente ameaças de baixa probabilidade que consomem o tempo e os recursos de uma equipe de segurança.
10: Eficiência e custos de pessoal de TI
Muitas pequenas e médias empresas não podem custear um grande time interno de cibersegurança para gerenciar ameaças cada vez mais sofisticadas 24 horas por dia. No entanto, podem investir em tecnologia de cibersegurança com IA que funciona 24/7 para oferecer monitoramento contínuo, melhorar a eficiência e reduzir custos. Tal tecnologia também pode crescer com a empresa de maneira econômica.
Além disso, a IA melhora a eficiência da equipe porque não se cansa. Oferece a mesma qualidade de serviço a qualquer hora do dia, reduzindo o risco de erro humano. A IA também pode gerenciar significativamente mais dados do que uma equipe humana de segurança.