Durante muitas décadas, os realizadores procuraram alterar ou melhorar a biologia humana com maquilhagem, próteses e duplos corporais para tornar as suas cenas mais autênticas. Mas até à tecnologia moderna de efeitos visuais (VFX), os resultados eram mistos. De filmes como The Irishman e Captain Marvel a Avengers: Endgame, os efeitos visuais permitem que os actores superem impossibilidades físicas. Por vezes, os efeitos visuais de Hollywood permitem aos realizadores fundir o rosto dos actores com os corpos de outros artistas para papéis para os quais não estão preparados ou que não são capazes de desempenhar.
Mas, como pode imaginar, a moderna tecnologia VFX de Hollywood é um trabalho dispendioso, delicado e pormenorizado. Obviamente, nem toda a gente tem um orçamento de algumas centenas de milhões de dólares para contratar um estúdio de efeitos visuais. É aqui que a tecnologia deepfake entra em cena.
O que é um deepfake? Uma definição
Um "deepfake" refere-se a meios de comunicação social que recriam a aparência e/ou a voz de uma pessoa através de um tipo de inteligência artificial chamado aprendizagem profunda (daí o nome, deepfake). Um utilizador do Reddit que partilhava deepfakes no site cunhou o termo em 2017.
Deepfakes são normalmente imagens, vídeos ou gravações de áudio falsos. É possível que já tenha visto vídeos populares de celebridades ou políticos a dizer algo que dificilmente diriam na vida real. Estes são exemplos comuns de deepfakes. O aparecimento de vídeos deepfake suscita preocupações quanto a um potencial "dividendo do mentiroso", em que a desinformação prolifera, minando a confiança e distorcendo a realidade.
Como é que deepfakes funcionam?
A tecnologia Deepfake utiliza inteligência artificial sofisticada através de redes adversárias generativas (GANs), que incluem dois algoritmos críticos: o gerador e o discriminador. O gerador inicia o processo criando o conteúdo falso inicial com base em um resultado desejado, usando um conjunto de dados de treinamento. Entretanto, o discriminador avalia a autenticidade deste conteúdo, identificando áreas de melhoria. Este processo iterativo permite que o gerador melhore a sua capacidade de produzir conteúdos cada vez mais realistas, enquanto o discriminador se torna melhor na identificação de discrepâncias para correção.
Os GANs desempenham um papel fundamental na criação de deepfake , analisando padrões em imagens genuínas para replicar esses padrões em conteúdo fabricado. Para fotografias, os sistemas GAN examinam vários ângulos das imagens do alvo para capturar detalhes abrangentes. No caso dos vídeos, analisam não só os ângulos, mas também o comportamento, o movimento e os padrões de discurso. Esta análise multifacetada é submetida a várias iterações através do discriminador para aperfeiçoar o realismo do produto final.
Os vídeos Deepfake surgem através de dois métodos principais: a manipulação de um vídeo original para alterar o que o alvo diz ou faz ( deepfakes de vídeo de origem) ou a troca do rosto do alvo pelo corpo de outra pessoa (face swaps). deepfakes de vídeo de origem envolvem um autoencoder baseado em redes neuronais que disseca o vídeo para compreender e depois sobrepor as expressões faciais e a linguagem corporal do alvo à filmagem original. Para o áudio, um processo semelhante clona a voz de uma pessoa, permitindo-lhe replicar qualquer discurso desejado.
As principais técnicas de criação de deepfake incluem:
- deepfakes do vídeo de origem: Utiliza um codificador automático com um codificador para analisar atributos e um descodificador para aplicar esses atributos ao vídeo de destino.
- deepfakes de áudio: Utiliza GANs para clonar padrões vocais, permitindo a criação de réplicas de voz realistas.
- Sincronização labial: Faz corresponder as gravações de voz ao vídeo, aumentando a ilusão de que o sujeito está a falar as palavras gravadas, com o apoio de redes neurais recorrentes para maior realismo.
A criação de deepfakes é facilitada por tecnologias avançadas, como as redes neurais convolucionais (CNN) para reconhecimento facial, os autoencoders para mapeamento de atributos, o processamento de linguagem natural (PLN) para gerar áudio sintético e o poder de computação proporcionado pelos sistemas de computação de alto desempenho. Ferramentas como Deep Art Effects, Deepswap e FaceApp exemplificam a acessibilidade da geração de deepfake , apontando para um futuro em que a criação de deepfakes convincentes está ao alcance de muitos.
deepfakes são legais?
Na sua essência, deepfakes não são inerentemente ilegais; a legalidade depende em grande medida do seu conteúdo e intenção. Esta tecnologia inovadora pode entrar em território ilegal se violar as leis existentes sobre pornografia infantil, difamação, discurso de ódio ou outras actividades criminosas.
Até à data, existem poucas leis que visem especificamente os deepfakes e estas variam significativamente de país para país. No entanto, a proliferação da tecnologia deepfake suscita preocupações quanto à disseminação de alegações falsas e ao seu impacto na confiança e no discurso do público. Já existem excepções notáveis nos Estados Unidos, onde alguns estados tomaram medidas para travar os efeitos nocivos da tecnologia deepfake :
- Texas: Este estado adoptou legislação que proíbe a criação e distribuição de deepfakes com a intenção de interferir nas eleições. Esta medida visa salvaguardar a integridade do processo eleitoral, impedindo a difusão de informações enganosas ou falsas sobre os candidatos através de vídeos falsos hiper-realistas ou gravações áudio. Além disso, o Texas aprovou uma lei que visa especificamente os deepfakes sexualmente explícitos distribuídos sem o consentimento do sujeito, com o objetivo de proteger os indivíduos da angústia ou do embaraço causados por esse tipo de conteúdo. Ambas as infracções são tratadas como contra-ordenações de classe A, com potenciais penalizações que incluem até um ano de prisão e multas até $4.000.
- Virgínia: Reconhecendo os danos pessoais e sociais causados pela pornografia deepfake , a Virgínia proibiu especificamente a disseminação desse tipo de conteúdo. Esta lei visa os deepfakes que exploram sexualmente indivíduos sem o seu consentimento, oferecendo às vítimas uma via legal para procurar justiça. A disseminação de pornografia de vingança, incluindo pornografia deepfake , é classificada como uma contraordenação de Classe 1, punível com até 12 meses de prisão e uma multa até $2.500.
- Califórnia: Com foco nas ramificações políticas e pessoais dos deepfakes, a Califórnia aprovou leis contra o uso de deepfakes que visam enganar os eleitores nos 60 dias anteriores a uma eleição. Além disso, o estado tornou ilegal a criação e distribuição de pornografia deepfake não consensual, reflectindo uma preocupação crescente com a utilização desta tecnologia para prejudicar a privacidade e a dignidade dos indivíduos.
A manta de retalhos de regulamentos sublinha um desafio mais vasto: muitas pessoas continuam a desconhecer a tecnologia deepfake , as suas potenciais aplicações e os riscos que representa. Esta falta de consciencialização contribui para um ambiente legal em que as vítimas de deepfakes, fora dos cenários específicos abrangidos pelas leis estatais, se encontram frequentemente sem um recurso legal claro. A natureza evolutiva da tecnologia deepfake e as suas implicações requerem um público mais informado, bem como quadros jurídicos abrangentes para proteger os indivíduos da sua potencial utilização indevida.
Como é que deepfakes são perigosos?
A tecnologia Deepfake , embora inovadora, apresenta riscos substanciais. Não se trata apenas de criar imagens ou vídeos falsos; as implicações estendem-se a domínios sérios como:
- Segurança pessoal, com indivíduos que enfrentam ameaças de chantagem.
- A integridade dos processos democráticos, através da fabricação de conteúdos políticos enganosos.
- Mercados financeiros, susceptíveis de serem manipulados por relatórios fabricados.
- RouboIdentity com risco de utilização abusiva de dados pessoais.
O cenário em evolução exige uma resposta robusta, combinando vigilância, soluções tecnológicas e quadros jurídicos para proteção contra estas ameaças emergentes.
Como detetar deepfakes?
A deteção de conteúdo deepfake requer atenção a indicadores visuais e textuais específicos. Eis alguns dos principais sinais a ter em conta:
Indicadores visuais:
- Posicionamento facial invulgar ou expressões incómodas.
- Movimentos não naturais do rosto ou do corpo.
- Coloração inconsistente em todo o vídeo.
- Aparências estranhas quando se faz zoom ou ampliação.
- Áudio incompatível ou inconsistente.
- Falta de pestanejo natural nas pessoas.
Indicadores textuais:
- Erros ortográficos e frases gramaticalmente incorrectas.
- Fluxo de frases que parece não ser natural.
- Endereços de correio eletrónico que parecem suspeitos.
- Frases que não correspondem ao estilo esperado do remetente.
- Mensagens fora de contexto ou irrelevantes.
Além disso, considere as anomalias comportamentais e contextuais:
- Incoerências comportamentais: Preste atenção ao comportamento e maneirismos do sujeito. Deepfakes podem não reproduzir com precisão traços subtis de personalidade, movimentos habituais ou reacções emocionais, fazendo com que o sujeito pareça ligeiramente estranho.
- Anomalias contextuais: Analisar o contexto em que o vídeo ou áudio aparece. Discrepâncias no fundo, interações inesperadas com o ambiente ou anomalias no enredo podem indicar manipulação.
Os avanços da IA estão a melhorar a deteção destes sinais, mas manter-se informado sobre estes indicadores é essencial para identificar deepfakes.
Como se defender de deepfakes?
Uma estratégia fundamental na defesa contra as deepfakes envolve a utilização de tecnologia avançada para identificar e bloquear estes meios de comunicação falsificados.
Agências governamentais como a Defense Advanced Research Projects Agency (DARPA) do Departamento de Defesa dos EUA estão na vanguarda, desenvolvendo soluções de ponta para distinguir os conteúdos reais dos manipulados. Do mesmo modo, os gigantes das redes sociais e as empresas de tecnologia estão a utilizar métodos inovadores para garantir a autenticidade dos conteúdos partilhados nas suas plataformas.
Por exemplo, algumas plataformas utilizam a tecnologia de cadeia de blocos para verificar a origem de vídeos e imagens, estabelecendo fontes fiáveis e impedindo eficazmente a propagação de conteúdos falsos.
Implementação de políticas para as redes sociais
Reconhecendo os potenciais danos causados por deepfakes maliciosos, plataformas de redes sociais como o Facebook e o Twitter tomaram uma posição firme ao proibi-los. Estas políticas fazem parte de um esforço mais vasto para proteger os utilizadores dos impactos negativos dos meios de comunicação social enganadores, sublinhando o papel da governação das plataformas na manutenção da fiabilidade digital.
Adoção de software de deteção de deepfake
A batalha contra as deepfakes é também apoiada pela inovação do sector privado. Várias empresas oferecem software sofisticado de deteção de falsificações deepfake , fornecendo ferramentas essenciais para identificar os meios de comunicação manipulados:
- A iniciativa de autenticidade de conteúdos da Adobe: A Adobe introduziu um sistema que permite aos criadores anexar uma assinatura digital aos seus vídeos e fotografias. Esta assinatura inclui informações pormenorizadas sobre a criação do suporte, oferecendo um método transparente de verificação da autenticidade.
- Ferramenta de deteção da Microsoft: A Microsoft desenvolveu uma ferramenta baseada em IA que analisa vídeos e fotografias para avaliar a sua autenticidade. Fornece uma pontuação de confiança que indica a probabilidade de manipulação, ajudando os utilizadores a discernir a fiabilidade dos meios de comunicação com que se deparam.
- Operação Minerva: Esta iniciativa centra-se na catalogação de deepfakes conhecidas e das suas impressões digitais. Ao comparar novos vídeos com este catálogo, é possível identificar modificações de falsificações previamente descobertas, melhorando o processo de deteção.
- Plataforma de deteção da Sensity: A Sensity oferece uma plataforma que emprega a aprendizagem profunda para detetar media deepfake , de forma análoga à forma como as ferramentas anti-malware identificam vírus e malware. Alerta os utilizadores por e-mail se encontrarem conteúdo deepfake , adicionando uma camada extra de proteção.
Como se pode proteger? Passos práticos
Para além destas soluções tecnológicas, as pessoas podem tomar medidas práticas para se defenderem contra as deepfakes:
- Mantenha-se informado: A consciencialização da existência e natureza dos deepfakes é o primeiro passo para a defesa. Ao compreender a tecnologia e a sua potencial utilização incorrecta, as pessoas podem abordar os conteúdos digitais de forma mais crítica.
- Verificar as fontes: Verifique sempre a fonte da informação. Procure provas corroborantes de fontes respeitáveis antes de aceitar qualquer meio de comunicação como verdadeiro.
- Utilizar ferramentas de deteção fiáveis: Utilizar ferramentas de deteção de deepfake " quando disponíveis. Muitas empresas e plataformas fornecem ferramentas ou plugins concebidos para identificar conteúdos manipulados.
- Denunciar conteúdo suspeito: Se encontrar o que parece ser um deepfake, comunique-o à plataforma que aloja o conteúdo. As denúncias dos utilizadores desempenham um papel crucial para ajudar as plataformas a identificar e a tomar medidas contra os meios de comunicação enganosos.
A defesa contra os deepfakes requer uma abordagem multifacetada, combinando inovação tecnológica, aplicação de políticas e vigilância informada. Mantendo-se informados e tirando partido das ferramentas e estratégias disponíveis, os indivíduos e as organizações podem proteger-se melhor dos efeitos perniciosos da tecnologia deepfake .
Para que são utilizadas deepfakes ?
Deepfakes, embora sejam frequentemente discutidas no contexto do seu potencial prejudicial, têm uma série de aplicações em vários domínios. Compreender estas utilizações ajuda a apreciar a complexidade e a natureza dupla da tecnologia deepfake . Eis algumas das principais aplicações:
- Entretenimento e media: A tecnologia Deepfake é cada vez mais utilizada em filmes e jogos de vídeo para melhorar os efeitos visuais, como envelhecer ou des-envelhecer actores, ou trazer artistas falecidos de volta à vida para aparições especiais. Esta aplicação pode também estender-se à criação de avatares virtuais realistas para interações em linha.
- Educação e formação: Em contextos educativos, deepfakes podem criar experiências de aprendizagem imersivas, como encenações históricas ou simulações. Por exemplo, podem dar vida a figuras históricas, oferecendo aos alunos uma forma dinâmica de se envolverem com a história.
- Arte e criatividade: Os artistas e criativos estão a explorar deepfakes como um novo meio de expressão. Isto inclui a criação de novas formas de arte digital, a sátira ou a exploração das fronteiras entre a realidade e a artificialidade.
- Publicidade e marketing: As marcas podem utilizar a tecnologia deepfake para criar conteúdos de marketing mais cativantes e personalizados. Por exemplo, deepfakes permitem a utilização de embaixadores da marca em várias campanhas sem a sua presença física, potencialmente em diferentes línguas para satisfazer um público global.
- Campanhas políticas e sociais: Embora controversos, deepfakes têm sido utilizados para sensibilizar para questões sociais ou para os potenciais perigos da desinformação. deepfakes cuidadosamente elaborados podem realçar a importância do pensamento crítico na era digital.
- Criação de media sintéticos: Deepfakes fazem parte de uma categoria mais vasta de meios sintéticos, utilizados para gerar áudio, vídeo ou imagens realistas para a criação de conteúdos. Isto pode simplificar o processo de produção de notícias, documentários e outras formas de media.
Embora deepfakes tenham um potencial promissor nestas aplicações, é crucial navegar pela sua utilização de forma responsável, assegurando a manutenção de normas éticas para evitar a utilização indevida e proteger os direitos e a privacidade dos indivíduos.
Exemplos de deepfakes
Exemplos bem conhecidos de deepfakes incluem um vídeo de um falso Barack Obama a gozar com Donald Trump, um falso Mark Zuckerberg a gabar-se de controlar os dados de milhares de milhões de pessoas e uma mesa redonda de celebridades deepfakes como Tom Cruise, George Lucas, Robert Downey Jr., Jeff Goldblum e Ewan McGregor.
Artigos relacionados
Riscos da IA na cibersegurança
FAQs
Os indivíduos podem processar por criação de deepfake , invocando difamação, angústia emocional ou violação da propriedade intelectual. A consulta jurídica é crucial para compreender os direitos e as opções.