DeepFakes – Como e por que os vídeos funcionam?

Deepfakes - Como e por que os vídeos funcionam?

Na era dos DeepFakes estamos prestes a deixar para trás o tempo em que os efeitos especiais era reduto apenas dos grandes estúdios de produções hollywoodianas, criados com orçamentos multimilionários, atualmente qualquer pessoa pode baixar o software DeepFake e usar o aprendizado de máquina para criar vídeos falsos quase totalmente críveis.

O DeepFake está deixando artistas, políticos, pessoas públicas e comuns muito nervosas.

O que se vê por ai são muitos, muitos filmes pornográficos que usaram o DeepFake. Para você ter uma ideia, empresa de IA Deeptrace encontrou 15.000 aproximadamente vídeos DeepFake online apenas em setembro de 2019, quase o dobro dos nove meses anteriores. Isso sem dúvidas é um número impressionante, 96% era de filmes pornográficos e 99% eram com os rostos mapeados de celebridades femininas como estrelas pornôs.

Como as novas técnicas dessa tecnologia, qualquer pessoa sem qualificação profissional em efetitos especiais ou softwares avançados conseguem fazer falsificações profundas com um punhado de fotos. Os vídeos falsoS criados com DeepFake provavelmente se espalharão além do mundo das celebridades para alimentar a industria da pornografia de vingança.

Quem está fazendo DeepFakes? Praticamente qualquer pessoa que tenha interesse, desde desempregados, estudantes, pesquisadores acadêmicos, profissionais liberais, e industriais a entusiastas amadores sádicos, e também os estúdios de efeitos visuais e produtores pornôs, todos.

Do outro lado da linha, governos também podem estar muito bem se aproveitando da nova tecnologia, usando-a como parte de suas estratégias reversas, politico-econômicas desacreditar notícias verdadeiras e/ou desmantelar grupos extremistas ou até mesmo fazer contato com indivíduos-alvo, por exemplo.


Qual a definição DeepFake?

DeepFake, é uma amálgama de “deep learning” e “fake”, essa é uma nova técnica que sintetiza imagens ou sons humanos baseada em técnicas de inteligência artificial. É mais usada para combinar a fala qualquer a um vídeo que já existe.

De modo geral, podemos dizer que DeepFakes são vídeos ou gravações de áudio falsos que parecem e soam exatamente como a coisa real. Tempos atrás, esse reduto era dos estúdios de efeitos especiais de Hollywood e das agências de inteligência governamentais que produzem propaganda, como a CIA ou a diretoria JTRIG do GCHQ.

Mas hoje qualquer pessoa pode baixar Software DeepFake e criar vídeos falsos convincentes em seu tempo livre.

Até agora, os DeepFakes têm se limitado a amadores que colocam rostos de celebridades nos corpos de estrelas pornôs e fazem políticos dizerem coisas engraçadas.

No entanto, seria tão fácil criar:

  • Um alerta falso de emergência avisando que um ataque era iminente
  • Destruir o casamento de alguém com um vídeo de sexo falso
  • Atrapalhar uma eleição acirrada, descartando um vídeo ou gravação de áudio falsa de um dos candidatos dias antes do início da votação.

O que é um DeepFake?

O que é um DeepFake?

Você provavelmente já deve ter visto Barack Obama chamar Donald Trump de “assholle”, ou Mark Zuckerberg se gabar de ter “controle total de bilhões de dados roubados de pessoas”, ou testemunhou o comovente pedido de desculpas de Jon Snow pelo triste final de Game of Thrones? Responda sim e você viu um DeepFake.

A resposta do século 21 ao conhecido Photoshop, os DeepFakes foi ainda mais longe, o software usa uma forma de inteligência artificial chamada aprendizado profundo para fazer imagens de eventos falsos, daí o nome DeepFake.

Se você que colocar palavras novas na boca de alguém, de um político, quer ser a estrela do seu filme favorito, dançar como um profissional ou ser o Neil do Matrix? Então é hora de falsificar um video e ficar famoso.


Os DeepFakes são perigosos?

Os DeepFakes deixa muita gente nervosa, tanto que um senador republicano da Flórida e candidato à presidência de 2016, chamou o software de arma nuclear mais moderna que existe. Antigamente se alguém quisesse ameaçar os Estados Unidos, teria que ter 10 porta-aviões, muitas armas nucleares e inúmeros mísseis de longo alcance.

Hoje, um grupo ou pessoa mal intencionada só precisa de acesso ao sistema de internet, ao sistema bancário, a rede elétrica e infraestrutura e simplesmente a capacidade de produzir um vídeo falso realista e isso poderia prejudicar as eleições de qualquer país ou lançar um país em uma tremenda crise interna ou econômica enfraquecendo profundamente as bases de sustentação.

Será que os DeepFakes são realmente uma ameaça tão grande que pode ser comparada com armas nucleares? Será que estamos indo para o Armagedom Digital que desendeará danos ao mundo real. Bom, nem todos concordam com isso.

Tim Hwang, diretor de Ética e Governança da Iniciativa de IA do Berkman-Klein Center e do MIT Media Lab, ao CSO disse “Tão perigoso quanto bombas nucleares? Acho que não”. Mas, acho as demonstrações do que os DeepFakes podem causar certamente são perturbadoras. Penso que são preocupantes e levantam muitas questões, mas não acredito que mudem o jogo de uma forma que muitas pessoas estão sugerindo.

Os usuários comuns podem baixar o FakeApp e começar a criar seus próprios DeepFakes imediatamente. Usar o aplicativo não é super fácil, mas um usuário moderadamente geek não deve ter problemas.

Dito isso, existem tantas outras formas de desinformação eficaz os DeepFakes pode ser a estratégia errada, no presente e no futuro talvez existam outras maneiras baratas que não exigem aprendizado profundo ou aprendizado de máquina para enganar e moldar a opinião pública.

Por exemplo, gravar um vídeo de pessoas batendo em alguém na rua e, em seguida, criar uma narrativa falsa em torno desse vídeo – talvez alegando que os invasores são de alguma milícia, por exemplo – não requer um algoritmo de ML sofisticado, apenas um narrativa falsa crível e um vídeo que se encaixa.

Mais um exemplo, Enquanto dezenas de cientistas considerava que o SARS-CoV-2 poderia ter surgido em culturas de laboratório com células humanas ou células modificadas para expressar a proteína humana ACE2, uma carta escrita por 27 cientistas apareceu repentinamente em 19 de fevereiro na prestigiosa revista médica The Lancet. Os autores insistiram que o SARS-CoV-2 tinha uma origem natural e condenaram todas as hipóteses alternativas como teorias da conspiração que criam apenas “medo, rumores e preconceito”.

No parágrafo acima podemos perceber como o jogo de interesses pode usar a informação baseada em inverdades usar o crédito de veracidade para poder simplesmente tentar afetar a própria verdade dos fatos com rumores por interesses políticos, partidários ou econômicos.


Como funcionam os DeepFakes?

Ver para crer, diz o velho ditado, mas a verdade é que crer para ver: o ser humano busca informações que apóiam o que quer acreditar e ignora o resto.

Hackear essa tendência humana dá a atores maliciosos muito poder. Já vemos isso com a desinformação (as chamadas “notícias falsas”) que cria falsidades deliberadas que depois se espalham sob o pretexto da verdade.

No momento em que os verificadores de fatos começam a uivar em protesto, é tarde demais e #ObamaGate é uma coisa. DeepFakes exploram essa tendência humana usando redes adversárias geradoras (GANs), nas quais dois modelos de aprendizado de máquina (ML) lutam.

Um modelo de ML treina em um conjunto de dados e, em seguida, cria falsificações de vídeo, enquanto o outro tenta detectar as falsificações. O falsificador cria falsificações até que o outro modelo de ML não consiga detectar a falsificação.

Quanto maior o conjunto de dados de treinamento, mais fácil será para o falsificador criar um DeepFake crível. É por isso que vídeos de ex-presidentes e celebridades de Hollywood têm sido usados ​​com frequência nesta primeira geração de DeepFakes – há uma tonelada de vídeos publicamente disponíveis para treinar o falsificador.

Os GANs, é claro, têm muitos outros usos além de fazer vídeos falsos de sexo e colocar palavras na boca de políticos. GANs são um grande salto em frente no que é conhecido como “aprendizado não supervisionado” – quando os modelos de ML aprendem sozinhos.

Isso representa uma grande promessa no aprimoramento da capacidade dos veículos autônomos de reconhecer pedestres e ciclistas e de tornar os assistentes digitais ativados por voz, como Alexa e Siri, mais comunicativos. Alguns anunciam os GANs como o surgimento da “imaginação da IA”.


Vídeos de notícias falsas (Fake News)

Você acha que os vídeos de notícias falsas – da variedade política profundamente falsa – são uma coisa nova sob o sol? Pense de novo. Durante uma geração após a invenção do cinema, falsificar vídeos de notícias para dramatizar as notícias reais fazia parte do curso.

Numa época em que o filme poderia levar semanas para cruzar o oceano, os cineastas dramatizariam terremotos ou incêndios com pequenos cenários para tornar as notícias mais realistas.

Na década de 1920, o envio de fotos em preto e branco por cabos transoceânicos era a última moda, e os cineastas usavam fotos genuínas para criar suas cenas de destruição. Isso mudou na década de 1930, e a expectativa do público era de que o que eles estavam assistindo fosse o artigo genuíno.

Mais recentemente, o debate sobre DeepFakes foi reacendido com o lançamento de um vídeo no TikTok que parecia mostrar o ator Tom Cruise. Era, na verdade, uma combinação de um imitador humano e o algoritmo DeepFaceLab de inteligência artificial de código aberto para produzir uma série de vídeos convincentes.

O especialista belga em efeitos visuais (VFX), Chris Ume, que criou os vídeos, disse que não é algo que a maioria das pessoas consegue reproduzir. O projeto demonstra, no entanto, que é possível usar uma combinação de técnicas de AI, CGI e VFX para criar vídeos DeepFake que são quase impossíveis de serem detectados por olhos não treinados.


Como detectar DeepFakes?

Detectar DeepFakes é um problema difícil. DeepFakes amadores podem, é claro, ser detectados a olho nu. Outros sinais que as máquinas podem detectar incluem falta de piscar de olhos ou sombras que parecem erradas. GANs que geram DeepFakes estão ficando melhores o tempo todo e, em breve, teremos que contar com a perícia digital para detectar DeepFakes – se é que podemos, de fato, detectá-los.

Esse é um problema tão difícil que a DARPA está investindo dinheiro em pesquisadores para encontrar melhores maneiras de autenticar vídeos. No entanto, como os próprios GANs podem ser treinados para aprender como escapar dessa perícia, não está claro se essa é uma batalha que podemos vencer.

Teoricamente, se você fornecer a um GAN todas as técnicas que conhecemos para detectá-lo, ele poderá passar por todas essas técnicas”, disse David Gunning, o gerente de programa da DARPA responsável pelo projeto, ao MIT Technology Review. “Não sabemos se há um limite. Não está claro.”

Se não conseguirmos detectar vídeos falsos, em breve seremos forçados a desconfiar de tudo o que vemos e ouvimos, alertam os críticos. A internet agora medeia todos os aspectos de nossas vidas, e a incapacidade de confiar em qualquer coisa que vemos pode levar ao “fim da verdade”.

Isso ameaça não apenas a fé em nosso sistema político, mas, a longo prazo, nossa fé no que é realidade objetiva compartilhada. Se não podemos concordar sobre o que é real e o que não é, como podemos possivelmente debater questões políticas? os alarmistas lamentam.

Hwang acha que isso é um exagero, no entanto. “Esta é uma das minhas maiores críticas”, diz ele. “Não nos vejo cruzando algum limiar místico após o qual não saberemos o que é real e o que não é.”

No final do dia, o hype em torno dos DeepFakes pode ser a maior proteção que temos. Estamos em alerta de que o vídeo pode ser forjado dessa forma, e isso acaba com os DeepFakes.


Como prevenir o mundo dos DeepFakes?

As falsificações profundas são legais? É uma questão espinhosa e não resolvida. Em muitos casos, plataformas como Gfycat e Pornhub removeram ativamente vídeos pornôs falsos de seus sites, argumentando que tal conteúdo viola seus termos de serviço. Falsificações profundas da variedade pornográfica continuam a ser compartilhadas em plataformas menos convencionais.

No entanto, quando se trata de discurso político que não seja de natureza sexual abusiva, as linhas ficam confusas. A constituição protege o direito de um político de mentir para as pessoas. Protege também o direito de publicar informações erradas, acidentalmente ou propositalmente. O mercado de ideias tem como objetivo separar a verdade da falsidade, não um censor do governo ou um censor de fatos que impõe termos de serviço arbitrários em uma plataforma de mídia social.

A ideia é que reguladores e legisladores continuam lutando contra o problema dos fakes de maneira honesta e não política.


DeepFakes são apenas vídeos?

Não, não é apenas vídeos. A tecnologia DeepFake pode criar fotos convincentes, mas totalmente fictícias, do zero. Uma jornalista inexistente da Bloomberg, “Maisy Kinsley”, que tinha um perfil no LinkedIn e no Twitter, era provavelmente um mentiroso. Outra farsa do LinkedIn, “Katie Jones”, afirmou trabalhar no Centro de Estudos Estratégicos e Internacionais, mas é considerada uma falsificação criada para uma operação de espionagem estrangeira.

O áudio também pode ser falsificado, para criar “skins de voz” ou “clonagem de voz” de figuras públicas.

Em março passado, o chefe de uma subsidiária no Reino Unido de uma empresa de energia alemã pagou quase £ 200.000 em uma conta bancária húngara depois de ser telefonado por um fraudador que imitou a voz do CEO alemão. As seguradoras da empresa acreditam que a voz foi falsa, mas as evidências não são claras.

Golpes semelhantes supostamente usaram mensagens de voz gravadas do WhatsApp.


Qual é a solução para os DeepFakes?

O avanço do AIoT né imparável, e ironicamente, a IA pode ser a resposta. A inteligência artificial já ajuda a detectar vídeos falsos, mas muitos sistemas de detecção existentes têm uma séria fraqueza: eles funcionam melhor para celebridades, porque podem treinar com horas de filmagens disponíveis gratuitamente.

As empresas de tecnologia agora estão trabalhando em sistemas de detecção que visam sinalizar falsificações sempre que elas aparecem. Outra estratégia se concentra na procedência da mídia.

Marcas d’água digitais não são infalíveis, mas um sistema de contabilidade online blockchain pode conter um registro à prova de adulteração de vídeos, fotos e áudio para que suas origens e quaisquer manipulações possam sempre ser verificadas.