Tópicos | deepfakes

A gigante de tecnologia Microsoft apresentou um software que pode ajudar a detectar vídeos "deepfake", em mais um esforço para ajudar no combate à publicação de imagens e vídeos falsos na internet antes das eleições presidenciais dos Estados Unidos.

O programa "Video Authenticator" analisa uma imagem ou cada fotograma de um vídeo, buscando evidências de manipulação que passaria despercebida a olho nu.

##RECOMENDA##

A Microsoft informou que se associou à Fundação AI em São Francisco para fazer com que a ferramenta de autenticação de vídeo esteja disponível para campanhas políticas, meios de comunicação e outras partes envolvidas no processo democrático.

Os deepfakes são fotos, vídeos ou clipes de áudio adulterados usando inteligência artificial para que pareçam autênticos e já são alvos de caça nas redes sociais Facebook e Twitter.

"Os deepfakes podem fazer parecer que pessoas disseram coisas que não disseram, ou que estiveram em lugares em que não estiveram", explicou na terça-feira uma publicação do blog da empresa.

Estas publicações falsas camufladas são particularmente preocupantes devido à proximidade das eleições presidenciais nos Estados Unidos, em 3 de novembro.

Uma corrida contra o tempo: os pesquisadores que tentam detectar os "deepfakes", vídeos manipulados para substituir rostos ou alterar a fala de personalidades, enfrentam técnicas de falsificação cada vez mais avançadas e acessíveis ao grande público.

Alerta nos fóruns do site Reddit em 2017: imagens falsas de atrizes de cinema em filmes pornográficos são compartilhadas por um usuário. Se a técnica, antes artesanal, preocupa, é porque desta vez utiliza ferramentas de inteligência artificial para manipular um vídeo de maneira convincente.

##RECOMENDA##

Desde então, criações por vezes humorísticas se espalharam pela Internet, representando, por exemplo, o fundador do Facebook, Mark Zuckerberg, aparentemente dizendo "Quem controla os dados, controla o futuro". Mas, para pesquisadores, o tom não é mais de piada.

"As manipulações podem afetar o áudio e o vídeo. Estamos chegando ao ponto do áudio mais o vídeo. Eu me pergunto o que vai acontecer nas próximas grandes eleições", disse à AFP Vincent Nozick, pesquisador do Instituto Gaspar Monge da Universidade Paris-Est Marne-la-Vallée.

"Para criar um 'deep fake', a única competência necessária é um pouco de experiência. O primeiro será, a priori, perdido porque é necessário escolher o modelo informático certo (...) Mas, alguém que fizer isso por três meses estará pronto", acrescenta o pesquisador.

Imitando a voz de um CEO

Na Índia, um jornalista e um parlamentar foram alvo de vídeos obscenos manipulados. Na Bélgica, o partido socialista flamengo representou o presidente dos Estados Unidos, Donald Trump, incitando Bruxelas a se retirar do acordo climático de Paris. A mensagem que alertava para a edição do vídeo não foi compreendida por inúmeros internautas.

No final de agosto, o Wall Street Journal reportou o uso da inteligência artificial por impostores para imitar a voz de um CEO e obter a transferência de mais de 220 mil euros.

Por fim, o aplicativo chinês Zao lançado no mês passado permite inserir o seu rosto no lugar do de um ator no trecho de um filme com apenas algumas fotos. Esse desenvolvimento marca a chegada desta tecnologia às mãos do grande público.

Para detectar as manipulações, múltiplos caminhos estão sendo estudadas. A primeiro, que só se aplica a figuras já amplamente filmadas e fotografadas, consiste em encontrar imagens originais anteriores à manipulação para comparar o vídeo suspeito com a "assinatura gestual" habitual da pessoa em questão.

Um segundo foca nos defeitos gerados pela manipulação (uma incoerência no piscar dos olhos, o caimento do cabelo ou a ligação entre as imagens), mas as tecnologias se adaptam e os "apagam" progressivamente.

O terceiro caminho consiste em gerar modelos de inteligência artificial para detectarem sozinhos os vídeos manipulados. As taxas de sucesso são muito boas, mas dependem dos exemplos disponíveis. "Um detector de 'deepfakes' que funcionava há um ano não necessariamente funcionará neste ano", explica Vincent Nozick.

Bancos de dados de conteúdos falsos

"A máquina pode perceber coisas que nós não vemos a olho nu, mas é necessário que tenhamos bancos de dados para avaliar até que ponto podemos ser eficazes. É isso que falta atualmente", aponta Ewa Kijak, pesquisadora da Universidade de Rennes 1 - laboratório Irisa.

Os gigantes Facebook e Google, cujas plataformas são frequentemente criticadas pelo papel que desempenham na desinformação, anunciaram querer ajudar disponibilizando bancos de dados de conteúdos falsos.

Mas a batalha apenas começou: novos "deepfakes" utilizam a tecnologia das "redes adversárias generativas" (GANs) para avaliar se podem ser detectados antes mesmo de serem publicados.

Ainda mais impressionante, ou preocupante: uma equipe de universitários alemães trabalha desde 2016 em uma ferramenta de "marionetização".

Não se trata mais de colar o seu rosto naquele de uma estrela em um filme de Hollywood, mas de animar o rosto de uma personalidade com gestos e palavras inventadas, o que poderia, por exemplo, permitir a produção de uma coletiva de imprensa falsa de um chefe de Estado.

Frente a essas tecnologias, "a disposição de ferramentas de detecção não será suficiente", explica Ewa Kijak, que chama a uma "conscientização": "Até agora, nós podíamos confiar um pouco mais nos vídeos (do que em outros conteúdos). Agora, acho que isso acabou".

Imagine o seguinte cenário: o ano é 2020 e a situação diplomática entre Estados Unidos e Coreia do Norte é tensa. Uma rede de TV recebe um vídeo inédito, de fonte anônima, que mostra o líder Kim Jong-un discutindo com generais o lançamento de um ataque nuclear. Na Casa Branca, o vídeo é analisado, mas a inteligência não consegue verificar a autenticidade. O presidente americano tem de agir - e ordena um contra-ataque. Uma guerra começa.

O pesquisador Giorgio Patrini, da Universidade de Amsterdã, na Holanda, imaginou o cenário acima para alertar sobre uma preocupante modalidade de informação falsa: os deepfakes. São vídeos que simulam cenas aplicando técnicas de inteligência artificial a imagens existentes. Até pouco tempo, o fenômeno se restringia ao mundo de filmes adultos. Mas, com a criação de novas tecnologias, existe a preocupação entre especialistas de que filmagens falsas possam comprometer também o processo eleitoral e outros aspectos da vida moderna.

##RECOMENDA##

"Se houver incentivo financeiro ou político suficiente para que atores mal-intencionados façam isso, é inteiramente possível que a fabricação de vídeos seja usada em futuras campanhas políticas", diz Patrini, que trabalha no Delta Lab (Deep Learning Technologies Amsterdam), da Universidade de Amsterdã e Bosch.

Patrini afirma que, de tão forte o impacto de um vídeo falso, a mensagem manipulada tende a ser aceita por quem quer acreditar nela - mesmo que comprovada a falsidade. "Os psicólogos nos advertem de duas falácias humanas: a tendência a acreditar em informações falsas após exposição repetida (efeito de verdade ilusório) e a acreditar em informações falsas quando apenas confirmam nossas crenças anteriores."

O cientista da computação brasileiro Virgilio Almeida, professor associado de Harvard, alerta, no entanto, que a produção de vídeos falsos sem grande refinamento já é acessível hoje. "Se pensarmos que já em 2014 usaram bots (redução de robôs em inglês), isso certamente vai ser utilizado. Mas as pessoas acreditam muito no que veem. Muitos não vão acreditar, mas muitos vão. O processo eleitoral passa a ser muito levado por isso", afirmou ele.

Se as eleições deste ano já podem ter o rebuliço do compartilhamento de vídeos falsos, Patrini salienta que as possíveis repercussões da manipulação audiovisual vão além da política. Considere, por exemplo, o uso de áudios e vídeos como provas em processos criminais. Se não pudermos mais confiar em sua autenticidade, como poderemos aceitá-los como evidência?

Soluções

Se o prognóstico das deepfakes é pessimista, isso se dá, em grande parte, porque ainda não há técnica desenvolvida para identificar os audiovisuais falsos. "É muito difícil descobrir vídeos falsos e não existe detectores em larga escala. As técnicas de perícia digital estão muito atrás", aponta Almeida.

Patrini sugere que a tecnologia de defesa contra deepfakes siga dois caminhos. O primeiro seria a criação de uma assinatura digital em vídeos - análoga a marcas d'água em notas de dinheiro -, que garantiria a autenticidade da câmera que deu origem a um filme e a ausência de edições. No entanto, uma assinatura digital seria invalidada por qualquer tipo de edição, mesmo os "benignos" - incluindo mudança de contraste e pequenos cortes. Além disso, não haveria como assegurar a veracidade de vídeos antigos, anteriores a uma possível implementação de assinaturas.

Outra solução vai na linha do "feitiço contra o feiticeiro": usar inteligência artificial e machine learning para criar detectores de vídeos falsos. A ideia é treinar computadores para identificar sinais de adulteração que seriam invisíveis a olhos humanos. O pesquisador considera esta a melhor opção.

"Assim como o aprendizado de máquina nos possibilita meios poderosos de manipulação da mídia, ele pode resgatar e trabalhar como um discriminador, informando-nos quando o conteúdo audiovisual parece ser uma falsificação." As informações são do jornal O Estado de S. Paulo.

Leianas redes sociaisAcompanhe-nos!

Facebook

Carregando