Tópicos | deepfake

Black Mirror, uma das séries mais famosas do mundo, atualmente disponível na Netflix, voltou neste mês de junho com episódios inéditos. A obra de ficção científica tem a criação de Charlie Brooker e pinta um quadro distópico da relação da sociedade com a tecnologia. Contos satíricos e alegóricos ambientados em mundos futuros apresentam personagens que se tornaram vítimas da tecnologia que os cerca, ou têm uma obsessão doentia pela mídia. 

Outros são metáforas extremas para um "apocalipse tecnológico" iminente, que poderia muito bem estar acontecendo nos dias atuais. A nova temporada, por exemplo, iniciou com um episódio sombrio sobre o uso da tecnologia deepfake e o poder dos internautas sobre os próprios direitos de imagem. 

##RECOMENDA##

LeiaJá também 

- - > ‘Deepfake: entenda tecnologia abordada em Black Mirror’ 

A coisa assustadora sobre Black Mirror é que, no que diz respeito à ficção científica, a série consegue ser verossímil. Todos os dias, novas tecnologias se desenvolvem e tecnologias existentes são atualizadas, potencialmente aproximando o mundo real das realidades macabras de Brooker. Conheça algumas das tecnologias vistas na série e que também são encontradas na vida real (descrição por episódio, contém spoilers). 

USS Callister (episódio 1, temporada 4) 

Robert Daly (Jesse Plemons) cria seu próprio mundo virtual povoado por clones digitais criados a partir do DNA de seus colegas de trabalho. Neste mundo virtual estilo Star Trek, ele governa seus clones virtuais presos com uma mão de ferro. Existem dois tipos de tecnologia em jogo neste episódio, ambos já existentes. A clonagem baseada em DNA está evoluindo a cada ano e embora a consciência ainda não tenha sido clonada, os cientistas já clonaram fisicamente uma ovelha (Dolly) e outros animais desde então. 

A outra tecnologia que se destaca é o ambiente virtual imersivo. E em sentido amplo, isso existe em muitas formas atuais. No contexto do USS Callister em relação à tecnologia de hoje, os ambientes virtuais e os MMORPGs são atualmente um fenômeno global, com milhões de jogadores vivendo vidas imersivas completamente separadas do mundo real, em espaços que se tornam mais realistas a cada lançamento e que podem trocar informações pessoais com os players. 

Rachel, Jack e Ashley Too (episódio 3, temporada 5) 

A consciência da popstar Ashley (Miley Cyrus) é carregada em "Ashley Too", uma pequena versão robótica dela pertencente à fã adolescente Rachel (Angourie Rice). E Ashley Too, Rachel e sua irmã Jack (Madison Davenport) embarcam em uma missão de resgate para salvar a verdadeira Ashley, que foi colocada em coma induzido por sua tia. 

Enquanto Ashley está em coma, seus captores usam o "Vocal Mimicry Software" para reproduzir sua voz cantada. No mundo real de hoje, tecnologias emergentes como "Deep Voice" afirmam ser capazes de clonar uma voz por amostragem de apenas 3,7 segundos de áudio. Mais tarde, uma simulação visual de Ashley é criada para uma performance, imitando suas características físicas e maneirismos. A tecnologia "Deepfake" já está fazendo isso em um nível um pouco mais rudimentar. O upload do cérebro ainda é ficção científica, mas organizações como a Carboncopies estão trabalhando nisso. 

Quinze Milhões de Méritos (episódio 2, temporada 1) 

Os Quinze Milhões de Méritos da primeira temporada apresentam algumas tecnologias que já estão por aí no mundo. Bing Madsen (Daniel Kaluuya) e todos os outros personagens consomem suas mídias e interagem por meio de telas touchless, que já apareceram em diversos dispositivos do mundo real. A comida que os personagens comem é "cultivada em uma placa de Petri", como mencionado por Swift (Isabella Laughland), e a produção cultivada a partir de células já está se tornando uma realidade, com muitas start-ups em fase de teste. 

O episódio também mostra todos andando de bicicleta ergométrica para alimentar o mundo ao seu redor e ganhar seus "méritos" (a versão deste mundo do dinheiro). Esse é um conceito que está decolando devido a novas tecnologias ecologicamente corretas que usam a energia cinética gerada pelo homem para criar soluções elétricas sustentáveis. 

Odiados Pela Nação (episódio 6, temporada 3) 

Odiados pela nação se passa em um mundo onde a humanidade desenvolveu abelhas robóticas alimentadas por inteligência artificial para complementar a população decrescente de abelhas reais. Mas as abelhas são hackeadas e usadas como armas do crime. 

Nos dias atuais, um grupo de cientistas da Delft University of Technology, na Holanda, pretende neutralizar nossa população de abelhas em declínio com o robótico "Delfly". O Delfly é um drone parecido com uma abelha, projetado para polinizar plantas e colheitas em benefício da inestimável indústria agrícola da Holanda. Não há nenhum sinal deles matando ninguém ainda. 

Manda Quem Pode (episódio 3, temporada 3) 

Kenny (Alex Lawther) e Hector (Jerome Flynn) são vítimas de um malware que sequestra suas webcams e faz com que um chantagista os envie em uma série de tarefas assustadoras sob a ameaça de que vídeos comprometedores deles sejam divulgados. A premissa é muito baseada na tecnologia atual e nos métodos de hacking que são frequentemente usados por chantagistas hoje. 

Um incidente envolveu Cassidy Wolf, uma ex-Miss Teen USA, que foi vítima de um hacker de chantagem que usou malware para invadir o computador em seu quarto. O hacker ameaçou liberar imagens comprometedoras da rainha da beleza, a menos que ela tirasse a roupa para ele na câmera. 

Toda a Sua História (episódio 3, temporada 1) 

Liam Foxwell (Toby Kebbell) vive em uma sociedade na qual as pessoas têm "grãos" ou chips implantados atrás das orelhas. Os implantes registram tudo o que os usuários veem e ouvem, permitindo que eles "refaçam", reproduzindo suas memórias através dos olhos ou de um monitor. 

O Neuralink proposto por Elon Musk interage diretamente com o cérebro humano através de uma série de pequenos sensores, implantados usando cirurgia micro-robótica "minimamente invasiva". O implante envia dados para um computador ou smartphone para diversas finalidades. Musk afirma que o Neuralink tem benefícios potencialmente de longo alcance para o avanço da medicina e o tratamento de doenças como o Parkinson, mas será que a humanidade está pronta para se tornar íntima com a tecnologia?  

 

No último dia 15 de junho, a Netflix lançou a nova temporada de Black Mirror, um dos maiores sucessos da plataforma de streaming desde a sua criação. Líder em audiência em diversos países, incluindo o Brasil, a obra costuma propor distopias que mesclam discussões atuais sobre a internet, a inteligência artificial, o uso das redes sociais e outros assuntos voltados à tecnologia. O episódio piloto da nova temporada, “A Joan É Péssima”, estrela a veterana Salma Hayek e a atriz canadense Annie Murphy, ambas interpretando versões diferentes de Joan, que é a protagonista. 

O que deixou muitos fãs surpresos é que o primeiro episódio ironiza a própria Netflix, com uma paródia do streaming chamada “Streamberry”, site com termos de privacidade e direitos abusivos, e que originam a trama por trás da perda dos direitos de Joan sobre a própria imagem. Através de uma tecnologia de inteligência artificial chamada “Deepfake”, Joan tem sua vida exposta em uma série de cronologia em tempo real, lançada no Streamberry e com atualizações cotidianas. 

##RECOMENDA##

Entenda “A Joan É Péssima”, episódio 1 (contém spoilers) 

“A Joan É Péssima” (“Joan Is Awful”, em inglês) é estrelado pela atriz de Schitt's Creek, Annie Murphy, como Joan, uma CEO de tecnologia. De uma só vez, a série contextualiza momentos tensos do cotidiano de Joan: a empresária demitindo de forma nada legal um funcionário (interpretado por Ayo Edebiri, do The Bear), conversando com seu terapeuta sobre não gostar da culinária do seu noivo Krish (Ani Nash) e beijando seu ex-namorado Mac (Rob Delaney) em um momento de fraqueza. 

No final do dia, ela se senta para assistir Streamberry, um substituto da Netflix, e dá de cara com um novo programa chamado “A Joan É Péssima”. Curiosos, ela e Krish assistem ao primeiro episódio que acaba por ser uma dramatização do seu dia, com Joan interpretada por Salma Hayek. No final do episódio, a "Joan" de Hayek liga Streamberry para encontrar Cate Blanchett. 

A forma como ela é retratada imediatamente custa a Joan seu emprego e seu relacionamento. Depois de falar com seu advogado sobre a série invasiva, Joan é informada de que ela renunciou a seus direitos quando concordou com os termos e condições de Streamberry. O show é feito usando inteligência artificial, imagens e tecnologia deepfake, que captam informações do microfone de seu celular. 

Isso significa que a própria Salma Hayek não está envolvida na produção, tendo simplesmente permitido que Streamberry usasse sua imagem. Em uma tentativa de pressionar Hayek a encerrar o show, Joan defeca em uma igreja, para chamar atenção e intimidar Salma, que a interpretaria mais tarde na série, repetindo o mesmo ato. As duas, por fim, unem forças para derrubar o computador quântico da empresa que cria o conteúdo. 

Mas afinal, o que é deepfake? 

Deepfakes (em tradução livre, significa “profundamente falso”) são vídeos artificiais criados por computador nos quais as imagens são combinadas para criar novas imagens que retratam eventos, declarações ou ações que nunca aconteceram. Os resultados podem ser bastante convincentes. Deepfakes diferem de outras formas de informações falsas por serem muito difíceis de identificar como falsas. 

Essa tecnologia surge do trabalho do machine-learning (“aprendizado mecânico”),  subconjunto da inteligência artificial (IA) que se concentra na construção de sistemas que aprendem ou melhoram o desempenho de algo, com base nos dados que consomem. O algoritmo é alimentado com exemplos e aprende a produzir uma saída semelhante aos exemplos dos quais aprendeu. 

O aprendizado profundo (“deep’) é um tipo especial de aprendizado artificial que envolve “camadas ocultas”. Normalmente, o aprendizado profundo é executado por uma classe especial de algoritmo chamada rede neural, projetada para replicar a maneira como o cérebro humano aprende as informações. Uma camada oculta é uma série de nós dentro da rede que realiza transformações matemáticas para converter sinais de entrada em sinais de saída (no caso de deepfakes, para converter imagens reais em imagens falsas de qualidade) 

Quanto mais camadas ocultas uma rede neural tiver, mais “profunda” será a rede. As redes neurais, e particularmente as redes neurais recursivas (RNNs), são conhecidas por terem um desempenho muito bom em tarefas de reconhecimento de imagem. 

O processo de produção de deepfakes complexos envolve, na verdade, dois algoritmos. Um algoritmo é treinado para produzir as melhores réplicas falsas possíveis de imagens reais. O outro modelo é treinado para detectar quando uma imagem é falsa e quando não é. Os dois modelos se repetem, cada um melhorando em suas respectivas tarefas. Ao colocar modelos uns contra os outros, você acaba com um modelo que é extremamente hábil em produzir imagens falsas; tão adepto, de fato, que os humanos muitas vezes não conseguem dizer que o resultado é falso. 

E qual o problema nisso? 

A grande maioria das pessoas, atualmente, obtém suas informações e formula opiniões com base no conteúdo da internet. Portanto, qualquer pessoa com a capacidade de criar deepfakes pode divulgar desinformação e influenciar as massas a se comportarem de uma maneira que avance a agenda pessoal do falsificador de alguma forma. A desinformação baseada em deepfake pode causar estragos em escala micro e macro. 

Em pequena escala, os deepfakers podem, por exemplo, criar vídeos personalizados que parecem mostrar um parente pedindo uma grande quantia em dinheiro para ajudá-los a sair de uma emergência e enviá-los a vítimas inocentes, enganando internautas em um nível sem precedentes. 

Em larga escala, vídeos falsos de importantes líderes mundiais fazendo afirmações falsas podem incitar a violência e até mesmo a guerra, influenciar eleitores e grupos políticos. 

O que pode ser feito? 

A tecnologia ainda não se tornou o maior problema da internet, mas provavelmente aumentará em prevalência e qualidade nos próximos anos. Isso não significa que você não pode confiar em nenhuma imagem ou vídeo, mas deve começar a treinar para ficar mais atento a imagens e vídeos falsos, especialmente quando os vídeos pedem que você envie dinheiro ou informações pessoais ou que façam reivindicações fora do comum. 

Curiosamente, a inteligência artificial pode ser a resposta para detectar deepfakes. Os modelos podem ser treinados para reconhecer imagens falsas em dimensões que o olho humano não consegue detectar. 

 

Um novo regulamento entrou em vigor na China, nesta terça-feira (10), para controlar os vídeos "deepfakes". Cada vez mais realistas, estes clipes manipulados representam um desafio na luta contra a desinformação.

Os "deepfakes", ou "ultrafakes", são vídeos especificamente manipulados, nos quais o rosto de uma pessoa pode ser substituído pelo de outra, ou em que declarações podem ser falsificadas com um resultado ultrarrealista.

Hoje, essa técnica de Inteligência Artificial é muito usada nas redes sociais, onde se vê muitos vídeos com fins humorísticos.

Os "'deepfakes' também foram usados por pessoas inescrupulosas [...] para espalhar informação ilegal [...], difamar e destruir a reputação dos outros, se passar por outra pessoa para cometer fraudes", declarou a Administração cibernética da China.

Eles representam um "perigo para segurança nacional e para a estabilidade social" se não forem controlados, disse a organização de controle da Internet no mês passado.

As novas regras exigem que as empresas que oferecem serviços "deepfake" na China solicitem a identidade real de seus usuários e a torne obrigatória quando forem vídeos manipulados, para evitar "qualquer confusão".

A China está na vanguarda da regulamentação de novas tecnologias. Algumas delas são vistas como uma ameaça potencial à estabilidade, ou ao poder do Partido Comunista.

No ano passado, vários gigantes digitais chineses foram forçados a entregar detalhes de seus algoritmos às autoridades, uma medida nunca feita antes.

Os algoritmos funcionam como cérebro de muitos aplicativos e serviços na Internet, um segredo muito bem guardado pelas grandes empresas digitais.

Cada vez mais sofisticadas, técnicas de deepfake e deepdubs colocam na boca de pré-candidatos à Presidência frases que, na verdade, eles nunca proferiram. Muitas vezes, em lugares onde eles também não estiveram. Exemplo recente é um vídeo do ex-presidente Luiz Inácio Lula da Silva (PT) dizendo amar paçoca e abrindo um pote do doce, conteúdo que ganhou projeção nas redes nesta quinta-feira (24). O "detalhe", como a própria postagem explica, é que o líder petista não falou nada daquilo, e tudo não passou de uma farsa criada em computador.

O criador da peça, o jornalista e pesquisador de deepfake Bruno Sartori, relata na publicação ter usado a tecnologia para inserir o rosto de Lula no corpo de outra pessoa e transferir o timbre de sua voz para a fala original. Ele já compartilhou outros exemplos em seu perfil, como um vídeo que simula o pré-candidato Sérgio Moro (Podemos) recitando um poema satírico e um homem falando com a exata voz da ex-presidente Dilma Rousseff. Procurado pela reportagem, Sartori não quis se manifestar.

##RECOMENDA##

Deepfakes, como o nome sugere - algo como "mentira profunda", em tradução livre -, é uma categoria de farsa que vai além das fake news tradicionais. Diferentemente do que ocorre nas montagens tradicionais, os personagens retratados aparecem em vídeos e podem gesticular, falar e inclusive imitar a voz das vítimas - nesse caso, a técnica se chama deepdub.

Os conteúdos são feitos por meio de inteligência artificial. Para desavisados, é muito difícil distinguir o que é real do que é falso - uma dica é se atentar para certa estranheza nas expressões faciais, discrepâncias no tom da pele, entre outras minúcias.

Segundo o pesquisador Anderson Soares, chefe do centro de inteligência artificial da Universidade Federal de Goiás (UFG), dois fatores criam o ambiente perfeito para a disseminação de deepfakes. Primeiro, o avanço das ferramentas digitais e o amadurecimento da tecnologia nos últimos anos. Segundo, o fato de haver vídeos e áudios disponíveis em abundância para que o computador recolha os dados de aparência e voz de que precisa.

Soares afirma que a tendência é que a técnica se popularize e passe a estar disponível mesmo para quem não trabalha com tecnologia nos próximos anos. Via aplicativo de celular, por exemplo - alguns já existem, como o Reface App. "Em breve, qualquer pessoa vai conseguir produzir um vídeo ou voz falsa, é questão de pouco tempo".

Entretanto, o pesquisador argumenta que o melhor caminho não é proibir o uso da ferramenta. Ela pode ser útil para melhorar a dublagem de filmes, por exemplo, e bani-la afetaria a competitividade do Brasil no ramo da tecnologia. "O caminho é que os órgãos competentes tenham agilidade para coibir práticas antiéticas, sobretudo no que diz respeito às eleições, e a sociedade precisa ser educada para reconhecer vídeos falsos", afirma.

Na campanha eleitoral de 2018, o então candidato a governador João Doria (PSDB) foi alvo de uma deepfake. À época, passou a circular nas redes um vídeo com cenas de sexo envolvendo seis mulheres e um homem, que na gravação foi identificado como sendo o tucano. O material foi explorado por adversários para enfraquecê-lo na disputa.

"Hoje eu vi um vídeo vergonhoso nas redes sociais, que foi produzido por alguém que só quer o meu mal e o mal da minha família. Uma produção grotesca. Fake news. Pedi a um perito criminal que verificasse essas imagens. Pedi também medidas judiciais e criminais contra os autores desse vídeo. Lamento muito que a campanha em São Paulo tenha chegado a esse nível de ferir a nossa família", disse o tucano naquela ocasião.

Não é difícil, hoje, encontrar esse tipo de montagem envolvendo políticos na internet. Um caso famoso foi o que simulou o presidente Jair Bolsonaro (PL) elogiando as vacinas. Outro mostra o rosto do presidente no personagem mexicano Chapolim Colorado. Também há um exemplo em que o chefe do Executivo canta a canção "Admirável Gado Novo", de Zé Ramalho; Silvio Santos já apresentou o Jornal Nacional; Lula já cantou uma música de Pabllo Vittar; e até o ex-presidente americano Donald Trump já chamou Bolsonaro de "Bolsolino".

Questiona sobre como se prepara para enfrentar vídeos falsos, a equipe de Lula afirmou que não comenta estratégias de comunicação.

Alok iniciou nessa quinta-feira (16) campanha para integrar o Top100 dos melhores DJ’s do mundo e aproveitou para fazer tudo em forma de alerta para outra causa, a “Deepfake”, uma tecnologia capaz de elevar o nível das “Fake News”, criando imagens, vídeos e sons falsos, porém bem realistas.

Em vídeo, ele demonstrou a tecnologia enquanto pedia para os internautas votarem nele na eleição dos melhores DJ’s do mundo. Substituindo seu rosto e sua voz por de personalidades conhecidas como William Bonner, Whindersson Nunes e Sílvio Santos, Alok inicialmente pede votos como se fossem os famosos informando sobre a votação, mas logo faz o alerta sobre a tecnologia “Deepfake”.

##RECOMENDA##

“Antes da gente se despedir, eu quero lembrar a todos que nada disso aqui é real. Eu tô usando essa tecnologia para pedir votos para uma campanha de DJ. Outras pessoas podem usá-la em outro tipo de campanha”, explicou.

Com legenda em português e inglês, Alok descreveu um pouco mais sobre a tecnologia e deixou um aviso final: “Não acredite em tudo que você vê por aí”.

“Deepfake” é uma tecnologia capaz de criar imagens ou sons falsos, mas realistas, de pessoas dizendo ou fazendo coisas que nunca fizeram. Todo o vídeo foi manipulado com inteligência artificial a partir do meu rosto, sem a presença dos demais”, descreveu.

Para votar no DJ brasileiro e o ajudar alcançar posições mais altas, basta acessar o link: https://top100djsvote.djmag.com/

Veja vídeo publicado pelo DJ:

[@#podcast#@]

 

Se tem uma coisa que brasileiro sabe fazer enquanto está em quarentena é meme. A internet é um verdadeiro cofre do tio Patinhas, cheia de tesouros, prontos para serem consumidos por quem precisa ficar em casa para tentar conter a proliferação da covid-19. A mais nova pérola virtual é um vídeo que usa deepfake com membros do Governo Federal cantando uma paródia da música “Lava a Mão”, de Arnaldo Antunes.

A brincadeira coloca o presidente Jair Bolsonaro, os ministros Sergio Moro, Abraham Weintraub e a ministra Damares para “cantarem” uma versão feita por Bruno Sartori da música infantil. Recentemente, o próprio cantor Arnaldo Antunes relembrou a canção que era usada na década de 1990 para ensinar crianças a lavarem as mãos, atualmente, um dos principais hábitos de higiene necessários para evitar o contágio do novo coronavírus.

##RECOMENDA##

[@#video#@] 

Para quem não conhece a tecnologia e se surpreende com a sincronia feita pelas vozes e pela boca dos representantes do Governo (que parecem cantar realmente a música), a deepfake nada mais é do que uma ferramenta - encontrada também em aplicativos - que usa Inteligência Artificial para sincronizar imagens e sons humanos em vídeo. Geralmente, a técnica é usada para combinar um conteúdo já existente com outro, de forma bem próxima a realidade.

O Twitter anunciou nesta terça-feira (4) um plano para conter a disseminação de conteúdo manipulado, incluindo a falsificação de vídeos, prática conhecida como "deepfake", como parte de uma ação de combate à desinformação que pode resultar em incitação à violência ou outros danos.

A política foi anunciada após a plataforma solicitar comentários no ano passado sobre formas de reduzir "mídia sintética e manipulada" que possa causar danos às pessoas durante campanhas eleitorais ou provocar violência ou agressões físicas.

##RECOMENDA##

O Twitter que, juntamente com outras mídias sociais, vem lutando para responder à preocupação gerada pela desinformação, disse que sua nova política consiste em um misto de "rótulos" de alerta para tuítes que incluam imagens ou vídeos manipulados e a própria remoção das postagens.

A ação é adotada em meio à preocupação crescente com vídeos alterados usando inteligência artificial, uma prática conhecida como "deepfake", juntamente com outros tipos de manipulação usadas para enganar usuários de mídias.

A partir de março, a rede social rotulará ou retirará estes conteúdos com um mês de antecedência.

O Facebook proibirá os chamados vídeos "deepfake" em função das eleições presidenciais deste ano nos Estados Unidos, mas sua nova política ainda permitirá a publicação de vídeos sofisticadamente editados sempre que se tratar de uma paródia ou uma sátira, informou nesta terça-feira (7) a rede social.

Os "deepfake" são vídeos hiperrealistas manipulados através de inteligência artificial ou programas especialmente projetados para falsificar movimentos humanos reais de uma maneira muito convincentes.

##RECOMENDA##

Em uma postagem no blog que se seguiu ao relatório do Washington Post sobre o assunto, o Facebook disse que começará a remover clipes que foram editados de maneira que "não são óbvias para uma pessoa comum" e que podem causar confusão.

O material será removido se for "um produto de inteligência artificial ou de máquina que se sobreponha ou substitua o conteúdo de um vídeo, fazendo com que pareça autêntico", diz o texto da vice-presidente do Facebook, Monika Bickert.

No entanto, ela acrescenta: "Esta política não se estende ao conteúdo que é paródia ou sátira, ou vídeos que foram simplesmente editados para omitir ou modificar a ordem das palavras".

A mídia americana enfatizou que a nova política não incluirá vídeos como o que se tornou viral em 2019 - que não foi "deepfake" - da líder da Câmara dos Representantes, Nancy Pelosi, que fez parecer que ela tinha problemas de pronúncia.

O Facebook não indicou o número de pessoas dedicadas a identificar e baixar os vídeos ofensivos, mas disse que aqueles que não cumprirem com suas políticas usuais serão removidos e os denunciados continuarão sendo revisados por equipes de verificadores externos, incluindo os da AFP.

A AFP trabalha em mais de 30 países e em dez idiomas no programa "Third Party Fact-Checker (Verificação de fatos de terceiros, em tradução livre) desenvolvido pelo Facebook.

Dentro deste programa, lançado em dezembro de 2016, o Facebook paga a cerca de 60 mídias em todo o mundo por informações gerais ou especializadas para usar suas verificações de fatos em sua plataforma e no Instagram.

Se um desses meios de comunicação detectar que as informações são falsas ou enganosas, os usuários do Facebook e Instagram têm menos probabilidade de vê-las entre as notícias atuais. E se alguém tentar compartilhar essas informações, a plataforma propõe que leia o artigo com a verificação correspondente. 

O Facebook não exclui nenhuma postagem. Os meios de comunicação participantes têm total liberdade na escolha e tratamento dos temas cuja veracidade desejam verificar.

O Google anunciou nesta quarta-feira que intensificou esforços para combater os "deepfakes", publicando novos dados para ajudar os investigadores a detectar vídeos manipulados por inteligência artificial (IA).

Para isso, a empresa anunciou o lançamento de um "conjunto de dados de deepfakes visuais que produzimos" e que pode ser usado como ponto de referência para determinar se um vídeo foi alterado artificialmente.

##RECOMENDA##

"A detecção de deepfakes é um dos desafios mais importantes que temos pela frente", afirmou o CEO do Google, Sundar Pichai, numa mensagem publicada no Twitter.

A iniciativa surge em meio à crescente preocupação de que o "deepfake" (falsificações quase perfeitas) possa ser usado para semear discórdia ou manipular campanhas eleitorais.

Alguns analistas apontam que esperam que falsificações realistas sejam usadas para distorcer as eleições de 2020 nos Estados Unidos.

"Para preparar esse pacote de dados, durante o ano passado, trabalhamos com atores pagos e com o consentimento para gravar centenas de vídeos", informaram Nick Dufour, do Google Research, e Andrew Gully, do Jigsaw, uma unidade de pesquisa independente da Alphabet, que pertence ao Google.

"Usando os métodos de geração de deepfake disponíveis ao público, criamos milhares de deepfakes a partir desses vídeos. Os vídeos resultantes, reais e falsos, constituem nossa contribuição, que criamos para apoiar diretamente os esforços de detecção do deepfake".

No início deste ano, o Google divulgou dados de áudio sintético (recurso que consegue imitar a voz humana) com o mesmo objetivo e vem trabalhando com parceiros do setor para detectar e impedir falsificações.

Começou a viralizar nos últimos dias um vídeo que mistura as atuações de Jack Nicholson e Jim Carrey. Publicado pelo canal do YouTube Ctrl Shift Face, o registro mostra Jim Carrey "substituindo" Nicholson em uma das cenas do filme "O Iluminado".

O conteúdo desse tipo é classificado como deepfake, que brinca com o rosto das pessoas. A montagem realista foi aprovada pelos internautas e muitos até pediram o contrário. Algumas pessoas solicitaram nos comentários do canal que Jack Nicholson virasse Jim Carey na comédia "Ace Ventura", mais especificamente na cena do rinoceronte falso.

##RECOMENDA##

Confira:

Leianas redes sociaisAcompanhe-nos!

Facebook

Carregando