OpenAI promete ferramentas contra desinformação eleitoral

A ferramenta conversacional ChatGPT alimentou uma revolução na Inteligência Artificial (IA), mas também suscitou advertências de especialistas

ter, 16/01/2024 - 12:48
Kirill KUDRYAVTSEV O gerador de texto ChatGPT alimentou uma revolução na Inteligência Artificial (IA), mas também gerou alertas de que essas ferramentas poderiam inundar a Internet com desinformação e influenciar os eleitores Kirill KUDRYAVTSEV

A empresa americana OpenAI, criadora do robô virtual ChatGPT, anunciou que lançará ferramentas contra a desinformação este ano, quando são realizadas dezenas de eleições em países que reúnem metade da população mundial.

A ferramenta conversacional ChatGPT alimentou uma revolução na Inteligência Artificial (IA), mas também suscitou advertências de especialistas de que esses programas poderiam inundar a Internet de desinformação e influenciar as decisões dos eleitores.

Com inúmeras eleições acontecendo este ano em países como Estados Unidos, Índia e Grã-Bretanha, ou em outros menores como o Uruguai, a OpenAI declarou na segunda-feira (15) que não permitirá que sua tecnologia - incluindo o ChatGPT e o gerador de imagens DALL-E 3 - seja usada em campanhas políticas.

"Queremos garantir que a nossa tecnologia não seja usada para minar" os processos democráticos, afirmou a OpenAI em um blog.

"Ainda estamos trabalhando para compreender a eficácia das nossas ferramentas de persuasão personalizada. Até sabermos mais, não permitimos a construção de aplicativos para campanhas políticas e grupos de pressão", acrescentou a empresa.

- Desinformação: um risco -

A desinformação, incluindo a gerada pela IA, é um dos maiores riscos mundiais no curto prazo e pode causar danos aos governos recém-eleitos nas principais potências econômicas, alertou o Fórum Econômico Mundial na semana passada.

Segundo especialistas, o medo da desinformação eleitoral começou há anos, mas o acesso fácil a potentes geradores de texto e a imagens baseadas em IA aumentou a ameaça, especialmente se os usuários não conseguirem distinguir facilmente se o conteúdo é falso, ou se foi manipulado.

Ontem, a OpenAI informou que está preparando ferramentas que tornem mais confiáveis os textos gerados pelo ChatGPT, além de oferecer aos usuários a possibilidade de detectar se uma imagem foi criada com o DALL-E 3.

"No início deste ano, implementaremos as credenciais digitais da Coalition for Content Provenance and Authenticity (Coalizão para Autenticidade e Prevenção de Conteúdos), uma abordagem que codifica os detalhes sobre a procedência do conteúdo usando criptografia", declarou a empresa.

Também conhecida como C2PA, essa coalizão pretende melhorar a identificação e o rastreio de conteúdos digitais. Seus membros incluem grandes empresas como Microsoft, Sony, Adobe e as japonesas especializadas em imagem Nikon e Canon.

De acordo com a OpenAI, o ChatGPT direcionará os usuários para sites autorizados quando forem feitas perguntas de procedimentos sobre as eleições americanas: por exemplo, onde votar.

"As conclusões deste trabalho servirão de base para nossa abordagem em outros países e regiões", afirmou a empresa, acrescentando que o DALL-E 3 conta com "cercas" para evitar a geração de imagens de pessoas reais, incluindo candidatos.

O anúncio da OpenAI foi feito na esteira de medidas tomadas por gigantes da tecnologia como o Google e a rede social Facebook para limitar a interferência eleitoral, especialmente por meio do uso de IA.

Em seu trabalho, a AFP já desmentiu material falso como o do presidente dos Estados Unidos anunciando o recrutamento de soldados, ou o curta-metragem da democrata Hillary Clinton, proclamando seu apoio à candidatura presidencial do governador do estado da Flórida, o republicano Ron DeSantis.

Este tipo de material audiovisual circulou nas redes sociais durante a campanha, por exemplo, para as eleições de Taiwan realizadas este mês, segundo estudos realizados pela equipe de Verificação de Fatos da AFP.

COMENTÁRIOS dos leitores