OpenAI promete ferramentas contra desinformação eleitoral
A ferramenta conversacional ChatGPT alimentou uma revolução na Inteligência Artificial (IA), mas também suscitou advertências de especialistas
A empresa americana OpenAI, criadora do robô virtual ChatGPT, anunciou que lançará ferramentas contra a desinformação este ano, quando são realizadas dezenas de eleições em países que reúnem metade da população mundial.
A ferramenta conversacional ChatGPT alimentou uma revolução na Inteligência Artificial (IA), mas também suscitou advertências de especialistas de que esses programas poderiam inundar a Internet de desinformação e influenciar as decisões dos eleitores.
Com inúmeras eleições acontecendo este ano em países como Estados Unidos, Índia e Grã-Bretanha, ou em outros menores como o Uruguai, a OpenAI declarou na segunda-feira (15) que não permitirá que sua tecnologia - incluindo o ChatGPT e o gerador de imagens DALL-E 3 - seja usada em campanhas políticas.
"Queremos garantir que a nossa tecnologia não seja usada para minar" os processos democráticos, afirmou a OpenAI em um blog.
"Ainda estamos trabalhando para compreender a eficácia das nossas ferramentas de persuasão personalizada. Até sabermos mais, não permitimos a construção de aplicativos para campanhas políticas e grupos de pressão", acrescentou a empresa.
- Desinformação: um risco -
A desinformação, incluindo a gerada pela IA, é um dos maiores riscos mundiais no curto prazo e pode causar danos aos governos recém-eleitos nas principais potências econômicas, alertou o Fórum Econômico Mundial na semana passada.
Segundo especialistas, o medo da desinformação eleitoral começou há anos, mas o acesso fácil a potentes geradores de texto e a imagens baseadas em IA aumentou a ameaça, especialmente se os usuários não conseguirem distinguir facilmente se o conteúdo é falso, ou se foi manipulado.
Ontem, a OpenAI informou que está preparando ferramentas que tornem mais confiáveis os textos gerados pelo ChatGPT, além de oferecer aos usuários a possibilidade de detectar se uma imagem foi criada com o DALL-E 3.
"No início deste ano, implementaremos as credenciais digitais da Coalition for Content Provenance and Authenticity (Coalizão para Autenticidade e Prevenção de Conteúdos), uma abordagem que codifica os detalhes sobre a procedência do conteúdo usando criptografia", declarou a empresa.
Também conhecida como C2PA, essa coalizão pretende melhorar a identificação e o rastreio de conteúdos digitais. Seus membros incluem grandes empresas como Microsoft, Sony, Adobe e as japonesas especializadas em imagem Nikon e Canon.
De acordo com a OpenAI, o ChatGPT direcionará os usuários para sites autorizados quando forem feitas perguntas de procedimentos sobre as eleições americanas: por exemplo, onde votar.
"As conclusões deste trabalho servirão de base para nossa abordagem em outros países e regiões", afirmou a empresa, acrescentando que o DALL-E 3 conta com "cercas" para evitar a geração de imagens de pessoas reais, incluindo candidatos.
O anúncio da OpenAI foi feito na esteira de medidas tomadas por gigantes da tecnologia como o Google e a rede social Facebook para limitar a interferência eleitoral, especialmente por meio do uso de IA.
Em seu trabalho, a AFP já desmentiu material falso como o do presidente dos Estados Unidos anunciando o recrutamento de soldados, ou o curta-metragem da democrata Hillary Clinton, proclamando seu apoio à candidatura presidencial do governador do estado da Flórida, o republicano Ron DeSantis.
Este tipo de material audiovisual circulou nas redes sociais durante a campanha, por exemplo, para as eleições de Taiwan realizadas este mês, segundo estudos realizados pela equipe de Verificação de Fatos da AFP.