Tecnologia

| Segurança

A Comissão Europeia - braço executivo da União Europeia (UE) - dialogou com a China sobre regulação de dados, inteligência artificial (IA), fluxo transfronteiriço de dados industriais e inovação e pesquisa, entre outros assuntos relacionados ao domínio digital.

Em comunicado, a Comissão Europeia informa que o evento foi presidido pelo vice-primeiro-ministro da China, Zhang Guoqing, e pela vice-presidente para Valores e Transparência da Comissão Europeia, Vera Jourova.

##RECOMENDA##

Esse foi o segundo Diálogo Digital China-UE, realizado em Pequim.

O evento não ocorria desde 2020.

Desde a pandemia da Covid-19, têm se tornado cada vez mais frequentes nos cartórios de notas do Brasil registros de diretivas antecipadas de vontade (DAVs) feitas por pessoas que desejam proteger sua imagem e voz, diante do avanço da inteligência artificial (IA).

Segundo disse à Agência Brasil a vice-presidente do Colégio Notarial do Brasil seção Rio de Janeiro, Edyanne de Moura Frota Cordeiro, tabeliã titular do 7º Ofício de Notas, os tabelionatos já registraram cerca de 5 mil DAVs em todo o país, nos últimos três anos. No estado do Rio de Janeiro, foram 107 escrituras sobre direitos digitais, sendo 31 somente nos primeiros semestre deste ano. O maior número de registros se concentra nas regiões Sudeste e Sul, informou.

##RECOMENDA##

O assunto ganhou destaque recentemente após a aparição da cantora Elis Regina em um comercial da Volkswagen, cuja imagem foi reconstituída a partir de inteligência artificial. Elis Regina morreu em 1982.

Caso semelhante ocorreu com o ator americano Paul Walker, que faleceu em um desastre de carro, em 2013, no meio das filmagens do filme Velozes e Furiosos 7. Para concluir o longa-metragem, foi utilizada tecnologia de computação gráfica (CGI, na sigla em inglês). 

Na tecnologia, as imagens geradas por computador têm três dimensões e profundidade de campo. A cantora Madonna também alterou seu testamento, proibindo o uso de hologramas após sua morte. Tais fatos despertaram a atenção da sociedade para as escrituras sobre direitos digitais.

A tabeliã lembrou que, em paralelo ao desenvolvimento da mídia e ao aparecimento de influencers em plataformas digitais, a IA vem sendo cada vez mais aprimorada “e, hoje em dia, se pode fazer várias coisas com a voz da pessoa e imagem, mesmo pós-mortem. Por isso, ela destacou a necessidade de se regular as relações jurídicas.

Instrumentos

De acordo com Edyanne, os instrumentos vão se diferenciar. No caso de uma pessoa que quer ter suas obras perpetuadas depois de morta, como letras de música, imagens, voz, por exemplo, ou mesmo partilha de bens, o instrumento adequado seria o testamento, que só terá eficácia depois que a pessoa morrer.

Contudo, se for uma preocupação em vida, o instrumento são as DAVs. Isso se aplica a pessoas vivas que desejam preservar os direitos de voz ou imagem em caso de algum acontecimento inesperado, como problema de saúde, acidentes, situação de hospitalização sem discernimento ou coma. Nesses casos, a pessoa pode fazer uma diretiva para proteger tanto senhas de acesso, códigos de redes sociais, ativos, mas também regular o que vai ser feito com sua imagem e voz, caso ela esteja impossibilitada de manifestar a sua vontade. Esse é um instrumento novo que poucas pessoas sabem que existe, afirmou. “Nós temos esses dois tipos de documentos de escrituras notariais.”

Ética

Os direitos digitais são objeto do Projeto de Lei 3.592/2023, de autoria do senador Rodrigo Cunha (Podemos/AL), que busca disciplinar e estabelecer regras para a utilização das imagens e recursos digitais, principalmente no caso de pessoas já falecidas. “Porque a pessoa viva ainda tem como se defender”, advertiu a vice-presidente do CNB/RJ.

De acordo com o PL, o uso da imagem de uma pessoa falecida por meio de inteligência artificial só será permitido com o consentimento prévio e expresso da pessoa em vida ou dos familiares mais próximos. A proposta ainda determina que a permissão deve ser obtida e apresentada de forma clara, inequívoca e devidamente documentada, especificando os objetivos a serem alcançados com o uso de imagens e áudios.

Edyanne Cordeiro avaliou que a questão de bioética é muito recente e não está ainda regulada. “Tudo surgindo agora, tanto no que se refere à sucessão e ao que for usado depois da morte, reunidos na chamada herança digital, como aos direitos da personalidade, porque a pessoa está viva”. São direitos existenciais, constitucionais. “Têm muitos liames porque, se a pessoa não deu autorização e terceiros forem usar, isso vai gerar muita demanda de ações de indenização por danos morais e, até, danos materiais, porque pode-se manchar a imagem da pessoa e ela acabar perdendo direitos.”.

A tabeliã alertou que herdeiros, inclusive, podem ser vítimas de uso indevido de imagem e voz de parentes e deverão pedir indenização.

Plataforma

Para realizar uma DAV, a pessoa interessada deve comparecer em um cartório de notas com documentos pessoais ou fazer o procedimento em plataforma digital nacional, administrada pelo Conselho Federal do Colégio Notarial do Brasil.

No formato eletrônico, o cidadão escolhe o cartório de notas de sua preferência para solicitar o serviço. Em seguida, é agendada uma videoconferência com o tabelião de notas e a escritura é assinada eletronicamente, por meio de um certificado digital gratuito que pode ser emitido pela mesma plataforma. Embora gratuito, esse certificado vai servir somente para questões de cartório.

Segundo Edyanne, a antecipação de vontade é muito simples e não necessita de testemunhas, nem de acompanhamento por advogado. “A DAV é para se precaver em vida”, ressaltou. A tabela dos cartórios de notas para fazer uma DAV estabelece custo médio em torno de R$ 300, no estado do Rio de Janeiro. Dependendo do que for inserido na diretiva, o preço pode subir. Para testamentos, o valor tende a ser maior.

O testamento público é o documento pelo qual uma pessoa, denominada testador, declara como e para quem deseja deixar seus bens após sua morte. Para realizar o ato, é necessária a presença de duas testemunhas que não podem ser herdeiras ou beneficiadas pelo testamento, além dos documentos de identidade de todas as partes, requerentes e testemunhas. A presença de um advogado é opcional. O documento pode ser alterado e revogado enquanto o testador viver e estiver lúcido, e terá validade e publicidade somente após a sua morte.

Tabelionatos

O Colégio Notarial do Brasil - Seção Rio de Janeiro é a entidade de classe que representa institucionalmente os tabelionatos de notas do estado. As seccionais dos colégios notariais de cada estado estão reunidas em um Conselho Federal (CNB/CF), que é filiado à União Internacional do Notariado (UINL).

A entidade não governamental reúne 88 países e representa o notariado mundial existente em mais de 100 nações, correspondentes a dois terços da população global e 60% do Produto Interno Bruto (PIB) mundial, praticando atos que conferem publicidade, autenticidade, segurança e eficácia aos negócios jurídicos pessoais e patrimoniais, contribuindo para a desjudicialização. 

Meta, a empresa matriz do Facebook, anunciou nesta terça-feira (29) que eliminou milhares de contas da rede social que fariam parte de uma operação de propaganda chinesa on-line.

A campanha teria estado ativa em mais de 50 plataformas e fóruns, incluindo Facebook, Instagram, TikTok, YouTube e Twitter (rebatizado como X), segundo informe publicado pela Meta.

##RECOMENDA##

"Trata-se da maior, embora fracassada, e mais prolífica operação de influência secreta de que tivemos conhecimento até agora", disse o chefe de Inteligência sobre Ameaças Globais do gigante americano, Ben Nimmo.

As equipes das Meta conseguiram vincular a campanha "a indivíduos associados às forças da ordem chinesas", disse a empresa.

Mais de 7.700 contas do Facebook e cerca de 15 contas do Instagram foram removidas, a maior operação do gênero, acrescentou.

As equipes de segurança do grupo conseguiram determinar que as contas estavam vinculadas a uma série de atividades de spam (mensagens não solicitadas) que ocorriam desde 2019.

"Pela primeira vez conseguimos vincular essas séries e confirmar que fazem parte da mesma operação", disse Nimmo.

 Pouco público 

A rede publicava regularmente comentários positivos sobre a China e a província de Xinjiang, onde se encontra a minoria uigure, ao mesmo tempo em que criticava os Estados Unidos, a política externa dos países ocidentais e aqueles que criticam o governo chinês, "incluindo jornalistas e pesquisadores", relata o informe.

A operação tinha origem na China e era dirigida especificamente para Taiwan, Estados Unidos, Austrália, Reino Unido e Japão, assim como para o público de língua chinesa em todo o mundo.

As contas e páginas em questão foram removidas por não respeitarem os termos de uso das plataformas do grupo. Pareciam ter baixa audiência, e os comentários denunciavam, principalmente, as afirmações falsas.

Além disso, as contas estavam vinculadas a diferentes localizações da China, com um ritmo de atividade que parecia corresponder ao horário comercial.

A operação também se apoiou, em grande medida, no Medium, Reddit, X, YouTube, Soundcloud e Vimeo, de acordo com a equipe de ameaças da Meta.

Operação "Doppelganger"

Algumas das táticas usadas foram parecidas com as de uma rede russa identificada em 2019, o que, segundo Nimmo, sugere que estas operações aprendem umas com as outras.

O relatório da Meta também fez uma análise de uma campanha denominada "Doppelganger", descoberta há um ano por suas equipes.

A operação se concentrou em fazer cópias ("doppelganger” em inglês) de sites dos principais meios de comunicação europeus para publicar notícias falsas sobre a guerra na Ucrânia e depois divulgá-las na Internet, explicou o chefe da Política de Segurançada Meta, Nathaniel Gleicher.

As empresas envolvidas nesta campanha, que no início se concentrou principalmente na Alemanha, França e Ucrânia, e mais tarde nos Estados Unidos e em Israel, foram recentemente alvo de sanções por parte da União Europeia.

"Conseguimos bloquear seus recursos operacionais em nossas plataformas, mas os sites continuam ativos", afirmou Gleicher.

Esta foi a maior e mais avançada operação de influência implementada pela Rússia desde 2017, completou.

Embora os computadores quânticos ainda estejam em desenvolvimento, pesquisadores do ramo da computação já estão trabalhando para proteger dados confidenciais das novas táticas de ataques cibernéticos. Na quarta-feira (15), o Google anunciou o lançamento do código de uma chave de segurança que usa criptografia projetada para suportar tentativas de descriptografia de computadores tradicionais e processadores quânticos também. 

A empresa diz que sua implementação permitirá a criação de chaves de segurança com resiliência quântica no FIDO2, a segunda versão de um padrão global para autenticação sem senha. As chaves de segurança são pequenos dispositivos físicos que normalmente se conectam a um computador ou se comunicam sem fio quando colocados perto de um dispositivo. A proposta do Google foi co-desenvolvida com o Instituto Federal de Tecnologia de Zurique (ETH Zürich), na Suíça. 

##RECOMENDA##

O código envolve um novo esquema de assinatura híbrida que combina o algoritmo ECC tradicional e o algoritmo Dilithium mais recente para combater ataques quânticos. As assinaturas ECC estão em uso há cerca de duas décadas. O dilithium, por sua vez, é um algoritmo “seguro quântico” que o Instituto Nacional de Padrões e Tecnologia dos Estados Unidos selecionou como parte de seus padrões potenciais para futuros sistemas criptográficos. 

Os pesquisadores disseram que decidiram criar uma assinatura híbrida, pois a segurança do Dilithium “ainda não resistiu ao teste do tempo”. Testes feitos recentemente em algoritmos "seguros quânticos" provaram que eles estão expostos a certos tipos de ataques cibernéticos tradicionais. 

Por exemplo, uma implementação específica do Crystals-Kyber é vulnerável a ataques de canal lateral, que usam informações vazadas por um sistema de computador para obter acesso não autorizado ou extrair dados confidenciais, descobriram os pesquisadores. De acordo com o Google, é especialmente importante usar um esquema de assinatura híbrida para chaves de segurança, pois a maioria delas não pode ser atualizada. 

Um novo vírus no Windows ameaça o sistema financeiro da América Latina e pode ter sido criado no Brasil. Desenvolvido com códigos em português, o JanelaRAT é considerado extremamente complexo e vem roubando senhas de bancos desde junho.  

A empresa de cibersegurança Zscaler identificou que os códigos, metadados e outros elementos de programação do vírus estão em português. O vetor de disseminação ainda é desconhecido, mas as amostras em dados formato ZIP dão indícios de que ele começou a se propagar por phishing, através de e-mails.  

##RECOMENDA##

O vírus possui semelhanças com o BX RAT, o trojan de acesso remoto que circula desde 2014. O JanelaRAT também usa scripts VBS e arquivos BAT para contaminar os sistemas. 

Seu maior risco é a capacidade de se esconder das ferramentas de segurança e só agir em momento oportuno. A cada cinco segundos, o víris verifica o tempo em que fez a última interação e interrompe suas atividades caso exceda 10 minutos. Assim, garante que suas ações apareçam em meio à utilização da máquina e que sua detecção fique mais difícil. 

Os especialistas em cibersegurança estão em alerta para o começo de uma nova cepa de malwares contra o sistema bancário, carteiras de criptomoeda e fintechs. Aos usuários, o único meio de se proteger é evitar clicar em links suspeitos e executar arquivos anexos de fontes desconhecidas. Outra prevenção é ativar e sempre atualizar os programas que ajudem a identicar ameaças. 

De acordo com a pesquisa realizada pela Confederação Nacional de Dirigentes Lojistas (CNDL), os brasileiros pretendem investir mais no presente dos pais em 2023. Cerca de 39% deve optar por realizar as compras pela internet, sobretudo em sites (73%), aplicativos (70%) e redes sociais (22%). Essas datas comemorativas são atrativas para golpistas.

Confira a seguir, dicas que o especialista em direito digital, proteção de dados e advogado, Walter Calza Neto, deixa para realizar as compras online com mais segurança. 

##RECOMENDA##

Evite acessar links promocionais recebidos por meio de apps de mensagem ou SMS: Neste caso, opte por consultar o site ou os canais oficiais da loja, se ela for conhecida.

“Quando falamos em segurança online, é essencial saber identificar os sites confiáveis. Geralmente, um site seguro tem sua URL começando com "https". Outro bom indicativo é a presença de selos de segurança de empresas renomadas, sites com críticas positivas entre os usuários tendem a ser mais confiáveis e consultar plataformas de registros de reclamações antes de efetuar a compra pode evitar muitos problemas. A existência de políticas de privacidade também é um bom sinal. Assim, vale sempre checar avaliações recentes e priorizar compras em plataformas conhecidas ou que tenham sido recomendadas por pessoas de sua confiança”, explica Walter. 

Busque sempre os meios de pagamentos seguros: Evite usar PIX ou realizar transferências bancárias, pois pela facilidade e rapidez da transição por estes meios de pagamento são os preferidos dos golpistas.

“Cobranças desconhecidas em seu extrato bancário ou fatura do cartão, a não entrega de produtos no prazo ou a recepção de e-mails suspeitos solicitando informações pessoais são indicativos de problemas. Entre em contato com seu banco se notar cobranças estranhas e informe sua desconformidade com as compras fraudulentas. Também é recomendável alterar suas senhas, especialmente se achar que suas informações foram comprometidas. E, por fim, não se esqueça de registrar um Boletim de Ocorrência online e reportar os fatos a entidades como o Procon, fornecendo todos os detalhes do ocorrido”, aconselha o especialista. 

Sempre desconfie que uma promoção parecer fora do convencional: Entre em contato com a loja pelo site ou pelos canais oficiais para confirmá-la. Além disso, atente-se à segurança do site e da loja virtual checando a presença do selo de site seguro em formato de cadeado.

“Realizar compras pela Internet próximo a datas comemorativas oferece diversos benefícios. Em primeiro lugar, oferece conveniência, permitindo que as pessoas façam suas compras no conforto de suas casas, evitando filas, trânsito ou aglomerações que são comuns em datas comemorativas como o Dia dos Pais. Além disso, as lojas online proporcionam uma vasta gama de produtos, possibilitando que os consumidores tenham a facilidade de comparar marcas e preços”, afirma Neto. 

Com os canais digitais fora do ar, o Itaú Unibanco direcionou os clientes às agências físicas, com horário de funcionamento previsto até o horário das 17 horas. O banco não tem dado previsões sobre o retorno das operações online.

"Nossos canais digitais permanecem instáveis. Para realizar suas transações, você pode contar com os caixas eletrônicos e as agências, que funcionarão até 17h", informou o Itaú em postagem em sua página oficial no Twitter.

##RECOMENDA##

O expediente bancário costuma se encerrar às 16 horas.

Nas respostas, alguns usuários disseram que os caixas das agências também não estão funcionando. "Mas nem na agência está funcionando. Tudo fora do ar!", afirmou um deles.

Mais cedo, o banco informou que estava trabalhando "com urgência" para restabelecer o atendimento.

"O Itaú Unibanco informa que está com instabilidade de origem interna em seus sistemas nesta segunda-feira (7)", disse o Itaú.

O acesso à internet, a popularização das redes sociais e o avanço da tecnologia estão cada vez mais presentes na rotina de crianças e adolescentes, seja durante as férias ou na escola. A segurança desses ambientes digitais é um desafio, em especial, para pais e educadores que querem protegê-las no campo da internet. Veja a seguir maneiras de proteger crianças de golpes de internet com o advogado e especialista em Direito Digital, Proteção de Dados e Cibersegurança, Walter Calza Neto.

Ensinar a criança a nunca compartilhar informações pessoais online sem a permissão de um adulto e sempre verificar a fonte de solicitação de informação. “Os pais devem educar as crianças sobre vários tipos de golpes na internet, incluindo phishing (e-mails ou mensagens fraudulentas que solicitam informações pessoais), golpes de prêmios falsos, links perigosos, falsos perfis em redes sociais, sites fraudulentos de venda, publicações com falsos conteúdos comerciais nas redes e golpes de suporte técnico”, detalha Walter. 

##RECOMENDA##

Educar as crianças sobre os efeitos do crime ajuda a prevenir sua participação, bem como relatar quando elas são vítimas. “A segurança na internet vai além da proteção contra golpes. O cyberbullying e o stalking são problemas cada vez mais comuns. O cyberbullying é um tipo de assédio que ocorre em ambiente digital, enquanto o stalking se refere a um comportamento obsessivo e intrusivo, também online, em que o stalker persegue e invade a privacidade de outra pessoa”, acrescenta. 

Ensinar a criança a verificar a autenticidade das contas nas redes sociais e evitar clicar em links suspeitos. “Também tomar cuidado com promoções, sorteios e links patrocinados É importante instruir as crianças sobre a possibilidade de uso indevido de fotos e vídeos pessoais e a necessidade de consentimento de um adulto confiável para compartilhar detalhes pessoais. Durante os períodos de atividade online, como férias e volta às aulas, é preciso intensificar a vigilância. A educação contínua e a conscientização sobre as armadilhas online são essenciais para proporcionar um ambiente digital seguro”, aconselha o especialista. 

Se a criança cair em um golpe, é importante transformar o incidente em uma lição de aprendizado para prevenir futuros golpes. “Manter a calma e assegurar que eles não estão em apuros - o foco é resolver o problema. Uma ação imediata deve ser tomada para minimizar o dano. Isso pode incluir a mudança de senhas, notificação do banco, empresa de cartão de crédito, ou ainda o bloqueio do chip com o número do IMEI junto à operadora. Em todos os casos, uma vez estancado o golpe, deve ser relatado o incidente à polícia ou a autoridades competentes”, direciona o advogado. 

Pesquisa 

Segundo dados do Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação (Cetic.br), 93% das crianças e adolescentes entre nove e 17 anos acessam a internet no Brasil. Deste percentual, 44% também utiliza a rede mundial de computadores no ambiente escolar, mas 90% do total de entrevistados fica conectado quando está em casa. 

De acordo com a última edição da pesquisa nacional do Núcleo de Informação e Coordenação do Ponto BR (NICBR) lançada por um comitê de gestão de internet no país sobre atividades online de crianças e adolescentes, a utilização das redes sociais foi a atividade que cresceu entre crianças e adolescentes de nove a 17 anos no último ano, representando 78% dos usuários de internet dessa faixa etária (em contraste com 68% dois anos antes). Os jogos online interativos também foram destacados no estudo, com 66% do público acessando no último ano, comparado a 57% dois anos antes.

Aplicativos fotográficos que desnudam digitalmente mulheres, a possibilidade de criar "garotas de inteligência artificial (IA)" a partir de simples frases, e imagens manipuladas que alimentam a "extorsão sexual": o crescimento da pornografia ultrarrealista está superando os esforços dos Estados Unidos e da Europa para regulamentar a tecnologia.

As falsificações de fotos e vídeos cada vez mais realistas com base em IA, chamadas "deepfakes", normalmente estão associadas a personalidades conhecidas, como o papa Francisco vestindo um casaco acolchoado ou Donald Trump sob custódia, mas especialistas afirmam que seu uso está se disseminando para gerar pornografia não consensual que pode arruinar vidas comuns.

##RECOMENDA##

As mulheres são o principal alvo dessas ferramentas e aplicativos de IA, amplamente disponíveis gratuitamente e sem a necessidade de conhecimento técnico, que permitem aos usuários remover digitalmente as roupas de suas fotos ou inserir seus rostos em vídeos sexualmente explícitos.

"O aumento da pornografia gerada por IA e do 'deepfake porn' normaliza o uso da imagem de uma mulher sem seu consentimento", explica Sophie Maddocks, pesquisadora da Universidade da Pensilvânia que estuda abusos sexuais baseados em imagens.

"Que mensagem estamos enviando como sociedade sobre o consentimento quando qualquer mulher pode ser virtualmente despida?", comenta.

Em um vídeo dramático, uma streamer americana conhecida como QTCinderella lamentou a "exploração e objetificação constantes" das mulheres quando se tornou vítima do "pornô deepfake". Ela foi assediada por pessoas que enviavam cópias das manipulações em que ela aparecia.

O escândalo estourou em janeiro durante uma transmissão ao vivo do também streamer Brandon Ewing, que foi pego olhando um site contendo imagens sexuais falsas de várias mulheres, incluindo QTCinderella.

"Não é tão simples como 'só' ser violentada. É muito mais do que isso", escreveu a criadora de conteúdo no Twitter, agora chamado X, acrescentando que a experiência a "arruinou".

- "Garotas hiper-reais" -

A proliferação de deepfakes destaca a ameaça da desinformação habilitada por IA, que pode prejudicar a reputação e provocar intimidação ou assédio.

Embora celebridades como Taylor Swift e Emma Watson tenham sido vítimas de pornografia falsa, mulheres que não estão em destaque também são alvo desses ataques.

A mídia americana e europeia está repleta de depoimentos em primeira mão de mulheres, de acadêmicas a ativistas, surpreendidas ao descobrir seus rostos em vídeos pornográficos falsos.

Cerca de 96% dos vídeos deepfake online são pornografia não consensual, e a maioria deles apresenta mulheres, de acordo com um estudo de 2019 realizado pela empresa de IA Sensity.

A experiência do "ato de fantasia sexual, que costumava ser privado e ocorrer dentro da mente de alguém, agora está sendo transferida para a tecnologia e para os criadores de conteúdo no mundo real", disse Roberta Duffield, diretora de inteligência da Blackbird.AI.

- "Área obscura" -

Os avanços tecnológicos levaram a uma "indústria artesanal em expansão" em torno do pornô impulsionado pela IA, na qual muitos criadores de deepfakes aceitam pedidos pagos para gerar conteúdo com uma pessoa escolhida pelo cliente.

O FBI emitiu recentemente um alerta sobre "esquemas de sextorsão", nos quais golpistas capturam fotos e vídeos de redes sociais para criar material falso de "temática sexual" que é usado para chantagear o usuário afetado.

A proliferação de ferramentas de inteligência artificial superou a regulamentação.

"Isso não é uma área obscura da Internet onde essas imagens são criadas e compartilhadas", afirmou à AFP Dan Purcell, CEO e fundador da empresa de proteção de marcas de IA Ceartas. "Está bem na nossa frente. E sim, a lei precisa acompanhar", acrescentou.

Nos Estados Unidos, quatro estados, incluindo Califórnia e Virgínia, proibiram a distribuição de pornografia falsa, mas as vítimas geralmente têm poucos recursos legais se os perpetradores estiverem fora dessas jurisdições.

Em maio, um legislador dos EUA apresentou a Lei de Prevenção de Deepfakes de Imagens Íntimas, que tornaria ilegal compartilhar pornografia falsa sem consentimento.

Espaços online populares, como o fórum Reddit, também tentaram regular suas comunidades prósperas de pornografia com IA.

"A internet é uma jurisdição sem fronteiras e deve haver uma lei internacional unificada para proteger as pessoas contra essa forma de exploração", disse Purcell.

A Casa Branca afirmou nesta sexta-feira (21) que chegou a um acordo com grandes empresas de tecnologia para criar novas medidas de controle e fiscalização ao uso da inteligência artificial (IA). O anúncio vem após reunião do governo dos EUA com sete empresas líderes em IA: Amazon, Anthropic, Alphabet (Google), Inflection, Meta, Microsoft e OpenAI.

De acordo com nota da Casa Branca, as empresas concordaram em respeitar mecanismos para garantir que os produtos sejam seguros antes de apresentá-los ao público, além de criar ferramentas para identificar conteúdos produzidos por IA, como marcas d'água, e também desenvolver e investir em segurança cibernética para proteger dados dos cidadãos.

##RECOMENDA##

O texto afirma que as sete empresas também se comprometeram em facilitar a realização de auditorias externas em seus sistemas para aperfeiçoar os produtos e encontrar vulnerabilidades.

A Comissão Federal de Comércio dos Estados Unidos investiga a empresa OpenAI, para determinar se seu popular aplicativo ChatGPT prejudica os consumidores ao gerar informações falsas, e se sua tecnologia faz uso inadequado dos dados dos usuários.

Apoiada pela Microsoft, a OpenAI foi notificada sobre a investigação em um questionário de 20 páginas, em que é solicitada a descrever incidentes em que usuários foram falsamente difamados e a compartilhar os esforços da empresa para garantir que os mesmos não se repitam. A investigação foi divulgada pelo jornal The Washington Post.

##RECOMENDA##

O lançamento do ChatGPT pela OpenAI, em novembro passado, surpreendeu o mundo, ao mostrar o poder dos grandes modelos de linguagem (LLM, sigla em inglês), uma forma de inteligência artificial (IA) conhecida como "IA generativa", que pode produzir em segundos um conteúdo semelhante ao criado pelo homem.

Em meio à agitação causada pela capacidade dessa tecnologia, autoridades receberam relatos de que esses modelos também poderiam gerar conteúdo ofensivo, falso ou estranho, às vezes chamado de "alucinações".

A investigação da autoridade reguladora se concentra em como esse aspecto poderia prejudicar os usuários, segundo o questionário, mas também se aprofunda no uso de dados privados pela OpenAI para construir seu modelo, líder no mundo.

O GPT-4 da empresa é a tecnologia-base por trás do ChatGPT, assim como dezenas de outros programas de empresas que pagam uma taxa à OpenAI a fim de acessar o seu modelo para uso próprio.

Uma investigação da Comissão de Comércio não implica, necessariamente, outras ações, e a autoridade pode encerrar o caso se ficar satisfeita com a resposta da empresa. Caso o regulador perceba práticas ilegais ou inseguras, exigirá medidas corretivas e pode entrar com uma ação judicial.

A AFP entrou em contato com a OpenAI e a Comissão de Comércio, mas não obteve resposta.

No último dia 4 de julho, a Volkswagen divulgou uma campanha para comemorar seus 70 anos, protagonizando a cantora Maria Rita e sua mãe, Elis Regina, que morreu em janeiro de 1982. A empresa responsável pela propaganda utilizou tecnologias avançadas de inteligência artificial para criar as imagens de Elis dirigindo um carro e cantando.  

Desde então, o público agitou as redes sociais comentando e levantando questões acerca do uso e da criação da imagem de uma artista que já morreu em uma campanha publicitária. O LeiaJá conversou com a professora de direito civil Luciana Garret, que explicou que existe “um vácuo legislativo sério relacionado à utilização de certos direitos da personalidade, como direito de imagem, o direito ao nome, pós-morte”. 

##RECOMENDA##

De acordo com a docente, sempre vai ser necessária a autorização dos herdeiros para a manipulação de imagens da pessoa falecida. No entanto, falta ainda, na legislação brasileira, a definição do prazo de obrigatoriedade para essa autorização. A discussão fica mais aprofundada quando pensamos ainda na vontade da pessoa, tendo em vista que ela não tem mais poder de escolha.

“Quando você vai ver, por exemplo, eles fazerem a imagem da pessoa e aquela pessoa nunca gravou aquilo, e aí começa a discussão. Eu estou utilizando Inteligência Artificial para recriar aquela pessoa, a imagem dela, em uma obra nova, e eu não tive aquela pessoa lá atrás sequer imaginando que algo assim poderia acontecer. Então não tem como ter, por exemplo, uma vontade daquela pessoa lá atrás”, analisa Garret.

Em relação à jurisprudência, a advogada afirma que ainda faltam parâmetros legislativos. “É mais uma construção jurisprudencial que a gente vai ter relacionado à questão da utilização de direito de imagem e ainda tem pra ser construído até a nível jurisprudencial de entendimento mesmo, dos tribunais e por aí vai, com relação a essa recriação de um vídeo, de eu produzir esse vídeo através de inteligência artificial”, esclarece.

A professora avalia que a problemática do uso de imagem vai além da prática, já que as tecnologias avançam mais rápido do que os países conseguem criar dispositivos de regulamentação. “No caso, quando você vai olhar para as discussões hoje, especialmente, as que estão no legislativo, você vai ter ainda discussão sobre regulamentação de rede social. A gente já está num passo [à frente], em questões que vão até além do direito patrimonial”, reitera. 

Questões éticas

A professora observa que é grande o desafio para compreender os limites da ética no uso de inteligência artificial. “A gente tem agora um desafio pra apreciar, pra discutir, pra refletir, pra pensar em parâmetros, em limites até em questões éticas porque imagine que a pessoa dizia ‘X’, e aí de repente eu pego hoje a imagem dela dizendo ‘não X’”, pondera. 

“Os entendimentos são diversos, e todos eles são válidos e precisam ser discutidos, até pra que se possa concluir qual seria talvez a linha mais adequada diante da utilização”, finaliza.

O uso de tecnologias avançadas tem sido uma prática cada vez mais comum no dia-a-dia de milhares de pessoas. Além do abrangente acesso à internet e smartphones, as pessoas têm adotado outras ferramentas tecnológicas, como assistentes virtuais, inteligência artificial (IA), realidade virtual, entre outros mecanismos que, até alguns atrás, só eram vistos em filmes de ficção científica.

Mas afinal, até onde vão os limites para essas novas tecnologias? O que vem sendo discutido pelo judiciário brasileiro acerca do uso da IA pelo poder público, empresas e pessoa física? Como se proteger de uma exposição que pode sair do controle, como a utilização de técnicas como o deepfake? Para entender um pouco mais sobre o assunto, o LeiaJá conversou com a advogada especializada em direito digital, Natassia Mendes.

##RECOMENDA##

De acordo com a magistrada, “o judiciário tem acompanhado as mudanças tecnológicas, e tem utilizado em alguns casos as IA’s como ferramenta”. É o caso, por exemplo, do projeto de lei (PL) 2338/23, que tramita no Senado desde o mês de maio, que dispõe sobre o uso da IA. De acordo com o texto inicial, o objetivo principal é “proteger direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico”.

O PL 2338/23, surgiu da aprovação do PL 21/20 na Câmara dos Deputados, o Marco Legal da IA. Ambos os textos buscam levantar o entendimento que a tecnologia pode trazer para a população, levando em consideração o respeito à pessoa humana, os limites da democracia e a proteção constitucional. Por ser ainda bastante recente no Senado, o PL 2338 deverá passar por uma longa tramitação até a sua possível aprovação.

Dados

No entanto, se engana quem pensa que o marco legal da IA seria o primeiro texto pensado para certas tecnologias. Em 2018 foi sancionada a Lei Geral de Proteção de Dados (LGPD), que também criou a Autoridade Nacional de Proteção de Dados (ANPD). Tanto o órgão quanto a lei foram desenvolvidas para regular o uso de informações pessoais, para proteger a população de possíveis violações à imagem e à integridade de cada indivíduo.

“Quando falamos de coletas de dados, a LGPD está lá norteando. Caso haja algum vazamento ou coleta indevida, o titular pode sim ingressar com ação, bem como a ANPD pode aplicar as multas previstas na LGPD. Importante ressaltar que no presente momento, um assistente como a Alexa não é sujeito de direitos e deveres para o ordenamento brasileiro, ou seja, ela não poderia, por exemplo, testemunhar em juízo”, explica a advogada.

Inteligência artificial no dia a dia

Quando pensamos em IA, muitas pessoas ainda podem associar a robôs humanóides que têm sentimentos, como foram representados no cinema dos anos 90-2000. Os títulos mais conhecidos são “O homem Bicentenário” (1999) e “AI - Inteligência Artificial” (2001). Por mais futuristas que tenham sido as ideias projetadas nos longas, ainda podemos estar distantes dessa realidade. 

Por outro lado, temos lidado com interações diferentes com as novas tecnologias, como a manipulação da imagem e da voz de uma pessoa, criando um cenário em que ela tenha dito ou feito algo, sem isso ser verdade. Esses efeitos são chamados de deepfake ou deepnude. Para Natassia Mendes, a reflexão a ser feita entra no âmbito do que é de fato útil. “Os deepnudes, por exemplo, são uma situação que põe em xeque se as IA’s podem melhorar ou piorar a humanidade”, ela comenta

Para se proteger com mais segurança, a advogada dá algumas dicas sobre o assunto: “evitar ao máximo postar informações pessoais, principalmente em redes sociais. E um cuidado maior com informações a respeito de menores (filhos, enteados irmãos, enfim). Um exemplo disto é não postar fotos deles em ambientes escolares ou até mesmo usando uniforme da escola”, finaliza.

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

##RECOMENDA##

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

No último dia 15 de junho, a Netflix lançou a nova temporada de Black Mirror, um dos maiores sucessos da plataforma de streaming desde a sua criação. Líder em audiência em diversos países, incluindo o Brasil, a obra costuma propor distopias que mesclam discussões atuais sobre a internet, a inteligência artificial, o uso das redes sociais e outros assuntos voltados à tecnologia. O episódio piloto da nova temporada, “A Joan É Péssima”, estrela a veterana Salma Hayek e a atriz canadense Annie Murphy, ambas interpretando versões diferentes de Joan, que é a protagonista. 

O que deixou muitos fãs surpresos é que o primeiro episódio ironiza a própria Netflix, com uma paródia do streaming chamada “Streamberry”, site com termos de privacidade e direitos abusivos, e que originam a trama por trás da perda dos direitos de Joan sobre a própria imagem. Através de uma tecnologia de inteligência artificial chamada “Deepfake”, Joan tem sua vida exposta em uma série de cronologia em tempo real, lançada no Streamberry e com atualizações cotidianas. 

##RECOMENDA##

Entenda “A Joan É Péssima”, episódio 1 (contém spoilers) 

“A Joan É Péssima” (“Joan Is Awful”, em inglês) é estrelado pela atriz de Schitt's Creek, Annie Murphy, como Joan, uma CEO de tecnologia. De uma só vez, a série contextualiza momentos tensos do cotidiano de Joan: a empresária demitindo de forma nada legal um funcionário (interpretado por Ayo Edebiri, do The Bear), conversando com seu terapeuta sobre não gostar da culinária do seu noivo Krish (Ani Nash) e beijando seu ex-namorado Mac (Rob Delaney) em um momento de fraqueza. 

No final do dia, ela se senta para assistir Streamberry, um substituto da Netflix, e dá de cara com um novo programa chamado “A Joan É Péssima”. Curiosos, ela e Krish assistem ao primeiro episódio que acaba por ser uma dramatização do seu dia, com Joan interpretada por Salma Hayek. No final do episódio, a "Joan" de Hayek liga Streamberry para encontrar Cate Blanchett. 

A forma como ela é retratada imediatamente custa a Joan seu emprego e seu relacionamento. Depois de falar com seu advogado sobre a série invasiva, Joan é informada de que ela renunciou a seus direitos quando concordou com os termos e condições de Streamberry. O show é feito usando inteligência artificial, imagens e tecnologia deepfake, que captam informações do microfone de seu celular. 

Isso significa que a própria Salma Hayek não está envolvida na produção, tendo simplesmente permitido que Streamberry usasse sua imagem. Em uma tentativa de pressionar Hayek a encerrar o show, Joan defeca em uma igreja, para chamar atenção e intimidar Salma, que a interpretaria mais tarde na série, repetindo o mesmo ato. As duas, por fim, unem forças para derrubar o computador quântico da empresa que cria o conteúdo. 

Mas afinal, o que é deepfake? 

Deepfakes (em tradução livre, significa “profundamente falso”) são vídeos artificiais criados por computador nos quais as imagens são combinadas para criar novas imagens que retratam eventos, declarações ou ações que nunca aconteceram. Os resultados podem ser bastante convincentes. Deepfakes diferem de outras formas de informações falsas por serem muito difíceis de identificar como falsas. 

Essa tecnologia surge do trabalho do machine-learning (“aprendizado mecânico”),  subconjunto da inteligência artificial (IA) que se concentra na construção de sistemas que aprendem ou melhoram o desempenho de algo, com base nos dados que consomem. O algoritmo é alimentado com exemplos e aprende a produzir uma saída semelhante aos exemplos dos quais aprendeu. 

O aprendizado profundo (“deep’) é um tipo especial de aprendizado artificial que envolve “camadas ocultas”. Normalmente, o aprendizado profundo é executado por uma classe especial de algoritmo chamada rede neural, projetada para replicar a maneira como o cérebro humano aprende as informações. Uma camada oculta é uma série de nós dentro da rede que realiza transformações matemáticas para converter sinais de entrada em sinais de saída (no caso de deepfakes, para converter imagens reais em imagens falsas de qualidade) 

Quanto mais camadas ocultas uma rede neural tiver, mais “profunda” será a rede. As redes neurais, e particularmente as redes neurais recursivas (RNNs), são conhecidas por terem um desempenho muito bom em tarefas de reconhecimento de imagem. 

O processo de produção de deepfakes complexos envolve, na verdade, dois algoritmos. Um algoritmo é treinado para produzir as melhores réplicas falsas possíveis de imagens reais. O outro modelo é treinado para detectar quando uma imagem é falsa e quando não é. Os dois modelos se repetem, cada um melhorando em suas respectivas tarefas. Ao colocar modelos uns contra os outros, você acaba com um modelo que é extremamente hábil em produzir imagens falsas; tão adepto, de fato, que os humanos muitas vezes não conseguem dizer que o resultado é falso. 

E qual o problema nisso? 

A grande maioria das pessoas, atualmente, obtém suas informações e formula opiniões com base no conteúdo da internet. Portanto, qualquer pessoa com a capacidade de criar deepfakes pode divulgar desinformação e influenciar as massas a se comportarem de uma maneira que avance a agenda pessoal do falsificador de alguma forma. A desinformação baseada em deepfake pode causar estragos em escala micro e macro. 

Em pequena escala, os deepfakers podem, por exemplo, criar vídeos personalizados que parecem mostrar um parente pedindo uma grande quantia em dinheiro para ajudá-los a sair de uma emergência e enviá-los a vítimas inocentes, enganando internautas em um nível sem precedentes. 

Em larga escala, vídeos falsos de importantes líderes mundiais fazendo afirmações falsas podem incitar a violência e até mesmo a guerra, influenciar eleitores e grupos políticos. 

O que pode ser feito? 

A tecnologia ainda não se tornou o maior problema da internet, mas provavelmente aumentará em prevalência e qualidade nos próximos anos. Isso não significa que você não pode confiar em nenhuma imagem ou vídeo, mas deve começar a treinar para ficar mais atento a imagens e vídeos falsos, especialmente quando os vídeos pedem que você envie dinheiro ou informações pessoais ou que façam reivindicações fora do comum. 

Curiosamente, a inteligência artificial pode ser a resposta para detectar deepfakes. Os modelos podem ser treinados para reconhecer imagens falsas em dimensões que o olho humano não consegue detectar. 

 

Mark Zuckerberg, CEO do Meta (Facebook e WhatsApp), anunciou nesta terça-feira (20) um novo recurso de privacidade para o WhatsApp: silenciar chamadas de números desconhecidos. A nova ferramenta, quando ativada, silenciará automaticamente as chamadas recebidas de identificadores fora da lista de contatos. 

A mudança visa oferecer mais privacidade aos usuários do WhatsApp, já que a empresa enfrentou várias reclamações relacionadas à privacidade este ano, incluindo o problema de configuração de privacidade enfrentado pelos usuários do iPhone da Apple em todo o mundo, desde janeiro. Os relatórios sobre scam e fraude, além de telemarketing abusivo também influenciaram a criação do recurso. 

##RECOMENDA##

A empresa com sede em Menlo Park, Califórnia, afirma que o recurso ajudará a filtrar spam, golpes e chamadas de pessoas desconhecidas para maior proteção. No entanto, as chamadas silenciadas ainda aparecerão na lista de chamadas recentes dos usuários com uma nota "chamada desconhecida silenciada" ao lado, caso o usuário esteja disposto a ligar de volta. 

Como silenciar chamadas desconhecidas 

Para utilizar a nova funcionalidade, os usuários do aplicativo precisam ativá-la primeiro:

1. Acesse o menu de configurações do WhatsApp; 

2. Selecione a opção "Privacidade"; 

3. Abra o menu "Chamadas" e ative a opção "Silenciar pessoas desconhecidas". 

 

Popularizado na pandemia, o QR Code é considerado a evolução do código de barras tradicional e foi amplamente adotado pelo comércio físico e online nos últimos anos. Cada vez mais presente em estabelecimentos e lojas virtuais, o QR Code também começou a ser usado para a prática de golpes financeiros. 

A Polícia Federal (PF) acompanha o aumento de vítimas de golpes através do código de barras dimensional lido pelo celular. Os criminosos modificam os códigos dos estabelecimentos, substituem ou colam adesivos em cima com informações diferentes para enganar os clientes. 

##RECOMENDA##

Após a leitura, a vítima acaba transferindo o pagamento para uma conta errada ou é direcionado para instalar programas maliciosos que infectam e roubam informações pessoais dos celulares. 

A PF lembra que aplicar golpes financeiros e induzir as vítimas ao erro para invadir seus aparelhos é crime com pena de seis meses a oito anos de reclusão. A denúncia deve ser feita junto à Polícia Civil para início das investigações. 

4 dicas para não cair no golpe do QR Code

-Sempre confira o nome do titular da conta destinatária do pagamento. Após escanear o código, aparecem na tela os dados do recebedor e, em caso de fraude, o titular da conta terá nome diferente da razão social da empresa; 

-Ao entrar em qualquer estabelecimento observe se códigos físicos foram manipulados, com um adesivo colado por cima do código original;

-Tome cuidado ao baixar aplicativos diretamente do QR Codes – é melhor baixar pela loja do celular ou site da empresa; 

-Caso o celular tenha sido invadido por programas malicioso seus dados pessoais estão fragilizados e sua vida financeira está correndo riscos – por isso é necessário a análise por parte de uma especialista em informática para que medidas de segurança sejam adotadas. 

O CEO da OpenAI, Sam Altman, criador da interface ChatGPT, alertou, nesta segunda-feira (5), contra a "regulamentação estrita" da Inteligência Artificial (IA), que ameaça frear seu desenvolvimento, embora reconheça a necessidade de uma vigilância de longo prazo.

Em maio, perante um comitê parlamentar dos Estados Unidos, Altman defendeu a intervenção dos governos para regular a IA e disse que era “chave” para “limitar os riscos” associados a essa tecnologia.

##RECOMENDA##

Nesta segunda-feira, porém, ele frisou que seu apelo por uma maior regulação não era direcionado aos "sistemas atuais".

"Acho que uma regulamentação estrita desse setor, ou tentar desacelerar essa incrível inovação, seria um erro", declarou na Universidade de Tel Aviv, em Israel.

Altman reconheceu que o risco da "superinteligência" mal utilizada é real.

É "algo que deveremos, talvez, enfrentar ao longo da próxima década, e isso não deixa muito tempo para as instituições do mundo se adaptarem", disse ele.

A visita do empresário americano a Israel faz parte de sua turnê mundial, que busca tranquilizar sobre as implicações da IA e defender uma regulação que não seja muito restritiva para seus negócios.

A Inteligência Artificial generativa da OpenAI, aberta ao público em geral no final de 2022, gerou uma onda de reações, temendo seu possível uso para desinformação, destruição de empregos e roubo de direitos autorais.

Em uma reunião com o presidente israelense, Isaac Herzog, Altman insistiu na "urgência" de "encontrar uma forma de mitigar esses enormes riscos".

O Privacy Sandbox do Google deve substituir, em breve, os cookies de terceiros. A empresa visa prover uma abordagem mais preocupada com a privacidade, permitindo que os usuários gerenciem seus interesses e os agrupem em cortes com base em padrões de navegação semelhantes. Essa é uma grande mudança para o setor de publicidade online e, depois de anos falando sobre isso e lançando vários experimentos, o setor finalmente vai ganhar mais propriedade sobre essa realidade. 

A partir do início de 2024, o Google planeja migrar 1% dos usuários do Chrome para o Privacy Sandbox e desabilitar cookies de terceiros para eles, segundo anúncio desta segunda-feira (22). O plano da empresa é desaprovar completamente os cookies de terceiros no segundo semestre de 2024. 

##RECOMENDA##

Além disso, com o lançamento do Chrome 115 em julho, a Google está disponibilizando as APIs de relevância e medição do Privacy Sandbox para todos os usuários do Chrome, tornando mais fácil para os desenvolvedores testar essas APIs com tráfego ao vivo. A companhia não planeja fazer alterações significativas na API após este lançamento. 

Descontinuar os cookies de terceiros para 1% dos usuários do Chrome não parece ter um grande impacto, mas, como me disse Victor Wong, do Google, que lidera o produto para tecnologia de publicidade privada dentro do Privacy Sandbox, isso ajudará os desenvolvedores a avaliar uma real prontidão para as mudanças maiores que ocorrerão no final de 2024. 

Para se preparar, os desenvolvedores também poderão simular a prontidão de descontinuação de cookies de terceiros a partir do quarto trimestre de 2023, quando poderão testar suas soluções movendo uma porcentagem configurável de seus usuários para o Privacy Sandbox. 

“Este plano foi desenvolvido em estreita consulta e coordenação com a Autoridade de Concorrência e Mercados do Reino Unido - a CMA. Nós os consultamos sobre isso e sentimos que esta é a melhor maneira de, em conjunto com a indústria, realmente testar a solução”, explicou Wong. “No quarto trimestre [2023], ajudamos a coordenar alguns dos testes e facilitamos isso. Q1 [2024], depreciamos para 1%, o que, então, para todos na indústria, os força a começar seriamente a experimentar e testar.” 

O Departamento de Justiça dos Estados Unidos anunciou na terça-feira, 16, uma série de processos criminais rastreando o fluxo ilegal de tecnologia sensível a adversários estrangeiros como Rússia, China e Irã. Entre as tecnologias estão o código de software da Apple, que teria sido levado para uma concorrente chinesa.

Alguns dos supostos roubos de segredos comerciais destacados pelo departamento datam de vários anos, mas autoridades dos EUA estão chamando a atenção para a coleção de casos para destacar uma força-tarefa criada em fevereiro para interromper a transferência de mercadorias para países estrangeiros.

##RECOMENDA##

"Estamos empenhados em fazer tudo o que pudermos para evitar que essas ferramentas avançadas caiam nas mãos de adversários que as utilizam de uma forma que ameace não apenas a segurança de nossa nação, mas os valores democráticos em todos os lugares", disse o procurador-geral adjunto Matthew Olsen, que chefia o Divisão de Segurança Nacional do Departamento de Justiça.

Um dos casos recém-abertos, no tribunal federal de São Francisco, acusa um ex-engenheiro de software da Apple de obter dados relacionados a carros autônomos antes de seu último dia na empresa em 2018, além de depois embarcar em um voo só de ida para a China na noite em que agentes do FBI estavam realizando uma busca em sua casa.

Os promotores dizem que acredita-se que o réu, identificado como Weibao Wang, esteja trabalhando em um concorrente de veículos autônomos com sede na China.

O Departamento de Justiça também abriu um processo criminal separado acusando um cidadão chinês de ter planos para transmitir grafite isostático, um material que pode ser usado no nariz da balística intercontinental, ao Irã, violando as sanções dos EUA. E acusou ainda um cidadão grego de participar do contrabando de tecnologia de uso duplo com aplicação militar, incluindo criptografia quântica, para a Rússia.

Prisões

Outros casos divulgados na terça-feira resultaram em prisões. Liming Li, 64, foi preso no início deste mês sob a acusação de ter roubado milhares de arquivos confidenciais de seu empregador na Califórnia, incluindo tecnologia que pode ser usada na fabricação de submarinos nucleares e aeronaves militares, e os usou para ajudar concorrentes chineses. Li está sob custódia desde sua prisão. Um advogado que o representa se recusou a comentar.

Além disso, dois russos, Oleg Sergeyevich Patsulya e Vasilii Sergeyevich Besedin, foram presos no Arizona este mês sob a acusação de planejarem enviar peças de aeronaves para companhias aéreas russas. Os advogados de ambos os homens não retornaram imediatamente as mensagens telefônicas em busca de comentários.

Os departamentos de Justiça e Comércio e outras agências lançaram no início deste ano a Força de Ataque de Tecnologia Disruptiva como uma forma de impedir que os adversários dos EUA adquiram tecnologia sensível.

"Nossas maiores preocupações de segurança nacional decorrem das ações de estados-nação como China, Rússia, Irã e Coreia do Norte - que desejam adquirir tecnologia sensível dos EUA para aprimorar suas capacidades militares com o objetivo final de mudar o equilíbrio mundial de poder", disse Matthew Axelrod, secretário adjunto do Departamento de Comércio. Fonte: Associated Press.

Páginas

Leianas redes sociaisAcompanhe-nos!

Facebook

Carregando