Tópicos | conteúdo inapropriado

O YouTube apagou de sua plataforma 8,3 milhões de vídeos nos últimos três meses de 2017. A maioria desse conteúdo eram spam ou tentativas de upload de conteúdo adulto, revelou a empresa, que pertence ao Google.

Mais de 80% dos vídeos removidos foram identificados por robôs em vez de seres humanos, destacando a crescente dependência da empresa no aprendizado de máquina para reduzir o conteúdo que viola as políticas do site.

##RECOMENDA##

"Nosso investimento em aprendizado de máquina para ajudar a acelerar remoções está valendo a pena em áreas de alto risco e baixo volume - como o extremismo violento - e em áreas de alto volume, como spam", escreveu a empresa em um post no blog.

"Também contratamos especialistas em tempo integral com experiência em extremismo violento, contra terrorismo e direitos humanos, e expandimos nossas equipes de especialistas regionais", completou o YouTube.

A CEO do YouTube, Susan Wojcicki, disse anteriormente em um post no blog que o Google aumentaria o número de moderadores de conteúdo e outros funcionários que revisam vídeos e treinam algoritmos para mais de 10 mil em 2018.

Segundo o YouTube, dos 6,7 milhões de vídeos inapropriados identificados por máquinas, 76% deles foram removidos antes mesmo de receberem uma única visualização.

O Google não divulga quantos vídeos estão hospedados no YouTube, mas afirma que o conteúdo removido representou apenas uma fração de 1% das visualizações gerais da plataforma.

LeiaJá também

--> Google Chrome vai bloquear anúncios que reproduzem som

Leianas redes sociaisAcompanhe-nos!

Facebook

Carregando