O YouTube apagou de sua plataforma 8,3 milhões de vídeos nos últimos três meses de 2017. A maioria desse conteúdo eram spam ou tentativas de upload de conteúdo adulto, revelou a empresa, que pertence ao Google.
Mais de 80% dos vídeos removidos foram identificados por robôs em vez de seres humanos, destacando a crescente dependência da empresa no aprendizado de máquina para reduzir o conteúdo que viola as políticas do site.
##RECOMENDA##"Nosso investimento em aprendizado de máquina para ajudar a acelerar remoções está valendo a pena em áreas de alto risco e baixo volume - como o extremismo violento - e em áreas de alto volume, como spam", escreveu a empresa em um post no blog.
"Também contratamos especialistas em tempo integral com experiência em extremismo violento, contra terrorismo e direitos humanos, e expandimos nossas equipes de especialistas regionais", completou o YouTube.
A CEO do YouTube, Susan Wojcicki, disse anteriormente em um post no blog que o Google aumentaria o número de moderadores de conteúdo e outros funcionários que revisam vídeos e treinam algoritmos para mais de 10 mil em 2018.
Segundo o YouTube, dos 6,7 milhões de vídeos inapropriados identificados por máquinas, 76% deles foram removidos antes mesmo de receberem uma única visualização.
O Google não divulga quantos vídeos estão hospedados no YouTube, mas afirma que o conteúdo removido representou apenas uma fração de 1% das visualizações gerais da plataforma.
LeiaJá também