Tópicos | moderadores

O Facebook aceitou um acordo para pagar cerca de US$ 52 milhões para funcionários e ex-funcionários que sofreram algum tipo de problema relacionado à saúde mental durante o tempo de trabalho na empresa nos Estados Unidos. As pessoas que podem recorrer a indenização atuaram na área de moderação de publicações e foram expostos a imagens e conteúdos traumáticos, com temas como estupro, assassinato e suicídio.

O acordo preliminar foi apresentado na última sexta-feira (8) em um tribunal na Califórnia. Cada moderador receberá no mínimo US$ 1 mil pelo tempo de trabalho no Facebook. O valor pode ainda ser acrescido, a depender do dano causado à saúde de cada funcionário. O acordo contempla 11,2 mil moderadores.

##RECOMENDA##

Transtornos mentais como depressão, vícios e transtorno do estresse pós-traumático são alguns dos danos relatados pelos funcionários e ex-funcionários da empresa, após poucos meses de trabalho na moderação do conteúdo. "Estamos satisfeitos que o Facebook trabalhou conosco para criar um programa sem precedentes para ajudar as pessoas a realizar um trabalho inimaginável há alguns anos", disse Steve Williams, advogado dos funcionários e ex-funcionários, em comunicado. "O dano que pode ser sofrido por este trabalho é real e grave". (Com agências internacionais)

As informações são do jornal O Estado de S. Paulo.

O Facebook está tornando público o documento com suas regras internas que antes estavam disponíveis apenas para moderadores de conteúdo. As diretrizes explicam o que é proibido na plataforma, como posts que contêm discurso de ódio, racismo e violência. Também de forma inédita, a empresa está dando aos usuários o direito de apelar às regras, caso acredite que a empresa cometeu um erro.

"Decidimos publicar essas diretrizes internas por dois motivos. Primeiro porque elas vão ajudar as pessoas a entenderem como nos posicionamos sobre questões delicadas. E em segundo lugar, ao oferecer esses detalhes tornamos o processo mais fácil para todos, incluindo para especialistas em diferentes áreas, nos darem feedbacks para que possamos melhorar as diretrizes - e as decisões que tomamos - ao longo do tempo", informou a rede social, em comunicado.

##RECOMENDA##

Até então, os usuários eram informados de forma vaga sobre o que poderia ou não ser publicado na rede. A documentação divulgada explica, por exemplo, porque mamilos femininos são algumas vezes censurados na plataforma.

"Entendemos que a nudez pode ser compartilhada por variadas razões, inclusive como forma de protesto, para conscientização sobre uma causa ou por motivos médicos e educacionais. Quando tal intenção fica clara, abrimos exceções para o conteúdo", diz a rede social.

Outro ponto que chama atenção no documento é a proibição de participação na rede de assassinos em série ou em massa. Criminosos condenados por matar uma pessoa, porém, podem se inscrever no Facebook.

"Consideramos um homicídio como assassinato em massa se ele resultar em quatro ou mais mortes em um incidente. Consideramos um assassino em série todo indivíduo que tenha cometido dois ou mais homicídios em diversos incidentes ou locais", explica o documento.

O Facebook diz que usa uma combinação de inteligência artificial e denúncias das pessoas para identificar publicações, imagens ou outros conteúdos que possam violam as diretrizes da comunidade. Essas denúncias são revisadas por uma equipe que trabalha 24 horas por dia, 7 dias por semana, em mais de 40 idiomas. Neste momento, a rede social emprega 7.500 revisores.

LeiaJá também

--> YouTube remove 8,3 milhões de vídeos inapropriados

O YouTube, que pertence ao Google, informou que vai aumentar o número de moderadores para identificar e eliminar conteúdos impróprios que têm contornado os filtros automáticos da plataforma de vídeo. O anúncio foi feito na segunda-feira (4) pela CEO da empresa, Susan Wojcicki. No total, a rede social de vídeos planeja ter 10 mil pessoas exercendo essa função até o fim de 2018.

Em um longo post no blog oficial do YouTube, a CEO afirma que, apesar do avanço da inteligência artificial, os revisores de carne e osso permanecem essenciais porque o julgamento humano é fundamental para tomar decisões contextualizadas sobre um determinado conteúdo. Wojcicki revelou que, só nas últimas duas semanas, o YouTube removeu anúncios de dois milhões de vídeos e de 50 mil canais com vídeos impróprios.

##RECOMENDA##

A companhia passou a tomar medidas mais agressivas na hora de moderar os conteúdos e comentários considerados violentos ou extremistas. Desde junho de 2017, as equipes do YouTube revisaram manualmente cerca de 2 milhões de vídeos, ajudando a capacitar os robôs para fazer o mesmo trabalho.

"Uma vez que começamos a usar o aprendizado da máquina para marcar conteúdo violento e extremista em junho, a tecnologia revisou e sinalizou uma quantidade de conteúdo que precisaria de 180 mil pessoas trabalhando 40 horas por semana para avaliar", informou a executiva, no post.

LeiaJá também

--> YouTube remove 150 mil vídeos infantis alvos de pedófilos

Leianas redes sociaisAcompanhe-nos!

Facebook

Carregando