Batalha no Facebook para controlar a conversa de milhões de pessoas

Todos os dias, 1.490 milhões de pessoas se conectam ao Facebook e todos os dias a rede analisa dois milhões de conteúdos suspeitos.

1100169
Batalha no Facebook para controlar a conversa de milhões de pessoas

Todos os dias, 1.490 milhões de pessoas se conectam ao Facebook e todos os dias a rede revisa dois milhões de conteúdos suspeitos. Cercada pelos escândalos, a empresa tenta impedir o racismo, o terrorismo e as falsas notícias: é possível controlar a conversa de milhões de pessoas? 

Para enfrentar essa tarefa gigantesca, o Facebook acaba de abrir um centro de controle de conteúdo em Barcelona que terá 800 moderadores e abriu suas portas para um grupo de jornalistas.

"Nosso trabalho é criar um espaço seguro para todos os usuários, é difícil, há bons e ruins em todas as comunidades", reconhece o diretor de operações comunitárias da empresa, David Geraghty, que diz que o sistema de controle de conteúdo do Facebook é um dos "mais sofisticados" do mundo. 

A rede social tem duas maneiras de detectar conteúdo suspeito: as reclamações dos usuários e um sistema de inteligência artificial e 'aprendizado de máquina' que o identifica automaticamente. "Antes éramos mais reativos, agora somos mais proativos", admite ele. 

Este último é, por exemplo, responsável por 99% do conteúdo terrorista que se pretende distribuir pela rede ser detectado antes de ser publicado, embora um humano tenha sempre a última palavra.

"A combinação de tecnologia e pessoas é a melhor ferramenta", diz Geraghty. 


Em paralelo, o Facebook recebeu várias críticas pela proliferação de discurso racista e violento em sua plataforma. No caso dos Rohingya em Mianmar, Mark Zuckerberg pediu desculpas e reconheceu que eles não fizeram o suficiente para conter o conteúdo violento contra essa minoria muçulmana.

O investimento da empresa no controle de conteúdo aumentou "substancialmente", de acordo com Geraghty. 

O centro de controle de conteúdo em Barcelona é prova disso, vários andares de um prédio no centro da cidade onde os trabalhadores têm suporte psicológico 24 horas - há adesivos com um número de telefone de assistência em cada computador - e todos os tipos de benefícios aulas de descanso e relaxamento. 

Moderação de conteúdo "não é um trabalho de escritório normal" e nem é para todos; Às vezes, os motoristas precisam ver imagens que podem gerar muito estresse, como violência gráfica, abuso infantil ou terrorismo, explica Ulf Herbrechter, chefe da CCC, empresa que administra o centro.

A equipe do Facebook dedicada ao controle de conteúdo ultrapassa 30.000 funcionários em todo o mundo - metade é moderadora - uma parte é dedicada a revisar e modificar periodicamente a ampla política de conteúdo da plataforma. 

A rede tenta manter a objetividade e instrui seus moderadores a basear suas decisões nas regras refletidas na política de conteúdo da empresa, não em opiniões pessoais. 

O foco da controvérsia está centrado no discurso do ódio e no uso da plataforma para o avanço do populismo nos processos eleitorais.

Segundo os últimos dados públicos do Facebook nos três primeiros trimestres do ano, a empresa atuou contra cerca de 8 milhões de conteúdos devido ao discurso de ódio, embora a empresa não ofereça dados de prevalência deste tipo de premissas e afirme que os dados são provisórios. 

"Nossa política sobre o discurso de ódio é a mesma em todos os países e se aplica a todos, incluindo figuras públicas", independentemente de você ser Bolsonaro, Trump ou um cidadão anônimo, diz o mais alto responsável europeu pela política de conteúdo da empresa Siobhan Cummiskey. EFE



Notícias relacionadas