Mark Zuckerberg quer limpar a imagem do Facebook a todo custo, e prometeu mudanças a curto e médio prazo. Eliminar conteúdos proibidos e não apropriados na rede social são parte dessas medidas.

Mas o mais interessante disso tudo é que a maior parte desse trabalho será feito por ferramentas automatizadas de inteligência artificial.

O Facebook garante que a sua ferramenta moderadora detectou e eliminou a maioria das publicações que incluía violência, pornografia e terrorismo durante o primeiro trimestre de 2018.

Os esforços do Facebook na moderação tomam como base seis áreas principais: violência gráfica, pornografia, propaganda terrorista, discursos de ódio, spam e contas falas.

Entre janeiro e março de 2018, o Facebook eliminou 837 milhões de mensagens de spam, 21 milhões de publicações com nudez ou atividade sexual, 3.5 milhões de mensagens com conteúdo violento, 2.5 milhões de mensagens com discursos de ódio e 1.9 milhões com conteúdo terrorista. 583 milhões de contas falsas foram eliminadas, e somadas com aquelas removidas durante o último trimestre de 2017, estamos falando de quase 1.3 bilhão de contas desativadas.

Muitas dessas contas falsas eram bots para propagar spam e efetuar atividades ilícitas. A maioria das contas foram desabilitadas poucos minutos depois de serem criadas, mas o próprio Facebook admite que devem existir entre 3% e 4% de contas falsas ativas, mas que não representam riscos para atividades ilícitas.

O Facebook garante que o seu sistema de inteligência artificial teve papel decisivo nessa tarefa de moderação, atuando antes que um usuário denunciasse tal conta. Foram quase 100% de detecção nos casos de spam e propaganda terrorista, quase 99% das contas falas e 96% da pornografia, além de 86% de detecção de mensagens que incitavam a violência.

 

 

Porém, a inteligência artificial não é perfeita. Nas mensagens de discurso de ódio foram encontrados os maiores problemas, com apenas 38% de detecção de mensagens com essas características.

A efetividade do sistema de inteligência artificial aconteceu pela melhoria na tecnologia e processos de detecção de conteúdos. Mas no caso das mensagens inscritas, a IA ainda não determina o que é e o que não é, já que existe a tal subjetividade da mensagem.

Uma pessoa expressa sua opinião sobre o assunto, e outra (ou várias) podem considerar isso um discurso de ódio. Qual é o limite para o direito de liberdade de expressão? Onde começa a censura nesse caso?

É aqui que o Facebook precisa ser mais claro em suas regras, e definir bem o que é considerado um ‘discurso de ódio’, já que há sinais claros quando se fala de certos temas, mas nos casos onde se combinam opiniões subjetivas e não é um ataque direto, essa linha fica bem tênue.

Se isso é complicado para os humanos, imagina para uma inteligência artificial.

 

Via Relatório de Transparência do Facebook