Algoritmo do Facebook controla conteúdo impróprio

O programa permite estabelecer conexões entre mensagens, imagens e comentários. No primeiro trimestre deste ano, interveio em 34,3 milhões de conteúdos violentos ou sensíveis

Nos últimos meses, o Facebook conseguiu reduzir a disseminação de conteúdo violento, odioso ou sexual com a ajuda de um programa baseado em inteligência, capaz de estabelecer conexões entre mensagens, imagens e comentários.

Publicidade

“Com o novo algoritmo, que começou a ser usado em 2020, o Facebook agora pode ter ‘uma visão integral’ ”, explica Mike Schroepfer, gerente técnico da plataforma.

Anteriormente, o sistema de detecção da rede social de Mark Zuckerberg permitia analisar apenas um conteúdo de cada vez e, por exemplo, não era possível cruzar os sinais de uma foto e de uma mensagem, segundo a agência AFP.

“É necessário entender todo o contexto para analisar e eventualmente excluir uma mensagem”, disse Schroepfer, que por sua vez mencionou que o programa pode cruzar conteúdo em vários idiomas.

O novo algoritmo também pode decifrar o significado dos “memes”, imagens ou animações que geralmente têm objetivos humorísticos, que às vezes contêm uma mensagem de ódio ou discriminação compreensível apenas quando se faz a associação entre o texto e a imagem.

Publicidade

Da mesma forma, este sistema evita a remoção de algumas mensagens que teriam acionado um alerta anteriormente como resultado de uma palavra ou imagem interpretada de forma estritamente literal.

Quais foram os resultados

Em efeito, a empresa norte-americana atribuiu a essa ferramenta a diminuição na divulgação de conteúdo impróprio em seu site.

Os indicadores trimestrais divulgados na última quarta-feira medem o número de vezes que esse conteúdo foi visualizado, e não o seu volume.

Publicidade

No primeiro trimestre, entre 0,05% e 0,06% do conteúdo visualizado pelos usuários foi considerado impróprio contra uma margem de 0,07% a 0,08% no quarto trimestre de 2020 e de 0,10% a 0,11% no terceiro trimestre do mesmo ano.

Além disso, o Facebook também interveio em 34,3 milhões de conteúdos violentos ou sensíveis, contra 15,9 milhões no quarto trimestre de 2020.

No passado, a rede social foi acusada de não implementar suficientes medidas para moderar o conteúdo que circula em sua plataforma.

Publicidade

Enquanto isso, desde maio de 2018, o Facebook publica os indicadores trimestrais que ilustram sua política de controle de conteúdo de ódio, de violência, de caráter sexual, de “propaganda terrorista” e publicado por contas falsas.

CFT / FL

*Texto publicado originalmente no site Perfil Argentina.

Publicidade

Assine nossa newsletter

Cadastre-se para receber grátis o Menu Executivo Perfil Brasil, com todo conteúdo, análises e a cobertura mais completa.

Grátis em sua caixa de entrada. Pode cancelar quando quiser.