Veja o que especialistas dizem sobre remoção de conteúdo na internet
Na última semana, o Facebook informou, em relatório, ter retirado do
ar 2,5 milhões de publicações que foram identificadas como contendo
discurso de ódio no primeiro semestre do ano. O documento traz os
resultados das ações de moderação de conteúdo praticadas pela empresa.
No entanto, especialistas ponderam sobre a eficácia da remoção
automática.
Em um debate no evento Rightscon, em Toronto, no Canadá, o relator
para a liberdade de expressão das Nações Unidas, David Kaye, questionou a
moderação de conteúdos por grandes plataformas, como o Facebook.
Na avaliação do relator, o fato das regras serem privadas, e de
decisão exclusiva da plataforma, gera um problema para o debate no
interior destes espaços, afetando a liberdade de expressão.
“Os termos de serviço outorgam um poder discricionário às companhias
para a remoção de conteúdos. As empresas as explicam em seus blogs, mas
elas são vagas. Há questionamentos também sobre a consistência destas”,
destacou o relator.
Contexto
Na avaliação de Natália Neris, pesquisadora sobre o tema e integrante
da ONG InternetLab, há que se tomar cuidado no uso de tecnologias para
remoção de conteúdo, pois estes sistemas apresentam grandes limitações
para compreender contextos. Por conta disso, a identificação pode ser
falha, o que pode resultar na exclusão de mensagens que não deveriam ser
deletadas.
Ela relata que a entidade recebeu denúncias de conteúdos derrubados
por supostas discriminações raciais contra brancos e preconceito de
homossexuais contra heterossexuais. “A inteligência artificial não
consegue entender que não é possível racismo reverso. O contexto é
importante e varia demais de lugar para lugar. Ainda vai gerar muita
confusão”, pondera.
Neste mês, pesquisadores de organizações norte-americanas que trabalham com direitos digitais – como Eletronic Frontier Foundation, Center for Democracy & Technology e New America´s Open Technology Institute - realizaram um seminário sobre o tema e publicaram uma série de recomendações, que denominaram “princípios de Santa Clara”.
Neste mês, pesquisadores de organizações norte-americanas que trabalham com direitos digitais – como Eletronic Frontier Foundation, Center for Democracy & Technology e New America´s Open Technology Institute - realizaram um seminário sobre o tema e publicaram uma série de recomendações, que denominaram “princípios de Santa Clara”.
Entre as diretrizes defendidas pelos especialistas estão:
- Companhias devem publicar regularmente o número de publicações
removidas e contas suspensas ou bloqueadas em razão da violação de suas
regras;
- Empresas devem notificar os autores da publicação ou da conta sobre os motivos da remoção da mensagem ou suspensão do perfil;
- As plataformas devem disponibilizar opção de recurso para quem teve conteúdos removidos ou contas bloqueadas
Edição: Carolina Pimentel
Por
Jonas Valente – Repórter Agência Brasil