TECNOLOGIA REINO UNIDO

Reino Unido acusa redes sociais de promoverem conteúdo extremista

Redes sociais estão sendo frequentemente criticados (Foto: Pixabay)

Algoritmos usados por sites como o YouTube para sugerir novos conteúdos para usuários estão recomendando material inflamatório e radical, disse uma audiência da Comissão de Assuntos Internos do Reino Unido.

Um membro acusou o YouTube, o Facebook e o Twitter de “não dar a mínima” sobre alimentar a radicalização após os massacres no Sri Lanka e na Nova Zelândia. Após as discussões acaloradas na audiência de provas, Yvette Cooper disse que os deputados estavam “levantando os mesmos problemas de novo e de novo” ao longo de vários anos.

Os deputados tiveram como alvo particular o YouTube pela maneira como seus algoritmos promovem vídeos e criam listas de reprodução para os espectadores, que eles acusam de se tornarem cada vez mais extremos.

O site tem sido repetidamente criticado por mostrar uma variedade de comentários inflamatórios no painel de recomendações ao lado de vídeos. O deputado conservador Tim Loughton disse que os testes mostraram que uma busca benigna pode acabar sendo “sinalizada para um grupo simpatizante do nazismo”.

Ele acrescentou: “Parece haver um problema sistêmico que você está ativamente sinalizando e promovendo locais extremistas”. O YouTube usa um algoritmo para descobrir conteúdo relacionado para que os usuários permaneçam no site clicando nos vídeos. Ele nunca revelou os detalhes desse algoritmo, que permite ao YouTube gerar lucros, mostrando mais publicidade caso seus usuários permaneçam mais tempo no site.

Os deputados descreveram um trajeto sobre como essa cadeia de vídeos relacionados levaria a um conteúdo cada vez mais extremo, mesmo se o primeiro vídeo tivesse sido relativamente inócuo. Cooper descreveu o clique em vídeos e descobriu que “com cada um deles, o próximo sendo recomendado para mim era mais extremo”, indo de sites de direita para contas racistas e radicais.

“Os algoritmos de que você lucra estão sendo usados para envenenar o debate”, disse ela. Marco Pancini, diretor de políticas públicas do YouTube, disse que a lógica por trás de seus algoritmos “funciona com 90% da experiência dos usuários na plataforma”.

Mas ele disse que a empresa de propriedade do Google está “ciente do desafio que isso representa para as notícias de última hora e do discurso político”, e está trabalhando para priorizar o conteúdo de autoridade e reduzir a visibilidade dos extremistas.

Ele apontou para o trabalho que fez para priorizar a autoridade quando as pessoas estão procurando por discurso político ou notícias de última hora. Parte disso gerou controvérsias próprias, como quando o YouTube acidentalmente vinculou um vídeo do incêndio de Notre Dame a um vídeo dos ataques de 11 de setembro.

O deputado trabalhista Stephen Doughty disse que encontrou links para os sites de “organizações internacionais bem conhecidas” e vídeos pedindo o apedrejamento de gays no YouTube e em outras plataformas.

Doughty ainda acusou o YouTube de se tornar “acessórios para a radicalização” e do crime, mas Pancini respondeu: “Essa não é a nossa intenção … nós mudamos nossas políticas”. Ele disse que a empresa estava trabalhando com organizações não-governamentais em 27 países europeus para melhorar a detecção de conteúdo ofensivo.

“Seus sistemas simplesmente não estão funcionando e, francamente, é uma fossa”, acrescentou Doughty. “Parece que suas empresas realmente não dão a mínima. Você dá muitas palavras, você dá muita retórica, você não age realmente”.

Representantes do Facebook, Twitter e YouTube disseram que aumentaram os esforços contra todos os tipos de extremismo, usando tecnologia automatizada e moderadores humanos. Mas o grupo militante islâmico que realizou ataques a igrejas e hotéis que deixaram mais de 300 mortos no Sri Lanka ainda tem uma conta no Twitter, e seu canal no YouTube não foi excluído até dois dias depois de um dos ataques terroristas mais letais do mundo.

Cooper apontou relatos de que clipes do vídeo do Facebook ao vivo de Christchurch ainda circulavam. A parlamentar trabalhista revelou que, durante a noite, ela havia sido alertada sobre postagens em um grupo fechado do Facebook, com 30 mil membros, que disseram que ela e sua família deveriam ser baleadas como “criminosas”.

“Mata-los todas, cada uma, golpe militar do Ano Nacional do Socialismo – eu não me importo, desde que eles sejam erradicados”, disse outro post que permaneceu online. Cooper acusou os gigantes da mídia social de “fornecer lugares seguros para indivíduos e organizações que espalham o ódio”.

“Nós tomamos evidências de seus representantes várias vezes ao longo de vários anos, e sentimos que estamos levantando os mesmos problemas de novo e de novo”, acrescentou.

Cooper alertou que os bloqueios da mídia social, como os implementados pelo Sri Lanka após os ataques do Domingo de Páscoa, podem ser vistos em outros lugares “se você não agir em conjunto”. O governo do Reino Unido propôs a criação de um regulador independente para criar um código de prática para empresas de tecnologia e aplicá-lo com multas e bloqueios.

Representantes do Facebook, Twitter e YouTube disseram que apoiaram medidas propostas no white paper Online Harms, que está atualmente sob consulta. Neil Potts, diretor de políticas públicas do Facebook, disse que agora tem 30 mil funcionários trabalhando em segurança e proteção, incluindo especialistas em idiomas e assuntos.

Mas quando perguntado se as pessoas que espalham a propaganda terrorista foram denunciadas à polícia, Potts disse que encaminhamentos proativos foram feitos apenas para a aplicação da lei quando havia uma “ameaça iminente”. “Você não está realmente relatando os crimes que suas plataformas estão tornando possíveis”, disse Cooper. “Esse é um problema sério”.

Katy Minshall, diretora de políticas públicas do Twitter no Reino Unido, disse que 1,4 milhão de contas foram removidas por promover o terrorismo e que a rede social reforça ativamente suas regras, em vez de confiar em relatórios.O Twitter tem 1.500 pessoas trabalhando na aplicação e moderação de políticas em todo o mundo, e está removendo mais conteúdo, mas “nunca obterá uma taxa de sucesso de 100%”, disse ela.

Ela acrescentou: “Há um risco provável nos próximos anos de que quanto melhores nossas ferramentas, mais usuários sejam removidos, mais migrarão para partes da Internet onde ninguém está procurando”.Independent

Comentários

Postagens mais visitadas deste blog

A surpreendente cratera de Xico

Por que não enxergamos estrelas verdes ou roxas?

Egípcia posa nua em blog e provoca indignação