Trabalhadores contratados pelo Facebook para receber as denúncias de usuários no WhatsApp podem visualizar ao menos cinco mensagens das conversas, mostra reportagem da ProPublica publicada na terça-feira (7), que explica como funciona a sistemática de análise de contas da empresa.
Embora seja público que o WhatsApp tem uma operação com pessoas para analisar denúncias dos usuários, esse modelo não é tão explícito como o de Facebook e Instagram, que pertencem ao mesmo grupo. Segundo a reportagem, o trabalho funciona de forma semelhante ao das duas outras plataformas.
Equipes terceirizadas trabalham em escritórios em Austin, no Texas (EUA), Dublin (Irlanda) e Singapura, onde examinam conteúdos de usuários após as notificações. São cerca de mil trabalhadores responsáveis por revisar textos, vídeos e imagens denunciadas.
Cabe a essas pessoas julgar o que aparece na tela, o que é feito normalmente em menos de um minuto, de acordo com a ProPublica.
Como trata-se de uma plataforma com criptografia de ponta a ponta, que não permite a intrusão de um terceiro na conversa entre duas pessoas (inclusive se o terceiro for o WhatsApp), a pergunta é como os moderadores recebem os conteúdos de denúncia.
Tudo indica que, ao clicar no botão “denunciar”, a pessoa gera um canal automático cifrado entre seu chat e o Facebook, o que pode gerar a ideia de quebra de criptografia -um dos maiores ativos estratégicos do WhatsApp.
Especialistas, no entanto, dizem que quando alguém denuncia voluntariamente um conteúdo e o envia de forma cifrada à empresa é porque espera que seu pedido seja atendido, e que isso não se trata de quebra de criptografia.
Em nota, o WhatsApp diz “discordar fortemente da ideia de que aceitar denúncias que os usuários escolhem enviar para o aplicativo é incompatível com criptografia de ponta a ponta”.
A presença desses grupos de análise tornam o aplicativo mais combativo a spam e conteúdos ilegais, mas mostra que a estratégia de transparência difere de Facebook e Instagram, que publicam relatórios sobre o que foi denunciado como inadequado e como a empresa reagiu aos conteúdos.
Nem todos os comportamentos em desacordo com os termos de uso -como assédio, bullying ou discurso de ódio- são detectados apenas por sistemas de inteligência artificial nas redes sociais, e equipes humanas são contratadas para filtrar o que é denunciado.
De acordo com a ProPublica, moderadores falaram à reportagem que o programa de inteligência artificial da empresa envia um número excessivo de conteúdos inofensivos, “como crianças em banheiras”. Quando essa mensagem chega, eles podem ver as últimas cinco mensagens do usuário.
Em seus termos de uso, o WhatsApp diz que quando uma conta é denunciada, ele “recebe as mensagens mais recentes” do grupo ou usuário denunciado, bem como “informações sobre suas interações recentes com o usuário denunciado”.
Segundo a ProPublica, moderadores também podem visualizar metadados, como números de telefone, fotos de perfil, contas vinculadas do Facebook e Instagram, endereço IP e ID de telefone celular.
“O WhatsApp fornece uma maneira para que as pessoas denunciem spam ou abuso na plataforma, o que inclui o compartilhamento das mensagens mais recentes em uma conversa. Essa funcionalidade é importante para prevenir os piores abusos na internet”, afirmou a empresa em nota.
O WhatsApp diz que trabalha com parceiros que auxiliam no trabalho de revisar e responder questões e denúncias de usuários, assim como de atender às obrigações legais e responder ao abuso que foi enviado.
Em comunicado, também cita um estudo do Centro para Democracia e Tecnologia, dos Estados Unidos, que aponta para uma “variedade de esquemas criptográficos propostos para possibilitar as denúncias (pelos usuários para os provedores de serviços) de mensagens com criptografia de ponta a ponta”.
Tais soluções, diz o estudo, são desenhadas de forma que a mensagem “só possa ser descriptografada e verificada pelo provedor de serviço e ninguém mais além do remetente original e dos destinatários”. FOLHAPRESS