Lente #62: Haugen, Meta e desinformação eleitoral no Brasil
Boa sexta-feira, 8 de julho. Veja os destaques da Lente, a newsletter sobre desinformação da Lupa:
Por que Frances Haugen escolheu travar uma batalha contra a Meta?;
Sociedade civil cobra medidas efetivas de combate à desinformação;
O novo modo lockdown do iOS.
Curte a Lente? Envie este link e convide seus amigos para assinarem a newsletter
Frances Haugen e a raiz do problema: a lógica do algoritmo
Nesta semana, a cientista de dados Frances Haugen, ex-funcionária da Meta responsável por tornar públicos relatórios internos da companhia (os chamados Facebook Papers), veio ao Brasil para participar de uma audiência pública na Câmara Federal. No domingo, a Folha publicou uma entrevista na qual ela falou um pouco sobre o cenário do combate à desinformação e ao discurso de ódio por parte da empresa, responsável pelo Facebook, Instagram e WhatsApp. O cenário não é animador.
Segundo Haugen, a Meta não está colocando as eleições brasileiras no mesmo patamar de prioridade que as eleições americanas, mesmo sabendo dos potenciais riscos existentes no processo — como a tentativa sistemática e persistente de descredibilizar as eleições por parte de ninguém menos que o presidente Jair Bolsonaro. “Para ter inteligência artificial que garanta segurança na plataforma, é preciso construí-la para cada língua, cada contexto. No momento, não existe transparência em relação ao que o Facebook está ou não fazendo. Sou muito cética em relação à ideia de que o Facebook fez o trabalho necessário para garantir a segurança da eleição [brasileira]”, disse.
A cientista de dados também pontuou que os recursos usados pelo Facebook para moderação e combate à desinformação na plataforma são desproporcionalmente concentrados na língua inglesa (87%), e que o cobertor é curto para outras línguas — incluindo idiomas relevantes no mundo como espanhol, francês e, claro, português. “O motivo real é que o Facebook aloca seus recursos de segurança nos países onde ele teme ser regulamentado”, destaca. Outro dado relevante trazido por Haugen é que a empresa consegue filtrar somente entre 3 e 5% do conteúdo desinformativo que circula no Facebook.
Haugen aponta que algumas mudanças no funcionamento da plataforma poderiam reduzir sensivelmente o efeito da desinformação na sociedade. Contudo, essas mudanças podem afetar também ligeiramente o lucro da companhia. E, na escolha entre lucrar um pouco mais ou reduzir significativamente o impacto social negativo de suas plataformas, a Meta escolheu, no entendimento da cientista de dados, o lucro.
Essa fala remete a uma das reportagens publicadas com base nos documentos fornecidos por ela a jornalistas. Para recapitular: o Facebook Papers foi uma série de reportagens publicadas pelo jornal americano The Wall Street Journal e, posteriormente, por um consórcio de veículos. Foram trazidos a público pelo jornal diversos relatórios internos sobre a companhia. Falamos sobre esse assunto em mais detalhe nas edições 24, 27 e 33 da Lente, no ano passado.
Uma dessas reportagens, publicada no jornal The Washington Post, mostrou que, em 2017, o Facebook passou a valorizar a reação “raiva” em seu algoritmo porque posts com esse tipo de reação geravam mais engajamento. Não precisa ser um gênio para adivinhar que posts com controvérsias, especialmente notícias falsas, violência ou qualquer tipo de conteúdo que desperte irritação no usuário, passaram a ser mais visíveis.
Mas o problema vai além de uma simples conclusão lógica. Engenheiros da própria empresa fizeram testes sobre esse novo sistema de rankeamento e concluíram que ele era extremamente problemático. Em 2019, eles criaram uma conta teste inteiramente automatizada na Índia para testar o algoritmo. Em apenas 21 dias, a timeline dessa conta passou a receber quase que exclusivamente pornografia, desinformação, violência e discursos nacionalistas extremos. Isso, porém, não resultou em nenhuma mudança por parte da empresa.
A Meta tem um dos programas mais completos contra a desinformação, o Third-Party Fact-Checking, do qual a Lupa e outros checadores brasileiros fazem parte. Outras plataformas, como Twitter e YouTube, têm políticas ainda mais limitadas e pouco efetivas. Mesmo assim, há sérias dúvidas sobre o real impacto desse programa e de outras políticas contra a desinformação no Facebook. E, mais importante: sendo ou não eficientes, essas políticas não mexem na raiz do problema, que é a própria lógica do algoritmo.
Abraços,
Chico Marés
Coordenador de Jornalismo
Sociedade civil cobra medidas efetivas de combate à desinformação
Um grupo de mais de 90 organizações da sociedade civil, incluindo a Associação Brasileira de Jornalismo Investigativo (Abraji), apresentou, na quarta-feira (6), um documento cobrando das plataformas de redes sociais medidas efetivas de combate à desinformação eleitoral no Brasil. Intitulado Democracia Pede Socorro, o texto pede 38 medidas das plataformas, construídas ao redor de cinco eixos: integridade eleitoral, integridade de anúncios em redes, políticas para combater violências contra minorias, políticas para combater desinformação sobre Amazônia e mitigação de danos decorrentes de erros de ação das plataformas.
Várias dessas medidas têm relação com as falsas alegações de fraude eleitoral espalhadas pelo presidente Jair Bolsonaro e seus aliados. O texto pede que as plataformas excluam publicações com “alegação infundada de fraude eleitoral” ou “manifestações infundadas de questionamento ao resultado”. Já conteúdos com ataques indiretos ao processo eleitoral não devem ser “passíveis de impulsionamento nem de monetização, nem devem ser recomendados”.
As entidades mostram preocupação, também, com as bibliotecas de anúncios disponibilizadas pelas plataformas, e sugerem que a Meta inclua pesquisadores brasileiros na plataforma Facebook Open Research and Transparency, lançada em maio de 2022 nos EUA e no Reino Unido.
Você pode ler o documento completo aqui.
…no iPhone: nesta quarta-feira (6), a Apple anunciou que as próximas versões do iOS contarão com um novo modo de funcionamento desenhado especificamente para pessoas sob risco de espionagem. O chamado modo lockdown impede diversas funcionalidades que podem servir como portas de entrada para hackers, como preview de links e recebimento de chamadas não solicitadas — o que a Apple classificou como um nível de segurança extrema. Por ser, essencialmente, um conjunto de bloqueios em funções do celular, esse modo torna a experiência do usuário bem mais limitada. Mas para quem lida com informações sensíveis, essa pode ser uma opção bastante positiva.
Dicas? Correções? Escreva para lupa@lupa.news
Obrigado pela leitura e até a próxima semana
Não sabe o que a Lupa faz com seus dados?
Conheça nossa Política de Privacidade aqui
Enviamos este email porque você assinou nossa newsletter.
Se quiser parar de recebê-la, Clique aqui.