🔎 Lente #30: Quando o YouTube decide endurecer com desinformação, ela também cai no Facebook e no Twitter
Boa sexta-feira, 29 de outubro. Nesta edição da Lente, a newsletter sobre desinformação da Lupa, você vai ler:
Pesquisa revela que remoção de vídeos com desinformação no YouTube se estende a Facebook e Twitter
Ex-funcionários do Facebook criam instituto dedicado a apontar práticas nocivas de plataformas de redes sociais
China cria narrativa de que a origem da Covid-19 está num lote de lagostas importadas dos EUA para o mercado de Wuhan
Zero paciência para gente que insiste em compartilhar desinformação? Mande o link para a pessoa assinar esta newsletter.
Políticas eleitorais contra desinformação mais fortes do YouTube afetaram Twitter e Facebook
Uma reportagem do jornal The New York Times mostrou que políticas mais rígidas do YouTube contra desinformação eleitoral, ou seja, um aumento na remoção de vídeos considerados desinformativos, foram seguidas por quedas acentuadas na prevalência de vídeos falsos e enganosos no Facebook e Twitter, de acordo com uma pesquisa do Centro de Mídia Social e Política da New York University. Isso ocorre porque os vídeos do YouTube são compartilhados nas outras plataformas e, quando eles são removidos, não podem mais ser compartilhados no Facebook ou Twitter. Tudo parece óbvio, mas é importante estar atento ao estudo. O que ocorreu nos EUA ― e a gente precisa estar de olho porque pode se repetir aqui também ― é que, imediatamente após as eleições de 3 de novembro, houve um pico de vídeos sobre fraudes eleitorais no YouTube que foram replicados tanto no Twitter como no Facebook.
Mas a proporção de denúncias de fraude eleitoral compartilhadas no Twitter e Facebook dos EUA caiu drasticamente após 8 de dezembro, quando o YouTube anunciou que removeria vídeos que promoviam a teoria infundada de que erros e fraudes generalizados mudaram o resultado da eleição presidencial. E removeu. Como consequência, em 21 de dezembro, a proporção de conteúdo de fraude eleitoral do YouTube compartilhado no Twitter caiu para menos de 20% pela primeira vez desde a eleição (era um terço dos vídeos no ecossistema), um fenômeno semelhante ao ocorrido com o Facebook.
A pesquisa da NYU mostra que, quando o YouTube quer se movimentar para combater a desinformação em seu ecossistema, as coisas acontecem, mas muitos checadores de fatos criticaram a plataforma por levar tanto tempo para agir contra os teóricos da conspiração eleitoral. Quem sabe o tempo entre as eleições do dia 3 de novembro e o dia da reação do YouTube em 8 de dezembro não foi suficiente para encher de minhocas as cabeças do grupo de lunáticos extremistas que, em 6 de janeiro, decidiu invadir o Capitólio em nome de uma suposta defesa de um "processo eleitoral limpo"? Se as medidas fossem tomadas mais rapidamente, não se teria evitado aquele verdadeiro ataque à democracia?
Tanto que a proporção de vídeos falsos circulando no Twitter caiu ainda mais depois de 7 de janeiro, um dia depois da invasão, quando o YouTube aumentou o tom das ameaças e anunciou que quaisquer canais que violassem sua política de desinformação eleitoral receberiam um "aviso" e que os canais que recebessem três avisos em um período de 90 dias seriam removidos permanentemente. No dia da posse de Biden, em 20 de janeiro, a proporção já tinha baixado para 5%.
No fim de agosto passado, o diretor de Produto do YouTube, Neal Mohan, publicou no blog da empresa ― e nós divulgamos isso aqui para você, assinante da Lente ― um artigo em que defende a política de remoção da companhia: aquela que espera o leite derramar para se mostrar intolerante com os abusos em termos de desinformação e discurso de ódio. Os checadores de fatos de todo o mundo gritaram em uníssono: não é suficiente para evitar o pior. E é lento.
Na sua live de quinta-feira (21), o presidente Jair Bolsonaro (sem partido) teve a ousadia de tentar novamente desacreditar as vacinas dizendo que pessoas totalmente vacinadas contra a Covid estariam desenvolvendo Aids, o que não tem qualquer respaldo científico. O Facebook tirou o vídeo do ar no domingo (24), e o YouTube fez o mesmo na segunda (25) e ainda suspendeu por uma semana o canal do presidente. Por que demoraram tanto?
O que a pesquisa da NYU traz de realmente interessante é mostrar como os conteúdos das plataformas estão ligados. Megan Brown, cientista pesquisadora da NYU, disse que é possível que, depois que o YouTube baniu o conteúdo, as pessoas não pudessem mais compartilhar os vídeos que promoviam a fraude eleitoral. Também é possível que o interesse nas teorias de fraude eleitoral tenha caído consideravelmente depois que os estados certificaram seus resultados eleitorais.
Mas o resultado final, disse Brown, é que “sabemos que essas plataformas estão profundamente interconectadas”. O YouTube, ela disse ao New York Times, foi identificado como um dos domínios mais compartilhados em outras plataformas. “É uma grande parte do ecossistema de informações, então, quando a plataforma do YouTube se torna mais saudável, outras plataformas também ficam”.
Um abraço,
Gilberto Scofield Jr.
Diretor de Marketing e Relacionamento
Ex-funcionários do Facebook criam instituto para mudar práticas de plataformas tipo… o Facebook
Jeff Allen e Sahar Massachi trabalharam alguns anos no Facebook ajudando a criar os comitês de integridade e eleições, justamente aqueles que aconselham a empresa sobre o que fazer em casos controversos. Um deles chegou a ser vazado por Frances Haugen, aquela ex-funcionária que foi ao Congresso e revelou as piores práticas da plataforma: três anos após a eleição americana de 2016, fazendas de trolls em Kosovo e na Macedônia operavam vastas redes de páginas no Facebook repletas de conteúdo plagiado e de ódio contra negros e cristãos americanos sob as vistas grossas da plataforma. Allen foi um dos profissionais que alertaram a empresa de que os algoritmos poderiam estar ajudando a disseminar discursos de ódio.
Parece que ex-funcionários do Facebook acabam virando um problema para a plataforma. Allen saiu em 2019 e, segundo uma reportagem no site Protocol, vem há 10 meses trabalhando na criação de uma organização independente com Massachi. Eles esperam que o instituto ajude não apenas o Facebook, mas toda a indústria de tecnologia e legisladores, a resolver algumas das questões mais complicadas que os profissionais de integridade enfrentam hoje.
O objetivo do Integrity Institute é construir uma rede de profissionais de integridade que estão atualmente empregados ou foram contratados por empresas de tecnologia e trabalhar em busca de algum tipo de consenso público sobre as questões científicas e filosóficas que as equipes de integridade têm tentado responder a portas fechadas. A principal delas: como conciliar um modelo de negócios baseado em mediação algorítmica e mineração de dados criado para vender sapatos e livros, por exemplo, com a polarização e venda de ideologia e discursos de ódio e desinformação?
O grupo planeja aconselhar os formuladores de políticas, reguladores e a mídia sobre como as redes sociais funcionam, publicar suas próprias pesquisas e servir como uma espécie de consultores para pequenas plataformas que carecem de equipes próprias de integridade. Allen e Massachi já informaram o Congresso dos EUA e recrutaram 11 pessoas que trabalharam para nove plataformas de tecnologia diferentes. Embora o grupo não queira posar como dedo-duro ou romper acordos de confidencialidade, Massachi diz à "Protocol" que as revelações de Haugen despertaram um interesse crescente no trabalho de integridade das plataformas ― interesse que eles estão ansiosos para capitalizar, diga-se de passagem.
...na guerra entre EUA e China sobre a origem da Covid-19: a NBC News conta que a Universidade de Oxford encontrou evidências de que contas de redes sociais pró-China estão tentando emplacar uma nova narrativa relacionada às origens da pandemia. Em meados de setembro, Marcel Schliebs, um pesquisador de desinformação da Universidade de Oxford que acompanhava as mensagens que diplomatas chineses e a mídia estatal espalhavam no Twitter por 18 meses, percebeu o surgimento de uma surpreendente teoria da origem do novo coronavírus. Zha Liyou, o cônsul geral chinês em Calcutá, Índia, tuitou uma alegação infundada de que Covid-19 poderia ter sido importada dos EUA para a China por meio de um lote de lagostas do estado do Maine enviadas para um mercado de frutos do mar em Wuhan em novembro de 2019. Pesquisando mais, Schliebs descobriu uma rede de mais de 550 contas do Twitter, que ele compartilhou com a NBC News, espalhando uma mensagem quase idêntica, traduzida em vários idiomas.
…no novo nome da controladora do Facebook: como já tínhamos comentado na Lente, o Facebook anunciou nesta quinta-feira (28) que sua controladora passará a se chamar Meta. O nome substituirá o Facebook Inc. A rede social continua se chamando Facebook.
...na desinformação na América Latina: o think-tank americano Global Americans divulgou ontem seu relatório "Medindo o Impacto da Desinformação e Propaganda na América Latina: Identificando Fontes, Padrões e Redes que Propagam Campanhas Estrangeiras de Desinformação”, resultado de 16 meses de pesquisa. O estudo se concentrou em Venezuela, Colômbia, México, Argentina, Chile e Peru e constatou que todos são alvo de campanhas de desinformação elaboradas na Rússia, na China e na própria Venezuela. O resumo executivo da pesquisa está aqui.
...nos projetos de lei contra passaporte da vacina: a Folha de S. Paulo publicou um levantamento da Lupa que mostra que o passaporte é contestado em três projetos de lei em tramitação na Câmara dos Deputados e em pelo menos 20 iniciativas em Assembleias Legislativas de 13 estados. Pelo menos 11 dessas propostas usam informações falsas nas suas justificativas para evitar que pessoas não imunizadas contra a Covid-19 sejam impedidas de acessar locais públicos ou privados.
Dicas? Correções? Escreva para lupa@lupa.news
Obrigado pela leitura e até a próxima semana