🔎 Anatomia de um golpe: saiba identificar
#137: Imagem da jornalista Daniela Arbex é usada em post fraudulento
Oi. Quem vos escreve aqui é a Marcela Duarte, gerente de Produto. As enchentes no Rio Grande do Sul, obviamente, continuam na pauta da Lupa – que quinta-feira inacreditável; toda solidariedade a meus conterrâneos porto-alegrenses. Mas a abertura desta Lente sai um pouquinho dessa pauta para trazer, em uma só história, uso indevido da imagem de uma jornalista, isca para idosos, promessa de renda online, criptomoedas e conteúdo patrocinado por site no mínimo duvidoso. É uma cilada, Bino – ou melhor, é golpe. Aliás, vimos os golpes se multiplicarem no último mês, aproveitando a boa vontade de quem queria fazer doações para o RS. Com apoio da Flávia Campuzano, a Nathália Afonso redigiu o texto, baseado na matéria da Carol Macário, para mostrar indícios que vemos se repetirem nos mais variados tipos de golpes financeiros. E assim esperamos te ajudar a identificar e não cair em armadilhas parecidas.
Imagem de jornalista é usada para aplicar golpe online
Golpes financeiros não são um tipo de desinformação nova – tampouco nasceram com a internet. Muito antes do SMS, do Pix e do WhatsApp, já havia gente tentando passar a perna nos outros para ter alguma vantagem. Mas essas pessoas encontraram um ambiente muito propício para colocarem toda sua criatividade em prática em golpes cada vez mais sofisticados – às vezes, nem tanto, mas que funcionam – na internet. De 2020 a março de 2024, a Lupa desmentiu 119 golpes. E teve quem tenha aproveitado a tragédia das enchentes no Rio Grande do Sul para enganar quem estava disposto a ajudar via Pix.
Os golpes muitas vezes vêm disfarçados e citam empresas ou personalidades públicas para aparentar credibilidade e ganhar a confiança das pessoas. Drauzio Varella, Zeca Pagodinho, William Bonner e Luciano Huck são apenas alguns exemplos de famosos que tiveram seus nomes utilizados em publicações deste tipo. Nesta semana, a jornalista Daniela Arbex foi o novo alvo.
E todo o golpe começa com uma isca.
Um anúncio publicitário publicado no portal MSN mostrava o rosto da jornalista e uma chamada indicando que idosos brasileiros poderiam ter uma renda extra. A mensagem tenta fisgar um grupo específico que às vezes tem dificuldade em identificar esquemas criminosos.
Ao clicar na publicação, o usuário era direcionado para um suposto diálogo entre Daniela e o apresentador Marcelo Tas. Ela teria revelado, em entrevista ao programa Provoca, da TV Cultura, que possuía uma renda extra por meio de uma plataforma chamada “Trader Pro Alora”, supostamente utilizada para negociação de bitcoins.
Era um golpe.
Daniela de fato esteve no programa no dia 26 de março e contou um pouco sobre seu processo de escrita e histórias de alguns de seus livros, como Todo Dia a Mesma Noite, sobre a tragédia da boate Kiss. Ela não falou para Tas que investe em criptomoedas.
O diálogo falso foi criado para promover a “Trader Pro Alora”, uma exchange de criptomoedas – ou, em bom português, corretoras que negociam ativos digitais ou criptomoedas. Diferentemente das corretoras de valores, as exchanges de criptomoedas não são supervisionadas pelo Banco Central e pela Comissão de Valores Mobiliários (CVM). E a primeira suspeita é que a “Trader Pro Alora” não aparece entre as principais corretoras de criptomoedas.
Outro ponto suspeito é que, na chamada de capa no MSN, aparece escrito “sponsored by: incomeconfidential”, o que significa que o conteúdo é patrocinado. Isso levanta outro alerta, já que muitos conteúdos falsos ou golpes são patrocinados para aumentar o alcance.
Também é possível ver que algo está errado ao analisar o endereço do site. Clicando no conteúdo, fica claro que não tem qualquer relação com portais de jornalismo. O endereço leva para a Income Confidential, uma organização que promete pagar para quem participar de pesquisas e testes de produtos. O site tem conteúdos em espanhol, e a suposta empresa possui um CNPJ brasileiro desativado.
Daniela Arbex fez um post nas redes sociais para desmentir o caso.
Ela conta que registrou boletim de ocorrência na Delegacia Especializada de Investigação de Crimes Cibernéticos de Belo Horizonte.
"A gente se sente muito impotente e refém. Eu tenho 30 anos de carreira e uma história de credibilidade muito consolidada e ver o meu nome ser utilizado em uma fraude dessa dimensão com ramificação até internacional me deixou muito impressionada com a ousadia desses criminosos.”
Existem medidas simples para evitar golpes. Mantenha a segurança nos seus dispositivos e evite clicar em sites duvidosos. Além dos diversos conteúdos que a Lupa já fez desmentindo fraudes e golpes, você também pode conferir os tipos mais comuns que se espalharam pelas redes. Lembre-se que não existe dinheiro fácil. Se encontrar algum conteúdo prometendo vantagens financeiras, vale o provérbio popular que diz que "quando a esmola é demais, o santo desconfia".
A gente fala muito dos problemas relacionados à inteligência artificial (IA), vamos falar então de quando ela é usada para coisas boas. Pela primeira vez na história, um implante cerebral decodificou, por meio da atividade cerebral, a fala de um paciente paralisado e ainda diferenciou frases em inglês e espanhol. Isso foi possível graças a um sistema de IA que identifica o idioma em tempo real. Pesquisadores da Universidade da Califórnia revelaram o avanço em artigo publicado na revista Nature. [Flávia Campuzano, analista de produto].
Mas nem tudo são flores. Scarlett Johansson afirma que a OpenAI imitou sua voz e jeito de falar no modelo Sky, na nova versão do ChatGPT, o GPT-4o. A atriz contou que foi convidada para licenciar sua voz para o sistema, mas negou por "motivos pessoais". Como a vida parece imitar a arte, mesmo que vez ou outra com base em decisões empresariais deliberadas, no filme "Ela" (2013), Scarlett interpreta a voz de uma assistente digital pelo qual o protagonista (Joaquin Phoenix) se apaixona. Pois Scarlett reclamou para a OpenAI, e a empresa anunciou que interrompeu o uso do modelo. [FC]
As principais empresas de IA do mundo assinaram um tratado de segurança que prevê que elas estabelecerão limites considerados intoleráveis de riscos apresentados por um modelo ou sistema. As empresas, incluindo Amazon, Google, Meta e OpenAI, se comprometeram "a não desenvolver ou implantar um modelo de forma alguma" se os riscos graves não puderem ser mitigados. [Nathália Afonso, analista de projetos]
Conheça nossa política de privacidade.