Vídeos que você jura que são reais, mas não são. Como é possível? Uma técnica conhecida como deepfake combina inteligência artificial e processamento de imagens e permite, de forma muito convincente, manipular imagens, vídeos e sons de uma pessoa para que ela pareça fazer e dizer coisas que na verdade nunca fez ou falou.

Recursos tecnológicos com base em inteligência artificial estão cada vez mais presentes e acessíveis nas nossas atividades cotidianas e têm nos permitido novas possibilidades de criações e interações, como no uso dos assistentes de voz, assistentes de buscas, de edição de textos e de imagens.

Essa tecnologia apesar de muito utilizada para fins benignos e criativos, como o desenvolvimento de vídeos de entretenimento e para facilitar nossa vida, por outro lado também abre margem para novas abordagens espúrias. O deepfake vem sendo utilizado por pessoas mal-intencionadas para criar conteúdos audiovisuais fraudulentos, difamatórios, para espalhar desinformação, capturar dados e até mesmo para cometer golpes financeiros.

Como os golpes de deepfake acontecem?

Os golpes de deepfake ocorrem como todos os outros, a partir da simulação de situações para criar confiança e buscar ações de urgência, fazendo com que as pessoas ajam por impulso. Criminosos podem manipular vídeos e áudios, se passando por pessoas da nossa rede de contatos ou conhecidas nas mídias para te enganar e assim obter dados pessoais e bancários, assim como para solicitar Pix, transferências e pagamentos bancários.

Um caso de golpe que foi muito comentado envolvendo deepfake ocorreu com um funcionário de uma multinacional em Honk Kong durante uma falsa videoconferência. Acreditando que estava falando com o diretor financeiro da empresa o funcionário realizou transações em torno de US$ 25,60 milhões, o equivalente a R$ 127 milhões, para contas de golpistas.  Todos os participantes da reunião, exceto a vítima, eram representações falsas de pessoas reais realizadas por meio da adulteração de imagens e áudios verdadeiros utilizando inteligência artificial.

Hoje em dia, muitos vídeos utilizando deepfake são encontrados nas redes sociais, utilizando imagens de pessoas famosas para vender produtos e espalhar informações falsas. Portanto, saber reconhecer os sinais de um conteúdo falso e estar sempre alerta e vigilante é fundamental para manter-se sempre seguro no ambiente digital.

Como identificar conteúdos falsos?

Para não cair em golpes fique atento às dicas de segurança:

  • Lembre-se de sempre verificar a fonte de qualquer conteúdo disponibilizado na internet, principalmente se tiverem algum teor sensacionalista ou suspeito.
  • Em conteúdos na internet, em videochamadas e em videoconferências analise cuidadosamente a qualidade da imagem, o movimento labial e a consistência narrativa. Um ponto chave é ter atenção à sincronização entre os lábios e a fala da pessoa no vídeo.

Observe o movimento dos olhos, da boca e se a fala está natural. Movimentos pouco naturais, distorções nas proporções do corpo ou com uma sombra diferente podem indicar que aquilo não é real. Nos áudios, repare bem na dicção e no vocabulário. 

Se atente aos detalhes: os olhos estão esquisitos, a boca está mexendo igual marionete, que nem robozinho? Alguém em um vídeo ou áudio está fazendo um pedido estranho ou que não é habitual?  Pula fora, que pode ser golpe!

O primeiro passo para se evitar um golpe é não agir no automático. Pare, pense e sempre desconfie!

Suspeitou que é golpe? O que fazer?

Se você identificar algo utilizando deepfake que tenha como objetivo enganar as pessoas, espalhar fake news, difamar alguém ou que represente algum tipo de ameaça ou tentativa de golpe, denuncie imediatamente na plataforma em que foi compartilhado para que o material seja removido.

Para mais orientações sobre segurança digital, acesse a Página do BB. Conheça também o Guia de Segurança do BB e confira os episódios do podcast Segurança em Rede.

Leia também:

Fique atento ao golpe da videochamada

Comentários:

Seu e-mail não vai aparecer no comentário.

Carregando Comentários...