Deep fakes: vídeos que simulam cenas são nova ameaça à informação
Pesquisador de Amsterdã diz que uma mensagem manipulada tem forte impacto e tende a ser aceita por quem deseja acreditar nela
atualizado
Compartilhar notícia
Imagine o seguinte cenário: o ano é 2020 e a situação diplomática entre Estados Unidos e Coreia do Norte é tensa. Uma rede de TV recebe um vídeo inédito, de fonte anônima, mostrando o líder Kim Jong-un discutindo com generais o lançamento de um ataque nuclear. Na Casa Branca, o vídeo é analisado, mas a inteligência não consegue verificar a autenticidade. O presidente americano tem de agir – e ordena um contra-ataque. Uma guerra começa.
O pesquisador Giorgio Patrini, da Universidade de Amsterdã, na Holanda, imaginou o cenário acima para alertar sobre uma preocupante modalidade de informação falsa: os deepfakes. São vídeos simulando cenas e aplicando técnicas de inteligência artificial à imagens existentes.
Até pouco tempo, o fenômeno se restringia ao mundo de filmes adultos. Mas, com a criação de novas tecnologias, existe a preocupação entre especialistas de que filmagens falsas possam comprometer também o processo eleitoral e outros aspectos da vida moderna.“Se houver incentivo financeiro ou político suficiente para atores mal-intencionados fazerem isso, é inteiramente possível a fabricação de vídeos ser usada em futuras campanhas políticas”, diz Patrini, colaborador no Delta Lab (Deep Learning Technologies Amsterdam), da Universidade de Amsterdã e Bosch.
Segundo Patrini, de tão forte o impacto de um vídeo falso, a mensagem manipulada tende a ser aceita por quem deseja acreditar nela – mesmo após a comprovação da falsidade. “Os psicólogos nos advertem de duas falácias humanas: a tendência a acreditar em informações falsas após exposição repetida (efeito de verdade ilusório) e a acreditar em informações falsas quando apenas confirmam nossas crenças anteriores.”
O cientista da computação brasileiro Virgilio Almeida, professor associado de Harvard, alerta, no entanto, sobre a produção de vídeos falsos sem grande refinamento já ser acessível hoje. “Se pensarmos que já em 2014 usaram bots (redução de robôs em inglês), isso certamente vai ser utilizado. Mas as pessoas acreditam muito em recursos visuais. Muitos não vão acreditar, mas muitos vão. O processo eleitoral passa a ser muito levado por isso”, afirmou ele.
Se as eleições deste ano já podem ter o rebuliço do compartilhamento de vídeos falsos, Patrini salienta as possíveis repercussões da manipulação audiovisual e sobre suas consequências irem além da política.
Considere, por exemplo, o uso de áudios e vídeos como provas em processos criminais. Se não pudermos mais confiar em sua autenticidade, como poderemos aceitá-los como evidência?
Soluções
Se o prognóstico das deepfakes é pessimista, isso se dá, em grande parte, porque ainda não há técnica desenvolvida para identificar os audiovisuais falsos. “É muito difícil descobrir vídeos falsos e não existe detectores em larga escala. As técnicas de perícia digital estão muito atrás”, aponta Almeida.
Patrini sugere dois caminhos para a tecnologia de defesa contra deepfakes. O primeiro seria a criação de uma assinatura digital em vídeos – análoga a marcas d’água em notas de dinheiro –, que garantiria a autenticidade da câmera originária de um filme e a ausência de edições. No entanto, uma assinatura digital seria invalidada por qualquer tipo de edição, mesmo os “benignos” – incluindo mudança de contraste e pequenos cortes. Além disso, não haveria como assegurar a veracidade de vídeos antigos, anteriores a uma possível implementação de assinaturas.
Outra solução vai na linha do “feitiço contra o feiticeiro”: usar inteligência artificial e machine learning para criar detectores de vídeos falsos. A ideia é treinar computadores para identificar sinais de adulteração, invisíveis a olhos humanos. O pesquisador considera esta a melhor opção.
“Assim como o aprendizado de máquina nos possibilita meios poderosos de manipulação da mídia, ele pode resgatar e trabalhar como um discriminador, informando-nos quando o conteúdo audiovisual parece ser uma falsificação.”