A próxima geração das fake news é feita com inteligência artificial

A sofisticada tecnologia de processamento de imagens ameaça inundar a Internet com a próxima geração das fake news.

O que acontece quando você não pode confiar no que seus olhos vêem na tela? À medida que a era pós-verdade colide com a tecnologia digital em rápida evolução, as campanhas de desinformação on-line estão ameaçando desencadear uma crise catastrófica da era da informação. Basta perguntar à Comissão Eleitoral Federal.

Este é o desenvolvimento mais recente: os cientistas desenvolveram um sistema de software automatizado baseado em inteligência artificial que pode ser usado para criar e detectar vídeos “falsos e profundos”, imagens de vídeo manipuladas que podem disseminar informações erradas e boatos maliciosos. Tecnologia semelhante já foi usada para gerar vídeos de celebridades falsas e até mesmo pornografia de vingança.

[cash_300_250]

Os vídeos falsos profundos, também chamados simplesmente de deepfakes, contam com técnicas de síntese de imagens que podem converter o conteúdo de um conteúdo de vídeo em outro estilo praticamente sem falhas. De uma forma profunda, as imagens de um político ou figura pública podem ser alteradas, de modo que ele parece estar dizendo coisas que não.

A guerra contra as notícias falsas poderia ser vencida pela Inteligência Artificial?

Pesquisadores da Carnegie Mellon University desenvolveram uma nova técnica que pode gerar deepfakes automaticamente, sem necessidade de intervenção humana. Alimentado por inteligência artificial e aprendizado de máquina, o sistema pode copiar as expressões faciais de um assunto em um vídeo e depois mapear os dados em imagens em outro. Barack Obama pode ser facilmente transformado em Donald Trump, ou John Oliver pode se tornar de repente Stephen Colbert.

O sistema também pode converter filmes em preto-e-branco em cores ou manipular imagens de modo que uma flor de hibisco seja convertida para aparecer como um narciso. Como essa nova ferramenta pode transformar grandes quantidades de vídeo automaticamente, ela pode ser particularmente útil para cineastas ou designers de jogos que desejam criar ambientes digitais detalhados.

“É uma ferramenta para o artista que lhes dá um modelo inicial que eles podem melhorar”, disse Aayush Bansal, Ph.D. estudante do Instituto de Robótica da CMU, em um comunicado.

E se tudo o que foi lhe ensinado fosse uma mentira?

Mas a equipe da CMU também está ciente de que a tecnologia poderia ser usada para deepfakes, demonstrando como o sistema pode combinar imagens de Barack Obama e Donald Trump, fazendo parecer que alguém está falando palavras que estão sendo faladas pelo outro.

“Foi uma grande surpresa para todos nós no campo que tais falsificações fossem criadas e tivessem tanto impacto”, observou Bansal. “Encontrar maneiras de detectá-los será importante avançar”.

Bansal e seus colegas apresentaram um desses métodos esta semana na Conferência Européia sobre Visão Computacional, em Munique, na Alemanha. Ao revelar detalhes sobre a técnica para colegas desenvolvedores e pesquisadores, a equipe da CMU espera tornar os deepfakes mais fáceis de identificar, mesmo com a tecnologia mais sofisticada.

A próxima geração das fake news é feita com inteligência artificial 2

A técnica CMU emprega uma classe de algoritmos denominados redes antagônicas gerativas, ou GANS. Esses algoritmos são separados em dois modelos e, em seguida, basicamente soltos para competir uns com os outros. O modelo “discriminador” aprende o estilo de uma imagem ou vídeo, enquanto o “gerador” aprende como criar imagens que combinem com esse estilo para enganar o discriminador.

Colocando esses dois modelos em competição entre si, o sistema de IA essencialmente ensina a si mesmo como criar as imagens de aparência mais realistas. O gerador tenta enganar o discriminador e o discriminador marca a eficácia do gerador.

O sistema é uma espécie de versão visual de um software de tradução de idiomas semelhante ao da IA, no qual o inglês é traduzido para o espanhol e depois novamente para o inglês. Ao se corrigir várias vezes, o sistema pode aprender novos processos por conta própria e melhorar rapidamente seus resultados.

Entenda o que é um evento de bandeira falsa

Este software de imagens poderia ter outras aplicações também, disse Bansai. Por exemplo, ele poderia ser aplicado para ajudar carros autônomos a operar com mais segurança em condições de pouca luz. Mais detalhes sobre a técnica, incluindo o código para desenvolvedores, estão disponíveis na página do projeto dedicado.

Artigo publicado originalmente no site Seeker, para ver o artigo original em inglês clique aqui.

Sair da versão mobile