Os desenvolvedores estão trabalhando em ferramentas que podem ajudar a detectar histórias suspeitas e denunciá-las, mas pode ser o início de uma corrida de armamentos automatizada.
Pode ter sido o primeiro pedaço de notícias falsas na história da Internet: em 1984, alguém postou na Usenet que a União Soviética estava se juntando à rede. Foi uma brincadeira inofensiva de primeiro de abril, muito longe das campanhas de desinformação emergentes de hoje e a fabricação sem escrúpulos projetadas para obter um lucro rápido.
Em 2017, o conteúdo online enganador e maliciosamente falso é tão prolífico que nós, humanos, temos pouca esperança de sairmos da lama. Em vez disso, parece mais provável que as máquinas tenham que nos salvar.
[adcash_300_250]
Um algoritmo destinado a fazer brilhar uma luz na escuridão é o AdVerif.ai, que é executado por uma startup com o mesmo nome. O software artificialmente inteligente é construído para detectar histórias falsas, nudez, malware e uma série de outros tipos de conteúdo problemático.
O AdVerif.ai, atualmente trabalha com plataformas de conteúdo e redes de publicidade nos Estados Unidos e na Europa que não querem ser associadas a histórias falsas ou potencialmente ofensivas. A empresa viu uma oportunidade em se concentrar em um produto para empresas, ao contrário de algo para um usuário médio, de acordo com Or Levi, fundador da AdVerif.ai.
Embora os consumidores individuais possam não se preocupar com a veracidade de cada história, eles estão clicando, anunciantes e plataformas de conteúdo têm algo a perder hospedando ou anunciando conteúdo ruim. E se eles fizerem mudanças em seus serviços, eles podem conseguir cortar fluxos de receita para pessoas que ganham dinheiro criando notícias falsas. “Seria um grande passo na luta contra esse tipo de conteúdo”, diz Levi.
O AdVerif.ai verifica o conteúdo para detectar sinais reveladores de que algo é uma manchete do tipo mal-intencionada que não corresponde ao corpo, por exemplo, ou muitas letras maiúsculas na manchete. Ele também verifica cada história com seu banco de dados de milhares de histórias legítimas e falsas, que é atualizada semanalmente. Os clientes vêem um relatório para cada peça que o sistema considerou, com pontuações que avaliam a probabilidade de que algo seja fake new, carrega malware ou contém qualquer outra coisa que peça ao sistema para procurar, como a nudez.
[Hostinger]
Eventualmente, Levi diz que planeja adicionar a capacidade de detectar imagens manipuladas e ter um plugin de navegador. Testando uma versão de demonstração do AdVerif.ai, a AI reconheceu o site Onion como sátira (que enganou muitas pessoas no passado). As histórias de Breitbart foram classificadas como “não confiáveis, corretas, políticas, viés”, enquanto que o site Cosmopolitan foi considerado como “de esquerda”. Ele poderia dizer quando uma conta do Twitter estava usando um logotipo, mas os links não estavam associados à marca que estava retratando.
O AdVerif.ai não só descobriu que uma história no site Natural News com a manchete “Evidências apontam que o Bitcoin pode ser uma psyop projetado pela NSA para lançar um mundo de moedas digitais” era de um site na lista negra, mas identificou-a como uma notícia falsa em outros sites da lista negra sem referências em organizações de notícias legítimas.
Algumas histórias duvidosas continuam. Em um site chamado Action News 3, um post intitulado “Jogador da NFL fotografado queimando uma bandeira americana no vestiário!” Não foi apanhado, embora tenha provado ser uma fabricação. Para ajudar o sistema a aprender como está, sua lista negra de histórias falsas pode ser atualizada manualmente numa base história por história.
O AdVerif.ai não é o único arranque que vê uma oportunidade ao fornecer um soro de verdade alimentado por Inteligência Artificial para empresas online. As empresas de segurança cibernética, em particular, foram rápidas em adicionar operações de falsificação de notícias em seu repertório e apontando como uma série de métodos se parecem com a pirataria.
Redes sociais são propagadoras de notícias falsas
O Facebook está ajustando seus algoritmos para enfatizar as notícias falsas em seus feeds de notícias e o Google se associou a um site de verificação de fato, até agora com resultados desiguais. The Fake News Challenge, uma competição dirigida por voluntários na comunidade IA, com o objetivo de incentivar o desenvolvimento de ferramentas que poderiam ajudar a combater relatórios de má fé.
O Delip Rao, um dos seus organizadores e o fundador da Joostware, uma empresa que cria sistemas de aprendizado de máquinas, disse que as notícias falsas têm tantas facetas que o desafio realmente será feito em várias etapas. O primeiro passo é “detecção de posição”, ou tirar uma história e descobrir o que outros sites de notícias têm a dizer sobre o tema. Isso permitiria que os verificadores de dados humanos confiarem em histórias para validar outras histórias e gastar menos tempo em verificar peças individuais.
O Fake News Challenge lançou conjuntos de dados para equipes, com 50 equipes enviando entradas. A Talos Intelligence, uma divisão de segurança cibernética da Cisco, ganhou o desafio com um algoritmo que obteve mais de 80% de correção, e ele nem está pronto para o horário nobre, mas ainda é um resultado encorajador.
Imagens manipuladas é um desafio ainda maior
O próximo desafio pode assumir imagens com texto de sobreposição (pense em memes, mas com notícias falsas), um formato que muitas vezes é promovido nas mídias sociais, pois seu formato é mais difícil para os algoritmos decifrarem e entenderem.
“Queremos construir basicamente as melhores ferramentas para os verificadores de fato para que eles possam trabalhar muito rapidamente”, disse Rao. “Como checadores de fato com esteroides”.
Mesmo que se desenvolva um sistema que seja efetivo para vencer a maré do conteúdo falso, é improvável que seja o fim da história. Os sistemas de inteligência artificial já conseguem criar texto falso, bem como imagens e vídeos incrivelmente convincentes. (veja “Real ou Falso? A IA está tornando-o muito difícil de diferenciar“). Talvez por isso, um recente estudo do Gartner prevê que até 2022, a maioria das pessoas em economias avançadas verá informações mais falsas do que verdadeiras. O mesmo relatório descobriu que, mesmo antes disso, o conteúdo falso superará a capacidade da AI de detectá-lo, mudando a forma como confiamos na informação digital.
O que AdVerif.ai e outros representam, então, parece menos a palavra final na guerra sobre o conteúdo falso do que a rodada de abertura de uma corrida armamentista, em que os falsos criadores de conteúdo recebem sua própria IA que pode superar os “bons” IAs (ver “A IA poderia nos arrumar de volta 100 anos quando se trata de como consumimos notícias”). Como uma sociedade, ainda podemos ter que reavaliar a forma como obtemos a nossa informação.
Fonte: Mit Technology Review