Inteligência Artificial assassina, Amazon e Microsoft “colocando o mundo em risco”
As principais empresas de tecnologia estão colocando o mundo em risco através do desenvolvimento de robôs assassinos, de acordo com um relatório que pesquisou os principais participantes do setor sobre sua posição sobre armas autônomas letais.
O uso de inteligência artificial assassina para permitir que sistemas de armas selecionem e ataquem alvos autonomamente desencadeou debates éticos nos últimos anos
A Amazon e a Microsoft estão disputando um contrato do Pentágono de US $ 10 bilhões para fornecer a infraestrutura de nuvem para as forças armadas dos EUA.
WASHINGTON (Reuters) – A Amazon, a Microsoft e a Intel estão entre as principais empresas de tecnologia que colocam o mundo em risco por causa do robusto desenvolvimento de robôs, segundo um relatório que pesquisou importantes atores do setor sobre sua posição sobre armas autônomas letais.
A ONG holandesa Pax classificou 50 empresas por três critérios: se eles estavam desenvolvendo tecnologia que poderia ser relevante para IA mortal, se eles estavam trabalhando em projetos militares relacionados, e se eles se comprometeram a se abster de contribuir no futuro.
“Por que empresas como a Microsoft e a Amazon não estão negando que estão atualmente desenvolvendo essas armas altamente controversas, que podem decidir matar pessoas sem envolvimento humano direto?”, Disse Frank Slijper, principal autor do relatório publicado esta semana.
O uso de inteligência artificial para permitir que sistemas de armas selecionem e ataquem alvos de forma autônoma desencadeou debates éticos nos últimos anos, com críticos alertando que eles ameaçariam a segurança internacional e anunciariam uma terceira revolução na guerra depois da pólvora e da bomba atômica.
Um painel de especialistas do governo debateu opções políticas sobre armas autônomas letais em uma reunião da Convenção das Nações Unidas sobre Certas Armas Convencionais em Genebra, na quarta-feira.
O Google, que no ano passado publicou princípios orientadores que evitam a inteligência artificial para uso em sistemas de armas, estava entre as sete empresas envolvidas na análise de 12 países, assim como a Softbank do Japão, mais conhecida por seu robô Pepper.
Vinte e duas empresas eram de “média preocupação”, enquanto 21 caíram em uma categoria de “alta preocupação”, notavelmente a Amazon e a Microsoft, que estão disputando um contrato do Pentágono de US $ 10 bilhões para fornecer a infraestrutura de nuvem para as forças armadas dos EUA.
Outros no grupo de “alta preocupação” incluem Palantir, uma empresa com raízes em uma organização de capital de risco apoiada pela CIA que recebeu um contrato de US $ 800 milhões para desenvolver um sistema de inteligência artificial que pode ajudar soldados a analisar uma zona de combate em tempo real.
“Armas autônomas inevitavelmente se tornarão armas escaláveis de destruição em massa, porque se o ser humano não estiver no circuito, uma única pessoa pode lançar um milhão de armas ou cem milhões de armas”, disse Stuart Russell, professor de ciência da computação na Universidade da Califórnia em Berkeley, disse à AFP na quarta-feira.
“O fato é que as armas autônomas serão desenvolvidas pelas corporações e, em termos de uma campanha para evitar que armas autônomas se generalizem, elas podem desempenhar um papel muito importante”, acrescentou.
O desenvolvimento da inteligência artificial assassina para fins militares desencadeou debates e protestos no setor: no ano passado, o Google se recusou a renovar um contrato do Pentágono chamado Project Maven, que usava aprendizado de máquina para distinguir pessoas e objetos em vídeos de drones.
Ele também abandonou a iniciativa de Joint Enterprise Defense Infrastructure (JEDI), o contrato em nuvem que a Amazon e a Microsoft esperam comprar.
O relatório observou que os funcionários da Microsoft também manifestaram sua oposição a um contrato do Exército dos EUA para um fone de ouvido de realidade aumentada, o HoloLens, que visa “aumentar a letalidade” no campo de batalha.
Armas autônomas
De acordo com Russell, “qualquer coisa que seja atualmente uma arma, as pessoas estão trabalhando em versões autônomas, sejam tanques, aviões de combate ou submarinos”.
A Harpy de Israel é um drone autônomo que já existe, “vagueia” em uma área alvo e seleciona sites para acertar.
Mais preocupantes ainda são novas categorias de armas autônomas que ainda não existem – elas podem incluir mini-drones armados como os apresentados no curta-metragem de 2017 “Slaughterbots”.
“Com esse tipo de arma, você pode enviar um milhão deles em um contêiner ou avião de carga – então eles têm capacidade destrutiva de uma bomba nuclear, mas deixam todos os edifícios para trás”, disse Russell.
Usando a tecnologia de reconhecimento facial, os drones poderiam “acabar com um grupo étnico ou um gênero, ou usando informações de mídia social você poderia acabar com todas as pessoas com uma visão política”.
Em abril, a União Européia publicou diretrizes sobre como as empresas e os governos deveriam desenvolver a IA, incluindo a necessidade de supervisão humana, trabalhando em prol do bem-estar social e ambiental de maneira não discriminatória e respeitando a privacidade e evitando a Inteligência Artificial assassina.
Russell argumentou que era essencial dar o próximo passo na forma de uma proibição internacional da IA letal, que poderia ser resumida como “máquinas que podem decidir matar seres humanos não devem ser desenvolvidas, implantadas ou usadas”.
Publicado originalmente em Arabnews