Boas notícias, companheiros humanos: As Nações Unidas decidiram fiscalizar de perto os robôs assassinos.
Na Convenção Internacional sobre Armas Convencionais em Genebra, 123 nações participantes votaram para iniciar discussões oficiais sobre o perigo de sistemas de armas autônomas letais. Essa é a designação emergente para os chamados “robôs assassinos”, armas controladas pela inteligência artificial que podem atacar e atacar sem intervenção humana.
[pub_quadro_google]
O acordo é o último desenvolvimento em um movimento crescente que pede uma proibição preventiva de armas com I.A. e armas mortais e autônomas. No ano passado, uma coalizão de mais de mil cientistas e líderes da indústria, incluindo Elon Musk e representantes do Google e da Microsoft, assinaram uma carta oficial às Nações Unidas exigindo ação.
A decisão da ONU é significativa, na medida em que exige discussões formais sobre a questão em 2017. Nas deliberações internacionais de alto nível, a passagem de “informal” para “formal” representa um verdadeiro avanço, disse Stephen Goose, diretor de armas dos Direitos Humanos Assistido e um dos co-fundadores da Campanha para parar os robôs assassinos.
“Em essência, eles decidiram passar da fase de conversas para a fase de ação, onde espera-se que eles produzam um resultado concreto”, disse Goose em uma troca de e-mail com Seeker.
É amplamente reconhecido que as agências militares em todo o mundo já estão desenvolvendo armas letais e autônomas. Em agosto, autoridades chinesas revelaram que o país está explorando o uso de I.A. e automação em sua próxima geração de mísseis de cruzeiro.
“Os planos da China para armas e inteligência artificial podem ser aterrorizantes, mas não mais aterrorizantes do que os esforços similares dos EUA, Rússia, Israel e outros”, disse Goose. “Os EUA estão mais longe neste campo do que qualquer outra nação.A maioria das forças armadas avançadas estão buscando uma autonomia cada vez maior em armas.Os robôs assassinos viriam em todos os tamanhos e formas, incluindo versões mortíferas miniaturizadas que poderiam atacar em enormes enxames, e iriam operar do ar, do chão, do mar e debaixo d’água “.
A questão central em relação a esses sistemas de armas diz respeito à agência humana, disse Goose.
“A coisa chave que distingue uma arma totalmente autônoma de uma arma convencional comum, ou mesmo uma arma semi-autônoma como um zangão, é que um humano não estaria mais decidindo o que ou a quem alvejar e quando puxar o gatilho”, disse ele .
“O próprio sistema de armas, usando inteligência artificial e sensores, faria essas determinações críticas no campo de batalha, o que mudaria a própria natureza da guerra e não para a melhoria da humanidade”.
Como evitar a previsão sombria de Stephen Hawking sobre a humanidade
Goose disse que a pressão dos líderes da ciência e da indústria, incluindo algumas advertências um tanto apocalípticas de Stephen Hawking, ajudou a estimular a ONU nessa ação.
“A comunidade científica parece bastante unificada em se opor ao desenvolvimento de armas totalmente autônomas”, disse ele. “Eles se preocupam que a busca de armas totalmente autônomas irá prejudicar a reputação da comunidade de IA tornando mais difícil de avançar com os esforços benéficos da IA”.
Além do perigo óbvio de robôs assassinos que foram desonestos, o próprio desenvolvimento de tais sistemas poderia levar a uma “corrida armamentista robótica” que ameaça a estabilidade internacional, disse Goose.
“Os perigos de armas totalmente autônomas são previsíveis, e devemos agir agora para prevenir futuros danos potencialmente catastróficos para civis, soldados e para o planeta”.
Artigo original publicado no Seeker.
Fonte: Live Science