Os robôs assassinos precisam ser proibidos

Os robôs assassinos precisam ser proibidos 3
Um “robô assassino” simulado é retratado no centro de Londres, em 23 de abril de 2013, durante o lançamento da Campanha para Parar “Robôs assassinos”, que exige a proibição de armas de robôs letais que possam selecionar e atacar alvos sem qualquer humano intervenção. A campanha para parar robôs assassinos exige uma proibição preventiva e abrangente sobre o desenvolvimento, produção e uso de armas totalmente autônomas. AFP PHOTO / CARL COURT / Getty Images

As principais empresas de inteligência artificial do mundo estão pedindo a proibição de robôs assassinos

Uma próxima revolução na guerra onde os robôs assassinos, ou sistemas de armas autônomas, são comuns em campos de batalha está prestes a começar.

Ambos os cientistas e a indústria estão preocupados.

As principais empresas de inteligência artificial (IA) e de robótica do mundo  usaram uma conferência em Melbourne para incitar as Nações Unidas para banir robôs assassinos ou armas autônomas letais.

[pub_quadro_google]

Uma carta aberta de 116 fundadores de empresas de robótica e inteligência artificial de 26 países foi lançada na maior conferência de inteligência artificial do mundo, a Conferência Conjunta Internacional sobre Inteligência Artificial (IJCAI), à medida que a ONU atrasa a reunião até mais tarde este ano para discutir a corrida armamentista robótica.

Toby Walsh, cientista Professor de Inteligência Artificial da Universidade de Nova Gales do Sul, divulgou a carta na abertura da conferência, onde se reúne o maior grupo de especialistas em inteligência artificial e robótica do mundo.

É a primeira vez que empresas de IA e de robótica tomaram posição conjunta sobre o assunto. Anteriormente, apenas uma única empresa, a Clearpath Robotics do Canadá, formalmente pediu a proibição de armas autônomas letais.

Em dezembro de 2016, 123 países membros da Conferência de Revisão da ONU sobre a Convenção sobre Armas Convencionais concordaram por unanimidade em iniciar conversações formais sobre armas autônomas. Destes, 19 já pediram uma proibição.

“As armas autônomas letais ameaçam tornar-se a terceira revolução na guerra”, diz a carta.

“Uma vez desenvolvidos, eles permitirão que os conflitos armados sejam combatidos em uma escala maior do que nunca, e em intervalos de tempo mais rápidos do que os humanos podem compreender.”

“Estas podem ser armas de terror, armas que os déspotas e os terroristas usam contra populações inocentes e armas pirateadas para se comportam de maneiras indesejáveis. Não temos muito tempo para agir. Uma vez que esta caixa de Pandora é aberta, será difícil fechar.”

[afiliados_250_250]

Os signatários da carta de 2017 incluem:

Walsh é um dos organizadores da carta de 2017, bem como uma carta anterior lançada em 2015 na conferência IJCAI em Buenos Aires, que alertou sobre os perigos das armas autônomas.

A carta de 2015 foi assinada por milhares de pesquisadores que trabalham em universidades e laboratórios de pesquisa em todo o mundo, e foi aprovada pelo físico britânico Stephen Hawking, o co-fundador da Apple Steve Wozniak e pelo cientista cognitivo Noam Chomsky. Como evitar a previsão sombria de Stephen Hawking sobre a humanidade.

“Quase todas as tecnologias podem ser usadas para o bem e o mal, e a inteligência artificial não é diferente”, diz Walsh.

“Pode ajudar a enfrentar muitos dos problemas urgentes que a sociedade enfrenta hoje: a desigualdade e a pobreza, os desafios colocados pelas mudanças climáticas e a atual crise financeira global. No entanto, a mesma tecnologia também pode ser usada em armas autônomas para industrializar a guerra”.

“Precisamos tomar decisões hoje, escolhendo qual destes futuros desejamos. Apoio fortemente o chamado de muitas organizações humanitárias e outras por uma proibição da ONU sobre essas armas, semelhante à proibição de armas químicas e outras”, acrescentou.

Ryan Gariepy, fundador da Clearpath Robotics, diz que o número de empresas e indivíduos proeminentes que assinaram esta carta reforça o aviso de que este não é um cenário hipotético, mas uma preocupação muito real e premente.

“Não devemos perder de vista o fato de que, ao contrário de outras manifestações potenciais da AI, que ainda permanecem no domínio da ficção científica, os sistemas de armas autônomas estão a ponto de desenvolver agora e têm um potencial muito real para causar danos significativos a inocentes Pessoas junto com instabilidade global “, diz ele. Stephen Hawking prevê que a Humanidade tem apenas mil anos de vida na Terra.

“O desenvolvimento de sistemas de armas autônomas letais é imprudente, antiético e deve ser banido em uma escala internacional”.

 [Afiliados_300_250]

A carta:

Uma Carta Aberta à Convenção das Nações Unidas sobre Certas Armas Convencionais

Como empresas que desenvolvem as tecnologias em Inteligência Artificial e Robótica que podem ser reutilizadas para desenvolver armas autônomas, nos sentimos especialmente responsáveis ​​ao levantar esse alarme. Congratulamo-nos calorosamente com a decisão da Conferência das Nações Unidas sobre a Convenção sobre Certas Armas Convencionais (CCW) de criar um Grupo de Especialistas Governamentais (GGE) em Sistemas de Armas Autônomas Letais.

Muitos de nossos pesquisadores e engenheiros estão ansiosos para oferecer conselhos técnicos para suas deliberações. Nós recomendamos a nomeação do embaixador Amandeep Singh Gill da Índia como presidente do GGE. Solicitamos às Altas Partes Contratantes que participam do GGE que trabalhem arduamente para encontrar meios para impedir uma corrida armamentista nessas armas, para proteger os civis do uso indevido e para evitar os efeitos desestabilizadores dessas tecnologias.

Lamentamos que a primeira reunião do GGE, que deveria começar hoje, foi cancelada devido a um pequeno número de estados que não pagaram suas contribuições financeiras para a ONU. Instamos as Altas Partes Contratantes, portanto, a duplicar seus esforços na primeira reunião do GGE agora planejada para novembro.

As armas autônomas letais ameaçam tornar-se a terceira revolução na guerra. Uma vez desenvolvidos, eles permitirão que os conflitos armados sejam combatidos em uma escala maior do que nunca, e em intervalos de tempo mais rápidos do que os seres humanos podem compreender. Estas podem ser armas de terror, armas que os déspotas e os terroristas utilizam contra populações inocentes e armas pirateadas para se comportam de maneiras indesejáveis. Não temos muito tempo para agir. Uma vez que esta caixa de Pandora é aberta, será difícil fechar.

Portanto, imploramos as altas partes contratantes para encontrar uma maneira de nos proteger de todos esses perigos.

Clique aqui para ver a lista completa de signatários por país.

Fonte: Businessinsider

Sair da versão mobile