Especialistas advertem sobre os riscos da superinteligência artificial

super artificial inteligence
Superinteligência Artificial e as tecnologias do futuro podem ser um risco, advertem especialistas

Durante um recente encontro das Nações Unidas sobre riscos globais emergentes, representantes políticos de todo o mundo foram avisados sobre os perigos impostos pela inteligencia artificial e outras tecnologias do futuro.

O evento organizado pelos representantes da ONU na Georgia e o Instituto de Pesquisa de Crimes e Justiça da ONU Internacional (UNICRI), foi criado para promover o debate sobre os riscos nacionais e internacionais de segurança impostos pelas novas tecnologias, incluindo químicos, biológicos, radiológicos e nucleares (CBRN).

O painel também tratou sobre uma discussão especial e os potenciais riscos trazidos pela superinteligência artificial, que é a capacidade das máquinas superarem ou excederem a inteligência humana. A proposta do encontro, feito no dia 14 de outubro, foi discutir as implicações das tecnologias emergentes, e como agir proativamente mitigando os riscos.

https://www.youtube.com/watch?v=W9N_Fsbngh8

O encontro destacou dois especialistas no assunto, Max Tegmark, um físico do MIT, e Nick Bostron, fundador do Institudo para o Futuro da Humanidade de Oxford e autor do livro Superintelligence: Paths, Dangers, Strategies(Superinteligência: Caminhos, Perigos, Estratégias). Os dois concordam que a inteligência artificial tem a capacidade de transformar a sociedade de uma maneira positiva, mas levantaram questões sobre como a tecnologia pode evoluir rapidamente e ficar fora de controle e se virar contra nós.

Em 2014, Tegmark, junto com o físico Stephen Hawking, professor de ciência da computação Stuart Russel, e outro físico Frank Wilczek, advertiram sobre a cultura atual de complacência no que diz respeito a maquinas superinteligentes.

“Podemos imaginar tecnologias mais inteligentes que os mercados financeiros, superando pesquisadores humanos, manipulando líderes políticos, e inventando armas que nem poderíamos entender,” escreveram os autores. “Considerando que o impacto a curto prazo da inteligência artificial depende de quem a controla, o impacto a longo prazo depende saber se ela pode ser controlada totalmente.”

Nick Bostrom na TED 2015 – Truth and Dare, Sessão 3, Março de 2015, no centro de convenções de Vancouver, Canada. foto: Bret Hartman/TED

De fato, como Bostrom explicou aos participantes, a superinteligência trás desafios fundamentais e técnicos únicos, e  problema “controle” é o mais crítico.

“Existem cenários plausíveis onde sistemas com superinteligência se tornam muito poderosos,” diz ele no encontro, “E existem estas maneira superficialmente plausíveis de resolver o problema de controle, idéias que surgem repentinamente na cabeça das pessoas que, examinando de perto, se tornam falhas. Então existe este, ainda aberto, problema sem solução em como desenvolver mecanismos de controle melhorados”

Isso se prova ser difícil, diz Bostrom, porque precisaremos destes mecanismos de controle antes de construirmos estes sistemas inteligentes.

Bostrom encerrou sua participação no encontro recomendando que um campo precisa ser estabelecido para avançarmos fundamentalmente e tecnicamente no trabalho de controlar o problema, enquanto isso trabalhar para atrair experts em matemática e ciência da computação para este campo.

Ele apelou para uma forte colaboração de pesquisa entre a comunidade de segurança e de desenvolvimento de inteligência artificial, e para todas as partes envolvidas incorporarem o bom princípio comum em todos os projetos de IA de longo alcance. Esta é uma tecnologia exclusiva, disse ele, que deve ser desenvolvida para o bem comum da humanidade, e não apenas a indivíduos ou empresas privadas.

Como Bostrom explicou aos delegados da ONU, a superinteligência representa um risco existencial para a humanidade, que ele definiu como “um risco que ameaça a extinção prematura de vida inteligente original da Terra ou a destruição permanente e drástica de seu potencial para o desenvolvimento futuro desejável.” A atividade humana, advertiu Bostrom, representa uma ameaça muito maior para o futuro da humanidade nos próximos 100 anos do que os desastres naturais.

“Todos os riscos existenciais realmente grandes estão na categoria antrópica”, disse ele. “Os seres humanos têm sobrevivido a terremotos, pragas, queda de asteroides, mas neste século vamos introduzir inteiramente novos fenômenos e fatores para o mundo. A maioria das ameaças plausíveis tem a ver com tecnologias futuras antecipadas.”

Pode se passar décadas antes de vermos os tipos de superinteligência descritos nesta reunião da ONU, mas já que estamos falando de um potencial de risco existencial, nunca é cedo para começar. Muitos elogios para todos os envolvidos.

Fonte: Gizmodo

 

 

 

Sair da versão mobile