Stephen Hawking prevê que a Humanidade tem apenas mil anos de vida na Terra

O físico Stephen Hawking advertiu a humanidade que provavelmente só teríamos cerca de mil anos na Terra, e a única coisa que poderia nos salvar da extinção é a criação de colônias em outras partes do Sistema Solar.

Não é mais uma questão “se” vamos colonizar Marte, agora é “quando”

trasporte-para-colonia-de-marte
“Precisamos continuar no espaço para o futuro da humanidade”, disse Hawking em uma palestra na Universidade de Cambridge nesta semana. “Eu não acho que vamos sobreviver outros 1000 anos sem fugir de nosso planeta frágil.”

O destino da humanidade parece ter pesado muito sobre Hawking ultimamente, ele também recentemente advertiu que a inteligência artificial (AI) será “a melhor ou a pior coisa que jamais aconteça à humanidade”.

Dado que os seres humanos são propensos a cometer os mesmos erros repetidamente, mesmo que estejamos obcecados com nossa própria história e devêssemos saber melhor sobre ela, Hawking suspeita que “poderosas armas autônomas” poderiam ter sérias conseqüências para a humanidade.

[pub_quadro_google]

Como a reportagem de Heather Saul do The Independent, Hawking estimou que as colônias humanas auto-sustentáveis em Marte não vão ser uma opção viável por mais de 100 anos, o que significa que precisamos ser “muito cuidadosos” nas próximas décadas.

Sem sequer levar em conta os efeitos potencialmente devastadores da mudança climática, as pandemias globais provocadas pela resistência aos antibióticos e as capacidades nucleares das nações em guerra, poderíamos em breve estar lutando com os tipos de inimigos que nem sequer estamos perto de saber como lidar.

Quais são as catástrofes que podem nos aniquilar em 2016?

No final do ano passado, Hawking acrescentou seu nome a uma coalizão de mais de 20 mil pesquisadores e especialistas, incluindo Elon Musk, Steve Wozniak e Noam Chomsky, pedindo a proibição de qualquer pessoa desenvolver armas autônomas que possam disparar contra alvos sem intervenção humana.

Especialistas advertem sobre os riscos da superinteligência artificial

A inteligência artificial poderá ser nossa última invenção?

Como fundador da OpenAI, a nova iniciativa de pesquisa de Musk dedicada à ética da inteligência artificial, disseram no ano passado, nossos robôs são perfeitamente submissos agora, mas o que acontece quando removemos demais uma restrição?

O que acontece quando você os torna tão perfeitos, eles são apenas como seres humanos, mas melhor, exatamente como sempre quisemos?

“Os sistemas de AI hoje têm capacidades impressionantes, mas estreitas”, disseram os fundadores.

[Afiliados_300_250]

“Parece que vamos manter distância do esgotamento das restrições e, no caso extremo, eles irão alcançar o desempenho humano em praticamente todas as tarefas intelectuais.É difícil de imaginar o quanto a IA ao nível humano pode beneficiar a sociedade, e é igualmente difícil de imaginar o quanto poderia prejudicar a sociedade se construída ou usada incorretamente.”

E isso não é nem a metade.

Imagine que estamos lidando com robôs desordenados que são muito mais inteligentes e muito mais fortes do que nós, e de repente, temos o anúncio: “os alienígenas captaram os sinais que estávamos enviando no Universo e fizeram contato.”

Ótimas notícias, certo? Bem, pense nisso por um minuto. Nas próximas décadas, a Terra e a humanidade não vão parecer tão atraentes.

Estaremos lutando para mitigar os efeitos das mudanças climáticas, o que significa que estaremos ficando sem terra para cultivar, nossas costas estarão desaparecendo e qualquer coisa comestível no mar provavelmente estará sendo cozida pelas temperaturas rapidamente crescentes.

Ainda tem isso:

Se os alienígenas forem agressivos, eles verão um inimigo enfraquecido com um planeta habitável que está maduro para a tomada. E mesmo que não sejam agressivos, nós, humanos, certamente somos, então provavelmente tentaremos obter uma parte do que eles têm, e oops: guerra alienígena.

A ciência do filme “A Chegada”: Se os alienígenas chamarem, a humanidade tem um plano?

Como Hawking diz em seu novo filme on-line, Os Locais Favoritos de Stephen Hawking, “Estou mais convencido do que nunca de que não estamos sozinhos”, mas se os alienígenas nos encontrarem, “eles serão muito mais poderosos e talvez não nos vejam como algo mais valioso do que vemos as bactérias “.

É claro que precisamos de um plano de apoio, e é por isso que o prazo de 1000 anos de Hawking para a destruição vem com uma ressalva, poderemos sobreviver aos nossos erros se tivermos outro lugar no Sistema Solar para afastar-nos de nós mesmos.

[adcash_300_250]

Isso tudo pode soar muito terrível, mas Hawking diz que ainda temos muito para nos sentirmos otimistas, descrevendo 2016 como um “tempo glorioso para estar vivo e fazer suas pesquisas em física teórica”.

Enquanto John Oliver pode discordar que há algo de bom em 2016, Hawking diz que “precisamos lembrar-se de olhar para as estrelas e não para baixo do seus pés.”

“Tente fazer um sentido sobre o que você vê, pergunte sobre o que faz o Universo existir. Seja curioso”, disse ele aos alunos na conferência de Cambridge. “Por mais difícil que pareça a vida, sempre há algo que você pode fazer e ter sucesso. É importante que você não desista.”

Fonte: Science Alert

Sair da versão mobile