Os pesquisadores da Google sobre inteligência artificial acreditam que há assuntos mais importantes do que a potencial destruição da raça humana pelas mãos de máquinas superinteligentes, e o que qualquer um fala sobre como a IA irá nos destruir é absurda.
“Seja um Exterminador vindo para nos explodir ou cientistas loucos criando robôs mulheres muito pervertidas, esta narrativa tem conseguido dominar a paisagem inteira, e o que achamos impressionante”, disse Mustafa Suleyman, o chefe da IA aplicada no Google DeepMind, a empresa de IA com sede em Londres, onde ele é co-fundador e a Google comprou no ano passado por US $ 400 milhões.
“A narrativa mudou de ‘Não é terrível que a IA tenha sido um fracasso?’ para ‘Não é terrível que IA tem sido um sucesso tão grande?’” Suleyman disse em um evento de aprendizagem de máquina em Londres.
A DeepMind explodiu no centro das atenções no ano passado, quando publicou um artigo na revista Nature que mostrou como um computador pode ser programado para ensinar a si mesmo ao jogar jogos de Atari melhor do que a maioria dos seres humanos. Depois de anos de promessas e decepções no campo, outrora obscura da IA, o avanço da DeepMind foi que, em vez de ter que ensinar a máquina a jogar cada jogo, a máquina poderia transferir o conhecimento adquirido a partir de jogos anteriores para os próximos.
É esta a descoberta, que Suleyman chama de um dos avanços mais significativos na inteligência artificial em um longo tempo, ela reacendeu a ansiedade sobre os riscos potenciais que a IA pode ter. No ano passado, figuras como o astrofísico Stephen Hawking , Bill Gates da Microsoft , e Elon Musk da Tesla, “um dos primeiros investidores no DeepMind” se expressaram sobre as preocupações sobre o potencial da AI em prejudicar a humanidade.
“Como um risco existencial, nossa perspectiva é que ela se tornou uma distração real a partir da ética e questões essenciais de segurança, e isto ofusca o debate completamente.”, disse Suleyman. “A maneira como pensamos sobre IA é que ela vai ser uma ferramenta extremamente poderosa que podemos controlar e que nós dirigimos, cujas capacidades nós limitaremos, assim como você faz com qualquer outra ferramenta que temos no mundo em torno de nós, sejam elas máquinas de lavar roupa ou tratores. Estamos construindo-os para capacitar a humanidade e não para nos destruir.”
A Google DeepMind agora emprega cerca de 140 pesquisadores de todo o mundo em seu laboratório, em Londres. O aprendizado de máquina está sendo usado no Google, em áreas como a pesquisa de imagens, robótica, biotecnologia e no Google X, o laboratório altamente experimental da empresa. Por exemplo, o Google no mês passado anunciou um novo recurso em seu produto de fotografias, permitindo aos usuários pesquisarem as suas fotografias por nomes em texto como camas, crianças, feriado, mesmo que os usuários nunca nomeado essas fotos como tal originalmente.
São estes tipos de avanços, e o potencial para resolver alguns dos realmente grandes problemas de insegurança da humanidade, ou seja, comida, aquecimento global, e desigualdade de renda que estão sendo ofuscados pela “propaganda” em torno da ameaça existencial da IA, disse Suleyman.
“A ideia de que devemos passar estes momentos agora falando sobre consciência e os direitos dos robôs é realmente muito absurda”, disse ele.
Mas Suleyman está tomando as questões por trás das campanhas publicitárias a sério. A DeepMind
fez da criação de um conselho de ética e segurança uma condição para a sua aquisição pela Google. Este último também não pode permitir que qualquer trabalho relacionado com a IA conduzido pela DeepMind seja utilizado para fins militares ou de inteligência.
Porem depois de um ano desde a aquisição, a Google ainda não está divulgando ao público mais informações sobre este conselho de ética, apesar dos repetidos pedidos do meio acadêmico e da mídia. Em contraste, a Google no ano passado criou um painel de especialistas para assessorá-lo no debate “direito a ser esquecido” do bloco europeu. Esse conselho consultivo tornou-se público, e suas reuniões também foram abertas. Esse painel, composto por acadêmicos e especialistas em Internet, foi, no entanto, liderado pelo presidente do Google Eric Schmidt e Diretor Jurídico David Drummond.
Suleyman não quis comentar sobre a composição do conselho de ética de IA, como seus membros são escolhidos, de acordo com o mecanismo que irá operar ou que poderes terá. Ele disse que o Google estava recrutando uma equipe de acadêmicos, pesquisadores políticos, economistas, filósofos e juristas para tratar a questão ética, mas atualmente só tinha três ou quatro deles focado no assunto. A empresa estava observando para contratar especialistas em política, ética e direito, disse ele.
“Vamos torná-lo público, em devido tempo”, disse Suleyman. Um porta-voz do Google na segunda-feira também se recusou a fazer qualquer comentário oficial sobre o conselho de ética.
Perguntado por que a Google estava mantendo em segredo a composição ética da IA, apesar dos apelos de transparência e cautela, Suleyman disse: “Isso é o que eu disse a Larry Page [um dos fundadores do Google]. Eu concordo completamente. Fundamentalmente nós estamos em uma corporação e eu acho que isso é uma questão para todos pensarem. Estamos muito conscientes de que isto é extremamente complexo e não temos a intenção de fazer isso em um vácuo, ou sozinhos. ”
Fonte: The Wall Street Jounal