Como alinharemos Inteligência Artificial com valores humanos?

Uma grande mudança está chegando, em escalas de tempo desconhecidas, mas em todos os segmentos da sociedade, e as pessoas que participam dessa transição têm uma enorme responsabilidade e oportunidade de moldá-la para o melhor. O que irá desencadear essa mudança? Inteligência artificial.

Recentemente, algumas das principais mentes da IA ​​e áreas afins se reuniram para discutir como podemos garantir que ela permaneça benéfica ao longo desta transição, e o resultado foi o documento Princípios de Inteligência Artificial da Asilomar.

A intenção desses 23 princípios é oferecer uma estrutura para ajudar a inteligência artificial a beneficiar o maior número de pessoas possível. Mas, como o especialista em IA Toby Walsh disse sobre os Princípios, “É claro que é apenas um começo. … um trabalho em andamento.”

[cash_300_250]

Os Princípios representam o início de uma conversa e, agora que a conversa está em andamento, precisamos dar continuidade a uma ampla discussão sobre cada princípio individual. Os Princípios significam coisas diferentes para pessoas diferentes e, para beneficiar o máximo possível da sociedade, precisamos pensar em cada princípio individualmente.

Como parte desse esforço, entrevistei muitos dos pesquisadores de IA que assinaram o documento Princípios, para saber por que eles assinaram e quais questões ainda nos confrontam.

Alinhamento de valor

Hoje, começaremos com o princípio do alinhamento ao valor.

Alinhamento de Valor: Sistemas de IA altamente autônomos devem ser projetados de modo que seus objetivos e comportamentos possam ser assegurados para se alinhar com os valores humanos durante toda a operação.

Stuart Russell, que ajudou a criar a ideia de alinhamento de valores, gosta de comparar isso com a história do rei Midas. Quando o rei Midas pediu que  tudo o que ele tocasse se transformasse em ouro, ele realmente só queria ser rico. Ele não queria que sua comida e seus entes queridos se transformassem em ouro.

A Inteligência Artificial deveria ter direitos?

Enfrentamos uma situação semelhante com a inteligência artificial: como podemos garantir que uma IA faça o que realmente queremos, sem prejudicar os seres humanos em uma tentativa equivocada de fazer o que seu projetista pediu?

“Os robôs não vão tentar se revoltar contra a humanidade”, explica Anca Dragan, professora assistente e colega de Russell na UC Berkeley, “eles apenas tentarão otimizar o que dissermos que façam. Então, precisamos nos certificar de que eles otimizem o mundo que realmente queremos.”

Como alinharemos Inteligência Artificial com valores humanos? 1

O que nós queremos?

Entender o que “nós” queremos está entre os maiores desafios enfrentados pelos pesquisadores de IA.

“A questão, claro, é definir exatamente o que são esses valores, porque as pessoas podem ter culturas diferentes, vêm de diferentes partes do mundo, têm diferentes origens socioeconômicas, acho que as pessoas terão opiniões muito diferentes sobre o que esses valores são. E esse é realmente o desafio”, diz Stefano Ermon, professor assistente da Universidade de Stanford.

Roman Yampolskiy, professor associado da Universidade de Louisville, concorda. Ele explica: “É muito difícil codificar valores humanos em uma linguagem de programação, mas o problema se torna mais difícil pelo fato de que nós, como humanidade, não concordamos com valores comuns, e até partes concordamos em mudar com o tempo”.

Quais as consequências do mal uso da Inteligência Artificial

E enquanto alguns valores são difíceis de obter consenso, há também muitos valores com os quais todos concordamos implicitamente. Como observa Russell, qualquer ser humano entende os valores emocionais e sentimentais com os quais eles foram socializados, mas é difícil garantir que um robô seja programado com o mesmo entendimento.

Mas a pesquisadora da IBM Francesca Rossi está esperançosa. Como aponta Rossi, “há pesquisas científicas que podem ser realizadas para realmente entender como sair desses valores com os quais todos concordamos em incorporá-los ao sistema de IA que está trabalhando com humanos”.

A pesquisa de Dragan trata do problema de uma direção diferente. Em vez de tentar entender as pessoas, ela procura treinar um robô ou uma IA para ser flexível com seus objetivos, pois interage com as pessoas. Ela explica: “Em Berkeley,… achamos importante que os agentes tenham incerteza sobre seus objetivos, em vez de supor que estão perfeitamente especificados e tratam a contribuição humana como observações valiosas sobre o verdadeiro objetivo subjacente desejado”.

[amazon_link asins=’B076DLK9D9′ template=’ProductAd’ store=’suprimatec0d-20′ marketplace=’BR’ link_id=’09dd3744-b60e-11e8-96c1-f1bb590a0e29′]Reescrever o Princípio?

Embora a maioria dos pesquisadores concorde com a ideia subjacente do Princípio do Alinhamento de Valor, nem todos concordam com a forma como são formulados, muito menos como implementá-lo.

Yoshua Bengio, um pioneiro da IA ​​e professor da Universidade de Montreal, sugere que “assegurado” pode ser muito forte. Ele explica: “Pode não ser possível estar completamente alinhado. Há muitas coisas que são inatas, que não conseguiremos aprender com a máquina, e isso pode ser difícil de entender por meio da filosofia ou da introspecção, por isso não é totalmente claro que seremos capazes de nos alinhar perfeitamente. Acho que o texto deve ser algo como ‘nós faremos o melhor possível’. Caso contrário, eu concordo totalmente.”

Walsh, que atualmente é professor convidado da Universidade Técnica de Berlim, questiona o uso da palavra “altamente”. “Acho que qualquer sistema autônomo, mesmo um sistema autônomo de baixa qualidade, deveria estar alinhado com os valores humanos. Eu desabotoaria o “alto”, diz ele.

Uma visão perturbadora sobre nosso futuro com a Inteligência Artificial

Walsh também aponta que, embora o alinhamento de valores seja frequentemente considerado um problema que surgirá no futuro, ele acredita que é algo que precisa ser tratado mais cedo ou mais tarde. “Acho que temos que nos preocupar em impor esse princípio hoje”, explica ele. “Acho que isso será útil para resolver o problema de alinhamento de valor mais desafiador à medida que os sistemas se tornam mais sofisticados.”

Rossi, que apóia o Princípio do Alinhamento de Valor como “o mais próximo do meu coração”, concorda que o princípio deve ser aplicado aos sistemas atuais de IA. “Eu seria ainda mais geral do que você escreveu nesse princípio”, diz ela. “Porque este princípio tem a ver não apenas com sistemas de IA autônomos, mas… é muito importante e essencial também para sistemas que trabalham bem com humanos em loop e onde o humano é o tomador de decisão final. Quando você tem um humano e uma máquina trabalhando juntos, você quer que isso seja uma verdadeira equipe.”

Mas, como Dragan explica, “Este é um passo para ajudar a IA a descobrir o que deve fazer, e refinar continuamente as metas deve ser um processo contínuo entre humanos e IA”.

Deixe o diálogo começar

E agora nós voltamos a conversa para você. O que significa para você ter inteligência artificial alinhada com suas próprias metas de vida e aspirações? Como isso pode ser alinhado com você e com todos os outros no mundo ao mesmo tempo? Como podemos garantir que a versão de uma IA ideal de uma pessoa não dificulte a sua vida? Como podemos concordar com os valores humanos e como podemos garantir que a inteligência artificial compreenda esses valores? Se você tem um assistente pessoal de IA, como deve ser programado para se comportar? Se temos IA mais envolvida em coisas como medicina ou policiamento ou educação, como isso deve ser? O que mais deveríamos, como sociedade, estar perguntando?

Artigo publicado originalmente em Future Life para ver o artigo original em inglês clique aqui.

Sair da versão mobile