Estes princípios foram desenvolvidos em conjunto com a conferência Asilomar 2017 (vídeos aqui).
A inteligência artificial já forneceu ferramentas benéficas que são usadas todos os dias por pessoas ao redor do mundo. Seu desenvolvimento contínuo, guiado pelos seguintes princípios, oferecerá oportunidades incríveis para ajudar e fortalecer as pessoas nas próximas décadas e séculos.
[cash_300_250]
Questões de pesquisa
- Objetivo da pesquisa: O objetivo da pesquisa da IA deve ser criar inteligência não direcionada, mas inteligência benéfica.
- Financiamento para pesquisa: Investimentos em IA devem ser acompanhados de financiamento para pesquisas sobre como garantir seu uso benéfico, incluindo questões espinhosas em ciência da computação, economia, direito, ética e estudos sociais, tais como:
- Como podemos tornar os futuros sistemas de IA altamente robustos, para que eles façam o que quisermos sem o mau funcionamento ou a invasão?
- Como podemos aumentar nossa prosperidade por meio da automação, mantendo os recursos e a finalidade das pessoas?
- Como podemos atualizar nossos sistemas jurídicos para sermos mais justos e eficientes, para manter o ritmo da IA e para gerenciar os riscos associados à IA?
- Com que conjunto de valores a IA deve estar alinhada, e que status legal e ético ela deve ter?
- Link Ciência-Política: Deve haver um intercâmbio construtivo e saudável entre os pesquisadores de IA e os formuladores de políticas.
- Cultura de pesquisa: Uma cultura de cooperação, confiança e transparência deve ser fomentada entre pesquisadores e desenvolvedores de IA.
- Prevenção de Disputa: Equipes que desenvolvem sistemas de inteligência artificial devem cooperar ativamente para evitar cortes nas normas de segurança.
Éticas e valores
- Segurança: Os sistemas AI devem ser seguros e protegidos durante toda a sua vida útil operacional, e verificáveis, quando aplicável e viável.
- Transparência de falha: Se um sistema de IA causar dano, deve ser possível determinar o motivo.
- Transparência Judicial: Qualquer envolvimento de um sistema autônomo na tomada de decisões judiciais deve fornecer uma explicação satisfatória passível de auditoria por uma autoridade humana competente.
- Responsabilidade: Designers e construtores de sistemas avançados de IA são partes interessadas nas implicações morais de seu uso, uso indevido e ações, com responsabilidade e oportunidade de moldar essas implicações.
- Alinhamento de valor: Sistemas de IA altamente autônomos devem ser projetados de modo que seus objetivos e comportamentos possam ser assegurados para alinhar com os valores humanos durante toda a operação.
- Valores Humanos: Os sistemas de IA devem ser projetados e operados de modo a serem compatíveis com os ideais da dignidade humana, direitos, liberdades e diversidade cultural.
- Privacidade Pessoal: As pessoas devem ter o direito de acessar, gerenciar e controlar os dados que geram, dado o poder dos sistemas de AI de analisar e utilizar esses dados.
- Liberdade e Privacidade: A aplicação da IA aos dados pessoais não deve restringir de forma injustificável a liberdade real ou percebida das pessoas.
- Benefício compartilhado: tecnologias AI devem beneficiar e capacitar o maior número de pessoas possível.
- Prosperidade compartilhada: A prosperidade econômica criada pela IA deve ser compartilhada amplamente, para beneficiar toda a humanidade.
- Controle Humano: Os seres humanos devem escolher como e se devem delegar decisões aos sistemas de IA, para realizar os objetivos escolhidos pelo homem.
- Não-subversão: O poder conferido pelo controle de sistemas de IA altamente avançados deve respeitar e melhorar, ao invés de subverter, os processos sociais e cívicos dos quais depende a saúde da sociedade.
- Corrida armamentista com IA: Uma corrida armamentista em armas autônomas letais deve ser evitada.
Problemas de longo prazo
- Capacidade Atenção: Não havendo consenso, devemos evitar fortes suposições sobre os limites superiores de capacidades futuras de IA.
- Importância: A IA avançada pode representar uma mudança profunda na história da vida na Terra, e deve ser planejada e administrada com cuidado e recursos adequados.
- Riscos: Os riscos colocados pelos sistemas de IA, especialmente os riscos catastróficos ou existenciais, devem estar sujeitos a esforços de planejamento e mitigação proporcionais ao impacto esperado.
- Auto-Aprimoramento Recursivo: Sistemas de IA projetados para melhorar ou auto-replicar-se recursivamente de uma maneira que poderia levar a um aumento rápido da qualidade ou quantidade, devem estar sujeitos a rígidas medidas de segurança e controle.
- Bem comum: A superinteligência deve ser desenvolvida apenas a serviço de ideais éticos amplamente compartilhados, e para o benefício de toda a humanidade e não de um estado ou organização.
Fonte: Future Of Life