Os 23 princípios da Inteligência Artificial

Estes princípios foram desenvolvidos em conjunto com a conferência Asilomar 2017 (vídeos aqui).

A inteligência artificial já forneceu ferramentas benéficas que são usadas todos os dias por pessoas ao redor do mundo. Seu desenvolvimento contínuo, guiado pelos seguintes princípios, oferecerá oportunidades incríveis para ajudar e fortalecer as pessoas nas próximas décadas e séculos.

[cash_300_250]

Questões de pesquisa

  1. Objetivo da pesquisa: O objetivo da pesquisa da IA ​​deve ser criar inteligência não direcionada, mas inteligência benéfica.
  2. Financiamento para pesquisa: Investimentos em IA devem ser acompanhados de financiamento para pesquisas sobre como garantir seu uso benéfico, incluindo questões espinhosas em ciência da computação, economia, direito, ética e estudos sociais, tais como:
    1. Como podemos tornar os futuros sistemas de IA altamente robustos, para que eles façam o que quisermos sem o mau funcionamento ou a invasão?
    2. Como podemos aumentar nossa prosperidade por meio da automação, mantendo os recursos e a finalidade das pessoas?
    3. Como podemos atualizar nossos sistemas jurídicos para sermos mais justos e eficientes, para manter o ritmo da IA ​​e para gerenciar os riscos associados à IA?
    4. Com que conjunto de valores a IA deve estar alinhada, e que status legal e ético ela deve ter?
  3. Link Ciência-Política: Deve haver um intercâmbio construtivo e saudável entre os pesquisadores de IA e os formuladores de políticas.
  4. Cultura de pesquisa: Uma cultura de cooperação, confiança e transparência deve ser fomentada entre pesquisadores e desenvolvedores de IA.
  5. Prevenção de Disputa: Equipes que desenvolvem sistemas de inteligência artificial devem cooperar ativamente para evitar cortes nas normas de segurança.

Éticas e valores

  1. Segurança: Os sistemas AI devem ser seguros e protegidos durante toda a sua vida útil operacional, e verificáveis, quando aplicável e viável.
  2. Transparência de falha: Se um sistema de IA causar dano, deve ser possível determinar o motivo.
  3. Transparência Judicial: Qualquer envolvimento de um sistema autônomo na tomada de decisões judiciais deve fornecer uma explicação satisfatória passível de auditoria por uma autoridade humana competente.
  4. Responsabilidade: Designers e construtores de sistemas avançados de IA são partes interessadas nas implicações morais de seu uso, uso indevido e ações, com responsabilidade e oportunidade de moldar essas implicações.
  5. Alinhamento de valor: Sistemas de IA altamente autônomos devem ser projetados de modo que seus objetivos e comportamentos possam ser assegurados para alinhar com os valores humanos durante toda a operação.
  6. Valores Humanos: Os sistemas de IA devem ser projetados e operados de modo a serem compatíveis com os ideais da dignidade humana, direitos, liberdades e diversidade cultural.
  7. Privacidade Pessoal: As pessoas devem ter o direito de acessar, gerenciar e controlar os dados que geram, dado o poder dos sistemas de AI de analisar e utilizar esses dados.
  8. Liberdade e Privacidade: A aplicação da IA ​​aos dados pessoais não deve restringir de forma injustificável a liberdade real ou percebida das pessoas.
  9. Benefício compartilhado: tecnologias AI devem beneficiar e capacitar o maior número de pessoas possível.
  10. Prosperidade compartilhada: A prosperidade econômica criada pela IA deve ser compartilhada amplamente, para beneficiar toda a humanidade.
  11. Controle Humano: Os seres humanos devem escolher como e se devem delegar decisões aos sistemas de IA, para realizar os objetivos escolhidos pelo homem.
  12. Não-subversão: O poder conferido pelo controle de sistemas de IA altamente avançados deve respeitar e melhorar, ao invés de subverter, os processos sociais e cívicos dos quais depende a saúde da sociedade.
  13. Corrida armamentista com IA: Uma corrida armamentista em armas autônomas letais deve ser evitada.

Problemas de longo prazo

  1. Capacidade Atenção: Não havendo consenso, devemos evitar fortes suposições sobre os limites superiores de capacidades futuras de IA.
  2. Importância: A IA avançada pode representar uma mudança profunda na história da vida na Terra, e deve ser planejada e administrada com cuidado e recursos adequados.
  3. Riscos: Os riscos colocados pelos sistemas de IA, especialmente os riscos catastróficos ou existenciais, devem estar sujeitos a esforços de planejamento e mitigação proporcionais ao impacto esperado.
  4. Auto-Aprimoramento Recursivo: Sistemas de IA projetados para melhorar ou auto-replicar-se recursivamente de uma maneira que poderia levar a um aumento rápido da qualidade ou quantidade, devem estar sujeitos a rígidas medidas de segurança e controle.
  5. Bem comum: A superinteligência deve ser desenvolvida apenas a serviço de ideais éticos amplamente compartilhados, e para o benefício de toda a humanidade e não de um estado ou organização.

Fonte: Future Of Life

Sair da versão mobile