fbpx
Inteligência Artificial

Os 23 princípios da Inteligência Artificial

Estes princípios foram desenvolvidos em conjunto com a conferência Asilomar 2017 (vídeos aqui).

A inteligência artificial já forneceu ferramentas benéficas que são usadas todos os dias por pessoas ao redor do mundo. Seu desenvolvimento contínuo, guiado pelos seguintes princípios, oferecerá oportunidades incríveis para ajudar e fortalecer as pessoas nas próximas décadas e séculos.

[cash_300_250]

Questões de pesquisa

  1. Objetivo da pesquisa: O objetivo da pesquisa da IA ​​deve ser criar inteligência não direcionada, mas inteligência benéfica.
  2. Financiamento para pesquisa: Investimentos em IA devem ser acompanhados de financiamento para pesquisas sobre como garantir seu uso benéfico, incluindo questões espinhosas em ciência da computação, economia, direito, ética e estudos sociais, tais como:
    1. Como podemos tornar os futuros sistemas de IA altamente robustos, para que eles façam o que quisermos sem o mau funcionamento ou a invasão?
    2. Como podemos aumentar nossa prosperidade por meio da automação, mantendo os recursos e a finalidade das pessoas?
    3. Como podemos atualizar nossos sistemas jurídicos para sermos mais justos e eficientes, para manter o ritmo da IA ​​e para gerenciar os riscos associados à IA?
    4. Com que conjunto de valores a IA deve estar alinhada, e que status legal e ético ela deve ter?
  3. Link Ciência-Política: Deve haver um intercâmbio construtivo e saudável entre os pesquisadores de IA e os formuladores de políticas.
  4. Cultura de pesquisa: Uma cultura de cooperação, confiança e transparência deve ser fomentada entre pesquisadores e desenvolvedores de IA.
  5. Prevenção de Disputa: Equipes que desenvolvem sistemas de inteligência artificial devem cooperar ativamente para evitar cortes nas normas de segurança.

AnhangueraPos

Éticas e valores

  1. Segurança: Os sistemas AI devem ser seguros e protegidos durante toda a sua vida útil operacional, e verificáveis, quando aplicável e viável.
  2. Transparência de falha: Se um sistema de IA causar dano, deve ser possível determinar o motivo.
  3. Transparência Judicial: Qualquer envolvimento de um sistema autônomo na tomada de decisões judiciais deve fornecer uma explicação satisfatória passível de auditoria por uma autoridade humana competente.
  4. Responsabilidade: Designers e construtores de sistemas avançados de IA são partes interessadas nas implicações morais de seu uso, uso indevido e ações, com responsabilidade e oportunidade de moldar essas implicações.
  5. Alinhamento de valor: Sistemas de IA altamente autônomos devem ser projetados de modo que seus objetivos e comportamentos possam ser assegurados para alinhar com os valores humanos durante toda a operação.
  6. Valores Humanos: Os sistemas de IA devem ser projetados e operados de modo a serem compatíveis com os ideais da dignidade humana, direitos, liberdades e diversidade cultural.
  7. Privacidade Pessoal: As pessoas devem ter o direito de acessar, gerenciar e controlar os dados que geram, dado o poder dos sistemas de AI de analisar e utilizar esses dados.
  8. Liberdade e Privacidade: A aplicação da IA ​​aos dados pessoais não deve restringir de forma injustificável a liberdade real ou percebida das pessoas.
  9. Benefício compartilhado: tecnologias AI devem beneficiar e capacitar o maior número de pessoas possível.
  10. Prosperidade compartilhada: A prosperidade econômica criada pela IA deve ser compartilhada amplamente, para beneficiar toda a humanidade.
  11. Controle Humano: Os seres humanos devem escolher como e se devem delegar decisões aos sistemas de IA, para realizar os objetivos escolhidos pelo homem.
  12. Não-subversão: O poder conferido pelo controle de sistemas de IA altamente avançados deve respeitar e melhorar, ao invés de subverter, os processos sociais e cívicos dos quais depende a saúde da sociedade.
  13. Corrida armamentista com IA: Uma corrida armamentista em armas autônomas letais deve ser evitada.

Business Category (Portuguese)300x250

Problemas de longo prazo

  1. Capacidade Atenção: Não havendo consenso, devemos evitar fortes suposições sobre os limites superiores de capacidades futuras de IA.
  2. Importância: A IA avançada pode representar uma mudança profunda na história da vida na Terra, e deve ser planejada e administrada com cuidado e recursos adequados.
  3. Riscos: Os riscos colocados pelos sistemas de IA, especialmente os riscos catastróficos ou existenciais, devem estar sujeitos a esforços de planejamento e mitigação proporcionais ao impacto esperado.
  4. Auto-Aprimoramento Recursivo: Sistemas de IA projetados para melhorar ou auto-replicar-se recursivamente de uma maneira que poderia levar a um aumento rápido da qualidade ou quantidade, devem estar sujeitos a rígidas medidas de segurança e controle.
  5. Bem comum: A superinteligência deve ser desenvolvida apenas a serviço de ideais éticos amplamente compartilhados, e para o benefício de toda a humanidade e não de um estado ou organização.

Fonte: Future Of Life

Eder Oelinton

Jornalista, amante de tecnologia e curioso por natureza. Busco informações todos os dias para publicar para os leitores evoluírem cada dia mais. Além de muitas postagens sobre varias editorias!

Artigos relacionados

Deixe uma resposta

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.

Botão Voltar ao topo
%d blogueiros gostam disto: