Inteligência Artificial

Quem será responsabilizado legalmente quando máquinas inteligentes causarem acidentes?

O surgimento de máquinas artificialmente inteligentes terá um custo, mas com o potencial de perturbar e transformar a sociedade em uma escala não vista desde a Revolução Industrial. Os empregos serão perdidos, mas novos campos de inovação se abrirão.

As mudanças adiante exigirão que repensemos atitudes e filosofias, para não mencionar leis e regulamentos. Algumas pessoas já estão debatendo as implicações de um mundo automatizado, dando origem a think tanks e conferências sobre IA, como o fórum anual We Robot, que tem uma abordagem acadêmica para as questões de política.

Ryan Abbott, advogado de patente registrada e médico certificado, escreve sobre o impacto da inteligência artificial na propriedade intelectual, saúde e direito de responsabilidade civil. Conversamos com ele no ano passado sobre as questões espinhosas envolvendo a propriedade da patente quando a mãe da invenção é uma máquina. Agora, a Abbott entrou no espaço igualmente espinhoso da lei de responsabilidade civil e quem, ou o que, é responsável quando as máquinas causam acidentes.

“Estes são tópicos muito populares”, diz Abbott durante uma entrevista. “Essas tecnologias vão mudar fundamentalmente a maneira como interagimos com as máquinas. Elas vão mudar radicalmente a sociedade e têm importantes implicações legais”.

Professor de direito e ciências da saúde na Faculdade de Direito da Universidade de Surrey e professor adjunto de medicina na Escola de Medicina David Geffen da UCLA, Abbott não é o primeiro a abordar as implicações legais dos acidentes causados por computador.

Em 2014, por exemplo, um importante relatório sobre RoboLaw da União Européia sugeriu a criação de um tipo de fundo de seguro para compensar os feridos por computadores com IA. Um artigo anterior no Boston Globe que pesquisou especialistas em campos que vão desde a filosofia à robótica parecia encontrar consenso sobre uma coisa: o status legal dos robôs inteligentes exigirá um “ato de equilíbrio”.

8 maneiras que a Inteligência Artificial irá mudar profundamente a nossa vida

Abbott parece ser o primeiro a sugerir em um breve estudo ainda a ser publicado que as leis de delito tratam máquinas com IA como pessoas quando se trata de questões de responsabilidade. E, talvez mais radicalmente, ele sugere que as pessoas sejam julgadas contra a competência de um computador quando a AI se revela consistentemente mais segura do que um ser humano.

Atualmente, a lei trata máquinas como se todos fossem criados iguais, como produtos de consumo simples. Na maioria dos casos, quando ocorre um acidente, aplicam-se normas de responsabilidade estrita ao produto. Em outras palavras, a menos que um consumidor use um produto de forma escandalosa ou ignore grosseiramente os avisos de segurança, o fabricante é automaticamente considerado culpado.

“A maioria dos ferimentos que as pessoas causam são avaliadas sob um padrão de negligência, o que exige conduta não razoável para estabelecer a responsabilidade”, observa Abbott em seu artigo, intitulado tentativamente, “Atribuição de responsabilidade por danos gerados por computador”.

“No entanto, quando computadores causam as mesmas lesões, um padrão de responsabilidade estrita se aplica. Esta distinção tem consequências financeiras significativas e o correspondente impacto na taxa de adoção da tecnologia. Isso desencoraja a automação, porque máquinas implicam maior responsabilidade do que as pessoas.”

Transformar as máquinas de pensamento em pessoas, pelo menos em um tribunal de direito, não absolve as empresas de responsabilidade, mas permite que aceitem mais riscos enquanto ainda fabricam máquinas que são seguras para uso, de acordo com a Abbott.

“Eu acho que minha proposta é uma maneira criativa de mexer com a forma como a lei funciona para incentivar a automação sem forçá-la”, diz ele.

Abbott argumenta com um estudo de caso focado em veículos de condução automática, possivelmente a tecnologia mais imediatamente disruptiva de hoje e já considerado mais seguro do que os motoristas humanos, apesar de alguns acidentes de alto perfil no ano passado envolvendo o sistema Tesla de piloto automático.

“Carros com condução automática estão aqui entre nós e vão estar em todo o lugar muito em breve”, observa Abbott, acrescentando que, mudando a carga de responsabilidade estrita à negligência iria acelerar a adoção de tecnologia sem motorista, melhorar a segurança e, finalmente, salvar vidas.

Carro sem motorista e totalmente autônomos

Em 2015, por exemplo, mais de 35.000 pessoas nos Estados Unidos morreram em acidentes de trânsito, a maioria causada por erro humano, de acordo com o Instituto de Seguros de Highway Safety Highway Loss Data Institute. Cornell, professor de ciência da computação e diretor do Instituto de Sistemas Inteligentes de Informação da universidade, Bart Selman, disse recentemente ao jornalista Michael Belfiore que em três anos os carros sem motorista seriam dez vezes mais seguros do que os seres humanos e 100 vezes mais seguros dentro de uma década. As economias em vidas humanas e danos são evidentes.

A Administração Nacional de Segurança Rodoviária dos EUA apenas colocou um ponto de exclamação quando lançou suas descobertas completas sobre a fatalidade da Tesla na Flórida. A agência descartou qualquer falha no sistema de piloto automático no acidente e até mesmo elogiou seu projeto de segurança, de acordo com uma história no TechCrunch. O relatório observou que as taxas de acidentes envolvendo os carros da Tesla caíram quase 40% desde que o Autopilot entrou em operação.

A segurança também é a grande razão pela qual a Abbott argumenta que, num futuro não muito distante, o erro humano na lei de responsabilidade civil será medido contra a competência infalível das máquinas.

“Isso significa que os réus não teriam mais a sua responsabilidade com base no que uma pessoa hipotética e razoável teria feito em sua situação, mas o que um computador teria feito”, escreve Abbott. “Embora isso signifique que os melhores esforços da pessoa média já não serão suficientes para evitar a responsabilidade, a regra beneficiaria o bem-estar geral.”

O nível de ansiedade humana sobre a revolução da máquina que vem já é alto, então isso não seria apenas adicionar à nossa ansiedade exponencial? Abbott argumenta que suas propostas não são sobre a diminuição das habilidades humanas, mas reconhecendo a realidade de que as máquinas serão mais seguras para fazer alguns trabalhos mais do que os seres humanos.

E não apenas atrás do volante de um carro. Watson da IBM, entre outros sistemas de IA, já está trabalhando no campo médico, incluindo a oncologia. Enquanto isso, um estudo de 2016 no British Medical Journal informou que o erro humano é a terceira principal causa de morte nos Estados Unidos.

Se Watson MD tiver um registro de segurança maior do que o Dr. Smith, quem você escolheria para se tratar?

“Em última análise, somos todos consumidores e potenciais vítimas de acidentes, e acho que é algo que as pessoas poderiam apoiar”, diz Abbott. “Eu acho que quando as pessoas vêem o impacto positivo dele, ele vai mudar as atitudes.”

Fonte: SingularityHub

Eder Oelinton

Jornalista, amante de tecnologia e curioso por natureza. Busco informações todos os dias para publicar para os leitores evoluírem cada dia mais. Além de muitas postagens sobre varias editorias!

Artigos relacionados

8 Comentários

  1. Tema complexo! Atrás de uma máquina, está um ser humano. Seja o que projetou, programou, construiu ou que a opera. Difícil saber em que ponto a responsabilidade passaria a ser da “máquina”, e se um dia soubermos, que tipo de punição se aplicaria?

    Parabéns pelo artigo!

Deixe um comentário

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.

Botão Voltar ao topo