As famosas Três Leis de Asimov

Se você já teve algum contato com robótica para além de configurar seu aspirador de pó “inteligente” ou apenas é uma pessoa geek, já deve ter ouvido falar das chamadas “3 Leis da Robótica” ou “3 Leis de Asimov”, certo? Caso a resposta tenha sido “não”, explico aqui rapidinho o que elas são.

Em 1942, num conto de ficção científica chamado “Runaround”, o escritor e bioquímico russo-estadounidense, Isaac Asimov, escreveu três princípios que regeriam o modo de ser e de agir dos robôs no mundo, de forma que os androides não tivessem um impacto negativo às pessoas e à sociedade; Essas “leis” seriam codificadas internamente em seus “cérebros positrônicos”. Eventualmente, esse conto foi colocado no livro “Eu, Robô” junto com outros que englobavam o mesmo tema. Eis aqui abaixo as três leis da robótica, em português, na tradução de Aline Storto Pereira:

A primeira: um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano venha a ser ferido.

[…] A segunda […]: um robô deve obedecer às ordens dadas por seres humanos, exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.

[…] a terceira: um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou com a Segunda Lei. (ASIMOV, 2014)[1]

Olhando para essas leis de forma bem rápida e superficial, sem pensar muito nos detalhes técnicos ou éticos, parece até que elas são bem amarradas e fazem total sentido, certo? Um robô (que, para os fins deste texto, consideraremos também inteligência artificial, de forma geral) vai proteger a si mesmo, sem desobedecer os seres humanos e, principalmente, sem ferir uma pessoa.

Essa aparente harmonia e falsa logicidade das leis parece ter cativado algumas pessoas que, para grande surpresa, as têm usado como base de argumentação para se falar sobre regulação, impacto e aplicação de sistemas de inteligência artificial, tanto aqui no Brasil como fora. No entanto, há diversos problemas nisso e é objetivo aqui elencar alguns deles. Quatro, para ser exata.

Existe também uma “lei zero” que é essencialmente a primeira, mas envolvendo a humanidade em vez do ser humano, não precisamos entrar nela, pois só essas três já dão bastante assunto e os problemas envolvidos em utilizá-las nos debates de IA são os mesmos quando considerada a lei zero.

 

3 Leis, 4 Problemas

O Problema da Ficcionalidade

O primeiro e mais claro problema que surge quando se toma essas leis como base para as discussões reais de IA na sociedade hoje, é o fato de que elas são ficção. Quando Asimov as criou, como escritor, elas serviam como um artifício narrativo, um elemento da história que faz a mesma se mover e criar conflitos para os personagens, e não uma fundamentação teórica para a tecnologia futura.

Para além disso, você que lê esse texto vai me perdoar pelo spoiler, mas nem nos contos de “Eu, Robô” esses princípios funcionam! Basicamente, as histórias no livro giram em torno de ambiguidades, conflitos e indefinições que as leis têm entre si e como os personagens usam da esperteza para tirar proveito disso e resolver o desafio que surge.

Mas, tudo bem, algumas tecnologias surgem primeiro no imaginário humano e na ficção antes de virem para a realidade (que o diga Júlio Verne), então talvez ocorreria isso com as leis de Asimov…

Se não fossem algumas questões técnicas que vale explorarmos.

 

O Problema Simbólico

Dentro dos aspectos técnicos, para que essas leis pudessem ser acessadas e usadas como uma baliza, uma fonte de consulta ou um classificador de ações, elas precisariam estar codificadas programaticamente em comandos lógicos ou através de uma função matemática, mas há um problema já na base disso: elas foram escritas em inglês.

A chamada linguagem natural, falada ou sinalizada pelos seres humanos, é bem distinta das linguagens de programação, usadas para se criar algoritmos; programas de computador; páginas da internet. Para se programar, é preciso que não haja ambiguidade nem vagueza. Nenhum algoritmo pode ser ambíguo (apesar de poder ser aleatório ou pseudo-aleatório, mas não cabe ao escopo deste texto falar disso), no entanto, a linguagem humana possui bastante ambiguidade e termos vagos que causariam problemas para as máquinas.

Como Rob Miles fala no vídeo Why Asimov’s Laws of Robotics Don’t Work, nós sabemos o  que é um “ser humano” não porque temos um conjunto definido de características e propriedades que satisfazem a categoria “ser humano”, mas porque nós aprendemos utilizando algum mecanismo de associação genérica, a nossa aprendizagem. Como definir o que é um humano para um robô? Que características compõem uma pessoa? Quem morreu ainda é humano? E um feto, é um ser humano? Até hoje o tema é um debate. Um exemplo dessa longa discussão, com relevantes aspectos políticos, é o das discussões sobre o direito que a mulher teria de abortar, e os direitos que ela tem sobre o seu próprio corpo.

O corpo é um dado relevante para analisarmos a terceira lei. O que seria a “própria existência” de um robô que deve ser protegida? Se você defende que é a integridade do hardware, então uma remoção de bateria ou troca de peça poderiam ser ameaças, já se for apenas o software, então um robô poderia, de forma omissa, não se atualizar, por exemplo. Uma reflexão simples, portanto, com um leve exercício de imaginação, mostra o quão vagas essas palavras, esses símbolos, são.

Hoje em dia a inteligência artificial tornou-se sinônimo de aprendizagem de máquina, então seria possível tentar mimetizar as pessoas e, em vez de definir formal e matematicamente esses termos, fazer a IA aprender estatisticamente eles. A questão é que também há complicações nessa abordagem.

 

O Problema Estatístico

Quando se fala em algoritmos de aprendizagem de máquina, como redes neurais, florestas de decisão ou máquinas de vetores de suporte, é preciso entender que esses modelos precisam de dados para aprender. Ainda mais, que “aprender”, nesse caso, é otimizar uma função tal que, dada uma entrada, seja produzida uma saída com finalidade de classificar aquela entrada, agrupá-la e/ou modificar o ambiente onde o sistema atua.

Sobre as leis de Asimov, para torná-las factíveis precisaríamos então de um grande conjunto de dados para que pudéssemos classificar uma ação em algo que quebra ou respeita as leis (seguindo a ordem de precedência delas). Por si só, isso já é suscetível aos problemas que temos hoje quando falamos de sistemas de inteligência artificial. Como esses dados seriam coletados? Como seriam representados? E em relação aos vieses e impactos destes para as pessoas?

Não são poucos os casos de pessoas lesadas por sistemas que tomam decisões baseadas em modelos de IA. Reconhecimento facial, concessão de crédito, sistemas de recomendação, em todos esses campos vemos notícias de como os algoritmos podem ser racistas, misóginos, transfóbicos (porque a tecnologia não é neutra, como explica muito bem Clarissa Mendes em seu texto Inteligência Artificial: a máquina é neutra, o ser humano que a corrompe?).

Além disso, seria preciso definir algum tipo de função matemática que pudesse calcular o quanto uma pessoa ou a “própria existência” do robô está sendo ferida (lembra do problema simbólico?), o que por si só é uma tarefa bem complicada.

 

O Problema Ético

Por fim, saindo um pouco dos aspectos técnicos computacionais, que foram apenas apresentados aqui sem tanto aprofundamento, há um perigo em se utilizar esses princípios fictícios nos debates atuais e reais sobre IA envolvendo a própria ética.

Reduzir a ética da inteligência artificial (na robótica e fora dela) a essas leis desconsidera séculos de pesquisa e debate éticos, ignora as diversas escolas de pensamento que devem ser ponderadas nessas discussões e as torna rasas, o que favorece o desenvolvimento pouco ou nada crítico dessas tecnologias. O tema ganha ainda mais relevância num contexto de criação de padrões regulatórios da IA ao redor do mundo. Então, por todos esses motivos, não mencione as leis de Asimov nas discussões reais.

 


[1] ASIMOV, Isaac. Eu, Robô. Tradução de Aline Storto Pereira. 1ª ed. Editora Aleph, 2014.

 

Lunara Santana

Pessoa pesquisadora do IP.rec nas áreas de Inteligência Artificial e Regulação de Plataformas Digitais, possui graduação em Ciência da Computação pela Universidade Federal de Pernambuco (UFPE) e tem experiência nas áreas de aprendizagem de máquina, processamento de linguagem natural, recuperação de informação e engenharia de linguagens de programação.

Compartilhe

Posts relacionados