Porque robôs precisam poder desobedecer humanos

Em quais situações um robô precisa ser capaz de dizer "não" a um humano?

Você deve fazer sempre o que mandam você fazer? Claro que não. Todos sabem disso. Então robôs no futuro devem obedecer sempre às nossas ordens? Em uma primeira análise, você pode pensar que sim, simplesmente por serem máquinas desenvolvidas para isso. Mas pense sobre as vezes que você não faria qualquer coisa sem refletir antes—agora coloque um robô nessa situação.

Considere:

– Um robô que cuida de um idoso com memória ruim que é ordenado a lavar as roupas, mesmo que elas tenham acabado de sair da máquina de lavar roupas;

– Uma criança que ordena a um robô que atire uma bola por uma janela;

– Um estudante comandando seu robô tutor a fazer toda sua lição de casa em vez de ele mesmo fazer;

– Um robô cuidador de casa instruído por seu dono ocupado e distraído a jogar o lixo fora mesmo com talheres jogados no saco.

Existem vários casos benignos com robôs recebendo ordens que não deveriam ser obedecidas pois levariam a resultados indesejados. Mas nem todos os casos serão tão inócuos, mesmo que os seus comandos inicialmente pareçam ser.

Considere um carro autônomo instruído a dar ré enquanto um cachorro está dormindo no caminho, ou um robô auxiliador de cozinha instruído a carregar uma faca e andar em frente quando está posicionado atrás de um chef. Os comandos são simples, mas os resultados são significativamente piores.

Como nós humanos podemos evitar resultados ruins a partir da obediência de robôs? Se manobrar ao redor do cachorro não fosse possível, o carro teria que se recusar a sair do lugar. De forma similar, se evitar esfaquear o cozinheiro não fosse possível, o robô teria que parar de andar ou sequer pegar a faca.

Em qualquer caso, é essencial para essas máquinas autônomas detectar o potencial de dano que suas ações podem causar e reagir a isso. Seja evitando o problema, ou, em caso de danos inevitáveis, o robô deveria se recusar a obedecer a ordem. Mas como ensinamos aos robôs quando é razoável dizer não?

Como robôs podem prever o que vai acontecer?

Em nosso laboratório, começamos a desenvolver controles robóticos que fazem interferências simples em comandos humanos. Esses irão determinar quando um robô deve obedecer às ordens ou quando deve rejeita-las pois elas violam princípios éticos que a máquina foi construída para seguir.

Dizer para robôs como e quando – e também porque – desobedecer uma ordem é algo muito mais fácil de ser dito do que feito. Entender quais danos e problemas podem resultar de uma ação não é uma questão simples de ser percebida. Uma bola jogada pela janela pode terminar no jardim e não causar qualquer dano. Mas a bola poderia facilmente acabar em uma rua movimentada, nunca mais ser encontrada, ou ainda causar um acidente entre carros. Contexto faz toda a diferença.

É difícil para os robôs de hoje determinar quando é aceitável atirar uma bola – como para brincar com uma criança – e quando não é – como atirar a bola pela janela ou no lixo. É ainda mais difícil se a criança estiver tentando enganar o robô, fingindo brincar, mas esquivando-se e deixando a bola desaparecer pela janela aberta.

Explicando moralidade e leis a um robô

Entender esses perigos envolve uma quantidade significativa de conhecimento (incluindo a perspectiva de que jogar bola em frente a uma janela aberta pode acabar com a bola indo para fora). Requer que o robô não considere apenas o resultado de suas ações, mas também contemple as intenções que humanos têm ao dar determinadas ordens.

Para lidar com as complicações de instruções humanas – benevolentes ou não – robôs precisam ser capazes de raciocinar as consequências das ações e comparar os resultados com os princípios morais e sociais estabelecidos que prescrevem o que é ou não é desejável ou legal. Como visto acima, nosso robô tem uma regra geral que diz, se você foi instruído a fazer uma ação que pode causar danos, então você tem permissão para não cumprir a ordem. Fazer uma relação entre obrigações e permissões permite que o robô reflita sobre as possíveis consequências de uma instrução e se ela é aceitável.

Em geral, robôs nunca deveriam fazer ações ilegais, nem deveriam fazer ações que não são desejáveis do ponto de vista legal. Assim, eles vão precisar de representações de leis, normas morais e até etiqueta para determinar se o resultado de uma instrução, ou mesmo da própria ação, esteja violando um desses princípios.

Enquanto nossos programas ainda estão distantes do que seria necessário para lidar com os cenários descritos acima, nosso sistema atual já prova um ponto essencial: robôs precisam ser capazes de desobedecer ordens para obedecer.

Este texto foi publicado no The Conversaton. Ele foi escrito po Matthias Scheutz, professor de ciência da computação da Tufts University.The Conversation

Comentários
Deixe um comentário

Olá, ( log out )

* A Abril não detém qualquer responsabilidade sobre os comentários postados abaixo, sendo certo que tais comentários não representam a opinião da Abril. Referidos comentários são de integral e exclusiva responsabilidade dos usuários que escreveram os respectivos comentários.

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s