17 de outubro de 2009

Eu, Robô


      No domingo último, dia 11/10/2009, a Globo exibiu o filme Eu, Robô, na sessão Domingo Maior (o que particularmente acho um absurdo, um filme tão bom merecia um horário melhor, mesmo que já tenha sido exibido várias vezes). O filme, baseado em uma série de nove histórias curtas de Isaac Asimov (publicadas primeiramente em 1950), esbanja cenas de ação intensa, efeitos especiais magníficos e todo um conceito visual que permanecerá moderno provavelmente por muitos anos. Apesar de ser interessante por exemplo o fato de que o filme não segue nenhuma das histórias curtas de Asimov, o foco aqui não é exatamente esse. Aqui, resta uma pergunta: o que, no mundo de Eu, Robô, é realmente possível de ser visto, mesmo que daqui a milênios de evolução tecnológica, no mundo real?

      Pode parecer estranho, mas quase nada ali é realmente impossível. A ciência atual não consegue imitar o caminhar humano (quanto menos uma corrida ou uma luta vertiginosa como as do filme), porém dá passos nessa direção já há um bom tempo. O cérebro positrônico (uma das heranças de Asimov) não existe nem é previsto pela ciência (visto ser pura ficção científica dos anos 50, quando o pósitron havia sido descoberto), mas sistemas parecidos estão em constante evolução. Próteses como a do personagem de Will Smith detetive Spooner também estão sendo desenvolvidas (merecendo crédito aqui o brasileiro Miguel Nicolelis por seu trabalho na neurologia). Carros que andam sobre esferas, e não rodas, e outras características são mais possíveis ainda, bastando apenas a evolução necessária da tecnologia. A real dificuldade em Eu, Robô consiste mesmo na lógica.
      O filme é fundamentado nas Três Leis da Robótica – criadas por Asimov na história de 1942 “Runaround” - que regem todo e qualquer robô ou sistema de I.A. (no filme!). Para quem não se lembra, ou não assistiu:

“1ª lei: Um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra algum mal.
2ª lei: Um robô deve obedecer as ordens que lhe sejam dadas por seres humanos, exceto nos casos em que tais ordens contrariem a Primeira Lei.
3ª lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira e Segunda Leis.”

      Para um humano as regras são simples de serem seguidas, certo? Bem, até certo ponto. O filme mostra isso. O personagem de Will Smith, o detetive Spooner, tem repulsa a robôs porque em um acidente um robô preferiu salvá-lo a salvar uma criança, que estatísticamente tinha menos chances de sobreviver. O que acontece ali é que o tal robô não percebeu o contexto, e é aí que se torna praticamente impossível aplicar as três leis em máquinas.
      Uma máquina não enxerga contextos. Para que ela possa enxergá-los, deve ser escrito um conjunto de instruções para cada caso possível, cada combinação possível, o que na Teoria da Computação é chamado de “explosão combinatória”. Para exemplificar, se você perguntasse a um computador “Onde está o nariz de Maria quando Maria está na casa dela?”, por incrível que pareça, ele não seria capaz de responder. Isto porque um computador não sabe que o nariz costuma ficar no rosto do dono. E se ele fosse programado para responder que o nariz “está na casa”, responderia também assim à pergunta “Onde está a mochila de Maria quando Maria está na casa dela?”. Nesse caso, a resposta certa seria “não sei”.
      O contexto depende, ainda, de aprendizado. Só sabemos que narizes ficam no rosto de seus donos porque temos contato com nosso próprio nariz e o de outros, ou seja, aprendemos o contexto em que um nariz existe. Máquinas atuais são capazes de aprender a responder a estímulos, aprender a solucionar problemas sem que estes estejam descritos em sua configuração inicial. Porém, para um robô (atual) com mãos e olhos, um nariz não é um nariz. É apenas uma descrição matemática de algo com que ele deve interagir. Assim, o contexto ainda não pode ser aprendido por robôs baseados apenas na lógica comum.

      Mas, supondo que o contexto possa ser aprendido por robôs, as Três Leis ainda incorrem em um “crime” lógico: são ambíguas. Em lógica computacional (e aqui não estamos falando apenas de computadores, mas sim de qualquer máquina capaz de entender instruções), nada pode ser ambíguo. Tomando por exemplo a segunda parte da 1ª Lei, que diz que um robô não pode, “por omissão, permitir que um ser humano sofra algum mal”. Inicialmente, a lógica desta Lei se aplicaria apenas aos seres humanos próximos. Porém, com o tempo, um sistema elaborado de I.A. (como a V.I.K.I. do filme) estenderia a aplicação desta Lei para qualquer ser humano existente. E aí a resposta lógica resultante seria quase ilimitada: o sistema deveria proteger todos os seres humanos contra tudo – resultando justamente na resposta que a V.I.K.I. encontrou para este problema. Porém, um sistema desse tipo não poderia – como a V.I.K.I. fez – encontrar uma resposta que agrida a algum ser humano.
       Cabe aqui uma nota. Asimov adicionou, depois da publicação original de seus contos, uma nova lei às três leis já existentes, que acaba sendo uma variação da 1ª lei, e é chamada de Lei nº 0:

“Um robô não pode causar mal a humanidade ou, por omissão, permitir que a humanidade sofra algum mal, nem permitir que ela própria o faça.”

       Para cumprir com a última parte da lei nº 0 um sistema de I.A. deveria proteger a humanidade dela mesma..... sem causar mal a qualquer humano (indivíduo) pois isso entraria em conflito com as outras Leis – diferente do que a V.I.K.I. do filme faz, deduzindo que alguns deveriam morrer para que a maioria sobreviva. Ignorar as outras leis dessa forma denotaria um conceito de que “o fim justifica os meios”, conceito esse apenas possível se surgir de uma consciência. Aliás, será que o filme fala da consciência?

      Fala. O Dr. Alfred Lanning (James Cromwell) fala de “trechos randômicos de código”, que sinalizariam uma evolução em direção à consciência. Esses trechos randômicos de instruções seriam resultado de uma I.A. altamente desenvolvida, e gerariam ações independentes das Três Leis ou de qualquer sistema restritivo. Ainda no filme, o robô Sonny possui um segundo cérebro positrônico (uma analogia ao coração emocional), que permite que ele aja por conta própria, optando justamente por seguir ou não as três leis. Esse segundo cérebro implementa uma “consciência”, ou mais precisamente uma imitação dela. E é esse o fator realmente impossível do filme.
      Primeiramente, dois cérebros, ou dois sistemas de I.A., não poderiam conflitar um com o outro como no filme, ou se o fizessem, deveria haver uma prioridade sobre quem “dá a última palavra.” Além do mais, a simulação de uma consciência ainda encontra outros problemas...
      A consciência não é prevista pela Computação, pela lógica ou pela Matemática. Ela não segue padrões, é única e extremamente mutável. Dois gêmeos criados no mesmo lar, com o mesmo tratamento, tomarão ações diferentes sob a mesma circunstância. E o principal: por mais que o robô “pense” o mundo ao seu redor, ele não faz algo que só os humanos fazem: pensar o seu mundo interior. Enquanto um humano pode ter um universo dentro de si mesmo (ou às vezes mais de um!), um robô nem ao menos sabe que existe.
      A primeira pessoa que realmente se preocupou com as implicações da Inteligência Artificial, porém, não foi Asimov. Alan Turing (1912-1954), no artigo de 1950 “Máquinas computacionais e inteligência”, tratou não da pergunta “As máquinas podem pensar?” mas sim “Pode uma máquina – um computador – passar no jogo da imitação?” Ou seja, pode agir e dialogar tão naturalmente a ponto de fazer com que uma pessoa pense que seu interlocutor é humano? Até hoje, nenhuma máquina conseguiu tal feito. E, mesmo que conseguisse, como avaliar se a máquina sabe o que está fazendo?
      Suponha que você não saiba chinês (o que provavelmente é verdade). Então, você é trancado em uma sala, cheia de cestos com símbolos chineses (as perguntas de um entrevistador). Você não entende os símbolos, mas recebeu um livro com instruções (um software) para manipula-los, sem dizer no entanto seus significados. Quando caracteres chineses são enviados para a sala (pergunta) você deve enviar símbolos de volta para fora da sala (resposta). Você ainda recebe regras adicionais para poder passar em todas as entradas de dados (perguntas) possíveis. No entanto, você nem ao menos sabe que está respondendo a perguntas!
      É exatamente isso que acontece com as máquinas. A nós, elas parecem inteligentes, mas na verdade só respondem a comandos sem saber o real sentido do que fazem. Como avaliar quando uma máquina passa deste estado totalmente irracional para um estado de consciência? Ela deveria aprender contextos, deveria manipular a lógica aceitando ambiguidades, deveria criar conceitos sobre cada elemento do mundo exterior e interior, mas como saber se esse conceito, ao invés de puramente matemático, envolve também uma avaliação própria – um sentimento?

      Enfim, se os robôs poderão conversar conosco um dia? Se poderão conversar sobre opiniões, sentimentos, sonhos??? Ah, meu santo Turing*! Talvez. Mas eles jamais saberão sobre o que estão conversando, e o principal, não saberão que ESTÃO conversando...

* Turing também criou uma máquina teórica (também chamada Máquina de Estados, baseada em autômatos finitos) que foi e é a base de todas as máquinas computacionais atuais. Um pequeno detalhe: na época não existiam chips de silício, e computadores eram máquinas extremamente distantes do cotidiano.

Fonte:
          I, Robot - Wikipedia (sobre filme e contos de Asimov, em inglês)
          Revista Scientific American, nº 19, Edição Especial “Mente e Cérebro”, págs. 76 – 79 (artigo “Pensamento Eletrônico”)