Máquinas podem pensar?

Não pergunte a elas!

Via Saber
7 min readOct 12, 2020

Seja por medo ou fascínio, Inteligência Artificial (IA) é uma área que tem capturado a imaginação das pessoas no século 21. As aplicações ao nosso dia-a-dia estão aí: assistentes virtuais como a Siri, Cortana e Alexa, sugestões de rotas, traduções de idiomas, carros autônomos e avanços significativos na medicina. Contudo, parece que o cenário (especulativo) das máquinas tomando o controle chama mais a atenção das pessoas do que as inúmeras aplicações da IA. Esse receio se justifica?

O debate sobre tal questão é longo. Para Marvin Minsky, um dos grandes nomes da área de Inteligência Artificial, é só uma questão de tempo para que as máquinas ultrapassem as capacidades humanas. Minsky faz parte da corrente de pesquisadores que acredita na possibilidade de (algum dia) máquinas terem consciência. Em linhas gerais, é isso que chamam de Inteligência Artificial Forte. Por outro lado, pessoas como o filósofo John Searle1 argumentam que quando um computador realiza uma tarefa também feita por humanos, ele a realiza de maneira totalmente diferente, sem possuir compreensão acerca do que está executando.

Segundo essa visão, ainda que as máquinas executem tarefas tão bem quanto (ou melhor que) humanos, não significa que elas tenham consciência do que estão fazendo.

Certo, mas o que “ter consciência do que estão fazendo” quer dizer? Para explicar isso, apresentaremos um experimento mental conhecido como Quarto Chinês, que serve de oposição à tese da IA forte: a ideia de que a máquina é capaz de compreender dados e responder a eles adequadamente. É de fundamental importância entender que essa compreensão não se limita à mera reprodução do comportamento humano, e sim a ter estados mentais como os nossos, pode-se dizer, uma consciência como a nossa. Esses estados mentais podem ser vistos, segundo o naturalismo biológico, como crenças, desejos, livre-arbítrio, intenções de ações, entre outros.

Apesar da crítica ser direcionada à IA forte, também engloba correntes filosóficas como o funcionalismo2, que tem como slogan

“o software está para o hardware assim como a mente está para o cérebro”.

O argumento do Quarto Chinês vai contra a analogia de software e hardware para explicar a relação mente-cérebro. Segue o argumento: Imagine Júlia num quarto. Ela não sabe bulhufas de chinês, mas entende inglês. O quarto possui duas aberturas: uma delas recebe papéis escritos em chinês (entrada / input), e na outra se entrega outros papéis, também em chinês (saída / output). Dentro do quarto, Júlia tem acesso a um livro repleto de regras, escritas em inglês, sobre o que fazer com os papéis recebidos, tais como: “o papel que constar X deve ser respondido com o papel contendo Y”, sendo X e Y mensagens em chinês.

Chen está fora do quarto e começa a interagir com Júlia através das aberturas do quarto — sem fazer ideia de quem está ali dentro. Ele coloca uma mensagem em chinês e recebe outra, também em chinês. Ele continua fazendo isso, aproveitando a conversa. Conforme Júlia responde adequadamente, Chen fica cada vez mais propenso a achar que quem está dentro do quarto é um falante de chinês. Melhor dizendo, Júlia está enganando ele. Apesar de apropriadas, suas respostas são puramente formais: ela as identifica pelos seus formatos (sintaxe), não pelo seu significado em chinês (conteúdo semântico).

Desenho autoral criado por Sofia

Essa situação nos diz o seguinte: bastam regras bem definidas, relacionando entrada e saída, para que um observador externo pense que um falante de chinês está dentro do quarto. Ora, computadores são muito bons em regras de associação do tipo “dado X, entregue Y”. E se Júlia não estiver no quarto… em seu lugar, está um robô! Então, assim como Júlia não tinha ideia do que estava fazendo, o robô também não teria nenhuma compreensão de chinês propriamente, ainda que estivesse simulando muito bem um falante nativo.

Desenho autoral criado por Sofia

O que podemos concluir? Se lembre do que apresentamos como IA forte: é possível que um computador tenha uma compreensão genuína de informações se for programado adequadamente para isso. Ou seja, o computador não apenas saberia reproduzir o comportamento humano, mas teria consciência do que está fazendo, conseguindo compreender, além da sintaxe (as formas em chinês), a semântica (o significado das formas). Entretanto, o que vemos no experimento não cumpre essas condições, Júlia não compreende a semântica, isto é, ela não compreende chinês apenas porque respondeu adequadamente às perguntas feitas. A analogia coloca Júlia fazendo o trabalho do programa de computador, a manipulação dos símbolos chineses, e mesmo assim ela não compreende chinês. Logo, o computador fazendo exatamente a mesma tarefa naturalmente também não compreende, não pensa, por mais que saiba manipular corretamente os símbolos.

Mas o que sustenta esse argumento, isto é, quais são suas premissas? Parece correto afirmar o seguinte: programas de computador são puramente sintáticos, i.e. são definidos numa estrutura formal de instruções sobre o que fazer com os dados que recebe (como diriam alguns professores de computação: o computador é burro que dói, mas trabalha como ninguém). Primeiro, diferentemente de programas de computador, a mente humana tem capacidade semântica (de significado). Segundo, a sintaxe não implica em semântica. Disso se segue que programas não são mentes. Mas como?

Pense com a gente, mas por você: se tanto Júlia quanto a máquina se basearem no mesmo conjunto de regras para dar as saídas, Chen não notará diferença, certo? Ótimo.

Vamos dizer para Chen que tem um ser humano no quarto — quando, na verdade, tem apenas uma máquina. Esse simples truque faz com que Chen pense, com base na conversa, que dentro do quarto tem um ser humano consciente (estamos enganando ele!). No entanto, como vimos, a máquina não precisa de compreensão para fazer essa tarefa, portanto, isso significa que estamos violando o teste de Turing!

Para quem não conhece, o teste de Turing é um experimento proposto no início do século passado, por Alan Turing, um dos grandes nomes da Computação. O teste consiste em fazer com que um computador se passe por um ser humano, ou seja, tenha um comportamento indistinguível do nosso. Assim, caso um computador, ao ser interrogado por outros seres humanos, não seja reconhecido como uma máquina, mas sim como “um de nós”, então esse computador passou no teste e, segundo o critério de Turing, é inteligente. Para que isso seja validado, é preciso uma confirmação estatística: não basta um ou dois humanos interrogarem o computador, é necessário que haja um número suficiente para nos levar a uma generalização.

Note que o teste de Turing traz uma pressuposição muito forte: de que comportar-se como humano implica3 ter uma mente humana.

Essa é uma posição behaviorista (referente ao comportamento) que confunde simulação e duplicação. No quarto chinês temos simplesmente uma simulação. Júlia simula a competência de falar chinês, porém não a duplica: ela não tem, atualmente, competência de saber chinês. Então, a crítica de que uma compreensão genuína estaria sendo gerada é invalidada, isto é, uma simulação de compreensão genuína não duplica ou cria de fato uma compreensão genuína. Bons exemplos desse contraste acontecem quando são feitas simulações computacionais. Simular um terremoto no computador não causa um terremoto real, assim como (acredite se quiser) simular o início do universo não dá origem a um novo universo.

Como toda argumentação que exige um mínimo de fundamento filosófico, há sempre pelo menos uma objeção, e essa não fugiu à regra! Por mais razoável que o argumento do quarto chinês pareça, é importante ter em mente que não se trata de um fato. Essa discussão fortaleceu e despertou uma gama de debates sobre, por exemplo, o que é consciência, como obtemos conhecimento, qual a relação entre mente e corpo, entre outras questões curiosas, se inserindo num cenário muito maior do que a pergunta sobre robôs atingirem ou não um estado de consciência semelhante ao nosso.

Todavia, diversas questões ainda permanecem. Será possível uma rebelião das máquinas? Ou o que nos espera é, pura e simplesmente, uma época em que viveremos melhor devido aos avanços em IA? Verdade seja dita, não sabemos o que o futuro nos aguarda nessa questão. Porém, uma coisa já parece certa:

“Se o conhecimento pode criar problemas, não é através da ignorância que podemos solucioná-los.”

Isaac Asimov

REFERÊNCIAS

Morais de Lima, M. O Experimento de Pensamento do Quarto Chinês: a Crítica de John Searle à Inteligência Artificial Forte. Argumentos: Revista de Filosofia, UFC, ano 2, n. 3, 2010. Disponível em: <http://www.consciencia.org/wp-content/uploads/2013/08/06.pdf>. Acesso em: 20/01/2020.

Bringsjord, Selmer and Govindarajulu, Naveen Sundar, “Artificial Intelligence”, The Stanford Encyclopedia of Philosophy (Fall 2018 Edition), Edward N. Zalta (ed.), URL = <https://plato.stanford.edu/archives/fall2018/entries/artificial-intelligence/>.

Cole, David, “The Chinese Room Argument”, The Stanford Encyclopedia of Philosophy (Spring 2020 Edition), Edward N. Zalta (ed.), forthcoming URL = <https://plato.stanford.edu/archives/spr2020/entries/chinese-room/>.

Russell, S. & Norvig, P., 2009, Artificial Intelligence: A Modern Approach 3rd edition, Saddle River, NJ: Prentice Hall.

1 Nós não pretendemos promover a imagem de Searle. Ele foi acusado de assédio sexual recentemente e perdeu seu status emérito no Departamento de Filosofia da Universidade de Berkeley.

2 Nessa corrente, o que conta são as entradas e saídas de dados, independentemente se estamos falando de um sistema biológico (humano) ou de silício (robôs). Suponha que você e uma máquina sempre recebam os mesmos dados de entrada (que podem variar caso a caso, mas os que chegam em você são sempre iguais ao que chegam para máquina naquele momento). Para defensores dessa posição, se a máquina sempre fornecer a mesma saída que você, então tais máquinas possuiriam algum nível de consciência semelhante ao teu.

3 Esta seria uma implicação ontológica no sentido de uma coisa afetar a existência de outra, isto é: o comportamento — relações causais (pergunta-resposta) e o papel funcional (responder adequadamente) — afeta a existência de estados mentais da consciência humana.

--

--

Via Saber

A ciência é cheia de grandes histórias. Cientistas incríveis, descobertas fascinantes. Chega aqui, o Via te conta.