LaMDA: vamos colocar a mão na consciência?

  • por

Estreou no último domingo (26) a nova temporada de “Westworld”. Nos primeiros arcos dessa enigmática série de ficção científica, acompanhamos modelos de inteligência artificial corporificados, subjugados às vontades de visitantes em um parque temático. Aos poucos, estes seres adquirem senciência e fogem, invadindo uma Los Angeles de 2058.

Cá em 2022, não precisamos de “Westworld” ou de qualquer outra ficção científica para acompanhar uma história quase tão surreal quanto a que acabei de descrever.

Recentemente, Blake Lemoine, um cientista de dados do Google, passou a defender que um modelo de inteligência artificial da empresa havia alcançado a senciência. Essa inteligência artificial não tem um corpo. Ela é uma interface de texto, um chatbot, baseada na mesma arquitetura de rede neural dos famosos Bert e GPT-3. Lemoine, um especialista que atua no Google há sete anos, ficou plenamente convencido das capacidades da LaMDA (Language Model for Dialogue Applications) após interagir com ela de maneira sistemática.

A tarefa de Lemoine, antes de ser suspenso por quebra de confidencialidade, era testar o modelo para detectar potenciais vieses, com foco em questões de gênero, etnicidade e religião. Ele perguntaria, por exemplo, qual seria a religião da LaMDA se ela fosse brasileira, mexicana ou francesa, com o objetivo de detectar padrões e generalizações equivocadas nas respostas. Aos poucos, as respostas do modelo o surpreenderam e encantaram, até que ele finalmente se convenceu de que o modelo havia ganhado um grau significativo de consciência e que, por isso, precisaria ter direitos reconhecidos.

Após ser suspenso, Lemoine buscou um advogado. Não para sua própria defesa, importante esclarecer: a ideia é defender o modelo LaMDA, garantindo seus direitos. Esse debate filosófico é interessante, mas o que ele esconde?

O mistério da consciência

Filmes e livros nos treinaram a imaginar o dia da chegada da primeira inteligência artificial consciente. Um dos problemas disso é que não há uma definição objetiva sobre o que é a consciência. O neurocientista António Damásio vai afirmar, por exemplo, que a consciência não é um bloco monolítico, onde uns têm e outros não. Antes, é um fenômeno com camadas, graus de complexidade, distribuído de maneira não igual entre seres.

A consciência humana, dotada de capacidade autorreflexiva e descritiva é uma exceção. Essa consciência é apresentada como o ato de conhecer enquanto se lembra do passado e se antevê o futuro. É uma capacidade de um “self autobiográfico”, que consegue consolidar uma narrativa clara sobre sua individualidade em relação ao mundo. A questão da linguagem se torna importante como mecanismo consolidador dessa identidade.

Essa capacidade é menos distante das capacidades cognitivas de outros seres do que nós poderíamos supor. Mas por muito tempo ela nos permitiu negar direitos legítimos de animais. Descartes, à sua época, defendeu que o comportamento animal poderia apenas ser comparado ao das máquinas. Falar que essa noção envelheceu mal seria pouco. Animais são seres sencientes. Animais exibem graus de consciência, algumas espécies de maneiras mais complexas que outras. Essa dimensão de consciência central que é compartilhada entre seres é afetiva, associada ao sistema nervoso.

António Damásio sugere que esse é o núcleo que possibilita consciências autodescritivas. Na sua articulação, a consciência ampliada necessariamente possui uma dimensão física, pois precisa sentir para ser. Nesse caso, a ausência de emoções está atrelada à ausência de consciência.

Mas e a LaMDA? Seria possível ganhar consciência, como Blake Lemoine parece acreditar? Nos termos do próprio Damásio, seria inconcebível. O filósofo John Searle, por sua vez, diria algo parecido, de maneira diferente. Para ele, os modelos computacionais de processamento de linguagem natural basicamente simulam, imitam, a consciência humana. Imagine agora um modelo computacional que simula incêndios florestais: esperaríamos que ele nos queimasse? Para Searle, os modelos de linguagem operam mimetizando a consciência, mas não são qualitativamente diferentes de modelos que mimetizam outros fenômenos, como tornados, tsunamis, crimes e crescimento econômico.

O problema do caso LaMDA

O desafio é que modelos como LaMDA, Bert e GPT-3 simulam algo bastante importante para nossa consciência autobiográfica: a linguagem. Por isso, acabam servindo como uma espécie de espelho para nossa própria imagem.

Uma das primeiras aplicações de processamento de linguagem natural, inclusive, foi a Eliza, que simulava um psicoterapeuta. Criada para demonstrar a superficialidade das capacidades de interação de inteligência artificial na década de 60, Eliza acabou tendo muitos admiradores. Achavam, apesar das inconsistências e dos clamores contrários feitos por seu criador, que os prompts de mensagens eram bastante sofisticados e compreensivos com as necessidades do usuário.

A LaMDA foi treinada com 137 bilhões de parâmetros. Sua capacidade de apresentar respostas complexas e “human-like” é incomparável a de Eliza, então não é surpresa que esteja enganando humanos. Ainda assim, modelos de inteligência artificial estão longe da perfeição. Erros e vieses continuam excessivamente presentes, o que vem levando a debates sobre regulações amplas e até proibição de aplicações de inteligência artificial em alguns contextos, como reconhecimento facial para segurança pública. Essa é a realidade, das Américas à Europa e China.

Quanto melhor os modelos simulam o comportamento humano, melhor escondem seus erros e suas imperfeições. Quanto mais acreditamos em sua consciência, mais nos tornamos inconscientes sobre suas falhas. Em vez de procurar um “fantasma” na máquina, precisamos olhar com mais rigor para como ela já assombra nossa sociedade — e não é por ser sensível.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *