Chapação maquínica, alucinação estatística: pensar como o ChatGPT

23 março, 2023




“Chapação. Droga. Será que se trata de uma mera analogia?”
Félix Guattari

    

>_Prompt: Resuma  o texto a seguir em cinco tópicos

Em A falsa promessa do ChatGPT, que apareceu traduzido na Folha de SP, o linguista e libertário estadunidense Noam Chomsky aproveitou a recente e meteórica celebridade do Chat GPT – um LLM (Large Language Model) – para alavancar a sua crítica geral contra a IA.

No afã de denunciar as suas limitações, diferenças e perigos quando comparado ao raciocínio, à capacidade e ao uso humanos da linguagem, Chomsky nos entrega uma denúncia crítica da IA do ponto de vista da biolinguística e da linguística gerativa, e ao mesmo tempo uma peça que prossegue no que Bruno Cava acertadamente chamou de melodrama tecnofóbico.

Uma estranha ambiguidade percorre o texto de Chomsky. A ambiguidade de quem, por um lado, parece ter entendido inteiramente o que é e como funciona um LLM como o ChatGPT; por outro lado, escreve como se tivéssemos o direito de esperar outra coisa dele.

A ambiguidade está em compreender perfeitamente, como intelectual da linguagem que Chomsky de fato é, que um LLM não pensa como um humano. Não tem cérebro, corpo, nem visceralidade – embora se apoie em conjuntos de agenciamentos sociais, técnicos e maquínicos bastante materiais (explico isso nos itens 2 e 3, abaixo).

Se for capaz de aprender, é por causa das bases de dados de treinamento (training datasets) – um aprendizado diverso do humano. Se puder ser chamado de inteligente, é pela capacidade de vasculhar, correlacionar e gerar induções estatísticas a partir de modelagem matemática complexa — hoje, com trilhões de parâmetros — aplicada sobre uma base de dados e informações bem mais vasta do que cérebros humanos seriam capazes de “processar”.

Sobretudo, começamos a descobrir que o seu algoritmo é treinável para um sem-número de tarefas, em uma multiplicidade de mídias, e que os resultados apresentados dependem da capacidade humana de fornecer comandos específicos, precisos e bem individualizados. Sua epistême e  sua ética são dependentes dos inputs — em sentido amplíssimo.

O fato é que o ChatGPT é uma tecnologia de propósito geral. Isso significa que, na medida que começa a ser integrado a uma série de spin-offs utilitários[1], ele aumenta o seu potencial de afetar uma miríade de áreas do mercado de trabalho existente. Curiosamente, tende a afetar e deslocar os trabalhos high-end, mais cognitivos e melhor remunerados. É por essa razão que seu advento e popularização semeiam o pânico entre trabalhadores e parecem exigir políticas empresariais e acadêmicas que limitem seu uso e regulem a sua ética.

Embora Chomsky, Roberts e Watmull tenham compreendido tudo isso como ninguém, ainda assim escreveram “A falsa promessa…” como se pudessem esperar da IA coisa diversa — como um aprendizado e uma inteligência talhados de forma antroponômica; isto é, normativamente humana.

Mesmo tendo lido o texto de Chomsky, fiz o exercício de comandar no prompt do ChatGPT: “Resuma o texto a seguir em cinco tópicos”. O output foi o seguinte:


Textualmente:

  • A inteligência artificial baseada em aprendizado de máquina é motivo de preocupação e otimismo.
  • Programas como o ChatGPT coletam dados, procuram padrões e geram respostas estatisticamente prováveis, mas diferem profundamente do modo como os humanos raciocinam e usam a linguagem.
  • A mente humana é um sistema eficiente e elegante que cria explicações e opera com pequenas quantidades de informação.
  • A gramática da língua é um sistema estupendamente sofisticado de princípios e parâmetros lógicos.
  • Programas de aprendizado de máquina estão presos em uma fase pré-humana ou não-humana da evolução cognitiva e não possuem a capacidade crítica de dizer o que não é o caso e o que poderia e não poderia ser o caso, que são os ingredientes da explicação e da verdadeira inteligência.

Vamos seguir os pontos acima do modo mais inteligente quanto possamos, já que Chomsky nos espreita, e talvez suspeite de que não passemos de um bot irônico e mal-intencionado.

O primeiro ponto exprime uma total platitude. Tudo o que gera otimismo também gera algum grau de preocupação. Nem que seja a preocupação que o otimismo seja frustrado. No caso das tecnologias de IA, o caso é ainda pior. Ninguém está preocupado com um cenário otimista que não se realiza; a preocupação incide sobre as catástrofes ecológica, social e humana que — segundo as antevisões mais cataclísmicas e distópicas — poderiam decorrer da generalização e da pervasividade da IA. A única novidade aqui — notícia velha, aliás — é que podemos até não ter percebido, mas a generalização e a pervasividade da IA já aconteceram. Portanto, zero novidade.

O que há de novo agora são duas coisas. Primeiro, a vertiginosa capacidade de processamento e velocidade na apresentação de resultados progressivamente mais relevantes para os usuários de IA. E segundo, nós estarmos nos dando conta de que tudo isso não é mais do que o resultado do processo de subsunção técnica em curso há anos — qual foi a última vez que você ligou para um SAC qualquer e conseguiu falar com um humano? Caso tenha conseguido não foi sem antes passar por chatbots, não é?


O segundo ponto explica como um LLM funciona em termos simples, e demarca o fundo do argumento chomskyano, que se sustenta em uma diferença e em uma hierarquia. Os modelos de LLM, mesmo de aplicação geral como o ChatGPT, “diferem profundamente do modo como os humanos raciocinam e usam a linguagem”. Pensar e falar não são, portanto, a mesma coisa para humanos ou LLMs. E são atividades evidentemente levadas a cabo de forma mais própria e completa por humanos — ponto em que a distinção entre humano e inumano é colocada em termos de hierarquia.

O terceiro e o quarto pontos explicam exatamente a pretensa superioridade da inteligência humana versus a artificial. A nossa inteligência (mas que pretensão essa de dizer “nossa”!) faz muito com pouco. É extremamente eficiente do ponto de vista informacional. Raciocina por nexos de causalidade e produz explicações e hipóteses ousadas e pouco críveis, mas capazes de revolucionar modelos de explicação gerais; e, por fim, nós somos capazes de juízo moral.

Já o pobre ChatGPT até consegue resenhar um texto de Chomsky com razoável precisão, mas seria ineficiente do ponto de vista informacional. Isto é, para fazer pouco, precisa de muito. Não tem a propensão natural, a plasticidade e a elegância dos cérebros infantis que captam lógicas e modelos gramaticais no vento — só por estarem ao relento na língua. Ainda pior, a inteligência da máquina é incapaz de contrafactualidade: inclusive “pode aprender”, como diz Chomsky, “que a terra é plana”.

Então, a rigor, a IA não pensa nem explica. O que ela faz, então? No interior de uma densa nuvem estatística de correlações e palavras, ela procede por indução, ela induz. E, mal de todos os males, tampouco é capaz de inteligência moral — daí exprimir a banalidade do mal, definida precisamente por essa incapacidade moral. Eis o que, para chegarmos ao ponto cinco, escanteia o ChatGPT para o exterior da humanidade. Para onde? Para a condição de uma inteligência pré-humana, não-humana, e sem condições de evoluir no sentido humano, que dirá de ultrapassá-la.


No valid inputs


O ChatGPT implica um evento de percepção, porque faz com que, de repente, todo mundo se dê conta de uma realidade que já se impôs – e todo pensamento regressivo não é mais do que o esperneio que precede a adaptação a uma subsunção que já está em curso.

Um acontecimento que altera a sensibilidade coletiva com relação à tecnologia. Um dia, isso também ocorreu com os ábacos e as calculadoras, com os desktops e telefones celulares e, depois, com os notebooks, smartphones e tablets. Porém, com a diferença de que as tecnologias de aplicação geral apresentam o potencial de alterar nossa ecologia sociotécnica e relacional de uma só vez, em múltiplas frentes, e em níveis de profundidade variáveis. Elas tornam porosa e maleável a rigidez da divisão social do trabalho, e fazem todo mundo temer pelo seu trabalho – o que, no fundo, é só um disfarce do verdadeiro problema: tememos é pela nossa renda!

Neste ponto, ninguém está em condições de vaticinar a irrelevância do que quer que seja; nem mesmo, preguiçosamente apostar na passagem do humano ao papel de “coadjuvante da história” na medida que a IA agora tagarela e nos destitui do que até então nos fazia humanos: a posse de uma faculdade sensível que Aristóteles chamava de lógos.

As perguntas que esse evento de percepção permite fazer são: que regime de verdade advém com a popularização de um LLM como o ChatGPT? (Não um efeito causal da técnica, mas do seu uso e adoção massificados). Que tipo de inteligência ele deveria manifestar? Que modos de raciocinar? – dos quais também participamos em outros ritmos, e com outra abrangência. E em que consistem esses processos informacionais dos quais não podemos participar inteiramente?

Enfim, o que é isso de que já estamos participando? E como isso participa em nós – derrubando, inclusive, a barreira entre “nós” e “eles”? Como esse advento de percepção poderia ajudar a derrubar outras diferenças que nossa cultura aristotélica traduziu em dimorfismos e hierarquias – cultura/natureza, humano/inumano, homem/máquina, lógos/phoné, cidadão/imigrante, trabalhador/desempregado, entre outras?

Tomar uma inteligência e uma linguagem demasiadamente humanas como modelo e esperar que o ChatGPT seja sua maximização é como martelar inputs inválidos no prompt e esperar que dali saia alguma coisa que não seja decepção ou autoengano.

A crítica de Chomsky martela inputs fora de lugar. É por isso que ela consegue ser, ao mesmo tempo, retrospectiva, logocêntrica, antropomórfica e moral. De um só golpe, ela reúne tudo de mais regressivo que o pensamento crítico ocidental já conseguiu conceber num mesmo pacote.

Ao invés de imaginar o agenciamento de dois ou mais tipos de inteligência (como a ciência pura e a engenharia aplicada) como uma composição produtiva, Chomsky os contrapõe e hierarquiza. E se vale de um raciocínio fundacional para fazê-lo: inputs que remetem a um solo antropomórfico, logocêntrico e moral que recua pelo menos ao século IV a.C. – e, como certa vez cantou Caetano Veloso, “sustenta ainda hoje o Ocidente…”.

É o próprio Chomsky quem descreve a biolinguística, e a escola da gramática gerativa, como atualizações “de abordagens que remontam à tradição filosófica aristotélica” (Chomsky, 2017, p. 04). Sua ideia fundamental é a de que a língua é uma função orgânica inata à natureza do cérebro humano.

Daí porque é esperado que sua crítica se valha dos inputs logocêntricos, antropomórficos e morais do lógos aristotélico. Isto é, não deveria causar espanto algum que sua crítica à IA manifeste a fé num tipo de inteligência ao mesmo tempo humana e natural que, no entanto, nos separaria numa  esfera – política ou cultural – de todo o resto da natureza. Nem que isso gere uma má compreensão sobre a técnica: o silício pertenceria à ordem da natureza ou da cultura? E as palavras que as IAs geram? A pergunta que importa é se esses inputs chomskyanos ainda convém à realidade e ao que estamos nos tornando.

O logocentrismo, o antropomorfismo e o moralismo do lógos aristotélico exerceram precisamente esta função na nossa cultura técnica: apontar uma diferença, proporcionar uma taxonomia e justificar uma hierarquia. Não apenas uma diferença entre natureza e cultura, mas entre o humano e o inumano. A distinção aristotélica opositiva entre lógos e phoné  (a “voz” animal, que indicava posse das capacidades de experimentar e exprimir apenas a sensibilidade para a dor e o prazer, sem ser capaz de desenvolvê-lo na direção de sentimentos morais ou na forma da inteligência) o testemunham suficientemente.

Nesse mar de diferenças que se tornam classificações e hierarquias, num universo regido por partes que se totalizam governando umas às outras, os objetos técnicos só podem aparecer como algo estranho: nem inteiramente naturais, porque são artefatos artificiais; nem inteiramente humanos, porque a natureza está entre as suas componentes. O objeto técnico é como o Alien: o estranho familiar freudiano que nossa inteligência antropomorfiza em filmes como o E.T.

Além disso, Chomsky parece não escolher bem seus argumentos. Causa estupefação atribuir à IA e ao ChatGPT a banalidade do mal, quando esse conceito – concebido por Hannah Arendt em Eichmann em Jerusalém – servia para descrever as ações de um ser humano que, ao contrário do que todos imaginavam, não tinha qualquer traço monstruoso, exceto o fato de ser assustadoramente normal. Um animal demasiado humano com capacidades morais incorporadas e genéticas como qualquer outro.

Ou, ainda, a afirmação irrisória de que o ChatGPT poderia aprender que a terra é plana. Claro que poderia! E quem o ensinaria, a não ser uns bons punhados de animais antrópicos bem-falantes? Seria preciso lembrar uma humanidade pré-científica que por séculos acreditou no geocentrismo com base em uma correlação desprovida de causalidade (a sucessão de dias  e noites)? Não é um tipo de pensamento bem humano que pensa primeiro por correlações, e depois talvez se esforce metodicamente por discriminar em meio a elas as relações de causalidade?

A indução e o erro não são, também, potenciais inatos, assim como a banalidade do mal grassando entre seres pretensamente morais? E uma das mais importantes linhas da evolução – a que Bergson se referiu em A evolução criadora – não é precisamente a capacidade vital de saltar para fora e para além das determinações biológicas? A biologia só existe como inatismo e determinação, ou também como processo evolutivo no qual a vida se prolonga- no caso humano, cercado de artefatualidades? Quais poderiam ser alguns dos antídotos para esse imenso tédio de uma inteligência inata?

Alucinação estatística e chapação maquínica

Visceral Bodies , Claudia Rafael & Mika Kailes


Meses atrás, me lembro de que alguém mandou o link do ChatGPT com indisfarçável excitação, e disse: “olha que loucura isso aqui!”. A palavra loucura para substantivar o ChatGPT talvez não seja uma escolha fortuita. Nem a excitação delirante que a seguia.

A loucura é o que nos permite perceber que a crítica de Chomsky à IA é retrógrada e mal-colocada. Ela se prende ao que Matteo Pasquinelli e Vladan Joler chamaram de “status ideológico da máquina inteligente”. Isto é, a ideologia que existe em pensar a inteligência algorítmica à imagem e semelhança da cerebral e humana.

A IA não é uma máquina inteligente. É um instrumento de percepção. Ela maximiza o conhecimento, ajuda a perceber padrões e correlações em datasets que cérebros humanos jamais poderiam percorrer sem correr o risco da vertigem, do vômito ou do desmaio. E a IA o faz numa velocidade maior do que o cérebro humano poderia (com o perdão da analogia) “processar”.

Ou seja, modelos de IA implicam um novo regime de verdade que Chomsky só pode perceber como mentira, falsa promessa e perigo moral, uma vez que ele o faz retroagir ao inatismo biológico e ao aristotelismo logocêntrico.

Esse novo regime de verdade é o que Pasquinelli e Joler chamaram, numa divergência conceitual de seu uso técnico, de alucinação estatística. Não se trata de chegar a outputs que não decorrem do dataset de treinamento, a erros evidentes ou a respostas contrafáticas. Não é de uma inadequação entre as coisas e o output que se trata. Mas de compreender que essas máquinas não emulam inteligência, mas percepção.Isto é, os prompts são como janelas para os dados, e os outputs, dispositivos que tornam visíveis e legíveis, por intermediação algorítmica, um vasto conjunto de dados e pontos entre os quais se estabelecem correlações.

Neste estágio de desenvolvimento (em estágios futuros, não sabemos), é como se ganhássemos um novo órgão perceptivo, com capacidades inéditas, e que pode alterar não só a percepção de um meio, como também a autocompreensão de um corpo-intelecto, e interferir na ecologia sensível que o constitui. Como um telescópico, um microscópio, um binóculo noturno ou um bom e velho par de óculos alteram um conjunto de percepções, ecologias e relações que um corpo-intelecto mantém com os outros e seu entorno. Eles são próteses de percepção, como um aparelho auditivo torna relativamente audível o que de outra forma seria inaudível.

Não há problema algum em dizer que as IAs não pensam, mas reconhecem padrões. É precisamente isso que não as deixa ser seres oraculares, ou cérebros metafísicos, mas as torna instrumentos de conhecimento – ainda que alucinatórios – porque a imagem que nos dão da  realidade é distorcida, como a que nossos olhos, óculos, microscópios ou telescópicos fornecem também o são.

O grande debate sobre os vieses, em que a política dos algoritmos parece emborcar, ganha novas proporções quando entendemos os algoritmos como instrumentos de percepção e conhecimento – e não como máquinas inteligentes ou criativas.  O que explica a presença algorítmica de vieses não é a falta de aptidão maquínica para a crítica moral, como quer Chomsky. Como a política de Maquiavel e a norma jurídica de Kelsen, um par de óculos ou a IA não são instrumentos morais ou imorais, mas amorais. E isso, por duas  razões, ao menos.

Primeira, porque dados brutos não existem. Eles são extraídos dos funcionamentos das nossas sociedades, das suas divisões, dimorfismos e hierarquias. Os dados marinam nos nossos preconceitos cognitivos. De modo que não são os algoritmos que são racistas, xenófobos ou misóginos, mas os funcionamentos sociais que originaram a vastidão de dados apodrecidos com os quais eles foram treinados. E nós, hipócritas com capacidade moral inata, não gostamos de ver a imagem refletida que os algoritmos tornam visíveis. Detestamos perceber que as polícias sejam racistas, que as empresas sejam misóginas ou que os Estados sejam xenófobos. Mas se forem males banais, nossa hipocrisia de animais aparelhados para a moral dá de ombros e diz: “tudo bem…”.

Segunda, porque existe um imenso trabalho humano (gratuito e periférico, mas também remunerado e metropolitano) que vai ser integrado à modelagem matemática dos algoritmos. Então, não podemos esperar deles mais ou menos moralidade do que nossas formações sociais são capazes.

E isso nada tem a ver com qualquer aptidão inata e biológica à moralidade, mas com o fato de que as sociedades  sempre foram as megamáquinas mais antigas e mais inteligentes em extorquir e habituar comportamentos por repetição, reiteração e sistemas mais ou menos difusos de punição-recompensa. Nós, e os indivíduos que nós pensamos ser, não passamos de adictos sociais.

Mas a alucinação estatística também se liga a uma outra coisa. Uma curtição, um thrill, uma pira. Foi Félix Guattari quem, nos anos 1980, sugeriu o termo chapação maquínica. Disse que com as tecnologias acontecem as mesmas coisas que com os esportes de aventura, shows de música, os primeiros encontros, o sexo, o chocolate, o álcool e outras drogas lícitas e não lícitas (por mero ilegalismo).

Como em tudo na vida, existem good trips e bad trips. E o mais recente texto de Noam Chomsky é, provavelmente, fruto do segundo gênero. Uma bad trip de uma inteligência desperta demais. Não deveria espantar que Chomsky se diga, pessoalmente, um conservador quando o assunto são drogas: o texto de Chomsky mostra que ele não sabe chapar.

A partir de uma definição ampliada da droga, Guattari chamou de chapação maquínica “todos os mecanismos de produção de subjetividade maquínica, tudo o que contribui para o sentimento de pertencer a algo, de ser de algum lugar; e também de se esquecer. […] É o funcionamento do conjunto que é gratificante” (Guattari, 2022, p. 191 [Os anos de inverno, 1980-1985]). As pessoas chapam o tempo todo e por toda a parte: na empresa, na Igreja, na balada, nas suas tribos, fazendo tatuagens, curtindo uma viagem, lendo poesia e filosofia, escrevendo uma tese, assistindo reality shows ou documentários sobre cutelaria moderna.

A chapação atua no sistema dopaminérgico, e a dopamina é um neurotransmissor produzido pelo sistema mesolímbico, ligado aos circuitos de recompensa. Ela é o que produz aquela sensação de prazer e bem-estar que se segue de ter alcançado um objetivo, uma meta ou realizado alguma coisa existencialmente significativa.

O Guattari dos anos 1980 já havia entendido alguma coisa do que estávamos em vias de nos tornar. Ele descrevia a monomania dos videogames dos adolescentes, o zapping televisivo dos trabalhadores esgotados, o esqui alpino dos turistas que desciam colinas verticais, como chapações com efeitos em aspectos existenciais. Tudo estava ligado, ao menos na cultura do Ocidente, a um retorno ao sentimento de individualidade. No seu vocabulário, e no de Deleuze, a uma reterritorialização subjetiva. Uma espécie de compensação pela sensação de estar esquartejado mecanicamente, despedaçado como divíduos ligados p2p numa rede infinita de outras subjetividades.

O que os neurofisiologistas descobririam algumas décadas mais tarde, é que as nossas chapações maquínicas se tornaram mais pesadas. Não apenas as redes sociais atuam no sistema dopaminérgico, mas elas são desenhadas para ativar o sistema de reforço e de recompensa, e assim intensificar as interações.

Esta não é uma economia atencional, mas uma neuroeconomia dopaminérgica: quanto mais presença online, mais posts; quanto mais posts, mais likes e interações; quanto mais likes e interações, mais recompensas; e quanto mais recompensas mais o ciclo é reiniciado, recalibrado, repetido, desviado para novos objetos que proliferam de novos investimentos. O engajamento é a medida de todas as coisas, e as redes são poços virtualmente infinitos de dopamina.

Mas também é o próprio Guattari quem diz que nada disso deve parecer assombroso – embora envolva perigos. As  chapações podem ter valor de  refúgio: “As pessoas se subjetivam, refazem para si territórios existenciais com suas chapações” (Idem, p. 194). E disso não sai muita coisa além do velho sentimento de individualidade que nos aborrece – mas cuja perda nos parece aterradora.

Há a possibilidade de a chapação ir longe demais e dar origem a uma implosão subjetiva: Van Gogh, Artaud, os jovens japoneses que se suicidam no trabalho. A vida vai sendo arrastada por um processo de singularização que não pode estancar, precisa virar processo. Senão, é o beco sem saída, o buraco-negro, um caos destrutivo sem redenção informe. É o “desmoronamento lamentável”, ou a chapação que se revela obsoleta.

E há a criação de universos inauditos: “As formações subjetivas preparadas pelas chapações podem dar um novo impulso ao movimento ou, ao contrário, fazê-lo morrer lentamente. Por trás de tudo isso existem possibilidades de  criação de mudanças de vida, de revoluções científicas, econômicas e até mesmo estéticas. Novos horizontes ou nada. […] promover o reino de singularidades mutantes, novas minorias”(Idem, p. 194-195).

É mais provável que o que nos aguarda seja um envolvimento das três linhas que Guattari descreve: haverá desmoronamentos lamentáveis, buracos-negros, caos destrutivo; mas também ilhas de privilégio cuja moeda será o valor de refúgio, e um impulso em movimentos e grupos de usuários que ainda sequer existem, ou se autocompreendem, como tais.

O complexo é o seu emaranhamento: os desmoronamentos podem servir aos movimentos, enquanto os movimentos podem servir à circulação sacana dos valores de refúgio, dos clubes mais ou menos privados. É dessa constelação esquizo, que nos assombra com suas possibilidades maníaca e paranoide, que precisamos fazer sair um novo mundo, uma nova ecologia de relações baseada nas lutas pela dissolução de todos os dimorfismos hierarquizantes. Essa é a questão política da tecnologia e da ética dos inputs que o Chat-GPT torna pensáveis, a contrapelo dos tecno-otimismos e os tecnopessimismos – que, ao que tudo indica, já têm seus outputs all-figured out de antemão.

[1] Um deles é o new Bing, da Microsoft, que integra o chatGPT ao buscador e o incorpora no navegador Microsoft Edge. Outro são as extensões para o navegador Google Chrome, oferecidas nas stores por vários desenvolvedores autônomos, que integra o ChatGPT ao buscador Google. Por padrão, o ChatGPT não tem acesso à Internet, e deṕende de atualizações constantes para que novos eventos sejam incorporados à base de dados. As iniciativas da Microsoft e da Alphabet potencializam o chatGPT dando-lhe acesso à Web – o que significa tentar reduzir o delay da espera por atualizações tendencialmente a zero. Mas já há um sem-número de extensões que mobilizam o ChatGPT para as mais diversas tarefas: escrever tweets, e-mails,  mensagens de redes sociais; coleções de modelos de prompts etc. Essas opções estão disponíveis como extensões ou add-ons na maior parte dos navegadores de Internet.