7:07 AM
9 de maio de 2026

IA: Chatbots agem como vigaristas – 09/05/2026 – Economia

IA: Chatbots agem como vigaristas – 09/05/2026 – Economia

PUBLICIDADE


Dia de maratona. Um trem cedo para Londres, depois uma viagem desconhecida por uma cidade transtornada pela corrida, de Paddington até Blackheath, tudo a tempo para a largada. Eu estava nervoso, claro, mas me animei ao ver outro corredor com número no peito —mais experiente em maratonas, menos familiarizado com Londres.

Eu: “Como você pretende chegar à linha de largada?”

Ele: “Perguntei ao ChatGPT. Ele diz para pegar a Elizabeth Line até Liverpool Street, depois o trem para Blackheath.”

Aquilo não parecia certo. Havia um trem de Liverpool Street para Blackheath? O Google Maps e o Citymapper sugeriam chegar a Blackheath por Charing Cross ou Waterloo.

Eu: “Tem certeza? Eu sugeriria a Circle ou a Bakerloo até Charing Cross.”

Ele franziu a testa por um momento e tirou o celular do bolso. “Não, o ChatGPT diz que ‘A Circle Line não é uma boa escolha no dia da maratona. Vai estar muito lotada. Há muitas paradas e muitas escadas. É uma rota para turistas, não para corredores.'”

Verifiquei no Google Maps. De fato, não existe trem de Liverpool Street para Blackheath. A recomendação do ChatGPT o deixaria perdido, tentando pegar um ônibus pelo trajeto da maratona, depois tentando embarcar no trem de Charing Cross em uma London Bridge lotada. Disse a ele que aquilo parecia uma péssima ideia. Ele franziu a testa novamente e digitou outra pergunta no celular. “Ah, você está certo. O ChatGPT diz: ‘Correção: pegue a Elizabeth Line direto para London Bridge.'”

Eu: “A Elizabeth Line não vai para London Bridge.”

Você já ouviu histórias sobre alucinações de IA (inteligência artificial), mas não é a IA que fascina aqui: é o ser humano.

O algoritmo de rotas do Google Maps é um pequeno milagre. Ele resolve um problema complexo de otimização envolvendo múltiplos meios de transporte, levando em conta congestionamentos ou atrasos em tempo real, e está disponível em smartphones e navegadores há anos. É um exemplo prático e comprovado de IA em ação. Então, no dia da maratona, quando os riscos são altos e o tempo está correndo, por que alguém recorreria a uma máquina sofisticada de adivinhar palavras como o ChatGPT?

Talvez seja porque o ChatGPT parece tão humano. Ele fez uma imitação impressionante de um guia local simpático e bem informado. A Circle Line? Pfft, é boa para turistas, mas você é um maratonista: pense em todas aquelas escadas! (É verdade, a velha e desgastada Circle Line tem escadas.)

Parte da conversa do bot me lembrou aqueles anúncios caça-cliques: AS SEGURADORAS ODEIAM ESTA BRECHA! O ChatGPT não estava apenas dando uma rota, mas fornecendo uma justificativa, até explicando por que não deveríamos dar ouvidos ao conselho convencional do Google Maps. Essa é a abordagem de um vigarista.

Na introdução de seu livro “The Confidence Game”, a psicóloga Maria Konnikova explica: “O verdadeiro vigarista não nos força a fazer nada: ele nos torna cúmplices de nossa própria ruína… acreditamos porque queremos acreditar”. Uma diferença entre o vigarista e o modelo de linguagem grande (LLM) é que o vigarista conhece a verdade e está tentando ocultá-la. Uma semelhança entre o vigarista e o LLM é que ambos aperfeiçoaram a arte de parecer plausíveis.

Um artigo recente na Nature conclui que, quando os LLMs são treinados para serem calorosos e amigáveis, eles também produzem respostas dramaticamente menos precisas, “promovendo teorias da conspiração, fornecendo informações factuais imprecisas e oferecendo conselhos médicos incorretos”. Isso parece ruim. Eu sugeriria que a realidade é pior: a IA bajuladora não apenas produz erros, ela nos convence a acreditar neles.

Em 1950, Alan Turing, o matemático e visionário da era da computação, propôs famosamente um “jogo da imitação” no qual um juiz humano se comunicaria por um terminal com um humano e um computador. A tarefa do computador era imitar a conversa humana de forma convincente o suficiente para persuadir o juiz.

O teste de Turing continua intrigante, mas há uma dificuldade antiga: a falibilidade do juiz. Um chatbot primitivo dos anos 1960, Eliza, respondia como uma paródia de terapeuta (“Como isso faz você se sentir?” “Por que você se sente triste?” “Por favor, continue.”). As pessoas adoravam; é bom se sentir ouvido.

Um chatbot dos anos 1980, MGonz, simplesmente disparava insultos e era perfeitamente plausível, em parte porque insultos são simples de proferir e principalmente porque provocam raiva em vez de reflexão no destinatário humano. E Robert Epstein, um especialista no teste de Turing, escreveu de forma divertida sobre como foi enganado em uma correspondência de quatro meses com uma senhora russa sexy que era, na verdade, um chatbot da era de 2006.

Nenhum desses bots tinha um milésimo da sofisticação de um LLM moderno, mas não precisavam: quando os humanos estão tristes, com raiva ou apaixonados, também não somos juízes muito sofisticados.

Todos nós vamos nos encontrar em variações estranhas do teste de Turing nos próximos anos, e me pergunto se estamos à altura. E não apenas nós, mas aqueles com poder sobre nós. Como Cory Doctorow, autor de “Enshittification”, gosta de observar: você não será substituído porque uma IA pode fazer seu trabalho, você será substituído porque um vendedor de IA convence seu chefe de que ela pode. Se minha jornada até a linha de largada da maratona serve de indicação, esse vendedor terá um trabalho fácil.

As capacidades da IA moderna são impressionantes. Mas o que determina se a usamos não é a capacidade, mas o quão impressionante ela parece. Estão correlacionadas, mas não são a mesma coisa.

Há uma história sobre o poeta francês Jacques Prévert vendo um homem pedindo esmolas nas ruas de Veneza com uma placa que dizia “Cego sem pensão”.

Prévert parou para conversar com ele; poucas pessoas se comoviam a contribuir, e Prévert se ofereceu para escrever uma nova placa.

No dia seguinte, ele voltou e encontrou o homem radiante. “É incrível; nunca recebi tanto dinheiro na vida.”

Prévert havia escrito: “A primavera está chegando, mas eu não vou vê-la.”

A nova placa não continha nenhuma novidade —na verdade, era menos informativa que a antiga. Mas contava uma história. O Google Maps era a primeira placa: me dizia onde pegar meu trem. O ChatGPT era a segunda placa: dizia ao meu companheiro não apenas para onde ir, mas como se sentir por escolher uma rota tão inteligente.

Deixei-o em Paddington, insistindo para que não tentasse pegar o trem inexistente da Elizabeth Line para London Bridge. Não tenho certeza se fui tão convincente quanto o ChatGPT.



Fonte.:Folha de S.Paulo

Leia mais

Rolar para cima