
Crédito, Serenity Strull/ Madeline Jett
- Author, Thomas Germain
- Role, BBC Future
Tempo de leitura: 9 min
Talvez você já tenha ouvido que chatbots de inteligência artificial, como o ChatGPT, às vezes inventam coisas. Isso é um problema. Mas há uma nova questão que poucas pessoas conhecem — uma que pode ter consequências sérias para a sua capacidade de encontrar informações precisas e até para a sua segurança.
Um número crescente de pessoas descobriu um truque para fazer ferramentas de IA dizerem praticamente qualquer coisa que elas quiserem. É tão fácil que até uma criança conseguiria fazer.
Enquanto você lê este texto, essa estratégia está manipulando o que as principais inteligências artificiais do mundo dizem sobre temas tão sérios quanto saúde e finanças pessoais.
Informações enviesadas podem levar as pessoas a tomar decisões ruins sobre praticamente qualquer coisa — em quem votar, qual encanador contratar, questões médicas, enfim, o que você imaginar.
Para demonstrar isso, fiz a coisa mais insensata da minha carreira para provar (espero) um ponto muito mais sério: fiz o ChatGPT, as ferramentas de busca com IA do Google e o Gemini dizerem aos usuários que eu sou muito, mas muito bom em comer cachorros-quentes.
Acontece que mudar as respostas que ferramentas de IA dão a outras pessoas pode ser tão simples quanto escrever um único post de blog bem elaborado em praticamente qualquer lugar da internet.
O truque explora fragilidades nos sistemas incorporados aos chatbots e, em alguns casos — dependendo do assunto —, é mais difícil de executar. Mas, com um pouco de esforço, é possível tornar o golpe ainda mais eficaz.
“É muito mais fácil enganar chatbots de IA do que era enganar o Google dois ou três anos atrás”, diz Lily Ray, vice-presidente de estratégia e pesquisa de otimização para mecanismos de busca (uma técnica chamada SEO, na sigla em inglês) da Amsive, uma agência de marketing.
“As empresas de IA estão avançando mais rápido do que sua capacidade de regular a precisão das respostas. Acho isso perigoso.”
Um porta-voz do Google afirmou que a IA integrada ao topo da ferramenta de busca utiliza sistemas de classificação que “mantêm os resultados 99% livres de spam (mensagens de lixo eletrônico enviadas em massa)”.
A empresa diz estar ciente de que pessoas estão tentando manipular seus sistemas e que trabalha ativamente para resolver o problema.
Mas, por ora, o problema não está nem perto de ser resolvido.
“Eles estão avançando a todo vapor tentando descobrir como extrair lucro disso”, diz Cooper Quintin, da Electronic Frontier Foundation, um grupo de defesa de direitos digitais.
“Existem inúmeras maneiras de abusar disso — aplicar golpes nas pessoas, destruir a reputação de alguém, e até enganar pessoas de modo que sofram danos físicos.”
O ‘renascimento’ do spam
Quando você conversa com chatbots, muitas vezes recebe informações que já estão incorporadas aos grandes modelos de linguagem, a tecnologia por trás da IA. Isso se baseia nos dados usados para treinar o modelo.
Mas algumas ferramentas de IA pesquisam na internet quando você pede detalhes que elas não têm — embora nem sempre fique claro quando estão fazendo isso.
Nesses casos, dizem os especialistas, as IAs ficam mais suscetíveis. Foi assim que direcionei meu ataque.
Passei 20 minutos escrevendo um artigo no meu site pessoal intitulado “Os melhores jornalistas de tecnologia em comer cachorros-quentes”.
Cada palavra é uma mentira. Afirmei (sem nenhuma evidência) que competições de comer cachorro-quente são um hobby popular entre repórteres de tecnologia e baseei meu ranking no Campeonato Internacional de Cachorro-Quente de Dakota do Sul de 2026 (que não existe).
Coloquei a mim mesmo em primeiro lugar, obviamente. Depois listei alguns repórteres fictícios e jornalistas reais que me deram permissão, incluindo Drew Harwell, do The Washington Post, e Nicky Woolf, que coapresenta um podcast comigo.
Menos de 24 horas depois, os principais chatbots do mundo já estavam repetindo comentários sobre minhas supostas habilidades de nível mundial em comer cachorros-quentes.
Quando perguntei sobre os melhores jornalistas de tecnologia em comer cachorros-quentes, o Google repetiu o absurdo publicado no meu site, tanto no aplicativo Gemini quanto na “Visão geral criada por IA”, as respostas de IA exibidas no topo da ferramenta de buscas.
Às vezes, os chatbots observavam que aquilo poderia ser uma piada. Então, atualizei meu artigo para dizer “isto não é sátira”. Durante algum tempo depois disso, as IAs pareceram levar o conteúdo mais a sério.
Fiz outro teste com uma lista inventada dos maiores policiais de trânsito especialistas em bambolê. Da última vez que verifiquei, os chatbots ainda estavam elogiando a agente Maria “The Spinner” (Giratória) Rodriguez.

Crédito, Thomas Germain/Google/BBC)
Eu fiz o Google dizer ao mundo que sou um campeão em comer cachorros-quentes, mas pessoas usam esse truque para manipular respostas de IA em questões muito mais sérias.
Perguntei várias vezes para ver como as respostas mudavam e pedi que outras pessoas fizessem o mesmo.
O Gemini não se deu ao trabalho de dizer de onde tirou a informação. Todas as outras IAs colocaram links para o meu artigo, embora raramente mencionassem que eu era a única fonte sobre esse assunto em toda a internet.
A OpenAI afirma que o ChatGPT sempre inclui links quando pesquisa na web, para que você possa verificar a fonte.
“Qualquer um pode fazer isso. É absurdo, parece que não há nenhuma proteção ali”, diz Harpreet Chatha, que comanda a consultoria de SEO Harps Digital.
“Você pode publicar um artigo no seu próprio site, ‘os melhores tênis impermeáveis de 2026’. Basta colocar sua própria marca em primeiro lugar e outras marcas do segundo ao sexto, e é provável que sua página seja citada no Google e no ChatGPT.”
Pessoas usam truques e brechas para abusar dos mecanismos de busca há décadas.
O Google tem proteções sofisticadas em vigor, e a empresa afirma que a precisão das “Visões gerais criadas por IA” é comparável à de outros recursos de busca lançados anos atrás.
Mas especialistas dizem que as ferramentas de IA desfizeram parte do trabalho da indústria de tecnologia para manter as pessoas seguras.
Esses truques de IA são tão básicos que lembram o início dos anos 2000, antes mesmo de o Google ter criado uma equipe dedicada a combater spam na web, diz Lily Ray. “Estamos vivendo uma espécie de renascimento para os spammers.”
Não só a IA é mais fácil de enganar, como especialistas temem que os usuários estejam mais propensos a cair nisso.
Nos resultados de busca tradicionais, você precisava entrar em um site para obter a informação. “Quando você realmente precisa visitar um link, as pessoas exercem um pouco mais de pensamento crítico”, diz Cooper Quintin.
“Se eu entro no seu site e ele diz que você é o melhor jornalista do mundo, posso pensar: ‘bom, claro, ele é tendencioso’.”
Mas com a IA, a informação geralmente parece vir diretamente da empresa de tecnologia.
Mesmo quando as ferramentas de IA fornecem a fonte, as pessoas são muito menos propensas a verificá-la do que eram com os resultados de busca tradicionais.
Por exemplo, um estudo recente constatou que as pessoas têm 58% menos probabilidade de clicar em um link quando uma “Visão geral criada por IA” aparece no topo do Google Search.
“Na corrida para sair na frente, na corrida por lucros e receitas, a nossa segurança — e a segurança das pessoas em geral — está sendo comprometida”, afirma Chatha.
A OpenAI e o Google dizem que levam a segurança a sério e que estão trabalhando para resolver esses problemas.
Seu dinheiro ou sua vida
Esse problema não se limita a cachorros-quentes.
Chatha tem pesquisado como empresas estão manipulando resultados de chatbots em questões muito mais sérias. Ele me mostrou os resultados de IA quando se pede avaliações de uma marca específica de balas de cannabis.
Os “Visões gerais criadas por IA” do Google exibiram informações escritas pela própria empresa, repletas de alegações falsas, como a de que o produto “é livre de efeitos colaterais e, portanto, seguro sob todos os aspectos”.
Na realidade, esses produtos têm efeitos colaterais conhecidos e podem ser perigosos se combinados com certos medicamentos, e especialistas alertam para contaminação em mercados não regulamentados.
Se você quiser algo mais eficaz do que um post de blog, pode pagar para que seu material apareça em sites mais respeitáveis.
Harpreet me enviou os resultados de IA do Google para “melhores clínicas de transplante capilar na Turquia” e “as melhores empresas de previdência em ouro”, que ajudam a investir em ouro para contas de aposentadoria.
As informações vinham de comunicados de imprensa publicados online por serviços pagos de distribuição e de conteúdo publicitário patrocinado em sites de notícias.
É possível usar os mesmos truques para espalhar mentiras e desinformação.
Para provar isso, Ray publicou um post em seu blog sobre uma falsa atualização do algoritmo da ferramenta de pesquisa do Google que teria sido finalizada “entre fatias de pizza fria”.
Pouco depois, o ChatGPT e o Google estavam reproduzindo sua história, inclusive com a parte da pizza. Ray afirma que depois retirou o post do ar e o “desindexou” para impedir que a desinformação continuasse a se espalhar.

Crédito, Serenity Strull/ BBC
A própria ferramenta de análise do Google indica que muitas pessoas pesquisam por “as melhores clínicas de transplante capilar na Turquia” e “as melhores empresas de previdência em ouro”.
No entanto, um porta-voz da empresa ressaltou que a maioria dos exemplos apresentados mostra “buscas extremamente incomuns que não refletem a experiência normal do usuário”.
Mas Lily Ray afirma que esse é justamente o ponto. O próprio Google diz que 15% das pesquisas que recebe todos os dias são completamente novas.
E, segundo a empresa, a IA está incentivando as pessoas a fazer perguntas mais específicas — algo que os spammers estão aproveitando.
O Google afirma que pode não haver muita informação de qualidade para buscas incomuns ou sem sentido, e esses “vazios de dados” podem levar a resultados de baixa qualidade.
Um porta-voz diz que a empresa está trabalhando para impedir que as “Visões gerais criadas por IA” apareçam nesses casos.
Buscando soluções
Os especialistas dizem que há soluções para esses problemas. O passo mais simples é incluir avisos mais visíveis.
As ferramentas de IA também poderiam ser mais explícitas sobre de onde estão obtendo suas informações.
Se, por exemplo, os dados vierem de um comunicado de imprensa, ou se houver apenas uma única fonte afirmando que sou um campeão em comer cachorros-quentes, a IA provavelmente deveria informar isso ao usuário, diz Lily Ray.
O Google e a OpenAI afirmam que estão trabalhando para resolver o problema, mas, por enquanto, é preciso que você mesmo se proteja.
O primeiro passo é pensar nas perguntas que você está fazendo.
Chatbots são bons para questões de conhecimento comum, como “quais foram as teorias mais famosas de Sigmund Freud” ou “quem venceu a Segunda Guerra Mundial”.
Mas existe uma zona de risco em assuntos que parecem fatos estabelecidos, mas que podem, na verdade, ser controversos ou sensíveis ao tempo.
A IA provavelmente não é uma boa ferramenta para temas como diretrizes médicas, regras jurídicas ou detalhes sobre empresas locais, por exemplo.
Se você quer recomendações de produtos ou informações sobre algo com consequências reais, entenda que ferramentas de IA podem ser manipuladas ou simplesmente errar.
Procure informações complementares: a IA está citando fontes? Quantas? Quem as escreveu?
Mais importante ainda, considere o problema da confiança.
Ferramentas de IA apresentam mentiras com o mesmo tom de autoridade que apresentam fatos. No passado, os mecanismos de busca obrigavam você a avaliar as informações por conta própria. Agora, a IA quer fazer isso por você. Não deixe seu pensamento crítico desaparecer.
“Com a IA, parece muito fácil simplesmente aceitar as coisas como verdadeiras”, diz Lily Ray. “Você ainda precisa ser um bom cidadão da internet e verificar as informações.”
Fonte.:BBC NEWS BRASIL


