
A própria Microsoft já definiu o fenômeno. Em documento oficial sobre o tema, a empresa, dona do Copilot, descreve a “psicose associada à IA” como episódios de mania, delírio ou paranoia que surgem ou se agravam a partir de conversas imersivas com chatbots. Nessas situações, usuários podem “passar a deificar o chatbot como uma inteligência suprema ou acreditar que ele guarda respostas cósmicas”.
Há diferentes fatores que alimentam delírios. A companhia cita como exemplos a tendência de modelos em concordar e bajular usuários (“viés de confirmação turbinado”), a geração de informações falsas que podem ser incorporadas a narrativas delirantes, e a interação realista, que “pode fazer a conversa parecer com a de um amigo de confiança, borrando a linha entre código e empatia humana”.
Casos extremos já foram registrados. A Microsoft aponta relatos de hospitalizações, conflitos legais e até mortes ligadas à “psicose de IA”. Segundo o documento, ao menos dois óbitos ocorreram em cenários nos quais a dependência extrema de chatbots levou a autolesão ou confrontos fatais com a polícia.
O problema pode ser maior do que aparenta. Embora a prevalência exata seja desconhecida, a própria Microsoft afirma que especialistas estimam que apenas “a ponta do iceberg” seja visível hoje. No texto, a empresa cita até mesmo a criação de redes de apoio comunitário para lidar com pessoas que entraram em espirais de delírio ligadas a interações com IA.
A prevenção passa por educação e design responsável. Entre as medidas sugeridas estão esclarecer ao público que chatbots não produzem fatos verificados, mas texto preditivo; reduzir respostas bajuladoras; incluir mecanismos de alerta quando houver sinais de obsessão; e orientar usuários a buscar suporte humano em vez de dependência emocional da tecnologia.
Fonte.:UOL Tecnologia.: