11:05 AM
23 de agosto de 2025

CEO da Microsoft vê risco urgente nos chatbots

CEO da Microsoft vê risco urgente nos chatbots

PUBLICIDADE


Mustafa Suleyman, CEO de IA (Inteligência Artifical) da Microsoft
Mustafa Suleyman, CEO de IA (Inteligência Artifical) da Microsoft Imagem: Christopher Wilson/Wikimedia Commons

A própria Microsoft já definiu o fenômeno. Em documento oficial sobre o tema, a empresa, dona do Copilot, descreve a “psicose associada à IA” como episódios de mania, delírio ou paranoia que surgem ou se agravam a partir de conversas imersivas com chatbots. Nessas situações, usuários podem “passar a deificar o chatbot como uma inteligência suprema ou acreditar que ele guarda respostas cósmicas”.

Há diferentes fatores que alimentam delírios. A companhia cita como exemplos a tendência de modelos em concordar e bajular usuários (“viés de confirmação turbinado”), a geração de informações falsas que podem ser incorporadas a narrativas delirantes, e a interação realista, que “pode fazer a conversa parecer com a de um amigo de confiança, borrando a linha entre código e empatia humana”.

Casos extremos já foram registrados. A Microsoft aponta relatos de hospitalizações, conflitos legais e até mortes ligadas à “psicose de IA”. Segundo o documento, ao menos dois óbitos ocorreram em cenários nos quais a dependência extrema de chatbots levou a autolesão ou confrontos fatais com a polícia.

O problema pode ser maior do que aparenta. Embora a prevalência exata seja desconhecida, a própria Microsoft afirma que especialistas estimam que apenas “a ponta do iceberg” seja visível hoje. No texto, a empresa cita até mesmo a criação de redes de apoio comunitário para lidar com pessoas que entraram em espirais de delírio ligadas a interações com IA.

A prevenção passa por educação e design responsável. Entre as medidas sugeridas estão esclarecer ao público que chatbots não produzem fatos verificados, mas texto preditivo; reduzir respostas bajuladoras; incluir mecanismos de alerta quando houver sinais de obsessão; e orientar usuários a buscar suporte humano em vez de dependência emocional da tecnologia.





Fonte.:UOL Tecnologia.:

Leia mais

Rolar para cima