A IA Claude agora pode encerrar conversas que o deixem “angustiado” por tempo demais. Em meados de agosto, a Anthropic seu chatbot perceberá quando o usuário insiste em um assunto que ele não queira falar e, se não restarem alternativas, finalizará o papo.
O recurso está presente nos modelos Opus 4 e Opus 4.1 e busca evitar interações em que usuários insistem em solicitar a geração de conteúdo danoso, mesmo após recusas e sugestões de alternativas.
Quando o Claude interrompe uma conversa, o usuário não pode enviar novas mensagens naquele chat. Ainda assim, é possível criar outra conversa do zero ou editar prompts antigos para pedir revisões.
)
A ferramenta faz isso ao identificar o chamado “nível de estresse” do chatbot, que é acionado quando há insistência repetida em pedidos que a IA não pode atender.
De acordo com a Anthropic, o Claude é projetado para resistir à criação de conteúdos nocivos, como material sexual envolvendo menores ou solicitações ligadas a violência e terrorismo. Os sinais de estresse apareciam justamente em situações desse tipo, quando usuários tentavam forçar a IA a produzir material proibido.
Um último recurso
O encerramento de conversas abusivas deve ocorrer apenas em casos extremos e não deve ser acionado com frequência. A empresa destaca que o recurso ainda está em fase de testes e será ajustado ao longo do tempo.
Se os usuários perceberem encerramentos indevidos, a Anthropic recomenda o envio de feedback para aprimorar o comportamento do chatbot.
Quer acompanhar mais novidades sobre inteligência artificial e segurança digital? Siga o TecMundo no X, Instagram, Facebook e YouTube e assine a nossa newsletter para receber atualizações direto no seu e-mail.
Fonte.: TecMundo