5:56 PM
27 de fevereiro de 2026

IA na medicina: saiba o que pode (e o que não pode) segundo nova resolução do CFM

IA na medicina: saiba o que pode (e o que não pode) segundo nova resolução do CFM

PUBLICIDADE



Ler Resumo

O Conselho Federal de Medicina (CFM) divulgou uma resolução sobre o uso de inteligência artificial (IA) em atendimentos médicos. O texto foi publicado no Diário Oficial da União nesta sexta, 27.

As novas regras passam a valer em 180 dias, e envolvem diversos aspectos do emprego da tecnologia na assistência. Nos últimos anos, houve uma explosão de soluções baseadas em IA para auxílio a diagnósticos, exames, triagem, preenchimento de prontuários, entre outros serviços.

Para juristas, a resolução é bem-vinda e sinaliza um amadurecimento do setor no Brasil. “A Resolução 2454/26 sinaliza maturidade regulatória ao reconhecer o potencial da inteligência artificial sem afastar a responsabilidade do médico na tomada de decisão clínica”, afirma Renato Opice Blum, advogado, economista e professor de direito digital, IA e proteção de dados na FAAP e INSPER.

Entre os destaques dos especialistas, estão a governança, a classificação de riscos e a exigência de supervisão humana contínua. “Um dos pontos centrais é a obrigatoriedade de avaliação preliminar de risco e classificação dos sistemas com base no impacto potencial à saúde do paciente”, diz Henrique Fabretti, CEO do Opice Blum Advogados.

A seguir, entenda o que muda e o que está ou não permitido.

Direitos do médico

Um dos principais destaques do documento é a garantia da autonomia do médico e das instituições médicas. Em resumo, o texto afirma:

Continua após a publicidade

  • Que a IA não pode restringir ou substituir a autoridade do médico;
  • Que a decisão final sobre diagnóstico, prescrições ou qualquer ato médico sempre caberá ao profissional, que pode receber sugestões da IA;
  • Que a autonomia também garante o direito de não usar ou desligar modelos e aplicações de IA que julgar inadequados no momento.

A resolução afirma ainda que o médico tem direito de usar a IA como apoio a sua prática, desde que respeitados os limites éticos e legais da profissão. E que deve ser protegido contra responsabilização indevida quando houver falhas 100% atribuíveis à tecnologia.

+Leia também: Um mergulho na medicina na era da inteligência artificial

Deveres do médico ao usar IA

O profissional também tem que observar regras estabelecidas pelo órgão. Entre as principais, estão:

  • Exercer julgamento crítico sobre as informações e recomendações fornecidas pela IA;
  • Manter-se atualizado quanto às capacidades, limitações, riscos e vieses conhecidos dos sistemas utilizados;
  • Usar IAs que atendam às normas éticas, técnicas, legais e regulatórias vigentes no território nacional;
  • Registrar no prontuário do paciente o uso de IAs.
Continua após a publicidade

Cabe a ela também assegurar que a IA não comprometa a relação médico-paciente, ou seja: não prejudique a escuta, a empatia e a confidencialidade.

O que você precisa saber antes da próxima consulta

O CFM também garante direitos a quem está do outro lado da mesa do consultório. “Outro destaque é a transparência, uma vez que o paciente deve ser informado de que seu tratamento pode estar sendo impactado por IA e de que forma isso ocorre”, aponta Fabretti.

Ou seja, o médico precisa comunicar de forma clara e acessível se estiver usando qualquer tecnologia, e também deve zelar pela segurança dos dados do paciente, visto que as informações sobre saúde são muito sensíveis e vulneráveis a golpes.

O indivíduo também não pode receber, nunca, diagnósticos feitos e/ou entregues por uma IA.

Continua após a publicidade

A fiscalização do uso

O CFM determina que as instituições de saúde devem monitorar constamente o uso de ferramentas de IA, incluindo auditorias para identificar erros, desvios ou vieses.

A profundidade dessa fiscalização deve levar em conta o grau de risco que a solução oferece aos pacientes. Para isso, a autarquia criou 4 graus de classificação:

  •  Risco baixo: tendem a causar no máximo atrasos ou inconvenientes. Exemplos: funções administrativas, gestão de insumos, chatbots de informações generalizadas sobre saúde;
  • Risco médio: aplicações com potencial de impacto negativo, mas contornável com controles de segurança e supervisão humana. Exemplos: software de apoio à decisões clínicas ou operacionais que não operam de forma autônoma;
  • Risco alto: ferramentas que podem gerar dano físico, psíquico ou moral. São qualquer programa que execute decisões médicas críticas ou ações de forma automatizada.
  • Risco inaceitável: o CFM não detalhou o que se enquadraria nessa categoria.



Fonte.:Saúde Abril

Leia mais

Rolar para cima