
Ler Resumo
Introdução
O CFM divulgou novas regras para o uso de Inteligência Artificial na medicina, sinalizando maturidade regulatória. A resolução garante a autonomia do médico, a transparência com o paciente e define deveres para os profissionais e instituições. Entenda as diretrizes que protegem a relação médico-paciente e classificam os riscos da tecnologia na saúde.
- A IA deve ser um apoio, não substituindo a autonomia e a decisão final do médico.
- Médicos têm o dever de exercer julgamento crítico e se manter atualizados sobre as ferramentas de IA.
- Pacientes devem ser informados sobre o uso da IA em seu tratamento e ter seus dados protegidos.
- A resolução estabelece graus de risco (baixo, médio, alto, inaceitável) para os sistemas de IA na saúde.
- Há proteção ao médico contra responsabilização por falhas 100% atribuíveis à tecnologia.
Este resumo foi útil?
Resumo gerado por ferramenta de IA treinada pela redação da Editora Abril.
O Conselho Federal de Medicina (CFM) divulgou uma resolução sobre o uso de inteligência artificial (IA) em atendimentos médicos. O texto foi publicado no Diário Oficial da União nesta sexta, 27.
As novas regras passam a valer em 180 dias, e envolvem diversos aspectos do emprego da tecnologia na assistência. Nos últimos anos, houve uma explosão de soluções baseadas em IA para auxílio a diagnósticos, exames, triagem, preenchimento de prontuários, entre outros serviços.
Para juristas, a resolução é bem-vinda e sinaliza um amadurecimento do setor no Brasil. “A Resolução 2454/26 sinaliza maturidade regulatória ao reconhecer o potencial da inteligência artificial sem afastar a responsabilidade do médico na tomada de decisão clínica”, afirma Renato Opice Blum, advogado, economista e professor de direito digital, IA e proteção de dados na FAAP e INSPER.
Entre os destaques dos especialistas, estão a governança, a classificação de riscos e a exigência de supervisão humana contínua. “Um dos pontos centrais é a obrigatoriedade de avaliação preliminar de risco e classificação dos sistemas com base no impacto potencial à saúde do paciente”, diz Henrique Fabretti, CEO do Opice Blum Advogados.
A seguir, entenda o que muda e o que está ou não permitido.
Direitos do médico
Um dos principais destaques do documento é a garantia da autonomia do médico e das instituições médicas. Em resumo, o texto afirma:
- Que a IA não pode restringir ou substituir a autoridade do médico;
- Que a decisão final sobre diagnóstico, prescrições ou qualquer ato médico sempre caberá ao profissional, que pode receber sugestões da IA;
- Que a autonomia também garante o direito de não usar ou desligar modelos e aplicações de IA que julgar inadequados no momento.
A resolução afirma ainda que o médico tem direito de usar a IA como apoio a sua prática, desde que respeitados os limites éticos e legais da profissão. E que deve ser protegido contra responsabilização indevida quando houver falhas 100% atribuíveis à tecnologia.
+Leia também: Um mergulho na medicina na era da inteligência artificial
Deveres do médico ao usar IA
O profissional também tem que observar regras estabelecidas pelo órgão. Entre as principais, estão:
- Exercer julgamento crítico sobre as informações e recomendações fornecidas pela IA;
- Manter-se atualizado quanto às capacidades, limitações, riscos e vieses conhecidos dos sistemas utilizados;
- Usar IAs que atendam às normas éticas, técnicas, legais e regulatórias vigentes no território nacional;
- Registrar no prontuário do paciente o uso de IAs.
Cabe a ela também assegurar que a IA não comprometa a relação médico-paciente, ou seja: não prejudique a escuta, a empatia e a confidencialidade.
O que você precisa saber antes da próxima consulta
O CFM também garante direitos a quem está do outro lado da mesa do consultório. “Outro destaque é a transparência, uma vez que o paciente deve ser informado de que seu tratamento pode estar sendo impactado por IA e de que forma isso ocorre”, aponta Fabretti.
Ou seja, o médico precisa comunicar de forma clara e acessível se estiver usando qualquer tecnologia, e também deve zelar pela segurança dos dados do paciente, visto que as informações sobre saúde são muito sensíveis e vulneráveis a golpes.
O indivíduo também não pode receber, nunca, diagnósticos feitos e/ou entregues por uma IA.
A fiscalização do uso
O CFM determina que as instituições de saúde devem monitorar constamente o uso de ferramentas de IA, incluindo auditorias para identificar erros, desvios ou vieses.
A profundidade dessa fiscalização deve levar em conta o grau de risco que a solução oferece aos pacientes. Para isso, a autarquia criou 4 graus de classificação:
- Risco baixo: tendem a causar no máximo atrasos ou inconvenientes. Exemplos: funções administrativas, gestão de insumos, chatbots de informações generalizadas sobre saúde;
- Risco médio: aplicações com potencial de impacto negativo, mas contornável com controles de segurança e supervisão humana. Exemplos: software de apoio à decisões clínicas ou operacionais que não operam de forma autônoma;
- Risco alto: ferramentas que podem gerar dano físico, psíquico ou moral. São qualquer programa que execute decisões médicas críticas ou ações de forma automatizada.
- Risco inaceitável: o CFM não detalhou o que se enquadraria nessa categoria.
Fonte.:Saúde Abril


