Conselho Federal define regras para uso de IA na medicina

Resolução proíbe diagnósticos automatizados sem mediação humana e mantém responsabilidade exclusiva do médico

A IA na medicina passa a ter regras específicas no Brasil. O Conselho Federal de Medicina (CFM) publicou nesta sexta-feira (27), no Diário Oficial da União, a primeira resolução que regulamenta o uso de inteligência artificial na prática médica.

A norma estabelece que a tecnologia deve atuar exclusivamente como ferramenta de apoio, sem substituir a decisão clínica do profissional. A resolução entra em vigor em 180 dias.

IA na medicina: apoio, não substituição

O texto deixa claro que sistemas de inteligência artificial podem ser utilizados para:

  • Apoio à decisão clínica

  • Gestão em saúde

  • Pesquisa

  • Educação médica continuada

No entanto, determina que:

  • O médico não pode ser obrigado a seguir recomendações automatizadas

  • A tecnologia não pode restringir a autonomia profissional

  • A decisão final deve ser sempre humana

A resolução afirma que “as soluções apresentadas pelos modelos de IA não são soberanas, sendo obrigatória a supervisão humana”.

Um dos pontos centrais da norma é a proibição de que sistemas de IA comuniquem diagnósticos ou decisões terapêuticas diretamente ao paciente.

Segundo o texto: “É vedado ao médico delegar à IA a comunicação de diagnósticos, prognósticos ou decisões terapêuticas, sem a devida mediação humana.”

Além disso, o paciente deverá ser informado de forma clara quando a IA for utilizada como apoio relevante e ter o direito de recusar o uso da tecnologia.

Responsabilidade continua sendo do médico

Mesmo com o uso de ferramentas avançadas, a responsabilidade por diagnósticos, prognósticos e tratamentos permanece exclusivamente do profissional.

A resolução reforça que:

  • O uso de IA não isenta o cumprimento do Código de Ética Médica

  • Falhas exclusivamente atribuíveis ao sistema não geram responsabilização indevida, desde que o médico tenha atuado com diligência

  • É obrigatório registrar em prontuário quando a IA for utilizada como apoio

Também passa a ser dever do profissional comunicar riscos ou falhas às instâncias competentes.

A norma cria quatro níveis de risco para sistemas de IA:

  • Baixo

  • Médio

  • Alto

  • Inaceitável

A categorização deve considerar:

  • Impacto nos direitos fundamentais

  • Sensibilidade dos dados utilizados

  • Grau de autonomia do sistema

  • Criticidade do contexto clínico

Instituições públicas e privadas deverão realizar avaliação preliminar antes de adotar a tecnologia.

Hospitais terão Comissão de IA

Hospitais que utilizarem ou desenvolverem sistemas próprios deverão criar uma Comissão de IA e Telemedicina, subordinada à diretoria técnica e coordenada por médico.

Essa comissão será responsável por:

  • Governança da tecnologia

  • Monitoramento contínuo

  • Auditoria especializada

  • Garantia de uso ético e seguro

A fiscalização caberá aos Conselhos Regionais de Medicina.

A resolução também reforça a obrigatoriedade de cumprimento da Lei Geral de Proteção de Dados (LGPD).

Modelos de IA que não garantirem proteção adequada a dados sensíveis não poderão ser utilizados. O uso de dados para treinamento ou validação deverá observar critérios éticos, científicos e padrões mínimos de segurança da informação.

O que muda na prática

Com a nova regra:

  • Médicos devem registrar o uso de IA no prontuário

  • Pacientes têm direito à informação e recusa

  • Hospitais precisam estruturar governança formal da tecnologia

  • Diagnósticos não podem ser comunicados por sistemas automatizados

  • A decisão clínica final permanece humana

A publicação representa o primeiro marco regulatório específico para IA na medicina no Brasil.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Envie sua notícia!

Participe do OCorre enviando notícias, fotos ou vídeos de fatos relevantes.
Preencha o formulário abaixo e, após verificação de nossa equipe, seu conteúdo poderá ser publicado.