A IA na medicina passa a ter regras específicas no Brasil. O Conselho Federal de Medicina (CFM) publicou nesta sexta-feira (27), no Diário Oficial da União, a primeira resolução que regulamenta o uso de inteligência artificial na prática médica.
A norma estabelece que a tecnologia deve atuar exclusivamente como ferramenta de apoio, sem substituir a decisão clínica do profissional. A resolução entra em vigor em 180 dias.
IA na medicina: apoio, não substituição
O texto deixa claro que sistemas de inteligência artificial podem ser utilizados para:
-
Apoio à decisão clínica
-
Gestão em saúde
-
Pesquisa
-
Educação médica continuada
No entanto, determina que:
-
O médico não pode ser obrigado a seguir recomendações automatizadas
-
A tecnologia não pode restringir a autonomia profissional
-
A decisão final deve ser sempre humana
A resolução afirma que “as soluções apresentadas pelos modelos de IA não são soberanas, sendo obrigatória a supervisão humana”.
Um dos pontos centrais da norma é a proibição de que sistemas de IA comuniquem diagnósticos ou decisões terapêuticas diretamente ao paciente.
Segundo o texto: “É vedado ao médico delegar à IA a comunicação de diagnósticos, prognósticos ou decisões terapêuticas, sem a devida mediação humana.”
Além disso, o paciente deverá ser informado de forma clara quando a IA for utilizada como apoio relevante e ter o direito de recusar o uso da tecnologia.
Responsabilidade continua sendo do médico
Mesmo com o uso de ferramentas avançadas, a responsabilidade por diagnósticos, prognósticos e tratamentos permanece exclusivamente do profissional.
A resolução reforça que:
-
O uso de IA não isenta o cumprimento do Código de Ética Médica
-
Falhas exclusivamente atribuíveis ao sistema não geram responsabilização indevida, desde que o médico tenha atuado com diligência
-
É obrigatório registrar em prontuário quando a IA for utilizada como apoio
Também passa a ser dever do profissional comunicar riscos ou falhas às instâncias competentes.
A norma cria quatro níveis de risco para sistemas de IA:
-
Baixo
-
Médio
-
Alto
-
Inaceitável
A categorização deve considerar:
-
Impacto nos direitos fundamentais
-
Sensibilidade dos dados utilizados
-
Grau de autonomia do sistema
-
Criticidade do contexto clínico
Instituições públicas e privadas deverão realizar avaliação preliminar antes de adotar a tecnologia.
Hospitais terão Comissão de IA
Hospitais que utilizarem ou desenvolverem sistemas próprios deverão criar uma Comissão de IA e Telemedicina, subordinada à diretoria técnica e coordenada por médico.
Essa comissão será responsável por:
-
Governança da tecnologia
-
Monitoramento contínuo
-
Auditoria especializada
-
Garantia de uso ético e seguro
A fiscalização caberá aos Conselhos Regionais de Medicina.
A resolução também reforça a obrigatoriedade de cumprimento da Lei Geral de Proteção de Dados (LGPD).
Modelos de IA que não garantirem proteção adequada a dados sensíveis não poderão ser utilizados. O uso de dados para treinamento ou validação deverá observar critérios éticos, científicos e padrões mínimos de segurança da informação.
O que muda na prática
Com a nova regra:
-
Médicos devem registrar o uso de IA no prontuário
-
Pacientes têm direito à informação e recusa
-
Hospitais precisam estruturar governança formal da tecnologia
-
Diagnósticos não podem ser comunicados por sistemas automatizados
-
A decisão clínica final permanece humana
A publicação representa o primeiro marco regulatório específico para IA na medicina no Brasil.


