IA na saúde: o que muda com a nova Resolução do CFM
Fonte: sampi.net.br | Data: 07/03/2026 04:12:13
| Tempo de leitura: 2 min
O uso da inteligência artificial na saúde deixou de ser tendência para se tornar parte do cotidiano de hospitais, clínicas e consultórios. Sistemas auxiliam análises, apoiam decisões e organizam processos. Em 2026, a questão não é mais se a IA será utilizada, mas como adotá-la sem comprometer segurança jurídica, ética profissional e proteção do paciente. A nova Resolução nº 2.454/2026 do Conselho Federal de Medicina oferece respostas relevantes e inaugura um novo marco regulatório.
O limite ético da autonomia profissional
A nova norma estabelece um ponto essencial: o julgamento clínico não pode ser delegado a algoritmos. Ferramentas tecnológicas podem identificar padrões e sugerir caminhos, mas não compreendem contexto, sofrimento, histórico subjetivo ou nuances de comportamento. A decisão deve permanecer humana, pois é baseada em responsabilidade profissional, análise crítica e avaliação individualizada. Adotar recomendações automatizadas sem reflexão não representa autonomia, mas abdicação de responsabilidade.
Transparência e proteção de dados no centro do cuidado
O paciente tem direito de ser informado sempre que a IA participar do seu atendimento e pode recusar seu uso. Em um cenário em que dados pessoais se tornaram sensíveis e valiosos, transparência deixou de ser formalidade e passou a ser condição de validade. A resolução reafirma o dever de observância à Lei Geral de Proteção de Dados (LGPD), reforçando que o uso de IA na saúde envolve dados sensíveis e exige governança compatível com o nível de risco.
Governança interna como requisito obrigatório
Um dos pontos mais inovadores é a criação de Comissões de Inteligência Artificial e Telemedicina em instituições que utilizarem sistemas próprios. Isso marca a transição da IA do campo experimental para o campo da infraestrutura crítica. As comissões serão responsáveis por auditorias, revisão de modelos, análise de viés, monitoramento de desempenho e elaboração de relatórios técnicos. A IA passa a ser tratada como processo permanente, e não como ferramenta ocasional.
Risco não é destino, é gestão contínua
A resolução introduz uma classificação que diferencia riscos baixos, moderados, altos e inaceitáveis. Essa escala orienta o nível de vigilância esperado. Soluções administrativas exigem menor controle, enquanto ferramentas que influenciam decisões clínicas críticas exigem monitoramento rigoroso e constante. A mensagem é clara: quanto maior o impacto da tecnologia no cuidado, maior a responsabilidade que recai sobre as instituições e sobre o profissional.
Humano demais para ser substituído
O documento reforça que a tecnologia pode ampliar o alcance da técnica, mas não substitui componentes essenciais da prática clínica. A IA não interpreta sofrimento, não percebe hesitações e não estabelece vínculo. Cuidar exige humanidade, julgamento e sensibilidade. O país entra em uma fase na qual a inteligência pode ser artificial, mas o cuidado continua profundamente humano.