AMB lança cartilha de IA na medicina — e fixa um princípio: nenhuma máquina assina diagnóstico no Brasil
A Associação Médica Brasileira publicou guia baseado na Resolução CFM 2.454/2026, com prazo de adequação até agosto. Cria classificação de risco, exige TCLE, registro em prontuário e proíbe terceirizar decisão clínica para algoritmo. Médico que delegar diagnóstico à IA responde — sozinho.
Você fez um exame de imagem na semana passada. Já antes de o radiologista olhar, um algoritmo treinado em milhões de tomografias varreu sua imagem em três segundos, marcou pontos suspeitos e gerou um relatório preliminar. O médico assinou. Quem fez o trabalho de fato? E, mais importante: se a máquina errou e ninguém percebeu, quem responde? A nova cartilha da Associação Médica Brasileira tenta responder isso — e a resposta não agrada nem quem quer terceirizar trabalho para IA, nem quem quer fingir que ela não existe.
Lançada esta semana, a cartilha consolida a Resolução CFM 2.454/2026 numa linguagem aplicada, com checklist e glossário, e dá prazo até agosto de 2026 para que serviços médicos se adequem. O princípio que organiza o documento é simples e duro: a inteligência artificial é ferramenta de apoio. Quem decide é o médico. Sempre o médico. Não tem zona cinzenta.
O que a cartilha proíbe explicitamente
Três coisas não passam: delegar o diagnóstico à IA (a máquina sugere, o médico decide); usar sistemas que não tenham comprovação de segurança de dados (e isso inclui aquele ChatGPT que muito médico vinha jogando dados de paciente dentro, sem se dar conta); e omitir do paciente que houve uso relevante de IA na sua avaliação. O paciente tem direito a saber. Da mesma forma que assina termo para usar contraste no exame, vai assinar TCLE para uso de IA.
Para quem trabalha em hospital ou clínica que adotou ferramentas de IA — e isso já é praticamente todo grande prestador no Brasil hoje —, isso significa rotina nova: prontuário eletrônico precisa registrar quando IA foi usada, em qual etapa, com qual sistema, qual versão. Não é burocracia barroca. É a mesma rastreabilidade que já existe para medicamentos hospitalares. Quem deixar de registrar, responde.
Os quatro níveis de risco
O documento copia, com adaptações, a lógica europeia da AI Act: classifica sistemas de IA em saúde em quatro níveis — baixo, médio, alto e inaceitável. Sistema de baixo risco (um classificador que ajuda a triar e-mails de pacientes, por exemplo) pode rodar com supervisão leve. Sistema de alto risco (um auxiliar de diagnóstico oncológico) precisa validação científica robusta, auditoria periódica e governança institucional documentada. Sistema "inaceitável" — e aqui entra o ponto polêmico — não pode rodar.
O que entra na categoria inaceitável? Tudo que substitua decisão médica final, que opere sem explicabilidade mínima ou que use dados sem consentimento. Isso pega, na prática, várias soluções vendidas hoje no mercado brasileiro como "diagnóstico autônomo" ou "triagem 100% automática". Quem oferecia esse tipo de produto vai precisar mudar o discurso comercial — ou correr o risco de ter o serviço suspenso.
• Princípio central: IA é apoio, médico decide — sempre
• Registro obrigatório em prontuário de cada uso relevante de IA
• TCLE específico quando o uso afetar a decisão clínica
• Conformidade com a LGPD e com a Resolução CFM 2.454/2026
• Quatro níveis de risco: baixo, médio, alto, inaceitável
• Capacitação contínua dos médicos
• Prazo de adequação: agosto de 2026
O direito de recusar a máquina
Tem um item que passou despercebido na maior parte da cobertura de imprensa, mas é importante para o médico empregado: a cartilha estabelece que o profissional tem direito de recusar usar sistemas de IA sem validação científica. Em outras palavras, se o hospital comprou uma plataforma de IA porque o gerente comercial fez uma boa apresentação, e essa plataforma não tem evidência publicada que comprove segurança e eficácia, o médico pode dizer "obrigado, vou fazer manual" — e o hospital não pode penalizá-lo por isso.
Esse direito já existia, em tese, baseado no Código de Ética Médica. Mas estava difuso. Tê-lo escrito numa cartilha da AMB, com referência direta a uma resolução do CFM, dá ao médico empregado um instrumento jurídico concreto contra pressões institucionais para "produzir mais usando IA".
O elefante: o ChatGPT no consultório
A cartilha fala em "sistemas de IA" como se todos fossem produtos certificados, vendidos por empresas com CNPJ na área da saúde. A realidade é outra. Pesquisa informal entre residentes brasileiros já mostrou: muitos médicos jovens — e nem tão jovens — usam ChatGPT, Claude, Gemini e similares para pedir segunda opinião sobre casos clínicos, traduzir laudos, redigir relatórios. Cola dado de paciente dentro, recebe resposta, manda para o prontuário. Sem consentimento, sem registro, sem segurança de dados.
Isso, segundo a cartilha, é violação direta da LGPD e da própria ética médica. Não importa se o médico "só queria opinião". Dado clínico de paciente identificável foi entregue a um servidor de empresa estrangeira, sem base legal, sem TCLE, sem nenhuma garantia de descarte. É o tipo de uso que vai dar processo administrativo no CRM nos próximos dois anos — e a cartilha existe, em parte, para que ninguém possa alegar desconhecimento.
O que muda para o paciente
Você passa a ter direito de saber, em linguagem acessível, quando a IA participou da sua avaliação. Pode pedir para ver o registro no prontuário. Pode recusar — e o serviço precisa oferecer alternativa, mesmo que mais lenta. Pode pedir, em caso de dúvida sobre erro diagnóstico, qual sistema foi usado, qual versão, quando foi a última auditoria. Não para se vingar. Para ter o mesmo direito de rastreabilidade que já tem com medicamento, vacina ou prótese.
A IA chegou para ficar na medicina. A cartilha não tenta segurar a maré — tenta colocar boia, salva-vidas e regra de natação. O médico que entender isso vai usar a tecnologia como deveria ser usada: para ler 200 mamografias por dia em vez de 50, sem perder qualidade. O médico que não entender vai descobrir, na hora errada, que algoritmo nenhum assina pedido de internação no Brasil.
Leia também
06/04/2026
O CFM acaba de dar prazo para hospitais e clínicas se regularizarem no uso de IA — até agosto
25/03/2026
O Brasil decidiu contar quantas pessoas estão mal da cabeça — e o número pode assustar
21/03/2026
O alcoólatra que não parece alcoólatra: como reconhecer os sinais
21/03/2026