82% do setor de saúde acha que a regulação é falha — e ninguém discorda
Pesquisa do Instituto Ética Saúde e Mackenzie mapeou sete categorias de risco no setor. O achado mais preocupante: não existem regras para IA em decisões médicas. Zero. Nenhuma.
Quando 82% dos agentes de um setor concordam que a regulação é insuficiente, você não tem uma divergência de opinião — tem um diagnóstico. E quando esse setor é o de saúde, o diagnóstico deveria acender todas as luzes vermelhas de um pronto-socorro.
A pesquisa "Integridade no Setor da Saúde: Identificação de Riscos", conduzida pela Universidade Presbiteriana Mackenzie com financiamento do Instituto Ética Saúde, ouviu fabricantes, distribuidores, operadoras de planos, associações setoriais e ONGs. A conclusão é unânime: as regras do jogo são frouxas, desatualizadas e, em áreas críticas como inteligência artificial, simplesmente inexistentes.
Sete maneiras de dar errado
Os pesquisadores, liderados por Giovani Saavedra, identificaram sete categorias de risco usando frameworks internacionais de gestão — COSO ERM e ISO 31000, para quem gosta de siglas. Para quem não gosta: eles fizeram um raio-X do setor e encontraram fraturas em todo lugar.
A primeira categoria — e a mais insidiosa — são os conflitos de interesse. A relação entre indústria farmacêutica e profissionais de saúde no Brasil opera numa zona cinzenta que faria um advogado de compliance perder o sono. Incentivos indiretos, patrocínios generosos, influência sobre decisões clínicas. Ninguém chama de corrupção porque o nome educado é "relacionamento comercial".
• Conflitos de interesse: relação indústria-profissionais sem regras claras
• Riscos regulatórios: normas desatualizadas, zero regras para IA
• Riscos operacionais: faturamento, glosas e auditoria problemáticos
• Riscos econômico-financeiros: retenção de receitas, judicialização crescente
• Riscos tecnológicos: cibersegurança frágil, dados sensíveis expostos
• Falta de transparência: contratos e critérios de decisão opacos
• Mecanismos de prevenção fracos: canais de denúncia ineficientes
O buraco da inteligência artificial
Hospitais já usam IA para triagem. Operadoras usam algoritmos para autorizar ou negar procedimentos. Laboratórios usam machine learning para interpretar exames. E quantas diretrizes regulatórias o Brasil tem para IA em decisões médicas? Zero. Nenhuma. Nada.
A pesquisa é explícita: existe uma "lacuna crítica" na "ausência de diretrizes claras para uso de inteligência artificial em decisões médicas e administrativas". Isso amplia riscos éticos, clínicos e jurídicos de uma só vez. Um algoritmo que nega uma autorização de exame pode estar matando alguém — e não existe regulação que diga como esse algoritmo deve funcionar, quem o audita ou como o paciente pode recorrer.
O descompasso é brutal: a tecnologia avança na velocidade de uma startup de São Paulo, e a regulação se arrasta na velocidade de uma autarquia de Brasília. Enquanto a ANS e a Anvisa não se mexerem, o setor privado está livre para experimentar com a saúde dos brasileiros usando ferramentas que ninguém fiscaliza.
A guerra surda entre hospitais e operadoras
Se você já tentou aprovar um procedimento pelo plano de saúde e recebeu uma negativa kafkiana, saiba que o problema é sistêmico. A pesquisa identificou "fragilidades em faturamento, auditoria, glosas e reembolso" como risco operacional e econômico crítico. Traduzindo: hospitais cobram, operadoras glosam, hospitais recorrem, operadoras seguram o dinheiro, hospitais judicializam. Ninguém ganha — exceto os advogados.
A interface entre hospitais e operadoras no Brasil é um campo minado sem mapa. Não existe regulamentação clara para retenção de faturamento, não existe padronização de contratos, não existe regra de contratualização que funcione. O resultado: judicialização crescente, previsibilidade financeira zero e, no fim da cadeia, o paciente que fica no meio do fogo cruzado.
Dados sensíveis, proteção frágil
O setor de saúde lida com os dados mais sensíveis que existem: diagnósticos, exames, histórico psiquiátrico, HIV, abortos, tentativas de suicídio. A pesquisa encontrou o que qualquer profissional de segurança da informação já sabia: a governança desses dados é frágil, a proteção é inadequada e a crescente digitalização amplia a exposição a cada dia.
Incidentes de cibersegurança em hospitais não são hipotéticos. São rotineiros. Ransomware que tranca prontuários eletrônicos, vazamento de dados de pacientes, sistemas que caem e forçam o hospital a voltar para papel. A LGPD existe desde 2020, mas na prática o setor de saúde trata a proteção de dados como custo, não como obrigação.
Autorregulação: o setor quer regular a si mesmo
A pesquisa identificou uma tendência que pode ser promissora ou preocupante, dependendo do seu nível de cinismo: o setor vê a autorregulação como alternativa "mais ágil, técnica e adaptável" do que a regulação estatal. Sérgio Rocha, presidente do Conselho do Instituto Ética Saúde, afirma que "o próprio setor reconhece esses desafios e está disposto a avançar na construção de soluções mais eficientes, especialmente por meio da autorregulação."
A autorregulação pode funcionar — quando os incentivos estão alinhados. Mas num setor onde 82% dos agentes reconhecem que as regras são insuficientes e os conflitos de interesse são o risco número um, pedir ao regulado que se regule é, no mínimo, um ato de fé.
Giovani Saavedra, coordenador da pesquisa, tenta ser otimista: "Trata-se de um mapeamento robusto, que contribui para orientar estratégias concretas de mitigação de riscos." Talvez. Mas diagnóstico sem tratamento é só papel. E papel, no Brasil da saúde, costuma ficar engavetado.
Leia também
07/05/2026
Brasil bate recorde de transplantes em 2025 — e quase metade das famílias ainda recusa doar
07/05/2026
Quem tem plano de saúde tem 5 vezes mais leitos de UTI que quem depende do SUS
05/05/2026
Câmara aprova rastreamento de câncer de pulmão no SUS — só 14 anos depois dos EUA
27/04/2026