Para especialista da Tripla, medida reforça que a tecnologia deve servir de suporte, e não substituir o médico
No
último dia 05 de março, o Conselho Federal de Medicina (CFM) publicou a
Resolução n° 2.454/2026, que estabelece os critérios para pesquisa, desenvolvimento
e uso da Inteligência Artificial na medicina brasileira. Hospitais e demais
organizações ligadas à saúde têm 180 dias, contando a partir da data da
publicação, para se adequar às novas exigências de governança, transparência e
segurança – o prazo se encerra em agosto.
Segundo dados da pesquisa TIC Saúde 2024, 17% dos
médicos brasileiros já utilizam IA generativa em sua rotina. Além disso, 79%
dos profissionais da área na América Latina a consideram uma aliada, revela um
levantamento da Medscape; esse números mostram que se trata de uma realidade
consolidada, e não apenas de uma tendência futura.
A medida encerra um “vácuo regulatório” no uso da
tecnologia dentro da medicina, e muda o status das IAs de “inovação” para
“infraestrutura crítica” dentro da saúde. É o que defende João Saldanha,
Advisor de Governança, Riscos e Compliance da Tripla, empresa de
cibersegurança, tecnologia e compliance. “O princípio central da resolução, em
caráter humanista, é claro: a IA pode apoiar e dar suporte, mas jamais
substituir a decisão de um médico, que permanece como responsável final pelas
decisões clínicas.”
A norma também introduz um sistema de classificação
de risco para as aplicações de IA na saúde, inspirado em frameworks
internacionais. As categorias vão de baixo risco, como funções administrativas,
até risco inaceitável, como em casos que violem direitos fundamentais do ser
humano, ou princípios éticos da medicina. “Esse termômetro é fundamental para
que as instituições entendam onde suas soluções podem se encaixar, e qual nível
de governança será exigido. Não basta usar a IA, é necessário entender também o
impacto real que ela terá sobre os pacientes e profissionais”, afirma Saldanha.
Outro ponto de destaque é a exigência de criação de
Comissões de IA e Telemedicina, subordinadas à diretoria técnica das
instituições. Essas comissões deverão monitorar desempenho, mitigar vieses,
garantir auditabilidade e assegurar que os sistemas respeitem princípios de
privacidade desde a concepção. O especialista entende que a medida vai além de
uma boa prática, servindo como uma obrigação regulatória; defende também que a
governança algorítmica passará a ser tão importante quando a governança
clínica.
A resolução também prevê que os médicos não serão
responsabilizados por falhas exclusivas dos sistemas de IA, desde que fique
comprovado o uso diligente e ético da ferramenta. Além disso, os pacientes
passam a ter o direito de recusar o uso da tecnologia durante o seu cuidado, o
que exigirá ajustes operacionais em ambientes altamente digitalizados, sem que
haja interrupção do fluxo assistencial. “Isso cria uma nova dinâmica documental
dentro das instituições: a rastreabilidade torna-se o escudo do profissional e
da empresa”, explica Saldanha.
Por fim, o especialista afirma que, apesar da
contínua transformação que a IA traz ao cuidado médico, a nova resolução é um
passo concreto para responder a uma pergunta: como garantir que a medicina
continue sendo, antes de tudo, uma prática humana?
Nenhum comentário:
Postar um comentário