O Conselho Federal de Medicina (CFM) avança na regulamentação da inteligência artificial (IA) aplicada à medicina. Durante um evento recente, a entidade detalhou a minuta da resolução em desenvolvimento, que propõe uma abordagem diferenciada para sistemas de IA, baseada em uma escala de risco.
A norma em elaboração categorizará as aplicações da IA em três níveis: alto, médio e baixo risco. Ferramentas consideradas de alto risco são aquelas com influência significativa nas decisões médicas, incluindo diagnóstico automático, ajuste de medicação e triagem emergencial. Em contrapartida, sistemas de baixo risco seriam aqueles com impacto mínimo na saúde do paciente, como agendamento de consultas, triagem preliminar e lembretes.
Segundo informações divulgadas, a proposta diverge de um projeto de lei em discussão no Congresso, que classifica genericamente os sistemas de IA na saúde como de alto risco. Há uma preocupação de que essa classificação generalizada possa dificultar a inovação na área.
A resolução em preparação busca assegurar o uso ético e seguro da inteligência artificial na medicina, abrangendo desde a triagem de pacientes até o suporte à decisão clínica e a análise de exames. A expectativa é que a versão preliminar seja discutida com os conselhos regionais, visando à publicação da resolução ainda este ano.
A resolução também deverá estabelecer critérios para definir os sistemas de IA, considerando a finalidade médica, a gravidade da condição, a autonomia do sistema, o contexto de uso e as possíveis consequências de falhas. Serão proibidos sistemas com autonomia total que tomem decisões críticas sem supervisão humana, sistemas discriminatórios que violem os direitos dos pacientes e sistemas sem validação científica de segurança.
A transparência para os usuários e a segurança do paciente são pontos importantes da resolução, com critérios como a explicabilidade dos resultados em linguagem acessível, a necessidade de mitigar vieses, a definição de um modo de falha segura com reversão para o controle manual e a robustez do sistema.
As instituições de saúde serão responsáveis por verificar as aprovações regulatórias das ferramentas de IA, capacitar as equipes para o uso correto e notificar as autoridades em caso de incidentes. Aos profissionais de saúde caberá o uso ético e a correção de erros evidentes nos sistemas.
Ainda não foi definido o modelo de fiscalização do uso da inteligência artificial na medicina.
Devido ao rápido avanço da inteligência artificial, a resolução do CFM será a cada dois anos, com base em padrões internacionais. A implementação ocorrerá de forma gradual, com fases de adaptação e capacitação.