top of page

A Perspectiva da FDA sobre a Regulação da Inteligência Artificial na Saúde e Biomedicina

A regulação da IA na saúde está em constante evolução para equilibrar inovação tecnológica e segurança dos pacientes. Descubra como a FDA enfrenta os desafios de monitoramento, aprovação e gestão do ciclo de vida de dispositivos habilitados por IA, garantindo eficácia e confiabilidade no cuidado à saúde.


A regulação da inteligência artificial (IA) na saúde e biomedicina é um tema que vem se tornando cada vez mais relevante diante do avanço dessa tecnologia e de suas aplicações médicas. O documento recente publicado no JAMA por Haider J. Warraich, Troy Tazbaz e Robert M. Califf discute como a Administração de Alimentos e Medicamentos dos EUA (FDA) tem lidado com a incorporação da IA no desenvolvimento de produtos biomédicos e na assistência à saúde, além de destacar os desafios regulatórios únicos dessa tecnologia. Vamos explorar as principais ideias apresentadas neste artigo e suas implicações para o futuro da saúde digital.


A História da Regulação da IA pela FDA

Desde 1995, a FDA começou a aprovar dispositivos médicos habilitados para IA, como o PAPNET, um software que utilizava redes neurais para prevenir o erro de diagnóstico do câncer cervical em exames de Papanicolau. Apesar da precisão aumentada em comparação aos patologistas humanos, o PAPNET não foi amplamente adotado devido ao custo. Atualmente, a FDA já autorizou cerca de 1000 dispositivos médicos que utilizam IA, sendo a radiologia e a cardiologia os campos com maior presença dessas tecnologias. Esse histórico ilustra como a regulação de IA tem evoluído de forma consistente, buscando equilibrar inovação com segurança para os pacientes.


Abordagem Reguladora Baseada em Risco

A regulação dos dispositivos habilitados para IA segue uma abordagem baseada em risco, que varia de aplicações para bem-estar geral até dispositivos médicos complexos, como desfibriladores cardíacos. Isso significa que quanto maior o potencial de impacto sobre a saúde, maior será o nível de supervisão regulatória. Um exemplo é o Sepsis ImmunoScore, um algoritmo que identifica pacientes com risco de desenvolver sepse, utilizando entradas pré-determinadas dos registros eletrônicos de saúde (EHR). Para garantir a segurança, foram estabelecidos controles especiais que incluem testes de desempenho clínico, análise de riscos, verificação e validação de software.


Monitoramento Contínuo e Gestão do Ciclo de Vida

Dada a natureza evolutiva dos modelos de IA, o documento enfatiza a importância de um monitoramento contínuo do desempenho desses sistemas no ambiente em que são utilizados. Isso é conhecido como gestão do ciclo de vida dos produtos habilitados por IA. É essencial que o monitoramento seja constante e que ocorra no contexto clínico real, de forma a garantir que o desempenho não seja prejudicado ao longo do tempo devido a mudanças no ambiente ou na qualidade dos dados de entrada.


Desafios com Modelos de IA Generativa

A aplicação de modelos generativos, como os grandes modelos de linguagem (LLMs), apresenta desafios únicos, especialmente devido ao risco de gerar informações imprecisas ou diagnósticos que não foram discutidos em uma consulta médica. Esses modelos ainda não receberam aprovação regulatória da FDA para uso em saúde, mas a utilização em contextos que incluem diagnóstico, tratamento ou prevenção de doenças exige atenção especial. Há uma necessidade crescente de ferramentas que possibilitem a avaliação eficaz desses modelos antes de sua integração no cuidado ao paciente.


Balanceando Inovação e Resultados de Saúde

Outro ponto relevante discutido no documento é o desafio de equilibrar o uso da IA para otimizar o retorno financeiro e melhorar os resultados de saúde. Muitas inovações em IA, apesar de poderem gerar benefícios para os pacientes, também podem ameaçar postos de trabalho tradicionais e comprometer a relação entre médico e paciente. Portanto, é fundamental que o desenvolvimento de tecnologias de IA não perca de vista o objetivo de melhorar os resultados clínicos e garantir um cuidado humano de qualidade.


Conclusões

O documento da JAMA destaca que o sucesso a longo prazo das tecnologias de IA em saúde depende de uma supervisão rigorosa, garantindo que as ferramentas sejam seguras, eficazes e tenham um impacto positivo nos pacientes e nos sistemas de saúde. A FDA continuará a desempenhar um papel central nesse processo, mas é necessário que todos os envolvidos no ecossistema de saúde trabalhem em colaboração para atender ao potencial dessa tecnologia com o rigor que ela merece.


Referências:

  • Warraich HJ, Tazbaz T, Califf RM. FDA Perspective on the Regulation of Artificial Intelligence in Health Care and Biomedicine. JAMA. 2024.

Comentários


bottom of page