Se podría argumentar que uno de los deberes principales de un médico es evaluar y reevaluar constantemente las probabilidades: ¿Cuáles son las posibilidades de éxito de un procedimiento médico? ¿El paciente corre riesgo de desarrollar síntomas graves? ¿Cuándo debe regresar el paciente para realizar más pruebas? En medio de estas deliberaciones críticas, el auge de la inteligencia artificial promete reducir el riesgo en entornos clínicos y ayudar a los médicos a priorizar la atención de los pacientes de alto riesgo.

A pesar de su potencial, investigadores del Departamento de Ingeniería Eléctrica y Ciencias de la Computación (EECS) del MIT, Equality AI y la Universidad de Boston están pidiendo una mayor supervisión de la IA por parte de los organismos reguladores en un nuevo comentario publicado en el IA del New England Journal of Medicine (NEJM AI) Edición de octubre después de que la Oficina de Derechos Civiles (OCR) de EE. UU. del Departamento de Salud y Servicios Humanos (HHS) emitiera una nueva regla bajo la Ley de Atención Médica Asequible (ACA).

En mayo, la OCR publicó una regla final en la ACA que prohíbe la discriminación por motivos de raza, color, origen nacional, edad, discapacidad o sexo en las “herramientas de apoyo a las decisiones de atención al paciente”, un término recientemente establecido que abarca tanto la IA como las herramientas no automatizadas utilizadas en medicina.

Desarrollado en respuesta al presidente Joe Biden Orden ejecutiva sobre el desarrollo y uso seguro y confiable de la inteligencia artificial A partir de 2023, la regla final se basa en el compromiso de la administración Biden-Harris de promover la equidad en salud centrándose en prevenir la discriminación.

Según el autor principal y profesor asociado de EECS Marzyeh Ghassemi, «la norma es un importante paso adelante». Ghassemi, afiliado a la Clínica Abdul Latif Jameel del MIT para el Aprendizaje Automático en Salud (Jameel Clinic), el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) y el Instituto de Ingeniería y Ciencias Médicas (IMES), agrega que la regla “ debería dictar mejoras impulsadas por la equidad en los algoritmos que no son de IA y las herramientas de apoyo a las decisiones clínicas que ya se utilizan en todas las subespecialidades clínicas”.

El número de dispositivos habilitados para IA aprobados por la Administración de Alimentos y Medicamentos de EE. UU. ha aumentado dramáticamente en la última década desde la aprobación del primer dispositivo habilitado para IA en 1995 (PAPNET Testing System, una herramienta para la detección cervical). A partir de octubrela FDA ha aprobado casi 1000 dispositivos habilitados para IA, muchos de los cuales están diseñados para respaldar la toma de decisiones clínicas.

Sin embargo, los investigadores señalan que no existe ningún organismo regulador que supervise las puntuaciones de riesgo clínico producidas por las herramientas de apoyo a las decisiones clínicas, a pesar de que la mayoría de los médicos estadounidenses (65 por ciento) utilizan estas herramientas mensualmente para determinar los próximos pasos a seguir. atención al paciente.

Para abordar esta deficiencia, la Clínica Jameel albergará otra conferencia regulatoria en marzo de 2025. La conferencia del año pasado desató una serie de discusiones y debates entre profesores, reguladores de todo el mundo y expertos de la industria centrados en la regulación de la IA en la salud.

«Las puntuaciones de riesgo clínico son menos opacas que los algoritmos de ‘IA’, ya que normalmente implican sólo un puñado de variables vinculadas en un modelo simple», comenta Isaac Kohane, presidente del Departamento de Informática Biomédica de la Facultad de Medicina de Harvard y editor en jefe. de NEJM IA. “Sin embargo, incluso estos puntajes son tan buenos como los conjuntos de datos utilizados para ‘entrenarlos’ y como las variables que los expertos han elegido seleccionar o estudiar en una cohorte particular. Si afectan la toma de decisiones clínicas, se les debe aplicar los mismos estándares que sus parientes de IA más recientes y mucho más complejos”.

Además, si bien muchas herramientas de apoyo a la toma de decisiones no utilizan IA, los investigadores señalan que estas herramientas son igualmente culpables de perpetuar sesgos en la atención médica y requieren supervisión.

«La regulación de las puntuaciones de riesgo clínico plantea desafíos importantes debido a la proliferación de herramientas de apoyo a las decisiones clínicas integradas en los registros médicos electrónicos y su uso generalizado en la práctica clínica», dice la coautora Maia Hightower, directora ejecutiva de Equality AI. «Esta regulación sigue siendo necesaria para garantizar la transparencia y la no discriminación».

Sin embargo, Hightower añade que bajo la administración entrante, la regulación de las puntuaciones de riesgo clínico puede resultar “particularmente desafiante, dado su énfasis en la desregulación y la oposición a la Ley de Atención Médica Asequible y ciertas políticas de no discriminación”.