Juanheadshot Copy.jpg

La cabeza de microsoftJuan Lavista Ferres, de AI for Good Lab, es coautor de un libro que proporciona ejemplos del mundo real de cómo la inteligencia artificial se puede utilizar de manera responsable para afectar positivamente a la humanidad.

Ferres se sentó con MobiSaludNoticias para discutir su nuevo librocómo mitigar los sesgos en la entrada de datos en la IA y recomendaciones para los reguladores que crean reglas sobre el uso de la IA en la atención médica.

MobiHealthNoticias: ¿Puedes contarles a nuestros lectores sobre el laboratorio AI for Good de Microsoft?

Juan Lavista Ferrés: La iniciativa es completamente filantrópica, en la que nos asociamos con organizaciones de todo el mundo y les brindamos nuestras habilidades de inteligencia artificial, nuestra tecnología de inteligencia artificial, nuestro conocimiento de inteligencia artificial y ellos brindan expertos en la materia.

Creamos equipos que combinan esos dos esfuerzos y, colectivamente, les ayudamos a resolver sus problemas. Esto es algo extremadamente importante porque hemos visto que la IA puede ayudar a muchas de estas organizaciones y a muchos de estos problemas y, desafortunadamente, existe una gran brecha en las habilidades de IA, especialmente en las organizaciones sin fines de lucro o incluso en las organizaciones gubernamentales que están trabajando en estos temas. proyectos. Generalmente no tienen la capacidad o estructura para contratar o retener el talento que se necesita, y por eso decidimos hacer una inversión desde nuestra perspectiva, una inversión filantrópica para ayudar al mundo con esos problemas.

Tenemos un laboratorio aquí en Redmond. Tenemos un laboratorio en Nueva York. Tenemos un laboratorio en Nairobi. Tenemos gente también en Uruguay. Tenemos posdoctorados en Colombia y trabajamos en muchas áreas, siendo la salud una de ellas y un área importante para nosotros, un área muy importante para nosotros. Trabajamos mucho en imágenes médicas, como a través de tomografías computarizadas, rayos X, áreas donde tenemos muchos datos no estructurados también a través de texto, por ejemplo. Podemos utilizar la IA para ayudar a estos médicos a aprender más o comprender mejor los problemas.

MNH: ¿Qué está haciendo para garantizar que la IA no cause más daño que bien, especialmente cuando se trata de sesgos inherentes a los datos?

Ferrés: Eso es algo que está en nuestro ADN. Es fundamental para Microsoft. Incluso antes de que la IA se convirtiera en tendencia en los últimos dos años, Microsoft ha estado invirtiendo mucho en áreas como nuestra IA responsable. Cada proyecto que tenemos pasa por un trabajo muy exhaustivo sobre IA responsable. Por eso también es tan fundamental para nosotros que nunca trabajaremos en un proyecto si no contamos con un experto en la materia al lado. Y no sólo los expertos en la materia, tratamos de elegir a los mejores. Por ejemplo, estamos trabajando con el cáncer de páncreas y con la Universidad Johns Hopkins. Estos son los mejores médicos del mundo que trabajan en el cáncer.

La razón por la que es tan importante, especialmente cuando se relaciona con lo que usted ha mencionado, es porque estos expertos son los que tienen una mejor comprensión de la recopilación de datos y de cualquier posible sesgo. Pero incluso con eso, repasamos nuestra revisión de la IA responsable. Nos estamos asegurando de que los datos sean representativos. Acabamos de publicar un libro sobre esto.

MNH: Sí. Cuéntame sobre el libro.

Ferrés: Hablo mucho en los dos primeros capítulos, específicamente sobre los posibles sesgos y el riesgo de estos sesgos, y, lamentablemente, hay muchos malos ejemplos para la sociedad, particularmente en áreas como la detección del cáncer de piel. Muchos de los modelos sobre cáncer de piel se han entrenado en la piel de personas blancas porque generalmente esa es la población que tiene más acceso a los médicos, esa es la población a la que generalmente se dirige el cáncer de piel y es por eso que hay un número de personas poco representativo. con esas cuestiones.

Entonces, hacemos una revisión muy exhaustiva. Microsoft ha estado liderando el camino, en mi opinión, en materia de IA responsable. Contamos con nuestra directora responsable de IA en Microsoft, Natasha Crampton.

Además, somos una organización de investigación, por lo que publicaremos los resultados. Pasaremos por una revisión por pares para asegurarnos de que no nos falta nada al respecto y, al final, nuestros socios son los que comprenderán la tecnología.

Nuestro trabajo es asegurarnos de que comprendan todos estos riesgos y posibles sesgos.

MNH: Mencionó que los primeros dos capítulos analizan la cuestión de los posibles sesgos en los datos. ¿Qué aborda el resto del libro?

Ferrés: Entonces, el libro tiene como 30 capítulos. Cada capítulo es un estudio de caso, y tiene estudios de caso sobre sostenibilidad y estudios de caso sobre salud. Estos son estudios de casos reales en los que hemos trabajado con socios. Pero en los primeros tres capítulos hago un buen repaso de algunos de los riesgos potenciales y trato de explicarlos de una manera fácil de entender para la gente. Yo diría que mucha gente ha oído hablar de sesgos y problemas de recopilación de datos, pero a veces les resulta difícil darse cuenta de lo fácil que es que esto suceda.

También debemos comprender que, incluso desde una perspectiva sesgada, el hecho de que se pueda predecir algo no significa necesariamente que sea causal. El poder predictivo no implica causalidad y muchas veces la gente entiende y repite que la correlación no implica causalidad; a veces la gente no necesariamente comprende que el poder predictivo tampoco implica causalidad e incluso la IA explicable tampoco implica causalidad. Eso es realmente importante para nosotros. Esos son algunos de los ejemplos que cubro en el libro.

MNH: ¿Qué recomendaciones tiene para los reguladores gubernamentales con respecto a la creación de reglas para la implementación de la IA en la atención médica?

Ferrés: No soy la persona adecuada para hablar sobre la regulación en sí, pero puedo decirles que, en general, entiendo muy bien dos cosas.

Primero, ¿qué es la IA y qué no lo es? ¿Cuál es el poder de la IA? ¿Cuál no es el poder de la IA? Creo que tener un muy buen conocimiento de la tecnología siempre te ayudará a tomar mejores decisiones. Creemos que la tecnología, cualquier tecnología, puede usarse para bien y para mal y, en muchos sentidos, es nuestra responsabilidad social asegurarnos de que usamos la tecnología de la mejor manera, maximizando la probabilidad de que funcione. utilizarse para siempre y minimizando los factores de riesgo.

Entonces, desde esa perspectiva, creo que hay mucho trabajo por hacer para garantizar que la gente entienda la tecnología. Esa es la regla número uno.

Escuche, nosotros, como sociedad, necesitamos comprender mejor la tecnología. Y lo que vemos y lo que veo personalmente es que tiene un potencial enorme. Necesitamos asegurarnos de maximizar el potencial, pero también de usarlo correctamente. Y eso requiere que los gobiernos, las organizaciones, el sector privado y las organizaciones sin fines de lucro comiencen por comprender la tecnología, los riesgos y trabajar juntos para minimizar esos riesgos potenciales.