1ia6xuofs6ndlhnxwoze7uq.jpeg

Opinión

Donde exploramos la subjetividad en los modelos de IA y por qué debería importarle

Hace poco asistí a una conferencia y una frase de una de las diapositivas realmente me llamó la atención. La diapositiva mencionaba que estaban desarrollando un modelo de IA para reemplazar una decisión humana y que el modelo era, cito, «objetivo» en contraste con la decisión humana. Después de pensarlo durante algún tiempo, no estuve de acuerdo con esa afirmación porque siento que tiende a aislarnos de las personas para las que creamos estos modelos. Esto a su vez limita el impacto que podemos tener.

En este artículo de opinión quiero explicar de dónde viene mi desacuerdo con la IA y la objetividad, y por qué centrarse en lo «objetivo» plantea un problema para los investigadores de IA que quieren tener impacto en el mundo real. Refleja los conocimientos que he recopilado de la investigación que realicé recientemente sobre por qué muchos modelos de IA no logran una implementación efectiva.

Foto por Vlad Hilitan en Dejar de salpicar

Para entender lo que quiero decir, debemos ponernos de acuerdo sobre lo que queremos decir exactamente con objetividad. En este ensayo utilizo lo siguiente definicion de Objetividad:

Expresar o tratar hechos o condiciones tal como se perciben sin distorsión por sentimientos, prejuicios o interpretaciones personales.

Para mí, esta definición habla de algo que amo profundamente de las matemáticas: dentro del alcance de un sistema matemático podemos razonar objetivamente cuál es la verdad y cómo funcionan las cosas. Esto me atrajo mucho, ya que encontré que las interacciones y los sentimientos sociales eran muy desafiantes. Sentí que si trabajaba lo suficiente podría entender el problema matemático, mientras que el mundo real era mucho más intimidante.

Como el aprendizaje automático y la IA se construyen utilizando matemáticas (principalmente álgebra), es tentador extender esta misma objetividad a este contexto. Creo que, como sistema matemático, el aprendizaje automático puede considerarse objetivo. Si reduzco la tasa de aprendizaje, matemáticamente deberíamos poder predecir cuál debería ser el impacto en la IA resultante. Sin embargo, a medida que nuestros modelos de aprendizaje automático se vuelven más grandes y mucho más de caja negra, configurarlos se ha convertido cada vez más en un arte en lugar de una ciencia. Las intuiciones sobre cómo mejorar el rendimiento de un modelo pueden ser una herramienta poderosa para el investigador de IA. Esto suena terriblemente cercano a «sentimientos, prejuicios o interpretaciones personales».

Pero donde realmente entra en juego la subjetividad es cuando el modelo de IA interactúa con el mundo real. Un modelo puede predecir cuál es la probabilidad de que un paciente tenga cáncer, pero la forma en que eso interactúa con las decisiones médicas y el tratamiento reales contiene muchos sentimientos e interpretaciones. ¿Cuál será el impacto del tratamiento en el paciente? ¿Vale la pena el tratamiento? ¿Cuál es el estado mental de un paciente y puede soportar el tratamiento?

Pero la subjetividad no termina con la aplicación del resultado del modelo de IA en el mundo real. En la forma en que construimos y configuramos un modelo, se deben tomar muchas decisiones que interactúan con la realidad:

  • ¿Qué datos incluimos en el modelo y cuáles no? ¿Qué pacientes consideramos atípicos?
  • ¿Qué métrica utilizamos para evaluar nuestro modelo? ¿Cómo influye esto en el modelo que acabamos creando? ¿Qué métrica nos lleva hacia una solución del mundo real? ¿Existe alguna métrica que haga esto?
  • ¿Cuál definimos como el problema real que nuestro modelo debería resolver? Esto influirá en la decisión que tomemos con respecto a la configuración del modelo de IA.

De modo que, cuando el mundo real interactúa con los modelos de IA, se introduce bastante subjetividad. Esto se aplica tanto a las decisiones técnicas que tomamos como a la forma en que el resultado del modelo interactúa con el mundo real.

En mi experiencia, uno de los factores clave que limitan la implementación de modelos de IA en el mundo real es la estrecha colaboración con las partes interesadas, ya sean médicos, empleados, especialistas en ética, expertos legales o consumidores. Esta falta de cooperación se debe en parte a las tendencias aislacionistas que veo en muchos investigadores de IA. Trabajan en sus modelos, absorben conocimientos de Internet y de artículos, e intentan crear el modelo de IA lo mejor que pueden. Pero se centran en el aspecto técnico del modelo de IA y viven en su burbuja matemática.

Siento que la convicción de que los modelos de IA son objetivos reasegura al investigador de IA que este aislacionismo está bien, la objetividad del modelo significa que se puede aplicar en el mundo real. Pero el mundo real está lleno de “sentimientos, prejuicios e interpretaciones”, lo que hace que un modelo de IA que impacte este mundo real también interactúe con estos “sentimientos, prejuicios e interpretaciones”. Si queremos crear un modelo que tenga impacto en el mundo real, necesitamos incorporar la subjetividad del mundo real. Y esto requiere construir una comunidad sólida de partes interesadas en torno a su investigación de IA que explore, intercambie y debata todos estos «sentimientos, prejuicios e interpretaciones». Requiere que nosotros, los investigadores de IA, salgamos de nuestro caparazón matemático autoimpuesto.

Nota: Si desea leer más sobre cómo realizar investigaciones de una manera más holística y colaborativa, le recomiendo encarecidamente el trabajo de Tineke Abma, por ejemplo. este papel.

Si te ha gustado este artículo, puede que también te gusten algunos de mis otros artículos: