“El pensamiento sistémico me ayuda a poner el panorama general al frente y al centro”

En la serie Author Spotlight, los editores de TDS conversan con miembros de nuestra comunidad sobre su trayectoria profesional en ciencia de datos e inteligencia artificial, sus escritos y sus fuentes de inspiración. Hoy estamos encantados de compartir nuestra conversación con Shuai Guo.

Shuai es un investigador de IA industrial que trabaja con física, datos y aprendizaje automático para resolver problemas del mundo real en ingeniería, seguridad y sistemas inteligentes. Tiene un doctorado en la intersección de la mecánica computacional y el aprendizaje automático. Su trabajo abarca varios temas, incluida la detección de anomalías, gemelos digitales, aprendizaje basado en la física y aplicaciones agenticas/LLM.

Su artículo de LangGraph guía al lector a través del proceso de creación de un agente de investigación profunda. Cuando lo probaste de principio a fin, ¿qué fue lo que más te sorprendió y qué harías diferente la próxima vez?

Yo diría que lo que más me sorprendió fue la facilidad con la que el agente de investigación profunda puede cometer errores cuando lo ejecuta de un extremo a otro. Todo ese ciclo de “generar consulta → buscar → reflexionar → repetir” se ve muy bien en el papel, pero se desmorona bastante rápido. Hay dos cuestiones principales que recuerdo claramente. Primero, de vez en cuando, el agente comienza a mezclar lo que encontró con lo que recuerda del entrenamiento previo. Esto no es ideal, ya que solo quiero que los LLM sinteticen información e identifiquen lagunas de conocimiento, mientras confío plenamente en la búsqueda web para fundamentar la respuesta.

Otro problema que constantemente me da dolores de cabeza es la contaminación de la información, es decir, cuando la búsqueda arroja cosas similares pero el modelo las trata como si fueran exactamente lo que usted solicitó. Por ejemplo, una vez probé el agente de investigación profunda investigando un informe de error específico (por ejemplo, el número 4521 de una base de código), y la búsqueda arrojaba contenido relacionado con el problema 4522 y comenzaba a mezclar sus síntomas como si fueran todos el mismo problema.

Más allá de estos dos problemas principales, también experimenté desafíos al manejar información contradictoria y determinar si era suficiente para terminar la investigación profunda. Ninguno de esos problemas se puede resolver simplemente agregando más resultados de búsqueda o ejecutando más iteraciones.

La clave para mí es que las barreras de seguridad son tan críticas, si no más, que la arquitectura del agente, si queremos ir más allá de “solo una demostración” y construir un sistema que realmente funcione en producción. Creo que la mentalidad del “desarrollo basado en pruebas” encaja muy bien aquí: defina cómo es “bueno” antes de construir. La próxima vez, comenzaría definiendo reglas claras y luego construiría la arquitectura del agente en torno a esas limitaciones.

Ha escrito que la IA analítica (SQL/BI + ML clásico) no desaparecerá solo porque los agentes estén de moda. Si hoy estuviera diseñando una pila de datos moderna, ¿qué trabajo les daría a los agentes y qué mantendría en la línea de análisis?

La IA analítica es reproducible y numéricamente precisa. Los agentes basados ​​en LLM, por otro lado, son buenos para digerir contextos no estructurados, traducir resultados y comunicarse con las personas. Para asignar tareas entre la IA analítica y la IA agencial, diría que si una tarea está más orientada cuantitativamente, usaría de forma predeterminada la IA analítica; pero si está más orientado a la calidad, por ejemplo, síntesis, narración o juicio, consideraría LLM/agentes como mejores alternativas.

Podemos considerar un problema concreto de construcción de un sistema de predicción de pérdida de clientes. En un nivel alto, normalmente implica dos pasos: identificar a los clientes en riesgo y actuar en consecuencia. Para el primer paso de señalar a los clientes en riesgo, me apoyaría en la IA analítica para diseñar características informativas, entrenar modelos de aumento de gradiente en datos de comportamiento históricos y usar los modelos entrenados para calcular puntuaciones de propensión a la deserción. Además, también ejecutaría un análisis SHAP para obtener puntuaciones de importancia de las características para explicar la predicción. Cada paso es preciso y reproducible, y hay un montón de mejores prácticas disponibles para obtener resultados precisos y confiables.

Pero luego viene la parte divertida: ¿qué haces realmente con esas predicciones? Aquí es donde los agentes de LLM pueden hacerse cargo. Pueden redactar correos electrónicos de retención personalizados consultando el historial del cliente, tal vez sugerir características relevantes del producto que aún no han probado y ajustar el tono en función de cómo fueron sus tickets de soporte anteriores. Aquí no hay matemáticas. Simplemente hablando de una manera contextualmente inteligente.

¿Cuál es una habilidad en la que invirtió temprano que ahora le brinda una ventaja a medida que las herramientas de inteligencia artificial se vuelven más capaces?

Pensamiento sistémico.

Para mí, el pensamiento sistémico consiste básicamente en preguntar cómo descomponer sistemas en componentes. ¿Cómo se comunican los diferentes componentes entre sí? ¿Cuáles son los puntos de traspaso? ¿Dónde están los circuitos de retroalimentación? Si toco esto, ¿qué más cambia?

Aprendí esto en la universidad. Me especialicé en ingeniería aeroespacial con especialización en diseño de motores aeronáuticos. Lo que pasa con los motores a reacción es que todo afecta a todo, y estudiarlos realmente me ayudó a desarrollar tres hábitos: descomponer el sistema, definir interfaces limpias y estar siempre atento a los efectos de acoplamiento.

Es cierto que las herramientas de inteligencia artificial son cada vez más capaces; por ejemplo, tenemos mejores asistentes de codificación, canales RAG más efectivos o LLM que pueden manejar contextos más largos, pero la mayoría de los avances ocurren en porciones estrechas. En lugar de buscar siempre la herramienta más novedosa e intentar incorporarla de alguna manera en mi trabajo actual, el pensamiento sistémico me ayuda a poner el panorama general al frente y al centro. Para una aplicación de LLM, siempre comenzaría dibujando los componentes, determinando la interacción y las entradas/salidas entre los componentes, asegurándome de que se agreguen controles y barreras de seguridad y luego intercambiando componentes a medida que mejoran las herramientas.

De hecho, la creación de aplicaciones de LLM me recuerda mucho al diseño de motores a reacción: la nueva tecnología va y viene, pero un diseño de sistema sólido aumenta el valor.

Si te alejas, ¿qué parte de la ciencia de datos o la IA está cambiando demasiado rápido en este momento y qué parte no está cambiando lo suficientemente rápido?

Creo que los sistemas de IA multiagente son definitivamente uno de los campos más candentes y que avanzan muy rápido. De vez en cuando vemos demostraciones sofisticadas (ya sea asistente de codificación o asistente de investigación). También aparecen constantemente nuevos marcos de trabajo de código abierto que permiten a los desarrolladores crear eficientemente sus propias aplicaciones multiagente. Todo esto es apasionante. Pero aquí está la cuestión: ¿estamos implementando estos complicados sistemas mucho más rápido de lo que entendemos cómo se comportarán realmente en la práctica?

Ahí es donde veo la brecha: toda la capa de “garantía” alrededor de esos sistemas multiagente no está evolucionando lo suficientemente rápido. Para abordar este desafío, podemos (y probablemente deberíamos) tratar esos sistemas multiagente como cualquier otro sistema industrial. En la industria manufacturera, es una práctica común adoptar enfoques basados ​​en datos para ayudar en el diseño, control, monitoreo de condiciones y análisis de fallas del sistema. Este mismo enfoque también podría beneficiar a los sistemas multiagente. Por ejemplo, ¿qué tal si utilizamos la optimización bayesiana para diseñar la arquitectura multiagente? ¿Qué tal utilizar la detección de anomalías basada en ML para monitorear el desempeño de los agentes y detectar amenazas a la seguridad?

La buena noticia es que se está ganando impulso. Estamos viendo plataformas de observabilidad para LLM, marcos de evaluación, etc., y están sentando las bases para aplicar esos métodos de nivel industrial basados ​​en datos. Veo muchas oportunidades en este espacio y eso es lo que me entusiasma: la posibilidad de llevar el rigor de los sistemas industriales a la IA agente y hacer que esas herramientas sean confiables y dignas de confianza.

Para obtener más información sobre el trabajo de Shuai y mantenerse actualizado con sus últimos artículos, puede seguirlo en TDS o LinkedIn.