El marco de Stanford que convierte la IA en su superpotencia de PM

Cómo evolucionará o incluso existirá nuestro trabajo que ahora con la aparición de agentes de IA. Pero permítanme ser por adelantado que las herramientas de IA no cambien el trabajo fundamental del PM, que es identificar los problemas importantes para resolver y guiar las mejores ideas para la implementación. Los agentes de IA definitivamente pueden aumentar y, en algunos casos, reemplazar ciertas actividades, y eso es algo bueno.

No ceda a las narrativas alarmistas de cómo su trabajo se verá afectado negativamente. Cada rol de PM es único. Si bien compartimos aspectos comunes: crear conceptos de productos, definir requisitos, iterar con los clientes, GTM, el trabajo diario de un PM en las redes sociales es muy diferente del trabajo de una infraestructura en la nube PM, que requiere que se automatizaran diferentes aspectos. Como el mini-CEO de su producto, solo usted decide lo que se necesita para el éxito. Por lo tanto, debe ser usted quien decida cómo evolucionará su trabajo para que su producto sea exitoso. Está en el asiento del conductor para elegir qué aumentar o automatizar con los agentes de IA para realizar mejor su trabajo. Una investigación reciente de Stanford papel Define un marco útil para tomar estas decisiones y revela que el deseo de la automatización de los trabajadores es más un factor definitorio para una adopción exitosa que solo la viabilidad técnica.

El marco centrado en el ser humano para la adopción de la IA

El estudio de Stanford arroja luz sobre las formas en que los agentes de IA pueden beneficiar el trabajo. Presenta la matriz de automatización centrada en el ser humano, un deseo de trabajadores 2 × 2 contra la capacidad de IA, para ayudar a priorizar la automatización de la IA de las tareas de PM. Destacando que los trabajadores quieren automatizar tareas tediosas y repetitivas, pero están profundamente preocupados por perder el control y la agencia. Una abrumadora mayoría de los trabajadores en el estudio se preocuparon por la precisión y la confiabilidad de la IA, con miedo a la pérdida de empleo y la falta de supervisión como otras preocupaciones. Un caso en cuestión al resaltar los riesgos de la autonomía completa es el problema reciente con la solicitud de solicitud de eliminación de una base de datos completa de una empresa, fabricando datos para encubrir errores y finalmente disculparse (ver Parto rápido).

Este déficit de confianza descarta lógicamente la IA autónoma completa para la comunicación de alto riesgo con los clientes o las comunicaciones de los proveedores. La preferencia es claramente para que AI asumiera un papel de asociación o asistencia. El documento presenta la Escala de Agencia Humana (HA) para medir el grado de automatización (cf. niveles de autonomía en autos autónomos):

  • H1 (sin participación humana): el agente de IA opera completamente autónomo.
  • H2 (alta automatización): la IA requiere una supervisión humana mínima.
  • H3 (pareja igual): el humano y la IA tienen la misma participación.
  • H4 (automatización parcial): la IA es una herramienta que requiere una dirección humana significativa.
  • H5 (participación humana esencial): la IA es un componente que no puede funcionar sin entrada humana continua.

La mayoría de los trabajadores se sienten bastante cómodos con el rango H3-H5, prefiriendo que la IA sea una pareja o una herramienta y no un reemplazo. La decisión para el primer ministro no es solo qué automatizar, sino también en qué grado debemos renunciar al control al agente de IA.

El concepto se explica mejor con una matriz 2 × 2 con capacidad de automatización en el eje X y el deseo de automatización en el eje y. Los cuatro cuadrantes se clasifican como:

  • Zona de luz verde: alto deseo de automatización y alta capacidad
  • Zona de la luz roja: bajo deseo y alta capacidad
  • Zona de oportunidades de I + D: alto deseo pero baja capacidad
  • Zona de baja prioridad: bajo deseo y baja capacidad
Cifra. La matriz de automatización centrada en el ser humano (imagen del autor, categorización informada por [1])

El marco ayuda a determinar qué trabajos son posibles y también tienen una alta probabilidad de ser adoptado en el lugar de trabajo.

Poniendo el marco en acción

En lugar de seguir ciegamente los mandatos para “usar agentes de IA”, los PM deberían hacer lo que mejor hacen, piense estratégicamente en lo que es mejor para el negocio. Use este 2 × 2 para identificar las áreas maduras para la automatización que tendrán el mayor impacto y mantendrá a su equipo felizmente productivo.

  • Zona de luz verde: esta sería la principal prioridad. Automatizar las ideas del mercado, la sintetización de comentarios de los clientes y generar los primeros borradores de PRD son tareas que son técnicamente factibles y altamente deseadas. Ahorran tiempo y reducen la carga cognitiva, liberándolo para hacer un trabajo estratégico de nivel superior.
  • Zona de luz roja: proceda con precaución. La IA tiene la capacidad de generar automáticamente la garantía de marketing, administrar la comunicación del cliente o tratar con los contratos de proveedores, pero los PM no están listos para renunciar al control sobre estas tareas de alto riesgo. Un error puede tener graves consecuencias y el aumento (H3-H4 en la escala HA) puede ser la opción correcta.
  • Zona de I + D: Necesita innovar para preparar la tecnología para automatizar el trabajo. Si bien existe un alto deseo de automatización, pero la tecnología no está lista, se necesita más inversión para llevarnos allí.

Lo más importante, hazte cargo. La relación PM a ingeniería no está mejorando en el corto plazo. Agregar capacidades de agente a su kit de herramientas es su mejor opción para escalar su impacto. Pero conduzca con precaución. Para prosperar y hacerte indispensable, debes ser el que moldea el futuro de tu papel.

Control de llave

  • Priorice el deseo sobre la viabilidad: la matriz de automatización centrada en el ser humano es una herramienta poderosa. Mejora las herramientas tradicionales (por ejemplo, impacto/esfuerzo, arroz, kano) al considerar la adopción y la confianza, y no solo la capacidad. El verdadero éxito es la creación de herramientas de IA que su equipo realmente usa.
  • Piense en la agencia y no solo la automatización: use la escala de agencia humana (H1-H5) para determinar el nivel de automatización. Las tareas PM pesadas y repetitivas de datos (por ejemplo, descubrimiento de información del mercado, priorización basada en datos) caen en la zona de “luz verde” debido al alto deseo y preparación de los trabajadores para la IA. Estas también son aportes para la toma de decisiones, por lo que los controles y equilibrios necesarios ya están en su lugar en los pasos posteriores. Otros pueden caer en solo H4, como solo ser una herramienta. Este enfoque es útil para gestionar el riesgo y la creación de confianza.
  • Concéntrese en el aumento en áreas de alto riesgo: las tareas creativas, estratégicas o orientadas al cliente (también conocidas como oportunidades de “luz roja”) coinciden bien con la estrategia de aumento. Si bien la IA generará opciones, analizará datos y proporcionará información, las decisiones finales y las comunicaciones deben permanecer con los humanos.
  • Las habilidades básicas de PM son más valiosas que nunca: los agentes de IA manejarán más de las actividades centradas en la información. Necesitamos desarrollar aún más nuestras habilidades humanas únicas: pensamiento estratégico, empatía, gestión de partes interesadas y liderazgo organizacional.

El futuro de la gestión de productos se verá moldeado por las elecciones de los PMS con visión de futuro, no solo por las capacidades de la IA. Los enfoques más exitosos y adoptados estarán centrados en el ser humano, centrándose en lo que realmente necesitan sobresalir. Aquellos que dominen esta asociación estratégica con IA no solo sobrevivirán sino que también definirán el futuro del papel.

Referencias

[1] Y. Shao, H. Zope, et al. (2025). “Futuro del trabajo con agentes de IA: automatización de auditoría y potencial de aumento en la fuerza laboral de los Estados Unidos”. Preimpresión ARXIV ARXIV: 2506.06576V2. https://arxiv.org/abs/2506.06576

[2] S. Lynch (2025). “Lo que los trabajadores realmente quieren de la IA”. Informe de Stanford. https://news.stanford.edu/stories/2025/07/what-workers-really-want-from-ai