No es necesario que sea un chatbot

Generalmente comienza de la misma manera. En una reunión de liderazgo, alguien dice: “¡Usemos IA!”. Las cabezas asienten, el entusiasmo aumenta y, antes de que te des cuenta, la sala llega a la conclusión predeterminada: “Claro, construiremos un chatbot”. Ese instinto es comprensible. Los grandes modelos de lenguaje son poderosos, ubicuos y fascinantes. Prometen acceso intuitivo al conocimiento y la funcionalidad universales.

El equipo se aleja y comienza a construir. Pronto llega el momento de la demostración. Aparece una interfaz de chat pulida, acompañada de argumentos confiados sobre por qué esta vez será diferente. Sin embargo, en ese momento no suele llegar a usuarios reales en situaciones reales, y la evaluación es sesgada y optimista. A alguien del público inevitablemente se le ocurre una pregunta personalizada, lo que irrita al robot. Los desarrolladores prometen solucionarlo, pero en la mayoría de los casos, el problema subyacente es sistémico.

Una vez que el chatbot llega al suelo, el optimismo inicial suele ir acompañado de la frustración del usuario. Aquí las cosas se vuelven un poco personales porque durante las últimas semanas me vi obligado a pasar algún tiempo hablando con diferentes chatbots. Tiendo a retrasar las interacciones con los proveedores de servicios hasta que la situación se vuelve insostenible, y un par de estos casos se habían acumulado. Los widgets de chatbot sonrientes se convirtieron en mi última esperanza antes de una eterna llamada directa, pero:

Después de iniciar sesión en el sitio de mi aseguradora de automóviles, pedí explicar un aumento de precios no anunciado, solo para darme cuenta de que el chatbot no tenía acceso a mis datos de precios. Lo único que podía ofrecer era el número de la línea directa. Ay. Después de que un vuelo fue cancelado en el último minuto, le pregunté el motivo al chatbot de la aerolínea. Se disculpó cortésmente porque, como la hora de salida ya era pasada, no podía ayudarme. Sin embargo, estuvo abierto a discutir todos los demás temas. En un sitio de telecomunicaciones, pregunté por qué mi plan de telefonía móvil había caducado repentinamente. El chatbot respondió con confianza que no podía comentar sobre cuestiones contractuales y me remitió a las preguntas frecuentes. Como era de esperar, fueron largos pero irrelevantes.

Estas interacciones no me acercaron a una solución y me dejaron en el extremo opuesto del deleite. Los chatbots parecían cuerpos extraños. Sentados allí, consumieron espacio, latencia y atención, pero no agregaron valor.

Saltemos el debate sobre si se trata de patrones oscuros intencionales. El hecho es que los sistemas heredados como los anteriores conllevan una pesada carga de entropía. Vienen con toneladas de datos, conocimientos y contexto únicos. En el momento en que intentas integrarlos con un LLM de propósito general, haces que dos mundos choquen. El modelo necesita asimilar el contexto de su producto para poder razonar de manera significativa sobre su dominio. La ingeniería de contexto adecuada requiere habilidad y tiempo para una evaluación e iteración incesantes. Y antes incluso de llegar a ese punto, sus datos deben estar listos, pero en la mayoría de las organizaciones, los datos tienen ruido, están fragmentados o simplemente faltan.

En esta publicación, resumiré las ideas de mi libro El arte del desarrollo de productos de IA y mi reciente charla en la Cumbre de IA de Google Web y compartiré un enfoque más orgánico e incremental para integrar la IA en productos existentes.

Uso de modelos más pequeños para una integración de IA incremental y de bajo riesgo

“Al implementar la IA, veo que más organizaciones fracasan al empezar demasiado grande que al empezar demasiado pequeño”. (Andrés Ng).

La integración de la IA necesita tiempo:

Su equipo técnico necesita preparar los datos y aprender las técnicas y herramientas disponibles. Necesita crear prototipos e iterar para encontrar los puntos óptimos del valor de la IA en su producto y mercado. Los usuarios deben calibrar su confianza al pasar a nuevas experiencias probabilísticas.

Para adaptarse a estas curvas de aprendizaje, no debe apresurarse a exponer la IA (especialmente la funcionalidad de chat abierto) a sus usuarios. La IA introduce incertidumbre y errores en la experiencia, algo que a la mayoría de la gente no le gusta.

Una forma eficaz de acelerar el recorrido de la IA en el contexto de las zonas industriales abandonadas es mediante el uso de modelos de lenguaje pequeño (SLM), que normalmente oscilan entre unos pocos cientos de millones y unos pocos miles de millones de parámetros. Pueden integrarse de manera flexible con la infraestructura y los datos existentes de su producto, en lugar de agregar más gastos tecnológicos.

Cómo se entrena a los SLM

La mayoría de los SLM se derivan de modelos más amplios mediante la destilación de conocimientos. En esta configuración, un modelo grande actúa como profesor y uno más pequeño como alumno. Por ejemplo, Gemini de Google sirvió como maestro para Gemma 2 y Gemma 3, mientras que Llama Behemoth de Meta entrenó a su manada de modelos Llama 4 más pequeños. Así como un maestro humano condensa años de estudio en explicaciones claras y lecciones estructuradas, el modelo grande destila su vasto espacio de parámetros en una representación más pequeña y densa que el estudiante puede absorber. El resultado es un modelo compacto que conserva gran parte de la competencia del profesor pero opera con muchos menos parámetros y un costo computacional dramáticamente menor.

Figura 1: En la destilación del conocimiento, el modelo de estudiante más pequeño absorbe el conocimiento esencial de un modelo de maestro más grande

Uso de SLM

Una de las ventajas clave de los SLM es su flexibilidad de implementación. A diferencia de los LLM que se utilizan principalmente a través de API externas, los modelos más pequeños se pueden ejecutar localmente, ya sea en la infraestructura de su organización o directamente en el dispositivo del usuario:

Implementación local: puede alojar SLM en sus propios servidores o dentro de su entorno de nube, manteniendo el control total sobre los datos, la latencia y el cumplimiento. Esta configuración es ideal para aplicaciones empresariales donde la información confidencial o las restricciones regulatorias hacen que las API de terceros no sean prácticas.

📈 La implementación local también le ofrece oportunidades flexibles de ajuste a medida que recopila más datos y necesita responder a las crecientes expectativas de los usuarios.

Implementación en el dispositivo a través del navegador: los navegadores modernos tienen capacidades de IA integradas en las que puede confiar. Por ejemplo, Chrome integra Gemini Nano a través de las API de IA integradas, mientras que Microsoft Edge incluye Phi-4 (consulte la documentación de Prompt API). La ejecución de modelos directamente en el navegador permite casos de uso de baja latencia que preservan la privacidad, como sugerencias de texto inteligentes, autocompletar formularios o ayuda contextual.

Si desea obtener más información sobre los aspectos técnicos de los SLM, aquí tiene un par de recursos útiles:

Sigamos ahora y veamos qué puede crear con SLM para proporcionar valor al usuario y lograr un progreso constante en su integración de IA.

Oportunidades de productos para SLM

Los SLM brillan en tareas enfocadas y bien definidas donde el contexto y los datos ya se conocen: los tipos de casos de uso que se encuentran en lo más profundo de los productos existentes. Puede considerarlos como inteligencia integrada y especializada en lugar de asistentes de propósito general. Repasemos las principales oportunidades que abren en las zonas industriales abandonadas, como se ilustra en el siguiente árbol de oportunidades.

Figura 2: Categorías de oportunidades para SLM, con ejemplos de la industria de viajes

1. Mejores análisis de productos

Antes de exponer las funciones de IA a los usuarios, busque formas de mejorar su producto desde adentro. La mayoría de los productos ya generan un flujo continuo de texto no estructurado: chats de soporte, solicitudes de ayuda y comentarios dentro de la aplicación. Los SLM pueden analizar estos datos en tiempo real y obtener información que informe tanto las decisiones sobre el producto como la experiencia inmediata del usuario. A continuación se muestran algunos ejemplos:

Etiquete y enrute los chats de soporte a medida que ocurren, dirigiendo los problemas técnicos a los equipos adecuados. Señales de abandono de marcas durante una sesión, lo que provoca intervenciones oportunas. Sugerir contenidos o acciones relevantes en función del contexto actual del usuario. Detecte puntos de fricción repetidos mientras el usuario todavía está en el flujo, no semanas después en una retrospectiva.

Estos habilitadores internos mantienen el riesgo bajo mientras agregan valor y le dan a su equipo tiempo para aprender. Fortalecen su base de datos y lo preparan para funciones de IA más visibles y orientadas al usuario en el futuro.

2. Eliminar la fricción

A continuación, dé un paso atrás y audite la deuda de UX que ya existe. En las zonas industriales abandonadas, la mayoría de los productos no son exactamente el sueño de un diseñador. Fueron diseñados bajo las limitaciones técnicas y arquitectónicas de su época. Con la IA, ahora tenemos la oportunidad de eliminar algunas de esas limitaciones, reduciendo la fricción y creando experiencias más rápidas e intuitivas.

Un buen ejemplo son los filtros inteligentes de sitios web basados ​​en búsquedas como Booking.com. Tradicionalmente, estas páginas utilizan largas listas de casillas de verificación y categorías que intentan cubrir todas las preferencias posibles del usuario. Son engorrosos de diseñar y usar y, al final, muchos usuarios no pueden encontrar la configuración que les interesa.

El filtrado basado en el idioma cambia esto. En lugar de navegar por una taxonomía compleja, los usuarios simplemente escriben lo que quieren (por ejemplo, “hoteles que admiten mascotas cerca de la playa”) y el modelo lo traduce en una consulta estructurada entre bastidores.

Figura 3: Los filtros inteligentes basados ​​en el lenguaje eliminan la carga cognitiva de las barras de filtro largas

En términos más generales, busque áreas en su producto donde los usuarios necesiten aplicar su lógica interna (sus categorías, estructuras o terminología) y reemplácelas con interacción de lenguaje natural. Siempre que los usuarios pueden expresar su intención directamente, se elimina una capa de fricción cognitiva y se hace que el producto sea más inteligente y amigable.

3. Aumentar

Una vez que su experiencia de usuario esté ordenada, es hora de pensar en el aumento: agregar capacidades de IA pequeñas y útiles a su producto. En lugar de reinventar la experiencia principal, observe lo que los usuarios ya están haciendo en torno a su producto: las tareas secundarias, las soluciones alternativas o las herramientas externas en las que confían para alcanzar su objetivo. ¿Pueden los modelos de IA enfocados ayudarlos a hacerlo más rápido o de manera más inteligente?

Por ejemplo, una aplicación de viajes podría integrar un generador de notas de viaje contextuales que resuma los detalles del itinerario o redacte mensajes para los compañeros de viaje. Una herramienta de productividad podría incluir un generador de resúmenes de reuniones que resuma discusiones o elementos de acción a partir de notas de texto, sin enviar datos a la nube.

Estas características crecen orgánicamente a partir del comportamiento real del usuario y amplían el contexto de su producto en lugar de redefinirlo.

4. Personaliza

La personalización exitosa es el santo grial de la IA. Cambia la dinámica tradicional: en lugar de pedir a los usuarios que aprendan y se adapten a su producto, su producto ahora se adapta a ellos como un guante que les queda bien.

Cuando empieces, mantén a raya la ambición: no necesitas un asistente totalmente adaptable. Más bien, introduzca pequeños ajustes de bajo riesgo en lo que ven los usuarios, cómo se expresa la información o qué opciones aparecen primero. A nivel de contenido, la IA puede adaptar el tono y el estilo, como usar palabras concisas para los expertos y frases más explicativas para los recién llegados. A nivel de experiencia, puede crear interfaces adaptativas. Por ejemplo, una herramienta de gestión de proyectos podría mostrar las acciones más relevantes (“crear tarea”, “compartir actualización”, “generar resumen”) en función de los flujos de trabajo anteriores del usuario.

⚠️ Cuando la personalización sale mal, rápidamente erosiona la confianza. Los usuarios sienten que han intercambiado datos personales por una experiencia que no les hace sentir mejor. Por lo tanto, introduzca la personalización sólo una vez que sus datos estén listos para respaldarla.

Por qué lo “pequeño” gana con el tiempo

Cada característica de IA exitosa, ya sea una mejora analítica, un punto de contacto de UX sin fricciones o un paso personalizado en un flujo más grande, fortalece su base de datos y desarrolla la capacidad de iteración y la alfabetización en IA de su equipo. También sienta las bases para aplicaciones más grandes y complejas en el futuro. Cuando sus funciones “pequeñas” funcionan de manera confiable, se convierten en componentes reutilizables en flujos de trabajo más grandes o sistemas de agentes modulares (consulte el artículo de Nvidia Los modelos de lenguaje pequeño son el futuro de la IA agente).

Para resumir:

✅ Empiece poco a poco: favorezca la mejora gradual en lugar de la disrupción.

✅ Experimente rápido: los modelos más pequeños significan menores costos y ciclos de retroalimentación más rápidos.

✅ Sea cauteloso: comience internamente; introduzca la IA orientada al usuario una vez que la haya validado.

✅ Desarrolle su capacidad de iteración: el progreso constante y compuesto supera a los proyectos principales.

Publicado originalmente en https://jannalipenkova.substack.com.