Cómo ejecutar OpenClaw con modelos de código abierto

de suscripciones a Claude Code para impulsar OpenClaw. Esto me impulsó a buscar LLM alternativos, considerando que el precio de API para Claude Opus 4.6 es extremadamente alto.

Comencé a probar GPT-5.4 de OpenAI, pero encontré desafíos debido a que el modelo era vago. Por ejemplo, le pedí que realizara una tarea que sé que es capaz de realizar y experimenté que el modelo simplemente se daba por vencido después de algunos intentos.

Por supuesto, esto es inaceptable cuando se trata de un asistente útil, así que decidí empezar a probar otras alternativas y encontré un conjunto de alternativas chinas:

Kimi-K2.5 GLM-5.1 MiniMax-M2.7

Kimi-K2.5 y GLM son de código abierto, mientras que MiniMax no lo es. El objetivo de este artículo es resaltar cómo puede ejecutar OpenClaw con muchos modelos diferentes, resaltar cómo hacerlo y cómo hacer que su asistente OpenClaw sea efectivo.

Esta infografía destaca el contenido principal de este artículo, donde le mostraré cómo ejecutar OpenClaw con modelos de código abierto como Kimi-K2.5. Le explicaré las principales alternativas que tiene a Claude Opus 4.6 como OpenClaw LLM, algunos trucos de optimización y las desventajas de Kimi-K2.5. Imagen de ChatGPT.

Por qué utilizar OpenClaw con modelos de código abierto

La razón principal por la que cambié de Claude Code a alternativas de código abierto fue simplemente el costo. Anthropic ahora ha bloqueado el uso del nivel de suscripción para OpenClaw y ahora solo puedes usar Claude con OpenClaw a través de una API. El precio de API para Claude Opus 4.6 actualmente es , lo que aumenta rápidamente el costo.

Entonces comencé a buscar soluciones alternativas que fueran más baratas y aún así ofrecieran un buen rendimiento. Primero intenté usar OpenAI, que tiene un nivel de suscripción de 200 USD que puedes usar con OpenClaw. Sin embargo, experimenté que el LLM era bastante vago y no estaba dispuesto a resolver los problemas de forma independiente. Muchas veces tuve que ayudar mucho al modelo a resolver nuevos problemas, lo que obviamente no es ideal cuando se trabaja con un asistente.

Si realiza una búsqueda rápida en Google de los mejores modelos de OpenClaw en línea ahora, probablemente obtendrá una lista con Claude Opus, seguido de algunos modelos chinos como Kimi-K2.5. Estos modelos son mucho más baratos que el Claude Opus 4.6, con Kimi-K2.5 con un precio de 0,6/3 USD por millón de tokens, alrededor de una décima parte del precio del Claude Opus 4.6.

Por lo tanto, decidí probar Kimi-K2.5 para ver si funcionaba bien y si podía convertirlo en un asistente OpenClaw eficaz.

Cómo utilizar Kimi-K2.5 en OpenClaw

Comencé a usar Kimi-K2.5 en OpenClaw y fue bastante fácil de configurar. En primer lugar, necesitaba acceso al modelo Kimi-K2.5. Puedes hacerlo a través del sitio web oficial de Kimi-K2.5. Sin embargo, decidí hacer esto a través de OpenRouter porque me brinda mayor flexibilidad y tiempo de actividad. Cuando accede a Kimi-K2.5 a través de OpenRouter, paga alrededor de un recargo del 10 % debido al recorte del intermediario. Sin embargo, a cambio, obtienes fácil acceso a muchos modelos, incluidas otras alternativas chinas, y puedes cambiar fácilmente entre ellos.

Para configurar Kimi-K2.5 en mi OpenClaw, simplemente obtuve una clave API de OpenRouter, la proporcioné a mi instancia de Claude Code y le pedí que configurara mi modelo OpenClaw para usar Kimi-K2.5 en lugar de los modelos Anthropic.

Una cosa importante que noté al dejar de usar la suscripción Anthropic fue que es necesario eliminar todas las referencias a Anthropic. Es decir, tenía un asistente OpenClaw anterior o existente que se ejecutaba en Claude Opus 4.6. Cuando cambié a usar Kimi-K2.5, todavía experimentaba problemas de OAuth a pesar de que Kimi-K2.5 era el modelo principal utilizado para mi asistente. La razón por la que lo descubrí fue por algunas referencias antrópicas, incluida una clave antrópica en mis variables de entorno. Asegúrese de eliminarlos todos para no experimentar problemas de OAuth.

Asegúrese de eliminar todas las referencias de modelos anteriores, por ejemplo a Anthropic, al configurar un nuevo LLM para su asistente OpenClaw.

Después de eso, fue bastante sencillo. fue capaz de realizar una sola vez la implementación.

Rendimiento del Kimi-K2.5

En esta sección, cubriré el rendimiento del Kimi-K2.5, especialmente en comparación con Claude Opus y OpenAI GPT-5.4. Si ignorara por completo el costo y simplemente pensara en el rendimiento, los pondría en el siguiente orden:

Claude Opus 4.6 Kimi-K2.5 GPT-5.4

Sin embargo, en mi opinión, la brecha entre 1 y 2 es mucho menor que la brecha entre los números 2 y 3. Kimi-K2.5 no está muy lejos en rendimiento de Claude Opus cuando se trata de ser útil como asistente de OpenClaw.

Sin embargo, me gustaría señalar que experimenté que Kimi-K2.5 era bastante lento a veces, lo que creo que sucedió porque usaba más tokens de pensamiento de los que deberían ser necesarios en tareas fáciles, y esto fue algo recurrente que noté en comparación con Claude Opus 4.6. Sin embargo, pude asegurarme más fácilmente de que Kimi-K2.5 siguiera intentándolo y no abandonara fácilmente las tareas que debería poder realizar.

Por lo tanto, en general, si tuviera que pagar completamente por el coste, probablemente elegiría Claude Opus 4.6. Sin embargo, cuando Kimmy cuesta una décima parte del precio, creo que es un competidor realmente fuerte y puede competir fácilmente en muchas áreas con Claude Opus 4.6.

Técnicas para optimizar OpenClaw

También quiero cubrir cómo lograr un mejor rendimiento con OpenClaw cuando se utilizan modelos de código abierto como Kimi-K2.5. Por supuesto, tienes todos los consejos estándar que debes seguir al utilizar OpenClaw, que incluyen:

Asegurar que el modelo tenga habilidades específicas para cada tarea que realiza. Otorgándole todos los permisos que necesita, como claves API para diferentes servicios. Configurar trabajos cron para garantizar que el modelo aprenda de sus chats anteriores. Podrías, por ejemplo, tener un trabajo cron diario revisando todos los chats del día.

En general, seguí estos consejos y los consejos generales de OpenClaw que seguí anteriormente cuando usé Claude Opus 4.6 con OpenClaw. Realmente no experimenté un área donde los consejos que funcionaron para Claude Opus no funcionaron para Kimi-K2.5. Y simplemente creo que OpenClaw es bastante independiente del modelo de lenguaje, siempre y cuando se utilice un modelo de lenguaje que sea muy capaz tanto en lo que respecta al razonamiento como a las capacidades de agencia.

Desventajas de Kimi-K2.5

Aunque mi experiencia general con Kimi-K2.5 fue muy buena, también me gustaría resaltar algunas desventajas del modelo al usarlo para OpenClaw.

El primer inconveniente es la velocidad de respuesta a solicitudes sencillas. Noté muy claramente que Kimi-K2.5 era un poco más lento, a pesar de que hice preguntas muy simples, como “¿Tiene acceso a un servicio específico?” donde debería responder con un simple sí. El modelo pasó mucho tiempo pensando antes de dar respuestas tan simples. Sin embargo, creo que vale la pena señalar que, aunque el modelo era lento, el factor más importante para mí es la calidad del resultado del modelo. Y la velocidad no es tan importante. Entonces, aunque la velocidad es desafortunada, no es una misión crítica.

Otro inconveniente que me gustaría destacar es el cumplimiento del RGPD. Por supuesto, si utiliza modelos chinos a través de una API, no cumplirá con las regulaciones GDPR que le exigen permanecer en la UE, etc. Esto hace que no pueda usar el modelo para ningún dato de cliente, ni para ningún dato que sea de gran importancia, y permanece seguro.

Lo bueno de esto es que Kimi-K2.5 y otros modelos chinos son de código abierto, por lo que, en teoría, podrías alojarlos tú mismo y así cumplir con la regulación GDPR. Aunque esto, por supuesto, requiere que usted mismo haga muchas más configuraciones, por ejemplo, configurar una GPU donde pueda ejecutar el modelo, alojarlo, la velocidad probablemente será más lenta, etc., por lo que esto también tiene sus desventajas.

Conclusión

En este artículo, analicé cómo ejecutar OpenClaw con modelos de código abierto, donde pasé la mayor parte del tiempo destacando mi experiencia usando Kimi-K2.5. Destaqué cómo Anthropic prohibió el uso de servicios de terceros para su nivel de suscripción, lo que me obligó a hacer un cambio y probar LLM alternativos para potenciar mi evaluación de OpenClaw. Probé GPT 5.4 de OpenAI y experimenté que el modelo era un poco vago, por lo que probé otros modelos y tuve una muy buena experiencia al usar Kimi-K2.5. Básicamente, destaqué cómo hacer que funcione lo mejor posible y algunas desventajas del modelo. Creo que los Asistentes de OpenClaw son increíblemente poderosos y le insto a que los pruebe usted mismo, especialmente ahora que puede ejecutar Asistentes a un precio mucho más económico utilizando modelos de lenguaje como Kimi-K2.5. En mi opinión, el rendimiento sigue siendo muy alto y puede ser un asistente valioso.

👋 Ponte en contacto

👉 Mi libro electrónico y seminario web gratuitos:

🚀 10 veces su ingeniería con LLM (curso gratuito por correo electrónico de 3 días)

📚 Obtenga mi libro electrónico gratuito sobre Modelos de lenguaje de visión

💻 Mi seminario web sobre modelos de lenguaje de visión

👉 Encuéntrame en las redes sociales:

💌 Subpila

🔗 LinkedIn

🐦X/Twitter