A pesar del enorme interés en los LLM de modelos de lenguajes grandes durante el último año, muchas empresas todavía están luchando por aprovechar todo el potencial de la IA generativa debido a los desafíos para integrar los LLM en los flujos de trabajo empresariales existentes. A medida que los LLM han irrumpido en escena, con enormes avances en tecnologías modelo durante el último año, las herramientas de desarrollo se han estado poniendo al día y, hasta la fecha, todavía existe una gran brecha en marcos de desarrollo abiertos, unificados y listos para la empresa para construir. aplicaciones empresariales basadas en LLM de forma rápida y a escala. En ausencia de un marco de desarrollo unificado, la mayoría de los equipos de desarrollo empresarial han estado tratando de unir varias herramientas personalizadas, código abierto, diferentes soluciones de proveedores y múltiples bibliotecas diferentes en un intento de crear nuevos canales de datos y procesos personalizados para los LLM, lo que ralentiza la adopción. y tiempo de obtención de valor.
Reconociendo esta necesidad, como proveedor de aplicaciones empresariales basadas en LLM en las industrias de servicios financieros y legales, Ai Bloks ha lanzado su marco de desarrollo en una nueva biblioteca de código abierto que está denominando LLMware. Según el director ejecutivo de Ai Bloks, Darren Oberst, “mientras hablábamos con clientes y socios durante el último año, vimos que la mayoría de las empresas luchaban por encontrar un patrón común para la generación aumentada de recuperación (RAG), que reuniera LLM con modelos integrados, bases de datos vectoriales, búsqueda de texto, análisis y fragmentación de documentos, verificación de hechos y posprocesamiento, y para abordar esta necesidad, hemos lanzado LLMware como un proyecto de código abierto para construir una comunidad en torno a este marco y democratizar las mejores prácticas de RAG y los patrones de LLM empresariales relacionados «.
LLMware aborda varias necesidades críticas no satisfechas para desarrollar aplicaciones empresariales basadas en LLM:
- Marco RAG unificado de extremo a extremo: reúne modelos, canalización de datos y flujo de trabajo para comenzar a crear aplicaciones personalizadas basadas en LLM con sus documentos privados en unas pocas líneas de código intuitivas en cuestión de minutos;
- Verdaderamente abierto con amplio soporte de modelo, nube y plataforma para promover la reutilización de la lógica de la aplicación central y evitar el «bloqueo» con soporte tanto para los principales modelos basados en API como para el código abierto;
- Diseñado para el desarrollo empresarial escalable y la implementación de nube privada;
- Los desarrolladores de todos los niveles de experiencia pueden comenzar rápidamente con docenas de ejemplos de código de muestra con una amplia gama de patrones de aplicaciones basados en LLM.
El software ya está disponible en github/llmware-aiy está empaquetado como una biblioteca estándar de Python (pip install llmware).
Además, no olvides unirte. nuestro SubReddit de más de 30.000 ml, Comunidad de Facebook de más de 40.000 personas, Canal de discordia, y Boletín electrónicodonde compartimos las últimas noticias sobre investigaciones de IA, interesantes proyectos de IA y más.
Si te gusta nuestro trabajo, te encantará nuestra newsletter.
Gracias a Bloques de IA para el artículo educativo/liderazgo intelectual. Bloques de IA nos ha apoyado en este contenido/artículo.
Asif Razzaq es el director ejecutivo de Marktechpost Media Inc.. Como empresario e ingeniero visionario, Asif está comprometido a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, Marktechpost, que se destaca por su cobertura en profundidad del aprendizaje automático y las noticias sobre aprendizaje profundo que es técnicamente sólida y fácilmente comprensible para una amplia audiencia. La plataforma cuenta con más de 2 millones de visitas mensuales, lo que ilustra su popularidad entre el público.