De ONNX a incrustaciones estáticas: ¿Qué hace que Sentence Transformers v3.2.0 cambie las reglas del juego?

Existe una demanda creciente de modelos integrados que equilibren precisión, eficiencia y versatilidad. Los modelos existentes a menudo tienen dificultades para lograr este equilibrio, especialmente en escenarios que van desde aplicaciones de bajos recursos hasta implementaciones a gran escala. La necesidad de incorporaciones más eficientes y de alta calidad ha impulsado el desarrollo de nuevas soluciones para satisfacer estos requisitos cambiantes.

Descripción general de Sentence Transformers v3.2.0

Transformadores de frases v3.2.0 es el mayor lanzamiento para inferencia en dos años y ofrece mejoras significativas para la búsqueda semántica y el aprendizaje de representación. Se basa en versiones anteriores con nuevas funciones que mejoran la usabilidad y la escalabilidad. Esta versión se centra en mejorar la eficiencia del entrenamiento y la inferencia, ampliar la compatibilidad con el modelo de transformador y mejorar la estabilidad, lo que la hace adecuada para diversos entornos y entornos de producción más grandes.

Mejoras técnicas

Desde un punto de vista técnico, Sentence Transformers v3.2.0 trae varias mejoras notables. Una de las actualizaciones clave está en la gestión de la memoria, incorporando técnicas mejoradas para manejar grandes lotes de datos, lo que permite una capacitación más rápida y eficiente. Esta versión también aprovecha la utilización optimizada de la GPU, lo que reduce el tiempo de inferencia hasta en un 30 % y hace que las aplicaciones en tiempo real sean más factibles.

Además, v3.2.0 presenta dos nuevos backends para integrar modelos: ONNX y OpenVINO. El backend de ONNX utiliza ONNX Runtime para acelerar la inferencia de modelos tanto en CPU como en GPU, alcanzando una velocidad de hasta 1,4x-3x, dependiendo de la precisión. También incluye métodos auxiliares para optimizar y cuantificar modelos para una inferencia más rápida. El backend OpenVINO, que utiliza el kit de herramientas OpenVINO de Intel, supera a ONNX en algunas situaciones en la CPU. La compatibilidad ampliada con la biblioteca Hugging Face Transformers permite un uso sencillo de más modelos previamente entrenados, lo que proporciona mayor flexibilidad para diversas aplicaciones de PNL. Las nuevas estrategias de agrupación garantizan aún más que las incorporaciones sean más sólidas y significativas, lo que mejora la calidad de tareas como la agrupación, la búsqueda semántica y la clasificación.

https://github.com/UKPLab/sentence-transformers/releases/tag/v3.2.0

" data-medium-file="https://www.marktechpost.com/wp-content/uploads/2024/10/Screenshot-2024-10-17-at-1.10.10-AM-300x165.png" data-large-file="https://www.marktechpost.com/wp-content/uploads/2024/10/Screenshot-2024-10-17-at-1.10.10-AM-1024x565.png" tabindex="0" role="button" fifu-data-src="https://i0.wp.com/www.marktechpost.com/wp-content/uploads/2024/10/Screenshot-2024-10-17-at-1.10.10-AM-1024x565.png?ssl=1" alt="" class="wp-image-63923" style="width:694px;height:auto" srcset="https://www.marktechpost.com/wp-content/uploads/2024/10/Screenshot-2024-10-17-at-1.10.10-AM-1024x565.png 1024w, https://www.marktechpost.com/wp-content/uploads/2024/10/Screenshot-2024-10-17-at-1.10.10-AM-300x165.png 300w, https://www.marktechpost.com/wp-content/uploads/2024/10/Screenshot-2024-10-17-at-1.10.10-AM-768x424.png 768w, https://www.marktechpost.com/wp-content/uploads/2024/10/Screenshot-2024-10-17-at-1.10.10-AM-1536x847.png 1536w, https://www.marktechpost.com/wp-content/uploads/2024/10/Screenshot-2024-10-17-at-1.10.10-AM-762x420.png 762w, https://www.marktechpost.com/wp-content/uploads/2024/10/Screenshot-2024-10-17-at-1.10.10-AM-150x83.png 150w, https://www.marktechpost.com/wp-content/uploads/2024/10/Screenshot-2024-10-17-at-1.10.10-AM-696x385.png 696w, https://www.marktechpost.com/wp-content/uploads/2024/10/Screenshot-2024-10-17-at-1.10.10-AM-1068x589.png 1068w, https://www.marktechpost.com/wp-content/uploads/2024/10/Screenshot-2024-10-17-at-1.10.10-AM-1920x1059.png 1920w, https://www.marktechpost.com/wp-content/uploads/2024/10/Screenshot-2024-10-17-at-1.10.10-AM.png 2002w" sizes="(max-width: 1024px) 100vw, 1024px"/>
https://github.com/UKPLab/sentence-transformers/releases/tag/v3.2.0

Introducción de incrustaciones estáticas

Otra característica importante son Static Embeddings, una versión modernizada de incrustaciones de palabras tradicionales como GLoVe y word2vec. Las incrustaciones estáticas son bolsas de incrustaciones de tokens que se suman para crear incrustaciones de texto, lo que permite incrustaciones ultrarrápidas sin necesidad de redes neuronales. Se inicializan utilizando Model2Vec, una técnica para destilar modelos de Sentence Transformer en incrustaciones estáticas, o inicialización aleatoria seguida de ajuste fino. Model2Vec permite la destilación en segundos, proporcionando mejoras de velocidad (500 veces más rápido en la CPU en comparación con los modelos tradicionales) y al mismo tiempo mantiene un costo de precisión razonable de alrededor del 10-20 %. La combinación de incrustaciones estáticas con un reclasificador de codificador cruzado es una solución prometedora para escenarios de búsqueda eficientes.

Rendimiento y aplicabilidad

Sentence Transformers v3.2.0 ofrece arquitecturas eficientes que reducen las barreras para su uso en entornos con recursos limitados. La evaluación comparativa muestra mejoras significativas en la velocidad de inferencia y la calidad de la incrustación, con ganancias de precisión de hasta un 10% en tareas de similitud semántica. Los backends de ONNX y OpenVINO proporcionan aceleraciones de 2 a 3 veces, lo que permite la implementación en tiempo real. Estas mejoras lo hacen muy adecuado para diversos casos de uso, equilibrando el rendimiento y la eficiencia y al mismo tiempo abordando las necesidades de la comunidad para una aplicabilidad más amplia.

Conclusión

Sentence Transformers v3.2.0 mejora significativamente la eficiencia, el uso de la memoria y la compatibilidad del modelo, haciéndolo más versátil en todas las aplicaciones. Mejoras como estrategias de agrupación, optimización de GPU, backends ONNX y OpenVINO y la integración de Hugging Face lo hacen adecuado tanto para investigación como para producción. Static Embeddings amplía aún más su aplicabilidad, proporcionando incrustaciones semánticas escalables y accesibles para una amplia gama de tareas.


Mira el Detalles y Página de documentación. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, no olvides seguirnos en Gorjeo y únete a nuestro Canal de telegramas y LinkedIn Grarriba. Si te gusta nuestro trabajo, te encantará nuestro hoja informativa.. No olvides unirte a nuestro SubReddit de más de 50.000 ml.

[Upcoming Live Webinar- Oct 29, 2024] La mejor plataforma para ofrecer modelos optimizados: motor de inferencia Predibase (promocionado)


Shobha es un analista de datos con una trayectoria comprobada en el desarrollo de soluciones innovadoras de aprendizaje automático que impulsan el valor empresarial.