Las nuevas fronteras de los LLM: desafíos, soluciones y herramientas |  por Editores TDS |  enero de 2024

Los grandes modelos de lenguaje existen desde hace varios años, pero no fue hasta 2023 que su presencia se volvió verdaderamente omnipresente tanto dentro como fuera de las comunidades de aprendizaje automático. Conceptos que antes eran opacos, como el ajuste y RAG, se han generalizado, y las empresas grandes y pequeñas han estado creando o integrando herramientas basadas en LLM en sus flujos de trabajo.

Al mirar hacia el futuro, a lo que nos deparará el año 2024, parece casi seguro que la huella de estos modelos está lista para crecer aún más y que, junto con interesantes innovaciones, también generarán nuevos desafíos para los profesionales. Las publicaciones destacadas que destacamos esta semana señalan algunos de estos aspectos emergentes del trabajo con LLM; Ya sea que sea relativamente nuevo en el tema o ya haya experimentado ampliamente con estos modelos, seguramente encontrará aquí algo que despierte su curiosidad.

  • democratización de los LLM: cuantificación de 4 bits para una inferencia óptima de LLM
    La cuantificación es uno de los principales enfoques para hacer que el poder de los modelos masivos sea accesible a una base de usuarios más amplia de profesionales del aprendizaje automático, muchos de los cuales podrían no tener acceso a memoria y computación ilimitadas. Wenqi Glantz nos guía a través del proceso de cuantificación del modelo Mistral-7B-Instruct-v0.2 y explica las compensaciones inherentes de este método entre eficiencia y rendimiento.
  • Navegando por el mundo de los agentes LLM: una guía para principiantes
    ¿Cómo podemos lograr que los LLM “lleguen al punto en que puedan resolver preguntas más complejas por sí solos”? Dominik PolzerEl manual accesible de muestra cómo crear agentes LLM que puedan aprovechar herramientas y funcionalidades dispares para automatizar flujos de trabajo complejos con una mínima intervención humana.
Foto por Beth Macdonald en desempaquetar
  • Aproveche KeyBERT, HDBSCAN y Zephyr-7B-Beta para crear un gráfico de conocimiento
    Los LLM son muy poderosos por sí solos, por supuesto, pero su potencial se vuelve aún más sorprendente cuando se combinan con otros enfoques y herramientas. Silvia OnofreiLa guía reciente de sobre la construcción de un gráfico de conocimiento con la ayuda del modelo Zephyr-7B-Beta es un ejemplo de ello; Demuestra cómo combinar LLM y métodos tradicionales de PNL puede producir resultados impresionantes.
  • Fusionar modelos de lenguajes grandes con mergekit
    Por improbable que parezca, a veces un solo LLM puede no ser suficiente para las necesidades específicas de su proyecto. Como Maxime Labonne Como muestra en su último tutorial, la fusión de modelos, un “método relativamente nuevo y experimental para crear nuevos modelos por poco dinero”, podría ser la solución para esos momentos en los que necesitas mezclar y combinar elementos de múltiples modelos.
  • ¿El uso de un LLM durante el proceso de contratación lo convierte en un fraude como candidato?
    Los tipos de preguntas que plantean los LLM van más allá de lo técnico: también tocan cuestiones éticas y sociales que pueden volverse bastante espinosas. Cristina Egan se centra en lo que está en juego para los candidatos a un puesto de trabajo que aprovechan los LLM y herramientas como ChatGPT como parte de la búsqueda de empleo, y explora la línea, a veces borrosa, entre el uso y el mal uso de la tecnología para simplificar las tareas tediosas.