Deepseek AI se lanza Deepep: una biblioteca de comunicación EP de código abierto para el entrenamiento e inferencia del modelo MOE
Los modelos de idiomas grandes que utilizan la arquitectura de la mezcla de expertos (MOE) han permitido aumentos significativos en la capacidad del modelo sin un aumento correspondiente en el…