DeepSeek AI lanza DeepSeek-V4: la atención escasa comprimida y la atención muy comprimida permiten contextos de un millón de tokens
DeepSeek-AI ha lanzado una versión preliminar de la serie DeepSeek-V4: dos modelos de lenguaje de mezcla de expertos (MoE) creados en torno a un desafío central que hace que las…