Xiandai
Arcee AI lanza Trinity Large, un modelo MoE disperso de 400B con eficiencia sin precedentes
Arcee AI ha revelado Trinity Large, un modelo de Lenguaje Grande (LLM) disperso de 400 mil millones de parámetros que utiliza una arquitectura Mixture of Experts (MoE) con alta esparcidad. El lanzamiento incluye tres variantes, destacando el 'TrueBase', un punto de control fundamental para la investigación sin datos de instrucción posteriores al preentrenamiento. Este esfuerzo ambicioso se completó en solo 33 días de entrenamiento intensivo.
La Era