xiand.ai

Tecnología

Arcee AI Unveils Trinity Large: A 400B Sparse MoE Pushing Frontier Performance on a Budget
Xiandai

Arcee AI lanza Trinity Large, un modelo MoE disperso de 400B con eficiencia sin precedentes

Arcee AI ha revelado Trinity Large, un modelo de Lenguaje Grande (LLM) disperso de 400 mil millones de parámetros que utiliza una arquitectura Mixture of Experts (MoE) con alta esparcidad. El lanzamiento incluye tres variantes, destacando el 'TrueBase', un punto de control fundamental para la investigación sin datos de instrucción posteriores al preentrenamiento. Este esfuerzo ambicioso se completó en solo 33 días de entrenamiento intensivo.

La Era