Xiandai
400B稀疏专家混合模型Trinity Large登场:效率与性能的极限突破
Arcee AI发布了其前沿的4000亿参数稀疏专家混合模型(MoE)Trinity Large,以极高的稀疏度挑战训练效率的边界。该模型在2048块Nvidia B300 GPU上仅用33天完成预训练,并提供了Preview、Base和TrueBase三种关键检查点,旨在为开源社区树立新的基准。
La Era
Arcee AI发布了其前沿的4000亿参数稀疏专家混合模型(MoE)Trinity Large,以极高的稀疏度挑战训练效率的边界。该模型在2048块Nvidia B300 GPU上仅用33天完成预训练,并提供了Preview、Base和TrueBase三种关键检查点,旨在为开源社区树立新的基准。
LM Studio发布0.4.0版本,标志着其向企业级和高性能本地大模型服务迈进的关键一步。核心亮点包括引入基于llama.cpp 2.0.0的并行请求与连续批处理能力,以及全新的无GUI部署选项llmster。