Mistral / Mixtral Mistral · Mixtral
欧洲公司 Mistral AI 推出的高性能开源大模型家族,以紧凑结构和 Mixtral 等 MoE 变体著称。
Mistral 系列模型在相对较小的参数规模下提供了接近甚至超过更大模型的性能,代表了高效架构与精细训练的结合。Mixtral 8x7B 等 MoE 版本则通过稀疏专家结构显著提升参数容量,同时保持可接受的推理成本。
得益于宽松的许可与优秀的性能,Mistral/Mixtral 在欧洲及全球开源社区被广泛采用,常见于边缘部署、企业自托管以及研究实验场景。
打开 GitHub 界面,修改后直接生成 PR