Mistral AI 发布开源模型 Mistral Small 3:小巧、快速、强大
法国人工智能初创公司 Mistral AI 发布了最新的开源模型 Mistral Small 3,这是一个基于 Apache 2.0 许可证的 240 亿参数模型,主打低延迟和高性能。尽管体积小巧,Mistral Small 3 的性能却堪比更大的模型,例如 Llama 3.3 70B 或 Qwen 32B,并且可以作为闭源专有模型(如 GPT4o-mini)的优秀开源替代品。其速度更是比 Llama 3.3 70B instruct 快 3 倍以上,同时在 MMLU 基准测试中达到了 81% 的准确率 ,每秒可生成 150 个 token,是同类模型中效率最高的。
主要亮点:
- Apache 2.0 许可证:
允许用户自由下载、修改和使用,推动开源社区的创新。 - 低延迟、高性能:
参数量仅 240 亿,却能达到与 700 亿参数模型相当的性能,并且速度更快,更适合本地部署。 - 强大的指令遵循能力:
经过指令微调,Mistral Small 3 在代码、数学、常识和指令遵循等基准测试中表现出色,与 GPT4o-mini 等专有模型竞争。 - 开源预训练和指令微调版本:
提供预训练和指令微调两种版本,方便用户根据需求选择和定制。 - 多平台支持:
Hugging Face、Ollama、Kaggle、Together AI