Mistral 推出全新推理模型 Magistral 1.2,性能再度跃升。
• Magistral-Small-2509 专注于代码生成与数学计算,显著优于 1.1 版本
• 24B 大模型可在本地 32GB RAM 环境运行,降低使用门槛
• 开源微调笔记本免费提供,助力定制优化 docs.unsloth.ai/models/magistral-how-to-run-and-fine-tunefine-tuning-magistral-with-unsloth
• 支持 GGUF 格式,方便多平台部署 huggingface.co/unsloth/Magistral-Small-2509-GGUF
• 社区反馈积极,LM Studio 兼容性良好,部分用户建议优化 CPU 负载
• Mac M4 Pro 等高端设备可流畅运行,但部分量化版本仍有加载问题
• 用户期待更多模型支持与工具链集成,推动本地推理生态发展
Magistral 1.2 在提升推理能力同时,释放了本地部署可能,开启多场景应用新篇章,适合追求高效算力利用和灵活调优的开发者与研究者。
人工智能 大模型 本地推理 机器学习 开源AI