Ollama 新增对苹果 MLX 框架的支持,改进了缓存并添加了 NVFP4 压缩,显著提升了 Apple Silicon Mac 上的本地 AI 模型性能。该更新特别受益于配备神经加速器的新款 M5 系列 Mac,目前支持阿里巴巴的 Qwen3.5 35B 模型。此举正值本地模型因云端 API 限制和成本问题而日益流行之际。
背景
Ollama 是一个流行的本地运行大语言模型的运行时环境,而 MLX 是苹果针对 Apple Silicon 芯片优化的开源机器学习框架。
- 来源
- Ars Technica
- 发布时间
- 2026年4月1日 07:00
- 评分
- 6.0 / 10