E-Ink 新闻日报

返回列表

Ollama 支持 MLX 框架,Mac 本地模型运行速度提升

Ollama 新增对苹果 MLX 框架的支持,改进了缓存并添加了 NVFP4 压缩,显著提升了 Apple Silicon Mac 上的本地 AI 模型性能。该更新特别受益于配备神经加速器的新款 M5 系列 Mac,目前支持阿里巴巴的 Qwen3.5 35B 模型。此举正值本地模型因云端 API 限制和成本问题而日益流行之际。

背景

Ollama 是一个流行的本地运行大语言模型的运行时环境,而 MLX 是苹果针对 Apple Silicon 芯片优化的开源机器学习框架。

来源
Ars Technica
发布时间
2026年4月1日 07:00
评分
6.0 / 10