IBM发布了Granite 4.1模型,这个80亿参数的模型通过架构优化实现了与320亿参数专家混合模型相当的性能。这代表了开源AI模型领域的显著效率提升,可能使高性能AI更加普及。此次发布延续了IBM向开源社区贡献有竞争力模型的趋势。
背景
大型语言模型通常需要大量参数才能实现高性能,但最近的架构创新如专家混合模型(MoE)旨在提高效率。IBM一直在开发Granite系列开源模型,与主要AI实验室的产品竞争。
- 来源
- hackernews
- 发布时间
- 2026年4月30日 18:31
- 评分
- 7.0 / 10