一名开发者在1989年的Macintosh电脑上使用HyperCard实现了完整的Transformer神经网络,包含1,216个参数,在复古硬件上展示了注意力机制和反向传播等核心AI概念。该模型成功通过学习掌握了位反转排列模式,可在System 7到Mac OS 9系统上运行。该项目教育性地证明了AI基础是数学原理而非魔法,即使在35年前的硬件上也能工作。
背景
Transformer是现代大型语言模型(如GPT)的基础架构,但通常在现代GPU和TPU上实现。HyperCard是1980年代末和1990年代经典Macintosh电脑上流行的超媒体和应用程序开发系统。
- 来源
- Hacker News (RSS)
- 发布时间
- 2026年4月16日 21:16
- 评分
- 7.0 / 10