该研究通过形式化证明指出,在没有持续外部输入的情况下,大型语言模型的递归自我训练必然因熵衰减和方差放大而崩溃。论文认为真正的AGI/ASI不能仅通过统计学习实现,需要与算法概率等符号方法结合。这项工作为理解当前LLM自主自我改进的局限性提供了数学基础。
背景
大型语言模型经常在自主自我改进导致AGI的背景下被讨论,但其基本学习机制存在理论约束。神经符号AI领域试图将统计学习与符号推理相结合以克服这些限制。
- 来源
- Lobsters
- 发布时间
- 2026年4月29日 00:43
- 评分
- 8.0 / 10