Transformer解析
精细的抽象,记忆空间特别大
在nlp问题里面,通过逐个处理新的token,
递归
得进行抽象
欠缺
记忆和人类不一致,而且没有统一的表达,不通用
没有自主意识,还是在算概率,逃不开数学上的特征分割,虽然不能证明当前的数学基础、梯度下降是错误的,但是AGI肯定不是只有这些,AGI更多的是一种复杂的工程,而不是简单几个公式
Transformer架构个在处理长上下文时,会受到二次复杂度(浪费算力),以及长度外推能力弱的限制。
Revision #1
Created 11 January 2025 09:44:04 by Colin
Updated 11 January 2025 09:44:04 by Colin