Skip to main content

Transformer解析

  1. 精细的抽象,记忆空间特别大
  2. 在nlp问题里面,通过逐个处理新的token,递归得进行抽象

欠缺

  1. 记忆和人类不一致,而且没有统一的表达,不通用
  2. 没有自主意识,还是在算概率,逃不开数学上的特征分割,虽然不能证明当前的数学基础、梯度下降是错误的,但是AGI肯定不是只有这些,AGI更多的是一种复杂的工程,而不是简单几个公式
  3. Transformer架构个在处理长上下文时,会受到二次复杂度(浪费算力),以及长度外推能力弱的限制。