Skip to main content
AGIX
View All
Search
Books
Log in
Info
Content
Books
模型算法
Transformer研究
Transformer解析
Transformer解析
精细的抽象,记忆空间特别大
在nlp问题里面,通过逐个处理新的token,
递归
得进行抽象
欠缺
记忆和人类不一致,而且没有统一的表达,不通用
没有自主意识,还是在算概率,逃不开数学上的特征分割,虽然不能证明当前的数学基础、梯度下降是错误的,但是AGI肯定不是只有这些,AGI更多的是一种复杂的工程,而不是简单几个公式
Transformer架构个在处理长上下文时,会受到二次复杂度(浪费算力),以及长度外推能力弱的限制。
Enter section select mode
Previous
Transformer研究
Next
KV Cache
No Comments
Back to top
No Comments