Skip to main content
记忆方法学
- 要求
- 需要设计一个健壮的系统,流程化,体系化,理论支撑
- 多层级的架构,层级解耦,独立迭代,不断增强
- 本质上需要的能力和处理流程
- 语义解析,对“输入”的自然语言的表达的含义 -> LLM
- 计算语义的相似度
- 查找已有的通用知识和专有知识
- 计算语义逻辑,理解问题
- 判断表示同一个语义的不同表达
- 逻辑推理、选择
- 汇总结果进行输出 -> LLM
- 需要存储和计算那个层级的信息?
- RAG只是向量化存储原文,无计算能力
- LLM权重存储和计算自然语言的高层级抽象
- 明确的语法+逻辑推理
- 需要人工算法处理类似自然语言,非常复杂
- LLM映射高层级的语义到向量,只要匹配向量就可以(类似于打标签)
- 不可靠,向量只是梯度下降后的最优的结果
- 黑盒,没有标准的映射关系,LLM变更需要重新生成所有的向量
- 分几个模块,分别负责什么功能?
- 语言能力:自然语言的理解和组织能力:LLM
- 信息、知识的格式化,检索:
- 信息、知识的合理性检查、扩展、举一反三:
- 存储的信息的数据结构,存储效率,检索效率
- LLM权重通过向量空间的转换(类似于查找表)来记录所有的信息,相同的语义会高度复用同一个向量空间
- 不可控,不透明,不可靠
- 存储容量有限
- RAG只是记录每个token的向量空间,只有相同的token才能被索引
- 不能支持高级语义的检索,“不聪明”
- 怎么记忆/学习新的知识
- 通过回归/拟合/训练 -- LLM 的中间的 Latent Space
- LLM不能在推理过程中不断的改变权重,并且保证收敛
- 需要用到所有的历史知识
- 存储的知识量越大,学习越困难
- 通过“绝对”信息直接分类和记录
- 需要复杂的人工算法
- 需要计算和存储语义的绝对信息
- 分割,建树,识别匹配, 心智 系统2 意识自洽
- 假设:M( A K B) N( B K A)
- 计算 A B K 的 Vector
- 所有的语义向量都是可以被逻辑计算的?与 或 非 是 不是 都可以转换为距离的计算
- 已知 K 不分左右,与 和的语义
- 通过LLM的不断推理关系树,得到这个含义,并记录到明文数据库
- M N 都是由 x1 K x2 组成
- x1 K x2 就是计算 ,x1和x2的中点距离
- 向量数据库可以方便的计算出中点的位置和各种距离
- M==N?? Vector of M and N ??
No comments to display
No comments to display