Skip to main content

记忆方法学

  1. 要求
    1. 需要设计一个健壮的系统,流程化,体系化,理论支撑
    2. 多层级的架构,层级解耦,独立迭代,不断增强
  2. 本质上需要的能力和处理流程
    1. 语义解析,对“输入”的自然语言的表达的含义 -> LLM
    2. 计算语义的相似度
      1. 查找已有的通用知识和专有知识
    3. 计算语义逻辑,理解问题
      1. 判断表示同一个语义的不同表达
      2. 逻辑推理、选择
    4. 汇总结果进行输出 -> LLM
  3. 需要存储和计算那个层级的信息?
    1. RAG只是向量化存储原文,无计算能力
    2. LLM权重存储和计算自然语言的高层级抽象
    3. 明确的语法+逻辑推理
      1. 需要人工算法处理类似自然语言,非常复杂
    4. LLM映射高层级的语义到向量,只要匹配向量就可以(类似于打标签)
      1. 不可靠,向量只是梯度下降后的最优的结果
      2. 黑盒,没有标准的映射关系,LLM变更需要重新生成所有的向量
  4. 分几个模块,分别负责什么功能?
    1. 语言能力:自然语言的理解和组织能力:LLM
    2. 信息、知识的格式化,检索:
    3. 信息、知识的合理性检查、扩展、举一反三:
  5. 存储的信息的数据结构,存储效率,检索效率
    1. LLM权重通过向量空间的转换(类似于查找表)来记录所有的信息,相同的语义会高度复用同一个向量空间
      1. 不可控,不透明,不可靠
      2. 存储容量有限
    2. RAG只是记录每个token的向量空间,只有相同的token才能被索引
      1. 不能支持高级语义的检索,“不聪明”
  6. 怎么记忆/学习新的知识
    1. 通过回归/拟合/训练 -- LLM 的中间的 Latent Space
      1. LLM不能在推理过程中不断的改变权重,并且保证收敛
      2. 需要用到所有的历史知识
      3. 存储的知识量越大,学习越困难
    2. 通过“绝对”信息直接分类和记录
      1. 需要复杂的人工算法
      2. 需要计算和存储语义的绝对信息
  7. 分割,建树,识别匹配, 心智 系统2 意识自洽

  1. 假设:M( A K B)   N( B K A)  
  2. 计算 A B K 的 Vector
    1. 所有的语义向量都是可以被逻辑计算的?与 或 非 是 不是  都可以转换为距离的计算
  3. 已知 K 不分左右,与 和的语义
    1. 通过LLM的不断推理关系树,得到这个含义,并记录到明文数据库
  4. M N 都是由 x1 K x2 组成
    1. x1 K x2 就是计算 ,x1和x2的中点距离
    2. 向量数据库可以方便的计算出中点的位置和各种距离
  5. M==N??  Vector of M and N ??