Recently Updated Pages
记忆对于LLM的意义
记忆是实现人性化的必要条件 稳定的长期记忆 现有模型的推理能力已经足够强,真正缺的是稳定的长期记忆。 我们需要那么多智能体协作,恰恰是因为一个智能体记不住所有事情。 图数据库 AI 缺...
人类记忆
为什么需要记忆 人脑有非常强大的记忆系统和索引能力,管理着非常庞大的信息,能够准确联想起来非常多的记忆 记忆是AGI的一种重要能力 因为大脑容量限制,记忆是人类在当前信息爆炸的社会的...
大脑记忆的核心机制
存储、连接、检索与深度学习的生物学原型 导读 人类大脑实现高效、鲁棒的"模糊记忆",并非靠计算机式的"地址—数据"存取,而是由几个互相支撑的机制共同构成: 分布式表征——记忆以何种形式存在 ...
RAG
RAG RAG的过程 拆分文本成文本块 拆分算法: 使用嵌入模型进行向量化 对一段文本使用一堆维度很多的向量进行表示 存入向量数据库 对输入进行向量化 使用传统的向量距离计算算法进...
AI交互和头脑风暴
AI 交互和头脑风暴 定位 文档是人和 LLM 沟通、交流的中介。提供一套写文档的方法学——把"写一份文档"组织成自顶向下、和用户逐级讨论的过程。 写法 从大到小地设计一个文档: 从最大的骨架...
认知图:入库与查询流水线
把认知图作为长期可推理的知识层,对接 LLM 完成入库与查询。两端结构对称——入库把自然语言压成节点 + 关系,查询把 query 压成关键节点集再回到节点 + 关系。 依赖:unit / ...
算力单元
算力单元详细设计 把 [[Pipe]] 第 6 节 §208 的算力单元抽象展开到 RTL 起手前。每个计算实例 = 一条 engine pipe 实例。 0. 与 DMA 的同构关系 算力单元...
Pipe
管道 Pipe 定位 本文档描述两层独立完整的管道抽象: 逻辑管道(上层,用户 API):用户面向的数据通路抽象,声明"数据从哪来、到哪去、要多少" Pipe(中层,硬件功能抽象):统一表达...
L1
L1 单元详细设计 把 [[Pipe]] 第 6 节 §193 的 L1 抽象展开到 RTL 起手前。每条 cacheline = 一条 data pipe 实例。L1 是被动单元:无命令队列、...
DMA
DMA 单元详细设计 把 [[Pipe]] 第 6 节 §176 的 DMA 抽象一直展开到 RTL 起手前的最后一步。每条 channel = 一条 engine pipe;每个 sync c...