Skip to main content

Recently Updated Pages

记忆对于LLM的意义

记忆是实现人性化的必要条件 稳定的长期记忆 现有模型的推理能力已经足够强,真正缺的是稳定的长期记忆。 我们需要那么多智能体协作,恰恰是因为一个智能体记不住所有事情。 图数据库 AI 缺...

人类记忆

为什么需要记忆 人脑有非常强大的记忆系统和索引能力,管理着非常庞大的信息,能够准确联想起来非常多的记忆 记忆是AGI的一种重要能力 因为大脑容量限制,记忆是人类在当前信息爆炸的社会的...

大脑记忆的核心机制

存储、连接、检索与深度学习的生物学原型 导读 人类大脑实现高效、鲁棒的"模糊记忆",并非靠计算机式的"地址—数据"存取,而是由几个互相支撑的机制共同构成: 分布式表征——记忆以何种形式存在 ...

RAG

RAG RAG的过程 拆分文本成文本块 拆分算法: 使用嵌入模型进行向量化 对一段文本使用一堆维度很多的向量进行表示 存入向量数据库 对输入进行向量化 使用传统的向量距离计算算法进...

AI交互和头脑风暴

AI 交互和头脑风暴 定位 文档是人和 LLM 沟通、交流的中介。提供一套写文档的方法学——把"写一份文档"组织成自顶向下、和用户逐级讨论的过程。 写法 从大到小地设计一个文档: 从最大的骨架...

认知图:入库与查询流水线

把认知图作为长期可推理的知识层,对接 LLM 完成入库与查询。两端结构对称——入库把自然语言压成节点 + 关系,查询把 query 压成关键节点集再回到节点 + 关系。 依赖:unit / ...

算力单元

算力单元详细设计 把 [[Pipe]] 第 6 节 §208 的算力单元抽象展开到 RTL 起手前。每个计算实例 = 一条 engine pipe 实例。 0. 与 DMA 的同构关系 算力单元...

Pipe

管道 Pipe 定位 本文档描述两层独立完整的管道抽象: 逻辑管道(上层,用户 API):用户面向的数据通路抽象,声明"数据从哪来、到哪去、要多少" Pipe(中层,硬件功能抽象):统一表达...

L1

L1 单元详细设计 把 [[Pipe]] 第 6 节 §193 的 L1 抽象展开到 RTL 起手前。每条 cacheline = 一条 data pipe 实例。L1 是被动单元:无命令队列、...

DMA

DMA 单元详细设计 把 [[Pipe]] 第 6 节 §176 的 DMA 抽象一直展开到 RTL 起手前的最后一步。每条 channel = 一条 engine pipe;每个 sync c...

View All

Recent Activity

Colin
Colin deleted page
1 hour ago
Colin
Colin deleted page
1 hour ago
Colin
Colin deleted page
1 hour ago
Colin
Colin deleted page
1 hour ago
Colin
Colin updated page 记忆对于LLM的意义
1 hour ago
Colin
Colin created page 大脑记忆的核心机制
1 hour ago
Colin
Colin created page 人类记忆
1 hour ago
Colin
Colin updated page RAG
1 hour ago
Colin
Colin deleted page
13 hours ago
Colin
Colin created page AI交互和头脑风暴
13 hours ago