记忆对于LLM的意义
记忆是实现人性化的必要条件
稳定的长期记忆
现有模型的推理能力已经足够强,真正缺的是稳定的长期记忆。
我们需要那么多智能体协作,恰恰是因为一个智能体记不住所有事情。
图数据库
-
AI 缺的未必是更多上下文,很多时候缺的是上下文之间的关系。
-
top-K chunks 可以把文档捞出来,但解释不了它们为什么重要、彼此为什么相连。
-
向量搜索解决的是“像不像”,图更擅长回答“为什么是它”。
-
GraphRAG 不是替代向量检索,而是让检索命中之后还能顺着关系继续往下走。
-
当 AI 开始进入权限、历史、作者、决策轨迹这些复杂地带,纯文本上下文很快就会不够用。
-
图数据库重新变重要,不是数据库品类回潮,而是 AI 系统开始需要一层更像知识结构的上下文底座。
No comments to display
No comments to display