Skip to main content

记忆对于LLM的意义



记忆是实现人性化的必要条件


稳定的长期记忆

现有模型的推理能力已经足够强,真正缺的是稳定的长期记忆。

我们需要那么多智能体协作,恰恰是因为一个智能体记不住所有事情。

图数据库

  • AI 缺的未必是更多上下文,很多时候缺的是上下文之间的关系。

  • top-K chunks 可以把文档捞出来,但解释不了它们为什么重要、彼此为什么相连。

  • 向量搜索解决的是“像不像”,图更擅长回答“为什么是它”。

  • GraphRAG 不是替代向量检索,而是让检索命中之后还能顺着关系继续往下走。

  • 当 AI 开始进入权限、历史、作者、决策轨迹这些复杂地带,纯文本上下文很快就会不够用。

  • 图数据库重新变重要,不是数据库品类回潮,而是 AI 系统开始需要一层更像知识结构的上下文底座。