Skip to main content
Advanced Search
Search Terms
Content Type

Exact Matches
Tag Searches
Date Options
Updated after
Updated before
Created after
Created before

Search Results

159 total results found

大脑记忆的核心机制

算法&模型 智能体

存储、连接、检索与深度学习的生物学原型 导读 人类大脑实现高效、鲁棒的"模糊记忆",并非靠计算机式的"地址—数据"存取,而是由几个互相支撑的机制共同构成: 分布式表征——记忆以何种形式存在 赫布学习与权重固化——记忆如何形成与巩固 短期记忆到长期记忆的"快照"机制——记忆如何沉淀 扩散激活——记忆如何被检索 这些机制之上,认知科学家构建了若干整体模型(Collins-Loftus 语义网络、ACT-R、海马体索引理论、互补学习系统、预测编码)。而当我们把视角拉远,会发现:现代深度学习的几乎所有核心机制——卷积...

AI 影响下的工程开发流程

基本问题

AI影响下的工程开发流程 引言 AI(特别是大语言模型与代码助手)正在重塑工程开发的底层流程。这种重塑不是简单的"工具升级",而是对协作单位、职责边界、交付物形态的重新定义。本报告围绕五个核心问题展开:AI 能做什么、人机之间交换什么、各方的责任、流程如何演变、AI 当前的局限。最后给出一个完整的软件工程协作案例。 报告的基本立场:AI 当前最准确的定位不是"替代工程师",而是头脑风暴伙伴 + 高级程序员 + 知识秘书的复合体。它承担的是认知劳动中可被外包的那一层,把人解放出来去做真正只有人能做的事——定义意图、做...

Agent Harness 解剖:生产级智能体外壳的 12 个组件

算法&模型 AGI基础方法

来源:Akshay Pachaar,《The Anatomy of an Agent Harness》(2026-04-06) 推文:https://x.com/akshay_pachaar/status/2041146899319971922 本仓库归档:Agent/design/harness.pdf 一、什么是 Agent Harness 你已经搭过 chatbot,也许还接了几个工具的 ReAct 循环——demo 跑得很好。可一旦要上生产,问题立刻浮现:模型忘掉三步前做过的事、工具调用静默失败、上下...

架构_微架构

AI加速芯片 GMP

架构/微架构 设计 标量寄存器和向量寄存器统一,支持自动进行转换 异步单元(SP-PU-L1-DMA)之间都采用异步机制,依赖转移到异步目标 统一的同步机制 静态分配同步资源 原生软硬件支持动态图的执行 LD/ST 避免使用fence功能 Launch:fork 资源初始化(同步资源,各种存储器,状态) launch/signal/wait:join launch pu instrution: write_back_id local_id write_back atomic add/sub w...

AI的效果悖论_骗局

基本问题

AI的效果悖论/骗局 现象 看起来现在的大模型已经无所不能,LLM的语言能力,nano banana的图像,Sora的视频等等 能生成几乎是任意的数字内容,其实在早几年的CV(卷积网络)时代就已经有过一次惊艳了。 但是,这里面有个被人忽略的问题: 人类提供的信息很少 AI模型能够听懂的、接受、接收的信息很少 所以,生成名人的头像、视频是一种看似很难,实际上很简单的事情 因为,AI模型已经有足够的预训练时候存储进去的背景信息,只要人类提供足够小的提示,就能产生足够符合预期的结果 深层次的原因 之所以你能感到惊讶是...

测量线性稳压器的 2nV_√ Hz噪声和 120dB 电源抑制

测量线性稳压器的 2nV/√ Hz噪声和 120dB 电源抑制 https://www.analog.com/en/resources/app-notes/an-159.html [an-159.pdf](测量线性稳压器的 2nV_√ Hz噪声和 120dB 电源抑制/an-159.pdf) [AN159_Layout_Files.zip](测量线性稳压器的 2nV_√ Hz噪声和 120dB 电源抑制/AN159_Layout_Files.zip) https://www.analog.com/cn/resour...

锂电池_电动车使用规则

锂电池/电动车使用规则 磷酸铁锂,因为不能从电压判断电量,经常充满一次,为了更好得平衡电池,电池间的平衡比满电的损害更小 由于磷酸铁锂的每个电池的自放电、能量回收充电的速度不一样,所以时间一长需要平衡校准 model3三元的官方建议尽量只冲到90%,除非充满了马上用 次次充满的磷酸铁锂的寿命通常比设置充电百分比限制的三元锂寿命更长 相对于满电,空电对电池的损害更大 磷酸铁锂建议使用范围100-30 三元建议80-30 磷酸铁锂正常日常使用 保持电池有一定的电量 >20%,低于40%就可以充电 用电多,一周>10...

AI影响下的工程开发的提示

基本问题

注重文档的编写和生成 因为Agent的特性,只能理解上下文内的东西 文档是Agent能快速上手的一个关键的途径 vibe 不要焦虑,你的工作窗口就是对话框+少量的文档diff 不需要去关注所有的文件、代码的实际内容,人不用去看代码、文档,有什么问题就让Agent帮你总结后回答你 需要明确的提示 所有的任务的前后,一定要说清楚关键的输入,和期望的输出,和中间的明确路径 不清楚的地方,可以先讨论,写文档 可以要求Agent和你讨论,一直讨论清楚所有的可能的理解问题 欠缺比较高层次的设计能力...

理想架构-Harness12对照分析

算法&模型 智能体

《一种理想的智能体编排架构》× Harness 12 组件 对照分析 分析对象:Agent/design/一种理想的智能体编排架构.md 对照标准:Agent/design/Agent-Harness解剖.md 中归纳的 12 个生产级 Harness 组件 目的:把"理想架构"的设计意图,逐项映射到 Anthropic/OpenAI/LangChain 共识的工程组件上,找出已覆盖、等价但术语不同、缺失三类位置。 一、覆盖度总览 # Harness 组件 覆盖度 对应文档位置(章节) 一句话判断 ...

基于关键词的知识图

算法&模型 智能体

基于关键词的知识图:核心思想 本文不涉及任何代码、接口或落地形式,只解释这套知识组织方式背后的思想模型。 一、要解决的问题 人类积累知识的过程不是堆数据,而是给概念起名字、把概念挂到已有的概念体系上、再把零散的资料附在概念上。 主流的"知识库"方案要么是: 关系型 / 文档库:擅长存储事实,但不表达"概念之间的关系"; 向量库 / 嵌入检索:擅长找"看起来相似"的内容,但相似不等于相关,更不等于"是同一个概念"; 传统知识图谱:表达力强,但写入门槛高,且关系类型一旦多起来("属于 / 派生 / 相似 / 引用 ...

基于类型化认知单元的认知图

算法&模型 记忆和语言

认知图:以谓词作为概念 一、目标 让"思考"在一个底层物质上机械地发生。 输入:自然语言——冗余、歧义、修辞、句法切分。 输出:持久知识单元——世界里持久成立的事实及其逻辑骨架,定形以便机械操作。 思考 = 比较 + 推理 + 整合 + 自洽。 只覆盖"自然语言可表达的认知"。图像、肌肉记忆、现象意识等正交于本设计。 二、三条不变量 存储形式从"机械思考需要单元具备什么性质"反推。直接从思考的四种操作得到三条不变量——存储必须满足,下游一切操作以它们为前提。 不变量 推自 对存储形式的要求 I ...

Pipe

AI加速芯片 GMP

管道 管道是一种硬件资源,由软件透明进行管理和使用 统一抽象硬件资源,包括DMA 存储器 算力 甚至是总线资源 cpu核心上有硬件辅助的管道资源管理器 分配,状态判断,回收等等 命令快速生成 动态性体现在cpu的管道命令下发

汉语语法结构对SVO表示的挑战

算法&模型 记忆和语言

汉语语法结构对 SVO 表示的挑战 上一篇讨论了"目的标记"(旨在 / 为了)为什么不该被压进谓词。 本文是它的扩展:把汉语里所有给 (S)[V](O) 三元组表示带来麻烦的语法结构梳理一遍,统一归到几种"破坏方式"下,并指出每一类对应的修补维度。 阅读对象:在做自然语言→结构化认知存储的人。 〇、问题前提:SVO 三元组隐含了什么假设 (S)[V](O) 这种形式默认了几件事: 命题是 realis(已发生 / 事实陈述),不是潜在 / 目标 / 假设; 命题是 原子,与其他命题之间没有结构化关系(最多并...

现代汉语语法解析

算法&模型 记忆和语言

一份独立的现代汉语语法概览。目的是把汉语作为一种语言系统本身讲清楚,不服务任何具体的工程下游。 视角偏功能 / 类型学,参考朱德熙《语法讲义》、吕叔湘《现代汉语八百词》、Li & Thompson《Mandarin Chinese: A Functional Reference Grammar》的基本框架。 一、汉语在世界语言中的类型学定位 要理解汉语语法的所有特点,先要清楚它是一种什么类型的语言。 维度 汉语 与多数印欧语对照 形态类型 分析语 / 孤立语 综合语 / 屈折语 形态变化 几...

记忆对于LLM的意义

算法&模型 记忆和语言

记忆是实现人性化的必要条件 稳定的长期记忆 现有模型的推理能力已经足够强,真正缺的是稳定的长期记忆。 我们需要那么多智能体协作,恰恰是因为一个智能体记不住所有事情。 图数据库 AI 缺的未必是更多上下文,很多时候缺的是上下文之间的关系。 top-K chunks 可以把文档捞出来,但解释不了它们为什么重要、彼此为什么相连。 向量搜索解决的是“像不像”,图更擅长回答“为什么是它”。 GraphRAG 不是替代向量检索,而是让检索命中之后还能顺着关系继续往下走。 当 AI 开始进入权限、历史、...