Skip to main content
Advanced Search
Search Terms
Content Type

Exact Matches
Tag Searches
Date Options
Updated after
Updated before
Created after
Created before

Search Results

131 total results found

计算模型

算法&模型 AGI基础方法

背景 计算机已经发展了很多年,很多层的划分已经非常的明确 高层级的计算范式随着AI的发展,特别是LLM的发展,已经越发的清晰 传统计算机软硬件堆栈->神经网络算子->神经网络计算图->Pytorch->分布式框架->LLM->Agent->MCP 由于AI发展的太快,计算机的底层基本没有变化,只是根据AI的需要进行特定的开发 太底层,不灵活,算子及AI编译器开发消耗大量工作 软硬件结合的方式还是遵循传统计算机的经验 主流技术(CUDA)没有摆脱冯诺伊曼的架构,甚至编程模型/内存模型都没有变...

Nand flash

计算机体系结构

LUN → CE → Die → Plane → Bank → Block → Page​ Block 是擦除操作的最小单位 Page 是读写操作的最小单位,常见的Nand Flash多数是2KB,最新的是4KB、8KB 硬件电路只支持 “一次性操作一个 Page 的所有单元”,因此读写必须以 Page 为单位。 写入前必须先擦除对应的Block 栅极堆叠(Gate-Stacked) 和沟道堆叠(Channel-Stacked)两种结构均需解决 “垂直互联”,如何连接不同层的字线 WL 和位线 B...

昂贵的共识

基本问题

论点:社会达成一个共识是要付出巨大的代价的 流浪地球的计划和数字人的竞争 电动车方案,中国的锂电池,日本的氢能 共识是什么,有什么作用 学历是最简单的共识 认可是昂贵的共识 资本家讨厌不确定性,宁愿支持有成功经验的普通人,也不愿意投资看似有前途的新人 有硅谷的经验的杨植麟看似完美,实际上缺乏创新力,很快就抓不到重点 Nature等杂志、 计算机等顶会、硅谷的成熟创业氛围   提供的共识足够资本家认可 还有哪些隐形的共识? 小圈子 信任 共识比创新重要? 一项...

太快和太慢

基本问题

太,在这里其实表达的是个贬义词,描述一个不合适的前提 在科技领域,所有的技术其实都要求其合适性 在2025年的今天,大家还在争论激光雷达对于自动驾驶的必要性 马斯克认为,路是给人修的,那么汽车也应该像人一样得去看路,而不是靠激光雷达 这个观点有几个前提, 摄像头的成本远远低于激光雷达 就算有激光雷达,摄像头也必不可少  他相信人工智能很快会有长足的进步 反方观点则认为,当前的技术状况需要激光雷达才能达到可用性。 因为修好了那么多马路,所以轮子才适合,如果当时科技已经发展到了,飞机随便飞,那...

先量化 再训练

AI加速芯片 Binary AI

量化主流的LLM到Binary Lut可以进行编码压缩,降低存储需求 实际数据touch不到的选择项可以被去除 调整顺序,编码,进行无损Lut表压缩 原生的训练Bianry模型 非梯度下降 类脑的基于统计的训练

完美复制一个我,那还是我吗?

基本问题

如果现在的AI技术发展到了,能把一个人的所有记忆,思想,想法,性格,爱好,脾气都完全复制和实现, 那么这样一个物体还是我吗?这能称作是永生了吗? 能:相当于两个“机器”同时维护一个“我”这样的意识,如果一个因为身体原因,下线了,那么另外一个可以继续工作 不能:要达到我的概念,需要唯一的意识,如果两个主体共同维持一个意识,那其实是两个意识在做一个共同的任务? 能:两个“机器”不一定有独立的意识,两个机器共享一个“意识”,但是有不同的躯干 不能:怎么保证,两个机器之间的意识同步?怎么保证不会被另外复制一份独立...

acquire release 实现内存一致性

计算机体系结构

背景 在单线程场景中,CPU 通常会保证程序顺序(Program Order) 的可见性,即单线程内的指令会按照代码编写的顺序执行(或看起来像是按顺序执行)存储器读写的结果也会符合单线程的预期 即使CPU有乱序功能,也会通过scoreboard等方式来处理data hazard,address hazard等,确保单线程内的内存访问都是保续的。即使现代的CPU都是超标量处理器。 但在多线程或多处理器(multi-hart)场景中,要实现多线程同时正确的对一个内存操作就会遇到问题 乱序执行...

爬虫

算法&模型 记忆和语言

使用OCR进行信息收集,格式化 适应性强,灵活,更接近人眼

自洽后就有意识了吗?

算法&模型 AGI基础方法

自洽能力对于人工智能的重要性 当前AI还不能轻易的实现自洽能力,甚至在在KV cache内的自洽性还存在挑战,权重范围内只能根据概率来输出 意识会去维护一个最本质的目的,不断检验当前的成果,提供未来行动的建议 自洽训练方法 随机生成无数的样本,一旦触及需要修正的问题,则作为监督样本进行微调。确保一个新的观点对所有权重没有矛盾 GPT4.0开始,非常喜欢用破折号,应该和20世纪初的文本作为训练材料有关 没有反思能力 一个任务,不能越做越顺利,不断根据结果进行对...

攻击 LLM

算法&模型

目的 破坏模型本身的一些设定,窃取一些隐藏在权重里面的信息。 LARGO 潜在空间优化:首先,研究者们并不直接修改问题文本,而是在模型的「大脑」内部,也就是高维的 embedding 空间中,用梯度优化的方法,精准地找到一个能让模型「思想跑偏」的「潜意识代码」。这个代码就像一颗思想的种子,一旦植入,就能引导模型走向「不安全」的边缘。 自我反思解码:最妙的一步来了!研究者们会让模型自己来「解读」这个被「污染」了的潜意识代码。他们会问模型:「这段『想法』(潜意识代码)如果用人类的...

记忆编织器 Weave Mind

算法&模型 记忆和语言

一个信息交换的界面 专业的知识/信息工具 可以进行日常的快速记录,语音,视频,片段 专业的课堂笔记,领域专业学习,精心组织,不断修改优化 记录多维度的信息,时间,前后逻辑关系,个人学习/思考/科研的助手 支持各种的信息收集渠道,无缝,自动 用户只要通过随笔的方式,连续得进行记录 AI会自动通过历史的记录进行汇总和总结 大量的零碎的片段,很难进行归纳整理,传统的笔记要花大量的时间进行分类和记录和链接 随时捕获 每天几百个,稍纵即逝的想法,自动整理 优秀的AI助理 ...

AI的效果悖论/骗局

基本问题

现象 看起来现在的大模型已经无所不能,LLM的语言能力,nano banana的图像,Sora的视频等等 能生成几乎是任意的数字内容,其实在早几年的CV(卷积网络)时代就已经有过一次惊艳了。 但是,这里面有个被人忽略的问题: 人类提供的信息很少 AI模型能够听懂的、接受、接收的信息很少 所以,生成名人的头像、视频是一种看似很难,实际上很简单的事情 因为,AI模型已经有足够的预训练时候存储进去的背景信息,只要人类提供足够小的提示,就能产生足够符合预期的结果 深层次的原因 之所以你能感到惊讶是...

主流的产品

AI加速芯片 边缘推理芯片

高通® QCS6490 https://docs.radxa.com/dragon/q6a 全志 A733 SoC https://docs.radxa.com/cubie/a7a 爱芯元智公司 AX8850 SoC https://docs.radxa.com/aicore/ax-m1 DEEPX 公司 DX‑M1 https://docs.radxa.com/aicore/dx-m1 SOPHON AI 处理器 SG2300X https...

LLM跑在边缘芯片上

AI加速芯片 边缘推理芯片

模型工具,转换,加载等等  Distributed Llama   https://github.com/b4rtaz/distributed-llama?tab=readme-ov-file 语音模型 https://github.com/k2-fsa/sherpa-onnx 小智生态 https://github.com/xinnan-tech/xiaozhi-esp32-server

研究型团队的组织方法思考

基本问题

一个成功的研究型团队,该怎么组织和管理?成功的方法学是什么? 当前的方式、方法  一个有背景,当前最顶尖学术机构认证过的,甚至是有类似成功经验的管理者 直接借鉴现有的其他组织的经验,尝试进行复刻 当前主流的系统性的理论研究方法 团队通过个人英雄主义团结在一起,高效协作 避免方向性的摇摆和判断失误,凝聚力高,方向明确,执行效率高 通过组织的团队文化驱动 有组织的,有目的的在某个领域内不断的探索,建立领域内的壁垒 需要长期的实践,不能短期见效 比较难形成理论基础,长期的技术演进、...

当前AI技术发展的思考

基本问题

问题 视觉模型在2016年火了之后,现在发展得怎么样了,为什么? 看看商汤的股价就知道了 < 2 @ 20251220 技术不能满足大范围落地的需求 现在的LLM能不能达到AGI?或者说换个问法,现在的LLM能做到哪些? 各种专用的AI应用大爆发 编程 问答 领域知识(金融、医疗、法律...) 生活服务 浏览器 吃穿住行 信息、娱乐 新闻资讯 视频 自媒体 企业加速 科研 专用领域 ...

语言的向量化

算法&模型

方式1,向量通过罗列的方式,表示所有信息的程度 向量维度足够多的时候,虽然能完整表达语义,但是效率非常低,每个语义只能激活很少的维度 不是每个维度都需要很高的表示精度, 方式2,向量通过组合的方式,表示一个信息,每个维度不能对应到一个明确的定义 表达效率高 对语言的非线性,不利于线性变换,因为只有向量的各个维度之间保持独立表达才能安全得变换

氛围编程 AI Coding

基本问题

结论 人类需要掌握高级的架构/设计,底层的工作已经被编译器和AI替代了 目前AI还只能接受明确的任务,如果有循环依赖,嵌套的问题,就是很理想了 如果需要一个比较巧妙的、高度定制的、高性能的实现或者设计,AI还不能很好的实现 如果需要一个基本功扎实,执行力高,速度快,那么AI将是完美的给你打下手的助理 氛围编程是一个Agent推理应用的非常典型的场景 编程具有容错性,不像自动驾驶等,要求准确度很高 比自然语言更严格的结构化表达,使得LLM更擅长于编程 软件工程领域在过去数十年间积累了极其完...

动态算法

算法&模型 AGI基础方法

Transformer类算法,依赖大维度的信息变换,相关性爆炸 也就是尺寸很大的矩阵乘法,虽然很适合现代GPU的加速 大的GEMM提供了非常大的状态空间,目标是包含所有的维度 使用固定路径的权重链路来完整得表达信息变换的过程 不管输入是什么,都要经过固定的计算路径,都要和所有的权重计算 虽然MoE,会有一定的动态性 但是目前还不明确能不能继续缩小激活比例 动态选择的空间不大 虽然有些策略已经减小部分 attention 分层,分组MLP等等 但是,还...

短期记忆和长期记忆

算法&模型 AGI基础方法

一种误解 短期记忆是临时记忆,只是记忆的一部分关键信息 短期记忆 大脑的意识存在于短期记忆 是一个不断变化的,不断被更改的状态存储器 存储的是对当前状态的高度浓缩的,高度抽象的表示 可能没有细节 可以作为关键词用于长期记忆的检索