Skip to main content
Advanced Search
Search Terms
Content Type

Exact Matches
Tag Searches
Date Options
Updated after
Updated before
Created after
Created before

Search Results

115 total results found

新的AI计算模型

算法&模型 基础方法

背景 计算机已经发展了很多年,很多层的划分已经非常的明确 高层级的计算范式随着AI的发展,特别是LLM的发展,已经越发的清晰 传统计算机软硬件堆栈->神经网络算子->神经网络计算图->Pytorch->分布式框架->LLM->Agent->MCP 由于AI发展的太快,计算机的底层基本没有变化,只是根据AI的需要进行特定的开发 太底层,不灵活,算子及AI编译器开发消耗大量工作 软硬件结合的方式还是遵循传统计算机的经验 主流技术(CUDA)没有摆脱冯诺伊曼的架构,甚至编程模型/内存模型都没有变...

Nand flash

计算机体系结构

LUN → CE → Die → Plane → Bank → Block → Page​ Block 是擦除操作的最小单位 Page 是读写操作的最小单位,常见的Nand Flash多数是2KB,最新的是4KB、8KB 硬件电路只支持 “一次性操作一个 Page 的所有单元”,因此读写必须以 Page 为单位。 写入前必须先擦除对应的Block 栅极堆叠(Gate-Stacked) 和沟道堆叠(Channel-Stacked)两种结构均需解决 “垂直互联”,如何连接不同层的字线 WL 和位线 B...

昂贵的共识

基本问题

论点:社会达成一个共识是要付出巨大的代价的 流浪地球的计划和数字人的竞争 电动车方案,中国的锂电池,日本的氢能 共识是什么,有什么作用 学历是最简单的共识 认可是昂贵的共识 资本家讨厌不确定性,宁愿支持有成功经验的普通人,也不愿意投资看似有前途的新人 有硅谷的经验的杨植麟看似完美,实际上缺乏创新力,很快就抓不到重点 Nature等杂志、 计算机等顶会、硅谷的成熟创业氛围   提供的共识足够资本家认可 还有哪些隐形的共识? 小圈子 信任 共识比创新重要? 一项...

太快和太慢

基本问题

太,在这里其实表达的是个贬义词,描述一个不合适的前提 在科技领域,所有的技术其实都要求其合适性 在2025年的今天,大家还在争论激光雷达对于自动驾驶的必要性 马斯克认为,路是给人修的,那么汽车也应该像人一样得去看路,而不是靠激光雷达 这个观点有几个前提, 摄像头的成本远远低于激光雷达 就算有激光雷达,摄像头也必不可少  他相信人工智能很快会有长足的进步 反方观点则认为,当前的技术状况需要激光雷达才能达到可用性。 因为修好了那么多马路,所以轮子才适合,如果当时科技已经发展到了,飞机随便飞,那...

先量化 再训练

AI加速芯片 Binary AI

量化主流的LLM到Binary Lut可以进行编码压缩,降低存储需求 实际数据touch不到的选择项可以被去除 调整顺序,编码,进行无损Lut表压缩 原生的训练Bianry模型 非梯度下降 类脑的基于统计的训练

完美复制一个我,那还是我吗?

基本问题

如果现在的AI技术发展到了,能把一个人的所有记忆,思想,想法,性格,爱好,脾气都完全复制和实现, 那么这样一个物体还是我吗?这能称作是永生了吗? 能:相当于两个“机器”同时维护一个“我”这样的意识,如果一个因为身体原因,下线了,那么另外一个可以继续工作 不能:要达到我的概念,需要唯一的意识,如果两个主体共同维持一个意识,那其实是两个意识在做一个共同的任务? 能:两个“机器”不一定有独立的意识,两个机器共享一个“意识”,但是有不同的躯干 不能:怎么保证,两个机器之间的意识同步?怎么保证不会被另外复制一份独立...

acquire release 实现内存一致性

计算机体系结构

背景 在单线程场景中,CPU 通常会保证程序顺序(Program Order) 的可见性,即单线程内的指令会按照代码编写的顺序执行(或看起来像是按顺序执行)存储器读写的结果也会符合单线程的预期 即使CPU有乱序功能,也会通过scoreboard等方式来处理data hazard,address hazard等,确保单线程内的内存访问都是保续的。即使现代的CPU都是超标量处理器。 但在多线程或多处理器(multi-hart)场景中,要实现多线程同时正确的对一个内存操作就会遇到问题 乱序执行...

爬虫

算法&模型 记忆和语言

使用OCR进行信息收集,格式化 适应性强,灵活,更接近人眼

自洽后就有意识了吗?

算法&模型 基础方法

自洽能力对于人工智能的重要性 当前AI还不能轻易的实现自洽能力,甚至在在KV cache内的自洽性还存在挑战,权重范围内只能根据概率来输出 意识会去维护一个最本质的目的,不断检验当前的成果,提供未来行动的建议 自洽训练方法 随机生成无数的样本,一旦触及需要修正的问题,则作为监督样本进行微调。确保一个新的观点对所有权重没有矛盾 GPT4.0开始,非常喜欢用破折号,应该和20世纪初的文本作为训练材料有关 没有反思能力 一个任务,不能越做越顺利,不断根据结果进行对...

攻击 LLM

算法&模型

目的 破坏模型本身的一些设定,窃取一些隐藏在权重里面的信息。 LARGO 潜在空间优化:首先,研究者们并不直接修改问题文本,而是在模型的「大脑」内部,也就是高维的 embedding 空间中,用梯度优化的方法,精准地找到一个能让模型「思想跑偏」的「潜意识代码」。这个代码就像一颗思想的种子,一旦植入,就能引导模型走向「不安全」的边缘。 自我反思解码:最妙的一步来了!研究者们会让模型自己来「解读」这个被「污染」了的潜意识代码。他们会问模型:「这段『想法』(潜意识代码)如果用人类的...

记忆远远不止记录,而是倍增器

算法&模型 记忆和语言

定位 专业的知识/信息工具 可以进行日常的快速记录,语音,视频,片段 专业的课堂笔记,领域专业学习,精心组织,不断修改优化 用户只要通过随笔的方式,连续得进行记录 AI会自动通过历史的记录进行汇总和总结 大量的零碎的片段,很难进行归纳整理,传统的笔记要花大量的时间进行分类和记录和链接 优秀的AI助理 保持所有记忆/知识的自洽性 高层级的抽象和感知,不断完善涉及知识的所有概念、知识的完整性,相关性 对资料库进行判断、推理、整理,建立知识树,知识逻辑关系,快速像大...

大容量统计算法,AI的效果悖论

基本问题

看起来现在的大模型已经无所不能,LLM的语言能力,nano banana的图像,Sora的视频等等 能生成几乎是任意的数字内容,其实在早几年的CV(卷积网络)时代就已经有过一次惊艳了。 但是,之所以你能感到惊讶是因为,AI以一种完全不同的方式在处理信息 你之前认为的很难的一些操作,实际上对于大量数据和算力面前根本不是问题 你的提问(需求)越少,答案就越是典型,算法约容易满足,你越是惊讶 你能用一句话表达的任务,一定是一个非常的典型的,有大量数据的任务 但是你不知道的是,算法的困难在于满足一个精细的,冗长...

主流的产品

AI加速芯片 边缘推理芯片

高通® QCS6490 https://docs.radxa.com/dragon/q6a 全志 A733 SoC https://docs.radxa.com/cubie/a7a 爱芯元智公司 AX8850 SoC https://docs.radxa.com/aicore/ax-m1 DEEPX 公司 DX‑M1 https://docs.radxa.com/aicore/dx-m1 SOPHON AI 处理器 SG2300X https...

LLM跑在边缘芯片上

AI加速芯片 边缘推理芯片

模型工具,转换,加载等等  Distributed Llama   https://github.com/b4rtaz/distributed-llama?tab=readme-ov-file 语音模型 https://github.com/k2-fsa/sherpa-onnx 小智生态 https://github.com/xinnan-tech/xiaozhi-esp32-server

研究型团队的组织方法思考

基本问题

一个成功的研究型团队,该怎么组织和管理?成功的方法学是什么? 当前的方式、方法  找一个有背景,当前最顶尖学术机构认证过的,甚至是有类似成功经验的管理者 直接借鉴现有的其他组织的经验,尝试进行复刻 通过组织的团队文化驱动 有组织的,有目的的在领域内不断的探索,建立领域内的壁垒 需要长期的实践,不能短期见效 那么哪种上限高、风险小? 风险: 领导 依赖个人的意志和自驱力 对个人的全面能力依赖大 组织 难以突破关键壁垒,信息差,视野差,创新阻...