Advanced Search
Search Results
173 total results found
自洽后就有意识了吗?
自洽能力对于人工智能的重要性 当前AI还不能轻易的实现自洽能力,甚至在在KV cache内的自洽性还存在挑战,权重范围内只能根据概率来输出 意识会去维护一个最本质的目的,不断检验当前的成果,提供未来行动的建议 自洽训练方法 随机生成无数的样本,一旦触及需要修正的问题,则作为监督样本进行微调。确保一个新的观点对所有权重没有矛盾 GPT4.0开始,非常喜欢用破折号,应该和20世纪初的文本作为训练材料有关 没有反思能力 一个任务,不能越做越顺利,不断根据结果进行对流程的改进 缺乏维护自洽的意识,不...
攻击 LLM
目的 破坏模型本身的一些设定,窃取一些隐藏在权重里面的信息。 LARGO 潜在空间优化:首先,研究者们并不直接修改问题文本,而是在模型的「大脑」内部,也就是高维的 embedding 空间中,用梯度优化的方法,精准地找到一个能让模型「思想跑偏」的「潜意识代码」。这个代码就像一颗思想的种子,一旦植入,就能引导模型走向「不安全」的边缘。 自我反思解码:最妙的一步来了!研究者们会让模型自己来「解读」这个被「污染」了的潜意识代码。他们会问模型:「这段『想法』(潜意识代码)如果用人类的语言说出来,应该是什么样的?」...
思维编织器 WeaveMind
一个信息交换的界面 专业的知识/信息工具 可以进行日常的快速记录,语音,视频,片段 专业的课堂笔记,领域专业学习,精心组织,不断修改优化 记录多维度的信息,时间,前后逻辑关系,个人学习/思考/科研的助手 支持各种的信息收集渠道,无缝,自动 用户只要通过随笔的方式,连续得进行记录 AI会自动通过历史的记录进行汇总和总结 大量的零碎的片段,很难进行归纳整理,传统的笔记要花大量的时间进行分类和记录和链接 随时捕获 每天几百个,稍纵即逝的想法,自动整理 优秀的AI助理 保持所有记忆/知识的自洽性,带个人...
AI的效果悖论/骗局
现象 看起来现在的大模型已经无所不能,LLM的语言能力,nano banana的图像,Sora的视频等等 能生成几乎是任意的数字内容,其实在早几年的CV(卷积网络)时代就已经有过一次惊艳了。 但是,这里面有个被人忽略的问题: 人类提供的信息很少 AI模型能够听懂的、接受、接收的信息很少 所以,生成名人的头像、视频是一种看似很难,实际上很简单的事情 因为,AI模型已经有足够的预训练时候存储进去的背景信息,只要人类提供足够小的提示,就能产生足够符合预期的结果 深层次的原因 之所以你能感到惊讶是...
主流的产品
高通® QCS6490 https://docs.radxa.com/dragon/q6a 全志 A733 SoC https://docs.radxa.com/cubie/a7a 爱芯元智公司 AX8850 SoC https://docs.radxa.com/aicore/ax-m1 DEEPX 公司 DX‑M1 https://docs.radxa.com/aicore/dx-m1 SOPHON AI 处理器 SG2300X https://docs.radxa.com/aicor...
LLM跑在边缘芯片上
模型工具,转换,加载等等 Distributed Llama https://github.com/b4rtaz/distributed-llama?tab=readme-ov-file 语音模型 https://github.com/k2-fsa/sherpa-onnx 小智生态 https://github.com/xinnan-tech/xiaozhi-esp32-server
研究型团队的组织方法思考
一个成功的研究型团队,该怎么组织和管理?成功的方法学是什么? 当前的方式、方法 一个有背景,当前最顶尖学术机构认证过的,甚至是有类似成功经验的管理者 直接借鉴现有的其他组织的经验,尝试进行复刻 当前主流的系统性的理论研究方法 团队通过个人英雄主义团结在一起,高效协作 避免方向性的摇摆和判断失误,凝聚力高,方向明确,执行效率高 通过组织的团队文化驱动 有组织的,有目的的在某个领域内不断的探索,建立领域内的壁垒 需要长期的实践,不能短期见效 比较难形成理论基础,长期的技术演进、迭代 需要不断强调团队文化,团队...
当前AI技术发展的思考
问题 视觉模型在2016年火了之后,现在发展得怎么样了,为什么? 看看商汤的股价就知道了 < 2 @ 20251220 技术不能满足大范围落地的需求 现在的LLM能不能达到AGI?或者说换个问法,现在的LLM能做到哪些? 各种专用的AI应用大爆发 编程 问答 领域知识(金融、医疗、法律...) 生活服务 浏览器 吃穿住行 信息、娱乐 新闻资讯 视频 自媒体 企业加速 科研 专用领域 自动驾驶 工厂自动化,工业 教育 未来 LLM能实现智能? ...
语言的向量化
方式1,向量通过罗列的方式,表示所有信息的程度 向量维度足够多的时候,虽然能完整表达语义,但是效率非常低,每个语义只能激活很少的维度 不是每个维度都需要很高的表示精度, 方式2,向量通过组合的方式,表示一个信息,每个维度不能对应到一个明确的定义 表达效率高 对语言的非线性,不利于线性变换,因为只有向量的各个维度之间保持独立表达才能安全得变换
氛围编程 AI Coding
结论 人类需要掌握高级的架构/设计,底层的工作已经被编译器和AI替代了 目前AI还只能接受明确的任务,如果有循环依赖,嵌套的问题,就是很理想了 如果需要一个比较巧妙的、高度定制的、高性能的实现或者设计,AI还不能很好的实现 如果需要一个基本功扎实,执行力高,速度快,那么AI将是完美的给你打下手的助理 氛围编程是一个Agent推理应用的非常典型的场景 编程具有容错性,不像自动驾驶等,要求准确度很高 比自然语言更严格的结构化表达,使得LLM更擅长于编程 软件工程领域在过去数十年间积累了极其完善的数字化工具链,编译...
动态算法
Transformer类算法,依赖大维度的信息变换,相关性爆炸 也就是尺寸很大的矩阵乘法,虽然很适合现代GPU的加速 大的GEMM提供了非常大的状态空间,目标是包含所有的维度 使用固定路径的权重链路来完整得表达信息变换的过程 不管输入是什么,都要经过固定的计算路径,都要和所有的权重计算 虽然MoE,会有一定的动态性 但是目前还不明确能不能继续缩小激活比例 动态选择的空间不大 虽然有些策略已经减小部分 attention 分层,分组MLP等等 但是,还是会造成相关性爆炸 大范围Reduce类操...
短期记忆和长期记忆
一种误解 短期记忆是临时记忆,只是记忆的一部分关键信息 短期记忆 大脑的意识存在于短期记忆 是一个不断变化的,不断被更改的状态存储器 存储的是对当前状态的高度浓缩的,高度抽象的表示 可能没有细节 可以作为关键词用于长期记忆的检索
预期的错位和偏差
人类对你自己的预期认知会存在错误和偏差 输入:当前或者过往的经验提出出来的对未来判断的有用的资讯 预期:你对未来某件事成功的概率判断 问题是,怎么才能做到最准确的判断?那就要清楚其对信息的计算过程 放大程度:对当前情况和实际的偏差进行放大,用于增强判断,不同的人不一样 阈值:也就是自我保护意识,不同的人程度不一样 公式:(输入-预期)* 放大程度 > 阈值 ? 结论:很多事情比预期的过程要简单,前期判断过于悲观 觉得模电很难,认认真真把书看一遍就豁然开朗,也就化了一个星期 觉得数字图像处理很难,认认真真把所有的算...
氛围
这个词首先被用在了编程的领域,很奇怪的是编程本来是一件很精确的工作,追求准确无误的工作,但是“氛围编程”这个词语还是流行起来了, 那么这还是必然的还是无奈? 随着LLM基本搞定自然语言的理解和生成,其将深深改变所有领域的交互方式, 甚至在汽车驾驶领域也是,更别说传统的智能眼镜,玩具,教育设备,家务机器,很多领域因为机器语言能力的突破而重新变得可能。 但是,上面一直说的知识语言能力,这个实际上还不足以产生质变,原因有下 目前的LLM还不足以处理高级的,深层次的含义,特别是在比较长的上下文的输入 没有“...
伊利亚·苏茨克维尔:2025年核心洞见
前OpenAI首席科学家、SSI创始人 为什么AI正在从“Scaling时代”迈入“算法创新”时代? 在旧金山湾区的核心技术圈层,随着计算集群规模的指数级扩张以及模型参数的爆炸式增长,智力过剩的狂热随处可见,仿佛AGI的临界点触手可及。但是伊利亚却敏锐地指出,这种狂热与全球宏观经济的平稳线性之间,存在着无法解释的物理温差。 这背后的原因,正是当前AI模型的根本局限性:它们能够在基准测试中表现出超越人类的智力,却在现实的经济活动中,缺乏完成闭环任务的健壮性。 高分低能的悖论 在实际应用场景中被展现得淋漓尽致。伊利亚以...
Andrej Karpathy 2025年演讲与访谈深度解读:从大语言模型到Agent的演进
OpenAI 前创始成员安德烈·卡帕西(Andrej Karpathy)在2025年的全年演讲与公开访谈。他为我们揭示了 AI 从大语言模型到 Agent 演进的核心逻辑、工程现实与未来路径。 一、核心判断:从代码编写向意图指引的不可逆转折点 首先,我们必须理解一个核心判断:当前的技术界正处在从代码编写向意图指引的不可逆转折点。 英语成为了最高效的编程语言。很多人把大语言模型仅仅当成是一个聊天机器人,这在卡帕西看来是一种严重的认知降维。大语言模型的本质是基于 Transformer 架构的新型计算平台,他将它定义为...
通用Agent的发展
Agent的需求背景 这些本应被封装为「日常AI工作流」的能力,却仍被塞进一个通用聊天框里手工完成。 这正是留给AI创业者的机会,我们不该让普通人用临时脚本搭建自己的「购房智能代理」,而应当创建一个个可复用、可协作、可沉淀的垂直AI应用。这些应用能自动聚合多源文档、动态构建决策知识图谱、实时比对市场数据、生成合规话术建议等。这样的垂直AI应用,以真实生活任务为中心,封装提示工程、记忆管理、多模态上下文维护,从而构建辅助人类做判断的一体化智能工作台。 AI时代的Facebook或Google还尚未创立。当下竞争激烈...
理想和现实的距离很短吗?
有个很常见的现象是,很多人有时候觉得,理想和现实的距离非常短, 上一秒还在理想的喜悦中,下一面又感觉认清了现实,没有前途 生理上的原因 大脑是一个非常贪心的机制,第六感,潜意识,总是以最有可能的思维线路进行思考 大脑是一个增益非常大的信息决策机器,意味着振荡,不稳定 大脑无形之中会受到当前的激素水平影响 心理上的原因 喜欢憧憬未来,但是有惧怕压力 喜欢享受美好的,但是又害怕困难 天生的不正常 有些人,可能存在天生的心理和生理上的差异,比如说,胆子大,不考虑后果,犹豫不决 不见得哪个倾向的性格是对成功有利的...