Skip to main content

SVO语义矢量算子手册

SVO 3.2 语义矢量算子手册

3.2 修订要点:消除前提算子 >>。 SVO 收敛为三算子系统:绑定 :、驱动 >、合取/析取 & |。 原 >>的职能被完全吸收:话题、身份、范围、背景、句子级副词全部归于 :(限定属性);条件、让步、因果、致使全部归于 >(能量流)。 本体论从"引力 / 动力 / 场"三支柱简化为"属性 / 力"二支柱——这是一次真正的奥卡姆式收敛。 本手册同时给出生成端的粗粒度化约束(§3.9),防止表达式陷入过度原子化。


一、核心哲学:二元语义物理学

SVO 3.2 将语言处理等同于一个只有两种基本实体的物理系统:

1.1 属性 (Attribute)

世界中的每一个事物都是属性的叠加。"红苹果"不是"红"和"苹果"的外部关联,而是"红"这个属性坍缩到"苹果"上形成的新复合体。话题、身份、范围、背景、句子级副词本质上都是属性——它们限定一个核心(谓词、命题或实体)使其成为更特定的东西。

  • "在AI方面"限定"偏向"这个动作 → 属性
  • "作为前负责人"限定"Karpathy"这个实体 → 属性
  • "显然"限定"他错了"这个命题 → 属性

属性通过引力算子 : 坍缩到核心。

1.2 力 (Force)

世界中的每一次变化都是能量从一点流向另一点。物理动作是力(施事→受事),逻辑推导也是力(前件→后件)。致使、条件、让步、因果、推论——它们在本体上没有差别,都是一个命题释放能量驱动另一个命题成立

  • "论文促使 Tishby 认识到 X" → 物理-心理动作力
  • "如果 P 则 Q" → 条件力
  • "尽管 P 但 Q" → 反预期力
  • "A 导致 B" → 因果力

力通过驱动算子 > 释放。力的方向由中段的连接词项(动词或逻辑连词)明示。

1.3 并联 (Juxtaposition)

当多个属性或多个力并列共存或二者择一时,通过 & / | 连接。这不是一种独立的本体,只是属性/力的复数形态。


二、三算子定义

算子名称本体逻辑定义涵盖语法成分
`:`绑定 (Bind)属性左侧为右侧的限定。右侧可以是词项或封装域。定语、状语、程度词、否定词、模态词、被动标记、量化词、**话题、身份、范围、背景、句子级副词**
`>`驱动 (Vector)能量从左向右传递。中段为连接词项(动词/逻辑连词)。主谓宾、动宾、致使、**条件、让步、因果、推论**、认知指向、语气(疑问、祈使、感叹)、比较
`&`/ `|`合取 / 析取并联并联共存 / 二者择一。并列结构、选择关系

辅助符号( ) 用于逻辑封装,将一组算式打包成一个原子化的域 (Domain)。域在外层算子眼中等价于一个词项。


三、运算规则

3.1 绑定的方向性

公理 I: 一律左修饰右。A : B 意味着 A 是 B 的限定,结果具有 B 的本体类型。

  • 红 : 苹果 是一个苹果(不是一种红)。
  • 不 : 适用 是一种适用的否定态(不是一种不)。
  • 显然 : (他 > 错了) 是一个命题("他错了"的显然态)。

3.2 绑定的递归性与层级性

公理 II: 的左右操作数都可以是封装域。这是 3.2 相对 3.1 最关键的表达力提升。

(A : B) : C          左侧复合属性 → 限定 C
A : (B > C)          简单属性 → 限定一整个命题
(A : B) : (C > D)    复合属性 → 限定一整个命题

链式绑定从左到右逐级坍缩:

A : B : C  =  (A : B) : C

示例

AI : 辅助 : 编程       →  (AI的辅助)的编程
不 : 可能 : 实现       →  (否定的可能)的实现
所有 : 红 : 苹果       →  (全称的红)的苹果
显然 : (他 > 错了)     →  整个"他错了"命题的显然态
(AI:方面) : (K > 偏向 > X)  →  整个"K偏向X"命题被限定在AI这个范围内

3.3 词项粒度与固定搭配

(a) 固定搭配:当两个词构成不可拆分的语义单元(如"十年之遥"、"与此同时"、"一如既往"),视为原子词项,不强行用 : 拆解。判定标准:拆开后的字面意思无法通过组合还原出整体义

(b) 任务导向的粒度准则(更宽的合并边界):除固定搭配外,专有名词、行业术语、偏正复合词也应尽量保留为原子词项。判定问法:

"在当前句子的推导链中,这个子词项是否会被单独施加 :>?"

  • → 并入整体,作为单原子。
  • → 才拆分。

示例

原子写法 ✅ 过度拆解 ❌
深度强化学习 深度 : 强化 : 学习
学习效率 学习 : 效率
决策鲁棒性 决策 : 鲁棒性
想象树 想象 : 树
协作式中间态 协作式 : 中间态
复杂不完美环境 ((复杂 & 不完美) : 环境)(除非"复杂"或"不完美"在下文需独立操作)

保留可拆分的反例(前 : 负责人) : Karpathy 中,"前"被保留——因为如果上下文要对比"前任 vs 现任","前" 就需要独立承载 :。粒度选择取决于当前句子的推导需求,不是越粗越好。

核心心法:SVO 是用来做逻辑推导的,不是底层分词。原子粒度应当大到足以让结构化的算式承载语义重心,而不是把所有词都剥成单字。

3.4 驱动的双重承载

> 在 SVO 3.2 中统一承载两类能量流向,二者在本体上同构:

(a) 动作流:施事 → 动作 → 受事

论文 > 促使 > Tishby > 认识到 > (理论 > 涵盖 > 过程)

(b) 逻辑流:前件命题 → 逻辑连词 → 后件命题

(P1) > 则 > (P2)
(P1) > 尽管 > (P2)
(P1) > 导致 > (P2)

识别原则> 两端是词项还是封装域决定了它是动作流还是逻辑流——两端都是完整命题时即为逻辑流;否则即为动作流。系统不需要额外标记,读者通过操作数的形态即可判定。

3.5 连接词项一览

连接词项是 > 的中段填充,负责具象化能量的性质。它们本身是普通词项,只是出现在了 > 的关键位置。

连接词项语义类型典型中文示例
`则`条件推导"如果…就…"`(P) > 则 > (Q)`
`尽管`反预期"尽管…还是…"`(P) > 尽管 > (Q)`
`导致`事实因果"…导致…"`(P) > 导致 > (Q)`
`因此`推论"…因此…"`(P) > 因此 > (Q)`
`促使`使役因果"A 促使 B …"`A > 促使 > B > V > ...`
`以便`目的"…以便…"`(P) > 以便 > (Q)`

目的、反事实、充要条件等更细的语义关系可以根据需要新增连接词项,不需要新增算子

3.6 封装域 ( ) 的作用

封装域将一组算式打包成一个原子单位。对外层算子而言,封装域等价于一个词项。

必须封装的情形

  1. > 的两端出现完整命题时,该命题必须封装。
  2. : 的右操作数是完整命题时,该命题必须封装。
  3. 任何时候需要覆盖默认优先级时。

禁止封装的情形

  1. 单一词项((苹果)苹果 等价,但多余)。
  2. 破坏固定搭配(不能把"十年之遥"写成 (十年 : 之遥))。

3.7 运算优先级

从高到低:

( )  →  :  →  >  →  & |

即括号最紧,绑定次之,驱动更松,合取/析取最松。

示例

A : B > C & D > E

解析为:

((A : B) > C) & (D > E)

链式 > 的结合性> 左结合。

A > B > C > D  =  ((A > B) > C) > D

这与主谓宾的自然语序一致:A 先与 B 发生作用,其结果再与 C 发生作用。

3.8 歧义消解

SVO 3.2 比 3.1 更依赖操作数形态(词项 vs 封装域)来消解歧义。书写时遵循以下硬性约定:

约定一:当同一个修饰语可能限定动词或整个命题时,用封装范围明确表示

❌  显然 : 他 > 错了            ("显然"限定的是"他"还是"他错了"?)
✅  显然 : (他 > 错了)          (限定整个命题)
✅  他 > (显然 : 错了)          (限定"错了"这个谓词)

约定二:当话题可能限定一个动作或一整段话语时,封装要明确。

(AI:方面) : (Karpathy > 偏向 > X)   (整段话都在 AI 方面这个范围内)
Karpathy > ((AI:方面) : 偏向) > X    (只有"偏向"这个动作在 AI 方面展开)

两种写法都合法,书写者根据原意选择,读者根据括号判定。

约定三:连接词项(尽管导致 等)两端必须是封装的完整命题。裸词项不能出现在逻辑流 > 的两端。

❌  P > 则 > Q             (未封装,易被误读为动作流)
✅  (P) > 则 > (Q)

3.9 粗粒度化原则(生成端约束)

3.2 的算子集已经足够完备,但写出来的算式是否好用,取决于生成端选择的粒度。SVO 表达式最终要被 LLM 智能体读入,用作长短期记忆和 Plan Tree 的底层结构——过度原子化会让一句话嵌套四五层括号,浪费上下文窗口、干扰注意力、违反人类直觉。本节给出四条工程级生成约束,与算子规则同等具有约束力

3.9.1 词汇组块坍缩 (Lexical Chunking)

原则:专有名词、行业术语、偏正复合词作为原子词项,能合则合。判定见 §3.3 (b)。

反例 vs 正例

❌ 过度原子化 ✅ 粗粒度组块
深度 : 强化 : 学习 深度强化学习
(学习 : 效率) & (决策 : 鲁棒性) 学习效率 & 决策鲁棒性
(想象 : 树) 想象树
(基于 : 想象) : 计划 : 方法 基于想象的计划方法

3.9.2 扁平化多重属性 (Flattening Modifiers)

原则:当同一核心被多个修饰同时限定时,先用 & 把所有修饰合取,再做一次 : 绑定。禁止生成 ((A:B):C):D 形式的多层嵌套

方位词归并:方位词(中、里、上、下、前、后、内、外、间)直接并入名词,不单独绑定。

反例

((((复杂 & 不完美) : 环境) : 中) : ((学习 : 效率) & (决策 : 鲁棒性)))

四层嵌套,难以阅读。

正例(中等粒度)

((复杂 & 不完美) : 环境中) : (学习效率 & 决策鲁棒性)

同层修饰一次合取后做单次绑定,方位词"中"并入"环境"。

正例(更粗粒度)

复杂不完美环境中 : (学习效率 & 决策鲁棒性)

前置修饰词全部坍缩入名词。

3.9.3 宏辖域优先 (Macro-Scoping)

原则:范围、背景、话题修饰默认上提到整命题层绑定,而非深埋在受事的子树里。

§3.8 约定二指出"两种写法都合法",但 3.9 把整命题绑定升为默认偏好——除非原意明确只限定某个动词,否则一律上提。这既符合人类"先给背景,再说事"的认知顺序,也让命题的真值评估辖域一目了然。

反例(话题深埋在受事内):

DeepMind > 提升 > (智能体 : ((((复杂 & 不完美) : 环境) : 中) : ((学习 : 效率) & (决策 : 鲁棒性))))

正例(话题上提到命题外):

(复杂不完美环境) : (DeepMind > 提升 > 智能体:(学习效率 & 决策鲁棒性))

3.9.4 虚词与代词省略

原则:轻量级语气词、代词、范围助词(该、还、能、并、就、也、其、此)若不承载关键逻辑重量,可直接省略,或与邻近词合并。不强行抬到属性位

反例

(该 : 智能体) > ((还 & 能) : 决定) > ...

正例(合并):

智能体 > (能 : 决定) > ...

正例(直接省略):

智能体 > 决定 > ...

判定法:"这个词被删掉,原句的逻辑结构会缺失关键信息吗?"——否则就删。模态词(必须、可以、应该、可能)和否定词(不、未、非)不属此类,必须保留


四、标准拓扑模型

4.1 基本动作模型

拓扑施事 > 动作 > 受事

他 > 吃 > 苹果
论文 > 引用 > (前人 : 工作)

4.2 话题-核心模型

3.1 用 >>,3.2 用 : 限定封装域或谓词

原句:在AI辅助编程方面,Karpathy更偏向"协作式中间态"。

(AI辅助编程方面) : (Karpathy > (更 : 偏向) > 协作式中间态)

解读:整个主命题被"AI辅助编程方面"这个原子背景限定——即命题只在此范围内评真值。AI辅助编程协作式中间态 作为专有术语保持原子粒度(参见 §3.9.1)。

4.3 身份嵌套模型

原句:OpenAI的创始元老Karpathy表示AGI仍有十年之遥。

(OpenAI : 创始 : 元老) : Karpathy > 表示 > (AGI > 仍有 > 十年之遥)

身份直接作为属性绑定到 Karpathy,无需额外算子。"十年之遥"为原子词项。

4.4 致使模型

原句:论文促使Tishby认识到理论可能涵盖广泛的过程。

论文 > 促使 > Tishby > 认识到 > (理论 > (可能 : 涵盖) > (广泛 : 过程))

致使是动作流的一种,中段动词为"促使"。

4.5 条件模型

拓扑(条件命题) > 则 > (结果命题)

原句:该计划如果不公开,就无法获得认可。

(该计划 > 不 : 公开) > 则 > (该计划 > (无法 : 获得) > 认可)

4.6 让步模型(3.2 新增显式处理)

拓扑(命题1) > 尽管 > (命题2)

原句:尽管下雨,比赛仍然继续。

(天 > 下雨) > 尽管 > (比赛 > (仍然 : 继续))

让步在 3.1 中归于 >>,在 3.2 中与条件平齐,统一进入 >。二者的差别仅在于连接词项的语义——"则"是顺承,"尽管"是反预期。

4.7 因果链模型

原句:经济下行导致消费萎缩,因此企业被迫裁员。

(经济 > 下行) > 导致 > (消费 > 萎缩) > 因此 > (企业 > (被迫 : 裁员))

链式 > 让整条因果推导在语法上呈现为一条直线。

4.8 被动与否定复合模型

原句:现有框架不仅不适用,而且必须被立刻替换。

(现有 : 框架) > (不 : 适用) & (必须 : 被 : 立刻 : 替换)

4.9 量化模型

所有 : 学生 > 通过 > 考试
没有 : 学生 > 通过 > 考试
某 : 学生 > 通过 > 考试

4.10 句子级副词模型(3.2 新增显式处理)

原句:显然,他错了。

显然 : (他 > 错了)

原句:不幸的是,实验失败了。

(不幸 : 的是) : (实验 > 失败)

句子级副词通过 : 绑定到封装命题上,辖域精确锁定为整个命题。

4.11 比较模型

原句:A 比 B 更大。

A > (比 : B : 更 : 大)

或等价写法:

(A & B) > 比较 > (A > 更大)

前者把"比B更大"视为A的谓词属性,后者把比较视为一个显式的逻辑力。两种写法合法,根据上下文强调点选择。

4.12 疑问与祈使模型

疑问:"他吃了吗?"

疑问 : (他 > 吃了)

祈使:"请关门。"

祈使 : (你 > 关 > 门)

语气作为句子级属性绑定到命题封装域上。


五、实战长难句解析

挑战句

原句:作为前负责人,Karpathy 今天明确向团队表示,该计划如果不公开,就无法获得认可。

SVO 3.2 表达式

(前 : 负责人) : Karpathy > ((今天 & 明确 & (向 : 团队)) : 表示) > ((该计划 > 不 : 公开) > 则 > (该计划 > (无法 : 获得) > 认可))

逐层解析

层级算式片段本体说明
实体限定`(前:负责人) : Karpathy`属性身份作为复合属性绑定到实体
动作谓词`((今天 & 明确 & (向:团队)) : 表示)`属性时间、方式、对象三属性合取后限定"表示"
主动作流`Karpathy > (...) > (...)`施事→言说动作→言说内容
言说内容`((该计划 > 不:公开) > 则 > (...))`条件命题通过逻辑连词"则"驱动结果命题
条件命题`(该计划 > 不:公开)`前件,完整命题封装
结果命题`(该计划 > (无法:获得) > 认可)`后件,完整命题封装

与 3.1 对比

3.1 写法

(前:负责人) : Karpathy >> (今天 & 明确 & (向:团队)) : 表示 > ((该计划 > 不:公开) > 则 > (该计划 > (无法:获得) > 认可))

差异

  1. 外层 >>>。身份属性直接绑定到 Karpathy 后,Karpathy 作为施事通过 > 连接到言说动作。
  2. 谓词部分额外加了括号 ((今天 & ...) : 表示),使"表示"连同其属性成为一个完整的动作域。
  3. 整句变成一条 > 主链贯穿"主体→言说→内容",层级比 3.1 更规整。

粗粒度 vs 细粒度对比

3.2 算式合法不代表好用。下面两组对照展示 §3.9 粗粒度化原则的实际效果——同样一句话,过度原子化会陷入"LISP 括号综合征",而粗粒度版能让语义重心一眼可见。

对比示例 1:DeepMind 智能体

原句:DeepMind 通过赋予智能体想象力,提升智能体在复杂不完美环境中的学习效率和决策鲁棒性。

❌ 过度原子化

DeepMind > ((通过 : (DeepMind > 赋予 > 智能体 > 想象力)) : 提升) > (智能体 : ((((复杂 & 不完美) : 环境) : 中) : ((学习 : 效率) & (决策 : 鲁棒性))))

✅ 粗粒度优化版

(复杂不完美环境) : (DeepMind > ((通过 : (赋予 > 想象力)) : 提升) > 智能体:(学习效率 & 决策鲁棒性))

优化点

  1. 辖域上提(§3.9.3):把"复杂不完美环境"作为整个命题的背景,提到最前面而非塞进受事子树。
  2. 组块坍缩(§3.9.1):复杂不完美环境学习效率决策鲁棒性 各自合并为原子词项。
  3. 省略主语重复:施事 DeepMind 在主句中已出现,从属命题里的 DeepMind > 赋予 主语可省略为 赋予 > 想象力
  4. 方位词归并(§3.9.2):环境中 直接合并,不写作 环境 : 中

对比示例 2:智能体决策

原句:该智能体还能决定例如测试不同行动或构建复杂想象树的想象方式,并能优化计划的经济性和效率。

❌ 过度原子化

(该 : 智能体) > ((((还 & 能) : 决定) > (((例如 : ((测试 > (不同 : 行动)) | (构建 > (复杂 : (想象 : 树))))) : (想象 : 方式)))) & (((并 & 能) : 优化) > (计划 : (经济性 & 效率))))

✅ 粗粒度优化版

智能体 > (决定 > (例如:(测试>不同行动) | (构建>复杂想象树)) : 想象方式) & (优化 > 计划:(经济性 & 效率))

优化点

  1. 虚词省略(§3.9.4): 都不承载逻辑重量,直接删除。
  2. 组块坍缩(§3.9.1):想象树想象方式不同行动 合并为原子词项,不再 想象 : 树
  3. 扁平化(§3.9.2):(经济性 & 效率) 一次性并联绑定到 计划

六、书写步骤

  1. 确定原子词项边界(§3.9.1):扫描句子,把所有专有名词、行业术语、偏正复合词预先标记为不可拆分的原子。判定法:"这个子词项在当前推导链中是否会被单独施加 :>?否 → 合并"。
  2. 识别核心:找出句子的施事和主动作(或主命题)。
  3. 属性坍缩:将所有修饰词(定语、状语、否定、模态、量化、被动、话题、身份、范围、句子级副词)用 : 挂载到被修饰的核心上。
    • 核心是词项 → 属性直接绑定。
    • 核心是整个命题 → 属性绑定到封装域 (...)
    • 同一核心的多个修饰先 & 合取,再做一次 : 绑定(§3.9.2)。
  4. 区分动作流与逻辑流
    • 动作:施事→动词→受事,直接用 >
    • 条件/让步/因果/推论:两端用 ( ) 封装完整命题,中段填入连接词项(尽管导致因此促使以便)。
  5. 连接矢量:用 > 串联动作的始发与终点,以及命题之间的推导。
  6. 处理递归:宾语或操作数是完整命题时用 ( ) 封装。
  7. 处理并列:并列成分用 &(共存)或 |(选择)连接。
  8. 检查优先级:确认解析顺序符合 ( ) → : → > → & |
  9. 一致性校验
    • 所有 > 的逻辑流两端都是封装命题。
    • 所有句子级副词都绑定到封装命题而非裸动词。
    • 所有身份/话题都以 : 形式出现,不应出现任何 >>
  10. 最小化括号:在不产生歧义的前提下去除冗余封装。
  11. 粗粒度回扫(§3.9):最后一遍检查——
    • 是否有可合并的同层修饰仍在多次 : 嵌套?
    • 是否有范围/话题修饰被深埋在受事子树里,可上提到整命题层?
    • 是否有"该、还、能、并、就、也"等虚词被强行抬到属性位,可省略或合并?
    • 是否有专有名词/术语被拆成单字?(如 深度 : 强化 : 学习深度强化学习

七、常见陷阱

陷阱一:把条件压成定语

❌  ((不 : 公开) : 该计划) > 则 > (...)
✅  (该计划 > 不 : 公开) > 则 > (...)

条件必须是完整命题。(不:公开):该计划 只是一个"不公开的该计划"的名词短语,不具有真值。

陷阱二:句子级副词的辖域混淆

❌  显然 他 > 错了         ("显然"游离,无归属)
❌  他 > 显然 > 错了       ("显然"不是动词,不能出现在 > 的中段)
✅  显然 : (他 > 错了)      (限定整个命题)
✅  他 > (显然 : 错了)      (限定谓词——通常不符合原意)

陷阱三:忘记封装逻辑流

❌  该计划 > 不 : 公开 > 则 > 该计划 > 无法 : 获得 > 认可
✅  (该计划 > 不 : 公开) > 则 > (该计划 > (无法 : 获得) > 认可)

没有封装的链式 > 会被解析成一条长动作流,完全扭曲原意。

陷阱四:话题辖域不清

歧义  (AI : 方面) : Karpathy > 偏向 > X
       (AI方面限定的是 Karpathy 还是整个命题?)
明确  (AI : 方面) : (Karpathy > 偏向 > X)
       (整个命题都在 AI 方面)
明确  Karpathy > ((AI : 方面) : 偏向) > X
       (只有"偏向"这个动作在 AI 方面)

陷阱五:滥用 & 连接异质成分

❌  (苹果 & 快速) : 吃      (苹果是受事不是属性,不该与副词并列)
✅  快速 : 吃 > 苹果         (快速限定吃,苹果是受事)

& 只连接同一本体类型的项:属性与属性、命题与命题、词项与词项。

陷阱六:残留 >>

从 3.1 迁移过来的文本最常见的问题。扫描全文,任何 >> 都是错误。

陷阱七:过度原子化(拆解专有名词与术语)

❌  深度 : 强化 : 学习
❌  (想象 : 树)
❌  (基于 : 想象) : 计划 : 方法
✅  深度强化学习
✅  想象树
✅  基于想象的计划方法

SVO 是逻辑推导工具,不是底层分词器。专有名词、行业术语、偏正复合词在当前句子的推导链中通常不会被单独操作,应作为原子词项保留。判定原则见 §3.3 (b) 与 §3.9.1。

陷阱八:俄罗斯套娃式嵌套(同层修饰未合取就多次 :

❌  ((((复杂 & 不完美) : 环境) : 中) : ((学习 : 效率) & (决策 : 鲁棒性)))
       (四层嵌套,违反 §3.9.2)
✅  复杂不完美环境中 : (学习效率 & 决策鲁棒性)

当多个属性修饰同一个核心时,先用 & 把所有属性合取成一组,再做一次 : 绑定。方位词(中、里、上、下、前、后、内、外、间)直接并入名词,不单独 : 绑定。

陷阱九:范围属性深埋(话题/背景塞在受事内部)

❌  DeepMind > 提升 > (智能体 : ((((复杂 & 不完美) : 环境) : 中) : (学习效率 & 决策鲁棒性)))
       ("复杂不完美环境"是整句的背景,不该塞进受事子树)
✅  (复杂不完美环境) : (DeepMind > 提升 > 智能体:(学习效率 & 决策鲁棒性))
       (背景上提到整命题层)

范围、背景、话题修饰默认上提到整命题层绑定(§3.9.3)。除非原意明确只限定某个动词(此时按 §3.8 约定二写法),否则一律按 (背景) : (整命题) 拓扑。


八、3.1 → 3.2 迁移指南

机械迁移规则

3.1 形式3.2 形式说明
`(话题) >> (主命题)``(话题) : (主命题)`话题作为复合属性绑定到命题域
`(身份) : X >> ...``(身份) : X > ...`身份已经是 `:`,只需把后续 `>>` 换成 `>`
`(背景介词短语) >> (主命题)``(背景短语) : (主命题)` 或嵌入谓词根据辖域选择
`(让步命题) >> (主命题)``(让步命题) > 尽管 > (主命题)`让步升级为逻辑流
`(条件命题) > 则 > (结果命题)`**保持不变**3.1 已是新写法
`原因 > 促使 > X`**保持不变**致使模型不变

判定流程

遇到一个 3.1 的 >>,按下列顺序判断如何迁移:

  1. 左侧是完整命题且表达让步吗? → 用 > 尽管 >
  2. 左侧是完整命题且表达背景条件吗? → 用 > 则 > 或合适的连接词项。
  3. 左侧是话题/范围短语吗? → 用 : 绑定到右侧整个封装域。
  4. 左侧是身份属性吗? → 用 : 绑定到实体,>> 整体删除。
  5. 左侧是句子级副词吗? → 用 : 绑定到右侧封装命题。

验证

迁移后的文本应满足:

  • 不含任何 >>
  • 所有 > 两端若是命题,则必为封装域。
  • 所有原 >> 的辖域在新写法中通过括号精确保留。

九、SVO 版本演进

版本算子集本体核心调整
3.0`:` `>` `>>` `& |`引力 / 动力 / 场四大算子,`>>` 兼管话题与条件
3.1`:` `>` `>>` `& |`引力 / 动力 / 场条件从 `>>` 划归 `>`,`>>` 收窄到非命题性话语场
3.2`:` `>` `& |`属性 / 力**消除 `>>`**,话语场归于属性,让步归于力

演进逻辑:每一代都在追问"哪些算子是真正不可还原的"。3.0 的三支柱看似优雅,但 3.1 发现"条件"不属于场;3.2 进一步发现所谓的"场"本身也只是属性的一种应用,于是彻底撤掉。剩下的两元本体——属性与力——恰好对应语言中两种最基本的认知操作:描述事物是什么(属性叠加)和描述事物如何变化(能量流动)。


附录:判定口诀

限定一个东西是什么 → : 描述一个东西如何作用于另一个 → > 两个同类项并列 → & / | 需要打包成整体 → ( ) 能合则合 → 专有名词不拆,同层修饰先 &:,范围属性提到命题外

没有第四种。