Transformer黑盒
问题
- Transformer是怎么组织和表达自然语言的?
可能的方向
- 通过不断的训练、运行来对模型的权重进行解析--逆训练
- 生成出一系列的最核心的,最有效的样本的数据集,用于蒸馏其他的模型
- 从单点,添加探针的方式来推断输出的逻辑
- 特定样本下各个权重的梯度(对结果的影响力)组成一张针对一个样本的逻辑地图
- 通过统计大量样本在单点的情况分析出模型的抽象图
- 从最后的输出逻辑往前面推理的方式来推断模型的输出逻辑
- 找到整个模型的最边缘的知识点,最终的知识点,不会被其他知识使用的知识点,唯一的
- 判断激活这个知识点的输入的概率的分布情况
《On the Biology of a Large Language Model》
- 模型先得答案,后编理由。例如,回答“达拉斯所在州的首府”时,模型直接激活“Texas→Austin”的关联,而非逐步推理。
- 模型在输出语言之前,已在注意力层完成了决策判断。这一点在“Step-skipping reasoning”(跳步推理)机制中表现尤为明显:模型不是一步步的推理证明,而是通过注意力机制聚合关键上下文,直接跳跃式生成答案
- 输出与推理时序错位。在数学题中,模型先预测答案token,再补全“第一步”“第二步”的伪解释。
-
要求回答“达拉斯所在的州,州府是哪个城市?” 然而归因图显示模型内部的情况是:
-
一组激活 “Dallas” 的特征 → 激活“Texas”相关特征; -
一组识别“capital”(首府)的特征 → 推动输出“一个州的首府”; -
然后 Texas + capital → 推动输出 “Austin”。
-