Skip to main content

LLM大语言模型的训练

预训练

继续预训练

微调

  1. 全面微调更容易出现两个问题:模型崩溃和灾难性遗忘
  2. PEFT技术本质上,是作为微调的自然正则化器

  3. 数据集的质量和筛选,对微调的成功起着重要作用:一个大趋势是质量比数量更重要,拥有一小部分高质量的数据,比拥有一大批低质量的数据更好。
    1. 一致的注释,没有错误、没有错误标签的数据、有噪音的输入/输出
    2. 与总体相比具有代表性的分布
  4. 微调是大模型开发中的一个关键方面,需要在艺术和科学之间取得微妙的平衡。