Skip to main content
AGIX
View All
Search
Books
Log in
Info
Content
Transformer
LLM大语言模型的训练
Page Revisions
Revision #120 Changes
LLM大语言模型的训练
预训练
继续预训练
微调
全面微调更容易出现两个问题:模型崩溃和灾难性遗忘
PEFT技术本质上,是作为微调的自然正则化器
数据集的质量和筛选,对微调的成功起着重要作用:一个大趋势是质量比数量更重要,拥有一小部分高质量的数据,比拥有一大批低质量的数据更好。
一致的注释,没有错误、没有错误标签的数据、有噪音的输入/输出
与总体相比具有代表性的分布
微调是大模型开发中的一个关键方面,需要在艺术和科学之间取得微妙的平衡。
Back to top