Skip to main content
AGIX
View All
Search
Books
Log in
Info
Content
Transformer
LLM大语言模型的训练
Page Revisions
Revision #118
LLM大语言模型的训练
预训练
继续预训练
微调
全面微调更容易出现两个问题:模型崩溃和灾难性遗忘
PEFT技术本质上,是作为微调的自然正则化器
Back to top