21 lines
569 B
Markdown
21 lines
569 B
Markdown
# 第六章 基于 transformers 的 LLM 训练
|
|
|
|
注:本章的核心内容是,基于 transformers 框架实现 LLM 预训练和微调
|
|
|
|
1. 框架简述:
|
|
1. transformers
|
|
2. deepspeed
|
|
3. peft
|
|
4. wandb
|
|
5. tokenizers
|
|
2. 基于 transformers 的 LLM 预训练
|
|
1. 分词器训练
|
|
2. 数据集构建
|
|
3. 模型搭建/继承预训练模型
|
|
4. 构造 Trainer 进行训练
|
|
3. 基于 transformers 的 LLM SFT/下游任务微调
|
|
1. 分词器训练
|
|
2. 数据集构建
|
|
3. LoRA 配置
|
|
4. 继承预训练模型
|
|
5. 构造 Trainer 进行训练 |