Files
happy-llm/docs/chapter6/readme.md
Logan Zou ec7d0ef487 init ch6
2025-04-10 17:54:58 +08:00

21 lines
569 B
Markdown

# 第六章 基于 transformers 的 LLM 训练
注:本章的核心内容是,基于 transformers 框架实现 LLM 预训练和微调
1. 框架简述:
1. transformers
2. deepspeed
3. peft
4. wandb
5. tokenizers
2. 基于 transformers 的 LLM 预训练
1. 分词器训练
2. 数据集构建
3. 模型搭建/继承预训练模型
4. 构造 Trainer 进行训练
3. 基于 transformers 的 LLM SFT/下游任务微调
1. 分词器训练
2. 数据集构建
3. LoRA 配置
4. 继承预训练模型
5. 构造 Trainer 进行训练