Files
happy-llm/docs/chapter6
KMnO4-zx 1f46fc1dd5 docs: 更新文档中的图片链接为绝对路径
将所有文档中的相对图片路径替换为完整的GitHub raw链接,确保图片在文档中能够正确显示
2025-06-17 17:07:09 +08:00
..
2025-04-25 10:04:43 +08:00
2025-04-10 17:54:58 +08:00

第六章 基于 transformers 的 LLM 训练

注:本章的核心内容是,基于 transformers 框架实现 LLM 预训练和微调

  1. 框架简述:
    1. transformers
    2. deepspeed
    3. peft
    4. wandb
    5. tokenizers
  2. 基于 transformers 的 LLM 预训练
    1. 分词器训练
    2. 数据集构建
    3. 模型搭建/继承预训练模型
    4. 构造 Trainer 进行训练
  3. 基于 transformers 的 LLM SFT/下游任务微调
    1. 分词器训练
    2. 数据集构建
    3. LoRA 配置
    4. 继承预训练模型
    5. 构造 Trainer 进行训练