Files
happy-llm/docs/chapter6
2025-04-26 16:20:29 +08:00
..
2025-04-25 10:04:43 +08:00
2025-04-25 15:43:36 +08:00
2025-04-25 15:43:36 +08:00
2025-04-25 16:33:27 +08:00
2025-04-26 16:20:29 +08:00
2025-04-10 17:54:58 +08:00

第六章 基于 transformers 的 LLM 训练

注:本章的核心内容是,基于 transformers 框架实现 LLM 预训练和微调

  1. 框架简述:
    1. transformers
    2. deepspeed
    3. peft
    4. wandb
    5. tokenizers
  2. 基于 transformers 的 LLM 预训练
    1. 分词器训练
    2. 数据集构建
    3. 模型搭建/继承预训练模型
    4. 构造 Trainer 进行训练
  3. 基于 transformers 的 LLM SFT/下游任务微调
    1. 分词器训练
    2. 数据集构建
    3. LoRA 配置
    4. 继承预训练模型
    5. 构造 Trainer 进行训练