Files
happy-llm/README.md
2025-05-23 10:47:52 +08:00

4.2 KiB
Raw Blame History

alt text

Happy-LLM

GitHub stars GitHub forks License Language

📚 从零开始的大语言模型原理与实践教程

深入理解 LLM 核心原理,动手实现你的第一个大模型


🎯 项目介绍

很多小伙伴在看完 self-llm 开源大模型食用指南感觉意犹未尽想要深入了解大语言模型的原理和训练过程。于是我们决定推出《Happy-LLM》项目旨在帮助大家深入理解大语言模型的原理和训练过程。

  本项目是一个系统性的 LLM 学习教程,包含了大语言模型的基本原理、训练过程和应用案例。我们将从基础知识开始,逐步深入到大语言模型的核心原理和训练过程,最后介绍一些实际应用案例。

你将收获什么?

  • 🔍 深入理解 Transformer 架构和注意力机制
  • 📚 掌握 预训练语言模型的基本原理
  • 🧠 了解 现有大模型的基本结构
  • 🏗️ 动手实现 一个完整的 LLaMA2 模型
  • ⚙️ 掌握训练 从预训练到微调的全流程
  • 🚀 实战应用 RAG、Agent 等前沿技术

📖 内容导航

章节 关键内容 状态
第一章 NLP 基础概念 什么是 NLP、发展历程、任务分类、文本表示演进
第二章 Transformer 架构 注意力机制、Encoder-Decoder、手把手搭建 Transformer
第三章 预训练语言模型 Encoder-only、Encoder-Decoder、Decoder-Only 模型对比
第四章 大语言模型 LLM 定义、训练策略、涌现能力分析
第五章 动手搭建大模型 实现 LLaMA2、训练 Tokenizer、预训练小型 LLM
第六章 大模型训练实践 预训练、有监督微调、LoRA/QLoRA 高效微调
第七章 大模型应用 模型评测、RAG 检索增强、Agent 智能体

🤝 如何贡献

我们欢迎任何形式的贡献!

  • 🐛 报告 Bug - 发现问题请提交 Issue
  • 💡 功能建议 - 有好想法就告诉我们
  • 📝 内容完善 - 帮助改进教程内容
  • 🔧 代码优化 - 提交 Pull Request

🙏 致谢

核心贡献者

特别感谢

  • 感谢 @Sm1les 对本项目的帮助与支持
  • 感谢所有为本项目做出贡献的开发者们 ❤️

关于 Datawhale

Datawhale

扫描二维码关注 Datawhale 公众号,获取更多优质开源内容


如果这个项目对你有帮助,请给我们一个 Star

📜 开源协议

本作品采用知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议进行许可。