Files
happy-llm/README.md
2025-05-23 10:46:22 +08:00

88 lines
4.2 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
<div align='center'>
<img src="./images/head.jpg" alt="alt text" width="90%">
<h1>Happy-LLM</h1>
</div>
<div align="center">
<img src="https://img.shields.io/github/stars/datawhalechina/happy-llm?style=for-the-badge&logo=github" alt="GitHub stars"/>
<img src="https://img.shields.io/github/forks/datawhalechina/happy-llm?style=for-the-badge&logo=github" alt="GitHub forks"/>
<img src="https://img.shields.io/github/license/datawhalechina/happy-llm?style=for-the-badge" alt="License"/>
<img src="https://img.shields.io/badge/language-Chinese-brightgreen?style=for-the-badge" alt="Language"/>
</div>
<div align="center">
<h3>📚 从零开始的大语言模型原理与实践教程</h3>
<p><em>深入理解 LLM 核心原理,动手实现你的第一个大模型</em></p>
</div>
---
## 🎯 项目介绍
> &emsp;&emsp;*很多小伙伴在看完 [self-llm 开源大模型食用指南](https://github.com/datawhalechina/self-llm) 后感觉意犹未尽想要深入了解大语言模型的原理和训练过程。于是我们决定推出《Happy-LLM》项目旨在帮助大家深入理解大语言模型的原理和训练过程。*
&emsp;&emsp;本项目是一个**系统性的 LLM 学习教程**,包含了大语言模型的基本原理、训练过程和应用案例。我们将从基础知识开始,逐步深入到大语言模型的核心原理和训练过程,最后介绍一些实际应用案例。
### ✨ 你将收获什么?
- 🔍 **深入理解** Transformer 架构和注意力机制
- 📚 **掌握** 预训练语言模型的基本原理
- 🧠 **了解** 现有大模型的基本结构
- 🏗️ **动手实现** 一个完整的 LLaMA2 模型
- ⚙️ **掌握训练** 从预训练到微调的全流程
- 🚀 **实战应用** RAG、Agent 等前沿技术
## 📖 内容导航
| 章节 | 关键内容 | 状态 |
| --- | --- | --- |
| [第一章 NLP 基础概念](./docs/chapter1/第一章%20NLP基础概念.md) | 什么是 NLP、发展历程、任务分类、文本表示演进 | ✅ |
| [第二章 Transformer 架构](./docs/chapter2/第二章%20Transformer架构.md) | 注意力机制、Encoder-Decoder、手把手搭建 Transformer | ✅ |
| [第三章 预训练语言模型](./docs/chapter3/第三章%20预训练语言模型.md) | Encoder-only、Encoder-Decoder、Decoder-Only 模型对比 | ✅ |
| [第四章 大语言模型](./docs/chapter4/第四章%20大语言模型.md) | LLM 定义、训练策略、涌现能力分析 | ✅ |
| [第五章 动手搭建大模型](./docs/chapter5/第五章%20动手搭建大模型.md) | 实现 LLaMA2、训练 Tokenizer、预训练小型 LLM | ✅ |
| [第六章 大模型训练实践](./docs/chapter6/第六章%20大模型训练流程实践.md) | 预训练、有监督微调、LoRA/QLoRA 高效微调 | ✅ |
| [第七章 大模型应用](./docs/chapter7/第七章%20大模型应用.md) | 模型评测、RAG 检索增强、Agent 智能体 | ✅ |
## 🤝 如何贡献
我们欢迎任何形式的贡献!
- 🐛 **报告 Bug** - 发现问题请提交 Issue
- 💡 **功能建议** - 有好想法就告诉我们
- 📝 **内容完善** - 帮助改进教程内容
- 🔧 **代码优化** - 提交 Pull Request
## 🙏 致谢
### 核心贡献者
- [宋志学-项目负责人](https://github.com/KMnO4-zx) (Datawhale成员-中国矿业大学(北京))
- [邹雨衡-项目负责人](https://github.com/logan-zou) (Datawhale成员-对外经济贸易大学)
### 特别感谢
- 感谢 [@Sm1les](https://github.com/Sm1les) 对本项目的帮助与支持
- 感谢所有为本项目做出贡献的开发者们 ❤️
<div align=center style="margin-top: 30px;">
<a href="https://github.com/datawhalechina/happy-llm/graphs/contributors">
<img src="https://contrib.rocks/image?repo=datawhalechina/happy-llm" />
</a>
</div>
## 关于 Datawhale
<div align='center'>
<img src="./images/datawhale.png" alt="Datawhale" width="30%">
<p>扫描二维码关注 Datawhale 公众号,获取更多优质开源内容</p>
</div>
---
<div align="center">
<p>⭐ 如果这个项目对你有帮助,请给我们一个 Star</p>
</div>
## 📜 开源协议
本作品采用[知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议](http://creativecommons.org/licenses/by-nc-sa/4.0/)进行许可。