Update README.md

This commit is contained in:
不要葱姜蒜
2025-05-16 09:53:55 +08:00
committed by GitHub
parent 9257ba2bcc
commit 731af3ce5b

View File

@@ -8,7 +8,7 @@ LLM 是在 PLM 的基础上,通过大量扩大模型参数、预训练数据
LLM 的突破性进展激发了 NLP 领域乃至整个人工智能领域的研究热度,海内外高校、研究院、大厂乃至众多传统领域企业都投入到 LLM 研究的浪潮中。自 2023年至今LLM 阶段性成果层出不穷,模型性能不断刷新上限,从一开始的 ChatGPT到 GPT-4再到以 DeepSeek-R1 为代表的推理大模型、以 Qwen-VL 为代表的多模态大模型等更强大、更定制化的模型LLM 应用也不断涌现出能够提升实际生产力、赋能用户实际生活的创新应用从”百模大战“到”Agent 元年“LLM 基座研究或许已趋向稳定的格局LLM 的研究始终方兴未艾。可以肯定的是在并不遥远的未来LLM 及以 LLM 为基础的应用一定会成为人们生活中的基础设施,与每个人的生活、学习、工作密不可分。 LLM 的突破性进展激发了 NLP 领域乃至整个人工智能领域的研究热度,海内外高校、研究院、大厂乃至众多传统领域企业都投入到 LLM 研究的浪潮中。自 2023年至今LLM 阶段性成果层出不穷,模型性能不断刷新上限,从一开始的 ChatGPT到 GPT-4再到以 DeepSeek-R1 为代表的推理大模型、以 Qwen-VL 为代表的多模态大模型等更强大、更定制化的模型LLM 应用也不断涌现出能够提升实际生产力、赋能用户实际生活的创新应用从”百模大战“到”Agent 元年“LLM 基座研究或许已趋向稳定的格局LLM 的研究始终方兴未艾。可以肯定的是在并不遥远的未来LLM 及以 LLM 为基础的应用一定会成为人们生活中的基础设施,与每个人的生活、学习、工作密不可分。
在这样的背景下,深入理解、掌握 LLM 原理,能够动手应用、训练任意一个 LLM 的能力,对每一位 NLP 研究者乃至其他领域的 AI 研究者至关重要。我们在 2023年底分别创建了 self-llm开源大模型食用指南https://github.com/datawhalechina/self-llm、llm-universe动手学大模型应用开发https://github.com/datawhalechina/llm-universe两个原创开源大模型教程前者旨在为开发者提供一站式开源 LLM 部署、推理、微调的使用教程,后者旨在指导开发者从零开始搭建自己的 LLM 应用。两个教程都帮助到了广泛的国内外开发者,也获得了众多开发者的支持和认可,在学习者的反馈中,我们发现目前还缺乏一个从零开始讲解 LLM 原理、并引导学习者亲手搭建、训练 LLM 的完整教程。 在这样的背景下,深入理解、掌握 LLM 原理,能够动手应用、训练任意一个 LLM 的能力,对每一位 NLP 研究者乃至其他领域的 AI 研究者至关重要。我们在 2023年底分别创建了 self-llm开源大模型食用指南https://github.com/datawhalechina/self-llm 、llm-universe动手学大模型应用开发https://github.com/datawhalechina/llm-universe )两个原创开源大模型教程,前者旨在为开发者提供一站式开源 LLM 部署、推理、微调的使用教程,后者旨在指导开发者从零开始搭建自己的 LLM 应用。两个教程都帮助到了广泛的国内外开发者,也获得了众多开发者的支持和认可,在学习者的反馈中,我们发现目前还缺乏一个从零开始讲解 LLM 原理、并引导学习者亲手搭建、训练 LLM 的完整教程。
鉴于此,我们编写了这本结合 LLM 原理及实战的教程。本书将从 NLP 的基本研究方法出发,根据 LLM 的思路及原理逐层深入,依次为读者剖析 LLM 的架构基础和训练过程。同时,我们会结合目前 LLM 领域最主流的代码框架,演练如何亲手搭建、训练一个 LLM期以实现授之以鱼更授之以渔。希望读者能从这本书开始走入 LLM 的浩瀚世界,探索 LLM 的无尽可能。 鉴于此,我们编写了这本结合 LLM 原理及实战的教程。本书将从 NLP 的基本研究方法出发,根据 LLM 的思路及原理逐层深入,依次为读者剖析 LLM 的架构基础和训练过程。同时,我们会结合目前 LLM 领域最主流的代码框架,演练如何亲手搭建、训练一个 LLM期以实现授之以鱼更授之以渔。希望读者能从这本书开始走入 LLM 的浩瀚世界,探索 LLM 的无尽可能。