update C3

This commit is contained in:
Logan Zou
2025-04-26 21:38:20 +08:00
parent 84c0a2d875
commit 067b855c84

View File

@@ -419,7 +419,7 @@ GLM 最初是由清华计算机系推出的一种通用语言模型基座,其
3. 激活函数从 ReLU 换成了 GeLUS。ReLU 是传统的激活函数,其核心计算逻辑为去除小于 0的传播保留大于 0的传播GeLUS 核心是对接近于 0的正向传播做了一个非线性映射保证了激活函数后的非线性输出具有一定的连续性。 3. 激活函数从 ReLU 换成了 GeLUS。ReLU 是传统的激活函数,其核心计算逻辑为去除小于 0的传播保留大于 0的传播GeLUS 核心是对接近于 0的正向传播做了一个非线性映射保证了激活函数后的非线性输出具有一定的连续性。
####2预训练任务-GLM #### 2预训练任务-GLM
GLM 的核心创新点主要在于其提出的 GLMGeneral Language Model通用语言模型任务这也是 GLM 的名字由来。GLM 是一种结合了自编码思想和自回归思想的预训练方法。所谓自编码思想,其实也就是 MLM 的任务学习思路,在输入文本中随机删除连续的 tokens要求模型学习被删除的 tokens所谓自回归思想其实就是传统的 CLM 任务学习思路,也就是要求模型按顺序重建连续 tokens。 GLM 的核心创新点主要在于其提出的 GLMGeneral Language Model通用语言模型任务这也是 GLM 的名字由来。GLM 是一种结合了自编码思想和自回归思想的预训练方法。所谓自编码思想,其实也就是 MLM 的任务学习思路,在输入文本中随机删除连续的 tokens要求模型学习被删除的 tokens所谓自回归思想其实就是传统的 CLM 任务学习思路,也就是要求模型按顺序重建连续 tokens。