docs:add docsify deploy

This commit is contained in:
KMnO4-zx
2025-05-25 00:02:24 +08:00
parent 40dc5de2fc
commit f9fe12d99a
62 changed files with 225 additions and 69 deletions

Binary file not shown.

Before

Width:  |  Height:  |  Size: 212 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 149 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 191 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 90 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 62 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 112 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 101 KiB

View File

@@ -9,21 +9,21 @@
- 前馈神经网络Feedforward Neural NetworkFNN即每一层的神经元都和上下两层的每一个神经元完全连接如图2.1所示:
<div align="center">
<img src="./figures/1-0.png" alt="图片描述" width="90%"/>
<img src="../images/2-figures/1-0.png" alt="图片描述" width="90%"/>
<p>图2.1 前馈神经网络</p>
</div>
- 卷积神经网络Convolutional Neural NetworkCNN即训练参数量远小于前馈神经网络的卷积层来进行特征提取和学习如图2.2所示:
<div align="center">
<img src="./figures/1-1.png" alt="图片描述" width="90%"/>
<img src="../images/2-figures/1-1.png" alt="图片描述" width="90%"/>
<p>图2.2 卷积神经网络</p>
</div>
- 循环神经网络Recurrent Neural NetworkRNN能够使用历史信息作为输入、包含环和自重复的网络如图2.3所示:
<div align="center">
<img src="./figures/1-2.png" alt="图片描述" width="90%"/>
<img src="../images/2-figures/1-2.png" alt="图片描述" width="90%"/>
<p>图2.3 循环神经网络</p>
</div>
@@ -222,7 +222,7 @@ scores = F.softmax(scores.float(), dim=-1).type_as(xq)
在原论文中作者也通过实验证实多头注意力计算中每个不同的注意力头能够拟合语句中的不同信息如图2.4所示:
<div align="center">
<img src="./figures/1-3.jpeg" alt="图片描述" width="90%"/>
<img src="../images/2-figures/1-3.jpeg" alt="图片描述" width="90%"/>
<p>图2.4 多头注意力机制</p>
</div>
@@ -346,7 +346,7 @@ Seq2Seq即序列到序列是一种经典 NLP 任务。具体而言,是
Transformer 中的 Encoder就是用于上述的编码过程Decoder 则用于上述的解码过程。Transformer 结构如图2.5所示:
<div align="center">
<img src="./figures/2-0.jpg" alt="图片描述" width="90%"/>
<img src="../images/2-figures/2-0.jpg" alt="图片描述" width="90%"/>
<p>图2.5 编码器-解码器结构</p>
</div>
@@ -732,7 +732,7 @@ $$
上述编码结果如图2.6所示:
<div align="center">
<img src="./figures/3-0.png" alt="图片描述" width="90%"/>
<img src="../images/2-figures/3-0.png" alt="图片描述" width="90%"/>
<p>图2.6 编码结果</p>
</div>
@@ -773,7 +773,7 @@ class PositionalEncoding(nn.Module):
上述所有组件,再按照下图的 Tranfromer 结构拼接起来就是一个完整的 Transformer 模型了如图2.7所示:
<div align="center">
<img src="./figures/3-1.png" alt="图片描述" width="80%"/>
<img src="../images/2-figures/3-1.png" alt="图片描述" width="80%"/>
<p>图2.7 Transformer 模型结构</p>
</div>