style: html to md syntax

This commit is contained in:
Plumbiu
2023-08-24 10:31:27 +08:00
parent 229e847514
commit 0a96f3658b
88 changed files with 459 additions and 459 deletions

View File

@@ -4,7 +4,7 @@
VIT前Transformer模型被大量应用在NLP自然语言处理当中而在CV领域Transformer的注意力机制attention也被广泛应用比如Se模块CBAM模块等等注意力模块这些注意力模块能够帮助提升网络性能。
<strong>VIT的工作展示了不需要依赖CNN的结构也可以在图像分类任务上达到很好的效果</strong>
**VIT的工作展示了不需要依赖CNN的结构也可以在图像分类任务上达到很好的效果**
同时VIT也影响了近2年的CV领域改变了自2012年AlexNet提出以来卷积神经网络在CV领域的绝对统治地位。
@@ -24,7 +24,7 @@
结构上VIT 采取的是原始 Transformer 模型,方便开箱即用,即在 encoder-decoder 结构上与 NLP 的 Transform 模型并无差别。
主要做出的贡献在于<strong>数据处理和分类头</strong>
主要做出的贡献在于**数据处理和分类头**
### Patch embedding
@@ -38,7 +38,7 @@
> 今天天气不错,我要去看电影
其中<strong>我</strong>则编码为[0.50.60.6]
其中**我**则编码为[0.50.60.6]
而具体来说 Word embedding 分为以下两步