From bc09a33aaac4b694c61fbd716e9cf29bb185b1af Mon Sep 17 00:00:00 2001
From: zzm <73225535+HanWu311@users.noreply.github.com>
Date: Wed, 19 Apr 2023 09:56:40 +0800
Subject: [PATCH] Update 4.6.7.1VIT.md
---
4.人工智能/4.6.7.1VIT.md | 9 ++++++---
1 file changed, 6 insertions(+), 3 deletions(-)
diff --git a/4.人工智能/4.6.7.1VIT.md b/4.人工智能/4.6.7.1VIT.md
index ee601b6..33ef80b 100644
--- a/4.人工智能/4.6.7.1VIT.md
+++ b/4.人工智能/4.6.7.1VIT.md
@@ -2,9 +2,12 @@
## 前言
-```
- VIT前Transformer模型被大量应用在NLP自然语言处理当中,而在CV领域,Transformer的注意力机制attention也被广泛应用,比如Se模块,CBAM模块等等注意力模块,这些注意力模块能够帮助提升网络性能。而VIT的工作展示了不需要依赖CNN的结构,也可以在图像分类任务上达到很好的效果。同时VIT也影响了近2年的CV领域,改变了自2012年AlexNet提出以来卷积神经网络在CV领域的绝对统治地位。
-```
+ VIT前Transformer模型被大量应用在NLP自然语言处理当中,而在CV领域,Transformer的注意力机制attention也被广泛应用,比如Se模块,CBAM模块等等注意力模块,这些注意力模块能够帮助提升网络性能。
+
+ 而VIT的工作展示了不需要依赖CNN的结构,也可以在图像分类任务上达到很好的效果。
+
+ 同时VIT也影响了近2年的CV领域,改变了自2012年AlexNet提出以来卷积神经网络在CV领域的绝对统治地位。
+
在本节内容中我们会带你了解这一框架。