From c3c0aedac666f41971b79b6e8da6ea0c55d5c222 Mon Sep 17 00:00:00 2001 From: camera-2018 <2907618001@qq.com> Date: Sat, 15 Jul 2023 22:31:34 +0800 Subject: [PATCH] =?UTF-8?q?docs:=20=E8=AF=AD=E5=8F=A5=E9=80=9A=E9=A1=BA?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- 4.人工智能/FunRec概述.md | 2 +- 4.人工智能/ch02/ch2.2/ch2.2.5/MMOE.md | 4 ++-- 2 files changed, 3 insertions(+), 3 deletions(-) diff --git a/4.人工智能/FunRec概述.md b/4.人工智能/FunRec概述.md index 54e4b11..af1441b 100644 --- a/4.人工智能/FunRec概述.md +++ b/4.人工智能/FunRec概述.md @@ -2,7 +2,7 @@ # 序言 -这是一篇datawhale的相当优秀的推荐系统教程,因此特别请相先生废了九牛二虎之力把FunRec的半套内容,较为完整的移植到了本wiki中。 +这是一篇datawhale的相当优秀的推荐系统教程,因此特别废了九牛二虎之力把FunRec的半套内容,较为完整的移植到了本wiki中。 ## 为什么要专门移植这篇? diff --git a/4.人工智能/ch02/ch2.2/ch2.2.5/MMOE.md b/4.人工智能/ch02/ch2.2/ch2.2.5/MMOE.md index 53ae82d..af8dd6f 100644 --- a/4.人工智能/ch02/ch2.2/ch2.2.5/MMOE.md +++ b/4.人工智能/ch02/ch2.2/ch2.2.5/MMOE.md @@ -77,8 +77,8 @@ OK, 到这里就把MMOE的故事整理完了,模型结构本身并不是很 那么, 为什么多任务学习为什么是有效的呢? 这里整理一个看到比较不错的答案: >多任务学习有效的原因是引入了归纳偏置,两个效果: -> - 互相促进: 可以把多任务模型之间的关系看作是互相先验知识,也称为归纳迁移,有了对模型的先验假设,可以更好提升模型的效果。解决数据稀疏性其实本身也是迁移学习的一个特性,多任务学习中也同样会体现 ->- 泛化作用:不同模型学到的表征不同,可能A模型学到的是B模型所没有学好的,B模型也有其自身的特点,而这一点很可能A学不好,这样一来模型健壮性更强 +> - 互相促进: 可以把多任务模型之间的关系看作是互相 先验知识,也称为归纳迁移,有了对模型的先验假设,可以更好提升模型的效果。解决数据稀疏性其实本身也是迁移学习的一个特性,多任务学习中也同样会体现 +> - 泛化作用:不同模型学到的表征不同,可能A模型学到的是B模型所没有学好的,B模型也有其自身的特点,而这一点很可能A学不好,这样一来模型健壮性更强 ## MMOE模型的简单复现之多任务预测 ### 模型概貌