docs: 语句通顺

This commit is contained in:
camera-2018
2023-07-15 22:31:34 +08:00
parent f84cff4796
commit c3c0aedac6
2 changed files with 3 additions and 3 deletions

View File

@@ -2,7 +2,7 @@
# 序言
这是一篇datawhale的相当优秀的推荐系统教程因此特别请相先生废了九牛二虎之力把FunRec的半套内容较为完整的移植到了本wiki中。
这是一篇datawhale的相当优秀的推荐系统教程因此特别废了九牛二虎之力把FunRec的半套内容较为完整的移植到了本wiki中。
## 为什么要专门移植这篇?

View File

@@ -77,8 +77,8 @@ OK 到这里就把MMOE的故事整理完了模型结构本身并不是很
那么, 为什么多任务学习为什么是有效的呢? 这里整理一个看到比较不错的答案:
>多任务学习有效的原因是引入了归纳偏置,两个效果:
> - 互相促进: 可以把多任务模型之间的关系看作是互相先验知识,也称为归纳迁移,有了对模型的先验假设,可以更好提升模型的效果。解决数据稀疏性其实本身也是迁移学习的一个特性,多任务学习中也同样会体现
>- 泛化作用不同模型学到的表征不同可能A模型学到的是B模型所没有学好的B模型也有其自身的特点而这一点很可能A学不好这样一来模型健壮性更强
> - 互相促进: 可以把多任务模型之间的关系看作是互相 先验知识,也称为归纳迁移,有了对模型的先验假设,可以更好提升模型的效果。解决数据稀疏性其实本身也是迁移学习的一个特性,多任务学习中也同样会体现
> - 泛化作用不同模型学到的表征不同可能A模型学到的是B模型所没有学好的B模型也有其自身的特点而这一点很可能A学不好这样一来模型健壮性更强
## MMOE模型的简单复现之多任务预测
### 模型概貌