fix: dead link

This commit is contained in:
camera-2018
2023-07-20 21:20:53 +08:00
parent 328d45a15d
commit 2e216ef49c
16 changed files with 15 additions and 31 deletions

View File

@@ -260,10 +260,4 @@ $$
# 参考资料
* [基于用户的协同过滤来构建推荐系统https://mp.weixin.qq.com/s/ZtnaQrVIpVOPJpqMdLWOcw](https://mp.weixin.qq.com/s/ZtnaQrVIpVOPJpqMdLWOcw)
* [协同过滤算法概述https://chenk.tech/posts/8ad63d9d.html](https://chenk.tech/posts/8ad63d9d.html)
* B站黑马推荐系统实战课程

View File

@@ -341,5 +341,4 @@ $$
# 参考资料
* [基于用户的协同过滤来构建推荐系统https://mp.weixin.qq.com/s/ZtnaQrVIpVOPJpqMdLWOcw](https://mp.weixin.qq.com/s/ZtnaQrVIpVOPJpqMdLWOcw)
* [协同过滤算法概述https://chenk.tech/posts/8ad63d9d.html](https://chenk.tech/posts/8ad63d9d.html)
* B站黑马推荐系统实战课程

View File

@@ -85,7 +85,7 @@ $$
Ok到这里平淡无奇 前向传播也大致上快说完了, 还差最后一步。 最后这一步就是做多分类问题然后求损失这就是training那边做的事情。 但是在详细说这个之前, 我想先简单回忆下word2vec里面的skip-gram Model 这个模型,如果回忆起来,这里理解起来就非常的简单了。
这里只需要看一张图即可, 这个来自cs231N公开课PPT 我之前整理w2v的时候用到的详细内容可看我[这篇博客](https://zhongqiang.blog.csdn.net/article/details/106948860) 这里的思想其实也是从w2v那边过来的。
这里只需要看一张图即可, 这个来自cs231N公开课PPT 我之前整理w2v的时候用到的这里的思想其实也是从w2v那边过来的。
<div align=center>
<img src="https://img-blog.csdnimg.cn/20200624193409649.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3d1emhvbmdxaWFuZw==,size_1,color_FFFFFF,t_70#pic_center" alt="在这里插入图片描述" style="zoom:70%;" />

View File

@@ -103,7 +103,7 @@ Word2vec包含两个模型**Skip-gram与CBOW**。下面,我们先讲**Skip-
我们滑动窗口再以banking为中心词
<img src="https://ryluo.oss-cn-chengdu.aliyuncs.com/图片4.png"在这里插入图片描述" />
<img src="https://ryluo.oss-cn-chengdu.aliyuncs.com/图片4.png" />
那么,如果我们在整个语料库上不断地滑动窗口,我们可以得到所有位置的$P(o|c)$,我们希望在所有位置上**最大化单词o在单词c周围出现了这一事实**,由极大似然法,可得: