many chore
This commit is contained in:
FallenYing
2023-08-06 22:46:43 +08:00
parent 97d86551e9
commit 1ea114cd6c
10 changed files with 242 additions and 235 deletions

View File

@@ -81,7 +81,7 @@ $
## ChebNet 及其思考
ChebNet 的引入是当今神经网络大热门的开端,也是图卷积网络的基础。其思路为,使用切比雪夫多项式对卷积过程 K 阶拟合([参考](https://zhuanlan.zhihu.com/p/138420723))
ChebNet 的引入是当今神经网络大热门的开端,也是图卷积网络的基础。其思路为,使用切比雪夫多项式对卷积过程 K 阶拟合 ([参考](https://zhuanlan.zhihu.com/p/138420723))
ChebNet 假设$g\theta$对$\Lambda$的滤波结果是原始特征值多项式函数,而网络的目的是抛弃原本通过矩阵相乘来对卷积结果进行求解,而通过参数学习来对结果进行表示,给出下式
@@ -96,7 +96,7 @@ $$
其中有切比雪夫多项式在矩阵上的表示,具体数学背景可以详细查看
$$
T_0(L) = I\ T_1(L)=L\ T_{n+1}(L)=2LT_n(L) - T_{n-1}(L)
T_0(L) = I\ T_1(L)=L\ T_{n+1}(L)=2LT_n(L) - T_{n-1}(L)
$$
有$\beta_k$为网络的待学习参数
@@ -114,9 +114,7 @@ $$
\mathbf{U}^\mathsf{T}x
\end{matrix}
$$
,并对其中无关输入信号 $x$ 的部分进行改写
并对其中无关输入信号 $x$ 的部分进行改写
$$
\mathbf{U}\begin{matrix}\sum_{k=0}^K
@@ -163,7 +161,6 @@ x
\end{matrix}
$$
作为 ChebNet 的卷积结构
其中值得注意的一点是ChebNet 的 K 值限制了卷积核的多项式次数,但是这里的多项式次数描述了什么呢?其实就是卷积的“范围”,即单次卷积内最高可获得的 K 阶相邻节点信息。在 K=n 的时候,我们从理论上可以通过单次卷积,获取一张连通图上所有结点的信息,而这也是原方法难以计算的根本原因。