docs: forbidden link jump

This commit is contained in:
camera-2018
2024-02-09 03:05:08 +08:00
parent d952b7ac3e
commit 3bac8037ab
9 changed files with 15 additions and 16 deletions

View File

@@ -254,7 +254,7 @@ TaskMatrix 的生态愿景
基于这一框架,微软于论文中实现了诸如图像编辑(基于我们摸不到的 GPT4、论文写作、PPT 制作等工作。不难想象,微软即将推出的 Office 365 Copilot 也是基于相关技术及更深层的 API 定制实现的。
而与此相关的工作还可以关注 [HuggingGPT](https://link.zhihu.com/?target=https%3A//arxiv.org/abs/2303.17580),也是微软同期发布的论文,让 AI 能自主调用 Hugging Face 上的通用模型接口解决 AI 问题从而实现一种“AGI”性能。
而与此相关的工作还可以关注 [HuggingGPT](https://arxiv.org/abs/2303.17580),也是微软同期发布的论文,让 AI 能自主调用 Hugging Face 上的通用模型接口解决 AI 问题从而实现一种“AGI”性能。
毫无疑问,我们通常会认为这种通过构造框架来大幅增强 LLMs 能力的可能性,是构建在既有 ICL 和 COT 的能力之上的,而我会围绕此二者重新进行简单展开

View File

@@ -165,7 +165,7 @@ def estimate_house_sales_price(num_of_bedrooms, sqft, neighborhood):
这可行吗?瞎尝试这不得尝试到海枯石烂?
为了避免这种情况,数学家们找到了很多种[聪明的办法](https://link.zhihu.com/?target=http%3A//en.wikipedia.org/wiki/Gradient_descent)来快速找到优秀的权重值。下面是一种:
为了避免这种情况,数学家们找到了很多种[聪明的办法](https://en.wikipedia.org/wiki/Gradient_descent)来快速找到优秀的权重值。下面是一种:
![](https://cdn.xyxsw.site/boxcnXkjzipUjgJpFYXaEhbEN8e.png)
@@ -205,7 +205,7 @@ def estimate_house_sales_price(num_of_bedrooms, sqft, neighborhood):
**如果你还是无法理解,你可以将 cost 类比为你出错误的程度,而数学科学家找到各种方法来降低这种程度,当程度降到最低时,我们就可以知道我们要求的数值了**
另外我忽略了过拟合overfitting的概念。得到一组能完美预测原始数据集中房价的权重组很简单但用这组权重组来预测原始数据集之外的任何新房屋其实都不怎么准确。这也是有许多解决办法的如[正则化](https://link.zhihu.com/?target=http%3A//en.wikipedia.org/wiki/Regularization_%2528mathematics%2529%23Regularization_in_statistics_and_machine_learning)以及使用[交叉验证](https://link.zhihu.com/?target=http%3A//en.wikipedia.org/wiki/Cross-validation_%2528statistics%2529)的数据集)。学习如何应对这一问题,是学习如何成功应用机器学习技术的重点之一。
另外我忽略了过拟合overfitting的概念。得到一组能完美预测原始数据集中房价的权重组很简单但用这组权重组来预测原始数据集之外的任何新房屋其实都不怎么准确。这也是有许多解决办法的如[正则化](https://en.wikipedia.org/wiki/Regularization_(mathematics))以及使用[交叉验证](https://en.wikipedia.org/wiki/Cross-validation_(statistics))的数据集)。学习如何应对这一问题,是学习如何成功应用机器学习技术的重点之一。
换言之,尽管基本概念非常简单,要通过机器学习得到有用的结果还是需要一些技巧和经验的。但是,这是每个开发者都能学会的技巧。
@@ -310,7 +310,7 @@ print('y_pred=',y_test.data)
我们尝试做一个神奇的工作,那就是用神经网络来识别一下手写数字,听上去非常不可思议,但是我要提前说的一点是,图像也不过是数据的组合,每一张图片有不同程度的像素值,如果我们把每一个像素值都当成神经网络的输入值,然后经过一个黑盒,让他识别出一个他认为可能的数字,然后进行纠正即可。
机器学习只有在你拥有数据最好是大量数据的情况下才能有效。所以我们需要有大量的手写「8」来开始我们的尝试。幸运的是恰好有研究人员建立了 [MNIST 手写数字数据库](https://link.zhihu.com/?target=http%3A//yann.lecun.com/exdb/mnist/)它能助我们一臂之力。MNIST 提供了 60,000 张手写数字的图片,每张图片分辨率为 18×18。即有这么多的数据。
机器学习只有在你拥有数据最好是大量数据的情况下才能有效。所以我们需要有大量的手写「8」来开始我们的尝试。幸运的是恰好有研究人员建立了MNIST 手写数字数据库它能助我们一臂之力。MNIST 提供了 60,000 张手写数字的图片,每张图片分辨率为 18×18。即有这么多的数据。
```python
(X_train, y_train), (X_test, y_test) = mnist.load_data()

View File

@@ -71,7 +71,7 @@
因为生成的是人体建模,作者使用了他们以前的工作 EasyMocap 得到**SMPL 模型(就是人体的结构)然后在 SMPL 表面生成一些 latent code包含颜色不透明度和位置也就是下左中的那些点。**
[EasyMocap 的代码](https://link.zhihu.com/?target=https%3A//github.com/zju3dv/EasyMocap)
[EasyMocap 的代码](https://github.com/zju3dv/EasyMocap)
EasyMocap 是通过多视角视频生成骨架以及 SMPL 模型的一个工作,演示视频右下。

View File

@@ -45,7 +45,7 @@ DSSM(Deep Structured Semantic Model)是由微软研究院于CIKM在2013年提出
## SENet双塔模型
SENet由Momenta在2017年提出当时是一种应用于图像处理的新型网络结构。后来张俊林大佬将SENet引入了精排模型[FiBiNET](https%3A//arxiv.org/abs/1905.09433)中其作用是为了将大量长尾的低频特征抛弃弱化不靠谱低频特征embedding的负面影响强化高频特征的重要作用。那SENet结构到底是怎么样的呢为什么可以起到特征筛选的作用
SENet由Momenta在2017年提出当时是一种应用于图像处理的新型网络结构。后来张俊林大佬将SENet引入了精排模型[FiBiNET](https://arxiv.org/abs/1905.09433)中其作用是为了将大量长尾的低频特征抛弃弱化不靠谱低频特征embedding的负面影响强化高频特征的重要作用。那SENet结构到底是怎么样的呢为什么可以起到特征筛选的作用
<div align=center>
<img src="https://camo.githubusercontent.com/ccf54fc4fcac46667d451f22368e31cf86855bc8bfbff40b7675d524bc899ecf/68747470733a2f2f696d672d626c6f672e6373646e696d672e636e2f32303231303730333136313830373133392e706e673f782d6f73732d70726f636573733d696d6167652f77617465726d61726b2c747970655f5a6d46755a33706f5a57356e6147567064476b2c736861646f775f31302c746578745f6148523063484d364c7939696247396e4c6d4e7a5a473475626d56304c336431656d6876626d6478615746755a773d3d2c73697a655f312c636f6c6f725f4646464646462c745f3730237069635f63656e746572" style="zoom:80%;"/>

View File

@@ -250,7 +250,7 @@ class ItemToItemBatchSampler(IterableDataset):
### 邻居节点采样
再得到训练样本之后接下来主要是在训练图上为heads节点采用其邻居节点。在DGL中主要是通过sampler_module.NeighborSampler来实现具体地通过**sample_blocks**方法回溯生成各层卷积需要的block即所有的邻居集合。其中需要注意的几个地方基于随机游走的重要邻居采样DGL已经实现具体参考**[dgl.sampling.PinSAGESampler](https://link.zhihu.com/?target=https%3A//docs.dgl.ai/generated/dgl.sampling.PinSAGESampler.html%3Fhighlight%3Dpinsagesampler)**其次避免信息泄漏代码中先将head → tails,head → neg_tails从frontier中先删除再生成block。
再得到训练样本之后接下来主要是在训练图上为heads节点采用其邻居节点。在DGL中主要是通过sampler_module.NeighborSampler来实现具体地通过**sample_blocks**方法回溯生成各层卷积需要的block即所有的邻居集合。其中需要注意的几个地方基于随机游走的重要邻居采样DGL已经实现具体参考**[dgl.sampling.PinSAGESampler](https://docs.dgl.ai/generated/dgl.sampling.PinSAGESampler.html)**其次避免信息泄漏代码中先将head → tails,head → neg_tails从frontier中先删除再生成block。
```python
class NeighborSampler(object): # 图卷积的邻居采样

View File

@@ -273,5 +273,5 @@ OK 这就是AutoInt比较核心的部分了当然上面自注意部分
**参考资料**
* [AutoInt: Automatic Feature Interaction Learning via Self-Attentive Neural Networks](https://link.zhihu.com/?target=https%3A//arxiv.org/abs/1810.11921)
* [AutoInt: Automatic Feature Interaction Learning via Self-Attentive Neural Networks](https://arxiv.org/abs/1810.11921)
* [AutoInt基于Multi-Head Self-Attention构造高阶特征](https://zhuanlan.zhihu.com/p/60185134)

View File

@@ -138,7 +138,7 @@ def ESSM(dnn_feature_columns, task_type='binary', task_names=['ctr', 'ctcvr'],
测试数据集:
adult[https://archive.ics.uci.edu/ml/datasets/census+income](https://link.zhihu.com/?target=https%3A//archive.ics.uci.edu/ml/datasets/census%2Bincome)
adult[https://archive.ics.uci.edu/ml/datasets/census+income](https://archive.ics.uci.edu/dataset/20/census+income)
将里面两个特征转为label完成两个任务的预测
@@ -157,6 +157,6 @@ https://www.zhihu.com/question/475787809
https://zhuanlan.zhihu.com/p/37562283
美团:[https://cloud.tencent.com/developer/article/1868117](https://link.zhihu.com/?target=https%3A//cloud.tencent.com/developer/article/1868117)
美团:[https://cloud.tencent.com/developer/article/1868117](https://cloud.tencent.com/developer/article/1868117)
Entire Space Multi-Task Model: An Effective Approach for Estimating Post-Click Conversion Rate (SIGIR'2018)

View File

@@ -382,9 +382,8 @@ Progressive Layered Extraction (PLE): A Novel Multi-Task Learning (MTL) Model fo
https://zhuanlan.zhihu.com/p/291406172
爱奇艺:[https://www.6aiq.com/article/1624916831286](https://link.zhihu.com/?target=https%3A//www.6aiq.com/article/1624916831286)
爱奇艺:[https://www.6aiq.com/article/1624916831286](https://www.6aiq.com/article/1624916831286)
美团:[https://mp.weixin.qq.com/s/WBwvfqOTDKCwGgoaGoSs6Q](https://link.zhihu.com/?target=https%3A//mp.weixin.qq.com/s/WBwvfqOTDKCwGgoaGoSs6Q)
多任务loss优化[https://blog.csdn.net/wuzhongqi](https://link.zhihu.com/?target=https%3A//blog.csdn.net/wuzhongqiang/article/details/124258128)
美团:[https://mp.weixin.qq.com/s/WBwvfqOTDKCwGgoaGoSs6Q](https://mp.weixin.qq.com/s/WBwvfqOTDKCwGgoaGoSs6Q)
多任务loss优化[https://blog.csdn.net/wuzhongqi](https://blog.csdn.net/wuzhongqi)