首页 > 其他 > 详细

Word embedding

时间:2019-09-06 21:58:29      阅读:90      评论:0      收藏:0      [点我收藏+]

目录

1. 背景知识

2. 如何实现word embedding?

3. 预测架构来生成 word vector

4. word vector的有趣现象

5. 文章的编码

 

 

1. 背景知识

我们在处理语言之前,需要先把字符转化为向量,怎么做呢?

技术分享图片

word embedding的原理:

一个词,可以后上下文找到这个词的语义。

对了,这里有个小知识: “潮水” 中,潮是一个字,而“潮水”才是一个词。

2. 如何实现word embedding?

技术分享图片

prediction based 的训练方式:

如果问题集里面有十万个词,那么这个network 的输出就是一个十万维的向量。

技术分享图片

3. 预测架构来生成 word vector

预测下文的预测模型来生成word vector

技术分享图片

技术分享图片

技术分享图片

一般上面的这个神经网络是一个一维的,提出者表示,没必要是deep的

技术分享图片

其他的预测模型

技术分享图片

4. word vector的有趣现象:

技术分享图片

技术分享图片

5. 文章的编码

方法一:bag of word

技术分享图片

把文章的bag of word 丢到auto-encoder里面就可以得到文章的embedding了

但是词之间的顺序是很重要的,同样的bag of word 可能有不同的意思

技术分享图片

 

 

Reference:

李宏毅,Unsupervised Learning: Word Embedding,http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML17.html

Word embedding

原文:https://www.cnblogs.com/rainwelcome/p/11478202.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!