word2vec-I

看到知乎弹出一个建筑学学校排行的广告
配图是罗马式的建筑风格
突然就觉得建筑学其实也不错啊
能够设计出伟大的建筑难道不是很浪漫吗?

然后又想到
过去的我走上今天这条路
充斥了多少偶然呢?
无数的时间点里做了无数的选择
随时都有可能做出奇怪的决定
然后过上完全不一样的人生

时间不断的累积 人变得更加珍惜当下

所以回到正题今天介绍的是一篇博客
[Word2Vec Tutorial - The Skip-Gram Model] (http://mccormickml.com/2016/04/19/word2vec-tutorial-the-skip-gram-model/)
自然语言处理word2vec算法的一篇介绍
这几天一直在研究这个

这个算法真的花了我不少时间在网上查文献和资料
这是找到最适合入门的一篇文章
但是要看懂还是需要一点前置技能的: 对神经网络有一定的了解
具体来说就是理解MLP就可以, Multi Layer Perceptron,最基础的神经网络

然后说一下不足:
作者解释清楚了模型的结构,但是没有告诉我们怎么更新模型
为什么作者写一半就不写了呢?因为剩下的他写到了书里想要卖钱
实在是残念

总之希望能对大家有点帮助吧