June 16
昨天以自己的标准搞懂了LSTM,GRU
按照我的理解,遗忘门给了神经网络一个选择性遗忘的能力
而不是每个step都带着所有的数据往前跑,等着被tanH稀释掉
然后晚上看了下Torch怎么实现LSTM和GRU
发现只需要提供input size和hidden size
由此可以窥见一点实现细节
昨晚终于按耐不住给hina发了条Line
告诉她在学习室说话让我很困扰这个事情
让她帮我向大家传达
总算是轻松了点吧
一直憋着不说小心憋出毛病来
昨天以自己的标准搞懂了LSTM,GRU
按照我的理解,遗忘门给了神经网络一个选择性遗忘的能力
而不是每个step都带着所有的数据往前跑,等着被tanH稀释掉
然后晚上看了下Torch怎么实现LSTM和GRU
发现只需要提供input size和hidden size
由此可以窥见一点实现细节
昨晚终于按耐不住给hina发了条Line
告诉她在学习室说话让我很困扰这个事情
让她帮我向大家传达
总算是轻松了点吧
一直憋着不说小心憋出毛病来