登录    |    注册

门控循环神经元(Gated recurrent units (cells))

2020-09-09 16:18:24

是LSTM的变体。它们同样使用门来抑制信息的流失,但是只用两个门:更新门和重置门。这使得构建它们付出的代价没有那么高,而且运行速度更加快了,因为它们在所有的地方使用了更少的连接。 从本质上来说LSTM和GRU有两个不同的地方: * 第一:GRU神经元没有被输出门保护的隐神经元; * 第二:GRU把输出门和遗忘门整合在了一起,形成了更新门。核心的思想就是如果你想要一些新的信息,那么你就可以遗忘掉一些陈旧的信息(反过来也可以)。