Bloc recurent controlat

Gated Recurrent Units ( GRU ) este un  mecanism de poartă pentru rețelele neuronale recurente introdus în 2014. Sa constatat că eficiența sa în rezolvarea problemelor de modelare a semnalelor muzicale și de vorbire este comparabilă cu utilizarea memoriei pe termen lung și scurt (LSTM) . [1] În comparație cu LSTM, acest mecanism are mai puțini parametri, deoarece nu există supapă de evacuare. [2]

Arhitectură

denotă produsul Hadamard . .

Variabile

Funcții de activare

Vezi și

Note

  1. Chung, Junyoung; Gulcehre, Caglar; Cho, KyungHyun & Bengio, Yoshua (2014), Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling, arΧiv : 1412.3555 [cs.NE]. 
  2. Tutorial de rețea neuronală recurentă, partea 4 - Implementarea unui RNN GRU/LSTM cu Python și Theano - WildML . Preluat la 18 mai 2016. Arhivat din original la 27 octombrie 2015.