Kontrollerat återkommande block

Gated Recurrent Units ( GRU ) är en  grindmekanism för återkommande neurala nätverk som introducerades 2014. Det visade sig att dess effektivitet när det gäller att lösa problem med att modellera musik- och talsignaler är jämförbar med användningen av långtidsminne (LSTM) . [1] Jämfört med LSTM har denna mekanism färre parametrar, eftersom det finns ingen utloppsventil. [2]

Arkitektur

betecknar Hadamard-produkten . .

Variabler

Aktiveringsfunktioner

Se även

Anteckningar

  1. Chung, Junyoung; Gulcehre, Caglar; Cho, KyungHyun & Bengio, Yoshua (2014), Empirisk utvärdering av gated recurrent neural Networks on Sequence Modeling, arΧiv : 1412.3555 [cs.NE]. 
  2. Handledning för återkommande neuralt nätverk, del 4 - Implementering av en GRU/LSTM RNN med Python och Theano - WildML . Hämtad 18 maj 2016. Arkiverad från originalet 27 oktober 2015.