Gated Recurrent Units ( GRU ) är en grindmekanism för återkommande neurala nätverk som introducerades 2014. Det visade sig att dess effektivitet när det gäller att lösa problem med att modellera musik- och talsignaler är jämförbar med användningen av långtidsminne (LSTM) . [1] Jämfört med LSTM har denna mekanism färre parametrar, eftersom det finns ingen utloppsventil. [2]
betecknar Hadamard-produkten . .
Variabler
Typer av artificiella neurala nätverk | |
---|---|
|
Maskininlärning och datautvinning | |
---|---|
Uppgifter | |
Att lära sig med en lärare | |
klusteranalys | |
Dimensionalitetsreduktion | |
Strukturell prognos | |
Anomali upptäckt | |
Grafisk probabilistiska modeller | |
Neurala nätverk | |
Förstärkningsinlärning |
|
Teori | |
Tidskrifter och konferenser |
|