Rekursiva neurala nätverk ( eng. Rekursivt neuralt nätverk ; RvNN ) är en typ av neurala nätverk som arbetar med data av varierande längd. Rekursiva nätverksmodeller använder hierarkiska mönsterstrukturer i träning. Till exempel bilder som består av scener som kombinerar underscener som innehåller många objekt. Att avslöja scenstrukturen och dess dekonstruktion är inte en trivial uppgift. I det här fallet är det nödvändigt både att identifiera enskilda objekt och hela strukturen på scenen.
I rekursiva nätverk aktiveras neuroner med samma vikt rekursivt enligt nätverkets struktur. Under driften av det rekursiva nätverket utvecklas en modell för att förutsäga strukturer med variabel dimension och skalära strukturer genom aktivering av strukturen i enlighet med topologin. RvNN har framgångsrikt använts för att träna sekventiella strukturer och träd i naturlig språkbehandling , där fraser och meningar modelleras genom ordvektorrepresentationer . RvNN dök ursprungligen upp för den distribuerade representationen av strukturer med hjälp av matematisk logiks predikat . [1] Utvecklingen av rekursiva nätverk och de första modellerna började i mitten av 1990-talet. [2] [3]
I den enklaste arkitekturen konvergerar nätverkets noder till föräldrarna genom en dold lagerviktsmatris som används upprepade gånger i hela nätverket och en icke-linjär aktiveringsfunktion av typen hyperbolisk tangent . Om c 1 och c 2 är n -dimensionella representationer av nätverksnoder, så är deras föräldrar också n - dimensionella vektorer, beräknade som
Här är W den tränade viktmatrisen .
Denna arkitektur, med viss förbättring, används för sekventiell avkodning av naturliga bildscener eller för att strukturera meningar i naturligt språk. [fyra]
Rekursiv vattenfallskorrelation RecCC är ett tillvägagångssätt för att konstruera rekursiva nätverk som arbetar med tre domäner [2] , de första tillämpningarna av detta slag dök upp inom kemi [5] , och förlängningen bildar en riktad acyklisk graf . [6]
2004 föreslogs ett oövervakat rekursivt nätverksinlärningssystem . [7] [8]
Tensor rekursiva nätverk använder en tensorfunktion för alla trädnoder. [9]
Stokastisk gradient descent (SGD) används vanligtvis för träning . Gradienten definieras genom end-to-end error backpropagation framework (BPTS), denna metod är en modifiering av tidsseriebackpropagation som används för att träna återkommande neurala nätverk .
Litteraturen bekräftar förmågan till universell approximation av återkommande nätverk över nätverk av trädtyp. [10] [11]
Ett recurrent neuralt nätverk är ett rekursivt nätverk med en specifik struktur - i form av en linjär kedja. Rekursiva nätverk fungerar på strukturer av en allmän typ, inklusive en hierarki, återkommande nätverk fungerar uteslutande på en linjär progression i tiden, och förbinder föregående tidpunkt med nästa genom ett dolt neuralt lager.
Trädekonätverket är ett effektivt exempel på rekursiva neurala nätverk [12] som använder reservoarberäkningsparadigmet.
Utvidgning av strukturen till grafer ger ett grafiskt neuralt nätverk (GNN), [13] , ett neuralt nätverk för grafer (NN4G), [14] och nyare konvolutionella neurala nätverk för grafer.
Typer av artificiella neurala nätverk | |
---|---|
|
Maskininlärning och datautvinning | |
---|---|
Uppgifter | |
Att lära sig med en lärare | |
klusteranalys | |
Dimensionalitetsreduktion | |
Strukturell prognos | |
Anomali upptäckt | |
Grafisk probabilistiska modeller | |
Neurala nätverk | |
Förstärkningsinlärning |
|
Teori | |
Tidskrifter och konferenser |
|