Mänskligt minne är associativt, det vill säga ett visst minne kan generera ett stort område som är associerat med det. Det ena föremålet påminner oss om ett annat, och det andra om ett tredje. Om vi tillåter våra tankar kommer de att röra sig från ämne till ämne längs kedjan av mentala associationer . Till exempel kan några takter med musik framkalla en hel skala av sensoriska minnen, inklusive landskap, ljud och lukter. Däremot är konventionellt datorminne lokalt adresserbart, presenterar en adress och hämtar information på den adressen.
Ett artificiellt neuralt nätverk med återkoppling bildar ett associativt minne. Liksom mänskligt minne, enligt en given del av den nödvändiga informationen, hämtas all information från "minnet".
Autoassociativt minne är ett minne som kan komplettera eller korrigera en bild, men som inte kan associera den resulterande bilden med en annan bild. Detta faktum är resultatet av en ennivåstruktur av associativt minne, där vektorn visas vid utgången av samma neuroner som tar emot ingångsvektorn. Sådana nätverk är instabila. För ett stabilt nätverk resulterar successiva iterationer i mindre och mindre förändringar i produktionen tills utsignalen slutligen blir konstant. För många nätverk tar processen aldrig slut. Instabila nätverk har intressanta egenskaper och har studerats som exempel på kaotiska system. I en viss mening kan detta uppnås utan återkoppling, till exempel med en perceptron för fall där stabilitet är viktigare än att studera kaotiska system.
Heteroassociativt minne är ett minne där, när en stimulans anländer till en uppsättning neuroner, uppstår ett återkopplingssvar på en annan uppsättning neuroner.
Den första autoassociativa minnesmodellen utvecklades av Hopfield, Hopfield Neural Network . För att uppnå stabilitet måste viktkoefficienterna väljas på ett sådant sätt att de bildar energiminima vid de erforderliga hörnen av en enhetshyperkub.
Därefter utvecklade Kosko idéerna från Hopfield och utvecklade en modell för heteroassociativt minne - dubbelriktat associativt minne (BDA).
Men exakt samma resultat kan uppnås med en bred klass av återkommande neurala nätverk , ett klassiskt exempel på vilka är Elman-nätverket , medan stabilitetsproblemet försvinner, och så strikta villkor ställs inte på viktkoefficienterna, på grund av vilka nätverket har en större kapacitet. Dessutom kan återkommande neurala nätverk beskriva en tillståndsmaskin utan att förlora alla fördelar med artificiella neurala nätverk.
Ett antal verk betraktade möjligheterna med begreppet associativt minne som tillämpat på programmeringsspråk och hårdvaruimplementering av processorn . Och följande användes som en fungerande definition:
Associativt minne förstås vanligtvis som en viss uppsättning eller samling av element som har förmågan att lagra information. Dessa element nås samtidigt och parallellt i enlighet med innehållet i de data som lagras i dem, och inte genom att specificera adressen eller platsen för elementet.
Men en sådan förståelse av associativt minne återspeglar i huvudsak bara det faktum att det finns relationer mellan data och har ingenting att göra med själva informationslagringsmekanismen. Därför används termen "innehållsadresserbart minne" (CAM) för att hänvisa till en sådan informationslagringsmekanism.
När tonvikten väl lades på designen av "innehållsadresserbart minne" blev det möjligt att förenkla kraven på själva förståelsen av associativitet, och att utveckla enheter som bara har associativitet i någon mening. Så, till exempel, det första som har förenklats är antagandet att parallellitet vid utförande av sökoperationer inte i huvudsak är en grundläggande funktionell egenskap.
Den andra förenklingen hänger samman med förnekandet av behovet av distribuerat minne, eftersom associativitet i betydelsen minne, med adressering efter innehåll, formellt kan uppnås utan behov av att distribuera information mellan minneselement. Däremot är det möjligt att lagra en informationsenhet integrerat i en viss cell, med endast information om den här cellens direkta kopplingar till andra - så vi kommer att förstå semantiska nätverk . Dessa principer används också vid indexering och sökning i moderna databaser. Naturligtvis, i denna mening, motsäger denna förenkling konnektivismens idéer (som är baserade på artificiella neurala nätverk ), och flyter smidigt till symbolismens idéer.
Det viktigaste som går förlorat i denna förenkling är en av det biologiska minnets fantastiska egenskaper. Det är känt att olika typer av skador på hjärnvävnaden leder till brott mot minnets funktionella egenskaper. Ändå visade det sig vara exceptionellt svårt att isolera de fenomen som är förknippade med lokaliseringen av minnesfunktioner i arbetet med individuella neurala strukturer. Förklaringen till detta bygger på antagandet att minnesspår är representerade i hjärnan i form av rumsligt fördelade strukturer som bildas som ett resultat av någon transformation av primära uppfattningar.
Men ändå, även om med en sådan förenkling, gick ett antal biologiskt rimliga egenskaper förlorade, vilket är viktigt i hjärnmodellering , men i teknisk mening blev det klart hur man implementerar ett minne som kan adresseras med innehåll. Tack vare detta dök idéer om hashing upp , som sedan implementerades både i programmeringsspråk och i hårdvaruimplementeringen av vissa processorer.
Den tredje förenklingen är relaterad till noggrannheten i att matcha den information som krävs. Sampling av data baserat på dess innehåll innebär alltid någon form av jämförelse av en externt specificerad nyckel, som bör sökas, med en del eller all information som finns lagrad i minnesceller. Syftet med jämförelsen ska inte alltid vara utseendet på information som matchar nyckeln. Till exempel när du söker efter värden som finns inom ett givet intervall. I det här fallet har vi det klassiska sättet att använda SQL när vi väljer från en databas . Men ett sökalternativ är möjligt, där det är nödvändigt att bland datamängden hitta de som bäst (i betydelsen av ett visst mått) motsvarar nyckelinformationen.
I denna formulering ligger problemet med associativ sampling mycket nära problemet med mönsterigenkänning . Men de metoder som används är avgörande - om betydelsen av associativitet inte är föremål för de förenklingar som beskrivs här, så har vi att göra med mönsterigenkänning med hjälp av artificiella neurala nätverk , annars har vi att göra med att optimera driften av databaser (liksom hårdvara). cacher för processorer) eller metoder för associativ representation av data (till exempel semantiska nätverk ). Härifrån borde det vara klart att den associativa representationen av data, och vissa metoder för att arbeta med innehållsadresserbart minne, inte är tillräckliga för att förstå associativt minne i ordets fulla bemärkelse.
Den fjärde förenklingen kan relateras till det så kallade problemet med tidsmässiga associationer , som ur programmeringssynpunkt hör till teorin om automater . Dessa problem är förknippade med utvecklingen av metoder för att lagra och hämta tidsordnade sekvenser från minnet. Samtidigt kan de förgrena sig och bilda sekundära alternativa sekvenser, och övergången till en av dem bestäms av innehållet i viss bakgrund eller kontextuell information. Dessa sekvenser kan också innehålla slutna slingor.
Alltså, ur programmeringssynpunkt eller symbolism , i förhållande till associativt minne, finns det samma problem och uppgifter som i artificiell intelligens . Skillnaden är att inom programmering kan förenklingar göras och metoder konstrueras som endast delvis tillfredsställer förståelsen av associativt minne. Medan konnektivism försöker lösa problemet med associativt minne, har metoder som inte innehåller förenklingar i de bemärkelser som beskrivs här, viss stokasticitet och oförutsägbarhet i metodens mening, men ger i slutändan ett meningsfullt resultat inom områdena mönsterigenkänning eller adaptiv kontrollera.
Typer av artificiella neurala nätverk | |
---|---|
|
Maskininlärning och datautvinning | |
---|---|
Uppgifter | |
Att lära sig med en lärare | |
klusteranalys | |
Dimensionalitetsreduktion | |
Strukturell prognos | |
Anomali upptäckt | |
Grafisk probabilistiska modeller | |
Neurala nätverk | |
Förstärkningsinlärning |
|
Teori | |
Tidskrifter och konferenser |
|