Övervakad inlärning är en av metoderna för maskininlärning , under vilken systemet som testas tvingas lära sig med hjälp av stimulus-responsexempel. Ur cybernetikens synvinkel är det en av typerna av cybernetiska experiment . Det kan finnas något samband mellan ingångar och referensutgångar (stimulus-respons), men detta är okänt. Endast en ändlig uppsättning prejudikat är känd - stimulus-svarspar, som kallas träningsprovet . Baserat på dessa data krävs det att återställa beroendet (för att bygga en modell av stimulus-svar-relationer som är lämpliga för prognoser), det vill säga att bygga en algoritm som kan ge ett ganska exakt svar för vilket objekt som helst. För att mäta svarens noggrannhet, såväl som för att lära sig genom exempel , kan en kvalitetsfunktion introduceras .
Detta experiment är ett specialfall av ett cybernetiskt experiment med feedback. Att sätta upp detta experiment förutsätter att det finns ett experimentellt system, en träningsmetod och en metod för att testa systemet eller mäta egenskaper.
Det experimentella systemet består i sin tur av det testade (använda) systemet, utrymmet för stimuli som tas emot från den yttre miljön och förstärkningskontrollsystemet (regulator av interna parametrar). Som ett förstärkningskontrollsystem kan en automatisk kontrollanordning (till exempel en termostat) eller en mänsklig operatör (lärare) användas, som kan svara på reaktionerna från det testade systemet och miljöstimuli genom att tillämpa speciella förstärkningsregler som ändrar tillståndet av systemets minne.
Det finns två alternativ: (1) när responsen från systemet som testas inte ändrar miljöns tillstånd och (2) när systemets respons förändrar miljöns stimuli. Dessa scheman indikerar den grundläggande likheten mellan ett sådant allmänt system och det biologiska nervsystemet.
Denna distinktion möjliggör en djupare titt på skillnaderna mellan olika sätt att lära, eftersom gränsen mellan övervakat och oövervakat lärande är mer subtil. Dessutom gjorde en sådan skillnad det möjligt att visa vissa begränsningar för artificiella neurala nätverk för S- och R-kontrollerade system (se Perceptron Convergence Theorem ).
Maskininlärning och datautvinning | |
---|---|
Uppgifter | |
Att lära sig med en lärare | |
klusteranalys | |
Dimensionalitetsreduktion | |
Strukturell prognos | |
Anomali upptäckt | |
Grafisk probabilistiska modeller | |
Neurala nätverk | |
Förstärkningsinlärning |
|
Teori | |
Tidskrifter och konferenser |
|