Regularisering inom statistik , maskininlärning , omvänd problemteori är en metod för att lägga till några ytterligare begränsningar till ett tillstånd för att lösa ett illa ställt problem eller förhindra överanpassning . Denna information kommer ofta i form av en påföljd för modellens komplexitet. Till exempel kan dessa vara restriktioner för jämnheten hos den resulterande funktionen, eller restriktioner för vektorrumsnormen .
Ur en Bayesiansk synvinkel motsvarar många regleringsmetoder att lägga till några tidigare distributioner till modellparametrarna.
Några typer av regularisering:
Överanpassning visar sig i de flesta fall i det faktum att de resulterande polynomen har för stora koefficienter. Följaktligen är det nödvändigt att lägga till en straffavgift för för stora koefficienter till den objektiva funktionen .
Det finns ingen lösning för multikriterieoptimering eller optimering där målfunktionens domän är ett utrymme där det inte finns någon linjär ordning eller det är svårt att införa det. Nästan alltid finns det punkter i domänen för den funktion som optimeras och som uppfyller begränsningarna, men värdena vid punkterna är ojämförliga. För att hitta alla punkter på Pareto-kurvan , använd skalarisering [1] . Inom optimering är regularisering en allmän skalariseringsteknik för ett optimeringsproblem med två kriterier [2] . Genom att variera lambda-parametern - elementet som måste vara större än noll i den dubbla konen med avseende på vilken ordningen definieras - kan du få olika punkter på Pareto-kurvan .
Maskininlärning och datautvinning | |
---|---|
Uppgifter | |
Att lära sig med en lärare | |
klusteranalys | |
Dimensionalitetsreduktion | |
Strukturell prognos | |
Anomali upptäckt | |
Grafisk probabilistiska modeller | |
Neurala nätverk | |
Förstärkningsinlärning |
|
Teori | |
Tidskrifter och konferenser |
|