Probably Approximately Correct Learning ( PAC - inlärning ) är ett maskininlärningsschema som använder begreppen asymptotisk tillförlitlighet och beräkningskomplexitet . Föreslog 1984 av Leslie Valiant [1] .
I detta schema får läraren prover och måste välja en generaliserande funktion (kallad hypotes ) från en viss klass av möjliga funktioner. Målet är en funktion som med stor sannolikhet (därav "förmodligen" i namnet) har ett lågt generaliseringsfel (därav "ungefärligt korrekt" i namnet). Läraren bör kunna lära ut ett koncept [2] som ger en godtycklig approximationsfaktor, sannolikhet för framgång eller provfördelning .
Modellen utökades senare för att hantera buller (felklassade prover).
En viktig innovation i MIC-systemet är användningen av konceptet med beräkningskomplexiteten för maskininlärning. I synnerhet förväntas läraren hitta effektiva funktioner (som är begränsade i körtid och utrymme som krävs av ett polynom av urvalsstorleken), och läraren måste implementera en effektiv procedur (genom att be om en exempelstorlek begränsad av ett polynom av konceptstorlek, modifierad genom approximation och sannolikhetsgränser ).
För en formell definition används någon given uppsättning , som kallas funktionsutrymmet eller kodningen av alla sampel. Till exempel, i problemet med optisk teckenigenkänning, är särdragsutrymmet , och i problemet med att hitta ett intervall (korrekt klassificering av punkter inuti intervallet som positiva och utanför intervallet som negativa), är särdragsutrymmet mängden av alla avgränsade intervaller i .
Ett annat koncept som används i schemat är konceptet - en delmängd . Till exempel är uppsättningen av alla bitsekvenser i som kodar mönstret för bokstaven "P" ett av begreppen i OCR-problemet. Ett exempel på ett koncept för problemet med att hitta ett intervall är uppsättningen av öppna intervall , som var och en endast innehåller positiva punkter. Klassen av begrepp är en uppsättning begrepp över . Detta kan vara uppsättningen av alla delmängder av ramverket 4-anslutna -matrisen av bitar (teckensnittets bredd är 1).
Låt vara en procedur som genererar ett exempel med hjälp av en sannolikhetsfördelning och ger rätt etikett , som är 1 om och 0 annars. Nu, givet , anta att det finns en algoritm och ett polynom från (och andra relevanta klassparametrar ) så att, givet ett urval av storlek , ritat enligt , då med sannolikhet åtminstone utgången av algoritmen är hypotesen , som har medelvärde fel, mindre än eller lika med för samma fördelning . Vidare, om påståendet ovan för algoritmen är sant för vilket koncept som helst och för någon distribution över och för alla , är det (i praktiken) VPK-lärbart (eller distributionsfritt VPK-lärbart ). I det här fallet anses det vara VPK -inlärningsalgoritmen för .
Under vissa villkor för regelbundenhet är dessa tre villkor likvärdiga:
Maskininlärning och datautvinning | |
---|---|
Uppgifter | |
Att lära sig med en lärare | |
klusteranalys | |
Dimensionalitetsreduktion | |
Strukturell prognos | |
Anomali upptäckt | |
Grafisk probabilistiska modeller | |
Neurala nätverk | |
Förstärkningsinlärning |
|
Teori | |
Tidskrifter och konferenser |
|