Tsybenkos sats

Den aktuella versionen av sidan har ännu inte granskats av erfarna bidragsgivare och kan skilja sig väsentligt från versionen som granskades den 13 juni 2020; verifiering kräver 1 redigering .

Tsybenkos sats , The Universal Approximation  Theorem är en sats bevisad av George Tsybenko 1989 som säger att ett artificiellt frammatat neuralt nätverk med ett dolt lager kan approximera vilken kontinuerlig funktion som helst av många variabler med vilken precision som helst. Villkoren är: ett tillräckligt antal neuroner i det dolda lagret, bra urval och , var  

 — vikter mellan ingångsneuroner och dolda lagerneuroner,  - vikter mellan kopplingar från neuroner i det dolda lagret och utgångsneuronen,  — förskjutningar för neuroner i inmatningsskiktet.

Formell presentation

Låt vilken kontinuerlig sigmoid som helst fungera , till exempel . Sedan, om ges någon kontinuerlig funktion av reella variabler på (eller någon annan kompakt delmängd av ) och , så finns det vektorer och och en parametriserad funktion så att för alla

var

och och

Länk

Se även