Tsybenkos sats , The Universal Approximation Theorem är en sats bevisad av George Tsybenko 1989 som säger att ett artificiellt frammatat neuralt nätverk med ett dolt lager kan approximera vilken kontinuerlig funktion som helst av många variabler med vilken precision som helst. Villkoren är: ett tillräckligt antal neuroner i det dolda lagret, bra urval och , var
— vikter mellan ingångsneuroner och dolda lagerneuroner, - vikter mellan kopplingar från neuroner i det dolda lagret och utgångsneuronen, — förskjutningar för neuroner i inmatningsskiktet.Låt vilken kontinuerlig sigmoid som helst fungera , till exempel . Sedan, om ges någon kontinuerlig funktion av reella variabler på (eller någon annan kompakt delmängd av ) och , så finns det vektorer och och en parametriserad funktion så att för alla
var
och och