Inom tillämpad statistik är minsta kvadratmetoden (TLS, TLS - engelska Total Least Squares ) en typ av regression med fel i variabler , en datamodelleringsteknik som använder metoden minsta kvadrater , som tar hänsyn till fel i både beroende och och i oberoende variabler. Metoden är en generalisering av Deming-regression och ortogonal regression och kan appliceras på både linjära och icke-linjära modeller.
Approximation av data med metoden med minsta fulla kvadrater i allmänna termer är ekvivalent med den bästa i Frobenius -normens lågrangsapproximation av datamatrisen [1] .
I minsta kvadraters datamodellering är förlustfunktionen S minimerad ,
där r är avvikelsevektorn och W är viktmatrisen . I den linjära minsta kvadratmetoden innehåller modellen ekvationer som är linjära i parametrarna i vektorn , så att avvikelserna beräknas med formeln
Det finns m observationer i vektor y och n parametrar i β för m > n . X är en m × n matris vars element är antingen konstanter eller funktioner av oberoende variabler x . Viktmatrisen W är idealiskt inversen av observationsvarians -kovariansmatrisen y . Det antas att de oberoende variablerna inte har fel. Uppskattningsparametrarna hittas genom att ställa gradienten till noll, vilket leder till ekvationen [not 1]
Låt oss nu anta att både x och y observeras med fel med varians-kovariansmatriser resp . I detta fall skrivs förlustfunktionen som
,där och är avvikelser för x respektive y . Det är klart att dessa avvikelser inte kan vara oberoende och det måste finnas något samband mellan dem. Om vi skriver funktionen som , uttrycks begränsningarna av m villkor [2] .
Således reduceras problemet till att minimera förlustfunktionen under m begränsningar. Problemet löses med Lagrange-multiplikatorer . Efter några algebraiska transformationer [3] får vi
eller alternativt,
Här är M varians-kovariansmatrisen relaterad till både oberoende och beroende variabler.
I det fall då datafel inte är korrelerade är alla matriser M och W diagonala. Sedan använder vi konstruktionen av en rät linje för punkter.
Och i det här fallet
som visar hur variansen vid ith- punkten bestäms av variansen av de oberoende och beroende variablerna, samt modellen som används för att stämma av data. Uttrycket kan generaliseras genom att notera att parametern är linjens lutning.
Ett uttryck av detta slag används för att approximera pH titreringsdata när små fel i x ger stora fel i y vid en stor lutning.
Först och främst bör det noteras att MRPK-problemet i det allmänna fallet inte har någon lösning, vilket visades redan 1980 [4] . Tänk på ett enkelt fall där en unik lösning finns utan några antaganden.
Beräkningen av MNPC med singularvärdesuppdelning beskrivs i standardtexter [5] . Vi kan lösa ekvationen
med avseende på B , där X är en m -by- n -matris och Y är en m -by- k -matris [not 2]
Det vill säga, vi försöker hitta en matris B som minimerar felmatriserna R och F för X respektive Y . Det är
,där är en förstärkt matris med R och F sida vid sida och är normen för matrisen , kvadratroten ur summan av kvadraterna av alla matriselement, vilket är ekvivalent med kvadratroten ur summan av kvadraterna av längderna av raderna eller kolumnerna i matrisen.
Detta kan skrivas om som
Var finns identitetsmatrisen. Målet är att hitta en matris som minskar rangen med k . Definiera som singularvärdesuppdelningen av den utökade matrisen .
,där V är uppdelat i block som motsvarar formerna på matriserna X och Y .
Med Eckart-Yang-satsen är en approximation som minimerar felfrekvensen en sådan approximation att matriserna och inte ändras, medan de minsta singularvärdena ersätts med nollor. Det vill säga vi vill
så, på grund av linjäritet,
Vi kan ta bort block från matriserna U och Σ genom att förenkla uttrycket till
Detta ger R och F , alltså
Nu, om inte degenerera, vilket inte alltid är sant (observera att beteendet hos PBMC i fallet med degeneration inte är helt klart), kan vi höger multiplicera båda sidor med för att få det nedre blocket av den högra matrisen till den negativa identiteten matris, vilket ger [6]
och då
Implementering i GNU Octave- systemet :
funktion B = tls ( X,Y ) [ mn ] = storlek ( X ) ; % n är bredden på matris X (X[mxn]) Z = [ XY ] ; %Z är förlängningen av X med Y. [ USV ] = svd ( Z , 0 ) ; _ % finner vi [[Singular value decomposition|SVD]] av matris Z. VXY = V ( 1 : n , 1 + n : slut ); % Vi tar ett block av matris V, bestående av de första n raderna och n + 1 sista kolumner VYY = V ( 1 + n : slut , 1 + n : slut ); % Ta det nedre högra blocket av matris V. B = -VXY / VYY ; _ slutetMetoden för att lösa det ovan beskrivna problemet, som kräver att matrisen inte är degenererad, kan utökas något med den så kallade klassiska PBM-algoritmen [7] .
En standardimplementering av den klassiska PBMC-algoritmen finns tillgänglig på Netlib , se även artiklar [8] [9] . Alla moderna implementeringar, baserade till exempel på användningen av den vanliga minsta kvadratmetoden, approximerar matrisen (som i litteraturen betecknas som ), som Van Houffel och Vandewalle gör. Det är dock värt att notera att den resulterande matrisen i många fall inte är en lösning av PBMC [10] .
För icke-linjära system visar liknande resonemang att normalekvationen för en iterativ cykel kan skrivas om som
Om de oberoende variablerna inte har några fel representerar avvikelserna det "vertikala" avståndet mellan datapunkten och anpassningskurvan (eller ytan). I minst fulla kvadrater representerar avvikelserna avståndet mellan datapunkten och anpassningskurvan, mätt i någon riktning. Faktum är att om båda variablerna mäts i samma enheter och felen för båda variablerna är desamma, representerar avvikelsen det kortaste avståndet från datapunkten till kurvanpassningen , dvs. avvikelsevektorn är vinkelrät mot tangenten till kurvan . Av denna anledning kallas denna typ av regression ibland bivariat euklidisk regression [11] eller ortogonal regression .
En allvarlig svårighet uppstår om variablerna inte mäts i samma enheter. Låt oss först titta på att mäta avståndet mellan datapunkterna och kurvan - vad skulle enheten för avståndet vara? Om vi mäter avstånd utifrån Pythagoras sats är det klart att vi måste lägga till enheter mätta i olika enheter, vilket leder till meningslösa resultat. Om vi ändrar skalan på en av variablerna, till exempel mäter vi i gram snarare än kilogram, får vi andra resultat (en annan kurva). För att undvika detta problem med inkommensurabilitet föreslås det ibland att konvertera dem till dimensionslösa storheter - detta kan kallas normalisering eller standardisering. Det finns dock olika sätt att göra detta, vilket leder till icke-likvärdiga modeller. Ett tillvägagångssätt är att normalisera med en känd (eller uppskattad) mätnoggrannhet, och därigenom minimera Mahalanobis-avståndet till punkter på linjen och ge en maximal sannolikhetslösning . Okänd mätnoggrannhet kan hittas med hjälp av variansanalys .
Kortfattat har metoden med minsta hela kvadrater inte egenskapen invarians med avseende på måttenheter, dvs. den är inte skalinvariant . För användbarheten av modellen kräver vi att denna egenskap är uppfylld. Ett ytterligare framsteg är förståelsen att avvikelser (avstånd) uppmätta i andra enheter kan kombineras om multiplikation används snarare än addition. Betrakta en approximation av en rak linje, för varje datapunkt är produkten av de horisontella och vertikala avvikelserna lika med två gånger arean av triangeln som bildas av avvikelsesegmenten och den passande räta linjen. Vi väljer den räta linjen som minimerar summan av dessa områden. Nobelpristagaren Paul Samuelson bevisade 1942 att i det tvådimensionella fallet uttrycks denna räta linje enbart i termer av förhållanden mellan standardavvikelser och koefficientkorrelationer, som (1) uppfyller ekvationen om observationerna är på en rät linje; (2) visa skalinvarians, (3) visa invarians vid utbyte av variabler [12] . Denna linje har återupptäckts inom olika discipliner och är känd som den standardiserade huvudaxeln [13] [14] , reducerad huvudaxel, funktionella geometriska medel [15] , minsta kvadraters regression, diagonal regression och linjen med minsta områden. Tofallis [16] utökade detta tillvägagångssätt till att arbeta med flera variabler.
Minsta kvadrater och regressionsanalys | |||||||||
---|---|---|---|---|---|---|---|---|---|
Beräkningsstatistik _ |
| ||||||||
Korrelation och beroende |
| ||||||||
Regressionsanalys |
| ||||||||
Regression som statistisk modell |
| ||||||||
Variansupplösning |
| ||||||||
Modellstudie |
| ||||||||
Förutsättningar |
| ||||||||
Experimentplanering _ |
| ||||||||
Numerisk uppskattning | |||||||||
Ansökningar |
|