Spektral nedbrytning av en matris

Den spektrala nedbrytningen av en matris eller nedbrytningen av en matris baserad på egenvektorer är en representation av en kvadratisk matris som en produkt av tre matriser , där är en matris vars kolumner är matrisens egenvektorer , är en diagonal matris med motsvarande egenvärden ​på huvuddiagonalen är matrisinversen av matrisen .

Endast matriser som har en komplett uppsättning egenvektorer, det vill säga en uppsättning av n linjärt oberoende egenvektorer, där n är ordningen för matrisen , kan representeras i denna form .

Spektral nedbrytning kan användas för att hitta egenvärden och egenvektorer för en matris, lösa system av linjära ekvationer, invertera en matris, hitta determinanten för en matris och beräkna analytiska funktioner för matriser.

Teorin om egenvektorer och matrisegenvärden

En icke-noll N - dimensionell vektor är en egenvektor till en kvadratmatris om den uppfyller den linjära ekvationen

,

där är en skalär som kallas matrisens egenvärde och som motsvarar egenvektorn . Det vill säga att egenvektorerna är de vektorer som den linjära transformationen bara förlänger eller förkortar, och egenvärdet är längdförändringsfaktorn. Ekvationen ovan kallas för egenvärdesekvation eller egenvärdeproblem .

Ekvationen ovan kan ses som ett homogent system av linjära ekvationer

,

där är en skalär parameter och är en icke-trivial lösning av ett homogent system av linjära ekvationer. Icke-triviala lösningar av ett homogent system av linjära ekvationer existerar endast när determinanten för systemets matris är lika med noll, dvs.

Polynomet kallas det karakteristiska polynomet i matrisen , och ekvationen ovan kallas den karakteristiska ekvationen . Den karakteristiska ekvationen är en polynomekvation av N: te ordningen i variabeln . Denna ekvation har olika rötter, där . Mängden lösningar, det vill säga egenvärden, kallas matrisens spektrum [1] [2] [3] .

Vi faktoriserar det karakteristiska polynomet :

Det naturliga talet n i kallas egenvärdets algebraiska multiplicitet . Om fältet av skalärer är algebraiskt stängt är summan av algebraiska multipliciteter N :

För varje egenvärde löses en separat ekvation för egenvektorer:

Det finns linjärt oberoende lösningar för varje sådan ekvation. Linjära kombinationer av m i - lösningar är egenvektorer associerade med egenvärdet . Heltalet m i kallas värdets geometriska multiplicitet . Algebraisk multiplicitet och geometrisk multiplicitet kanske inte sammanfaller, men alltid . Det totala antalet linjärt oberoende egenvektorer kan beräknas genom att summera de geometriska multipliciteterna

Egenvektorer kan indexeras med egenvärden med hjälp av ett dubbelindex, vilket då skulle betyda den j -te egenvektorn för det i -te egenvärdet. En enklare indexering använder ett enda index där .

Matrisupplösning med egenvektorer

Låta vara en kvadratisk matris med n linjärt oberoende egenvektorer q i ( ). Då kan du sönderdela

,

där är en kvadratisk matris vars i -te kolumn är matrisens egenvektor , och är en diagonal matris vars diagonala element är motsvarande egenvärden, . Observera att endast diagonaliserbara matriser kan dekomponeras på detta sätt. Till exempel kan en skiftmatris inte diagonaliseras.

Vanligtvis är egenvektorerna qi normaliserade , men detta är inte nödvändigt, en onormaliserad uppsättning av n egenvektorer v i kan också användas som matriskolumner .

Nedbrytningen kan erhållas från egenvektorernas fundamentala egenskap:

Exempel

Verklig matris

kan reduceras till en diagonal form genom multiplikation med en icke-singular matris

Sedan

för någon riktig diagonal matris .

Om vi ​​multiplicerar båda sidor av likheten till vänster med , får vi:

Likheten ovan kan delas upp i två ekvationssystem :

Ta ut egenvärdena x och y :

Vi får

vilket ger oss två vektorekvationer:

Det senare systemet kan representeras av en enda vektorekvation, inklusive lösningar för två egenvärden:

,

där representerar de två egenvärdena x och y , och representerar vektorerna och .

Flytta till vänster sida och ta ut , vi får

Eftersom matrisen inte är degenererad är det viktigt att vektorn inte är null. Det är därför,

Sedan

ger oss egenvärdeslösningarna för matrisen som eller , och den resulterande diagonala matrisen från matrisnedbrytningen är då .

Om vi ​​byter tillbaka lösningarna i ekvationssystemet ovan får vi

Att lösa ekvationerna får vi

Då är matrisen som krävs för att faktorisera matrisen

Det är:

Matrisinversion via egenvektorexpansion

Låt matrisen ha en spektral nedbrytning och inget av matrisens egenvärden är lika med noll. I det här fallet är matrisen icke - singular , och dess inversa matris hittas av formeln

Om matrisen är en symmetrisk matris så är matrisen garanterat ortogonal , dvs. Och eftersom matrisen är diagonal , är dess invers lätt att beräkna:

Praktiskt värde [4]

Om egenvektornedbrytning används på en matris mätt med verkliga data , kan den inversa matrisen vara sämre betingad om alla egenvärden används i oförändrad form. Poängen är att när egenvärdena blir relativt små är bidraget från deras inverser till den inversa matrisen stort. Dessa nästan nollvärden eller "brus" i mätsystemet kommer att ha en onödig påverkan och kan störa inversionslösningen.

Två begränsningsalternativ har föreslagits: att förkasta små eller noll egenvärden och kopiera det minsta tillförlitliga värdet till mindre.

Det första begränsningsalternativet liknar sparse den ursprungliga matrisen, där element som anses vara obetydliga tas bort. Men om lösningsprocessen visar sig vara nära ljudnivån kan återställningen ta bort komponenter som påverkar den önskade lösningen.

Det andra begränsningsalternativet kopierar egenvärdet så att mindre värden har mindre effekt på resultatet av inversionen, men ändå bidrar till att lösningar även nära ljudnivån kan hittas.

Ett tillförlitligt egenvärde kan hittas under antagandet att egenvärdena är extremt nära och det låga värdet är en bra representation av mätbruset (som antas vara lågt för de flesta system).

Om egenvärdena är ordnade efter magnitud kan ett tillförlitligt egenvärde hittas genom att minimera Laplacian för de sorterade egenvärdena [5] :

,

där egenvärden är markerade med s för att beteckna sortering (från engelska sorterad). Placeringen av minimum är det minsta tillförlitliga egenvärdet. I mätsystem är kvadratroten av detta tillförlitliga egenvärde medelbruset i förhållande till de andra komponenterna i systemet.

Funktionskalkyl

Låt den kvadratiska matrisen ha en sönderdelning . Att sedan höja matrisen till en naturlig kraft beräknas med en enkel formel:

här avbryts produkterna i mellanuttrycket . Operationen med att höja till en naturlig kraft låter dig definiera olika funktioner över matriser, som uttrycks i form av potensserier. Låt funktionen ha en expansion i en effektserie

Att dekomponera en matris i termer av egenvärden gör att du snabbt kan beräkna potensserien från matrisen. Låt f  ( x ) ges av en potensserie

I enlighet med formeln för matrisens potens ovan kan effektserien för matrisen beräknas med hjälp av formeln

,

var är en funktion av den diagonala matrisen , som kan beräknas mycket enkelt:

I detta fall är de off-diagonala elementen i matrisen lika med noll. Det vill säga är också en diagonal matris. Som ett resultat reduceras beräkningen av en funktion från en matris till en enkel beräkning av en funktion från vart och ett av egenvärdena.

En liknande teknik fungerar också mer allmänt i den holomorfa funktionella kalkylen , med hjälp av formeln

det är möjligt att beräkna potensserier från matriser som innehåller negativa exponenter. Även här används det att .

Exempel

Kvadratroten ur en matris:

Låt oss kvadrera det och se till att det är korrekt:

Matrisexponenten definieras på liknande sätt :

Nedbrytning av specialmatriser

Normala matriser

En komplex kvadratisk matris är normal (vilket betyder att , var är hermitiskt konjugat ) om och bara om det kan brytas ner

där är enhetlig (vilket betyder att ) och är en diagonal matris [6] . Matrisens kolumner bildar en ortonormal bas och är egenvektorer till matrisen med motsvarande egenvärden .

Om klassen av matriser är begränsad till hermitiska matriser ( ), så har den bara verkliga värden. Om klassen av matriser är begränsad till enhetliga matriser, ligger alla värden på den komplexa enhetscirkeln, det vill säga .

Verkliga symmetriska matriser

För alla reella symmetriska matriser är egenvärdena reella och egenvektorerna kan väljas att vara reella och ortonormala . Således kan en verklig symmetrisk matris sönderdelas till

där är en ortogonal matris vars kolumner är matrisens egenvektorer och är en diagonal matris vars värden på diagonalen är lika med matrisens egenvärden [7] .

Användbara fakta

Användbara fakta om egenvärden

  • Produkten av egenvärden är lika med matrisdeterminanten Observera att varje egenvärde höjs till potensen n i , en algebraisk multiplicitet.
  • Summan av egenvärdena är lika med spåret av matrisen Observera att varje egenvärde multipliceras med n i , en algebraisk multiplicitet.
  • Om det finns egenvärden för matrisen och är inverterbar, så är matrisens egenvärden helt enkelt .
  • Om det finns egenvärden för matrisen så är matrisens egenvärden helt enkelt lika för vilken holomorf funktion f som helst .

Användbara fakta om egenvektorer

  • Om matrisen är hermitisk och har full rang, kan egenvektorbasen väljas att vara ömsesidigt ortogonal . Egenvärden är verkliga.
  • Matrisens egenvektorer är desamma som matrisens egenvektorer .
  • Egenvektorer definieras upp till en konstant faktor. Det vill säga, om , då är också en egenvektor för någon skalär c ≠ 0 . I synnerhet och (för alla ) är också egenvektorer.
  • I fallet med degenererade egenvärden (ett egenvärde förekommer mer än en gång) har egenvektorerna en extra grad av rotationsfrihet, det vill säga varje linjär (ortonormal) kombination av egenvektorer med samma egenvärde är i sig en egenvektor.

Användbara fakta om egenvektornedbrytning

  • En matris kan dekomponeras med egenvektorer om och endast om antalet linjärt oberoende egenvektorer är lika med egenvektorns dimension:
  • Om har inga flera rötter, det vill säga om , då kan sönderdelas.
  • Det följer inte av påståendet "matrisen kan dekomponeras" att den har en invers.
  • Det följer inte av påståendet "matrisen har en invers" att den kan dekomponeras med hjälp av egenvektorer. Motexemplet är matrix , som är en inverterbar defektmatris .

Användbara fakta om den inversa matrisen

  • En matris är inverterbar om och bara om
  • Om och , den inversa matrisen ges av likheten

Numeriska beräkningar

Numerisk beräkning av egenvärden

Låt oss anta att det krävs för att beräkna egenvärdena för en given matris. Om dimensionerna på matrisen är små kan egenvärdena beräknas symboliskt med det karakteristiska polynomet . Detta är dock ofta inte möjligt för stora matriser, i vilket fall numeriska metoder används .

I praktiken beräknas inte egenvärdena för stora matriser med det karakteristiska polynomet. Beräkningen av ett polynom blir i sig tidskrävande och tidskrävande, och de exakta (symboliska) rötterna till ett polynom av hög grad är svåra att beräkna och uttrycka - det följer av Abels sats om olösligheten av ekvationer i radikaler att rötterna till polynom av hög grad (5 och högre) kan inte i det allmänna fallet presenteras som uttryck från rötterna av den n :e graden. Av denna anledning fungerar allmänna algoritmer för att hitta egenvektorer och egenvärden iterativt .

Det finns iterativa numeriska algoritmer för att approximera polynomens rötter, såsom Newtons metod , men det är i allmänhet opraktiskt att konstruera ett karakteristiskt polynom och sedan tillämpa dessa metoder. En anledning är att små avrundningsfel i koefficienterna för det karakteristiska polynomet kan leda till stora fel i egenvärdena och egenvektorerna – rötterna är en extremt dåligt betingad funktion av koefficienterna [8] .

En enkel och korrekt iterativ metod är effektmetoden - en slumpmässig vektor väljs och en sekvens av enhetsvektorer beräknas

Denna sekvens konvergerar nästan alltid till en egenvektor som motsvarar det största egenvärdet, förutsatt att vektorn som motsvarar denna egenvektor har en komponent som inte är noll i basen av egenvektorer (och även förutsatt att det bara finns ett största egenvärde). Denna enkla algoritm är användbar i vissa praktiska tillämpningar. Till exempel använder Google det för att beräkna länkrankningen för dokument i deras sökmotor [9] . Effektmetoden är också utgångspunkten för många andra komplexa algoritmer. Till exempel, om du lagrar inte bara den sista vektorn i sekvensen, utan tittar i det linjära spannet av alla vektorer i sekvensen, kan du få en bättre (konvergerande snabbare) approximation av egenvektorn, och denna idé är grunden för Arnoldi iteration [8] . Den också viktiga QR-algoritmen är också baserad på en något modifierad effektmetod [8] .

Numerisk beräkning av egenvektorer

När egenvärdena har beräknats kan egenvektorerna beräknas genom att lösa ekvationen

med Gaussisk eliminering eller någon annan metod för att lösa en matrisekvation .

Men i praktiska metoder för att hitta egenvärdena för stora matriser, beräknas egenvektorerna vanligtvis på andra sätt som en biprodukt av egenvärdesberäkningen. I effektmetoden , till exempel, beräknas egenvektorn i allmänhet innan egenvärdet beräknas (vilket vanligtvis beräknas enligt Rayleigh-relationen för egenvektorn) [8] . I QR-algoritmen för en hermitisk matris (eller vilken normal matris som helst ) erhålls ortonormala egenvektorer som en matrisprodukt från stegen i algoritmen [8] . (För mer allmänna matriser utför QR-algoritmen först en Schur-sönderdelning , från vilken egenvektorerna kan erhållas genom tillbakasubstitution [10] ) För hermitiska matriser är sökalgoritmen för dela-och-härska-egenvärden mer effektiv än QR-algoritm om både egenvektorer och egenvärden behövs [8] .

Ytterligare ämnen

Generaliserade egenrum

Kom ihåg att den geometriska multipliciteten av ett egenvärde kan beskrivas som dimensionen av det associerade egenutrymmet, matrisens kärna . Algebraisk multiplicitet kan också ses som en dimension - det är dimensionen av det associerade generaliserade egenrummet (i den första meningen), som är kärnan i en matris för alla tillräckligt stora k . Det vill säga, det är utrymmet för generaliserade egenvektorer (i den första meningen), där en generaliserad egenvektor är vilken vektor som helst som till slut blir 0 om den används tillräckligt många gånger. Vilken egenvektor som helst är en generaliserad egenvektor, och därför finns vilket egenutrymme som helst i det associerade generaliserade egenutrymmet. Detta ger ett enkelt bevis på att geometrisk multiplicitet aldrig överstiger algebraisk multiplicitet.

Denna användning ska inte förväxlas med det generaliserade egenvärdeproblem som beskrivs nedan.

Konjugera egenvektor

En konjugerad egenvektor är en vektor som efter en linjär transformation går in i (upp till multiplikation med en skalär) i sitt konjugat. Skalären kallas då det konjugerade egenvärdet för den linjära transformationen. Konjugerade egenvektorer och egenvärden representerar i huvudsak samma information som vanliga egenvektorer och egenvärden, men uppstår när andra koordinatsystem används. Motsvarande jämlikhet blir

Till exempel, i teorin om koherent elektromagnetisk spridning, representerar den linjära transformationen den åtgärd som vidtas av spridningsobjektet, och egenvektorerna representerar polarisationstillstånden för den elektromagnetiska vågen. Inom optik definieras koordinatsystemet ur vågsynpunkt, känt som Forward Scattering Alignment ( eng. Forward Scattering Alignment , FSA), och genererar vanliga egenvärdeekvationer, medan i radar definieras koordinatsystemet från sidan av radarn är den känd som backscattering alignment ( Eng. Back Scattering Alignment , BSA) och genererar ekvationer för konjugerade egenvektorer.   

Det generaliserade problemet med att hitta egenvärden

Det generaliserade problemet med att hitta egenvärden (i den andra betydelsen) är problemet med att hitta en vektor som uppfyller likheten

var och är matriser. Om tillfredsställer denna likhet för vissa , då kallar vi den generaliserade egenvektorn för matriserna och (i den andra betydelsen), och kallas det generaliserade egenvärdet för matriserna och (i den andra betydelsen), motsvarande den generaliserade egenvektorn . Möjliga värden måste uppfylla följande likhet

Om det är möjligt att hitta linjärt oberoende vektorer så att för alla , definierar vi matriser och enligt följande

Då gäller följande jämlikhet

Bevis

Och eftersom det är reversibelt multiplicerar vi med denna invers och vi får det önskade resultatet.

Uppsättningen av matriser av formen , där är ett komplext tal, kallas en kärve . Termen bunt av matriser kan också syfta på ett par matriser [11] .

Om matrisen är inverterbar kan det ursprungliga problemet skrivas om som

vilket är standardegenvärdesproblemet. I de flesta situationer är det dock oönskat att utföra denna inversion, utan att lösa det generaliserade egenvärdesproblemet. Detta är särskilt viktigt om matriserna och är Hermitian , eftersom det i det här fallet vanligtvis inte är Hermitian i allmänhet och de viktiga egenskaperna hos lösningen inte längre visas.

Om båda matriserna och är symmetriska och hermitiska och dessutom är positiva definita , är egenvärdena reella och egenvektorerna och med olika egenvärden -ortogonala ( ) [12] . I detta fall kan egenvektorerna väljas så att matrisen definierad ovan uppfyller villkoren

eller ,

och det finns en bas av generaliserade egenvektorer (det är inte en defektmatris ) [11] . Detta fall kallas ibland en Hermitian definierad kärve [11] .

Se även

Anteckningar

  1. Golub, Van Loan, 1996 , sid. 310.
  2. Kreyszig, 1972 , sid. 273.
  3. Nering, 1970 , sid. 270.
  4. Hayde, Twede, 2002 , sid. 355.
  5. Hayde, Twede, 2002 , sid. 299.
  6. Horn och Johnson, 1985 , sid. 133 Sats 2.5.3.
  7. Horn och Johnson, 1985 , sid. 136 Sats 2.5.3 Följd 2.5.11.
  8. 1 2 3 4 5 6 Trefethen, Bau, 1997 .
  9. Ipsen, Wills, 2005 .
  10. Quarteroni, Sacco, Saleri, 2000 , sid. femton.
  11. 1 2 3 Bai, Demmel, 2000 .
  12. Parlett, 1998 , sid. 345.

Litteratur

  • Hayde AF, Twede DR Observationer om samband mellan egenvärden, instrumentbrus och detektionsprestanda // Imaging Spectrometry VIII. / Sylvia S. Shen. - 2002. - T. 4816 . - doi : 10.1117/12.453777 . - .
  • Twede DR, Hayden AF Förfining och generalisering av förlängningsmetoden för kovariansmatrixinversion genom regularisering // Imaging Spectrometry IX .. - 2004. - T. 5159 . - doi : 10.1117/12.506993 . - .
  • Lloyd N. Trefethen, David Bau. Numerisk linjär algebra. - "SIAM, 1997. - ISBN 978-0-89871-361-9 .
  • Alfio Quarteroni, Riccardo Sacco, Fausto Saleri. avsnitt 5.8.2 // Numerisk matematik . - "Springer, 2000. - ISBN 978-0-387-98959-4 .
  • Beresford N. Parlett. Det symmetriska egenvärdesproblemet . - Reprint.. - Philadelphia: "Society for Industrial and Applied Mathematics, 1998. - ISBN 978-0-89871-402-9 . - doi : 10.1137/1.9781611971163 .
    • Översatt av B. Parlett. Symmetriskt egenvärdeproblem. - Moskva: Mir, 1983.
  • Ilse Ipsen, Rebecca M. Wills. Analys och beräkning av Googles PageRank // 7th IMACS International Symposium on Iterative Methods in Scientific Computing, Fields Institute, Toronto, Kanada, 5–8 maj 2005 . — 2005.
  • Generaliserade Hermitiska egenvärdeproblem // Mallar för lösning av algebraiska egenvärdeproblem: A Practical Guide / Z. Bai, J. Demmel, J. Dongarra, A. Ruhe, H. Van Der Vorst. - Philadelphia: SIAM, 2000. - ISBN 978-0-89871-471-5 .
  • Joel N. Franklin. Matristeori . Dover Publikationer. — ISBN 978-0-486-41179-8 .
  • Gene H. Golub, Charles F. Van Loan. Matrisberäkningar. — 3:a. - Baltimore: Johns Hopkins University Press , 1996. - ISBN 978-0-8018-5414-9 .
    • Översatt av J. Golub, C. Van Lone. Matrisberäkningar. - Moskva: Mir, 1999. - ISBN 5-03-002406-9 .
  • Roger A. Horn, Charles R. Johnson. matrisanalys. - Cambridge University Press, 1985. - ISBN 978-0-521-38632-6 .
    • Translation Horn R., Johnson C. Matrisanalys. - "Mir", 1989. - ISBN 978-5-458-26504-1 (YOYO Media).
  • Roger A. Horn, Charles R. Johnson. Ämnen i matrisanalys . - Cambridge University Press, 1991. - ISBN 978-0-521-46713-1 .
  • Erwin Kreyszig. Avancerad teknisk matematik . — 3:a. - New York: Wiley , 1972. - ISBN 978-0-471-50728-4 .
  • Evar D. Nering. Linjär algebra och matristeori. — 2:a. — New York: Wiley , 1970.
  • Strang G. Introduktion till linjär algebra. — 3:a. - Wellesley-Cambridge Press, 1998. - ISBN 978-0-9614088-5-5 .

Länkar