Diagonaliserbar matris

Den aktuella versionen av sidan har ännu inte granskats av erfarna bidragsgivare och kan skilja sig väsentligt från versionen som granskades den 22 november 2021; verifiering kräver 1 redigering .

I linjär algebra sägs en kvadratisk matris A vara diagonaliserbar om den liknar en diagonal matris , det vill säga om det finns en icke-singular matris P så att P −1 AP är en diagonal matris. Om V är ett ändligt dimensionellt vektorrum sägs en linjär avbildning T  : V → V vara diagonaliserbar om det finns en ordnad bas i V så att T representeras som en diagonal matris. Diagonalisering är processen att hitta motsvarande diagonalmatris för en diagonaliserbar matris eller linjär mappning. [1] En kvadratisk matris som inte kan diagonaliseras kallas defekt .

Diagonaliserbara matriser och mappningar är intressanta eftersom diagonala matriser är lätta att arbeta med: egenvärdena och vektorerna är kända, exponentieringen görs genom att höja de diagonala elementen till en potens, och determinanten är produkten av de diagonala elementen. Ur geometrisk synvinkel är en diagonaliserbar matris en ojämn skalning: i varje riktning sker sträckningen i det allmänna fallet med en annan koefficient beroende på numret på diagonalen.

Egenskaper

Det grundläggande faktumet om diagonaliserbara avbildningar och matriser uttrycks i följande påståenden.

En matris eller linjär mappning är diagonaliserbar över ett fält F om och endast om det minimala polynomet är en produkt av linjära faktorer över fältet F. Med andra ord, en matris är diagonaliserbar om och bara om alla divisorer i det minimala polynomet är linjära.

Följande villkor (tillräckligt men inte nödvändigt) är ofta användbart.

har egenvärden 1, 2, 2 (inte alla är distinkta) och reducerbara till diagonal form (matrisen liknar A ) övergångsmatris till en annan bas P : Det omvända kanske inte gäller om A har ett egendelrum med dimension större än 1. I det här exemplet har egendelrummet för A för egenvärde 2 dimension 2.

Låt A vara en matris över F . Om A är diagonaliserbar så är vilken potens av A som helst diagonaliserbar. Om A är inverterbar, F är algebraiskt stängd, A n är diagonaliserbar för något n som inte är en multipel av karakteristiken F , då är A diagonaliserbar.

Över C är nästan vilken matris som helst diagonaliserbar. Närmare bestämt, uppsättningen av n × n komplexa matriser som inte är diagonaliserbara över C , när de betraktas som en n × n delmängd av C , har Lebesgue-mått noll . Man kan också säga att de diagonaliserbara matriserna bildar en tät delmängd inom ramen för Zariski-topologin : komplementet till denna delmängd ligger i den mängd där diskriminanten för det karakteristiska polynomet försvinner, det vill säga på hyperytan. Detta är inte fallet för R.

Jordan-Chevalley-sönderdelningen representerar operatören som summan av de diagonaliserbara och nilpotenta delarna. Därför är en matris diagonaliserbar om och endast om den nilpotenta delen är noll. Med andra ord, en matris är diagonaliserbar om varje block av Jordan-formen inte har en nilpotent del.

Diagonalisering

Om matrisen A kan diagonaliseras, dvs.

sedan

Vi skriver P som en blockmatris med kolumnvektorer

då kan ekvationen ovan skrivas om som

Kolumnvektorerna för P är de högra egenvektorerna för A , de motsvarande diagonala elementen är egenvärdena. Invertibiliteten för P innebär också att egenvektorerna är linjärt oberoende och utgör en bas i F n . Detta är ett nödvändigt och tillräckligt villkor för diagonaliserbarhet. Radvektorerna P −1 är de vänstra egenvektorerna för A .

Om A är en hermitisk matris så kan man välja egenvektorerna för A så att de bildar en ortogonal bas i C n . Under dessa förhållanden kommer P att vara en enhetlig matris och P −1 är lika med det hermitiska konjugatet av P .

I praktiken utförs diagonalisering av matriser på en dator. Det finns ett antal algoritmer som gör att denna process kan utföras.

Diagonalisering av en uppsättning matriser

En uppsättning matriser sägs vara gemensamt diagonaliserbar om det finns en unik inverterbar matris P så att P −1 AP är en diagonal matris för varje A i mängden. Följande sats kännetecknar gemensamt diagonaliserbara matriser: en uppsättning matriser är en uppsättning diagonaliserbara pendlingsmatriser om och endast om den är gemensamt diagonaliserbar. [2]

Mängden av alla n × n matriser diagonaliserbara över C för n > 1 är inte gemensamt diagonaliserbara. Till exempel matriser

är diagonaliserbara, men inte gemensamt, eftersom de inte pendlar.

En mängd består av att pendla normala matriser om och endast om den är gemensamt diagonaliserad av en enhetlig matris, det vill säga det finns en enhetlig matris U så att U*AU är diagonal för valfri matris A i mängden.

Exempel

Diagonaliserbara matriser

Icke-diagonaliserbara matriser

I allmänhet är rotationsmatrisen inte diagonaliserbar över de reella talen, men alla rotationsmatriser är diagonaliserbara över fältet av komplexa tal. Även om matrisen är icke-diagonaliserbar är det möjligt att reducera den till "bästa möjliga form" och skapa en matris med samma egenskaper, innehållande egenvärden på huvuddiagonalen och ettor eller nollor på diagonalen ovan, dvs. Jordan normal form .

Vissa matriser är inte diagonaliserbara över något fält, bland dem kan nilpotenta matriser som inte är noll specificeras . Detta händer om egenvärdets algebraiska och geometriska multiplicitet inte matchar. Överväga

Denna matris kan inte diagonaliseras: det finns ingen matris U för vilken U −1 CU är en diagonal matris. C har ett egenvärde (noll) av algebraisk multiplicitet 2 och geometrisk multiplicitet 1.

Vissa reella matriser kan inte diagonaliseras över reella tal. Tänk på matrisen

Matrisen B har inga reella egenvärden, så det finns ingen reell matris Q för vilken Q −1 BQ är diagonal. Men över fältet av komplexa tal kan vi diagonalisera B . Om vi ​​överväger

då är Q −1 BQ diagonal.

Observera att exemplen ovan visar att summan av diagonaliserbara matriser inte alltid är diagonaliserbar.

Hur man diagonaliserar en matris

Tänk på matrisen

Denna matris har egenvärden

A är en 3x3 matris med 3 distinkta egenvärden; därför är den diagonaliserbar. Observera att om en n × n matris har exakt n distinkta egenvärden, så är den diagonaliserbar.

Egenvärdena kommer att visas i den diagonaliserade formen A , så när man hittar egenvärdena diagonaliseras matrisen A. Egenvektorer kan användas för att diagonalisera A.

Egenvektorerna för A är

Det kan kontrolleras

Låt P vara en matris där de givna egenvektorerna är kolumnerna.

Observera att det inte finns någon särskild ordning för kolumnerna i P ; att ändra ordningen på egenvektorerna i P kommer bara att ändra ordningen på egenvärdena i diagonalformen A . [3]

Matrisen P diagonaliserar A , vilket är lätt att se:

Detta följer av det faktum att för varje standardbas ,

där vi har utnyttjat det som är den k:te kolumnen av , därav . Observera att egenvärdena förekom i diagonalmatrisen.

Applikation

Diagonalisering kan användas för att effektivt beräkna potenserna för en matris A om matrisen är diagonaliserbar. Låt oss ta det

var är en diagonal matris. Sedan genom associativiteten hos produkten av matriser

Den sista produkten är lätt att beräkna eftersom den innehåller potenserna för den diagonala matrisen. Detta tillvägagångssätt kan generaliseras till matrisexponenten och andra matrisfunktioner , eftersom de kan representeras som potensserier.

Ett specialfall av tillämpning

Tänk på följande matris:

Att beräkna olika potenser av M leder till ett intressant mönster:

Detta fenomen kan förklaras med hjälp av diagonaliseringen av M . Vi behöver en bas R 2 bestående av egenvektorer M . En av baserna är

där e i anger standardbasen för Rn . Den omvända förändringen av underlaget ges av uttrycken

Det visar beräkningar

Därför är a och b egenvärden som motsvarar u och v . Genom matrisproduktens linjäritet får vi

Om vi ​​går tillbaka till standardbasen så får vi det

Matrisformen för de ovan beskrivna relationerna har formen

vilket förklarar det tidigare nämnda mönstret.


Tillämpningar inom kvantmekanik

Inom kvantmekanik och kvantkemi är matrisdiagonalisering en av de mest använda metoderna i beräkningar. Det främsta skälet är att den tidsoberoende Schrödinger -ekvationen är en egenvärdesekvation, och i nästan alla fysiska tillämpningar, i oändligt dimensionellt ( Hilbert ) rymd. I ungefärliga tillvägagångssätt ersätts Hilbert-rummet av ett ändligt dimensionellt utrymme, varefter Schrödinger-ekvationen kan omformuleras som ett problem med att hitta egenvärdena för en verklig symmetrisk (eller komplex hermitisk) matris. Detta tillvägagångssätt bygger på variationsprincipen .

Anteckningar

  1. Horn & Johnson 1985
  2. Horn & Johnson 1985, s. 51–53
  3. Anton, H.; Rorres, C. Elementär linjär algebra (applikationsversion)  (engelska) . — 8:a. - John Wiley & Sons , 2000. - ISBN 978-0-471-17052-5 .