Determinant

Determinanten ( determinant ) i linjär algebra är ett skalärt värde som kännetecknar den orienterade "expansionen" eller "komprimeringen" av ett flerdimensionellt euklidiskt utrymme efter matristransformation; är bara vettigt för kvadratiska matriser . Standardnotationen för determinanten för en matris är , , [1] .

Determinanten för en kvadratisk dimensionsmatris definierad över en kommutativ ring är ett element i ringen . Detta värde bestämmer många egenskaper hos matrisen , i synnerhet är matrisen inverterbar om och endast om dess determinant är ett inverterbart element i ringen . I fallet när  är ett fält är determinanten för matrisen lika med noll om och endast om matrisens rang är mindre än , det vill säga när systemen med rader och kolumner i matrisen är linjärt beroende .

Historik

Teorin om determinanter uppstod i samband med problemet att lösa linjära ekvationssystem .

Författarna till den antika kinesiska läroboken " Matematik i nio böcker " [2] kom nära begreppet determinanten .

I Europa finns determinanterna för 2×2-matriser i Cardano på 1500-talet. För högre dimensioner gavs definitionen av determinanten av Leibniz 1693. Den första publikationen är av Kramer . Teorin om determinanter skapades av Vandermonde , Laplace , Cauchy och Jacobi . Termen "determinant" i sin moderna betydelse introducerades av O. Cauchy (1815), även om K. Gauss tidigare (1801) kallade diskriminanten i en kvadratisk form för "determinant".

Den japanske matematikern Seki Takakazu införde oberoende bestämningsfaktorer 1683 [3] .

Definitioner

Genom permutationer

För en kvadratisk matris av storlek beräknas dess determinant med formeln:

,

där summering utförs över alla permutationer  av tal , och  anger antalet inversioner i permutationen .

Således inkluderar determinanten termer, som också kallas "termer för determinanten".

Motsvarande formel:

,

där koefficienten - Levi-Civita-symbolen - är lika med:

0 om inte alla index är distinkta, 1 om alla index är olika och substitutionen är jämn, −1 om alla index är olika och substitutionen är udda.

Axiomatisk konstruktion (egenskapsbaserad definition)

Begreppet en determinant kan introduceras utifrån dess egenskaper. Determinanten för en reell matris är nämligen en funktion som har följande tre egenskaper [4] :

  1.  är en skev-symmetrisk funktion av raderna (kolumnerna) i matrisen .
  2.  är en multilinjär funktion av rader (kolumner) i matrisen .
  3. , var  är identitetsmatrisen .

Värdet på matrisdeterminanten

För en första ordningens matris är värdet på determinanten lika med det enda elementet i denna matris:

Matriser 2 x 2

För en matris beräknas determinanten som:

Denna matris A kan ses som en linjär avbildningsmatris som omvandlar enhetskvadraten till ett parallellogram med hörn (0, 0) , ( a , b ) , ( a + c , b + d ) och ( c , d ) .

Det absoluta värdet av determinanten är lika med arean av detta parallellogram, och återspeglar således den faktor med vilken områden skalas i A -transformationen .

Värdet på den signerade determinanten ( det orienterade området av parallellogrammet), förutom skalfaktorn, indikerar också om transformationen A utför en reflektion.

Matriser 3 x 3

Matrisdeterminanten kan beräknas med formeln:

För en mer bekväm beräkning av tredje ordningens determinant kan du använda Sarrus- regeln eller triangelregeln.

Determinanten för en matris som består av vektorer är lika med deras blandade produkt i det högra kartesiska koordinatsystemet och är, på samma sätt som det tvådimensionella fallet, en orienterad volym av en parallellepiped som sträcks av .

N × N matriser

I allmänhet, för matriser av högre ordning (över ordning 2) , kan determinanten beräknas genom att använda följande rekursiva formel:

, där  är ytterligare ett mindre till elementet . Denna formel kallas radexpansion .

Det är lätt att bevisa att matrisdeterminanten inte ändras under transponering (med andra ord, en liknande expansion i den första kolumnen är också giltig, det vill säga den ger samma resultat som expansionen i den första raden):

Bevis

Låt .

Låt oss bevisa det genom induktion. Det kan ses att detta är sant för matrisen:

Antag att för matrisen av ordning - sant.

En liknande expansion för valfri rad (kolumn) är också giltig:

Bevis

Låt .

Låt oss bevisa det genom induktion. Det kan ses att detta är sant för matrisen:

Antag att för matrisen av ordning - sant.

Låt oss samla koefficienterna för :

Låt oss samla koefficienterna för :

Generaliseringen av ovanstående formler är expansionen av determinanten enligt Laplace (Laplaces sats ), vilket gör det möjligt att beräkna determinanten för alla rader (kolumner):

Alternativa beräkningsmetoder

.

Grundläggande egenskaper för determinanter

Följande egenskaper återspeglar huvudresultaten av teorin om determinanter, vars tillämpning går långt utöver gränserna för denna teori:

  1. (Determinanten för identitetsmatrisen är 1);
  2. (Determinanten är en homogen potensfunktion på utrymmet för matriser av storlek );
  3. (Determinanten för en matris ändras inte när den transponeras);
  4. (Determinanten av produkten av matriser är lika med produkten av deras determinanter, och är kvadratiska matriser av samma ordning);
  5. , och matrisen är inverterbar om och endast om dess determinant är inverterad ;
  6. Det finns en lösning som inte är noll till ekvationen om och endast om (eller så måste den vara en icke-trivial nolldelare om inte är en integralring).

Determinant som funktion av raderna (kolumnerna) i matrisen

När man studerar teorin om determinanter är det användbart att komma ihåg att denna teori är baserad på tekniken för att manipulera rader och kolumner av matriser som utvecklats av K.F. Gaussisk (gaussiska transformationer). Kärnan i dessa transformationer reduceras till linjära operationer på rader (kolumner) och deras permutation. Dessa transformationer återspeglas i determinanten på ett ganska enkelt sätt, och när man studerar dem är det bekvämt att "partitionera" den ursprungliga matrisen i rader (eller kolumner) och betrakta determinanten som en funktion definierad över uppsättningar av rader (kolumner). Vidare betecknar bokstäverna raderna (kolumnerna) i matrisen .

1. Determinanten är en multilinjär funktion av rader (kolumner) i en matris. Multilinjäritet innebär att funktionen är linjär i varje argument med fasta värden på de återstående argumenten: 2. Determinanten är en skevsymmetrisk funktion av matrisens rader (kolumner), det vill säga när två rader (kolumner) i matrisen byts om, multipliceras dess determinant med −1: 3. Om två rader (kolumner) i en matris är lika, är dess determinant lika med noll:

Kommentar. Egenskaper 1-3 är determinantens huvudegenskaper som funktion av rader (kolumner), de bevisas enkelt direkt från definitionen. Egenskap 2 (skev-symmetri) är en logisk konsekvens av egenskap 1 och 3. Egenskap 3 är en logisk konsekvens av egenskap 2 om element 2 (d.v.s. 1 + 1) i ringen inte sammanfaller med noll och inte är en nolldelare. Egenskaper 1 och 3 innebär också följande egenskaper:

4. Den gemensamma faktorn för elementen i valfri rad (kolumn) i determinanten kan tas bort från determinantens tecken (en konsekvens av egenskap 1). 5. Om minst en rad (kolumn) i matrisen är noll, är determinanten lika med noll (en konsekvens av egenskap 4). 6. Om två (eller flera) rader (kolumner) i en matris är linjärt beroende är dess determinant lika med noll (en konsekvens av egenskaperna 1 och 3). 7. När du lägger till en linjär kombination av andra rader (kolumner) till en rad (kolumn), ändras inte determinanten (en konsekvens av egenskaperna 1 och 6).

Ett faktum av grundläggande betydelse är determinantens universalitet som en multilinjär skev-symmetrisk funktion av full rang, vars argument är element i ett ändligt dimensionellt vektorrum (eller -modul med ändlig bas). Det följande

Sats. Låta vara en fri -modul av rang ( -dimensionell vektor utrymme över , om är ett fält). Låt vara en -värderad funktion på med egenskaperna 1-3. Sedan, när man väljer grunden för utrymmet , finns det en konstant sådan att för alla värden är jämlikheten sann: ,

där är en kolumn med koordinater för vektorn med avseende på basen .

Bevis

Låt oss expandera vektorerna enligt basen : . Då kommer följande kolumner att motsvara dem: .

På grund av funktionens multilinjäritet

Med stöd av egenskap 3, om det finns sammanfallande index bland dem, då

.

Annars, på grund av skevsymmetri (egenskap 2), får vi:

.

Alltså var .

En av de viktigaste konsekvenserna av determinantens universalitet är följande teorem om determinantens multiplikativitet.

Sats. Låt vara en matris av storlek . Sedan för valfri matris av storlek . Bevis

Betrakta en skev-symmetrisk multilinjär form på kolumnutrymmet . Enligt den bevisade satsen är denna form lika med , där .

Determinant och orienterad volym

Låt vara tre vektorer i rymden . De genererar en parallellepiped vars hörn ligger vid punkter med radievektorer . Denna ruta kan degenereras om vektorerna är koplanära (de ligger i samma plan, är linjärt beroende).

Den orienterade volymfunktionen definieras som volymen av lådan som genereras av dessa vektorer och tas med ett "+"-tecken om trippeln av vektorer är positivt orienterad och med ett "-"-tecken om den är negativt orienterad. Funktionen är multilinjär och skevsymmetrisk. Fastighet 3 är uppenbarligen nöjd. För att bevisa multilinjäriteten för denna funktion räcker det att bevisa dess linjäritet med avseende på vektorn . Om vektorerna är linjärt beroende blir värdet noll oavsett vektorn och därför linjärt beroende av den. Om vektorerna är linjärt oberoende, beteckna med vektorn för enheten vinkelrät mot vektorplanet , så att . Då är parallellepipedens orienterade volym lika med produkten av basens area, byggd på vektorer och oberoende av vektorn , och det algebraiska värdet av projektionen av vektorn på normalen till basen, vilket är lika med till skalärprodukten och är en kvantitet linjärt beroende av vektorn . Linjäriteten med avseende på är bevisad, och linjäriteten med avseende på resten av argumenten bevisas på liknande sätt.

Genom att tillämpa satsen om determinantens universalitet som en skevsymmetrisk multilinjär funktion får vi det när vi väljer en ortonormal bas för rymden

,

var är koordinaterna för vektorerna i den valda basen.

Således har determinanten för koefficientmatrisen av vektorer med avseende på den ortonormala basen betydelsen av den orienterade volymen av parallellepipeden byggd på dessa vektorer.

Allt ovanstående, utan betydande förändringar, överförs till ett utrymme av godtycklig dimension.

Determinantrad/kolumnuppdelning och matrisinversion

Formlerna för rad/kolumnuppdelning gör det möjligt att reducera beräkningen av determinanter till en rekursiv procedur som använder beräkningen av determinanter av lägre ordning. För att härleda dessa formler grupperar vi och summerar vi i formeln för matrisens determinant , med hänsyn tagen till likheten , alla termer som inte är noll som innehåller elementet . Detta belopp är:

,

var är matrisen som erhålls genom att radera raden med numret och kolumnen med numret .

Eftersom ett godtyckligt element kan flyttas till det nedre högra hörnet av matrisen genom att permutera motsvarande kolumn till höger och permutera motsvarande rad ner till det nedre högra hörnet av matrisen, och den extra matrisen till den kommer att behålla sin form, då summan av alla termer i expansionen av determinanten som innehåller , kommer att vara lika med

.

Storheten kallas det algebraiska komplementet till matriselementet .

Med tanke på att varje term för expansionen av en determinant med en koefficient som inte är noll innehåller exakt ett element från den i:te raden, kan vi utöka determinanten i termer av termerna för denna rad:

— Formeln för expansionen av determinanten i den i:te raden

På samma sätt, med tanke på att varje term av expansionen av en determinant med en koefficient som inte är noll innehåller exakt ett element från den j:te kolumnen, kan vi expandera determinanten i termer av termerna i denna kolumn:

— Formeln för expansionen av determinanten i den j:te kolumnen

Om elementen i den k:te raden i matrisen kopieras till den i:te raden blir dess determinant lika med noll, och enligt formeln för att expandera determinanten i den i:te raden får vi:

— Formeln för den "falska" expansionen av determinanten på den i:te raden ( ).

På samma sätt för kolumner:

— Formeln för den "falska" expansionen av determinanten i den j:te kolumnen ( )

Det är användbart att skriva de erhållna formlerna i matrisform. Låt oss introducera en matris med algebraiska tillägg till elementen i matrisen : . Sedan, enligt de erhållna formlerna,

.

Resultat 1 (Kriterium för inverterbarhet av matriser). En kvadratisk matris är inverterbar om och endast om är ett inverterbart element i ringen , och .

Resultat 2. Om produkten av matriser är noll och matrisen är kvadratisk, då .

Lösa system av linjära algebraiska ekvationer med hjälp av determinanter

Cramers formel gör det möjligt att uttrycka lösningen av ett system av linjära algebraiska ekvationer som ett förhållande mellan determinanter, vars nämnare är systemets determinant, och täljaren är determinanten för systemmatrisen, i vilken kolumnen med koefficienter för motsvarande variabeln ersätts av en kolumn av ekvationernas högra sidor.

Cramers formel . Låt ett system av linjära algebraiska ekvationer ges i matrisform:, därär koefficientmatrisen för storlekssystemet,är kolumnen på högersidan av systemets ekvationer, och vektornär lösningen till detta system . Sedan, för alla, gäller jämställdheten:

Bevis

Ange med summan och ange

matris och vektor .

Sedan och enligt resultat 2 från föregående avsnitt .

Men eftersom en av komponenterna i vektorn är lika med -1, betyder det att . Påståendet är bevisat pga

Av denna formel följer särskilt att om - inte är degenererad (inte är noll eller en nolldelare), kan systemet ha högst en lösning, och om determinanten också är inverterbar, så har systemet en unik lösning.

En av de viktigaste satserna i teorin om determinanter är följande sats om lösningar av ett homogent system av linjära ekvationer.

Sats. Låt vara ett fält. Ett homogent system av linjära ekvationer har en icke-trivial (icke-noll) lösning om och endast om determinanten för koefficientmatrisen är lika med noll: .

Bevis

Nödvändigheten av villkoret finns i konsekvens 2 i föregående avsnitt. Låt oss bevisa nödvändigheten.

Om matrisen är noll är vilken vektor som helst en lösning. Låta vara den maximala icke degenererade moll i matrisen av dimensioner . Utan förlust av generalitet antar vi att denna moll bildas av de första r raderna och kolumnerna (annars numrerar vi om variablerna och arrangerar om ekvationerna i en annan ordning.) Låt oss introducera vektorerna och . Sedan skrivs de första ekvationerna av systemet i matrisform på följande sätt:

Eftersom matrisen är inverterbar, motsvarar vilket värde som helst en enda vektor som uppfyller dessa ekvationer. Låt oss visa att i detta fall kommer de återstående ekvationerna att uppfyllas automatiskt. Låt .

Låt oss presentera två matriser:

och .

I matrisen är alla kolumner delar av kolumnerna från matrisen , och den sista kolumnen är en linjär kombination av matriskolumnerna med koefficienter , därför, på grund av determinantens linjäritet över kolumnerna , finns det en linjär kombination av bestämningsfaktorer för de minderåriga i storleksmatrisen . Eftersom är den största icke degenererade minderåriga i storlek, har alla större minderåriga en nolldeterminant, så .

Det följer av förhållandet att , var är kolumnen . Därför .

Sedan . Och eftersom , då är systemets j:te ekvation också uppfylld.

Detta teorem används i synnerhet för att hitta egenvärden och egenvektorer för matriser.

Kriteriet för fullständighet och linjärt oberoende för ett system av vektorer

Nära besläktat med begreppet determinant är begreppet linjärt beroende och fullständighet av system av vektorer i ett vektorrum.

Låta vara ett fält och vara ett vektorrum över med en ändlig bas . Låt en annan uppsättning vektorer ges . Deras koordinater i förhållande till den givna basen är expansionskoefficienterna . Låt oss göra en (fyrkantig) matris . Teoremet är sant:

Sats (Kriterium för fullständighet och linjärt oberoende av ett vektorsystem).

(1) Systemet av vektorer är linjärt beroende om och endast om . (2) Systemet av vektorer är komplett om och endast om matrisen inte är degenererad ( ). Bevis

(1) Beviset är baserat på det faktum att vektorn har en koordinatkolumn lika med , där .

Om , då . Då och om skiljer sig från noll, då .

Omvänt, om , det finns en icke-null kolumn så att . Detta betyder att .

(2) Om matrisen inte är degenererad är den inverterbar. Låta vara en godtycklig vektor, vara en kolumn av dess koordinater, . Sedan . Således kan en godtycklig vektor brytas upp i ett system av vektorer , vilket betyder dess fullständighet.

Omvänt, låt matrisen vara degenererad. Då finns det en rad koefficienter som inte är noll så att . Detta betyder att vilken vektor som helst som är nedbrytbar i termer av ett system av vektorer uppfyller kravet . Om någon koefficient är icke-noll, kan basvektorn inte expanderas i detta vektorsystem, vilket betyder att den inte är komplett.

Följd. I ett vektorrum som har en ändlig bas av vektorer:

(1) något system som består av mindre än vektorer är inte komplett; (2) vilket system som helst som består av mer än vektorer är linjärt beroende; (3) varje bas i rymden innehåller exakt vektorer.

Således är dimensionen av ett vektorrum med en ändlig bas väldefinierad.

Några speciella egenskaper hos determinanter

Algoritmisk implementering

där  är antalet radpermutationer som utförs av algoritmen, och  är stegformen för matrisen som erhålls som ett resultat av algoritmen. Komplexiteten i denna metod, liksom Gauss-metoden, är , för dess implementering är det nödvändigt att använda divisionsoperationen.

Särskilda typer av determinanter

Se även

Anteckningar

  1. Bronstein I. N., Semendyaev K. A. Handbok i matematik för ingenjörer och studenter vid högre utbildningsinstitutioner. — 13:e uppl., rättad. — M .: Nauka, 1986.
  2. E. I. Berezkina. Matematik i det antika Kina. — M .: Nauka, 1980.
  3. HW Eves. En introduktion till matematikens historia . — Saunders College Publishing, 1990.
  4. Skornyakov L. A. Element i algebra. - M .: Nauka, 1986. - S. 16-23. – Upplaga 21 000 exemplar.
  5. JR Bunch och JE Hopcroft. Triangulär faktorisering och inversion genom snabb matrismultiplikation, Mathematics of Computation , 28 (1974) 231-236.

Litteratur