En matris är ett matematiskt objekt skrivet som en rektangulär tabell över element i en ring eller ett fält (till exempel heltal , reella eller komplexa tal), som är en samling rader och kolumner i skärningspunkten mellan vilka dess element är belägna. Antalet rader och kolumner anger storleken på matrisen. Även om till exempel triangulära matriser [1] historiskt har övervägts, talar de för närvarande uteslutande om rektangulära matriser, eftersom de är de mest bekväma och allmänna.
Matriser används ofta i matematik för kompakt representation av system av linjära algebraiska eller differentialekvationer . I det här fallet motsvarar antalet matrisrader antalet ekvationer och antalet kolumner motsvarar antalet okända. Som ett resultat reduceras lösningen av linjära ekvationssystem till operationer på matriser.
Följande algebraiska operationer definieras för en matris :
Med avseende på addition bildar matriser en abelsk grupp ; om vi även betraktar multiplikation med en skalär, så bildar matriserna en modul över motsvarande ring (ett vektorrum över ett fält). Uppsättningen av kvadratmatriser är stängd under matrismultiplikation, så kvadratmatriser av samma storlek bildar en associativ ring med enhet under matrisaddition och matrismultiplikation.
Det är bevisat att varje linjär operator som verkar i ett dimensionellt linjärt rymd kan associeras med en unik kvadratisk ordningsmatris ; och vice versa - varje kvadratisk matris kan associeras med en unik linjär operator som verkar i detta utrymme. [2] Egenskaperna för en matris motsvarar egenskaperna hos en linjär operator. I synnerhet är egenvärdena för en matris operatörens egenvärden som motsvarar motsvarande egenvektorer .
Detsamma kan sägas om representationen av bilinjära (kvadratiska) former av matriser .
I matematik övervägs många olika typer och typer av matriser . Sådana är till exempel enhet , symmetriska , skev-symmetriska , övre triangulära (nedre triangulära), etc. matriser.
Av särskild betydelse i matristeorin är alla typer av normala former , det vill säga den kanoniska formen, till vilken en matris kan reduceras genom att ändra koordinater. Den viktigaste (i teoretisk mening) och utarbetade är teorin om Jordaniens normala former . I praktiken används dock normala former som har ytterligare egenskaper, såsom stabilitet.
För första gången nämndes matriser i det forntida Kina, då kallade den " magiska kvadraten ". Den huvudsakliga tillämpningen av matriser var lösningen av linjära ekvationer [3] . Även magiska rutor var kända lite senare bland arabiska matematiker, runt den tiden dök principen om matristillägg upp. Efter att ha utvecklat teorin om determinanter i slutet av 1600-talet började Gabriel Cramer utveckla sin teori på 1700-talet och publicerade Cramers regel 1751. Ungefär under samma tidsperiod dök " Gaussmetoden " upp. Matristeorin började sin existens i mitten av 1800-talet i verk av William Hamilton och Arthur Cayley . Grundläggande resultat i matristeori beror på Weierstrass , Jordan , Frobenius . Termen "matris" introducerades av James Sylvester 1850 [4]
Matriser uppstår naturligt när man löser system av linjära ekvationer , såväl som när man överväger linjära transformationer .
Betrakta ett system av linjära ekvationer av formen:
.Detta system består av linjära ekvationer i okända. Det kan skrivas som följande matrisekvation:
,var
En matris är en matris av koefficienter för ett system av linjära ekvationer, en kolumnvektor är en vektor av okända, och en kolumnvektor är någon given vektor.
För att systemet ska ha en lösning (minst en) är det nödvändigt och tillräckligt att vektorn är en linjär kombination av kolumner , och då är vektorn en vektor som innehåller vektorns expansionskoefficienter över kolumnerna i matrisen .
På matrisspråket formuleras villkoret för lösbarheten av ett system av linjära ekvationer som Kronecker-Capelli-satsen :
rangordningen för en matris är lika med rangordningen för den utökade matrisen ,sammansatt av kolumner och en kolumn .
Ett viktigt specialfall . Om antalet ekvationer sammanfaller med antalet okända ( , det vill säga matrisen är kvadratisk), är villkoret för unik lösbarhet ekvivalent med villkoret för att matrisen ska vara inverterbar .
(Notera. Systemets lösbarhet innebär ännu inte att matrisen inte är degenererad. Exempel: .)
I synnerhet, om matrisen är inverterbar, kan lösningen till systemet skrivas (och om den beräknas , sedan hittas) i formuläret
.Detta leder till en algoritm för att beräkna värdena för de okända med Cramers regel .
Betrakta en linjär transformation från -dimensionell vektorrymd till -dimensionell vektorrymd som har följande form:
.I matrisform är detta en transformation av en ekvation av formen:
.Matris är en matris av linjära transformationskoefficienter.
Om vi betraktar verkan av en linjär transformation på vektorer av formen
,utgör grunden för utrymmet , då - detta är den -: e kolumnen i matrisen .
Alltså, matrisen beskriver helt den linjära transformationen och kallas därför den linjära transformationsmatrisen .
Låt det finnas två ändliga mängder:
Låt oss kalla en matris av storlek (läs vidare ) ( - rader , - kolumner ) med element från någon ring eller fält för en mappning av formen . Matrisen skrivs som
där matriselementet är i skärningspunkten mellan den -th raden och -th kolumnen .
I det här fallet är antalet matriselement lika med .
Enligt det här
Själva matrisen tolkas naturligt som en vektor i ett dimensionsutrymme . Detta gör att man kan införa komponent-för-komponent-addition av matriser och multiplikation av en matris med ett tal (se nedan); När det gäller matrismultiplikation förlitar den sig mycket på matrisens rektangulära struktur.
Om matrisen har samma antal rader som antalet kolumner kallas en sådan matris kvadrat , och numret kallas storleken på kvadratmatrisen eller dess ordning .
Matriser av storlek och är element i utrymmen respektive :
Följande transformationer kallas elementära transformationer av matrisrader:
Elementära transformationer av matriskolonner definieras på liknande sätt.
Matrisens rader och kolumner är element i motsvarande vektorrum:
Rangen på en matris är antalet linjärt oberoende kolumner i en matris ( kolumnrankning av en matris) eller antalet linjärt oberoende rader i en matris ( radrankning av en matris). Likvärdig med denna definition är definitionen av rangordningen för en matris som ordningen för den maximala mollstorleken som inte är noll i matrisen.
Under elementära transformationer ändras inte matrisens rangordning .
En matris betecknas vanligtvis med en stor bokstav i det latinska alfabetet: låt
då är en matris, som tolkas som en rektangulär matris av fältelement av formen , där
sålunda är elementet i matrisen beläget vid skärningspunkten mellan den -th raden och -th kolumnen. Följaktligen antas följande kompakta notation för en storleksmatris :
eller bara
om du bara behöver ange beteckningen för elementen i matrisen.
Ibland, istället för , skriver de , för att skilja indexen från varandra och undvika förväxling med produkten av två tal.
Om det är nödvändigt att ge en detaljerad representation av matrisen i form av en tabell, använd sedan posten för formuläret
Du kan hitta både beteckningar med parentes "(...)" och beteckningar med hakparenteser "[...]". Mindre vanliga är symboler med dubbla raka linjer “||…||”).
Eftersom en matris består av rader och kolumner används följande notation för dem:
är den te raden i matrisen ,a
är den : e kolumnen i matrisen .Således har matrisen en dubbel representation - efter rader:
och efter kolumner:
.Denna representation gör att man kan formulera egenskaperna hos matriser i termer av rader eller i termer av kolumner.
För varje storleksmatris
man kan konstruera en matris av storlek ,
som har för alla och .
En sådan matris kallas den transponerade matrisen för och betecknas med ,
ibland (om det inte finns någon möjlighet till förväxling med differentiering ) betecknas ,
ibland (om det inte finns någon möjlighet till förväxling med den hermitiska konjugationen ) betecknas med .
När de transponeras blir raderna (kolumnerna) av matriser kolumner (respektive rader) i en matris .
Uppenbarligen .
För matriser över en ring är transpositionen en isomorfism av modulerna för matriserna, eftersom
, , för någon .Diagonal matris - en kvadratisk matris, vars alla element utom de diagonala är noll , ibland skrivna som:
Förutom huvuddiagonalen övervägs ibland matriselement som är direkt ovanför de diagonala elementen. Dessa element bildar överdiagonalen av matrisen. Elementen omedelbart under diagonalen bildar en subdiagonal matris (se bidiagonal matris ).
Element placerade på sina ställen bildar en sidodiagonal (se t.ex. sidodiagonal eller matristyper ).
Identitetsmatrisen är en matris, multiplicerad med vilken någon matris (eller vektor) förblir oförändrad, är en diagonal matris med identitet (alla) diagonala element:
För dess beteckning används oftast beteckningen I eller E , såväl som helt enkelt 1 (eller 1 i ett speciellt teckensnitt).
För att beteckna dess element används Kronecker-symbolen också , definierad som:
påFör att beteckna en nollmatris - en matris, vars alla element är noll (när den läggs till en matris förblir den oförändrad, och när den multipliceras med valfri matris erhålls en nollmatris) - vanligtvis är 0 eller 0 används i ett speciellt teckensnitt, eller en bokstav som liknar noll, till exempel .
Du kan bara lägga till matriser av samma storlek.
Matrisaddition är operationen att hitta en matris , vars alla element är lika med den parvisa summan av alla motsvarande element i matriserna och , det vill säga varje element i matrisen är lika med
Matrisadditionsegenskaper:
Alla egenskaper för linjära operationer upprepar axiomen för ett linjärt utrymme , och därför är följande sats giltig:
Uppsättningen av alla matriser av samma storlek med element från fältet (fältet för alla reella eller komplexa tal ) bildar ett linjärt utrymme över fältet (varje sådan matris är en vektor av detta utrymme). Men i första hand för att undvika terminologisk förvirring undviks matriser i vanliga sammanhang utan behov (vilket inte finns i de vanligaste standardapplikationerna) och tydlig specifikation av användningen av termen för att anropa vektorer.
Att multiplicera en matris med ett tal är att bygga en matris .
Egenskaper för multiplikation av matriser med ett tal:
Matrismultiplikation (notation:, sällan med multiplikationstecknet) är operationen för att beräkna en matris, vars varje element är lika med summan av produkterna av elementen i motsvarande rad av den första faktorn och kolumnen i den andra.
Antalet kolumner i matrisen måste matcha antalet rader i matrisen , med andra ord måste matrisen överensstämma med matrisen . Om matrisen har dimension , - , så är dimensionen för deras produkt .
Matrismultiplikationsegenskaper:
;
Enligt de vanliga reglerna för matrismultiplikation multipliceras en kolumnvektor med en matris, som skrivs till vänster om den, och en radvektor multipliceras med en matris, som skrivs till höger om den. Eftersom elementen i en kolumnvektor eller radvektor kan skrivas (vilket vanligtvis görs) med ett index snarare än två, kan denna multiplikation skrivas som:
för en kolumnvektor (att få en ny kolumnvektor ):
för en radvektor (att få en ny radvektor ):
En radvektor, matris och kolumnvektor kan multipliceras med varandra, vilket ger ett tal (skalär):
(Ordningen är viktig: radvektorn är till vänster, kolumnvektorn är till höger om matrisen).
Dessa operationer är grunden för matrisrepresentationen av linjära operatorer och linjära koordinattransformationer (förändring av baser), såsom rotationer, skalningar, spegelreflektioner och även (sista) matrisrepresentationen av bilinjära (kvadratiska) former.
Observera att den vanliga motivationen för att introducera matriser och definiera driften av matrismultiplikation (se även i artikeln om matrismultiplikation ) är just introduktionen av dem, som börjar med multiplikationen av en vektor med en matris (som introduceras baserat på bastransformationer) eller, i allmänhet, linjära operationer på vektorer), och först då jämförs sammansättningen av transformationer med produkten av matriser. I själva verket, om den nya vektorn Av , erhållen från den ursprungliga vektorn v genom en transformation som kan representeras genom multiplikation med matris A , nu transformeras igen genom en transformation som kan representeras genom multiplikation med matris B , vilket erhåller B(Av) , då, baserat på regeln för att multiplicera en vektor med en matris, som ges i början av detta avsnitt (med användning av associativiteten för multiplikation av tal och omvänd ordning för summering), är det lätt att se den resulterande formeln som ger elementen i en matris (BA) som representerar sammansättningen av de första och andra transformationerna och sammanfaller med den vanliga definitionen av matrismultiplikation.
Om elementen i matrisen är komplexa tal, så är den komplexa konjugatet (inte att förväxla med det hermitiska konjugatet ! Se nedan) matrisen lika med . Här är det komplexa konjugatet av .
Införlivande har redan diskuterats ovan: om , då . För komplexa matriser är hermitisk konjugation vanligare : . Ur operatörssynpunkten av matriser är den transponerade och hermitiska konjugatmatrisen matriserna för operatorkonjugatet med avseende på den skalära respektive den hermitiska produkten.
För en kvadratisk matris kallas summan av de diagonala elementen (dvs första ordningens huvudminors) spåret :
(andra beteckningar , , ).
Egenskaper:
Låt matrisen vara kvadratisk, då beteckningen för determinanten: . Om matrisen är då
I ett vektorrum är en linjär kombination av vektorer en vektor
var är expansionskoefficienterna:
Detta gör det möjligt att beskriva produkten av matriser och termer av linjära kombinationer:
Om någon vektor kan representeras som en linjär kombination, så talar man om ett linjärt beroende av denna vektor på kombinationens element.
Mer exakt säger de detta: en viss uppsättning element i ett vektorrum kallas linjärt beroende om det finns en linjär kombination av element i denna uppsättning lika med noll eller
där inte alla tal är lika med noll; om en sådan icke-trivial kombination inte existerar, kallas den givna samlingen av vektorer linjärt oberoende .
Det linjära beroendet av vektorer innebär att någon vektor i en given mängd uttrycks linjärt genom resten av vektorerna.
Varje matris är en samling vektorer (av samma utrymme). Två sådana matriser är två uppsättningar. Om varje vektor i en uppsättning uttrycks linjärt i termer av vektorerna för en annan uppsättning, så beskrivs detta faktum på matristeorin med produkten av matriser:
Addition och subtraktion är endast tillåtna för matriser av samma storlek.
Det finns en nollmatris så att dess tillägg till en annan matris A inte ändrar A, dvs.
Alla element i nollmatrisen är lika med noll.
Endast kvadratiska matriser kan höjas till en potens .
Om antalet rader i en matris är lika med antalet kolumner, kallas en sådan matris kvadrat .
För kvadratiska matriser finns det en identitetsmatris (analog med enhet för att multiplicera tal ) så att multiplicera en matris med den inte påverkar resultatet, nämligen
Identitetsmatrisen har enheter endast längs huvuddiagonalen, resten av elementen är lika med noll
För vissa kvadratiska matriser kan man hitta den så kallade inversa matrisen . Den inversa matrisen är sådan att om matrisen multipliceras med sin inversa matris, kommer identitetsmatrisen att erhållas:
Den omvända matrisen finns inte alltid. Matriser för vilka det finns en invers matris kallas icke- degenererad (eller regelbunden), och för vilka det inte finns någon - degenererad (eller singularis ). En matris är icke degenererad om alla dess rader (kolumner) är linjärt oberoende som vektorer . Det maximala antalet linjärt oberoende rader (kolumner) kallas matrisens rangordning. Determinanten (determinanten) för en matris är värdet av den normaliserade skev-symmetriska (antisymmetriska) multilinjära valensformen på matrisens kolumner. En kvadratisk matris över ett talfält är degenererad om och endast om dess determinant är noll.
Av ovanstående egenskaper för addition och multiplikation av matriser (associativitet och kommutativitet av addition, fördelningsförmåga av multiplikation, existensen av en matris som är noll och motsats därtill), följer att n gånger n kvadratmatriser med element från valfri ring R bildar en ring isomorf till endomorfismringen av den fria modulen Rn . Denna ring betecknas med eller . Om R är en kommutativ ring , är också en associativ algebra över R. Determinanten för en matris med element från en kommutativ ring kan beräknas med den vanliga formeln, och matrisen kommer att vara inverterbar om och endast om dess determinant är inverterbar i R . Detta generaliserar situationen med matriser med element från fältet , eftersom alla element utom noll är inverterbara i fältet.
Matriser spelar en viktig roll i gruppteorin . De används vid konstruktion av allmänna linjära grupper , speciella linjära grupper , diagonalgrupper , triangulära grupper , entriangulära grupper .
En ändlig grupp (särskilt en symmetrisk) kan (isomorft) modelleras av permutationsmatriser (som endast innehåller "0" och "1"),
till exempel för : , , , , , .
Fältet för komplexa tal kan (isomorfiskt) modelleras över fältet för reella tal:
för matrisanaloger , där ;
tändstickor ;
tändstickor ;
tändstickor ;
;
at motsvarar at ;
korrespondens .
I synnerhet för
motsvarar ,
var .
Kommentar. Modellen har en automorfism , det vill säga
Kvaternioners kropp kan (isomorfiskt) modelleras över fältet av reella tal:
för matrisanalogen , där .
För att kvaternionen ska motsvara matrisen ,
var , , , ,
du kan ange grundläggande element
, , , .
Parametrarna måste uppfylla villkoren: och .
Det finns 8 lösningar (8 visningar).
Vektorer och matriser | |||||||||
---|---|---|---|---|---|---|---|---|---|
Vektorer |
| ||||||||
matriser |
| ||||||||
Övrig |