TMA4115 - Matematikk 3
Komplekse tall
Finner du ikke det du ser etter? Se Wiki.
Den imaginære enheten
Vi definerer den imaginære enheten , ved
Merk at bare gjelder for .
Komplekse tall er tall på formen
der , og er den imaginære enheten.
Mengden av komplekse tall er .
Operasjoner på komplekse tall
Regneregler for komplekse tall følger regnereglene for reelle tall.
Definisjon. La være et komplekst tall. Da er konjugert gitt ved
Merk at er et reelt tall.
Polare koordinater
Polarkoordinater er nyttige når en multipliserer og tar potenser av komplekse tall.
La være avstanden fra det komplekse tallet til origo, og la være vinkelen gjør med den reelle aksen. Da har vi at
kalles modulus eller absoluttverdi til og kalles vinkelen eller argumentet til .
Trekantulikheten
Teorem 1.5. La og være komplekse tall. Da gjelder at
Eulers formel
Eulers formel er gitt ved
der og er den imaginære enheten.
Det følger at
Teorem 1.7. La og . Da gjelder:
Røtter av komplekse tall
Et polynom , kan alltid faktoriseres
der er løsninger av likningen .
Lineære likningssystemer og gausseliminasjon
Finner du ikke det du ser etter? Se Wiki.
Ekvivalente systemer
Vi sier at to likningssystemer er ekvivalente dersom de har samme løsningsmengder.
Totalmatrisen til et system
Et lineært likningssystem med likninger og ukjente beskrives av en matrise. Denne kalles totalmatrisen eller den utvidede matrisen til likningssystemet. Vi lar gjerne en vertikal linje i matrisen skille venstre og høyre del av likningene.
Radoperasjoner
Følgende tre måter å endre en matrise på kalles radoperasjoner:
- Gange alle tallene i en rad med det samme tallet. Dette betyr å gange en likning med et tall. Vi kan ikke gange med 0.
- Legge til et multiplum av en rad i en annen. Dette er å kombinere likninger til nye likninger.
- Bytte rekkefølge på radene. Dette er det samme som å bytte rekkefølge på likningene.
Vi sier at to matriser er radekvivalente hvis vi kan komme fra den ene til den andre ved å utføre en eller flere radoperasjoner. Vi bruker notasjonen for å si at to matriser og er radekvivalente.
Teorem 2.7. Hvis to likningssystemer har radekvivalente totalmatriser, så er de to likningssystemene ekvivalente.
Trappeform, redusert trappeform og pivotelementer
Definisjon. Tallet lengst til venstre i en rad som ikke er kalles pivotelementet for den raden. (En rad med bare nuller har ikke noe pivotelement.)
Definisjon. En matrise er på trappeform dersom det ikke er annet enn -ere under hvert pivotelement, og eventuelle nullrader er helt nederst.
Definisjon. En matrise er på redusert trappeform hvis den er på trappeform, pivotelementene er og alle tall som står over pivotelementer er .
Teorem 2.11. For enhver -matrise , finnes en -matrise på redusert trappeform, slik at og er radekvivalente.
Eksistens, entydighet og parametrisering av løsninger
For ethvert lineært likningssystem må ett av de følgende punktene være sant:
- Systemet har ingen løsning: Dette skjer når vi i redusert trappeform har en rad av typen der .
- Systemet har entydig løsning. Dette skjer når trappeform av totalmatrisen har pivotelement i alle kolonner unntatt den siste.
- Systemet har uendelig mange løsninger. Dette skjer når vi får frie variabler. Vi får en fri variabel for hver kolonne (unntatt den siste) som ikke har pivotelement.
Lineære likninger med komplekse tall
Et lineært likningssett med komplekse koeffisienter og løsning, kan løses med gausseliminasjon på samme måte som i det reelle tilfellet.
Vektorlikninger
Finner du ikke det du ser etter? Se Wiki.
Vektorregning
En lineærkombinasjon av vektorene og er en vektor på formen
der og er skalarer, kalt vekter.
Det lineære spennet til og er mengden av alle lineærkombinasjoner av og .
Vektorlikninger
Likningssystemer kan ofte skrives om til vektorlikninger.
Geometrisk tolkning av vektorlikninger: Eksistens og entydighet av løsninger
Vi tar utgangspunkt i vektorlikningen
Vi skal nå gi noen geometriske illustrasjoner i av hva som skjer i de ulike tilfellene:
- Systemet har ingen løsning:
- Systemet har entydig løsning: og er lineært uavhengige.
- Systemet har uendelig mange løsninger: og er lineært avhengige.
Matriser
Finner du ikke det du ser etter? Se Wiki.
Definisjoner og notasjon
Produkt av matrise og vektor
Teorem 4.6. Hvis er en -matrise, og er vektorer i og er en skalar, så har vi følgende likheter:
Sum og skalering av matriser
Teorem 4.9. Hvis og er -matriser, er en vektorer i og er en skalar, så har vi følgende likheter:
Matrisemultiplikasjon
Definisjon. La A være en -matrise med rader , og la B være en -matrise med kolonner . Produktet av A og B er definert ved:
Teorem 4.13. La , , og være matriser, en vektor, og et tall. I hver del av teoremet antar vi at størrelsene på matrisene og vektoren er slik at alle operasjonene som brukes er definert. (a) Matrisemultiplikasjon er en assosiativ operasjon, det vil si:
Et spesialtilfelle av dette er følgende:
(b) Å skalere et matriseprodukt er det samme som å skalene én av faktorene og deretter multiplisere:
(c) Matrisemultiplikasjon distribuerer over addisjon av matriser, det vil si:
Transponering
Operasjonen transponering går ut på å bytte om rader og kolonner.
Teorem 4.15. For enhver matrise har vi:
Hvis og er matriser slik at produktet er definert, så er:
Identitetsmatriser
La være den kvadratiske -matrisen
Da er for enhver -matrise og for enhver -matrise . Spesielt er for enhver vektor . Derfor kalles en identitetsmatrise, eller en -identitetsmatrise.
Potenser av matriser
Hvis er en kvadratisk matrise, så kan vi gange med seg selv. Generelt definerer vi at opphøyd i -te er produktet av med seg selv ganger:
For tall har vi definert at . For kvadratiske matriser har vi derimot
Inverser
Definisjon. La være en $n \times $-matrise. En invers til er en -matrise som er slik at
En matrise er inverterbar hvis den har en invers.
Teorem 4.18. Hvis en matrise er inverterbar, så har den nøyaktig én invers.
Teorem 4.20. La være en -matrise, og en vektor. Hvis er inverterbar, så har likningen entydig løsning, og løsningen er .
Beregning av inverser
Teorem 4.25. La være en -matrise. (a) er inverterbar hvis og bare hvis .
(b) Hvis er inverterbar, så kan vi finne inversen ved å gausseliminere matrisen
til redusert trappeform og lese av høyre halvdel av den resulterende matrisen. Med andre ord: Resultatet av gausseliminasjonen blir følgende matrise:
Formel for invertering av -matrise
La
Da er
Lineær uavhengighet
Finner du ikke det du ser etter? Se Wiki.
Lineært spenn: overflødige vektorer
Dersom en vektor ikke utvider spennet til en mengde vektorer så er vektorene lineært avhengige.
Definisjon av lineær uavhengighet
Definisjon. Vektorene er lineært uavhengige dersom likningen
ikke har andre løsninger enn den trivielle løsningen . I motsatt tilfelle kalles de lineært avhengige.
Lineær uavhengighet for to vektorer
Teorem 5.6. To vektorer og , begge ulik , er lineært uavhengige hvis og bare hvis , for en skalar .
Hvordan sjekke lineær uavhengighet?
Teorem 5.8. La være en matrise. Følgende påstander er ekvivalente:
- Kolonnene i er lineært uavhengige.
- Likningen har bare den trivielle løsningen .
- Vi får ingen frie variabler når vi løser .
- Når vi gausseliminerer , får vi et pivotelement i hver kolonne.
Teorem 5.8 gir oss en grei metode for å sjekke lineær uavhengighet. Hvis vi har vektorer kan vi finne ut om de er lineært uavhengige på denne måten:
- Lag en matrise med disse vektorene som kolonner.
- Gausseliminer til trappeform.
- Hvis hver kolonne inneholder et pivotelement, er vektorene lineært uavhengige. Ellers er de lineært avhengige.
Teorem 5.12. Gitt vektorer i eller . Hvis
- en av vektorene er en lineærkombinasjon av de andre, eller
- , så er vektorene lineært avhengige.
Teorem 5.13. Vektorene er lineært uavhengige hvis og bare hvis ingen av dem kan skrives som en lineærkombinasjon av de andre.
Like mange vektorer som dimensjonen
Teorem 5.14. Hvis vi har vektorer i , så er de lineært uavhengige hvis og bare hvis de utspenner hele , altså hvis og bare hvis
Determinanter
Finner du ikke det du ser etter? Se Wiki.
Determinanter for 2 x 2-matriser
For en -matrise
er determinanten definert ved:
Arealet av parallellogrammet utspent av kolonnene i er lik
Determinanter for 3 x 3-matriser
For en -matrise
er determinanten definert ved:
Determinanter og radoperasjoner
Teorem 6.5. La være en -matrise, og la være en matrise vi får ved å utføre en radoperasjon på . Da har vi følgende sammenheng mellom determinantene til og , basert på hvilken type radoperasjon vi utførte:
Radoperasjon | Resultat |
---|---|
Gange en rad med et tall | |
Legge til et multiplum av én rad i en annen | |
Bytte om to rader |
Triangulære matriser
Teorem 6.8. La være en (øvre eller nedre) triangulær -matrise. Da er determinanten til lik produktet av tallene på diagonalen i :
Teorem fra LF La være en øvre triangulær -matrise. Da er egenverdiene til elementene på diagonalen.
Flere regneregler for determinanter
Teorem 6.10. Determinanten til et produkt av to matriser er produktet av determinantene. Altså: Hvis og er to -matriser, så er
Teorem 6.11. Determinanten endrer seg ikke når vi transponerer matrisen. Altså: Hvis er en -matrise, så er
Karakterisering av inverterbarhet
Teorem 6.12. La være en -matrise. Følgende påstander er ekvivalente:
- er inverterbar.
- .
- Kolonnene i er lineært uavhengige.
- Kolonnene i utspenner .
\includepdf[]{assets/vektorromaksiomene.pdf
Vektorrom
Finner du ikke det du ser etter? Se Wiki.
Definisjonen av vektorrom
Definisjon. La være en mengde, og anta at vi har definert to operasjoner:
Addisjon skal være definert for alle elementer og i , og skalarmultiplikasjonen for alle skalarer og alle i . Resultatet av operasjonene skal alltid være et element i . Dersom mengden og de to operasjonene oppfyller vektorromsaksiomene (V1)-(V8), så sier vi at er et vektorrom, og vi kaller elementene i for vektorer.
Generelle egenskaper og lineær uavhengighet
Definisjon. La være vektorer i vektorommet . Disse vektorene er lineært uavhengige dersom likningen
ikke har andre lsninger enn den trivielle løsningen I motsatt tilfelle kalles de lineært avhengige.
Teorem 7.3. Gitt vektorer i et vektorrom . Hvis
- en av vektorene er en lineærkombinasjon av de andre, eller
- en av vektorene er ,
så er vektorene lineært avhengige.
Flere eksempler på vektorrom
- Polynomer av begrenset grad.
- Alle polynomer.
- Kontinuerlige funksjoner.
- Deriverbare og glatte funksjoner.
- Matriser.
Underrom
Definisjon. Et underrom av et vektorrom er en delmengde som i seg selv utgjør et vektorrom, med addisjon og skalarmultipliskasjon definert på samme måte som i .
Teorem 7.9. La være et vektorrom. En delmengde er et underrom av hvis og bare hvis følgende tre betingelser er oppfylt.
- Nullvektoren i ligger i .
- For alle vektorer og i er også summen i .
- For alle vektorer i og alle skalarer er også skalarproduktet u .
Teorem 7.11 En mengde utspent av vektorer i et vektorrom er alltid et underrom av .
Endeligdimensjonale vektorrom
Definisjon. Et vektorrom er endeligdimensjonalt hvis det finnes en endelig mengde av vektorer i som utspenner . Ellers er uendeligdimensjonalt.
Basis
Definisjon. En basis for et vektorrom er en liste
av vektorer i som både utspenner og er lineært uavhengige.
Teorem 7.14. La være et vektorrom med basis
Da kan hver vektor i skrives som en lineærkombinasjon
av basisvektorene i , på en entydig måte.
Definisjon. Tallene i teorem 7.14 kalles koordinatene til vektoren med hensyn på basisen . Vi definerer notasjonen for vektoren i som består av koordinatene til v:
Teorem 7.16. La være et vektorrom med basis . Koordinatene til en lineærkombinasjon av vektorer er tilsvarende lineærkombinasjonen av koordinatene til hver vektor:
Teorem 7.18. La være et endeligdimensjonalt vektorrom. Da kan enhver endelig mengde som utspenner reduseres til en basis for . Mer presist: Hvis er en endelig mengde av vektorer slik at , så finnes en delmengde slik at vektorene i utgjør en basis for .
Teorem 7.19. Ethvert endeligdimensjonalt vektorrom har en basis.
Teorem 7.20. La være et endeligdimensjonalt vektorrom. Enhver endelig mengde av vektorer i som er lineært uavhengig kan utvides til en basis. Mer presist: Hvis er en endelig mengde av vektorer som er lineært uavhengige, så finees en basis for som inneholder alle vektorene i .
Dimensjon
Teorem 7.21. La være et vektorrom med en basis som består av vektorer. La være vektorer i , der . Da er disse vektorene lineært avhengige.
Teorem 7.22. La være et endeligdimensjonalt vektorrom. Da har enhver basis for samme størrelse.
Definisjon. La være et endeligdimensjonalt vektorrom. Vi definerer dimensjonen til som antall vektorer i en basis for . Vi bruker notasjonen for dimensjonen til . Hvis er en basis for , har vi altså
Teorem 7.23. La være et vektorrom med et underrom . Hvis er endeligdimensjonalt, så er også endeligdimensjonalt, og
Vektorrom tilknyttet en matrise
Nullrommet. Vi definerer nullrommet til en reell -matrise som løsningsmengden til likningen , altså delmengden av :
Kolonnerommet. Vi definerer kolonnerommet til en reell -matrise
som underrommet av utspent av kolonnene i :
Vi kan også beskrive kolonnerommet ved
Vi finner en basis for kolonnerommet ved:
- Bruk gausseliminasjon for å finne trappeformmatrisen som er radekvivalant til .
- Se på for å finne ut hvilke av kolonnene i som er pivotkolonner.
- Pivotkolonnene danner en basis for .
Radrommet. Vi definerer radrommet til en reell -matrise
som underrommet av utspent av radene i :
Dette er det samme som kolonnerommet til den transponerte matrisen:
Teorem 7.25 La være en -matrise, og la være trappeformmatrisen vi får når vi gausseliminerer . Da har vi:
- Dimensjonen til nullrommet til er lik antall frie variabler vi får når vi løser likningssystemet , altså antall kolonner uten pivotelementer i .
- Dimensjonen til kolonnerommet til er lik antall kolonner med pivotelementer i .
- Dimensjonen til radrommet til er lik antall rader som ikke er null i .
Teorem 7.26 La være en -matrise. Da har kolonnerommet og radrommet til samme dimensjon. Dette kalles rangen til .
Teorem 7.27 La være en -matrise. Da er
Lineærtransformasjoner
Finner du ikke det du ser etter? Se Wiki.
Funksjoner
Definisjon. En funksjon består av:
- En mengde som kalles funksjonens domene.
- En mengde som kalles funksjonens kodomene.
- En regel som til hvert element i domenet tilordner et element i kodomenet.
Definisjon. La være en funksjon. Vi sier at er injektiv (eller en-til-en) hvis det for hver i er maksimalt én i slik at . Vi sier at er surjektiv (eller på) hvis det for hver i finnes en i slik at . Bildet til er mengden av alle elementer i kodomenet som blir truffet av , altså delmengden av .
Det følger umiddelbart fra definisjonen at en funksjon er surjektiv hvis og bare hvis bildet til funksjonen er hele kodomenet: .
Lineærtransformasjoner
Definisjon. La og være vektorrom. En funksjon er en lineærtransformasjon hvis den oppfyller følgende to kriterier:
- for alle og i .
- for alle vektorer i og alle skalarer .
Teorem 8.3. Hvis er en lineærtrasformasjon, så oppfyller den følgende:
- En lineærkombinasjon i sendes til den tilsvarende lineærkombinasjonen i :
- Nullvektoren i sendes til nullvektoren i :
Teorem 8.4. La og være endeligdimensjonale vektorrom og la være en lineærtransformasjon. Anta er en basis for . Da er fullstendig bestemt av bildene av basisvektorene.
Kjerne og bilde
Definisjon. La være en lineærtransformasjon. Kjernen til er mengden av alle vektorer i som blir sendt til nullvektoren i :
Teorem 8.8. La være en lineærtransformasjon.
- Kjernen er et underrom av .
- Bildet er et underrom av .
Teorem 8.9. En lineærtransformasjon er injektiv hvis og bare hvis .
Lineærtransformasjoner gitt ved matriser
Teorem 8.11. La være en -matrise, og la være en lineærtransformasjon gitt ved . Da er
Teorem 8.13. La være en lineærtransformasjon. Da er
der er -matrisen gitt ved
hvor er standardmatrisen for .
Definisjon. Matrisen i teorem 8.13 kalles standardmatrisen til lineærtransformasjonen .
Teorem 8.14. La være en lineærtransformasjon og la være standardmatrisen til . Da vet vi:
- er surjektiv hvis og bare hvis kolonnene i utspenner hele .
- er injektiv hvis og bare hvis kolonnene i er lineært uavhengige.
Lineærtransformasjoner og basiser
Teorem 8.15. La og være endeligdimensjonale vektorrom, og la og være basiser for henholdsvis og . La være en lineærtransformasjon. Da finnes en matrise slik at
for alle vektorer i .
Teorem 8.16. La være et -dimensjonalt vektorrom, og la og være to basiser for . Da finnes en -matrise slik at
for alle vektorer i .
Isomorfi
Definisjon. La være en lineærtransformasjon. En invers til er en lineærtransformasjon som er slik at
Definisjon. Hvis er en lineærtransformasjon som har en invers, så er en isomorfi. Da sier vi dessuten at vektorrommene og er isomorfe, og vi skriver .
Teorem 8.19. En lineærtransformasjon er en isomorfi hvis og bare hvis den er både injektiv og surjektiv.
Teorem 8.22. Hvis er et -dimensjonalt komplekst vektorrom, så er isomorft med . Og hvis er et -dimensjonalt reelt vektorrom, så er isomorft med .
Projeksjon
Finner du ikke det du ser etter? Se Wiki.
Skalarproduktet i
Teorem 9.3. Den ortogonale projeksjonen på en vektor ,
er en lineærtransformasjon.
Indreproduktrom
Definisjon. La være et reelt vektorrom. Et indreproduktrom i er en operasjon som tar inn to vektorer, og , for å gi ut et reelt tall . Operasjonen tilfredsstiller
Vi sier at , sammen med et valgt indreprodukt, er et indreproduktrom.
Teorem 9.6. (Pytagoras). La være et reelt indreproduktrom. Dersom vektorene og er ortogonale, er
Teorem 9.7. (Cauchy-Schwarz). La være et reelt indreproduktrom. Alle vektorer og tilfredstiller
Teorem 9.8. La være et indreproduktrom. Den ortogonale projeksjonen på en vektor ,
er en lineærtransformasjon.
Teorem 9.9. La og være to vektorer i et indreproduktrom . Da er og ortogonale.
Ortogonal projeksjon
Definisjon. En ortogonal mengde er en mengde av ikke-null vektorer , slik at
for alle vektorer og i mengden med . Dersom i tillegg for alle vektorene, sier vi at mengden er ortonormal.
Teorem 9.10. En ortogonal mengde er lineært uavhengig.
Definisjon. Dersom en ortogonal mengde i også er en basis, sier vi at mengden er en ortogonal basis for .
Teorem 9.12. Koordinatene til i en ortogonal basis er
Teorem 9.13. La være en ortogonal basis for , et underrom av . Punktet
er et punktet i som har kortest avstand til , altså
Teorem 9.15. La være en basis for et underrom . En vektor er i det ortogonale komplementet til hvis og bare hvis for alle .
Teorem 9.17. La være et underrom av et indreproduktrom . Da gjelder
Teorem 9.18. La være en -matrise. Da vet vi
Finne en ortogonal basis: Gram-Schmidts metode
Teorem 9.19. Mengden gitt ved
er en ortogonal basis for rommet utspent av .
Beregne den ortogonale basisen
La være et underrom til et indreproduktrom . Her er en metode for å regne ut den ortogonale projeksjonen :
- Ta utgangspunkt i en basis som spenner ut .
- Bruk så Gram-Schmidt til å finne en ortogonal basis for .
- Da kan man, for alle i , beregne den ortogonale projeksjonen
- Hvis , så får vi standardmatrisen
og da kan man, for alle i , beregne den ortogonale projeksjonen .
Indreproduktrom mellom funksjoner
Teorem 9.22. Operasjonen
er et indreprodukt på .
Teorem 9.27. Vektorene , og , hvor er parvis ortogonale i .
Komplekse indreprodukt
Definisjon. La være et komplekst vektorrom. Et indreproduktrom i er en operasjon som tar inn to vektorer, og , for å gi ut et komplekst tall . Operasjonen tilfredsstiller
Vi sier at , sammen med et valgt indreprodukt, er et indreproduktrom.
Teorem 9.29. Alt som gjelder for reelle indreproduktrom, med unntak av vinkelen, gjelder også for komplekse indreproduktrom.
Teorem 9.33. La være en kompleks -matrise. Da har vi
Egenverdier og egenvektorer
Finner du ikke det du ser etter? Se Wiki.
Definisjon av egenverdier og egenvektorer
Definisjon. La være en lineærtransformasjon. En skalar er en egenverdi for hvis det finnes en vektor i slik at
Vektoren kalles en egenvektor for som hører til egenverdien . Når er gitt ved en -matrise , så sier vi også at er en egenverdi for og er egenvektor for som hører til egenverdien .
Noen generelle observasjoner
Teorem 10.3. Anta at er en egenverdi for en lineærtransformasjon , og at er en tilhørende egenvektor. Da er alle multipletter av vektoren , der er et tall som ikke er , også egenvektorer som hører til egenverdien . Med andre ord er alle vektorer i mengden , unntatt nullvektoren, egenvektorer som hører til egenverdien .
Teorem 10.4. En -matrise har som egenverdi hvis og bare hvis den ikke er inverterbar.
Teorem 10.5. La være en lineærtransformasjon. La være egenvektorer til som hører til forskjellige egenverdier . Da er vektorene lineært uavhengige.
Teorem 10.6. La være et -dimensjonalt vektorrom og være en lineærtransforamsjon. Hvis har forskjellige egenverdier, så finnes det en basis for som består egenvektorer av .
Teorem fra LF. La være en inverterbar matrise med egenverdi . Da er en egenverdi for .
Hvordan finne egenverdier og egenvektorer?
Teorem 10.9. La være en -matrise.
- Egenverdiene til er alle løsninger av likningen
- Hvis er en egenverdi for , så er de tilhørende egenvektrene gitt ved alle ikke-trivielle løsninger av likningen
Definisjon. En diagonalmatrise er en kvadratisk matrise der alle tall utenfor diagonalen er .
10.10. Egenverdiene til en diagonalmatrise er tallene på diagonalen.
Egenrom
Definisjon. La være en lineærtransformasjon, og anta at er en egenverdi for . Da er egenrommet til mengden av alle egenvektorer som hører til , samt nullvektoren; altså mengden
Dimensjonen til egenrommet kalles den geometriske multiplisiteten til .
Eksistens av egenverdier
Teorem 10.14. En kompleks -matrise har alltid egenverdier (talt med algebraisk multiplisitet).
Teorem 10.15. For en lineærtransformasjon er det mulig at den ikke har noen reelle egenverdier. Hvis er et oddetall, har minst én reell egenverdi.
Teorem 10.16. De komplekse egenverdiene til en reell matrise kommer i komlekskonjugerte par.
Teorem 10.20. Egenrommet har dimensjon større enn eller lik og mindre enn eller lik den algebraiske multiplisiteten til egenverdien.
Diagonalisering
Finner du ikke det du ser etter? Se Wiki.
Definisjon. Vi sier at en -matrise er diagonaliserbar hvis det finnes en diagonalmatrise og en inverterbar matrise slik at
Vi sier da at diagonaliserer .
Teorem 11.2. En -matrise her diagonaliserbar hvis og bare hvis har lineært uavhengige egenvektorer.
Teorem 11.3. Hvis en -matrise har forskjellige egenverdier, så er diagonaliserbar.
Teorem 11.4. En -matrise er diagonaliserbar hvis og bare hvis har egenverdier og dimensjonen til egenrommet til hver egenverdi er lik den algebraiske multiplisiteten til .
Teorem 11.5. En kompleks -matrise er diagonaliserbar hvis og bare hvis det finnes en basis for som kun består av egenvektorer for . En reell -matrise er diagonaliserbar som en reell matrise hvis og bare hvis det finnes en basis for som kun består av egenvektorer for .
Teorem 11.6. La være en lineærtransformasjon. Vi antar at er diagonaliserbar og at er en basis som består av sine egenvektorer. Da er matrisen som beskriver med hensyn på basisen en diagonalmatrise , med egenverdierne til på diagonalen.
Mer om komplekse egenverdier
Teorem 11.11. La være en reell -matrise med kompleks egenverdi , med , og la være en egenvektor som hører til . Da kan vi faktorisere på følgende måte:
og
Symmetriske matriser
Definisjon. En reell matrise kalles symmetrisk dersom .
Teorem 11.14. La være en symmetrisk -matrise. Da har reelle egenverdier (talt med multiplisitet) og er diagonaliserbar (som en reell matrise).
Symmetri og ortogonalitet
Teorem 11.16. La være en symmetrisk -matrise. Egenvektorene til tilhørende to distinkte egenverdier er ortogonale.
Definisjon. En -matrise er ortogonalt diagonaliserbar dersom den har ortogonale egenvektorer.
Teorem 11.17. En reell -matrise er ortogonalt diagonaliserbar hvis og bare hvis den er symmetrisk.
Definisjon. En -matrise kalles hermitsk hvis
Teorem 11.18. En hermitsk -matrise har reelle egenverdier (talt med multiplisitet) og er ortogonalt diagonaliserbar.
Interpolasjon, regresjon og markovkjeder
Finner du ikke det du ser etter? Se Wiki.
Minste kvadraters metode
Definisjon. Vi kaller den minste kvadraters løsning for .
Teorem 12.1. La være en -matrise og være en kolonne vektor i . Mengden av minste kkvadraters løsninger for systemet er lik løsningsmengden for systemet
Hvis -matrisen er inverterbar, finnes det for hver , en unik minste kvadraters løsning for systemet .
Markovkjeder
Definisjon. En sannsynlighetsvektor er en vektor i der alle koordinatene er større eller lik og summen av koordinatene er lik . En -matrise kalles en stokastisk matrise hvis kolonnene i er sannsynlighetsvektorer.
Definisjon. La være en stokastisk matrise og en sannsynlighetsvektor. Vi kalles følgen av vektorene
en Markovkjede.
Teorem 12.8. En stokastisk matrise har alltid som egenverdi.
Definisjon. La være en stokastisk matrise. En egenvektor for som hører til egenverdi og er en sannsynlighetsvektor kalles en likevektsvektor.
Definisjon. En stokastisk matrise kalles regulær hvis det finnes en slik at alle elementene i er større enn 0.
Teorem 12.10. La være en regulær stokastisk matrise. Da har en unik likevekstvektor . For enhver utgangssannsynlighetsvektor konvergerer Markovkjeden til når .
Systemer av differensiallikninger
Finner du ikke det du ser etter? Se Wiki.
Vektorfunksjoner
Teorem 13.5. Den deriverte av en vektorfunksjon er lik vektorfunksjonen gitt ved å derivere hver komponent
Systemer av differensiallikninger
Teorem 13.7. (Superposisjonsprinsippet). Løsningene til
utgjør et vektorrom. Det vil si at dersom og er løsninger av systemet, så er en løsning for alle reelle tall og .
Løsningsteknikk for reell diagonaliserbare matriser
Teorem 13.8. La være en diagonaliserbar -matrise. Hvis er lineært uavhengige egenvektorer med tilhørende egenverdier , så er
en basis for løsningesrommet til . Med andre ord er
en generell løsning av .
Initialverdiproblemer
Definisjon. Et initialverdiproblem er et system sammen med en intialbetingelse hvor er et reelt tall og er en vektor i .
Todimensjonale system
Vi begrenser oss nå til todimensjonale system. Det betyr at har en reell -matrise. Det er tre forskjellige tilfeller vi må skille mellom avhengig av hva slags egenverdier har. Husk at egenverdiene er røttene til det karakteristiske polynomet .
Tilfelle 1: To forskjellige reelle røtter
Tilfelle 2: To komplekse (ikke reelle) røtter
Teorem 13.16. Anta at , , er en kompleks egenverdi til og la være en tilhørende kompleks egenvektor. Da danner
og
en basis for det reelle løsningsrommet til .
Tilfelle 3: Én reell rot
Teorem 13.32. La være en reell -matrise med reell egenverdi med algebraisk multiplisitet 2. La være en egenvektor til og la være en vektor som oppfyller . Da er løsningene til systemet på formen
Inhomogene system
Teorem 13.24. Hvis er en partikulær løsning av
så er en generell løsning gitt av
hvor er en generell løsning av den tilhørende homogene likningen.
Merk. Det forventes ikke at du kan finne partikulære løsninger av vilkårlige system. Du vil alltid få dem servert.
Andre ordens lineære differensiallikninger
Finner du ikke det du ser etter? Se Wiki.
Noen forberedelser
Vi skal behandle andre ordens differensiallikninger med konstante koeffisienter:
Løsningsmengden for homogene likninger er et vektorrom
Teorem 14.1. (Superposisjonsprinsippet). Løsningene til
utgjør et reelt vektorrom. Det vil si at dersom og er løsninger, så er en løsning for alle reelle tall og .
Løsningsteknikk for homogene likninger
Teorem 14.2. Løsningsmengden til
er et to-dimensjonalt reelt vektorrom som utspennes av følgende lineært uavhengige funksjoner. Dersom den karakteristiske likningen har:
- to reelle løsninger :
- en kompleks løsning med :
- kun én reell løsning :
Løsningsteknikk for inhomogene likninger
Teorem 14.6. Alle løsninger til den inhomogene likningen er på formen
der er en partikulær løsning og er en løsning til den tilsvarende homogene likningen.
Hjelpemidler
Wolfram Alpha
Likningssystem
Et likningssystem kan skrives om til en matrise og løses ved å bruke den inverse.
Eksempel:
Kan gjøres om til matriselikningen
der
Hvis er inverterbar, så kan dette løses ved
Dette kan løses direkte i Wolfram.
Gausseliminasjon
'row reduce' i Wolfram.