TMA4115 - Matematikk 3

Komplekse tall

Finner du ikke det du ser etter? Se Wiki.

Den imaginære enheten

Vi definerer den imaginære enheten ii, ved

i2=1i^2 = -1

Merk at ab=ab\sqrt{ab} = \sqrt{a} \cdot \sqrt{b} bare gjelder for a,b>0a, b > 0.

Komplekse tall er tall på formen

z=a+biz = a + bi

der a,bRa, b \in \mathbb{R}, og ii er den imaginære enheten.

Mengden av komplekse tall er C\mathbb{C}.

Operasjoner på komplekse tall

Regneregler for komplekse tall følger regnereglene for reelle tall.

Definisjon. La z=a+biz = a + bi være et komplekst tall. Da er zz konjugert gitt ved

z=abiz = a - bi

Merk at zz=a2+b2z\overline{z} = a^2 + b^2 er et reelt tall.

Polare koordinater

Polarkoordinater er nyttige når en multipliserer og tar potenser av komplekse tall.

La rr være avstanden fra det komplekse tallet z=a+biz = a + bi til origo, og la θ\theta være vinkelen zz gjør med den reelle aksen. Da har vi at

a=Rez=rcosθb=Imz=rsinθa = \text{Re}\, z = r \, \cos{\theta} \\ b = \text{Im}\, z = r \, \sin{\theta}

rr kalles modulus eller absoluttverdi til zz og θ\theta kalles vinkelen eller argumentet til zz.

r=z=a2+b2=zzθ={arctanbafor a>0arctanba+πfor a<0π/2for a=0,b>03π/2for a=0,b<0r = |z| = \sqrt{a^2 + b^2} = \sqrt{z\overline{z}} \theta = \begin{cases} \arctan \frac{b}{a} & \text{for } a > 0 \\ \arctan \frac{b}{a} + \pi & \text{for } a < 0 \\ \pi / 2 & \text{for } a = 0, \, b > 0 \\ 3\pi / 2 & \text{for } a = 0, \, b < 0 \\ \end{cases}

Trekantulikheten

Teorem 1.5. La zz og ww være komplekse tall. Da gjelder at

z+wz+w |z + w| \leq |z| + |w|

Eulers formel

Eulers formel er gitt ved

eix=cosx+isinx e^{ix} = \cos{x} + i \, \sin{x}

der xRx \in \mathbb{R} og ii er den imaginære enheten.

Det følger at

z=r(cosθ+isinθ)=reiθ z = r(\cos{\theta} + i \, \sin{\theta}) = re^{i\theta}

Teorem 1.7. La z=reiθz = re^{i\theta} og w=seiαw = se^{i\alpha}. Da gjelder:

zw=rsei(θ+α)zw=rsei(θα)\begin{aligned} z \cdot w &= rse^{i(\theta + \alpha)} \\ \frac{z}{w} &= \frac{r}{s} e^{i(\theta - \alpha)} \end{aligned}

Røtter av komplekse tall

Et polynom f(z)=zn+az1zn1+...+a1<+a0f(z) = z^n + a_{z-1}z^{n-1} + ... + a_1<+a_0, zCz \in \mathbb{C} kan alltid faktoriseres

f(z)=i=1n(zzi)f(z) = \prod_{i=1}^n (z - z_i)

der ziCz_i \in \mathbb{C} er løsninger av likningen f(z)=0f(z) = 0.

Lineære likningssystemer og gausseliminasjon

Finner du ikke det du ser etter? Se Wiki.

Ekvivalente systemer

Vi sier at to likningssystemer er ekvivalente dersom de har samme løsningsmengder.

Totalmatrisen til et system

Et lineært likningssystem med mm likninger og nn ukjente beskrives av en matrise. Denne kalles totalmatrisen eller den utvidede matrisen til likningssystemet. Vi lar gjerne en vertikal linje i matrisen skille venstre og høyre del av likningene.

Radoperasjoner

Følgende tre måter å endre en matrise på kalles radoperasjoner:

  • Gange alle tallene i en rad med det samme tallet. Dette betyr å gange en likning med et tall. Vi kan ikke gange med 0.
  • Legge til et multiplum av en rad i en annen. Dette er å kombinere likninger til nye likninger.
  • Bytte rekkefølge på radene. Dette er det samme som å bytte rekkefølge på likningene.

Vi sier at to matriser er radekvivalente hvis vi kan komme fra den ene til den andre ved å utføre en eller flere radoperasjoner. Vi bruker notasjonen MNM \sim N for å si at to matriser MM og NN er radekvivalente.

Teorem 2.7. Hvis to likningssystemer har radekvivalente totalmatriser, så er de to likningssystemene ekvivalente.

Trappeform, redusert trappeform og pivotelementer

Definisjon. Tallet lengst til venstre i en rad som ikke er 00 kalles pivotelementet for den raden. (En rad med bare nuller har ikke noe pivotelement.)

Definisjon. En matrise er på trappeform dersom det ikke er annet enn 00-ere under hvert pivotelement, og eventuelle nullrader er helt nederst.

Definisjon. En matrise er på redusert trappeform hvis den er på trappeform, pivotelementene er 11 og alle tall som står over pivotelementer er 00.

Teorem 2.11. For enhver m×nm \times n-matrise MM, finnes en m×nm \times n-matrise NN på redusert trappeform, slik at MM og NN er radekvivalente.

Eksistens, entydighet og parametrisering av løsninger

For ethvert lineært likningssystem må ett av de følgende punktene være sant:

  • Systemet har ingen løsning: Dette skjer når vi i redusert trappeform har en rad av typen 0 0 ... 0  b0 \ 0 \ ... \ 0 \ | \ b der b0b \neq 0.
  • Systemet har entydig løsning. Dette skjer når trappeform av totalmatrisen har pivotelement i alle kolonner unntatt den siste.
  • Systemet har uendelig mange løsninger. Dette skjer når vi får frie variabler. Vi får en fri variabel for hver kolonne (unntatt den siste) som ikke har pivotelement.

Lineære likninger med komplekse tall

Et lineært likningssett med komplekse koeffisienter og løsning, kan løses med gausseliminasjon på samme måte som i det reelle tilfellet.

Vektorlikninger

Finner du ikke det du ser etter? Se Wiki.

Vektorregning

En lineærkombinasjon av vektorene xx og yy er en vektor på formen

ax+byax + by

der aa og bb er skalarer, kalt vekter.

Det lineære spennet til xx og yy er mengden av alle lineærkombinasjoner av xx og yy.

Vektorlikninger

Likningssystemer kan ofte skrives om til vektorlikninger.

Geometrisk tolkning av vektorlikninger: Eksistens og entydighet av løsninger

Vi tar utgangspunkt i vektorlikningen

xv1+yv2+zv3=v4 xv_1 + yv_2 + zv_3 = v_4

Vi skal nå gi noen geometriske illustrasjoner i R3\mathbb{R}^3 av hva som skjer i de ulike tilfellene:

  • Systemet har ingen løsning: v4Sp{v1,v2,v3}v_4 \notin \text{Sp}\{v_1, v_2, v_3\}
  • Systemet har entydig løsning: v4Sp{v1,v2,v3}v_4 \in \text{Sp}\{v_1, v_2, v_3\} og v1,v2,v3v_1, v_2, v_3 er lineært uavhengige.
  • Systemet har uendelig mange løsninger: v4Sp{v1,v2,v3}v_4 \in \text{Sp}\{v_1, v_2, v_3\} og v1,v2,v3v_1, v_2, v_3 er lineært avhengige.

Matriser

Finner du ikke det du ser etter? Se Wiki.

Definisjoner og notasjon

Produkt av matrise og vektor

Teorem 4.6. Hvis AA er en m×nm \times n-matrise, vv og ww er vektorer i Rn\mathbb{R}^n og cc er en skalar, så har vi følgende likheter:

A(v+w)=Av+Aw A(v + w) = Av + Aw

A(cv)=c(Av) A(cv) = c(Av)

Sum og skalering av matriser

Teorem 4.9. Hvis AA og BB er m×nm \times n-matriser, vv er en vektorer i Rn\mathbb{R}^n og cc er en skalar, så har vi følgende likheter:

(A+B)v=Av+Bv (A + B)v = Av + Bv

(cA)v=c(Av) (cA)v = c(Av)

Matrisemultiplikasjon

Definisjon. La A være en m×nm \times n-matrise med rader a1,a2,,ama_1, a_2, \dots, a_m, og la B være en n×pn \times p-matrise med kolonner b1,b2,,bpb_1, b_2, \dots, b_p. Produktet av A og B er definert ved:

AB=[a1b1a1b2a1bpa1b1a1b2a1bpamb1amb2ambp]AB = \begin{bmatrix} a_1b_1 & a_1b_2 & \cdots & a_1b_p \\ a_1b_1 & a_1b_2 & \cdots & a_1b_p \\ \vdots & \vdots & \ddots & \vdots \\ a_mb_1 & a_mb_2 & \cdots & a_mb_p \\ \end{bmatrix}

Teorem 4.13. La AA, BB, og CC være matriser, vv en vektor, og cc et tall. I hver del av teoremet antar vi at størrelsene på matrisene og vektoren er slik at alle operasjonene som brukes er definert. (a) Matrisemultiplikasjon er en assosiativ operasjon, det vil si:

A(BC)=(AB)CA(BC) = (AB)C

Et spesialtilfelle av dette er følgende:

(AB)v=A(Bv)(AB)v = A(Bv)

(b) Å skalere et matriseprodukt er det samme som å skalene én av faktorene og deretter multiplisere:

(cA)B=c(AB)=A(cB)(cA)B = c(AB) = A(cB)

(c) Matrisemultiplikasjon distribuerer over addisjon av matriser, det vil si:

A(B+C)=AB+ACA(B+C) = AB + AC

(A+B)C=AC+ BC(A + B)C = AC +\ BC

Transponering

Operasjonen transponering går ut på å bytte om rader og kolonner.

Teorem 4.15. For enhver matrise AA har vi:

(A)=A(A^\top)^\top = A

Hvis AA og BB er matriser slik at produktet ABAB er definert, så er:

(AB)=BA(AB)^\top = B^\top A^\top

Identitetsmatriser

La I=InI = I_n være den kvadratiske n×nn \times n-matrisen

In=[100010001]I_n = \begin{bmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & 1 \end{bmatrix}

Da er IA=AIA = A for enhver n×pn \times p-matrise AA og BI=BBI = B for enhver m×nm \times n-matrise BB. Spesielt er Ix=xIx = x for enhver vektor xx. Derfor kalles I=InI = I_n en identitetsmatrise, eller en n×nn \times n-identitetsmatrise.

Potenser av matriser

Hvis AA er en kvadratisk matrise, så kan vi gange AA med seg selv. Generelt definerer vi at AA opphøyd i nn-te er produktet av AA med seg selv nn ganger:

An=AAAA^n = A \cdot A \cdot \cdots \cdot A

For tall har vi definert at a0=1a^0 = 1. For kvadratiske matriser har vi derimot

A0=InA^0 = I_n

Inverser

Definisjon. La AA være en $n \times $-matrise. En invers til AA er en n×nn \times n-matrise BB som er slik at

AB=In=BAA \cdot B = I_{n} = B \cdot A

En matrise er inverterbar hvis den har en invers.

Teorem 4.18. Hvis en matrise er inverterbar, så har den nøyaktig én invers.

Teorem 4.20. La AA være en n×nn \times n-matrise, og bb en vektor. Hvis AA er inverterbar, så har likningen Ax=bAx = b entydig løsning, og løsningen er x=A1bx = A^{-1}b.

Beregning av inverser

Teorem 4.25. La AA være en n×nn \times n-matrise. (a) AA er inverterbar hvis og bare hvis AInA \sim I_n.

(b) Hvis AA er inverterbar, så kan vi finne inversen ved å gausseliminere matrisen

[A  In]\begin{bmatrix} A \ | \ I_n \end{bmatrix}

til redusert trappeform og lese av høyre halvdel av den resulterende matrisen. Med andre ord: Resultatet av gausseliminasjonen blir følgende matrise:

[In  A1]\begin{bmatrix} I_n \ | \ A^{-1} \end{bmatrix}

Formel for invertering av 2×22 \times 2-matrise

La

A=[abcd]A = \begin{bmatrix} a & b \\ c & d \end{bmatrix}

Da er

A1=1adbc[dbca]A^{-1} = \frac{1}{ad-bc} \, \begin{bmatrix} d & -b \\ -c & a \end{bmatrix}

Lineær uavhengighet

Finner du ikke det du ser etter? Se Wiki.

Lineært spenn: overflødige vektorer

Dersom en vektor uu ikke utvider spennet til en mengde vektorer v1,,vnv_1, \cdots, v_n så er vektorene u,v1,,vnu, v_1, \cdots, v_n lineært avhengige.

Definisjon av lineær uavhengighet

Definisjon. Vektorene v1,v2,,vnv_1, v_2, \cdots, v_n er lineært uavhengige dersom likningen

x1v1+x2v2++xnvn=0x_1 v_1 + x_2 v_2 + \cdots + x_n v_n = 0

ikke har andre løsninger enn den trivielle løsningen x1=x2==xn=0x_1 = x_2 = \cdots = x_n = 0. I motsatt tilfelle kalles de lineært avhengige.

Lineær uavhengighet for to vektorer

Teorem 5.6. To vektorer uu og vv, begge ulik 00, er lineært uavhengige hvis og bare hvis ucvu \neq cv, for en skalar c0c \neq 0.

Hvordan sjekke lineær uavhengighet?

Teorem 5.8. La AA være en matrise. Følgende påstander er ekvivalente:

  • Kolonnene i AA er lineært uavhengige.
  • Likningen Ax=0Ax = 0 har bare den trivielle løsningen x=0x = 0.
  • Vi får ingen frie variabler når vi løser Ax=0Ax = 0.
  • Når vi gausseliminerer AA, får vi et pivotelement i hver kolonne.

Teorem 5.8 gir oss en grei metode for å sjekke lineær uavhengighet. Hvis vi har vektorer v1,v2,,vnv_1, v_2, \dots, v_n kan vi finne ut om de er lineært uavhengige på denne måten:

  • Lag en matrise A=[ v1 v2  vn ]A = [ \ v_1 \ v_2 \ \dots \ v_n \ ] med disse vektorene som kolonner.
  • Gausseliminer AA til trappeform.
  • Hvis hver kolonne inneholder et pivotelement, er vektorene lineært uavhengige. Ellers er de lineært avhengige.

Teorem 5.12. Gitt nn vektorer v1,v2,,vnv_1, v_2, \dots, v_n i Rm\mathbb{R}^m eller Cm\mathbb{C}^m. Hvis

  • en av vektorene er en lineærkombinasjon av de andre, eller
  • n>mn > m, så er vektorene lineært avhengige.

Teorem 5.13. Vektorene v1,v2,,vnv_1, v_2, \dots, v_n er lineært uavhengige hvis og bare hvis ingen av dem kan skrives som en lineærkombinasjon av de andre.

Like mange vektorer som dimensjonen

Teorem 5.14. Hvis vi har nn vektorer v1,v2,,vnv_1, v_2, \dots, v_n i Rn\mathbb{R}^n, så er de lineært uavhengige hvis og bare hvis de utspenner hele Rn\mathbb{R}^n, altså hvis og bare hvis

Sp{v1,v2,,vn}=Rn\text{Sp}\{v_1, v_2, \dots, v_n \} = \mathbb{R}^n

Determinanter

Finner du ikke det du ser etter? Se Wiki.

Determinanter for 2 x 2-matriser

For en 2×22 \times 2-matrise

A=[abcd]A = \begin{bmatrix} a & b \\ c & d \end{bmatrix}

er determinanten definert ved:

detA=abcd=adbc\det{A} = \begin{vmatrix} a & b \\ c & d \end{vmatrix} = ad - bc

Arealet av parallellogrammet utspent av kolonnene i AA er lik

detA| \det{A} |

Determinanter for 3 x 3-matriser

For en 3×33 \times 3-matrise

A=[a11a12a13a21a22a23a31a32a33]A = \begin{bmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{bmatrix}

er determinanten definert ved:

detA=a11a12a13a21a22a23a31a32a33=a11a22a23a32a33a12a21a23a31a33+a13a21a22a31a32=a1a2×a3=a1a2a3sinαcosθ\begin{aligned} \det{A} &= \begin{vmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{vmatrix} \\ &= a_{11}\begin{vmatrix} a_{22} & a_{23} \\ a_{32} & a_{33} \end{vmatrix} - a_{12}\begin{vmatrix} a_{21} & a_{23} \\ a_{31} & a_{33} \end{vmatrix} + a_{13}\begin{vmatrix} a_{21} & a_{22} \\ a_{31} & a_{32} \end{vmatrix}\\ &= a_1 \cdot a_2 \times a_3 = |a_1|\,|a_2|\,|a_3|\,\sin{\alpha}\cos{\theta} \end{aligned}

Determinanter og radoperasjoner

Teorem 6.5. La AA være en n×nn \times n-matrise, og la BB være en matrise vi får ved å utføre en radoperasjon på AA. Da har vi følgende sammenheng mellom determinantene til AA og BB, basert på hvilken type radoperasjon vi utførte:

Radoperasjon Resultat
Gange en rad med et tall kk detB=kdetA\det{B} = k \cdot \det{A}
Legge til et multiplum av én rad i en annen detB=detB\det{B} = \det{B}
Bytte om to rader detB=detA\det{B} = -\det{A}

Triangulære matriser

Teorem 6.8. La AA være en (øvre eller nedre) triangulær n×nn \times n-matrise. Da er determinanten til AA lik produktet av tallene på diagonalen i AA:

detA=a11a22ann\det{A} = a_{11} \cdot a_{22} \cdot \cdots \cdot a_{nn}

Teorem fra LF La AA være en øvre triangulær n×nn \times n-matrise. Da er egenverdiene til AA elementene på diagonalen.

Flere regneregler for determinanter

Teorem 6.10. Determinanten til et produkt av to matriser er produktet av determinantene. Altså: Hvis AA og BB er to n×nn \times n-matriser, så er

detAB=(detA)(detB) \det{AB} = (\det{A})(\det{B})

Teorem 6.11. Determinanten endrer seg ikke når vi transponerer matrisen. Altså: Hvis AA er en n×nn \times n-matrise, så er

detA=detA \det{A} = \det{A^\top}

Karakterisering av inverterbarhet

Teorem 6.12. La AA være en n×nn \times n-matrise. Følgende påstander er ekvivalente:

  • AA er inverterbar.
  • detA0\det{A} \neq 0.
  • Kolonnene i AA er lineært uavhengige.
  • Kolonnene i AA utspenner Cn\mathbb{C}^n.

\includepdf[]{assets/vektorromaksiomene.pdf

Vektorrom

Finner du ikke det du ser etter? Se Wiki.

Definisjonen av vektorrom

Definisjon. La VV være en mengde, og anta at vi har definert to operasjoner:

addisjon av vektorer: u+vskalarmultiplikasjon: cu\text{addisjon av vektorer:} \ u + v \\ \text{skalarmultiplikasjon:} \ c \cdot u

Addisjon skal være definert for alle elementer uu og vv i VV, og skalarmultiplikasjonen for alle skalarer cc og alle uu i VV. Resultatet av operasjonene skal alltid være et element i VV. Dersom mengden VV og de to operasjonene oppfyller vektorromsaksiomene (V1)-(V8), så sier vi at VV er et vektorrom, og vi kaller elementene i VV for vektorer.

Generelle egenskaper og lineær uavhengighet

Definisjon. La v1,v2,,vnv_1, v_2, \dots, v_n være vektorer i vektorommet VV. Disse vektorene er lineært uavhengige dersom likningen

c1v1+c2v2++cnvn=0c_1 \cdot v_1 + c_2 \cdot v_2 + \cdots + c_n \cdot v_n = 0

ikke har andre lsninger enn den trivielle løsningen c1=c2==cn=0.c_1 = c_2 = \cdots = c_n = 0. I motsatt tilfelle kalles de lineært avhengige.

Teorem 7.3. Gitt nn vektorer v1,v2,,vnv_1, v_2, \dots, v_n i et vektorrom VV. Hvis

  • en av vektorene er en lineærkombinasjon av de andre, eller
  • en av vektorene er 00,

så er vektorene lineært avhengige.

Flere eksempler på vektorrom

  • Polynomer av begrenset grad.
  • Alle polynomer.
  • Kontinuerlige funksjoner.
  • Deriverbare og glatte funksjoner.
  • Matriser.

Underrom

Definisjon. Et underrom av et vektorrom VV er en delmengde UVU \subseteq V som i seg selv utgjør et vektorrom, med addisjon og skalarmultipliskasjon definert på samme måte som i VV.

Teorem 7.9. La VV være et vektorrom. En delmengde UVU \subseteq V er et underrom av VV hvis og bare hvis følgende tre betingelser er oppfylt.

  • Nullvektoren 00 i VV ligger i UU.
  • For alle vektorer uu og vv i UU er også summen u+vu + v i UU.
  • For alle vektorer uu i UU og alle skalarer cc er også skalarproduktet cucu u UU.

Teorem 7.11 En mengde Sp{v1,v2,,vn}\text{Sp}\{v_1, v_2, \dots, v_n\} utspent av vektorer i et vektorrom VV er alltid et underrom av VV.

Endeligdimensjonale vektorrom

Definisjon. Et vektorrom VV er endeligdimensjonalt hvis det finnes en endelig mengde av vektorer i VV som utspenner VV. Ellers er VV uendeligdimensjonalt.

Basis

Definisjon. En basis for et vektorrom VV er en liste

B=(b1,b2,,bn)B = (b_1, b_2, \dots, b_n)

av vektorer i VV som både utspenner VV og er lineært uavhengige.

Teorem 7.14. La VV være et vektorrom med basis

B=(b1,b2,,bn)B = (b_1, b_2, \dots, b_n)

Da kan hver vektor vv i VV skrives som en lineærkombinasjon

v=c1b1+c2b2++cnbnv = c_1b_1 + c_2b_2 + \cdots + c_nb_n

av basisvektorene i BB, på en entydig måte.

Definisjon. Tallene c1,c2,,cnc_1, c_2, \dots, c_n i teorem 7.14 kalles koordinatene til vektoren vv med hensyn på basisen BB. Vi definerer notasjonen [v]B[\,v\,]_B for vektoren i Cn\mathbb{C}^n som består av koordinatene til v:

[v]B=[c1c2cn][\,v\,]_B = \begin{bmatrix} c_1 \\ c_2 \\ \vdots \\ c_n \end{bmatrix}

Teorem 7.16. La VV være et vektorrom med basis BB. Koordinatene til en lineærkombinasjon av vektorer er tilsvarende lineærkombinasjonen av koordinatene til hver vektor:

[c1v1+c2v2++ctvt]B=c1[v]B+c2[v2]B++ct[vt]B[\, c_1v_1 + c_2v_2 + \cdots + c_tv_t\,]_B = c_1 \cdot [\,v\,]_B + c_2 \cdot [\,v_2\,]_B + \cdots + c_t \cdot [\,v_t\,]_B

Teorem 7.18. La VV være et endeligdimensjonalt vektorrom. Da kan enhver endelig mengde som utspenner VV reduseres til en basis for VV. Mer presist: Hvis GG er en endelig mengde av vektorer slik at SpG=V\text{Sp}\,G = V, så finnes en delmengde BGB \subseteq G slik at vektorene i BB utgjør en basis for VV.

Teorem 7.19. Ethvert endeligdimensjonalt vektorrom har en basis.

Teorem 7.20. La VV være et endeligdimensjonalt vektorrom. Enhver endelig mengde av vektorer i VV som er lineært uavhengig kan utvides til en basis. Mer presist: Hvis LL er en endelig mengde av vektorer som er lineært uavhengige, så finees en basis for VV som inneholder alle vektorene i LL.

Dimensjon

Teorem 7.21. La VV være et vektorrom med en basis BB som består av nn vektorer. La v1,v2,,vmv_1, v_2, \dots, v_m være mm vektorer i VV, der m>nm > n. Da er disse vektorene lineært avhengige.

Teorem 7.22. La VV være et endeligdimensjonalt vektorrom. Da har enhver basis for VV samme størrelse.

Definisjon. La VV være et endeligdimensjonalt vektorrom. Vi definerer dimensjonen til VV som antall vektorer i en basis for VV. Vi bruker notasjonen dimV\dim{V} for dimensjonen til VV. Hvis BB er en basis for VV, har vi altså

dimV=B\dim{V} = |B|

Teorem 7.23. La VV være et vektorrom med et underrom UU. Hvis VV er endeligdimensjonalt, så er UU også endeligdimensjonalt, og

dimUdimV\dim{U} \leq \dim{V}

Vektorrom tilknyttet en matrise

Nullrommet. Vi definerer nullrommet til en reell m×nm \times n-matrise AA som løsningsmengden til likningen Ax=0Ax = 0, altså delmengden av Rn\mathbb{R}^n:

NullA={xRnAx=0} \text{Null}\,A = \{ x \in \mathbb{R}^n \,|\, Ax = 0 \}

Kolonnerommet. Vi definerer kolonnerommet til en reell m×nm \times n-matrise

A=[a1 a2  an]A = [\, a_1 \ a_2 \ \cdots \ a_n \,]

som underrommet av Rm\mathbb{R}^m utspent av kolonnene i AA:

ColA=Sp{a1,a2,,an}\text{Col}\,A = \text{Sp} \{\, a_1, a_2, \dots, a_n \,\}

Vi kan også beskrive kolonnerommet ved

ColA={AvvRn} \text{Col}\,A = \{\, Av \,|\, v \in \mathbb{R}^n \,\}

Vi finner en basis for kolonnerommet ved:

  • Bruk gausseliminasjon for å finne trappeformmatrisen AA' som er radekvivalant til AA.
  • Se på AA' for å finne ut hvilke av kolonnene i AA som er pivotkolonner.
  • Pivotkolonnene danner en basis for ColA\text{Col}\,A.

Radrommet. Vi definerer radrommet til en reell m×nm \times n-matrise

A=[r1r2rm]A = \begin{bmatrix} r_1^\top \\ r_2^\top \\ \vdots \\ r_m^\top \end{bmatrix}

som underrommet av Rn\mathbb{R}^n utspent av radene i AA:

RowA=Sp{r1,r2,,rm}\text{Row}\,A = \text{Sp} \{\, r_1, r_2, \dots, r_m \,\}

Dette er det samme som kolonnerommet til den transponerte matrisen:

RowA=ColA\text{Row}\,A = \text{Col}\,A^\top

Teorem 7.25 La AA være en m×nm \times n-matrise, og la EE være trappeformmatrisen vi får når vi gausseliminerer AA. Da har vi:

  • Dimensjonen til nullrommet til AA er lik antall frie variabler vi får når vi løser likningssystemet Ax=0Ax = 0, altså antall kolonner uten pivotelementer i EE.
  • Dimensjonen til kolonnerommet til AA er lik antall kolonner med pivotelementer i EE.
  • Dimensjonen til radrommet til AA er lik antall rader som ikke er null i EE.

Teorem 7.26 La AA være en m×nm \times n-matrise. Da har kolonnerommet og radrommet til AA samme dimensjon. Dette kalles rangen til AA.

dim ColA=dim RowA=rankA\text{dim Col}\,A = \text{dim Row}\,A = \text{rank}\,A

Teorem 7.27 La AA være en m×nm \times n-matrise. Da er

dim NullA+rankA=n\text{dim Null}\,A + \text{rank}\,A = n

Lineærtransformasjoner

Finner du ikke det du ser etter? Se Wiki.

Funksjoner

Definisjon. En funksjon består av:

  • En mengde som kalles funksjonens domene.
  • En mengde som kalles funksjonens kodomene.
  • En regel som til hvert element i domenet tilordner et element i kodomenet.

Definisjon. La f:ABf: A \rightarrow B være en funksjon. Vi sier at ff er injektiv (eller en-til-en) hvis det for hver bb i BB er maksimalt én aa i AA slik at f(a)=bf(a) = b. Vi sier at ff er surjektiv (eller ) hvis det for hver bb i BB finnes en aa i AA slik at f(a)=bf(a) = b. Bildet til ff er mengden av alle elementer i kodomenet som blir truffet av ff, altså delmengden imf={f(a)  aA}\text{im} f = \{\, f(a) \ | \ a \in A \} av BB.

Det følger umiddelbart fra definisjonen at en funksjon f:ABf: A \rightarrow B er surjektiv hvis og bare hvis bildet til funksjonen er hele kodomenet: imf=B\text{im} f = B.

Lineærtransformasjoner

Definisjon. La VV og WW være vektorrom. En funksjon T:VWT: V \rightarrow W er en lineærtransformasjon hvis den oppfyller følgende to kriterier:

  • T(u+v)=T(u)+T(v)T(u + v) = T(u) + T(v) for alle uu og vv i VV.
  • T(cu)=cT(u)T(cu) = c \cdot T(u) for alle vektorer uu i VV og alle skalarer cc.

Teorem 8.3. Hvis T:VWT: V \rightarrow W er en lineærtrasformasjon, så oppfyller den følgende:

  • En lineærkombinasjon i VV sendes til den tilsvarende lineærkombinasjonen i WW:

T(c1v1+c2v2++crvr)=c1T(v1)+c2 T(v2)++c2T(vr)T(c_1v_1 + c_2v_2 + \cdots + c_rv_r) = c_1 \cdot T(v_1) + c_2 \ T(v_2) + \cdots + c_2 \cdots T(v_r)

  • Nullvektoren i VV sendes til nullvektoren i WW:

T(0)=0 T(0) = 0

Teorem 8.4. La VV og WW være endeligdimensjonale vektorrom og la T:VWT: V \rightarrow W være en lineærtransformasjon. Anta B=(b1,,bn)B = (b_1, \dots, b_n) er en basis for VV. Da er TT fullstendig bestemt av bildene T(b1),,T(bn)T(b1), \dots, T(b_n) av basisvektorene.

Kjerne og bilde

Definisjon. La T:VWT: V \rightarrow W være en lineærtransformasjon. Kjernen til TT er mengden av alle vektorer i VV som blir sendt til nullvektoren i WW:

kerT={vV  T(v)=0}\text{ker}\,T = \{\,v \in V \ | \ T(v) = 0 \}

Teorem 8.8. La T:VWT: V \rightarrow W være en lineærtransformasjon.

  • Kjernen ketT\text{ket}\,T er et underrom av VV.
  • Bildet imT\text{im}\,T er et underrom av WW.

Teorem 8.9. En lineærtransformasjon T:VWT: V \rightarrow W er injektiv hvis og bare hvis kerT={0}\text{ker}\,T=\{\,0\,\}.

Lineærtransformasjoner gitt ved matriser

Teorem 8.11. La AA være en m×nm \times n-matrise, og la T:RnRmT: \mathbb{R}^n \rightarrow \mathbb{R}^m være en lineærtransformasjon gitt ved T(x)=AxT(x) = Ax. Da er

kerT=NullAogimT=ColA\text{ker}\,T = \text{Null}\,A \quad \text{og} \quad \text{im}\,T=\text{Col}\,A

Teorem 8.13. La T:RnRmT: \mathbb{R}^n \rightarrow \mathbb{R}^m være en lineærtransformasjon. Da er

T(x)=Axfor alle x i RnT(x) = Ax \quad \text{for alle } x \text{ i } \mathbb{R}^n

der AA er m×nm \times n-matrisen gitt ved

[ T(e1) T(e2)  T(en) ][ \ T(e_1) \ T(e_2) \ \cdots \ T(e_n) \ ]

hvor (e1,e2,,en)(e_1, e_2, \dots, e_n) er standardmatrisen for Rn\mathbb{R}^n.

Definisjon. Matrisen AA i teorem 8.13 kalles standardmatrisen til lineærtransformasjonen TT.

Teorem 8.14. La T:RnRmT: \mathbb{R}^n \rightarrow \mathbb{R}^m være en lineærtransformasjon og la AA være standardmatrisen til TT. Da vet vi:

  • TT er surjektiv hvis og bare hvis kolonnene i AA utspenner hele Rm\mathbb{R}^m.
  • TT er injektiv hvis og bare hvis kolonnene i AA er lineært uavhengige.

Lineærtransformasjoner og basiser

Teorem 8.15. La VV og WW være endeligdimensjonale vektorrom, og la BB og CC være basiser for henholdsvis VV og WW. La T:VWT: V \rightarrow W være en lineærtransformasjon. Da finnes en matrise AA slik at

[ T(x) ]C=A[ x ]B[ \ T(x) \ ]_C = A \cdot [ \ x \ ]_B

for alle vektorer xx i VV.

Teorem 8.16. La VV være et nn-dimensjonalt vektorrom, og la B=(b1,b2,,bn)B = (b_1, b_2, \dots, b_n) og C=(c1,c2,,cn)C = (c_1, c_2, \dots, c_n) være to basiser for VV. Da finnes en n×nn \times n-matrise AA slik at

[ x ]C=A[ x ]B[ \ x \ ]_C = A \cdot [ \ x \ ]_B

for alle vektorer xx i VV.

Isomorfi

Definisjon. La T:VWT: V \rightarrow W være en lineærtransformasjon. En invers til TT er en lineærtransformasjon S:WVS: W \rightarrow V som er slik at

S(T(v))=v, for alle v i V, ogT(S(w))=w, for alle w i WS(T(v)) = v \text{, for alle } v \text{ i } V \text{, og} \\ T(S(w)) = w \text{, for alle } w \text{ i } W

Definisjon. Hvis T:VWT: V \rightarrow W er en lineærtransformasjon som har en invers, så er TT en isomorfi. Da sier vi dessuten at vektorrommene VV og WW er isomorfe, og vi skriver VWV \cong W.

Teorem 8.19. En lineærtransformasjon er en isomorfi hvis og bare hvis den er både injektiv og surjektiv.

Teorem 8.22. Hvis VV er et nn-dimensjonalt komplekst vektorrom, så er VV isomorft med Cn\mathbb{C}^n. Og hvis WW er et nn-dimensjonalt reelt vektorrom, så er WW isomorft med Rn\mathbb{R}^n.

Projeksjon

Finner du ikke det du ser etter? Se Wiki.

Skalarproduktet i RnR^n

Teorem 9.3. Den ortogonale projeksjonen på en vektor vv,

Pv:RnRnPv(w)=vwvvvP_v : \mathbb{R}^n \rightarrow \mathbb{R}^n \\ P_v(w)=\frac{v \cdot w}{v \cdot v}\,v

er en lineærtransformasjon.

Indreproduktrom

Definisjon. La VV være et reelt vektorrom. Et indreproduktrom i VV er en operasjon som tar inn to vektorer, vv og ww, for å gi ut et reelt tall v,w\langle v, w \rangle. Operasjonen tilfredsstiller

v,w=w,v(symmetri)v,(aw+bu)=av,w+bv,u(linearitet)v,v0, og v,v=0 kun hvis v=0(positivitet)\begin{aligned} &\langle v, w \rangle = \langle w, v \rangle &\text{(symmetri)} \\ &\langle v, (aw + bu) \rangle = a \langle v, w \rangle + b \langle v, u \rangle &\text{(linearitet)} \\ &\langle v, v \rangle \geq 0 \text{, og } \langle v, v \rangle = 0 \text{ kun hvis } v = 0 &\text{(positivitet)} \end{aligned}

Vi sier at VV, sammen med et valgt indreprodukt, er et indreproduktrom.

Teorem 9.6. (Pytagoras). La VV være et reelt indreproduktrom. Dersom vektorene vv og ww er ortogonale, er

v+w=v2+w2\lVert v + w \rVert = \lVert v \rVert^2 + \lVert w \rVert^2

Teorem 9.7. (Cauchy-Schwarz). La VV være et reelt indreproduktrom. Alle vektorer vv og ww tilfredstiller

v,wvw| \langle v, w \rangle | \leq \lVert v \rVert \lVert w \rVert

Teorem 9.8. La VV være et indreproduktrom. Den ortogonale projeksjonen på en vektor vv,

Pv:RnRnPv(w)=v,wv,vvP_v : \mathbb{R}^n \rightarrow \mathbb{R}^n \\ P_v(w)=\frac{\langle v, w \rangle}{\langle v, v \rangle}\,v

er en lineærtransformasjon.

Teorem 9.9. La vv og ww være to vektorer i et indreproduktrom VV. Da er Pv(w)P_v(w) og wPv(w)w-P_v(w) ortogonale.

Ortogonal projeksjon

Definisjon. En ortogonal mengde er en mengde av ikke-null vektorer u1,u2,,unu_1, u_2, \dots, u_n, slik at

ui,uk=0\langle u_i, u_k \rangle = 0

for alle vektorer uiu_i og uku_k i mengden med iki \neq k. Dersom i tillegg uj=1\lVert u_j \rVert = 1 for alle vektorene, sier vi at mengden er ortonormal.

Teorem 9.10. En ortogonal mengde er lineært uavhengig.

Definisjon. Dersom en ortogonal mengde u1,u2,,unu_1, u_2, \dots, u_n i VV også er en basis, sier vi at mengden er en ortogonal basis for VV.

Teorem 9.12. Koordinatene til vv i en ortogonal basis u1,u2,,unu_1, u_2, \dots, u_n er

v=Pu1(v)+Pu2(v)++Pun(v)=u1,vu1,u1u1+u2,vu2,u2u2++un,vun,unun\begin{aligned} v &= P_{u_1}(v) + P_{u_2}(v) + \dots + P_{u_n}(v) \\ &= \frac{\langle u_1, v \rangle}{\langle u_1, u_1 \rangle}\,u_1 + \frac{\langle u_2, v \rangle}{\langle u_2, u_2 \rangle}\,u_2 + \dots + \frac{\langle u_n, v \rangle}{\langle u_n, u_n \rangle}\,u_n \end{aligned}

Teorem 9.13. La u1,u2,,unu_1, u_2, \dots, u_n være en ortogonal basis for UU, et underrom av VV. Punktet

PU(v)=Pu1(v)+Pu2(v)++Pun(v)=u1,vu1,u1u1+u2,vu2,u2u2++un,vun,unun\begin{aligned} P_U(v) &= P_{u_1}(v) + P_{u_2}(v) + \dots + P_{u_n}(v) \\ &= \frac{\langle u_1, v \rangle}{\langle u_1, u_1 \rangle}\,u_1 + \frac{\langle u_2, v \rangle}{\langle u_2, u_2 \rangle}\,u_2 + \dots + \frac{\langle u_n, v \rangle}{\langle u_n, u_n \rangle}\,u_n \end{aligned}

er et punktet i UU som har kortest avstand til vv, altså

vPU(v)=minuUvu\lVert v - P_U(v) \rVert = \text{min}_{u \in U} \lVert v - u \rVert

Teorem 9.15. La u1,u2,,unu_1, u_2, \dots, u_n være en basis for et underrom UU. En vektor vv er i det ortogonale komplementet til UU hvis og bare hvis ui,v=0\langle u_i, v \rangle = 0 for alle ii.

Teorem 9.17. La UU være et underrom av et indreproduktrom VV. Da gjelder

dimU+dimU=dimV\dim{U} + \dim{U^\perp} = \dim{V}

Teorem 9.18. La AA være en m×nm \times n-matrise. Da vet vi

(ColA)=NullAT(NullA)=ColAT\begin{aligned} (\text{Col}\,A)^\perp &= \text{Null}\,A^T \\ (\text{Null}\,A)^\perp &= \text{Col}\,A^T \end{aligned}

Finne en ortogonal basis: Gram-Schmidts metode

Teorem 9.19. Mengden u1,u2,,unu_1, u_2, \dots, u_n gitt ved

uk=vkj=1k1Puj(vk)=vkj=1k1uj,vkuj,ujuj\begin{aligned} u_k &= v_k - \sum_{j=1}^{k-1}\,P_{u_j}(v_k) \\ &= v_k - \sum_{j=1}^{k-1}\,\frac{\langle u_j, v_k \rangle}{\langle u_j, u_j \rangle}\,u_j \end{aligned}

er en ortogonal basis for rommet utspent av v1,v2,,vnv_1, v_2, \dots, v_n.

Beregne den ortogonale basisen

La UU være et underrom til et indreproduktrom VV. Her er en metode for å regne ut den ortogonale projeksjonen PUP_U:

  • Ta utgangspunkt i en basis v1,v2,,vnv_1, v_2, \dots, v_n som spenner ut UU.
  • Bruk så Gram-Schmidt til å finne en ortogonal basis u1,u2,,unu_1, u_2, \dots, u_n for UU.
  • Da kan man, for alle vv i VV, beregne den ortogonale projeksjonen

PU(x)=Pu1(x)+Pu2(x)++Pun(x)P_U(x) = P_{u_1}(x) + P_{u_2}(x) + \dots + P_{u_n}(x)

  • Hvis V=RnV = \mathbb{R}^n, så får vi standardmatrisen

[PU]=[PU(e1) PU(e2)  PU(en)][\, P_U \,] = [\, P_U(e_1) \ P_U(e_2) \ \dots \ P_U(e_n) \, ]

og da kan man, for alle xx i VV, beregne den ortogonale projeksjonen PU(x)=[PU]xP_U(x) = [\, P_U \,]x.

Indreproduktrom mellom funksjoner

Teorem 9.22. Operasjonen

f,g=1baabf(x)g(x)dx\langle f, g \rangle = \frac{1}{b - a} \int_a^b f(x)\,g(x)\,dx

er et indreprodukt på C([a,b])C([a, b]).

Teorem 9.27. Vektorene 11, cosnx\cos{nx} og sinmx\sin{mx}, hvor n,m=1,2,3,,n, m = 1, 2, 3, \dots, er parvis ortogonale i Cs([π,π])C_s([-\pi, \pi]).

Komplekse indreprodukt

Definisjon. La VV være et komplekst vektorrom. Et indreproduktrom i VV er en operasjon som tar inn to vektorer, vv og ww, for å gi ut et komplekst tall v,w\langle v, w \rangle. Operasjonen tilfredsstiller

v,w=w,v(konj. sym.)v,(aw+bu)=av,w+bv,u(linearitet)v,v0, og v,v=0 kun hvis v=0(positivitet)\begin{aligned} &\langle v, w \rangle = \overline{ \langle w, v \rangle } &\text{(konj. sym.)} \\ &\langle v, (aw + bu) \rangle = a \langle v, w \rangle + b \langle v, u \rangle &\text{(linearitet)} \\ &\langle v, v \rangle \geq 0 \text{, og } \langle v, v \rangle = 0 \text{ kun hvis } v = 0 &\text{(positivitet)} \end{aligned}

Vi sier at VV, sammen med et valgt indreprodukt, er et indreproduktrom.

Teorem 9.29. Alt som gjelder for reelle indreproduktrom, med unntak av vinkelen, gjelder også for komplekse indreproduktrom.

Teorem 9.33. La AA være en kompleks m×nm \times n-matrise. Da har vi

(ColA)=NullA(NullA)=ColA\begin{aligned} (\text{Col}\,A)^\perp &= \text{Null}\,A^* \\ (\text{Null}\,A)^\perp &= \text{Col}\,A^* \end{aligned}

Egenverdier og egenvektorer

Finner du ikke det du ser etter? Se Wiki.

Definisjon av egenverdier og egenvektorer

Definisjon. La T:VVT: V \rightarrow V være en lineærtransformasjon. En skalar λ\lambda er en egenverdi for TT hvis det finnes en vektor v0v \neq 0 i VV slik at

T(v)=λvT(v) = \lambda \cdot v

Vektoren vv kalles en egenvektor for TT som hører til egenverdien λ\lambda. Når TT er gitt ved en n×nn \times n-matrise AA, så sier vi også at λ\lambda er en egenverdi for AA og vv er egenvektor for AA som hører til egenverdien λ\lambda.

Noen generelle observasjoner

Teorem 10.3. Anta at λ\lambda er en egenverdi for en lineærtransformasjon T:VVT: V \rightarrow V, og at vv er en tilhørende egenvektor. Da er alle multipletter cvcv av vektoren vv, der cc er et tall som ikke er 00, også egenvektorer som hører til egenverdien λ\lambda. Med andre ord er alle vektorer i mengden Sp{v}\text{Sp}\{v\}, unntatt nullvektoren, egenvektorer som hører til egenverdien λ\lambda.

Teorem 10.4. En n×nn \times n-matrise AA har 00 som egenverdi hvis og bare hvis den ikke er inverterbar.

Teorem 10.5. La T:VVT: V \rightarrow V være en lineærtransformasjon. La v1,v2,,vtv_1, v_2, \dots, v_t være egenvektorer til TT som hører til forskjellige egenverdier λ1,λ2,,λt\lambda_1, \lambda_2, \dots, \lambda_t. Da er vektorene v1,v2,,vtv_1, v_2, \dots, v_t lineært uavhengige.

Teorem 10.6. La VV være et nn-dimensjonalt vektorrom og T:VVT: V \rightarrow V være en lineærtransforamsjon. Hvis TT har nn forskjellige egenverdier, så finnes det en basis for VV som består egenvektorer av TT.

Teorem fra LF. La AA være en inverterbar matrise med egenverdi aa. Da er 1a\frac{1}{a} en egenverdi for A1A^{-1}.

Hvordan finne egenverdier og egenvektorer?

Teorem 10.9. La AA være en n×nn \times n-matrise.

  • Egenverdiene til AA er alle løsninger λ\lambda av likningen

det(AλIn)=0\det{(A - \lambda I_n)} = 0

  • Hvis λ\lambda er en egenverdi for AA, så er de tilhørende egenvektrene gitt ved alle ikke-trivielle løsninger av likningen

(AλIn)x=0(A - \lambda I_n ) \cdot x = 0

Definisjon. En diagonalmatrise er en kvadratisk matrise der alle tall utenfor diagonalen er 00.

10.10. Egenverdiene til en diagonalmatrise er tallene på diagonalen.

Egenrom

Definisjon. La T:VVT: V \rightarrow V være en lineærtransformasjon, og anta at λ\lambda er en egenverdi for TT. Da er egenrommet til λ\lambda mengden av alle egenvektorer som hører til λ\lambda, samt nullvektoren; altså mengden

{vV  T(v)=λv}\{\, v \in V \ | \ T(v) = \lambda v \, \}

Dimensjonen til egenrommet kalles den geometriske multiplisiteten til λ\lambda.

Eksistens av egenverdier

Teorem 10.14. En kompleks n×nn \times n-matrise AA har alltid nn egenverdier (talt med algebraisk multiplisitet).

Teorem 10.15. For en lineærtransformasjon T:RnRnT: \mathbb{R}^n \rightarrow \mathbb{R}^n er det mulig at den ikke har noen reelle egenverdier. Hvis nn er et oddetall, har TT minst én reell egenverdi.

Teorem 10.16. De komplekse egenverdiene til en reell matrise kommer i komlekskonjugerte par.

Teorem 10.20. Egenrommet har dimensjon større enn eller lik 11 og mindre enn eller lik den algebraiske multiplisiteten til egenverdien.

Diagonalisering

Finner du ikke det du ser etter? Se Wiki.

Definisjon. Vi sier at en n×nn \times n-matrise AA er diagonaliserbar hvis det finnes en diagonalmatrise DD og en inverterbar matrise PP slik at

A=PDP1A = PDP^{-1}

Vi sier da at PP diagonaliserer AA.

Teorem 11.2. En n×nn \times n-matrise AA her diagonaliserbar hvis og bare hvis AA har nn lineært uavhengige egenvektorer.

Teorem 11.3. Hvis en n×nn \times n-matrise AA har nn forskjellige egenverdier, så er AA diagonaliserbar.

Teorem 11.4. En n×nn \times n-matrise AA er diagonaliserbar hvis og bare hvis AA har nn egenverdier og dimensjonen til egenrommet til hver egenverdi λ\lambda er lik den algebraiske multiplisiteten til λ\lambda.

Teorem 11.5. En kompleks n×nn \times n-matrise AA er diagonaliserbar hvis og bare hvis det finnes en basis for Cn\mathbb{C}^n som kun består av egenvektorer for AA. En reell n×nn \times n-matrise AA er diagonaliserbar som en reell matrise hvis og bare hvis det finnes en basis for Rn\mathbb{R}^n som kun består av egenvektorer for AA.

Teorem 11.6. La T:VVT: V \rightarrow V være en lineærtransformasjon. Vi antar at TT er diagonaliserbar og at B=(v1,,vn)B = (v_1, \dots, v_n) er en basis som består av TT sine egenvektorer. Da er matrisen som beskriver TT med hensyn på basisen BB en diagonalmatrise DD, med egenverdierne λ1,,λn\lambda_1, \dots, \lambda_n til TT på diagonalen.

Mer om komplekse egenverdier

Teorem 11.11. La AA være en reell 2×22 \times 2-matrise med kompleks egenverdi λ=abi\lambda = a - bi, med b0b \neq 0, og la vC2v \in \mathbb{C}^2 være en egenvektor som hører til λ\lambda. Da kan vi faktorisere AA på følgende måte:

A=PCP1 med P=[Rev Imv]A = PCP^{-1} \ \text{med} \ P = [\, \text{Re}\,v \ \text{Im}\,v\,]

og

C=[abba]C = \begin{bmatrix} a & -b \\ b & a \end{bmatrix}

Symmetriske matriser

Definisjon. En reell matrise kalles symmetrisk dersom A=ATA = A^T.

Teorem 11.14. La AA være en symmetrisk n×nn \times n-matrise. Da har AA nn reelle egenverdier (talt med multiplisitet) og AA er diagonaliserbar (som en reell matrise).

Symmetri og ortogonalitet

Teorem 11.16. La AA være en symmetrisk n×nn \times n-matrise. Egenvektorene til AA tilhørende to distinkte egenverdier er ortogonale.

Definisjon. En n×nn \times n-matrise er ortogonalt diagonaliserbar dersom den har nn ortogonale egenvektorer.

Teorem 11.17. En reell n×nn \times n-matrise er ortogonalt diagonaliserbar hvis og bare hvis den er symmetrisk.

Definisjon. En n×nn \times n-matrise AA kalles hermitsk hvis

A=AA = A^*

Teorem 11.18. En hermitsk n×nn \times n-matrise har nn reelle egenverdier (talt med multiplisitet) og er ortogonalt diagonaliserbar.

Interpolasjon, regresjon og markovkjeder

Finner du ikke det du ser etter? Se Wiki.

Minste kvadraters metode

Definisjon. Vi kaller x^\hat{x} den minste kvadraters løsning for Ax=bAx = b.

Teorem 12.1. La AA være en m×nm \times n-matrise og bb være en kolonne vektor i Rm\mathbb{R}^m. Mengden av minste kkvadraters løsninger for systemet Ax=bAx = b er lik løsningsmengden for systemet

AT(Axb)=0 A^T(Ax-b)=0

Hvis n×nn \times n-matrisen ATAA^TA er inverterbar, finnes det for hver bb, en unik minste kvadraters løsning x^\hat{x} for systemet Ax=bAx = b.

Markovkjeder

Definisjon. En sannsynlighetsvektor er en vektor vv i Rn\mathbb{R}^n der alle koordinatene er større eller lik 00 og summen av koordinatene er lik 11. En n×nn \times n-matrise MM kalles en stokastisk matrise hvis kolonnene i MM er sannsynlighetsvektorer.

Definisjon. La MM være en stokastisk matrise og x0x_0 en sannsynlighetsvektor. Vi kalles følgen av vektorene

{xn} for n=0,1,2, \{\, x_n \,\} \text{ for } n = 0, 1, 2, \dots

en Markovkjede.

Teorem 12.8. En stokastisk matrise MM har alltid λ=1\lambda = 1 som egenverdi.

Definisjon. La MM være en stokastisk matrise. En egenvektor for MM som hører til egenverdi 11 og er en sannsynlighetsvektor kalles en likevektsvektor.

Definisjon. En stokastisk matrise MM kalles regulær hvis det finnes en k1k \geq 1 slik at alle elementene i MkM^k er større enn 0.

Teorem 12.10. La MM være en regulær stokastisk matrise. Da har MM en unik likevekstvektor qq. For enhver utgangssannsynlighetsvektor x0x_0 konvergerer Markovkjeden {xn}\{\, x_n \,\} til qq når nn \rightarrow \infty.

Systemer av differensiallikninger

Finner du ikke det du ser etter? Se Wiki.

Vektorfunksjoner

Teorem 13.5. Den deriverte av en vektorfunksjon y:RRny: \mathbb{R} \rightarrow \mathbb{R}^n er lik vektorfunksjonen gitt ved å derivere hver komponent

y(t)=[y1(t)y2(t)yn(t)]y'(t) = \begin{bmatrix} y_1'(t) \\ y_2'(t) \\ \vdots \\ y_n'(t) \end{bmatrix}

Systemer av differensiallikninger

Teorem 13.7. (Superposisjonsprinsippet). Løsningene til

y=Ayy' = Ay

utgjør et vektorrom. Det vil si at dersom y1y_1 og y2y_2 er løsninger av systemet, så er c1y1+c2y2c_1y_1 + c_2y_2 en løsning for alle reelle tall c1c_1 og c2c_2.

Løsningsteknikk for reell diagonaliserbare matriser

Teorem 13.8. La AA være en diagonaliserbar n×nn \times n-matrise. Hvis v1,v2,,vnv_1, v_2, \dots, v_n er nn lineært uavhengige egenvektorer med tilhørende egenverdier λ1,λ2,,λn\lambda_1, \lambda_2, \dots, \lambda_n, så er

v1eλ1t,v2eλ2t,,vneλntv_1e^{\lambda_1t}, v_2e^{\lambda_2t}, \dots, v_ne^{\lambda_nt}

en basis for løsningesrommet til y=Ayy' = Ay. Med andre ord er

c1v1eλ1t,c2v2eλ2t,,cnvneλntc_1v_1e^{\lambda_1t}, c_2v_2e^{\lambda_2t}, \dots, c_nv_ne^{\lambda_nt}

en generell løsning av y=Ayy' = Ay.

Initialverdiproblemer

Definisjon. Et initialverdiproblem er et system sammen med en intialbetingelse y(t0)=y0y(t_0) = y_0 hvor t0t_0 er et reelt tall og y0y_0 er en vektor i Rn\mathbb{R}^n.

Todimensjonale system

Vi begrenser oss nå til todimensjonale system. Det betyr at AA har en reell 2×22 \times 2-matrise. Det er tre forskjellige tilfeller vi må skille mellom avhengig av hva slags egenverdier AA har. Husk at egenverdiene er røttene til det karakteristiske polynomet det(AλI)\det{(A-\lambda I)}.

Tilfelle 1: To forskjellige reelle røtter

Tilfelle 2: To komplekse (ikke reelle) røtter

Teorem 13.16. Anta at α+iβ\alpha + i \beta, β0\beta \neq 0, er en kompleks egenverdi til AA og la vv være en tilhørende kompleks egenvektor. Da danner

y1(t)=eαt(Re(v)cos(βt)Im(v)sin(βt))y_1(t) = e^{\alpha t}(\text{Re}(v)\cos{(\beta t)} - \text{Im}(v)\sin{(\beta t)})

og

y2(t)=eαt(Re(v)sin(βt)+Im(v)cos(βt))y_2(t) = e^{\alpha t}(\text{Re}(v)\sin{(\beta t)} + \text{Im}(v)\cos{(\beta t)})

en basis for det reelle løsningsrommet til y=Ayy' = Ay.

Tilfelle 3: Én reell rot

Teorem 13.32. La AA være en reell 2×22 \times 2-matrise med reell egenverdi λ\lambda med algebraisk multiplisitet 2. La vv være en egenvektor til λ\lambda og la ww være en vektor som oppfyller (AλI)w=v(A - \lambda I)w = v. Da er løsningene til systemet y=Ayy' = Ay på formen

y(t)=c1eλtv+c2eλt(tv+w)y(t) = c_1e^{\lambda t}v + c_2e^{\lambda t}(tv + w)

Inhomogene system

Teorem 13.24. Hvis yp(t)y_p(t) er en partikulær løsning av

y(t)=Ay(t)+f(t)y'(t) = Ay(t) + f(t)

så er en generell løsning gitt av

y(t)=yh(t)+yp(t)y(t) = y_h(t) + y_p(t)

hvor yh(t)y_h(t) er en generell løsning av den tilhørende homogene likningen.

Merk. Det forventes ikke at du kan finne partikulære løsninger av vilkårlige system. Du vil alltid få dem servert.

Andre ordens lineære differensiallikninger

Finner du ikke det du ser etter? Se Wiki.

Noen forberedelser

Vi skal behandle andre ordens differensiallikninger med konstante koeffisienter:

a2y(t)+a1y(t)+a0y(t)=f(t)a_2y''(t) + a_1y'(t) + a_0y(t) = f(t)

Løsningsmengden for homogene likninger er et vektorrom

Teorem 14.1. (Superposisjonsprinsippet). Løsningene til

a2y(t)+a1y(t)+a0y(t)=0a_2y''(t) + a_1y'(t) + a_0y(t) = 0

utgjør et reelt vektorrom. Det vil si at dersom y1(t)y_1(t) og y2(t)y_2(t) er løsninger, så er c1y1(t)+c2y2(t)c_1y_1(t) + c_2y_2(t) en løsning for alle reelle tall c1c_1 og c2c_2.

Løsningsteknikk for homogene likninger

Teorem 14.2. Løsningsmengden til

a2y(t)+a1y(t)+a0y(t)=0a_2y''(t) + a_1y'(t) + a_0y(t) = 0

er et to-dimensjonalt reelt vektorrom som utspennes av følgende lineært uavhengige funksjoner. Dersom den karakteristiske likningen λ2+a1λ+a0=0\lambda ^2 + a_1\lambda + a_0 = 0 har:

  • to reelle løsninger λ1λ2\lambda_1 \neq \lambda_2:

y1(t)=eλ1t, y2(t)=eλ2ty_1(t) = e^{\lambda_1 t}, \ y_2(t) = e^{\lambda_2 t}

  • en kompleks løsning λ=a+bi\lambda = a + bi med b0b \neq 0:

y1(t)=eatcos(bt), y2(t)=eatsin(bt)y_1(t) = e^{at}\cos{(bt)}, \ y_2(t) = e^{at}\sin{(bt)}

  • kun én reell løsning λ\lambda:

y1(t)=teλt, y2(t)=eλty_1(t) = te^{\lambda t}, \ y_2(t) = e^{\lambda t}

Løsningsteknikk for inhomogene likninger

Teorem 14.6. Alle løsninger til den inhomogene likningen er på formen

y(t)=yp(t)+yh(t)y(t) = y_p(t) + y_h(t)

der yp(t)y_p(t) er en partikulær løsning og yh(t)y_h(t) er en løsning til den tilsvarende homogene likningen.

Hjelpemidler

Wolfram Alpha

Wolfram Alpha - Matriser

Likningssystem

Et likningssystem kan skrives om til en matrise og løses ved å bruke den inverse.

Eksempel:

3x2y+z=7x+y+2z=4xyz=03x - 2y + z = 7 \\ x + y + 2z = 4 \\ x - y - z = 0

Kan gjøres om til matriselikningen

Ax=BAx = B

der

A=[321112111],B=[740]A = \begin{bmatrix} 3 & -2 & 1 \\ 1 & 1 & 2 \\ 1 & -1 & -1 \end{bmatrix}, \quad B = \begin{bmatrix} 7 \\ 4 \\ 0 \end{bmatrix}

Hvis AA er inverterbar, så kan dette løses ved

Ax=BA1Ax=A1Bx=A1BAx = B \\ A^{-1}Ax = A^{-1}B \\ x = A^{-1}B

Dette kan løses direkte i Wolfram.

Gausseliminasjon

'row reduce' i Wolfram.

Eksempel