• Ei tuloksia

Ominaisarvot ja -vektorit Tarkasteltavana oleva matriisi on koko ajan neliömatriisi,A(n×n)

N/A
N/A
Info
Lataa
Protected

Academic year: 2022

Jaa "Ominaisarvot ja -vektorit Tarkasteltavana oleva matriisi on koko ajan neliömatriisi,A(n×n)"

Copied!
24
0
0

Kokoteksti

(1)

Heikki Apiola Kirjallisuutta.

[KRE] Kreyszig . Advanced Engineering Mathematics,8thed.,Wiley ,1999.

[Lay] Lay . Linear Algebra, 3rd ed.,Addison Wesley ,2003.

[TE] Timo Eirola . Lineaarialgebra, L3-kurssimoniste

1. Ominaisarvot ja -vektorit Tarkasteltavana oleva matriisi on koko ajan neliömatriisi,A(n×n).

Johdanto. Ajatellaan neliömatriisiaAennen kaikkea sen määräämään lineaarikuvauksen kannalta.

Tähän asti staattisia ongelmia: lineaarisen yhtälöryhmän ratkaisu.

Nyt käsittelemme dynaamisia tehtäviä. Tyypillisesti tarkastelemme iteraatiota Alkupiste x0, xk+1=Axk, k= 0,1,2, . . . .

Tällöin joudumme laskemaan matriisin potensseja (joita neliömatriisille voidaan laskea). Sovellutuksina näemme mm. dikreettejä dynaamisia systeemejä (dierenssiyhtälösysteemejä) ja dierentiaaliyhtälösys- teemejä.

Ominaisarvotehtäviä tulee luonnontieteellissä sovelluksissa vastaan hyvin monessa paikassa. Kyseessä on myös insinöörimatematiikan kaikkein tärkeimpään ydinalueeseen kuuluva aihepiiri. Lisäksi: kaunis kappale lineaarialgebraa.

1.1. Määritelmä ja perusominaisuudet. (Eigenvalues, eigenvectors) Aon neliömatriisi (n×n)

Tarkastellaan yhtälöä

(1.1) Ax=λx, λ∈C

Yhtälöllä on aina triviaaliratkaisux=0, olipaλmikä tahansa kompleksiluku.

Tehtävä:

(a) Määritä lukuλsiten, että yhtälöllä (1.2) on ei-triviaaleja ratkaisuvektoreitax. (b) Määritä sitten kutakin ratkaisuaλkohti ao. ratkaisuvektoritx.

Määritelmä 1.1. Lukuaλsanotaan matriisinA ominaisarvoksi ja vektoriax6=0vastaavaksi ominais- vektoriksi, jos

Ax=λx.

Geometrisesti ominaisvektori tarkoittaa suuntaa, joka säilyy samana (tai vastakkaisena) sovellettaessa li- neaarikuvaustaA. Ominaisarvo kuvaa venytys/kutistussuhdetta, negatiivisessa tapauksessa lisäksi suun- nan vaihtoa. Tämä kuvailu pätee reaalisiin ominaisarvoihin (ja -vektoreihin) nähden. Kompleksisessa tapauksessa tilanne voi olla "epäintuitiivisempi", kannattaa muistaa, että esim. i:llä kertominen mer- kitsee kiertoa tasossa kulman π/2 verran, joten skalaarilla kertominen ei tarkoita (reaalisella) suoralla pysyttelemistä.

1

(2)

Tehtävän muokkaus ratkaistavaan muotoon.

(1.2) Ax=λx, λ∈C ⇐⇒ (A−λI)x=0

Kyseessä on siis homogeeniyhtälö, jonka kerroinmatriisi sisältää parametrinλ. Se pitää valita siten, että HY:llä on ei-triv. ratkaisuja, ts. Gaussin eliminaation on tuotettava ainakin 1 nollarivi, joten on oltava det(A−λI) = 0.

Esimerkki 1.1. A =



2 0 4 0 6 0 4 0 2

 Muodostetaan D(λ) = det(A−λI), tässä tapauksessa saadaan mukava tekijöihin jako:

D(λ) =−(λ+ 2) (λ6)2 Lasketaan ominaisvektorit

Sijoitetaan karakteristiseen matriisiinKλ=A−λI λ:n paikalle vuorollaan kukin ominaisarvo.

Ominaisarvoonλ1=−2 liittyvät ominaisvektorit

Kλ1 =



4 0 4 0 8 0 4 0 4



Tässä ei rivioperaatioita tarvita. Alin rivi voidaan jättää pois (identtinen ylimmän kanssa). Voidaan haluttaessa jakaa 1. rivi 4:llä ja toinen 8:lla, muttei sekään ole tarpeen.

2. rivi = x3vapaa jax2= 0.

1. rivi = x1=−x3.

Jos valitaan:x3= 1,saadaanv1= [−1,0,1]T.

Saadaan 1-ulotteinen ominaisavaruus, kuten pitääkin, koska aina pätee:

1≤mλ≤Mλ ja viimemainittu on= 1.

Yleisesti voitaisiin muodostaa ref (tai rref).

ref (Kλ1) = 2 66 4

4 0 4

0 8 0

0 0 0

3 77

5 Tästä nähdään heti, että nolla-avaruuden dimensio =1. (n-tukisarakkeiden lkm = nollarvien lkm, kun kerran on neliömatriisi.) Tässä tapauksessa laskut eivät edellisestä yksinkertaistu, koska matriisi oli jo heti yhtä rivioperaatiota ja normeerausta vaille jopa rref-muodossa.

(Huomaa, että 2×2-systeemissä riittää aina rajoittua toiseen yhtälöön (jos ominaisarvot on oikein las- kettu,ellei, niin who cares :-)), rivioperaatiota ei siten tarvita ollenkaan.)

Ominaisarvoonλ2= 6 liittyvät ominaisvektorit

Kλ2 =



−4 0 4 0 0 0 4 0 −4



Nyt jää vain yksi yhtälö, jossa voidaan kaksi muuttujaa valita vapaasti, vaikkapax3jax2,ja ratkaisemalla x1 = x3. Saadaan kaksi LRT ominaisvektoria valitsemalla ensin x3 = 1, x2 = 0 ja sitten päinvastoin x3= 0, x2= 1

u1= [1,0,1]T ,u2= [0,1,0]T.Kertaluvut ovat taas samat:mλ2 =Mλ2 = 2. Siis ominaisavaruudet ovat:E−2=sp{[−1,0,1]}jaE6=sp{[1,0,1],[0,1,0]}

(3)

Jäljempänä esitettävän lauseen mukaan eri ominaisarvoihin liittyvät ominaisvektorit ovat LRT, joten voimme sen turvin suoraan päätellä, että laskemamme 3 ominaisvektoria ovat LRT ja siis R3:n kanta.

Ilman tuota lausetta täytyisi turvautua ref:iin.

Huomautus 1.1. Varo harhaluulemasta, että lineaarinen riippumattomuus voitaisiin todistaa osissa niin, että osoitettaisiin vaikka kaksi vektoria LRT:ksi ja kolmas kummastakin LRT:ksi. Tokihan kolmas voi sijaita kahden virittämässä tasossa (ja muodostaa siis ensinmainittujen kanssa LRV joukon) ja olla kummankin kanssa eri suuntainen.

Edellä mainitussa (jäljempänä esitettävässä) lauseessa esiintyvässä "ominaisvektoriniputuksessa"on kyse siitä, että kaikki mahdolliset valinnat eri ominaisavaruuksista antavat LRT vektorijoukon. Palataan tä- hän vielä tuon lauseen todistuksen yhteydessä. Samalla täydennetään kuennolla kenties hiukan kevyesti käsiteltyä kohtaa.

Kaksi peruslausetta. |

Jos determinantti D(λ) = det(A−λI) kehitetään vaikkapa 1. sarakkeen mukaan, nähdään, että se on polynomi, joka on muotoa:

D(λ) = (−1)nλn+. . .+ detA.

Polynomi, jota sanotaan karakteristiseksi polynomiksi, on siis aina astettan. Algebran peruslauseen mu- kaan sillä on ainakin yksi 0-kohta kompleksitasossa. Saadaan siten:

Lause 1.1 (KRE8 Thm. 1 s. 373). NeliömatriisillaA (n×n) on ainakin yksi ja korkeintaan nerillistä ominaisarvoa. Ne voivat olla kompleksisia, vaikka matriisi olisi reaalinen.

Karakteristinen polynomi voidaan kirjoittaa muotoon:

D(λ) = (λ−λ1)k1· · ·−λn)kn

Ominaisarvonλk algebrallinen kertalukuMλtarkoittaa kyseisen polynomin nollakohdan kertalukua.

SitenMλk ilmaisee siis potenssinpk, jossa tekijä(λ−λk)esiintyy.

Voidaan sanoa, ettän×n-matriisilla on n kappaletta ominaisarvoja, kun kukin otetaan niin monta kertaa kuin sen algebrallinen kertaluku ilmaisee.

Muistutamme, että ominaisarvoonλ liittyvä ominaisavaruusEλ koostuu kaikistaλ:aan liittyvistä omi- naisvektoreista ja nollavektorista.Eλon vektorialiavaruus, koska se on

(A−λI):n nolla-avaruus. Tämä on "se toinen lause":

Lause 1.2 (KRE8 Thm 2 s. 373). Ominaisavaruus Eλ on "nimensä veroinen", siis aliavaruus.

KRE- kirjan lause sanoo vain, että vakio kertaa ominaisvektori on edelleen samaan ominaisarvoon liittyvä ominaisvektori. Tämä sinänsä tärkeä huomio on erikoistapaus edellä olevasta.

Ominaisarvojen ja -vektorien laskeminen. Edellisen esimerkin mallin mukaan voidaan kirjoittaa yleinen toimintaohje:

1. Muodostetaan karakteristinen polynomi

D(λ) = det(A−λI) ja ratkaistaan sen nollakohdat, näin saadaan ominaisarvot.

2. Ratkaistaan homogeeniyhtälö

(A−λI)x= 0,

ts. määrätään nolla-avaruusN(A−λI)kullakin ominaisarvollaλ.

(4)

Ratkaisussa on ainakin yksi vapaa parametri, sanokaamme t, joka voidaan valita mielivaltaisesti (esim.

t=1). Jos vapaita parametrejä on useita, täytyy pitää huoli siitä, että saadaan lineaarisesti riippumatto- mat ratkaisuvektorit. Varma valinta esim. tapauksessa "3 vapaata parametria"on:

1. om. vekt. : parametrit:1,0,0 2. om. vekt. : parametrit:0,1,0 3. om. vekt. : parametrit:0,0,1.

Huomautus 1.2. 1. Ominaisarvot ovat 1-käs, ominaisvektorit eivät.

2. Kuhunkin ominaisarvoon liittyy ominaisavaruus, päämääränä on löytää jokin kanta ominaisavaruudelle.

Käytännön (numeerisista) laskentamenetelmistä

Polynomiyhtälön ratkaisussa on useimmiten turvauduttava numeerisiin menetelmiin. Matlabissa on tähän tarkoitukseen funktio roots. Oikeissa numeerisissa menetelmissä lasketaan ensin ominaisvektorit (tai esim. muutama dominoiva ominaisvektori sellaiset, jotka vastaavat muutamaa suurinta ominaisarvoa).

Ominaisarvot lasketaan vasta sitten.

Itse asiassa Matlabin roots-komennon käyttö ominaisarvotehtävissä on lievää "itsepetosta". Se perustuu algoritmiin, joka laskee annettuun polynomiin liittyvän matriisin, ns. companion matrix:n ominaisvekto- rit ja sitten ominaisarvot. Sivutuotteena, eräänlaisena kuriositeettina, siitä saadaan helposti kohtuullinen polynomiyhtälön ratkaisija.

Ominaisarvojen laskenta tätä kautta on siten hyödyllistä pelkästään perusasioiden opetteluun. Oikeaan laskentaan käytetään komentoa eig.

Matlabin isä Cleve Moler, joka on eräs nykyaikaisen tieteellisen laskennan huomattavia vaikuttajapersoonallisuuksia, pitänee polynomiyh- tälön ratkaisemista nykyaikana hieman numeerisen analyysin sivuraiteille kuuluvaksi. Siitä syystä hän ei luultavasti ole kiiruhtanut ottamaan Matlabiin parasta alan algoritmia käyttöön. Myös Matlabin historia on hyvin vahvasti juuri lineaarialgebrassa. Sillä alueella on erityisesti panostettu parhaisiin algoritmeihin, toki sitten myös mm. dierentiaaliyhtälöissä.

1.2. Perusesimerkit: defektiivinen, kompleksinen. |

Edellä oli esimerkki tapauksesta, jossa algebralliset ja geometriset kertaluvut olivat samoja. Näin ei aina ole.

Esimerkki 1.2. OlkoonA=

"

0 1 0 0

#

D(λ) =λ2, jotenλ= 0on kaksinkertainen ominaisarvo. Ominaisavaruus on sama kuin A:n nolla-avaruus, jonka virittää vektori[1,0]T. Siis ominaisarvon0geometrinen kertaluku on1. Matriisi on defektiivinen, ominaisvektoreita ei ole "tarpeeksi".

Lause 1.3. Yleisesti pätee:mλ≤Mλ. Aito<on mahdollinen.

Tod. Edellinen on jossain määrin syvällinen asia, perustelu on pakko sivuuttaa. Jälkimmäisen perustelee

vaikkapa edellinen esimerkki. ƒ

Esimerkki 1.3. KRE esim. 4 s. 375. Reaalinen matriisi, jolla on kompleksiset ominaisarvot (ja -vektorit) A=

"

0 1

−1 0

#

Ominaisarvotλ=±i, ominaisvektorit:λ=i

Ratkaistavaksi tulee yhtälö−ix1+x2= 0. Jos valitaanx2= 1,onx1= 1/i=−i.Saadaan ominaisvek- toriksi[−i,1]T. Yhtä hyvin voidaan kertoa vaikkai:llä, joka antaa:[1, i].

(5)

Ominaisarvoaλ=−ivastaava ominaisvektori saadaan samalla tavalla. Itse asiassa sitä ei tarvitse koskaan laskea, koska se on aina liittolukua vastaavan ominaisvektorin liittovektori. (Tällä tarkoitamme vektoria, jonka koordinaatit ovat edellisen liittolukuja.)

Todistetaan tämä oikein lauseena.

Lause 1.4. Reaalisen matriisin kompleksiset ominaisarvot ovat pareittain liittolukuja. Liittolukuja vas- taavat ominaisvektorit ovat toistensa liittovektoreita.

Tod. Ominaisarvoja koskeva johtopäätös voidaan tehdä kompleksiprujussa olevasta lauseesta: reaaliker- toimisen polynomin kompleksiset juuret ovat toistensa liittolukuja.

Itse asiassa tätäkään ei tarvita, kun huomataan, että edellisen perustana olevasta, liittolukujen laskutoi- mituksia koskevasta lauseesta saadaan myös välittömästi sääntöAv=Av.

Niinpä, josAv=λv, niinAv |{z}=

A on reaalinen

Av=Av |{z}=

Av=λv

λv=λv.

Johtopäätös seuraa siten suoraan ominaisarvon/-vektorin määritelmästä.

ƒ

Yhteenveto käsitteistä ja määritelmistä.

1. Ominaisavaruus:Eλominaisarvoonλkuuluvien ominaisvektorien joukko täydennettynä 0-vektorilla (jot- ta saadaan VA).

2. Spektri = ominaisarvojen joukko (kompleksitason osajoukko)

3. Spektraalisäde: itseisarvoltaan suurimman ominaisarvon itseisarvo. Se antaa ympyrän säteen, jonka sisällä kaikki ominaisarvot (eli spektrin pisteet) ovat.

4. Karakteristinen polynomi :D(λ) = det(A−λI).

5. Ominaisarvon λk algebrallinen kertaluku = pk, kun karakteristinen polynomi esitetään tekijöihin jaetussa muodossa:

D(λ) = (−1)n−λ1)p1· · ·−λn)pn

Ominaisarvonλk algebrallinen kertalukuMλk ilmaisee siis potenssinpk, jossa tekijä(λ−λk)esiintyy.

6. Geometrinen kertalukumλ tarkoittaa vastaavan ominaisavaruuden dimensiota.

7. Pätee:mλ≤Mλ

8. Matriisi A on defektiivinen,

jos jollain ominaisarvollaλpätee aito pienemmyys:mλ< Mλ

1.3. Sovellutusesimerkkejä.

1.3.1. Joustavan kalvon venytys, lineaarikuvauksen pääakselit. Yksikkökiekko olkoon joustava kalvo, jota muotoilee "siirtymämatriisi"

A=

"

5 3 3 5

# .

Määritä pääsuunnat, eli vektorit, joille siirtymävektori on saman tai vastakkaissuuntainen tuon annetun vektorin kanssa.

(6)

Ratkaisu

Lasketaan ominaisarvot ja -vektorit, helppo homma: λ1 = 8, λ2 = 2. Vastaavat ominaisvektorit: u1 = [1,1]T,u2= [−1,1]T (Laskettu myös Matlabilla alla.)

Esitetään mielivaltainen tason vektoriuominaisvektorikannassa:

u=ξ1u1+ξ2u2. Tällöin

z=Au=ξ1Au1+2u2=ξ1λ1u1+ξ2λ2u2= 8ξ1u1+ 2ξ2u2.

Koordinaattien välinen kuvaus on ihana:[ξ1, ξ2]7→[8ξ1,2]. (Kumpikin kuvakoordinaatti riippuu vain omasta lähtökoordinaatistaan, ts. se saadaan diagonaalimatriisilla kertomalla.)

Tässä tapauksessa sattuu vielä niin onnellisesti, että ominaisvektorit ovat toisiaan vastaan kohtisuorassa

1, jolloin meillä on uusi luonteva suorakulmainen koordinaatisto, johon voimme astua ja esittää pisteiden koordinaatit normaalissa napakoordinaatistossau1u2-akselien suhteen. Otetaanpa siis jokin yksikköym- pyrän piste:cosφu1+ sinφu2.Sen kuvapiste on siis 8 cosφu1+ 2 sinφu2.

Kuvapisteet piirtävät siten ellipsin, jonka esitys pääakselikoordinaatistossau1u2on (η1= 8 cosφ

η2= 2 sinφ ,

Toisin sanoen η1

8

‘2η2

2

‘2

= 1.

Matlab-ajo

Tiedostossa ../L/paakseli.m

% paakseli.m clear; clf

t=linspace(-pi,pi); % Jako 100:aan osaan.

Yymp=exp(i*t); % Yksikköympyrän 100 pistettä.

Yymp=[real(Yymp);imag(Yymp)]; % Pisteet matriisin sarakkeiksi plot(Yymp(1,:),Yymp(2,:),'b')

axis square A=[5 3;3 5]

kuva=A*Yymp; % ympyrän kuvapisteet

hold on

plot(kuva(1,:),kuva(2,:),'r') shg

Lasketaan nyt ominaisarvot ja -vektorit.

figure(2) [V,D]=eig(A) lam=diag(D) lam =

2

1Jos osaisimme teoriaa enemmän, tietäisimme jo matriisin ulkonäöstä, että näin käy, koska matriisi on symmetrinen.

(7)

Kuva 1. Yksikköympyrä ja sen kuva clf 8

phi=linspace(-pi,pi);

z1=lam(1)*cos(phi);z2=lam(2)*sin(phi); % tai % z=D*[cos(phi);sin(phi)];

plot(z1,z2,'--g') % jolloin % plot(z(1,:),z(2,:))

axis square axis equal

% Kierretään oikeaan asentoon:

ell=V*[z1;z2]; % tai % ell=V*z;

hold on

plot(ell(1,:),ell(2,:),'r') axis square

axis equal

u1aks=[[0;0] lam(1)*V(:,1)];

plot(u1aks(1,:),u1aks(2,:),'k') u2aks=[[0;0] lam(2)*V(:,2)];

plot(u2aks(1,:),u2aks(2,:),'k') shg

Matlab halusi valita pienemmän ominaisarvon ensin, no annettiin sen tehdä, jolloin peruskoordinaatis- tossa ellipsi nousi pystyasentoon, mutta samaanpa päätyi koordinaattimuunnoksen (kierron) jälkeen.

1.3.2. Stokastinen matriisi, Markovin prosessi. KRE8 s. 318 (matrix multiplication) Oletetaan, että vuonna 2004 erään kaupungin maankäyttö jakaantuu näin:

I asuntoalue 30%

II kaupallinen käyttöalue 20%

III teollisuusalue 50%

(8)

Kuva 2. Kuvaellipsi peruskoordinaatistossa ja kierrettynä pääakseleille Oletetaan, että siirtymätodennäköisyydet 5-vuotisjakson aikana saadaan matriisista

P=

I:stä II:sta III:sta

0.8 0.1 0 I:een

0.1 0.7 0.1 II:een 0.1 0.2 0.9 III:een

2

Matlabilla voidaan iteroida vaikka tähän tapaan. Tulostetaan vaakavektoreina tilan säästön ja selkeyden vuoksi.

>> P=[0.8 0.1 0;0.1 0.7 0.1;0.1 0.2 0.9]

>> x0=[30;20;50];

>> x0' ans =

30 20 50 % v. 2004

>> x=x0 % x olkoon muuttuja, johon iterointi kohdistuu.

>> x=P*x; x' % Selkeyden takia katsotaan vaakasuorassa.

ans =

26 22 52 % v. 2009

>> x=P*x; x' ans =

23.0000 23.2000 53.8000 % v. 2014

>> x=P*x; x' ans =

20.7200 23.9200 55.3600 % v. 2019 Tämä oli siis pelkkää matriisikertolaskuharjoittelua.

Ominaisarvoteoria tulee mukaan, kun kysellään, mitä tapahtuu pitkällä aikavälillä. Voidaan tietysti har- rastaa matriisikertolaskua raakaan voimaan turvautuen, mutta se ei anna eväitä analysoida tilannetta.

Lasketaanpa ominaisarvot ja -vektorit:

2P on sama kuin KRE-kirjanAT

(9)

>> [V,D]=eig(P)

V =-0.1826 -0.7071 0.4082 -0.3651 0.0000 -0.8165 -0.9129 0.7071 0.4082

D = 1.0000 0 0

0 0.8000 0

0 0 0.6000

Nähdään, että kaikki ominaisarvot ovat positiivisia, suurin on 1 ja muut ovat pienempiä. Myöhemmin osoitetaan, että eri ominaisarvoihin liittyvät ominaisvektorit ovat LRT, niinpä tässä tapauksessa on. Kun ei sitä vielä ole ollut, katsotaan vanhoilla yleisluontoisilla konsteilla.

>> rref(V) ans =

1 0 0

0 1 0

0 0 1

No kyllä vaan!

Siispä ne muodostavatR3:n kannan. Aivan, kuten äskeisessä esimerkissä, saadaan mahdollisimman yk- sinkertainen tilanne operoimalla ominaisvektorikannassa.

Merkitään ominaisvektoreita:v1,v2,v3,ja esitetään:

x0=c1v1+c2v2+c3v3. No mutta tällöinhän:

x1=Px0=c1λ1v1+c2λ2v2+c3λ3v3,missäλ1= 1.

Jatkamalla iterointia, saadaan:

xk=c1v1+c2λk2v2+c3λk3v3.

Koska 0< λj <1, kun j = 2,3, lähenevät 2 viimeistä termiä kohti0:aa, kun k kasvaa. Siten prosessia dominoi ykköstä (suurinta) ominaisarvoa vastaava ominaisvektori.

Rajalla päädytään vektoriinc1v1. Tässä tapauksessa:

>> Vx0=[V x0] % Edellähän tehtiin [V,D] = eig(P);

Vx0 =

-0.1826 -0.7071 0.4082 30.0000 -0.3651 0.0000 -0.8165 20.0000 -0.9129 0.7071 0.4082 50.0000

>> rref(Vx0) ans =

1.0000 0 0 -68.4653

0 1.0000 0 -21.2132

(10)

0 0 1.0000 6.1237

Niinpäc1=−68.4653, joten pitkällä aikavälillä tilanne stabiloituu jakaumaan:

>> -68.4653*V(:,1) ans =

12.5000 25.0000 62.5000

Maagista!! Siten saadaan (lähtöpisteestä riippumatta) sellainen ominaisarvoa1vastaavan ominaisvektorin suuntainen tulos, jonka koordinaattien summa= 100.

Maagiselta tuntuu kenties se, että c1-kerroin on sama riippumatta alkupisteestä. Se selittyy lisäehdos- ta x1+x2+x3 = 100. Tämä ominaisuus säilyy P-matriisilla kerrottaessa, joten rajavektorilla on sama ominaisuus. Siten raja-vektori on sellainen dominoivan ominaisvektorin suuntainen vektori, jonka koor- dinaatit0 jax1+x2+x3= 100. Taatusti siis riippumaton alkupisteen valinnasta.

(Koordinaattisumma säilyy sillä:P

ipi,j = 1∀j. Olkoonyi =P pijxj. P

iyi=P

i

P

jpijxj=P

j(P

ipij)xj=P

jxj.) 1.3.3. Populaatiodynamiikkaa.

Esimerkki 1.4 (Täpläpöllöjen henkiinjäämistaistelu Kaliforniassa). Vuonna 1990 oli vastakkainasettelu puuteollisuuden ja ympäristönsuojelijoiden välillä. Vanhojen ikimetsien hakkuut ja sen seurauksena mm.

täpläpöllöjen tuhoutuminen, vastaan30000. . .100000työpaikan menetys puuteollisuudessa.

Matemaatikot ryhtyivät viileän objektiivisesti tutkimaan.

Täpläpöllön elinkaari voidaan jakaa kolmeen luokkaan:

1. Lapsuus,01v., 2. esiaikuisuus,12 v., 3. aikuisuus, yli2v.

Keskimääräinen elinikä n.20v.

Kriittinen ajanjakso on silloin, kun lapsipöllö lähtee pesästään, jolloin sen on löydettävä uusi kotialue ja pari.

Mallinnetaan tilannetta tarkastelemalla populaatiota vuoden välein ja jakamalle se näihin kolmeen luok- kaan. Oletetaan, että naaraita ja uroita on samanverran, jolloin tarvitsee tarkastella vain naisväkeä.

Populaatiovektori vuonnakolkoonxk= [lk, ek, ak]("lapsi", "esiaikuinen", "aikuinen").

 lk+1

ek+1

ak+1

=



0 0 0.33 0.18 0 0

0 0.71 0.94



 lk

ek

ak



1. rivi: Kukin aikuinen naaras synnyttää keskimäärin0.33tyttölapsipöllöä vuonnak(vuoden k+1 alkuun mennessä).

2. rivi: Keskimäärin0.18tyttölasta selviytyy esiaikuiseksi vuodenk+ 1alkuun.

3. rivi: Vuodenk esiaikuisista0.71selviytyy aikuisuuteen ja aikuisista 0.94 jatkaa aikuiselämää vuonna k+ 1.

Yllä olevaa matriisia A voidaan kutsua "vaihematriisiksi"("stage matrix"). Tämä on peräisin oikeasta tutkimusaineistosta:

Lamberson et. al: Dynamic analysis of the viability of the Northern spotted owl in a fragmented forest environment, julkaisussa: Conservation biology vuodelta1992.

(11)

Tässä matriisissa alkioa2,1= 0.18on se, kriittsin ympäristötekijöiden vaikutuksille. Jos ikimetsät haka- taan aukeiksi, niin tämä arvo käy liian pieneksi. Arvo0.18on jo liian pieni, kuten nähdään, jos analyysi viedään päätökseen.

Muotoaxk+1=Axk olevaa systeemiä sanotaan dierenssiyhtälöksi, usein puhutaan myös diskreetistä dynaamisesta systeemistä.

Yllä oleva esimerkki on peräisin kirjasta [Lay] KRE-kirjassa [KRE] vastaavanlainen esimerkki esiintyy nimellä Leslie model s. 378, Example 3

Palattaneen tähän esmerkkiin myöhemmin.

1.4. Matriisin diagonalisointi (KRE 7.5). Tutkitaan erityisesti ominaisvektorien ominaisuuksia. Jos ominaisvektoreita on tarpeeksi (n lineaarisesti riippumatonta, kun matriisin koko on n×n, saadaan herkkupöytä katetuksi.

Määritelmä 1.2. Neliömatriisit A ja B ovat similaariset, jos on olemassa säännöllinen (kääntyvä) P siten, että

B=P−1AP.MerkitäänA∼B.

Lause 1.5. [Similaarisuus säilyttää ominaisarvot, KRE Thm 1]

Tod. Joko suoraan oma/omv-määritelmästä, nähdään, että jos x on A:n λ:aan liittyvä ominaisvektori, niiny=P−1xon samaaλ:aa vastaavaB:n ominaisvektori, missäB=P−1AP.

Vaihtoehtoinen todistus: DB(λ) = det(B−λI) =. . .= det(A−λI) =DA(λ).

ƒ Ominaisvektorien ominaisuuksia

Lause 1.6 (KRE s. 392). Olkootλ1, . . . , λk matriisin Aerillisiä ominaisarvoja. Tällöin vastaavat omi- naisvektorit ovat LRT

Tod. Tässä kuvataan juoni. Tämä ei riitä harjoitustehtävän tai koetehtävän todistukseksi.

1) Todistetaan ensin 2:n ominaisvektorin tapauksessa. Olk. λ1 6= λ2, ja olkoot v1 ja v2 vastaavat omi- naisvektorit.

Kirjoitetaan vektoriyhtälöc1v1+c2v2=0.

Sovelletaan siihenA:ta (eli kerrotaan vasemmaltaA:lla) ja käytetään ominaisuuttaAvj =λjvj, j= 1,2.

Gaussin eliminaatiolla saadaan v1-osuus nollatuksi, jolloin ehdosta c22−λ1)v2 = 0 seuraa: c2 = 0, koskaλ2−λ16= 0.Siten myösc1= 0.

2) Askel tapauksesta k= 2tapaukseenk= 3 saadaan lähtemällä vektoriyhtälöstä c1v1+c2v2+c3v3=0.

Aivan samanlaisella eliminaatioaskeleella kuin edellä, päästään jo todistettuun tapaukseen k= 2, josta päätellään:c2=c3= 0,mistä edelleen seuraa:c1= 0.

Yleinen askelk→k+ 1on periaatteessa aivan samanlainen.

ƒ Tästä seuraa välittömästi:

(12)

Lause 1.7. Josn×n-matriisilla Aonnerillistä ominaisarvoa, niinRn:llä (kompl. tap.Cn:llä) onA:n ominaisvektoreista koostuva kanta.

Tätä käyttäen oltaisiin Markov-prosessi-tehtävässä voitu välttyä ei-dominoivien ominaisvektoreiden las- kemiselta.

Huomautus 1.3. Ominaisvektorikanta voi olla, vaikka esiintyisi moninkertaisia ominaisarvoja, kuten on nähty. Toisaalta olemme nähneet esimerkkejä (ainakin yhden), jossa käy huonosti: 2×2-matriisilla on vain yksi ominaissuora.

Lause 1.8. Rn:llä (Cn:llä) on A:n ominaisvektorikanta, jos ja vain josA:n jokaisella ominaisarvolla λ onmλ=Mλ.

Tod. Kyse on yksinkertaisesti siitä, että jos niputetaan kutakin erillistä ominaisarvoa vastaavien ominai- savaruuksien kannat omiksi nipuikseen, saadaan yhteensänvektoria, jotka ovat LRT.

Otetaan havainnollisuuden vuoksi vaikka kolme ominaisarvoaλ1, λ2, λ3, joiden kertaluvut olkoot 1,2,3 vastaavasti. Olkoot vektoriniput {u},{v1,v2},{w1,w2,w3}.

Olkoon(c1u) + (c2v1+c3v2) + (c4w1+c5w2+c6w3) = 0.

Suluissa olevat vektorilausekkeet ovat kaikki nollavektoreita. Jos nimittäin joku ei olisi, niin otettaisiin summaan kaikki nollasta erilliset sulkulausekkeet. Nämä ovat eri ominaisrvoihin liittyviä ominaisvekto- reita, ja siis LRT. Niiden summa =0,joten ristiriita LRT:n kanssa on valmis.

Kussakin sulkulausekkeessa esiintyvät vektorit ovat ao. ominaisavaruuden kantavektoreita (siis LRT), joten on oltava:(c1= 0),(c2=c3= 0),(c4=c5=c6= 0). ƒ Erilaisten matriisityyppien (kuten symmetristen, ortogonaalisten ym.) ominaisvektorikäytöstä selvitetään jatkossa.

Ominaisarvokannan arvo, diagonalisointi

Jos avaruudella onA:n ominaisvektorikanta {u1, . . . ,un},voidaan laskea aivan samoin kuin edellä mm.

ellipsiesimerkissä: ...

Lause 1.9 (Diagonalisointi). ...

Tod. ...

ƒ Esimerkki 1.5. Laske lausekeAk:lle, kunA=

"

−2 12

−1 5

# . Ratkaisu Diagonalisoidaan:

A=V DV−1, V =

"

4 3 1 1

# , D=

"

1 0 0 2

#

, V−1=

"

1 −3

−1 4

# .

NytAk =V DkV−1=

"

4 3 1 1

# "

1 0 0 2k

# "

1 −3

−1 4

# . Kun suoritetaan kertolaskut, saadaan:

(13)

Ak=

"

−3 2k+ 4 12 2k12

−2k+ 1 4 2k3

#

Tässä tapauksessa saatiin jopa yksinkertainen kaavaAk:lle.

Yleensä nyt ei ihan näin pitkälle päästä. Joka tapauksessa saadaan valtava säästö aritmetiikassa ja usein saadaan selkeä näkemys alunperin sotkuiseen asiaan.

Lasketaan yksi pieni esimerkki Matlabilla:

>> A=[0 -4 -6;-1 0 -3;1 2 5]

A =

0 -4 -6

-1 0 -3

1 2 5

>> [V,D]=eig(A)

V =-0.8165 0.5774 -0.9269 -0.4082 0.5774 -0.0850 0.4082 -0.5774 0.3656

D = 1.0000 0 0

0 2.0000 0

0 0 2.0000

>> VI=inv(V) VI =

-2.4495 -4.8990 -7.3485 -1.7321 -1.2075 -4.6716

0 3.5634 3.5634

Tarkistetaan, laitetaan A jaV DV−1 vierekkäin (ja lisätään rajaviiva editoimalla).

>> [A V*D*VI]

ans =

0 -4.0000 -6.0000 | -0.0000 -4.0000 -6.0000

-1.0000 0 -3.0000 | -1.0000 -0.0000 -3.0000

1.0000 2.0000 5.0000 | 1.0000 2.0000 5.0000

Lasketaan vaikkapaA16.

>> A^16 ans =

-65534 -262140 -393210

-65535 -65534 -196605

65535 131070 262141

(14)

Lasketaan diagonalisoimalla:

>> D16=D^16 D16 =

1.0e+04 *

0.0001 0 0

0 6.5536 0

0 0 6.5536

Näin ei oikeastaan kannattaisi laskea. Nyt voimme nimittäin laskea pisteittäisen potenssin, kun on kyse diagonaalimatriisista. Silloin aritmetiikkaa on paljon vähemmän.

>> D16=D.^16 D16 =

1.0e+04 *

0.0001 0 0

0 6.5536 0

0 0 6.5536

>> format bank

>> V*D16*VI ans =

-65534.00 -262140.00 -393210.00 -65535.00 -65534.00 -196605.00 65535.00 131070.00 262141.00

>> A^16 % Tässä taas vertailuksi raakaa voimaa:

ans =

-65534.00 -262140.00 -393210.00 -65535.00 -65534.00 -196605.00 65535.00 131070.00 262141.00

Maankäyttöesimerkki diagonalisoimalla. Edellä esitettiin lähtövektori ominaisvektorikannan avul- la. Katsotaan, miltä homma näyttäisi diagonalisoimalla. Esitetään matriisi P muodossa P =V DV−1. Iteraatiojononk:s termi onxk =Pkx0. MuttaPk=V DkV−1.

Dk=



1 0 0

0 0.8k 0 0 0 0.6k



Kunk→ ∞, niin

Dlim=



1 0 0 0 0 0 0 0 0



>> P=[0.8 0.1 0;0.1 0.7 0.1;0.1 0.2 0.9]

>> [V,D]=eig(P)

(15)

V =

-0.1826 -0.7071 0.4082 -0.3651 -0.0000 -0.8165 -0.9129 0.7071 0.4082

D =

1.0000 0 0

0 0.8000 0

0 0 0.6000

>> VI=inv(V) VI =

-0.6847 -0.6847 -0.6847 -1.0607 -0.3536 0.3536 0.3062 -0.9186 0.3062

>> Dlim=diag([1,0,0]) Dlim =

1 0 0

0 0 0

0 0 0

>> V*Dlim*VI ans =

0.1250 0.1250 0.1250 0.2500 0.2500 0.2500 0.6250 0.6250 0.6250

>> Plim=V*Dlim*VI Plim =

0.1250 0.1250 0.1250 0.2500 0.2500 0.2500 0.6250 0.6250 0.6250

>> Plim*[30 20 50]' ans =

12.5000 25.0000 62.5000

(16)

>> Plim*[99 .5 .5]' ans =

12.5000 25.0000 62.5000

Ominaisvektorikanta vai diagonalisointi

Kysehän on samasta asiasta esitettynä eri muodossa. Tämäntyyppisissä tehtävissä näyttäisi kirjoittajan (HA) mielestä ominaisvektorikannalla operointi hiukan diagonalisointiesitystä selkeämmältä ja myös käsin laskettaessa ehkä lyhyemmältä tavalta.

(17)

Sisältää otteita Timo Eirolan L3-kurssin lineaarialgebramonisteesta, jonka lähdekoodin Timo on ystävällisesti antanut käyttööni.

2. Normi ja sisätulo

Vektoriavaruuden määritelmässä riitti olettaa, että joukon alkioille on määritelty aksioomat toteuttavat yhteenlasku ja skalaarilla kertominen. Kuitenkin monissa vektoriavaruuksissa voidaan tunnetusti tehdä muitakin laskutoimituksia. Esim. R2:ssa tai R3:ssa voidaan laskea vektoreiden pituuksia, välisiä kulmia ja pistetuloja. Jatkuvia funktioita voidaan kertoa keskenään, integroida, niiden maksimeja voi etsiä jne.

Normiavaruus on sellainen vektoriavaruus, jossa vektoreille on määritelty pituusfunktio, jota kutsutaan normiksi. Sisätuloavaruus on puolestaan normiavaruus, jossa lisäksi kulmien mittaaminen on mahdollista ja erityisesti kohtisuoruus eli ortogonaalisuus on määritelty. Seuraavassa tarkastellaan lähemmin, miten tällaisia pituus- ja kulmafunktioita voidaan määritellä.

Määritelmä 2.1. Olkoon V K-kertoiminen vektoriavaruus. Kuvaus k · k : V 7→R on normi, jos se toteuttaa

(1) kvk ≥0 ∀v ∈V . (2) kvk= 0 = v= 0.

(3) ku+vk ≤ kuk+kvk ∀u,v∈V . (4) kαvk=|α| kvk ∀α∈K, v∈V .

Vektoriavaruutta, jossa on määritelty jokin normi kutsutaan normiavaruudeksi.

Esimerkki 2.1. Vektoriavaruudessa Rn tavallisin normi on nk. euklidinen normi kxk2=Xn

i=1

|xi|2‘1

2 .

Selvästi tämä toteuttaa ehdot (1), (2) ja (4). Ominaisuuden (3) eli kolmioepäyhtälön näytämme hieman myöhemmin. Muita usein käytettyjä normeja Rn:ssä ovat3

kxk1= Xn

i=1

|xi| ja kxk= max

1≤i≤n|xi| .

Näistä on helppo näyttää ominaisuudet (1)-(4). Ellei toisin mainita, käytetään Rn:ssä normia k·k=k·k2. Avaruudessa Cn käytetään myös aivan samalla tavalla määriteltyjä normeja.

Määritelmä 2.2. Olkoon V K-kertoiminen vektoriavaruus. Kuvaus h ·,· i : V×V 7→K on sisätulo, jos se toteuttaa ehdot

(1) hv,vi ≥0 kaikilla v∈V . (2) hv,vi= 0 = v= 0.

(3) hu+v,wi=hu,wi+hv,wi kaikilla u,v,w∈V . (4) hαu,vi=αhu,vi kaikilla α∈K, u,v∈V . (5) hv,ui=hu,vi kaikilla u,v∈V .

3Normia k · k1 kutsutaan taksikuskin normiksi. Miksiköhän?

(18)

Sisätulolla varustettua vektoriavaruutta sanotaan sisätuloavaruudeksi.

Reaalisessa tapauksessa (5) saa muodon hv,ui=hu,vi eli reaalinen sisätulo on symmetrinen. Ominai- suudet (3) ja (4) sanovat, että sisätulo on lineaarinen ensimmäisen argumentin suhteen. Toisen argumentin suhteen saadaan:

hu, αv+βwi (5)= hαv+βw,ui (3),(4)= αhv,ui+β hw, ui

= αhv,ui+β hw,ui (5)= αhu,vi+β hu,wi . (2.1)

Täten sisätulo on konjugoidusti lineaarinen toisen argumentin suhteen: skalaarit saadaan ulos komplek- sikonjugaatteina. Reaalisessa tapauksessa sisätulo on siten lineaarinen myös toisen argumentin suhteen.

Vektoriavaruudesta Rn tuttu vektoreiden välinen pistetulo4: hx,yi=xTy=Pn

i=1xiyi toteuttaa sisä- tulon ehdot.

Vastaavasti Cn:n vektoreille määritellään hx,yi=xTy=Pn

i=1xiyi. Esimerkki 2.2. Avaruudessa C[a, b] voidaan määritellä

hf, gi=Rb

af(x)g(x)dx . Ehdot (1)-(5) seuraavat suoraan integraalin ominaisuuksista.

Esimerkiksi C[−π, π]:ssä funktioiden f(x) = sinx ja g(x) = cosx väliset sisätulot ovat hf, gi=Rπ

−πsinxcosx dx=Rπ

−π1

2sin 2x dx= 0 hf, fi=Rπ

−πsin2x dx=Rπ

−π1

2(1cos 2x)dx=π . Samoin hg, gi=π .

Sisätulon tärkeä ominaisuus on, että se määrittelee heti myös normin: jos V on sisätuloavaruus, asetetaan

(2.2) kvk=p

hv,vi.

Sisätulon ehdoista saadaan normin ehdot (1),(2) ja (4) helposti. (3) eli kolmioepäyhtälö vaatii hieman laskemista.

Esitellään ensin Schwarzin epäyhtälö5: sisätulo ja sen avulla kaavalla (2.2) määritelty k · k (jota vielä ei tiedetä normiksi) toteuttavat:

(2.3) |hu,vi| ≤ kuk kvk.

Tod. Viittaamme L3-prujuun [TE] tai moninisiin oppikirjoihin. Todistus on tyylipuhdas minimointiteh- tävä, jossa tarkastellaan toisen asteen polynomia, sopiva vaikka koulukurssiin. Emme kuitenkaan tässä

paneudu siihen. ƒ

Näytetään nyt, että kaavalla (2.2) määritelty k · k toteuttaa normin ehdon (3) eli kolmioepäyhtälön ku+vk ≤ kuk+kvk.

Tod. Käyttäen sisätulon ominaisuuksia ja Schwarzin epäyhtälöä saadaan

ku+vk2=hu+v,u+vi=hu,ui+hu,vi+hv,ui+hv,vi

≤ kuk2+ 2 |hu,vi|+kvk2

≤ kuk2+ 2kuk kvk+kvk2= (kuk+kvk)2,

josta väite seuraa. ƒ

4Lausekkeessa xTy vektorit on ajateltu n×1-matriiseiksi, jolloin xT on 1×n-matriisi ja xTy on 1×1-matriisi eli skalaari.

5Täydellisemmin: Cauchy-Schwarz-Bunjakovskin epäyhtälö.

(19)

Kysmys: Onko jokaisen normin taustalla aina sisätulo ?

Vastaus: Ei. Esimerkiksi edellä esiintyneetk.k1(taksikuski) jak.keivät ole peräisin mistään sisätulosta.

2.1. Ortogonaalisuus.

Vektorit u ja v ovat ortogonaaliset, kun hu,vi= 0.Ortogonaalisuus määritellään samoin kompleksi- kertoimisissa vektoriavaruuksissa. Täten [1i] ja [1i] ovat ortogonaaliset C2:ssa.

Sisätuloavaruuden vektorijoukkoa S = {v1, . . . ,vk} sanotaan ortogonaaliseksi, jos kaikki sen vektorit ovat keskenään ortogonaaliset: Š

vi,vj‹

= 0, kun i6=j .

Ortogonaalinen vektorijoukko {v1, . . . ,vn} on myös lineaarisesti riippumaton edellyttäen, että se ei sisällä nollavektoria. Tämä nähdään seuraavasti. Jos c1v1+· · ·+cnvn = 0, otetaan tämän sisätulo vk:n kanssa, jolloin

0 =Š

c1v1+· · ·+cnvn,vk‹

=c1

Šv1,vk‹

+· · ·+ck

Švk,vk‹

+· · ·+cn

Švn,vk‹

=ckkvkk2 ja koska vk 6= 0,saadaan ck = 0.Näin kaikki kertoimet saadaan yksitellen nolliksi, joten {v1, . . . ,vn} on lineaarisesti riippumaton.

Jos ortogonaalisen joukon vektorit ovat lisäksi pituudeltaan ykkösiä kutsutaan joukkoa ortonormaaliksi.

Annetun vektorin koordinaatit ortonormaalin kannan suhteen on helppo laskea:

Olkoon B={b1, . . . ,bn} sisätuloavaruuden V ortonormaali kanta. Jos v=c1b1+· · ·+cnbn,otetaan tämän sisätulo bk:n kanssa, jolloin D

v,bk E

= ck

D bk,bk

E

= ck. Näin saadaan kaikki kertoimet. Siis esitys ortonormaalissa kannassa saadaan:

v= Xn

k=1

D v,bkE

bk , kaikilla v∈V .

Ortonormaaleja kantoja voidaan muodostaa nk. GramSchmidtin prosessilla.

Tätä ei vaadita K3/P3-kurssilla v. 2004. Siihen voidaan kuitenkin vedota ja sen tulosta soveltaa, mutta välikokeissa tulos annetaan, jos sitä tarvitaan.

Olkoon

(v1,v2, . . .) (äärellinen tai ääretön) jono lineaarisesti riippumattomia sisätuloavaruuden vektoreita. Muo- dostetaan yhtä pitkä jono (q1,q2, . . .) ortonormaaleja vektoreita seuraavasti:

q1 = v1/kv1k, wk = vkPk−1

j=1

Švk,qj‹ qj , qk = wk/kwkk.

)

k= 2,3, . . . (2.4)

Tässä keskimmäisellä rivillä vk:sta poistetaan sen komponentit jo muodostetuilla suunnilla q1, . . . ,qk−1. Viimeisellä rivillä jäljelle jäävä osa normeerataan ykkösen pituiseksi.

Lause 2.1. Edellä esitetylle Gram-Schmidtin prosessille pätee:

a) (q1,q2, . . .) on ortonormaali.

b) sp(q1, . . . ,qk) = sp(v1, . . . ,vk) kaikilla k≥1.

Erityisesti, jos V on äärellisdimensioinen ja {v1, . . . ,vn} on sen kanta, niin {q1, . . . ,qn} on V:n ortonormaali kanta.

(20)

Tod. Prosessi pyörii niin kauan, kun wk 6= 0 (tai vj-vektorit loppuvat). Näytetään aluksi, että b) on voimassa tähän asti. Koska

vk=kwkkqk+

k−1X

j=1

Švk,qj‹ qj ,

saadaan kaikilla k : vk sp(q1, . . . ,qk),josta sp(v1, . . . ,vk)sp(q1, . . . ,qk).Toisaalta, jokaiselle qk selvästi pätee qksp(q1, . . . ,qk−1,vk).Täten induktiivisesti

qk sp(q1, . . . ,qk−1,vk)sp(q1, . . . ,qk−2,vk−1,vk)⊂ · · · ⊂sp(v1, . . . ,vk). Näin kaikilla k ,joten sp(q1, . . . ,qk)sp(v1, . . . ,vk) ja b) on voimassa.

Jos olisi wk = 0 jollakin k ,tämä tarkoittaisi, että vk=

k−1X

j=1

Švk,qj‹

qj sp(v1, . . . ,vk−1)

(sillä b) on voimassa vielä edellisellä kierroksella). Mutta tämä on mahdotonta, koska v1, . . . ,vk ovat lineaarisesti riippumattomat. Siispä wk:t eivät koskaan tule nolliksi.

Todistetaan a) induktiolla:

Selvästi {q1} on ortonormaali.

Oletetaan, että {q1, . . . ,qk} on ortonormaali. Tällöin, kun i≤k ,saadaan

Šqk+1,qi‹

= D 1

kwk+1k

€vk+1Pk

j=1

Švk+1,qj‹ qj

,qi E

=kwk+11 k

€ Švk+1,qi‹

Pk

j=1

Švk+1,qj‹ Š

qj,qi‹ 

=kwk+11 k

€ Švk+1,qi‹

Š

vk+1,qi‹ 

= 0.

Näin qk+1 on kohtisuorassa kaikkia qi, i k vastaan. Selvästi kqk+1k = 1. Ja kun muutkin ovat keskenään ortonormaalit, {q1, . . . ,qk+1} on ortonormaali. ƒ Huomaa, että saatava ortonormaali joukko riippuu paitsi vektoreista vj myös niiden järjestyksestä.

Tehtävä 2.1. Näytä, että äärellisdimensioisen sisätuloavaruuden mielivaltainen ortonormaali joukko voi- daan täydentää ortonormaaliksi kannaksi.

Esimerkki 2.3. Lähdetään liikkeelle R3:n kannasta {v1,v2,v3}=ˆ h1 10

i ,

h1

20

i ,

h1

12

i ‰.Saadaan:

q1= 12 h1

10

i

w2= h1

20

i

32 12 h1

10

i

=

”12

1

02

•

q2= 1

12

”12

1 20

•

= 12 h−1

10

i

w3=h1

12

i

22 12h1

10

i

+ 0·12h−1

10

i

=h0

02

i

q3=h0

01

i . Näin saatiin ortonormaali kanta ˆ 1

2

h1

10

i , 12

h−1

10

i ,

h0

01

i ‰.

(21)

Kurssimateriaalia K3/P3-kursille syksyllä 2003/2004.

1.11.04 Heikki Apiola

3. Ortogonaalisuus, matriisityyppejä ja spektrejä

Reaalinen Kompleksinen

Symmetrinen:AT =A Hermiittinen:AT =A Vinosymmetrinen:AT =−A AT =−A

Ortogonaalinen:AT =A−1 AT =A−1.

Merkintöjä:A0=AT, usein merkitään myösA, myösAH esiintyy ("hermitointi"). MerkintäA0on sama kuin Matlab:ssa.

Käyttämällä merkintää A0 (tai vastaavaa synonyymia), voidaan yllä olevat ehdot lausua yhtenäisesti:

Hermiittinen tai symmetrisen ehto on:A0=A, jne.

Aloitamme lemmalla, joka on hyödyllinen monissa seuraavissa todistuksissa. Huomaa, että vaikka olisim- me kiinnostuneita vain reaalisista matriiseista, on alla olevat laskut suoritettava kompleksiluvuilla, koska ominaisarvot ja ominaisvektorit saattavat sisältää kompleksilukuja.

Lemma 3.1. OlkoonA (m×n)- matriisi ja olkoot u∈Cn ja v∈Cm. Tällöin hAu,vi=hu, A0vi.

Tod.

hAu,vi= (Au)Tv=uTATv |{z}=

AT=A0

uTA0v=hu, A0vi.

ƒ 3.1. Ortogonaaliset matriisit. Ortogonaalisen matriisin prototyyppi on tason kierto. Toinen tyypilli- nen on heijastus jonkin origon kautta kulkevan suoran suhteen. Näiden matriisit ovat

"

cos (φ) sin (φ) sin (φ) cos (φ)

# ja

"

cos (φ) sin (φ) sin (φ) cos (φ)

# .

Edellisen determinantti= 1 ja jälkimmäisen−1. Determinanttien kertosäännön perusteella ortogonaali- selle matriisille pätee aina:(detA)2= det(AAT) = detI= 1,jotendetA=±1.

Lause 3.2 (KRE Thm. 3). Reaalinen matriisiA on ortogonaalinen, jos ja vain jos sen rivit muodostavat ortonormaalin joukon, jos ja vain jos

sen sarakkeet muodostavat ortonormaalin joukon.

Tod. Eipä muuta, kuin ajatellaan matriisitulon määritelmää yhtälössäATA=I.Jos merkitään rivivek- toreitaai. ja sarakevektoreitaa.j, niin

(ATA)ij=aTi.a.j =ha.i, a.ji.

Jos merkitään δij:llä ns. Kroneckerin deltaa, joka lyhyesti sanottuna tarkoittaa yksikkömatriisin alkiota (I)ij, niin ehto ATA=I merkitsee samaa kuin(ATA)ij =δij, eliha.i, a.ji=δij, joka tarkoittaa juuri sarakevektorien ortonormaalisuutta.

Rivivektoreilla aivan vastaavasti tarkastelemalla tuloaAAT =I.

(22)

Kääntäen muistamme "lineaarialgebran ihmeen": r(AT) = r(A), jonka perusteella jo toinen ehdoista AAT =ItaiATA=Itakaa käänteismatriisin olemassaolon, eli sen, että molemmat ovat voimassa. Siten sarakkeiden (ja yhtä hyvin rivien) ortonormaalisuudesta seuraa matriisin ortogonaalisuus.

ƒ Lause 3.3 (KRE s. 382, Lop. s. 730). Ortogonaalinen kuvaus säilyttää sisätulon ja siten vektorin normin, ts.hAu, Avi=hu,vi.

Tod. Olkoonu=Aa,v=Ab.

hu,vi=hAa, Abi=hA0Aa,bi=ha,bi,koska A0A=I.

Erityisesti||u||2=hu,ui=ha,ai=||a||2.

ƒ Listataan myös edellä laskettudet−ominaisuus lauseeksi:

Lause 3.4. Ortogonaalisen matriisindet =±1.

Lause 3.5. Ortogonaalisen matriisin ominaisarvot ovat yksikköympyrällä, ts,|λ|= 1kaikille ominaisar- voille λ.

Tod. Kuten edellä totesimme,||Au||=||u||.

Josu, λon omisarvo/-vektoripari, niin Au=λu,u6=0.

||u||=||Au||=|λ|||u||.Koska ||u|| 6= 0,voidaan sillä jakaa, ja saadaan|λ|= 1.

ƒ Huomautus 3.1. Yllä oleva todistus menee sanasta sanaan myös unitaariselle.

3.2. Symmetrinen (hermiittinen) ja vinosymmetrinen matriisi.

Lause 3.6 (Lop s. 732, KRE8 s. 387). (Hiukan eri muodot) Olkoon A symmetrinen reaalinen matriisi (kohdassa (1b) vinosymmetrinen).

(1)A:n ominaisarvot ovat reaaliset. (1 b) Vinosymmtrisen A:n puhtaasti imaginaariset (2)A:n eri ominaisarvoja vastaavat ominaisvektorit ovat ortogonaaliset.

(3)A:n ominaisvektoreista voidaan muodostaa jopa ortonormaali kanta Rn:lle.

(4)A on diagonalisoituva, diagonalisoiva matriisi voidaan valita ortogonaaliseksi, ts. voidaan kirjoittaa A=SDST, missäS on ortogonaalinen.

Tod. (1) OlkoonAx=λx, x6=0.

Huomaa, että seuraavat laskut on tehtävä kompleksiluvuilla, koska emmehän voi todistuksessa käyttää väitettä hyväksi! :-)

Turvaudumme tuohon mainioon lemmaan, jonka jälkeen kaikki risuaidat saadaan jättää taakse.

hAx,xi=λhx,xi=λkxk2.

Tuon mainitun mainion mukaan vasen puoli on:

Šx, ATx‹

=hx, Axi=hx, λxi=λhx,xi.

Siisλ||x||=λ||x||,josta jakamalla||x||:lla (6= 0) saadaanλ=λ,eliλ∈R.

(23)

Vinosymmtrinen tapaus menee aivan samoin, paitsi-merkki, joka antaa johtopäätöksen:λ=−λ, joka merkitsee sitä, että reaaliosa on nolla, kuten väitettiin.

(2) OlkoonAx=λx, Ay=µy, λ6=µ.

hAx,yi=hx, Ayi

hAx,yi=hλx,yi=λhx,yi

hx, Ayi=hx, µyi=µhx,yi(µ=µ). Koskaλ6=µ,on oltavahx,yi= 0.

(3) Tämä on syvällisempi tulos, todistetaan kylläkin L3:ssa (kts. [TE]), perustuu ns. Schur'n hajoitelmaan.

(4) Kanta voidaan valita ortonormaaliksi, koska eri ominaisarvoja vastaavat ominaisavaruudet ovat kes- kenään ortogonaalisia. Kussakin ominaisavaruudessa voidaan suorittaa edellä esitetty Gram-Schmidt'n ortonormalisointi, jolloin saadaan koko avaruuden ON kanta.6

Avoidaan siis diagonalisointilauseen mukaan kirjoittaa muotoonA=V DV−1, missäV:n sarakkeet ovat A:n ominaisvektoreita (samassa järjestyksessä kuin vastaavat ominaisarvot D:ssä.

Voidaan siis valitaaV :nsarakkeet ortonormaaleiksi, eliV ortogonaaliseksi, jolloinV−1=VT.

ƒ Huomautus 3.2. Symmetrisen matriisin diagonaaliesitys ei automaattisesti ole muotoa V DVT, vaan sitä varten on huolehdittava, että

(a) V:n sarakkeet on normeerattu ykkösiksi.

(b) Useampikertaisia ominaisarvoja vastaavat ominaisvektorit on ortonormeerattu.

Huomautus 3.3. Jos käytämme jotain ominaisarvot laskevaa ohjelmaa, emme voi (ilman dokumen- tointiin perehtymistä) tietää, saadaanko automaattisesti tällainen muoto. Matlab:n tapauksessa help- tekstikään ei kerro. Esimerkki-istunto:

>> A=rand(10,10); % 10 x 10-satunnaismatriisi.

>> A=A*A'; % Eräs tapa tehdä symmetrinen (toinen: A+A')

>> [V,D]=eig(A);

>> V*V'

Columns 1 through 8

1.0000 -0.0000 -0.0000 -0.0000 0.0000 -0.0000 0.0000 -0.0000 -0.0000 1.0000 -0.0000 0.0000 0.0000 0.0000 -0.0000 0.0000 -0.0000 -0.0000 1.0000 -0.0000 0.0000 0.0000 0.0000 -0.0000 -0.0000 0.0000 -0.0000 1.0000 0.0000 -0.0000 0.0000 -0.0000

0.0000 0.0000 0.0000 0.0000 1.0000 -0.0000 -0.0000 0.0000

-0.0000 0.0000 0.0000 -0.0000 -0.0000 1.0000 0.0000 0.0000

0.0000 -0.0000 0.0000 0.0000 -0.0000 0.0000 1.0000 0.0000

-0.0000 0.0000 -0.0000 -0.0000 0.0000 0.0000 0.0000 1.0000

0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 -0.0000

0.0000 0.0000 -0.0000 -0.0000 -0.0000 0.0000 -0.0000 -0.0000

>> format long % Suurempi tulostustarkkuus.

>> V*V'; ans(1:5,1:5) ans =

6ON: ortonormaali, OG: ortogonaalinen

(24)

1.00000000000000 -0.00000000000000 -0.00000000000000 -0.00000000000000 0.00000000000000 -0.00000000000000 1.00000000000000 -0.00000000000000 0.00000000000000 0.00000000000000 -0.00000000000000 -0.00000000000000 1.00000000000000 -0.00000000000000 0.00000000000000 -0.00000000000000 0.00000000000000 -0.00000000000000 1.00000000000000 0.00000000000000 0.00000000000000 0.00000000000000 0.00000000000000 0.00000000000000 1.00000000000000

% Laskentatarkkuuden puitteissa V on ortogonaalinen.

>> format % Palataan alkuperäiseen

>> diag(D)'; ans(1:9) % Katsotaan vain 9 ekaa, että mahtuu sivulle.

ans =

0.0042 0.0385 0.1929 0.2121 0.3841 0.5493 0.9745 1.5073 1.5950

% Ominaisarvot ovat erillisiä.

Tämä koe oli vain osittain paljastava. On luonnollista, että satunnaisesti generoidun matriisin ominaisar- vot ovat erilliset, niinpä ominaisvektorit ovat automaattisesti ortogonaaliset (koska teimme matriisista symmetrisen), ja kun Matlab aina normeeraa, niin ne ovat ortonormaalit.

Yleisesti voidaan asia hoitaa varmasti oikein soveltamallaV−matriisiin funktiota orth.

>> help orth

ORTH Orthogonalization.

Q = ORTH(A) is an orthonormal basis for the range of A.

That is, Q'*Q = I, the columns of Q span the same space as the columns of A, and the number of columns of Q is the rank of A.

See also SVD, RANK, NULL.

Viittaukset

LIITTYVÄT TIEDOSTOT

Osoita tämän avulla, että matriisi A ∈ C n×n on normaali jos ja vain jos se on unitaarisesti similaarinen jonkin diagonaalimatriisin

Osoita tämän avulla, että matriisi A ∈ C n×n on normaali jos ja vain jos se on unitaarisesti similaarinen jonkin diagonaalimatriisin

Osoita, että matriisi A ∈ C n×n on positiivisesti definiitti jos ja vain jos A on hermiittinen ja kaikki sen ominaisarvot ovat

Osoita, että matriisi A ∈ C n×n on positiivisesti deniitti jos ja vain jos A on hermiittinen ja kaikki sen ominaisavot ovat aidosti

Osoita, että matriisin A ∈ K n×n vasempia ominaisvektoreita vastaavat ominai- sarvot ovat samat kuin oikeita ominaisvektoreita vastaavat ominaisarvot.. (Ei siis tarvitse

Ongelmat eivät ole lähtöisin yksinomaan tutkijoiden antamista epätarkoista tiedoista, vaan myös sekä WOSin että Scopuksen tapaan kerätä julkaisutietoja.. Arvion mukaan noin

Vaikka esitettävän lain 3 §:n 2 momentin 4 kohdan mukaan liikkuminen on sallittua virka- tai työsuhteeseen liittyvien työtehtävien hoitamiseksi, taikka elinkeino- tai

Voidaan haluttaessa jakaa 1.. ) J¨aljemp¨an¨a esitett¨av¨an lauseen mukaan eri ominaisarvoihin liittyv¨at ominaisvektorit ovat LRT, joten voimme sen turvin suoraan