9.6.1 Markovinja T²eby²evin epäyhtälöt sekäsuurten luku-
jen laki. . . 263
9.6.2 Jenseninepäyhtälö . . . 265
9.6.3 Stokastinensuppeneminen . . . 266
9.6.4 Suppeneminen jakaumamielessä . . . 268
10 Uskottavuuspäättelyn perusteet 273 10.1 Uskottavuuden määritelmä . . . 273
10.1.1 Diskreetit mallit. . . 275
10.1.2 Jatkuvatmallit . . . 275
10.2 Esimerkkejä . . . 276
10.3 Uskottavuuksien yhdistäminen . . . 276
10.4 Yhteys Bayesilaiseen lähestymistapaan . . . 283
10.5 Uskottavuussuhde . . . 283
10.6 Uskottavuusfunktion maksimi ja kaarevuus . . . 284
10.7 Uskottavuuden invarianssi . . . 287
10.7.1 Uskottavuus uudessa parametrisoinnissa . . . 288
10.8 Pistesuureen jakauma . . . 289
10.9 Suurimmanuskottavuuden menetelmä . . . 292
10.9.1 Odotettu informaatioja kokeiden suunnittelu . . . 292
10.9.2 Pistefunktionja informaatiofunktion ominaisuuksia . . 293
10.9.3 Cramérin ja Raon alaraja . . . 295
10.9.4 Suurimman uskottavuuden estimaattorinominaisuuksia296 11 Piste-estimointi 299 11.1 Piste-estimaattoreiden ominaisuuksia . . . 299
11.1.1 Harhattomuus . . . 299
11.1.2 Tehokkuus . . . 300
11.1.3 Tarkentuvuus . . . 304
11.2 Estimointimenetelmiä. . . 305
11.2.1 Momenttimenetelmä . . . 305
11.2.2 Bayesin menetelmä . . . 306
11.2.3 Suurimman uskottavuuden estimaattorin (SUE) omi- naisuuksia . . . 307
11.3 Delta-menetelmä . . . 308
11.4 Tyhjentävyys . . . 310
11.4.1 Perusidea . . . 310
11.4.2 Tekijälause . . . 311
11.4.3 Minimaalinen tyhjentävyys . . . 312
11.5 Eksponentiaalinen perhe . . . 316
12 Väliestimointi 321 12.1 Keskiarvojen luottamusvälit . . . 321
12.1.1 Napasuureet . . . 326
12.2 Kahden keskiarvonerotuksen luottamusvälit . . . 327
Piste-estimointi
Olkoon
X 1 , X 2 , . . . , X n otosjakaumasta, jonkatiheysfunktioonf(x, θ)
.Esti-
moimmejakaumantunnuslukua
θ
jollakinotoksentunnusluvullaT
.KoskaT
onotoksenfunktio,täydellisempimerkintäolisi
T (X 1 , X 2 , . . . , X n )
.Joshalu-taankorostaa,ettäkyseessä onnimenomaan
θ
:nestimaattori,merkitäänθ, ˆ θ ˜
jne.Havaitustaotoksesta
x 1 , x 2 , . . . , x nlaskettuaestimaattorinT
arvoamer-
kitään pienellä kirjaimella, eli
T (x 1 , x 2 , . . . , x n ) = t
, ja estimaattorin arvoa kutsutaan estimaatiksi. Sen sijaanθ ˆ
on merkintä sekä estimaattorille että estimaatille. Olemme edellä jo tarkastelleet useita estimaattoreita. Tavan-omaisiaodotusarvon
µ
javarianssinσ 2 estimaattoreitaovatotoskeskiarvoX
ja otosvarianssi
S 2.
11.1 Piste-estimaattoreiden ominaisuuksia
Luvuissa
8
,9
ja10
olemme jo tarkastelleetuseita estimaattoreiden ominai- suuksia, kuten harhattomuus, minivarianssisuus ja tarkentuvuus. Tässä lu-vussa kootaan yhteen ja täydennetään edellä esitettyjä tuloksia.
11.1.1 Harhattomuus
Parametrin
θ
estimaattorinθ ˆ
hyvyyttä on luontevaamitata tarkastelemalla poikkeamaaθ ˆ − θ
. Tässä siisθ
on tuntematon kiinteä parametrin arvo jaθ ˆ
on satunnasimuuttuja. Poikkeamat voivat olla tietysti positiivisia tai nega-
tiivisia, mutta neliöpoikkeama
(ˆ θ − θ) 2 ≥ 0
mittaa poikkeaman suuruutta.Neliöpoikkeamanodotusarvo
(11.1.1)
MSE(ˆ θ) = E(ˆ θ − θ) 2
on keskineliövirhe. Jos estimaattorilla on pieni keskineliövirhe, estimaattori
antaa keskimäärin lähellä
θ
:aa olevia arvoja. Määritelmästä (11.1.1) seuraa suoraan, ettäMSE(ˆ θ) = Var(ˆ θ) + [E (ˆ θ) − θ] 2 ,
missä
E(ˆ θ) − θ
onestimaattorinθ ˆ
harha.Määritelmä 11.1 Estimaattori
θ ˆ
onparametrin harhaton estimaattori, josE(ˆ θ) = θ
kaikillaθ
:n arvoilla. Muutoinθ ˆ
on harhainen ja[harha(ˆ θ)] 2 > 0
jollakin
θ
:n arvolla.Olemmejo aikaisemminEsimerkissä 9.4 osoittaneet, että otoskeskiarvo
µ ˆ = X
ja otosvarianssiσ ˆ 2 = S 2 ovat harhattomia estimaattoreita. Sen sijaan
esimerkiksiotosvarianssinneliöjuuriσ ˆ = √
S 2 onσ
:nharhainenestimaattori.
Esimerkki 11.1 Olkoon
X 1 , . . . , X n otos Bernoullin jakaumasta Ber(π), 0 < π < 1
. Voidaanko π 2 estimoida harhattomasti yhden havainnon perus-
teella? Oletetaan, että T
olisiπ 2:n harhatton estimaattori.Silloin
T
olisiπ 2:n harhatton estimaattori.Silloin
(11.1.2)
π 2 = E[T (X)] = πT (1) + (1 − π)T (0) = T (0) + π[T (1) − T (0)],
kaikilla
π ∈ (0, 1)
. Koska (11.1.2) pitää paikkansa kaikillaπ ∈ (0, 1)
, niinyhtälönmolemmillapuolillatäytyy
π
:npotenssien vastaavienkertoimienollasamat. Tämä on mahdotonta, joten
π 2:ta ei voida estimoidaharhattomasti yhden havainnon perusteella.
Jos
n > 1
, voisimme kokeilla estimaattoriaX ¯ n 2, missä X ¯ n = n 1 P n i=1 X i
on otoskeskiarvo. Tämä estimaattori ei olekuitenkaan harhaton. Sen sijaan
X ¯ n (n X ¯ n − 1)/(n − 1)
onπ 2:nharhaton estimaattori,kun n > 1
.
Esimerkki 11.2 Olkoon
X 1 , . . . , X n otos Bernoullin jakaumasta Ber(π), 0 < π < 1
kutenEsimerkissä11.1.Joskushalutaanestimoida1/π
.Luonnolli-
nen estimaattoriehdokason
1/ X ¯ n = n/ P n
i=1 X i
,missäP n
i=1 X i ∼ Bin(n, π).
Koska
P (
n
X
i=1
X i = 0) = (1 − π) n > 0, E(1/ X ¯ ) = ∞
kaikillan ≥ 1
. Sen sijaan estimaattorillaT n = n + 1 n X ¯ + 1
onäärellinenodotusarvo, mutta estimaattorion harhainen.
Harhattomuus on haluttava ominaisuus,muttaei aina kovin oleellinen.
11.1.2 Tehokkuus
Eräs tapa arvioida estimaattorien hyvyyttä on vertailla niiden keskineliö-
virheitä. Olkoot
θ ˆ 1 ja θ ˆ 2 kaksi parametrin θ
estimaattoria. Estimaattorin θ ˆ 1
θ
estimaattoria. Estimaattorinθ ˆ 1
tehokkuus suhteessa estimaattorin
θ ˆ 2 tehokkuuteet määritelläänsuhteena
(11.1.3) eff(ˆ θ 1 , θ ˆ 2 ) = MSE(ˆ θ 2 )
MSE(ˆ θ 1 )
ja sitä kutsutaan estimaattoreiden suhteelliseksi tehokkuudeksi. Kun esti-
maattorit ovat harhattomia, suhteellinen tehokkuus on varianssien suhde.
Jos estimaattori
θ ˆ
on harhaton, voidaan sen varianssilleVar(ˆ θ)
, johtaa ala-raja, joka oneräänlainen mittatikkuestimaattorin hyvyydelle.
Oletetaan, että
X
noudattaa jakaumaa, jonka tiheysfunktio onf (x; θ)
.Fisherin pistefunktio on
(11.1.4)
S(θ; x) = ∂ l(θ; x)
∂θ ,
missä
l(θ; x) = log f (x; θ)
. Tarkastellaan nyt pistefunktiotaS
"satunnais- funktiona" eliS(θ; X) = ∂ l(θ; X)
∂θ .
Kun havaitaan
X = x
, saadaan funktio (11.1.4). EriX
:n arvoilla saadaanaina eri funktio.
Esimerkki 11.3 Oletetaan, että
X ∼ N(µ, σ 2 )
. Silloinµ
:n logaritmoituus- kottavuusfunktio on(σ 2 voidaan ajatella vakioksi)
l(µ; X) = − 1
2σ 2 (X − µ) 2
ja
S(µ; X) = 1
σ 2 (X − µ).
Silloin
E[S(µ; X)] = E [(X − µ)/σ 2 ] = 1
σ 2 E(X − µ)
= 1
σ 2 [E(X) − µ] = 0.
ja
Var[S(µ; X)] = Var 1
σ 2 (X − µ)
= 1
(σ 2 ) 2 Var(X − µ) = σ 2
(σ 2 ) 2 = 1 σ 2 .
Toisaalta
I(µ; X) = − ∂ 2 l(µ; X)
∂µ 2 = − ∂S(X; µ)
∂µ = 1
σ 2 ,
jotentässätapauksessa havaittuinformaatio
I(µ; X)
eiriipu havainnoistaja odotettu informaatioonsama kuin havaittu informaatio:E[I(µ; X)] = 1 σ 2 .
Huomaamme, että pistesuureen
S(µ; X)
varianssionodotettuinformaatio:Var[S(µ; X)] = E[I(µ; X)].
Koska
µ ˆ = X
onµ
:nsuurimman uskottavuuden estimaattori, niinVar(ˆ µ) = 1 E[I(µ; X)] .
Esimerkki 11.4 Oletetaan, että
X ∼ Bin(n, θ)
.Silloinθ
:nlogaritmoituus- kottavuusfunktio onl(θ; X) = X log θ + (n − X) log(1 − θ), 0 < θ < 1,
ja pistefunktio
S(θ; X) = X
θ − n − X
1 − θ = X − nθ θ(1 − θ) .
Helpostitodetaan,että
E[S(θ; X)] = 0
jaVar[S(θ; X)] = n
θ(1 − θ) .
Havaittu informaatioon
I (θ; X) = X
θ 2 + n − X (1 − θ) 2 ,
josta saadaanodotettu informaatio
E[I(θ; X)] = nθ
θ 2 + n − nθ
(1 − θ) 2 = n θ(1 − θ) .
Jälleen pistesuureen
S(θ; X)
varianssi, odotettu informaatio ja suurimman uskottavuuden estimaattorinθ ˆ = X/n
varianssiliittyvätyhteen seuraavasti:Var[S(θ; X)] = E[I(θ; X)]
ja
Var(ˆ θ) = 1 E[I(θ; X)] .
Esimerkki 11.5 Kun
X
noudattaa Poissonin jakaumaaPoi(µ)
, niinl(µ; X) = X log µ − µ, S(µ; X) = X
µ − 1
ja∂ 2 l(µ; X)
∂µ 2 = − X µ 2 .
Nyt siis
I(µ; X) = µ X 2 ja odotettuinformaatioon siis
E[I(µ; X)] = E X
µ 2
= E(X) µ 2 = 1
µ
ja välittömästivoidaanmyös todeta, että myös
Var[S(µ; X)] = 1 µ .
Parametrin
µ
suurimman uskottavuuden estimaattoriµ ˆ = X
on jaVar(ˆ µ) = 1
E[I(µ; X)] = µ.
Fisherin informaatio on
(11.1.5)
I (θ) = E[I(θ; X)].
Kun meillä on havainto
X = x
, voidaan laskea havaittu informaatioI (θ; x)
annetulla parametrin arvolla. Suurimman uskottavuuden estimaatti antaa
uskottavimman parametrin arvon
θ ˆ
jaI(ˆ θ; x)
antaa tarkkuuden, milläθ
onestimoitu. Informaation määrä riippuu tyypillisesti otoksen koosta, joka on
tärkeänäkökohtasuunniteltaessakoettataiaineistonhankintaa.Ennenkoet-
taonhyödyllistäarvioidahavaintojenantamainformaationmäärä.Suunnit-
teluvaiheessa ei voida laskea havaittua informaatiota, koska havaintoja ei
vielä ole. Sen sijaan odotettu informaatio(11.1.5) voidaan laskea. Odotettu
informaatiomittaa
θ
:n estimoinninkeskimääräistä tarkkuutta,jokavoidaan saavuttaa toistamallakoetta taitekemällätoistuvia otoksia.Olkoon
X 1 , . . . , X n otosjakaumasta,jonkatiheysfunktio(taitodennäköi-
syysfunktio) onf (x; θ)
. Suoraan pistefunktionmääritelmästäseuraa, että
S(θ; X 1 , . . . , X n ) =
n
X
i=1
S(θ; X i ),
missä
S(θ; X i ) = ∂ l(θ;X ∂θ i ). Vastaavasti otokseen X 1 , . . . , X n perustuva infor-
maatiofunktiovoidaan esittääsummana
I(θ; X 1 , . . . , X n ) =
n
X
i=1
I (θ, X i ),
missä
I(θ; X i ) = − ∂ 2 l(θ;X ∂θ 2 i ). KoskahavainnotX i , 1 ≤ i ≤ n,
noudattavatsa-
maa jakaumaa, jokaisen havainnon antama odotettuinformaatioE[I(θ, X i )]
onsama. Merkitään siksi yhden havainnon odotettua informaatiota
(11.1.6)
i(θ) = E[I (θ; X i )],
missä
I(θ; X i ) = − ∂ 2 l(θ;X ∂θ 2 i ).NytsiisotokseenX 1 , . . . , X n perustuvaodotettu
informaatioon
(11.1.7)
I (θ) =
n
X
i=1
E[I(θ, X i ) = n i(θ).
Esimerkeissä 11.3,11.4 ja11.5totesimme, että
Var[S(θ; X)] = i(θ)
,joten(11.1.8)
Var[S(θ; X 1 , . . . , X n )] = n i(θ).
Relaatio(11.1.8)voidaantodistaayleisestitiettyjensäännöllisyysehtojenval-
litessa. Odotettu informaatiovoidaan siis laskea joko odotusarvona (11.1.7)
taipistefunktionvarianssina(11.1.8).Tavallisestiodotusarvo(11.1.7)onhel-
pompi laskea kuinpistefunktion varianssi.
Alaluvussa 10.9.3 todistetun Cramérin ja Raon lauseen avulla voidaan
määrittääharhattomanestimaattorin varianssinalaraja.
Cramérinja Raon alaraja:Olkoon
θ ˆ
parametrinθ
harhatonestimaattori.Silloin tiettyjen säännöllisyysehtojen vallitessa
(11.1.9)
Var(ˆ θ) ≥ 1
n i(θ) ,
missä
i(θ)
on yhden havainnon antama odotettuinformaatio.Nyt määrittelemmetehokkaan eli minimivarianssisenestimaattorin.
Määritelmä 11.2 Jos
θ ˆ
on parametrinθ
harhaton estimaattori jaVar(ˆ θ) = 1 n i(θ) ,
niin
θ ˆ
onθ
:nharhaton minimivarianssinen estimaattori.11.1.3 Tarkentuvuus
Eräs estimaattorille asetettava luonnollinen vaatimus on, että sen tarkkuus
kasvaa kun otoskoko kasvaa. Tarkan estimaattorin arvot osuvat suurellato-
dennäköisyydellä lähelleparametrin
θ
oikeata arvoa. Tarkentvuvuus sisältää tämän ajatuksen. Merkitäänθ ˆ n = ˆ θ(X 1 , X 2 , . . . , X n )
, missä(ˆ θ n ; n ≥ 1)
onestimaattoreiden jono,missä otoskoko
n = 1, 2, . . .
kasvaa.Määritelmä 11.3 Tunnusluku
θ ˆ n onparametrinθ
tarkentuva estimaattori,
jos kaikillaε > 0
P ( | θ ˆ n − θ | ≥ ε) → 0,
kun otoskoko
n
kasvaa rajatta.Määritelmätarkoittaasiissitä,ettäestimaattori
θ ˆ n suppeneetodennäköisyy-
den mielessä (stokastinen suppeneminen) kohti parametrinarvoaθ
eli
θ ˆ n
−→ P θ,
kun
n
kasvaa.Luvussa8
esimerkiksiLauseessa9.17esitettiinstokastistasup- penemista koskevia tuloksia. Lauseen 9.17 kohdan SS1 mukaanθ ˆ n ontarkentuva jos MSE(ˆ θ n ) → 0,
kunotoskoko
n
kasvaarajatta.Tämätarkentuvuuden ehtoonhelppotarkis- taa. Josestimaattorionharhaton, tarkistetaan, meneeköestimaattorinvari-anssi nollaanotoskoonkasvaessa. Jos estimaattori ei oleharhaton, tarkiste-
taan lisäksi,meneekö myös estimaattorinharha nollaan otoskoonkasvaessa.
Huomattakoon, että tavallisesti merkitsemme
θ
:nestimaattoria yksinkertai- sestiθ ˆ
, kunriippuvuuttan
:stä eitarvitse erityisesti korostaa.11.2 Estimointimenetelmiä
Kahdessa edellisessä luvussa käsiteltiin suurimman uskottavuuden menetel-
mää. Lukijalle on tuttu myös pienimmän neliösumman menetelmä ja
9.
lu-vussa mainittiin myös ns. robustitit estimaattorit. Seuraavassa alaluvussa
käsitelläänlyhyesti momenttimenetelmää.
11.2.1 Momenttimenetelmä
Momenttimenetelmänideana onse, ettäasetetaan populaationmomentitja
vastaavat otoksen momentit yhtä suuriksi. Olkoon
X 1 , . . . , X n otos jakau-
masta,jollaonolemassariittävämäärä momentteja. Momentitriippuvates-
timoitavistatuntemattomista parametreista, joita merkitään
θ 1 , . . . , θ k. Es-
timoitaviaparametreja on siis
k
kappaletta. Merkitään otokosesta laskettuar.
momenttiam r ja se on
m r = 1 n
n
X
i=1
X i r .
Vastaavapopulaation
r.
momenttionα r = E(X r ),
missä
X
:n tiheysfunktioonf(x; θ 1 , . . . , θ k ).
Merkitään momenttiestimaattoreita
θ ˜ 1 , . . . , θ ˜ k. Kun asetetaan otosmo-
mentitja populaation momentit yhtä suuriksi,saadaan yhtälöryhmä
α 1 (θ 1 , . . . , θ k ) = m 1 α 2 (θ 1 , . . . , θ k ) = m 2
.
.
.
α k (θ 1 , . . . , θ k ) = m k ,
joka ratkaistaan parametrien
θ 1 , . . . , θ k suhteen. Menetelmä on yksinkertai- nen ja se antaa tarkentuvia estimaattoreita.
Esimerkki 11.6 Olkoon
X 1 , . . . , X notosnormaalijakumastaN(µ, σ 2 )
.Mää-
ritetään parametrien
µ
jaσ 2 momenttiestimaattorit. Koska otosmomentit ovat
m 1 = ¯ X
jam 2 = 1 n
n
X
i=1
X i 2
ja vastaavat populaation momentit
α 1 = µ
jaα 2 = σ 2 + µ 2 ,
saadaanyhtälöryhmä
µ = X ¯ σ 2 + µ 2 = 1
n
n
X
i=1
X i 2 .
Tästä ratkaisemallasaadaanmomenttiestimaattorit
˜
µ = X ¯
˜
σ 2 = 1 n
n
X
i=1
X i 2 − X ¯ 2 = 1 n
n
X
i=1
(X i − X) ¯ 2 .
11.2.2 Bayesin menetelmä
Bayesilaisessalähestymistavassaparametria
θ
käsitelläänsatunnaismuuttuja- na. Tuntematonta parametriaθ
koskeva epävarmuus esritetään priorijakau- manπ(θ)
avulla. Kun havainto on saatu, parametrin jakauma päivitetään Bayesin kaavan avulla.Näin saadaanns. posteriorijakauma(11.2.1)
π(θ | x) = f (x | θ)π(θ) g (x) ,
missä
g(x)
onX
:nreunajakaumantiheysfunktio(taitodennäköisyysfunktio).Reunajakauma lasketaankaavalla
g(x) = ( P
θ f(x | θ)π(θ), diskreetissä tapauksessa; R ∞
−∞ f(x | θ)π(θ)d θ, jatkuvassa tapauksessa.
Kun minimoidaanodotettukvadraattinen tappio (riski)
E(b − θ) 2 = Z
(b − θ) 2 π(θ | x)d θ
b
:n suhteen, saadaanposteriorijakaumanodotusarvo(keskiarvo)b = Z
θπ(θ | x)d θ.
Bayesin estimaatiksi
θ ˆ b valitaanposteriorijakaumanodotusarvo.Josvalitaan toinen tappiofunktio, päädytään tavallisesti eri estimaattoriin. Bayesilainen
menetelmäyhdistääsiisinformaatiotakertomallapriorinjauskottavuusfunk-
tion keskenään.
11.2.3 Suurimman uskottavuuden estimaattorin (SUE)
ominaisuuksia
Edellä olemme käsitelleet useita suurimman uskottavuuden estimaattorin
ominaisuuksia. Esitimmemyös harhattaomanestimaattorin varianssille ala-
rajan Fisherin informaation avulla (Cramérin ja Raon lause). Seuraavassa
esitämme vielä suurimman uskottavuuden estimaattorin tärkeimmät omi-
naisuudet luettelonomaisesti.
1. Suurimmanuskottavuuden estimaattoriteivät olevälttämättäharhat-
tomia.Josesimerkiksi
X 1 , . . . , X nonotosnormaalijakaumastaN(µ, σ 2 )
,
niin
σ 2:n SUE σ ˆ 2 = n 1 P n
i=1 (X i − X) ¯ 2
on harhainen. Vaikka jotkutSUE:tovatharhaisia,kaikkiSUE:tovattarkentuvia,jotenkaikkiSUE:t
ovat asymptoottisesti harhattomia.
2. Jos
θ ˆ
onθ
:n SUE jag
jokin funktio, niin silloing(ˆ θ)
ong(θ)
:n SUE.TämäonSUE:ninvarinttisuusominaisuus (Katsoalaluku10.7jaLause
10.1). Josesimerkiksi
X ¯
onθ
:n SUE,niinX ¯ 2 on θ 2:n SUE.
3. Oletetaan, että
f (x; θ)
toteuttaa tietyt säännöllisyysoletukset jaθ
:llaon harhaton estimaattori
θ ˜
, joka saavuttaa Cramerin ja Raon rajan(
θ ˜
on tehokas). Oletetaan, ettäθ
:n SUEθ ˆ
on pisteyhtälönS(θ) = 0
ratkaisu. Silloin
θ ˜ = ˆ θ
. On kuitenkin huomattava, että kaikki suurim- man uskottavuuden estimaattorit eivät ole tehokkaita. Kuitenkin, jostehokas estimaattori onolemassa,se onSUE.
4. Kun
f (x; θ)
toteuttaa tietyt säännöllisyysoletukset, niinotokseenX 1 , . . . , X n perustuva θ
:n suurimman uskottavuuden estimaattori θ ˆ n
noudattaa asymptoottisestinormaalijakaumaa,jonka odotusarvo on
θ
ja varianssi on
1/ I (θ)
. Jossiisn → ∞
, niin(11.2.2)
θ ˆ n ∼ N(θ, 1
I (θ) ).
Huomattakoon, että
I (θ) = n i(θ)
, missäi(θ)
onyhden havainnon an-tama informaatio. Tulokseen (11.2.2) perustuvat monet suurten otos-
ten testit ja luottamusvälit.Suurimman uskottavuuden estimaattorin
θ ˆ n asymptoottinenvarianssisiissaavuttaa Cramérin jaRaon alarajan.
SUE
θ ˆ n onsiisasymptoottisesti tehokasestimaattori. Riittävänsuurilla
otoksilla normaalijakaumaon hyvä θ ˆ n:njakaumanlikiarvo.
Voidaan osoittaa,että seuraavat tulokset pitävät paikkansa:
p I (θ)(ˆ θ n − θ) −→ d N(0, 1) p I(θ)(ˆ θ n − θ) −→ d N(0, 1) q
I (ˆ θ n )(ˆ θ n − θ) −→ d N(0, 1) q
I(ˆ θ n )(ˆ θ n − θ) −→ d N(0, 1).
Kaksiviimeistätulosta ovatkäytännössätärkeimmät jane tarkoittavatsitä,
että suurilla
n
:n arvoillaθ ˆ n ∼ N(θ, 1 I (ˆ θ n ) )
(11.2.3)
θ ˆ n ∼ N(θ, 1 I (ˆ θ n ) ).
(11.2.4)
Onsuositeltavaakäyttää
θ ˆ n:nvarianssinestimaattinalauseketta1/I(ˆ θ n )
.Ta-
vallisesti kuitenkin käsittelemämme jakaumat kuuluvat eksponentiaaliseen
perheeseen ja silloin
I (ˆ θ n ) = I(ˆ θ n )
11.3 Delta-menetelmä
Määritelmä 11.4 Funktion
g(x) r
.asteenTaylorinpolynomipisteessäa
on(11.3.1)
T r (x) = g(a) + g ′ (a)(x − a) + g ′′ (a)
2! (x − a) 2 + · · · + g (r) (a)
r! (x − a) r ,
missä
g (r) (x) = dx d r r g(x)
on funktiong(x) r
. derivaatta.Taylorinlauseen mukaan
(11.3.2)
lim
x → a
g(x) − T r (x) (x − a) r = 0,
jos
g (r) (a)
onolemassa.Funktiog(x)
voidaan lausua pisteenx = a
ympäris-tössä muodossa
g(x) = T r (x) + R r+1 (x),
missä
R r+1 (x) = g(x) − T r (x)
onjäännöstermi,jokasiistoteuttaaehdon11.3.2.Oletetaan, että
X
on satunnaismuuttuja, jonka odotusarvo onE(X) = µ 6 = 0
. Jos estimoidaan funktiotag(µ)
, niinsen Taylorin polynomiinperus-tuva 1.kertaluvunlikiarvopisteessä
µ
on(11.3.3)
g(X) ≈ g(µ) + g ′ (µ)(X − µ).
Jos käytetään
g(µ)
:nestimaattorinafunktiotag(X)
,niinE[g(X)] ≈ g(µ)
ja
Var[g (X)] = [g ′ (µ)] 2 Var(X).
Esimerkki 11.7 Tarkastellaanodotusarvon
E(X) = µ 6 = 0
funktiong(µ) = 1/µ
estimointia.Olkoonestimaattorina1/X
. Silloinedellisen mukaanE 1
X
≈ 1
µ
ja
Var 1
X
≈ 1
µ 4
Var(X).
Lause 11.1 (Delta-menetelmä) Olkoon
{ X n }
sellainensatunnaismuuttu- jienjono,että√ n(X n − θ)
läheneejakaumamielessänormaalijakaumaaN(0, σ 2 )
.Oletetaan, että annetulla funktiolla
g
on määrätyllä arvollaθ
derivaattag ′ (θ) 6 = 0
. Silloin√ n [g(X n ) − g(θ)] → N 0, σ 2 [g ′ (θ)] 2
jakaumamielessä.
Esimerkki 11.8 Olkoon
X 1 , . . . , X n otos jakaumastaBer(p)
.Onnistumisen
todennäköisyyden p
estimaattori on tavallisesti p ˆ = 1 n P n
i=1 X i
. Onnistumi-sen mahdollisuus(odds)
p/(1 − p)
onvedonlyönnissä jabiostatiikassatavan- omainenparametri.Voimmekäyttääp/(1 − p)
:nestimaattorinap ˆ
:nfunktiotaˆ
p/(1 − p) ˆ
.Mitävoimmesanoatämänestimaattorinominaisuuksista?Nytes- timoidaan siis funktiotag(p) = p/(1 − p)
. Koskag ′ (p) = 1/(1 − p) 2, niin
lausekkeen 11.3.3 mukaan
Var p ˆ
1 − p ˆ
≈ [g ′ (p)] 2 Var(ˆ p)
=
1 (1 − p) 2
2
p(1 − p)
n = p
n(1 − p) 3 .
Lauseessa 11.1 oletettiin,että
√ n(X n − θ) −→ d Z ∼ N(0, σ 2 )
. Usein vari-anssi riippuu
θ
:sta eliσ 2 = σ 2 (θ)
. Silloin lauseen11.1 mukaan√ n[g(X n ) − g(θ)] −→ d N(0, σ 2 (θ)[g ′ (θ)] 2 ).
Jos meilläon esimerkiksi otos Poissonin jakaumasta
Poi(λ)
,niin√ n( ¯ X n − λ) −→ d N(0, λ).
Esimerkki 11.9 Edellä mainitun Poissonin jakauman tapauksessa
θ = λ
ja
σ(θ) = √
λ
. Määritetään muunnosg(λ)
siten, ettäg( ¯ X n )
:n varianssi onvakio. Olkoon
c
vakio ja valitaang
siten, ettäσ 2 (θ)[g ′ (θ)] 2 = c 2 elig ′ (λ) = c σ(λ) .
Silloin siis
g(λ) = 2c √
λ
ja valitsemallac = 1/2
saadaang(λ) = √ λ
ja√ n( p X ¯ n − √ λ) 1/2
−→ d N(0, 1),
missä
σ 2 (λ)[g ′ (λ)] 2 = c 2 = 1 4 .
Nyt siisp X ¯ n noudattaa asymptoottisesti
normaalijakaumaaN( √
λ, 4n 1 )
.11.4 Tyhjentävyys
11.4.1 Perusidea
Eräs tilastollisen päättelyn peruskysymyksiä on, voidaanko havainnot kor-
vata jollakin tunnusluvulla menettämättä oleellista informaatiota. Tyhjen-
tävyyden käsite (Fisher 1922) luonnehtii havaintoihin sisältyvän parametria
θ
koskevan informaationkvantitatiivisesti.Parametrinθ
estimaattiT (x)
ontyhjentäväjossesisältääkaikenparametria
θ
koskevaninformaation.Tyhjen- tävyyttä koskeva perustulos onse, että uskottavuusfunktio tiivistääitseensäkaiken havaintojen antamanparametria
θ
koskevaninformaation.Määritelmä 11.5 Oletetaan,että
X 1 , . . . , X n onotosjakaumasta,jonkati-
heysfunktio (taitodennäköisyysfunktio) onf (x; θ)
. Olkoont(x 1 , . . . , x n )
ha-
vaintojen
x 1 , . . . , x n funktio(jokaeiriipuθ
:sta) jat(X 1 , . . . , X n )
onvastaava
satunnaismuuttuja. Funktio
T = t(X 1 , . . . , X n )
on parametrinθ
tyhjentävätunnusluku, jos satunnaismuuttujien
X 1 , . . . , X n ehdollinenjakaumaehdolla
T = t
eiriipuθ
:sta.Intuitiivisestimääritelmätarkoittaasitä,että
X
:narvotvoidaangeneroi-da
X
:n ehdollisesta jakaumastaf(x | T = t; θ)
, koska ehdollinen jakauma eiriipu
θ
:sta.Eiolemielekästäesimerkiksiväittää,että otoskeskiarvoonpopu- laationkeskiarvontyhjentävätunnusluku.Useinnäinonasia,muttaväitteentodenperäisyys riippuu populaation todennäköisyysmallista
f(x; θ)
.Esimerkki 11.10 Olkoon
X 1 , . . . , X notosPoissoninjakaumastaPoi(θ)
.Sil-
loin
T (X 1 , . . . , X n ) = P
X i on θ
:n tyhjentävä tunnusluku. Näytetään, että
otoksen X 1 , . . . , X n jakauma eiriipu θ
:sta, kun T = t
onannettu. Huomat-
θ
:sta, kunT = t
onannettu. Huomat-takoon, että riippumattomien Poissonin jakaumaa noudattavien satunnais-
muuttujien summa
T
noudattaa Poissonin jakaumaaPoi(nθ)
. Havaintojen ehdollinen todennäköisyys ehdollaT = t
onP (X 1 = x 1 , . . . , X n = x n | T = t) = P (X 1 = x 1 , . . . , X n = x n , T = t) P (T = t)
= P (X 1 = x 1 , . . . , X n = x n ) P (T = t)
= e − nθ θ P x i / Q x i ! e − nθ (nθ) t /t!
= t!
Q x i ! Y
1 n
x i
,
kaikille
x 1 , . . . , x n, joille P
x i = t
, ja muutoin todennäköisyys on nolla. Eh- dollinentodennäköisyysei siisriipuθ
:sta, jotenT
onθ
:ntyhjentävä tunnus-luku.Huomattakoon, ettämyösjokainentunnusluvun
t = P
x i bijektiivinen
kuvaus on
θ
:ntyhjentävä tunnusluku.Esimerkki 11.11 Koneella tehdään
n
tuotetta. Tuote on hyväksyttävä to- dennäköisyydelläθ
ja viallinentodennäköisyydellä1 − θ
. Oletetaan,että erituotteiden laadun välillä ei ole riippuvuutta. Olkoon
X i = 1
, jos tuote onhyväksyttävä ja
X i = 0
muutoin. Tehdään siisn
riippumatonta Bernoullin koetta ja(11.4.1)
P (X 1 = x 1 , . . . , X n = x n ) = θ t (1 − θ) n − t ,
missä
x i saaarvon0
tai1
jat = P
x i.Otoksen X 1 , . . . , X n ehdollinenjakau-
maehdolla
T = P
X i = t
onf (x 1 , . . . , x n | t) = P (X 1 = x 1 , . . . , X n = x n , T = t)
n t
θ t (1 − θ) n − t
= θ t (1 − θ) n − t
n t
θ t (1 − θ) n − t = 1
n t
,
joka ei riipu
θ
:sta.T
onsiis tyhjentävä tunnusluku.11.4.2 Tekijälause
Tyhjentävyys on hyödyllinen käsite tarkasteltaessa havaintoaineiston tiivis-
tämistä.Tiivistetäänesimerkiksi havainnot
x 1 , . . . , x n tunnuslukuun x
. Kes-
kiarvon
x
tunteminenei kuitenkaan riitätyhjentävyyden toteamiseksi, vaan on myös tiedettävä, mistä jakaumasta havainnot ovat peräisin. Tunnuslu-vuntyhjentävydenosoittaminenperusmääritelmänavullaonuseinhankalaa.
Useimmitenhelpompi tapa onkäyttää ns. tekijälausetta.
Lause 11.2 Tunnusluku
t(x 1 , . . . , x n )
on parametrinθ
tyhjentävä tunnuslu-ku jos ja vain jos tiheysfunktio (tai todennäköisyysfunktio)
f (x 1 , . . . , x n ; θ)
voidaan esittää tekijämuodossa
f (x 1 , . . . , x n ; θ) = g(t(x 1 , . . . , x n ), θ)h(x 1 , . . . , x n ),
missä
h(x 1 , . . . , x n )
ei riipuθ
:sta.Esimerkki 11.12 Olkoon
x 1 , . . . , x notosnormaalijakaustaN(µ, σ 2 )
jamer-
kitään
θ = (µ, σ 2 )
. Otoksen tiheysfunktio onf (x 1 , . . . , x n ; µ, σ 2 ) = (2πσ 2 ) − n/2 exp
− 1 2σ 2
X (x i − µ) 2
= (2πσ 2 ) − n/2 exp
− P x 2 i
2σ 2 + µ P x i
σ 2 − nµ 2 2σ 2
.
Tekijälauseesta 11.2 seuraavat nyt tulokset:
1. Jos
σ 2 tunnetaan,niinP
x i onµ
:ntyhjentävätunnusluku (µ
tuntema-
ton);
2. Jos
µ
tunnetaan, niinP
(x i − µ) 2 on σ 2:n tyhjentävä tunnusluku (σ 2
σ 2
tuntematon);
3. Jos
θ = (µ, σ 2 )
on tuntematon, niin( P x i , P
x 2 i )
onθ
:n tyhjentävätunnuslukupari.
11.4.3 Minimaalinen tyhjentävyys
Jos
x 1 , . . . , x nonotosnormaalijakaumastaN(µ, 1)
,silloinesimerkiksi
P x i ja
x
ovatµ
:ntyhjentäviä tunnuslukuja. Myös lukupari( P m
i=1 x i , P n
i=m+1 x i ) ja
järjestystunnuslukujen joukko
(x (1) , . . . , x (n) )
ovatµ
:n suhteen tyhjentäviä.Huomaa, että
x
on muiden tyhjentävien tunnuslukujen funktio. Toisaalta esimerkiksi järjestystunnuslukujen joukko(x (1) , . . . , x (n) )
ei olex
:n funktio.Siksi on hyödyllistä tarkastella ns. minimaalisen tyhjentävyyden käsitettä.
Intuitiivisesti luonnehtien minimaalisestityhjentävä tunnusluku tiivistääin-
formaatiota mahdollisimmanpaljon siten, että mitään oleellista parametria
koskevaa informaatiotaei menetetä.
Määritelmä 11.6 Tyhjentäviätunnusluku
T = t(X 1 , . . . , X n )
onminimaa-lisesti tyhjentävä jos se on tyhjentävä ja jokaista toista tyhjentävää tunnus-
lukua
V
kohti onolemassasellainen funktiog
, ettäT = g(V )
.Tunnusluku on minimaalisesti tyhjentävä, jos havaintoaineistoa ei voi-
da tiivistää enempää. Jos tyhjentävän tunnusluvun dimensio on sama kuin
parametriavaruuden dimensio,niintyhjentävä tunnusluku onminimaalisesti
tyhjentävä.
Esimerkki 11.13 Jatketaan Esimerkkiä 11.11 ja osoitetaan, että
t = P x i
on
θ
:ntyhjentävä tunnusluku, kunotosx 1 , . . . , x n onBernoullinjakaumasta
Ber(θ)
.Olkoons = s(x 1 , . . . , x n )
mikätahansatoinenθ
:ntyhjentävätunnus-luku.Silloin Tekijälauseen (11.2) nojalla
f (x 1 , . . . , x n ; θ) = g(s, θ)h(x 1 , . . . , x n ).
Yhdistämällätämä tulokseen(11.4.1) huomaamme,että
θ t (1 − θ) n − t = g(s, θ)h(x 1 , . . . , x n )
kaikilla
θ
:n arvoilla. Nyt siis millä tahansa annetuillaθ
:n arvoillaθ 1 ja θ 2
kummallakinpuolella muodostetut suhteet ovatyhtäsuuret:
(θ 1 /θ 2 ) t [(1 − θ 1 )/(1 − θ 2 )] n − t = g (s, θ 1 ) g (s, θ 2 ) .
Joserityisesti valitaan
θ 1 = 2/3
jaθ 2 = 1/3
ja otetaanpuolittainlogaritmit, saadaant = 1
2 log 2 log 2 n g(s, 2/3)
g(s, 1/3) .
Tästä nähdään, että
t
ons
:n funktio, jotent
on minimaalisesti tyhjentävä.Esimerkki 11.14 Oletetaan, että
x 1 , . . . , x n on otos normaalijakaumasta
N(µ, 1)
. Silloin tekijälauseen 11.2 nojallax
onµ
:n tyhjentävä tunnusluku.Havaintojen
x 1 , . . . , x n perusteella saadaanuskottavuusfunktio
L(µ; x 1 , . . . , x n ) = 1
√ 2π n
exp
− 1 2
X (x i − µ) 2
.
Tästä saadaan
log L(θ; x 1 , . . . , x n ) = − n
2 log(2π) − 1 2
X (x i − x) 2 − n
2 (x − µ) 2
=
vakio− n
2 (x − µ) 2 ,
jotenuskottavuusfunktio riippuuhavainnoistavainotoskeskiarvon
x
kautta.Oletetaannyt,ettävainotoskeskiarvoolisikirjattu.Koska
X ∼ N(1, 1/n)
,niinhavaintoon
x
perustuva uskottavuusfunktio onL(µ; x) = 1
p 2π/n exp n
− n
2 (x − µ) 2 o ,
taivastaavasti
log L(µ; x) =
vakio− n
2 (x − µ) 2 .
Näin siis koko aineistoon
x 1 , . . . , x n perustuva uskottavuus on sama kuin
otoskeskiarvoon
x
perustuva uskottavuus.Edellisessäesimerkissaesitettyätulostavastaavatuloskoskeekaikkiatyh-
jentäviä tunnuslukuja. Jos
t
on jokin havaintojenx 1 , . . . , x n funktio, niin
havaintoihin
x 1 , . . . , x n perustuva uskottavuus on sama kuin havaintoihin
x 1 , . . . , x n ja t
perustuva uskottavuus. Jost
on tyhjentävä,niin
L(θ; x 1 , . . . , x n ) = L(θ; x 1 , . . . , x n , t) = f (x 1 , . . . , x n , t; θ)
=f (t; θ)f(x 1 , . . . , x n | t)
=
vakio× f (t; θ)
=
vakio× L(θ; t),
(11.4.2)
mikätarkoittaa,että
L(θ; x 1 , . . . , x n )
voidaanlaskeapelkästäänt
:navulla.Esimerkissä11.13näytettiin,mitentodennäköisyysfunktion
f θ (x 1 , . . . , x n )
avulla voidaan osoittaa, että
θ
:n tyhjentävä tunnusluku on minimaalisesti tyhjentävä. Merkitään nyt lyhyesti(x 1 , . . . , x n ) = x
ja(X 1 , . . . , X n ) = X
. Jokaista annettua havaintovektoriax
(otosta) vastaa uskottavuusfunktioL
siten, että
L x (θ) = f ( x ; θ), θ ∈ Θ.
L x on siis kuvaus otosavaruudelta S X (X
:n arvojoukko) uskottavuusfuntio-
den joukkoon
X
:n arvojoukko) uskottavuusfuntio- den joukkoonL = { L x : θ → f( x ; θ), x ∈ S X } .
Tämäontunnusluku, jonkaarvotovatfunktioita. Jos
X = x
niintunnuslu- kuL
saa arvonL x. Jos X
on diskreetti, niinannetulla parametrin θ
arvolla
L x (θ)
on todennäköisyys, että havaitaan x
. Jatkuvassa tapauksessa L x (θ)
on verrannollinen todennäköisyyteen, että havainto sattuu pieneen
x
:n si- sältävään suorakaiteeseen. Kun ajattelemmeθ
:n funktiotaL x (θ)
, se antaakaikkien
θ
:n arvojen uskottavuuden, kunon havaittux
.Esimerkki 11.15 Jatketaan Esimerkkiä 11.12. Meillä on otos
x 1 , . . . , x n
normaalijakaumasta
N (µ, σ 2 )
.Kaksiulotteinen tunnusvektorit = (t 1 , t 2 ) = ( X
x i , X x 2 i )
on parametrivektorin
(µ, σ 2 )
tyhjentävä tunnusvektori. Kun merkitäänθ = (θ 1 , θ 2 ) = (µ, σ 2 )
,saadaanL x (θ) = (2πθ 2 ) − n/2 exp
− nθ 1 2 2θ 2
exp
− 1 2θ 2
(t 2 − 2θ 1 t 1 )
.
Nyt
θ
:nfunktionaL x ( · )
määrittäätunnusvektorin(t 1 , t 2 )
,koska esimerkiksit 2 = 2 log L x (0, 1) − n log 2π
javastaavasti
t 1onmääriteltävissäL x (0, 1)
:njaL x (1, 1)
:navulla.Näinuskot-
tavuusfunktio
L
onyhtäpitävätunnusvektorin(t 1 , t 2 )
kanssa,jotenL
ontyh-jentävä.Päättelemällä samallatavallakuinEsimerkissä11.13 voidaan osoit-
taa, että
(t 1 , t 2 )
jaL
ovatminimaalisesti tyhjentäviä.Uskottavuusfunktioon
L x ( · )
läheisesti liittyväfunktio saadaan määritte-lemällätunnusluku
(11.4.3)
t( x ) = L x ( · ) L x (θ 0 ) ,
missä
θ 0 onsellainenθ
:narvo,että L x (θ 0 ) > 0
. Tekijälauseenavullavoidaan
näyttää, että t( x )
ontyhjentävä, kun lauseessa merkitään
g(t, θ) = L x (θ) L x (θ 0 )
ja
h( x ) = L x (θ 0 )
. Suure (11.4.3) onθ
:n jaθ 0:n uskottavuussuhde. Edellä osoitettiin(identiteetti(11.4.2)), että uskottavuusfunktio voidaan määrittää
pelkästääntunusluvun
t
avulla,jost
ontyhjentävä.Olipat
siismikätahansatyhjentävätunnusluku,
L x ( · )
voidaanlausuat
:nfunktiona.Uskottavuusfunk- tioon siisminimaalisestityhjentävä.Lause 11.3 Jos
t
onθ
:n tyhjentävä tunnusluku, niinθ
:n koko aineistoonx 1 , . . . , x n perustuva uskottavuus on sama kuin pelkästään tunnuslukuun t
perustuva uskottavuus. Siksi uskottavuusfunktio on minimaalisesti tyhjentä-
vä.
Onsyytämuistaa,ettäkaksiuskottavuusfunktiotaovatsamat,josneovat
verrannolliset.Lauseesta11.3seuraa,ettämikätahansauskottavuusfunktion
bijektiivinen kuvaus onminimaalisestityhjentävä.
Esimerkki 11.16 Olkoon
x 1 , . . . , x n otos normaalijakumasta N(µ, 1)
. Sil-
loinuskottavuusfunktio
L(µ; x 1 , . . . , x n ) =
vakio× exp[ − n
2 (x − µ) 2 ]
onotoskeskiarvon
x
bijektiivinenkuvaus.Josmeilläonkaksieriotostax 1 , . . . , x n
ja
y 1 , . . . , y n, niin
L(µ; x 1 , . . . , x n ) =
vakio× L(µ; y 1 , . . . , y n )
jos ja vain josx = y.
Tämä osoitaa, että
x
on minimaalisesti tyhjentävä. Vastaavanlaisella päät- telyllä voidaan osoittaa, että(x, s 2 )
on parametrivektorin(µ, σ 2 )
minimaa-lisesti tyhjentävä tunnuslukupari, kun ostos onnormaalijakumasta
N(µ, σ 2 )
ja
s 2 on otosvarianssi.
Monotoninen uskottavuussuhde
Minimaalinen tyhjentävyys voidaan luonnehtia uskottavuussuhteen
t( x ) = L x ( · ) L x (θ 0 )
avulla. Koska
t( x )
on uskottavuusfunktion bijektiivinen kuvaus, seon mini- maalisesti tyhjentävä. Millä tahansaθ
:n arvojenθ 0 6 = θ 1 sellaisillavalinnoil-
la,että L x (θ 0 ) > 0
,uskottavuussuhde L x (θ 1 )/L x (θ 0 )
ont( x )
:n bijektiivinen
kuvaus. Jos t( x )
on skalaari, ominaisuutta kutsutaam monotoniseksi uskot-
tavuussuhteeksi. Kun θ 1 lähestyy θ 0:aa, niin
θ 0:aa, niin
L x (θ 1 )
L x (θ 0 ) ≈ L x (θ 0 ) + L ′ x (θ 0 )(θ 1 − θ 0 ) L x (θ 0 )
=1 + ∂ log L x (θ 0 )
∂θ 0
(θ 1 − θ 0 ).
Tämäosoittaa,että
t( x )
onminimaalisestityhjentävä,jospistesuure∂ log L x (θ 0 )
∂θ 0
on
t( x )
:n bijektiivinen funktio.11.5 Eksponentiaalinen perhe
Eksponentiaalinenjakaumaperheeseen kuuluvat useimmattavallisimmatja-
kaumat kuten normaali-, binomi- ja gammajakaumat sekä Poissonin jakau-
ma. Eksponentiaalisen perheeseen jakauman tiheysfunktio (tai todennäköi-
syysfunktio) onmuotoa
(11.5.1)
f(x; θ) = exp[t(x)η(θ) − A(θ) + c(x)],
kun
x ∈ S
, missä arvoalueS
ei riipu parametristaθ
. Funktiotη( · ), t( · ), A( · )
ja
c( · )
ovatannettuja. Parametriaη( · )
kutsutaan luonnolliseksiparametriksi ja tunnuslukuat( · )
luonnolliseksitunnusluvuksi.Yleisen
p
-parametriseen eksponentiaaliseen perheeseen kuuluvan jakau- man logaritmoitutiheysfunktio (tai todennäköisyysfunktio) onmuotoa(11.5.2)
log f(x; θ ) =
p
X
i=1
η i ( θ )t i (x) − A( θ ) + c(x),
missä
θ = (θ 1 , . . . , θ p )
jaA( θ ), c(x), η i ( θ )
jaT i (x)
ovat tunnettuja funktioi-ta. Lisäksi muuttujan
x
arvoalue ei riipu tuntemattomasta parametristaθ
. Parametrejaη i kutsutaan luonnollisiksi parametreiksi ja tunnuslukuja T i (x)
luonnollisiksi tunnusluvuiksi. Oletetaan lisäksi, että luonnolliset parametrit
η i eivätolekeskenäänlineaarisestiriippuviaeivätkäluonnollisettunnusluvut
T i (x)
keskenään. Voidaan osoittaa, että luonnolliset tunnusluvutT i (x)
ovatminimaalisestityhjentäviä.
Eksponentiaalinen perhe on täysiasteinen, jos luonnollisten parametrien
avaruussisältääavoimenjoukon.Esimerkiksi
2
-ulotteinenneliö2
-ulotteisessa (2D) Euklidisessa avaruudessa sisältää avoimen joukon, mutta esimerkiksisuora2D-avaruudessaeisisälläavointajoukkoa. Tyypillisestieksponentiaali-
nenperheontäysiasteinen,josluonnollistenparametrienlukumääräonsama
kuin tuntemattomien parametrienlukumäärä.
Josluonnollistenparametrienvälilläonepälineaarisiariippuvuuksia, niin
luonnollistentyhjentävien parametrienlukumäärä onsuurempi kuin vapait-
ten parametrien lukumäärä ja silloin eksponentiaalista perhettä kutsutaan
kaareutuvaksi. Monet teoreetiset tulokset pitävät paikkansa vain täysiastei-
sissamalleissa.Eksponentiaalinenperhesisältääsekäjatkuvienettädiskreet-
tien satunnaismuuttujien jakaumia. Kuten jo edellä mainittiin, normaali-,
binomi-jagammajakaumakuuluvateksponentiaaliseenperheeseen,kuntaas
Cauhyn jakauma ja
t
-jakaumaeivät kuulu.Esimerkki 11.17 Tarkastellaannormaalijakaumaa
N( θ )
,missäθ = (µ, σ 2 )
ja molemmat parametrit ovat tuntemattomia. Silloin jakauman tiheysfunk-
tion logaritmion
log f (x; µ, σ 2 ) = µx σ 2 − x 2
2σ 2 − µ 2 2σ 2 − 1
2 log(2πσ 2 ).
Tämä normaalijakauma on täysiasteinen eksponentiaalisen perheen malli,
luonnolliset parametrit ovat
η 1 = σ µ 2 ja η 2 = − 2σ 1 2 sekä luonnolliset tun-
nusluvut t 1 (x) = x
ja t 2 (x) = x 2.
t 1 (x) = x
jat 2 (x) = x 2.
Oletetaan nyt, että satunnaismuuttujan
X ∼ N( θ )
variaatiokerroin on tunnettu vakioa = σ/µ
, missäµ > 0
. SilloinN(µ, a 2 µ 2 )
kuuluu kaareutu-vaan eksponentiaaliseen perheeseen.Vaikkamallissaonvainyksi tunematon
parametri, luonnolliset tunnusluvut
t 1 (x) = x
jat 2 (x) = x 2 ovat edelleen
minimaalisestityhjentäviä.
Esimerkki 11.18 Poissonin jakauman
Poi(µ)
tapauksessa todennäköisyys- funktion logaritmionlog f(x; µ) = x log µ − µ − log x!.
Siksi
Poi(µ)
on täysiasteinen yhden parametrin eksponentiaalisen perheen malli.Jos
X
noudattaasellaistatypistettyäPoissoninjakaumaa,ettäarvoaX = 0
eihavaita, niinarvojenx = 1, 2, . . .
todennäköisyydet ovatf µ (x) = e − µ µ x /x!
1 − e − µ ,
joten
log f (x; µ) = x log µ − µ − log(1 − e − µ ) − log x!.
Tämä on myös yhden parametrin eksponentiaalisen perheen malli, jolla on
samaluonnollinenparametrijatunnusluku,muttafunktio
A(µ)
onmuuttuu.Jos
X 1 , . . . , X n onotos eksponentiaalisen perheen jakaumasta, niinotok-
sen yhteisjakauma kuuluu eksponentiaaliseen perheeseen. Olkoon x 1 , . . . , x n
otos normaalijakaumasta
N(µ, σ 2 )
, niinyhteisjakaumantiheysfunktion loga- ritmionlog f(x 1 , . . . , x n ; µ, σ 2 ) = µ P
i x i
σ 2 − P
i x 2 i
2σ 2 − nµ 2 2σ 2 − n
2 log(2πσ 2 ).
Tässäjakaumallaonsamatluonnollisetparametrit
η 1 = σ µ 2 jaη 2 = − 2σ 1 2 kuin
normaalijakaumallaEsimerkissä 11.17.Yhteisjakauman luonnolliset tunnus-
luvut ovat
t 1 (x 1 , . . . , x n ) = P
i x i
jat 2 (x 1 , . . . , x n ) = P
i x 2 i
.Tarkastellaannyt lähemmin funktion
A(η)
rooliaeksponentiaalisen per- heen jakauman tiheysfunktion/todennäköisyysfunktion lausekkeessa. Olete-taan, että
X
on satunnaismuuttuja, jonka tiheysfunktio onexp[c(x)]
ja mo-menttifunktio
M (η) = E(e ηX ).
Olkoon
A(η) ≡ log M (η)
, jota kutsutaan kumulantteja generoivaksi funk- tioksi.SilloinZ
e ηx+c(x) d x = e A(η)
tai
Z
e ηx − A(η)+c(x) d x = 1
kaikilla
η
. Näinsiisfunktio(11.5.3)
f (x; η) = e ηx − A(η)+c(x)
määrittelee eksponentiaaliseen perheeseen kuuluvan tiheysfunktion (tai to-
dennäköisyysfunktion).Tätämenetelmääkutsutaansatunnasimuuttujaneks-
ponenttikäännöksi.Alkuperäinensatunnasimuuttuja
X
liittyyarvoonη = 0
.Jokaisellemuotoa (11.5.3)olevallefunktiollepätee, että
µ = E(X; η) = A ′ (η)
ja
Var(X; η) = A ′′ (η) = ∂
∂η E(X; η) = v(µ).
Siksi
A(η)
määrittelee tietyn yhteyden odotusarvon ja varianssinvälille.Eksponentiaalinen hajontamalli
Oletetaan nyt, että parametrien
θ
jaφ
logaritmoitu uskottavuusfunktio on muotoa(11.5.4)
log L(θ, φ) = xθ − A(θ)
φ + c(x, φ),
missä
A(θ)
jac(x, φ)
ovat annettuja funktioita. Tässä esitysmuodossa pa- rametriaθ
kutsutaan kanoniseksi parametriksi jaφ
:tä hajontaparametriksi.Valitsemallafunktiot
A(θ)
jac(x, φ)
eritavoinsaadaan määriteltyäerilaisia todennäköisyysmalleja. JosX
ondiskreetti, niinsillointäytyy ollaX
x
exp
xθ − A(θ)
φ + c(x, φ)
= 1,
mikämäärittelee
A(θ)
:njac(x, φ)
:nvälilletietyn yhteyden.Hajontaparametri salliivarianssin vaihdella vapaasti odotusarvosta riip-
pumatta:
µ = E θ (X) = A ′ (θ)
ja
Var(X; θ) =φ A ′′ (θ)
=φ ∂
∂θ E(X; θ) = φ v(µ).
Tämä on eksponentiaalisen hajontamallin suurin etu jäykempään malliin
(11.5.2)verrattuna.
Käytännössäfunktio
A(θ)
annetaanmallissa(11.5.4)eksplisiittisesti,kun taas funktioc(x, φ)
jätetään tavallisesti tarkemmin määrittelemättä. Tämä ei ole ongelma niin kauan kuin on kyse vainθ
:n estimoinnista, koska pis- tefunktio ei riipuc(x, φ)
:sta. Sen sijaanφ
:n estimoimiseksi tarvitaan koko uskottavuusfunktio.Esimerkki 11.19 Normaalijakauma
N(µ, σ 2 )
logaritmoituuskottavuusfunk- tiovoidaan kirjoittaamuodossalog L(µ, σ 2 ) = xµ − µ 2 /2 σ 2 − 1
2 log σ 2 − x 2 2σ 2 .
Normaalijakauma on siis eksponentiaalisen perheen malli, jonka luonnolli-
nen parametri on
µ
, hajontaparametriφ = σ 2 , A(µ) = µ 2 /2
jac(x, φ) =
− 1 2 log φ − 1 2 x 2 /φ
.Tässä siisc(x, φ)
:nlauseke tunnetaan.Esimerkki 11.20 Poissoninjakauman
Poi(µ)
logaritmoituuskottavuusfunk- tioon muotoalog L(µ) = x log µ − µ − log x!.
Tässä mallissaluonnollinen parametri on
θ = log µ
, hajontaparametriφ = 1
ja
A(θ) = µ = e θ.
Pitämällä
A(θ) = e θ vakiona ja vaihtelemallahajonataparametriaφ
voi-
daanmuodostaaPoissoninmalleja,joissaonjokoyli-taialihajontaa.Samalla
odotusarvolla
E(X) = µ
saadaanVar(X) = φA ′′ (θ) = φµ.
Funktion
c(x, φ)
täytyy toteuttaa identiteetti∞
X
x=0
exp
xθ − e θ
φ + c(x, φ)
= 1,
kaikilla
θ
jaφ
.Esimerkki 11.21 Tarkastettiin
20
uudenautonotoksessa värivikojenluku- määrä käyttäen tiettyäkokeellista menetelmää.Tulokseksi saatiin seuraavatlukumäärät:
0 10 1 1 1 2 1 4 11 0 5 2 5 2 0 2 0 1 3 0
Otoskeskiarvoon
x = 2.55
jaotosvarianssis 2 = 9.85
,mikäosoittaaylihajon-taa. Jos käytetään Poissonin tyyppistä mallia,jossa
A(θ) = e θ, niin
Var θ (X) = φ E θ (X).
Momenttimenetelmällä hajontaparametrin
φ
estimaattionφ ˆ = 9.84/2.55 =
3.86
. Aivan ilmeisestihajontaparametrinarvoon suurempi kuin1
.Minimaalinen tyhjentävyys ja eksponentiaalinen perhe
Minimaalisentyhjentävyyden ja eksponentiaalisen perheen välilläon tärkeä
teoreettinen yhteys. Lievien oletusten vallitessa tyhjentävä (minimaalisesti
tyhjentävä) tunnusluku (tunnusvektori) on olemassa jos ja vain jos
f θ (x)
kuuluu täysiasteiseen eksponentiaaliseen perheeseen. Eksponentiaalisen per-
heen rakenteesta taas seuraa, että uskottavuusfunktiolla on yksikäsitteinen
maksimi ja SUE on tyhjentävä. Jos siis tyhjentävä estimaatti (tunnusluku)
onolemassa, niinseon SUE.