Estimaattorien ominaisuudet

Sisällysluettelo:

Anonim

Estimaattorien ominaisuudet ovat ominaisuuksia, joita näillä voi olla ja jotka auttavat valitsemaan ne, jotka kykenevät paremmin tuottamaan hyviä tuloksia.

Aluksi määrittelemällä estimaattorin käsite sanotaan, että mikä tahansa satunnainen otos (x1, x2, x3,…, Xn) estimaattori edustaa populaatiota, joka riippuu parametrista, jota emme tiedä.

Tämä parametri, jota merkitsemme kreikkalaisella kirjaimella fi (φ), voi olla esimerkiksi minkä tahansa satunnaismuuttujan keskiarvo.

Matemaattisesti yhden parametrin Q-estimaattori riippuu otoksen satunnaishavainnoista (x1, x2, x3,…, Xn) ja näytteen tunnettu funktio (h). Estimaattori (Q) on satunnaismuuttuja, koska se riippuu satunnaismuuttujia sisältävästä otoksesta.

Q = h (x1, x2, x3,…, Xn)

Estimaattorin puolueettomuus

Q-estimaattori φ on puolueeton estimaattori, jos E (Q) = φ kaikille mahdollisille values ​​-arvoille. Määritämme E (Q) estimaattorin Q odotetuksi arvoksi tai odotukseksi.

Puolueellisten estimaattoreiden tapauksessa tämä puolueellisuus edustettaisiin seuraavasti:

Bias (Q) = E (Q) - φ

Voimme nähdä, että esijännitys on estimaattorin odotetun arvon E (Q) ja populaatioparametrin true todellisen arvon välinen ero.

Pistearvio

Estimaattorin tehokkuus

Kyllä Q1 ja Q2 ovat kaksi puolueetonta estimaattoria φ: lle, heidän suhde Q: han on tehokas2 kun Var (Q1) ≤ Var (Q2) millä tahansa arvon value arvolla, kunhan tilastollinen otos of on ehdottomasti suurempi kuin 1, n> 1. Missä Var on varianssi ja n on otoksen koko.

Intuitiivisesti sanottu olettaen, että meillä on kaksi estimaattoria, joilla on puolueeton ominaisuus, voimme sanoa, että yksi (Q1) on tehokkaampi kuin toinen (Q2), jos yhden (Q1) on pienempi kuin toisen (Q2). On loogista ajatella, että yksi asia, joka vaihtelee enemmän kuin toinen, on vähemmän "tarkka".

Siksi voimme käyttää tätä kriteeriä estimaattoreiden valitsemiseen vain silloin, kun ne ovat puolueettomia. Edellisessä lausunnossa, kun määritämme tehokkuutta, oletamme jo, että estimaattoreiden on oltava puolueettomia.

Estimaattoreiden, jotka eivät ole välttämättä puolueettomia, toisin sanoen esijännitteitä voi olla, vertaamiseksi on suositeltavaa laskea estimaattoreiden keskimääräinen neliövirhe (MSE).

Jos Q on ator: n estimaattori, Q: n ECM määritellään seuraavasti:

Keskimääräinen neliövirhe (MSE) laskee keskimääräisen etäisyyden, joka on otosestimaattorin Q odotetun arvon ja populaatioestimaattorin välillä. ECM: n neliöllinen muoto johtuu siitä, että virheet voivat oletusarvoisesti olla negatiivisia tai ylimääräisiä, positiivisia odotettuun arvoon nähden. Tällä tavalla ECM laskee aina positiiviset arvot.

ECM riippuu varianssista ja biasista (jos sellaisia ​​on), joiden avulla voimme verrata kahta estimaattoria, kun toinen tai molemmat ovat puolueellisia. Sen, jonka NDE on suurempi, ymmärretään olevan vähemmän tarkka (siinä on enemmän virheitä) ja siten vähemmän tehokas.

Estimaattorin johdonmukaisuus

Johdonmukaisuus on asymptoottinen ominaisuus. Tämä ominaisuus muistuttaa tehokkuusominaisuutta sillä erotuksella, että johdonmukaisuus mittaa todennäköistä etäisyyttä estimaattorin arvon ja populaatioparametrin todellisen arvon välillä otoksen koon kasvaessa loputtomiin. Tämä näytteen koon määrittelemätön kasvu on asymptoottisen ominaisuuden perusta.

Asymptoottisen analyysin suorittamiseksi on vähintään otosulottuvuus (tarkista estimaattorin johdonmukaisuus otoksen kasvaessa). Suuret näytearvioinnit toimivat hyvin noin 20 havainnon näytteillä (n = 20). Toisin sanoen haluamme nähdä, kuinka estimaattori käyttäytyy, kun kasvatamme otosta, mutta tämä kasvu pyrkii loputtomuuteen. Tämän vuoksi teemme likiarvon ja näytteen 20 havainnosta (n ≥ 20) asymptoottinen analyysi on sopiva.

Matemaattisesti määritellään Q1n estimaattorina φ mistä tahansa satunnaisesta otoksesta (x1, x2, x3,…, Xn) kokoa (n). Joten voimme sanoa, että Qn on johdonmukainen estimaatti φ: lle:

Tämä kertoo meille, että erot estimaattorin ja sen populaatioarvon välillä | Qn - φ |, niiden on oltava suurempia kuin nolla. Tätä varten ilmaisemme sen absoluuttisena arvona. Tämän eron todennäköisyys on yleensä 0 (pienenee ja pienenee), kun otoksen koko (n) on taipumus äärettömään (isompi ja isompi).

Toisin sanoen on vähemmän ja vähemmän todennäköistä, että Qn liikkuu liian kauas φ: sta otoksen koon kasvaessa.