Suurimman todennäköisyyden estimaatti

Sisällysluettelo:

Suurimman todennäköisyyden estimaatti
Suurimman todennäköisyyden estimaatti
Anonim

Suurimman todennäköisyyden estimaatti (VL) on yleinen malli todennäköisyyden jakauman parametrien arvioimiseksi, joka riippuu otoksen havainnoista.

Toisin sanoen, EMV maksimoi tiheysfunktioiden parametrien todennäköisyyden, jotka riippuvat todennäköisyysjakaumasta ja havainnoista näytteessä.

Kun puhumme suurimman todennäköisyyden arvioinnista, meidän on puhuttava toiminto suurin todennäköisyys. Matemaattisesti annettu näyte x = (x1,…, Xn) ja parametrit, θ = (θ1,…, Θn),

Älä hätäänny! Tämä symboli tarkoittaa samaa kuin summien summa. Tässä tapauksessa kaikkien tiheysfunktioiden kertolasku riippuu näytteen havainnoista (xi) ja parametrit θ.

Mitä suurempi on L (θ | x) -arvo eli suurin todennäköisyysfunktion arvo, sitä todennäköisemmin näytepohjaiset parametrit ovat.

EMV: n logaritmitoiminto

Suurimman todennäköisyysarvion löytämiseksi meidän on erotettava (johdettava) tiheysfunktioiden tuotteet, eikä tämä ole mukavin tapa tehdä se.

Kun kohtaamme monimutkaisia ​​toimintoja, voimme tehdä yksitoikkoisen muutoksen. Toisin sanoen se olisi kuin haluaisi piirtää Eurooppaa todellisessa mittakaavassa. Meidän pitäisi skaalata se alas, jotta se mahtuisi paperiarkille.

Tässä tapauksessa teemme monotonisen muunnoksen käyttämällä luonnollisia logaritmeja, koska ne ovat monotonisia ja kasvavia toimintoja. Matemaattisesti,

Logaritmien ominaisuuksien avulla voimme ilmaista yllä olevan kertolaskun tiheysfunktioihin sovellettujen luonnollisten logaritmien summana.

Joten logaritmien monotoninen muunnos on yksinkertaisesti "mittakaavan muutos" pienempiin lukuihin.

Niiden parametrien arvioitu arvo, jotka maksimoivat suurimman todennäköisyyden funktion parametrien todennäköisyyden logaritmeilla, vastaa niiden parametrien arvioitua arvoa, jotka maksimoivat alkuperäisen suurimman todennäköisyyden funktion parametrien todennäköisyyden.

Joten aiomme aina käsitellä suurimman todennäköisyyden funktion yksitoikkoista muokkausta, kun otetaan huomioon sen helpompi laskeminen.

Uteliaisuus

Niin monimutkaiselta kuin oudolta kuin EMV saattaa tuntua, sovellamme sitä jatkuvasti huomaamatta.

Kun?

Kaikissa lineaarisen regressioparametrien estimaateissa klassisissa oletuksissa. Yleisemmin tunnettu nimellä Tavalliset pienimmät neliöt (OLS).

Toisin sanoen, kun sovellamme OLS: ää, me sovellamme EMV: tä implisiittisesti, koska molemmat ovat yhdenmukaisia ​​toisistaan.

Sovellus

Kuten muutkin menetelmät, EMV perustuu iterointiin. Toisin sanoen tietyn toiminnon toistaminen niin monta kertaa kuin tarvitaan toiminnon maksimi- tai minimiarvon löytämiseksi. Tähän prosessiin voidaan asettaa rajoituksia parametrien lopullisille arvoille. Esimerkiksi, että tulos on suurempi tai yhtä suuri kuin nolla tai että kahden parametrin summan on oltava pienempi kuin yksi.

Symmetrinen GARCH-malli ja sen eri laajennukset käyttävät EMV: tä löytääksesi parametrien arvioidun arvon, joka maksimoi tiheysfunktioiden parametrien todennäköisyyden.