Exempel på uppskattning av maximal sannolikhet

Anta att vi har en slumpmässigt urval från en befolkning av intresse. Vi kan ha en teoretisk modell för hur befolkning distribueras. Det kan dock finnas flera invånare parametrar av vilka vi inte känner till värdena. Maximal sannolikhetsberäkning är ett sätt att bestämma dessa okända parametrar.

Grundtanken bakom uppskattningen av maximal sannolikhet är att vi bestämmer värdena på dessa okända parametrar. Vi gör detta på ett sådant sätt för att maximera en tillhörande fogens sannolikhetsdensitetsfunktion eller sannolikhet massfunktion. Vi kommer att se detta mer detaljerat i det följande. Då beräknar vi några exempel på uppskattning av maximal sannolikhet.

Steg för maximal uppskattning av sannolikhet

Ovanstående diskussion kan sammanfattas med följande steg:

  1. Börja med ett urval av oberoende slumpmässiga variabler X1, X2,... Xn från en gemensam distribution var och en med sannolikhetsdensitetsfunktion f (x; θ1,.. .θk). Tetorna är okända parametrar.
  2. Eftersom vårt prov är oberoende, hittas sannolikheten för att få det specifika provet som vi observerar genom att multiplicera våra sannolikheter tillsammans. Detta ger oss en sannolikhetsfunktion L (θ
    instagram viewer
    1,.. .θk) = f (x11,.. .θk) f (x21,.. .θk)... f (xn1,.. .θk) = Π f (xjag1,.. .θk).
  3. Därefter använder vi Calculus att hitta värdena på theta som maximerar vår sannolikhetsfunktion L
  4. Mer specifikt differentierar vi sannolikhetsfunktionen L med avseende på θ om det finns en enda parameter. Om det finns flera parametrar beräknar vi partiella derivat av L med avseende på var och en av teta-parametrarna.
  5. För att fortsätta maximeringsprocessen ställer du in derivatet av L (eller partiella derivat) lika med noll och löser för theta.
  6. Vi kan sedan använda andra tekniker (som ett andra derivattest) för att verifiera att vi har hittat ett maximum för vår sannolikhetsfunktion.

Exempel

Anta att vi har ett paket med frön, som var och en har en konstant sannolikhet p av framgång med groning. Vi planterar n av dessa och räkna antalet dem som spira. Antag att varje frö groddar oberoende av de andra. Hur bestämmer vi den största sannolikhetsberäknaren för parametern p?

Vi börjar med att notera att varje utsäde modelleras av en Bernoulli-distribution med en framgång av s. Vi låter X vara antingen 0 eller 1, och sannolikhetsmassfunktionen för ett enda frö är f(x; p ) = px(1 - p)1 - x.

Vårt prov består av n annorlunda Xjag, var och en med har en Bernoulli-distribution. Frön som groddar har Xjag = 1 och frön som inte groddar har Xjag = 0.

Sannolikhetsfunktionen ges av:

L ( p ) = Π pxjag(1 - p)1 - xjag

Vi ser att det är möjligt att skriva om sannolikhetsfunktionen genom att använda exponentlagarna.

L ( p ) = pΣ xjag(1 - p)n - Σ xjag

Därefter differentierar vi denna funktion med avseende på p. Vi antar att värdena för alla Xjag är kända, och följaktligen är konstanta. För att differentiera sannolikhetsfunktionen måste vi använda produktregel tillsammans med maktregeln:

L '( p ) = Σ xjagp-1 + Σ xjag (1 - p)n - Σ xjag- (n - Σ xjag ) pΣ xjag(1 - p)n-1 - Σ xjag

Vi skriver om några av de negativa exponenterna och har:

L '( p ) = (1/p) Σ xjagpΣ xjag (1 - p)n - Σ xjag- 1/(1 - p) (n - Σ xjag ) pΣ xjag(1 - p)n - Σ xjag

= [(1/p) Σ xjag - 1/(1 - p) (n - Σ xjag)]jagpΣ xjag (1 - p)n - Σ xjag

För att fortsätta processen för maximering sätter vi detta derivat lika med noll och löser för p:

0 = [(1/p) Σ xjag - 1/(1 - p) (n - Σ xjag)]jagpΣ xjag (1 - p)n - Σ xjag

Eftersom p och (1- p) är noll vi har det

0 = (1/p) Σ xjag - 1/(1 - p) (n - Σ xjag).

Multiplicera båda sidorna av ekvationen med p(1- p) ger oss:

0 = (1 - p) Σ xjag - p (n - Σ xjag).

Vi utökar höger sida och ser:

0 = Σ xjag - p Σ xjag - pn + pΣ xjag = Σ xjag - pn.

Således Σ xjag = pn och (1 / n) Σ xjag = p. Detta innebär att den största sannolikhetsberäknaren för p är ett medelvärde. Mer specifikt är detta provandelen av frön som grodde. Detta är perfekt i linje med vad intuition skulle berätta för oss. För att bestämma andelen frön som kommer att gro, bör du först ta ett prov från den intressanta befolkningen.

Ändringar av stegen

Det finns några ändringar av ovanstående lista med steg. Som vi har sett ovan är det till exempel värdefullt att spendera lite tid med att använda viss algebra för att förenkla uttrycket för sannolikhetsfunktionen. Anledningen till detta är att göra differentieringen enklare att genomföra.

En annan ändring av ovanstående lista med steg är att ta hänsyn till naturliga logaritmer. Maximumet för funktionen L kommer att inträffa vid samma punkt som för den naturliga logaritmen för L. Således är maximering av Ln ekvivalent med att maximera funktionen L.

Många gånger, på grund av förekomsten av exponentiella funktioner i L, kommer att ta den naturliga logaritmen av L mycket att förenkla en del av vårt arbete.

Exempel

Vi ser hur man använder den naturliga logaritmen genom att gå igenom exemplet ovan. Vi börjar med sannolikhetsfunktionen:

L ( p ) = pΣ xjag(1 - p)n - Σ xjag .

Vi använder sedan våra logaritlagar och ser att:

R ( p ) = ln L ( p ) = Σ xjag ln p + (n - Σ xjag) ln (1 - p).

Vi ser redan att derivatet är mycket lättare att beräkna:

R '( p ) = (1/p) Σ xjag - 1/(1 - p)(n - Σ xjag) .

Nu som tidigare sätter vi detta derivat lika med noll och multiplicerar båda sidor med p (1 - p):

0 = (1- p ) Σ xjag - p(n - Σ xjag) .

Vi löser för p och hitta samma resultat som tidigare.

Användningen av den naturliga logaritmen för L (p) är till hjälp på ett annat sätt. Det är mycket lättare att beräkna ett andra derivat av R (p) för att verifiera att vi verkligen har ett maximum vid punkten (1 / n) Σ xjag = p.

Exempel

För ett annat exempel, anta att vi har ett slumpmässigt prov X1, X2,... Xn från en befolkning som vi modellerar med en exponentiell distribution. Sannolikhetsdensitetsfunktionen för en slumpmässig variabel är av formen f( x ) = θ-1e -x

Sannolikhetsfunktionen anges av ledens sannolikhetsdensitetsfunktion. Detta är en produkt av flera av dessa täthetsfunktioner:

L (θ) = Π θ-1e -xjag= θ-ne xjag

Återigen är det bra att ta hänsyn till den naturliga logaritmen för sannolikhetsfunktionen. Att differentiera detta kommer att kräva mindre arbete än att differentiera sannolikhetsfunktionen:

R (θ) = ln L (θ) = ln [θ-ne xjag]

Vi använder våra lagar om logaritmer och får:

R (θ) = ln L (θ) = - n ln θ + -Σxjag

Vi differentierar med avseende på θ och har:

R '(θ) = - n / θ + Σxjag2

Ställ in detta derivat lika med noll och vi ser att:

0 = - n / θ + Σxjag2.

Multiplicera båda sidor med θ2 och resultatet är:

0 = - n θ + Σxjag.

Använd nu algebra för att lösa för θ:

θ = (1 / n) Σxjag.

Vi ser av detta att provmedlet är det som maximerar sannolikhetsfunktionen. Parametern θ som passar vår modell bör helt enkelt vara medelvärdet för alla våra observationer.

anslutningar

Det finns andra typer av uppskattningar. En alternativ uppskattningstyp kallas en opartisk uppskattare. För denna typ måste vi beräkna det förväntade värdet på vår statistik och avgöra om den matchar en motsvarande parameter.

instagram story viewer