Heteroskedasticitet

Heteroskedasticitet är ett  begrepp som används i tillämpad statistik (oftast inom ekonometri ), vilket betyder heterogeniteten av observationer, uttryckt i en icke-identisk (icke-konstant) varians av det slumpmässiga felet i en regressionsmodell (ekonometrisk). Heteroskedasticitet är motsatsen till homoskedasticitet , vilket betyder homogeniteten i observationer, det vill säga variansens konstanta varians av modellens slumpmässiga fel.

Förekomsten av heteroskedasticitet av slumpmässiga fel leder till ineffektiviteten hos uppskattningar som erhålls med minsta kvadratmetoden . Dessutom, i det här fallet, visar sig den klassiska uppskattningen av kovariansmatrisen för minsta kvadraters parameteruppskattningar vara partisk och ohållbar . Därför kan statistiska slutsatser om kvaliteten på de erhållna uppskattningarna vara otillräckliga. I detta avseende är testning av modeller för heteroskedasticitet en av de nödvändiga procedurerna för att bygga regressionsmodeller.

Testa för heteroskedasticitet

Som en första approximation kan närvaron av heteroskedasticitet ses på graferna för regressionsresterna (eller deras kvadrater) för vissa variabler, för den uppskattade beroende variabeln eller för observationstalet. I dessa grafer kan spridningen av punkter ändras beroende på värdet på dessa variabler.

För en mer rigorös verifiering används till exempel de statistiska testerna White , Goldfeld-Kuandt , Broish- Pagan , Park , Glaser , Spearman .

Modellutvärdering under heteroskedasticitet

Eftersom minsta kvadraters uppskattningar av modellparametrarna förblir opartiska konsistenta även med heteroskedasticitet, är det med ett tillräckligt antal observationer möjligt att använda de vanliga minsta kvadraterna. Men för mer exakta och korrekta statistiska slutsatser är det nödvändigt att använda standardfel i Whites form .

Sätt att minska heteroskedasticitet

  1. Användning av viktade minsta kvadrater (WLS) . I denna metod viktas varje observation omvänt med den uppskattade standardavvikelsen för det slumpmässiga felet i den observationen. Detta tillvägagångssätt gör det möjligt att göra modellens slumpmässiga fel homoskedastiska. I synnerhet, om standardavvikelsen för fel antas vara proportionell mot någon variabel , divideras data med den variabeln, inklusive en konstant.
  2. Ersätter originaldata med dess derivator, såsom en logaritm, relativ förändring eller annan icke-linjär funktion. Detta tillvägagångssätt används ofta när felvariansen ökar med värdet av den oberoende variabeln och leder till stabilisering av variansen över ett bredare intervall av indata.
  3. Att bestämma "kompetensområden" för modeller inom vilka felvariansen är relativt stabil och använda en kombination av modeller. Således fungerar varje modell endast inom området för dess kompetens, och felvariansen överstiger inte det angivna gränsvärdet. Detta tillvägagångssätt är vanligt inom området mönsterigenkänning, där komplexa icke-linjära modeller och heuristik ofta används.

Exempel

Låt oss till exempel överväga vinstens beroende av storleken på tillgångarna:

.

Men sannolikt beror inte bara vinsten på tillgångar, utan också "fluktuationen" i vinsten är inte densamma för en eller annan mängd tillgångar. Det vill säga att standardavvikelsen för modellens slumpmässiga fel troligen bör antas vara proportionell mot värdet på tillgångar:

.

I det här fallet är det mer rimligt att inte överväga originalmodellen, utan följande:

,

antar att slumpmässiga fel är homoskedastiska i denna modell. Du kan använda den här transformerade modellen direkt, eller så kan du använda de erhållna parameteruppskattningarna som parameteruppskattningar av den ursprungliga modellen (viktade minsta kvadrater). Teoretiskt sett borde uppskattningarna som erhålls på detta sätt vara bättre.

Se även

Litteratur