Multikollinearitet ( multikollinearitet ) - i ekonometri ( regressionsanalys ) - förekomsten av ett linjärt samband mellan regressionsmodellens förklaringsvariabler (faktorer) . Samtidigt urskiljs full kollinearitet , vilket innebär närvaron av ett funktionellt (identiskt) linjärt beroende och partiell eller helt enkelt multikollinearitet - närvaron av en stark korrelation mellan faktorer.
Full kollinearitet leder till parameterosäkerhet i en linjär regressionsmodell, oavsett skattningsmetoder. Låt oss överväga detta med exemplet på följande linjära modell
Låt faktorerna i denna modell vara identiskt relaterade enligt följande: . Betrakta sedan den ursprungliga linjära modellen, där vi adderar ett godtyckligt tal a till den första koefficienten och subtraherar samma tal från de andra två koefficienterna. Då har vi (utan ett slumpmässigt fel):
Trots den relativt godtyckliga förändringen i modellens koefficienter fick vi alltså samma modell. En sådan modell är i grunden oidentifierbar. Osäkerhet finns redan i själva modellen. Om vi betraktar det 3-dimensionella utrymmet av koefficienter, är vektorn av sanna koefficienter i detta utrymme i detta fall inte den enda, utan är en hel rak linje! Vilken punkt som helst på denna linje är en sann vektor av koefficienter.
I detta avseende löses problemet med fullständig kolinearitet av faktorer redan vid valet av variabler i modellering och har därför ingenting att göra med problemet med kvaliteten på ekonometriska uppskattningar av parametrar. I praktiken uppstår ofta en annan situation - en stark korrelation mellan faktorer.
Om fullständig kollinearitet leder till osäkerhet i parametrarnas värden, leder partiell multikollinearitet till instabilitet i deras uppskattningar . Instabilitet uttrycks i en ökning av statistisk osäkerhet - variansen av uppskattningar. Detta innebär att specifika utvärderingsresultat kan variera mycket från prov till prov även om proverna är homogena.
Som bekant är kovariansmatrisen för uppskattningar av parametrarna för multipel regression med minsta kvadratmetoden lika med . Således, ju "mindre" kovariansmatrisen (dess determinant ), desto "större" kovariansmatrisen för parameteruppskattningar, och i synnerhet desto större diagonala element i denna matris, det vill säga variansen för parameteruppskattningar. För större tydlighet, överväg detta med exemplet på en tvåfaktorsmodell:
Då är variansen för parameteruppskattningen, till exempel, med den första faktorn:
var är provkorrelationskoefficienten mellan faktorerna.
Det framgår tydligt här att ju större det absoluta värdet av korrelationen mellan faktorerna är, desto större är spridningen av parameteruppskattningar. Vid (total kollinearitet) tenderar spridningen till oändligheten, vilket motsvarar vad som sagts tidigare.
Uppskattningarna av parametrarna är således felaktiga, vilket gör att det blir svårt att tolka inverkan av vissa faktorer på den variabel som förklaras. Samtidigt påverkar multikollinearitet inte kvaliteten på modellen som helhet - den kan erkännas som statistiskt signifikant , även när alla koefficienter är obetydliga (detta är ett av tecknen på multikollinearitet).
Indirekta tecken på multikollinearitet är fel av hög standard för skattningar av modellparametrar, liten t-statistik (d.v.s. insignifikans av koefficienter), felaktiga tecken på uppskattningar, trots att modellen som helhet anses vara statistiskt signifikant (stort värde på F -statistik). Multikollinearitet kan också indikeras av en kraftig förändring i parameteruppskattningar från tillägg (eller borttagande) av provdata (om kraven på tillräcklig provhomogenitet är uppfyllda).
För att upptäcka multikollinearitet av faktorer kan man direkt analysera korrelationsmatrisen av faktorer. Redan närvaron av stora modulo (över 0,7-0,8) värden för parets korrelationskoefficienter indikerar möjliga problem med kvaliteten på de erhållna uppskattningarna.
Analysen av parvisa korrelationskoefficienter är emellertid otillräcklig. Det är nödvändigt att analysera koefficienterna för bestämning av regressioner av faktorer på andra faktorer ( ). Det rekommenderas att beräkna indikatorn . För höga värden av det senare betyder närvaron av multikollinearitet.
Tillämpningen av principalkomponentmetoden på modellens faktorer gör det möjligt att transformera de initiala faktorerna och erhålla en uppsättning ortogonala (okorrelerade) faktorer. Samtidigt kommer närvaron av multikollinearitet att tillåta oss att begränsa oss till ett litet antal huvudkomponenter. Det kan dock finnas ett problem med meningsfull tolkning av huvudkomponenterna.
Åsregression eller åsregression innebär att uppskatta parametrar med hjälp av följande formel:
Att lägga till en parameter löser problemet med matrisens dåliga konditionering . Dessa uppskattningar är partiska , i motsats till OLS-uppskattningarna. Emellertid har det bevisats att det finns en sådan estimator för vilken dessa estimatorer är mer effektiva än LSM-estimatorerna (LSM-estimatorerna är effektiva (har den minsta variansen) bland linjära opartiska skattare). Det finns dock inga tydliga regler för att välja denna parameter.