Investor's wiki

Multikollinearitet

Multikollinearitet

Vad Àr multikollinearitet?

Multikollinearitet Àr förekomsten av höga interkorrelationer mellan tvÄ eller flera oberoende variabler i en multipel regressionsmodell. Multikollinearitet kan leda till skeva eller missvisande resultat nÀr en forskare eller analytiker försöker avgöra hur vÀl varje oberoende variabel kan anvÀndas mest effektivt för att förutsÀga eller förstÄ den beroende variabeln i en statistisk modell.

Generellt sett kan multikollinearitet leda till bredare konfidensintervall som ger mindre tillförlitliga sannolikheter nÀr det gÀller effekten av oberoende variabler i en modell.

FörstÄ multikollinearitet

Statistiska analytiker anvÀnder flera regressionsmodeller för att förutsÀga vÀrdet av en specificerad beroende variabel baserat pÄ vÀrdena för tvÄ eller flera oberoende variabler. Den beroende variabeln kallas ibland för utfalls-, mÄl- eller kriteriumvariabeln.

Ett exempel Àr en multivariat regressionsmodell som försöker förutse aktieavkastning baserat pÄ poster som pris-till-vinst-kvoter (P/E-tal), börsvÀrde, tidigare resultat eller andra data. Aktieavkastningen Àr den beroende variabeln och de olika bitarna av finansiell data Àr de oberoende variablerna.

Multikollinearitet i en multipel regressionsmodell indikerar att kolinjÀra oberoende variabler Àr relaterade pÄ nÄgot sÀtt, Àven om förhÄllandet kan vara tillfÀlligt eller inte. Till exempel kan tidigare resultat vara relaterade till börsvÀrde,. eftersom aktier som har presterat bra tidigare kommer att ha stigande marknadsvÀrden.

Med andra ord kan multikollinearitet existera nÀr tvÄ oberoende variabler Àr starkt korrelerade. Det kan ocksÄ hÀnda om en oberoende variabel berÀknas frÄn andra variabler i datamÀngden eller om tvÄ oberoende variabler ger liknande och repetitiva resultat.

SÀrskilda övervÀganden

Ett av de vanligaste sÀtten att eliminera problemet med multikollinearitet Àr att först identifiera kolinjÀra oberoende variabler och sedan ta bort alla utom en.

Det Àr ocksÄ möjligt att eliminera multikollinearitet genom att kombinera tvÄ eller flera kolinjÀra variabler till en enda variabel. Statistisk analys kan sedan utföras för att studera sambandet mellan den angivna beroende variabeln och endast en enda oberoende variabel.

De statistiska slutsatserna frÄn en modell som innehÄller multikollinearitet kanske inte Àr tillförlitliga.

Exempel pÄ multikollinearitet

Att investera

För investeringar Àr multikollinearitet ett vanligt övervÀgande nÀr man utför teknisk analys för att förutsÀga sannolika framtida prisrörelser för ett vÀrdepapper, sÄsom en aktie eller en rÄvarutermin.

Marknadsanalytiker vill undvika att anvÀnda tekniska indikatorer som Àr kolinjÀra genom att de Àr baserade pÄ mycket liknande eller relaterade indata; de tenderar att avslöja liknande förutsÀgelser om den beroende variabeln för prisrörelser. IstÀllet mÄste marknadsanalysen baseras pÄ markant olika oberoende variabler för att sÀkerstÀlla att de analyserar marknaden ur olika oberoende analytiska synvinklar.

Ett exempel pÄ ett potentiellt multikollinearitetsproblem Àr att utföra teknisk analys med endast flera liknande indikatorer.

Den noterade tekniska analytikern John Bollinger, skaparen av Bollinger Bands- indikatorn, noterar att "en kardinalregel för framgÄngsrik anvÀndning av teknisk analys krÀver att man undviker multikollinearitet bland indikatorer." För att lösa problemet undviker analytiker att anvÀnda tvÄ eller flera tekniska indikatorer av samma typ. IstÀllet analyserar de ett vÀrdepapper med en typ av indikator, till exempel en momentumindikator, och gör sedan en separat analys med en annan typ av indikator, till exempel en trendindikator.

Till exempel Àr stokastik,. det relativa hÄllfasthetsindexet (RSI) och Williams %R alla momentumindikatorer som förlitar sig pÄ liknande indata och som sannolikt ger liknande resultat. I det hÀr fallet Àr det bÀttre att ta bort alla utom en av indikatorerna eller hitta ett sÀtt att slÄ samman flera av dem till bara en indikator, samtidigt som du lÀgger till en trendindikator som sannolikt inte Àr starkt korrelerad med momentumindikatorn.

I biologi

Multikollinearitet observeras ocksÄ i mÄnga andra sammanhang. Ett sÄdant sammanhang Àr mÀnsklig biologi. Till exempel Àr en individs blodtryck inte kolinjÀrt med Äldern, utan ocksÄ vikt, stress och puls.

Höjdpunkter

– Multikollinearitet Ă€r ett statistiskt begrepp dĂ€r flera oberoende variabler i en modell Ă€r korrelerade.

  • Multikollinearitet mellan oberoende variabler kommer att resultera i mindre tillförlitliga statistiska slutsatser.

– Det Ă€r bĂ€ttre att anvĂ€nda oberoende variabler som inte Ă€r korrelerade eller repetitiva nĂ€r man bygger multipla regressionsmodeller som anvĂ€nder tvĂ„ eller flera variabler.

  • TvĂ„ variabler anses vara helt kollinjĂ€ra om deras korrelationskoefficient Ă€r +/- 1,0.

– Förekomsten av multikollinearitet i en datamĂ€ngd kan leda till mindre tillförlitliga resultat pĂ„ grund av större standardfel.

Vanliga frÄgor

Varför Àr multikollinearitet ett problem?

Multikollinearitet Àr ett problem eftersom det ger regressionsmodellresultat som Àr mindre tillförlitliga. Detta beror pÄ bredare konfidensintervall (större standardfel ) som kan sÀnka den statistiska signifikansen av regressionskoefficienter.

Hur kan man hantera multikollinearitet?

För att minska mÀngden multikollinearitet som finns i en modell kan man ta bort de specifika variablerna som identifieras som de mest kollineÀra. Du kan ocksÄ försöka kombinera eller transformera de störande variablerna för att minska deras korrelation. Om det inte fungerar eller Àr ouppnÄeligt, finns det modifierade regressionsmodeller som bÀttre hanterar multikollinearitet, sÄsom Äsregression, huvudkomponentregression eller partiell minsta kvadraters regression.

Hur upptÀcker du multikollinearitet?

En statistisk teknik som kallas variansinflationsfaktorn (VIF) anvÀnds för att detektera och mÀta mÀngden kollinearitet i en multipel regressionsmodell.

Vad Àr perfekt kolinearitet?

Perfekt kolinearitet existerar nÀr det finns en exakt 1:1 överensstÀmmelse mellan tvÄ oberoende variabler i en modell. Detta kan antingen vara en korrelation pÄ +1,0 eller -1,0.