Investor's wiki

Multikollinearität

Multikollinearität

Was ist MultikollinearitÀt?

MultikollinearitĂ€t ist das Auftreten hoher Interkorrelationen zwischen zwei oder mehr unabhĂ€ngigen Variablen in einem multiplen Regressionsmodell. MultikollinearitĂ€t kann zu verzerrten oder irrefĂŒhrenden Ergebnissen fĂŒhren, wenn ein Forscher oder Analyst zu bestimmen versucht, wie gut jede unabhĂ€ngige Variable am effektivsten verwendet werden kann, um die abhĂ€ngige Variable in einem statistischen Modell vorherzusagen oder zu verstehen.

Im Allgemeinen kann MultikollinearitĂ€t zu breiteren Konfidenzintervallen fĂŒhren,. die weniger zuverlĂ€ssige Wahrscheinlichkeiten in Bezug auf die Wirkung unabhĂ€ngiger Variablen in einem Modell erzeugen.

MultikollinearitÀt verstehen

Statistische Analysten verwenden mehrere Regressionsmodelle,. um den Wert einer bestimmten abhÀngigen Variablen basierend auf den Werten von zwei oder mehr unabhÀngigen Variablen vorherzusagen. Die abhÀngige Variable wird manchmal als Ergebnis-, Ziel- oder Kriteriumsvariable bezeichnet.

Ein Beispiel ist ein multivariates Regressionsmodell, das versucht, Aktienrenditen auf der Grundlage von Elementen wie Kurs-Gewinn-VerhĂ€ltnissen (KGV), Marktkapitalisierung, frĂŒherer Wertentwicklung oder anderen Daten zu antizipieren. Die Aktienrendite ist die abhĂ€ngige Variable und die verschiedenen Finanzdaten sind die unabhĂ€ngigen Variablen.

MultikollinearitÀt in einem multiplen Regressionsmodell zeigt an, dass kollineare unabhÀngige Variablen in irgendeiner Weise miteinander in Beziehung stehen, obwohl die Beziehung zufÀllig sein kann oder nicht. Beispielsweise kann die Wertentwicklung in der Vergangenheit mit der Marktkapitalisierung zusammenhÀngen,. da Aktien, die sich in der Vergangenheit gut entwickelt haben, einen steigenden Marktwert haben werden.

Mit anderen Worten, MultikollinearitÀt kann vorliegen, wenn zwei unabhÀngige Variablen stark korrelieren. Es kann auch passieren, wenn eine unabhÀngige Variable aus anderen Variablen im Datensatz berechnet wird oder wenn zwei unabhÀngige Variablen Àhnliche und sich wiederholende Ergebnisse liefern.

Besondere Überlegungen

Eine der gebrÀuchlichsten Methoden zur Beseitigung des Problems der MultikollinearitÀt besteht darin, zuerst kollineare unabhÀngige Variablen zu identifizieren und dann alle bis auf eine zu entfernen.

Es ist auch möglich, MultikollinearitĂ€t zu eliminieren, indem zwei oder mehr kollineare Variablen zu einer einzigen Variablen kombiniert werden. Anschließend kann eine statistische Analyse durchgefĂŒhrt werden, um die Beziehung zwischen der angegebenen abhĂ€ngigen Variablen und nur einer einzigen unabhĂ€ngigen Variablen zu untersuchen.

Die statistischen Schlussfolgerungen aus einem Modell mit MultikollinearitÀt sind möglicherweise nicht zuverlÀssig.

Beispiele fĂŒr MultikollinearitĂ€t

Beim Investieren

FĂŒr Investitionen ist MultikollinearitĂ€t eine hĂ€ufige Überlegung, wenn technische Analysen durchgefĂŒhrt werden,. um wahrscheinliche zukĂŒnftige Preisbewegungen eines Wertpapiers, wie z. B. einer Aktie oder eines Rohstoff -Futures, vorherzusagen.

Marktanalysten möchten vermeiden, technische Indikatoren zu verwenden, die kollinear sind , da sie auf sehr Ă€hnlichen oder verwandten Eingaben basieren; Sie neigen dazu, Ă€hnliche Vorhersagen in Bezug auf die abhĂ€ngige Variable der Preisbewegung zu enthĂŒllen. Stattdessen muss die Marktanalyse auf deutlich unterschiedlichen unabhĂ€ngigen Variablen basieren, um sicherzustellen, dass sie den Markt aus unterschiedlichen unabhĂ€ngigen analytischen Blickwinkeln analysieren.

Ein Beispiel fĂŒr ein potenzielles MultikollinearitĂ€tsproblem ist die DurchfĂŒhrung einer technischen Analyse nur unter Verwendung mehrerer Ă€hnlicher Indikatoren.

Der bekannte technische Analyst John Bollinger, Schöpfer des Bollinger Bands -Indikators, stellt fest, dass „eine Grundregel fĂŒr den erfolgreichen Einsatz der technischen Analyse die Vermeidung von MultikollinearitĂ€t inmitten von Indikatoren erfordert“. Um das Problem zu lösen, vermeiden Analysten die Verwendung von zwei oder mehr technischen Indikatoren des gleichen Typs. Stattdessen analysieren sie ein Wertpapier mit einem Indikatortyp, wie z. B. einem Momentum-Indikator, und fĂŒhren dann eine separate Analyse mit einem anderen Indikatortyp, wie z. B. einem Trendindikator, durch.

Zum Beispiel sind Stochastik,. der Relative-StĂ€rke-Index (RSI) und Williams %R alle Momentum-Indikatoren, die auf Ă€hnlichen Eingaben beruhen und wahrscheinlich Ă€hnliche Ergebnisse liefern. In diesem Fall ist es besser, alle Indikatoren bis auf einen zu entfernen oder einen Weg zu finden, mehrere von ihnen zu einem einzigen Indikator zusammenzufĂŒhren und gleichzeitig einen Trendindikator hinzuzufĂŒgen, der wahrscheinlich nicht stark mit dem Momentum-Indikator korreliert.

In der Biologie

MultikollinearitÀt wird auch in vielen anderen Kontexten beobachtet. Ein solcher Kontext ist die Humanbiologie. Beispielsweise ist der Blutdruck einer Person nicht kollinear mit dem Alter, sondern auch mit Gewicht, Stress und Puls.

Höhepunkte

  • MultikollinearitĂ€t ist ein statistisches Konzept, bei dem mehrere unabhĂ€ngige Variablen in einem Modell korreliert sind.

  • MultikollinearitĂ€t zwischen unabhĂ€ngigen Variablen fĂŒhrt zu weniger zuverlĂ€ssigen statistischen Schlussfolgerungen.

  • Es ist besser, unabhĂ€ngige Variablen zu verwenden, die nicht korrelieren oder sich wiederholen, wenn mehrere Regressionsmodelle erstellt werden, die zwei oder mehr Variablen verwenden.

  • Zwei Variablen gelten als perfekt kollinear, wenn ihr Korrelationskoeffizient +/- 1,0 betrĂ€gt.

  • Das Vorhandensein von MultikollinearitĂ€t in einem Datensatz kann aufgrund grĂ¶ĂŸerer Standardfehler zu weniger zuverlĂ€ssigen Ergebnissen fĂŒhren.

FAQ

Warum ist MultikollinearitÀt ein Problem?

MultikollinearitĂ€t ist ein Problem, da sie Regressionsmodellergebnisse erzeugt, die weniger zuverlĂ€ssig sind. Dies ist auf breitere Konfidenzintervalle (grĂ¶ĂŸere Standardfehler ) zurĂŒckzufĂŒhren, die die statistische Signifikanz von Regressionskoeffizienten verringern können.

Wie kann man mit MultikollinearitÀt umgehen?

Um das Ausmaß der in einem Modell gefundenen MultikollinearitĂ€t zu reduzieren, kann man die spezifischen Variablen entfernen, die als am stĂ€rksten kollinear identifiziert wurden. Sie können auch versuchen, die problematischen Variablen zu kombinieren oder zu transformieren, um ihre Korrelation zu verringern. Wenn das nicht funktioniert oder nicht erreichbar ist, gibt es modifizierte Regressionsmodelle, die besser mit MultikollinearitĂ€t umgehen, wie z. B. die Ridge-Regression, die Hauptkomponentenregression oder die partielle Kleinste-Quadrate-Regression.

Wie erkennt man MultikollinearitÀt?

Eine statistische Technik namens Varianzinflationsfaktor (VIF) wird verwendet, um das Ausmaß der KollinearitĂ€t in einem multiplen Regressionsmodell zu erkennen und zu messen.

Was ist perfekte KollinearitÀt?

Perfekte KollinearitĂ€t liegt vor, wenn es eine exakte 1:1-Übereinstimmung zwischen zwei unabhĂ€ngigen Variablen in einem Modell gibt. Dies kann entweder eine Korrelation von +1,0 oder -1,0 sein.