Investor's wiki

Wielokrotna regresja liniowa (MLR)

Wielokrotna regresja liniowa (MLR)

Co to jest wielokrotna regresja liniowa (MLR)?

Wielokrotna regresja liniowa (MLR), znana również po prostu jako regresja wielokrotna, to technika statystyczna, która wykorzystuje kilka zmiennych objaśniających do przewidywania wyniku zmiennej odpowiedzi. Celem wielokrotnej regresji liniowej jest modelowanie liniowej zależności między zmiennymi objaśniającymi (niezależnymi) a zmiennymi odpowiedzi (zależnymi). W istocie regresja wielokrotna jest rozszerzeniem zwykłej regresji metodą najmniejszych kwadratów (OLS) , ponieważ obejmuje więcej niż jedną zmienną objaśniającą.

Formuła i obliczanie wielokrotnej regresji liniowej

yi= β0+β1 xi1+ β2xi< mn>2+..< mi mathvariant="normal">.+βpx ip+ϵ gdzie, dla i=n obserwacje:</ mrow>y i=zmienna zależna</ mrow>xi=zmienne objaśniające β0=< mtext>y-punkt przecięcia (c termin)< /mstyle>βp</ mi>=współczynniki nachylenia dla każdej zmiennej objaśniającej< mstyle scriptlevel="0" displaystyle="true">< /mrow>ϵ=termin błędu modelu (znany również jako reszty)< /mtr>\begin&y_i = \beta_0 + \beta 1 x + \beta 2 x + ... + \beta p x + \epsilon\&\textbf{gdzie, dla } i = n \textbf\&y_i=\text{zmienna zależna}\&x_i=\ text{zmienne objaśniające}\&\beta_0=\text{punkt przecięcia z osią Y (termin stały)}\&\beta_p=\text{współczynniki nachylenia dla każdej zmiennej objaśniającej le}\&\epsilon=\text{termin błędu modelu (znany również jako reszty)}\end{wyrównany}< span class="katex-html" aria-hidden="true">< /span> < span class="pstrut" style="height:2.84em;"> yi<​</ span ></ span >=β0</ span> +β1< / span>< span> xi1 < /span>+β2<​< span class="vlist-r">< / span>x< span class="pstrut" style="height:2.7em;">i2<​< /span>< /span>< span class="mspace" style="margin-right:0.2222222222222222em;">+...+β< span class="mord mathnormal mtight">p<​</ span>xip< /span> span>+ϵ< / span>gdzie dla i=<span class="mspace „ style="margin-right:0.27777777777777778em;">n obserwacje : y< /span> i =< /span>zmienna zależna< span class="mord mathnormal">xi = < span class="mord">zmienne objaśniająceβ0</sp an>= y-intercept (termin stały)β< span class="vlist" style="height:0.15139200000000003em;">p< span class="vlist" style="height:0.286108em;">=</ span >współczynniki nachylenia dla każdej zmiennej objaśniającejϵ=termin błędu modelu (znany również jako reszty)</ span >< /span>

Co może powiedzieć wielokrotna regresja liniowa

Prosta regresja liniowa to funkcja, która umożliwia analitykowi lub statystykowi dokonywanie prognoz dotyczących jednej zmiennej na podstawie informacji, które są znane o innej zmiennej. Regresji liniowej można używać tylko wtedy, gdy mamy dwie zmienne ciągłe — zmienną niezależną i zmienną zależną. Zmienna niezależna to parametr używany do obliczania zmiennej zależnej lub wyniku. Model regresji wielokrotnej obejmuje kilka zmiennych objaśniających.

Model regresji wielokrotnej opiera się na następujących założeniach:

Współczynnik determinacji (R- kwadrat ) jest miarą statystyczną, która służy do pomiaru, jaka część zmienności wyniku może być wyjaśniona zmiennością zmiennych niezależnych. R2 zawsze wzrasta, gdy więcej predyktorów jest dodawanych do modelu MLR, nawet jeśli predyktory mogą nie być powiązane ze zmienną wynikową.

Samo R2 nie może zatem służyć do identyfikacji, które predyktory powinny być uwzględnione w modelu, a które powinny być wyłączone. R2 może wynosić tylko od 0 do 1, gdzie 0 wskazuje, że wynik nie może być przewidziany przez żadną ze zmiennych niezależnych, a 1 wskazuje, że wynik można przewidzieć bez błędu na podstawie zmiennych niezależnych.

Podczas interpretacji wyników regresji wielokrotnej współczynniki beta są ważne, gdy wszystkie inne zmienne są stałe („wszystkie inne równe”). Dane wyjściowe z regresji wielokrotnej mogą być wyświetlane poziomo jako równanie lub pionowo w formie tabeli.

Przykład użycia wielokrotnej regresji liniowej

Na przykład analityk może chcieć wiedzieć, jak ruch na rynku wpływa na cenę ExxonMobil (XOM). W takim przypadku ich równanie liniowe będzie miało wartość indeksu S&P 500 jako zmienną niezależną lub predyktora oraz cenę XOM jako zmienną zależną.

W rzeczywistości wiele czynników pozwala przewidzieć wynik zdarzenia. Na przykład ruch cenowy ExxonMobil zależy nie tylko od wyników całego rynku. Inne predyktory, takie jak cena ropy, stopy procentowe i ruch cen przyszłej ropy, mogą wpływać na cenę XOM i ceny akcji innych firm naftowych . Aby zrozumieć związek, w którym występuje więcej niż dwie zmienne, stosuje się wielokrotną regresję liniową.

Wielokrotna regresja liniowa (MLR) służy do określenia matematycznego związku między kilkoma zmiennymi losowymi. Innymi słowy, MLR bada, w jaki sposób wiele zmiennych niezależnych jest powiązanych z jedną zmienną zależną. Po określeniu każdego z niezależnych czynników w celu przewidzenia zmiennej zależnej, informacje o wielu zmiennych można wykorzystać do stworzenia dokładnej prognozy na temat poziomu wpływu, jaki mają na zmienną wynikową. Model tworzy relację w postaci linii prostej (liniowej), która najlepiej przybliża wszystkie poszczególne punkty danych.

Odnosząc się do powyższego równania MLR, w naszym przykładzie:

  • yi = zmienna zależna — cena XOM

  • xi1 = stopy procentowe

  • xi2 = cena oleju

  • xi3 = wartość indeksu S&P 500

  • xi4= cena kontraktów terminowych na ropę

  • B0 = przecięcie y w czasie zero

  • B1 = współczynnik regresji mierzący jednostkową zmianę zmiennej zależnej, gdy zmienia się xi1 - zmiana ceny XOM przy zmianie stóp procentowych

  • B2 = wartość współczynnika, który mierzy jednostkową zmianę zmiennej zależnej, gdy zmienia się xi2 — zmiana ceny XOM, gdy zmieniają się ceny ropy

Oszacowania metodą najmniejszych kwadratów — B0, B1, B2…Bp — są zwykle obliczane przez oprogramowanie statystyczne. Tyle zmiennych można uwzględnić w modelu regresji, w którym każda zmienna niezależna jest różnicowana liczbą — 1,2, 3, 4...p. Model regresji wielokrotnej pozwala analitykowi przewidzieć wynik na podstawie informacji dostarczonych na temat wielu zmiennych objaśniających.

Mimo to model nie zawsze jest idealnie dokładny, ponieważ każdy punkt danych może nieznacznie różnić się od wyniku przewidywanego przez model. Wartość rezydualna, E, która jest różnicą między rzeczywistym wynikiem a przewidywanym wynikiem, jest uwzględniona w modelu, aby uwzględnić takie niewielkie odchylenia.

Zakładając, że uruchamiamy nasz model regresji cen XOM za pomocą oprogramowania do obliczeń statystycznych, które zwraca następujące dane wyjściowe:

<!-193B494081C84A1BDB50F6709905B87F-->

Analityk zinterpretowałby ten wynik w taki sposób, że jeśli inne zmienne pozostaną niezmienione, cena XOM wzrośnie o 7,8%, jeśli cena ropy na rynkach wzrośnie o 1%. Model pokazuje również, że cena XOM spadnie o 1,5% po wzroście stóp procentowych o 1%. R2 wskazuje, że 86,5% zmian ceny akcji Exxon Mobil można wytłumaczyć zmianami stopy procentowej, ceny ropy, kontraktów terminowych na ropę naftową i indeksu S&P 500.

Różnica między regresją liniową a wielokrotną

zwykłych kwadratów liniowych (OLS) porównuje odpowiedź zmiennej zależnej przy zmianie niektórych zmiennych objaśniających. Jednak zmienną zależną rzadko wyjaśnia tylko jedna zmienna. W tym przypadku analityk stosuje regresję wielokrotną, która próbuje wyjaśnić zmienną zależną za pomocą więcej niż jednej zmiennej niezależnej. Regresje wielokrotne mogą być liniowe i nieliniowe.

Regresje wielokrotne opierają się na założeniu, że istnieje liniowa zależność między zmienną zależną i niezależną. Zakłada również brak większej korelacji między zmiennymi niezależnymi.

##Przegląd najważniejszych wydarzeń

  • Regresja wielokrotna jest rozszerzeniem regresji liniowej (OLS), która wykorzystuje tylko jedną zmienną objaśniającą.

  • Wielokrotna regresja liniowa (MLR), znana również po prostu jako regresja wielokrotna, to technika statystyczna, która wykorzystuje kilka zmiennych objaśniających do przewidywania wyniku zmiennej odpowiedzi.

  • MLR jest szeroko stosowany w ekonometrii i wnioskowaniu finansowym.

##FAQ

Co to znaczy, że regresja wielokrotna jest liniowa?

W wielokrotnej regresji liniowej model oblicza linię najlepszego dopasowania,. która minimalizuje wariancje każdej ze zmiennych uwzględnionych w związku ze zmienną zależną. Ponieważ pasuje do linii, jest to model liniowy. Istnieją również modele regresji nieliniowej obejmujące wiele zmiennych, takich jak regresja logistyczna, regresja kwadratowa i modele probitowe.

W jaki sposób modele regresji wielokrotnej są wykorzystywane w finansach?

Każdy model ekonometryczny, który uwzględnia więcej niż jedną zmienną, może być wielokrotnością. Modele czynnikowe porównują dwa lub więcej czynników, aby przeanalizować relacje między zmiennymi i wynikającą z nich wydajnością. Fama i French Three-Factor Mod to taki model, który rozszerza model wyceny aktywów kapitałowych (CAPM) poprzez dodanie czynników ryzyka wielkości i ryzyka wartości do czynnika ryzyka rynkowego w CAPM (który sam jest modelem regresji). Uwzględniając te dwa dodatkowe czynniki, model dostosowuje się do tej tendencji do osiągania lepszych wyników, co uważa się, że jest lepszym narzędziem do oceny wydajności menedżera.

Czy mogę ręcznie wykonać regresję wielokrotną?

Jest to mało prawdopodobne, ponieważ modele regresji wielokrotnej są złożone i stają się jeszcze bardziej złożone, gdy w modelu jest więcej zmiennych lub gdy rośnie ilość danych do analizy. Aby uruchomić regresję wielokrotną, prawdopodobnie będziesz musiał użyć specjalistycznego oprogramowania statystycznego lub funkcji w programach takich jak Excel.

Co sprawia, że regresja wielokrotna jest wielokrotnością?

Regresja wielokrotna uwzględnia wpływ więcej niż jednej zmiennej objaśniającej na pewien wynik będący przedmiotem zainteresowania. Ocenia względny wpływ tych objaśniających lub niezależnych zmiennych na zmienną zależną, gdy wszystkie inne zmienne w modelu są stałe.

Po co używać regresji wielokrotnej zamiast prostej regresji OLS?

Zmienną zależną rzadko wyjaśnia tylko jedna zmienna. W takich przypadkach analityk stosuje regresję wielokrotną, która próbuje wyjaśnić zmienną zależną za pomocą więcej niż jednej zmiennej niezależnej. Model zakłada jednak, że nie ma większych korelacji między zmiennymi niezależnymi.