Investor's wiki

Régression linéaire multiple (MLR)

Régression linéaire multiple (MLR)

Qu'est-ce que la régression linéaire multiple (MLR) ?

La régression linéaire multiple (MLR), également connue simplement sous le nom de régression multiple, est une technique statistique qui utilise plusieurs variables explicatives pour prédire le résultat d'une variable de réponse. L'objectif de la régression linéaire multiple est de modéliser la relation linéaire entre les variables explicatives (indépendantes) et les variables de réponse (dépendantes). Essentiellement, la régression multiple est l'extension de la régression des moindres carrés ordinaires (OLS) car elle implique plus d'une variable explicative.

Formule et calcul de la régression linéaire multiple

yi= β0+β1 xi1+ β2xi< mn>2+..< mi mathvariant="normal">.+βpx ip+ϵ où, pour i=n observations :</ mrow>y i=variable dépendante</ mrow>xi=variables explicatives β0=< textmult>ordonnée à l'origine (c terme constant)< /mstyle>βp</ mi>=coefficients de pente pour chaque variable explicative< mstyle scriptlevel="0" displaystyle="true">< /mrow>ϵ=le terme d'erreur du modèle (également connu sous le nom de résidus)< /mtr>\begin&y_i = \beta_0 + \beta 1 x + \beta 2 x + ... + \beta p x + \epsilon\&\textbf{où, pour } i = n \textbf\&y_i=\text{variable dépendante}\&x_i=\ text\&\beta_0=\text{ordonnée à l'origine (terme constant)}\&\beta_p=\text\&\epsilon=\text{terme d'erreur du modèle (également appelé résidus)}\end< span class="katex-html" aria-hidden="true">< /span> < span class="pstrut" style="height:2.84em;">​ yi​=β0</ span>​+β1< /span>​< span>xi1 ​ +β2​</ span>xi2​< span class="mspace" style="margin-right:0.2222222222222222em ;">+...+β< span class="mord mathnormal mtight">p​</ span>xip< /span>​< /span>+ϵ< /span>où, pour i=n observations : y< /span> i​ =< /span>variable dépendante< span class="mord mathnormal">xi​= variables explicativesβ0</sp an>​=ordonnée à l'origine (terme constant)β< span class="vlist" style="height:0.15139200000000003em;">p​< span class="vlist" style="height:0.286108em;">=</ span>coefficients de pente pour chaque variable explicativeϵ=le terme d'erreur du modèle (également connu sous le nom de résidus)</ span>​< /span>

Ce que la régression linéaire multiple peut vous dire

La régression linéaire simple est une fonction qui permet à un analyste ou à un statisticien de faire des prédictions sur une variable en fonction des informations connues sur une autre variable. La régression linéaire ne peut être utilisée que lorsque l'on a deux variables continues - une variable indépendante et une variable dépendante. La variable indépendante est le paramètre utilisé pour calculer la variable dépendante ou le résultat. Un modèle de régression multiple s'étend à plusieurs variables explicatives.

Le modèle de régression multiple est basé sur les hypothèses suivantes :

  • Il existe une relation linéaire entre les variables dépendantes et les variables indépendantes

  • Les variables indépendantes ne sont pas trop fortement corrélées entre elles

  • yi observations sont sélectionnées de manière indépendante et aléatoire dans la population

  • Les résidus doivent être distribués normalement avec une moyenne de 0 et une variance σ

Le coefficient de détermination (R au carré) est une mesure statistique utilisée pour mesurer dans quelle mesure la variation des résultats peut être expliquée par la variation des variables indépendantes. R2 augmente toujours à mesure que d'autres prédicteurs sont ajoutés au modèle MLR, même si les prédicteurs peuvent ne pas être liés à la variable de résultat.

R2 seul ne peut donc pas être utilisé pour identifier quels prédicteurs doivent être inclus dans un modèle et lesquels doivent être exclus. R2 ne peut être compris qu'entre 0 et 1, où 0 indique que le résultat ne peut être prédit par aucune des variables indépendantes et 1 indique que le résultat peut être prédit sans erreur à partir des variables indépendantes.

Lors de l'interprétation des résultats de la régression multiple, les coefficients bêta sont valides tout en maintenant toutes les autres variables constantes ("toutes choses égales par ailleurs"). La sortie d'une régression multiple peut être affichée horizontalement sous forme d'équation ou verticalement sous forme de tableau.

Exemple d'utilisation de la régression linéaire multiple

Par exemple, un analyste peut vouloir savoir comment le mouvement du marché affecte le prix d'ExxonMobil (XOM). Dans ce cas, leur équation linéaire aura la valeur de l'indice S&P 500 comme variable indépendante, ou prédicteur, et le prix de XOM comme variable dépendante.

En réalité, plusieurs facteurs prédisent l'issue d'un événement. Le mouvement des prix d'ExxonMobil, par exemple, ne dépend pas seulement de la performance du marché global. D'autres prédicteurs tels que le prix du pétrole, les taux d'intérêt et l'évolution des prix des contrats à terme sur le pétrole peuvent affecter le prix de XOM et les cours des actions d'autres sociétés pétrolières. Pour comprendre une relation dans laquelle plus de deux variables sont présentes, la régression linéaire multiple est utilisée.

La régression linéaire multiple (MLR) est utilisée pour déterminer une relation mathématique entre plusieurs variables aléatoires. En d'autres termes, la MLR examine comment plusieurs variables indépendantes sont liées à une variable dépendante. Une fois que chacun des facteurs indépendants a été déterminé pour prédire la variable dépendante, les informations sur les multiples variables peuvent être utilisées pour créer une prédiction précise sur le niveau d'effet qu'ils ont sur la variable de résultat. Le modèle crée une relation sous la forme d'une ligne droite (linéaire) qui se rapproche le mieux de tous les points de données individuels.

En se référant à l'équation MLR ci-dessus, dans notre exemple :

  • yi = variable dépendante—le prix de XOM

  • xi1 = taux d'intérêt

  • xi2 = prix du pétrole

  • xi3 = valeur de l'indice S&P 500

  • xi4= prix des contrats à terme sur le pétrole

  • B0 = ordonnée à l'origine au temps zéro

  • B1 = coefficient de régression qui mesure une variation unitaire de la variable dépendante lorsque xi1 change - la variation du prix XOM lorsque les taux d'intérêt changent

  • B2 = valeur du coefficient qui mesure une variation unitaire de la variable dépendante lorsque xi2 change—la variation du prix XOM lorsque les prix du pétrole changent

Les estimations des moindres carrés—B0, B1, B2…Bp—sont généralement calculées par un logiciel statistique. Autant de variables peuvent être incluses dans le modèle de régression dans lequel chaque variable indépendante est différenciée par un nombre—1,2, 3, 4...p. Le modèle de régression multiple permet à un analyste de prédire un résultat sur la base des informations fournies sur plusieurs variables explicatives.

Pourtant, le modèle n'est pas toujours parfaitement précis car chaque point de données peut différer légèrement du résultat prédit par le modèle. La valeur résiduelle, E, qui est la différence entre le résultat réel et le résultat prévu, est incluse dans le modèle pour tenir compte de ces légères variations.

En supposant que nous exécutons notre modèle de régression de prix XOM via un logiciel de calcul de statistiques, cela renvoie cette sortie :

Un analyste interpréterait cette sortie comme signifiant que si les autres variables sont maintenues constantes, le prix du XOM augmentera de 7,8 % si le prix du pétrole sur les marchés augmente de 1 %. Le modèle montre également que le prix du XOM diminuera de 1,5 % suite à une hausse de 1 % des taux d'intérêt. R2 indique que 86,5 % des variations du cours de l'action d'Exxon Mobil peuvent s'expliquer par des variations du taux d'intérêt, du prix du pétrole, des contrats à terme sur le pétrole et de l'indice S&P 500.

La différence entre la régression linéaire et la régression multiple

carrés linéaires ordinaires (OLS) compare la réponse d'une variable dépendante compte tenu d'un changement dans certaines variables explicatives. Cependant, une variable dépendante est rarement expliquée par une seule variable. Dans ce cas, un analyste utilise la régression multiple, qui tente d'expliquer une variable dépendante en utilisant plus d'une variable indépendante. Les régressions multiples peuvent être linéaires et non linéaires.

Les régressions multiples sont basées sur l'hypothèse qu'il existe une relation linéaire entre les variables dépendantes et indépendantes. Il suppose également qu'il n'y a pas de corrélation majeure entre les variables indépendantes.

Points forts

  • La régression multiple est une extension de la régression linéaire (OLS) qui utilise une seule variable explicative.

  • La régression linéaire multiple (MLR), également connue simplement sous le nom de régression multiple, est une technique statistique qui utilise plusieurs variables explicatives pour prédire le résultat d'une variable de réponse.

  • Le MLR est largement utilisé en économétrie et en inférence financière.

FAQ

Qu'est-ce que cela signifie pour une régression multiple d'être linéaire ?

Dans la régression linéaire multiple, le modèle calcule la ligne de meilleur ajustement qui minimise les variances de chacune des variables incluses en ce qui concerne la variable dépendante. Parce qu'il correspond à une ligne, c'est un modèle linéaire. Il existe également des modèles de régression non linéaire impliquant plusieurs variables, tels que la régression logistique, la régression quadratique et les modèles probit.

Comment les modèles de régression multiple sont-ils utilisés en finance ?

Tout modèle économétrique qui examine plus d'une variable peut être un multiple. Les modèles factoriels comparent deux ou plusieurs facteurs pour analyser les relations entre les variables et les performances qui en résultent. Le Fama and French Three-Factor Mod est un tel modèle qui étend le modèle d'évaluation des actifs financiers (CAPM) en ajoutant des facteurs de risque de taille et de risque de valeur au facteur de risque de marché dans CAPM (qui est lui-même un modèle de régression). En incluant ces deux facteurs supplémentaires, le modèle s'ajuste à cette tendance à la surperformance, ce qui en ferait un meilleur outil d'évaluation de la performance des managers.

Puis-je faire une régression multiple à la main ?

C'est peu probable car les modèles de régression multiple sont complexes et le deviennent encore plus lorsqu'il y a plus de variables incluses dans le modèle ou lorsque la quantité de données à analyser augmente. Pour exécuter une régression multiple, vous devrez probablement utiliser un logiciel ou des fonctions statistiques spécialisés dans des programmes comme Excel.

Qu'est-ce qui rend une régression multiple multiple ?

Une régression multiple considère l'effet de plus d'une variable explicative sur un résultat d'intérêt. Il évalue l'effet relatif de ces variables explicatives ou indépendantes sur la variable dépendante lorsque toutes les autres variables du modèle sont maintenues constantes.

Pourquoi utiliserait-on une régression multiple plutôt qu'une simple régression OLS ?

Une variable dépendante est rarement expliquée par une seule variable. Dans de tels cas, un analyste utilise la régression multiple, qui tente d'expliquer une variable dépendante en utilisant plus d'une variable indépendante. Le modèle, cependant, suppose qu'il n'y a pas de corrélations majeures entre les variables indépendantes.