Loi log-normale

Loi Log-normale
Image illustrative de l’article Loi log-normale
Densité de probabilité
μ=0
Image illustrative de l’article Loi log-normale
Fonction de répartition
μ=0
Paramètres σ > 0 {\displaystyle \sigma >0}
− ∞ < μ < ∞ {\displaystyle -\infty <\mu <\infty }
Support ] 0 ; + ∞ 0;+\infty 0;+\infty 2 2 σ 2 ) {\displaystyle {\frac {1}{x\sigma {\sqrt {2\pi }}}}\exp \left(-{\frac {\left^{2}}{2\sigma ^{2}}}\right)}
Fonction de répartition 1 2 + 1 2 e r f {\displaystyle {\frac {1}{2}}+{\frac {1}{2}}\mathrm {erf} \left}
Espérance e μ + σ 2 / 2 {\displaystyle \mathrm {e} ^{\mu +\sigma ^{2}/2}}
Médiane e μ {\displaystyle \mathrm {e} ^{\mu }}
Mode e μ − σ 2 {\displaystyle \mathrm {e} ^{\mu -\sigma ^{2}}}
Variance ( e σ 2 − 1 ) e 2 μ + σ 2 {\displaystyle (\mathrm {e} ^{\sigma ^{2}}\!\!-1)\mathrm {e} ^{2\mu +\sigma ^{2}}}
Asymétrie ( e σ 2 + 2 ) e σ 2 − 1 {\displaystyle (\mathrm {e} ^{\sigma ^{2}}\!\!+2){\sqrt {\mathrm {e} ^{\sigma ^{2}}\!\!-1}}}
Kurtosis normalisé e 4 σ 2 + 2 e 3 σ 2 + 3 e 2 σ 2 − 6 {\displaystyle \mathrm {e} ^{4\sigma ^{2}}\!\!+2\mathrm {e} ^{3\sigma ^{2}}\!\!+3\mathrm {e} ^{2\sigma ^{2}}\!\!-6}
Entropie 1 2 + 1 2 ln ⁡ ( 2 π σ 2 ) + μ {\displaystyle {\frac {1}{2}}+{\frac {1}{2}}\ln(2\pi \sigma ^{2})+\mu }

En théorie des probabilités et statistique, une variable aléatoire X est dite suivre une loi log-normale de paramètres μ {\displaystyle \mu } et σ 2 {\displaystyle \sigma ^{2}} si la variable Y = ln ⁡ ( X ) {\displaystyle Y=\ln(X)} suit une loi normale d'espérance μ {\displaystyle \mu } et de variance σ 2 {\displaystyle \sigma ^{2}} .

Cette loi est parfois appelée loi de Galton. Elle est habituellement notée L o g - N ⁡ ( μ , σ 2 ) {\displaystyle \operatorname {Log-{\mathcal {N}}} (\mu ,\,\sigma ^{2})} dans le cas d'une seule variable ou L o g - N ⁡ ( μ , Σ ) {\displaystyle \operatorname {Log-{\mathcal {N}}} (\mu ,\,\Sigma )} dans un contexte multidimensionnel.

Une variable peut être modélisée par une loi log-normale si elle est le résultat de la multiplication d'un grand nombre de petits facteurs indépendants.

Caractérisation

Densité

La loi log-normale de paramètres μ {\displaystyle \mu } et σ {\displaystyle \sigma } admet pour densité de probabilité

f X ( x ; μ , σ ) = 1 x σ 2 π exp ⁡ ( − ( ln ⁡ x − μ ) 2 2 σ 2 ) = 1 x f Y ( ln ⁡ ( x ) ; μ , σ ) {\displaystyle f_{X}(x;\mu ,\sigma )={\frac {1}{x\sigma {\sqrt {2\pi }}}}\exp \left(-{\frac {(\ln x-\mu )^{2}}{2\sigma ^{2}}}\right)={\frac {1}{x}}f_{Y}(\ln(x);\mu ,\sigma )}

pour x > 0 {\displaystyle x>0} . Les paramètres μ {\displaystyle \mu } et σ {\displaystyle \sigma } sont l'espérance et l'écart type du logarithme de la variable (puisque par définition, le logarithme de la variable est distribué selon une loi normale d'espérance μ {\displaystyle \mu } et d'écart-type σ {\displaystyle \sigma } ).

Fonction de répartition

Par intégration de la fonction de densité, il vient que la fonction de répartition s'exprime en fonction de la fonction d'erreur erf :

F X ( x ; μ , σ ) = 1 2 + 1 2 e r f = F Y ( ln ⁡ ( x ) ; μ , σ ) . {\displaystyle F_{X}(x;\mu ,\sigma )={\frac {1}{2}}+{\frac {1}{2}}\mathrm {erf} \left=F_{Y}(\ln(x);\mu ,\sigma ).}

Moments

Tous les moments existent et sont donnés par :

μ k = e k μ + k 2 σ 2 / 2 . {\displaystyle \mu _{k}=\mathrm {e} ^{k\mu +k^{2}\sigma ^{2}/2}.}

Espérance et écart-type

L'espérance est

E ( X ) = e μ + σ 2 / 2 {\displaystyle \mathrm {E} (X)=\mathrm {e} ^{\mu +\sigma ^{2}/2}}

et la variance est

V a r ( X ) = ( e σ 2 − 1 ) e 2 μ + σ 2 . {\displaystyle \mathrm {Var} (X)=(\mathrm {e} ^{\sigma ^{2}}-1)\mathrm {e} ^{2\mu +\sigma ^{2}}.\,}

Des relations équivalentes permettent d'obtenir μ {\displaystyle \mu } et σ {\displaystyle \sigma } étant données l'espérance et l'écart-type :

{ μ = ln ⁡ ( E ( X ) ) − 1 2 σ 2 σ 2 = ln ⁡ ( 1 + V a r ( X ) ( E ( X ) ) 2 ) {\displaystyle \left\{{\begin{aligned}\mu &=\ln(\mathrm {E} (X))-{\frac {1}{2}}\sigma ^{2}\\\sigma ^{2}&=\ln \left(1+{\frac {\mathrm {Var} (X)}{(\mathrm {E} (X))^{2}}}\right)\end{aligned}}\right.}

Autres relations

C o v ( X , Y ) = E ( X ) σ 2 ( Y ) {\displaystyle \mathrm {Cov} (X,Y)=\mathrm {E} (X)\,\sigma ^{2}(Y)} C o v ( X , Z ) = E ( X ) C o v ( Y , Z ) {\displaystyle \mathrm {Cov} (X,Z)=\mathrm {E} (X)\,\mathrm {Cov} (Y,Z)} C o r ( X , Z ) = C o r ( Y , Z ) σ ( Y ) ( e σ 2 ( Y ) − 1 ) − 1 / 2 {\displaystyle \mathrm {Cor} (X,Z)=\mathrm {Cor} (Y,Z)\,\sigma (Y)\,(\mathrm {e} ^{\sigma ^{2}(Y)}-1)^{-1/2}}

où Z {\displaystyle Z} est une variable normale quelconque de variance σ 2 ( Z ) {\displaystyle \sigma ^{2}(Z)} .

Pour deux variables log-normales, les relations sont indiquées dans le contexte multidimensionnel ci-dessous.

Comportement de la densité

Il suffit de dériver la densité de la loi log-normale pour vérifier les résultats suivants :

lim x → 0 + f X ( x ; μ , σ ) = 0. {\displaystyle \lim _{x\to 0+}f_{X}(x;\mu ,\sigma )=0.} La fonction peut ainsi être prolongée en 0 de manière continue en lui attribuant la valeur 0. Lorsque la valeur du mode est très faible ( μ = 0 {\displaystyle \mu =0\,} et σ = 10 {\displaystyle \sigma =10\,} comme dans le cartouche ci-dessus), le graphe de la densité semble diverger en 0, ce qui n’est formellement pas le cas. f X ( x m ; μ , σ ) = 1 σ 2 π exp ⁡ ( σ 2 2 − μ ) . {\displaystyle f_{X}(x_{m};\mu ,\sigma )={\frac {1}{\sigma {\sqrt {2\pi }}}}\,\exp \left({\frac {\sigma ^{2}}{2}}-\mu \right).}

Loi log-normale multidimensionnelle

Un vecteur aléatoire X {\displaystyle {\boldsymbol {X}}} est dit suivre une loi log-normale multidimensionnelle de paramètres μ ∈ R N {\displaystyle {\boldsymbol {\mu }}\in \mathbb {R} ^{N}} et Σ ∈ M N ( R ) {\displaystyle {\boldsymbol {\Sigma }}\in {\mathcal {M}}_{N}(\mathbb {R} )} si le vecteur Y = ln ⁡ ( X ) {\displaystyle {\boldsymbol {Y}}=\ln({\boldsymbol {X}})} (composante par composante) suit une loi normale multidimensionnelle dont le vecteur des espérances est μ {\displaystyle {\boldsymbol {\mu }}} et la matrice de covariance est Σ {\displaystyle {\boldsymbol {\Sigma }}} .

Cette loi est habituellement notée L o g - N ⁡ ( μ , Σ ) {\displaystyle \operatorname {Log-{\mathcal {N}}} ({\boldsymbol {\mu }},\,{\boldsymbol {\Sigma }})} .


La densité de probabilité et la fonction de répartition sont les suivantes :

f X , μ , Σ ( x ) = 1 ∏ i = 1 N x i f Y , μ , Σ ( ln ⁡ ( x ) ) {\displaystyle f_{{\boldsymbol {X}},{\boldsymbol {\mu }},{\boldsymbol {\Sigma }}}\left({\boldsymbol {x}}\right)={\frac {1}{\prod _{i=1}^{N}x_{i}}}\;f_{{\boldsymbol {Y}},{\boldsymbol {\mu }},{\boldsymbol {\Sigma }}}\left(\ln({\boldsymbol {x}})\right)} où f Y , μ , Σ ( ) {\displaystyle f_{{\boldsymbol {Y}},{\boldsymbol {\mu }},{\boldsymbol {\Sigma }}}()} est la densité de Y {\displaystyle {\boldsymbol {Y}}} . F X , μ , Σ ( x ) = F Y , μ , Σ ( ln ⁡ ( x ) ) {\displaystyle F_{{\boldsymbol {X}},{\boldsymbol {\mu }},{\boldsymbol {\Sigma }}}\left({\boldsymbol {x}}\right)=F_{{\boldsymbol {Y}},{\boldsymbol {\mu }},{\boldsymbol {\Sigma }}}\left(\ln({\boldsymbol {x}})\right)} où F Y , μ , Σ ( ) {\displaystyle F_{{\boldsymbol {Y}},{\boldsymbol {\mu }},{\boldsymbol {\Sigma }}}()} est la fonction de répartition de Y {\displaystyle {\boldsymbol {Y}}} .


Les espérances et covariances sont données par les relations (valables également dans le cas dégénéré) :

E ⁡ ( i ) = e μ i + 1 2 Σ i i , {\displaystyle \operatorname {E} \left(_{i}\right)=\mathrm {e} ^{{\boldsymbol {\mu }}_{i}+{\frac {1}{2}}{\boldsymbol {\Sigma }}_{ii}},} Cov ⁡ ( i , j ) = E ⁡ ( i ) E ⁡ ( j ) ( e Σ i j − 1 ) . {\displaystyle \operatorname {Cov} \left(_{i},_{j}\right)=\operatorname {E} \left(_{i}\right)\operatorname {E} \left(_{j}\right)\;(\mathrm {e} ^{{\boldsymbol {\Sigma }}_{ij}}-1).} Eléments de justification

Une évaluation de la densité de X {\displaystyle {\boldsymbol {X}}} peut se baser sur la définition informelle de la densité, en exploitant celle de Y {\displaystyle {\boldsymbol {Y}}} (loi normale multidimensionnelle) après avoir effectué le changement de variable

i = exp ⁡ ( i ) . {\displaystyle _{i}=\exp {\left(_{i}\right)}.}


Les expressions relatives à l’espérance et à la covariance se déduisent de la fonction génératrice des moments de la loi normale multidimensionnelle, soit

M Y ( t ) = exp ⁡ ( μ ⊤ t + 1 2 t ⊤ Σ t ) . {\displaystyle M_{\boldsymbol {Y}}({\boldsymbol {t}})=\exp \left({\boldsymbol {\mu }}^{\top }{\boldsymbol {t}}+{\frac {1}{2}}{\boldsymbol {t}}^{\top }{\boldsymbol {\Sigma }}{\boldsymbol {t}}\right).}

A l’aide du même changement de variable, on obtient respectivement


Remarques :

Positivité de la covariance

Les relations caractérisant les espérances et les covariances pouvant se déduire de la fonction génératrice des moments de la loi normale multidimensionnelle, la matrice de covariance doit naturellement être semi-définie positive. Ce résultat est ici présenté de manière directe.

Puisque les espérances E ⁡ ( i ) {\displaystyle \operatorname {E} \left(_{i}\right)} sont strictement positives, Cov ⁡ ( i , j ) {\displaystyle \operatorname {Cov} \left(_{i},_{j}\right)} est semi-définie positive si et seulement si e Σ i j − 1 {\displaystyle \mathrm {e} ^{{\boldsymbol {\Sigma }}_{ij}}-1} l’est : il suffit alors de considérer uniquement cette dernière matrice. Puisque la positivité de Σ {\displaystyle {\boldsymbol {\Sigma }}} est la seule propriété qui est exploitée, on notera cette matrice A {\displaystyle A} qui ne fait plus référence à une covariance.

Lemme —  Soit A {\displaystyle A} une matrice semi-définie positive et p {\displaystyle p} un entier positif. Alors la matrice A ( p ) {\displaystyle A^{(p)}} définie par ( A ( p ) ) i j = ( A i j ) p {\displaystyle (A^{(p)})_{ij}=(A_{ij})^{p}} l’est également.

Proposition 1 —  Si A {\displaystyle A} est semi-définie positive, alors C i j = e A i j − 1 {\displaystyle C_{ij}=\mathrm {e} ^{A_{ij}}-1\,} l’est également.

Résultats relatifs au spectre de C {\displaystyle C} indiquant des bornes pour ses valeurs propres :

Proposition 2 —  Soit A {\displaystyle A} semi-définie positive et notons

Alors
  1. λ − ( p ) d − ≤ λ − ( p + 1 ) ≤ λ + ( p + 1 ) ≤ λ + ( p ) d + , {\displaystyle \lambda _{-}^{(p)}\,d_{-}\leq \lambda _{-}^{(p+1)}\leq \lambda _{+}^{(p+1)}\leq \lambda _{+}^{(p)}\,d_{+},}
  2. λ − e d − ≤ μ − ≤ μ + ≤ λ + e d + . {\displaystyle \lambda _{-}\,\mathrm {e} ^{d_{-}}\leq \mu _{-}\leq \mu _{+}\leq \lambda _{+}\,\mathrm {e} ^{d_{+}}.}
Preuves

Preuve du Lemme :

Puisque A {\displaystyle A} est diagonalisable, elle peut s’écrire sous la forme A = O D O T {\displaystyle A=ODO^{T}} où O {\displaystyle O} est une matrice orthogonale (dont les colonnes sont les vecteurs propres de A {\displaystyle A} ) et où D {\displaystyle D} est une matrice diagonale dont les coefficients sont précisément les valeurs propres de A {\displaystyle A} .

Supposons par induction sur p {\displaystyle p} que A ( p ) {\displaystyle A^{(p)}} soit positive. Pour tout vecteur x {\displaystyle x} , on peut ainsi écrire

x T A ( p + 1 ) x = ∑ i j ( A i j ) p + 1 x i x j = ∑ i j ( A i j ) p A i j x i x j = ∑ i j k ( A i j ) p ( O i k D k O j k ) x i x j = {\displaystyle x^{T}A^{(p+1)}x=\sum _{ij}(A_{ij})^{p+1}x_{i}x_{j}=\sum _{ij}(A_{ij})^{p}A_{ij}\,x_{i}x_{j}=\sum _{ijk}(A_{ij})^{p}\,(O_{ik}D_{k}O_{jk})\,x_{i}x_{j}=} = ∑ k D k ∑ i j ( A i j ) p ( O i k x i ) ( O j k x j ) = ∑ k D k ( y ( k ) ) T A ( p ) y ( k ) ≥ 0 {\displaystyle =\sum _{k}D_{k}\sum _{ij}(A_{ij})^{p}\,(O_{ik}x_{i})\,(O_{jk}x_{j})=\sum _{k}\,D_{k}\,(y^{(k)})^{T}\,A^{(p)}\,y^{(k)}\geq 0}

où y ( k ) {\displaystyle y^{(k)}} est un vecteur défini par y i ( k ) = O i k x i . {\displaystyle y_{i}^{(k)}=O_{ik}\,x_{i}.}

L’inégalité découle de la positivité de A {\displaystyle A} (impliquant D k ≥ 0 {\displaystyle D_{k}\geq 0} ) et de celle de A ( p ) {\displaystyle A^{(p)}} par hypothèse d’induction.

Cette inégalité montre que la positivité se préserve de proche en proche.


Preuve de la Proposition 1 :

Il suffit de remarquer que C {\displaystyle C} est une somme de matrices semi-définies positives par la relation

C = ∑ p ≥ 1 1 p ! A ( p ) . {\displaystyle C=\sum _{p\geq 1}{\frac {1}{p!}}A^{(p)}.}


Preuve de la Proposition 2 :

En repartant de l’égalité du Lemme où x {\displaystyle x} est un vecteur propre de A ( p ) {\displaystyle A^{(p)}} de norme 1 pour la plus petite valeur propre λ − ( p + 1 ) {\displaystyle \lambda _{-}^{(p+1)}} , on en tire

λ − ( p + 1 ) = ∑ k D k ( y ( k ) ) T A ( p ) y ( k ) ≥ λ − ( p ) ∑ k D k ‖ y ( k ) ‖ 2 = λ − ( p ) ∑ i A i i ( x i ) 2 ≥ λ − ( p ) d − . {\displaystyle \lambda _{-}^{(p+1)}=\sum _{k}\,D_{k}\,(y^{(k)})^{T}\,A^{(p)}\,y^{(k)}\geq \lambda _{-}^{(p)}\sum _{k}\,D_{k}\,\left\|y^{(k)}\right\|^{2}=\lambda _{-}^{(p)}\sum _{i}\,A_{ii}\,(x_{i})^{2}\geq \lambda _{-}^{(p)}\,d_{-}.}

Le même procédé s’appliquant pour λ + ( p + 1 ) {\displaystyle \lambda _{+}^{(p+1)}} , on en déduit le point 1.

Finalement, il suffit de reprendre le développement de C {\displaystyle C} indiqué dans la preuve de la proposition 1 pour montrer le point 2.

Remarque : au vu des minorations (majorations) brutales (en particulier celles de la seconde inégalité), les bornes obtenues ne sont pas optimales.

Loi de Gibrat

Article détaillé : Loi de Gibrat.

Historiquement nommée loi de l'effet proportionnel, puis parfois loi log-normale à 3 paramètres, cette loi est une généralisation de la loi log-normale obtenue par l’ajout d’une simple translation en posant

Y = ln ⁡ ( X − X 0 ) {\displaystyle Y=\ln(X-X_{0})} .

Elle est notée L o g - N ⁡ ( X 0 , μ , σ 2 ) {\displaystyle \operatorname {Log-{\mathcal {N}}} (X_{0},\,\mu ,\,\sigma ^{2})} et ne concerne que des valeurs X > X 0 . {\displaystyle X>X_{0}.} Son utilisation devrait se limiter aux situations où cette borne inférieure possède un sens physique et dont la valeur est connue.

Domaines d'application

Marchés financiers

La loi log-normale est souvent utilisée en analyse quantitative pour représenter les cours des instruments financiers (notamment les actions, cours de change, taux d'intérêt). Avec la loi multidimensionnelle, il est possible d’envisager des modèles susceptibles de considérer différents titres et leurs corrélations, ce qui permet ainsi d’appréhender et de quantifier les risques d'un portefeuille.

Les cours n’étant pas négatifs, il est pertinent d'exprimer leurs variations sous forme relative (en pourcentage) et, en première approximation, les cours sont décrits par une loi log-normale.

D’autre part, une raison plus profonde réside dans l’estimation de la volatilité du cours d’une action qui peut être définie par l’écart-type du rendement :

Si le prix d’une cotation passe de P1 à P2 durant une période d’un jour, le rendement journalier est r = P2 / P1 -1 et, à ce rythme, l’expression continue du rendement R annuel satisfait (T = 365 jours) : e R = ( 1 + r ) T = ( P 2 / P 1 ) T , i e R = T . {\displaystyle \mathrm {e} ^{R}=(1+r)^{T}=(P_{2}/P_{1})^{T},\;ie\;R=T\,.}

On voit alors apparaître le lien entre la volatilité σ ( R ) {\displaystyle \sigma (R)} et la variable aléatoire qui affecte le logarithme du cours.

Autres domaines

Notes et références

  1. Bernard Delmas, Statistique descriptive, Paris, Nathan, 1996, p. 143.
  2. Stéphane Tufféry, Data mining et statistique décisionnelle : l'intelligence des données, p. 347 sur Google Livres.

Articles connexes