Loi Log-normale | |
Densité de probabilité μ=0 | |
Fonction de répartition μ=0 | |
Paramètres |
σ
>
0
{\displaystyle \sigma >0}
− ∞ < μ < ∞ {\displaystyle -\infty <\mu <\infty } |
---|---|
Support | ] 0 ; + ∞ 0;+\infty 0;+\infty 2 2 σ 2 ) {\displaystyle {\frac {1}{x\sigma {\sqrt {2\pi }}}}\exp \left(-{\frac {\left^{2}}{2\sigma ^{2}}}\right)} |
Fonction de répartition | 1 2 + 1 2 e r f {\displaystyle {\frac {1}{2}}+{\frac {1}{2}}\mathrm {erf} \left} |
Espérance | e μ + σ 2 / 2 {\displaystyle \mathrm {e} ^{\mu +\sigma ^{2}/2}} |
Médiane | e μ {\displaystyle \mathrm {e} ^{\mu }} |
Mode | e μ − σ 2 {\displaystyle \mathrm {e} ^{\mu -\sigma ^{2}}} |
Variance | ( e σ 2 − 1 ) e 2 μ + σ 2 {\displaystyle (\mathrm {e} ^{\sigma ^{2}}\!\!-1)\mathrm {e} ^{2\mu +\sigma ^{2}}} |
Asymétrie | ( e σ 2 + 2 ) e σ 2 − 1 {\displaystyle (\mathrm {e} ^{\sigma ^{2}}\!\!+2){\sqrt {\mathrm {e} ^{\sigma ^{2}}\!\!-1}}} |
Kurtosis normalisé | e 4 σ 2 + 2 e 3 σ 2 + 3 e 2 σ 2 − 6 {\displaystyle \mathrm {e} ^{4\sigma ^{2}}\!\!+2\mathrm {e} ^{3\sigma ^{2}}\!\!+3\mathrm {e} ^{2\sigma ^{2}}\!\!-6} |
Entropie | 1 2 + 1 2 ln ( 2 π σ 2 ) + μ {\displaystyle {\frac {1}{2}}+{\frac {1}{2}}\ln(2\pi \sigma ^{2})+\mu } |
modifier |
En théorie des probabilités et statistique, une variable aléatoire X est dite suivre une loi log-normale de paramètres μ {\displaystyle \mu } et σ 2 {\displaystyle \sigma ^{2}} si la variable Y = ln ( X ) {\displaystyle Y=\ln(X)} suit une loi normale d'espérance μ {\displaystyle \mu } et de variance σ 2 {\displaystyle \sigma ^{2}} .
Cette loi est parfois appelée loi de Galton. Elle est habituellement notée L o g - N ( μ , σ 2 ) {\displaystyle \operatorname {Log-{\mathcal {N}}} (\mu ,\,\sigma ^{2})} dans le cas d'une seule variable ou L o g - N ( μ , Σ ) {\displaystyle \operatorname {Log-{\mathcal {N}}} (\mu ,\,\Sigma )} dans un contexte multidimensionnel.
Une variable peut être modélisée par une loi log-normale si elle est le résultat de la multiplication d'un grand nombre de petits facteurs indépendants.
La loi log-normale de paramètres μ {\displaystyle \mu } et σ {\displaystyle \sigma } admet pour densité de probabilité
f X ( x ; μ , σ ) = 1 x σ 2 π exp ( − ( ln x − μ ) 2 2 σ 2 ) = 1 x f Y ( ln ( x ) ; μ , σ ) {\displaystyle f_{X}(x;\mu ,\sigma )={\frac {1}{x\sigma {\sqrt {2\pi }}}}\exp \left(-{\frac {(\ln x-\mu )^{2}}{2\sigma ^{2}}}\right)={\frac {1}{x}}f_{Y}(\ln(x);\mu ,\sigma )}pour x > 0 {\displaystyle x>0} . Les paramètres μ {\displaystyle \mu } et σ {\displaystyle \sigma } sont l'espérance et l'écart type du logarithme de la variable (puisque par définition, le logarithme de la variable est distribué selon une loi normale d'espérance μ {\displaystyle \mu } et d'écart-type σ {\displaystyle \sigma } ).
Par intégration de la fonction de densité, il vient que la fonction de répartition s'exprime en fonction de la fonction d'erreur erf :
F X ( x ; μ , σ ) = 1 2 + 1 2 e r f = F Y ( ln ( x ) ; μ , σ ) . {\displaystyle F_{X}(x;\mu ,\sigma )={\frac {1}{2}}+{\frac {1}{2}}\mathrm {erf} \left=F_{Y}(\ln(x);\mu ,\sigma ).}Tous les moments existent et sont donnés par :
μ k = e k μ + k 2 σ 2 / 2 . {\displaystyle \mu _{k}=\mathrm {e} ^{k\mu +k^{2}\sigma ^{2}/2}.}L'espérance est
E ( X ) = e μ + σ 2 / 2 {\displaystyle \mathrm {E} (X)=\mathrm {e} ^{\mu +\sigma ^{2}/2}}et la variance est
V a r ( X ) = ( e σ 2 − 1 ) e 2 μ + σ 2 . {\displaystyle \mathrm {Var} (X)=(\mathrm {e} ^{\sigma ^{2}}-1)\mathrm {e} ^{2\mu +\sigma ^{2}}.\,}Des relations équivalentes permettent d'obtenir μ {\displaystyle \mu } et σ {\displaystyle \sigma } étant données l'espérance et l'écart-type :
{ μ = ln ( E ( X ) ) − 1 2 σ 2 σ 2 = ln ( 1 + V a r ( X ) ( E ( X ) ) 2 ) {\displaystyle \left\{{\begin{aligned}\mu &=\ln(\mathrm {E} (X))-{\frac {1}{2}}\sigma ^{2}\\\sigma ^{2}&=\ln \left(1+{\frac {\mathrm {Var} (X)}{(\mathrm {E} (X))^{2}}}\right)\end{aligned}}\right.}où Z {\displaystyle Z} est une variable normale quelconque de variance σ 2 ( Z ) {\displaystyle \sigma ^{2}(Z)} .
Pour deux variables log-normales, les relations sont indiquées dans le contexte multidimensionnel ci-dessous.
Il suffit de dériver la densité de la loi log-normale pour vérifier les résultats suivants :
Un vecteur aléatoire X {\displaystyle {\boldsymbol {X}}} est dit suivre une loi log-normale multidimensionnelle de paramètres μ ∈ R N {\displaystyle {\boldsymbol {\mu }}\in \mathbb {R} ^{N}} et Σ ∈ M N ( R ) {\displaystyle {\boldsymbol {\Sigma }}\in {\mathcal {M}}_{N}(\mathbb {R} )} si le vecteur Y = ln ( X ) {\displaystyle {\boldsymbol {Y}}=\ln({\boldsymbol {X}})} (composante par composante) suit une loi normale multidimensionnelle dont le vecteur des espérances est μ {\displaystyle {\boldsymbol {\mu }}} et la matrice de covariance est Σ {\displaystyle {\boldsymbol {\Sigma }}} .
Cette loi est habituellement notée L o g - N ( μ , Σ ) {\displaystyle \operatorname {Log-{\mathcal {N}}} ({\boldsymbol {\mu }},\,{\boldsymbol {\Sigma }})} .
La densité de probabilité et la fonction de répartition sont les suivantes :
Les espérances et covariances sont données par les relations (valables également dans le cas dégénéré) :
Une évaluation de la densité de X {\displaystyle {\boldsymbol {X}}} peut se baser sur la définition informelle de la densité, en exploitant celle de Y {\displaystyle {\boldsymbol {Y}}} (loi normale multidimensionnelle) après avoir effectué le changement de variable
i = exp ( i ) . {\displaystyle _{i}=\exp {\left(_{i}\right)}.}
Les expressions relatives à l’espérance et à la covariance se déduisent de la fonction génératrice des moments de la loi normale multidimensionnelle, soit
A l’aide du même changement de variable, on obtient respectivement
Remarques :
Les relations caractérisant les espérances et les covariances pouvant se déduire de la fonction génératrice des moments de la loi normale multidimensionnelle, la matrice de covariance doit naturellement être semi-définie positive. Ce résultat est ici présenté de manière directe.
Puisque les espérances E ( i ) {\displaystyle \operatorname {E} \left(_{i}\right)} sont strictement positives, Cov ( i , j ) {\displaystyle \operatorname {Cov} \left(_{i},_{j}\right)} est semi-définie positive si et seulement si e Σ i j − 1 {\displaystyle \mathrm {e} ^{{\boldsymbol {\Sigma }}_{ij}}-1} l’est : il suffit alors de considérer uniquement cette dernière matrice. Puisque la positivité de Σ {\displaystyle {\boldsymbol {\Sigma }}} est la seule propriété qui est exploitée, on notera cette matrice A {\displaystyle A} qui ne fait plus référence à une covariance.
Lemme — Soit A {\displaystyle A} une matrice semi-définie positive et p {\displaystyle p} un entier positif. Alors la matrice A ( p ) {\displaystyle A^{(p)}} définie par ( A ( p ) ) i j = ( A i j ) p {\displaystyle (A^{(p)})_{ij}=(A_{ij})^{p}} l’est également.
Proposition 1 — Si A {\displaystyle A} est semi-définie positive, alors C i j = e A i j − 1 {\displaystyle C_{ij}=\mathrm {e} ^{A_{ij}}-1\,} l’est également.
Résultats relatifs au spectre de C {\displaystyle C} indiquant des bornes pour ses valeurs propres :
Proposition 2 — Soit A {\displaystyle A} semi-définie positive et notons
Preuve du Lemme :
Puisque A {\displaystyle A} est diagonalisable, elle peut s’écrire sous la forme A = O D O T {\displaystyle A=ODO^{T}} où O {\displaystyle O} est une matrice orthogonale (dont les colonnes sont les vecteurs propres de A {\displaystyle A} ) et où D {\displaystyle D} est une matrice diagonale dont les coefficients sont précisément les valeurs propres de A {\displaystyle A} .
Supposons par induction sur p {\displaystyle p} que A ( p ) {\displaystyle A^{(p)}} soit positive. Pour tout vecteur x {\displaystyle x} , on peut ainsi écrire
x T A ( p + 1 ) x = ∑ i j ( A i j ) p + 1 x i x j = ∑ i j ( A i j ) p A i j x i x j = ∑ i j k ( A i j ) p ( O i k D k O j k ) x i x j = {\displaystyle x^{T}A^{(p+1)}x=\sum _{ij}(A_{ij})^{p+1}x_{i}x_{j}=\sum _{ij}(A_{ij})^{p}A_{ij}\,x_{i}x_{j}=\sum _{ijk}(A_{ij})^{p}\,(O_{ik}D_{k}O_{jk})\,x_{i}x_{j}=} = ∑ k D k ∑ i j ( A i j ) p ( O i k x i ) ( O j k x j ) = ∑ k D k ( y ( k ) ) T A ( p ) y ( k ) ≥ 0 {\displaystyle =\sum _{k}D_{k}\sum _{ij}(A_{ij})^{p}\,(O_{ik}x_{i})\,(O_{jk}x_{j})=\sum _{k}\,D_{k}\,(y^{(k)})^{T}\,A^{(p)}\,y^{(k)}\geq 0}où y ( k ) {\displaystyle y^{(k)}} est un vecteur défini par y i ( k ) = O i k x i . {\displaystyle y_{i}^{(k)}=O_{ik}\,x_{i}.}
L’inégalité découle de la positivité de A {\displaystyle A} (impliquant D k ≥ 0 {\displaystyle D_{k}\geq 0} ) et de celle de A ( p ) {\displaystyle A^{(p)}} par hypothèse d’induction.
Cette inégalité montre que la positivité se préserve de proche en proche.
Preuve de la Proposition 1 :
Il suffit de remarquer que C {\displaystyle C} est une somme de matrices semi-définies positives par la relation
C = ∑ p ≥ 1 1 p ! A ( p ) . {\displaystyle C=\sum _{p\geq 1}{\frac {1}{p!}}A^{(p)}.}
Preuve de la Proposition 2 :
En repartant de l’égalité du Lemme où x {\displaystyle x} est un vecteur propre de A ( p ) {\displaystyle A^{(p)}} de norme 1 pour la plus petite valeur propre λ − ( p + 1 ) {\displaystyle \lambda _{-}^{(p+1)}} , on en tire
λ − ( p + 1 ) = ∑ k D k ( y ( k ) ) T A ( p ) y ( k ) ≥ λ − ( p ) ∑ k D k ‖ y ( k ) ‖ 2 = λ − ( p ) ∑ i A i i ( x i ) 2 ≥ λ − ( p ) d − . {\displaystyle \lambda _{-}^{(p+1)}=\sum _{k}\,D_{k}\,(y^{(k)})^{T}\,A^{(p)}\,y^{(k)}\geq \lambda _{-}^{(p)}\sum _{k}\,D_{k}\,\left\|y^{(k)}\right\|^{2}=\lambda _{-}^{(p)}\sum _{i}\,A_{ii}\,(x_{i})^{2}\geq \lambda _{-}^{(p)}\,d_{-}.}Le même procédé s’appliquant pour λ + ( p + 1 ) {\displaystyle \lambda _{+}^{(p+1)}} , on en déduit le point 1.
Finalement, il suffit de reprendre le développement de C {\displaystyle C} indiqué dans la preuve de la proposition 1 pour montrer le point 2.
Remarque : au vu des minorations (majorations) brutales (en particulier celles de la seconde inégalité), les bornes obtenues ne sont pas optimales.
Historiquement nommée loi de l'effet proportionnel, puis parfois loi log-normale à 3 paramètres, cette loi est une généralisation de la loi log-normale obtenue par l’ajout d’une simple translation en posant
Y = ln ( X − X 0 ) {\displaystyle Y=\ln(X-X_{0})} .Elle est notée L o g - N ( X 0 , μ , σ 2 ) {\displaystyle \operatorname {Log-{\mathcal {N}}} (X_{0},\,\mu ,\,\sigma ^{2})} et ne concerne que des valeurs X > X 0 . {\displaystyle X>X_{0}.} Son utilisation devrait se limiter aux situations où cette borne inférieure possède un sens physique et dont la valeur est connue.
La loi log-normale est souvent utilisée en analyse quantitative pour représenter les cours des instruments financiers (notamment les actions, cours de change, taux d'intérêt). Avec la loi multidimensionnelle, il est possible d’envisager des modèles susceptibles de considérer différents titres et leurs corrélations, ce qui permet ainsi d’appréhender et de quantifier les risques d'un portefeuille.
Les cours n’étant pas négatifs, il est pertinent d'exprimer leurs variations sous forme relative (en pourcentage) et, en première approximation, les cours sont décrits par une loi log-normale.
D’autre part, une raison plus profonde réside dans l’estimation de la volatilité du cours d’une action qui peut être définie par l’écart-type du rendement :
Si le prix d’une cotation passe de P1 à P2 durant une période d’un jour, le rendement journalier est r = P2 / P1 -1 et, à ce rythme, l’expression continue du rendement R annuel satisfait (T = 365 jours) : e R = ( 1 + r ) T = ( P 2 / P 1 ) T , i e R = T . {\displaystyle \mathrm {e} ^{R}=(1+r)^{T}=(P_{2}/P_{1})^{T},\;ie\;R=T\,.}On voit alors apparaître le lien entre la volatilité σ ( R ) {\displaystyle \sigma (R)} et la variable aléatoire qui affecte le logarithme du cours.