Un article de Wikipédia, l'encyclopédie libre.
Loi normale rectifiée
Paramètres
μ
∈
R
{\displaystyle \mu \in \mathbb {R} }
paramètre de position
σ
>
0
{\displaystyle \sigma >0\,}
paramètre d'échelle
Support
x
∈
[
0
,
+
∞
[
{\displaystyle x\in [0,+\infty [\!}
Densité de probabilité
Φ
(
−
μ
σ
)
δ
(
x
)
+
1
2
π
σ
2
e
−
(
x
−
μ
)
2
2
σ
2
U
(
x
)
.
{\displaystyle \scriptstyle \Phi (-{\frac {\mu }{\sigma }})\delta (x)+{\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\mathrm {e} ^{-{\frac {(x-\mu )^{2}}{2\sigma ^{2}}}}{\textrm {U}}(x).}
modifier
En théorie des probabilités et en statistique , la loi normale rectifiée est une modification de la loi normale lorsque ses valeurs négatives sont « remises à » 0. C'est une loi mixte issue d'un mélange entre une loi de probabilité discrète (mesure de Dirac en 0) et une loi de probabilité à densité (loi normale tronquée sur
]
0
,
∞
[
{\displaystyle \scriptstyle ]0,\infty [}
).
Une variable aléatoire qui suit une loi normale rectifiée est notée :
X
∼
N
R
(
μ
,
σ
2
)
{\displaystyle X\sim {\mathcal {N}}^{\textrm {R}}(\mu ,\sigma ^{2})}
.
La densité de probabilité d'une loi normale rectifiée est donnée par
f
(
x
;
μ
,
σ
2
)
=
Φ
(
−
μ
σ
)
δ
(
x
)
+
1
2
π
σ
2
e
−
(
x
−
μ
)
2
2
σ
2
U
(
x
)
.
{\displaystyle f(x;\mu ,\sigma ^{2})=\Phi (-{\frac {\mu }{\sigma }})\delta (x)+{\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\;\mathrm {e} ^{-{\frac {(x-\mu )^{2}}{2\sigma ^{2}}}}{\textrm {U}}(x).}
Comparaison d'une loi normale, d'une loi normale rectifiée et d'une loi normale tronquée.
Ici,
Φ
{\displaystyle \Phi }
est la fonction de répartition de la loi normale :
Φ
(
x
)
=
1
2
π
∫
−
∞
x
e
−
t
2
/
2
d
t
x
∈
R
,
{\displaystyle \Phi (x)={\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{x}\mathrm {e} ^{-t^{2}/2}\,\mathrm {d} t\quad x\in \mathbb {R} ,}
δ
{\displaystyle \delta }
est la distribution de Dirac :
δ
(
x
)
=
{
∞
,
x
=
0
0
,
x
≠
0
{\displaystyle \delta (x)={\begin{cases}\infty ,&x=0\\0,&x\neq 0\end{cases}}}
et,
U
{\displaystyle {\textrm {U}}}
est la fonction de Heaviside :
U
(
x
)
=
{
0
,
x
≤
0
,
1
,
x
>
0.
{\displaystyle {\textrm {U}}(x)={\begin{cases}0,&x\leq 0,\\1,&x>0.\end{cases}}}
Une alternative simple est de considérer le cas où
S
∼
N
(
μ
,
σ
2
)
,
X
=
max
(
0
,
S
)
,
{\displaystyle S\sim {\mathcal {N}}(\mu ,\sigma ^{2}),X=\max(0,S),}
alors,
X
∼
N
R
(
μ
,
σ
2
)
{\displaystyle X\sim {\mathcal {N}}^{\textrm {R}}(\mu ,\sigma ^{2})}
(en) Maxime Beauchamp, « On numerical computation for the distribution of the convolution of N independent rectified Gaussian variables », Journal de la Société Française de Statistique , vol. 159, no 1, 2018 (lire en ligne )