Función gaussiana
e
−
x
2
{\displaystyle e^{-x^{2}}}
. El área encerrada bajo esa curva con el eje x es
∫
−
∞
∞
e
−
x
2
d
x
=
π
{\textstyle \int _{-\infty }^{\infty }e^{-x^{2}}\,dx={\sqrt {\pi }}}
.
En matemáticas , la integral de Gauss , integral gaussiana o integral de probabilidad , es la integral impropia de la función gaussiana
f
(
x
)
=
e
−
x
2
{\displaystyle f(x)=e^{{-x}^{2}}}
sobre toda la recta de los números reales. Debe su nombre al matemático y físico alemán Carl Friedrich Gauss , y su valor es:
∫
−
∞
∞
e
−
x
2
d
x
=
π
{\displaystyle \int _{-\infty }^{\infty }e^{-x^{2}}\,dx={\sqrt {\pi }}}
Esta integral tiene amplias aplicaciones, incluyendo normalización , en teoría de la probabilidad y transformada continua de Fourier . También aparece en la definición de la función error . No existe ninguna función elemental para la función error, como se puede demostrar mediante el algoritmo de Risch , por lo que la integral Gaussiana no puede ser resuelta analíticamente con las herramientas del cálculo. O sea, no existe una integral indefinida elemental para
∫
e
−
x
2
d
x
{\displaystyle \int e^{-x^{2}}\,dx}
pero sí es posible evaluar la integral definida
∫
−
∞
∞
e
−
x
2
d
x
{\displaystyle \int _{-\infty }^{\infty }e^{-x^{2}}\,dx}
.
Cálculo de la Integral[ editar ]
La forma más común de calcular la integral de Gauss es mediante integración doble en el sistema cartesiano de coordenadas , para después hacer un cambio de coordenadas a coordenadas polares y calcular el valor. Se procede de la siguiente manera:
Se define
I
=
∫
−
∞
∞
e
−
x
2
d
x
{\displaystyle {\mathcal {I}}=\int _{-\infty }^{\infty }e^{-x^{2}}dx}
como la integral que queremos calcular. Podemos definir
I
2
{\displaystyle {\mathcal {I}}^{2}}
como el producto de la integral
I
{\displaystyle {\mathcal {I}}}
con ella misma y mediante el Teorema de Fubini podemos expresar la integral como
I
2
=
(
∫
−
∞
∞
e
−
x
2
d
x
)
2
=
∫
−
∞
∞
e
−
x
2
d
x
⋅
∫
−
∞
∞
e
−
y
2
d
y
=
∫
−
∞
∞
(
∫
−
∞
∞
e
−
x
2
d
x
)
e
−
y
2
d
y
=
∫
−
∞
∞
(
∫
−
∞
∞
e
−
(
x
2
+
y
2
)
d
x
)
d
y
=
∫
−
∞
∞
∫
−
∞
∞
e
−
(
x
2
+
y
2
)
d
x
d
y
=
∬
R
2
e
−
(
x
2
+
y
2
)
d
x
d
y
.
{\displaystyle {\begin{aligned}{\mathcal {I}}^{2}&={\Biggl (}\int _{-\infty }^{\infty }e^{-x^{2}}dx{\Biggr )}^{2}\\&=\int _{-\infty }^{\infty }e^{-x^{2}}dx\cdot \int _{-\infty }^{\infty }e^{-y^{2}}dy\\&=\int _{-\infty }^{\infty }{\Biggl (}\int _{-\infty }^{\infty }e^{-x^{2}}dx{\Biggr )}e^{-y^{2}}dy\\&=\int _{-\infty }^{\infty }{\Biggl (}\int _{-\infty }^{\infty }e^{-(x^{2}+y^{2})}dx{\Biggr )}dy\\&=\int _{-\infty }^{\infty }\int _{-\infty }^{\infty }e^{-(x^{2}+y^{2})}dxdy\\&=\iint _{\mathbb {R} ^{2}}e^{-(x^{2}+y^{2})}dxdy.\end{aligned}}}
Procedemos a realizar un cambio de variables a coordenadas a polares:
∬
R
2
e
−
(
x
2
+
y
2
)
d
x
d
y
=
∫
0
2
π
∫
0
∞
r
e
−
r
2
d
r
d
θ
=
∫
0
2
π
d
θ
∫
0
∞
r
e
−
r
2
d
r
=
2
π
∫
0
∞
r
e
−
r
2
d
r
=
2
π
∫
−
∞
0
1
2
e
s
d
s
=
π
∫
−
∞
0
e
s
d
s
=
π
(
e
0
−
e
−
∞
)
=
π
(
1
−
0
)
=
π
{\displaystyle {\begin{aligned}\iint _{\mathbb {R} ^{2}}e^{-(x^{2}+y^{2})}\,dxdy&=\int _{0}^{2\pi }\int _{0}^{\infty }re^{-r^{2}}drd\theta \\&=\int _{0}^{2\pi }d\theta \int _{0}^{\infty }re^{-r^{2}}dr\\&=2\pi \int _{0}^{\infty }re^{-r^{2}}dr\\&=2\pi \int _{-\infty }^{0}{\frac {1}{2}}e^{s}ds\\&=\pi \int _{-\infty }^{0}e^{s}\,ds\\&=\pi (e^{0}-e^{-\infty })\\&=\pi (1-0)\\&=\pi \end{aligned}}}
donde el factor
r
{\displaystyle r}
es consecuencia de calcular el determinante del cambio de variable de coordenadas cartesianas a polares, y
s
{\displaystyle s}
aparece al hacer un cambio de variable tal que
s
=
−
r
2
{\displaystyle s=-r^{2}}
,
d
s
=
−
2
r
d
r
{\displaystyle ds=-2rdr}
. Así obtenemos
I
2
=
(
∫
−
∞
∞
e
−
x
2
d
x
)
2
=
∬
R
2
e
−
(
x
2
+
y
2
)
d
x
d
y
=
π
{\displaystyle {\mathcal {I}}^{2}=\left(\int _{-\infty }^{\infty }e^{-x^{2}}\,dx\right)^{2}=\iint _{\mathbb {R} ^{2}}e^{-(x^{2}+y^{2})}\,dx\,dy=\pi }
por lo tanto
I
=
∫
−
∞
∞
e
−
x
2
d
x
=
π
{\displaystyle {\mathcal {I}}=\int _{-\infty }^{\infty }e^{-x^{2}}\,dx={\sqrt {\pi }}}
Coordenadas Cartesianas [ editar ]
Una técnica diferente para calcular el valor de la integral gaussiana es la siguiente.
Comencemos definiendo
I
=
∫
−
∞
∞
e
−
x
2
d
x
{\displaystyle {\mathcal {I}}=\int _{-\infty }^{\infty }e^{-x^{2}}dx}
por lo que
I
2
=
(
∫
−
∞
∞
e
−
x
2
d
x
)
2
{\displaystyle {\mathcal {I}}^{2}=\left(\int _{-\infty }^{\infty }e^{-x^{2}}dx\right)^{2}}
Notemos que el integrando, es decir
f
(
x
)
=
e
−
x
2
{\displaystyle f(x)=e^{-x^{2}}}
, es una función par por lo que
∫
−
∞
∞
e
−
x
2
d
x
=
2
∫
0
∞
e
−
x
2
d
x
{\displaystyle \int _{-\infty }^{\infty }e^{-x^{2}}dx=2\int _{0}^{\infty }e^{-x^{2}}dx}
entonces
I
2
=
4
∫
0
∞
∫
0
∞
e
−
(
x
2
+
y
2
)
d
y
d
x
{\displaystyle {\mathcal {I}}^{2}=4\int _{0}^{\infty }\int _{0}^{\infty }e^{-(x^{2}+y^{2})}dydx}
Sea
y
=
x
s
d
y
=
x
d
s
{\displaystyle {\begin{aligned}y&=xs\\dy&=xds\end{aligned}}}
entonces
I
2
=
4
∫
0
∞
∫
0
∞
e
−
(
x
2
+
y
2
)
d
y
d
x
=
4
∫
0
∞
∫
0
∞
e
−
(
x
2
+
x
2
s
2
)
x
d
s
d
x
=
4
∫
0
∞
∫
0
∞
e
−
x
2
(
1
+
s
2
)
x
d
s
d
x
=
4
∫
0
∞
∫
0
∞
e
−
x
2
(
1
+
s
2
)
x
d
x
d
s
=
4
∫
0
∞
[
−
1
2
(
1
+
s
2
)
e
−
x
2
(
1
+
s
2
)
|
x
=
0
x
=
∞
]
d
s
=
4
[
1
2
∫
0
∞
d
s
1
+
s
2
]
=
2
arctan
s
|
0
∞
=
π
{\displaystyle {\begin{aligned}{\mathcal {I}}^{2}&=4\int _{0}^{\infty }\int _{0}^{\infty }e^{-(x^{2}+y^{2})}dydx\\&=4\int _{0}^{\infty }\int _{0}^{\infty }e^{-(x^{2}+x^{2}s^{2})}xdsdx\\&=4\int _{0}^{\infty }\int _{0}^{\infty }e^{-x^{2}(1+s^{2})}xdsdx\\&=4\int _{0}^{\infty }\int _{0}^{\infty }e^{-x^{2}(1+s^{2})}xdxds\\&=4\int _{0}^{\infty }\left[\left.{\frac {-1}{2(1+s^{2})}}e^{-x^{2}(1+s^{2})}\right|_{x=0}^{x=\infty }\right]ds\\&=4\left[{\frac {1}{2}}\int _{0}^{\infty }{\frac {ds}{1+s^{2}}}\right]\\&=2\arctan s{\bigg |}_{0}^{\infty }\\&=\pi \end{aligned}}}
Por lo tanto
I
=
∫
−
∞
∞
e
−
x
2
d
x
=
π
{\displaystyle {\mathcal {I}}=\int _{-\infty }^{\infty }e^{-x^{2}}dx={\sqrt {\pi }}}
Relación con la función Gamma[ editar ]
La función gamma está dada por
Γ
(
α
)
=
∫
0
∞
t
α
−
1
e
−
t
d
t
{\displaystyle \Gamma (\alpha )=\int _{0}^{\infty }t^{\alpha -1}e^{-t}dt}
y un resultado destacado de esta función es cuando
α
=
1
/
2
{\displaystyle \alpha =1/2}
pues
Γ
(
1
2
)
=
π
{\displaystyle \Gamma \left({\frac {1}{2}}\right)={\sqrt {\pi }}}
considerando este resultado veamos qué relación tiene con la integral gaussiana, comencemos considerando que
∫
−
∞
∞
e
−
x
2
d
x
=
2
∫
0
∞
e
−
x
2
d
x
{\displaystyle \int _{-\infty }^{\infty }e^{-x^{2}}dx=2\int _{0}^{\infty }e^{-x^{2}}dx}
pues
f
(
x
)
=
e
−
x
2
{\displaystyle f(x)=e^{-x^{2}}}
una función par .
Al hacer el cambio de variable
t
=
x
2
{\displaystyle t=x^{2}}
obtenemos
x
=
t
1
/
2
d
x
=
1
2
t
−
1
/
2
d
t
{\displaystyle {\begin{aligned}x&=t^{1/2}\\dx&={\frac {1}{2}}t^{-1/2}dt\end{aligned}}}
entonces
∫
−
∞
∞
e
−
x
2
d
x
=
2
∫
0
∞
e
−
x
2
d
x
=
2
∫
0
∞
e
−
t
(
1
2
t
−
1
/
2
)
d
t
=
∫
0
∞
e
−
t
t
−
1
/
2
d
t
=
∫
0
∞
t
(
1
−
1
2
)
−
1
e
−
t
d
t
=
Γ
(
1
−
1
2
)
=
Γ
(
1
2
)
=
π
{\displaystyle {\begin{aligned}\int _{-\infty }^{\infty }e^{-x^{2}}dx&=2\int _{0}^{\infty }e^{-x^{2}}dx\\&=2\int _{0}^{\infty }e^{-t}\left({\frac {1}{2}}t^{-1/2}\right)dt\\&=\int _{0}^{\infty }e^{-t}t^{-1/2}dt\\&=\int _{0}^{\infty }t^{\left(1-{\frac {1}{2}}\right)-1}e^{-t}dt\\&=\Gamma \left(1-{\frac {1}{2}}\right)\\&=\Gamma \left({\frac {1}{2}}\right)\\&={\sqrt {\pi }}\end{aligned}}}
Esto muestra por qué el factorial de la mitad de un entero es un número irracional múltiplo de
π
{\displaystyle {\sqrt {\pi }}}
, más generalmente
∫
0
∞
e
−
a
x
b
d
x
=
1
b
⋅
a
1
b
Γ
(
1
b
)
.
{\displaystyle \int _{0}^{\infty }e^{-ax^{b}}dx={\frac {1}{b\cdot a^{\frac {1}{b}}}}\,\Gamma \left({\frac {1}{b}}\right).}
Integral de una función gaussiana[ editar ]
La integral de una función Gaussiana arbitraria es
∫
−
∞
∞
e
−
a
(
x
+
b
)
2
d
x
=
π
a
{\displaystyle \int _{-\infty }^{\infty }e^{-a(x+b)^{2}}dx={\sqrt {\frac {\pi }{a}}}}
con
a
,
b
∈
R
{\displaystyle a,b\in \mathbb {R} }
. Una forma alternativa es
∫
−
∞
∞
e
−
a
x
2
+
b
x
+
c
d
x
=
π
a
e
b
2
4
a
+
c
{\displaystyle \int _{-\infty }^{\infty }e^{-ax^{2}+bx+c}\,dx={\sqrt {\frac {\pi }{a}}}e^{{\frac {b^{2}}{4a}}+c}}
Esta expresión es útil para calcular momentos de algunas distribuciones de probabilidad continuas relacionadas con la distribución normal , como la distribución log-normal .
∫
0
∞
x
2
n
e
−
x
2
a
2
d
x
=
π
a
2
n
+
1
(
2
n
−
1
)
!
!
2
n
+
1
∫
0
∞
x
2
n
+
1
e
−
x
2
a
2
d
x
=
n
!
2
a
2
n
+
2
∫
0
∞
x
2
n
e
−
a
x
2
d
x
=
(
2
n
−
1
)
!
!
a
n
2
n
+
1
π
a
∫
0
∞
x
2
n
+
1
e
−
a
x
2
d
x
=
n
!
2
a
n
+
1
{\displaystyle {\begin{aligned}&\int _{0}^{\infty }x^{2n}e^{-{\frac {x^{2}}{a^{2}}}}dx={\sqrt {\pi }}\;{\frac {a^{2n+1}(2n-1)!!}{2^{n+1}}}\\&\int _{0}^{\infty }x^{2n+1}e^{-{\frac {x^{2}}{a^{2}}}}dx={\frac {n!}{2}}\;a^{2n+2}\\&\int _{0}^{\infty }x^{2n}e^{-ax^{2}}dx={\frac {(2n-1)!!}{a^{n}2^{n+1}}}{\sqrt {\frac {\pi }{a}}}\\&\int _{0}^{\infty }x^{2n+1}e^{-ax^{2}}dx={\frac {n!}{2a^{n+1}}}\end{aligned}}}
donde
n
{\displaystyle n}
es un entero positivo y
!
!
{\displaystyle !!}
denota el doble factorial .