Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1 Historia
2 Definición formal
2.1 Límite inferior y superior estrictos para la función de distribución
2.2 Funciones generatrices
2.2.1 Función generatriz de momentos
2.2.2 Función característica
3 Propiedades
3.1 Estandarización de variables aleatorias normales
3.2 Momentos
3.3 El Teorema del Límite Central
3.4 Divisibilidad infinita
3.5 Estabilidad
4 Desviación típica e intervalos de confianza
4.1 Forma familia exponencial
5 Distribución normal compleja
6 Distribuciones relacionadas
7 Estadística descriptiva e inferencial
7.1 Resultados
7.2 Tests de normalidad
7.3 Estimación de parámetros
7.3.1 Estimación de parámetros de máxima verosimilitud
7.3.1.1 Sorprendente generalización
7.3.2 Estimación insesgada de parámetros
8 Incidencia
8.1 Recuento de fotones
8.2 Medida de errores
8.3 Características físicas de especímenes biológicos
8.4 Variables financieras
8.5 Distribuciones en tests de inteligencia
8.6 Ecuación de difusión
8.7 Hidrología
9 Uso en estadística computacional
9.1 Generación de valores para una variable aleatoria normal
9.2 Aproximaciones numéricas de la distribución normal y su función de
distribución
10 Véase también
11 Referencias
12 Enlaces externos
12.1 Ajuste por software de una distribución de probabilidad a un conjunto
de datos
Historia
Abraham de Moivre, primero en descubrir la distribución normal
La distribución normal fue presentada por primera vez por Abraham de Moivre en un
artículo del año 1733,5 que fue reimpreso en la segunda edición de su The Doctrine
of Chances, de 1738, en el contexto de cierta aproximación de la distribución
binomial para grandes valores de n. Su resultado fue ampliado por Laplace en su
libro Teoría analítica de las probabilidades (1812), y en la actualidad se llama
Teorema de De Moivre-Laplace.
El nombre de "campana" viene de Esprit Jouffret que usó el término "bell surface"
(superficie campana) por primera vez en 1872 para una distribución normal
bivariante de componentes independientes. El nombre de "distribución normal" fue
otorgado independientemente por Charles S. Peirce, Francis Galton y Wilhelm Lexis
hacia 1875.[cita requerida] A pesar de esta terminología, otras distribuciones de
probabilidad podrían ser más apropiadas en determinados contextos; véase la
discusión sobre incidencia, más abajo.
Definición formal
Φ μ , σ 2 ( x ) = ∫ − ∞ x φ μ , σ 2 ( u ) d u = 1 σ 2 π ∫ − ∞ x e − ( u − μ ) 2
2 σ 2 d u , x ∈ R . {\displaystyle {\begin{aligned}\Phi _{\mu ,\sigma ^{2}}
(x)&{}=\int _{-\infty }^{x}\varphi _{\mu ,\sigma ^{2}}(u)\,du\\&{}={\frac {1}
{\sigma {\sqrt {2\pi }}}}\int _{-\infty }^{x}e^{-{\frac {(u-\mu )^{2}}{2\sigma
^{2}}}}\,du,\quad x\in \mathbb {R} .\\\end{aligned}}} {\displaystyle
{\begin{aligned}\Phi _{\mu ,\sigma ^{2}}(x)&{}=\int _{-\infty }^{x}\varphi
_{\mu ,\sigma ^{2}}(u)\,du\\&{}={\frac {1}{\sigma {\sqrt {2\pi }}}}\int _{-\infty }
^{x}e^{-{\frac {(u-\mu )^{2}}{2\sigma ^{2}}}}\,du,\quad x\in \mathbb {R}
.\\\end{aligned}}}
donde:
ϕ μ , σ 2 ( x ) = 1 σ 2 π e − ( x − μ ) 2 2 σ 2 , x ∈ R . {\displaystyle
{\begin{aligned}\phi _{\mu ,\sigma ^{2}}(x)&{}={\frac {1}{\sigma {\sqrt
{2\pi }}}}e^{-{\frac {(x-\mu )^{2}}{2\sigma ^{2}}}},\quad x\in \mathbb {R}
.\\\end{aligned}}} {\displaystyle {\begin{aligned}\phi _{\mu ,\sigma ^{2}}
(x)&{}={\frac {1}{\sigma {\sqrt {2\pi }}}}e^{-{\frac {(x-\mu )^{2}}{2\sigma
^{2}}}},\quad x\in \mathbb {R} .\\\end{aligned}}}
Φ ( x ) = Φ 0 , 1 ( x ) = 1 2 π ∫ − ∞ x e − u 2 2 d u , x ∈ R .
{\displaystyle \Phi (x)=\Phi _{0,1}(x)={\frac {1}{\sqrt {2\pi }}}\int _{-\infty }
^{x}e^{-{\frac {u^{2}}{2}}}\,du,\quad x\in \mathbb {R} .} \Phi(x) = \Phi_{0,1}(x) =
\frac{1}{\sqrt{2\pi}} \int_{-\infty}^x e^{-\frac{u^2}{2}} \, du, \quad
x\in\mathbb{R}.
Φ μ , σ 2 − 1 ( p ) = μ + σ Φ − 1 ( p ) = μ + σ 2 erf − 1 ( 2 p − 1 ) , p ∈
( 0 , 1 ) . {\displaystyle \Phi _{\mu ,\sigma ^{2}}^{-1}(p)=\mu +\sigma \Phi ^{-1}
(p)=\mu +\sigma {\sqrt {2}}\;\operatorname {erf} ^{-1}(2p-1),\quad p\in (0,1).}
\Phi_{\mu,\sigma^2}^{-1}(p) = \mu + \sigma\Phi^{-1}(p) = \mu + \sigma\sqrt2 \;
\operatorname{erf}^{-1}(2p - 1), \quad p\in(0,1).
Esta función cuantil se llama a veces la función probit. No hay una primitiva
elemental para la función probit. Esto no quiere decir meramente que no se conoce,
sino que se ha probado la inexistencia de tal función. Existen varios métodos
exactos para aproximar la función cuantil mediante la distribución normal (véase
función cuantil).
Los valores Φ(x) pueden aproximarse con mucha precisión por distintos métodos,
tales como integración numérica, series de Taylor, series asintóticas y fracciones
continuas.
Límite inferior y superior estrictos para la función de distribución
1 − Φ ( x ) = ∫ x ∞ φ ( u ) d u < ∫ x ∞ u x φ ( u ) d u = ∫ x 2 / 2 ∞ e − v x 2
π d v = − e − v x 2 π | x 2 / 2 ∞ = φ ( x ) x . {\displaystyle
{\begin{aligned}1-\Phi (x)&=\int _{x}^{\infty }\varphi (u)\,du\\&<\int _{x}^{\infty
}{\frac {u}{x}}\varphi (u)\,du=\int _{x^{2}/2}^{\infty }{\frac {e^{-v}}{x{\sqrt
{2\pi }}}}\,dv=-{\biggl .}{\frac {e^{-v}}{x{\sqrt {2\pi }}}}{\biggr
|}_{x^{2}/2}^{\infty }={\frac {\varphi (x)}{x}}.\end{aligned}}} \begin{align}
1-\Phi(x) &=\int_x^\infty\varphi(u)\,du\\ &<\int_x^\infty\frac ux\varphi(u)\,du
=\int_{x^2/2}^\infty\frac{e^{-v}}{x\sqrt{2\pi}}\,dv =-\biggl.\frac{e^{-v}}
{x\sqrt{2\pi}}\biggr|_{x^2/2}^\infty =\frac{\varphi(x)}{x}. \end{align}
( 1 + 1 x 2 ) ( 1 − Φ ( x ) ) = ( 1 + 1 x 2 ) ∫ x ∞ φ ( u ) d u = ∫ x ∞ ( 1 + 1
x 2 ) φ ( u ) d u > ∫ x ∞ ( 1 + 1 u 2 ) φ ( u ) d u = − φ ( u ) u | x ∞ = φ ( x ) x
. {\displaystyle {\begin{aligned}{\Bigl (}1+{\frac {1}{x^{2}}}{\Bigr )}(1-\Phi
(x))&={\Bigl (}1+{\frac {1}{x^{2}}}{\Bigr )}\int _{x}^{\infty }\varphi
(u)\,du\\&=\int _{x}^{\infty }{\Bigl (}1+{\frac {1}{x^{2}}}{\Bigr )}\varphi
(u)\,du\\&>\int _{x}^{\infty }{\Bigl (}1+{\frac {1}{u^{2}}}{\Bigr )}\varphi
(u)\,du=-{\biggl .}{\frac {\varphi (u)}{u}}{\biggr |}_{x}^{\infty }={\frac {\varphi
(x)}{x}}.\end{aligned}}} \begin{align} \Bigl(1+\frac1{x^2}\Bigr)
(1-\Phi(x))&=\Bigl(1+\frac1{x^2}\Bigr)\int_x^\infty\varphi(u)\,du\\ &=\int_x^\infty
\Bigl(1+\frac1{x^2}\Bigr)\varphi(u)\,du\\ &>\int_x^\infty
\Bigl(1+\frac1{u^2}\Bigr)\varphi(u)\,du =-\biggl.\frac{\varphi(u)}u\biggr|_x^\infty
=\frac{\varphi(x)}x. \end{align}
M X ( t ) = E [ e t X ] = ∫ − ∞ ∞ 1 σ 2 π e − ( x − μ ) 2 2 σ 2 e t x d x = e μ
t + σ 2 t 2 2 {\displaystyle M_{X}(t)=\mathrm {E} \left[e^{tX}\right]=\int
_{-\infty }^{\infty }{\frac {1}{\sigma {\sqrt {2\pi }}}}e^{-{\frac {(x-\mu )^{2}}
{2\sigma ^{2}}}}e^{tx}\,dx=e^{\mu t+{\frac {\sigma ^{2}t^{2}}{2}}}} M_X(t) =
\mathrm{E} \left[ e^{tX} \right] = \int_{-\infty}^{\infty} \frac{1}{\sigma
\sqrt{2\pi} } e^{-\frac{(x - \mu)^2}{2 \sigma^2}} e^{tx} \, dx = e^{\mu t +
\frac{\sigma^2 t^2}{2}}
Función característica
χ X ( t ; μ , σ ) = M X ( i t ) = E [ e i t X ] = ∫ − ∞ ∞ 1 σ 2 π e − ( x − μ )
2 2 σ 2 e i t x d x = e i μ t − σ 2 t 2 2 . {\displaystyle {\begin{aligned}\chi
_{X}(t;\mu ,\sigma )&{}=M_{X}(it)=\mathrm {E} \left[e^{itX}\right]\\&{}=\int
_{-\infty }^{\infty }{\frac {1}{\sigma {\sqrt {2\pi }}}}e^{-{\frac {(x-\mu )^{2}}
{2\sigma ^{2}}}}e^{itx}\,dx\\&{}=e^{i\mu t-{\frac {\sigma ^{2}t^{2}}
{2}}}.\end{aligned}}} \begin{align} \chi_X(t;\mu,\sigma) &{} = M_X(i t) =
\mathrm{E} \left[ e^{i t X} \right] \\ &{}= \int_{-\infty}^{\infty} \frac{1}{\sigma
\sqrt{2\pi}} e^{- \frac{(x - \mu)^2}{2\sigma^2}} e^{i t x} \, dx \\ &{}= e^{i \mu t
- \frac{\sigma^2 t^2}{2}}. \end{align}
Propiedades
p ( z ) = 1 π σ X σ Y K 0 ( | z | σ X σ Y ) , {\displaystyle
p(z)={\frac {1}{\pi \,\sigma _{X}\,\sigma _{Y}}}\;K_{0}\left({\frac {|z|}{\sigma
_{X}\,\sigma _{Y}}}\right),} p(z) = \frac{1}{\pi\,\sigma_X\,\sigma_Y} \;
K_0\left(\frac{|z|}{\sigma_X\,\sigma_Y}\right), donde K 0 {\displaystyle K_{0}\,}
K_0\, es una función de Bessel modificada de segundo tipo.
Pr ( X ≤ x ) = Φ ( x − μ σ ) = 1 2 ( 1 + erf ( x − μ σ 2 ) ) .
{\displaystyle \Pr(X\leq x)=\Phi \left({\frac {x-\mu }{\sigma }}\right)={\frac {1}
{2}}\left(1+\operatorname {erf} \left({\frac {x-\mu }{\sigma {\sqrt
{2}}}}\right)\right).} \Pr(X \le x) = \Phi \left( \frac{x-\mu}{\sigma} \right) =
\frac{1}{2} \left( 1 + \operatorname{erf} \left( \frac{x-\mu}{\sigma\sqrt{2}}
\right) \right) .
Todos los cumulantes de la distribución normal, más allá del segundo, son cero.
Los momentos centrales de orden superior (2k con μ = 0) vienen dados por la fórmula
E [ X 2 k ] = ( 2 k ) ! 2 k k ! σ 2 k . {\displaystyle
E\left[X^{2k}\right]={\frac {(2k)!}{2^{k}k!}}\sigma ^{2k}.}
E\left[X^{2k}\right]=\frac{(2k)!}{2^k k!} \sigma^{2k}.
El Teorema del límite central establece que bajo ciertas condiciones (como pueden
ser independientes e idénticamente distribuidas con varianza finita), la suma de un
gran número de variables aleatorias se distribuye aproximadamente como una normal.
Alrededor del 68 % de los valores de una distribución normal están a una distancia
σ < 1 (desviación típica) de la media, μ; alrededor del 95 % de los valores están a
dos desviaciones típicas de la media y alrededor del 99,7 % están a tres
desviaciones típicas de la media. Esto se conoce como la "regla 68-95-99,7" o la
"regla empírica".
Φ μ , σ 2 ( μ + n σ ) − Φ μ , σ 2 ( μ − n σ ) = Φ ( n ) − Φ ( − n ) = 2 Φ ( n )
− 1 = e r f ( n / 2 ) , {\displaystyle {\begin{aligned}&\Phi _{\mu ,\sigma ^{2}}
(\mu +n\sigma )-\Phi _{\mu ,\sigma ^{2}}(\mu -n\sigma )\\&=\Phi (n)-\Phi (-n)=2\Phi
(n)-1=\mathrm {erf} {\bigl (}n/{\sqrt {2}}\,{\bigr )},\end{aligned}}}
\begin{align}&\Phi_{\mu,\sigma^2}(\mu+n\sigma)-\Phi_{\mu,\sigma^2}(\mu-n\sigma)\\
&=\Phi(n)-\Phi(-n)=2\Phi(n)-1=\mathrm{erf}\bigl(n/\sqrt{2}\,\bigr),\end{align}
donde erf es la función error. Los valores (con 12 decimales) para n=1, 2, ..., 6
son:
n {\displaystyle n\,} n\, e r f ( n / 2 ) {\displaystyle \mathrm {erf} {\bigl
(}n/{\sqrt {2}}\,{\bigr )}\,} \mathrm{erf}\bigl(n/\sqrt{2}\,\bigr)\,
1 0,682689492137
2 0,954499736104
3 0,997300203937
4 0,999936657516
5 0,999999426697
6 0,999999998027
Distribuciones relacionadas
Prueba de Kolmogórov-Smirnov
Test de Lilliefors
Test de Anderson–Darling
Test de Ryan–Joiner
Test de Shapiro–Wilk
Normal probability plot (rankit plot)
Test de Jarque–Bera
Test ómnibus de Spiegelhalter
Estimación de parámetros
Estimación de parámetros de máxima verosimilitud
Véase también: Máxima verosimilitud
Supóngase que
son independientes y cada una está normalmente distribuida con media μ y varianza σ
2 > 0. En términos estadísticos los valores observados de estas n variables
aleatorias constituyen una "muestra de tamaño n de una población normalmente
distribuida. Se desea estimar la media poblacional μ y la desviación típica
poblacional σ, basándose en las valores observados de esta muestra. La función de
densidad conjunta de estas n variables aleatorias independientes es
f ( x 1 , … , x n ; μ , σ ) = ∏ i = 1 n φ μ , σ 2 ( x i ) = 1 ( σ 2 π ) n ∏ i =
1 n exp ( − 1 2 ( x i − μ σ ) 2 ) , ( x 1 , … , x n ) ∈ R n . {\displaystyle
{\begin{aligned}f(x_{1},\dots ,x_{n};\mu ,\sigma )&=\prod _{i=1}^{n}\varphi
_{\mu ,\sigma ^{2}}(x_{i})\\&={\frac {1}{(\sigma {\sqrt {2\pi }})^{n}}}\prod
_{i=1}^{n}\exp {\biggl (}-{1 \over 2}{\Bigl (}{x_{i}-\mu \over \sigma }
{\Bigr )}^{2}{\biggr )},\quad (x_{1},\ldots ,x_{n})\in \mathbb {R}
^{n}.\end{aligned}}} \begin{align}f(x_1,\dots,x_n;\mu,\sigma) &= \prod_{i=1}^n
\varphi_{\mu,\sigma^2}(x_i)\\ &=\frac1{(\sigma\sqrt{2\pi})^n}\prod_{i=1}^n
\exp\biggl(-{1 \over 2} \Bigl({x_i-\mu \over \sigma}\Bigr)^2\biggr),
\quad(x_1,\ldots,x_n)\in\mathbb{R}^n. \end{align}
L ( μ , σ ) = C σ n exp ( − ∑ i = 1 n ( X i − μ ) 2 2 σ 2 ) , μ ∈ R , σ >
0 , {\displaystyle L(\mu ,\sigma )={\frac {C}{\sigma ^{n}}}\exp \left(-{\sum
_{i=1}^{n}(X_{i}-\mu )^{2} \over 2\sigma ^{2}}\right),\quad \mu \in \mathbb
{R} ,\ \sigma >0,} L(\mu,\sigma) = \frac C{\sigma^n} \exp\left(-{\sum_{i=1}^n
(X_i-\mu)^2 \over 2\sigma^2}\right), \quad\mu\in\mathbb{R},\ \sigma>0,
con alguna constante C > 0 (de la cual, en general, se permitiría incluso que
dependiera de X1, ..., Xn, aunque desapareciera con las derivadas parciales de la
función de log-verosimilitud respecto a los parámetros tenidos en cuenta, véase más
abajo).
∑ i = 1 n ( X i − μ ) 2 = ∑ i = 1 n ( ( X i − X ¯ n ) + ( X ¯ n − μ ) ) 2 = ∑ i
= 1 n ( X i − X ¯ n ) 2 + 2 ( X ¯ n − μ ) ∑ i = 1 n ( X i − X ¯ n ) ⏟ = 0 + ∑ i = 1
n ( X ¯ n − μ ) 2 = ∑ i = 1 n ( X i − X ¯ n ) 2 + n ( X ¯ n − μ ) 2 .
{\displaystyle {\begin{aligned}\sum _{i=1}^{n}(X_{i}-\mu )^{2}&=\sum _{i=1}^{n}
{\bigl (}(X_{i}-{\overline {X}}_{n})+({\overline {X}}_{n}-\mu )
{\bigr )}^{2}\\&=\sum _{i=1}^{n}(X_{i}-{\overline {X}}_{n})^{2}+2({\overline
{X}}_{n}-\mu )\underbrace {\sum _{i=1}^{n}(X_{i}-{\overline {X}}_{n})} _{=\,0}+\sum
_{i=1}^{n}({\overline {X}}_{n}-\mu )^{2}\\&=\sum _{i=1}^{n}(X_{i}-{\overline
{X}}_{n})^{2}+n({\overline {X}}_{n}-\mu )^{2}.\end{aligned}}} \begin{align}
\sum_{i=1}^n (X_i-\mu)^2 &=\sum_{i=1}^n\bigl((X_i-\overline{X}_n)+
(\overline{X}_n-\mu)\bigr)^2\\ &=\sum_{i=1}^n(X_i-\overline{X}_n)^2 +
2(\overline{X}_n-\mu)\underbrace{\sum_{i=1}^n (X_i-\overline{X}_n)}_{=\,0} +
\sum_{i=1}^n (\overline{X}_n-\mu)^2\\ &=\sum_{i=1}^n(X_i-\overline{X}_n)^2 +
n(\overline{X}_n-\mu)^2. \end{align}
L ( X ¯ n , σ ) = C σ n exp ( − ∑ i = 1 n ( X i − X ¯ n ) 2 2 σ 2 ) , σ > 0.
{\displaystyle L({\overline {X}}_{n},\sigma )={\frac {C}{\sigma ^{n}}}\exp {\biggl
(}-{\sum _{i=1}^{n}(X_{i}-{\overline {X}}_{n})^{2} \over 2\sigma ^{2}}
{\biggr )},\quad \sigma >0.} L(\overline{X}_n,\sigma) = \frac C{\sigma^n}
\exp\biggl(-{\sum_{i=1}^n (X_i-\overline{X}_n)^2 \over 2\sigma^2}\biggr),
\quad\sigma>0.
entonces
∂ ∂ σ ℓ ( X ¯ n , σ ) = − n σ + ∑ i = 1 n ( X i − X ¯ n ) 2 σ 3 = − n σ 3 ( σ 2
− 1 n ∑ i = 1 n ( X i − X ¯ n ) 2 ) , σ > 0. {\displaystyle {\begin{aligned}
{\partial \over \partial \sigma }\ell ({\overline {X}}_{n},\sigma )&=-{n \over
\sigma }+{\sum _{i=1}^{n}(X_{i}-{\overline {X}}_{n})^{2} \over \sigma ^{3}}\\&=-
{n \over \sigma ^{3}}{\biggl (}\sigma ^{2}-{1 \over n}\sum _{i=1}^{n}(X_{i}-
{\overline {X}}_{n})^{2}{\biggr )},\quad \sigma >0.\end{aligned}}} \begin{align}
{\partial \over \partial\sigma}\ell(\overline{X}_n,\sigma) &=-{n \over \sigma} +
{\sum_{i=1}^n (X_i-\overline{X}_n)^2 \over \sigma^3}\\ &=-{n \over
\sigma^3}\biggl(\sigma^2-{1 \over n}\sum_{i=1}^n (X_i-\overline{X}_n)^2 \biggr),
\quad\sigma>0. \end{align}
σ ^ n 2 := 1 n ∑ i = 1 n ( X i − X ¯ n ) 2 , {\displaystyle {\hat
{\sigma }}_{n}^{2}:={1 \over n}\sum _{i=1}^{n}(X_{i}-{\overline {X}}_{n})^{2},}
\hat\sigma_n^2:={1 \over n}\sum_{i=1}^n(X_i-\overline{X}_n)^2,
o sea igual a esa cantidad, o mayor que esa cantidad. (Si hay solamente una
observación, lo que significa que n = 1, o si X1 = ... = Xn, lo cual solo ocurre
con probabilidad cero, entonces σ ^ n 2 = 0 {\displaystyle {\hat {\sigma }}
{}_{n}^{2}=0} \hat\sigma{}_n^2=0 por esta fórmula, refleja el hecho de que en estos
casos la función de verosimilitud es ilimitada cuando σ decrece hasta cero).
que sigue una distribución Gamma cuando las Xi son normales independientes e
idénticamente distribuidas:
Hay causas que pueden actuar de forma multiplicativa (más que aditiva). En este
caso, la asunción de normalidad no está justificada y es el logaritmo de la
variable en cuestión el que estaría normalmente distribuido. La distribución de las
variables directamente observadas en este caso se denomina log-normal.
Finalmente, si hay una simple influencia externa que tiene un gran efecto en la
variable en consideración, la asunción de normalidad no está tampoco justificada.
Esto es cierto incluso si, cuando la variable externa se mantiene constante, las
distribuciones marginales resultantes son, en efecto, normales. La distribución
completa será una superposición de variables normales, que no es en general normal.
Ello está relacionado con la teoría de errores (véase más abajo).
La intensidad de la luz de una sola fuente varía con el tiempo, así como las
fluctuaciones térmicas que pueden observarse si la luz se analiza a una resolución
suficientemente alta. La mecánica cuántica interpreta las medidas de la intensidad
de la luz como un recuento de fotones, donde la suposición natural lleva a usar la
distribución de Poisson. Cuando la intensidad de la luz se integra a lo largo de
grandes periodos de tiempo mayores que el tiempo de coherencia, la aproximación
Poisson - Normal es apropiada.
Medida de errores
Las medidas repetidas de la misma cantidad se espera que cedan el paso a resultados
que están agrupados en torno a un valor particular. Si todas las fuentes
principales de errores se han tomado en cuenta, se asume que el error que queda
debe ser el resultado de un gran número de muy pequeños y aditivos efectos y, por
consiguiente, normal. Las desviaciones de la normalidad se interpretan como
indicaciones de errores sistemáticos que no han sido tomados en cuenta. Puede
debatirse si esta asunción es válida.
Todo el mundo cree en la ley normal de los errores: los matemáticos, porque
piensan que es un hecho experimental; y los experimentadores, porque suponen que es
un teorema matemático
Los tamaños de los animales adultos siguen aproximadamente una distribución log-
normal. La evidencia y explicación basada en modelos de crecimiento fue publicada
por primera vez en el libro Problemas de crecimiento relativo, de 1932, por Julian
Huxley.
Por otra parte, hay algunas medidas biológicas donde se asume normalidad, tales
como la presión sanguínea en humanos adultos. Esta asunción solo es posible tras
separar a hombres y mujeres en distintas poblaciones, cada una de las cuales está
normalmente distribuida.
Variables financieras
El modelo normal de movimiento de activos no incluye movimientos extremos tales
como quiebras financieras.
∂ ∂ t φ 0 , t ( x ) = 1 2 ∂ 2 ∂ x 2 φ 0 , t ( x ) . {\displaystyle {\frac
{\partial }{\partial t}}\varphi _{0,t}(x)={\frac {1}{2}}{\frac {\partial ^{2}}
{\partial x^{2}}}\varphi _{0,t}(x).} \frac{\partial}{\partial t} \varphi_{0,t}(x) =
\frac{1}{2} \frac{\partial^2}{\partial x^2} \varphi_{0,t}(x).
Más generalmente, si la densidad de masa inicial viene dada por una función φ(x),
entonces la densidad de masa en un tiempo t vendrá dada por la convolución de φ y
una función de densidad normal.
Aplicación de la distribución normal de probabilidad acumulada a lluvias mensuales
en Surinam.12
Hidrología
Un método mucho más rápido que la transformación de Box-Muller, pero que sigue
siendo exacto es el llamado algoritmo Zigurat, desarrollado por George Marsaglia.
En alrededor del 97 % de los casos usa solo dos números aleatorios, un entero
aleatorio y un uniforme aleatorio, una multiplicación y un test-si. Solo un 3 % de
los casos donde la combinación de estos dos cae fuera del "corazón del zigurat", un
tipo de rechazo muestral usando logaritmos, exponenciales y números aleatorios más
uniformes deberían ser empleados.
Φ ( x ) = 1 − ϕ ( x ) ( b 1 t + b 2 t 2 + b 3 t 3 + b 4 t 4 + b 5 t 5 ) + ε ( x
) , t = 1 1 + b 0 x , {\displaystyle \Phi (x)=1-\phi (x){\Big
(}b_{1}t+b_{2}t^{2}+b_{3}t^{3}+b_{4}t^{4}+b_{5}t^{5}{\Big )}+\varepsilon (x),\qquad
t={\frac {1}{1+b_{0}x}},} \Phi(x) = 1 - \phi(x)\Big(b_1t + b_2t^2 + b_3t^3 + b_4t^4
+ b_5t^5\Big) + \varepsilon(x), \qquad t = \frac{1}{1+b_0x},
Para una discusión más detallada sobre cómo calcular la distribución normal, véase
la sección 3.4.1C. de The Art of Computer Programming (El arte de la programación
por ordenador), de Knuth.
Véase también
Referencias
Enlaces externos