Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Teorema Del Límite Central
Teorema Del Límite Central
escrito por George Pólya en 1920, titulado Über den zentralen Grenzwertsatz der
Wahrscheinlichkeitsrechnung und das Momentenproblem[1] [Sobre el «teorema del límite»
(Grenzwertsatz) central del cálculo probabilístico y el problema de los momentos] por lo que lo central
[importante] es el teorema, no el límite) indica que, en condiciones muy generales, si Sn es la suma de n
variables aleatorias independientes y de varianza no nula pero finita, entonces la función de distribución
de Sn «se aproxima bien» a una distribución normal (también llamada distribución gaussiana, curva de
Gauss o campana de Gauss). Así pues, el teorema asegura que esto ocurre cuando la suma de estas
variables aleatorias e independientes es lo suficientemente grande.[2][3]
Definición
Editar
Sea {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} la
función de densidad de la distribución normal definida como[2]
{\displaystyle f_{\mu ,\sigma ^{2}}(x)={\tfrac {1}{\sqrt {2\pi \sigma ^{2}}}}\;e^{-{\frac {(x-\mu )^{2}}
{2\sigma ^{2}}}},} {\displaystyle f_{\mu ,\sigma ^{2}}(x)={\tfrac {1}{\sqrt {2\pi \sigma ^{2}}}}\;e^{-{\frac
{(x-\mu )^{2}}{2\sigma ^{2}}}},}
con una media µ y una varianza σ2. El caso en el que su función de densidad sea {\displaystyle {\mathcal
{N}}(0,1)} {\displaystyle {\mathcal {N}}(0,1)}, a la distribución se le conoce como normal estándar.
de manera que, la media de Sn es n·µ y la varianza n·σ2, dado que son variables aleatorias
independientes. Con tal de hacer más fácil la comprensión del teorema y su posterior uso, se hace una
estandarización de Sn como
{\displaystyle Z_{n}\ =\ {\frac {S_{n}-n\mu }{\sigma {\sqrt {n}}}}} {\displaystyle Z_{n}\ =\ {\frac {S_{n}-
n\mu }{\sigma {\sqrt {n}}}}}
para que la media de la nueva variable sea igual a 0 y la desviación estándar sea igual a 1. Así, las
variables Zn convergerán en distribución a la distribución normal estándar N(0,1), cuando n tienda a
infinito. Como consecuencia, si Φ(z) es la función de distribución de N(0,1), para cada número real z:
{\displaystyle \lim _{n\to \infty }\operatorname {Pr} (Z_{n}\leq z)=\Phi (z)\,} {\displaystyle \lim _{n\to
\infty }\operatorname {Pr} (Z_{n}\leq z)=\Phi (z)\,}
Enunciado formal
Editar
Teorema del límite central: Sea {\displaystyle {X_{1}}} {\displaystyle {X_{1}}}, {\displaystyle {X_{2}}}
{\displaystyle {X_{2}}}, ..., {\displaystyle {X_{n}}} {\displaystyle {X_{n}}} un conjunto de variables
aleatorias, independientes e idénticamente distribuidas con media μ y varianza {\displaystyle 0<\sigma
^{2}<\infty } {\displaystyle 0<\sigma ^{2}<\infty }. Sea
Entonces
{\displaystyle \lim _{n\to \infty }\Pr \left({\frac {S_{n}-n\mu }{\sigma {\sqrt {n}}}}\leq z\right)=\Phi (z)\,}
{\displaystyle \lim _{n\to \infty }\Pr \left({\frac {S_{n}-n\mu }{\sigma {\sqrt {n}}}}\leq z\right)=\Phi (z)\,}.
puesto que son equivalentes, así como encontrarlo en versiones no normalizadas como puede ser:[5][6]
Teorema (del límite central): Sea {\displaystyle {X_{1}}} {\displaystyle {X_{1}}}, {\displaystyle {X_{2}}}
{\displaystyle {X_{2}}}, ..., {\displaystyle {X_{n}}} {\displaystyle {X_{n}}} un conjunto de variables
aleatorias, independientes e idénticamente distribuidas de una distribución con media μ y varianza
σ2≠0. Entonces, si n es suficientemente grande, la variable aleatoria
tiene aproximadamente una distribución normal con {\displaystyle \mu _{\bar {X}}=\mu }
{\displaystyle \mu _{\bar {X}}=\mu } y {\displaystyle \sigma _{\bar {X}}^{2}={\frac {\sigma ^{2}}{n}}}
{\displaystyle \sigma _{\bar {X}}^{2}={\frac {\sigma ^{2}}{n}}}.
Nota: es importante remarcar que este teorema no dice nada acerca de la distribución de {\displaystyle
{X_{i}}} {\displaystyle {X_{i}}}, excepto la existencia de media y varianza.[5]