Está en la página 1de 3

La 

distribución de Pearson es una familia de distribuciones probabilísticas continuas. Fue publicada


por primera vez por Karl Pearson en 1895 y subsecuentemente extendida por él en 1901 y 1916 en una
serie de artículos de bioestadística.

El sistema Pearson fue originalmente ideado en un esfuerzo para modelar observaciones


visiblemente asimétricas. Era bien conocido en aquel tiempo cómo ajustar un modelo teórico para
acomodar los primeros dos cumulantes o los momentos de observados datos: Cualquier distribución de
probabilidad puede estar extendida directamente para formar una familia de escala de posición. Excepto
en los casos patológicos, una familia de escala de posición puede estar hecha para acomodar
la media (primer cumulante) y la varianza (segundo cumulante) arbitrariamente bien. Sin embargo, no
era conocido cómo construir distribuciones de probabilidad en las cuales la asimetría (tercer cumulante
estándar) y la curtosis (cuarto cumulante estándar) pudieron estar ajustados igualmente. Esta necesidad
surgió al intentar acomodar modelos teóricos conocidos a datos observados que exhibieron asimetría.
Los ejemplos de Pearson incluyen datos de supervivencia, cuáles son usualmente asimétricos. En su
escrito original, Pearson (1895, p. 360) identificó cuatro tipos de distribuciones (numeradas del I al IV)
además de la distribución normal (la cual era originalmente conocida como tipo V). La clasificación
dependió en si las distribuciones estaban definidas en un intervalo definido, en una semirrecta, o en
los reales y si estaban potencialmente asimétricas o necesariamente simétricas. Un segundo escrito
(Pearson 1901) arregló dos omisiones: Redefinió la distribución de tipo V (originalmente incluía
la distribución normal, ahora incorporaba la distribución gamma inversa) e introdujo la distribución de
tipo VI. Conjuntamente los primeros dos documentos de identificación cubren los cinco tipos principales
del sistema Pearson (I, III, VI, V y IV). En un tercer escrito, Pearson (1916) introdujo aún más casos
especiales y subtipos (del VII al XII).
Rhind (1909, pp. 430–432) ideó una forma sencilla de visualizar el espacio de parámetros del sistema
Pearson, el cual fue adoptado por Pearson (1916, plate 1 and pp. 430ff., 448ff.). Los tipos de Pearson son
caracterizados por dos cantidades, comúnmente referidas como β1 y β2. El primero es el cuadrado de
la asimetría:  donde γ1 es la asimetría o el tercer momento estandarizado. El segundo es
el curtosis tradicional o cuarto momento estandarizado: β2 = γ2 + 3. Tratamientos modernos definen
kurtosis γ2 en términos de cumunlant en vez de momentos, por lo tanto una distribución normal tenemos
γ2 = 0 y β2 = 3. Aquí seguimos el precedente histórico y usamos β2. EL diagrama a la derecha muestra
dada una distribución concreta a qué tipo de Pearson pertenece (identificado por el punto (β1, β2)).
Muchas de las distribuciones asimétricas y no mesocúrtica que hoy nos son familiares, no eran
conocidas a principios de 1890. Lo que hoy se conoce como distribución beta había sido usada
por Thomas Bayes como la Probabilidad a posteriori del parámetro de la distribución de Bernoulli en su
trabajo de 1763 sobre la probabilidad inversa. La distribución beta ganó prominencia debido a su
pertenencia al sistema Pearson y era conocida hasta los años 1940 como la distribución Pearson tipo I. 1
(La distribución de Pearson tipo II es un caso especial derivada del tipo I, pero ya no es tratada por
separado.) La distribución gamma originada como resultado del trabajo de Pearson (Pearson 1893,
p. 331; Pearson 1895, pp. 357, 360, 373–376) y era conocida como la distribución de Pearson tipo III,
antes de adquirir su nombre moderno en 1930s y 1940s. .2 El artículo de Pearson escrito en 1895
introdujo la distribución de tipo IV, la cual contiene la distribución t-Student como caso especial,
precediendo por varios años a William Sealy Gosset. En su artículo de 1901 introdujo la distribución
gamma inversa (tipo V) y la distribución beta prima (tipo VI).
Las medidas de asimetría son indicadores que permiten establecer el grado de simetría (o asimetría) que
presenta una distribución de probabilidad de una variable aleatoria sin tener que hacer su representación
gráfica. Como eje de simetría consideramos una recta paralela al eje de ordenadas que pasa por la media
de la distribución. Si una distribución es simétrica, existe el mismo número de valores a la derecha que a
la izquierda de la media, por tanto, el mismo número de desviaciones con signo positivo que con signo
negativo. Decimos que hay asimetría positiva (o a la derecha) si la "cola" a la derecha de la media es
más larga que la de la izquierda, es decir, si hay valores más separados de la media a la derecha. Diremos
que hay asimetría negativa (o a la izquierda) si la "cola" a la izquierda de la media es más larga que la de
la derecha, es decir, si hay valores más separados de la media a la izquierda.

Coeficiente de asimetría de Fisher[editar]


En teoría de la probabilidad y estadística, la medida de asimetría más utilizada parte del uso del
tercer momento estándar. La razón de esto es que nos interesa mantener el signo de las desviaciones con
respecto a la media, para obtener si son mayores las que ocurren a la derecha de la media que las de la
izquierda. Sin embargo, no es buena idea tomar el momento estándar con respecto a la media de orden 1.
Debido a que una simple suma de todas las desviaciones siempre es cero. En efecto, si por ejemplo, los
datos están agrupados La asimetría resulta útil en muchos campos. Muchos modelos simplistas asumen
una distribución normal, esto es, simétrica en torno a la media. La distribución normal tiene una
asimetría cero. Cuando el tamaño de la muestra aumenta cualquier población tiende a volverse simétrica.
Una asimetría positiva implica que hay más valores distintos a la derecha de la media.
Las medidas de asimetría, sobre todo el coeficiente de asimetría de Fisher, junto con las medidas de
apuntamiento o curtosis se utilizan para contrastar si se puede aceptar que una distribución estadística
sigue la distribución normal. Esto es necesario para realizar numerosos contrastes estadísticos en
la teoría de inferencia estadística.

Dentro de la inferencia estadística, un contraste de hipótesis (también denominado test de


hipótesis o prueba de significación) es un procedimiento para juzgar si una propiedad que se supone en
una población estadística es compatible con lo observado en una muestra de dicha población. Fue
iniciada por Ronald Fisher y fundamentada posteriormente por Jerzy Neyman y Egon Pearson.
Mediante esta teoría, se aborda el problema estadístico considerando una hipótesis determinada  y una
hipótesis alternativa , y se intenta dirimir cuál de las dos hipótesis se escogerá, tras aplicar el problema
estadístico a un cierto número de experimentos.
Está fuertemente asociada al concepto estadístico de potencia y a los conceptos de errores de tipo I y II,
que definen respectivamente, la posibilidad de tomar un suceso verdadero como falso, o uno falso como
verdadero.
Los tipos más importantes son los test centrados, de hipótesis y alternativa simple, aleatorizados, etc.
Dentro de los tests no paramétricos, el más extendido es probablemente el test de la U de Mann-
Whitney.

Si sospechamos que una moneda ha sido trucada para que se produzcan más caras que cruces al lanzarla
al aire, podríamos realizar 30 lanzamientos, tomando nota del número de caras obtenidas. Si obtenemos
un valor demasiado alto, por ejemplo 25 o más, consideraríamos que el resultado es poco compatible con
la hipótesis de que la moneda no está trucada, y concluiríamos que las observaciones contradicen dicha
hipótesis.
La aplicación de cálculos probabilísticos permite determinar a partir de qué valor debemos rechazar la
hipótesis garantizando que la probabilidad de cometer un error es un valor conocido a priori. Las
hipótesis pueden clasificarse en dos grupos, según:
1. Especifiquen un valor concreto o un intervalo para los parámetros del modelo.
2. Determinen el tipo de distribución de probabilidad que ha generado los datos.
Un ejemplo del primer grupo es la hipótesis de que la media de una variable es 10, y del segundo
que la distribución de probabilidad es la distribución normal.
Aunque la metodología para realizar el contraste de hipótesis es análoga en ambos casos, distinguir
ambos tipos de hipótesis es importante puesto que muchos problemas de contraste de hipótesis
respecto a un parámetro son, en realidad, problemas de estimación, que tienen una respuesta
complementaria dando un intervalo de confianza (o conjunto de intervalos de confianza) para dicho
parámetro. Sin embargo, las hipótesis respecto a la forma de la distribución se suelen utilizar para
validar un modelo estadístico para un fenómeno aleatorio que se está estudiando.

También podría gustarte