Está en la página 1de 4

Curtosis

Definición de curtosis[editar]

La curtosis de una variable estadística/aleatoria es una característica de forma de su distribución


de frecuencias/probabilidad.

Según su concepción clásica, una mayor curtosis implica una mayor concentración de valores de la
variable muy cerca de la media de la distribución (pico) y muy lejos de la misma (colas), al tiempo
que existe una relativamente menor frecuencia de valores intermedios (hombros). Esto explica
una forma de la distribución de frecuencias/probabilidad con colas más gruesas, con un centro
más apuntado y una menor proporción de valores intermedios entre pico y colas.

Una mayor curtosis no implica una mayor varianza, ni viceversa.

Un coeficiente de apuntamiento o de curtosis es el cuarto momento con respecto a la media


estandarizado que se define como:

donde  es el 4º momento centrado o con respecto a la media y  es la desviación estándar.

En la distribución normal se verifica que , donde  es el momento de orden 4 respecto a la media


y  la desviación típica. Por eso, está más extendida la siguiente definición del coeficiente de
curtosis:

donde se ha sustraído 3 (que es la curtosis de la distribución normal o gaussiana) con objeto de


generar un coeficiente que valga 0 para la Normal y tome a ésta como referencia de
apuntamiento.

Tomando, pues, la distribución normal como referencia, una distribución puede ser:

 leptocúrtica, cuando  y : más apuntada y con colas más gruesas que la normal.

 platicúrtica,  y : menos apuntada y con colas menos gruesas que la normal.

 mesocúrtica,  y : cuando tiene una distribución normal.

El coeficiente de curtosis puede usarse como un indicador, en combinación de otros, de la posible


existencia de observaciones anómalas, de no normalidad (ver, p.ej., el Test de Jarque-Bera) o de
bimodalidad1.

La evidencia más reciente2, no obstante, sostiene que la curtosis poco tiene que ver con el centro
de la distribución y su apuntamiento y en cambio mucho con las colas y la posible existencia de
outliers.

Otra forma de medir la curtosis se obtiene examinando la fórmula de la curtosis de la suma de


variables aleatorias. Si Y es la suma de n variables aleatorias estadísticamente independientes,
todas con igual distribución X, entonces , complicándose la fórmula si la curtosis se hubiese
definido como .

Referencias
Volver arriba↑ DeCarlo, Lawrence T. (1997). «On the Meaning and Use of Kurtosis». Psychological
Methods 2 (3): 292-307. Consultado el 13 de febrero

Volver arriba↑ Westfall, Peter H. (2015). «Kurtosis as Peakedness, 1905 – 2014. R.I.P.». The


American Statistician 68 (3): 191-195. Consultado el 13 de febrero de 2018.

Asimetría estadística

En punteado amarillo: la media, en punteado azul: la moda.

Ejemplo de datos experimentales con una asimetría positiva (respuesta gravitrópica de los
coleóptilos del trigo).

Las medidas de asimetría son indicadores que permiten establecer el grado de simetría (o
asimetría) que presenta una distribución de probabilidad de una variable aleatoria sin tener que
hacer su representación gráfica. Como eje de simetría consideramos una recta paralela al eje de
ordenadas que pasa por la media de la distribución. Si una distribución es simétrica, existe el
mismo número de valores a la derecha que a la izquierda de la media, por tanto, el mismo número
de desviaciones con signo positivo que con signo negativo. Decimos que hay asimetría positiva (o a
la derecha) si la "cola" a la derecha de la media es más larga que la de la izquierda, es decir, si hay
valores más separados de la media a la derecha. Diremos que hay asimetría negativa (o a la
izquierda) si la "cola" a la izquierda de la media es más larga que la de la derecha, es decir, si hay
valores más separados de la media a la izquierda.
Medidas de asimetría[editar]

Coeficiente de asimetría de Fisher[editar]

En teoría de la probabilidad y estadística, la medida de asimetría más utilizada parte del uso del
tercer momento estándar. La razón de esto es que nos interesa mantener el signo de las
desviaciones con respecto a la media, para obtener si son mayores las que ocurren a la derecha de
la media que las de la izquierda. Sin embargo, no es buena idea tomar el momento estándar con
respecto a la media de orden 1. Debido a que una simple suma de todas las desviaciones siempre
es cero. En efecto, si por ejemplo, los datos están agrupados en  clases, se tiene que:

en donde  representa la marca de la clase -ésima y  denota la frecuencia relativa de dicha clase.


Por ello, lo más sencillo es tomar las desviaciones al cubo.

El coeficiente de asimetría de Fisher, representado por , se define como:

donde  es el tercer momento en torno a la media y  es la desviación estándar.

Si , la distribución es asimétrica positiva o a la derecha.

Si , la distribución es asimétrica negativa o a la izquierda.

Si la distribución es simétrica, entonces sabemos que . El recíproco no es cierto: es un error común


asegurar que si  entonces la distribución es simétrica (lo cual es falso).

Coeficiente de asimetría de Pearson[editar]

Sólo se puede utilizar en distribuciones uniformes, unimodales y moderadamente asimétricas. Se


basa en que en distribuciones simétricas la media de la distribución es igual a la moda.

donde  es el momento ordinario de orden 1, que corresponde a la media aritmética de la variable .

Si la distribución es simétrica,  y . Si la distribución es asimétrica positiva la media se sitúa por


encima de la moda y, por tanto, .

Coeficiente de asimetría de Bowley-Yule[editar]

Está basado en la posición de los cuartiles y la mediana, y utiliza la siguiente expresión:

En una distribución simétrica el tercer cuartil estará a la misma distancia de la mediana que el
primer cuartil. Por tanto .

Si la distribución es positiva o a la derecha, .

Utilidad[editar]

La asimetría resulta útil en muchos campos. Muchos modelos simplistas asumen una distribución
normal, esto es, simétrica en torno a la media. La distribución normal tiene una asimetría cero.
Cuando el tamaño de la muestra aumenta cualquier población tiende a volverse simétrica. Una
asimetría positiva implica que hay más valores distintos a la derecha de la media.
Las medidas de asimetría, sobre todo el coeficiente de asimetría de Fisher, junto con las medidas
de apuntamiento o curtosis se utilizan para contrastar si se puede aceptar que una distribución
estadística sigue la distribución normal. Esto es necesario para realizar numerosos contrastes
estadísticos en la teoría de inferencia estadística.

Referencias[editar]

 'Introducción a la Estadística Económica y Empresarial. Teoría y Práctica.' de Fco. Javier


Martín-Pliego López, Editorial Thomson, 2007 (Madrid).

 'Manual de Estadística Empresarial con ejercicios resueltos' de Eva Ropero, María


Eleftheriou, Luana Gava y Eva Romero. Editorial Delta Publicaciones. 2008 (Madrid).

También podría gustarte