Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Definición de curtosis[editar]
Según su concepción clásica, una mayor curtosis implica una mayor concentración de valores de la
variable muy cerca de la media de la distribución (pico) y muy lejos de la misma (colas), al tiempo
que existe una relativamente menor frecuencia de valores intermedios (hombros). Esto explica
una forma de la distribución de frecuencias/probabilidad con colas más gruesas, con un centro
más apuntado y una menor proporción de valores intermedios entre pico y colas.
Tomando, pues, la distribución normal como referencia, una distribución puede ser:
leptocúrtica, cuando y : más apuntada y con colas más gruesas que la normal.
La evidencia más reciente2, no obstante, sostiene que la curtosis poco tiene que ver con el centro
de la distribución y su apuntamiento y en cambio mucho con las colas y la posible existencia de
outliers.
Referencias
Volver arriba↑ DeCarlo, Lawrence T. (1997). «On the Meaning and Use of Kurtosis». Psychological
Methods 2 (3): 292-307. Consultado el 13 de febrero
Asimetría estadística
Ejemplo de datos experimentales con una asimetría positiva (respuesta gravitrópica de los
coleóptilos del trigo).
Las medidas de asimetría son indicadores que permiten establecer el grado de simetría (o
asimetría) que presenta una distribución de probabilidad de una variable aleatoria sin tener que
hacer su representación gráfica. Como eje de simetría consideramos una recta paralela al eje de
ordenadas que pasa por la media de la distribución. Si una distribución es simétrica, existe el
mismo número de valores a la derecha que a la izquierda de la media, por tanto, el mismo número
de desviaciones con signo positivo que con signo negativo. Decimos que hay asimetría positiva (o a
la derecha) si la "cola" a la derecha de la media es más larga que la de la izquierda, es decir, si hay
valores más separados de la media a la derecha. Diremos que hay asimetría negativa (o a la
izquierda) si la "cola" a la izquierda de la media es más larga que la de la derecha, es decir, si hay
valores más separados de la media a la izquierda.
Medidas de asimetría[editar]
En teoría de la probabilidad y estadística, la medida de asimetría más utilizada parte del uso del
tercer momento estándar. La razón de esto es que nos interesa mantener el signo de las
desviaciones con respecto a la media, para obtener si son mayores las que ocurren a la derecha de
la media que las de la izquierda. Sin embargo, no es buena idea tomar el momento estándar con
respecto a la media de orden 1. Debido a que una simple suma de todas las desviaciones siempre
es cero. En efecto, si por ejemplo, los datos están agrupados en clases, se tiene que:
En una distribución simétrica el tercer cuartil estará a la misma distancia de la mediana que el
primer cuartil. Por tanto .
Utilidad[editar]
La asimetría resulta útil en muchos campos. Muchos modelos simplistas asumen una distribución
normal, esto es, simétrica en torno a la media. La distribución normal tiene una asimetría cero.
Cuando el tamaño de la muestra aumenta cualquier población tiende a volverse simétrica. Una
asimetría positiva implica que hay más valores distintos a la derecha de la media.
Las medidas de asimetría, sobre todo el coeficiente de asimetría de Fisher, junto con las medidas
de apuntamiento o curtosis se utilizan para contrastar si se puede aceptar que una distribución
estadística sigue la distribución normal. Esto es necesario para realizar numerosos contrastes
estadísticos en la teoría de inferencia estadística.
Referencias[editar]