Está en la página 1de 5

6.    ESTUDIO DE MEDIA Y DESVIACIÓN TÍPICA.

De todas los parámetros estudiados, los más significativos son la


media para las medidas de centralización y la desviación típica para las
medidas de dispersión.

Vamos a hacer un estudio conjunto de ambas para entender


mejor su significado.

La media aritmética es el centro de gravedad de la distribución


estadística. Si nos imaginamos el diagrama de barras o el histograma de
frecuencias apoyado en un punto del eje horizontal de forma que
quedase en equilibrio, el valor de este punto en dicho eje sería el valor
de la media.

Como ya hemos comentado, no es suficiente con un parámetro de


centralización, es necesario un parámetro de dispersión que nos indique
si los datos estudiados están más concentrados o más dispersos. Y este
parámetro de dispersión va a ser la desviación típica. Lógicamente si los
datos están más concentrados la desviación típica será menor, y si los
datos están más dispersos la desviación típica será mayor.

El significado de ambos parámetros se podrá comprender mejor


con la siguiente escena:

Escena 16. Significado de la media y la desviación típica.


 

Coeficiente de variación. Si hemos realizado un estudio


estadístico en dos poblaciones diferentes, y queremos comparar
resultados, no podemos acudir a la desviación típica para ver la mayor o
menor homogeneidad de los datos, sino a otro parámetro nuevo,
llamado coeficiente de variación y que se define como el cociente entre
la desviación típica y la media.

Por ejemplo, en una exposición de ganado estudiamos un


conjunto de vacas con una media de 500 kilos y una desviación típica de
50 kilos. Y observamos también un conjunto de perros con una media
de 40 kilos y una desviación típica de 10 kilos. ¿Qué grupo de animales
es más homogéneo?
Un razonamiento falso sería decir que el conjunto de perros es
más homogéneo porque su desviación típica es más pequeña, pero si
calculamos el coeficiente de variación para ambos:

Vv = 50/500 = 0.1                Vp = 10/40 = 0.25

Por tanto, es más homogéneo el conjunto de las vacas.

Puntuaciones normalizadas. Si antes hemos comparado


variables, también podemos estar interesados en comparar datos de
distribuciones distintas y saber, cuál destaca más o menos dentro de su
grupo según la característica observada. Esto lo vamos a hacer
tipificando la variable con la fórmula:

obteniendo así una nueva variable estadística de media 0 y


desviación típica 1, con la que resultará más fácil poder comparar los
datos.
Por ejemplo, si en la exposición de ganado anterior, escogemos
una vaca que pesa 550 kilos y un perro que pesa 55 kilos, ¿cuál tiene
más peso dentro de su grupo?

Naturalmente no vale decir la vaca que pesa mucho más.


Tipificamos ambos valores y obtenemos:

zv = (550-500)/50 =1                zp = (55-40)/10 = 1.5

Como las dos variables tipificadas tienen la misma media y la


misma desviación típica, tiene más peso el animal que tiene mayor
puntuación normalizada, es decir, el perro.

       

En la siguiente escena se puede calcular el coeficiente de variación


y las puntuaciones normalizadas o tipificadas

7.    MEDIDAS DE ASIMETRÍA.

 
Hasta ahora se han estudiado los parámetros de centralización y
de dispersión que son las medidas más frecuentes que se calculan en
cualquier estudio estadístico.

Sin embargo existe también medidas que indican de la simetría o


asimetría de la distribución y del achatamiento o no de la misma.

Empezando con la simetría, es lógico pensar que si la distribución


tiene una única moda y es simétrica, entonces las tres medidas de
centralización coinciden. Si no es simétrica, suele suceder que la
mediana esté comprendida entre la moda y la media.

Medidas de simetría o asimetría. Miden la mayor o menor


simetría de la distribución. Existen dos medidas de este tipo:

Índice de simetría de Pearson:  


 

 
Índice de simetría de Fisher: 
 
 
 
Si la distribución es simétrica, ambos índices son iguales a 0; si es
asimétrica a la derecha, ambos son positivos; y si es asimétrica a la
izquierda, ambos índices son negativos.

Medidas de curtosis. Miden la mayor o menor concentración de


datos alrededor de la media. Se suele medir con el coeficiente de
curtosis:
 

 
 
Si este coeficiente es nulo, la distribución se dice normal (similar
a la distribución normal de Gauss) y recibe el nombre de mesocúrtica.

Si el coeficiente es positivo, la distribución se llama leptocúrtica,


más puntiaguda que la anterior. Hay una mayor concentración de los
datos en torno a la media.

Si el coeficiente es negativo, la distribución se llama platicúrtica y


hay una menor concentración de datos en torno a la media. sería más
achatada que la primera.

También podría gustarte