Está en la página 1de 23

MEDIDAS DE DISPERSIN

PRESENTA:
ALEJANDRO ORTEGA
HERNNDEZ
Introduccin
En la seccin anterior hemos discutido
tres medidas descriptivas de una
distribucin de frecuencias.
Sin embargo, estas medidas no son
suficientes para caracterizar la
distribucin, puesto que otro aspecto
que debe tenerse en cuenta es la
variabilidad de las observaciones.
VARIANZA
La varianza (S
2
) de un conjunto de datos
se define como la suma de los cuadrados
de las desviaciones de las observaciones
con respecto a su media, dividida por el
nmero de observaciones menos una.
Su ecuacin es:


Puesto que la varianza es una medida
que tiene como unidad el cuadrado de
las unidades originales de la medicin,
se acostumbra definir tambin a su raz
cuadrada, para tener una medida de
dispersin en las unidades originales.
DESVIACIN ESTNDAR
La desviacin estndar se define como la
raz cuadrada de la varianza, es decir:

Interpretacin y aplicacin
La desviacin estndar es una medida del
grado de dispersin de los datos del valor
promedio. Dicho de otra manera, la
desviacin estndar es simplemente el
"promedio" o variacin esperada con
respecto de la media aritmtica.

Una desviacin estndar grande indica que
los puntos estn lejos de la media, y una
desviacin pequea indica que los datos
estn agrupados cerca a la media.
Por ejemplo, las tres muestras (0, 0, 14,
14), (0, 6, 8, 14) y (6, 6, 8, 8) cada una
tiene una media de 7. Sus desviaciones
estndar son 7, 4 y 1, respectivamente.
La tercera muestra tiene una
desviacin mucho menor que las otras
dos porque sus valores estn ms
cerca de 7.
Otras definiciones
La desviacin estndar (DS/DE), tambin
llamada como desviacin tpica, es una
medida de dispersin usada en estadstica
que nos dice cunto tienden a alejarse los
valores puntuales del promedio en una
distribucin. De hecho, especficamente, la
desviacin estndar es "el promedio de la
distancia de cada punto respecto del
promedio". Se suele representar por una S o
con la letra sigma griega .

Interpretacin y aplicacin
La desviacin estndar puede ser interpretada como
una medida de incertidumbre. La desviacin
estndar de un grupo repetido de medidas nos da la
precisin de stas. Cuando se va a determinar si un
grupo de medidas est de acuerdo con el modelo
terico, la desviacin estndar de esas medidas es
de vital importancia: si la media de las medidas est
demasiado alejada de la prediccin (con la distancia
medida en desviaciones estndar), entonces
consideramos que las medidas contradicen la teora.
Esto es coherente, ya que las mediciones caen fuera
del rango de valores en el cual sera razonable
esperar que ocurrieran si el modelo terico fuera
correcto. La desviacin estndar es uno de tres
parmetros de ubicacin central; muestra la
agrupacin de los datos alrededor de un valor
central (la media o promedio).
Ejemplo
Seleccin de medidas
descriptivas
Al elegir una medida de tendencia central
debemos tener en cuenta lo siguiente:
Si la distribucin no es muy asimtrica, la moda,
media y mediana tienen aproximadamente el
mismo valor, por lo que pueden reportarse
cualquiera de las dos.
Para distribuciones asimtricas, la mediana
puede ser mejor medida de tendencia central que
la media.
Si va a procederse a hacer estadstica inductiva,
la media es indispensable por sus excelentes
propiedades tericas.
Si se trata slo de describir un conjunto, es
conveniente reportar las tres medidas, ya que
cada una puede decirnos algo sobre la
distribucin de frecuencia.
Coeficiente de variacin
Es una medida de dispersin relativa de
un conjunto de datos, que se obtiene
dividiendo la desviacin estndar del
conjunto entre su media aritmtica.
simblicamente:

. .( )
x
s
CV X
X
=
El coeficiente de variacin tiene las
siguientes caractersticas:
El C.V. es una medida independiente de las
unidades de medicin.
El C.V. es la cantidad ms adecuada para
comparar la variabilidad de dos conjuntos de
datos.
En reas de investigacin donde se tienen datos
de experimentos previos, el C.V. es muy usado
para evaluar la precisin de un experimento,
comparando el C.V. del experimento en
cuestin con los valores del mismo en
experimentos anteriores.
Comentarios sobre las medidas
de dispersin
La desviacin estndar tiene las ventajas
y desventajas de la media aritmtica. Es
indispensable en estadstica inductiva.

Por ser independiente de las unidades de
medicin, el coeficiente de variacin es la
medida apropiada para comparar la
variabilidad de los conjuntos de datos.
COVARIANZA
La covarianza es una medida de asociacin.
El valor que asume la covarianza puede ser
positivo o negativo.
Tendremos covarianza positiva cuando las
desviaciones positivas (negativas) de X
correspondan a desviaciones positivas
(negativas) de Y.
Tendremos covarianza negativa cuando las
desviaciones positivas (negativas) de X
correspondan a desviaciones negativas
(positivas) de Y.
COVARIANZA
Sean
pares de observaciones de dos
caractersticas X y Y, y sean sus
respectivas medias. La covarianza entre
las dos caractersticas se define como:


1 1
( , );( 2, 2),..., ( , ), X Y X Y Xn Yn n
XyY
1
1
( )( )
1
n
xy i i
i
s x X y Y
n
=
=


La covarianza entre las mediciones de dos
caractersticas (X y Y) tambin puede
calcularse mediante la ecuacin:
1 1
1
( )( )
1
1
n n
i i
n
i i
xy i i
i
x y
s x y
n n
= =
=
(
(
( =

(
(

Interpretacin de la covarianza
Si Sxy > 0 hay dependencia directa
(positiva), es decir, a grandes valores de X
corresponden grandes valores de Y.
Si Sxy = 0 Una covarianza 0 se interpreta
como la no existencia de una relacin
lineal entre las dos variables estudiadas.
Si Sxy < 0 hay dependencia inversa o
negativa, es decir, a grandes valores de X
corresponden pequeos valores de Y.
Idea de correlacin
Es frecuente que estudiemos sobre una
misma poblacin los valores de dos
variables estadsticas distintas, con el fin
de ver si existe alguna relacin entre ellas,
es decir, si los cambios en una de ellas
influyen en los valores de la otra. Si ocurre
esto decimos que las variables estn
correlacionadas o bien que hay
correlacin entre ellas.
Nos limitaremos a ver si los puntos se
distribuyen alrededor de una recta. Si as
ocurre diremos que hay correlacin lineal.
La recta se denomina recta de regresin.
Correlacin
En probabilidad y estadstica, la correlacin
indica la fuerza y la direccin de una relacin
lineal entre dos variables aleatorias. Se
considera que dos variables cuantitativas estn
correlacionadas cuando los valores de una de
ellas varan sistemticamente con respecto a los
valores homnimos de la otra: si tenemos dos
variables (A y B) existe correlacin si al
aumentar los valores de A lo hacen tambin los
de B y viceversa. La correlacin entre dos
variables no implica, por s misma, ninguna
relacin de causalidad.