Está en la página 1de 3

UNIDAD Nº 5

MEDIDAS DE DISPERSION O VARIABILIDAD


VARIANZA Y DESVIACION ESTANDAR

Objetivo: Calcular acertadamente las medidas de variabilidad, tales como: la varianza y


la desviación estándar.

- Calcular la ecuación de regresión y el coeficiente de correlación de una situación


práctica de los datos correspondientes a dos variables.

MEDIDAS DE VARIABILIDAD

Sólo hacer un análisis de medidas de tendencia central y de posición no es suficiente,


puesto que hay que tener en cuenta la homogeneidad de los resultados, ósea, la
variabilidad de los datos con respecto al promedio y verificar si ésta variabilidad es alta
o por el contrario no es muy variable.
Entonces es de lógica suponer que los datos que tengan menos variabilidad en los
puntajes obtenidos serán los más estables.
Esta forma de medir la variabilidad de los resultados con relación a un valor central o
promedio, se denominan medidas de dispersión o variabilidad.
Se disponen de diversas técnicas para medir el grado de variabilidad en conjuntos de
datos, como son: el rango, los rangos modificados, la desviación media, la varianza, la
desviación estándar y el coeficiente de variación.

VARIANZA

Se define la varianza como la relación existente entre la suma de los cuadrados de las
desviaciones de los valores de la variable, respecto a su promedio y el tamaño n de la
población de datos.
La varianza se expresa de la siguiente forma:

n __
 fi * ( X i  X )2
2  i 1
n

Donde:

fi = Frecuencia absoluta de cada clase


Xi = Marca de cada clase
__
X = promedio o media aritmética de la muestra
n = tamaño de la muestra

NOTA: Recuerde que primero se desarrollan las operaciones que están dentro del
paréntesis, elevamos el resultado al cuadrado y por último multiplicamos por fi.
Para hacer más cómodos los cálculos completamos la tabla con las siguientes columnas:

Vr. Seguros __
fi Fi Xi fi * X i fi * (Xi - X )2
de vida

Totales
DESVIACION ESTANDAR

Es una medida de variabilidad que indica la dispersión promedio de los valores de una
variable, con respecto a su promedio. Es la raíz cuadrada positiva de la varianza.
Su cálculo, entonces, se hará extrayendo la raíz cuadra positiva de la varianza, así:

n __
 fi * ( X i  X )2
i 1
  2 
n

NOTA: El valor resultante de la varianza no se interpreta debido a que son unidades


cuadradas, pero la desviación estándar se interpreta como la variabilidad de los datos
con respecto a su media aritmética. (ej. Los datos están desviados (tantas unidades) con
respecto a su media aritmética).

REGRESION Y CORRELACION

Los temas vistos anteriormente, se han basado en el estudio y análisis de una sóla
variable. Con éste tema trataremos el análisis de situaciones que se presentan en una
distribución que contienen dos variables X y Y. El espacio muestral de un experimento
con dos variables es cierto conjunto de pares ordenados de medidas, es decir, dos
observaciones por cada prueba.
Nuestro principal objetivo, al analizar las dos variables X y Y, es el poder determinar la
relación entre éstas dos variables, es decir como se comportan las dos variables una con
respecto a la otra. También nos interesa encontrar una ecuación, de tal manera que
basándonos en una determinada cantidad X podamos estimar el promedio de cantidad Y.
así, una ecuación de éste tipo que relaciona las dos variables, una dependiente de la otra
se puede considerar como una relación de estimación.
La ecuación que relaciona éstas dos variables se llama ecuación de Regresión de Y
respecto a X.

DIAGRAMAS DE DISPERSION

Un diagrama de dispersión es una gráfica en la que cada punto trazado representa un par
de valores observados de las variables independientes y dependientes. El valor de la
variable independiente X se ubica en el eje horizontal mientras que el valor de la
variable independiente Y se ubica en el eje vertical, una vez ubicados en un plano
cartesiano podemos obtener una imagen de cómo esta distribuida la muestra bien sea
(línea positiva, línea inversa o no hay relación, entre otras).

COEFICIENTE DE CORRELACION DE PEARSON


En la mayoría de los casos el principal interés del investigador no solamente está en
poder medir la relación que puede existir, entre las dos variables, directa e inversa , sino
que además se concentra en determinar si están o no correlacionados, y en caso
afirmativo, en hallar que tan fuerte es éste grado de relación. Esta técnica analítica que
se utiliza en hallar este grado de relación, recibe el nombre de análisis de correlación.
El valor del coeficiente de correlación puede ir de -1.00 a +1.00. El signo aritmético
asociado con el coeficiente de correlación indica la dirección de la relación entre X y Y
(positivo igual a directa; negativo igual inversa). Cuando las dos variables no están
correlacionadas el coeficiente de correlación es 0 o muy cercano a 0.
Con base a éstos hechos, podemos deducir que mientras más cerca esté el valor
numérico del coeficiente de correlación a +1 o -1, entonces más estrecho será el grado
de relación de las variables estudiadas.

n __ __
 X iYi  n X Y
i 1
r
 n 2 __ 2  n __ 2 
  X i  n X   Yi 2  n Y 
 i 1  i 1 
  

donde:

- El símbolo sumatoria de Xi *Yi es el total de la columna de la tabla respectiva


- n es el numero de observaciones
- X barra es la suma de los Xi dividido entre n
- Y barra es la suma de los Yi dividido entre n
- Sumatoria de los Xi al cuadrado, total de la columna de Xi 2
Y así sucesivamente se reemplazan los datos en la fórmula.

n n

__  Xi __  Yi
i 1 i 1
X Y 
n n

Para hacer más cómodos los cálculos podemos realizar la siguiente tabla con las
siguientes columnas:

Xi Yi Xi*Yi Xi2 Yi2

Totales

También podría gustarte