Está en la página 1de 7

EL SESGO: Mide las desviaciones de las MTC.

, Ya que el sesgo es el grado de asimetra o falta de asimetra, de una distribucion, si el poligono de frecuencias visualizado de una distribucion tiene una cola ms larga a la derecha del mximo central que a la izquierda, se dice que la distribucion esta sesgada a la derecha o que tiene sesgo positivo(asimetra positiva) y si al contrario se dice que tiene sesgo (asimetra negativa) en la asimetria encontramos si es: a)asimetricamente + = cuado el sg es mayor a 0 b)normal= cuado el sg = 0 c)simetricamente - cuando el sg es menor a 0 formula: _ Sg= __X -Md__ = Sesgo es igual a: media menos la moda partido o dividido desviacion. S los datos ms utilizados son los sig: moda , media, desviacin. & pero si existen dos o ms modas se utilizara otra formula: Sg=_x-Md__= sesgo es igual a: media menos la mediana partido o dividido desviacin si la asimetria es NORMAL se aplicara la curtosis : si y solo si la asimertra es normal. 2.5.2. Medidas de apuntamiento o curtosis: coeficiente de curtosis de Fisher

Las medidas de apuntamiento nos estamos refiriendo al grado de apuntamiento que tiene una distribucin; para determinarlo, emplearemos el coeficiente de curtosis de Fisher. - Si existe simetra, entonces g1 = 0, y Me X = ; si adems la distribucin es unimodal, 2.5.2. Medidas de apuntamiento o curtosis: coeficiente de curtosis de Fisher

Con estas medidas nos estamos refiriendo al grado de apuntamiento que tiene una distribucin; para determinarlo, emplearemos el coeficiente de curtosis de Fisher. (g2)

2.3. Momentos potenciales Los momentos son medidas obtenidas a partir de todos los datos de una variable estadstica y sus frecuencias absolutas. Estas medidas caracterizan a las distribuciones de frecuencias de tal forma que si los momentos coinciden en dos distribuciones, diremos que son iguales. 2.3.1. Momentos respecto al origen Se define el momento de orden h respecto al origen de una variable estadstica a la expresin:

Particularidades: Si h = 1, a1 es igual a la media aritmtica. Si h = 0, a0 es igual a uno ( a0 = 1 ) 2.3.2. Momentos centrales o momentos con respecto a la media aritmtica Particularidades: - Si h = 1, entonces m1 = 0 - Si h = 2, entonces m2 = S2 COEFICIENTE DE CORRELACIN
Frecuentemente denominado correlacin. Una medida estadstica ampliamente utilizada que mide el grado de relacin lineal entre dos variables aleatorias. El coeficiente de correlacin debe situarse en la banda de -1 a +1. El coeficiente de correlacin se calcula dividiendo la covarianza de las dos variables aleatorias por el producto de las desviaciones tpicas individuales de las dos variables aleatorias. Las correlaciones desempean un papel vital en la creacin de carteras y la gestin de riesgos

En realidad, la eficacia de una cobertura puede valorarse a partir del grado de correlacin entre el precio al contado de una posicin en efectivo que se va a cubrir y el precio del instrumento de cobertura. Cuanto mayor sea la correlacin, ms eficaz ser la cobertura. Mide la interdependencia o grado de asociacin entre dos variables. Se define como la relacin por cociente entre la covarianza de las dos variables y el producto de sus desviaciones tpicas. Su valor puede oscilar entre 0 y 1 y 0 y 1, segn que la correlacin sea positiva o negativa. Un coeficiente de correlacin igual a cero significa ausencia de correlacin. El que representa el grado en el cual dos variables estn relacionadas linealmente entre s. Correlation coefficient. (En ingls: correlation coefficient ) Medida estadstica que analiza el grado de dependencia entre dos variables, es decir, cmo se ver afectada una variable determinada, conociendo la variacin de una segunda variable. Este coeficiente toma valores entre -1 y 1, indicando si existe una dependencia directa (coeficiente positivo) o inversa (coeficiente negativo) siendo el 0 la independencia total. Es la raz cuadrada del coeficiente de determinacin. Recta de regresin

Supongamos que en una variable bidimensional queremos precisar la relacin que existe entre las dos variables que la forman. En concreto queremos expresar mediante una relacin cmo depende una de ellas (variable dependiente) de la otra (variable independiente). Normalmente se elige como y la variable dependiente y como x la independiente. Si esa relacin se expresa mediente una funcin lineal del tipo y = ax + b, su grfica correspondera a una recta. En el caso que nos ocupa nos interesa la recta que mejor "se ajuste" a los puntos de la nube de puntos de la variable. Dicha recta se denomina: recta de regresin. Por un mtodo que se denomina de "mnimos cuadrados" y cuya concreccin no corresponde a este nivel de estudio, se deduce que la recta de regresin debe pasar por el punto correspondiente a las medias de ambas variables y que debe tener por pendiente la covarianza dividida por la varianza de la variable x.

Con ello la expresin de la recta de regresin ser: Esta es la llamada "Recta de regresin de y sobre x". Si se deseara estudiar la dependencia de x respecto a y slo habra que cambiar en la expresin de la recta x por y, obtenindose la recta regresin de x sobre y. En la imagen siguiente se muestra la recta de regresin de y (peso) sobre x (talla) del ejemplo 1 de este tema. En este caso se supone que represente cmo depende el peso de una persona de su talla.

Si recordamos que entre la talla y el peso decamos que exista una dependencia directa, la recta de regresin lo confirma ya que su pendiente es positiva: a medida que aumenta la talla aumenta el peso. Por tanto: Dependencia directa - Pendiente de la recta positiva - Funcin creciente. Pero qu utilidad tiene la recta de regresin? En la tabla de valores de la variable talla - peso, solamente nos dan los valores de un determinado nmero de personas (10 en este caso): las personas de las que se conocen dichos valores. Mediante la recta de regresin podramos obtener de manera aproximada el peso de una persona de la que conociramos la talla, en una poblacin semejante a aquella de la que se ha obtenido la muestra. Si observamos la grfica anterior, podramos suponer por ejemplo que una persona de 185 cm pesara algo ms de 80 kg. De manera ms precisa, si conocemos la expresin de la recta de regresin, se pueden calcular valores para la variable y, conocidos los de x, como si se tratara de una funcin. Ejemplo 4.- La recta de regresin de la variable y (talla) sobre x (peso) ser la recta: - que pasa por el punto (172,6 ; 66,3) - tiene de pendiente: 55,32 / 50,71 = 1,0909 Recta: y - 66,3 = 1,0909 ( x - 172,6) que operando y simplificando queda: y = 1,0909x - 121,9 El valor del peso que suponamos aproximado para una talla de 185 cm sera: Peso= 1.0909 185 - 121,9 = 79.9 Este valor obtenido es algo menor al esperado. Eso quiere decir que las predicciones hechas con la recta de regresin no son exactas. En el apartado siguiente precisaremos la "fiabilidad" de las mismas. Por tanto la recta de regresin se puede utilizar para realizar predicciones para la variable y a partir de valores conocidos de la variable x. Error estndar en la estimacin El error estndar de la estimacin designado por sYX mide la disparidad promedio entre los valores observados y los valores estimados de . Se utiliza la siguiente formula.

Debemos entonces calcular los valores de para cada ciudad sustituyendo en la ecuacin los valores de los porcentajes de graduados de cada ciudad estudiada. YX 4.2 7.2 4.6 0.4 0.16 4.9 6.7 4.5 0.4 0.16 7.0 17.0 6.6 0.4 0.16 6.2 12.5 5.7 0.5 0.25 3.8 6.3 4.4 0.6 0.36 7.6 23.9 8.0 0.4 0.16 4.4 6.0 4.4 0.0 0.00 5.4 10.2 5.2 0.2 0.04 1.29 Syx = 0.46 (decenas de miles $) Como esta medida trata de resumir la disparidad entre lo observado y lo estimado, es decir, trata de medir la diferencia promedio entre lo observado y lo estimado esperado de acuerdo al modelo, puede considerarse como un indicador del grado de precisin con que la ecuacin de regresin, describe la relacin entre las dos variables. Este error estndar se ve afectado por las unidades y sus cambios ya que es una medida absoluta, pues, se da en la misma unidad de medida que esta dada la variable Y; en el ejemplo 0.46 sern decenas de miles de pesos, razn por la cual no es posible comparar con las relaciones de variables dadas en distinta unidad de medida. Es necesario entonces calcular una medida que interprete o mida mejor el grado de relacin entre las variables. El error estndar de la regresin mltiple Es una medida de dispersin la estimacin se hace ms precisa conforme el grado de dispersin alrededor del plano de regresin se hace mas pequeo. Para medirla se utiliza la formula: Y : Valores observados en la muestra : Valores estimados a partir a partir de la ecuacin de regresin n : Nmero de datos

m : Nmero de variables independientes x: valores de las muestras c