Está en la página 1de 6

Asimetra estadstica Las medidas de asimetra son indicadores que permiten establecer el grado de simetra (o asimetra) que presenta

una distribucin de probabilidad de una variable aleatoria sin tener que hacer su representacin grfica. Como eje de simetra consideramos una recta paralela al eje de ordenadas que pasa por la media de la distribucin. Si una distribucin es simtrica, existe el mismo nmero de valores a la derecha que a la izquierda de la media, por tanto, el mismo nmero de desviaciones con signo positivo que con signo negativo. Decimos que hay asimetra positiva (o a la derecha) si la "cola" a la derecha de la media es ms larga que la de la izquierda, es decir, si hay valores ms separados de la media a la derecha. Diremos que hay asimetra negativa (o a la izquierda) si la "cola" a la izquierda de la media es ms larga que la de la derecha, es decir, si hay valores ms separados de la media a la izquierda. Coeficiente de asimetra de Fisher[editar] En teora de la probabilidad y estadstica, la medida de asimetra ms utilizada parte del uso del tercer momento estndar. La razn de esto es que nos interesa mantener el signo de las desviaciones con respecto a la media, para obtener si son mayores las que ocurren a la derecha de la media que las de la izquierda. Sin embargo, no es buena idea tomar el momento estndar con respecto a la media de orden 1. Debido a que una simple suma de todas las desviaciones siempre es cero. En efecto, si por ejemplo, los datos estn agrupados en clases, se tiene que:

en donde representa la marca de la clase -sima y denota la frecuencia relativa de dicha clase. Por ello, lo ms sencillo es tomar las desviaciones al cubo. El coeficiente de asimetra de Fisher, representado por como: , se define

donde es el tercer momento en torno a la media y estndar. Si Si

es la desviacin

, la distribucin es asimtrica positiva o a la derecha. , la distribucin es asimtrica negativa o a la izquierda.

Si la distribucin es simtrica, entonces sabemos que . El recproco no es cierto: es un error comn asegurar que si entonces la distribucin es simtrica (lo cual es falso).

Coeficiente de asimetra de Pearson[editar] Slo se puede utilizar en distribuciones uniformes, unimodales y moderadamente asimtricas. Se basa en que en distribuciones simtricas la media de la distribucin es igual a la moda.

Si la distribucin es simtrica, y . Si la distribucin es asimtrica positiva la media se sita por encima de la moda y, por tanto, . Coeficiente de asimetra de Bowley[editar] Est basado en la posicin de los cuartiles y la mediana, y utiliza la siguiente expresin:

En una distribucin simtrica el tercer cuartil estar a la misma distancia de la mediana que el primer cuartil. Por tanto . Si la distribucin es positiva o a la derecha, .

Teorema De Chebyshev seala la probabilidad de que variable aleatoria difiera de su media en t veces la desviacion estandar es por lo menos iguala 1/t) o Teorema de Chebyshev: Para un conjunto cualquiera de observaciones (muestra o poblacin), la proporcin mnima de los valores que se encuentran dentro de k desviaciones estndares desde la media es al menos 1 1/k2, donde k es una constante mayor que 1. En probabilidad, la desigualdad de Chebyshev es un resultadoestadstico que ofrece una cota inferior a la probabilidad de que el valor de una variable aleatoria con varianza finita est a una cierta distancia de su esperanza matemtica o de su media; equivalentemente, el teorema proporciona una cota superior a la probabilidad de que los valores caigan fuera de esa distancia respecto de la media. El teorema es aplicable incluso endistribuciones que no tienen forma de "curva de campana" y acota la cantidad de datos que estn o no "en medio". Teorema: Sea X una variable aleatoria de media y varianza finita . Entonces, para todo nmero real k > 0, k\sigma)\leq\frac{1}{k^2}." src="http://upload.wikimedia.org/math/a/b/c/abc4ac8eeb75c0db369ab6c6f8be1 9ec.png"> Slo los casos con k > 1 proporcionan informacin til. Para ilustrar este resultado, supongamos que los artculos de Wikipedia tienen una extensin media de 1000 caracteres y unadesviacin tpica de 200

caracteres. De la desigualdad de Chebyshev se deduce que al menos el 75% de los artculos tendrn una extensin comprendida entre 600 y 1400 caracteres (k = 2). Otra consecuencia del teorema es que para cada distribucin de media y desviacin tpica finita , al menos la mitad de los valores caern en el intervalo (-2 , +2 ). Las cotas proporcionadas por la desigualdad de Chebyshev, en general, no se pueden mejorar; es posible construir una variable aleatoria cuyas cotas de Chebyshev sean exactamente iguales a las probabilidades reales. Sin embargo, en general el teorema proporcionar cotas poco precisas. El teorema puede ser til a pesar de las cotas imprecisas porque se aplica a una amplia gama de variables que incluye las que estn muy alejadas de la distribucin normal, y porque las cotas son fciles de calcular. El teorema se emplea para demostrar la ley dbil de los nmeros grandes. El teorema recibe su nombre del matemtico Pafnuty Chebyshev.

Medidas de dispersin Las medidas de dispersin, tambin llamadas medidas de variabilidad, muestran la variabilidad de una distribucin, indicando por medio de un nmero, si las diferentes puntuaciones de una variable estn muy alejadas de la mediana media. Cuanto mayor sea ese valor, mayor ser la variabilidad, cuanto menor sea, ms homognea ser a la mediana media. As se sabe si todos los casos son parecidos o varan mucho entre ellos. Para calcular la variabilidad que una distribucin tiene respecto de su media, se calcula la media de las desviaciones de las puntuaciones respecto a la media aritmtica. Pero la suma de las desviaciones es siempre cero, as que se adoptan dos clases de estrategias para salvar este problema. Una es tomando las desviaciones en valor absoluto (Desviacin media) y otra es tomando las desviaciones al cuadrado (Varianza). Rango estadstico[editar] El rango o recorrido estadstico es la diferencia entre el valor mximo y el valor mnimo en un grupo de nmeros aleatorios. Se le suele simbolizar con R. Medio rango o Rango medio[editar] El medio rango o rango medio de un conjunto de valores numricos es la media del mayor y menor valor, o la tercera parte del camino entre el dato de menor valor y el dato de mayor valor. En consecuencia, el medio rango es:

Varianza[editar] Artculo principal: Varianza.

La varianza es una medida estadstica que mide la dispersin de los valores respecto a un valor central (media), es decir, es el cuadrado de las desviaciones:

Desviacin tpica[editar] La varianza a veces no se interpreta claramente, ya que se mide en unidades cuadrticas. Para evitar ese problema se define otra medida de dispersin, que es la desviacin tpica, odesviacin estndar, que se halla como la raz cuadrada positiva de la varianza. La desviacin tpica informa sobre la dispersin de los datos respecto al valor de la media; cuanto mayor sea su valor, ms dispersos estarn los datos. Esta medida viene representada en la mayora de los casos por S, dado que es su inicial de su nominacin en ingls. Desviacin tpica muestral[editar]

Desviacin tpica poblacional[editar]

Covarianza[editar] Artculo principal: Covarianza. La covarianza entre dos variables es un estadstico resumen indicador de si las puntuaciones estn relacionadas entre s. La formulacin clsica, se simboliza por la letra griega sigma () cuando ha sido calculada en la poblacin. Si se obtiene sobre una muestra, se designa por la letra " ". La formula suele aparecer expresada como:

Este tipo de estadstico puede utilizarse para medir el grado de relacin de dos variables si ambas utilizan una escala de medida a nivel de intervalo/razn (variables cuantitativas). La expresin se resuelve promediando el producto de las puntuaciones diferenciales por su tamao muestral (n pares de puntuaciones, n-1 en su forma insesgada). Este estadstico, refleja la relacin lineal que existe entre dos variables. El resultado numrico fluctua entre los rangos de +infinito a -infinito. Al no tener unos lmites establecidos no puede determinarse el grado de relacin lineal que existe entre las dos variables, solo es posible ver la tendencia.

Coeficiente de Correlacin de Pearson[editar] El coeficiente de correlacin de Pearson, r, permite saber si el ajuste de la nube de puntos a la recta de regresin obtenida es satisfactorio. Se define como el cociente entre la covarianza y el producto de las desviaciones tpicas (raz cuadrada de las varianzas).

Teniendo en cuenta el valor de la covarianza y las varianzas, se puede evaluar mediante cualquiera de las dos expresiones siguientes: Ejemplo Para una muestra de valores (3, 3, 5, 6, 8), el dato de menor valor Min= 3 y el dato de mayor valor Max= 8. El medio rango resolvindolo mediante la correspondiente frmula

sera:

Bibliografa
http://es.wikipedia.org/wiki/Medidas_de_dispersi%C3%B3n http://apaecvee.blogspot.com/2008/03/teorema-de-chebyshev.html http://es.wikipedia.org/wiki/Asimetr%C3%ADa_estad%C3%ADstica