Está en la página 1de 6

República Bolivariana de Venezuela

Ministerio del P.P.P La Educación Superior


Universidad Nacional Experimental
“Simón Rodríguez”
UNESR

Medidas de
Dispersión y
Asimetría
Facilitadora: Participantes:

Danea González Daniela Roa V-28.049.129


Alejandro Rosales V-
27.559.762
Paola Figuera V-29. 936. 223
Luis Cabrera V-27.964.091
Sección: B

Mat. 20/04/2020
Medidas de dispersión y asimetría
Dispersión: Es el grado en que una distribución se estira o
exprime. Ejemplos comunes de medidas de dispersión estadística son
la varianza, la desviación estándar y el rango intercuartil. Las medidas
de dispersión se contrastan con la ubicación o la tendencia central, y
juntas son las propiedades más utilizadas de las distribuciones. Una
medida de dispersión estadística es un número real no negativo que es
cero si todos los datos son iguales y aumenta a medida que los datos se
vuelven más diversos.

Asimetría: Las medidas de asimetría son indicadores que


permiten establecer el grado de simetría (o asimetría) que presenta
una distribución de probabilidad de una variable aleatoria sin tener
que hacer su representación gráfica. Como eje de simetría
consideramos una recta paralela al eje de ordenadas que pasa por la
media de la distribución. Si una distribución es simétrica, existe el
mismo número de valores a la derecha que a la izquierda de la media,
por tanto, el mismo número de desviaciones con signo positivo que con
signo negativo. Decimos que hay asimetría positiva (o a la derecha) si
la "cola" a la derecha de la media es más larga que la de la izquierda, es
decir, si hay valores más separados de la media a la derecha. Diremos
que hay asimetría negativa (o a la izquierda) si la "cola" a la izquierda
de la media es más larga que la de la derecha, es decir, si hay valores
más separados de la media a la izquierda.

Dispersión por serie

Rango o recorrido

El rango, también conocido como recorrido es la diferencia entre


el valor más alto y el más bajo de un conjunto de datos. En cierto modo,
se puede considerar que es el mismo concepto que el dominio de una
función continua.

Ejemplo: El Índice de Desarrollo Humano (IDH) mide cuan


desarrollado está un país en función de varios parámetros. La
siguiente tabla muestra el ranking de IDH de los países de la Unión
Europea:

País Ranking IDH


Alemania 23
Austria 15
Bélgica 17
Bulgaria 53
Chipre 28
Dinamarca 14
Eslovaquia 42
Eslovenia 27
España 13
Estonia 44
Finlandia 11
Francia 10
Grecia 24
Hungría 36
Irlanda 5
Italia 20
Letonia 43
Lituania 45
Luxemburgo 18
Malta 34
Países Bajos 9
Polonia 37
Portugal 29
Reino Unido 16
República Checa 32
Rumania 60
Suecia 6

El país con una posición más alta en el ranking es Irlanda (el


quinto), mientras que el más bajo es Rumania en la posición 60
Así pues, el rango de dicha puntuación es: 60-5 = 55 posiciones
Rango intercuartílico
En estadística descriptiva, se le llama rango intercuartílico o
rango intercuartil, a la diferencia entre el tercer y el primer cuartil de
una distribución. Es una medida de la dispersión estadística. A
diferencia del rango, se trata de un estadístico robusto. El rango
intercuartílico es una medida de variabilidad adecuada cuando la
medida de posición central empleada ha sido la mediana. Se define
como la diferencia entre el tercer cuartil (Q3) y el primer cuartil (Q1),
es decir: RQ = Q3 - Q1. A la mitad del rango intercuartil se le conoce
como desviación cuartil (DQ), es afectada muy poco por cuentas
extremas. Esto lo hace una buena medida de dispersión para
distribuciones sesgadas: DQ = RQ/2= (Q3 - Q1)/2. Se usa para
construir los diagramas de caja y bigote (box plots) que sirven para
visualizar la variabilidad de una variable y comparar distribuciones de
la misma variable; además de ubicar valores extremos.
Desviación semi intercuartílica
El rango semi-intercuartil es un medio de la diferencia entre el
primer y tercer cuartiles. Es la mitad de la distancia requerida para
cubrir la mitad de las cuentas. El rango semi-intercuartil es afectado
muy poco por cuentas extremas. Esto lo hace una buena medida de
dispersión para distribuciones sesgadas.
Desviación media
En estadística la desviación absoluta promedio o, sencillamente
desviación media o promedio de un conjunto de datos es la media de
las desviaciones absolutas y es un resumen de la dispersión estadística.
Desviación Estándar
En estadística, la desviación típica es una medida que se usa para
cuantificar la variación o dispersión de un conjunto de datos
numéricos. Una desviación estándar baja indica que la mayor parte de
los datos de una muestra tienden a estar agrupados cerca de su media
(también denominada el valor esperado), mientras que una desviación
estándar alta indica que los datos se extienden sobre un rango de
valores más amplio.
La desviación estándar de una variable aleatoria, población
estadística, conjunto de datos o distribución de probabilidad es la raíz
cuadrada de su varianza. Es algebráicamente más simple, aunque en la
práctica menos robusta, que la desviación media. Una propiedad útil de
la desviación estándar es que, a diferencia de la varianza, se expresa en
las mismas unidades que los datos a partir de los que se calcula.
Varianza
En teoría de probabilidad, la varianza o variancia de una variable
aleatoria es una medida de dispersión definida como la esperanza del
cuadrado de la desviación de dicha variable respecto a su media. Su
unidad de medida corresponde al cuadrado de la unidad de medida de
la variable: por ejemplo, si la variable mide una distancia en metros, la
varianza se expresa en metros al cuadrado. La varianza tiene como
valor mínimo 0. La desviación estándar (raíz cuadrada positiva de la
varianza) es una medida de dispersión alternativa, expresada en las
mismas unidades que los datos de la variable objeto de estudio.
Hay que tener en cuenta que la varianza puede verse muy
influida por los valores atípicos y no se aconseja su uso cuando las
distribuciones de las variables aleatorias tienen colas pesadas. En tales
casos se recomienda el uso de otras medidas de dispersión más
robustas. El término varianza fue acuñado por Ronald Fisher en un
artículo publicado en enero de 1919 con el título The Correlation
Between Relatives on the Supposition of Mendelian Inheritance.
El problema de comparabilidad
Variación relativa
Es el cambio expresado en porcentajes que una cantidad
presenta en dos períodos, en donde el primero sirve como base y el
segundo como período de estudio.
Coeficiente de variación
En estadística, cuando se desea hacer referencia a la relación
entre el tamaño de la media y la variabilidad de la variable, se utiliza el
coeficiente de variación (suele representarse por las siglas "C.V."). Su
fórmula expresa la desviación estándar como porcentaje de la media
aritmética, mostrando una interpretación relativa del grado de
variabilidad, independiente de la escala de la variable, a diferencia de
la desviación típica o estándar. Por otro lado, presenta problemas ya
que a diferencia de la desviación típica este coeficiente es fuertemente
sensible ante cambios de origen en la variable. Por ello es importante
que todos los valores sean positivos y su media dé, por tanto, un valor
positivo. A mayor valor del coeficiente de variación mayor
heterogeneidad de los valores de la variable; y a menor C.V., mayor
homogeneidad en los valores de la variable. Por ejemplo, si el C.V es
menor o igual al 80%, significa que la media aritmética es
representativa del conjunto de datos, por ende, el conjunto de datos es
"Homogéneo". Por el contrario, si el C.V supera al 80%, el promedio no
será representativo del conjunto de datos (por lo que resultará
"Heterogéneo").
Asimetría y su medida: Absoluta y relativa

También podría gustarte