Está en la página 1de 10

ESTADISTICOS DESCRIPTIVOS

Notas
Indice
1. OBJETIVOS ...................................................................................................................................................... 1
2. MEDIDAS DE DESCRIPCIÓN DE UNA VARIABLE ALEATORIA.................................................................................... 1
3. DESIGUALDAD DE CHEBYCHEV ......................................................................................................................... 9

1. Objetivos
• Obtener e interpretar los índices estadísticos descriptivos basados en momentos
• Obtener e interpretar los índices estadísticos, basados en ordenaciones
• Conocer cuáles son los índices estadísticos adecuados para describir una variable aleatoria

2. Medidas de descripción de una variable aleatoria

2.1. Medidas de tendencia central. Características, ventajas y desventajas


2.1.1 Media aritmética
La media aritmética de una variable estadística es la suma de todos sus posibles valores, ponderada por las
frecuencias de los mismos. Es decir, si la tabla de valores de una variable X es

X ni fi
x1 n1 f1

xk nk fk
Entonces, para datos agrupados, la media se calcula como:
n

∑x n i i
x= i =1
n
y si las medidas no están agrupadas en una tabla:
n

∑x i
x= i =1
n
Algunos inconvenientes de la media son:
• Es muy sensible a los valores extremos de la variable: ya que todas las observaciones intervienen
en el cálculo de la media, la aparición de una observación extrema, hará que la media se desplace
en esa dirección. No es recomendable usar la media como medida central en las distribuciones muy
asimétricas;
• Si consideramos una variable discreta, el valor de la media puede no pertenecer al conjunto de
valores de la variable (por ejemplo si tiene decimales, al tratarse de un cálculo aritmético)
2.1.2. Medias generalizadas

Media geométrica
La media geométrica es la raíz n -ésima del producto de los valores de la variable:
xg = n x1 x2 xn
Es decir, la media geométrica es igual al antilogarítmo de la media aritmética de los logaritmos de los
valores de la variable, ya que:
log x1 + log x2 + + log xn
log xg =
n
La media geométrica se suele emplear para promediar porcentajes, tasas y números índices.
Media armónica
La media armónica se define como el recíproco de la media aritmética de los recíprocos:
1 1 1
+ + +
1 x1 x2 xn
=
xa n
n
xa =
1 1 1
+ + +
x1 x2 xn
Se suele utilizar para promediar velocidades, rendimientos y en general magnitudes expresadas en términos
relativos.
Media cuadrática
La media cuadrática es la raíz cuadrada de la media aritmética de los cuadrados:

x12 + x22 + + xn2


xc =
n
2.1.3. Mediana
Consideramos una variable discreta X cuyas observaciones en una tabla estadística han sido ordenadas
de menor a mayor. Llamaremos mediana, M ed , al primer valor de la variable que deja por debajo de sí al
50 % de las observaciones. En el caso de variables continuas, las clases vienen dadas por intervalos. Si el
(
intervalo por debajo del cual hemos encontrado que están el 50 % de las observaciones es li −1 , li  , donde:

n
− N i −1
M ed = li −1 + 2 ai
ni
Propiedades de la mediana:
• Como medida descriptiva, tiene la ventaja de no estar afectada por las observaciones extremas, ya
que no depende de los valores que toma la variable, sino del orden de las mismas. Por ello es
adecuado su uso en distribuciones asimétricas;
• Es de cálculo rápido y de interpretación sencilla;
• A diferencia de la media, la mediana de una variable discreta es siempre un valor de la variable que
estudiamos (por ejemplo, la mediana de una variable número de hijos toma siempre valores
enteros, no así la media).

Moda
Es cualquier máximo relativo de la distribución de frecuencias, es decir, cualquier valor de la variable que
posea una frecuencia mayor que su anterior y su posterior.

2
Propiedades de la moda:
• Es muy fácil de calcular;
• Puede no ser única.

medidas de tendencia central


datos sin agrupar datos agrupados
intervalo xi ni Ni
l0 − l1 x1 n1 N1
(ordenados)
l1 − l2 x2 n2 N2
x1 , x2 , , xN

lk −1 − lk xk nk Nk
n k

Media x1 + x2 + + xn ∑ xi n1 x1 + n2 x2 + + nk xk ∑x n i i
x= = i=1 x= = i =1
N N N N
Primera observación que deja debajo de sí
N N
estrictamente a las   observaciones menores: − N i −1
Mediana 2 M ed = li −1 + 2 ai
M ed = x N ni
+1
2

n1′ − n1′−1
M oda = xi de mayor frecuencia M oda = li −1 + ai
Moda
( n′ − n′ ) + ( n′ − n′ )
1 1 −1 1 1+1

2.1.4. Relación entre las medidas de tendencia central


• La media es la mejor por que utiliza toda la información, es decir, tiene en consideración todos los
valores de la distribución, tiene también como ventaja que es única. Como desventaja más importante
está el hecho de que es muy sensible a la presentación de datos anómalos o atípicos que hacen que la
media se desplace hacia ellos y como consecuencia no es recomendable usar la media en estos casos.
Otra desventaja es que puede no coincidir con uno de los valores de la variable.
• La mediana utiliza menos información que la media puesto que no depende de los valores de la variable
sino del orden que ocupa. Por este motivo tiene la ventaja de no estar afectada por observaciones
extremas. La mediana la utilizaremos cuando la media falle. Otra ventaja frente a la media es que es un
valor de la variable.
• La moda es la que menos información maneja y por tanto la peor. Tiene la ventaja de que puede
calcularse incluso para datos cualitativos. Otra desventaja es que no es única.
• Si la distribución es simétrica y campaniforme coinciden. En el caso de distribuciones campaniformes, la
mediana está con frecuencia entre la media y la moda (algo más cerca de la media). La siguiente
relación nos permite calcular una de estas medidas de centralización en función de las otras:
M oda ≈ 3× M ed − 2 × x

2.2. Medidas de posición o localización


Para una variable discreta, se define el percentil de orden k , como la observación, Pk , que deja por debajo
de si el k % de la población.

3
M ed = P50

(
En el caso de una variable continua, el intervalo donde se encuentra Pk ∈ li −1 , li  se calcula buscando el
que deja debajo de si al k % de las observaciones.
k
n − N i −1
Pk = li −1 + 100 ai
ni
En general, el cálculo de los cuantiles (datos ordenados) se basa en la fórmula:
α n − N i −1
Cα = Li −1 +
ni
(L − L )
i i −1

Los cuartiles son los tres valores que dividen al conjunto de datos ordenados en cuatro partes iguales, son
un caso particular de los percentiles:
Q1 = P25
Q2 = P50 = M ed
Q3 = P75
Los deciles son los nueve valores que dividen al conjunto de datos ordenados en diez partes iguales, son
también un caso particular de los percentiles,
Di = P10 i i = 1, 2, ,9

2.3. Medidas de dispersión


Los estadísticos de tendencia central o posición indican donde se sitúa un grupo de puntuaciones. Los de
variabilidad o dispersión indican si esas puntuaciones o valores están próximos entre sí o si por el contrario
están o muy dispersas.

2.3.1. Varianza
Se define como la media de las diferencias cuadráticas de n puntuaciones con respecto a su media
aritmética:
1 n
s2 = ∑
n i=1
( xi − x ) 2

• Siempre es una cantidad positiva.


• Como sus unidades son las del cuadrado de la variable, es más sencillo usar su raíz cuadrada, la
desviación típica

4
2.3.2. Desviación típica
Si queremos que la medida de dispersión sea de la misma dimensionalidad que las observaciones basta
con tomar su raíz cuadrada. Por ello se define la desviación típica,

s ∼ s2
Propiedades de la varianza y desviación típica
• Ambas son sensibles a la variación de cada una de las puntuaciones, es decir, si una puntuación
cambia, cambia con ella la varianza. La razón es que si miramos su definición, la varianza es
función de cada una de las puntuaciones.
• No es recomendable el uso de ellas, cuando tampoco lo sea el de la media como medida de
tendencia central.
• La desviación típica tiene la propiedad de que en el intervalo
def
( x − 2 s, x + 2 s ) ∼ x ± 2s
se encuentra, al menos, el 75 % de las observaciones. Ese porcentaje puede llegar a ser del 95% si
la distribución es normal

2.3.3. Rango, recorrido o amplitud


La amplitud o rango se obtiene restando el valor más bajo de un conjunto de observaciones del valor más
alto.
Propiedades del rango
• Es fácil de calcular y sus unidades son las mismas que las de la variable
• No utiliza todas las observaciones (sólo dos de ellas)
• Se puede ver muy afectada por alguna observación extrema
• Aumenta con el número de observaciones, o bien se queda igual. En cualquier caso nunca
disminuye.

2.3.4. Desviación media respecto a la media


La desviación media respecto a la media se define como el promedio de las desviaciones en valor absoluto
respecto a la media aritmética:
n

∑ x −x i ni
Dx = i =1
n
Si toma valores grandes significa que los valores de la variable se distribuirán en valores alejados de la
media.

2.3.5. Desviación media respecto a la mediana


La desviación media respecto a la mediana se define como el promedio de las desviaciones en valor
absoluto respecto a la mediana:
n

∑ x −M i ed ni
DM ed = i =1
n
Si DM ed es grande los valores están dispersos respecto de la mediana.

2.3.6. Coeficiente de variación de Pearson


El coeficiente de variación de Pearson elimina la dimensionalidad de las variables y tiene en cuenta la
proporción existente entre medias y desviación típica.
Propiedades del coeficiente de variación
• Sólo se debe calcular para variables con todos los valores positivos. Todo índice de variabilidad es
esencialmente no negativo. Las observaciones pueden ser positivas o nulas, pero su variabilidad

5
debe ser siempre positiva. De ahí que sólo debemos trabajar con variables positivas, para las que
tenemos con seguridad una media positiva.
• No es invariante ante cambios de origen. Es decir, si a los resultados de una medida le sumamos
una cantidad positiva, b > 0 , para tener y = x + b , entonces CVy < CVx .

• Es invariante a cambios de escala (por ej. el CV de una variable medida en m es una cantidad
adimensional que no cambia si la medición se realiza en cm).

2.3.7. Valor map

Un parámetro estadístico robusto para describir la precisión es la distancia ma p del p % de la mediana.


Por ejemplo, para una p de 68 %, al menos el 68 % de las medidas se encuentran en el intervalo
M ed ± ma68 , donde M ed representa la mediana de las medidas en la muestra.
En general, el intervalo M ed ± ma p contiene al menos el p % de la muestra. Es un parámetro que no
requiere conocer la estructura de los datos, pero no es recomendable para muestras con menos de 15
datos.

2.3.8. Rango intercuartílico

Se calcula como la diferencia entre los cuartiles Q3 − Q1 , en el que se encuentra aproximadamente el 50 %


de la distribución.
0.05

Mín. P25 P50 P75 Máx.


0.04
0.03

25% 25% 25% 25%


0.02

Rango intercuartílico
0.01

Rango
0.00

150 160 170 180 190

ma68

2.3.9. Rango semiintercuartílico


Q3 − Q1
Quizás más utilizado que el rango intercuartílico sea el semiintercuartílico, definido como .
2

2.4. Momentos de una variable aleatoria


Para una variable cuantitativa X , si p es un número natural, se define el momento de orden p como

1 n p
µp = ∑ xi
n i=1
2.4.1. Momentos respecto al origen (no centrados)

Se define el momento de orden p , ( m1 ) , ( p = 0,1, 2, ) respecto al origen, como la media aritmética de


las potencias p –ésimas de los datos:

6
n

∑x i
p
ni
mp = i =1
n
Casos particulares:
n

∑x 0
i ni
n
m0 = i =1
= =1
n n
n

∑x n 1
i i
m1 = i =1
=x
n
2.4.2. Momentos respecto a la media (centrados)

Se define el momento de orden r , ( mr ) , ( r = 0,1, 2, ) respecto a la media como:


n

∑ (x − x ) i
r
ni
mr = i =1

n
Casos particulares:
n

∑(x − x )
0
i ni
n
m0 = i =1
= =1
n n
n

∑(x − x ) n
1
i i
m1 = i =1
= x−x = 0
n
n

∑(x − x )
2
i ni
m2 = i =1
= σ2
n
2.4.3. Relación entre los momentos centrados y no centrados
La ecuación general que permite convertir un momento de orden n respecto al origen en un momento
centrado es
n
n
µn = ∑   ( −1)
n −i
µi′ x n − i
i i =1  
donde x es la media de la distribución; y
µi′ es el momento de orden i respecto al origen.

2.4.4. Centralización y tipificación de una variable aleatoria


Se conoce por tipificación al proceso de restar la media y dividir por su desviación típica a una variable X .
De este modo se obtiene una nueva variable, que llamamos variable tipificada:
X −x
Z=
s
cuya media es z = 0 y con desviación típica s z = 1 .

7
Esta nueva variable carece de unidades y permite hacer comparables dos medidas que en un principio no lo
son. También es aplicable al caso en que se quieran comparar individuos semejantes de poblaciones
diferentes.

2.5. Medidas de forma


2.5.1. Coeficientes de asimetría
Para saber si una distribución de frecuencias es simétrica, hay que precisar con respecto a qué. Un buen
candidato es la mediana, ya que para variables continuas, divide al histograma de frecuencias en dos partes
de igual área.
Una distribución de frecuencias es simétrica si el lado derecho de la gráfica (a partir de la mediana) es la
imagen por un espejo del lado izquierdo.
Cuando la variable es discreta, decimos que es simétrica, si lo es con respecto a la media.
Tipos de asimetría:
• Asimetría positiva: si las frecuencias más altas se encuentran en el lado izquierdo de la media,
mientras que en el derecho hay frecuencias más pequeñas (cola);
• Asimetría negativa: cuando la cola está en el lado izquierdo.
Los momentos de orden p impar son siempre nulos si la distribución es simétrica.

Momento central de orden 3


El momento central de orden 3 es un buen índice de asimetría, de modo que la asimetría es positiva si
m3 > 0 y negativa si m3 < 0 .
Coeficiente de asimetría de Fisher
n

∑ (x − x )
i
3
ni
m3
g1 = i =1
3
=
ns s3
Indice de Yule–Bowley
Es un índice basado en 3 cuartiles, que varía entre –1 y 1:

As =
( Q3 − Q2 ) − ( Q2 − Q1 )
Q3 − Q1
Indice “media-mediana/desviación típica”

3 ( x − M ed )
As =
s
Coeficiente de asimetría de Pearson

Si la distribución es simétrica x = M ed y por tanto As = 0 . Si As > 0 la distribución es asimétrica positiva.


Si As < 0 la distribución es asimétrica negativa:

x − M oda
As =
s
2.5.2. Coeficiente de apuntamiento o curtosis
Miden la mayor o menor cantidad de datos que se agrupan en torno a la moda. Solo tienen sentido en
distribuciones campaniformes, es decir, unimodales simétricas o ligeramente asimétricas.

8
Coeficiente de apuntamiento de Fisher
n

∑ (x − x )
i
4
ni
m4
g2 = i =1
4
−3 = −3
ns s4
donde m4 es el momento empírico de cuarto orden.
Se trata de un coeficiente adimensional, invariante ante cambios de escala y origen. Sirve para medir si una
distribución de frecuencias es muy apuntada o no. Para decir si la distribución es larga y estrecha, hay que
tener un patrón de referencia. El patrón de referencia es la distribución normal o gaussiana, para la cual
m4
= 3 , con lo cual g 2 = 0 .
σ4
Atendiendo a g 2 , las distribuciones se clasifican en:

• Leptocúrtica ( g 2 > 0 ) : más apuntada que la normal;

• Mesocúrtica ( g 2 = 0 ) : tan apuntada como la normal;

• Platicúrtica ( g 2 < 0 ) : menos apuntada que la normal:

3. Desigualdad de Chebychev
Para cualquier conjunto de datos (de una población o una muestra) y cualquier constante k mayor que 1, el
porcentaje de los datos que debe caer dentro de k -veces la desviación típica de cualquier lado de la media
1  1 
es de por lo menos 1 − 2
. Es decir, al menos el 100  1 − 2  % de los datos se encuentran en el intervalo
k  k 
( x − k sx , x + k sx ) para k > 1 .
El teorema de Chebychev se aplica a cualquier tipo de datos, pero sólo nos indica “por lo menos qué
porcentaje” debe caer entre ciertos límites.
• Si k = 2 , al menos el 75 % de observaciones se encuentra en el intervalo ( x − 2 s x , x + 2 sx ) ;

• Si k = 3 , al menos el 88,9 % de observaciones se encuentra en el intervalo ( x − 3 sx , x + 3 s x ) ;

• Si k = 4 , al menos el 93,75 % de observaciones se encuentra en el intervalo ( x − 4 s x , x + 4 sx ) ;


Pero, para casi todos los datos, el porcentaje real de datos que cae entre esos límites es bastante mayor
que el que especifica el teorema de Chebychev. Para las distribuciones que tienen forma de campana
puede hacerse una aseveración más fuerte:

9
(a) aproximadamente el 68 % de los valores caerán dentro de una desviación típica de la media, esto
es: ( x − σ , x + σ )
(b) aproximadamente el 95 % de los valores caerán dentro de dos desviaciones típicas de la media,
esto es: ( x − 2 σ , x + 2 σ )
(c) aproximadamente el 99,7 % de los valores caerán dentro de tres desviaciones típicas de la media,
esto es: ( x − 3σ , x + 3σ )

Basándonos en el teorema de Chebychev con k = 2 , ¿qué podemos decir del tamaño de nuestro error, si
vamos a usar la media de una muestra aleatoria de tamaño n = 64 para estimar la media de una población
infinita con σ = 20 ?
Sustituyendo n = 64 y σ = 20 en la fórmula apropiada para el error estándar de la media, se obtiene:
20
σx = = 2,5
64
y, por el teorema de Chebychev, se puede afirmar que como mínimo 1 − 1 = 0, 75 que el error será
22
menor que k σ x = 2 × 2,5 = 5 . Es decir que tenemos una garantía de que en el 75 % de los casos la
media de la población estará entre la media calculada ± 5 .

10