Está en la página 1de 50

HOJA DE PRESENTACION

1.2 DATOS AGRUPADOS


Los DATOS AGRUPADOS son un conjunto de información con un patrón establecido de
dichos datos para la facilitación del manejo de los mismos. Los datos se agrupan en
clases con el fin de sintetizar, resumir, condensar o hacer que la información obtenida de
una investigación sea manejable con mayor facilidad. Para que sean datos agrupados
tienes que contarlos y clasificarlos, por ejemplo cuantas personas había de la misma
edad. (Siendo 20 personas).

10 12 13 13 13 13 13 14 15 15 16 16 17 17 18 18 18 20 20 20

Edad..........Frecuencia

10..................1

11..................0

12..................1

13..................5

14..................1

15..................2

16..................2

17..................2

18..................3

19..................0

20..................3

Total............20
Es decir, tenemos menos de 20 elementos en la muestra, entonces estos datos son
analizados sin necesidad de formar clases con ellos y a esto es a lo que se le llama
tratamiento de datos no agrupados. Cuando la muestra consta de 20 o más datos, lo
aconsejable es agrupar los datos en clases y a partir de estas determinar las
características de la muestra y por consiguiente las de la población de donde fue tomada.
Distribución de frecuencia para datos no Agrupados (n20): Es aquella distribución en la
que la disposición tabular de los datos estadísticos se encuentran ordenados en clases y
con la frecuencia de cada clase; es decir, los datos originales de varios valores
adyacentes del conjunto se combinan para formar un intervalo de clase. No existen
normas establecidas para determinar cuándo es apropiado utilizar datos agrupados o
datos no agrupados; sin embargo, se sugiere que cuando el número total de datos (N) es
igual o superior 20, se utilizará la distribución de frecuencia para datos agrupados,
también se utilizará este tipo de distribución cuando se requiera elaborar gráficos lineales
como el histograma, el polígono de frecuencia o la ojiva. La razón fundamental para
utilizar la distribución de frecuencia de clases es proporcionar mejor comunicación acerca
del patrón establecido en los datos y facilitar la manipulación de los mismos. Los datos se
agrupan en clases con el fin de sintetizar, resumir, condensar o hacer que la información
obtenida de una investigación sea manejable con mayor facilidad.

En la práctica la mayor parte de los conjuntos de datos contienen muchas observaciones.


Es decir, tenemos tamaños de muestras muy muy grandes por lo que cuando la cantidad
de información es muy grande resulta conveniente reducirla agrupando las observaciones
en intervalos o tablas de frecuencias. Muchas veces no solo se representan los datos en
forma agrupada para reducir la cantidad de información sino también porque hay
variables que son sensibles a la no respuesta. Es decir, es más probable que una
persona en una encuesta conteste cierta información cuando se le pide que se ubique en
un rango que cuando se le pide el valor exacto. A modo de ejemplo, si vamos a encuestar
una serie de personas y vamos a preguntar su nivel de ingresos, nivel salarial es más
probable que conteste cuando se quiere ubicar en un rango que cuando le pedimos el
valor exacto. Hay otras variables que también son sensibles a la no respuesta como por
ejemplo la edad de las mujeres. La siguiente tabla tiene datos de ingreso mensual en
dólares de 3200 individuos en cierta ciudad. ¿Cómo se lee esto? Estamos diciendo que
de los 3200 individuos hay 250 que perciben un salario entre 150 dólares y 450 dólares y
hay 800 individuos que tienen un salario entre 450 dólares y 750 dólares. Pero estos
intervalos o clases tienen que ser mutuamente excluyentes. ¿Qué quiere decir esto? Si
un individuo que tiene un salario de exactamente de 450 dólares no puede estar en el
primero y segundo intervalo a la vez. Es decir, fíjense cómo está la anotación: el
paréntesis lo que hace es excluir el valor y el corchete lo incluye, que quiere decir que un
individuo que tiene un salario de exactamente 450 dólares está registrado en el primer
intervalo pero no en el segundo intervalo. Si sumamos todas las frecuencias o todas las
observaciones para cada uno de los intervalos vamos a llegar a 3200, es decir, el n, el
tamaño de la muestra. Entonces, vamos a llamar frecuencia al número de observaciones
de cada intervalo clase y vamos a llamar frecuencia acumulada al número total de
observaciones que hay en ese intervalo y en los anteriores. ¿Qué quiere decir esto? Si
me paro en el segundo intervalo que va de 450 a 750 la frecuencia es de 800 individuos
que perciben un salario dentro de ese rango. Y la frecuencia acumulada es de 1050, es
decir, sumamos los 800 más los 250 del intervalo anterior. De esta forma si avanzamos a
lo largo de los intervalos el último intervalo va a tener una frecuencia acumulada igual a n,
es decir, a los 3200 casos. Vamos a llamar frecuencia relativa a la proporción de
observaciones de cada intervalo o clase. En sí lo que queremos hacer es expresar la
frecuencia en términos porcentuales. Pensemos en otro ejemplo, lo que queremos
observar es los días de ausentismo laboral en el último trimestre y supongamos que esta
compañía tiene 1440 empleados y que estos en el último trimestre no faltaron nunca o
faltaron una vez, dos, tres, cuatro o cinco veces. No hay otro caso posible. Es decir, no
hay individuos que hayan faltado 6 o más veces. ¿Qué quiere decir esto? Que hay 410
empleados que nunca faltaron en el último trimestre. Que eso representa el 28,5 % del
total de empleados. O sea, lo que estoy haciendo es 410 dividido entre 1440 por cien
para expresarlo en términos porcentuales. Entonces, lo que uno puede hacer es graficar
un histograma. El histograma nos permite hacernos una idea visual rápida y adecuada de
la proporción de observaciones que se encuentra dentro de un determinado intervalo ¿sí?
Entonces acá tenemos graficado el histograma de los días de ausentismo laboral, donde
en el eje Y está la cantidad de empleados, pero podría estar también la frecuencia
relativa. Un histograma sirve, entre otras cosas, para tener una primera vista de los datos
de cómo estos se distribuyen para poder detectar casos extremos a derecha o a izquierda
de la distribución, para poder detectar problemas con los datos y para ver qué es lo que
sucede con mayor frecuencia. Vamos a ver dos medidas que a veces se denominan
medidas de forma que se refieren a la forma de la distribución. Una es la asimetría y otra
es la curtosis. La distribución de los datos puede ser simétrica o asimétrica. Cuando la
distribución es simétrica, la media va a coincidir con la mediana y va a coincidir con la
moda como se muestra en el primer gráfico.
Es decir, tenemos igual igual proporción de observaciones a izquierda y a derecha de la
media que coincide con la mediana y con la moda por ser el valor más frecuente. En
cambio, podríamos tener casos de distribuciones asimétricas a derecha y a izquierda.
Cuando la distribución es asimétrica derecha quiere decir que es asimétrica positiva, que
el coeficiente de asimetría es positivo. Es decir, existen unos pocos valores extremos a la
derecha de la distribución que hace que se sesge la media de forma tal que la media es
mayor que la mediana, que resulta ser mayor que la moda. La mayor concentración de
los datos está a la izquierda de esta distribución pero hay unos pocos valores extremos a
su derecha. En caso contrario vamos a hablar de asimetría de izquierda y de un
coeficiente de asimetría negativa. En esos casos la media va a ser menor que la mediana
que va a ser menor que la moda. La otra medida de forma que vamos a ver es la que se
conoce como la curtosis. La curtosis mide el grado de concentración que presentan los
valores en la región central de la distribución. Y lo que vamos a hacer es usar como
referencia la distribución normal. Se dice que la distribución normal es mesocúrtica, que
sería el primero de los gráficos. Si tenemos una distribución de datos que tiene una
mayor curtosis que la normal, o exceso de curtosis respecto de la normal, la vamos a
llamar leptocúrtica. Hay un mayor grado de concentración en los valores en la región
central. En cambio si hay una menor curtosis respecto de una distribución normal, lo que
vamos a hacer es decir que esta variable es platicúrtica. Es decir hay un menor grado de
concentración de los valores en torno de la media o la región central. Si entonces vamos
a considerar como punto de referencia la famosa campana de Gauss o distribución
normal.
1.2.1 TABLA DE FRECUENCIA
1.3.1 Tabla de frecuencia Una tabla de frecuencia es una lista donde aparecen dos
columnas básicamente. La primera señala un dato y la segunda columna indica la
cantidad de veces que dicho dato se repite. La frecuencia aporta una información
importante pues permite una manipulación de los datos de forma ordenada Distribución
de frecuencia de clase o de datos Agrupados: Es aquella distribución en la que la
disposición tabular de los datos estadísticos se encuentra ordenados en clases y con la
frecuencia de cada clase; es decir, los datos originales de varios valores adyacentes del
conjunto se combinan para formar un intervalo de clase. No existen normas establecidas
para determinar cuándo es apropiado utilizar datos agrupados o datos no agrupados; sin
embargo, se sugiere que cuando el número total de datos (N) es igual o superior 50 y
además el rango o recorrido de la serie de datos es mayor de 20, entonces, se utilizará la
distribución de frecuencia para datos agrupados, también se utilizará este tipo de
distribución cuando se requiera elaborar gráficos lineales como el histograma, el polígono
de frecuencia o la ojiva. La razón fundamental para utilizar la distribución de frecuencia de
clases es proporcionar mejor comunicación acerca del patrón establecido en los datos y
facilitar la manipulación de los mismos. Los datos se agrupan en clases con el fin de
sintetizar, resumir, condensar o hacer que la información obtenida de una investigación
sea manejable con mayor facilidad. Componentes de una distribución de frecuencia de
clase 1.- Rango o Amplitud total (recorrido).- Es el límite dentro del cual están
comprendidos todos los valores de la serie de datos, en otras palabras, es el número de
diferentes valores que toma la variable en un estudio o investigación dada. Es la
diferencia entre el valor máximo de una variable y el valor mínimo que ésta toma en una
investigación cualquiera. El rango es el tamaño del intervalo en el cual se ubican todos
los valores que pueden tomar los diferentes datos de la serie de valores, desde el menor
de ellos hasta el valor mayor estando incluidos ambos extremos. El rango de una
distribución de frecuencia se designa con la letra R. 2.- Clase o Intervalo de clase.- Son
divisiones o categorías en las cuales se agrupan un conjunto de datos ordenados con
características comunes. En otras palabras, son fraccionamientos del rango o recorrido
de la serie de valores para reunir los datos que presentan valores comprendidos entre
dos limites. Para organizar los valores de la serie de datos hay que determinar un número
de clases que sea conveniente. En otras palabras, que ese número de intervalos no
origine un número pequeño de clases ni muy grande. Un número de clases pequeño
puede ocultar la naturaleza natural de los valores y un número muy alto puede provocar
demasiados detalles como para observar alguna información de gran utilidad en la
investigación. Tamaño de los Intervalos de Clase Los intervalos de clase pueden ser de
tres tipos, según el tamaño que estos presenten en una distribución de frecuencia: a)
Clases de igual tamaño, b) clases desiguales de tamaño y c) clases abiertas. 3.-Amplitud
de Clase, Longitud o Ancho de una Clase La amplitud o longitud de una clase es el
número de valores o variables que concurren a una clase determinada. La amplitud de
clase se designa con las letras Ic. Existen diversos criterios para determinar la amplitud
de clases, ante esa diversidad de criterios, se ha considerado que lo más importante es
dar un ancho o longitud de clase a todos los intervalos de tal manera que respondan a la
naturaleza de los datos y al objetivo que se persigue y esto se logra con la practica. 4.-
Punto medio o Marca de clase El centro de la clase, es el valor de los datos que se ubica
en la posición central de la clase y representa todos los demás valores de esa clase. Este
valor se utiliza para el calculo de la media aritmética. 5.-Frecuencia de clase La
frecuencia de clase se le denomina frecuencia absoluta y se le designa con las letras fi.
Es el número total de valores de las variables que se encuentran presente en una clase
determinada, de una distribución de frecuencia de clase. 6.- Frecuencia Relativa La
frecuencia relativa es aquella que resulta de dividir cada uno de los fi de las clases de una
distribución de frecuencia de clase entre el número total de datos(N) de la serie de
valores. Estas frecuencias se designan con las letras fr; si cada fr se multiplica por 100 se
obtiene la frecuencia relativa porcentual (fr %). 7.-Frecuencias acumuladas Las
frecuencias acumuladas de una distribución de frecuencias son aquellas que se obtienen
de las sumas sucesivas de las fi que integran cada una de las clases de una distribución
de frecuencia de clase, esto se logra cuando la acumulación de las frecuencias se realiza
tomando en cuenta la primera clase hasta alcanzar la ultima. Las frecuencias acumuladas
se designan con las letras fa. Las frecuencias acumuladas pueden ser menor que (fa<
que) y frecuencias acumuladas mayor que (fa>que). 8.- Frecuencia acumulada relativa La
frecuencia acumulada relativa es aquella que resulta de dividir cada una de las fa de las
diferentes clases que integran una distribución de frecuencia de clase entre el número
total de datos (N) de la serie de valores, estas frecuencias se designan con las letras far.
Si las far se multiplican por 100 se obtienen las frecuencias acumuladas relativas
porcentuales y las mismas se designan así: far %. Frecuencia relativa: La frecuencia
absoluta, es una medida que está influida por el tamaño de la muestra, al aumentar el
tamaño de la muestra aumentará también el tamaño de la frecuencia absoluta.
Esto hace que no sea una medida útil para poder comparar. Para esto es necesario
introducir el concepto de frecuencia relativa, que es el cociente entre la frecuencia
absoluta y el tamaño de la muestra. La denotaremos por fi Donde N = Tamaño de la
muestra La frecuencia relativa de un intervalo se obtiene dividiendo la frecuencia dl
intervalo, entre el número total de datos. Cuando el resultado se multiplica por 100
obtenemos la “ FRECUENCIA RELATIVA PORCENTUAL “. FRECUENCIA RELATIVA ( h
i ) La frecuencia relativa es el cuociente entre la frecuencia absoluta ( f i ) y el número
total de datos ( n ). En nuestro ejemplo, n = 50: TABLA

Una distribución de frecuencias o tabla de frecuencias es una ordenación en forma de


tabla de los datos estadísticos, asignando a cada dato su frecuencia correspondiente.
Tipos de frecuencia Frecuencia absoluta La frecuencia absoluta es el número de veces
que aparece un determinado valor en un estudio estadístico. Se representa por fi. La
suma de las frecuencias absolutas es igual al número total de datos, que se representa
por N. Para indicar resumidamente estas sumas se utiliza la letra griega Σ (sigma
mayúscula) que se lee suma o sumatoria. Frecuencia relativa La frecuencia relativa es el
cociente entre la frecuencia absoluta de un determinado valor y el número total de datos.
Se puede expresar en tantos por ciento y se representa por ni. La suma de las
frecuencias relativas es igual a 1.
ELEMENTOS DE LAS TABLAS DE FRECUENCIAS

DATOS
Los datos son los valores de la muestra recogida en el estudio estadístico

FRECUENCIA ABSOLUTA
La frecuencia absoluta (ni) es el número de veces que aparece un determinado valor en un
estudio estadístico. Número de veces que se repite el í-esimo valor de la variable. La suma
de las frecuencias absolutas es igual al número total de datos, que se representa por n

FRECUENCIA ABSOLUTA ACUMULADA


La Frecuencia absoluta acumulada (Ni) es la suma de las frecuencias absolutas de todos los
valores inferiores o iguales al valor considerado.

N1 = n1

N2 = n1 + n2 = N1 + n2

N3 = n1 + n2 + n3 = N2 + n3

Nk = n. Se interpreta como el número de observaciones menores o iguales al í-esimo valor


de la variable.

FRECUENCIA RELATIVA
La frecuencia relativa (fi) es la proporción de veces que se repite un determinado dato.

La frecuencia relativa es el cociente entre la frecuencia absoluta de un determinado valor y el


número total de datos.

fi = ni/n

La suma de las frecuencias relativas es igual a 1.

FRECUENCIA RELATIVA ACUMULADA


La frecuencia relativa acumulada (Fi) es el número de observaciones menores o iguales al í-
esimo valor de la variable pero en forma relativa.

F1 = fl

F2 = f1+ f2 = F1 + f2

F3 = f1+ f2 + f3 = F2 + f3

Fk = 1

1.2.2 MEDIDAS DE TENDENCIA CENTRAL Y DE POSICION


Ya se dijo anteriormente al hablar de datos no agrupados, que las medidas de tendencia central y de
posición son las medidas que describen un valor típico en un grupo de observaciones suelen llamarse
medidas de tendencia central. Para el caso de los datos agrupados son las mismas citadas anteriormente:
Media, Mediana y Moda. Lo que cambia obviamente es que su cálculo obedece a trabajar con datos
previamente ordenados

Teniendo la siguiente Tabla.

LI Frecuencia Marca de Límite Límite Frecuencia Frecuencia


LS clase real real relativa Relativa
inferior superior acumulada

5.97 – 2 6.075 5.965 6.185 2/40 = 0.05 0.05


6.18

6.19 – 5 6.295 6.185 6.405 5/40=0.125 0.175


6.40

6.41 – 7 6.515 6.405 6.625 0.175 0.350


6.62

6.63 – 13 6.735 6.625 6.845 0.325 0.675


6.84

6.85 – 7 6.955 6.845 7.065 0.175 0.850


7.06

7.07 – 6 7.175 7.065 7.285 0.15 1.000


7.28

Total 40 1.000

Media, media ponderada.

Media ( x ).

k

 x*f i i ( 6.075 )( 2 )  ( 6.295 )( 5 )  ... ( 7.175 12.15  31.475  ... 43.05
)( 6 )
x i1
  
n 40 40

268.52
=  6.713 pu lg adas
40

Donde:

k = número de clases

xi = marca de clase i

fi = frecuencia de la clase i

k n = i1
f i
número de datos
en la muestra
Mediana.

Mediana (Xmed).

 n / 2  Fme 1   40 / 2
 14  Li 
Xmed A  6.625 
 6.7265

 

 fme   ( 0.22 )
 13

Donde:

Li = límite real inferior de la clase que contiene a la mediana

Fme-1 = sumatoria de las frecuencias anteriores a la clase en donde se


encuentra la mediana

fme = frecuencia de la clase en donde se encuentra la mediana

A = amplitud real de la clase en donde se encuentra la mediana

A = LRS-LRI

LRS = límite real superior de la clase que contiene a la

mediana LRI = límite real inferior de la clase que contiene a la

mediana N = número de datos en la muestra

Moda.

Moda (Xmod).

 d1  6 
X mod  Li  A  6.625 
 6.735 pu lg adas

 
 d1  d 2   6 6 ( 0.22 )
 
Donde:

Li = límite real inferior de la clase que contiene a la moda

fmo  fmo 1 13  7  6
d1 = =

d2 = fmo  fmo 1 = 13  7  6

fmo = frecuencia de la clase que contiene a la moda

fmo-1= frecuencia de la clase anterior a la que contiene a la moda

fmo+1= frecuencia de la clase posterior a la que contiene a la moda

A = amplitud real de la clase que contiene a la moda

A = LRS – LRI

LRS = límite real superior de la clase que contiene a la moda

LRI = límite real inferior de la clase que contiene a la moda

Relación entre media, mediana y moda.

En el caso de distribuciones unimodales, la mediana está con frecuencia


comprendida entre la media y la moda (incluso más cerca de la media).

En distribuciones que presentan cierta inclinación, es más aconsejable el uso de la


mediana. Sin embargo en estudios relacionados con propósitos estadísticos y de
inferencia suele ser más apta la media.

Veamos un ejemplo de cálculo de estas tres magnitudes.

Ejemplo

Consideramos una tabla estadística relativa a una variable continua, de la que nos
dan los intervalos, las marcas de clase ci, y las frecuencias absolutas, ni.
Intervalos ci ni

0 -- 2 1 2

2 -- 4 3 1

4 -- 6 5 4

6 -- 8 7 3

8 - 10 9 2

Para calcular la media podemos añadir una columna con las cantidades . La
suma de los términos de esa columna dividida por n=12 es la media:

Intervalos ci ni Ni

0 -- 2 1 2 2 2

2 -- 4 3 1 3 3

4 -- 6 5 4 7 20

6 -- 8 7 3 10 21

8 - 10 9 2 12 18

12 64
La mediana es el valor de la variable que deja por debajo de sí a la mitad de
las n observaciones, es decir 6. Construimos la tabla de las frecuencias
absolutas acumuladas, Ni, y vemos que eso ocurre en la modalidad tercera,
es decir,

Se llama medidas de posición, tendencia central o centralización a unos valores


numéricos en torno a los cuales se agrupan, en mayor o menor medida, los valores
de una variable estadística. Estas medidas se conocen también como promedios.
Para que un valor pueda ser considerado promedio, debe cumplirse que esté situado
entre el menor y el mayor de la serie y que su cálculo y utilización resulten sencillos
en términos matemáticos.
Se distinguen dos clases principales de valores promedio:
 Las medidas de posición centrales: medias (aritmética, geométrica,
cuadrática, ponderada), mediana y moda.
 Las medidas de posición no centrales: entre las que destacan
especialmente los cuantiles.

Las medidas de centralización son parámetros representativos de distribuciones de


frecuencia como las que ilustra la imagen.

MEDIA ARITMÉTICA

Se define media aritmética de una serie de valores como el resultado producido al


sumar todos ellos y dividir la suma por el número total de valores. La media
aritmética se expresada como  .
Dada una variable x que toma los valores x 1, x2, ..., xn, con frecuencias absolutas
simbolizadas por f1, f2, ..., fn, la media aritmética de todos estos valores vendrá dada
por:

MEDIA PONDERADA
En algunas series estadísticas, no todos los valores tienen la misma importancia.
Entonces, para calcular la media se ponderan dichos valores según su peso, con lo
que se obtiene una media ponderada.
Si se tiene una variable con valores x 1, x2, ..., xn, a los que se asigna un peso
mediante valores numéricos p1, p2, ..., pn, la media ponderada se calculará como
sigue:

MEDIANA

La media aritmética no siempre es representativa de una serie estadística. Para


complementarla, se utiliza un valor numérico conocido como mediana o valor central.
Dado un conjunto de valores ordenados, su mediana se define como un valor
numérico tal que se encuentra en el centro de la serie, con igual número de valores
superiores a él que inferiores. Normalmente, la mediana se expresa como Me.
La mediana es única para cada grupo de valores. Cuando el número de valores
ordenados (de mayor a menor, o de menor a mayor) de la serie es impar, la mediana
corresponderá al valor que ocupe la posición (n + 1)/2 de la serie. Si el número de
valores es par, ninguno de ellos ocupará la posición central. Entonces, se tomará
como mediana la media aritmética entre los dos valores centrales.

Determinación de la mediana de una serie de valores.

MODA

En una serie de valores a los que se asocia una frecuencia, se define moda como el


valor de la variable que posee una frecuencia mayor que los restantes. La moda se
simboliza normalmente por Mo.
Un grupo de valores puede tener varias modas. Una serie de valores con sólo una
moda se denomina unimodal; si tiene dos modas, es bimodal, y así sucesivamente.
1.2.3 MEDIDAS DE DISPERSION
Las medias de tendencia central o posición nos indican donde se sitúa un
dato dentro de una distribución de datos. Las medidas de dispersión,
variabilidad o variación nos indican si esos datos están próximos entre sí o sí
están dispersos, es decir, nos indican cuán esparcidos se encuentran los
datos. Estas medidas de dispersión nos permiten apreciar la distancia que
existe entre los datos a un cierto valor central e identificar la concentración
de los mismos en un cierto sector de la distribución, es decir, permiten
estimar cuán dispersas están dos o más distribuciones de datos.
Estas medidas permiten evaluar la confiabilidad del valor del dato central de
un conjunto de datos, siendo la media aritmética el dato central más utilizado.
Cuando existe una dispersión pequeña se dice que los datos están dispersos
o acumulados cercanamente respecto a un valor central, en este caso el dato
central es un valor muy representativo. En el caso que la dispersión sea
grande el valor central no es muy confiable. Cuando una distribución de datos
tiene poca dispersión toma el nombre de distribución homogénea y si su
dispersión es alta se llama heterogénea.

Desviación media o desviación promedio


La desviación media o desviación promedio es la media aritmética
de los valores absolutos de las desviaciones respecto a la media
aritmética.

1.1) PROPIEDADES
Guarda las mismas dimensiones que las observaciones. La suma
de valores absolutos es relativamente sencilla de calcular, pero esta
simplicidad tiene un inconveniente: Desde el punto de vista geométrico, la
distancia que induce la desviación media en el espacio de observaciones no
es la natural (no permite definir ángulos entre dos conjuntos de
observaciones). Esto hace que sea muy engorroso trabajar con ella a la hora
de hacer inferencia a la población.
Cuando mayor sea el valor de la desviación media, mayor es la dispersión
de los datos. Sin embargo, no proporciona una relación matemática precisa
entre su magnitud y la posición de un dato dentro de una distribución.
La desviación media al tomar los valores absolutos mide una observación
sin mostrar si la misma está por encima o por debajo de la media aritmética.
Serán las mismas que las planteadas anteriormente al hablar de datos no agrupados.
Amplitud

Coeficiente de variación

Desviación estandar

Rango

Valor Z

Varianza

Medidas de dispersión. Parámetros estadísticos que indican como se alejan los datos
respecto de la media aritmética. Sirven como indicador de la variabilidad de los
datos. Las medidas de dispersión más utilizadas son el rango, la desviación estándar
y la varianza.

RANGO

Indica la dispersión entre los valores extremos de una variable. se calcula como la
diferencia entre el mayor y el menor valor de la variable. Se denota como R.

Para datos ordenados se calcula como:

R = x(n) - x(1)

Donde: x(n): Es el mayor valor de la variable. x(n): Es el menor valor de la variable.

DESVIACIÓN MEDIA

Es la media aritmética de los valores absolutos de las diferencias de cada dato


respecto a la media.
Donde:

xi:valores de la variable.

n: número total de datos

DESVIACIÓN ESTÁNDAR

La desviación estándar mide el grado de disersión de los datos con respecto a la


media, se denota como s para una muestra o como σ para la población. Se define
como la raiz cuadrada de la varianza según la expresión:

Obsérvese que el denominador es n - 1, a diferencia de la desviación media donde


se divide entre n; también existe la formula de desviación típica donde el
denominador es n pero se prefiere n-1.

Mientras menor sea la desviación estándar, los datos son más homogéneos, es decir
existe menor dispersión, el incremento de los valores de la desviación estándar
indica ina mayor variabilidad de los datos.

VARIANZA

Es otro parámetro utilizado para medir la dispersión de los valores de una variable
respecto a la media. Corresponde a la media aritmética de los cuadrados de las
desviaciones respecto a la media. Su expresión matemática es:

donde Xi es el dato i-ésimo y   es la media de los N datos.

COEFICIENTE DE VARIACIÓN

Permite determinar la razón existente entre la desviación estándar (s) y la media. Se


denota como CV. El coeficiente de variación permite decidir con mayor claridad sobre
la dispersión de los datos.
1.2.4 MEDIDAS DE ASIMETRIA Y CURTOSIS

Las medidas de distribución nos permiten identificar la forma en que se


separan o aglomeran los valores de acuerdo a su representación gráfica.
Estas medidas describen la manera como los datos tienden a reunirse de
acuerdo con la frecuencia con que se hallen dentro de la información. Su
utilidad radica en la posibilidad de identificar las características de la
distribución sin necesidad de generar el gráfico. Sus principales medidas son
la Asimetría y la Curtosis.

Son aquellos números resúmenes, que indican la morfología de la distribución de


los datos, es decir de la simetría y apuntamiento que tiene el histograma de la
variable en estudio. Sólo se pueden calcular en variables medidas en escala
intervalo y de razón. Son el:

 SESGO (COEFICIENTE DE ASIMETRIA)


 CURTOSIS

TIPOS DE DISTRIBUCIONES DE FRECUENCIA MÁS COMUNES

DISTRIBUCIÓN ASIMÉTRICA
RELACIÓN ENTRE LA MEDIA, MEDIANA Y MODA

X = Me = Mo

Cuando una distribución de frecuencia es


simétrica, la media, mediana y moda coinciden en
su valor ( X = Me
= Mo). En el caso de una distribución binomial
simétrica, es necesario calcular el promedio de las
modas.

Mo < Me < X

En una distribución sesgada a la izquierda, la


moda es menor a la mediana, y esta a su vez
menor que la media.

Mo > Me > X

En una distribución sesgada a la derecha la


relación se invierte, la moda es mayor a la
mediana, y esta a su vez mayor que la media.

COEFICIENTE DE ASIMETRÍA

Mide el grado de asimetría de la distribución con respecto a la media. Un valor


positivo de este indicador significa que la distribución se encuentra sesgada hacia
la izquierda (orientación positiva). Un resultado negativo significa que la
distribución se sesga a la derecha.
Indica que tan apuntada o achatada se encuentra una distribución respecto a un
comportamiento normal (distribución normal).

Si los datos están muy concentrado hacia la media, la distribución es leptocúrtica


(curtosis mayor a 0).
Si los datos están muy dispersos, la distribución es platicúrtica (curtosis menor a 0).
El comportamiento normal exige que la curtosis sea igual a 0 (distribución mesocúrtica).

CALCULO DE LA CURTOSIS

La fórmula empleada para calcular la Curtosis se muestra a continuación (reemplace el


valor de n por N en caso de tratar con datos poblacionales):
1.
2.
3.
4.
5. ASIMETRÍA

Esta medida nos permite identificar si los datos se distribuyen de forma uniforme
alrededor del punto central (Media aritmética). La asimetría presenta tres estados
diferentes, cada uno de los cuales define de forma concisa como están
distribuidos los datos respecto al eje de asimetría. Se dice que la asimetría es
positiva cuando la mayoría de los datos se encuentran por encima del valor de la
media aritmética, la curva es Simétrica cuando se distribuyen aproximadamente la
misma cantidad de valores en ambos lados de la media y se conoce como
asimetría negativa cuando la mayor cantidad de datos se aglomeran en los valores
menores que la media.

El Coeficiente de asimetría, se representa mediante la ecuación matemática,


Donde (g1) representa el coeficiente de asimetría de Fisher, (Xi) cada uno de los
valores, ( ) la media de la muestra y (ni) la frecuencia de cada valor. Los
resultados de esta ecuación se interpretan:

 (g1 = 0): Se acepta que la distribución es Simétrica, es decir, existe


aproximadamente la misma cantidad de valores a los dos lados de la media.
Este valor es difícil de conseguir por lo que se tiende a tomar los valores que
son cercanos ya sean positivos o negativos (± 0.5).
 (g1 > 0): La curva es asimétricamente positiva por lo que los valores se
tienden a reunir más en la parte izquierda que en la derecha de la media.
 (g1 < 0): La curva es asimétricamente negativa por lo que los valores se
tienden a reunir más en la parte derecha de la media.

Desde luego entre mayor sea el número (Positivo o Negativo), mayor será la
distancia que separa la aglomeración de los valores con respecto a la media.

6. CURTOSIS

Esta medida determina el grado de concentración que presentan los valores en la


región central de la distribución. Por medio del Coeficiente de Curtosis, podemos
identificar si existe una gran concentración de valores (Leptocúrtica), una
concentración normal (Mesocúrtica) ó una baja concentración (Platicúrtica).

Para calcular el coeficiente de Curtosis se utiliza la ecuación:


Donde (g2) representa el coeficiente de Curtosis, (Xi) cada uno de los valores, ( )
la media de la muestra y (ni) la frecuencia de cada valor. Los resultados de esta
fórmula se interpretan:

 (g2 = 0) la distribución es Mesocúrtica: Al igual que en la asimetría es


bastante difícil encontrar un coeficiente de Curtosis de cero (0), por lo que
se suelen aceptar los valores cercanos (± 0.5 aprox.).
 (g2 > 0) la distribución es Leptocúrtica
 (g2 < 0) la distribución es Platicúrtica

Cuando la distribución de los datos cuenta con un coeficiente de asimetría (g1 =


±0.5) y un coeficiente de Curtosis de (g2 = ±0.5), se le denomina Curva Normal.
Este criterio es de suma importancia ya que para la mayoría de los procedimientos
de la estadística de inferencia se requiere que los datos se distribuyan
normalmente.

La principal ventaja de la distribución normal radica en el supuesto que el 95% de


los valores se encuentra dentro de una distancia de dos desviaciones estándar de
la media aritmética; es decir, si tomamos la media y le sumamos dos veces la
desviación y después le restamos a la media dos desviaciones, el 95% de los
casos se encontraría dentro del rango que compongan estos valores.

Desde luego, los conceptos vistos hasta aquí, son sólo una pequeña introducción
a las principales medidas de Estadística Descriptiva; es de gran importancia que
los lectores profundicen en estos temas ya que la principal dificultad del
paquete SPSS radica en el desconocimiento de los conceptos estadísticos.

Las definiciones plasmadas en este capítulo han sido extraídas de los libros
Estadística para administradores escrito por Alan Wester de la editorial McGraw-
Hill y el libro Estadística y Muestreo escrito por Ciro Martínez editorial Ecoe editores
(Octava edición). No necesariamente tienes que guiarte por estos libros ya que en
las librerías encontraras una gran variedad de textos que pueden ser de bastante
utilidad en la introducción a esta ciencia.

1.3 REPRESENTACION GRAFICA


Los gráficos más usuales para representar variables de tipo nominal son los
siguientes:

Diagramas de barras:

Se representa en el eje de ordenadas las modalidades y en abscisas las


frecuenciasabsolutas o las frecuencias relativas. Si se intentan comparar
varias poblaciones entre sí,usando el diagrama, existen otras
modalidades, como las mostradas. Cuand los tamaños de las dos
poblaciones son diferentes, es conveniente utilizar las frecuencias
relativas, ya que en otro caso podrían resultar engañosas.
Existen diferentes formas de representar los datos estos son algunos de
los ejemplos más usados.

Gráficos estadísticos
Los gráficos son medios popularizados y a menudo los más convenientes para presentar datos, se emplean
para tener una representación visual de la totalidad de laࠩ
nformación. Los gráficos estadísticos presentan
los datos en forma de dibujo de tal modo que se pueda percibir fácilmente los hechos esenciales y
compararlos con otros.

Gráficos de barras horizontales


Representan valores discretos a base de trazos horizontales, aislados unos de otros. Se utilizan cuando los
textos correspondientes a cada categoría son muy extensos.
 para una serie
 para dos o más series
Gráficos de barras proporcionales
Se usan cuando lo que se busca es resaltar la representación de los porcentajes de los datosque componen
un total. Las barras pueden ser:
Verticales
Horizontales

Una gráfica es la representación en unos ejes de coordenadas de los pares


ordenados de una tabla.

La variable que se representa en el eje horizontal se llama variable independiente


o variable {x}.

La variable que se representa en el eje vertical se llama variable dependiente o


variable {y}.

La variable {y} está en función de la variable {x}.

Las gráficas describen relaciones entre dos variables.

Una vez realizada la gráfica podemos estudiarla, analizarla y extraer conclusiones.

Para interpretar una gráfica, hemos de observarla de izquierda a derecha.

El segundo paso es analizar cómo varía la variable dependiente {y}, al aumentar la


variable independiente
EJEMPLOS DE REPRESENTACIONES GRÁFICAS  

1 La siguiente tabla dos muestra la variación del precio de las patatas, según el
número de kilogramos que compremos.

Kg de patatas 1 2 3 4 5

Precio en € 2 4 6 8 10

En esa gráfica podemos observar que a medida que compramos más kilos de
patatas el precio se va incrementando.

2 La siguiente tabla nos indica el número de alumnos que consiguen una
determinada nota en un examen.

Nota 0 1 2 3 4 5 6 7 8 9 10

Nº de alumnos 1 1 2 3 6 11 12 7 4 2 1

 
 

En esta gráfica observamos que la mayor parte de los alumnos obtienen una nota
comprendida entre 4 y 7.

 
1.3.1 DIAGRAMA DE DISPERSION
Un diagrama de dispersión es un tipo de diagrama matemático que
utiliza las coordenadas cartesianas para mostrar los valores de dos
variables para un conjunto de datos.
Los datos se muestran como un conjunto de puntos, cada uno con el valor
de una variable que determina la posición en el eje horizontal y el valor de
la otra variable determinado por la posición en el eje vertical. 1 Un diagrama
de dispersión se llama también gráfico de dispersión.
Los Diagramas de Dispersión o Gráficos de Correlación permiten estudiar la
relación entre 2 variables. Dadas 2 variables X e Y, se dice que existe una
correlación entre ambas si cada vez que aumenta el valor de X aumenta
proporcionalmente el valor de Y (Correlación positiva) o si cada vez que
aumenta el valor de X disminuye en igual proporción el valor de Y (Correlación
negativa).
En un gráfico de correlación representamos cada par X, Y como un punto
donde se cortan las coordenadas de X e Y:
Veamos un ejemplo. Supongamos que tenemos un grupo de personas adultas
de sexo masculino. Para cada persona se mide la altura en metros (Variable X)
y el peso en kilogramos (Variable Y). Es decir, para cada persona tendremos
un par de valores X, Y que son la altura y el peso de dicha persona:

Nº Persona Altura (m) Peso (Kg.) Nº Persona Altura (m) Peso


(Kg.)

001 1.94 95.8 026 1.66 74.9

002 1.82 80.5 027 1.96 88.1

003 1.79 78.2 028 1.56 65.3

004 1.69 77.4 029 1.55 64.5


005 1.80 82.6 030 1.71 75.5

006 1.88 87.8 031 1.90 91.3

007 1.57 67.6 032 1.65 66.6

008 1.81 82.5 033 1.78 76.8

009 1.76 82.5 034 1.83 80.2

010 1.63 65.8 035 1.98 97.6

011 1.59 67.3 036 1.67 76.0

012 1.84 88.8 037 1.53 58.0

013 1.92 93.7 038 1.96 95.2

014 1.84 82.9 039 1.66 74.5

015 1.88 88.4 040 1.62 71.8

016 1.62 69.0 041 1.89 91.0

017 1.86 83.4 042 1.53 62.1

018 1.91 89.1 043 1.59 69.8

019 1.99 95.2 044 1.55 64.6

020 1.76 79.1 045 1.97 90.0

021 1.55 61.6 046 1.51 63.8

022 1.71 70.6 047 1.59 62.6

023 1.75 79.4 048 1.60 67.8

024 1.76 78.1 049 1.57 63.3

025 2.00 90.6 050 1.61 65.2


Entonces, para cada persona representamos su altura y su peso con un punto
en un gráfico:
Una vez que representamos a las 50 personas quedará un gráfico como el
siguiente:

Qué nos muestra este gráfico? En primer lugar podemos observar que las
personas de mayor altura tienen mayor peso, es decir parece haber una
correlación positiva entre altura y peso. Pero un hombre bajito y gordo puede
pesar más que otro alto y flaco. Esto es así porque no hay una correlación total
y absoluta entre las variables altura y peso. Para cada altura hay personas de
distinto peso:
Sin embargo podemos afirmar que existe cierto grado de correlación entre la
altura y el peso de las personas.
Cuando se trata de dos variables cualesquiera, puede no haber ninguna
correlación o puede existir alguna correlación en mayor o menor grado, como
podemos ver en los gráficos siguientes:
Por ejemplo, en el siguiente gráfico podemos ver la relación entre el contenido
de Humedad de hilos de algodón y su estiramiento:
El Diagrama de Dispersión tiene el propósito de controlar mejor el proceso y
mejorarlo, resulta indispensable conocer como se comportan algunas variables o
características de calidad entre si, esto es, descubrir si el comportamiento de unas
depende del comportamiento de otras, o no, y en qué grado.

El Diagrama de dispersión es una herramienta utilizada cuando se desea realizar


un análisis gráfico de datos bivariados, es decir, los que se refieren a dos
conjuntos de datos. El resultado del análisis puede mostrar que existe una relación
entre una variable y la otra.

El estudio puede ampliarse para incluir una medida cuantitativa de tal relación.

Las dos variables pueden estar relacionadas de la siguiente manera:

Una característica de calidad y un factor que incide sobre ella.


Dos características de calidad relacionadas.
Dos factores relacionados con una misma característica de calidad.
¿ Para qué sirve el Diagrama de Dispersión ?

Indica si dos variables (o factores o características de calidad) están relacionados.


Proporciona la posibilidad de reconocer fácilmente relaciones Causa / efecto.
¿ Cómo se construye el Diagrama de Dispersión ?

Paso 1.- Recolectar n parejas de datos de la forma (Xi, Yi), con i = 1, 2, 3,…n
donde Xi y Yi representan los valores respectivos de las dos variables. Los datos
se suelen representar en una tabla.
Paso 2.- Diseñar las escalas apropiadas para los ejes X y Y.
Paso 3.- Graficar las parejas de datos. Si hay puntos repetidos, se mostrarán como
círculos concéntricos.
Paso 4.- Documentar el diagrama.

Lectura y uso del Diagrama de Dispersión

La lectura se hace en base al tipo de relación entre los datos; lo fuerte o débil de la
relación, la forma de la relación y la posible presencia de punto anómalos.

La relación entre los datos se denomina “correlación positiva” cuando a un


aumento en el valor de la variable X le acompaña un aumento en la otra variable.

El caso inverso da lugar a la llamada “correlación negativa”.

dd1

El patrón de puntos puede asumir formas diversas, dependiendo de la relación que


exista entre las variables. Si el patrón de puntos asume la forma (quizás
aproximada) de una línea recta, se dice que existe una relación lineal entre las
variables.

En ocasiones, algunos datos dan lugar a puntos anómalos, que se presentan


separados del patrón de puntos. El usuario debe dejar fuera del análisis esos
puntos, que quizás son debidos a lecturas equivocadas o a algún cambio en las
condiciones del proceso, etc.

Pero se ganará conocimiento de este último al estudiar las causas por las que se
presentaron los puntos.

Un Diagrama de Dispersión no dice nada de porqué existe la correlación, por lo


que es imprescindible examinar la aparente relación entre las variables desde el
punto de vista científico o técnico.

El Coeficiente de Relación Lineal.

El valor del Coeficiente de Correlación lineal de Pearson (r) proporciona una


medida del grado de relación entre dos variables y se calcula mediante la
expresión:

r = S (xy) / S(xx) S(yy)

donde:

S(xx) = ƩXi² – (ƩXi)² / n

S(yy) = ƩYi² – (ƩYi)² / n

S(xy) = ƩXiYi – ((ƩXi) (ƩYi))/ n

39
n es el número de parejas de datos. El término S(xy) se llama covarianza.

El Coeficiente de Relación Lineal.

El valor del Coeficiente de Correlación es:

|r| = < 1

Si r = +1 ó r = -1 se tiene entonces una correlación perfecta, lo cual significa que


todos los puntos caen sobre una línea recta.

Un valor de r = 0 indicará la ausencia de relación entre las variables; entre más


cercano esté el valor absoluto de r a la unidad mayor será el grado de correlación.

dd2

Ejemplo

A continuación se presenta una tabla en la que la variable X corresponde a la


experiencia en semanas de cada uno de los empleados a los que se aplicó la
prueba , y la variable Y al tiempo en minutos que tarda el empleado en capturar
correctamente los datos de un reporte a la computadora.

dd3

El Coeficiente de Relación Lineal.

S(xx) = ƩXi² – (ƩXi)² / n = 90700 / 22 – (1270)² = 17386.36

S(yy) = ƩYi² – (ƩYi)² / n = 47.77 / 22 – (28.7) ² = 10.32

S(xy) = ƩXiYi – (ƩXi) (ƩYi) / n = 1481 – (1270)(28.7) / 22 = -175.77

El valor del Coeficiente de Correlación es:

r = S (xy) / √(S(xx) S(yy)) = -175.77 / √(17386.36)(10.32)

r = – 0.415 La correlación es negativa.

dd4

La ecuación de regresión lineal.

La regresión lineal es utilizada para determinar modelos matemáticos del


comportamiento y relación de dos o varias variables interrelacionadas.
El modelo que se busca corresponde a la ecuación de la “mejor” línea recta que
pasa a través de los puntos. Tal ecuación, denominada Ecuación de Regresión de
Mínimos Cuadrados, es, en términos de las variables X y Y, la siguiente:

40
Y=a+bX

b = (nƩXiYi – (ƩXi)(ƩYi))/n ƩXi² – (ƩXi)²

a = (ƩYi – bƩXi)v/ n

Para el ejemplo anterior:

b = (nƩXiYi – (ƩXi)(ƩYi))/ ƩXi² – (ƩXi)² = ((22)(1481) – (1270)(28.7)) / 90700 –


(1270) ² = 0.0025

a = ƩYi – bƩXi/n = 28.7 – ((0.0025)(1270)) / 22 = 1.15

Y = a + b X Y = 1.15 + 0.0025 X

1.4 TEOREMA DE CHEBYSHEV

41
La desigualdad de Chebyshev es un resultado estadístico que ofrece una cota
inferior a la probabilidad de que el valor de una variable aleatoria con varianza finita
esté a una cierta distancia de su esperanza matemática o de su media;
equivalentemente, el teorema proporciona una cota superior a la probabilidad de
que los valores caigan fuera de esa distancia respecto de la media. El teorema es
aplicable incluso en distribuciones que no tienen forma de "curva de campana" y
acota la cantidad de datos que están o no "en medio".Teorema: Sea X una variable
aleatoria de media µ y varianza finita s². Entonces, para todo número real k > 0,Sólo
los casos con k > 1 proporcionan información útil. Para ilustrar este resultado,
supongamos que los artículos de Wikipedia tienen una extensión media de 1000
caracteres y una desviación típica de 200 caracteres. Dela desigualdad de
Chebyshev se deduce que al menos el 75% de los artículos tendrán una extensión
comprendida entre 600 y 1400 caracteres (k = 2).Otra consecuencia del teorema es
que para cada distribución de media

y desviación típica finita

, al menos la mitad de los valores caerán en el intervalo Las cotas proporcionadas


por la desigualdad de Chebyshev, en general, no se pueden mejorar; es posible
construir una variable aleatoria cuyas cotas deChebyshev sean exactamente iguales
a las probabilidades reales. Sin embargo, en general el teorema proporcionará cotas
poco precisas. El teorema puede ser útil a pesar de las cotas imprecisas porque se
aplica a una amplia gama de variables que incluye las que están muy alejadas de la
distribución normal, y porque las cotas son fáciles de calcular. El teorema se emplea
para demostrar la ley débil de los números grandes. El teorema recibe su nombre
del matemático Pafnuty Chebyshev.Si una distribución es simétrica con forma de
campana, prácticamente todas las observaciones se encuentran entre la media más
o menos tres desviaciones estándares.· Dispersión Relativa:Karl Pearson (1857-
1936) desarrolló una medida relativa denominada coeficiente de variación(CV). Es
una medida útil cuando:

· Los datos están en unidades diferentes (como U$S y días de asistencia).· Los
datos están en las mismas unidades, pero las medias muy distantes(ingresos de
superiores e ingresos de empleados).o Coeficiente de variación: es la razón
(cociente) de la desviación estándar a la media aritmética, expresada como un
porcentaje:sCV = (100)XKarl Pearson desarrolló también una medida para evaluar
el grado de orientación al sesgo, denominada coeficiente de asimetría (CA):3 (media
- mediana)CA =Desviación Estándar· Otras medidas de dispersión:Un método es
determinar la ubicación de los valores que dividen un conjunto de observaciones en
42
partes iguales. Estas medidas son:o Los cuartiles, que dividen un conjunto de
observaciones en 4 partes iguales(conjuntos ordenados de menor a mayor). El
primer cuartil (Q1) es el valor abajo del cual se encuentra el 25% de las
observaciones, y, el tercer cuartil (Q3)es el valor por abajo del cual se encuentra el
75% de las observaciones. Q2 es la mediana.o Los deciles dividen un conjunto de
observaciones en 10 partes iguales.o Los centiles se utilizan para reportar
resultados acerca de ciertas pruebas nacionales estandarizadas, empleado para
calificar la admisión a programas.· Cuartiles, Deciles y Centiles ( o Porcentiles):Para
formalizar el procedimiento, sea Lp la ubicación del centil deseado.Ej: porcentil 33
L33. El número de observaciones es n. Entonces se aplica: (n +1)/2

Ubicación de un centil Lp = (n +1) P/100o Diagramas de caja: representación gráfica


basada en cuartiles, que ayuda ailustrar un conjunto de dato. Se necesitan 5 valores
estadísticos: el valor mínimo;Q1 ; la mediana; Q3 ; y el valor máximo.MedianaQ1
Q3Valor mínimo Valor MáximoLa distancia entre los extremos de la caja se
denomina amplitud cuartílica ( ointercuartílica). Dicho intervalo es la distancia entre
el primero y el tercer cuartiles.

Se indican dos asteriscos (**) . Uno indica n dato “impropio”. Un dato incongruente

es un valor inconsciente con el resto de los datos. Es como aquel valor que más de
1,5 veces el valor de la amplitud intercuartílica, mayor que Q3 o bien, menor que
Q1.Dato incongruente = Q1 - 1,5 (Q3 - Q1)La desigualdad de Chébyshev es muy
importante, ya que permite determinar los límites de las probabilidades de variables
aleatorias discretas o continuas sin tener que especificar sus funciones de
probabilidad. Este teorema asegura que la probabilidad de que una variable
aleatoria se aleje de la media no más de desviaciones estándar, es menor o igual a
1/k2 para algún valor de k >1. Aunque la garantía no siempre es muy precisa, la
ventaja sobre este teorema es su gran generalidad por cuanto es aplicable a
cualquier variable aleatoria con cualquier distribución de probabilidad, ya sea
discreta o continua.

El Teorema de Chebyshev es considerado una desigualdad probabilística,


proporciona un límite superior a la probabilidad de que la desviación absoluta
de una variable correspondiente o aleatoria, de su medida, excede un umbral
dado. En general, el Teorema de Chebyshev se usa para medir la dispersión
de los datos para cualquier distribución.

El Teorema de Chebyshev explica que al menos 1-1/k2 de datos de una


muestra deben caer dentro de K, que es las desviaciones estándar de
estándar de la media. En cualquier ejercicio o prueba, el K es un número real
positivo mayor que uno.

43
En un conjunto de datos que se distribuye, o se encuentra en forma de curva
de campana, este posee unas ciertas características interesantes que vale la
pena resaltar. Uno de ellos se ocupa de la propagación de los datos, cuando
se encuentra en relación con el número de la desviación estándar de la media.

Cuando sucede una distribución normal, se sabe que al menos un 68% de los
datos es una desviación estándar de la media. Por otro lado, el 95% son dos
desviaciones están de la media, y el 99% aproximadamente se encuentra
dentro de las tres desviaciones estándar de la media.

Sin embargo, si el conjunto de estos datos no se logra distribuir


adecuadamente, en forma de curva de campana, entonces la cantidad
diferente podría encontrarse dentro de una desviación estándar. El Teorema
de Chebyshev es el encargado de explicar una manera de saber qué fracción
de datos se encuentra dentro de las desviaciones estándar K de la media para
cualquier conjunto de datos en específico.

El Teorema de Chebyshev es considerado una desigualdad probabilística,


proporciona un límite superior a la probabilidad de que la desviación absoluta
de una variable correspondiente o aleatoria, de su medida, excede un umbral
dado. En general, el Teorema de Chebyshev se usa para medir la dispersión
de los datos para cualquier distribución.

El Teorema de Chebyshev explica que al menos 1-1/k2 de datos de una


muestra deben caer dentro de K, que es las desviaciones estándar de
estándar de la media. En cualquier ejercicio o prueba, el K es un número real
positivo mayor que uno.

En un conjunto de datos que se distribuye, o se encuentra en forma de curva


de campana, este posee unas ciertas características interesantes que vale la
44
pena resaltar. Uno de ellos se ocupa de la propagación de los datos, cuando
se encuentra en relación con el número de la desviación estándar de la media.

Cuando sucede una distribución normal, se sabe que al menos un 68% de los
datos es una desviación estándar de la media. Por otro lado, el 95% son dos
desviaciones están de la media, y el 99% aproximadamente se encuentra
dentro de las tres desviaciones estándar de la media.

Sin embargo, si el conjunto de estos datos no se logra distribuir


adecuadamente, en forma de curva de campana, entonces la cantidad
diferente podría encontrarse dentro de una desviación estándar. El Teorema
de Chebyshev es el encargado de explicar una manera de saber qué fracción
de datos se encuentra dentro de las desviaciones estándar K de la media para
cualquier conjunto de datos en específico.

El Teorema de Chebyshev es considerado una desigualdad probabilística,


proporciona un límite superior a la probabilidad de que la desviación absoluta
de una variable correspondiente o aleatoria, de su medida, excede un umbral
dado. En general, el Teorema de Chebyshev se usa para medir la dispersión
de los datos para cualquier distribución.

El Teorema de Chebyshev explica que al menos 1-1/k2 de datos de una


muestra deben caer dentro de K, que es las desviaciones estándar de
estándar de la media. En cualquier ejercicio o prueba, el K es un número real
positivo mayor que uno.

En un conjunto de datos que se distribuye, o se encuentra en forma de curva


de campana, este posee unas ciertas características interesantes que vale la
pena resaltar. Uno de ellos se ocupa de la propagación de los datos, cuando
se encuentra en relación con el número de la desviación estándar de la media.
45
Cuando sucede una distribución normal, se sabe que al menos un 68% de los
datos es una desviación estándar de la media. Por otro lado, el 95% son dos
desviaciones están de la media, y el 99% aproximadamente se encuentra
dentro de las tres desviaciones estándar de la media.

Sin embargo, si el conjunto de estos datos no se logra distribuir


adecuadamente, en forma de curva de campana, entonces la cantidad
diferente podría encontrarse dentro de una desviación estándar. El Teorema
de Chebyshev es el encargado de explicar una manera de saber qué fracción
de datos se encuentra dentro de las desviaciones estándar K de la media para
cualquier conjunto de datos en específico.

El Teorema de Chebyshev es considerado una desigualdad probabilística,


proporciona un límite superior a la probabilidad de que la desviación absoluta de
una variable correspondiente o aleatoria, de su medida, excede un umbral dado. En
general, el Teorema de Chebyshev se usa para medir la dispersión de los datos
para cualquier distribución.

El Teorema de Chebyshev explica que al menos 1-1/k2 de datos de una muestra


deben caer dentro de K, que es las desviaciones estándar de estándar de la media.
En cualquier ejercicio o prueba, el K es un número real positivo mayor que uno.

En un conjunto de datos que se distribuye, o se encuentra en forma de curva de


campana, este posee unas ciertas características interesantes que vale la pena
resaltar. Uno de ellos se ocupa de la propagación de los datos, cuando se encuentra
en relación con el número de la desviación estándar de la media.

Cuando sucede una distribución normal, se sabe que al menos un 68% de los datos
es una desviación estándar de la media. Por otro lado, el 95% son dos desviaciones
están de la media, y el 99% aproximadamente se encuentra dentro de las tres
desviaciones estándar de la media.

46
Sin embargo, si el conjunto de estos datos no se logra distribuir adecuadamente,
en forma de curva de campana, entonces la cantidad diferente podría encontrarse
dentro de una desviación estándar. El Teorema de Chebyshev es el encargado de
explicar una manera de saber qué fracción de datos se encuentra dentro de las
desviaciones estándar K de la media para cualquier conjunto de datos en específico.

Características importantes del


Teorema de Chebyshev

La desigualdad también se puede emplear con la frase de ‘datos de una muestra’


cuando se encuentra en una distribución de probabilidad. Lo anterior ocurre porque
la desigualdad de Chebyshev es el resultado de la probabilidad, que luego se
aplica en la estadística.

Se hace importante aclarar que esta desigualdad o Teorema de Chebyshev es un


resultado que se ha aclarado y demostrado matemáticamente. Por lo que cada una
de sus aplicaciones es completamente fidedignas, así como los resultados. No es
como la relación empírica entre la media y el modo, o la regla general que conecta
el rango y la desviación estándar.

¿Cuán tan dispersas son las mediciones del Teorema de Chebyshev?

Cuando se muestrea los datos del teorema, es útil saber cuán dispensables o
dispersas son las mediciones en este rango. Por ejemplo, suponga que ha estado
rastreando sus gastos de desayuno y, en promedio, gasta unos 10$ por día antes y
durante el trabajo. Probablemente le interesaría saber si gastó constantemente esa
cantidad o si tuvo unos gastos muy grandes que sesgaron el promedio general.

47
Por lo que vemos, es una excelente manera de ver estadísticamente cuántos
gastos  hemos hecho de acuerdo a la probabilidad estándar del Teorema de
Chebyshev. Si bien esta ecuación a menudo da como resultado un rango
relativamente amplio de valores, es útil porque solo requiere el conocimiento de la
media y la desviación estándar, que se calculan fácilmente a partir de cualquier
muestra o población de datos. El teorema también proporciona lo que podría
llamarse una mirada en el peor de los casos de la dispersión de datos, como se
mencionó anteriormente.

Formula del Teorema de Chebyshev

Para poder investigar este teorema, primero es necesario comparar los cálculos con
la regla general 68-95-99.7 para distribuciones normales. Dado que esos números
representan los datos que se encuentran dentro de los límites, se utiliza la
desigualdad de Chebysgev para los datos dentro de los límites. Esta fórmula es la
siguiente.

Probabilidad = 1 – (1 / k 2 )

Donde, matemáticamente, los valores menores o iguales a 1 no son válidos para


este cálculo. Sin embargo, conectar los valores de k para 2 y 3 es más simple de lo
que parece. En esos casos de 2 y 3, el Teorema de Chebyshev establece que al
menos el 75% de los datos caerán dentro de las 2 desviaciones estándar de la
media y se espera que el 89% de los datos caigan dentro de las 3 desviaciones
estándar de la media.

Esto es menos preciso que los 95% y 99.7% que se pueden usar para una
distribución normal conocida; sin embargo el Teorema de Chebyshev es cierta para
todas las distribuciones de los datos, no solo para una distribución normal.

48
Ejemplo del Teorema de Chebyshev

Supongamos que se han muestreado los pesos de los perros en un determinado


refugio de animales. Al analizar el muestreo, se ha descubierto que la muestra tiene
una media de 20 libras con una desviación estándar de 3 libras. Con el uso del
Teorema de Chebyshev. Sabiendo que el 75% de los perros que se han
muestreado tienen pesos que son dos desviaciones estándar de la media. Dos
veces la desviación estándar da un resultado de 2×3= 6. Restando y sumando esto,
da una media de 20

Lo anterior solo nos dice que el 75% de los perros tienen un peso de 14 libras a 26
libras. Este es un ejemplo bastante práctico de cómo funciona el Teorema de
Chebyshev o al menos cómo se puede emplear en un ejemplo de la vida real. La
estadística se encuentra siempre al tanto.

Uso del Teorema de Chebyshev

Si sabemos más acerca de la distribución con la que se está trabajando, entonces


se podrá garantizar que más datos estén a un cierto número de desviaciones
estándar de la media. Por ejemplo, si se sabe la distribución normal, entonces el
95% de los datos son dos desviaciones estándar de la media. El Teorema de
Chebyshev explica que en esta situación, sabremos que al menos el 75% de los
datos son dos desviaciones estándar de la media. Tal como se mostró en el ejemplo
anteriormente resuelto.

El valor de la desigualdad da un escenario de peor caso en el que lo único que


sabemos sobre nuestros datos de muestra, o la distribución de probabilidad, es la
media y la desviación estándar. Cuando no sabemos nada más sobre los datos, el
Teorema de Chebyshev proporciona una idea adicional de cuán extendido es el
conjunto de datos.

La ley de los grandes números

El Teorema de Chebyshev puede ser útil al hacer ciertas estimaciones aproximadas


sobre los intervalos de confianza, pero a menudo también es una herramienta muy
útil cuando se quieran probar casos estadísticos. Una muestra simple, pero bastante
eficaz, donde el teorema se usa a menudo es en la ley de los grandes números. Por
ejemplo, una gran prueba de esto sería:

La ley de los grandes números establece que para k, las variables aleatorias


independientes e idénticamente distribuidas es la media muestral.

49
Límites del teorema

El Teorema de Chebyshev es importante por sus aplicaciones en el ámbito


estadístico, y también su aplicabilidad a cualquier distribución. Como resultado de
que sea general, es posible que, y generalmente no se debe hacer, proporcionar un
límite tan agudo como los métodos alternativos que se pueden emplear si se
conoce bien la distribución de la variable aleatoria. Para mejorar los límites de la
nitidez de los resultados de la desigualdad, se ha desarrollado varios métodos
como:

Variables estandarizadas

Los límites se pueden derivar primero estandarizando la variable aleatoria y


obteniendo resultados más específicos.

Semivarianzas

Este es un método alternativo al estandarizado para obtener los límites más


definidos mediante las variaciones parciales, también conocido
como semivarianzas.

Distancia entre la media y la mediana

La variante unilateral puede usarse para probar la proposición de que para


distribuciones de probabilidad que tienen un valor esperado y una media, la media y
la mediana no pueden diferir entre sí en más de una desviación estándar.

50

También podría gustarte