Está en la página 1de 22

ESTADISTICA INFERENCIAL

TEMA 4

Instituto Tecnológico Superior de


Acuña
Ramiro Ramírez
Efraín Reyes
Ing. Industrial 3B
4.1 Bondad de ajuste
¿Alguna vez se ha preguntado si los números de la lotería se
distribuyen uniformemente o si algunos números se
producen con mayor frecuencia? ¿Qué tal si los tipos de
películas que prefiere las personas son diferentes en los
distintos grupos de edad? ¿Y si una máquina de café
dispensara aproximadamente la misma cantidad de café
cada vez? Podría responder estas preguntas mediante una
prueba de hipótesis.

Ahora estudiará una nueva distribución, la cual se utiliza


para determinar las respuestas de estas preguntas. Esta
distribución se denomina distribución chi-cuadrado.

En este capítulo aprenderá las tres principales aplicaciones


de la distribución chi-cuadrado

la prueba de bondad de ajuste, que determina si los datos


se ajustan a una determinada distribución, como en el
ejemplo de la lotería
la prueba de independencia, que determina si los eventos
son independientes, como en el ejemplo de la película
la prueba de una sola varianza, que comprueba la
variabilidad, como en el ejemplo del café

4.1.1 Análisis Ji cuadrada

La notación para la distribución chi-cuadrado es:

χ∼χ2de

donde df = grados de libertad, lo cual depende de


cómo se utilice el chi-cuadrado (si quiere practicar el
cálculo de probabilidades chi-cuadrado, utilice df = n –
1. Los grados de libertad para los tres usos principales
se calculan cada uno de forma diferente).

Para la distribución χ2, la media poblacional es μ = df y


la desviación típica poblacional es σ=2(de)−−−−√.

La variable aleatoria se muestra como χ2, aunque


puede ser cualquier letra mayúscula.

La variable aleatoria para una distribución chi-


cuadrado con k grados de libertad es la suma de
variables k normales cuadradas independientes.
χ2 = (Z1)2 + (Z2)2 + ... + (Zk)2

La curva no es simétrica y es asimétrica hacia la


derecha.
Hay una curva de chi-cuadrado diferente para cada df

El estadístico de prueba para cualquier prueba es siempre mayor o


igual a cero.
Cuando df > 90, la curva chi-cuadrado se aproxima a la distribución
normal. Para X ~ χ21.000 la media, μ = df = 1.000 y la desviación
típica, σ = 2(1.000)−−−−−−−√ = 44,7. Por tanto, X ~ N(1.000, 44,7),
aproximadamente.
La media, μ, se encuentra justo a la derecha del pico.
4.1.2 Prueba de independencia
Las pruebas de independencia implican el uso de una tabla
de contingencia de valores observados (datos).
El estadístico de prueba de independencia es similar al de la
prueba de bondad de ajuste:

donde:

O = valores observados
E = valores esperados
i = el número de filas de la tabla
j = el número de columnas de la tabla
Hay i⋅j términos de la forma (O–E)2E.
Una prueba de independencia determina si dos factores son
independientes o no. La primera vez que se topó con el
término independencia fue en Temas de probabilidad. A
modo de repaso, considere el siguiente ejemplo.
Supongamos que A = una infracción por exceso de velocidad
en el último año y B = un usuario de teléfono móvil mientras
conduce. Si A y B son independientes, entonces P(A Y B) =
P(A)P(B). A Y B es el evento en que un conductor recibió una
infracción por exceso de velocidad el año pasado y también
utilizaba el teléfono móvil mientras conducía. Supongamos
que se encuestaron 755 personas en un estudio sobre
conductores que recibieron infracciones por exceso de
velocidad durante el año pasado que usaron el teléfono
móvil mientras conducían. De los 755, 70 tenían una
infracción por exceso de velocidad y 685 no; 305 usaba el
teléfono móvil mientras conducían y 450 no.

Supongamos que y = número esperado de conductores que


usaron un teléfono móvil mientras conducían y recibieron
infracciones por exceso de velocidad.

Si A y B son independientes, entonces P(A Y B) = P(A)P(B).


Por sustitución,

y755=(70755)(305755)
Resuelva para y: y = (70)(305)755=28,3

Se espera que unas 28 personas de la muestra usen


teléfonos móviles mientras conducen y reciban infracciones
por exceso de velocidad.

En una prueba de independencia planteamos las hipótesis


nula y alternativa con palabras. Dado que la tabla de
contingencia consta de dos factores, la hipótesis nula afirma
que los factores son independientes y la hipótesis
alternativa afirma que no son independientes
(dependientes). Si hacemos una prueba de independencia
usando el ejemplo, entonces la hipótesis nula es:

H0: Hablar por el teléfono móvil mientras se conduce y


recibir una infracción por exceso de velocidad son eventos
independientes.

Si la hipótesis nula fuera cierta, esperaríamos que unas 28


personas usaran el móvil mientras conducen y recibieran
una infracción por exceso de velocidad.
La prueba de independencia es siempre de cola derecha
debido al cálculo del estadístico de prueba. Si los valores
esperados y observados no están cerca, entonces el
estadístico de prueba es muy grande y se encuentra en la
cola derecha de la curva de chi-cuadrado, al igual que en
una bondad de ajuste.

El número de grados de libertad para la prueba de


independencia es:

df = (número de columnas – 1)(número de filas – 1)

La siguiente fórmula calcula el número esperado (E):

E=(total de filas)(total de columnas)número total de


encuestados

4.1.3 Prueba de la bondad de ajuste


El estadístico de prueba para una prueba de bondad de ajuste es:

Σk(O–E)2E
donde:
O = valores observados (datos)
E = valores esperados (de la teoría)
k = el número de celdas o categorías de datos diferentes
Los valores observados son los valores de los datos y los valores
esperados son los valores que se esperarían obtener si la hipótesis
nula fuera cierta. Hay n términos de la forma (O–E)2E.

El número de grados de libertad es df = (número de categorías – 1).

La prueba de bondad de ajuste es casi siempre de cola derecha. Si


los valores observados y los correspondientes valores esperados no
se aproximan entre sí, el estadístico de prueba puede ser muy
grande y se situará en la cola derecha de la curva de chi-cuadrado.
Ejemplo:
El ausentismo de los estudiantes universitarios a las clases de
Matemáticas es una de las principales preocupaciones de los
instructores de Matemáticas, ya que ausentarse de clase parece
aumentar la tasa de abandono. Supongamos que se realiza un
estudio para determinar si la tasa real de ausentismo de los
estudiantes sigue la percepción del profesorado. El profesorado
esperaba que un grupo de 100 estudiantes se ausentara de clase.
Luego, se realizó una encuesta aleatoria en todos los cursos
de Matemáticas para determinar el número real
(observado) de ausencias en un curso.

Determine las hipótesis nula y alternativa necesarias para realizar


una prueba de bondad de ajuste.
H0: El ausentismo de los estudiantes se ajusta a la percepción del
profesorado.
La hipótesis alternativa es la opuesta a la hipótesis nula.
Ha: El ausentismo de los estudiantes no se ajusta a la percepción
del profesorado.
Solución
a. No. Tome nota que el número de ausencias previsto para la
entrada “más de 12” es inferior a cinco (es dos). Combine ese
grupo con el de “9-11” para crear nuevas tablas en las que el
número de estudiantes de cada entrada sea de cinco como
mínimo.
4.1.4 Tablas de contingencia
Como suele decirse, a estas alturas de la película ya sabrás quién es
el asesino. Hablando en serio, seguro que ya sabes calcular las
probabilidades de muchos sucesos aleatorios, es decir, ya podrías
decidir entre distintas opciones que te propusieran calculando las
probabilidades de que ocurran los distintos sucesos. Está claro que
si tienes una bolsa con una serie de bolas que sabes cuáles son, es
fácil calcular cuál es la probabilidad teórica de que salga una bola
de cualquier color, pero el problema es que en la vida corriente no
es fácil conocer cuál es la probabilidad de que ocurra un suceso,
por ejemplo, la probabilidad de que elegido un recién nacido en un
gran hospital, sea niña o niño.
Muchas veces la probabilidad de que ocurra un suceso se hace
coincidir con su frecuencia relativa. Por ejemplo, antes hemos
hablado del porcentaje de personas que leían El País en una
determinada ciudad, lo lógico es suponer que si elegimos una
persona al azar, la probabilidad de que esa persona lea el periódico
coincide con su proporción, como hemos hecho en el caso anterior.
Por eso, cuando no sabemos exactamente la probabilidad de un
suceso, la sustituimos por la frecuencia relativa de cualquier
estudio que conozcamos.
4.2 Pruebas no parametricas
as pruebas no paramétricas, también conocidas como pruebas de
distribución libre, son las que se basan en determinadas hipótesis,
pero lo datos observados no tienen una organización normal.
Generalmente, las pruebas no paramétricas contienen resultados
estadísticos que provienen de su ordenación, lo que las vuelve más
fáciles de comprender.

Las pruebas no paramétricas tienen algunas limitaciones, entre


ellas se encuentra que no son lo suficientemente fuertes cuando se
cumple una hipótesis normal. Esto puede provocar que no sea
rechazada, aunque sea falsa. Otra de sus limitaciones es que
necesitan que la hipótesis se cambie cuando la prueba no
corresponde a la pregunta del procedimiento si la muestra no es
proporcional.

Algunas de las características de las pruebas no paramétricas son:

Es un método de medición difícil de aplicar.


Es necesario realizar pruebas de hipótesis.
Las hipótesis son estrictas.
Las observaciones deben de ser independientes.
Quizá te interese también conocer sobre las pruebas paramétricas.
Tipos de pruebas no paramétricas y sus aplicaciones
Los tipos de pruebas no paramétricas son:

Prueba de signos de una muestra


Prueba de los rangos con signo de Wilcoxon
Prueba U de Mann-Whitney
Prueba de Kruskal-Wallis
Prueba de la mediana de Mood
Prueba de Friedman

4.2.1 Escala de medición


Como hemos dicho, para que los datos tengan sentido es necesario
compararlos. Y para poder compararlos debemos utilizar escalas de
medición. Dichas escalas tendrán diferentes propiedades en
función de las características de los datos que se compararán. En
estadística existen cuatro escalas de medición: nominal, ordinal, de
intervalo y de razón.
Escala nominal
Cuando un dato identifica una etiqueta (o el nombre de un
atributo) de un elemento, se considera que la escala de medición es
una escala nominal. En esta carecen de sentido el orden de las
etiquetas, así como la comparación y las operaciones aritméticas.
La única finalidad de este tipo de datos es clasificar a las
observaciones. Ejemplo:
Una variable que indica si el visitante de este post es «hombre» o
«mujer».

En esta variable se tienen dos etiquetas para clasificar a los


visitantes. El orden carece de sentido, así como la comparación u
operaciones aritméticas.

Escala ordinal
Cuando los datos muestran las propiedades de los datos nominales,
pero además tiene sentido el orden (o jerarquía) de estos, se utiliza
una escala ordinal. Ejemplo:

Una variable que mide la calidad de un post. La variable puede


tomar valores enteros del 1 al 5, donde el valor 1 es el peor y el 5 el
mejor.

En esta variable sigue sin tener sentido las operaciones aritméticas,


pero ahora sí tiene sentido el orden. Si un post tiene valor 4 y otro
tiene valor 2, el primero se entiende que es mejor que es segundo.

Escala de intervalo
En una escala de intervalo, los datos tienen las propiedades de los
datos ordinales, pero a su vez la separación entre las variables tiene
sentido. Este tipo de datos siempre es numérico, y el valor cero no
indica la ausencia de la propiedad. Veamos un ejemplo:

La temperatura (en grados centígrados) media de una ciudad.

En esta escala, los números mayores corresponden a temperaturas


mayores. Es decir, el orden importa, pero a la vez la diferencias
entre las temperaturas importa.

Escala de razón
En una escala de razón, los datos tienen todas las propiedades de
los datos de intervalo, y la proporción entre ellos tiene sentido.
Para esto se requiere que el valor cero de la escala indique la
ausencia de la propiedad a medir. Ejemplos de este tipo de
variables son el peso de una persona a el tiempo utilizado para una
tarea. Ejemplo:

Una variable que mide el salario de una persona.

En esta variable, si una persona gana 100, y otra 10, la primera gana
más que la segunda (comparación). También tiene sentido decir
que la primera gana 90 más que la segunda (diferencia), o que gana
10 veces más (proporción).

4.2.2 Métodos estadísticos contra no paramétricos


Las pruebas no paramétricas son aquellas en las que no existen
supuestos sobre la distribución de los parámetros de la población.
Se aplican con mayor frecuencia a los datos nominales y ordinales,
si bien pueden emplearse también para analizar datos continuos
transformados a una escala ordinal. Las pruebas paramétricas
típicas solo pueden evaluar datos continuos y los resultados
pueden verse afectados significativamente por los valores atípicos.
Por el contrario, algunas pruebas no paramétricas pueden ser
usadas con datos ordinales y no verse seriamente afectadas por los
valores atípicos.
4.2.3 Prueba de Kolmogorov (smirnov)
El procedimiento Prueba de Kolmogorov-Smirnov para una muestra
compara la función de distribución acumulada observada de una
variable con una distribución teórica determinada, que puede ser la
normal, la uniforme, la de Poisson o la exponencial. La Z de
Kolmogorov-Smirnov se calcula a partir de la diferencia mayor (en
valor absoluto) entre las funciones de distribución acumuladas
teórica y observada. Esta prueba de bondad de ajuste contrasta si
las observaciones podrían razonablemente proceder de la
distribución especificada.

Ejemplo
Muchas pruebas paramétricas requieren que las variables se
distribuyan de forma normal. La prueba de Kolmogorov-Smirnov
para una muestra se puede utilizar para comprobar que una
variable (por ejemplo ingresos) se distribuye normalmente.
Estadísticas
Media, desviación estándar, mínimo, máximo, número de casos no
perdidos, cuartiles, prueba de Lilliefors y simulación de Monte
Carlo.
4.2.4 Prueba de Anderson (Darling)
El estadístico Anderson-Darling mide qué tan bien siguen los datos
una distribución específica. Para un conjunto de datos y
distribución en particular, mientras mejor se ajuste la distribución a
los datos, menor será este estadístico. Por ejemplo, usted puede
utilizar el estadístico de Anderson-Darling para determinar si los
datos cumplen el supuesto de normalidad para una prueba t.

Las hipótesis para la prueba de Anderson-Darling son:


H0: Los datos siguen una distribución especificada
H1: Los datos no siguen una distribución especificada
Utilice el valor p correspondiente (si está disponible) para probar si
los datos provienen de la distribución elegida. Si el valor p es menor
que un nivel de significancia elegido (por lo general 0.05 o 0.10),
entonces rechace la hipótesis nula de que los datos provienen de
esa distribución. Minitab no siempre muestra un valor p para la
prueba de Anderson-Darling, porque este no existe
matemáticamente para ciertos casos.

También puede utilizar el estadístico de Anderson-Darling para


comparar el ajuste de varias distribuciones con el fin de determinar
cuál es la mejor. Sin embargo, para concluir que una distribución es
la mejor, el estadístico de Anderson-Darling debe ser
sustancialmente menor que los demás. Cuando los estadísticos
están cercanos entre sí, se deben usar criterios adicionales, como
las gráficas de probabilidad, para elegir entre ellos.
4.2.5 Prueba de Ryan (Joiner)
El estadístico de Ryan-Joiner mide qué tan bien se ajustan los datos
a una distribución normal, calculando la correlación entre los datos
y las puntuaciones normales de los datos. Según Hanke & Wichern
(2014) la prueba de Ryan Joiner proporciona un coeficiente que
indica exactamente la correlación entre los datos y las
puntuaciones normales de los datos. Una vez que el coeficiente de
correlación se acerca a 1, los datos se encuentran dentro de la
gráfica de probabilidad normal; caso contrario, esto es, cuando el
valor critico adecuado es menor, se rechaza la hipótesis nula de
normalidad. Cabe recalcar que para rechazar la hipótesis nula de
normalidad se calcula, primero, la medida de la correlación entre
los residuos y sus respectivas puntuaciones normales y, luego, se
utiliza dicha correlación como estadística de prueba. La prueba de
Ryan-Joiner -similar a la prueba de Shapiro-Wilk- se basa en la
regresión y correlación. Esta prueba resulta mucha más adecuada
para muestras superiores a 30 observaciones. El coeficiente de
correlación se calcula de acuerdo con la ecuación 4.
4.2.6 Prueba de Shappiro (Wilk)
El test de Shapiro-Wilk es un contraste de ajuste que se utiliza para
comprobar si unos datos determinados (X1, X2,…, Xn) han sido extraídos de
una población normal. Los parámetros de la distribución no tienen porqué
ser conocidos y está adecuado para muestras pequeñas(n<50) El test de
Shapiro-Wilk es un contraste de ajuste que se utiliza para comprobar si unos
datos determinados (X1, X2,…, Xn) han sido extraídos de una población
normal. Los parámetros de la distribución no tienen porqué ser conocidos y
está adecuado para muestras pequeñas(n<50).
Un contraste de ajuste tiene como objetivo comprobar si con base en la
información suministrada por una muestra se puede aceptar que la población
de origen sigue una determinada distribución de probabilidad, en nuestro
caso, la distribución normal. El estadístico propuesto por Shapiro-Wilk es
Siendo k el suelo de n/2, X(i) los valores ordenados de la muestra y an-i+1 son
unos coeficientes tabulados que son conocidos. La región crítica para
contrastar la certeza del test viene dada por donde En, α es un valor de la
tabla de Shapiro-Wilk correspondiente a un tamaño muestral n y a un nivel
de significación α.

También podría gustarte