Está en la página 1de 23

ndice.

Bondad de ajuste.......................................................................................... 2
Anlisis Ji-cuadrada....................................................................................... 2
Prueba de independencia............................................................................. 3
Prueba de la bondad del ajuste...................................................................6
Tablas de contingencia................................................................................. 8
Pruebas no paramtricas.............................................................................. 8
Escala de medicin....................................................................................... 8
Pruebas de los rangos con signo de wilcoxon para la mediana..................10
Pruebas de sumas de rangos con signo de wilcoxon para la diferencia entre
dos medianas (2 poblaciones independientes)...........................................11
Prueba de rangos con signo de wilcoxon para la diferencia de 2 medianas
(2 poblaciones dependientes, datos pareados)..........................................14
Prueba de las corridas................................................................................ 15
Mtodos estadsticos contra no paramtricos............................................16
Pruebas para verificar la normalidad en un grupo de datos.......................18
Prueba de kolmogorov-smirnov..................................................................18
Prueba de Anderson-Darling.......................................................................18
Prueba de Ryan- Joiner................................................................................ 19
Prueba de Shapiro-Wilks............................................................................. 20
Bibliografa.................................................................................................. 22

Unidad IV. Pruebas de bondad de ajuste y pruebas no paramtricas.


Competencias especficas a desarrollar:

Identificar y aplicar los conceptos de las pruebas de bondad de ajuste.


Establecer cul es la metodologa aplicable a una prueba de bondad de
ajust.
Identificar y aplicar los conceptos de una prueba no paramtrica.

Bondad de ajuste.
Anlisis Ji-cuadrada.
Otro caso especial muy importante de la distribucin gamma se obtiene al hacer
=/2 y = 2, donde es un entero positivo. Este resultado se llama distribucin
ji cuadrada. La distribucin tiene un solo parmetro, , llamado grados de libertad.
La variable aleatoria continua X tiene una distribucin ji cuadrada, con grados de
libertad, si su funcin de densidad est dada por:

En cualquier otro caso donde es un entero positivo.


La distribucin ji cuadrada juega un papel vital en al inferencia estadstica. Tiene
una aplicacin considerable en la metodologa y en la teora. La distribucin ji
cuadrada es un componente importante de la prueba de hiptesis y de la
estimacin estadstica.
Los temas que tratan con distribucin de muestreo, anlisis de varianza y
estadstica no paramtrica implican el uso extenso de la distribucin ji cuadrada.
La media y la varianza de la distribucin ji cuadrada son:

Prueba de independencia.
El procedimiento de prueba de ji cuadrada que se presenta en la seccin tambin
se puede usar para probar la hiptesis de independencia de dos variables de
clasificacin. Suponga que deseamos determinar si las opiniones de los votantes
residentes del estado de Hilinois con respecto a una nueva reforma de impuestos
son independientes de sus niveles de ingresos. Una muestra aleatoria de 1000
votantes registrados del estado de Hilinois se clasifican de acuerdo con su
posicin en las categoras de ingreso bajo, medio o alto y si estn a favor o no de
la nueva reforma de impuestos. Las frecuencias observadas se presentan en la
tabla que se conoce como tabla de contingencia.

Una tabla de contingencia con r renglones y con c columnas se denomina tabla r


X c (r X c se lee r por c). Los totales de renglones y columnas en la tabla se
denominan frecuencias marginales. Nuestra decisin de aceptar o rechazar la
hiptesis nula. Ho, de independencia entre la opinin de un votante con respecto
a la nueva reforma de impuestos y su nivel de ingreso se basa en que tan buen
7ajuste tenemos las frecuencias observadas en cada una de la seis celdas de la
tabla y las frecuencias que esperaramos para cada celda bajo la suposicin de
que Ho es verdadera. Para encontrar estas frecuencias esperadas definamos los
siguientes eventos:
L: Una persona seleccionada est en el nivel de ingresos bajo.
M: Una persona seleccionada est en el nivel de ingresos medio.
H: Una persona seleccionada est en el nivel de ingresos alto.
F: Una persona seleccionada est a favor de la nueva reforma de impuestos.
A: Una persona seleccionada est en contra de la nueva reforma de impuestos.
Con el uso de las frecuencias marginales, podemos
estimaciones de probabilidad:

listar las siguientes

Ahora bien, si Ho es verdadero y las dos variables son independientes, debemos


tener:

Las frecuencias esperadas se obtienen al multiplicar cada probabilidad de una


celda por el nmero total de observaciones. Como antes, redondeamos estas
frecuencias a un decimal. As, se estima que el nmero esperado de votantes de
bajo ingreso en una muestra que favorecen la nueva reforma fiscal es:

Cuando Ho es verdadera. La regla general para obtener


de cualquier celda est dada por la siguiente formula:

la frecuencia esperada

En la tabla de frecuencia esperada para cada celda se registra entre parntesis a


un lado del valor observado real. Ntese que las frecuencias esperadas en
cualquier rengln o columna se suman al total marginal apropiado.

En nuestro ejemplo necesitamos calcular solo las dos frecuencias esperadas en el


rengln superior de la tabla y despus encontrar el otro pos sustraccin. El
nmero de grados de libertad asociados con la prueba de ji cuadrada que aqu se
usa es igual al nmero de frecuencias de celdas que se pueden llenar libremente
cuando se nos dan los totales marginales y el gran total, y en este ejemplo este
nmero es de 2. Una formula simple que proporciona el nmero correcto de
grados de libertad es:

De aqu, para nuestro ejemplo,


grados de libertad. Para
probar la hiptesis nula de independencia, usamos el criterio de decisin siguiente:
Prueba de independencia.

Calcular:
Donde la suma se extiende a todas las celtal rc en la tabla de contingencia r X c.
si X2 > X2 con = (r 1) (c 1) grados de libertad, rechazar la hipotesis nula de
indepenencia al nivel de significancia , en cualquier otro caso, aceptar la
hipotesis nula.
Al aplicar estre criterio a nuestro ejemplo, encontramos que:

De la tabla encontramos que x 20.05 = 3.991 para = (2-1) (3-1) = 2 grados de


libertad. La hiptesis nula se rechaza. Concluirnos que la opinin de un votante

con respecto a la nueva reforma


independientes.

fiscal

y su nivel de ingresos no son

Es importante recordar que la estadstica sobre la que basamos nuestra decisin


tiene una distribucin que solo se aproxima a la distribucin ji cuadrada. Los
valores x2
calculados dependen de las frecuencias de las celdas y en
consecuencia son discretas. La distribucin ji cuadrada continua pare aproximar
muy bien a la distribucin de muestreo discreta de x 2, dado que el nmero de
grados de libertad es mayor que 1. En una tabla de contingencia de 2 * 2 donde
solo tenemos 1 grados de libertad, se aplica una correlacin llamada correlacin
de yates para continuidad. La frmula corregida se vuelve entonces:

Si las frecuencias de celdas esperadas son grandes, los resultados corregidos y


sin correccin son casi los mimos. Cuando las frecuencias esperadas estn entre
5 y 10, se debe aplicar la correccin de Yates. Para frecuencias esperadas
menores que 5, se debe utilizar la prueba exacta de Fisher-Irwin.

Prueba de la bondad del ajuste.


Una extensin de la prueba sobre la proporcin binomial ocurre cuando una
realizacin puede clasificarse en k posibles categoras en vez de dos (xito y
fracaso). Esto puede ocurrir en la eleccin de un individuo de un partido poltico
(tricolor, amarillo, azul, otro), en el tipo de delito por el cual un individuo es recluido
(un delito de violencia, un delito de cuello blanco, otro), por mencionar algunos
ejemplos.

Supngase que en una muestra en particular se observa que ocurre un conjunto


de eventos posibles E1, E2, E3, , Ek (vase la tabla), con frecuencias o 1, o2, o3, ,
ok, denominadas frecuencias observadas, y que de acuerdo con las reglas de
probabilidad, se espera que ocurran con frecuencias e 1, e2, e3, , ek, llamdas
frecuencias esperadas. En un escenario como el descrito arriba se desea saber si
las frecuencias observadas difieren significativamente de las frecuencias
esperadas.

Evento

E1

E2

E3

Ek

Frecuencia observada

o1

o2

o3

ok

Frecuencias esperadas

e1

e2

e3

ek

2
El estadstico
(lase chi cuadrada) proporciona una medida de la discrepancia
existente entre la frecuencia observada y la frecuencia esperada, que est dada
por

k (o e )
(o e ) 2
(o e ) 2 (o e ) 2
1 1 2 2 ... k k j j
e1
e2
ek
ej
j 1

(1)

Donde, se la frecuencia total es n,

o e
j

n
.

(2)

La hiptesis nula que se desea probar es


H0: p1=p10,pk = pk0
contra
H1: al menos una pj pj0 para j=1,,k,
donde pj0 es la proporcin correspondiente a la j-sima categora.

Ntese que bajo H0 ej = n pj0.

2
Bajo

la

hiptesis

nula,

el

estadstico

(ji-cuadrado)

se

distribuye

2
aproximadamente

(k-1) y entonces se rechaza H 0 al nivel de significancia si

2
excede el valor critico

2 1

Tablas de contingencia.
En estadstica las tablas de contingencia se emplean para registrar y analizar la
relacin entre dos o ms variables, habitualmente de naturaleza cualitativa
(nominales u ordinales)
La tabla nos permite ver de un vistazo que la proporcin de hombres diestros es
aproximadamente igual a la proporcin de mujeres diestras. Sin embargo, ambas
proporciones no son idnticas y la significacin estadstica de la diferencia entre
ellas puede ser evaluada con la prueba de Pearson, supuesto que las cifras de
la tabla son una muestra aleatoria de una poblacin. Si la proporcin de individuos
en cada columna vara entre las diversas filas y viceversa, se dice que existe
asociacin entre las dos variables. Si no existe asociacin se dice que ambas
variables son independientes.
El grado de asociacin entre dos variables se puede evaluar empleando distintos
coeficientes: el ms simple es el coeficiente phi que se define por

donde 2 se deriva del test de Pearson, y N es el total de observaciones -el gran


total-. puede oscilar entre 0 (que indica que no existe asociacin entre las
variables) e infinito. A diferencia de otras medidas de asociacin, el coeficiente
de Cramer no est acotado.
== Estudio de diferencia de proporciones == Hay situaciones en las que tenemos
probabilidades de xito cercanas al cero o del uno en donde las proporciones
pueden ser poco representativas sobre el comportamiento dentro de los grupos.

Pruebas no paramtricas.
Escala de medicin.
Se entender por medicin al proceso de asignar el valor a una variable de un
elemento en observacin. Este proceso utiliza diversas escalas: nominal, ordinal,
de intervalo y de razn.
Las variables de las escalas nominal y ordinal se denominan tambin categricas,
por otra parte las variables de escala de intervalo o de razn se denominan
variables numricas. Con los valores de las variables categricas no tiene sentido
o no se puede efectuar operaciones aritmticas. Con las variables numricas s.
La escala nominal slo permite asignar un nombre al elemento medido. Esto la
convierte en la menos informativa de las escalas de medicin.
Los siguientes son ejemplos de variables con este tipo de escala:
Nacionalidad.
Uso de anteojos.
Nmero de camiseta en un equipo de ftbol.
Nmero de Cdula Nacional de Identidad.
A pesar de que algunos valores son formalmente numricos, slo estn siendo
usados para identificar a los individuos medidos.
La escala ordinal, adems de las propiedades de la escala nominal, permite
establecer un orden entre los elementos medidos.
Ejemplos de variables con escala ordinal:
Preferencia a productos de consumo.
Etapa de desarrollo de un ser vivo.
Clasificacin de pelculas por una comisin especializada.
Madurez de una fruta al momento de comprarla.

La escala de intervalo, adems de todas las propiedades de la escala ordinal,


hace que tenga sentido calcular diferencias entre las mediciones.
Los siguientes son ejemplos de variables con esta escala:
Temperatura de una persona.
Ubicacin en una carretera respecto de un punto de referencia (Kilmetro
85 Ruta 5).
Sobrepeso respecto de un patrn de comparacin.
Nivel de aceite en el motor de un automvil medido con una vara
graduada.
Finalmente, la escala de razn permite, adems de lo de las otras escalas,
comparar mediciones mediante un cociente.
Algunos ejemplos de variables con la escala de razn son los siguientes:
Altura de personas.
Cantidad de litros de agua consumido por una persona en un da.
Velocidad de un auto en la carretera.
Nmero de goles marcados por un jugador de bsquetbol en un partido.
La escala de intervalo tiene un cero que se establece por convencin y puede
tener variaciones. Es arbitrario. Por otra parte, la escala de razn tiene un cero
real, fijo, no sujeto a variaciones; es propio de la medicin hecha.

Pruebas de los rangos con signo de wilcoxon para la mediana.


La prueba de los rangos con signo de Wilcoxon es una prueba no
paramtrica para comparar la mediana de dos muestras relacionadas y determinar
si existen diferencias entre ellas. Se utiliza como alternativa a la prueba t de
Student cuando no se puede suponer la normalidad de dichas muestras. Debe su
nombre a Frank Wilcoxon, que la public en 1945. Es una prueba no paramtrica
de comparacin de dos muestras relacionadas, debe cumplir las siguientes
caractersticas:

10

Es libre de curva, no necesita una distribucin especfica Nivel ordinal de la


variable dependiente Se utiliza para comparar dos mediciones de rangos
(medianas) y determinar que la diferencia no se deba al azar (que la diferencia sea
estadsticamente significativa).

Se utiliza cuando la variable subyacente es continua pero no se presupone ningn


tipo de distribucin particular.

Planteamiento
Suponga que se dispone de n pares de observaciones, denominadas
objetivo del test es comprobar si puede dictaminarse que los valores
e
no iguales.

. El
son o

Suposiciones
1. Si

, entonces los valores

son independientes.

2. Los valores tienen una misma distribucin continua y simtrica respecto a


una mediana comn .

Mtodo
La hiptesis nula es
:
. Retrotrayendo dicha hiptesis a los valores
originales, sta vendra a decir que son en cierto sentido del mismo tamao.
Para verificar la hiptesis, en primer lugar, se ordenan los valores
absolutos
y se les asigna su rango
. Entonces, el estadstico de
la prueba de los signos de Wilcoxon,
, es

11

es decir, la suma de los rangos

correspondientes a los valores positivos de

La distribucin del estadstico


se acepta o no la hiptesis nula.

puede consultarse en tablas para determinar si

En ocasiones, esta prueba se usa para comparar las diferencias entre dos
muestras de datos tomados antes y despus del tratamiento, cuyo valor central se
espera que sea cero. Las diferencias iguales a cero son eliminadas y el valor
absoluto de las desviaciones con respecto al valor central son ordenadas de
menor a mayor. A los datos idnticos se les asigna el lugar medio en la serie. La
suma de los rangos se hace por separado para los signos positivos y los
negativos. S representa la menor de esas dos sumas. Comparamos S con el valor
proporcionado por las tablas estadsticas al efecto para determinar si rechazamos
o no la hiptesis nula, segn el nivel de significacin elegido.

Pruebas de sumas de rangos con signo de wilcoxon para la


diferencia entre dos medianas (2 poblaciones independientes).
Esta prueba es un procedimiento libre de distribucin poderoso, muy sencillo y
ampliamente utilizado, para probar las diferencias entre las medianas de dos
poblaciones. Adems, la prueba de suma de rangos de wilcoxon es un
procedimiento excelente a escoger cuando solamente se pueden obtener datos
del tipo ordinal, como sucede a menudo cuando tratamos con estudios sobre
comportamientos de consumo, investigaciones de mercado y psicologa
experimental.
Esta prueba se emplea en combinacin con el diseo de grupos independientes,
con datos que tienen por lo menos una escala ordinal, puede sustituir a la prueba t
student cuando sta no cumple con la suposicin de normalidad de su poblacin.
La hiptesis nula y alternativa se enuncia sin mencionar los parmetros de la
poblacin.
Tambin puede emplearse en lugar de la prueba t cuando los datos no se
encuentran en una escala de razn o intervalo. Bsicamente compara la diferencia
entre las medianas de dos grupos.

12

Procedimiento:
Para efectuar la prueba de suma de rangos de wilcoxon debemos sustituir las
observaciones de las dos muestras de tamaos n1 y n2 por sus rangos
combinados. Los rangos son asignados de tal manera que el rango 1 se asigna a
la ms pequea de las n = n1 + n2 observaciones combinadas, el rango 2 se le
asigna a la siguiente ms alta y as sucesivamente, de modo que el rango n queda
asignado a la observacin mas grande.
Si varias observaciones tienen el mismo valor, asignamos a cada una de estas el
promedio de los rangos que, en otra circunstancia, se les habra asignado.
Por cuestiones de comodidad, siempre que los dos tamaos de muestras sean
distintos, haremos que n1 represente el de la muestra ms pequea y que n2
corresponda al de la ms grande. La estadstica de prueba de suma de rangos de
wilcoxon, T1, es simplemente la suma de rangos asignados a las n1
observaciones de la muestra ms pequea.
Para cualquier valor entero n, la suma de los n primeros enteros consecutivos
puede calcularse fcilmente como n(n + 1)/2. La estadstica de prueba, T1, mas la
suma de los rangos asignados a los n2 elementos de la segunda muestra, T2, por
consiguiente, debe sr igual a este valor; es decir,

De modo que esta ecuacin puede servir como una verificacin del procedimiento
de asignacin de rangos. La prueba de hiptesis nula puede ser de dos extremos
o de un extremo dependiendo de si estamos probando si las dos medianas de
poblacin son exclusivamente diferentes o si una de ellas es mayor que la otra.

Cuando los tamaos de ambas muestras n1 y n2 son 10, se puede usar la tabla
para obtener los valores crticos de la estadstica de prueba T1 para pruebas de
uno y dos extremos, a varios niveles de significacin.

13

Para una prueba de dos extremos y para un nivel particular de significacin , si el


valor calculado de T1 es igual o mayor que el valor critico superior o si es menor o
igual que el valor critico inferior, la hiptesis nula pude ser rechazada.
Para pruebas de un extremo que tiene la hiptesis alternativa H1: M1 < M2, la
regla de decisin consiste en rechazar la hiptesis nula si el valor observado de
T1 es menor o igual que el valor critico inferior. Para la pruebas de un extremo
cuya hiptesis alternativa sea H1: M1 > M2, la regla de decisin consiste en
rechazar la hiptesis nula si el valor observado de T1 es igual o mayor que el valor
critico superior.
Utilizamos como estadstico de prueba:
Donde:
T1 = suma de rangos de la primera muestras.
N1 = nmero de observaciones de la primera muestra.
N2 = numero de observaciones de la segunda muestra.
Basndonos en el nivel de significacin seleccionado, la hiptesis nula puede
ser rechazada si el valor Z calculado cae en la regin de rechazo apropiada,
dependiendo de si se trata de una prueba de dos extremos o de uno solo.

Prueba de rangos con signo de wilcoxon para la diferencia de 2


medianas (2 poblaciones dependientes, datos pareados).
UTILIDAD

Es til para probar la aseveracin de que una muestra proviene de una


poblacin con una mediana especfica.
Se emplea para grupos correlacionados (datos apareados) y cuyos
datos no siguen una distribucin normal

14

Esta prueba toma en cuenta la magnitud como la direccin de los


puntajes de diferencia
Puede emplearse en lugar de la prueba t para grupos dependientes
cuando no se tiene certeza de la distribucin de la muestra y no se tiene
datos sobre la poblacin
Es una prueba no par mtrica que utiliza rangos ordenados de datos mustrales
consistentes en datos apareados. Se usa para probar las diferencias en las
distribuciones poblacionales y se basa en los siguientes supuestos:
Los datos consisten en datos apareados que se seleccionan
aleatoriamente.
La podemos emplear para evaluar si dos grupos dependientes tienen
distribuciones similares.
La distribucin de las diferencias tiene una distribucin que es
aproximadamente simtrica.
Los datos dentro de cada pareja deben ser por lo menos de mediciones
ordinales.
Para calcular Tobt hay que ordenar por rangos de puntaje de diferencia.
Suposiciones y pasos a considerar:
Los datos se ordenan de acuerdo a un criterio, por ejemplo del ms
pequeo al ms grande, o del mayor a menor, etc.
El rango es el nmero que se asigna a un elemento muestral individual de
acuerdo con su orden en la lista ordenada
Se descartan todas las diferencias iguales a cero y se ordenan y etiquetan
las diferencias absolutas restantes, desde la mnima hasta la mxima.
Cuando las diferencias son iguales se les asigna la clasificacin media a
sus posiciones ordenadas en el conjunto combinado de datos
La idea bsica que est detrs de la prueba del signo es el anlisis de las
frecuencias de los signos positivos y negativos para determinar si son
significativamente diferentes
Emplearemos el estadstico de prueba con base en el nmero de veces que
ocurre el signo menos frecuente.

Criterios a considerar:
T= se elige a la ms pequea de las siguientes sumas:
La suma de los valores absolutos de los rangos negativos de las diferencias
La suma de los rangos positivos de las diferencias d
Si el tamao de la muestra es menor a 30, entones empleamos estadstico
T y se compara con T critico de tablas.
Si el valor de TOBT es menor o igual a TCRI rechazamos Ho
La suma de los rangos debe ser igual a T1 + T2 = n ( n + 1)/ 2
15

Entonces con respecto a las medianas:


Para probar la hiptesis nula de que se muestrean dos poblaciones simtricas
continuas con mediana1 = mediana2 para el caso de una muestra pareada,
clasificamos las diferencias de las observaciones pareadas sin importar el signo y
procedemos como en el caso de una sola muestra.

Prueba de las corridas.


Las pruebas de las corridas, que se basan en el orden en el que se obtienen las
observaciones muestrales, es una tcnica til para probar la hiptesis nula h 0 de
que las observaciones en realidad se extraen al azar.
Para ilustrar las pruebas de corridas. Supongamos que se encuestan 12 personas
para saber si utilizan cierto producto. Se cuestionara seriamente la supuesta
aleatoravilidad de la muestra si las 12 personas fueran del mismo sexo.
Designaremos un hombre y una mujer con los smbolos M y F, respectivamente, y
registraremos los resultados de acuerdo con su sexo en el orden en que ocurren.
Subsecuencia tpica para el experimento podra ser
MM FFF M FF MMMM
Donde agrupamos las subsecuencias de smbolos similares.
Tales agrupamientos se llaman corridas.

Definicin: una corrida es una subsecuencia de uno o ms smbolos idnticos que


representan una propiedad comn de los datos
Sin importar si las mediciones de nuestra muestra representan datos cuantitativos
o cualitativos, la prueba de corridas divide los datos en dos categoras
mutuamente excluyentes; masculino o femenino ; defectuoso o no defectuoso
caras o cruzes; arriba o abajo; etc. En consecuencias, una secuencia siempre
estar limitada a dos smbolos distintos. Sea n el numero de smbolos asociados
con la categora. Entonces el tamao de la muestra n= n1 +n2
Para los n =12 simbolos en nuestra encuesta tenemos cinco corridas con la
primera que contiene dos m la segunda 3 f etc, si el numero de corridas es mayor
16

o menor que el que esperaramos al azar se debe rechazar la hiptesis de que la


muestra se extrajo al azar; ciertamente, una muestra que tiene como resultado
solo dos corridas.
O la inversa, es mas improbable que ocurra a partir de un proceso de seleccin
aleatoria. Tal c resultado indica ue las primeras siete personas entrevistadas
fueron todas hombres seguidas de cinco mujeres. De la misma manera, si la
muestra tiene como resultado el numer mximo de

12 corridas, comoen la

secuencia alternamente
Mfmfmfmfmfmf
De nuevo sospechamos del orden en que se seleccionaron los individuos para la
encuesta
La prueba de corridas para la aleatoriedad se basa en la variable aleatoria V el
numero total de corridas que ocurren en la secuencia completa de nuestro
experimento. Se dan valores de p(V<v) cuando h0 es verdadera para V=2,3.20
corridas, y valores de n1 y n2 menores que o iguales a 10, los valores p para
pruebas de una cola y de dos colas se pueden obtener con el uso de estos valores
tabulados.

Mtodos estadsticos contra no paramtricos.


1.- EL CASO DE DOS MUESTRAS: Las pruebas estadsticas de dos muestras se
usan cuando el investigador desea establecer la diferencia entre dos tratamientos o si
un tratamiento es mejor que otro. Por ejemplo adiestramiento, uso de psicofrmaco,
en cada caso el grupo que ha sufrido el tratamiento es comparado con el que no lo ha
experimentado o que ha sufrido un tratamiento diferente.
En la comparacin de estos grupos, a veces se observan diferencias significativas que
no son el resultado del tratamiento, por ejemplo, en el estudio de los trabajadores que
se someten a un entrenamiento diferente para determinar cul es el mejor para elevar
su calificacin, puede ser que la diferencia no se deba, realmente, a uno u otro
tratamiento, sino que uno de los grupos estaba ms motivado por elevar rpidamente
su calificacin y, de esta forma, no se refleja verdaderamente la efectividad del
procedimiento de enseanza.
17

Una forma de eliminar esta dificultad, es usar MUESTRAS RELACIONADAS estas se


pueden lograr: Cuando el propio sujeto es su propio control. Con parejas de sujetos en
las que se asignan los miembros de cada pareja, a las dos condiciones. La tcnica
paramtrica usual para analizar datos provenientes de dos muestras relacionadas es
aplicar la prueba t a los puntajes, estos se pueden obtener de los dos puntajes de
cada pareja igualada o de los puntajes de cada sujeto bajo las dos condiciones. stas
pruebas determinan la medida en dije las diferencias de las muestras indican, de
forma convincente, una diferencia en el proceso aplicado en ellos.
En el caso de dos MUESTRAS INDEPENDIENTES, ellas pueden obtenerse:
Tomando al azar sujetos de dos poblaciones. Asignando al azar ambos tratamientos
a miembros de algunas muestras de orgenes arbitrarios. No es necesario que la
muestra sea del mismo tamao.
En este caso, la prueba t es la tcnica paramtrica indicada para analizar los datos
de las dos muestras independientes.
2.-EL CASO DE K MUESTRA:
A veces las circunstancias requieren de diseos experimentales de ms de dos
muestras o condiciones que puedan estudiarse simultneamente y entonces es
necesario usar una prueba estadstica que indique si existe una diferencia total entre
las k muestras o condiciones, ya que no es posible tener confianza en una decisin
acerca de k muestras, en la que el anlisis se haga probando las muestras, 2 a 2.La
tcnica paramtrica para probar si varias muestras proceden de una misma
poblacin, es el anlisis de varianza o prueba F. La misma facilita que no haya
prdida de precisin al estimar la varianza por separado, pues se utiliza una
varianza combinada.

Pruebas para verificar la normalidad en un grupo de datos.


Prueba de kolmogorov-smirnov.
Este contraste, que es vlido nicamente para variables continuas, compara la
funcin de distribucin (probabilidad acumulada) terica con la observada, y
18

calcula un valor de discrepancia, representado habitualmente como D, que


corresponde a la discrepancia mxima en valor absoluto entre la distribucin
observada y la distribucin terica, proporcionando asimismo un valor de
probabilidad P, que corresponde, si estamos verificando un ajuste a la distribucin
normal, a la probabilidad de obtener una distribucin que discrepe tanto como la
observada si verdaderamente se hubiera obtenido una muestra aleatoria, de
tamao n, de una distribucin normal. Si esa probabilidad es grande no habr por
tanto razones estadsticas para suponer que nuestros datos no proceden de una
distribucin, mientras que si es muy pequea, no ser aceptable suponer ese
modelo probabilstico para los datos.

Prueba de Anderson-Darling.
Esta prueba es aplicada para evaluar el ajuste a cualquier distribucin de
probabilidades. Se basa en la comparacin de la distribucin de probabilidades
acumulada emprica (resultado de los datos) con la distribucin de probabilidades
acumulada terica (definida por H0).
la prueba de Anderson-Darling es una prueba no paramtrica sobre si los datos
de una muestra provienen de una distribucin especfica. La frmula para
el estadstico A determina si los datos
(observar que los datos
se deben ordenar) vienen de una distribucin con funcin acumulativa

Donde

El estadstico de la prueba se puede entonces comparar contra las distribuciones


del estadstico de prueba (dependiendo que
se utiliza) para determinar el Pvalor.
La prueba de Anderson-Darling es una prueba estadstica que permite determinar
si una muestra de datos se extrae de una distribucin de probabilidad. En su forma
bsica, la prueba asume que no existen parmetros a estimar en la distribucin
que se est probando, en cuyo caso la prueba y su conjunto de valores crticos
siguen una distribucin libre. Sin embargo, la prueba se utiliza con mayor
frecuencia en contextos en los que se est probando una familia de distribuciones,
en cuyo caso deben ser estimados los parmetros de esa familia y debe tenerse
estos en cuenta a la hora de ajustar la prueba estadstica y sus valores crticos.
Cuando se aplica para probar si una distribucin normal describe adecuadamente
un conjunto de datos, es una de las herramientas estadsticas ms potentes para
la deteccin de la mayora de las desviaciones de la normalidad.

19

Prueba de Ryan- Joiner.


La prueba re ryan joiner es usada para probar si n muestra viene de muestra
especifica. Esta prueba es una modificacin de la prueba de Kolmogorck
Smirnov donde se damas paso a las colas de la distribucin que la prueba de
Kolmogorck Smirnov.
Es un aprueba no paramtrica donde sobre si los datos de una meustra proviene
de una distribucin especifica la formaula para el estadstico determina si los
datos (obseravar que los datos se deben ordenar) vienen de una distribucin con
acumulativa F.
Formulas:
2

A =NS
Donde el estadstico de prueba para la prueba de Anderson Darling:

Donde:
n: es el nmero de datos

Prueba de Shapiro-Wilks
Mide el ajuste de la muestra a una recta, al dibujarla en papel probabilstico
normal. Este tipo de representacin tambin lo proporcionan algunos programas
de estadstica, de tal manera que nos permite adems apreciar el ajuste o
desajuste de forma visual:

20

En escala probabilstica normal se representa en el eje horizontal, para cada valor


observado en nuestros datos, la funcin de distribucin o probabilidad acumulada
observada, y en el eje vertical la prevista por el modelo de distribucin normal. Si
el ajuste es bueno, los puntos se deben distribuir aproximadamente segn una
recta a 45. En la imagen vemos que en este ejemplo existe cierta discrepancia.
En cualquier caso siempre es adecuado efectuar una representacin grfica de
tipo histograma de los datos, y comparar el valor de la media y la mediana, as
como evaluar el coeficiente de asimetra y apuntamiento, adems de llevar a cabo
una representacin en escala probabilstica de la distribucin de probabilidad
esperada versus observada, como la de la figura.
Cuando la muestra es como mximo de tamao 50 se puede contrastar la
normalidad con la prueba de shapiro Shapiro-Wilk. Para efectuarla se calcula la
media y la varianza muestral, S2, y se ordenan las observaciones de menor a
mayor. A continuacin se calculan las diferencias entre: el primero y el ltimo; el
segundo y el penltimo; el tercero y el antepenltimo, etc. y se corrigen con unos
coeficientes tabulados por Shapiro y Wilk. El estadstico de prueba es:
donde D es la suma de las diferencias corregidas.

21

Se rechazar la hiptesis nula de normalidad si el estadstico W es menor que el


valor crtico proporcionado por la tabla elaborada por los autores para el tamao
muestral y el nivel de significacin dado.
Esta prueba evala la normalidad calculando la correlacin entre sus datos y las
puntuaciones normales de sus datos. Si el coeficiente de correlacin se encuentra
cerca de 1, es probable que la poblacin sea normal.
La estadstica de Ryan-Joiner evala la solidez de esta correlacin; si se
encuentra por debajo del valor crtico apropiado, se rechazar la hiptesis nula

H0

de normalidad en la poblacin. Esta prueba es similar a la prueba de normalidad


de Shapiro-Wilk
Cuando la muestra es como mximo de tamao 50 se puede contrastar la normalidad con
la prueba de shapiro Shapiro-Wilk. Para efectuarla se calcula la media y la varianza
muestral, S2, y se ordenan las observaciones de menor a mayor. A continuacin se
calculan las diferencias entre: el primero y el ltimo; el segundo y el penltimo; el tercero y
el antepenltimo, etc. y se corrigen con unos coeficientes tabulados por Shapiro y Wilk. El
estadstico de prueba es:

donde D es la suma de las diferencias corregidas.


Se rechazar la hiptesis nula de normalidad si el estadstico W es menor que el
valor crtico proporcionado por la tabla elaborada por los autores para el tamao
muestral y el nivel de significacin dado. La secuencia para realizar los contrastes
de normalidad es:Analiza, Estadsticos Descriptivos y Explorar.

Bibliografa.

22

Est. Bsica p Admn. - Berenson, Levine.


Probabilidad y Est. p Ing. 6 ed (Walpole - Myers).
Estadistica aplic. a los neg. y la econ. (Webster).

23

También podría gustarte