Está en la página 1de 17

Contenido

Unidad IV: pruebas de bondad de ajustes y pruebas no paramtricas............................3


4.1.- Bondad de ajuste............................................................................................ 3
4.1.1.- Anlisis ji- cuadrada................................................................................ 3
4.1.2.- Prueba de independencia........................................................................4
4.1.3.- Prueba de la bondad de ajuste................................................................5
4.1.4.-Tablas de contingencia............................................................................ 5
4.2.- Pruebas no paramtricas.............................................................................. 7
4.2.1.- Escala de medicin................................................................................ 8
4.2.2.- Prueba de rangos con signo de Wilcoxon para la mediana...........................9
4.2.3.- Prueba de rangos con signo de Wilcoxon para la diferencia entre 2 medianas
(2 poblciones independientes).........................................................................10
4.2.4.- Prubas de rangos con signos de Wilcoxon para la diferencia de 2 medianas (2
poblaciones dependientes, datos pareados)......................................................11
4.2.5.- Prueba de las corridas..........................................................................12
4.3.- Mtodos estadsticos contra no paramtricos.................................................12
4.4.- Pruebas para verificar la normalidad en un grupo de datos..............................13
4.4.1.- Prueba de Kolmogorov Smirnov..........................................................14
4.4.2.- Prueba Anderson Darling....................................................................15
4.4.3.- Prueba de Ryan Joiner.......................................................................16
4.4.4.- Prueba de Shappiro Wilk....................................................................17
BIBLIOGRAFIA.................................................................................................... 19

Unidad IV: pruebas de bondad de ajustes y pruebas no


paramtricas
Competencias a desarrollar
-

Identificar y aplicar los conceptos de las pruebas de bondad ajuste.


Establecer cul es la metodologa aplicable a una prueba de bondad de
ajuste.
Identificar y aplicar los conceptos de una prueba no paramtrica.

Temas de investigacin conceptual

4.1.- Bondad de ajuste


Estas pruebas permiten verificar que la poblacin de la cual proviene una muestra
tiene una distribucin especificada o supuesta. Sea X: variable aleatoria
poblacional
f0(x) la distribucin (o densidad) de probabilidad especificada o
supuesta para X Se desea probar la hiptesis:
Ho: f(x) = f0(x)
En contraste con la hiptesis alterna:
Ha: f(x) no= f0(x) (negacin de Ho)

4.1.1.- Anlisis ji- cuadrada


Esta prueba es aplicable para variables aleatorias discretas o continuas.
Sea una muestra aleatoria de tamao n tomada de una poblacin con una
distribucin especificada f0(x) que es de inters verificar.
Suponer que las observaciones de la muestra estn agrupadas en k clases,
siendo oi la cantidad de observaciones en cada clase i = 1, 2, ..., k. Con el
modelo especificado f0(x) se puede calcular la probabilidad pi que un dato
cualquiera
Pertenezca a una clase i. Con este valor de probabilidad se puede encontrar la
frecuencia esperada ei para la clase i, es decir, la cantidad de datos que segn el
modelo especificado deberan estar incluidos en la clase i:
ei = pi n, i = 1, 2, ..., k
Tenemos entonces dos valores de frecuencia para cada clase i
oi: frecuencia observada (corresponde a los datos de la muestra)
ei: frecuencia esperada (corresponde al modelo propuesto)
La teora estadstica demuestra que la siguiente variable es apropiada para
realizar una prueba de bondad de ajuste: Dado un nivel de significancia se
define un valor crtico 2
para el rechazo de la hiptesis propuesta Ho: f(x) = f0(x).
Si las frecuencias observadas no difieren significativamente de las frecuencias
esperadas calculadas con el modelo propuesto, entonces el valor de estadstico
de prueba 2 ser cercano a cero, pero si estas diferencias son significativas,
entonces el valor del estadstico 2 estar en la regin de rechazo de Ho.
3

4.1.2.- Prueba de independencia


El objetivo es verificar si existe una dependencia entre las variables cualitativas
que definen filas y columnas, es decir, si para todo i = 1, ..., k y j = 1, .., m se
verifica que la probabilidad del resultado correspondiente a la
combinacin Ai Bj es
el producto de
las
probabilidades
marginales
correspondientes. P(Ai) es la probabilidad del resultado i para la variable fila
y P(Bj) la del resultado j para la variable columna.
P(Ai Bj) = P(Ai) P(Bj)
Utilizaremos generalmente la notacin ms simplificada:
P(Ai Bj) = pij
P(Ai) = pi
P(Bj) = pj
Los valores de pi y pj se estimarn, a partir de los valores observados en la tabla
de contingencia, por ni/N y nj/N respectivamente.
Hiptesis nula de independencia: para toda combinacin de resultados de las
variables fila y columna (i, j).
H0: pij = pi pj
para todo
i = 1, ..., k j = 1, .., m
La hiptesis alternativa, que implica dependencia, se puede formular diciendo que
alguna de las igualdades de la hiptesis nula es falsa.
Los valores observados son nij. Los valores esperados bajo la hiptesis nula de
independencia se calculan de la manera siguiente:
eij = N pij = N pi pj = N (ni/N ) (nj/N ) = (ni nj )/N
El estadstico de contraste se calcula de la manera habitual:

La distribucin asinttica bajo la hiptesis nula es una 2 con (k 1) (m 1)


grados de libertad. Los grados de libertad pueden entenderse, de manera intuitiva,
entendiendo que el nmero de parmetros que se estiman son (k 1) y (m 1),
ya que queda fijada la probabilidad de la ltima clase de cada caracterstica una
vez estimadas las restantes. Por tanto, aplicando la frmula para los grados de
libertad se obtiene:
grados de libertad = nmero de clases nmero de parmetros estimados 1
grados de libertad = k m (k 1) (m 1) 1 = (k 1) (m 1)
El criterio de decisin es el mismo que en el caso general:
Rechazamos la hiptesis nula si
donde el ltimo trmino es el valor crtico asociado con una distribucin 2,
con (k 1) (m 1) grados de libertad, tal que deja a su derecha una probabilidad
igual a .
La condicin de validez es que las frecuencias esperadas eij sean mayores que 5.
4

4.1.3.- Prueba de la bondad de ajuste


Una extensin de la prueba sobre la proporcin binomial ocurre cuando una
realizacin puede clasificarse en k posibles categoras en vez de dos (xito y
fracaso). Esto puede ocurrir en la eleccin de un individuo de un partido poltico
(tricolor, amarillo, azul, otro), en el tipo de delito por el cual un individuo es recluido
(un delito de violencia, un delito de cuello blanco, otro), por mencionar algunos
ejemplos.
Supngase que en una muestra en particular se observa que ocurre un conjunto
de eventos posibles E1, E2, E3, , Ek (vase la tabla), con frecuencias o 1, o2, o3, ,
ok, denominadas frecuencias observadas, y que de acuerdo con las reglas de
probabilidad, se espera que ocurran con frecuencias e 1, e2, e3, , ek, llamdas
frecuencias esperadas. En un escenario como el descrito arriba se desea saber si
las frecuencias observadas difieren significativamente de las frecuencias
esperadas.

Evento

E1

E2

E3

Ek

Frecuencia observada

o1

o2

o3

ok

Frecuencias esperadas

e1

e2

e3

ek

El estadstico
proporciona una medida de la discrepancia existente entre la
frecuencia observada y la frecuencia esperada, que est dada por

k (o e )
(o e ) 2
(o e ) 2 (o e ) 2
1 1 2 2 ... k k j j
e1
e2
ek
ej
j 1

(1)

Donde, se la frecuencia total es n,

o e
j

La hiptesis nula que se desea probar es


H0: p1=p10,pk = pk0
5

(2)

Contra
Ha: al menos una pj pj0 para j=1,,k,
Donde pj0 es la proporcin correspondiente a la j-sima categora.
Ntese que bajo H0 ej = n pj0.
Bajo

la

hiptesis

aproximadamente

nula,

el

estadstico

(ji-cuadrado)

se

distribuye

(k-1) y entonces se rechaza H 0 al nivel de significancia si


2 1
2
excede el valor critico
.

4.1.4.-Tablas de contingencia
Es un medio particular de representar simultneamente dos carcteres
observados en una misma poblacin, si son discretos o continuos reagrupados en
clases. Los dos carcteres son
modalidades o clases de
denota

toma el valor

el efectivo marginal de
valor

, el tamao de la muestra es

se escribirn

el efectivo conjunto de
cuales

, las de

para los cuales

el valor

: es el nmero de individuos para los cuales

: es el nmero de individuos

toma el valor

. Se

: es el nmero de individuos para los

el efectivo marginal de

. Las

.
6

toma el

Se representan estos valores en una tabla de doble entrada, llamada tabla de


contingencia:

Cada fila y cada columna corresponden a una submuestra particular. La fila de ndice
es la distribucin en
valor

, de los individuos para los cuales el carcter

. La columna de ndice

es la distribucin sobre

toma el

, de los individuos

para los cuales el carcter


toma el valor
. Dividiendo las filas y las columnas por sus
sumas, obtenemos en cada una, distribuciones empricas formadas por frecuencias
condicionales. Para

, las denotaremos:

4.2.- Pruebas no paramtricas


La mayor parte de los procedimientos de prueba de hiptesis que se presentan en
las unidades anteriores se basan en la suposicin de que las muestras aleatorias
se seleccionan de poblaciones normales. Afortunadamente, la mayor parte de
estas pruebas an son confiables cuando experimentamos ligeras desviaciones de
la normalidad, en particular cuando el tamao de la muestra es grande.
Tradicionalmente, estos procedimientos de prueba se denominan mtodos
paramtricos. En esta seccin se consideran varios procedimientos de prueba
alternativos, llamados no paramtricos mtodos de distribucin libre, que a
menudo no suponen conocimiento de ninguna clase acerca de las distribuciones
de las poblaciones fundamentales, excepto que stas son continuas.
Los procedimientos no paramtricos o de distribucin libre se usan con mayor
frecuencia por los analistas de datos. Existen muchas aplicaciones en la ciencia y
la ingeniera donde los datos se reportan no como valores de un continuo sino
7

mas bien en una escala ordinal tal que es bastante natural asignar rangos a los
datos.
Un ejemplo donde se aplica una prueba no paramtrica es el siguiente, dos jueces
deben clasificar cinco marcas de cerveza de mucha demanda mediante la
asignacin de un grado de 1 a la marca que se considera que tiene la mejor
calidad global, un grado 2 a la segunda mejor, etctera. Se puede utilizar entonces
una prueba no paramtrica para determinar donde existe algn acuerdo entre los
dos jueces.
Se debe sealar que hay varias desventajas asociadas con las pruebas no
paramtricas. En primer lugar, no utilizan la informacin que proporciona la
muestra, y por ello una prueba no paramtrica ser menos eficiente que el
procedimiento paramtrico correspondiente, cuando se pueden aplicar ambos
mtodos. En consecuencia, para lograr la misma potencia, una prueba no
paramtrica requerir la correspondiente prueba no paramtrica.
Como se indic antes, ligeras divergencias de la normalidad tienen como resultado
desviaciones menores del ideal para las pruebas paramtricas estndar. Esto es
cierto en particular para la prueba t y la prueba F. En el caso de la prueba t y la
prueba F, el valor P citado puede ser ligeramente errneo si existe una violacin
moderada de la suposicin de normalidad.
En resumen, si se puede aplicar una prueba paramtrica y una no paramtrica al
mismo conjunto de datos, debemos aplicar la tcnica paramtrica ms eficiente.
Sin embargo, se debe reconocer que las suposiciones de normalidad a menudo no
se pueden justificar, y que no siempre se tienen mediciones cuantitativas.

4.2.1.- Escala de medicin


Las variables de las escalas nominal y ordinal se denominan tambin categricas,
por otra parte las variables de escala de intervalo o de razn se denominan
variables numricas. Con los valores de las variables categricas no tiene sentido
o no se puede efectuar operaciones aritmticas. Con las variables numricas s.
La escala nominal slo permite asignar un nombre al elemento medido. Esto la
convierte en la menos informativa de las escalas de medicin.

La escala ordinal, adems de las propiedades de la escala nominal, permite


establecer un orden entre los elementos medidos.
8

La escala de intervalo, adems de todas las propiedades de la escala ordinal,


hace que tenga sentido calcular diferencias entre las mediciones.

Finalmente, la escala de razn permite, adems de lo de las otras escalas,


comparar mediciones mediante un cociente.

4.2.2.- Prueba de rangos con signo de Wilcoxon para la mediana


Debido que se supone que la distribucin subyacente es simtrica = as que
se expresa la hiptesis de inters en trminos de en vez de *.
Suposicin: X1, X2, Xn es una muestra aleatoria de una distribucin de
probabilidad continua y simtrica con media y mediana ()
Cuando el valor supuesto de es 0 las diferencias absolutas X1=0 Xn=n
se deben clasificar de menor a mayor

Hiptesis nula: H0: =0


Valor del estadstico de prueba
S+= las suma de los rangos relacionados con (xi - 0) positivas.
Hiptesis alternativa
Regin de rechazo para la prueba de nivel
S+ C 1
Ha: > 0
Ha: > 0
S+ C2
[donde C2 = n(n + 1)/2 - C1]
Ha: 0
Ya sea S+ C o S+ n(n + 1)/2 - C1
Donde los valores crticos C1. Cuando los valores crticos satisfacen P(S + C1)
y p(S+ C) /2 cuando H0 es verdadera.

4.2.3.- Prueba de rangos con signo de Wilcoxon para la diferencia


entre 2 medianas (2 poblciones independientes)
La prueba de los rangos con signo de Wilcoxon es una prueba no
paramtrica para comparar la mediana de dos muestras relacionadas y determinar
si existen diferencias entre ellas. Se utiliza como alternativa a laprueba t de
Student cuando no se puede suponer la normalidad de dichas muestras. Debe su
nombre a Frank Wilcoxon, que la public en 1945.1 Es una prueba no paramtrica
de comparacin de dos muestras relacionadas, debe cumplir las siguientes
caractersticas:
Es libre de curva, no necesita una distribucin especfica Nivel ordinal de la
variable dependiente Se utiliza para comparar dos mediciones de rangos
(medianas) y determinar que la diferencia no se deba al azar (que la diferencia
sea estadsticamente significativa).

Se utiliza cuando la variable subyacente es continua pero no se presupone ningn


tipo de distribucin particular.
Suponga que se dispone de n pares de observaciones, denominadas
objetivo del test es comprobar si puede dictaminarse que los valores
e
no iguales.

. El
son o

La hiptesis nula es
:
. Retrotrayendo dicha hiptesis a los valores
originales, sta vendra a decir que son en cierto sentido del mismo tamao.
Para verificar la hiptesis, en primer lugar, se ordenan los valores
absolutos
y se les asigna su rango
. Entonces, el estadstico de
la prueba de los signos de Wilcoxon,
, es

es decir, la suma de los rangos


positivos de

correspondientes a los valores

La distribucin del estadstico


se acepta o no la hiptesis nula.

puede consultarse en tablas para determinar si

En ocasiones, esta prueba se usa para comparar las diferencias entre dos
muestras de datos tomados antes y despus del tratamiento, cuyo valor central se
espera que sea cero. Las diferencias iguales a cero son eliminadas y el valor
absoluto de las desviaciones con respecto al valor central son ordenadas de
10

menor a mayor. A los datos idnticos se les asigna el lugar medio en la serie. La
suma de los rangos se hace por separado para los signos positivos y los
negativos. S representa la menor de esas dos sumas. Comparamos S con el valor
proporcionado por las tablas estadsticas al efecto para determinar si rechazamos
o no la hiptesis nula, segn el nivel de significacin elegido.

4.2.4.- Pruebas de rangos con signos de Wilcoxon para la diferencia


de 2 medianas (2 poblaciones dependientes, datos pareados)
Es til para probar la aseveracin de que una muestra proviene de una poblacin
con una mediana especfica.
Se emplea para grupos correlacionados (datos apareados) y cuyos datos no
siguen una distribucin normal
Esta prueba toma en cuenta la magnitud como la direccin de los puntajes de
diferencia
Puede emplearse en lugar de la prueba t para grupos dependientes cuando no se
tiene certeza de la distribucin de la muestra y no se tiene datos sobre la
poblacin
Es una prueba no par mtrica que utiliza rangos ordenados de datos mustrales
consistentes en datos apareados. Se usa para probar las diferencias en las
distribuciones poblacionales y se basa en los siguientes supuestos:
Los datos consisten en datos apareados que se seleccionan aleatoriamente.
La podemos emplear para evaluar si dos grupos dependientes tienen
distribuciones similares.
La distribucin de las diferencias tiene una distribucin que es aproximadamente
simtrica.
Los datos dentro de cada pareja deben ser por lo menos de mediciones ordinales.
Para calcular Tobt hay que ordenar por rangos de puntaje de diferencia.
Suposiciones y pasos a considerar:
1. Los datos se ordenan de acuerdo a un criterio, por ejemplo del ms
pequeo al ms grande, o del mayor a menor, etc.
2. El rango es el nmero que se asigna a un elemento muestral individual de
acuerdo con su orden en la lista ordenada
3. Se descartan todas las diferencias iguales a cero y se ordenan y etiquetan
las diferencias absolutas restantes, desde la mnima hasta la mxima.
4. Cuando las diferencias son iguales se les asigna la clasificacin media a
sus posiciones ordenadas en el conjunto combinado de datos
5. La idea bsica que est detrs de la prueba del signo es el anlisis de las
frecuencias de los signos positivos y negativos para determinar si son
significativamente diferentes
6. Emplearemos el estadstico de prueba con base en el nmero de veces que
ocurre el signo menos frecuente.
11

4.2.5.- Prueba de las corridas


Las pruebas de las corridas, que se basan en el orden en el que se obtienen las
observaciones muestrales, es una tcnica til para probar la hiptesis nula H 0 de
que las observaciones en realidad se extraen al azar.
Para ilustrar las pruebas de corridas. Supongamos que se encuestan 12 personas
para saber si utilizan cierto producto. Se cuestionara seriamente la supuesta
aleatoriabilidad de la muestra si las 12 personas fueran del mismo sexo.
Designaremos un hombre y una mujer con los smbolos M y F, respectivamente, y
registraremos los resultados de acuerdo con su sexo en el orden en que ocurren.
Subsecuencia tpica para el experimento podra ser
MM FFF M FF MMMM
Donde agrupamos las subsecuencias de smbolos similares. Tales agrupamientos
se llaman corridas.
Definicin: una corrida es una subsecuencia de uno o ms smbolos idnticos que
representan una propiedad comn de los datos.

4.3.- Mtodos estadsticos contra no paramtricos


EL CASO DE DOS MUESTRAS: Las pruebas estadsticas de dos muestras se usan
cuando el investigador desea establecer la diferencia entre dos tratamientos o si un
tratamiento es mejor que otro. Por ejemplo adiestramiento, uso de psicofrmaco, en
cada caso el grupo que ha sufrido el tratamiento es comparado con el que no lo ha
experimentado o que ha sufrido un tratamiento diferente.
En la comparacin de estos grupos, a veces se observan diferencias significativas que
no son el resultado del tratamiento, por ejemplo, en el estudio de los trabajadores que
se someten a un entrenamiento diferente para determinar cul es el mejor para elevar
su calificacin, puede ser que la diferencia no se deba, realmente, a uno u otro
tratamiento, sino que uno de los grupos estaba ms motivado por elevar rpidamente
su calificacin y, de esta forma, no se refleja verdaderamente la efectividad del
procedimiento de enseanza.

12

Una forma de eliminar esta dificultad, es usar MUESTRAS RELACIONADAS estas


se pueden lograr: Cuando el propio sujeto es su propio control. Con parejas de
sujetos en las que se asignan los miembros de cada pareja, a las dos condiciones.
La tcnica paramtrica usual para analizar datos provenientes de dos muestras
relacionadas es aplicar la prueba t a los puntajes, estos se pueden obtener de los
dos puntajes de cada pareja igualada o de los puntajes de cada sujeto bajo las dos
condiciones. stas pruebas determinan la medida en dije las diferencias de las
muestras indican, de forma convincente, una diferencia en el proceso aplicado en
ellos.
En el caso de dos MUESTRAS INDEPENDIENTES, ellas pueden obtenerse:
Tomando al azar sujetos de dos poblaciones. Asignando al azar ambos tratamientos
a miembros de algunas muestras de orgenes arbitrarios. No es necesario que la
muestra sea del mismo tamao.
En este caso, la prueba t es la tcnica paramtrica indicada para analizar los datos
de las dos muestras independientes.

4.4.- Pruebas para verificar la normalidad en un grupo de datos

Un caso especfico de ajuste a una distribucin terica es la correspondiente a la


distribucin normal. Este contraste se realiza para comprobar si se verifica la
hiptesis de normalidad necesaria para que el resultado de algunos anlisis sea
fiable, como por ejemplo para el ANOVA.
Para comprobar la hiptesis nula de que la muestra ha sido extrada de una
poblacin con distribucin de probabilidad normal se puede realizar un estudio
grfico y/o analtico.

4.4.1.- Prueba de Kolmogorov Smirnov


La prueba de bondad de ajuste de Kolmogorov-Smirnov es una alternativa para
probar que una muestra proviene de una distribucin continua (normal). Esta

13

prueba se basa en la comparacin entre la funcin distribucin acumulada de una


distribucin terica con la funcin distribucin acumulada de la muestra.
Si las funciones de distribucin acumulada terica y muestral no son
significativamente diferentes, entonces decimos que la muestra proviene de la
distribucin cuya funcin distribucin acumulada es F t(x). Sin embargo, si las
diferencias entre las funciones distribucin acumuladas son muy grandes como
para que no sean debidas solamente al azar, rechazamos Ho

Los pasos a seguir en la prueba de bondad de ajuste de Kolmogorov-Smirnov son


los siguientes:
Plantear la hiptesis: Ho: Fm(X)=Ft(X) para todo X E R; Ha: Fm(X)=Ft(X),
por lo menos para un X.
Calcular todos los valores Fm(X) de la muestra X1,X2,.,Xn.
Determinar la desviacin mxima, que est dada por el supremo de los
valores
absolutos
de
las
diferencias
entre
los
valores
de
la funcin acumulada terica y de la muestra.
Escoger un nivel de significacin
De acuerdo al resultado se toma la decisin
Las suposiciones en la prueba de bondad de ajuste de Kolmogorov-Smirnov son:
1.
Muestras Aleatorias
2.
La poblacin deber ser continua en la variable observada
3.
La prueba no es validad si se tiene que estimar uno o ms parmetros
usando los datos de la muestra.
TABLA DE KOLMOGOROV-SMIRNOV

14

4.4.2.- Prueba Anderson Darling


La prueba de Anderson-Darling es usada para probar si una muestra viene de una
distribucin especifica. Esta prueba es una modificacin de la prueba de
Kolmogorov- Smirnov donde se le da ms peso a las colas de la distribucin que
la prueba de Kolmogorov-Smirnov.
En estadstica, la prueba de Anderson-Darling es una prueba no paramtrica sobre
si los datos de una muestra provienen de una distribucin especfica. La frmula
para el estadstico determina si los datos (observar que los datos se deben
ordenar) vienen de una distribucin con funcin acumulativa F.

Donde:
n es el nmero de datos
f(x): es la funcin de distribucin de probabilidad terica
FS(X): es la funcin de distribucin emprica.
Para definir la regla de rechazo para esta prueba es necesario, tambin, obtener el
estadstico ajustado para luego compararlo con los valores crticos de la tabla de
Anderson- Darling

15

Una vez obtenido el estadstico ajustado, la regla de rechazo se realiza


anlogamente a la utilizada en la prueba de K-S.
El estadstico de la prueba se puede entonces comparar contra las
distribuciones del estadstico de prueba (dependiendo que F se utiliza) para
determinar el P- valor.

4.4.3.- Prueba de Ryan Joiner


La prueba de ryan joiner es usada para probar si una muestra viene de muestra
especifica. Esta prueba es una modificacin de la prueba de Kolmogorck
Smirnov donde se da ms paso a las colas de la distribucin que la prueba de
Kolmogorck Smirnov.
Es una prueba no paramtrica donde sobre si los datos de una muestra proviene
de una distribucin especifica la frmula para el estadstico determina si los datos
(observar que los datos se deben ordenar) vienen de una distribucin con
acumulativa F.
Formulas:
A 2=NS
Donde el estadstico de prueba para la prueba de Anderson Darling:

4.4.4.- Prueba de Shappiro Wilk


Mide el ajuste de la muestra a una recta, al dibujarla en papel probabilstico
normal. Este tipo de representacin tambin lo proporcionan algunos programas
de estadstica, de tal manera que nos permite adems apreciar el ajuste o
desajuste de forma visual:

16

En escala probabilstica normal se representa en el eje horizontal, para cada valor


observado en nuestros datos, la funcin de distribucin o probabilidad acumulada
observada, y en el eje vertical la prevista por el modelo de distribucin normal. Si
el ajuste es bueno, los puntos se deben distribuir aproximadamente segn una
recta a 45. En la imagen vemos que en este ejemplo existe cierta discrepancia.
En cualquier caso siempre es adecuado efectuar una representacin grfica de
tipo histograma de los datos, y comparar el valor de la media y la mediana, as
como evaluar el coeficiente de asimetra y apuntamiento, adems de llevar a cabo
una representacin en escala probabilstica de la distribucin de probabilidad
esperada versus observada, como la de la figura.
Cuando la muestra es como mximo de tamao 50 se puede contrastar la
normalidad con la prueba de shapiro Shapiro-Wilk. Para efectuarla se calcula la
media y la varianza muestral, S2, y se ordenan las observaciones de menor a
mayor. A continuacin se calculan las diferencias entre: el primero y el ltimo; el
segundo y el penltimo; el tercero y el antepenltimo, etc. y se corrigen con unos
coeficientes tabulados por Shapiro y Wilk. El estadstico de prueba es:

17

donde D es la suma de las diferencias corregidas.


Se rechazar la hiptesis nula de normalidad si el estadstico W es menor que el
valor crtico proporcionado por la tabla elaborada por los autores para el tamao
muestral y el nivel de significacin dado.

BIBLIOGRAFIA

Marqus dos Santos, Mara Jos; Estadstica Bsica: un enfoque no paramtrico,


Universidad Nacional Autnoma de Mxico, Facultad de Estudios Superiores
Zaragoza
Llins Solano, Humberto; Estadstica inferencial, Ediciones Uninorte, 2006
Est. Bsica p Admn. - Berenson, Levine
Probabilidad y Estadstica Aplicadas a la Ingeniera (Montgomery - Runger) - 2
Edicin [Cap 1 - 8]

18

También podría gustarte