Está en la página 1de 87

INTRODUCCIÓN A LOS

DISEÑOS EXPERIMENTALES
Prueba de Hípotesis

5
Para realizar una prueba de hipótesis deben tenerse en cuenta
los siguientes aspectos:

Datos: Comprender la naturaleza de los datos, ya que estos


determinan el tipo de prueba que debe aplicarse. Por
ejemplo que los datos sean medidas o conteos.

Hipótesis nula: Existen dos tipos de hipótesis, la llamada


hipótesis nula Ho que es a la que se realiza la prueba, de
tal forma que el resultado de la prueba puede ser “Se
acepta la hipótesis nula” o “Se rechaza la hipótesis nula”.
Cuando se acepta, la conclusión es que no hay una
diferencia entre grupos.

Hipótesis alternativa: de hecho esta es la hipótesis que se


platea como base de la investigación y en realidad es la que
se busca probar.
Regla de decisión: Esta regla señala que se debe rechazar la hipótesis nula
si el valor de la estadística de prueba que se calcula a partir de la muestra es
uno de los valores de la región de rechazo. En contraparte, no se debe
rechazar la hipótesis nula si el valor calculado de la estadística de prueba es
uno de los valores de la región de no rechazo.

P≤

Nivel de
significa
ncia
Tipos de errores en torno a la prueba de hipótesis
Error tipo I ( ):
cuando se rechaza una hipótesis nula que en realidad es verdadera.

HA = El riesgo de padecimientos cardiacos es mayor en las personas que


habitualmente ingieren cafeína en comparación con aquellas que
no la ingieren.

Ho = No hay diferencia en cuanto al riesgo de desarrollar


padecimientos cardiacos entre las personas que consumen
cafeína y aquellas que no la ingieren.
Suponga que se hace el estudio y se llega a
la conclusión de que el café afecta el
corazón.

Rechazaríamos la Ho dado que en ella establecemos que no


hay diferencia entre quienes consumen cafeína y quienes no
lo hacen.

Sin embargo, la realidad es otra:


No hay asociación entre cafeína y afecciones cardiacas.

Este es el error tipo I

Aceptamos como verdadero algo que NO lo es….


Error tipo II ( ):
cuando NO se rechaza la hipótesis nula falsa.

HA = Las personas con exposición crónica a As tienen mayor


riesgo
de desarrollar diabetes que aquellas personas no expuestas.

Ho = Las personas con exposición crónica a As no


presentan diferencia alguna en el riesgo de desarrollar
diabetes en relación a aquellas personas no expuestas.

Aceptamos como verdadero al que NO lo es…..


En un estudio por lo general se acepta que el valor de error  sea de entre el 5 y 20
%, debido a que es difícil calcular la probabilidad de error tipo II, esto es porque en
la hipótesis nula (error tipo 1) la afirmación es categórica:
Ho La variable = X (hay una asociación o causalidad muy clara)
Mientras que en el error tipo II, la NO asociación se puede deber a múltiples
causas.

Es por ello que se usa el término POTENCIA DE ESTUDIO


POTENCIA DE ESTUDIO

Se llama potencia de estudio a la probabilidad de observar una


determinada diferencia o efecto que en realidad SI existe. Y
viene definido como 1-

El recurso normal para aumentar la potencia de


un estudio es disminuir  (el error tipo II), esto se logra
generalmente aumentando el tamaño de muestra, lo
que lleva a un incremento en costos y tiempo.
Antes de estudiar algunas pruebas de
hipótesis, conviene tener en cuenta la serie
de pasos que nos llevan a tener una buena
inferencia.
ESTADISTICA INFERENCIAL

¿Cómo son
las variables?

PRUEBA
Hipótesis Método Valo DE
Hipótesis Estadística HIPÓTESIS
Datos Estadístico r
De Ho (nula)
Ha (alternativa) de
Investigaci
ón
p
Nivel
de
Significa
ncia

¿Cuál es el
Objetivo? Rechazar
o no
la
Significancia
hipótesis
Biológica
nula a
Pregunta un nivel
significancia
de de
estadística
Investigaci dado
ón
1.- Comparación, proporción y diferencias

Una proporción es una relación entre los objetos o personas que


presentan
alguna característica y el total de la muestra.

Por lo general se aplica a variables cualitativas.

En la mayoría de los casos, la proporción se


determina directamente, sin embargo, hay que
recordar que se trata de una muestra y que
deseamos tener un rango de confianza en el que
la proporción de la muestra sea representativa
de la población.
Ejemplo:
De una muestra de 1000 cancerosos se han reportado a la fecha
823 decesos. Se desea determinar la proporción de
muertes
debido a esta condición con un intervalo de confianza del 95%

Si sacamos la proporción esta


será:

p = 823 / 1000 = 0.823

Sin embargo, nos indican que hay tener un 95% de


confianza

I.C. = p ± Z a/2
Sustituyendo en la ecuación

I.C. = 0.823 ± 1.96

I. C. = 0.799 ≤ p ≤ 0.847

Significado:
La proporción poblacional deberá estar en este intervalo, aunque la estimación
puntual sea 0.823

Estos resultados se pueden expresar como tasa. Las tasas no se expresan como
fracciones. En nuestro ejemplo la tasa no puede ser 0.823, sino redondeando: 8 de
cada 10 cancerosos mueren, o bien, 82 de cada 100, 823 de cada 1000, etc.
2.- Coeficiente de variación (C.V.)

Una forma de medir diferencias dentro de los elementos de un mismo


grupo o dentro elementos de diferentes grupos que se desean comparar es
midiendo el Coeficiente de Variación.

C. V. = Desv. Est. / promedio

C.V. =  / Ẋ

Por lo general, valores de mas del 15% en el coeficiente variación


son indicativo de heterogeneidad.
COMPARACION DE MEDIAS NO PARAMETRICO

Independientes Dependientes

Paramétrico t Student t Student


(muestras (muestras
independientes) dependientes)
No Paramétrico Mann-Whitney Wilcoxon
Ejercicio
De la misma base de datos se desprende que solo el peso no presenta una
distribución normal, en base a eso determina si hay diferencia entre los
pesos de hombres y mujeres.
Independientes Dependientes

Paramétrico t Student t Student


(muestras independientes) (muestras
dependientes)
No Paramétrico Mann-Whitney Wilcoxon
o
U de Mann-Whitney
o
Suma de rango de Wilcoxon
Comparación de varianzas para muestras grupales
El análisis de varianza (ANOVA) de un factor sirve para comparar varios grupos
en una variable cuantitativa.
Se trata, por tanto, de una generalización de la Prueba T para dos
muestras independientes.

A la variable categórica (nominal u ordinal) que define los grupos que se


desean comparar la llamamos independiente o factor. Suele representarse como
VI.

A la variable cuantitativa en la que deseamos comparar los grupos se le llama


dependiente (VD).
La hipótesis que se somete a prueba es que las medias poblacionales de los
grupos comparados entre si son iguales.

Ho: X1 = X2 = X3 = ….

La estrategia para probar esta hipótesis se basa en un estadístico denominado F

“F” refleja el grado de variabilidad de la varianza intergrupal

F = 21 / 22

Si las medias poblacionales son iguales o tienden a ser iguales, las


medias grupales serán también parecidas, y por tanto, las varianzas de
las medias muestrales  reflejaran el mismo grado de variación, es decir,
serán parecidas. En ese caso, F será muy cercano a la unidad.
Pestaña Opciones --- Homegenidad de varianza

El estadistico F se basa en el supuesto de que normalidad y homocedasticidad:


1) Normalidad: Significa que la variable dependiente (CMI) se distribuye
normalmente en la “j” poblaciones muestreadas. Si el tamaño de los grupos
son muy grandes, F se comporta razonablemente bien incluso con
distribuciones poblacionales alejadas de la normalidad.
2) Homocedasticidad: significa igualdad de varianzas e indica que las “j”
poblaciones muestreadas poseen la misma varianza. Ojo: cuando los grupos
no tienen el mismo tamaño, el incumplimiento de este supuesto debe ser
cuidadosamente vigilado, quiere decir que posiblemente no haya
homogeneidad intergrupal.
Esta prueba, denominada estadístico de Levene o prueba de Levene,
contrasta las varianzas poblacionales para ver si son iguales. La
significación
(P) nos indica si hay que rechazar la Ho (de igualdad) o no.
3.1.- Distribución muestral
Las distribuciones, denominadas de probabilidad:
a) Permiten responder preguntas de probabilidad acerca de estadísticas
muestrales.
b) Proporcionan la teoría necesaria para hacer válidos los procedimientos
de inferencia estadística.

La distribución de todos los valores posibles que puede asumir


una estadística, calculados a partir de muestras del mismo
tamaño, seleccionadas aleatoriamente de la misma población, se
llama distribución muestral de dicha estadística.
Las distribuciones muestrales se pueden construir a partir de poblaciones
finitas y discretas.

Se pretende que el estadístico que describe el comportamiento de la


población total este reflejado en las muestras, al menos con una cierta
tolerancia.

Media poblacional X

Media muestral X1

Media muestral X2

X1 ≈ X2 ≈ X3 …
Media muestral X3
Cuando se usan valores muestrales para estimar valores poblacionales
pueden ocurrir dos tipos de errores:

• Error muestral: Es la variación natural existente entre muestras tomadas


de la misma población, aun cuando sean del mismo tamaño y nos
esforcemos por extraerla con los mismos criterios.

• Error no muestral: Se presenta cuando se introduce, por lo general


de manera desapercibida, un sesgo, y se denomina sesgo muestral.

Ejemplo 1: si se hiciera una encuesta sobre el aborto y


al sacar la muestra en ella hubiera una mayoría de
hombres.

Ejemplo 2: se hace una encuesta vía telefónica para


predecir el nombre de un candidato ganador, pero si
la población que prefiere a otro candidato no tiene
teléfono, la muestra resulta sesgada.
Ejemplo 3: Otro caso de error no muestral se tiene cuando los equipos o
instrumentos para hacer las mediciones no estan bien calibrados o cuando el
personal que hace la medición no tiene la capacidad para asentar valores
objetivos: medición de la presión sanguinea, aplicación de una encuesta de
nutrición, etc.
El error NO muestral o sesgo muestral se puede
minimizar tomando las medidas correspondientes y
demostrando la objetividad de dichas mediciones, a este
proceso se le llama VALIDACIÓN.

En forma general el sesgo muestral se minimiza si se tienen en cuenta


los
siguientes aspectos:

 Medición y recabamiento de datos


 Sensibilidad y selectividad
 Presición y exactitud
3.2. La medición
La directa
medición
aquélla en la cual e
característica de un objeto ses
obtiene directamente. la

Por ejemplo, al medir la


altura de un individuo con
una cinta métrica, el objeto
que mide tiene la misma
propiedad que va a medir en
el objeto: longitud en
centímetros
La medición indirecta es
aquélla en la cual la
característica de un objeto se
mide a través de otra
característica.

Por ejemplo, al medir la


temperatura de un individuo
con un termómetro, la altura de
la columna de mercurio es un
indicador indirecto de otro
fenómeno diferente, la
temperatura.
También se pueden medir los aspectos
fundamentales del fenómeno que
interesa. Por ejemplo, presión arterial
sistólica en una encuesta sobre presión
arterial…. bien, las mediciones
0 se por otras
substituyen quesean
equivalentes; por ejemplo, pliegues de
la piel como índices de nutrición.
Antes de hacer una medición, el investigador debe definir:
 el método de medida,
 el procedimiento por seguir,
 la naturaleza del equipo y
 las condiciones en las cuales habrá de realizarse la
medición.

La VALIDEZ de una prueba es el


grado en que el resultado positivo de
un procedimiento diagnóstico refleja
la verdadera situación del sujeto.
3.2.1.- Sensibilidad y especificidad

La SENSIBILIDAD se refiere a la capacidad de la prueba de dar


un resultado positivo cuando el objeto de medición analizado
tiene la característica de interés. Es decir, la capacidad de
detectar hasta mediciones muy pequeñas de una variable de
interés.

pH por tiras pH por


titulación
(vire)
Potenciometría
La se refiere a la
ESPECIFICIDAD
capacidad de la prueba para dar un
resultado negativo si la persona no tiene
la característica de interés o un
resultado positivo si lo tiene. Es decir, la
capacidad de medir solamente los
parámetros que de interés y no otros.
3.2.2.- Precisión y exactitud de la medición

Precisión Exactitud

DEFINICIÓN Grado en que una variable tiene Grado en que una variable
casi el mismo valor cuando se representa realmente lo que se
mide varias veces (repitibilidad o supone que representa
reproducibilidad) (sensibilidad y especifidad)
Mejor método Comparación entre mediciones Comparación con un patrón de
de repetidas (coeficiente de referencia
valoración variación)
Valor para el Incrementa la potencia de Incrementa la validez de las
estudio detección de errores conclusiones
Amenazado Error aleatorio (varianza) al que Error sistemático (sesgo) al que
por contribuye: contribuye:
El observador El observador
El individuo El individuo
El El
instrumento instrumento
Cuando se usan valores muestrales para estimar valores poblacionales
pueden
ocurrir dos tipos de errores:

• Error muestral: Es la variación natural existente entre muestras tomadas


de la misma población, aun cuando sean del mismo tamaño y nos
esforcemos por extraerla con los mismos criterios.

• Error no muestral: Se presenta cuando se introduce, por lo general


de manera desapercibida, un sesgo, y se denomina sesgo muestral.

Cómo evitamos el error muestral???


El error muestral puede evitarse o
disminuirse usando la aleatorizacion.

La aleatorización se refiere a cualquier proceso


de selección de una muestra de la población en
el que la selección es imparcial (no esta
sesgada). A una muestra asi, se le llama
“muestra aleatoria”

Los tipos mas comunes de muestreo aleatorio son:

1. Muestreo aleatorio simple


2. Muestreo estratificado
3. Muestreo por conglomerados
4. Muestreo sistemático
3.3.- Muestreo de poblaciones normales
3.3.1.- Muestra aleatoria simple

Cuando una muestra aleatoria se elige de forma tal que todas las muestras
del mismo tamaño tengan igual probabilidad de ser elegidas, se le denomina
muestra aleatoria simple.

Suponga que se desea elegir una muestra


aleatoria de 5 personas de un grupo de 20.
Las combinaciones posibles en que pueden
darse los distintos eventos vendrían dadas
por:
nCr = 20! / (5!) ( 15!) = 15,504

Esto representa 15,504 formas de


combinar 5 nombres de estas 20 En la calculadora
personas: 20, tecla nCr, 5 =
Pedro, Juan, Maria, Julia, Luis
Luis, Juan, Maria, Paco, Liz
Etc.
Si pudieramos meter estos 15,504 papeles con sus
cinco nombres cada uno en una caja y
revolverlos, la posibilidad de sacar uno sería la
misma que la de sacar cualquier otro…….

Se te ocurre otro método menos laborioso?

Escribir los 20 nombres en papeles diferentes,


meterlos a un recipiente o revolver, luego extraer
cinco de ellos al mismo tiempo
3.3.2.- Muestreo estratificado

Consiste en separar la población en grupos que no se traslapen


denominados estratos y elegir después una muestra aleatoria simple
en cada uno de dichos estratos.
Ejemplo:
Suponga que los estudiantes del ejemplo anterior se van a muestrear
para determinar el promedio de su coeficiente intelectual.
Para tal efecto, se estratifican en “Muy destacados”, “Promedio” y
“Bajo rendimiento”.
Se desea sacar una muestra de 3 estudiantes de cada estrato.

Categoría Desempeño académico


Muy destacados 90% a mayor
Promedio 70% a menos de 90%
Bajo rendimiento Menor a un 70%
3.3.3.- Muestreo por conglomerados

Consiste en seleccionar aleatoriamente un grupo de


individuos heterogéneos que representan una unidad
denominada conglomerado.

Por ejemplo: se requiere determinar la parte de la población que tiene acceso


a internet mediante la línea telefónica.
Para tal caso, se eligen aleatoriamente un cierto número de
familias. Cada familia representa un conglomerado.
3.3.4.- Muestreo sistemático

Requiere de una selección aleatoria inicial seguida de otra selección en


base
a un cierto tipo de observaciones.

Por ejemplo, se puede elegir el primer nombre de cada página par del
directorio telefónico para aplicarle una encuesta.

• La primera selección es: elegir sólo las páginas pares


del directorio
• Segunda selección: elegir el primer nombre de cada
página
3.4. Determinación del tamaño de la muestra
para estimar medias

Promedio = 4 Promedio = 4
Media poblacional Media muestral
Existen varias formas de estimar el tamaño
de muestra, estas formas dependen de:

1) Tipo de muestreo (con o sin remplazo,


aleatorizado, etc.)
2) Naturaleza de la muestra
3) Qué se desea demostrar (hipótesis)

Sin embago, para todas ellas, es necesario entender antes


dos conceptos:

1) Error estándar
2) Intérvalo de confianza
3.4.1.- Error estándar o Error muestral

Suponga que se desea estimar la media poblacional mediante la extracción


de
una muestra significativa.
Pero luego resulta
que la media
muestral NO es
igual a la
poblacional.
Qué hacer??

Promedio = 4 Promedio = 3.8


Media poblacional Media muestral
Suponga que se tiene la siguiente población: 0,2,4 y 6
Y se desea hacer muestreos de 2 elementos cada uno con reemplazo para verificar si
la media poblacional es igual a la media muestral.

Media
Media poblacional Muestra muestral
(0-0) 0
(0-2) 1
X=0+2+4+6 =3
(0-4) 2
4 (0-6) 3
(2-0) 1
(2-2) 2
(2-4) 3
(2-6) 4
(4-0) 2
(4-2) 3
(4-4) 4
(4-6) 5
(6-0) 3
(6-2) 4
(6-4) 5
(6-6) 6

Total 48
Para encontrar la desviación estándar de la distribución de la media
muestral
x f x - x (x -  x)2 (x -  x)2 * f
0 1
0-3 = -3 9 9
1 2 1-3 = -2 4 8
2 3 2-3 = -1 1 3
3 4 3-3 = 0 0 0
4 3 4-3=1 1 3
5 2 5-3=2 4 8
6 1 6-3=3 9 9
N = 16 total = 40
 x = √  / N = √ (40/16) = 1.58

A la desviación estándar de la distribución muestral de un


estadístico (en este caso la media), se le conoce como:
Error estándar
Qué es entonces el error estándar?

La media muestral es el estimador usual de una media poblacional. Sin


embargo, diferentes muestras escogidas de la misma población tienden en
general a dar distintos valores de medias muestrales.
El error estándar de la media o error muestral (es decir, el error debido a
la estimación de la media poblacional a partir de las medias muestrales) es la
desviación estándar de todas las posibles muestras (de un tamaño dado)
escogidos de esa población.
Muestra 1
X1 = 22 años Muestra 2
X2 = 25 años

Universo o
población
X poblacional
Muestra 3 ± D.S.
Promedio X3= 21 años
De la población
(por ejemplo: edad
X = 24 años
Existe una forma mas sencilla de calcular mmmm
el error estándar:

x =  / √n

Donde
 = desviación estándar POBLACIONAL de la población de la
que se hace la muestra.
n = tamaño de la muestra

Esta fórmula puede usarse con las siguientes condiciones:


1) Cuando la muestra se toma de una población grande (mas de 20)
2) La población es pequeña pero la muestra se hace con re-emplazo
Tanto Excel como SPSS calcula la desviación estándar para
una muestra, no para una población infinita (o muy grande)

La varianza para una población viene dada 2 = SS / N


por

La varianza para una muestra viene dada 2 = SS / (n-1)


por
Eso si lo puedo
Por tanto, para determinar el error muestral, debe hacer

calcularse la desviación estandar de forma


“manual”
En nuestro ejemplo la Para determinar la varianza hay que
media poblacional era: sacar la suma de cuadrados SS de
las desviaciones
X=0+2+4+6 =3
4 valores desv SS
0 0-3= -3 9
2 2 - 3 = -1 1
4 4-3=1 1
6 6 -3 = 3 9
X=3 Suma = 20

 = SS / N = 20 / 4 = 5
Por tanto, el error estándar,
Desv. Est. = √5 = 2.23 para muestras de 2 elementos,
será:

x =  / √n = 2.23 / √2 = 1.58
Existen varias formas de estimar el tamaño
de muestra, estas formas dependen de:

1) Tipo de muestreo (con o sin


Recordando……. remplazo, aleatorizado, etc.)
2) Naturaleza de la muestra
. 3) Qué se desea demostrar (hipótesis)

Sin embago, para todas ellas, es


necesario
entender antes dos conceptos:

1) Error estándar
2) Intérvalo de confianza
PRUEBAS DE HIPÓTESIS
DOS GRUPOS RELACIONADOS (pareados)

• Prueba T de Student

• Prueba de Wilcoxon
Prueba T de Student
para muestras relacionadas
La prueba de t Student para muestras dependientes se utiliza
para comparar las medias de un mismo grupo en diferentes
etapas. Se utiliza, por ejemplo, para las comparaciones de los
resultados de una prueba antes y después para un grupo
determinado.

A continuación se explicará la operación de esta prueba a


través de un caso para contraste unilateral y otro bilateral.
DIFERENCIA DE MEDIAS GRUPOS RELACIONADOS (T)
ejemplo: Se desea saber si la conciencia de lo impreso de niños de
Primer año básico ha variado positivamente después de una
intervención pedagógica. Los datos son los siguientes :

CONC. IMPR PRE CONC. IMPR POST


92 94
85 97
74 93
70 99
36 92
85 98
55 77
66 93
88 96
75 100
89 95
66 93
DIFERENCIA DE MEDIAS GRUPOS RELACIONADOS (T)
En este caso se utiliza la prueba t para muestras relacionadas

 x
n x
DS d i1 i2

t M d
1 n
2
n ___

DS d 1  d 1  X d 

 
n
DS d

n 1
M  Media aritmética de las diferencias
d
DS  Desviación Estándar de las diferencias
d
n  Número de sujetos de la muestra
DIFERENCIA DE MEDIAS GRUPOS RELACIONADOS (T)

En nuestro caso, se obtienen los siguientes valores:


CONC. IMPR PRE CONC. IMPR POST d
92 94 -2 ___
85
74
97
93
-12
-18
X d  20,50
70 99 -29
36
85
92
98
-56
-14
s d
 14,39
55 77 -23
66 93 -27 n  12
88 96 -8
75 100 -25
89 95 -6
66 93 -27
DIFERENCIA DE MEDIAS GRUPOS RELACIONADOS (T)
CÁLCULO DEL VALOR T OBSERVADO
n  12 M d  20,50 DS d
 14,39

t M d SUSTITUYENDO
 20,50
tO   4,93
DS d 14, 39
12
n
DIFERENCIA DE MEDIAS GRUPOS RELACIONADOS (T)
Valor calculado  = 0.05 unilateral
to  4,93
valor critico
t0.05;11  1,796
grados de libertad
n-1
t0.95;11  1,796
to  4,93

Se Rechaza Ho
Al comparar los valores, podemos rechazar la hipótesis nula con un margen
de error de 5%, por lo cual podemos afirmar que la conciencia de lo impreso
de niños de Primer año básico ha variado positivamente después de la
intervención pedagógica.
DIFERENCIA DE MEDIAS GRUPOS RELACIONADOS (T)
Ejemplo Contraste Bilateral:
Un Director de un colegio intentaba encontrar un modo
eficaz de estimular la concentración de los niños,
entendida como la capacidad que tienen para centrarse en
aquello que están realizando en cada momento. Con el fin
de elegir la técnica más apropiada, probó en un Segundo
básico dos opciones, una basada en ejercicios de
respiración y relajación y otra basada en el efecto Mozart,
pues tenía antecedentes que la música también incide en
la concentración, la atención y la memoria,
fundamentales para el proceso del aprendizaje. Los
resultados fueron medidos a través de los tiempos de
concentración de cada niño en cada una de las
experiencias.
DIFERENCIA DE MEDIAS GRUPOS RELACIONADOS (T)
En nuestro caso, se obtienen los siguientes valores:
TÉC. ERR TÉC. EM d
15 27 -12
12 25 -13
22
20
17
30
5
-10
M d  4,83
18 22 -4
16 19 -3 DS d
 5,61
14 15 -1
19
17
22
25
-3
-8
n  12
10 19 -9
25 23 2
20 22 -2
DIFERENCIA DE MEDIAS GRUPOS RELACIONADOS (T)
CÁLCULO DEL VALOR T OBSERVADO

n  12 M d  4,83 DS d
 5,61

t M d SUSTITUYENDO
 4,83
tO   2,99
DS d 5, 61
n 12
DIFERENCIA DE MEDIAS GRUPOS RELACIONADOS (T)
Valor calculado  = 0.05 bilateral
to  2,99
valor critico
t0.025;11  2,201

grados de libertad
t0.975;11  2,201 n-1

to  2,99

Se Rechaza Ho
Al comparar los valores, podemos rechazar la hipótesis nula de la igualdad de
las técnicas de estimulación de la concentración, con un margen de error de
5%, por lo cual podemos afirmar que la existen diferencias entre ellas, a favor
de la técnica basada en el efecto Mozart.
Prueba de Wilcoxon
El contraste de Wilcoxon es la técnica no paramétrica paralela a la T
de Student para muestras relacionadas. Al Igual que en esa prueba,
disponemos de n parejas de valores que podemos considerar como
una variable medida en cada sujeto en dos momentos diferentes.

Se presentará a continuación el proceso de contraste para


muestras por aproximación normal.
DIFERENCIA ENTRE GRUPOS RELACIONADOS (W)
Caso

Los datos siguientes se refieren a los niveles de


tolerancia a la frustración manifestada por un grupo
de niños en la casa y en el colegio. Se trabajó con
una muestra de 8 niños.

Se midió a través de una escala de manifestaciones


de frustración a los niños, tanto en la casa como en
el colegio. Se intenta establecer si existen diferencias
en los niveles de tolerancia a la frustración
manifestada .
DIFERENCIA ENTRE GRUPOS RELACIONADOS (W)
Paso 1) Se recogen y tabulan los datos.

TF-CASA TF-COLEGIO
82 63
69 42
73 74
43 37
58 51
56 43
76 80
65 82
DIFERENCIA ENTRE GRUPOS RELACIONADOS (W)
Paso 2) Se determinan las diferencias Di entre los pares de
observaciones realizadas.

TF-CASA TF-COLEGIO Di
82 63 19
69 42 27
73 74 -1
43 37 6
58 51 7
56 43 13
76 80 -4
65 82 -17
DIFERENCIA ENTRE GRUPOS RELACIONADOS (W)
Paso 3) Sin tomar en cuenta el signo, se ordenan en forma creciente las Di y
se les asigna el rango de 1 a n. En el caso de haber dos o más diferencias
iguales, se considera para cada uno el promedio de los rangos. Las
diferencias iguales a 0 se descartan los cálculos y de n , pues en este modelo
no se toman en cuenta los empates.

TF-CASA TF-COLEGIO Di RANGO (T)


73 74 -1 1
76 80 -4 2
43 37 6 3
58 51 7 4
56 43 13 5
65 82 -17 6
82 63 19 7
69 42 27 8
DIFERENCIA ENTRE GRUPOS RELACIONADOS (W)
Paso 4) Se coloca el signo a cada uno de los rangos Ri hallados. Se suman
entre sí los rangos de las diferencias positivas calculando su total T 1-, y el
de las negativas obteniendo T2+, siendo T1 la suma de los rangos en que
Y>X (diferencias negativas); y T2 la suma de los rangos en que X>Y
(diferencias positivas).

Paso 5) Se elige la menor de ambas sumas y se la define como el estadígrafo W.


TF-CASA TF-COLEGIO Di RANGO RANGO (T1-) RANGO (T2+)
73 74 -1 1 1
76 80 -4 2 2
43 37 6 3 3
58 51 7 4 4
56 43 13 5 5
65 82 -17 6 6
82 63 19 7 7
69 42 27 8 8

Valor W calculado 9 9 27
DIFERENCIA ENTRE GRUPOS RELACIONADOS (W)
Paso 5) Está demostrado que cuando n aumenta de tamaño, la
distribución W se acerca rápidamente a la distribución normal, con los
siguientes parámetros:

n(n  1) n(n  1)( 2n  1)


W  W 
4 24

por lo que podemos determinar la significación de un valor observado de


W por medio de:
n(n  1)
W
W  W Z  4
Z  o W n(n  1)(2n  1)
W W
24
DIFERENCIA ENTRE GRUPOS RELACIONADOS (W)

En nuestro ejemplo, si sustituimos en

n(n  1) n(n  1)( 2n  1)


W  W 
4 24
Si hay diferencias igual a 0, se excluyen eso pares de n

Tenemos, entonces, los siguientes valores:

89 8  9 17
 
9 4
9 
24

  18
9  9  7,141
DIFERENCIA ENTRE GRUPOS RELACIONADOS (W)

Una vez establecidos los parámetros, calculamos el valor Z observado para W=9

9 18
Z   1,26
9 7,141
Alternativas de contraste

Z Z  rechazar H o
Bilateral W  /2

Z  Z  rechazar H o
Unilateral W
DIFERENCIA ENTRE GRUPOS RELACIONADOS (W)

Los valores críticos para Z se indican a continuación:

Valores Críticos de ± Z
Nivel de Significación para
Contraste Unilateral
.05 .025 .01 .005 .0005
Contraste Bilateral
.10 .05 .02 .01 .001

z crítico
1.645 1.960 2.326 2.576 3.291
DIFERENCIA ENTRE GRUPOS RELACIONADOS (W)
Paso 6) Comparar el valor crítico con el valor observado para W.
Considerando que el contraste para nuestro caso es bilateral, el valor crítico
asociado a una probabilidad  bilateral de 0.05, es de Z = 1.96.

Comparamos :

Z  1,26 Z  1,96
W 0.05 / 2

1,26  1,96
Paso 7) Se concluye sobre la Hipótesis nula.
Por lo tanto, no podemos rechazar la hipótesis nula, y debemos aceptar que
no existe evidencia empírica suficiente para afirmar que existen diferencias
significativas entre los niveles de tolerancia a la frustración manifestada en la
casa y en el colegio