Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Contrasted e Medias
Contrasted e Medias
El contraste de medias
Pedro Morales Vallejo,
Universidad Pontificia Comillas Madrid
Facultad de Ciencias Humanas y Sociales
(ltima revisin 18 de Marzo, 2007)
ndice
1. Utilidad de comparar o contrastar la diferencia entre las medias de dos grupos.......................
7
7
8
8
9
10
12
13
13
13
14
15
15
16
16
17
18
18
18
19
19
19
20
22
2
6. Anlisis complementarios al contraste de medias: el tamao del efecto ..........................................
6.1. Finalidad del tamao del efecto .............................................................................................
6.2. Procedimientos en el clculo del tamao del efecto...............................................................
6.2.1. El coeficiente de correlacin biserial puntual .............................................................
6.2.2. Tamao del efecto (diferencia tipificada): ..................................................................
6.2.2.1. Concepto y frmula general ...........................................................................
6.2.2.2. Interpretacin del tamao del efecto (diferencia tipificada) ..........................
1 Comparacin de diferencias que provienen de medidas
obtenidas con instrumentos distintos.........................................................
2 Sntesis cuantitativas de resultados que provienen de estudios distintos...
3 Valoracin de la relevancia y significacin prctica de las diferencias ....
4 El tamao del efecto cuando la diferencia no es estadsticamente
significativa ...............................................................................................
5 Tamao del efecto y tamao de la muestra ...............................................
6.2.2.3. Frmulas del tamao del efecto: desviacin tpica del denominador ............
1 Dos muestras independientes .....................................................................
2 Dos muestras relacionadas (diferencia entre el pre-test y el post-test
de la misma muestra).................................................................................
3 Diferencia entre las medias de un grupo experimental y otro de control
(diseo experimental) sin pre-test .............................................................
4 Grupos experimental y de control cuando los dos han tenido
pre y post-test ............................................................................................
6.3. Transformaciones de unos valores en otros ...........................................................................
6.4. Utilidad del tamao del efecto: resumen................................................................................
23
23
24
24
25
25
26
36
38
39
40
41
26
26
27
29
29
30
31
33
33
33
34
35
1 Si tenemos tres grupos o ms en el mismo planteamiento y deseamos compararlos de dos en dos, el procedimiento adecuado es
el anlisis de varianza.
4
Si la respuesta es que la diferencia mayor de lo normal, de lo que se puede esperar por azar,
decimos que se trata de una diferencia estadsticamente significativa. En principio podemos tomarnos en
serio la diferencia; podemos afirmar que entre las poblaciones representadas por estas muestras s hay
una diferencia distinta de cero.
Hay que tener claro tanto lo que queremos expresar cuando decimos que una diferencia es
estadsticamente significativa como lo que no podemos decir:
a) Queremos decir que podemos extrapolar los resultados en este sentido: en situaciones
semejantes y con sujetos semejantes, lo probable es que encontremos una diferencia distinta
de cero (y que es suficiente para poder decir que los grupos pertenecen a poblaciones distintas
en lo que respecta a la variable o rasgo en el que hemos medido a los sujetos).
b) Lo que no podemos decir es que en muestras semejantes encontraremos una diferencia de
magnitud semejante (interpretacin frecuente pero errnea); es posible o probable que as
sea, pero lo que demostramos es que la diferencia en otros pares de muestras no ser cero (y
esto no es decir mucho), y tampoco podemos decir que una diferencia es grande o
importante por el mero hecho de ser estadsticamente significativa. Por todo esto habr que
completar la informacin con la respuesta a la segunda pregunta que nos haremos a
continuacin.
Una observacin: estamos suponiendo que las muestras que comparamos o son muestras
aleatorias o son muestras cuyos sujetos han sido asignados aleatoriamente a las diversas condiciones o
grupos. En la prctica frecuentemente se trabaja o investiga con grupos hechos, por lo que no se trata de
muestras aleatorias. En estos casos tan habituales:
1) Siempre podemos pensar a qu poblaciones pueden representar estos dos grupos, y extrapolar
los resultados a la poblacin hipottica representada por estas muestras con la debida cautela (pueden ser
muestras sesgadas o no representativas de la poblacin general o de la poblacin que en principio nos
interesa estudiar).
2). En cualquier caso si la diferencia es estadsticamente significativa podemos excluir el azar o
variabilidad normal como explicacin plausible o razonable de esa diferencia.
2. Segunda pregunta
Cul es la magnitud de esta diferencia entre los dos grupos? Es grande, pequea,
moderada?
Una diferencia estadsticamente significativa puede ser pequea e irrelevante y al contrario, una
diferencia que no sea estadsticamente significativa no la podremos extrapolar a las poblaciones
representadas por estas muestras, pero puede ser grande y relevante en determinadas situaciones.
El dato de la magnitud de la diferencia, que tiene su clculo especfico que veremos ms adelante,
es importante para interpretar los resultados, para ver si la diferencia es relevante, etc. Una diferencia
estadsticamente significativa puede ser de hecho pequea y poco relevante (sucede con frecuencia
cuando comparamos muestras grandes), y a la inversa, una diferencia que no es estadsticamente
significativa puede ser grande y de importancia en una situacin dada (y esto es ms probable que suceda
cuando comparamos muestras pequeas). Sobre todo esto volveremos ms adelante, porque la confusin
entre estadsticamente significativo y relevante es muy frecuente.
En la prctica habitual:
1 Se responde en primer lugar a la primera pregunta: la diferencia Est dentro de lo normal y
aleatorio? Es mayor de lo que se podra esperar si ambas muestras pertenecieran a la misma
poblacin?.
2 Despus se matiza y se completa la informacin respondiendo a la segunda pregunta sobre la
magnitud de la diferencia (pequea, moderada, grande).
Estadstica inferencial: el contraste de medias
5
La estadstica inferencial ms tradicional se limita con frecuencia a responder a la primera
pregunta, pero tambin es importante (y a veces ms importante) analizar la magnitud de la
diferencia.
3. Tercera pregunta
Cul es la relevancia, el inters que puede tener la diferencia que hemos encontrado?
Para valorar la relevancia tenemos que responder a las dos preguntas anteriores (la
diferencia est dentro de lo normal? es grande, pequea...?) y adems hay ya que
tener en cuenta otro tipo de informacin ms cualitativa: contexto, finalidad de la
comparacin, etc.
95% de las
diferencias
-1.96
diferencias
atpicas, raras
+1.96
errores tpicos
errores tpicos
Figura 1
Entre 1.96 errores tpicos (o desviaciones tpicas) y + 1.96 errores tpicos tendremos el 95% de
las diferencias. A estas diferencias las consideramos normales porque estn dentro de los lmites que
convencionalmente hemos determinado como criterio de lo que suele suceder cuando no hay ms
diferencias que las aleatorias o casuales.
Al comparar dos medias podemos encontrar una de las dos posibilidades representadas en la figura
2, cada posibilidad nos llevar a una conclusin distinta.
Una poblacin con su media
M1
M2
Figura 2
Cundo podemos afirmar que las dos muestras
pertenecen a la misma poblacin?
z=
la diferencia entre las dos medias la diferencia media cuando no hay ms diferencias
X1 X 2
que las aleatorias = cero
z=
| X1 - X2 | -0
X1-X 2
[4]
En esta El numerador equivale de hecho a la diferencia entre dos medias (entre las medias de
frmula: dos diferencias); restamos una diferencia entre dos medias de una diferencia media de
cero.
El denominador (smbolo del error tpico de la diferencia entre medias), vara segn se
trate de muestras independientes o relacionadas, grandes o pequeas; las frmulas
especficas para cada caso estn en el apartado 4.4.6
Lo que hacemos es calcular la puntuacin tpica (z) de una diferencia: comprobar en cuntas
desviaciones tpicas (errores tpicos) se aparta esa diferencia de la diferencia media de cero. Esta
puntuacin tpica nos dir la probabilidad de que ocurra nuestra diferencia cuando la media de las
diferencias es cero.
Cundo es grande la probabilidad de que ocurra una diferencia? El lmite es convencional;
habitualmente se acepta que ms de 5 veces de cada 100 son ya muchas veces; en ese caso se interpreta
como una diferencia normal cuando las medias pertenecen a muestras de la misma poblacin. Este lmite
es el nivel de significacin (.05) o nivel de confianza (.95), como en planteamientos anlogos, y a cada
8
nivel de confianza le corresponde un valor de z. Se trata de una aplicacin directa de la distribucin
normal.
El nivel de significacin se expresa as: = .05, y en este caso necesitaremos un valor de z igual o
superior a 1.96 (en pruebas bilaterales que son las que utilizamos normalmente como explicamos ms
adelante).
El nivel de significacin expresa la probabilidad de equivocarnos al afirmar la diferencia y el nivel
de confianza expresa la probabilidad de acertar (.05+.95 = 1; 100%); ambas expresiones vienen a decir lo
mismo.
Si nuestro nivel de significacin es = .01, necesitaremos un valor de z superior a 2.57, y si es =
.001, el valor de z debe ser igual o superior a 3.30.
Segn el valor de z que se obtenga los resultados suelen expresarse de esta forma:
p > .05
p <. 05
Los programas de ordenador suelen indicar la probabilidad exacta que corresponde a cada valor de
z (p =.03, p = .002, etc.) y es el dato que se debe manifestar si est disponible (la probabilidad exacta del
valor de t tambin se encuentra fcilmente en programas de Internet)2.
Con muestras pequeas la frmula utilizada se denomina usualmente t de Student (que nos remite
a las tablas para muestras pequeas, anexo 3); con muestras grandes suele denominarse z (y tambin t de
Student, aunque con menos propiedad) y en todos los casos tambin se utiliza a veces el trmino genrico
de Razn Crtica (R.C.).
Con muestras pequeas las probabilidades de ocurrencia en los extremos son algo mayores, por
eso necesitamos consultar las tablas especficas para muestras pequeas (las tablas de la t de Student)3
pero segn va aumentando el nmero de sujetos las probabilidades se van pareciendo ms a las de la
distribucin normal.
9
Hiptesis Alterna (mi hiptesis):
Hiptesis Nula:
Para formular la Hiptesis Nula nos basta poner un no delante del verbo utilizado en la Hiptesis
Alterna.
La formulacin de la Hiptesis Nula quedara ms clara si aadimos (al menos mentalmente):
porque si hay alguna diferencia entre las medias de los dos grupos, esta diferencia est dentro de lo
normal y se explica suficientemente por el error muestral, por factores aleatorios, etc.
En smbolos expresaramos as estas hiptesis:
Ho: 1 = 2
Hiptesis Nula
(o lo que es lo mismo
1 - 2 = 0)
Cuando no afirmamos como hiptesis la direccin de la diferencia (los nios y las nias son
distintos en) tenemos lo que se denominan contrastes (o hiptesis) unilaterales, unidireccionales o de
una cola.
Cuando s afirmamos como hiptesis la direccin de la diferencia (las nias aventajan a los nios
en) tenemos lo que se denominan contrastes (o hiptesis) bilaterales, bidireccionales o de dos colas.
Dnde est en la prctica la importancia entre estos dos tipos de hiptesis?
Antes hemos mencionado que cuando al comparar dos medias obtenemos una z de 1.96 o ms,
rechazamos el azar como explicacin de la diferencia Por qu exactamente 1.96?
Porque por encima de 1.96 caen el 2.5% de los casos y por debajo de -1.96 otro 2.5% de los casos
(figura 1): nos fijamos en los dos extremos (o en las dos colas) de la distribucin. No sealamos la
direccin de la diferencia y estamos por lo tanto en una hiptesis bilateral, tal como se muestra en la
figura 3 (semejante a la figura 1).
10
z = + 196
z = - 1.96
Figura 3
Si nuestra hiptesis es unilateral, nos fijaremos en un lado de la distribucin, y en vez de z = 1.96
necesitaremos llegar solamente a 1.64, porque por encima de z = 1.64 (o por debajo de z = - 1.64) cae el
5% de los casos, tal como se muestra en la figura 4.
5 % de los casos
z = + 1.64
Figura 4
Naturalmente es ms fcil encontrar un valor de 1.64 que de 1.96 por lo que se confirman con ms
facilidad las hiptesis unilaterales.
Aqu no entramos ms en esta distincin porque habitualmente nos vamos a referir a hiptesis
bilaterales (o bidireccionales, o de dos colas), porque es la prctica ms comn y aconsejada, por eso
mantendremos z = 1.96 como criterio; a partir de ese valor es cuando afirmamos que una diferencia es
muy improbable en el caso de que ambas muestras procedan de la misma poblacin; la diferencia que
podamos encontrar entre esas medias que proceden de la misma poblacin est dentro de lo normal y se
explica por factores aleatorios4.
Ahora nos interesa ms entender por qu establecemos estos dos tipos de hiptesis, Hiptesis Nula
e Hiptesis Alterna.
4 Aunque nuestras hiptesis nos parezcan con frecuencia lgicamente unidireccionales (este mtodo es mejor que), se suelen
utilizar de manera habitual las bidireccionales; una explicacin ms amplia de estos dos tipos de hiptesis, direccionales y no
direccionales, puede verse en Morales (pgina Web) (2006; sobre las hiptesis direccionales y no direccionales)
11
Aunque no tengamos hiptesis formuladas y prescindamos de las hiptesis nula y alterna, cuando
contrastamos dos medias y encontramos una diferencia estadsticamente significativa, implcitamente
estamos rechazando la hiptesis nula, lo digamos o no. Estas hiptesis nulas de no diferencia estn
implcitas en el mismo modelo y procedimiento.
Una manera sencilla (aunque quizs incompleta) de entender y recordar estos conceptos puede ser
sta:
Identificar la Hiptesis Nula con diferencia casual, normal, aleatoria, probable, etc.,
Identificar la Hiptesis Alterna con diferencia improbable, no casual, etc. (improbable si las dos
muestras proceden de la misma poblacin, sin ms diferencias que las puramente
aleatorias o casuales).
En definitiva lo que vamos a hacer es determinar la probabilidad de que se d una determinada
diferencia entre dos muestras cuando consideramos que ambas proceden de la misma poblacin, con la
misma media y sin ms diferencias que las puramente casuales. Ms adelante matizaremos ms qu
significa aceptar o rechazar la Hiptesis Nula.
As, si hacemos un contraste de medias con un nivel de confianza de = .05:
Si la diferencia es probable (p >.05) [probable
en el caso de que las muestras procedan de la
misma poblacin]
Si la probabilidad de que ocurra la diferencia es grande afirmamos que ambas muestras proceden
de la misma poblacin, y que no hay ms diferencia que la puramente aleatoria y lo solemos expresar
diciendo que aceptamos la Hiptesis Nula, aunque con ms propiedad habra que decir que no
rechazamos la Hiptesis Nula (propiamente no demostramos que la Hiptesis Nula es verdadera;
simplemente no demostramos que es falsa).
Si esta probabilidad es pequea (menos del 5% o p < .05 si sealamos ese nivel de confianza o =
.05) rechazamos que las muestras procedan de la misma poblacin con idntica media (no aceptamos la
Hiptesis Nula) y podremos afirmar que las dos muestras proceden de poblaciones distintas con distinta
media (y decimos entonces la diferencia es estadsticamente significativa).
Una cuestin distinta es identificar automticamente diferencia estadsticamente significativa (no
casual, rechazamos la Hiptesis Nula) con hiptesis de investigacin demostrada (si la diferencia es
mayor de lo normal, es que este mtodo es mejor que el otro, etc.); del hecho de la diferencia no se
deduce sin ms que la causa de la diferencia sea la propuesta como hiptesis por el investigador, por eso
ms adelante (apartado 4.4.4.1) ampliamos y matizamos el significado de aceptar o no aceptar la
Hiptesis Nula.
12
Hiptesis Nula
Es la hiptesis que niega la Hiptesis Alterna.
En el ejemplo anterior la Hiptesis Nula sera El mtodo X no mejora la actitud de los alumnos hacia la
asignatura (y sobreentendemos: porque si se detecta algn cambio, ste puede explicarse suficientemente por
errores aleatorios; est dentro de lo normal sin necesidad de aplicar ningn mtodo especial)
Prueba Estadstica
La prueba estadstica (el contraste de medias o cualquier otra prueba que sea apropiada) pone a prueba la
Hiptesis Nula, que es la que en principio va a ser aceptada o rechazada.
Para esto determinamos si el dato analizado (en este caso una diferencia entre dos medias) est probablemente
dentro de lo aleatorio o normal en el caso de que las dos medias procedan de la misma poblacin.
Figura 5
13
4.4. Interpretacin del significado de aceptar o no aceptar la hiptesis nula: tipos de errores
Es fcil interpretar mal las conclusiones que se derivan del aceptar o rechazar la Hiptesis Nula y
que ya estn sucintamente expuestas en los apartados anteriores.
14
espaoles (igualados en nivel socio-cultural y econmico). Encontramos que la diferencia favorece a los
italianos pero dista de ser estadsticamente significativa:
* Hemos probado que hay diferencia? (es decir, podemos extrapolar la diferencia a la poblacin
general representada por esas muestras?) La respuesta es no.
* Hemos probado que no hay diferencia? Tampoco. Es muy posible que la diferencia, si la hay,
quede clara con muestras mayores.
Con muestras grandes es muy fcil rechazar la Hiptesis Nula de no diferencia, por eso siempre (y
ms con muestras pequeas) interesa verificar si el signo de la diferencia favorece a nuestra hiptesis,
porque con muestras mayores es muy posible que dejemos las cosas claras.
2 Una diferencia que no es estadsticamente significativa puede ser importante.
Pensemos en un mtodo de enseanza o en un tipo de terapia aplicado a muy pocos sujetos.
Podemos comparar nuestro grupo experimental (participan en el mtodo, en la terapia), con otro grupo
que nos sirve de comparacin (grupo de control) para verificar si el mtodo o la terapia son eficaces. A
simple vista podemos observar que el mtodo s es eficaz, vemos el cambio en los sujetos, etc., pero al
hacer la comparacin podemos comprobar que la diferencia est dentro de lo aleatorio, y no rechazamos
la Hiptesis Nula. Esto puede suceder, y sucede, con muestras pequeas.
En estos casos: 1 nos abstendremos de extrapolar el hecho de la diferencia, pero 2 si la diferencia
es grande (y a favor de nuestro grupo experimental) podemos pensar que algo importante est pasando
aqu, con estos sujetos. De ah la importancia de disponer de un mtodo que nos permita apreciar cundo
una diferencia es grande (y lo veremos despus). Posiblemente aumentando el tamao de la muestra (o
acumulando pequeas muestras) podremos rechazar (no aceptar) la Hiptesis Nula.
5 Utilizando estos trminos con propiedad debe decirse no aceptar la Hiptesis Nula en vez de rechazar la Hiptesis Nula
15
Rechazamos
la Hiptesis Nula:
realmente verdadera
realmente falsa
decisin incorrecta
decisin correcta
Potencia de una prueba:
= probabilidad de cometerlo
o nivel de confianza =.05, p<.05
probabilidad de rechazar la Ho
cuando la Ho realmente es falsa
(1-)
decisin correcta
decisin incorrecta
La probabilidad de no cometer
este error Tipo I, y acertar en la
decisin es igual a 1 -
(95% si =.05)
No rechazamos
la Hiptesis Nula:
= probabilidad de cometerlo
(s al azar cuando no lo hay)
Figura 6
En principio se pretende minimizar el error tipo I y por eso se insiste en los niveles de confianza: es
ms seguro decir no hay diferencia cuando realmente s la hay, que decir s hay diferencia cuando
realmente no la hay. Sin embargo un error frecuente es el de tipo II que no controlamos habitualmente; lo
minimizamos con N grande.
Una sencilla analoga nos puede ayudar a entender la importancia relativa de estos dos errores: en
un juicio un error puede ser condenar a un verdadero inocente y otro error puede ser absolver a un
verdadero culpable(figura 7)6.
Situacin real
El acusado es inocente
El acusado es culpable
Veredicto: culpable
Falsa conviccin
Error Tipo I
Decisin correcta
Veredicto: inocente
Decisin correcta
Liberacin equivocada
Error Tipo II
Figura 7
Siempre interesa tomar la decisin correcta, pero el error ms grave y que se pretende minimizar es
el error Tipo I; volviendo al contraste de medias es preferible y ms seguro concluir la diferencia no est
probada (aunque en la realidad s se d la diferencia) que concluir la diferencia est probada cuando
realmente no existe esa diferencia.
6 Esta analoga est inspirada en la pelcula doce hombres sin piedad, en la que un jurado tiene que decidir por unanimidad
sobre la inocencia (por falta de pruebas) o la culpabilidad de un presunto culpable.
16
pesar de la prctica ms habitual en investigacin, de ah la necesidad de los clculos complementarios,
sobre la magnitud de la diferencias, que trataremos ms delante. Es aqu donde se pone ahora el nfasis.
F=
2 (varianza mayor)
2 (varianza menor)
Si las varianzas son iguales el cociente ser = 1; en la medida en que la varianza del numerador
vaya siendo mayor, ir creciendo el cociente. En las tablas de la F de Snedecor podemos verificar la
probabilidad de encontrar un cociente dado; si nuestro valor supera el valor de las tablas concluiremos
que las varianzas son estadsticamente distintas. Aun as el que las varianzas sean distintas importa menos
si las muestras son de idntico tamao.
Tambin suponemos que las muestras son aleatorias (y por lo tanto representativas de la
poblacin) y esto no sucede con frecuencia porque se trata de grupos hechos, sin que los sujetos hayan
sido escogidos aleatoriamente de una poblacin mayor; en estos casos tenemos que pensar en la
poblacin que pueda estar representada por esas muestras concretas.
17
| X1 - X2 | -0
X1-X 2
[4]
X1 X2 = X2 1 + X2 2 (2r)( X1 )( X 2 )
[5]
N 1
1 2
22
2
X1- X2 = 1 +
2r
1
N
1
1
2
1
1
[6]
(a+b) =a +b +2ab
2
Si no se trata de un compuesto (o suma), sino de una diferencia, sabemos que (a-b) =a +b -2ab.
ste es nuestro caso: no se trata de la varianza de un compuesto o suma (a+b), sino del cuadrado de una
diferencia (a-b), de ah el signo menos en el denominador de las frmulas [5] y [6].
Lo que tenemos en esta frmula (del error tpico, o desviacin tpica, de las diferencias entre
medias de muestras de la misma poblacin) es la suma de los dos errores tpicos de las medias menos dos
veces su covarianza (recordemos que r1212 es la frmula de la covarianza).
Este denominador [5] no lo utilizaremos habitualmente. Si se trata de muestras independientes
(sujetos distintos) el valor de la correlacin que aparece en la frmula es cero, con lo que el denominador
queda muy simplificado.
7 Podemos llevar a cabo un contraste de medias, sin necesidad de conocer las frmulas, con programas como EXCEL o SPSS, y
tambin con los programas que podemos encontrar en Internet (anexo 4); sin embargo debemos entender qu estamos
haciendo.
18
Este denominador [5] es vlido cuando de trata de comparar medias de muestras relacionadas,
pero aun en este caso tenemos un procedimiento alternativo ms sencillo en el que no tenemos que
calcular la correlacin, como veremos ms adelante.
En el apartado siguiente estn todas las frmulas necesarias para el contraste de medias.
t=
| X- | - 0
2
N -1
[7]
= media de la poblacin
El denominador es el error
tpico de la media de la
muestra
Una observacin importante: en todas estas frmulas veremos en el denominador N-1; esto quiere
decir que las desviaciones tpicas se han calculado dividiendo por N (desviacin tpica de la muestra); si
el clculo de se hizo dividiendo por N-1 (desviacin de la poblacin), el denominador ser N en vez de
N-1. En los programas estadsticos (como el SPSS) lo normal es utilizar la desviacin tpica de la
poblacin (dividiendo por N-1).
En el numerador de todas estas frmulas tenemos siempre una diferencia entre medias menos cero;
naturalmente este menos cero se puede omitir porque no va a alterar el resultado, sin embargo es
preferible ponerlo porque recordamos lo que estamos haciendo: comparar una diferencia entre dos medias
con una diferencia media de cero.
Otra manera de abordar el mismo planteamiento es calcular los intervalos de confianza de la
media. Ya vimos anteriormente (n 3.1 y 3.2) que a partir de los datos de una muestra podemos conocer
entre qu lmites probables se encuentra la media de la poblacin representada por esa muestra. Si
queremos comprobar si existe una diferencia estadsticamente significativa entre la media de una muestra
y la media de una poblacin (), nos basta calcular los intervalos de confianza de la media de la muestra
(frmula 3) y ver si la media de la poblacin se encuentra comprendida entre esos intervalos.
z=
| X1 X 2 | 0
12
22
+
N 1 1 N 2 1
[8]
19
Los valores de z utilizados habitualmente con muestras grandes son:
Si z es mayor que (z >):...............................................................................
1.96
2.57
3.30
.05
.01
.001
X1 X 2 0
N 1 + N 2
N +N 2
2
1
2
1
2
2
1
1
N + N
2
1
[9]
Cuando se van a hacer muchos contrastes de medias con el mismo par de muestras, y por lo tanto
los valores de N van a ser constantes, es ms cmodo y rpido transformar la frmula [9] en sta otra
[10]:
t=
| X 1 X 2 | 0
1 + 1
N 1 N 2 ( N 1 12 + N 2 22 )
N1 + N 2 2
[10]
t=
X1 X 2 0
12 + 22
N 1
[11]
20
t=
| XD | 0
[12]
2D
N -1
Tambin se puede utilizar el denominador puesto en la frmula [5] o [6], y as aparece en muchos
textos, pero el utilizar la frmula [12] es un mtodo ms claro y sencillo.
Podemos observar la semejanza de esta frmula [12] con la frmula [7]. En realidad se trata del
mismo planteamiento: comparar la media en cambio de una muestra, con la media = 0 de una poblacin
que no hubiera cambiado nada.
Los grados de libertad son N-1 o nmero de pares de observaciones menos uno (es decir, N =
nmero de sujetos, pues cada uno tiene dos puntuaciones). Con muestras grandes se consultan las tablas
de la distribucin normal, y con muestras pequeas las de la t de Student.
Podemos ver la aplicacin de esta frmula [12] con un ejemplo ficticio. Cuatro sujetos han
respondido a una pregunta (respuestas de 1 a 6) antes y despus de una experiencia.
Media
Antes
2
3
4
5
3.5
1.118
Despus
4
3
5
6
4.5
1.118
Diferencia
4-2 = 2
3-3 = 0
5-4 = 1
6-5 = 1
1.0
.707
| 1 | 0
.707 2
4 -1
= 2.45
4 1 + 4 1 2(.80) 4 1 4 1
El resultado es el mismo, pero es claro que en este caso (muestras relacionadas) es preferible
utilizar la frmula [12].
21
Observamos la frmula general [8]
(para muestras grandes e independientes y de
tamao distinto):
z=
| X1 X 2 | 0
12
22
+
N 1 1 N 2 1
Qu hacer entonces?
a) Por lo menos deberamos utilizar siempre las expresiones apropiadas y no hablar simplemente
de diferencias significativas, sino de diferencias estadsticamente significativas. El adverbio
estadsticamente ya expresa los lmites de nuestras conclusiones. Tambin se debe evitar la expresin
diferencia muy significativa, al menos si no se aclara, porque ese muy invita a pensar en diferencias
grandes o relevantes: a mayor valor de z o t tenemos ms seguridad, menos probabilidad de error al
afirmar la diferencia (que la diferencia no es cero), pero sin referencia directa a la magnitud o a la
relevancia de esa diferencia. Por otra parte esa mayor seguridad es con frecuencia irrelevante pues ya
ponemos el umbral de la seguridad suficientemente alto.
22
b) Muchas veces nos bastar con saber si hay o no hay una diferencia estadsticamente
significativa entre dos grupos, es decir, si difieren ms de lo que podemos esperar casualmente entre
muestras de la misma poblacin y podemos extrapolar la diferencia (una diferencia distinta de cero) a
otros pares de muestras semejantes. Muchos planteamientos de investigacin se quedan aqu (y por eso
con frecuencia se quedan cortos).
c) Aun en estos casos un valor significativo de t (una diferencia estadsticamente significativa) no
debemos asumirla ingenuamente como un criterio de certeza. Tenemos que considerar a qu poblaciones
pueden representar esas muestras para no hacer extrapolaciones poco prudentes; con frecuencia no son
aleatorias (porque se trata de grupos hechos, de las muestras que estn disponibles). La interpretacin
mnima prudente es concluir que la diferencia entre estos dos grupos es muy poco probable que se deba
al azar.
d) Como criterio general no debemos limitarnos a comprobar si una diferencia es o no es
estadsticamente significativa. Es lo ms frecuente, pero no es una buena prctica. Adems debemos
buscar un dato ms claro sobre cul es la magnitud de la diferencia, para poder interpretarla y valorarla
como grande, moderada, pequea y poder juzgar mejor sobre su relevancia8.
Para poder valorar la magnitud de la diferencia tenemos el clculo del tamao del efecto que nos
cuantifica la magnitud de la diferencia en valores fcilmente interpretables. Adems se expresa en unos
valores que nos permiten comparar unas diferencias con otras aunque provengan de instrumentos
distintos y de escalas mtricas distintas. Disponemos adems de criterios para valorar su magnitud. Todo
lo exponemos en al apartado siguiente sobre anlisis complementarios (y que algunos autores consideran
suficientes).
Grupo A
65 (81%)
15 (19%)
80 (100%)
Grupo B
52 (58%)
38 (42%)
90 (100%)
La pregunta que nos hacemos es sta: la diferencia entre estos dos grupos (entre el 81% del grupo
A y el 58% del grupo B) Es mayor de lo que podramos esperar por azar? Existe una diferencia
estadsticamente significativa entre los dos porcentajes?
Para comparar proporciones tanto entre muestras independientes como entre muestras relacionadas,
posiblemente el procedimiento ms utilizado es el ji cuadrado, que por otra parte es muy sencillo. Con
ambos procedimientos se llega a las mismas conclusiones. Tratando del contraste de medias es oportuno
ver tambin cmo se aplica al contraste de proporciones.
Aunque los resultados los expresemos frecuentemente en porcentajes (%), los clculos se hacen
con proporciones. El procedimiento es anlogo al del contraste de medias: dividimos una diferencia entre
8 El clculo del tamao del efecto lo exige ya la poltica editorial de buenas revistas (como Educational and Psychological
Measurement, Thompson, 1996, y muchas otras como Journal of Experimental Education y Journal of Applied Psychology,
Hubbard y Ryan, 2000; Huberty (2002) menciona 19 revistas en las que se exige presentar el tamao del efecto) y figura en las
orientaciones (guidelines) de la American Psychological Association (Wilkinson and Task Force on Statistical Inference APA
Board of Scientific Affairs, 1999, American Psychological Association, 2001).
23
proporciones por el error tpico de la diferencia entre dos proporciones, que est en el denominador de la
frmula [13]. En rigor lo que tenemos en el numerador no es la diferencia entre dos proporciones, sino la
diferencia entre una diferencia (la nuestra) y una diferencia de cero.
En la frmula [13] tenemos en el denominador el error tpico de la diferencia entre dos
proporciones9.
z=
| p 1 - p 2 | 0
1
1
pq
+
N1 N 2
[13]
.8125 .5778 0
1
1
(.6882)(.3117 +
80 90
65
= .8125
80
52
=
= .5778
90
117
=
= .6882
170
53
=
= .3117
170
= 3.297
p = .001
9 En muchos textos la frmula aducida para el contraste de proporciones independientes es la misma frmula vista para el
contraste de medias (frmula 8), con la salvedad de que se utiliza pq para expresar las varianzas de los dos grupos (p1q1 y
p2q2); esta frmula es correcta cuando p y q tienen valores parecidos, cuando los valores de p o q son muy extremos, y
siempre en general, la frmula preferible es la puesta aqu (en Downie y Heath, 1971, puede verse una explicacin ms
amplia); adems es utilizando esta frmula cuando la equivalencia con el ji cuadrado (tablas 2x2) es exacta (z2 = 2). Este
contraste de proporciones y procedimientos alternativos (ji cuadrado) puede verse en Morales (2007) (Anlisis de variables
nominales, la prueba de ji cuadrado, la distribucin binomial, el contraste de proporciones).
24
diferencias con otras, pero esta comparacin directa no es posible cuando las escalas mtricas utilizadas
son distintas.
rbp =
t2
t 2 + ( N1 + N2 - 2)
[14]
Si los grupos son de idntico tamao, tendramos el mismo resultado si calculramos directamente
la correlacin entre pertenecer a uno u otro grupo (1 0) y la puntuacin de cada sujeto en la variable
dependiente (la que hemos medido).
Podemos verlo con ejemplo sencillo: tenemos estas dos muestras de cuatro sujetos cada una y
calculamos la t de Student para contrastar las medias:
grupo B
5
9
6
6
6.50
1.5
grupo A
9
9
7
8
X = 8.25
= .83
Calculamos la t de Student:
t=
| X1 + X 2 | 0
21 + 22
N 1
| 8.25 - 6.5 | -0
.832 + 1.52
4 -1
= 1.77
Podemos pensar ahora en trminos de correlacin entre la variable que hemos medido (X) y el
pertenecer o no a uno de los grupos (Y): pertenecer al grupo A = 1 y B (no pertenecer al grupo A) = 0
Disponemos los datos de la manera usual:
X
9
9
7
8
5
9
6
6
Y
1
1
1
1
0
0
0
0
1.77 2
= .585; hemos llegado al mismo resultado
1.772 + (4 + 4 - 2)
25
Un mismo valor de t va a equivaler a coeficientes de correlacin ms bajos segn aumente el
nmero de sujetos (aumentar el denominador y disminuir el cociente). Podemos verlo en este ejemplo
(tabla 1) en que se mantiene constante el valor de t (en todos los casos muy significativo, p < .01) y se van
variando los grados de libertad (nmero de sujetos).
N1
N2
gl
20
50
100
500
20
50
100
500
38
98
198
998
3.60
3.60
3.60
3.60
rbp
.50
.34
.25
.11
r 2bp
.25
.12
.06
.01
Tabla 1
A este coeficiente de correlacin tambin se le denomina genricamente tamao del efecto, aunque
la expresin tamao del efecto se suele reservar para la diferencia tipificada que veremos despus.
Algunos autores, para distinguir ambos clculos, denominan a esta correlacin magnitud del efecto.
La finalidad y utilidad de este coeficiente de correlacin es clara:
1 Es un dato sobre la magnitud y no sobre si una diferencia es simplemente estadsticamente
significativa o no (si es o no es extrapolable a la poblacin el hecho de una diferencia distinta de cero).
2 Dos valores de t obtenidos en pares de muestras de tamao distinto, o en variables distintas, no
son fcilmente comparables entre s; en cambio esta conversin nos traduce el resultado (una diferencia)
a trminos comparables y ms fcilmente interpretables. Los juicios sobre si una diferencia es o no es
relevante, de importancia prctica, etc., no dependen solamente de que sea estadsticamente significativa
(a veces nos puede bastar con eso), sino tambin de que sea grande o pequea; incluso una diferencia
no estadsticamente significativa puede ser importante en una situacin dada si es grande.
d=
X1 X 2
[15]
Los smbolos para expresar el tamao del efecto dependen de las frmulas utilizadas para calcular
la desviacin tpica del denominador; en la frmula [15] utilizamos d porque corresponde a una de las
frmulas ms utilizadas (de Cohen) y se utiliza a veces como smbolo genrico del tamao del efecto,
pero hay otros smbolos que iremos viendo (como g y ) y que corresponden a otras frmulas; a veces se
utiliza ES (del ingls Effect Size).
Aunque la desviacin tpica del denominador se puede calcular de diversas maneras (a partir de
las desviaciones tpicas que ya conocemos en las muestras) es en todo caso una estimacin de la
desviacin tpica comn a ambos grupos. Lo que es importante captar ahora es que el tamao del efecto
es una diferencia tipificada: una diferencia entre dos medias dividida por una desviacin tpica. Viene a
ser lo mismo que una puntuacin tpica (z) (como podemos ver por la frmula 14), por lo que su
interpretacin es sencilla y muy til.
Antes de ver las frmulas especficas de la desviacin tpica del denominador, es de especial
inters entender las interpretaciones y usos del tamao del efecto, que se derivan del hecho de que se
10 Una presentacin completa del tamao del efecto en Coe (2000) (en Internet); tambin se encuentra ampliado en Morales
(2007, El tamao del efecto (effect size): anlisis complementarios al contraste de medias).
26
puede interpretar como una puntacin tpica (realmente es una diferencia expresada en desviaciones
tpicas).
27
Figura 8
a) La media del grupo con media mayor se aparta una desviacin tpica de la media del grupo con
media ms pequea. La media ms pequea es ahora igual a 0 y la media mayor es igual a 1 (se aparta
1 de la otra media).
b) Segn las proporciones que nos indica la tabla de la distribucin normal, el sujeto medio del
grupo con media mayor, supera al 84% de los sujetos del grupo con media menor (con frecuencia el
grupo de control). La misma puntuacin que en un grupo (el de media mayor) equivale al Percentil 50, en
el otro grupo (con media menor) corresponde al Percentil 84: el mismo sujeto medio del grupo con media
mayor supera a un 34% ms de sujetos si lo incluimos en el grupo con media ms baja.
La interpretacin basada en la distribucin normal es slo literalmente vlida si las distribuciones
observadas en los dos grupos son normales; pero si se apartan de la distribucin normal cabe hablar de
aproximaciones; en cualquier caso se trata de un dato sobre la magnitud de la diferencia, una magnitud
expresada en desviaciones tpicas y en el nmero de sujetos que caen por debajo de esa puntuacin
tpica.
28
Sobre cundo se puede considerar grande o pequeo un determinado valor, suelen aceptarse estas
orientaciones (Cohen, 1988):
d = .20 (pequeo),
d = .50 (moderado)
d = .80 (grande).
d = .20
d = .50
d = .80
12 Como nota el autor (Cohen, 1988), en la investigacin sobre personalidad, psicologa clnica, etc., es normal encontrar
diferencias (o correlaciones) pequeas en parte por los problemas de validez en los instrumentos utilizados y en buena parte
tambin por la complejidad de las situaciones, interaccin entre variables, etc.
13 Cohen (1988) cita aqu un comentario de Tukey: el confirmar diferencias muy grandes y obvias con anlisis estadsticos
equivale a una canonizacin estadstica.
29
Para evaluar la eficacia de una terapia familiar se comparan un grupo experimental (N = 10) con
un grupo de control (N = 11). El valor de t es 1.62, claramente no significativo; con estos datos no
podemos afirmar que la diferencia en las poblaciones sea distinta de cero. Con tan pocos sujetos (la
unidad de anlisis no es propiamente cada sujeto individual, sino cada familia) no es tan fcil obtener
diferencias estadsticamente significativas, aunque la diferencia est favor del grupo experimental (y de la
eficacia de la terapia).
Encontramos sin embargo que el tamao del efecto (al comparar los dos grupos en nivel de
conflicto familiar despus de la terapia) es d = .69. Por debajo de z = .69 cae el 75 % de los casos; esto
quiere decir que la familia media del grupo experimental supera en ausencia o disminucin de conflictos
al 75 % de las familias del grupo de control. Es una diferencia de tamao moderado-alto que indica que
algo positivo y de inters est sucediendo aqu; es un buen resultado que se puede quizs confirmar con
mayor seguridad en estudios semejantes. Esta es una conclusin ms sensata que el limitarse a enunciar
sin ms que la diferencia no es estadsticamente significativa, no ha habido cambio, aceptamos (no
rechazamos) la hiptesis nula, etc. Por otra parte la mera diferencia entre las dos medias no nos dice
nada de particular si no la traducimos al tamao del efecto para apreciar mejor la magnitud de esa
diferencia. Una diferencia de magnitud apreciable (tal como lo vemos en el tamao del efecto) pero que
no es estadsticamente significativa nos permite al menos justificar y establecer hiptesis para futuras
investigaciones.
14 Si se debe o no calcular y exponer el tamao del efecto cuando la diferencia no es estadsticamente significativa es algo
discutido entre autores (Gliner, Leech y Morgan, 2002). Las recomendaciones de la A.P.A. son sin embargo muy claras
always report effect sizes (Wilkinson and Task Force on Statistical Inference APA Board of Scientific Affairs, 1999); una
razn para calcular el tamao del efecto, aunque la diferencia no sea estadsticamente significativa, es adems que facilita el
integrar los resultados de cualquier investigacin en un meta-anlisis.
15 Tomado de Olalla, Consuelo (1993), Relaciones familiares y su modificacin a travs de la terapia familiar sistmica. Tesis
doctoral, Madrid, Universidad Pontificia Comillas
30
planteamientos de evaluacin, etc. En estos casos el tamao de la muestra depende (no solamente) de la
magnitud de la diferencia que nos interesa detectar.
Es importante captar la relacin entre tamao de la muestra y la magnitud de la diferencia en la
que estamos interesados. Las diferencias grandes se detectan con facilidad en muestras pequeas. Un
ejemplo sencillo: para comprobar si pigmeos y escandinavos difieren en altura no necesitamos muestras
grandes: la diferencia la veremos con muy pocos sujetos porque se trata de una diferencia que se aprecia
a simple vista. Para captar diferencias pequeas y sutiles entre grupos, necesitaremos muestras mayores.
Ya lo hemos indicado al tratar sobre las variables que influyen en el valor de t. Con muestras grandes
minimizamos la posibilidad de no ver diferencias cuando s las hay, aunque sean pequeas.
En la prctica no solemos estar muy interesados en detectar diferencias muy pequeas, por ejemplo
un cambio pequeo en funcin de un mtodo o tratamiento; necesitaramos muchos sujetos y sera de
poco inters. Si nos interesan solamente diferencias (tamaos del efecto) grandes, necesitaremos menos
sujetos, pero dejaremos fuera la posibilidad de encontrar diferencias no muy grandes, pero de inters. En
la prctica podemos buscar un punto de equilibrio y buscar el nmero de sujetos suficiente para encontrar
diferencias de magnitud moderada.
Como criterio orientador, en la tabla 2 tenemos el tamao de la muestra necesario segn el tamao
del efecto que estemos interesados en detectar, a un nivel de confianza de = .05 .01 (como es usual,
un 5% de probabilidades de no equivocarnos al rechazar la hiptesis nula de no diferencia), y una
probabilidad del 80% de aceptar la hiptesis alterna cuando es verdadera16.
nivel de confianza
.05
.01
d =.20
d = .30
392
586
174
260
d =.50
63
93
Tabla 2
d = .70
d =.80
d =.1.0
d = 1.20
32
48
25
36
16
23
12
18
Si por ejemplo estamos interesados en detectar diferencias grandes (d = .80) con un nivel de
confianza de = .05 (5% de probabilidades de no encontrarlas si las hay), nos bastan grupos de 25
sujetos; si nos interesa encontrar diferencias aunque sean pequeas (como d = .30) nos harn falta
muestras mucho mayores (de unos 174 sujetos). Naturalmente de hecho podemos detectar diferencias de
estas magnitudes con muestras ms pequeas, pero tambin nos exponemos a no verlas por falta de
sujetos.
6.2.2.3. Frmulas del tamao del efecto: desviacin tpica del denominador.
Vamos a distinguir cuatro posibilidades
1 Diferencia entre las medias de dos muestras independientes, cuando no se trata de un diseo
experimental (no hay un grupo de control propiamente dicho).
2 Diferencia entre las medias de dos muestras relacionadas (diferencia entre el pre-test y el posttest de la misma muestra)
3 Diferencia entre las medias de un grupo experimental y otro de control (diseo experimental)
4 Diferencia entre las medias de un grupo experimental y otro de control cuando los dos han
tenido pre y post-test.
31
En la frmula del tamao del efecto de Cohen (smbolo d) se utilizan las desviaciones tpicas de las
muestras, dividiendo por N (aqu las simbolizamos como n).
En la frmula del tamao del efecto de Hedges (smbolo g) se utilizan las desviaciones tpicas de la
poblacin, dividiendo por N-1 (aqu las simbolizamos como n-1).
Cohen: d =
X1 - X 2
donde
2
2
(N 1 n(1)
) + (N 2 n(2)
)
N1 + N 2
[16
Hedges: g =
X1 - X 2
donde
(N 1 - 1) n2-1(1) + (N 2 - 1) n2-1(2)
N1 + N 2 2
[17]
Las desviaciones tpicas de la frmula [17] (Hedges) se calculan dividiendo por N1 (estimacin de la desviacin tpica de las poblaciones)
Estas desviaciones tpicas del denominador del tamao del efecto no son otra cosa que una
combinacin de las desviaciones tpicas de las dos muestras; por eso suelen denominarse desviacin
tpica combinada (en ingls pooled standard deviation). Podemos verlo fcilmente (en la frmula de
Cohen se ve con ms facilidad): utilizamos ahora la varianza en vez de la desviacin tpica para eliminar
la raz cuadrada:
2
Sabemos que =
(X X) 2
N
de donde (X - X ) = N
Para combinar dos desviaciones tpicas sumamos los dos numeradores y los dos denominadores,
que es lo que tenemos en las frmulas anteriores (en el caso de la g de Hedges se utiliza N-1 en vez de N,
como es usual cuando se trata de la estimacin de la desviacin tpica de la poblacin).
Cuando N = N (muestras de idntico tamao) en ambos casos (frmulas [16] y [17]) la desviacin
tpica combinada es igual a la raz cuadrada de la media de las varianzas:
combinada =
12 + 22
2
[18]
Podemos ver la diferencia entre las dos frmulas en un ejemplo concreto (ficticio). Tenemos dos
grupos (muestra A y muestra B) de cuatro sujetos cada una. Calculamos en cada muestra la media y las
dos desviaciones tpicas; para diferenciarlas utilizamos los subndices n (dividimos por N) y n-1
(dividimos por N-1).
Media
n
n-1
Muestra A
16
12
14
14
14
1.414
1.633
Muestra B
18
14
16
18
16.5
1.658
1.915
32
Desviacin tpica combinada
Cohen: =
(4)(1.414) 2 + (4)(1.658) 2
= 1.5408
4+4
d=
(4 1)(1.633) 2 + (4 1)(1.915) 2
= 1.7796
4+42
Hedges: =
g=
16.5 14
1.5408
16.5 14
1.7796
= 1.6225
= 1.40
Es natural que el tamao del efecto sea mayor con la frmula de Cohen porque el denominador es
menor (las desviaciones tpicas de las muestras son menores que las desviaciones tpicas estimadas en la
poblacin).
Como en este ejemplo se trata de muestras de idntico tamao, podemos utilizar la frmula [18]
para calcular la desviacin tpica combinada:
Cohen: =
1.414 2 + 1.658 2
= 1.5408
2
Hedges: =
1.6332 + 1.9152
= 1.7796
2
De cualquiera de estas dos frmulas de la desviacin tpica combinada ([16] y [17]) podemos pasar
a la otra:
Cohen = Hedges
N1 + N 2 2
N1 + N 2
[19]
Hedges =
Cohen
N1 + N 2 2
N1 + N 2
[20]
4+42
= 1.54
4+4
Hedges=
1.5408
4+42
= 1.779
4+4
Lo habitual es combinar la desviacin tpica de dos grupos, pero tambin pueden ser ms de dos
grupos. Si en el mismo planteamiento tenemos ms de dos grupos, podemos calcular la magnitud del
efecto (o diferencia tipificada) entre cualesquiera dos grupos utilizando en el denominador la desviacin
2
tpica combinada de todos ellos. En la frmula [17] tendramos en el numerador (N-1) y en el
denominador N - k, donde k es el nmero de grupos17.
Podemos utilizar cualquiera de las dos frmulas (Cohen y Hedges); posiblemente la de uso ms
frecuente es la [16], que se puede utilizar rutinariamente; con muestras grandes apenas varan los
resultados. Puede advertirse el cambio de smbolos (d g); aunque es frecuente utilizar el smbolo d con
las dos frmulas, la letra g es el smbolo apropiado cuando se utiliza la frmula de Hedges18.
Ya hemos visto (frmulas [19] y [20]) que de una desviacin tpica podemos pasar a la otra (de la
desviacin tpica de la muestra n a la de la poblacin n-1 y viceversa); de manera anloga podemos
17 En el anlisis de varianza para muestras independientes los cuadrados medios dentro de los grupos (el denominador de la
razn F) es precisamente la combinacin de las varianzas de los diversos grupos; esto se ve, naturalmente, al tratar del anlisis
de varianza, pero no sobra indicarlo aqu
18 El smbolo g lo pone Hedges en homenaje a Gene Glass, autor importante en el campo del meta-anlisis.
33
pasar de un tamao del efecto al otro (de d a g y de g a d). Ambas frmulas del tamao del efecto se
relacionan de esta manera (Rosenthal, 1994):
d=g
n1 + n 2
n1 + n2 - 2
g=
[21]
d
n1 + n2
n1 + n2 - 2
[22]
Las frmulas [21] y [22] son semejantes a las frmulas [19] y [20], substituyendo el valor de la
desviacin tpica combinada por el tamao del efecto.
X post - Xpre
post
[23]
Xexperimental - X control
control
[24]
4 Grupos experimental y de control cuando los dos han tenido pre y post-test
Cuando tenemos dos grupos, experimental y de control, y los dos con pre y post-test, hay varios
procedimientos19 pero es aceptable utilizar la frmula [16] o [17] con los datos del post-test, sobre todo si
no hay diferencias importantes en el pre-test.
34
Ya hemos visto antes cmo calcular el coeficiente de correlacin a partir de la t de Student
(frmula [14]), y cmo calcular el tamao del efecto de Cohen (d) a partir del tamao del efecto de
Hedges (g) (y viceversa, frmulas [19] y [20]).
Cuando se ha calculado previamente la t de Student se puede calcular directamente el tamao del
efecto (d g), de la misma manera que del tamao del efecto podemos pasar a la t de student:
d=
2t
N 1 + N2 - 2
[25]
t=
d N1 + N 2 - 2
2
[26]
Si se trata del tamao del efecto g, para calcularlo a partir de la t de Student podemos distinguir
cuando se trata de muestras de tamao idntico o desigual20:
2t
[27]
n1 + n 2
g=
t n1 + n 2
[28]
n1n 2
cuando n = n
d2
r=
d2 + 4
[29]
r=
d
1
d +
pq
[30]
En la frmula [30] p es igual a la proporcin de sujetos que corresponde a uno de los dos grupos
(n1/(n1+n2)) y q es igual a 1-p o la proporcin de sujetos en el otro grupo. Si los grupos son de idntico
tamao tenemos que p = q = .5 y 1/pq = 4, tal como aparece en la frmula [29].
Si se trata de convertir el valor de g en un coeficiente de correlacin, la frmula propuesta es
(Mahadevan, 2000):
r=
g 2 n 1n 2
[31]
Tambin podemos calcular el valor de d (tamao del efecto de Cohen) a partir del
coeficiente de Correlacin.
d=
2r
1- r2
[32]
35
Con nmeros no muy desiguales, y si tampoco interesa mucho el valor exacto del tamao del
efecto, lo ms cmodo suele ser utilizar la frmulas a partir del valor de la t de Student. Este suele ser el
caso cuando dos muestras de tamao parecido se comparan en una serie de variables.
Todas estas conversiones21 pueden ser tiles por estas razones:
a) A veces facilitan las operaciones; lo ms cmodo puede ser calcular el valor del tamao del
efecto a partir del valor de t (frmula [24]), sobre todo cuando los tamaos de las muestras son iguales o
muy parecidos.
b) Aunque prefiramos un enfoque determinado, el utilizar otro enfoque puede ayudar a la
interpretacin. Lo ms frecuente es calcular una diferencia tipificada, pero el coeficiente de correlacin
elevado al cuadrado nos dice la proporcin de varianza debida a la variable experimental o a pertenecer a
un grupo o a otro y es tambin un dato de inters para interpretar los resultados.
c) Puede interesar presentar con la misma mtrica resultados que provienen de diversos estudios en
los que se han utilizado anlisis distintos (t, r, etc.,). Esto es til para hacer comparaciones y para
calcular medias como resumen de los resultados de estudios distintos pero todos expresados en trminos
del tamao del efecto (es lo que se hace en el meta-anlisis o integracin cuantitativa de los resultados
de varios estudios o experimentos, y que se utiliza sobre todo para exponer el estado de la cuestin en un
determinado tema).
21 Estas y otras conversiones pueden encontrarse en diversos autores, por ejemplo en Rosenthal, 1987, 1991, 1994; Wolf, 1986;
Hunter y Schmidt, 1990, Kirk, 1996, y otros.
36
7. Referencias bibliogrficas
1. AMERICAN PSYCHOLOGICAL ASSOCIATION (2001). Publication manual of the American
Psychological Association (5th Edit). Washington D.C.: Author
2. BORG, W. R., GALL, J. O., & GALL, M. D. (1993). Applying educational research: A practical
guide. (3rd ed.) New York: Longman
3. COE, ROBERT (2000) Effect Size Resources
http://www.cemcentre.org/RenderPage.asp?LinkID=30310000 (revisado 1, Enero, 2007).
4. COHEN, JACOB (1977). Statistical Power Analysis for the Behavioral Sciences. New York:
Academic Press, [2nd. edit., 1988, Hillsdale, N.J.: Erlbaum].
5. DOWNIE, N.M. y HEATH, R.W., (1971), Mtodos estadsticos aplicados: Mxico, Harper;
37
22. ROSENTHAL, ROBERT, (1994). Parametric Measures of Effect Size. En COOPER, HARRIS AND
HEDGES, LARRY V. (Eds.). The Handbook of Research Synthesis. New York: Russell Sage
Foundation, 231-244
23. THOMPSON, BRUCE (1996). AERA Editorial Policies Regarding Statistical Significance
Testing: Three Suggested Reforms. Educational Researcher, Vol. 25 (2) 26-30.
24. VALENTINE, J. and COOPER, H. (2003). Effect Size Substantive Interpretation Guidelines:
Issues in the Interpretation of Effect Sizes. Washington, D.C.: What Works Clearing House
www.whatworks.ed.gov/reviewprocess/essig.pdf (consultado 24, Nov. 2006)
25. WILKINSON, LELAND and TASK FORCE ON STATISTICAL INFERENCE APA BOARD OF
SCIENTIFIC AFFAIRS (1999) Statistical Methods in Psychology Journals: Guidelines and
Explanations American Psychologist August 1999, Vol. 54, No. 8, 594604
http://www.loyola.edu/library/ref/articles/Wilkinson.pdf (consultado 1, Enero, 2007) y en
http://www.uic.edu/classes/psych/psych242/APAPublicationGuide.html
26. WOLF, FREDRIC M., (1986). Meta-Analysis, Quantitative Methods for Research Synthesis.
Beverly Hills, CA: Sage Publications.
38
z (o t) pequea
El valor de z (o de t) escogido
como lmite entre lo probable
e improbable depender de
nuestro nivel de confianza.
1 se rechaza o no se rechaza
la Hiptesis Nula (o el
azar como explicacin de
2 Acepto que las muestras pertenecen a
2 No acepto que las muestras
la diferencia);
poblaciones distintas.
pertenecen a poblaciones distintas
2 consecuentemente se
acepta o no se acepta la
Hiptesis Alterna
La Hiptesis Nula establece que si hay diferencia, sta se explica por el error muestral (que podemos
convencionalmente denominar azar). Un s o un no a la Hiptesis Nula es lo nico que afirmamos (con una
determinada probabilidad de error; el s o el no no son absolutos) mediante el clculo de la t de Student (o z).
Aceptaremos la Hiptesis Alterna si rechazamos (no aceptamos) la Hiptesis Nula, pero en este paso puede haber
otras fuentes de error (un mal diseo, muestra inadecuada, etc.). Tampoco concluimos si la diferencia es grande o
pequea; simplemente afirmamos que es muy improbable que esa diferencia sea cero en la poblacin. Para apreciar
la magnitud de la diferencia calculamos el tamao del efecto.
39
40
N1 + N2 -2
N-1
0.05
.10
6.313752
2.919986
2.353363
2.131847
2.015048
0.025
.05
12.70620
4.30265
3.18245
2.77645
2.57058
0.005
.01
63.65674
9.92484
5.84091
4.60409
4.03214
0.0005
.001
636.6192
31.5991
12.9240
8.6103
6.8688
6
7
8
9
10
1.943180
1.894579
1.859548
1.833113
1.812461
2.44691
2.36462
2.30600
2.26216
2.22814
3.70743
3.49948
3.35539
3.24984
3.16927
5.9588
5.4079
5.0413
4.7809
4.5869
11
12
13
14
15
1.795885
1.782288
1.770933
1.761310
1.753050
2.20099
2.17881
2.16037
2.14479
2.13145
3.10581
3.05454
3.01228
2.97684
2.94671
4.4370
4.3178
4.2208
4.1405
4.0728
16
17
18
19
20
1.745884
1.739607
1.734064
1.729133
1.724718
2.11991
2.10982
2.10092
2.09302
2.08596
2.92078
2.89823
2.87844
2.86093
2.84534
4.0150
3.9651
3.9216
3.8834
3.8495
21
22
23
24
25
1.720743
1.717144
1.713872
1.710882
1.708141
2.07961
2.07387
2.06866
2.06390
2.05954
2.83136
2.81876
2.80734
2.79694
2.78744
3.8193
3.7921
3.7676
3.7454
3.7251
26
27
28
29
30
1.705618
1.703288
1.701131
1.699127
1.697261
2.05553
2.05183
2.04841
2.04523
2.04227
2.77871
2.77068
2.76326
2.75639
2.75000
3.7066
3.6896
3.6739
3.6594
3.6460
1.644854
1.95996
2.57583
3.2905
Tablas adaptadas de STATSOFT, INC. (2002). Electronic Statistics Textbook. Tulsa, OK: StatSoft. WEB:
http://www.statsoft.com/textbook/stathome.html
41
different analyses.)
UNIVERSITT ULM-MEDIZINISCHE FAKULTT, SEKTION INFORMATIK IN DER
PSYCHOTHERAPIE (SOFTWARE UND WERKZEUGE) http://sip.medizin.uniulm.de/informatik/projekte/Odds/est.html (Calcula la t de Student y el tamao del efecto).
3. Para todos estos casos tenemos tambin GRAPHPAD, FREE ONLINE CALCULATORS FOR
SCIENTISTS (http://graphpad.com/quickcalcs/index.cfm) t test Calculator,
http://graphpad.com/quickcalcs/ttest1.cfm?Format=50
Estos son solamente algunos de los programas disponibles en Internet en los que es fcil encontrar
enlaces a otros programas semejantes.