Está en la página 1de 77

TEMA V

ESQUEMA GENERAL

Definición general

Clasificación
Caso paramétrico: análisis estadísticos
aplicables
Formato del diseño multigrupo
completamente al azar, modelo estructural
y componentes de variación
DISEÑOS EXPERIMENTALES
MULTIGRUPO
Concepto

Los diseños multigrupo, de uso frecuente en


ciencia psicológica y social, son estructuras de una
sola variable independiente a tres o más valores o
niveles. Al seleccionar más de dos valores de la
variable independiente o causal, es posible extraer
la relación funcional entre la variable
independiente y dependiente del experimento. Por
dicha razón, estas estructuras se conocen por
experimentos funcionales o paramétricos
(Plutchik, 1968).
Clasificación
Técnica de control Diseño

Aleatorización Diseño multigrupo (de tres o más grupos


completamente al azar

Constancia Diseño de Bloques de grupos al azar


Diseño de Cuadrado Latino
Diseño Jerárquico

El sujeto como Diseño de medidas repetidas con tres o


control propio más tratamientos (Sujetos x
Tratamientos)
Diseño multigrupo al azar
Diseño multigrupo al azar

El diseño multigrupo completamente al azar


requiere la asignación aleatoria de los
sujetos de la muestra a los distintos grupos,
sin restricción alguna. Se trata de una
extensión del diseño de dos grupos, ya que
en esta situación se eligen de la variable de
tratamiento más de dos valores o
condiciones.
Formato del diseño de multigrupo
al azar
Tratamientos
A1 A2 … Aj … Aa
S S S
u u u
j
e
j
e .………… j
e
t t t
o o o
s s s

Asignación aleatoria
Muestra
experimental
Análisis aplicables
Prueba de significación
general ANOVA unidireccional

Si la V. Independiente es
categórica Comparaciones múltiples

Si la V. Independiente es
cuantitativa Análisis de tendencias
Caso paramétrico. Ejemplo
Supóngase que se pretende probar si la cantidad de
repasos es una variable decisiva en la retención
(memoria de recuerdo), para un conjunto de palabras
monosílabas de igual valor asociativo. De la variable
independiente o variable repaso se seleccionan los
siguientes valores: presentación de la lista sin repaso
(condición A1), dos presentaciones de la lista, siendo la
segunda presentación un repaso (condición A2), tres
presentaciones y dos repasos (condición A3) y, por
último, cuatro presentaciones y tres repasos (condición
A4). ..//..
Se instruye a los sujetos que lean en voz alta
cada uno de los ítems presentados, a un ítem
por segundo. Al terminar las lecturas, los
sujetos realizan una prueba de memoria de
recuerdo consistente en restituir o recuperar
de la memoria la mayor cantidad de ítems. La
medida de la variable dependiente es la
cantidad de respuestas o ítems correctamente
recordados. Asumiendo que cada ítem tiene la
misma dificultad de recuerdo, se considera
que la escala de medida es de intervalo.
Modelo de prueba estadística
Paso 1. La hipótesis de nulidad asume que las medias
de los grupos experimentales proceden de una misma
población y, por consiguiente, son idénticas:

H0: μ1 = μ2 = μ3 = μ4

Paso 2. La hipótesis experimental asume que la


cantidad media de palabras recordadas variará
positivamente en función de la cantidad de repasos. En
términos estadísticos

H1: μ1  μ2, o μ1  μ3, o μ1  μ4, o μ2  μ3, o μ2  μ4, o


μ3  μ4
H1: por lo menos una desigualdad
Paso 3. Se aplica una prueba de significación
general o prueba ómnibus, cuyo estadístico es la F
de Snedecor. El nivel de significación de α = 0.05.
El tamaño de la muestra experimental y las
submuestras de tratamiento son:
N = 20 y n = 5.
F0.95(3/16) = 3.24

Paso 4. Tras la ejecución del experimento, se


calcula el valor empírico de F, a partir de la matriz
de datos.
Datos del experimento
DISEÑO MULTIGRUPO
TRATAMIENTOS
A1 A2 A3 A4
2 4 6 9
1 3 7 7
3 5 8 8
4 7 7 9
2 6 5 8
Totales: 12 25 33 41 111
Medias:
2.4 5 6.6 8.2 5.5
ANOVA unidireccional
MODELO ESTRUCTURAL DEL AVAR:
DISEÑO MULTIGRUPO

Yij     j   ij
Especificación de modelo del ANOVA

Yij = la puntuación del i sujeto bajo la j condición


experimental o tratamiento.

μ = la media global de los datos del experimento.

αj = μj - μ, es el efecto o impacto de j nivel de la variable de


tratamiento A.

εij = Yij - μj, es el error experimental asociado al i sujeto bajo


el j tratamiento.

Para que el modelo sea válido, se especifican las siguientes


condiciones:

Σαj = 0 y εij  NID(0, σ²)


Cálculo de las sumas de cuadrados

SCtotal = (2)² + (1)² + ... + (8)² - (111)²/20

= 731 - 616.05 = 114.95

SCtrat. = [(12)²/5 + (25)²/5 + (33)²/5 + (41)²/5]

- (111)²/20 = 707.80 - 616.05 = 91.75

SCerror = (2)² + (1)² + ... + (8)² - [(12)²/5 + (25)²/5 +

(33)²/5 + (41)²/5 ] = 23.20


CUADRO RESUMEN DEL AVAR: DISEÑO
MULTIGRUPO

F.V. SC g.l CM F p
Trat (A) 91.75 (a-1)=3 30.58 21.08 <0.05
Error (S/A) 23.20 a(n-1)=16 1.45
Total (T) 114.95 an-1=19
F0.95(3/16) = 3.24
Modelo de prueba estadística

Paso 5. Dado que el valor observado de F es


mayor que el valor teórico al 5% y en función
de los grados de libertad correspondientes, se
rechaza la hipótesis de nulidad y se acepta la
hipótesis alternativa o hipótesis experimental a
este nivel de significación.
Supuesto de homogeneidad

Igualdad de las variancias de los grupos:

H0: σ1² = σ2² = ... = σj²


Prueba de la homogeneidad

Hartley: cuando n por grupo es constante

mayor de las variancias s²mayor


Fmax = ----------------------------------- = -------------
menor de las variancias s²menor
Cálculo de Fmax
Cálculo de las variancias de los grupos de tratamiento
─────────────────────────────────────────────────
Grupo de
tratamiento SC g.l. s²
─────────────────────────────────────────────────
Primero (2²+1²+...+2²)-(12²/5) = 5.2 n-1=4 5.2/4 = 1.3
Segundo (4²+3²+...+6²)-(25²/5 ) = 10.0 n-1=4 10/4 = 2.5
Tercero (6²+7²+...+5²)-(33²/5) = 5.2 n-1=4 5.2/4 = 1.3
Cuarto (9²+7²+...+8²)-(41²/5) = 2.8 n-1=4 2.8/4 = 0.7
─────────────────────────────────────────────────
El valor de Fmax, teniendo por numerador la variancia más grande y por denominador
la más pequeña, es

2.5
Fmax = ----- = 3.42
0.7
Prueba del supuesto de homogeneidad de las variancias

2
s
Fmax 
mayor
2
s
s  1.3
2
1
menor

S  2.5
2
2
2.5
S  1.3
2
3
Fmax   3.42
0.7
S  0.7
2
4 Fmax 0.95 (4 / 4)  20.60

j/(n-1)
Resultado de la prueba

Entrando en la tabla de Fmax, con los


parámetros correspondientes y a un nivel de
significación de 0.05, el valor teórico de
Fmax 0.95(4/4) es 20.60. Dado que el valor
observado del estadístico es más pequeño
que el de las tablas, se acepta la hipótesis
de nulidad o supuesto de homogeneidad de
las variancias.
Comparaciones múltiples
Contrastes de medias

Las comparaciones o contrastes se efectúan,


por lo general, entre las medias de los grupos
de tratamiento. Genéricamente, una
comparación entre k medias es la combinación
lineal o suma ponderada de medias. Antes de
examinar los distintos procedimientos de
comparaciones múltiples, proponemos una
clasificación práctica para su descripción.
No ortogonales
A priori o
planificadas
Ortogonales

Comparaciones
múltiples
Fisher
Duncan
A posteriori o
Tukey
no planificadas
Scheffé
Dunnet
Newman-Keuls
Contrastes a priori o planificados

Las comparaciones a priori o planificadas se


formulan de acuerdo con los intereses previos
o teóricos del investigador, y se plantean
antes de obtener los resultados del
experimento. Según su naturaleza, las
comparaciones planificadas son no
ortogonales y ortogonales.
Contrastes no ortogonales

Suma algebraica de las medias de los


tratamientos ponderadas por unos
coeficientes que cumplen la condición de
linealidad:
Σaj = 0_ _ _ _
c = a1Y.1 + a2Y.2 + ... + ajY.j = ΣajY.j
Cinco hipótesis de nulidad para los
contrastes no ortogonales

1. H0 = μ2 - μ1 = 0
Dos lecturas de la lista (condición A2) no
difiere de una sola lectura (condición A1).

2. H0 = μ3 - μ1 = 0
Se asume la igualdad entre la condición de tres
(A3) y uno (A1). ..//..
3. H0 = μ4 - μ1 = 0
Se asume la igualdad entre cuatro lecturas
(condición A4) y una sola lectura (condición
A1).
4. H0 = μ3 - 1/2(μ1 + μ2) = 0
Se establece la igualdad entre tres lecturas y
el promedio entre una y dos lecturas.

5. H0 = μ4 - 1/3(μ1 + μ2 + μ3) = 0
Se define la igualdad entre cuatro lecturas y
el promedio de las restantes.
Reformulación de las hipótesis
nulas en combinaciones lineales

1. (-1)μ1 + (1)μ2 + (0)μ3 + (0)μ4 = 0


2. (-1)μ1 + (0)μ2 + (1)μ3 + (0)μ4 = 0
3. (-1)μ1 + (0)μ2 + (0)μ3 + (1)μ4 = 0
4. (-1/2)μ1 + (-1/2)μ2 + (1)μ3 + (1)μ4 = 0
5. (-1/3)μ1 + (-1/3)μ2 + (-1/3)μ3 + (1)μ4 = 0
Comparaciones múltiples a priori: no
ortogonales

Coeficientes
Contraste a1 a2 a3 a4 Σa²j
c1 -1 1 0 0 2
c2 -1 0 1 0 2
c3 -1 0 0 1 2
c4 -1/2 -1/2 1 0 1.5
c5 -1/3 -1/3 -1/3 1 1.33
Prueba de las hipótesis de nulidad
Paso 1. Cálculo del valor empírico del contraste.
c1 = (-1)2.4 + (1)5.0 + (0)6.6 + (0)8.2 = 2.6

c2 = (-1)2.4 + (0)5.0 + (1)6.6 + (0)8.2 = 4.2

c3 = (-1)2.4 + (0)5.0 + (0)6.6 + (1)8.2 = 5.8

c4 = (-1/2)2.4 + (-1/2)5.0 + (1)6.6 + (0)8.2 = 2.9

c5 = (-1/3)2.4 + (-1/3)5.0 + (-1/3)6.6 + (1)8.2 = 3.53


Paso 2. Cálculo del error estándar del contraste.

a²1 a²2 a²j


σc sc = s²e (------ + ------ + ... + ------)
n n n

CMe
= -----------Σa²j
n
donde s²e = CMe es la variancia del error o Cuadrado Medio del
error del Análisis de la Variancia. Según esta fórmula, se
calculan los errores estándar de los distintos contrastes:
(1.45)2
sc1 = -------------- = 0.76
5
(1.45)2
sc2 = -------------- = 0.76
5
(1.45)2
sc3 = --------------- = 0.76
5
(1.45)1.5
sc4 = --------------- = 0.66
5
(1.45)1.33
sc5 = ---------------- = 0.62
5
Paso 3. A continuación, se prueba la
significación del contraste mediante el
estadístico t o F. Cuando se utiliza este
segundo estadístico, es necesario calcular las
Sumas de Cuadrados de los contrastes,
aplicando la siguiente expresión:


SCc = ---------
Σ(a²j/n)
El valor de los respectivos estadísticos de la prueba
se obtienen de las ecuaciones siguientes:
c
t = -------, y
sc

CMc
F = ---------
CMe

Puesto que cada contraste tiene un solo grado de


libertad, el valor del Cuadrado Medio es la
correspondiente Suma de Cuadrados.
CM error c
sc 
n
 j
a 2
t =
sc

(1.45) 2 2 .6
c1 =
5
= 0.76  3.42
0.76
(1.45) 2 4 .2
c2 =
5
= 0.76  5.53
0.76
(1.45) 2 5 .8
c3 =
5
= 0.76  7.65
0.76
(1.45)1.5
c4 = = 0.66 2 .9
5  4.39
0.66
(1.45)1.33
c5 = = 0.62 3.53
5  5.69
0.62
nc 2 g.l CM c
SC c = F=
Σa 2j CM error

(5)( 2.6) 2 1 16.9


c1   16.9  11.66
2 1.45
(5)( 4.2) 2 44.1
c2   44.1 1  30.41
2 1.45
(5)(5.8) 2 84.1
c3   84.1 1  58
2 1.45
(5)( 2.9) 2 28.03
c4   28.03 1  19.33
1 .5 1.45
(5)(3.53) 2
c5   46.84 1 46.84
 32.3
1.33 1.45
Cuadro resumen valores de t y F
Cuadro resumen del cálculo de las Sumas de cuadrados y de los valores de t y F.

Sumas de Cuadrados Valores t F

(5)(2.6)² 2.6 16.9


c1 = ------------- = 16.9 -------- = 3.42 -------- = 11.66
2 0.76 1.45

(5)(4.2)² 4.2 44.1


c2 = ------------- = 44.1 ------- = 5.53 -------- = 30.41
2 0.76 1.45

(5)(5.8)² 5.8 84.1


c3 = ------------- = 84.1 ------- = 7.65 -------- = 58
2 0.76 1.45

(5)(2.9)² 2.9 28.03


c4 = ------------- = 28.03 ------- = 4.39 -------- = 19.33
1.5 0.66 1.45

(5)(3.53)² 3.53 46.84


c5 = ------------- = 46.84 -------- = 5.69 -------- = 32.3
1.33 0.62 1.45
Paso 4. Entrando en la tabla de t, con los grados
de libertad asociados al término de error del
ANOVA y a un nivel de significación del 5%, se
tiene

t0.95 (16) = 1.76

De igual modo, entrando en la tabla de F, se tienen

F0.95(1/16) = 4.49

De esto se concluye que todos los contrastes son


significativos.
Contrastes ortogonales
La propiedad básica de las comparaciones ortogonales
es que reflejan piezas de información independientes
y que el resultado de una comparación no tiene
relación alguna con el resultado de cualquier otra.

Bajo el supuesto de ortogonalidad, dos


comparaciones son independientes cuando la suma de
los productos cruzados de los coeficientes es cero, es
decir, la condición de ortogonalidad entre dos
comparaciones cumple la siguiente restricción:
(Σajak = 0)
Cinco hipótesis de nulidad para los
contrastes ortogonales
1. H0 = μ2 - μ1 = 0
Dos lecturas de la lista (condición A2) no difiere de
una sola lectura (condición A1).

3. H0 = 2μ3 – (μ1 + μ2) = 0


Se establece la igualdad entre tres lecturas y el
promedio entre una y dos lecturas.

5. H0 = 3μ4 - (μ1 + μ2 + μ3)= 0


Se define la igualdad entre cuatro lecturas y el
promedio de las restantes.
Coeficientes de los contrastes
ortogonales
Coeficientes a 2j
Contraste a1 a2 a3 a4
C1 -1 1 0 0 2
C2 -1 -1 2 0 6
C3 -1 -1 -1 3 12
Supuesto de ortogonalidad entre dos
contrastes

Ejemplo: entre el contraste uno y dos:

(-1)(-1) + (1)(-1) + (0)(2) + (0)(0) = 0


Suma de cuadrados del contraste

nC²
SCC = --------
Σa²j
Sumas de cuadrados

5[(-1)2.4 + (1)5.0 + (0)6.6 + (0)8.2]²


SCC1 = ------------------------------------------------- = 16.90
2

5[(-1)2.4 + (-1)5.0 + (2)6.6 + (0)8.2]²


SCC2 = --------------------------------------------------- = 28.03
6

5[(-1)2.4 + (-1)5.0 + (-1)6.6 + (3)8.2]²


SCC3 = ------------------------------------------------------ = 46.82
12
=======
SCA: 91.75
Razones F

16.90
F1 = ------------ = 11.66
1.45
28.03
F2 = ------------ = 19.33
1.45
46.28
F3 = ----------- = 32.39
1.45
Valor teórico de F

Entrando en la tabla de la distribución F, el


valor teórico del estadístico es F0.95(1/16) =
4.49
Características de los contrastes
ortogonales

Una propiedad característica de las comparaciones


ortogonales es la descomposición de la Suma de
Cuadrados de tratamientos del ANOVA en tantos
componentes ortogonales (independientes) como
grados de libertad de esa fuente de variación (se
dispone de un grado de libertad por componente).
Siguiendo con el ejemplo propuesto, la Suma de
Cuadrados de tratamientos, SCA, tiene a - 1 grados de
libertad y, como consecuencia, tres componentes
ortogonales (siendo a igual a cuatro).
Propiedades de los contrastes
ortogonales

SCC1 1g.l. (16.9)

SCA SCC2 1g.l.(28.03)


(91.75)
SCC3
1g.l.(46.82)
Desventajas de los contrastes a priori
o planificados
Se corre el riesgo de cometer más errores de
Tipo I al asumir como verdadera la hipótesis de
nulidad; es decir, hay la posibilidad de realizar
más rechazos falsos de la hipótesis de nulidad o
de no efectos. En línea con esa problemática, es
conveniente distinguir dos tipos de errores: Error
de Tipo I por comparación (PC) y tasa de error
por familia (PF). El error PC, simbolizado por α,
es la probabilidad de cometer un error de Tipo I
por comparación. ..//..
Si α es 0.05, la probabilidad es 0.05. Por el
contrario, la tasa de error PF, αPF, es la
probabilidad de cometer uno o más errores
de Tipo I en un conjunto de comparaciones.
La relación entre estos dos errores y la
probabilidad de cometer al menos un error
de Tipo I es

αPF = 1 - (1 - α)c
Cálculo del error PF

Así, con cinco comparaciones (c = 5), y un α de


0.05, la probabilidad de cometer un error PF es 1
- 0.955 = 0.23. De forma aproximada, esa
probabilidad se calcula por (c)(α), 5(0.05) =
0.25. En el caso de las comparaciones
ortogonales estudiadas, la probabilidad de
rechazar una de las hipótesis de nulidad siendo
verdadera es 1 - (0.95)3 = 0.14. Esta probabilidad
tiende a aumentar con el número de
comparaciones independientes. ..//..
Así, para un conjunto de comparaciones
independientes, es posible que algunas sean
significativas como resultado de la propia
metodología. Para evitar esas dificultades
se aplican las comparaciones a posteriori,
post hoc, o comparaciones simultáneas.
Cantidad de contrastes planificados

La cantidad de comparaciones planificadas a


partir de un número dado de tratamientos, a, es

(3a - 1)
1 + ------------- - 2a
2 ..//..
Si, como en el experimento propuesto, a = 4
(cuatro tratamientos), entonces hay 1 + (34 -
1)/2 - 24 = 25 comparaciones. De las cuales,
[4(4 - 1)]/2 = 6, son comparaciones entre pares
y 19 son comparaciones de combinaciones de
tratamientos. En la práctica, no se formulan las
25 comparaciones posibles, sino tan sólo las
que tienen interés teórico. Dado que existe una
probabilidad calculada de cometer un falso
rechazo de la hipótesis de nulidad, en una de
esas comparaciones, es posible controlar el
error por conjunto o familia de comparaciones
a un nivel aceptable.
Corrección de Bonferroni o de
Dunn
Supóngase, como hipótesis de trabajo, que se
efectúan cinco comparaciones planificadas, con
un α de 0.05. La tasa de error PF es, en este caso,
5(0.05) = 0.25. Para reducir este error, se escoge
simplemente un valor más pequeño de α, por
ejemplo 0.01. De este modo, la tasa de error PF es
ahora de 5(0.01) = 0.05. Esta corrección, conocida
como prueba de Bonferroni o prueba Dunn,
consiste en dividir tasa de error PF deseada por la
cantidad de comparaciones (0.05/5 = 0.01).
Contrastes no planificados o a
posteriori
El objetivo de los contrastes no planificados es
obtener el máximo de información de los datos de un
experimento. Los contrastes no planificados son
procedimientos para efectuar comparaciones a
posteriori. Estos procedimientos poseen, de otra
parte, la ventaja de mantener constante la
probabilidad de cometer errores de Tipo I cuando se
toma la decisión estadística. Entre los distintos
métodos, se encuentran las pruebas de Scheffé
(1959), Tukey (1953), Newman-Keuls (Newman,
1939 y Keuls, 1952), Duncan (1953), y Dunnett
(1955).
Contrastes no planificados o a
posteriori
Los métodos propuestos se conocen por
comparaciones simultáneas.

Con comparaciones no planificadas, a


posteriori o post hoc, los pruebas
estadísticas citadas van encaminados a
reducir el tamaño de la región crítica, y
controlan el error PF mediante el ajuste del
valor alfa.
Contrastes no planificados o a
posteriori

Con comparaciones no planificadas o post


hoc, hay técnicas encaminadas a reducir el
tamaño de la región crítica, que controlan el
error PF mediante el ajuste del valor alfa.
Entre las más importantes se encuentran,
junto con la de Fisher, las pruebas de
Duncan, Tukey, Dunnett y Newman-Keuls.
Análisis de tendencias
Concepto

Una de las técnicas de análisis de tendencias es el


método de polinomios ortogonales. En virtud de ese
procedimiento, es posible dividir la variación o Suma de
Cuadrados de tratamientos en una serie de componentes
independientes de tendencia como, por ejemplo, lineal,
cuadrado, cúbico, etc. Cada componente ortogonal
aporta información particular sobre una clase de
tendencia o relación entre la variable independiente y la
variable dependiente. Al mismo tiempo, este
procedimiento permite verificar estadísticamente la
significación de cada componente de tendencia.
Análisis de tendencias: Descomposición polinómica
ortogonal de la Suma de Cuadrados “Entre
tratamientos” o “Entre grupos”.

Fuentes de variación Grados de libertad Sumas de cuadrados


Entre Tratamientos k-1 SCA
Lineal 1 ScLin

Cuadrático 1 SCCuad
Cúbico 1 SCCub
……….……………………………………………………………
k-1 1 SCCk-1
Coeficientes de los contrastes
polinómicos ortogonales
Coeficientes de polinomios ortogonales, k = 4

Coeficientes
Contraste a1 a2 a3 a 4 Σa²j

Lineal -3 -1 1 3 20
Cuadrado 1 -1 -1 1 4
Cúbico -1 3 -3 1 20
Cálculo de las suma de cuadrados

El cálculo de la Suma de Cuadrados cada


uno de estos componentes se obtiene de la
expresión,

nC²
SCC = --------
Σa²j
Resultado del análisis
Componente SC g.l. CM F p

Lineal 90.25 1 90.25 62.24 <0.05


Cuadrado 1.25 1 1.25 0.86 >0.05
Cúbico 0.25 1 0.25 0.17 >0.05

Error 23.20 16 1.45

F0.95(1/16) = 4.49
Ventajas y desventajas

El diseño multigrupo completamente al azar


permite examinar, desde una perspectiva
amplia, las distintas estrategias de análisis
aplicables a los datos experimentales. En
primer lugar, el análisis unidimensional de la
Variancia o indicador general de variación de
las medias de los grupos. ..//..
En segundo lugar, las estrategias que
prueban las microhipótesis de investigación;
es decir, las comparaciones múltiples entre
medias. Por último, para aquellas
situaciones donde la variable independiente
es cuantitativa y con valores equidistantes,
el análisis de tendencias mediante el
procedimiento de modelación polinómica
ortogonal.
GRÁFICO DE MEDIAS

V.D. 9
8
7
6
5
4
3
2
1
0
A1 A2 A3 A4

También podría gustarte