Está en la página 1de 64
ESTADISTICA APLICADA Verificación de los supuestos del modelo Agosto 2011
ESTADISTICA APLICADA Verificación de los supuestos del modelo Agosto 2011
ESTADISTICA APLICADA Verificación de los supuestos del modelo Agosto 2011
ESTADISTICA APLICADA Verificación de los supuestos del modelo Agosto 2011
ESTADISTICA APLICADA Verificación de los supuestos del modelo Agosto 2011
ESTADISTICA APLICADA Verificación de los supuestos del modelo Agosto 2011

ESTADISTICA APLICADA

Verificación de los supuestos del modelo

Agosto 2011

 

Supuestos del modelo

La validez de los resultados obtenidos en cualquier análisis de varianza queda sujeto a que los supuestos del modelo se cumplan.

Estos son: normalidad, varianza constante e independencia.

Esto es, la respuesta (X) se debe distribuir normal, con la misma varianza en cada tratamiento y las mediciones deben ser independientes.

Estos supuestos sobre X se traducen en supuestos

sobre el término de error

ε .

Supuestos del modelo Si los supuestos se cumplen los errores o residuos se pueden ver

Supuestos del modelo

Si los supuestos se cumplen los errores o residuos se pueden ver como una muestra aleatoria de una distribución normal con media cero y varianza constante.

El residuo asociado a la observación

X ij

se define

como la diferencia entre el modelo, es decir

X ij

y el valor predicho por

e

ij

=

ˆ

X X

ij

ij

=

X X

ij

i

Note que en el diseño completamente aleatorizado los residuos se obtienen restando a cada valor observado la media muestral del tratamiento a que pertenece.

1.

2.

3.

Supuestos del modelo

Los N residuos

e

ij

representan una muestra

ε ij

aleatoria de la variable

En términos de los residuos, se supone que:

Los

e ij

cero.

siguen una distribución normal con media

Los

Los tratamientos tienen una varianza constante

e

ij

son independientes entre sí.

2

σ

Para probar cada supuesto existen pruebas gráficas y análiticas.

 

Supuestos del modelo

Las pruebas gráficas no son exactas pero se pueden aplicar razonablemente bien con pocos datos cosa que no sucede con las pruebas análiticas.

Se requiere que la evidencia en contra de un supuesto esté soportada por más de 2 puntos.

Si es 1 o 2 los puntos que se salen del comportamiento esperado de las gráficas podría tratarse de puntos aberrantes y no de violación de los supuestos.

Debe investigarse la obtención de dichas mediciones atípicas ya que podrían afectar los resultados.

 

Supuestos del modelo

Es mejor prevenir en lo posible que los supuestos no se violen aplicando los 3 principios básicos del diseño de experimentos: repetición, aleatorización y bloqueo.

Por ejemplo, por no aleatorizar el orden en que se ejecutan las pruebas se puede tener problemas con el supuesto de independencia.

Suposición de normalidad

Una forma de comprobar la suposición de normalidad consiste en hacer un histograma de los residuos.

(

Si las suposición de que los errores son

se satisface esta gráfica debe ser semejante a la

de una muestra extraída de una distribución normal centrada en cero.

NID 0,σ

2

)

Desafortunadamente, a menudo ocurren fluctuaciones considerables cuando las muestras son pequeñas por lo que una desviación moderada aparente de la normalidad no necesariamente implica una violación seria a las suposiciones.

 

Suposición de normalidad

Desviaciones mayores de la normalidad son potencialmente graves y requieren un análisis más profundo.

Otro procedimiento consiste en construir una gráfica de probabilidad normal de los residuos con la distribución acumulada de los residuos.

Si la distribución de los errores es normal esta gráfica parecerá una línea recta (hay que poner más énfasis en los valores centrales que en los extremos).

 

Suposición de normalidad

En general, desviaciones moderadas de la normalidad no tienen mucha importancia en el ANOVA de efectos fijos.

Una distribución de los errores cuyos extremos son considerablemente más anchos o angostos que en la distribución normal es más grave que una distribución sesgada.

Se dice que el ANOVA (y otros procedimientos como las comparaciones múltiples) son robustos ante la suposición de normalidad.

 

Suposición de normalidad

El modelo de efectos aleatorios se ve más afectado por la no normalidad.

Los niveles reales de confianza en las

estimaciones por intervalos de los componentes de variancia pueden diferir mucho de los valores encontrados.

A veces aparece un residuo inusitado (es mucho mayor que los otros).

Uno o más pueden pueden distorsionar seriamente el análisis.

 

Suposición de normalidad

Se debe verificar si es un error de cálculo, de codificación de los datos o de transcripción.

Si esto no es la causa deben investigarse

cuidadosamente las circunstancias experimentales de esta medición.

Hay que ser cuidadoso para descartar una observación distanciada, en el peor de los casos se pueden hacer 2 análisis.

Suposición de normalidad Una manera de detectar residuos distanciados es analizar los residuos estandarizados d
Suposición de normalidad Una manera de detectar residuos distanciados es analizar los residuos estandarizados d

Suposición de normalidad

Una manera de detectar residuos distanciados es analizar los residuos estandarizados

d =

e

MCE

Un residuo a una distancia mayor que ±3 desviaciones estándar del origen es potencialmente un residuo distanciado.

 

Suposición de independencia

Graficar los residuos contra el orden del tiempo en el que se recopilaron los datos es útil para detectar alguna correlación entre ellos.

Una tendencia a tener rachas con residuos positivos y negativos indica una correlación positiva.

Esto implica que la suposición de independencia de los residuos ha sido violada.

Este es un problema serio difícil de corregir, por ello es muy importante la aleatorización.

 

Suposición de independencia

Si otras variables pueden afectar la respuesta de los datos que se recopilaron será necesario graficar los residuos contra estas otras variables.

Por ejemplo, en el problema de la resistencia a la tensión ésta puede verse afectada por el grosor de la fibra, por lo tanto los residuos deben ser graficados contra el grosor de la fibra.

Si se usaron máquinas diferentes para realizar las mediciones los residuos deben graficarse contra las máquinas.

Si hay patrones dicha variable afecta la respuesta y esa variable debe ser incluida en el análisis.

 

Suposición de independencia

A veces cambia la variancia del error con el tiempo (por ejemplo mejor habilidad del

experimentador) este es un problema potencial serio.

Si el modelo es correcto y las suposiciones se satisfacen, los residuos no deben tener ningún patrón ni deben estar relacionados con ninguna variable, incluyendo la respuesta Xij.

Una comprobación es graficar los residuos contra los valores ajustados, no debe haber ningún patrón.

 

Suposición de independencia

A veces cambia la variancia del error con la magnitud de las observaciones (por ejemplo por instrumentos de medición).

La variancia variable también ocurre cuando los datos no tienen distribución normal y están sesgados.

En las distribuciones sesgadas la variancia tiende a ser función de la media.

 

Suposición de independencia

Si la suposición de homogeneidad no se cumple la prueba F es poco afectada en los modelos balanceados de efectos fijos.

El problema es más serio si el diseño está desbalanceado o si una variancia es mucho mayor que la otra.

En un modelo de efectos aleatorios la desigualdad en las variancias puede perturbar significativamente las inferencias sobre las componentes de variancia aunque el diseño sea balanceado.

Suposición de homoscedasticidad Se debe aplicar transformación para igualar las variancias. Las conclusiones del

Suposición de homoscedasticidad

Se debe aplicar transformación para igualar las variancias.

Las conclusiones del ANOVA se aplican a las poblaciones transformadas.

Si se conoce la distribución teórica de las observaciones es posible usar esta información para elegir la transformación.

Por ejemplo, si las observaciones tienen una distribución de Poisson éstas deben transformarse

mediante la raíz cuadrada

'

X =

ij

1 +X

ij

'

ij
ij

X = X

ij

o bien

Suposición de homoscedasticidad

Si los datos tienen una distribución log-normal la

transformación apropiada es la logarítmica

'

X =

ij

log

X

ij

Para los datos binomiales, expresados como fracciones, es útil la transformación arcoseno

'

ij

X

=

1

sen

X ij
X
ij

Cuando no existe una transformación obvia se debe buscar empíricamente.

En los experimentos factoriales se selecciona la transformación que minimice la media de cuadrados de la interacción, esto conduce a un experimento que es más fácil de interpretar.

 

Suposición de homoscedasticidad

Las transformaciones para igualar las variancias también afecta la forma de la distribución de los errores.

En la mayoría de los casos esta distribución se acerca más a la normal.

Si el experimentador conoce la relación entre la variancia de las observaciones y la media se puede usar esta información para seleccionar la forma de la transformación.

Suposición de homoscedasticidad

Sea

E(X ) =µ

suponga que

β

σ µ

X

Se desea encontrar la transformación de X que produzca una variancia constante.

Se supone que la transformación es una potencia de los datos originales

X ' X λ

=

Entonces se puede demostrar que

σ

X

λ β

+ − 1

µ

La variancia de los datos transformados es

constante si

λ=1β

Suposición de homoscedasticidad La siguiente tabla muestra algunas transformaciones comunes σ X σ X 1/2
Suposición de homoscedasticidad La siguiente tabla muestra algunas transformaciones comunes σ X σ X 1/2

Suposición de homoscedasticidad

La siguiente tabla muestra algunas transformaciones comunes

σ

X

σ

X

1/2

µ

µ

3/2

σ µ

X

σ

X

2

µ

β

λ=1β

transformación

½

½

raíz cuadrada

1

0

log 10

3/2

-1/2

recíproca de la raíz

2

-1

cuadrada recíproca

En muchas situaciones de diseños experimentales

es posible estimar empíricamente datos cuando existe réplicación.

β usando los

Suposición de homoscedasticidad

Como en el i-ésimo tratamiento

σ

xi

µ = θµ

i

i

β

β

Donde

θ es la constante de proporcionalidad, al

tomar logaritmos

log

σ =

xi

log

θ+β

log

µ

i

Si se grafica esta relación se obtiene una recta con

pendiente

β

Como

de las muestras.

son desconocidas se pueden estimar

σ

y

µ

i

xi

ESTADISTICA APLICADA Comparación de contrastes Agosto 2011
ESTADISTICA APLICADA Comparación de contrastes Agosto 2011
ESTADISTICA APLICADA Comparación de contrastes Agosto 2011
ESTADISTICA APLICADA Comparación de contrastes Agosto 2011
ESTADISTICA APLICADA Comparación de contrastes Agosto 2011
ESTADISTICA APLICADA Comparación de contrastes Agosto 2011

ESTADISTICA APLICADA

Comparación de contrastes

Agosto 2011

Introducción Si se rechaza la hipótesis nula H 0 : µ = µ = L
Introducción Si se rechaza la hipótesis nula H 0 : µ = µ = L

Introducción

Si se rechaza la hipótesis nula

H

0

:

µ =µ =L=µ

1

2

k

es decir, si la prueba F del ANOVA resulta significativa e indica que no todas las medias son iguales es importante determinar cuales son las medias que no son iguales entre si.

Los procedimiento para efectuar estas comparaciones se conocen como métodos de comparación múltiple.

Contrastes Además de probar las hipótesis dos a dos dadas por H µ = µ

Contrastes

Además de probar las hipótesis dos a dos dadas

por

H µ=µ

0

:

i

j

,

H µµ

1

:

i

j

ij

en ocasiones

el objetivo del estudio lleva a contrastar hipótesis que involucran a más de dos medias.

Una expresión de la forma

C

k

=

i = 1

cµ

i

i

es una

combinación lineal de las medias poblacionales de

interés, donde los coeficientes reales.

c i son números

La combinación lineal C se llama contraste si cumple que la suma de los coeficientes es igual a

cero.

k

i

c

= 0

i = 1

Contrastes

Por ejemplo, las hipótesis de comparación de medias son contrastes.

La hipótesis nula

escribir como

H µ=µ

0

:

i

j

0

H µµ =

0

:

i

j

,

ij

se puede

En este caso el contraste correspondiente es la

combinación lineal

cµ+cµ

i

i

j

j

con

c= 1

i

y

c

j

=− 1

e interesa verificar si es estadísticamente igual a cero.

Más en general, interesa probar si el contraste

definido por

k

es igual a cero.

=

C

cµ

i

i

i

=

1

Contrastes Si las poblaciones objeto de estudio son normales ( N µ σ i ,
Contrastes Si las poblaciones objeto de estudio son normales ( N µ σ i ,

Contrastes

Si las poblaciones objeto de estudio son normales

(

N µ σ

i

,

i

2

)

,

i=

1,

,

k

el contraste C sigue una

distribución normal con media

varianza

V

C

k

2

c

i

n

i

=

i = 1

2

σ

i

µ

C

k

=

i

=

1

cµ

i

i

y

Cuando las varianzas de los tratamientos son iguales y el diseño experimental es balanceado la varianza del contraste se reduce a

V

C

=

2

σ

i

n

i

k

i = 1

2

c

i

Contrastes 2 σ Usando CME para estimar a la media X i • y para
Contrastes 2 σ Usando CME para estimar a la media X i • y para

Contrastes

2

σ

Usando CME para estimar a

la media

X

i

y

para estimar a

µ i se puede ver que un intervalo al

100(1α)%

de confianza para el contraste C está

dado por

k k CME ∑ i cX t ± ∑ 2 c i • α 2,
k
k
CME
∑ i
cX t
±
∑ 2
c
i
α
2,
N k
i
n
i
=
1
i
=
1

En caso que el intervalo contenga el cero se concluye que el contraste C es estadísticamente igual a cero.

Contrastes

La suma de cuadrados de un contraste es

SC =

C

 

k

i = 1

cx

i

i

 

2

k

i = 1

2

nc

i

i

Y tiene un solo gl.

Para probar un contraste se debe comparar su suma de cuadrados con el CME.

La estadística que resulta tiene una distribución F con 1 y n-k gl.

Contrastes ortogonales En el caso de un diseño balanceado dos contrastes C 1 k =
Contrastes ortogonales En el caso de un diseño balanceado dos contrastes C 1 k =

Contrastes ortogonales

En el caso de un diseño balanceado dos contrastes

C

1

k

=

i = 1

cµ

1 i

i

y

C

2

k

=

i = 1

c µ

2 i

i

son ortogonales si la

suma del producto de los coeficientes es igual a cero, esto es, si

k

1

cc =

i

2

i

0

i = 1

Para el diseño desbalanceado son ortogonales si

k

i

nc c =

1

i

2

i

i = 1

0

 

Contrastes ortogonales

Si se tienen k tratamientos se pueden construir una infinidad de conjuntos de k-1 contrastes ortogonales entre sí.

Con el uso de contrastes ortogonales se pueden construir un grupo de hipótesis de interés independientes entre sí.

La sumatoria de las sumas de cuadrados de los contrastes ortogonales es igual a la suma de cuadrados de tratamientos del ANOVA.

 

Ejemplo

Un ingeniero está interesado en medir la resistencia a la tensión de una nueva fibra sintética que se empleará en la fabricación de camisas.

Se sabe por experiencia que la resistencia es influida por el porcentaje de algodón presente en la fibra.

Se hacen al azar 5 ensayos con 5 niveles de porcentaje de algodón: 15, 20, 25, 30 y 35%.

Se obtienen los siguientes resultados

Ejemplo

 
 

Porcentaje de algodón

 
 

15

20

25

30

35

7

12

14

19

7

7

17

18

25

10

15

12

18

22

11

11

18

19

19

15

9

18

19

23

11

Existen 5 medias de tratamientos y 4 gl entre estos tratamientos.

El conjunto de comparaciones entre estas medias y los contrastes ortogonales asociados se presentan a continuación.

Ejemplo H H 0 H H 0 Hipótesis 0 : µ = µ 4 5
Ejemplo H H 0 H H 0 Hipótesis 0 : µ = µ 4 5
Ejemplo H H 0 H H 0 Hipótesis 0 : µ = µ 4 5
Ejemplo H H 0 H H 0 Hipótesis 0 : µ = µ 4 5
Ejemplo H H 0 H H 0 Hipótesis 0 : µ = µ 4 5
Ejemplo H H 0 H H 0 Hipótesis 0 : µ = µ 4 5

Ejemplo

H

H

0

H

H

0

Hipótesis

0

: µ =µ

4

5

: µ +µ =µ +µ

1

3

4

5

0

: µ =µ

1

3

: 4µ =µ +µ +µ +µ

2

1

3

4

5

C

1

C

2

C

3

C

4

Contraste

=

=

X

1

=

X

1

=−

X

1

+

+

X

3

4X

2

X

3

X

3

X

4

X

4

+

X

4

X

5

X

5

X

5

Notar que los contrastes son ortogonales.

Probaremos las hipótesis con el programa SPSS.

Ejemplo
Ejemplo
Ejemplo

Ejemplo

Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo

Ejemplo

Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo

Ejemplo

Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo

Ejemplo

Ejemplo
Ejemplo
Ejemplo

Ejemplo

Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo

Ejemplo

Ejemplo
Ejemplo
Ejemplo Se concluye que hay diferencias significativa entre los porcentajes de algodón 4 y 5
Ejemplo Se concluye que hay diferencias significativa entre los porcentajes de algodón 4 y 5
Ejemplo Se concluye que hay diferencias significativa entre los porcentajes de algodón 4 y 5
Ejemplo Se concluye que hay diferencias significativa entre los porcentajes de algodón 4 y 5
Ejemplo Se concluye que hay diferencias significativa entre los porcentajes de algodón 4 y 5
Ejemplo Se concluye que hay diferencias significativa entre los porcentajes de algodón 4 y 5

Ejemplo

Ejemplo Se concluye que hay diferencias significativa entre los porcentajes de algodón 4 y 5 y

Se concluye que hay diferencias significativa entre los porcentajes de algodón 4 y 5 y los de 1 y 3, pero el promedio de los porcentajes 1 y 3 no difiere del promedio de 4 y 5, como tampoco el 2 difiere del promedio de los otros 4 porcentajes.

Contrastes simultáneos

Supongamos que se tiene un conjunto de m contrastes de las medias de tratamientos

Γ

u

= c µ + c µ + L + c µ

1u

1

2u

2

ku k

u

= 1, 2,

,

m

El contraste correspondiente usando los promedios muestrales es

C

u

=

c x

1u

1

+

c x

2u

2

+ L +

c x

ku k

u = 1, 2,

,

m

El error estándar de este contraste es

S =

C

u

k

2

c

iu

CME

i = 1 n i

i = 1

n

i

Contrastes simultáneos

Si

C

u

>

k 2 c ∑ iu ( k − F 1) CME α − , k
k
2
c
∑ iu
(
k − F
1)
CME
α −
,
k
1,
n k
n
i
= 1
i

La hipótesis nula de que el contraste cero debe ser rechazada.

Γ

u es igual a

Este procedimiento (de Scheffé) también puede usarse para construir intervalos de confianza para todos los contrastes de las medias de los tratamientos

Γ

u

k 2 c ∑ iu ± k − F ( 1) CME α − ,
k
2
c
∑ iu
± k − F
(
1)
CME
α −
,
k
1,
n k
n
i
= 1
i
Contrastes simultáneos Estos son intervalos de confianza simultáneos en el sentido de que la probabilidad
Contrastes simultáneos Estos son intervalos de confianza simultáneos en el sentido de que la probabilidad
Contrastes simultáneos Estos son intervalos de confianza simultáneos en el sentido de que la probabilidad
Contrastes simultáneos Estos son intervalos de confianza simultáneos en el sentido de que la probabilidad
Contrastes simultáneos Estos son intervalos de confianza simultáneos en el sentido de que la probabilidad
Contrastes simultáneos Estos son intervalos de confianza simultáneos en el sentido de que la probabilidad

Contrastes simultáneos

Estos son intervalos de confianza simultáneos en el sentido de que la probabilidad de que todos ellos sean simultáneamente verdaderos es al menos 1α

ESTADISTICA APLICADA Comparaciones múltiples Agosto 2011
ESTADISTICA APLICADA Comparaciones múltiples Agosto 2011
ESTADISTICA APLICADA Comparaciones múltiples Agosto 2011
ESTADISTICA APLICADA Comparaciones múltiples Agosto 2011
ESTADISTICA APLICADA Comparaciones múltiples Agosto 2011
ESTADISTICA APLICADA Comparaciones múltiples Agosto 2011

ESTADISTICA APLICADA

Comparaciones múltiples

Agosto 2011

Introducción Si se rechaza la hipótesis nula H 0 : µ = µ = L

Introducción

Si se rechaza la hipótesis nula

H

0

:

µ =µ =L=µ

1

2

k

es decir, si la prueba F del ANOVA resulta significativa e indica que no todas las medias son iguales es importante determinar cuales son las medias que no son iguales entre si.

Los procedimiento para efectuar estas comparaciones se conocen como métodos de comparación múltiple.

La comparación de pares de medias se resuelve utilizando intervalos de confianza para diferencias de medias o pruebas de hipótesis de pares de medias.

Introducción

Observe que si k es el número de medias se debe

realizar

medias.

k

  

2

comparaciones de pares de

k

C

2

=

El problema de la comparación múltiple se puede resolver usando varios métodos.

Cualquiera que sea el método usado las hipótesis a probar son:

H

0

:

µ =µ

i

j

,

H µ µ

1

:

i

j

ij i j=

,

1, 2,

,

k

Prueba de Scheffé

Si

Prueba de Scheffé Si • − x j • > n + n i j CME

x

j

>

n + n i j CME ( k − 1) ⋅ F 1 − α
n
+ n
i
j
CME ( k
1)
F
1
α
;
k
1;
n
k
⋅ n
n i
j

Se rechaza H0, con un nivel de significación del

α%

En caso contrario no se rechaza.

Prueba de la diferencia mínima significativa (DMS)

Si

Prueba de la diferencia mínima significativa (DMS) Si • − x j • > t α

x

j

>

t

α

/ 2 ;

n

k

 CME   1 1  +   n n  i j
CME  
1
1
+
n
n
i
j

Se rechaza H0, con un nivel de significación del en caso contrario no se rechaza.

α%

La prueba DMS utiliza pruebas t de Student para llevar a cabo las comparaciones, pero el defecto de este procedimiento es que si cada prueba t se

realiza con un nivel de significación del

entonces la probabilidad total de cometer un error

tipo I es superior a

α%

α

Prueba de Tukey

Si

x i
x
i

x

j

> q

α

,

k

ν

,

CME n
CME
n

Se rechaza H0, con un nivel de significación del en caso contrario no se rechaza.

α%

q α

,k ,

ν

es el estadístico estandarizado de Student se

obtiene de tablas

ν son los gl del error

Prueba de Dunnett

En ocasiones interesa comparar los tratamientos con un control, supongamos que éste sea el tratamiento a.

Se desean probar las hipótesis

H

0

:

µ =µ

i

a

,

H µ µ

1

:

i

a

i=

1, 2,

H0 es rechazada con un error

α si

,

a

d

α

x i
x
i

( k

x

a

1,

ν

)

 1 1  > d ( k − 1, ν ) CME + 
1
1
>
d
(
k
1,
ν
)
CME
+
α
n
n
i
a
se obtiene de tablas

1

Ejemplo Veamos el ejemplo del algodón
Ejemplo Veamos el ejemplo del algodón
Ejemplo Veamos el ejemplo del algodón
Ejemplo Veamos el ejemplo del algodón
Ejemplo Veamos el ejemplo del algodón
Ejemplo Veamos el ejemplo del algodón

Ejemplo

Veamos el ejemplo del algodón

Ejemplo Veamos el ejemplo del algodón
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Ejemplo

Ejemplo

Ejemplo

Curva de respuesta

Si un factor es cuantitativo el experimentador puede estar interesado en la respuesta de un nivel intermedio en el rango de los valores utilizados y poder ajustar un polinomio a los datos.

Por ejemplo

Y=β +βx+β x +β x +ε

0

1

2

3

2

3

Donde Y es la variable respuesta y x los niveles de los factores.

Generalmente se utiliza un procedimiento de polinomios ortogonales

Y

=α +αP(x) +α P (x) +α P (x) +ε

0

1

1

2

2

3

3

 

Curva de respuesta

La opción “polinómico” en SPSS permite obtener comparaciones de tendencia.

Si la variable independiente es cuantitativa esta

opción permite determinar cual es el tipo de relación (lineal, cuadrática, cúbica, etc).

Cada polinomio o tendencia es un componente ortogonal (independiente) de la suma de cuadrados intergrupo.

El número máximo de polinomios que podemos obtener es el número de grados de libertad de la suma de cuadrados intergrupo.

 

Curva de respuesta

Si los niveles de la variable independiente están igualmente espaciados y todos los grupos tienen el mismo tamaño SPSS ofrece una solución no ponderada en la que cada polinomio es efectivamente, un componente independiente de la suma de cuadrados intergrupo.

Si los niveles de la variable independiente no están igualmente espaciados y/o los grupos tienen el mismo tamaño SPSS ofrece una solución ponderada.

Curva de respuesta En opciones marcar gráfico de las medias
Curva de respuesta En opciones marcar gráfico de las medias
Curva de respuesta En opciones marcar gráfico de las medias
Curva de respuesta En opciones marcar gráfico de las medias
Curva de respuesta En opciones marcar gráfico de las medias
Curva de respuesta En opciones marcar gráfico de las medias

Curva de respuesta

Curva de respuesta En opciones marcar gráfico de las medias

En opciones marcar gráfico de las medias

Curva de respuesta Lineal: no es significativa (H0 la tendencia es nula) Cuadratica: es significativa
Curva de respuesta Lineal: no es significativa (H0 la tendencia es nula) Cuadratica: es significativa
Curva de respuesta Lineal: no es significativa (H0 la tendencia es nula) Cuadratica: es significativa
Curva de respuesta Lineal: no es significativa (H0 la tendencia es nula) Cuadratica: es significativa
Curva de respuesta Lineal: no es significativa (H0 la tendencia es nula) Cuadratica: es significativa
Curva de respuesta Lineal: no es significativa (H0 la tendencia es nula) Cuadratica: es significativa

Curva de respuesta

Curva de respuesta Lineal: no es significativa (H0 la tendencia es nula) Cuadratica: es significativa Cubica:

Lineal: no es significativa (H0 la tendencia es nula) Cuadratica: es significativa Cubica: es significativa Es cubica

Curva de respuesta Si pusieramos 4 orden no es significativa
Curva de respuesta Si pusieramos 4 orden no es significativa
Curva de respuesta Si pusieramos 4 orden no es significativa
Curva de respuesta Si pusieramos 4 orden no es significativa
Curva de respuesta Si pusieramos 4 orden no es significativa
Curva de respuesta Si pusieramos 4 orden no es significativa

Curva de respuesta

Si pusieramos 4 orden no es significativa

Curva de respuesta Si pusieramos 4 orden no es significativa
Curva de respuesta

Curva de respuesta

Curva de respuesta
Curva de respuesta

Curva de respuesta

Curva de respuesta