Está en la página 1de 23

UNIVERSIDAD ANDINA

“NÉSTOR CÁCERES VELÁSQUEZ”


FACULTAD DE INGENIERIA Y CIENCIAS PURAS
ESCUELA PROFESIONAL DE INGENIERIA SANITARIA Y AMBIENTAL

PRUEBA DE MANCOVA

DOCENTE: Ing. JHON RICHARD HUANCA SUAQUITA


PRESENTADO POR:
 ZAPANA YANA VERÓNICA
 TURPO LEÓN VANESSA
 BAEZ ORTIZ KELY KATHERIN
 MAQUERA VANEGAS HEIDY NATALIA
SECCION: VII “B”QUENALLATA POMA LIZBETH
 CCAHUANA ALANOCCA HEBERTH AMADOR
 COAQUIRA CANAZA JHONA YULISA

JULIACA – PUNO - PERÚ


2019
Contenido
I.INTRODUCCION ........................................................................................................ 3
II.OBJETIVOS…………………………………………………………………………………..4
2.1 OBJETIVO GENERAL…………………………………………………………………4
III. CONTENIDO TEMATICO ....................................................................................... 4
3.1¿QUE ES MANCOVA?......................................................................................... 4
3.2CRITERIO DE DECISIÓN .................................................................................... 5
3.3LA ESTADÍSTICA INFERENCIAL ........................................................................ 5
3.4TIPOS DE MANCOVA ......................................................................................... 6
3.4.1 Covariables / Covarianza Definida ................................................................ 6
3.5 DIFERENCIAS ENTRE MANCOVA Y OTRAS PRUEBAS SIMILARES .................. 6
3.5.1 SUPOSICIONES.................................................................................................. 7
3.6 VENTAJA DE MANCOVA ....................................................................................... 7
3.7 CORRELACIÓN DE PEARSON ............................................................................. 8
3.7.1 INTERPRETACIÓN .......................................................................................... 8
3.8 El MANCOVA unidireccional en SPSS.................................................................... 8
3.9 MANCOVA de medidas repetidas en SPSS............................................................ 9
IV. DESARROLLO EN EL IBM SPSS………………………………………………………..9
4.1 PLANTEAMIENTO DEL PROBLEMA…………………………………………………...9
V.CONCLUSIONES………………………………………………………………………12
V.IBLIOGRAFIA……………………………………………………………………………..12
I. INTRODUCCION

El análisis multivariado de covarianza de una vía (MANCOVA) se puede considerar


como una extensión del MANOVA de una vía para incorporar una covariable o una
extensión de la ANCOVA de una vía para incorporar múltiples variables
dependientes. Esta covariable está relacionada linealmente con las variables dependientes
y su inclusión en el análisis puede aumentar la capacidad de detectar diferencias entre
grupos de una variable independiente. Se utiliza MANCOVA unidireccional para
determinar si existen diferencias estadísticamente significativas entre las medias
ajustadas de dos o más grupos independientes (no relacionados), que han controlado una
covariable continua.

Al igual que con ANCOVA univariante, los investigadores a menudo desean controlar
los efectos de las variables concomitantes en un diseño multivariado. La técnica de
análisis apropiada para esta situación es un análisis multivariado de covarianza, o
MANCOVA. El análisis multivariado de covarianza es esencialmente una combinación
de MANOVA y ANCOVA. MANCOVA pregunta si existen diferencias de significancia
estadísticamente significativas entre los grupos después de ajustar el DV recientemente
creado (una combinación lineal de todos los DV originales) para las diferencias en una o
más covariables.
II. OBJETIVOS
2.1 OBJETIVO GENERAL
Conocer el comportamiento de la prueba de mancova
2.2 OBJETIVOS ESPECIFICOS
Realizar las hipótesis de normalidad e interpretar
Realizar la hipótesis general e interpretar

III. CONTENIDO TEMATICO

3.1 ¿QUE ES MANCOVA?


MANCOVA (Análisis multivariado de la covarianza) es la contraparte multivariable
de ANCOVA . MANCOVA le informa si existen diferencias de medias estadísticamente
significativas entre los grupos. En otras palabras, le indica si las diferencias entre los
grupos probablemente ocurrieron por casualidad, o si hay una tendencia repetible .

Figura 1:

Entre la Varianza en grupo varianza de


grupo

Fuente:

MANCOVA elimina los efectos de una o más covariables de su modelo ; Esto le


permite ver el efecto real de sus variables independientes en sus variables
dependientes sin interferencias no deseadas. Esta prueba supercargada tiene un costo: se
necesita un tamaño de muestra mucho mayor . Esto puede no valer el tiempo y los gastos
adicionales; la mayoría de las veces, un MANOVA (es decir, la misma prueba sin mirar
las covariables) puede ser más poderoso.

3.2 CRITERIO DE DECISIÓN

Un contraste estadístico de hipótesis consta forzosamente de un criterio de decisión. En


resumen, consiste en una regla operativa que divide en dos partes disjuntas el espacio
muestral. Estas partes son designadas región crítica y región de
aceptación respectivamente.

En cualquier test estadístico, si la muestra obtenida pertenece a la región crítica, debe


aceptarse H1. En caso contrario, si pertenece a la región de aceptación se aceptará H0

1 o mas variables 2x2 2 variables


independientes dependientes ¿tienes una
MANOVA MANCOVA
con dos o mas o mas co-variable?
grupos

JXK

3.3 LA ESTADÍSTICA INFERENCIAL

Es una parte de la estadística que comprende los métodos y procedimientos que por
medio de la inducción determina propiedades de una población estadística, a partir de
una parte de esta. Su objetivo es obtener conclusiones útiles para hacer deducciones sobre
una totalidad, basándose en la información numérica de la muestra.

Se dedica a la generación de los modelos, inferencias y predicciones asociadas a los


fenómenos en cuestión teniendo en cuenta la aleatoriedad de las observaciones. Se usa
para modelar patrones en los datos y extraer inferencias acerca de la población bajo
estudio. Estas inferencias pueden tomar la forma de respuestas a preguntas sí/no (prueba
de hipótesis), estimaciones de unas características numéricas(estimación), pronósticos de
futuras observaciones, descripciones de asociación (correlación) o modelamiento de
relaciones entre variables de Sam (análisis de regresión)
ESTADISTICA
INFERENCIA

ESTADISTICA ESTADISTICA
PARAMETRICA NO
PARAMETRICA

VARIABLE DEPENDIENTE VARIABLE DEPENDIENTE


Homogeneidad de varianzas Homogeneidad de varianzas
Asignación y selección aleatoria de los
grupos
VARIABLE INDEPENDIENTE VARIABLE INDEPENDIENTE
Distribución normal Distribución normal
Nivel de medición nominal u ordinal

3.4 TIPOS DE MANCOVA


 Un MANCOVA unidireccional necesita al menos cuatro variables. Una variable
independiente más una o más variables dependientes y una o más covariables.
 Un MANCOVA de dos vías incluye dos variables independientes.

3.4.1 Covariables / Covarianza Definida

La covarianza es una medida de cuánto varían juntas dos variables aleatorias . Es similar
a la varianza, pero donde la varianza se explica cómo una sola variable varía, co -variance
le indica cómo dos variables varían juntos. Una covariable puede ser una de estas dos
variables. Es cualquier variable que afecta la forma en que sus variables independientes
actúan sobre sus variables dependientes. Por ejemplo, las variables de confusión son
covariables.

3.5 DIFERENCIAS ENTRE MANCOVA Y OTRAS PRUEBAS SIMILARES

MANCOVA, MANOVA, ANOVA, ANCOVA: todo puede ser un poco confuso recordar
cuál es cuál. Sin embargo, todas las pruebas se pueden considerar como variantes de
MANCOVA, si recuerda que la " M " en M ANCOVA significa Múltiple y la " C "
significa Covariantes.
 ANOVA : un MANCOVA sin múltiples variables dependientes y covariables (de ahí
la M y C que faltan).
 ANCOVA : un MANCOVA sin múltiples variables dependientes (de ahí la M que
falta).
 MANOVA : MANCOVA sin covariables (de ahí la C que falta).

3.5.1 SUPOSICIONES

Las observaciones son independientes: es decir que se emplea un muestreo aleatorio,


observaciones no son susceptibles a la influencia de otras observaciones. Esto reduce el
error de tipo I.

variables dependientes multivariantes se distribuyen normalmente para cada grupo. En


otras palabras, cualquier combinación lineal de las variables se distribuye normalmente.
Esto incluye la evaluación de la normalidad de cada nivel de cada variable para cada
grupo. Esto reduce el error de tipo I.

Las matrices de covarianza para variables dependientes son iguales. Esto reduce el error
de tipo I y aumenta el poder estadístico.

Debe haber una relación lineal entre la variable (s) dependiente y la covariable.

La pendiente de la línea de regresión para la covariable es la misma en cada grupo.

3.6 VENTAJA DE MANCOVA

La principal ventaja de MANCOVA sobre MANOVA es el hecho de que el investigador


puede incorporar una o más covariables en el análisis. Los efectos de estas covariables se
eliminan del análisis, dejando al investigador una imagen más clara de los efectos reales
de la IV(s) en los múltiples DV. Existen dos razones principales para incluir varias (es
decir, más de una) covariables en el análisis.
3.7 CORRELACIÓN DE PEARSON

El coeficiente de correlación de Pearson es una medida lineal entre dos variables


aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson es
independiente de la escala de medida de las variables.

De manera menos formal, podemos definir el coeficiente de correlación de Pearson como


un índice que puede utilizarse para medir el grado de relación de dos variables siempre y
cuando ambas sean cuantitativas y continuas.

3.7.1 INTERPRETACIÓN

El valor del índice de correlación varía en el intervalo [-1,1], indicando el signo el sentido
de la relación:

 Si r = 1, existe una correlación positiva perfecta. El índice indica una dependencia


total entre las dos variables denominada relación directa: cuando una de ellas
aumenta, la otra también lo hace en proporción constante.
 Si 0 < r < 1, existe una correlación positiva.
 Si r = 0, no existe relación lineal. Pero esto no necesariamente implica que las
variables son independientes: pueden existir todavía relaciones no lineales entre las
dos variables.
 Si -1 < r < 0, existe una correlación negativa.
 Si r = -1, existe una correlación negativa perfecta. El índice indica una dependencia
total entre las dos variables llamada relación inversa: cuando una de ellas aumenta,
la otra disminuye en proporción constante.

3.8 El MANCOVA unidireccional en SPSS

El MANCOVA unidireccional es parte de los modelos lineales generales en SPSS. El


procedimiento GLM en SPSS tiene la capacidad de incluir de 1 a 10 covariables en un
modelo de MANCOVA. Sin una covariable, el procedimiento GLM (modelo lineal
generalizado) calcula los mismos resultados que el MANOVA. Los niveles de medición
deben definirse por adelantado para que el procedimiento GLM (modelo lineal
generalizado) funcione correctamente.

3.9 MANCOVA de medidas repetidas en SPSS

Medidas repetidas MANCOVA se usa para examinar cómo varía una variable
dependiente (VD) a lo largo del tiempo, utilizando múltiples mediciones de esa
variable, con cada medición separada por un período de tiempo
determinado. Además de determinar si el DV varía, un MANCOVA también
puede determinar si otras variables predicen la variabilidad en el DV a lo largo
del tiempo.

IV. DESARROLLO EN EL IBM SPS

 NORMALIDAD

 Si Sig. (p-valor) > 0.05 aceptamos H0 (hipótesis nula) → distribución normal


 Si Sig. (p-valor) < 0.05 rechazamos H0 (hipótesis nula) → distribución no
normal

 correlación de Pearson

 análisis multivariante

4.1 PLANTEAMIENTO DEL PROBLEMA

Ejemplo 1: un investigados esta interesado en saber si existen diferencias en el costo y

dias de tratamiento que reciben los pacientes dependieno si han recibido un distinto

tratamiento(a,b,c);ademas desea saber si el apoyo familiar influye en el tratamiento


Abrir el programa ibm spss

Matriz de datos
REALIZAR LA NORMALIDAD
Analizar-estadisticos descriptivos- explorar

Cargar las variables e ir


Graficos- activar graficos de normalidad –continuar-aceptar
Pruebas de normalidad

TRATAMIENT Kolmogorov-Smirnova Shapiro-Wilk

O Estadístico gl Sig. Estadístico gl Sig.

PRECIO.TRATAMIEN A ,260 50 ,064 ,947 50 ,030


TO B ,260 50 ,065 ,915 50 ,008

C ,231 50 ,060 ,858 50 ,000

TIEMPO.TRATAMIEN A ,141 50 ,054 ,958 50 ,072


DO B ,113 50 ,150 ,973 50 ,293

C ,237 50 ,061 ,885 50 ,000

a. Corrección de significación de Lilliefors

HIPOTESIS DE NORMALIDAD
El ritual de la significancia estadística

Plantear Hipótesis
1 Ho: EL CONJUNTO DE DATOS SI CUENTA CON DISTRIBUSION NORMAL
H1: EL CONJUNTO DE DATOS NO CUENTA CON DISTRIBUSION NORMAL

2 Establecer un nivel de significancia


Nivel de Significancia (alfa) α = 0.05 5%

Seleccionar estadístico de prueba (Resaltarla con amarillo)


a) Kolmogorov-Smirnov

3 b) Kolmogorov-Smirnov Lilliefors
c) Shapiro–Wilk
d) Anderson-Darling
e) T de Student para muestras Independientes

Toma de decisiones (dar como respuesta una de las Hipótesis)


4
ACEPTAMOS LA HO, POR TANTO RECHAZAMOS HA.
Interpretación
EL CONJUNTO DE DATOS SI TIENE O CUENTA CON DISTRIBUSION NORMAL.
HACER LA CORRELCION DE PEARSON
Dentramos analizar – correlacion- bivariadas

Cargamos muestras variables dependientes para saber si estan correlacionadas y


aceptar.
Correlacion

Correlaciones

PRECIO.TRAT TIEMPO.TRATA APOYO.FAMILI


AMIENTO MIENDO AR

PRECIO.TRATAMIENTO Correlación de Pearson 1 -,783** ,089

Sig. (bilateral) ,000 ,277

N 150 150 150


TIEMPO.TRATAMIENDO Correlación de Pearson -,783** 1 -,045
Sig. (bilateral) ,000 ,583
N 150 150 150
APOYO.FAMILIAR Correlación de Pearson ,089 -,045 1

Sig. (bilateral) ,277 ,583

N 150 150 150

**. La correlación es significativa en el nivel 0,01 (2 colas).

Donde aquí nos sale por arriba de nuestra significancia y esto quiere decir que no
tiene relacion directamente.
Realizar el analisis multivariante
Analizar modelo - linial general- multivariante

Cargamos las variables dependientes con nuestra co-variable


Ahora a opciones
Dentrar a graficos y añadir tratamiento continuar y aceptar

MODELO LINEAL GENERAL

Factores inter-sujetos

Etiqueta de
valor N

TRATAMIENTO 1 A 50

2 B 50

3 C 50

Estadísticos descriptivos

Desviación
TRATAMIENTO Media estándar N
PRECIO.TRATAMIENTO A 617,44 241,897 50

B 494,36 76,176 50

C 180,70 51,720 50

Total 430,83 236,782 150


TIEMPO.TRATAMIENDO A 17,68 3,455 50

B 30,20 6,540 50

C 89,50 6,358 50

Total 45,79 31,924 150


La prueba de cuadro de la igualdad de
matrices de covarianzasa

M de Box 151,580
F 24,767
df1 6
df2 538562,769
Sig. ,000

Prueba la hipótesis nula que las matrices de


covarianzas observadas de las variables
dependientes son iguales entre los grupos.

a. Diseño : Interceptación +
APOYO.FAMILIAR + TRATAMIENTO

Pruebas multivariantea

Efecto Valor F Gl de hipótesis gl de error Sig.

Interceptación Traza de Pillai ,897 629,336b 2,000 145,000 ,000

Lambda de Wilks ,103 629,336b 2,000 145,000 ,000

Traza de Hotelling 8,680 629,336b 2,000 145,000 ,000

Raíz mayor de Roy 8,680 629,336b 2,000 145,000 ,000


APOYO.FAMILIAR Traza de Pillai ,008 ,618b 2,000 145,000 ,540
Lambda de Wilks ,992 ,618b 2,000 145,000 ,540
Traza de Hotelling ,009 ,618b 2,000 145,000 ,540
Raíz mayor de Roy ,009 ,618b 2,000 145,000 ,540
TRATAMIENTO Traza de Pillai ,990 71,544 4,000 292,000 ,000

Lambda de Wilks ,030 345,457b 4,000 290,000 ,000

Traza de Hotelling 31,569 1136,483 4,000 288,000 ,000

Raíz mayor de Roy 31,548 2302,995c 2,000 146,000 ,000

a. Diseño : Interceptación + APOYO.FAMILIAR + TRATAMIENTO


b. Estadístico exacto
c. El estadístico es un límite superior en F que genera un límite inferior en el nivel de significación.

Prueba de igualdad de Levene de varianzas de errora

F df1 df2 Sig.


PRECIO.TRATAMIENTO 59,072 2 147 ,000
TIEMPO.TRATAMIENDO 5,854 2 147 ,004
Prueba la hipótesis nula que la varianza de error de la variable dependiente es
igual entre grupos.
a. Diseño : Interceptación + APOYO.FAMILIAR + TRATAMIENTO

Pruebas de efectos inter-sujetos

Tipo III de
suma de Cuadrático
Origen Variable dependiente cuadrados gl promedio F Sig.

Modelo corregido PRECIO.TRATAMIENT


5098848,268a 3 1699616,089 76,235 ,000
O

TIEMPO.TRATAMIEND
147189,804b 3 49063,268 1536,915 ,000
O
Interceptación PRECIO.TRATAMIENT
2297216,055 1 2297216,055 103,040 ,000
O
TIEMPO.TRATAMIEND
31892,289 1 31892,289 999,031 ,000
O
APOYO.FAMILIA PRECIO.TRATAMIENT
27629,775 1 27629,775 1,239 ,267
R O
TIEMPO.TRATAMIEND
,591 1 ,591 ,019 ,892
O
TRATAMIENTO PRECIO.TRATAMIENT
5032237,668 2 2516118,834 112,859 ,000
O
TIEMPO.TRATAMIEND
146880,396 2 73440,198 2300,526 ,000
O
Error PRECIO.TRATAMIENT
3254970,565 146 22294,319
O
TIEMPO.TRATAMIEND
4660,789 146 31,923
O
Total PRECIO.TRATAMIENT
36196423,000 150
O
TIEMPO.TRATAMIEND
466405,000 150
O
Total corregido PRECIO.TRATAMIENT
8353818,833 149
O

TIEMPO.TRATAMIEND
151850,593 149
O

a. R al cuadrado = ,610 (R al cuadrado ajustada = ,602)


b. R al cuadrado = ,969 (R al cuadrado ajustada = ,969)
MEDIAL MARGINALES ESTIMADAS
TRATAMIENTO

Estimaciones

Intervalo de confianza al 95%

Variable dependiente TRATAMIENTO Media Error estándar Límite inferior Límite superior

PRECIO.TRATAMIENTO A 617,259a 21,117 575,525 658,993


B 493,635a 21,126 451,883 535,388

C 181,606a 21,132 139,842 223,370


TIEMPO.TRATAMIENDO A 17,681a ,799 16,102 19,260

B 30,203a ,799 28,623 31,783

C 89,496a ,800 87,915 91,076

a. Las covariables que aparecen en el modelo se evalúan en los valores siguientes: APOYO.FAMILIAR = 1,49.

Comparaciones por parejas

(I) (J) Diferencia 95% de intervalo de


Variable TRATAMIEN TRATAMIEN de medias Error confianza para
dependiente TO TO (I-J) estándar Sig.b diferenciab
Límite Límite
inferior superior

PRECIO.TRATA A B 123,624* 29,867 ,000 51,290 195,957


MIENTO C 435,653* 29,879 ,000 363,291 508,015

B A -123,624* 29,867 ,000 -195,957 -51,290

C 312,029* 29,898 ,000 239,619 384,440

C A -435,653* 29,879 ,000 -508,015 -363,291

B -312,029* 29,898 ,000 -384,440 -239,619


TIEMPO.TRATA A B -12,523* 1,130 ,000 -15,260 -9,785
MIENDO C -71,815* 1,131 ,000 -74,553 -69,077

B A 12,523* 1,130 ,000 9,785 15,260

C -59,292* 1,131 ,000 -62,033 -56,552

C A 71,815* 1,131 ,000 69,077 74,553

B 59,292* 1,131 ,000 56,552 62,033

Se basa en medias marginales estimadas


*. La diferencia de medias es significativa en el nivel .05.
b. Ajuste para varias comparaciones: Bonferroni.

Pruebas multivariante

Valor F Gl de hipótesis gl de error Sig.

Traza de Pillai ,990 71,544 4,000 292,000 ,000


Lambda de Wilks ,030 345,457a 4,000 290,000 ,000
Traza de Hotelling 31,569 1136,483 4,000 288,000 ,000
Raíz mayor de Roy 31,548 2302,995b 2,000 146,000 ,000

Cada F prueba el efecto multivariante de TRATAMIENTO. Estas pruebas se basan en las


comparaciones por parejas linealmente independientes entre las medias marginales
estimadas.
a. Estadístico exacto
b. El estadístico es un límite superior en F que genera un límite inferior en el nivel de
significación.
Pruebas univariadas

Suma de Cuadrático
Variable dependiente cuadrados gl promedio F Sig.

PRECIO.TRATAMIENTO Contraste 5032237,668 2 2516118,834 112,859 ,000

Error 3254970,565 146 22294,319


TIEMPO.TRATAMIENDO Contraste 146880,396 2 73440,198 2300,526 ,000

Error 4660,789 146 31,923

F prueba el efecto de TRATAMIENTO. Esta prueba se basa en las comparaciones por parejas linealmente
independientes entre las medias marginales estimadas.

GRAFICOS PERFIL

ORECIO.TRATAMIENTO
TIEMPO.TRATAMIENTO
V. CONCLUSIONES

Se realizo la hipotesis de normalidad donde el conjunto de datos si tiene o cuenta


con distribusion normal.

En la hipotesis general aceptamos la HA : existen diferencias en el costo y dias de


tartamiento de un pacientes que recieben uno de los tres trataminetos diferentes

VI. BIBLIOGRAFIA
Home | Academic Solutions | Directory of Statistical Analyses | (M)ANOVA
Analysis | Multivariate Analysis of Covariance (MANCOVA)
http://www.statsmakemecry.com/smmctheblog/stats-soup-anova-ancova-
manova-mancova

También podría gustarte