Está en la página 1de 27

TECNOLÓGICO NACIONAL DE MEXICO

CAMPUS MATAMOROS INGENIERÍA INDUSTRIAL.


ESTADÍSTICA INFERENCIAL II.

TRABAJO UNIDAD #3

Profesor. Juan Carlos González Almaguer.

Equipo #2

Integrantes:
Roberto González Hermosillo.

Luis Andrés Aguilar Hernández.

Mariela Ali Martínez Sánchez.

Kassandra Villarreal Mendiola.

José Alberto Hurtado Arévalo.

H.MATAMOROS,TAMPS. 01/05/2020
Indice
3.4. comparaciones o pruebas de rango multiple………………………….3
Prueba de tuckey………………………………………………………………7
Comparador SNK………………………………………………………………8
Metodo LSD Fisher……………………………………………………………10
Metodo de Benforroni…………………………………………………………11
Comparacion de Duncan……………………………………………………..12
Comparacion Dunett…………………………………………………………..12
Comparaciones multiples de medias………………………………………..14
Diferencia minima significativa……………………………………………….14
Metodo de sidak……………………………………………………………….16
3.5 verifiacion de los supuestos del metodo………………………………..16
Normalidad……………………………………………………………………...21
Varianza constante…………………………………………………………….22
Independencia…………………………………………………………………..23
Validar los supuestos metodos en regresion o ANOVA……………………23
Bibliografia ç…………………………………………………………………….27
3.4 Comparaciones o pruebas de rango múltiple
Una F significativa contesta en forma afirmativa que hay diferencias entre los
tratamientos que se sometieron a prueba, pero no establece cuáles de ellos son
diferentes entre sí. Para saber esto, se recurre a otras técnicas conocidas como pruebas
de rango múltiple. Aquí analizaremos las más comúnmente usadas, a saber:

• Diferencia Mínima Significativa (DMS) para hacer comparaciones entre medias


adyacentes.
• Comparador Duncan para hacer cualquier combinación posible de
comparaciones entre un grupo de medias.
• Comparador Tukey, para experimentos que implican un número elevado de
comparaciones o que se desea una prueba más rigurosa que la de Duncan.
• Comparador SNK (Student Newman Keuls), similar en metodología a Duncan
pero con un nivel intermedio de rigurosidad.
• Comparador Dunnet, empleada para hacer comparaciones entre los
tratamientos y el testigo.

La prueba de rango múltiple Duncan es una comparación de las medias de tratamientos


todos contra todos de manera que cualquier diferencia existente entre cualesquiera
tratamientos contra otro se verá reflejado en este análisis. Utiliza un nivel de significancia
variable que depende del número de medias que entran en cada etapa de comparación.
La idea es que a medida que el número de medias aumenta, la probabilidad de que se
asemejen disminuye.

Para obtener los comparadores Duncan, se toman de la tabla de Duncan los valores de
acuerdo al número de tratamientos y con los grados de libertad del error. Cada uno de
estos valores será multiplicado por el error estándar de la media y éstos serán los
comparadores para determinar cuáles diferencias son significativas

3
El error estándar de la media sería:

La comparación de las diferencias se hace en forma diagonal, o sea que en el ejemplo


el comparador 0.42 sirve para comparar las diferencias 0.29, 0.34 y 0.31. Se acostumbra
marcar con un asterisco las diferencias que resultan significativas (al 5% de probabilidad)
y con dos asteriscos las que sean altamente significativas (al 1% de probabilidad).

4
La prueba de rangos múltiples de duncan utiliza también el concepto de rangos
estudiando. si tenemos que tratamientos calculamos y el rango (o mar la diferencia entre
el valor máximo y el valor mínimo) de la ONU subconjunto de p medios, ordenadas en
forma creciente, diremos que los tratamientos correspondientes a las medias muéstrales
extremas, con las cuales se calculó el rango, son diferentes si este excede cierto valor,
p r que llamaremos el rango mínimo significativo para las p medios ordenados, donde:

Y es el rango mínimo significativo estudiaremos, que se localizará en la tabla de rangos


de Duncan, para lo cual sea se necesitan el nivel de significancia deseado en la
prueba, los grados de libertad del cuadrado medio del error y el número p de medios de
comunicación en el subconjunto seleccionado para calcular el rango.

¿Qué son las comparaciones múltiples?

Las comparaciones múltiples de las medias permiten examinar cuáles medias son
diferentes y estimar el grado de diferencia. Usted puede evaluar la significancia
estadística de las diferencias entre las medias usando un conjunto de intervalos de
confianza, un conjunto de pruebas de hipótesis o ambos. Los intervalos de confianza
permiten evaluar la significancia práctica de las diferencias entre las medias, además de
la significancia estadística. Como es habitual, la hipótesis nula de no diferencia entre
medias se rechaza si y solo si el intervalo de confianza no contiene el cero.

¿Qué método de comparación múltiple debo usar con ANOVA de un


solo factor?

La selección del método adecuado de comparación múltiple depende de la inferencia


que usted desee. No es adecuado utilizar el método de Tukey para todas las parejas si

5
los métodos de Dunnett o MCB son apropiados, porque los intervalos de confianza de
Tukey serán más amplios y las pruebas de hipótesis serán menos potentes para una
tasa de error por familia determinada. Por las mismas razones, MCB es superior a
Dunnett si usted desea eliminar los niveles de factor que no sean los mejores e identificar
cuáles son los mejores o están cerca de serlo. La elección entre los métodos LSD de
Tukey y de Fisher depende de la tasa de error que desee especificar usted: por familia o
individual.

NOTA
El ANOVA de un solo factor también ofrece el método LSD de Fisher para los intervalos
de confianza individuales. El método de Fisher no es un método de comparación múltiple,
pero en cambio contrasta los intervalos de confianza individuales para las diferencias por
pareja entre las medias usando una tasa de error individual. El método LSD de Fisher
infla la tasa de error por familia, la cual se muestra en la salida.
¿Qué método de comparación múltiple debo usar con Ajustar modelo
lineal general o Ajustar modelo de efectos mixtos?

Después de usar Ajustar modelo lineal general o Ajustar modelo de efectos mixtos, utilice
el análisis correspondiente para obtener comparaciones múltiples de las medias:

• Estadísticas > ANOVA > Modelo lineal general > Comparaciones

• Estadísticas > ANOVA > Modelo de efectos mixtos > Comparaciones

Cuando utilice comparaciones múltiples, debe seleccionar lo siguiente:

• Comparaciones en parejas o comparaciones con un control

• El método de comparación

El método de comparación múltiple:

Elija el procedimiento de comparación con base en las medias de grupo que desea
comparar, el tipo de nivel de confianza que desea especificar y qué tan conservadores

6
desea que sean los resultados. "Conservador" en este contexto indica que es probable
que el nivel de confianza real sea mayor que el nivel de confianza que se muestra.
A excepción del método de Fisher, los métodos de comparación múltiple incluyen
protección contra falsos positivos. Cuando las comparaciones múltiples se protegen de
los falsos positivos, los intervalos son más amplios que cuando no hay protección.
A continuación, se resumen algunas de las características de los métodos de
comparación múltiple:

prueba de Tukey

La prueba de Tukey es un método que tiene como fin comparar las medias individuales
provenientes de un análisis de varianza de varias muestras sometidas a tratamientos
distintos.

El test, presentado en el año 1949 por John.W. Tukey, permite discernir si los resultados
obtenidos son significativamente diferentes o no. Se le conoce también como la prueba
de diferencia honestamente significativa de Tukey (Tukey’s HSD test por sus siglas en
inglés).

Tukey permite discernir si las diferencias de resultado entre tres o más tratamientos
diferentes aplicado a tres o más grupos de iguales características, tienen valores
promedio significativa y honestamente distintos.

7
En los experimentos donde se compara entre tres o más tratamientos diferentes
aplicados a igual número de muestras, se requiere discernir si los resultados son
significativamente distintos o no.

Se dice que un experimento es balanceado cuando el tamaño de todas las muestras


estadísticas es igual en cada tratamiento. Cuando el tamaño de las muestras es diferente
para cada tratamiento, se tiene entonces un experimento no balanceado.

En ocasiones no es suficiente con un análisis de varianza (ANOVA) para saber si en la


comparativa de diferentes tratamientos (o experimentos) aplicada a varias muestras
cumplen la hipótesis nula (Ho: “todos los tratamientos son iguales”) o por el contrario se
cumple la hipótesis alternativa (Ha: “por lo menos uno de los tratamientos es diferente”).

La prueba de Tukey no es única, existiendo muchas más pruebas para comparar medias
muestrales, pero esta es una de la más conocidas y aplicadas.

En la aplicación de esta prueba se calcula un valor w llamado el comparador de


Tukey cuya definición es como sigue:

w = q √(MSE /r)

Donde el factor q se obtiene de una tabla (Tabla de Tukey), que consta de filas de
valores q para diferente número de tratamientos o experimentos. Las columnas indican
el valor de factor q para diferentes grados de libertad. Normalmente las tablas
disponibles tienen significancias relativas de 0.05 y 0.01.

Comparador SNK (Student Newman Keuls)

La Newman-Keuls o Student-Newman-Keuls (SNK) método es un paso a paso de


comparaciones múltiples procedimiento utilizado para identificar la muestra medios que
son significativamente diferentes unos de otros. Fue nombrado después de Student
(1927), D. Newman, y M. Keuls. Este procedimiento se usa a menudo como una prueba
post-hoc siempre que una diferencia significativa entre los tres o más medias de la
muestra ha sido revelado por un análisis de varianza (ANOVA). El método de Newman-
Keuls es similar a la prueba de rangos de Tukey ya que ambos procedimientos utilizan

8
estadísticas rango estudentizado. A diferencia de la prueba de rangos de Tukey, el
método de Newman-Keuls utiliza diferentes valores críticos para diferentes pares de
comparación de medias. Por lo tanto, el procedimiento es más probable para revelar
diferencias significativas entre las medias de grupo y de cometer errores de tipo I por
rechazar incorrectamente una hipótesis nula cuando es verdadera. En otras palabras, el
procedimiento Neuman-Keuls es más potente pero menos conservadora que la prueba
de rangos de Tukey.

Para determinar si hay una diferencia significativa entre los dos medios con tamaños
iguales de muestra, el método de Newman-Keuls utiliza una fórmula que es idéntica a la
utilizada en la prueba de rangos de Tukey , que calcula la q valor tomando la diferencia
entre dos medias de la muestra y dividiéndolo por el error estándar:

donde representa el rango estudentizado valor, y son los medios de muestra más grande
y más pequeña dentro de un intervalo, es la varianza del error tomada de la tabla de
ANOVA, y es el tamaño de la muestra (número de observaciones dentro de una muestra).
Si se hacen comparaciones con medios de tamaños de muestra desiguales ( ), entonces

la fórmula Newman-Keuls sería ajustada como sigue:

donde y representar los tamaños de muestra de los dos medios de muestra. En ambos
casos, MSE (error cuadrático medio) se toma de la ANOVA llevó a cabo en la primera

etapa del análisis.

9
¿Qué es el método de la diferencia menos significativa (LSD) de
Fisher para comparaciones múltiples?
El método LSD de Fisher se utiliza en el ANOVA para crear intervalos de confianza para
todas las diferencias en parejas entre las medias de los niveles de los factores,
controlando al mismo tiempo la tasa de error individual en un nivel especificado.
Posteriormente, el método LSD de Fisher utiliza la tasa de error individual y varias
comparaciones para calcular el nivel de confianza simultáneo para todos los intervalos
de confianza. Este nivel de confianza simultáneo es la probabilidad de que todos los
intervalos de confianza contengan la diferencia verdadera. Es importante considerar la
tasa de error por familia al realizar comparaciones múltiples, porque las probabilidades
de cometer un error de tipo I para una serie de comparaciones son mayores que la tasa
de error de cualquier comparación individual.

Ejemplo del método LSD de Fisher

Por ejemplo, usted está midiendo los tiempos de respuesta de circuitos integrados de
memoria. Toma una muestra de 25 circuitos integrados de cinco fabricantes diferentes.
El análisis ANOVA produjo un valor p de 0.01, con lo cual usted concluye que al menos
una de las medias de los fabricantes es diferente de las demás.

Usted decide examinar las 10 comparaciones entre las cinco plantas para determinar
específicamente cuáles medias son diferentes. Utilizando el método LSD de Fisher,
usted especifica que cada comparación debe tener una tasa de error individual de 0.05
(equivalente a un nivel de confianza de 95%). Minitab crea estos diez intervalos de
confianza de 95% y calcula que este conjunto produce un nivel de confianza simultáneo
de 71.79%. Entendiendo este contexto, usted puede examinar entonces los intervalos de
confianza para determinar si alguno de ellos no incluye el cero, lo que indica una
diferencia significativa.

Fórmula

Minitab ofrece diferentes métodos de intervalo de confianza para comparar las medias
de los tratamientos. Para el método de Fisher, las cotas del intervalo de confianza y los

10
valores p son iguales independientemente de si las comparaciones son en parejas o con
un control. El método de Fisher utiliza el nivel de confianza individual. La fórmula para
los intervalos de confianza es:

La fórmula para el estadístico de prueba es:

El valor p = 2*P{ T u > tu}

Para encontrar el nivel de confianza simultáneo a partir de la tasa de error individual,


utilice la fórmula siguiente:

Método de Bonferroni

- Método de Bonferroni: Se basa en la distribución t de Student y en la desigualdad de


Bonferroni. Este método intenta resolver el problema que tiene la aplicación de
numerosas pruebas de Student reduciendo la probabilidad de cometer un error de tipo I
en cada comparación. Controla la tasa de error dividiendo el nivel de significación entre
el número de comparaciones realizadas. Cada comparación se evalúa utilizando un nivel

11
de significación . Este procedimiento trabaja raz onablemente bien cuando se tiene un
número pequeño de grupos (Glantz, 2003). Si la cantidad de tratamientos se incrementa
a ocho o a diez, el valor de t requerido para detectar una diferencia será demasiado
grande, (el valor de será demasiado pequeño), de manera que en la práctica el método
se vuelve incapaz de detectarlas. En tales casos no se recomienda su ( )k 1− 1−α α k α
k k αB =α αB utilización. Esta técnica también se conoce con el nombre de Dunn –
Bonferroni y se publicó por primera vez en 1961.

Comparación Duncan:

Se utiliza para comparar todos los pares de medias. Fue desarrollado por primera vez
por Duncan en 1951 pero posteriormente él mismo modificó su primer método generando
el que ahora se denomina Nuevo método de Rango Múltiple de Duncan. Esta prueba no
requiere de una prueba previa de F, como sucede con la DMS o sea que aún sin ser
significativa la prueba F puede llevarse a cabo.
Cuando se rechaza la hipótesis nula de no diferencia de más de dos medias
(H0: m 1 = m 2 = … = m k) en un análisis de varianza surge la pregunta acerca de cuáles
pares de medias son diferentes, puesto que el rechazo de una hipótesis nula con cuatro
tratamientos (H0: m 1 = m 2 = m 3 = m 4), podría deberse a uno o varios de los seis pares
de diferencias que se pueden tener, esto
es: m 1 ¹ m 2 o m 1 ¹ m 3 o m 1 ¹ m 4 o m 2 ¹ m 3 o m 2 ¹ m 4 o m 3 ¹ m 4

Existen varios procedimientos para determinar cuáles son los pares de medias que son
diferentes. El primero de estos procedimientos, y el más utilizado en el pasado, es el de
la Diferencia Significativa Mínima (DSM) de Fisher publicada en 1935 en su libro The
Design of Experiments. Este procedimiento es una extensión de la prueba t de Student
para el caso de comparación de dos medias con varianza ponderada.

Comparaciones Dunnett

En las estadísticas, la prueba de Dunnett es una comparación múltiple procedimiento


desarrollado por el estadístico canadiense Charles Dunnett para comparar cada uno de
una serie de tratamientos con un solo mando. Comparaciones múltiples a un control
también se hace referencia a las comparaciones ya que muchos a uno.

12
El cálculo de la prueba de Dunnett es un procedimiento que se basa en el cálculo de las
declaraciones de confianza acerca de los valores esperados de los verdaderos o
diferencias, por lo tanto, las diferencias entre los grupos de tratamiento media y la media
del grupo de control. Este procedimiento garantiza que la probabilidad de todos los
estados que son simultáneamente correcta es igual a un valor especificado. Al calcular
uno superior (o inferior) caras Intervalo de confianza para el verdadero valor de la
diferencia entre la media del tratamiento y el grupo de control , que constituye la
probabilidad de que este valor real será menor que el superior (o mayor que el inferior)
límite de ese intervalo. Al calcular de dos caras intervalo de confianza , que constituye la
probabilidad de que el valor real será entre el superior y el límite inferior.

En primer lugar, vamos a denotar las N observaciones disponibles por sí y estimar el


común de la varianza , por ejemplo: cuando es la media de grupo y es el número de
observaciones en el grupo , y los grados de libertad. Como se ha mencionado antes, nos
gustaría obtener límites de confianza por separado para cada una de las diferencias de
tal manera que la probabilidad de que todos los intervalos de confianza contendrán el
correspondiente es igual a.

Vamos a considerar el caso general donde hay grupos de tratamiento y un grupo control.

Escribiremos:

13
Comparaciones múltiples de medias

Al estudiar el comportamiento de los tratamientos de un factor, mediante un análisis de


la varianza, el único objetivo es saber si, globalmente, dichos tratamientos difieren
significativamente entre sí. Ahora estamos interesados, una vez aceptada la existencia
de diferencias entre los efectos del factor, en conocer qué tratamientos concretos
producen mayor efecto o cuáles son los tratamientos diferentes entre sí. En estas
mismas condiciones, puede ser útil también realizar comparaciones adicionales entre
grupos de medias de los tratamientos.

yij = µi + uij

Diferencia Mínima Significativa

Es el método de comparación múltiple posiblemente más utilizado, debido quizás a su


fácil manera de aplicar. Es usualmente usado pra comparar una pareja de medias de
tratamientos, pero puede ser utilizado para comparaciones de más de dos medias de
tratamientos. Fisher en 1935 la denominó Prueba protectora de Fisher LSD, en la cual
recomendó que para que la tasa de error juiciosa por comparación sea aproximadamente
igual a se debeben realizar dos etapas:

Etapa I: Es probar por la prueba de tamaño , si el


valor no es significante se termina el análisis. Si el valor es significante, entonces
sigue la etapa II.

Etapa II: Se prueba cada comparación simple por una prueba t al nivel de

significancia del y con los grados de libertad del (en un

DCA , en un bloque ).

Esta prueba determina el valor mínimo necesario para considerar diferentes dos
tratamientos y lo utiliza para comparar los diferentes pares de medias que se deseen
evaluar. Los pares de medias que se comparan son los que han sido planeados antes

14
de ejecutar el experimento, por ello es una prueba para comparaciones planeadas.
Supongamos que despues de haber rechazado la hipótesis global, con base en una

prueba de análisis de varianza, se desea probar , para . Esto


puede hacerse empleando la estadística

Y se rechaza la hipótesis nula si

En forma general para probar cualquier se plantea la

hipótesis modo y se rechaza si

Donde:

S diferencia mínima significativa(DMS),

Percentil de la distribución con grados de libertad dados


por los grados de libertad del error experimental y

S Desviación estandar del contraste que para el caso de la diferencia de dos


medias muestrales es dado por:

15
Como vemos el DMS depende del percentil de la distribución t-Student, el cuadrado

medio del error experimental( ) y el número de réplicas . Si es grande entonces


el DMS será pequeño y permitirá detectar diferencias significativas pequeñas, por otro
lado si el CM aumenta para un fijo entonces la DMS es grande y se tiende a no
detectar diferencias significativas.

Método de Sidak:

Se basa en la distribución t de Student, pero controla la tasa de error evaluando cada


comparación con un nivel de significación . Esta solución es algo menos conservadora
que la de Bonferroni, es decir, rechaza la hipótesis fundamental en más ocasiones que
el método de Bonferroni, pero de manera general es también un método recomendable.
Se publicó por primera vez en 1967.

3.5 verificación de los supuestos del modelo

La evaluación de los supuestos de un modelo se basa en la verificación de las


propiedades empíricas que se derivan de ellos. Si se cumple la monotonía
podremos encontrar estas características en los datos: a) todos los pares de
ítems tendrán correlaciones no-negativas para todos los subgrupos de sujetos que
difieren en el mismo rasgo (Mokken, 1971); b) todo par de ítems tendrá una asociación
condicional (CA) en cualquier grupo de personas con una particular puntuación
empírica (X+) (Rosenbaum, 1984); c) para cualquier ítem i la proporción de personas que
lo respondan correctamente será no-decreciente sobre los grupos de puntuación
creciente (X+), donde X+ se estima sobre el resto de n-1 ítems; finalmente d) la
puntuación total (X+) tendrá una regresión monótona no-decreciente sobre la
habilidad (Lord y Novick, 1968), lo que implica una correlación positiva entre
ambos. La doble monotonía por su parte implicaría que el orden de las dificultades
de los pasos entre ítems es independiente de la distribución de habilidad; esta propiedad
aseguraría el ordenamiento invariante de las funciones de respuesta entre pasos. Este
ordenamiento entre pasos sólo podría generalizarse al ordenamiento entre ítems si se
cumple la doble monotonía fuerte.

16
Coeficiente de escalabilidad. La evaluación empírica de M puede llevarse a cabo
a través de una adaptación del coeficiente de escalabilidad de Loevinger (1947, 1948)
que Mokken (1971) utilizó para las escalas dicotómicas. Este coeficiente se define
en términos de errores de una escala Guttman que compara un patrón de respuesta
observado con el patrón teórico que debiera seguir una escala acumulada. Para dos
ítems i y k (i < k) se operacionaliza del siguiente modo: Hik=1-(eik/eik(0)) donde eik y
eik(0) son las probabilidades de errores observados y esperados bajo el modelo
de independencia marginal, en cuyo caso Hik sería 0. En la hipotética situación
en que los patrones teóricos y observados coincidieran el coeficiente de
escalabilidad sería 1. El coeficiente de escalabilidad para un ítem (i) podría
obtenerse con respecto al resto de n-1 ítems como una combinación lineal del total
de H obtenidos.

La adaptación de este coeficiente a una escala politómica fue propuesta por Molenaar
(1991, 1997; Sijtsma y Molenaar, 2002). El nuevo coeficiente pondera los errores
en los patrones de respuesta observados respecto a los patrones teóricos. La
ponderación sobre un par de ítems se lleva a cabo teniendo en cuenta el número de
pasos entre opciones involucrados en la resolución de esos ítems. El valor de H
ponderado iguala la razón entre la correlación observada entre dos ítems y la
correlación máxima obtenida a partir de sus frecuencias marginales- Para la
evaluación de su significatividad Molenaar y Sijstma (2000) utilizan un test estadístico
contra la hipótesis nula de H=0. Sin embargo, dado que en condiciones empíricas este
test siempre resulta significativo, es habitual valorar la escalabilidad de un ítem respecto
al punto de corte de 0,30 (Mokken, 1971). Evaluación de la homogeneidad monótona:
Puesto que la proporción de personas que superan una opción de respuesta de un
ítem es no-decreciente sobre los grupos de puntuación creciente (X+) para
comprobar esta propiedad bastaría con formar grupos de sujetos por niveles de
puntuación manifiesta (X+), y comprobar que el porcentaje de personas que superan una
opción se incrementa a medida que se incrementa ésta. Evaluación de la doble
monotonía: La evaluación de la doble monotonía se lleva a cabo definiendo proporciones
univariadas ( ) y bivariadas ( ) de respuestas entre categorías. Con la información
obtenida se forman matrices empíricas (P(++)) de orden n(m-1)xn(m-1) con

17
elementos . Las filas y las columnas se ordenan crecientemente en función de los
marginales de las proporciones. Dado este ordenamiento, las celdas tanto de las filas
como de las columnas deben ser monótonamente no-decrecientes si las ISRF son
invariantemente ordenadas en theta.

Evaluación de la doble monotonía fuerte: Los análisis llevados a cabo para estudiar la
condición de doble monotonía fuerte son similares a los llevados a cabo en la
evaluación de la doble monotonía pero en lugar de comparar las proporciones de
respuestas referidas a los pasos entre ítems las comparaciones se llevan a cabo
sobre las medias aritméticas obtenidas en los ítems.

La validez de los resultados obtenidos en cualquier análisis de varianza queda


supeditada a que los supuestos del modelo se cumplan. Estos supuestos son:

A) Normalidad

B) Varianza constante (igual varianza de los tratamientos)

C) Independencia

D )linealidad

E) No-colinealidad

Es decir las dos corrientes principales para entender como función la economía.

1.-Modelo clásico.

Toda oferta crea una demanda (Ley de Say).

Significa que no puede haber demanda sin oferta, cuantos más bienes se produzcan,
mas bienes existirán (oferta).es decir la oferta crea su propia demanda.

En este supuesto implican:


equilibrio en el mercado de crédito.

Equilibrio en el mercado laboral.

2.-Modelo Keynesiano.

18
Es la demanda agregada la que domina sobre la oferta agregada.

Se puede dar la renta sin pleno empleo.se considera que al menos en el mercado del
trabajo puede no estar en competencia perfecta, pues los salarios nominales rígidos a la
baja.

Entonces el nivel de equilibrio esta determinado por demanda agregada.(demanda crea


su propia oferta)

Esto es, la respuesta (Y) se debe distribuir de manera normal, con la misma varianza en
cada tratamiento y las mediciones deben ser independientes. Estos supuestos sobre Y
se traducen en supuestos sobre el termino error ( ε ) en el modelo

Es una práctica común utilizar la muestra de residuos para comprobar los supuestos del
modelo, ya que si los supuestos se cumplen, los residuos o residuales se pueden ver
como una muestra aleatoria de una distribución normal con media cero y varianza
constante.

Los residuos “e i j” , se definen como la diferencia entre la respuesta observada (Yij) y la


respuesta predicha por el modelo (Ῡij), lo cual permite hacer un diagnóstico más directo
de la calidad del modelo, ya que su magnitud señala qué tan bien describe a los datos
del modelo. Veamos

Recordemos que el modelo que se espera describa los datos en el DCA está dada

por:

19
Cuando se realiza el ANOVA, y sólo cuando éste resulta significativo, entonces se
procede a estimar el modelo ajustado o modelo de trabajo dado por:

Los gorros indican que son estimadores, es decir, valores calculados a partir de los datos
del experimento. El término del error desaparece del modelo estimado, por el hecho de
que su valor esperado es igual a cero (E(εij) = 0

Como la media global se estima con . el efecto del tratamiento con el


modelo ajustado del DCA se puede escribir como:

20
Para comprobar cada supuesto existen pruebas analíticas y gráficas que veremos a
continuación. Por sencillez, muchas veces se prefieren las pruebas gráficas.

Éstas tienen el inconveniente de que no son exactas, pero aun así , en la mayoría de las
situaciones prácticas proporcionan la evidencia suficiente en contra o a favor de los
supuestos.

Normalidad

Un procedimiento gráfico para verificar el cumplimiento del supuesto de normalidad de


los residuos consiste en graficar los residuos en papel o en la gráfica de probabilidad
normal que se incluye casi en todos los paquetes estadísticos. Esta gráfica del tipo X-Y
tiene las escalas de tal manera que si los residuos siguen una distribución normal, al
graficarlos tienden a quedar alineados en una línea recta; por lo tanto, si claramente no
se alinean se concluye que el supuesto de normalidad no es correcto. Cabe enfatizar el
hecho de que el ajuste de los puntos a una recta no tiene que ser perfecto, dado que el
análisis de varianza resiste pequeñas y moderadas desviaciones al supuesto de
normalidad.

El QQ–plot es un gráfico de percentiles muéstrales vs. Percentiles teóricos (bajo una


cierta distribución asumida F).

Si la muestra proviniese de una poblacion con distribucionFlos percentiles muestrales vs


los teoricos caerıan aproximadamente sobre una recta a 45◦.

21
Para esto ordenamos los residuos standarizados.

y graficamos los percentiles muestrales{1/(n+ 1),2/(n+ 1), . . . , n/(n+ 1)}contra los


percentiles teoricos de unaN(0,1)nφ−1(1/(n+ 1)), φ−1(2/(n+ 1)), . . . , φ−1(n/(n+ 1))o.Si el
grafico se desviase de la recta,estarıamos encontrando evidencia contra la normalidad.

Varianza constante

Una forma de verificar el supuesto de varianza constante (o que los tratamientos tienen
la misma varianza) es graficado los predichos contra residuos, por lo general va en el eje
horizontal y los residuos en el eje vertical. Si los puntos en esta gráfica se distribuyen de
manera aleatoria en una banda horizontal (sin ningún patrón claro y contundente),
entonces es señal d que se cumple el supuesto de que los tratamientos tienen igual

22
varianza. Por el contrario, si se distribuyen con algún patrón claro y contundente, como
por ejemplo una forma de corneta o embudo, entonces es señal de que no se está
cumpliendo el supuesto de varianza constante.}

Independencia

La suposición de independencia en los residuos puede verificarse si se grafica el orden


en que se colectó un dato contra el residuo correspondiente. De esta manera, si al
graficar en el eje horizontal el tiempo (orden de corrida) y en el eje vertical los residuos.

Validar los supuestos del modelo en regresión o ANOVA

La regresión y el ANOVA no se detienen cuando el modelo se ajusta. Usted debería


examinar las gráficas de residuos y otros estadísticos de diagnóstico para determinar si

23
el modelo es adecuado y si se cumplen los supuestos de la regresión. Si el modelo no
es adecuado, representará incorrectamente los datos. Por ejemplo:

*Los errores estándar de los coeficientes podrían estar sesgados, conduciendo a valores
t y p incorrectos.

*Los coeficientes pueden tener el signo incorrecto.

*El modelo puede verse afectado por uno o dos puntos.

Utilice la siguiente tabla para determinar si el modelo es adecuado.

Características de un
modelo de regresión
Verificar usando Soluciones posibles
adecuado

La forma funcional modela Prueba de falta de ajuste Agregar término de orden


adecuadamente cualquier superior al modelo
curvatura que esté
presente. Gráfica de residuos vs.
variables Transformar las variables

Regresión no lineal

Los residuos tienen una Gráfica de residuos vs. Transformar las variables
varianza constante. ajustes

Mínimos cuadrados
ponderados

Los residuos son Estadístico de Durbin- Agregar nuevo predictor


independientes (no están Watson
correlacionados) entre sí.
Usar análisis de series de
tiempo

24
Gráfica de residuos versus
orden
Agregar una variable de
desfase

Los residuos están Histograma de residuos Transformar las variables


distribuidos normalmente.

Gráfica normal de residuos Verificar si hay valores


atípicos

Gráfica de residuos vs.


ajuste

Prueba de normalidad

Sin observaciones poco Gráficas de residuos Transformar las variables


comunes ni valores
atípicos.
Apalancamientos Eliminar la observación
atípica

Distancia de Cook

DFITS

Los datos no están mal Factor de inflación de la Eliminar el predictor


condicionados. varianza (FIV)

Regresión de mínimos
Matriz de correlación de los cuadrados parciales
predictores

25
Transformar las variables

Determinar por qué un modelo no cumple los supuestos

Si determina que el modelo no cumple con los criterios mencionados anteriormente,


usted debe:

1.-Determinar si los datos fueron ingresados de forma correcta, especialmente las


observaciones identificadas como poco comunes.

2.-Intentar determinar la causa del problema. Conviene indagar qué tan sensible es el
modelo al problema planteado. Por ejemplo, si tiene un valor atípico, ejecute la regresión
sin esa observación y observe cómo cambian los resultados.

3.-Considere la posibilidad de usar una de las soluciones posibles indicadas


anteriormente.

26
Bibliografia

1. https://vdocuments.mx/verificacion-de-los-supuestos-del-modelo.html
2. https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-
statistics/regression/supporting-topics/model-assumptions/validate-model-
assumptions/
3. http://cms.dm.uba.ar/academico/materias/1ercuat2013/modelo_lineal/teoricas/M
L_Parte%208_2013.pdf
4. https://prezi.com/dxjokvkqe66a/supuestos-del-modelo/
5. http://cursos.aiu.edu/Estadistica%20Superior/PDF/Tema%202.pdfç.
6. file:///C:/Users/Admin/Downloads/337-1267-1-PB.pdf
7. https://www.coursehero.com/file/p5t860s/La-prueba-de-rangos-
m%C3%BAltiples-de-Duncan-utiliza-tambi%C3%A9n-el-concepto-de-rangos/
8. https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-
statistics/anova/supporting-topics/multiple-comparisons/using-multiple-
9. https://es.scribd.com/doc/85273861/Pruebas-de-Rango-Multiple
10. http://cursos.aiu.edu/Estadistica%20Superior/PDF/Tema%202.pdf

27

También podría gustarte