Está en la página 1de 48

ECONOMETRIA II

UNIFICADO TABLET 1 BIMESTRE


UNIDAD 1. MODELOS DE REGRESION CON VARIABLES DICÓTOMAS (CAP 9)

Existen cuatro tipos de variables que por lo general se encuentran en el análisis empírico:
o Escala de razón
o Escala de intervalo
o Escala ordinal
o Escala nominal.
 Variables de escala nominal. Estas variables también se las conoce como variables
indicadoras, categóricas, variables cualitativas, variables dicótomas o variables dummys

Pregunta 1
Otro nombre que se le suele dar a las variables dicótomas es variables ...
indicadoras

Pregunta 2
A las variables dicótomas también se las conoce como variables indicadoras
Verdadero

Falso

Pregunta 3
A las variables dicótomas también se las llama categóricas
Verdadero

Falso

Pregunta 4 FISICO
Qué es una variable dicótoma
Es una variable cualitativa

Es una variable binaria con dos posibles valores 0 y 1


Es una variable numérica

Pregunta 5
Una variable dicótoma es una variable cualitativa
Verdadero

Falso

1
Pregunta 6
A las variables dicótomas también se las conoce como variables dummy
Verdadero

Falso

Pregunta 7
Variables dummy es otro nombre que se les suele dar a las variables:
dicótomas

Pregunta 8
Una variable dicótoma es una variable cuantitativa
Falso es una variable cualitativa

Verdadero

Pregunta 9 FISICO
Cuál de las siguientes no es un calificativo para una variable dicótoma
Dependiente

Dummy
Categórica
Cualitativa

2
1.1. NATURALEZA DE LAS VARIABLES DICÓTOMAS

 En el análisis de regresión, la variable dependiente o regresada a menudo acusa


influencia no sólo de variables en escala de razón sino también de variables cualitativas
por naturaleza o de escala nominal.
 Variables en escalas de razón. Ej. ingreso, producción precios, costos y estatura
 Variables cualitativas por naturaleza o de escala nominal o dicótomas. Ej. sexo, raza,
color, religión, nacionalidad, región geográfica, cambios políticos y afiliación partidista.
 Las variables cualitativas como sexo y raza, si influyen en la variable dependiente y es
claro que deben incluirse en las explicativas o regresoras.
 Las variables dicótomas o cualitativas suelen indicar la presencia o ausencia de una
“cualidad” o atributo.
Ej. Femenino o masculino, negro o blanco, católico o no católico, demócrata o
republicano, son variables en escala nominal esencialmente.
 Una manera de cuantificar tales atributos es mediante variables artificiales que toman
los valores de 0 y 1.
o Donde 1 indica la presencia (o posesión) del atributo o cualidad
o Donde 0 indica la ausencia del atributo o cualidad
 Ejemplo:
o Persona de sexo: 1 = femenino, 0 = masculino
o Persona de religión: 1 = católico, 0 = no católico o de cualquier religión
o Persona con: 1 = analfabeto, 0 = alfabeto
 Las variables que toman tales valores de 0 y 1 se llaman variables dicótomas.
 Las variables dicótomas son en esencia un recurso para clasificar datos en categorías
mutuamente excluyentes. (como masculino o femenino)
 El par (0,1) puede convertirse en otro par cualquiera mediante una función lineal
Z=a+bD con b ≠ 0, a y b son constantes y D=1 o D=0.
Cuando D=1 , Z=a+b y cuando D=0 , Z=a
Por tanto el par (0,1)se convierte en (a , a+ b)
Si a=1 y b=2, las variables dicótomas serán (1,3)

Pregunta 10
En el análisis de regresión, la variable dependiente a menudo acusa influencia no solo de
variables en escala de razón sino también de variables
Cualitativa

Dicótoma

Explicativa
Dependiente

3
Pregunta 11 FISICO
Las variables como género, estado civil, afiliación política, son variables que se presentan en
escala nominal
Verdadero

Falso

Pregunta 12 FISICO
Variables como la raza o la profesión, no tiene ninguna incidencia en el comportamiento de
la variable dependiente.
Falso son dicótomas y si tienen incidencia en la variable dependiente

Verdadero

Pregunta 13
Otro nombre de variable dicótoma que expresa cualidad es variable:
cualitativa

Pregunta 14
Las variables dicótomas se utilizan para cuantificar las variables
Falso se utilizan para cuantificar los atributos de las variables

Verdadero

Pregunta 15
Una variable dicótoma puede tomar valores de 0 o 1
Verdadero una manera de cuantificar sus atributos es mediante variables artificiales que toman valores 0 o 1

Falso

Pregunta 16 FISICO
La variable que se representa con 0 y 1 se denomina:
Variable dicótoma

Variable explicativa
Variable independiente

4
Pregunta 17 FISICO
En cuál de los siguientes ejemplos se da la trampa de la variable dicótoma si la variable es
género:
d1: hombre = 1 ; d2: mujer = 1

d1: hombre = 1 ; mujer = 0


d1: hombre = 1 ; mujer = 0 , d2: hombre = 0 ; mujer = 1

Pregunta 18
Las variables que se clasifican en categorías mutuamente excluyentes se llaman variables:
Dicótomas

Pregunta 19
Una variable que sólo puede tomar dos valores y representa una cualidad, se llama variable:
Dicótomas ojo… escribir en plural. Si no sale como mal contestada

Pregunta 20
La variable estado civil puede representarse como una variable dicótoma
Verdadero

Falso

Pregunta 21
Un ejemplo de variable cualitativa puede ser el género (Hombre, mujer)
Verdadero estas variable son un recurso para clasificar datos en categorías mutuamente excluyentes

Falso

Pregunta 22
Si la variable es género se debe agregar dos variables dicótomas, la primera 1 para hombres
y 0 para mujeres, y la segunda 1 para mujeres y 0 para hombre
Verdadero

Falso

Pregunta 23
La estatura es una variable dicótoma
Falso es una variable de razón no una variable en escala nominal

Verdadero

5
Pregunta 24
Un ejemplo de variable dicótoma es la tasa de crecimiento del PIB
Falso El PIB no es un atributo

Verdadero

Pregunta 25
El PIB es una variable dicótoma
Falso

Verdadero

Pregunta 26 FISICO
Un ejemplo de variable dicótoma también puede ser el ingreso mensual
Falso

Verdadero

Pregunta 27 FISICO
Cuál de las siguientes no es una variable dicótoma:
Rango de ingresos

Rango de edad en una empresa


% de hombres y mujeres

1.2. MODELOS ANOVA

 Un modelo de regresión puede contener variables explicativas exclusivamente dicótomas


o cualitativas, estos modelos se denominan Modelos de Análisis de Varianza (ANOVA)
 Los modelos ANOVA son los modelos en los cuales la variable dependiente esta
expresada en forma cuantitativa, y todas las variables independientes en forma
cualitativa o como variables dicótomas.
 Los modelos ANOVA se utilizan para evaluar la significancia estadística de la relación
entre una regresada cuantitativa y regresoras cualitativas o dicótomas
 A menudo se emplean para comparar las diferencias entre los valores medios de dos o
más grupos o categorías, y por tanto, son más generales que la prueba t.
 Las variables dicótomas las designaremos con la letra D.

6
Pregunta 28 FISICO
Un modelo ANOVA es:
Modelo solo con variables dicótomas

Modelo con variables dicótomas y métricas


Modelo con logaritmos
Modelo lineal de varianzas

Pregunta 29
Cuando todas las variables explicativas en una regresión son variables dicótomas el modelo
se llama modelo……….
ANOVA

Pregunta 30 FISICO
Que enunciado se encuentra en el análisis de variables dicótomas
Análisis ANOVA

Modelo sobreestimado
Análisis de correlación

Pregunta 31
Los modelos que utilizan sólo variables dicótomas como independientes se llaman modelos
ANOVA
Verdadero

Falso

7
PRECAUCION CON LAS VARIABLES DICOTOMAS
Y i=β 1 + β 2 D 2 i + β 3 D 3 i +ui

Y i=∝+ β 1 D 1 i + β 2 D 2 i + β 3 D 3 i +ui

 TRAMPA DE LA VARIABLE DICÓTOMA


Si una variable cualitativa o dicótoma tiene m categorías, solo hay que agregar (m-1)
variables dicótomas, ya que si no se cumple esta reglas se cae en lo que se denomina la
trampa de variable dicótoma.
 Como regla se tiene que: para cada regresora cualitativa, el número de variables
dicótomas introducidas debe ser una menos que las categorías de esa variable.
 Si se cae en la trampa de la variable se tendrá una situación de perfecta colinealidad o
perfecta multicolinealidad, si hay más de una relación exacta entre las variables.
 COLINEALIDAD PERFECTA. Es cuando existe una relación lineal exacta entre las variables
 La trampa de la variable dicótoma se da cuando se incluye igual número de variables que
de categorías.
 Se llaman categorías a las distintas cualidades que se el asigna a una variable. Ej. sexo
(masculino/femenino), religión (cristiana/ evangélica/mormones/católica)
 La categoría a la cual no se asigna variable dicótoma se conoce como categoría base, de
comparación, de control, de referencia u omitida y es en base a esta que se hacen las
comparaciones con respecto a las otras variables.
 El valor del intercepto β 1 representa el valor medio de la categoría de comparación.
 Los coeficientes asociados a las variables dicótomas se conocen como coeficientes de
intercepto diferencial, debido a que indican la medida en que el valor de la categoría que
recibe el valor de 1 difiere del coeficiente de intercepto correspondiente a la categoría de
comparación.
 Si una variable cualitativa tiene más de una categoría, la elección de la categoría de
comparación (categoría base) se deja al criterio estricto del investigador.
 El número de categorías depende de la variable y de lo que el investigador desee
conocer.
 Para eludir la trampa de la variable dicótoma se debe introducir tantas variables
dicótomas como números de categorías tenga dicha variable, siempre y cuando no se
introduzca el intercepto en dicho modelo, ya que existe colinealidad perfecta.
Y i ¿ β1 D1 i+ β 2 D2i + β 3 D3 i+u i

Con el intercepto eliminado y al permitir una variable dicótoma para cada categoría, los
coeficientes de las variables dicótomas proporcionan de manera directa los valores
medios de las distintas categorías.
 Tenemos dos métodos para introducir una variable dicótoma:
o Agregar una variable dicótoma para cada categoría y omitir el término del intercepto
o Incluir el término del intercepto y añadir solo (m – 1) variables, donde m es el número
de categorías de la variable dicótoma.

Pregunta 32 FISICO
Si una variable cualitativa tiene m categorías:
Sólo hay que agregar (m-1) variables dicótomas

Sólo hay que agregar (m+1) variables dicótomas


m categorías

8
Pregunta 33
La regla K-1 variables dicótomas (K=categorías) es para evitar la trampa de la variable
dicótoma
Verdadero

Falso

Pregunta 34 FISICO
La trampa de la variable dicótoma tiene relación con la perfecta colinealidad que puede
presentarse entre variables dicótomas
Verdadero

Falso

Pregunta 35
La trampa de la variable dicótoma se da cuando se incluye igual número de variables que de
categorías
Verdadero

Falso

Pregunta 36
Cuando se coloca igual número de variables dicótomas que de categorías se cae en:
la trampa de la variable si se agrega 7 variables dicótomas para los días de la semana sin quitar el
intercepto

Pregunta 37 FISICO
Cuando se comete la trampa de la variable dicótoma:
Cuando se coloca igual número de variables dicótomas que de categorías

Cuando se coloca una variable dicótoma adicional a las categorías


Cuando se coloca menos categorías que variables dicótomas

Pregunta 38
La trampa de la variable dicótoma se da cuando se ponen menos variables que categorías
Falso se da cuando se pone igual número de variables que de categorías

Verdadero

9
Pregunta 39 FISICO
Cuando realizamos regresiones con variables dicótomas, a los coeficientes asociados (que
están junto) a las variables dicótomas se los conocen como coeficientes de intercepto
diferencial
Verdadero

Falso

Pregunta 40
Para eludir la trampa de la variable dicótoma introduciendo tantas variables dicótomas
como categorías se puede:
No se debe introducir intercepto en dicho modelo

Eliminar datos
Incrementar la muestra

Pregunta 41 FISICO
En la ecuación Y t =α 1+ α 2 D t + β 1 X t + β 2 ( D t X t ) +u t, el intercepto diferencial es α 2
Verdadero

Falso

Pregunta 42 FISICO
En la ecuación Y t =α 1+ α 2 D t + β 1 X t + β 2 ( D t X t ) +u t, la pendiente es α 2 Dt
Falso

Verdadero

Pregunta 43
Cómo se coloca la categoría base en una variable dicótoma
Dependiendo del criterio del investigador

La primera categoría siempre es la base


La última categoría siempre es la base

Pregunta 44
Las variables dicótomas no pueden ser variables dependientes
Falso ellas influyen en las variables dependientes , no son dependientes y se incluyen en las explicativas o
regresoras

Verdadero

10
Pregunta 45
Las variables dicótomas no pueden ser variables independientes
Falso

Verdadero

Pregunta 46 FISICO
En los modelos de regresión con variables dicótomas, si corremos la regresión sin intercepto
y si incluimos una variable dicótoma para cada categoría, se obtendrá de manera directa los
valores medios de las distintas categorías
Verdadero

Falso

Pregunta 47
Cuando se elimina el intercepto y se permite una variable dicótoma para cada categoría se
obtiene directamente:
Los valores medios de las distintas categorías

Las elasticidades
Los errores estándar

Pregunta 48 FISICO
El análisis de la varianza, es la única técnica que permite comparar dos o más valores
medios
Falso también existe el análisis de covarianza

Verdadero

1.3. MODELOS ANCOVA

 En economía no es muy frecuente que se den modelos como los anteriores, se presentan
en áreas como la psicología, sociología, educación e investigación de mercados.
 En la mayor parte de la investigación económica, modelo de regresión contiene diversas
variables explicativas cuantitativas y otras cualitativas.
 Los modelos de regresión que muestran una mezcla de variables cuantitativas y
cualitativas se llaman Modelos de Análisis de Covarianza (ANCOVA)
 Los modelos ANCOVA representan una generalización de los modelos ANOVA en el
sentido de que proporcionan un método para controlar estadísticamente los efectos de
las regresoras cuantitativas (llamadas covariantes o variables de control) en un modelo
con regresoras cuantitativas y cualitativas (o dicótomas)

11
Pregunta 49
La terminología para los modelos de análisis de covarianza es (INICIALES)
ANCOVA

Pregunta 50
Los modelos de regresión que contienen diversas variables explicativas cuantitativas y otras
cualitativas se llaman modelos:
ANCOVA

Pregunta 51 FISICO
Los modelos de regresión que muestran una mezcla de variables cuantitativas y cualitativas
se llaman modelos de análisis de varianza (ANOVA)
Falso se llaman modelos a análisis de covarianza ANCOVA

Verdadero

Pregunta 52 FISICO
Un modelo ANCOVA es:
Un modelo que tiene variables dicótomas y numéricas se llama

Modelo con logaritmos


Modelo lineal de varianzas
Modelo ANOVA

Pregunta 53
Un modelo ANCOVA utiliza variables dicótomas únicamente
Falso utiliza variables dicótomas y cuantitativas

Verdadero

12
1.4. LA VARIABLE DICÓTOMA: ALTERNATIVA A LA PRUEBA DE CHOW

 La prueba de Chow sirve para examinar la estabilidad estructural del modelo de


regresión.
 Existen cuatro posibilidades para saber las diferencias en los términos del intercepto o en
los coeficientes de la pendiente o ambas situaciones en dos regresiones:
o REGRESIONES COINCIDENTES: Son cuando el intercepto y los coeficientes de las
pendientes son iguales en ambas regresiones. Fig. 9.3a
o REGRESIONES PARALELAS: Son cuando solo los interceptos en ambas regresiones son
diferentes, pero las pendientes de los coeficientes son las mismas. Fig. 9.3b
o REGRESIONES CONCURRENTES. Son cuando los interceptos en las dos regresiones son
las mismas, pero las pendientes son distintas. Fig. 9.3c
o REGRESIONES DISÍMBOLAS. Son cuando ambos interceptos y pendientes en las dos
regresiones son distintos. Fig. 9.3d

 La prueba de Chow de múltiples pasos indica solo si dos (más) regresiones son distintas,
pero no el origen de la diferencia.
 La prueba de Chow no establece de manera explícita cual coeficiente, intercepto o
pendiente es distinto, ni si ambos son diferentes en los periodos.
 El método de la variable dicótoma tiene una clara ventaja, pues no solo indica si los dos
periodos son distintos, sino que también destaca la(s) causa(s) de la diferencia: si se debe
al intercepto, a la pendiente o a las dos.
 El agrupamiento aumenta los grados de libertad, tal vez mejore la precisión relativa de los
parámetros estimados.
 Cada inclusión de una variable dicótoma consumirá un grado de libertad.

Pregunta 54
Cuando el intercepto y los coeficientes de las pendientes son iguales en ambas regresiones
se les denomina regresiones:
coincidentes

13
Pregunta 55 FISICO
Regresiones paralelas son aquellas que tienen igual intercepto, igual pendiente
Falso diferente intercepto pero igual pendiente

Verdadero

Pregunta 56
Cuando los interceptos en dos regresiones son los mismos, pero las pendientes son
distintas. Estas regresiones se conoce como regresiones:
Concurrentes

Pregunta 57 FISICO
Cuando tenemos el caso de regresiones concurrentes, los interceptos en ambas regresiones
son diferentes, pero las pendientes son las mismas
Falso los interceptos son iguales y pendientes distintas. Esta definición es
para regresiones paralelas
Verdadero

Pregunta 58
Cuando dos regresiones tienen ambos interceptos y pendientes, distintos se denominan
regresiones:
Disímbolas

1.5. USO DE VARIABLES DICÓTOMAS EN EL ANALISIS ESTACIONAL

14
 Una serie de tiempo puede tener cuatro componentes:
o Estacional
o Cíclico
o Tendencia
o Estrictamente aleatorio
 A menudo es útil eliminar el factor o componente estacional de las series de tiempo con
el fin de concentrarse en los demás componentes.
 El proceso de eliminar el componente estacional de una serie de tiempo se conoce como
desestacionalización o ajuste estacional y la serie de tiempo así obtenida se denomina
serie de tiempo desestacionalizada o ajustada por estacionalidad.
 Hay diversos métodos para desestacionalizar una serie de tiempo, pero consideraremos
solo uno: el método de las variables dicótomas.
 Para evitar la trampa de la variable dicótoma:
(trimestres de un año)
o asignamos una variable dicótoma a cada trimestre del año, pero omitimos el término
del intercepto, o
o Se puede asignar solo tres variables dicótomas e incluir el término del intercepto.
 (meses del año)
para evitar la trampa de la variable dicótoma se deben usar once variables dicótomas
dejando una categoría base

Pregunta 59
Si quiero aplicar una variable dicótoma para los trimestres del año debo aplicar 3 variables
para no cometer la trampa de la variable dicótoma
Verdadero

Falso

Pregunta 60
Para crear variables dicótomas de los meses del año, para evitar la trampa de la variable
dicótoma se deben usar 11 variables dicótomas dejando una categoría base
Verdadero

Falso

Pregunta 61 FISICO
Si queremos analizar la incidencia de los ingresos en compras, cuantas variables dicótomas
debemos ingresar si tenemos los siguientes rangos de ingreso: 1. De menos de 500 USD; 2.
De 501 a 1000 USD; 3. Más de 1000 USD.
Dos variables dicótomas

Una variable dicótoma


Tres variables dicótomas

1.6. REGRESION LINEAL POR SEGMENTOS

15
 Una regresión lineal por segmentos que consta de dos partes o segmentos lineales se les
da le nombre de I y II.
 Con el método de la variable dicótoma se estiman las diferentes pendientes de los dos
segmentos de la regresión lineal por secciones.
 La regresión lineal por segmentos ejemplifica una clase más general de funciones
conocidas como funciones “spline”.

UNIDAD 2. MULTICOLINEALIDAD (CAP 10)


2.1. NATURALEZA DE LA MULTICOLINEALIDAD

 El término multicolinealidad se atribuye a Ragnar Frisch.


 La multicolinealidad es una relación lineal “perfecta” o exacta entre algunas o todas las
variables explicativas de un modelo de regresión
 La multicolinealidad se refiere a la existencia de más de una relación lineal exacta, y la
colinealidad se refiere a la existencia de una sola relación lineal; pero esta distinción
pocas veces se mantiene en la práctica y se hace referencia a multicolinealidad en ambos
casos.
 La multicolinealidad es en esencia un fenómeno muestral en sentido que aunque las
variables X no estén linealmente relacionadas en la población, pueden estarlo en la
muestra disponible.
 La multicolinealidad consiste en la existencia de relaciones lineales entre dos o mas
variables independientes del modelo uniecuacional múltiple.

Pregunta 62 FISICO
Qué es la multicolinealidad
La correlación perfecta entre variables explicativas

La correlación perfecta entre la variable dependiente y la variable explicativa


La correlación perfecta entre variables sobre-especificadas

16
Pregunta 63 FISICO
La multicolinealidad es la relación (correlación) perfecta entre las variables explicativas
Verdadero

Falso

Pregunta 64
La multicolinealidad es la correlación entre las variables….........en un modelo de regresión
múltiple
Explicativas

Dependientes
Dicótomas

Pregunta 65
La multicolinealidad hace referencia a:
Relación perfecta entre las variables explicativas

Relación parcial o leve entre las variables explicativas

Relación lineal entre la variable dependiente y las explicativas


Inversión

Pregunta 66
La multicolinealidad se da cuando existe alta ……........entre parejas de regresoras
Colinealidad

normalidad
heterocedasticidad

Pregunta 67
La multicolinealidad es en esencia un fenómeno muestral en sentido que:
Aunque las variables X no estén linealmente relacionadas en la población, pueden
estarlo en la muestra disponible
Las variables X en la población y en la Muestra no se relacionan
Relaciona linealmente la variable poblacional con la variable muestral

17
Pregunta 68 FISICO
En que consiste la multicolinealidad:
Consiste en la existencia de relaciones lineales entre dos o más variables
independientes del modelo uniecuacional múltiple
Consiste en la relación entre las variables independientes del modelo uniecuacional
múltiple y su regazo en el tiempo
Consiste en la diferencia de las varianzas entre dos o más variables independientes
del modelo uniecuacional simple

 MULTICOLINEALIDAD PERFECTA
o Es la relación perfecta entre las variables explicativas
o La multicolinealidad es perfecta cuando los coeficientes de regresión de las variables X
son indeterminados y sus errores estándar son infinitos.
o Cuando se incumple la hipótesis básica del modelo uniecuacional múltiple: la matiz X
no es de rango completo por columnas, esto es rg(x)<k
 MULTICOLINEALIDAD MENOS PERFECTA
o La multicolinealidad leve o aproximada es la relación aproximada entre dos o mas
variables independientes
o La multicolinealidad es menos perfecta cuando los coeficientes de regresión de las
variables X son determinados y sus errores estándar son grandes.
o Los errores estándar son grandes en relación a los coeficientes mismos, lo que significa
que los coeficientes no pueden ser estimados con gran precisión o exactitud.
o Si la colinealidad es alta pero no perfecta, es posible la estimación de los coeficientes
de regresión, pero sus errores estándar tienden a ser grandes.
o Cuando la multicolinealidad es leve o moderada se pueden presentar los siguientes
problemas:
o Las varianzas de los estimadores son muy grandes
o Al efectuar contrastes de significación individual no se rechazará la hipótesis nula,
mientras que al realizar contrastes conjuntos sí.
o Existen coeficientes de determinación muy elevados
o No se incumple la hipótesis básica del modelo uniecuacional múltiple: la matriz X es de
rango completo por columnas, esto es : rg(x)=K

Pregunta 69
La multicolinealidad perfecta es
La relación perfecta entre las variables explicativas

La relación entre los errores de las variables explicativas


La relación lineal entre las variable dependiente y las explicativas

18
Pregunta 70
Multicolinealidad …………. Es cuando existe perfecta correlación entre las variables
explicativas.
Perfecta

Moderada
Normal

Pregunta 71 FISICO
Qué es la multicolinealidad exacta o perfecta:
Es la existencia de una relación lineal exacta entre dos o más variables
independientes
Es la relación entre las varianzas de dos o más variables independientes
Es la relación lineal aproximada entre dos o más variables independientes

Pregunta 72
Si existe multicolinealidad perfecta entre las x:
Los coeficientes de la regresión son indeterminados y los errores estándar no están
definidos ojo los errores estándar son infinitos
Los coeficientes de la regresión son determinados y los errores estándar están
indefinidos
Los coeficientes de la regresión son indeterminados y los errores estándar están
definidos

Pregunta 73
Si existe colinealidad perfecta entre las X, sus coeficientes de regresión son ............. y sus
errores estándar no están definidos.
Indeterminados

Bajos
determinados

Pregunta 74 FISICO
Si la correlación entre las variables explicativas es alta, qué síntoma es común
Las estimaciones de los coeficientes suelen presentar signos distintos a los
esperados y magnitudes poco razonables
Las estimaciones son eficientes y consistentes con la teoría
Los dos opciones anteriores

19
Pregunta 75 FISICO
Cuando la multicolinealidad es perfecta:
Se incumple la hipótesis básica del modelo uniecuacional múltiple: la matriz X no es
de rango completo por columnas, esto es rg(x)< K
Se incumple el supuesto de normalidad, es decir N< 30
Se incumple el supuesto de homocedasticidad de las varianzas esto es se incumple
G1=G2

Pregunta 76 FISICO
Qué es la multicolinealidad leve o aproximada:
Es la relación lineal aproximada entre dos o más variables independientes

Es la existencia de una relación lineal exacta entre dos o más variables


independientes
Es la relación lineal aproximada entre dos o más variables dependientes

Pregunta 77
Si la colinealidad es alta pero no perfecta, es posible la estimación de los coeficientes de
regresión, pero sus errores estándar tienden a ser:
Grandes ejemplo error estándar de 1,4 y el coeficiente B=2

Pregunta 78
Cuando la multicolinealidad es leve o moderada se pueden presentar los siguientes
problemas:
Las varianzas de los estimadores son muy grandes

Al efectuar contrastes de significación individual no se rechazará la hipótesis nula,


mientras que al realizar contrastes conjunto si
Se pierden datos
Se pierden grados de libertad

Pregunta 79
Cuando la multicolinealidad es leve o moderada se pueden presentar los siguientes
problemas:
Existen coeficientes de determinación muy elevados

Existen chi 2 muy elevados


Existen t muy significativas

20
Pregunta 80
Cuando la multicolinealidad es leve o aproximada:
No se incumple la hipótesis básica del modelo uniecuacional múltiple: la matriz X es
de rango completo por columnas, esto es : rg(x)=K
Se incumple el supuesto de normalidad
Se incumple el supuesto de homocedasticidad de las varianzas esto es se incumple
G1=G2

CAUSAS DE LA MULTICOLINEALIDAD
 Existen diversas causas de multicolinealidad, como:
o Recolección inadecuada de la muestra
o Escasa variabilidad en las observaciones de las variables independientes
o Restricciones en el modelo o en la población objeto de muestreo
o Que las variables independientes se expliquen entre si
o Especificación del modelo
o Un modelo sobredeterminado
 En las series de tiempo puede ser que las regresoras del modelo compartan una
tendencia común, es decir que todas aumenten o disminuyan a lo largo del tiempo.

Pregunta 81 FISICO
Cuál de las siguientes opciones puede causar multicolinealidad
Recolección inadecuada de la muestra

Incrementar una variable


Eliminar una variable

Pregunta 82
Cuáles de las siguientes son causas de la multicolinealidad
El método de recolección de la información

Que las variables independientes se expliquen entre si

Rezagos
Autocorrelación

Pregunta 83 FISICO
Cuáles son las principales causas que produce Multicolinealidad en un modelo:
Escasa variabilidad en las observaciones de las variables independientes

Amplia diferencia entre las varianzas de las variables independientes


No normalidad de las variables independientes
21
2.2. CONSECUENCIAS TEORICAS Y PRACTICAS DE LA MULTICOLINEALIDAD

 Si se satisfacen los supuestos del modelo clásico, los estimadores de MCO de los
coeficientes de regresión son MELI
 MELI. Significa: Mejor Estimador Lineal e Insesgado
1. Aunque los estimadores de MCO son MELI, presentan varianzas y covarianzas grandes
que dificultan la estimación precisa.
Debido a 1.
2. Los intervalos de confianza tienden a ser mucho más amplios, lo cual propicia una
aceptación más fácil de la hipótesis nula cero (Ho)
Debido a 1.
3. Las razones t de uno o más coeficientes tiende a ser estadísticamente no significativa
4. Aunque la razón t de uno o más coeficientes sea estadísticamente no significativa, R2, la
medida global de bondad de ajuste, puede ser muy alta.
5. Los estimadores de MCO y sus errores estándar son sensibles a pequeños cambios en los
datos.
 A medida que r23 tiende a 1, es decir a medida que aumenta la colinealidad, también lo
hacen las varianzas de los dos estimadores y en el limite cuando r23 = 1, son infinitas.
 A medida que r23 aumenta hacia 1, la covarianza de los dos estimadores también aumenta
en valor absoluto.
EN RESUMEN: como consecuencias de la multicolinealidad tenemos:
o Estimadores de MCO son MELI, con varianzas y covarianzas grandes
o Intervalos de confianza más amplios
o Razones t no significativas
o Una R2 alta pero pocas razones t significativas
o Sensibilidad de los estimadores de MCO y sus errores estándar ante cambios
pequeños en los datos.

Pregunta 84
El término MELI significa:
Mejor estimador Lineal e Insesgado

Método de estimación insesgada


Método de estimación lineal

22
Pregunta 85
En el modelo clásico la terminología (iniciales) para el mejor estimado lineal e insesgado es:
MELI mejor estimado lineal e insesgado

Pregunta 86
Cuáles de las siguientes son consecuencias prácticas de la multicolinealidad
Las razones t de uno a más coeficientes tienden a ser no significativas

Aunque los estimadores de MCO son MELI, presentan varianzas y covarianzas


grandes que dificultan la estimación precisa
La forma funcional de la regresión es incorrecta
Las varianzas son siempre homocedasticas

Pregunta 87
Cuáles de las siguientes son consecuencias prácticas de la multicolinealidad
Aunque la razón t de uno o más coeficientes sea estadísticamente no significativa , R
cuadrado puede ser muy alto
Los intervalos de confianza tienden a ser mucho más amplios

Las variables x no se relacionan entre si


El modelo presenta homocedasticidad

Pregunta 88
Si las t del modelo son poco significativos pero el…..................es alto entonces existe
multicolinealidad
R cuadrado

R
error

Pregunta 89 FISICO
Existe multicolinealidad si existe un R 2 alto pero pocas t de student significativas
Verdadero

Falso

23
Pregunta 90
Una señal de ……… es r cuadrados altos y pocas ……… significativas
Multicolinealidad / t

Heterocedasticidad / t
Normalidad / t

Pregunta 91 FISICO
Qué enunciado es correcto.
En presencia de multicolinealidad R2 es muy alta pero ninguno de los coeficientes de
regresión es estadísticamente significativo con base en la prueba t convencional
En presencia de error de especificación R2 es muy alta pero ninguno de los
coeficientes de regresión es estadísticamente significativo con base en la prueba t
convencional
En presencia de autocorrelación R2 es muy alta pero ninguno de los coeficientes de
regresión es estadísticamente significativo con base en la prueba t convencional

 FACTOR INFLACIONARIO DE LA VARIANZA (FIV)


o Está definido como:
1
FIV =
(1−r 223)

o El FIV mide la velocidad con que se incrementan las varianzas y covarianzas


o El FIV muestra la forma como la varianza de un estimador se infla por la presencia de la
multicolinealidad.
o A medida que r 223 se acerca a 1, el FIV se acerca a infinito.
Es decir, a medida que el grado de colinealidad aumenta, la varianza de un
estimador también y en el límite se vuelve infinita, por lo que no hay colinealidad
entre X 2 y X 3 , el FIV será 1.
 El que la varianza sea grande o pequeña depende de tres ingredientes:
o σ2
o FIV
o ∑ x 2j
 TOLERANCIA (TOL)
o El inverso del FIV se conoce como tolerancia (TOL).
o Está definido como:
1
TOL j= =( 1−R 2j )
FIV j
o Cuando R2j=1, es decir colinealidad perfecta, TOL j=0
o Cuando R2j=0, es decir no existe ninguna colinealidad, TOL j=1

24
Pregunta 92
Para calcular el Factor Inflador de la Varianza se divide 1/(1-……)

R cuadrado 23 FIV =1 / ( 1−r 223 )

2.3. COMO DETECTAR LA MULTICOLINEALIDAD

25
Para detectar la multicolinealidad se tiene ciertas reglas prácticas, algunas informales y
otras formales, como:
 Una R2 elevada pero pocas razones t significativas.
R2 es alta cuando esta por encima de 0,8.
 Las probabilidades de los coeficientes de regresión son mayores al 5% (0,05)
 El valor de F es significativo
 Altas correlaciones entre parejas de regresoras.
o Si el coeficiente de correlación de orden cero es alto superior a 0,8, la multicolinealidad
es grave.
o La relación entre X 2 y X 3 , se denomina r23.
 Examen de las correlaciones parciales.
o En los modelos con dos variables explicativas puede tenerse una idea relativamente
buena de la colinealidad mediante el examen del coeficiente de correlación de orden
cero
o Los coeficientes de correlación de orden cero pueden ser malos indicadores en
modelos con más de dos variables X, pues es posible tener correlaciones bajas de
orden cero y encontrar aun alta multicolinealidad.
o El examen de correlaciones parciales se puede realizar en las regresiones múltiples con
dos o más variables independientes
o Si los coeficientes de correlación parcial son mayores a 0,08
 Regresiones auxiliares.
o Consiste en realizar regresar una variable explicativa en función de otra. Ej. X2=f(X3)
o También se puede aplicar la Regla práctica de Klein, que plantea que la
multicolinealidad puede ser un problema complicado solamente si la R 2 obtenida de
una regresión auxiliar es mayor que la R 2 global.
 Valores propios e índice de condición.
o Número de condición k. definido como:
valor propio máximo
k=
valor propio mínimo
o Índice de condición (IC), definido como:
valor propio máximo
IC=
√ valor propio mínimo
o Tenemos la regla práctica:
=√ k

o Si k esta entre 100 y 1000, existe multicolinealidad que va de moderada a fuerte


o Si k es mayor que 1000, existe multicolinealidad grave.
o Si IC=√ k esta entre 10 y 30, existe multicolinealidad que va entre moderada y
fuerte.
o Si IC=√ k es mayor que 30, existe multicolinealidad grave.
o El índice de condición es el mejor diagnóstico de multicolinealidad disponible.
 Tolerancia (TOL) y factor de inflación de la varianza (FIV)
Se tiene la regla práctica:
o Si el resultado del FIV de una variable es superior a 10 (si R2jexcede de 0,90) se dice
que la variable es muy colineal o existe multicolinealidad.
o Si el resultado del FIV de una variable es menor a 10 (si R2jes menor de 0,90) se dice
que no existe multicolinealidad.
 Diagrama de dispersión.
Es una buena practica usar diagrama de dispersión para ver como se relacionan las
diversas variables de un modelo de regresión.

26
Pregunta 93
Cómo se puede detectar la multicolinealidad
Factor inflador de la varianza

Correlaciones parciales

Modelos autoregresivos
Correlograma

Pregunta 94
En qué tipo de regresión se puede hacer el examen de correlaciones parciales.
Regresión múltiple con dos o más variables independientes

Regresión simple con una variable explicativa logarítmica


Regresión simple con una variable independiente

Pregunta 95
En los modelos con dos variables explicativas puede tenerse una idea relativamente buena
de la colinealidad mediante el examen del coeficiente de ………………. de orden cero
Correlación

Asimetría
Determinación

Pregunta 96
Los coeficientes de …………………… de orden cero pueden ser malos indicadores en modelos
con más de dos variables X, pues es posible tener correlaciones bajas de orden cero y
encontrar aún alta multicolinealidad.
Correlación

Determinación
Asociación

Pregunta 97 FISICO
La regla de Klein, plantea que la multicolinealidad puede ser un problema complicado
solamente si la R2 obtenida de una regresión auxiliar es menor que la R 2 global
Falso .... es mayor que la R2 global

Verdadero

27
Pregunta 98
Los valores …………………… y los índices de ……………… sirven para diagnosticar la
multicolinealidad.
propios / condición

propios / correlación
normales / condición

Pregunta 99
El número de condición k es igual al cociente entre el valor propio máximo y:
El valor propio mínimo

Pregunta 100
Si IC=√ k , la raíz cuadrada del valor propio máximo dividido para el valor propio mínimo da
como resultado 1100 existe:
Multicolinealidad Grave si 100<k<1000 mult. Moderada a fuerte ó 10<√ k >30
Si k > 1000 mult. grave ó √ k > 30

Pregunta 101
Cuando existe multicolinealidad:
Si el factor inflador de la varianza es muy elevado

Si el factor inflador de la varianza es mayor a 10

Si el factor inflador de la varianza es 1


Si el factor inflador de la varianza es cero

Pregunta 102 FISICO


Si el factor inflador de la varianza es 11:
Existe multicolinealidad

Existe heteroscedasticidad
Existe autocorrelación
Ninguna de las anteriores

Pregunta 103
Si el .........................es menor a 10 no existe Multicolinealidad
Factor inflador de la varianza

Coeficiente de determinación
Coeficiente de correlación

28
Pregunta 104 FISICO
Si el factor inflador de la varianza es 9:
Es evidencia que no existe multicolinealidad

Es evidencia que no existe heteroscedasticidad


Es evidencia que no existe autocorrelación

Pregunta 105 FISICO


Si el factor inflador de la varianza es 0:
Ninguna de las anteriores

Existe heteroscedasticidad
Existe autocorrelación
Existe multicolinealidad

Pregunta 106
El resultado del factor inflador de la Varianza es FIV= 1 / (1-0.90) = 10. ¿Existe
Multicolinealidad? (Responda si existe multicolinealidad (Multicolinealidad) o si no existe
multicolinealidad (No multicolinealidad)
Multicolinealidad

Pregunta 107
El resultado del factor inflador de la Varianza es FIV= 1 / (1-0.40) = 1.6 ¿Existe
Multicolinealidad? (Responda si existe multicolinealidad (Multicolinealidad) o si no existe
multicolinealidad (No multicolinealidad)
No multicolinealidad aunque es el factor inflador de varianzas mide la multicolinealidad

Pregunta 108
En una regresión y= a 3+0.5X1+08X2, los errores son (0.9) y (1.5) respectivamente para cada
variable. El r cuadrado es 0.98 Existe Multicolinealidad? (Responda si existe
multicolinealidad (Multicolinealidad) o si no existe multicolinealidad (No multicolinealidad)
Multicolinealidad r cuadrado excede de 0,9

Pregunta 109
Si el r23 es de 0.99 se espera que haya :
Multicolinealidad r cuadrado excede de 0,9

29
Pregunta 110
Si el r23 es de 0.20 existe multicolinealidad (Responda si existe multicolinealidad
(Multicolinealidad) o si no existe multicolinealidad (No multicolinealidad)
No multicolinealidad r cuadrado 23 es menor que 0,90

2.4. MEDIDAS CORRECTIVAS

Se pueden intentar las siguientes reglas prácticas para corregir la multicolinealidad, es decir
para que no exista multicolinealidad:
 Información a priori
o La información “a priori” sobre la relación entre las variables independientes del
modelo, es de utilidad para solventar los problemas de multicolinealidad
o Utilizar la relación extramuestral que permita realizar relaciones entre los para metros
(información a priori) que permita estimar el modelo por mínimos cuadrados
restringidos.
 Transformación de variables de razón.
Es decir, dividir la variable que presenta un mayor grado de relación para las demás
variables restantes.
 Combinación de información de corte transversal y de series de tiempo (mezcla de
datos)
 Eliminación de una(s) variable(s) y el sesgo de especificación
o Consiste en eliminar una de las variables colineales causantes de la multicolinealidad
o Si hay información suficiente, se puede eliminar la variable que causa el problema
o Al eliminar una variable independiente del modelo, debido a problemas de
multicolinealidad, se puede incurrir en sesgo de especificación
 Transformación de variables
 Datos nuevos o adicionales (aumentar el tamaño de la muestra)
A veces con solo aumentar el tamaño de la muestra (si esto es posible) se atenúa el
problema de la multicolinealidad.
 Reducción de la colinealidad en las regresiones polinomiales
 Otros métodos de remediar la multicolinealidad son:
o Las técnicas estadísticas multivariadas como el análisis de factores y el componentes
principales.

Pregunta 111 FISICO


La información “a priori” sobre la relación entre las variables independientes del modelo, no
es de utilidad para solventar los problemas de multicolinealidad
Falso ...... si es de utilidad para solventar...

Verdadero

30
Pregunta 112
Cuál de los siguientes es una solución para el problema de multicolinealidad
Utilizar la relación extramuestral que permita realizar relaciones entre los
parámetros (información a priori) que permita estimar el modelo por mínimos
cuadrados restringidos
Cambiar la variable dependiente
Eliminación de datos

Pregunta 113 FISICO


A eliminar una variable independiente del modelo, debido a problemas de
multicolinealidad, se puede incurrir en sesgo de especificación.
Verdadero

Falso

Pregunta 114
Si en la regresión Y= a+B1X1+B2X2 las Variables X1 y X2 están correlacionadas, y se
transforman a 1/X1 y 1/X2 existe multicolinealidad. (Responda si existe multicolinealidad
(Multicolinealidad) o si no existe multicolinealidad (No multicolinealidad)
No multicolinealidad la transformación de variables es una medida correctiva
para evitar la multicolinealidad

Pregunta 115
Podría eliminarse la multicolinealidad de la siguiente manera
Combinando información de corte transversal y series de tiempo

Incrementar las variables explicativas


Colocar una variable dicótoma

Pregunta 116 FISICO


Se puede utilizar información de corte transversal y de series de tiempo para intentar
corregir la multicolinealidad
Verdadero

Falso

Pregunta 117 FISICO


Como se puede corregir la multicolinealidad
Si hay información suficiente, se puede eliminar la variable que causa el problema

Se tiene correr otro modelo


Se tiene que dividir para la variable

31
Pregunta 118
Cuál de las siguientes es una solución para el problema de multicolinealidad
Eliminación de las variables que se sospechan son causantes de la multicolinealidad

En caso de disponer de pocas observaciones aumentar el tamaño de la muestra

Igualar las varianzas


Agregar una variable dicótoma

Pregunta 119
Otros métodos de remediar la multicolinealidad son el análisis de factor el el de:
Componentes principales

Pregunta 120
En cuáles relaciones se prevé que exista colinealidad
Importaciones y PIB

Exportaciones y PIB

Población y PIB
Volumen de crédito y Consumo de energía

Pregunta 121
Cuál de los siguientes ejemplos teóricamente se asume que tiene multicolinealidad
Migración en función de PIB per cápita y población

Inversión extranjera en función de PIB y exportaciones

Migración en función de PIB y desempleo


PIB en función de volumen de crédito y consumo de energía

Pregunta 122 FISICO


Cuál de los modelos (teóricamente) presenta multicolinealidad?
Migración en función de desempleo y PIB

Peso en función de estatura y género


Gasto en función de ingreso y ahorro

32
Pregunta 123 FISICO
Por lo general cuando utilizamos variables en economía se presenta colinealidad entre las
variables económicas, con tal de que esta no sea exacta se pueden estimar los parámetros
del modelo
Verdadero

Falso

Pregunta 124 FISICO


Los métodos para medir multicolinealidad para detectar su fuerza son muy seguros y
confiables
Falso

Verdadero

33
UNIDAD 3. HETEROSCEDASTICIDAD: ¿QUE PASA SI LA VARIANZA DEL ERROR NO ES
CONSTANTE?
3.1. NATURALEZA DE LA HETEROSCEDASTICIDAD

 Un supuesto importante del modelo clásico de regresión lineal es que todas las
perturbaciones ui tienen la misma varianza (son homoscedásticas)
 Este es el supuesto de homoscedasticidad: homo (igual) cedasticidad (dispersión), es
decir igual varianza.
 La heteroscedasticidad nos indica que la varianza del término del error no es constante
para todos los valores de las variables independientes, lo que nos genera que las
estimaciones sean sesgadas e ineficientes para los errores estándar.
 La heteroscedasticidad es cuando la varianza de las perturbaciones no es constante a lo
largo de las observaciones
 La heteroscedasticidad nos indica que la varianza de las perturbaciones aleatorias
condicionales a los valores de las regresoras X sean variables.
 Hay diversas razones por las cuales las varianzas ui pueden ser variables, es decir las
causas de la heteroscedasticidad:
o Errores al momento de obtener nueva información
o La presencia de datos atípicos o aberrantes en las variables
Una observación atípica o aberrante es la que es muy diferente (muy pequeña o muy
grande) en relación con las demás observaciones en la muestra.
o La mala especificación del modelo
o Distribución asimétrica de las variables explicativas
Las variables explicativas tienen distribución asimétrica o amplio recorrido
o Incorrecta transformación de datos
o Forma funcional incorrecta del modelo
 La heteroscedasticidad es más común en la información de corte transversal y no mucho
en las series de tiempo.
 Las causas estructurales o teóricas de la heteroscedasticidad suelen darse en modelos de
corte transversal con unidades muestrales de diferente tamaño
 Un cambio de estructura en el modelo de regresión provoca un mal ajuste de los
parámetros al conjunto de los datos muestrales provocando heteroscedasticidad.

Pregunta 125
Un supuesto importante del modelo clásico de regresión lineal es:
Que todas las perturbaciones ui tienen la misma varianza G 2. Si este supuesto no se
satisface, hay heterocedasticidad
Que todas las perturbaciones ui tienen diferente varianza G 2. Si este supuesto
satisface, hay heterocedasticidad
Que todas las perturbaciones ui tienen la diferente varianza G 2. Si este supuesto no
se satisface, hay homocedasticidad

34
Pregunta 126 FISICO
Un supuesto importante del modelo clásico de regresión lineal es:
Que todas las perturbaciones ui tienen la misma varianza σ 2. Si este supuesto no se
satisface, hay heterocedasticidad.
Que todas las perturbaciones ui tienen diferente varianza σ 2. Si este supuesto no se
satisface, hay homocedasticidad.
Que todas las perturbaciones ui tienen diferente varianza σ 2. Si este supuesto no se
satisface, hay heterocedasticidad.

Pregunta 127
Un supuesto importante del modelo clásico de regresión lineal es que todas las
perturbaciones ui tienen:
La misma varianza

Igual coeficiente de determinación


Diferente varianza

Pregunta 128 FISICO


Qué es heteroscedasticidad
Cuando la varianza de las perturbaciones no es constante a lo largo de las
observaciones
Cuando la varianza de las perturbaciones es constante a lo largo de las
observaciones
Cuando la varianza de las perturbaciones son iguales a lo largo de las observaciones

Pregunta 129
En referencia a la heterocedasticidad el modelo básico de regresión lineal exige como
hipótesis básica:
Que la varianza de las perturbaciones aleatorias condicionales a los valores de las
regresoras X sean variables
Que las desviaciones estándar de las perturbaciones aleatorias condicionales a los
valores de las regresoras X se eleven al cuadrado
Que la varianza de las perturbaciones aleatorias, condiciona a los valores de las
regresoras X sean constantes

Pregunta 130
Si decimos que la varianza de las perturbaciones aleatorias condicionales a los valores de las
regresoras X sean variables estamos hablando de:
heterocedasticidad

35
Pregunta 131
Cuál de las siguientes es una causa de la Heterocedasticidad
Presencia de puntos atípicos en las variables

Presencia de homogeneidad en los valores de las variables explicativas


Variables dependientes con distribución normal

Pregunta 132
Si una serie de datos tiene 30 valores sobre ingresos, 29 valores van entre 1000USD y
2500USD al mes, pero un valor es de 8400USD, esto puede ocasionar:
Heterocedasticidad

Multicolinealidad
Normalidad

Pregunta 133
Si el ingreso per-cápita de un país oscila entre 800 y 1500 USD, a lo largo de 15 años, y en el
año 16, tiene un valor de 2000, este dato atípico puede generar:
Heterocedasticidad

Homocedasticidad
Multicolinealidad

Pregunta 134
Cuál de las siguientes es una causa de Heterocedasticidad
Distribución asimétrica de las variables explicativas

Presencia de puntos atípicos en las variables

Variables explicativas con igual varianza


Multicolinealidad

Pregunta 135
Cuál de las siguientes es una causa de heteroscedasticidad
Forma funcional incorrecta

Variables explicativas con distribución asimétrica o amplio recorrido

Desviaciones estándar reducidas


R cuadrado elevado

36
Pregunta 136
Cuando las variables explicativas tienen distribuciones asimétricas se produce:
Heteroscedasticidad

R cuadrados altos
Multicolinealidad

Pregunta 137
La forma funcional incorrecta en una regresión produce:
Heteroscedasticidad

Multicolinealidad
Desviaciones estándar pequeñas

Pregunta 138 FISICO


Cuál de los enunciados es el correcto:
Las causas estructurales o teóricas de la heteroscedasticidad suelen darse en
modelos de corte transversal con unidades muestrales de diferente tamaño
Las causas estructurales o teóricas de la heteroscedasticidad suelen darse en
modelos de series de tiempo con unidades muestrales similares de tamaño
Las causas estructurales o teóricas de la heteroscedasticidad suelen darse en
modelos de corte transversal con unidades muestrales similares de tamaño

Pregunta 139
Un cambio de estructura en el modelo de regresión provoca un mal ajuste de los
parámetros al conjunto de los datos muestrales, esto produce:
Heterocedasticidad

Normalidad
Homocedasticidad

37
3.2. ESTIMACION POR MINIMOS CUADRADOS ORDINARIOS (MCO) EN PRESENCIA DE
HETEROSCEDASTICIDAD

 La heterocedasticidad no destruye las propiedades de insesgamiento y consistencia de los


estimadores de MCO
 En presencia de heteroscedasticidad los MCO siguen siendo lineal, insesgado y
consistente pero deja de ser eficiente
 sin embargo, estos estimadores dejan de tener varianza mínima, es decir, de ser
eficientes, por consiguiente no son MELI
 En presencia de heteroscedasticidad los intervalos de confianza tienden a ser más
amplios
 En presencia de heteroscedasticidad, las varianzas de los estimadores de MCO no se
obtienen con la formulas usuales de MCO
 Cuando se utiliza Mínimos cuadrados ordinarios en presencia de heterocedasticidad la
varianza es un estimador sesgado del verdadero valor de la varianza

Pregunta 140
La heterocedasticidad no destruye las propiedades de …………... y ……………………. de los
estimadores de MCO
Insesgamiento y consistencia

Insesgamiento y eficiencia
eficiencia y consistencia

Pregunta 141 FISICO


Cuál de los siguientes enunciados es correcto con respecto al problema de la
heterocedasticidad
La heterocedasticidad no destruye las propiedades de insesgamiento y consistencia
de los estimadores MCO
La heterocedasticidad destruye las propiedades de insesgamiento y consistencia de
los estimadores MCO
Los estimadores dejan de tener varianza mínima, es decir, de ser eficientes, por
consiguiente son MELI

Pregunta 142
En presencia de heterocedasticidad la estimación de mínimos cuadrados ordinarios sigue
siendo:
Lineal, insesgado y consistente pero deja de ser eficiente

Lineal, sesgado e inconsistente pero deja de ser eficiente


Lineal, insesgado y consistente pero deja de ser ineficiente

38
Pregunta 143
En presencia de heterocedasticidad la estimación de mínimos cuadrados ordinarios sigue
siendo Lineal, insesgado y consistente pero deja de ser :
Eficiente eje. Ya no tiene varianzas mínimas

Pregunta 144
En presencia de Heterocedasticidad los estimadores de ………...Siguen siendo lineal,
insesgados y consistentes
Mínimos Cuadrados Ordinarios

Mínimos cuadrados Ponderados


Mínimos Cuadrados Generalizados

Pregunta 145 FISICO


Cuál es la opción incorrecta en presencia de heteroscedasticidad
Los estimadores dejan de tener varianza mínima, es decir, de ser eficientes, por
consiguiente no son MELI
Los estimadores dejan de tener varianza mínima, es decir, de ser eficientes, por
consiguiente son MELI
La heterocedasticidad no destruye las propiedades de insesgamiento y consistencia
de los estimadores MCO

Pregunta 146
Bajo presencia de Heterocedasticidad los estimadores dejan de tener............. es decir, de
ser eficientes. Por consiguiente, no son MELI
varianza mínima

coeficiente de determinación mínimo


varianza grande

Pregunta 147
En presencia de heteroscedasticidad los intervalos de confianza tienden a ser más:
Más amplios ojo.... escribir más amplios sino sale errónea

Pregunta 148 FISICO


En presencia de heteroscedasticidad, las varianzas de los estimadores de MCO:
No se obtienen con las fórmulas usuales de MCO

Se obtienen con las fórmulas usuales de MCO


Se obtienen con las fórmulas usuales de MCG

39
Pregunta 149
Cuando se utiliza Mínimos cuadrados ordinarios en presencia de heterocedasticidad:
La varianza es un estimador sesgado del verdadero valor de la varianza

La varianza es un estimador correcto del verdadero valor de la varianza


La varianza es un estimador insesgado del verdadero valor de la varianza

Pregunta 150
En presencia de Heterocedasticidad las varianzas del estimador de Mínimos Cuadrados
Ordinarios son estimadores sesgado de las:
varianzas eje: el cuadrado de las desviaciones estándar

3.3. EL METODO DE MINIMOS CUADRADOS GENERALIZADOS (MCG)


3.4. CONSECUENCIAS DE UTILIZAR MCO EN PRESENCIA DE HETEROSCEDASTICIDAD

3.5. DETECCION DE LA HETEROSCEDASTICIDAD

 Podemos examinar algunos métodos informales y formales para detectar la


heteroscedasticidad. La mayoría de estos se basan en el examen de los residuos ui de
MCO, pues son estos los que se observan y no las perturbaciones ui.
 METODOS INFORMALES
o Naturaleza del problema
o Método gráfico
o Plantea realizar un gráfico de los residuos estimados al cuadrado del modelo frente
a los valores estimados de la variable independiente. Si se observa un patrón
sistemático entre la dos variables, posiblemente hay heteroscedasticidad.
o Graficar los errores a través de las distintas observaciones del modelo
 METODOS FORMALES
Como métodos formales tenemos:
o Prueba de Park
o Prueba de Glejser (Contraste de Glejser)
o Prueba de correlación de orden de Spearman (Coeficiente de rango de Spearman)
o Prueba de Goldfeld-Quandt
o Prueba de Breusch-Pagan-Godfrey (Prueba BPG) (Contraste de Breusch-Pagan)
o Prueba general de heteroscedasticidad de White (Contraste de White)

Pregunta 151
De las siguientes cuales con formas de detectar la heterocedasticidad
Graficar los errores a través de las distintas observaciones del modelo

Utilizar pruebas de contraste como la de White

Utilizar logaritmos
Utilizando el factor inflador de la varianza
40
Pregunta 152
Cuáles de las siguientes son pruebas para detectar heterocedasticidad
Coeficientes de rango de Spearman

Contraste de White

Jarque- Bera
Distribución normal

Pregunta 153
Cómo se puede detectar la heterocedasticidad
Utilizando la prueba de contraste de White

Utilizando la prueba de Breusch-Pagan

Utilizando el correlograma
Utilizando la prueba chi cuadrado

Pregunta 154
Cuáles de las siguientes son pruebas para detectar heterocedasticidad:
Contraste de Breusch-Pagan

Contraste de Gleser

Asimetría
Kurtosis

Pregunta 155 FISICO


Si se hace una regresión de los residuos con las X y el resultado es un r2=0.0595, según la
prueba de Park
Hay heterocedasticidad

No hay heterocedasticidad
Hay Multicolinealidad

Pregunta 156 FISICO


Si en una regresión de los residuos ui con la variable X, el r cuadrado es 0.56, por lo cual la
prueba de Glejser muestra que:
Existe heterocedasticidad

Existe multicolinealidad
Existe error de especificación

41
Pregunta 157
Si en una regresión de los residuos ui con la variable X, el r cuadrado es 0.06, por lo cual la
prueba de Glejser muestra que:
No existe heterocedasticidad

Existe heterocedasticidad
Existe multicolinealidad

Pregunta 158
El éxito de la prueba de Goldfeld-Quandt depende no sólo del valor de c (el número de
observaciones centrales que se van a omitir), sino también de la identificación de………
la variable x correcta

Pregunta 159
Las pruebas de heterocedasticidad de Goldfeld-Quandt y prueba BPG asumen ……..... en el
modelo.
normalidad

Pregunta 160
De la prueba BPG, sensible al supuesto de normalidad, la prueba general de
heterocedasticidad propuesta por White no se apoya en el supuesto de:
Normalidad Cuando una población tiene más de 30 datos

Pregunta 161 FISICO


La prueba de White para heteroscedasticidad asume:
Normalidad

Heteroscedasticidad
Homocedasticidad

Pregunta 162
Una desventaja del procedimiento de White, además de ser de muestras grandes, es que los
estimadores obtenidos por este medio pueden :
No ser tan eficientes como los obtenidos por métodos de transformación de la
información
Ser tan eficientes como los obtenidos por métodos de transformación de la
información
Ser más eficientes que los obtenidos por métodos de transformación de la
información

42
Pregunta 163
Mínimos cuadrados generalizados
White esta prueba no asume normalidad

Pregunta 164
En la prueba de White, para que se compruebe la presencia de heterocedasticidad la
probabilidad debe ser :
Baja (<0.05)

Normal (=1)
Alta (>0.05)

Pregunta 165 FISICO


Si en la prueba White la probabilidad es de 0.0005
Se acepta la hipótesis de heterocedasticidad

Se rechaza la hipótesis de heterocedasticidad


No proporciona información relevante

Pregunta 166
En una regresión de los residuos al cuadrado y las variables x, con un valor de R2 =0.435 y
n=14 se obtiene nr2=6.090, con la hipótesis nula de inexistencia de heterocedasticidad. El
valor p que resulta de un chi cuadrado de 6.090 o mayor es 0.0476. La prueba de White
señala:
Heterocedasticidad

Homocedasticidad
Multicolinealidad

Pregunta 167 FISICO


Si el test de White es 0 entonces:
Existe heterocedasticidad

Existe autocorrelación
Existe multicolinealidad
Ninguna de las anteriores

43
Pregunta 168
En una regresión de los residuos al cuadrado y las variables x, con un valor de R2 =0.0435 y
n=14 se obtiene nr2=0.609, con la hipótesis nula de inexistencia de heterocedasticidad. El
valor p que resulta de un chi cuadrado es alrededor de 0.476. La prueba de White señala
qué (existe heterocedasticidad o no existe heterocedasticidad)
No existe heterocedasticidad responder según la regla de decisión

Pregunta 169
En una regresión de los residuos al cuadrado y las variables x, con un valor de R2 =0.435 y
n=14 se obtiene nr2=6.090, con la hipótesis nula de inexistencia de heterocedasticidad. El
valor p que resulta de un chi cuadrado de 6.090 o mayor es de 0.476. La prueba de White
señala:
No heterocedasticidad

Heterocedasticidad
Multicolinealidad

3.6. MEDIDAS CORRECTIVAS

 La heteroscedasticidad no destruye las propiedades de insesgamiento y consistencia de


los estimadores de MCO, sin embargo estos ya no son eficientes.
 Es necesario introducir medidas correctivas, basados en dos enfoques:
o Cuando se conoce σ i2: método de los mínimos cuadrados ponderados (MCP)
Se usa el método de los mínimos cuadrados ponderados cuando se conocen las
varianzas heteroscedásticas de error σ i2, ya que los estimadores obtenidos mediante
este método son MELI
o Cuando no se conoce σ i2
Se aplica la prueba de contraste de White, que nos proporciona varianzas y los errores
estándar con la corrección de heteroscedasticidad.
Los errores estándar de White corregidos mediante heteroscedasticidad también se
conocen como errores estándar robustos.

Pregunta 170
Los estimadores MELI son proporcionados por el método de mínimos cuadrados
………………...siempre que se conozcan las varianzas heteroscedásticas de error, σ2i
Ponderados

Normales
Ordinarios

44
Pregunta 171
Cuáles son las formas de corregir la heteroscedasticidad
Cambiar la forma funcional de la regresión

Transformar variables

Distribución normal
FIV

Pregunta 172
La transformación logarítmica puede:
Disminuir la heterocedasticidad

Mantenerla Constante
Incrementar la Heterocedasticidad

Pregunta 173
Una transformación de las variables (por ejemplo, a logaritmos) puede ………………. la
heterocedasticidad
Disminuir

Incrementar
Aumentar

Pregunta 174
En un modelo de regresión la utilización de una función lineal en lugar de una logarítmica
potencial, (siendo la logarítmica la correcta) puede ocasionar:
Heterocedasticidad

Normalidad
Homocedasticidad

Pregunta 175
En presencia de heterocedasticidad:
Los contrastes tradicionales "t", "F", chi cuadrado ofrecen resultados menos
concluyentes
Los contrastes tradicionales "t", "F", chi cuadrado ofrecen resultados satisfactorios
Los contrastes tradicionales "t", "F", chi cuadrado ofrecen resultados más
concluyentes

45
Pregunta 176
Los contrastes tradicionales “t”, “F”, chi cuadrado ofrecen resultados menos concluyentes
Heterocedasticidad diferentes varianzas

Pregunta 177 FISICO


Cuál de los siguientes modelos se asume que tiene heterocedasticidad
Ingreso en función de edad y ahorro

Ingreso en función de ahorro y gasto


Ingreso en función de gasto

Pregunta 178 FISICO


Cuál de los siguientes modelos (relaciones) se asume que tiene heterocedasticidad
PIB en función de consumo de energía (millones de dólares)

PIB en función del volumen de créditos (millones de dólares)


PIB en función de la tasa de desempleo (% de la población)

Pregunta 179 FISICO


Cuál de los siguientes modelos (relaciones) se asume que no tiene heterocedasticidad
Migración en función de la tasa de desempleo (% de la población)

Migración en función del PIB (millones de dólares)


Remesas en función del desempleo (% personas)

Pregunta 180 FISICO


Cuál de los siguientes modelos (relaciones) se asume que no tiene heterocedasticidad
PIB en función de la tasa de desempleo (% de la población)

PIB en función del volumen de créditos (millones de dólares)


Remesas en función del desempleo (% personas)

Pregunta 181
Cuál de las siguientes opciones puede tener heterocedasticidad debido a la diferencia de las
varianzas
PIB (millones USD) desempleo (%)

Migración (tasa de crecimiento) y población (miles de personas)

Migración (tasa de crecimiento) y PIB (tasa de crecimiento)


PIB(millones de USD) y Volumen de crédito (millones de USD)

46
VARIABLES DICÓTOMAS Y HETEROSCEDASTICIDAD

Pregunta 182
La inclusión de una variable dicótoma en una regresión puede ocasionar:
heterocedasticidad

Pregunta 183
Si se incluye una variable dicótoma esto puede ocasionar:
Heterocedasticidad

Multicolinealidad
Normalidad

Pregunta 184
Un modelo con variables dicótomas puede generar heteroscedasticidad
Verdadero

Falso

Pregunta 185
Un modelo de regresión con variables dicótomas puede generar multicolinealidad.
Falso puede generar heteroscedasticidad

Verdadero

Pregunta 186
Una variable dicótoma puede causar
Heteroscedasticidad

Diferencia en las varianzas de las variables

Homocedasticidad
Igualdad de las varianzas de las variables

47
Pregunta 187
Cuando se utiliza variables dicótomas en los modelos de regresión se tiene que tener en
cuenta:
Que la inclusión de la variable dicótoma no produzca heterocedasticidad

No cometer la trampa de la variable dicótoma

Que no disminuyan el número de observaciones


Que exista variación en las variables

Pregunta 188
A las variables dicótomas también se las conoce como variables endógenas
Falso

Verdadero

Pregunta 189 FISICO


La predicción de datos con presencia de multicolinealidad es menos precisa
Verdadero

Falso

Pregunta 190 FISICO


La predicción de datos con variables dicótomas es menos precisa
Falso no multicolinealidad

Verdadero

Pregunta 191 FISICO


La multicolinealidad se da por que las variables dicótomas tienen 0 y 1 como datos
Falso la heteroscedasticidad se da por ....

Verdadero

48

También podría gustarte