Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Existen cuatro tipos de variables que por lo general se encuentran en el análisis empírico:
o Escala de razón
o Escala de intervalo
o Escala ordinal
o Escala nominal.
Variables de escala nominal. Estas variables también se las conoce como variables
indicadoras, categóricas, variables cualitativas, variables dicótomas o variables dummys
Pregunta 1
Otro nombre que se le suele dar a las variables dicótomas es variables ...
indicadoras
Pregunta 2
A las variables dicótomas también se las conoce como variables indicadoras
Verdadero
Falso
Pregunta 3
A las variables dicótomas también se las llama categóricas
Verdadero
Falso
Pregunta 4 FISICO
Qué es una variable dicótoma
Es una variable cualitativa
Pregunta 5
Una variable dicótoma es una variable cualitativa
Verdadero
Falso
1
Pregunta 6
A las variables dicótomas también se las conoce como variables dummy
Verdadero
Falso
Pregunta 7
Variables dummy es otro nombre que se les suele dar a las variables:
dicótomas
Pregunta 8
Una variable dicótoma es una variable cuantitativa
Falso es una variable cualitativa
Verdadero
Pregunta 9 FISICO
Cuál de las siguientes no es un calificativo para una variable dicótoma
Dependiente
Dummy
Categórica
Cualitativa
2
1.1. NATURALEZA DE LAS VARIABLES DICÓTOMAS
Pregunta 10
En el análisis de regresión, la variable dependiente a menudo acusa influencia no solo de
variables en escala de razón sino también de variables
Cualitativa
Dicótoma
Explicativa
Dependiente
3
Pregunta 11 FISICO
Las variables como género, estado civil, afiliación política, son variables que se presentan en
escala nominal
Verdadero
Falso
Pregunta 12 FISICO
Variables como la raza o la profesión, no tiene ninguna incidencia en el comportamiento de
la variable dependiente.
Falso son dicótomas y si tienen incidencia en la variable dependiente
Verdadero
Pregunta 13
Otro nombre de variable dicótoma que expresa cualidad es variable:
cualitativa
Pregunta 14
Las variables dicótomas se utilizan para cuantificar las variables
Falso se utilizan para cuantificar los atributos de las variables
Verdadero
Pregunta 15
Una variable dicótoma puede tomar valores de 0 o 1
Verdadero una manera de cuantificar sus atributos es mediante variables artificiales que toman valores 0 o 1
Falso
Pregunta 16 FISICO
La variable que se representa con 0 y 1 se denomina:
Variable dicótoma
Variable explicativa
Variable independiente
4
Pregunta 17 FISICO
En cuál de los siguientes ejemplos se da la trampa de la variable dicótoma si la variable es
género:
d1: hombre = 1 ; d2: mujer = 1
Pregunta 18
Las variables que se clasifican en categorías mutuamente excluyentes se llaman variables:
Dicótomas
Pregunta 19
Una variable que sólo puede tomar dos valores y representa una cualidad, se llama variable:
Dicótomas ojo… escribir en plural. Si no sale como mal contestada
Pregunta 20
La variable estado civil puede representarse como una variable dicótoma
Verdadero
Falso
Pregunta 21
Un ejemplo de variable cualitativa puede ser el género (Hombre, mujer)
Verdadero estas variable son un recurso para clasificar datos en categorías mutuamente excluyentes
Falso
Pregunta 22
Si la variable es género se debe agregar dos variables dicótomas, la primera 1 para hombres
y 0 para mujeres, y la segunda 1 para mujeres y 0 para hombre
Verdadero
Falso
Pregunta 23
La estatura es una variable dicótoma
Falso es una variable de razón no una variable en escala nominal
Verdadero
5
Pregunta 24
Un ejemplo de variable dicótoma es la tasa de crecimiento del PIB
Falso El PIB no es un atributo
Verdadero
Pregunta 25
El PIB es una variable dicótoma
Falso
Verdadero
Pregunta 26 FISICO
Un ejemplo de variable dicótoma también puede ser el ingreso mensual
Falso
Verdadero
Pregunta 27 FISICO
Cuál de las siguientes no es una variable dicótoma:
Rango de ingresos
6
Pregunta 28 FISICO
Un modelo ANOVA es:
Modelo solo con variables dicótomas
Pregunta 29
Cuando todas las variables explicativas en una regresión son variables dicótomas el modelo
se llama modelo……….
ANOVA
Pregunta 30 FISICO
Que enunciado se encuentra en el análisis de variables dicótomas
Análisis ANOVA
Modelo sobreestimado
Análisis de correlación
Pregunta 31
Los modelos que utilizan sólo variables dicótomas como independientes se llaman modelos
ANOVA
Verdadero
Falso
7
PRECAUCION CON LAS VARIABLES DICOTOMAS
Y i=β 1 + β 2 D 2 i + β 3 D 3 i +ui
Y i=∝+ β 1 D 1 i + β 2 D 2 i + β 3 D 3 i +ui
Con el intercepto eliminado y al permitir una variable dicótoma para cada categoría, los
coeficientes de las variables dicótomas proporcionan de manera directa los valores
medios de las distintas categorías.
Tenemos dos métodos para introducir una variable dicótoma:
o Agregar una variable dicótoma para cada categoría y omitir el término del intercepto
o Incluir el término del intercepto y añadir solo (m – 1) variables, donde m es el número
de categorías de la variable dicótoma.
Pregunta 32 FISICO
Si una variable cualitativa tiene m categorías:
Sólo hay que agregar (m-1) variables dicótomas
8
Pregunta 33
La regla K-1 variables dicótomas (K=categorías) es para evitar la trampa de la variable
dicótoma
Verdadero
Falso
Pregunta 34 FISICO
La trampa de la variable dicótoma tiene relación con la perfecta colinealidad que puede
presentarse entre variables dicótomas
Verdadero
Falso
Pregunta 35
La trampa de la variable dicótoma se da cuando se incluye igual número de variables que de
categorías
Verdadero
Falso
Pregunta 36
Cuando se coloca igual número de variables dicótomas que de categorías se cae en:
la trampa de la variable si se agrega 7 variables dicótomas para los días de la semana sin quitar el
intercepto
Pregunta 37 FISICO
Cuando se comete la trampa de la variable dicótoma:
Cuando se coloca igual número de variables dicótomas que de categorías
Pregunta 38
La trampa de la variable dicótoma se da cuando se ponen menos variables que categorías
Falso se da cuando se pone igual número de variables que de categorías
Verdadero
9
Pregunta 39 FISICO
Cuando realizamos regresiones con variables dicótomas, a los coeficientes asociados (que
están junto) a las variables dicótomas se los conocen como coeficientes de intercepto
diferencial
Verdadero
Falso
Pregunta 40
Para eludir la trampa de la variable dicótoma introduciendo tantas variables dicótomas
como categorías se puede:
No se debe introducir intercepto en dicho modelo
Eliminar datos
Incrementar la muestra
Pregunta 41 FISICO
En la ecuación Y t =α 1+ α 2 D t + β 1 X t + β 2 ( D t X t ) +u t, el intercepto diferencial es α 2
Verdadero
Falso
Pregunta 42 FISICO
En la ecuación Y t =α 1+ α 2 D t + β 1 X t + β 2 ( D t X t ) +u t, la pendiente es α 2 Dt
Falso
Verdadero
Pregunta 43
Cómo se coloca la categoría base en una variable dicótoma
Dependiendo del criterio del investigador
Pregunta 44
Las variables dicótomas no pueden ser variables dependientes
Falso ellas influyen en las variables dependientes , no son dependientes y se incluyen en las explicativas o
regresoras
Verdadero
10
Pregunta 45
Las variables dicótomas no pueden ser variables independientes
Falso
Verdadero
Pregunta 46 FISICO
En los modelos de regresión con variables dicótomas, si corremos la regresión sin intercepto
y si incluimos una variable dicótoma para cada categoría, se obtendrá de manera directa los
valores medios de las distintas categorías
Verdadero
Falso
Pregunta 47
Cuando se elimina el intercepto y se permite una variable dicótoma para cada categoría se
obtiene directamente:
Los valores medios de las distintas categorías
Las elasticidades
Los errores estándar
Pregunta 48 FISICO
El análisis de la varianza, es la única técnica que permite comparar dos o más valores
medios
Falso también existe el análisis de covarianza
Verdadero
En economía no es muy frecuente que se den modelos como los anteriores, se presentan
en áreas como la psicología, sociología, educación e investigación de mercados.
En la mayor parte de la investigación económica, modelo de regresión contiene diversas
variables explicativas cuantitativas y otras cualitativas.
Los modelos de regresión que muestran una mezcla de variables cuantitativas y
cualitativas se llaman Modelos de Análisis de Covarianza (ANCOVA)
Los modelos ANCOVA representan una generalización de los modelos ANOVA en el
sentido de que proporcionan un método para controlar estadísticamente los efectos de
las regresoras cuantitativas (llamadas covariantes o variables de control) en un modelo
con regresoras cuantitativas y cualitativas (o dicótomas)
11
Pregunta 49
La terminología para los modelos de análisis de covarianza es (INICIALES)
ANCOVA
Pregunta 50
Los modelos de regresión que contienen diversas variables explicativas cuantitativas y otras
cualitativas se llaman modelos:
ANCOVA
Pregunta 51 FISICO
Los modelos de regresión que muestran una mezcla de variables cuantitativas y cualitativas
se llaman modelos de análisis de varianza (ANOVA)
Falso se llaman modelos a análisis de covarianza ANCOVA
Verdadero
Pregunta 52 FISICO
Un modelo ANCOVA es:
Un modelo que tiene variables dicótomas y numéricas se llama
Pregunta 53
Un modelo ANCOVA utiliza variables dicótomas únicamente
Falso utiliza variables dicótomas y cuantitativas
Verdadero
12
1.4. LA VARIABLE DICÓTOMA: ALTERNATIVA A LA PRUEBA DE CHOW
La prueba de Chow de múltiples pasos indica solo si dos (más) regresiones son distintas,
pero no el origen de la diferencia.
La prueba de Chow no establece de manera explícita cual coeficiente, intercepto o
pendiente es distinto, ni si ambos son diferentes en los periodos.
El método de la variable dicótoma tiene una clara ventaja, pues no solo indica si los dos
periodos son distintos, sino que también destaca la(s) causa(s) de la diferencia: si se debe
al intercepto, a la pendiente o a las dos.
El agrupamiento aumenta los grados de libertad, tal vez mejore la precisión relativa de los
parámetros estimados.
Cada inclusión de una variable dicótoma consumirá un grado de libertad.
Pregunta 54
Cuando el intercepto y los coeficientes de las pendientes son iguales en ambas regresiones
se les denomina regresiones:
coincidentes
13
Pregunta 55 FISICO
Regresiones paralelas son aquellas que tienen igual intercepto, igual pendiente
Falso diferente intercepto pero igual pendiente
Verdadero
Pregunta 56
Cuando los interceptos en dos regresiones son los mismos, pero las pendientes son
distintas. Estas regresiones se conoce como regresiones:
Concurrentes
Pregunta 57 FISICO
Cuando tenemos el caso de regresiones concurrentes, los interceptos en ambas regresiones
son diferentes, pero las pendientes son las mismas
Falso los interceptos son iguales y pendientes distintas. Esta definición es
para regresiones paralelas
Verdadero
Pregunta 58
Cuando dos regresiones tienen ambos interceptos y pendientes, distintos se denominan
regresiones:
Disímbolas
14
Una serie de tiempo puede tener cuatro componentes:
o Estacional
o Cíclico
o Tendencia
o Estrictamente aleatorio
A menudo es útil eliminar el factor o componente estacional de las series de tiempo con
el fin de concentrarse en los demás componentes.
El proceso de eliminar el componente estacional de una serie de tiempo se conoce como
desestacionalización o ajuste estacional y la serie de tiempo así obtenida se denomina
serie de tiempo desestacionalizada o ajustada por estacionalidad.
Hay diversos métodos para desestacionalizar una serie de tiempo, pero consideraremos
solo uno: el método de las variables dicótomas.
Para evitar la trampa de la variable dicótoma:
(trimestres de un año)
o asignamos una variable dicótoma a cada trimestre del año, pero omitimos el término
del intercepto, o
o Se puede asignar solo tres variables dicótomas e incluir el término del intercepto.
(meses del año)
para evitar la trampa de la variable dicótoma se deben usar once variables dicótomas
dejando una categoría base
Pregunta 59
Si quiero aplicar una variable dicótoma para los trimestres del año debo aplicar 3 variables
para no cometer la trampa de la variable dicótoma
Verdadero
Falso
Pregunta 60
Para crear variables dicótomas de los meses del año, para evitar la trampa de la variable
dicótoma se deben usar 11 variables dicótomas dejando una categoría base
Verdadero
Falso
Pregunta 61 FISICO
Si queremos analizar la incidencia de los ingresos en compras, cuantas variables dicótomas
debemos ingresar si tenemos los siguientes rangos de ingreso: 1. De menos de 500 USD; 2.
De 501 a 1000 USD; 3. Más de 1000 USD.
Dos variables dicótomas
15
Una regresión lineal por segmentos que consta de dos partes o segmentos lineales se les
da le nombre de I y II.
Con el método de la variable dicótoma se estiman las diferentes pendientes de los dos
segmentos de la regresión lineal por secciones.
La regresión lineal por segmentos ejemplifica una clase más general de funciones
conocidas como funciones “spline”.
Pregunta 62 FISICO
Qué es la multicolinealidad
La correlación perfecta entre variables explicativas
16
Pregunta 63 FISICO
La multicolinealidad es la relación (correlación) perfecta entre las variables explicativas
Verdadero
Falso
Pregunta 64
La multicolinealidad es la correlación entre las variables….........en un modelo de regresión
múltiple
Explicativas
Dependientes
Dicótomas
Pregunta 65
La multicolinealidad hace referencia a:
Relación perfecta entre las variables explicativas
Pregunta 66
La multicolinealidad se da cuando existe alta ……........entre parejas de regresoras
Colinealidad
normalidad
heterocedasticidad
Pregunta 67
La multicolinealidad es en esencia un fenómeno muestral en sentido que:
Aunque las variables X no estén linealmente relacionadas en la población, pueden
estarlo en la muestra disponible
Las variables X en la población y en la Muestra no se relacionan
Relaciona linealmente la variable poblacional con la variable muestral
17
Pregunta 68 FISICO
En que consiste la multicolinealidad:
Consiste en la existencia de relaciones lineales entre dos o más variables
independientes del modelo uniecuacional múltiple
Consiste en la relación entre las variables independientes del modelo uniecuacional
múltiple y su regazo en el tiempo
Consiste en la diferencia de las varianzas entre dos o más variables independientes
del modelo uniecuacional simple
MULTICOLINEALIDAD PERFECTA
o Es la relación perfecta entre las variables explicativas
o La multicolinealidad es perfecta cuando los coeficientes de regresión de las variables X
son indeterminados y sus errores estándar son infinitos.
o Cuando se incumple la hipótesis básica del modelo uniecuacional múltiple: la matiz X
no es de rango completo por columnas, esto es rg(x)<k
MULTICOLINEALIDAD MENOS PERFECTA
o La multicolinealidad leve o aproximada es la relación aproximada entre dos o mas
variables independientes
o La multicolinealidad es menos perfecta cuando los coeficientes de regresión de las
variables X son determinados y sus errores estándar son grandes.
o Los errores estándar son grandes en relación a los coeficientes mismos, lo que significa
que los coeficientes no pueden ser estimados con gran precisión o exactitud.
o Si la colinealidad es alta pero no perfecta, es posible la estimación de los coeficientes
de regresión, pero sus errores estándar tienden a ser grandes.
o Cuando la multicolinealidad es leve o moderada se pueden presentar los siguientes
problemas:
o Las varianzas de los estimadores son muy grandes
o Al efectuar contrastes de significación individual no se rechazará la hipótesis nula,
mientras que al realizar contrastes conjuntos sí.
o Existen coeficientes de determinación muy elevados
o No se incumple la hipótesis básica del modelo uniecuacional múltiple: la matriz X es de
rango completo por columnas, esto es : rg(x)=K
Pregunta 69
La multicolinealidad perfecta es
La relación perfecta entre las variables explicativas
18
Pregunta 70
Multicolinealidad …………. Es cuando existe perfecta correlación entre las variables
explicativas.
Perfecta
Moderada
Normal
Pregunta 71 FISICO
Qué es la multicolinealidad exacta o perfecta:
Es la existencia de una relación lineal exacta entre dos o más variables
independientes
Es la relación entre las varianzas de dos o más variables independientes
Es la relación lineal aproximada entre dos o más variables independientes
Pregunta 72
Si existe multicolinealidad perfecta entre las x:
Los coeficientes de la regresión son indeterminados y los errores estándar no están
definidos ojo los errores estándar son infinitos
Los coeficientes de la regresión son determinados y los errores estándar están
indefinidos
Los coeficientes de la regresión son indeterminados y los errores estándar están
definidos
Pregunta 73
Si existe colinealidad perfecta entre las X, sus coeficientes de regresión son ............. y sus
errores estándar no están definidos.
Indeterminados
Bajos
determinados
Pregunta 74 FISICO
Si la correlación entre las variables explicativas es alta, qué síntoma es común
Las estimaciones de los coeficientes suelen presentar signos distintos a los
esperados y magnitudes poco razonables
Las estimaciones son eficientes y consistentes con la teoría
Los dos opciones anteriores
19
Pregunta 75 FISICO
Cuando la multicolinealidad es perfecta:
Se incumple la hipótesis básica del modelo uniecuacional múltiple: la matriz X no es
de rango completo por columnas, esto es rg(x)< K
Se incumple el supuesto de normalidad, es decir N< 30
Se incumple el supuesto de homocedasticidad de las varianzas esto es se incumple
G1=G2
Pregunta 76 FISICO
Qué es la multicolinealidad leve o aproximada:
Es la relación lineal aproximada entre dos o más variables independientes
Pregunta 77
Si la colinealidad es alta pero no perfecta, es posible la estimación de los coeficientes de
regresión, pero sus errores estándar tienden a ser:
Grandes ejemplo error estándar de 1,4 y el coeficiente B=2
Pregunta 78
Cuando la multicolinealidad es leve o moderada se pueden presentar los siguientes
problemas:
Las varianzas de los estimadores son muy grandes
Pregunta 79
Cuando la multicolinealidad es leve o moderada se pueden presentar los siguientes
problemas:
Existen coeficientes de determinación muy elevados
20
Pregunta 80
Cuando la multicolinealidad es leve o aproximada:
No se incumple la hipótesis básica del modelo uniecuacional múltiple: la matriz X es
de rango completo por columnas, esto es : rg(x)=K
Se incumple el supuesto de normalidad
Se incumple el supuesto de homocedasticidad de las varianzas esto es se incumple
G1=G2
CAUSAS DE LA MULTICOLINEALIDAD
Existen diversas causas de multicolinealidad, como:
o Recolección inadecuada de la muestra
o Escasa variabilidad en las observaciones de las variables independientes
o Restricciones en el modelo o en la población objeto de muestreo
o Que las variables independientes se expliquen entre si
o Especificación del modelo
o Un modelo sobredeterminado
En las series de tiempo puede ser que las regresoras del modelo compartan una
tendencia común, es decir que todas aumenten o disminuyan a lo largo del tiempo.
Pregunta 81 FISICO
Cuál de las siguientes opciones puede causar multicolinealidad
Recolección inadecuada de la muestra
Pregunta 82
Cuáles de las siguientes son causas de la multicolinealidad
El método de recolección de la información
Rezagos
Autocorrelación
Pregunta 83 FISICO
Cuáles son las principales causas que produce Multicolinealidad en un modelo:
Escasa variabilidad en las observaciones de las variables independientes
Si se satisfacen los supuestos del modelo clásico, los estimadores de MCO de los
coeficientes de regresión son MELI
MELI. Significa: Mejor Estimador Lineal e Insesgado
1. Aunque los estimadores de MCO son MELI, presentan varianzas y covarianzas grandes
que dificultan la estimación precisa.
Debido a 1.
2. Los intervalos de confianza tienden a ser mucho más amplios, lo cual propicia una
aceptación más fácil de la hipótesis nula cero (Ho)
Debido a 1.
3. Las razones t de uno o más coeficientes tiende a ser estadísticamente no significativa
4. Aunque la razón t de uno o más coeficientes sea estadísticamente no significativa, R2, la
medida global de bondad de ajuste, puede ser muy alta.
5. Los estimadores de MCO y sus errores estándar son sensibles a pequeños cambios en los
datos.
A medida que r23 tiende a 1, es decir a medida que aumenta la colinealidad, también lo
hacen las varianzas de los dos estimadores y en el limite cuando r23 = 1, son infinitas.
A medida que r23 aumenta hacia 1, la covarianza de los dos estimadores también aumenta
en valor absoluto.
EN RESUMEN: como consecuencias de la multicolinealidad tenemos:
o Estimadores de MCO son MELI, con varianzas y covarianzas grandes
o Intervalos de confianza más amplios
o Razones t no significativas
o Una R2 alta pero pocas razones t significativas
o Sensibilidad de los estimadores de MCO y sus errores estándar ante cambios
pequeños en los datos.
Pregunta 84
El término MELI significa:
Mejor estimador Lineal e Insesgado
22
Pregunta 85
En el modelo clásico la terminología (iniciales) para el mejor estimado lineal e insesgado es:
MELI mejor estimado lineal e insesgado
Pregunta 86
Cuáles de las siguientes son consecuencias prácticas de la multicolinealidad
Las razones t de uno a más coeficientes tienden a ser no significativas
Pregunta 87
Cuáles de las siguientes son consecuencias prácticas de la multicolinealidad
Aunque la razón t de uno o más coeficientes sea estadísticamente no significativa , R
cuadrado puede ser muy alto
Los intervalos de confianza tienden a ser mucho más amplios
Pregunta 88
Si las t del modelo son poco significativos pero el…..................es alto entonces existe
multicolinealidad
R cuadrado
R
error
Pregunta 89 FISICO
Existe multicolinealidad si existe un R 2 alto pero pocas t de student significativas
Verdadero
Falso
23
Pregunta 90
Una señal de ……… es r cuadrados altos y pocas ……… significativas
Multicolinealidad / t
Heterocedasticidad / t
Normalidad / t
Pregunta 91 FISICO
Qué enunciado es correcto.
En presencia de multicolinealidad R2 es muy alta pero ninguno de los coeficientes de
regresión es estadísticamente significativo con base en la prueba t convencional
En presencia de error de especificación R2 es muy alta pero ninguno de los
coeficientes de regresión es estadísticamente significativo con base en la prueba t
convencional
En presencia de autocorrelación R2 es muy alta pero ninguno de los coeficientes de
regresión es estadísticamente significativo con base en la prueba t convencional
24
Pregunta 92
Para calcular el Factor Inflador de la Varianza se divide 1/(1-……)
25
Para detectar la multicolinealidad se tiene ciertas reglas prácticas, algunas informales y
otras formales, como:
Una R2 elevada pero pocas razones t significativas.
R2 es alta cuando esta por encima de 0,8.
Las probabilidades de los coeficientes de regresión son mayores al 5% (0,05)
El valor de F es significativo
Altas correlaciones entre parejas de regresoras.
o Si el coeficiente de correlación de orden cero es alto superior a 0,8, la multicolinealidad
es grave.
o La relación entre X 2 y X 3 , se denomina r23.
Examen de las correlaciones parciales.
o En los modelos con dos variables explicativas puede tenerse una idea relativamente
buena de la colinealidad mediante el examen del coeficiente de correlación de orden
cero
o Los coeficientes de correlación de orden cero pueden ser malos indicadores en
modelos con más de dos variables X, pues es posible tener correlaciones bajas de
orden cero y encontrar aun alta multicolinealidad.
o El examen de correlaciones parciales se puede realizar en las regresiones múltiples con
dos o más variables independientes
o Si los coeficientes de correlación parcial son mayores a 0,08
Regresiones auxiliares.
o Consiste en realizar regresar una variable explicativa en función de otra. Ej. X2=f(X3)
o También se puede aplicar la Regla práctica de Klein, que plantea que la
multicolinealidad puede ser un problema complicado solamente si la R 2 obtenida de
una regresión auxiliar es mayor que la R 2 global.
Valores propios e índice de condición.
o Número de condición k. definido como:
valor propio máximo
k=
valor propio mínimo
o Índice de condición (IC), definido como:
valor propio máximo
IC=
√ valor propio mínimo
o Tenemos la regla práctica:
=√ k
26
Pregunta 93
Cómo se puede detectar la multicolinealidad
Factor inflador de la varianza
Correlaciones parciales
Modelos autoregresivos
Correlograma
Pregunta 94
En qué tipo de regresión se puede hacer el examen de correlaciones parciales.
Regresión múltiple con dos o más variables independientes
Pregunta 95
En los modelos con dos variables explicativas puede tenerse una idea relativamente buena
de la colinealidad mediante el examen del coeficiente de ………………. de orden cero
Correlación
Asimetría
Determinación
Pregunta 96
Los coeficientes de …………………… de orden cero pueden ser malos indicadores en modelos
con más de dos variables X, pues es posible tener correlaciones bajas de orden cero y
encontrar aún alta multicolinealidad.
Correlación
Determinación
Asociación
Pregunta 97 FISICO
La regla de Klein, plantea que la multicolinealidad puede ser un problema complicado
solamente si la R2 obtenida de una regresión auxiliar es menor que la R 2 global
Falso .... es mayor que la R2 global
Verdadero
27
Pregunta 98
Los valores …………………… y los índices de ……………… sirven para diagnosticar la
multicolinealidad.
propios / condición
propios / correlación
normales / condición
Pregunta 99
El número de condición k es igual al cociente entre el valor propio máximo y:
El valor propio mínimo
Pregunta 100
Si IC=√ k , la raíz cuadrada del valor propio máximo dividido para el valor propio mínimo da
como resultado 1100 existe:
Multicolinealidad Grave si 100<k<1000 mult. Moderada a fuerte ó 10<√ k >30
Si k > 1000 mult. grave ó √ k > 30
Pregunta 101
Cuando existe multicolinealidad:
Si el factor inflador de la varianza es muy elevado
Existe heteroscedasticidad
Existe autocorrelación
Ninguna de las anteriores
Pregunta 103
Si el .........................es menor a 10 no existe Multicolinealidad
Factor inflador de la varianza
Coeficiente de determinación
Coeficiente de correlación
28
Pregunta 104 FISICO
Si el factor inflador de la varianza es 9:
Es evidencia que no existe multicolinealidad
Existe heteroscedasticidad
Existe autocorrelación
Existe multicolinealidad
Pregunta 106
El resultado del factor inflador de la Varianza es FIV= 1 / (1-0.90) = 10. ¿Existe
Multicolinealidad? (Responda si existe multicolinealidad (Multicolinealidad) o si no existe
multicolinealidad (No multicolinealidad)
Multicolinealidad
Pregunta 107
El resultado del factor inflador de la Varianza es FIV= 1 / (1-0.40) = 1.6 ¿Existe
Multicolinealidad? (Responda si existe multicolinealidad (Multicolinealidad) o si no existe
multicolinealidad (No multicolinealidad)
No multicolinealidad aunque es el factor inflador de varianzas mide la multicolinealidad
Pregunta 108
En una regresión y= a 3+0.5X1+08X2, los errores son (0.9) y (1.5) respectivamente para cada
variable. El r cuadrado es 0.98 Existe Multicolinealidad? (Responda si existe
multicolinealidad (Multicolinealidad) o si no existe multicolinealidad (No multicolinealidad)
Multicolinealidad r cuadrado excede de 0,9
Pregunta 109
Si el r23 es de 0.99 se espera que haya :
Multicolinealidad r cuadrado excede de 0,9
29
Pregunta 110
Si el r23 es de 0.20 existe multicolinealidad (Responda si existe multicolinealidad
(Multicolinealidad) o si no existe multicolinealidad (No multicolinealidad)
No multicolinealidad r cuadrado 23 es menor que 0,90
Se pueden intentar las siguientes reglas prácticas para corregir la multicolinealidad, es decir
para que no exista multicolinealidad:
Información a priori
o La información “a priori” sobre la relación entre las variables independientes del
modelo, es de utilidad para solventar los problemas de multicolinealidad
o Utilizar la relación extramuestral que permita realizar relaciones entre los para metros
(información a priori) que permita estimar el modelo por mínimos cuadrados
restringidos.
Transformación de variables de razón.
Es decir, dividir la variable que presenta un mayor grado de relación para las demás
variables restantes.
Combinación de información de corte transversal y de series de tiempo (mezcla de
datos)
Eliminación de una(s) variable(s) y el sesgo de especificación
o Consiste en eliminar una de las variables colineales causantes de la multicolinealidad
o Si hay información suficiente, se puede eliminar la variable que causa el problema
o Al eliminar una variable independiente del modelo, debido a problemas de
multicolinealidad, se puede incurrir en sesgo de especificación
Transformación de variables
Datos nuevos o adicionales (aumentar el tamaño de la muestra)
A veces con solo aumentar el tamaño de la muestra (si esto es posible) se atenúa el
problema de la multicolinealidad.
Reducción de la colinealidad en las regresiones polinomiales
Otros métodos de remediar la multicolinealidad son:
o Las técnicas estadísticas multivariadas como el análisis de factores y el componentes
principales.
Verdadero
30
Pregunta 112
Cuál de los siguientes es una solución para el problema de multicolinealidad
Utilizar la relación extramuestral que permita realizar relaciones entre los
parámetros (información a priori) que permita estimar el modelo por mínimos
cuadrados restringidos
Cambiar la variable dependiente
Eliminación de datos
Falso
Pregunta 114
Si en la regresión Y= a+B1X1+B2X2 las Variables X1 y X2 están correlacionadas, y se
transforman a 1/X1 y 1/X2 existe multicolinealidad. (Responda si existe multicolinealidad
(Multicolinealidad) o si no existe multicolinealidad (No multicolinealidad)
No multicolinealidad la transformación de variables es una medida correctiva
para evitar la multicolinealidad
Pregunta 115
Podría eliminarse la multicolinealidad de la siguiente manera
Combinando información de corte transversal y series de tiempo
Falso
31
Pregunta 118
Cuál de las siguientes es una solución para el problema de multicolinealidad
Eliminación de las variables que se sospechan son causantes de la multicolinealidad
Pregunta 119
Otros métodos de remediar la multicolinealidad son el análisis de factor el el de:
Componentes principales
Pregunta 120
En cuáles relaciones se prevé que exista colinealidad
Importaciones y PIB
Exportaciones y PIB
Población y PIB
Volumen de crédito y Consumo de energía
Pregunta 121
Cuál de los siguientes ejemplos teóricamente se asume que tiene multicolinealidad
Migración en función de PIB per cápita y población
32
Pregunta 123 FISICO
Por lo general cuando utilizamos variables en economía se presenta colinealidad entre las
variables económicas, con tal de que esta no sea exacta se pueden estimar los parámetros
del modelo
Verdadero
Falso
Verdadero
33
UNIDAD 3. HETEROSCEDASTICIDAD: ¿QUE PASA SI LA VARIANZA DEL ERROR NO ES
CONSTANTE?
3.1. NATURALEZA DE LA HETEROSCEDASTICIDAD
Un supuesto importante del modelo clásico de regresión lineal es que todas las
perturbaciones ui tienen la misma varianza (son homoscedásticas)
Este es el supuesto de homoscedasticidad: homo (igual) cedasticidad (dispersión), es
decir igual varianza.
La heteroscedasticidad nos indica que la varianza del término del error no es constante
para todos los valores de las variables independientes, lo que nos genera que las
estimaciones sean sesgadas e ineficientes para los errores estándar.
La heteroscedasticidad es cuando la varianza de las perturbaciones no es constante a lo
largo de las observaciones
La heteroscedasticidad nos indica que la varianza de las perturbaciones aleatorias
condicionales a los valores de las regresoras X sean variables.
Hay diversas razones por las cuales las varianzas ui pueden ser variables, es decir las
causas de la heteroscedasticidad:
o Errores al momento de obtener nueva información
o La presencia de datos atípicos o aberrantes en las variables
Una observación atípica o aberrante es la que es muy diferente (muy pequeña o muy
grande) en relación con las demás observaciones en la muestra.
o La mala especificación del modelo
o Distribución asimétrica de las variables explicativas
Las variables explicativas tienen distribución asimétrica o amplio recorrido
o Incorrecta transformación de datos
o Forma funcional incorrecta del modelo
La heteroscedasticidad es más común en la información de corte transversal y no mucho
en las series de tiempo.
Las causas estructurales o teóricas de la heteroscedasticidad suelen darse en modelos de
corte transversal con unidades muestrales de diferente tamaño
Un cambio de estructura en el modelo de regresión provoca un mal ajuste de los
parámetros al conjunto de los datos muestrales provocando heteroscedasticidad.
Pregunta 125
Un supuesto importante del modelo clásico de regresión lineal es:
Que todas las perturbaciones ui tienen la misma varianza G 2. Si este supuesto no se
satisface, hay heterocedasticidad
Que todas las perturbaciones ui tienen diferente varianza G 2. Si este supuesto
satisface, hay heterocedasticidad
Que todas las perturbaciones ui tienen la diferente varianza G 2. Si este supuesto no
se satisface, hay homocedasticidad
34
Pregunta 126 FISICO
Un supuesto importante del modelo clásico de regresión lineal es:
Que todas las perturbaciones ui tienen la misma varianza σ 2. Si este supuesto no se
satisface, hay heterocedasticidad.
Que todas las perturbaciones ui tienen diferente varianza σ 2. Si este supuesto no se
satisface, hay homocedasticidad.
Que todas las perturbaciones ui tienen diferente varianza σ 2. Si este supuesto no se
satisface, hay heterocedasticidad.
Pregunta 127
Un supuesto importante del modelo clásico de regresión lineal es que todas las
perturbaciones ui tienen:
La misma varianza
Pregunta 129
En referencia a la heterocedasticidad el modelo básico de regresión lineal exige como
hipótesis básica:
Que la varianza de las perturbaciones aleatorias condicionales a los valores de las
regresoras X sean variables
Que las desviaciones estándar de las perturbaciones aleatorias condicionales a los
valores de las regresoras X se eleven al cuadrado
Que la varianza de las perturbaciones aleatorias, condiciona a los valores de las
regresoras X sean constantes
Pregunta 130
Si decimos que la varianza de las perturbaciones aleatorias condicionales a los valores de las
regresoras X sean variables estamos hablando de:
heterocedasticidad
35
Pregunta 131
Cuál de las siguientes es una causa de la Heterocedasticidad
Presencia de puntos atípicos en las variables
Pregunta 132
Si una serie de datos tiene 30 valores sobre ingresos, 29 valores van entre 1000USD y
2500USD al mes, pero un valor es de 8400USD, esto puede ocasionar:
Heterocedasticidad
Multicolinealidad
Normalidad
Pregunta 133
Si el ingreso per-cápita de un país oscila entre 800 y 1500 USD, a lo largo de 15 años, y en el
año 16, tiene un valor de 2000, este dato atípico puede generar:
Heterocedasticidad
Homocedasticidad
Multicolinealidad
Pregunta 134
Cuál de las siguientes es una causa de Heterocedasticidad
Distribución asimétrica de las variables explicativas
Pregunta 135
Cuál de las siguientes es una causa de heteroscedasticidad
Forma funcional incorrecta
36
Pregunta 136
Cuando las variables explicativas tienen distribuciones asimétricas se produce:
Heteroscedasticidad
R cuadrados altos
Multicolinealidad
Pregunta 137
La forma funcional incorrecta en una regresión produce:
Heteroscedasticidad
Multicolinealidad
Desviaciones estándar pequeñas
Pregunta 139
Un cambio de estructura en el modelo de regresión provoca un mal ajuste de los
parámetros al conjunto de los datos muestrales, esto produce:
Heterocedasticidad
Normalidad
Homocedasticidad
37
3.2. ESTIMACION POR MINIMOS CUADRADOS ORDINARIOS (MCO) EN PRESENCIA DE
HETEROSCEDASTICIDAD
Pregunta 140
La heterocedasticidad no destruye las propiedades de …………... y ……………………. de los
estimadores de MCO
Insesgamiento y consistencia
Insesgamiento y eficiencia
eficiencia y consistencia
Pregunta 142
En presencia de heterocedasticidad la estimación de mínimos cuadrados ordinarios sigue
siendo:
Lineal, insesgado y consistente pero deja de ser eficiente
38
Pregunta 143
En presencia de heterocedasticidad la estimación de mínimos cuadrados ordinarios sigue
siendo Lineal, insesgado y consistente pero deja de ser :
Eficiente eje. Ya no tiene varianzas mínimas
Pregunta 144
En presencia de Heterocedasticidad los estimadores de ………...Siguen siendo lineal,
insesgados y consistentes
Mínimos Cuadrados Ordinarios
Pregunta 146
Bajo presencia de Heterocedasticidad los estimadores dejan de tener............. es decir, de
ser eficientes. Por consiguiente, no son MELI
varianza mínima
Pregunta 147
En presencia de heteroscedasticidad los intervalos de confianza tienden a ser más:
Más amplios ojo.... escribir más amplios sino sale errónea
39
Pregunta 149
Cuando se utiliza Mínimos cuadrados ordinarios en presencia de heterocedasticidad:
La varianza es un estimador sesgado del verdadero valor de la varianza
Pregunta 150
En presencia de Heterocedasticidad las varianzas del estimador de Mínimos Cuadrados
Ordinarios son estimadores sesgado de las:
varianzas eje: el cuadrado de las desviaciones estándar
Pregunta 151
De las siguientes cuales con formas de detectar la heterocedasticidad
Graficar los errores a través de las distintas observaciones del modelo
Utilizar logaritmos
Utilizando el factor inflador de la varianza
40
Pregunta 152
Cuáles de las siguientes son pruebas para detectar heterocedasticidad
Coeficientes de rango de Spearman
Contraste de White
Jarque- Bera
Distribución normal
Pregunta 153
Cómo se puede detectar la heterocedasticidad
Utilizando la prueba de contraste de White
Utilizando el correlograma
Utilizando la prueba chi cuadrado
Pregunta 154
Cuáles de las siguientes son pruebas para detectar heterocedasticidad:
Contraste de Breusch-Pagan
Contraste de Gleser
Asimetría
Kurtosis
No hay heterocedasticidad
Hay Multicolinealidad
Existe multicolinealidad
Existe error de especificación
41
Pregunta 157
Si en una regresión de los residuos ui con la variable X, el r cuadrado es 0.06, por lo cual la
prueba de Glejser muestra que:
No existe heterocedasticidad
Existe heterocedasticidad
Existe multicolinealidad
Pregunta 158
El éxito de la prueba de Goldfeld-Quandt depende no sólo del valor de c (el número de
observaciones centrales que se van a omitir), sino también de la identificación de………
la variable x correcta
Pregunta 159
Las pruebas de heterocedasticidad de Goldfeld-Quandt y prueba BPG asumen ……..... en el
modelo.
normalidad
Pregunta 160
De la prueba BPG, sensible al supuesto de normalidad, la prueba general de
heterocedasticidad propuesta por White no se apoya en el supuesto de:
Normalidad Cuando una población tiene más de 30 datos
Heteroscedasticidad
Homocedasticidad
Pregunta 162
Una desventaja del procedimiento de White, además de ser de muestras grandes, es que los
estimadores obtenidos por este medio pueden :
No ser tan eficientes como los obtenidos por métodos de transformación de la
información
Ser tan eficientes como los obtenidos por métodos de transformación de la
información
Ser más eficientes que los obtenidos por métodos de transformación de la
información
42
Pregunta 163
Mínimos cuadrados generalizados
White esta prueba no asume normalidad
Pregunta 164
En la prueba de White, para que se compruebe la presencia de heterocedasticidad la
probabilidad debe ser :
Baja (<0.05)
Normal (=1)
Alta (>0.05)
Pregunta 166
En una regresión de los residuos al cuadrado y las variables x, con un valor de R2 =0.435 y
n=14 se obtiene nr2=6.090, con la hipótesis nula de inexistencia de heterocedasticidad. El
valor p que resulta de un chi cuadrado de 6.090 o mayor es 0.0476. La prueba de White
señala:
Heterocedasticidad
Homocedasticidad
Multicolinealidad
Existe autocorrelación
Existe multicolinealidad
Ninguna de las anteriores
43
Pregunta 168
En una regresión de los residuos al cuadrado y las variables x, con un valor de R2 =0.0435 y
n=14 se obtiene nr2=0.609, con la hipótesis nula de inexistencia de heterocedasticidad. El
valor p que resulta de un chi cuadrado es alrededor de 0.476. La prueba de White señala
qué (existe heterocedasticidad o no existe heterocedasticidad)
No existe heterocedasticidad responder según la regla de decisión
Pregunta 169
En una regresión de los residuos al cuadrado y las variables x, con un valor de R2 =0.435 y
n=14 se obtiene nr2=6.090, con la hipótesis nula de inexistencia de heterocedasticidad. El
valor p que resulta de un chi cuadrado de 6.090 o mayor es de 0.476. La prueba de White
señala:
No heterocedasticidad
Heterocedasticidad
Multicolinealidad
Pregunta 170
Los estimadores MELI son proporcionados por el método de mínimos cuadrados
………………...siempre que se conozcan las varianzas heteroscedásticas de error, σ2i
Ponderados
Normales
Ordinarios
44
Pregunta 171
Cuáles son las formas de corregir la heteroscedasticidad
Cambiar la forma funcional de la regresión
Transformar variables
Distribución normal
FIV
Pregunta 172
La transformación logarítmica puede:
Disminuir la heterocedasticidad
Mantenerla Constante
Incrementar la Heterocedasticidad
Pregunta 173
Una transformación de las variables (por ejemplo, a logaritmos) puede ………………. la
heterocedasticidad
Disminuir
Incrementar
Aumentar
Pregunta 174
En un modelo de regresión la utilización de una función lineal en lugar de una logarítmica
potencial, (siendo la logarítmica la correcta) puede ocasionar:
Heterocedasticidad
Normalidad
Homocedasticidad
Pregunta 175
En presencia de heterocedasticidad:
Los contrastes tradicionales "t", "F", chi cuadrado ofrecen resultados menos
concluyentes
Los contrastes tradicionales "t", "F", chi cuadrado ofrecen resultados satisfactorios
Los contrastes tradicionales "t", "F", chi cuadrado ofrecen resultados más
concluyentes
45
Pregunta 176
Los contrastes tradicionales “t”, “F”, chi cuadrado ofrecen resultados menos concluyentes
Heterocedasticidad diferentes varianzas
Pregunta 181
Cuál de las siguientes opciones puede tener heterocedasticidad debido a la diferencia de las
varianzas
PIB (millones USD) desempleo (%)
46
VARIABLES DICÓTOMAS Y HETEROSCEDASTICIDAD
Pregunta 182
La inclusión de una variable dicótoma en una regresión puede ocasionar:
heterocedasticidad
Pregunta 183
Si se incluye una variable dicótoma esto puede ocasionar:
Heterocedasticidad
Multicolinealidad
Normalidad
Pregunta 184
Un modelo con variables dicótomas puede generar heteroscedasticidad
Verdadero
Falso
Pregunta 185
Un modelo de regresión con variables dicótomas puede generar multicolinealidad.
Falso puede generar heteroscedasticidad
Verdadero
Pregunta 186
Una variable dicótoma puede causar
Heteroscedasticidad
Homocedasticidad
Igualdad de las varianzas de las variables
47
Pregunta 187
Cuando se utiliza variables dicótomas en los modelos de regresión se tiene que tener en
cuenta:
Que la inclusión de la variable dicótoma no produzca heterocedasticidad
Pregunta 188
A las variables dicótomas también se las conoce como variables endógenas
Falso
Verdadero
Falso
Verdadero
Verdadero
48