Está en la página 1de 20

PREGUNTAS PRUEBA 1

El valor medio calculado a partir de una muestra de valores tomada de la población se


llama denota como:
Y gorro.
Y barra.
Y estimada.
Y poblacional.

La línea de regresión poblacional pasa por:


La media incondicional de Y.
Los puntos mínimos condicionales de Y sobre X.
Las medias condicionales de Y sobre X.
Los puntos máximos condicionales de Y sobre X.

La ecuación Y = B1 + B2*(Xi)^3:
Es lineal en las variables y en los parámetros.
Es lineal en las variables pero no en los parámetros.
No es lineal en las variables pero sí en los parámetros. Se debe a que x al cubo ya no es lineal
No es lineal en las variables ni en los parámetros.

El término de perturbación estocástica:


Toma valor de cero.
Puede tomar solo valores negativos.
Puede tomar solo valores positivos.
Puede tomar valores positivos y negativos. Significa que puede estar por arriba y por debajo de la media

La diferencia entre Yi - Yi_gorro es igual a:


X
xi
ui. Recordar que este es el término de perturbación estocástica.
U

Si a y b son constantes, además X es una v.a. entonces la esperanza de E(aX+B)=?:


a*E(X)+b. La esperanza ingresa como transformación lineal de una suma E(aX) + E(B)
a+b. Luego la esperanza ingresa como transformación lineal de un producto E(a)*E(X) + E(B)
E(ax)+E(b). La esperanza de las constantes es la misma constante E(a)=a y E(B)=B
a*X+ E(b). Luego queda a*E(X)+B

Sea X una v.a. (variable aleatoria) la varianza var(X)=?:


(X_gorro-u_gorro)^2.
(X_gorro-u)^2.
(X-u_gorro)^2.
(X-u)^2.

Sea X una v.a. (variable aleatoria) la varianza var(X)=?:


E(X) - E(X).
E(X) - u^2.
E(X^2) - [E(X)]^2. En palabras: varianza = (Esperanza del cuadrado de la variable) - (el cuadrado de la
E(X). la esperanza de la variable)
Sean X e Y dos v.a. independientes, la covarianza de las dos es:
ux*uy.
0. La covarianza si es diferente de cero indica dependencia, para que sean independientes cov(X,Y)=0
E(XY).
var(X)+var(Y)+2cov(XY).

El tercer momento de las distribuciones de probabilidad es:


La varianza. Segundo momento: dispersión
La esperanza. Primer momento: centralización
La curtosis. Cuarto momento: aplanamiento o apuntalamiento de la curva
La asimetría Es el tercero porque antes de suavizar la campana, debe centrarse

Cuando restamos Xi - X_barra obtenemos:


Son iguales.
Es igual a cero.
Las desviaciones respecto a los valores medios.
Yi.

El término E(ui,Xi)=0:
Significa que son equivalentes.
Significa que Xi está correlacionada con ui.
Significa que hay sesgo de especificación.
Significa que no hay sesgo de especificación.

Un supuesto de Gauss Markov señala debe existir:


Homocedasticidad de los errores. Recuerde, homoscedasticidad es: varianza mínima entre el resto de estimadores
Heterocedasticidad de los errores.
Homocedasticidad de los estimadores.
Heterocedasticidad de los errores.

Un supuesto de Gauss Markov señala no hay autocorrelación entre las perturbaciones,


significa:
Las observaciones se muestran de manera dependiente.
Las observaciones se muestran de manera independiente.
La correlación entre ui,uj es diferente de cero.
Las X son independientes.

Si el gráfico de las perturbaciones ui y uj y tienen una pendiente positiva significa:


Que tienen una relación decreciente.
Que no tienen relación.
Que tienen una relación creciente. También que existe autocorrelación
Que son independientes.

La suma de cuadrados explicada (SCE) es igual a:


La sumatoria(ui_gorro_cuadrado).
La sumatoria(ui_gorro).
La sumatoria(yi_gorro_cuadrado). 𝑆𝐶𝐸 = ∑ 𝑦̂𝑖 2
La sumatoria(yi_cuadrado).

El valor esperado también se conoce como:


Correlación.
Regresión.
Media longitudinal.
Esperanza.

La función de regresión poblacional se puede determinar para el caso bivariante como:


E(Y) = B1 + B2*Yi. Si es Y/X en el miembro derecho debe estar Xi
E(Y|X) = B1 + B2*Xi. Es esperanza condicional de Y respecto de X, aunque en el texto es E(Y/Xi) =B1+B2*Xi
E(Y) = Xi. Esto indica una recta a 45°
E(Y|X) = B1 + B2*Yi. Si es Y/X en el miembro derecho debe estar Xi

La ecuación Y= B1 + (B2)^2*Xi:
Es lineal en las variables y en los parámetros.
Es lineal en las variables pero no en los parámetros. Porque B2 está elevado a la 2
No es lineal en las variables pero sí en los parámetros.
No es lineal en las variables ni en los parámetros.

El coeficiente de correlación es una medida de asociación lineal entre dos variables,


se sitúa entre:
0 a 1.
+1 a infinito positivo.
-1 a 0.
-1 a +1. Sí r>0 pendiente positiva, si r<0 pendiente negativa, si r=0 sin pendiente (horizontal),
Cerca de cero poca correlación, lejos de cero alta correlación

De varias estimaciones encontramos distintos betas, la sumatoria de residuos al


cuadrado en cada modelo fueron los siguientes, ¿cuál es preferible?:
20.
15.
10.
5. El objetivo de MCO es minimizar la suma de cuadrados de los residuos, mientras Sum(ui)^2 sea menor es mejor

La sumatoria(Yi_gorro*ui_gorro)=0 señala que:


Los residuos no están correlacionados con el valor pronosticado de Yi.
Los residuos están correlacionados con el valor pronosticado de Yi.
Los residuos no están correlacionados con X.
Los residuos están correlacionados con X.
*** Si aparece sumatoria(Xi*ui_gorro)=0 la respuesta será la opción 3.

Si sumatoria(ui_gorro*Xi)=0 señala que:


Los residuos no están correlacionados con el valor pronosticado de Yi.
Los residuos están correlacionados con el valor pronosticado de Yi.
Los residuos no están correlacionados con X.
Los residuos están correlacionados con X.

Una medida de precisión para los estimadores B1_gorro y B2_gorro es:


El coeficiente de determinación.
La covarianza.
La esperanza.
La varianza. La √𝑣𝑎𝑟 es el ee, error estándar es medida de precisión, por tanto 𝑣𝑎𝑟 = (𝑒𝑒)2 también
Los grados de libertad son:
El número de variables menos el número de variables estimadas.***
El número de variables.
El número de variables estimadas.
Un estadístico.
***Parece haber error de tipeo (el número de observaciones - no. parámetros estimados)

La bondad de ajuste r_cuadrado:


Determina la correlación entre X e Y.*
Determina cuán bien se ajusta la línea de regresión a los datos.**
Determina la variabilidad de los estimadores.
Determina la variabilidad de los errores.
* El que hace esto es r y no 𝑟 2 . Solo r es coeficiente de correlación
**.Sobre 𝑟 2 : es no negativo y mide el porcentaje de variación en Y que provoca el modelo.

El coeficiente de determinación se encuentra entre:


-1 y 0.
-1 y 1.
0 y 1. OJO: determinación es 𝑟 2 , correlación es ±√𝑟2
1 y 2.

La esperanza condicional de Y en X es:


E(Y|X).
E(Y).
E(Y/X).
E(Y)/E(X).

La función de regresión poblacional se puede dividir en dos componentes:


El componente sistemático y determinista.
El componente sistemático y aleatorio. Sistemático es el B1+B2*X, aleatorio es u_i
El componente aleatorio y no sistemático.
El componente aleatorio y no aleatorio.

La E[E[Y|Xi]] es igual a:
E(Y|ui).
E(Y).
E(Y|Xi). La esperanza de una esperanza se absorbe, queda la esperanza de adentro.
E(Y|X).

Si X e Y son v.a. independientes entonces la esperanza de E(XY)=?:


X+Y.
E(X)*E(Y). Esperanza de un producto = producto de las esperanzas.
X*E(Y).
Y*E(X).

El término var[E(Y|X)] se lee como:


La varianza de la esperanza incondicional de Y.
La esperanza condicional de Y.
La varianza de la esperanza condicional de Y.
La esperanza de la varianza condicional de Y.

Si al determinar los momentos de la distribución me da que la kutosis=3 se denomina:


Platicúrtica. curtosis < 3
Leptocúrtica. curtosis > 3 OJO: hay curtosis (g2) y coeficiente de apuntamiento de Fisher (K)
Mesocúrtica. K = g2 - 3
Binomial. Leptocúrtica K > 0 Mesocúrtica K = 0 Platicúrtica K < 0

El teorema central del límite, señala que a medida que el tamaño de una muestra
aumenta a n:
El será eficiente asintóticamente.
El estimador tendrá insesgamiento asintótico.
El estimador será consistente.
El estimador estará normalmente distribuido asintóticamente.

Si realizamos MCO, encontramos que el estimador es igual a


Y_barra - B2_gorro*X_barra
a qué estimador corresponde:
La varianza de los errores.
La sumatoria de los errores.
Beta1. 𝛽1 = 𝑌 − 𝛽̂2 ∗ 𝑋
Beta2.

El r_cuadrado también se define como:


1-(SCE/SCT). SCE: suma de cuadrados explicada
1-(SCR/SCT). SCT: suma de cuadrados totales
1-(SCT/SCT). SCR: suma de cuadrados de residuos
1-(SCE/SCR).

La variable dependiente también se conoce como:


Estímulo.
Exógena.
Predicha.
Variable de control.

El valor medio calculado a partir de una muestra de valores tomada de la población se


denota como:
Y gorro.
Y barra.
Y estimada.
Y poblacional.

El Error Cuadrático Medio, se puede descomponer en dos partes mostrado un trade


off entre:
Insesgamiento asintótico y consistencia.
Sesgo y varianza.
Linealidad y varianza.
Linealidad y sesgo.

La suma de cuadrados total SCT es igual a:


La sumatoria(ui_gorro_cuadrado). Esto es SRC
La sumatoria(ui_gorro). Solamente es la SR, pero no al cuadrado.
La sumatoria(yi_gorro_cuadrado). Esto es SEC
La sumatoria(yi_cuadrado).

La suma de cuadrados explicada SCE es igual a:


La sumatoria(ui_gorro_cuadrado).
La sumatoria(ui_gorro).
La sumatoria(yi_gorro_cuadrado).
La sumatoria(yi_cuadrado).

Los coeficientes B1 y B2 también se conocen como:


Coeficiente de intersección y pendiente.
Coeficientede media y varianza.
Coeficiente del eje X y del eje Y.
Coeficientes de correlación

Sea X una v.a., a y b son constantes, entonces var(aX+b)=?


a^2*var(X).
a*var(X).
var(aX)+var(b).
var(b)

Si el coeficiente de correlación nos da como resultado -1 significa:


Perfecta asociación negativa.
Perfecta asociación positiva. cuando r = 1
No existe asociación entre las variables. cuando r = 0
Es simétrica.

Elevar al cuadrado los errores permite:


Brindar más peso a las observaciones que se encuentran más alejadas en comparación con los más cercanos.
Minimizar los MCO.
Que los residuos sean cada vez más grandes.
Sustituir por las estimaciones.

Sea X una v.a la varianza var(X)=?:


(X_gorro-u_gorro)^2.
(X_gorro-u)^2.
(X-u_gorro)^2.
(X-u)^2.

Para demostrar que un estimador tiene la propiedad de varianza mínima en muestras


pequeñas:
La varianza del estimador tiene que tener menor varianza que otro estimador.
La varianza del estimador debe ser insesgada.
La varianza debe ser asintótica.
La varianza debe ser positiva.

La diferenciación en MCO permite que se reduzca al máximo:


La sumatoria de residuos.
La sumatoria de residuos al cuadrado.
Los betas.
Los X.
La X_barra y la Y_barra son:
Desviaciones respecto a los valores medios.
Son igual a cero.
Medias poblacionales de X e Y.
Medias muestrales de X e Y.

La cov(Xi,ui)=0 señala que:


Las X dependen del término de error.
Las X son independientes del término de error.
Los residuos no tienen correlación.
Los residuos tienen correlación.

La función Yi_gorro= B1_gorro + B2_gorro*Xi corresponde a:


Una función de regresión matricial.
Una función de regresión múltiple.
La función de regresión poblacional.
La función de regresión muestral.

Si conocemos los datos de una muestra de la población, podemos obtener:

· La línea de regresión poblacional.

· La línea de regresión muestral.

· La función de regresión poblacional.

· E(Y|X).

Para demostrar que un estimador tiene la propiedad de varianza mínima en muestras

pequeñas:

· La varianza del estimador tiene que tener menor varianza que otro estimador.

· La varianza del estimador debe ser insesgada.

· La varianza debe ser asintótica.

· La varianza debe ser positiva.

La diferenciación en MCO permite que se reduzca al maximo:

· La sumatoria de residuos.

· La sumatoria de residuos al cuadrado.

· Los betas.

· Los X.
Si realizamos MCO, encontramos que que el estimador es igual a Y_barra -B2_gorro*X_barra a
que estimador corresponde:

· La varianza de los errores.

· La sumatoria de los errores.

· Beta1.

· Beta2.

Cuando restamos Xi-X_barra obtenemos:

· Son iguales.

· Es igual a cero.

· Las desviaciones respecto a los valores medios.

· Yi.

La cov(Xi,ui)=0 señala que:

· Las X dependen del término de error.

· Las X son independientes del término de error.

· Los resiudos no tienen correlación.

· Los resiudos tienen correlación.

El término E(ui,Xi)=0:

· Significa que son equivalentes.

· Significa que Xi está correlacionada con ui.

· Significa que hay sesgo de especificación.

· Significa que no hay sesgo de especificación.

Los grados de libertad son:

· El numero de variables menos el número de variables estimadas.

· El numero de variables.

· El número de variables estimadas.

· Un estadístico.

La bondad de ajuste r_cuadrado:

· Determina la correlación entre X e Y.

· Determina cuan bien se ajusta la línea de regresión a los datos.

· Determina la variabilidad de los estimadores.


· Determina la variabilidad de los errores.

El coeficiente de determinación se encuentra entre:

· -1 y 0.

· -1 y 1.

· 0 y 1.

· 1 y 2.
PREGUNTAS PRUEBA 2

1) La diferencia entre R^2 y R^2 ajustado es que:

R^2 ajustado toma en consideración los grados de libertad.


R^2 está entre 0 y 1
R^2 ajustado está entre -1 a +1
R^2 es una bondad de ajuste del modelo

2) R^2 ajustado se puede determinar como:

1- (Media cuadrado explicados / Media cuadrado total)


1- (Media cuadrado total / Media cuadrado residuos)
1- (Media cuadrado de los residuos / Media cuadrado total)
1- (Media cuadrado explicados / Media cuadrado residuos)

3) El método de MCRL y MCRLN difieren en que:

Se añade el supuesto de que las Y son normales


Se añade el supuesto de TCL
Se añade el supuesto de normalidad de los estimadores
Se añade el supuesto de normalidad de los errores

4) Si los errores son normales e independientemente distribuidas significa que:

La covarianza de los errores es cero


La covarianza de los errores es uno
La covarianza de los errores es positivo
LA covarianza de los errores es negativo

5) El error tipo II es:

Rechazar una hipótesis cuando es falsa


Rechazar una hipótesis cuando es verdadera
Aceptar una hipótesis cuando es falsa
Aceptar una hipótesis cuando es verdadera

6) Para realizar una prueba Z:

Se debe dividir para la varianza


Se debe restar para el valor verdadero
Se debe normalizar los errores
Se debe estandarizar dividiendo para la desviación estándar

7) La tabla ANOVA se conoce como:

El estudio de los componentes de STC


El estudio de los parámetros del modelo
El estudio de los estimadores del modelo
El estudio de la varianza de los errores

8) Para predecir un modelo se debe saber que la predicción individual es ______ que la predicción
media en términos de intervalos de confianza:
Mejor
Peor
Igual
Indiferente

9) Un método para realizar pruebas de hipótesis:

F test
Desviación
Estandarización
Intervalos de confianza

10) La prueba F es una regresión evalúa si:

El estimador en conjunto es uno


Los estimador beta es uno
El estimador beta es cero
Los estimador en conjunto son cero

11) Cual es la mejor forma de realizar la predicción de un estimador luego de elaborada la regresión:

Media
Individual
Ingenua
Monte claro

12) Todo lo que está dentro de un intervalo de confianza se conoce como la zona de:

Aceptación
Rechazo
Crítica
Significancia

13) El siguiente es un resultado de una regresión entre altura y edad, la interpretación de la


significancia estadística (pruebat) de B2 de:
Es significativo al 95% de confianza
Es significativo al 99.9% de confianza
Es significativo al 99% de confianza
Todas las anteriores

14) El siguiente es un resultado de una regresión entre altura y edad, la interpretación de la prueba t
para el intercepto es la siguiente:

No es estadísticamente significativo
Es estadísticamente significativo
Es estadísticamente no significativo, por lo que se puede rechazar la hipótesis nula
Es estadísticamente no significativo, por lo que no se puede rechazar la hipótesis nula

15) El siguiente es un resultado de una regresión entre la altura y edad, la interpretación de la los
residuos del error estándar es la siguiente:
Están entre cero y uno
Se debe elevar al cuadrado para que tenga una interpretación
Mientras más altos significa que es mejor el modelo
Mientras más bajos significa que es mejor el modelo

16) La prueba F se la puede determinar como:

Media cuadrado de los residuos / Media cuadrado explicado


Media de cuadrados explicados / Media cuadrado de los residuos
Media cuadrado total / Media cuadrado de los residuos
Media cuadrado total / Media cuadrados explicado

17) La varianza de los errores siguen una distribución:

Normal
Chi cuadrado
F
t

18) El error tipo I es:

Rechazar una hipótesis cuando es falsa


Rechazar una hipótesis cuando es verdadera
Aceptar una hipótesis cuando es falsa
Aceptar una hipótesis cuando es verdadera

19) La prueba Jarque Bera evalúa que la curtosis sea _____ y la asimetría _____

0.3
3.1
3.0
1.3

20) Al realizar un QQplot, se considera normal los errores si:

Están lejos de la línea de regresión


Están sobre o cerca la línea de regresión
Muestran aleatoriedad
Tienen media cero y varianza no constante
1.- El método de MCRL y MCRLN difieren en que:
● Se añade el supuesto de que las Y son normales.

● Se añade el supuesto del TCL.

● Se añade el supuesto de normalidad de los estimadores.

● Se añade el supuesto de normalidad de los errores.


2 .- La suma de cuadrados totales es igual a:
● Suma de cuadrados residuales + media de cuadrados explicados.

● Suma de cuadrados^2.

● Suma de cuadrados explicada + Suma de cuadrados residuales.

● Media de los cuadrados de los residuos + media de los cuadrados explicados.


3 .- La región crítica tambien se la conoce como:
● Zona del error.

● Zona de aceptación.

● Zona de rechazo.

● Zona neutra.
4.- El error tipo I es:
● Rechazar una hipótesis cuando es falsa.

● Rechazar una hipótesis cuando es verdadera.

● Aceptar una hipótesis cuando es falsa.

● Aceptar una hipótesis cuando es verdadera.


5.- Una distribución normal estandarizada al 95% de confianza tiene como valor Z:
● 1,96.

● 1,64.

● 1,85.

● 2.
6.- (1-alpha) significa:
● El error tipo I.

● la probabilidad de cometer el error tipo II.

● la probabilidad de cometer el error tipo I.

● El error tipo II.


7.- En una prueba de significancia, se dice que es estadísticamente significativo, si el estadístico:
● cae en la región crítica.

● cae en la región de aceptación.

● es indefinido.

● no tiene relevancia.
8.- La prueba F en una regresión evalua si:
● el estimador en conjunto es uno.

● los estimador beta es uno.

● el estimador beta es cero.

● los estimador en conjunto son cero.


9.- Cual es la mejor forma de realizar la predicción de un estimador luego de elaborada la regresión:
● media.

● individual.

● ingenua.

● monte carlo.
10.- La prueba Jarque Bera evalua quela curtosis sea ___ y la asimetria ____:
● 0,3.

● 3,1.

● 3,0.

● 1,3.
11.- Todo lo que está dentro de un intervalo de confianza se conoce como la zona de:
● aceptación.

● rechazo.

● crítica.

● significancia.

12.- La siguiente gráfica muestra que la FRM de un modelo:


● Es un modelo lineal con buen ajuste

● Es un modelo cuadrático con buen ajuste

● Es un modelo lineal con mal ajuste

● Es un modelo cuadrático con mal ajuste


13.- El siguiente es un resultado de una regresión entre altura y edad, la interpretación del beta2 es el
siguiente:

● Cada que la altura sea de 64.9283 se incrementa 0.6350 años en promedio

● Por cada año de edad adicional la altura promedio aumenta en 0.6350

● Por cada año de edad se incrementa 64.92 veces la altura en promedio

● La altura en promedio se incrementa 0.6350 veces por año

14.- El siguiente es un resultado de una regresión entre altura y edad, la interpretación de la prueba t para
el intercepto es la siguiente:
● No es estadísticamente significativo

● Es estadísticamente significativo

● Es estadísticamente no significativo, por lo que se puede rechazar la hipótesis nula

● Es estadísticamente no significativo, por lo que no se puede rechazar la hipótesis nula


15.- El siguiente es un resultado de una regresión entre altura y edad, la interpretación de la prueba F es la
siguiente:

● Se rechaza la hipótesis nula que los estimadores son cero en conjunto

● Se acepta la hipótesis nula que los estimadores no son cero en conjunto

● Se rechaza la hipótesis nula que el estimador es igual a cero

● Se rechaza la hipótesis nula que el estimador es igual a uno

PREGUNTAS PRUEBA 3

Si partimos del modelo Y= B1+B2*X2+B3*X3+ui, y se plantea la siguente H0:B2=B3=0


y H1:B2<>B3<>0 (<> significa distinto), si no rechazamos la H0 significa que:
X2 y X3 no ejercen influencia sobre Y.

La regla de decisión de una prueba F es que, si F calculado excede F crítico a un nivel


de confianza escogido:
Se rechaza la H0.

Si partimos del modelo Y= B1+B2*X2+B3*X3+ui, se plantea la siguente H0:B2=B3=0 y


H1:B2<>B3<>0 (<> significa distinto), al realizar el test al 5% confianza obtenemos
que el Fcalculado=73.83 y Fcritico=3.15, significa:
Rechaza la H0.

Si partimos del modelo Y= B1+B2*X2+B3*X3+ui, R cuadrado (R^2) tiene una relación


con la prueba F:
directa.

Si partimos del modelo Y= B1+B2*X2+B3*X3+ui, la prueba F mide:


La significancia general de la regresión estimada.

Si partimos del modelo Y= B1+B2*X2+B3*X3+ui, si queremos conocer la contribución incremental


(marginal) de una variable explicativa debemos usar una prueba:
F.

Si partimos del modelo MI=B1+B2*PIBPC y queremos comparar con el modelo


MI=B1+B2*PIBPC+B3*TAM, usando la prueba F obtenemos que Fcalculado=112.92 y
Fcritico=3.99, significa que:
La variable TAM debe ser incluida en el modelo.

Si partimos del modelo MI=B1+B2*PIBPC y queremos comparar con el modelo


MI=B1+B2*PIBPC+B3*TAM, vemos que el Rcuadrado ajustado del primero
modelo=0.1528 y del segundo modelo=0.6981; significa que:.
La variable TAM debe ser incluida en el modelo.

Si partimos del modelo Y= B1+B2*X2+B3*X3+B4*X4+ui, y se plantea la siguente


H0:B3=B4 y H1:B3<>B4 (<> significa distinto), obtenemos que el t calculado excede el
t critico significa:
Se puede rechazar la H0.

Si partimos del modelo ln(Y)= ln(B1)+B2*ln(X2)+B3*ln(X3)+ui, y se plantea la


siguente H0:B2+B3=1 y H1:B2+B3<>1 (<> significa distinto), tendremos que usar una
prueba:
t

Si partimos del modelo cobb douglas ln(Y)= ln(B1)+B2*ln(X2)+B3*ln(X3)+ui, y se


plantea la siguente H0:B2+B3=1 y H1:B2+B3<>1 (<> significa distinto), podemos
reordenar el modelo como:
ln(Y/X2)=B0+B3*ln(X3/X2)+ui.

Si partimos del modelo cobb douglas ln(PIB)= B1+B2*ln(Trabajo)+B3*ln(Capital) y


comparamos con el modelo ln(PIB/Trabajo)=B1+B2*ln(Capital/Trabajo)+ui,
obtenemos que el Fcalculado=3.75 y el Fcritico=4.45, significa:
Se rechaza la H0 que el modelo restringido es igual al modelo no restringido.
La prueba de Chow permite encontrar:
Quiebres estructurales.

Un cambio estructural se da cuando:


Los valores de los parametros del modelo no permanecen constantes a lo largo
de todo el periodo.

Luego de realizar un test Chow, encontramos que Fcalculado=10.69 y Fcrítico=7.72,


significa que:
No existe un cambio estructural en los datos.

PREGUNTAS PRUEBA 4
1) Si se cumple el supuesto de normalidad de los errores, significa que los estimadores beta:
Se distribuyen como chi cuadrado
Se distribuyen como normal
Se distribuyen como t
Se distribuyen como binomial

2) La prueba t de un estimador beta tiene en el denominador:

PREGUNTAS PRUEBA 5
PREGUNTAS PRUEBA 6
PREGUNTAS PRUEBA 7

También podría gustarte