Está en la página 1de 11

INSTITUTO TECNOLOGICO SUPERIOR DE CHETUMAL

ALUMNO:
CARLOS ALBERTO FLORES DURAN

MAESTRO:
JAVIER GARCÍA GUZMÁN

MATERIA :
ESTADÍSTICA INFERENCIAL II

CARRERA :
ING. EN GESTION EMPRESARIAL A DISTANCIA

FECHA ENTREGA: 06 OCTUBRE DE 2022

ACTIVIDAD: REPORTE DE INVESTIGACIÓN DEL TEMA 2


ÍNDICE

2.1 Modelo de regresión múltiple ............................................................................ 1

2.2 Estimación de la ecuación de regresión múltiple ........................................... 2

2.3 Matriz de varianza-covarianza ........................................................................... 3

2.4 Pruebas de hipótesis para los coeficientes de regresión. ............................ 4

2.5 Correlación lineal múltiple ................................................................................. 6

2.6 Aplicaciones. ....................................................................................................... 7

Referencias ................................................................................................................ 9
2.1 Modelo de regresión múltiple
A la ecuación que describe cómo está relacionada la variable dependiente y con las
variables independientes x1, x2, . . . , xp, un término de error se le conoce como
modelo de regresión múltiple. Se inicia con el supuesto de que este modelo toma la
forma siguiente.

En el modelo de regresión múltiple, 𝛽0 𝛽1 , 𝛽2 … 𝛽𝑝 son los parámetros y el término de


error ∈ (la letra griega épsilon) es una variable aleatoria. Examinando con atención
este modelo vemos que y es una función lineal de 𝑥1 + 𝑥2 … 𝑥𝑝 (la parte de 𝛽0 +
𝛽1 𝑥1, 𝛽2 𝑥2 + ⋯ + 𝛽𝑝 𝑥𝑝 ) más el término de error ∈. Este último corresponde a la
variabilidad en y que no puede ser explicada por el efecto lineal de las p variables
independientes.

La regresión lineal simple es una función que permite a un analista o estadístico


hacer predicciones sobre una variable en función de la información que se conoce
sobre otra variable. La regresión lineal solo se puede usar cuando uno tiene dos
variables continuas: una variable independiente y una variable dependiente. La
variable independiente es el parámetro que se utiliza para calcular la variable
dependiente o el resultado. Un modelo de regresión múltiple se extiende a varias
variables explicativas.

1
2.2 Estimación de la ecuación de regresión múltiple
Si se conocieran los valores de 𝛽0 , 𝛽1 , 𝛽2 … 𝛽𝑝 se podría usar la ecuación 𝛽0 +
𝛽1 𝑥1, 𝛽2 𝑥2 + ⋯ + 𝛽𝑝 𝑥𝑝 a efecto de calcular el valor medio de y para valores dados de
𝑥1 + 𝑥2 … 𝑥𝑝 Desafortunadamente, los valores de estos parámetros suelen en
general no conocerse y es necesario estimarlos a partir de datos muestrales. Para
calcular los valores de los estadísticos muestrales 𝑏0 , 𝑏1 , 𝑏2 … 𝑏𝑝 que se usan como
estimadores puntuales de los parámetros 𝛽0 , 𝛽1 , 𝛽2 … 𝛽𝑝 se emplea una muestra
aleatoria simple. Con los estadísticos muestrales se obtiene la siguiente ecuación
de regresión múltiple estimada.

2
2.3 Matriz de varianza-covarianza
Una matriz de varianza-covarianza es una matriz cuadrada que contiene las
varianzas y covarianzas asociadas con varias variables. Los elementos diagonales
de la matriz contienen las varianzas de las variables y los elementos fuera de la
diagonal contienen las covarianzas entre todos los posibles pares de variables

V es una matriz de varianza-covarianza c x c


N es el número de puntajes en cada uno de los conjuntos de datos c
xi es una puntuación de desviación del i-ésimo conjunto de datos
Σ xi2 / N es la varianza de los elementos del i-ésimo conjunto de datos
Σ xi xj / N es la covarianza de los elementos de los conjuntos de datos i-ésimo y j-
ésimo.

La matriz de varianza-covarianza es simétrica porque la covarianza entre X e Y es


la misma que la covarianza entre Y y X. Por lo tanto, la covarianza para cada par de
variables se muestra dos veces en la matriz: la covarianza entre las variables i-
ésima y j-ésima es se muestra en las posiciones (i, j) y (j, i).

3
2.4 Pruebas de hipótesis para los coeficientes de regresión.
La prueba de hipótesis se utiliza para confirmar si los coeficientes de regresión
estimados tienen algún significado estadístico. Tanto el enfoque del intervalo de
confianza como el enfoque de la prueba t se pueden utilizar en la prueba de
hipótesis.

La prueba individual de un coeficiente de regresión puede se útil para determinar si:

Se incluyen otra variable regresora.


Se elimina una una o más variables regresoras presentes en el modelo.

La adición de variables regresoras en el modelo implica:

La SC incremente

La SC disminuya

pero se debe decidir si el incremento en la SC es tan significativo que


justifique la inclusión de otra variable regresora en el modelo, ya que la inclusión de

variables que no deberían ser incluidas puede aumentar la SC .

La hipótesis para probar la significancia dede cualquier coeficiente de regresión es

Si la hipótesis nula no es rechazada, es un indicador de que la variable regresora


puede ser eliminada del modelo.

La prueba estadística para la hipótesis es

4
donde es el elemento de la diagonal de la matriz correspondiente

a . La prueba estadística se distribuye con grados del libertad del


error. La hipótesis nula se rechaza si:

5
2.5 Correlación lineal múltiple
La regresión lineal múltiple (MLR), también conocida simplemente como regresión
múltiple, es una técnica estadística que utiliza varias variables explicativas para
predecir el resultado de una variable de respuesta. El objetivo de la regresión lineal
múltiple es modelar la relación lineal entre las variables explicativas
(independientes) y las variables de respuesta (dependientes). En esencia, la
regresión múltiple es la extensión de la regresión de mínimos cuadrados ordinarios
(OLS) porque involucra más de una variable explicativa.

Fórmula y Cálculo de Regresión Lineal Múltiple

donde, para i=n observaciones:


y i=variable dependiente
Xi= variables explicativas
β0 = intercepto en y (término constante)
βp =coeficientes de pendiente para cada variable explicativa
ϵ=el término de error del modelo (también conocido como los residuos)

La regresión lineal simple es una función que permite a un analista o estadístico


hacer predicciones sobre una variable en función de la información que se conoce
sobre otra variable. La regresión lineal solo se puede usar cuando uno tiene dos
variables continuas: una variable independiente y una variable dependiente. La
variable independiente es el parámetro que se utiliza para calcular la variable
dependiente o el resultado. Un modelo de regresión múltiple se extiende a varias
variables explicativas.

6
2.6 Aplicaciones.
1. Bienes inmuebles
Usted es un profesional de bienes raíces que quiere crear un modelo para ayudar a
predecir el mejor momento para vender casas. Le gustaría vender casas al precio
de venta máximo, pero múltiples factores pueden afectar el precio de venta. Estas
variables incluyen la antigüedad de la casa, el valor de otras casas en el vecindario,
mediciones cuantitativas del sistema de escuelas públicas con respecto al
desempeño de los estudiantes y la cantidad de parques cercanos, entre otros
factores.

Puede crear un modelo de predicción a partir de estas cuatro variables


independientes para predecir el precio de venta máximo de las viviendas. Puede
ajustar las variables si alguno de estos factores cambia en términos de sus valores
de coeficiente.

2. Ejemplo de negocio
Tiene acciones en una empresa que cotiza en bolsa y quiere saber si ahora sería
un buen momento para vender sus acciones. Varias variables podrían afectar el
valor del precio de las acciones, incluida la rentabilidad de la empresa, los costos
de la empresa, la competencia de la empresa y los activos de la empresa. Puede
construir un modelo de predicción a partir de estas cuatro variables independientes
para ayudar a decidir si debe vender las acciones de inmediato o continuar
manteniendo las acciones.

3. Ejemplo de salud pública


Eres un epidemiólogo que estudia la propagación de una enfermedad infecciosa.
Desea predecir la propagación futura de esta enfermedad en función de las
infecciones conocidas actuales. Múltiples variables independientes pueden afectar
la cantidad de infecciones futuras, incluido el tamaño de la población, la densidad
de la población, la temperatura del aire, los portadores asintomáticos y si la
población ha logrado la inmunidad colectiva. Puede realizar modelos estadísticos y

7
análisis de regresión lineal múltiple en datos empíricos para predecir un resultado
que tenga en cuenta los posibles cambios en los valores de los coeficientes de las
variables predictoras.

8
Referencias

Indeed Editorial Team. (2021, 7 julio). Multiple (Linear) Regression: Formula,


Examples and FAQ. Indeed. https://www.indeed.com/career-advice/career-
development/multiple-regression

LEVIN, RICHARD, I., RUBIN & DAVID, S. (2010). Estadistica para Administracion y
Economia (7.a ed., Vol. 7). PEARSON EDUCACIÓN.
https://www.academia.edu/16570654/Estadistica_para_Administracion_y_Economi
a_Levin_Rubin_7ma_Ed_Pearson

Mendoza Rivera, H. (s. f.). Lección 7: Prueba de Significancia de la regresión.


Universidad Nacional de Colombia.
http://red.unal.edu.co/cursos/ciencias/2007315/html/un5/cont_08_48.html

Williams, Sweeney & Anderson. (2012). Estadística para negocios y economía (11.a
ed., Vol. 11). Cengage Learning.
https://www.academia.edu/37099878/Estad%C3%ADstica_para_negocios_y_econ
om%C3%ADa

También podría gustarte