Está en la página 1de 8

REGRESION Y CORRELACION

MULTIPLE
ESTADISTICA INFERENCIAL II
INTEGRANTES.
• JAMANGAPE VELASCO OCTAVIO
• MORENO GARCIA ROGER SERVANDO
• PEREZ DIAZ JULIO CESAR
• FERNANDEZ FLORES LUIS IVAN
• ESPINOSA RINCON LUIS DANIEL
REGRESION MULTIPLE

 Cuando existe una posible relación entra varias variables independientes y otra
dependiente se hace necesario el uso de la REGRESIÓN MULTIPLE.
 La regresión múltiple se usa con mayor frecuencia en las publicaciones de las
investigaciones cuando se requiere crear un modelo donde se seleccionan
variables que pueden influir en la respuesta, descartando aquellas que no aportan
información, cuando se requiere detectar la interacción entre variables
independientes que afectan a la variable y cuando se requiere identificar variables
confusoras.
REGRESION MULTIPLE

Aplicaciones de la regresión simple.


Es cierto que la regresión múltiple se utiliza para la predicción de respuestas a partir de
variables explicativas. Los usos que con mayor frecuencia encontraremos en las
publicaciones son los siguientes:
 Identificación de variables explicativas.
Nos ayuda a crear un modelo donde se seleccionan las variables que puedan influir en
la respuesta, descartando aquellas que no aporten información.
 Detección de interacción.
Entre variables independientes que afectan a la variable de respuesta. Un ejemplo de
interacción clásico es el de estudiar la respuesta de un paciente al alcohol y a un
barbitúrico, y observar que cuando se ingieren ambos, el efecto es mucho mayor del
esperado como suma de los dos
REGRESION MULTIPLE
 Hay ciertos requerimientos que la variable necesarios para poder utilizar la técnica de
regresión múltiple:
 Linealidad: Se supone que la variable respuesta depende linealmente de las variables
explicativas.
 Normalidad y edquidistribucion de los residuos: Se llaman residuos las diferencias entre
los valores calculados por el modelo y los realmente observados entre los valores
calculados por el modelo y los realmente observados en la variable dependiente.
 Numero de variables independientes: Podemos estar tentados en incluir en el modelo
cualquier cosa que tengamos en una base de datos, con la esperanza de que cuantas
variables incluyamos, mas probabilidades de concluir una correlación múltiple
 Colinealidad: Si dos variables independientes están estrechamente relacionada.s y
ambas son incluidas en el modelo, muy posiblemente ninguna de las dos sea
considerada significativa, aunque si hubiésemos incluido una de ellas, si.
REGRESION MULTIPLE
 El modelo de regresión lineal múltiple es idéntico al modelo de regresión lineal simple, con
la única diferencia de que aparecen más variables explicativas:
 Modelo de regresión simple
Y=𝜷0+𝜷1· x+μ
 Modelo de regresión múltiple
𝒀෡𝒊 = 𝜷𝟎 + 𝜷𝟏 𝑿𝒊𝟏 + 𝜷𝟐 𝑿𝒊𝟐 +. . . + 𝜷𝒌 𝑿𝒊𝒌
 Donde 𝑌෠ es la variable respuesta cuantitativa para el i-ésimo objeto, este es un valor
estimado.
 𝛽𝑘 Son los parámetros poblacionales (valores constantes fijos) llamados coeficientes. Siendo
“n” el número de objetos u observaciones donde i = 0, 1, 2,..., n.
 Se espera que la variable dependiente varíe linealmente con las variables independientes.
CORRELACION MULTIPLE

 Una correlación múltiple es el coeficiente de correlación entre una variable


criterio (Y) y la combinación linear de las variables llamadas predictoras que
también se pueden denominar (X), y es más claro, variables independientes.
 La combinación linear es la suma algebraica de las variables predictoras o
independientes ponderadas por sus coeficientes beta; estos coeficientes son
análogos a los coeficientes b y se calculan utilizando puntuaciones típicas. La
correlación múltiple se simboliza como R e incluye el cálculo de los coeficientes
beta de cada variable. Una expresión sencilla de esta correlación múltiple es:
∑𝜷ir1i
 Se multiplica el coeficiente beta de cada variable independiente por su
correlación con la variable “Y” y se suman los productos. La raíz cuadrada de
esta suma es el coeficiente de correlación múltiple.
CORRELACION MULTIPLE

 El coeficiente de correlación múltiple se 𝑟𝑦.𝑥1 𝑥2…𝑥𝑘 puede definir de manera general


como la raíz cuadrada de la suma de los cuadrados explicados por la regresión
sobre la suma de los cuadrados totales.
∑𝒏𝒊=𝟏(ෝ
𝒚− 𝒚ഥ)𝟐
𝒓𝒚.𝒙𝟏 𝒙𝟐..𝒙𝒌 =
∑𝒏𝒊=𝟏(𝒚 − 𝒚
ഥ)𝟐

 Este coeficiente tiene una desventaja, su valor se incrementa cuando se


introducen nuevas variables independientes en el modelo, por tanto resulta
engañoso para el análisis cuando se tienen muchas variables independientes.
CORRELACION MULTIPLE

 De manera general es posible encontrar una ecuación general de


coeficiente de correlación múltiple que incluye “k” variables
independientes, esta se puede construir a partir de los coeficientes de
correlación parciales:
2 2 2 2 2
 1 − 𝑟𝑦.𝑥1 𝑥2 …𝑥𝑘
= 1 − 𝑟𝑦𝑥1
1 − 𝑟𝑦𝑥 2 .𝑥1
1 − 𝑟𝑦𝑥3 .𝑥1 𝑥2
… 1 − 𝑟𝑦𝑥𝑘 .𝑥1 …𝑥𝑘−1

También podría gustarte