Está en la página 1de 12

REGRESIÓN PARCIAL

Es una técnica de predicción alternativa a la regresión de mínimos


cuadrados ordinarios (OLS), a la correlación canónica o al modelado de
ecuaciones estructurales, y resulta particularmente útil cuando las variables
predictoras están muy correlacionadas o cuando el número de predictores es
superior al número de casos, combina las características del análisis de
componentes principales y la regresión múltiple. En primer lugar, extrae un
conjunto de factores latentes que explica en la mayor medida posible la covarianza
entre las variables dependientes e independientes.

La regresión de mínimos cuadrados parciales (PLS) es una técnica que


reduce los predictores a un conjunto más pequeño de componentes no
correlacionados y realiza una regresión de mínimos cuadrados sobre estos
componentes, en lugar de hacerlo sobre los datos originales. La regresión PLS
resulta especialmente útil cuando los predictores son muy colineales o cuando
usted tiene más predictores que observaciones y la regresión de mínimos
cuadrados ordinarios produce coeficientes con altos errores estándar o falla por
completo.

La regresión PLS se utiliza principalmente en las industrias químicas, de


medicamentos, de alimentos y de plásticos. A diferencia de la regresión de
mínimos cuadrados, PLS puede ajustarse a múltiples variables de respuesta en un
solo modelo. Puesto que la regresión PLS modela las variables de respuesta de
una forma multivariada, los resultados podrían diferir significativamente de los
calculados para las variables de respuesta de manera individual. 

https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-
statistics/regression/supporting-topics/partial-least-squares-regression/what-is-partial-least-
squares-regression/

Ventajas y desventajas del método PLS

Como se ha indicado, el método PLS obtiene a partir de la matriz X, una


matriz T cuyos vectores son linealmente independientes, definiendo un sistema
ortogonal. De tal forma que, en los casos en que existan un número mayor de
variables independientes en relación al número de observaciones (m>n) se
produce una reducción dei modelo. Por otro lado, en los casos en que exista
colinealidad o redundancia entre las variables, la matriz T se usa para reducir
dichas variables o sintetizarlas. Por consecuencia es posible minimizar el riesgo
de cometer un error estadístico al descartar información importante.

Una desventaja es que la regresión PLS es un modelo correlativo y no causal, en


el sentido de que los modelos obtenidos no ofrecen información fundamental
acerca del fenómeno estudiado, puesto que no se trabaja con las variables
originales.

http://www.revistasbolivianas.org.bo/scielo.php?pid=S9876-
67892010000100005&script=sci_arttext

Correlación parcial
La correlación parcial mide la variación conjunta que se da entre una variable
independiente y una variable dependiente, controlando o los efectos que sobre
esa variación pudiera ejercer otra independiente. La correlación parcial se expresa
en términos de coeficiente de correlación de Pearson, y en la fórmula se separa
con un punto la variable controlada de las variables dependiente e independiente.
Su fórmula para tres variables —máximo que permite el software bajo el cual se
desarrolla este manual, BarbWin— es la siguiente:

El procedimiento Correlaciones parciales calcula los coeficientes de correlación parcial,


los cuales describen la relación lineal existente entre dos variables mientras se controlan
los efectos de una o más variables adicionales. Las correlaciones son medidas de
asociación lineal. Dos variables pueden estar perfectamente relacionadas, pero si la
relación no es lineal, el coeficiente de correlación no es un estadístico adecuado para
medir su asociación.

Ejemplo. ¿Existe alguna relación entre la financiación sanitaria y las tasas de


enfermedad? Aunque cabe esperar que dicha relación sea negativa, un estudio describe
una correlación positiva significativa: si la financiación sanitaria aumenta, las tasas de
enfermedad parecen disminuir. Sin embargo, si se controla la tasa de visitas de
visitadores médicos, se elimina prácticamente la correlación positiva observada. La
financiación sanitaria y las tasas de enfermedad sólo parecen estar relacionadas
positivamente debido a que más personas tienen acceso a la sanidad si la financiación
aumenta, lo que tiene como resultado que los médicos y hospitales informen de más
enfermedades.
Estadísticos. Para cada variable: número de casos sin valores perdidos, media y
desviación estándar. Matrices de correlación de orden cero y parcial, con grados de
libertad y niveles de significación.

 CORRELACION PARCIAL  
En el modelo de regresión múltiple, es natural extender el concepto de correlación simple El coeficiente de

correlación parcial mide el grado de relación entre la variable dependiente   y una variable

independiente     después de eliminar completamente el efecto de las otras


variables independientes en el modelo.

  C�lculo del Coeficiente de Correlaci�n


Parcial  
Suponga que se tiene el siguiente modelo:
El coeficiente de correlación parcial entre   y   debe definirse de tal manera que mida el efecto

de   en   que no es explicado por las otras variables en el modelo; es decir, el el coeficiente de

correlación parcial se calcula eliminando el efecto lineal entre   y   (así como el efecto entre   

y  ) y luego ejecutando la regresión apropiada. Los pasos son los siguientes:

1. Ejecutar la regresión entre   y   , obtener el modelo ajustado

y determinar los residuales

y de esta manera se elimina la influencia de   sobre 

2. Ejecutar la regresión entre   y   y obtener el modelo ajustado

y determinar los residuales

y de esta manera se elimina la influencia de   sobre 

3. Ejecutar la regresión entre los residuales   y   y obtener el coeficiente de correlación, el cual

será el coeficiente de correlación parcial entre   y  , el cual se denota como:


Análisis de Regresión Múltiple
Dispone de una ecuación con dos variables independientes adicionales:

Se puede ampliar para cualquier número "m" de variables independientes:

Para poder resolver y obtener   y   en una ecuación de regresión múltiple el cálculo se presenta
muy tediosa porque se tiene atender 3 ecuaciones que se generan por el método de mínimo de cuadrados:

 
Para poder resolver se puede utilizar programas informáticos como AD+, SPSS y Minitab y Excel.

El error estándar de la regresión múltiple 


Es una medida de dispersión la estimación se hace más precisa conforme el grado de dispersión
alrededor del plano de regresión se hace mas pequeño.
Para medirla se utiliza la formula:

Y : Valores observados en la muestra

: Valores estimados a partir a partir de la ecuación de regresión


n : Número de datos
m : Número de variables independientes

El coeficiente de determinación múltiple 

Mide la tasa porcentual de los cambios de Y que pueden ser explicados por  ,   y   
simultáneamente.

Análisis de Regresión Múltiple


Dispone de una ecuación con dos variables independientes adicionales:

Se puede ampliar para cualquier número "m" de variables independientes:

Para poder resolver y obtener   y   en una ecuación de regresión múltiple el cálculo se presenta
muy tediosa porque se tiene atender 3 ecuaciones que se generan por el método de mínimo de cuadrados:
 
Para poder resolver se puede utilizar programas informáticos como AD+, SPSS y Minitab y Excel.

El error estándar de la regresión múltiple 


Es una medida de dispersión la estimación se hace más precisa conforme el grado de dispersión
alrededor del plano de regresión se hace mas pequeño.
Para medirla se utiliza la formula:

Y : Valores observados en la muestra

: Valores estimados a partir a partir de la ecuación de regresión


n : Número de datos
m : Número de variables independientes

El coeficiente de determinación múltiple 

Mide la tasa porcentual de los cambios de Y que pueden ser explicados por  ,   y   
simultáneamente.

Análisis de Regresión Múltiple


Dispone de una ecuación con dos variables independientes adicionales:

Se puede ampliar para cualquier número "m" de variables independientes:


Para poder resolver y obtener   y   en una ecuación de regresión múltiple el cálculo se presenta
muy tediosa porque se tiene atender 3 ecuaciones que se generan por el método de mínimo de cuadrados:

 
Para poder resolver se puede utilizar programas informáticos como AD+, SPSS y Minitab y Excel.

El error estándar de la regresión múltiple 


Es una medida de dispersión la estimación se hace más precisa conforme el grado de dispersión
alrededor del plano de regresión se hace mas pequeño.
Para medirla se utiliza la formula:

Y : Valores observados en la muestra

: Valores estimados a partir a partir de la ecuación de regresión


n : Número de datos
m : Número de variables independientes

El coeficiente de determinación múltiple 

Mide la tasa porcentual de los cambios de Y que pueden ser explicados por  ,   y   
simultáneamente.
Regresión segmentada
Regresión segmentada o regresión por pedazos es un método en el análisis de regresión en
que el variable independiente es particionada en intervalos ajustando en cada intervalo una
línea o curva a los datos. La regresión segmentada se puede aplicar también a la regresión
con múltiples variables independientes particionando todas estas.

Regresión segmentada lineal, tipo 3

La regresión segmentada es útil cuando el variable dependiente muestra una reacción


abruptamente diferente a la variable independiente en los varios segmentos. En este caso el
límite entre los segmentos se llama punto de quiebra.
Regresión segmentada lineal es la regresión segmentada en que la relación entre el variable
dependiente e independiente dentro de los segmentos se obtiene por regresión lineal.
Índice

 1Regresión segmentada lineal, 2 segmentos


 2Ejemplo
 3Procedimiento de pruebas
 4Rango de "no-efecto"
 5Referencias
 6Enlaces externos

Regresión por rangos

1.er miembro horizontal

1.er miembro inclinado hacia arriba

1.er miembro inclinado hacia abajo

Regresión segmentada lineal en dos segmentos separados por un punto de quiebra puede ser
útil para cuantificar un cambio abrupto en la función de reacción de un factor de interés a la
variación de otro factor influencial. El punto de quiebra se interpreta como un
valor seguro, crítico o umbral cuando efectos (no) deseados suceden a uno de los dos lados.
El punto de quiebra puede ser un factor importante para la toma de decisiones de manejo. 1
El análisis de la regresión segmentada se basa en la presencia de un juego de datos ( y,
x ), donde y es el variable dependiente y x el variable independiente, es decir que el valor
de x influye el valor de y.
El método de los mínimos cuadrados aplicado separadamente a cada segmento, por lo
cual las dos líneas de regresión se ajustan a los datos tan cerca como posible
minimizando la suma de los cuadrados de las diferencias (SCD) entre el valor observado
(y) y valor calculado por regresión (Yr) de la variable dependiente, resulta en las
ecuaciones siguientes:

 Yr = A1. x + K1     para x < PQ (punto de quiebra)


 Yr = A2. x + K2     para x > PQ (punto de quiebra)
donde:
Yr es el valor esperado (pronosticado) de y para un cierto valor de x
A1 y A2 son los coeficientes de regresión indicando la inclinación de las líneas en los
segmentos respectivos
K1 and K2 son los constantes de regresión en los segmentos respectivos indicando los
valores de Yr cuando x = 0
Los datos pueden mostrar diferentes tipos de tendencia, 2 véase las figuras.
El método también rinde dos coeficientes de correlación:

 (R1)2 = 1 – suma { (y – Yr)2 } / suma { (y – Ya1)2 }     para x < PQ (punto de


quiebra)
 (R2)2 = 1 – suma { (y – Yr)2 } / suma { (y – Ya2)2 }     para x > PQ (punto de
quiebra)
donde
suma { (y – Yr)2 } es la suma de cuadrados de las diferencias (SCD) minimizado por
segmento
Ya1 e Ya2 son los valores promedios de y en los segmentos respectivos
Cuando no se detecta un punto de quiebra, hay que volver a una
regresión sin punto de quiebra.

También podría gustarte