Está en la página 1de 15

UNIVERSIDAD CENTROOCCIDENTAL “LISANDRO ALVARADO”

DECANATO DE INGIENERIA CIVIL Y URBANISMO


BARQUISIMETO ESTADO LARA

Unidad IV estadística Descriptiva.


INFORME DE REGRESIÓN Y CORRELACIÓN

Ing. Mariana Suarez


Estudiantes:
Rodriguez Julio
David Riveros
Silva Miguel

Barquisimeto, marzo Del 2022


Introducción

Durante nuestra carrera y vida de ingenieros, se necesitan ciertas virtudes y


herramientas manuales, tecnológicas y entre otras con el fin de lograr obtener el
aprendizaje necesario para poder llegar a cabo proyectos de cualquier tipo con la
ayuda de la ciencia y la tecnología para lograr así poder generar nuestros propios
modelos matemáticos, probabilísticos con la mínima causa de error u ocurrencia del
mismo debido que el fin de un Ing. civil es garantizar la seguridad, estabilidad y la
garantía de que dicho proyecto tenga la mayor probabilidad de éxito En este trabajo
se estudiara los siguientes aspectos: Modelos estadísticos lineales, relación entre
variables, curvas de ajustes, método de los mínimos cuadrados, coeficiente de
correlación; que son de suma importancia para el estudio y trabajo de la estadística
Descriptiva, en el tema de Regresión y Correlación. Todos estos puntos que se
aprenderán nos ayudarán a nutrirnos sobre la causalidad de entre las variables, a
considerar la causa y el efecto y a llegar a un análisis inferencial.

En donde se irán ejecutando ciertos métodos como lo son Cálculos de


coeficientes de regresión, regla de regresión ajustada, coeficiente de correlación,
coeficiente de correlación ajustada, prueba t y distribución f. Para poder definir con
más claridad y exactitud los datos que se necesitan para poder llegar a una buena
conclusión del ejercicio y dar respuesta a todas las incógnitas que surjan en el
trascurso del desarrollo.
Regresión

Cuantificando la fuerza de esa relación, y empleando métodos que permitan


predecir los valores de la respuesta dados los valores del regresor x. En muchas
aplicaciones habrá más de un regresor, es decir, más de una variable independiente
que ayude a explicar a Y. Por ejemplo, si se tratara de explicar las razones para el
precio de una casa, se esperaría que una de ellas fuera su antigüedad, en cuyo caso la
estructura múltiple de la regresión se podría escribir como:

Y = β0 +β1x 1 +β2x 2 ,

Correlación

La correlación cuantifica como de relacionadas están dos variables, mientras que


la regresión lineal consiste en generar una ecuación (modelo) que, basándose en la
relación existente entre ambas variables, permita predecir el valor de una a partir de la
otra. El cálculo de la correlación entre dos variables es independiente del orden o
asignación de cada variable a XX e YY, mide únicamente la relación entre ambas sin
considerar dependencias. En el caso de la regresión lineal, el modelo varía según qué
variable se considere dependiente de la otra (lo cual no implica causa-efecto).

Donde Y es el precio, x1 son los metros cuadrados y x2 es la antigüedad de la casa


en años. En el capítulo siguiente se estudiarán problemas con regresores múltiples. El
análisis resultante se denomina regresión múltiple; en tanto que el análisis del caso
con un solo regresor recibe el nombre de regresión simple.

La recta de regresión ajustada

Un aspecto importante del análisis de regresión es, en términos sencillos, estimar


los parámetros β0 y β1, es decir, estimar los llamados coeficientes de regresión. En la
sección siguiente se estudiará el método para estimarlos. Suponga que denotamos los
estimados b0 para β0 y b1 para β1. Entonces, la recta de regresión ajustada, o
estimada, es dada por
ˆy = b0 +b1x,

Donde ˆy es el valor pronosticado o ajustado. Es evidente que la recta ajustada es


un estimado de la verdadera recta de regresión. Se espera que la recta ajustada esté
más cerca de la verdadera línea de regresión cuando se dispone de una gran cantidad
de datos.

Mínimos cuadrados y el modelo ajustado

En esta sección se estudia el método para ajustar una recta de regresión estimada a
los datos, lo cual equivale a determinar los estimados b0 para β0 y b1 para β1. Por
supuesto, esto permite el cálculo de los valores pronosticados a partir de la recta
ajustada ˆy = b0+ b1x, y otros tipos de análisis y de información diagnóstica que
determinarán la fuerza de la relación, así como la adecuación y el ajuste del modelo.
Antes de analizar el método de estimación de los mínimos cuadrados es importante
presentar el concepto de residual. En esencia, un residual es un error en el ajuste del
modelo ˆy = b0 + b1x.

Residual: Error en el ajuste Dado un conjunto de datos de regresión {(xi, yi); i = 1,


2,..., n} y un modelo ajustado

ˆyi = b0 + b1x, el i-ésimo residual ei es dado por

ei = yi − ˆyi , i = 1, 2,. . . , n .

Es evidente que, si un conjunto de n residuales es grande, entonces el ajuste del


modelo no es bueno. Los residuales pequeños son indicadores de un ajuste adecuado.
Otra relación interesante, y que a veces es útil, es la siguiente:

yi = b0 +b1x i +ei.
Método de mínimos cuadrados

Debemos calcular b0 y b1, los estimados de β0 y β1, de manera que la suma de los
cuadrados de los residuales sea mínima. La suma residual de los cuadrados con
frecuencia se denomina suma de los cuadrados del error respecto de la recta de
regresión y se denota como SCE. Este procedimiento de minimización para estimar
los parámetros se denomina método de mínimos cuadrados. Por lo tanto, debemos
calcular a y b para minimizar

coeficiente de determinación

Se denomina coeficiente de determinación y es una medida de la proporción de la


variabilidad explicada por el modelo ajustado. El enfoque del análisis de varianza
utiliza la suma de los cuadrados Esta última representa la variación en los valores de
respuesta que idealmente serían explicados con el modelo. El valor de la SCE es la
variación debida al error, o la variación no explicada. Resulta claro que si la SCE = 0,
toda variación queda explicada. La cantidad que representa la variación explicada es
STCC – SCE.

El coeficiente de determinación ajustado (R²ajustado)


Un coeficiente de determinación ajustado. R2 ajustado es una variación de R2 que
proporciona un ajuste para los grados de libertad. El coeficiente de determinación, En
otras palabras, R² no disminuye a medida que se reducen los grados de libertad del
error n – k – 1, ya que este último resultado se produce por un incremento de k, el
número de términos en el modelo. R2 ajustado se calcula dividiendo la SCE y la
STCC entre sus grados de libertad respectivos de la siguiente manera.

Pruebas t individuales para la selección de variables

La prueba t que se utiliza con más frecuencia en la regresión múltiple es aquella


que prueba la importancia de los coeficientes individuales, es decir, H0: βj = 0 en
comparación con la hipótesis alternativa H1: βj ≠ 0. Con frecuencia estas pruebas
contribuyen a lo que se denomina selección de variables, con la cual el analista
intenta llegar al modelo más útil, es decir, a la elección de cuál regresor utilizar. Aquí
debemos destacar que, si se encuentra que un coeficiente es insignificante, es decir, si
no se rechaza la hipótesis H0: βj = 0, la conclusión que se obtiene es que la variable
es insignificante (explica una cantidad insignificante de la variación de y) en la
presencia de los demás regresores del modelo.
Distribución F

El estadístico F se define como el cociente de dos variables aleatorias chi cuadrada


independientes, dividida cada una entre su número de grados de libertad. En
consecuencia, podemos escribir

Donde U y V son variables aleatorias independientes que tienen distribuciones chi


cuadrada con d1 y d2 grados de libertad, respectivamente. Estableceremos ahora la
distribución muestral de F.
Solución de un ejemplo de Regresión múltiple con ayuda del software
estadísticos

En Durabilidad de estructuras de concreto armado se seleccionó una muestra de la


Constante de Carbonatación “K” (mm/año0.5) en ambientes urbanos e industriales de
la ciudad de Barquisimeto, Estado Lara. Realizar el análisis de Regresión Múltiple
para el ambiente en las cercanías del Rectorado en función de las zonas industriales I
y II con los datos siguientes:

Y X1 X2
Rectorado Zona I Zona II
6,66 2,52 1,6
6,58 7,606 2,7
6,42 1,389 2,7
6,47 6,987 5,5
6,58 6,999 5,5
5,24 6,847 7,3
6,11 2,236 9,1
6,49 8,133 4,6
5,09 6,608 3,7
5,39 8,23 15,9
5,26 5,592 15,9
7 3,056 4,2
6,88 10,308 20,8
6,29 3,343 15,1
5,97 9,184 2,7
5,93 0 2,7
6,2 0 4
0 0 4,9
0 0 2
0 0 4,6
0 0 5,5
0 0 9,1
0 0 2,1
0 0 2
0 0 5,1
0 0 5,1
0 0 8,8
Aplicación Del Paquete Estadístico Excel

Estadísticas de la regresión
0,6968384
Coeficiente de correlación múltiple 98
0,4855838
Coeficiente de determinación R^2 93
0,4427158
R^2 ajustado 84
Error típico 2,2859093
04
Observaciones 27

ANÁLISIS DE VARIANZA
Grados de libertad Suma de cuadrados Promedio de los cuadrados
Regresión 2 118,3801663 59,19008313
Residuos 24 125,4091523 5,225381344
Total 26 243,7893185

F Valor crítico de F
11,32741885 0,00034338

Error típico Estadístico t


0,749054638 2,899572721
0,134790872 4,54191806
0,097630332 -0,508126961

Coeficientes
Intercepción 2,171938394
Variable X 1 0,612209097
Variable X 2 -0,049608604

Recta de regresión ajustada según los datos obtenidos del Excel

Aplicación Del Paquete Estadístico SPSS

Regresión

Variables entradas/eliminadasa
Variables Variables
Modelo introducidas eliminadas Método
b
1 X2, X1 . Intro

a. Variable dependiente: Y
b. Todas las variables solicitadas introducidas.

Correlación

Correlación

R cuadrado Error estándar


Modelo R R cuadrado ajustado de la estimación

1 ,697a ,486 ,443 2,28591

a. Predictores: (Constante), X2, X1

Distribución F

ANOVAa

Suma de Media
Modelo cuadrados Gl cuadrática F Sig.

1 Regresión 118,380 2 59,190 11,327 ,000b

Residuo 125,409 24 5,225

Total 243,789 26

a. Variable dependiente: Y
b. Predictores: (Constante), X2, X1

Pruebas T

Coeficientesa
Coeficientes
Coeficientes no estandarizados estandarizados

Modelo B Error estándar Beta t Sig.

1 (Constante) 2,172 ,749 2,900 ,008

X1 ,612 ,135 ,725 4,542 ,000

X2 -,050 ,098 -,081 -,508 ,616

a. Variable dependiente: Y

Recta de regresión ajustada según los datos obtenidos del SPSS

Conclusiones
En parte general de todos los estudios realizados por medio de los 2 programas
estadísticos Excel y SPSS nos sirvieron de mucha ayuda para la solución del
problema estadístico asignado a nuestro grupo. En énfasis que si relacionan entre sí
dos variables cuando el cambio de una categoría a otra estaremos hablando de
variables cualitativas y que cuando ocurre de un valor a otro es variables
cuantitativas, mientras que cuando se provoca un cambio en los valores o categoría de
la otra variable hablando de variables independientes.

Por otro lado, al hablar de regresión y correlación nos referimos a funciones de


pares ordenados que crecen o decrecen paralelamente dependiendo el estudio que
queramos hacer en donde la recta de regresión nos da la mayor cercanía con respecto
a todos los puntos de correlación evaluado. Para llegar al punto del cual se
mencionarán 1 por una cada conclusión del ejercicio realizado por Excel y SPSS se
realizarán conclusiones generales debido a que los datos son similares o casi iguales.

1. El 1er punto a tratar son los coeficientes de regresión que es el método


base del proceso debido al cual desde allí se parte nuestro modelo matemático
para poder saber cuál será nuestra recta o modelo de regresión ajustado el cual
la intersección se refiere el bo que equivale 2.172, b1 0.612 y b2 -0.050
aproximadamente, con las dos herramientas estadísticas se llegó al mismo
resultado quiere decir que si se puede construir un modelo matemático con
estos coeficientes. Cabe destacar que también se pueden buscar por el método
de los mínimos cuadrados.
2. Ya obtenidos los coeficientes se construye el modelo matemático
utilizando la fórmula de regresión ajustada y el resultado fue el siguiente:

3. El paquete estadístico Excel en el uso del cálculo de la regresión nos da


dados importantes pero el que resalta mas es el coeficiente de correlación
múltiple que indica que se relacionan entre si las variables en un
aproximadamente del 70% lo cual no es bueno ni malo se podría decir que es
moderado no es el modelo estadístico por excelencia, pero aun así se puede
trabajar, los que si son bastante bajos son el coeficiente de determinación r² y
el ajustado el cual no varían mucho entre si también esto puede ser causado
por la dependencia de una de las dos variables en conclusión se debería buscar
la manera de subir el nivel de relación de las variables y reducir el error típico
estándar de 2.2859 aproximadamente para que aumenten los r² y el r²
ajustado.
4. Ahora bien, ayudándonos de SPSS La tabla “ANOVA” informa si existe o
no relación significativa entre las variables. Se tiene que observar que R no
puede ni debe ser 0 porque diría que el modelo no sirve en este caso lo
observado nos dice que el modelo creado funciona y descartamos esa
hipótesis tanto como la eliminación de una variable
5. En la última tabla sacada de SPSS, se obtienen datos muy importantes
como la distribución y si los datos obtenidos son estándares o no lo que sirve
para identificar que el modelo puedo tener o no una variable con mayor
dependencia o no o que sea más factible a tener menos errores que vendría
siendo el mejor caso
6. También hemos utilizado estos paquetes estadísticos para calcular otros
factores que nos ayudan a saber cuál es el valor de nuestras muestras en el
estudio, los análisis de varianza, desviación típica o estándar y entre otros
factores que son de mucha ayuda para los ingenieros
7. Por último los diagramas de dispersión de cada una de las variables
independientes en relación con la dependiente Y.
Gráfico de dispersión nro. 1

Variable X 1 Curva de regresión


ajustada
10
f(x) = 0.584867845100539 x + 1.94387173362734
5
Y

R² = 0.480049782474455
0
0 2 4 6 8 10 12
Variable X 1
Y Linear (Y)
Pronóstico para Y

Gráfico de dispersión nro. 2

Variable X 2 Curva de regresión


ajustada
10
8
6
4 f(x) = 0.127406259335447 x + 3.05530503270743
Y

2 R² = 0.0434213927366573
0
0 5 10 15 20 25

Y Variable X 2 Linear (Y)


Pronóstico para Y

Gráfico de partes de la probabilidad relacionada a las 2 muestras.

Gráfico de probabilidad normal


8
6
4
Y

2
0
0 20 40 60 80 100 120
Muestra percentil

También podría gustarte