Está en la página 1de 30

UNIVERSIDAD DE EL SALVADOR

DEPARTAMENTO DE MATEMÁTICAS
FACULTAD MULTIDISCIPLINARIA DE OCCIDENTE
LICENCIATURA EN ESTADÍSTICA

Práctica 14

Materia:
Modelos lineales

Estudiante:
Gutiérrez Mata Carlos Fernando Carnet: GM17008
1- Se crean vectores para las variables

Se agregan vectores con valores para las variables peso y long

2- Correlación
Se crea un data frame con los datos de las variables

Se tiene un coeficiente de correlación de 0.78

Se analiza la correlación en tipo matriz.

Se analiza la significancia de la correlación entre las variables utilizando un contraste t Student.

Se prueba que las variables son correlacionadas ya que no se acepta la hipótesis nula que el
coeficiente de correlación sea igual a cero dado el p-value menor que 0.5.
3- Prueba de supuestos para el modelo

Se prueba la normalidad de las variables con el test shapiro de normalidad

Al observar el p-value que es de 0.9207 siendo claramente mayor a 0.05 no se rechaza la


normalidad para la variable peso.

Para la variable long no se rechaza la normalidad ya que el p-value es mayor que 0.05.

Ya que ambas son variables normales entonces Pearson es el método adecuado para la
correlación.
4- Coeficiente de determinación

El coeficiente de determinación entre las variables es de 0.607572

5- Coeficiente de correlación por rangos de Spearman

Una de las variables es asimétrica

Ya que una de las variables no es normal el método de correlación adecuado es Spearman

Se obtiene el valor para el coeficiente de correlacion que esde 0.1666667


6- Obtener el método adecuado para la base de datos women

Se utiliza la base de datos women

Se prueba la normalidad de las variables

Para la variable height no se rechaza la normalidad dado que el p-value es mayor que 0.05.

Para la variable weight no se rechaza la normalidad dado que el p-value es mayor que 0.05.

Ya que ambas variables son normales el método de Pearson es el indicado para analizar la
correlación.
7- Uso del paquete corrplot

Se utiliza la base de datos mtcars.


Vista grafica de la matriz de correlación utilizando las distintas formas:
8- Ejemplo de regresión lineal simple

Se tiene el modelo :

𝑝𝑒𝑠𝑜 = −67.4679 + 0.8007 ∗ 𝑎𝑙𝑡𝑢𝑟𝑎

Con un R cuadrado de 0.4927 por lo cual explica el 49.27 % de la variabilidad de peso.

Se observa un p-value de 0.03504.

El anova es significativo.
9- Verificación de supuestos para el modelo de regresión lineal

Se utilizan los gráficos para tener una idea de cómo se comportan los residuos si son normales y
si hay homocedasticidad.
10- Forma gráfica de la regresión
11- Resumen del modelo

Se obtiene la ecuación:

𝑝𝑒𝑠𝑜 = −67.4679 + 0.8007 ∗ 𝑎𝑙𝑡𝑢𝑟𝑎


12- Otra forma gráfica

Se generan círculos en la gráfica y adjunta la línea de regresión con el 95% de confianza.

13- Prueba sobre los residuos

Normalidad de residuos

Los residuos del modelo se distribuyen de manera normal ya que el p-value nos sugiere no
rechazar la hipótesis nula.

Homocedasticidad de los residuos

No se rechaza la existencia de homocedasticidad en los residuos ya que el p-value resulta de


mayor que 0.05.
14- Regresión múltiple

Se usa la base de datos prestige

Se genera el modelo de regresión multiple


Verificación de los supuestos para el modelo

Los residuos se distribuyen normalmente siendo comprobado con el resultado obtenido con el
shapiro test en el cual el p-value es mayor que 0.05.
Se genera un nuevo modelo ahora con variable income
No se rechaza la existencia de normalidad en los residuos ya que el p-value en la prueba shapiro
es mayor que 0.05
Cual modelo es mejor

Se buscan variables influyentes en el modelo


Test de homocedasticidad

No se rechaza la existencia de homocedasticidad en los residuos del modelo ya qque al observar


el p-value es mayor que 0.05

Test de multicolinealidad

No se sugiere multicolinealidad

También podría gustarte