Está en la página 1de 6

Integrante:

Dender Macias Diana Carolina

Asignatura
Estadística Aplicada

Docente
Ana María Palma

Año Lectivo
2022-2

Tema
Consulta de regresión lineal
ANÁLISIS DE REGRESIÓN
El análisis de regresión es un método estadístico que se utiliza para examinar la relación entre
dos o más variables cuantitativas. A través de esta técnica, una variable de interés, conocida
como variable dependiente, se modela como una función de otras variables, conocidas como
variables independientes.

El análisis de regresión puede ser lineal o no lineal, simple (con una sola variable
independiente) o múltiple (con varias variables independientes). El objetivo de este análisis es
describir y cuantificar la relación entre las variables, proporcionando una forma de predecir los
valores futuros de la variable dependiente basándose en los valores de las variables
independientes.

ECUACIÓN DE REGRESIÓN
La ecuación de regresión es una ecuación matemática que se utiliza en análisis de regresión
para describir la relación entre las variables.

En una regresión lineal simple, donde sólo hay una variable independiente y una variable
dependiente, la ecuación de regresión toma la forma de:

Y = a + bX + ε

Principio de mínimos cuadrados


El principio de mínimos cuadrados es una técnica matemática que se utiliza para encontrar la
mejor línea de ajuste en el análisis de regresión lineal. La línea de mejor ajuste es aquella que
minimiza la suma de los cuadrados de las diferencias (residuales o errores) entre los valores
observados y los valores predichos por el modelo.

De manera más técnica, si "y" son los valores observados, "ŷ" son los valores predichos por el
modelo, y "n" es

Forma general de la ecuación de regresión lineal


La forma general de la ecuación de regresión lineal es:

Y = β0 + β1X + ε

Donde:

- Y es la variable dependiente que se desea predecir o explicar.

- X es la variable independiente que se utiliza para hacer la predicción.

- β0 es el término de intercepción o constante. Este es el valor esperado de Y cuando todas las


variables independientes X son iguales a

PENDIENTE DE LA LÍNEA DE REGRESIÓN


La pendiente de la línea de regresión, también conocida como coeficiente de regresión, es un
componente clave en la ecuación de la regresión lineal. Representa la cantidad de cambio que
se puede esperar en la variable dependiente (Y) por cada cambio unitario en la variable
independiente (X).

En la ecuación de regresión lineal simple Y = β0 + β1X + ε, la pendiente es β1.

Si β1 es positivo, indica que hay una relación directa entre X e Y: a medida que X aumenta, Y
también aumenta. Si β1 es negativo, indica que hay una relación inversa entre X e Y: a medida
que X aumenta, Y disminuye.

PUNTO DONDE SE INTERCEPTA CON EL EJE Y.


El punto donde la línea de regresión intercepta el eje Y se llama intercepto o constante de la
regresión. En la ecuación de la regresión lineal simple Y = β0 + β1X + ε, el intercepto es β0.

Este valor representa la estimación de la variable dependiente Y cuando todas las variables
independientes X son iguales a cero. En otras palabras, es el valor de Y cuando X es cero.

El intercepto proporciona información útil sobre la relación entre las variables, pero su
interpretación puede no tener sentido en algunos contextos, especialmente si no es plausible
que X sea igual a cero en el contexto de la investigación.

Trazo de la línea de regresión


El trazo de la línea de regresión, también conocido como ajuste de la línea de regresión, implica
determinar la línea que mejor se ajusta a los datos en un diagrama de dispersión. La línea de
regresión es útil para identificar tendencias en los datos

El error estándar de estimación


El error estándar de estimación (SEE, por sus siglas en inglés) es una medida de la variabilidad
de las observaciones alrededor de la línea de regresión en un modelo de regresión. Es la
desviación estándar de los residuos, que son las diferencias entre los valores observados

Error estándar de estimación


El error estándar de la estimación es una medida de precisión que se utiliza frecuentemente en
estadística. En el contexto de la regresión, representa la variación típica en la variable
dependiente que no es explicada por las variables independientes.

El error estándar de la estimación es una medida de la dispersión de los puntos de datos


alrededor de la línea de regresión en un análisis de regresión. En otras palabras, es una medida
de cuán lejos están los puntos de datos reales de la línea de regresión.

FORMULA, ERROR ESTÁNDAR DE ESTIMACIÓN


El error estándar de estimación se puede calcular utilizando la siguiente fórmula:

SEE = sqrt [ Σ (Yi - Ŷi)^2 / (n - 2) ]

Donde:

- SEE es el error estándar de la estimación.


- Yi es el valor observado de la variable dependiente.

- Ŷi es el valor predicho de la variable dependiente.

- n es el número total de observaciones.

Esta fórmula es útil para calcular el error estándar de la estimación en una regresión lineal
simple. En regresiones más complejas, el cálculo puede ser más complicado.

Por favor, ten en cuenta que esta fórmula se aplica cuando los términos de error tienen
varianza constante (homocedasticidad) y están normalmente distribuidos, supuestos típicos en
una regresión lineal ordinaria.

FORMULA PARA EL ERROR ESTÁNDAR DE ESTIMACIÓN,


El error estándar de la estimación (SEE) puede calcularse mediante la siguiente fórmula
matemática:

SEE = sqrt [ Σ (Yi - Ŷi)^2 / (n - k - 1) ]

Donde:

- SEE es el error estándar de la estimación.

- Yi es el valor observado de la variable dependiente.

Consideraciones básicas para la regresión lineal


Al realizar un análisis de regresión lineal, hay varias consideraciones clave que deben tenerse
en cuenta:

1. **Linealidad**: La relación entre las variables independientes y la dependiente debe ser


lineal. Esto puede verificarse mediante gráficos de dispersión.

2. **Independencia**: Los errores

Intervalos de confianza y de predicción


Los intervalos de confianza y de predicción son dos conceptos importantes en la estadística y el
análisis de regresión.

**Intervalos de Confianza**: Un intervalo de confianza (IC) es un rango de valores dentro del


cual se espera que se encuentre un parámetro poblacional desconocido con un cierto nivel de
confianza. En la regresión line

FORMULA DE INTERVALO DE CONFIANZA PARA LA MEDIA DE Y, DADA X


El intervalo de confianza para la media de Y dado X en la regresión lineal se calcula de la
siguiente manera:

Ŷ ± t*(S / sqrt(n))

Donde:

- Ŷ es la media estimada de Y.
- t es el valor crítico de la distribución t con n-2 grados de libertad y un nivel de confianza
especificado (por ejemplo, t=2 para un nivel de confianza del 95% con muchas observaciones).

- S es el error estándar de la estimación.

- n es el número total de observaciones.

Este intervalo de confianza proporciona un rango de valores dentro del cual podemos estar
razonablemente seguros de que se encuentra la verdadera media de Y para un valor específico
de X.

INTERVALO DE PREDICCIÓN PARA Y, DADO UN VALOR DE X.


El intervalo de predicción para un valor específico de Y dado un valor de X se calcula de manera
un poco diferente a la del intervalo de confianza. Mientras que el intervalo de confianza estima
dónde está el verdadero valor medio

Algo más acerca del coeficiente de determinación


El coeficiente de determinación, también conocido como R-cuadrado (R²), es una métrica
estadística que se utiliza en el contexto del análisis de regresión. Es un número entre 0 y 1 que
indica la proporción de la varianza en la variable dependiente que es predecible a partir de la
variable independiente.

En otras palabras, el R² es una medida de cuán bien las predicciones del modelo de regresión
se ajustan a las diferencias reales.

FORMULA DE COEFICIENTE DE DETERMINACIÓN.


El coeficiente de determinación, comúnmente representado como R², es una medida
estadística que indica la proporción de la varianza en la variable dependiente que es predecible
a partir de la(s) variable(s) independiente(s) en una regresión.

El coeficiente de determinación se calcula como el cuadrado del coeficiente de correlación de


Pearson (r), y se calcula de la siguiente manera:

R² = [ Σ (xᵢ - x̄)(yᵢ - ȳ) / (n-1) * Sx * Sy ]²

Donde:

- xᵢ y yᵢ son los valores individuales

Relaciones entre el coeficiente de correlación, el coeficiente de


determinación y el error estándar de estimación.
El coeficiente de correlación, el coeficiente de determinación y el error estándar de estimación
son tres métricas importantes utilizadas en estadísticas para medir la relación entre variables y
el error en un modelo de regresión.

1. Coeficiente de correlación (r): Este coeficiente, también conocido como el coeficiente


de correlación de Pearson, mide el grado y la dirección de la relación lineal entre dos.
FORMULA DE COEFICIENTE DE DETERMINACIÓN.
El coeficiente de determinación, representado como R², se calcula tomando el cuadrado del
coeficiente de correlación de Pearson (r). En el contexto de la regresión lineal simple, el
coeficiente de determinación se calcula de la siguiente manera:

También podría gustarte