Está en la página 1de 8

“AÑO DEL DIALOGO Y RECONCILIACION NACIONAL”

FACULTAD DE INGENIERIA
TEMA: CONSUMO DE AGUA

ESCUELA PROFESIONAL DE INGENIERIA CIVIL

CATEDRA: ESTADISTICA

CATEDRATICO:

ESTUDIANTE: ROSSY TATIANA RAMON DE LA CRUZ

Aula: 204 sección: A3

Huancayo 2018-I
Correlación

La correlación trata de establecer la relación o dependencia que existe entre las dos
variables que intervienen en una distribución bidimensional.

Es decir, determinar si los cambios en una de las variables influyen en los cambios de
la otra. En caso de que suceda, diremos que las variables están correlacionadas o que
hay correlación entre ellas.

Tipos de correlación

1º Correlación directa

La correlación directa se da cuando al aumentar una de las variables la otra aumenta.

La recta correspondiente a la nube de puntos de la distribución es una recta creciente.

2º Correlación inversa

La correlación inversa se da cuando al aumentar una de las variables la otra disminuye.

La recta correspondiente a la nube de puntos de la distribución es una recta


decreciente.
3º Correlación nula

La correlación nula se da cuando no hay dependencia de ningún tipo entre las


variables.

En este caso se dice que las variables son incorreladas y la nube de puntos tiene una
forma redondeada.

Grado de correlación

El grado de correlación indica la proximidad que hay entre los puntos de la nube de
puntos. Se pueden dar tres tipos:

1. Correlación fuerte

La correlación será fuerte cuanto más cerca estén los puntos de la recta.
2. Correlación débil

La correlación será débil cuanto más separados estén los puntos de la recta.

3. Correlación nula

Coeficiente de correlación lineal

El coeficiente de correlación lineal es el cociente entre la covarianza y el producto


de las desviaciones típicas de ambas variables.

El coeficiente de correlación lineal se expresa mediante la letra r.


Propiedades

1. El coeficiente de correlación no varía al hacerlo la escala de medición.

Es decir, si expresamos la altura en metros o en centímetros el coeficiente de


correlación no varía.

2. El signo del coeficiente de correlación es el mismo que el de la covarianza.

Si la covarianza es positiva, la correlación es directa.

Si la covarianza es negativa, la correlación es inversa.

Si la covarianza es nula, no existe correlación.

3. El coeficiente de correlación lineal es un número real comprendido entre −1 y 1.

−1 ≤ r ≤ 1

4. Si el coeficiente de correlación lineal toma valores cercanos a −1 la correlación


es fuerte e inversa, y será tanto más fuerte cuanto más se aproxime r a −1.

5. Si el coeficiente de correlación lineal toma valores cercanos a 1 la correlación


es fuerte y directa, y será tanto más fuerte cuanto más se aproxime r a 1.

6. Si el coeficiente de correlación lineal toma valores cercanos a 0, la correlación


es débil.

7. Si r = 1 ó −1, los puntos de la nube están sobre la recta creciente o decreciente.


Entre ambas variables hay dependencia funcional.

REGRESION
En estadística, el análisis de la regresión es un proceso estadístico para estimar las
relaciones entre variables. Incluye muchas técnicas para el modelado y análisis de
diversas variables, cuando la atención se centra en la relación entre una variable
dependiente y una o más variables independientes (o predictoras). Más específicamente,
el análisis de regresión ayuda a entender cómo el valor de la variable dependiente varía al
cambiar el valor de una de las variables independientes, manteniendo el valor de las otras
variables independientes fijas. Más comúnmente, el análisis de regresión estima
la esperanza condicional de la variable dependiente dadas las variables independientes -
es decir, el valor promedio de la variable dependiente cuando se fijan las variables
independientes. Con menor frecuencia, la atención se centra en un cuantil, u otro
parámetro de localización de la distribución condicional de la variable dependiente dadas
las variables independientes. En todos los casos, el objetivo de la estimación es
una función de las variables independientes llamada la función de regresión. En el
análisis de regresión, también es de interés caracterizar la variación de la variable
dependiente en torno a la función de regresión, la cual puede ser descrita por
una distribución de probabilidad.
El análisis de regresión es ampliamente utilizado para la predicción y previsión, donde su
uso tiene superposición sustancial en el campo de aprendizaje automático. El análisis de
regresión se utiliza también para comprender cuales de las variables independientes
están relacionadas con la variable dependiente, y explorar las formas de estas relaciones.
En circunstancias limitadas, el análisis de regresión puede utilizarse para inferir relaciones
causales entre las variables independientes y dependientes. Sin embargo, esto puede
llevar a ilusiones o relaciones falsas, por lo que se recomienda precaución, 1 por ejemplo,
la correlación no implica causalidad.
Muchas técnicas han sido desarrolladas para llevar a cabo el análisis de regresión.
Métodos familiares tales como la regresión lineal y la regresión por cuadrados mínimos
ordinarios son paramétricos, en que la función de regresión se define en términos de un
número finito de parámetros desconocidos que se estiman a partir de los datos.
La regresión no paramétrica se refiere a las técnicas que permiten que la función de
regresión consista en un conjunto específico de funciones, que puede ser
de dimensión infinita.
El desempeño de los métodos de análisis de regresión en la práctica depende de la forma
del proceso de generación de datos, y cómo se relaciona con el método de regresión que
se utiliza. Dado que la forma verdadera del proceso de generación de datos generalmente
no se conoce, el análisis de regresión depende a menudo hasta cierto punto de hacer
suposiciones acerca de este proceso. Estos supuestos son a veces comprobables si una
cantidad suficiente de datos está disponible. Los modelos de regresión para la predicción
son frecuentemente útiles aunque los supuestos sean violados moderamente, aunque no
pueden funcionar de manera óptima. Sin embargo, en muchas aplicaciones, sobre todo
con pequeños efectos o las cuestiones de causalidad sobre la base de datos
observacionales, los métodos de regresión pueden dar resultados engañosos.
HISTORIA
La primera forma de regresión fue el método de mínimos cuadrados, que fue publicado
por Legendre en 1805, y por Gauss en 1809. Legendre y Gauss aplicaron el método para
el problema de determinar, a partir de observaciones astronómicas, las órbitas de los
cuerpos alrededor del Sol (principalmente cometas, pero también más tarde los entonces
recién descubiertos planetas menores). Gauss publicó un desarrollo posterior de la teoría
de los mínimos cuadrados en 1821, incluyendo una versión del teorema de Gauss-
Markov.
El término "regresión" fue acuñado por Francis Galton en el siglo XIX para describir un
fenómeno biológico. El fenómeno fue que las alturas de los descendientes de ancestros
altos tienden a regresar hacia abajo, hacia un promedio normal (un fenómeno conocido
como regresión hacia la media ). Para Galton, la regresión sólo tenía este significado
biológico, pero su trabajo fue extendido más tarde por Udny Yule y Karl Pearson a un
contexto estadístico más general. En la obra de Yule y Pearson, la distribución conjunta
de la variable respuesta y las variables explicativas se supone que es Gaussiana. Esta
suposición fue debilitada por Ronald Fisher en sus obras de 1922 y 1925. Fisher supone
que la distribución condicional de la variable respuesta es Gaussiana, pero la distribución
conjunta no necesario que lo sea. A este respecto, la asunción de Fisher está más cerca
de la formulación de Gauss de 1821.
En los años 1950 y 1960, los economistas utilizaron calculadoras electromecánicas para
calcular las regresiones. Antes de 1970, a veces tomaba hasta 24 horas para recibir el
resultado de una regresión.
Los métodos de regresión siguen siendo un área de investigación activa. En las últimas
décadas, nuevos métodos han sido desarrollados para regresión robusta, regresión que
implica respuestas correlacionadas, tales como series de tiempo y las curvas de
crecimiento, regresión en la que los predictores (variable independiente) o las variables de
respuesta son curvas, imágenes, gráficos y otros objetos de datos complejos, métodos de
regresión que aceptan varios tipos de datos faltantes, regresión no paramétrica, métodos
de regresión bayesianos, regresión en la que las variables predictoras son medidas con
error, regresión con más variables predictoras que observaciones y la inferencia causal
con regresión.
MODELOS DE REGRESION
Regresión lineal

 Regresión lineal simple


Dadas dos variables (Y: variable dependiente; X: independiente) se trata de encontrar una
función simple (lineal) de X que nos permita aproximar Y mediante: Ŷ = a + bX
a (ordenada en el origen, constante)
b (pendiente de la recta)
A la cantidad e=Y-Ŷ se le denomina residuo o error residual.
Así, en el ejemplo de Pearson: Ŷ = 85 cm + 0,5X.Donde Ŷ es la altura predicha del hijo y
X la altura del padre: En media, el hijo gana 0,5 cm por cada cm del padre.

Regresión lineal múltiple


Regresión no lineal
 Regresión segmentada

Recta de regresión

La recta de regresión es la que mejor se ajusta a la nube de puntos.

La recta de regresión pasa por el punto llamado centro de gravedad.

Recta de regresión de Y sobre X

La recta de regresión de Y sobre X se utiliza para estimar los valores de la Y a partir de


los de la X.

La pendiente de la recta es el cociente entre la covarianza y la varianza de la variable


X.

Recta de regresión de X sobre Y

La recta de regresión de X sobre Y se utiliza para estimar los valores de la X a partir de


los de la Y.

La pendiente de la recta es el cociente entre la covarianza y la varianza de la variable Y.

Si la correlación es nula, r = 0, las rectas de regresión son perpendiculares entre sí, y sus
ecuaciones son:

y=

x=

También podría gustarte