Está en la página 1de 10

UNIVERSIDAD NACIONAL EXPERIMENTAL

“RAFAEL MARIA BARALT”


PROYECTO: ADMINISTRACION
MENCIÓN: ADUANA
SEDE: BACHAQUERO

CORRELACION
Y
REGRESION.

Realizado por:
MARIANGEL CHIRINOS
JORGE RUZ
WINIMAR GOMEZ
LUIS ESCALONA
ROXANA CASTELLANO

Julio de 2016.
INTRODUCCION

La Correlación indica la fuerza y la dirección de una relación lineal y


proporcionalidad entre dos variables estadísticas. Se considera que dos variables
cuantitativas están correlacionadas cuando los valores de una de ellas varían
sistemáticamente con respecto a los valores homónimos de la otra: si tenemos
dos variables (A y B) existe correlación si al aumentar los valores de A lo hacen
también los de B y viceversa. La correlación entre dos variables no implica, por sí
misma, ninguna relación de causalidad.
DESARROLLO.

1.- RELACION ENTRE DOS VARIABLES.

Los estudios descriptivos y comparativos permiten inferir características de


distintas poblaciones pero no nos aportan información acerca de individuos en
particular, sin embargo muchas veces el interés de los investigadores está
centrado en establecer la relación entre dos o más variables para luego predecir.
Es decir conocer el valor de una variable a la que llamaremos dependientes a
partir de otra (variable independiente).

La correlación estudia cuan estrecha es la asociación entre variables y la


regresión plantea un modelo a través del cual conocido el valor de una variable
explicativa se puede llegar a predecir el valor de la otra (variable respuesta).

Por ejemplo, considera que las variables son el ingreso familiar y el gasto
familiar. Se sabe que los aumentos de ingresos y gastos disminuyen juntos. Por lo
tanto, están relacionados en el sentido de que el cambio en cualquier variable
estará acompañado por un cambio en la otra variable.
De la misma manera, los precios y la demanda de un producto son variables
relacionadas; cuando los precios aumentan la demanda tenderá a disminuir y
viceversa.

Si el cambio en una variable está acompañado de un cambio en la otra,


entonces se dice que las variables están correlacionadas. Por lo tanto, podemos
decir que el ingreso familiar y gastos familiares y el precio y la demanda están
correlacionados.

La correlación puede decir algo acerca de la relación entre las variables. Se


utiliza para entender:
1. si la relación es positiva o negativa
2. la fuerza de la relación.

La correlación es una herramienta poderosa que brinda piezas vitales de


información. En el caso del ingreso familiar y el gasto familiar, es fácil ver que
ambos suben o bajan juntos en la misma dirección. Esto se denomina correlación
positiva. En caso del precio y la demanda, el cambio se produce en la dirección
opuesta, de modo que el aumento de uno está acompañado de un descenso en el
otro. Esto se conoce como correlación negativa.

2.- COEFICIENTE DE CORRELACIÓN

Frecuentemente denominado correlación. Una medida estadística


ampliamente utilizada que mide el grado de relación lineal entre dos variables
aleatorias. El coeficiente de correlación debe situarse en la banda de -1 a +1. El
coeficiente de correlación se calcula dividiendo la covarianza de las dos variables
aleatorias por el producto de las desviaciones típicas individuales de las dos
variables aleatorias. Las correlaciones desempeñan un papel vital en la creación
de carteras y la gestión de riesgos.
En realidad, la eficacia de una cobertura puede valorarse a partir del grado
de correlación entre el precio al contado de una posición en efectivo que se va a
cubrir y el precio del instrumento de cobertura. Cuanto mayor sea la correlación,
más eficaz será la cobertura.
Mide la interdependencia o grado de asociación entre dos variables. Se
define como la relación por cociente entre la covarianza de las dos variables y el
producto de sus desviaciones típicas. Su valor puede oscilar entre 0 y 1 y 0 y -1,
según que la correlación sea positiva o negativa. Un coeficiente de correlación
igual a cero significa ausencia de correlación.
El que representa el grado en el cual dos variables están relacionadas
linealmente entre sí. Correlation coefficient. (En inglés: correlation coefficient )
Medida estadística que analiza el grado de dependencia entre dos
variables, es decir, cómo se verá afectada una variable determinada, conociendo
la variación de una segunda variable. Este coeficiente toma valores entre -1 y 1,
indicando si existe una dependencia directa (coeficiente positivo) o inversa
(coeficiente negativo) siendo el 0 la independencia total. Es la raíz cuadrada del
coeficiente de determinación. Medida de la relación estadística entre dos o más
variables.

3.- COEFICIENTE DE DETERMINACIÓN

En estadística, el coeficiente de determinación, denominado R² y


pronunciado R cuadrado, es un estadístico usado en el contexto de un modelo
estadístico cuyo principal propósito es predecir futuros resultados o probar una
hipótesis. El coeficiente determina la calidad del modelo para replicar los
resultados, y la proporción de variación de los resultados que puede explicarse por
el modelo.

Hay varias definiciones diferentes para R² que son algunas veces


equivalentes. Las más comunes se refieren a la regresión lineal. En este caso, el
R² es simplemente el cuadrado del coeficiente de correlación de Pearson, lo cual
es sólo cierto para la regresión lineal simple. Si existen varios resultados para una
única variable, es decir, para una X existe una Y, Z... el coeficiente de
determinación resulta del cuadrado del coeficiente de determinación múltiple. En
ambos casos el R² adquiere valores entre 0 y 1. Existen casos dentro de la
definición computacional de R² donde este valor puede tomar valores negativos.

4.- DIAGRAMA DE DISPERSIÓN

Un diagrama de dispersión o gráfica de dispersión o gráfico de dispersión


es un tipo de diagrama matemático que utiliza las coordenadas cartesianas para
mostrar los valores de dos variables para un conjunto de datos. Los datos se
muestran como un conjunto de puntos, cada uno con el valor de una variable que
determina la posición en el eje horizontal (x) y el valor de la otra variable
determinado por la posición en el eje vertical (y)
Se emplea cuando una variable está bajo el control del experimentador. Si
existe un parámetro que se incrementa o disminuye de forma sistemática por el
experimentador, se le denomina parámetro de control o variable independiente y
habitualmente se representa a lo largo del eje horizontal (eje de las abscisas). La
variable medida o dependiente usualmente se representa a lo largo del eje vertical
(eje de las ordenadas). Si no existe una variable dependiente, cualquier variable
se puede representar en cada eje y el diagrama de dispersión mostrará el grado
de correlación (no causalidad) entre las dos variables.

Un diagrama de dispersión puede sugerir varios tipos de correlaciones entre


las variables con un intervalo de confianza determinado. La correlación puede ser
positiva (aumento), negativa (descenso), o nula (las variables no están
correlacionadas). Se puede dibujar una línea de ajuste (llamada también "línea de
tendencia") con el fin de estudiar la correlación entre las variables. Una ecuación
para la correlación entre las variables puede ser determinada por procedimientos
de ajuste. Para una correlación lineal, el procedimiento de ajuste es conocido
como regresión lineal y garantiza una solución correcta en un tiempo finito.

Uno de los aspectos más poderosos de un gráfico de dispersión, sin


embargo, es su capacidad para mostrar las relaciones no lineales entre las
variables. Además, si los datos son representados por un modelo de mezcla de
relaciones simples, estas relaciones son visualmente evidentes como patrones
superpuestos.

El diagrama de dispersión es una de las herramientas básicas de control de


calidad, que incluyen además el histograma, el diagrama de Pareto, la hoja de
verificación, los gráficos de control, el diagrama de Ishikawa y el diagrama de flujo.

5.- ECUACION DE REGRESION

La ecuación de la recta de regresión permite pronosticar la puntuación que


alcanzará cada sujeto en una variable Y conociendo su puntuación en otra
variable X. A la variable Y se le denomina criterio y a la variable X predictor.
Sin embargo, raramente la nube de puntos que representa la relación entre
dos variables X e Y adopta la forma de una línea recta perfecta. En el caso en que
exista una relación alta entre las variables, la nube de puntos tiende a parecerse a
una recta. Sólo en el caso de rxy=1 la nube de puntos se ajusta perfectamente a la
línea recta.

Teniendo esto en cuenta, la recta de regresión es la línea recta que mejor


se ajusta a la nube de puntos para dos variables X e Y, es decir, la que permitiría
minimizar el error medio cometido al hacer los pronósticos como si la nube de
puntos tuviera una forma lineal.

Por ejemplo: Consideremos un grupo de 4 personas para las que


conocemos sus puntuaciones en determinadas variables X e Y, según se muestra
en las dos primeras columnas de la siguiente tabla:

X Y Y´ Y´-Y (Y´-Y)2
5 3 2 -1 1

6 2 4 2 4

7 4 6 2 4

8 5 8 3 9

A partir de estos valores, y suponiendo que existe una relación lineal entre
X e Y, podemos tratar de pronosticar el valor que alcanzará en la variable Y un
sujeto, conociendo su puntuación en la variable X.

Supongamos que la relación existente entre ambas variables viene


determinada por la recta Y = 2X-8. Para comprobar si esta recta permite realizar
un buen pronóstico, comprobaremos si los valores que toma Y para los cuatro
sujetos (según la recta) coinciden con los que efectivamente hemos observado.
Denominamos Y´ a las puntuaciones pronosticadas usando la recta Y = 2X-8.
Así observamos que la puntuación pronosticada para el primer sujeto es de
2, mientras que la puntuación real obtenida por dicho sujeto ha sido de 3.Se ha
cometido un error en la predicción, que viene determinado por (Y´-Y) (a menudo
interesa que el error no aparezca negativo, es decir, nos da igual que sea por
exceso o por defecto; una forma de evitar el signo es considerando las diferencias
al cuadrado).

La diferencia entre las puntuaciones pronosticadas y las observadas en los


sujetos se aprecian en la figura 3, que representa el diagrama de dispersión y la
ecuación de la recta utilizada para predecir los valores Y´.

[D]

Figura 3: Diagrama de dispersión y predicción de la recta Y=2X+8

Como hemos podido comprobar, la recta no estima demasiado bien los


valores de Y´. Nuestro interés se centrará en encontrar la recta que permita llevar
a cabo una estimación de los valores de Y´ con el menor error posible. Esa recta
es la que denominaremos recta de regresión de Y sobre X.

El criterio que ha de satisfacer esta recta, es que la suma de los errores

cuadráticos ( [D]) en la predicción de Y a partir de X sea mínima.


La recta de regresión vendrá determinada por una ecuación del tipo: Y´=
A+BX.

El valor de las constantes A y B puede ser hallado a partir del cálculo


diferencial. Presentamos en el siguiente cuadro los valores de A y B en el caso de
que trabajemos con puntuaciones directas, diferenciales y típicas, y pretendamos
calcular las constantes correspondientes a la recta de regresión de Y sobre X.

ECUACIÓN DE LA RECTA
DE REGRESIÓN DE Y
SOBRE X
Puntuaciones Directas Puntuaciones Puntuaciones Típicas
Diferenciales
Y´=A+BX y´=A+Bx

A= -B A=0
A=0

B=

6.- RECTA DE REGRESION O PRONOSTICO COEFICIENTE DE


DETERMINACION MULTIPLE.

La recta de regresión es la que mejor se ajusta a la nube de puntos.

La recta de regresión pasa por el punto llamado centro de gravedad.

Recta de regresión de Y sobre X

La recta de regresión de Y sobre X se utiliza para estimar los valores de la Y a


partir de los de la X.

La pendiente de la recta es el cociente entre la covarianza y la varianza de la


variable X.
Recta de regresión de X sobre Y

La recta de regresión de X sobre Y se utiliza para estimar los valores de la X a


partir de los de la Y.

La pendiente de la recta es el cociente entre la covarianza y la varianza de la


variable Y.

Si la correlación es nula, r = 0, las rectas de regresión son perpendiculares entre


sí, y sus ecuaciones son:

y=

x=

7.- REGRESION LINEAL

8.- ECUACION DE REGRESION MULTIPLE PARA LA PREDICCION

También podría gustarte