Está en la página 1de 6

UNIVERSIDAD POLITÉCNICA DE SINALOA

MAESTRÍA EN LA ENSEÑANZA DE LAS CIENCIAS

MATERIA: ESTADÍSTICA APLICADA A LA INVESTIGACIÓN EDUCATIVA

TAREA: ENSAYO SOBRE ENSEÑANZA DE CORRELACIÓN Y REGRESIÓN


ESTADÍSTICA

MAESTRO: DR. JESÚS MORALES ACOSTA

MAESTRANTE: EBELIO SALOMÓN CASTRO

MATRÍCULA: 2017031101

MAZATLÁN, SINALOA A 25 DE JULIO DE 2018


INTRODUCIÓN

El presente ensayo se basa en la interpretación libre del capítulo 12 de la séptima


edición del libro “Probabilidad y Estadística para Ingeniería y Ciencias” del autor Jay L.
Devore, en el cual se da una explicación a fondo de los temas de Análisis de correlación y
regresión lineal, así como en la lectura del capítulo 11 del libro “Probabilidad y Estadística
para Ingenieros”, sexta edición de los autores Walpole, Myers y Myers, y en el uso que le
habremos de dar en nuestra investigación a lo que en ellos nos muestra.
En la investigación, son muy importantes la selección de la muestra y la toma de
datos, porque la muestra debe de ser representativa del universo que estamos analizando y
sobre el que pretendemos determinar alguna característica o demostrar alguna hipótesis,
mientras que la importancia de la toma de datos radica en que de ahí se desprenderán los
resultados de la investigación, por lo que esta toma debe de realizarse de manera clara y
meticulosa para tener una investigación veraz, apegada a la realidad. Por otra parte, una
herramienta muy importante en nuestra investigación será con la que realicemos el análisis
de datos porque con ellos habremos de trabajar para demostrar o refutar nuestras hipótesis
siguiendo el método científico para obtener resultados de manera concluyente.

DESARROLLO
Regresión lineal
En las investigaciones de campo, generalmente encontraremos propiedades y
características a las que denominamos variables que nos darán información sobre el
problema que estamos trabajando. Dentro de la investigación, es importante poder
reconocer patrones de comportamiento y de relación entre estas variables para, en
determinado momento poder predecir el valor o resultado de una de las variables
conociendo el valor de las otras variables.
Cuando se tiene una relación entre dos variables, una de las cuales, llamada x, se
puede manipular o controlar (independiente o explicativa) y otra, llamada y (variable
dependiente o de respuesta); que tomará valores de acuerdo a una relación o función de los
valores tomados por la primera.
Al hacer una tabulación con los datos experimentales, y estos datos graficarlos, se
obtiene un diagrama llamado “Diagrama de dispersión” en el cual se observan puntos,
dispersos en el plano, pero no al azar, sino bajo un cierto patrón de continuidad. Estos
puntos graficados nos indican, precisamente, el comportamiento de la muestra y del
universo estudiado.
Para el investigador es importante predecir el comportamiento de una variable
(dependiente) si se conocen los valores o comportamientos de las variables que la
determinan, es por eso que habrá ocasiones en que se requiera encontrar una relación
matemática que describa el comportamiento y relación entre las variables independientes y
dependientes. A esta relación entre variables se le conoce como regresión, la cual puede ser
una relación con crecimiento (o decrecimiento) lineal (que sigue el comportamiento de una
recta) o de otro tipo de relación, tales como cuadrática, logarítmica, exponencial, etc.
Además, si hablamos de relación lineal, podemos tener dos tipos de relaciones lineales: La
primera cuando se trata de la relación entre una sóla variable independiente con la variable
dependiente y se le llama regresión lineal simple, mientras que si se trata de una relación
entre dos o más variables independientes con una variable dependiente se le conoce como
regresión lineal múltiple.
Cuando hablamos de que la regresión lineal sigue el comportamiento de una recta,
nos referimos a que podemos modelarla como una línea recta y para eso, si recurrimos a la
geometría analítica, recordaremos que es posible modelarla con la llamada ecuación de la
recta:
Y = mX + b (1)
En donde:
Y es la variable dependiente
m es la pendiente de la recta (o grado de inclinación)
X es la variable independiente
b es la ordenada al origen (punto en el cual la recta se cruza con el eje Y, cuando X=0)

Si nuestros datos siguen un comportamiento lineal simple y queremos modelarlos


por medio de la ecuación de la recta, para poder hacer inferencias y extrapolaciones sobre
nuestra investigación, es necesario que encontremos los valores de la pendiente “m” y de la
ordenada al origen “b” que nos ayudarán a caracterizar a la ecuación de la recta que nos
describirá el fenómeno estudiado y la cual podremos utilizar para encontrar los valores de
la variable dependiente, suponiendo valores a la variable dependiente.
Para encontrar los valores, tanto de la pendiente como de la ordenada al origen que
nos modelarán la “mejor recta” que describe el valor de nuestros datos hay algunos
métodos experimentales que ayudan a hacerlo; uno de los más conocidos es el llamado
“método de los mínimos cuadrados”, el cuál a grandes rasgos, lo que hace es encontrar los
valores tanto de la pendiente como de la ordenada al origen, que nos describen a la recta,
cuyas diferencias con los puntos reales encontrados en la investigación son mínimas.
Si se aplica el “Método de Mínimos Cuadrados”, la ecuación que describe el
comportamiento del problema estudiado será la que a continuación se muestra:
Y = mX + b + ɛ (2)
En donde el parámetro extra “ɛ” corresponde a la diferencia entre el punto por donde pasa
nuestra recta construida y el punto real encontrado en nuestro estudio.

En los estudios de regresión se utiliza un parámetro llamado σ o σ2, el cual nos


indican que tan alejados están los puntos reales de nuestra recta construida. Esto es, que
entre más grande sea el valor de nuestro σ o σ2, más alejados o dispersos de nuestra recta
estarán los puntos reales encontrados en nuestra investigación, y por otra parte, mientras
más pequeño sea el valor de σ o σ2 más cercanos estarán los puntos reales a la recta
encontrada.
Dentro del método de mínimos cuadrados existe un parámetro conocido como
coeficiente de determinación, el cual se denota como r2 y se puede interpretar como la
proporción de variación y (variable dependiente) observada, que puede ser explicada por el
modelo de regresión lineal simple. En otras palabras, nos indica que tan exitoso es el
modelo de regresión lineal simple para explicar la variación de y. Matemáticamente e
coeficiente d determinación se calcula con la relación:

r2 = 1 – SCE/SCT
En donde:
SCE es la suma de los cuadrados del error
SCT es la suma total de los cuadrados
Finalmente, con respecto al coeficiente de determinación, podemos decir que
mientras más cerca esté del valor 1, más exitoso será el modelo de regresión lineal para
explicar la variación de “y”.

COEFICIENTE DE CORRELACIÓN MUESTRAL “r”.


Habrá ocasiones dentro de nuestra investigación, que en lugar de preocuparnos por
si determinar el valor que tomarán las variables dependientes, en función de las variables
independientes, habrá que preguntarnos si están relacionadas las variables entre sí. Para eso
se utiliza la letra “r” a la que se le llama coeficiente de correlación muestral, el cual nos
indica en qué medida están relacionadas dos variables x, y en una muestra.
La definición matemática del coeficiente de relación muestral para los pares n (x1,
y1)…… (xn, yn) es la siguiente:

Sxy Sxy
r= 2 2 =
√ ∑ ( x −x ) √∑ ( y − y )
i i √ Sxx √ Syy

Este coeficiente de correlación muestral está relacionado con el coeficiente de


correlación ρ.
El coeficiente de correlación muestral tiene algunas propiedades que nos dan
información sobre la muestra y se pueden resumir como siguen:
1.- El valor de “r” no depende de cual de las dos variables estudiadas es “x” y cual “y”.
2.- El valor de “r” es independiente de las unidades en las que “x” y “y” estén medidas.
3.- -1 ≤ r ≤1.
4.- r = 1 si y sólo si todos los pares (xi, yi) quedan en una línea recta con pendiente positiva
y r = -1 si y sólo si los pares (xi, yi) quedan en una línea recta con pendiente negativa.

CONCLUSIONES

Los conceptos de correlación y regresión son muy importantes en los estudios de


investigación, ya que apoyados en ellos es posible determinar el grado de la relación entre
las variables que intervienen en la problemática de estudio. Es así que el investigador debe
de tener un buen manejo de los conceptos para, apoyados en ellos poder hacer inferencias
sobre las valores de las variables y en el caso de la prueba de la hipótesis nula poder tener
elementos de prueba que nos ayuden a validarla o rechazarla.
BIBLIOGRAFÍA

Devore, Jay, L., (2008). Probabilidad y Estadística para Ingeniería y Ciencias, séptima
edición. México D.F.
Walpole, R., Myers, R., Myers, S., (1999), Probabilidad y Estadística para ingenieros,
sexta edición, México. D. F.

También podría gustarte