Está en la página 1de 7

NOMBRE DE LA MATERIA:

ESTADISTICA ADMINISTRATIVA II

NOMBRE DE LA ALUMNA:

AIDA GUERRA LUIS

TITULO DE LA ACTIVIDAD:

CONCEPTOS DE LA UNIDAD 1
DOCENTE:

ROBERTO VALDIVIESO LUIS

ESPECIALIDAD:

CONTADOR PÚBLICO

GRUPO:

3B
1.1 MODELO DE REGRESIÓN LINEAL SIMPLE

En algunos casos la naturaleza de las variables permite suponer que existe relación de
dependencia entre ellas, es decir, que los valores de una variable Y (variable dependiente
o endógena) dependen o están influidos por los valores de otra variable, X (variable
independiente o exógena). En el caso en que pueda suponerse una relación lineal de
dependencia, ésta podrá sintetizarse mediante un modelo de regresión.

A partir del diagrama de dispersión y de los resultados obtenidos en el análisis de


correlación puede decidirse si está relación es de tipo lineal. En este caso, los puntos del
diagrama de dispersión aparecen tanto más próximos a una línea recta ajustada a la nube
de puntos cuanto más intenso es el grado de asociación. Por otra parte, según sea el
sentido de la asociación dicha línea tendrá pendiente positiva si el coeficiente de correlación
simple, r, es positivo y negativa en caso contrario.

El punto de partida del modelo de regresión lineal simple (MRLS) es que la relación entre
ambas variables no es de tipo determinista, sino estocástico; de forma que para cada valor
de X existe una distribución de probabilidad de Y, siendo la relación tal que los valores
esperados de las distribuciones de probabilidad de Y asociadas a cada uno de los valores
de X están situados sobre una línea recta, llamada recta de regresión poblacional, que se
expresa como:

1.2 SUPUESTOS

Como se sabe, existen dos supuestos del modelo para aplicar los contrastes de medias y
el ANOVA: homocedasticidad y normalidad. El supuesto de homocedasticidad o de
igualdad de varianzas, se contempla en estas pruebas paramétricas, así que no tenemos
que ir a ninguna otra parte para comprobarlas. Por el contrario, la condición de normalidad
exige una prueba aparte. Hay que decir, no obstante, que no hay que preocuparse mucho
por ello porque para muestras grandes (más de 30 sujetos por grupo) la ausencia de
normalidad no afecta a la distribución muestral del estadístico, que es lo importante. Y para
muestras pequeñas, el incumplimiento no afecta tanto. Como se sabe (ver la robustez), el
riesgo 𝛼 realmente cometido no suele ir mucho más allá del 0.06 o 0.07, que no está muy
lejos del 0.05 convencional.

1.3 DETERMINACIÓN DE LA ECUACIÓN DE REGRESIÓN

La ecuación de regresión lineal simple indica que el valor medio o valor esperado de y es
una función lineal de x: E(y/x) = β0 + β1 x. Si β1=0 entonces E(y/x) = β0 y en este caso el
valor medio no depende del valor de x, y concluimos que x y y no tienen relación lineal. En
forma alternativa, si el valor β1 0 llegamos a la conclusión que las dos variables se
relacionan ( más específicamente, que hay una componente lineal en el modelo). Existen
dos pruebas, por lo menos, que se pueden utilizar para tal fin. En ambas se requiere una
estimación de 2, la varianza de en el modelo de regresión. (1) El coeficiente de
correlación se define como XY x Y S r S S ; SXY es la covarianza muestral y el
denominador es el producto de las desviaciones típicas.

1.4 MEDIDAS DE VARIABILIDAD

Son intervalos que indican la dispersión de los datos en la escala de medición. Una medida
de dispersión o variabilidad nos determina el grado de acercamiento o distanciamiento de
los valores de una distribución frente a su promedio de localización, indicando por medio
de un número si las diferentes puntuaciones de una variable están muy alejadas de la
media. Cuanto mayor sea ese valor, mayor será la variabilidad, y cuanto menor sea, más
homogénea será a la media. Cuando es cero quiere decir que todos los datos son iguales.

Medidas absolutas: se caracterizan por ser números concretos, es decir, valores


expresados en las mismas unidades de la variable en estudio y que por lo tanto no permiten
comparaciones o análisis respecto a la mayor o menor dispersión de series expresadas en
diferentes unidades. Estas medidas son: la varianza, la desviación estándar y el rango
intercuartilico.

Medidas de variabilidad absolutas:


 Rango intercuartílico.
 Desviación estándar.
 varianza.

1.5 CÁLCULO DE LOS COEFICIENTES DE CORRELACIÓN Y DETERMINACION

Una correlación, es simplemente la relación o dependencia que existe entre las dos
variables que intervienen en una distribución bidimensional.

Es decir, la correlación nos indica si los cambios en una de las variables (la independiente)
influyen en los cambios de la otra (dependiente). En caso de que suceda, diremos que las
variables están correlacionadas o que hay correlación entre ellas.

1.- Se identifican los valores de x y y

2.- Se agregan tres columnas a la tabla, en una se obtiene el cuadrado de cada valor de x,
en la siguiente se calcula el cuadrado de cada valor de y, y en la tercera se multiplican cada
uno de los valores de x y y

3.- Se obtiene la suma de cada una de las columnas de la tabla, para obtener los siguientes
valores. ∑x, ∑y, ∑x2, ∑y2, ∑xy,
4.- Se obtiene el valor del coeficiente de correlación con la siguiente ecuación. x x n y y n
xy x y n ( ( ) / )( ( ) / ( )/ 2 2 2 2 Donde n es el número de datos
y las sumatorias se refieren a todos los números

5.- Se establecen conclusiones

1.6 ANALISIS RESIDUAL

Si bien para la estimación por mínimos cuadrados de los coeficientes de un modelo de


regresión, sólo es necesaria la asunción de linealidad, la normalidad de los mismos, en
base a la cual se realizan los contrastes de hipótesis, está basada también en las
asunciones de normalidad y homoscedasticidad. Por consiguiente, conviene asegurar que
dichas asunciones se cumplen en cada caso.

Hay que tener en cuenta que, en caso de que no se cumpla la normalidad, no se puede
utilizar la t ni la F para los contrastes de hipótesis. Puede usarse, sin embargo, la
desigualdad de Tchebysheff, que establece que para cualquier variable aleatoria

siendo k cualquier número real positivo. Otro modo alternativo de escribirlo es

Por lo tanto, un modo de contrastar, sin la asunción de normalidad, la hipótesis nula H0 :

i=a

es calcular el cociente

y la probabilidad de error tipo I al rechazarla es 1/k2

1.7 INFERENCIAS ACERCA DE LA PENDIENTE

El estimador βˆ 1 sigue una distribución normal porque es una combinación lineal de


normales,

βˆ 1 = Xn i=1 (xi − x¯) (n − 1)s 2 X yi = Xn i=1 wi yi


donde yi = β0 + β1xi + ui , que cumple que yi ∼ N β0 + β1xi , σ2 . Además, βˆ 1 es un
estimador encestado de β1,

E h βˆ 1 i = Xn i=1 (xi − x¯) (n − 1)s 2 X E [yi ] = β1 y su varianza es,


Var h βˆ 1 i = Xn i=1 □ (xi − x¯) (n − 1)s 2 X □2 Var [yi ] = σ 2 (n − 1)s 2 X Por tanto,
βˆ 1 ∼ N □ β1, σ 2 (n − 1)s 2 X

APLICACIONES

Para aplicar los modelos de regresión al ajuste de los datos de las mediciones de campo
en la carga minera, se utilizó el software de distribución libre. Utilizando el paquete Rcmdr
se obtuvieron las gráficas de dispersión de las variables de respuesta y regresoras y los
resultados analíticos de los modelos. La figura 3, muestra el comportamiento gráfico de los
modelos de regresión lineal simple, polinomial de orden 2 y polinomial de orden 3.

En el análisis del modelo de regresión lineal múltiple no se observó presencia de


multicolinealidad entre las variables regresoras, ya que ningún término fuera de la diagonal
de la matriz de correlación supera la magnitud 0,7 [11], por lo tanto, es recomendable
considerar en el modelo de regresión múltiple las tres variables regresoras. La tabla 3,
muestra los coeficientes de la matriz de correlación para las variables regresoras del modelo
de regresión lineal múltiple.

RESUMEN:
La regresión lineal es un método estadístico que sirve para poder obtener proyecciones
sobre futuros resultados al aplicar una condición dada, o un experimento. Tiene amplios
usos en las Ciencias Sociales y en las Ciencias Duras, donde no siempre es posible
replicar los experimentos que se llevan a cabo.
La fórmula para obtenerla se relaciona con conceptos de Geometría Analítica, ya que se
trata de buscar la pendiente de una recta, lo que simplifica las operaciones, generalmente
se utiliza la fórmula y=a+bx, donde y es nuestra variable dependiente, a es un parámetro
que se supone fijo, b es la pendiente de la curva (el grado de inclinación), mientras que x
es la variable independiente.
Su utilidad y mayor fortaleza es que permite producir resultados futuros a través de las
observaciones presentes, por ejemplo, si llevas a cabo un programa para mejorar la
habilidad de comprensión de un grupo de infantes, lo mides a través de los conceptos que
mencionan sobre historias que les das a leer en un mes, una recta de regresión lineal te
va a decir que si continúas con los niños el programa por una determinada cantidad de
tiempo, digamos 2 años, vas a obtener un número de ideas que te mencionan, la recta te
dice ese número de ideas con un pequeño margen de error.
REFERENCIAS BIBLIOGRAFICAS

http://www.ub.edu/aplica_infor/spss/cap7-1.htm

https://personal.us.es/vararey/supuestos-normalidad.pdf

http://www.uca.edu.sv/matematica/upload_w/file/REGRESION%20SIMPLE%20Y%20MUL
TIPLE.pdf

https://medidasdevariabilidad.weebly.com/medidas-de-variabilidad.html

http://www.uaaan.mx/~jmelbos/cursosma/maes8.pdf

http://www.hrc.es/bioest/Reglin_16.html

http://asesorias.cuautitlan2.unam.mx/Laboratoriovirtualdeestadistica/CARPETA%203%20I
NFERENCIA_ESTADISTICA/DOC_%20INFERENCIA/TEMA%204/09%20REGRESION%
20Y%20CORRELACION%20LINEAL%20SIMPLE.pdf

También podría gustarte