Está en la página 1de 5

UNIVERSIDAD MAYOR REAL Y PONTIFICIA DE SAN

FRANCISCO XAVIER DE CHUQUISACA

FACULTAD DE MECANICA, ELECTRICA,


ELECTRONICA

Materia : preparación y evaluación de proyectos

Universitario : Andrade Tolavi José Daniel

Carreras : Ing. Electromecánica

SUCRE - BOLIVIA
ANALISIS REGRESIONAL. –
Es la estimación o predicción de la media (población) o valor promedio de la variable
dependiente, en base a los valores fijos o conocidos de las variables explicativas. Se lo
denota mediante y

- Al unir los puntos que muestra los valores medios condicionales de y obtenemos lo
que se conoce como la recta de regresión poblacional (RRP) o curva de regresión
poblacional (CRP)
- La curva es el lugar geométrico de las medias condicionales de la variable
dependiente para los valores fijos de la (s) variables (s) explicativas (s).
La regresión con dos variables se compone por la variable dependiente o tan bien
conocida regresada que se relaciona con una variable explicativa regresora y= f (x)
Objetivó del análisis de regresión. - averiguar la forma en que varía el valor promedio de
la variable dependiente de acuerdo con el valor dado de la variable explicativa
El concepto fundamental de regresión es función de esperanza condicional (FEC) O
función de regresión poblacional (FRP)
Regresión poblacional lineal o regresiones lineales en los parámetros pueden ser o no ser
lineales en la variable regresada o las regresadoras.
La función de regresión poblacional estocástica desempeña una función crucial para
estimar la función de regresión poblacional.
La función de regresión poblacional es un concepto idealizado, pues en la practica pocas
veces se tiene acceso al total de la población de interés, en consecuencia, se utiliza la
función de regresión muestral estocástica (FRM) para estimar la función de regresión
poblacional
Una vez estimada la regresión poblacional se analiza dos métodos de sistematización
frecuentes mínimos cuadrados ordinarios (MCO) O máxima verosimilitud (MV)

. El método de los mínimos cuadrados ordinarios es el más común


en el análisis de regresión sobre todo por ser mucho más intuitivo y matemáticamente
sencillo.
un análisis básico es el modelo gauss que es un modelo clásico de regresión lineal se
basa en un conjunto de supuestos.
La precisión de los mínimos cuadrados ordinarios se mide por sus errores estándar.
La regresión lineal múltiple. –
trata de ajustar modelos lineales o linealizadles entre una variable dependiente y más de
una variables independientes. En este tipo de modelos es importante testar la
heterocedasticidad, la multicolinealidad y la especificación. En este curso trataremos de
introducirnos en el mundo de la modelización, con creación de dummies, configurando un
individuo de referencia, factores de ponderación, variables de interacción, interrelación,
etc. Es particularmente importante entender lo que se está haciendo en cada momento
porque estos principios sirven para prácticamente todos los modelos que se emprendan a
continuación y después, con modelos más complejos y menos intuitivos, serán más
difíciles de comprender. Keywords: Regresión lineal, St
En el modelo de regresión lineal múltiple esperamos que los sucesos tengan una forma
funcional como
𝑦𝑗 = 𝑏𝑜 + 𝑏1𝑥1𝑗 + 𝑏2𝑥2𝑗 + ⋯ + 𝑏𝑘𝑥𝑘𝑗 + 𝑢j
Dentro del modelo lineal es interesante distinguir entre varios tipos de variable
dependiente, porque puede condicionar el tipo de modelo de regresión:

 Libre: Se tienen datos de una muestra que abarca toda la posible medida de la variable
que esta puede tener en la población.

 Censurada: Faltan datos en la muestra de la variable en alguna zona de la que sí hay


datos en la población (el estado de salud en una encuesta que sólo recoge a mayores de
16 y hasta 85 años). A veces se pueden ajustar modelos para regresión censurada
(Modelos Tobit)

 Truncada: Faltan datos en la muestra, o estos dan un salto a partir de un momento. Por
ejemplo, está prohibido trabajar por menos del salario mínimo de forma que quien no
cobra el salario mínimo dice cobrar cero. Esto hace que la regresión se trunque. A veces
se pueden ajustar modelos para regresión truncada.
El modelo lineal exige que la relación entre dependiente e independientes sea lineal. Sin
embargo, en ocasiones observamos fenómenos que no tienen este carácter pero que
pueden linealizarse (probablemente esa palabra tampoco exista) con relativa facilidad.
Los procedimientos más usuales para linealizar variables son:
En el caso de factores ordinales: Creación de dummies de forma que, aunque la relación
del factor con la dependiente no sea lineal, las de cada dummy con la dependiente sí lo
será por construcción porque sólo hay un escalón entre la referencia y cada dummy
(Aunque probablemente nunca nos haga falta, llamaremos a esta operación la
dummyficación linearizadora)
Correlación simple (bivariada) y regresión simple
Significado del coeficiente de correlación
Recordamos en primer lugar algunas ideas básicas (que suponemos conocidas) sobre
el
concepto e interpretación del coeficiente de correlación (r de Pearson):
r = expresa en qué grado los sujetos tienen el mismo orden en las variables X e Y. Si
la
correlación es perfecta (r = 1) el orden de los sujetos en ambas variables es el mismo
y
el diagrama de dispersión coincidirá con una recta (la recta de regresión)1.
r2 = expresa la proporción de variación conjunta (varianza común).
El coeficiente de relación supone y expresa relaciones lineares en las que a un mayor
valor
en X corresponde un mayor valor de Y, como se ve gráficamente en los diagramas de
dispersión.
Sin embargo, el valor de la correlación por sí solo no nos dice si la relación es linear:
la relación puede ser curvilínea: a más X corresponde más Y, hasta llegar a un punto
de inflexión en el que si aumenta X empieza a bajar Y. Un ejemplo claro sería el de la
relación entre edad y fuerza física en una muestra de sujetos entre 10 y 90 años: en
los primeros tramos de edad a mayor edad tendremos más fuerza física, pero se llega
un punto de inflexión en el que al aumentar la edad va bajando la fuerza física. De
hecho, coeficientes de correlación de idéntica magnitud pueden provenir de
situaciones muy distintas que no se corresponden con una relación linear, por eso es
conveniente verificar al menos con algún método gráfico (como los diagramas de
dispersión) la tendencia linear de la relación. 2 En general en las Ciencias Sociales
asumimos que las relaciones son lineares.
También el valor del coeficiente de relación puede dar una impresión equívoca porque
puede estar determinado por algunos sujetos atípicos; por eso es normal excluir en
estos estudios correlacionales a los sujetos que tienen puntuaciones muy extremas o
hacer los análisis por duplicado, con y sin los sujetos extremos.
La correlación parcial
mide la variación conjunta que se da entre una variable independiente y una variable dependiente,
controlando o los efectos que sobre esa variación pudiera ejercer otra independiente. La
correlación parcial se expresa en términos de coeficiente de correlación de Pearson, y en la
fórmula se separa con un punto la variable controlada de las variables dependiente e
independiente. Su fórmula para tres variables —máximo que permite el software bajo el cual se
desarrolla este manual, BarbWin— es la siguiente:

Donde:
 es el coeficiente de correlación convencional entre A y B.
 es el coeficiente de correlación convencional entre A y C.
 es el coeficiente de correlación convencional entre B y C.
La demostración más rápida de la fórmula consiste en apoyarse en la interpretación
geométrica de la correlación (coseno). Las series de observaciones A, B y C, una
vez centradas reducidas, son vectores centrados OA, el OB, OC de longitud unidad

También podría gustarte