Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Metodo de Regresion Inf PDF
Metodo de Regresion Inf PDF
I. INTRODUCCION PAG 5
II. RESUMEN PAG 6
III. JUSTIFICACION PAG 7
1. CAPITULO I PAG 8
1.1. OBJETIVOS PAG 8
1.2. METODO DE REGRESION PAG 8
IV. CONCLUCIONES PAG 13
V. RECOMENDACIONES PAG 13
VI. BIBLOGRAFIA PAG 14
I. INTRODUCCION
La primera forma de regresión fue el método de mínimos cuadrados, que fue publicado por
Legendre en 1805, y por Gauss en 1809. Legendre y Gauss aplicaron el método para el
problema de determinar, a partir de observaciones astronómicas, la órbitas de los cuerpos
sobre el Sol (la mayoría de los cometas, sino también más tarde el entonces recién
descubiertos planetas menores). Gauss publicó un desarrollo posterior de la teoría de los
mínimos cuadrados en 1821, incluyendo una versión del teorema de Gauss-Markov.
El término "regresión" fue acuñado por Francis Galton en el siglo XIX para describir un
fenómeno biológico. El fenómeno fue que las alturas de los descendientes de ancestros altos
tienden a regresar hacia abajo, hacia un promedio normal (un fenómeno conocido como
regresión hacia la media ). Para Galton, la regresión sólo tenía este significado biológico, pero
su trabajo se extendió más tarde por Udny Yule y Karl Pearson a un contexto estadístico más
general. En la obra de Yule y Pearson, la distribución conjunta de la respuesta y las variables
explicativas se supone que es de Gauss. Esta suposición se vio debilitada por RA Fisher en
sus obras de 1922 y 1925. Fisher supone que la distribución condicional de la variable de
respuesta es de Gauss, pero la distribución conjunta no es necesario. A este respecto, la
asunción de Fisher está más cerca de la formulación de Gauss de 1821.
En los años 1950 y 1960, los economistas utilizan calculadoras electromecánicas para calcular
regresiones. Antes de 1970, a veces tardaba hasta 24 horas para recibir el resultado de una
regresión.
Los métodos de regresión siguen siendo un área de investigación activa. En las últimas
décadas, los nuevos métodos han sido desarrollados para la regresión robusta, la regresión
que implica respuestas correlacionadas, tales como series de tiempo y las curvas de
crecimiento, regresión en la que los predictores o variables de respuesta son curvas, imágenes,
gráficos y otros objetos de datos complejos.
II. RESUMEN
Esta exposición se realiza para tener o enriquecer más lo conocimientos sobre la geodesia
satelital como reconocer los métodos clásicos para determinar alturas sobre el nivel medio del
mar de puntos sobre superficies terrestres.
1. CAPITULO I
1.2. OBJETIVOS
2. CAPITULO II
METODO DE REGRESION
Se Adopta Como Superficie De Interpolacion Aquella Generada Por La Expresion
Polinomica Bivariada En X, Y, De Grado K.
INTERPOLACION DE FUNCIONES BIVARIADAS
La interpolación polinómica de funciones multivariadas se hacen mediante
procedimientos que son extensiones de los métodos vistos. La situación más simple es
el caso de funciones de dos variables.
La Función de Interpolación se expresa como una combinación lineal de las Funciones
Base:
𝑁 −1 = 𝐸𝐷−1 𝐸 𝑇
DONDE:
Las coordenadas X,Y de los puntos de la muestra generadora (MG) suelen ser
coordenadas planas en el sistema de proyección conforme Gauss – Krugüer que para
la faja 2, por ejemplo son del orden de los seis millones en X, y de los dos millones en
Y. Los valores de Z,(ondulación del geoide) son números de dos dígitos (típicamente 25.
M en el Valle de Tulum). En consecuencia la matriz A requiere de un escalado adecuado
para que la matriz produce soluciones inaceptables en la resolución del sistema de las
ecuaciones normales. (50.3).
𝜆𝑚𝑎𝑥.
𝑐𝑜𝑛𝑑 (𝑁) = √
𝜆𝑚𝑖𝑛.
DONDE:
𝜆 max 𝑦 𝜆𝑚𝑖𝑛 = son los valores propios máximos y mínimos, respectivamente de la
matriz normal N.
DONDE:
m = (𝑘 + 1)2. Un valor de 𝜆𝑚𝑖𝑛𝑖𝑚𝑜 muy cercano cero (𝜆 min ≈ 0), daría como resultado
un valor del determinante de N próximo a 0, (det(𝑁) ≈ 0) distorsionando la solución del
sistema normal. Los valores propios cercanos a cero deben ser removidos de la matriz
D conjuntamente con los vectores propios correspondientes normalizados en la matriz
E. así, la (54.3) es hora la pseudoinversa de Moore – Penrose que provee la solución
óptima del sistema normal.
El escalado consiste en hallar un factor de escala tal que divida las coordenadas planas
X,Y hasta lograr un numero de condición adecuado y un valor suficientemente grande
para el determinante de N. con esto se logra una solución aceptable para en sistema de
las ecuaciones normales.
Zp = Ap X
DONDE:
Ap =
X = [a∞
𝜗2𝑝 = √𝐴𝑝 ∑ 𝑥 𝐴𝑇 𝑝
Donde: ∑ 𝑥 es la matriz varianza – covarianza del vector solución X. que esta dada por:
𝑉𝑇 ∑𝑛 𝑣 2
𝜎° = √ = √ 𝑖=1 𝑖
𝑛 − (𝑘 + 1)2 𝑉
𝐿𝑙 = ZP − ZC σZP
𝐿𝑙 = ZP + ZC σZP
Ante de estimar las ondulaciones del geoide, sus errores estándar y sus intervalos de
confianza es necesario tomar decisiones sobre la utilidad del modelo generado. Esto
se logra mediante un test estadístico basado en la distribución de F de Fisher –
Snedecor se comparan las cantidades.
∑𝑛𝑗=𝑖 𝑍𝑗
𝑍=
𝑛
Mientras que SQE es la variación explicada por la regresión y SQR es la variación no
explicada (randomica o aleatoria) por la regresión.
𝑆𝑄𝐸 𝑆𝑄𝑅
𝐼= +
𝑆𝑄𝑇 𝑆𝑄𝑇
𝑆𝑄𝐸
𝑅2 =
𝑆𝑄𝑇
De una forma general, lo primero que suele hacerse para ver si dos
variables aleatorias están relacionadas o no (de ahora en adelante las
llamaremos X e Y, denotando con Y a la variable dependiente, y X a la variable
independiente o regresora), consiste en tomar una muestra aleatoria. Sobre cada
individuo de la muestra se analizan las dos características en estudio, de modo
que para cada individuo tenemos un para de valores (xi, yi) (i=1,...,n).
Si existe regresión, a la ecuación que nos describe la relación entre las dos
variables la denominamos ecuación de regresión.
Tipos de regresión
Cuando tenemos más de una variable independiente (X1, X2,..., Xp), y una
sola variable dependiente Y, hablaremos de Regresión múltiple, que se
estudiará en detalle
en el apartado 6.2. A las variables Xi, se las denomina, regresoras,
predictoras o independientes.
Consideraciones previas
n
" (x i ! x)(yi ! y )
SXY = i =1
n
Por ello pasaremos a interpretar los coeficientes que determinan una línea
el plano una
línea recta, donde X e Y son variables y a y b son constantes. Por ejemplo: Y=3+2X.
SIGNIFICADO DE a y b
Sean X e Y dos variables aleatorias medidas sobre los mismos individuos, y sean
(xi,yi) los pares de observaciones sobre dichos individuos.
Figura 6.5: Nube de puntos y posibles rectas que pueden pasar por ella.
Que pase lo más cerca posible de todos los puntos, es decir que diste
poco de todos y cada uno de ellos significa que hemos de adoptar un criterio
particular que en general se conoce como MÍNIMOS CUADRADOS. Este criterio
significa que la suma de los cuadrados de las distancias verticales de los puntos
a la recta debe ser lo más pequeña posible (ver figura 6.6). (Obviamente, este
es uno de los posibles criterios a adoptar, pero es el más utilizado).
Y (xi,
yi)
yi Y* = a+bX
*
*
ei *
*
* * (xi, yi* )
*
* * *
* * *
*
* * * *
* * *
xi
X
n
D = ! ei
mínima
i=1
Dado que la recta de regresión deberá tener carácter de línea media, esa
suma de distancias deberá anularse (lo mismo que sucedía, como veíamos en
la primera unidad didáctica al tratar de hallar la suma de las diferencias con
respecto a la media aritmética). Por las mismas razones que entonces, para
evaluar la dispersión, trabajaremos con esas distancias, pero al cuadrado,
de modo que la función que
deberemos minimizar será:
n 2 n # 2 n 2
D = ! e i = ! (yi " y i ) = ! (y i " a " bxi )
i=1 i=1 i= 1
Así,
obtendremos:
!D n
= 2 # (y i " a " bxi )("1) = 0
!a i= 1
!D n
= 2 # (y " a " bx )(" x ) = 0
i i i
!b i= 1
n
"(yi ! a ! bxi ) = 0
i
=1
n
"(yi ! a ! bxi )( xi ) = 0
i
=1
Operando y reorganizando términos, obtenemos las denominadas Ecuaciones
Normales de Gauss:
n
n
na + b ! x i = ! yi
i =1 i=1
n n 2 n
a ! x i + b ! xi = ! x i y i
i =1 i= i =1
1
a = y ! bx
S
b = 2XY
sX
y*i = a+bxi
REPRESENTATIVIDAD DE LA RECTA DE REGRESIÓN.
n
2 "
# ( yi ! y i
S2e = )
i =1
n
n n
2n
" yi ! a " y i ! b " x i y i
S2e = =1
i =1 i= 1 i
n
La cota máxima de la varianza residual es la varianza que tratamos de explicar
mediante el modelo de regresión, es decir, la varianza de la variable dependiente.
Por tanto, sin más que hacer relativa la varianza residual respecto de su máximo
valor, y
2S
% de var iaciones sin exp licar =2 e
100 s
y
Ahora, ya es fácil obtener una media que nos indique el porcentaje de
variaciones controladas o explicadas mediante el modelo, que se conoce como
Coeficiente de Determinación, que denotaremos con R2. Su expresión en tantos
por 1, será:
Se2
R2 = 1! 2
ys
Como puede observarse, a partir de la expresión anterior: 0< R2 <1. Por tanto:
CAUSALIDAD
EXTRAPOLACIÓN
Por todos es conocido que las plantas necesitan abono para poder crecer.
Desde pequeños hemos aprendido que hay que abonarlas, de modo que en
principio, cuanto más abono se les suministre más crecerán. Pero... ¿qué ocurriría
si abonásemos demasiado el suelo?. Obviamente la planta moriría. Bien, esto se
traduce, en que conforme aumenta la cantidad de abono, el crecimiento es más
notable, pero a partir de un punto, la planta deja de crecer, y es más se muere.
Esto queda reflejado en la figura
6.7. De ahí el peligro de extrapolar los resultados.
Figura 6.7: Comparación de una posible verdadera relación
entre cantidad de abono y crecimiento de una planta, con los
resultados de una recta de regresión obtenida mediante el
estudio de un rango limitado de valores de abono.
3.Regresión no lineal
PARÁBOLA DE REGRESIÓN
n "
2
D = # (y i ! y i )
i=1
n " 2 n 2 2
D = # (y i ! y i = # ( yi ! a ! bxi ! cx i )
) i =1
i=1
n n n 2
! yi = na + b ! x i + c ! x i
i =1 i= i =1
n 1 n 2 n
n 3
! xi yi = a ! xi + b ! xi + c ! x i
i =1 i=1 i=1 i= 1
n 2 n n n 4
2 3
x y
! i i = a x
! i + b ! xi + c !xi
i =1 i= i= i=1
1 1
FUNCIÓN EXPONENCIAL, POTENCIAL Y LOGARÍTMICA
Modelo potencial:
Modelo exponencial:
Modelo logarítmico:
S xy
r=
s xs
y
r2 = R2
http://hum.unne.edu.ar/revistas/geoweb/Geo13/archivos/snaider10.pdf
http://tesis.pucp.edu.pe/repositorio/bitstream/handle/123456789/5275/QUEVE
DO_FERNANDO_INTERPOLACION_SUPERFICIES_COMPONENTES_MECANI
COS_DIGITALIZADOS_SUPERFICIES_B-SPLINE.pdf?sequence=1
https://es.wikipedia.org/wiki/An%C3%A1lisis_de_la_regresi%C3%B3n