Está en la página 1de 49

UNIVERSIDAD NACIONAL DE HUANCAVELICA

Facultad De Ciencias De Ingeniería


Escuela Profesional de Ingeniería Civil – Huancavelica

MÉTODOS NUMÉRICOS

DIFERENCIACIÓN

Ing.
Vargas Crispin
Wilber Samuel
Aproximación Polinomial de Newton
Supongamos que tenemos una función tabular y que
queremos realizar su aproximación mediante un polinomio de
primer grado:

Punto 0 1  i  n
x x0 x1  xi  xn
f ( x) f x0  f  x1   f ( xi )  f ( xn )

Para un polinomio de primer grado se tiene:

p1 ( x )  a0  a1 ( x  x0 )

ING. V.C.W. 2
Aproximación Polinomial de Newton
En donde:
x0 : Es la abscisa del punto “0”
a0, a1: Constantes por determinar

x  x0  a0  p( x0 )  f  x0   a0  f  x0 
p( x1 )  f  x0  f  x1   f  x0 
x  x1  a1  ( x  x0 )  a1 
x  x0 x1  x0
Consecuentemente tendremos: a1  f  x0 , x1 

ING. V.C.W. 3
Aproximación Polinomial de Newton
f  x1   f  x0 
p1 ( x )  f  x0   ( x  x0 )
x  x0
p1 ( x )  f  x0   ( x  x0 ) f  x0 , x1 
Para la aproximación de un polinomio de segundo grado:

p2 ( x )  a0  a1 ( x  x0 )  a2 ( x  x0 )( x  x1 )

En donde:
x0, x1 : Son las abscisas de los puntos “0” y “1”
a0, a1, a2: Constantes que debemos encontrar

ING. V.C.W. 4
Aproximación Polinomial de Newton
x  x0  a0  p2 ( x)  a0  f  x0 
p 2 ( x )  a0 f  x1   f  x0   a  f  x , x 
x  x1  a1   a1  1 0 1
x1  x0 x1  x0
f  x1   f  x0 
p ( x )  a0  a1 ( x2  x0 ) f  x2   f  x0   ( x 2  x0 )
x  x2  a 2  2 2  a2 
( x1  x0 )
( x2  x0 )( x2  x1 ) ( x2  x0 )( x2  x1 )

f  x2   f  x0  f  x1   f  x0 

( x2  x1 ) ( x1  x0 )
 a2 
( x2  x0 )

ING. V.C.W. 5
Aproximación Polinomial de Newton
( f  x2   f  x0  )( x1  x0 )  ( f  x1   f  x0  )( x2  x1 )
 a2 
( x2  x0 )( x2  x1 )( x1  x0 )
 a2  f  x0 , x1 , x2 
Finalmente tenemos:

p2 ( x)  f  x0   ( x  x0 ) f  x0 , x1   ( x1  x0 )( x  x1 ) f  x0 , x1 , x2 
Generalizando:

pn ( x)  a0  a1 ( x  x0 )  a2 ( x  x0 )( x  x1 )    an ( x  x0 )( x  x1 )  ( x  xn1 )

ING. V.C.W. 6
Aproximación Polinomial de Newton
En donde:
Son las abscisas de los puntos 0, 1, 2, …, n
x0 , x1 , xn :
a0 , a1 ,Son
an :coeficientes por determinar
a0  f  x0 ; a1  f  x0 , x1 ; a2  f  x0 , x1 , x2 ;; an  f  x0 , x1 ,  xn 
Entonces:
pn ( x)  f  x0   ( x  x0 ) f  x0 , x1   ( x  x0 )( x  x1 ) f  x0 , x1 , x2   
 ( x  x0 )( x  x1 )  ( x  xn ) f  x0 , x1 ,, xn 
Polinomio de aproximación de Newton

ING. V.C.W. 7
Aproximación Polinomial de Newton
Ejemplo:
Determinar la aproximación polinomial de Newton para la
información tabular e interpolar para x = 2.

Diferencias Divididas
Puntos x f[x] 1° Dividida 2° Dividida 3° Dividida
0 1 56
14.2
1 5 113 -0.31
4.5 0.019
2 20 181 0.081
1.68
3 40 214
Para el cálculo de los coeficientes del polinomio de Newton, se construye la tabla de diferencias divididas

ING. V.C.W. 8
Aproximación Polinomial de Newton
Ejemplo:

p1 ( x)  a0  a1 ( x  x0 )  f  x0   f  x0 , x1  ( x  x0 )
f  x1   f  x0  113  56 57
f  x0 , x1      14.2
x1  x0 5 1 4
p1 ( x)  56  14.2( x  1)
p2 ( x)  a0  a1 ( x  x0 )  a2 ( x  x0 )( x  x1 )  f  x0   f  x0 , x1 ( x  x0 )
 f  x0 , x1 , x2  ( x  x0 )( x  x1 )

ING. V.C.W. 9
Aproximación Polinomial de Newton
Ejemplo:

f  x1 , x2   f  x0 , x1  4.5  14.2  9.7


f  x0 , x1 , x2      0.51
x2  x0 20  1 19
f  x2   f  x1  181  113 68
f  x1 , x2      4.5
x2  x1 15 15
p2 ( x)  56  14.2( x  1)  0.51( x  1)( x  5)
p1 (2)  56  14.2(2  1)  70.2
p2 (2)  56  14.2(2  6)  0.51(2  1)(2  5)  70.2  1.53  71.7

ING. V.C.W. 10
Aproximación Polinomial de Newton
Ejemplo:

p3 ( x)  a0  a1 ( x  x0 )  a2 ( x  x0 )( x  x1 )  a3 ( x  x0 )( x  x1 )( x  x3 )

a0  f  x0   56; a1  f1  x0 , x1   14.2; a2  f  x0 , x1 , x2   0.51

f  x1 , x2 , x3   f  x0 , x1 , x2   0.081  0.51
 
a3  f x0 , x1 , x2 , x3  
x3  x0 40  1
0.429
  0.011
39

ING. V.C.W. 11
Aproximación Polinomial de Newton
Ejemplo:

f  x2 , x3   f  x1 , x2  1.68  4.5
f  x1 , x2 , x3     0.081
x3  x1 40  5
p3 ( x)  56  14.2( x  1)  0.51( x  1)( x  5)
 0.019( x  1)( x  5)( x  20)
f (2)  p3 (2)  56  14.2(2  1)  0.51(2  1)(2  5)
 0.019(2  1)(2  5)(2  20)
 71.7  0.969  72.67

ING. V.C.W. 12
Regresiones
Uno de los aspectos más relevantes de la Estadística es el análisis
de la relación o dependencia entre variables. Frecuentemente
resulta de interés conocer el efecto que una o varias variables
pueden causar sobre otra, e incluso predecir en mayor o menor
grado valores en una variable a partir de otra.

Los métodos de regresión estudian la construcción de modelos


para explicar o representar la dependencia entre una variable
respuesta o dependiente (Y) y la(s) variable(s) explicativa(s) o
dependiente(s), X.

ING. V.C.W. 13
Regresión Lineal Simple
La estructura del modelo de regresión lineal es la siguiente:

Y   0  1 X  
En esta expresión estamos admitiendo que todos los factores o
causas que influyen en la variable respuesta Y pueden dividirse en
dos grupos: el primero contiene a una variable explicativa X y el
segundo incluye un conjunto amplio de factores no controlados
que englobaremos bajo el nombre de perturbación o error
aleatorio, ε, que provoca que la dependencia entre las variables
dependiente e independiente no sea perfecta, sino que esté sujeta
a incertidumbre.

ING. V.C.W. 14
Regresión Lineal Simple
Esto se explica de la siguiente manera supongamos , que en el
consumo de gasolina de un vehículo (Y) influyen la velocidad (X)
y una serie de factores como el efecto conductor, el tipo de
carretera, las condiciones ambientales, etc, que quedarían
englobados en el error.
y    x  

y ŷ

Ordenada en
el origen
(intercepto)
b =tgq coeficiente de regresión
q (pendiente)
a
x
ING. V.C.W. 15
Regresión Lineal Simple
  que en primer lugar sería deseable en un modelo de regresión
Lo
es que estos errores aleatorios sean en media cero para cualquier
valor x de X, es decir:
E / X  x  E   0
Por lo tanto:
En dicha expresión se observa que:
• La media de , para un valor fijo , varía linealmente con .
• Para un valor se predice un valor en dado por , por lo que el modelo de
predicción puede expresarse también Como
• El parámetro es la ordenada al origen del modelo (punto de corte con el eje ) y la
pendiente, que puede interpretarse como el incremento de la variable dependiente
por cada incremento en una unidad de la variable independiente. Estos parámetros
son desconocidos y habrá que estimarlos de cara a realizar predicciones.

ING. V.C.W. 16
Regresión Lineal Simple
 
Estimación de los parámetros del modelo:
Partimos de una muestra de valores de X e Y medidos sobre n
individuos:

( x1 , y1 ), ( x2 , y2 ),  , ( xn , yn )

Y queremos estimar valores en según el modelo , donde y son


por el momento desconocidos. Debemos encontrar entonces de
entre todas las rectas la que mejor se ajuste a los datos
observados, es decir, buscamos aquellos valores de y que hagan
mínimos los errores de estimación.

ING. V.C.W. 17
Regresión Lineal Simple
  
Para un valor xi, el modelo estima un valor en Y igual a

ˆ i   0  1 xi
y
Y el valor observado en Y es igual a yi, con lo cual el error de
estimación en ese caso vendría dado por:

ei  yi  yi  yi  (  0  1 xi )
Entonces tomaremos como estimaciones de y , que notamos por
y, aquellos valores que hagan mínima la suma de los errores al
cuadrado, que viene dada por:

ING. V.C.W. 18
Regresión Lineal Simple
n n 2

SSE   i  yi  (  0  1 xi )
e 2

i 1 i 1

De ahí que al método de estimación se le llame método de


mínimos cuadrados. La solución se obtiene por el mecanismo
habitual, derivando SSE con respecto a β0 y β1 e igualando a 0.
Los estimadores resultan:

SS xy
ˆ0  y  ˆ1 x ̂1 
SS xx

ING. V.C.W. 19
Regresión Lineal Simple
Siendo:
n n
SS xy   (x
i 1
i  x ) ( yi  y )  x y
i 1
i i  nx y

n 2 n

 ( xi  x )   i 
2
SS xx  x  n x 2
n 2
x
i 1 i 1
A la recta resultante
Y   0  1 X
Se le llama recta de regresión lineal de Y sobre X.

ING. V.C.W. 20
Regresión Lineal Simple
Ejemplo:
En un ensayo de laboratorio de Resistencia de Materiales, una muestra de concreto
f’c= 210 kg/cm2, se sometió al equipo de Compresión Simple, para obtener el
esfuerzo que se necesitaba para producir diferentes deformaciones unitarias, siendo
estas los resultados conseguidos:

0.0001 14.3
0.0002 28.3  Donde:
0.0003 42.1
: Deformación Unitaria (Adimensional)
Esfuerzo (kg/cm2)
0.0004 55.5
0.0005 68.5
0.0006 81.2
0.0007 93.6
0.0008 105.5
0.0009 116.9

ING. V.C.W. 21
Regresión Lineal Simple
0.0001 14.3 -0.0004 -53.022 0.02120889 0.00000016

0.0002 28.3 -0.0003 -39.022 0.01170667 0.00000009

0.0003 42.1 -0.0002 -25.222 0.00504444 0.00000004

0.0004 55.5 -0.0001 -11.822 0.00118222 0.00000001

0.0005 68.5 0 1.178 0 0

0.0006 81.2 1E-04 13.878 0.00138778 1E-08

0.0007 93.6 0.0002 26.278 0.00525556 0.00000004

0.0008 105.5 0.0003 38.178 0.01145333 0.00000009

0.0009 116.9 0.0004 49.578 0.01983111 0.00000016

0.07707
0.07707 0.0000006
0.0000006

0.0005 67.322 SXY SXX


0.0005 67.322 SXY SXX

ING. V.C.W. 22
Regresión Lineal Simple
Con los datos de la tabla anterior se tiene:

SS xy  0.07707 , SS xx  6x10-7
SS xy
̂1  ˆ0  y  ˆ1 x
SS xx

ˆ1  128450 ˆ0  3.097


La recta de regresión de Y sobre X es por tanto:

Y  3.097  128450 X

ING. V.C.W. 23
Coeficiente de Correlación Lineal
Nuestro objetivo en adelante será medir la bondad del ajuste de
la recta de regresión a los datos observados y cuantificar al
mismo tiempo el grado de asociación lineal existente entre las
variables en cuestión. A mejor ajuste, mejores serán las
predicciones realizadas con el modelo.

Como solución al inconveniente planteado, para medir la


asociación lineal entre dos variables X e Y se utiliza una medida
adimensional denominada coeficiente de correlación lineal,
dado por:
SS xy SS xx
r  ̂1
SS xx SS yy SS yy

ING. V.C.W. 24
Coeficiente de Correlación Lineal
El coeficiente de correlación lineal toma valores entre -1 y 1 y su
interpretación es la siguiente:
• Un valor cercano o igual a 0 indica respectivamente poca o
ninguna relación lineal entre las variables.
• Cuanto más se acerque en valor absoluto a 1 mayor será el
grado de asociación lineal entre las variables. Un coeficiente
igual a 1 en valor absoluto indica una dependencia lineal
exacta entre las variables.
• Un coeficiente positivo indica asociación lineal positiva, es
decir, tienden a variar en el mismo sentido.
• Un coeficiente negativo indica asociación lineal negativa, es
decir, tienden a variar en sentido opuesto.

ING. V.C.W. 25
Coeficiente de Determinación
 
Según hemos visto, el coeficiente de correlación lineal puede
interpretarse como una medida de la bondad del ajuste del
modelo lineal, concretamente, un valor del coeficiente igual a 1 o
-1 indica dependencia lineal exacta, en cuyo caso el ajuste es
perfecto.

No obstante, para cuantificar la bondad del ajuste de un modelo,


lineal o no, se utiliza una medida que se denomina coeficiente
de determinación lineal , que es la proporción de variabilidad
de la variable y cuya expresión es:

ING. V.C.W. 26
Coeficiente de Determinación
n

 ( yˆ i  y)2
SSE
R2  i 1
n
 1
SS yy
 ( yˆ
i 1
i  y)2

Que en modelo de regresión lineal coincide con el cuadrado del


coeficiente de correlación lineal:

R2  r 2
El coeficiente de determinación toma valores entre 0 y 1, y cuanto
más se aproxime a 1 mejor será el ajuste y por lo tanto mayor la
fiabilidad de las predicciones que con él realicemos.

ING. V.C.W. 27
Coeficiente de Determinación
Para el ejemplo anterior:

SS xy
r 
SS xx SS yy
R r
2 2

0.07707
r -7
 0.9995
6x10 x9910.01556

R  r 2  0.99952  0.999

ING. V.C.W. 28
Regresiones No Lineales
La regresión lineal no siempre da buenos resultados, porque a veces la
relación entre Y y X no es lineal sino que exhibe algún grado de curvatura.
La estimación directa de los parámetros de funciones no-lineales es un
proceso bastante complicado. No obstante, a veces se pueden aplicar las
técnicas de regresión lineal por medio de transformaciones de las
variables originales. 

ING. V.C.W. 29
Regresión Logarítmica
Se tiene la curva logarítmica:

Y   0  1 ln X
Es también una recta, pero en lugar de estar referida a las
variables originales X e Y, está referida a logX y a Y.

Para realizar la regresión se hace una linealización simple en la


expresión anterior:

Y   0  1 X '

Ya linealizada se aplica el mismo procedimiento de mínimos


cuadrados

ING. V.C.W. 30
Regresión Logarítmica
0.0001 -9.21034037 14.3 -1.42242528 -53.022 75.4201491 2.02329366 2811.35605

0.0002 -8.51719319 28.3 -0.7292781 -39.022 28.4580519 0.53184654 1522.73383

0.0003 -8.11172808 42.1 -0.32381299 -25.222 8.16728311 0.10485485 636.160494

0.0004 -7.82404601 55.5 -0.03613091 -11.822 0.4271477 0.00130544 139.764938

0.0005 -7.60090246 68.5 0.18701264 1.178 0.22025933 0.03497373 1.38716049

0.0006 -7.4185809 81.2 0.36933419 13.878 5.12553787 0.13640775 192.592716

0.0007 -7.26443022 93.6 0.52348487 26.278 13.7560192 0.27403641 690.521605

0.0008 -7.13089883 105.5 0.65701627 38.178 25.083421 0.43167037 1457.54272

0.0009 -7.01311579 116.9 0.7747993 49.578 38.4128276 0.60031396 2457.95605

195.070697 4.13870272 9910.01556

0.0005 -7.7879151 67.322 SXY SXX SYY

ING. V.C.W. 31
Regresión Logarítmica
Entonces:

Y   0  1 X '
Y  434.392  47.133 ln( x )
Con los siguientes coeficientes de correlación y determinación:

r  0.9632
R  0.928

ING. V.C.W. 32
Regresión Exponencial
Se tiene la curva exponencial:

Y   0  e 1 X
Tomando logaritmos para linealizar la función:

ln(Y )  ln( 0 )  1 X

Y '   0 ' 1 X
Ya linealizada se aplica el mismo procedimiento de mínimos
cuadrados

ING. V.C.W. 33
Regresión Exponencial
0.0001 14.3 2.66025954 -0.0004 -1.378 0.00055111 0.00000016 1.8982794

0.0002 28.3 3.3428618 -0.0003 -0.695 0.00020855 0.00000009 0.48327292

0.0003 42.1 3.74004774 -0.0002 -0.298 5.9598E-05 0.00000004 0.08879947

0.0004 55.5 4.01638302 -0.0001 -0.022 2.1657E-06 0.00000001 0.00046903

0.0005 68.5 4.22683375 0 0.189 0 0 0.03564302

0.0006 81.2 4.39691525 1E-04 0.359 3.5888E-05 1E-08 0.12879134

0.0007 93.6 4.53903038 0.0002 0.501 0.0001002 0.00000004 0.25099122

0.0008 105.5 4.65871095 0.0003 0.621 0.0001862 0.00000009 0.38523225

0.0009 116.9 4.76131887 0.0004 0.723 0.00028931 0.00000016 0.52313211

0.00143303
0.00143303 0.0000006
0.0000006 3.79461078
3.79461078

0.0005 67.322 4.03804014 SXY SXX SYY


0.0005 67.322 4.03804014 SXY SXX SYY

ING. V.C.W. 34
Regresión Exponencial
Entonces:

Y   0  e 1 X

Y  17.182e 2388.380 X

Con los siguientes coeficientes de correlación y determinación:

r  0.9497
R  0.902

ING. V.C.W. 35
Regresión Potencial
Se tiene la curva potencial:

Y   0 x 1
Tomando logaritmos para linealizar la función:

log(Y )  log( 0 )  1 log( X )

Y '   0 ' 1 X '


Ya linealizada se aplica el mismo procedimiento de mínimos
cuadrados

ING. V.C.W. 36
Regresión Potencial
0.0001 14.3 -4.0000 1.1553 -0.6178 -0.598 0.3696 0.3816 0.3580

0.0002 28.3 -3.6990 1.4518 -0.3167 -0.302 0.0956 0.1003 0.0912

0.0003 42.1 -3.5229 1.6243 -0.1406 -0.129 0.0182 0.0198 0.0167

0.0004 55.5 -3.3979 1.7443 -0.0157 -0.009 0.0001 0.0002 0.0001

0.0005 68.5 -3.3010 1.8357 0.0812 0.082 0.0067 0.0066 0.0067

0.0006 81.2 -3.2218 1.9096 0.1604 0.156 0.0250 0.0257 0.0243

0.0007 93.6 -3.1549 1.9713 0.2273 0.218 0.0495 0.0517 0.0473

0.0008 105.5 -3.0969 2.0233 0.2853 0.270 0.0769 0.0814 0.0727

0.0009 116.9 -3.0458 2.0678 0.3365 0.314 0.1057 0.1132 0.0987

0.7473
0.7473 0.7806
0.7806 0.7157
0.7157

0.0005 67.322 -3.3822 1.7537 SXY SXX SYY


0.0005 67.322 -3.3822 1.7537 SXY SXX SYY

ING. V.C.W. 37
Regresión Potencial
Entonces:

Y   0 x 1

Y  98134.618 X 0.957

Con los siguientes coeficientes de correlación y determinación:

r  0.99985
R  0.999707

ING. V.C.W. 38
Caso Polinomial
En la ingeniería, aunque algunos datos exhiben un patrón
marcado, son pobremente representados por una línea recta,
entonces una curva será la más adecuada para ajustarse a los
datos; una alternativa es ajustar polinomios a los datos mediante
regresión polinomial.
La ecuación de un polinomio de grado n es:
n
y  a0  a1 x  a2 x 2
   an x n
 
i
a i xi

Apliquémosle el método de mínimos cuadrados. La curva


propuesta es:

y  a0  a1 x  a2 x 2    an x n  e

ING. V.C.W. 39
Caso Polinomial
 Donde son coeficientes y es el error. Una estrategia es minimizar
la suma de los cuadrados de los residuos (), entre la y medida y
la y calculada con el modelo lineal, está dada por:

 i  ( yi ,medida  yi ,mod elo )


2
Sr  e 2

 i
n
Sr  ( y  a 0  a x
1 i  a 2 x 2
i    a x
n i ) 2

ING. V.C.W. 40
Caso Polinomial
Las derivadas parciales están dadas por:

 
a0
Sr 
a0
 i 0 1 i 2
( y  a  a x  a x 2
i    a n x n
i ) 2

 
a1
Sr 
a1
 i 0 1 i 2
( y  a  a x  a x 2
i    a n x n
i ) 2


 
an
Sr 
an
(y i  a0  a1 xi  a2 x 2 i    an x n i ) 2

ING. V.C.W. 41
Caso Polinomial
Esto es:


S r  2 ( yi  a0  a1 xi  a2 x 2 i    an x n i )
a0


S r  2 ( yi  a0  a1 xi  a2 x 2 i    an x n i )
a1
Y así sucesivamente hasta la n ecuación.
Posteriormente se igualan a 0 las ecuaciones:

  
Sr  0 Sr  0  Sr  0
a0 a1 an

ING. V.C.W. 42
Caso Polinomial
Omitiendo los pasos siguientes, reordenando, para desarrollar el
siguiente sistema de ecuaciones normales:

a0 ( m)  a1  xi  a2  xi    an  xi   yi
2 n

a0  xi  a1  xi  a2  xi    an  xi   yi xi
2 3 n 1

a0  xi  a1  xi  a2  xi    an  xi   yi xi
2 3 4 n 2 2


a0  xi  a1  xi  a2  xi    an  xi   yi xi
n n 1 n2 2n n

Todas las sumatorias son desde i = 1 hasta m (donde m es el


número de puntos).

ING. V.C.W. 43
Caso Polinomial
Podemos escribir el sistema de ecuaciones normales obtenido en
la forma:
S x a  S xy
Donde:
m x  x 
2 n
x 
 
 x  x
2
 x 3
  x
n 1

 
  x    
2 3 4 n2
Sx x x  x
 
  
 
 x x x  x 
n n 1 n2 2n

 

ING. V.C.W. 44
Caso Polinomial
 y 
a 0   
a    yx 
 1  2
a  a 2  S xy    yx 
    
  
 an    yx n 
 
 
Sx: Matriz de sumatorias de potencias x.
a: Vector de coeficientes. Las constantes del polinomio.
Sxy: Vector de sumatorias de potencias de x con y’s.

ING. V.C.W. 45
Caso Polinomial
Ejemplo:
Para el ejercicio anterior encontrar su regresión cuadrática:

1 0.0001 14.3 0.00000001 1E-12 1E-16 0.00143 0.000000143


2 0.0002 28.3 0.00000004 8E-12 1.6E-15 0.00566 0.000001132
3 0.0003 42.1 0.00000009 2.7E-11 8.1E-15 0.01263 0.000003789
4 0.0004 55.5 0.00000016 6.4E-11 2.56E-14 0.0222 0.00000888
5 0.0005 68.5 0.00000025 1.25E-10 6.25E-14 0.03425 0.000017125
6 0.0006 81.2 0.00000036 2.16E-10 1.296E-13 0.04872 0.000029232
7 0.0007 93.6 0.00000049 3.43E-10 2.401E-13 0.06552 0.000045864
8 0.0008 105.5 0.00000064 5.12E-10 4.096E-13 0.0844 0.00006752
9 0.0009 116.9 0.00000081 7.29E-10 6.561E-13 0.10521 0.000094689
0.0045 605.9 0.00000285 2.025E-09 1.5333E-12 0.38002 0.000268374
0.0045 605.9 0.00000285 2.025E-09 1.5333E-12 0.38002 0.000268374

ING. V.C.W. 46
Caso Polinomial
S x a  S xy

9 0.0045 0.00000285 
S x  0.0045 0.00000285 2.025E - 09 
0.00000285 2.025E - 09 1.5333E - 12

605.9 
S xy  0.38002 
0.00026837

ING. V.C.W. 47
Caso Polinomial
S x a  S xy
1
9 0.0045 0.00000285  605.9 
a  0.0045 0.00000285 2.025E - 09  0.38002 
 
0.00000285 2.025E - 09 1.5333E - 12 0.00026837

1.619047619 - 6785.71429 5952380.952  605.9 


a  - 6785.71429 34134199.1 - 3.2468E  10  0.38002 
5952380.952 - 3.2468E  10 3.24675E  13 0.00026837

ING. V.C.W. 48
Caso Polinomial
Ejemplo:
Finalmente tenemos los coeficientes correspondientes ala
ecuación cuadrática :
- 0.26190476
a  146772.5108 
- 18322510.8 

Y ( X )  -18322510.8X 2  146772.5108X - 0.26190476


r  0.999998281
R  0.999996563

ING. V.C.W. 49

También podría gustarte