Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Chapra PDF
Chapra PDF
e = y–a0 –a1 x
Ası́, el error o residuo es la discrepancia entre el valor
24 de octubre de 2019 verdadero de y y el valor aproximado, a0 +a1 x, que predijo
la ecuación lineal.
Los conceptos anteriores se utilizan para cuantificar la Los resultados indican que el modelo lineal explicó el
“bondad” de nuestro ajuste. 86,8 % de la incertidumbre original.
Esto es en particular útil para comparar diferentes regre-
siones (figura ??). Para hacerlo, regresamos a los datos Antes de implementar el programa computacional pa-
originales y determinamos la suma total de los cuadrados ra la regresión lineal, debemos tomar en cuenta algunas
alrededor de la media para la variable dependiente (en consideraciones. Aunque el coeficiente de correlación ofre-
nuestro caso, y). Como en el caso de la ecuación (9), esta ce una manera fácil de medir la bondad del ajuste, se
cantidad se designa por St . Ésta es la magnitud del error deberá tener cuidado de no darle más significado del que
residual asociado con la variable dependiente antes de la ya tiene. El solo hecho de que r sea “cercana” a 1 no
regresión. Después de realizar la regresión, calculamos Sr , necesariamente significa que el ajuste sea “bueno”. Por
es decir, la suma de los cuadrados de los residuos alrededor ejemplo, es posible obtener un valor relativamente alto
de la lı́nea de regresión. Esto caracteriza el error residual de r cuando la relación entre y y x no es lineal. Draper
que queda después de la regresión. Es por lo que, algunas y Smith (1981) proporcionan guı́as y material adicional
veces, se le llama la suma inexplicable de los cuadrados. respecto a la evaluación de resultados en la regresión li-
La diferencia entre estas dos cantidades, St −Sr , cuantifica neal. Además, como mı́nimo, usted deberá inspeccionar
la mejora o reducción del error por describir los datos en siempre una gráfica de los datos junto con su curva de
términos de una lı́nea recta en vez de un valor promedio. regresión. Como se describe en la siguiente sección, los
Como la magnitud de esta cantidad depende de la escala, paquetes de software tienen estas capacidades.
la diferencia se normaliza a St para obtener
St − Sr EJEMPLO 3. Regresión lineal usando la
r2 = (12) computadora
St
Planteamiento del problema. Se utiliza el software
donde r2 se conoce como el coeficiente de√determina- basado el código expuesto para resolver un problema de
ción y r es el coeficiente de correlación (= r2 ). En un prueba de hipótesis relacionado con la caı́da del paracai-
ajuste perfecto, Sr = 0 y r = r2 = 1, significa que la dista que se analizó en el capı́tulo 1. Un modelo teórico
lı́nea explica el 100 % de la variabilidad de los datos. Si matemático para la velocidad del paracaidista se dio como
r = r2 = 0, Sr = St el ajuste no representa alguna mejora. sigue
Una representación alternativa para r que es más conve-
niente para implementarse en una computadora es c
v(t) = gm
c (1 − e
(− m )t
)
P P P
n xi yi − ( xi )( yi ) donde v = velocidad (m/s), g = constante gravitacio-
r= p P 2 (13)
nal (9,8m/s2 ), m = masa del paracaidista igual a 68,1kg y
P 2p P 2 P
n xi − ( xi ) n yi − ( yi )2
c = coeficiente de arrastre de 12,5kg/s. El modelo predice
la velocidad del paracaidista en función del tiempo.
EJEMPLO 2. Estimación de errores en el ajus- Un modelo empı́rico alternativo para la velocidad del pa-
te lineal por mı́nimos cuadrados racaidista está dado por
vmodelo = –0,859 + 1,032vmedida donde a1 yb1 son constantes. Este modelo se emplea en
muchos campos de la ingenierı́a para caracterizar cantida-
y para el segundo modelo [ecuación (14) como se ilustra des que aumentan (β positivo) o disminuyen (β negati-
1 1
en la figura 17.7b], vo), a una velocidad que es directamente proporcional a
vmodelo = 5,776 + 0,752vmedida sus propias magnitudes. Por ejemplo, el crecimiento po-
blacional o el decaimiento radiactivo tienen este compor-
Esas gráficas indican que la regresión lineal entre los tamiento. Como se ilustra en la figura 17.9a, la ecuación
datos y cada uno de los modelos es altamente significativa. representa una relación no lineal (para β 6= 0) entre y y
1
Ambos modelos ajustan los datos con un coeficiente de x.
correlación mayor a 0.99. Otro ejemplo de modelo no lineal es la ecuación de poten-
No obstante, el modelo descrito por la ecuación (15) se cias
ajusta mejor a nuestro criterio de prueba de hipótesis que
el descrito por la ecuación (14), ya que la pendiente y la
y = α2 xβ2 (17)
intersección con el eje y son más cercanos a 1 y 0. Ası́,
aunque cada gráfica queda bien descrita por una lı́nea rec- donde α2 y β2 son coeficientes constantes. Este mo-
ta, la ecuación (15) parece ser un mejor modelo que la (14). delo tiene muchas aplicaciones en todos los campos de la
ingenierı́a. Como se ilustra en la figura 17.9b, la ecuación
(para β2 6= 0 o 1) es no lineal.
La prueba y la selección del modelo son actividades
comunes y muy importantes en todas las ramas de la inge- Un tercer ejemplo de un modelo no lineal es la ecuación
nierı́a. El material que se presentó antes en este capı́tulo, de razón del crecimiento [recuerde la ecuación (14)]
junto con su software, le ayudarán a resolver muchos pro-
x
blemas prácticos de este tipo. y = α3 (18)
β3 + x
El análisis en el ejemplo 3 tiene un defecto: el ejemplo donde α3 y β3 son coeficientes constantes. Este modelo
no fue ambiguo, ya que el modelo empı́rico [ecuación (14)] particularmente es adecuado para caracterizar la razón de
fue claramente inferior al de la ecuación (15). La pendien- crecimiento poblacional bajo condiciones limitantes, tam-
te y la intersección en el modelo empı́rico fueron mucho bién representa una relación no lineal entre y y x (figura
más cercanos a los resultados deseados 1 y 0, por lo que ??c) que se iguala o “satura”, conforme x aumenta.
resultó obvio cuál era el mejor modelo. Hay técnicas de regresión no lineal disponibles para ajus-
Sin embargo, suponga que la pendiente fuera de 0.85 y que tar estas ecuaciones de manera directa a datos experimen-
la intersección con el eje y fuera de 2. Obviamente esto tales. Sin embargo, una alternativa simple consiste en usar
4
manipulaciones matemáticas para transformar las ecua- 1.5. Comentarios generales sobre la regre-
ciones en una forma lineal. Después, se utiliza la regresión sión lineal
lineal simple para ajustar las ecuaciones a los datos.
Por ejemplo, la ecuación (16) se linealiza al aplicar el lo- Antes de plantear la regresión curvilı́nea y lineal múlti-
garitmo natural se obtiene ple, debemos enfatizar la naturaleza introductoria del ma-
terial anterior sobre regresión lineal. Nos hemos concen-
lny = lnα1 + β1 xlne trado en la obtención y el uso práctico de ecuaciones para
ajustarse a datos. Deberá estar consciente del hecho de que
Pero como lne = 1, hay aspectos teóricos de regresión que son de importancia
práctica, pero que van más allá del alcance de este libro.
lny = lnα1 + β1 x (19) Por ejemplo, algunas suposiciones estadı́sticas, inherentes
a los procedimientos lineales por mı́nimos cuadrados, son
Ası́, una gráfica de ln y contra x dará una lı́nea recta
con una pendiente β1 y una inter- sección con el eje de las 1. Cada x tiene un valor fijo; no es aleatorio y se conoce
ordenadas igual a ln α1 (figura ??d). sin error.
La ecuación (17) es linealizada al aplicar el logaritmo de
base 10 se obtiene 2. Los valores de y son variables aleatorias indepen-
dientes y todas tienen la misma varianza.
log y = β2 log x + log α2 (20) 3. Los valores de y para una x dada deben estar distri-
De este modo, una gráfica de log y contra log x dará buidos normalmente.
una lı́nea recta con pendiente β2 e intersección con el eje
Tales suposiciones son relevantes para la obtención
de las ordenadas logα2 (figura ??e).
adecuada y el uso de la regresión. Por ejemplo, la primera
La ecuación (18) es linealizada al invertirla para dar
suposición significa que 1. los valores x deben estar libres
1 β3 1 1 de errores, y 2. la regresión de y contra x no es la misma
= + (21) que la de x contra y. Usted debe consultar otras referen-
y α3 x α3
cias tales como Draper y Smith (1981) para apreciar los
De esta forma, una gráfica de 1/y contra 1/x será li-
aspectos y detalles de la regresión que están más allá del
neal, con pendiente β3 /α3 y una intersección con el eje de
alcance de este libro.
las ordenadas 1/α3 (figura ??f ).
En sus formas transformadas, estos modelos pueden usar
la regresión lineal para poder evaluar los coeficientes cons- 2. REGRESIÓN POLINOMIAL
tantes. Después, regresarse a su estado original y usarse
para fines predictivos. El ejemplo 4 ilustra este procedi- En la sección 1 se desarrolló un procedimiento pa-
miento con la ecuación (17). ra obtener la ecuación de una lı́nea recta por medio del
criterio de mı́nimos cuadrados. En la ingenierı́a, aunque
EJEMPLO 4 Linealización de una ecuación de algunos datos exhiben un patrón marcado, como el que
potencias se advierte en la figura ??, son pobremente representados
por una lı́nea recta, entonces, una curva podrá ser más
Planteamiento del problema. Ajuste la ecuación adecuada para ajustarse a los datos. Como se analizó en
(17) a los datos de la tabla 3 mediante una transformación la sección anterior, un método para lograr este objetivo
logarı́tmica de los datos. es utilizar transformaciones. Otra alternativa es ajustar
polinomios a los datos mediante regresión polinomial.
Solución. La figura ??a es una gráfica de los datos El procedimiento de mı́nimos cuadrados se puede exten-
originales en su estado no transformado. La figura ??b der fácilmente al ajuste de datos con un polinomio de
muestra la gráfica de los datos transformados. Una re- grado superior. Por ejemplo, suponga que ajustamos un
gresión lineal de esta transformación mediante logoritmos polinomio de segundo grado o cuadrático:
dan el siguiente resultado:
y = α0 + α1 x + α2 x2 + e
log y = 1,75 log x–0,300
En este caso, la suma de los cuadrados de los residuos
es [compare con la ecuación (3)]
Ası́, la intersección con el eje de las ordenadas es log α2
igual a –0.300 y, por lo tanto, al tomar el antilogaritmo, X n
5
∂Sr
xi (yi − α0 − α1 xi − α2 x2i ) x3i = 225
P P
∂α1 = −2 ȳ = 25,433
∂Sr
x2i (yi − α0 − α1 xi − α2 x2i )
P
∂α2 = −2
Estas ecuaciones se igualan a cero y se reordenan para Entonces, las ecuaciones lineales simultáneas son
desarrollar el siguiente conjunto de ecuaciones normales:
6 15 55 α0 152,6
15 55 225 α1 = 585,6
X X X
(n)α0 + ( xi )α1 + ( x2i )α2 = yi 55 225 979 α2 2488,8
X X X X
2 3
( xi )α0 + ( xi )α1 + ( xi )α2 = xi yi (23)
X X X X
2 3 4
( xi )α0 + ( xi )α1 + ( xi )α2 = x2i yi Resolviendo estas ecuaciones con una técnica como la
eliminación de Gauss se tiene a0 = 2,47857, a1 = 2,35929
y a2 = 1,86071. Por lo tanto, la ecuación cuadrática por
donde todas las sumatorias van desde i = 1 hasta n.
mı́nimos cuadrados en este caso es
Observe que las tres ecuaciones anteriores son lineales y
tienen tres incógnitas:a0 , a1 y a2 . Los coeficientes de las
incógnitas se evalúan de manera directa, a partir de los y = 2,47857 + 2,35929x + 1,86071x2
datos observados.
En este caso, observamos que el problema de determinar El error estándar del estimado con base en la regresión
un polinomio de segundo grado por mı́nimos cuadrados es polinomial es [ecuación (24)]
equivalente a resolver un sistema de tres ecuaciones linea- q
les simultáneas. En la parte tres se estudiaron las técnicas S xy = 3,74657
6−3 = 1,12
para resolver tales ecuaciones.
El caso bidimensional se extiende con facilidad a un poli- El coeficiente de determinación es
nomio de m-ésimo grado como sigue
r2 = 2513,39−3,74657
2513,39 = 0,99851
y = α0+ + α1 x + α2 x2 + ... + αm xm + e
y el coeficiente de correlación es r = 0,99925.
El análisis anterior se puede extender fácilmente a este Estos resultados indican que con el modelo se explicó el
caso más general. Ası́, se reconoce que la determinación 99.851 % de la incertidumbre original. Este resultado apo-
de los coeficientes de un polinomio de m-ésimo grado es ya la conclusión de que la ecuación cuadrática represen-
equivalente a resolver un sistema de m+1 ecuaciones linea- ta un excelente ajuste, como también es evidente en la
les simultáneas. En este caso, el error estándar se formula figura ??
como sigue:
s
Sr
S xy =
n − (m + 1)
(24) 3. REGRESIÓN LINEAL MÚLTI-
PLE
Esta cantidad se divide entre n–(m+1), ya que (m+1)
coeficientes obtenidos de los datos, α0 , α1 , . . . , αm , se uti- Una extensión útil de la regresión lineal es el caso en
lizaron para calcular Sr ; hemos perdido m + 1 grados de el que y es una función lineal de dos o más variables in-
libertad. Además del error estándar, también se calcula un dependientes. Por ejemplo,y podrı́a ser una función lineal
coeficiente de determinación para la regresión polinomial de x1 y x2 , como en
con la ecuación (12).
y = α0 + α1 x1 + α2 x2 + e
EJEMPLO 5. Regresión polinomial
Planteamiento del problema. Ajustar a un polino- En particular tal ecuación es útil cuando se ajustan
mio de segundo grado los datos dados en las dos primeras datos experimentales donde la variable sujeta a estudio es
columnas de la tabla 4. una función de otras dos variables. En este caso bidimen-
sional, la “lı́nea” de regresión se convierte en un “plano”
Solución. A partir de los datos dados, (figura ??).
m=2
P
xi = 15
P
x4i = 979 Como en los casos anteriores, los “mejores” valores pa-
ra los coeficientes se determinan al realizar la suma de los
n=6
P
yi = 152,6
P
xi yi = 585,6 cuadrados de los residuos,
n
x2i = 55 x2i yi = 2488,8
P P
x̄ = 2,5
X
Sr = (yi − α0 − α1 x1i − α2 x2i )2 (25)
6 i=1
y derivando con respecto a cada uno de los coeficientes y = α0 xα1 α2 am
1 x2 ...xm
desconocidos,
Tales ecuaciones son extremadamente útiles cuando se
∂Sr P
∂α0 = −2 (yi − α0 − α1 x1i − α2 x2i ) ajustan datos experimentales. Para usar regresión lineal
múltiple, la ecuación se transforma al aplicar logaritmos:
∂Sr P
∂α1 = −2 x1i (yi − α0 − α1 x1i − α2 x2i )
log y = log α0 + α1 log x1 + α2 log x2 + ... + αm log xm
∂Sr P
∂α2 = −2 x2i (yi − α0 − α1 x1i − α2 x2i )
Esta transformación es similar a la que se usó en la
Los coeficientes que dan la suma mı́nima de los cuadra- sección 1.5 y en el ejemplo 4 para ajustar una ecuación de
dos de los residuos se obtienen al igualar a cero las deriva- potencias cuando y era una función de una sola variable x.
das parciales y expresando el resultado en forma matricial:
P P P
Pn P x21i P x2i α0 P y1i 4. MÍNIMOS CUADRADOS LI-
x1i
P x1i Px1i2x2i
α1 = x1i yi
NEALES EN GENERAL
P P
x2i x1i x2i x2i α2 x2i yi
(26)
Hasta aquı́ nos hemos concentrado en la mecánica para
obtener ajustes por mı́nimos cuadrados de algunas fun-
EJEMPLO 6. Regresión lineal múltiple ciones sencillas para datos dados. Antes de ocuparnos de
Planteamiento del problema. Los siguientes datos la regresión no lineal, hay varios puntos que nos gustarı́a
se calcularon con la ecuación y = 5 + 4x1 –3x2 : analizar para enriquecer nuestra comprensión del material
precedente.
Utilice la regresión lineal múltiple para ajustar estos
datos.
−B1 (56)
θ = arctan( ) (52) Estas ecuaciones sirven para encontrar los coeficientes
A1
desconocidos. Aunque, en lugar de hacer esto, se exami-
donde, si A1 < 0, sume π a θ. Si se elevan al cuadrado na el caso especial donde hay N observaciones espaciadas
y se suman las ecuaciones (51) llegarı́amos a de manera uniforme a intervalos ∆t y con una longitud
total T = (N –1)∆t. En esta situación, se determinan los
q
siguientes valores promedio (véase el problema 48):
C1 = A21 + B12 (53)
P P
sin(ω0 t) cos(ω0 t)
Ası́, la ecuación (50) representa una fórmula alter- =0 =0
N N
nativa de la ecuación (47) que también requiere cuatro P 2
cos2 (ω0 t)
P
parámetros; pero que se encuentra en el formato de un sin (ω0 t) 1 1
= = (57)
modelo lineal general [recuerde la ecuación (27)]. Como se N 2 N 2
P
analizará en la próxima sección, es posible aplicarlo sim- cos(ω0 t) sin(ω0 t)
plemente como base para un ajuste por mı́nimos cuadra- =0
N
dos. Sin embargo, antes de iniciar con la próxima sección, Ası́, para los puntos igualmente espaciados, las ecua-
se deberá resaltar que se puede haber empleado la función ciones normales se convierten en
seno en lugar de coseno, como modelo fundamental de la P
ecuación (47). Por ejemplo, N 0 0 A0 P y
0 N/2 0 A1 = P y cos(ω0 t)
0 0 N/2 B1 y sin(ω0 t)
f (t) = A0 + C1 sin(ω0 t + δ)
se pudo haber usado. Se aplican relaciones simples para La inversa de una matriz diagonal es simplemente otra
convertir una forma en otra: matriz diagonal, cuyos elementos son los recı́procos de la
matriz original. Ası́, los coeficientes se determinan como
π
sin(ω0 t + δ) = cos(ω0 t + δ − )
2 P
A0 N 0 0 P y
y A1 = 0 N/2 0 y cos(ω0 t)
π P
B1 0 0 N/2 y sin(ω0 t)
cos(ω0 t + θ) = sin(ω0 t + θ + ) (54)
2
o P
En otras palabras, θ = δ–π/2. La única consideración y
importante es que se debe usar una u otra forma de mane- A 0 = (58)
N
ra consistente. Aquı́, usaremos la versión coseno en todo 2 X
el análisis. A1 = y cos(ω0 t) (59)
13 N
2 X
B1 =
y sin(ω0 t) (60) p
N C1 = (0,5)2 + (−0,866)2 = 1,00
EJEMPLO 9. Ajuste por mı́nimos cuadrados a
cuyo resultado es
una sinusoide
y = 1,7 + cos(ω0 t + 1,0472)
Planteamiento del problema. La curva de la figura
48 se describe por y = 1,7 + cos(4,189t + 1,0472). Genere o, en forma alternativa, con seno utilizando la ecuación
10 valores discretos para esta curva a intervalos ∆t = 0,15 (54)
en el intervalo de t = 0 a t = 1,35. Utilice esta información y = 1,7 + sin(ω0 t + 2,618)
para evaluar los coeficientes de la ecuación (55) mediante
El análisis anterior se puede extender al modelo general
un ajuste por mı́nimos cuadrados.
14