Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción. Hay muchas situaciones donde se plantea la obtención de un cierto modelo ma-
temático lineal que ajuste a un conjunto de datos dados. Esto conduce usualmente a la resolución
de un sistema de ecuaciones lineales con más ecuaciones que incógnitas, o problema sobredeter-
minado, que casi siempre resulta ser incompatible. Para dichos sistemas se introduce un concepto
nuevo de solución (que coincide con el usual cuando el sistema es compatible), denominado so-
lución en el sentido de los mı́nimos cuadrados, determinando vectores que minimicen la norma
euclı́dea del correspondiente vector residual.
Problemas sobredeterminados. Cuando un sistema lineal tiene más ecuaciones que incógni-
tas es fácil que sea incompatible, esto es, que no posea solución.
Dada una matriz A real de orden m × n y un vector b ∈ Rm , si m > n se dice que el sistema
Ax = b es sobredeterminado. En la práctica es improbable que este sistema sea compatible.
Por ello, introducimos un nuevo concepto de solución: se dice que x̃ ∈ Rn es una solución en el
sentido de los mı́nimos cuadrados del sistema Ax = b si se verifica que
Por último, comentemos que si A no tiene rango máximo siempre existen vectores x ∈ Rn no
nulos tales que Ax = 0 (observe que este sistema es compatible indeterminado). En este caso,
1
si x̃ es solución de mı́nimos cuadrados también lo son x̃ + x, pues A(x̃ + x) = Ax̃. En cambio, si
A es una matriz m × n, con m > n y rg(A) = n, la solución de mı́nimos cuadrados sı́ es única.
Resumimos todo lo anterior en el siguiente resultado:
Nota 1. A las ecuaciones normales de Gauss también se llega sin necesidad de argumentos
geométricos. De hecho, la solución de mı́nimos cuadrados x̃ es un mı́nimo de la función f
definida en (1) y por tanto, el gradiente de esta función debe anularse en x̃:
f (x) = kb − Axk2 = (b−Ax)T (b−Ax) = xT AT Ax−2xT AT b+bT b ⇒ ∇f (x) = 2(AT Ax−AT b).
Las ecuaciones normales de Gauss están peor condicionadas que otros sistemas que tam-
bién permiten encontrar la solución de mı́nimos cuadrados, por lo que no conviene usarlas en
los problemas de mı́nimos cuadrados. En realidad, las técnicas eficientes para la resolución de
los problemas de mı́nimos cuadrados suelen basarse en transformar las ecuaciones normales
mediante ciertas factorizaciones matriciales que recordamos a continuación.
Descomposición QR de una matriz. Del mismo modo que el método de eliminación de Gauss
se traduce en la factorización LU de una matriz A, en la asignatura de Álgebra de primer curso
se mostró que cuando el método de ortogonalización de Gram-Schmidt se aplica a las columnas
de una matriz A, se obtiene otro tipo de factorización para dicha matriz:
A = QR,
donde Q es una matriz m × m ortogonal (esto es, Q−1 = QT o equivalentemente, las columnas
de Q son ortonormales), y R es una matriz m × n, de rango n, cuyas m − n últimas filas son
nulas, y sus n primeras filas forman una matriz cuadrada triangular superior.
2
involucra el producto por matrices ortogonales y este proceso conserva la norma matricial y el
número de condición.
No obstante, la obtención de la factorización QR tal como se mencionó en la asignatura de
Álgebra (a través del método de ortogonalización de Gram-Schmidt aplicado a las columnas de
la matriz A) es un método inestable numéricamente. A continuación, presentamos un método
para obtener dicha descomposición que no presenta esta dificultad.
Aplicando el teorema anterior, podemos determinar una matriz de Householder H1 (de orden
m) tal que la primera columna de H1 A tenga las componentes nulas por debajo de la diagonal:
(2) (2) (2)
a11 a12 . . . a1n
(2) (2)
(2)
0 a22 . . . a2n
H1 A = A = .
.. .. ..
. . .
(2) (2)
0 am2 . . . amn
3
Denotemos Q(1) = H1 . Ahora nos fijamos en la segunda columna de la matriz A(2) a partir de
la diagonal, en concreto en el vector
(2)
a22
..
b2 = . .
(2)
am2
Volvemos a aplicar el teorema anterior y obtenemos una matriz de Householder H f2 (de orden
m − 1) de modo que H f2 b2 tenga las componentes nulas por debajo de la primera. Por tanto si
definimos
(2) (2) (2) (2)
a11 a12 a13 . . . a1n
0 a(3) (3) (3)
a23 . . . a2n
T
22
1 0 (2) (3)
0 (3) (3)
H2 = , tenemos que H2 A = A = 0 a 33 . . . a 3n ,
0 H f2
..
.. .. ..
. . . .
(3) (3)
0 0 am3 . . . amn
y denotamos
Q(2) = H2 .
Si continuamos el proceso sucesivamente, obtenemos el siguiente resultado:
Teorema 5. Sea A una matriz real m × n, de rango r. Entonces, podemos factorizar la matriz
en la forma:
A = QR,
4
donde Q es una matriz m × m cuyas columnas son ortogonales, y R es una matriz m × n
trapezoidal superior de rango r.
Además, eliminando en Q las columnas nulas, puede obtenerse una factorización A = Q1 R1
tal que Q1 es una matriz m × r con columnas ortonormales y R1 es una matriz trapezoidal
superior r × n (este último tipo de factorizaciones QR se denominan factorizaciones QR nor-
malizadas o reducidas).
Comentemos, por último, que la descomposición QR puede obtenerse mediante el método
de Householder.
Para matrices de rango deficiente es estándar aceptar como solución la que se conoce como
solución óptima, que se define como la solución x∗ en el sentido de mı́nimos cuadrados de norma
mı́nima, es decir, kx∗ k ≤ kx̃k para toda solución de mı́nimos cuadrados x̃ de Ax = b.
El cálculo efectivo de la solución óptima pasa por la descomposición en valores singulares de
la matriz A. Antes de ver cómo se calcula la solución óptima x∗ , terminamos esta introducción
con un resultado de caracterización de la misma:
Teorema 6. Sea A matriz m × n con rg(A) = r < n ≤ m y b ∈ Rn .
Si x̃ es una solución de mı́nimos cuadrados del problema Ax = b, entonces el conjunto de
soluciones de mı́nimos cuadrados es
{y = x̃ + z|z ∈ Nul(A)}, donde Nul(A) = {z ∈ Rn |Az = 0}.
5
Definimos ahora las matrices:
y la matriz:
σ1 0 ... 0 0 ... 0
. . .. ..
0 σ2 . . .. . .
.. .. ..
. . . 0 0 ... 0
Σ1 O
Σ=
0 . . . 0 σr 0 ... 0 = O O
.
m×n
0 ... 0 0 0 ... 0
.. .. .. .. .. ..
. . . . . .
0 ... 0 0 0 ... 0
Entonces, se tiene que AV = U Σ, y por tanto, obtenemos la siguiente factorización de la matriz
A (conocida como descomposición en valores singulares, abreviada SVD del inglés singular value
decomposition):
A = U ΣV T .
El siguiente teorema recoge la existencia y unicidad de la factorización SVD:
Teorema 7. Sea A una matriz m × n con m ≥ n, y de rango r ≤ n. Entonces, existen dos
matrices ortogonales U m × m y V n × n, y otra matriz Σ m × n tales que
σ1 0 . . . 0
. . . ..
Σ1 O 0 σ .
T
A = U ΣV = U V T , donde Σ1 = . . 2 . ,
O O .. .. .. 0
0 . . . 0 σr
con σ1 ≥ . . . ≥ σr > 0. La matriz Σ está determinada de forma única. Los números σi son
necesariamente los valores singulares de A (las raı́ces cuadradas de los autovalores no nulos de
la matriz AT A).
Si tenemos la SVD para una matriz A m × n de rango r:
Σ1 O
A=U V T , Σ1 = diag(σ1 , . . . , σr ),
O O
6
Teorema 8. Sean A matriz m × n con (m ≥ n), y b ∈ Rm . Entonces el vector x∗ ∈ Rn es
la solución óptima del problema de mı́nimos cuadrados asociado al sistema Ax = b si y sólo si
x∗ = A+ b.
El método con el que hemos obtenido aquı́ la SVD no se debe emplear para su cálculo efectivo
en el ordenador. Hay otros procedimientos más eficaces que no serán tratados en este curso. Nos
bastará con saber que el costo de computacional es de
A = U ΣV T = σ1 u1 v1T + · · · + σr ur vrT ,
Este resultado permite definir lo que se conoce como rango aproximado de una matriz A: el
número de valores singulares mayores que una cierta magnitud prefijada.
7
bastante precisa desde un punto de vista gráfico. La matriz Ap puede ser guardada, transmitida
o procesada como
Ap ! [σ1 ; σ2 ; . . . ; σp ; u1 ; u2 ; . . . ; up ; v1 ; v2 ; . . . ; vp ],
en forma de p(m + n + 1) datos, en lugar de los mn iniciales (en la práctica, este tipo de matrices
sólo tiene unos pocos valores singulares significativos: por ejemplo, para m = n = 1000, una
aproximación de este tipo con p = 10 necesita 20010 datos (o sea, el 2 % de los datos iniciales
con un ahorro del 98 %).
OPTIMIZACIÓN NO LINEAL.
En las secciones anteriores se han resuelto dos problemas: determinar la solución en el sen-
tido de los mı́nimos cuadrados y obtener la solución óptima, que consisten en minimizar una
determinada función de varias variables. En el primer caso se trataba de la norma del vector
residuo y en el segundo caso se buscaba entre el conjunto de soluciones en el sentido de los
mı́nimos cuadrados el vector de norma mı́nima. En esta sección abordamos el problema más
general de minimizar una función de varias variables.
Un problema de optimización suele constar de dos componentes:
un conjunto de restricciones.
Sin embargo, los métodos que se desarrollan posteriormente se refieren únicamente a optimi-
zación sin restricciones, es decir, al caso en el que los conjuntos D e I son vacı́os. La optimización
con restricciones no se tratará en este curso, si bien el conocimiento de los conceptos y métodos
que a continuación se desarrollan es útil cuando se tratan de resolver problemas con restricciones.
En primer lugar, introduciremos conceptos y resultados elementales relativos a optimización.
Para ello consideremos el problema de optimización:
8
mı́n f (x).
x∈S⊂Rn
Un punto x∗ ∈ S se dice que es un mı́nimo global si f (x) ≥ f (x∗ ), ∀x ∈ S, en tanto que se dice
que es un mı́nimo local si ∃ > 0, tal que f (x) ≥ f (x∗ ), ∀x ∈ S que verifique ||x − x∗ || < .
De forma análoga se definen máximos locales y globales. La búsqueda de extremos globales
constituye la rama llamada optimización global.
Una de las propiedades que garantizan que todo mı́nimo local sea global es la convexidad. En
general se asume que el conjunto S donde se desea minimizar es convexo. Una función f : S → R,
donde S ⊂ Rn es no vacı́o y convexo, se dice que es convexa sobre S si:
Teorema.
El teorema anterior puede aplicarse al caso de máximos sin más que cambiar f por −f .
9
MÉTODOS DE DESCENSO DE MAYOR PENDIENTE Y DE NEWTON
El método del descenso más rápido. En este método, la dirección dk que se elige es la
de máximo decrecimiento de la función (que se produce, como ya se estudió en la asignatura de
Cálculo, en la dirección opuesta al gradiente de la función). Los métodos de descenso son, por
tanto, de la forma:
dk = −∇f (x(k) ).
Paso 3 (Cálculo del paso: búsqueda lineal). Encontramos un valor de paso tk > 0 apropiado,
que satisfaga
f (x(k) + tk dk ) < f (x(k) ).
Observemos que en el paso 1 se pueden utilizar otros criterios de parada como el número máximo
de iteraciones o ||f (x(k+1) − f (x(k) || < . Si en el Paso 3 se determina tk de forma que minimice
la función q(t) = f (x(k) + tdk ), se habla del método del descenso más rápido con búsqueda lineal
exacta. Sin embargo, este método, a pesar de gozar de propiedades teóricas de convergencia
en determinadas condiciones, suele ser muy lento en la práctica, de hecho sólo de convergencia
lineal. Realmente, descender por la dirección opuesta al gradiente impone pasos muy pequeños,
con lo que la sucesión suele ser zigzagueante. El método se deberı́a olvidar a no ser porque es la
base de todos los métodos que se utilizan actualmente.
10
aplicar un algoritmo de minimización para q en cada paso puede ser muy costoso en relación al
objetivo planteado.
Para evitar este problema se pueden utilizar algoritmos de búsqueda lineal imprecisa, en los
que se establece un test con tres opciones: dado un valor de t > 0, el test decide si: (a) t es
satisfactorio, (b) t es muy grande o, (c) t es muy pequeño.
Si el valor de t no es satisfactorio, se utiliza un método para calcular un nuevo valor de t
(por ejemplo, mediante bisección, utilizando un ajuste cúbico de la función q, etc.).
Para el test se han desarrollado distintas reglas de búsqueda, siendo la más usada la denomi-
nada regla de Wolfe: en primer lugar se escogen dos coeficientes 0 < m1 < 21 < m2 < 1 (valores
comunes para m1 y m2 son 0.001 y 0.9, respectivamente) y:
Las condiciones anteriores implican que la función f no decrezca demasiado (con lo que
x(k+1) no estará muy lejos de x(k) ) y que la derivada se incremente bastante (con lo que x(k+1)
no estará muy cerca de x(k) ).
11
Mı́nimos cuadrados no lineales: Gauss-Newton. Muchos problemas de optimización
consisten en ajustar una determinada función a un conjunto de datos: se pretende encontrar
aquella función que minimice la suma de los cuadrados de los residuos (diferencia entre el valor
teórico y el observado o experimental). En este apartado trataremos este tipo de problemas, el
de minimizar funciones f : Rn → R de la forma:
1
F12 (x) + · · · + Fm2 (x) .
f (x) =
2
Si definimos F : Rn → Rm : F (x) = (F1 (x), . . . , Fm (x))T , entonces
m
∂f (x) X ∂Fi (x)
= Fi (x) .
∂xj i=1
∂xj
Ası́: m
X
∇f (x) = ∇Fi (x)Fi (x) = JF (x)T F (x).
i=1
Derivando de nuevo, obtenemos
m m
∂ 2 f (x) X ∂Fi (x) ∂Fi (x) X ∂ 2 Fi (x)
= + Fi (x) ,
∂xk ∂xj i=1
∂xk ∂xj i=1
∂xk ∂xj
o matricialmente: m
X
T
Hf (x) = JF (x) JF (x) + Fi (x) HFi (x),
i=1
∂Fi (x)
donde JF (x) = ∂xj
denota a la matriz jacobiana de la función F.
ij
Si las funciones Fi (x) son casi lineales, o bien la solución en mı́nimos cuadrados proporciona
un buen ajuste y, por tanto, las Fi (x) son pequeñas, entonces el segundo sumando se puede
despreciar, con lo que nos resulta un método donde Hf (x) ≈ G(x) = JF (x)T JF (x). De esta
forma, la ecuación (2), en este caso particular, resulta:
JF (x(k) )T JF (x(k) ) dk = G(x(k) ) dk = −JF (x(k) )T F (x(k) )
cuya dirección dk es la dirección del método de Gauss-Newton en el paso k-ésimo. Observe que
el método de Gauss-Newton está bien definido siempre que G(x(k) ) sea definida positiva.
El método de Gauss-Newton es aplicable a la resolución de sistemas de ecuaciones no lineales:
cualquier solución del sistema
F1 (x1 , x2 , . . . , xn ) = 0
F2 (x1 , x2 , . . . , xn ) = 0
...
Fm (x1 , x2 , . . . , xn ) = 0
12
MÉTODOS CUASI-NEWTON
Ya comentamos anteriormente que uno de los inconvenientes del método de Newton es el alto
coste del cálculo del hessiano en cada iteración y la resolución del correspondiente sistema lineal
(2), que proporciona la dirección del método de Newton. Para solventar este inconveniente, una
posibilidad es sustituir la inversa del hessiano por una matriz a calcular en cada iteración:
Wk ≈ (Hf (x))−1 .
forzando ası́ a que Wk+1 actúe como (Hf (x))−1 en el subespacio de dimensión 1 determinado
por yk .
El primer método cuasi-Newton fue el llamado de Davidon-Fletcher-Powell (DFP) que tiene
la forma:
sk sTk Wk yk ykT Wk
Wk+1 = Wk + − .
ykT sk ykT Wk yk
Hoy en dı́a sin embargo, es más usado el método encontrado independientemente por Broy-
den, Fletcher, Goldfarb y Shanno (BFGS):
CUESTIONES
Ejercicio 1. Determinar la solución de mı́nimos cuadrados, vı́a las ecuaciones normales, de los
sistemas sobredeterminados
x 1 + x 2 = 0
3x1 − x2 = 0
−x1 + x2 = 1
, 4x1 + 2x2 = 2 .
x1 + x3 = 1
x2 = 1
x1 + x2 = 1
Ejercicio 2. Probar que los autovalores de toda matriz ortogonal son de módulo unidad. De-
mostrar que λ = −1 es siempre un autovalor de cualquier matriz de Householder. Interpretar
geométricamente este hecho, para las matrices de orden dos.
13
Ejercicio 3. Utilizando transformaciones de Householder, obtener una factorización QR de las
matrices
0 1 1 0 1 1
1 −1
A= , B = −1 1 1 ,
C= 0 0 1 .
1 0
0 1 0 1 2 1
Ejercicio 4. Obtener la descomposición en valores singulares de las matrices:
1 1 1 0.0 −1.6 0.6
1 1 1 1 0 0 0.0 1.2 0.8
A= 1 1 1 ,
B = −1 0 0 , C= 0.0
.
0.0 0.0
−1 1 0
1 1 1 0.0 0.0 0.0
Ejercicio 5. Aplicar el resultado del ejercicio anterior para encontrar la solución óptima del
problema de mı́nimos cuadrados Ax = b con b = [1, 2, 3, 4]T .
f (x, y) = 2(y − x2 )2 − 10
14
1. S1 = [−1, 1] × [−1, 1],
Ejercicio 11. Calcule analı́ticamente los puntos crı́ticos (donde el gradiente se anula) de las
funciones:
f (x, y) = x2 − xy + y 2 − 3y
mediante un paso del método de descenso de mayor pendiente con búsqueda lineal exacta y
partiendo del origen. Determinar el error cometido en norma euclı́dea.
Ejercicio 13. Obtener el punto resultante de aplicar búsqueda lineal, partiendo del punto (0, 0)
y con dirección (1, −1), a la función
Estimar el mı́nimo de f mediante un paso del método de Newton partiendo del punto (0, 3).
Calcular el error cometido en norma euclı́dea.
Ejercicio 15. Realizar búsqueda lineal exacta para la función f (x, y) = xy − 2x, partiendo de
(0, 0) y siguiendo la bisectriz de los cuatro cuadrantes.
Ejercicio 16. Estimar el mı́nimo de la función f (x, y) = x2 + y 2 , mediante un paso del método
de Newton, partiendo de (1, 3).
mediante un paso del método de Gauss-Newton sin búsqueda lineal y partiendo de (1, 0).
15
PROBLEMAS
Problema 1. Se desea ajustar a un conjunto de datos bidimensionales, Z = {(xi , yi ), i =
1, 2, . . . , n}, curvas polinómicas y trigonométricas mediante el método de los mı́nimos cuadrados.
1. Diseñe una función en Matlab que ajuste la función y = a1 sen(x) + a2 cos(x) +
a3 sen(2x) + a4 cos(2x), en el sentido de los mı́nimos cuadrados, al conjunto de puntos
Z, es decir, que encuentre los valores de los parámetros a1 , a2 , a3 , a4 que resuelven el sis-
tema sobredeterminado:
a1 sen(x1 ) + a2 cos(x1 ) + a3 sen(2x1 ) + a4 cos(2x1 ) = y1
a1 sen(x2 ) + a2 cos(x2 ) + a3 sen(2x2 ) + a4 cos(2x2 ) = y2
···
a1 sen(xn ) + a2 cos(xn ) + a3 sen(2xn ) + a4 cos(2xn ) = yn
16
1. ¿Cuál es el rango de A? Considere el vector b = [1, 1, 1, 1, 0]T . Estudie la compatibilidad del
sistema Ax = b. Resuelva el sistema con la orden \ de Matlab. Resuelva las ecuaciones
normales de Gauss. ¿Qué obtiene?
3. Genere matrices aleatorias An de orden n y vectores aleatorios bn ∈ Rn con n = 40, 80, 160,
320, 640 y calcule los tiempos de ejecución para resolver los problemas An x = bn ,
Escriba una tabla con los valores de n y los tiempos correspondientes, dibuje (de manera
aproximada) una gráfica en escala logarı́tmica y estime (también de manera aproximada)
el orden de los dos métodos. ¿Le parece razonable que el comando \ de Matlab no calcule
la solución óptima por defecto? Justifique su respuesta.
1. Localice y cargue el fichero binario clown.mat. Este fichero permite visualizar la fotografı́a
de un payaso. ¿Serı́a capaz de mostrar la foto solamente con tonalidades rosas? ¿y lograr
que mire hacia la izquierda? Utilizando la paleta de colores gray, proponga razonadamente
alguna operación matricial que oscurezca la foto.
2. Diseñe una función en Matlab que muestre gráficamente la aproximación a los k valores
singulares mayores de una cierta imagen digital. Los argumentos de entrada deben ser la
matriz dada, el número k y la matriz de la paleta de colores.
3. Ejecute la función anterior con la foto del payaso para diversos valores de k, usando como
paleta de colores gray. Proponga un valor de k lo más pequeño posible de modo que la
imagen aproximada del payaso reproduzca razonablemente la foto original. ¿Cómo elegirı́a
dicho valor k con medios puramente analı́ticos?
17
5. Suponga que se conoce la factorización SVD de una matriz que representa una foto digi-
tal. ¿Cómo podrı́a utilizar la factorización para distorsionar razonablemente la imagen?
Verifique su hipótesis con la fotografı́a del payaso.
dT d
t = T .
d Qd
3. Diseñe una función en Matlab que implemente el método de descenso con búsqueda
lineal exacta y tal que las iteraciones se paren cuando la tolerancia tomada como la nor-
ma euclı́dea de la diferencia de dos puntos consecutivos sea menor que un cierto valor.
Los argumentos de entrada deben ser la matriz Q, el vector b, el vector inicial x(0) y la
tolerancia.
4. Utilizando la función anterior, partiendo del origen y con tolerancia 10−3 , 10−4 estime el
mı́nimo global de f . ¿Cuántas iteraciones fueron necesarias en ambos casos? ¿era previsible
dicho número?
18
2. Utilizando las ordenes meshgrid y contour, obtenga un esquema de las curvas de nivel
de la función anterior en el rectángulo [−2, 2] × [−1, 3]. ¿Por qué cree que se considera
a esta función un buen test para medir la eficiencia de algoritmos de optimización sin
restricciones?
3. Partiendo del punto (−1.9, 2), aplique la orden fminsearch para estimar el mı́nimo de
f , primero sin imponer vector de opciones y después exigiendo que la terminación por
tolerancia en el vector sea 10−8 . Repita el proceso pero partiendo ahora del punto (1.9, 2).
5. Diseñe una función que implemente el método de Newton en la que los argumentos de
entrada sean la función, el punto inicial y la tolerancia y los de salida, la aproximación
al mı́nimo y el número de iteraciones. Aplique dicha función al cálculo del mı́nimo de la
función de Rosenbrock.
Determine y clasifique los extremos locales y globales. ¿Dónde es convexa esta función?
Efectúe un paso del método del descenso más rápido con búsqueda lineal exacta partiendo
del origen y obtenga el error cometido.
19
Ejercicio 4. Utilizando matrices de Householder, obtenga una factorización QR de
3 4 −4
A = 0 0 −1 .
0 −4 4
demuestre que tiene un único mı́nimo global y halle el punto en el que se alcanza. Aproxime
este punto mediante un paso del método del descenso más rápido con búsqueda lineal exacta,
partiendo del punto (−1, 1).
f (x, y) = x3 + kxy + y 2 − x
2. Realice un paso del método de descenso de mayor pendiente con búsqueda lineal exacta,
partiendo del punto (x0 , y0 ) = (0, −1). Compare los valores de f (x, y) en los tres puntos:
(x, y), (x0 , y0 ) y el hallado (x1 , y1 ).
3. Determine la dirección de búsqueda para la cual, realizando un único paso con búsqueda
lineal exacta, partiendo del punto (x0 , y0 ) = (0, −1), obtenemos el valor mı́nimo exacto.
¿Cuál es el valor del paso?
20
2
(b) Calcule una matriz de Householder que transforme el vector x = 0 en el vector y =
1
0
2 .
−1
Ejercicio 3. Calcule todas las soluciones en el sentido de los mı́nimos cuadrados del sistema
x1 − x2 = 4
A= 2x1 − 2x2 = 3
−x1 + x2 = −2
(3) Efectúe un paso del método del descenso más rápido con búsqueda lineal exacta partiendo
del punto (0, 23 ).
(1) Encuentre las ecuaciones normales de Gauss del sistema de ecuaciones Ax = b y resuélvalas.
(2) Calcule las soluciones en el sentido de los mı́nimos cuadrados del sistema Ax = b utilizando
el método de Householder.
21
Ejercicio 4. Considere la función
f (x, y, x) = x3 + y 3 + z 3 − 3x − 3y − 3z.
(x, y, z) ∈ R3 : x ≥ 0, y ≥ 0, z ≥ 0 .
(2) Obtener todos sus puntos crı́ticos, y demostrar que sólo uno de ellos es un mı́nimo local.
(3) Dar un paso del método de descenso partiendo del origen, con búsqueda lineal exacta.
(3) Efectuar un paso del método de descenso más rápido con búsqueda lineal exacta, partiendo
de (x0 , y0 ) = (0, 1). Determinar el error absoluto de la aproximación obtenida.
Efectúe un paso del método de Gauss-Newton, partiendo del punto (x0 , y0 ) = (1, 1).
22
Examen Final. Curso 2010-2011.
Ejercicio 3. Considere la matriz y el vector siguientes:
1 −1 −1 0
A= 2 0 1 , b = 4 .
−2 7 1 −7
Ejercicio 4.
Demuestre que la función f tiene un mı́nimo global único y calcule el punto en el que se alcanza.
Aproxime este punto realizando un paso del método de descenso más rápido con búsqueda lineal
exacta partiendo del punto (1, 1). ¿Qué obtiene? ¿Por qué?
23