Está en la página 1de 328

An

alisis de sistemas
din
amicos lineales

An
alisis de sistemas
din
amicos lineales
Oscar G. Duarte V.
Profesor asociado del Departamento de
Ingeniera Electrica y Electr
onica

A quienes trabajan por la


democratizaci
on del conocimiento

Contenido
Contenido

IX

Lista de figuras

XV

Lista de tablas

XXI

Prefacio

XXIII

1. Introducci
on al modelamiento de sistemas
1.1. Conceptos preliminares . . . . . . . . . . . . . . .
1.1.1. Sistemas . . . . . . . . . . . . . . . . . . .
1.1.2. Se
nales . . . . . . . . . . . . . . . . . . .
1.1.3. Modelos . . . . . . . . . . . . . . . . . . .
1.1.4. Construcci
on de los modelos matem
aticos
1.1.5. Clasificaci
on de los modelos matem
aticos
1.1.6. Modelos matem
aticos a utilizar . . . . . .
1.2. Sistemas fsicos . . . . . . . . . . . . . . . . . . .
1.3. Grafos de enlaces de potencia
Bond Graphs . . . . . . . . . . . . . . . . . . .
1.3.1. Elementos b
asicos . . . . . . . . . . . . .
1.3.2. Causalidad . . . . . . . . . . . . . . . . .
1.3.3. Obtenci
on de las ecuaciones . . . . . . . .
1.3.4. Procedimientos especficos . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

1
1
1
2
2
3
4
8
9

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

11
11
17
18
20

2. Preliminares matem
aticos
2.1. Ecuaciones diferenciales y de diferencia . . . . . . . . . . .
2.1.1. Ecuaciones diferenciales . . . . . . . . . . . . . . .
2.1.2. Ecuaciones de diferencias finitas . . . . . . . . . .
2.1.3. Ecuaciones diferenciales y de diferencias lineales .
2.1.4. Metodos de soluci
on de E.D. lineales . . . . . . . .
2.2. Transformadas de Laplace y Z . . . . . . . . . . . . . . .
2.2.1. Definiciones . . . . . . . . . . . . . . . . . . . . . .
2.2.2. Propiedades . . . . . . . . . . . . . . . . . . . . . .
2.2.3. Parejas de transformadas . . . . . . . . . . . . . .
2.2.4. Utilizaci
on de la tabla de parejas de transformadas

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

21
21
21
22
23
24
27
27
29
31
32

ix

OSCAR G. DUARTE

2.2.5. Transformadas inversas por expansi


on de fracciones parciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3. Soluci
on de E.D. lineales mediante
transformadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3. Introducci
on al an
alisis de sistemas din
amicos
3.1. Respuestas de estado cero y de entrada cero . .
3.1.1. Sistemas continuos . . . . . . . . . . . .
3.1.2. Sistemas discretos . . . . . . . . . . . .
3.2. Funciones de transferencia . . . . . . . . . . . .
3.3. Diagramas de bloques . . . . . . . . . . . . . .
3.4. Diagramas de flujo de se
nal . . . . . . . . . . .
3.4.1. Regla de Mason . . . . . . . . . . . . .
3.5. Respuesta al impulso . . . . . . . . . . . . . . .
3.5.1. Caso discreto . . . . . . . . . . . . . . .
3.5.2. Caso continuo . . . . . . . . . . . . . . .

lineales
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .

4. Sistemas de primer y segundo orden


4.1. Sistemas continuos de primer orden . . . . . . . . .
4.2. Sistemas discretos de primer orden . . . . . . . . .
4.3. Sistemas continuos de segundo orden . . . . . . . .
4.3.1. Regi
on de estabilidad . . . . . . . . . . . .
4.3.2. Regi
on de tiempo m
aximo de asentamiento
4.3.3. Regi
on de frecuencia m
axima de oscilaci
on
4.3.4. Regi
on de sobrepico m
aximo . . . . . . . .
4.3.5. Regi
on de dise
no . . . . . . . . . . . . . . .
4.4. Sistemas discretos de segundo orden . . . . . . . .
4.4.1. Regi
on de estabilidad . . . . . . . . . . . .
4.4.2. Regi
on de tiempo m
aximo de asentamiento
4.4.3. Regi
on de Frecuencia m
axima de oscilaci
on
4.4.4. Regi
on de sobrepico m
aximo . . . . . . . .
4.4.5. Regi
on de dise
no . . . . . . . . . . . . . . .
4.5. Efecto de los ceros. Sistemas de fase mnima . . . .
4.6. Polos dominantes . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

39

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

43
43
43
45
47
48
48
52
55
56
59

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

65
66
68
70
71
73
73
75
76
78
80
80
82
82
83
83
87

5. Sistemas realimentados simples


5.1. Tipo de sistema y error de
estado estacionario . . . . . . . . . . . . . . . . . . . . . . .
5.1.1. Caso continuo . . . . . . . . . . . . . . . . . . . . . .
5.1.2. Caso discreto . . . . . . . . . . . . . . . . . . . . . .
5.2. Estabilidad y criterios de estabilidad en sistemas continuos
5.2.1. Arreglo y criterio de Routh-Hurwitz . . . . . . . . .
5.2.2. Lugar geometrico de las races . . . . . . . . . . . .
5.2.3. Diagramas y criterio de Bode . . . . . . . . . . . . .
5.2.4. Diagrama y criterio de Nyquist . . . . . . . . . . . .
5.3. Estabilidad y criterios de estabilidad en sistemas discretos .
x

36

89
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

91
91
92
93
94
101
107
112
122

CONTENIDO

5.3.1.
5.3.2.
5.3.3.
5.3.4.
5.3.5.

Transformaci
on bilineal . . . .
Arreglo y criterio de Jury . . .
Lugar geometrico de las races
Diagramas y criterio de Bode .
Diagrama y criterio de Nyquist

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

6. Representaci
on en variables de estado
6.1. Introducci
on . . . . . . . . . . . . . . . . .
6.2. Algunos resultados de a
lgebra lineal . . . .
6.2.1. Espacios vectoriales . . . . . . . . .
6.2.2. Valores y vectores propios . . . . . .
6.2.3. Forma can
onica de Jordan . . . . . .
6.2.4. Funciones de matrices cuadradas . .
6.3. Variables de estado . . . . . . . . . . . . . .
6.3.1. El concepto de estado . . . . . . . .
6.3.2. Representaci
on de estado a partir de
6.4. Sistemas continuos libres . . . . . . . . . . .
6.4.1. Retratos de fase . . . . . . . . . . .
6.4.2. Espacio de estado . . . . . . . . . .
6.4.3. Matriz de transici
on de estado . . .
6.5. Sistemas discretos libres . . . . . . . . . . .
6.5.1. Matriz de transici
on de estado . . .
6.6. Sistemas continuos excitados . . . . . . . .
6.6.1. Matriz de funciones de transferencia
6.6.2. Variables de estado en el tiempo . .
6.7. Sistemas discretos excitados . . . . . . . . .
6.7.1. Matriz de funciones de transferencia
6.7.2. Variables de estado en el tiempo . .
6.8. Introducci
on al control por
variable de estado . . . . . . . . . . . . . .
6.8.1. Controlabilidad . . . . . . . . . . . .
6.8.2. Observabilidad . . . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
E.D.
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

122
124
128
129
133

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

137
137
140
140
144
146
154
157
159
163
165
172
176
180
181
183
183
184
185
185
186
186

. . . . . . . . . . . . 187
. . . . . . . . . . . . 190
. . . . . . . . . . . . 191

7. Introducci
on a los sistemas no lineales
7.1. Perdida de superposicici
on y proporcionalidad .
7.2. M
ultiples puntos de equilibrio . . . . . . . . . .
7.3. Estabilidad local . . . . . . . . . . . . . . . . .

7.4. Orbitas
peri
odicas no sinusoidales . . . . . . . .
7.5. Ciclos lmite . . . . . . . . . . . . . . . . . . . .

7.6. Orbitas
homoclnicas . . . . . . . . . . . . . . .
7.7. Bifurcaciones . . . . . . . . . . . . . . . . . . .
7.8. Comportamientos ca
oticos . . . . . . . . . . . .
xi

.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

195
197
199
201
201
203
204
205
206

OSCAR G. DUARTE

A. Demostraciones de las Transformadas de Laplace y Z


A.1. Propiedades de la Transformada
de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . .
A.1.1. Linealidad: . . . . . . . . . . . . . . . . . . . . .
A.1.2. Diferenciaci
on: . . . . . . . . . . . . . . . . . . .
A.1.3. Desplazamiento en la frecuencia: . . . . . . . . .
A.1.4. Multiplicaci
on por t: . . . . . . . . . . . . . . . .
A.1.5. Teorema de valor inicial: . . . . . . . . . . . . . .
A.1.6. Teorema de valor final: . . . . . . . . . . . . . . .
A.1.7. Convoluci
on: . . . . . . . . . . . . . . . . . . . .
A.1.8. Desplazamiento en el tiempo: . . . . . . . . . . .
A.2. Propiedades de la transformada Z . . . . . . . . . . . .
A.2.1. Linealidad: . . . . . . . . . . . . . . . . . . . . .
A.2.2. Diferencia positiva: . . . . . . . . . . . . . . . . .
A.2.3. Escalamiento en la frecuencia: . . . . . . . . . . .
A.2.4. Multiplicaci
on por k: . . . . . . . . . . . . . . . .
A.2.5. Teorema de valor inicial: . . . . . . . . . . . . . .
A.2.6. Teorema de valor final: . . . . . . . . . . . . . . .
A.2.7. Convoluci
on: . . . . . . . . . . . . . . . . . . . .
A.3. Parejas de transformadas de Laplace . . . . . . . . . . .
A.3.1. Escal
on unitario . . . . . . . . . . . . . . . . . .
A.3.2. Exponenciales . . . . . . . . . . . . . . . . . . . .
A.3.3. Sinusoides . . . . . . . . . . . . . . . . . . . . . .
A.3.4. Sinusoides amortiguadas . . . . . . . . . . . . . .
A.3.5. Rampas, par
abolas y monomios de t . . . . . . .
A.3.6. Exponenciales por tn . . . . . . . . . . . . . . . .
A.3.7. Sinusoides por t . . . . . . . . . . . . . . . . . . .
A.3.8. Sinusoides amortiguadas multiplicadas por t . . .
A.4. Parejas de transformadas Z . . . . . . . . . . . . . . . .
A.4.1. Escal
on unitario . . . . . . . . . . . . . . . . . .
A.4.2. Series geometricas . . . . . . . . . . . . . . . . .
A.4.3. Sinusoides . . . . . . . . . . . . . . . . . . . . . .
A.4.4. Sinusoides amortiguadas . . . . . . . . . . . . . .
A.4.5. Rampas, y monomios de k . . . . . . . . . . . . .
A.4.6. Series geometricas por k n . . . . . . . . . . . . .
A.4.7. Sinusoides por k . . . . . . . . . . . . . . . . . .
A.4.8. Sinusoides amortiguadas por k . . . . . . . . . .

209
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

209
209
210
211
212
213
213
214
215
215
216
216
218
218
219
219
220
221
221
221
221
222
222
223
223
223
223
223
224
224
226
226
226
227
228

B. Diagramas de Bode para sistemas continuos


229
B.1. Definici
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
B.2. Construcci
on de los diagramas de Bode . . . . . . . . . . . . . . 230
C. Carta de Nichols
235
C.1. M -circunferencias . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
C.2. N -circunferencias . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
C.3. Carta de Nichols . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
xii

CONTENIDO

D. Apuntes de
algebra lineal
D.1. Espacios vectoriales . . . . . . . . . . . . . . . . . .
D.1.1. Estructuras algebr
aicas b
asicas . . . . . . . .
D.1.2. Definici
on de espacio vectorial . . . . . . . .
D.1.3. Bases . . . . . . . . . . . . . . . . . . . . . .
D.1.4. Cambio de base . . . . . . . . . . . . . . . . .
D.2. Transformaciones lineales . . . . . . . . . . . . . . .
D.2.1. Transformaciones y cambios de base . . . . .
D.3. Normas de vectores y matrices . . . . . . . . . . . .
D.4. Sistemas de ecuaciones algebr
aicas . . . . . . . . . .
D.5. Valores y vectores propios . . . . . . . . . . . . . . .
D.5.1. Valores propios diferentes . . . . . . . . . . .
D.5.2. Valores propios repetidos . . . . . . . . . . .
D.5.3. Obtenci
on de vectores propios generalizados .
D.6. Forma can
onica de Jordan . . . . . . . . . . . . . . .
D.7. Forma can
onica real de Jordan . . . . . . . . . . . .
D.7.1. Bloques de Jordan de tama
no 1 . . . . . . . .
D.7.2. Bloques de Jordan de tama
no mayor que 1 .
D.8. Funciones de matrices cuadradas . . . . . . . . . . .
D.8.1. Polinomios de matrices . . . . . . . . . . . .
D.8.2. Funciones como series de potencias . . . . . .
D.8.3. Definici
on de funciones mediante polinomios .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

239
239
239
241
242
245
247
248
250
255
261
264
267
273
278
280
280
282
282
282
285
287

Bibliografa

295

Indice analtico

297

xiii

OSCAR G. DUARTE

xiv

Lista de figuras
1.1. Sistema y Se
nales . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Sistemas y Modelos . . . . . . . . . . . . . . . . . . . . . . .
1.3. Construcci
on de Modelos . . . . . . . . . . . . . . . . . . .
1.4. Clasificaci
on de los Modelos Matem
aticos de Sistemas . . .
1.5. Sistema Din
amico Continuo . . . . . . . . . . . . . . . . . .
1.6. Sistema Din
amico Discreto . . . . . . . . . . . . . . . . . .
1.7. Elementos de un puerto para grafos de enlaces de potencia .
1.8. Elementos de dos puertos para grafos de enlaces de potencia
1.9. Elementos multipuerto para grafos de enlaces de potencia .
1.10. Grafos de enlace de potencia. Diagrama del ejemplo 1.1 . .
1.11. Grafos de enlace de potencia. Esquema del ejemplo 1.1 . . .
1.12. Grafo de enlaces de potencia del ejemplo 1.1 . . . . . . . . .
1.13. Enlaces con marcas de causalidad . . . . . . . . . . . . . . .
1.14. Grafo causal de enlaces de potencia del ejemplo 1.1 . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.

2
3
4
5
8
8
13
13
14
15
15
16
17
19

Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . .
Transformada Z . . . . . . . . . . . . . . . . . . . . . . . . . . .
Funciones contnuas seg
un la ubicaci
on de sus polos en el plano s
Funciones discretas seg
un la ubicaci
on de sus polos en el plano s

28
29
34
34

3.1. Sistema Din


amico Continuo . . . . . . . . . . . . . . . . . . . . .
3.2. Sistema Din
amico Discreto . . . . . . . . . . . . . . . . . . . . .
3.3. Diagrama de bloques mnimo . . . . . . . . . . . . . . . . . . . .
3.4. Diagrama de flujo de se
nal mnimo . . . . . . . . . . . . . . . . .
3.5. Equivalencias de los Diagramas de Bloques . . . . . . . . . . . .
3.6. Diagrama de Bloques del ejemplo 3.1 . . . . . . . . . . . . . . . .
3.7. Soluci
on del ejemplo 3.1 . . . . . . . . . . . . . . . . . . . . . . .
3.8. Equivalencias de los Diagramas de de Flujo de Se
nal . . . . . . .
3.9. Definiciones de Diagramas de Flujo de Se
nal . . . . . . . . . . . .
3.10. Diagrama de Flujo de Se
nal del ejemplo 3.3 . . . . . . . . . . . .
3.11. Funci
on Impulso Unitario discreto . . . . . . . . . . . . . . . . .
3.12. Sistema Din
amico Discreto estimulado con el impulso unitario . .
3.13. Relaci
on entre la respuesta al impulso y la funci
on de transferencia. Caso discreto . . . . . . . . . . . . . . . . . . . . . . . . . . .

43
45
47
47
49
50
51
52
53
54
56
56

2.1.
2.2.
2.3.
2.4.

xv

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

57

OSCAR G. DUARTE

3.14. Respuesta al Impulso discreto . . . . . . . . . . . . . . . . . . . .


3.15. Descomposici
on de una se
nal discreta . . . . . . . . . . . . . . .
3.16. Funci
on d . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.17. Funci
on Impulso Unitario Continuo . . . . . . . . . . . . . . . . .

3.18. Area
bajo la curva f (t)d . . . . . . . . . . . . . . . . . . . . . .
3.19. Sistema Din
amico Contnuo estimulado con el impulso unitario .
3.20. Relaci
on entre la respuesta al impulso y la funci
on de transferencia. Caso contnuo . . . . . . . . . . . . . . . . . . . . . . . . . .

58
60
61
61
62
62

4.1. Respuesta al paso de un sistema continuo de primer orden . . . .


4.2. Regiones de estabilidad e inestabilidad para un sistema continuo
de primer orden . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3. Respuesta al paso de un sistema continuo de primer orden, polo
negativo en a . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4. Regi
on de tiempo de asentamiento m
aximo para un sistema continuo de primer orden . . . . . . . . . . . . . . . . . . . . . . . .
4.5. Respuesta al paso de un sistema discreto de primer orden . . . .
4.6. Regiones de estabilidad e inestabilidad para un sistema discreto
de primer orden . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.7. Regiones de tiempo de asentamiento m
aximo para un sistema
discreto de primer orden . . . . . . . . . . . . . . . . . . . . . . .
4.8. Ubicaci
on de los polos de un sistema continuo de segundo orden,
con polos complejos . . . . . . . . . . . . . . . . . . . . . . . . .
4.9. Respuesta al paso de un sistema continuo de segundo orden, wn = 1
4.10. Respuesta al paso de un sistema continuo de segundo orden, = 0.5
4.11. Respuesta al paso de un sistema continuo de segundo orden . . .
4.12. Regi
on de Estabilidad para un sistema continuo de segundo orden
4.13. Regi
on de Tiempo m
aximo de asentamiento para un sistema continuo de segundo orden . . . . . . . . . . . . . . . . . . . . . . .
4.14. Regi
on de Frecuencia m
axima de oscilaci
on para un sistema continuo de segundo orden . . . . . . . . . . . . . . . . . . . . . . .
4.15. Sobrepico en funci
on de . . . . . . . . . . . . . . . . . . . . . .
4.16. Sobrepico en funci
on de . . . . . . . . . . . . . . . . . . . . . .
4.17. Regi
on de Sobrepico m
aximo para un sistema continuo de segundo orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.18. Regi
on de Dise
no para un sistema continuo de segundo orden . .
4.19. Ubicaci
on de los polos de un sistema discreto de segundo orden,
con polos complejos . . . . . . . . . . . . . . . . . . . . . . . . .
4.20. Respuesta al paso de un sistema discreto de segundo orden, a =
1.2, b = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.21. Respuesta al paso de un sistema discreto de segundo orden, a = 3,
b = 0.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.22. Regi
on de Estabilidad para un sistema discreto de segundo orden
4.23. Regi
on de tiempo de asentamiento m
aximo para un sistema discreto de segundo orden . . . . . . . . . . . . . . . . . . . . . . . .

66

xvi

63

67
67
68
69
69
70
71
72
72
72
73
74
74
76
77
77
78
79
80
81
81
82

LISTA DE FIGURAS

4.24. Regi
on de Frecuencia m
axima de oscilaci
on para un sistema discreto de segundo orden . . . . . . . . . . . . . . . . . . . . . . . .
4.25. Curvas de Amortiguamiento fijo para un sistema discreto de segundo orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.26. Regi
on de Amortiguamiento mnimo para un sistema discreto de
segundo orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.27. Regi
on de Dise
no para un sistema discreto de segundo orden . .
4.28. Respuesta al paso de un sistema continuo de segundo orden, con
cero real b = = 1 . . . . . . . . . . . . . . . . . . . . . . . . . .
4.29. Sistema continuo de orden 4 con polos dominantes . . . . . . . .

83
84
84
85
86
87

5.1. Sistema continuo retroalimentado simple . . . . . . . . . . . . . . 89


5.2. Sistema discreto retroalimentado simple . . . . . . . . . . . . . . 90
5.3. Arreglo de Routh. Primeras dos lneas . . . . . . . . . . . . . . . 95
5.4. Arreglo de Routh. Dos lneas genericas . . . . . . . . . . . . . . . 95
5.5. Arreglo de Routh del ejemplo 5.4. Primeras dos lneas . . . . . . 96
5.6. Arreglo de Routh del ejemplo 5.4 . . . . . . . . . . . . . . . . . . 96
5.7. Arreglo de Routh del ejemplo 5.5 . . . . . . . . . . . . . . . . . . 97
5.8. Arreglo de Routh del ejemplo 5.6 . . . . . . . . . . . . . . . . . . 98
5.9. Arreglo de Routh del ejemplo 5.7 . . . . . . . . . . . . . . . . . . 99
5.10. Arreglo de Routh con cero en la primera columna. Arreglo incompleto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.11. Arreglo de Routh con cero en la primera columna. Aproximaci
on 100
5.12. Arreglo de Routh con cero en la primera columna. Arreglo completo100
5.13. Arreglo de Routh con terminaci
on prematura. Arreglo incompleto 100
5.14. Arreglo de Routh con terminaci
on prematura. Arreglo completo . 101
5.15. Root-ocus (en rojo) y root-locus complementario (en azul) del
ejemplo 5.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5.16. Diagramas de Root Locus para el ejemplo 5.10 . . . . . . . . . . 104
5.17. Root-locus (en rojo) y root-locus complementario (en azul) del
ejemplo 5.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
5.18. Relaci
on entre el root-locus y los diagramas de Bode . . . . . . . 110
5.19. Diagramas de Bode para un ejemplo . . . . . . . . . . . . . . . . 111
5.20. Determinaci
on gr
afica del valor de una funci
on de transferencia
racional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
5.21. Plano s y Plano F . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.22. Plano s y Plano F en una trayectoria cerrada que no encierra el
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.23. Plano s y Plano F en una trayectoria cerrada que encierra el cero 116
5.24. Plano s y Plano F en una trayectoria cerrada que no encierra el
polo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.25. Plano s y Plano F en una trayectoria cerrada que encierra el polo 117
5.26. Trayectoria de Nyquist para el caso general . . . . . . . . . . . . 118
5.27. Trayectoria de Nyquist con polos en el eje imaginario . . . . . . . 118
5.28. Diagrama de Nyquist . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.29. Diagrama de Nyquist para el ejemplo 5.13 . . . . . . . . . . . . . 121
xvii

OSCAR G. DUARTE

5.30. Transformaci
on Bilineal . . . . . . . . . . . . . . . . . . . . . . .
5.31. Arreglo de Routh para el sistema transformado . . . . . . . . . .
5.32. Arreglo de Jury. Primeras dos lneas . . . . . . . . . . . . . . . .
5.33. Arreglo de Jury del ejemplo 5.15. Primeras dos lneas . . . . . .
5.34. Arreglo de Jury del ejemplo 5.15. Primeras cuatro lneas . . . . .
5.35. Arreglo de Jury del ejemplo 5.15. Arreglo completo . . . . . . . .
5.36. root-locus (en rojo) y root-locus complementario (en azul) para
el ejemplo 5.18 . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.37. Relaci
on entre el root-locus y los diagramas de Bode para el caso
discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.38. Diagramas de Bode para el ejemplo 5.19 . . . . . . . . . . . . . .
5.39. Trayectoria de Nyquist para el caso discreto general . . . . . . .
5.40. Trayectoria de Nyquist para el caso discreto con polos en la circunferencia unitaria . . . . . . . . . . . . . . . . . . . . . . . . .
5.41. Diagrama de Nyquist para el ejemplo 5.20 . . . . . . . . . . . . .
6.1.
6.2.
6.3.
6.4.
6.5.

Sistema Continuo de m
ultiples entradas y m
ultiples salidas . . .
Sistema Discreto de m
ultiples entradas y m
ultiples salidas . . . .
Cambio de base de un Vector . . . . . . . . . . . . . . . . . . . .
Diagrama de Matthew vacio simple . . . . . . . . . . . . . . . . .
Diagrama de Bloques de un sistema contnuo en representaci
on
de espacio de Estado . . . . . . . . . . . . . . . . . . . . . . . . .
6.6. Diagrama de Bloques de un sistema discreto en representaci
on de
espacio de Estado . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.7. Circuito RLC serie . . . . . . . . . . . . . . . . . . . . . . . . . .
6.8. Motor DC controlado por campo . . . . . . . . . . . . . . . . . .
6.9. Construcci
on de una trayectoria en el Plano de Fase . . . . . . .
6.10. Retrato de Fase . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.11. Retratos de Fase Estables tpicos . . . . . . . . . . . . . . . . . .
6.12. Retratos de Fase Inestables tpicos . . . . . . . . . . . . . . . . .
6.13. Ejemplos Retratos de Fase . . . . . . . . . . . . . . . . . . . . . .
6.14. Retrato de Fase de un Ejemplo . . . . . . . . . . . . . . . . . . .
6.15. Retrato de Fase de un Ejemplo en la base de los vectores propios
6.16. Realimentaci
on por Variable de Estado . . . . . . . . . . . . . . .
6.17. Realimentaci
on por Variable de Estado de un sistema contnuo .
6.18. Realimentaci
on por Variable de Estado de un sistema discreto . .
6.19. Circuito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.20. Realimentaci
on por Variable de Estado con Observador . . . . .
7.1.
7.2.
7.3.
7.4.
7.5.
7.6.

No Linealidades Est
aticas m
as frecuentes . . . . . . . . . . . . .
Sistema No Lineal con dos entradas escal
on . . . . . . . . . . . .
Sistema No Lineal con una entrada escal
on y una sinusoide . . .
Diagrama del pendulo simple . . . . . . . . . . . . . . . . . . . .
Retrato de Fase del pendulo simple con a = b = 1 . . . . . . . . .
Retrato de Fase del pendulo simple alrededor de un punto de
equilibrio del tipo sif
on . . . . . . . . . . . . . . . . . . . . . . . .
xviii

123
124
125
126
126
126
130
131
132
133
134
136
138
138
143
151
158
159
160
161
173
173
174
175
177
180
181
188
188
189
191
192
196
198
198
200
200
202

LISTA DE FIGURAS

7.7. Retrato de Fase del pendulo simple alrededor de un punto de


equilibrio del tipo punto de silla . . . . . . . . . . . . . . . . . . .
7.8. Retrato de Fase del Sistema de Lotka-Volterra . . . . . . . . . .
7.9. Retrato de Fase del Oscilador de Van der Pol con = 1 . . . . .
7.10. Retrato de Fase del Oscilador de Duffing con k = 0 . . . . . . . .
7.11. Funci
on discreta que origina un sistema ca
otico . . . . . . . . . .
7.12. Respuesta de un sistema discreto ca
otico a tres entradas diferentes: xa = 0.445 + 1 1011 (negro), xb = 0.445 + 3 1011 (azul)
y xc = 0.445 + 5 1011 (rojo) . . . . . . . . . . . . . . . . . . . .
B.1. Resumen de los diagramas de Bode aproximados para sistemas
continuos de primer orden (los cuatro primeros casos son exactos)
B.2. Resumen de los diagramas de Bode aproximados para sistemas
continuos de segundo orden . . . . . . . . . . . . . . . . . . . . .
B.3. Diagrama de Bode de magnitud para un sistema continuo de
segundo orden con distintos factores de amortiguamiento . . . . .
B.4. Diagrama de Bode de fase para un sistema continuo de segundo
orden con distintos factores de amortiguamiento . . . . . . . . .

202
203
204
205
207

207
231
232
233
234

C.1. Diagrama de Nichols en coordenadas rectangulares . . . . . . . . 238


C.2. Diagrama de Nichols en coordenadas polares . . . . . . . . . . . 238
D.1. Cambio de base de un Vector . . . . . . . . . . . . . . . . . . . .
D.2. Rotaci
on de 90o en sentido horario . . . . . . . . . . . . . . . . .
D.3. Circunferencias Unitarias para diferentes normas . . . . . . . . .
D.4. Norma de una matriz basada en k k1 . . . . . . . . . . . . . . .
D.5. Norma de una matriz basada en k k2 . . . . . . . . . . . . . . .
D.6. Norma de una matriz basada en k k . . . . . . . . . . . . . . .
D.7. Codominio y rango de un operador lineal . . . . . . . . . . . . .
D.8. Codominio y Rango del Operador Lineal del ejemplo D.27 . . . .
D.9. Codominio y Rango del Operador Lineal del ejemplo D.27 . . . .
D.10.Codominio, espacio nulo, rango y nulidad de un operador lineal .
D.11.Espacios Nulos de (A I)i y cadenas de vectores propios generalizados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
D.12.Espacios Nulos del ejemplo . . . . . . . . . . . . . . . . . . . . .
D.13.Diagrama de Matthew vaco . . . . . . . . . . . . . . . . . . . . .
D.14.Diagrama de Matthew vaco simple . . . . . . . . . . . . . . . . .
D.15.Diagrama de Matthew lleno . . . . . . . . . . . . . . . . . . . . .

xix

247
249
252
254
255
255
257
258
258
259
270
272
273
274
274

OSCAR G. DUARTE

xx

Lista de tablas
1.2. Variables y par
ametros de sistemas fsicos . . . . . . . . . . . . .
1.4. Variables Fsicas empleadas en los grafos de enlaces de potencia .

10
12

2.1. Comparaci
on entre ecuaciones diferenciales y de diferencia . . . .
2.2. Metodos elementales de soluci
on de Ecuaciones diferenciales y de
diferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3. Comparaci
on de las definiciones de las transformadas de Laplace
yZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4. Propiedades de las transformadas de Laplace y Z . . . . . . . .
2.5. Tabla de parejas de transformadas elementales . . . . . . . . . .
2.6. Tabla de parejas de transformadas elementales multiplicadas por
el tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.7. Ubicaci
on de los polos en los planos complejos y funciones en el
tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

5.1.
5.2.
5.3.
5.5.

25
29
31
32
33
33

Error de estado estacionario para sistemas continuos . . . . . . . 92


Error de estado estacionario para sistemas discretos . . . . . . . 93
Polos de la funci
on de transferencia del ejemplo 5.8 . . . . . . . 102
Reglas de construcci
on para el root-locus y el root-locus complementario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
5.6. Transformaci
on bilineal de algunos puntos sobre la circunferencia
unitaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

xxi

OSCAR G. DUARTE

xxii

Prefacio

Este texto de an
alisis de sistemas din
amicos se ha preparado como material de apoyo para el curso de igual nombre impartido en la Facultad de
Ingeniera de la Universidad Nacional de Colombia. Existe una versi
on electr
onica en la p
agina del proyecto Universidad Virtual de la misma universidad
(http://virtual.unal.edu.co) que est
a acompa
nada de aplicaciones de software, enlaces y documentaci
on u
tiles para la aprehensi
on de los conceptos aqui
presentados.
Se ha supuesto un lector con conocimentos mnimos de ecuaciones diferenciales y cuyo interes en el tema este cercano al control de sistemas din
amicos. En
general, es adecuado como gua para cursos de pregrado en ingeniera, aunque
el apendice D tiene un nivel m
as avanzado.
El cuerpo principal del texto se organiza asi: El captulo 1 delimita el tipo
de sistemas que se estudiar
an en el texto y presenta las ideas b
asicas sobre
c
omo obtener las ecuaciones matem
aticas que describen su comportamiento.
Esta tarea (la obtenci
on de las ecuaciones) es fundamental para el an
alisis y
control de sistemas, y amerita un estudio mucho m
as profundo que el destinado
en este captulo introductorio; en los restantes captulos se asume que ya se
cuenta con las ecuaciones de los sistemas a estudiar.
Los fundamentos matem
aticos para solucionar dichas ecuaciones se resumen
en el captulo 2; especial enfasis se hace en los metodos de las transformadas de
Laplace y Z. Los herramientas m
as usuales de an
alisis de sistemas se presentan
en el captulo 3 y el captulo 4 se dedica al estudio de los sistemas de primer
y segundo, que resultan ser fundamentales pues presentan los comportamientos
b
asicos que pueden aparecer en cualquier sistema din
amico.
La realimentaci
on, estrategia fundamental del control de sistemas din
amicos,
se explora en el captulo 5. Un enfoque diferente al an
alisis de sistemas, el espacio
de estado, se aborda en el captulo 6. Finalmente, el captulo 7 presenta algunos
comportamientos que pueden aparecen en los sistemas no lineales, y que no
pueden existir en los sistemas lineales.
Adicionalmente, se han incluido cuatro apendices: El apendice A contiene las
xxiii

OSCAR G. DUARTE

demostraciones de las propiedades y parejas de las transformadas de Laplace


y Z que se enuncian en el captulo 2 y se emplean a lo largo del texto. Los
apendices B y C est
an dedicados a los diagramas de Bode y a la carta de Nichols,
respectivamente. El apendice D es una presentaci
on rigurosa de los conceptos
de a
lgebra lineal que se enuncian en el captulo 6.
Este texto no habra sido posible sin la colaboraci
on directa e indirecta de
muchas personas. Quiero agradecer en primer lugar a los alumnos de los cursos
de pregrado y posgrado de an
alisis de sistemas din
amicos cuyas observaciones y
sugerencias han sido extremadamente valiosas; ellos han sido adem
as la principal
motivaci
on de este trabajo; a los profesores Hernando Diaz y Estrella Parra
por sus aportes y permanente estmulo. Agradezco tambien a la Universidad
Nacional de Colombia por su apoyo en la publicaci
on del texto; a la comunidad
de desarrolladores y usuarios del programa LATEX sin cuyo aporte este y muchos
libros seran quimeras; a Alfredo Duplat Ayala por sus comentarios en el campo
editorial; por u
ltimo, pero no menos importante, a Tatiana y a Laura por su
cari
no y paciencia.

Oscar G. Duarte

xxiv

Captulo 1
Introduccion al modelamiento de
sistemas

1.1.

Conceptos preliminares

Iniciamos el estudio del an


alisis de sistemas din
amicos lineales con la presentaci
on de los siguientes conceptos b
asicos:

1.1.1.

Sistemas

No es f
acil encontrar una definici
on exacta de sistema, quiz
as porque el termino es utilizado en muy diversos contextos. En un sentido amplio, podemos
entender por sistema aquello que se va a estudiar. Tal definici
on es extremadamente vaga pero pone de manifiesto la necesidad de delimitar el objeto de
estudio, de imponerle unas fronteras precisas. Dividimos el universo en dos partes: El sistema y todo lo dem
as; esto u
ltimo lo denominamos el Entorno del
Sistema.
Podemos imaginar sistemas de tipos muy diferentes de acuerdo a que es lo
que se va a estudiar; si se desea conocer c
omo se nutre un determinado animal
estariamos definiendo un sistema biol
ogico, mientras que si lo que se quiere es
conocer la variaci
on de la poblaci
on en una determinada ciudad a traves de los
a
nos definiriamos un sistema sociol
ogico. Pueden plantearse tambien sistemas
abstractos, como por ejemplo el conjunto de los n
umero enteros o las estrategias
de comunicaci
on ling
usticas.
El prop
osito de este curso no es, por supuesto, abordar cualquier tipo de
sistema, sino que se limita al estudio de un tipo especfico de sistemas que suelen
denominarse en el contexto de la fsica, la matem
atica y la ingeniera Sistemas
1

OSCAR G. DUARTE

Din
amicos Lineales. Para precisar que tipo de sistemas son estos requerimos
primero de la presentaci
on de los conceptos dese
nales y modelos.

1.1.2.

Se
nales

Las se
nales son el medio a traves del cual el sistema interact
ua con su entorno.
En la figura 1.1 se visualiza esta interacci
on: El sistema, est
a representado por
un rect
angulo, lo que da a entender que tiene sus fronteras definidas en forma
precisa; este sistema recibe del entorno unas se
nales de entrada, representadas
por flechas, y entrega a su entorno unas se
nales de salida, tambien representadas
por flechas.
En las aplicaciones tpicas de ingeniera, las se
nales de entrada y salida son
variables (fsicas o abstractas) que camban en el tiempo, como por ejemplo,
fuerzas, velocidades, temperaturas, etc.

Sistema

Entradas

Salidas

Figura 1.1: Sistema y Se


nales

Cuando un sistema recibe una u


nica se
nal de entrada y produce una u
nica
se
nal de salida, se dice que es un sistema SISO (del ingles Single Input Single
Output), mientras que si recibe varias entradas y produce varias salidas, se dice
que es un sistema MIMO (del ingles Multiple Input Multiple Output). Tambien
existen las denominaciones MISO para sistemas de varias entradas y una s
ola
salida, y SIMO para el caso con una entrada y varias salidas, este u
limo poco
frecuente.

1.1.3.

Modelos

Para entender un sistema debemos hacer una representaci


on abstracta de el;
tal representaci
on es el modelo del sistema. La figura 1.2 visualiza la diferencia
que existe entre sistema y modelo. El sistema existe, y de el hacemos una o
varias abstracciones para poder comprenderlo. Las representaciones abstractas
pueden ser de muchos tipos (ecuaciones, gr
aficas, etc.) algunos de los cuales son:

Modelos mentales: son representaciones presentes en nuestro cerebro; tenemos, por ejemplo, una representaci
on mental de nuestro cuerpo que nos
permite controlarlo para caminar, saltar, etc.
Modelos ling
usticos: son representaciones con palabras; este p
arrafo, por
ejemplo intenta explicar con palabras que es el sistema denominado modelo
ling
ustico.
2

1.1. CONCEPTOS PRELIMINARES

Modelos gr
aficos: en ocasiones empleamos tablas y/o gr
aficas como modelos;
los cat
alogos de productos de ingeniera suelen contener muchos ejemplos
de este tipo de modelo.
Modelos matem
aticos: estos modelos son ampliamente usados en a
reas como
la fsica, la ingeniera, la economa, etc.; generalmente se trata de ecuaciones que muestra las relaciones existentes entre las variables que afectan
un sistema;
Modelos de software: en ocasiones es posible desarrollar programas de computador que representen a sistemas complejos.

Modelo1

Modelo4

Sistema

Modelo2

Modelo3

Figura 1.2: Sistemas y Modelos

Es importante destacar que un mismo sistema puede ser representado por


muchos modelos diferentes. Este hecho plantea el interrogante cu
al es el mejor
modelo de un sistema dado?
No es sensato aspirar a obtener un modelo perfecto de un sistema real, porque
existir
an siempre fen
omenos que se escapen a nuestra capacidad de abstracci
on,
por lo tanto, la respuesta debe darse en terminos de la utilizaci
on del modelo;
el mejor modelo es aquel que sea u
til para nuestros prop
ositos particulares, y
dentro de todos los modelos u
tiles, preferiremos el m
as sencillo. La utilidad del
modelo tambien determinar
a el grado de sofisticaci
on que se requiera.

1.1.4.

Construcci
on de los modelos matem
aticos

En general, la construcci
on de modelos se basa en la observaci
on del sistema.
Existen algunos caminos b
asicos para obtener un modelo (ver figura 1.3):
Modelamiento de sistemas: Esta estrategia consiste en descomponer (abstractamente) el sistema en subsistemas m
as simples, cuyos modelos sean
3

OSCAR G. DUARTE

factibles de obtener gracias a la experiencia previa. Una vez obtenidos


estos submodelos, se buscan las relaciones que existen entre ellos, para
interconectarlos y obtener el modelo del sistema original.
Esta estrategia busca una descripci
on desde adentro del sistema, generalmente basada en el conocimiento de las leyes que rigen los sistemas
simples. El modelo asi obtenido se conoce como modelo de caja blanca o

modelo interno.
Identificaci
on de Sistemas: Esta estrategia consiste en acumular un n
umero
suficiente de observaciones sobre las se
nales de entrada y salida del sistema,
con el prop
osito de emplearlas para construir un modelo del mismo. No se
centra en lo que existe al interior del sistema, sino en su comportamiento
respecto al entorno. El modelo asi obtenido se conoce como modelo de caja
negra o
modelo entrada - salida.
Estrategia hbrida: Existe una tercera estrategia, que realmente es una combinaci
on de las anteriores: Al igual que en la estrategia de modelamiento,
se emplea el conocimiento que este a la mano acerca de la estructuta interna del sistema y las leyes que rigen su comportamiento, y se emplean
observaciones para determinar la informaci
on que haga falta. El modelo
asi obtenido se conoce como modelo de caja gris.

Modelamiento
de Sistemas
?
Modelos
de caja
blanca

Identificaci
on
de Sistemas
@
R
@

Modelos
de caja
gris

?
Modelos
de caja
negra

Figura 1.3: Construcci


on de Modelos

1.1.5.

Clasificaci
on de los modelos matem
aticos

En el a
mbito de este texto se emplear
an modelos de tipo matem
atico, es decir, nuestros modelos ser
an ecuaciones y el an
alisis de los sistemas asi modelados
estar
a ligado a la soluci
on de dichas ecuaciones. Las siguientes definiciones ayudar
an a puntualizar que tipo de modelos matem
aticos son los que se pretenden
estudiar, seg
un se observa en la figura 1.4.
Modelos causales y no causales: El estado de un sistema causal depende
s
olo de las condiciones presentes y pasadas, pero no de las futuras, es
decir hay una relaci
on de causalidad. Los sistemas fsicos son causales,
pero se pueden concebir modelos de ciertos sistemas que no lo sean. En el
texto se estudiar
an s
olo sistemas causales
4

1.1. CONCEPTOS PRELIMINARES

Modelos
Matem
aticos

No Causales

Causales

?
Est
aticos

?
Din
amicos

?
Determinsticos

Estoc
asticos

Par
ametros
Par
ametros
Distribuidos Concentrados

No Lineales

Lineales

Variantes
en tiempo

Invariantes
en tiempo

?
Discretos

?
Continuos

Figura 1.4: Clasificaci


on de los Modelos Matem
aticos de Sistemas

OSCAR G. DUARTE

Modelos est
aticos y din
amicos: El estado de un sistema est
atico depende
s
olo de las condiciones presentes y no de las pasadas. En contraposici
on,
el estado de un sistema din
amico depende de lo que haya sucedido en el
pasado, generalmente debido a que en el sistema hay alg
un tipo de almacenamiento de energa. Los sistemas din
amicos tambien se conocen como
sistemas con memoria. Los modelos de sistemas din
amicos son ecuaciones diferenciales o de diferencia. En el texto se estudiar
an s
olo sistemas
din
amicos.
Modelos estoc
asticos y determinsticos: En ocasiones se sabe que existen
variables que afectan el sistema, pero no es posible predecir el valor que
estas puedan tomar; una de las alternativas para hacer frente a estos casos
consiste en considerar que esa variable es aleatoria y buscar tecnicas basadas en la teora de probabilidades para analizar el sistema. Un modelo que
incluya variables aleatorias es un modelo estoc
astico, mientras que mode
los exentos de aleatoridad se denominan modelos determinsticos. Estos
u
ltimos ser
an los que se estudien en este texto.
Modelos de par
ametros concentrados y distribuidos: La mayora de los
fen
omenos fsicos ocurren en una regi
on del espacio, pero en muchas ocasiones es posible representar ese fen
omeno como algo puntual; por ejemplo,
para estudiar la atracci
on entre el sol y la tierra es posible representar toda
la masa de cada uno de esos cuerpos concentrada en un u
nico punto (su
centro de gravedad).
Sin embargo, otros fen
omenos como la transmisi
on de ondas electromagneticas o las olas en el mar requieren una representaci
on que considere
que est
a sucediendo en cada punto del espacio, en este caso se necesita
un modelo de par
ametros distribuidos en el espacio, en contraposici
on de
los modelos de par
ametros concentrados. Los modelos de par
ametros distribuidos implican ecuaci
ones diferenciales con derivadas parciales y no
ser
an estudiados en este texto; por su parte los modelos de par
ametros
concentrados, requieren ecuaciones con derivadas o ecuaciones de diferencia ordinarias.
Modelos lineales y no lineales: La linealidad es una propiedad que pueden
tener o no las funciones; realmente se trata de dos propiedades agrupadas
bajo un mismo nombre. Dada una funci
on y = f (x) est
as propiedades son:
1. Proporcionalidad: Es igual calcular la funci
on en un argumento amplificado por un factor que calcularla sobre el argumento y luego
amplificar el resultado por ese mismo factor:
f (x) = f (x)
En terminos pr
acticos, esto significa que en los modelos lineales al
duplicar las entradas se duplican las salidas.
6

1.1. CONCEPTOS PRELIMINARES

2. Superposici
on: Es igual calcular la funci
on en la suma de dos argumentos que calcularla por separado en cada uno de los argumentos y
sumar los resultados.
f (x1 + x2 ) = f (x1 ) + f (x2 )
En terminos pr
acticos, esto significa que en los modelos lineales de
varias entradas, las salidas pueden conocerse calculando por separado
el efecto de cada entrada y sumando los resultados.
En este texto se estudiar
an los modelos lineales, y tan s
olo en el captulo
7 se mencionar
an algunos comportamientos especiales que pueden ocurrir
en los sistemas no lineales.
Modelos variantes e invariantes en el tiempo: Un modelo se dice invariante en el tiempo cuando las propiedades del sistema modelado se consideran constantes en el tiempo. En caso contrario se dice variante en el
tiempo. N
otese que la variaci
on se refiere a las propiedades (par
ametros)
del sistema, no de las se
nales que le afectan (variables). En la mayor parte
de este curso se considerar
an sistemas invariantes en el tiempo.
Modelos continuos y discretos: Para describir el comportamiento de sistema din
amicos es posible definir la variable tiempo en dos formas distintas:
Tiempo continuo: Se considera que el tiempo t es una variable continua que puede tomar cualquier valor real, aunque generalmente se
restringe a los valores positivos (t R+ ). Las variables resultan ser
descritas por funciones que van de los reales positivos a los reales
(f : R+ R).
Tiempo discreto: Se considera que el tiempo k es una variable discreta,
es decir, que s
olo toma valores en ciertos puntos de la recta real.
Usualmente estos instantes est
an espaciados de forma regular en un
intervalo T . En este texto se considera adem
as T = 1, en unidades
de tiempo adecuadas, que pueden ser a
nos, das, microsegundos, etc.
De esta forma k es una variable entera, generalmente positiva (k
Z+ ). Las variables resultan ser descritas por funciones que van de los
enteros positivos a los reales (f : Z+ R), es decir, son sucesiones.
En este texto se considerar
an ambos tipos de modelos, pero en forma independiente, es decir, no se considerar
an sistemas hbridos que tengan una
parte descrita en forma continua y otra en forma discreta. Estos sistemas
son de amplio interes en las aplicaciones de control digital y en tratamiento digital de se
nales (particularmente el efecto del periodo T del tiempo
discreto resulta ser importante), pero no son tratados en este texto.

OSCAR G. DUARTE

1.1.6.

Modelos matem
aticos a utilizar

De acuerdo con lo presentado en la secci


on 1.1.5, y resumido en la figura 1.4,
en este curso se emplear
an modelos matem
aticos causales, din
amicos, determinsticos, de par
ametros concentrados, lineales, invariantes en el tiempo, para dos
casos diferentes: tiempo continuo y tiempo discreto.
Para un sistema continuo de una u
nica entrada y una u
nica salida, como
el de la figura 1.5, el modelo empleado corresponde a una ecuaci
on diferencial
ordinaria de coeficientes constantes:
an

dn y
dy
+ + a1
+ a0 y(t) =
dtn
dt
bm

du
dm u
+ + b1
+ b0 u(t) n m (1.1)
m
dt
dt

Por su parte, un sistema discreto de una u


nica entrada y una u
nica salida,
como el de la figura 1.6, tendr
a por modelo una ecuaci
on de diferencias finitas
ordinaria de coeficientes constantes:
an y(k + n) + + a1 y(k + 1) + a0 y(k) =
bm u(k + m) + + b1 u(k + 1) + b0 u(k) n m (1.2)

u(t)

Sistema

- y(t)

Figura 1.5: Sistema Din


amico Continuo

u(k)

Sistema

- y(k)

Figura 1.6: Sistema Din


amico Discreto

La condici
on n m de las ecuaciones (1.1) y (1.2) asegura modelos causales.
En efecto, podemos suponer una ecuaci
on de diferencias que viole esta condici
on,
por ejemplo y(k) = u(k + 1) ; es obvio que para cualquier k la salida del sistema
depende de una condici
on futura de la entrada, (por ejemplo para k = 0 se tiene
y(0) = u(1)), lo que viola la condici
on de causalidad.
Otro tipo de ecuaciones diferenciales que se emplear
an relacionan vectores
de variables mediante matrices. Para el caso continuo se muestra un ejemplo en
(1.3) y para el caso discreto en (1.4)

a11
x 1
x 2 = a21
a31
x 3

a12
a22
a32
8


x1
a13
a23 x2
x3
a33

(1.3)

1.2. SISTEMAS F
ISICOS


a11
x1 (k + 1)
x2 (k + 1) = a21
a31
x3 (k + 1)

1.2.

a12
a22
a32

a13
x1 (k)
a23 x2 (k)
a33
x3 (k)

(1.4)

Sistemas fsicos

Los modelos matem


aticos de las ecuaciones (1.1) y (1.2) pueden ser u
tiles
para representar el comportamiento de diversos tipos de sistemas en a
reas de la
fsica, ingeniera, biologa, economa, sociologa, etc. Por lo tanto las tecnicas de
an
alisis que se explicar
an en este texto son de amplia aplicabilidad. No obstante,
centramos aqui nuestra atenci
on en los fundamentos necesarios para obtener
modelos continuos de cierto tipo de sistemas frecuentes en la ingeniera.
La tabla 1.2 resume las Variables y Par
ametros de algunos de estos sistemas.
Para cada caso se han identificado dos variables que permiten analizar algunos
fen
omenos; estas variables se han identificado como Esfuerzo E y Flujo F , y
pueden interpretarse como las variables que causan un fen
omeno y la forma en
que este fen
omeno se manifiesta; dicha interpretaci
on, sin embargo, es arbitraria
y corresponde tan s
olo a la met
afora que se haya empleado para entender el
fen
omeno fsico. Para resaltar este hecho, en la tabla 1.2 se presentan los sistemas
electricos con dos posibles interpretaciones.
De todos los posibles fen
omenos fsicos existentes, en la tabla 1.2 se presentan aquellos que tienen un modelo matem
atico que corresponde a uno de los
siguientes casos:
Resistencia: El Esfuerzo es directamente proporcional al Flujo, resultando en
una ecuaci
on de la forma E = RF
Inductancia: El Esfuerzo es directamente proporcional a la variaci
on del Flujo,
resultando en una ecuaci
on de la forma E = L dF
dt
Capacitancia: El Esfuerzo es directamente proporcional aR la acumulaci
on del
Flujo, resultando en una ecuaci
on de la forma E = C F dt

N
otese que las variables de Esfuerzo y Flujo que aparecen en la tabla 1.2
han sido seleccionadas tomando como u
nico criterio el que permitan escribir los
modelos matem
aticos de ciertos fen
omenos fsicos de acuerdo con alguno de los
tres casos anteriores; podran seleccionarse otras variables para describir otros
fen
omenos.
Dado que las descripciones matem
aticas de estos fen
omenos son semejantes,
es posible establecer analogas entre los tipos de sistemas que depender
an de
las variables seleccionadas como Esfuerzo y Flujo; por ejemplo, ser
a posible
establecer una analoga entre los resortes lineales de los sistemas traslacionales
y las inductancias de los sistemas electricos (columnas 2 y 4 tabla 1.2), pero
tambien puede establecerse una analoga entre el mismo tipo de resorte y las
capacitancias de los sitemas electricos (columnas 3 y 4 tabla 1.2).

Electrico B

Mec
anico rotacional
Torque

Hidra
ulico
(Tanques)
Caudal

Esfuerzo

Corriente

E
Flujo

i
Tensi
on

e
Corriente

f
Velocidad

F
Resistencia

e
Conductancia

i
Resistencia

v
Amortiguamiento
viscoso

q
Nivel de lquido
h
Resistencia
Hidra
ulica

E = RF
Inductancia

i = Ge
Capacitancia
i = C de
dt
Inductancia

e = Ri
Inductancia

f = Bv
Masa
de
inercia
f = M dv
dt
Resorte

Velocidad
angular

Amortiguamiento
viscoso
rotacional
= B
Momento de
inercia
= J d
dt
Resorte torsional
R
=
KT dt

10

Tensi
on

Mec
anico
traslacional
Fuerza

E = L dF
dt
Capacitancia
R
E = C F dt

i=

1
L

edt

di
e = L dt
Capacitancia
R
e = C1 idt

f =K

vdt

Tabla 1.2: Variables y par


ametros de sistemas fsicos

q = RH h

Area
de tanque
q = A dh
dt

Termico
Diferencia de
temperatura

Flujo de calor
qc
Resistencia
termica

= RT qc

Capacitancia
termica
R
=
CT qc dt

OSCAR G. DUARTE

Electrico A

1.3. GRAFOS DE ENLACES DE POTENCIA


BOND GRAPHS

1.3.

Grafos de enlaces de potencia


Bond Graphs

La construcci
on de modelos matem
aticos a partir de las relaciones de la tabla
1.2 puede ser una tarea complicada para sistemas complejos en los que existan
combinaciones de sistemas de diferente tipo. Una de las estrategias que facilita
la construcci
on de tales modelos se denomina tecnica de los Bond Graphs.
Los Bond Graphs son grafos basados en las relaciones de potencia que existen en los sistemas fsicos, y por esa raz
on los llamaremos grafos de enlaces de
potencia, aunque esta no es una traducci
on literal, ni es ampliamente empleada.
La representaci
on de las relaciones de potencia se hace en funci
on de una
pareja de variables, Esfuerzo e(t) y Flujo f (t) que se seleccionan adecuadamente
seg
un el tipo de sistema a modelar, de tal manera que la potencia p(t) se calcule
como
p(t) = e(t)f (t)

(1.5)

Las variables empleadas se relacionan en la tabla 1.41 . Adicionalmente, se


consideran las integrales respecto al tiempo del Esfuerzo y el Flujo, P y Q
respectivamente. En los ejemplos de este captulo se considerar
an u
nicamente
ejemplos de sistemas electricos y mec
anicos.

1.3.1.

Elementos b
asicos

Los siguientes son los elementos b


asicos de un grafo de enlaces de potencia:
Elementos de 1 puerto: Estos elementos representan sistemas en donde s
olo interviene una variable de Esfuerzo y una variable de Flujo. La figura
1.7 muestra los distintos elementos de un puerto, su smbolo y la relaci
on
existente entre las variables de Esfuerzo y Flujo. Los tres primeros elementos, R, C, I, son elementos pasivos, ya que no contienen fuentes de
energa, mientras que los dos u
ltimos, Se y Sf , son elementos activos que
suministran energa (son fuentes de Esfuerzo y Flujo respectivamente).
Elementos de 2 puertos: Estos elementos son conversores de potencia, es decir, reciben potencia, la transforman y la entregan sin perdida alguna. Por
uno de los puertos reciben potencia y por el otro la entregan; en cada
puerto hay una variable de Esfuerzo y una de Flujo. La figura 1.8 muestra
los dos tipos de elementos de dos puertos que existen, sus smbolos y las
relaciones matem
aticas que los rigen.
Elementos multipuerto (Uniones): Estos elementos representan la ley de
continuidad de potencia, y sirven para describir las relaciones topol
ogicas
del sistema y as relacionar elementos de uno o dos puertos entre s. La
1 n
otese que no necesariamente son las mismas variables Esfuerzo y Flujo relacionadas en
la tabla 1.2, aunque algunas coinciden

11

OSCAR G. DUARTE

Sistema
Electrico

Esfuerzo
Tensi
on electrica

e
v

Flujo
Corriente electrica

f
i

Mec
anico
traslacional
Mec
anico rotacional
Hidra
ulico

Fuerza

Velocidad

Torque

Velocidad angular

Presi
on

dQ/dt

Termico A

Temperatura

Termico B

Presi
on

Qumico A

Potencial qumico

Qumico B

Entalpa

Magnetico

Fuerza magnetomotriz

em

Variaci
on de flujo
volumetrico
Variaci
on de diferencia de entropa
Variaci
on de cambio de volumen
Variaci
on de flujo
molar
Variaci
on de flujo
m
asico
Flujo magnetico

ds/dt
dV /dt
dN/dt
dm/dt

Tabla 1.4: Variables Fsicas empleadas en los grafos de enlaces de potencia

figura 1.9 muestra los dos tipos de uniones existentes, sus smbolos y las
relaciones matem
aticas que los rigen.

Ejemplo 1.1 La figura 1.10 muestra el diagrama de un elevador, compuesto por un


motor electrico, un eje, una polea, un cable y un vag
on. En el motor hay un circuito
electrico que incluye una resistencia, una inductancia y la tensi
on contraelectromotriz; el eje se considera rgido, sin masa y con fricci
on viscosa; la polea tiene un
momento de inercia; el cable es elastico y el vag
on esta directamente acoplado al
cable.
La figura 1.11 muestra el sistema en forma esquematica, resaltando la existencia
de diferentes dominios de energa: electrico, rotacional y traslacional. La figura 1.12
muestra el grafo de enlaces de potencia del sistema completo: en la primera uni
on
se representa el circuito electrico en serie (uni
on tipo 1 porque el flujo es com
un);
el rotador representa la conversi
on de energa electrica en rotacional; la siguiente
uni
on representa el comportamiento de la polea; el transformador muestra el cambio
del dominio de energa rotacional al traslacional; y la u
ltima uni
on representa los
fen
omenos mecanicos en el vag
on, incluida la atracci
on de la gravedad. En este
grafo se han numerado todos los enlaces, para facilitar su identificaci
on.
12

1.3. GRAFOS DE ENLACES DE POTENCIA


BOND GRAPHS

Tipo de Elemento

Smbolo

Elemento
R

e
f

Elemento
C

e
f

Elemento
I

e
f

Relaciones
e = Rf
R
e
R

f=
e=C
C

f=

f dt

1 de
C dt

e = I df
dt

f=

1
I

edt

Fuente de
Esfuerzo

Se

e
f

e = Se

Fuente de
Flujo

Sf

e
f

f = Sf

Figura 1.7: Elementos de un puerto para grafos de enlaces de potencia

Tipo de Elemento

Transformador

Rotador

Smbolo
e1
f1

TF : k

e1
f1

GY : k

Relaciones
e2
f2

e1 = ke2

e2
f2

e1 = kf2

f1 =

f1 =

Figura 1.8: Elementos de dos puertos para grafos de enlaces de potencia

13

f2
k

e2
k

OSCAR G. DUARTE

Tipo de Elemento

Smbolo

Relaciones

e2 f2
Uni
on
Tipo 0

e1
f1

e3
f3

e1 = e 2 = e 3 = e 4

e3
f3

e1 = e 2 + e 3 + e 4

f1 = f 2 + f 3 + f 4

f4 e4

e2 f2
Uni
on
Tipo 1

e1
f1

1
f4

f1 = f 2 = f 3 = f 4

e4

Figura 1.9: Elementos multipuerto para grafos de enlaces de potencia

14

1.3. GRAFOS DE ENLACES DE POTENCIA


BOND GRAPHS

+
v(t)

Figura 1.10: Grafos de enlace de potencia. Diagrama del ejemplo 1.1

Dominio Rotacional

L
k

Rb

us

D/2

Ce

Dominio Electrico

Dominio Traslacional

Re

mg
Figura 1.11: Grafos de enlace de potencia. Esquema del ejemplo 1.1

15

OSCAR G. DUARTE

S..e
us

e1
f1

I :L

I:J

e2 f2

e6 f6

e3
f3

GY
..
k

f4 e4

e5
f5

e7
f7

TF : D
2

f8 e8
f9 e9

R : Re

R : Rb
C : Cel

f10
e10

0
f11 e11

Se : mg

e13
f13

1
f12 e12
I:m

Figura 1.12: Grafo de enlaces de potencia del ejemplo 1.1

16

1.3. GRAFOS DE ENLACES DE POTENCIA


BOND GRAPHS

Salida de Flujo
e
f
f = g(e)

Salida de Esfuerzo
e
f
e = g(f )

Figura 1.13: Enlaces con marcas de causalidad

1.3.2.

Causalidad

En las figuras 1.7 y 1.8 se observa que las relaciones entre esfuerzo y flujo
pueden escribirse de dos formas diferentes para algunos de los elementos:
Salida de Esfuerzo: se calcula e en funci
on de f , por ejemplo e = g(f ).
Salida de Flujo: se calcula f en funci
on de e, por ejemplo f = g(e).
La figura 1.13 muestra c
omo se modifica el smbolo del enlace cuando se
toma cada una de las dos alternativas, agregando unas marcas de causalidad en
alguno de los extremos del enlace.
El an
alisis de causalidad permite determinar cu
al de los dos tipos de relaciones debe emplearse en cada enlace. Para ello, es necesario definir las siguientes
relaciones de causalidad:
Causalidad fija: En ocasiones s
olo es posible un tipo de causalidad, como
por ejemplo en las fuentes de Esfuerzo y Flujo; en estas situaciones la
causalidad est
a predeterminada.
Causalidad condicionada: En los elementos de m
as de un puerto la causalidad est
a condicionada por las siguientes reglas:
En un rotador cada uno de sus puertos debe tener una causalidad
diferente
En un transformador ambos puertos deben tener la misma causalidad
En las uniones tipo 0 s
olo hay una marca de causalidad en el lado de
la uni
on.
En las uniones tipo 1 s
olo hay una marca de causalidad que no este
del lado de la uni
on.
Causalidad preferida: En los elementos cuya relaci
on esfuerzo-flujo puede
ser una integral o una derivada, en este texto se prefiere la relaci
on de
derivaci
on2 , por lo tanto se tiene que
2 La

integraci
on es preferible para la utilizaci
on de metodos numericos.

17

OSCAR G. DUARTE

Para elementos tipo C se prefiere la causalidad de salida de flujo.


Para elementos tipo I se prefiere la causalidad de salida de esfuerzo.
Causalidad Indiferente: En las relaciones est
aticas, como la de los elementos
R se obtiene el mismo tipo de ecuaci
on con cualquiera de las dos causalidades, y por lo tanto esta es indiferente.
Para determinar la causalidad de un grafo, se emplea el siguiente procedimiento:
1. Asignar una causalidad fija y propagarla a traves de las causalidades condicionadas. Repetir el procedimiento con todas las causalidades fijas.
2. Asignar una causalidad preferida y propagarla a traves de las causalidades condicionadas. Repetir el procedimiento con todas las causalidades
preferidas.
3. Asignar una causalidad indiferente y propagarla a traves de las causalidades condicionadas. Repetir el procedimiento con todas las causalidades
indiferentes.
Ejemplo 1.2 Retomando el ejemplo 1.1, cuyo grafo de enlaces de potencia se muestra en la figura 1.12, el procedimiento de asignaci
on de causalidades permite obtener
el grafo causal de la figura 1.14

1.3.3.

Obtenci
on de las ecuaciones

A partir de un grafo causal se pueden derivar las ecuaciones diferenciales que


describen el sistema con el siguiente procedimiento:
1. Obtener las ecuaciones diferenciales y las ecuaciones algebr
aicas de cada
uno de los elementos del grafo.
2. Eliminar las ecuaciones algebr
aicas.
Ejemplo 1.3 Las ecuaciones del grafo causal de la figura 1.14 (Ejemplos 1.1 y 1.2)
se obtienen asi:
Enlace 1: e1 = us
Enlace 2: e2 = Ldf2 /dt
Enlace 4: f4 = e4 /Re
Primera uni
on: f1 = f2 = f3 = f4
Rotador: e3 = Kf5

f3 =

e1 = e 2 + e 3 + e 4
1
K e5

Enlace 6:e6 = Jdf6 /dt


Enlace 8:f8 = e8 /Rb
18

1.3. GRAFOS DE ENLACES DE POTENCIA


BOND GRAPHS

S..e
us

e1
f1

I :L

I :J

e2 f2

e6 f6

e3
f3

GY
..
k

f4 e4

e5
f5

e7
f7

TF : D
2

f8 e8
f9 e9

R : Re

R : Rb
C : Cel

f10
e10

0
f11 e11

Se : mg

e13
f13

1
f12 e12
I:m

Figura 1.14: Grafo causal de enlaces de potencia del ejemplo 1.1

19

OSCAR G. DUARTE

Segunda uni
on: f5 = f6 = f7 = f8
Transformador: e7 = D
2 e9

e5 = e 6 + e 7 + e 8
2
f7 = D
f9

Enlace 10: f10 = Cel de10 /dt


Tercera uni
on: e9 = e10 = e11

f9 = f10 + f11

Enlace 12: e1 2 = mde12 /dt


Enlace 13: f13 = mg
Cuarta uni
on: f11 = f12 = f13

1.3.4.

e12 = e11 + e13

Procedimientos especficos

Se consignan aqui dos procedimientos espcficos, u


tiles para la obtenci
on
de grafos de enlaces de potencia para circuitos electricos y sistemas mec
anicos
traslacionales, respectivamente.
Circuitos el
ectricos
1. Crear una uni
on tipo 0 por cada nodo del circuito.
2. Para cada elemento del circuito crear una uni
on tipo 1, adicionarle a esa
uni
on un enlace que represente al elemento y enlazar la uni
on con las dos
uniones tipo 0 correspondientes a los nodos entre los que est
a conectado
el elemento.
3. Asignar las direcciones de potencia a los enlaces.
4. Si hay un nodo de referencia, eliminar la uni
on tipo 0 correspondiente y
los enlaces adyacentes.
5. Simplificar el grafo.
Sistemas traslacionales
1. Crear una uni
on tipo 1 para cada velocidad diferente (absolutas y relativas).
2. Para cada fen
omeno que genere una fuerza, crear una uni
on tipo 0, adicionarle a esa uni
on un enlace que represente al fen
omeno y enlazar la uni
on
con las dos uniones tipo 1 correspondientes; considerar las inercias.
3. Asignar las direcciones de potencia a los enlaces.
4. Eliminar la uni
on tipo 1 correspondiente a velocidad cero.
5. Simplificar el grafo.

20

Captulo 2
Preliminares matematicos

2.1.
2.1.1.

Ecuaciones diferenciales y de diferencia


Ecuaciones diferenciales

Una ecuaci
on diferencial es una ecuaci
on en la que intervienen derivadas (y/o
integrales). La variable que mide el tiempo (t) vara contnuamente (t R). Un
ejemplo sencillo es el siguiente
dx
= 2x(t)
(2.1)
dt
La soluci
on de una ecuaci
on diferencial es una funci
on f (t) t R que satizfaga la ecuaci
on. Cualquiera de las siguientes funciones es soluci
on de la ecuaci
on
(2.1):
f1 (t) = e2t ya que

df1
dt

= 2e2t = 2f1 (t)

f2 (t) = 2e2t ya que

df2
dt

= 4e2t = 2f2 (t)

f3 (t) = 3e2t ya que

df3
dt

= 6e2t = 2f3 (t)

Para poder establecer una u


nica soluci
on de la ecuaci
on, es preciso conocer
unas condiciones auxiliares. El n
umero de estas condiciones necesarias es igual al
grado de la ecuaci
on (n). Usualmente, en las aplicaciones de an
alisis de sistemas
din
amicos, estas condiciones se determinan para el instante de tiempo t = 0, por
lo que se denominan condiciones iniciales, y corresponden al valor de la funci
on
desconocida y de sus derivadas en t = 0
...

f (0), f(0), f(0),


f (0), , f (n) (0)
Por ejemplo, al establecer f (0) = 1 como condici
on adicional para la ecuaci
on
(2.1), la u
nica soluci
on v
alida es f1 (t) = e2t
21

OSCAR G. DUARTE

2.1.2.

Ecuaciones de diferencias finitas

Una ecuaci
on de diferencias es una ecuaci
on en la que intervienen diferencias
finitas. La variable que mide el tiempo (k) vara discretamente . En general, existen tres posibilidades para considerar la forma en que se produce esta variaci
on
discreta:
k = 1, 2, 3,
k = T, 2T, 3T, T Rk = k1 , k2 , k3 , ki R

En la primera opci
on el tiempo es una variable entera (k Z), mientras
que en la segunda es una variable real que s
olo toma ciertos valores espaciados
uniformemente. En este texto se adoptar
a la primera opci
on. No obstante, debe
aclararse que la segunda opci
on es muy empleada en aplicaciones de control
digital y tratamiento de se
nales, en las que la elecci
on adecuada del valor de T
resulta de extrema importancia1 .
El siguiente es un ejemplo sencillo de una ecuaci
on de diferencias
x(k + 1) = 2x(k)

(2.2)

N
otese la similitud con el ejemplo de la ecuaci
on 2.1, en el que la derivada de
primer orden ha sido remplazada por la diferencia finita de primer orden. Como
el tiempo no es contnuo, no tiene sentido hablar de derivadas e integrales de
las funciones, pues las variables no son continuas en ning
un punto.
La soluci
on de una ecuaci
on de diferencias es una funci
on f (k) k Z que
satizfaga la ecuaci
on. Cualquiera de las siguientes funciones es soluci
on de la
ecuaci
on (2.2):
f1 (k) = 2k = 1, 2, 4, ya que f1 (k + 1) = 2k+1 = 2f1 (k)
f2 (k) = 2(2k ) = 2, 4, 8, ya que f2 (k + 1) = 2(2k+1 ) = 2f2 (k)
f3 (k) = 3(2k ) = 3, 6, 12, ya que f2 (k + 1) = 3(2k+1 ) = 2f3 (k)
Para poder establecer una u
nica soluci
on de la ecuaci
on, es preciso conocer
unas condiciones auxiliares. El n
umero de estas condiciones necesarias es igual al
grado de la ecuaci
on (n). Usualmente, en las aplicaciones de an
alisis de sistemas
din
amicos, estas condiciones se determinan para el instante de tiempo k = 0,
por lo que se denominan condiciones iniciales, y corresponden al valor de la
funci
on desconocida y de sus diferencias en k = 0:
f (k), f (k + 1), f (k + 2), f (k + 3), , f (k + n)

con k = 0

es decir
f (0), f (1), f (2), f (3), , f (n)
Por ejemplo, al establecer f (0) = 1 como condici
on adicional para la ecuaci
on
(2.2), la u
nica soluci
on v
alida es f1 (k) = 2k
1 En general el problema surge al considerar que un mismo sistema puede describirse por
ecuaciones diferenciales y de diferencia en forma simult
anea. En este texto se considerar
an
s
olo sistemas continuos o discretos, pero nunca una mezcla de ambos.

22

2.1. ECUACIONES DIFERENCIALES Y DE DIFERENCIA

Ecuaciones diferenciales
Intervienen derivadas
El tiempo (t) vara contnuamente
(t R)
La soluci
on es una funci
on f (t) t
R que satizfaga la ecuaci
on.

Ecuaciones de diferencia
Intervienen diferencias finitas.
El tiempo (k) vara discretamente
(k Z).
La soluci
on es una funci
on f (k) k
Z (una sucesi
on) que satizfaga la
ecuaci
on.
Para poder establecer una u
nica soluci
on de la ecuaci
on se emplean
tantas condiciones iniciales como orden tenga la ecuaci
on.
Las condiciones iniciales son
y(0), y(1), y(2),

Para poder establecer una u


nica soluci
on de la ecuaci
on se emplean
tantas condiciones iniciales como orden tenga la ecuaci
on.
Las condiciones iniciales son
y(0), y(0),

y(0),

Tabla 2.1: Comparaci


on entre ecuaciones diferenciales y de diferencia

La tabla 2.1 resume una comparaci


on entre las ecuaciones diferenciales y de
diferencia. Debido a las grandes semejanzas entre los dos tipos de ecuaciones,
en ocasiones nos referiremos a ambas simult
aneamente empleando la sigla E.D.

2.1.3.

Ecuaciones diferenciales y de diferencias lineales

Linealidad
La linealidad es una propiedad de algunas funciones. Para poseer esta propiedad es necesario satisfacer dos condiciones. Sea la funci
on f (x) : U V ,
para x1 , x2 U y a un escalar, las dos condiciones son:
1. superposici
on: f (x1 + x2 ) = f (x1 ) + f (x2 )
2. proporcionalidad: f (ax1 ) = af (x1 )
Las derivadas, las integrales y las diferencias finitas son operaciones lineales. La
funci
on f (x) = ax + b no es una funci
on lineal, a menos que b sea cero 2 .
E.D. lineales
Las ecuaciones diferenciales lineales son de la forma
an (t)

dy
dy n
+ a0 (t)y(t) =
+ + a1 (t)
n
dt
dt
dum
du
bm (t) m + + b1 (t)
+ b0 (t)u(t) (2.3)
dt
dt

2 Efectivamente, f (x + x ) = m(x + x ) + b es diferente de f (x ) + f (x ) = (mx + b) +


1
2
1
2
1
1
1
(mx2 + b)

23

OSCAR G. DUARTE

mientras que las ecuaciones de diferencia lineales son de la forma


an (k)y(k + n) + + a1 (k)y(k + 1) + a0 (k)y(k) =
bm (k)u(k + m) + + b1 (k)u(k + 1) + b0 (k)u(k)

(2.4)

En este texto se estudian s


olo ecuaciones con coeficientes constantes, es decir,
los casos en los que las ecuaciones (2.3) y (2.4) se convierten en (2.5) y (2.6),
respectivamente. Estas ecuaciones representar
an el comportamiento de sistemas
din
amicos como los de las figuras 3.1 y 3.2 en los que la variable u estimula al
sistema, y la respuesta de este se manifiesta en la variable y. Adem
as s
olo se
estudiar
an aquellos casos en los que n m.
an

dy n
dy
dum
du
+

+
a
+
a
y(t)
=
b
+ + b1
+ b0 u(t)
1
0
m
n
m
dt
dt
dt
dt

(2.5)

an y(k + n) + + a1 y(k + 1) + a0 y(k) =

bm u(k + m) + + b1 u(k + 1) + b0 u(k) (2.6)

2.1.4.

M
etodos de soluci
on de E.D. lineales

La soluci
on de una E.D. lineal tiene dos componentes:
ycompleta (t) = yhomogenea (t) + yparticular (t)
y(t) = yh (t) + yp (t)

(2.7)

o
en el caso discreto
ycompleta (k) = yhomogenea (k) + yparticular (k)
y(k) = yh (k) + yp (k)

(2.8)

Existen varios metodos de soluci


on para las E.D. Lineales. Aunque en general
emplearemos los metodos de las transformadas de Laplace y Z, inicialmente
presentamos uno m
as elemental y dispendioso, resumido en la tabla 2.2:
Ejemplo 2.1 Obtener la soluci
on de la ecuaci
on diferencial lineal:

y + 3y + 2y = f(t)
donde f (t) = t2 + 5t + 3 y las C.I. son y(0) = 2 y(0)

=3
1. Obtener la soluci
on homogenea El polinomio caracterstico es:
P () = 2 + 3 + 2
P () = ( + 2)( + 1)
24

(2.9)

2.1. ECUACIONES DIFERENCIALES Y DE DIFERENCIA

Ecuaciones diferenciales

Ecuaciones de diferencia

1. Obtener la soluci
on homogenea con el siguiente procedimiento:

1. Obtener la soluci
on homogenea con el siguiente procedimiento:

Se escribe el polinomio
caracterstico de la ecuaci
on.

Se escribe el polinomio
caracterstico de la ecuaci
on.

Se obtienen las races i


del polinomio caracterstico.

Se obtienen las races i


del polinomio caracterstico.

Se construye la soluci
on
yh (t) = c1 e1 t + +
c n e n t

Se construye la soluci
on
yh (k) = c1 k1 + + cn kn
2. Obtener una soluci
on particular yp (t). Generalmente se procede probando una soluci
on
similar a la funci
on de entrada, u(k)

2. Obtener una soluci


on particular yp (t). Generalmente se procede probando una soluci
on
similar a la funci
on de entrada, u(t)

3. Construir la respuesta completa y(k) = yh (k) + yp (k), remplazar las condiciones iniciales, y obtener los coeficientes
c1 , , c n

3. Construir la respuesta completa y(t) = yh (t) + yp (t), remplazar las condiciones iniciales, y obtener los coeficientes
c1 , , c n

Tabla 2.2: Metodos elementales de soluci


on de Ecuaciones diferenciales y de
diferencia

25

OSCAR G. DUARTE

Las races de P () son 1 = 1 2 = 2

La soluci
on homogenea es

yh (t) = c1 et + c2 e2t

(2.10)

2. Obtener una soluci


on particular:
Dado que f (t) es un polinomio de grado 2, probamos una soluci
on particular
de esa misma forma:
yp (t) = 2 t2 + 1 t + 0

Calculamos yp (t), y p (t) y f(t):


y p (t) = 22 t + 1
yp (t) = 22
f(t) = 2t + 5
Remplazamos en la E.D.:
22 + 3(22 t + 1 ) + 2(2 t2 + 1 t + 0 ) = 2t + 5
que podemos agrupar as:
22 t2 + (62 + 21 )t + (22 + 31 + 20 ) = 2t + 5
Al igualar coeficientes, obtenemos un sistema de tres ecuaciones y tres inc
ognitas:
22
=0
62 + 21
=2
22 + 31 + 20 = 5
cuya soluci
on es 2 = 0 1 = 1 0 = 1, y por lo tanto la soluci
on particular
es:
yp (t) = t + 1

(2.11)

3. Construir la respuesta completa, y obtener los coeficientes de la respuesta


homogenea
La respuesta completa es:
y(t) = yh (t) + yp (t) = c1 et + c2 e2t + t + 1
y su primera derivada es:
y(t)
= c1 et 2c2 e2t + 1
26

2.2. TRANSFORMADAS DE LAPLACE Y Z

Al evaluar en t = 0 obtenemos las condiciones iniciales


y(0) = c1 e0 + c2 e0 + 0 + 1 = c1 + c2 + 1 = 2
y(0)

= c1 e0 2c2 e0 + 1 = c1 2c2 + 1 = 3
Con estas dos ecuaciones se obtienen los valores de c 1 y c2
c1 = 4 c2 = 3
Por lo tanto, la soluci
on completa de la ecuaci
on diferencial es:
y(t) = 4et 3e2t + t + 1

(2.12)

Ejemplo 2.2 Sea la Ecuaci


on de diferencias:
2y(k + 2) 3y(k + 1) + y(k) = f (k)

(2.13)

en donde f (k) = k 2 y las condiciones iniciales son y(0) = 2, y(1) = 1


Para obtener la soluci
on de esta ecuaci
on podriamos proceder con el metodo
propuesto; en lugar de ello, vamos a presentar una alternativa numerica, que consiste
en despejar de la ecuaci
on la diferencia mas grande, y calcularla iterativamente:
De la ecuaci
on podemos despejar y(k + 2)
y(k + 2) =

1
(f (k) + 3y(k + 1) y(k))
2

Con esta expresi


on podemos construir la siguiente tabla
k
0
1
2
..
.

2.2.
2.2.1.

f (k)
0
1
4
..
.

y(k)
y(0) = 2
y(1) = 1
y(2) = 1/2
..
.

y(k + 1)
y(1) = 1
y(2) = 1/2
y(3) = 3/4
..
.

y(k + 2)
y(2) = 1/2
y(3) = 3/4
y(3) = 23/8
..
.

Transformadas de Laplace y Z
Definiciones

Transformada de Laplace
Dada una funci
on f (t) de los reales en los reales,
f (t) : R R
Existe una funci
on L denominada transformada de Laplace que toma como
argumento f (k) y produce una funci
on F (s) de los complejos en los complejos.
F (s) : C C
27

OSCAR G. DUARTE

f (t) 
RR

L
L

F (s)

CC

Figura 2.1: Transformada de Laplace

La funci
on L1 denominada transformada inversa de Laplace toma como
argumento F (s) y produce f (t), tal como se visualiza en la figura 2.1
La transformada de Laplace se define3 como
Z
.
f (t)est dt
(2.14)
F (s) = L {f (t)} =
0

Existe una definici


on alternativa, conocida como la transformada bilateral de
Laplace, cuyos lmites de integraci
on son ( y ):
Z
.
f (t)est dt
(2.15)
Fb (s) = Lb {f (t)} =

Debido a que nuestro interes se centra en el comportamiento de las se


nales
a partir del instante de tiempo t = 0, trabajaremos con la versi
on unilateral de
la transformada.
Transformada Z
Dada una funci
on f (t) de los enteros en los reales,
f (k) : Z R
Existe una funci
on Z denominada transformada Z que toma como argumento f (t) y produce una funci
on F (s) de los complejos en los complejos.
F (s) : C C
La funci
on Z 1 denominada transformada inversa Z toma como argumento
F (z) y produce f (k), tal como se visualiza en la figura 2.2
La transformada Z se define4 como

X
.
F (z) = Z {f (k)} =
f (k)z k

(2.16)

k=0

3 La integral que define la transformada de Laplace puede no converger para algunos valores
de la variable compleja s,lo que establece una regi
on de convergencia para la transformada de
una determinada funci
on. Este hecho es irrelevante para nuestras aplicaciones de soluciones
de E.D. lineales.
4 De forma semejante al caso de la transformada de Laplace, la sumatoria que define la
transformada Z puede no converger para algunos valores de la variable compleja z, estableciendose asi una regi
on de convergencia para cada funci
on. Este hecho es irrelevante para
nuestras aplicaciones de soluciones de E.D. lineales.

28

2.2. TRANSFORMADAS DE LAPLACE Y Z

f (k) 
ZR

Z
Z

F (z)

CC

Figura 2.2: Transformada Z

Transformada Z

Transformada de Laplace

f (t) 
RR

L
L

f (k) 

F (s)

CC

ZR

Z
Z

F (z)

CC

La transformada de Laplace se define como


.
F (s) R= L {f (t)}

F (s) = 0 f (t)est dt

La transformada Z se define como


.
F (z) P
= Z {f (k)}
k
F (z) =
k=0 f (k)z

.
Fb (s) R= Lb {f (t)}

Fb (s) = f (t)est dt

.
Fb (z)P
= Zb {f (k)}

Fb (z) = k= f (k)z k

Transformada bilateral Z:

Transformada bilateral de Laplace:

Tabla 2.3: Comparaci


on de las definiciones de las transformadas de Laplace y Z

Existe una definici


on alternativa, conocida como la transformada bilateral
Z, cuyos lmites de integraci
on son ( y ):

X
.
F (z) = Z {f (k)} =
f (k)z k

(2.17)

k=

Debido a que nuestro interes se centra en el comportamiento de las se


nales
a partir del instante de tiempo k = 0, trabajaremos con la versi
on unilateral de
la transformada.
La tabla 2.3 muestra una comparaci
on entre las definiciones de las transformadas de Laplace y Z

2.2.2.

Propiedades

Las transformadas de Laplace y Z satisfacen ciertas propiedades que son


muy similares para una y otra transformada; algunas de estas transformadas se
listan en la tabla 2.4, y sus demostraciones se presentan en el apendice A. De
estas propiedades destacamos los siguientes hechos:
29

OSCAR G. DUARTE

1. La propiedad de linealidad permite que la aplicaci


on de estas transformadas a la soluci
on de E.D. lineales sea bastante simple. Por el contrario,
estas transformadas no suelen ser u
tiles para solucionar E.D. No Lineales.
2. Las propiedades de diferenciaci
on y diferencias positivas son las que permiten convertir Ecuaciones Diferenciales y Ecuaciones de Diferencia, respectivamente, en Ecuaciones Algebr
aicas.
3. Hay una diferencia sutil pero importante entre las propiedades de diferenciaci
on y diferencias positivas: las condici
on inicial f (0) est
a multiplicada
por z en el caso discreto, mientras que en el caso contnuo no est
a multiplicada por s.
Este hecho origina algunas diferencias en la forma de las parejas de funciones y sus transformadas (ver secci
on 2.2.3) y en la forma en que se emplea
la expansi
on en fracciones parciales para calcular las transformadas inversas(ver secci
on 2.2.5).
4. La propiedad de multiplicaci
on por el tiempo tiene una expresi
on directa
en el caso continuo (multiplicaci
on por tn ) mientras que en el caso discreto
tiene una expresi
on iterativa (multiplicaci
on por k n ). Este hecho se ve
reflejado en la tabla 2.6
5. La propiedad de convoluci
on pone de manifiesto que la transformada del
producto de dos funciones NO es el producto de las transformadas individuales.
Transformada de Laplace
Sean f (t), f1 (t), f2 (t) tres funciones cuyas Transformadas de
Laplace
son,
respectivamente
F (s), F1 (s), F2 (s), y a un escalar
(real o complejo). Se cumplen las
siguientes propiedades:
Linealidad:

Transformada Z
Sean f (k), f1 (k), f2 (k) tres funciones cuyas Transformadas Z son, respectivamente F (z), F1 (z), F2 (z) y a
un escalar (real o complejo). Se cumplen las siguientes propiedades:

L {f1 (t) + f2 (t)} = F1 (s) + F2 (s)

Z {f1 (k) + f2 (k)} = F1 (z) + F2 (z)

L {af (t)} = aF (s)

Z {af (k)} = aF (z)

Linealidad:

Diferenciaci
on5 :


df (t)
L
= sF (s) f (0+ )
dt

5 El

superndice

(i)

Diferencia positiva:
Z {f (k + 1)} = zF (z) zf (0)

indica la derivada de orden i: f (i) =

30

di f
dti

2.2. TRANSFORMADAS DE LAPLACE Y Z

n n
o
L d dtfn(t) = sn F (s)
Pn1
i=0 sni1 f (i) (0+ )

Z {f (k + n)} = z n F (z)
Pn1 ni
i=0
z f (i)

Desplazamiento en la frecuencia:


L eat f (t) = F (s a)

Escalamiento en la frecuencia:


Z ak f (t) = F (z/a)

Multiplicaci
on por t:

Multiplicaci
on por k:

L {tn f (t)} = (1)n

dn F (s)
dsn

Z {k n f (k)} =
z

Teorema de valor inicial:

Teorema de valor inicial:

lm f (t) = lm sF (s)

f (0) = lm F (z)

t0+

Teorema de valor final:

Teorema de valor final:


lm f (k) = lm (z 1)F (z)

lm f (t) = lm sF (s)

o
d n (n1)
Z k
f (k)
dz

s0

Convoluci
on:

z1

Convoluci
on:

L {f1 (t) f2 (t)} = F1 (s)F2 (s)


Z
f1 (t) f2 (t) =
f1 (t )f2 ( )d

Z {f1 (k) f2 (k)} = F1 (z)F2 (z)


f1 (k) f2 (k) =

k=0

f1 (k)f2 (h k)

Tabla 2.4: Propiedades de las transformadas de Laplace y Z

2.2.3.

Parejas de transformadas

La tabla 2.5 muestra las parejas de transformadas para las funciones elementales m
as importantes en el an
alisis de sistemas din
amicos. El contenido de la
tabla se demuestra en el Apendice A. De estas parejas destacamos los siguientes
hechos:
1. En cada uno de los casos de las tablas 2.5 y 2.6, las transformadas (de
31

OSCAR G. DUARTE

Transformada de Laplace
f (t)

F (s)

f (k)

(t)

1
s

(k)

eat

1
sa

s2 + 2
s
s2 + 2

(s)2 + 2
(s)
(s)2 + 2

ak

sin t
cos t
e

sin t

et cos t

Transformada Z

sin ak
cos ak
bk sin ak
bk cos ak

F (z)
z
z1
z
za

z sin a
z 2 2z cos a+1
z 2 z cos a
z 2 2z cos a+1
zb sin a
z 2 2bz cos a+b2
2
z zb cos a
z 2 2bz cos a+b2

Tabla 2.5: Tabla de parejas de transformadas elementales

Laplace o Z) son fraccciones de polinomios en la variable compleja (s o


z).
2. Al comparar estos polinomios en funciones an
alogas (por ejemplo eat y
k
a ) notamos que el orden del denominador es el mismo; en el numerador,
sin embargo, sucede que el orden de los polinomios de la transformada
Z siempre es superior en 1 al de su contraparte en la transformada de
Laplace.
3. Si centramos nuestra atenci
on en la tabla 2.5, podemos notar que la ubicaci
on de los polos de las funciones transformadas en el plano complejo
determina el tipo de funci
on en el dominio del tiempo. Este hecho se resalta
en la tabla 2.7 y en las figuras 2.3 y 2.4
4. Las funciones rese
nadas en la tabla 2.6 tambien est
an asociadas a una
ubicaci
on especfica de los polos en el plano complejo, pero cuando estos
se repiten.

2.2.4.

Utilizaci
on de la tabla de parejas de transformadas

Para emplear las tablas 2.5 y 2.6 para obtener la transformada inversa de
una funci
on, primero hay que expresar esta u
ltima como alguno de los casos que
aparecen en dichas tablas. Suele ser u
til recordar que las transformaciones de
Laplace y Z son funciones lineales.
Ejemplo 2.3 Para obtener la transformada inversa de Laplace de F (s) =
primero reescribimos la F (s) como:
F (s) =

1
4
=4
s3
s3
32

4
s3 ,

2.2. TRANSFORMADAS DE LAPLACE Y Z

Transformada de Laplace

Transformada Z

f (t)

F (s)

f (k)

t(t)

1
s2

k(k)

z
(z1)2

tn (t)

n!
s(n+1)
1
(sa)2
n!
(sa)(n+1)
2s
(s2 + 2 )2

k n (k)

iterar

s2 2
(s2 + 2 )2
2(s)
((s)2 + 2 )2
(s)2 2
((ssigma)2 + 2 )2

k cos ak

te

at

tn eat
t sin t
t cos t
te

sin t

tet cos t

ka

F (z)

az
(za)2

k n ak

iterar

k sin ak

z 3 sin az sin a
[z 2 2z cos a+1]2
[z 3 +z] cos a2z 2
[z 2 2z cos a+1]2
z 3 b sin azb3 sin a
[z 2 2bz cos a+b2 ]2
[bz 3 +b3 z] cos a2b2 z 2
[z 2 2bz cos a+b2 ]2

kbk sin ak
kbk cos ak

Tabla 2.6: Tabla de parejas de transformadas elementales multiplicadas por el


tiempo
Caso Contnuo
Ubicaci
on
de Funci
on
los polos

Caso Discreto
Ubicaci
on
de Funci
on
los polos

Origen
Semieje real positivo

escal
on
exponenciales
crecientes

(1, 0)
Intervalo (1, )
del eje real

exponenciales decrecientes

Intervalo
(, 1)
del
eje real
Intervalo
(0, 1)
del eje real

Semieje real negativo

Intervalo (1, 0)
del eje real
Eje imaginario

sinusoidales

Complejos
en
el
semiplano
derecho

funciones
sinusoidales
amplificadas
por
una exponencial
creciente
sinusoidales amplificadas
por
una exponencial
decreciente

Complejos
en
el
semiplano
izquierdo

circunferencia
unitaria
Complejos fuera
del crculo unitario

Complejos dentro
del crculo unitario

escal
on
series geometricas
crecientes no alternantes
series geometricas
crecientes
alternantes
series geometricas decrecientes
no alternantes
series geometricas decrecientes
alternantes
sinusoidales.
sinusoidales amplificadas por una
serie geometrica
creciente
sinusoidales amplificadas por una
serie geometrica
decreciente

Tabla 2.7: Ubicaci


on de los polos en los planos complejos y funciones en el tiempo

33

OSCAR G. DUARTE

Figura 2.3: Funciones contnuas seg


un la ubicaci
on de sus polos en el plano s







 
 


 
 

   

   




















Figura 2.4: Funciones discretas seg


un la ubicaci
on de sus polos en el plano s

34

2.2. TRANSFORMADAS DE LAPLACE Y Z

1
La expresi
on s3
es de la forma
e . Aplicando linealidad tenemos:
at

1
sa ,

cuya transformada inversa de Laplace es





1
1
= 4L1
= 4e3t
f (t) = L1 {F (s)} = L1 4
s3
s3
Ejemplo 2.4 Para obtener la transformada inversa de Laplace de F (s) = s2s+2
+s+1 ,
primero destacamos que el denominador de F (s) es de segundo orden, y por tanto
es similar al que aparece en las transformadas de Laplace de las sinusoides amortiguadas. Con esto presente, buscamos reescribir F (s) con el denominador en la
forma (s )2 + 2 . Para ello, n
otese que
(s )2 + 2 = s2 2s + 2 + 2
Igualando los coeficientes podemos identificar 2 = 1 (y por tanto = 1/2)
y 2 + 2 = 1 (y por tanto 2 = 3/4). En consecuencia, podemos reescribir F (s)
como
s+2
s+2
=
2
s2 + s + 1
s + 21 +

F (s) =

F (s) =

s+
s+

3
1
2 + 2

1 2
+ 43
2

3
4

s + 21
2

+
3
=


2
2
s + 21 + ( 23 )2
s + 21 + ( 23 )2

Los dos sumandos corresponden a transformadas de la forma e t cos(t) +


sin(t), por lo tanto:
f (t) = L

{F (s)} = e

12 t

1t
3
3
t) + 3e 2 sin(
t)
cos(
2
2

Este resultado puede reescribirse utilizando la identidad trigonometrica:


A cos + B sin = C cos( + )
con C =

A2 + B 2 y = tan1
f (t) = e

f (t) = e

21 t

12 t

"

"

B
A.

3
3
t + 3 sin
t
cos
2
2

1 + 3 cos

f (t) = 2e

Por lo tanto, f (t) resulta ser:

21 t

cos

35

!#
3
3
1
t tan
2
1

3
t 60
2

OSCAR G. DUARTE

2.2.5.

Transformadas inversas por expansi


on de fracciones
parciales

Una de las estrategias que pueden emplearse para obtener la transformada


Inversa de Laplace (o Z) de una funci
on racional de polinomios en s (o z):
F (s) =

m s m + + 1 s + 0
n s n + + 1 s + 0

consiste en reescribir F (s) (o F (z)) como suma de funciones m


as sencillas, cuyas transformadas inversas sean posibles de obtener mediante la lectura de las
tablas de parejas. Este procedimiento se conoce como la expansi
on en fracciones
parciales.
El procedimiento general puede enumerarse como sigue:
1. Si m n entonces se realiza la divisi
on hasta obtener una fracci
on en la
que el grado del polinomio del denominador sea mayor al del numerador;
en los siguientes puntos se trabaja s
olo con la fracci
on.
Ejemplo 2.5
F (s) =

3
2s2 + s + 2
= 2s 1 +
s+1
s+1

2. Identificar las races del polinomio del denominador (pi ), y cu


antas veces
se repite cada una de ellas (ri , o multiplicidad de la raiz).
F (s) =

N (s)
N (s)
=
D(s)
(s p1 )r1 (s p2 )r2 (s pk )rk

Evidentemente la suma de las multiplicidades ser


a n, el grado del polinomio D(s)
3. Escribir la fracci
on como suma de de fracciones parciales:
F (s) =

A11
A1r1
A21
Akrk
N (s)
=
+ +
+
++
D(s)
(s p1 )
(s p1 )r1
(s p2 )
(s pk )rk

4. Obtener los coeficientes Aij


Este sencillo procedimiento tiene dos puntos de dificultad, el primero de los
cuales es c
omo encontrar las races de D(s), y el segundo c
omo obtener los
coeficientes Aij .
Para la obtenci
on de las races suponemos que disponemos de alg
un tipo
de procedimiento (analtico o computacional) para ello. Para la obtenci
on de
los coeficientes Aij , por su parte, pueden seguirse los siguientes procedimientos,
seg
un sea el caso:
1. Polos de multiplicidad 1 Si el polo pi tiene multiplicidad 1, el coeficiente
Ai1 de la expansi
on podr
a calcularse como:
Ai1 = {(s pi )F (s)}|s=pi
36

(2.18)

2.2. TRANSFORMADAS DE LAPLACE Y Z

Ejemplo 2.6
F (s) =

A11
A21

3s + 1
A11
A21
=
+
(s + 2)(s + 4)
s+2 s+4





3s + 1
7
3s + 1

=
=
= (s + 2)
(s + 2)(s + 4) s=2
(s + 4) s=2
2





3s + 1
13
3s + 1

=
=
= (s + 4)


(s + 2)(s + 4) s=4
(s + 2) s=4
2


F (s) =

7/2
13/2
3s + 1
=
+
(s + 2)(s + 4)
s+2
s+4

2. Polos de multiplicidad mayor que 1


Si el polo pi tiene multiplicidad ri , el coeficiente Aij de la expansi
on podr
a
calcularse como:


1
dri j
ri
Aij =
(2.19)
{(s pi ) F (s)}
r
j
i
(ri j)! ds
s=pi

Esta expresi
on tambien es v
alida para ri = 1, si se considera que 0! = 1,
y que la derivada de orden cero es la misma funci
on.
Ejemplo 2.7
F (s) =

A13

1 d0
=
(0)! ds0

A12 =

1 d1
(1)! ds1

A11 =

1 d2
(2)! ds2

4s2 1
A11
A12
A13
=
+
+
3
2
(s + 2)
(s + 2) (s + 2)
(s + 2)3



4s2 1
(s + 2)
= 4s2 1 s=2 = 15
(s + 2)3 s=2


4s2 1
= 8s|s=2 = 8(2) = 16
(s + 2)3
(s + 2)3 s=2


2

1
3 4s 1
= 8|s=2 = 4
(s + 2)
(s + 2)3 s=2
2

F (s) =

4s2 1
4
16
16
=
+
+
3
2
(s + 2)
(s + 2) (s + 2)
(s + 2)3

El procedimiento anterior tambien es v


alido cuando las races del denominador son complejas:
37

OSCAR G. DUARTE

Ejemplo 2.8
F (s) =

A11
A21
A21

10
A11
A21
A31
=
+
+
s(s2 + 4s + 13)
s 0 s (2 + j3) s (2 j3)






10
10
10


=
=
= (s) 2


2
s(s + 4s + 13) s=0
(s + 4s + 13) s=0
13



10

= (s (2 + j3)) 2
s(s + 14s + 13) s=2+j3



10

=
s(s (2 j3))


s=2+j3

A21
A31
A31

10
10
=
=
= 0.38 + j0.26
(2 + j3)(2 + j3 (2 j3))
(2 + j3)(j6)



10

= (s (2 j3)) 2
s(s + 14s + 13) s=2j3



10

=
s(s (2 + j3))
s=2j3

A31

10
10
=
=
= 0.38 j0.26
(2 j3)(2 j3 (2 j3))
(2 j3)(j6)

F (s) =

s(s2

10/13 0.38 + j0.26 0.38 j0.26


10
=
+
+
+ 4s + 13)
s
s (2 + j3)
s (2 j3)

Las fracciones complejas pueden sumarse (n


otese que los numeradores y denominadores de una fracci
on son los conjugados de la otra):
F (s) =

s(s2

10
10/13 0.77s + 3.08
=
2
+ 4s + 13)
s
s + 4s + 13

Otra estrategia
Existe otra posibilidad para obtener los coeficientes Aij . Consiste en efectuar
la suma de las fracciones parciales e igualar coeficientes.
Tambien pueden combinarse las dos estrategias. Adem
as, puede emplearse el hecho seg
un el cual la suma de las fracciones debidas a polos complejos
conjugados ser
an de la forma
As + B
s2 + Cs + D
Ejemplo 2.9
F (s) =

A11
A21
3s + 1
=
+
(s + 2)(s + 4)
s+2 s+4
38


2.3. SOLUCION
DE E.D. LINEALES MEDIANTE
TRANSFORMADAS

Al sumar las fracciones parciales se tiene:


F (s) =

A11 s + 4A11 + A21 s + 2A21


3s + 1
=
(s + 2)(s + 4)
(s + 2)(s + 4)
(A11 + A21 )s + (4A11 + 2A21 )
=
(s + 2)(s + 4)

Al igualar coeficientes se genera un sistema de dos ecuaciones lineales con dos


inc
ognitas:

A11 + A21 = 3
A11 = 7/2 A21 = 13/2
4A11 + 2A21 = 1
F (s) =

7/2
13/2
3s + 1
=
+
(s + 2)(s + 4)
s+2
s+4

Ejemplo 2.10
F (s) =

s(s2

10
A11
As + B
=
+ 2
+ 4s + 13)
s
s + 4s + 13

Obtenemos el primer coeficiente con 2.18:








10
10
10


=
=
A11 = (s) 2


2
s(s + 4s + 13) s=0
(s + 4s + 13) s=0
13

Reescribimos la expansi
on e igualamos coeficientes:
10
13

As + B
s2 + 4s + 13
10 2
10
10
s + 4 13
s + 3 13
+ As2 + Bs
F (s) = 13
2
s(s + 4s + 13)

F (s) =

10
13 + A =
10
4 13
+B =

0
0

A = 10/13 B = 40/13

40
10
10
10/13
13 s 13
=
+
s(s2 + 4s + 13)
s
s2 + 4s + 13
10/13 0.77s + 3.08
10
=
2
F (s) =
s(s2 + 4s + 13)
s
s + 4s + 13

F (s) =

2.3.

Soluci
on de E.D. lineales mediante
transformadas

La soluci
on de Ecuaciones Diferenciales (o de diferencia) mediante transformadas emplea el siguiente procedimiento:
39

OSCAR G. DUARTE

1. Aplicar la transformada (de Laplace o Z seg


un sea el caso) a cada lado de
la Ecuaci
on.
2. Despejar la transformada de la funci
on desconocida.
3. Aplicar la transformada inversa (de Laplace o Z seg
un sea el caso) a la
funci
on desconocida.
Para la aplicaci
on del u
ltimo paso, suele ser conveniente utilizar la expansi
on
en fracciones parciales.
Ejemplo 2.11 Resolver la ecuaci
on diferencial
y(k + 2) + 3y(k + 1) + 2y(k) = 5(k)
Con las condiciones iniciales : y(0) = 1, y(1) = 2.
1. Al aplicar la Transformada Z a cada lado de la ecuaci
on se tiene:
Z {y(k + 2) + 3y(k + 1) + 2y(k)} = Z {5(k)}
Debido a la propiedad de linealidad se tiene
Z {y(k + 2)} + 3Z {y(k + 1)} + 2Z {y(k)} = 5Z {(k)}
Si denominamos por Y (z) a Z {y(k)}, y empleamos la propiedad de diferencias positivas, tenemos
 2

z
z Y (z) z 2 y(0) zy(1) + 3 [zY (z) zy(0)] + 2Y (z) = 5
z1

Reemplazando los valores de las condiciones iniciales, tenemos:





z
z 2 Y (z) + z 2 2z) + 3 [zY (z) + z] + 2Y (z) = 5
z1

2. Para despejar la transformada de la funci


on desconocida Y (z) escribimos:


z
Y (z) z 2 + 3z + 2 + z 2 2z + 3z = 5
z1


z 3 + 6z
z
z2 z =
Y (z) z 2 + 3z + 2 = 5
z1
z1
Y (z) =

z 3 + 6z
z 3 + 6z
=
2
(z 1)(z + 3z + 2)
(z 1)(z + 1)(z + 2)
40


2.3. SOLUCION
DE E.D. LINEALES MEDIANTE
TRANSFORMADAS

3. Para aplicar la transformada inversa Z primero efectuamos una expansi


on en
fracciones parciales de Y z(z)
Y (z)
z 2 + 6
A11
A21
A31
=
=
+
+
z
(z 1)(z + 1)(z + 2)
z1 z+1 z+2
Los coeficientes se pueden calcular como



5
z 2 + 6

=
A11 =
(z + 1)(z + 2) z=1
6
A21 =

A31 =
Por lo tanto



z 2 + 6
5

=

(z 1)(z + 2) z=1
2



z 2 + 6
2

=
(z 1)(z + 1) z=2
3

5
5
2
Y (z)
z 2 + 6
=
= 6 + 2 + 3
z
(z 1)(z + 1)(z + 2)
z1 z+1 z+2

Y (z) =

5
6z

z1

5
2 z

z+1

2
3z

z+2

La transformada inversa Z se puede obtener ahora en forma directa:


y(k) = Z 1 {Y (z)} =

5
2
5
(k) +
(1)k + (2)k
6
2
3

41

OSCAR G. DUARTE

42

Captulo 3
Introduccion al analisis de sistemas
dinamicos lineales

En este captulo se presentan algunas herramientas b


asicas del an
alisis de
sistemas din
amicos. La secci
on 3.1 muestra c
omo puede descomponerse la respuesta de cualquier sistema din
amico en las respuesta de entrada cero y de
estado cero; a partir de esta u
ltima se presenta en la secci
on 3.2 la definici
on de
funci
on de transferencia; con esta definici
on se desarrollan en las secciones 3.3
y 3.4 se presentan dos herramientas gr
aficas; la respuesta al impulso se analiza
en la secci
on 3.5.

3.1.

Respuestas de estado cero y de entrada cero

3.1.1.

Sistemas continuos
u(t)

Sistema

- y(t)

Figura 3.1: Sistema Din


amico Continuo

Sup
ongase un sistema din
amico lineal continuo como el de la figura 3.1,
cuya relaci
on entre la entrada u(t) y la salida y(t) est
a descrita por la siguiente
ecuaci
on diferencial generica:
an

dy
dm u
du
dn y
+ + a1
+ a0 y(t) = bm m + + b1
+ b0 u(t)
n
dt
dt
dt
dt
43

(3.1)

OSCAR G. DUARTE

o en forma resumida:
n
X

ai y (i) (t) =

m
X

bi u(i) (t)

i=0

i=0

Al aplicar la transformada de Laplace a esta ecuaci


on se tiene:
( n
)
(m
)
X
X
(i)
(i)
L
ai y (t) = L
bi u (t)
i=0

n
X
i=0

n
X

s Y (s)

ai

i=0

i1
X

i=0

m
n
o X
n
o
ai L y (i) (t) =
bi L u(i) (t)
i=0

ik1 (k)

(0 )

k=0

m
X

bi

i=0

n
X
i=0

ai s Y (s)

n
i1
X
X
i=0

ik1 (k)

(0 )

k=0

m
X
i=0

s U (s)

i1
X

ik1 (k)

ik1 (k)

ik1 (k)

(0 )

k=0

bi s U (s)

m
i1
X
X
i=0

(0 )

k=0

De esta ecuaci
on podemos despejar Y (s) como:
n
X
i=0

ai si Y (s) =

m
X

bi si U (s)+

i=0

n
i1
X
X
i=0

ik1 (k)

o de otra forma:

(0 )

k=0

Pm
i
i=0 bi s U (s)
Y (s) = P
+
n
i
i=0 ai s

P
P
n
i=0

i1 ik1 (k) +
y (0 )
k=0 s
Pn
i
i=0 ai s

44

m
i1
X
X
i=0

k=0

Pm Pi1
i=0

(0 )

ik1 (k) +
u (0 )
k=0 s
Pn
i
i=0 ai s

3.1. RESPUESTAS DE ESTADO CERO Y DE ENTRADA CERO

 Pm

bi si
i=0
Y (s) = Pn
U (s)+
i
i=0 ai s

Pn
Pi1 ik1 (k) +  Pm Pi1 ik1 (k) + 
u (0 )
y (0 ) i=0
k=0 s
k=0 s
i=0

Pn
i
i=0 ai s

(3.2)

La ecuaci
on (3.2) muestra que la respuesta de un sistema din
amico continuo
puede descomponerse en dos partes1 :
Respuesta de estado cero: Es la primera parte de la ecuaci
on (3.2). Depende de la entrada U (s) y no de las condiciones iniciales; de hecho, es la
respuesta que tiene el sistema si las condiciones iniciales son cero, es decir,
si su estado inicial es cero (de all su nombre).
Respuesta de entrada cero: Es la segunda parte de la ecuaci
on (3.2). Depende de las condiciones iniciales y no de la entrada U (s); de hecho, es la
respuesta que tiene el sistema si la entrada es cero (de all su nombre).

3.1.2.

Sistemas discretos
u(k)

Sistema

- y(k)

Figura 3.2: Sistema Din


amico Discreto

Sup
ongase un sistema din
amico lineal discreto como el de la figura 3.2, cuya
relaci
on entre la entrada u(k) y la salida y(k) est
a descrita por la siguiente
ecuaci
on de diferencias generica:
an y(k + n) + + a1 y(k + 1) + a0 y(k) =

bn u(k + n) + + b1 y(k + 1) + b0 u(k) (3.3)

o en forma resumida:
n
X

ai y(k + i) =

i=0

m
X

bi u(k + i)

i=0

Al aplicar la transformada Z a esta ecuaci


on se tiene:
)
)
(m
( n
X
X
bi u(k + i)
ai y(k + i) = Z
Z
i=0

i=0

1 Otra clasificaci
on corresponde a respuesta forzada (con la forma de la entrada) y respuesta
natural (con la forma debida al polinomio caracterstico)

45

OSCAR G. DUARTE

n
X

ai Z {y(k + i)} =

i=0

n
X
i=0

n
X
i=0

ai z i Y (z)
i

ai z Y (z)

n
X
i=0

i1
X
j=0

i1
X
j=0

z ij y(j) =
z

ij

y(j) =

m
X
i=0

m
X
i=0

m
X
i=0

bi Z {u(k + i)}

bi z i U (z)
i

bi z U (z)

i1
X
j=0

z ij u(j)

m
i1
X
X
i=0

ij (

u j)

k=0

De esta ecuaci
on podemos despejar Y (z) como:
n
X

ai z i Y (z) =

i=0

Y (z) =

m
X

bi z i U (z) +

n
X
i=0

i=0

m
i1
i1
X
X
X

z ik u(j)
z ik y(j)

Pm
i
i=0 bi z U (z)
P
+
n
i
i=0 ai z
P
P
n
i=0

o de otra forma:

i1 ik1 (k) +
y (0 )
k=0 s
Pn
i
i=0 ai z


 Pm
bi z i
i=0
U (s)+
Y (z) = Pn
i
i=0 ai z
Pn Pi1
i=0

i=0

j=0

j=0

Pm Pi1
i=0

ik1 (k) +
u (0 )
k=0 s
Pn
i
i=0 ai z

 P
P

m
i1 ik
ik
j
y(j)

z
u(j)
j=0
i=0
j=0

Pn
i
a
z
i=0 i

(3.4)

De forma semejante al caso continuo, la ecuaci


on 3.4 muestra que la respuesta
de un sistema din
amico continuo puede descomponerse en dos partes:
Respuesta de estado cero: Es la primera parte dela ecuaci
on 3.4. Depende
de la entrada U (z) y no de las condiciones iniciales; de hecho, es la respuesta que tiene el sistema si las condiciones iniciales son cero, es decir, si
su estado inicial es cero (de all su nombre).
Respuesta de entrada cero: Es la segunda parte dela ecuaci
on 3.4. Depende de las condiciones iniciales y no de la entrada U (z); de hecho, es la
respuesta que tiene el sistema si la entrada es cero (de all su nombre).
46

3.2. FUNCIONES DE TRANSFERENCIA

3.2.

Funciones de transferencia

Se define la funci
on de transferencia de un sistema continuo o discreto como
la relaci
on en el dominio de la frecuencia compleja entre salida y entrada con
condiciones iniciales nulas


Y (z)
Y (s)
F
(z)
=
F (s) =
U (s) C.I.=0
U (z) C.I.=0
De acuerdo con las ecuaciones 3.2 y 3.4, la funci
on de transferencia ser
a,
para los casos continuo y discreto, respectivamente:
Pm
i
i=0 bi s
F (s) = Pm
i
i=0 ai s

Pm
i
i=0 bi z
F (z) = Pm
i
i=0 ai z

Y (s) = F (s)U (s)

Y (z) = F (z)U (z)

Las expresiones

s
olo son v
alidas si las condiciones iniciales son nulas. En este caso, es posible
representar gr
aficamente la relaci
on entrada-salida del sistema mediante dos
tipos de diagramas:
Diagramas de bloque: La figura 3.3 muestra un sistema como un bloque definido por la funci
on de transferencia F (s) o F (z), que recibe una se
nal
de entrada U (s) o U (z) y entrega una se
nal de salida Y (s) o Y (z). Estos
diagramas se explican en la secci
on 3.3.
Diagramas de flujo de se
nal: La figura 3.4 muestra un sistema como dos
se
nales U (s) y Y (s) (o U (z) y Y (z)) relacionadas entre s por la funci
on
de transferecia F (s) o F (z). Estos diagramas se explican en la secci
on 3.4

U (s) - F (s)

- Y (s)

U (z) - F (z)

- Y (z)

Figura 3.3: Diagrama de bloques mnimo

F (s)
U (s) s

F
-(z)
sY (s)

U (z) s

sY (z)

Figura 3.4: Diagrama de flujo de se


nal mnimo

47

OSCAR G. DUARTE

3.3.

Diagramas de bloques

Un sistema complejo puede representarse por distintos subsistemas interrelacionados. Estas relaciones pueden visualizarse mediante un Diagrama de Bloques.
La figura 3.5 muestra algunas de las equivalencias que rigen el a
lgebra de

los diagramas de bloques. Estas


se emplean para obtener diagramas de bloques
equivalentes reducidos, y asi encontrar la funci
on de transferencia de sistemas
complejos.
Ejemplo 3.1 2 Para obtener la funci
on de transferencia equivalente del diagrama de
la figura 3.6 inicialmente intentariamos efectuar reducciones de bloques en cascada
o en paralelo, pero en el diagrama no se identifica ninguno de estos bloques. No
obstante, podemos efectuar una reducci
on con el siguiente procedimiento:
Desplazamos el sumador que recibe la se
nal de b 1 (ver figura 3.7(a))
Intercambiamos el orden de los dos sumadores contiguos, ya que la suma es
conmutativa (ver figura 3.7(b))
Efectuamos una reducci
on del bloque en retroalimentaci
on resultante (ver
figura 3.7(c))
Efectuamos una reducci
on del bloque en cascada resultante (ver figura 3.7(d))
Identificamos un bloque en paralelo (ver figura 3.7(e))
Efectuamos la reducci
on del bloque en paralelo (ver figura 3.7(f))
Efectuamos un desplazamiento del segundo sumador (ver figura 3.7(g))
Identificamos un bloque en paralelo y un bloque en retroalimentaci
on (ver
figura 3.7(h))
Efectuamos la reducci
on de los bloques identificados (ver figura 3.7(h))
Efectuamos la reducci
on del bloque en cascada final (ver figura 3.7(i))

3.4.

Diagramas de flujo de se
nal

La figura 3.8 presenta las relaciones b


asicas de un diagrama de flujo de se
nal.
N
otese que el enfasis se pone en la se
nal y no en el sistema, a diferencia de los
diagramas de bloques. Este es un texto de an
alisis de sistemas y no de an
alisis
de se
nales, por esa raz
on preferimos los diagramas de bloques a los de flujo de
se
nal.
2 Adaptado

de [9]

48


3.4. DIAGRAMAS DE FLUJO DE SENAL

Suma de se
nales
X2 (s)

?

+- X1 (s) X2 (s)

Conexi
on en cascada

X1 (s)

- F1 (s)

- F2 (s)

- F1 (s)F2 (s)

Conexi
on Paralelo
- F1 (s)

?+
k6+

- F2 (s)

F1 (s) + F2 (s)

Retroalimentaci
on
+ k - G(s)

H(s) 

G(s)
1G(s)H(s)

Traslado del sumador


X1 (s)

- F1 (s)

X2 (s)

- F2 (s)

X1 (s)
+?
Y(s)
+ k
-

X2 (s)

F1 (s)
F2 (s)

+?
+ k
- F2 (s)

Y (s)
-

Traslado del punto de salida


X(s)

- F1 (s)

Y1 (s)

- F2 (s)

Y2 (s)

Y1 (s)

X(s) - F (s)
1
-

F2 (s)
F1 (s)

Figura 3.5: Equivalencias de los Diagramas de Bloques

49

Y2 (s)

OSCAR G. DUARTE

b2
b1
+

1/s

+
+


1/s

+


a1
a0

Figura 3.6: Diagrama de Bloques del ejemplo 3.1

No obstante lo anterior, el ejemplo 3.1 pone de manifiesto que para la obtenci


on de la funci
on de transferencia de un sistema a partir de su diagrama
de bloques es necesario desarrollar una habilidad especfica debido a que no
existe un algoritmo para ello. Por el contrario, si se utilizan diagramas de flujo
de se
nal s se cuenta con un procedimiento para la obtenci
on de la funci
on de
transferencia conocido como la regla de Mason.
La regla de Mason, que se explica en la secci
on 3.4.1, emplea las definiciones
que se presentan a continuaci
on y que se ilustran en el ejemplo 3.2.
Camino directo Conjunto de ramas que llevan de la entrada a la salida, sin
repetirse.
Ganancia de camino directo Producto de las ganancias de las ramas que
forman el camino directo.
Lazo cerrado Conjunto de ramas que parten de un nodo y llegan a el mismo
nodo, sin repetir ning
un otro nodo.
Ganancia de lazo cerrado Producto de las ganancias de las ramas que forman un lazo.
Lazos adyacentes Lazos que comparten al menos un nodo.
Lazos no adyacentes Lazos que no comparten ning
un nodo.
Ejemplo 3.2 Considerese el diagrama de flujo de se
nal de la figura 3.9(a)
Camino directo Las figuras 3.9(b) y 3.9(c) muestran los caminos directos. 3.2
Ganancia de camino directo Las ganancias de camino directo Son:
Figura 3.9(b): T1 = G1 (s)G2 (s)G3 (s)G4 (s)G5 (s)G6 (s)
50


3.4. DIAGRAMAS DE FLUJO DE SENAL

b2
sb1
+

b2
+

1/s

1/s


+


++


a1

sb1

1/s

a0

a0

(a) Primer paso

(b) Segundo paso

b2
sb1

b2
sb1

+


1
s+a1

1/s

a0

(c) Tercer paso

(d) Cuarto paso

b2
sb1
+

b2
+

+
+

1
s(s+a1 )

sb1 + 1

1
s(s+a1 )

(f) Sexto paso

b2 s(s + a1 )

b2 s(s + a1 )
+

sb1 + 1

a0

(e) Quinto paso

a0

a0

1
s(s+a1 )

a1

1/s


+
1
s(s+a1 )


sb1 + 1

1
s(s+a1 )

a0

a0

(g) Septimo paso

b2 s(s + a1 ) + sb1 + 1

(h) Octavo paso

1
s(s+a1 )+a0

(b2 s(s + a1 ) + sb1 + 1)

(i) Noveno paso

1
s(s+a1 )+a0

(j) Decimo paso

Figura 3.7: Soluci


on del ejemplo 3.1

51

OSCAR G. DUARTE

Nodos y Ramas
F (s)
X(s)


Y (s) = F (s)X(s)

Y (s)

Suma de Se
nales
X3 (s)
F2 (s)

F3 (s)

X2 (s)
X1 (s)

Y (s)

Y (s) = F1 (s)X1 (s)+


F2 (s)X2 (s) F3 (s)X3 (s)

F1 (s)

Figura 3.8: Equivalencias de los Diagramas de de Flujo de Se


nal

Figura 3.9(c): T2 = G1 (s)G2 (s)G3 (s)


G12 (s)G6 (s).
Lazo cerrado Las figuras 3.9(d) a 3.9(f) muestran los lazos del ejemplo.
Ganancia de lazo cerrado Las ganancias de lazo cerrado son:
Figura 3.9(d): L1 = G4 (s)G9 (s)G10 (s)
Figura 3.9(e): L2 = G6 (s)G7 (s)G8 (s)
Figura 3.9(f): L3 = G2 (s)G3 (s)G4 (s)G12 (s)G13 (s)
Lazos adyacentes Los lazos mostrados en las figuras 3.9(e) y 3.9(f) son adyacentes.
Lazos no adyacentes Los lazos mostrados en las figuras 3.9(d) y 3.9(e) son no
adyacentes.

3.4.1.

Regla de Mason

El c
alculo de la funci
on de transferencia F (s) de un diagrama de flujo de
se
nal esta dado por:
Pp
T k k
Y (s)
= k=1
F (s) =
X(s)

Donde:
p= N
umero de caminos directos de X(s) a Y (s)
Tk = Ganancia del camino directo n
umero k
52


3.4. DIAGRAMAS DE FLUJO DE SENAL

G11 (s)

G1 (s)

G2 (s)

G3 (s)

G4 (s)

G9 (s)
G10 (s)

G5 (s)

G6 (s)

G8 (s)
G7 (s)

G12 (s)

G13 (s)

(a) Ejemplo

(b) Camino Directo 1

(c) Camino Directo 2

(d) Lazo Cerrado 1

(e) Lazo Cerrado 2

(f) Lazo Cerrado 3

Figura 3.9: Definiciones de Diagramas de Flujo de Se


nal

53

OSCAR G. DUARTE

G1 (s)

G2 (s)

G3 (s)

G4 (s)

G5 (s)

X(s)

Y (s)

H1 (s)

H2 (s)

H5 (s)

G6 (s)

H4 (s)

H3 (s)

Figura 3.10: Diagrama de Flujo de Se


nal del ejemplo 3.3

= 1
- (Suma de ganancias de lazos cerrados)
+ (Suma de ganancias de lazos no adyacentes tomados de a 2)
- (Suma de ganancias de lazos no adyacentes tomados de a 3)
+ (Suma de ganancias de lazos no adyacentes tomados de a 4)

k : para el diagrama eliminando los lazos que tocan el camino n


umero
k
Ejemplo 3.3 Para el sistema de la figura 3.10 la aplicaci
on de la regla de Mason
es como sigue:
S
olo existe un camino directo (p = 1), cuya ganancia es:
T1 = G 1 G 2 G 3 G 4 G 5
Existen cuatro lazos cerrados, cuyas ganancias son:
L1 =G2 H1
L2 =G4 H2
L3 =G6 H3
L4 =G2 G3 G4 G5 H4 G6 H5
Como existen 4 lazos, hay 6 posibles grupos de 2 lazos (L 1 L2 , L1 L3 , L1 L4 ,
L2 L3 , L2 L4 , L3 L4 ), pero de ellos, s
olo son no adyacentes los siguientes:
L1 L2 =G2 H1 G4 H2
L1 L3 =G2 H1 G6 H3
L2 L3 =G4 H2 G6 H3
54

3.5. RESPUESTA AL IMPULSO

Como existen 4 lazos, hay 4 posibles grupos de 3 lazos (L 1 L2 L3 , L1 L2 L4 ,


L1 L3 L4 , L2 L3 L4 ), pero de ellos, s
olo hay uno que es no adyacentes:
L 1 L 2 L 3 = G 2 H1 G 4 H2 G 6 H3
Como existen 4 lazos, s
olo hay un posible grupo de 4 lazos (L 1 L2 L3 L4 ), pero
estos son adyacentes.
De acuerdo con lo anterior, el valor de es:

(L + L + L + L3)

1
2
3
=
+(L1 L2 + L1 L3 + L2 L3 )

(L1 L2 L3 )

(G H + G H + G H + G G G G H G H )

2 1
4 2
6 3
2 3 4 5 4 6 5
=
+(G2 H1 G4 H2 + G2 H1 G6 H3 + G4 H2 G6 H3 )

(G2 H1 G4 H2 G6 H3 )

Al eliminar los lazos que tocan el u


nico camino directo s
olo subsiste el lazo
L3 . Por lo tanto resulta:
1 = 1 (G6 H3 )
Dado que s
olo hay un camino directo, la funci
on de transferencia se calcula
como:
Pp
T k k
T 1 1
Y (s)
= k=1
=
F (s) =
X(s)

F (s) =

3.5.

G1 G2 G3 G4 G5 (1 (G6 H3 ))
1(G2 H1 +G4 H2 +G6 H3 +G2 G3 G4 G5 H4 G6 H5 )
+(G2 H1 G4 H2 +G2 H1 G6 H3 +G4 H2 G6 H3 )
(G2 H1 G4 H2 G6 H3 )

Respuesta al impulso

La funci
on de transferencia presentada en la secci
on 3.2 permite caracterizar
un sistema din
amico lineal invariante en el tiempo, en situaci
on de reposo, mediante una expresi
on en el dominio de la frecuencia compleja s o z. La respuesta
al impulso logra esa misma caracterizaci
on, pero en el dominio del tiempo t o
k, mediante el estudio del comportamiento del sistema cuando se estimula con
una se
nal especial: el impulso unitario3 .
3 Pese a que en todo el texto se presentan los temas primero para el caso continuo y luego
para el discreto, en esta secci
on se ha hecho una excepci
on, debido a que el caso discreto es
notablemente m
as f
acil de presentar que el continuo.

55

OSCAR G. DUARTE

Figura 3.11: Funci


on Impulso Unitario discreto

3.5.1.

Caso discreto

La funci
on impulso unitario discreto
Dado un sistema como el de la figura 3.2 la respuesta al impulso es la respuesta del sistema cuando la entrada es el impulso unitario (k), con condiciones
iniciales nulas. La respuesta al impulso suele denotarse por h(k), y su transformada Z por H(z)
La funci
on (k) (ver figura 3.11) se define como:

1 k=0
(k) =
0 k 6= 0
Una de las caractersticas importantes de la funci
on (k) es que su transformada Z es 1, tal como se muestra a continuaci
on:
Z{(k)} =

(k)z k = (0)z 0 = 1

k=

Sup
ongase un sistema discreto con condiciones iniciales nulas, con funci
on
de transferencia F (z), que se excita con el impulso unitario (figura 3.12). La
respuesta del sistema, en el dominio de la frecuencia z ser
a el producto de la
entrada por la funci
on de transferencia:
H(z) = U (z)F (z) = 1F (z) = F (z)

Z{(k)} = 1

F (z)

- H(z)

Figura 3.12: Sistema Din


amico Discreto estimulado con el impulso unitario

Este hecho pone de manifiesto la relaci


on que existe entre la respuesta al
impulso y la funci
on de transferencia (ver figura 3.13): la funci
on de transferencia
es la transformada Z de la respuesta al impulso
56

3.5. RESPUESTA AL IMPULSO

Z
Respuesta al Impulso

Funci
on de Transferencia
Z 1

Figura 3.13: Relaci


on entre la respuesta al impulso y la funci
on de transferencia.
Caso discreto

La respuesta a un impulso gen


erico
Sup
ongase un sistema discreto lineal, que es excitado con la funci
on impulso
(k), y cuya salida es la respuesta al impulso h(k), tal como el de la figura
3.14(a). Si ese mismo sistema se excita con la funci
on impulso, pero retrasada
en 1, la salida debe ser la misma respuesta al impulso retrasada en 1, como se
muestra en la figura 3.14(b) ya que se supone que el sistema es invariante en el
tiempo.
Por otra parte, debido a que el sistema es lineal, al multiplicar la entrada
por un escalar c la salida se multiplicar
a por el mismo escalar c; por lo tanto, si
el sistema recibe como entrada la se
nal impulso c(k i), la salida ser
a ch(k i)
(ver figura 3.14(c)).
Convoluci
on
Una se
nal discreta cualquiera x(k) es un conjunto de valores en el tiempo,
que puede representarse como la suma de infinitos impulsos individuales yi , tal
como se muestra en la figura 3.15.
Adem
as, cada uno de los pulsos individuales wi puede representarse como
un impulso aplicado en el instante de tiempo i, cuya amplitud es justamente
x(i) Dicho de otra forma, cualquier se
nal puede escribirse como:
x(k) = + x(1)(k (1)) + x(0)(k 0) + x(1)(k 1) +
x(k) =

i=

x(i)(k i)

Debido a que el sistema es lineal, podemos aplicar el principio de superposici


on, y obtener la respuesta del sistema y(k) cuando la entrada es x(k) como
la suma debida a cada uno de los impulsos wi (suponiendo condiciones iniciales
nulas). Estas respuestas son de la forma que se muestra en la figura 3.14(c), y
por tanto la respuesta y(k) ser
a de la forma:
y(k) = + x(1)h(k (1)) + x(0)h(k 0) + x(1)h(k 1) +
57

OSCAR G. DUARTE

(k)

h(k)

1
F (z)

1 2 3 4 5

1 2 3 4 5

(a) Respuesta al Impulso discreto

(k 1)

h(k 1)

1
F (z)

1 2 3 4 5

1 2 3 4 5

(b) Respuesta al Impulso discreto retrasado

c(k i)

F (z)

ch(k i)

(c) Respuesta al Impulso discreto generica

Figura 3.14: Respuesta al Impulso discreto

58

3.5. RESPUESTA AL IMPULSO

y(k) =

i=

x(i)h(k i) = x(k) h(k)

Esta u
ltima sumatoria corresponde a la convoluci
on discreta de las se
nales
x(k) y h(k), representada por el operador
El resultado anterior no debe sorprender, ya que al aplicar transformada Z
a cada lado de la igualdad se tiene:
Z{y(k)} = Z{x(k) h(k)} = Z{x(k)}Z{h(k)} = X(z)H(z)

y la transformada Z de la respuesta al impulso resulta ser la funci


on de transferencia del sistema, tal como se haba mostrado ya en la figura 3.13

3.5.2.

Caso continuo

La funci
on impulso unitario continuo
Para obtener con sistemas continuos un resultado similar el mostrado para
sistemas discretos en la secci
on 3.5.1 es necesario contar con una funci
on continua cuyas propiedades sean an
alogas a las de la funci
on impulso discreto; es
decir, se necesita una funci
on cuya transformada de Laplace sea 1. Dicha funci
on
es la funci
on impulso o delta de Dirac, generalmente representado por (t).
Para presentar la funci
on (t), primero consideramos la funci
on d (t), cuya
gr
afica se muestra en la figura 3.16:

1/ t [0, ]
d (t) =
>0
0
t
/ [0, ]
N
otese que el a
rea bajo la gr
afica de la funci
on d (t) es 1, independientemente del valor de , es decir,
Z
d (t)dt = 1
>0

Se define la funci
on delta de Dirac como la funci
on que resulta al disminuir
progresivamente, hasta llevarlo al lmite en que tiende a cero:
(t) = lm d (t)
0

Esta funci
on, cuya gr
afica se muestra en la figura 3.17 conserva la propiedad
seg
un la cual el a
rea bajo la gr
afica es 1
Z
(t)dt = 1

Adem
as, si calculamos el a
rea bajo la gr
afica desde hasta un valor t el
resultado es la funci
on escal
on unitario (t)

Z t
0 t (, 0)
(t)dt = (t) =
1 t (0, )

0
59

OSCAR G. DUARTE

x(k)1

=
3 2 1

1 2 3

..
+
w1
1

3 2 1

1 2 3

+
w0
1

3 2 1

1 2 3

+
w1
1

3 2 1

1 2 3

+.
.
Figura 3.15: Descomposici
on de una se
nal discreta

60

3.5. RESPUESTA AL IMPULSO

d (t)
1/
t

Figura 3.16: Funci


on d

(t)

Figura 3.17: Funci


on Impulso Unitario Continuo

Por otra parte, consideremos el producto de la funci


on d (t) desplazada en
el tiempo, con una funci
on f (t) cualquiera, y calculemos el a
rea bajo la gr
afica
de ese producto (ver figura 3.18)
Z +
Z
1
f (t) dt
f (t)d (t )dt =

Para valores de suficientemente peque


nos, el a
rea puede hacerse equiva1
lente a la de un rect
angulo de base y altura f ( )
, por lo tanto,
Z
1
f (t)d (t )dt = f ( ) = f ( )
lm
0

El lmite puede introducirse en la integral, con lo que se obtiene


Z
Z
f (t) lm d (t )dt =
f (t)(t )dt = f ( )
(3.5)

Es posible demostrar que la transformada de Laplace del impulso es 1, es


decir que
Z
L {(t)} =
est (t)dt = 1
0

Para ello, puede aplicarse directamente el resultado de la ecuaci


on 3.5 o considerar la propiedad de la transformada de Laplace seg
un la cual
Z t

X(s)
L {x(t)}
=
L
x(t)dt =
s
s

0
61

OSCAR G. DUARTE

f (t)

1/

f (t)d (t)
t

t
+

Figura 3.18: Area


bajo la curva f (t)d

Observese que la transformada de Laplace de (t), que es 1/s puede escribirse


como

Z t
1
L {(t)}
=
(t)dt =
L {(t)} = L
s
s

0
por lo tanto
L {(t)} = 1
Respuesta al impulso
Dado un sistema como el de la figura 3.1 la respuesta al impulso es la respuesta del sistema cuando la entrada es el impulso unitario (t), con condiciones
iniciales nulas. La respuesta al impulso suele denotarse por h(t), y su transformada de Laplace por H(s)
Si el sistema continuo tiene una funci
on de transferencia F (s), (figura 3.19),
la respuesta del sistema, en el dominio de la frecuencia s ser
a el producto de la
entrada por la funci
on de transferencia:
H(s) = U (s)F (s) = 1F (s) = F (s)
Este hecho pone de manifiesto la relaci
on que existe entre la respuesta al impulso y la funci
on de transferencia (ver figura 3.20):La funci
on de transferencia
es la transformada de Laplace de la respuesta al impulso
L{(t)} = 1

F (s)

- H(s)

Figura 3.19: Sistema Din


amico Contnuo estimulado con el impulso unitario

De manera semejante al caso discreto (ver secci


on 3.5.1) puede argumentarse
que debido a que el sistema es lineal e invariante en el tiempo, la respuesta del
sistema a una se
nal impulso generica c(t ) ser
a ch(t )
62

3.5. RESPUESTA AL IMPULSO

L
Respuesta al Impulso

Funci
on de Transferencia
L1

Figura 3.20: Relaci


on entre la respuesta al impulso y la funci
on de transferencia.
Caso contnuo

Convoluci
on
La ecuaci
on 3.5 muestra que una se
nal cualquiera x(t) puede representarse
como la convoluci
on contnua entre x(t) y (t) identificada con el operador
(se han intercambiado las variables t y , lo que no altera el resultado):
Z
x( )(t )d = x(t) (t)
x(t) =

La integral es la suma de infinitos terminos (terminos infinitesimales), y por


tanto podemos emplear el principio de superposici
on para obtener la respuesta
del sistema y(t) cuando la entrada es x(t) como la suma debida a cada uno de
los terminos infinitesimales (suponiendo condiciones iniciales nulas), es decir:
Z
y(t) =
x( )h(t )d = x(t) h(t)

Al igual que en al caso discreto, la respuesta del sistema a una entrada


cualquiera x(t) se puede obtener como la convoluci
on (contnua) de esa entrada
con la respuesta al impulso.
Este resultado concuerda con una afirmaci
on previa, ya que al aplicar transformada de Laplace a cada lado de la igualdad se tiene:
L{y(t)} = L{x(t) h(t)} = Lx(t)L{h(t)} = X(s)H(s)
y la transformada de Laplace de la respuesta al impulso resulta ser la Funci
on
de Transferencia del sistema, tal como se haba mostrado ya en la figura 3.20

63

OSCAR G. DUARTE

64

Captulo 4
Sistemas de primer y segundo
orden

Los sistemas de primer y segundo orden merecen especial atenci


on, ya que
ellos presentan los comportamientos b
asicos que pueden aparecer en cualquier
sistema din
amico. Dicho de otra forma, en general un sistema din
amico presentar
a un comportamiento que puede descomponerse en los comportamientos m
as
simples de los sistemas de primer y segundo orden.
Este hecho puede explicarse observando el metodo de soluci
on de E.D. que
emplea expansi
on en fracciones parciales (ver secci
on 2.2.5): una fracci
on se descompone en fracciones m
as simples en donde los denominadores son polinomios
de primer o segundo orden.
La excepci
on a esta regla la constituyen los sistemas con polos repetidos, en
donde adem
as aparecen los mismos comportamientos b
asicos multiplicados por
tn o k n (ver tablas 2.5 y 2.6).
En este captulo se estudian los sistemas continuos de primer y segundo
orden. En todos los casos se proceder
a de la misma forma: se seleccionar
a una
funci
on de transferencia prototipo, se calcular
a su respuesta al escal
on unitario 1
con condiciones iniciales nulas, y se analizar
a la relaci
on existente entre esa
respuesta y el valor de los polos dela funci
on de transferencia. Las secciones
4.5 y 4.6 buscan resaltar que los resultados presentados en este captulo son
estrictamente v
alidos para las funciones prototipo seleccionadas.
1 Tambien

denominado paso unitario.

65

OSCAR G. DUARTE

y(t)
2

y(t)

a=2

a=3

y(t)
2

y(t)

a = 1

a=1

Figura 4.1: Respuesta al paso de un sistema continuo de primer orden

4.1.

Sistemas continuos de primer orden

Sup
ongase un sistema continuo de primer orden, cuya funci
on de transferencia sea
1
(4.1)
F (s) =
s+a
Al estimular el sistema con un paso unitario (t), con condiciones iniciales
nulas, la respuesta y(t) puede calcularse como sigue:
Y (s) = F (s)U (s) =
y(t) = L1 {Y (s)} =

1 1
1/a 1/a
=
+
(s + a) s
s
s+a

1
1
1
(t) eat (t) = (1 eat )(t)
a
a
a

y(t) =

1
(1 eat )(t)
a

(4.2)

La expresi
on (4.2) muestra que la respuesta del sistema depender
a del valor
de a. Este hecho se constata en la figura 4.1, que muestra las gr
aficas de y(t)
para distintos valores de a.
Al cambiar el valor de a tambien cambia el valor del u
nico polo de la funci
on
de transferencia (4.1), que es a. Para cualquier valor real positivo de a el polo
es un real negativo a, y viceversa. Cuando el polo es positivo, la respuesta
del sistema tiende a infinito, y se dice que el sistema es inestable. La figura 4.2
muestra cuales son las regiones de estabilidad e inestabilidad con referencia a la
recta real, es decir, en que lugares debe estar ubicado el polo de la funci
on de
transferencia para que el sistema sea, respectivamente, estable o inestable.
66

4.1. SISTEMAS CONTINUOS DE PRIMER ORDEN

Regi
on de Estabilidad

Regi
on de Inestabilidad

Figura 4.2: Regiones de estabilidad e inestabilidad para un sistema continuo de


primer orden

y(t)

y=t

1/a
67 %

1/a

Figura 4.3: Respuesta al paso de un sistema continuo de primer orden, polo


negativo en a

Para un polo negativo cualquiera a, la respuesta es como la que se muestra


en la figura 4.3. El valor a determina que tan empinada es la respuesta (y cu
al
ser
a el valor final de la respuesta); para valores grandes de a, la respuesta es
m
as empinada, debido a que la respuesta natural eat se extingue m
as r
apido.
Para medir que tan r
apido decae una respuesta natural, podemos definir el
tiempo de asentamiento o tiempo de estabilizaci
on, como el tiempo a partir del
cual la respuesta natural (su valor absoluto) no supera un porcentaje de su valor
m
aximo, por ejemplo el 5 %. Para el caso del sistema continuo de primer orden,
este tiempo tas satisface:
eatas = 0.05

tas =

ln 0.05
a

tas 3/a

En general, al alejar el polo del origen (al desplazarlo hacia la izquierda)


disminuye el tiempo de asentamiento, es decir, la respuesta es m
as empinada.
Esto nos permite definir una regi
on de tiempo de asentamiento m
aximo, como
la que se muestra en la figura 4.4. Si el polo de la funci
on de transferencia (4.1)
cae en esa regi
on podemos asegurar que su tiempo de asentamiento satisface
tas 3/a.
N
otese que la regi
on de tiempo de asentamiento m
aximo est
a contenida
dentro de la regi
on de estabilidad; esto es l
ogico, ya que la definici
on de tiempo
de asentamiento s
olo tiene sentido para sistemas estables.
67

OSCAR G. DUARTE

tas 3/a
a

Figura 4.4: Regi


on de tiempo de asentamiento m
aximo para un sistema continuo de
primer orden

4.2.

Sistemas discretos de primer orden

Sup
ongase un sistema discreto de primer orden, cuya funci
on de transferencia
sea
F (z) =

1
z+a

(4.3)

Al estimular el sistema con un paso unitario (k), con condiciones iniciales


nulas, la respuesta y(k) puede calcularse como sigue:
Y (z) = F (z)U (z) =
y(k) = Z 1 {Y (z)} =

1
z
z/(1 + a) z/(1 + a)
=

(z + a) (z 1)
(z 1)
z+a

1
1
1
(k)
(a)k (k) =
(1 (a)k )(k)
1+a
1+a
(1 + a)
y(k) =

1
(1 (a)k )(k)
(1 + a)

(4.4)

La expresi
on (4.4) muestra que la respuesta del sistema depender
a del valor de
a. Este hecho se constata en la figura 4.1, que muestra las gr
aficas de y(k) para
distintos valores de a.
Al cambiar el valor de a tambien cambia el valor de el u
nico polo de la funci
on
de transferencia (4.3), que es a. Para cualquier valor real positivo de a el polo
es un real negativo a, y viceversa. Cuando el polo es negativo, la respuesta del
sistema es de signo alternante (P.ej. (1/2)k = 0, 1/2, 1/4, 1/8, ); por el
contrario, si el polo es positivo la respuesta siempre ser
a del mismo signo.
Por otra parte, si el valor absoluto de a es mayor que 1, el valor absoluto
de la respuesta tiende a infinito, y se dice que el sistema es inestable. La figura
4.6 muestra cuales son las regiones de estabilidad e inestabilidad con referencia
a la recta real, es decir, en que lugares debe estar ubicado el polo de la funci
on
de transferencia para que el sistema sea, respectivamente, estable o inestable;
tambien se muestra en la misma figura cuando la respuesta es alternante o no.
Para medir que tan r
apido decae una respuesta natural en los sistemas estables podemos definir el tiempo de asentamiento o tiempo de estabilizaci
on, como
el tiempo a partir del cual la respuesta natural (su valor absoluto) no supera
68

4.2. SISTEMAS DISCRETOS DE PRIMER ORDEN

y(k)

y(k)

a = 0.5

a = 1.5

y(k)
2

y(k)
2

a = 1.5

1


a = 0.5


Figura 4.5: Respuesta al paso de un sistema discreto de primer orden

Inestabilidad

Inestabilidad

Estabilidad

Alternante

1
No Alternante

0
Figura 4.6: Regiones de estabilidad e inestabilidad para un sistema discreto de
primer orden

69

OSCAR G. DUARTE

kas 3/ ln |a|
a
1
0

Figura 4.7: Regiones de tiempo de asentamiento m


aximo para un sistema discreto
de primer orden

un porcentaje de su valor m
aximo, por ejemplo el 5 %. Para el caso del sistema
discreto de primer orden, este tiempo ser
a el menor entero kas tal que:
(| a|)kas 0.05
En consecuencia, kas satisface
kas

ln 0.05
ln(|a|)

kas 3/ ln(|a|)

En general, al alejar el polo del origen (al acercarlo a 1 o 1) aumenta el


tiempo de asentamiento, es decir, la respuesta es m
as lenta. Esto nos permite
definir una regi
on de tiempo de asentamiento m
aximo, como la que se muestra
en la figura 4.7. Si el polo de la funci
on de transferencia (4.3) cae en esa regi
on
podemos asegurar que su tiempo de asentamiento satisface kas 3/ ln(|a|).
Al igual que en el caso continuo, en el caso discreto la regi
on de tiempo de
asentamiento m
aximo est
a contenida dentro de la regi
on de estabilidad.

4.3.

Sistemas continuos de segundo orden

Sup
ongase un sistema continuo de segundo orden, cuya funci
on de transferencia sea
n
F (s) = 2
(4.5)
s + 2n s + n2
Los polos de la funci
on de transferencia ser
an:
p


p
2n 4 2 n2 4n2
p1,2 =
= n 2 1
2

En caso de que || < 1, el radical es negativo, y los polos resultan ser complejos conjugados:
p
p1,2 = n jn 1 2

La figura 4.8 muestra la ubicaci


on de los polos complejos. N
otese que la
distancia de los polos al origen (la magnitud del complejo) es justamente n :
p
d = (n )2 + n2 (1 2 ) = n
70

4.3. SISTEMAS CONTINUOS DE SEGUNDO ORDEN

Im(s)
p
jn 1 2

Re(s)

jn

1 2

Figura 4.8: Ubicaci


on de los polos de un sistema continuo de segundo orden, con
polos complejos

Adem
as, el coseno del a
ngulo formado con el semieje real negativo, es
justamente :
n
cos =
=
n
Al estimular el sistema (4.5) con un paso unitario (t), con condiciones
iniciales nulas, la respuesta y(t) puede calcularse como sigue:
Y (s) = F (s)U (s) =

y(t) = L
donde,

{Y (s)} =

1 p

1
1 2

n
1
s2 + 2s + n2 s

n t

!

 p
2
sin n 1 t +
(t) (4.6)

= cos1

Las figuras 4.9 a 4.11 muestran la gr


afica de (4.6) en varias condiciones: en
la figura 4.9 se ha fijado n = 1, y se ha variado . En la figura 4.10 se ha fijado
= 0.5 y se ha variado n . La figura 4.11 muestra la forma generica de (4.6)
con (0, 1).

4.3.1.

Regi
on de estabilidad

Al evaluar (4.6) se observa que para valores positivos de n el termino


exponencial crece indefinidamente, y por tanto la respuesta se har
a infinita.
El termino n coincide con la parte real de los polos de (4.5), tal como se
muestra en la figura 4.8, por lo tanto, la regi
on de estabilidad, aquella en la que
71

OSCAR G. DUARTE

y(t)

: = 0.1
: = 0.5
: = 0.9

2
1

Figura 4.9: Respuesta al paso de un sistema continuo de segundo orden, wn = 1

y(t)

: n = 1
: n = 0.5
: n = 2

2
1

Figura 4.10: Respuesta al paso de un sistema continuo de segundo orden, = 0.5

y(t)
ymax
yf inal

tc

Figura 4.11: Respuesta al paso de un sistema continuo de segundo orden

72

4.3. SISTEMAS CONTINUOS DE SEGUNDO ORDEN

Im(s)

Estabilidad

Inestabilidad
Re(s)

Figura 4.12: Regi


on de Estabilidad para un sistema continuo de segundo orden

deben ubicarse los polos para que el sistema sea estable, resulta ser el semiplano
izquierdo. Esto se muestra en la figura 4.12

4.3.2.

Regi
on de tiempo m
aximo de asentamiento

n t
La respuesta transitoria
 p de (4.5) es el producto de una exponencial e
por una sinusoidal sin n 1 2 t + , es decir, su amplitud es menor o igual

que en t .
Si tomamos el tiempo de asentamiento como el tiempo a partir del cual la
respuesta natural (su valor absoluto) no supera el 5 % de su valor m
aximo, en
el caso del sistema continuo de segundo orden este tiempo tas satisface:
en tas = 0.05

tn s =

ln 0.05
n

tas 3/n

Debido a que n es la parte real de los polos de (4.5) , tal como se muestra
en la figura 4.8, la regi
on de tiempo de asentamiento m
aximo es la que se muestra
en la figura 4.13

4.3.3.

Regi
on de frecuencia m
axima de oscilaci
on

La frecuencia de oscilaci
p on de la respuesta es la frecuencia de la sinusoidal
de (4.5), es decir es n 1 2 , que corresponde a la parte imaginaria de los
polos de (4.5) (ver figura 4.8). Por esta raz
on, la regi
on de frecuencia m
axima
de oscilaci
on es la que se muestra en la figura 4.14
73

OSCAR G. DUARTE

Im(s)

tas

3
a

tas >

3
a

Re(s)

Figura 4.13: Regi


on de Tiempo m
aximo de asentamiento para un sistema continuo
de segundo orden

Im(s)
w > w

jw

w w

w>w

Re(s)

jw

Figura 4.14: Regi


on de Frecuencia m
axima de oscilaci
on para un sistema continuo
de segundo orden

74

4.3. SISTEMAS CONTINUOS DE SEGUNDO ORDEN

4.3.4.

Regi
on de sobrepico m
aximo

Uno de los par


ametros m
as importantes de la respuesta graficada en la figura
4.11, es el sobrepico m
aximo, sp, que indica que tanto llega a valer la respuesta
en relaci
on con su valor final:
sp =

ymax yf inal
100 %
yf inal

donde ymax es el valor m


aximo, y yf inal el valor final (estacionario) de y(t).
Para calcular el sobrepico m
aximo, primero derivamos y(t) e igualamos a
cero para obtener los instantes tc en los que suceden los m
aximos y mnimos de
y(t):
 i
h
 p
dy
1 2 n en t sin n 1 2 t + +
dt =
h1 p
 p
i
n 1 2 en t cos n 1 2 t +
=0
 p

 p

p
n sin n 1 2 t + = n 1 2 cos n 1 2 t +
p
 p

1 2
= tan n 1 2 t +

p
 p

1 2
n 1 2 t + = tan1

Para obtener el valor de la arcotangente en la ecuaci


on anterior, observese en la
figura (4.8) el valor de tan :
p
p
n 1 2
1 2
tan =
=
n

La funci
on tan1 (x) es peri
odica, de periodo , por lo tanto
p
 p

1 2
= + n
n 1 2 t + = tan1

t=

n
p
n 1 2

n = 0, 1, 2,

Existen infinitos instantes en los que la derivada de y(t) es nula, que corresponden a los m
aximos y mnimos locales que se observan en la figura 4.11. Para
n = 0 resulta t = 0, por lo tanto la respuesta y(t) es pr
acticamente horizontal
en su inicio. El sobrepico m
aximo sucede en tc , que corresponde a n = 1:
tc =

p
n 1 2

El valor de y(t) en tc es el valor m


aximo de y(t), es decir ymax = y(tc )
!
p

1
n 12 sin
n 1 2 p
e
+
ymax = 1 p
1 2
n 1 2
75

OSCAR G. DUARTE

sp( %)

100
80
60
40
20

0
0

0.2

0.4

0.6

0.8

1.0

Figura 4.15: Sobrepico en funci


on de

ymax = 1 p

1
1 2

12

sin( + )

Dado que sin( + x) = sin(x), podemos escribir


ymax = 1 + p
ymax = 1 + e

1
1 2

12

12

sin()

= 1 + e cot

El valor final de y(t) es 1, por lo tanto


sp = e

12

100 % = e cot 100 %

Las figuras 4.15 y 4.16 muestran c


omo vara el sobrepico m
aximo en funci
on de
el factor de amortiguamiento y el a
ngulo , respectivamente. Es interesante
observar que el sobrepico depende del a
ngulo que forman los polos con el
semieje real negativo (figura 4.8), lo que nos permite establecer una regi
on de
sobrepico m
aximo, tal como la que se muestra en la figura 4.17

4.3.5.

Regi
on de dise
no

Las regiones que se muestran en las figuras 4.12, 4.13, 4.14 y 4.17 pueden
resumirse en una u
nica regi
on de dise
no, como la que se muestra en la figura
4.18. Refiriendonos a esta figura, la regi
on de dise
no puede interpretarse asi:
Dado un sistema de segundo orden como el de la ecuaci
on (4.5) con condiciones iniciales nulas, cuyos polos est
an ubicados dentro de la regi
on de dise
no,
puede asegurarse que:
76

4.3. SISTEMAS CONTINUOS DE SEGUNDO ORDEN

sp( %)

100
80
60
40
20

0
0

18

36

54

72

90

Figura 4.16: Sobrepico en funci


on de

Im(s)

sp ecot

sp > ecot
Re(s)

Figura 4.17: Regi


on de Sobrepico m
aximo para un sistema continuo de segundo
orden

77

OSCAR G. DUARTE

Im(s)
jw

Re(s)

jw

Figura 4.18: Regi


on de Dise
no para un sistema continuo de segundo orden

el sistema es estable
el tiempo de asentamiento es menor o igual que 3/a
la frecuencia m
axima de oscilaci
on de la respuesta natural es w
al estimularlo con un escal
on unitario el sobrepico m
aximo es menor que
e cot 100 %

4.4.

Sistemas discretos de segundo orden

Sup
ongase ahora un sistema discreto de segundo orden, cuya funci
on de
transferencia sea
1 2b cos a + b2
F (z) = 2
(4.7)
z 2bz cos a + b2
Los polos de la funci
on de transferencia ser
an:



p
2b cos a 4b2 cos2 a 4b2
p1,2 =
= b cos a cos2 a 1
2

El termino del radical ser


a menor o igual que cero; en caso de que sea menor,
los dos polos ser
an los complejos conjugados:


p
p1,2 = b cos a j 1 cos2 a = b (cos a j sin a)
La figura 4.19 muestra la ubicaci
on de los polos en el plano complejo.
78

4.4. SISTEMAS DISCRETOS DE SEGUNDO ORDEN

Im(z)

jb sin a
b

Re(z)

b cos a

b sin a

Figura 4.19: Ubicaci


on de los polos de un sistema discreto de segundo orden, con
polos complejos

Al estimular el sistema (4.7) con un paso unitario (k), con condiciones


iniciales nulas, la respuesta y(k) puede calcularse como sigue:



z
1 2b cos a + b2
Y (z) = F (z)U (z) =
z 2 2bz cos a + b2
z1
Y (z)
A
Bz + C
=
+ 2
z
z 1 z 2bz cos a + b2
sumando e igualando coeficientes se obtiene
A=1
Y (z) =

B = 1

C = 1 + 2b cos a

z
z 2 + (1 2bz cos a)
2
z1
z 2bz cos a + b2

z 2 bz cos a
z(1 2z cos a)
z
2
2
2
z 1 z 2bz cos a + b
z 2bz cos a + b2


(1 b cos a) k
b sin ak (k)
y(k) = Z 1 {Y (z)} = 1 bk cos ak
b sin a
Y (z) =

Finalmente, las dos sinusoidales se pueden agrupar en una sola, para obtener:

y(k) = Z 1 {Y (z)} = 1 Cbk sin (ak + ) (k)
(4.8)

donde

C=

1 + b2 2b cos a
1
=
b sin a
sin
79

= tan1

b sin a
1 b cos a

OSCAR G. DUARTE

y(k)
2
1

Figura 4.20: Respuesta al paso de un sistema discreto de segundo orden, a = 1.2,


b = 0.8

La figura 4.20 muestra la gr


afica de y(k) para unos valores especficos de a
y b. Aunque y(k) s
olo tiene sentido en los valores enteros de k, se ha trazado
tambien en punteado la curva que se obtendra para valores reales de k.
Podra plantearse que para estudiar la secuencia y(k) (los puntos en la figura
4.20) sera v
alido analizar el sistema continuo que la genera ((la curva punteada
en la figura 4.20)); sin embargo, en ocasiones los resultados pueden ser muy
enga
nosos: considerese el caso en que a = 3 y b = 0.7, que se grafica en la figura
4.21; si se analiza la curva contnua, se concluye que el m
aximo valor (absoluto)
de y(k) ser
a cercano a 14, pero al ver la secuencia de puntos observamos que
esta nunca supera (en valor absoluto) a 4.
No obstante, dado que un an
alisis de la curva contnua arrojar
a valores mayores o iguales que la secuencia, puede utilizarse para establecer cotas superiores
de los valores de la secuencia, y asi establecer regiones de dise
no.

4.4.1.

Regi
on de estabilidad

Al evaluar (4.8) se observa que para valores de b mayores que 1 el termino


exponencial crece indefinidamente, y por tanto la respuesta se har
a infinita. El
termino b coincide con la magnitud de los polos de (4.7), tal como se muestra
en la figura 4.19, por lo tanto, la regi
on de estabilidad, aquella en la que deben
ubicarse los polos para que el sistema sea estable resulta ser el crculo unitario
centrado en el origen, tal como se ve en la figura 4.22.

4.4.2.

Regi
on de tiempo m
aximo de asentamiento

La respuesta transitoria de (4.7) es el producto de la exponencial bk por la


sinusoide sin (ak + ), es decir, su amplitud es menor o igual que bk .
Si tomamos el tiempo de asentamiento como el tiempo a partir del cual la
respuesta natural (su valor absoluto) no supera el 5 % de su valor m
aximo en el
80

4.4. SISTEMAS DISCRETOS DE SEGUNDO ORDEN

y(k)
10
5

5
10

Figura 4.21: Respuesta al paso de un sistema discreto de segundo orden, a = 3,


b = 0.7

Im(z)
j

Inestabilidad

Estabilidad
1

Re(z)
1

Figura 4.22: Regi


on de Estabilidad para un sistema discreto de segundo orden

81

OSCAR G. DUARTE

Im(z)
1
jb

tas <

Re(z)

3
ln b

1 b

jb

Figura 4.23: Regi


on de tiempo de asentamiento m
aximo para un sistema discreto
de segundo orden

caso del sistema discreto de segundo orden, este tiempo kas satisface:
3
ln b
Debido a que b es la magnitud de los polos de (4.7) , tal como se muestra en
la figura 4.19, la regi
on de tiempo de asentamiento m
aximo es la que se muestra
en la figura 4.23.
bkas 0.05

4.4.3.

ln bkas ln 0.05

kas ln b ln 0.05

kas

Regi
on de Frecuencia m
axima de oscilaci
on

La frecuencia de oscilaci
on de la respuesta es la frecuencia de la sinusoidal
de (4.7), es decir es a, que corresponde al a
ngulo de los polos de (4.7) respecto
a la horizontal (ver figura 4.19). Por esta raz
on, la regi
on de frecuencia m
axima
de oscilaci
on es la que se muestra en la figura 4.24.

4.4.4.

Regi
on de sobrepico m
aximo

Al comparar las respuestas a escalones unitarios de los sistemas continuos y


discretos de segundo orden, que aparecen en las ecuaciones (4.6) y (4.8) respectivamente, podemos ver las semejanzas de estas respuestas.
k
Si reescribimos bk como eln b = ek ln b , podemos asimilar los coeficientes
de los exponentes y las sinusoides:
p
n = ln b
n 1 2 = a

De tal manera que

ln b

= p
= cot
a
1 2
82

4.5. EFECTO DE LOS CEROS. SISTEMAS DE FASE M


INIMA

Im(z)

a
a

f rec a
Re(z)

Figura 4.24: Regi


on de Frecuencia m
axima de oscilaci
on para un sistema discreto
de segundo orden

b = ea cot = e

12

(4.9)

La ecuaci
on 4.9 permite definir, para el caso discreto, curvas an
alogas a las
que generan la regi
on de sobrepico m
aximo de los sistemas continuos (figura
4.17). La figura 4.25 muestra las curvas generadas por la ecuaci
on (4.9) para
distintos valores de .
Por su parte, la figura 4.26) muestra la regi
on definida por (4.9) al fijar un
valor de (o de ), es decir, al establecer un factor de amortiguamiento. Esta
regi
on no es la regi
on de sobrepico m
aximo, sino la regi
on de amortiguamiento
mnimo. El sobrepico m
aximo es m
as difcil de obtener debido a que el tiempo
es discreto.

4.4.5.

Regi
on de dise
no

Al combinar las regiones definidas en las figuras 4.22 a 4.26 se obtiene la


regi
on de dise
no que se muestra en la figura 4.27. Su significado es an
alogo a la
regi
on de dise
no del caso continuo.

4.5.

Efecto de los ceros. Sistemas de fase mnima

Pese a que en las secciones anteriores se ha hecho enfasis en el efecto que


tiene sobre la respuesta natural la ubicaci
on de los polos en el plano, no debe
desconocerse que los ceros tambien influyen en la respuesta.
83

OSCAR G. DUARTE

Im(z)

: = 0.1
: = 0.5
: = 0.9

Re(z)
1

Figura 4.25: Curvas de Amortiguamiento fijo para un sistema discreto de segundo


orden

Im(z)
j

Re(z)
1

Figura 4.26: Regi


on de Amortiguamiento mnimo para un sistema discreto de
segundo orden

84

4.5. EFECTO DE LOS CEROS. SISTEMAS DE FASE M


INIMA

Im(z)
j

Re(z)
1

Figura 4.27: Regi


on de Dise
no para un sistema discreto de segundo orden

Sup
ongase un sistema continuo de segundo orden, con un cero real:
F (s) =

(b2 + 2 )
(s + a)
a
(s + b)2 + 2

La respuesta al escal
on del sistema definido por (4.10) es :


p
1 + 1 (b2 + 2 )[(a b)2 + 2 ]ebt sin (t + ) (t)
a


y(t) =

w

= tan1 wb + tan1 ab

(4.10)

(4.11)

La figura 4.28 muestra la gr


afica de (4.11), para tres valores distintos de a,
con unos valores fijos de b = 1 y = 1; es decir, lo que se est
a modificando
es la posici
on del cero de la funci
on de transferencia. Alli puede verse que la
ubicaci
on del cero afecta directamente la forma de la respuesta.
Es importante resaltar que las regiones de dise
no de las figuras 4.18 y 4.27
fueron desarrolladas para sistemas prototipo de segundo orden, sin ceros. Estas
regiones pueden emplearse para el an
alisis y control de sistemas de segundo
orden con ceros, pero s
olo como una gua de car
acter general.
M
as importante a
un es resaltar que para ceros en el semiplano derecho (este
es el caso a = 1 en la figura 4.28) la respuesta al escal
on presenta en sus
inicios valores de signo contrario a los de la respuesta de estado estacionario;
este fen
omeno, conocido como subpico (en ingles undershoot) puede llegar a ser
muy peligroso en algunos sistemas fsicos, y constituye una gran dificultad para
su control.
Los sistemas que no poseen ceros en el semiplano derecho, se conocen como
sistemas de fase mnima, o simplemente minifase 2 .
2 Esta

denominaci
on est
a relacionada con la respuesta de frecuencia del sistema

85

OSCAR G. DUARTE

y(t)

: a == 0.5
:a=1
: a = 1

Figura 4.28: Respuesta al paso de un sistema continuo de segundo orden, con cero
real b = = 1

La presencia de subpicos ante una entrada escal


on es f
acil de demostrar para
un sistema de segundo orden con polos reales y un cero real3 , tal como
F (s) =

(s + a)
(s + b)(s + c)

(4.12)

La respuesta al escal
on ser
a:
Y (s) =

a/(b + c) (a b)/(c b)(b) (a c)/(c b)(c)


(s + a)
+
+
s(s + b)(s + c)
s
(s + b)
(s + c)
y(t) =


(a b)
(a c) ct
a
bt
(t)
+
e
+
e
bc (c b)(b)
(c b)(c)

El signo de la derivada de y(t) evaluada en t = 0 nos indica si la respuesta


crece o decrece en ese momento:

dy
ab
ac
cb
=
=
=
=1
dt t=0
cb
cb
cb

La derivada siempre es positiva, por lo tanto, para valores cercanos a t = 0,


y(t) ser
a siempre positiva. Por otra parte, la respuesta de estado estacionario
de y(t) ser
a a/bc; para sistemas estables, tanto b como c son positivos, y por lo
tanto el signo de la respuesta estacionaria es el mismo signo de a.
En conclusi
on, para valores negativos de a (ceros positivos), la respuesta en
sus inicios tendr
a un signo diferente al de la respuesta de estado estacionario y
suceder
a el subpico.
3 Para

otro tipo de sistemas la demostraci


on es m
as complicada, y se omite aqui

86

4.6. POLOS DOMINANTES

: 0.25e10t
y(t)

y(t)

: 0.25e15t

: 0.5et cos 2t

t
1

(a) respuesta exacta

(b) componentes de la respuesta natural

y(t)

: y(t)

: yaprox (t)

t
1

(c) respuesta exacta y aproximada

Figura 4.29: Sistema continuo de orden 4 con polos dominantes

4.6.

Polos dominantes

Supongamos ahora un sistema continuo de orden superior a 2, como por


ejemplo uno cuya funci
on de transferencia sea
F (s) =

6.75s3 + 102.5s2 + 318.75s + 750


(s + 10)(s + 15)(s2 + 2s + 5)

Al estimular ese sistema con un escal


on unitario la respuesta ser
a
Y (s) = F (s)

6.75s3 + 102.5s2 + 318.75s + 750


1
=
s
s(s + 10)(s + 15)(s2 + 2s + 5)

0.25
0.25
0.5(s + 1)
1

2
s (s + 10) (s + 15)
(s + 2s + 5)

10t
15t
y(t) = 1 0.25e
0.25e
0.5et cos 2t (t)
Y (s) =

(4.13)

La figura 4.29(a) muestra la gr


afica de y(t), mientras que la figura 4.29(b)
muestra por separado los tres componentes de la respuesta natural, 0.25e 10t,
0.25e15t y 0.5et cos 2t.
En la figura 4.29(b) se observa que el aporte a la respuesta natural debido
a los polos p1 = 10 y p2 = 15 es considerablemente m
as peque
no que el
87

OSCAR G. DUARTE

debido a los polos p3,4 = 1 j2. Lo anterior se debe a que los aportes de p1 y
p2 decaen mucho m
as r
apidamente que el aporte de p3,4 , ya que e10t y e15t
decaen m
as r
apidamente que et .
Se dice entonces que los polos p3,4 dominan el comportamiento del sistema,
o simplemente que son los polos dominantes. La figura 4.29(c) compara la respuesta exacta y(t) calculada seg
un (4.13) y una respuesta aproximada y aprox (t)
que se obtendra eliminando de y(t) los aportes de los polos p1 y p2 , es decir:

y(t) = 1 0.5et cos 2t (t)

Se observa c
omo el aporte de los polos p1 y p2 s
olo es significativo al comienzo
de la respuesta, cuando la componente de la respuesta natural asociada a ellos
a
un no ha decaido, pero este aporte se desvanece r
apidamente, y la respuesta
aproximada resulta ser pr
acticamente la misma respuesta exacta.
En conclusi
on, se dice que un sistema continuo estable tiene (1 o 2) polos
dominantes si la parte real de dichos polos es suficientemente mayor (est
a m
as
hacia la derecha, en el semiplano izquierdo) que la de los dem
as polos del sistema,
como para que el aporte de estos u
ltimos se desvanezca mucho antes de que haya
desaparecido el aporte debido a los polos dominantes.
En estos casos, las regiones de dise
no, que fueron desarrolladas para sistemas
de segundo orden, pueden ser una herramienta muy u
til para analizar el sistema,
aunque este sea de un orden superior.
Algo an
alogo sucede con los sistemas discretos, s
olo que aqui el tiempo de
decaimiento no depende de la parte real de los polos, sino de su distancia al
origen.
En conclusi
on, se dice que un sistema discreto estable tiene (1 o 2) polos
dominantes si la magnitud de dichos polos es suficientemente mayor (est
a m
as
lejos del origen, dentro del crculo unitario) que la de los dem
as polos del sistema,
como para que el aporte de estos u
ltimos se desvanezca mucho antes de que haya
desaparecido el aporte debido a los polos dominantes.

88

Captulo 5
Sistemas realimentados simples

En este captulo centramos nuestro interes en sistemas continuos y discretos


como los que se muestran en las figuras 5.1 y 5.2, respectivamente. Este tipo de
sistemas se denominan realimentados o retroalimentados, debido a que la se
nal
de salida Y es retornada para ser comparada con la entrada U mediante una
resta. El resultado de esta comparaci
on es la se
nal de error E.
Esta es una estructura tpica de control; G es la planta que se desea controlar,
y U el comportamiento que se desea que tenga G. Y es el comportamiento real
de G, que es medido y comparado con U a traves de H. Si el comportamiento
real difiere del deseado, existir
a un error E, que se amplifica por K como entrada
directa a G
Definimos la funci
on de transferencia del sistema realimentado como la relaci
on entre la salida y la entrada con condiciones iniciales nulas. En el caso
continuo ser
a
F (s) =

Y (s)
KG(s)
=
U (s)
1 + KG(s)H(s)

(5.1)

F (z) =

Y (z)
KG(z)
=
U (z)
1 + KG(z)H(z)

(5.2)

y en el discreto:

U (s)
E(s)
- k - K
+
6

- G(s)

Y (s)
-

H(s) 

Figura 5.1: Sistema continuo retroalimentado simple

89

OSCAR G. DUARTE

U (z)- E(z)k
K
+
6

- G(z)

Y-(z)

H(z) 

Figura 5.2: Sistema discreto retroalimentado simple

Tambien se define la funci


on de transferencia del error o transmitancia del
error como la relaci
on entre el error y la entrada. En el caso continuo:
FE (s) =

E(s)
1
=
U (s)
1 + KG(s)H(s)

(5.3)

FE (z) =

1
E(z)
=
U (z)
1 + KG(z)H(z)

(5.4)

y en el discreto:

Adem
as, a los productos G(s)H(s) y G(z)H(z) se les denomina ganancia de
lazo abierto.
Si escribimos G y H como dos fracci
on de polinomios NG /DG y NH /DH
respectivamente, las expresiones (5.1), (5.2), (5.3) y (5.4) se convierten en:
Funci
on de transferencia del sistema realimentado, caso continuo:
F (s) =

NG (s)
KD
Y (s)
KNG (s)DH (s)
G (s)
=
=
NG (s) NH (s)
U (s)
D
(s)D
G
H (s) + KNG (s)NH (s)
1 + K DG (s) DH (s)
(5.5)

Funci
on de transferencia del sistema realimentado, caso discreto:
NG (z)
KD
Y (z)
KNG (z)DH (z)
G (z)
F (z) =
=
=
N
(z)
N
(z)
G
H
U (z)
DG (z)DH (z) + KNG (z)NH (z)
1 + K DG (z) DH (z)
(5.6)

Funci
on de transferencia del error, caso continuo:
FE (s) =

1
E(s)
DG (s)DH (s)
=
=
N
(s)
N
(s)
G
H
U (s)
DG (s)DH (s) + KNG (s)NH (s)
1 + K DG (s) DH (s)
(5.7)

Funci
on de transferencia del error, caso discreto:
FE (z) =

DG (z)DH (z)
E(z)
1
=
=
NG (z) NH (z)
U (z)
D
(z)D
(z) + KNG (z)NH (z)
G
H
1 + K DG (z) DH (z)
(5.8)
90

5.1. TIPO DE SISTEMA Y ERROR DE


ESTADO ESTACIONARIO

5.1.
5.1.1.

Tipo de sistema y error de


estado estacionario
Caso continuo

Uno de los objetivos de los esquemas de control como el que se muestra


en las figura 5.1 suele ser el asegurar que la se
nal de error sea nula, al menos
despues de que las respuestas transitorias hayan desaparecido. Por ese hecho,
se estudia la respuesta de estado estacionario de la se
nal de error, comunmente
denominada el error de estado estacionario.
Bajo la suposici
on de que el sistema realimentado es estable1 , se puede argumentar que despues de un cierto tiempo la respuesta transitoria se habr
a hecho
lo suficientemente peque
na como para considerar que no existe, y por lo tanto
s
olo queda la respuesta estacionaria, es decir
eee = lm e(t)
t

(5.9)

donde eee es el error de estado estacionario, y e(t) es la se


nal de error en el
dominio del tiempo, es decir e(t) = L1 {E(s)}
El teorema de valor final de la transformada de Laplace provee una forma
de calcular eee :
eee = lm e(t) = lm {sE(s)}
t

s0

(5.10)

Combinando (5.10) con (5.3) se obtiene:


eee = lm {sFE (s)U (s)}
s0

(5.11)

Al observar (5.11), se encuentra que el error de estado estacionario podr


a
ser 0, o un valor finito, dependiendo del n
umero de polos y ceros en s = 0
que tengan FE (s) y U (s), como se muestra en los siguientes ejemplos.
(s+4)
Ejemplo 5.1 Sea FE (s) = (s+3)(s+5)
y U (s) = (s21+4) . Seg
un (5.11) el error de
estado estacionario sera


1
(0 + 4)
1
(s + 4)
eee = lm s
=0
=0
s0
(s + 3)(s + 5) (s2 + 4)
(0 + 3)(0 + 5) (02 + 4)
(s+4)
Ejemplo 5.2 Sea FE (s) = (s+3)(s+5)
y U (s) = 1s . Seg
un (5.11) el error de estado
estacionario sera




4
1
(s + 4)
(0 + 4)
(s + 4)
=
= lm
=
eee = lm s
s0 (s + 3)(s + 5)
s0
(s + 3)(s + 5) s
(0 + 3)(0 + 5)
15
1 La determinaci
on de la estabilidad de los sistemas realimentados continuos se estudia en
la secci
on 5.2

91

OSCAR G. DUARTE

Tipo de
sistema
0
1

u(t) = (t)

u(t) = t(t)

U (s) = 1/s
lms0 {FE (s)}

U (s) = 1/s2

n
o

2
..
.

0
..
.

FE (s)
s

lms0

0
..
.

u(t) = t2 (t)/2

U (s) = 1/s3

lms0

..
.

FE (s)
s2

..
.

Tabla 5.1: Error de estado estacionario para sistemas continuos

eee

s(s+4)
(s+3)(s+5)

y U (s) =

1
s3 .

Seg
un (5.11) el error de estado


s(s + 4)
1
eee = lm s
s0
(s + 3)(s + 5) s3


(0 + 4)
4
1
1
(s + 4)
=
= =
= lm
s0 (s + 3)(s + 5) s
(0 + 3)(0 + 5) 0
0

Ejemplo 5.3 Sea FE (s) =


estacionario sera

En los ejemplos anteriores puede observarse que el valor de eee depende de


si la s que aparece en (5.11) puede o no cancelarse con otros terminos s que
aparezcan en FE (s)U (s). Con esto en mente, definimos el tipo de sistema como
el n
umero de ceros en s = 0 que tenga FE (s) y construimos la tabla 5.1. N
otese
que las entradas u(t) que se han empleado son aquellas cuyas transformadas de
Laplace tienen terminos sn en el denominador.
De acuerdo con (5.7) los ceros de FE (s) son los valores de s que hacen que
DG (s)DH (s) sea cero, es decir son iguales a los polos de G(s)H(s). Por esta
raz
on tambien podemos definir el tipo de sistema como el n
umero de polos en
s = 0 que tenga G(s)H(s).

5.1.2.

Caso discreto

Consideraciones similares pueden hacerse para el caso discreto. Si el sistema


realimentado es estable2 , el error de estado estacionario de un sistema como el
de la figura 5.2 ser
a
eee = lm e(k)
(5.12)
k

donde eee es el error de estado estacionario, y e(k) es la se


nal de error en el
dominio del tiempo, es decir e(k) = Z 1 {E(z)}
El teorema de valor final de la transformada Z provee una forma de calcular
eee :
eee = lm e(k) = lm {(z 1)E(z)}
k

z1

(5.13)

2 La determinaci
on de la estabilidad de los sistemas realimentados discretos se estudia en
la secci
on 5.3

92

5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

Tipo
de
sistema

u(k) = (k)

u(k) = k(k)

u(k) = k 2 (k)

U (z) =
z/(z 1)

U (z) =
z/(z 1)2
n

U (z) =
z(z + 1)/(z 1)3

0
1

lmz1 {zFE (z)}

2
..
.

0
..
.

lmz1

z
F (z)
(z1) E

0
..
.

lmz1

z(z+1)
F (z)
(z1)2 E

..
.

..
.

Tabla 5.2: Error de estado estacionario para sistemas discretos

o lo que es igual,
eee = lm e(k) = lm {(z 1)FE (z)U (z)}
k

z1

(5.14)

Ahora el valor de eee depende del numero de ceros y polos en z = 1 que


tengan FE (z) y U (z). Por lo tanto, definimos tipo de sistema como el n
umero
de ceros en z = 1 que tenga FE (z) y construimos la tabla 5.2. N
otese que las
entradas u(k) que se han empleado son aquellas cuyas transformadas de Laplace
tienen terminos (z 1)n en el denominador.
De acuerdo con (5.8), los ceros de FE (z) son los valores de z que hacen que
DG (z)DH (z) sea cero, es decir son iguales a los polos de G(z)H(z). Por esta
raz
on tambien podemos definir el tipo de sistema como el n
umero de polos en
z = 1 que tenga G(z)H(z).

5.2.

Estabilidad y criterios de estabilidad en sistemas continuos

En este captulo empleamos la definici


on de estabilidad de entrada acotada
- salida acotada 3 , tambien conocida como estabilidad BIBO por sus siglas en
ingles (Bounded Input - Bounded Output).
Un sistema din
amico es BIBO estable si cualquier entrada acotada produce una salida acotada. En otras palabras, si ante entradas de valor fininto la
respuesta (su valor absoluto) no tiende a infinito.
La figura 2.3 muestra que las funciones continuas cuyos valores absolutos
crecen indefinidamente tienen sus polos en el semiplano derecho. Si una funci
on
de transferencia tiene uno de sus polos en esa zona la respuesta natural tender
a
a infinito, independientemente del valor de la entrada, y por tanto el sistema
sera inestable.
3 Existen varias definiciones de estabilidad de sistemas din
amicos; afortunadamente para los
sistemas lineales todas ellas son equivalentes y podemos adoptar indistintamente cualquiera
de ellas.

93

OSCAR G. DUARTE

En consecuencia, para asegurar que un sistema din


amico lineal sea estable,
todos los polos de su funci
on de transferencia deben estar en el semiplano izquierdo. Basta con que un polo este en el semiplano derecho para que el sistema
sea inestable. Si existe un polo en el eje imaginario, es decir, en la frontera entre los semiplanos derecho e izquierdo, se dice que el sistema es marginalmente
estable.

5.2.1.

Arreglo y criterio de Routh-Hurwitz

Dado que la estabilidad de un sistema din


amico est
a determinada por la
ubicaci
on de los polos de su funci
on de transferencia, es decir por la ubicaci
on
de las races de un cierto denominador, planteamos ahora el siguiente problema:
C
omo determinar si las races de un polinomio como (5.15) est
an
ubicadas todas en el semiplano izquierdo?
p(s) = an sn + an1 sn1 + + a1 s + a0

(5.15)

Antes de contestar esta pregunta, hacemos notar lo siguiente:


Si (5.15) tiene coeficientes de signos diferentes, o coeficientes cero, entonces
tiene al menos una raiz en el semiplano derecho o en el eje imaginario.
Si (5.15) tiene todos sus coeficientes del mismo signo, no podemos extraer
conclusiones a priori sobre la ubicaci
on de sus races.
Para demostrar lo anterior, sup
ongase primero que (5.15) tiene s
olo races
reales, y por tanto puede factorizarse asi:
p(s) = A(s 1 )(s 2 ) (s n )

(5.16)

Si las races i son todas negativas, los terminos i ser


an todos positivos,
y en general el producto (s1 )(s2 ) (sn ) tendr
a todos los coeficientes
positivos. De esta forma, los coeficientes de (5.15) ser
an todos positivos o todos
negativos, dependiendo del signo de A en (5.16). Por esta raz
on, si p(s) tiene
coeficientes de signos diferentes o cero, necesariamente al menos un termino i
debe ser negativo, lo que implicara que tendra al menos una raiz positiva (en
el semiplano derecho).
Ahora sup
ongase que (5.15) tiene dos races complejas conjugadas:
p(s) = A(s ( + j))(s ( j))(s 3 ) (s n )

(5.17)

El producto de los terminos que tienen que ver con las races complejas es:
(s ( + j))(s ( j)) = s2 2s + ( 2 + 2 )

(5.18)

Si < 0, es decir si las races est


an en el semiplano izquierdo, ( 5.18) tendr
a
s
olo coeficientes positivos, y por tanto (5.15) tendr
a todos sus coeficentes del
mismo signo (positivos si A es positiva y negativos si A es negativa).
94

5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

sn
sn1
sn2
..
.

an
an1

an2
an3

a1
a0

s1
s0
Figura 5.3: Arreglo de Routh. Primeras dos lneas

..
.
si+2
si+1
si
..
.

a1
b1
c1

a2
b2
c2

a3
b3
c3

Figura 5.4: Arreglo de Routh. Dos lneas genericas

Como consecuencia de lo anterior, si (5.15) tiene coeficientes de signos diferentes, o cero, podemos asegurar que tiene una o m
as races en el semiplano
derecho o en el eje imaginario. Si por el contrario tiene todos los coeficientes
de igual signo, es necesario realizar otro tipo de pruebas antes de establecer
la ubicaci
on de sus races. Una de esas pruebas se conoce como la prueba de
Routh-Hurwitz, para lo cual es necesario primero construir un arreglo especfico
con los coeficientes de (5.15)
Construcci
on del arreglo de Routh
Dado un polinomio p(s) como (5.15)
Es posible construir el arreglo de Routh de p(s) a partir de los coeficientes
ai que aparecen en (5.15). Para ello, inicialmente construimos el arreglo que se
muestra en la figura 5.3. A continuaci
on, se completa el arreglo de Routh lnea
por lnea, siguiendo las siguientes indicaciones.
Cada nueva lnea se construye con informaci
on de las dos lneas inmediatamente anteriores.
Para calcular el termino jesimo de una lnea (cj en la figura 5.4) se
efect
ua la operaci
on


a1 aj+1


b1 bj+1
(5.19)
cj =
b1
Ejemplo 5.4 Considere el polinomio
p(s) = s5 + s4 + 3s3 + 9s2 + 16s + 10
95

(5.20)

OSCAR G. DUARTE

s5
s4
s3
s2
s1
s0

1
1
c1
d1
e1
f1

3
9
c2
d2
e2
f2

16
10
c3
d3
e3
f3

Figura 5.5: Arreglo de Routh del ejemplo 5.4. Primeras dos lneas

s5
s4
s3
s2
s1
s0

1
1
6
10
12
10

3
9
6
10

16
10

Figura 5.6: Arreglo de Routh del ejemplo 5.4

La figura 5.5 muestra las dos primeras lneas del arreglo de routh para (5.20)
Los valores de la lnea correspondiente a s3 se calculan asi:




1 3
1 16




1 9
1 10
c1 =
= 6
c2 =
=6
1
1

No es necesario calcular c3 , porque ya no hay mas columnas en las dos primeras


lneas, y por lo tanto el resultado sera 0.
Para la lnea correspondiente a s2 se tiene:




1 9
1 10




6 6
6 0
d1 =
= 10
d2 =
= 10
6
6
Para la lnea correspondiente a s1 :


6 6


10 10
e1 =
= 12
10
Y para la lnea correspondiente a s0 :


10 10


12 0
= 10
f1 =
12

El resultado es el arreglo que se muestra en la figura 5.6


Es conveniente resaltar algunos aspectos de la construcci
on del arreglo
96

5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

s2
s1
s0

1
3
K +2

K +2

Figura 5.7: Arreglo de Routh del ejemplo 5.5

El n
umero de filas del arreglo disminuye progresivamente: cada dos filas
se disminuye una columna.
El termino que est
a en la u
ltima columna justo antes de desaparecer esta
es siempre el mismo (es 10 en la figura 5.6), debido a que este se calcular
a
siempre como


a b


c 0

=b
c
Criterio de Routh-Hurwitz
El criterio de Routh-Hurtwiz puede expresarse asi:
Criterio de Routh-Hurwitz
El n
umero de races de (5.15) en el semiplano derecho es igual al n
umero
de cambios de signo que se suceden en la primera columna del arreglo
de Routh de dicho polinomio.
Retomando el ejemplo 5.20, el polinomio (5.20) tiene dos races en el semiplano derecho, ya que su arreglo de Routh (figura 5.6) tiene dos cambios de
signo en la primera columna: uno al pasar de 1 a 6, y otro al pasar de 6 a
10.
Miremos ahora el sistema realimentado de la figura 5.1. La funci
on de transferencia, y por lo tanto sus polos, dependen de la variable K, como claramente
se establece en (5.5). La utilizaci
on del criterio de Routh-Hurwitz permite establecer condiciones en la varible K para que el sistema realimentado sea estable.
Esto podemos verlo mediante los ejemplos 5.5, 5.6 y 5.7:
Ejemplo 5.5 Sup
ongase que en el sistema de la figura 5.1 se tiene que
G(s) =

1
s+2

H(s) =

1
s+1

La funci
on de transferencia del sistema realimentado es
F (s) =

KG(s)
K(s + 1)
= 2
1 + KG(s)H(s)
s + 3s + (K + 2)

El arreglo de Routh para el polinomio del denominador s 2 + 3s + (k + 2) se


muestra en la figura 5.7.
97

OSCAR G. DUARTE

s3
s2
s1
s0

1
6

11
6+K

60K
6

6+K

Figura 5.8: Arreglo de Routh del ejemplo 5.6

Para que todas las races esten en el semiplano izquierdo, y por lo tanto el
sistema sea estable, se necesita que todos los signos de la primera columna sean
iguales, y por lo tanto:
K+2>0
K > 2
Podemos concluir que para cualquier valor de k superior a 2 el sistema sera
estable, y para cualquier valor menor que 2 sera inestable. Justo cuando k = 2
el sistema tendra estabilidad Marginal.
Ejemplo 5.6 Sup
ongase que en el sistema de la figura 5.1 se tiene que
G(s) =

1
(s + 1)(s + 2)

H(s) =

1
s+3

La funci
on de transferencia del sistema realimentado es
F (s) =

K(s + 3)
KG(s)
= 3
1 + KG(s)H(s)
s + 6s2 + 11s + (6 + K)

(5.21)

El arreglo de Routh para el polinomio del denominador s 3 + 6s2 + 11s + (6 + K)


se muestra en la figura 5.8.
Para que todas las races esten en el semiplano izquierdo, y por lo tanto el
sistema sea estable, se necesita que todos los signos de la primera columna sean
iguales, y por lo tanto:
60 K > 0

6+K >0

Podemos concluir que para cualquier valor de K en el intervalo (6, 60) el


sistema sera estable, y para cualquier valor por fuera de ese intervalo sera inestable.
Justo cuando K = 6 o K = 60 el sistema tendra estabilidad Marginal.
Ejemplo 5.7 Sup
ongase que existe un sistema dinamico continuo cuya funci
on de
transferencia tiene el siguiente denominador
DF (s) = s3 + 3Ks2 + (K + 2)s + 4
El arreglo de Routh correspondiente se muestra en la figura 5.9.
Para que el sistema sea estable se necesita que todos los terminos de la primera
columna sean del mismo signo, por lo tanto deben cumplirse las siguientes dos
condiciones

3K > 0
3K 2 +6K4
>0
3K
98

5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

s3
s2
s1
s0

1
3K

K +2
4

3K 2 +6K4
3K

Figura 5.9: Arreglo de Routh del ejemplo 5.7

s4
s3
s2
s1
s0

1
1
0

2
2
3

Figura 5.10: Arreglo de Routh con cero en la primera columna. Arreglo incompleto

La segunda condici
on podra darse si tanto numerador como denominador son
del mismo signo, sin embargo descartamos la opci
on de que ambos sean negativos,
porque la primera condici
on impone que el denominador sea positivo, es decir las
dos condiciones son:

K>0
3K 2 + 6K 4 > 0
La segunda condici
on se cumple si K < 2.52 o K > 0.52. De estas dos
posibilidades descartamos la primera, debido a que K debe ser positivo. Por lo
tanto, aseguramos que el sistema sea estable si y s
olo si K > 0.52
Problemas en la construcci
on del arreglo de Routh
Debido a que los terminos del arreglos de Routh se calculan como est
a indicado en (5.19), surge una dificultad cuando en la primera columna aparece un
cero, pues para calcular los terminos de las columnas siguientes ser
a necesario
dividir por cero. Tal es el caso del polinomio
p(s) = s4 + s3 + 2s2 + 2s + 3
cuyo arreglo de Routh se muestra (parcialmente) en la figura 5.10.
Para calcular los terminos de la siguiente columna sera necesario dividir por
cero. Una estrategia para obviar este problema consiste en remplazar 0 por ,
completar el arreglo, y luego analizar el lmite cuando tiende a cero por la
derecha. En esas condiciones, el arreglo de Routh ser
a como el que se muestra
en la figura 5.11. Cuando 0+ , el arreglo resulta ser como el de la figura
5.12, y por lo tanto el polinomio tiene dos races en el semiplano derecho.
Una dificultad mayor surge cuando todos los terminos de una fila se hacen
cero. Este hecho se conoce como la terminaci
on prematura del arreglo, y est
a
relacionada con polinomios cuyas races est
an ubicadas en forma simetrica respecto al origen, como por ejemplo cuando existen races en el eje imaginario.
99

OSCAR G. DUARTE

s4
s3
s2
s1
s0

1
1

2
3

2
2
3

Figura 5.11: Arreglo de Routh con cero en la primera columna. Aproximaci


on

s4
s3
s2
s1
s0

1
1
0+

2
2
3

Figura 5.12: Arreglo de Routh con cero en la primera columna. Arreglo completo

Tal es el caso del polinomio


p(s) = s5 + s4 + 5s3 + 5s2 + 4s + 4
cuyo arreglo de Routh se muestra (parcialmente) en la figura 5.13.
La estrategia a emplear en este caso consiste en escribir el polinomio p(s)
que se obtiene con los coeficientes de la fila inmediatemente superior a la que
qued
o con ceros; el orden del primer monomio est
a dado por el termino a la
izquierda de la lnea vertical (s4 en el ejemplo) y el de los dem
as monomios se
decrementa en dos:
p(s) = s4 + 5s2 + 4
Este polinomio resulta ser un divisor exacto de p(s) (puede comprobarse que
p(s) = p(s)(s + 1)). El arreglo de Routh lo continuamos remplazando la fila de
ceros por los coeficientes de la derivada de p(s):
d
p(s)
= 4s3 + 10s
ds
El arreglo resultante se muestra en la figura 5.14
s5
s4
s3
s2
s1
s0

1
1
0

5
5
0

4
4

Figura 5.13: Arreglo de Routh con terminaci


on prematura. Arreglo incompleto

100

5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

s5
s4
s3
s2
s1
s0

1
1
4
2.5
3.6
4

5
5
10
4

4
4

Figura 5.14: Arreglo de Routh con terminaci


on prematura. Arreglo completo

5.2.2.

Lugar geom
etrico de las races

De acuerdo con la ecuaci


on (5.5) los polos de la funci
on de transferencia de
un sistema como el de la figura5.1 dependen del valor de K. El lugar geometrico
de las races, o simplemente root-locus es el gr
afico en el plano s de la ubicaci
on
de los polos de (5.5) conforme K varia de cero a infinito (K : 0 ).
Se define tambien el root-locus complementario como el gr
afico en el plano s
de la ubicaci
on de los polos de (5.5) conforme K varia de menos infinito a cero
(K : 0)
Ejemplo 5.8 Sup
ongase que en el sistema de la figura 5.1 los bloques G(s) y H(s)
son:
1
1
G(s) =
H(s) =
(s + 1)
(s + 3)
De tal manera que la funci
on de transferencia del sistema realimentado es
F (s) =

K(s + 3)
s2 + 4s + (3 + K)

(5.22)

Los polos de 5.22 estaran dados por


p

4 16 4(3 + K)
= 2 1 K
p1,2 =
2

(5.23)

La tabla 5.3 muestra el valor de p1,2 para diversos valores positivos de K, seg
un
(5.23). La figura 5.15 muestra c
omo vara la ubicaci
on de los polos de (5.22): en
rojo se muestra que sucede al variar K de 0 a es decir, lo que corresponde al
root-locus; en azul se muestra el efecto de variar K de menos infinito a cero, lo que
corresponde al root-locus complementario.
Determinaci
on de la estabilidad
Si nos referimos a la ecuaci
on (5.5), encontramos que la condici
on para los
polos de F (s) ser
a
DG (s)DH (s) + KNG (s)NH (s) = 0
1
NG (s)NH (s)
=
DG (s)DH (s)
K
101

G(s)H(s) =

1
K

(5.24)

OSCAR G. DUARTE

K
8
3
0
0.75
1
2
5

p1
5
4
3
2.5
2
2 + j
2 + 2j

p2
1
0
1
1.5
2
2 j
2 2j

Tabla 5.3: Polos de la funci


on de transferencia del ejemplo 5.8

Im(s)
2
1
Re(s)
5

1
2

Figura 5.15: Root-ocus (en rojo) y root-locus complementario (en azul) del ejemplo
5.8

102

5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

Es importante hacer notar que la condici


on expresada en (5.24) est
a dada
en terminos de la ganancia de lazo abierto G(s)H(s) en lugar de la funci
on de
transferencia del sistema realimentado (5.5). Dado que G(s) es un complejo,
(5.24) puede escribirse en terminos de su magnitud y a
ngulo:

1
180o K > 0
(5.25)
arg[G(s)H(s)] =
|G(s)H(s)| =
0o
K<0
|K|
De acuerdo con (5.25), si un valor s0 forma parte del root-locus, entonces
arg [G(s0 )H(s0 )] = 180o ; adem
as, podemos saber cu
al es el valor de K que
1
hace que la rama del root-locus pase justamente por s0 , pues |K| = |G(s0 )H(s
;
0 )|
como K es positiva (estamos suponiendo que s0 est
a en el root-locus) entonces
1
K = |G(s0 )H(s
.
0 )|
Si por el contrario, s0 forma parte del root-locus complementario, entonces.
arg [G(s0 )H(s0 )] = 0o ; el valor de K que hace que la rama del root-locus pase
1
; como K es negativa
justamente por s0 , ser
a tal que pues |K| = |G(s0 )H(s
0 )|
(estamos suponiendo que s0 est
a en el root-locus complementario) entonces K =
1
|G(s0 )H(s
.
0 )|
Ejemplo 5.9 Si tomamos el ejemplo de la figura 5.15, podemos conocer cual es el
valor de K que hace que la rama del root-locus complementario que viene desde
llegue a 0. Este valor sera justamente:
K=

1
1
= 3
=
1
|G(s0 )H(s0 )|
(0+1)(0+3)

De esta manera, podemos concluir que para valores de K menores que 3


siempre habra un polo en el semiplano derecho, y por lo tanto el sistema sera
inestable. Para valores K mayores que 3 todas las ramas del root-locus estan en
el semiplano izquierdo, y por lo tanto el sistema sera estable.
Ejemplo 5.10 Sup
ongase que en la figura 5.1 los valores de G(s) y H(s) son
G(s) =

1
(s + 1)(s + 2)

H(s) =

1
(s + 3)

(5.26)

La figura 5.16 muestra los diagramas de Root-Locus y Root-Locus complementario para (5.26). N
otese como una rama del root locus complementario (en azul)
viene desde + por el eje real, y pasa del semiplano derecho al semiplano izquierdo.
Esto significa que para valores de K muy negativos el sistema realimentado tiene
un polo en el semiplano derecho y por lo tanto es inestable.
Sin embargo, conforme K aumenta y se acerca a 0 el polo que origina la inestabilidad se desplaza a la izquierda, y en alg
un momento pasa al semiplano izquierdo
y por lo tanto el sistema realimentado deja de ser inestable. Para determinar cual
es el valor de K en el que sucede esta transici
on, observamos que la rama cruza el
eje imaginario justo en s = 0 + j0. De acuerdo con 5.25 tenemos:
103

OSCAR G. DUARTE

Evans root locus

Imag. axis
4

0 + j3.316

0 + j0

3
0 j3.316

Real axis

4
4

3
2
closedloop poles loci

root locus

open
asymptotic
loop
poles
directions
open loop
asymptotic
poles
directions
root locus complementario

Figura 5.16: Diagramas de Root Locus para el ejemplo 5.10

104

5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

|G(s)H(s)| =

1
1
1
=
=
|K|
|(0 + j0 + 1)(0 + j0 + 2)(0 + j0 + 3)|
6
|K| = 6

(5.27)
(5.28)

La ecuaci
on (5.28) establece cual es el valor absoluto de K que hace que la
rama del root-locus complementario pase del semiplano derecho al izquierdo. Como
sabemos que se trata de valores negativos de K podemos establecer que para K <
6 el sistema realimentado es inestable, mientras que para 6 < K 0 es estable.
Si observamos ahora el diagrama de root-locus (en rojo) observamos que existen
dos ramas (simetricas respecto al eje horizontal) que nacen en el semiplano izquierdo
y pasan al semiplano derecho. Esto significa que para valores peque
nos de K el
sistema realimentado es estable, pero a partir de alg
un valor positivo de K se torna
en inestable.
Las dos ramas cruzan el eje imaginario simultaneamente, asi que para determinar
el momento en el que sucede la transici
on basta con estudiar una de ellas. Tomemos
por ejemplo la rama superior, que cruza el eje imaginario en 0 + j3.316. El valor de
K en el que esto sucede puede determinarse empleando 5.25:
1
1
1
=
=
|K|
|(0 + j3.316 + 1)(0 + j3.316 + 2)(0 + j3.316 + 3)|
60
|K| = 60

(5.29)
(5.30)

Seg
un la ecuaci
on (5.30) para 0 K < 60 el sistema retroalimentado es estable,
y para K > 60 es inestable.
Combinando esta informaci
on con la que se obtuvo al analizar el root-locus
complementario puede concluirse que el sistema realimentado es estable si y s
olo si
K (6, 60)
Reglas de construcci
on de los diagramas
La figura 5.15 ha sido construida a partir de la expresi
on exacta de la ubicaci
on de los polos, dada por (5.23). No obstante, podra haberse empleado un
metodo diferente, ya que existen varias reglas constructivas, que permiten trazar manualmente el root-locus y el root-locus complementario de funciones de
transferencia de orden superior, con un alto grado de precisi
on.
Estas reglas constructivas, algunas de las cuales se han resumido en la tabla
5.54 , se basan en la ecuaci
on (5.5). En el ejemplo 5.11 se muestra c
omo se
emplean estas reglas.
Ejemplo 5.11 Trazar el root-locus y el root-locus complementario de
G(s)H(s) =
4n

s+1
s(s + 4)(s2 + 2s + 2)

= n
umero de polos de G(s)H(s); m = n
umero de ceros de G(s)H(s)

105

OSCAR G. DUARTE

R1 :
R2 :
R3 :
R4 :

R5 :

R6 :

R7 :

Regla

root-locus

n
umero de
ramas
Inicio de las
ramas
Fin de las ramas
Intervalos
del eje real

root-locus complementario
n

Polos de G(s)H(s) (o en
)
Ceros de G(s)H(s) (o en
)
A la izquierda de un n
umero impar de polos y ceros de G(s)H(s)
|n m|

Ceros de G(s)H(s) (o en
)
Polos de G(s)H(s) (o en
)
A la izquierda de un n
umero par de polos y ceros
de G(s)H(s)
|n m|

2i+1
180o
i = |nm|
0, 1, , |n m|

2i
180o
i = |nm|
0, 1, , |n m|

N
umero de
ramas
que
van
hacia
(o
vienen
desde)

Angulos
de
las
rectas
asntotas
Centroide
de las rectas
asntotas

Pn

i =

i =

P
polos de G(s)H(s) m ceros de G(s)H(s)
|nm|

Tabla 5.5: Reglas de construcci


on para el root-locus y el root-locus complementario

106

5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

Para trazar el diagrama de root-locus, comenzamos por ubicar en el plano complejo los polos y ceros de G(s)H(s) (figura 5.17(a)). De acuerdo con la Regla R 4 ,
podemos definir que intervalos del eje real forman parte del root locus y cuales
del root locus complementario (figura 5.17(b)). Las reglas R 2 y R3 nos permiten
determinar si las ramas del eje real llegan o salen de los ceros y polos de G(s)H(s)
(figura 5.17(c))
Seg
un la regla R5 , deberan existir 4 1 = 3 ramas que van al infinito en el root
locus, y otras 3 ramas que vienen desde el infinito en el root locus complementario.
Estas ramas seran asntotas a unas rectas que cruzan el eje real en el centroide ,
que seg
un la regla R7 sera:
=

((0) + (4) + (1 + j) + (1 j) (1)


5
=
41
3

Podemos calcular los angulos de esas rectas siguiendo la regla R 6 (figura 5.17(d))
i
0
1
2

RL
o
o
0 = 2i+1
41 180 = 60
2i+1
o
1 = 41 180 = 180o
o
o
2 = 2i+1
41 180 = 300

RLC
2i
180o = 0o
0 = 41
2i
1 = 41 180o = 120o
2i
180o = 240o
2 = 41

Con esta informaci


on podriamos trazar parte de las ramas que van o vienen al
infinito (figura 5.17(e)), pero sera necesario emplear otras reglas, o programas de
simulaci
on, para obtener los diagramas completos (figura 5.17(f))

5.2.3.

Diagramas y criterio de Bode

El an
alisis del lugar geometrico de las races permite establecer la ubicaci
on
de los polos de un sistema como el de la figura 5.1 conforme cambia el valor de K.
Si estamos interesados en estudiar la estabilidad del sistema, debemos analizar
los puntos en los cuales las ramas del root-locus y el root locus complementario
cruzan el eje imaginario, pues es en ese punto en donde los polos pasan del
semiplano izquierdo al derecho, o viceversa, y por lo tanto son los puntos en
donde puede cambiar la estabilidad del sistema realimentado.
Adem
as, el root-locus es simetrico respecto al eje horizontal, por lo cual
basta con estudiar en que momento las ramas atraviesan una de las dos mitades
del eje imaginario, generalmente la mitad positiva.
Este hecho sugiere otra posibilidad de estudiar la estabilidad de los sistemas
realimentados: En lugar de estudiar en d
onde est
an ubicadas las ramas del rootlocus en todo el plano complejo, centrar nuestra atenci
on u
nicamente en el eje
imaginario positivo, y detectar cu
ando es atravesado por alguna rama del rootlocus.
Recordemos que de acuerdo con (5.25) los puntos del plano complejo que
forman parte del root-locus son tales que al evaluar en ellos la funci
on G(s)H(s)
el a
ngulo del n
umero complejo resultante debe ser 180o o 0o .
107

OSCAR G. DUARTE

Im(s)

Im(s)

Re(s)

(a) Primer paso



(b) Segundo paso

Im(s)



Im(s)

Re(s)

(c) Tercer paso



Re(s)

(d) Cuarto paso

Im(s)

Re(s)

Im(s)

Re(s)

(e) Quinto paso

Re(s)

(f) Sexto paso

Figura 5.17: Root-locus (en rojo) y root-locus complementario (en azul) del ejemplo
5.11

108

5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

De acuerdo con lo anterior, los puntos en donde puede cambiar la estabilidad


del sistema realimentado coincide con aquellos puntos j del eje imaginario en
donde

180o
arg {G(j)H(j)} =
(5.31)
0o
Para encontrar cu
ales son los valores de que satisfacen (5.31) pueden trazarse los diagramas de bode 5 de G(s)H(s) y buscar gr
aficamente en el diagrama
de fase cu
ales son los puntos en donde el a
ngulo de G(j)H(j) vale 180o o
0o , tal como se muestra en la figura 5.186.
Para determinar los valores de K en los cuales la rama del root-locus atraviesa el eje imaginario, puede emplearse nuevamente
(5.25):
1
(5.32)
|G(j)H(j)| =
|K|

El valor de |G(j)H(j)| puede leerse (en decibeles) en el diagrama de bode


de magnitud, tal como se muestra en la figura 5.18. A partir de ese valor, y
empleando (5.32) puede determinarse los valores de K para los cuales una rama
del root-locus atraviesa el eje imaginario (Kc en la figura 5.18).
M
argenes de estabilidad

Las ecuaciones (5.31) y (5.32) establecen dos condiciones que deben cumplir
los puntos j del plano complejo para formar parte del root-locus o del rootlocus complementario; una de las condiciones hace referencia a la gananacia de
G(s)H(s) y la otra a su fase. La idea de los m
argenes de estabilidad consiste en
suponer que k = 1, y explorar que margen se tiene cuando se cumple una de
esas condiciones:
Margen de ganancia: El margen de ganancia consiste en el menor valor por
el que se debe amplificar la ganancia de G(s)H(s) cuando se satisface la
condici
on (5.31), para que simult
aneamente se cumpla la condici
on (5.32).
Para el caso en que K > 0, el margen de ganancia puede leerse (en decibeles) en los diagramas de bode como el valor negativo de la ganancia a
la frecuencia en la que la fase es de 180o.

Para el caso en que K < 0, el margen de ganancia puede leerse (en decibeles) en los diagramas de bode como el valor negativo de la ganancia a
la frecuencia en la que la fase es de 0o .

Margen de fase: El margen de fase consiste en el menor valor que se le debe


sumar al a
ngulo de G(s)H(s) cuando se satisface la condici
on (5.32), para
que simult
aneamente se cumpla la condici
on (5.31)
5 ver

apendice B
un metodo gr
afico caido en desuso para calcular F (j) a partir de G(j) cuando
K = H(s) = 1. Ese metodo se basa en las cartas de Nichols, presentadas en el apendice C
6 Existe

109

OSCAR G. DUARTE

Diagrama de Bode de magnitud


j

root-locus: K > 0 K < 0

1
|Kc |

0o

180o

Diagrama de Bode de fase


Figura 5.18: Relaci
on entre el root-locus y los diagramas de Bode

Para el caso en que K > 0, el margen de fase puede leerse en los diagramas
de bode como 180o , donde es el a
ngulo a la frecuencia en la que la
ganancia es de 0db.
Para el caso en que K < 0, el margen de fase puede leerse en los diagramas
de bode como , donde es el a
ngulo a la frecuencia en la que la ganancia
es de 0db.
Ejemplo 5.12 Sup
ongase que en el sistema de la figura 5.1 los bloque G(s) y H(s)
son:
1
1
H(s) =
(5.33)
G(s) =
(s + 1)(s + 2)
(s + 3)
La figura 5.19 muestra los Diagramas de Bode de G(s)H(s). Seg
un (5.31) los
puntos en los cuales puede cambiar la estabilidad del sistema realimentado son
aquellos en los que el angulo de G(j)H(j) es 0o o es 180o.
Al observar la figura 5.19 notamos que el angulo de G(j)H(j) es 180 o
para una frecuencia de 0.528Hz, es decir para = 20.528 = 3.316rad/s. En esa
frecuencia el valor de la magnitud de G(j)H(j) es de 35.56db, lo que significa
que la magnitud de K, en decibeles, para la cual una rama del root-locus atraviesa
el eje imaginario es tal que |K|1en db = 35.56, lo que equivale a:
|K|en db
1
= 10 20
|K|

|K| = 10

|K|en db
20

110

|K| = 10

35.56
20

= 60

5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

Magnitude

db

10
15.56db
30
35.56db
70
110
150
190

Hz

.
3

230

10

10

10

10

10

10

10

0.528Hz
Phase

degrees

20

20
60
100
140
180o180
220
.

260
300

Hz

10

10

10

10

10

10

Figura 5.19: Diagramas de Bode para un ejemplo

111

10

OSCAR G. DUARTE

como K > 0 (hemos encontrado una rama del root locus) entonces K = 60.
Tambien debemos buscar los puntos para los cuales el angulo de G(j)H(j)
es 0o . En la figura 5.19 se observa que el diagrama de fase es asint
otico a 0 o , es
o
decir, que para = 0 el angulo de G(j)H(j) es 0 . El diagrama de magnitud
de G(j)H(j) es asint
otico a 15.56db, lo que significa que la magnitud de K,
en decibeles, para la cual una rama del Root-Locus complementario atraviesa el eje
imaginario es tal que |K|1en db = 15.56, lo que equivale a:
|K|en db
1
= 10 20
|K|

|K| = 10

|K|en db
20

|K| = 10

15.56
20

=6

como K < 0 (hemos encontrado una rama del root locus complementario) entonces
K = 6.
Hemos encontrado los valores de K para los cuales un polo cruza el eje imaginario, y han resultado ser 6 y 60. Esto significa que al variar K desde
hasta , la estabilidad del sistema realimentado s
olo puede cambiar en 6 y 60.
En consecuencia, podemos definir tres intervalos para K en los cuales la estabilidad
es constante; para conocer la estabilidad de cada intervalo basta con determinar la
de uno de sus puntos:
K (, 6): Seleccionamos K = 10 de tal manera que el denominador
de (5.21) se convierte en
s3 + 6s2 + 11s 4
Como el denominador tiene coeficientes de signos diferentes al menos tiene
una raiz en el semiplano derecho, y en consecuencia el sistema realimentado
es inestable.
K (6, 60): Seleccionamos K = 0 de tal manera que el denominador de
(5.21) se convierte en
s3 + 6s2 + 11s + 6 = (s + 1)(s + 2)(s + 3)
Las raices del denominador son negativas (1, 2 y 3) , y en consecuencia
el sistema realimentado es estable.
K (60, ): Seleccionamos K = 100 de tal manera que el denominador de
(5.21) se convierte en
s3 + 6s2 + 11s + 106
cuyas raices son 6.71 y .36 j3.96, es decir que tiene dos raices en el
semiplano derecho y en consecuencia el sistema realimentado es inestable.

5.2.4.

Diagrama y criterio de Nyquist

Para poder presentar el criterio de Nyquist, es conveniente recordar antes el


principio del argumento, que puede explicarse a partir de la metodologa gr
afica
para calcular el valor de una funci
on compleja racional.
112

5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

c1


s0

c1

p1

(s0
c1 )

s0

p3

p2


c2

Figura 5.20: Determinaci


on gr
afica del valor de una funci
on de transferencia
racional

Determinaci
on gr
afica del valor de una funci
on compleja racional
Sup
ongase una funci
on compleja F (s) que puede escribirse como una raz
on
de polinomios:
a0 + a 1 s1 + + a m sm
(5.34)
F (s) =
b0 + b 1 s1 + + b n sn
Al factorizar los polinomios, la ecuaci
on (5.34) podr
a escribirse como
F (s) = A

(s c1 )(s c2 ) (s cm )
(s p1 )(s p2 ) (s pn )

(5.35)

Si se quiere calcular el valor de F (s) para un valor especfico de s, digamos


s0 , es decir, si se quiere calcular F (s0 ), basta con remplazar s por s0 :
F (s0 ) = A

(s0 c1 )(s0 c2 ) (s0 cm )


(s0 p1 )(s0 p2 ) (s0 pn )

(5.36)

Cada uno de los parentesis que aparecen en (5.36) puede determinarse de


forma gr
afica, tal como se explica a continuaci
on: La figura 5.20 muestra el
diagrama de polos y ceros de una funci
on de transferencia F (s) hipotetica; en
dicho diagrama se observa que el vector (s0 c1 ) corresponde al vector que va
desde c1 hasta s0 . La magnitud y el a
ngulo de dicho vector pueden medirse en
la gr
afica, y correspondera al primero de los parentesis de (5.36).
De forma similar podra procederse con cada uno de los parentesis de (5.36),
de tal manera que una forma de calcular la magnitud y el a
ngulo de F (s0 ) sera:
Qm
Magnitudes de los vectores que van de ceros a s0
(5.37)
|F (s0 )| = |A| Qn
Magnitudes de los vectores que van de polos a s0
113

OSCAR G. DUARTE

Plano s

Plano F

2
1


s0

F (s)

2
F (s0 )

1
2

Figura 5.21: Plano s y Plano F

Pm

arg F (s0 ) = arg A +


Angulos
de los vectores que van de ceros a s0
Pn

Angulos de los vectores que van de polos a s0


(5.38)
siendo arg A = 0o si A > 0 o arg A = 180o si A < 0
Principio del argumento
Para presentar el principio del argumento, supongamos inicialmente que la
funci
on F (s) a que se refiere la ecuaci
on (5.34) es
F (s) = s + 1

(5.39)

es decir, tiene un u
nico cero en s = 1 y no tiene polos. Supongamos tambien
que deseamos calcular F (s0 ), para s0 = 1 + j.
La figura 5.21 muestra dos planos complejos: en el primero de ello se ha
dibujado el diagrama de polos y ceros de (5.39); este plano lo denominaremos
plano s. En el segundo plano se ha dibujado el resultado de calcular F (s0 ), y
por eso lo denominaremos plano F. Para obtener F (s0 ) y poder graficarlo en el
plano F se ha empleado el metodo gr
afico en el plano s, y el resultado se ha
trasladado, tal como se se
nala en la figura 5.21.
Si ahora quisieramos calcular F (s) no en un u
nico punto s0 sino en todos los
puntos de una trayectoria cerrada del plano s, podriamos repetir el procedimiento anterior en cada uno de los puntos de la trayectoria. Las figuras 5.22 y 5.23
muestran los resultados para dos trayectorias diferentes que se han recorrido en
el sentido horario. En ambos casos se produce en el plano F otra trayectoria
cerrada en sentido horario.
114

5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

Plano s

Plano F

2


F (s)


2


1


2


1


Figura 5.22: Plano s y Plano F en una trayectoria cerrada que no encierra el cero

La principal diferencia entre las dos trayectorias seleccionadas es que la primera de ellas (figura 5.22) no encierra al cero de F (s) mientras que la segunda
(figura 5.22) s lo hace. Como consecuencia de esto, en el primer caso la trayectoria cerrada que aparece en el plano F no encierra al origen, mientras que en
el segundo s lo hace.
Las figuras 5.24 y 5.25 muestran cu
al habra sido el resultado si F (s) tuviera
un polo en s = 1 en lugar de un cero, es decir si F (s) = 1/(s + 1). En el plano
F aparecen trayectorias cerradas que s
olo encierran al origen si la trayectoria
del plano s encierra al polo. Sin embargo, debe resaltarse que el sentido de la
trayectoria que encierra al origen es antihorario, lo que se explica observando
que en la ecuaci
on (5.38) el a
ngulo de los vectores que van de polos a s 0 tiene
signo negativo.
Ahora bien, si la trayectoria hubiese encerrado varios ceros y varios polos,
cada uno de estos ceros habra contribuido en 5.36 con un termino que habra
variado 360o en sentido horario, mientras que cada polo lo hara con otro termino
que habra variado 360o en sentido antihorario.
Otro detalle a tener en cuenta, es que si la trayectoria pasa por un polo de
F (s), al calcularla en ese punto el resutado ser
a , y por lo tanto la trayectoria
generada en el plano F no necesariamente ser
a cerrada. Estos hechos pueden
consignarse en el principio del argumento, que se presenta a continuaci
on:
115

OSCAR G. DUARTE

Plano s

Plano F

2


F (s)

1


1


Figura 5.23: Plano s y Plano F en una trayectoria cerrada que encierra el cero

Plano s

Plano F

2


F (s)

2


1


1
2

Figura 5.24: Plano s y Plano F en una trayectoria cerrada que no encierra el polo

116

5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

Plano s

Plano F

F (s)

1


Figura 5.25: Plano s y Plano F en una trayectoria cerrada que encierra el polo

Principio del argumento


Dada una funci
on F (s), calculada en una trayectoria cerrada , que no
pasa por ning
un polo de F (s), recorrida en sentido horario, el resultado es
tambien una trayectoria cerrada que encierra al origen en sentido horario
un n
umero de veces :
= n m
n = N
umero de ceros de F(s) encerrados por
m = N
umero de polos de F(s) encerrados por

(5.40)

Trayectoria de Nyquist
La trayectoria de Nyquist para un sistema continuo realimentado como el
de la figura 5.1 es una curva cerrada que abarca todo el semiplano derecho, y
que no contiene ning
un polo de G(s)H(s). La figura 5.26 muestra la trayectoria
de nyquist para el caso general.
N
otese que la trayectoria de Nyquist recorre todo el eje emaginario y regresa
por una semicircunferencia de radio , abarcando todo el semiplano derecho.
Para el caso especial en que G(s)H(s) tiene polos en el eje imaginario es necesario modificar la trayectoria, tal como se muestra en la figura 5.26, mediante
peque
nas semicircunferencias de radio arbitrariamente peque
no
Diagrama de Nyquist
Para un sistema continuo como el de la figura 5.1, el diagrama de Nyquist
es la trayectoria orientada que resulta de calcular G(s)H(s) a traves de la tra117

OSCAR G. DUARTE

r=

Figura 5.26: Trayectoria de Nyquist para el caso general

r=

Figura 5.27: Trayectoria de Nyquist con polos en el eje imaginario

118

5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

Plano s

Plano GH

r=

G(s)H(s)

Figura 5.28: Diagrama de Nyquist

yectoria de Nyquist (ver figura 5.28).


Criterio de Nyquist
Para el sistema continuo realimentado de la figura 5.1, con K = 1 definamos
la funci
on
R(s) = 1 + G(s)H(s) = 1 +

NG (s) NH (s)
=
DG (s) DH (s)
DG (s)DH (s) + NG (s)NH (s)
DG (s)DH (s)

(5.41)

Si calculamos R(s) a lo largo de la trayectoria de Nyquist , el resultado


es una curva . El criterio de Nyquist se deriva de aplicar el principio del
argumento a esta curva. Aplicando (5.40) se tiene:
N
umero de veces N
umero de ceros N
umero de polos
que encierra al = de R(s) encerrados de R(s) encerrados
origen
por
por

(5.42)

La ecuaci
on (5.42) puede escribirse de otra forma, si se tiene en cuenta que:
La curva encierra todo el semiplano derecho
Los polos de R(s) son los mismos polos de G(s)H(s), como se puede
verificar en (5.41)
Los ceros de R(s) son los mismos polos del sistema realimentado (con
K = 1) como puede verse al comparar (5.41) con (5.5)
119

OSCAR G. DUARTE

Con estas consideraciones la ecuaci


on (5.42) se convierte en
N
umero de polos
N
umero de veces
N
umero de polos de
del sistema realique encierra al =
G(s)H(s) en el sementado en el semiorigen
miplano derecho
plano derecho

(5.43)

es la curva que resulta de calcular R(s) a lo largo de la trayectoria de


Nyquist , pero como R(s) = 1 + G(s)H(s), es igual al diagrama de Nyquist
de G(s)H(s) desplazado a la derecha una unidad; de tal manera que evaluar
cu
antas veces encierra al origen es igual que evaluar cu
antas veces encierra
el diagrama de Nyquist de G(s)H(s) el punto (1, 0). Por esta raz
on podemos
convertir (5.43) en la forma conocida como el criterio de Nyquist:
Criterio de Nyquist
El n
umero de polos en el semiplano derecho que tiene un sistema continuo
realimentado como el de la figura 5.1 , con K = 1 puede determinarse a
partir de la ecuaci
on
N
umero de veces
N
umero de polos
que el diagrama
N
umero de polos de
del sistema realide
Nyquist
de =
G(s)H(s) en el se- (5.44)
mentado en el semiG(s)H(s) encierra
miplano derecho
plano derecho
al punto (1, 0)
Para que el sistema realimentado sea estable debe tener cero polos en el
semiplano derecho.
El criterio de Nyquist tambien permite determinar que valores puede tener
K en la figura 5.1, para que el sistema realimentado sea estable. Para ello debe notarse que el diagrama de Nyquist de kG(s)H(s) difiere del diagrama de
Nyquist de G(s)H(s) s
olo en la escala, es decir tienen la misma forma, pero el
primero est
a amplificado respecto al segundo K veces. Observando el diagrama de Nyquist puede determinarse que tanto debe amplificarse G(s)H(s) para
asegurar que no haya polos en el semiplano derecho.
Para estudiar los valores negativos de K que haran que el sistema fuera
estable, podramos trazar el diagrama de Nyquist de G(s)H(s); sin embargo
esto no es necesario, ya que ese diagrama s
olo puede diferir del de G(s)H(s) en
una rotaci
on de 180o , por lo tanto es suficiente con averiguar que tantas veces
se encierra el punto (1, 0).
Ejemplo 5.13 La figura 5.29 muestra el diagrama de Nyquist correspondiente a un
sistema realimentado con
G(s) =

1
(s + 1)(s + 2)
120

H(s) =

1
(s + 3)

(5.45)

5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

Nyquist plot
Im(h(2i*pi*f))
0.15

0.093

0.132

0.11

0.059
0.190
0.07
0.024
0.03
1000
0.01

1
60

1
6

0.05

0.034

0.229

0.09
0.068

0.151

Re(h(2i*pi*f))

0.103
0.13
0.05

0.01

0.03

0.07

0.11

0.15

0.19

Figura 5.29: Diagrama de Nyquist para el ejemplo 5.13

En esa figura se han destacado los puntos en los que el Diagrama de Nyquist
cruza el eje real (1/60 y 1/6). El n
umero de polos que G(s)H(s) tiene en el
semiplano derecho es cero, de acuerdo con (5.45). De esta forma, el criterio de
Nyquist, ecuaci
on (5.44), establece que:
N
umero de polos del
sistema realimenta0=
0
(5.46)
do en el semiplano
derecho
y por lo tanto el sistema realimentado es estable para K = 1. Ademas, en el
diagrama de Nyquist se observa que este se puede amplificar hasta 60 veces sin que
cambie el n
umero de veces que encierra al punto (1, 0), lo que significa que para
0 < k < 60 el sistema sigue siendo estable. Si se amplifica por un valor superior
a 60 el punto (1, 0) resulta encerrado dos veces por el diagrama, y por lo tanto
el sistema realimentado tendra dos polos en el semiplano derecho, es decir, sera
inestable.
Evaluamos ahora la estabilidad para valores negativos de K Remitiendonos nuevamente a la figura 5.29, observamos que podemos amplificar 6 veces el diagrama
sin que cambie el n
umero de veces que encierra al punto (1, 0), lo que significa que
para 6 > K > 0 el sistema sigue siendo estable. Si se amplifica por un valor mayor
a 6 el punto (1, 0) resulta encerrado una vez por el diagrama, y por lo tanto el sistema realimentado tendra un polo en el semiplano derecho, es decir, sera inestable.
En resumen, el sistema sera estable para K (6, 60).
121

OSCAR G. DUARTE

5.3.

Estabilidad y criterios de estabilidad en sistemas discretos

Por razones an
alogas a las expresedas en la secci
on 5.2, la estabilidad de
sistemas din
amicos lineales discretos tambien est
a determinada por la ubicaci
on
de sus polos. La condici
on de estabilidad consiste en que estos deben estar
ubicados en el interior del crculo unitario.
Debido a que esta condici
on es diferente a la que existe para los sistemas
continuos, las herramientas presentadas en la secci
on 5.2 no pueden emplearse
directamente, sino que es necesario efectuar alg
un tipo de adecuaci
on. Existen
en general tres estrategias:
Adecuar el sistema discreto para que parezca un sistema continuo. Este es
el caso de la transformaci
on bilineal que se explica en la secci
on 5.3.1.
Dise
nar estrategias especficas para sistemas discretos. El criterio de Jury
que se presenta en la secci
on 5.3.2 corresponde a este caso.
Adecuar las estrategias de an
alisis para que funcionen con sistemas discretos. Las secciones 5.3.3, 5.3.4 y 5.3.5 explican como adecuar las estrategias
de root-locus, Bode y Nyquist, respectivamente (ver secci
on5.2), para aplicarlas en el caso discreto.

5.3.1.

Transformaci
on bilineal

La transformaci
on

z+1
(5.47)
z1
Se conoce como la transformaci
on bilineal, ya que al despejar r en (5.47)
resulta una expresi
on similar:
r+1
z=
(5.48)
r1
La transformaci
on bilineal tiene la propiedad de transformar la circunferencia
unitaria en el eje imaginario. Para demostrarlo, supongamos un valor de z que
est
a en la circunferencia unitaria, es decir z = cos + j sin para alg
un valor
de . Al aplicar (5.47) observamos que z se transforma en
r=

r=

cos + j sin + 1
cos + j sin 1

que puede escribirse como


r=

1 + cos + j sin
(1 + cos + j sin ) (1 + cos j sin )
=
1 + cos + j sin
(1 + cos + j sin ) (1 + cos j sin )

Al efectuar las operaciones se obtiene que r es un imaginario puro:


r=

sin
j2 sin
=j
2 2 cos
cos 1
122

(5.49)

5.3. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS DISCRETOS

z
1 + j0
0.707 + j0.707
0 + j1
0.707 + j0.707
1 + j0
0.707 j0.707
0 j1
0.707 j0.707

r
indefinido
0 j2.4142
0 j1
0 j0.4142
0 + j0
0 + j0.4142
0 + j1
0 + j2.4142

Tabla 5.6: Transformaci


on bilineal de algunos puntos sobre la circunferencia unitaria

Plano z

Plano r

r=

z+1
z1

1


1
2

1


1
2

Figura 5.30: Transformaci


on Bilineal

La tabla 5.6 muestra c


omo se transforman algunos puntos sobre la circunferenca unitaria. Esta transformaci
on se visualiza en la figura 5.30.
Ejemplo 5.14 Sup
ongase que en el sistema de la figura 5.2 se tiene que
G(z) =

1
z + 0.3

H(z) =

1
z + 0.7

(5.50)

La funci
on de transferencia del sistema realimentado es
F (z) =

KG(z)
K(z + 0.7)
= 2
1 + KG(z)H(z)
z + z + (K + 0.21)

(5.51)

Al aplicar la transformaci
on bilineal a F (z) se obtiene



r+1
K
r1 + 0.7
K(r2 1.4r 0.3)
= 2
F (r) = 
2 

r (2.21 + K) + r(1.58 2K) + 0.21
r+1
+ r+1
r1
r1 + (K + 0.21)
123

OSCAR G. DUARTE

r2
r1
r0

(2.21 + K)
(1.58 2K)
(0.21 + K)

(0.21 + K)

Figura 5.31: Arreglo de Routh para el sistema transformado

Los valores de K que hacen que todas las races de F (z) esten dentro del crculo
unitario en el plano z son los mismos valores que hacen que todas las races de F (r)
esten en el semiplano izquierdo del plano r. Estos u
ltimos pueden determinarse por
medio del criterio de Routh Hurwitz. El arreglo correspondiente se muestra en la
figura 5.31 de donde se deduce que las condiciones para que el sistema del ejemplo
sea estable son:
2.21 + K > 0

1.58 2K > 0

0.21 + K > 0

(5.52)

O lo que es equivalente:
0.21 < K < 0.79

5.3.2.

(5.53)

Arreglo y criterio de Jury

El criterio de Jury 7 permite determinar cu


antas races tiene un polinomio en
el interior del crculo unitario. Cumple, para el caso discreto, un papel an
alogo
al que cumple el criterio de Routh-Hurwitz en el caso continuo.
Construcci
on del arreglo de Jury
Dado un polinomio p(z)
p(z) = an sn + an1 sn1 + + a2 s2 + a1 s1 + a0

(5.54)

en donde los coeficientes ai son reales y an es positivo, es posible construir el


Arreglo de Jury de p(z) a partir de los coeficientes ai que aparecen en (5.54).
Para ello, inicialmente se construye el arreglo que se muestra en la figura 5.32: la
primera lnea contiene los coeficientes de p(z) en orden, desde a0 hasta an , y en
la segunda lnea en orden inverso. En general, cada lnea par contiene los mismos
coeficientes que la lnea inmediatamente anterior pero en el orden inverso.
Los elementos de las lneas impares se construyen asi:

a
bk = 0
an



b
ank
c = 0
ak k bn1



c
bn1k
d = 0
bk k cn2


cn2k

ck

(5.55)

Es decir, el primer elemento de una fila impar se calcula como el determinate


de la matriz construida tomando de las dos lneas inmediatamente anteriores la
7 Existen

versiones diferentes del criterio de Jury a las presentadas en estas notas

124

5.3. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS DISCRETOS

Fila
1
2
3
4
5
6
..
.
2n 5
2n 4
2n 3

z0
a0
an
b0

z1
a1

z2
a2

bn1
c0
cn2
..
.

an1
b1
bn2
c1
cn3
..
.

an2
b2
bn3
c2
cn4
..
.

p0
p3
q0

p1
p2
q1

p2
p1
q2

z nk
ank
ak
bnk
bk1
cnk
ck2

z n2
an2
a2
bn2
b1
cn2
c0

z n1
an1
a1
bn1
b0

zn
an
a0

p3
p0

Figura 5.32: Arreglo de Jury. Primeras dos lneas

primera y la u
ltima columna; el segundo elemento de forma similar pero con la
primera y la pen
ultima columnas; el tercero con la primera y la antepen
ultima,
y asi sucesivamente. Dado que el u
ltimo elemento sera el determinante de la
matriz formada con dos columnas iguales (la primera dos veces), este valor ser
a
siempre cero, y por tanto no se escribe en el arreglo (se ha eliminado).
Ejemplo 5.15 Considerese el polinomio
p(z) = 1 + 2z + 3z 2 + 4z 3 + 5z 5

(5.56)

Las primeras dos lneas del arreglo de Jury para p(z) se muestran en la figura
5.33. S
olo es necesario construir 5 lneas, porque n = 4 y 2n 3 = 5.
La tercera lnea se construye asi:




1 5
1 4



= 18
b0 =
= 24
b1 =
5 1
5 2


1 3
= 12
b2 =
5 3



1 2
= 6
b3 =
5 4

El arreglo con las cuatro primeras lneas su muestra en la figura 5.34.La quinta
lnea se construye asi:




24 12
24 6

= 504

c
=
c0 =
1
6 18 = 360
6 24

Criterio de Jury



24 18
= 180
c2 =
6 12

El Criterio de Jury puede expresarse asi:


125

OSCAR G. DUARTE

Fila
1
2
3
4
5

z0
1
5
b0
b3
c0

z1
2
4
b1
b2
c1

z2
3
3
b2
b1
c2

z3
4
2
b3
b0

z4
5
1

Figura 5.33: Arreglo de Jury del ejemplo 5.15. Primeras dos lneas

Fila
1
2
3
4
5

z0
1
5
24
6
c0

z1
2
4
18
12
c1

z2
3
3
12
18
c2

z3
4
2
6
24

z4
5
1

Figura 5.34: Arreglo de Jury del ejemplo 5.15. Primeras cuatro lneas

Fila
1
2
3
4
5

z0
1
5
24
6
504

z1
2
4
18
12
360

z2
3
3
12
18
180

z3
4
2
6
24

z4
5
1

Figura 5.35: Arreglo de Jury del ejemplo 5.15. Arreglo completo

126

5.3. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS DISCRETOS

Criterio de Jury
Las condiciones necesarias y suficientes para que p(z) en (5.54) tenga
todas sus races en el interior del crculo unitario del plano z son:
p(1) > 0

|q0 |

>

>0
si n es par
< 0 si n es impar

an

|bn1 |

|cn2 | n 1 condiciones

|q2 |

p(1)
|a0 | <
|b0 | >
|c0 | >
..
.

(5.57a)
(5.57b)

(5.57c)

N
otese que este criterio se reduce a unas condiciones muy simples para el
caso de polinomios de segundo orden (n = 2):
p(1) > 0

(5.58a)

p(1) > 0

(5.58b)

|a0 | < a2

(5.58c)

Ejemplo 5.16 Sup


ongase el polinomio p(z) de la ecuaci
on (5.56) en el Ejemplo
5.15, cuyo arreglo de Jury se muestra en la figura 5.35. Las condiciones (5.57) se
convierten en:
p(1) = 1 + 2(1)1 + 3(1)2 + 4(1)3 + 5(1)4 = 15 > 0

(5.59a)

p(1) = 1 + 2(1)1 + 3(1)2 + 4(1)3 + 5(1)4 = 3 > 0

(5.59b)

1 = |a0 | <
a4 = 5
24 = |b0 | >
|b3 | = 6
504 = |c0 | > |c2 | = 180

(5.59c)

Por lo que p(z) tiene todas su races en el interior del crculo unitario. Efectivamente, las races de p(z) son:
r12 = 0.1378 i0.6782

r3,4 = 0.5378 i0.3583

|r12 | = 0.692 < 1

|r3,4 | = 0.646 < 1

Ejemplo 5.17 Sup


ongase ahora un sistema como el del ejemplo 5.14, es decir un
sistema realimentado como el de la figura 5.2 con
G(z) =

1
z + 0.3

H(z) =
127

1
z + 0.7

(5.60)

OSCAR G. DUARTE

La funci
on de transferencia del sistema realimentado es
F (z) =

K(z + 0.7)
KG(z)
= 2
1 + KG(z)H(z)
z + z + (K + 0.21)

(5.61)

Para que el denominador de F (z) tenga todas sus races en el crculo unitario,
y por tanto el sistema realimentado sea estable, se deben satisfacer (5.57); como
el denominador es de segundo orden, estas condiciones se convierten en las que
muestra (5.58), es decir:
p(1) = 1 + 1 + (0.21 + K) > 0

(5.62a)

p(1) = 1 1 + (0.21 + K) > 0

(5.62b)

|0.21 + K| = |a0 | < a2 = 1

(5.62c)

Estas condiciones se convierten en


K > 2.21

(5.63a)

K > 0.21

(5.63b)

1.21 < K < 0.79

(5.63c)

0.21 < K < 0.79

(5.64)

o lo que es equivalente:
que coincide con lo obtenido en (5.53)
Problemas en la construcci
on del arreglo de Jury
Es posible que algunos o todos los elementos de una fila en el arreglo de
Jury sean cero, en cuyo caso se considera que el arreglo ha terminado de forma
prematura. La soluci
on ha este inconveniente se considera fuera del alcance del
curso y por lo tanto se ha omitido en estas notasfootnotevease [22].

5.3.3.

Lugar geom
etrico de las races

El root-locus y el root-locus complementario muestran c


omo vara la ubicaci
on de los polos de la ecuaci
on (5.5) al variar K. Como la forma de (5.5) y la de
(5.6) son identicas, pueden emplearse estos diagramas en forma an
aloga a como
se emplean en el caso continuo para determinar la estabilidad de un sistema discreto realimentado como el de la figura 5.2: deben encontrarse las condiciones
para que todas las ramas del root-locus y el root-locus complementario esten en
el interior del crculo unitario.
Ejemplo 5.18 Tomemos el mismo sistema analizado en los ejemplos 5.14 y 5.17.
Se trata de un sistema realimentado como el de la figura 5.2 con
G(z) =

1
z + 0.3

H(z) =
128

1
z + 0.7

(5.65)

5.3. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS DISCRETOS

El root-locus y el root-locus complementario de G(z)H(z) se muestra en la figura


5.36. Se ha dibujado all tambien el crculo unitario, para facilitar la determinaci
on
de la estabilidad.

El root-locus cruza el circulo unitario en 0.5 j 1 0.52 = 0.5 j0.86,


Estos puntos corresponden a una ganancia Kc1 positiva tal que




1
= 0.79
Kc1 =
(5.66)
(0.5 + j0.86 + 0.3)(0.5 + j0.86 + 0.7)

El root-locus complementario cruza el crculo unitario en 1 y en 1.Estos puntos


corresponden a unas ganancias Kc2 y Kc3 negativa tales que




1
= 0.21
(5.67)
Kc2 =
(1 + 0.3)(1 + 0.7)
Kc3





1
= 2.21

=
(1 + 0.3)(1 + 0.7)

(5.68)

De las ecuaciones (5.66), (5.67) y (5.68) se desprenden las condiciones para que
el root-locus y el root locus complementario esten en el interior del crculo unitario:
Para el root-locus se necesita que K < 0.79 y para el root-locus complementario
que K > 0.21 y K > 2.21. Estas condiciones se pueden resumir en una s
ola
0.21 < K < 0.79

(5.69)

que coincide con las encontradas en (5.53) y (5.64)

5.3.4.

Diagramas y criterio de Bode

En la secci
on 5.2.3 se muestra c
omo pueden emplearse los Diagramas de
Bode para estudiar la estabilidad de sistemas realimentados contnus como los
de la figura 5.1. La figura 5.18 muestra la relaci
on entre el cruce por el eje real
de las ramas del root-locus y el root-locus complementario con los diagramas de
bode de G(s)H(s).
Para estudiar la estabilidad de los sistemas discretos ya no es importante el
cruce por el eje imaginario, sino el cruce por la circunferencia unitaria. Por esta
raz
on, los diagramas de |G(j)H(j)| y arg G(j)H(j) ya no son u
tiles.
Dicho de otra forma, ya no es interesante recorrer el eje imaginario j, sino la
circunferencia unitaria. Esta u
ltima se puede recorrer con la funci
on ej , variando entre 0 y 2. En efecto, podemos emplear la F
ormula de Euler para escribir
ej = cos + j sin

(5.70)

La ecuaci
on (5.70) muestra que ej es un n
umero complejo de magnitud 1
y a
ngulo , por lo tanto, si vara entre 0 y 2 se recorre la circunferencia
unitaria.
129

OSCAR G. DUARTE

Im(z)
1.5
1.0
0.5

1.5 1.0 0.5

Re(z)
0.5

1.0

1.5

0.5
1.0
1.5

Figura 5.36: root-locus (en rojo) y root-locus complementario (en azul) para el
ejemplo 5.18

Al igual que en el caso continuo, podemos argumentar la simetra del rootlocus para recorrer unicamente la mitad de la circunferencia, es decir, tomar
0 .
En resumen, podemos trazar los diagramas de magnitud y a
ngulo para
G(ej )H(ej ) con 0 , o lo que es igual, para G(jf )H(jf ) con 0 < f < 21 .
Estos son los diagramas de bode para sistemas discretos y emplean las mismas
escalas que los diagramas de bode para sistemas continuos.
La relaci
on que existe entre los diagramas de root-locus y root-locus complementario, por una parte, y los diagramas de bode, por otra, para sistemas
discretos se muestra en la figura 5.37. De esta forma, la determinaci
on de la estabilidad de sistemas realimentados discretos es completamente an
aloga al caso
continuo, y se ilustra con el ejemplo 5.19
Ejemplo 5.19 Retomemos el mismo sistema analizado en los ejemplos 5.14, 5.17
y 5.18. Se trata de un sistema realimentado como el de la figura 5.2 con
G(z) =

1
z + 0.3

H(z) =

1
z + 0.7

(5.71)

Los diagramas de bode de G(z)H(z) se muestran en la figura 5.38 (N


otese que
f vara de 0 a 21 ).
Se observa que el angulo de G(ej )H(ej ) es 180o para una frecuencia de
0.3338Hz, es decir para = 20.3338 = 2.094rad/s. En esa frecuencia el valor
130

5.3. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS DISCRETOS

Diagrama de Bode de magnitud


ej

root-locus: K > 0 K < 0


ej

1
|Kc |

ej

0o
ej

180o
Diagrama de Bode de fase
Figura 5.37: Relaci
on entre el root-locus y los diagramas de Bode para el caso
discreto

de la magnitud de G(ej )H(ej ) es de 2.04db, lo que significa que la magnitud de


K, en decibeles, para la cual una rama del Root-Locus atraviesa la circunferencia
unitaria es tal que |Kc11|en db = 2.04, lo que equivale a:
|Kc1 |en db
1
= 10 20
|Kc1 |

|Kc1 | = 10

2.04
20

|Kc1 | = 10
= 0.79

|Kc1 |en db
20

Kc1 = 0.79

(5.72)

Para estudiar los cruces por la circunferencia unitaria de ramas del root-locus
complementario, observamos que el diagrama de fase es asint
otico a 0 o , es decir
j
j
o
que para = 0 el angulo de G(e )H(e ) es 0 . Tambien se observa que para
una frecuencia de 12 Hz, es decir = el angulo es de 360o, que es igual a 0o .
Lo anterior significa que dos ramas del root locus complementario cruzan la
circunferencia unitaria en Kc2 y Kc3 que se pueden calcular como:
|Kc2 | = 10
|Kc3 | = 10

6.89
20

13.555
20

= 2.21

Kc2 = 2.21

(5.73)

= 0.21

Kc3 = 0.21

(5.74)

Los resultados de las ecuaciones (5.72) a (5.74) son coherentes con los obtenidos
en (5.53), (5.64) y (5.69).

131

OSCAR G. DUARTE

Magnitude

db

17
13.555db 13

9
5
2.04db

1
3
Hz

6.89db 7 .

10

10

10

10
0.3338Hz

Phase

degrees

0
40
80
120
160
180o
200
240
280
320
.
3

360
10

Hz
2

10

10

Figura 5.38: Diagramas de Bode para el ejemplo 5.19

132

10

5.3. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS DISCRETOS

Figura 5.39: Trayectoria de Nyquist para el caso discreto general

5.3.5.

Diagrama y criterio de Nyquist

El criterio de Nyquist para sistemas realimentados continuos de la ecuaci


on
(5.44) se construye empleando las trayectorias de Nyquist que se muestran en las
figuras 5.26 y 5.27. Estas trayectorias han sido dise
nadas en forma tal que encierran todo el semiplano derecho y asi poder emplear el principio del argumento
(ecuaci
on (5.40)) en forma conveniente.
Para sistemas discretos realimentados como los de la figura 5.2 es necesario
modificar la trayectoria de Nyquist para que encierre toda la porci
on del plano
complejo que est
a por fuera del crculo unitario. La trayectoria seleccionada se
muestra en la figura 5.39; en caso de que G(z)H(z) tenga polos exactamente
sobre la circunferencia unitaria, es necesario modificar la trayectoria como se
muestra en la figura 5.40. Denominaremos al diagrama obtenido con estas trayectorias Diagrama de Nyquist para sistemas discretos, o simplemente Diagrama
de Nyquist discreto.
En estas condiciones, el Criterio de Nyquist para sistemas discretos puede
enunciarse asi:
133

OSCAR G. DUARTE

Figura 5.40: Trayectoria de Nyquist para el caso discreto con polos en la


circunferencia unitaria

Criterio de Nyquist para sistemas discretos


El n
umero de polos por fuera del crculo unitario que tiene un sistema discreto realimentado como el de la figura 5.2 , con K = 1 puede
determinarse a partir de la ecuaci
on
N
umero de veces
umero de polos
que el diagrama de N
N
umero de polos de
del
sistema realiNyquist discreto de =
G(z)H(z) por fuera (5.75)
G(z)H(z) encierra mentado por fuera del crculo unitario
del crculo unitario
al punto (1, 0)
Para que el sistema realimentado sea estable debe tener cero polos por
fuera del crculo unitario.
Ejemplo 5.20 Retomemos el mismo sistema analizado en los ejemplos 5.14, 5.17,
5.18 y 5.19. Se trata de un sistema realimentado como el de la figura 5.2 con
G(z) =

1
z + 0.3

H(z) =

1
z + 0.7

(5.76)

El diagrama de Nyquist de G(z)H(z) se muestra en la figura 5.41; puede observarse que el diagrama de Nyquist encierra una vez el punto (1, 0). Ademas,
G(z)H(z) tiene cero polos por fuera del crculo unitario. Seg
un (5.75) se tiene que
134

5.3. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS DISCRETOS

N
umero de polos del
sistema realimenta1=
0
(5.77)
do por fuera del
crculo unitario
y por lo tanto el sistema realimentado con K = 1 es inestable. Sin embargo el
n
umero de veces que se encierra el punto (1, 0) puede ser 0 si el diagrama se
amplifica por un valor positivo menor que 0.79. En estas condiciones el sistema
realimentado sera estable. Por lo tanto, para que el sistema realimentado sea estable
con valores positivos de K, se necesita que 0 < K < 0.79
Para estudiar los valores negativos de K que haran que el sistema fuera estable,
podramos trazar el diagrama de Nyquist de G(z)H(z); sin embargo esto no es
necesario, ya que ese diagrama s
olo puede diferir del de G(z)H(z) en una rotaci
on
de 180o , por lo tanto es suficiente con averiguar que tantas veces se encierra el
punto (1, 0).
En la figura 5.41 se observa que el n
umero de veces que el diagrama de Nyquist
puede encerrar al punto (1, 0) es 0, 1 o 2 en las siguientes condiciones:
Si se amplifica por una cantidad menor que 0.21 lo encierra 0 veces.
Si se amplifica por una cantidad mayor que 0.21 y menor que 2.21 lo encierra
1 vez.
Si se amplifica por una cantidad mayor que 2.21 lo encierra 2 veces.
Por lo tanto, para que el sistema realimentado sea estable con valores negativos
de K, se necesita que 0.21 < K < 0
Al combinar los resultados obtenidos para valores positivos y negativos de K se
tiene que
0.21 < K < 0.79
(5.78)
que coincide con (5.53), (5.64), (5.69) y (5.72).

135

OSCAR G. DUARTE

Nyquist plot
Im(h(exp(2i*pi*f*dt)))
4
0.451

0.466

3
0.479
2

0.4

1
0.135
0.5

1
2.21

1
0.79

0.388

1
0.21
0.488

2
0.425

0.476

0.447

Re(h(exp(
2i*pi*f*dt)))

0.463

4
2

Figura 5.41: Diagrama de Nyquist para el ejemplo 5.20

136

Captulo 6
Representacion en variables de
estado

6.1.

Introducci
on

En los captulos anteriores se han presentado distintas estrategias para modelar el comportamiento de sistemas din
amicos continuos y discretos, entre ellas:
Ecuaciones diferenciales o de diferencia
Funciones de transferencia
Respuestas al impulso
Diagramas de bloque
Diagramas de flujo de se
nal
En este captulo se estudia una nueva alternativa que emplea un conjunto
de variables denominadas variables de estado. Puede pensarse que estas son tan
s
olo variables matem
aticas auxiliares, aunque en ocasiones tienen un sentido
fsico. Algunas de las ventajas que se obtienen con esta nueva representaci
on
son las siguientes:
La representaci
on de sistemas de m
ultiples entradas y m
ultiples salidas es
m
as sencilla.
Toda la din
amica del sistema se representa por ecuaciones diferenciales o
de diferencia de primer orden.
137

OSCAR G. DUARTE

u1 (t)
u2 (t)
up (t)

..
.

Sistema
Din
amico

y1 (t)
y2 (t)
..
.

yq (t)

Figura 6.1: Sistema Continuo de m


ultiples entradas y m
ultiples salidas

u1 (k)
u2 (k)
up (k)

..
.

Sistema
Din
amico

y1 (k)
y2 (k)
..
.

yq (k)

Figura 6.2: Sistema Discreto de m


ultiples entradas y m
ultiples salidas

Permite el desarrollo de metodos computacionales m


as eficientes para la
simulaci
on de sistemas din
amicos.
Brinda una nueva perspectiva sobre la din
amica de los sistemas.
Algunas de las tecnicas de control moderno (como el control robusto) se
basan en este tipo de representaci
on.
Vale la pena aclarar que si bien las ecuaciones que se emplean son de primer
orden, estas operan sobre vectores. Refiriendonos a las figuras 6.1 y 6.2, si se
trata de un sistema continuo ser
an:
x(t)

=f (x(t), u(t), t)
y(t) =g(x(t), u(t), t)

(6.1)

y si se trata de un sistema discreto ser


an:
x(k + 1) =f (x(k), u(k), k )
y(k) =g(x(k), u(k), k )

(6.2)

En las ecuaciones (6.1) y (6.2) u es un vector que contiene cada una de las
p entradas al sistema, y es un vector que contiene cada una de las q salidas del
sistema, x es un vector que contiene cada una de las n variables de estado del
138


6.1. INTRODUCCION

sistema, es decir:

u1
u2

u= .
..

up

p1


y1
y2

y=.
..
yq

x1
x2

x= .
..

q1

xn

(6.3)
n1

Las ecuaciones vectoriales (6.1) y (6.2) son en realidad un conjunto de ecuaciones. Por ejemplo, las ecuaciones (6.1) corresponden a algo de la forma:

x 1 (t) = f1 (t) (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , up (t), t)

x 2 (t) = f2 (t) (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , up (t), t)


..

x n (t) = fn (t) (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , up (t), t)

y 1 (t) = g1 (t) (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , up (t), t)

y 1 (t) = g2 (t) (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , up (t), t)


..

y q (t) = gq (t) (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , up (t), t)


En general, estudiaremos sistemas din
amicos lineales invariantes en el tiempo, de m
ultiples entradas y m
ultiples salidas. Si el sistema es continuo, como el
de la figura 6.1 su modelo corresponder
a a las ecuaciones Matriciales
x(t)

= Ax(t) + Bu(t)
y(t) = Cx(t) + Du(t)

(6.4)

Si el sistema es discreto, como el de la figura 6.2 su modelo corresponder


aa
las ecuaciones matriciales
x(k + 1) = Ax(k) + Bu(k)
y(k) = Cx(k) + Du(k)

(6.5)

En las ecuaciones (6.4) y (6.5) A, B, C y D son matrices de tama


no adecuado:
x(t)
n1 = Ann x(t)n1 + Bnp u(t)p1
y(t)q1 = Cqn x(t)n1 + Dqp u(t)p1
x(k + 1)n1 = Ann x(k)n1 + Bnp u(k)p1
y(k)q1 = Cqn x(k)n1 + Dqp u(k)p1

(6.6)

(6.7)

Para encontrar la soluci


on de las ecuaciones (6.4) y (6.5) y efectuar su an
alisis, pero sobre todo para buscarle un significado a las variables de estado, se

emplean algunos conceptos de Algebra


Lineal. Con el prop
osito de recordar esos
conceptos, se presenta en la secci
on 6.2 los resultados necesarios m
as importantes. Una presentaci
on formal de estos se encuentra en el apendice D, de donde
se han extraido algunos apartes y ejemplos.
139

OSCAR G. DUARTE

6.2.
6.2.1.

Algunos resultados de
algebra lineal
Espacios vectoriales

Sea un conjunto y F : (, , ) un campo (usualmente F se trata de R o


C con las operaciones usuales de suma y multiplicaci
on). A los elementos de
se les denomina Vectores, y a los elementos de Escalares. tiene estructura
de Espacio Vectorial sobre F si est
a dotado de una operaci
on binaria + (suma
vectorial) y una operaci
on entre elementos de y (Producto por escalar)
que cumplen las siguientes propiedades:
Para la suma vectorial
V.1 Clausurativa: x, y x + y
V.2 Asociativa: x, y, z (x + y) + z = x + (y + z)
V.3 Modulativa: 0 | x x + 0 = x
V.4 Invertiva: x (x) | x + (x) = 0
V.5 Conmutativa: x, y x + y = y + x
Para el producto por escalar
V.6 Clausurativa: x , x
V.7 Asociativa: x , , ( ) x = ( x)
V.8 Modulativa: x , 1 x = x. 1 es el m
odulo de
V.9 Anulativa: x , 0x = 0. Donde 0 es el m
odulo de , y 0 es el m
odulo
de +
Para las dos operaciones
V.10 Distributiva respecto a +: x, y , (x+y) = (x)+(y)
V.11 Distributiva respecto a : x , , ()x = (x)+(x)
Ejemplo 6.1 Uno de los espacios vectoriales mas conocidos, y que servira para
futuros ejemplos en este captulo es el formado por R 2 sobre el campo R con las
operaciones usuales. En general, Cn sobre el campo C con las operaciones usuales
forma un espacio vectorial.
Ejemplo 6.2 El conjunto de todos los polinomios sobre el campo R con las operaciones usuales entre polinomios forma un espacio vectorial.
Ejemplo 6.3 El conjunto de todas las funciones continuas a trozos sobre el campo
C con la operaci
on + definida como la suma punto a punto forma un espacio
vectorial.
140


6.2. ALGUNOS RESULTADOS DE ALGEBRA
LINEAL

Ejemplo 6.4 El conjunto de todas las matrices de tama


no fijo mn sobre el campo
C con las operaciones usuales entre matrices forma un espacio vectorial.
Los siguientes son algunos conceptos asociados a los espacios vectoriales:
Subespacio: Es un espacio vectorial contenido dentro de otro espacio vectorial,
por ejemplo una recta que cruce por el origen dentro del plano.
Combinaci
on lineal: Es una expresi
on de la forma
1 x1 + 2 x2 + + n xn =

n
X

i xi

i=1

en donde los i son escalares y los xi son vectores


Independencia lineal: Un conjunto de vectores es lineamente independiente
si la u
nica combinaci
on lineal de ellos cuyo resultado es 0 es la que tiene
todos los coeficientes iguales a 0.
Conjunto generado: Es el conjunto de todas las posibles combinaciones lineales de los vectores de un cierto conjunto, al que se denomina conjunto
generador.
Dimensi
on: Es el m
aximo n
umero de vectores linealmente independientes que
puede haber en un espacio vectorial.
Base: Es cualquier conjunto de vectores linealmente independiente que adem
as
genera el espacio vectorial. En R2 la base est
andar est
a formada por los
vectores (1, 0) y (0, 1)
Coordenadas de un vector: Un vector x de un espacio vectorial puede escribirse como una u
nica combinaci
on lineal de su base B = {b1 , b2 , , bn }:
x = 1 b1 + 2 b2 + + n bn
Los coeficientes i de esa combinaci
on lineal son las coordenadas de x en
la base B.
Cambios de base: Un mismo vector tendr
a diferentes coordenadas en dos bases diferentes. Sean A = {a1 , a2 , , an } y B = {b1 , b2 , , bn } dos bases
del mismo espacio vectorial V de dimensi
on n. Definimos las matrices A y
B como las matrices que tienen en sus columnas cada uno de los elementos
de las bases A y B respectivamente:


A = a1 a2 an

B = b1

b2

141

bn

OSCAR G. DUARTE

Un vector x tendra coordenadas i en la base A y i en la base B. Definimos los vectores columna y que contienen las coordenadas:


1
1
2
2


= .
= .
..
..
n

Las expresiones que permiten encontrar las coordenadas de x en una base


a partir de sus coordenadas en la otra son las siguientes:
A = B

= A1 B

= B1 A

(6.8)

En caso de que A sea la base est


andar, la matriz A resulta ser la matriz
identidad de orden n y (6.8) se convierte en
= B

= B1

(6.9)

Transformaciones lineales: Dado un espacio vectorial V de dimensi


on n,
entenderemos por transformaci
on lineal, en el contexto de este captulo,
una funci
on V V que puede representarse por una matriz cuadrada A
de dimensi
on n n:
y = Ax
En otras palabras, una transformaci
on lineal toma un vector x V y
produce un vector y V mediante la operaci
on y = Ax.
Transformaciones y cambios de base: Sea T una transformaci
on lineal, que
en la base est
andar se representa por la matriz T . La misma transformaci
on se representar
a en otra base B = {b1 , b2 , , bn } por
T = B1 T B

(6.10)

en donde B = [b1 b2 bn ]
Ejemplo 6.5 La funci
on T : R2 R2 consistente en la rotaci
on de vectores 90o
en sentido horario es una transformaci
on lineal representada por la matriz A:


0 1
A=
1 0
Un vector x de coordenadas (a, b) se convertira en un vector y cuyas coordenadas
se calculan asi:

   
0 1 a
b
y = Ax =
=
1 0 b
a
142


6.2. ALGUNOS RESULTADOS DE ALGEBRA
LINEAL

1 =1

1 =1

2 =3

2 =-2

2 =2
1 =-1
: vector x

: base

Figura 6.3: Cambio de base de un Vector

Ejemplo 6.6 En R2 puede definirse una base con cualquier pareja de vectores no
paralelos. Definamos por ejemplo A = {(1, 0), (0, 1)}, B = {(3, 1), (2, 2)} y C =
{(1, 1)(1, 1)} (vectores rojos en la figura 6.3).
Consideremos ahora el vector x en la figura 6.3. Sus coordenadas en la base
estandar A seran
   

1
= 1 =
3
2
Para obtener las coordenadas de x en las bases B y C construimos las matrices
B y C y empleamos (6.9)




3 2
1 1
B=
C=
1 2
1 1


   
1/2 1/2 1
1
1
1
=B =
=
=
1/4 3/4
3
2
2
 

   

1/2 1/2
1
1
= 1 = C1 =
=
2
1/2 1/2 3
2


Puede verificarse que las coordenadas en las bases B y C satisfacen las relaciones
(6.8)
= B1 C
= C1 B
Ejemplo 6.7 En el ejemplo 6.5 se mostr
o que la rotaci
on de 90 o en sentido horario
estaba representada en la base estandar por la matriz


0 1
T =
1 0
La misma transformaci
on se representara en la base B = {(3, 1), (2, 2)} por la
matriz
T = B1 T B
143

OSCAR G. DUARTE

T =



 

1/2 1/2
0 1 3 2
2
2
=
1/4 3/4
1 0 1 2
2.5 2

Sup
ongase ahora el vector x, cuyas coordenadas en la base estandar son x =
(1, 3) y en la base B son x = (1, 2) (ejemplo 6.6). Al efectuar la rotaci
on de 90 o
en sentido horario se obtendra un vector y cuyas coordenadas en la base estandar
seran y y en la base B seran y :

y =

6.2.2.

0 1
1 0

   
1
3
=
3
1

y =

  

2
2
1
2
=
2.5 2
2
1.5

Valores y vectores propios

Sea A una transformaci


on lineal Rn Rn . Un escalar es un valor propio
o valor caracterstico de A si existe un vector no nulo v tal que Av = v.
Cualquier vector no nulo v que satizfaga
Av = v

(6.11)

es un vector propio asociado con el valor propio 1 .


La relaci
on (6.11) implica que para un vector propio v el efecto de aplicarle
la transformaci
on lineal A es igual que amplificarlo por el escalar . Esto implica
que un vector y el vector transformado son colineales o paralelos y por lo tanto
linealmente dependientes.
Para calcular los valores propios de una matriz A puede reescribirse la ecuaci
on (6.11) como
Av v = 0
(A I)v = 0
En donde I es la matriz identidad de igual orden que A, es decir n n. Para
que exista una vector v 6= 0 tal que (A I)v = 0 debe cumplirse que
det(I A) = 0

(6.12)

El lado izquierdo de la ecuaci


on (6.12) corresponde a un polinomio de orden
n en la variable conocido como el polinomio caracterstico de A y denotado
por ().
Dicho de otra forma, los valores propios de A son las raices de su polinomio
caracterstico (). Por tanto, la matriz A tiene n valores propios 1 , 2 , , n ;
estos valores podr
an ser reales o complejos y podr
an ser diferentes o repetidos.
1 La definici
on (6.11) se refiere estrictamente a valores y vectores propios por derecha, para
distinguirlos de los valores y vectores propios por izquierda, que deben satisfacer v t A = vt .
En este texto s
olo se consideran los primeros, y por tanto se hace referencia a ellos simplemente
como valores y vectores propios.

144


6.2. ALGUNOS RESULTADOS DE ALGEBRA
LINEAL

Ejemplo 6.8 Obtener los valores y vectores propios de la matriz




4 1
A=
2 1
Construimos la matriz B = (I A) y hallamos su determinante:

 
 

1 0
4 1
( 4)
1
B = (I A) =

=
0 1
2 1
2
( 1)

() = det(B) = ( 4)( 1) + 2 = 2 5 + 6 = ( 2)( 3)

Los valores propios de A seran las races de ()


1 = 2

2 = 3

Los vectores propios asociados a 1 = 2 deben cumplir (6.11):

4 1
2 1



v11
v21

Av1 = 1 v1

 

 
2v11
4v11 + v21
v
=
= 2 11
2v21
2v11 + v21
v21

Se crea entonces un sistema de ecuaciones con infinitas soluciones:



4v11 + v21 = 2v11
2v11 + v21 = 2v21

Para obtener un vector propio asociado a 1 = 2 podemos escoger arbitrariamente un valor para v11 o para v21 . Por ejemplo, si escogemos v11 = 1 obtenemos
v21 = 2. En consecuencia, un vector propio asociado a 1 = 2 sera
 


1
a
v1 =
en general v1 =
2
2a
Los vectores propios asociados a 2 = 3 tambien deben cumplir (6.11):

4 1
2 1



v12
v22

Av2 = 1 v2
 

 

v12
4v12 + v22
3v12
=3
=
v22
2v12 + v22
3v22

Se crea entonces un segundo sistema de ecuaciones con infinitas soluciones:



4v12 + v22 = 3v12
2v12 + v22 = 3v22
Para obtener un vector propio asociado a 2 = 3 podemos escoger arbitrariamente un valor para v12 o para v22 . Por ejemplo, si escogemos v12 = 1 obtenemos
v22 = 1. En consecuencia, un vector propio asociado a 2 = 3 sera
 
 
1
a
v2 =
en general v2 =
1
a
145

OSCAR G. DUARTE

Ejemplo 6.9 Obtener los valores y vectores propios de la matriz




2 1
A=
1 2
Construimos la matriz B = (I A) y hallamos su determinante:

 
 

( 2)
1
2 1
1 0
=

B = (I A) =
1
( 2)
1 2
0 1
() = det(B) = ( 2)2 + 1 = 2 4 + 5

Los valores propios de A seran las races de ()


1,2 = 2 j
Al aplicar (6.11) para 1 y 2 se obtienen dos sistemas de ecuaciones con infinitas
soluciones


2v12 + v22 = (2 j)v12
2v11 + v21 = (2 + j)v11
v12 + 2v22 = (2 j)v22
v11 + 2v21 = (2 + j)v21

Seleccionando arbitrariamente v11 = 1 y v12 = 1 se obtiene


 
 
1
1
v2 =
v1 =
j
j
o en general

6.2.3.

 
a
v1 =
ja

a
v2 =
ja

Forma can
onica de Jordan

Matrices con valores propios diferentes


Sean 1 , 2 , , n los n valores propios de una matriz A de orden n n,
todos diferentes, y sea vi un vector propio asociado a i con i = 1, 2, , n.
El conjunto V = {v1 , v2 , , vn } es linealmente independiente, y por lo tanto
sirve como una base para el espacio vectorial.
Si se efectua un cambio de base a la nueva base V , la matriz A se transforma
en la matriz de acuerdo con (6.10):
= M1 AM

(6.13)

La matriz es la matriz diagonalizada, o la forma can


onica de Jordan de
A, y se define asi:

1 0 0
0 2 0

= .
..
.. . .
..
. .
.
0
0 n
146


6.2. ALGUNOS RESULTADOS DE ALGEBRA
LINEAL

La matriz M se denomina la matriz modal, y se define asi:




M = v1 v2 v n

Esta afirmaci
on puede demostrarse facilmente al comprobar que M = AM:

1 0 0




0 2 0 
M = v1 v2 vn .
= 1 v 1 2 v 2 n v n
.
.
.
..
. . ..
..

0
0 n

AM = A v1

v2

 
vn = Av1

Av2

Avn

Como Avi = i vi entonces las ecuaciones anteriores se reducen a M =


AM o lo que es igual
= M1 AM
Ejemplo 6.10 La transformaci
on lineal representada por la matriz


4 1
A=
2 1
cuyos valores propios son (Ejemplo 6.8) 1 = 2, 2 = 3 con vectores propios v1 ,
v2 :
 
 
1
1
v1 =
v2 =
2
1
Tiene una representaci
on en la base {v1 v2 } dada por la matriz diagonal
= M1 AM =



 
 
1 1
4 1
1
1
2 0

=
= 1
2
1
2 1 2 1
0 3
0

0
2

Ejemplo 6.11 La transformaci


on lineal representada por la matriz


2 1
A=
1 2
cuyos valores propios son (Ejemplo 6.9) 1,2 = 2 j con vectores propios v1 , v2 :
 
 
1
1
v1 =
v2 =
j
j
Tiene una representaci
on en la base {v1 v2 } dada por la matriz diagonal
= M1 AM


 
j/2 j/2
2 1 1 1
2+j
=
=
j/2 j/2
1 2 j j
0


147

 
0

= 1
2j
0

0
2

OSCAR G. DUARTE

Matrices con valores propios repetidos


Al intentar efectuar la diagonalizaci
on de una matriz A que tenga valores
propios repetidos puede encontrarse un tropiezo debido a que los vectores propios
no necesariamente son linealmente independientes; de hecho, lo usual es que no
lo sean aunque existen casos en que lo son.
Al no contar con un n
umero suficiente de vectores propios linealmente independientes no es posible construir una base que diagonalice la matriz. No ser
a
posible obtener M1 y no se podr
a calcular = M1 AM. Pese a ello, siempre
se podr
a obtener una diagonalizaci
on por bloques.
Dada una transformaci
on lineal A de orden n n, de valores propios 1 , 2 ,
, n , se define la degeneracidad del valor propio i , denotada por di , como el
n
umero de vectores propios de linealmente independientes asociados a un valor
propio i , y se calcula asi:
di = n (i I A)
en donde (X) es el rango de la matriz X, que equivale al n
umero de columnas
(o filas) linealmente independientes de X
Ejemplo 6.12 Obtener los valores y vectores propios de la matriz A y diagonalizarla


1 2
A=
2 5
Construimos la matriz B = (I A) y hallamos su determinante:

 
 

( 1)
2
1 2
1 0
=

B = (I A) =
2
( 5)
2 5
0 1
() = det(B) = ( 1)( 5) + 4 = 2 6 + 9 = ( 3)2
Los valores propios de A seran las races de ()
1 = 2 = = 3
La degeneracidad de = 3 se obtiene asi:

d1 = 2



d1 = 2 (3I A)



3 1 2
2 2
=2
=21=1
2
35
2 2

Lo anterior significa que aunque tiene multiplicidad 2, s


olo es posible encontrar
un vector linealmente independiente. Este se obtiene empleando (6.11), y resulta
ser
 
 
1
a
v1 =
en general v1 =
1
a

No es posible construir una base para el espacio de dimensi


on 2 con un s
olo
vector, por lo tanto no es posible diagonalizar A
148


6.2. ALGUNOS RESULTADOS DE ALGEBRA
LINEAL

Ejemplo 6.13 Obtener los valores y vectores propios de la matriz A y diagonalizarla

3 0 1
A = 1 2 1
1 0 3

Construimos (I A):

( 3)
I A = 1
1

0
( 2)
0

Su polinomio caracterstico resulta ser

1
1
( 3)

() = ( 3)2 ( 2) ( 2) = 3 82 + 20 16
Las races del polinomio son 1 = 2 = 2, 3 = 4. Para determinar la degeneracidad
de 1 calculamos 1 I A

1 0 1
(2 3)
0
1
(2 2)
1 = 1 0 1
I A = 1
1 0 1
1
0
(2 3)
d1 = n (I A)

d1 = 3 1 = 2

Lo anterior significa que existen dos vectores propios linealmente independientes


asociados a 1 = 2 = 2. Estos dos vectores junto con el vector propio asociado a
3 = 4 pueden formar una base y por tanto es posible diagonalizar A. Para obtener
los tres vectores propios empleamos (6.11):

d
d
3 0 1
a
3 0 1 a
1 2 1 e = 4 e
1 2 1 b = 2 b
f
f
1 0 3
c
c
1 0 3
Se originan los sistemas de ecuaciones

3a c = 2a
a + 2b c = 2b

a + 3c = 2c

3d f = 4a
d + 2e f = 4e

d + 3f = 4f

Que se convierten en

a=c

d = e = f

Podemos construir dos vectores linealmente independientes v 1 , v2 que satisfacen


a = c y un tercero v3 que satisface d = e = f , por ejemplo



1
1
1
v3 = 1
v2 = 1
v1 = 0
1
1
1
149

OSCAR G. DUARTE

En la base {v1 v2 v3 } la transformaci


on A se representa por :

3 0 1 1 1 1
1
1
0
= M1 AM = 1/2 1
1/2 1 2 1 0 1 1
1 1 1
1/2
0 1/2 1 0 3

1
2 0 0
= M1 AM = 0 2 0 = 0
0
0 0 4

0
2
0

0
0
3

Cuando no se puede encontrar un conjunto de vectores propios linealmente independiente lo suficientemente grande para diagonalizar la matriz, debe
acudirse al concepto de vectores propios generalizados para lograr una diagonalizaci
on por bloques.
El concepto de vector propio generalizado, y la forma de calcularlos se sale
del a
mbito de este texto, aunque una presentaci
on detallada puede encontrarse
en el apendice D. No obstante, es posible determinar en forma sencilla cu
al es
la forma de la matriz diagonalizada por bloques, o forma can
onica de Jordan
de una matriz, seg
un se explica a continuaci
on.
En general, se representa la forma can
onica de Jordan de la matriz A por
J, y es de la forma

J1 0 0
0 J2 0

J= .
.. . .
..
..
.
.
.
0 0 J2

en donde cada termino Ji es una submatriz


la forma

j 1
0
0 j 1

..
.. . .
.
.
Ji =
.

0 0
0
0 0
0

cuadrada (un bloque de Jordan) de

0
0

..
. 1
j

Cada bloque de Jordan est


a asociado a un valor propio de la matriz A. Para
conocer la forma exacta de la matriz J es necesario responder estas preguntas:
Cu
antos bloques tiene asociados cada valor propio no repetido de la matriz A?
De que tama
no es cada uno de los bloques de Jordan asociados a cada
valor propio no repetido de la matriz A?
El siguiente algoritmo permite obtener las respuestas. Se plantea para un
valor propio , y deber
a aplicarse para cada valor propio diferente:
1. Se define la matriz B = A I.
150


6.2. ALGUNOS RESULTADOS DE ALGEBRA
LINEAL

2
1

Figura 6.4: Diagrama de Matthew vacio simple

2. Se calcula (B0 ), (B1 ), (B2 ), , (B)r hasta que no haya cambio al


incrementar el exponente.
3. Se calculan las nulidades 0 , 1 , 2 , , r , en donde i = n (Bi ).
4. Se calcula i = i i1 , para i = 1, 2, , r.
5. Se construye el diagrama de Matthew con la forma que se presenta en la
figura 6.4: el n
umero de celdas de cada fila del diagrama de Matthew est
a
determinado por i .
6. Utilizar las siguientes convenciones:
a)

Identificar el n
umero de columnas del diagrama como q.

b)

Identificar las columnas del diagrama como c1 , c2 , , cq de izquierda


a derecha.

c) Identificar el tama
no de cada columna como h1 , h2 , , hq .
7. En esas condiciones el n
umero de bloques de Jordan asociados al valor
propio es q, y el tama
no de cada uno de esos bloques es h1 , h2 , , hq .
En general, la forma can
onica de Jordan ser
a entonces:

J11
0

..
.

J=

0
J12
..
.
0

..
.

0
0
..
.

J1q1

0
..

151

Jm1
0
..
.

0
Jm2
..
.

..
.

0
0
..
.

Jmqm

OSCAR G. DUARTE

j
0

..
Jji =
.

0
0

1
j
..
.

0
1
..
.

0
0

0
0

Ejemplo 6.14 Sea A la matriz

3 1
1 1

0 0
A=
0 0

0 0
0 0

0
0

..
. 1
j h

ij hij

1
1
0
0
1 1 0
0

2
0
1
1

0
2 1 1

0
0
1
1
0
0
1
1

Para calcular los valores propios de A hacemos

det (A I) = [(3 )(1 ) + 1]( 2)2 [(1 )2 1] = ( 2)5 = 0


Es decir, A tiene un valor propio 2 de multiplicidad 5 y un valor propio 0 de
multiplicidad 1. Nos proponemos encontrar el diagrama de Matthew de los vectores
propios asociados a 1 = 2.
Para ello definimos B = (A 2I) y calculamos B0 , B1 , B2 , B3 , , sus rangos
y nulidades
B0 = I
(A 2I)0 = 6
0 = 6 6 = 0

1 1 1
1
0
0
1 1 1 1 0
0

0 0
(A 2I) = 4
0
0
1
1

B=

0
0
0
0
1
1
1 =64=2

0 0
0
0 1 1
0 0
0
0
1 1

0 0 2 2 0
0
0 0 2 2 0
0

0 0 0 0 0
0
(A 2I)2 = 2

B2 =
0 0 0 0 0

0
2 = 6 2 = 4

0 0 0 0 2 2
0 0 0 0 2 2

0 0 0 0 0
0
0 0 0 0 0
0

(A 2I)3 = 1
0 0 0 0 0
0
3

B =

3 = 6 1 = 5
0
0 0 0 0 0
0 0 0 0 4 4
0 0 0 0 4 4
2 adaptado

de [5, pp.: 43]

152


6.2. ALGUNOS RESULTADOS DE ALGEBRA
LINEAL

Al calcular B4 encontramos 4 = 3 y por tanto no es necesario continuar. Con


la informaci
on anterior podemos calcular i :
3
2
1

= 3 2
= 2 1
= 1 0

= 54= 1
= 42= 2
= 20= 2

Con esta informaci


on podemos construir el diagrama de Matthew

De donde se deduce que q = 2, h1 = 3 y h2 = 2; en otras palabras, el valor


propio 2 tendra 2 bloques de Jordan, uno de tama
no 3 3 y otro de tama
no 2 2.
Adicionalmente, el valor propio 0 tendra un u
nico bloque de Jordan de tama
no 11,
por ser un valor propio de multiplicidad 1. En consecuencia la forma can
onica de
Jordan de la matriz A sera

2 1 0
0 0
0
2 1 0 0 0 0

0 2 1
0 0
0 0 2 1 0 0 0

0 0 2
0 0
0
0 0 2 0 0 0

J = M AM =
=
0 0 0 2 1 0
0 0 0
2
1
0

0 0 0 0 2 0

0 0 0
0
2
0

0 0 0 0 0 0
0 0 0
0 0
0
Matrices con valores propios complejos
Dado que los valores propios de una matriz pueden ser complejos, en general
las matrices de Jordan y Modal, J y M, ser
an complejas.
No obstante, cuando existen valores propios complejos es posible efectuar
otro cambio de coordenadas diferente que produce tambien una matriz diagonal
por bloques, pero real, conocida como la forma can
onica real de Jordan.
La nueva matriz modal MR reemplaza cada pareja de vectores propios complejos conjugados de M por dos vectores reales, uno con la parte real y otro con
la parte imaginaria de los vectores reemplazados.
Para un valor propio complejo = a jb que no se repite, el bloque de
Jordan asociado tendr
a la forma


a b
Ji =
b a
Ejemplo 6.15 Sea la matriz A

0 0.5 0
A = 0 0 2
1 1 2

153

OSCAR G. DUARTE

Los valores propios de A son


1 = 1

2,3 = 0.5 j0.866

La forma can
onica de Jordan de A y la matriz modal que la producen son:

1
0
0

0
J = 0 0.5 + j0.866
0
0
0.5 j0.866

0.408 (0.015 j0.408) (0.015 + j0.408)


(0.721 + j0.382)
(0.721 j0.382)
M = 0.816
0.408
(0.346 j0.217)
(0.346 + j0.217)

Para obtener la forma can


onica real de Jordan de A construimos la matriz real
MR remplazando las columnas complejas por columnas con la parte real e imaginaria
de estas, y verificamos.

0.408 0.015 0.408


0.721
0.382
MR = 0.816
0.408
0.346 0.217

1
0
0
0
0.5 0.866
JR = M1
R AMR =
0 0.866 0.5

6.2.4.

Funciones de matrices cuadradas

Sea f () una funci


on que opera sobre un escalar, y sea A una matriz cuadrada n n. En esta secci
on se aborda el problema de c
omo calcular f (A), es
decir, como extender f () de los escalares a las matrices.
Si f () es un polinomio, la extensi
on a las matrices se fundamenta en la
definici
on
A0 = I
(6.14)
Ak = AA
A}
| {z
k veces

Si la matriz A tiene una representaci


on can
onica de Jordan J obtenida con
la matriz modal M, es decir, si A = MJM1 entonces
Ak = (MJM1 )(MJM1 ) (MJM1 ) = M (J J) M1
| {z }
|
{z
}
k veces

k veces

Ak = MJk M1

(6.15)

Como J es un a matriz diagonal por bloques, el c


alculo de J puede efectuarse
como sigue:

J1 0 0
J1 0 0
0 J2 0
0 Jk2 0

k
J= .
J = .
.. . .
..
.. . .
..
.
..

. .
. .
.
.
.
0 0 Jn
0
0 Jkn
154


6.2. ALGUNOS RESULTADOS DE ALGEBRA
LINEAL

Empleando la definici
on (6.14), un polinomio generico
f () = a0 + a1 + a2 2 + + an n
puede calcularse en A como
f (A) = a0 I + a1 A + a2 A2 + + an An
o en funci
on de las matrices M y J:
f (A) = a0 MIM1 + a1 MJM1 + a2 MJ2 M1 + + an MJn M
f (A) = Mf (J)M1
Ejemplo 6.16 Calcular Ak

1 0
0 2

A= .
..
..
.
0

(6.16)

cuando A es una matriz diagonal:


k

1 0
0
0 k2
0

Ak = .
.. . .
.
..
..
. ..
.
.
n

0
0
..
.

kn

Ejemplo 6.17 Calcular Ak cuando A es una matriz con la forma de los bloques
reales de Jordan para el caso en que los valores propios son imaginarios puros


0 b
A=
b 0
calculamos los primeros terminos A1 , A2 , A3 , A4 , A5 y A6 :


 2



0 b
b
0
0 b3
1
2
3
A =
A =
A = 3
b 0
0
b2
b
0





 4
b6
0
0
b5
b
0
6
5
4
A =
A =
A =
0
b6
b5 0
0 b4

Observando la secuencia se puede inferir que


"
#
k

2 bk
(1)
0

0
(1) 2 bk

Ak = "
#

k1

0
(1) 2 bk

(1) k+1
2 bk
0

si k es par

si k es impar

Tambien es posible extender una funci


on f () que no sea un polinomio de
los escalares a las matrices empleando la representaci
on de f () en series de
Taylor expandidas alrededor de 0 (series de MacLaurin):

X
k dk f ()
(6.17)
f () =
k! d k
k=0

155

OSCAR G. DUARTE

Empleando (6.17) se puede expresar f () como un polinomio de . Si A es


una matriz cuadrada, puede calcularse f (A) empleando ese polinomio.
Las siguientes son las expansiones de algunas funciones comunes:
et = 1 +

cos t = 1
sin t =

t 2 t2
3 tk
4 tk
+
+
+
+
1!
2!
3!
4!

(6.18)

2 t2
4 t4
6 t6
8 t8
+

+
+
2!
4!
6!
8!

(6.19)

5 t5
7 t7
t 3 t3

+
1!
3!
5!
7!

(6.20)

Ejemplo 6.18 Sea A una matriz diagonal como la del ejemplo 6.16. Para calcular
eAt podemos emplear (6.18)
eAt = I +
que de acuerdo con

1 0
0 1

eAt = . . .
..
.. ..

At A2 t2
A3 t k
A4 t k
+
+
+
+
1!
2!
3!
4!

los resultados del ejemplo 6.16 se calculara asi:

1 0 0
1 0 0
0
2

0
t
0 2 0 t2 0 2 0

.. . .
.. +
.. . .
.. + ..
.. + ..
. . 2! .
. .
.
.
. 1! .
0
0 n
0
0 2n
0 0 1
eAt

g1 (t)
0

= .
..
0

0
g2 (t)
0

..
..
..
.
.
.
0
gn (t)

i t 2i t2
3 t 3
+
+ i +)
1!
2!
3!
Cada uno de los terminos de la diagonal, gi (t), corresponde a la expansi
on en
series de Taylor de una exponencial como las de (6.18), por lo tanto e At sera:
t

e 1
0

0
0
e 2 t
0

At
e = .
.
..
.
..
..
..
.
n t
0
0
e
gi (t) = (1 +

Ejemplo 6.19 Sea A una matriz con la forma de los bloques reales de Jordan para
el caso en que los valores propios son imaginarios puros, como la del ejemplo 6.17.
Para calcular eAt podemos emplear (6.18)
eAt = I +

A3 t k
A4 t k
At A2 t2
+
+
+
+
1!
2!
3!
4!
156

6.3. VARIABLES DE ESTADO

que de acuerdo con los resultados del ejemplo 6.17 se calculara asi:


 4 4






t2 b2
t3 0 b3
t b
t 0 b
1 0
0
0
At
+
+
+
+
+
e =
0 1
b2
0
1! b 0
2! 0
3! b3
4! 0 b4
"
#
2 2
4 4
t 3 b3
t 5 b5
(1 t 2!b + t 2!b + )
( tb

+
+

)
At
1!
3!
5!
e =
2 2
4 4
t 3 b3
t 5 b5
( tb
(1 t 2!b + t 2!b + )
1! + 3! 5! + )
Cada uno de los terminos de la matriz corresponde a la expansi
on de Taylor de una
sinusoide como las de (6.19) y (6.20), por lo tanto e At puede calcularse como


cos(bt) sin(bt)
At
e =
sin(bt) cos(bt)
Ejemplo 6.20 Sea A una matriz con la forma de los bloques reales de Jordan


a b
A=
b a
Patra calcular eAt escribimos A como la suma de dos matrices:



 

a b
a 0
0 b
A=
=B+C=
+
b a
0 a
b 0
De tal manera que eAt = eBt eCt . Empleando los resultados de los ejemplos 6.18 y
6.19 se tiene que
 at



e
0
cos(bt) sin(bt)
Bt
Ct
e =
e =
0 eat
sin(bt) cos(bt)
y por lo tanto
 at
e
eAt =
0

6.3.

0
eat



  at

cos(bt) sin(bt)
e cos(bt) eat sin(bt)
=
sin(bt) cos(bt)
eat sin(bt) eat cos(bt)

Variables de estado

De acuerdo con la presentaci


on de la secci
on 6.1, se estudiar
an en este captulo sistemas din
amicos de m
ultiples entradas y m
ultiples salidas como los de
las figuras 6.1 y 6.2.
El modelo matem
atico de estos sistemas ser
an las ecuaciones (6.21) y (6.22)
para los casos continuos y discretos, respectivamente; en ambos casos la primera
ecuaci
on, que contiene la din
amica del sistema, se denomina ecuaci
on de estado
y la segunda ecuaci
on de salida.
(
x(t)

= Ax(t) + Bu(t)
(6.21)
y(t) = Cx(t) + Du(t)
157

OSCAR G. DUARTE

u(s)
B

sx(s)

1/s

x(s)
C

y(s)

+
A

Figura 6.5: Diagrama de Bloques de un sistema contnuo en representaci


on de
espacio de Estado

x(k + 1) = Ax(k) + Bu(k)


y(k) = Cx(k) + Du(k)

(6.22)

En las ecuaciones (6.21) y (6.22) A, B, C y D son matrices reales cuyas


dimensiones est
an especificadas en (6.6), mientras que u, y, x son los vectores definidos en (6.3), que contienen las variables de entrada, salida y estado
respectivamente.
N
otese que la din
amica del sistema est
a representada en la ecuaci
on de estado, pues es all en donde aparecen las derivadas o las diferencias, mientras que
la ecuaci
on de salida es algebr
aica.
Las figuras 6.5 y 6.6 muestran dos diagramas de bloques que representan las
ecuaciones 6.21 y 6.22 respectivamente. Para interpretar adecuadamente estos
diagramas es necesario tener en cuante que:
1. Las flechas representan vectores de se
nales y los bloques A, B, C y D
matrices.
2. El bloque 1/s en la figura 6.5 corresponde a la funci
on de transferencia de
Rt
un integrador y(t) = 0 x(t)dt que opera sobre cada una de las se
nales de
entrada de forma independiente.
3. El bloque 1/z en la figura 6.6 corresponde a la funci
on de transferencia
de un bloque de retardo y(k) = x(k 1) que opera sobre cada una de las
se
nales de entrada de forma independiente.
4. Como en todo diagrama de bloques con funciones de transferencia, se han
supuesto condiciones iniciales nulas.

158

6.3. VARIABLES DE ESTADO

u(z)
B

zx(z)

1/z

x(z)
C

y(z)

+
A

Figura 6.6: Diagrama de Bloques de un sistema discreto en representaci


on de
espacio de Estado

6.3.1.

El concepto de estado

Que son las variables de estado? una posible aproximaci


on es pensar en
ellas como variables matem
aticas auxiliares que permiten representar el comportamiento de sistemas mediante ecuaciones como (6.1) y (6.2), que en el caso
de sistemas lineales invariantes en el tiempo se convierten en (6.21) y (6.22).
No obstante, existe otra posible interpretaci
on: Los sistemas din
amicos se
rigen por ecuaciones diferenciales y de diferencia; este tipo de ecuaciones tienen una u
nica soluci
on unicamente si se establece un conjunto de condiciones,
denominadas condiciones auxiliares; usualmente estas determinan en el instante de tiempo considerado como inicial, y por tanto se denominan condiciones
iniciales.
De lo anterior se desprende que para conocer el comportamiento de un sistema din
amico se necesita cierta informaci
on adicional a la s
ola ecuaci
on diferencial. Este hecho justifica la siguiente definici
on:
Definici
on 6.1 Estado
El Estado de un sistema en el tiempo t0 (o en k0 si es discreto) es la cantidad de
informaci
on necesaria en ese instante de tiempo para determinar de forma u
nica,
junto con las entradas u, el comportamiento del sistema para todo t t 0 (o para
todo k k0 si es discreto)
De acuerdo con la definici
on 6.1, las variables de estado ser
an variables que
muestran c
omo evoluciona el estado del sistema, es decir, ser
an variables que
contienen la informaci
on necesaria para predecir la evoluci
on del comportamiento del sistema en forma u
nica.
Tambien suelen definirse las variables de estado como cualquier conjunto
de variables que describa el comportamiento del sistema, siempre y cuando ese
conjunto sea del menor tama
no posible.
159

OSCAR G. DUARTE

v(t)

+ vR (t)

iL (t)

+
vC (t)

Figura 6.7: Circuito RLC serie

Cualquiera que sea la interpretaci


on que se adopte, debe tenerse presente
que:
Las variables de estado pueden tener o no sentido fsico.
Las variables de estado pueden o no ser medibles.
Para un mismo sistema din
amico las variables de estado no son u
nicas; de
hecho, se pueden definir infinitos conjuntos de variables que sirvan como
variables de estado.
Ejemplo 6.21 Para conocer el comportamiento de un circuito RLC serie como el
de la figura 6.7 es necesario establecer los valores de i L (0+ ) y vC (0+ ), por esta
raz
on, las variables iL (t) y vC (t) sirven como variables de estado.
La aplicaci
on de las leyes de Kirchhoff en el circuito da como resultado

diL (t)

RiL (t) + L
+ vC (t) = v(t)
dt

i (t) = C dvC (t)


L
dt
Estas ecuaciones pueden organizarse de la siguiente forma

R
1
1
diL (t)

= iL (t) vC (t) + v(t)


dt
L
L
L

dvC (t) = 1 i (t)


L
dt
C

O en forma matricial:

 

 


diL (t)/dt
R/L 1/L iL (t)
1/L 
v(t)
=
+
dvC (t)/dt
1/C
0
vC (t)
0

Sup
ongase que en el circuito se quiere estudiar el comportamiento de las variables vR (t) e iL (t), es decir, que seleccionamos estas variables como las salidas del
sistema. Dado que vR (t) = RiL (t), podremos escribir la ecuaci
on

 


vR (t)
R 0 iL (t)
=
iL (t)
1 0 vC (t)
160

6.3. VARIABLES DE ESTADO

En resumen, una representaci


on en variable de estado del circuito estara dada
por las ecuaciones








1/L 
R/L 1/L iL (t)
diL (t)/dt

v(t)
+
=

0
vC (t)
1/C
0
dvC (t)/dt



vR (t)

iL (t)

que son de la forma

en donde




u(t) = v(t)


R/L 1/L
A=
1/C
0

R 0
1 0



iL (t)
vC (t)

 

0 
v(t)
0

x(t)

= Ax(t) + Bu(t)
y(t) = Cx(t) + Du(t)


vR (t)
iL (t)


1/L
B=
0

y(t) =

x(t) =
C=


iL (t)
vC (t)

 
0
D= 0
0

R
1

Ejemplo 6.22 Sup


ongase un motor electrico de corriente continua controlado por
campo, como el que se muestra en la figura 6.8, con corriente de armadura constante, que mueva una carga de momento de inercia J, con coeficiente de fricci
on
viscosa B a una velocodad angular (t).
Rf

vs (t)

Lf
J, B

if (t)

(t)

Figura 6.8: Motor DC controlado por campo

La ecuaci
on del circuito electrico de campo es
Rf if (t) + Lf

dif (t)
= vs (t)
dt

(6.23)

Al considerar que la corriente de armadura es constante, se tiene que el par


motor T (t) generado es directamente proporcional a la corriente de campo con una
cierta constante de proporcionalidad KT , es decir
T (t) = KT if (t)

(6.24)

La aplicaci
on de las leyes de newton al sistema dan la ecuaci
on
T (t) B(t) = J
161

d(t)
dt

(6.25)

OSCAR G. DUARTE

Las ecuaciones (6.23), (6.24) y (6.25) pueden escribirse como

Rf
1
dif (t)

=
if (t) +
vs (t)

dt
Lf
Lf

d(t) = KT if (t) B (t)


dt
J
J

que en forma matricial se convierten en



 

 


dif (t)/dt
Rf /Lf
0
if (t)
1/Lf 
vs (t)
=
+
d(t)/dt
KT /J
B/J (t)
0

(6.26)

(6.27)

Si seleccionamos como variable de salida la velocidad angular, obtenemos una


representaci
on en variable de estado del sistema:








dif (t)/dt
Rf /Lf
0
if (t)
1/Lf 

vs (t)
=
+

KT /J
B/J (t)
0
d(t)/dt
(6.28)



 




 if (t)

0 vs (t)
(t)
0 1
+
=

(t)

No obstante, esta no es la u
nica representaci
on posible; podemos, por ejemplo,
seleccionar como variables de estado T (t) y (t), en cuyo caso la representaci
on en
variable de estado sera








dT (t)/dt
Rf /Lf
0
T (t)
KT /Lf 

vs (t)
=
+

1/J
B/J (t)
0
d(t)/dt
(6.29)






 T (t)
 


(t)
0 1
0 vs (t)
=
+

(t)
Ejemplo 6.23 A continuaci
on se presenta un modelo lineal simple del crecimiento
demografico de una sociedad. Se ha distribuido el total de la poblaci
on por franjas
de edad:
x1 (k)
x2 (k)
..
.

:
:

Poblaci
on con edades entre 0 y 10 a
nos
Poblaci
on con edades entre 10 y 20 a
nos
..
.

xn (k)

Poblaci
on con edades entre (n 1) 10 y n 10 a
nos

Si denotamos por y(k) la poblaci


on total de la sociedad en el periodo k se
tendra:
n
X
y(k) = x1 (k) + x2 (k) + + xn (k) =
xi (k)
i=1

Si tomamos cada periodo como un intervalo de 10 a


nos, en el periodo k + 1 las
personas que en el periodo k estan en la franja i, estaran en la franja k + 1 en el
periodo i + 1, salvo aquellos que mueran, es decir
xi (k + 1) = xi1 (k) i1 xi1 (k)
162

i = 1, 2, 3, , n 1

6.3. VARIABLES DE ESTADO

en donde i es la rata de mortalidad para la franja de edades n


umero i.
Para encontrar x1 (k +1), es decir el n
umero de personas que nacen en el periodo
k, podemos suponer que cada franja de edades tiene una rata de reproductividad
diferente i , es decir
x1 (k + 1) = 1 x1 (k) + 2 x2 (k) + + n xn (k) =

n
X

De esta manera podemos escribir las ecuaciones matriciales

x1 (k + 1)

1
2
3
n1

x2 (k + 1)

0
0

1
x3 (k + 1)

0
1

2
=

..

.
.
.
..
.
.

..
..
..

..

xn1 (k + 1)

0
0
0

n1

xn (k + 1)

i xi (k)

i=1

x (k)
n 1

x2 (k)
0
x3 (k)

..

..
.

.
xn1 (k)
0
xn (k)

x1 (k)
x2 (k)
x3 (k)
..
.


 


y(k) = 1 1 1 1 1

xn1 (k)
xn (k)

Ademas, podriamos considerar los fen


omenos de migraci
on como entradas al
sistema. Definamos ui (k) como la diferencia entre el numero de inmigrantes y
emigrantes de la franja i en el periodo k; con esta definici
on el modelo se convierte
en
8
2
1
2

>
>2 x1 (k + 1) 3
>
>
61 1
0

>
>
7 6
>
>6
6 x2 (k + 1) 7 6 0
1 2
>
>
=
7
6
6
.
>
>
..
5 6 ..
4
..
>
..
>
4 .
>
.
.
>
> xn (k + 1)
<
0
0

>
>
>
>
>
>
>
>
>


>
>
>
y(k) = 1 1
>
>
>
>
>
:

6.3.2.

2
3
3
0
n 2
x
1 (k)
61
07
7 6 x2 (k) 7 6
7 6
6
07
7 6 . 7 + 60
.. 7 4 .. 5 6 ..
4.
. 5
xn (k)
0
0

0
0
1
..
.
0

..
.

3
3
0 2
u1 (k)
07
7 6 u2 (k) 7
7
6
07
76 . 7
.. 7 4 .. 5
.5
un (k)
0

3
x1 (k)
7
6
6 x2 (k) 7
1 6 . 7
4 .. 5
2

xn (k)

Representaci
on de estado a partir de E.D.

Existe un procedimiento sencillo para obtener una representaci


on en variables de estado de sistemas de una entrada y una salida de los cuales se conoce
la ecuaci
on diferencial o de diferencia que lo rige.
163

OSCAR G. DUARTE

Sup
ongase un sistema din
amico continuo descrito por la ecuaci
on diferencial
an

dn y(t)
dn1 y(t)
dy(t)
+
a
+ + a1
+ a0 y(t) = u(t)
n1
dtn
dtn1
dt

(6.30)

El comportamiento del sistema queda u


nivocamente determinado si se conocen las condidiones iniciales y(0), y(0),

, y (n1) (0), por lo tanto podemos


seleccionar las siguientes variables de estado:
x1 (t)
x2 (t)
x3 (t)
..
.

=
=
=

xn1 (t) =
xn (t)
=

y(t)
dy
dt
d2 y
dt2

=
=

..
.

dn2 y
dtn2
dn1 y
dtn1

x 1 (t)
x 2 (t)
..
.

(6.31)

= x n2 (t)
= x n1 (t)

De tal manera que (6.30) puede escribirse como


an x n (t) + an1 xn (t) + + a1 x2 (t) + a0 x1 (t) = u(t)
x n (t) =

a1
an1
1
a0
x1 (t)
x2 (t)
xn (t) +
u(t)
an
an
an
an

Las ecuaciones (6.31) y (6.32) se


0
1
0
x 1 (t)
x 2 (t) 0
0
1


x 3 (t) 0
0
0

= ..
..
..
..

.
.
.
.


x n1 (t) 0
0
0
aan0 aan1 aan2
x n (t)

(6.32)

escriben en forma matricial asi:

0
x1 (t)
x2 (t) 0

0

x3 (t) 0 
+ .. u(t)
..
..
..

.
.
.
.

1 xn1 (t) 0
1
an1
xn (t)
an
an

x1 (t)
x2 (t)
x3 (t)
..
.

 

 



y(t) = 1 0 0 0 0
+ 0 u(t)

xn1 (t)
xn (t)

De forma an
aloga puede obtenerse una representaci
on en variables de estado
de sistemas discreto de una entrada y una salida a partir de su ecuaci
on de
diferencias
Sup
ongase un sistema din
amico discreto descrito por la ecuaci
on de diferencias
an y(k + n) + an1 y(k + n 1) + + a1 y(k + 1) + a0 y(k) = u(k)
164

(6.33)

6.4. SISTEMAS CONTINUOS LIBRES

Podemos seleccionar las variables de estado:


x1 (k)
x2 (k)
x3 (k)
..
.

=
=
=

y(k)
y(k + 1)
y(k + 2)
..
.

=
=

x1 (k + 1)
x2 (k + 1)
..
.

(6.34)

xn1 (k) = y(k + n 2) = xn2 (k + 1)


xn (k)
= y(k + n 1) = xn1 (k + 1)
de tal manera que la ecuaci
on (6.33) se convierte en
xn (k + 1) =

a1
an1
1
a0
x1 (k)
x2 (k)
xn (k) +
u(k)
an
an
an
an

(6.35)

Las ecuaciones (6.34) y (6.35) se escriben en forma matricial asi:

x1 (k + 1)
x2 (k + 1)
x3 (k + 1)
..
.

0
0
0
..
.


xn1 (k + 1) 0
aan0
xn (k + 1)

1
0
0
..
.

0
1
0
..
.

0
aan1

0
aan2

..
.

0
0
0
..
.

x1 (k)
x2 (k)
x3 (k)
..
.

0
0
0
..
.




+ u(k)

1 xn1 (k) 0
1
an1
xn (k)
an
an

x1 (k)
x2 (k)
x3 (k)
..
.

 



 


y(k) = 1 0 0 0 0
+ 0 u(k)

xn1 (k)
xn (k)

6.4.

Sistemas continuos libres

Como un primer paso para el an


alisis de la ecuaci
on (6.21), en esta secci
on
se estudia la ecuaci
on de estado con el sistema libre (sin entradas), es decir
estudiamos la ecuaci
on
x(t)

= Ax(t)
(6.36)
La ecuaci
on matricial (6.36) recuerda la ecuaci
on escalar
dx
= ax(t)
dt
cuya soluci
on es
x(t) = eat x(0)
165

(6.37)

OSCAR G. DUARTE

debido a que

d eat
= aeat
ea0 x(0) = x(0)
(6.38)
dt
Resulta entonces natural preguntarse si al reemplazar el escalar a por la
matriz A, y la variable x por el vector de variables x se mantienen las relaciones
(6.38) y asi encontrar una soluci
on de (6.36) similar a (6.37).
Es posible demostrar que
d eAt
= AeAt
dt

eA0 x(0) = x(0)

(6.39)

Para ello, empleamos la expansi


on en series de Taylor (6.18)
eAt = I +

A3 t 3
A4 t 4
At A2 t2
+
+
+
+
1!
2!
3!
4!

de donde se observa que eA0 = I, y por lo tanto x(0)eA0 = x(0). Adem


as,
podemos calcular la derivada de eAt :


At A2 t2
d
A3 t 3
A4 t 4
d eAt
I+
=
+
+
+
+
dt
dt
1!
2!
3!
4!
A2 t A3 t 2
A4 t 3
A5 t 4
d eAt
=0+A+
+
+
+
+
dt
1!
2!
3!
4!


d eAt
At A2 t2
A3 t 3
A4 t 4
=A I+
+
+
+
+
dt
1!
2!
3!
4!
d eAt
= AeAt
dt
De esta forma hemos demostrado (6.39), y por lo tanto tambien hemos demostrado que la soluci
on de (6.36) es
x(t) = eAt x(0)

(6.40)

En (6.40) x(0) es el vector que contiene las condiciones iniciales de x(t). Por
otra parte, es posible calcular eAt por diversos metodos, de los cuales destacamos
los siguientes3 :
Series de Taylor: Podemos emplear la expansi
on en series de Taylor (6.18)
directamente:
eAt = I +

At A2 t2
A3 t 3
A4 t 4
+
+
+
+
1!
2!
3!
4!

(6.41)

Este metodo no es pr
actico, debido a la dificultad de calcular Ak ; sin embargo, en algunos casos especiales este c
alculo es sencillo, como se muestra
en los ejemplos 6.18, 6.19 y 6.20
3 Los ejemplos 6.18, 6.19 y 6.20 ponen de manifiesto que si A = {a } entonces eAt 6=
ij
{eaij t }.

166

6.4. SISTEMAS CONTINUOS LIBRES

Forma can
onica de Jordan: Si se ha obtenido la forma can
onica de Jordan
de la matriz A, entonces se tienen dos matrices J y M tales que
J = M1 AM

A = MJM1

y por lo tanto eAt puede calcularse asi:


eAt = MIM1 +

(MJM1 )t (MJM1 )2 t2
(MJM1 )3 t3
+
+
+
1!
2!
3!
1

eAt

MJM1 t MJ2 M t2
MJ3 M t3
+
+
+
1!
2!
3!


J3 t 3
Jt J2 t2
+
+
+ M1
=M I+
1!
2!
3!

eAt = MIM1 +

eAt = MeJt M1

(6.42)

La ventaja de emplear (6.42) radica en que J es una matriz diagonal por


bloques, y por lo tanto eJt es m
as f
acil de calcular, especialmente si J es
completamente diagonal
Transformada de Laplace: Podemos obtener la soluci
on de (6.36) empleando la transformada de Laplace, y asi deducir el valor de eAt .
L {x}
= L {Ax}
sx(s) x(0) = Ax(s)
sx(s) Ax(s) = x(0)
(sI A)x(s) = x(0)
x(s) = (sI A)1 x(0)


x(t) = L1 {x(s)} = L1 (sI A)1 x(0)


x(t) = L1 (sI A)1 x(0) = eAt x(0)


eAt = L1 (sI A)1

(6.43)

Jordan y Laplace: Pueden combinarse (6.42) y (6.43) para obtener




eAt = ML1 (sI J)1 M1
167

(6.44)

OSCAR G. DUARTE

Ejemplo 6.24 Obtener la soluci


on de la ecuaci
on

x 1 (t)
2 0 0 x1 (t)
x 2 (t) = 0 1 0 x2 (t)
x 3 (t)
0 0 3 x3 (t)

sujeta a las condiciones iniciales x1 (0) = 2, x2 (0) = 1, x3 (0) = 1


La ecuaci
on es de la forma x = Ax, por lo tanto la soluci
on sera x(t) = e At x(0).
At
El calculo de e es muy simple, debido a que A es una matriz diagonal (Ejemplo
6.18):
2t

e
0
0
eAt = 0 e1t 0
0
0
e3t
Este resultado tambien se habra podido obtener mediante la transformada de Laplace:

0
0
s2
0
0
s2
1
0
s+1
0
sI A = 0
(sI A)1 = 0
s+1
1
0
0
s3
0
0
s3
eAt = L


1

(sI A)

e2t

= 0
0

0
e1t
0

0
0
e3t

por lo tanto la soluci


on de la ecuaci
on diferencial sera
2t

e
0
0
2
At
1t

0
e
0
1
x(t) = e x(0) =
0
0
e3t
1
2t
2e
x1 (t)
x(t) = x2 (t) = et
e3t
x3 (t)

En un caso como este en el que la matriz A es diagonal, realmente la ecuaci


on
diferencial matricial representa un conjunto de ecuaciones diferenciales sencillas en
el que las variables estan desacopladas; La ecuaci
on matricial y las condiciones
iniciales pueden escribirse como:

x1 (0) = 2
x 1 (t) = 2x1 (t)
x 2 (t) = 1x2 (t) x2 (0) = 1

x 3 (t) = 3x3 (t) x3 (0) = 1


cuyas soluciones son

x1 (t) = 2e2t
x2 (t) = et

x3 (t) = et
168

6.4. SISTEMAS CONTINUOS LIBRES

Ejemplo 6.25 Obtener la soluci


on de la ecuaci
on


 

4 1 x1 (t)
x 1 (t)
=
2 1 x2 (t)
x 2 (t)
sujeta a las condiciones iniciales x1 (0) = x10 y x2 (0) = x20
En el ejemplo 6.10 se ha obtenido la forma can
onica de Jordan de la matriz A,
que ha resultado ser la matriz , perfectamente diagonal; es decir se han encontrado
las matrices M y tales que
= M1 AM




2 0
1
1
=
M=
0 3
2 1
lo que permite calcular eAt :

At

  2t
1
1
e
=
2 1
0

eAt = Met M1

 
0
1 1
(e2t + 2e3t )
=
3t
e
2
1
(2e2t 2e3t )

(e2t + e3t )
(2e2t e3t )

Tambien podemos obtener este resultado mediante la Transformada de Laplace:






1
s 4 1
(s 1)
1
(sI A)1 = 2
sI A =
2
s1
2
(s 4)
s 5s + 6
(sI A)1 =
e

At

"

s1
(s2)(s3)
2
(s2)(s3)

=L

1
(s2)(s3)
s4
(s2)(s3)

(sI A)

1
 (s2)
2
(s2)

+
+

(e2t + 2e3t )
=
(2e2t 2e3t )

 

2
(s3) 
2
(s3)

1
 (s2)
2
(s2)

(e2t + e3t )
(2e2t e3t )

por lo tanto la soluci


on de la ecuaci
on diferencial sera

 
(e2t + 2e3t ) (e2t + e3t ) x10
At
x(t) = e x(0) =
(2e2t 2e3t ) (2e2t e3t ) x20


 

x1 (t)
(e2t + 2e3t )x10 + (e2t + e3t )x20
=
x2 (t)
(2e2t 2e3t )x10 + (2e2t e3t )x20

  2t

e (x10 x20 ) + e3t (2x10 + x20 )
x1 (t)
= 2t
x(t) =
e (2x10 + 2x20 ) + e3t (2x10 x20 )
x2 (t)
x(t) =

Ejemplo 6.26 Obtener la soluci


on de la ecuaci
on

 


x 1 (t)
1 4
x1 (t)
=
x 2 (t)
1 1 x2 (t)
sujeta a las condiciones iniciales x1 (0) = x10 y x2 (0) = x20
169

+
+

1
(s3) 
1
(s3)

OSCAR G. DUARTE

son

Los valores propios de A son 1,2 = 1 j2, y dos vectores propios asociados


 
j2
j2
v1 =
v2 =
1
1

Debido a que los valores propios son complejos, es conveniente encontrar la forma
can
onica real de Jordan de A.
JR = M1
R AMR




0 2
1 2
MR =
JR =
1 0
2 1
lo que permite calcular eAt :
eAt = MR eJR t M1
R
Empleando el resultado del ejemplo 6.20


  t

0
1
e cos 2t et sin 2t
0 2
eAt =
et sin 2t et cos 2t 1/2 0
1 0
eAt =


et cos 2t
2et sin 2t
21 et sin 2t et cos 2t

Tambien podemos obtener este resultado mediante la Transformada de Laplace:






1
(s + 1)
4
s + 1 4
1
(sI A) = 2
sI A =
1
(s + 4)
1
s+1
s + 2s + 5
"
#
(sI A)1 =

s+1
(s+1)2 +22
1
(s+1)2 +22



eAt = L1 (sI A)1 =

4
(s+1)2 +22
s+1
(s+1)2 +22

et cos 2t
2et sin 2t
1 t
2 e sin 2t et cos 2t

por lo tanto la soluci


on de la ecuaci
on diferencial sera
 t
 
e cos 2t
2et sin 2t x10
At
x(t) = e x(0) =
21 et sin 2t et cos 2t x20


 

x1 (t)
x10 et cos 2t + 2x20 et sin 2t
x(t) =
=
x2 (t)
x210 et sin 2t + x20 et cos 2t
Ejemplo 6.27 Obtener la soluci
on de la ecuaci
on

 


x 1 (t)
3 4
x1 (t)
=
x 2 (t)
1 1 x2 (t)
sujeta a las condiciones iniciales x1 (0) = x10 y x2 (0) = x20
170

6.4. SISTEMAS CONTINUOS LIBRES

Los valores propios de A son 1 = 2 = 1. Ademas se puede comprobar que no


es posible diagonalizar A. En consecuencia, la forma can
onica de Jordan de A sera
un u
nico bloque de tama
no 2. La obtenci
on de los vectores propios generalizados
con los que se obtiene la forma can
onica de Jordan escapa al alcance de este texto.
No obstante, vamos a suponer que se han encontrado las matrices M y J:
J = M1 AM




1 1
2 1
J=
M=
0 1
1 0
de tal manera que se puede calcular eAt :
eAt = MeJt M1
No obstante, como J no es diagonal, debemos calcular e Jt mediante la transformada de Laplace.
#
"


1
1
s + 1 1
(s+1)
(s+1)2
1
(sI J) =
sI J =
1
0
s+1
0
(s+1)
e

Jt

=L

(sI J)

et
=
0

tet
et

Retomando el calculo de eAt





  t
2 1 et tet 0 1
e 2tet
At
e =
=
t
1 0
0
e
1 2
tet

4tet
t
e + 2tet

Tambien podemos obtener este resultado mediante la Transformada de Laplace:






1
(s 1)
4
s + 3 4
1
sI A =
(sI A) =
1
(s + 3)
1
s1
(s + 1)2





2
4
1
+
2
2
(s+1)
(s+1)
(s+1)




(sI A)1 =
1
1
2
+
2
2
(s+1)
(s+1)
(s+1)

 t
t


e 2te
4tet
At
1
1
e =L
(sI A)
=
tet
et + 2tet

por lo tanto la soluci


on de la ecuaci
on diferencial sera
 t
 
e 2tet
4tet
x10
x(t) = eAt x(0) =
tet
et + 2tet x20

  t

x1 (t)
(e 2tet )x10 + 4x20 tet
x(t) =
=
x2 (t)
x10 tet + (et + 2tet )x20

 

x (t)
(x10 )et + (2x10 + 4x20 )tet
x(t) = 1
=
x2 (t)
(x20 )et + (x10 + 2x20 )tet
171

OSCAR G. DUARTE

6.4.1.

Retratos de fase

Sup
ongase ahora un sistema como (6.36) de dimensi
on dos, es decir, sup
ongase




x (t)
x 1 (t)
(6.45)
=A 1
x2 (t)
x 2 (t)
Una vez solucionada (6.45) es posible trazar las curvas x1 (t) vs t y x2 (t)
vs t. Tambien es posible trazar una curva x1 (t) vs x2 (t), en un plano x1 x2
conocido como el plano de fase (ver Ejemplo 6.28). La curva resultante es un
trayectoria de (6.45), y puede visualizarse como una curva parametrica definida
por (x1 (t), x2 (t)) con el par
ametro t variando de 0 a .
La soluci
on de (6.45) depende de las condiciones iniciales, por lo tanto la
trayectoria depende de las condiciones iniciales. Sobre el mismo plano de fase se pueden trazar diferentes trayectorias obtenidas con distintas condiciones
iniciales; el resultado es el retrato de fase de (6.45).
Ejemplo 6.28 La soluci
on de la ecuaci
on


 

x1 (t)
1 4
x 1 (t)
=
1 1 x2 (t)
x 2 (t)
sujeta a las condiciones iniciales x1 (0) = 0 y x2 (0) = 2 es (Ejemplo 6.26)

  t

x1 (t)
4e sin 2t
x(t) =
=
x2 (t)
2et cos 2t
La figura 6.9 muestra las graficas de x1 (t) vs t, x2 (t) vs t, a partir de las cuales
se ha trazado x1 vs x2 tomando para cada tiempo el valor de x1 ( ) y x2 ( ) y
trasladandolos al plano de fase. La curva resultante es una trayectoria de la ecuaci
on
diferencial.La flecha roja indica el sentido en el que se recorre la trayectoria cuando
el tiempo avanza.
Se ha repetido el procedimiento para varios juegos de condiciones iniciales, con
el fin de obtener el retrato de fase que se muestra en la figura 6.10. Las condiciones
iniciales seleccionadas han sido:
 
 
 


0
0
2
2
xa (0) =
xb (0) =
xc (0) =
xd (0) =
2
2
1.5
1.5
La figura 6.11 muestra los retratos de fase tpicos de sistemas lineales estables 4 , mientras que la figura 6.12 muestra los retratos de fase tpicos de los
sistemas lineales inestables. Debemos resaltar que la forma de estos retratos
depende de c
omo son los valores propios de la matriz A.
En general, un sistema lineal como (6.45) tendr
a un retrato de fase semejante
a alguno de los que se muestran en las figuras6.11 y 6.12. No obstante, el retrato
de fase no necesariamente ser
a identico. La semejanza a la que nos referimos aqui
consiste en una equivalencia de forma (ser
an topol
ogicamente equivalentes).
4 el

centro se considera como un sistema marginalmente estable

172

6.4. SISTEMAS CONTINUOS LIBRES

x1 ( )
x1 (t)

(, x1 ( ))
Plano de Fase
x2
t
x2 ( )

(x1 ( ), x2 ( ))
x1 ( )x1

x2 (t)
x2 ( )

(, x2 ( ))

Figura 6.9: Construcci


on de una trayectoria en el Plano de Fase

x2

x1

Figura 6.10: Retrato de Fase

173

OSCAR G. DUARTE

Nombre

Retrato

e-valores

Reales Negativos

Estable

Ejemplo



1 0
A=
0 2

x1 (t) = x10 et
x2 (t) = x20 e2t
Reales Negativos
Repetidos

Estable de
multiplicidad 2

A=


1 1
0 1

x1 (t) = (x10 + tx20 )et


x2 (t) = x20 et
Complejos de Parte
Real Negativa


1 2
A=
2 1

Sif
on
x1 (t) = x10 e2t cos t + x20 e2t sin t
x2 (t) = x10 e2t sin t + x20 e2t cos t
Imaginarios puros

0 1
A=
1 0

Centro
x1 (t) = x10 cos t + x20 sin t
x2 (t) = x10 sin t + x20 cos t
Figura 6.11: Retratos de Fase Estables tpicos

174

6.4. SISTEMAS CONTINUOS LIBRES

Nombre

Retrato

e-valores

Reales Positivos

Inestable

Ejemplo



1 0
A=
0 2

x1 (t) = x10 et
x2 (t) = x20 e2t
Reales Positivos
Repetidos

Inestable de
multiplicidad 2

A=


1 1
0 1

x1 (t) = (x10 + tx20 )et


x2 (t) = x20 et
Complejos de Parte
Real Positiva

1 2
A=
2 1

Fuente
x1 (t) = x10 e2t cos t + x20 e2t sin t
x2 (t) = x10 e2t sin t + x20 e2t cos t
Reales de Signo
Diferente

1 0
A=
0 1

Punto de Silla
x1 (t) = x10 et
x2 (t) = x20 et
Figura 6.12: Retratos de Fase Inestables tpicos

175

OSCAR G. DUARTE

Ejemplo 6.29 La figura 6.13 muestra los retratos de fase de varios ejemplos. En
cada caso se ha anotado la matriz A y su formacanonica de Jordan J. N
otese la
semejanza de forma con los ejemplos tpicos de las figuras 6.11 y 6.12.
En las figuras 6.11 y 6.12 se observa que el origen del plano de fase juega
un papel importante, atrayendo o repeliendo todas las trayectorias (o siendo el
centro de ellas en el caso especial en el que los valores propios son imaginarios
puros).
El origen del plano de fase es el punto de equilibrio de (6.45), que definimos
a continuaci
on.
Definici
on 6.2 Punto de Equilibrio de Sistemas Continuos
x
es un Punto de Equilibrio de un sistema descrito por la ecuaci
on diferencial
x = f (x) si derivada es cero, es decir, si f (
x) = 0
Si la matrix A en (6.45) es no singular, el u
nico punto de equilibrio de (6.45)
es el origen del plano de fase. Lo anterior se demuestra al notar que un punto
de equilibrio x
es la soluci
on del sistema de ecuaciones A
x = 0, que tiene una
u
nica soluci
on en x
= 0 si y s
olo si A es no singular.
Si la matriz A en (6.45) es singular pueden existir infinitos puntos de equilibrio, y los retratos de fase ser
an diferentes a los contemplados en las figuras
6.11 y 6.12. Estos casos no se considerar
an en este curso.

6.4.2.

Espacio de estado

Dada una ecuaci


on de la forma (6.36), podemos definir el conjunto formado
por todas las soluciones de (6.36). Este conjunto forma un espacio vectorial conocido como el espacio de estado, tal como se especifica en el siguiente teorema.
Teorema 6.1 Dada una ecuaci
on de la forma (6.36), el conjunto de todas las
soluciones forma un espacio vectorial sobre el campo C con las operaciones
usuales.
Demostraci
on 6.1 El conjunto de todas las soluciones de (6.36) es un subconjunto
del espacio vectorial formado por las funciones vectoriales continuas de orden n. Por
lo tanto, s
olo es necesario demostrar que el conjunto es cerrado bajo las operaciones
usuales de suma de funciones y producto por escalar.
Sup
ongase dos funciones x1 (t) y x2 (t) que son soluci
on de (6.36).
x 1 (t) = Ax1 (t)

x 2 (t) = Ax2 (t)

Podemos multiplicar estas ecuaciones por cualesquiera escalares 1 , 2 C y sumarlas


1 x 1 (t) = 1 Ax1 (t)
2 x 2 (t) = 2 Ax2 (t)
d
[1 x1 (t) + 2 x2 (t)] = A(1 x1 (t) + 2 x2 (t))
dt
176

6.4. SISTEMAS CONTINUOS LIBRES

1.0

1.0

0.8

0.8

0.6

0.6

0.4

0.4

0.2

0.2
.

-0.2

-0.2

-0.4

-0.4

-0.6

-0.6

-0.8

-0.8

-1.0

-1.0
-1.0

-0.8

A=

-0.6

-0.4

0
2

-0.2

1
3

0.2

0.4

J=

0.6

0.8

1
0

1.0

0
2

-1.0

-0.8

-0.6

A=

1.0

1.0

0.8

0.8

0.6

0.6

0.4

0.4

0.2

-0.4

-0.2

0
2

1
3

0.2

0.4

J=

0.6

1
0

0.8

1.0

0
2

0.2
.

-0.2

-0.2

-0.4

-0.4

-0.6

-0.6

-0.8

-0.8

-1.0

-1.0
-1.0

A=

-0.8

-0.6

0
1

-0.4

-0.2

1
1

0.2

J=

0.4

0.6

0.8

0.5
0.87

1.0

0.87
0.5

-1.0

A=

1.0

1.0

0.8

0.8

0.6

0.6

0.4

-0.8

-0.6

0
1

-0.4

1
1

-0.2

0.2

J=

0.4

0.6

0.8

0.5
0.87

1.0

0.87
0.5

0.4

0.2

0.2
.

-0.2

-0.2

-0.4

-0.4

-0.6

-0.6

-0.8

-0.8

-1.0

-1.0
-1.0

-0.8

A=

-0.6

0
1

-0.4

-0.2

1
0

0.2

J=

0.4

0.6

j
0

0.8

0
j

1.0

-1.0

-0.8

A=

-0.6

0
2

-0.4

-0.2

1
1

Figura 6.13: Ejemplos Retratos de Fase

177

0.2

J=

0.4

0.6

1
0

0.8

0
2

1.0

OSCAR G. DUARTE

Esta expresi
on demuestra que cualquier combinaci
on lineal de soluciones de (6.36)
es tambien una soluci
on de (6.36), es decir, es cerrada bajo la suma y el producto
por escalar, y por lo tanto forma un espacio vectorial.
Los siguientes son algunos conceptos importantes asociados al Espacio de
Estado. En todos los casos se ha supuesto que A es no singular y de tama
no
n n:
Dimensi
on del Espacio de Estado: El espacio vectorial tiene una dimensi
on igual al rango de la matriz A en (6.36). La dimensi
on de es n.
Soluciones linealmente independientes: Las soluciones de (6.36) dependen
de las condiciones iniciales. Si se utilizan dos condiciones iniciales linealmente independientes, las soluciones que se obtienen tambien son linealmente independientes. Por el contrario, Si se utilizan dos condiciones iniciales linealmente dependientes, las soluciones que se obtienen tambien son
linealmente dependientes.
Base del espacio de estado: Una base de estar
a formada por n soluciones de (6.36) linealmente independientes. Denotemos estas funciones por
1 (t), 2 (t), , n (t). Estas soluciones pueden obtenerse seleccionando n
condiciones iniciales linealmente independientes.
Matriz Fundamental: Una matriz (t) que tenga n columnas formadas por
n soluciones de (6.36) linealmente ndependientes se denomina una Matriz
Fundamental de (6.36).


(t) = 1 (t) 2 (t) n (t)
Bases y vectores propios: Si la matriz A en (6.36) tiene n vectores propios
linealmente independientes, entonces estos pueden escogerse como el juego
de n condiciones iniciales que se necesitan para construir una base de .
Este cambio de base es equivalente a la obtenci
on de la Forma can
onica
de Jordan de A.
Ejemplo 6.30 Sup
ongase el sistema dinamico

 


x 1 (t)
1.5 0.5
x1 (t)
=
x 2 (t)
0.5 1.5 x2 (t)
que es de la forma (6.36). Los valores propios de la matriz A son 1 = 1 y
2 = 2, y unos vectores propios asociados a ellos son:
 
 
1
1
v2 =
v1 =
1
1
de tal manera que la forma can
onica de Jordan y la matriz modal son




1 0
1 1
J=
M=
0 2
1 1
178

6.4. SISTEMAS CONTINUOS LIBRES

La matriz eAt es la siguiente:



(0.5et + 0.5e2t )
At
e =
(0.5et 0.5e2t )

(0.5et 0.5e2t )
(0.5et + 0.5e2t )

y por lo tanto la soluci


on de la ecuaci
on diferencial, para unas condiciones iniciales
x10 y x20 es


(0.5et + 0.5e2t )x10 + (0.5et 0.5e2t )x20
x(t) =
(0.5et 0.5e2t )x10 + (0.5et + 0.5e2t )x20


et (0.5x10 + 0.5x20 ) + e2t (0.5x10 0.5x20 )


x(t) = t
e (0.5x10 + 0.5x20 ) + e2t (0.5x10 + 0.5x20 )

El retrato de fase del sistema se muestra en la figura 6.14. Cada trayectoria


del retrato de fase es una soluci
on de la ecuaci
on diferencial para unas ciertas
condiciones iniciales. De esas trayectorias se destacan 2 que corresponden a lneas
rectas. No es casualidad que esas trayectorias rectas coincidan con los vectores
propios v1 y v2 . Veamos:
Si seleccionamos como condiciones iniciales las mismas coordenadas del vector
propio v1 , es decir, si hacemos x10 = 1 y x20 = 1 la soluci
on de la ecuaci
on sera

  t
  t 
x (t)
e (0.5 + 0.5) + e2t (0.5 0.5)
e
1 (t) = 1
= t
= t
x2 (t)
e (0.5 + 0.5) + e2t (0.5 + 0.5)
e
Es decir, se encuentra que x1 (t) = x2 (t) lo que corresponde a una recta en el
plano de fase. Ademas, la dinamica del sistema s
olo depende de terminos e t , es
decir, s
olo depende del valor propio 1 al cual esta asociado v1 . Al seleccionar como
condici
on inicial un punto del primer vector propio, toda la dinamica del sistema
depende exclusivamente del primer valor propio.
Un resultado similar obtendremos si seleccionamos como condiciones iniciales las
mismas coordenadas del vector propio v2 , es decir, si hacemos x10 = 1 y x20 = 1.
La soluci
on de la ecuaci
on sera

  t
  2t 
x1 (t)
e (0.5 0.5) + e2t (0.5 + 0.5)
e
2 (t) =
= t
=
x2 (t)
e (0.5 0.5) + e2t (0.5 0.5)
e2t
Es decir, se encuentra que x1 (t) = x2 (t) lo que corresponde a otra recta en el
plano de fase. Ademas, la dinamica del sistema s
olo depende de terminos e 2t , es
decir, s
olo depende del valor propio 2 al cual esta asociado v2 . Al seleccionar como
condici
on inicial un punto del segundo vector propio, toda la dinamica del sistema
depende exclusivamente del segundo valor propio.
Hay otra forma de comprender estos resultado: Sup
ongase que en alg
un instante
(por ejemplo en t = 0) el vector de estado x es un vector propio del primer valor
propio 1 ; su derivada podra calcularse como x = Ax, pero como es un vector
propio, entonces x = Ax = 1 x. En otras palabras, la derivada sera un vector con
la misma direcci
on de x y por lo tanto el sistema evolucionara en esa direcci
on, que
es justamente la del vector propio.
179

OSCAR G. DUARTE

1.0
0.8
0.6
0.4
0.2
.

0
0.2
0.4
0.6
0.8
1.0
1.0

0.8

0.6

0.4

0.2

0.2

0.4

0.6

0.8

1.0

Figura 6.14: Retrato de Fase de un Ejemplo

Las dos soluciones que se han obtenido 1 (t) y 2 (t) son linealmente independientes, y por lo tanto sirven como base del espacio de estado . Construimos la
matriz fundamental
 t



e
e2t
(t) = 1 (t) 2 (t) = t
e
e2t

Lo que se ha hecho es equivalente a efectuar un cambio de base en el plano


de fase, tomando como nueva base la formada por los vectores propios. El nuevo
retrato de fase se muestra en la figura 6.15

6.4.3.

Matriz de transici
on de estado

Definimos la matriz de transici


on de estado (t2 , t1 ) como la matriz quepermite obtener el estado en el tiempo t2 a partir del estado en el tiempo t1
mediante la expresi
on 5 :
x(t2 ) = (t2 , t1 )x(t1 )
(6.46)
Para un sistema como (6.36) es posible obtener (t2 , t1 ) calculando x(t1 ) y
x(t2 ):
x(t1 ) = eAt1 x(0)
5 Una definici
on alternativa que es equivalente emplea la matriz fundamental: (t 2 , t1 ) =
(t1 )1 (t1 )

180

6.5. SISTEMAS DISCRETOS LIBRES

1.0
0.8
0.6
0.4
0.2
.

0
0.2
0.4
0.6
0.8
1.0
1.0

0.8

0.6

0.4

0.2

0.2

0.4

0.6

0.8

1.0

Figura 6.15: Retrato de Fase de un Ejemplo en la base de los vectores propios

x(t2 ) = eAt2 x(0)


x(0) = (eAt1 )1 x(t1 ) = eAt1 x(t1 )
x(t2 ) = eAt2 eAt1 x(t1 )
x(t2 ) = eA(t2 t1 ) x(t1 )
(t2 , t1 ) = eA(t2 t1 )

6.5.

(6.47)

Sistemas discretos libres

Abordamos ahora el an
alisis de la ecuaci
on (6.22) con el sistema libre (sin
entradas), es decir estudiamos la ecuaci
on
x(k + 1) = Ax(k)

(6.48)

La ecuaci
on matricial (6.48) recuerda la ecuaci
on escalar
x(k + 1) = ax(k)
cuya soluci
on es
x(k) = x(0)ak
181

(6.49)

OSCAR G. DUARTE

debido a que
ak+1 = aak

x(0)a0 = x(0)

(6.50)

Al igual que en el caso continuo, nos preguntamos si al reemplazar el escalar


a por lamatriz A, y la variable x por el vector de variables x se mantienen las
relaciones (6.50) y asi encontrar una soluci
on de (6.48) similar a (6.49).
Evidentemente
Ak+1 = AAk
x(0)A0 = x(0)
(6.51)
En consecuencia la soluci
on de (6.48) es
x(k) = Ak x(0)

(6.52)

En (6.52) x(0) es el vector que contiene las condiciones iniciales de x(k). Por
otra parte, es posible calcular Ak por diversos metodos, de los cuales destacamos
los siguientes
Definici
on: Podemos emplear la definici
on de Ak directamente:
Ak = AAA A

k veces

(6.53)

Este metodo no es pr
actico, debido a la dificultad de calcular Ak ; sin
embargo, en algunos casos especiales este c
alculo es sencillo (matrices diagonales)
Forma can
onica de Jordan: Si se ha obtenido la Forma can
onica de Jordan
de la matriz A, entonces se tienen dos matrices J y M tales que
J = M1 AM

A = MJM1

y por lo tanto Ak puede calcularse asi:


Ak = MJk M1

(6.54)

La ventaja de emplear (6.54) radica en que J es una matriz diagonal por


bloques, y por lo tanto Jk es m
as f
acil de calcular, especialmente si J es
completamente diagonal
Transformada Z: Podemos obtener la soluci
on de (6.48) empleando la transformada Z, y asi deducir el valor de Ak .
Z {x(k + 1)} = Z {Ax(k)} =
zx(z) zx(0) = Ax(z)

zx(z) Ax(z) = zx(0)


(zI A)x(z) = zx(0)

x(z) = z(zI A)1 x(0)




x(k) = Z 1 {x(z)} = Z 1 z(zI A)1 x(0)


x(k) = Z 1 z(zI A)1 x(0) = Ak x(0)


Ak = Z 1 z(zI A)1
182

(6.55)

6.6. SISTEMAS CONTINUOS EXCITADOS

Jordan y Transformada Z: Pueden combinarse (6.54) y (6.55) para obtener




Ak = MZ 1 z(zI J)1 M1
(6.56)

6.5.1.

Matriz de transici
on de estado

Definimos la Matriz de Transici


on de Estado (k2 , k1 ) como la matriz que
permite obtener el estado en el tiempo k2 a partir del estado en el tiempo k1
mediante la expresi
on
x(k2 ) = (k2 , k1 )x(k1 )
(6.57)
Para un sistema como (6.48) es posible obtener (k2 , k1 ) calculando x(k1 )
y x(k2 ):
x(k1 ) = Ak1 x(0)
x(k2 ) = Ak2 x(0)
x(0) = (Ak1 )1 x(k1 ) = Ak1 x(k1 )
x(k2 ) = Ak2 Ak1 x(k1 )
x(k2 ) = A(k2 k1 ) x(k1 )
(k2 , k1 ) = A(k2 k1 )

6.6.

Sistemas continuos excitados

Estudiamos ahora el sistema continuo con excitaci


on, es decir el sistema
descrito por (6.58)
x(t)

= Ax(t) + Bu(t)
y(t) = Cx(t) + Du(t)

(6.58)

Para ello, aplicamos transformada de Laplace a cada lado de las ecuaciones


sx(s) x(0) = Ax(s) + Bu(s)

y(s) = Cx(s) + Du(s)

(6.59)

En la primera ecuaci
on podemos despejar x(s)
sx(s) Ax(s) = x(0) + Bu(s)
(sI A)x(s) = x(0) + Bu(s)
x(s) = (sI A)1 x(0) + (sI A)1 Bu(s)
183

(6.60)

OSCAR G. DUARTE

Ahora podemos incorporar (6.60) en la segunda ecuaci


on de (6.59)
y(s) = C (sI A)

x(0) + C ((sI A)

Bu(s) + Du(s)



y(s) = C(sI A)1 x(0) + C(sI A)1 B + D u(s)
|
{z
} |
{z
}
Rta de entrada cero

(6.61)

Rta de estado cero

En (6.61) se observa que la respuesta y(s) tiene dos componentes6 :


Respuesta de estado cero: Es la primera parte de la ecuaci
on (6.61). Depende de las entradas u(s) y no de las condiciones iniciales; de hecho, es
la respuesta que tiene el sistema si las condiciones iniciales son cero, es
decir, si su estado inicial es cero (de all su nombre).
Respuesta de entrada cero: Es la segunda parte de la ecuaci
on (6.61). Depende de las condiciones iniciales y no de las entradas u(s); de hecho, es la
respuesta que tiene el sistema si las entradas son cero (de all su nombre).

6.6.1.

Matriz de funciones de transferencia

Si se consideran condiciones iniciales nulas, la ecuaci


on (6.61) se convierte
en



y(s) = C(sI A)1 B + D u(s)

Podemos definir la Matriz de Funciones de Transferencia como la matriz de


relaciona las entradas y las salidas, cuando las condiciones iniciales son nulas:
y(s) = G(s)u(s)| C.I.=0

G(s) = C(sI A)1 B + D

La matriz G(s) en (6.62) es una matriz


G11 (s) G12 (s)


y1 (s)
y2 (s) G21 (s) G22 (s)

.. = ..
..
. .
.
yq (s)

Gq1 (s)

Gq2 (s)

(6.62)

q p (p entradas y q salidas):

u1 (s)
G1p (s)

G2p (s)
u2 (s)

.
..
..
.
. ..
Gqp (s)

up (s)

El elemento Gij (s) de la matriz G(s) muestra c


omo afecta la entrada uj (s)
a la salida yi (s).
En general, una entrada uj (s) afectar
a a todas las salidas y(s). No obstante,
existe un caso especial en que esto no es as: sup
ongase que existe el mismo n
umero de entradas que de salidas p, y que la matriz de funciones de transferencia
es diagonal:

y1 (s)
G11 (s)
0

0
u1 (s)
y2 (s) 0

G22 (s)
0


u2 (s)
.. = ..

..
.
.
.
..
.. ..
. .

.
yp (s)

6 Comp
arese

Gpp (s)

up (s)

con las definiciones de la p


agina 45 para sistemas de una entrada y una salida

184

6.7. SISTEMAS DISCRETOS EXCITADOS

En este caso especial, la entrada uj (s) s


olo afecta la salida yj (s). Se dice entonces
que el sistema es desacoplado.

6.6.2.

Variables de estado en el tiempo

Podemos obtener el comportamiento en el tiempo de las variables de estado


aplicando la transformada inversa de Laplace a (6.60)




x(t) = L1 [x(s)] = L1 (sI A)1 x(0) + L1 (sI A)1 Bu(s)

La primera de las transformadas corresponde a eAt = (t, 0) como puede


verse en (6.43) y (6.47). N
otese que la segunda transformada incluye el producto
de dos funciones de s. El resultado es:
Z t
x(t) = (t, 0)x(0) +
(t, )Bu( )d
(6.63)
0

En la secci
on 6.7.2 buscaremos aproximarnos a una interpretaci
on de (6.63)
apoy
andonos en el caso discreto.

6.7.

Sistemas discretos excitados

Estudiamos ahora el sistema discreto con excitaci


on, es decir el sistema descrito por (6.64)
x(k + 1) = Ax(k) + Bu(k)
y(k) = Cx(k) + Du(k)

(6.64)

Para ello, aplicamos transformada Z a cada lado de las ecuaciones


zx(z) zx(0) = Ax(z) + Bu(z)

y(z) = Cx(z) + Du(z)

(6.65)

En la primera ecuaci
on podemos despejar x(z)
zx(z) Ax(z) = zx(0) + Bu(z)
(zI A)x(z) = zx(0) + Bu(z)

x(z) = z(zI A)1 x(0) + (zI A)1 Bu(z)

(6.66)



y(z) = Cz(zI A)1 x(0) + C(zI A)1 B + D u(z)
|
{z
} |
{z
}

(6.67)

Ahora podemos incorporar (6.66) en la segunda ecuaci


on de (6.65)


1
1
y(z) = C z(zI A) x(0) + (zI A) Bu(z) + Du(z)
Rta de entrada cero

Rta de estado cero

De forma an
aloga al caso continuo, (6.67) muestra que la respuesta y(z)
tiene dos componentes7 :
7 Comp
arese

con las definiciones de la p


agina 46 para sistemas de una entrada y una salida

185

OSCAR G. DUARTE

Respuesta de estado cero: Es la primera parte de la ecuaci


on (6.67). Depende de las entradas u(z) y no de las condiciones iniciales; de hecho, es
la respuesta que tiene el sistema si las condiciones iniciales son cero, es
decir, si su estado inicial es cero (de all su nombre).
Respuesta de entrada cero: Es la segunda parte de la ecuaci
on (6.67). Depende de las condiciones iniciales y no de las entradas u(z); de hecho, es la
respuesta que tiene el sistema si las entradas son cero (de all su nombre).

6.7.1.

Matriz de funciones de transferencia

Si se consideran condiciones iniciales nulas, la ecuaci


on (6.67) se convierte
en



y(z) = C(zI A)1 B + D u(z)

Podemos definir la Matriz de Funciones de Transferencia como la matriz de


relaciona las entradas y las salidas, cuando las condiciones iniciales son nulas:
y(z) = G(z)u(z)|C.I.=0

G(z) = C(zI A)1 B + D

La matriz G(z) en (6.68) es una matriz


y1 (z)
G11 (z) G12 (z)
y2 (z) G21 (z) G22 (z)


.. = ..
..
. .
.
yq (z)

(6.68)

q p (p entradas y q salidas):

G1p (z)
u1 (z)

G2p (z)
u2 (z)

.
.
..
.. ..

Gq1 (z) Gq2 (z) Gqp (z)

up (z)

El elemento Gij (z) de la matriz G(z) muestra c


omo afecta la entrada uj (z)
a la salida yi (z).
En general, una entrada uj (z) afectar
a a todas las salidas y(z). No obstante,
existe un caso especial en que esto no es as: sup
ongase que existe el mismo n
umero de entradas que de salidas p, y que la matriz de funciones de transferencia
es diagonal:

u1 (z)
G11 (z)
0

0
y1 (z)

y2 (z) 0
G22 (z)
0
u2 (z)

.. = ..
.
..
.
..
.. ..

. .
.
.
yp (z)

Gpp (z)

up (z)

En este caso especial, la entrada uj (z) s


olo afecta la salida yj (z). Se dice entonces
que el sistema es desacoplado.

6.7.2.

Variables de estado en el tiempo

Podemos obtener el comportamiento en el tiempo de las variables de estado


aplicando la Transformada inversa Z a (6.66)




x(k) = Z 1 [x(z)] = Z 1 z(zI A)1 x(0) + L1 (zI A)1 Bu(z)
186


6.8. INTRODUCCION
AL CONTROL POR
VARIABLE DE ESTADO

La primera de las transformadas corresponde a Ak = (k, 0) como puede


verse en (6.55) y (6.57). N
otese que la segunda transformada incluye el producto
de dos funciones de z. El resultado es:
x(k) = (k, 0)x(0) +

k1
X

(k, l + 1)Bu(l)

(6.69)

l=0

La ecuaci
on (6.63) y (6.69) son an
alogas; sin embargo, es m
as f
acil de analizar
(6.69). Para ello, vamos a expandir la sumatoria:
x(k) = (k, 0)x(0) + (k, 1)Bu(0) + (k, 2)Bu(1) + + (k, k)Bu(k 1)
x(k) = (k, 0)x(0) + (k, 1)Bu(0) + (k, 2)Bu(1) + + Bu(k 1) (6.70)
La ecuaci
on (6.70) muestra que x(k) esta formada por aportes de las condiciones iniciales x(0), y de las entradas u(k). Adem
as muestra cu
al es el aporte
exacto del valor de la entrada en un instante de tiempo especfico: por ejemplo,
la entrada en k = 1, que es u(1) aporta a la construcci
on de x(k) justamente
(k, 2)Bu(1).
Un an
alisis similar podra hacerse para el caso continuo con la ecuaci
on
(6.63); para ello debe emplearse la funci
on impulso (t ). Debido a que este
an
alisis no aporta ning
un concepto nuevo, se ha omitido en este texto.

6.8.

Introducci
on al control por
variable de estado

El esquema b
asico de control por variable de estado se muestra en la figura
6.16. La estrategia, que es igualmente v
alida para sistemas continuos y discretos
consiste en utilizar las variables de estado x para realimentar el sistema mediante
una matriz K, y comparar el estado con unas se
nales de referencia r, de donde
se tiene que
u = r + Kx
(6.71)
Para que (6.71) tenga sentido, las dimensiones de las variables involucradas
deben ser las siguientes:
up1 = rp1 + Kpn xn1
Podemos emplear los diagramas de bloques de la representaci
on en variable
de estado para sistemas continuos y discretos que se muestran en las figuras 6.5
y 6.6 para complementar la figura 6.16. El resultado se muestra en las figuras
6.17 y 6.18
Combinando las ecuaciones (6.21) y (6.22) con (6.71) se obtienen las ecuaciones de estado para sistemas continuos y discretos con realimentaci
on por
variable de estado:
187

OSCAR G. DUARTE

Sistema

+
x
K
Figura 6.16: Realimentaci
on por Variable de Estado

D
r(s)+
+

u(s)

sx(s)

1/s

x(s)
C

y(s)

+
A

Figura 6.17: Realimentaci


on por Variable de Estado de un sistema contnuo

188


6.8. INTRODUCCION
AL CONTROL POR
VARIABLE DE ESTADO

D
r(z)+
+

u(z)

zx(z)

1/z

x(z)
C

y(z)

+
A

Figura 6.18: Realimentaci


on por Variable de Estado de un sistema discreto

(
(

x(t)

= Ax(t) + B[r(t) + Kx(t)]


y(t) = Cx(t) + D[r(t) + Kx(t)]

x(k + 1) = Ax(k) + B[r(k) + Kx(k)]


y(k) = Cx(k) + D[r(k) + Kx(k)]

que pueden reescribirse como


(
x(t)

= [A + BK]x(t) + Br(t)

y(t) = [C + DK]x(t) + Dr(t)

x(k + 1) = [A + BK]x(k) + Br(k)


y(k) = [C + DK]x(k) + Dr(k)

Se obtienen entonces unos nuevos sistemas para los que las entradas son r,
las salidas son u y las variables de estado son x (ver figura 6.16). Si definimos
= A + BK y C
= C + DK las ecuaciones de estos nuevos sistemas ser
A
an
(

= A + BK
x(t)

= Ax(t)
+ Br(t)
A
(6.72)

= C + DK
y(t) = Cx(t)
+ Dr(t)
C
(

= A + BK
x(k + 1) = Ax(k)
+ Br(k)
A
(6.73)

y(k) = Cx(k) + Dr(k)


C = C + DK
Dado que el comportamiento de los sistemas descritos por (6.72) y (6.73)
se desprende que la estrategia de control
dependen de los valores propios de A,
189

OSCAR G. DUARTE

por variable de estado consiste en establecer un sistema como el de la figura 6.16


en (6.72) y (6.73)
y seleccionar una matriz K tal que los valores propios de A
sean los deseados.
Como este no es un texto de control, no abordaremos el problema de c
omo
obtener esa matriz K. Sin embargo, resaltamos que esta estrategia plantea al
menos dos interrogantes:
es decir,
1. Pueden asignarse con total libertad los valores propios de A?,
dado un conjunto de valores propios deseados, existir
a siempre una matriz
dichos valores propios?
K que permita asignarle a A
2. Dado que las variables de estado no necesariamente tienen sentido fsico,
y en caso de tenerlo no necesariamente son medibles, Como pueden conocerse los valores de las variables de estado para implementar el esquema
de la figura 6.16?
Las secciones 6.8.1 y 6.8.2 intentan dar respuesta a estas preguntas.

6.8.1.

Controlabilidad

La noci
on de controlabilidad de un sistema est
a asociada con la posibilidad
de hacer que sus variables de estado tomen cualquier valor deseado, no importa
cuales sean las condiciones iniciales, en un tiempo finito.
Definici
on 6.3 Controlabilidad
Un sistema dinamico es controlable en t1 si para cualquier estado x(t1 ) y cualquier
estado deseado xd es posible encontrar una entrada u(t) que aplicada entre t 1 y t2
produce x(t2 ) = xd , con t2 <
Ejemplo 6.31 Considerese el circuito de la figura 6.19, en el que la variable de entrada es v(t) y la variable de salida es vx (t). Es claro que para escribir las ecuaciones
de estado de ese circuito podemos escoger como variable de estado la tensi
on en el
condensador vC (t).
Debido a la simetra del circuito, si las condiciones iniciales son nulas (v C (0) =
0), la tensi
on en el condensador siempre sera cero, sin importar que valor tome la
fuente v(t). Por lo tanto, no es posible modificar a nuestro antojo el valor de la
variable de estado, y en consecuencia el sistema es no controlable.
La definici
on 6.3 no brinda por s s
ola un mecanismo f
acil para determinar
si un sistema es controlable o no. No obstante, podemos aplicar un test de
controlabilidad para determinar si un sistema din
amico lineal invariante en el
tiempo es o no controlable.
Test de controlabilidad
Para determinar si un sistema como (6.21) o como (6.22) es o no controlable,
con A una matriz n n y B una matriz n p, se construye la matriz de
190


6.8. INTRODUCCION
AL CONTROL POR
VARIABLE DE ESTADO

1
v(t)

1
1F

Figura 6.19: Circuito

controlabilidad V y se verifica su rango:




V = B AB A2 B A3 B An1 B
El sistema es controlable s y s
olo si rank(V) = n

(6.74)

Anotaciones al concepto de Controlabilidad


1. La definici
on 6.3 es realmente la definici
on de controlabilidad de estado,
dado que se refiere a la posibilidad de obtener cualquier estado. Existe una
definici
on semejante para la controlabilidad de salida, que no se aborda en
este texto.
2. El test de controlabilidad (6.74) pone de manifiesto que la controlabilidad
s
olo depende de las matrices A y B, es decir, s
olo depende de la ecuaci
on
de estado y no de la ecuaci
on de salida
3. Para determinar la controlabilidad de un sistema como(6.21) no es necesario resolver la ecuaci
on diferencial. Se realiza un an
alisis cualitativo de
la ecuaci
on.
4. Si un sistema es controlable, entonces con un esquema de control por
realimentaci
on de variable de estado como el de la figura 6.16 siempre es
en (6.72) o en
posible encontrar una matriz K real para que la matriz A
(6.73) tenga los valores propios deseados8 .
5. El test es igualmente v
alido para sistemas continuos y discretos.

6.8.2.

Observabilidad

Al observar la estrategia de control por Realimentaci


on de Variable de Estado
sugerida en la figura 6.16 surge la cuesti
on de c
omo medir las variables de estado
x, ya que es posible que estas no tengan sentido fsico, o que no sean medibles.
8 Se supone en esta afirmaci
on que los valores propios deseados complejos aparecen en
parejas conjugadas.

191

OSCAR G. DUARTE

Sistema

+
Observador
x

Figura 6.20: Realimentaci


on por Variable de Estado con Observador

Para solucionar este problema se plantea la utilizaci


on de un estimador de
estado, u observador de estado, que es un elemento que intenta estimar el estado
del sistema a partir de mediciones de las entradas y salidas al sistema (se supone
que estas s tienen sentido fsico y son medibles), tal como se observa en la figura
6.20, en la que x
es la estimaci
on que el observador hace del estado x
La noci
on de observabilidad de un sistema est
a asociada con la posibilidad
de determinar el estado del sistema a partir de mediciones de sus entradas y
salidas durante un tiempo finito, es decir, con la posibilidad de construir un
observador.
Definici
on 6.4 Observabilidad
Un sistema dinamico es observable en t1 si es posible conocer el estado x(t1 )
a partir de mediciones de las entradas u(t) y las salidas y(t) durante el periodo
comprendido entre t1 y t2 , con t2 <
Ejemplo 6.32 Considerese nuevamente el circuito de la figura 6.19, en el que la
variable de entrada es v(t), la variable de salida es v x (t) y la variable de estado la
tensi
on en el condensador vC (t).
Es claro que a partir de mediciones de v(t) y vx (t) (que son iguales) no es posible
conocer las condiciones iniciales del condensador y en consecuencia el sistema es no
observable.
La definici
on 6.4 no brinda por s s
ola un mecanismo f
acil para determinar
si un sistema es observable o no. No obstante, podemos aplicar un test de observabilidad para determinar si un sistema din
amico lineal invariante en el tiempo
es o no observable.
Test de observabilidad
Para determinar si un sistema como (6.21) o como (6.22) es o no observable,
con A una matriz n n y C una matriz q n, se construye la matriz de
192


6.8. INTRODUCCION
AL CONTROL POR
VARIABLE DE ESTADO

observabilidad

C
CA

CA2

S = CA3

..

.
CAn1

S y se verifica su rango:

El sistema es observable s y s
olo si rank(S) = n

(6.75)

Anotaciones al concepto de observabilidad


1. El test de observabilidad (6.75) pone de manifiesto que la controlabilidad
s
olo depende de las matrices A y C.
2. Para determinar la observabilidad de un sistema como(6.21) no es necesaro
resolver la ecuaci
on diferencial. Se realiza un an
alisis cualitativo de la
ecuaci
on.
3. Si un sistema es observable, entonces puede construirse un observador
como el que se sugiere en la figura 6.20. En este texto no se aborda el
problema de c
omo construir dicho observador.
4. El test es igualmente v
alido para sistemas continuos y discretos.
Ejemplo 6.33 Tomemos nuevamente el circuito de la figura 6.19. Para escribir las
ecuaciones que rigen el sistema, n
otese que el equivalente Thevenin del circuito visto
por el condensador es una resitencia de valor R, de tal manera que:
vC = RiC = RC

d vC
dt

d
1
vC (t) =
vC (t)
dt
RC
La ecuaci
on de salida es trivial:
vx (t) = v(t)
De tal manera que la representaci
on en variable de estado para el circuito es:

1
vC
v C = RC
vx = v(t)
Es decir, es un sistema como (6.21) con A = 1/RC, B = 0, C = 0, y D = 1.
Las matrices de controlabilidad y observabilidad definidas en (6.74) y (6.75) son:
V = [0]

S = [0]

y por lo tanto tienen rango 0, lo que significa que el sistema es no controlable y no


observable
193

OSCAR G. DUARTE

194

Captulo 7
Introduccion a los sistemas no
lineales

Si bien el objetivo de este curso es el an


alisis de los sistemas din
amicos lineales
invariantes en el tiempo, en este captulo se hace una breve presentaci
on de los
sistemas no lineales, con el prop
osito principal de resaltar:
Que los resultados y las tecnicas presentadas en captulos anteriores tienen
una aplicabilidad limitada a los sistemas lineales.
Que el comportamiento de los sistemas lineales es limitado a un cierto
tipo de respuestas, mientras que los sistemas no lineales pueden tener un
comportamiento de mayor riqueza.
Para ello, hacemos inicialmente una distinci
on entre dos tipos de funciones
no lineales:
No linealidades est
aticas: Se trata de sistemas no lineales sin memoria, es
decir, aquellos cuyas salidas y(t) s
olo dependen de las entradas en ese
mismo instante u(t). La figura 7.1 resume algunas de las no linealidades
est
aticas m
as frecuentes. Algunos de los elementos que se pueden modelar
con este tipo de no linealidades est
aticas son:
V
alvulas de apertura gradual.
Transformadores y motores en regiones de saturaci
on magnetica.
Materiales ferromagneticos en general.
Huelgos en engranajes.
Cilindros hidra
ulicos y neum
aticos con cambio de direcci
on.
Linealizaciones de elementos electricos y electr
onicos.
195

OSCAR G. DUARTE

Saturaciones

Rel
es

Hist
eresis

Zonas Muertas

Zonas Muertas

Trazos Rectos

Figura 7.1: No Linealidades Est


aticas m
as frecuentes

196

7.1. PERDIDA
DE SUPERPOSICICION
Y PROPORCIONALIDAD

No linealidades din
amicas: Se trata de sistemas no lineales con memoria, es
decir, aquellos cuyas salidas y(t) dependen no s
olo de las entradas en ese
mismo instante u(t), sino tambien de sus derivadas o diferencias finitas.
Es decir, consideramos ecuaciones diferenciales y de diferencia de la forma
x(t)

= f (x(t), u(t), t)

x(k + 1) = f (x(k), u(k), k)

En donde el vector u contiene las entradas al sistema, x las variables de


estado, y f es un funci
on vectorial no lineal (no necesariamente lineal).
Las secciones 7.1 a 7.8 se refieren a este tipo de no linealidades

7.1.

P
erdida de superposicici
on y proporcionalidad

Las propiedades de superposici


on y proporcionalidad son inherentes a los
sistemas lineales. Estas dos propiedades se pierden en los sistemas no lineales.
Ejemplo 7.1 Consideremos un sistema continuo descrito por la ecuaci
on (7.1) que
no es lineal debido al termino x2
x + x2 = u(t)

(7.1)

En la figura 7.2 se muestra el comportamiento del sistema con = 1 y condiciones iniciales nulas ante dos entradas diferentes:
Se ha simulado la salida y1 (t) con una entrada u1 (t) = (t).
Se ha simulado la salida y2 (t) con una entrada u2 (t) = 4(t).
N
otese que aunque se ha multiplicado por 4 la entrada, la salida no esta multiplicada por 4; de hecho, el valor estacionario tan s
olo se ha duplicado, con lo que
se demuestra que el sistema no tiene la propiedad de proporcionalidad.
Ahora trabajamos con el sistema suponiendo = 0.1 (es decir, haciendo mas peque
no el efecto no lineal) y manteniendo condiciones iniciales nulas. Se ha simulado
el comportamiento del sistema en tres condiciones diferentes:
Se ha simulado la salida y3 (t) con una entrada u3 (t) = (t).
Se ha simulado la salida y4 (t) con una entrada u4 (t) = sin(t)(t).
Se ha simulado la salida y5 (t) con una entrada u5 (t) = (t) + sin(t)(t).
La figura 7.3 muestra y3 (t), y4 (t), y3 (t) + y4 (t) y y5 (t). Se destaca como la
suma y3 (t) + y4 (t) es diferente de la salida que se obtiene cuando la entrada es
u3 (t) + u4 (t), con lo que se demuestra que el sistema no tiene la propiedad de
superposici
on.
197

OSCAR G. DUARTE

3.0

2.5

y2 (t)

2.0

1.5

y1 (t)

1.0

0.5

0.0
0

10

Figura 7.2: Sistema No Lineal con dos entradas escal


on

y3 (t) + y4 (t)

y3 (t)

y5 (t)

y4 (t)

1
0

10

Figura 7.3: Sistema No Lineal con una entrada escal


on y una sinusoide

198


7.2. MULTIPLES
PUNTOS DE EQUILIBRIO

7.2.

M
ultiples puntos de equilibrio

Un punto de equilibrio de un sistema continuo es un punto x0 tal que x(t)

en
ese punto valga cero, ya que en esas condiciones el sistema no cambiar
a nunca
de estado.
Por otra parte, un punto de equilibrio de un sistema discreto es un punto x0
tal que x(k + 1) = x(k) en ese punto valga cero, ya que en esas condiciones el
sistema no cambiar
a nunca de estado.
Si consideramos un sistema continuo lineal libre de la forma x = Ax, es claro
que el u
nico punto de equilibrio que existe1 corresponde a x = 0, sin embargo,
pueden existir sistemas no lineales con m
as de un punto de equilibrio.
Ejemplo 7.2 Tomemos como ejemplo un pendulo simple de barra rgida como el
de la figura 7.4 cuyas ecuaciones dinamicas son
x 1 = x2
x 2 = a sin(x1 ) bx2

(7.2)

en donde
x1 representa el angulo de giro del pendulo medido respecto a la vertical en
el punto de giro.
x2 representa la velocidad angular.
a = g/l, b = k/m
g es la aceleraci
on de la gravedad.
l es la distancia del punto de giro al centro de gravedad del pendulo.
k es el coeficiente de fricci
on viscosa del punto de giro.
m es la masa del pendulo.
Para que x 1 y x 2 sean cero en (7.2) se necesita que x2 = 0 y sin(x1 ) = 0, es
decir que los puntos de equilibrio son:
 
 




0

2
3
,
,
,
,
0
0
0
0
Este resultado corresponde a nuestra experiencia: el pendulo esta en reposo s
olo
en direcci
on vertical, bien sea hacia arriba o hacia abajo; si esta hacia abajo el angulo
x1 es 0 (que es igual a 2, 4, ) y si esta hacia arriba el angulo x 1 es (que
es igual a , 3, ), y en ambos casos la velocidad angular x 2 es 0.
Para mostrar graficamente la presencia de varios puntos de equilibrio se ha
trazado el retrato de fase del pendulo simple en la figura 7.5 con a = b = 1.
1 Salvo

en los casos especiales en que A es singular.

199

OSCAR G. DUARTE

x1

Figura 7.4: Diagrama del pendulo simple

2.0
1.6
1.2
0.8
0.4


.


0.4
0.8
1.2
1.6
2.0
1

11

Figura 7.5: Retrato de Fase del pendulo simple con a = b = 1

200

7.3. ESTABILIDAD LOCAL

7.3.

Estabilidad local

El concepto de estabilidad est


a asociado con los puntos de equlibrio, es decir
se dice que un punto de equilibrio puede tener un cierto tipo de estabilidad (ser
estable, inestable, un punto de sila, etc.).
Como los sistemas lineales s
olo tienen un punto de equilibrio, se dice que la
estabilidad del sistema es la de ese punto de equilibrio. Debido a que los sistemas
no lineales pueden tener m
as de un punto de equilibrio, ya no es v
alido hablar
de la estabilidad del sistema como un todo, sino que es necesario estudiar la
establidad de cada punto de equilibrio. A este tipo de estabilidad se le denomina
estabilidad local.
Ejemplo 7.3 Consideremos de nuevo el caso del pendulo simple descrito por (7.2)
y cuyo retrato de fase se muestra en la figura 7.5. Para conocer el comportamiento
del sistema en todos los puntos de equilibrio basta con analizarlo en dos de ellos
(un angulo es igual a un angulo 2n):
 
 

0
xb =
xa =
0
0
La figura 7.6 muestra una ampliaci
on del retrato de fase de la figura 7.5 cerca
al punto de equilibrio xa . El retrato de fase resultante es similar al de un sif
on de
un sistema lineal, por lo tanto diremos que xa es un punto de equilibrio del tipo
sif
on, y por lo tanto estable.
Por otra parte, la figura 7.7 muestra una ampliaci
on del retrato de fase de la
figura 7.5 cerca al punto de equilibrio xb . El retrato de fase resultante es similar al
de un punto de silla de un sistema lineal, por lo tanto diremos que x b es un punto
de equilibrio del tipo punto de silla, es decir, es inestable.

7.4.

Orbitas
peri
odicas no sinusoidales

En un sistema lineal la u
nica posibilidad de tener soluciones peri
odicas se da
cuando los valores propios son imaginarios puros; en estos casos las trayectorias
del retrato de fase son elipses y se denominan o
rbitas cerradas del sistema.
En los sistemas no lineales hay otras posibilidades de tener soluciones peri
odicas, que no necesariamente corresponder
an a elipses en los retratos de fase.
Ejemplo 7.4 Sup
ongase un sistema descrito por las ecuaciones de Lotka-Volterra
x 1
x 2

= x1 + x1 x2
= x 2 x 1 x2

(7.3)

La ecuaci
on (7.3) sirve como un modelo simplificado para predecir el crecimiento
de las poblaciones de dos especies en un ambito cerrado en la que una de ellas es
el predador de la otra (la presa). x1 representa la poblaci
on del predador y x2 la
de la presa. La variaci
on de la poblaci
on esta afectada por cuantas veces se cruzan
201

OSCAR G. DUARTE

0.7

0.5

0.3

0.1

0.1

0.3

0.5

0.7
4.8

5.2

5.6

6.0

6.4

6.8

7.2

7.6

8.0

Figura 7.6: Retrato de Fase del pendulo simple alrededor de un punto de equilibrio
del tipo sif
on

0.7

0.5

0.3

0.1
.

0.1

0.3

0.5

0.7
2.1

2.5

2.9

3.3

3.7

4.1

4.5

Figura 7.7: Retrato de Fase del pendulo simple alrededor de un punto de equilibrio
del tipo punto de silla

202

7.5. CICLOS L
IMITE

1
1

Figura 7.8: Retrato de Fase del Sistema de Lotka-Volterra

miembros de una especie con los de la otra, que se supone que es proporcional al
producto x1 x2 .
La figura 7.8 muestra el retrato de fase del sistema descrito por (7.3). Se nota
un punto de equilibrio en (1, 1) que es un centro, y otro punto de equilibrio en (0, 0)
que es un punto de silla. Ademas, se destacan infinitas soluciones peri
odicas que no
tienen forma de elipse ni estan centradas en (0, 0)

7.5.

Ciclos lmite

En ocasiones las trayectorias del sistema tienden a formar una o


rbita cerrada;
cuando esto sucede se dice que existe un ciclo lmite estable. Tambien se da el
caso en el que las trayectorias se desprenden de una o
rbita cerrada, en cuyo caso
se dice que se existe un ciclo lmite inestable.
Ejemplo 7.5 Sup
ongase un sistema descrito por las ecuaciones:
x 1
x 2

=
x2
= (1 x21 )x2 x2

(7.4)

La ecuaci
on (7.4) representa al Oscilador de Van der Pol, y corresponde a un
oscilador con un amortiguamiento no lineal correspondiente al termino proporcional
a x21 x2 .
203

OSCAR G. DUARTE

4
3

Figura 7.9: Retrato de Fase del Oscilador de Van der Pol con = 1

La figura 7.9 muestra el retrato de fase del sistema descrito por (7.4) con = 1.
N
otese que todas las trayectorias tienden a formar una o
rbita cerrada (marcada en
rojo); esta o
rbita corresponde a un ciclo lmite del sistema.

7.6.

Orbitas
homoclnicas

En un sistema lineal, cuando el punto de equilibrio es del tipo punto de silla,


una trayectoria que inicie en el vector propio inestable viajar
a por ese vector
hasta el infinito.
En algunos sistemas no lineales puede darse un comportamiento especial:
una trayectoria que inicie en un punto de equilibrio del tipo punto de silla
puede llegar a terminar en el mismo punto de equilibrio. Cuando esto sucede,
la trayectoria descrita se denomina una o
rbita homoclnica
Ejemplo 7.6 Sup
ongase un sistema descrito por las ecuaciones:
x 1
x 2

= x2
= kx2 + x1 x31

(7.5)

La ecuaci
on (7.5) representa al Oscilador de Duffing, y corresponde a un oscilador
con una excitaci
on adicional; por ejemplo, (7.5) puede representar a un pendulo
simple como el de la figura 7.4 cuando el angulo es peque
no, y adicionalmente se
ejerce una fuerza proporcional a x31 .
204

7.7. BIFURCACIONES

2.0
1.6
1.2
0.8
0.4
.

0
0.4
0.8
1.2
1.6
2.0
2.0

1.6

1.2

0.8

0.4

0.4

0.8

1.2

1.6

2.0

Figura 7.10: Retrato de Fase del Oscilador de Duffing con k = 0

La figura 7.10 muestra el retrato de fase del sistema descrito por (7.5) con
k = 0 (sin amortiguamiento). El sistema tiene tres puntos de equilibrio: en (1, 0)
y en (1, 0) hay unos puntos de equilbrio del tipo centro; en (0, 0) hay un punto
de equilibrio del tipo punto de silla. En este punto hay dos trayectorias especiales
(en rojo): una de ellas inicia en la direcci
on (1, 1) y despues de dar una vuelta hacia
la derecha regresa al punto (0, 0) desde la direcci
on (1, 1); la otra inicia en la
direcci
on (1, 1) y despues de dar una vuelta hacia la izquierda regresa al punto
(0, 0) desde la direcci
on (1, 1). Estas dos trayectorias son o
rbitas homoclnicas del
sistema.

7.7.

Bifurcaciones

Si las ecuaciones de un sistema din


amico dependen de un par
ametro, es
l
ogico pensar que el comportamiento de dicho sistema dependa del valor de ese
par
ametro. Esto es cierto tanto para sistemas lineales como no lineales.
Sin embargo, las variaciones de comportamiento que puede tener un sistema
lineal son menores en comparaci
on con las que pueden suceder en sistemas no
lineales. Si al variar un par
ametro el comportamiento del sistema cambia estructuralmente (de forma muy notoria), se dice que el par
ametro ha tomado un
valor de bifurcaci
on.
205

OSCAR G. DUARTE

Ejemplo 7.7 Consideremos el sistema descrito por la ecuaci


on
x = ( x2 )x

(7.6)

Para valores negativos de el sistema tendra un u


nico punto de equilibrio en
x = 0, porque es la u
nica condici
on en la que x
= 0. Sin embargo,
si 0 existiran

tres puntos de equilibrio en x1 = 0, x2 = + a, x3 = a. Este cambio es muy


importante, y por lo tanto decimos que en = 0 hay una bifurcaci
on del sistema,
o lo que es igual, que el valor de bifurcaci
on para el parametro es 0.

7.8.

Comportamientos ca
oticos

El comportamiento de un sistema din


amico, lineal o no lineal, depende de
las condiciones iniciales. En los sistemas lineales esta dependencia es suave, es
decir, que si se escogen dos condiciones iniciales cercanas el comportamiento del
sistema ser
a muy parecido.
Existen algunos sistemas no lineales en los que peque
nas variaciones en las
condiciones iniciales desencadenan comportamientos muy diferentes; tales sistemas se denominan ca
oticos.
Ejemplo 7.8 Consideremos el sistema discreto de primer orden descrito por la ecuaci
on:

(2 x)/4 x [0, 18/41)

10x 4
x [18/41, 1/2)
x(k + 1) = f (x(k))
f (x) =
(7.7)

10x 5
x [1/2, 23/41)

(3 x)/4 x [23/41, 1]
f (x) se muestra en la figura 7.11. En la figura 7.12 se muestra el comportamiento
del sistema para tres condiciones iniciales muy cercanas: x a (0) = 0.445 + 1E
11 (en negro), xb (0) = 0.445 + 3E 11 (en azul) y xc (0) = 0.445 + 5E 11
(en rojo). N
otese c
omo a partir de k = 35 el comportamiento del sistema difiere
notablemente aun cuando las tres condiciones iniciales se asemejan mucho. Este
tipo de comportamiento es ca
otico.

206


7.8. COMPORTAMIENTOS CAOTICOS

1.00
0.75
0.50
0.25
0
0

0.25

0.50

0.75

1.00

Figura 7.11: Funci


on discreta que origina un sistema ca
otico

1.0
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0

10

20

30

40

50

Figura 7.12: Respuesta de un sistema discreto ca


otico a tres entradas diferentes:
xa = 0.445 + 1 1011 (negro), xb = 0.445 + 3 1011 (azul) y xc = 0.445 + 5 1011
(rojo)

207

OSCAR G. DUARTE

208

Apendice A
Demostraciones de las
Transformadas de Laplace y Z

A.1.

Propiedades de la Transformada
de Laplace

La transformada de Laplace de una funci


on f (t) f : R R es una funci
on
F (s) F : C C calculada como
Z
F (s) = L {f (t)} =
f (t)est dt
(A.1)
0

Sean f (t), f1 (t), f2 (t) tres funciones cuyas Transformadas de Laplace son,
respectivamente F (s), F1 (s), F2 (s), y a un escalar (real o complejo). Se cumplen
las siguientes propiedades:

A.1.1.

Linealidad:
L {f1 (t) + f2 (t)} = F1 (s) + F2 (s)
L {af (t)} = aF (s)

(A.2)
(A.3)

Demostraci
on A.1 La propiedad de Linealidad de la Trasformada de Laplace se
desprende de la propiedad de Linealidad de la integraci
on. Demostramos primero la
propiedad de superposici
on (A.2).
La Transformada de Laplace de f1 (t) + f2 (t) es, seg
un la definici
on (A.1):
Z
L {f1 (t) + f2 (t)} =
[f1 (t) + f2 (t)]est dt
0

209

OSCAR G. DUARTE

Debido a que la Integraci


on es una operaci
on lineal, podemos separar la integral
de una suma en la suma de las integrales:
Z
Z
L {f1 (t) + f2 (t)} =
f1 (t)est dt +
f2 (t)est dt
0

Las dos integrales corresponden a las transformadas de Laplace de f 1 (t) y f2 (t),


respectivamente, con lo que queda demostrada (A.2)
L {f1 (t) + f2 (t)} = F1 (s) + F2 (s)
Para demostrar A.3 tambien acudimos a la propiedad de linealidad de la integraci
on. La Transformada de Laplace de af (t) es
Z
Z
L {af (t)} =
[af (t)]est dt = a
f (t)est dt = aF (s)
0

A.1.2.

Diferenciaci
on:
L
L

dn f (t)
dtn

df (t)
dt

= sF (s) f (0+ )

= sn F (s)

n1
X

sni1 f (i) (0+ )

(A.4)

(A.5)

i=0

Demostraci
on A.2 Para demostrar A.4 calculamos la Transformada de Laplace de
la derivada df
dt

 Z 

df (t)
df st
L
=
dt
e
dt
dt
0
h i
Esta integral puede resolverse por partes, haciendo u = e st y dv = df
dt dt y
por lo tanto du = sest dt y v = f (t) :


Z

df (t)
st
L
= f (t)e

(s)est f (t)dt
0
dt
0

La integral es respecto a t, y por tanto s es constante y puede salir de la integral




Z


df (t)
st
= f (t)e
L
+s
est f (t(dt = f (t)est 0 + sF (s)
0
dt
0
L

df (t)
dt

= lm f (t)est f (0+ )es0 + sF (s)


t

El valor del lmite no esta determinado, hasta tanto no se conozca f (t). Sin embargo, para todas aquellas funciones que decrezcan, sean constantes, o que crezcan
210

A.1. PROPIEDADES DE LA TRANSFORMADA


DE LAPLACE

mas lentamente que est el valor del lmite sera 0. Este tipo de funciones son las que
empleamos en Analisis de Sistemas Dinamicos, y en consecuencia podemos escribir


df (t)
L
= f (0+ ) + sF (s)
dt
Esto concluye la demostraci
on de (A.4).
Para demostrar (A.5), hacemos notar que para n = 1 se reduce a (A.4), y por
tanto podemos emplear el metodo de inducci
on para la demostraci
on: Calculemos
d(k+1) f
la transformada de dt(k+1) empleando (A.4):

 k
 (k+1) 
  k 
df k
df
d
f
d df
= sL
k
L
=L
d dtk
dtk
dt t=0+
dt(k+1)
L

d(k+1) f
dt(k+1)

d(k+1) f
dt(k+1)

"

= s s F (s)
"

= s

(k+1)

k1
X

ki1 (i)

i=0

F (s)

k1
X


df k
=
(0 ) k
dt t=0
+

(k+1)i1 (i)

i=0

(0 ) f (k) (0)

El termino f k (0) puede escribirse como s((k+1)i1) f (k) (0) cuando i = k, e


incorporarlo en la sumatoria
#
 (k+1)  "
k
X
d
f
(k+1)
(k+1)i1 (i) +
L
= s
F (s)
s
f (0 )
dt(k+1)
i=0

 (k+1) 
(k+1)1
X
d
f
= s(k+1) F (s)
s(k+1)i1 f (i) (0+ )
L
dt(k+1)
i=0
Esta expresi
on corresponde a (A.5) para (k +1) lo que completa la demostraci
on
por inducci
on.

A.1.3.

Desplazamiento en la frecuencia:


L eat f (t) = F (s a)

Demostraci
on A.3 La Transformada de Laplace de eat f (t) es
Z
Z


L eat f (t) =
est [eat f (t)]dt =
e(sa)t f (t)dt
0

(A.6)

La integral corresponde a la definici


on de la Transformada de Laplace (A.1), pero
evaluada en s a en lugar de s, es decir


L eat f (t) = F (s a)
211

OSCAR G. DUARTE

A.1.4.

Multiplicaci
on por t:
L {tf (t)} =

dF (s)
ds

L {tn f (t)} = (1)n

dn F (s)
dsn

(A.7)
(A.8)

Demostraci
on A.4 Para demostrar (A.7) calculamos la derivada de F (s) respecto
as
Z

dF (s)
d
st
e f (t)dt
=
ds
ds
0

La derivada se hace respecto a s y la integral respecto a t, por lo tanto la


derivada puede incorporarse dentro de la integral
Z

d  st
dF (s)
=
e f (t) dt
ds
ds
0
Como la derivada es respecto a s, t y f (t) son constantes:
Z
Z
dF (s)
=
tf (t)est dt =
[tf (t)]est dt
ds
0
0

La integral corresponde a la Transformada de Laplace de tf (t), lo que completa


la demostraci
on de (A.7).
Para demostrar (A.8) resaltamos que cuando n = 1 se convierte en (A.7), y
por tanto podemos emplear el metodo de inducci
on. Al evaluar (A.8) en n = k se
obtiene


dk F (s)
L tk f (t) = (1)k
dsk
La derivada k + 1 de F (s) respecto a s es


d dk f
d(k+1) F (s)
=
ds dsk
ds(k+1)


k

d
d(k+1) F (s)
1
L
t
f
(t)
=
ds (1)k
ds(k+1)
Z



d(k+1) F (s)
1 d
st k
e
t
f
(t)
dt
=
(1)k ds
ds(k+1)
0

Como la integral es respecto a t y la derivada respecto a s se tiene


Z

1
d(k+1) F (s)
d  st k
e t f (t) dt
=
(1)k 0 ds
ds(k+1)
Z
d(k+1) F (s)
1
d  st 
k
e
dt
=
t
f
(t)
k
(1) 0
ds
ds(k+1)
212

A.1. PROPIEDADES DE LA TRANSFORMADA


DE LAPLACE

d(k+1) F (s)
1
=
ds(k+1)
(1)(k+1)

t(k+1) f (t)est dt

La integral corresponde a la transformada de Laplace de t (k+1) f (t), es decir


n
o
d(k+1) F (s)
(k+1)
=
L
t
f
(t)
ds(k+1)

Esta expresi
on resulta ser igual a (A.8) evaluada en n = k + 1 con lo que se
completa la demostraci
on.

A.1.5.

Teorema de valor inicial:


lm f (t) = lm sF (s)

t0+

(A.9)

Demostraci
on A.5 Para demostrar (A.9) consideremos primero la propiedad de
diferenciacion (A.4) y calculemos el lmite cuando s a cada lado de la igualdad:


df (t)
= sF (s) f (0+ )
L
dt
 



df (t)
lm L
= lm sF (s) f (0+ )
s
s
dt
Z



df (t)
lm
est
dt = lm sF (s) f (0+ )
s
s
dt
0
Cuando s la integral de hace cero, y por lo tanto tenemos


lm sF (s) f (0+ )
s

Dado que f (0+ ) es independiente de s, y ademas f (0+ ) = limt0+ f (t) se tiene


lm sF (s) = f (0+ ) = lm+ f (t)

A.1.6.

t0

Teorema de valor final:


lm f (t) = lm sF (s)

s0

(A.10)

Demostraci
on A.6 Para demostrar (A.10) consideremos primero la propiedad de
diferenciacion (A.4) y calculemos el lmite cuando s 0 a cada lado de la igualdad:


df (t)
= sF (s) f (0+ )
L
dt
 



df (t)
lm L
= lm sF (s) f (0+ )
s0
s0
dt
213

OSCAR G. DUARTE

lm

s0

Z

est




df (t)
dt = lm sF (s) f (0+ )
s0
dt

Cuando s 0 la integral se simplifica


Z



df (t)
dt = lm f (t) f (0+ ) = lm sF (s) f (0+ )
t
s0
dt
0
Con lo que resulta

lm f (t) = lm sF (s)

A.1.7.

s0

Convoluci
on:
L {f1 (t) f2 (t)} =
f1 (t) f2 (t)
=

R F1 (s)F2 (s)
f1 (t )f2 ( )d
0

(A.11)

Demostraci
on A.7 Para demostrar (A.11) calculemos la transformada de Laplace
de la convoluci
on entre f1 (t) y f2 (t):
Z

L {f1 (t) f2 (t)} = L
f1 (t )f2 ( )d =
0

L {f1 (t) f2 (t)} =

L {f1 (t) f2 (t)} =

Z


f1 (t )f2 ( )d est dt
f1 (t )est f2 ( )d dt

Podemos interambiar el orden de integraci


on y reagrupar:
Z Z
L {f1 (t) f2 (t)} =
f1 (t )est f2 ( )dtd
0

L {f1 (t) f2 (t)} =

f2 ( )

Z


f1 (t )est dt d

Ahora efectuamos un cambio de variable = t de tal manera que d = dt


y t=+
Z

Z
s(+ )
L {f1 (t) f2 (t)} =
f2 ( )
f1 ()e
d d
0

L {f1 (t) f2 (t)} =

f2 ( )e

Z

f1 ()e

d d

Como es independiente de podemos sacar la integral


Z
 Z

L {f1 (t) f2 (t)} =
f1 ()es d
f2 ( )es d

214

A.2. PROPIEDADES DE LA TRANSFORMADA Z

Ademas, consideramos de f1 (t) vale cero para valores negativos de t, y por tanto
podemos modificar los lmites de la integral, completando asi la demostraci
on
Z
 Z

L {f1 (t) f2 (t)} =
f1 ()es d
f2 ( )es d
0

L {f1 (t) f2 (t)} = F1 (s)F2 (s)

A.1.8.

Desplazamiento en el tiempo:
L {f (t T )} = esT F (s)

(A.12)

Demostraci
on A.8 La transformada de Laplace de f (t T ) es
Z
L {f (t T )} =
f (t T )est dt
0

Efectuando el cambio de variable = t T de tal manera que dt = d y


t = + T se tiene
Z
Z
L {f (t T )} =
f ( )es( +T ) d =
f ( )es esT d
T

Como la intergal es respecto a y T es constante, puede sacarse de la integral


el termino esT
Z
L {f (t T )} = esT
f ( )es d
T

Si asumimos que f (t) vale cero para todo valor negativo de t, entonces los
lmites de la integral pueden modificarse asi:
Z
L {f ( )} = esT
f ( )es d
0

La integral corresponde a la transformada de Laplace de f , en d


onde la variable
en la que se calcula se ha denominado ahora en lugar de t, es decir
L {f ( )} = esT F (s)

A.2.

Propiedades de la transformada Z

La transformada Z de una funci


on f (k) f : Z R es una funci
on F (z)
F : C C calculada como

X
F (z) = Z {f (k)} =
z k f (k)
(A.13)
k=0

Sean f (k), f1 (k), f2 (k) tres funciones cuyas Transformadas Z son, respectivamente F (z), F1 (z), F2 (z) y a un escalar (real o complejo). Se cumplen las
siguientes propiedades:
215

OSCAR G. DUARTE

A.2.1.

Linealidad:
Z {f1 (k) + f2 (k)} = F1 (z) + F2 (z)

(A.14)

Z {af (k)} = aF (z)

(A.15)

Demostraci
on A.9 La propiedad de Linealidad de la Trasformada Z se desprende
de la propiedad de Linealidad de la sumatoria. Demostramos primero la propiedad
de superposici
on (A.14).
La Transformada de Z f1 (k) + f2 (k) es, seg
un la definici
on (A.13):
Z {f1 (k) + f2 (k)} =

z k [f1 (k) + f2 (k)]

k=0

Debido a que la sumatoria es una operaci


on lineal, podemos separarla en la suma
de dos sumatorias:
Z {f1 (k) + f2 (k)} =

z k f1 (k) +

k=0

z k f2 (k)

k=0

Las dos integrales corresponden a las transformadas Z de f 1 (k) y f2 (k), respectivamente, con lo que queda demostrada (A.14)
Z {f1 (k) + f2 (k)} = F1 (z) + F2 (z)
Para demostrar A.15 tambien acudimos a la propiedad de linealidad de la sumatoria. La Transformada Z de af (k) es
Z {af (k)} =

A.2.2.

z k [af (k)] = a

k=0

z k [f (k)] = aF (z)

k=0

Diferencia positiva:
Z {f (k + 1)} = zF (z) zf (0)
Z {f (k + n)} = z n F (z)

n1
X

z ni f (i)

(A.16)

(A.17)

i=0

Demostraci
on A.10 Para demostrar A.16 calculamos la Transformada Z de la
diferencia f (k + 1)
Z {f (k + 1)} =

X
k=0

z k f (k + 1) = z 0 f (1) + z 1 f (2) + z 2 f (3) +


216

A.2. PROPIEDADES DE LA TRANSFORMADA Z

Si dividimos a cada lado de la ecuaci


on por z tenemos
z 1 Z {f (k + 1)} = z 1 f (1) + z 2 f (2) + z 3 f (3) +
Si sumamos a cada lado de la ecuaci
on z 0f (0) = f (0)
z 1 Z {f (k + 1)} + f (0) = z 0 f (0) + z 1 f (1) + z 2 f (2) + =

z k f (k)

k=0

La sumatoria resulta ser la Transformada Z de f (k), es decir


z 1 Z {f (k + 1)} + f (0) = F (z)

De donde se deduce que


z 1 Z {f (k + 1)} = F (z) f (0)
Z {f (k + 1)} = zF (z) zf (0)

Esto concluye la demostraci


on de (A.16).
Para demostrar (A.17) calculamos la Transformada Z de f (k + n)
Z {f (k + n)} =

X
k=0

z k f (k + n) = z 0 f (n) + z 1 f (n + 1) + z 2 f (n + 2) +

Si dividimos a cada lado de la ecuaci


on por z n tenemos
z n Z {f (k + n)} = z n f (n) + z n1 f (n + 1) + z n2 f (n + 2) +
Si sumamos a cada lado de la ecuaci
on z 0 f (0)+z 1f (1)+ +z n+1f (n1)
z n Z {f (k + n)} + z 0 f (0) + z 1 f (1) + + z n1 f (n + 1) =
z 0 f (0) + z 1 f (1) + + z n+1 f (n 1)+

z n f (n) + z n1 f (n + 1) + z n2 f (n + 2) +
=

z k f (k)

k=0

La sumatoria resulta ser la Transformada Z de f (k), es decir

z n Z {f (k + n)} + f (0) + z 1 f (1) + + z n+1 f (n 1) = F (z)

De donde se deduce que


z n Z {f (k + n)} = F (z) f (0) z 1 f (1) z n+1 f (n 1)
Z {f (k + n)} = z n F (z) z n f (0) z n1 f (1) z 1 f (n 1)
Z {f (k + n)} = z n F (z)
Esto concluye la demostraci
on de (A.17).
217

n1
X
i=0

z ni f (i)

OSCAR G. DUARTE

A.2.3.

Escalamiento en la frecuencia:


Z ak f (t) = F (z/a)

(A.18)

Demostraci
on A.11 La Transformada Z de ak f (k) es

 k
X

X
z
f (k)
Z ak f (k) =
z k [ak f (k)]dt =
a
k=0

k=0

La integral corresponde a la definici


on de la Transformada Z (A.13), pero evaluada
en z/a en lugar de z, es decir


Z ak f (t) = F (z/a)

A.2.4.

Multiplicaci
on por k:

d
{F (z)}
dz
o
d n
Z {k n f (k)} = z Z k (n1) f (k)
dz
Z {kf (k)} = z

(A.19)
(A.20)

Demostraci
on A.12 Para demostrar (A.19) calculamos la derivada de F (z) respecto a z
(
)
dF (z)
d X k
z f (k)
=
dz
dz
k=0

dF (z)
=
dz

(k)z k1 f (k)

k=0

Multiplicando por z a cada lado de la ecuaci


on se tiene
z

X
dF (z)
=
z k kf (k)
dz
k=0

La sumatoria corresponde a la Transformada Z de kf (k), lo que completa la


demostraci
on de (A.19)
Para demostrar (A.20) definamos una funci
on g(k) = k (n1) f (k) y apliquemos
(A.19)
d
Z {kg(k)} = z {G(z)}
dz
n
o
d
Z k[k (n1) f (k)] = z {Z {g(k)}}
dz
oo
d n n (n1)
Z k
f (k)
Z {k n f (k)]} = z
dz
Lo que completa la demostraci
on de (A.20)
218

A.2. PROPIEDADES DE LA TRANSFORMADA Z

A.2.5.

Teorema de valor inicial:


f (0) = lm F (z)

(A.21)

Demostraci
on A.13 La demostraci
on de (A.21) se desprende de la definici
on de
transformada Z (A.13)

X
F (z) =
z k f (k)
k=0

F (z) = z

f (0) + z 1 f (1) + z 2 f (2) +

F (z) = f (0) + z 1 f (1) + z 2 f (2) +


Cuando z cada uno de los terminos de la derecha se hace cero, salvo f (0)
lo que completa la demostraci
on
lm F (z) = f (0)

A.2.6.

Teorema de valor final:


lm f (k) = lm (z 1)F (z)
z1

(A.22)

Demostraci
on A.14 Para demostrar (A.22) calculemos la transformada Z de la
expresi
on f (k + 1) f (k) y apliquemos la propiedad de diferencia positiva (A.16)
Z {f (k + 1) f (k)} =

k=0

zF (z) zf (0) F (z) = lm

(z 1)F (z) zf (0) = lm

[f (k + 1) f (k)] z k

j
X
k=0

j
X

[f (k + 1) f (k)] z k

[f (k + 1) f (k)] z k

k=0

Al tomar el lmite cuando z 1 se obtiene


lm (z 1)F (z) f (0) = lm

z1

j
X
k=0

[f (k + 1) f (k)]

lm (z 1)F (z) f (0) =

z1

lm [f (1) f (0) + f (2) f (1) + + f (j) f (j 1) + f (j + 1) f (j)]

219

OSCAR G. DUARTE

lm (z 1)F (z) f (0) = lm [f (0) + f (j + 1)]

z1

Como f (0) es independiente de j puede salir del lmite, con lo que se completa
la demostraci
on
lm (z 1)F (z) f (0) = f (0) + lm f (j + 1)

z1

lm (z 1)F (z) = lm f (j + 1) = lm f (j)

z1

A.2.7.

Convoluci
on:
Z {f1 (k) f2 (k)}
P = F1 (z)F2 (z)
f1 (k) f2 (k) = k=0 f1 (k)f2 (h k)

(A.23)

Demostraci
on A.15 Para demostrar (A.23) calculemos la transformada Z de la
convoluci
on entre f1 (k) y f2 (k):
(
)
X
Z {f1 (k) f2 (k)} = Z
f1 (k)f2 (h k)
k=0

Z {f1 (k) f2 (k)} =

"

X
X

h=0

k=0

f1 (k)f2 (h k) z h

Podemos intercambiar el orden de las sumatorias y reagrupar los terminos:


Z {f1 (k) f2 (k)} =

f1 (k)

f1 (k)

k=0

f2 (h k)z h

h=0

Efectuamos el cambio de variable r = h k que implica h = r + k


Z {f1 (k) f2 (k)} =
Z {f1 (k) f2 (k)} =
Z {f1 (k) f2 (k)} =

"

k=0

r=k

f1 (k)z k

k=0

f2 (r)z r z k

f1 (k)z

k=0

f2 (r)z r

r=k
k

#"

r=k

f2 (r)z

Si consideramos s
olo funciones f (k) que valgan cero para valores negativos de k
podemos cambiar los lmites de la sumatoria, con lo que se completa la demostraci
on
#
#"
"
X
X
f2 (r)z r
f1 (k)z k
Z {f1 (k) f2 (k)} =
k=0

r=0

Z {f1 (k) f2 (k)} = F1 (z)F2 (z)


220

A.3. PAREJAS DE TRANSFORMADAS DE LAPLACE

A.3.

Parejas de transformadas de Laplace

A.3.1.

Escal
on unitario

Sea
f1 (t) = (t) =

1 si t 0
0 si t < 0

La transformada de Laplace de f1 (t) ser


a

Z
Z
est
es0
es
st
st
e dt =
e (t)dt =

=
L {(t)} =
s 0
s
s
0
0
L {(t)} = 0 (

A.3.2.

1
1
)=
s
s

(A.24)

Exponenciales

Sea f2 (t) = eat (t). Para obtener la transformada de Laplace de f2 (t) aplicamos la propiedad de desplazamiento en la frecuencia (A.6) a la transformada
del escal
on (A.24)

 at

1
1
(A.25)
L e (t) = L {(t)}sa =
=
s sa
sa

A.3.3.

Sinusoides

Seno
Sea f3 (t) = sin (t)(t). Para obtener la transformada de Laplace de f3 (t)
empleamos la F
ormula de Euler para reescribir la funci
on:
ejt ejt
(t)
2j
Al aplicar la transformada de Laplace a cada lado de la igualdad resulta

 jt



1   jt
e ejt
(t) =
L e (t) L ejt (t)
L {sin (t)(t)} = L
2j
2j
f3 (t) = sin (t)(t) =

Cada una de las dos transformadas de Laplace pueden obtenerse empleando


A.25:


1
1
1

L {sin (t)(t)} =
2j s j s + j
Al efectuar la suma se obtiene




1 s + j s + j
1
2j
L {sin (t)(t)} =
=
2j
s2 + 2
2j s2 + 2
L {sin (t)(t)} =
221

s2 + 2

(A.26)

OSCAR G. DUARTE

Coseno
Sea f4 (t) = cos t. Para obtener la transformada de Laplace de f4 (t) podriamos emplear la f
ormula de Euler; sin embargo, optamos por otra posibilidad:
empleamos la propiedad de diferenciciaci
on (A.4) y la aplicamos a la transformada de sin t, (A.26):
1 d
sin t
dt


1
d
L {cos (t)(t)} = L
sin (t)(t)

dt
f4 (t) = cos t =

1
[sL{sin (t)(t)} sin t|t=0 ]




1
s 2

sin
0
L {cos (t)(t)} =
s + 2

L {cos (t)(t)} =

L {cos (t)(t)} =

A.3.4.

s
s2 + 2

(A.27)

Sinusoides amortiguadas

Sean f5 (t) = eat sin (t)(t) y f6 (t) = eat cos (t)(t) . Para obtener la transformada de Laplace de f5 (t) y f6 (t) aplicamos la propiedad de desplazamiento
en la frecuencia (A.6) a las transformadas de seno y coseno (A.26) y (A.27):


L eat sin (t)(t) =



L eat cos (t)(t) =

A.3.5.

(s a)2 + 2

(A.28)

sa
(s a)2 + 2

(A.29)

Rampas, par
abolas y monomios de t

Sea f7 (t) = tn (t). Para calcular la transformada de Laplace de f7 (t) aplicamos la propiedad de multiplicaci
on por el tiempo (A.8) a la transformada del
escal
on unitario (A.24).
 
n!
dn 1
= n+1
L {f7 (t) = tn (t)} = (1)n n
(A.30)
ds s
s
Para los casos particulares en que n = 1 y n = 2, la funci
on tn (t) se
convierte en las funciones rampa y par
abola unitarias, respectivamente:
L {f8 (t) = t(t)} =

1
s2



2
L f9 (t) = t2 (t) = 3
s
222

(A.31)
(A.32)

A.4. PAREJAS DE TRANSFORMADAS Z

A.3.6.

Exponenciales por tn

Sea f10 (t) = tn eat (t). Para calcular la Transformada de Laplace de f10 (t)
aplicamos la propiedad de desplazamiento en la frecuencia (A.6) a la transformada del tn (t) (A.30)


L f10 (t) = tn eat (t) =

A.3.7.

n!
(s a)n+1

(A.33)

Sinusoides por t

Sea f11 (t) = t sin (t)(t). Para calcular la Transformada de Laplace de


f11 (t) aplicamos la propiedad de multiplicaci
on por el tiempo (A.7) a la transformada de sin(t)(t) (A.26)



d
s
L {t sin (t)(t)} =
(A.34)
= 2
2
2
ds s +
(s + 2 )2
Sea f12 (t) = t cos (t)(t). Para calcular la Transformada de Laplace de
f12 (t) aplicamos la propiedad de multiplicaci
on por el tiempo (A.7) a la transformada de cos(t)(t) (A.27)


s
d
s2 2
L {t cos (t)(t)} =
(A.35)
=
ds s2 + 2
(s2 + 2 )2

A.3.8.

Sinusoides amortiguadas multiplicadas por t

Sea f13 (t) = teat sin (t)(t). Para calcular la Transformada de Laplace de
f13 (t) aplicamos la propiedad de desplazamiento en la frecuencia (A.6) a la
transformada de t sin(t)(t) (A.34)


L teat sin (t)(t) =

(s a)
((s a)2 + 2 )2

(A.36)



L teat cos (t)(t) =

(s a)2 2
((s a)2 + 2 )2

(A.37)

Sea f14 (t) = teat cos (t)(t). Para calcular la Transformada de Laplace de
f14 (t) aplicamos la propiedad de desplazamiento en la frecuencia (A.6) a la
transformada de t cos(t)(t) (A.35)

A.4.

Parejas de transformadas Z

A.4.1.

Escal
on unitario

Sea
f1 (k) = (k) =

223

1 si k 0
0 si k < 0

OSCAR G. DUARTE

La transformada Z de f1 (k) ser


a
Z {(k)} =

z k (k) =

k=0

(z 1 )k (k) =

k=0

La sumatoria puede calcularse recordando que


cuando la serie converja, es decir, con |a| < 1)
Z {(k)} =

A.4.2.

(z 1 )k

k=0

k=0

ak =

1
1a

(siempre y

1
z
=
1 z 1
z1

(A.38)

Series geom
etricas

Sea f2 (k) = ak (k). Para obtener la transformada Z de f2 (k) aplicamos la


propiedad de escalamiento en la frecuencia (A.18) a la transformada del escal
on
(A.38)


Z a (k) = Z {(k)}z/a

A.4.3.

Sinusoides


z
z
z/a
=
=
=
z 1 z/a
z/a 1
za

(A.39)

Seno
Sea f3 (k) = sin (ak)(k). Para obtener la transformada Z de f3 (k) empleamos la F
ormula de Euler para reescribir la funci
on:

f3 (k) = sin (ak)(k) =

(eja )k (eja )k
ejak ejak
(k) =
(k)
2j
2j

Al aplicar la transformada Z a cada lado de la igualdad resulta


 ja k

(e ) (eja )k
Z {sin (ak)(k)} = Z
(k) =
2j
Z {sin (ak)(k)} =




1   ja k
Z (e ) (k) Z (eja )k (k)
2j

Cada una de las dos transformadas Z pueden obtenerse empleando A.39:




1
z
z
Z {sin (ak)(a)} =

2j z eja
z eja
Al efectuar la suma se obtiene
Z {sin (ak)(a)} =



z 2 zeja z 2 + zeja
1
=
2j z 2 zeja zeja + eja eja
224

A.4. PAREJAS DE TRANSFORMADAS Z

Z {sin (ak)(a)} =

"

eja
2j
eja +eja
2z
2

ze

z2

ja

+1

Las fracciones que contienen exponenciales complejas pueden reescribirse


empleando la f
ormula de Euler:
Z {sin (ak)(a)} =

z2

z sin a
2z cos a + 1

(A.40)

Coseno
Sea f4 (k) = cos (ak)(k). Para obtener la transformada Z de f4 (k) empleamos la F
ormula de Euler para reescribir la funci
on:

f4 (k) = cos (ak)(k) =

(eja )k + (eja )k
ejak + ejak
(k) =
(k)
2
2

Al aplicar la transformada Z a cada lado de la igualdad resulta


Z {cos (ak)(k)} = Z
Z {cos (ak)(k)} =

(eja )k + (eja )k
(k)
2




1   ja k
Z (e ) (k) + Z (eja )k (k)
2

Cada una de las dos transformadas Z pueden obtenerse empleando A.39:


Z {cos (ak)(a)} =



1
z
z
+
2 z eja
z eja

Al efectuar la suma se obtiene




1
z s zeja + z 2 zeja
Z {cos (ak)(a)} =
=
2 z 2 zeja zeja + eja eja
Z {cos (ak)(a)} =

"

+eja
2
ja
ja
2z e +e
+
2

z2 z e

z2

ja

Las fracciones que contienen exponenciales complejas pueden reescribirse


empleando la f
ormula de Euler:
Z {cos (ak)(a)} =

z 2 z cos a
z 2 2z cos a + 1

225

(A.41)

OSCAR G. DUARTE

A.4.4.

Sinusoides amortiguadas

Sean f5 (k) = bk sin (ak)(k) y f6 (k) = bk cos (ak)(k). Para obtener la


transformada Z de f5 (k) y f6 (k) aplicamos la propiedad de escalamiento en
la frecuencia (A.18) a las transformadas de seno y coseno (A.40) y (A.41):



Z bk sin (ak)(k) =


Z b cos (ak)(k) =

A.4.5.

( zb )2

z
b

sin a
zb sin a
= 2
z 2b cos a + b2
2 zb cos a + 1


z 2
zb cos a
b
( zb )2 2 zb cos a +

z 2 zb cos a
z 2 2b cos a + b2

(A.42)

(A.43)

Rampas, y monomios de k

Sea f7 (k) = k(k). Para calcular la transformada Z de f7 (k) aplicamos la


propiedad de multiplicaci
on por el tiempo (A.19) a la transformada del escal
on
unitario (A.38).


d
z
(z 1) z
Z {k(k)} = z
= z
dz z 1
(z 1)2
Z {k(k)} =

z
(z 1)2

(A.44)

Para obtener la transformada Z de k n (k) es necesario aplicar en forma


iterativa la propiedad de multiplicaci
on por el tiempo (A.19).

A.4.6.

Series geom
etricas por k n

Sea f8 (k) = kak (k). Para calcular la transformada Z de f8 (k) aplicamos la


propiedad de multiplicaci
on por el tiempo (A.19) a la transformada de las series
geometricas (A.39).




z
(z a) z
d
= z
Z kak (k) = z
dz z a
(z a)2
Z {k(t)} =

az
(z a)2

(A.45)

Para obtener la transformada Z de k n ak (k) es necesario aplicar en forma


iterativa la propiedad de multiplicaci
on por el tiempo (A.19)
226

A.4. PAREJAS DE TRANSFORMADAS Z

A.4.7.

Sinusoides por k

Seno
Sea f9 (k) = k sin(ak)(k). Para calcular la transformada Z de f9 (k) aplicamos la propiedad de multiplicaci
on por el tiempo (A.19) a la transformada de
seno (A.40).


sin a
d
Z {k sin(ak)(k)} = z
=
dz z 2 2z cos a + 1
Z {k sin(ak)(k)} =
z

(z 2 2z cos a + 1) sin a z sin a(2z 2 cos a)


(z 2 2z cos a + 1)2

Z {k sin(ak)(k)} =
z

z 2 sin a 2z cos a sin a + sin a 2z 2 sin a + 2z sin a cos a


(z 2 2z cos a + 1)2

Z {k sin(ak)(k)} =

z 3 sin a + z sin a
(z 2 2z cos a + 1)2

(A.46)

Para obtener la transformada Z de k n sin(ak)(k) es necesario aplicar en


forma iterativa la propiedad de multiplicaci
on por el tiempo (A.19).
Coseno
Sea f10 (k) = k sin(ak)(k). Para calcular la transformada Z de f10 (k) aplicamos la propiedad de multiplicaci
on por el tiempo (A.19) a la transformada de
coseno (A.41).


d
z 2 z cos a
Z {k cos(ak)(k)} = z
=
dz z 2 2z cos a + 1
Z {k cos(ak)(k)} =
z

(z 2 2z cos a + 1)(2z cos)a (z 2 z cos a)(2z 2 cos a)


(z 2 2z cos a + 1)2

Z {k cos(ak)(k)} =

 3

2z z 2 cos a 4z 2 cos a + 2z cos2 a + 2z cos a
2z 3 + 2z 2 cos a + 2z 2 cos a 2z cos2 a
z
(z 2 2z cos a + 1)2
227

OSCAR G. DUARTE

Z {k cos(ak)(k)} = z
Z {k cos(ak)(k)} =

(z 2 1) cos a + 2z
(z 2 2z cos a + 1)2

(z 3 + z) cos a 2z 2
(z 2 2z cos a + 1)2

(A.47)

Para obtener la transformada Z de k n cos(ak)(k) es necesario aplicar en


forma iterativa la propiedad de multiplicaci
on por el tiempo (A.19).

A.4.8.

Sinusoides amortiguadas por k

Sean f11 (k) = kbk sin (ak)(k) y f12 (k) = kbk cos (ak)(k). Para calcular la
Transformada Z de f11 (k) y f12 (k) aplicamos la propiedad de escalamiento en la
frecuencia (A.18) a las transformadas de k sin(ak)(k), (A.46) y k cos(ak)(k),
(A.47)


Z kbk sin (ak)(k) =

(z/b)3 sin a + (z/b) sin a


((z/b)2 2(z/b) cos a + 1)2



bz 3 sin a + b3 z sin a
Z kbk sin (ak)(k) = 2
(z 2bz cos a + b2 )2

(A.48)


((z/b)3 + (z/b)) cos a 2(z/b)2
Z kbk cos (ak)(k) =
((z/b)2 2(z/b) cos a + 1)2

(bz 3 + b3 z) cos a 2b2 z 2
Z kbk cos (ak)(k) =
(z 2 2bz cos a + b2 )2

(A.49)

Para obtener las transformadas Z de k n bk sin(ak)(k) y k n bk cos(ak)(k)es


necesario aplicar en forma iterativa la propiedad de multiplicaci
on por el tiempo
(A.19).

228

Apendice B
Diagramas de Bode para sistemas
continuos

B.1.

Definici
on

El valor de una funci


on de transferencia F (s), para un s especfico, es un
n
umero complejo cuya amplitud es |F (s)| y cuyo a
ngulo es arg {F (s)}. Los
diagramas de Bode para sistemas continuos muestran c
omo vara la amplitud y
el a
ngulo de ese n
umero complejo, cuando s toma todos los posibles valores del
eje imaginario positivo (s = j; w (0, )). Especficamente se definen los
siguientes diagramas:
Diagrama de magnitud:
La abscisa (eje horizontal) muestra el valor de en escala logartmica.
La ordenada (eje vertical) muestra la magnitud de F (j) medida en
decibeles:
|F (j)|en db = 20 log10 |F (j)|
Diagrama de fase:
La abscisa (eje horizontal) muestra el valor de en escala logartmica.
La ordenada (eje vertical) muestra el a
ngulo de F (j) medida en
grados o radianes.
229

OSCAR G. DUARTE

B.2.

Construcci
on de los diagramas de Bode

Debido a las escalas empleadas en los diagramas de Bode, estos pueden ser
construidos en forma aproximada mediante trazos rectos. La figura B.1 muestra
los diagramas de Bode aproximados para funciones sencillas de orden 1.
La figura B.2 muestra los diagramas de bode para funciones de orden 2; en
estos casos, las aproximaciones pueden ser bastante lejanas de los diagramas
exactos, dependiendo del factor de amortiguamiento . Por esta raz
on se han
trazado los diagramas exactos para una funci
on de segundo orden (para el primer
caso de la figura B.2), en las figuras B.3 y B.4
Para funciones de transferencia m
as sofisticadas que las de las figuras B.1 y
B.2 se descompone la funci
on de trasferencia como productos de terminos m
as
sencillas, se trazan los diagramas de bode estas de funciones y luego se suman
punto a punto para obtener los diagramas de la funci
on original
Ejemplo B.1 Considerese la funci
on de transferencia
F (s) =

(s + 10)
(s + 1)(s + 100)

Esta funci
on puede descomponerse como el producto de cuatro funciones de
transfenecia mas sencillas:
F (s) =

100
1
s + 10 1
10
s
+
1
s
+
100
10
| {z } | {z } | {z } |{z}
FA (s)

FB (s)

FC (s)

FD (s)

Cada una de las funciones FA (s), FB (s), FC (s) y FD (s) son de la forma que se
muestra en las figuras B.1 y B.2. Pueden trazarse los diagramas de bode aproximados
de estas funciones, y luego sumarlos punto a punto para obtener los diagramas de
F (s)

230


B.2. CONSTRUCCION
DE LOS DIAGRAMAS DE BODE

|F (jw)|

F (s)

arg F (jw)

K>0

K<0

1
s

s+a
a

a
s+a

a>0

a>0

20db/dc
1

1
20db/dc

20db/dc
a

a
sa

a>0

a>0

a
10

10a

a
10

10a

a
10

10a

a
10

10a

20db/dc
sa
a

20db/dc
a

20db/dc

Figura B.1: Resumen de los diagramas de Bode aproximados para sistemas


continuos de primer orden (los cuatro primeros casos son exactos)

231

OSCAR G. DUARTE

F (s)

|F (jw)|

arg F (jw)

2
n
2
s2 +2n s+n

n > 0

n
10

n 10n

n
10

n 10n

n
10

n 10n

n
10

n 10n

40db/dc

2
n
2
s2 +2n s+n

n < 0

n
40db/dc
40db/dc

2
s2 +2n s+n
2
n

n > 0

40db/dc
2
s2 +2n s+n
2
n

n < 0

Figura B.2: Resumen de los diagramas de Bode aproximados para sistemas


continuos de segundo orden

232


B.2. CONSTRUCCION
DE LOS DIAGRAMAS DE BODE

Diagrama de Bode de magnitud


|F(jw)|
20

10

10

20

:
:
:
:
:

30

= 0.01
= 0.1
= 0.3
= 0.5
= 1.0

w/wn

40
1

10

0.01
0.1
0.3

10

0.5
1.0

10

Figura B.3: Diagrama de Bode de magnitud para un sistema continuo de segundo


orden con distintos factores de amortiguamiento

233

OSCAR G. DUARTE

Diagrama de Bode de fase


ang(F(jw))
0

30

60

90

120

:
:
:
:
:

150

= 0.01
= 0.1
= 0.3
= 0.5
= 1.0

w/wn

180
1

10

0.01
0.1
0.3

10

0.5
1.0

10

Figura B.4: Diagrama de Bode de fase para un sistema continuo de segundo orden
con distintos factores de amortiguamiento

234

Apendice C
Carta de Nichols

Sup
ongase la funci
on de transferencia (C.1), que corresponde a un sistema
realimentado simple con realimentaci
on unitaria,
F (s) =

G(s)
1 + G(s)

(C.1)

Al evaluar F (s) en s = j la ecuaci


on (C.1) se convierte en
F (j) =

G(j)
1 + G(j)

(C.2)

Podemos calcular la magnitud y el a


ngulo de F (j), a partir de la parte real
y la parte imaginaria de G(j):
G(j) = X + jY

(C.3)

Al remplazar (C.3) en (C.2) se obtiene


F (j) =

X + jY
1 + X + jY

(C.4)

La magnitud de F (j) ser


a

X2 + Y 2
M = |F (j)| = p
(1 + X)2 + Y 2

(C.5)

El a
ngulo de F (j) ser
a

= arg F (j) = tan1

Y
X

235

tan1

Y
(1 + X)

(C.6)

OSCAR G. DUARTE

La tangente del a
ngulo de F (j) ser
a
N = tan() = tan (arg F (j))

(C.7)

En las secciones C.1 y C.2 se muestra como (C.5) y (C.7) corresponden a las
ecuaciones de unas circunferencias, para M y N constantes.

C.1.

M -circunferencias

Al elevar al cuadrado la ecuaci


on (C.5) se tiene
M2 =

X2 + Y 2
X2 + Y 2
=
(1 + X)2 + Y 2
1 + 2X + X 2 + Y 2

(C.8)

Que puede reescribirse como


M 2 + 2XM 2 + X 2 M 2 + Y 2 M 2 = X 2 + Y 2
X 2 (1 M 2 ) 2M 2 X M 2 + (1 M 2 )Y 2 = 0
X2 +

2M 2
M2
X+
+Y2 =0
2
(M 1)
(M 2 1)

(C.9)

La ecuaci
on C.9 es una cuadr
atica, y para analizarla completamos el cuadrado en X:
X2 +

M4
M4
M2
2M 2
2
X
+
+
Y
=

=
(M 2 1)
(M 2 1)2
(M 2 1)2
(M 2 1)
M 4 M 2 (M 2 1)
(M 2 1)2


X+

M2
(M 2 1)

2

+Y2 =

M2
=
(M 2 1)2

M
(M 2 1)

2

(C.10)

(C.11)

on (C.11) corresponde a la de una circunferencia con centro en


 La ecuaci
2
(MM2 1) , 0 y radio (MM
2 1) . Estas circunferencias se conocen como las Mcircunferencias.

C.2.

N -circunferencias

Empleando (C.6) y la identidad trigonometrica


tan A B =

tan A tan B
1 + tan A tan B

la ecuaci
on (C.7) se convierte en
236

C.3. CARTA DE NICHOLS

N=

Y
X

Y
1+X
Y Y
X 1+X

1+

que puede reescribirse como


N=

Y +XY XY
X(1+X)
X+X 2 +Y 2
X(1+X)

Y + XY XY
X + X2 + Y 2

Y
=0
(C.12)
N
La ecuaci
on (C.12) corresponde a una cuadr
atica y para analizarla completamos los cuadrados en X y en Y
X2 + X + Y 2

X2 + X +

1
Y
+Y2
+
4
N


X+

1
2

2

1
2N

2

1
+
4

1
2N

2

2

1
N2 + 1
+ Y
=
2N
4N 2

N2 + 1
4N 2

(C.13)

(C.14)

La ecuaci
on (C.14) corresponde a la de una circunferencia con centro en

1
1
y radio 2N
N 2 + 1. Estas circunferencias se conocen como las N 21 , 2N
circunferencias.

C.3.

Carta de Nichols

Las ecuaciones (C.11) y (C.14) muestran que en un plano que tenga por ejes
X y Y , es decir la parte real y la parte imaginaria de G(j), el lugar geometrico
de las magnitudes y a
ngulos de F (j) constantes son las M-circunferencias y
N-circunferencias respectivamente.
En la figura C.1 se muestran algunas de estas circunferencias, para unos
valores especficos de la magnitud y el a
ngulo de F (j). Esta figura se conoce
como la Carta de Nichols en coordenadas rectangulares. La principal utilidad de
esta carta es la de poder determinar en forma gr
afica el valor de F (j) a partir
de G(j), es decir, calcular de forma gr
afica la ecuaci
on (C.2).
Sin embargo, resulta m
as sencillo conocer la magnitud y el a
ngulo de G(j)
que sus partes real e imaginaria, empleando para ello los diagramas de Bode; por
esta raz
on se propone trabajar con la carta de Nichols en coordenadas polares
que se muestra en la figura C.2, cuyos ejes corersponden a la magnitud y a
ngulo
de G(j). En estos ejes las M-circunferencias y N-circunferencias se distorsionan,
y pierden su forma de circunferencia.

237

OSCAR G. DUARTE

3.0

Im{G(j)}
2.4
30o

1.8
1.2

60o

0.6

90o

2db
3db

0.0

5db

5db

3db

2db

90o
60o

0.6
1.2
1.8

30o

2.4

Re{G(j)}

3.0
4.80

3.84

2.88

1.92

0.96

0.00

0.96

:|F (j)|en db

1.92

2.88

3.84

4.80

:arg{F (j)}

Figura C.1: Diagrama de Nichols en coordenadas rectangulares

20
16

|G(j)|en db
2db

12 2db
3db

8
5db

3db

5db

0
4
8
12
16
30o

60o

90o 60o

90o

30o

20
0

36

72

108

144

180

216

252

288

324

360

arg{G(j)}
:arg{F (j)}

:|F (j)|en db

Figura C.2: Diagrama de Nichols en coordenadas polares

238

Apendice D
Apuntes de algebra lineal

D.1.

Espacios vectoriales

D.1.1.

Estructuras algebr
aicas b
asicas

Definici
on D.1 Grupo
Un conjunto dotado de una operaci
on binaria tiene estructura de grupo si la
operaci
on satisface las siguientes propiedades:
G.1 Clausurativa (Cerradura): x, y x y
G.2 Asociativa: x, y, z (x y) z = x (y z)
G.3 Modulativa: 0 | x x 0 = x
G.4 Invertiva: x (x) | x (x) = 0
Definici
on D.2 Grupo conmutativo
Un conjunto dotado de una operaci
on binaria tiene estructura de grupo conmutativo o grupo abeliano si la operaci
on satisface las propiedades de grupo y:
G.5 Conmutativa: x, y x y = y x
Ejemplo D.1 El conjunto = {a, b, c} dotado con la operaci
on descrita en la
tabla

a
b
c

a
a
b
c

b
b
c
a

239

c
c
a
b

OSCAR G. DUARTE

tiene estructura algebraica de grupo conmutativo, en donde el m


odulo 0 de es el
elemento a
Ejemplo D.2 El conjunto = {0, 1} dotado con la operaci
on suma usual no tiene
estructura de grupo porque no se satisface la propiedad clausurativa (1+1 = 2 6 ).
Sin embargo, con la operaci
on descrita en la tabla s tiene estructura de grupo

0
1

0
1
0

1
0
1

Definici
on D.3 Anillo
Un conjunto dotado de dos operaciones binarias y tiene estructura de anillo
si las operaciones satisfacen las siguientes propiedades.
Para la operaci
on
R.1 Clausurativa: x, y x y

R.2 Asociativa: x, y, z (x y) z = x (y z)
R.3 Modulativa: 0 | x x 0 = x
R.4 Invertiva: x (x) | x (x) = 0
R.5 Conmutativa: x, y x y = y x
Para la operaci
on

R.6 Clausurativa: x, y x y
R.7 Asociativa: x, y, z (x y) z = x (y z)
Para las dos operaciones

R.8 Distributiva respecto a : x, y, z x (y z) = (x y) (x z)


Definici
on D.4 Anillo modulativo (anillo con unidad)
Un conjunto dotado de dos operaciones binarias y tiene estructura de anillo
modulativo o de anillo con unidad si las operaciones satisfacen las propiedades de
anillo y ademas la operaci
on satisface:

R.9 Modulativa: 1 | x x 1 = 1 x = x

Definici
on D.5 Anillo conmutativo
Un conjunto dotado de dos operaciones binarias y tiene estructura de anillo
conmutativo si las operaciones satisfacen las propiedades de anillo y ademas la
operaci
on satisface:

R.10 Conmutativa: x, y x y = y x

Definici
on D.6 Campo
Un conjunto dotado de dos operaciones binarias y tiene estructura de campo
si tiene estructura de anillo conmutativo con unidad.
Ejemplo D.3 Algunos de los campos mas conocidos son los reales R, los complejos
C y el conjunto de las funciones racionales de s con coeficientes reales R(s).
240

D.1. ESPACIOS VECTORIALES

D.1.2.

Definici
on de espacio vectorial

Definici
on D.7 espacio vectorial
Sea un conjunto y F : (, , ) un campo. A los elementos de se les denomina
vectores, y a los elementos de escalares. tiene estructura de espacio vectorial
sobre F si esta dotado de una operaci
on binaria + (suma vectorial) y una operaci
on entre elementos de y (producto por escalar) que cumplen las siguientes
propiedades:
Para la suma vectorial
V.1 Clausurativa: x, y x + y
V.2 Asociativa: x, y, z (x + y) + z = x + (y + z)
V.3 Modulativa: 0 | x x + 0 = x
V.4 Invertiva: x (x) | x + (x) = 0
V.5 Conmutativa: x, y x + y = y + x
Para el producto por escalar
V.6 Clausurativa: x , x
V.7 Asociativa: x , , ( ) x = ( x)
V.8 Modulativa: x , 1 x = x. 1 es el m
odulo de
V.9 Anulativa: x , 0 x = 0.En donde 0 es el m
odulo de , y 0 es el m
odulo
de +
Para las dos operaciones
V.10 Distributiva respecto a +: x, y , (x + y) = ( x) + ( y)
V.11 Distributiva respecto a : x , , ( ) x = ( x) + ( x)
Ejemplo D.4 Uno de los espacios vectoriales mas conocidos, y que servira para
futuros ejemplos en este captulo es el formado por R 2 sobre el campo R con las
operaciones usuales. En general, Cn sobre el campo C con las operaciones usuales
forma un espacio vectorial.
Ejemplo D.5 El conjunto de todos los polinomios sobre el campo R con las operaciones usuales entre polinomios forma un espacio vectorial.
Ejemplo D.6 El conjunto de todas las funciones contnuas a trozos sobre el campo
C con la operaci
on + definida como la suma punto a punto forma un espacio
vectorial.
241

OSCAR G. DUARTE

Ejemplo D.7 El conjunto de todas las matrices de tama


no fijo m n sobre el
campo C con las operaciones usuales entre matrices forma un espacio vectorial.
Definici
on D.8 Subespacio
Sea V : (, +, , F) un espacio vectorial sobre F; sea un subconjunto de . Si
W : (, +, , F) forma un espacio vectorial sobre F se dice que W es un subespacio
de V .
Teorema D.1 Sea V : (, +, , F) un espacio vectorial sobre F; sea un subconjunto de . W : (, +, , F) es un subespacio de V si y s
olo si +, son cerradas en
.
Demostraci
on D.1 Si +, son cerradas en se satisfacen V.1 y V.6. Las demas
propiedades contenidas en la definici
on D.7 se satisfacen porque V : (, +, , F) es
un espacio vectorial; por lo tanto W (, +, , F) es un Espacio vectorial y de acuerdo
con la definici
on D.8, es un subespacio de V .
Ejemplo D.8 (R2 , R) es un subespacio de (R3 , R), ya que la suma y el producto
por escalar son operaciones cerradas en R2 . En general si n m se tiene que
(Rn , R) es un subespacio de (Rm , R)
Ejemplo D.9 Una lnea recta que cruce por el origen es un subsepacio de (R 2 , R),
ya que: i) la suma de dos vectores que esten sobre una misma recta da otro vector
sobre esa recta y ii) el producto por escalar de un vector da otro vector sobre la
misma recta.
Ejemplo D.10 El conjunto de los polinomios de orden 2, es un subespacio del
conjunto de los polinomios de orden 4 (con las operaciones usuales y sobre R), ya
que: i) la suma de dos polinomios de orden 2 da otro polinomio de orden 2 y ii) el
producto de un polinomio de orden 2 por un escalar da otro polinomio de orden 2.
Se entiende que un polinomio de orden n es un polinomio que no tiene monomios
de orden superior a n.

D.1.3.

Bases

Definici
on D.9 Combinaci
on lineal
Sea V : (, F) un espacio vectorial. Sean x1 , x2 , , xn cualesquiera vectores y
1 , 2 , , n cualesquiera escalares de F denominados coeficientes. Una combinaci
on lineal de x1 , x2 , , xn es la operaci
on
1 x1 + 2 x2 + + n xn =

n
X

i xi

i=1

Definici
on D.10 Independencia lineal
Un conjunto de vectores {x1 , x2 , , xn } es linealmente independiente si la u
nica
combinaci
on lineal nula se obtiene con coeficientes nulos. Es decir, si
1 x1 + 2 x2 + + n xn = 0
242

1 = 2 = = n = 0

D.1. ESPACIOS VECTORIALES

Definici
on D.11 Dimensi
on
El maximo n
umero de vectores linealmente independientes en un espacio vectorial
V se denomina la dimensi
on de V .
Definici
on D.12 Conjunto generador
Dado un conjunto de vectores X = {x1 , x2 , , xn }; S es un Conjunto generado
por X si es el conjunto de todas las posibles combinaciones lineales de elementos
de X; se dice que X es un Conjunto generador de S y se denota por
)
(
n
X
S = span(X) = y | 1 , 2 , , n y =
i xi
i=1

Definici
on D.13 Base de un espacio vectorial
Un conjunto de vectores B = {b1 , b2 , , bn } es una base del espacio vectorial
V : (, F) si B es linealmente independiente y genera a .

Teorema D.2 En un espacio vectorial V de dimensi


on n, cualquier conjunto de n
vectores linealmente independientes es una base de V .
Demostraci
on D.2 Sea A = {a1 , a2 , , an } un conjunto arbitrario de n vectores linealmente independientes en V . Para demostrar que A es una base de V es
necesario demostrar que cubre a V , es decir, que cualquier elemento x de V puede
expresarse como una combinaci
on lineal de los elementos de A.
Debido a que A tiene n elementos, el conjunto {x, a1 , a2 , , an } es linealmente
dependiente (tiene n+1 elementos y n es el maximo n
umero de vectores linealmente
independientes) y por tanto existe una combinaci
on lineal
0 x + 1 a 1 + 2 a 2 + + n a n = 0

(D.1)

con algunos de los i 6= 0. Es claro que 0 6= 0 por que de lo contrario se obtendra


1 a 1 + 2 a 2 + + n a n = 0

(D.2)

lo que implica que todos los i deberan ser cero ya que los elementos de A son
linealmente independientes (son una base). Como 0 6= 0 podemos despejar x
1
2
n
x=
a1 +
a2 + +
an
(D.3)
0
0
0
es decir, que existe una combinaci
on lineal de los elementos de A cuyo resultado es
x, y por lo tanto A genera el espacio vectorial V .
Definici
on D.14 Coordenadas de un vector
Sea x un elemento del espacio vectorial V , y B = {b1 , b2 , , bn } una base de
V . Si x = 1 b1 + 2 b2 + + n bn se dice que las coordenadas de x en la base
B son los coeficientes de esa combinaci
on lineal { 1 , 2 , , n }. Usualmente se
agrupan en un vector

1
2

= .
..
n
243

OSCAR G. DUARTE

Teorema D.3 Todo elemento x de un espacio vectorial V tiene unas u


nicas coordenadas en una determinada base B = {b1 , b2 , , bn }
Demostraci
on D.3 Seg
un la definici
on D.14 B genera a V y por lo tanto existe al
menos una combinaci
on lineal de los elementos de B cuyo resultado es x, es decir,
existen al menos unas coordenadas de x en la base B.
Para demostrar que estas coordenadas son u
nicas, supongamos que existen dos
juegos de coordenadas diferentes {1 , 2 , , n } y {1 , 2 , , n }. Seg
un la
definici
on D.14 se tiene
1 b 1
1 b 1

+ 2 b2
+ 2 b2

+ + n bn
+ + n bn

=x
=x

Al restar estas dos expresiones se obtiene


(1 1 )b1 + (2 2 )b2 + + (n n )bn = 0
De acuerdo con la definici
on D.13, el conjunto B = {b 1 , b2 , , bn } es linealmente independiente, y por lo tanto la u
nica combinaci
on lineal de sus elementos
que es nula es la que tiene todos sus coeficientes nulos, por lo tanto i = i para
i = 1, 2, , n lo que significa que los dos juegos de coordenadas deben ser iguales.
Teorema D.4 Al aumentar los elementos de una base el conjunto resultante es
linealmente dependiente.
Demostraci
on D.4 Sea B = {b1 , b2 , , bn } una base de V y sea x un elemento
cualquiera de V . Debido a que B genera a V es posible encontrar i tales que
x = 1 b1 + 2 b2 + + n bn
y por tanto puede escribirse
1 b 1 + 2 b 2 + + n b n x = 0
Esta es una combinaci
on lineal nula con coeficientes no nulos (al menos el coeficiente
de x es 1) y por tanto el conjunto {b1 , b2 , , bn , x} es linealmente dependiente.
Teorema D.5 Todas las bases de un mismo espacio vectorial tienen el mismo n
umero de elementos que coincide con la dimensi
on del espacio vectorial.
Demostraci
on D.5 Por el teorema D.2 sabemos que pueden existir bases de taman
o igual a la dimensi
on. Seg
un las definiciones D.11 y D.13 no puede haber bases
con un n
umero mayor de elementos, debido a que este conjunto sera linealmente
dependiente, por lo tanto s
olo es necesario probar que no puede haber bases con un
n
umero de elementos inferior a la dimensi
on del espacio.
Sea V un espacio vectorial de dimensi
on n. Supongamos dos bases B y A:
B = {b1 , b2 , , bn }

A = {a1 , a2 , , ar }
244

D.1. ESPACIOS VECTORIALES

con r < n. Seg


un el teorema D.4 el conjunto C1 = {b1 , a1 , a2 , , ar } es linealmente dependiente y alguno de los elementos ai es una combinaci
on lineal de los
otros elementos de C1 ; supongamos que este ai es justamente ar , (en caso de que
no lo sea, reorganizamos el conjunto y cambiamos los subndices).
El espacio cubierto por C1 es el mismo espacio cubierto por A y por {b1 , a1 , a2 ,
, ar1 }, por lo tanto el conjunto C2 = {b2 , b1 , a1 , a2 , , ar1 } es linealmente
dependiente; de nuevo podemos argumentar que alguno de los elementos a i es
una combinaci
on lineal de los otros elementos de C 2 ; supongamos que este ai es
justamente ar1 .
Efectuando este procedimiento podemos construir en forma consecutiva C 3 , C4 ,
, Cr , todos los cuales seran conjuntos linealmente dependientes. Sin embargo,
Cr es
Cr = {br , br1 , , b2 , b1 }
que es un subconjunto de la base B y por lo tanto no puede ser linealmente dependiente. De esta forma demostramos que r < n es una contradicci
on. Como
consecuencia, todas las bases del espacio vectorial deben tener el mismo tama
no,
que coincide con la dimensi
on del espacio.
Ejemplo D.11 Cualquier pareja de vectores no paralelos en el plano es una base
del espacio vectorial R2
Ejemplo D.12 El conjunto formado por los polinomios {1, t, t 2 , t3 } forma una base
del espacio vectorial de los polinomios de orden 3.
Ejemplo D.13 El espacio vectorial de todos los polinomios tiene dimensi
on infinita.
Una base de ese espacio es la formada por los polinomios {1, t, t 2 , t3 , }

D.1.4.

Cambio de base

Sean A = {a1 , a2 , , an } y B = {b1 , b2 , , bn } dos bases del mismo espacio


vectorial V de dimensi
on n. Definimos las matrices A y B como las matrices
que tienen en sus columnas cada uno de los elementos de las bases A y B
respectivamente:


A = a1 a2 an


B = b1 b2 bn

Un vector x tendr
a coordenadas i en la base A y i en la base B, de tal manera
que
x = 1 a1 + 2 a2 + + n an
(D.4)
x = 1 b1 + 2 b2 + + n bn
Definimos los vectores columna y que contienen las coordenadas:


1
1
2
2


= .
= .
..
..
n

245

OSCAR G. DUARTE

de tal manera que podemos reescribir (D.4) como



1



2
x = a1 a2 an . = A
..
n


x = b1

b2


2
bn . = B
..
n

Igualando estas dos expresiones se encuentran las expresiones que permiten


encontrar las coordenadas de x en una base a partir de sus coordenadas en la
otra:
A = B
= A1 B
= B1 A
(D.5)
En caso de que A sea la base est
andar, la matriz A resulta ser la matriz
identidad de orden n y (D.5) se convierte en
= B

= B1

(D.6)

Ejemplo D.14 En R2 puede definirse una base con cualquier pareja de vectores
no paralelos. Definamos por ejemplo A = {(1, 0), (0, 1)}, B = {(3, 1), (2, 2)} y
C = {(1, 1)(1, 1)} (vectores rojos en la figura D.1).
Consideremos ahora el vector x en la figura D.1. Sus coordenadas en la base
estandar A seran
   

1
= 1 =
2
3
Para obtener las coordenadas de x en las bases B y C construimos las matrices
B y C y empleamos (D.6)




3 2
1 1
B=
C=
1 2
1 1
   


1
1/2 1/2 1
1
=
= B1 =
2
3
1/4 3/4
2

   

 
1
1
1/2 1/2
1
=
= C1 =
2
1/2 1/2 3
2

Puede verificarse que las coordenadas en las bases B y C satisfacen las relaciones
(D.5)
= B1 C
= C1 B

246

D.2. TRANSFORMACIONES LINEALES

1 =1

1 =1

2 =3

2 =2

2 =-2
1 =-1
: vector

: base

Figura D.1: Cambio de base de un Vector

D.2.

Transformaciones lineales

Definici
on D.15 Transformaci
on Lineal
Una transformaci
on lineal es una funci
on lineal entre dos espacios vectoriales. Sean
V y W dos espacios vectoriales sobre el mismo campo F. Sea T una funci
on que
toma elementos de V y les asigna elementos de W
T :V W

y = T (x) x V

yW

Si T satisface las condiciones de linealidad se dice que T es una transformaci


on
Lineal. T debe satisfacer:
x1 , x2 V 1 , 2 F T (1 x1 + 2 x2 ) = 1 T (x1 ) + 2 T (x2 )

(D.7)

Ejemplo D.15 La funci


on T : R3 R2 consistente en la proyecci
on de los puntos
en el plano xy es una transformaci
on lineal. Esta funci
on toma un punto (a, b, c) en
R3 y le asigna la pareja (a, b) en R2 .
Ejemplo D.16 La funci
on T : R2 R2 consistente en la rotaci
on de vectores
t
90 exto en sentido horario es una transformaci
on lineal.
Ejemplo D.17 La funci
on T : R3 P , en donde P es el espacio vectorial de los
polinomios, consistente en la construcci
on de polinomios a partir de sus coeficientes
es una transformaci
on lineal. Esta funci
on toma un punto (a, b, c) en R 3 y le asigna
un polinomio a + bx + cx2 en P.
Teorema D.6 Una transformaci
on lineal T de un espacio V de dimensi
on n a un
espacio W de dimensi
on m puede representarse por una matriz T de orden m n.
La columna iesima de T contiene las coordenadas del resultado de aplicar T sobre
el elemento i-esimo de la base de V .
Demostraci
on D.6 Sea x un elemento de V sobre el que se aplica la transformaci
on T
y = T (x)
(D.8)
247

OSCAR G. DUARTE

Sea B = {b1 , b2 , , bn } una base sobre la cual x tiene coordenadas 1 , 2 , n ,


es decir, x puede escribirse como
x = 1 b1 + 2 b2 + + n bn
de tal manera que (D.8) es
y = T (1 b1 + 2 b2 + + n bn )

(D.9)

Debido a que T es una operaci


on lineal y satisfece (D.7), la ecuaci
on (D.9)
puede escribirse como
y = 1 T (b1 ) + 2 T (b2 ) + + n T (bn )

(D.10)

o en forma matricial

y = T (b1 ) T (b2 ) T (bn )


2
.. = T
.

(D.11)

Esto demuestra que La transformaci


on lineal T se puede representar por T, una
matriz cuyas columnas son el resultado de aplicar T en cada una de las bases b i .
el tama
no de cada columna debe ser m, ya que el resultado esta en W , que es de
dimensi
on m, por lo tanto el orden de T es m n. Debe destacarse que el resultado
= u 1T realmente son las coordenadas de y en el espacio W en la base u.
Ejemplo D.18 Podemos definir la transformaci
on lineal T de R 2 a R2 consistente
en la rotaci
on de vectores 90t exto en sentido horario (figura D.2). Si empleamos la
base estandar, podemos construir la matriz T calculando la transformaci
on de cada
uno de los vectores de la base:
  
  

1
0
0 1
T= T
T
=
0
1
1 0
Si deseamos efectuar la rotaci
on sobre
mos efectuar la operaci
on

0
y = Tx =
1

D.2.1.

un vector x de coordenadas (1, 3) debe1


0

   
1
3
=
3
1

Transformaciones y cambios de base

El teorema D.6 permite efectuar transformaciones lineales mediante productos matriciales. Al cambiar de base, la matriz T que representa la transformaci
on
lineal sufre unos cambios, seg
un se presenta a continuaci
on.
Teorema D.7 Sea T una transformaci
on lineal, que en la base estandar se representa por la matriz T . La misma transformaci
on se representara en otra base
B = {b1 , b2 , , bn } por T = B1 T B en donde B = [b1 b2 bn ]
248

D.2. TRANSFORMACIONES LINEALES

: vector

: base

Figura D.2: Rotaci


on de 90o en sentido horario

Demostraci
on D.7 Sup
ongase que el vector x se transforma en el vector y mediante la transformaci
on T . Sean x y x las coordenadas de x en la base estandar
y en la base B, respectivamente. Sean tambien y y y las coordenadas de y en
esas mismas bases. De acuerdo con el teorema D.6 T podra representarse en cada
una de esas bases como
y = T x

y = T x

Las coordenadas en la base B pueden escribirse en funci


on de las coordenadas de
la base estandar empleando (D.6)
y = B1 y

x = B1 x

y por tanto
B1 y = T B1 x
y = BT B1 x
de donde se deduce que
T = BT B1

T = B1 T B

(D.12)

Teorema D.8 Sea T una transformaci


on lineal, que en la base estandar se representa por T . La misma transformaci
on se representara en otra base B =
{b1 , b2 , , bn } por la matriz T . La misma transformaci
on se representara en otra
base C = {c1 , c2 , , cn } por T = C1 BT B1 C en donde B = [b1 b2 bn ]
y C = [c1 c2 cn ]
Demostraci
on D.8 Empleando D.12 podemos escribir T como
T = BT B1

T = CT C1

Igualando se tiene
BT B1 = CT C1
T = C1 BT B1 C
249

OSCAR G. DUARTE

Ejemplo D.19 En el ejemplo D.18 se mostr


o que la rotaci
on de 90 t exto en sentido
horario estaba representada en la base estandar por la matriz


0 1
T =
1 0
La misma transformaci
on se representara en la base B = {(3, 1), (2, 2)} por la
matriz
T = B1 T B

 



2
2
0 1 3 2
1/2 1/2
=
T =
2.5 2
1 0 1 2
1/4 3/4
Sup
ongase ahora el vector x, cuyas coordenadas en la base estandar son x =
(1, 3) y en la base B son x = (1, 2) (ejemplo D.14). Al efectuar la rotaci
on de
90t exto en sentido horario se obtendra un vector y cuyas coordenadas en la base
estandar seran y y en la base B seran y :

   

  

0 1 1
3
2
2
1
2
y =
=
y =
=
1 0 3
1
2.5 2
2
1.5

D.3.

Normas de vectores y matrices

Definici
on D.16 Producto interno
Sea V : (, +, , F) un espacio vectorial sobre F : (, , ). Una operaci
on P :
F se denomina producto interno o producto interior si satisface las
siguientes condiciones
P.1 x1 P (x1 , x1 ) 0 La igualdad se cumple s
olo si x1 = 0
P.2 x1 , x2 , x3 P (x1 + x2 , x3 ) = P (x1 , x3 ) P (x2 , x3 )
P.3 x1 , x2 F P (x1 , x2 ) = P (x1 , x2 )
P.4 x1 , x2 P (x1 , x2 ) = P (x2 , x1 )
Ejemplo D.20 El producto escalar usual es un producto interno. Se define como
hx, yi =

n
X

xi y i

i=1

en donde xi , yi son las coordenadas de x, y respectivamente, y la dimension del


espacio es n,
Definici
on D.17 Norma de un vector
Sea V : (, +, , F) un espacio vectorial sobre F : (, , ). Una operaci
on k k :
F es una funci
on de Norma si satisface las siguientes condiciones
N.1 x kxk 0
250

D.3. NORMAS DE VECTORES Y MATRICES

N.2 kxk = 0 si y s
olo si x = 0
N.3 x F kxk = || kxk
N.4 x1 , x2 kx1 + x2 k kx1 k kx2 k
Ejemplo D.21 Sea V : (, +, , F) un espacio vectorial sobre F, y sea P (x1 , x2 )
un producto interno de ese espacio. Si la cantidad
p
kxk = + P (x, x)

es una funci
on de norma se dice que es una norma inducida por el producto interno
P . El signo + resalta que se trata de la raiz positiva del producto interno de x
consigo mismo.

Ejemplo D.22 Sea V un espacio vectorial de dimensi


on n, y sean x 1 , x2 , , xn las
coordenadas del vector x. En esas condiciones, las siguientes funciones son funciones
de normas:
Pn
1. kxk1 = i=1 |xi |
pPn
2
2. kxk2 =
i=1 xi
pP
3. kxkp = p ni=1 xpi
4. kxk = m
axi xi

Definici
on D.18 Distancia entre vectores
Sea V : (, +, , F) un espacio vectorial sobre F : (, , ), y sea k k una norma
definida en ese espacio vectorial. Se define la distancia entre los vectores x 1 y x2
como la operaci
on d : F tal que
d(x1 , x2 ) = kx1 x2 k
Toda funci
on de distancia satisface las siguientes propiedades:
d.1 x1 , x2 d(x1 , x2 ) 0
d.2 d(x1 , x2 ) = 0 si y s
olo si x1 = x2
d.3 x1 , x2 d(x1 , x2 ) = d(x2 , x1 )
d.4 x1 , x2 , x3 d(x1 , x2 ) d(x1 , x3 ) d(x3 , x2 )
Definici
on D.19 Vector normal
Un vector es normal si su norma es 1
Definici
on D.20 Bola unitaria
Sea V : (, +, , F) un espacio vectorial sobre F, y sea d(x1 , x2 ) una funci
on de
distancia definida en ese espacio vectorial. Se define la bola unitaria como el conjunto
de todos los vectores cuya distancia al origen sea 1. Tambien puede definirse de forma
equivalente como el conjunto de todos los vectores cuya norma sea 1, o lo que es
igual, el conjunto de todos los vectores normales.
251

OSCAR G. DUARTE

k k1

k k2

k k

Figura D.3: Circunferencias Unitarias para diferentes normas

Ejemplo D.23 La figura D.3 muestra las bolas unitarias para tres funciones de
distancia diferentes, originadas las siguientes normas kxk 1 , kxk2 y kxk definidas
en el Ejemplo D.22, para el espacio vectorial R2 . Como se trata de un espacio de
dimensi
on 2 se emplea el termino circunferencia unitaria en lugar de bola unitaria

Definici
on D.21 Angulo
entre vectores
Sea V : (, +, , F) un espacio vectorial sobre F, sea P (x1 , x2 ) un producto interno
definido en ese espacio, y k k la norma inducida por P . Se define el angulo entre
los vectores x1 y x2 mediante cos asi:
cos =

P (x1 , x2 )
kx1 k kx2 k

Definici
on D.22 Vectores ortogonales
Un conjunto de vectores x1 , x2 , , xk es ortogonal si
(
= 0 si i 6= j
P (xi , xj )
6= 0 si i = j
Definici
on D.23 Vectores ortonormales
Un conjunto de vectores x1 , x2 , , xk es ortonormal si es ortogonal y todos sus
vectores son normales, es decir, si
(
0 si i 6= j
P (xi , xj ) = ij =
1 si i = j
en donde ij se conoce como la funci
on delta de Kronecker
Teorema D.9 Los elementos de un conjunto ortogonal de vectores son linealmente
independientes.
Demostraci
on D.9 Sup
ongase un conjunto ortogonal x 1 , x2 , , xk y construyamos una combinaci
on lineal nula de ellos:
1 x1 + 2 x2 + + n xn = 0
252

D.3. NORMAS DE VECTORES Y MATRICES

Si seleccionamos un vector cualquiera xj y efectuamos el producto interno a cada


lado de la ecuaci
on tenemos
1 P (x1 , xj ) + 2 P (x2 , xj ) + + n P (xn , xj ) = 0
Como se trata de un sistema ortogonal el u
nico P (xi , xj ) 6= 0 es P (xj , xj ) = Pi y
por lo tanto
j P (xj , xj ) = j Pi = 0
Y por tanto
j = 0
Este conclusi
on se puede obtener para todos los coeficientes , por lo tanto la unica
combinaci
on lineal nula de los vectores es la que tiene coeficientes nulos, es decir,
los vectores son linealmente independientes.
Definici
on D.24 Proceso de ortonormalizaci
on de Gram-Schmidt
Sea V : (, +, , F) un espacio vectorial sobre F, sea P (x1 , x2 ) un producto interno
definido en ese espacio, y k k la norma inducida por P .Dado un conjunto de
vectores linealmente independientes x1 , x2 , , xk es posible encontrar un conjunto
de vectores ortonormales y1 , y2 , , yk siguiendo el proceso de ortonormalizaci
on
de Gram-Schmidt:
x1
kx1 k
x2 P (x2 , y1 )y1
y2 =
kx2 P (x2 , y1 )y1 k
x3 P (x3 , y1 )y1 P (x3 , y2 )y2
y3 =
kx3 P (x3 , y1 )y1 P (x3 , y2 )y2 k
....
..
P
xk j=1 k 1P (xk , yj )yj
P
yk =
kxk j=1 k 1P (xk , yj )yj k
y1 =

Definici
on D.25 Norma de una matriz cuadrada
Sea A una matriz que representa una transformaci
on lineal A : C n Cn . Se
define la norma de la matriz A inducida por una norma vectorial como
kAxk
= sup kAxk
x6=0 kxk
kxk=1

kAk = sup

Es decir, la norma de una matriz es la norma mas grande que se obtiene al aplicar
la transformaci
on lineal sobre los elementos de la bola unitaria.
Ejemplo D.24 Sea A la matriz
A=


2 1
0 3

253

OSCAR G. DUARTE

Figura D.4: Norma de una matriz basada en k k1

Para calcular kAk1 aplicamos la transformaci


on A a la circunferencia unitaria
de la norma k k1 , tal como se muestra en la figura D.4.
La mayor distancia al origen que resulta es, seg
un la norma k k 1 , la correspondiente a los puntos (1, 3) y (1, 3), por lo tanto
kAk1 = |1| + |3| = 4
Ejemplo D.25 Sea A la matriz
A=



2 1
0 3

Para calcular kAk2 aplicamos la transformaci


on A a la circunferencia unitaria
de la norma k k2 , tal como se muestra en la figura D.5.
La mayor distancia al origen que resulta es, seg
un la norma k k 2 , la marcada
en la figura D.5 como d. Es un ejercicio interesante demostrar que esta distancia
corrresponde a los puntos (1.536, 2.871) y (1.536, 2.871) por lo tanto 1
p
kAk2 = 1.5362 + 2.8712 = 3.256
Tambien puede demostrarse que
q

kAk2 =
13 + 7 = 3.256

Ejemplo D.26 Sea A la matriz


A=



2 1
0 3

1 Un punto de (cos , sin ) de la circunferencia unitaria se transforma en (2 cos +


sin , 3 sin ); su distancia al origen r es tal que r 2 = (2 cos + sin )2 + (3 sin )2 , que puede
escribirse como r 2 = 2 sin 2 3 cos 2 + 7. Los puntos crticos corresponden a dr 2 /d = 0,
es decir a = 21 tan1 ( 23 ); el m
aximo corresponde a = 73.15t exto

254


D.4. SISTEMAS DE ECUACIONES ALGEBRAICAS

Figura D.5: Norma de una matriz basada en k k2

Figura D.6: Norma de una matriz basada en k k

Para calcular kAk aplicamos la transformaci


on A a la circunferencia unitaria
de la norma k k , tal como se muestra en la figura D.6.
La mayor distancia al origen que resulta es, seg
un la norma k k , la correspondiente a cualquiera de los puntos cuya segunda coordenada es 3 o 3, por ejemplo
(1, 3), por lo tanto
kAk = m
ax{1, 3} = 3

D.4.

Sistemas de ecuaciones algebr


aicas

El prop
osito de esta secci
on es el de presentar algunas propiedades de las
matrices. Para ello, consideramos el sistema de ecuaciones algebr
aicas:
a11 x1 + a12 x2 + + a1n xn = y1
a21 x1 + a22 x2 + + a2n xn = y2
..
.
am1 x1 + am2 x2 + + amn xn = ym
255

(D.13)

OSCAR G. DUARTE

que puede escribirse en forma matricial como

Ax = y

a11
a21

A= .
..

am1

a1n
a2n

..
.

a12
a22
..
.

..
.

am2

amn

x1
x1

x= .
..
xn

y1
y1

y= .
..

(D.14)

ym

La ecuaci
on (D.14) puede interpretarse como el sistema de ecuaciones algebracas (D.13), como una transformaci
on lineal A : Rn Rm , o en general
como una transformaci
on lineal de un espacio vectorial de dimensi
on n a otro
espacio vectorial de dimensi
om m A : V W con dim(V) = n y dim(W) = m.
Empleamos esta m
ultiple interpretaci
on para hacer algunas definiciones y
obtener ciertas conclusiones acerca de la existencia y unicidad del sistema de la
soluci
on del sistema de ecuaciones algebr
aicas.
Definici
on D.26 Codominio
El Codominio de un operador lineal A es el conjunto R(A) definido como
R(A) = {y|x, y = Ax}
Teorema D.10 El codominio de un operador lineal A : V W es un subespacio
de W.
Demostraci
on D.10 Es claro que el codominio A es un subconjunto de W, es
decir R(A) W. Sup
onganse dos vectores y1 , y2 de R(A). Seg
un la definici
on
D.26 existen dos vectores x1 , x2 en V tales que
y1 = Ax1

y2 = Ax2

Gracias a la linealidad de A cualquier combinaci


on lineal de y 1 , y2 puede escribirse como
1 y1 + 2 y2 = 1 Ax1 + 2 Ax2 = A(1 x1 + 2 x2 )
es decir, para cualquier combinaci
on lineal de y 1 , y2 es posible encontrar un elemento x V tal que y = Ax y por lo tanto seg
un el teorema D.1 R(A) es un
subespacio de W.
Definici
on D.27 Rango
El rango de una matriz A, denotado por (A) es la dimensi
on del codominio del
operador lineal representado por A (ver figura D.7).

Teorema D.11 El rango de una matriz A es igual el n


umero de columnas linealmente independientes de A.
256


D.4. SISTEMAS DE ECUACIONES ALGEBRAICAS

dim(V) = n

dim(W) = m
V

W
R(A)

(A) = dim(R(A))
Figura D.7: Codominio y rango de un operador lineal

Demostraci
on D.11 Si denotamos la iesima columna de A como a i , es decir
A = [a1 a2 an ] la ecuaci
on D.14 puede escribirse como
y = x 1 a1 + x 2 a2 + + x n an
es decir, y es una combinaci
on lineal de las columnas de A cuyos coeficientes son
x1 , x2 , , xn . El codominio de A sera entonces el conjunto de todas las posibles
combinaciones lineales de las columnas de A, es decir R(A) = span{a 1 , a2 , , an };
por lo tanto la dimensi
on de R(A), que es (A), sera igual al n
umero de elementos
linealmente independientes en el conjunto {a 1 , a2 , , an }.
Ejemplo D.27 Considerese la transformaci
on lineal de R 2 en R2 representada por
y = Ax en donde A es la matriz


1 1
A=
0 0
Esa transformaci
on toma un punto (x1 , x2 ) en el plano y lo convierte en un
punto sobre el eje horizontal (figura D.8):


1 1
y=
0 0

  

x1
(x1 + x2 )
=
x2
0

El codominio de A, que denotamos por R(A) resulta ser el eje horizontal,


es decir, un subespacio de R2 . La dimensi
on de R(A), que es el rango de A,
denotado por (A) es entonces 1. N
otese que el n
umero de columnas linealmente
independientes de A tambien es 1.
Ejemplo D.28 Considerese la transformaci
on lineal de R 2 en R2 representada por
y = Ax en donde A es la matriz


1 2
A=
1 2
257

OSCAR G. DUARTE

(A) = 1

Figura D.8: Codominio y Rango del Operador Lineal del ejemplo D.27

(A) = 1

Figura D.9: Codominio y Rango del Operador Lineal del ejemplo D.27

Esa transformaci
on toma un punto (x1 , x2 ) en el plano y lo convierte en un
punto sobre la recta de pendiente 1 (figura D.9):


  
(x1 + 2x2 )
1 2 x1
=
y=
(x1 + 2x2 )
1 2 x2
El codominio de A, que denotamos por R(A) resulta ser la recta identidad,
es decir, un subespacio de R2 . La dimensi
on de R(A), que es el rango de A,
denotado por (A) es entonces 1. N
otese que el n
umero de columnas linealmente
independientes de A tambien es 1.
En el teorema D.14 se demuestra que el rango de una matriz no se altera
al premultiplicarla o posmultiplicarla por matrices no singulares. Esto significa
que las operaciones elementales sobre matrices no alteran el rango de una matriz
y por lo tanto puede comprobarse que el rango tambien es igual el n
umero de
filas linealmente independientes de la matriz, es decir, para una matriz A de
dimensiones m n se tiene que
(A)
(A)
(A)

= N
umero de columnas L.I.
=
N
umero de filas L.I.

mn (m, n)
258

(D.15)


D.4. SISTEMAS DE ECUACIONES ALGEBRAICAS

dim(V) = n

dim(W) = m
V

N (A)

W
R(A)

A
(A) = dim(N (A))

(A) = dim(R(A))

Figura D.10: Codominio, espacio nulo, rango y nulidad de un operador lineal

Adem
as, puede demostrarse que una matriz es no singular si y s
olo si todas
sus filas y todas sus columnas son linealmente independientes,
Teorema D.12 El sistema de ecuaciones (D.14) donde A es una matriz m n
tiene soluci
on para todo y en W si y solo si R(A) = W, o lo que es equivalente,
si y s
olo si (A) = m
Demostraci
on D.12 La demostraci
on se desprende directamente de las definiciones D.26 y D.27
Definici
on D.28 Espacio Nulo
El Espacio Nulo de un operador lineal A : V W es el conjunto N (A) definido
como
N (A) = {x V| Ax = 0}
La linealidad del operador permite demostrar que el Espacio Nulo es un
Subespacio de V. Esto permite hacer la siguiente definici
on
Definici
on D.29 Nulidad
La Nulidad de un operador lineal A : V W, denotada por (a) es la dimensi
on
del espacio nulo de A
El ejemplo D.29 muestra la relaci
on existente entre el rango y la nulidad de
un operador lineal A : V W, con dim(V) = n y dim(W) = m (figura D.10).
(A) + (A) = n = dim(V)

(D.16)

Teorema D.13 El sistema de ecuaciones Ax = 0 con A una matriz m n tiene


una soluci
on distinta de la trivial si y s
olo si (A) < n. Si m = n esto es equivalente
a decir si y s
olo si det(A) = 0
Demostraci
on D.13 De la definici
on D.29 se desprende que el n
umero de soluciones linealmente independientes de Ax = 0 es (A). Para que exista una soluci
on
no trivial se necesita que (A) 1. Empleando (D.16) esta condici
on se convierte
en (A) < n. Si m = n entonces A es cuadrada y la condici
on es equivalente a
det(A) = 0, ya que las columnas de A seran linealmente dependientes.
259

OSCAR G. DUARTE

Ejemplo D.29 Sup


ongase
53

0 1
A = 2 1
1 0

el sistema de ecuaciones Ax = 0 donde A es la matriz

1 0 1

3 4 1 = a1
1 2 1

a2

a3

a4

a5

en donde las dos primeras columnas son linealmente independientes, pero las u
ltimas
tres no lo son ((A) = 2), ya que pueden escribirse como combinaciones lineales
de las dos primeras:
a3 = a 1 + a 2

a4 = 2a1

a5 = a 1 a 2

(D.17)

El sistema de ecuaciones Ax = 0 puede escribirse como


x 1 a1 + x 2 a2 + x 3 a3 + x 4 a4 + x 5 a5 = 0





1
0
0
1
1
0
x1 2 + x2 1 + x3 3 + x4 4 + x5 1 = 0
1
0
2
1
0
1

Empleando (D.17) la ecuaci


on (D.18) se convierte en


0
1
0
(x1 + x3 + 2x4 + x5 ) 2 + (x2 + x3 x5 ) 1 = 0
1
0
0
(x1 + x3 + 2x4 + x5 )a1 + (x2 + x3 x5 )a2 = 0

(D.18)

(D.19)

(D.20)

Como a1 y a2 son linealmente independientes, (D.20) s


olo puede cumplire si los
coeficientes son cero, es decir si

x1 + x3 + 2x4 + x5 = 0
(D.21)
x2 + x 3 x 5
=0
El sistema de ecuaciones (D.21) tiene 5 inc
ognitas y 2 ecuaciones linealmente
independientes, es decir, existen 3 grados de libertad para escoger los valores de
xi . Dicho de otra forma, (A) = 3. N
otese que (A) + (A) = n (2 + 3 = 5),
cumpliendo con la ecuaci
on (D.16).
Podemos escoger arbitrariamente los valores de 3 de las inc
ognitas x i y deducir
el valor de las otras dos, para construir una base de N (A). Si seleccionamos x 1 , x2
y x3 como los trios (1, 0, 0), (0, 1, 0) y (0, 0, 1) tendremos los tres vectores base de
N (A):

0
0
1
0
1
0

1
0
0

1
1/2
1/2
1
1
0
260

D.5. VALORES Y VECTORES PROPIOS

Teorema D.14 Sea A una matriz m n y C, D dos matrices no singulares cualesquiera n n y m m respectivamente. En esas condiciones se tiene que
(AC) = (A)

(DA) = (A)

Demostraci
on D.14 La demostraci
on se apoya en la desigualdad de Sylvester, que
establece que si existen dos matrices A y B de dimensiones q n y n p entonces
(A) + (B) n (AB) mn((A), (B))

(D.22)

Al aplicar (D.22) a AC y DA se tiene que


(A) + (C) n (AC) mn((A), (C))
(D) + (A) m (DA) mn((D), (A))

como C y D son no singulares, sus rangos son n y m respectivamente:


(A) + n n (AC) mn((A), n)
m + (A) m (DA) mn(m, (A))

Por (D.15) se sabe que (A) mn (m, n), por lo tanto


(A) (AC) (A)
(A) (DA) (A)

Las desigualdades s
olo pueden cumplirse simultaneamente si se tiene que
(A) = (AC)

D.5.

(A) = (DA)

Valores y vectores propios

Definici
on D.30 Valor propio y vector propio2
Sea A una transformaci
on lineal (Cn , C) (Cn , C). Un escalar es un valor
propio si existe un vector no nulo v tal que Av = v. Cualquier vector no nulo v
que satizfaga
Av = v
(D.23)
es un vector propio asociado al valor propio .
La definici
on D.30 implica que para un vector propio v el efecto de aplicarle
la transformaci
on lineal A es igual que amplificarlo por el escalar . Esto implica
que un vector y el vector transformado son colineales o paralelos y por lo tanto
linealmente dependientes.
La definici
on D.30 se refiere estrictamente a valores y vectores propios por
derecha, para distinguirlos de los valores y vectores propios por izquierda, que
deben satisfacer vt A = vt . En este texto s
olo se consideran los primeros, y por
tanto se hace referencia a ellos simplemente como valores y vectores propios.
2 Tambi
en se conocen como autovalores y autovectores o valores caractersticos y vectores
caractersticos.

261

OSCAR G. DUARTE

Teorema D.15 es un valor propio de A si y s


olo si satisface la ecuaci
on
det(I A) = 0

(D.24)

donde I es la matriz identidad de igual orden que A.


Demostraci
on D.15 Si es un valor propio de A entonces existe un vector v tal
que
Av = v
Av v = 0
El termino v puede escribirse como Iv para facilitar la factorizaci
on de v
Av Iv = 0

(A I)v = 0

De acuerdo con el teorema D.13 esta ecuaci


on tiene soluci
on no trivial (existe un
vector propio v) si y s
olo si
det(A I) = 0
Como el determinante de una matriz no se afecta al multilpicar esta por un escalar
no nulo, podemos escribir
det(I A) = 0
El teorema D.15 brinda una posibilidad para calcular los valores propios
de A: podemos construir el polinomio caracterstico () = det(I A) y
encontrar sus raices. Cada raiz de () ser
a un valor propio de A. Los vectores
propios pueden obtenerse directamente de (D.23).
Debido a que los valores propios resultan ser las raices del polinomio caracterstico, estos pueden ser reales o complejos, diferentes o repetidos.
Definici
on D.31 Multiplicidad
La multiplicidad ri de un valor propio i es el n
umero de veces que este aparece
como raiz del polinomio caracterstico.
Ejemplo D.30 Obtener los valores y vectores propios de la matriz


4 1
A=
2 1
Construimos la matriz B = (I A) y hallamos su determinante:

 
 

1 0
4 1
( 4)
1
B = (I A) =

=
0 1
2 1
2
( 1)
(A) = det(B) = ( 4)( 1) + 2 = 2 5 + 6 = ( 2)( 3)
Los valores propios de A seran las raices de (A)
1 = 2

2 = 3

Los vectores propios asociados a 1 = 2 deben cumplir (D.23):


Av1 = 1 v1
262

D.5. VALORES Y VECTORES PROPIOS

4 1
2 1




 
v11
v
= 2 11
v21
v21

 

4v11 + v21
2v11
=
2v11 + v21
2v21

Se crea entonces un sistema de ecuaciones con infinitas soluciones:



4v11 + v21 = 2v11
2v11 + v21 = 2v21

Para obtener un vector propio asociado a 1 = 2 podemos escoger arbitrariamente


un valor para v11 o para v21 . Por ejemplo, si escogemos v11 = 1 obtenemos v21 =
2. En consecuencia, un vector propio asociado a 1 = 2 sera
 


1
a
v1 =
en general v1 =
2
2a
Los vectores propios asociados a 2 = 3 tambien deben cumplir (D.23):


4 1
2 1



v12
v22

Av2 = 1 v2
 

 

v
4v12 + v22
3v12
= 3 12
=
v22
2v12 + v22
3v22

Se crea entonces un segundo sistema de ecuaciones con infinitas soluciones:



4v12 + v22 = 3v12
2v12 + v22 = 3v22
Para obtener un vector propio asociado a 2 = 3 podemos escoger arbitrariamente
un valor para v12 o para v22 . Por ejemplo, si escogemos v12 = 1 obtenemos v22 =
1. En consecuencia, un vector propio asociado a 2 = 3 sera
 
 
a
1
en general v2 =
v2 =
a
1
Ejemplo D.31 Obtener los valores y vectores propios de la matriz


2 1
A=
1 2
Construimos la matriz B = (I A) y hallamos su determinante:

 
 

( 2)
1
2 1
1 0
=

B = (I A) =
1
( 2)
1 2
0 1
() = det(B) = ( 2)2 + 1 = 2 4 + 5

Los valores propios de A seran las raices de ()


1,2 = 2 j

Al aplicar (D.23) para 1 y 2 se obtienen dos sistemas de ecuaciones con infinitas


soluciones


2v12 + v22 = (2 j)v12
2v11 + v21 = (2 + j)v11
v12 + 2v22 = (2 j)v22
v11 + 2v21 = (2 + j)v21
263

OSCAR G. DUARTE

Seleccionando arbitrariamente v11 = 1 y v12 = 1 se obtiene


 
 
1
1
v1 =
v2 =
j
j
o en general

D.5.1.

 
a
v1 =
ja

a
v2 =
ja

Valores propios diferentes

Teorema D.16 Sea A una transformaci


on lineal con valores propios no repetidos,
y sea vi un vector propio de A asociado al valor propio i . En esas condiciones vi
es directamente proporcional a cualquier columna no nula de adj( i I A)
Demostraci
on D.16 La demostraci
on se basa en que para una matriz P se tiene
que
PadjP = det (P)I
(D.25)
Al aplicar (D.25) a la matriz (i I A) se tiene
(i I A)adj(i I A) = det (i I A)I
Como vi es un vector propio de A asociado al valor propio i , entonces Avi = i vi
o lo que es igual
(i I A)vi = 0
(D.26)
lo que implica que det (i I A) = 0 y por tanto
(i I A)adj(i I A) = 0

(D.27)

Comparando (D.26) y (D.27) se concluye que vi es directamente proporcional


a cualquier columna no nula de adj(i I A).
Ejemplo D.32 Para obtener los vectores propios del ejemplo D.30 construimos

adj(1 I A) = adj(2I A) = adj




 
a
1
1
2 1
v1 =
=
2a
2 2
2
1

 

 
1 1
2
1
a
adj(2 I A) = adj(3I A) = adj
=
v2 =
2
2
2 1
a
Teorema D.17 Sean 1 , 2 , , r valores caractersticos diferentes de A, y sea
vi un vector caractersitico asociado a i con i = 1, 2, , r. El conjunto {v1 , v2 ,
, vr } es linealmente independiente.
264

D.5. VALORES Y VECTORES PROPIOS

Demostraci
on D.17 Efectuamos la demostraci
on por contradicci
on. Suponemos
que los vi son linealmente dependientes, y por lo tanto existen i algunos de los
cuales no son nulos, tales que
r
X
i vi = 0
i=1

Suponemos que 1 6= 0, (si es necesario


reordenamos los vectores) y multiplicamos
Qr
a cada lado de la ecuaci
on por j=2 (A j I)
r
Y

j=2

(A j I)

r
X

i vi = 0

(D.28)

i=0

El producto (A j I)vi se puede calcular como


(
(i j )vi
(A j I)vi =
0

si i 6= j
si i = j

Y por lo tanto (D.28) se convierte en


1 (1 2 )(1 3 ) (1 r )v1 = 0
Por hip
otesis, todos los i son diferentes y v1 es no nulo (es un vector propio), lo
que significa que 1 = 0. Con esta contradicci
on se concluye la demostraci
on.
Teorema D.18 Sea A una transformaci
on lineal A : Cn Cn ; sean i los valores
propios de A y vi un vector propio asociado a i , con i = 1, 2, , n . Si todos los
i son diferentes, entonces el conjunto {v1 , v2 , , vn } es una base de Cn .
Demostraci
on D.18 Seg
un el teorema D.17 el conjunto es linealmente independiente. Como ademas tiene n elementos, seg
un el teorema D.2 el conjunto es una
base.
Teorema D.19 Sea A una transformaci
on lineal A : Cn Cn ; sean i los valores
propios de A y vi un vector propio asociado a i , con i = 1, 2, , n. Si todos
los i son diferentes, entonces la transformaci
on lineal A se representa en la base
{v1 , v2 , , vn } por una matriz diagonal en la que el elemento iesimo de la
diagonal es i .


= M1 AM
M = v1 v2 v n
(D.29)

Demostraci
on D.19 El teorema D.7 permite obtener la representaci
on de A en la
tendremos
nueva base. Si denotamos esta representaci
on por A
= M1 AM
A
con M la matriz modal que contiene los vectores propios


M = v1 v2 v n
265

OSCAR G. DUARTE

= y demostramos A
= MAM1 , o
Para demostrar el teorema construimos A

lo que es equivalente, MA = AM:

1 0 0
0 2 0

==
A
..
.. . .
..
.
. .
.
0

y AM:
Calculamos por separado MA

1 0
0 2


= v1 v2 v n
MA
..
..
.
.
0


AM = A v1

v2

..
.

0
0
..
.

 
vn = Av1

= 1 v 1

Av2

2 v 2

n vn

(D.30)

Avn

(D.31)

=
Como Avi = i vi entonces las ecuaciones (D.30) y (D.31) se reducen a MA
AM o lo que es igual
= = M1 AM
A
Ejemplo D.33 La transformaci
on lineal representada por la matriz


4 1
A=
2 1
cuyos valores propios son (Ejemplo D.30) 1 = 2, 2 = 3 con vectores propios v1
v2 :
 
 
1
1
v1 =
v2 =
2
1
Tiene una representaci
on en la base {v1 v2 } por la matriz diagonal
 
 




2 0
1 1
4 1
1 1
1
= 1
=
= M AM =
0
0 3
2 1 2 1
2
1

0
2

Ejemplo D.34 La transformaci


on lineal representada por la matriz


2 1
A=
1 2

cuyos valores propios son (Ejemplo D.31) 1,2 = 2 j con vectores propios v1 v2 :
 
 
1
1
v2 =
v1 =
j
j
Tiene una representaci
on en la base {v1 v2 } por la matriz diagonal
= M1 AM =



2 1 1
j/2 j/2
1 2 j
j/2 j/2
266

 
2+j
1
=
0
j

 

0
= 1
0
2j

0
2

D.5. VALORES Y VECTORES PROPIOS

D.5.2.

Valores propios repetidos

La diagonalizaci
on planteada en el teorema D.19 no siempre es posible si
existen valores propios repetidos. Esto se debe a que el teorema D.17 se refiere a
valores propios distintos, y sin ese resultado no puede asegurarse que el conjunto
{v1 , v2 , , vn } sea una base. Esto se traduce en que la matriz modal M puede
ser singular, y por tanto (D.29) no puede usarse debido a que M1 puede no
existir.
Definici
on D.32 Degeneracidad
El n
umero de vectores propios de una transformaci
on lineal A de orden n n
linealmente independientes asociados a un valor propio i es la degeneracidad del
valor propio i , denotada por di .
Teorema D.20 La degeneracidad de i , un valor propio de una transformaci
on
lineal A de orden n n es igual a
di = n (i I A)

(D.32)

Demostraci
on D.20 Un vector propio vi de A asociado a i debe cumplir
Avi = i v

(i I A)vi = 0

Seg
un la definici
on D.29, el n
umero de vectores propios linealmente independientes
seran entonces la nulidad de la matriz que premultiplica al vector,
di = (i I A)
Podemos emplear (D.16) para escribir
di = n (i I A)
Ejemplo D.35 Obtener los valores y vectores propios de la matriz A y diagonalizarla


1 2
A=
2 5
Construimos la matriz B = (I A) y hallamos su determinante:

 
 

( 1)
2
1 2
1 0
=

B = (I A) =
2
( 5)
2 5
0 1
() = det(B) = ( 1)( 5) + 4 = 2 6 + 9 = ( 3)2
Los valores propios de A seran las raices de (A)
1 = 2 = 1,2 = 3
La degeneracidad de 1,2 = 3 se obtiene con (D.32):
d1 = 2 (3I A)
267

OSCAR G. DUARTE

d1 = 2



31
2




2
2 2
=2
=21=1
35
2 2

Lo anterior significa que aunque tiene multiplicidad 2, s


olo es posible encontrar
un vector linealmente independiente. Este se obtiene empleando (D.23), y resulta
ser
 
 
1
a
v1 =
en general v1 =
1
a
No es posible construir una base para el espacio de dimensi
on 2 con un s
olo
vector, por lo tanto no es posible diagonalizar A.
Ejemplo D.36 Obtener los valores y vectores
zarla

3 0
A= 1 2
1 0

Construimos (I A):

( 3)
I A = 1
1

propios de la matriz A y diagonali


1
1
3

0
( 2)
0

Su polinomio caracterstico resulta ser

1
1
( 3)

() = ( 3)2 ( 2) ( 2) = 3 82 + 20 16
Las raices del polinomio son 1 = 2 = 2 3 = 4. Para determinar la degeneracidad
de 1 calculamos 1 I A

(2 3)
0
1
1 0 1
(2 2)
1 = 1 0 1
I A = 1
1
0
(2 3)
1 0 1
d1 = n (I A)

d1 = 3 1 = 2

Lo anterior significa que existen dos vectores propios linealmente independientes


asociados a 1 = 2 = 2. Estos dos vectores junto con el vector propio asociado a
3 = 4 pueden formar una base y por tanto es posible diagonalizar A. Para obtener
los tres vectores propios empleamos (D.23):

d
d
3 0 1
a
3 0 1 a
1 2 1 e = 2 e
1 2 1 b = 2 b
f
f
1 0 3
c
c
1 0 3
Se originan los sistemas de ecuaciones

3a c = 2a
a + 2b c = 2b

a + 3c = 2c

268

3d f = 4a
d + 2e f = 4e

d + 3f = 4f

D.5. VALORES Y VECTORES PROPIOS

Que se convierten en
d = e = f

a=c

Podemos construir dos vectores linealmente independientes v 1 , v2 que satisfacen


a = c y un tercero v3 que satisface d = e = f , por ejemplo



1
1
1
v3 = 1
v2 = 1
v1 = 0
1
1
1
En la base {v1 v2 v3 } la transformaci
on A se representa por :

1
1
0
3 0 1 1 1 1
1/2 1 2 1 0 1 1
= M1 AM = 1/2 1
1/2
0 1/2 1 0 3
1 1 1


2 0 0
1
= M1 AM == 0 2 0 = 0
0 0 4
0

0
2
0

0
0
3

Definici
on D.33 Vectores propios generalizados
Sea A una transformaci
on lineal A : Cn Cn y sea un valor propio de A. v es
un vector propio generalizado de grado k de A asociado a si y s
olo si
(A I)k v
(A I)k1 v

=0
6= 0

(D.33)

N
otese que para k = 1 la ecuaci
on (D.33) se reduce a (A I) = 0 con
v 6= 0, que coincide con la definici
on D.30 de vector propio.
Definici
on D.34 Cadena de vectores propios generalizados
Sea A una transformaci
on lineal A : Cn Cn y sea v un vector propio generalizado de orden k asociado a . Los vectores vk , vk1 , vk2 , , v1 forman una
cadena de vectores propios generalizados de longitud k si y s
olo si
vk
vk1
vk2
v1

=
=
=
..
.

v
(A I)v
(A I)2 v
..
.

= (A I)k1 v

=
(A I)vk
= (A I)vk1
=

(D.34)

(A I)v2

Teorema D.21 Sea Ni el espacio nulo de (A I)i . Ni es un subespacio de Ni+1 .


Demostraci
on D.21 Sea x un vector en Ni , por lo tanto (A I)i x = 0; al
multiplicar a cada lado por (A I) se tiene que (A I) i+1 x = 0 y por lo tanto
x esta en Ni+1 . Esto demuestra que Ni Ni+1 , y por lo tanto Ni es un subespacio
de Ni+1 .
269

OSCAR G. DUARTE

..
.
vi
vi1


..
.

Ni1 Ni

Ni+1

Figura D.11: Espacios Nulos de (A I)i y cadenas de vectores propios


generalizados

Teorema D.22 Sea Ni el espacio nulo de (A I)i . Sea vi el iesimo vector de


una cadena como las definidas en (D.34). El vector vi esta en Ni pero no en Ni1 .
Demostraci
on D.22 La demostraci
on se obtiene calculando (A I) i vi y (A
i1
I) vi y utilizando (D.34) y (D.33):
(A I)i vi = (A I)i (A I)ki v = (A I)k v = 0
(A I)i1 vi = (A I)i1 (A I)ki v = (A I)k1 v 6= 0
Los teoremas D.21 y D.22 se visualizan en la figura D.11. Cada subespacio
nulo Ni est
a embebido dentro del subespacio nulo Ni+1 , y el vector vi est
a justo
en la diferencia entre Ni y Ni1 .
Teorema D.23 Los vectores de una cadena de vectores propios generalizados como
los de la definici
on D.34 son linealmente independientes.
Demostraci
on D.23 Dado que cada vector vi pertenece a un subespacio diferente, seg
un se muestra en la figura D.11, estos vectores no pueden ser linealmente
dependientes.
Ejemplo D.37 Sea A la transformaci
on 2 2


1 2
A=
2 5
270

D.5. VALORES Y VECTORES PROPIOS

que tiene un valor propio repetido = 3 Para encontrar los espacios nulos N 1 y N2
construimos las matrices B y B2 :

2 2
B = (A I) =
2 2


0 0
B =
0 0
2

El espacio nulo N1 es el conjunto de los vectores v1 tales que Bv1 = 0, mientras


que el espacio nulo N2 es el conjunto de los vectores v2 tales que B2 v2 = 0.
Claramente se ve que
 
 
b
a
v2 =
v1 =
c
a
Es decir, el espacio nulo N1 es la recta de pendiente 1, mientras que el espacio
nulo N2 corresponde a R2 , tal como se muestra en la figura D.12.
Un vector propio generalizado de orden 2 debe estar en N 2 , pero no en N1 , por
ejemplo
 
1
v=
0
Lo que origina una cadena de vectores generalizados
v2
v1
v2 =

=
v
= (A I)v2

 
1
0

v1 =


2
N1
2

Teorema D.24 Sea A una transformaci


on lineal n n con un u
nico valor propio
repetido, 1 = 2 = = n = . Sea v un vector propio generalizado de
orden n asociado a . En esas condiciones, se cumple que J = M 1 AM en donde
M es la matriz modal formada por los vectores de la cadena de vectores propios
generalizados creada por v y J es una matriz n n casi-diagonal que tiene a en
la diagonal, 1 encima de la diagonal, y 0 en cualquier otro lugar. Es decir

1
0

0 0

J = . .
.. ..

0 0
0 0

0 0
1 0
0
.. . .
.
. ..
.
0 1
0


= v1

v2

vn

1


A v1

v2

vn

(D.35)

Demostraci
on D.24 Demostrar (D.35) equivale a demostrar MJ = AM, por lo
271

OSCAR G. DUARTE

B
0

1 = dim(N1 ) = 1
B2

2 = dim(N2 ) = 2

Figura D.12: Espacios Nulos del ejemplo

tanto calculamos por separado MJ y AM y comparamos

1 0
0 1



0 0
MJ = v1 v2 v3 vn . . .
.. .. ..

0 0 0
0 0 0

los resultados:

0
0

..
..
. .



MJ = v1 (v1 + v2 ) (v2 + v3 ) (vn1 + vn )

 

AM = A v1 v2 v3 vn = Av1 Av2 Av3 Avn

De acuerdo con la definici


on D.34, el vector vi de la cadena se calcula como
vi = (A I)vi+1 , por lo tanto
Avi+1 = vi + vi+1

i = 1, 2, , n 1

lo que significa que las columnas 2, 3, , n de MJ son iguales a las de AM. Para
demostrar que la primera columna tambien es igual, empleamos el teorema D.22,
seg
un el cual v1 N1 , es decir
(A I)1 v1 = 0
y por lo tanto Av1 = v1 , lo que concluye la demostraci
on.
272

D.5. VALORES Y VECTORES PROPIOS

Nr

N2

N1 {

} 1

Figura D.13: Diagrama de Matthew vaco

Ejemplo D.38 Sea A la transformaci


on 2 2


1 2
A=
2 5
que tiene un valor propio repetido = 3 y una cadena de vectores propios generalizados (ejemplo D.37):
 
 
1
2
v2 =
v1 =
0
2
El resultado de calcular M1 AM es

 

1 

3 1
1 2 2 1
2 1
=
M1 AM =
0 3
2 5 2 0
2 0

D.5.3.

Obtenci
on de vectores propios generalizados

El teorema D.24 supone que la matriz A de tama


no n n tiene un vector
propio generalizado de orden n asociado al valor propio , a partir del cual se
construye una u
nica cadena de vectores. Esto no siempre sucede, por lo tanto,
es necesario contar con un procedimiento para encontrar el conjunto de vectores
propios asociados a .
Seg
un el teorema D.21, Ni es un subespacio de Ni+1 , si denotamos por i la
dimensi
on de Ni , lo anterior significa que i < i+1 .
Este hecho permite construir el diagrama de Matthew (figura D.13) en el que
se muestran las nulidades 1 , 2 , , r mediante casillas de un arreglo (i ser
a
igual al n
umero de casillas para Ni en el arreglo).
Debido a que Ni es el espacio nulo de B = (A I)i , es posible calcular i
empleando (D.16) y de esa manera establecer la forma del diagrama de Matthew
i = n (Bi )
Si definimos i = i i1 el diagrama de Matthew tendr
a la forma que se
muestra en la figura D.14
Ejemplo D.39 Forma del arreglo
273

OSCAR G. DUARTE

2
1

Figura D.14: Diagrama de Matthew vaco simple

r
r1
..
.

v1
Bv1
..
.

v2
Bv2
..
.

2
1

Br1 2 v1
Br1 1 v1

Br2 2 v2
Br1 1 v2

vq1
Bvq1

vq

Figura D.15: Diagrama de Matthew lleno

Cada casilla del diagrama de Matthew podra contener un vector de la base


para un Ni . Los vectores que sirven de base para Ni tambien pueden formar
parte de la base de Ni+1 , ya que Ni Ni+1 .
Debido al teorema D.22, un vector vi de una cadena de vectores puede formar
parte de una base para Ni que no pueden formar parte de una base para Ni1 .
Esto permite dise
nar una estrategia para buscar las bases de los Ni y asi llenar
el diagrama de Matthew. Para ello empleamos las siguientes convenciones .
1. Identificar el n
umero de columnas del diagrama como q.
2. Identificar las columnas del diagrama como c1 , c2 , , cq de izquierda a
derecha.
3. Identificar el tama
no de cada columna como h1 , h2 , , hq .
4. Identificar cada celda por los subndices i, j, con j = 1, 2, , q e i =
1, 2, , rj de arriba a abajo.
5. Identificar el vector de la celda i, j por xi,j .
Para llenar el diagrama de Matthew deben buscarse q vectores propios generalizados v1 , v2 , , vq de orden h1 , h2 , , hq respectivamente. Cada uno
de estos vectores estar
a ubicado en la primera celda de las columnas, es decir
xi,1 = vi . Cada columna se completa con la cadena de vectores propios generalizados creada por el primer elemento de la columna. La forma que adopta el
diagrama de Matthew se muestra en la figura D.15.
274

D.5. VALORES Y VECTORES PROPIOS

Ejemplo D.40 Sea A la matriz3

3 1 1
1
0
0
1 1 1 1 0
0

0 0
2
0
1
1

A=
0 0
0
2 1 1

0 0
0
0
1
1
0 0
0
0
1
1
Para calcular los valores propios de A hacemos

det (A I) = [(3 )(1 ) + 1]( 2)2 [(1 )2 1] = ( 2)5 = 0


Es decir, A tiene un valor propio 2 de multiplicidad 5 y un valor propio 0 de
multiplicidad 1. Nos proponemos encontrar el diagrama de Matthew de los vectores
propios asociados a 1 = 2.
Para ello definimos B = (A 2I) y calculamos B0 , B1 , B2 , B3 ,
B0 = I

1 1
1 1

0 0
B1 =
0 0

0 0
0 0

0 0
0 0

0 0
2
B =
0 0

0 0
0 0

0 0
0 0

0 0
B3 =
0 0

0 0
0 0

(A 2I)0 = 6

0 = 6 6 = 0

1
1
0
0
1 1 0
0

(A 2I) = 4
0
0
1
1

0
0 1 1
1 =64=2

0
0 1 1
0
0
1 1

2 2 0
0
2 2 0
0

0 0 0
0
(A 2I)2 = 2

0 0 0
0
2 = 6 2 = 4

0 0 2 2
0 0 2 2

0 0 0
0
0 0 0
0

0 0 0
0
(A 2I)3 = 1

0 0 0
0
3 = 6 1 = 5
0 0 4 4
0 0 4 4

Puede comprobarse que 4 = 3 = 5 y por tanto no es necesario continuar. Con


la informaci
on anterior podemos calcular i :
3
2
1

= 3 2
= 2 1
= 1 0

= 54= 1
= 42= 2
= 20= 2

Con esta informaci


on podemos construir el diagrama de Matthew
3 adaptado

de [5, pp.: 43]

275

OSCAR G. DUARTE

v1
Bv1
B2 v 1

v2
Bv2

De donde se deduce que q = 2, h1 = 3 y h2 = 2.


El algoritmo para encontrar v1 , v2 , , vq es el siguiente:
1. c = 1.
2. V una matriz vaca.
3. P una matriz vaca.
4. Encontrar Nhc , una base para Nhc .


5. Construir Q = P Bhc 1 Nhc .

6. Emplear el algoritmo izquierda-a-derecha para extraer las columnas de Q


linealmente independientes y adicion
arselas a P. Por cada columna que se
extraiga de Q se extrae la columna correspondiente de Nhc y se adiciona
a la matriz V.

7. Sea d la siguiente columna con hd < hc . Hacer c = d y repetir desde 4


hasta terminar las columnas
8. V es la matriz que contiene a v1 , v2 , , vq .
Ejemplo D.41 Para obtener los vectores v1 y v2 del ejemplo D.40 identificamos
q = 2, h1 = 3, h2 = 2, y empleamos el algoritmo siguiendo los siguientes pasos
1. Para c = 1 se tiene que hc = 3, por lo tanto buscamos N3 una base para N3 ,
es decir buscamos los vectores x tales que B3 x = 0:

0 0 0 1
0
0 0 1 0
0

0 1 0 0
0

N3 =

1
0
0
0
0

0 0 0 0 0.707
0 0 0 0 0.707


2. Construimos Q = B2 N3

2
2

0
Q=
0

0
0

2
2
0
0
0
0

276

0
0
0
0
0
0

0
0
0
0
0
0

0
0

0
0

D.5. VALORES Y VECTORES PROPIOS

3. Al aplicar el algoritmo izquierda-a-derecha s


olo se extrae la primera columna
de Q, por lo tanto las matrices P y V seran:


0
2
0
2


0
0

V=
P=
1
0


0
0
0
0

4. La siguiente columna de altura menor a 3 es la columna 2, con h 2 = 2, por lo


tanto buscamos N2 una base para N2 , es decir buscamos los vectores x tales
que B2 x = 0:

0
0
0
1
0.707 0.707
0
0

0.5
0.5
0
0

N2 =
0.5
0.5
0
0

0
0
0.707 0
0
0
0.707 0


5. Construimos Q = P BN2

2 0.707 0.707
0
1
2 0.707 0.707
0
1

0
0
0
1.414
0

Q=
0
0
1.414 0

0
0
0
0
0
0
0
0
0
0
0
6. Al aplicar el algoritmo izquierda-a-derecha s
olo se extraen la primera y la
cuarta columnas de Q, por lo tanto las matrices P y V seran:

2
0
0
0
2
0
0
0

0 1.414
0
0

P=
V=

0
0 1.414
1

0
0 0.707
0
0
0
0 0.707


7. La matriz V = v1 v2 contiene los dos vectores necesarios para construir el
diagrama de Matthew, por lo tanto el conjunto completo de vectores propios
generalizados de A asociados a 1 = 2 son los que aparecen en el diagrama
de Matthew:

2 1 0
0
0
2 1 0
0
0

 2
 0 0 0 1.414
0

B v1 Bv1 v1 Bv2 v2
=
0
0 0 1 1.414

0 0 0
0
0.707
0 0 0
0
0.707
277

OSCAR G. DUARTE

D.6.

Forma can
onica de Jordan

Sea A una transformaci


on lineal A : Cn Cn . Sean 1 , 2 , , m los valores propios diferentes de A. Sea j uno de esos valor propios, de multiplicidad
rj cuyo diagrama de Matthew, tiene qj columnas; la iesima columna tendr
a
altura hij ; adem
as los vectores propios generalizados asociados a j obtenidos
con este diagrama son vj1 , vj2 , , vjrj .
En esas condiciones, es posible encontrar dos matrices M y J tales que
J = M1 AM

J11
0

..
.

J=


M = v11

..
.

0
J12
..
.

0
0
..
.

J1q1

0
..

j
0

..
Jji =
.

0
0
v12

(D.36)

v1r1

.
Jm1
0
..
.

0
Jm2
..
.

..
.

0
0
..
.

Jmqm

1
j
..
.

0
1
..
.

0
0

0
0

0
0

..
. 1
j h

vm1

vm2

(D.37)

(D.38)

ij hij

vmrm

(D.39)

J es conocida como la forma can


onica de Jordan de A. La ecuaci
on D.37
muestra que la matriz J es diagonal por bloques, es decir, est
a formada por
bloques organizados en la diagonal. Por fuera de estos bloques s
olo hay ceros
en la matriz. M es la matriz modal, y est
a formada por los vectores propios
generalizados de A. La matriz modal no es u
nica.
Los bloques Jji que forman J tienen las siguientes propiedades:
Cada valor propio diferente j tendr
a asociados uno o varios bloques Jji .
El n
umero de bloques asociados a j ser
a igual al n
umero de columnas de
su diagrama de matthew, qj .
Los bloques Jji son cuadrados, y el tama
no del bloque (el n
umero de filas
o de columnas) es igual a la altura de la columna correspondiente en el
diagrama de Matthew, hij .
278


D.6. FORMA CANONICA
DE JORDAN

Cada bloque Jji tiene en la diagonal al valor propio j , tiene 1 por encima
de la diagonal, y cero en las restantes casillas.
Cada valor propio que no se repita tendr
a asociado un u
nico bloque de
tama
no 1.
En el caso sencillo en que ning
un valor propio se repita J ser
a una matriz
diagonal que tendr
a en la diagonal a los valores propios 1 , 2 , , n .
Ejemplo D.42 Para obtener la forma can
onica de Jordan de la matriz A del ejemplo D.40, se necesita construir la matriz modal M con todos los vectores propios
generalizados. En el ejemplo D.41 se calcularon los vectores asociados a 1 = 2. En
vector propio asociado a 2 = 0 sera:

0
0

v=
0

0.707
0.707

Por lo tanto la matriz modal

2 1
2 1

0 0
M=
0 0

0 0
0 0

sera

0
0
0
0
0
0
0
0

0 1.414
0
0

1 1.414
0
0

0
0
0.707 0.707
0
0
0.707 0.707

La forma can
onica de Jordan sera

2 1 0
0

0 2 1
0

0 0 2
0

J = M1 AM =
0 0 0
2

0 0 0
0

0 0 0
0

0
0
0
1
2
0

0
0
0


0

0
=
0
0

0
0
0

1
2
0
0
0
0

0
1
2
0
0
0

0
0
0
2
0
0

0
0
0
1
2
0

0
0

0
0

N
otese que el valor propio 1 = 2 tiene dos bloques de Jordan asociados de
tama
no 3 y 2 respectivamente, tal como se podra infereir de su diagrama de Matthew: el diagrama tiene dos columnas, la primera de altura 3 y la segunda de altura
2.
El valor propio 2 = 0 no se repite, y por tanto tiene un u
nico bloque de jordan
asociado de tama
no 1.
279

OSCAR G. DUARTE

D.7.

Forma can
onica real de Jordan

Dado que los valores propios de una matriz pueden ser complejos, en general
las matrices J y M que aparecen en las ecuaciones (D.37), (D.38) y (D.39) ser
an
complejas.
No obstante, cuando existen valores propios complejos es posible efectuar
otro cambio de coordenadas diferente que produce tambien una matriz diagonal
por bloques, pero real, conocida como la forma can
onica Real de Jordan.

D.7.1.

Bloques de Jordan de tama


no 1

Sup
ongase que la matriz A tiene dos valores propios complejos conjugados
i = a + jb y i+1 = a jb, y que cada uno de estos valores tiene un bloque
de Jordan de tama
no 1 asociado a los vectores propios generalizados v k y vk+1 ,
que tambien son complejos conjugados. Es decir, la forma can
onica de Jordan
de A es de la forma

..
.

a + jb
0
1

J = M AM =

0
a

jb

..
.


M = vk vk+1
La forma can
onica real de Jordan remplaza los dos bloques de tama
no 1 por
uno de tama
no 2 de la forma


a b
b a
Es decir, la forma can
onica real de Jordan de A ser
a

..
.

a b
1

JR = MR AMR =

b a

..
.

La matriz modal real MR se obtiene remplazando en M los vectores complejos conjugados vk y vk+1 por dos vectores reales con la parte real y la parte
imaginaria de v, es decir


MR = Re(vk ) Im(vk )

Ejemplo D.43 Sea la matriz A

0 0.5 0
A = 0 0 2
1 1 2

280


D.7. FORMA CANONICA
REAL DE JORDAN

Los valores propios de A son


1 = 1

2,3 = 0.5 j0.866

La forma can
onica de Jordan de A y la matriz modal que la producen son:

1
0
0

0
J = 0 0.5 + j0.866
0
0
0.5 j0.866

0.408 (0.015 j0.408) (0.015 + j0.408)


(0.721 + j0.382)
(0.721 j0.382)
M = 0.816
0.408
(0.346 j0.217)
(0.346 + j0.217)

Para obtener la Forma Can


onica Real de Jordan de A construimos la matriz real
MR , y verificamos.

0.408 0.015 0.408


0.721
0.382
MR = 0.816
0.408
0.346 0.217

1
0
0
0
0.5 0.866
JR = M1
R AMR
0 0.866 0.5
Otra alternativa
dado un bloque
Ji =

a + jb
0

0
a jb

existe una matriz N tal que NAN1 es real, con la forma can
onica real de
Jordan:




(1 j) (1 + j)
a b
N=
NAN1 =
(1 + j) (1 j)
b a
Una interpretaci
on
Un bloque real de jordan Jr asociado a un valor propio a + jb puede reescribirse de la siguente forma:

 
 

0 b
a 0
a b
= aI + bL
+
=
Ji =
b 0
0 a
b a
En donde p
I es la matriz identidad, y L es una matriz que cumple un papel
similar a j = (1), ya que


0 1
J=
J2 = I
1 0
De esta manera, un bloque de real de Jordan puede interpretarse como un
n
umero complejo matricial.
281

OSCAR G. DUARTE

D.7.2.

Bloques de Jordan de tama


no mayor que 1

dado un bloque

a + jb
1
0
0
0
a + jb
0
0

Ji =
0
0
a jb
1
0
0
0
a jb

Su forma can
onica real de Jordan es

a b
b a
JRi =
0 0
0 0

1 0
0 1

a b
b a

En la diagonal est
a la nueva presentaci
on de los e-valores, como bloques
reales de Jordan y sobre la diagonal est
a la matriz identidad. Para obtener est
a
matriz puede procederse de forma similar a como se hace con los bloques de
tama
no 1, es decir, remplazar los vectores propios complejos conjugados por
vectores con las partes real e imaginaria de estos.
En general JRi ser
a de la forma:

(aI + bL)
I
0
0
0

0
(aI + bL) I
0
0

..
..
..
..
..
..
(D.40)

.
.
.
.
.
.

0
0
0 (aI + bL)
I
0
0
0
0
(aI + bL)

D.8.

Funciones de matrices cuadradas

Sea f () una funci


on que opera sobre un escalar, y sea A una matriz cuadrada n n. En esta secci
on se aborda el problema de c
omo calcular f (A), es
decir, c
omo extender f () de los escalares a las matrices.

D.8.1.

Polinomios de matrices

Si f () es un polinomio, la extensi
on a las matrices se fundamenta en la
definici
on
A0 = I
(D.41)
Ak = AA
A}
| {z
k veces

Si la matriz A tiene una representaci


on can
onica de Jordan J obtenida con
la matriz modal M, es decir, si A = MJM1 entonces
Ak = (MJM1 )(MJM1 ) (MJM1 ) = M (J J) M1
|
{z
}
| {z }
k veces

k veces

282

D.8. FUNCIONES DE MATRICES CUADRADAS

Ak = MJk M1

(D.42)
k

Como J es una matriz diagonal por bloques, el c


alculo de J puede efectuarse
como sigue:

J1 0 0
J1 0 0
0 Jk2 0
0 J2 0

Jk = .
J= .

.. . .
.
.
.
.
..
. . ..
..
..
. ..
.
0 0 Jn
0
0 Jkn
Empleando la definici
on (D.41), un polinomio generico
f () = a0 + a1 + a2 2 + + an n
puede calcularse en A como
f (A) = a0 I + a1 A + a2 A2 + + an An
o en funci
on de las matrices M y J:
f (A) = a0 MM1 + a1 MJM1 + a2 MJ2 M1 + + an MJn M
f (A) = Mf (J)M1

(D.43)

Ejemplo D.44 Calcular Ak cuando A es una matriz diagonal:

k
1 0 0
1 0
0 2 0
0 k2

A= .
Ak = .
.. . .
..
.. . .
..

..
.
.
.
.
.
0

0
0
..
.

kn

Ejemplo D.45 Calcular Ak cuando A es una matriz con la forma de los bloques
reales de Jordan para el caso en que los valores propios son imaginarios puros


0 b
A=
b 0
calculamos los primeros terminos A1 , A2 , A3 , A4 , A5 y A6 :


 2



0 b
b
0
0 b3
1
2
3
A =
A =
A = 3
b 0
0
b2
b
0
 4





b
0
0
b5
b6
0
4
5
6
A =
A =
A =
0 b4
b5 0
0
b6

Observando la secuencia se puede inferir que


"
#
k

0
(1) 2 bk

0
(1) 2 bk

Ak = "
#

k1

2 bk
0
(1)

(1) k+1
2 bk
0
283

si k es par

si k es impar

OSCAR G. DUARTE

Ejemplo D.46 Calcular Ak cuando A es una matriz con la forma de los bloques
de Jordan; para ilustrar este caso supongamos una matriz de tama
no 5 5

A=
0
0
0

1 0
1
0
0 0
0 0

0 0
0 0

1 0

1
0

Calculamos los primeros terminos A1 , A2 , A3

1
0

A1 =
0 0
0 0
0 0

3
0

A3 =
0
0
0

5
0

A5 =
0
0
0

32
3
0
0
0
54
5
0
0
0

0 0
1 0
1
0
0 0

3
32
3
0
0
103
54
5
0
0

1
3
32
3
0
102
103
54
5
0

0
0

0
1

32
3

2
0

A2 =
0
0
0

2
2
0
0
0

4
0

A4 =
0
0
0

5
0
102

103
A =0
4
0
5
5
0

1
2
2
0
0
43
4
0
0
0

65
6
0
0
0

0
1
2
2
0

0
0

2
2

62
43
4
0
0

4
62
43
4
0

154
65
6
0
0

203
154
65
6
0

1
4

62

43
4

152
203

154

65
6

Puede verse que Ak es una matriz triangular superior, en la que los elementos
de la fila i son los mismos elementos de la fila i + 1 pero estan desplazados una
casilla a la derecha.
Los terminos de la diagonal son k . Denotemos por aj un elemento que este
desplazado j casillas de la diagonal en cualquier fila; a j sera
aj =

0
k!
kj
j!(kj)!

si j < k
si j k

aj =

 
k
kj
j

Este resultado se puede generalizar para una matriz n n con la forma de los
bloques de Jordan:

1 0 0
0 1 0

..
..
A = ... ... . . .
.
.

0 0 1
0 0 0
284

D.8. FUNCIONES DE MATRICES CUADRADAS

k
0

.
Ak =
..

0
0

k!
k2
2!(k2)!
k!
k1
1!(k1)!

k!
k1
1!(k1)!
k

..
.
0
0

..

.
0
0

..
.
k
0

k!
kn+1
(n1)!(kn+1)!
k!
kn+2

(n2)!(kn+2)!

..
.

k!
k1
1!(k1)!
k

(D.44)

En caso de que un exponente k j sea negativo, el termino correspondiente en


D.44 sera 0

D.8.2.

Funciones como series de potencias

Es posible extender una funci


on f () de los escalares a las matrices empleando la representaci
on de f () en series de Taylor expandidas alrededor de
0 (series de MacLaurin):

X
k dk f ()
f () =
k! d k

(D.45)

k=0

Empleando (D.45) se puede expresar f () como un polinomio de . Si A es


una matriz cuadrada, puede calcularse f (a) empleando ese polinomio.
Las siguientes son las expansiones de algunas funciones comunes:
et = 1 +

cos t = 1
sin t =

t 2 t2
3 tk
4 tk
+
+
+
+
1!
2!
3!
4!

(D.46)

4 t4
6 t6
8 t8
2 t2
+

+
+
2!
4!
6!
8!

(D.47)

t 3 t3
5 t5
7 t7

+
1!
3!
5!
7!

(D.48)

Ejemplo D.47 Sea A una matriz diagonal como la del ejemplo D.44. Para calcular
eAt podemos emplear (D.46)
eAt = I +

A3 t k
A4 t k
At A2 t2
+
+
+
+
1!
2!
3!
4!

que de acuerdo con

1 0
0 1

eAt = . . .
..
.. ..

los resultados del ejemplo D.44 se calculara asi:

2
0
1 0 0
1 0 0
2

0
t

0 2 0 t2 0 2 0
.. + ..
.. + ..
.. +
.. . .
.. . .
. . 2! .
. .
. 1! .
.
.
0 0 1
0
0 n
0
0 2n
285

OSCAR G. DUARTE

At

(1 +

1 t
1!

21 t2
2!

+
0
..
.

+)

(1 +

2 t
1!

22 t2
+ 2! + )
..
..
.
.
0
(1 +

0
0
..
.
1 t
1!

+)

Cada uno de los terminos de la diagonal corresponde a la expansi


on de en series
de Taylor de una exponencial como las de (D.46), por lo tanto e At sera:

t
e 1
0

0
0
e 2 t
0

eAt = .
..
.
.
..
..
..
.
0

e n t

Ejemplo D.48 Sea A una matriz con la forma de los bloques reales de Jordan para
el caso en que los valores propios son imaginarios puros, como la del ejemplo D.45.
Para calcular eAt podemos emplear (D.46)
eAt = I +

At A2 t2
A3 t k
A4 t k
+
+
+
+
1!
2!
3!
4!

que de acuerdo con los resultados del ejemplo D.45 se calculara asi:

 3


 2 2
 4 4

t 0 b3
t b
t b
t 0 b
0
0
1 0
At
+
+
e =
+
+
+
b2
0
0 1
1! b 0
2! 0
3! b3
4! 0 b4
#
"
4 4
3 3
5 5
2 2
( tb
t 3!b + t 5!b + )
(1 t 2!b + t 2!b + )
At
1!
e =
2 2
4 4
t 3 b3
t 5 b5
(1 t 2!b + t 2!b + )
( tb
1! + 3! 5! + )
Cada uno de los terminos de la matriz corresponde a la expansi
on de Taylor de una
sinusoide como las de (D.47) y (D.48), por lo tanto eAt puede calcularse como


cos(bt) sin(bt)
eAt =
sin(bt) cos(bt)

Ejemplo D.49 Sea A una matriz con la forma de los bloques de jordan como la
del ejemplo D.46. Para calcular eAt podemos emplear (D.46)
eAt = I +

At A2 t2
A3 t k
A4 t k
+
+
+
+
1!
2!
3!
4!

que de acuerdo con

1 0 0
0 1 0
At
e =
.. .. . .
.
. .
eAt

los resultados del ejemplo D.46 se calculara asi:

2 1

1
1 0

2!
1!
k
t

t

2! +
+ 0 1 + 0
1! .. .. . .
2! ..
..
..
..
..
..
. .
.
. .
.
.
.
.

P k k P
P
k1 k
k2
k

k=0 k!
k=1
k=2 2!(k2)!
P 1!(k1)!
P

k k
k1
k

t
0

=
k=0 k!
k=1 1!(k1)!

..
..
..
..
.
.
.
.
286

D.8. FUNCIONES DE MATRICES CUADRADAS

k=0

eAt =

k t k
k!

0
..
.

t
1!

k1 tk1
k=1 (k1)!
P k tk
k=0 k!

..
.

t2
2!
t
1!

k2 tk2
k=2 (k2)!
P k1 tk1
k=1 (k1)!

..

Efectuando el cambio de variable m = k j se tiene


P k k
t
t P
m t m
t2 P
k=0

eAt =

k!

0
..
.

1!

m=0
P k(m)!
tk
k=0 k!

..
.

2!
t
1!

m t m
m=0 (m)!
P m tm
m=0 (m)!

..

..
.

..
.

Cada una de las sumatorias corresponde a la expansi


on de taylor de una exponencial como la de (D.46), por lo tanto

t t t t2 t

e
1! e
2! e
t t


et
eAt = 0
(D.49)

1! e
..
..
..
..
.
.
.
.

Ejemplo D.50 Sea A una matriz con la forma de los bloques reales de Jordan


a b
A=
b a
Para calcular eAt escribimos A como la suma de dos matrices:



 

a b
a 0
0 b
A=
=B+C=
+
b a
b 0
b 0

De tal manera que eAt = eBt eCt . Empleando los resultados de los ejemplos D.47 y
D.48 se tiene que
 at



e
0
cos(bt) sin(bt)
Ct
eBt =
e
=
0 eat
sin(bt) cos(bt)
y por lo tanto
 at
e
At
e =
0

D.8.3.

0
eat



  at

cos(bt) sin(bt)
e cos(bt) eat sin(bt)
=
sin(bt) cos(bt)
eat sin(bt) eat cos(bt)

Definici
on de funciones mediante polinomios

Definici
on D.35 Polinomio mnimo de una matriz
Sea A una matriz cuadrada. El polinomio mnimo de A es el polinomio m
onico
() de menor orden tal que (A) = 0
Teorema D.25 El polinomio mnimo de una matriz cuadrada A es el mismo polinomio mnimo de su representaci
on can
onica de Jordan J.
287

OSCAR G. DUARTE

Demostraci
on D.25 En virtud de (D.43), es claro que (A) = 0 si y s
olo si
(J) = 0.
Definici
on D.36 Indice de una matriz
Sea A una matriz cuadrada, cuya forma can
onica de Jordan es J, de la forma de
(D.37). Cada valor propio j es de multiplicidad rj y tiene asociados qj bloques de
Jordan de la forma de (D.38). Cada bloque es de tama
no h ij . Se define el ndice
del valor propio j , denotado por n
j como el tama
no mas grande de los bloques de
jordan Jji asociados al valor propio j . Claramente n
j rj y n
j = m
axi {hij }.
Teorema D.26 Sean 1 , 2 , , m , los valores propios de una matriz A con ndices n
1, n
2, , n
m respectivamente. El polinomio mnimo de A es
() =

m
Y

j=1

( j )n j

(D.50)

Demostraci
on D.26 De acuerdo con el teorema D.25, basta con demostrar que
(D.50) es el polinomio mnimo de J, la forma can
onica de Jordan de A.
Consideremos primero la matriz Jj con los bloques de Jordan asociados al valor
propio j :

Jj1 0
0
0 Jj2
0

Jj = .
.
..
.
..
..
..
.
0

Jjqj

El polinomio mnimo de Jj es j () = ( j )n j como puede comprobarse al


calcular (Jji j I)hij :

0
0

(Jji j I) = .
..

0
0

1 0
0 1
0 0
.. .. . .
.
. .
0 0
0 0

0 0
0 0

0 0

.. ..
. .

0 1
0 0
h

0 1
0 0
0 0
.. .. . .
.
. .
0 0
0 0

0 0
0 0
0 0
.. ..
. .
0 0
0 0

0
0

2
(Jji j I) = .
..

0
0

288

ij hij

hij hij

D.8. FUNCIONES DE MATRICES CUADRADAS

(Jji j I)hij 2

0
0

= .
..

0
0

0 0
0 0
0 0
.. .. . .
.
. .
0 0
0 0

1 0
0 1
0 0
.. ..
. .
0 0
0 0

0
0

= .
..

0
0

0 0
0 0
0 0
.. .. . .
.
. .
0 0
0 0

0 1
0 0
0 0
.. ..
. .
0 0
0 0

(Jji j I)hij 1

hij hij

hij hij

(Jji j I)hij = 0
De acuerdo con la definici
on D.36 n
j es el tama
no del bloque de Jordan asociado
a j mas grande, es claro que (Jji j I)n j = 0 para todos los bloques de Jordan
asociados a j . Como Jj es diagonal por bloques, y sus bloques son Jji se desprende
que (Jj j I)n j = 0 es decir, que el polinomio mnimo de Jj es ( j )n j .
Siguiendo un argumento similar, como J es diagonal por bloques, y sus bloques
son Jj , se tiene que el polinomio mnimo de J es
() =

m
Y
i=j

( j )n j

Ejemplo D.51 Las matrices,

a 1 0 0
a 0 0 0
a 0 0 0
0 a 1 0
0 a 1 0
0 a 0 0

A1 =
0 0 a 0 A2 = 0 0 a 0 A3 = 0 0 a 0
0 0 0 b
0 0 0 b
0 0 0 b

que estan en la forma can


onica de Jordan, tienen todas el mismo polinomio caracterstico () = ( a)3 ( b). Sin embargo, el polinomio mnimo de cada una
de ellas es diferente, debido a que el ndice de a es diferente:
para A1 es 1 () = ( a)( b)
para A2 es 2 () = ( a)2 ( b)
para A3 es 3 () = ( a)3 ( b)
Teorema D.27 (Teorema de Caley-Hamilton) Si () es el polinomio caracterstico de una matriz cuadrada A, entonces (A) = 0
289

OSCAR G. DUARTE

Demostraci
on D.27 El polinomio mmino de A es
() =

m
Y
i=j

( j )n j

Mientras que el polinomio caracterstico es


() =

m
Y
i=j

( j )nj

Como n
j nj , y como (A) = 0, queda demostrado que (A) = 0
Definici
on D.37 Valores de una funci
on en el espectro de una matriz
Sean 1 , 2 , , m , los valores propios de una matriz A conndices n
1, n
2, , n
m
respectivamente. Sea el polinomio mnimo de A y sea f un polinomio cualquiera.
(l)
El conjunto de valores de f en el espectro de A son los valores:
f (i ) para
l

f ()
l = 0, 1, 2, , n
i 1; i = 1, 2, , m en donde f (l) (i ) = d d
y en total
l
=i
Pm
son n = i=1 n
i valores.

Teorema D.28 Sean 1 , 2 , , m , los valores propios de una matriz A con ndices n
1, n
2, , n
m respectivamente. Sea el polinomio mnimo de A y sean f
y g dos polinomios cualesquiera. En esas condiciones cualquiera de las siguientes
afirmaciones es equivalente
1. f (A) = g(A)

2. Una de dos condiciones se cumple: o bien f = h1 + g o


g = h2 + f para
algunos polinomios h1 , h2 .
3. Los valores de f y de g en el espectro de A son iguales f (l) (i ) = g (l) (i )
para l = 0, 1, 2, , n
i 1; i = 1, 2, , m.
Demostraci
on D.28 Dado que (A) = 0 es evidente la equivalencia de las afirmacionesQ1 y 2. Para demostrar la equivalencia entre 2 y 3 basta recordar que
m
() = j=1 ( j )n j y calcular las derivadas f (l) (i ) y g (l) (i ).

Definici
on D.38 Funciones de matrices cuadradas
Sea f () una funci
on, no necesariamente un polinomio, definida en el espectro
de A. Si g() es un polinomio que tiene los mismos valores en el espectro de A
entonces se define f (A) = g(A).

La definici
on D.38 brinda una posibilidad para extender a las matrices cuadradas una funci
on f () definida para escalares. Es decir, permite calcular f (A)
buscando un polinomio adecuado g y calculando g(A). El procedimiento completo puede resumirse asi:
Sea f () una funci
on, y sea A una matriz n n. Para calcular f (A) deben
seguirse los siguientes pasos
290

D.8. FUNCIONES DE MATRICES CUADRADAS

1. Obtener el polinomio caracterstico de A


m
Y

i=1

( i )ni

2. Definir el polinomio g()


g() = 0 + 1 + 2 2 + + n1 n1
en donde 0 , , n1 son desconocidas. Cualquier otro polinomio de orden n 1 es igualmente v
alido.
3. Plantear n ecuaciones igualando los valores de f y g en el espectro de A
f (l) (i ) = g (l) (i ) para l = 0, 1, 2, , n
i 1; i = 1, 2, , m
4. Obtener 0 , , n1 a partir de las n ecuaciones del punto anterior
5. Calcular f (A) = g(A) = 0 I + 1 A + 2 A2 + , +n1 An1
Ejemplo D.52 Calcular A50 con
A=


1 3
0 1

El problema puede plantearse tambien de la siguiente forma: dada f () = 50


calcular f (A). Empleamos el procedimiento propuesto:
1. El polinomio caracterstico de A es
= ( 1)2
2. Definimos el polinomio
g() = 0 + 1
3. Obtenemos las ecuaciones
f (0) (1) = 150 = 1
f (1) (1) = 50 149 = 50
f (0) (1) = g (0) (1)
f (1) (1) = g (1) (1)
4. obtenemos 0 y 1 :
(

0 + 1 = 1
1 = 50
291

g (0) (1) = 0 + 11
g (1) (1) = 1
0 + 1 = 1
1 = 50

0 = 49
1 = 50

OSCAR G. DUARTE

5. Calculamos f (A) = g(A)


f (A) = g(A) = 49




 

1 0
1 3
1 150
+ 50
=
0 1
0 1
0 1

Ejemplo D.53 Calcular f (A) cuando A es una matriz con la forma de los bloques
de Jordan. Para ilustrar suponemos una matriz de orden 4 4

1 1
0
0
0 1 1
0

0
0 1 1
0
0
0 1
Empleamos el procedimiento propuesto:

1. El polinomio caracterstico es
() = ( 1 )4
2. Definimos un polinomio de orden 3
g() = 0 + 1 ( 1 ) + 2 ( 1 )2 + 3 ( 1 )3
3. Obtenemos 4 ecuaciones
f (1 ) = g(1 ) = 0
f (1) (1 ) = g (1) (1 ) = 1!1
f (2) (1 ) = g (2) (1 ) = 2!2
f (3) (1 ) = g (3) (1 ) = 3!3
4. Obtenemos los valores de i :

= f (1 )
= f (1) (1 )/1!
= f (2) (1 )/2!
= f (3) (1 )/3!

5. Calculamos f (A) = g(A)

f (2) (1 )
f (3) (1 )
f (1) (1 )
(AI)+
(AI)2 +
(AI)3
1!
2!
3!

1 0 0 0
0 1 0 0
0 1 0 0 f (1) (1 ) 0 0 1 0

f (A) = f (1 )
0 0 1 0 +
0 0 0 1 +
1!
0 0 0 1
0 0 0 0

f (A) = f (1 )I+

292

D.8. FUNCIONES DE MATRICES CUADRADAS

0 0
f (2) (1 )
0 0
0 0
2!
0 0

f (1 )

f (A) = 0
0

0
0
(3)
0
f
(
)
1
1
+

0
0
3!
0
0

1
0
0
0

f (1) (1 )
1!

f (1 )

f (2) (1 )
2!
f (1) (1 )
1!

0
0

f (1 )
0

0
0
0
0

0
0
0
0

f (3) (1
3!
f (2) (1 )

2!

f (1) (1 )
1!
f (1 )

1
0

0
0

Siguiendo un procedimiento similar puede obtenerse f (A) cuando A es una


matrix n n con la forma de los bloques de Jordan

(1)
(2)
(n1)
(1 )
f (1 ) f 1!(1 ) f 2!(1 ) f (n1)!

(1)
(n2)
(1 )
0
f (1 ) f 1!(1 ) f (n2)!

f (n3) (1 )
(D.51)
f (A) = 0

0
f (1 )
(n3)!

.
..
..
..
..

..
.
.
.
.
0
0
0

f (1 )
Ejemplo D.54 Calcular f (A) cuando A es una matriz con la forma de los bloques
de Jordan y f () = et .
Empleando (D.51) se obtiene directamente eAt

eAt

et
0
=
..
.

t t
1! e
t

..
.

t2 t
2! e
t t
1! e

..

..
.

(D.52)

N
otese que las derivadas en (D.51) son respecto a . Vale la pena comparar los
resultados (D.49) y (D.52)
Ejemplo D.55 Calcular f (A) cuando A es una matriz con la forma de los bloques
de Jordan y f () = (s )1 .
Empleando (D.51) se obtiene directamente (sI A)1 :
1

1
1

(s1 )
(s1 )2
(s1 )3
0
1
1

(s1 )
(s1 )2
1

1
(sI A) = 0
(D.53)

(s1 )

..
..
..
..
.
.
.
.

293

OSCAR G. DUARTE

294

Bibliografa
[1] Fabiola Angulo. An
alisis de Sistemas de Control No Lineales. Facultad de
Ingeniera Universidad Nacional de Colombia, Sede Manizales, 1999.
[2] Antsaklis y Michel. Linear Systems. Mc GrawHill.
[3] Karl J. Astrom y Bjorn Wittenmark. Computer Controlled Systems. Theory
and Design. Prentice Hall, 1997.
[4] Thomas J. Cavicchi. Digital Signal Processing. John Wiley and Sons, 2000.
[5] Chi-Tsong Chen. Linear System Theory and Design. Oxford Press.
[6] Chi-Tsong Chen. Analog and Digital Control System Design. Saunders
College Pubkishing, 1993.
[7] John J. Dazzo y Constantine Houpis. Linear Control Systems Analysis
and Design. Mc GrawHill, 1988.
[8] Eronini, Umez, y Eronini. Din
amica de Sistemas y Control. Thomson
Learning, 2001.
Frederick. The Control Handbook, chapter Graphical Modeles, pa[9] CloseN.
ges 8598. CRC Press and IEEE Press, 1996.
[10] John Guckemheimer y Philip Holmes. Nonlinear Oscillations, Dynamical
Systems and Bifurcations of Vector Fields. Springer Verlag, 1983.
[11] G.H. Hostetter, C.J. Savant, y R.T. Stefani. Sistemas de Control. Interamericana, 1987.
[12] Benjamin Kuo. Digital Control Systems. Oxford press, 1992.
[13] Benjamin Kuo. Sistemas Autom
aticos de Control. Mc. GrawHill, 1995.
[14] William S. Levine. The Control Handbook. CRC Press and IEEE Press,
1996.
[15] Douglas K. Lindner. Introducci
on a las se
nales y los sistemas. Mc. Graw
Hill, 2002.
295

OSCAR G. DUARTE

[16] Lennart Ljung. System Identification. Prentice hall.


[17] William L. Luyben, Bjorn D. Tyreus, y Michel L. Luyben. Plantwide Process Control. Mc Graw Hill, 1999.
[18] Adolfo Mora. Tecnologa del Control de Procesos Industriales. Facultad de
Ingeniera Universidad Nacional de Colombia, 1987.
[19] Babatunde A. Ogunnaike y W. Harmon Ray. Process Dynamics, Modeling,
and Control. Oxford Press, 1994.
[20] Alan V. Oppenheim, Alan S. Willsky, y Hamid Nawab. Signals and Systems. Prentice Hall, 1996.
[21] Alexander D. Poularikas. The Transforms and Applications Handbook.
CRC Press and IEEE Press, 2000.
[22] M..V.C Rao y A.K. Subramanian. Elimination of singular cases in jurys
test. IEEE Transactions on Automatic Control, AC-21(Feb. 1976):114115.
[23] Mathukumalli Vidyasagar. Nonlinear Systems Analysis. Prentice Hall,
1993.

296

Indice analtico
Ak , 282285
a
lgebra lineal, 140157, 239293
amortiguamiento viscoso, 11
amortiguamiento viscoso rotacional, 11
a
ngulo entre vectores, 252
anillo, 240
con unidad, 240
conmutativo, 240
modulativo, 240
anulativa, 140, 241
a
rea de tanque, 11
asociativa, 140, 239241
autovalor, vease valores propios
autovector, vease vectores propios

Caley-Hamilton, 289
campo, 140, 240
caos, 206
capacitancia, 9, 11
capacitancia termica, 11
carta de Nichols, 235237
coordenadas polares, 237
coordenadas rectangulares, 237
caudal, 11
causalidad, vease modelos causales
condicionada, 17
en grafos de enlace de potencia, 17
fija, 17
indiferente, 18
preferida, 17
base, 141, 178, 242246
centro, 172
cambio de, 141, 180, 245246
ceros, vease funci
on de transferencia,
y transformaciones lineales, 248
efecto de los ceros
250
cerradura, vease clausurativa
bifurcaciones, 205
ciclos lmite, 203
Bode
circunferencia unitaria, 252
caso continuo, 107112
clausurativa,
140, 239241
criterio, 109
codominio,
256
diagramas, 109, 229230
combinaci
on lineal, 141, 242
caso discreto, 129131
condiciones
auxiliares, 21, 22, 159
diagramas, 130
condiciones
iniciales,
21, 22, 24, 159
bola unitaria, 251
conductancia,
11
Bond Graphs, vease grafos de enlaces
conjunto generado, 141, 243
de potencia
conjunto generador, 141, 243
conmutativa,
140, 239241
caja blanca, vease modelos de caja blancontinuos
ca
modelos, vease modelos continuos
caja gris, vease modelos de caja gris
caja negra, vease modelos de caja ne- control
por realimentaci
on, 89
gra
297

OSCAR G. DUARTE

por variable de estado, 187193


controlabilidad, 190191
de estado, 191
de salida, 191
test de, 190
convoluci
on, 214, 220
continua, 63
discreta, 57
coordenadas, 141, 243
unicidad, 244
corriente, 11
de armadura, 161
de campo, 161
crecimiento demogr
afico, 162
degeneracidad, 148, 267
desigualdad de Sylvester, 261
desplazamiento en el tiempo, 215
desplazamiento en la frecuencia, 211
determinsticos, vease modelos determinsticos
diagonalizaci
on, 146, 265
por bloques, 148, 150
diagrama de Matthew, 151, 273275
diagramas de bloques, 48
equivalencias, 48
diagramas de flujo de se
nal, 4855
camino directo, 50
ganancia de camino directo, 50
ganancia de lazo cerrado, 50
lazo cerrado, 50
lazos adyacentes, 50, 52
lazos no adyacentes, 50, 52
regla de Mason, 52
diferencia de temperatura, 11
diferencia positiva, 216
diferenciaci
on, 210
diferencias finitas, vease ecuaciones de
diferencias
dimensi
on, 141, 178, 243
din
amicos, vease modelos din
amicos
discretos
modelos, vease modelos discretos
distancia entre vectores, 251
distributiva, 140, 240, 241
Duffing, 204

eAt , 156, 157, 166, 285287


ecuaci
on
de estado, 157
de salida, 157
ecuaciones de diferencia, 2223
condiciones auxiliares, 22
condiciones iniciales, 22
lineales, 2324
metodos de soluci
on, 2427
ordinarias de coeficientes constantes, 8
representaci
on de estado, 163
soluci
on mediante transformada Z,
3941
y sistemas discretos, 45
ecuaciones de diferencias finitas, vease
ecuaciones de diferencia
ecuaciones diferenciales, 21
condiciones auxiliares, 21
condiciones iniciales, 21
lineales, 2324
metodos de soluci
on, 2427
ordinarias de coeficientes constantes, 8
representaci
on de estado, 163
soluci
on mediante transformada de
Laplace, 3941
y sistemas continuos, 43
entalpa, 11
entrada-salida, vease modelos de entradasalida
error de estado estacionario, 9193
escalamiento en la frecuencia, 218
escalares, 140
esfuerzo, 911
fuentes de, 12
espacio de estado, 176180
espacio vectorial, 140144, 176, 239
246
base, 141, vease base, 243
cambio de, 141, 245246
definici
on, 241
dimensi
on, 141, 243
estabilidad
BIBO, 93
de entrada-salida, 93

298


INDICE ANAL
ITICO

forma can
onica de Jordan, 146154, 167,
local, 201
178, 182, 183, 278282
marginal, 98
forma real, 280282
merginal, 94
sistemas realimentados continuos, fracciones parciales, 3639
fuente, 172
93121
Bode, diagramas y criterio de, fuentes
de esfuerzo, 12
vease Bode, caso continuo
de flujo, 12
lugar geometrico de raices, veafuerza, 11
se root-locus, caso continuo
Nyquist, diagrama y criterio de, fuerza magnetomotriz, 11
on de transferencia, 47
vease Nyquist, caso continuo funci
efecto
de los ceros, 8386
Root-Locus, vease root-locus
matriz
de funciones, 184, 186
Routh-Hurwitz, arreglo y critey
respuesta
al impulso, 56, 62, 63
rio de, vease Routh-Hurwitz
funci
o
n
impulso
unitario,
56, 59
sistemas realimentados discretos,
caso
continuo,
59
122135
caso discreto, 56
Bode, diagramas y criterio de,
funciones
de matrices cuadradas, 154
vease Bode, caso discreto
157,
282293
Jury, arreglo y criterio de, vease
Jury
lugar geometrico de races, vea- grafos de enlaces de potencia, 1120
aplicados a circuitos electricos, 20
se root-locus, caso discreto
aplicados a sistemas traslacionaNyquist, diagrama y criterio de,
les, 20
vease Nyquist, caso discreto
causalidad,
vease causalidad
root-locus, vease root-locus, caecuaciones,
18
so discreto
transformaci
on bilineal, vease trans- elementos, 11
activos, 11
formaci
on bilineal
de
1 puerto, 11
estado, 137193
de
2
puertos, 11
definici
on, 159
multipuerto, 11
ecuaciones de, 138139
pasivos, 11
ventajas, 137
transformadores de potencia, 11
est
aticos, vease modelos est
aticos
fuente, vease fuentes
estimador de estado, 192
rotador, 12
estoc
asticos, vease modelos estoc
astitransformador, 12
cos
uniones, 11, vease uniones
estrategia hbrida, 4
variables, 11
estructuras algebr
aicas, 239
Gram-Schmidt, 253
grupo, 239
fase mnima, vease sistemas de fase minima
identificaci
on de sistemas, 4
flujo, 911
impulso, vease respuesta al impulso
fuentes de, 12
independencia lineal, 141, 178, 242
flujo de calor, 11
ndice de una matriz, 288
flujo magnetico, 11
inductancia, 9, 11
299

OSCAR G. DUARTE

integrador, 158
interno, vease modelos interno
invariantes, vease modelos invariantes
en el tiempo
invertiva, 140, 239241

de entrada-salida, 4
de par
ametros concentrados, 6
de par
ametros distribuidos, 6
de sistemas, 2
de software, 3
definici
on, 23
Jordan, vease forma can
onica de Jordeterminsticos, 6
dan
discretos, 7
Jury, 124128
el mejor, 3
arreglo
est
aticos, 6
construcci
on, 124
estoc
asticos, 6
problemas, 128
gr
aficos, 3
criterio, 125
interno, 4
invariantes en el tiempo, 7
Laplace, vease transformada de Laplalineales, 6
ce
ling
usticos, 2
linealidad, 6, 23, 209, 216
matem
aticos, 3
Lotka-Volterra, 201
mentales, 2
no causales, 4
M -circunferencias, 236
no estaticos, 6
MacLaurin, 155
no lineales, 6
m
argenes de estabilidad, 109
perfectos, 3
margen de fase, 109
u
tiles, 3
margen de ganancia, 109
utilizados, 89
masa de inercia, 11
variantes en el tiempo, 7
Mason, vease regla de Mason
modulativa, 140, 239241
matriz de funciones de transferencia, momento de inercia, 11
184, 186
motor electrico, 161
matriz de transici
on de estado, 180 multiplicidad, 262
181, 183
matriz diagonalizada, 146, 265
N -circunferencias, 236237
matriz fundamental, 178, 180
Nichols, vease carta de Nichols
matriz modal, 147, 265
nivel de lquido, 11
Matthew, vease diagrama de Matthew no linealidades
migraci
on, 163
din
amicas, 197
MIMO, vease sistemas MIMO
est
aticas, 195
MISO, vease sistemas MISO
norma
modelamiento de sistemas, 4
de un vector, 250
modelos
de una matriz, 253
causales, 4
inducida, 251
clasificaci
on, 47
normas
construcci
on, 34
de matrices, 250255
continuos, 7
de vectores, 250255
de caja blanca, 4
nulidad, 151, 259, 269, 270
de caja gris, 4
Nyquist
de caja negra, 4
casi discreto
300


INDICE ANAL
ITICO

trayectoria, 133
caso continuo, 112121
criterio, 119
diagrama, 117
trayectoria, 117
caso discreto, 133135

rango, 256, 257


regi
on de estabilidad
sistemas continuos de primer orden, 66
sistemas discretos de primer orden,
68
regi
on de inestabilidad
observabilidad, 191193
sistemas continuos de primer ortest de, 192
den, 66
observador de estado, 192
sistemas discretos de primer orden,
o
rbitas
68
homoclnicas, 204
regi
on de tiempo de asentamiento m
aperi
odicas, 201
ximo
ortogonalidad, 252
sistemas continuos de primer orortonormalidad, 252
den, 67
ortonormalizaci
on
sistemas siscretos de primer orden,
proceso de Gram-Schmidt, 253
70
oscilador
regla de Mason, 5255
de Duffing, 204
representaci
on de estado, vease estado
de Van der Pol, 203
representaci
on en espacio de estado, vease estado
par
ametros, 9, 11
representaci
on en variables de estado,
par
ametros concentrados, vease modevease estado
los de par
ametros concentra- resistencia, 9, 11
dos
resistencia hidra
ulica, 11
par
ametros distribuidos, vease mode- resistencia termica, 11
los de par
ametros distribuidos resorte, 11
pendulo, 199, 201
resorte torsional, 11
plano de fase, 172
respuesta
polinomio
al impulso, 5563
ubicaci
on de las raices, 94
y funci
on de transferencia, 56,
polinomio caracterstico, 24, 144, 262
62, 63
polinomio mnimo, 287
de entrada cero, 4346, 184, 186
polinomios de matrices, 282
de estado cero, 4346, 184, 186
polos dominantes, 8788
retardo, 158
potencial qumico, 11
retrato de fase, 179
presi
on, 11
retratos de fase, 172176
principio del argumento, 114
root-locus
producto
caso continuo, 101107
interior, 250
caso discreto, 128129
interno, 250
complementario, 101
proporcionalidad, 6, 23
condiciones, 103
perdida de 197
criterio, 101

punto de equilibrio, 176


reglas de construcci
on, 105
m
ultiples, 199
rotador, 12
punto de silla, 172
Routh-Hurwitz
301

OSCAR G. DUARTE

arreglo, 95
construcci
on, 95
divisi
on por cero, 99
problemas, 99
terminaci
on prematura, 100
criterio, 97

frecuencia m
axima de oscilaci
on,
73
funci
on de transferencia, 70
polos, 70
regi
on de dise
no, 76
regi
on de estabilidad, 71
regi
on de frecuencia m
axima de
oscilaci
o
n,
73
se
nales
regi
on de sobrepico m
aximo, 75
definici
on, 2
regi
o
n
tiempo
m
a
ximo
de asenseries de MacLaurin, 155, 285
tamiento,
73
series de potencias, 285
sobrepico m
aximo, 75
series de Taylor, 155, 166, 285
tiempo
m
a
ximo
de asentamiensif
on, 172
to,
73
SIMO, vease sistemas SIMO
error de estado estacionario, 9192
SISO, vease sistemas SISO
excitados, 183185
sistema, 11
libres, 165181
desacoplado, 185, 186
polos dominantes, 87
sistemas
realimentados, vease sistemas reade fase mnima, 8386
limentados
definici
on, 12
respuesta al impulso, 5963
electricos, 11
tipo de sistema, 9192
fsicos, 911
y ecuaciones diferenciales, 43
hidra
ulicos, 11
Sistemas de ecuaciones algebr
aicas, 255
magneticos, 11
261
mec
anicos rotacionales, 11
sistemas discretos
mec
anicos traslacionales, 11
de primer orden, 6870
MIMO, 2
estabilidad, 68
MISO, 2
funci
on de transferencia, 68
modelos de, 2
polos, 68
no lineales, 195206
regi
on de estabilidad, 68
SIMO, 2
regi
on de inestabilidad, 68
SISO, 2
regi
on de tiempo de asentamientermicos, 11
to m
aximo, 70
sistemas continuos
tiempo de asentamiento, 70
de primer orden, 6667
de segundo orden, 7883
estabilidad, 66
estabilidad, 80
funci
on de transferencia, 66
frecuencia m
axima de oscilaci
on,
polos, 66
82
regi
on de estabilidad, 66
funci
on de transferencia, 78
regi
on de inestabilidad, 66
polos, 78
regi
on de tiempo de asentamienregi
on de dise
no, 83
to m
aximo, 67
regi
on de estabilidad, 80
tiempo de asentamiento, 67
regi
on de frecuencia m
axima de
de segundo orden, 7078
oscilaci
on, 82
estabilidad, 71
regi
on de sobrepico m
aximo, 82
302


INDICE ANAL
ITICO

regi
on de tiempo m
aximo de asen- transformada de Laplace, 24, 2741, 167,
tamiento, 80
209215, 221223
convoluci
on, 214
sobrepico m
aximo, 82
definici
on, 27
tiempo m
aximo de asentamiendesplazamiento en el tiempo, 215
to, 80
desplazamiento en la frecuencia, 211
error de estado estacionario, 9293
diferenciaci
on, 210
excitados, 185187
inversa, 28
libres, 181183
inversas por fracciones parciales,
polos dominantes, 88
3639
realimentados, vease sistemas realinealidad, 209
limentados
multiplicaci
on por t, 212
respuesta al impulso, 5659
parejas,
3135,
221223
tipo de sistema, 9293
propiedades,
29,
31, 209215
y ecuaciones de diferencia, 45
teorema
de
valor
final, 91, 213
sistemas realimentados, 89135
teorema
de
valor
inicial,
213
error de estado estacionario, 9193
transformada
bilateral,
28
estabilidad, vease estabilidad
transformada Z, 24, 2741, 182, 183,
funci
on de transferencia, 89
215220, 223228
funci
on de transferencia del error,
convoluci
on, 220
90
definici
o
n,
28
tipo de sistema, 9193
diferencia
positiva,
216
sistemas retroalimentados, vease sisteescalamiento
en
la
frecuencia,
218
mas realimentados
inversa,
28
soluci
on homogenea, 24
inversas por fracciones parciales,
soluci
on particular, 24
3639
subespacio, 141, 242
linealidad,
216
subpicos, 85
multiplicaci
on por k, 218
superposici
on, 7, 23
parejas,
3135,
223228
perdida de 197

propiedades,
29,
31, 215220
Sylvester, 261
teorema de valor final, 92, 219
teorema de valor inicial, 219
Taylor, 155, 166
transformada bilateral, 29
temperatura, 11
transformador, 12
tensi
on, 11
transmitancia del error, vease sistemas
teorema de Caley-Hamilton, 289
realimentados, funci
on de transtiempo continuo, 7
ferencia del error
tiempo de asentamiento, 67, 70
trayectoria, 172
tiempo de estabilizaci
on, vease tiempo
de asentamiento
undershootvease subpicos 85
tiempo discreto, 7
uniones, 12
tipo de sistema, 9193
Tipo 0, 12
torque, 11
Tipo 1, 12
transformaci
on bilineal, 122124
transformaciones lineales, 142, 247250 valor caracterstico, vease valores proy cambio de base, 248250
pios
303

OSCAR G. DUARTE

valor final
velocidad angular, 11
transformada de Laplace, 91, 213
Z, vease transformada z
transformada Z, 92, 219
valor inicial
transformada de Laplace, 213
transformada Z, 219
valor propio
c
alculo, 144
por derecha, 144, 261
por izquierda, 144, 261
valores de una funci
on en el espectro
de una matriz, 290
valores propios, 144146, 179, 261278
complejos, 153
diferentes, 146, 264266
generalizados, 273278
repetidos, 148, 267273
Van der Pol, 203
variables, 9, 11
en grafos de enlaces de potencia,
11
variables de estado, 137, 157165
en el tiempo, 185187
variaci
on de cambio de volumen, 11
variaci
on de diferencia de entropa, 11
variaci
on de flujo m
asico, 11
variaci
on de flujo molar, 11
variaci
on de flujo volumetrico, 11
variantes, vease modelos variantes en
el tiempo
vector
coordenadas, 141, 243
normal, 251
vector caracterstico, vease vectores propios
vector propio
por derecha, 144, 261
por izquierda, 144, 261
vectores, 140
ortogonales, 252
ortonormales, 252
vectores propios, 144146, 178, 179, 261
278
generalizados, 150, 269
cadena, 269
velocidad, 11
304

También podría gustarte