Está en la página 1de 1993

Departamento de Fsica, Facultad de Ciencias, Universidad de Chile.

noa. Casilla 653, Correo 1, Santiago


Las Palmeras 3425, Nu
fono: 562 678 7276
fax: 562 271 2973
e-mail: secretaria@fisica.ciencias.uchile.cl

Apuntes de un curso de

A LA FISICA
INTRODUCCION

MATEMATICA
segunda edici
on

Jose Rogan C.
Vctor Munoz G.

Indice
I

An
alisis Vectorial.

1. An
alisis vectorial.
1.1. Definiciones, una aproximacion elemental. . . . . . . . . . . . .
1.2. Rotacion de los ejes de coordenadas. . . . . . . . . . . . . . . .
1.2.1. Vectores y espacios vectoriales. . . . . . . . . . . . . . .
1.3. Producto escalar o producto punto. . . . . . . . . . . . . . . . .
1.3.1. Invariancia del producto escalar bajo rotaciones. . . . . .
1.4. Producto vectorial o producto cruz. . . . . . . . . . . . . . . . .
1.5. Productos escalar triple y vectorial triple. . . . . . . . . . . . . .
1.5.1. Producto escalar triple. . . . . . . . . . . . . . . . . . . .
1.5.2. Producto vectorial triple. . . . . . . . . . . . . . . . . . .
~ . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6. Gradiente,
1.6.1. Una interpretacion geometrica . . . . . . . . . . . . . . .
~
1.7. Divergencia, .
. . . . . . . . . . . . . . . . . . . . . . . . . .
1.7.1. Una interpretacion fsica. . . . . . . . . . . . . . . . . . .
~
1.8. Rotor,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
~ . . . . . . . . . . . . . . . . . . . .
1.9. Aplicaciones sucesivas de .
1.10. Integracion vectorial. . . . . . . . . . . . . . . . . . . . . . . . .
1.10.1. Integrales lineales. . . . . . . . . . . . . . . . . . . . . .
1.10.2. Integrales de superficie. . . . . . . . . . . . . . . . . . . .
1.10.3. Integrales de volumen. . . . . . . . . . . . . . . . . . . .
1.10.4. Definiciones integrales de gradiente, divergencia y rotor. .
1.11. Teorema de Gauss. . . . . . . . . . . . . . . . . . . . . . . . . .
1.11.1. Teorema de Green. . . . . . . . . . . . . . . . . . . . . .
1.11.2. Forma alternativa del Teorema de Gauss. . . . . . . . . .
1.12. El Teorema de Stokes. . . . . . . . . . . . . . . . . . . . . . . .
1.12.1. Forma alternativa del Teorema de Stokes. . . . . . . . .
1.13. Teora potencial. . . . . . . . . . . . . . . . . . . . . . . . . . .
1.13.1. Potencial escalar. . . . . . . . . . . . . . . . . . . . . . .
1.13.2. Termodinamica, diferenciales exactas. . . . . . . . . . . .
1.13.3. Potencial vectorial. . . . . . . . . . . . . . . . . . . . . .
1.14. Ley de Gauss y ecuacion de Poisson. . . . . . . . . . . . . . . .
1.14.1. Ecuacion de Poisson. . . . . . . . . . . . . . . . . . . . .
1.15. La delta de Dirac. . . . . . . . . . . . . . . . . . . . . . . . . . .
1.15.1. Representacion de la delta por funciones ortogonales. . .
iii

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

3
3
8
12
13
16
17
21
21
23
25
26
28
29
31
34
36
37
38
39
39
40
42
42
43
44
45
45
47
48
49
51
52
56

INDICE

iv

1.15.2. Representacion integral para la delta. . . . . . . . . . . . . . . . . . . . 57


1.16. Teorema de Helmholtz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
1.16.1. Teorema de Helmholtz. . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2. Coordenadas curvilneas y tensores
2.1. Coordenadas ortogonales. . . . . . . . . . . . . . . .
2.2. Operadores diferenciales vectoriales. . . . . . . . . . .
2.2.1. Gradiente. . . . . . . . . . . . . . . . . . . . .
2.2.2. Divergencia. . . . . . . . . . . . . . . . . . . .
2.2.3. Rotor. . . . . . . . . . . . . . . . . . . . . . .
2.3. Sistemas particulares de coordenadas. . . . . . . . . .
2.3.1. Coordenadas cartesianas rectangulares. . . . .
2.4. Coordenadas circulares cilndricas (, , z). . . . . . .
2.5. Coordenadas polares esfericas (r, , ). . . . . . . . .
2.6. Analisis tensorial. . . . . . . . . . . . . . . . . . . . .
2.6.1. Introduccion y definiciones. . . . . . . . . . .
2.6.2. Definicion de tensores de rango dos. . . . . . .
2.6.3. Suma y resta de tensores. . . . . . . . . . . .
2.6.4. Convencion de suma. . . . . . . . . . . . . . .
2.6.5. SimetraAntisimetra. . . . . . . . . . . . . .
2.6.6. Spinores. . . . . . . . . . . . . . . . . . . . . .
2.7. Contraccion y producto directo. . . . . . . . . . . . .
2.7.1. Contraccion. . . . . . . . . . . . . . . . . . . .
2.7.2. Producto Directo. . . . . . . . . . . . . . . . .
2.7.3. Convencion de la suma. . . . . . . . . . . . .
2.7.4. Contraccion. . . . . . . . . . . . . . . . . . . .
2.8. Regla del cociente. . . . . . . . . . . . . . . . . . . .
2.9. Pseudo tensores y tensores duales. . . . . . . . . . . .
2.9.1. Smbolo de Levi-Civita. . . . . . . . . . . . .
2.9.2. Tensores duales. . . . . . . . . . . . . . . . . .
2.9.3. Tensores irreducibles. . . . . . . . . . . . . . .
2.10. Tensores no cartesianos, diferenciacion covariante. . .
2.10.1. Tensor metrico, subida y bajada de ndices. .
2.10.2. Derivadas y smbolos de Christoffel. . . . . . .
2.10.3. Derivada covariante. . . . . . . . . . . . . . .
2.10.4. Los smbolos de Christoffel como derivadas del
2.11. Operadores diferenciales de tensores. . . . . . . . . .
2.11.1. Divergencia. . . . . . . . . . . . . . . . . . . .
2.11.2. Laplaciano. . . . . . . . . . . . . . . . . . . .
2.11.3. Rotor. . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
tensor metrico.
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

63
63
66
66
66
67
69
69
70
72
75
75
76
77
77
78
78
79
79
79
80
80
80
81
85
85
86
87
87
89
90
91
91
91
92
93

3. Determinantes y matrices.
95
3.1. Determinantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.1.1. Ecuaciones lineales homogeneas. . . . . . . . . . . . . . . . . . . . . . . 95
3.1.2. Ecuaciones lineales no homogeneas. . . . . . . . . . . . . . . . . . . . . 96

INDICE

3.2.

3.3.

3.4.

3.5.

3.6.

v
3.1.3. Desarrollo Laplaciano por las menores. . . . . . . . . . . .
3.1.4. Antisimetra. . . . . . . . . . . . . . . . . . . . . . . . . .
Matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1. Definiciones basicas. . . . . . . . . . . . . . . . . . . . . .
3.2.2. Igualdad. . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.3. Suma. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.4. Multiplicacion (por un escalar). . . . . . . . . . . . . . . .
3.2.5. Multiplicacion (multiplicacion matricial) producto interno.
3.2.6. Producto directo. . . . . . . . . . . . . . . . . . . . . . . .
3.2.7. Matrices diagonales. . . . . . . . . . . . . . . . . . . . . .
3.2.8. Traza. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.9. Inversion de matriz. . . . . . . . . . . . . . . . . . . . . . .
Matrices ortogonales. . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.1. Cosenos directores. . . . . . . . . . . . . . . . . . . . . . .
3.3.2. Aplicaciones a vectores. . . . . . . . . . . . . . . . . . . .
3.3.3. Condiciones de ortogonalidad, caso bidimensional. . . . . .
3.3.4. Matriz inversa A1 . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
3.3.5. Matriz transpuesta, A.

3.3.6. Angulos de Euler. . . . . . . . . . . . . . . . . . . . . . . .


3.3.7. Propiedades de simetra. . . . . . . . . . . . . . . . . . . .
Matrices Hermticas, matrices unitarias. . . . . . . . . . . . . . .
3.4.1. Definiciones. . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.2. Matrices de Pauli y de Dirac. . . . . . . . . . . . . . . . .
Diagonalizacion de matrices. . . . . . . . . . . . . . . . . . . . . .
3.5.1. Momento de la matriz de inercia. . . . . . . . . . . . . . .
3.5.2. Autovectores y autovalores (eigenvector y eigenvalues). . .
3.5.3. Matrices hermticas. . . . . . . . . . . . . . . . . . . . . .
3.5.4. Matrices antihermticas. . . . . . . . . . . . . . . . . . . .
3.5.5. Funciones de matrices. . . . . . . . . . . . . . . . . . . . .
Matrices normales. . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.1. Modos normales de vibracion. . . . . . . . . . . . . . . . .
3.6.2. Sistemas con condiciones patologicas. . . . . . . . . . . . .

4. Teora de grupo.
4.1. Introduccion. . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1. Definicion de grupo. . . . . . . . . . . . . . . . . . . .
4.1.2. Homomorfismo, isomorfismo. . . . . . . . . . . . . . . .
4.1.3. Representaciones matriciales, reducibles e irreducibles.
4.2. Generadores de grupos continuos. . . . . . . . . . . . . . . . .
4.2.1. Grupos de rotaciones SO(2) y SO(3). . . . . . . . . . .
4.2.2. Rotaciones de funciones y momento angular orbital. . .
4.2.3. Homomorfismo SU(2)-SO(3). . . . . . . . . . . . . . .
4.2.4. SU(2) isospin y el octeto SU(3). . . . . . . . . . . . . .
4.3. Momento angular orbital. . . . . . . . . . . . . . . . . . . . .
4.3.1. Operadores de subida y bajada. . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

97
98
102
103
103
104
104
104
106
106
107
107
109
110
110
111
113
113
114
116
117
117
119
120
120
121
123
124
126
127
129
131

.
.
.
.
.
.
.
.
.
.
.

133
. 133
. 134
. 135
. 135
. 137
. 139
. 140
. 141
. 145
. 150
. 150

INDICE

vi
4.3.2. Resumen de grupos y algebras de Lie. . . . . .
4.4. Grupo homogeneo de Lorentz. . . . . . . . . . . . . .
4.5. Covarianza de las Ecuaciones de Maxwell. . . . . . .
~ y B.
~ . . . .
4.5.1. Transformaciones de Lorentz de E
4.5.2. Invariantes electromagneticas. . . . . . . . . .
4.6. Grupos discretos. . . . . . . . . . . . . . . . . . . . .
4.6.1. Clase y caracteres. . . . . . . . . . . . . . . .
4.6.2. Subgrupos y cosetos. . . . . . . . . . . . . . .
4.6.3. Dos objetosDoble eje de simetra. . . . . . .
4.6.4. Tres objetosTriple eje de simetra. . . . . . .
4.6.5. Grupos dihedricos, Dn . . . . . . . . . . . . .
4.6.6. Grupos espaciales y cristalograficos puntuales.

II

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

Ecuaciones diferenciales ordinarias.

5. Ecuaciones diferenciales de primer orden.


5.1. Introduccion. . . . . . . . . . . . . . . . . . . . . .
5.2. Ecuaciones de primer orden. . . . . . . . . . . . . .
5.3. Ecuaciones con variables separables. . . . . . . . . .
5.4. Ecuaciones que se reducen a ecuaciones de variables
5.4.1. Ecuaciones homogeneas. . . . . . . . . . . .
5.4.2. Ecuaciones que se reducen a homogeneas. . .
5.5. Ecuaciones lineales de primer orden. . . . . . . . .
5.5.1. Ecuaciones lineales no homogeneas. . . . . .
5.5.2. Ecuaciones de Bernoulli y Riccati. . . . . . .
5.6. Ecuaciones en diferenciales totales. . . . . . . . . .
5.6.1. Factor integrante. . . . . . . . . . . . . . . .
5.7. Teoremas. . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

152
154
156
159
160
161
162
163
164
166
169
169

171
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

173
173
175
177
179
180
181
182
183
184
186
189
191

6. Ecuaciones diferenciales de orden mayor que uno.


6.1. Existencia y unicidad . . . . . . . . . . . . . . . . . . . . . . . . .
6.1.1. Solucion general. . . . . . . . . . . . . . . . . . . . . . . .
6.2. Casos simples de reduccion del orden. . . . . . . . . . . . . . . . .
6.2.1. Ecuaciones de segundo orden y representacion parametrica.
6.3. Ecuaciones lineales de orden n . . . . . . . . . . . . . . . . . . . .
6.3.1. Conservacion de la linealidad y la homogeneidad. . . . . .
6.3.2. Operador diferencial lineal. . . . . . . . . . . . . . . . . . .
6.3.3. Dependencia lineal. . . . . . . . . . . . . . . . . . . . . . .
6.3.4. Reduccion de orden. . . . . . . . . . . . . . . . . . . . . .
6.3.5. Formulas de Ostrogradski-Liouville. . . . . . . . . . . . . .
6.4. Ecuaciones con coeficientes constantes. . . . . . . . . . . . . . . .
6.4.1. Races complejas. . . . . . . . . . . . . . . . . . . . . . . .
6.4.2. Races m
ultiples. . . . . . . . . . . . . . . . . . . . . . . .
6.4.3. Races complejas con multiplicidad. . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

193
193
193
194
198
200
200
201
202
203
204
206
207
207
208

. . . . . .
. . . . . .
. . . . . .
separables
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

INDICE

vii

6.5. Ecuacion de Euler. . . . . . . . . . . . . . . . . . . . .


6.6. Ecuaciones lineales no homogeneas. . . . . . . . . . . .
6.6.1. Reduccion de orden. . . . . . . . . . . . . . . .
6.6.2. Metodo de Cauchy. . . . . . . . . . . . . . . . .
6.6.3. Funcion de Green. . . . . . . . . . . . . . . . .
6.7. Ecuaciones lineales no homogeneas con . . . . . . . . . .
6.8. Integracion de las ecuaciones diferenciales por medio de

. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
series.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

208
210
214
215
217
218
223

7. Sistemas de ecuaciones diferenciales.


7.1. Conceptos generales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2. Integracion de un sistema. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3. Sistema de ecuaciones diferenciales lineales. . . . . . . . . . . . . . . . . . . .

227
. 227
. 230
. 231

III

237

Computaci
on.

8. Elementos del sistema operativo unix.


8.1. Introduccion. . . . . . . . . . . . . . . . . . . . .
8.2. Ingresando al sistema. . . . . . . . . . . . . . . .
8.2.1. Terminales. . . . . . . . . . . . . . . . . .
8.2.2. Login. . . . . . . . . . . . . . . . . . . . .
8.2.3. Passwords. . . . . . . . . . . . . . . . . . .
8.2.4. Cerrando la sesion. . . . . . . . . . . . . .
8.3. Archivos y directorios. . . . . . . . . . . . . . . .

8.4. Ordenes
basicas. . . . . . . . . . . . . . . . . . .
8.4.1. Archivos y directorios. . . . . . . . . . . .

8.4.2. Ordenes
relacionadas con directorios. . . .
8.4.3. Visitando archivos. . . . . . . . . . . . . .
8.4.4. Copiando, moviendo y borrando archivos.
8.4.5. Espacio de disco. . . . . . . . . . . . . . .
8.4.6. Links. . . . . . . . . . . . . . . . . . . . .
8.4.7. Proteccion de archivos. . . . . . . . . . . .
8.4.8. Filtros. . . . . . . . . . . . . . . . . . . . .
8.4.9. Otros usuarios y maquinas . . . . . . . . .
8.4.10. Fecha . . . . . . . . . . . . . . . . . . . .
8.4.11. Transferencia a diskettes. . . . . . . . . . .
8.4.12. Diferencias entre los sistemas. . . . . . . .
8.5. Shells. . . . . . . . . . . . . . . . . . . . . . . . .
8.5.1. Variables de entorno. . . . . . . . . . . .
8.5.2. Redireccion. . . . . . . . . . . . . . . . . .
8.5.3. Ejecucion de comandos. . . . . . . . . . .
8.5.4. Aliases. . . . . . . . . . . . . . . . . . . .
8.5.5. Las shells csh y tcsh. . . . . . . . . . . . .
8.5.6. Las shell sh y bash. . . . . . . . . . . . . .
8.5.7. Archivos de script. . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

239
. 239
. 240
. 240
. 241
. 241
. 242
. 242
. 243
. 244
. 245
. 246
. 246
. 246
. 247
. 247
. 250
. 256
. 256
. 256
. 257
. 258
. 259
. 260
. 260
. 260
. 261
. 263
. 264

INDICE

viii
8.6. Ayuda y documentacion. . . .
8.7. Procesos. . . . . . . . . . . . .
8.8. Editores. . . . . . . . . . . . .
8.8.1. El editor vi. . . . . . .
8.8.2. Editores modo emacs.
8.9. El sistema X Windows. . . . .
8.10. Uso del raton. . . . . . . . . .
8.11. Internet. . . . . . . . . . . . .
8.11.1. Acceso a la red. . . . .
8.11.2. El correo electronico. .
8.11.3. Ftp anonymous. . . . .
8.11.4. WWW. . . . . . . . .
8.12. Impresion. . . . . . . . . . . .
8.13. Compresion. . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

9. Una breve introducci


on a C++.
9.1. Estructura basica de un programa en C++. . . . . . .
9.1.1. El programa mas simple. . . . . . . . . . . . . .
9.1.2. Definicion de funciones. . . . . . . . . . . . . .
9.1.3. Nombres de variables. . . . . . . . . . . . . . .
9.1.4. Tipos de variables. . . . . . . . . . . . . . . . .
9.1.5. Ingreso de datos desde el teclado. . . . . . . . .
9.1.6. Operadores aritmeticos. . . . . . . . . . . . . .
9.1.7. Operadores relacionales. . . . . . . . . . . . . .
9.1.8. Asignaciones. . . . . . . . . . . . . . . . . . . .
9.1.9. Conversion de tipos. . . . . . . . . . . . . . . .
9.2. Control de flujo. . . . . . . . . . . . . . . . . . . . . . .
9.2.1. if, if... else, if... else if. . . . . . . . .
9.2.2. Expresion condicional. . . . . . . . . . . . . . .
9.2.3. switch. . . . . . . . . . . . . . . . . . . . . . .
9.2.4. for. . . . . . . . . . . . . . . . . . . . . . . . .
9.2.5. while. . . . . . . . . . . . . . . . . . . . . . . .
9.2.6. do... while. . . . . . . . . . . . . . . . . . . .
9.2.7. goto. . . . . . . . . . . . . . . . . . . . . . . .
9.3. Funciones. . . . . . . . . . . . . . . . . . . . . . . . . .
9.3.1. Funciones tipo void. . . . . . . . . . . . . . . .
9.3.2. return. . . . . . . . . . . . . . . . . . . . . . .
9.3.3. Funciones con parametros. . . . . . . . . . . . .
9.3.4. Parametros por defecto. . . . . . . . . . . . . .
9.3.5. Ejemplos de funciones: raz cuadrada y factorial.
9.3.6. Alcance, visibilidad, tiempo de vida. . . . . . .
9.3.7. Recursion. . . . . . . . . . . . . . . . . . . . . .
9.3.8. Funciones internas. . . . . . . . . . . . . . . . .
9.4. Punteros. . . . . . . . . . . . . . . . . . . . . . . . . .
9.5. Matrices o arreglos. . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

264
264
266
266
268
275
276
276
277
278
280
280
280
281

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

283
. 283
. 283
. 284
. 285
. 286
. 288
. 288
. 289
. 289
. 290
. 292
. 292
. 293
. 294
. 295
. 297
. 297
. 298
. 298
. 298
. 298
. 300
. 303
. 304
. 307
. 309
. 310
. 310
. 312

INDICE

ix

9.5.1. Declaracion e inicializacion. . . . . . . .


9.5.2. Matrices como parametros de funciones.
9.5.3. Asignacion dinamica. . . . . . . . . . . .
9.5.4. Matrices multidimensionales. . . . . . . .
9.5.5. Matrices de caracteres: cadenas (strings).
9.6. Manejo de archivos. . . . . . . . . . . . . . . . .
9.6.1. Archivos de salida. . . . . . . . . . . . .
9.6.2. Archivos de entrada. . . . . . . . . . . .
9.6.3. Archivos de entrada y salida. . . . . . .
9.7. main como funcion. . . . . . . . . . . . . . . . .
9.8. Clases. . . . . . . . . . . . . . . . . . . . . . . .
9.8.1. Definicion. . . . . . . . . . . . . . . . . .
9.8.2. Miembros. . . . . . . . . . . . . . . . . .
9.8.3. Miembros p
ublicos y privados. . . . . . .
9.8.4. Operador de seleccion (.). . . . . . . . .
9.8.5. Implementacion de funciones miembros.
9.8.6. Constructor. . . . . . . . . . . . . . . . .
9.8.7. Destructor. . . . . . . . . . . . . . . . .
9.8.8. Arreglos de clases. . . . . . . . . . . . .
9.9. Sobrecarga. . . . . . . . . . . . . . . . . . . . .
9.9.1. Sobrecarga de funciones. . . . . . . . . .
9.9.2. Sobrecarga de operadores. . . . . . . . .
9.9.3. Coercion. . . . . . . . . . . . . . . . . .
9.10. Herencia. . . . . . . . . . . . . . . . . . . . . . .
9.11. Compilacion y debugging. . . . . . . . . . . . .
9.11.1. Compiladores. . . . . . . . . . . . . . . .
9.12. make & Makefile. . . . . . . . . . . . . . . . . .
10.Gr
afica.
10.1. Visualizacion de archivos graficos. . .
10.2. Modificando imagenes . . . . . . . .
10.3. Conversion entre formatos graficos. .
10.4. Captura de pantalla. . . . . . . . . .
10.5. Creando imagenes. . . . . . . . . . .
10.6. Graficando funciones y datos. . . . .
10.7. Graficando desde nuestros programas.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

312
313
314
315
316
319
319
321
322
324
326
327
327
327
328
329
329
330
331
331
332
332
332
333
334
334
335

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

339
. 339
. 340
. 340
. 340
. 341
. 342
. 343

11.Una breve introducci


on a Octave/Matlab
11.1. Introduccion . . . . . . . . . . . . . . . . .
11.2. Interfase con el programa . . . . . . . . . .
11.3. Tipos de variables . . . . . . . . . . . . . .
11.3.1. Escalares . . . . . . . . . . . . . . .
11.3.2. Matrices . . . . . . . . . . . . . . .
11.3.3. Strings . . . . . . . . . . . . . . . .
11.3.4. Estructuras . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

345
345
345
346
346
346
349
349

INDICE

x
11.4. Operadores basicos . . . . . . . . . . . . . . . . . . .
11.4.1. Operadores aritmeticos . . . . . . . . . . . . .
11.4.2. Operadores relacionales . . . . . . . . . . . . .
11.4.3. Operadores logicos . . . . . . . . . . . . . . .
11.4.4. El operador : . . . . . . . . . . . . . . . . .
11.4.5. Operadores de aparicion preferente en scripts
11.5. Comandos matriciales basicos . . . . . . . . . . . . .
11.6. Comandos . . . . . . . . . . . . . . . . . . . . . . . .
11.6.1. Comandos generales . . . . . . . . . . . . . .
11.6.2. Como lenguaje de programacion . . . . . . . .
11.6.3. Matrices y variables elementales . . . . . . . .
11.6.4. Polinomios . . . . . . . . . . . . . . . . . . . .

11.6.5. Algebra
lineal (matrices cuadradas) . . . . . .
11.6.6. Analisis de datos y transformada de Fourier .
11.6.7. Graficos . . . . . . . . . . . . . . . . . . . . .
11.6.8. Strings . . . . . . . . . . . . . . . . . . . . . .
11.6.9. Manejo de archivos . . . . . . . . . . . . . . .
12.El sistema de preparaci
on de documentos TEX .
12.1. Introduccion. . . . . . . . . . . . . . . . . . . . .
12.2. Archivos. . . . . . . . . . . . . . . . . . . . . . . .
12.3. Input basico. . . . . . . . . . . . . . . . . . . . .
12.3.1. Estructura de un archivo. . . . . . . . . .
12.3.2. Caracteres. . . . . . . . . . . . . . . . . .
12.3.3. Comandos. . . . . . . . . . . . . . . . . .
12.3.4. Algunos conceptos de estilo. . . . . . . . .
12.3.5. Notas a pie de pagina. . . . . . . . . . . .
12.3.6. Formulas matematicas. . . . . . . . . . . .
12.3.7. Comentarios. . . . . . . . . . . . . . . . .
12.3.8. Estilo del documento. . . . . . . . . . . . .
12.3.9. Argumentos de comandos. . . . . . . . . .
12.3.10.Ttulo. . . . . . . . . . . . . . . . . . . . .
12.3.11.Secciones. . . . . . . . . . . . . . . . . . .
12.3.12.Listas. . . . . . . . . . . . . . . . . . . . .
12.3.13.Tipos de letras. . . . . . . . . . . . . . . .
12.3.14.Acentos y smbolos. . . . . . . . . . . . . .
12.3.15.Escritura de textos en castellano. . . . . .
12.4. Formulas matematicas. . . . . . . . . . . . . . . .
12.4.1. Sub y suprandices. . . . . . . . . . . . . .
12.4.2. Fracciones. . . . . . . . . . . . . . . . . . .
12.4.3. Races. . . . . . . . . . . . . . . . . . . . .
12.4.4. Puntos suspensivos. . . . . . . . . . . . . .
12.4.5. Letras griegas. . . . . . . . . . . . . . . . .
12.4.6. Letras caligraficas. . . . . . . . . . . . . .
12.4.7. Smbolos matematicos. . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

350
350
351
351
351
351
352
352
352
353
356
358
359
359
360
364
365

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

369
. 369
. 369
. 370
. 370
. 370
. 371
. 371
. 372
. 373
. 373
. 373
. 374
. 375
. 376
. 376
. 377
. 378
. 379
. 380
. 380
. 380
. 381
. 381
. 382
. 382
. 382

INDICE
12.4.8. Funciones tipo logaritmo. . . . . . .
12.4.9. Matrices. . . . . . . . . . . . . . . . .
12.4.10.Acentos. . . . . . . . . . . . . . . . .
12.4.11.Texto en modo matematico. . . . . .
12.4.12.Espaciado en modo matematico. . . .
12.4.13.Fonts. . . . . . . . . . . . . . . . . .
12.5. Tablas. . . . . . . . . . . . . . . . . . . . . .
12.6. Referencias cruzadas. . . . . . . . . . . . . .
12.7. Texto centrado o alineado a un costado. . .
12.8. Algunas herramientas importantes . . . . . .
12.8.1. babel . . . . . . . . . . . . . . . . .
12.8.2. AMS-LATEX . . . . . . . . . . . . . .
12.8.3. fontenc . . . . . . . . . . . . . . . .
12.8.4. enumerate . . . . . . . . . . . . . . .
12.8.5. Color. . . . . . . . . . . . . . . . . .
12.9. Modificando el estilo de la pagina. . . . . . .
12.9.1. Estilos de pagina. . . . . . . . . . . .
12.9.2. Corte de paginas y lneas. . . . . . .
12.10.Figuras. . . . . . . . . . . . . . . . . . . . .
12.10.1.graphicx.sty . . . . . . . . . . . . .
12.10.2.Ambiente figure. . . . . . . . . . . .
12.11.Cartas. . . . . . . . . . . . . . . . . . . . . .
12.12.LATEX y el formato pdf. . . . . . . . . . . . .
12.13.Modificando LATEX. . . . . . . . . . . . . . .
12.13.1.Definicion de nuevos comandos. . . .
12.13.2.Creacion de nuevos paquetes y clases
12.14.Errores y advertencias. . . . . . . . . . . . .
12.14.1.Errores. . . . . . . . . . . . . . . . .
12.14.2.Advertencias. . . . . . . . . . . . . .

xi
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

384
385
387
387
388
388
389
389
390
390
391
392
394
395
395
396
396
397
399
400
401
402
405
406
406
411
418
418
421

xii

INDICE

Indice de figuras
1.1. Ley del triangulo . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2. ley del paralelogramo . . . . . . . . . . . . . . . . . . . . . . . .
1.3. La suma de vectores es asociativa. . . . . . . . . . . . . . . . . .
1.4. Equilibrio de fuerzas . . . . . . . . . . . . . . . . . . . . . . . .
~ . . . . . . .
1.5. Componentes cartesianas y cosenos directores de A.
1.6. Rotacion de los ejes coordenados cartesianos respecto del eje z. .
1.7. Producto escalar. . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8. Ley distributiva . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.9. Un vector normal. . . . . . . . . . . . . . . . . . . . . . . . . . .
1.10. La ley de los cosenos. . . . . . . . . . . . . . . . . . . . . . . . .
1.11. Momento angular. . . . . . . . . . . . . . . . . . . . . . . . . . .
1.12. Paralelogramo que representa el producto cruz. . . . . . . . . .
1.13. Paraleleppedo que representa el producto escalar triple. . . . .
1.14. Triple producto cruz. . . . . . . . . . . . . . . . . . . . . . . . .
1.15. Gradiente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.16. Gradiente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.17. Diferenciacion de un vector. . . . . . . . . . . . . . . . . . . . .
1.18. Diferencial paraleleppedo rectangular (en el primer octante). . .
1.19. Circulacion alrededor de un loop diferencial. . . . . . . . . . . .
1.20. Regla de la mano derecha para la normal positiva. . . . . . . . .
1.21. Paraleleppedo rectangular diferencial con el origen en el centro.
1.22. Flujo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.23. Circulacion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.24. Posible camino para hacer el trabajo. . . . . . . . . . . . . . . .
1.25. Formulaciones equivalentes para una fuerza conservativa. . . . .
1.26. Ley de Gauss. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.27. Exclusion del origen. . . . . . . . . . . . . . . . . . . . . . . . .
1.28. Sucesion a la delta. . . . . . . . . . . . . . . . . . . . . . . . . .
1.29. Sucesion a la delta. . . . . . . . . . . . . . . . . . . . . . . . . .
1.30. Sucesion a la delta. . . . . . . . . . . . . . . . . . . . . . . . . .
1.31. Campo y fuente puntual. . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

3
4
4
5
6
9
14
14
15
16
17
19
22
24
27
27
28
29
32
38
40
41
44
46
47
50
50
53
54
54
60

2.1. Elemento de volumen curvilneo. . . . . . . . . . . . . . . . . . . . . . . . . . . 67


2.2. Elemento de area curvilneo con q1 =constante. . . . . . . . . . . . . . . . . . 68
2.3. Coordenadas circulares cilndricas. . . . . . . . . . . . . . . . . . . . . . . . . . 70
xiii

INDICE DE FIGURAS

xiv
2.4.
2.5.
2.6.
2.7.
2.8.
2.9.

Vectores unitarios en coordenadas circulares cilndricas.


Elementos de area en coordenadas polares esfericas. . .
Coordenadas polares esfericas. . . . . . . . . . . . . . .
Inversion de coordenadas cartesianas, vector polar. . .
Inversion de coordenadas cartesianas, vector axial. . . .
Reflexiones . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

71
73
74
82
83
83

3.1. Sistemas de coordenadas cartesianos. . . . . . . . . . . . . . . . . . . . . . .


3.2. Sistemas de coordenadas rotados en dos dimensiones. . . . . . . . . . . . . .
3.3. (a) Rotacion respecto al eje x3 en un angulo ; (b) Rotacion respecto a un eje
x02 en un angulo ; (c) Rotacion respecto a un eje x003 en un angulo . . . . .
3.4. Vector fijo con coordenadas rotadas. . . . . . . . . . . . . . . . . . . . . . . .
3.5. Elipsoide del momento de inercia. . . . . . . . . . . . . . . . . . . . . . . . .
3.6. Masa con resortes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.

115
116
122
130

4.1. Ilustracion de la ecuacion (4.13). . . . . . . . . . . .


4.2. Ilustracion de M0 = UMU ecuacion (4.42). . . . . .
4.3. Octeto barionico diagrama de peso para SU(3). . .
4.4. Separacion de masa barionica. . . . . . . . . . . . .
4.5. Representacion de SU(3) . . . . . . . . . . . . . . .
4.6. Molecula Diatomica. . . . . . . . . . . . . . . . . .
4.7. Simetra D2 . . . . . . . . . . . . . . . . . . . . . . .
4.8. Operaciones de simetra en un triangulo equilatero.
4.9. Operaciones de simetra sobre un triangulo. . . . .
4.10. Rutenoceno, (C5 H5 )2 Ru. . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

138
143
147
149
149
164
165
166
167
169

5.1.
5.2.
5.3.
5.4.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

176
177
188
188

Curvas integrales. . . . . . . . . .
Curvas integrales y = cx. . . . . .
Caminos de integracion posibles. .
Camino de integracion. . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

. 109
. 112

11.1. Grafico simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361


11.2. Curvas de contorno. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362
11.3. Curvas de contorno. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363
12.1. Un sujeto caminando. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401

Parte I
An
alisis Vectorial.

Captulo 1
An
alisis vectorial.
versi
on final 2.05-2609031

1.1.

Definiciones, una aproximaci


on elemental.

En ciencia e ingeniera encontramos frecuentemente cantidades que tienen magnitud y


solo magnitud: la masa, el tiempo o la temperatura. Estas cantidades las llamamos escalares. En contraste, muchas cantidades fsicas interesantes tienen magnitud y, adicionalmente,
una direccion asociada. Este segundo grupo incluye el desplazamiento, la velocidad, la aceleracion, la fuerza, el momento, el momento angular. Cantidades con magnitud y direccion
seran llamadas cantidades vectoriales. Usualmente, en tratamientos elementales, un vector
es definido como una cantidad que tiene magnitud y direccion. Para distinguir vectores de
escalares, identificaremos las cantidades vectoriales con una flecha arriba, V~ , o bien, con letra
en negrita, esto es, V.
Un vector puede ser convenientemente representado por una flecha con largo proporcional
a la magnitud. La direccion de la flecha da la direccion del vector, el sentido positivo de la
direccion es indicado por la punta. En esta representacion la suma vectorial
~ =A
~+B
~ ,
C

(1.1)

~ en la punta del vector A.


~ El vector C
~ es
consiste en poner la parte posterior del vector B

Figura 1.1: Ley del triangulo para la suma de vectores.


~ hasta la punta de B.
~
el representado por una flecha dibujada desde la parte posterior de A
1

Este captulo est


a basado en el primer captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.


CAPITULO 1. ANALISIS
VECTORIAL.

Este procedimiento, la ley del triangulo para la suma, le asigna un significado a la ecuacion
(1.1) y es ilustrado en la figura 1.1. Al completar el paralelogramo, vemos que
~ =A
~+B
~ =B
~ +A
~,
C
como muestra la figura 1.2. En otras palabras la suma vectorial es conmutativa

Figura 1.2: Ley del paralelogramo para suma de vectores.


Para la suma de tres vectores
~ =A
~+B
~ +C
~ ,
D
~yB
~
figura 1.3, podemos primero sumar A
~+B
~ =E
~ .
A
~
Entonces a esta suma le agregamos C
~ =E
~ +C
~ .
D
~ yC
~
Similarmente, podemos primero sumar B

B

F C

Figura 1.3: La suma de vectores es asociativa.

~ +C
~ = F~ .
B
Entonces
~ =A
~ + F~ .
D
En terminos de la expresion original,
~ + B)
~ +C
~ =A
~ + (B
~ + C)
~ .
(A

(1.2)

ELEMENTAL.
1.1. DEFINICIONES, UNA APROXIMACION

F1

F2


F1 + F2

F1

F2

F3

F3

Figura 1.4: Equilibrio de fuerzas. F~1 + F~2 = F~3 .

La suma de vectores es asociativa.


Un ejemplo fsico directo de la ley de suma del paralelogramo es provisto por un peso
suspendido de dos cuerdas. Si el punto de juntura (o en la figura 1.4) esta en equilibrio, el
vector suma de las dos fuerzas, F~1 y F~2 , debe justo cancelarse con la fuerza hacia abajo F~3 .
Aqu la ley de suma del paralelogramo es sujeta a una verificacion experimental inmediata.2
La resta puede ser manejada definiendo el negativo de un vector como un vector de la
misma magnitud pero con la direccion contraria. Entonces
~B
~ =A
~ + (B)
~ .
A
En la figura 1.3
~=E
~ B
~
A
Notemos que los vectores son tratados como objetos geometricos que son independientes
de cualquier sistema de coordenadas. Realmente, no hemos presentado a
un un sistema de
coordenadas. Este concepto de independencia de un particular sistema de coordenadas es
desarrollado en detalle en la proxima seccion.
~ por una flecha sugiere una segunda posibilidad. La flecha A
~
La representacion del vector A
3
(figura 1.5), partiendo desde el origen, y terminando en el punto (Ax , Ay , Az ). As, acordamos
2

Estrictamente hablando la ley de suma del paralelogramo fue introducida como definicion. Los experimentos muestran que si suponemos que las fuerzas son cantidades vectoriales y las combinamos usando la
ley de suma del paralelogramo, la condici
on de una fuerza resultante nula como condicion de equilibrio es
satisfecha.
3
Se vera que se puede partir desde cualquier punto en el sistema de referencias cartesiano, hemos elegido


CAPITULO 1. ANALISIS
VECTORIAL.

que los vectores partan en el origen y su final puede ser especificado dando las coordenadas
cartesianas (Ax , Ay , Az ) de la punta de la flecha.

z
Az

(A x ,A y ,A z)

Ay
y

Ax
(A x ,A y ,0)

~
Figura 1.5: Componentes cartesianas y cosenos directores de A.
~ podra haber representado cualquier cantidad vectorial (momento, campo
Aunque A
electrico, etc.) existe una cantidad vectorial importante, el desplazamiento desde el origen al
punto (x, y, z), que es denotado por el smbolo especial ~r. Entonces tenemos la eleccion de referirnos al desplazamiento como el vector ~r o por la coleccion (x, y, z), que son las coordenadas
del punto final:
~r (x, y, z) .
(1.3)
Usando r para la magnitud del vector ~r encontramos que la figura 1.5 muestra que las
coordenadas del punto final y la magnitud estan relacionadas por
x = r cos ,

y = r cos ,

z = r cos .

(1.4)

Los cos , cos y cos son llamados los cosenos directores, donde es el angulo entre el
vector dado y el eje-x positivo, y as sucesivamente. Un poco de vocabulario: las cantidades
~ o las proyecciones de A.
~
Ax , Ay y Az son conocidas como las componentes (cartesianas) de A
~ puede ser resuelto en sus componentes (o proyecciones sobre los
As, cualquier vector A
ejes coordenados) produciendo Ax = A cos , etc., como en la ecuacion (1.4). Podemos elegir
~ o por sus componentes (Ax , Ay , Az ). Notemos
referirnos al vector como un cantidad simple A
que el subndice x en Ax denota la componente x y no la dependencia sobre la variable x. La
~ o sus
componente Ax puede ser funcion de x, y y z tal que Ax (x, y, z). La eleccion entre usar A
componentes (Ax , Ay , Az ) es esencialmente una eleccion entre una representacion geometrica
y una algebraica. En el lenguaje de teora de grupos (captulo 4), las dos representaciones
son isom
orficas.
el origen por simplicidad. Esta libertad de desplazar el origen del sistema de coordenadas sin afectar la
geometra es llamada invariancia translacional.

ELEMENTAL.
1.1. DEFINICIONES, UNA APROXIMACION

Usaremos la representacion que nos convenga mas en cada caso. La representacion geometrica flecha en el espacio puede ayudar en la visualizacion. El conjunto algebraico de componentes es usualmente mucho mas conveniente para calcular.
~ puede reLos vectores entran en la Fsica de dos maneras distintas : (1) Un vector A
presentar una sola fuerza actuando sobre un u
nico punto. La fuerza de gravedad actuando
~ puede estar definido sobre una
sobre el centro de gravedad ilustra esta forma. (2) Un vector A
~
region extendida; esto es, A y sus componentes son funciones de la posicion: Ax = Ax (x, y, z),
y as sucesivamente. Ejemplos de este tipo incluyen el campo de velocidades de un fluido.
Algunos autores distinguen estos dos casos refiriendose a los vectores definidos sobre una
region como un campo vectorial. Los conceptos de campos vectoriales como funciones de la
posicion seran extremadamente importantes mas adelante.
En este punto es conveniente presentar los vectores unitarios a lo largo de cada eje coordenado. Sea x un vector de magnitud uno apuntando en la direccion x-positiva, y, un vector de
magnitud uno apuntando en la direccion y-positiva, y z, un vector de magnitud unitaria en
la direccion z-positiva. Entonces xAx , es un vector con magnitud igual a Ax , en la direccion
de x-positiva. Por suma de vectores
~ = xAx + yAy + zAz ,
A

(1.5)

lo cual establece que un vector es igual a la suma vectorial de sus componentes. Notemos que
~ se anula, todas sus componentes deben anularse individualmente; esto es, si
si A
~=0,
A

entonces Ax = Ay = Az = 0 .

~ es
Finalmente, por el Teorema de Pitagoras, la magnitud del vector A
A = (A2x + A2y + A2z )1/2 .

(1.6)

Esta resolucion de un vector en sus componentes puede ser llevada a cabo en una variedad de
sistemas de coordenadas, como mostramos en el proximo captulo. Aqu nos restringiremos
a coordenadas cartesianas.
La ecuacion (1.5) es realmente la afirmacion de que los tres vectores unitarios x, y y z
abarcan nuestro espacio real tridimensional. Cualquier vector constante puede ser escrito
como una combinacion lineal de x, y y z. Ya que x, y y z son linealmente independientes
(ninguno es una combinacion lineal de los otros dos), ellos forman una base para el espacio
real tridimensional.
Como un reemplazo a la tecnica grafica, la suma y resta de vectores puede ser llevada a
~ = xAx + yAy + zAz y B
~ = xBx + yBy + zBz ,
cabo en terminos de sus componentes. Para A
~B
~ = x(Ax Bx ) + y(Ay By ) + z(Az Bz ) .
A

(1.7)

Deberamos enfatizar aqu que los vectores unitarios x, y, y z son usados por conveniencia.
Ellos no son esenciales; podemos describir vectores y usarlos enteramente en terminos de sus
~ (Ax , Ay , Az ). Esta manera de acercarse es la mas poderosa, definiciones
componentes: A
mas sofisticadas de vectores seran discutidas en las proximas secciones.
Hasta aqu hemos definido las operaciones de suma y resta de vectores. Tres variedades
de multiplicaciones son definidas sobre las bases de sus aplicaciones: un producto interno o
escalar, un producto propio del espacio tridimensional, y un producto externo o directo que
produce un tensor de rango dos. La division por un vector no esta definida.

1.2.

CAPITULO 1. ANALISIS
VECTORIAL.

Rotaci
on de los ejes de coordenadas.

En la seccion anterior los vectores fueron definidos o representados en dos maneras equivalentes: (1) geometricamente, especificando la magnitud y la direccion con una flecha y (2)
algebraicamente, especificando las componentes relativas a ejes de coordenadas cartesianos.
Esta segunda definicion es adecuada para el analisis vectorial del resto del captulo. En esta
seccion propondremos dos definiciones ambas mas sofisticadas y poderosas. Primero, el campo vectorial esta definido en terminos del comportamiento de las componentes de los vectores
bajo la rotacion de los ejes de coordenadas. Este acercamiento teorico de transformacion nos
llevara al analisis tensorial en el captulo 2 y a la teora de grupo de las transformaciones en
el captulo 4. Segundo, la definicion de componentes de la seccion anterior sera refinada y
generalizada de acuerdo a los conceptos matematicos de espacio vectorial. Este acercamiento
nos llevara a los espacios vectoriales de funciones incluyendo el espacio de Hilbert.
La definicion de vector como una cantidad con magnitud y direccion se quiebra en trabajos
avanzados. Por otra parte, encontramos cantidades, tales como constantes elasticas e ndices
de refraccion en cristales anisotropicos, que tienen magnitud y direccion pero no son vectores.
Por otro lado, nuestra aproximacion ingenua es inconveniente para generalizar y extenderla
a cantidades mas complejas. Obtendremos una nueva definicion de campo vectorial, usando
nuestro vector desplazamiento ~r como un prototipo.
Hay una importante base fsica para el desarrollo de una nueva definicion. Describimos
nuestro mundo fsico por matematicas, pero el y cualquier prediccion Fsica que podamos
hacer debe ser independiente de nuestro analisis matematico. Algunos comparan el sistema
fsico a un edificio y el analisis matematico al andamiaje usado para construir el edificio. Al
final el andamiaje es sacado y el edificio se levanta.
En nuestro caso especfico suponemos que el espacio es isotropico; esto es, no hay direcciones privilegiadas o, dicho de otra manera, todas las direcciones son equivalentes. Luego,
cualquier sistema fsico que esta siendo analizado o mas bien las leyes fsicas que son enunciadas no pueden ni deben depender de nuestra eleccion u orientaci
on de los ejes coordenados.
Ahora, volveremos al concepto del vector ~r como un objeto geometrico independiente del
sistema de coordenadas. Veamos un ~r en dos sistemas diferentes, uno rotado respecto al otro.
Por simplicidad consideremos primero el caso en dos dimensiones. Si las coordenadas x e
y son rotadas en el sentido contrario a los punteros del reloj en un angulo , manteniendo
~r fijo (figura 1.6) obtenemos las siguientes relaciones entre las componentes resueltas en el
sistema original (sin primas) y aquellas resueltas en el nuevo sistema rotado (con primas):
x0 = x cos + y sen ,
y 0 = x sen + y cos .

(1.8)

Vimos, en la seccion anterior, que un vector podra ser representado por las coordenadas
de un punto; esto es, las coordenadas eran proporcionales a los componentes del vector. En
consecuencia las componentes de un vector deberan transformar bajo rotaciones como las
coordenadas de un punto (tal como ~r). Por lo tanto cualquier par de cantidades Ax (x, y) y
Ay (x, y) en el sistema de coordenadas xy son transformadas en (A0X , A0y ) por esta rotacion
del sistema de coordenadas con
A0x = Ax cos + Ay sen ,
A0y = Ax sen + Ay cos ,

(1.9)

DE LOS EJES DE COORDENADAS.


1.2. ROTACION

y
y
y

s
o
xc

x
x


en
x s y cos

n
e
ys

x
Figura 1.6: Rotacion de los ejes coordenados cartesianos respecto del eje z.

~ Nuestro vector esta definido


definimos4 Ax y Ay como las componentes de un vector A.
ahora en terminos de la transformacion de sus componentes bajo rotacion del sistema de
coordenadas. Si Ax y Ay transforman de la misma manera como x e y, las componentes del
~
vector de desplazamiento bidimensional, ellas son entonces las componentes del vector A.
Si Ax y Ay no muestran esta forma invariante cuando las coordenadas son rotadas, ellas no
forman un vector.
Las componentes del campo vectorial Ax y Ay que satisfacen las ecuaciones de definicion
(1.9), estan asociadas a una magnitud A y a una direccion en el espacio. La magnitud es una
cantidad escalar, invariante a la rotacion del sistema de coordenadas. La direccion (relativa
al sistema sin primas) es asimismo invariante ante la rotacion del sistema de coordenadas.
El resultado de todo esto es que las componentes de un vector pueden variar de acuerdo a
la rotacion del sistema de coordenadas con primas. Esto es lo que dicen las ecuaciones (1.9).
Pero la variacion con el angulo es tal que las componentes en el sistema de coordenadas
rotado A0x y A0y definen un vector con la misma magnitud y la misma direccion que el vector
definido por las componentes Ax y Ay relativas al eje de coordenadas xy. Las componentes de
~ en un sistema de coordenadas particular constituye la representaci
~ en el sistema de
A
on de A
coordenadas. Las ecuaciones (1.9), que corresponden a las relaciones de transformacion, son
~ es preservada de la rotacion del sistema de coordenadas.
una garanta de que la identidad A
Para ir a tres y, luego, a cuatro dimensiones, encontramos conveniente usar una notacion mas
La definici
on correspondiente de una cantidad escalar es S 0 = S, esto es, invariante ante rotaciones de
los ejes de coordenadas.
4


CAPITULO 1. ANALISIS
VECTORIAL.

10
compacta. Sea

x x1
y x2
a11 = cos ,
a21 = sen ,

(1.10)

a12 = sen ,
a22 = cos .

(1.11)

Las ecuaciones (1.8) transforman como


x01 = a11 x1 + a12 x2 ,
x02 = a21 x1 + a22 x2 .

(1.12)

Los coeficientes aij pueden ser interpretados como los cosenos directores, es decir, el coseno
del angulo entre x0i y xj ; esto es,
a12 = cos(x01 , x2 ) = sen ,


0
a21 = cos(x2 , x1 ) = cos +
= sen .
2
La ventaja de la nueva notacion5 es que nos permite usar el smbolo suma
ecuaciones (1.12) como
2
X
0
xi =
aij xj ,
i = 1, 2 .

(1.13)
P

y reescribir las

(1.14)

j=1

Note que i permanece como un parametro que da origen a una ecuacion cuando este conjunto
es igual a 1 y a una segunda ecuacion cuando este conjunto es igual a 2. El ndice j, por
supuesto, es un ndice de suma, es un ndice mudo, como una variable de integracion, j puede
ser reemplazada por cualquier otro smbolo.
La generalizacion para tres, cuatro, o N dimensiones es ahora muy simple. El conjunto
de N cantidades, Vj , se dice que son las componentes de un vector de N dimensiones, V~ , si
y solo si sus valores relativos a los ejes coordenados rotados estan dados por
Vi0 =

N
X

aij Vj ,

i = 1, 2, . . . , N .

(1.15)

j=1

Como antes, aij es el coseno del angulo entre x0i y xj . A menudo el lmite superior N y
el correspondiente intervalo de i no sera indicado. Se da por descontado que se sabe en
que dimension se esta trabajando.
5

Podemos extra
narnos por que hemos sustituido un parametro por cuatro parametros aij . Claramente,
los aij no constituyen un conjunto mnimo de parametros. Para dos dimensiones los cuatro aij estan sujetos
a tres restricciones dadas en la ecuaci
on (1.19). La justificacion para el conjunto redundante de cosenos
directores es la conveniencia que provee. Se tiene la esperanza que esta conveniencia sea mas aparente en los
proximos captulos. Para rotaciones en tres dimensiones son nueve los aij , pero solamente tres de ellos son
independientes, existen adem
as descripciones alternativas como: los angulos de Euler, los cuaterniones o los
parametros de Cayley-Klein. Estas alternativas tienen sus respectivas ventajas y sus desventajas.

DE LOS EJES DE COORDENADAS.


1.2. ROTACION

11

A partir de la definicion de aij como el coseno del angulo entre la direccion positiva de x0i
y la direccion positiva de xj podemos escribir (coordenadas cartesianas)6
aij =

x0i
.
xj

(1.16)

Usando la rotacion inversa ( ) produce


xj =

2
X

aij x0i ,

j=1

xj
= aij .
x0i

(1.17)

Notemos que estas son derivadas parciales. Por uso de las ecuaciones (1.16), (1.17) y (1.15)
se convierten en
N
N
X
X
x0i
xj
Vi0 =
Vj =
V .
(1.18)
0 j
x
x
j
i
j=1
j=1
Los cosenos directores aij satisfacen una condici
on de ortogonalidad
X

aij aik = jk ,

(1.19)

aji aki = jk .

(1.20)

o, equivalentemente,
X
i

El smbolo ij es la delta de Kronecker definida por


(
1 para i = j ,
ij =
0 para i 6= j .

(1.21)

Podemos facilmente verificar las ecuaciones (1.19) y (1.20) manteniendose en el caso de dos
dimensiones y sustituyendo los especficos aij desde la ecuacion (1.11). El resultado es la bien
conocida identidad sen2 + cos2 = 1 para el caso no nulo. Para verificar la ecuacion (1.19)
en forma general, podemos usar la forma en derivadas parciales de las ecuaciones (1.16) y
(1.17) para obtener
X xj xk X xj x0
xj
i
=
=
.
(1.22)
0
0
0
x
x
x
x
x
k
k
i
i
i
i
i
El u
ltimo paso sigue las reglas usuales para las derivadas parciales, suponiendo que xj es
una funcion de x01 , x02 , x03 , etc. El resultado final, xj /xk , es igual a ij , ya que xj y xk son
coordenadas lineales (j 6= k) que se suponen perpendiculares (en dos o tres dimensiones)
u ortogonales (para cualquier n
umero de dimensiones). Equivalentemente, podemos suponer
que xj y xk con j 6= k son variables totalmente independientes. Si j = k, la derivada parcial es
claramente igual a 1. Al redefinir un vector en terminos de como sus componentes transforman
bajo rotaciones del sistema de coordenadas, deberamos enfatizar dos puntos:
6

Diferenciando x0i =

aik xk con respecto a xj .

12

CAPITULO 1. ANALISIS
VECTORIAL.

1.- Esta definicion se desarrolla porque es u


til y apropiada en describir nuestro mundo fsico.
Nuestras ecuaciones vectoriales seran independientes de cualquier sistema particular de
coordenadas. (El sistema de coordenadas no necesita ser cartesiano.) La ecuacion vectorial
siempre puede ser expresada en alg
un sistema particular de coordenadas y, para obtener
resultados numericos, deberamos finalmente expresarla en alg
un sistema de coordenadas
especfico.
2.- Esta definicion se puede generalizar abriendo la rama de la matematica conocida como
analisis tensorial, (proximo captulo).
El comportamiento de las componentes vectoriales bajo rotaciones de las coordenadas es
usado en al seccion 1.3 para probar que un producto escalar es un escalar, en la seccion 1.4
para probar que un producto vectorial es un vector, y en la seccion 1.6 para mostrar que
~
la gradiente de un escalar, ,
es un vector. Lo que resta de este captulo deriva de las
definiciones menos restrictivas de vector que las dadas en la seccion 1.1.

1.2.1.

Vectores y espacios vectoriales.

Es habitual en matematicas etiquetar un vector en tres dimensiones ~x por un triplete


ordenado de n
umeros reales (x1 , x2 , x3 ). El n
umero xn es llamado la componente n del vector
~x. El conjunto de todos los vectores (que obedecen las propiedades que siguen) forman un espacio vectorial sobre los reales en este caso de tres dimensiones. Atribuimos cinco propiedades
a nuestros vectores: si ~x =(x1 , x2 , x3 ) e ~y = (y1 , y2 , y3 ),
1. Igualdad entre vectores : ~x = ~y significa xi = yi , para i =1, 2, 3.
2. Suma de vectores: ~x + ~y = ~z significa xi + yi = zi , para i =1,2,3.
3. Multiplicacion por un escalar: a~x (ax1 , ax2 , ax3 ) con a R.
4. El negativo de un vector o inverso aditivo: ~x = (1)~x (x1 , x2 , x3 ).
5. Vector nulo: aqu existe un vector nulo ~0 (0, 0, 0).
Ya que nuestras componentes vector son n
umeros reales, las siguientes propiedades tambien se mantienen:
1. La suma de vectores es conmutativa: ~x + ~y = ~y + ~x.
2. La suma de vectores es asociativa: (~x + ~y ) + ~z = ~x + (~y + ~z).
3. La multiplicacion por escalar es distributiva: a(~x + ~y ) = a~x + a~y , y tambien se cumple
(a + b)~x = a~x + b~x.
4. La multiplicacion por escalar es asociativa: (ab)~x = a(b~x).

1.3. PRODUCTO ESCALAR O PRODUCTO PUNTO.

13

Ademas, el vector nulo ~0 es u


nico, tal como lo es el inverso aditivo de un vector ~x dado.
Esta formulacion nos permite formalizar la discusion de componentes de la seccion 1.1.
Su importancia radica en las extensiones, las cuales seran consideradas en los captulos posteriores. En el captulo (4), mostraremos que los vectores forman tanto un grupo Abeliano
bajo la suma, como un espacio lineal con las transformaciones en el espacio lineal descrito
por matrices. Finalmente, y quiza lo mas importante, para la Fsica avanzada el concepto
de vectores presentado aqu puede ser generalizado a n
umeros complejos, funciones, y a un
n
umero infinito de componentes. Esto tiende a espacios de funciones de dimension infinita,
espacios de Hilbert, los cuales son importantes en la teora cuantica moderna.

1.3.

Producto escalar o producto punto.

Habiendo definido vectores, debemos proceder a combinarlos. Las leyes para combinar
vectores deben ser matematicamente consistentes. A partir de las posibilidades que existen seleccionamos dos que son tanto matematica como fsicamente interesantes. Una tercera
posibilidad es introducida en el captulo 2, en la cual formaremos tensores.
~ sobre los ejes coordenados, la cual define su componente
La proyeccion de un vector A
~ y los vectores
cartesiana en la ecuacion (1.4), es un caso especial del producto escalar de A
unitarios coordenados,
~ x ,
Ax = A cos A

~ y ,
Ay = A cos A

~ z .
Az = A cos A

(1.23)

~ deseamos que el producto escalar de dos vectores


Al igual que la proyeccion es lineal en A,
~ y B,
~ es decir, obedezca las leyes de distributividad y asociatividad
sea lineal en A
~ (B
~ + C)
~ =A
~B
~ +A
~C
~ ,
A

(1.24)

~ yB
~ = (y A)
~ B
~ = yA
~B
~ ,
A

(1.25)

~ en sus componentes
donde y es un n
umero. Ahora podemos usar la descomposicion de B
~ = Bx x + By y + Bz z, para construir el producto
cartesianas de acuerdo a la ecuacion (1.5), B
~yB
~ como
escalar general o producto punto de los vectores A
~B
~ =A
~ (Bx x + By y + Bz z)
A
~ x + By A
~ y + Bz A
~ z
= Bx A
= Bx Ax + By Ay + Bz Az ,
por lo tanto
~B
~
A

X
i

Bi Ai =

~ A
~.
Ai Bi = B

(1.26)

~ en la ecuacion
~=B
~ en la ecuacion (1.26), recuperamos la magnitud A = (P A2i )1/2 de A
Si A
(1.6) a partir de la ecuacion (1.26).
~ y B
~ de la
Es obvio, a partir de la ecuacion (1.26), que el producto escalar trata a A
~ y B,
~ luego es conmutativo. As, alternativamente y
misma manera, i.e. es simetrico en A
equivalentemente, podemos primero generalizar la ecuacion (1.23) a la proyeccion AB de un


CAPITULO 1. ANALISIS
VECTORIAL.

14

x
~B
~ = AB cos .
Figura 1.7: Producto escalar A

~ sobre la direccion de un vector B


~ 6= 0 como AB = A cos A
~ B,
donde B
= B/B
~
vector A
~
~
~
es el vector unitario en la direccion de B y es el angulo entre A y B como muestra la figura
~ sobre A
~ como BA = B cos B
~ A.
Segundo, hacemos
1.7. Similarmente, proyectamos B
~ y B,
~ la cual produce la definicion
esta proyeccion simetrica en A
~B
~ AB B = ABA = AB cos .
A

(1.27)

B+C

BA

CA

(B+C)A

~ (B
~ + C)
~ = ABA + ACA = A(B
~ + C)
~ A , ecuacion (1.24).
Figura 1.8: La ley distributiva A
La ley distributiva en la ecuacion (1.24) es ilustrada en la figura 1.8, en la cual se muestra
~ y C,
~ BA + CA , es igual a la proyeccion de B
~ +C
~ sobre
que la suma de las proyecciones de B
~
~
~
A, (B + C)A .
Se sigue a partir de las ecuaciones (1.23), (1.26) y (1.27) que los vectores unitarios coordenados satisfacen la relacion
x x = y y = z z = 1 ,

(1.28)

1.3. PRODUCTO ESCALAR O PRODUCTO PUNTO.

15

mientras
x y = x z = y z = 0 .

(1.29)

Si la definicion de las componentes, ecuacion (1.26), es etiquetada como una definicion algebraica, entonces la ecuacion (1.27) es una definicion geometrica. Una de las mas comunes
aplicaciones del producto escalar en Fsica es el calculo del trabajo ejercido por una fuerza
constante = fuerza desplazamiento cos , lo cual es interpretado como el desplazamiento
por la proyeccion de la fuerza en la direccion del desplazamiento, i.e., el producto escalar de
~
la fuerza y el desplazamiento, W = F~ S.

n
y

r =xx^+yy^

Figura 1.9: Un vector normal.


~B
~ = 0 y sabemos que A
~ 6= 0 y B
~ 6= 0, entonces desde la ecuacion (1.27), cos = 0
Si A
~ y B
~ deben ser perpendiculares. Alternativaimplica = /2 o = 3/2. Los vectores A
mente, podemos decir que son ortogonales. Los vectores unitarios x, y y z son mutuamente
ortogonales. Para desarrollar esta nocion de ortogonalidad demos un paso mas, supongamos
que ~n es un vector unitario y ~r es un vector distinto de cero en el plano-xy; esto es ~r = xx+ yy
(figura 1.9). Si
~n ~r = 0 ,
para todas las elecciones posibles de ~r, entonces ~n debe ser perpendicular (ortogonal) al
plano-xy.
A menudo es conveniente reemplazar x, y y z por vectores unitarios con subndice ~em con
m = 1, 2, 3, con x = ~e1 y as sucesivamente. Entonces las ecuaciones (1.28) y (1.29) llegan a
ser
~em ~en = mn .
(1.30)
Para m 6= n los vectores unitarios ~em y ~en son ortogonales. Para m = n cada vector es
normalizado a la unidad, esto es, tiene magnitud uno. El conjunto de vectores ~em se dice que
es ortonormal. La mayor ventaja de la ecuacion (1.30) sobre las ecuaciones (1.28) y (1.29)
es que la ecuacion (1.30) puede ser facilmente generalizada a un espacio de N dimensiones;
m, n = 1, 2, . . . , N . Finalmente, escogeremos un conjunto de vectores unitarios ~em que sean
ortonormales por conveniencia.


CAPITULO 1. ANALISIS
VECTORIAL.

16

1.3.1.

Invariancia del producto escalar bajo rotaciones.

No hemos mostrado a
un que la palabra escalar este justificada o que el producto escalar
sea realmente una cantidad escalar. Para hacer esto, investiguemos el comportamiento de
~B
~ bajo una rotacion del sistema de coordenadas. Usando la ecuacion (1.15)
A
X
X
X
X
X
X
axi Ai
axj Bj +
ayi Ai
ayj Bj +
azi Ai
azj Bj .
A0x Bx0 + A0y By0 + A0z Bz0 =
i

(1.31)
Usando los ndices k y l para sumar sobre x, y y z, obtenemos
XXX
X
ali Ai alj Bj ,
A0k Bk0 =
l

(1.32)

y, arreglando terminos en el lado derecho, tenemos


XXX
XX
X
X
(ali alj )Ai Bj =
ij Ai Bj =
Ai Bi .
A0k Bk0 =
k

(1.33)

Los dos u
ltimos pasos se siguen de la ecuacion (1.19), la condicion de ortogonalidad de los
cosenos directores, y de la ecuacion (1.21) la cual define la delta de Kronecker. El efecto de
la delta de Kronecker es cancelar todos los terminos en la suma sobre uno de sus dos ndices
excepto el termino en el cual son iguales. En la ecuacion (1.33) su efecto es fijar j = i y
eliminar la suma sobre j. Por supuesto, podramos fijar i = j y eliminar la suma sobre i. la
ecuacion (1.33) nos da
X
X
A0k Bk0 =
Ai Bi ,
(1.34)
i

la cual es justo nuestra definicion de una cantidad escalar, una que permanece invariante
ante rotaciones de los sistemas de coordenadas.

Figura 1.10: La ley de los cosenos.

En un acercamiento, similar el cual se aprovecha de este concepto de invarianza, tomamos


~
~+B
~ y hacemos producto punto consigo mismo.
C=A
~ C
~ = (A
~ + B)
~ (A
~ + B)
~
C
~A
~+B
~ B
~ + 2A
~B
~ .
=A

(1.35)

1.4. PRODUCTO VECTORIAL O PRODUCTO CRUZ.

17

Ya que
~ C
~ = C2 ,
C
(1.36)
~ y por esto una cantidad invariante, veamos que
el cuadrado de la magnitud del vector C
2
2
2
~B
~ = C A B ,
A
2

es invariante.

(1.37)

Ya que la mano derecha de la ecuacion (1.37) es invariante esto es, una cantidad escalar
~ B,
~ tambien debiera ser invariante bajo una rotacion del sistema de
el lado izquierdo, A
~B
~ es un escalar.
coordenadas. En consecuencia A
La ecuacion (1.35) es realmente otra forma de escribir el teorema del coseno, el cual es
C 2 = A2 + B 2 + 2AB cos ,
= A2 + B 2 + 2AB cos( ) ,
= A2 + B 2 2AB cos ,

(1.38)

Comparando las ecuaciones (1.35) y (1.38), tenemos otra verificacion de la ecuacion (1.27),
o, si se prefiere, una derivacion vectorial del teorema del coseno (figura 1.10).
El producto punto, dado por la ecuacion (1.26), podra ser generalizado en dos formas.
El espacio no necesita ser restringido a tres dimensiones. En un espacio n-dimensional, la
ecuacion se aplica con la suma corriendo desde 1 a n. Donde n puede ser infinito, con la suma
como una serie convergente infinita. La otra generalizacion extiende el concepto de vector
para abarcar las funciones. La funcional analoga a un producto punto o interno aparece mas
adelante.

1.4.

Producto vectorial o producto cruz.

Una segunda forma de multiplicar vectores emplea el seno del angulo sustentado en vez
del coseno. Por ejemplo, el momento angular (figura 1.11) de un cuerpo esta definido como

Momento Lineal
Brazo de palanca

Distancia
x

Figura 1.11: Momento angular.

momento angular = brazo de palanca momento lineal


= distancia momento lineal sen .


CAPITULO 1. ANALISIS
VECTORIAL.

18

Por conveniencia en el tratamiento de problemas relacionados con cantidades tales como


momento angular, torque y velocidad angular, definiremos el producto vectorial o producto
cruz como
~ =A
~B
~ ,
C
con
C = AB sen .

(1.39)

~ ahora es un vector, y le asignamos una


A diferencia del caso anterior del producto escalar, C
~yB
~ tal que A,
~ B
~ yC
~ forman un sistema
direccion perpendicular al plano que contiene a A
diestro. Con esta eleccion de direccion tenemos
~B
~ = B
~ A
~,
A

anticonmutacion.

(1.40)

A partir de esta definicion de producto cruz tenemos


x x = y y = z z = 0 ,

(1.41)

x y = z , y z = x , z x = y ,
y x =
z , z y =
x , x z =
y.

(1.42)

mientras

Entre los ejemplos del producto cruz en Fsica Matematica estan la relacion entre el momento
~ (que define al momento angular),
lineal p~ y el momento angular L
~ = ~r p~ ,
L
y la relacion entre velocidad lineal ~v y velocidad angular
~,
~v =
~ ~r .
Los vectores ~v y p~ describen propiedades de las partculas o un sistema fsico. Sin embargo,
la posicion del vector ~r esta determinado por la eleccion del origen de las coordenadas. Esto
~ dependen de la eleccion del origen.
significa que
~ yL
~ usualmente esta definido por el producto vectorial de la ecuacion
El campo magnetico B
de fuerza de Lorentz7
q
~ , (cgs).
F~ = ~v B
c
Donde ~v es la velocidad de la carga electrica q, c es la velocidad de la luz en el vaco y F~ es
la fuerza resultante sobre la carga en movimiento.
El producto cruz tiene una importante interpretacion geometrica, la cual se usara en
~ yB
~ (figura 1.12), B sen es la altura
secciones futuras. En el paralelogramo definido por A


~ ~
si A es tomada como la longitud de la base. Luego (A B) = AB sen es el area del
~ B
~ es el area del paralelogramo definido por A
~ y B,
~ con
paralelogramo. Como un vector, A
el vector normal al plano del paralelogramo. Esto sugiere que el area podra ser tratada como
una cantidad vectorial.
7

~ lo hemos supuesto nulo.


El campo electrico E

1.4. PRODUCTO VECTORIAL O PRODUCTO CRUZ.

19

B sen

Figura 1.12: Paralelogramo que representa el producto cruz.

Entre parentesis, podemos notar que la ecuacion (1.42) y una ecuacion modificada (1.41)
forman el punto de partida para el desarrollo de los cuaterniones. La ecuacion (1.41) es
remplazada por x x = y y = z z = 1.
Una definicion alternativa del producto vectorial puede ser derivada del caso especial de
los vectores unitarios coordenados en las ecuaciones (1.40-1.42), en conjunto con la linealidad
del producto cruz en ambos argumentos vectoriales, en analoga con la ecuacion (1.24) y
(1.25) para el producto punto,
~ (B
~ + C)
~ =A
~B
~ +A
~C
~ ,
A
~ + B)
~ C
~ =A
~C
~ +B
~ C
~ ,
(A

(1.43)

~ (y B)
~ = yA
~B
~ = (y A)
~ B
~ ,
A

(1.44)

~yB
~ en sus componentes cartesianas
donde y es un n
umero. Usando la descomposicion de A
de acuerdo a la ecuacion (1.5), encontramos
~B
~ C
~ = (Cx , Cy , Cz ) = (Ax x + Ay y + Az z) (Bx x + By y + Bz z)
A
= (Ax By Ay Bx )
x y + (Ax Bz Az Bx )
x z + (Ay Bz Az By )
y z ,
por aplicacion de las ecuaciones (1.43),(1.44) y sustituyendo en las ecuaciones (1.40-1.42), tal
~B
~ sean
que las componentes cartesianas de A
Cx = Ay Bz Az By ,

Cy = Az Bx Ax Bz ,

Cz = Ax By Ay Bx ,

(1.45)

o
Ci = Aj Bk Ak Bj ,

i, j, k todos diferentes,

y con la permutacion cclica de los ndices i, j,


nientemente representado por un determinante

x
~

C = det Ax
Bx

(1.46)

~ puede ser convek. El producto vectorial C

y z
Ay Az .
By Bz

(1.47)


CAPITULO 1. ANALISIS
VECTORIAL.

20

~
La expansion del determinante por la fila superior reproduce las tres componentes de C
listadas en la ecuacion (1.45).
La ecuacion (1.39) podra ser llamada una definicion geometrica del producto vectorial.
Luego la ecuacion (1.45) podra ser una definicion algebraica.
Para mostrar la equivalencia de la ecuacion (1.39) y la definicion de componente, ecuacion
~C
~ yB
~ C,
~ usando la ecuacion (1.45). Tenemos
(1.45), formemos A
~C
~ =A
~ (A
~ B)
~ ,
A
= Ax (Ay Bz Az By ) + Ay (Az Bx Ax Bz ) + Az (Ax By Ay Bx ) ,
=0.

(1.48)

Similarmente,
~ C
~ =B
~ (A
~ B)
~ =0.
B

(1.49)

~ es perpendicular tanto al vector A


~ como al
Las ecuaciones (1.48) y (1.49) muestran que C

~ (cos = 0, = 90 ) y por lo tanto perpendicular al plano que ellos determinan.


vector B
La direccion positiva esta determinada considerando el caso especial de los vectores unitarios
x y = z (Cz = +Ax By ).
La magnitud es obtenida a partir de
~ B)
~ (A
~ B)
~ = A2 B 2 (A
~ B)
~ 2,
(A
= A2 B 2 A2 B 2 cos2 ,
= A2 B 2 sen2 .

(1.50)

C = AB sen .

(1.51)

De donde

El gran primer paso en la ecuacion (1.50) puede ser verificado expandiendo en componentes,
~ B
~ y la ecuacion (1.26) para el producto punto. A partir de
usando la ecuacion (1.45) para A
las ecuaciones (1.48), (1.49) y (1.51) vemos la equivalencia de las ecuaciones (1.39) y (1.45),
las dos definiciones del producto vectorial. Todava permanece el problema de verificar que
~ = A
~B
~ es por cierto un vector; esto es, que obedece la ecuacion (1.15), la ley de
C
transformacion vectorial. Comencemos en un sistema rotado (sistema prima)
Ci0 = A0j Bk0 A0k Bj0 , i, j y k en orden cclico,
X
X
X
X
=
ajl Al
akm Bm
akl Al
ajm Bm ,
l

(1.52)

(ajl akm akl ajm )Al Bm .

l,m

La combinacion de cosenos directores en parentesis desaparece para m = l. Por lo tanto


tenemos que j y k toman valores fijos, dependiendo de la eleccion de i, y seis combinaciones
de l y m. Si i = 3, luego j = 1, k = 2 (en orden cclico), y tenemos la siguiente combinacion

1.5. PRODUCTOS ESCALAR TRIPLE Y VECTORIAL TRIPLE.

21

de cosenos directores8
a11 a22 a21 a12 = a33 ,
a13 a21 a23 a11 = a32 ,
a12 a23 a22 a13 = a31 ,

(1.53)

y sus negativos. Las ecuaciones (1.53) son identidades que satisfacen los cosenos directores.
Ellas pueden ser verificadas con el uso de determinantes y matrices. Sustituyendo hacia atras
en la ecuacion (1.52),
C30 = a33 A1 B2 + a32 A3 B1 + a31 A2 B3 a33 A2 B1 a32 A1 B3 a31 A3 B2 ,
= a31 C1 + a32 C2 + a33 C3 ,
X
=
a3n Cn .

(1.54)

~ es
Permutando los ndices para levantar C10 y C20 , vemos que la ecuacion (1.15) se satisface y C
por cierto un vector. Podra mencionarse aqu que esta naturaleza vectorial del producto cruz
es un accidente asociado con la naturaleza tridimensional del espacio ordinario9 . Veremos en el
captulo siguiente que el producto cruz tambien puede ser tratado como un tensor asimetrico
de rango dos.
Definimos un vector como un triplete ordenado de n
umeros (o funciones) como en la
u
ltima parte de la seccion 1.2, luego no hay problemas en identificar el producto cruz como
~yB
~ en un tercer triplete
un vector. La operacion de producto cruz mapea los dos tripletes A
~ el cual por definicion es un vector.
C,
Ahora tenemos dos maneras de multiplicar vectores; una tercera forma aparece en el
~ A
~
proximo captulo . Pero que hay de la division por un vector? resulta ser que la razon B/
~yB
~ sean paralelos. Por lo tanto la division
no esta unvocamente especificada a menos que A
de un vector por otro no esta bien definida.

1.5.
1.5.1.

Productos escalar triple y vectorial triple.


Producto escalar triple.

Las secciones 1.3 y 1.4 cubren los dos tipos de multiplicacion de interes aqu. Sin embargo,
~ (B
~ C)
~ yA
~ (B
~ C),
~ las cuales ocurren con la
hay combinaciones de tres vectores, A
suficiente frecuencia para merecer una atencion mas amplia. La combinacion
~ (B
~ C)
~ ,
A
~ C
~ produce un vector, el cual
es conocida como el producto escalar triple. El producto B
~ da un escalar. Notemos que (A
~ B)
~ C
~ representa un escalar producto
producto punto con A,
8

La ecuaci
on (1.53) se mantiene ante rotaciones porque ellas mantienen el volumen.
Especficamente la ecuaci
on (1.53) se mantiene solo para un espacio tridimensional. Tecnicamente, es
posible definir un producto cruz en R7 , el espacio de dimension siete, pero el producto cruz resulta tener
propiedades inaceptables (patologicas).
9


CAPITULO 1. ANALISIS
VECTORIAL.

22

cruz con un vector, una operacion que no esta definida. Por lo tanto, si estamos de acuerdo
en excluir estas interpretaciones no definidas, los parentesis puede ser omitidos y el producto
~B
~ C.
~
de escalar triple puede ser escrito como A
Usando la ecuacion (1.45) para el producto cruz y la ecuacion (1.26) para el producto
punto, obtenemos
~B
~ C
~ = Ax (By Cz Bz Cy ) + Ay (Bz Cx Bx Cz ) + Az (Bx Cy By Cx ) ,
A
~ C
~ A
~=C
~ A
~B
~ ,
=B
~C
~ B
~ = C
~ B
~ A
~ = B
~ A
~C
~ ,
= A

(1.55)

y as sucesivamente.

Notemos el alto grado de simetra presente en la expansion en componentes. Cada termino


contiene los factores Ai , Bj y Ck . Si i, j, k estan en un orden cclico (x, y, z), el signo es
positivo. Si el orden es anticclico, el signo es negativo. Por lo tanto, el punto y la cruz
pueden ser intercambiados,
~B
~ C
~ =A
~B
~ C
~ .
A
(1.56)
Una representacion conveniente de la componente de expansion de la ecuacion (1.55) esta dada por el determinante


Ax A y Az


~B
~ C
~ = Bx By Bz .
A
(1.57)


Cx Cy Cz
La regla para intercambiar filas por columnas de un determinante provee una inmediata
~ B
~ y
verificacion de la permutacion listada en la ecuacion (1.55), mientras la simetra de A,
~
C en la forma determinante sugiere la relacion dada en la ecuacion (1.56).
~B
~ era
El producto triple encontrado en la seccion 1.4, en la cual se muestra que A
~ y B,
~ es un caso especial del resultado general (ecuacion (1.55)).
perpendicular a ambos, A
z


B C

A
y

Figura 1.13: Paraleleppedo que representa el producto escalar triple.


El producto escalar triple tiene una interpretacion geometrica directa. Los tres vectores
~ B,
~ yC
~ pueden ser interpretados como la definicion de un paraleleppedo (figura 1.13).
A,


~
~ = BC sen ,
B C
(1.58)
= area de la base del paralelogramo.

1.5. PRODUCTOS ESCALAR TRIPLE Y VECTORIAL TRIPLE.

23

~ esto
La direccion, por supuesto, es normal a la base. Haciendo el producto punto con A,
significa multiplicar el area de la base, por la proyeccion de A sobre la normal, o la base
tantas veces por la altura. Por lo tanto
~B
~ C
~ = volumen del paraleleppedo definido por A,
~ B
~ y C.
~
A
~ B
~ y C.
~ Debemos notar que A
~ B
~ C
~
Este es el volumen del paraleleppedo definido por A,
puede algunas veces volverse negativo. Este problema y su interpretacion los consideraremos
mas adelante.
El producto escalar triple encuentra una interesante e importante aplicacion en la construccion de una red recproca cristalina. Sea ~a, ~b y ~c (no necesariamente perpendiculares entre
ellos) vectores que definen una red cristalina. La distancia desde un punto de la red a otro
puede ser escrita
~r = na~a + nb~b + nc~c ,
(1.59)
con na , nb y nc tomando los valores sobre los enteros. Con estos vectores podemos formar
~a 0 =

~b ~c
,
~a ~b ~c

~b 0 = ~c ~a ,
~a ~b ~c

~c 0 =

~a ~b
.
~a ~b ~c

(1.60)

Vemos que ~a 0 es perpendicular al plano que contiene a ~b y a ~c y tiene una magnitud proporcional a a1 . En efecto, podemos rapidamente mostrar que
~a 0 ~a = ~b 0 ~b = ~c 0 ~c = 1 ,

(1.61)

~a0 ~b = ~a0 ~c = ~b0 ~a = ~b0 ~c = ~c0 ~a = ~c0 ~b = 0 .

(1.62)

mientras
Esto es a partir de las ecuaciones (1.61) y (1.62) derivamos el nombre de red recproca. El
espacio matematico en el cual esta red recproca existe es llamado a veces espacio de Fourier.
Esta red recproca es u
til en problemas que intervienen el scattering de ondas a partir de
varios planos en un cristal. Mas detalles pueden encontrarse en R.B. Leigthons Principles of
Modern Physics, pp. 440-448 [ New York: McGraw-Hill (1995)].

1.5.2.

Producto vectorial triple.

~ (B
~ C),
~ el cual es un vector. Aqu los
El segundo producto triple de interes es A
parentesis deben mantenerse, como puede verse del caso especial (
x x) y = 0, mientras
que si evaluamos x (
x y) = x z =
y . El producto vectorial triple es perpendicular a
~yaB
~ C.
~ El plano definido por B
~ yC
~ es perpendicular a B
~ C
~ y as el producto triple
A
yace en este plano (ver figura 1.14)
~ (B
~ C)
~ = xB
~ + yC
~ .
A

(1.63)

~ lo que da cero para el lado izquierdo, tal que xA


~ B
~ + yA
~ C
~ = 0.
Multiplicando (1.63) por A,
~ C
~ e y = z A
~ B
~ para un z apropiado. Sustituyendo estos valores en la
De aqu que x = z A
ecuacion (1.63) da
~ (B
~ C)
~ = z(B
~A
~C
~ C
~A
~ B);
~
A
(1.64)


CAPITULO 1. ANALISIS
VECTORIAL.

24


B C

B
x


A (B C)

~ yC
~ estan en el plano xy. B
~ C
~ es perpendicular al plano xy y
Figura 1.14: Los vectores B
~ (B
~ C)
~ es perpendicular al eje z y por
es mostrado aqu a lo largo del eje z. Entonces A
lo tanto esta de regreso en el plano xy.

deseamos mostrar que z = 1 en la ecuacion (1.64), una importante relacion algunas veces
~ B
~ y C,
~ z
conocida como la regla BAC CAB. Ya que la ecuacion (1.64) es lineal en A,
es independiente de esas magnitudes. Entonces, solo necesitamos mostrar que z = 1 para
B,
C.
Denotemos B
C = cos , C A = cos , A B
= cos , y el
vectores unitarios A,
cuadrado de la ecuacion (1.64) para obtener
C)]
2 = A2 (B
C)
2 [A (B
C)]
2 = 1 cos2 [A (B
C)]
2,
[A (B
2 + (A B)
2 2A B
A C B
C]
,
= z 2 [(A C)

(1.65)

= z 2 (cos2 + cos2 2 cos cos cos ) ,


usando (
v w)
2 = v2 w 2 (
v w)
2 repetidas veces. Consecuentemente, el volumen abarcado
B
y C que aparece en la ecuacion (1.65) puede ser escrito como
por A,
C)]
2 = 1 cos2 z 2 (cos2 + cos2 2 cos cos cos ) .
[A (B
De aqu z 2 = 1, ya que este volumen es simetrico en , y . Esto es z = 1 e independiente
B
y C.
Usando el caso especial x (
de A,
x y) =
y en la ecuacion (1.64) finalmente da
z = 1.
Una derivacion alternativa usando el tensor de Levi-Civita ijk ,

para i, j, k=x, y, z o y, z, x y z, x, y,
1
ijk = 1
para i, j, k=y, x, z o x, z, y y z, y, x,

0
en otros casos.
La veremos mas adelante.

~
1.6. GRADIENTE,

25

Podemos notar aqu que los vectores son independientes de las coordenadas tal que una
ecuacion vectorial es independiente de un particular sistema de coordenadas. El sistema de
coordenadas solo determina las componentes. Si la ecuacion vectorial puede ser establecida
en coordenadas cartesianas, ella se puede establecer y es valida en cualquier sistema de
coordenadas que sera introducido en el proximo captulo.

1.6.

~
Gradiente,

Suponga que (x, y, z) es una funcion de punto escalar, esto es, una funcion cuyo valor
depende de los valores de las coordenadas (x, y, z). Como un escalar, debera tener el mismo
valor en un punto fijo dado en el espacio, independiente de la rotacion de nuestro sistema de
coordenadas, o
0 (x01 , x02 , x03 ) = (x1 , x2 , x3 ) .

(1.66)

Diferenciando con respecto a x0i obtenemos


0 (x01 , x02 , x03 )
(x1 , x2 , x3 ) X xj X

=
=
=
aij
,
0
0
0
xi
xi
xj xi
xj
j
j

(1.67)

por las reglas de diferenciacion parcial y las ecuaciones (1.16) y (1.17). Pero la comparacion
con la ecuacion (1.18), la ley de transformacion vectorial, ahora nos muestra que hemos
construido un vector con componentes /xj . Este vector lo etiquetamos como la gradiente
de . Un simbolismo conveniente es
~ = x + y + z

x
y
z

(1.68)

~ = x + y + z .

x
y
z

(1.69)

~ (o del o grad ) es nuestro gradiente del campo escalar , mientras


~ es por s mismo

un operador diferencial vectorial (disponible para operar sobre o para diferenciar un campo
~ pueden ser derivadas a partir de la naturaleza hbrida
escalar ). Todas las relaciones para
del gradiente, por un lado la expresion en terminos de derivadas parciales y por otra su
naturaleza vectorial.
Ejemplo: el gradiente de una funci
on de r.
p
Calculemos el gradiente de f (r) = f ( x2 + y 2 + z 2 ).
~ (r) = x f (r) + y f (r) + z f (r) .
f
x
y
z


CAPITULO 1. ANALISIS
VECTORIAL.

26

La dependencia de f (r) sobre x es a traves de la dependencia de r sobre x. Por lo tanto10


f (r)
df (r) r
=
.
x
dr x
De r como funcion de x, y, z

r
=
x

x2 + y 2 + z 2
x
x
=p
= .
x
r
x2 + y 2 + z 2

Por lo tanto

f (r)
df (r) x
=
.
x
dr r
Permutando las coordenadas obtenemos las otras derivadas, para que finalmente podamos
escribir
~r df
df
1 df
~ (r) = (
=
= r .
f
xx + yy + zz)
r dr
r dr
dr
Aqu r es un vector unitario ~r/r en la direccion radial positiva. El gradiente de una funcion
de r es un vector en la direccion radial.

1.6.1.

Una interpretaci
on geom
etrica

~ es hacer el producto punto contra un diferencial de


Una aplicacion inmediata de
camino o diferencial de longitud
d~s = xdx + ydy + zdz .
As obtenemos
~
()
d~s =

dx +
dy +
dz = d ,
x
y
z

(1.70)

(1.71)

el cambio en la funcion escalar corresponde al cambio de posicion ds. Ahora consideremos


P y Q para ser dos puntos sobre una superficie (x, y, z) = C, una constante. Esos puntos
son escogidos tal que Q esta a un distancia d~s de P . Entonces moviendose de P a Q, el
cambio en (x, y, z) = C esta dado por
~
d = ()
d~s = 0 ,

(1.72)

~ es perpenya que permanecemos sobre la superficie (x, y, z) = C. Esto muestra que


dicular a d~s. Ya que d~r puede tener cualquier direccion desde P mientras permanezca en la
superficie , el punto Q esta restringido a la superficie, pero teniendo una direccion arbitraria,
~ es normal a la superficie = constante (figura 1.15).

10

Este es un caso especial de la regla de la cadena para derivadas parciales:


f (r, , )
f r
f
f
=
+
+
.
x
r x
x x

Ya que f / = f / = 0, f /r df /dr.

~
1.6. GRADIENTE,

27
z

Q
P
ds
(x,y,z)=C
y
x

Figura 1.15: Requerimos que el diferencial de longitud d~s permanezca sobre la superficie
= C.

Si ahora permitimos que d~s vaya desde la superficie = C1 a una superficie adyacente
= C2 (figura 1.16),
~
d = C2 C1 = C = ()
d~s .
(1.73)
~ (cos = 1); o, para un
Para un d dado, | d~s | es un mnimo cuando se escoge paralelo a
~
| d~r | dado, el cambio en la funcion escalar es maximizado escogiendo d~s paralelo a .
~
Esto identifica como un vector que tiene la direcci
on de la m
axima raz
on espacial de
cambio de , una identificacion que sera u
til en el proximo captulo cuando consideremos
sistemas de coordenadas no cartesianos.

=C2 > C 1

=C1

P
y
x
Figura 1.16: Gradiente.
~ tambien puede ser desarrollada usando el calculo de variaciones
Esta identificacion de
sujeto a constricciones.
El gradiente de un campo escalar es de extrema importancia en Fsica al expresar la
relacion entre un campo de fuerza y un campo potencial.
~
F~ = (energ
a potencial) .

(1.74)


CAPITULO 1. ANALISIS
VECTORIAL.

28

Esto es ilustrado para ambos campos, gravitacional y electroestatico, entre otros. Debemos
notar que el signo menos en la ecuacion (1.74) viene del hecho que el agua fluye cerro abajo
y no cerro arriba.

1.7.

~
Divergencia, .

Diferenciar una funcion vectorial es una extension simple de diferenciacion de cantidades


escalares. Supongamos que ~r(t) describe la posicion de un satelite en alg
un tiempo t. Luego,
por diferenciacion con respecto al tiempo,
d~r(t)
~r(t + t) ~r(t)
= lm
,
t0
dt
t
= ~v , la velocidad lineal.
Graficamente, tenemos la pendiente de la curva, orbita, o trayectoria, como se muestra en la
figura 1.17.

y
r

r(t)

r (t + t)

x
Figura 1.17: Diferenciacion de un vector.
Si resolvemos r(t) dentro de las componentes cartesianas, dr/dt siempre se reduce a una
suma vectorial de no mas que tres (para el espacio tridimensional) derivadas escalares. En
otro sistema de coordenadas la situacion es un poco mas complicada, los vectores unitarios
no son mas constantes en direccion. La diferenciacion con respecto al espacio de coordenadas
se maneja de la misma manera como la diferenciacion con respecto al tiempo, como veremos
en los siguientes parrafos.
~ fue definido como un operador vectorial. Ahora, poniendo cuidadosaEn la seccion 1.6,
mente atencion a ambas: sus propiedades vectoriales y sus propiedades diferenciales, operemos
sobre un vector. Primero, como un vector le hacemos producto punto con un segundo vector
para obtener
~ V~ = Vx + Vy + Vz ,
(1.75)

x
y
z

~
1.7. DIVERGENCIA, .

29

lo que se conoce como divergencia de V~ . Este es un escalar, como se discutio en la seccion


1.3.
~ ~r
Ejemplo Calculemos



x y z

~ ~r = x

+ y + z
(
xx + yy + zz) =
+
+
,
x
y
z
x y z
~ ~r = 3 .

G
C
dz

H
D

F
dx

dy

x
Figura 1.18: Diferencial paraleleppedo rectangular (en el primer octante).

1.7.1.

Una interpretaci
on fsica.

~ v ) con
Para desarrollar una intuicion del sentido fsico de la divergencia, consideramos (~
~v (x, y, z), la velocidad de un fluido compresible (x, y, z), su densidad en el punto (x, y, z).
Si consideramos un peque
no volumen dx, dy, dz (figura 1.18), el fluido fluye dentro de su
volumen por unidad de tiempo (direccion positiva de x) a traves de la cara EF GH es
(masa de fluido que sale por unidad de tiempo)EF GH = vx |x=0 dydz. Los componentes del
flujo, vy y vz , tangenciales a esta cara no contribuyen en nada al flujo en esa cara. La masa
de fluido por unidad de tiempo que pasa (todava en la direccion positiva de x) a traves de
la cara ABCD es vx |x=dx dydz. Para comparar estos flujos y para encontrar el flujo neto,
expandimos este u
ltimo resultado en una serie de Maclaurin. Este produce
(La masa de fluido que sale por unidad de tiempo)ABCD = vx |x=dx dydz ,



= vx +
(vx )dx
dydz .
x
x=0

30

CAPITULO 1. ANALISIS
VECTORIAL.

Aqu el termino de la derivada es un primer termino de correccion permitiendo la posibilidad


de no uniformidad de la densidad o velocidad o ambas11 . El termino de orden cero vx |x=0
(correspondiente al flujo uniforme) se cancela.
(La masa neta de fluido que sale por unidad de tiempo)x =

(vx )dxdydz .
x

Equivalentemente, podemos llegar a este resultado por



vx (x, 0, 0) vx (0, 0, 0)
vx (x, y, z)
lm


x0

x
x

0,0,0

Ahora el eje x no requiere ning


un tratamiento especial. El resultado precedente para las dos
caras perpendiculares al eje x debe mantenerse para las dos caras perpendiculares al eje y,
reemplazando x por y y los correspondientes cambios para y y z: y z, z x. Esta es
una permutacion cclica de las coordenadas. Una ulterior permutacion cclica produce los
resultados para las restantes dos caras de nuestro paraleleppedo. Sumando la velocidad de
flujo neto para los tres pares de superficies de nuestro elemento de volumen, tenemos



la masa neta de fluido que sale =


(vx ) +
(vy ) + (vz ) dx dy dz
x
y
z
(1.76)
(por unidad de tiempo)
~ (~v ) dx dy dz .
=
Por lo tanto, el flujo neto de nuestro fluido compresible del elemento volumen dx dy dz
~ (~v ). De aqu el nombre de divergencia.
por unidad de volumen por unidad de tiempo es
Una aplicacion directa es en la ecuacion de continuidad
~
+ (~v ) = 0 ,
t

(1.77)

la cual simplemente establece que el flujo neto resulta en una disminucion de la densidad
dentro del volumen. Note que en la ecuacion (1.77), es considerada como una funcion
posible del tiempo tanto como del espacio: (x, y, z, t). La divergencia aparece en una amplia
variedad de problemas fsicos, pasando desde una densidad de corriente de probabilidad en
mecanica cuantica, a la perdida de neutrones en un reactor nuclear.
~ (f V~ ), en la cual f es una funcion escalar y V~ una funcion vectorial,
La combinacion
puede ser escrita
~ (f V~ ) = (f Vx ) + (f Vy ) + (f Vz )

x
y
z
f
Vx f
Vy f
Vz
=
Vx + f
+
Vy + f
+
Vz + f
x
x
y
y
z
z
~ ) V~ + f
~ V~ ,
= (f
11

(1.78)

Estrictamente hablando, vx es promediado sobre la cara EF GH y la expresion vx + /x(vx )dx


es tambien promediada sobre la cara ABCD. Usando un diferencial de volumen arbitrariamente peque
no,
encontramos que los promedios se reducen a los valores empleados aqu.

~
1.8. ROTOR,

31

~
la cual es justo lo que uno debera esperar para la derivada de un producto. Notemos que
~
como un operador diferencial, diferencia a ambos, f y V ; como un vector, se le hace producto
punto con V~ (en cada termino).
Si tenemos el caso especial de la divergencia de un campo vectorial igual a cero,
~ =0,
~ B

(1.79)

~ se dice que es solenoidal, el termino viene del ejemplo en cual B


~ es el campo o
el vector B
induccion magnetica y la ecuacion (1.79) aparece como una de las ecuaciones de Maxwell.
Cuando un vector es solenoidal puede ser escrito como el rotor de otro vector conocido como
el vector potencial. Mas adelante calcularemos tal vector potencial.

1.8.

~
Rotor,

~ es hacerlo producto cruz contra otro


Otra posible operacion con el operador vectorial
vector. Obtenemos







~
~
V = x
Vz Vy + y
Vx
Vz + z
Vy
Vx
y
z
z
x
x
y


x
y
z

(1.80)



=
,
x y z
Vx Vy Vz
el cual es llamado el rotor de V~ . En la expansion de este determinante debemos considerar
~ Especficamente, V~
~ esta definido solo como un operador,
la naturaleza diferencial de .
~ V~ 12 . En el
como otro operador diferencial. Ciertamente no es igual, en general, a
caso de la ecuacion (1.80) el determinante debe ser expandido desde arriba hacia abajo, tal
que obtengamos las derivadas correctas. Si hacemos producto cruz contra el producto de un
escalar por un vector, podemos ver que



f
V
f
V
z
y
~ (f V~ ) =

x
y
z


Vz f
Vy f
(1.81)
= f
+
Vz f
+
Vy
y
y
z
z


~ (V~ ) + (f
~ ) V~ .
= f
x
x
Si permutamos las coordenadas tenemos
~ (f V~ ) = f
~ (V~ ) + (f
~ ) V~ ,

(1.82)

la cual es el producto vectorial analogo a (1.78). De nuevo, como operador diferencial diferencia a ambos f y V~ . Como vector hace producto cruz contra V~ en cada termino.
~ es un operador diferencial, no necesariamente es cierto que A
~A
~ = 0.
En este mismo espritu, si A
~
~
Especficamente, en mec
anica cu
antica el operador de momento angular, L = i(~r ), encontramos que
~ L
~ = iL.
~
L
12


CAPITULO 1. ANALISIS
VECTORIAL.

32

~ ~rf (r). Por la ecuacion (1.82),


Ejemplo Calculemos
~ ~rf (r) = f (r)
~ ~r + [f
~ (r)] ~r .

(1.83)

Primero,

x


~ ~r =

x

x

y
y


z

=0.
z
z

(1.84)

~ (r) = r(df /dr), obtenemos


Segundo, usando f
~ ~rf (r) = df r ~r .

dr

(1.85)

El producto vectorial se anula, ya que ~r = r r y r r = 0.

y (x ,y +dy)
0 0
3 (x 0+dx,y0 +dy)
2

4
1

(x0 ,y0 )

(x 0+dx,y0 )
x

Figura 1.19: Circulacion alrededor de un loop diferencial.

Para desarrollar un mejor sentido del significado fsico del rotor, consideremos la circulacion de un fluido alrededor de un loop diferencial en el plano xy, figura 1.19.
R
Aunque la circulacion tecnicamente esta dada por la integral lineal de un vector V~ d~
(seccion 1.10), podemos establecer las integrales escalares equivalentes. Tomemos la circulacion como
Z
Z
Z
Z
circulacion1234 = Vx (x, y)dx + Vy (x, y)dy + Vx (x, y)dx + Vy (x, y)dy . (1.86)
1

Los n
umeros 1, 2, 3 y 4 se refieren al segmento lineal enumerado en la figura 1.19. En la
primera integral dx = +dx, pero en la tercera integral dx = dx, ya que el tercer segmento
de lnea es recorrido en la direccion negativa de x. Similarmente, dy = +dy, para la segunda
integral y dy para la cuarta. Luego, los integrandos estan referidos al punto (x0 , y0 ) con una

~
1.8. ROTOR,

33

expansion de Taylor13 tomando en cuenta el desplazamiento del segmento de lnea 3 desde 1


y 2 desde 4. Para nuestro segmento de lnea diferencial esto tiende a


Vy
dx dy+
ciculacion1234 = Vx (x0 , y0 )dx + Vy (x0 , y0 ) +
x


Vx
(1.87)
+ Vx (x0 , y0 ) +
dy (dx) + Vy (x0 , y0 )(dy)
y


Vy Vx
=

dxdy .
x
y
Dividiendo por dxdy, tenemos

~ V~ .
circulacion por unidad de area =
z

(1.88)

La circulacion14 alrededor de nuestra area diferencial en el plano xy esta dada por la compo~ V~ . En principio, el rotor,
~ V~ en (x0 , y0 ), podra ser determinado insertando
nente z de
una rueda con paleta (diferencial) dentro del fluido en movimiento en el punto (x0 , y0 ). La
rotacion de la peque
na rueda de paleta podra ser una medida del rotor, y su eje a lo largo
~
de la direccion de V~ , la cual es perpendicular al plano de circulacion.
Usaremos el resultado, ecuacion (1.87), en la seccion 1.13 para derivar el teorema de
Stokes. Cada vez que el rotor de un vector V~ se anula,
~ V~ = 0 ,

(1.89)

V~ es llamado irrotacional. Los ejemplos fsicos mas importantes de vectores irrotacionales


son las fuerzas gravitacional y electroestatica. En cada caso
r
~r
V~ = C 2 = C 3 ,
r
r

(1.90)

donde C es una constante y r es un vector unitario hacia afuera en la direccion radial. Para
el caso gravitacional tenemos C Gm1 m2 , dado por la ley de Newton de la gravitacion
universal. Si C = q1 q2 , tenemos la ley de Coulomb de la electroestatica (unidades cgs). La
fuerza V~ dada en la ecuacion (1.90) puede ser mostrada como irrotacional por expansion
directa en las componentes cartesianas, como lo hicimos en el ejemplo. Otro acercamiento
~
sera desarrollado en el proximo captulo, en el cual expresamos ,
el rotor, en termino
de coordenadas polares esfericas. En la seccion 1.13 veremos que cada vez que un vector es
irrotacional, el vector puede ser escrito como la gradiente (negativa) de un potencial escalar.
En la seccion 1.15 probaremos que un campo vectorial puede ser resuelto en una parte
irrotacional y una parte solenoidal (sujetos a condiciones en infinito). En terminos del campo
electromagnetico esto corresponde a la resolucion dentro de un campo electrico irrotacional
y un campo magnetico solenoidal.
13

Vy (x0 + dx, y0 ) = Vy (x0 , y0 ) +

Vy
x

dx + Los terminos de ordenes mas altos se van a cero en


x0 ,y0

el lmite dx 0. Un termino de correcci


on por la variacion de Vy con y es cancelado por el correspondiente
termino en la cuarta integral.
14
~ es llamada la vorticidad.
~ V
En dinamica de fluido


CAPITULO 1. ANALISIS
VECTORIAL.

34

~ ~u = 0,
Para ondas en un medio elastico, si el desplazamiento ~u es irrotacional,
como ondas planas (u ondas esfericas en distancias grandes) estas llegan a ser longitudinales.
~ ~u = 0, luego las ondas llegan a ser transversales. Una perturbacion
Si ~u es solenoidal,
ssmica producira un desplazamiento que puede ser resuelto en una parte solenoidal y una
parte irrotacional (compare la seccion 1.15). La parte irrotacional produce la longitudinal P
(primaria) de las ondas de terremotos. La parte solenoidal da origen a las ondas transversales
mas lentas S (secundarias).
Usando la gradiente, divergencia y rotor y por su puesto la regla BAC CAB, podemos
construir o verificar un gran n
umero de u
tiles identidades vectoriales. Para la verificacion, una
expansion completa en componentes cartesianas es siempre una posibilidad. Algunas veces
si usamos agudeza de ingenio en vez de la pesada rutina de las componentes cartesianas, el
proceso de verificacion puede ser drasticamente acortado.
~ es un operador vectorial, un objeto hbrido que satisface dos conjuntos
Recuerde que
de reglas:
1. reglas vectoriales, y
2. reglas de diferenciacion parcial incluyendo la de diferenciacion de un producto.
Ejemplo Verifiquemos que
~ B)
~ = (B
~ )
~ + (A
~ )
~ +B
~ (
~ +A
~ (
~ .
~ A
~ A
~ B
~ A)
~ B)
(

(1.91)

~ B)
~ es el tipo de
~ A
En este particular ejemplo el factor mas importante es reconocer que (
terminos que aparecen en la expansion BAC CAB de un producto triple vectorial, ecuacion
(1.64). Por ejemplo,
~ (
~ = (
~ B)
~ (A
~ )
~ ,
~ B)
~ A
~ B
A
~ no a A.
~ De la conmutatividad de los factores en el producto
~ diferenciando solo a B,
con
~ con B
~ y escribimos
escalar nosotros podemos intercambiar A
~ (
~ = (
~ B)
~ (B
~ )
~,
~ A)
~ A
~ A
B
~ no a B.
~ Sumando estas ecuaciones, obtenemos
~ diferenciando solo a A,
~ difeahora con
~
~
renciando al producto A B y la identidad (1.91).
Esta identidad es usada frecuentemente en teora electromagnetica avanzada.

1.9.

~
Aplicaciones sucesivas de .

Hemos definido gradiente, divergencia y rotor para obtener un vector, un escalar y una
~ sobre cada una de estas cantidacantidad vectorial, respectivamente. Usando el operador
des, obtenemos
~
~
~
~
~
~ V~
(a)
(b)
(c)
~
~ V~
~ (
~ V~ ) ,
(d)
(e)

~
1.9. APLICACIONES SUCESIVAS DE .

35

las cinco expresiones involucran una segunda derivada y las cinco aparecen en las ecuaciones diferenciales de segundo orden de la Fsica Matematica, particularmente en la teora
electromagnetica.
~ ,
~
La primera expresion,
la divergencia del gradiente, es llamada el Laplaciano de
. Tenemos

 


~
~
= x
+ y + z
x
+ y
+ z
x
y
z
x
y
z
(1.92)
2
2
2

+ 2 + 2 .
=
x2
y
z
Cuando es el potencial electroestatico, tenemos
~
~ = 2 = 0 .

(1.93)

~
~ es
la cual es la ecuacion de Laplace de la electroestatica. A menudo la combinacion
2
~ .
escrita como
la expresion (b) puede ser escrita


x
y
z




~
~ =

x y z .



x y z
Expandiendo el determinante, obtenemos
 2

 2

 2

2
2
2

~
~ = x

+ y

+ z

=0,
yz zy
zx xz
xy yx

(1.94)

suponiendo que el orden de las derivadas parciales puede ser intercambiado. Esto es cierto
ya que estas segundas derivadas parciales de son funciones continuas.
Luego, de la ecuacion (1.94), el rotor de un gradiente es identicamente nulo. Todos los
gradientes, por lo tanto, son irrotacionales. Note cuidadosamente que el cero en la ecuacion
(1.94) se vuelve una identidad matematica, independiente de cualquier Fsica. El cero en la
ecuacion (1.93) es una consecuencia de la Fsica.
La expresion (d) es un producto escalar triple el cual puede ser escrito



x

~
~
~
V =

x
V
x

y
Vy




z
.

z
Vz

(1.95)

De nuevo, suponiendo continuidad tal que el orden de la diferenciacion es irrelevante, obtenemos


~
~ V~ = 0 .

(1.96)


CAPITULO 1. ANALISIS
VECTORIAL.

36

La divergencia de un rotor se anula siempre o todos los rotores son solenoidales. En la


seccion 1.15 veremos que los vectores pueden ser resueltos dentro de una parte solenoidal y
otra irrotacional por el teorema de Helmholtz.
Las dos expresiones remanentes satisfacen una relacion
~ (
~ V~ ) =
~
~ V~
~
~ V~ .

(1.97)

Esto se deduce inmediatamente a partir de la ecuacion (1.64), la regla BAC CAB, la cual
~
~ V~
reescribimos tal que C aparece en el extremo derecho de cada termino. El termino
no fue incluido en nuestra lista, pero puede ser definido por la ecuacion (1.97).
Ejemplo Una importante aplicacion de estas relaciones vectoriales es la derivacion de la
ecuacion de ondas electromagneticas. En el vaco las ecuaciones de Maxwell llegan a ser
~ =0,
~ B

~ =0,
~ E

(1.98)
(1.99)

~
1 E
,
c t

(1.100)

~
~ = 1 B ,
~ E

c t

(1.101)

~ =
~ B

~ es el campo electrico, B
~ es el campo magnetico c la velocidad de la luz en el vaco
Aqu E
~ de las ecuaciones (1.100) y (1.101). Podemos
(unidades cgs). Supongamos que eliminamos B
hacer esto tomando rotor a ambos lados de (1.101) y la derivada temporal a ambos lados de
(1.100). Ya que las derivadas espaciales y temporales conmutan
~
~
~ =
~ B ,
B
t
t

(1.102)

y obtenemos
2~
~ =1 E .
~ (
~ E)

c2 t2
Aplicando las ecuaciones (1.97) y (1.99) se produce

~ =
2 E

~
1 2E
,
c2 t2

(1.103)

(1.104)

~ es expresado en
que es la ecuacion de onda para el vector electromagnetico. De nuevo, si E
coordenadas cartesianas, la ecuacion (1.104) se separa en tres ecuaciones escalares.

1.10.

Integraci
on vectorial.

El siguiente paso despues de la derivacion vectorial es la integracion. Comencemos con


las integrales de lnea y luego procederemos con las integrales de superficie y de volumen. En
cada caso el metodo sera reducir la integral vectorial a una o varias integrales escalares con
las cuales supuestamente estamos mas familiarizados.

VECTORIAL.
1.10. INTEGRACION

1.10.1.

37

Integrales lineales.

Usando un incremento de longitud d~s = xdx+ ydy + zdz, podemos encontrar las integrales
de lnea
Z
d~s ,
(1.105)
c
Z
V~ d~s ,
(1.106)
c
Z
V~ d~s ,
(1.107)
c

en cada una de las cuales la integral esta sobre alg


un contorno C que puede ser abierto
(con un punto inicial y un punto final separados) o cerrado (formando un loop). Dada la
interpretacion fsica que sigue, la segunda forma, ecuacion (1.106), es lejos la mas importante
de las tres.
Con , un escalar, la primera integral se reduce a
Z
Z
Z
Z
d~s = x (x, y, z) dx + y (x, y, z) dy + z (x, y, z) dz .
(1.108)
c

Esta separacion ha empleado la relacion


Z
Z
x dx = x dx ,

(1.109)

la cual es permisible porque los vectores unitarios cartesianos x, y, z son constantes en


magnitud y direccion. Quizas esta relacion es obvia aqu, pero no sera verdadera en los
sistemas no cartesianos encontrados en el siguiente captulo.
Las tres integrales sobre el lado derecho de la ecuacion (1.108) son integrales escalares
ordinarias. Note, sin embargo, que la integral con respecto a x no puede ser evaluada a menos
que y y z sean conocidos en terminos de x y similarmente para las integrales con respecto
a y y z. Esto simplemente significa que el camino de integracion C debe ser especificado.
A menos que el integrando tenga propiedades especiales que lleve a la integral a depender
solamente de los valores de los puntos extremos, el valor dependera de la eleccion particular
del contorno de C. Por ejemplo, si escogemos el caso muy especial de = 1, la ecuacion
(1.108) es solo la distancia vectorial desde el comienzo del contorno C al punto final, en
este caso es independiente de la eleccion del camino que conecta los puntos extremos. Con
d~s = xdx + ydy + zdz, las segunda y tercera formas tambien se reducen a una integral escalar
y, como la ecuacion (1.105), son dependientes, en general, de la eleccion del camino. La
forma (ecuacion (1.106)) es exactamente la misma, como la encontrada cuando calculamos
el trabajo hecho por una fuerza que vara a lo largo del camino,
Z
W = F~ d~s
Z
Z
Z
(1.110)
= Fx (x, y, z)dx + Fy (x, y, z)dy + Fz (x, y, z)dz .
En esta expresion F~ es la fuerza ejercida sobre una partcula.


CAPITULO 1. ANALISIS
VECTORIAL.

38

1.10.2.

Integrales de superficie.

Las integrales de superficie aparecen en la misma forma que las integrales de lnea, el
elemento de area tambien es un vector, d~a. A menudo este elemento de area es escrito n
da en
el cual n
es un vector unitario (normal) para indicar la direccion positiva. Hay dos convenciones para escoger la direccion positiva. Primero, si la superficie es una superficie cerrada,
concordamos en tomar hacia afuera como positivo. Segundo, si la superficie es abierta, la
normal positiva depende de la direccion en la cual el permetro de la superficie abierta es
recorrido. Si los dedos de la mano derecha estan colocados en la direccion de viaje alrededor
del permetro, la normal positiva esta indicada por el pulgar de la mano derecha. Como una
ilustracion, un crculo en el plano xy (figura 1.23) recorrido de x a y a, x a y y de regreso
a x tendra su normal positiva paralela al eje z positivo (por el sistema de coordenadas de
la mano derecha). Si encontraran superficies de un lado, tal como las bandas de Moebius, se
sugiere que se corten las bandas y formen superficies bien comportadas o las etiqueten de
patologicas y las enven al departamento de Matematicas mas cercano.

n
y
x
Figura 1.20: Regla de la mano derecha para la normal positiva.

Analogo a las integrales de lnea, ecuaciones (1.105-1.107), las integrales de superficie


pueden aparecer en las formas
Z
Z
Z
d~a ,
V~ d~a ,
V~ d~a .
Nuevamente, el producto punto
unmente encontrada.
R es lejos la forma mas com
~
La integral de superficie V d~a puede ser interpretada como un flujo a traves de la
superficie dada. Esto es realmente lo que hacemos en la seccion 1.7 para obtener el significado
del termino divergencia. Esta identificacion reaparece en la seccion 1.11 como el teorema de
Gauss. Note que en ambos, fsicamente y desde el punto de vista del producto punto, la
componente tangencial de la velocidad no contribuye en nada al flujo a traves de la superficie.

VECTORIAL.
1.10. INTEGRACION

1.10.3.

39

Integrales de volumen.

Las integrales de volumen son algo muy simple, porque el elemento de volumen dv es una
cantidad escalar15 . Tenemos
Z
Z
Z
Z
~
V dv = x
Vx dv + y Vy dv + z Vz dv ,
(1.111)
V

de nuevo reduciendo la integral vectorial a una suma vectorial de integrales escalares.

1.10.4.

Definiciones integrales de gradiente, divergencia y rotor.

Una interesante y significativa aplicacion de nuestras integrales de volumen y de superficie


es su uso en el desarrollo de definiciones alternativas de nuestras relaciones diferenciales.
Encontramos
R
~ = R lm R d~a ,

(1.112)
dv
dv0
R
V~ d~a
~ V~ = R lm
R

,
(1.113)
dv
dv0
R
d~a V~
~
~
R
V = R lm
.
(1.114)
dv
dv0
R
En estas tres ecuaciones dv es el volumen de una peque
na region del espacio y da es el
elemento de area vectorial de ese volumen. La identificacion de la ecuacion (1.113) como la
divergencia de V~ fue realizada en la seccion 1.7. Aqu mostramos que la ecuacion (1.112) es
~ (ecuacion (1.68)). Por simplicidad escogemos
consistente con nuestra definicion inicial de
dv como la diferencial de volumen dxdydz (figura 1.21). Esta vez colocamos el origen en el
centro geometrico de nuestro elemento de volumen. La integral de area tiende a seis integrales,
una por cada una de las seis caras. Recordando que d~a es hacia afuera, d~ax = | d~a | para
la superficie EF HG, y + | d~a | para la superficie ABCD, tenemos




Z
Z
Z
dx
dx
d~a =
x

dydz + x
+
dydz
x 2
x 2
EF GH
ABDC




Z
Z
dy
dy
y

dxdz + +
y

dxdz
y 2
y 2
AEGC
BF HD




Z
Z
dz
dz
dxdy + z

dxdy .
z

z 2
z 2
CDHG
ABF E
Usando los dos primeros terminos de la expansion de Maclaurin, evaluamos cada integrando
en el origen con una correccion incluida para corregir por el desplazamiento (dx/2, etc.)
del centro de
no
R la cara desde el origen. Habiendo escogido el volumen total como el tama
diferencial ( dv = dxdydz), obtenemos


Z

d~a = x
+ y
+ z
dxdydz .
(1.115)
x
y
z
15

Frecuentemente se denota d3 r o d3 x al elemento de volumen.


CAPITULO 1. ANALISIS
VECTORIAL.

40

z
G

H
D

A
x

Figura 1.21: Paraleleppedo rectangular diferencial con el origen en el centro.

Dividiendo por
Z
dv = dxdydz ,
verificamos la ecuacion (1.112).
Esta verificacion ha sido sobre simplificada al ignorar otros terminos mas alla de las
primeras derivadas. Estos terminos adicionales, los cuales son introducidos mas adelante
cuando la expansion de Taylor es desarrollada, se anulan en el lmite
Z
dv 0 (dx 0 , dy 0 , dz 0) .
Esto, por supuesto, son las razones especificadas en las ecuaciones (1.112), (1.113) y (1.114),
en las cuales este lmite es tomado.
La verificacion de la ecuacion (1.114) sigue esta misma lnea exactamente, usando un
volumen diferencial dxdydz.

1.11.

Teorema de Gauss.

Aqu derivamos una u


til relacion entre una integral de superficie de un vector y la integral
de volumen de la divergencia de ese vector. Supongamos que el vector V~ y su primera derivada
son continuas en la region de interes. Luego el teorema de Gauss establece que
Z
Z
~
~ V~ dv .

(1.116)
V d~a =
S

En otras palabras, la integral de superficie de un vector sobre una superficie cerrada es igual
a la integral de volumen de la divergencia del vector integrada sobre el volumen encerrado
definido por la superficie.

1.11. TEOREMA DE GAUSS.

41

Figura 1.22: Cancelacion exacta de los d~a sobre las superficies interiores. Sobre la superficie
externa no hay cancelacion.

Imaginemos que el volumen V lo subdividimos en un gran n


umero de peque
nos paraleleppedos (diferenciales). Para cada uno de los paraleleppedos
X

~ V~ dv ,
V~ d~a =

(1.117)

seis superficies

del analisis de la seccion 1.7, la ecuacion (1.76), con ~v reemplazado por V~ . La suma es sobre
las seis caras del paraleleppedo. Sumando sobre todos los paraleleppedos, encontramos que
el termino V~ d~a se cancela para todas las caras internas; solamente las contribuciones de
las superficies externas sobreviven (figura 1.22). Analoga a la definicion de una integral de
Riemann como el lmite de una suma, tomamos el lmite sobre el n
umero de paraleleppedos
tendiendo a infinito ( ) y las dimensiones de cada uno tendiendo a cero ( 0).
X

V~ d~a =

superficies externas

vol
umenes

Z
S

~ V~ dv

V~ d~a =

~ V~ dv

El resultado es la ecuacion (1.116), el teorema de Gauss.


~ V~ como el flujo
A partir de un punto de vista fsico la ecuacion (1.76) ha establecido
neto de fluido por unidad de Rvolumen. Luego la integral de volumen da el flujo neto total.
Pero la integral de superficie V~ d~a es solo otra manera de expresar esta misma cantidad,
igualando ambas obtenemos el teorema de Gauss.


CAPITULO 1. ANALISIS
VECTORIAL.

42

1.11.1.

Teorema de Green.

Un corolario u
til del teorema de Gauss es una relacion conocida como teorema de Green.
Si u y v son dos funciones escalares, tenemos las identidades
~ (uv)
~ = u
~ v
~ + (u)
~ (v)
~ ,

~ (v u)
~ = v
~ u
~ + (v)
~ (u)
~

(1.118)
(1.119)

Sustrayendo la ecuacion (1.119) de la (1.118) e integrando sobre un volumen (suponiendo las


derivadas de u y v continuas), y aplicando la ecuacion (1.116) (teorema de Gauss), obtenemos
Z
Z
~
~
~
~
~ v u)
~ d~a .
(u v v u) dv = (uv
(1.120)
V

Este es el teorema de Green. Una forma alternativa del teorema de Green derivada de la
ecuacion (1.118) es
Z
Z
Z
~
~
~
~ v
~ dv .
u
(1.121)
uv d~a =
u v dv +
S

Esta es otra forma del teorema de Green.

1.11.2.

Forma alternativa del Teorema de Gauss.

Aunque la ecuacion (1.116) involucra la divergencia, es con mucho la forma mas usada
del teorema de Gauss. Las integrales de volumen tambien podran involucrar el gradiente o
el rotor. Suponga
V~ (x, y, z) = V (x, y, z) ~a,
(1.122)
en el cual ~a es un vector con una magnitud constante y de direccion constante pero arbitraria.
(se puede elegir la direccion, pero una vez que se escoge hay que mantenerla fija). La ecuacion
(1.116) se convierte en
Z
Z
~ ~aV dv

~a V d~a =
V Z
S
(1.123)
~
= ~a
V dv
V

usando la ecuacion (1.78). Esta puede ser reescrita


Z

Z
~
~a
V d~a
V dv = 0 .
S

(1.124)

Ya que | ~a | 6= 0 y su direccion es arbitraria, significa que el coseno del angulo sustentado


entre ambos vectores no siempre se anula, lo cual implica que el termino en parentesis debe
ser nulo. El resultado es
Z
Z
~ dv .
V d~a =
V
(1.125)
S

1.12. EL TEOREMA DE STOKES.

43

En una manera similar, usando V~ = ~a P~ en el cual ~a es un vector constante, podemos


mostrar
Z
Z
~
~ P dv .
d~a P =

(1.126)
S

Estas dos u
ltimas formas del teorema de Gauss son usadas en la forma vectorial de la teora
de difraccion de Kirchoff. Tambien pueden ser usadas para verificar las ecuaciones (1.112) y
(1.114).

1.12.

El Teorema de Stokes.

El teorema de Gauss relaciona la integral de volumen de una derivada con una integral de
una funcion sobre la superficie cerrada que rodea el volumen. Aqu consideramos una relacion
analoga entre la integral de superficie de una derivada de una funcion y la integral de lnea
de la funcion, el camino de integracion es el permetro que rodea la superficie. Tomemos la
superficie y la dividimos en una red de rectangulos arbitrariamente peque
nos. En la seccion
1.8 mostramos que la circulacion alrededor de tales rectangulos diferenciales (en el plano xy)
~ V~ |2 dxdy. De la ecuacion (1.87) aplicada a un rectangulo diferencial
es
X
~ V~ d~a .
V~ d~v =
(1.127)
Sumamos sobre todos los peque
nos rectangulos como en la definicion de una integral de
Riemann. Las contribuciones superficiales (lado derecho de la ecuacion (1.127)) son sumadas
juntas. Las integrales de lnea (lado izquierdo de la ecuacion (1.127)) sobre todos los segmentos
internos se cancelan. Solamente la integral de lnea alrededor del permetro sobrevive (figura
1.23). Tomando el lmite usual con el n
umero de rectangulos tendiendo a infinito mientras
dx 0, dy 0, tenemos
X
X
~ V~ d~a
V~ d~s =

segmentos externos

rect
angulos

V~ d~s =

(1.128)

~ V~ d~a .

Este es el teorema de Stokes. La integral de superficie de la derecha es sobre la superficie


encerrada por el permetro o contorno de la integral de lnea de la izquierda. La direccion
del vector que representa el area es hacia afuera del plano del papel si la direccion en que
se recorre el contorno para la integral de lnea es en el sentido matematico positivo como se
muestra en la figura 1.23.
Esta demostracion del teorema de Stokes esta limitada por el hecho de que usamos una
expansion de Maclaurin de V~ (x, y, z) para establecer la ecuacion (1.87) en la seccion 1.8.
Realmente solo necesitamos pedir que el rotor de V~ (x, y, z) exista y que sea integrable sobre
la superficie.
El teorema de Stokes obviamente se aplica a una superficie abierta. Es posible considerar
una superficie cerrada como un caso lmite de una superficie abierta con la abertura (y por
lo tanto el permetro) contrada a cero.


CAPITULO 1. ANALISIS
VECTORIAL.

44

ds

Figura 1.23: Cancelacion exacta de los caminos interiores. Sobre el permetro externo no hay
cancelacion.

1.12.1.

Forma alternativa del Teorema de Stokes.

Como con el teorema de Gauss, otras relaciones entre superficies e integrales de lnea son
posibles. Encontramos
Z
I
~
d~a = d~s
(1.129)
S

y
Z

~ P~ =
(d~a )

d~s P~ .

(1.130)

La ecuacion (1.129) puede ser verificada rapidamente sustituyendo V~ = ~a en la cual ~a es un


vector de magnitud constante y de direccion arbitraria, como en la seccion 1.11. Sustituyendo
dentro del teorema de Stokes, la ecuacion (1.128)
Z

~ ~a) d~a =
(

~ d~a
~a
SZ
~ d~a .
= ~a

(1.131)

Para la integral de lnea


I

I
~a d~s = ~a

d~s ,

(1.132)

obtenemos
I
~a

Z
~a d~s +


~
d~a = 0 .

(1.133)

Ya que la eleccion de la direccion de ~a es arbitraria, la expresion entre parentesis debe anularse,


esto verifica la ecuacion (1.129). La ecuacion (1.130) puede ser derivada similarmente usando
V~ = ~a P~ , en el cual ~a nuevamente es un vector constante.
Ambos teoremas el de Stokes y de Gauss son de tremenda importancia en una variedad
de problemas que involucran calculo vectorial.

1.13. TEORIA POTENCIAL.

45

1.13.

Teora potencial.

1.13.1.

Potencial escalar.

Si una fuerza sobre una region dada del espacio S puede ser expresada como el gradiente
negativo de una funcion escalar ,
~ ,
F~ =
(1.134)
llamamos a un potencial escalar el cual describe la fuerza por una funcion en vez de tres.
Un potencial escalar esta determinado salvo una constante aditiva la cual puede ser usada
para ajustar su origen. La fuerza F~ presentada como el gradiente negativo de un potencial
escalar, mono valuado, es etiquetada como una fuerza conservativa. Deseamos saber cuando
existe una funcion de potencial escalar. Para contestar esta pregunta establezcamos otras dos
relaciones equivalentes a la ecuacion (1.134). Estas son
~ F~ = 0

(1.135)

y
I

F~ d~s = 0 ,

(1.136)

para todo camino cerrado en nuestra region S. Procedemos a mostrar que cada una de esas
ecuaciones implica las otras dos.
Comencemos con
~ .
F~ =
(1.137)
Entonces
~ F~ =
~
~ =0

(1.138)

por las ecuaciones (1.94) o (1.18) implica la ecuacion (1.135). Volviendo a la integral de lnea,
tenemos
I
I
I
~ d~s = d ,
F~ d~s =
(1.139)
usando la ecuacion (1.71). Al integrar d nos da . Ya que hemos especificado un loop cerrado,
los puntos extremos coinciden y obtenemos cero para cada camino cerrado en nuestra region
S, por lo cual la ecuacion (1.134) se mantiene. Es importante notar aqu la restriccion de que
el potencial sea univaluado y que la ecuacion (1.134) se mantenga para todos los puntos sobre
S. Este problema puede presentarse al usar un potencial escalar magnetico, un procedimiento
perfectamente valido mientras el camino no rodee corriente neta. Tan pronto como escojamos
un camino que rodee una corriente neta, el potencial magnetico escalar cesa de ser mono
valuado y nuestro analisis no tiene mayor aplicacion.
Continuando
H esta demostracion de equivalencia, supongamos que la ecuacion (1.136) se
mantiene. Si F~ d~s = 0 para todos los caminos en S, vemos que el valor de la integral
cerrada para dos puntos distintos A y B es independiente del camino (figura 1.24). Nuestra
premisa es que
I
F~ d~s = 0 .

ACBDA

(1.140)


CAPITULO 1. ANALISIS
VECTORIAL.

46

B
D

Figura 1.24: Posible camino para hacer el trabajo.

Por lo tanto

Z
ACB

F~ d~s =

F~ d~s =

BDA

F~ d~s ,

(1.141)

ADB

cambiando el signo al revertir la direccion de integracion. Fsicamente, esto significa que el


trabajo hecho al ir de A a B es independiente del camino y que el trabajo hecho sobre un
camino cerrado es cero. Esta es la razon para etiquetar como una fuerza conservativa: la
energa es conservada.
Con el resultado mostrado en la ecuacion (1.141), tenemos que el trabajo hecho depende
solamente de los puntos extremos, A y B. Esto es,
Z B
trabajo hecho por la fuerza =
F~ d~s = (A) (B) .
(1.142)
A

La ecuacion (1.142) define un potencial escalar (estrictamente hablando, la diferencia de


potencial entre los puntos A y B) y provee una manera de calcular el potencial. Si el punto
B es tomado como una variable, digamos, (x, y, z), luego la diferenciacion con respecto a x, y
y z cubrira la ecuacion (1.134). La eleccion del signo de la parte derecha de esa ecuacion es
arbitraria. La hacemos para obtener concordancia con la ecuacion (1.134) y asegurar que el
agua correra ro abajo en vez que lo haga ro arriba. Para los puntos A y B separados por
una longitud d~s, la ecuacion (1.142) se convierte
F~ d~s = d
~ d~s .
=

(1.143)

~
(F~ + )
d~s = 0 ,

(1.144)

Esto puede ser reescrito


y ya que d~s es arbitrario se concluye la ecuacion (1.134).
Si
I
F~ d~s = 0 ,

(1.145)

podemos obtener la ecuacion (1.135) usando el teorema de Stokes (ecuacion (1.132)).


I
Z
~
~ F~ d~a .
F d~s =
(1.146)

1.13. TEORIA POTENCIAL.

47

Si tomamos el camino de integracion como el permetro de una diferencial de area da arbitrario, el integrando en la integral de superficie debe ser nula. De ah que la ecuacion (1.136)
implica la ecuacion (1.135).
~ F~ = 0, necesitamos solamente revertir nuestra afirmacion del teorema
Finalmente, si
de Stokes (ecuacion (1.146)) para derivar la ecuacion (1.136). Luego, por las ecuaciones (1.142~ esta derivada. La triple equivalencia esta demostrada
1.144) la afirmacion inicial F~ =
en la figura 1.25.


F =


F=0

.
F d s =0

Figura 1.25: Formulaciones equivalentes para una fuerza conservativa.


Para resumir, una funcion potencial escalar univaluada existe si y solo si F~ es irrotacional o el trabajo hecho en torno a loops cerrados es cero. Los campos de fuerza gravitacional y
electroestaticos dados por la ecuacion (1.91) son irrotacionales y por lo tanto, conservativos.
Un potencial escalar gravitacional y electroestatico existen.

1.13.2.

Termodin
amica, diferenciales exactas.

En termodinamica encontramos ecuaciones de la forma


df = P (x, y)dx + Q(x, y)dy .
(1.147)
R
El problema usual es determinar si (P (x, y)dx+Q(x, y)dy) depende solamente de los puntos
extremos, esto es, si df es realmente una diferencial exacta. La condicion necesaria y suficiente
es que
f
f
df =
dx +
dy
(1.148)
x
y
o que
f
,
x
f
Q(x, y) =
.
y
P (x, y) =

(1.149)

Las ecuaciones (1.149) dependen de que la relacion


P (x, y)
Q(x, y)
=
y
x

(1.150)


CAPITULO 1. ANALISIS
VECTORIAL.

48

se satisfaga. Esto, sin embargo, es exactamente analogo a la ecuacion (1.135), con el requerimiento de que F~ sea irrotacional. Por cierto, la componente z de la ecuacion (1.135)
es
Fy
Fx
=
,
(1.151)
y
x
con
f
f
Fx =
, Fy =
.
x
y

1.13.3.

Potencial vectorial.

En algunas ramas de la Fsica, especialmente en la teora electromagnetica, es conveniente


~ tal que un (fuerza) campo B
~ esta dado por
introducir un potencial vectorial A,
~ =
~.
~ A
B

(1.152)

~ = 0 por la ecuacion (1.96) y B


~ es
~ B
Claramente, si la ecuacion (1.152) se mantiene,
~ es solenoidal un
solenoidal. Aqu queremos desarrollar el converso, mostrar que cuando B
~ existe. Demostramos la existencia de A
~ calculandolo. Suponga que
potencial vectorial A
~
~
B = xb1 + yb2 + zb3 y nuestra incognita A = xa1 + ya2 + za3 . Por la ecuacion (1.152)
a3 a2

= b1 ,
y
z
a1 a3

= b2 ,
z
x
a2 a1

= b3 .
x
y

(1.153)
(1.154)
(1.155)

~ es paralelo al plano yz; esto


Supongamos que las coordenadas han sido escogidas tal que A
16
es, a1 = 0 . Entonces
a3
x
a2
b3 =
.
x
b2 =

(1.156)

Integrando, obtenemos
Z

a2 =

b3 dx + f2 (y, z) ,
Zx0x

a3 =

(1.157)
b2 dx + f3 (y, z) ,

x0

donde f2 y f3 son funciones arbitrarias de y y z pero no son funciones de x. Estas dos ecuaciones pueden ser comprobadas diferenciando y recobrando la ecuacion (1.156). La ecuacion
16

Claramente esto puede hacerse en cualquier punto, y su justificacion final sera que obtendremos un
potencial con dos componentes que satisfaga la ecuacion 1.152.

DE POISSON.
1.14. LEY DE GAUSS Y ECUACION

49

(1.153) se convierte en

Z x
b2 b3
a3 a2
f3 f2

=
+
dx +

y
z
y
z
y
z
x0
Z x
b1
f3 f2
=
dx +

,
y
z
x0 x

(1.158)

~ = 0. Integrando con respecto a x, tenemos


~ B
usando
a3 a2
f3 f2

= b1 (x, y, z) b1 (x0 , y, z) +

.
y
z
y
z

(1.159)

Recordando que f3 y f2 son funciones arbitrarias de y y z, escogemos


f2 = 0 ,
Z y
f3 =
b1 (x0 , y, z)dy ,

(1.160)

y0

tal que el lado derecho de la ecuacion (1.159) se reduce a b1 (x, y, z) en acuerdo con la ecuacion
~
(1.153). Con f2 y f3 dado por la ecuacion (1.160), podemos construir A.
Z y

Z x
Z x
~
A = y
b3 (x, y, z)dx + z
b1 (x0 , y, z)dy
b2 (x, y, z)dx .
(1.161)
x0

y0

x0

~ es una derivada de
Esto no es muy completo. Podemos a
nadir una constante, ya que B
~
~ sin
A. Y mucho mas importante, podemos a
nadir un gradiente de una funcion escalar
~ Finalmente, las funciones f2 y f3 no son u
afectar a B.
nicas. Otras elecciones podran haber
sido hechas. En vez de ajustar a1 = 0 para obtener las ecuaciones (1.153)-(1.155) cualquier
permutacion cclica de 1, 2, 3, x, y, z, x0 , y0 , z0 tambien podra funcionar.
~ no afecta
Agregar un gradiente de una funcion escalar, digamos , al vector potencial A
~
a B, por la ecuacion (1.94), esta transformacion es conocida como transformacion de gauge.
~A
~0 = A
~ +
~ .
A

1.14.

(1.162)

Ley de Gauss y ecuaci


on de Poisson.

Consideremos una carga electrica puntual q en el origen de nuestro sistema de coordena~ dado por
das. Esta produce un campo electrico E
~ = q r ,
E
r2

(cgs).

(1.163)

Ahora derivemos la ley de Gauss, la cual establece que la integral de superficie en la figura
1.26 es 4q si la superficie S incluye el origen (donde q esta localizada) y cero si la superficie no
incluye el origen. La superficie S es cualquier superficie cerrada; no necesariamente esferica.
Usando el teorema de Gauss, la ecuacion (1.116), obtenemos
Z
Z
q r d~a
~ r dv ,
=q
(1.164)
2
r
r2
S
v


CAPITULO 1. ANALISIS
VECTORIAL.

50

E. d a =0

a = 4 q
E. d

S
q

Figura 1.26: Ley de Gauss.

^r 0

Figura 1.27: Exclusion del origen.

siempre que la superficie S no incluya el origen, donde el integrando no esta bien definido.
Esto prueba la segunda parte de la ley de Gauss.
La primera parte, en la cual la superficie S debera incluir el origen, puede ser tomada por
los alrededores del origen con una peque
na esfera S 0 de radio (figura 1.27). De esa manera
no habra duda de que si esta afuera o si esta adentro, imaginemos que el volumen externo a
la superficie mas externa y el volumen del lado interno de la superficie S 0 (r > ) se conectan
por un peque
no espacio. Estas superficies unidas S y S 0 , las combinamos en una superficie
cerrada. Ya que el radio del espacio interior puede hacerse infinitamente peque
no, all no hay
contribucion adicional de la integral de superficie. La superficie interna esta deliberadamente
escogida para que sea esferica tal que seamos capaces de integrar sobre ella. El teorema de

DE POISSON.
1.14. LEY DE GAUSS Y ECUACION
Gauss ahora se aplica sobre el volumen S y S 0 sin ninguna dificultad. Tenemos
Z
Z
q r d~a
q r da~0
+
=0,
r2
2
S
S0

51

(1.165)

Podemos evaluar la segunda integral, para d~a0 =


r 2 d, donde d es el diferencial de angulo
solido. El signo menos aparece porque concordamos en la seccion 1.10 para tener la normal
positiva r0 fuera del volumen. En este caso r0 externo esta en la direccion radial, r0 =
r.
Integrando sobre todos los angulos, tenemos
Z
Z
q r da~0
q r r 2 d
=
= 4q ,
(1.166)
2
2
S0
S0
independiente del radio . Luego tenemos
Z
~ d~ = 4q ,
E

(1.167)

completando la prueba de la ley de Gauss. Note cuidadosamente que aunque la superficie S


puede ser esferica, no necesariamente es esferica.
Avanzando un poco mas, consideremos una carga distribuida tal que
Z
q=
dv .
(1.168)
V

La ecuacion (1.167) todava se aplica, con q interpretada como la distribucion de carga total
encerrada por la superficie S.
Z
Z
~ d~a = 4
E
dv .
(1.169)
s

Usando el teorema de Gauss, tenemos


Z
Z
~ =
~ Edv

4 dv .
V

(1.170)

Ya que nuestro volumen es completamente arbitrario, los integrandos deben ser iguales o
~ = 4 ,
~ E

(1.171)

una de las ecuaciones de Maxwell. Si revertimos el argumento, la ley de Gauss se deduce


inmediatamente a partir de la ecuacion de Maxwell.

1.14.1.

Ecuaci
on de Poisson.

~ por ,
~
Reemplazando E
la ecuacion (1.171) se convierte en
~
~ = 2 = 4 ,

(1.172)

la cual es la ecuacion de Poisson. Para la condicion = 0 esta se reduce a la famosa ecuacion,


2 = 0 ,

(1.173)


CAPITULO 1. ANALISIS
VECTORIAL.

52

de Laplace. Encontramos frecuentemente la ecuacion de Laplace en distintos sistemas de


coordenadas y las funciones especiales de la Fsica Matematica apareceran como sus soluciones. La ecuacion de Poisson sera de gran valor en el desarrollo de la teora de las funciones
de Green.
A partir de la directa comparacion de la fuerza electroestatica de Coulomb y la ley de
Newton de la gravitacion universal
q1 q2
F~E = 2 r ,
r

m1 m2
F~G = G 2 r .
r

Todas las teoras de potencial de esta seccion se aplican igualmente bien a los potenciales
gravitacionales. Por ejemplo, la ecuacion gravitacional de Poisson es
2 = +4G

(1.174)

con ahora una densidad de masa.

1.15.

La delta de Dirac.

Del desarrollo de la ley de Gauss en la seccion 1.14


Z

(
 
 
Z
4
r

1
~
~
~
dv =
dv
=

r
r2
0

(1.175)

dependiendo de si la integracion incluye el origen ~r = 0 o no. Este resultado puede ser


convenientemente expresado introduciendo la delta de Dirac,
 
1
2
= 4(r) = 4(x)(y)(z) .
(1.176)

r
Esta funcion delta de Dirac esta definida por sus propiedades
(x) = 0 ,

x 6= 0

(1.177)

Z
f (x)(x)dx = f (0) ,

(1.178)

donde f (x) es cualquiera funcion bien comportada y la integracion incluye el origen. Un caso
especial de la ecuacion (1.178),
Z
(x)dx = 1 .

(1.179)

De la ecuacion (1.178), (x) debe ser un pico infinitamente alto y delgado en x = 0, como
en la descripcion de un impulso de fuerza o la densidad de carga para una carga puntual. El
problema es que tales funciones no existen en el sentido usual de una funcion. Sin embargo
la propiedad crucial en la ecuacion (1.178) puede ser desarrollada rigurosamente como el
lmite de una sucesion de funciones, una distribucion. Por ejemplo, la funcion delta puede

1.15. LA DELTA DE DIRAC.

53

3/2

f3

f2

1/2
-1

-1/2 -1/3

f1
1/3 1/2

Figura 1.28: Sucesion a la delta.

ser aproximada por la sucesion de funciones,


1.30 :

0 ,
n (x) = n/2 ,

0,

ecuaciones (1.180) a (1.182) y las figuras 1.28 a

si x < 1/n
si 1/n < x < 1/n
si x > 1/n
n
2 2
n (x) = en x

Z n
1
sen(nx)
=
eixt dt .
n (x) =
x
2 n

(1.180)

(1.181)
(1.182)

Estas aproximaciones tienen grados de utilidad variable. La ecuacion (1.180) es u


til en
dar una derivacion simple de la propiedad integral, la ecuacion (1.178). La ecuacion (1.181) es
conveniente para diferenciar. Sus derivadas tienden a los polinomios de Hermite. La ecuacion
(1.182) es particularmente u
til en el analisis de Fourier y en sus aplicaciones a la mecanica
cuantica. En la teora de las series de Fourier, la ecuacion (1.182) a menudo aparece (modificada) como el kernel de Dirichlet:


1 sen (n + 12 )x
n (x) =
.
(1.183)
1
2
x
2
Usando esta aproximacion en la ecuacion (1.178) y despues, suponemos que f (x) es bien
comportada no ofrece problemas para x grandes. Para muchos propositos fsicos tales aproximaciones son muy adecuadas. Desde un punto de vista matematico la situacion todava es
insatisfactoria: los lmites
lm n (x)
n


CAPITULO 1. ANALISIS
VECTORIAL.

54

f3

f2
f1
t
Figura 1.29: Sucesion a la delta.

f3
f2
f1
t
Figura 1.30: Sucesion a la delta.

no existen.
Una salida para esta dificultad esta dada por la teora de las distribuciones. Reconociendo
que la ecuacion (1.178) es la propiedad fundamental, enfocaremos nuestra atencion sobre algo
mas que (x). Las ecuaciones (1.180)-(1.182) con n = 1, 2, 3, . . . pueden ser interpretadas como
una sucesion de funciones normalizadas:
Z

n (x) dx = 1 .

(1.184)

1.15. LA DELTA DE DIRAC.

55

La sucesion de integrales tiene el lmite


Z
lm
n (x)f (x) dx = f (0) .
n

(1.185)

Note que la ecuacion (1.185) es el lmite de una sucesion de integrales. Nuevamente , el lmite
n (x) , n , no existe. (El lmite para todas las formas de n diverge en x = 0.)
Podemos tratar (x) consistentemente en la forma
Z
Z
(x)f (x) dx = lm
n (x)f (x) dx .
(1.186)

(x) es etiquetado como una distribucion (no una funcion) definida por la sucesion n (x)
como esta indicado en la ecuacion (1.186). Podramos enfatizar que la integral sobre el lado
izquierdo de la ecuacion (1.186) no es una integral de Riemann. Es un lmite.
Esta distribucion (x) es solamente una de una infinidad de posibles distribuciones, pero
es la u
nica en que estamos interesados en la ecuacion (1.178). A partir de estas sucesion
de funciones vemos que la funcion delta de Dirac debe ser par en x, (x) = (x). La
propiedad integral, la ecuacion (1.178), es u
til en casos donde el argumento de la funcion
delta es una funcion g(x) con ceros simples sobre el eje real, el cual tiende a las reglas
1
(ax) = (x) ,
a
X
(g(x)) =

a>0,

a,g(a)=0,g 0 (a)6=0

(x a)
.
| g 0 (a) |

(1.187)
(1.188)

Para obtener la ecuacion (1.187) cambiamos la variable de integracion en


Z
Z
1
1
(ax)f (x) dx =
(y)f (y/a) dy = f (0) .
a
a

y aplicamos la ecuacion (1.178). Para probar la ecuacion (1.188) descomponemos la integral


Z
X Z a+
(g(x))f (x) dx =
f (x)(x a)g 0 (a) dx
(1.189)

a

en una suma de integrales sobre peque


nos intervalos que contiene los ceros de g(x). En esos
0
intervalos, g(x) g(a) + (x a)g (a) = (x a)g 0 (a). Usando la ecuacion (1.187) sobre el lado
derecho de la ecuacion (1.189) obtenemos la integral de la ecuacion (1.188).
Usando integracion por partes tambien podemos definir la derivada 0 (x) de la delta de
Dirac por la relacion
Z
Z
0
(x x0 )f (x) dx =
f 0 (x)(x x0 ) dx = f 0 (x0 ) .
(1.190)

Usamos (x) frecuentemente y la llamamos la delta de Dirac17 por razones historicas. Recuerde que no es realmente una funcion. Es esencialmente una notacion mas taquigrafica,
17

Dirac introdujo la delta para Mec


anica Cuantica.


CAPITULO 1. ANALISIS
VECTORIAL.

56

definida implcitamente como el lmite de integrales en una sucesion, n (x), de acuerdo a la


ecuacion (1.186). Podra entenderse que nuestra delta de Dirac es a menudo mirada como un
operador. Un operador lineal: (x x0 ) opera sobre f (x) y tiende a f (x0 ).
Z
L(x0 )f (x)
f (x)(x x0 ) dx = f (x0 ) .
(1.191)

Tambien podra ser clasificada como un mapeo lineal o simplemente como una funcion generalizada. Desplazando nuestra singularidad al punto x = x0 , escribimos la delta de Dirac
como (x x0 ). La ecuacion (1.178) se convierte en
Z
f (x)(x x0 ) dx = f (x0 )
(1.192)

Como una descripcion de una singularidad en x = x0 , la delta de Dirac puede ser escrita
como (x x0 ) o como (x0 x). En tres dimensiones y usando coordenadas polares esfericas,
obtenemos
Z 2 Z Z
Z Z Z
2
(~r) r dr sen d d =
(x)(y)(z) dx dy dz = 1 .
(1.193)
0

Esto corresponde a una singularidad (o fuente) en el origen. De nuevo, si la fuente esta en


~r = ~r1 , la ecuacion (1.193) se convierte en
Z 2 Z Z
(~r2 ~r1 ) r22 dr2 sen 2 d2 d2 = 1 .
(1.194)
0

1.15.1.

Representaci
on de la delta por funciones ortogonales.

La funcion delta de Dirac puede ser expandida en terminos de alguna base de funciones
ortogonales reales n (x) con n = 0, 1, 2, . . .. Tales funciones apareceran mas adelante como
soluciones de ecuaciones diferenciales ordinarias de la forma Sturm-Liouville. Ellas satisfacen
las relaciones de ortogonalidad
Z b
m (x)n (x) dx = mn ,
(1.195)
a

donde el intervalo (a, b) puede ser infinito en uno de los lados o en ambos. [Por conveniencia
suponemos que n (x) ha sido definida para incluir (w(x))1/2 si las relaciones de ortogonalidad
contienen una funcion de peso positivo adicional w(x)]. Usamos n (x) para expandir la delta
como

X
(x t) =
an (t)n (x) ,
(1.196)
n=1

donde los coeficientes an son funciones de la variable t. Multiplicando por m (x) e integrando
sobre el intervalo ortogonal (ecuacion (1.195)), tenemos
Z b
(x t)m (x) dx = m (t)
(1.197)
am (t) =
a

1.15. LA DELTA DE DIRAC.

57

o
(x t) =

m (t)m (x) = (t x) .

(1.198)

m=1

Esta serie ciertamente no es uniformemente convergente, pero puede ser usada como parte
de un integrando en el cual la integraci
R on resultante la hara convergente.
Suponga que forma la integral F (t)(t x)dx, donde se supone que F (t) puede ser
expandida en una serie de funciones ortogonales p (t), una propiedad llamada completitud.
Luego obtenemos
Z
Z X

X
F (t)(t x)dt =
ap p (t)
n (x)n (t) dt
=

p=0

n=0

(1.199)

ap p (x) = F (x) ,

p=0

R
los productos cruzado p n dt con (n 6= p) se anulan por ortogonalidad (ecuacion (1.195)).
Refiriendonos a la anterior definicion de la funcion delta de Dirac, ecuacion (1.178), vemos
que nuestra representacion en serie, ecuacion (1.198), satisface la propiedad de definicion de
la delta de Dirac que es llamada clausura. La suposicion de completitud de un conjunto de
funciones para la expansion de (x t) produce la relacion de clausura. Lo converso, que
clausura implica completitud.

1.15.2.

Representaci
on integral para la delta.

Las transformaciones integrales, tal como la integral de Fourier


Z
F () =
f (t) exp(it) dt

conducen a representaciones integrales de la delta de Dirac. Por ejemplo,


Z n
1
sen n(t x)
n (t x) =
=
exp(i(t x)) d ,
(t x)
2 n

(1.200)

usando la ecuacion (1.182). Tenemos


Z

f (t)n (t x) dt ,

f (x) = lm

(1.201)

donde n (t x) es la sucesion en la ecuacion (1.200) definiendo la distribucion (t x). Note


que la ecuacion (1.201) supone que f (t) es continua en t = x. Si sustituimos la ecuacion
(1.200) en la ecuacion (1.201) obtenemos
Z
Z n
1
f (t) dt
exp(i(t x)) d .
(1.202)
f (x) = lm
n 2
n
Intercambiando el orden de integracion y luego tomando el lmite n , tenemos el teorema
de integral de Fourier.


CAPITULO 1. ANALISIS
VECTORIAL.

58

Con el entendimiento de que pertenece bajo el signo de la integral como en la ecuacion


(1.201), la identificacion
Z
1
exp(i(t x)) d
(1.203)
(t x) =
2
proporciona una muy u
til representacion integral de la delta.
Cuando la transformada de Laplace
Z
L (s) =
exp(st)(t t0 ) dt = exp(st0 ) ,

t0 > 0

(1.204)

es invertida, obtenemos la representacion compleja


Z +i
1
(t t0 ) =
exp(s(t t0 )) ds ,
2i i

(1.205)

la cual es esencialmente equivalente a la representacion previa de Fourier de la delta de Dirac.

1.16.

Teorema de Helmholtz.

~
En la seccion 1.13 enfatizamos que la eleccion de un potencial vectorial magnetico A
~
no era u
nico. La divergencia de A estaba a
un indeterminada. En esta seccion dos teoremas
acerca de la divergencia y el rotor de un vector son desarrollados. El primer teorema es el
siguiente:
Un vector esta u
nicamente especificado dando su divergencia y su rotor dentro de una
regi
on y su componente normal sobre el contorno.
Tomemos
~ V~1 = s ,

~ V~1 = ~c ,

(1.206)

donde s puede ser interpretado como una fuente (densidad de carga) y ~c como una circulacion
(densidad de corriente). Suponiendo tambien que la componente normal V1n sobre el lmite
esta dada, deseamos mostrar que V~1 es u
nico. Hacemos esto suponiendo la existencia de un
~
segundo vector V2 , el cual satisface la ecuacion (1.206) y tiene la misma componente normal
sobre el borde, y luego mostrando que V~1 V~2 = 0. Sea
~ = V~1 V~2 .
W
Luego
~ =0
~ W

(1.207)

~ =0.
~ W

(1.208)

y
~ es irrotacional podemos escribir (por la seccion 1.13)
Ya que W
~ =
~ .
W

(1.209)

1.16. TEOREMA DE HELMHOLTZ.

59

Sustituyendo esto en la ecuacion (1.207), obtenemos


~
~ = 0,

(1.210)

la ecuacion de la Laplace.
Ahora hagamos uso del teorema de Green en la forma dada en la ecuacion (1.121, siendo
u y v cada uno igual a . Ya que
Wn = V1n V2n = 0
sobre el borde, el teorema de Green se reduce a
Z
Z
~ W
~ dv = 0 .
~
~
() () dv =
W
V

(1.211)

(1.212)

~ W
~ = W 2 es no negativa y por eso tenemos
La cantidad W
~ = V~1 V~2 = 0 ,
W

(1.213)

en todo lugar. Por lo tanto V~1 es u


nico, probando el teorema.
~ la relacion B
~ =
~ especifica el rotor de
~ A
Para nuestro potencial vectorial magnetico A
~ A menudo por conveniencia ajustamos
~ = 0. Luego (con las condiciones de borde)
~ A
A.
~ esta fijo.
A
Este teorema puede ser escrito como un teorema de unicidad para las soluciones de ecuaciones de Laplace. En esta forma, este teorema de unicidad es de gran importancia en la
solucion de los problemas de contorno de electroestatica y otras de ecuaciones tipo Laplace
con condiciones de borde. Si podemos encontrar una solucion de las ecuacion de Laplace que
satisfaga las condiciones de borde necesarias, nuestra solucion es la solucion completa.

1.16.1.

Teorema de Helmholtz.

El segundo teorema que probaremos es el teorema de Helmholtz.


Un vector V~ que satisface la ecuaci
on (1.206) con ambas densidades de fuente y circulacion
que se anulan en infinito puede ser escrito como la suma de dos partes, una de la cuales es
irrotacional y la otra es solenoidal.
El teorema de Helmholtz claramente sera satisfecho si podemos escribir V~ como
~,
~ +
~ A
V~ =

(1.214)

~ solenoidal. Procederemos a justificar la ecuacion (1.214).


~ irrotacional y
~ A

Sea V~ un vector conocido. Le tomamos la divergencia y el rotor


~ V~ = s(~r)

~ V~ = ~c(~r) .

(1.215)
(1.216)

con s(~r) y ~c(~r) funciones conocidas de la posicion. A partir de estas dos funciones construimos
un potencial escalar (~r1 ),
Z
1
s(~r2 )
dv2 ,
(1.217)
(~r1 ) =
4
r12


CAPITULO 1. ANALISIS
VECTORIAL.

60
~ r1 ),
y un potencial vector A(~
~ r1 ) = 1
A(~
4

~c(~r2 )
dv2 .
r12

(1.218)

Si s = 0, luego V~ es solenoidal y la ecuacion (1.217) implica = 0. De la ecuacion (1.214),


~ con A
~ como en la ecuacion (1.161) es consistente con la seccion 1.13. Ademas,
~ A
V~ =
~ = 0, y la ecuacion (1.214)
si ~c = 0, luego V~ es irrotacional y la ecuacion (1.218) implica A
~
implica V~ = ,
consistente con la teora de potencial escalar de la seccion 1.13.
Aqu, el argumento ~r1 indica que (x1 , y1 , z1 ), es el campo puntual; ~r2 , las coordenadas de
la fuente puntual (x2 , y2 , z2 ), mientras
r12 = [(x1 x2 )2 + (y1 y2 )2 + (z1 z2 )2 ]1/2 .

(1.219)

Cuando una direccion esta asociada con r12 , la direccion positiva se toma alejandose de la
fuente. Vectorialmente, ~r12 = ~r1 ~r2 , como se muestra en la figura 1.31. Por supuesto, s y ~c
deben anularse suficientemente rapido en distancias grandes tal que existan las integrales. La
expansion actual y la evaluacion de las integrales tales como las ecuaciones (1.217) y (1.218)
estan tratadas mas adelante,

Campo puntual

(x1 ,y1 ,z 1 )

r1

r12

(x2 ,y2 ,z 2 )
Fuente puntual

r2

x
Figura 1.31: Campo y fuente puntual.
A partir del teorema de unicidad en los comienzos de esta seccion, V~ es u
nico al especificar
su divergencia, s, y su rotor, ~c (y su valor sobre el contorno). Volviendo a la ecuacion (1.214),
tenemos
~ V~ =
~
~ ,

(1.220)
la divergencia del rotor se anula y
~,
~ V~ =
~
~ A

(1.221)

el rotor del gradiente se anula. Si podemos mostrar que


~ (~
~ r1 ) = s(~r1 )

(1.222)

1.16. TEOREMA DE HELMHOLTZ.

61

y
~ r1 ) = ~c(~r1 ),
~
~ A(~

(1.223)

luego V~ esta dado en la ecuacion (1.214) tendra la divergencia y el rotor apropiado. Nuestra
descripcion sera internamente consistente y la ecuacion (1.214) estara justificada.
Z
1 ~ ~
s(~r2 )
~
~
~
~
V = =
dv2 .
(1.224)
4
r12
~
~ o 2 , opera sobre las coordenadas de campo (x1 , y1 , z1 ) y por
El operador Laplaciano,
lo tanto conmuta con la integracion con respecto a (x2 , y2 , z2 ). Tenemos
 
Z
1
1
2
~
~
V =
s(~r2 )1
dv2
(1.225)
4
r12
Debemos hacer dos modificaciones menores en la ecuacion (1.175) antes de aplicarla.
Primero, nuestra fuente esta en ~r2 , no esta en el origen. Esto significa que el 4 en la
ley de Gauss aparece si y solo si la superficie incluye el punto ~r = ~r2 . Para mostrar esto,
reescribimos la ecuacion (1.175):
 
1
2
1
= 4(~r1 ~r2 ) .
(1.226)
r12
Este corrimiento de la fuente a ~r2 puede ser incorporado en las ecuaciones de definicion
(1.178) como
(~r1 ~r2 ) = 0 ,
~r1 6= ~r2 ,
(1.227)
Z
f (~r1 )(~r1 ~r2 ) dv1 = f (~r2 ) .
(1.228)
1
Segundo, notando que diferenciando dos veces r12
con respecto a x2 , y2 , z2 es la misma cuando
diferenciamos dos veces con respecto a x1 , y1 , z1 , tenemos
 
 
1
1
2
2
1
= 2
= 4(~r1 ~r2 )
r12
r12
(1.229)
= 4(~r2 ~r1 ) .

Reescribiendo la ecuacion (1.225) y usando la delta de Dirac en la ecuacion (1.229), podemos


integrar para obtener
 
Z
1
1
2
~ V~ =

s(~r2 )1
dv2
4
r12
Z
1
(1.230)
=
s(~r2 )(4)(~r2 ~r1 ) dv2
4
= s(~r1 ) .
El paso final se sigue de la ecuacion (1.228) con los subndices 1 y 2 intercambiados. Nuestros
resultados, ecuacion (1.230), muestran que la forma supuesta de V~ y del potencial escalar
estan en concordancia con la divergencia dada (ecuacion (1.215)). Para completar la prueba


CAPITULO 1. ANALISIS
VECTORIAL.

62

del teorema de Helmholtz, necesitamos mostrar que nuestras suposiciones son consistentes
con la ecuacion (1.216), esto es, que el rotor de V~ es igual a ~c(~r1 ). De la ecuacion (1.214),
~=
~ 2 A
~.
~ V~ =
~
~ A
~
~ A

(1.231)

~ tiende a
~
~ A
El primer termino,
~=
~
~ A
4

Z
~c(~r2 ) 1 1

1
r12


dv

(1.232)

por la ecuacion (1.218). Nuevamente reemplazando la segunda derivada con respecto a


x1 , y1 , z1 por segundas derivadas con respecto a x2 , y2 , z2 , integramos cada una de las componentes de la ecuacion (1.141) por partes:

 
Z

1
~ = ~c(~r2 ) 2
~
~ A
dv2
4

x2 r12
x

 
 
(1.233)
Z
Z

1
= 2 ~c(~r2 )
dv2 [2 ~c(~r2 )]
dv2 .
x2 r12
x2 r12
La segunda integral se anula, ya que la densidad de circulacion ~c es solenoidal. La primera
integral puede ser transformada a una integral de superficie por el teorema de Gauss. Si ~c
esta enlazado en el espacio o se anula mas rapido que 1/r para r grandes, de modo que la
integral en la ecuacion (1.218) existe, luego escogiendo una superficie suficientemente grande,
~=
~
~ A
la primera integral de la mano derecha de la ecuacion (1.233) tambien se anula. Con
0, la ecuacion (1.231) se reduce a
 
Z
1
1
2~
2
~
~
V = A =
~c(~r2 )1
dv2 .
(1.234)
4
r12
Esto es exactamente como la ecuacion (1.225) excepto que el escalar s(~r2 ) es reemplazado por
la densidad de circulacion vectorial ~c(~r2 ). Introduciendo la delta de Dirac, como antes, como
una manera conveniente de llevar a cabo la integracion, definimos que la ecuacion (1.234) se
reduce a la ecuacion (1.206). Vemos que nuestra forma supuesta de V~ , dada por la ecuacion
~ dado por la ecuacion (1.218), estan de acuerdo con la
(1.214), y del potencial vectorial A,
ecuacion (1.206), especficamente con el rotor de V~ .
Esto completa la prueba del teorema de Helmholtz, mostrando que un vector puede ser
resuelto en una parte irrotacional y otra solenoidal. Aplicado al campo electromagnetico,
~ derivado
hemos resuelto nuestro campo vectorial V~ en un campo electrico irrotacional E,
~ derivado de un potencial
de un potencial escalar , y un campo de magnetico solenoidal B,
~
vectorial A. La densidad de fuente s(~r) puede ser interpretada como una densidad de carga
electrica (dividida por la permitividad electrica ), mientras que la densidad de circulacion
~c(~r) se convierte en la densidad de corriente electrica.

Captulo 2
An
alisis vectorial en coordenadas
curvilneas y tensores.
versi
on final 2.2-0210081

Anteriormente nos hemos restringido casi por completo a coordenadas cartesianas. Estas
coordenadas ofrecen la ventaja de que los tres vectores unitarios, x, y, z, son constantes
tanto en direccion como en magnitud. Infortunadamente, no todos los problemas fsicos se
adaptan bien a una solucion en coordenadas cartesianas. Por ejemplo, si tenemos un problema
de fuerzas centrales, F~ = rF (r), tal como una fuerza gravitacional o electroestatica, las
coordenadas cartesianas son particularmente poco apropiadas. Tales problemas llaman a
usar un sistema de coordenadas en el cual la distancia radial es tomada como una de las
coordenadas, es decir, coordenadas polares esfericas.
El sistema de coordenadas debe ser elegido apropiadamente para el problema, explotando
cualquier restriccion o simetra presente en el.
Naturalmente, hay un precio que pagar por usar un sistema no cartesiano de coordenadas. Debemos desarrollar nuevas expresiones para el gradiente, la divergencia, el rotor
y el Laplaciano en estos nuevos sistemas de coordenadas. En este captulo desarrollaremos
tales expresiones de una manera muy general para luego particularizarla a los sistemas de
coordenadas mas usados: coordenadas circulares cilndricas y coordenadas polares esfericas.

2.1.

Coordenadas ortogonales.

En coordenadas cartesianas nosotros tratamos con tres familias de planos mutuamente


perpendiculares: x = constante, y = constante, y z = constante. Imaginemos que imponemos sobre este sistema otras tres familias de superficies. Las superficies de una familia no
necesariamente son paralelas unas con otras y ellas pueden no ser planos. Las tres nuevas
familias de superficies no necesariamente son mutuamente perpendiculares, pero por simplicidad, rapidamente impondremos esta condicion. Podemos describir cualquier punto (x, y, z)
como la interseccion de tres planos en coordenadas cartesianas o como la interseccion de las
tres superficies que forman nuestras nuevas coordenadas curvilneas. Describiendo las superficies de las coordenadas curvilneas por q1 = constante, q2 = constante, q3 = constante,
podemos identificar nuestro punto por (q1 , q2 , q3 ), tanto como por (x, y, z). Esto significa que
1

Este captulo est


a basado en el segundo captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.

63

CAPITULO 2. COORDENADAS CURVILINEAS Y TENSORES

64

en principio podemos escribir


Coordenadas generales curvilneas,
q1 , q2 , q3
x = x(q1 , q2 , q3 )
y = y(q1 , q2 , q3 )
z = z(q1 , q2 , q3 )

Coordenadas circulares cilndricas


, , z
< x = cos <
< y = sen <
< z = z < ,

(2.1)

especificando x,y,z en terminos de los qi y las relaciones inversas,


0 = (x2 + y 2 )1/2 <
0 = arctan(y/x) < 2
z = z < .

q1 = q1 (x, y, z)
q2 = q2 (x, y, z)
q3 = q3 (x, y, z)

(2.2)

Como una ilustracion especfica de los abstractos (q1 , q2 , q3 ) incluimos las ecuaciones de transformacion para las coordenadas circulares cilndricas. Para cada familia de superficies qi =
constante, podemos asociar un vector unitario ei normal a la superficie qi = constante y en
la direccion de crecimiento de qi . Entonces un vector V~ puede ser escrito
V~ = e1 V1 + e2 V2 + e3 V3 .

(2.3)

Los ei estan normalizados por e2i = 1 y forman un sistema de coordenadas diestro con volumen
e1 (
e2 e3 ) > 0.
Diferenciando a x en (2.1) conduce a
dx =

x
x
x
dq1 +
dq2 +
dq3 ,
q1
q2
q3

(2.4)

de la misma manera diferenciando y y z. A partir del teorema de Pitagoras en coordenadas


cartesianas, el cuadrado de la distancia entre dos puntos vecinos es
ds2 = dx2 + dy 2 + dz 2 .

(2.5)

El cuadrado del elemento de distancia en nuestras coordenadas curvilneas puede ser escrito
ds2 =g11 dq12 + g12 dq1 dq2 + g13 dq1 dq3 + g21 dq2 dq1 + g22 dq22
X
g23 dq2 dq3 + g31 dq3 dq1 + g32 dq3 dq2 + g33 dq32 =
gij dqi dqj ,

(2.6)

ij

donde2
gij =

x x
y y
z z
+
+
.
qi qj qi qj qi qj

(2.7)

Estos coeficientes gij pueden verse como especificando la naturaleza del sistema de coordenadas (q1 , q2 , q3 ). Colectivamente estos coeficientes son referidos como la metrica. Mostraremos
mas adelante que forman un tensor simetrico de segundo rango. En Relatividad General los
2

Los dqi son arbitrarios. Por ejemplo, haciendo dq2 = dq3 = 0 aislamos g11 .

2.1. COORDENADAS ORTOGONALES.

65

componentes son determinados por las propiedades de la materia. La Geometra se mezcla


con la Fsica.
En este punto nos limitamos a sistemas de coordenadas ortogonales (i.e. superficies mutuamente perpendiculares)
gij = 0 ,
i 6= j ,
(2.8)
y ei ej = ij . Veremos algo de sistemas no ortogonales en la seccion de analisis tensorial.
Para simplificar la notacion escribimos gii = h2i tal que
ds2 = (h1 dq1 )2 + (h2 dq2 )2 + (h3 dq3 )2 =

(hi dqi )2 .

(2.9)

Los especficos sistemas de coordenadas ortogonales son descritos en las secciones siguientes,
especificando estos factores de escala h1 , h2 y h3 . Por otra parte, los factores de escala pueden
ser identificados por la relacion
dsi = hi dqi ,
(2.10)
para alg
un dqi dado, manteniendo los otros qi constantes. Notemos que las tres coordenadas
curvilneas (q1 , q2 , q3 ) no necesariamente son una longitud. Los factores de escala hi pueden
depender de las qi y pueden tener dimensiones. Los productos hi dqi deben tener dimensiones
de longitud y ser positivos. El vector de desplazamiento diferencial d~s puede ser escrito
X
d~s = h1 dq1 e1 + h2 dq2 e2 + h3 dq3 e3 =
hi dqi ei .
i

Usando las componentes curvilneas, encontramos que la integral de lnea llega a ser
Z
XZ
~
V d~s =
Vi hi dqi .
i

De la ecuacion (2.10) podemos inmediatamente desarrollar los elementos de area y de volumen


daij = dsi dsj = hi hj dqi dqj

(2.11)

dv = ds1 ds2 ds3 = h1 h2 h3 dq1 dq2 dq3 .

(2.12)

y
Estas expresiones coinciden con los resultados obtenidos al usar las transformaciones explcitamente y el Jacobiano.
A partir de la ecuacion (2.11) un elemento de area puede ser expandido:
d~a = ds2 ds3 e1 + ds3 ds1 e2 + ds1 ds2 e3
= h2 h3 dq2 dq3 e1 + h3 h1 dq3 dq1 e2 + h1 h2 dq1 dq2 e3 .
Una integral de superficie llega a ser
Z
Z
Z
Z
~
V d~a = V1 h2 h3 dq2 dq3 + V2 h3 h1 dq3 dq1 + V3 h1 h2 dq1 dq2 .

(2.13)

CAPITULO 2. COORDENADAS CURVILINEAS Y TENSORES

66

Debemos dejar claro que el algebra vectorial es el mismo en coordenadas curvilneas ortogonales que en coordenadas cartesianas. Especficamente, el producto punto
~B
~ = A1 B1 + A2 B2 + A3 B3 ,
A
donde los subndices indican componentes curvilneas. Para el producto cruz


e1 e2 e3


~B
~ = A1 A2 A3
A


B1 B2 B3

2.2.
2.2.1.

(2.14)

(2.15)

Operadores diferenciales vectoriales.


Gradiente.

El punto de partida para desarrollar los operadores diferenciales: gradiente, divergencia


y el rotor en coordenadas curvilneas es nuestra interpretacion del gradiente como un vector
que tiene la magnitud y direccion de la razon maxima de crecimiento. A partir de esta inter~
pretacion las componentes de (q
on normal a la familia de superficies
1 , q2 , q3 ) en la direcci
q1 = constante es dado por

~ =
~ = = ,
e1
1
s1
h1 q1

(2.16)

ya que esta es la razon de cambio de para variaciones de q1 , manteniendo q2 y q3 fijos.


La cantidad ds1 es un diferencial de longitud en la direccion de incremento de q1 . El vector
unitario e1 indica la direccion. Si repetimos este calculo para las otras componentes q2 y q3 y
sumamos vectorialmente obtenemos la expresion del gradiente

~
(q
1
+ e2
+ e3
1 , q2 , q3 ) = e
s1
s2
s3

= e1
+ e2
+ e3
h1 q1
h2 q2
h3 q3
X 1
=
ei
.
h
qi
i
i

2.2.2.

(2.17)

Divergencia.

El operador divergencia puede obtenerse de una de sus definiciones


R
V~ d~a
~ V~ (q1 , q2 , q3 ) = R lm
R

,
dv
dv0

(2.18)

con un volumen diferencial h1 h2 h3 dq1 dq2 dq3 (figura 2.1). Notemos que la direccion positiva
ha sido escogida tal que (q1 , q2 , q3 ) o (
e1 , e2 , e3 ) formen un sistema diestro, e1 e2 = e3 .
La integral de area sobre las dos caras q1 = constante es dada por



V1 h2 h3 +
(V1 h2 h3 )dq1 dq2 dq3 V1 h2 h3 dq2 dq3 =
(V1 h2 h3 )dq1 dq2 dq3 ,
(2.19)
q1
q1

2.2. OPERADORES DIFERENCIALES VECTORIALES.

67

z
ds3= h 3 dq 3
4

3
1

ds2= h 2 dq 2

ds1= h 1 dq 1
y

x
Figura 2.1: Elemento de volumen curvilneo.

considerando las otras componentes




Z

V~ (q1 , q2 , q3 ) d~a =
(V1 h2 h3 ) +
(V2 h3 h1 ) +
(V3 h1 h2 ) dq1 dq2 dq3 .
q1
q2
q3
Dividiendo por la diferencial de volumen obtenemos


1

~ V~ (q1 , q2 , q3 ) =

(V1 h2 h3 ) +
(V2 h3 h1 ) +
(V3 h1 h2 ) .
h1 h2 h3 q1
q2
q3

(2.20)

(2.21)

En la ecuacion anterior, Vi es la componente de V~ en la direccion ei en la que crece qi . Esto


es, Vi = ei V~ , que es la proyeccion de V~ sobre la direccion ei .
Podemos obtener el Laplaciano combinando la ecuacion (2.17) y la ecuacion (2.21), y
~
usando que V~ = (q
1 , q2 , q3 ), obtenemos







1

h
h

h
h

h
h

2
3
3
1
1
2
2
~ (q
~

+
+
.
1 , q2 , q3 ) = =
h1 h2 h3 q1
h1 q1
q2
h2 q2
q3
h3 q3
(2.22)

2.2.3.

Rotor.

~ V~ , apliquemos el teorema de Stokes y, como con la


Finalmente, para desarrollar
divergencia, tomemos el lmite en que el area de la superficie llega a ser despreciablemente
peque
na. Trabajando sobre una componente a la vez, consideremos un diferencial de area en
la superficie curvilnea q1 = constante. A partir de
Z
~ V~ d~ = e1 (
~ V~ ) h2 h3 dq2 dq3 ,

(2.23)
S

CAPITULO 2. COORDENADAS CURVILINEAS Y TENSORES

68

el teorema de Stokes produce


~ V~ ) h2 h3 dq2 dq3 =
e1 (

V~ d~s ,

(2.24)

con la integral de lnea sobre la superficie q1 =constante. Siguiendo el loop (1, 2, 3, 4) en la


figura 2.2,
I




V~ (q1 , q2 , q3 ) d~s = V2 h2 dq2 + V3 h3 +


(V3 h3 )dq2 dq3
q2



V2 h2 +
(V2 h2 )dq3 dq2 V3 h3 dq3
q3



(V3 h3 )
(V2 h2 ) dq2 dq3 .
=
q2
q3

(2.25)

Tomamos el signo positivo cuando vamos en la direccion positiva sobre las partes 1 y 2 y
negativa sobre las partes 3 y 4 porque aqu vamos en la direccion negativa. Los terminos mas
altos en las expansiones de Taylor son omitidos. Ellos desapareceran en el lmite en que la
superficie llega a ser despreciablemente peque
na (dq2 0, dq3 0).

z
4
(q 2 ,q 3 )

e^2

2 ds3= h 3 dq 3
e^3

ds2= h 2 dq 2

x
Figura 2.2: Elemento de area curvilneo con q1 =constante.

Desde la ecuacion (2.24)



~ V~ =



1

(V3 h3 )
(V2 h2 ) .
h2 h3 q2
q3

(2.26)

Las dos componentes restantes pueden ser evaluadas tomando una permutacion cclica de

2.3. SISTEMAS PARTICULARES DE COORDENADAS.


los ndices. Finalmente, podemos escribir el rotor en forma de determinante


e1 h1 e2 h2 e3 h3






1

.
~ V~ =


h1 h2 h3 q1 q2 q3




h1 V1 h2 V2 h3 V3

69

(2.27)

Notemos que esta ecuacion no es identica a la forma del producto cruz de dos vectores, ya
~ no es un vector ordinario, sino que es un vector operador.
que

2.3.

Sistemas particulares de coordenadas.

Hay once sistemas de coordenadas en los cuales la ecuacion tridimensional de Helmholtz


puede separarse en tres ecuaciones diferenciales ordinarias3 . Algunos de estos sistemas adquirieron importancia en el desarrollo historico de la Mecanica Cuantica. Otros como el bipolar
satisfacen necesidades especficas. Debido al desarrollo de computadores de alta velocidad
y a la eficiencia de las tecnicas de programacion se ha reducido la necesidad de utilizar estos sistemas. Nos limitaremos a coordenadas cartesianas, coordenadas polares esfericas, y
coordenadas circulares cilndricas.

2.3.1.

Coordenadas cartesianas rectangulares.

Este es el sistema mas simple de todos:


h1 = hx = 1 ,
h2 = hy = 1 ,
h3 = hz = 1 .

(2.28)

Las familias de superficies coordenadas son tres conjuntos de planos paralelos: x = constante,
y = constante, y z = constante. Las coordenadas cartesianas es el u
nico sistema en que todos
los hi son constantes. Notemos tambien que los vectores unitarios, e1 , e2 , e3 o x, y, z tienen
direcciones fijas.
Los operadores vectoriales corresponden a

~ = x + y + z ,

x
y
z

(2.29)

~ V~ = Vx + Vy + Vz ,

x
y
z

(2.30)

2
2
2
~
~ = 2 = + + ,

x2
y 2
z 2

(2.31)

Ver por ejemplo, Morse y Feshbach.

70

CAPITULO 2. COORDENADAS CURVILINEAS Y TENSORES



x




~
~
V =
x


Vx

2.4.

y
Vy


z


.
z

Vz

(2.32)

Coordenadas circulares cilndricas (, , z).

En el sistema de coordenadas circulares cilndricas las tres coordenadas curvilneas (q1 , q2 , q3 )


son reetiquetadas por (, , z). Las superficies coordenadas mostradas en la figura 2.3 son:

Figura 2.3: Coordenadas circulares cilndricas.

1. Cilindros circulares derechos que tienen el eje-z como eje com


un,
= x2 + y 2

1/2

= constante.

2. Semi planos a traves del eje-z,


= tan1

y
x

= constante.

3. Planos paralelos al plano xy como en el sistema cartesiano


z = constante.
Los lmites para , y z son
0<,

0 2 ,

<z < .

2.4. COORDENADAS CIRCULARES CILINDRICAS (, , Z).

71

Notemos que estamos usando como la distancia perpendicular al eje z. Las relaciones de
transformacion inversas
x = cos ,
y = sen ,
z=z ,

(2.33)

de acuerdo a las ecuaciones anteriores los factores de escala son


h1 = h = 1 ,
h2 = h = ,
h3 = hz = 1 .

(2.34)

Los vectores unitarios e1 , e2 , e3 son reetiquetados (


, ,
z), figura 2.4. El vector unitario es
normal a la superficie cilndrica apuntando en la direccion de crecimiento del radio . El vector
unitario es tangencial a la superficie cilndrica, perpendicular al semi plano = constante
y apuntando en la direccion de crecimiento del angulo . El tercer vector unitario, z, es el
vector unitario cartesiano usual.

x
Figura 2.4: Vectores unitarios en coordenadas circulares cilndricas.

Un vector diferencial de desplazamiento d~s puede ser escrito


d~s = ds + ds
+ zdz = d + d

+ zdz .

(2.35)

~
Los operadores diferenciales que involucran

~
(,
, z) =
+
+ z
,


z
~ V~ = 1 (V ) + 1 V + Vz ,



z


1

1 2 2
2 =

+ 2 2+ 2 ,

(2.36)
(2.37)
(2.38)

CAPITULO 2. COORDENADAS CURVILINEAS Y TENSORES

72



z






1

~
~
V =
.
z




V V Vz

2.5.

(2.39)

Coordenadas polares esf


ericas (r, , ).

Reetiquetando (q1 , q2 , q3 ) como (r, , ), vemos que el sistema de coordenadas polares


esfericas consiste en lo siguiente:
1. Esferas concentricas centradas en el origen,
r = x2 + y 2 + z 2

1/2

= constante.

2. Conos circulares centrados sobre el eje z y vertice en el origen


!
z
= arc cos
= constante.
(x2 + y 2 + z 2 )1/2
3. Semi planos a traves del eje-z,
= tan1

y
x

= constante.

Por nuestra eleccion arbitraria de la definicion de , el angulo polar, y , el angulo azimutal,


el eje z queda particularizado para un tratamiento especial. Las ecuaciones de transformacion
son
x = r sen cos ,
y = r sen sen ,
z = r cos ,

(2.40)

midiendo desde el eje z positivo y en el plano xy desde el eje x positivo. Los intervalos
de valores son 0 r < , 0 , y 0 2. A partir de la ecuacion (2.7)
h1 = hr = 1 ,
h2 = h = r,
h3 = h = r sen .

(2.41)

El elemento de arco

d~s = rdr + rd
+ r
sen d .
En este sistema de coordenadas esfericas el elemento de area (para r = constante) es
dA = da = r2 sen dd ,

(2.42)


2.5. COORDENADAS POLARES ESFERICAS
(R, , ).

73

y
d

x
Figura 2.5: Elementos de area en coordenadas polares esfericas.

el area sombreada en la figura 2.5. Integrando sobre el azimutal , encontramos que el elemento de area llega a ser un anillo de ancho d,
dA = 2r2 sen d .

(2.43)

Esta forma aparece con frecuencia en problemas en coordenadas polares con simetra azimutal. Por definicion el stereoradian, un elemento de angulo solido d, es dado por
d =

dA
= sen dd .
r2

(2.44)

Integrando sobre la superficie esferica completa, obtenemos


Z
d = 4 .
A partir de la ecuacion (2.12) el elemento de volumen es
dv = r2 dr sen dd = r2 drd .

(2.45)

Los vectores unitarios en coordenadas polares esfericas son mostrados en la figura 2.6.
Debemos enfatizar que los vectores unitarios r, y varan en direccion cuando los
angulos y varan. Cuando diferenciamos vectores en coordenadas polares esfericas (o en
cualquier otro sistema no cartesiano) estas variaciones de los vectores unitarios con respecto
a la posicion no deben ser despreciadas. Escribamos los vectores unitarios r, y en termino
de los vectores unitarios cartesiano de direccion fija x, y, z
r = x sen cos + y sen sen + z cos ,
= x cos cos + y cos sen z sen ,
=
x sen + y cos .

(2.46)

CAPITULO 2. COORDENADAS CURVILINEAS Y TENSORES

74

(x,y,z)

Figura 2.6: Coordenadas polares esfericas.

Notemos que un vector dado puede ser expresado en un n


umero de diferentes (pero equivalentes) maneras. Por ejemplo, el vector posicion ~r puede ser escrito
~r =
=
=
=

rr
1/2
r x2 + y 2 + z 2
xx + yy + zz
xr sen cos + yr sen sen + zr cos .

(2.47)

Podemos seleccionar la forma que nos es mas u


til para nuestro problema particular.
A partir de la seccion 2.2 reetiquetando los vectores unitarios en coordenadas curvilneas
y tenemos
e1 , e2 , e3 como r, ,
1
1
~
(,
, z) = r
+
+
,
r
r
r sen
~ V~ =



1
2

V
sen (r Vr ) + r (sen V ) + r
,
r2 sen
r

(2.48)

(2.49)







1

1 2
2
= 2
sen
r
+
sen
+
,
r sen
r
r

sen 2

(2.50)



r r r sen






1

~ V~ =


.
2

r sen r





Vr rV r sen V

(2.51)


2.6. ANALISIS
TENSORIAL.

2.6.
2.6.1.

75

An
alisis tensorial.
Introducci
on y definiciones.

Los tensores son importantes en muchas areas de la Fsica, incluyendo relatividad y electrodinamica. Escalares y vectores son casos especiales de tensores. Como ya vimos, una cantidad que no cambia bajo rotaciones del sistema de coordenadas en un espacio tridimensional,
un invariante, fue etiquetado como un escalar. Un escalar es especificado por un n
umero real
y es un tensor de rango cero. Una cantidad cuyas componentes transforman bajo rotaciones
como las de la distancia de un punto a un origen elegido, fue llamado un vector. La transformacion de las componentes del vector bajo una rotacion de las coordenadas preserva el
vector como una entidad geometrica (tal como una flecha en el espacio), independiente de la
orientacion del sistema de referencia. En un espacio tridimensional, un vector es especificado
por 3 = 31 n
umeros reales, por ejemplo, sus componentes, y es un tensor de rango uno. En un
espacio N dimensional un tensor de rango n tiene N n componentes, las cuales transforman
de una manera definida.
Hay una posible ambig
uedad en la ley de transformacion de un vector
X
A0i =
aij Aj ,
(2.52)
j

en la cual aij es el coseno del angulo entre el eje x0i y el eje xj .


Si partimos con un vector diferencial de distancia d~s, entonces, tomando dx0i como una
funcion de las variables sin primas,
dx0i =

X x0
i
dxj ,
x
j
j

(2.53)

x0i
,
xj

(2.54)

tomando la diferencial. Si fijamos


aij =

las ecuaciones (2.52) y (2.53) son consistentes. Cualquier conjunto de cantidades Aj que
transforman de acuerdo a
X x0
i
A0i =
Aj ,
(2.55)
x
j
j
es definido como un vector contravariante.
Sin embargo, hemos ya encontrado un tipo de transformacion vectorial un poco diferente.
~
El gradiente de un escalar ,,
definido por
~ = x + y + z ,

x1
x2
x3

(2.56)

usando (x1 , x2 , x3 ) para (x, y, z), transforma como


0 X xj
=
,
x0i
xj x0i
j

(2.57)

CAPITULO 2. COORDENADAS CURVILINEAS Y TENSORES

76

usando = (x, y, z) = (x0 , y 0 , z 0 ) = 0 , definida como una cantidad escalar. Notemos


que esta difiere de la ecuacion (2.55) en que tenemos xj /x0i en vez de x0i /xj . Tomemos la
ecuacion (2.57) como la definicion de un vector covariante y al gradiente como el prototipo.
En coordenadas cartesianas
xj
x0i
=
= aij ,
(2.58)
x0i
xj
y no hay diferencia entre transformaciones covariantes y contravariantes. En otros sistemas
la ecuacion (2.58) en general no se aplica, y la distincion entre covariante y contravariante es
real y debe ser observada. Esto es de primera importancia en espacios curvos de Riemann,
en relatividad general.
En lo que resta de esta seccion las componentes de un vector contravariante son denotados
por superndices, Ai , mientras un subndice es usado para las componentes de un vector
covariante Ai .4

2.6.2.

Definici
on de tensores de rango dos.

Ahora procedemos a definir tensores de rango dos contravariantes, mixtos y covariantes


por las siguientes ecuaciones para sus componentes bajo transformacion de coordenadas:
X x0 x0j
i
Akl ,
A =
xk xl
kl
X x0 xl
i
i
B0j =
Blk ,
0
xk xj
kl
X xk xl
Cij0 =
Ckl .
x0i x0j
kl
0 ij

(2.59)

Claramente, el rango va como el n


umero de derivadas parciales (o cosenos directores) en la
definicion: cero para un escalar, uno para un vector y dos para un tensor de segundo rango, y
as sucesivamente. Cada ndice (subndice o superndice) corre sobre el n
umero de dimensiones
del espacio. El n
umero de ndices (rango del tensor) es independiente de las dimensiones del
espacio. Vemos que Akl es contravariante con respecto a ambos ndices, Ckl es covariante
respecto a ambos ndices, y Blk transforma contravariantemente con respecto al primero de
los ndices (k) y covariantemente con respecto al segundo ndice (l). Si usamos coordenadas
cartesianas, las tres formas de tensores de segundo rango, contravariante, mixto y covariante
son la misma.
Como con las componentes de un vector, las leyes de transformacion para las componentes
de un tensor, ecuacion (2.59), produce entidades (y propiedades) que son independientes de
la eleccion de un sistema de referencia. Esto es lo que hace el analisis tensorial importante
en Fsica. La independencia del sistema de referencia (invariancia) es ideal para expresar
afirmaciones en Fsica.
4

Esto significa que las coordenadas (x, y, z) deben ser escritas (x1 , x2 , x3 ) ya que ~r transforma como un
vector contravariante. Ya que nos restringiremos rapidamente a tensores cartesianos (donde la distincion entre
contravariante y covariante desaparece) continuaremos usando subndices para las coordenadas. Esto evita la
ambig
uedad de x2 representa el cuadrado de x o y.


2.6. ANALISIS
TENSORIAL.

77

El tensor de segundo rango A (de componentes Akl ) puede ser convenientemente escrito
por sus componentes en un arreglo cuadrado (de 33 si estamos en un espacio tridimensional),

A11 A12 A13


A = A21 A22 A23 .
A31 A32 A33

(2.60)

Esto no significa que cualquier arreglo de n


umeros o funciones formen un tensor. La condicion
esencial es que las componentes transformen de acuerdo a la ecuacion (2.59).

2.6.3.

Suma y resta de tensores.

La suma y resta de tensores esta definida en terminos de los elementos individuales de la


misma manera que para vectores. Para sumar o restar dos tensores, debemos sumar o restar
sus correspondientes elementos. Si
A+B=C ,
(2.61)
entonces
Aij + B ij = C ij .
Naturalmente, A y B deben ser tensores del mismo rango y ambos expresados en un espacio
del mismo n
umero de dimensiones.

2.6.4.

Convenci
on de suma.

En analisis tensorial es costumbre adoptar una convencion de suma para poner la ecuacion
(2.59) y las subsecuentes ecuaciones tensoriales en forma mas compacta. Siempre y cuando
distingamos entre covariante y contravariante, acordemos que cuando un ndice aparezca a un
lado de una ecuacion, una vez como superndice y una vez como subndice (excepto para las
coordenadas donde ambos son subndices), automaticamente sumaremos sobre aquel ndice.
Entonces podemos escribir la segunda expresion en la ecuacion (2.59) como
i

B0j =

x0i xl k
B ,
xk x0j l

(2.62)

con las sumas sobre k y l implcitas en el lado derecho. Esta es la convencion de suma.
Para ilustrar el uso de la convencion de suma y algunas tecnicas del analisis tensorial,
mostremos que la familiar delta de Kronecker, kl , es realmente un tensor mixto de rango dos,
lk .5 La pregunta es: La lk transformara de acuerdo a la ecuacion (2.59)? Este es nuestro
criterio para llamarlo un tensor. Usando la convencion de suma tenemos
lk
5

x0i xl
x0i xk
=
,
xk x0j
xk x0j

Es practica com
un referirse a un tensor A especificando una componente tpica Aij .

(2.63)

CAPITULO 2. COORDENADAS CURVILINEAS Y TENSORES

78

por definicion de la delta de Kronecker. Ahora


x0i xk
x0i
=
,
xk x0j
x0j

(2.64)

a partir de la regla de la cadena. Sin embargo, x0i y x0j son coordenadas independientes, y por
tanto la variacion de una respecto a la otra debe ser cero si ellas son diferentes y uno si ellas
coinciden, esto es
x0i
i
= 0j .
(2.65)
0
xj
Por tanto
i
0j

x0i xl k
=
,
xk x0j l

mostrando que lk son realmente las componentes de un tensor mixto de rango dos. Notemos
que el resultado es independiente del n
umero de dimensiones de nuestro espacio.
La delta de Kronecker posee ademas una interesante propiedad. Tiene las mismas componentes en todos los sistemas de coordenadas rotados y por lo tanto es llamada isotropica.
Tensores de primer rango (vectores) no isotropicos existen.

2.6.5.

SimetraAntisimetra.

El orden en el cual los ndices aparecen en nuestra descripcion de un tensor es importante.


En general, Amn es independiente de Anm , pero hay algunos casos de interes especial. Si, para
todo m y n,
Amn = Anm ,
(2.66)
lo llamaremos un tensor simetrico. Si, por otra parte,
Amn = Anm ,

(2.67)

el tensor lo llamaremos antisimetrico. Claramente, cada tensor (de segundo rango) puede ser
resuelto en una parte simetrica y otra antisimetrica por la identidad
Amn =

1 mn
1
(A + Anm ) + (Amn Anm ) ,
2
2

(2.68)

el primer termino de la derecha es un tensor simetrico y el segundo, un tensor antisimetrico.


Una similar resolucion de las funciones en una parte simetrica y otra antisimetrica es de
extrema importancia en Mecanica Cuantica.

2.6.6.

Spinores.

Podramos pensar que un sistema de escalares, vectores, tensores (de rango dos) y superiores forman un sistema matematico completo, uno que es adecuado para describir una
Fsica independiente de nuestra eleccion de sistema de coordenadas. Pero el universo y la
Fsica Matematica no es as de simple. En el reino de las partculas elementales, por ejemplo,

Y PRODUCTO DIRECTO.
2.7. CONTRACCION

79

partculas de spin cero (mesones , partculas ) pueden ser descritos con escalares; partculas de spin 1 (deuterones) por vectores, y partculas de spin 2 (gravitones), por tensores. Esta
lista omite a las partculas mas comunes: electrones, protones y neutrones, todas ellas con
spin 12 . Estas partculas son propiamente descritas por spinores. Un spinor no es un escalar,
vector o tensor.

2.7.
2.7.1.

Contracci
on y producto directo.
Contracci
on.

Cuando tratamos con vectores, formamos un producto escalar sumando el producto de


las componentes correspondientes:
~B
~ = Ai Bi .
A

(2.69)

La generalizacion de esta expresion en el analisis tensorial es un proceso conocido como


contraccion. Dos ndices, uno covariante y el otro contravariante, se igualan uno con otro
y luego sumamos sobre ese ndice repetido. Por ejemplo, veamos la contraccion del tensor
mixto de segundo orden Bji .
i

B0j B0i =

x0i xl k
xl k
B =
B ,
0 l
xk xi
xk l

(2.70)

por la ecuacion (2.64) y luego por la ecuacion (2.65)


i

B 0 i = kl Blk = Bkk .

(2.71)

Nuestro tensor contrado es invariante y por lo tanto un escalar. Esto es exactamente lo que
obtuvimos anteriormente para el producto punto de dos vectores y para la divergencia de un
vector. En general, la operacion de contraccion reduce el orden de un tensor en 2.

2.7.2.

Producto Directo.

Las componentes de un vector covariante (tensor de rango uno) ai y aquellos de un vector


contravariante (tensor de rango uno) bj puede ser multiplicado componente a componente
para dar el termino general ai bj . Esto, por la ecuacion (2.59) es realmente un tensor de
segundo orden, por
xk x0j l xk x0j
0 0j
a ib =
a
b =
(ak bl ) .
(2.72)
0 k
0
xi xl
xi xl
Contrayendo, obtenemos
i

a0i b0 = ak bk ,

(2.73)

como en las ecuaciones (2.70) y (2.71) para dar el producto escalar regular.
La operacion de asociar dos vectores ai y bj , como en el u
ltimo parrafo, es conocido como
el producto directo. Para el caso de dos vectores, el producto directo es un tensor de segundo
~ el cual no estaba definido dentro
~ E,
rango. En ese sentido podemos atribuir significado a

80

CAPITULO 2. COORDENADAS CURVILINEAS Y TENSORES

del esquema del analisis vectorial. En general, el producto directo de dos tensores es un tensor
de rango igual a la suma de los dos rangos iniciales; esto es,
Aij B kl = Cji k l ,

(2.74)

donde Cji k l es un tensor de cuarto rango. A partir de la ecuacion (2.59)


ikl

C 0j

x0i xn x0k x0l m p q


C
.
xm x0j xp xq n

(2.75)

El producto directo aparece en Fsica Matematica como una tecnica para crear nuevos tensores de mayor rango.
~
Cuando T es un tensor cartesiano de n-esimo rango, /xi Tjkl . . ., un elemento de T,
es un tensor cartesiano de rango n + 1. Sin embargo, /xi Tjkl . . . no es un tensor bajo
transformaciones mas generales. En sistemas no cartesianos /x0i actuara sobre las derivadas
parciales xp /x0q y destruira la relacion simple de transformacion tensorial.
Hasta aqu la distincion entre una transformacion covariante y una contravariante ha
sido mantenida ya que existe en espacio no cartesiano y porque es de gran importancia en
relatividad general. Ahora, sin embargo, nos restringimos al tensor cartesiano. Como se hizo
notar en el caso cartesiano, la distincion entre contravariancia y covariancia desaparece y
todos los ndices estan, a partir de ahora en adelante, mostrados como subndices.

2.7.3.

Convenci
on de la suma.

Cuando un subndice (letra, no n


umero) aparece dos veces sobre un lado de una ecuacion,
implica que se suma con respecto a este subndice.

2.7.4.

Contracci
on.

La contraccion consiste en fijar dos ndices distintos (subndices), igualar uno a otro y
luego sumarlos seg
un la convencion de suma.

2.8.

Regla del cociente.

Si Ai y Bj son vectores, podemos facilmente mostrar que Ai Bj es un tensor de segundo


rango. Aqu, estamos interesados en una variedad de relaciones inversas. Consideremos tales
ecuaciones como
K i Ai
Kij Aj
Kij Ajk
Kijkl Aij
Kij Ak

=B ,
= Bi ,
= Bik ,
= Bkl ,
= Bijk .

(2.76a)
(2.76b)
(2.76c)
(2.76d)
(2.76e)

En cada una de esas expresiones A y B son tensores conocidos cuyo rango esta indicado por
el n
umero de ndices y el tensor A es arbitrario. En cada caso K es una cantidad desconocida.

2.9. PSEUDO TENSORES Y TENSORES DUALES.

81

Deseamos establecer las propiedades de transformacion de K. La regla del cociente afirma


que si la ecuacion de interes se mantiene en todos los sistemas (rotados) de coordenadas
cartesianas, K es un tensor del rango indicado. La importancia en Fsica Teorica es que la
regla del cociente puede establecer la naturaleza tensorial de las cantidades. La regla del
cociente (ecuacion 2.76b) muestra que la matriz de inercia que aparece en la ecuacion de
~ = I~ , es un tensor.
momento angular L
Para probar la regla del cociente, consideremos la ecuacion (2.76b) como un caso tpico.
En nuestro sistema de coordenadas prima
K 0 ij A0 j = B 0 i = aik Bk ,

(2.77)

~ Ya que la ecuacion se mantiene en


usando las propiedades de transformacion vectorial de B.
todos los sistemas de coordenadas rotados,
aik Bk = aik (Kkl Al ) .

(2.78)

~ regresamos al sistema de coordenadas prima (compare la ecuacion


Ahora, transformando A
(2.55)), tenemos
(2.79)
K 0 ij A0 j = aik Kkl ajl A0 j .
Reordenando, tenemos
(K 0 ij aik ajl Kkl )A0 j = 0 .

(2.80)

Esto debe mantenerse para cada valor del ndice i y para cada sistema de coordenadas prima.
Ya que A0j es arbitrario, concluimos
K 0 ij = aik ajl Kkl ,

(2.81)

la cual es nuestra definicion de un tensor de segundo rango.


Las otras ecuaciones pueden ser tratadas en forma similar, dando origen a otras formas
de la regla del cociente. Un peligro menor debera ser tomado en cuenta, la regla del cociente
~ es igual a cero. Las propiedades de transformacion de cero
no se aplica necesariamente si B
son indeterminadas.

2.9.

Pseudo tensores y tensores duales.

Hasta aqu nuestras transformaciones de coordenadas han sido restringidas a rotaciones


puras. Ahora consideramos el efecto de reflexiones o inversiones. Si tenemos coeficientes de
transformaciones aij = ij , entonces por la ecuacion (2.53)
xi = x0i ,

(2.82)

la cual es una inversion o transformacion de paridad. Notemos que esta transformacion cambia
nuestro sistema de coordenadas inicialmente diestro a un sistema de coordenadas siniestro.6
Nuestro vector prototipo ~r con componentes (x1 , x2 , x3 ) se transforma en el vector ~r 0 =
(x01 , x02 , x03 ) = (x1 , x2 , x3 ). Este nuevo vector ~r 0 tiene componentes negativas, relativas
6

Esta es una inversi


on del sistema de coordenadas, los objetos en el mundo fsico permanecen fijos.

CAPITULO 2. COORDENADAS CURVILINEAS Y TENSORES

82

al nuevo conjunto de ejes transformados. Como se muestra en la figura 2.7, invirtiendo las
direcciones de los ejes de coordenadas y cambiando los signos de las componentes da ~r 0 =
~r. El vector (una flecha en el espacio) permanece exactamente como estaba antes de que
la transformacion se llevara a cabo. El vector posicion ~r y todos los otros vectores cuyas
componentes se comporten de esta manera (cambiando el signo con una inversion de los ejes
de coordenadas) son llamados vectores polares y tienen paridad impar.
x2
x3
r

r
x1

x1

x3
x2

Figura 2.7: Inversion de coordenadas cartesianas, vector polar.

Una diferencia fundamental aparece cuando encontramos un vector definido como el pro~ = A
~ B,
~ donde tanto A
~ como B
~ son vectores
ducto cruz de dos vectores polares. Sea C
~ estan dadas por
polares. Las componentes de C
C1 = A2 B3 A3 B2 .

(2.83)

y as sucesivamente. Ahora cuando los ejes de coordenadas son invertidos, Ai A0i , Bj Bj0 ,
~ no se comporta
de su definicion Ck +Ck0 ; esto es, nuestro vector producto cruz, vector C,
como un vector polar bajo inversion. Para distinguir, lo etiquetamos como pseudo vector o
vector axial (ver figura 2.8) que tiene paridad par.
Ejemplos son:
velocidad angular,
momento angular,
torque,
campo magnetico,

~v =
~ ~r ,
~ = ~r p~ ,
L
~ = ~r F~ ,
~
B
~ .
~ E
= c
t

En ~v =
~ ~r, el vector axial es la velocidad angular
~ , y ~r y ~v = d~r/dt son vectores polares.
Claramente, los vectores axiales ocurren frecuentemente en Fsica elemental, aunque este
hecho usualmente no es recalcado. En un sistema de coordenadas de mano derecha un vector
~ tiene un sentido de rotacion asociado con el dado por la regla de la mano derecha. En
axial C

2.9. PSEUDO TENSORES Y TENSORES DUALES.

83

y
z

z
C

Figura 2.8: Inversion de coordenadas cartesianas, vector axial.

el sistema invertido de mano izquierda, el sentido de la rotacion es una rotacion de la mano


izquierda. Esto es indicado por las flechas curvadas en la figura 2.8.
La distincion entre vectores polares y axiales tambien puede ser ilustrada por una reflexion.
Un vector polar se refleja en un espejo como un flecha fsica real, figura 2.9a. En la figuras
2.7 y 2.8 las coordenadas estan invertidas; el mundo fsico permanece fijo. Aqu los ejes
de coordenadas permanecen fijos; el mundo es reflejado como en un espejo en el plano xz.
Especficamente, en esa representacion mantenemos los ejes fijos y asociamos un cambio de
signo con la componente del vector. Para un espejo en el plano xz, Py Py . Tenemos
P = (Px , Py , Pz ) ,
P 0 = (Px , Py , Pz ) ,

vector polar.

(a)

(b)
y

I
x

I
x

Figura 2.9: (a) Espejo en el plano xz; (b) Espejo en el plano xz.
Un vector axial tal como el momento magnetico ~ (corriente area de loop) o el campo
~ se comporta muy diferentemente bajo reflexion.
magnetico B

CAPITULO 2. COORDENADAS CURVILINEAS Y TENSORES

84

~ y el momento magnetico ~ como producidos por una


Consideremos el campo magnetico B
carga electrica moviendose circularmente. La reflexion revierte el sentido de la rotacion de la
carga. Los dos loops de corriente y el resultante de los momentos magneticos son mostrados
en la figura 2.9b. Tenemos
~ = (x , y , z ) ,

~ 0 = (x , y , z ) vector axial.
Concordamos que el Universo no se preocupa si usamos sistemas de coordenadas de mano
derecha o mano izquierda, luego no tiene sentido sumar un vector axial a un vector polar.
~ = B,
~ ambos A
~ y B
~ son tanto vectores polares como vectores
En la ecuacion vectorial A
7
axiales . Restricciones similares se aplican a los escalares y pseudo escalares y, en general, a
los tensores y pseudo tensores.
Usualmente, los pseudo escalares, pseudo vectores, y pseudo tensores transforman como
S0 = | a | S
Ci0 = | a | aij Cj ,
A0ij = | a | aik ajl Akl ,

(2.84)

donde | a | es el determinante de un arreglo de coeficientes amn . En nuestra inversion el


determinante es


1 0
0

(2.85)
| a | = 0 1 0 = 1
0
0 1
Para la reflexion de un eje, el eje x,


1 0 0


| a | = 0 1 0 = 1
0 0 1

(2.86)

y nuevamente el determinante es | a | = 1. Por otra parte, para todas las rotaciones puras el
determinante | a | es siempre +1. A menudo las cantidades que transforman de acuerdo a la
ecuacion (2.84) son conocidas como densidad tensorial. Ellos son tensores regulares en cuanto
a rotaciones se refiere, diferenciandose de los tensores solamente en reflexiones o inversiones
de las coordenadas, y luego la u
nica diferencia es la aparicion de un signo menos adicional
del determinante | a |.
~B
~ C
~ es un escalar
Anteriormente mostramos que el producto escalar triple S = A
(bajo rotaciones). Ahora considerando la transformacion de paridad dada por la ecuacion
(2.82), vemos que S S, probando que el producto escalar triple es un pseudo escalar.
Este comportamiento fue presagiado por la analoga geometrica de un volumen. Si los tres
parametros del volumen, longitud, ancho, profundidad, cambian de distancias positivas a
distancias negativas, el producto de los tres sera negativo.
7

La gran excepci
on a esto est
a en el decaimiento beta, interacciones debiles. Aqu el Universo distingue
entre sistemas derechos y sistemas izquierdos.

2.9. PSEUDO TENSORES Y TENSORES DUALES.

2.9.1.

85

Smbolo de Levi-Civita.

Para usos futuros es conveniente presentar el smbolo tridimensional de Levi-Civita ijk


definido por
123 = 231 = 312 = 1 ,
132 = 213 = 321 = 1 ,
todos los otros ijk = 0 .

(2.87)

Note que ijk es totalmente antisimetrico con respecto a todo par de ndices. Suponga que
tenemos un pseudo tensor de tercer rango ijk , el cual en un sistema de coordenadas particular
es igual a ijk . Luego
0
ijk
= | a | aip ajq akr pqr ,
(2.88)
por definicion de pseudo tensor. Ahora, podemos expresar el determinante de a como
| a | = pqr a1p a2q a3r ,

(2.89)

0
por directa expansion del determinante, mostrando que 123
= | a |2 = 1 = 123 . Considerando
las otras posibilidades una a una, encontramos
0
ijk
= ijk ,

(2.90)

para rotaciones y reflexiones. Luego ijk es un pseudo tensor. Ademas, se ve como un pseudo
tensor isotropico con las mismas componentes en todos los sistemas de coordenadas cartesianos rotados.

2.9.2.

Tensores duales.

A cualquier tensor antisimetrico de segundo rango Cjk (en el espacio tridimensional)


podemos asociarle un pseudo vector dual Ci definido por
1
Ci = ijk Cjk .
2
Aqu el antisimetrico Cjk puede ser escrito

0
C12 C31
0
C23 .
Cjk = C12
C31 C23
0

(2.91)

(2.92)

Sabemos que Ci debe transformar como un vector bajo rotaciones a partir de la doble contraccion del (pseudo) tensor de quinto rango ijk Cmn , pero este es realmente un pseudo vector
~ estan dadas por
desde la naturaleza pseudo de ijk . Especficamente, las componentes de C
(C1 , C2 , C3 ) = (C23 , C31 , C12 ) .

(2.93)

Note que el orden cclico de los ndices vienen del orden cclico de las componentes de ijk . Esta
dualidad, dada por la ecuacion (2.93), significa que nuestro producto vectorial tridimensional

86

CAPITULO 2. COORDENADAS CURVILINEAS Y TENSORES

puede, literalmente, ser tomado ya sea como un pseudo vector o como un tensor antisimetrico
de segundo rango, dependiendo de como escojamos escribirlo.
~ B,
~ y C,
~ podemos definir
Si tomamos tres vectores (polares) A,


Ai Aj Ak


Vijk = Bi Bj Bk = Ai Bj Ck Ai Bk Cj + . . . .
(2.94)
Ci Cj Ck
Por una extension del analisis de la seccion 2.6 cada termino Ap Bq Cr es visto como un
tensor de tercer rango, haciendo Vijk un tensor de rango tres. A partir de su definicion como
un determinante, Vijk es totalmente antisimetrico, cambiando signo bajo el intercambio de
cualquier par de ndices, esto es, el intercambio de cualquier par de filas del determinante.
La cantidad dual es
1
(2.95)
V = ijk Vijk ,
3!
claramente un pseudo escalar. Por expansion se ve que


A1 A2 A3


V = B1 B2 B3 ,
(2.96)
C1 C2 C3
nuestro conocido producto escalar triple.

2.9.3.

Tensores irreducibles.

Para algunas aplicaciones, particularmente en la teora cuantica del momento angular,


nuestros tensores cartesianos no son particularmente convenientes. En el lenguaje matematico
nuestro tensor general de segundo orden Aij es reducible, lo que significa que puede ser
descompuesto en partes, varios tensores de menor orden. En efecto, ya hemos hecho esto. De
la ecuacion (2.71)
A = Aii ,
(2.97)
es una cantidad escalar, la traza de Aij .
La parte antisimetrica
1
Bij = (Aij Aji )
2
hemos mostrado que es equivalente a un (pseudo) vector, o
Bij = Ck ,

permutacion cclica de i, j, k.

(2.98)

(2.99)

Sustrayendo el escalar A y el vector Ck de nuestro tensor original, tenemos un tensor de


segundo orden irreducible, simetrico y de traza nula, Sij , en el cual
1
1
Sij = (Aij + Aji ) A ij ,
2
3

(2.100)

con cinco componentes independientes. Luego, nuestro tensor cartesiano original puede ser
escrito
1
Aij = A ij + Ck + Sij .
(2.101)
3

COVARIANTE.
2.10. TENSORES NO CARTESIANOS, DIFERENCIACION

87

Las tres cantidades A, Ck , y Sij forman el tensor esferico de orden 0, 1 y 2 respectivamente,


transformando como los armonicos esfericos YLM para L =0, 1 y 2.
Un ejemplo especfico de la reduccion anterior esta dada por el tensor cuadrupolo electrico
simetrico
Z
Qij = (3xi xj r2 ij )(x1 , x2 , x3 ) d3 x .
El termino r2 ij representa una resta de la traza escalar (los 3 terminos i = j). El resultante
Qij tiene traza cero.

2.10.

Tensores no cartesianos, diferenciaci


on covariante.

La distincion entre transformaciones contravariante y transformaciones covariante fueron


establecidas en la seccion 2.6. Luego, por conveniencia, nos restringimos a coordenadas cartesianas (en la cual la distincion desaparece). Ahora en estas dos secciones volvemos a las
coordenadas no cartesianas y resurge la distincion entre contravariante y covariante. Como
en la seccion 2.6, un superndice sera usado para denotar la dependencia contravariante y un
subndice para diferenciar la covariante. El tensor metrico de la seccion 2.1 sera usado para
relacionar los ndices contravariante y covariante.
El enfasis en esta seccion es sobre diferenciacion, culminando en la construccion de una
derivada covariante. Vimos en la seccion 2.7 que la derivada de un campo vectorial es un
tensor de segundo orden en coordenadas cartesianas. La derivada covariante de un campo
vectorial es un tensor de segundo orden en sistemas de coordenadas no cartesianas.

2.10.1.

Tensor m
etrico, subida y bajada de ndices.

Empecemos con un conjunto de vectores base ~i tal que un desplazamiento infinitesimal


d~s podra estar dado por
d~s = ~1 dq 1 + ~2 dq 2 + ~3 dq 3 .
(2.102)
Por conveniencia tomamos ~1 , ~2 , ~3 formando un sistema diestro. Estos tres vectores no son
necesariamente ortogonales. Tambien, se requerira una limitacion al espacio tridimensional
solamente para la discusion de los productos cruz y rotores. De lo contrario estos ~i pueden
estar en un espacio de N -dimensiones, incluyendo la cuarta dimension espacio-tiempo de la
relatividad especial y general. Los vectores base ~i pueden ser expresados por
~i =

~s
,
q i

(2.103)

Note, sin embargo, que los ~i no tienen necesariamente magnitud uno. Se puede probar que
los vectores unitarios son
1 ~s
ei =
, (no hay suma),
hi q i
y por lo tanto
~i = hi ei ,

(no hay suma).

(2.104)

CAPITULO 2. COORDENADAS CURVILINEAS Y TENSORES

88

Los ~i estan relacionados a los vectores unitarios ei por el factor de escala hi de la seccion
2.2. Los ei no tienen dimensiones, los ~i tienen dimensiones de hi . En coordenadas polares
esfericas, como un ejemplo especfico,
~r = er ,
~ = r e ,
~ = r sen e .

(2.105)

Como en la seccion 2.1, construimos el cuadrado de un desplazamiento diferencial


(ds)2 = d~s d~s = (~i dq i )2 = ~i ~j dq i dq j .

(2.106)

Comparando esto con (ds)2 de la seccion 2.1, ecuacion (2.6), definimos ~i ~j como el tensor
metrico covariante
~i ~j = gij .
(2.107)
Claramente gij es simetrico. La naturaleza del tensor gij se deduce a partir de la regla del
cociente. Tomemos la relacion
g ik gkj = ji ,
(2.108)
para definir el correspondiente tensor contravariante g ik . El contravariante g ik entra como el
inverso8 del covariante gkj . Usemos este contravariante g ik para subir ndices, convirtiendo
un ndice covariante en uno contravariante, como se muestra mas adelante. As mismo el
covariante gkj sera usado para bajar ndices. La eleccion de g ik y gkj para esta operacion de
subir y bajar es arbitraria. Cualquier tensor de segundo orden (y su inverso) podra hacerlo.
Especficamente, tenemos
g ij ~j = ~ i , relacion de covariante y
contravariante de vectores bases
g ij F~j = F~ i , relacion de covariante y

(2.109)

contravariante de componentes vectoriales.


Entonces
gij ~ j = ~i , son las correspondientes relaciones
gij F~ j = F~i , de bajada de ndices.

(2.110)

Como un ejemplo de esas transformaciones comenzaremos con la forma contravariante del


vector
F~ = F i ~i .
(2.111)
De las ecuaciones (2.109) y (2.110)
F~ = Fj g ji gik ~ k = Fj ~ j ,

(2.112)

la igualdad final viene de la ecuaciones (2.108). La ecuacion (2.111) da la representacion


contravariante de F~ . La ecuacion (2.112) da la correspondiente representacion covariante del
mismo F~ .
8

Si el tensor gij es escrito como una matriz, el tensor g ij esta dado por la matriz inversa.

COVARIANTE.
2.10. TENSORES NO CARTESIANOS, DIFERENCIACION

89

Deberamos enfatizar de nuevo que ~i y ~ j no son unitarios. Esto puede verse en las
ecuaciones (2.105) y en el tensor metrico gij para coordenadas polares esfericas y su inverso
g ij :

1 0
0

1 0
0

2
0

0
(gij ) = 0 r
(g ij ) = 0 r2
.

2
2
1
0 0 r sen
0 0
r2 sen2

2.10.2.

Derivadas y smbolos de Christoffel.

Formemos la diferencial de un escalar


d =

i
dq .
q i

(2.113)

Ya que la dq i son las componentes de un vector contravariante, las derivadas parciales, /q i


debieran ser un vector covariante, por la regla del cociente. El gradiente de un escalar llega
a ser
~ = ~ i .

(2.114)
q i
Deberamos notar que /q i no son las componentes del gradiente de la seccion 2.2, ya que
~ i 6= ei de la seccion 2.2.
Continuando con las derivadas de un vector, encontramos que la situacion es mucho mas
complicada porque los vectores bases ~i , en general, no son constantes. Recordemos que no
estamos mas restringidos a las coordenadas cartesianas con sus convenientes x, y, z. La
diferenciacion directa es
V~
V i
~i
=
~i + V i j .
(2.115)
j
j
q
q
q
Ahora ~i /q j sera alguna combinacion lineal de ~k con coeficientes que dependen de los
ndices i y j de las derivadas parciales y el ndice k del vector base. Escribimos
~i
= kij ~k .
(2.116)
q j
Multiplicando por ~ m y usando ~ m ~k = km (pruebelo).
m
m
ij = ~

~i
.
q j

(2.117)

El kij es un smbolo de Christoffel (del segundo tipo). Tambien se le conoce como coeficiente
de conexion. Estos kij no son tensores de rango tres y las V i /q j de la ecuacion (2.115) no
son tensores de segundo rango. En coordenadas cartesianas, kij = 0 para todos los valores
de los ndices i, j, k.
Usando la ecuacion (2.103), obtenemos
~i
2~s
~j
=
= i == kji ~k .
j
j
i
q
q q
q
Luego estos smbolos de Christoffel son simetricos en los dos ndices inferiores:
kij = kji .

(2.118)

(2.119)

CAPITULO 2. COORDENADAS CURVILINEAS Y TENSORES

90

2.10.3.

Derivada covariante.

Con los smbolos de Christoffel, la ecuacion (2.115) puede ser reescrita


V~
V i
=
~i + V i kij ~k .
q j
q j

(2.120)

Ahora i y k en el u
ltimo termino son ndices mudos. Intercambiando i y k, tenemos
V~
=
q j


V i
k i
+ V kj ~i .
q j

(2.121)

La cantidad entre parentesis es denominada derivada covariante, V;ji . Tenemos


V;ji

V i
+ V k ikj .
q j

(2.122)

Los subndices ; j indican que la diferenciacion es con respecto a q j . La diferencial dV~ se


convierte en
V~
dV~ = j dq j = [V;ji dq j ]~i .
(2.123)
q
Una comparacion con las ecuaciones (2.102) o (2.111) muestra que la cantidad entre parentesis
cuadrados es la i-esima componente de un vector contravariante. Ya que dq j es la j-esima
componente de un vector contravariante, V;ji debe ser la componente ij-esima de un tensor
mixto de segundo rango (regla del cociente). Las derivadas covariantes de las componentes
contravariantes de un vector forma un tensor mixto de segundo rango, V;ji .
Ya que los smbolos de Christoffel desaparecen en coordenadas cartesianas, la derivada
covariante y la derivada parcial ordinaria coinciden
V i
= V;ji ,
q j

(En coordenadas cartesianas).

(2.124)

Se puede demostrar que la derivada covariante de un vector covariante Vi esta dada por
Vi;j =

Vi
Vk kij .
q j

(2.125)

Como V;ji , el tensor Vi;j es de rango dos.


La importancia fsica de la derivada covariante es:
Un reemplazo consistente de las derivadas parciales regulares por derivadas
covariantes lleva las leyes de la Fsica (por componentes) desde un espacio tiempo
plano al espacio tiempo curvo (Riemanniano) de la relatividad general. Realmente,
esta sustitucion puede ser tomada como una declaraci
on matem
atica del principio
9
de equivalencia.
9

C.W. Misner, K.S. Thorne, and J.A. Wheeler, Gravitation. San Francisco: W. H. Freeman (1973), p 387.

2.11. OPERADORES DIFERENCIALES DE TENSORES.

2.10.4.

91

Los smbolos de Christoffel como derivadas del tensor m


etrico.

A menudo es conveniente tener una expresion explcita para los smbolos de Christoffel
en terminos de derivadas del tensor metrico. Como un paso inicial, definimos el smbolo de
Christoffel del primer tipo [ij, k] por
[ij, k] gmk m
ij .

(2.126)

Este [ij, k] no es un tensor de rango tres. De la ecuacion (2.117)


[ij, k] = gmk ~ m

~i
,
q j

(2.127)

~i
= ~k j .
q
Ahora diferenciamos gij = ~i ~j , ecuacion (2.107):
gij
~i
~j
= k ~j + ~i k ,
k
q
q
q
= [ik, j] + [jk, i] ,

(2.128)

por la ecuacion (2.127).


Luego
1
[ij, k] =
2

gik gjk gij


+
k
q j
q i
q


,

(2.129)

sij = g ks [ij, k] ,


1 ks gik gjk gij
= g
+
k .
2
q j
q i
q

(2.130)

Estos smbolos de Christoffel y las derivadas covariantes son aplicadas en la proxima seccion.

2.11.

Operadores diferenciales de tensores.

En esta seccion la derivada covariante de la seccion 2.10 es aplicada para derivar las
operaciones diferenciales vectoriales de la seccion 2.2 en la forma tensorial general.

2.11.1.

Divergencia.

Reemplazando las derivadas parciales por la derivada covariante, tomamos la divergencia


como
i
~ V~ = V;ii = V + V k iik .

(2.131)
q i

92

CAPITULO 2. COORDENADAS CURVILINEAS Y TENSORES

Expresando iik por la ecuacion (2.130), tenemos




1 im gim gkm gik
i
ik = g
+
m .
2
q k
q i
q

(2.132)

Cuando contraemos con g im los dos u


ltimos terminos en el parentesis de llave se cancelan, ya
que
gki
gik
gkm
g im
= g mi m = g im m .
(2.133)
i
q
q
q
Entonces
gim
1
iik = g im k .
(2.134)
2
q
Por la teora de determinantes
g
gim
= gg im k ,
(2.135)
k
q
q
donde g es el determinante de la metrica, g = det(gij ). Sustituyendo este resultado en la
ecuacion (2.134), obtenemos
iik =
Esto da

1 g 1/2
1 g
=
.
2g q k
g 1/2 q k

(2.136)

~ V~ = V;ii = 1 (g 1/2 V k ) .

g 1/2 q k

(2.137)

Para comparar este resultado con la ecuacion (2.21), note que h1 h2 h3 = g 1/2 y V i = Vi /hi
(V i es el coeficiente contravariante de ~i y no hay suma), donde Vi es el coeficiente de ei .

2.11.2.

Laplaciano.

~ V~ por
~ para obtener al LaplaEn la seccion 2.2 reemplazamos el vector V~ en
i
~ .
~
ciano
Aqu tenemos un V contravariante. Usando el tensor metrico para crear un
~
contravariante , hacemos la sustitucion
V i g ik

.
q k

(2.138)

~
~ se convierte
Entonces el Laplaciano
~
~ = 1 (g 1/2 g ik ) .

g 1/2 q i
q k

(2.139)

Para los sistemas ortogonales de la seccion 2.2 el tensor metrico es diagonal y el contravariante
g ii (no hay suma) llega a ser
g ii = (hi )2 .
La ecuacion (2.139) se reduce a
~
~ =

h1 h2 h3 q i

en concordancia con la ecuacion (2.22).

h1 h2 h3
h2i q k


.

2.11. OPERADORES DIFERENCIALES DE TENSORES.

2.11.3.

93

Rotor.

La diferencia de derivadas que aparece en el rotor (ecuacion (2.26)) sera escrita


Vi Vj
i .
q j
q
Nuevamente, recordemos que las componentes de Vi aqu son los coeficientes contravariantes
de los vector no unitarios base ~ i . Los Vi de la seccion 2.2 son coeficientes de los vectores
unitarios ei . Usando
kij = kji ,
obtenemos
Vi
Vj
Vi Vj
i = j Vk kij i + Vk kji
j
q
q
q
q
= Vi;j Vj;i .

(2.140)

Las diferencias caractersticas de derivadas de un rotor llegan a ser diferencias en derivadas


covariantes y por lo tanto es un tensor de segundo orden (covariante en ambos ndices).
Como enfatizamos en la seccion 2.9, la forma vectorial especial del rotor existe solamente en
el espacio tridimensional.
De la ecuacion (2.130) es claro que todos los smbolos de Christoffel de tres ndices se
anulan en el espacio de Minkowski y en el espacio-tiempo real de la relatividad especial con

1 0
0
0
0 1 0
0

(2.141)
g =
0 0 1 0 .
0 0
0 1
Aqu
x0 = ct ,

x1 = x ,

x2 = y ,

y x3 = z .

Esto completa el desarrollo de los operadores diferenciales en la forma tensorial general.


En adicion a los campos elasticos y electromagneticos, estas formas diferenciales encuentran
aplicacion en mecanica (mecanica Lagrangiana, Hamiltoniana, y las ecuaciones de Euler para
la rotacion de cuerpos rgidos); mecanica de fluidos, y quizas mucho mas importante que
todas, en el espacio-tiempo curvado de la teora moderna gravitacional.

94

CAPITULO 2. COORDENADAS CURVILINEAS Y TENSORES

Captulo 3
Determinantes y matrices.
versi
on final 2.20-0210151

3.1.

Determinantes.

Comenzamos el estudio de matrices resolviendo ecuaciones lineales las cuales nos llevan
a determinantes y matrices. El concepto de determinante y su notacion fueron introducidos
por Leibniz.

3.1.1.

Ecuaciones lineales homog


eneas.

Una de las mayores aplicaciones de los determinantes esta en el establecimiento de una


condicion para la existencia de una solucion no trivial de un conjunto de ecuaciones algebraicas lineales homogeneas. Supongamos que tenemos tres incognitas x1 , x2 , x3 (o n ecuaciones
con n incognitas).
a1 x 1 + a2 x 2 + a3 x 3 = 0 ,
b1 x 1 + b2 x 2 + b3 x 3 = 0 ,
c1 x1 + c2 x2 + c3 x3 = 0 .

(3.1)

El problema es: en que condiciones hay alguna solucion, aparte de la solucion trivial x1 = 0,
x2 = 0, x3 = 0? Si usamos notacion vectorial ~x = (x1 , x2 , x3 ) para la solucion y tres filas
~a = (a1 , a2 , a3 ), ~b = (b1 , b2 , b3 ), ~c = (c1 , c2 , c3 ) para los coeficientes, tenemos que las tres
ecuaciones, ecuacion (3.1), se convierten en
~a ~x = 0 ,

~b ~x = 0 ,

~c ~x = 0 .

(3.2)

Estas tres ecuaciones vectoriales tienen la interpretacion geometrica obvia que ~x es ortogonal
a ~a, ~b, ~c. Si el volumen sustentado por ~a, ~b, ~c dado por el determinante (o el producto escalar
triple)


a1 a2 a3


(3.3)
D3 = (~a ~b) ~c = det(~a, ~b, ~c) = b1 b2 b3 ,
c1 c2 c3
1

Este captulo est


a basado en el tercer captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.

95

CAPITULO 3. DETERMINANTES Y MATRICES.

96

no es cero, claramente solo existe la solucion trivial ~x = 0.


Vice-versa, si el anterior determinante de coeficientes se anula, uno de los vectores columna
es una combinacion lineal de otros dos. Supongamos que ~c esta en el plano que sustenta ~a, ~b,
i.e., la tercera ecuacion es una combinacion lineal de las primeras dos y no es independiente.
Luego ~x es ortogonal a ese plano tal que ~x ~a ~b. Ya que las ecuaciones homogeneas pueden
ser multiplicadas por n
umeros arbitrarios, solamente las relaciones de xi son relevantes, para
lo cual obtenemos razones de determinantes de 2 2
x1
(a2 b3 a3 b2 )
=
,
x3
(a1 b2 a2 b1 )
(3.4)
(a1 b3 a3 b1 )
x2
=
,
x3
(a1 b2 a2 b1 )
a partir de los componentes del producto cruz ~a ~b.

3.1.2.

Ecuaciones lineales no homog


eneas.

El caso mas simple es de dos ecuaciones con dos incognitas


a1 x 1 + a2 x 2 = a3 ,
b1 x 1 + b2 x 2 = b3 ,

(3.5)

puede ser reducido al caso previo embebiendolo en un espacio tridimensional con una solucion
vectorial ~x = (x1 , x2 , 1) y el vector fila ~a = (a1 , a2 , a3 ), ~b = (b1 , b2 , b3 ). Como antes, ecuacion
(3.5) en notacion vectorial, ~a ~x = 0 y ~b ~x = 0, implica que ~x ~a ~b tal que el analogo de la
ecuacion (3.4) se mantiene. Para que esto se aplique, la tercera componente de ~a ~b debiera
ser distinta de cero, i.e., a1 b2 a2 b1 6= 0, ya que la tercera componente de ~x es 1 6= 0. Esto
produce que los xi tengan la forma


a3 a2


b3 b2
(a3 b2 a2 b3 )

x1 =
=
(3.6a)

(a1 b2 a2 b1 )
a
a
1
2


b1 b2


a1 a3


b1 b3
(a1 b3 a3 b1 )
.
x2 =
=
(3.6b)

(a1 b2 a2 b1 )
a
a
1
2


b1 b2
El determinante

en el numerador de x1 (x2 ) es obtenido a partir del determinante de
 los

a1 a2
a
3
reemplazando el primer vector columna (segundo) por el vector
coeficientes
b1 b2
b3
del lado inhomogeneo de la ecuacion (3.5).
Estas soluciones de ecuacion lineal en terminos de determinantes pueden ser generalizados
a n dimensiones. El determinante es un arreglo cuadrado


a1 a2 . . . an


b1 b2 . . . b n
,
Dn =
(3.7)

c1 c2 . . . cn
...

3.1. DETERMINANTES.

97

de n
umeros (o funciones), los coeficientes de n ecuaciones lineales en nuestro caso. El n
umero n
de columnas (y de filas) en el arreglo es llamado algunas veces como el orden del determinante.
La generalizacion de la expansion del producto escalar triple (de vectores fila de las tres
ecuaciones lineales) tiende al siguiente valor del determinante Dn en n dimensiones,
X
Dn =
ijk... ai bj ck . . . ,
(3.8)
i,j,k,...

donde ijk . . . ., analogo al smbolo de Levi-Civita de la seccion (2.2), es +1 para permutaciones pares (ijk . . .) de (123 . . . n), 1 para permutaciones impares, y cero si alg
un ndice es
repetido.
Especficamente, para el determinante de orden tres D3 de las ecuaciones (3.3) y (3.8)
tenemos
D3 = +a1 b2 c3 a1 b3 c2 a2 b1 c3 + a2 b3 c1 + a3 b1 c2 a3 b2 c1 .
(3.9)
El determinante de orden tres, entonces, es esta particular combinacion lineal de productos. Cada producto contiene uno y solo un elemento de cada fila y de cada columna. Cada
producto es sumado si las columnas (los ndices) representan una permutacion par de (123) y
restando si corresponde a una permutacion impar. La ecuacion (3.3) puede ser considerada la
notacion abreviada de la ecuacion (3.9). El n
umero de terminos en la suma (ecuacion (3.8))
es 24 para un determinante de cuarto orden, en general, n! para un determinante de orden
n. A causa de la aparicion de signos negativos en la ecuacion (3.9) puede haber cancelaciones. Debido a esto es muy posible que un determinante de elementos grandes tenga un valor
peque
no.
Algunas propiedades u
tiles de los determinantes de n-esimo orden siguen de la ecuacion
(3.8). De nuevo, para ser especfico, la ecuacion (3.9) para determinantes de orden tres es
usada para ilustrar estas propiedades.

3.1.3.

Desarrollo Laplaciano por las menores.

La ecuacion (3.9) puede ser reescrita


D3 = a1 (b2 c3 b3 c2 ) a2 (b1 c3 b3 c1 ) + a3 (b1 c2 b2 c1 )






b2 b3
b1 b3
b1 b2





.
= a1
a2
+ a3
c2 c3
c1 c3
c1 c2

(3.10)

En general, el determinante de orden n-esimo puede ser expandido como una combinacion
lineal de productos de elementos de alguna fila (o columna) por determinantes de orden
(n 1) formados suprimiendo la fila y la columna del determinante original en el cual aparece
el elemento. Este arreglo reducido (2 2 en el ejemplo especfico) es llamado una menor. Si
el elemento esta en la i-esima fila y en la j-esima columna, el signo asociado con el producto
es (1)i+j . La menor con este signo es llamada el cofactor. Si Mij es usado para designar
la menor formada omitiendo la fila i y la columna j y cij es el cofactor correspondiente, la
ecuacion (3.10) se convierte en
D3 =

3
X
j=1

j+1

(1)

aj M1j =

3
X
j=1

aj c1j .

(3.11)

CAPITULO 3. DETERMINANTES Y MATRICES.

98

En este caso, expandiendo a lo largo de la primera fila, tenemos i = 1 y la suma es sobre j,


las columnas.
Esta expansion de Laplace puede ser usada para sacar ventaja en la evaluacion de determinantes de alto orden en la cual muchos de los elementos son nulos. Por ejemplo, para
encontrar el valor del determinante


0 1 0 0


1 0 0 0
,
D =
(3.12)

0 0 0 1
0 0 1 0
expandimos a traves de la fila superior para obtener


1 0 0


0 1 .
D = (1)1+2 (1) 0
0 1 0
Nuevamente, expandimos a traves de la fila superior para obtener




0
1

D = (1) (1)1+1 (1)
1 0


0 1

=1.
=
1 0

(3.13)

(3.14)

Este determinante D (ecuacion (3.12)) esta formado de una de las matrices de Dirac que
aparecen en la teora relativista del electron de Dirac.

3.1.4.

Antisimetra.

El determinante cambia de signo si cualquier par de filas son intercambiadas o si cualquier


par de columnas son intercambiadas. Esto deriva del caracter par-impar del Levi-Civita en
la ecuacion (3.8) o explcitamente de la forma de las ecuaciones (3.9) y (3.10).
Esta propiedad fue usada en la seccion 2.9 para desarrollar una combinacion lineal totalmente antisimetrica. Esto es tambien frecuentemente usado en Mecanica Cuantica en la
construccion de una funcion de onda de muchas partculas que, en concordancia con el principio de exclusion de Pauli, sera antisimetrica bajo el intercambio de cualquier par de partculas
identicas con spin 1/2 (electrones, protones, neutrones, etc).
Como un caso especial de antisimetra, cualquier determinante con dos filas iguales o dos
columnas iguales es nulo.
Si cada elemento en una fila o de una columna es cero el determinante completo es nulo.
Si cada elemento en una fila o de una columna es multiplicado por una constante, el
determinante completo es multiplicado por esa constante.
El valor de un determinante es inalterado si un m
ultiplo de una fila es a
nadido (columna
por columna) a otra fila o si un m
ultiplo de una columna es a
nadido (fila por fila) a otra
columna. Tenemos



a1 a2 a3 a1 + ka2 a2 a3



b1 b2 b3 = b1 + kb2 b2 b3 .
(3.15)



c1 c2 c3 c1 + kc2 c2 c3

3.1. DETERMINANTES.

99

Usando el desarrollo de Laplace sobre el lado derecho, obtenemos







a2 a2 a3
a1 + ka2 a2 a3 a1 a2 a3





b1 + kb2 b2 b3 = b1 b2 b3 + k b2 b2 b3 ,





c1 + kc2 c2 c3 c1 c2 c3
c2 c2 c3

(3.16)

entonces por la propiedad de antisimetra, el segundo determinante del lado derecho se anula,
verificando la ecuacion (3.15).
En un caso especial, un determinante es igual a cero si cualquier par de filas o columnas
son proporcionales.
Volviendo a las ecuaciones homogeneas (3.1) y multiplicando el determinante de los coeficientes por x1 , y luego sumando x2 veces la segunda columna y x3 veces la tercera columna,
podemos establecer directamente la condicion para la presencia de una solucion no trivial
para la ecuacion (3.1):





a1 a2 a3 x1 a1 a2 a3 a1 x1 + a2 x2 + a3 x3 a2 a3 0 a2 a3





x1 b1 b2 b3 = x1 b1 b2 b3 = b1 x1 + b2 x2 + b3 x3 b2 b3 = 0 b2 b3 = 0 . (3.17)
c1 c2 c3 x1 c1 c2 c3 c1 x1 + c2 x2 + c3 x3 c2 c3 0 c2 c3
Por lo tanto x1 (x2 y x3 ) deberan ser cero a menos que el determinante de los coeficientes
sea nulo. Podemos mostrar que si el determinante de los coeficientes es nulo, existe realmente
una solucion no trivial.
Si nuestras ecuaciones lineales son inhomogeneas, esto es, como en la ecuacion (3.5) o si
los ceros en el lado derecho de la ecuacion (3.1) fueran reemplazados por a4 , b4 , c4 , respectivamente, y con de la ecuacion (3.17) obtenemos,

a4

b4

c4
x1 =
a1

b1

c1

a2
b2
c2
a2
b2
c2


a3
b3
c3
,
a3
b3
c3

(3.18)

la cual generaliza la ecuacion (3.6a) a la dimension n = 3. Si el determinante de los coeficientes


se anula, el conjunto de ecuaciones no homogeneas no tiene solucion a menos que el numerador
tambien se anule. En este caso las soluciones pueden existir pero ellas no son u
nicas.
Para el trabajo numerico, esta solucion del determinante, ecuacion (3.18), es enormemente
difcil de manejar. El determinante puede involucrar grandes n
umeros con signos alternados,
y en la resta de dos n
umeros grandes el error relativo podra remontarse al punto que hace
que el resultado no tenga valor. Tambien, aunque el metodo del determinante es ilustrado
aqu con tres ecuaciones y tres incognitas, podramos facilmente tener 200 ecuaciones con
200 incognitas las cuales, involucran sobre 200! terminos por determinante, lo que pone un
desafo muy alto a la velocidad computacional. Debera haber una mejor manera. En efecto,
hay una mejor manera. Una de las mejores es un proceso a menudo llamado eliminacion de
Gauss. Para ilustrar esta tecnica, consideremos el siguiente conjunto de ecuaciones.

100

CAPITULO 3. DETERMINANTES Y MATRICES.

Resolvamos
3x + 2y + z = 11
2x + 3y + z = 13
x + y + 4z = 12 .

(3.19)

El determinante de la ecuacion lineal no homogenea ecuacion (3.19) es 18, por lo tanto existe
una solucion.
Por conveniencia y para una optima precision numerica, las ecuaciones son reordenadas
tal que los coeficientes mayores corran a lo largo de la diagonal principal (superior izquierda
a inferior derecha). Esto ha sido hecho en el conjunto anterior.
La tecnica de Gauss es usar la primera ecuacion para eliminar la primera incognita x de
las ecuaciones restantes. Entonces la (nueva) segunda ecuacion es usada para eliminar y de la
u
ltima ecuacion. En general, descendemos poco a poco a traves del conjunto de ecuaciones,
y luego, con una incognita determinada, avanzamos gradualmente para resolver cada una de
las otras incognitas en sucesion.
Dividiendo cada fila por su coeficiente inicial, vemos que las ecuaciones (3.19) se convierten
en
1
11
2
x+ y+ z =
3
3
3
3
1
13
x+ y+ z =
2
2
2
x + y + 4z = 12 .

(3.20)

Ahora, usando la primera ecuacion, eliminamos x de la segunda y la tercera:


2
1
11
x+ y+ z =
3
3
3
5
1
17
y+ z=
6
6
6
11
25
1
y+ z=
,
3
3
3

(3.21)

2
1
11
x+ y+ z =
3
3
3
1
17
y+ z=
5
5
y + 11z = 25 .

(3.22)

Repitiendo la tecnica, usamos la segunda ecuacion para eliminar y a partir de la tercera


ecuacion:
2
1
11
x+ y+ z =
3
3
3
1
17
y+ z=
5
5
54z = 108 ,

(3.23)

3.1. DETERMINANTES.

101

o
z=2.
Finalmente, al reemplazar obtenemos
y+

1
17
2=
,
5
5

o
y=3.
Luego con z e y determinados,
x+

1
11
2
3+ 2=
,
3
3
3

y
x=1.
La tecnica podra parecer no tan elegante como la ecuacion (3.17), pero esta bien adaptada
a los computadores modernos y es mas rapida que el tiempo gastado con los determinantes.
Esta tecnica de Gauss puede ser usada para convertir un determinante en una forma
triangular:


a1 b 1 c 1


D = 0 b2 c2 ,
0 0 c3
para un determinante de tercer orden cuyos elementos no deben ser confundidos con aquellos
en la ecuacion (3.3). De esta forma D = a1 b2 c3 . Para un determinante de n-esimo orden la
evaluacion de una forma triangular requiere solamente n 1 multiplicaciones comparadas
con las n! requeridas para el caso general.
Una variacion de esta eliminacion progresiva es conocida como eliminacion de GaussJordan. Comenzamos como si fuera el procedimiento de Gauss, pero cada nueva ecuacion
considerada es usada para eliminar una variable de todas las otras ecuaciones, no solo
de aquellas bajo ella. Si hemos usado esta eliminacion de Gauss-Jordan, la ecuacion (3.23)
llegara a ser
1
7
x+ z =
5
5
1
17
y+ z=
5
5
z=2,

(3.24)

usando la segunda ecuacion de la ecuacion (3.22) para eliminar y de ambas, la primera y


tercera ecuaciones. Entonces la tercera ecuacion de la ecuacion (3.24) es usada para eliminar
z de la primera y segunda ecuaciones, dando
x=1
y=3
z=2,

(3.25)

CAPITULO 3. DETERMINANTES Y MATRICES.

102

Volveremos a la tecnica de Gauss-Jordan cuando invertimos matrices.


Otra tecnica disponible para el uso computacional es la tecnica de Gauss-Seidel. Cada
tecnica tiene sus ventajas y desventajas. Los metodos de Gauss y Gauss-Jordan pueden tener
problemas de precision para un determinante grande. Esto tambien es un problema para la
inversion de matrices. El metodo de Gauss-Seidel, como un metodo iterativo, puede tener
problemas de convergencia.

3.2.

Matrices.

El analisis matricial pertenece al algebra lineal ya que las matrices son operadores o
mapas lineales tales como rotaciones. Supongamos, por ejemplo, que rotamos las coordenadas
cartesianas de un espacio bidimensional tal que, en notacion vectorial,
 0 


P
x1
x1 cos + x2 sen
=
=
.
(3.26)
0
j aij xj
x2
x1 sen + x2 cos
Etiquetamos el arreglo de elementos aij por la matriz A de 2 2 consistente de dos filas y
dos columnas, ademas, consideramos los vectores x, x0 como matrices de 2 1. Tomemos la
suma de productos de la ecuacion (3.26) como una definicion de la multiplicacion matricial
que involucra el producto escalar de cada uno de los vectores fila de A con el vector columna
x. As en notacion matricial la ecuacion (3.26) se convierte en
x0 = Ax .

(3.27)

Para extender esta definicion de multiplicacion de una matriz por un vector columna a el
producto de dos matrices de 2 2, consideremos la rotacion de coordenada seguida por una
segunda rotacion dada por la matriz B tal que
x00 = Bx0 .

(3.28)

Por componentes
!
x00i =

X
j

bij x0j =

X
j

bij

ajk xk =

X X
k

bij ajk

xk .

(3.29)

La suma sobre j es la multiplicacion matricial definiendo una matriz C = BA tal que


X
x00i =
cik xk ,
(3.30)
k

o x00 = Cx en notacion matricial. Nuevamente, esta definicion involucra el producto escalar


de vectores filas de B con vectores columnas de A. Esta definicion de multiplicacion matricial
se puede generalizar a matrices de m n y es u
til, realmente su utilidad es la justificacion de
su existencia. La interpretacion fsica es que el producto matricial de dos matrices, BA, es la
rotacion que conduce del sistema sin prima directamente al sistema de coordenadas con doble
prima. Antes de pasar a la definicion formal, podemos notar que el operador A esta descrito

3.2. MATRICES.

103

por sus efectos sobre las coordenadas o vectores base. Los elementos de matriz aij constituyen
una representacion del operador, una representacion que depende de la eleccion de una base.
El caso especial donde una matriz tiene una columna y n filas es llamada un vector
columna, |xi, con componentes xi , i = 1, 2, . . . ., n. Si A es una matriz de n n, |xi es un
vector columna de n componentes, A|xi esta definida como en la ecuacion (3.27) y (3.26).
Similarmente, si una matriz tiene una fila y n columnas, es llamada un vector fila, hx| con
componentes xi , i = 1, 2, . . . .n. Claramente, hx| resulta de |xi por el intercambio de filas

y columnas, una operacion matricial llamada transposici


on, y para cualquier matriz A, A
2
ik = Aki . Transponiendo un
es llamada la transpuesta de A con elementos de matriz (A)
producto de matrices AB se invierte el orden y da BA; similarmente, A|xi se transpone como
hx|A. El producto escalar toma la forma hx|yi.

3.2.1.

Definiciones b
asicas.

Una matriz puede ser definida como una arreglo cuadrado o rectangular de n
umeros
o funciones que obedecen ciertas leyes. Esto es una extension perfectamente logica de los
conceptos matematicos familiares. En aritmetica tratamos con n
umeros simples. En la teora
de variable compleja tratamos con pares ordenados de n
umeros, (1, 2) = 1 + 2i, en el cual
el orden es importante. Ahora consideremos n
umeros (o funciones) ordenados en un arreglo
cuadrado o rectangular. Por conveniencia en el trabajo posterior los n
umeros son distinguidos
por dos subndices, el primero indica la fila (horizontal) y el segundo indica la columna
(vertical) en la cual aparecen los n
umeros. Por ejemplo, a13 es el elemento de matriz en la
primera fila y tercera columna. De este modo, si A es una matriz con m filas y n columnas,

a11
a21

A = ..
.

a12
a22
..
.

..
.

a1n
a2n

.. .
.

(3.31)

am1 am2 amn

Quizas el hecho mas importante a notar es que los elementos aij no estan combinados unos
con otros. Una matriz no es un determinante. Es un arreglo ordenado de n
umeros, no un
simple n
umero.
La matriz A hasta ahora es solo un arreglo de n
umeros que tiene las propiedades que le
asignamos. Literalmente, esto significa construir una nueva forma de matematicas. Postulamos que las matrices A, B y C, con elementos aij , bij y cij , respectivamente, combinan de
acuerdo a las siguientes reglas.

3.2.2.

Igualdad.

Matriz A = Matriz B si y solo si aij = bij para todos los valores de i y j. Esto, por
supuesto, requiere que A y B sean cada uno arreglos de m n (m filas y n columnas).
2

Algunos textos denotan A transpuesta por AT .

CAPITULO 3. DETERMINANTES Y MATRICES.

104

3.2.3.

Suma.

A + B = C si y solo si aij + bij = cij para todos los valores de i y j, los elementos se
combinan de acuerdo a las leyes del algebra lineal (o aritmetica si hay n
umeros simples). Esto
significa que A + B = B + A, la conmutacion. Tambien, se satisface la ley de asociatividad
(A + B) + C = A + (B + C). Si todos los elementos son cero, la matriz es llamada matriz nula
y se denota por 0. Para todo A,
A+0=0+A=A ,
con

0 0
0 0

.. . . .. .
. .
.
0 0 0

0
0

0 = ..
.

(3.32)

Tal que las matrices de m n forman un espacio lineal con respecto a la suma y la resta.

3.2.4.

Multiplicaci
on (por un escalar).

La multiplicacion de la matriz A por una cantidad escalar esta definida como


A = (A) ,

(3.33)

en la cual los elementos de A son aij ; esto es, cada elemento de la matriz A es multiplicado
por el factor escalar. Esto contrasta con el comportamiento de los determinantes en el cual el
factor multiplica solamente una columna o una fila y no cada elemento del determinante.
Una consecuencia de esta multiplicacion por escalar es que
A = A ,

3.2.5.

conmutacion.

(3.34)

Multiplicaci
on (multiplicaci
on matricial) producto interno.
AB = C si y solo si cij =

aik bkj .

(3.35)

Los elementos i y j de C estan formados como un producto escalar de la i-esima fila de A con
el j-esima columna de B (el cual demanda que A tenga el mismo n
umero de columnas como
B tiene de filas). El ndice mudo k toma los valores 1, 2, . . . , n en sucesion, esto es,
cij = ai1 b1j + ai2 b2j + ai3 b3j ,

(3.36)

para n = 3. Obviamente, el ndice mudo k puede ser reemplazado por alg


un otro smbolo
que no este en uso sin alterar la ecuacion (3.35). Quizas la situacion puede ser aclarada
afirmando que la ecuacion (3.35) defina el metodo de combinar ciertas matrices. Este metodo
de combinacion, es llamado multiplicacion matricial. Para ilustrar, consideremos dos matrices
(matrices de Pauli)




0 1
1 0
1 =
y 3 =
.
(3.37)
1 0
0 1

3.2. MATRICES.

105

El elemento 11 del producto, (1 3 )11 esta dado por la suma de productos de elementos de la
primera fila de 1 con el correspondiente elemento de la primera columna de 3 :
(1 3 )ij = 1i1 31j + 1i2 32j .
Una aplicacion directa de la multiplicacion de matrices muestra que


0 1
3 1 =
1 0

(3.38)

y por la ecuacion (3.35)


1 3 = 3 1 .

(3.39)

Excepto en casos especiales, la multiplicacion de matrices no es conmutativa.3


AB 6= BA .

(3.40)

Sin embargo, de la definicion de multiplicacion de matrices podemos mostrar que se mantiene


una ley de asociatividad, (AB)C = A(BC). Tambien se satisface una ley de distributividad,
A(B + C) = AB + AC. La matriz unidad tiene elementos ij , la delta de Kronecker, y la
propiedad de que 1A = A1 = A para toda A,

1 0 0
0 1 0

1 = .. .. . . .. .
(3.41)
. .
. .
0 0 1
Notamos que es posible que el producto de dos matrices sea una matriz nula sin ser ninguna
de ellas una matriz nula. Por ejemplo, si




1 1
1 0
A=
y B=
.
0 0
1 0
AB = 0. Esto difiere de la multiplicacion de n
umeros reales o complejos los cuales forman un
campo, mientras que las estructura aditiva y multiplicativa de las matrices es llamada anillo
por los matematicos.
Si A es una matriz de n n con determinante |A| =
6 0, tiene una u
nica inversa A1 , tal que
AA1 = A1 A = 1. Si B es tambien una matriz de n n con inversa B1 , luego el producto
de AB tiene la inversa
(AB)1 = B1 A1 ,
(3.42)
ya que ABB1 A1 = 1 = B1 A1 AB.
El teorema del producto dice que el determinante de un producto, |AB|, de dos matrices
de n n, A y B, es igual al producto de los determinantes, |AkB|, uniendo matrices con
determinantes. El anterior teorema puede ser facilmente probado.
3

La perdida de la propiedad conmutativa es descrita por el conmutador [A, B] = AB BA. La no conmutatividad se expresa por [A, B] 6= 0.

CAPITULO 3. DETERMINANTES Y MATRICES.

106

3.2.6.

Producto directo.

Un segundo procedimiento para multiplicar matrices es conocido como el tensor producto


directo o de Kronecker. Si A es una matriz de m m y B una matriz de n n, el producto
directo es
AB=C .

(3.43)

C es una matriz de mn mn con elementos


C = Aij Bkl ,

(3.44)

con
= n(i 1) + k ,

= n(j 1) + l .

Por ejemplo, si A y B ambas son matrices de 2 2,





a11 B a12 B
AB=
a21 B a22 B

a11 b11 a11 b12


a11 b21 a11 b22
=
a21 b11 a21 b12
a21 b21 a21 b22

a12 b11
a12 b21
a22 b11
a22 b21

a12 b12
a12 b22
.
a22 b12
a22 b22

(3.45)

El producto directo es asociativo, pero no conmutativo. Como un ejemplo de producto


directo, estan las matrices de Dirac las que pueden ser desarrolladas como productos directos
de las matrices de Pauli y de la matriz unidad. Otros ejemplos aparecen en la construccion
de grupos, en teora de grupos y en espacios de Hilbert, en teora cuantica.
El producto directo definido aqu es algunas veces llamado la forma standard y es denotado por . Otros tres tipos de producto directo de matrices existen como posibilidades o
curiosidades matematicas pero tienen muy poca o ninguna aplicacion en Fsica Matematica.

3.2.7.

Matrices diagonales.

Un tipo especial muy importante de matrices es la matriz cuadrada, en la cual todos los
elementos no diagonales son cero. Especficamente, si una matriz A de 3 3 es diagonal,

a11 0
0
A = 0 a22 0 .
0
0 a33
Una interpretacion fsica de tales matrices diagonales y el metodo de reducir matrices a esta
forma diagonal son considerados en la seccion 3.5. Aqu nos limitamos a notar la importante
propiedad de que la multiplicacion de matrices es conmutativa, AB = BA, si A y B son cada
una diagonales.

3.2. MATRICES.

3.2.8.

107

Traza.

En cualquier matriz cuadrada la suma de los elementos diagonales es llamada la traza.


Claramente la traza es una operacion lineal:
traza(A B) = traza(A) traza(B) .
Una de sus interesantes y u
tiles propiedades es que la traza de un producto de dos matrices
A y B es independiente del orden de la multiplicacion:
X
XX
traza(AB) =
(AB)ii =
aij bji
i

XX
i

bji aij =

(BA)jj

(3.46)

= traza(BA) .
Esto se mantiene a
un cuando AB 6= BA. La ecuacion (3.46) significa que la traza de cualquier
conmutador, [A, B] = AB BA, es cero. De la ecuacion (3.46) obtenemos
traza(ABC) = traza(BCA) = traza(CAB) ,
lo cual muestra que la traza es invariante bajo permutaciones cclicas de la matriz en un
producto.
Para una matriz simetrica o para una matriz Hermtica compleja, la traza es la suma,
y el determinante es el producto, de sus autovalores, y ambos son coeficientes del polinomio caracterstico. La traza tendra una funcion similar para las matrices, como la tiene la
ortogonalidad para los vectores y funciones.
En terminos de tensores, la traza es una contraccion y como el tensor de segundo orden
contrado es un escalar (invariante), esta tambien lo es.
Las matrices son usadas ampliamente para representar los elementos de grupos. La traza
de las matrices representando los elementos de grupo es conocido, en teora de grupos, como
el car
acter. La razon de este nombre especial y especial atencion es que mientras las matrices
pueden variar la traza o caracter, este se mantiene invariante.

3.2.9.

Inversi
on de matriz.

Al comienzo de esta seccion la matriz A fue presentada como la representacion de un


operador que (linealmente) transforma los ejes de coordenadas. Una rotacion podra ser un
ejemplo de tal transformacion lineal. Ahora buscaremos la transformacion inversa A1 que
restablecera los ejes de coordenadas originales. Esto significa, ya sea como una ecuacion
matricial o de operador4 ,
AA1 = A1 A = 1 .
(3.47)
Podemos probar (ejercicio) que
a1
ij =
4

Cji
,
|A|

Aqu y a traves de todo el captulo nuestras matrices tienen rango finito.

(3.48)

CAPITULO 3. DETERMINANTES Y MATRICES.

108

con la suposicion que el determinante de A (|A|) 6= 0. Si es cero, etiquetaremos a A como singular. No existe la inversa. Como fue explicado en la seccion 3.1, esta forma con determinante
es totalmente inapropiado para el trabajo numerico con grandes matrices.
Hay una amplia variedad de tecnicas alternativas. Una de las mejores y mas com
unmente
usada es la tecnica de inversion de matrices de Gauss-Jordan. La teora esta basada en los
resultados que muestran que existen matrices ML tales que el producto ML A sera A, pero
con:
a. una fila multiplicada por una constante, o
b. una fila reemplazada por la fila original menos un m
ultiplo de otra fila, o
c. filas intercambiadas.
Otras matrices MR operando sobre la derecha de (AMR ) pueden llevar a las mismas
operaciones sobre las columnas de A.
Esto significa que las filas y las columnas de la matriz pueden ser alteradas (por multiplicacion de matrices) como si estuvieramos tratando con determinantes, as podemos aplicar
las tecnicas de eliminacion de Gauss-Jordan a los elementos de matriz. Por tanto existe una
matriz ML (o MR ) tal que5
ML A = 1 .
(3.49)
La ML = A1 . Determinamos ML realizando las operaciones de eliminacion identicas sobre
la matriz unidad. Luego
ML 1 = ML .
(3.50)
Para clarificar esto consideremos un ejemplo especfico.
Deseamos invertir la matriz

3 2 1
A = 2 3 1 .
1 1 4
Por conveniencia escribimos A y 1
una de ellas

3
2
1

lado a lado realizando operaciones identicas sobre cada

2 1
1 0 0
0 1 0 .
3 1
(3.52)
1 4
0 0 1

Para ser sistematicos, multiplicamos cada fila


2 1
1 3 3
3 1
1 2 2
1 1 4

para obtener ak1 = 1,


1

0
0
3
1
0 2 0 .
0 0 1

Restando la primera fila de la segunda y tercera, obtenemos


2 1
1

1 3 3
0
0
3
5 1
1 1
0 6 6
3 2 0 .
0 13 11
13 0 1
3
5

Recordemos que det(A) 6= 0.

(3.51)

(3.53)

(3.54)

3.3. MATRICES ORTOGONALES.

109

Entonces dividimos la segunda fila (de ambas matrices) por 5/6 y sustrayendola 2/3 veces
de la primera fila, y 1/3 veces de la tercera fila. Los resultados para ambas matrices son

1 0

0 1
0 0

1
5
1
5
18
5

3
5

2
5
15

25 0

3
0 .
5
15 1

(3.55)

Dividimos la tercera fila (de ambas matrices) por 18/5. Luego como u
ltimo paso 1/5 veces
la tercera fila es sustrada de cada una de las dos primeras filas (de ambas matrices). Nuestro
par final es

11

7
1
1 0 0

8
18
18

7
1

.
(3.56)
0 1 0
18 11
18
18
1
1
5
0 0 1
18 18 18
El chequeo es multiplicar la original A por la calculada A1 para ver si realmente obtuvimos
la matriz unidad 1.
Como con la solucion de Gauss-Jordan de ecuaciones algebraicas simultaneas, esta tecnica
esta bien adaptada para computadores.

3.3.

Matrices ortogonales.

El espacio de tres dimensiones ordinario puede ser descrito con las coordenadas cartesianas
(x1 , x2 , x3 ). Consideremos un segundo conjunto de coordenadas cartesianas (x01 , x02 , x03 ) cuyo
origen y sentido coinciden con el primero pero su orientacion es diferente (figura 3.1).
x3

x2

x3

x1

x2

x1

x1
x1

Figura 3.1: Sistemas de coordenadas cartesianos.

Podemos decir que el sistema de ejes prima ha sido rotado respecto al inicial sistema de
coordenadas sin prima. Ya que esta rotacion es una operacion lineal, esperamos una ecuacion
matricial que relacione la base con primas con la sin primas.

CAPITULO 3. DETERMINANTES Y MATRICES.

110

3.3.1.

Cosenos directores.

Un vector unitario a lo largo del eje x01 (


x01 ) puede ser resuelto en sus componentes a lo
largo de los ejes x1 , x2 y x3 por las usuales tecnicas de proyeccion.
x01 = x1 cos(x01 , x1 ) + x2 cos(x02 , x2 ) + x3 cos(x03 , x3 ) .

(3.57)

Por conveniencia estos cosenos, los cuales son los cosenos directores, son etiquetados
cos(x01 , x1 ) = x01 x1 = a11 ,
cos(x01 , x2 ) = x01 x2 = a12 ,
cos(x01 , x3 ) = x01 x3 = a13 .

(3.58)

Continuando, tenemos
cos(x02 , x1 ) = x02 x1 = a21 ,
cos(x02 , x2 ) = x02 x2 = a22 ,

(a21 6= a12 ) ,
y as sucesivamente.

(3.59)

Ahora la ecuacion (3.57) puede ser reescrita como


x01 = x1 a11 + x2 a12 + x3 a13
y tambien
x02 = x1 a21 + x2 a22 + x3 a23
x03 = x1 a31 + x2 a32 + x3 a33 .

(3.60)

Tambien podemos ir de la otra manera resolviendo x1 , x2 y x3 en sus componentes en el


sistema con primas. Entonces
x1 = x01 a11 + x02 a21 + x03 a31
x2 = x01 a12 + x02 a22 + x03 a32
x3 = x01 a13 + x02 a23 + x03 a33 .

3.3.2.

(3.61)

Aplicaciones a vectores.

Si consideramos un vector cuyas componentes son funciones de la posicion, entonces


V~ (x1 , x2 , x3 ) = x1 V1 + x2 V2 + x3 V3
V~ 0 (x01 , x02 , x03 ) = x01 V10 + x02 V20 + x03 V30 ,

(3.62)

ya que el punto puede ser dado en cualquiera de los dos sistema de coordenadas (x1 , x2 , x3 )
o (x01 , x02 , x03 ). Notemos que V~ = V~ 0 , es decir, son geometricamente el mismo vector (pero con
diferentes componentes). Si los ejes de coordenadas son rotados, el vector se mantiene fijo.
Usando la ecuacion (3.60) para eliminar x1 , x2 , x3 , podemos separar la ecuacion (3.62) en
tres ecuaciones escalares
V10 = a11 V1 + a12 V2 + a13 V3
V20 = a21 V1 + a22 V2 + a23 V3
V30 = a31 V1 + a32 V2 + a33 V3 .

(3.63)

3.3. MATRICES ORTOGONALES.

111

En particular, estas relaciones se mantendran para las coordenadas de un punto (x1 , x2 , x3 )


y (x01 , x02 , x03 ), dando
x01 = a11 x1 + a12 x2 + a13 x3
x02 = a21 x1 + a22 x2 + a23 x3
x03 = a31 x1 + a32 x2 + a33 x3 ,

(3.64)

y similarmente para las coordenadas primas. En esta notacion el conjunto de tres ecuaciones
(3.64) pueden ser escritas como
3
X
0
xi =
aij xj ,
(3.65)
j=1

donde i toma los valores 1, 2 y 3 y el resultado son tres ecuaciones separadas.


De la ecuacion anterior podemos derivar interesante informacion sobre los aij , los cuales
describen la orientacion del sistema de coordenadas (x01 , x02 , x03 ) relativa al sistema (x1 , x2 , x3 ).
La distancia respecto al origen es la misma en ambos sistemas. Elevando al cuadrado,
X
X 2
x2i =
x0i
i

!
=

X X

aik xk

(3.66)

Esto solo puede ser cierto para todos los puntos si y solo si
X
aij aik = jk ,
j, k = 1, 2, 3 .

(3.67)

X
j,k

aij xj

!
X

xj xk

aij aik .

La ecuacion (3.67) es una consecuencia de requerir que la longitud permanezca constante


(invariante) bajo rotaciones del sistema de coordenadas, y es llamada condici
on de ortogonalidad. Los aij escritos como una matriz A, forman una matriz ortogonal. Notemos que la
ecuacion (3.67) no es una multiplicacion matricial.
En notacion matricial la ecuacion (3.65) llega a ser
|x0 i = A|xi .

3.3.3.

(3.68)

Condiciones de ortogonalidad, caso bidimensional.

Podemos ganar un mejor entendimiento de los aij y de la condicion de ortogonalidad


considerando con detalle rotaciones en dos dimensiones. Esto lo podemos pensar como un
sistema tridimensional con los ejes x1 y x2 rotados respecto a x3 . De la figura 3.2,
x01 = x1 cos + x2 sen ,
x02 = x1 sen + x2 cos .

(3.69)

CAPITULO 3. DETERMINANTES Y MATRICES.

112

x2

x2
x2

n
e
s

x2

os
c
x1

x1

x1
x1

Figura 3.2: Sistemas de coordenadas rotados en dos dimensiones.

Por lo tanto por la ecuacion (3.68)



A=

cos sen
sen cos


.

(3.70)

Notemos que A se reduce a la matriz unidad para = 0. La rotacion cero significa que nada
ha cambiado. Es claro a partir de la figura 3.2 que
a11 = cos = cos(x01 , x1 ) ,


a12 = sen = cos
= cos(x01 , x2 ) ,
2

y as sucesivamente,

(3.71)

de este modo identificamos los elementos de matriz aij con los cosenos directores. La ecuacion
(3.67), la condicion de ortogonalidad, llega a ser
sen2 + cos2 = 1 ,
sen cos sen cos = 0 .

(3.72)

La extension a tres dimensiones (rotacion de las coordenadas a lo largo del eje z en un angulo
en el sentido contrario a los punteros del reloj) es simplemente

cos sen 0
A = sen cos 0 .
0
0
1

(3.73)

El a33 = 1 expresa el hecho que x03 = x3 , ya que la rotacion ha sido en torno al eje x3 . Los
ceros garantizan que x01 y x02 no dependen de x3 y que x03 no depende de x1 y x2 . En un
lenguaje mas sofisticado, x1 y x2 se extienden sobre un subespacio invariante, mientras que
x3 forma un subespacio invariante por s solo. La forma de A es reducible. La ecuacion (3.73)
da una posible descomposicion.

3.3. MATRICES ORTOGONALES.

3.3.4.

113

Matriz inversa A1 .

Volviendo a la matriz de transformacion general A, la matriz inversa A1 es definida tal


que
|xi = A1 |x0 i .
(3.74)
Esto es, A1 describe el inverso de la rotacion dada por A y retorna el sistema de coordenadas
a su posicion original. Simbolicamente, las ecuaciones (3.68) y (3.74) combinadas dan
|xi = A1 A|xi ,

(3.75)

A1 A = 1 ,

(3.76)

AA1 = 1 .

(3.77)

y ya que |xi es arbitrario,


la matriz unidad. Similarmente,
usando las ecuaciones (3.68) y (3.74) y eliminando |x0 i en vez de |xi.

3.3.5.

Matriz transpuesta, A.

Podemos determinar los elementos de nuestra postulada matriz inversa A1 empleando


la condicion de ortogonalidad. La ecuacion (3.67), la condicion de ortogonalidad, no esta de
acuerdo con nuestra definicion de multiplicacion matricial, pero la podemos definir de acuerdo
tal que
a una nueva matriz A
a
ji = aij .
(3.78)
La ecuacion (3.67) llega a ser
=1.
AA

(3.79)

Esta
es una reformulacion de la condicion de ortogonalidad y puede ser tomada como una
definicion de ortogonalidad. Multiplicando (3.79) por A1 por la derecha y usando la ecuacion
(3.77), tenemos
= A1 .
A
(3.80)
Este importante resultado, que la inversa es igual a la transpuesta, se mantiene solo para
matrices ortogonales y puede ser tomado como una reformulacion de la condicion de ortogonalidad.
Multiplicando la ecuacion (3.80) por A por la izquierda, obtenemos
=1,
AA

(3.81)

aji aki = jk ,

(3.82)

o
X
i

lo cual es otra forma mas de la condicion de ortogonalidad.

CAPITULO 3. DETERMINANTES Y MATRICES.

114

Resumiendo, la condicion de ortogonalidad puede ser enunciada de varias maneras equivalentes:


X
aij aik = jk
(3.83a)
i

aji aki = jk

(3.83b)

= AA
=1
AA
= A1 .
A

(3.83c)

(3.83d)

Cualquiera de estas relaciones es condicion necesaria y suficiente para que A sea ortogonal.
Es posible ahora ver y entender porque el nombre ortogonal es apropiado para estas
matrices. Tenemos la forma general

a11 a12 a13


A = a21 a22 a23 ,
a31 a32 a33
de una matriz de cosenos directores en la cual aij es el coseno del angulo entre x0i y xj . Por lo
tanto, a11 , a12 , a13 , son los cosenos directores de x01 relativo a x1 , x2 , x3 . Estos tres elementos
de A definen una unidad de longitud a lo largo de x01 , esto es, un vector unitario x01 ,
x01 = x1 a11 + x2 a12 + x3 a13 .
La relacion de ortogonalidad (ecuacion (3.82)) es simplemente una declaracion que los vectores unitarios x01 , x02 , y x03 son mutuamente perpendiculares u ortogonales. Nuestra matriz
de transformacion ortogonal, A, transforma un sistema ortogonal en un segundo sistema
ortogonal de coordenadas por rotacion y/o reflexion.

3.3.6.

Angulos
de Euler.

Nuestra matriz de transformacion A contiene nueve cosenos directores. Claramente, solo


tres de ellos son independientes, la ecuacion (3.67) provee seis restricciones. De otra manera,
uno puede decir que necesita dos parametros ( y en coordenadas polares esfericas) para
fijar el eje de rotacion, mas uno adicional para describir la magnitud de la rotacion en torno a
ese eje. En la formulacion Lagrangiana de la mecanica es necesario describir A usando alg
un
conjunto de tres parametros independientes mas que los redundantes cosenos directores. La
eleccion usual de estos parametros es la de los angulos de Euler.6
000
000
El objetivo es describir la orientacion de un sistema final rotado (x000
1 , x2 , x3 ) relativo a
alg
un sistema de coordenadas inicial (x1 , x2 , x3 ). El sistema final es desarrollado en tres pasos,
cada paso involucra una rotacion descrita por un angulo de Euler (figura 3.3):
1. Los ejes x01 , x02 , y x03 son rotados respecto al eje x3 en un angulo en el sentido horario
relativo a x1 , x2 y x3 . (Los ejes x3 y x03 coinciden.)
6

No hay una u
nica manera de definir los
angulos de Euler. Usamos la eleccion usual en Mecanica Cuantica
de momento angular.

3.3. MATRICES ORTOGONALES.

115

x 3= x3

x
3 = x
3

x 3= x3
x
3

x1
x1

x2

x 3= x3

x2

x1

x
1

x2

x=
2 x
2

x
1

(b)

(a)

x
2
x=
x
2
2
x
1

(c)

Figura 3.3: (a) Rotacion respecto al eje x3 en un angulo ; (b) Rotacion respecto a un eje x02
en un angulo ; (c) Rotacion respecto a un eje x003 en un angulo .

2. los ejes x001 , x002 , y x003 son rotados respecto al eje x02 en un angulo en el sentido horario
relativo a x01 , x02 y x03 . (Los ejes x02 y x002 coinciden.)
3. la tercera y final rotacion es en un angulo en sentido horario respecto al eje x003 produ000
000
00
000
ciendo el sistema (x000
1 , x2 , x3 ). (Los ejes x3 y x3 coinciden.)
Las tres matrices que describen estas rotaciones son:

cos sen

Rz () = sen cos
0
0

0
0 ,
1

(3.84)

exactamente como en la ecuacion (3.73),

cos 0 sen
1
0
Ry () = 0
sen 0 cos

(3.85)

cos sen 0
Rz () = sen cos 0 .
0
0
1

(3.86)

La rotacion total es descrita por el producto matricial triple,


A(, , ) = Rz ()Ry ()Rz () .

(3.87)

Notemos el orden: Rz () opera primero, luego Ry (), y finalmente Rz (). La multiplicacion


da

cos cos cos sen sen


cos cos sen sen cos cos sen
sen sen .
A = sen cos cos cos sen sen cos sen + cos cos
sen cos
sen sen
cos
(3.88)

CAPITULO 3. DETERMINANTES Y MATRICES.

116

Comparando A(aij ) con A(, , ), elemento por elemento, nos produce los cosenos directores
en terminos de los angulos de Euler.

3.3.7.

Propiedades de simetra.

Nuestra descripcion matricial conduce al grupo de rotaciones SO(3) en el espacio tridimensional R3 , y la descripcion en terminos de angulos de Euler de las rotaciones forman una
base para desarrollar el grupo de rotaciones. Las rotaciones pueden tambien ser descritas por
el grupo unitario SU (2) en el espacio bidimensional C2 .
La matriz transpuesta es u
til en la discusion de las propiedades de simetra. Si
,
A=A

aij = aji ,

(3.89)

aij = aji ,

(3.90)

la matriz es llamada simetrica, mientras que si


,
A = A

es llamada antisimetrica. Los elementos de la diagonal son nulos. Es facil mostrar que cualquier matriz cuadrada puede ser escrita como la suma de una matriz simetrica y una antisimetrica. Consideremos la identidad
i
h
i
1h
+ 1 AA
.
A+A
(3.91)
A=
2
2
es claramente simetrica, mientras que A A
es claramente antisimetrica. Esta es la
A+A
analoga matricial a la ecuacion tensorial (2.68).
Hasta ahora hemos interpretado las matrices ortogonales como rotaciones del sistema de

coordenadas. Estas
cambian las componentes de un vector fijo. Sin embargo, una matriz ortogonal A puede ser interpretada igualmente bien como una rotacion del vector en la direccion
opuesta (figura 3.4).

r
y

r 1= A r

y
x

Figura 3.4: Vector fijo con coordenadas rotadas.


Estas dos posibilidades, (1) rotar el vector manteniendo la base fija y (2) rotar la base
(en el sentido opuesto) manteniendo el vector fijo.

3.4. MATRICES HERMITICAS, MATRICES UNITARIAS.

117

Supongamos que interpretamos la matriz A como rotar un vector ~r en una nueva posicion
~r1 , i.e., en un particular sistema de coordenadas tenemos la relacion
~r1 = A~r .

(3.92)

Ahora rotemos las coordenadas aplicando una matriz B, la cual rota (x, y, z) en (x0 , y 0 , z 0 ),
~r 01 = B~r1 = BA~r = (A~r)0
= BA(B1 B)~r

(3.93)

= (BAB1 )B~r = (BAB1 )~r 0 .


B~r1 es justo ~r1 0 en el nuevo sistema de coordenadas con una interpretacion similar se mantiene
para B~r. Ya que en este nuevo sistema (B~r) es rotado a la posicion (B~r1 ) por la matriz BAB1 .
B~r1 = (BAB1 ) B~r

~r 01 = A0
~r 0 .
En el nuevo sistema las coordenadas han sido rotadas por la matriz B, A tiene la forma A0 ,
en la cual
A0 = BAB1 .
(3.94)
A0 opera en el espacio x0 , y 0 , z 0 como A opera en el espacio x, y, z.
La transformacion definida por la ecuacion (3.94) con B cualquier matriz, no necesariamente ortogonal, es conocida como trasformacion de similaridad. Por componentes la ecuacion
(3.94) llega a ser
X
bik akl (B1 )lj .
(3.95)
a0ij =
k,l

Ahora si B es ortogonal,
lj = bjl ,
(B1 )lj = (B)

(3.96)

y tenemos
a0ij =

bik bjl akl .

(3.97)

k,l

La matriz A es la representacion de un mapeo lineal en un sistema de coordenadas dado


o base. Pero hay direcciones asociadas con A, ejes cristalinos, ejes de simetra en un solido
rotando y etc. tal que la representacion depende de la base. La transformacion de similaridad
muestra exactamente como la representacion cambia con un cambio de base.

3.4.
3.4.1.

Matrices Hermticas, matrices unitarias.


Definiciones.

Hasta aqu hemos generalmente supuesto que nuestro espacio vectorial es un espacio real
y que los elementos de las matrices (la representacion de los operadores lineales) son reales.
Para muchos calculos en Fsica Clasica los elementos de matriz reales seran suficientes. Sin

CAPITULO 3. DETERMINANTES Y MATRICES.

118

embargo, en Mecanica Cuantica las variables complejas son inevitables por la forma de las
reglas de conmutacion basicas (o la ecuacion tiempo dependiente de Schodinger). Con esto
en mente, generalizamos al caso de matrices con elementos complejos. Para manejar estos
elementos, definamos algunas propiedades.
1. Compleja conjugada, A ,
formada por tomar los complejos conjugados (i i) de
cada elemento, donde i = 1.
2. Adjunta, A , formada por transponer A ,
f = A
.
A = A

(3.98)

3. Matriz hermtica: La matriz es etiquetada como hermtica (o autoadjunta) si


A = A .

(3.99)

y las matrices hermticas reales son matrices reales y


Si A es real, entonces A = A,
simetricas. En Mecanica Cuantica las matrices son hermticas o unitarias.
4. Matriz unitaria: La matriz U es etiquetada como unitaria si
U = U1 .

(3.100)

tal que las matrices reales unitarias son matrices


Si U es real, entonces U1 = U,

ortogonales. Este
representa una generalizacion del concepto de matriz ortogonal.
5. (AB) = B A , (AB) = B A .
Si los elementos son complejos, a la Fsica casi siempre le interesan las matrices adjuntas,
hermticas y unitarias. Las matrices unitarias son especialmente importantes en Mecanica
Cuantica porque ellas dejan el largo de un vector (complejo) inalterado, analoga a la operacion
de una matriz ortogonal sobre un vector real. Una importante excepcion a este interes en las
matrices unitarias es el grupo de matrices de Lorentz.
En un espacio n-dimensional complejo el cuadrado del largo de P
un punto x P
= (x1 , x2 , . . . , xn ),

o el cuadrado de su distancia al origen, es definido como x x = i xi xi = i | xi |2 . Si una


trasformacion de coordenadas y = Ux deja la distancia inalterada, entonces x x = y y =
(Ux) Ux = x U Ux. Ya que x es arbitrario concluimos que U U = 1n , i.e., U es una matriz
unitaria de nn. Si x0 = Ax es un mapeo lineal, entonces su matriz en las nuevas coordenadas
llega a ser una transformacion unitaria (analogo de una de similaridad)
A0 = UAU ,
porque Ux0 = y 0 = UAx = UAU1 y = UAU y.

3.4. MATRICES HERMITICAS, MATRICES UNITARIAS.

3.4.2.

119

Matrices de Pauli y de Dirac.

El conjunto de tres matrices de Pauli de 2 2 i






0 1
0 i
1 =
, 2 =
,
1 0
i 0


3 =


1 0
,
0 1

fueron introducidas por W. Pauli para describir una partcula de spin


no relativista. Se puede demostrar que las satisfacen
i j + j i = 2ij 12 ,
i j = ik ,
(i )2 = 12 ,

1
2

(3.101)

en Mecanica Cuantica

anticonmutacion
permutacion cclica de los ndices

(3.102)
(3.103)
(3.104)

donde 12 es la matriz unidad de 22. El vector ~ /2, con componentes i , satisface las mismas
reglas de conmutacion
[i , j ] i j j i = 2iijk k ,
(3.105)
~
que el momento angular L.
Las tres matrices de Pauli ~ y la matriz unitaria forman un conjunto completo tal que
cualquier matriz de 2 2 M puede ser expandida como
M = m0 1 + m1 1 + m2 2 + m3 3 = m0 1 + m
~ ~ ,

(3.106)

donde los mi son constantes. Usando i2 = 1 y tr(i ) = 0 nosotros obtenemos a partir de la


ecuacion (3.106) los coeficientes mi de la expansion formando las trazas,
2m0 = tr(M) ,

2mi = tr(M i ) ,

i = 1, 2, 3 .

(3.107)

En 1927 P.A.M. Dirac extendio este formalismo para partculas de spin 21 moviendose a
velocidades cercana a la de la luz tales como electrones. Para incluir la relatividad especial
su punto de partida es la ecuacion de Einstein para la energa E 2 = p~ 2 c2 + m2 c4 en vez de
la energa cinetica y potencial no relativista E = p~ 2 /2m + V . La clave para la ecuacion de
Dirac es factorizar
E 2 p~ 2 c2 = E 2 (c~ p~)2 = (E c~ p~)(E + c~ p~) = m2 c4 ,

(3.108)

usando la identidad matricial en 2 2


(c~ p~)2 = p~ 2 12 .

(3.109)

La matriz unidad de 2 2 12 no es escrita explcitamente en la ecuacion (3.108) y (3.109).


Podemos presentar las matrices 0 y para factorizar E 2 p~ 2 c2 directamente,
(0 E c~ p~)2 = 02 E 2 + 2 c2 (~ p~)2 Ec~ p~(0 + 0 ) = E 2 p~ 2 c2 = m2 c4 . (3.110)
Si reconocemos
0 E c~ p~ = p = (0 , ~ ) (E, c~p) ,

(3.111)

CAPITULO 3. DETERMINANTES Y MATRICES.

120

como el producto escalar de dos cuadrivectores y p , entonces la ecuacion (3.110) con


p2 = p p = E 2 p~ 2 c2 puede ser vista como una generalizacion cuadrivectorial de la ecuacion
(3.109). Claramente, para que la ecuacion (3.110) mantenga las condiciones
02 = 1 = 2 ,

0 + 0 = 0 ,

(3.112)

debe satisfacerse que las cuatro matrices anticonmuten, justo como las tres matrices de
Pauli. Ya que estas u
ltimas son un conjunto completo de matrices anticonmutantes de 2 2,
la condicion (3.112) no puede satisfacerse para matrices de 22, pero ella puede ser satisfecha
para matrices de 4 4

1 0 0
0


0 1 0
0
12 0
0

=
,
0 = =
0 12
0 0 1 0
0 0 0 1

(3.113)
0
0 0 1


0
0 12
0 1 0

=
0 1 0 0 = 12 0 .
1 0 0 0
Alternativamente, el vector de matrices de 4 4


0 ~
=
= ~ = 1 ~ ,
~ 0

(3.114)

puede obtenerse como el producto directo en el mismo sentido de la seccion 3.2 de las matrices
de 2 2 de Pauli. De la misma manera, 0 = 3 12 y 14 = 12 12 .
Resumiendo el tratamiento no relativista de una partcula de spin 21 , produce matrices de
4 4, mientras que las partculas no relativistas de spin 21 son descritas por las matrices de
Pauli de 2 2.

3.5.

Diagonalizaci
on de matrices.

3.5.1.

Momento de la matriz de inercia.

En muchos problemas en Fsica que involucran matrices reales simetricas o complejas


hermticas es deseable llevar a cabo una real transformacion de similaridad ortogonal o una
transformacion unitaria (correspondiente a una rotacion del sistema de coordenadas) para
reducir la matriz a una forma diagonal, con todos los elementos no diagonales nulos. Un
ejemplo particularmente directo de esto es la matriz del momento de inercia I de un cuerpo
~ tenemos
rgido. A partir de la definicion del momento angular L
~ = I~ ,
L

(3.115)

donde
~ viene a ser la velocidad angular. La matriz de inercia I tiene elementos diagonales
X
(3.116)
Ixx =
mi (ri2 x2i ) , y as sucesivamante,
i

DE MATRICES.
3.5. DIAGONALIZACION

121

el subndice i referencia la masa mi localizada en ~ri = (xi , yi , zi ). Para las componentes no


diagonales tenemos
X
mi xi yi = Iyx .
Ixy =
(3.117)
i

Por inspeccion la matriz I es simetrica. Tambien, ya que I aparece en una ecuacion fsica de la
forma (3.115), la cual se mantiene para todas las orientaciones del sistema de coordenadas,
esta puede ser considerada un tensor (regla del cociente).
La clave ahora es la orientacion de los ejes (a lo largo de un cuerpo fijo) tal que Ixy y
los otros elementos no diagonales desaparezcan. Como una consecuencia de esta orientacion
y una indicacion de ella, si la velocidad angular esta a lo largo de tales realineados ejes, la
velocidad angular y el momento angular seran paralelos.

3.5.2.

Autovectores y autovalores (eigenvector y eigenvalues).

Es quizas instructivo considerar un cuadro geometrico asociado a este problema. Si la


matriz de inercia I es multiplicada a cada lado por un vector unitario cuya direccion es
variable, n
= (, , ), entonces en notacion de Dirac
h
n|I|
ni = I ,

(3.118)

donde I es el momento de inercia respecto a la direccion n


y es un n
umero positivo (escalar).
Llevando a cabo la multiplicacion, obtenemos
I = Ixx 2 + Iyy 2 + Izz 2 + 2Ixy + 2Ixz + 2Iyz .

(3.119)

Si introducimos

~n = = (n1 , n2 , n3 ) ,
(3.120)
I
la cual es variable en direccion y magnitud, entonces la ecuacion (3.119) llega a ser
1 = Ixx n21 + Iyy n22 + Izz n23 + 2Ixy n1 n2 + 2Ixz n1 n3 + 2Iyz n2 n3 ,

(3.121)

una forma cuadratica positiva, la cual debe ser un elipsoide (ver figura 3.5).
A partir de la geometra analtica es sabido que los ejes de coordenadas pueden ser rotados
para coincidir con los ejes de nuestro elipsoide. En muchos casos elementales, especialmente
cuando hay simetra, estos nuevos ejes, llamados ejes principales, pueden ser encontrados por
inspeccion. Ahora nosotros procederemos a desarrollar un metodo general de hallazgo de los
elementos diagonales y los ejes principales.
es la correspondiente matriz ortogonal real tal que ~n0 = R~n, o |n0 i = R|ni, en
Si R1 = R
la notacion de Dirac son las nuevas coordenadas; luego, obtenemos usando hn0 |R = hn| en la
ecuacion (3.121)
0 i = I 0 n0 2 + I 0 n0 2 + I 0 n0 2 ,
hn|I|ni = hn0 |RIR|n
1 1
2 2
3 3

(3.122)
0

donde los Ii0 > 0 son los momentos de inercia principales. La matriz de inercia I en la ecuacion
(3.122) es diagonal en las nuevas coordenadas,
0

I1 0 0
= 0 I0 0 .
I0 = R1R
(3.123)
2
0
0 0 I3

CAPITULO 3. DETERMINANTES Y MATRICES.

122

n3

n3

n1

n2
n1
n2

Figura 3.5: Elipsoide del momento de inercia.

Si reescribimos la ecuacion (3.123) usando R1 = R


0 = IR
,
RI

(3.124)

= (~v1 , ~v2 , ~v3 ) compuesto de tres vectores columnas, entonces la ecuacion (3.124)
y tomando R
se separa en tres ecuaciones de autovalores
I~vi = Ii0~vi ,

i = 1, 2, 3 ,

(3.125)

con autovalores Ii0 y autovectores ~vi . Como estas ecuaciones son lineales y homogeneas (para
un i fijo), por la seccion 3.1 los determinantes tienen que anularse:


I11 I10

I
I
12
13


0
I21
I22 I2
I23 = 0 .
(3.126)

0
I31
I32
I33 I3
Reemplazando los autovalores Ii0 por una variable veces la matriz unidad 1, podramos
reescribir la ecuacion (3.125) como
(I 1)|vi = 0 ,

(3.127)

|I 1| = 0 ,

(3.128)

cuyo determinante
es un polinomio c
ubico en ; sus tres races, por supuesto, son los Ii0 . Sustituyendo una raz
de regreso en la ecuacion (3.125), podemos encontrar los correspondientes autovectores. La
ecuacion (3.126) (o la (3.128)) es conocida como la ecuaci
on secular. El mismo tratamiento
se aplica a una matriz simetrica real I, excepto que sus autovalores no necesitan ser todos positivos. Tambien, la condicion de ortogonalidad en la ecuacion (3.83a-3.83d) para R dice que,
en terminos geometricos, los autovectores ~vi son vectores mutuamente ortogonales unitarios.
Por cierto ellos forman las nuevas coordenadas del sistema. El hecho que cualquier par de

DE MATRICES.
3.5. DIAGONALIZACION

123

autovectores ~vi , ~vj son ortogonales si Ii0 6= Ij0 se deduce de la ecuacion (3.125) en conjuncion
con la simetra de I multiplicando con ~vi y ~vj , respectivamente,
hvj |I|vi i = Ii0 hvj |vi i = hvi |I|vj i = Ij0 hvj |vi i .

(3.129)

Ya que Ii0 6= Ij0 y la ecuacion (3.129) implica que (Ii0 Ij0 ) ~vi ~vj = 0, por lo tanto ~vi ~vj = 0.

3.5.3.

Matrices hermticas.

Para espacios vectoriales complejos las matrices unitarias y hermticas juegan el mismo
rol como las matrices ortogonales y simetricas sobre los espacios vectoriales reales, respectivamente. Primero, generalicemos el importante teorema acerca de los elementos diagonales
y los ejes principales para la ecuacion de autovalores
A|ri = |ri .

(3.130)

Ahora mostramos que si A es una matriz hermtica, sus autovalores son reales y sus
autovectores ortogonales.
Sean i y j dos autovalores y |ri i y |rj i, los correspondientes autovectores de A, una
matriz hermtica. Entonces
A|ri i = i |ri i
A|rj i = j |rj i .

(3.131)
(3.132)

La ecuacion (3.131) es multiplicada por |rj i


hrj |A|ri i = i hrj |ri i .

(3.133)

La ecuacion (3.132) es multiplicada por |ri i para dar


hri |A|rj i = j hri |rj i .

(3.134)

Tomando la adjunta conjugada de esta ecuacion, tenemos


hrj |A |ri i = j hrj |ri i

(3.135)

hrj |A|ri i = j hrj |ri i ,

(3.136)

o
ya que A es hermtica. Sustrayendo la ecuacion (3.136) de la ecuacion (3.133), obtenemos
(i j )hrj |ri i = 0 .

(3.137)

Este es un resultado general para todas las combinaciones posibles de i y j. Primero, sea
j = i. Luego la ecuacion (3.137) se convierte en
(i i ) hri |ri i = 0 .

(3.138)

Ya que hri |ri i = 0 sera una solucion trivial de la ecuacion (3.138), concluimos que
i = i ,

(3.139)

CAPITULO 3. DETERMINANTES Y MATRICES.

124
es decir, i es real, para todo i.
Segundo, para i 6= j y i 6= j ,

(i j ) hri |rj i = 0

(3.140)

hri |rj i = 0

(3.141)

o
lo cual significa que los autovectores de distintos autovalores son ortogonales, la ecuacion
(3.141) es la generalizacion de ortogonalidad en este espacio complejo.
Si i = j (caso degenerado), hri | no es automaticamente ortogonal a |rj i, pero podra
hacerse ortogonal. Consideremos el problema fsico de la matriz del momento de inercia
nuevamente. Si xi es un eje de simetra rotacional, entonces encontraremos que 2 = 3 . Los
autovectores |r2 i y |r3 i son cada uno perpendiculares al eje de simetra, |r1 i, pero ellos yacen
en alguna parte en el plano perpendicular a |r1 i; esto es, alguna combinacion lineal de |r2 i y
|r3 i es tambien un autovector. Considere (a2 |r2 i + a3 |r3 i) con a2 y a3 constantes. Entonces
A(a2 |r2 i + a3 |r3 i) = a2 2 |r2 i + a3 3 |r3 i
= 2 (a2 |r2 i + a3 |r3 i) ,

(3.142)

como es esperado, para x1 un eje de simetra rotacional. Por lo tanto, si |r1 i y |r2 i son
fijos, |r3 i, puede simplemente escogerse yaciendo en el plano perpendicular a |r1 i y tambien
perpendicular a |r2 i. Un metodo general para ortogonalizar soluciones conocido como proceso
de Gram-Schmidt, es aplicado a funciones mas adelante.
El conjunto de n autovectores ortogonales de nuestra matriz hermtica de n n forma un
conjunto completo, generando el espacio de n dimensiones complejo. Este hecho es u
til en un
calculo variacional de los autovalores. Los autovalores y los autovectores no estan limitados
a las matrices hermticas. Todas las matrices tienen autovalores y autovectores. Por ejemplo,
la matriz T de poblacion estocastica satisface una ecuacion de autovalores
TP~equilibrio = P~equilibrio ,
con = 1. Sin embargo, solamente las matrices hermticas tienen todos los autovectores
ortogonales y todos sus autovalores reales.

3.5.4.

Matrices antihermticas.

Ocasionalmente, en Mecanica Cuantica encontramos matrices antihermticas:


A = A .
Siguiendo el analisis de la primera porcion de esta seccion, podemos mostrar que
a. Los autovalores son imaginarios puros (o cero).
b. Los autovectores correspondientes a autovalores distintos son ortogonales.

DE MATRICES.
3.5. DIAGONALIZACION

125

La matriz R formada de los autovectores normalizados es unitaria. Esta propiedad antihermtica es preservada bajo transformaciones unitarias.
Ejemplo: Autovalores y autovectores de una
Sea

A= 1
0
La ecuacion secular es

matriz real simetrica.

1 0
0 0 .
0 0

(3.143)



1

0


1 0 = 0 ,


0
0

(3.144)

(2 1) = 0 ,

(3.145)

o
expandiendolo por las menores. Las races son = 1, 0, 1. Para encontrar el autovector
correspondiente a = 1, sustituimos este valor de vuelta en la ecuacion de autovalores,
ecuacion (3.130),

1
0
x
0
1 0 y = 0 .
(3.146)
0
0
z
0
Con = 1, esto produce
x+y =0 ,

z=0.

(3.147)

Dentro de un factor de escala arbitrario, y un signo arbitrario (factor de fase), hr1 | = (1, 1, 0).
Notemos que (para el real |ri en el espacio ordinario) el autovector define una lnea en el
espacio. El sentido positivo o negativo no esta determinado. Esta indeterminacion puede
ser entendida si notamos que la ecuacion (3.130) es homogenea en |ri. Por conveniencia
requeriremos que los autovectores esten normalizados a la unidad, hr1 |r1 i = 1. Con esta
eleccion de signo


1
1
(3.148)
hr1 | = r~1 = , , 0 ,
2
2
esta fijo. Para = 0, la ecuacion (3.130) produce
y=0,

x=0,

(3.149)

hr2 | o ~r2 = (0, 0, 1) es un autovector aceptable. Finalmente, para = 1, tenemos


x + y = 0 ,
z=0,
o


hr3 | = r~3 =


1 1
, ,0 .
2 2

(3.150)

(3.151)

La ortogonalidad de ~r1 , ~r2 y ~r3 , correspondientes a los tres autovalores distintos, puede ser
facilmente verificada.

CAPITULO 3. DETERMINANTES Y MATRICES.

126
Ejemplo: Autovalores degenerados.
Consideremos

La ecuacion secular es

1 0 0
A = 0 0 1 .
0 1 0

(3.152)



1 0

0


0
=0,

1


0
1

(3.153)

o
(1 )(2 1) = 0 ,

= 1, 1, 1 ,

(3.154)

un caso degenerado. Si = 1, la ecuacion de autovalores (3.130) produce


2x = 0 ,

y+z =0 .

(3.155)

Un autovector normalizado adecuado es



hr1 | = r~1 =

1
1
0, ,
2
2


.

(3.156)

para = 1, tenemos
y + z = 0 .

(3.157)

Cualquier autovector que satisface la ecuacion (3.157) es perpendicular a ~r1 . Tenemos infinito
n
umero de opciones. Tomemos una eleccion posible tomando


1 1
hr2 | = r~2 = 0, ,
,
(3.158)
2 2
la cual claramente satisface la ecuacion (3.157). Entonces ~r3 debe ser perpendicular a ~r1 y
puede ser escogido perpendicular a ~r2 por7
~r3 = ~r1 ~r2 = (1, 0, 0) .

3.5.5.

(3.159)

Funciones de matrices.

Polinomios con uno o mas argumentos matriciales estan bien definidos y ocurren a menudo. Series de potencias de una matriz tambien pueden estar definidas para dar la convergencia
de la serie para cada uno de los elementos de matriz. Por ejemplo, si A es cualquier matriz
de n n, entonces la serie de potencia
exp(A) =
sen(A) =

X
Ai
i=0

i!

(1)i

A2i+1
,
(2i + 1)!

(3.160b)

(1)i

A2i
,
(2i)!

(3.160c)

i=0

cos(A) =

X
i=0

(3.160a)

El uso del producto cruz es limitado a tres dimensiones.

3.6. MATRICES NORMALES.

127

son matrices de n n bien definidas. Para todas las matrices de Pauli k la identidad de
Euler para real y k =1, 2 o 3
exp(ik ) = 12 cos() + ik sen() ,

(3.161)

sale a partir de colectar las potencias pares e impares en series separadas usando k2 = 1.
Para las matrices de Dirac ij de 4 4 con ( ij )2 = 1, si j 6= k = 1, 2 o 3, obtenemos de
manera similar (sin escribir las obvias matrices 14 nunca mas)
exp(i jk ) = cos() + i jk sen() ,

(3.162)

exp(i 0k ) = cosh() + i 0k senh() ,

(3.163)

mientras
manteniendo real porque (i 0k )2 = 1 para k = 1, 2 o 3.
Para una matriz hermtica A hay una matriz unitaria U que la diagonaliza, es decir,
UAU = [a1 , a2 , . . . , an ]. Entonces la f
ormula de la traza
det(exp(A)) = exp(tr(A)) .

(3.164)

Puede ser facilmente demostrado.


Otra importante relacion es la de f
ormula de Baker-Hausdorff
exp(iG)H exp(iG) = H + [iG, H] +

[iG, [iG, H]]


+
2!

(3.165)

lo cual resulta de multiplicar la serie de potencias para exp(iG) y recolectar los terminos de
la misma potencia en iG. Aqu definimos
[G, H] = GH HG
como el conmutador de G con H.

3.6.

Matrices normales.

En la seccion 3.5 nos concentramos principalmente en matrices hermticas o reales simetricas y en el proceso de encontrar autovalores y autovectores. En esta seccion generalizaremos
a matrices normales con matrices hermticas y unitarias como casos especiales. Consideramos
los casos fsicamente importantes como el problema de los modos de vibraciones y el problema
numerico importante de matrices patologicas.
Una matriz normal es una matriz que conmuta con su adjunta,
[A, A ] = 0 .
Ejemplos obvios e importantes son las matrices hermticas y unitarias. Mostraremos que
las matrices normales tienen autovectores ortogonales (ver tabla 3.1). Procederemos en dos
pasos:

CAPITULO 3. DETERMINANTES Y MATRICES.

128

Matriz
Hermtica
Antihermtica
Unitaria
Normal

Autovectores
(para diferentes autovalores)
Real
Ortogonal
Imaginaria puro (o cero)
Ortogonal
Magnitud uno
Ortogonal
Si A tiene autovalor
Ortogonal

A tiene autovalor
A y A tienen los mismos autovectores
Autovalores

Cuadro 3.1:
I. Sea |xi un autovector de A con correspondiente autovalor . Entonces
A|xi = |xi

(3.166)

(A 1)|xi = 0 .

(3.167)

o
Por conveniencia la combinacion A 1 la etiquetamos B. Tomando la adjunta de la ecuacion
(3.167), obtenemos
hx|(A 1) = 0 = hx|B .
(3.168)
Porque
[(A 1), (A 1) ] = [A, A ] = 0 ,
tenemos
[B, B ] = 0 .

(3.169)

La matriz B es tambien normal.


A partir de las ecuaciones (3.167) y (3.168) formamos
hx|B B|xi = 0 .

(3.170)

hx|BB |xi = 0 .

(3.171)

Usando (3.169)
Ahora la ecuacion (3.171) puede ser rescrita como
(B |xi) (B |xi) = 0 .

(3.172)

B |xi = (A 1)|xi = 0 .

(3.173)

As
Vemos que para matrices normales, A tiene los mismos autovectores que A pero los autovalores son los complejos conjugados.
II. Ahora, consideremos mas de un autovector-autovalor, tenemos
A|xi i = i |xi i ,
A|xj i = j |xj i .

(3.174)
(3.175)

3.6. MATRICES NORMALES.

129

Multiplicando la ecuacion (3.175) por la izquierda por hxi | produce


hxi |A|xj i = j hxi |xj i .

(3.176)

Operando sobre el lado izquierdo de la ecuacion (3.176), obtenemos


hxi |A = (A |xi i) .

(3.177)

A partir de la ecuacion (3.173) sabemos que A tiene los mismos autovectores que A pero con
los complejos conjugados de los autovalores
(A |xi i) = (i |xi i) = i hxi | .

(3.178)

Sustituyendo en la ecuacion (3.176) tenemos


i hxi |xj i = j hxi |xj i

(3.179)

(i j )hxi |xj i = 0 .

(3.180)

Esta
es la misma que la ecuacion (3.140).
Para i 6= j
hxi |xj i = 0 .
Los autovectores correspondientes a diferentes autovalores de una matriz normal son ortogonales. Esto significa que una matriz normal puede ser diagonalizada por una transformacion
unitaria. La matriz unitaria requerida puede ser construida a partir de los vectores ortonormales como se mostro en la seccion anterior.
El converso tambien es valido. Si A puede ser diagonalizada por una transformacion
unitaria, entonces A es normal.

3.6.1.

Modos normales de vibraci


on.

Consideremos las vibraciones de un modelo clasico de la molecula de CO2 . Esta


es una
ilustracion de la aplicacion de las tecnicas matriciales a un problema que no parte como
un problema de matrices. Tambien provee un ejemplo de autovalores y autovectores de una
matriz real asimetrica.
Ejemplo: Modos Normales.
Consideremos tres masas sobre el eje x unidas por resortes como muestra la figura 3.6.
Las fuerzas de los resortes se suponen lineales (para peque
nos desplazamientos, ley de Hooke)
y las masas se restringen a mantenerse sobre el eje x.
Usando una coordenada diferente para cada masa, la segunda ley de Newton produce el
conjunto de ecuaciones
k
(x1 x2 )
M
k
k
x2 = (x2 x1 ) (x2 x3 )
M
m
k
x3 = (x3 x2 ) .
M
x1 =

(3.181)

CAPITULO 3. DETERMINANTES Y MATRICES.

130

x1

x2

x3

Figura 3.6: Masa con resortes.

El sistema de masas esta vibrando. Buscamos las frecuencias comunes, tal que todas las

masas vibren en esta misma frecuencia. Estos


son los modos normales. Sea
xi = xi0 eit ,

i = 1, 2, 3.

Substituyendo en la ecuacion (3.181), podemos escribir este conjunto como


k
k

M
M

2k
k

m
m

k
0


x
x1
1
0

x2
= 2

x 2 ,
m



k
M

x3

(3.182)

x3

dividiendo por el factor com


un eit . Tenemos una ecuacion matricial de autovalores con la
matriz asimetrica. La ecuacion secular es


k

k
2

0


M

M


k
2k
k


(3.183)

=0.
2



m
m
m



k
k
2

0

M
M

Esto
conduce a

k
2
M



2k
k
2

=0
m
M

Los autovalores son


2 = 0 ,
todas reales.

k
,
M

k
2k
+
,
M
m

3.6. MATRICES NORMALES.

131

Los correspondientes autovectores son determinados sustituyendo los autovalores de regreso en la ecuacion (3.182) un autovalor a la vez. Para 2 = 0, ecuacion (3.182) produce
x1 x2 = 0
x1 + 2x2 x3 = 0
x2 + x3 = 0 .
Entonces, tenemos
x1 = x2 = x3 .

Esto
describe una translacion pura sin movimiento relativo de las masas y sin vibracion.
k
Para 2 =
, la ecuacion (3.182) produce
M
x1 = x3 ,

x2 = 0 .

(3.184)

Las masas exteriores se mueven en direcciones opuestas. El masa del centro esta estacionaria.
k
2k
+ , las componentes de los autovectores son
Para 2 =
M
M
x2 =

x1 = x3 ,

2M
x1 .
m

Las dos masas exteriores se estan moviendo juntas. La masa del centro se esta moviendo
opuesta a las otras dos. El momento neto es cero.
Cualquier desplazamiento de estas tres masas a lo largo del eje x puede ser descrito como
una combinacion lineal de estos tres tipos de movimiento: translacion mas dos formas de
vibracion.

3.6.2.

Sistemas con condiciones patol


ogicas.

Un sistema lineal de ecuaciones puede ser escrito como


A|xi = |yi o A1 |yi = |xi ,

(3.185)

con A y |yi conocido y |xi desconocido. Podemos encontrar ejemplos en los cuales un peque
no
error en |yi resulta en un gran error en |xi. En este caso la matriz A es llamada de condicion
patologica. Si |xi es el error en |xi y |yi es el error en |yi, entonces los errores relativos
pueden ser escritos como


hx|xi
hx|xi

1/2

hy|yi
K(A)
hy|yi

1/2
.

(3.186)

Aqu K(A), una propiedad de la matriz A, es llamada la condici


on de n
umero. Para A hermtica una forma de la condicion de n
umero es dada por
K(A) =

| |max
.
| |min

(3.187)

CAPITULO 3. DETERMINANTES Y MATRICES.

132

Una forma aproximada debido a Turing es


K(A) = n[Aij ]max [A1
ij ]max ,

(3.188)

en la cual n es el orden de la matriz y [Aij ]max es el maximo elemento en A.


Ejemplo: Una matriz patologica.
Un ejemplo com
un de una matriz con condicion patologica es la matriz de Hilbert, la
matriz de Hilbert de orden 4 es Hij = (i + j 1)1 ,

1 1 1
1

2 3 4

1 1 1 1

H4 = 2 3 4 5 .
(3.189)
1 1 1 1

3 4 5 6
1 1 1 1
4

Los elementos de la matriz inversa (orden n) son dados por


(H1
n )ij =
Para n = 4

(1)i+j
(n + i 1)!(n + j 1)!

.
i + j 1 [(i 1)!(j 1)!]2 (n i)!(n j)!

16 120
240 140
120
1200 2700
1680
.
=
240 2700
6480 4200
140
1680 4200
2800

(3.190)

H1
4

(3.191)

A partir de la ecuacion (3.188) la estimacion de Turing de la condicion de n


umero para H4
llega a ser
KTuring = 4 1 6480
= 2.59 104 .

Esto
es una advertencia de que un error en la entrada puede ser multiplicado por 26000

en el calculo del resultado de salida. Esto


indica que H4 tiene condicion patologica. Si usted
encuentra un sistema altamente patologico tiene un par de alternativas (ademas de abandonar
el problema).
a. Tratar un ataque matematico diferente.
b. Hacer arreglos para llevar mas cifras significativas y, a costa de fuerza bruta, empujar de
principio a fin.

Captulo 4
Teora de grupo.
versi
on final 2.31-0210301

Disciplined judgment about what is neat


and simmetrical and elegant has time and
time again proved an excellent guide to
how nature work.
Murray Gell-Mann

4.1.

Introducci
on.

En mecanica clasica la simetra de un sistema fsico conduce a una ley de conservacion.


La conservacion del momento angular es una consecuencia directa de la simetra rotacional, lo
cual significa invariancia bajo rotaciones espaciales. A principios del siglo pasado, Wigner y
otros comprendieron que la invariancia era el concepto clave en el entendimiento de los nuevos
fenomenos y en el desarrollo de teoras apropiadas. As, en mecanica cuantica los conceptos de
momento angular y spin han llegado a ser a
un mas centrales. Sus generalizaciones, el isospin,
en fsica nuclear y la simetra de sabor en fsica de partculas, son herramientas indispensables
en la construccion teorica y en sus soluciones. Las generalizaciones del concepto de invariancia
de gauge de la electrodinamica clasica para la simetra del isospin conduce a la teora de gauge
electro-debil.
En cada caso el conjunto de estas operaciones de simetra forman un grupo. La teora
de grupo es la herramienta matematica para tratar las invariancias y las simetras. Ella
trae consigo unificacion y formalizacion de principios tales como reflexion espacial, paridad,
momento angular y geometra, que son ampliamente usados por los fsicos.
En geometra el rol fundamental de la teora de grupo fue reconocido hace mucho tiempo
por los matematicos. En geometra euclidiana, la distancia entre dos puntos y el producto
escalar de dos vectores, o metrica, no cambia, bajo rotaciones o translaciones. Estas simetras
son caractersticas de esta geometra. En relatividad especial la metrica, o producto escalar
de cuadrivectores, difiere del de la geometra euclidiana en que ya no es mas positivo definido
y es invariante ante transformaciones de Lorentz.
1

Este captulo est


a basado en el cuarto captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.

133

CAPITULO 4. TEORIA DE GRUPO.

134

Para un cristal el grupo de simetra contiene solo un n


umero finito de rotaciones en valores
discretos del angulo y reflexiones. La teora de tales grupos discretos o finitos, desarrollada
inicialmente como una rama de las matematicas pura, ahora es una u
til herramienta para
el desarrollo de la cristalografa y la fsica de la materia condensada. Haremos una breve
introduccion a ellos. Cuando las rotaciones dependen de un angulo continuo el grupo de
rotaciones tiene un n
umero infinito de elementos. Estudiaremos tales grupos continuos o de
Lie.

4.1.1.

Definici
on de grupo.

Un grupo G puede ser definido como un conjunto de objetos u operaciones, llamados los
elementos de G, que pueden ser combinados o multiplicados para formar un producto bien
definido en G, el cual satisface las siguientes cuatro condiciones.
1. Si a y b son cualquier par de elementos de G, entonces el producto ab es tambien elemento
de G; o (a, b) ab mapea G G sobre G.
2. Esta multiplicacion es asociativa, (ab)c = a(bc).
3. Hay un elemento unidad o neutro I en G tal que Ia = aI = a para cada elemento a de
G.2
4. Debe haber un inverso o recproco de cada elemento a de G, etiquetado a1 , tal que
aa1 = a1 a = I.
Un ejemplo para un grupo es el conjunto de rotaciones de coordenadas en el sentido
contrario al del puntero del reloj,


cos sen
R() =
(4.1)
sen cos
en un angulo del sistema de coordenadas xy a una nueva orientacion. El producto de dos
rotaciones R(1 )R(2 ) es definida como una rotacion, primero en un angulo 2 y entonces
en un angulo 1 . De acuerdo a la ecuacion (3.29), esto corresponde al producto de las dos
matrices ortogonales de 2 2


 

cos 1 sen 1
cos 2 sen 2
cos(1 + 2 ) sen(1 + 2 )
=
, (4.2)
sen 1 cos 1
sen 2 cos 2
sen(1 + 2 ) cos(1 + 2 )
usando las formulas de adicion de funciones trigonometricas. El producto es claramente una
rotacion representada por una matriz ortogonal con un angulo 1 + 2 . El producto es la
multiplicacion asociativa de matrices. Es conmutativo o abeliano porque el orden en el cual
estas rotaciones son realizadas no importa. El inverso de la rotacion con angulo es una
rotacion con angulo . La unidad o neutro corresponde al angulo = 0. El nombre del
grupo es SO(2), si el angulo vara continuamente desde 0 a 2. Claramente, SO(2) tiene
infinitos elementos. La unidad con angulo = 0 y la rotacion con = forman un subgrupo
2

Tambien etiquetan al elemento unidad como E.


4.1. INTRODUCCION.

135

finito. Un subgrupo G0 de un grupo G consiste de elementos de G tal que el producto de


cualquiera de sus elementos esta de nuevo en el subgrupo G0 , i.e., G0 es cerrado bajo la
multiplicacion de G. Si gg 0 g 1 es un elemento de G0 para cualquier g de G y g 0 de G0 ,
entonces G0 es llamado un subgrupo invariante de G.
Las matrices ortogonales n n forman el grupo O(n), y tambien SO(n) si sus determi i = O1 para i = 1 y 2, entonces el producto
nantes son +1 (S por eSpecial). Si O
i
1 1
1

]
O
1 O2 = O2 O1 = O1 O2 = (O1 O2 )

es tambien una matriz ortogonal en SO(n). La inversa es la matriz (ortogonal) transpuesta.


La unidad del grupo es 1n . Una matriz real ortogonal de n n tiene n(n 1)/2 parametros
independientes. Para n = 2 hay solo un parametro: un angulo en la ecuacion (4.1). Para
n = 3, hay tres parametros independientes: los tres angulos de Euler de la seccion 3.3.
De la misma manera, las matrices unitarias de n n forman el grupo U(n), y tambien
SU(n) si sus determinantes son +1. Si Ui = U1
i , entonces
1
1
(U1 U2 ) = U2 U1 = U1
,
2 U1 = (U1 U2 )

tal que el producto es unitario y un elemento de SU(n). Cada matriz unitaria tiene una
inversa, la cual es tambien unitaria.

4.1.2.

Homomorfismo, isomorfismo.

Puede haber una correspondencia entre los elementos de dos grupos (o entre dos representaciones), uno a uno, dos a uno, o muchos a uno. Si esta correspondencia preserva la
multiplicacion del grupo, diremos que los dos grupos son homom
orficos. Una de las mas
importantes correspondencias homomorficas entre el grupo de rotaciones SO(3) y el grupo
de matrices unitarias SU(2) sera desarrollado en la proxima seccion. Si la correspondencia es
uno a uno, y a
un preserva la multiplicacion del grupo,3 entonces los grupos son isom
orficos.
Un ejemplo es las rotaciones de coordenadas a traves de un angulo finito en el sentido
horario respecto al eje z en el espacio tridimensional descrito por

cos sen 0
Rz () = sen cos 0 .
(4.3)
0
0
1
El grupo de rotaciones Rz es isomorfico al grupo de rotaciones en la ecuacion (4.1).

4.1.3.

Representaciones matriciales, reducibles e irreducibles.

La representacion de los elementos de un grupo por matrices es una tecnica muy poderosa
y ha sido casi universalmente adoptada por los fsicos. El uso de matrices no impone restricciones significativas. Puede mostrarse que los elementos de cualquier grupo finito y de grupos
3

Supongamos que los elementos del primer grupo son etiquetados por gi y los elementos del segundo
grupo por hi . Entonces gi hi en una correspondencia uno a uno para todos los valores de i. Si gi gj = gk y
hi hj = hk , entonces gk y hk deben ser los elementos correspondientes del grupo.

CAPITULO 4. TEORIA DE GRUPO.

136

continuos pueden ser representados por matrices. Ejemplos son las rotaciones descritas en la
ecuacion (4.1) y (4.3).
Para ilustrar como las representaciones matriciales surgen a partir de una simetra, consideremos la ecuacion estacionaria de Schrodinger (o alguna otra ecuacion de autovalores tal
como I vi = Ii vi para los momentos principales de inercia de un cuerpo rgido en mecanica
clasica)
H = E .
(4.4)
Supongamos que la ecuacion (4.4) se mantiene invariante bajo la accion de un grupo G de
transformaciones R en G (rotaciones de coordenadas, por ejemplo, para un potencial central
V (r) en el Hamiltoniano H), i.e.,
HR = RHR1 = H .

(4.5)

Ahora tomamos una solucion de la ecuacion (4.4) y la rotamos: R. Entonces R


tiene la misma energa E porque multiplicando la ecuacion (4.4) por R y usando (4.5) produce
RH = E(R) = (RHR1 )R = H(R) .

(4.6)

En otras palabras, todas las soluciones rotadas R son degeneradas en energa o forman lo
que los fsicos llaman un multiplete. Supongamos que este espacio vectorial V de soluciones
transformadas tiene una dimension finita n. Sean 1 , 2 , . . . , n una base. Ya que Rj es un
miembro del multiplete, podemos expandirlo en terminos de esta base
X
Rj =
rjk k .
(4.7)
k

As, cada R en G puede ser asociado a una matriz (rjk ), y este mapeo R (rjk ) es llamada
una representacion de G. Si podemos tomar cualquier elemento de V y por rotaciones con
todos los elementos de R de G transforman en todos los otros elementos de V entonces la
representacion es irreducible. Si todos los elementos de V no son alcanzados, entonces V
se separa en una suma directa de dos o mas subespacios vectoriales, V = V1 V2 . . ., los
cuales son mapeados dentro de ellos mismos por rotacion de sus elementos. En este caso la
representacion es llamada reducible. Entonces podemos encontrar una base en V (i.e., hay
una matriz unitaria U) tal que

r1 0 . . .

U(rjk )U = 0 r2 . . .
(4.8)
.. .. . .
.
. .
para todos los R de G y todas las matrices (rjk ). Aqu r1 , r2 , . . ., son matrices de menor
dimension que (rjk ), las que estan alineadas a lo largo de la diagonal y los 0 son matrices
de ceros. Podemos decir que R ha sido descompuesta en r1 + r2 + . . . en paralelo con V =
V1 V2 . . ..
Las representaciones irreducibles juegan un rol en teora de grupo que es aproximadamente
analogo a los vectores unitarios en el analisis vectorial. Ellas son las representaciones mas
simples, toda otra puede ser construida desde ellas.

4.2. GENERADORES DE GRUPOS CONTINUOS.

4.2.

137

Generadores de grupos continuos.

Un caracterstica de los grupos continuos, conocidos como grupos de Lie, es que los
parametros de un producto de elementos son funciones analticas de los parametros de los
factores. La naturaleza analtica de las funciones nos permite desarrollar el concepto de generador y reduce el estudio del grupo completo a un estudio de los elementos del grupo en
la vecindad del elemento identidad.
La idea esencial de Lie fue el estudio de elementos R en un grupo G que esten infinitesimalmente cercanos a la unidad de G. Consideremos el grupo SO(2) como un ejemplo simple.
Las matrices de rotacion de 2 2 en la ecuacion (4.1) puede ser escrita en forma exponencial
usando la identidad de Euler ecuacion (3.161) como


cos sen
R() =
= 12 cos + i2 sen = exp(i2 ) .
(4.9)
sen cos
A partir de la forma exponencial es obvio que la multiplicacion de estas matrices es equivalente
a la suma de los argumentos
R(2 )R(1 ) = exp(i2 2 ) exp(i2 1 ) = exp(i2 (1 + 2 )) = R(1 + 2 ) .
Por supuesto las rotaciones cercanas a 1 tienen un angulo peque
no 0.
Esto sugiere que busquemos una representacion exponencial
R = exp(iS) ,

0,

(4.10)

para elementos del grupo R G cercanos a la 1. Las transformaciones infinitesimales S son


llamadas los generadores de G. Ellos forman un espacio lineal cuya dimension es el orden
de G porque la multiplicacion de los elementos R del grupo se traduce en la suma de los
generadores S.
Si R no cambia el elemento de volumen, i.e., det(R) = 1, nosotros usamos la ecuacion
(3.164) para ver que
det(R) = exp(tr(ln R)) = exp(itr(S)) = 1
implica que los generadores son de traza nula,
tr(S) = 0 .

(4.11)

Este es el caso para el grupo de rotaciones SO(n) y el grupo unitario SU(n), como veremos
mas adelante.
Si R de G en la ecuacion (4.1) es unitario, entonces S = S es hermtica, lo cual tambien
es el caso para SO(n) y SU(n). Ya que hay un i extra en la ecuacion (4.10).
Expandamos los elementos del grupo
1
Ri = exp(ii Si ) = 1 + ii Si 2i S2i + . . . ,
2
1 2 2
R1
i = exp(ii Si ) = 1 ii Si i Si + . . . ,
2

(4.12)

a segundo orden en el peque


no parametro del grupo i porque los terminos lineales y varios
terminos cuadraticos se cancelan en el producto (figura 4.1)

CAPITULO 4. TEORIA DE GRUPO.

138
1

Rj

Ri
1

Ri

Rj
R ij
Figura 4.1: Ilustracion de la ecuacion (4.13).

1
R1
i Rj Ri Rj = 1 + i j [Sj , Si ] + . . . ,
X
= 1 + i j
ckji Sk + . . . ,

(4.13)

cuando las ecuaciones (4.12) son sustituidas dentro de la ecuacion (4.13). La u


ltima lnea
es debido a que el producto en la ecuacion (4.13) es nuevamente un elemento, Rij , cercano
a la unidad en el grupo G. Por tanto su exponente debe ser una combinacion lineal de los
generadores Sk y sus parametros infinitesimales del grupo tienen que ser proporcionales al
producto i j . Comparando ambas lneas (4.13) encontramos la relacion de clausura de los
generadores del grupo de Lie G,
X
[Si , Sj ] =
ckij Sk
(4.14)
k

Los coeficientes ckij son las constantes de estructura del grupo G. Ya que el conmutador en la
ecuacion (4.14) es antisimetrico en i y en j, tambien lo son las constantes de estructura en
los ndices inferiores,
ckij = ckji .
(4.15)
Si el conmutador en la ecuacion (4.14) es tomado como la regla de multiplicaci
on de los
generadores, vemos que el espacio vectorial de los generadores llega a ser un algebra, el algebra
de Lie G del grupo G. Para SU(l + 1) el algebra de Lie es llamada Al , para SO(2l + 1) es Bl
y para SO(2l) es Dl , donde l = 1, 2, . . . es un entero positivo, esto sera llamado el rango de
grupo de Lie G o de su algebra G.
Finalmente, la identidad de Jacobi se satisface para los dobles conmutadores
[[Si , Sj ], Sk ] + [[Sj , Sk ], Si ] + [[Sk , Si ], Sj ] = 0 ,

(4.16)

lo cual es facilmente verificable usando la definicion de conmutador. Cuando la ecuacion (4.14)


es substituida en (4.16) encontramos otra restriccion sobre las constantes de estructura,
X
m


m
m
cm
ij [Sm , Sk ] + cjk [Sm , Si ] + cki [Sm , Sj ] = 0 .

(4.17)

4.2. GENERADORES DE GRUPOS CONTINUOS.

139

Usando de nuevo la ecuacion (4.14) en la ecuacion (4.17) implica que


X

n
m n
m n
cm
ij cmk Sn + cjk cmi Sn + cki cmj Sn = 0 ,

(4.18)

mn

donde el factor com


un Sn (y la suma sobre n) pueden eliminarse porque los generadores son
linealmente independientes. Por tanto
X

m n
n
m n
(4.19)
cm
ij cmk + cjk cmi + cki cmj = 0 .
m

Las relaciones (4.14), (4.15) y (4.19) forman la base de las algebras de Lie desde la cual los
elementos finitos del grupo de Lie cerca de su unidad puede ser reconstruido.
Volviendo a la ecuacion (4.5), el inverso de R es exactamente R1 = exp(iS). Expandimos HR de acuerdo a la formula de Baker-Haudorff, ecuacion (3.17),
H = HR = exp(iS)H exp(iS) = H + i[S, H] 2

[S, [iS, H]]


+ .
2!

(4.20)

Al simplificar H de la ecuacion (4.20), dividiendo por y haciendo 0. Entonces la


ecuacion (4.20) implica que para cualquier rotacion cercana a 1 en G el conmutador
[S, H] = 0 .

(4.21)

Si S y H son matrices hermticas, la ecuacion (4.21) dice que S y H pueden ser simultaneamente
diagonalizados. Si S y H son operadores diferenciales como el Hamiltoniano y el momento
angular orbital en mecanica cuantica, entonces la ecuacion (4.21) dice que S y H tienen
autofunciones en com
un y que los autovalores degenerados de H pueden ser distinguidos por
los autovalores de los generadores S. Esta, es con mucho, la mas importante aplicacion de
teora de grupos a mecanica cuantica.
A continuacion, estudiaremos los grupos ortogonales y unitarios como ejemplos.

4.2.1.

Grupos de rotaciones SO(2) y SO(3).

Para SO(2) definido por la ecuacion (4.1) hay solo un generador linealmente independiente, 2 y el orden de SO(2) es 1. Obtenemos 2 a partir de diferenciar la ecuacion (4.9) y
evaluarla en cero,





dR()
sen
cos
0 1
i
= i
= i
= 2 .
(4.22)
cos sen =0
1 0
d =0
Para las rotaciones Rz () sobre el eje z descritas
dado por


0
dR()

i
i
=
S
=
z
d =0
0

por la ecuacion (4.3), el generador es

i 0
0 0 ,
0 0

(4.23)

donde el factor extra i es insertado para hacer Sz hermtica. La rotacion Rz () en un angulo


infinitesimal puede ser escrita como
Rz () = 13 + iSz ,

(4.24)

CAPITULO 4. TEORIA DE GRUPO.

140

Una expansion de Maclaurin-Taylor de Rz cerca de la unidad, = 0, con terminos hasta


orden ()2 y los superiores son despreciados. Una rotacion finita puede ser compuesta por
sucesivas rotaciones infinitesimales
Rz (1 + 2 ) = (13 + i1 Sz )(13 + i2 Sz ) .

(4.25)

Sea = /N para N rotaciones, con N . Entonces,


iN
Rz () = lm 13 + i Sz = exp(iSz ) .
N
N
h

(4.26)

Esta forma identifica Sz como el generador del grupo Rz , un subgrupo abeliano de SO(3), el
grupo de rotaciones en tres dimensiones con determinante +1. Cada matriz de 3 3 Rz ()
es ortogonal, por lo tanto unitaria, y la tr(Sz ) = 0 de acuerdo con la ecuacion (4.11).
Por diferenciacion de las rotaciones de coordenadas

1
0
0
cos 0 sen
cos sen , Ry () = 0
1
0 ,
Rx () = 0
(4.27)
0 sen cos
sen 0
cos
obtenemos los generadores

0 0 0
Sx = 0 0 i ,
0 i 0

0 0 i
Sy = 0 0 0 ,
i 0 0

(4.28)

de Rx y Ry , los subgrupos de rotaciones en torno a los ejes x e y respectivamente.

4.2.2.

Rotaciones de funciones y momento angular orbital.

En la discusion precedente los elementos del grupo son matrices que rotan las coordenadas.
Cualquier sistema fsico que esta siendo descrito se mantiene fijo. Ahora mantengamos fijas
las coordenadas y rotemos una funcion (x, y, z) relativa a nuestras coordenadas fijas. Con
R para rotar las coordenadas,
~x 0 = R~x ,
(4.29)
definimos R por
R(x, y, z) = 0 (x, y, z) (~x 0 ) .

(4.30)

En palabras, la matriz R opera sobre la funcion , creando una nueva funci


on 0 que
es numericamente igual a (~x 0 ), donde ~x 0 son las coordenadas rotadas por R. Si R rota las
coordenadas en el sentido antihorario, el efecto de la matriz R es rotar el modelo de la funcion
en el sentido antihorario.
Volviendo a las ecuaciones (4.3) y (4.28), consideremos una rotacion infinitesimal, .
Luego, usando Rz , ecuacion (4.3), obtenemos
Rz ()(x, y, z) = (x + y, y x, z) .

(4.31)

4.2. GENERADORES DE GRUPOS CONTINUOS.

141

El lado derecho puede ser expandido como una serie de Taylor de primer orden en para
dar



Rz ()(x, y, z) = (x, y, z) x
y
+ O()2
y
x
(4.32)
= (1 iLz )(x, y, z) ,
la expresion diferencial en el parentesis de llave es iLz . Ya que una rotacion primero en y
luego en alrededor del eje z esta dado por
Rz ( + )(x, y, z) = Rz ()Rz ()(x, y, z) = (1 iLz )Rz ()(x, y, z) ,

(4.33)

tenemos (como una ecuacion de operadores)


Rz ( + ) Rz ()
= iLz Rz () .

(4.34)

El lado izquierdo es justo dRz ()/ (para 0). En esta forma la ecuacion (4.34) se
integra inmediatamente a
Rz () = exp(iLz ) .
(4.35)
Note cuidadosamente que Rz () rota funciones (en el sentido antihorario) relativa a las coor~ La constante
denadas fijadas y que Lz es la componente z del momento angular orbital L.
de integracion esta fijada por la condicion de borde Rz (0) = 1.
Si reconocemos que los elementos de matriz

Lz = (x, y, z)Sz
(4.36)
y ,

z
claramente Lx , Ly , Lz satisface la misma relacion de conmutacion
[Li , Lj ] = iijk Lk

(4.37)

que Sx , Sy , Sz y tienen a la misma constantes de estructura iijk de SO(3).

4.2.3.

Homomorfismo SU(2)-SO(3).

El grupo unitario especial SU(2) de matrices unitarias de 2 2 con determinante +1 tiene


las tres matrices de Pauli, i , como generadores. Por lo tanto SU(2) es de orden 3 y depende
de tres parametros continuos reales , y los cuales a menudo son llamados los parametros
de Cayley-Klein. Sus elementos generales tienen la forma

 

a b
ei cos ei sen
U2 (, , ) =
=
.
(4.38)
ei sen ei cos
b a

CAPITULO 4. TEORIA DE GRUPO.

142

Es facil chequear que el determinante det(U2 ) = 1 y que se satisface U2 U2 = 1 = U2 U2 .


Para obtener los generadores diferenciamos



U2
1
0
=
= 3 ,
i
0 1
=0,=0



i U2
0
1
=
= 1 ,
(4.39)
1
0
sen =0



U2
0 i
i
=
= 2 .
i 0
=0,=0
Por supuesto, las matrices de Pauli son todas de traza nula y hermticas.
Con las matrices de Pauli como generadores, los elementos (U1 , U2 , U3 ) de SU(2) pueden
ser generados por
U1 = exp(ia1 1 /2) ,

U2 = exp(ia2 2 /2) ,

U3 = exp(ia3 3 /2) .

(4.40)

Los tres parametros ai son reales. El factor extra 1/2 esta presente en los exponentes ya que
si = i /2 satisface las mismas relaciones de conmutacion 4
[si , sj ] = iijk sk

(4.41)

como el momento angular en la ecuacion (4.37).


La ecuacion (4.3) da un operador de rotacion para rotar las coordenadas cartesianas en el
espacio tridimensional. Usando la matriz de momento angular s3 , tenemos el correspondiente
operador de rotacion en el espacio de dos dimensiones (complejo) Rz () = exp(i3 /2).
Para rotar una funcion de onda vectorial de dos componentes (spinor) o una partcula de
spin 1/2 relativa a coordenadas fijas, el operador de rotacion es Rz () = exp(i3 /2) de
acuerdo a la ecuacion (4.35).
Usando la ecuacion (4.40) la identidad de Euler, la ecuacion (3.161), obtenemos
a 
a 
j
j
Uj = cos
+ ij sen
.
2
2
Aqu el parametro aj aparece como un angulo, el coeficiente de una matriz tipo momento
angular en la ecuacion (4.26). Con esta identificacion de los exponenciales, la forma general
de la matriz SU(2) (para rotar funciones mas que coordenadas) podra ser escrita como
U(, , ) = exp(i3 /2) exp(i2 /2) exp(i1 /2) .
Como vimos, los elementos de SU(2) describen rotaciones en un espacio complejo bidimensional que deja invariante a |z1 |2 + |z2 |2 . El determinante es +1. Hay tres parametros
independientes. Nuestro grupo ortogonal real SO(3) de determinante +1, claramente describe rotaciones comunes en el espacio tridimensional con la importante caracterstica de dejar
invariante a x2 + y 2 + z 2 . Tambien hay tres parametros independientes. Las interpretaciones
de rotacion y la igualdad de n
umeros de parametros sugiere la existencia de alguna clase de
correspondencia entre los grupos SU(2) y SO(3). Aqu desarrollamos esta correspondencia.
4

Las constantes de estructuras (iijk ) conducen a las representaciones de SU(2) de dimension 2J = 1


para generadores de dimensi
on 2j + 1, con J = 0, 1/2, 1, . . .. Los casos con J entero tambien conducen a las
representaciones de SO(3).

4.2. GENERADORES DE GRUPOS CONTINUOS.

143

U
M

M
U

Figura 4.2: Ilustracion de M0 = UMU ecuacion (4.42).

La operacion SU(2) sobre una matriz esta dada por una transformacion unitaria, la ecuacion (4.5), con R = U y la figura (4.2)
M0 = UMU .

(4.42)

Tomando M como una matriz de 2 2, notemos que cualquier matriz de 2 2 puede ser
escrita como una combinacion lineal de la matriz unidad y las tres matrices de Pauli. Sea M
la matriz de traza cero,


z
x iy
M = x1 + y2 + z3 =
,
(4.43)
x + iy
z
la matriz unidad no entra. Ya que la traza es invariante bajo transformaciones unitarias, M0
debera tener la misma forma,


z0
x0 iy 0
0
0
0
0
M = x 1 + y 2 + z 3 =
.
(4.44)
x0 + iy 0
z 0
El determinante tambien es invariante bajo una transformacion unitaria. Por lo tanto
2

(x2 + y 2 + z 2 ) = (x0 + y 0 + z 0 ) ,

(4.45)

o (x2 + y 2 + z 2 ) es invariante bajo esta operacion de SU(2), como con SO(3). SU(2) debe,
por lo tanto, describir una rotacion. Esto sugiere que SU(2) y SO(3) pueden ser isomorficos
o homomorficos.
Aproximemos el problema de que rotacion describe SU(2), considerando casos especiales.
Retomando la ecuacion (4.38) sea a = ei y b = 0, o

Uz =

ei 0
0 ei


.

En anticipacion de la ecuacion (4.50), esta U le esta dado un subndice z.

(4.46)

CAPITULO 4. TEORIA DE GRUPO.

144

Realizando una transformacion unitaria sobre cada una de las tres matrices de Pauli,
tenemos
 i

  i

e
0
0 1
e
0

Uz 1 Uz =
0 ei
1 0
0 ei


(4.47)
0
e2i
= 2i
.
e
0
Reexpresamos este resultado en terminos de las matrices de Pauli para obtener
Uz x1 Uz = x cos 21 x sen 22 .

(4.48)

Similarmente,
Uz y2 Uz = y sen 21 y cos 22 ,
Uz z3 Uz = z3 .

(4.49)

A partir de esta expresion de doble angulo vemos que podramos comenzar con el angulo
medio: = /2. Entonces, de las ecuaciones (4.42)(4.44), (4.48) y (4.49),
x0 = x cos + y sen
y 0 = x sen + y cos
z0 = z .

(4.50)

La transformacion unitaria de 2 2 usando Uz (/2) es equivalente al operador de rotacion


R() de la ecuacion (4.3).
El establecimiento de la correspondencia de


cos /2 sen /2
Uy (/2) =
(4.51)
sen /2 cos /2
y Ry () y de

Ux (/2) =

cos /2 i sen /2
i sen /2 cos /2


(4.52)

y Rx () pueden calcularse como ejercicio. Podemos notar que Uk (/2) tiene la forma general
Uk (/2) = 1 cos /2 + ik sen /2 ,

(4.53)

donde k = x, y, z.
La correspondencia
Uz


2


=

i/2

0
i/2

cos sen 0
sin cos 0 = Rz () ,
0
0
1

(4.54)

no es una simple correspondencia uno a uno. Especficamente, como en Rz recorre desde 0


a 2, el parametro Uz , /2, recorre desde 0 a . Encontramos que
Rz ( + 2) = Rz ()
 i/2

e
0
Uz (/2 + ) =
= Uz (/2) .
0
ei/2

(4.55)

4.2. GENERADORES DE GRUPOS CONTINUOS.

145

Por lo tanto ambos Uz (/2) y Uz (/2+) = Uz (/2) corresponde a Rz (). La correspondencia es de 2 a 1, o SU(2) y SO(3) son homomorficos. Este establecimiento de la correspondencia
entre las representaciones de SU(2) y de aquella SO(3) significa que las representaciones conocidas de SU(2) automaticamente nos proporciona de las representaciones de SO(3).
Combinando las rotaciones, encontramos que una transformacion unitaria usada
U(, , ) = Uz (/2)Uy (/2)Uz (/2) ,

(4.56)

corresponde a la rotacion general de Euler Rz ()Ry ()Rz (). Por multiplicacion directa,
 i/2

  i/2

e
0
cos /2 sen /2
e
0
U(, , ) =
sen /2 cos /2
0
ei/2
0
ei/2


(4.57)
ei(+)/2 cos /2 ei()/2 sen /2
=
.
ei()/2 sen /2 ei(+)/2 cos /2
Esta es nuestra forma general alternativa, la ecuacion (4.38), con
=

( + )
,
2

,
2

( )
.
2

(4.58)

De la ecuacion (4.57) podemos identificar los parametros de la ecuacion (4.38) como


a = ei(+)/2 cos /2
b = ei()/2 sen /2

4.2.4.

(4.59)

SU(2) isospin y el octeto SU(3).

En el tratamiento de las partculas con interacciones fuertes de Fsica nuclear y de altas


energas que conducen al grupo de SU(2) de isospin y la simetra de sabor SU(3), podramos
mirar el momento angular y el grupo de rotacion SO(3) por una analoga. Supongamos que
tenemos un electron en un potencial atractivo esfericamente simetrico de alg
un n
ucleo atomico. La funcion de onda para el electron puede ser caracterizada por tres n
umeros cuanticos
n, l, m, que estan relacionados con los autovalores de los operadores conservados H, L2 , Lz .
La energa,5 sin embargo, es 2l + 1 veces degenerada, dependiendo solamente de n y l. La
razon para esta degeneracion puede ser expresada de dos maneras equivalentes:
1. El potencial es simetricamente esferico, independiente de , .
2. El Hamiltoniano de Schrodinger (~2 /2me )2 + V (r) es invariante bajo rotaciones
espaciales ordinarias SO(3).
Como una consecuencia de la simetra esferica del potencial V (r), el momento angular
~ es conservado. En la seccion 4.2 las componentes cartesianas de L
~ estan identificadas
orbital L
como los generadores del grupo de rotacion SO(3). En vez de representar Lx , Ly , Lz por
operadores, usaremos matrices. Las matrices Li son matrices (2l + 1) (2l + 1) con la misma
5

Para un potencial de Coulomb puro la energa depende solo de n.

CAPITULO 4. TEORIA DE GRUPO.

146

dimension del n
umero de estados degenerados. La dimension 2l + 1 esta identificada con los
estados degenerados 2l + 1.
~ hecho conocido como el efecto
Esta degeneracion es removida por un campo magnetico B,
Zeeman. Esta interaccion magnetica a
nade un termino al Hamiltoniano que no es invariante
bajo SO(3). Este es un termino que quiebra la simetra.
En el caso de partculas con interaccion fuerte (protones, neutrones, etc.) no podemos
seguir la analoga directamente, ya que todava no entendemos completamente las interacciones nucleares. La fuerza fuerte esta descrita por la teora gauge de Yang-Mills, basada sobre
la simetra de color SU(3) llamada cromo-dinamica cuantica o abreviada QCD. Sin embargo,
QCD es una teora no lineal y por lo tanto, es complicada a grandes distancias y baja energa,
por lo que permanece no resuelta. Por lo tanto, no conocemos el Hamiltoniano, en vez de
esto, volveremos a la analoga.
En los a
nos 1930, despues del descubrimiento del neutron, Heinsenberg propuso que las
fuerzas nucleares eran cargas independientes. Los neutrones difieren en masa de los protones
solamente en un 1.6 %. Si esta peque
na diferencia es ignorada, el neutron y el proton podran
ser considerados como dos estados de cargas (o isospin) de un doblete, llamado nucleon. El
isospin I tiene proyeccion en el eje z I3 = 1/2 para el proton I3 = 1/2, para el neutron. El
isospin no tiene nada que ver con el spin (el momento angular intrnseco de una partcula),
pero las dos componentes del estado de isospin obedecen las mismas relaciones matematicas que el estado de spin 1/2. Para el nucleon, I = /2, son las matrices usualesde Pauli

1
0
ademas los estados de isospin (1/2) son autovectores de la matriz de Pauli 3 =
.
0 1
Similarmente, los tres estados de carga del pion + , 0 , forman un triplete. El pion es la
partcula mas liviana con interaccion fuerte y es la mediadora de la fuerza nuclear a distancia,
como el foton es partcula que media la fuerza electromagnetica. La interaccion fuerte trata
igualmente a miembros de esa familia de partculas, o multipletes y conserva el isospin. La
simetra es el grupo isospin SU(2).
El octuplete mostrado en la tabla 4.1 llama la atencion6 . Los n
umeros cuanticos conser2
vados que son analogos y generalizaciones de Lz y L de SO(3) son I3 e I 2 para el isospin, e
Y para hipercarga. Las partculas pueden ser agrupadas dentro de multipletes de carga o de
isospin. Entonces, la hipercarga puede ser tomada como dos veces el promedio de carga del
1
multiplete. Para el nucleon, i.e., el doblete neutronproton, Y = 2 (0 + 1) = 1. Los valores
2
de la hipercarga y los del isospin son listados en la tabla 4.1 para bariones como el nucleon y
sus compa
neros (aproximadamente degenerados). Ellos forman un octeto como lo muestra la
figura 4.3. En 1961 Gell-Mann, e independientemente Neeman, sugirieron que la interaccion
fuerte debe ser (aproximadamente) invariante bajo un grupo espacial tridimensional unitario,
SU(3), esto es, tienen simetra de sabor SU(3).
La eleccion de SU(3) estuvo basada primero sobre los dos n
umeros cuanticos conservados
e independientes H1 = I3 y H2 = Y ( i.e., generados con [I3 , Y ] = 0), que llaman para un
grupo de rango 2. Segundo, el grupo ha tenido una representacion de ocho dimensiones para
tener en cuenta a los cercanamente degenerados bariones y cuatro octetos similares para los
mesones. En un sentido, SU(3) es la generalizacion mas simple del isospin SU(2). Tres de
sus generadores son matrices hermticas de 3 3 de traza nula que contienen las matrices de
6

Todas las masas est


an dadas en unidades de energa.

4.2. GENERADORES DE GRUPOS CONTINUOS.

147

Masa [MeV]

1321.32

1
2

-1
0

I3
12
+ 12

1314.9

0
+

1197.43
1192.55
1189.37

-1
0
+1

1115.63

939.566

1
2

1
p

938.272

Cuadro 4.1: Bariones con spin

1
2

21
+ 12

y paridad par

Y
n

p
1

0
0

I3

Figura 4.3: Octeto barionico diagrama de peso para SU(3).

Pauli de 2 2 para los isospin i en la esquina superior izquierda.

0
0 ,
i =
0 0 0
i

i = 1, 2, 3 .

(4.60)

148

CAPITULO 4. TEORIA DE GRUPO.

De este modo, el grupo del isospin SU(2) es un subgrupo de SU(3) con I3 = 3 /2. Otros
cuatro generadores tienen los no diagonales 1 de 1 e i, i de 2 en todas las otras posibles
ubicaciones para formar las matrices hermticas 3 3 de traza nula.

0 0 1
0 0 i
4 = 0 0 0 ,
5 = 0 0 0 ,
1 0 0
i 0 0
(4.61)

0 0 0
0 0 0
7 = 0 0 i .
6 = 0 0 1 ,
0 1 0
0 i 0
El segundo generador diagonal tiene la matriz unidad bidimensional 12 en la esquina superior
izquierda, la cual la hace claramente independiente del subgrupo SU(2) isospin ya que su traza
no nula en el subespacio, y -2 en el lugar de la tercera diagonal la hace traza nula,

1 0
0
1
0 .
8 = 0 1
(4.62)
3 0 0 2
Generalmente hay 32 1 = 8 generadores para SU(3) el cual tiene orden 8. De los conmutadores de esos generadores pueden obtenerse facilmente las constantes de estructura de
SU(3).
Volviendo a la simetra de sabor SU(3), imaginemos que el Hamiltoniano para nuestro
octeto de bariones estan compuesto de tres partes
H = Hfuerte + Hmedio + Helectromagnetico .

(4.63)

La primera parte, Hfuerte , tiene la simetra SU(3) y conduce a la degeneracion ocho. La introduccion del termino de quiebre de simetra, Hmedio , remueve parte de la degeneracion dando
los cuatro multipletes del isospin ( , 0 ), ( , 0 , + ), , y N = (p, n), con diferentes masas. Estos a
un son multipletes ya que Hmedio tiene la simetra del isospin SU(2). Finalmente,
la presencia de fuerzas dependientes de la carga separan los multipletes de isospin y remueve
la u
ltima degeneracion. Esta secuencia se muestra en la figura 4.4
Aplicando teora de perturbacion de primer orden de Mecanica Cuantica, relaciones simples de masas de barionicas pueden ser calculadas. Quizas el suceso mas espectacular de este
modelo SU(3) ha sido su prediccion de nuevas partculas. En 1961 cuatro mesones K y tres
(todos pseudo escalares; spin 0, paridad impar) sugieren otro octeto, similar al del octeto
barionico. SU(3) predice un octavo meson , de masa 563 MeV. El meson , con una masa
determinada experimentalmente de 548 MeV, fue encontrado poco despues. Agrupamientos
de nueve de los bariones mas pesados (todos con spin 3/2, con paridad par) sugirio un multiplete de 10 miembros o un decaplete de SU(3). El decimo barion faltante fue predicho con
una masa cercana a 1680 MeV y una carga negativa. En 1964 cargada negativamente con
masa (167512) MeV fue descubierta.
La representacion de octeto no es la mas simple para SU(3). La representacion mas simple
son triangulares, como se muestra en la figura 4.5, a partir de las cuales todas las otras
pueden ser generadas por acoplamiento del momento angular generalizado. La representacion

4.2. GENERADORES DE GRUPOS CONTINUOS.

149

masa

0
+

p
H fuerte

H fuerte + H medio+ H electromagntica

H fuerte + H medio

Figura 4.4: Separacion de masa barionica.

(a)
d

(b)
1/3

Y
_
s

2/3

2 / 3

I3

I3
_
u

1 / 3

_
d

Figura 4.5: (a) Representacion fundamental de SU(3), el diagrama de peso para los quark u,
d, s; (b) diagrama de peso para los antiquark u, d, s.

fundamental en la figura 4.5 (a) contiene los quark u (arriba) y d (abajo) y el s (extra
neza), y
figura 4.5 (b) los correspondientes antiquarks. Los octetos de mesones pueden ser obtenidos
a partir de la representacion de quark como pares q q, 32 = 8 + 1, esto sugiere que los mesones
contienen quarks (y antiquarks) como sus constituyentes. El modelo de quarks resultante da
una exitosa descripcion de la espectroscopia hadronica. La solucion de sus problemas con el
principio de exclusion de Pauli, eventualmente, conduce a la teora de gauge de SU(3)-color
de las interacciones fuertes, llamada cromo-dinamica cuantica o QCD.
Para mantener la teora de grupo en su real perspectiva, podramos enfatizar que la teora
de grupo identifica y formaliza las simetras. Ella clasifica partculas (y algunas veces predice).

CAPITULO 4. TEORIA DE GRUPO.

150

Pero a parte de decir que una parte del Hamiltoniano tiene simetra SU(2) y otra parte tiene
simetra SU(3), la teora de grupo no dice nada acerca de la interaccion de las partculas.
Recuerde que la afirmacion de que el potencial atomico es esfericamente simetrico no nos dice
nada acerca de la dependencia radial del potencial o de su funcion de onda. En contraste, en
una teora de gauge la interaccion es mediada por bosones vectoriales (como el foton media en
la electrodinamica cuantica) y determinado u
nicamente por la derivada covariante de gauge.

4.3.

Momento angular orbital.

~ clasico = ~r p~ es mostrado en el captulo de


El concepto clasico de momento angular L
vectores para presentar el producto cruz. Siguiendo con la representacion usual de Schrodinger
~
de la Mecanica Cuantica, el momento lineal clasico p~ es reemplazado por el operador i.
7
El operador de momento angular en la mecanica cuantica se convierte en
~ QM = i~r
~ .
L

(4.64)

Las componentes del momento angular satisfacen las relaciones de conmutacion


[Li , Lj ] = iijk Lk .

(4.65)

El ijk es el smbolo de Levi-Civita. Una suma sobre el ndice k es sobreentendida.


El operador diferencial correspondiente al cuadrado del momento angular
~2=L
~ L
~ = L2x + L2y + L2z ,
L

(4.66)

puede ser determinado a partir de


~ L
~ = (~r p~) (~r p~) ,
L

(4.67)

~ 2 es un escalar rotacional, [L
~ 2 , Li ] = 0, el
la cual puede verificarse como ejercicio. Ya que L
cual tambien puede ser verificado directamente.
La ecuacion (4.65) presenta las relaciones de conmutacion basicas de los componentes del
momento angular en Mecanica Cuantica. Por cierto, dentro del marco de la Mecanica Cuantica y la teora de grupo, estas relaciones de conmutacion definen un operador de momento
angular.

4.3.1.

Operadores de subida y bajada.

Comencemos con una aproximacion mas general, donde el momento angular J~ lo consi~ un spin /2, o un momento
deramos que puede representar un momento angular orbital L,
~ + /2, etc. Supongamos que
angular total L
1. J es un operador hermtico cuyas componentes satisfacen las relaciones de conmutacion
[Ji , Jj ] = iijk Jk ,
7

[J~ 2 , Ji ] = 0 .

Por simplicidad, ~ = 1. Esto significa que el momento angular es medido en unidades de ~.

(4.68)

4.3. MOMENTO ANGULAR ORBITAL.

151

2. |M i es simultaneamente una autofuncion normalizada (o autovector) de Jz con autovalor M y una autofuncion de J~ 2 ,


J~ 2 |M i = |M i .

Jz |M i = M |M i ,

(4.69)

Mostraremos ahora que = J(J + 1). Este tratamiento ilustrara la generalidad y potencia
de las tecnicas de operadores particularmente el uso de operadores de subida y bajada.
Un operador de subida o bajada se define como
J+ = Jx + iJy ,

J = Jx iJy .

(4.70)

En terminos de ese operador J~ 2 puede ser reescrito como


1
J~ 2 = (J+ J + J J+ ) + Jz2 .
2

(4.71)

A partir de las relaciones de conmutacion, encontramos que


[Jz , J+ ] = +J+ ,

[Jz , J ] = J ,

[J+ , J ] = 2Jz .

(4.72)

Ya que J+ conmuta con J~ 2 (hagalo como ejercicio)


J~ 2 (J+ |M i) = J+ (J~ 2 |M i) = (J+ |M i) .

(4.73)

Por lo tanto, J+ |M i todava es una autofuncion de J~ 2 con autovalores , y similarmente


para J |M i. Pero de la ecuacion (4.72)
Jz J+ = J+ (Jz + 1) ,

(4.74)

Jz (J+ |M i) = J+ (Jz + 1)|M i = (M + 1)(J+ |M i) .

(4.75)

o
Por lo tanto, J+ |M i todava es una autofuncion de Jz con autovalores M +1. J+ ha elevado el
autovalor en 1 y por eso es llamado operador de subida. Similarmente, J baja los autovalores
en 1 y a menudo es llamado operador de bajada.
Tomando los valores esperados y usando Jx = Jx , Jy = Jy ,
hM |J~ 2 Jz2 |M i = hM |Jx2 + Jy2 |M i = | Jx |M i |2 + | Jy |M i |2 ,
vemos que M 2 0, tal que M es ligado. Sea J el mas grande valor de M . Luego
J+ |Ji = 0, lo cual implica que J J+ |Ji = 0. Luego combinando las ecuaciones (4.71) y
(4.72) obtenemos
J~ 2 = J J+ + Jz (Jz + 1) ,
(4.76)
encontramos que a partir de la ecuacion (4.76)
0 = J J+ |M = Ji = (J~ 2 Jz2 Jz )|M = Ji = ( J 2 J)|M = Ji .
Por lo tanto
= J(J + 1) 0;

(4.77)

CAPITULO 4. TEORIA DE GRUPO.

152

con un J no negativo. Ahora reetiquetaremos los estados |M i = |JM i. Similarmente, sea


J 0 el mas peque
no de los M . Entonces J |JJ 0 i = 0. A partir de
J~ 2 = J+ J Jz (Jz + 1) ,

(4.78)

2
0 = J+ J |JJ 0 i = (J~ 2 + Jz Jz2 )|JJ 0 i = ( + J 0 J 0 )|JJ 0 i .

(4.79)

vemos que
De manera que
= J(J + 1) = J 0 (J 0 1) = (J)(J 1) .
As J 0 = J, y M corre en pasos enteros desde J a +J,
J M +J .

(4.80)

Comenzando desde |JJi y aplicando J repetidas veces, alcanzaremos todos los otros estados
|JM i. De manera que |JM i forma una representacion irreductible; M vara y J esta fijo.
Entonces usando las ecuaciones (4.68), (4.76) y (4.78) obtenemos
J J+ |JM i = [J(J + 1) M (M + 1)]|JM i = (J M )(J + M + 1)|JM i ,
J+ J |JM i = [J(J + 1) M (M 1)]|JM i = (J + M )(J M + 1)|JM i .

(4.81)

Como J+ y J son hermticos conjugados,


J+ = J ,

J = J+ ,

(4.82)

los autovalores o valores esperados en la ecuacion (4.81) deberan ser positivos o cero.
Ya que J+ aumenta el autovalor de M a M + 1, reetiquetaremos la autofuncion resultante
|JM + 1i. La normalizacion esta dada por la ecuacion (4.81) como
p
(4.83)
J+ |JM i = (J M )(J + M + 1)|JM + 1i ,
tomando la raz cuadrada positiva y no introduciendo ning
un factor de fase. Por los mismos
argumentos
p
(4.84)
J |JM i = (J + M )(J M + 1)|JM 1i .
Finalmente, ya que M va desde J a +J en pasos unitarios, 2Jdebera ser un n
umero
entero. J es por lo tanto un entero o la mitad de un entero impar. Como hemos visto, el
momento angular orbital esta descrito con J entero. A partir de los spin de algunas partculas
fundamentales y de algunos n
ucleos, tenemos que J = 1/2, 3/2, 5/2, . . . Nuestro momento
angular esta cuantizado esencialmente como un resultado de relaciones de conmutaciones.
En coordenadas polares esfericas , las funciones h, |lmi = Ylm (, ) son armonicos
esfericos.

4.3.2.

Resumen de grupos y
algebras de Lie.

Las relaciones de conmutaciones generales, ecuacion (4.14) en la seccion 4.2, para un


grupo de Lie clasico [SO(n) y SU(n) en particular] pueden ser simplificadas para verse mas
como la ecuacion (4.72) para SO(3) y SU(2) en la seccion 4.3.

4.3. MOMENTO ANGULAR ORBITAL.

Algebra
de Lie
Grupo de Lie
rango
orden

Al
SU(l+1)
l
l(l+2)

153
Bl
SO(2l+1)
l
l(2l+1)

Dl
SO(2l)
l
l(2l-1)

Cuadro 4.2: Rango y orden de grupos rotacionales y unitarios.


Primero escogemos generadores Hi que sean linealmente independientes y que conmuten
entre s, estos son generalizaciones de Jz de SO(3) y SU(2). Sea l el n
umero maximo de tales
Hi con
[Hi , Hk ] = 0 .
(4.85)
Entonces l es llamado el rango del grupo Lie G o de su algebra. El rango y la dimension u
orden de algunos grupos Lie son dados en la tabla 4.2. Todos los otros generadores E son
operadores de subida y bajada con respecto a todos los Hi , tal que
[Hi , E ] = i E .

(4.86)

El conjunto de los (1 , 2 , . . . , l ) son llamados los vectores races.


Ya que los Hi conmutan entre s, ellos pueden ser diagonalizados simultaneamente. Ellos
nos dan un conjunto de autovalores m1 , m2 , . . . , ml . Al conjunto (m1 , m2 , . . . ..ml ) se les llama
vectores de peso de una representacion irreductible. Hay l operadores invariantes Ci , llamados
operadores de Casimir, los cuales conmutan con todos los generadores y son generalizaciones
de J 2 ,
[Ci , Hj ] = 0 ,
[Ci , E ] = 0 .
(4.87)
El primero, C1 , es una funcion cuadratica de los generadores, los otros son mas complicados.
Ya que Ci conmuta con todos los Hj , ellos pueden ser diagonalizados simultaneamente con
los Hj . Sus autovalores c1 , c2 , . . . , cl caracterizan las representaciones irreductibles y permanecen constantes mientras los vectores de peso varan sobre una representacion irreductible
particular. Por lo tanto, la autofuncion general puede ser escrita como
|(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i ,

(4.88)

generalizando |JM i de SO(3) y SU(2). Sus ecuaciones de autovalores son


Hi |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i = mi |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i ,
Ci |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i = ci |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i .

(4.89a)
(4.89b)

Ahora podemos mostrar que E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i tiene los vector peso (m1 +
1 , m2 +2 , . . . , ml +l ) usando las relaciones de conmutacion, la ecuacion (4.86), en conjunto
con las ecuaciones (4.89a) y (4.89b),
Hi E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i = (E Hi + [Hi , E ])|(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i
= (mi + i )E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i .
(4.90)

CAPITULO 4. TEORIA DE GRUPO.

154
Por lo tanto

E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i |(c1 , c2 , . . . , cl )m1 + 1 , m2 + 2 , . . . , ml + l i


estas son las generalizaciones de las ecuaciones (4.83) y (4.84) a partir de SO(3). Esos cambios
de autovalores por el operador E son llamados sus reglas de seleccion en mecanica cuantica.

4.4.

Grupo homog
eneo de Lorentz.

En relatividad especial requerimos que nuestras leyes fsicas sean covariantes8 bajo
a. translaciones en el tiempo y en el espacio,
b. rotaciones en el espacio real tridimensional, y
c. transformaciones de Lorentz.
El requerimiento para la covarianza bajo translaciones esta basada en la homogeneidad del
espacio y el tiempo. Covarianza bajo rotaciones es una afirmacion de la isotropa del espacio.
El requerimiento de la covarianza de Lorentz viene de la relatividad especial. Todas estas
tres transformaciones en conjunto forman el grupo inhomogeneo de Lorentz o el grupo de
Poincare. Aqu excluimos las translaciones. Las rotaciones espaciales y las transformaciones
de Lorentz forman un grupo, el grupo homogeneo de Lorentz.
Primero generamos un subgrupo, las transformaciones de Lorentz en el cual la velocidad
relativa ~v esta a lo largo del eje x = x1 . El generador puede ser determinado considerando un
marco de referencia espacio-temporal moviendose con una velocidad relativa infinitesimal v.
Las relaciones son similares a aquellas para rotaciones en el espacio real, excepto que aqu el
angulo de rotacion es imaginario puro.
Las transformaciones de Lorentz son lineales no solo en el espacio de coordenadas xi
sino que tambien en el tiempo t. Ellas se originan a partir de las ecuaciones de Maxwell
de la electrodinamica, las cuales son invariantes bajo la transformaciones de Lorentz, como
veremos luego. Las transformaciones de Lorentz dejan invariante la forma cuadratica siguiente
c2 t2 x21 x22 x23 = x20 x21 x22 x23 donde x0 = ct. Vemos esto si encendemos una fuente
de luzpen
de coordenadas. En tiempo t la luz ha viajado una distancia
Pel2origen del 2sistema
2
2
xi , tal que c t x1 x22 x23 = 0. La relatividad especial requiere esto en todos
ct =
los sistemas (inerciales) que se mueven con velocidad v c en cualquier direccion relativa
al sistema xi y que tengan el mismo origen a tiempo t = 0, se mantenga tambien que
c2 t0 2 x01 2 x02 2 x03 2 = 0. El espacio cuadridimensional con la metrica x20 x21 x22 x23 es
llamado espacio de Minkowski con el producto escalar de dos cuadrivectores definido como
a b = a0 b0 ~a ~b. Usando el tensor metrico

1 0
0
0
0 1 0
0

(4.91)
(g ) = (g ) =
0 0 1 0 ,
0 0
0 1
8

Ser covariante significa que tienen la misma forma en diferentes sistemas de coordenadas tal que no hay
un sistema de referencia privilegiado.


4.4. GRUPO HOMOGENEO
DE LORENTZ.

155

podemos subir y bajar ndices de un cuadrivector tal como de las coordenadas x = (x0 , ~x)
es decir x = g x = (x0 , ~x) y x g x = x20 ~x 2 , la convencion de suma de Einstein se
~ = /x y = (/x0 , )
~ tal que
da por entendida. Para el gradiente = (/x0 , )
2
2
2
2
2
2
= /x0 es un escalar de Lorentz, al igual que la metrica x0 ~x .
Para v  c, en el lmite no relativista, las transformaciones de Lorentz deben ser transformaciones de Galileo. Por lo tanto, para derivar la forma de una transformacion de Lorentz
a lo largo del eje x1 , partimos con una transformacion Galileana para una velocidad relativa
infinitesimal v:
x01 = x1 vt = x1 x0 .
(4.92)
v
Como es usual = . Por simetra tambien podemos escribir
c
x00 = x0 ax1 ,

(4.93)

donde a es un parametro a fijar una vez que se imponga que x20 x21 deba ser invariante,
2

x00 x01 = x20 x21 .

(4.94)

Recordemos que x = (x0 ; x1 , x2 , x3 ) es el prototipo de cuadrivector en el espacio de Minkowski.


As la ecuacion (4.94) es simplemente una afirmacion de la invariancia del cuadrado de la
magnitud del vector distancia bajo rotaciones en el espacio de Minkowski. Aqu es donde la
relatividad especial compromete nuestra transformacion. Elevando al cuadrado y restando
las ecuaciones (4.92) y (4.93) y descartando terminos del orden de 2 , encontramos a = 1.
Las ecuaciones (4.92) y (4.93) pueden ser combinadas como una ecuacion matricial
 0
 
x0
x
= (1 1 ) 0 ,
(4.95)
0
x1
x1
1 es la matriz de Pauli, y el parametro representa un cambio infinitesimal. Repetimos la
transformacion N veces para desarrollar una transformacion finita con el parametro velocidad
= N . entonces
 0 
 
1 N x0
x0
= 1
.
(4.96)
x01
x1
N
En el lmite N

1 N
lm 1
= exp(1 ) .
N
N
Interpretamos la exponencial como una serie de Maclaurin


exp(1 ) = 1 1 +

(1 )2 (1 )3

+ .
2!
3!

(4.97)

(4.98)

Notando que 2 = 1,
exp(1 ) = 1 cosh + 1 senh .
Por lo tanto nuestra transformacion de Lorentz finita es
 0 
 
x0
cosh senh
x0
=
.
0
x1
senh
cosh
x1

(4.99)

(4.100)

CAPITULO 4. TEORIA DE GRUPO.

156

1 ha generado las representaciones de esta especial transformacion de Lorentz.


El cosh y el senh pueden ser identificados considerando el origen del sistema de coordenadas primas, x01 = 0, o x1 = vt. Sustituyendo en la ecuacion (4.100), tenemos
0 = x1 cosh x0 senh .
Con x1 = vt y x0 = ct.
tanh = =

(4.101)

v
.
c

v
Note que la rapidez 6= , excepto en el lmite v 0.
c
Usando 1 tanh2 = (cosh2 )1 ,
cosh = (1 2 )1/2 ,

senh = .

(4.102)

El anterior caso especial en que la velocidad es paralela a uno de los ejes espaciales es
simple, pero ilustra la velocidad infinitesimal, la tecnica de la exponenciacion y el generador.
Ahora esta tecnica puede ser aplicada para derivar las transformaciones de Lorentz para una
velocidad relativa ~v no paralela a ning
un eje. Las matrices dadas por la ecuacion (4.100) para
el caso ~v = xvx forman un subgrupo. Las matrices en el caso general no lo hacen. El producto
de dos matrices de transformaciones de Lorentz, L(~v1 ) y L(~v2 ), producen una tercera matriz
de transformacion L(~v3 ), si las dos velocidades ~v1 y ~v2 son paralelas. La velocidad resultante
~v3 esta relacionada con ~v1 y con ~v2 mediante la regla de adicion de velocidades de Einstein.
Si ~v1 y ~v2 no son paralelas, no existe entonces una relacion simple.

4.5.

Covarianza de las Ecuaciones de Maxwell.

Si una ley fsica se mantiene para todas las orientaciones de nuestro (real) espacial sistema
de coordenadas (i.e. es invariante ante rotaciones), los terminos de la ecuacion deben ser covariantes bajo rotaciones. Esto significa que escribimos las leyes fsicas en la forma matematica
escalar=escalar, vector=vector, tensor de segundo rango=tensor de segundo rango, y as sucesivamente. Similarmente, si una ley fsica se mantiene para todos los sistemas inerciales,
los terminos de la ecuacion deben ser covariantes bajo transformaciones de Lorentz.
Usando el espacio de Minkowski (x = x1 , y = x2 , z = x3 , ct = x0 ) tenemos un espacio
cuadridimensional cartesiano con metrica g . Las transformaciones de Lorentz son lineales
en el espacio y en el tiempo en este espacio real de cuatro dimensiones.
Consideremos las ecuaciones de Maxwell
~
~ E
~ = B ,

t
~
~ H
~ = D + ~v ,

t
~
~
D = ,
~ B
~ =0,

(4.103a)
(4.103b)
(4.103c)
(4.103d)

y las relaciones
~ = 0 E
~ ,
D

~ = 0 H
~ .
B

(4.104)

4.5. COVARIANZA DE LAS ECUACIONES DE MAXWELL.

157

Todos los smbolos tienen sus significados usuales y hemos supuesto el vaco por simplicidad.
Supongamos que las ecuaciones de Maxwell se mantienen en todos los sistemas inerciales;
esto es , las ecuaciones de Maxwell son consistentes con la relatividad especial. (La covariancia de las ecuaciones de Maxwell bajo transformaciones de Lorentz fue realmente mostrada
por Lorentz y Poincare antes de que Einstein propusiera su teora de la relatividad especial). Nuestro objetivo inmediato es reescribir las ecuaciones de Maxwell como ecuaciones
tensoriales en el espacio de Minkowski. Esto hara la covariancia de Lorentz explcita.
En terminos de los potenciales escalar y vectorial, podemos escribir
~ =
~ A
~,
B
~
~ = A
~ .
E
t

(4.105)

~ la divergencia de A
~ no esta definida. PoLa ecuacion anterior especifica el rotor de A;
demos, y por futuras conveniencias lo hacemos, imponer la siguiente relacion sobre el vector
potencial
~ A
~ + 0 0 = 0 .
(4.106)

t
Este es conocido como el gauge de Lorentz. Servira a nuestros propositos de desacoplar las
~ y para .
ecuaciones diferenciales para A
Ahora reescribimos las ecuaciones de Maxwell en terminos de los potenciales. A partir de
~ D
~ y (4.105)
la ecuacion (4.103c) para
~
~ A = ,
2 +
t
0

(4.107)

~ H
~ y (4.105) y la identidad vectorial para el
considerando que la ecuacion (4.103b) para
rotor del rotor produce
h
i
~
2A
~ + 1
~
~ A
~ 2 A
~ = ~v .
+
+

t2
t
0 0
0

(4.108)

Usando el gauge de Lorentz, la ecuacion (4.106), y la relacion 0 0 = 1/c2 , obtenemos




1 2 ~
2
2 2 A = 0 ~v ,
c t


(4.109)
1 2

2
2 2 = .
c t
0
Ahora el operador diferencial
2

1 2
= 2 = ,
c2 t2

es un Laplaciano cuadridimensional. Usualmente este operador es llamado el dAlembertiano


y denotado por 2 . Puede probarse que es un escalar.

CAPITULO 4. TEORIA DE GRUPO.

158
Por conveniencia definimos
Ax
= c0 Ax ,
0 c
Ay
A2
= c0 Ay ,
0 c

A1

A3

Az
= c0 Az ,
0 c

(4.110)

A 0 0 = A .

Si ponemos ademas
vx
i1 ,
c

vy
i2 ,
c

vz
i3 ,
c

i0 = i0 ,

(4.111)

entonces la ecuacion (4.109) puede ser escrita de la forma


2 A = i .

(4.112)

La ecuacion anterior parece una ecuacion tensorial, pero eso no basta. Para probar que es una
ecuacion tensorial, partimos investigando las propiedades de transformacion de la corriente
generalizada i .
Ya que un elemento de carga de es una cantidad invariante, tenemos
de = dx1 dx2 dx3 ,

invariante.

(4.113)

Vimos que el elemento de volumen cuadridimensional es tambien un invariante, dx1 dx2 dx3 dx0 ,
comparando estos resultados vemos que la densidad de carga debe transformar de la misma
manera que x0 . Ponemos = i0 con i0 establecida como la componente cero de un cuadrivector. Las otras partes de la ecuacion (4.111) pueden ser expandidas como
vx
dx1
=
c
c dt
dx
1
= i0
.
dt

i1 =

(4.114)

Ya que justo mostramos que i0 transforma como dx0 , esto significa que i1 transforma como
dx1 . Con resultados similares para i2 e i3 . tenemos que i transforma como dx , probando
de esta manera que i es un vector, un vector del espacio cuadridimensional de Minkowski.
La ecuacion (4.112), la cual deriva directamente de las ecuaciones de Maxwell, suponemos
que se mantiene en todos los sistemas cartesianos. Entonces, por la regla del cociente A es
tambien un vector y (4.112) es una legtima ecuacion tensorial.
Ahora, devolviendonos, la ecuacion (4.105) puede ser escrita
Aj A0
+
, j = 1, 2, 3,
x0
xj
1
Ak Aj
Bi =

, (i, j, k) = (1, 2, 3) ,
c
xj
xk
0 Ej =

y permutaciones cclicas.
Definimos un nuevo tensor
A A =

A
A

F = F
x
x

(, = 0, 1, 2, 3)

(4.115)

4.5. COVARIANZA DE LAS ECUACIONES DE MAXWELL.

159

un tensor antisimetrico de segundo rango, ya que A es un vector. Lo escribimos explcitamente

0 Ex Ey Ez
0
Ex
Ey
Ez

Ex
0 cBz
cBy
0 cBz
cBy
, F = 0 Ex
.
F = 0
Ey

cBz
0 cBx
Ey
cBz
0 cBx
Ez cBy
cBx
0
Ez cBy
cBx
0
(4.116)
~
~
Notemos que en nuestro espacio de Minkowski E y B no son mas vectores, sino que juntos
forman un tensor de segundo rango. Con este tensor podemos escribir las dos ecuaciones de
Maxwell no homogeneas (4.103b) y (4.103c) y combinandolas como una ecuacion tensorial
F
= i .
x

(4.117)

El lado izquierdo es una divergencia cuadridimensional de un tensor y por lo tanto un vector.


F
. Las ecuaciones
Esto es, por supuesto, equivalente a contraer un tensor de tercer rango
x
~ E
~ y la ecuacion (4.103d) para
~ B pueden ser expresadas en
de Maxwell (4.103a) para
forma tensorial
F23 F31 F12
+
+
=0,
(4.118)
x1
x2
x3
para (4.103d) y tres ecuaciones de la forma

F30 F02 F23

=0,
x2
x3 x0

(4.119)

para (4.103a). Una segunda ecuacion, permutando 120 y una tercera, permutando 130.
Ya que
F
F =
t ,
x
es un tensor de tercer rango, las ecuaciones (4.117) y (4.119) pueden ser expresadas por la
ecuacion tensorial
t + t + t = 0 .
(4.120)
En todos los casos anteriores los ndices , y se suponen diferentes.

4.5.1.

~ y B.
~
Transformaciones de Lorentz de E

La construccion de las ecuaciones tensoriales (4.118) y (4.120) completan nuestro objetivo


inicial de reescribir las ecuaciones de Maxwell en forma tensorial. Ahora explotamos las
propiedades tensoriales de nuestros cuadrivectores y del tensor F .
Para las transformaciones de Lorentz que corresponden a movimientos a lo largo del eje
z(x3 ) con velocidad v, los cosenos directores estan dados por
x00 = (x0 x3 )
x03 = (x3 x1 ) ,

(4.121)

CAPITULO 4. TEORIA DE GRUPO.

160
donde
=
y
= 1

v
c

2 1/2

(4.122)

Usando las propiedades de transformacion tensorial, podemos calcular los campos electrico y
magnetico en el sistema en movimiento en terminos de los valores en el marco de referencias
original. A partir de las ecuaciones (2.59), (4.116) y (4.121) obtenemos

1
v 
Ex0 = p
Ex 2 By ,
c
1 2

1
v 
(4.123)
Ey0 = p
Ey + 2 Bx ,
2
c
1
Ez0 = Ez ,
y
v 
Ey ,
c2
1 2

1
v 
0
p
By =
By 2 Ex ,
c
1 2
0
Bz = Bz .

Bx0 = p

Bx +

(4.124)

~ y B
~ es esperado. Consideremos, por ejemplo, el caso de campo
Este acoplamiento de E
electrico nulo en el sistema sin prima
Ex = Ey = Ez = 0 .
Claramente, no habra fuerza sobre una partcula de carga estacionaria. Cuando la partcula
esta en movimiento con una velocidad peque
na ~v a lo largo del eje z un observador sobre la
partcula ve campos (ejerciendo una fuerza sobre la partcula cargada) dados por
Ex0 = vBy ,
Ey0 = vBx ,
~ es un campo magnetico en el sistema sin primas. Estas ecuaciones pueden ser puestas
donde B
en forma vectorial
~ 0 = ~v B
~ ,
~ ,
E
o bien,
F~ = q~v B
(4.125)
~
la cual es usualmente tomada como la definicion operacional del campo magnetico B.

4.5.2.

Invariantes electromagn
eticas.

Finalmente, las propiedades tensoriales (o vectoriales) nos permiten construir una multitud de cantidades invariantes. Una de las importantes es el producto escalar de los cuadrivectores A y i . Tenemos
vx
vy
vz
A i = c0 Ax
c0 Ay
c0 Az
+ 0
c
c
c
(4.126)
~
~
= 0 ( A J) , invariante,

4.6. GRUPOS DISCRETOS.

161

~ el usual potencial vector y J~ la densidad de corriente ordinaria. El primer termino es


con A
el ordinario acoplamiento electroestatico con dimensiones de energa por unidad de volumen.
En consecuencia nuestro recien construido invariante escalar es un densidad de energa. La
~ J.
~ Este invariante
interaccion dinamica del campo y corriente es dado por el producto A
A i aparece en los Lagrangianos electromagneticos.

4.6.

Grupos discretos.

En esta seccion regresamos a grupos con un n


umero finito de elementos. En Fsica, los
grupos usualmente aparecen como un conjunto de operaciones que dejan un sistema sin cambios, i.e. invariante. Esta es una expresion de simetra. Realmente una simetra puede ser
definida como la invariancia del Hamiltoniano de un sistema bajo un grupo de transformaciones. La simetra en este sentido es importante en Mecanica Clasica, pero llega a ser a
un
mas importante y mas profunda en Mecanica Cuantica. En esta seccion investigaremos las
propiedades de simetra de un conjunto de objetos (atomos en una molecula o cristal). Esto
proveera ilustracion adicional de los conceptos de grupos de la seccion 4.1 y conduce directamente a los grupos dihedricos. Los grupos dihedricos a su vez nos abren el estudio de los
32 grupos puntuales y 230 grupos espaciales que son de suma importancia en cristalografa
y Fsica del Solido. Notemos que fue a traves del estudio de las simetras cristalinas que los
conceptos de simetra y teora de grupos entraron a la Fsica. En Fsica, la condicion de grupo
abstracto a menudo asume un significado fsico directo en terminos de transformaciones de
vectores, spinores y tensores.
Como un muy simple, pero no trivial, ejemplo de un grupo finito, consideremos el conjunto
1, a, b, c que combinamos de acuerdo a la tabla de multiplicacion del grupo.9

1
a
b
c

1
1
a
b
c

a
a
b
c
1

b
b
c
1
a

c
c
1
a
b

Claramente, las cuatro condiciones de la definicion de grupo son satisfechas. Los elementos
a, b, c y 1 son entidades matematicas abstractas, completamente sin restricciones, excepto
por la anterior tabla de multiplicacion.
Ahora, para una especfica representaci
on de estos elementos del grupo, tomemos
11,

ai,

b 1 ,

c i ,

(4.127)

combinados con la multiplicacion ordinaria. Nuevamente, las cuatro condiciones de grupo son
satisfechas y estos cuatro elementos forman un grupo. Etiquetamos este grupo por C4 . Ya que
la multiplicacion de los elementos del grupo es conmutativa, el grupo es llamado conmutativo o
abeliano. Nuestro grupo es tambien un grupo cclico, en que los elementos pueden ser escritos
como potencias sucesivas de un elemento, en este caso in , n = 0, 1, 2, 3. Notemos que al
9

El orden de los factores es fila-columna: ab = c

CAPITULO 4. TEORIA DE GRUPO.

162

I
V1
V2
V3

I
I
V1
V2
V3

V1
V1
I
V3
V2

V2
V2
V3
I
V1

V2
V3
V2
V1
I

Cuadro 4.3: Tabla de producto del vierergruppe.


escribir explcitamente la ecuacion (4.127) hemos seleccionado una representaci
on especfica
para este grupo de cuatro objetos, C4 .
Reconocemos que los elementos del grupo 1, i, 1, i pueden ser interpretados como
sucesivas rotaciones en 90 en el plano complejo. Entonces a partir de la ecuacion (3.70)
creamos un conjunto de cuatro matrices de 2 2 (reemplazando por en la ecuacion
(3.70) para rotar un vector mas que rotar las coordenadas.)


cos sen
R() =
,
sen
cos
y para = 0, /2, y 3/2 tenemos


1
0
1=
0
1


1
0
B=
0 1


0 1
A=
1
0


0
1
C=
.
1
0

(4.128)

Este conjunto de cuatro matrices forman un grupo donde la ley de combinacion es la multiplicacion de matrices. Aqu hay una segunda representacion, ahora en terminos de matrices.
Es facil verificar que esta representacion es tambien abeliana o cclica. Claramente hay una
correspondencia uno-a-uno entre las dos representaciones.
1 1 1 a i A b 1 B

c i C .

(4.129)

En el grupo C4 las dos representaciones (1, i, 1, i) y (1, A, B, C) son isomorficas.


En contraste con esto, no hay tal correspondencia entre cualquiera de esta representaciones
del grupo C4 y otro grupo de cuatro objetos, el vierergruppe. El vierergruppe tiene una tabla
de multiplicacion distinta (tabla 4.3). Confirmando la falta de correspondencia entre el grupo
representado por (1, i, 1, i) o por las matrices (1, A, B, C) con el vierergruppe, notemos que
aunque el vierergruppe es abeliano, no es cclico. El grupo cclico C4 y el vierergruppe no son
isomorficos.

4.6.1.

Clase y caracteres.

Considere un elemento del grupo x transformado en un elemento del grupo y mediante


una transformacion de similaridad con respecto a gi , un elemento del grupo
gi xgi1 = y .

(4.130)

4.6. GRUPOS DISCRETOS.

163

El elemento del grupo y es el conjugado de x. Una clase es un conjunto de elementos del


grupo mutuamente conjugados. En general, este conjunto de elementos que forma una clase
no satisface los postulados de un grupo y no es un grupo. De hecho, el elemento unidad I el
cual esta siempre en una clase con s mismo, es la u
nica clase que es tambien un subgrupo.
Todos los miembros de una clase dada son equivalentes en el sentido en que cualquier elemento
es una transformacion de similaridad de otro miembro de la clase. Claramente si un grupo
es abeliano, cada elemento del grupo es una clase por s mismo. Encontramos que
1. Cada elemento del grupo original pertenece a una y solo a una clase.
2. El n
umero de elementos de una clase es factor del orden del grupo.
Obtenemos una posible interpretacion fsica del concepto de clases si notamos que y es una
transformada de similaridad de x. Si gi representa una rotacion del sistema de coordenadas,
y es la misma operacion que x pero relativa al nuevo sistema de coordenadas.
En la seccion 3.3 vimos que una matriz real transforma bajo rotaciones de coordenadas
como una transformacion de similaridad ortogonal. Dependiendo de la eleccion del sistema
de referencia, esencialmente la misma matriz puede tomar una infinidad de diferentes formas.
As mismo, nuestras representaciones de grupo puede ser puesta por una infinidad de formas
diferentes utilizando una transformacion unitaria. Pero, cada representacion es isomorfica a
la original. Se puede probar que la traza de cada elemento (cada matriz de nuestra representacion) es invariante ante transformaciones unitarias. Es por esto, que la traza (reetiquetado
caracter) asume un rol de alguna importancia en la teora de grupo, en particular en la aplicacion a la Fsica del estado solido. Claramente, todos los miembros de una clase dada (en
una representacion dada) tienen el mismo caracter. Elementos de clases diferentes pueden
tener el mismo caracter pero elementos con distintos caracteres no pueden estar en la misma
clase.
El concepto de clase es importante (1) por la traza o caracter y (2) porque el n
umero de
representaciones no equivalentes irreducibles de un grupo de igual n
umero de clases.

4.6.2.

Subgrupos y cosetos.

Frecuentemente un subconjunto de elementos del grupo (incluyendo el elemento unidad


I) va a satisfacer los cuatro requerimientos para ser grupo, por lo tanto es un grupo. Dicho
conjunto es llamado un subgrupo. Cada grupo tiene dos subgrupos triviales: el elemento
unidad solo y el grupo en si mismo. Los elementos 1 y b del grupo de cuatro elementos
C4 discutido anteriormente forman un subgrupo no trivial. En la seccion 4.1 consideramos
SO(3), el grupo (continuo) de todas las rotaciones en el espacio ordinario. Las rotaciones con
respecto a un solo eje forman un subgrupo de SO(3). Muchos otros ejemplos de subgrupos
aparecen en la siguientes secciones.
Considere un subgrupo H con elementos hi y un elemento del grupo x que no esta en H.
Entonces hi x y xhi no estan en el subgrupo H. Los conjuntos generados por
xhi , i = 1, 2, 3 . . .

y hi x , i = 1, 2, 3, . . .

son llamados cosetos, el coseto izquierdo y derecho del subgrupo H con respecto a x, respectivamente. Puede ser demostrado (suponiendo lo contrario y probando una contradiccion) que

CAPITULO 4. TEORIA DE GRUPO.

164

el coseto de un subgrupo tiene el mismo n


umero de elementos que el subgrupo. Extendiendo
este resultado podemos expresar el grupo original G como la suma de H y cosetos:
G = H + x1 H + x2 H + .
Entonces el orden de un subgrupo es un divisor del orden del grupo. Es este resultado es el
que hace significativo el concepto de coseto. En la proxima seccion el grupo de seis elementos
D3 (de orden 6) tiene subgrupos de orden 1, 2 y 3. D3 no puede (y no tiene) subgrupos de
orden 4 o 5.
La transformacion de similaridad de un subgrupo H por un elemento fijo x que no pertenece a H, xHx1 produce un subgrupo. Si este nuevo grupo es identico a H para todo
x,
xHx1 = H ,
entonces H es llamado un subgrupo invariante, normal o auto conjugado. Tales subgrupos
estan involucrados en el analisis de m
ultiples atomicos, espectros nucleares y en las partculas
discutidas en la seccion 4.2. Todos los subgrupos de un grupo conmutativo (abeliano) son
automaticamente invariantes.

4.6.3.

Dos objetosDoble eje de simetra.

Consideremos primero el sistema bidimensional de dos atomos identicos en el plano xy


en (1,0) y (-1,0), figura (4.6). Que rotaciones10 pueden ser llevadas a cabo (manteniendo
ambos atomos en el plano xy) tal de dejar al sistema invariante? El primer candidato es, por
supuesto, el operador unitario 1. Una rotacion en radianes respecto el eje z completa la
lista. De esta manera tenemos un muy poco interesante grupo de 2 elementos (1, -1). El eje
z es llamado un eje doble de simetra que corresponde a los dos angulos de rotacion, 0 y
que dejan el sistema invariante.

Figura 4.6: Molecula Diatomica.


10

Aqu excluimos deliberadamente reflexiones e inversiones. Ellas deben ser introducidas para desarrollar
el conjunto completo de 32 grupos puntuales.

4.6. GRUPOS DISCRETOS.

165

Nuestro sistema llega a ser mas interesante en tres dimensiones. Ahora imaginemos una
molecula (o parte de un cristal) con atomos de elemento X en a en el eje x, atomos de
elemento Y en b en el eje y, y atomos de elementos Z en c en el eje z como muestra
la figura (4.7). Claramente, cada eje es ahora un doble eje de simetra. Usando Rx () para
designar una rotacion en radianes respecto al eje x, podemos establecer una representacion
matricial de las rotaciones como en la seccion 3.3:

z
c

y
b

b
c

Figura 4.7: Simetra D2 .

1
0
0
0
Rx () = 0 1
0
0 1

1
0
0
0
Rz () = 0 1
0
0
1

0
Ry () =
0

0
1=
0

0
0
1
0
0 1

0
0
1
0
0
1

(4.131)

Estos cuatro elementos [1, Rx (), Ry (), Rz ()] forman un grupo abeliano con la tabla de
multiplicacion mostrada en la tabla 4.4.
Los productos mostrados en la tabla 4.4 se pueden obtener de dos diferentes maneras: (1)
Podemos analizar las operaciones sobre ellos mismos, una rotacion en respecto del eje x
seguida de una rotacion en respecto al eje y es equivalente a una rotacion en respecto
al eje z: Ry ()Rx () = Rz (). (2) Alternativamente, una vez que la representacion matricial
es establecida, podemos obtener los productos por multiplicacion matricial. Esto es donde se
muestra la potencia de las matematicas cuando el sistema es demasiado complejo para una
interpretacion fsica directa.
Facilmente podemos darnos cuenta que este grupo es el vierergruppe. Tambien, ellas son
obviamente reducibles, siendo diagonal. Los subgrupos son (1, Rx ), (1, Ry ) y (1, Rz ). Ellos
son invariantes. Debemos notar que una rotacion en respecto al eje y y una rotacion en
respecto al eje z es equivalente a un rotacion en respecto al eje x: Rz ()Ry () = Rx (). En

CAPITULO 4. TEORIA DE GRUPO.

166
1
1
1
Rx () Rx ()
Ry () Ry ()
Rz () Rz ()

Rx () Ry ()
Rx () Ry ()
1
Rz ()
Rz ()
1
Ry () Rx ()

Rz ()
Rz ()
Ry ()
Rx ()
1

Cuadro 4.4: Tabla de producto.

terminos de simetra, si y y z son dos ejes doble de simetra, x es automaticamente un eje


doble de simetra.
Este grupo de simetra,11 el vierergruppe, es a menudo llamado D2 , la D significa un grupo
dihedrico y el subndice 2 significa un eje de simetra doble (y sin ejes de simetras mas altos).

y
b
D

(0,1)

E
x

+ 3 1
,
2
2

3 1
,
2
2

C
Figura 4.8: Operaciones de simetra en un triangulo equilatero.

4.6.4.

Tres objetosTriple eje de simetra.

Consideremos ahora tres atomos identicos en los vertices de un triangulo equilatero,


figura(4.8). Rotaciones del triangulo de 0, 2/3, y 4/3 dejando el triangulo invariante. En

11

Un grupo de simetra es un grupo de operaciones que simetra-preservantes, tales como, rotaciones,


reflexiones e inversiones. Un grupo simetrico es el grupo de las permutaciones de n objetos distintos de orden
n!.

4.6. GRUPOS DISCRETOS.

167

forma matricial, tenemos12





1 0
1 = Rz (0) =
0 1


 
cos 2/3 sen 2/3
1/2

3/2
A = Rz (2/3) =
=
sen 2/3
cos 2/3
3/2 1/2


1/2
3/2

B = Rz (4/3) =
.
3/2 1/2

(4.132)

El eje z es un eje de simetra triple. (1, A, B) forman un grupo cclico, un subgrupo del grupo
completo de seis elementos que forman.
En el plano xy hay tres ejes de simetra adicionales, cada atomo (vertice) y el centro

geometrico definen un eje. Cada uno de estos son un eje de simetra doble. Estas
rotaciones
pueden ser descritas mas facilmente dentro de nuestro esquema bidimensional introduciendo
reflexiones. La rotacion en respecto el eje C o al eje y, lo que significa el intercambio de los
atomos a y c, es solo una reflexion de el eje x:

C = RC () =

eje D

(B)

rotacin

4
3


1 0
.
0 1

(C)

(4.133)

x x
b

x
a

Figura 4.9: El triangulo a l derecha es el triangulo a la izquierda rotado en 180 respecto al


eje D. D = CB.

Podemos reemplazar la rotacion respecto al eje D por una rotacion en 4/3 (respecto a
nuestro eje z) seguido por una reflexion del eje x (x x) (figura 4.9):
D = RD () = CB



1 0
1/2
3/2

=
0 1
3/2 1/2


1/2

3/2

.
=
3/2 1/2

(4.134)

De manera similar; la rotacion en respecto al eje E que intercambia a con b es reemplazada


12

Note que estamos rotando el tri


angulo en sentido antihorario relativo a las coordenadas fijadas.

CAPITULO 4. TEORIA DE GRUPO.

168

por una rotacion en 2/3 (A) y luego una reflexion13 del eje x (x x):
E = RE () = CA



1 0
1/2

3/2

=
0 1
3/2 1/2


1/2
3/2
=
.
3/2 1/2

(4.135)

La tabla de multiplicacion completa del grupo es

1
A
B
C
D
E

1
1
A
B
C
D
E

A B
A B
B 1
1 A
E D
C E
D C

C
C
D
E
1
A
B

D E
D E
E C
C D
B A
1 B
A 1

Notemos que cada elemento del grupo aparece solo una vez en cada fila y en cada columna.
Tambien, a partir de la tabla de multiplicacion el grupo no es abeliano. Hemos construido
un grupo de seis elementos y una representacion en matriz irreducible de 2 2. El u
nico otro
grupo distinto de seis elementos es el grupo cclico [1, R, R2 , R3 , R4 , R5 ] con

R=


 
3/2
cos /3 sen /3
1/2

=
.
sen /3
cos /3
3/2
1/2

(4.136)

Nuestro grupo [1, A, B, C, D, E] es llamado D3 en cristalografa, el grupo diedro con un eje


de simetra triple. Los tres ejes (C, D, y E) en el plano xy llegan a ser automaticamente ejes
de simetra dobles. Como una consecuencia, (1, C), (1, D) y (1, E) todos forman subgrupos de
dos elementos. Ninguno de estos subgrupos de dos elementos de D3 es invariante.
Hay otras dos representaciones irreducibles del grupo de simetra del triangulo equilatero:
(1) la trivial (1, 1, 1, 1, 1, 1), y (2) el casi trivial (1, 1, 1, -1, -1, -1), los signos positivos
corresponden a rotaciones apropiadas y los signos negativos a rotaciones impropias (aquellas
que involucran una reflexion). Ambos representaciones son homomorficas con D3 .
Un resultado general e importante para grupos finitos de h elementos es que
X
n2i = h ,
(4.137)
i

donde ni es la dimension de las matrices de la i-esima representacion irreducible. Esta


igualdad, a veces llamada teorema de dimensionalidad, es muy u
til para establecer las representaciones irreducible de un grupo. Aqu para D3 tenemos 12 + 12 + 22 = 6 para nuestras tres
representaciones. No existe otra representacion del grupo de simetra de tres objetos.
13

Note que, como una consecuencia de esas reflexiones, det(C) = det(D) = det(E) = 1. Las rotaciones A
y B tienen un determinante igual a +1.

4.6. GRUPOS DISCRETOS.

4.6.5.

169

Grupos dih
edricos, Dn

Un grupo dihedrico Dn con un eje de simetra de orden n implica n ejes con separacion
angular 2/n radianes. n es un entero positivo, pero sin mas restricciones. Si nosotros aplicamos los argumentos de simetra a redes cristalinas, entonces n esta limitado a 1, 2, 3, 4
y 6. Los requerimientos de invariancia del la red cristalina bajo translaciones en el plano
perpendicular al eje de orden n excluye n = 5, 7, y valores mas altos. Trate de cubrir un
plano completamente con pentagonos regulares identicos y sin sobreponerse. Para moleculas
individuales, esta restriccion no existe, aunque los ejemplos con n > 6 son raros. Sin embargo, n = 5 es una posibilidad real. Como un ejemplo, el grupo de simetra del rutenoceno,
(C5 H5 )2 Ru, ilustrado en la figura 4.10:, es D5 .

H
H

C
C

C
C

H
Ru

H
C
C

C
C
H

C
H

Figura 4.10: Rutenoceno, (C5 H5 )2 Ru.

4.6.6.

Grupos espaciales y cristalogr


aficos puntuales.

Los grupos dihedricos recien considerados son ejemplos de grupos cristalograficos puntuales. Un grupo puntual esta compuesto de combinaciones de rotaciones y reflexiones (incluyendo inversiones) que dejaran alguna red cristalina sin cambios. Limitando las operaciones a
rotaciones y reflexiones (incluyendo inversiones) significa que un punto, el origen, permanece
fijo, de aqu el termino grupo puntual. Incluyendo los grupos cclicos, los dos grupos c
ubicos
(simetras tetrahedricas y octahedricas) y las formas impropias (que incluyen reflexiones),
tenemos un total de 32 grupos puntuales.
Si, a las operaciones de rotacion y reflexion que producen los grupos puntuales, agregamos
la posibilidad de translacion y todava demandamos que alguna red cristalina se mantenga
invariante, llegamos a los grupos espaciales. Hay 230 distintos grupos espaciales, un n
umero
que espanta, excepto, posiblemente, a los especialistas en el campo. Para detalles hay que
ver literatura especializada.

170

CAPITULO 4. TEORIA DE GRUPO.

Parte II
Ecuaciones diferenciales ordinarias.

171

Captulo 5
Ecuaciones diferenciales de primer
orden.
versi
on final 2.2-0210291

5.1.

Introducci
on.

Al estudiar los fenomenos fsicos, con frecuencia no es posible hallar de inmediato las
expresiones explcitas de las magnitudes que caracterizan dichos fenomenos. Sin embargo,
suele ser mas facil establecer la dependencia entre esas magnitudes y sus derivadas o sus
diferenciales. As, obtenemos ecuaciones que contienen las funciones desconocidas, escalares
o vectoriales, bajo el signo de derivadas o de diferenciales.
Las ecuaciones en las cuales la funcion desconocida, escalar o vectorial, se encuentra bajo
el signo de derivada o de diferencial, se llaman ecuaciones diferenciales. Veamos algunos
ejemplos de ecuaciones diferenciales:
dx
= kx es la ecuacion de la desintegracion radiactiva. (k es la constante de desintedt
gracion; x es la cantidad de sustancia no desintegrada en el tiempo t. La velocidad de
dx
desintegracion
es proporcional a la cantidad de sustancia que se desintegra).
dt


d2~r
d~r
~
2) m 2 = F t, ~r,
es la ecuacion del movimiento de un punto de masa m, bajo la
dt
dt
influencia de una fuerza F~ dependiente del tiempo, de la posicion, ~r, y de su velocidad
d~r
. La fuerza es igual al producto de la masa por la aceleracion.
dt

1)

3)

2u 2u 2u
+
+
= 4(x, y, z) es la ecuacion de Poisson, la cual satisface el potencial
x2 y 2 z 2
electroestatico u(x, y, z) en presencia de la densidad de carga (x, y, z).

Si se indican los metodos para hallar las funciones incognitas, determinadas por las ecuaciones diferenciales, se habra hallado as la dependencia entre las magnitudes indicadas. La
1

Este captulo est


a basado en el primer captulo del libro: Ecuaciones diferenciales y c
alculo variacional
de L. Elsgoltz, editorial MIR

173

CAPITULO 5. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

174

b
usqueda de las funciones desconocidas, determinadas por las ecuaciones diferenciales, es
precisamente el problema fundamental de la teora de ecuaciones diferenciales.
Si en una ecuacion diferencial la funcion desconocida, escalar o vectorial, en funcion de
una sola variable, la ecuacion diferencial es llamada ordinaria (los dos primeros casos en el
ejemplo anterior). Si, en cambio, la funcion desconocida es funcion de dos o mas variables
independientes, la ecuacion diferencial se llama ecuaci
on en derivadas parciales (el tercer caso
en el ejemplo anterior).
Se denomina orden de la ecuacion diferencial al grado de la derivada (o diferencial) maxima
de la funcion desconocida, que figura en la ecuacion.
Se llama solucion de la ecuacion diferencial a una funcion que, al ser sustituida en la
ecuacion diferencial, la convierte en una identidad.
Por ejemplo, la ecuacion de la desintegracion radiactiva
dx
= kx ,
dt

(5.1)

x(t) = cekt ,

(5.2)

tiene la solucion
donde c es una constante arbitraria.
Es evidente que la ecuacion diferencial (5.1) a
un no determina por completo la ley de
desintegracion x = x(t). Para su completa determinacion hay que conocer la cantidad de
sustancia x0 en un momento inicial t0 . Si x0 es conocida, entonces tomando en cuenta la
condicion x(t0 ) = x0 , de (5.2) hallamos la ley de desintegracion radiactiva:
x(t) = x0 ek(tt0 ) .
El proceso de determinar las soluciones de una ecuacion diferencial se llama integracion
de la misma. En el ejemplo anterior hallamos facilmente la solucion exacta, pero, en casos
mas complejos, con frecuencia es necesario utilizar metodos aproximados de integracion de
dichas ecuaciones. Este tema lo abordaremos en la parte IV de estos apuntes.
Veamos mas detalladamente el problema mas complejo mencionado antes, de la determinacion de la trayectoria ~r = ~r(t) de un punto material de masa m, bajo la accion de una
fuerza dada F~ (t, ~r, ~r ). Seg
un la ecuacion de Newton,
m~r = F~ (t, ~r, ~r ) .
Por lo
que la
fuerza

(5.3)

tanto, el problema se reduce a la integracion de esta ecuacion diferencial. Es evidente


ley de movimiento a
un no queda determinada por completo si se dan la masa m y la
~
F ; hay que conocer tambien la posicion inicial del punto
~r(t0 ) = ~r0

(5.4)

~r (t0 ) = ~r0

(5.5)

y su velocidad inicial

5.2. ECUACIONES DE PRIMER ORDEN.

175

Observese que la ecuacion vectorial (5.3) de segundo orden puede sustituirse por un sistema
equivalente de dos ecuaciones vectoriales de primer orden, si consideramos la velocidad ~v
como una segunda funcion vectorial desconocida:
d~r
= ~v ,
dt

d~v
= F~ (t, ~r, ~v ) .
dt

(5.6)

Cada ecuacion vectorial en el espacio tridimensional puede ser sustituida, proyectando sobre
los ejes de coordenadas, por tres ecuaciones escalares. Por lo tanto, la ecuacion (5.3) es
equivalente a un sistema de tres ecuaciones escalares de segundo orden, y el sistema (5.6), a
un sistema de seis ecuaciones escalares de primer orden.
Finalmente, podemos sustituir una ecuacion vectorial (5.3) de segundo orden en el espacio
tridimensional por una ecuacion vectorial de primer orden en el espacio de seis dimensiones
cuyas coordenadas son las tres componentes del vector posicion rx , ry y rz , mas las tres
componentes del vector velocidad vx , vy y vz . Usualmente este espacio es llamado espacio de
~
fase. El vector R(t)
en dicho espacio tiene coordenadas (rx , ry , rz , vx , vy , vz ). En esta notacion
el sistema (5.6) toma la forma:
~
dR
~
= (t, R(t))
,
(5.7)
dt
las proyecciones del vector en el espacio de seis dimensiones son las correspondientes
proyecciones de los segundos miembros del sistema (5.6) en el espacio tridimensional.
Bajo esta interpretacion, las condiciones iniciales (5.4) y (5.5) se sustituyen por la condicion
~ 0) = R
~0 .
R(t
~ = R(t)
~
La solucion de la ecuacion (5.7) R
sera una trayectoria en el espacio de fase, en la
que cada uno de sus puntos corresponde a cierto estado instantaneo del sistema.

5.2.

Ecuaciones de primer orden.

Una ecuacion diferencial ordinaria de primer orden, puede escribirse en la forma


dy
= f (x, y) .
dx
Un ejemplo simple de tal ecuacion,
dy
= f (x) ,
dx
se analiza en el curso de calculo integral. En este caso simple, la solucion
Z
y = f (x) dx + c ,
contiene una constante arbitraria , que puede determinarse si se conoce el valor de y(x0 ) = y0 ;
entonces
Z x
y = y0 +
f (x0 ) dx0 .
x0

CAPITULO 5. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

176

Mas adelante se mostrara que, bajo algunas limitaciones establecidas sobre la funcion f (x, y),
la ecuacion
dy
= f (x, y) ,
dx
tiene tambien una solucion u
nica, que satisface la condicion y(x0 ) = y0 , y su soluci
on general,
es decir, el conjunto de soluciones que contienen, sin excepcion, todas las soluciones, depende
de una constante arbitraria.
dy
La ecuacion diferencial
= f (x, y) establece una dependencia entre las coordenadas de
dx
dy
un punto y el coeficiente angular de la tangente
a la grafica de la solucion en ese punto.
dx
dy
Conociendo x e y, se puede calcular
. Por consiguiente, la ecuacion diferencial de la forma
dx
considerada determina un campo de direcciones (figura 5.1), y el problema de la integracion
de la ecuacion diferencial se reduce a hallar las llamadas curvas integrales, para las cuales la
direccion de las tangentes a estas coincide en cada punto con la direccion del campo.
Ejemplo Consideremos la siguiente ecuacion

dy
y
= .
dx
x
En cada punto, diferente del punto (0,0), el
coeficiente angular de la tangente a la curva
integral buscada es igual a la razon xy , o sea,
coincide con el coeficiente angular de la recta dirigida desde el origen de coordenadas al
mismo punto (x, y). En la figura (5.2) esta representado con flechas el campo de direcciones
determinado por la ecuacion estudiada. Evidentemente, en este caso las curvas integrales
seran las rectas y = cx, ya que las direcciones
de estas rectas coinciden en todas partes con

Figura 5.1: Curvas integrales.


la direccion del campo.
En muchos problemas, en particular en casi todos los problemas de caracter geometricos,
las variables x e y son equivalentes. Por ello, en dichos problemas, si estos se reducen a la
resolucion de la ecuacion diferencial
dy
= f (x, y) ,
(5.8)
dx
es natural considerar, conjuntamente con (5.8), tambien
dx
1
=
.
dy
f (x, y)

(5.9)

Si ambas ecuaciones tienen sentido, entonces son equivalentes, ya que si la funcion y = y(x)
es solucion de la ecuacion (5.8), la funcion inversa x = x(y) es solucion de (5.9) y, por lo
tanto, ambas ecuaciones poseen curvas integrales comunes.
Si, en cambio, en algunos puntos una de las ecuaciones (5.8) o (5.9) pierde sentido, entonces en esos puntos es natural sustituirla por la otra ecuacion.

5.3. ECUACIONES CON VARIABLES SEPARABLES.

177

Figura 5.2: Curvas integrales y = cx.

5.3.

Ecuaciones con variables separables.

Las ecuaciones diferenciales del tipo


f2 (y) dy = f1 (x) dx ,

(5.10)

se llaman ecuaciones con variables separadas. Consideremos que las funciones f1 y f2 son
continuas.
Supongamos que y(x) es solucion de esta ecuacion; entonces al sustituir y(x) en la ecuacion
(5.10), obtenemos una identidad que, al ser integrada, da
Z
Z
f2 (y) dy = f1 (x) dx + c ,
(5.11)
donde c es una constante arbitraria.
Hemos obtenido una ecuacion en que no figuran ni derivadas ni diferenciales, ecuaciones
as se denominan ecuaciones finitas, satisfechas por todas las soluciones de la ecuacion (5.10).
Ademas, cada solucion de la ecuacion (5.11) es solucion de (5.10), ya que si una funcion y(x),
al ser sustituida en la ecuacion (5.11), la transforma en una identidad, entonces derivando
dicha identidad obtenemos que y(x) satisface (5.10).
La ecuacion finita (x, y) = 0 que determina la solucion y(x) de la ecuacion diferencial
como funcion implcita de x, se llama integral de la ecuacion diferencial considerada.
Si esta ecuacion finita determina sin excepcion todas las soluciones de la ecuacion diferencial dada, entonces se llama integral general de dicha ecuacion diferencial. Por consiguiente,
la ecuacion (5.11) es integral general de la ecuacion (5.10). Para que (5.11) determine y como
funcion implcita de x, es suficiente exigir que f2 (y) 6= 0.
R Es posible
R que en algunos problemas no sea posible expresar las integrales indefinidas
f1 (x) dx y f2 (y) dy en funciones elementales; pero, a pesar de esto, consideramos resuelto
tambien en este caso el problema de la integracion de la ecuacion diferencial (5.10), en el

178

CAPITULO 5. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

sentido de que lo hemos reducido a un problema simple del calculo de integrales indefinidas.
Como el termino integral en teora de ecuaciones diferenciales se utiliza frecuentemente en
el sentido Rde integral de la ecuacion diferencial, entonces para referirnos a integrales de
funciones, f (x) dx, generalmente se utiliza el termino cuadratura.
Si hay que obtener la solucion particular que satisface la condicion y(x0 ) = y0 , esta
evidentemente se determina por la ecuacion
Z y
Z x
f2 (y) dy =
f1 (x) dx ,
y0

la cual se obtiene de

x0

f2 (y) dy =
y0

f1 (x) dx + c ,
x0

utilizando las condiciones iniciales y(x0 ) = y0 .


Ejemplo Considere la siguiente ecuacion
xdx + ydy = 0 .
Las variables estan separadas, ya que el coeficiente de dx es funcion solo de x, y el coeficiente
de dy, solo de y. Integrando, obtenemos
Z
Z
x dx + y dy = c o bien x2 + y 2 = c21 ,
que es una familia de circunferencias con centro en el origen de coordenadas.
Las ecuaciones del tipo
1 (x)1 (y) dx = 2 (x)2 (y) dy ,
en las cuales los coeficientes de las diferenciales se descomponen en factores dependientes solo
de x o de y, se llaman ecuaciones diferenciales con variables separables, ya que dividiendo
entre 1 (y)2 (x), estas se reducen a una ecuacion de variables separadas:
1 (x)
2 (y)
dx =
dy ,
2 (x)
1 (y)
Observese que la division entre 1 (y)2 (x) puede conducir a la perdida de soluciones particulares, que reducen a cero el producto 1 (y)2 (x); si las funciones 1 (y) y 2 (x) pueden ser
discontinuas, es posible la aparicion de soluciones superfluas, que reducen a cero el factor
1
.
1 (y)2 (x)
Ejemplo Como ya fue mencionado, se ha establecido que la velocidad de desintegracion
radiactiva es proporcional a la cantidad x de sustancia a
un no desintegrada. Hallar la dependencia de x respecto al tiempo t, si en el momento inicial para t = t0 , era x = x0 .

5.4. ECUACIONES QUE SE REDUCEN A ECUACIONES DE VARIABLES SEPARABLES179


Supondremos conocido el coeficiente de proporcionalidad k, llamado constante de desintegracion. La ecuacion diferencial que gobierna el proceso tendra la forma
dx
= kx ,
dt
El signo menos en el termino derecho de la ecuacion indica que x decrece cuando t aumenta,
k > 0. Separando variables e integrando, se obtiene
dx
= k dt ;
x

ln(| x |) ln(| x0 |) = k (t t0 ) ,

de donde
x = x0 ek(tt0 ) .
Determinemos tambien el perodo de desintegracion (o sea, el tiempo durante el cual se
desintegra x0 /2). Haciendo t t0 = , obtenemos x0 /2 = x0 ek , de donde = ln 2/k.
La ecuacion
dx
= kx , k > 0 ,
dt
se diferencia solo en el signo del segundo miembro de la ecuacion anterior, sin embargo,
describe procesos de reproduccion completamente diferentes, por ejemplo: la variacion de
la cantidad de neutrones en las reacciones en nucleares en cadena, o la reproduccion de una
colonia de bacterias en condiciones ideales. La solucion de esta ecuacion que satisface la
condicion inicial x(t0 ) = x0 tiene la forma
x = x0 ek(tt0 ) ,
y, a diferencia de las soluciones anteriores, x(t) no disminuye, sino que crece exponencialmente
con el incremento de t.

5.4.

Ecuaciones que se reducen a ecuaciones de variables separables

Muchas ecuaciones diferenciales pueden ser reducidas a ecuaciones con variables separables mediante una sustitucion de variables. A dicho grupo pertenecen, por ejemplo, las
ecuaciones de la forma
dy
= f (ax + by) ,
dx
donde a y b son magnitudes constantes, las cuales se transforman en ecuaciones con variables
separables por medio de la sustitucion z = ax + by. Efectivamente, pasando a las nuevas
variables x y z, tendremos
dz
dy
=a+b
,
dx
dx
o bien

dz
= a + bf (z) ,
dx

dz
= dx ,
a + bf (z)

180

CAPITULO 5. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

con lo que hemos separado las variables. Integrando, obtenemos


Z
dz
x=
+c .
a + bf (z)
Ejemplo Consideremos la siguiente ecuacion diferencial
dy
1
=
+1 .
dx
xy
Haciendo x y = z, obtenemos
dy
dz
=1
dx
dx
dz
1
= ,
dx
z

5.4.1.

zdz = dx ,

dz
1
= +1 ;
dx
z

z 2 = 2x + c ,

(x y)2 = 2x + c .

Ecuaciones homog
eneas.

Las ecuaciones diferenciales homogeneas de primer orden, que tienen la forma


y
dy
=f
,
dx
x
pueden reducirse a ecuaciones con variables separables. En efecto, despues de la sustitucion
y
z = , o bien y = xz, obtenemos
x
dy
dz
dz
dz
dx
= x + z , x + z = f (z) ,
=
,
dx
dx
dx
f (z) z
x
Z
R
dz
dz
= ln | x | + ln c , x = c e f (z)z .
f (z) z
Observese que el segundo miembro de la ecuacion homogenea es un funcion homogenea en
las variables x e y de grado nulo2 de homogeneidad; por eso la ecuacion del tipo
M (x, y) dx + N (x, y) dy = 0 ,
sera homogenea si M (x, y) y N (x, y) son funciones homogeneas de x e y, del mismo grado
de homogeneidad, puesto que en este caso
y
dy
M (x, y)
=
=f
.
dx
N (x, y)
x
2

Una funcion f (u, v) es homogenea de grado n si al multiplicar las variables por , la funcion resultante
es n veces la funci
on original.

5.4. ECUACIONES QUE SE REDUCEN A ECUACIONES DE VARIABLES SEPARABLES181


Ejemplo Considere la siguiente ecuacion
dy
y
y
= + tan .
dx
x
x
Haciendo y = xz,

dz
dy
= x + z y sustituyendo en la ecuacion inicial, obtenemos
dx
dx
x

dz
+ z = z + tan z ,
dx

ln | sen z | = ln | x | + ln c ,

5.4.2.

cos z dz
dx
=
,
sen z
x

sen z = cx

sen

y
= cx .
x

Ecuaciones que se reducen a homog


eneas.

Las ecuaciones del tipo


dy
=f
dx

a1 x + b 1 y + c 1
a2 x + b 2 y + c 2


,

(5.12)

pueden reducirse a ecuaciones homogeneas, si trasladamos el origen de coordenadas al punto


de interseccion (x1 , y1 ) de las rectas
a1 x + b 1 y + c 1 = 0 ,

a2 x + b2 y + c2 = 0 .

Efectivamente, el miembro independiente en las ecuaciones de estas rectas en las nuevas


coordenadas X = x x1 , Y = y y1 , sera igual a cero; los coeficientes de las coordenadas
dY
dy
permanecen invariables;
=
, y la ecuacion (5.12) toma la forma
dx
dX


a1 X + b 1 Y
dY
=f
,
dX
a2 X + b 2 Y
o bien
dY
=f
dX

Y
a1 + b 1 X
Y
a2 + b 2 X


=

Y
X


,

que ya es una ecuacion homogenea.


Este metodo no se puede aplicar solo en el caso en que haya paralelismo entre las rectas
a1 x + b1 y + c1 = 0 y a2 x + b2 y + c2 = 0. Pero en este caso los coeficientes de las coordenadas
a2
b2
son proporcionales:
=
= k, y la ecuacion (5.12) se puede escribir en la forma
a1
b1


dy
a1 x + b 1 y + c 1
=f
= F (a1 x + b1 y) ,
dx
k(a1 x + b1 y) + c2
como ya sabemos, el cambio de variable z = a1 x + b1 y transforma la ecuacion considerada en
una ecuacion con variables separables.

182

CAPITULO 5. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

Ejemplo Considere la siguiente ecuacion


dy
xy+1
=
.
dx
x+y3
Resolviendo el sistema de ecuaciones x y + 1 = 0, x + y 3 = 0, obtenemos x1 = 1, y1 = 2.
Haciendo x = X + 1, y = Y + 2, tendremos


dY
X Y
=f
.
dX
X +Y
El cambio de variable Y = zX conduce a una ecuacion de variables separables:
z+X

dz
1z
=
,
dX
1+z

(1 + z) dz
dX
=
,
2
1 2z + z
X

1
1
ln 1 2z z 2 = ln | X | ln c ,
2
2
2
2
(1 2z z )X = c ,
X 2 2XY Y 2 = c ,
x2 2xy y 2 + 2x + 6y = c1 .

5.5.

Ecuaciones lineales de primer orden.

Se llama ecuacion diferencial de primer orden a una ecuacion lineal con respecto a la
funcion desconocida y a su derivada. La ecuacion lineal tiene la forma
dy
+ p(x)y = f (x) ,
dx

(5.13)

donde p(x) y f (x) se consideraran en lo sucesivo funciones continuas de x en la region en que


se exige integrar la ecuacion (5.13).
Si f (x) 0, la ecuacion (5.13) se llama lineal homogenea. En la ecuacion lineal homogenea
las variables se separan
dy
+ p(x)y = 0 ,
dx

de donde

dy
= p(x) dx ,
y

e integrando, obtenemos
Z
ln | y | =

p(x) dx + ln c1 ,

y = c1 e

p(x) dx

c1 > 0 ,

c1 6= 0 .

(5.14)

Al dividir entre y se perdio la solucion y = 0; sin embargo, esta puede ser incluida en la
familia de soluciones halladas (5.14), si se considera que c puede tomar el valor 0.

5.5. ECUACIONES LINEALES DE PRIMER ORDEN.

5.5.1.

183

Ecuaciones lineales no homog


eneas.

Para integrar la ecuacion lineal no homogenea


dy
+ p(x)y = f (x) .
dx

(5.13)

As puede ser aplicado el llamado metodo de variaci


on de la constante. Al aplicar dicho
metodo, primeramente se integra la ecuacion homogenea correspondiente (o sea, la que tiene
el mismo primer miembro):
dy
+ p(x)y = 0 ,
dx
cuya solucion general, como fue indicado anteriormente, tiene la forma
p(x0 ) dx0

y = c e
0

Cuando c es constante, la funcion c e p(x ) dx es la solucion de la ecuacion homogenea.


Probemos ahora satisfacer la ecuacion no homogenea considerando c como funcion de x, o
sea, realizando en esencia la sustitucion de variables
y = c(x) e

p(x0 ) dx0

donde c(x) es una funcion desconocida de x.


Calculando la derivada
R
dy
dc R p(x0 ) dx0
0
0
=
e
c(x)p(x) e p(x ) dx ,
dx
dx

y sustituyendola en la ecuacion no homogenea inicial (5.13), se obtiene


R
R
dc R p(x0 ) dx0
0
0
0
0
e
c(x)p(x) e p(x ) dx + p(x)c(x) e p(x ) dx = f (x) ,
dx

o bien

R
dc
0
0
= f (x) e p(x ) dx ,
dx

de donde, integrando, se halla


Z
c(x) =

p(x0 ) dx0

f (x00 )e

dx00 + c1 ,

y, por consiguiente,

y = c(x) e

p(x0 ) dx0

= c1 e

p(x0 ) dx0

+e

p(x0 ) dx0

f (x00 )e

p(x0 ) dx0

dx00 .

(5.15)

De este modo, la solucion general de la ecuacion lineal no homogenea es igual a la suma de


la solucion general de la ecuacion homogenea correspondiente
c1 e

p(x0 ) dx0

184

CAPITULO 5. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

y de la solucion particular de la ecuacion no homogenea


Z
R
R
0
0
p(x0 ) dx0
e
f (x00 )e p(x ) dx dx00 ,
que se obtiene de (5.15) si c1 = 0.
Observese que en ejemplos concretos no es conveniente utilizar la formula (5.15) , compleja
y difcil de recordar; es mas sencillo repetir cada vez todas las operaciones expuestas mas
arriba.
Ejemplo En un circuito electrico con auto induccion tiene lugar el paso de corriente alterna.
La tension U es un funcion dada del tiempo, U = U (t), la resistencia R y la auto induccion L
son constantes; la corriente inicial es dada, I(0) = I0 . Hallar la dependencia de la intensidad de
la corriente I = I(t) respecto al tiempo. Aplicando la ley de Ohm para el circuito obtenemos
U L

dI
= RI .
dt

La solucion de esta ecuacion lineal que satisface la condicion inicial I(0) = I0 , de acuerdo
con (5.15), tiene la forma


Z
R 0
1 t
R
0
t
t
0
U (t )e L dt .
I = e L I0 +
(5.16)
L 0
Para una tension constante U = U0 , obtenemos


U0
U0 R t
I=
+ I0
e L .
R
R
Es interesante el caso de tension alterna sinusoidal: U = A sen t. En este caso, seg
un (5.16),
obtenemos


Z
R 0
A t
R
0
t
t
0
I = e L I0 +
sen t e L dt .
L 0
La integral del segundo miembro se toma facilmente.

5.5.2.

Ecuaciones de Bernoulli y Riccati.

Muchas ecuaciones diferenciales pueden ser reducidas a ecuaciones lineales mediante un


cambio de variables. Por ejemplo, la ecuaci
on de Bernouilli, que tiene la forma
dy
+ p(x)y = f (x)y n ,
dx
o bien

n 6= 1 ,

dy
+ p(x)y 1n = f (x) ,
(5.17)
dx
= z, se reduce a una ecuacion lineal. Efectivamente, derivando
y n

con el cambio de variable y 1n


y 1n = z, hallamos

(1 n)y n

dy
dz
=
,
dx
dx

5.5. ECUACIONES LINEALES DE PRIMER ORDEN.

185

y sustituyendo en (5.17), obtenemos la ecuacion lineal


1 dz
+ p(x) z = f (x) .
1 n dx
Ejemplo Consideremos la ecuacion
y
x2
dy
=
+
,
dx
2x 2y
o bien

y2
dy
=
+ x2 ,
dx
x
dy
dz
con el cambio de variable y 2 = z tenemos 2y
=
, con lo que la ecuacion nos queda
dx
dx
2y

dz
z
= + x2 ,
dx
x
que es una ecuacion diferencial lineal de primer orden no homogenea.
La ecuacion

dy
+ p(x)y + q(x)y 2 = f (x) ,
dx
llamada ecuacion de Riccati, en general no se integra en cuadraturas, pero por sustitucion
de variables puede ser transformada en una ecuacion de Bernoulli, si se conoce una solucion
particular y1 (x) de esta ecuacion. Efectivamente, haciendo y = y1 + z, se obtiene
y10 + z 0 + p(x)(y1 + z) + q(x)(y1 + z)2 = f (x) ,
o, como y10 + p(x)y1 + q(x)y12 f (x), tendremos la ecuacion de Bernoulli
z 0 + [p(x) + 2q(x)y1 ]z + q(x)z 2 = 0 .
Ejemplo Consideremos la ecuacion
dy
2
= y2 2 .
dx
x
Aqu no es difcil hallar la solucion particular y1 = x1 . Haciendo y = z + x1 , obtenemos
1
y =z + 2 ,
x
0

1
z 2 =
x

z0 = z2 + 2

z
,
x

o bien

1
z
x2

2

2
,
x2

que es una ecuacion de Bernoulli.


z0
2
=
+1 ,
2
z
xz

u=

1
,
z

du
z0
= 2 ,
dx
z

186

CAPITULO 5. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.


2u
du
= 1 ,
dx
x
ln | u | = 2 ln | x | + ln c ,

du
2dx
=
,
u
x
u=

c
,
x2

u=

c(x)
,
x2

c0 (x)
x3
=
1
,
c(x)
=

+ c1 ,
x2
3
x
c1
c1
x
1
c1
x
1
,
u= 2 ,
= 2 ,
1 = 2
x
3
x
3
z
x
3
yx
1
3x2
y= +
.
x c2 x3

5.6.

Ecuaciones en diferenciales totales.

Puede suceder que el primer miembro de la ecuacion diferencial


M (x, y) dx + N (x, y) dy = 0 ,

(5.18)

sea la diferencial total de cierta funcion u(x, y):


du(x, y) = M (x, y) dx + N (x, y) dy ,
y que por consiguiente, la ecuacion (5.18) tome la forma
du(x, y) = 0 .
Si la funcion y(x) es solucion de la ecuacion (5.18), entonces
u(x, y(x)) = c ,

(5.19)

donde c es una constante. recprocamente, si cierta funcion y(x) convierte en identidad la


ecuacion finita (5.19), entonces, derivando la identidad obtenida, tendremos du(x, y(x)) = 0
y, por consiguiente, u(x, y) = c, donde c es una constante arbitraria, es integral general de la
ecuacion inicial.
Si las condiciones iniciales y(x0 ) = y0 estan dadas, la constante c se determina de (5.19):
c = u(x0 , y0 ) y
u(x, y(x)) = u(x0 , y0 ) ,
(5.20)
u
= N (x, y) 6= 0 en el punto (x0 , y0 ), entonces la
y
ecuacion (5.20) determina y como funcion implcita de x.
Para que el primer miembro de la ecuacion (5.18)
es la integral particular buscada. Si

M (x, y) dx + N (x, y) dy ,

5.6. ECUACIONES EN DIFERENCIALES TOTALES.

187

sea un diferencial total de cierta funcion u(x, y), como se sabe, es necesario y suficiente que
M (x, y)
N (x, y)

.
y
x

(5.21)

Si esta condicion, se
nalada inicialmente por Euler, se cumple, entonces (5.18) se integra
facilmente. En efecto
du = M dx + N dy .
Por otra parte,
du =

u
u
dx +
dy .
x
y

Por consiguiente,
u
= N (x, y) ,
y

u
= M (x, y) ;
x
de donde

Z
u(x, y) =

M (x, y) dx + c(y) .

Al calcular la integral de la expresion anterior, la magnitud y se considera constante; por eso,


c(y) es una funcion arbitraria de y.
Para determinar la funcion c(y), derivamos la funcion hallada u(x, y) respecto a y y, como
u
= N (x, y), obtenemos
y
Z


M (x, y) dx + c0 (y) = N (x, y) .


y
De esta ecuacion se determina c0 (y), e integrando se halla c(y).
Se puede determinar a
un mas facilmente la funcion u(x, y) por su diferencial total du =
M (x, y) dx+N (x, y) dy, tomando la integral curvilnea de M (x, y) dx+N (x, y) dy desde cierto
punto fijo (x0 , y0 ) hasta un punto con coordenadas variables (x, y), por cualquier camino:
Z (x,y)
u(x, y) =
M (x, y) dx + N (x, y) dy .
(x0 ,y0 )

Con frecuencia, es comodo tomar una lnea quebrada, compuesta por dos segmentos paralelos
a los ejes de coordenadas (figura 5.3); en este caso
Z (x,y)
Z (x,y0 )
Z (x,y)
M dx + N dy =
M dx +
N dy ,
(x0 ,y0 )

o bien
Z

(x0 ,y0 )

(x,y)

(x0 ,y)

M dx + N dy =
(x0 ,y0 )

(x,y0 )

(x,y)

N dy +
(x0 ,y0 )

N dy .
(x0 ,y0 )

Ejemplo Consideremos la siguiente ecuacion


(x + y + 1) dx + (x y 2 + 3) dy = 0 .

CAPITULO 5. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

188

( x ,y )

( x0,y0 )

( x ,y0 )
x

( x0,y )

( x ,y )

( x0,y0 )
0

Figura 5.3: Caminos de integracion posibles.

El primer miembro de la ecuacion es la diferencial total de cierta funcion u(x, y), puesto que
(x + y + 1)
(x y 2 + 3)

,
y
x
x2
u
=x+y+1 u=
+ xy + x + c(y) ,
x
2
u
= x + c0 (y) , x + c0 (y) = x y 2 + 3 ,
y
y3
c0 (y) = y 2 + 3 , c(y) = + 3y + c1 .
3
Por lo tanto, la integral general tiene la forma
3x2 + 6xy + 6x 2y 3 + 18y = c2

(5.22)

Se puede utilizar tambien el otro metodo de determinacion de la funcion u(x, y):


Z (x,y)
u(x, y) =
(x + y + 1) dx + (x y 2 + 3) dy .

( x ,y )

(x0 ,y0 )

( x ,0 )

Como punto inicial (x0 , y0 ) escogemos por ejemplo


el origen de coordenadas, y como camino de integracion el mostrado en la figura (5.4). Entonces
Z (x,0)
Z (x,y)
u(x, y) =
(x + 1) dx +
(x y 2 + 3) dy ,

Figura 5.4: Camino de integracion.


u(x, y) =

(0,0)

x2
y3
+ x + xy
+ 3y ,
2
3

y la integral general tiene la forma


x2
y3
+ x + xy
+ 3y = c ,
2
3
o bien como en (5.22).

(x,0)

5.6. ECUACIONES EN DIFERENCIALES TOTALES.

5.6.1.

189

Factor integrante.

En algunos casos, si el primer miembro de la ecuacion


M (x, y) dx + N (x, y) dy = 0 ,

(5.18)

no es una diferencial total, resulta facil escoger una funcion (x, y), tal que el producto de
esta y el miembro izquierdo de (5.18), se transforma en una diferencial total:
du = M dx + N dy .
Esta funcion se llama factor integrante. Observese que la multiplicacion por el factor integrante (x, y) puede conducir a que aparezcan soluciones particulares superfluas, que reducen
este factor a cero.
Ejemplo Consideremos la siguiente ecuacion
x dx + y dy + (x2 + y 2 )x2 dx = 0 .
es facil comprobar que despues de multiplicar por el factor = 1/(x2 +y 2 ), el primer miembro
se transforma en diferencial total. Efectivamente, luego del producto por = 1/(x2 + y 2 ),
obtenemos
x dx + y dy
+ x2 dx = 0 ,
x2 + y 2
o integrando:
1
x3
ln(x2 + y 2 ) +
= ln c1 .
2
3
multiplicando por 2 y potenciando, tendremos
(x2 + y 2 ) e2x

3 /3

=c.

Es claro que no siempre el factor integrante se escoge tan facilmente. En general, para
hallar dicho factor es necesario escoger por lo menos una solucion particular no identicamente
nula de la ecuacion en derivadas parciales
M
N
=
,
y
x
o, en forma desarrollada,

N
M +
=
N +
,
y
y
x
x
la cual, despues de dividir entre y de cambiar de miembro algunos terminos, se reduce a
ln
ln
N
M
M
N=

.
y
x
x
y

(5.23)

En general, la integracion de esta ecuacion en derivadas parciales no es un problema mas


simple que la integracion de la ecuacion inicial. Sin embargo, a veces la eleccion de la solucion
particular de (5.23) no presenta dificultades.

190

CAPITULO 5. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

Aparte de ello, considerando que el factor integrante es funcion de un solo argumento


(por ejemplo, es funcion solo de x + y o de x2 + y 2 , o funcion solo de x o de y, etc.), se puede
integrar ya sin dificultad la ecuacion (5.23) e indicar las condiciones bajo las cuales existe
un factor integrante del tipo considerado. Con esto se obtienen clases de ecuaciones para las
cuales el factor integrante puede ser hallado facilmente.
Por ejemplo, encontremos las condiciones bajo las cuales la ecuacion M dx + N dy = 0
tiene factor integrante que depende solo de x, = (x). En este caso, la ecuacion (5.23) se
simplifica y toma la forma
d ln
N
M

N=

,
dx
x
y
de donde, considerando

M
y

N
x

funcion continua de x, obtenemos


M
y

Z
ln =

N
x

N
Z

= c exp

M
y

dx + ln c ,

N
x

dx

(5.24)

Se puede considerar c = 1, ya que es suficiente tener solo un factor integrante.


M
N
y
x
Si
es funcion solo de x, entonces existe un factor integrante que solo depende
N
de x, y es igual a (5.24). En caso contrario, no existe ning
un factor de la forma (x).
La condicion de existencia de un factor integrante que depende solo de x se cumple, por
ejemplo, para la ecuacion lineal
dy
+ p(x)y = f (x) ,
dx
M
y

o bien [p(x)y f (x)] dx + dy = 0 .

N
x

Efectivamente,
= p(x) y, por lo tanto, = e p(x) dx . De manera analoga se pueden
N
hallar las condiciones de existencia de factores integrantes de la forma
 
x
2
2
(y) , (x y) , (x y ) , (xy) ,
etc.
y
Ejemplo Tiene la ecuacion
x dx + y dy + x dy y dx = 0 ,

(5.25)

un factor integrante de la forma = (x2 + y 2 )?


Designemos x2 + y 2 = z. La ecuacion (5.23) para = (x2 + y 2 ) = (z) toma la forma
2(M y N x)
de donde

1
ln | | =
2

ln
N
M
=

,
dz
x
y
Z
(z) dz + ln c ,

5.7. TEOREMAS.

191

o bien

 Z

1
= c exp
(z) dz ,
2

donde

(5.26)

N
M

x
y
(z) =
.
My Nx

Para la existencia de un factor integrante del tipo dado, es necesario (y en caso que (z) sea
continua, suficiente) que sea funcion solo de x2 + y 2 . En nuestro caso,
N
M

2
x
y
= 2
;
My Nx
x + y2
por lo tanto, el factor integrante = (x2 + y 2 ) existe y es igual a (5.26). Para c = 1,
obtenemos:

 Z
1
1
dz
= exp
= = 2
.
z
z
x + y2
Multiplicando la ecuacion (5.25) por el que determinamos, la reducimos a la forma
x dx + y dy x dy y dx
+
=0,
x2 + y 2
x2 + y 2
o bien

1
d(x2 + y 2 )
2
+
x2 + y 2

 y
d
xy 2 = 0 ,
1+
x

Integrando, obtenemos
p
y
ln x2 + y 2 = arctan + ln c ,
x

y
1
d ln(x2 + y 2 ) + d arctan = 0 .
2
x

x2

y2

y
,
= c exp arctan
x


o bien en coordenadas polares = c e , que es una familia de espirales logartmicas.

5.7.

Teoremas.

Teorema 5.1 Existencia y unicidad de la soluci


on.
Si en la ecuacion
dy
= f (x, y) ,
dx
la funcion f (x, y) es continua en el rectangulo D:
x0 a x x0 + a ,

y 0 b y y0 + b ,

y satisface en D la condicion de Lipschitz:


| f (x, y1 ) f (x, y2 ) | N | y1 y2 | ,

(5.27)

(5.28)

192

CAPITULO 5. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

donde N es una constante, entonces existe una solucion u


nica y = y(x), x0 H x x0 + H
de la ecuacion (5.27), que satisface la condicion y(x0 ) = y0 , donde


1
b
,
H < mn a ,
M N
M = max | f (x, y) | en D.

Teorema 5.2 Sobre la dependencia continua de la soluci


on con respecto al par
ametro y a los valores iniciales.
Si el segundo miembro de la ecuacion diferencial
dy
= f (x, y, ) ,
dx

(5.29)

es continuo en para 0 1 y satisface la condiciones del teorema de existencia y


unicidad, y la constante de Lipschitz N no depende de , entonces la solucion y(x, y) de la
ecuacion considerada que satisface la condicion y(x0 ) = y0 depende en forma continua de .
Teorema 5.3 Sobre la derivabilidad de las soluciones.
Si en un entorno del punto (x0 , y0 ) la funcion f (x, y) tiene derivadas continuas hasta
k-esimo orden inclusive, la solucion y(x) de la ecuacion
dy
= f (x, y) ,
dx
que satisface la condicion inicial y(x0 ) = y0 , tendra derivadas continuas hasta k + 1-esimo
orden, inclusive en cierto entorno del punto (x0 , y0 ).

Captulo 6
Ecuaciones diferenciales de orden
mayor que uno.
versi
on final 2.3-0211071

6.1.

Teorema de existencia y unicidad para la ecuaci


on
diferencial de n-
esimo orden.

Las ecuaciones diferenciales de n-esimo orden tienen la forma


y (n) = f (x, y, y 0 , . . . , y (n1) ) ,

(6.1)

o bien, si no estan resueltas con respecto a la derivada de orden mayor:


F (x, y, y 0 , . . . , y (n) ) = 0 .
El teorema de existencia y unicidad para ecuacion de n-esimo orden se puede obtener facilmente, llevandola a un sistema de ecuaciones.
(n1)

Teorema 6.1 Si en un entorno de las condiciones iniciales (x0 , y0 , y00 , . . . , y0


) la funcion
f es continua en todos sus argumentos y satisface la condicion de Lipschitz respecto a todos
los argumentos a partir del segundo, existe una solucion u
nica de la ecuacion diferencial de
n-esimo orden y (n) = f (x, y, y 0 , ..., y (n1) ) que satisface las condiciones
y(x0 ) = y0 ,

6.1.1.

y 0 (x0 ) = y00 ,

y 00 (x0 ) = y000 ,

...,

(n1)

y (n1) (x0 ) = y0

Soluci
on general.

Se llama solucion general de la ecuacion diferencial de n-esimo orden al conjunto de


soluciones formado por todas las soluciones particulares, sin excepcion. Si el segundo miembro
de la ecuacion
y (n) = f (x, y, y 0 , . . . , y (n1) ) ,
(6.1)
1

Este captulo est


a basado en el segundo captulo del libro: Ecuaciones diferenciales y c
alculo variacional
de L. Elsgoltz, editorial MIR.

193

194 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


satisface, en cierta region de variacion de sus argumentos, las condiciones del teorema de existencia y unicidad, entonces la solucion general de la ecuacion (6.1) depende de n parametros,
en calidad de los cuales se pueden tomar, por ejemplo, las condiciones iniciales de la funcion
(n1)
buscada y de sus derivadas y0 , y00 , y000 ,. . . , y0
.
En particular, la solucion general de la ecuacion de segundo grado y 00 = f (x, y, y 0 ) depende
de dos parametros, por ejemplo, de y0 y de y00 . Si fijamos y0 e y00 , o sea, damos el punto
(x0 , y0 ), y la direccion de la tangente a la curva integral buscada en dicho punto, entonces,
si se cumplen las condiciones del teorema de existencia y unicidad, se determinara una sola
curva integral, mediante estas condiciones.
Por ejemplo, la ecuacion del movimiento rectilneo de un punto material de masa m bajo
la accion de la fuerza f (t, x, x):

m
x = f (t, x, x)
,
la posicion inicial del punto x(t0 ) = x0 y la velocidad inicial x(t
0 ) = x0 determinan una
solucion u
nica, una trayectoria u
nica x = x(t) si, por supuesto, la funcion f satisface las
condiciones del teorema de existencia y unicidad.

6.2.

Casos simples de reducci


on del orden.

En ciertos casos el orden de la ecuacion diferencial puede ser reducido, lo que a menudo
facilita su integracion.
Se
nalemos algunas clases de ecuaciones que se encuentran con mayor frecuencia y que
pueden reducir su orden.
1. La ecuacion no contiene la funcion buscada y sus derivadas hasta el orden k1 inclusive:
F (x, y (k) , y (k+1) , . . . , y (n) ) = 0 .

(6.2)

En este caso el orden de la ecuacion puede ser reducido a n k mediante el cambio de


variables y (k) = p.
En efecto, luego del cambio de variables, la ecuacion (6.2) toma la forma
F (x, p, p0 , . . . , p(nk) ) = 0 .

(6.3)

De esta ecuacion se determina p = p(x, c1 , c2 , . . . , cnk ), e y se halla de la ecuacion


y (k) = p(x, c1 , c2 , . . . , cnk ), integrando k veces. En particular, si la ecuacion de segundo
orden no contiene a y, la sustitucion de variables y 0 = p conduce a una ecuacion de
primer orden.
Ejemplo Consideremos la siguiente ecuacion
d5 y
1 d4 y

=0.
dx5 x dx4

DEL ORDEN.
6.2. CASOS SIMPLES DE REDUCCION

195

d4 y
dp
1
= p obtenemos
p = 0; separando variables e integrando, tendre4
dx
dx x
d4 y
mos: ln | p | = ln | x | + ln c, o bien p = cx, 4 = cx, de donde
dx
Haciendo

y = c1 x5 + c2 x3 + c3 x2 + c4 x + c5 .
Ejemplo Hallar la trayectoria de un cuerpo que cae sin velocidad inicial en la atmosfera,
considerando la resistencia del aire proporcional al cuadrado de la velocidad.
La ecuacion de movimiento tiene la forma
d2 s
m 2 = mg k
dt

ds
dt

2
,

donde s es el espacio recorrido por el cuerpo; m, la masa del mismo; t, el tiempo. Para
ds
t = 0, se tiene s = 0 y
= 0.
dt
La ecuacion no contiene explcitamente a la funcion incognita s; por lo tanto, se puede
ds
reducir el orden de la misma considerando
= v. Entonces la ecuacion de movimiento
dt
toma la forma
dv
m = mg kv 2 .
dt
Separando variables e integrando, se obtiene
Z v
dv
1
kv
m dv
= dt ; t = m
= Arctanh ,
2
2
mg kv
k g
g
0 mg kv

de donde v =
tanh(k g t); multiplicando por dt e integrando nuevamente, hallamos
k
la trayectoria del movimiento:
s=

ln cosh(k g t) .
2
k

2. La ecuacion no contiene a la variable independiente:


F (y, y 0 , y 00 , . . . , y (n) ) = 0 .
En este caso el orden de la ecuacion se puede reducir en una unidad por medio de la
sustitucion y 0 = p; ademas, p se considera nueva funcion desconocida de y, p = p(y) y,
dk
por lo tanto, todas las derivadas
deben expresarse por medio de las derivadas de
dxk
la nueva funcion desconocida p(y) respecto a y:
dy
=p,
dx
d2 y
dp
dp dy
dp
=
=
=
p,
2
dx
dx
dy dx
dy




 2
d3 y
d dp
d dp
dy
d2 p 2
dp
=
p
=
p
=
p
+
p.
dx3
dx dy
dy dy
dx
dy 2
dy

196 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


y analogamente para las derivadas de orden superior. Ademas, es evidente que la deridk y
vada
se expresa mediante las derivadas de p respecto a y de orden no superior a
dxk
k 1, lo cual precisamente conduce a la disminucion del orden en una unidad.
En particular, si la ecuacion de segundo orden no contiene a la variable independiente,
entonces la sustitucion de variables se
nalada conduce a una ecuacion de primer orden.
Ejemplo Integrar la ecuacion del pendulo matematico x + a2 sen x = 0 con condiciones
iniciales x(0) = x0 , x(0)

= x 0 .
Reducimos el orden, haciendo
x = v ,

x = v

dv
,
dx

v2
= a2 (cos x cos x0 ) ,
2
p
dx
= a 2(cos x cos x0 ) ,
dt

v dv = a2 sen x dx ,
v = a

2(cos x cos x0 ) ,
Z x
1
dx0

t=
.
a 2 x0 cos x0 cos x0

La integral del segundo miembro no se resuelve en funciones elementales, pero se reduce


facilmente a funciones elpticas.
3. El primer miembro de la ecuacion
F (x, y, y 0 , . . . , y (n) ) = 0 .

(6.4)

es la derivada de cierta expresion diferencial (x, y, y 0 , . . . , y (n1) ) de orden n 1.


En este caso se halla facilmente la llamada primera integral, o sea, una ecuacion diferencial de orden n 1, que contiene una constante arbitraria, y que es equivalente a la
ecuacion dada de n-esimo orden, con lo cual reducimos el orden de la ecuacion en una
unidad. Efectivamente, la ecuacion (6.4) puede escribirse en la forma
d
(x, y, y 0 , . . . , y (n1) ) = 0
dx

(6.5)

Si y(x) es solucion de la ecuacion (6.5), entonces la derivada de (x, y, y 0 , . . . , y (n1) )


es identicamente nula. Por lo tanto, la funcion (x, y, y 0 , . . . , y (n1) ) es igual a una
constante, con lo que se obtiene la primera integral
(x, y, y 0 , . . . , y (n1) ) = c
Ejemplo Consideremos la siguiente ecuacion
yy 00 + (y 0 )2 = 0 .
Esta ecuacion se puede escribir en la forma d(yy 0 ) = 0, de donde yy 0 = c1 , o bien
y dy = c1 dx. Por lo tanto, la integral general sera y 2 = c1 x + c2 .

DEL ORDEN.
6.2. CASOS SIMPLES DE REDUCCION

197

A veces el primer miembro de la ecuacion F (x, y, y 0 , . . . , y (n) ) = 0 se convierte en derivada de la diferencial (x, y, y 0 , . . . , y (n1) ) de orden n 1 solo despues de multiplicarlo
por un factor, (x, y, y 0 , . . . , y (n1) ).
Ejemplo Consideremos la siguiente ecuacion:
yy 00 (y 0 )2 = 0 .

(6.6)

 
1
d y0
00
0 2
2
Multiplicando por el factor = 2 , se obtiene [yy (y ) ]/y = 0, o bien
= 0,
y
dx y
y0
d
de donde
= c1 , o
ln | y | = c1 . Por lo tanto, ln | y | = c1 x + ln c2 , c2 > 0, de donde
y
dx
y = c2 ec1 x , c2 6= 0.
Observaci
on: Al multiplicar por el factor (x, y, y 0 , . . . , y (n1) ) se pueden introducir
soluciones superfluas, que reducen dicho factor a cero. Si , es discontinuo, pueden
tambien perderse soluciones. En el ejemplo anterior, al multiplicar por = 1/y 2 se
perdio la solucion y = 0; sin embargo, puede incluirse en la solucion obtenida, si se
considera que c2 puede tomar el valor 0.
4. La ecuacion F (x, y, y 0 , . . . , y (n) ) = 0 es homogenea con respecto a los argumentos
y, y 0 , . . . , y (n) .
El orden de la ecuacion homogenea respecto a y, y 0 , . . . , y (n)
F (x, y, y 0 , . . . , y (n) ) = 0

(6.7)

es decir, de la ecuacion para la cual se cumple la identidad


F (x, ky, ky 0 , . . . , ky (n) ) = k p F (x, y, y 0 , . . . , y (n) ) ,
R

puede ser reducido en una unidad por medio de la sustitucion y = e


una nueva funcion desconocida. En efecto, derivando, se obtiene
R

z dx

z,

z dx

(z 2 + z 0 ) ,

z dx

(z 3 + 3zz 0 + z 00 ) ,

z dx

(z, z 0 , z 00 , . . . , z (k1) ) ,

y0 = e
y 00 = e
y 000 = e
..
.
y (k) = e

z dx

, donde z es

se puede comprobar la veracidad de esta igualdad mediante el metodo de induccion


completa.
R

Sustituyendo en (6.7) y observando que en base a la homogeneidad el factor ep z dx se


puede sacar de la funcion F , reordenamos en funcion de las derivadas de z obteniendo
ep

z dx

f (x, z, z 0 , . . . , z (n1) ) = 0 ,

198 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


o bien, dividiendo entre ep

z dx

, tendremos para la nueva funcion f ,

f (x, z, z 0 , . . . , z (n1) ) = 0 .
Ejemplo Consideremos la ecuacion:
yy 00 (y 0 )2 = 6xy 2 .
R

0
Haciendo y = e z dx , obtenemos la ecuaci
on z = 3x2 + c1 .
R o2n para z, z = 6x, con soluci
3
Recuperando la funcion original y = e (3x +c1 ) dx , o bien y = c2 e(x +c1 x) .

6.2.1.

Ecuaciones de segundo orden y representaci


on param
etrica.

En las aplicaciones se encuentran con particular frecuencia ecuaciones diferenciales de


segundo orden que pueden reducir su orden.
1.
F (x, y 00 ) = 0 .

(6.8)

En esta ecuacion se puede


disminuir el orden mediante la sustitucion y 0 = p, y reducirla

dp
a la ecuacion F x, dx
= 0.
La ecuacion (6.8) se puede resolver con respecto al segundo argumento, y 00 = f (x),
e integrar dos veces, o introducir un parametro y sustituir la ecuacion (6.8) por su
representacion parametrica
d2 y
= (t) ,
dx2

x = (t) ,

de donde
0

00

dy = y dx = (t) (t) dt , y = (t) 0 (t) dt + c1 ,



Z Z
0
0
dy = y dx , y =
(t) (t) dt + c1 0 (t0 ) dt0 + c2 .
2.
F (y 0 , y 00 ) = 0 ,

(6.9)

la ecuacion (6.9) en forma parametrica:


yx0 = (t) ,
de donde

dy 0
0 (t) dt
dx = 00 =
,
y
(t)

00
yxx
= (t) ,

0 (t) dt
+ c1 ,
(t)

(t)0 (t)
dt + c2 .
(t)

x=

luego de lo cual y se determina por cuadratura:


0 (t)
dy = y dx = (t)
dt ,
(t)
0

y=

DEL ORDEN.
6.2. CASOS SIMPLES DE REDUCCION

199

3.
F (y, y 00 ) = 0 .

(6.10)

Se puede reducir el orden haciendo


dy
=p
dx

dp dy
d2 y
dp
=
=
p
.
dx2
dy dx
dy

Si la ecuacion (6.10) es posible resolver facilmente con respecto al segundo argumento, y 00 = f (y), entonces, multiplicando esta ecuacion por la igualdad 2y 0 dx = 2 dy,
obtenemos d(y 0 )2 = 2f (y) dy, de donde
s Z
dy
dy
= 2 f (y) dy + c1 ,
q R
= dx ,
dx
2 f (y) dy + c
1

Z
x + c2 =

dy
q R
2 f (y) dy + c1

La ecuacion (6.10) se puede sustituir por su representacion parametrica y = (t),


y 00 = (t); entonces de dy 0 = y 00 dx y de dy = y 0 dx se obtiene y 0 dy 0 = y 00 dy, o bien
1
d(y 0 )2 = (t)0 (t) dt ,
2
Z
0 2
(y ) = 2 (t)0 (t) dt + c1 ,
s Z

y0 = 2

(t)0 (t) dt + c1 ,

luego de lo cual, de dy = y 0 dx se halla dx, y despues x:


0 (t) dt
dy
q
=

,
R
y0
2 (t)0 (t) dt + c1
Z
0 (t) dt
+ c2 .
x= q R
0
2 (t) (t) dt + c1

dx =

Las ecuaciones anteriores e y = (t) determinan en forma parametrica a la familia de


curvas integrales.
Ejemplo Consideremos la siguiente ecuacion
y 00 = 2y 3 ,

y(0) = 1 ,

y 0 (0) = 1 .

Multiplicando ambos miembros de esta ecuacion por 2y 0 dx, se obtiene d(y 0 )2 = 4y 3 dy,
de donde (y 0 )2 = y 4 + c1 . Teniendo en cuenta las condiciones iniciales, se halla que
dy
1
1
c1 = 0 e y 0 = y 2 . Por lo tanto, 2 = dx, = x + c2 , c2 = 1, y =
.
y
y
1x

200 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.

6.3.

Ecuaciones diferenciales lineales de n-


esimo orden.

Se llama ecuacion diferencial lineal de n-esimo orden una ecuacion lineal con respecto a
la funcion desconocida y a sus derivadas, y que, por lo tanto, tiene la forma
a0 (x)y (n) + a1 (x)y (n1) + . . . + an1 (x)y 0 + an (x)y = (x) .

(6.11)

Si el segundo miembro (x) = 0, entonces la ecuacion se llama lineal homogenea, puesto que
es homogenea con respecto a la funcion desconocida y y a sus derivadas.
Si el coeficiente a0 (x) es diferente de cero en todos los puntos de cierto intervalo a x b,
entonces, dividiendo entre a0 (x), reducimos la ecuacion lineal homogenea (si x vara en dicho
intervalo) a la forma:
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = 0 ,
o bien
y

(n)

n
X

(6.12)

pi (x)y (ni) .

(6.13)

i=1

Si los coeficientes p(x) son continuos en el intervalo a x b, entonces en un entorno de


condiciones iniciales arbitrarias
y(x0 ) = y0 ,

y 0 (x0 ) = y00 ,

y 00 (x0 ) = y000 ,

...

(n1)

y (n1) (x0 ) = y0

donde x0 es cualquier punto del intervalo a x b, se satisfacen las condiciones del teorema
de existencia y unicidad.

6.3.1.

Conservaci
on de la linealidad y la homogeneidad.

Observese que la linealidad y la homogeneidad de la ecuacion se conservan en cualquier


transformacion de la variable independiente x = (t), donde (t) es una funcion arbitraria
derivable n veces, cuya derivada (t) 6= 0 en el segmento de variacion de t considerado.
En efecto,
dy 1
dy
=
,
dx
dt 0 (t)
d2 y
d2 y 1
dy 00
=

,
dx2
dt2 [0 (t)]2
dt [0 (t)]3
..
.
dk y
dy d2 y
dk y
es
funci
o
n
lineal
homog
e
nea
de
,
,
.
.
.
,
y, por
dxk
dt dt2
dtk
lo tanto, al sustituir en la ecuacion (6.12) su linealidad y su homogeneidad se conservan.
La linealidad y la homogeneidad se conservan tambien al efectuarse una transformacion
lineal homogenea de la funcion desconocida: y(x) = (x)z(x). En efecto, por la formula de
derivada de un producto,
La derivada de cualquier orden

y (k) = (x)z (k) + k0 (x)z (k1) +

k(k 1) 00
(x)z (k2) + . . . + (k) (x)z ,
2!

6.3. ECUACIONES LINEALES DE ORDEN N

201

es decir, la derivada y (k) es funcion lineal homogenea de z, z 0 , z 00 ,. . . , z (k) . En consecuencia,


el primer miembro de la ecuacion lineal homogenea
a0 (x)y (n) + a1 (x)y (n1) + . . . + an1 (x)y 0 + an (x)y = 0 .
luego de sustituir las variables, sera funcion lineal homogenea de z, z 0 , z 00 , . . . , z (n) .

6.3.2.

Operador diferencial lineal.

Escribamos la ecuacion lineal homogenea


y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = 0 ,
en forma compacta:
L[y] = 0 ,
donde
L[y] = y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y .
Llamaremos a L[y] operador diferencial lineal.
El operador diferencial lineal posee las dos propiedades fundamentales siguientes:
1. Un factor constante puede sacarse del smbolo del operador:
L[cy] cL[y] .
En efecto,
(cy)(n) + p1 (x)(cy)(n1) + . . . + pn1 (x)(cy)0 + pn (x)(cy)
= c[y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y] .
2. El operador diferencial lineal, aplicado a la suma de dos funciones es igual a la suma
de los resultados de la aplicacion del mismo a cada funcion por separado:
L[y1 + y2 ] L[y1 ] + L[y2 ] .
en efecto,
(y1 + y2 )(n) + p1 (x)(y1 + y2 )(n1) + . . . + pn1 (x)(y1 + y2 )0 + pn (x)(y1 + y2 )
(n)

(n1)

+ . . . + pn1 (x)y10 + pn (x)y1 ]+

(n)

(n1)

+ . . . + pn1 (x)y20 + pn (x)y2 ].

[y1 + p1 (x)y1

[y2 + p1 (x)y2

Como consecuencia de las propiedades anteriores, resulta


" m
#
m
X
X
L
ci yi
ci L[yi ] ,
i=1

i=1

donde los ci son constantes.


Basandonos en las propiedades del operador lineal L, se puede demostrar una serie de
teoremas sobre las soluciones de la ecuacion lineal homogenea.

202 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


Teorema 6.2 Si y1 es solucion de la ecuacion lineal homogenea L[y] = 0, entonces cy1 , donde
c es una constante arbitraria, tambien es solucion de esta.
Teorema 6.3 La suma y1 + y2 de dos soluciones y1 e y2 de la ecuacion lineal homogenea
L[y] = 0 es solucion de dicha ecuacion.
Corolario de losP
dos teoremas anteriores. La combinacion lineal con coeficientes arbitrarios constantes m
on lineal homogenea
i=1 ci yi de las soluciones y1 , y2 , . . . , ym de la ecuaci
L[y] = 0 es solucion de dicha ecuacion.
Teorema 6.4 Si la ecuacion lineal homogenea L[y] = 0 con coeficientes reales pi (x) tiene
solucion compleja y(x) = u(x) + iv(x), entonces la parte real u(x) de esta solucion y su parte
imaginaria v(x) son, por separado, soluciones de dicha ecuacion homogenea.

6.3.3.

Dependencia lineal.

Las funciones y1 , y2 , . . . , yn se llaman linealmente dependientes en cierto intervalo de x,


a x b, si existen constantes 1 , 2 , . . . , n , en dicho intervalo tal que
1 y1 + 2 y2 + . . . + n yn 0 ,

(6.14)

con, por lo menos, un i 6= 0. Si la identidad (6.14) se verifica solo para el caso en que
1 = 2 =, . . . , = n = 0, las funciones y1 , y2 , . . . , yn se llaman linealmente independientes
en el intervalo a x b.
Teorema 6.5 Si las funciones y1 , y2 , . . . , yn son linealmente dependientes en el intervalo
a x b, entonces en dicho intervalo el determinante


y1

y
.
.
.
y
2
n
0

0
0
y1

y
.
.
.
y
2
n
00

00
00
y1
y2
...
yn
W (x) = W [y1 , y2 , . . . , yn ] =
..
..
..
.
.
.

(n1) (n1)
(n1)
y1
y2
. . . yn
llamado wronskiano, es identicamente nulo.
Teorema 6.6 Si las funciones linealmente independientes y1 , y2 , . . . , yn son soluciones de la
ecuacion lineal homogenea.
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = 0 ,
con coeficientes continuos pi (x) en el intervalo a x b, entonces el wronskiano


y1

y
.
.
.
y
2
n
0

0
0
y1

y
.
.
.
y
2
n
00

00
00
y1
y2
...
yn
W (x) =
..
..
..
.
.
.
(n1) (n1)

(n1)
y1
y2
. . . yn

(6.15)

6.3. ECUACIONES LINEALES DE ORDEN N

203

es diferente de cero en todos los puntos del intervalo a x b.


P
Teorema 6.7 La combinacion lineal ni=1 ci yi con coeficientes constantes arbitrarios de n soluciones particulares linealmente independientes, yi (i = 1, 2, . . . , n), en el intervalo a x b
es solucion general, para a x b, de la ecuacion lineal homogenea
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = 0 ,

(6.15)

con coeficientes pi (x) continuos en dicho intervalo (i = 1, 2, . . . , n).


Corolario del teorema anterior. El n
umero maximo de soluciones linealmente independientes de una ecuacion lineal homogenea es igual a su orden.
Observaci
on: Se llama sistema fundamental de soluciones de una ecuacion lineal homogenea
de n-esimo orden al conjunto de soluciones particulares cualquieras linealmente independiente. Para cada ecuacion lineal homogenea (6.15) existe un sistema fundamental de soluciones.
Para la construccion de un sistema fundamental de soluciones, se dan n2 cifras arbitrarias
(k)

yi (x0 ) {i = 1, 2, . . . , n; k = 0, 1, . . . , n 1} ,
sometiendo su eleccion exclusivamente a la condicion


y1 (x0 )

y
(x
)
.
.
.
y
(x
)
2
0
n
0
0

0
0
y1 (x0 )
y2 (x0 )
...
yn (x0 )
00
y1 (x0 )
y200 (x0 )
...
yn00 (x0 ) 6= 0 ,



..
..
..


.
.
.

(n1)
(n1)
(n1)
y 1
(x0 ) y2
(x0 ) . . . yn
(x0 )
donde x0 es un punto cualquiera del intervalo a x b. Entonces las soluciones yi (x),
(k)
determinadas por los valores iniciales yi (x0 ) con {i = 1, 2, . . . , n; k = 0, 1, . . . , n 1},
forman un sistema fundamental, puesto que su wronskiano W (x) en el punto x = x0 es
diferente de cero y, por lo tanto, en virtud del teorema 6.5 y del teorema 6.6, las soluciones
y1 , y2 , . . . , yn son linealmente independientes.

6.3.4.

Reducci
on de orden.

Conociendo una solucion particular no trivial, y1 , de la ecuacion lineal homogenea


y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = 0 ,
(6.15)
R
se puede, por medio de la sustitucion y = y1 u dx, reducir su orden manteniendo la linealidad
y la homogeneidad.
R
En efecto, la sustitucion y = y1 u dx se puede reemplazar por dos sustituciones y = y1 z
y z 0 = u. La transformacion lineal homogenea
y = y1 z

(6.16)

conserva la linealidad y la homogeneidad de la ecuacion; por lo tanto, la ecuacion (6.15) se


reduce en este caso a la forma
a0 (x) z (n) + a1 (x) z (n1) + + an (x) z = 0 .

(6.17)

204 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


Ademas, a la solucion y = y1 de la ecuacion (6.15) le corresponde, en virtud de (6.16), la
solucion z 1, de la ecuacion (6.17). Sustituyendo z 1 en la ecuacion (6.17), se obtiene
an = 0. Por consiguiente, la ecuacion (6.17) tiene la forma
a0 (x) z (n) + a1 (x) z (n1) + + an1 (x) z 0 = 0 ,
y la sustitucion z 0 = u reduce su orden en una unidad:
a0 (x) u(n1) + a1 (x) u(n2) + + an1 (x) u = 0 .
R
Observese que la misma sustitucion y = y1 u dx, donde y1 es solucion de la ecuacion
L[y] = 0, reduce en una unidad el orden de la ecuacion lineal no homogenea L[y] = f (x),
puesto que dicha sustitucion no altera el segundo miembro de la ecuacion.
Conociendo k soluciones linealmente independientes y1 , . . . , yk en el intervalo a x b,
de la ecuacion lineal homogenea, se puede reducir su orden hasta n k, en el mismo intervalo
a x b.

6.3.5.

F
ormulas de Ostrogradski-Liouville.

Lema. Dos ecuaciones de la forma


y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = 0 ,

(6.18)

y (n) + q1 (x)y (n1) + . . . + qn1 (x)y 0 + qn (x)y = 0 ,

(6.19)

donde las funciones pi (x) y qi (x) (i = 1, 2, , n) son continuas en el intervalo a x b, y


poseen un sistema fundamental com
un de soluciones y1 , y2 , . . . , yn , coinciden, es decir, que
pi (x) qi (x) (i = 1, 2, , n) en el intervalo a x b.
De este modo, el sistema fundamental de soluciones y1 , y2 , . . . , yn determina por completo
la ecuacion lineal homogenea
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = 0

(6.18)

y, por consiguiente, se puede plantear el problema de hallar la ecuacion (6.18) que posea el
sistema fundamental de soluciones
y 1 , y 2 , . . . , yn .
Como cualquier solucion y de la ecuacion buscada (6.18) debe ser linealmente dependiente
de las soluciones y1 , y2 , . . . ,yn , entonces el wronskiano W [y1 , y2 , . . . , yn ] = 0. Escribamos esta
ecuacion en forma desarrollada


y1

y
.
.
.
y
y
2
n

0
0
0
0
y1
y2 . . . y n
y
00
y1
y200 . . . yn00 y 00 = 0 ,

..
..
..
..
.
.
.
.

(n) (n)
(n)
y 1
y2
. . . yn y (n)

6.3. ECUACIONES LINEALES DE ORDEN N


o bien, descomponiendola por los elementos de la

y1
y2
0
y1
y20

..
.
W [y1 , y2 , . . . , yn ] y (n) ..
.
(n2) (n2)
y 1
(n) y2 (n)
y
y2
1

205
u
ltima columna,

...
yn
...
yn0
.. (n1)
+ ... = 0 .
. y
(n2)

. . . yn

(n)
. . . yn

(6.20)

La ecuacion obtenida (6.20) es la ecuacion lineal homogenea buscada, que posee el sistema dado de soluciones y1 , y2 ,. . . ,yn . Dividiendo ambos miembros de la ecuacion entre el wronskiano
de la derivada de mayor grado, diferente de cero, la reducimos a la forma (6.18).
De aqu se deduce que, en particular,


y1
y2
...
yn
0
y1
y20
...
yn0

.
.
..
.
..
.
.
(n2) (n2)
(n2)
y 1

(n) y2 (n) . . . yn (n)
y
y2
. . . yn
1
.
p1 (x) =
W [y1 , y2 , . . . , yn ]
Observese que el determinante

y1
y2
0
y1
y20

..
..
.
.
(n2) (n2)
y 1
(n) y2 (n)
y
y2
1







,
(n2)

. . . yn

(n)
. . . yn
...
...

yn
yn0
..
.

(6.21)

es igual a la derivada del wronskiano W [y1 , y2 , . . . , yn ]. En efecto, seg


un la regla de derivacion
de un determinante, la derivada


y1
y2
...
yn
0
y1
y20
...
yn0

d ..
..
..
.
. ,
.
dx (n2) (n2)
(n2)
y 1

(n1) y2(n1) . . . yn(n1)
y

y2
. . . yn
1
es igual a la suma sobre i desde 1 hasta n de determinantes que se diferencian del wronskiano
en que se han derivado los elementos de la i-esima fila, y las filas restantes se dejan sin
variacion. En esta suma solamente el u
ltimo determinante, para i = n, que coincide con el
determinante (6.21) puede ser diferente de cero. Los restantes son iguales a cero, ya que sus
filas i e i + 1 coinciden.
W0
Por lo tanto, p1 (x) =
, de donde, multiplicando por dx e integrando, se obtiene
W
Z
R
log | W | = p1 (x) dx + log c , W = c e p1 (x) dx ,

206 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


o bien
W = c e

Rx

p1 (x0 ) dx0

xo

(6.22)

Para x = xo se obtiene c = W (xo ), de donde


W = W (xo ) e

Rx

p1 (x0 ) dx0

xo

(6.23)

La formulas anteriores son conocidas como f


ormulas de Ostrogradski-Liouville. Estas formulas
pueden aplicarse a la integracion de la ecuacion lineal homogenea de segundo orden
y 00 + p1 (x) y 0 + p2 (x) y = 0 ,

(6.24)

si es conocida una solucion no trivial y1 de la misma. Seg


un la formula (6.23), cualquier
solucion de la ecuacion (6.24) debe ser tambien solucion de la ecuacion


R
y 1 y
0
= c1 e p1 (x) dx ,
0
y 1 y
o bien
y1 y 0 yy10 = c1 e

p1 (x) dx

Para integrar esta ecuacion lineal de primer orden, lo mas facil es aplicar el metodo del factor
integrante.
1
Multiplicando por = 2 , se obtiene
y1
 
d
y
c1 R
= 2 e p1 (x) dx ,
dx y1
y1
de donde
y
=
y1

c1 e

p1 (x0 ) dx0

o bien
Z
y = c2 y1 + c1 y1

6.4.

dx + c2 ,

y12
e

p1 (x0 ) dx0

y12

dx .

Ecuaciones lineales homog


eneas con coeficientes
constantes.

Si en la ecuacion lineal homogenea


a0 y (n) + a1 y (n1) + . . . + an y = 0 ,

(6.25)

todos los coeficientes ai son constantes, entonces sus soluciones particulares pueden ser halladas en la forma y = ekx , donde k es una constante. En efecto sustituyendo en (6.25) y = ekx
e y (p) = k p ekx , con p = 1, 2, , n, tendremos:
a0 k n ekx + a1 k n1 ekx + . . . + an ekx = 0 .

6.4. ECUACIONES CON COEFICIENTES CONSTANTES.

207

Dividiendo entre el factor ekx , diferente de cero, se obtiene la llamada ecuacion caracterstica
a0 k n + a1 k n1 + . . . + an = 0 .

(6.26)

Esta ecuacion de n-esimo grado determina los valores de k para los cuales y = ekx es solucion de la ecuacion lineal homogenea inicial con coeficientes constantes (6.25). Si todas las
races k1 , k2 , . . . , kn de la ecuacion caracterstica son diferentes, entonces de esta forma se
hallan n soluciones linealmente independientes ek1 x , ek2 x , . . . , ekn x de la ecuacion (6.25). Por
consiguiente,
y = c1 ek1 x + c2 ek2 x + . . . + cn ekn x ,
donde ci son constantes arbitrarias, es solucion general de la ecuacion inicial (6.25). Este
metodo de integracion de las ecuaciones lineales con coeficientes constantes fue aplicado por
primera vez por Euler.
Ejemplo Consideremos la ecuacion
y 00 3y 0 + 2y = 0 .
la ecuacion caracterstica tiene la forma k 2 3k + 2 = 0; sus races son k1 = 1, k2 = 2. Por
lo tanto, la solucion general de la ecuacion inicial tiene la forma y = c1 ex + c2 e2x .

6.4.1.

Races complejas.

Puesto que los coeficientes de la ecuacion (6.25) se presuponen reales, las races complejas de la ecuacion caracterstica pueden aparecer solo en pares conjugados. Las soluciones
complejas e(+i)x y e(i)x , correspondientes al par de races complejas conjugadas
k1 = + i

y k2 = i ,

pueden ser sustituidas por dos soluciones reales: por las partes reales e imaginarias de una
de las soluciones.
e(i)x = ex (cos x i sen x) ,
De esta manera, al par de races complejas conjugadas k1,2 = i le corresponden dos
soluciones reales: ex cos x y ex sen x.

6.4.2.

Races m
ultiples.

Si entre las races de la ecuacion caracterstica hay races m


ultiples, entonces la cantidad
kx
de soluciones distintas del tipo e es menor que n y, por lo tanto, las soluciones linealmente
independientes que faltan deben ser buscadas de otra forma.
Se puede demostrar que si la ecuacion caracterstica tiene una raz ki de multiplicidad
i , entonces no solo ekj x sera solucion de la ecuacion inicial, sino tambien xekj x , x2 ekj x , . . . ,
xi 1 ekj x . Por lo tanto, la solucion general de la ecuacion (6.25) tiene la forma
y=

m
X
i=1


c0i + c1i x + c2i x2 + . . . + ci 1,i xi 1 eki x ,

208 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


donde csi son constantes arbitrarias.
Ejemplo Consideremos la ecuacion
y 000 3y 00 + 3y 0 y = 0 .
La ecuacion caracterstica k 3 3k 2 + 3k 1 = 0, o bien (k 1)3 = 0, posee la raz triple
k1,2,3 = 1. Por consiguiente, la solucion general tiene la forma
y = (c1 + c2 x + c3 x2 )ex .

6.4.3.

Races complejas con multiplicidad.

Si la ecuacion caracterstica tiene una raz m


ultiple compleja p + iq, de multiplicidad ,
entonces sus soluciones correspondientes
e(p+iq)x = epx (cos qx + i sen qx)
y, separando las partes real e imaginaria, obtenemos 2 soluciones reales:
epx cos qx , xepx cos qx , x2 epx cos qx , . . . , x1 epx cos qx ,
epx sen qx , xepx sen qx , x2 epx sen qx , . . . , x1 epx sen qx .

(6.27)

Tomando las partes reales e imaginarias de las soluciones correspondientes a la raz conjugada
p iq de la ecuacion caracterstica, no se obtienen nuevas soluciones linealmente independientes. De esta manera, al par de races complejas conjugadas p iq de multiplicidad le
corresponde 2 soluciones reales linealmente independientes (6.27).

6.5.

Ecuaci
on de Euler.

Las ecuaciones de la forma


a0 xn y (n) + a1 xn1 y (n1) + . . . + an1 xy 0 + an y = 0 ,

(6.28)

donde todas las ai son constantes, se llaman ecuaciones de Euler. La ecuacion de Euler se
reduce, mediante la sustitucion de la variable independiente x = et , a una ecuacion lineal
homogenea con coeficientes constantes.
En efecto, como fue se
nalado anteriormente, la linealidad y la homogeneidad de la ecuacion
se conservan en la transformacion de la variable independiente, y los coeficientes se vuelven
constantes, puesto que
dy
dy
= et ,
dx
dt 

d2 y
d2 y dy
2t
=e

,
dx2
dt2
dt
..
.


k
d y
dy
d2 y
dk y
kt
=e
1 + 2 2 + . . . + k k ,
dxk
dt
dt
dt

(6.29)

DE EULER.
6.5. ECUACION

209

donde todas las i son constantes, y al sustituir en la ecuacion (6.28) los factores ekt se
simplifican con los factores xk = ekt .
La validez de la igualdad (6.29) puede ser demostrada por el metodo de induccion. Por
lo tanto, los productos
xk

dk y
dy
d2 y
dk y
=

+
.
.
.
+

,
1
2
k
dxk
dt
dt2
dtk

que entran en la forma lineal con coeficientes constantes en la ecuacion de Euler


n
X
k=0

ank xk

dk y
=0,
dxk

(6.30)

se expresan en forma lineal (y con coeficientes constantes) mediante las derivadas de la funcion
y respecto a la nueva variable t. De aqu se deduce que la ecuacion transformada sera una
ecuacion lineal homogenea con coeficientes constantes:
dn y
dn1 y
dy
b0 n + b1 n1 + . . . + bn1 + bn y = 0 .
dt
dt
dt

(6.31)

En lugar de transformar la ecuacion de Euler en una ecuacion lineal con coeficientes constantes, cuyas soluciones particulares tienen la forma y = ekt , se puede buscar directamente
la solucion de la ecuacion inicial en la forma y = xk , ya que
ekt = xk .
La ecuacion obtenida despues de simplificar por xk
a0 k(k 1) . . . (k n + 1) + a1 k(k 1) . . . (k n + 2) + . . . + an = 0 ,

(6.32)

para la determinacion de k, debe coincidir con la ecuacion caracterstica para la ecuacion


transformada (6.31). En consecuencia, a las races ki de la ecuacion (6.32), de multiplicidad
i , les corresponden las soluciones
eki t , teki t , t2 eki t , . . . , ti 1 eki t .
de la ecuacion transformada, o bien las
xki , xki log(n) , xki log2 (n) , . . . , xki logi 1 (n) ,
de la ecuacion inicial. A las races complejas conjugadas p iq de la ecuacion (6.32) de
multiplicidad le corresponden las soluciones
ept cos qt , tept cos qt , . . . , t1 ept cos qt ,
ept sen qt , tept sen qt , . . . , t1 ept sen qt ,
de la ecuacion trasformada, o las
xp cos(q log x) , xp log x cos(q log x) , . . . , xp logi 1 x cos(q log x) ,
xp sen(q log x) , xp log x sen(q log x) , . . . , xp logi 1 x sen(q log x) ,

210 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


de la ecuacion inicial de Euler.
Ejemplo Consideremos la ecuacion
x2 y 00 xy 0 + y = 0 .
Buscamos la solucion en la forma y = xk ; k(k 1) k + 1 = 0, o bien (k 1)2 = 0, k1,2 = 1.
Por consiguiente, la solucion general para x > 0 sera
y = (c1 + c2 log x)x .
Las ecuaciones de la forma
a0 (ax + b)n y (n) + a1 (ax + b)n1 y (n1) + . . . + an1 (ax + b)y 0 + an y = 0 ,

(6.33)

se denominan tambien ecuaciones de Euler, y se reducen a la ecuacion (6.28) por medio de la


sustitucion de la variable independiente (ax+b) = x1 . Por lo tanto, las soluciones particulares
de esta ecuacion se pueden buscar en la forma y = (ax + b)k , o transformar la ecuacion (6.33)
a una ecuacion lineal homogenea con coeficientes constantes, mediante la sustitucion de las
variables ax + b = et .

6.6.

Ecuaciones lineales no homog


eneas.

La ecuacion lineal no homogenea tiene la forma


a0 (x) y (n) + a1 (x) y (n1) + . . . + an1 (x)y 0 + an (x)y = (x) ,
Si a0 (x) 6= 0 en el intervalo considerado de variacion de x, entonces dividiendo entre a0 (x) se
obtiene
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = f (x) .
(6.34)
Esta ecuacion, conservando las notaciones anteriores, la escribimos en forma compacta:
L[y] = f (x) .
Si para a x b, en la ecuacion (6.34) todos los coeficientes pi y el segundo miembro f (x)
son continuos, entonces ella posee una solucion u
nica que satisface las condiciones
(k)

y (k) (x0 ) = y0 ,

con k = 0, 1, . . . , n 1 ,

(k)

donde y0 son n
umeros reales cualesquiera, y x0 un punto arbitrario del intervalo a x b.
De las dos propiedades fundamentales del operador lineal
L[cy] cL[y] ,
L[y1 + y2 ] L[y1 ] + L[y2 ] ,
donde c es una constante, se deduce directamente que:


6.6. ECUACIONES LINEALES NO HOMOGENEAS.

211

(i) La suma y + y1 de una solucion y de la ecuacion no homogenea


L[y] = f (x)

(6.35)

y de una solucion y1 de la ecuacion homogenea correspondiente L[y] = 0, es solucion


de la ecuacion no homogenea (6.35).
P
(ii) Si yi es solucion de la ecuacion L[y] = fi (x) con i = 1, 2, . . . , m entonces y = m
i=1 i yi
es solucion de la ecuacion
m
X
L[y] =
i fi (x) ,
i=1

donde las i son constantes.


Esta propiedad, denominada principio de superposici
on, conserva evidentemente su
P
validez tambien para m , si la serie

y
i=1 i i converge y puede ser derivada
termino a termino n veces.
(iii) Si la ecuacion L[y] = U (x) + iV (x), donde todos los coeficientes pi (x) y las funciones
U (x) y V (x) son reales, tiene la solucion y = u(x) + iv(x), entonces la parte real u(x)
y la parte imaginaria v(x) son respectivamente soluciones de las ecuaciones
L[y] = U (x) y L[y] = V (x) .
Teorema 6.8 La solucion general en el intervalo a x b de la ecuacion L[y] = f (x) con
coeficientes pi y la funcion del miembro
derecho f (x) continuos en dicho intervalo, es igual
P
a la suma de la solucion general ni=1 ci yi de la ecuacion homogenea correspondiente y de
cualquier solucion particular y de la ecuacion no homogenea.
Ejemplo Consideremos la ecuacion
y 00 + y = x ,
Una solucion particular de esta ecuacion y = x es inmediata; la solucion general de la ecuacion
homogenea correspondiente tiene la forma
y = c1 cos x + c2 sen x .
Por lo tanto, la solucion general de la ecuacion no homogenea inicial es
y = c1 cos x + c2 sen x + x .
Si la eleccion de una solucion particular de la ecuacion no homog
Pnenea es difcil, pero la
solucion general de la ecuacion homogenea correspondiente y =
i=1 ci yi ya fue hallada,
entonces se puede integrar la ecuacion lineal no homogenea por el metodo de variacion de las
constantes.
AlPaplicar este metodo, la solucion de la ecuacion no homogenea se busca en la forma
y = ni=1 ci (x)yi , o sea que en esencia, en lugar de la funcion incognita y introducimos n

212 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


funciones desconocidas ci (x). Puesto que escogiendo las funciones ci (x) con i = 1, 2, . . . , n
hay que satisfacer solamente una ecuacion
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = f (x) ,

(6.34)

se puede exigir que estas n funciones ci (x) satisfagan otras


Pn n 1 ecuaciones, las cuales se
escogen de manera que las derivadas de la funcion y = i=1 ci (x)yi tengan en lo posible la
misma forma que tiene cuando las ci son constantes. Escojamos ci (x) de manera tal que la
segunda suma de
0

y =

n
X

ci (x)yi0 (x)

i=1

n
X

c0i (x)yi (x) ,

i=1

sea igual a cero,


n
X

c0i (x)yi (x) = 0

i=1

y, por lo tanto,
0

y =

n
X

ci (x)yi0 (x) ,

i=1

es decir, que y 0 tiene la misma forma que cuando las ci son constantes. De la misma manera,
en la derivada segunda
00

y =

n
X

ci (x)yi00 (x)

i=1

n
X

c0i (x)yi0 (x) ,

i=1

exigimos que la segunda suma sea igual a cero, con lo cual se somete ci (x) a la segunda
condicion
n
X

c0i (x)yi0 (x) = 0 .

i=1

P
Continuamos calculando las derivadas de la funcion y = ni=1 ci (x)yi hasta el orden n 1
P
(k)
inclusive, e igualando cada vez a cero la suma ni=1 c0i (x)yi (x):
n
X
i=1

(k)

c0i (x)yi (x) = 0

para k = 0, 1, 2, . . . , n 2 ,

(6.36)


6.6. ECUACIONES LINEALES NO HOMOGENEAS.

213

obtenemos
y=

n
X

ci (x)yi ,

i=1

y0 =
y 00 =

n
X
i=1
n
X

ci (x)yi0 (x) ,
ci (x)yi00 (x) ,

(6.37)

i=1

..
.
y

(n1)

(n)

=
=

n
X
i=1
n
X

(n1)

ci (x)yi

(x) ,

(n)
ci (x)yi (x)

i=1

n
X

(n1)

c0i (x)yi

(x) .

i=1

P
(n1)
(x) = 0, puesto que las funciones
En la u
ltima igualdad no podemos exigir que ni=1 c0i (x)yi
ci (x) ya estan sometidas a las n 1 condiciones (6.36), y hay a
un que satisfacer la ecuacion
inicial (6.34). Sustituyendo y, y 0 , . . . ,y (n) de (6.37) en la ecuacion
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = f (x) ,

(6.34)

se obtiene la ecuacion que falta para la determinacion de ci (x) con i = 1, 2, . . . , n. Es evidente


P
(n1)
(x), ya que todos los
que en el primer miembro de (6.34) queda solo la suma ni=1 c0i (x)yi
terminos restantes tienen la misma
P forma que cuando las ci son constantes, y cuando estas
son constantes, la funcion y = ni=1 ci (x)yi satisface la ecuacion homogenea correspondiente.
De esta manera, las funciones ci (x) con i = 1, 2, . . . , n se determinan del sistema de n
ecuaciones lineales
n
X

c0i (x)yi = 0 ,

i=1
n
X

c0i (x)yi0 = 0 ,

i=1
n
X

c0i (x)yi00 = 0 ,

i=1

..
.
n
X

(n2)

=0,

(n1)

= f (x) .

c0i (x)yi

i=1
n
X
i=1

c0i (x)yi

(6.38)

214 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


cuyo determinante es diferente de cero, debido a que este


y1

y
.
.
.
y
2
n
0

0
0
y1
y2
...
yn

..
..
..
.
. ,
.
(n2) (n2)
(n2)
y 1

(n1) y2(n1) . . . yn(n1)
y

y2
. . . yn
1
es el wronskiano de las soluciones linealmente independientes de la ecuacion homogenea
correspondiente. Al determinar de (6.38) todas las c0i (x) = i (x) por cuadraturas, hallamos
Z
ci (x) = i (x0 ) dx0 + ci .
Ejemplo Consideremos la ecuacion
y 00 + y =

1
.
cos x

La solucion general de la ecuacion homogenea correspondiente es y = c1 cos(x) + c2 sen x.


Variemos c1 y c2 :
y = c1 (x) cos x + c2 (x) sen x .
c1 (x) y c2 (x) se determinan del sistema (6.38):
c01 (x) cos x + c02 (x) sen x = 0 ,
1
c01 (x) sen x + c02 (x) cos x =
,
cos x
de donde

sen x
, c1 (x) = log | cos x | + c1 ;
cos x
c02 (x) = 1 , c2 (x) = x + c2 .

c01 (x) =

La solucion general de la ecuacion inicial es:


y = c1 cos x + c2 sen x + cos x log | cos x | + x sen x .

6.6.1.

Reducci
on de orden.

De este modo, si se conocen n soluciones particulares linealmente independientes de la


ecuacion homogenea correspondiente, se puede, por el metodo de variacion de constantes,
integrar la ecuacion no homogenea
L[y] = f (x) .
Si se conoce, en cambio, solamente k (donde k < n) soluciones linealmente independientes
y1 , y2 ,. . . ,yk de la ecuacion homogenea correspondiente, entonces, como ya fue se
nalado, el


6.6. ECUACIONES LINEALES NO HOMOGENEAS.

215

cambio de variables permite reducir su orden hasta nk, conservando su linealidad. Observese
que si k = n 1, el orden de la ecuacion se reduce a 1, y la ecuacion lineal de primer orden
siempre se puede integrar en cuadraturas.
Analogamente se pueden utilizar k soluciones de la ecuacion no homogenea y1 , y2 ,. . . ,
yk ,
puesto que sus diferencias son ya soluciones de la ecuacion homogenea correspondiente. En
efecto,
L[
yj ] f (x) ,

L[
yp ] f (x) ;

por lo tanto,
L[
yj yp ] L[
yj ] L[
yp ] f (x) f (x) 0 .
Si las soluciones particulares de la ecuacion homogenea correspondiente
(
y1 yk ) , (
y2 yk ) , . . . , (
yk1 yk ) ,

(6.39)

son linealmente independientes, entonces el orden de la ecuacion L[y] = f (x) puede ser
reducido hasta n (k 1). Es evidente que las otras diferencias yj yk son combinaciones
lineales de las soluciones (6.39):
yj yp = (
yj yk ) (
yp yk ) ,
y, por consiguiente, no pueden ser utilizadas para la reduccion ulterior del orden.

6.6.2.

M
etodo de Cauchy.

Se
nalemos otro metodo, el metodo de Cauchy, para hallar la solucion particular de la
ecuacion lineal no homogenea
L[y(x)] = f (x) .

(6.40)

En este metodo se supone conocida la solucion K(x, s), que depende de un parametro, de la
ecuacion homogenea correspondiente L[y(x)] = 0, y que satisface las condiciones
K(s, s) = K 0 (s, s) = . . . = K (n2) (s, s) = 0

(6.41)

K (n1) (s, s) = 1 .

(6.42)

No es difcil comprobar que en este caso


Z

K(x, s)f (s) ds ,

y(x) =

(6.43)

x0

sera solucion particular de la ecuacion (6.40), que satisface las condiciones iniciales nulas
y(x0 ) = y 0 (x0 ) = . . . = y (n1) (x0 ) = 0 .

216 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


En efecto, derivando2 (6.43) y teniendo en cuenta las condiciones (6.41) y (6.42), se obtiene
Z x
0
y (x) =
Kx0 (x, s)f (s) ds ,
Zx0x
y 00 (x) =
Kx00 (x, s)f (s) ds ,
x0

..
.
y (n1) (x) =
y (n) (x) =

(6.44)
Z

Zx0x

Kx(n1) (x, s)f (s) ds ,


Kx(n) (x, s)f (s) ds + f (x) .

x0

El subndice x en la funcion K indican que las derivadas son tomadas respecto a esa variable.
Sustituyendo (6.43) y (6.44) en la ecuacion (6.40), obtenemos
Z x
L[K(x, s)]f (s) ds + f (x) f (x) ,
x0

y puesto que K(x, s) es solucion de la ecuacion homogenea


R x correspondiente tenemos que
L[K(x, s)] 0 lo cual demuestra que la funcion y(x) = x0 K(x, s)f (s) ds es solucion de
L[y(x)] = f (x).
P
La solucion K(x, s) puede ser tomada de la solucion general y = ni=1 ci yi de la ecuacion homogenea, si se escogen las constantes arbitrarias ci de manera que se cumplan las
condiciones (6.41) y (6.42).
Ejemplo Para la ecuacion
y 00 + 2 y = f (x) ,

(6.45)

la solucion general es y = c1 cos ax + c2 sen ax. Las condiciones (6.41) y (6.42) conducen a las
siguientes ecuaciones:
c1 cos as + c2 sen as = 0 ,
ac1 sen as + ac2 cos as = 1 .
Por lo tanto,

sen as
,
a
y la solucion buscada K(x, s) tiene la forma
c1 =

K(x, s) =
2

c2 =

cos as
,
a

1
sen a(x s) .
a

Debemos de considerar la regla de diferenciacion de integrales:


"Z
# Z
2 (x)
2 (x)
d
F (x, s)
d1
d2
F (x, s) ds =
ds + F (1 (x), x)
F (2 (x), x)
.
dx 1 (x)
x
dx
dx
1 (x)


6.6. ECUACIONES LINEALES NO HOMOGENEAS.

217

La solucion de la ecuacion (6.45) que satisface las condiciones iniciales nulas, seg
un (6.43),
se puede representar en la forma
Z
1 x
y(x) =
sen a(x0 s)f (s) ds .
a x0

6.6.3.

Funci
on de Green.

Se puede dar una interpretacion fsica a la funcion K(x, s) y a la solucion de la ecuacion


lineal con segundo miembro en la forma (6.43). Aqu sera mas comodo designar la variable
independiente por la letra t.
En muchos problemas, la solucion y(t) de la ecuacion
y (n) + p1 (t)y (n1) + . . . + pn (t)y = f (t) ,

(6.46)

describe el desplazamiento de cierto sistema, y la funcion f (t) es la fuerza que act


ua en este
sistema; t es el tiempo.
Supongamos primeramente que, para t < s, el sistema se encuentra en estado de reposo, y
que su desplazamiento se efect
ua debido a la fuerza f (t), diferente de cero solo en el intervalo
s < t < s + , y cuyo impulso es igual a 1:
Z s+
f ( ) d = 1 .
(6.47)
s

Designemos por y (t) la solucion de la ecuacion


y (n) + p1 (t)y (n1) + . . . + pn (t)y = f (t) .
Se comprueba facilmente la existencia del lmite y (t) cuando 0, el cual no depende de
la funcion f (t), si suponemos que esta no cambia su signo. En efecto,
Z

y (x) =

K(t, s)f (s) ds .


t0

Aplicando el teorema del valor medio para t > s + , obtenemos


Z s+

y (x) = K(t, s + )
f ( ) d = K(t, s + ) ,
s

donde 0 < ; por lo tanto,


lm y (t) = K(t, s) .

Por ello, es natural llamar a la funcion K(t, s) funci


on de influencia del impulso instantaneo
en el momento t = s. Tambien se le conoce como la funci
on de Green del sistema.
Dividiendo el intervalo (t0 , t) mediante los puntos si con i = 0, 1, 2, . . . , m en m partes
iguales de longitud s = (t t0 )/m, representamos la funcion f (t) en (6.46) como una suma

218 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


de las funciones fi (t), donde fi (t) es diferente de cero solo en el i-esimo intervalo si1 < t < si .
En este, fi (t) coincide con la funcion f (t):
f (t) =

m
X

fi (t) .

i=1

Debido al principio de superposicion, la solucion de la ecuacion (6.46) tiene la forma


y(t) =

m
X

yi (t) ,

i=1

donde yi son soluciones de la ecuacion


y (n) + p1 (t)y (n1) + . . . + pn (t)y = fi (t) ,
con condiciones iniciales nulas. Si m es suficientemente grande, la solucion yi (t) se puede
considerar como funcion de influencia del impulso instantaneo de intensidad fi (si )s. Por
consiguiente,
m
X
y(t)
K(t, si )f (si )s .
i=1

Pasando al lmite cuando m , se obtiene la solucion de la ecuacion (6.46) con condiciones


iniciales nulas, en la forma
Z
t

y(t) =

K(t, s)f (s) ds ,


t0

la cual demuestra que la influencia de la fuerza de accion continua se puede considerar como
superposicion de las influencias de impulsos separados.

6.7.

Ecuaciones lineales no homog


eneas con coeficientes constantes.

Al resolver ecuaciones lineales no homogeneas con coeficientes constantes, en muchos


casos es posible escoger una solucion particular sin dificultad, reduciendo as el problema a
la integracion de la ecuacion homogenea correspondiente.
Supongamos, por ejemplo, que el segundo miembro es un polinomio de grado s y que ,
por lo tanto, la ecuacion tiene la forma
a0 y (n) + a1 y (n1) + . . . + an1 y 0 + an y = A0 xs + A1 xs1 + . . . + As ,

(6.48)

donde todas las aj y las Ai son constantes.


Si an 6= 0, entonces existe una solucion particular de la ecuacion (6.48) que tiene tambien
la forma de polinomio de grado s. En efecto, sustituyendo
y = B0 xs + B1 xs1 + . . . + Bs ,


6.7. ECUACIONES LINEALES NO HOMOGENEAS
CON . . .

219

en la ecuacion (6.48) y comparando coeficientes de iguales potencias de x en ambos miembros,


se obtiene un sistema de ecuaciones lineales para la determinacion de los coeficientes Bi , que
es siempre resoluble si an 6= 0:
an Bo = A0 ,

B0 =

A0
,
an

an B1 + san1 B0 = A1 ,
de donde se determina B1
an B2 + (s 1)an1 B1 + s(s 1)an2 B0 = A2 ,
de donde se determina B2 , y seguimos as hasta
an Bs + . . . = As ,
de donde se determina Bs .
De esta manera, si an 6= 0 existe una solucion particular que tiene la forma de polinomio
cuyo grado es igual al grado del polinomio del segundo miembro.
Supongamos ahora que el coeficiente an = 0 y, para mayor generalidad, escogemos que
tambien an1 = an2 = . . . = an+1 = 0, pero an 6= 0, o sea, que k = 0 es raz de
multiplicidad de la ecuacion caracterstica; ademas, el caso = 1 no se excluye. Entonces,
la ecuacion (6.48) toma la forma
a0 y (n) + a1 y (n1) + . . . + an y () = A0 xs + A1 xs1 + . . . + As .

(6.49)

Haciendo y () = z, llegamos al caso anterior y, en consecuencia, hay una solucion particular


de la ecuacion (6.49), para la cual
y () = B0 xs + B1 xs1 + . . . + Bs .
Esto significa que y es un polinomio de grado s + ; ademas, los terminos de grado menor o
igual a 1 de dicho polinomio tendran coeficientes constantes arbitrarios, que pueden ser,
en particular, escogidos iguales a cero. Entonces, la solucion particular de la forma:

y = x B0 xs + B1 xs1 + . . . + Bs .
Ejemplo Consideremos la ecuacion
y 00 + y = x2 + x .

(6.50)

La solucion particular tiene la forma


y = B0 x2 + B1 x + B2 .
Sustituyendo en la ecuacion (6.50) e igualando los coeficientes de los terminos de igual grado
respecto a x, obtenemos
B0 = 1 ,

B1 = 1 ,

B2 = 2 ,

y = x2 + x 2 .

220 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


La solucion general es
y = c1 cos x + c2 sen x + x2 + x 2 .
Consideremos ahora la ecuacion lineal no homogenea de la forma

a0 y (n) + a1 y (n1) + . . . + an y = epx A0 xs + A1 xs1 + . . . + As ,

(6.51)

donde todas las aj las Ai son constantes. Como fue indicado anteriormente, el cambio de
variables y = epx z reduce la ecuacion (6.51) a la forma



epx b0 z (n) + b1 z (n1) + . . . + bn z = epx A0 xs + A1 xs1 + . . . + As ,
o bien
b0 z (n) + b1 z (n1) + . . . + bn z = A0 xs + A1 xs1 + . . . + As ,

(6.52)

donde todas las bi son constantes.


La solucion particular de la ecuacion (6.52), si bn 6= 0 tiene la forma

z = B0 xs + B1 xs1 + . . . + Bs ;
por lo tanto, la solucion particular de la ecuacion (6.51) sera

y = epx B0 xs + B1 xs1 + . . . + Bs .
La condicion bn 6= 0 significa que k = 0 no es raz de la ecuacion caracterstica
b0 kn + b1 kn1 + . . . + bn = 0 .

(6.53)

Por consiguiente, k = p no es raz de la ecuacion caracterstica


a0 k n + a1 k n1 + . . . + an = 0 ,

(6.54)

puesto que las races de estas ecuaciones estan ligadas por la dependencia k = k + p.
Si k = 0, en cambio, es raz de multiplicidad de la ecuacion caracterstica (6.53) o, en
otras palabras, k = p es raz de la misma multiplicidad de la ecuacion caracterstica (6.54),
entonces las soluciones particulares de las ecuaciones (6.52) y (6.51) tienen respectivamente
las formas

z = x B0 xs + B1 xs1 + . . . + Bs ,

y = x epx B0 xs + B1 xs1 + . . . + Bs .
De esta manera, si el segundo miembro de la ecuacion diferencial lineal con coeficientes
constantes tiene la forma

epx A0 xs + A1 xs1 + . . . + As ,
y si p no es raz de la ecuacion caracterstica, la solucion particular debe buscarse en la misma
forma

y = epx B0 xs + B1 xs1 + . . . + Bs .


6.7. ECUACIONES LINEALES NO HOMOGENEAS
CON . . .

221

Si, en cambio, p es raz de multiplicidad de la ecuacion caracterstica (este caso se denomina


singular o resonante), la solucion particular debe ser buscada en la forma

y = x epx B0 xs + B1 xs1 + . . . + Bs .
Ejemplo Consideremos la ecuacion
y 00 y = e3x (x 2) .
La solucion particular debe ser buscada en la forma
y = xe3x (B0 x + B1 ) .

Observese que nuestros razonamientos son validos tambien si las p son complejas; por eso,
si el segundo miembro de la ecuacion diferencial lineal tiene la forma
epx [Ps (x) cos qx + Qs (x) sen qx] ,

(6.55)

donde uno de los dos polinomios Ps (x) o Qs (x) tiene grado s y el otro, no mayor que s,
entonces reduciendo seg
un las formulas de Euler las funciones trigonometricas a la forma
exponencial, obtenemos en el segundo miembro
e(p+iq)x Rs (x) + e(piq)x Ts (x) ,

(6.56)

donde Rs y Ts son polinomios de grado s.


A cada sumando del segundo miembro se le puede aplicar la regla anteriormente indicada,
es decir, si p iq no son races de la ecuacion caracterstica, la solucion particular se puede
buscar en la misma forma que el segundo miembro (6.56); si, en cambio, p iq son races de
multiplicidad de la ecuacion caracterstica, la solucion particular debe multiplicarse ademas
por x .
Si volvemos a las funciones trigonometricas, esta regla se puede formular as:
a) Si p iq no son races de la ecuacion caracterstica, la solucion particular debe buscarse
en la forma
h
i
s (x) sen(qx) ,
y = epx Ps (x) cos(qx) + Q
s (x) son polinomios de grado s con coeficientes indeterminados.
donde Ps (x) y Q
Observese que si uno de los polinomios de grado Ps (x) o Qs (x) tienen un grado menor
que s, e incluso, en particular, es identicamente nulo, de todos modos ambos polinomios
s (x) tendran, en general, grado s.
Ps (x) y Q
b) Si p iq son races de multiplicidad de la ecuacion caracterstica, la solucion particular
debe ser buscada en la forma
h
i
s (x) sen(qx) ,
y = x epx Ps (x) cos(qx) + Q

222 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


Ejemplo Consideremos la ecuacion
y 00 + 4y 0 + 4y = cos(2x) .
Como los n
umeros 2i no son races de la ecuacion caracterstica, buscamos la solucion
particular en la forma
y = A cos 2x + B sen 2x .

Ejemplo Consideremos la ecuacion


y 00 + 4y = cos(2x) .
Como los n
umeros 2i son races simples de la ecuacion caracterstica, buscamos la solucion
particular en la forma
y = x [A cos 2x + B sen 2x] .

Ejemplo Consideremos la ecuacion


y 0000 + 2y 00 + y = sen(x) .
Puesto que los n
umeros i son races dobles de la ecuacion caracterstica, la solucion particular se busca en la forma
y = x2 [A cos x + B sen x] .

Ejemplo Consideremos la ecuacion


y 00 + 2y 00 + 2y = ex (x cos x + 3 sen x) .
Debido a que los n
umeros 1 i son races simples de la ecuacion caracterstica, la solucion
particular debe buscarse en la forma
y = xex [(A0 x + A1 ) cos x + (B0 x + B1 ) sen x] .
En muchos casos, al buscar soluciones particulares de ecuaciones lineales con coeficientes
constantes con segundos miembros de la forma (6.55), es conveniente pasar a las funciones
exponenciales.
Por ejemplo, en la ecuacion
y 00 2y 0 + y = cos x ,
se puede transformar cos x por la formula de Euler, o de modo mas sencillo, considerar la
ecuacion
y 00 2y 0 + y = eix ,
(6.57)

DE LAS ECUACIONES DIFERENCIALES POR MEDIO DE SERIES.223


6.8. INTEGRACION
la parte real de cuya solucion debe satisfacer la ecuacion original.
La solucion particular de la ecuacion (6.57) se puede buscar en la forma
y = Aeix .
Entonces

i
i
,
y = (cos x + i sen x) .
2
2
La solucion particular de la ecuacion original es
A=

1
y1 = Re y = sen x .
2

6.8.

Integraci
on de las ecuaciones diferenciales por medio de series.

El problema de la integracion de ecuaciones lineales homogeneas de n-esimo orden


p0 (x)y (n) + p1 (x)y (n1) + . . . + pn (x)y = 0 ,

(6.58)

se reduce a elegir n, o por lo menos n 1 soluciones linealmente independientes. Sin embargo, las soluciones particulares se escogen con facilidad solo en casos excepcionales. En
casos
as complejos las soluciones particulares son buscadas en forma de suma de una sePm

rie
i=1 ai i (x), sobre todo en forma de suma de una serie de potencias o de una serie
generalizada de potencias.
Las condiciones bajo las cuales existen soluciones en forma de suma de una serie de
potencia o de una serie generalizada de potencias, se establecen com
unmente por metodos de
la teora de funciones de variables complejas, la que suponemos desconocida por el lector. Los
teoremas fundamentales se daran sin demostracion y aplicados a las ecuaciones de segundo
orden, las cuales se encuentran con mayor frecuencia en la practica.
Teorema 6.9 Sobre la propiedad analtica de la soluci
on
Si p0 , p1 (x) y p2 (x) son funciones analticas de x en un entorno del punto x = x0 y p0 (x0 ) 6= 0,
entonces las soluciones de la ecuacion
p0 (x)y 00 + p1 (x)y 0 + p2 (x)y = 0

(6.59)

son tambien funciones analticas en cierto entorno del mismo punto; por lo tanto, la solucion
de la ecuacion (6.59) se puede buscar de la forma
y = a0 + a1 (x x0 ) + a2 (x x0 )2 + . . . + an (x xn )n + . . . .
Teorema 6.10 Sobre el desarrollo de la soluci
on en una serie generalizada de
potencias.
Si la ecuacion (6.59) satisface las condiciones del teorema anterior, pero x = x0 es un cero de
orden finito s de la funcion p0 (x), cero de orden s 1 o superior de la funcion p1 (x) (s > 1)
y cero de orden no inferior s 2 del coeficiente p2 (x) (si s > 2), entonces existe por lo menos

224 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


una solucion no trivial de la ecuacion (6.59) en forma de suma de una serie generalizada de
potencias
y = a0 (x x0 )k + a1 (x x0 )k+1 + a2 (x x0 )k+2 + . . . + an (x xn )k+n + . . . .

(6.60)

donde k es un n
umero real que puede ser entero y fraccionario, positivo o negativo.
La segunda solucion linealmente independiente de (6.60) por regla general, tiene tambien
la forma de suma de una serie generalizada de potencias, pero a veces puede contener ademas
el producto de una serie generalizada de potencia por log(x x0 ).
En problemas concretos se puede proceder sin los dos teoremas formulados mas arriba,
sobre todo porque en el enunciado de estos no se establecen las regiones de convergencia
de las series consideradas. Con mayor frecuencia en problemas concretos se escoge una serie
de potencias o una serie generalizada de potencias que satisfaga formalmente la ecuacion
diferencial, o sea, que al sustituirla en la ecuacion considerada de orden n (6.58) la transforme
en una identidad, si suponemos la convergencia de la serie y la posibilidad de su derivacion
termino a termino n veces. Al obtener formalmente la solucion en forma de serie, se investiga
su convergencia y la posibilidad de su derivacion termino a termino n veces. En la region
donde la serie converge y permite su derivacion termino a termino n veces, la misma no
solamente satisface formalmente la ecuacion, sino que su suma es en realidad la solucion
buscada.
Ejemplo Consideremos la ecuacion
y 00 xy = 0 .

(6.61)

Busquemos la solucion en forma de una serie de potencias


y=

an x n .

n=0

Basandonos en los teorema anteriores, o derivando esta serie formalmente termino a termino
dos veces y sustituyendo en la ecuacion (6.61), obtenemos

an n(n 1)xn2 x

n=0

an x n 0 .

n=0

Igualando los coeficientes de iguales potencias de x en ambos miembros de la identidad,


obtenemos a2 = 0, 3 2a3 a0 = 0, de donde a3 = a0 /(2 3); 4 3a4 a1 = 0, de donde a4 =
a1 /(34); 54a5 a2 = 0, de donde a5 = a2 /(45), . . . y en forma general n(n1)an an3 = 0,
de donde an = an3 /(n 1)n,. . . . Por consiguiente,
a3n1 = 0 ,
a3n+1 =

a3n =

a0
,
2 3 5 6 . . . (3n 1)3n

a1
,
3 4 6 7 . . . 3n(3n + 1)

con n = 1, 2, 3, . . .,

DE LAS ECUACIONES DIFERENCIALES POR MEDIO DE SERIES.225


6.8. INTEGRACION
a0 y a1 permanecen arbitrarios. De esta manera,


x3
x6
x3n
y = a0 1 +
+
+ ... +
+ ... +
23 2356
2 3 5 6 . . . (3n 1)3n


x7
x3n+1
x4
+
+ ... +
+ ... .
+ a1 x +
34 3467
3 4 6 7 . . . 3n(3n + 1)

(6.62)

El radio de convergencia de esta serie de potencias es infinito. Por consiguiente, la suma de


la serie (6.62) para valores cualesquiera de x es solucion de la ecuacion considerada.

226 CAPITULO 6. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.

Captulo 7
Sistemas de ecuaciones diferenciales.
versi
on final 2.1-0211071

7.1.

Conceptos generales.

La ecuacion de movimiento de una partcula de masa m bajo la accion de la fuerza


~
F (t, ~r, ~r ), es
d2~r
m 2 = F~ (t, ~r, ~r ) ;
dt
proyectando sobre los ejes de coordenadas, esta puede ser sustituida por un sistema de tres
ecuaciones escalares de segundo orden:
d2 x
= Fx (t, x, y, z, x,
y,
z)
,
dt2
d2 y
m 2 = Fy (t, x, y, z, x,
y,
z)
,
dt
d2 z
m 2 = Fz (t, x, y, z, x,
y,
z)
,
dt

o por un sistema de seis ecuaciones de primer orden; si consideramos como funciones desconocidas no solo las coordenadas x, y, z de la partcula, sino tambien las proyecciones x,
y,
z
de su velocidad
x = u ,
y = v ,
z = w ;
mu = Fx (t, x, y, z, u, v, w) ,
mv = Fy (t, x, y, z, u, v, w) ,
mw = Fz (t, x, y, z, u, v, w) .
En este caso, por lo general, se dan la posicion inicial del punto x(t0 ) = x0 , y(t0 ) = y0 ,
z(t0 ) = z0 , y la velocidad inicial u(t0 ) = u0 , v(t0 ) = v0 , w(t0 ) = w0 .
1

Este captulo est


a basado en el tercer captulo del libro: Ecuaciones diferenciales y c
alculo variacional
de L. Elsgoltz, editorial MIR

227

228

CAPITULO 7. SISTEMAS DE ECUACIONES DIFERENCIALES.

Se puede demostrar un teorema sobre existencia y unicidad de la solucion del sistema de


ecuaciones diferenciales
dx1
= f1 (t, x1 , x2 , . . . , xn ) ,
dt
dx2
= f2 (t, x1 , x2 , . . . , xn ) ,
dt
..
.

(7.1)

dxn
= fn (t, x1 , x2 , . . . , xn ) ,
dt
que satisfacen las condiciones iniciales
xi (t0 ) = xi0 ,

(i = 1, 2, . . . , n) .

(7.2)

Enumeremos las condiciones suficientes para la existencia y unicidad de la solucion del sistema
(7.1) con las condiciones iniciales (7.2):
i) Continuidad de todas las funciones fi en un entorno de las condiciones iniciales.
ii) Cumplimiento de la condicion de Lipschitz para todas las funciones fi en todos sus
argumentos, a partir del segundo, en dicho entorno.
La segunda condicion se puede cambiar por una mas grosera: la existencia de las derivadas
parciales
fi
, (i = 1, 2, . . . , n) ,
xj
acotadas en valor absoluto.
La solucion x1 (t), x2 (t), . . . , xn (t) del sistema de ecuaciones diferenciales es una funcion
vectorial n-dimensional, que denotaremos abreviadamente por X(t). Con esta notacion, el
sistema (7.1) se puede escribir en la forma
dX
= F (t, X) ,
dt
donde F es una funcion vectorial con coordenadas (f1 , f2 , . . . , fn ) y las condiciones iniciales, en la forma X(t0 ) = X0 , donde X0 es un vector de n-dimensiones, con coordenadas
(x10 , x20 , . . . , xn0 ). La solucion
x1 = x1 (t) ,

x2 = x2 (t) ,

...

xn = xn (t) ,

o, mas compactamente, X = X(t), del sistema de ecuaciones, determina en el espacio euclidiano de coordenadas t, x1 , x2 , . . . ,xn , cierta curva llamada curva integral. Cuando se
cumplen las condiciones i) y ii) del teorema de existencia y unicidad, por cada punto de dicho espacio pasa una sola curva integral, y el conjunto de estas forma una familia dependiente
de n parametros. Como parametros de esta familia se pueden tomar, por ejemplo, los valores
iniciales x10 , x20 , . . . ,xn0 .

7.1. CONCEPTOS GENERALES.

229

Se puede dar otra interpretacion de las soluciones


x1 = x1 (t) ,

x2 = x2 (t) ,

. . . , xn = xn (t) ,

o, en la forma mas compacta, X = X(t), que es particularmente comoda si los segundos


miembros del sistema (7.1) no dependen explcitamente del tiempo.
En el espacio euclidiano con coordenadas rectangulares x1 , x2 , . . . ,xn , la solucion x1 =
x1 (t), x2 = x2 (t), . . . , xn = xn (t) determina la ley de movimiento por cierta trayectoria seg
un
la variacion del parametro t, el cual en esta interpretacion se considera como el tiempo. As,
la derivada dX/dt sera la velocidad del movimiento de la partcula, y dx1 /dt, dx2 /dt, . . . ,
dxn /dt, las coordenadas de la velocidad en ese punto. En esta interpretacion, muy natural y
comoda en ciertos problemas fsicos y mecanicos, el sistema
dxi
= fi (x1 , x2 , . . . , xn ) ,
dt

(i = 1, 2, . . . , n) ,

(7.1)

o bien

dX
= F (X) ,
dt
se llama generalmente dinamico; el espacio de coordenadas x1 , x2 , . . . ,xn , espacio de fase, y
la curva X = X(t), trayectoria de fases.
El sistema dinamico (7.1) determina en un momento dado t en el espacio x1 , x2 , . . . ,xn
un campo de velocidades. Si la funcion vectorial F depende explcitamente de t, entonces el
campo de velocidades cambia con el tiempo, y las trayectorias de fases pueden intersectarse. Si
la funcion vectorial F o, lo que es lo mismo, todas las funciones fi no dependen explcitamente
de t, el campo de velocidades es estacionario, es decir, no cambia en el tiempo, y el movimiento
sera permanente.
En este u
ltimo caso, si las condiciones del teorema de existencia y unicidad se cumplen,
por cada punto del espacio de fase (x1 , x2 , . . . , xn ) pasara una sola trayectoria. En efecto,
en este caso por cada trayectoria X = X(t) se realizan infinitos movimiento diferentes,
X = X(t + c), donde c es una constante arbitraria. Es facil comprobar esto realizando la
sustitucion de variables t1 = t + c, con lo cual el sistema dinamico no cambia su forma:
dX
= F (X) ,
dt1
Por consiguiente, X = X(t1 ) sera su solucion que, expresada en las variables anteriores,
sera X = X(t + c).
Si por un punto X0 del espacio de fase, en el caso considerado, pasaran dos trayectorias
X = X1 (t) y X = X2 (t) ,

X1 (t0 ) = X2 (t0 ) = X0 ,

entonces, tomando en cada una de ellas el movimiento para el cual el punto X0 se alcanza
en el momento t = t0 , o sea, considerando las soluciones
X = X1 (t t0 + t0 ) y X = X2 (t t0 + t0 ) ,
se obtendra una contradiccion con el teorema de existencia y unicidad, puesto que las dos
soluciones diferentes X1 (t t0 + t0 ) y X2 (t t0 + t0 ) satisfaceran a la misma condicion inicial
X(t0 ) = X0 .

230

7.2.

CAPITULO 7. SISTEMAS DE ECUACIONES DIFERENCIALES.

Integraci
on de un sistema de ecuaciones diferenciales por reducci
on a una sola ecuaci
on de mayor
orden.

Uno de los metodos fundamentales de integracion de sistemas de ecuaciones diferenciales


consiste en lo siguiente: de las ecuaciones del sistema (7.1) y de las ecuaciones obtenidas
derivando estas, se excluyen todas las funciones desconocidas, excepto una, para cuya determinacion se obtiene una ecuacion diferencial de orden mayor. Integrando dicha ecuacion, se
halla una de las funciones desconocidas. Las funciones desconocidas restantes se determinan,
en lo posible sin integracion partiendo de las ecuaciones originales y de las obtenidas por
derivacion. Veamos algunos ejemplos:
Ejemplo Consideremos el sistema de ecuaciones
dx
=y ,
dt

dy
=x.
dt

Derivemos una de las ecuaciones, por ejemplo, la primera,

d2 x
dy
dy
= ; eliminando
mediante
2
dt
dt
dt

d2 x
la segunda ecuacion, se obtiene 2 x = 0, de donde x = c1 et + c2 et . Utilizando la primera
dt
dx
ecuacion, obtenemos y =
= c1 et c2 et .
dt
Hemos determinado y sin integrar, mediante la primera ecuacion. Si hubieramos determinado y de la segunda ecuacion,
dy
= x = c1 et + c2 et ,
dt

y = c1 et c2 et + c3 ,

entonces habramos introducido soluciones superfluas, puesto que la sustitucion directa en el


sistema original muestra que las funciones x = c1 et + c2 et e y = c1 et c2 et + c3 satisfacen
al sistema, no para c3 cualesquiera, sino para c3 = 0.
Ejemplo Consideremos el sistema de ecuaciones
dx
= 3x 2y ,
dt
dy
= 2x y .
dt

(7.3a)
(7.3b)

Derivemos la segunda ecuacion:


d2 y
dx dy
=2
.
2
dt
dt
dt
dx
De las ecuaciones (7.3b) y (7.4) se determina x y
:
dt


1 dy
x=
+y ,
2 dt

(7.4)

(7.5)

7.3. SISTEMA DE ECUACIONES DIFERENCIALES LINEALES.


dx
1
=
dt
2

d2 y dy
+
dt2
dt

231


.

Sustituyendo en (7.3a), obtenemos


dy
d2 y
2 +y =0 .
2
dt
dt
Integrando la ecuacion lineal homogenea con coeficientes constantes y = et (c1 + c2 t) y sustituyendo en (7.5) se halla x(t):
1
x = et (2c1 + c2 + 2c2 t) .
2
Si aplicamos el proceso de eliminacion de funciones desconocidas al sistema
n

dxi X
=
aij (t)xj ,
dt
j=1

(i = 1, 2, . . . , n) ,

llamado lineal homogeneo, entonces, como es facil comprobar, la ecuacion de n-esimo orden


dn x1
dx1
dn1 x1
= t, x1 ,
, . . . , n1
,
(7.6)
dtn
dt
dt
tambien sera lineal homogenea. Ademas, si todos los coeficientes aij son constantes, la ecuacion (7.6) sera tambien lineal homogenea con coeficientes constantes. Una observacion analoga
se cumple tambien para el sistema lineal no homogeneo
n

dxi X
=
aij (t)xj + fi (t) ,
dt
j=1

(i = 1, 2, . . . , n) ,

para el cual la ecuacion (7.6) sera una ecuacion lineal no homogenea de n-esimo orden.

7.3.

Sistema de ecuaciones diferenciales lineales.

Un sistema de ecuaciones diferenciales se llama lineal, si es lineal respecto a todas las


funciones desconocidas y a sus derivadas. El sistema de n ecuaciones lineales de primer
orden, escrito en la forma normal, es
n

dxi X
=
aij (t)xj + fi (t) ,
dt
j=1

(i = 1, 2, . . . , n) ,

(7.7)

o, en forma vectorial,
dX
= AX + F ,
dt

(7.8)

232

CAPITULO 7. SISTEMAS DE ECUACIONES DIFERENCIALES.

donde X es un vector n-dimensional de coordenadas x1 (t), x2 (t), . . . , xn (t); F es un vector


n-dimensional de coordenadas f1 (t), f2 (t),. . . ,fn (t). Es conveniente en lo sucesivo representar
dichos vectores como matrices de una columna:


x1
f1
x2
f2


X = .. , F = .. ,
.
.
xn
fn
dx
1

dt
a11 a12 . . . a1n

dx2
a21 a22 . . . a2n
dX

A = ..
= dt .
..
.. ,
..
dt
.
. ... .
.

an1 an2 . . . ann


dxn
dt
Seg
un la regla del producto de matrices, las filas del primer factor deben multiplicarse por la
columna del segundo: por tanto,
n

X
X
a1j xj
a1j xj + f1

j=1

j=1

a
x
a
x
+
f

2j j
2j j
2

.
AX = j=1
, AX + F = j=1

..
..

.
.
n

anj xj
anj xj + fn

j=1

j=1

La igualdad de matrices significa la igualdad de todos sus elementos, por lo cual una sola
ecuacion matricial (7.8). o bien
n

a1j xj + f1
dx1

dt j=1
n
X

dx
a2j xj + f2
2
.

dt = j=1

..
..

.
.

dxn
X

a
x
+
f
nj
j
n
dt
j=1

es equivalente al sistema (7.7).


Si todas las funciones aij (t) y fi (t) en (7.7) son continuas en el intervalo a t b,
entonces en un entorno suficientemente peque
no de cada punto (t0 , x10 , x20 , . . . , xn0 ), donde
a t0 b se cumplen las condiciones del teorema de existencia y unicidad y, en consecuencia,
por cada punto con estas propiedades pasa una sola curva integral del sistema (7.7).

7.3. SISTEMA DE ECUACIONES DIFERENCIALES LINEALES.

233

En efecto, en el caso considerado los segundos miembros del sistema (7.7) son continuos, y
sus derivadas parciales con respecto a cualquier xj son acotadas, puesto que dichas derivadas
son iguales a los coeficientes aij (t), continuos en el intervalo a t b.
Definamos el operador lineal L por la igualdad
L[X] =

dX
AX ;
dt

entonces la ecuacion (7.8) puede escribirse en la forma a


un mas compacta
L[X] = F .

(7.9)

Si todas las fi (t) 0 con i = 1, 2, . . . , n o, lo que es lo mismo, la matriz F = 0, el sistema


(7.7) se llama lineal homogeneo. En forma compacta, el sistema lineal homogeneo tiene la
forma
L[X] = 0 .
(7.10)
El operador L posee las dos propiedades siguientes:
(i) L[cX] cL[X], donde c es una constante arbitraria.
(ii) L[X1 + X2 ] L[X1 ] + L[X2 ].
Un corolario de (i) y (ii) es
"
L

m
X

#
ci Xi

i=1

m
X

ci L[Xi ] ,

i=1

donde las ci son constantes arbitrarias.


Teorema 7.1 Si X es solucion del sistema lineal homogeneo L[X] = 0, entonces cX, donde
c es una constante arbitraria, es tambien solucion de dicho sistema.
Teorema 7.2 La suma X1 + X2 de dos soluciones X1 y X2 del sistema de ecuaciones lineal
homogeneo es solucion de dicho sistema.
P
Corolario de los teoremas anteriores. La combinacion lineal m
i=1 ci Xi de las soluciones
X1 , X2 ,. . . ,Xm del sistema L[X] 0 con coeficientes constantes arbitrarios es solucion de
dicho sistema.
Teorema 7.3 Si el sistema lineal homogeneo (7.10) con coeficientes reales aij tiene una
solucion compleja X = U + iV , las partes real e imaginaria


u1
v1
u2
v2


U = .. , V = .. ,
.
.
un
vn
son por separado soluciones de dicho sistema.

234

CAPITULO 7. SISTEMAS DE ECUACIONES DIFERENCIALES.

Los vectores X1 , X2 ,. . . , Xn , donde

x1i (t)
x2i (t)

Xi = .. ,
.
xni (t)
se llaman linealmente dependientes en el intervalo a t b, si existen 1 , 2 ,. . . , n
constantes tales que
1 X1 + 2 X2 + . . . + n Xn 0
(7.11)
cuando a t b, y existe al menos un i 6= 0. Si, en cambio, la identidad (7.11) se cumple
solo cuando 1 = 2 = . . . = n = 0, entonces los vectores X1 , X2 ,. . . , Xn se llaman
linealmente independientes.
Observese que la identidad vectorial (7.11) es equivalente a las n identidades:
n
X
i=1
n
X

i x1i (t) 0 ,
i x2i (t) 0 ,
(7.12)

i=1

..
.
n
X

i xni (t) 0 .

i=1

Si los vectores Xi (i = 1, 2, . . . , n) son linealmente dependientes y, por lo tanto, existe un


sistema no trivial de i (es decir, no todas las i son iguales a cero) que satisface al sistema
(7.12) de n ecuaciones lineales homogeneas con respecto a i , entonces el determinante del
sistema (7.12)


x11 x12 . . . x1n


x21 x22 . . . x2n


W = ..
..
.. ,
.
. . . . .

xn1 xn2 . . . xnn
debe ser igual a cero para todos los valores de t del intervalo a t b. Este determinante
se llama wronskiano del sistema de vectores X1 , X2 ,. . . , Xn .
Teorema 7.4 Si el wronskiano W de las soluciones X1 , X2 ,. . . , Xn del sistema de ecuaciones
lineales homogeneo (7.10) con coeficientes continuos aij (t) en el intervalo a t b, es igual
a cero por lo menos en un punto t = t0 de dicho intervalo, entonces el conjunto de soluciones
X1 , X2 ,. . . , Xn son linealmente dependientes en el intervalo mencionado y, por consiguiente,
W = 0 en dicho intervalo.
Observacion. Este teorema no se extiende a vectores arbitrarios X1 , X2 ,. . . , Xn , que no
son soluciones de un sistema (7.10) con coeficientes continuos.

7.3. SISTEMA DE ECUACIONES DIFERENCIALES LINEALES.

235

P
Teorema 7.5 La combinacion lineal ni=1 ci Xi de n soluciones linealmente independientes
X1 , X2 ,. . . , Xn del sistema lineal homogeneo (7.10) con coeficientes continuos aij (t) en el
intervalo a t b, es solucion general de este sistema en dicho intervalo.
es solucion del sistema lineal no homogeneo
Teorema 7.6 Si X
L[X] = F ,

(7.9)

y X1 es solucion del sistema homogeneo correspondiente L[X] = 0, entonces la suma X1 + X


es tambien solucion del sistema no homogeneo L[X] = F .
Teorema 7.7 La solucion general en el intervalo a t b del sistema no homogeneo (7.9)
con coeficientes aij (t) yP
segundo miembro fi (t) continuos en dicho intervalo, es igual a la suma
de la solucion general ni=1 ci Xi del sistema homogeneo correspondiente y de una solucion
del sistema no homogeneo considerado.
particular X
Teorema 7.8 principio de superposici
on.
La solucion del sistema de ecuaciones lineales

L[X] =

m
X

Fi ,

i=1

f1i (t)
f2i (t)

Fi = .. ,
.

(7.13)

fni (t)
es la suma

Pm

i=1

Xi de las soluciones Xi de las ecuaciones


L[Xi ] = Fi , (i = 1, 2, . . . , m) .

(7.14)

Observaci
on. El teorema anterior puede extenderse tambien al caso cuando m , si la
P
serie i=1 Xi converge y puede ser derivada termino a termino.
Teorema 7.9 Si el sistema de ecuaciones lineales
L[X] = U + iV ,
donde

u1
u2

U = .. ,
.
un


v1
v2

V = .. ,
.
vn

con funciones reales aij (t), ui (t), vi (t), (i, j = 1, 2, . . . , n), tiene la solucion


u1
v1
u2
v2


X = U + iV , U = .. , V = .. ,
.
.
un
vn
entonces la parte real de U de la solucion y su parte imaginaria V son, respectivamente,
soluciones de las ecuaciones
L[X] = U y L[X] = V .

236

CAPITULO 7. SISTEMAS DE ECUACIONES DIFERENCIALES.

Parte III
Computaci
on.

237

Captulo 8
Elementos del sistema operativo unix.
versi
on final 3.4-021128

8.1.

Introducci
on.

En este captulo se intentara dar los elementos basicos para poder trabajar en un ambiente unix. Sin pretender cubrir todos los aspectos del mismo, nuestro interes se centra
en dar las herramientas al lector para que pueda realizar los trabajos del curso bajo este
sistema operativo. Como comentario adicional, conscientemente se ha evitado la traduccion
de gran parte de la terminologa tecnica teniendo en mente que documentacion disponible
se encuentre, por lo general, en ingles y nos interesa que el lector sea capaz de reconocer los
terminos.
El sistema operativo unix es el mas usado en investigacion cientfica, tiene una larga
historia y muchas de sus ideas y metodos se encuentran presentes en otros sistemas operativos.
Algunas de las caractersticas relevantes del unix moderno son:
Memoria grande, lineal y virtual: Un programa en una maquina de 32 Bits puede acceder
y usar direcciones hasta los 4 GB en un maquina de solo 4 MB de RAM. El sistema
solo asigna memoria autentica cuando le hace falta, en caso de falta de memoria de
RAM, se utiliza el disco duro (swap).
Multitarea (Multitasking): Cada programa tiene asignado su propio espacio de memoria. Es imposible que un programa afecte a otro sin usar los servicios del sistema
operativo. Si dos programas escriben en la misma direccion de memoria cada uno mantiene su propia idea de su contenido.
Multiusuario: Mas de una persona puede usar la maquina al mismo tiempo. Programas
de otros usuarios contin
uan ejecutandose a pesar de que un nuevo usuario entre a la
maquina.
Casi todo tipo de dispositivo puede ser accedido como un archivo.
Existen muchos aplicaciones dise
nadas para trabajar desde la lnea de comandos. Ademas,
la mayora de las aplicaciones permiten que la salida de una pueda ser la entrada de la
otra.
Permite compartir dispositivos (como disco duro) entre una red de maquinas.
239

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

240

Por su naturaleza de multiusuario, nunca se debe apagar una maquina unix1 , ya que
una maquina apagada sin razon puede matar trabajos de das, perder los u
ltimos cambios de
tus archivos e ir degradando el sistema de archivos en dispositivos como el disco duro.
Entre los sistemas operativos unix actuales cabe destacar:
Linux: esta disponible para: Intel x86 e IA-64; Motorola 68k, en particular, para las estaciones Sun3, computadores personales Apple Macintosh, Atari y Amiga; Sun SPARC;
Alpha; Motorola/IBM PowerPC; ARM, maquinas NetWinder; Sun UltraSPARC; MIPS
CPUs, maquinas SGI y estaciones Digital; HP PA-RISC; S/390, servidores IBM S/390
y SuperH procesadores Hitachi SuperH.
SunOS2 : disponible para la familia 68K as como para la familia sparc de estaciones
de trabajo sun
Solaris3 : disponible para la familia sparc de Sun as como para la familia x86.
OSF14 : disponible para Alpha.
Ultrix: disponible para vax de Digital
SYSVR45 : disponible para la familia x86, vax.
IRIX: disponible para mips.
AIX6 : disponible para RS6000 de IBM y PowerPC.

8.2.

Ingresando al sistema.

En esta seccion comentaremos las operaciones de comienzo y fin de una sesion en unix
as como la modificacion de la contrase
na (que a menudo no es la deseada por el usuario, y
que por lo tanto puede olvidar con facilidad).

8.2.1.

Terminales.

Para iniciar una sesion es necesario poder acceder a un terminal. Pueden destacarse dos
tipos de terminales:
Terminal de texto: consta de una pantalla y de un teclado. Como indica su nombre, en
la pantalla solo es posible imprimir caracteres de texto.
Terminal grafico: Consta de pantalla grafica, teclado y mouse. Dicha pantalla suele ser
de alta resolucion. En este modo se pueden emplear ventanas que emulan el comportamiento de un terminal de texto (xterm o gnome-terminal).
1

Incluyendo el caso en que la m


aquina es un PC normal corriendo Linux u otra version de unix.
SunOS 4.1.x tambien se conoce como Solaris 1.
3
Tambien conocido como SunOS 5.x, solaris 2 o Slowaris :-).
4
Tambien conocido como Dec Unix.
5
Tambien conocido como Unixware y Novell-Unix.
6
Tambien conocido como Aches.
2

8.2. INGRESANDO AL SISTEMA.

8.2.2.

241

Login.

El primer paso es encontrar un terminal libre donde aparezca el login prompt del sistema:
Debian GNU/Linux 3.0 hostname tty2
hostname login:
Tambien pueden ocurrir un par de cosas:
La pantalla no muestra nada.
Comprobar que la pantalla este encendida.
Pulsar alguna tecla o mover el mouse para desactivar el protector de pantalla.
Otra persona ha dejado una sesion abierta. En este caso existe la posibilidad de intentar
en otra maquina o bien finalizar la sesion de dicha persona (si esta no se halla en las
proximidades).
Una vez que se haya superado el paso anterior de encontrar el login prompt se procede
con la introduccion del Username al prompt de login y despues la contrase
na (password)
adecuada.

8.2.3.

Passwords.

El password puede ser cualquier secuencia de caracteres a eleccion. Deben seguirse las
siguientes pautas:
Debe ser facil de recordar por uno mismo. Si se olvida, debera pasarse un mal rato
diciendole al administrador de sistema que uno lo ha olvidado.
Para evitar que alguna persona no deseada obtenga el password y tenga libre acceso a
los archivos de tu cuenta:
Las may
usculas y min
usculas no son equivalentes sin embargo se recomienda que
se cambie de una a otra.
Los caracteres numericos y no alfabeticos tambien ayudan. Debe tenerse sin embargo la precaucion de usar caracteres alfanumericos que se puedan encontrar en
todos los terminales desde los que se pretenda acceder.
Las palabras de diccionario deben ser evitadas.
Debe cambiarlo si crees que su password es conocido por otras personas, o descubre
que alg
un intruso7 esta usando su cuenta.
El password debe ser cambiado con regularidad.
7

Intruso es cualquier persona que no sea el usuario.

242

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

La orden para cambiar el password en unix es passwd. A menudo cuando existen varias maquinas que comparten recursos (disco duro, impresora, correo electronico, . . . ), para
facilitar la administracion de dicho sistema se unifican los recursos de red (entre los que se
hayan los usuarios de dicho sistema) en una base de datos com
un. Dicho sistema se conoce
8
como NIS (Network Information Service) . Si el sistema empleado dispone de este servicio, la
modificacion de la contrase
na en una maquina supone la modificacion en todas las maquinas
que constituyan el dominio NIS.

8.2.4.

Cerrando la sesi
on.

Es importante que nunca se deje abierta una sesion, pues alg


un intruso podra tener
libre acceso a archivos de tu propiedad y manipularlos de forma indeseable para ti. Para
evitar todo esto basta teclear logout o exit y habra acabado tu sesion de unix en dicha
maquina9 .

8.3.

Archivos y directorios.

Aunque haya diferentes distribuciones y cada una traiga sus programas, la estructura
basica de directorios y archivos es mas o menos la misma en todas:
/-|-->
|-->
|-->
|-->
|-->
|-->
|-->
|-->
|-->
|-->
|-->
|-->
|-->
|-->
|
|
|
|
|
|
|
|
|-->
8

bin
boot
cdrom
dev
etc
floppy
home
lib
mnt
proc
root
sbin
tmp
usr -|--> X11
|--> bin
|--> include
|--> lib
|--> local -|--> bin
|
|--> lib
|--> man
|--> src --> linux
|--> doc
var --> adm

Antiguamente se conoca como YP (Yellow Pages), pero debido a un problema de marca registrada de
United Kingdom of British Telecomunications se adoptaron las siglas nis.
9
En caso que se estuviera trabajando bajo X-Windows debes cerrar la sesion con Log out of Gnome.

8.4. ORDENES
BASICAS.

243

El arbol que observamos muestra un tpico arbol de directorios en Linux. Pueden variar,
sin embargo, algunos de los nombres dependiendo de la distribucion o version de Linux que
se este usando. Algunos directorios destacados son:
/home - Espacio reservado para las cuentas de los usuarios.
/bin, /usr/bin - Binarios (ejecutables) basicos de unix.
/etc, aqu se encuentran los archivos de configuracion de todo el software de la maquina.
/proc, es un sistema de archivo virtual. Contiene archivos que residen en memoria
pero no en el disco duro. Hace referencia a los programas que se estan corriendo en el
momento en el sistema.
/dev (device) (dispositivo). Aqu se guardan los controladores de dispositivos. Se usan
para acceder a los dispositivos fsicos del sistema y recursos como discos duros, modems,
memoria, mouse, etc. Algunos dispositivos:
hd: hda1 sera el disco duro IDE, primario (a), y la primera particion (1).
fd: los archivos que empiecen con las letras fd se referiran a los controladores de
las disketteras: fd0 sera la primera diskettera, fd1 sera la segunda y as sucesivamente.
ttyS: se usan para acceder a los puertos seriales como por ejemplo, ttyS0 es el
puerto conocido como com1.
sd: son los dispositivos SCSI. Su uso es muy similar al del hd.
lp: son los puertos paralelos. lp0 es el puerto conocido como LPT1.
null: este es usado como un agujero negro, ya que todo lo que se dirige all desaparece.
tty: hacen referencia a cada una de las consolas virtuales. Como es de suponer,
tty1 sera la primera consola virtual, tty2 la segunda, etc.
/usr/local - Zona con las aplicaciones no comunes a todos los sistemas unix, pero no
por ello menos utilizadas. En /usr/share/doc se puede encontrar informacion relacionada con dicha aplicacion (en forma de paginas de manual, texto, html o bien archivos
dvi, Postscript o pdf). Tambien encontramos archivos de ejemplo, tutoriales, HOWTO,
etc.

8.4.

Ordenes
b
asicas.

Para ejecutar un comando, basta con teclear su nombre (tambien debes tener permiso para
hacerlo). Las opciones o modificadores empiezan normalmente con el caracter - (p. ej. ls -l).
Para especificar mas de una opcion, se pueden agrupar en una sola cadena de caracteres
(ls -l -h es equivalente a ls -lh). Algunos comandos aceptan tambien opciones dadas por
palabras completas, en cuyo caso usualmente comienzan con -- (ls --color=auto).

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

244

8.4.1.

Archivos y directorios.

En un sistema computacional la informacion se encuentra en archivos que la contienen


(tabla de datos, texto ASCII, fuente en lenguaje C, Fortran o C++, ejecutable, imagen,
mp3, figura, resultados de simulacion, . . . ). Para organizar toda la informacion se dispone
de una entidad denominada directorio, que permite el almacenamiento en su interior tanto
de archivos como de otros directorios10 . Se dice que la estructura de directorios en unix es
jerarquica o arborescente, debido a que todos los directorios nacen en un mismo punto (denominado directorio raz). De hecho, la zona donde uno trabaja es un nodo de esa estructura
de directorios, pudiendo uno a su vez generar una estructura por debajo de ese punto. Un
archivo se encuentra situado siempre en un directorio y su acceso se realiza empleando el

camino que conduce a el en el Arbol


de Directorios del Sistema. Este camino es conocido
como el path. El acceso a un archivo se puede realizar empleando:
Path Absoluto, aquel que empieza con /
Por ejemplo : /etc/printcap
Path Relativo, aquel que no empieza con /
Por ejemplo : ../examples/rc.dir.01
Nombres de archivos y directorios pueden usar un maximo de 255 caracteres, cualquier
combinacion de letras y smbolos (el caracter / no se permite).
Los caracteres comodn pueden ser empleados para acceder a un conjunto de archivos con
caractersticas comunes. El signo * puede sustituir cualquier conjunto de caracteres11 y el
signo ? a cualquier caracter individual. Por ejemplo:12
bash$ ls
f2c.1
flexdoc.1
rcmd.1
rptp.1
zforce.1
face.update.1 ftptool.1
rlab.1
rxvt.1
zip.1
faces.1
funzip.1
robot.1
zcat.1
zipinfo.1
flea.1
fvwm.1
rplay.1
zcmp.1
zmore.1
flex.1
rasttoppm.1 rplayd.1 zdiff.1 znew.1
bash$ ls rp*
rplay.1
rplayd.1
rptp.1
bash$ ls *e??
face.update.1 zforce.1
zmore.1
Los archivos cuyo nombre comiencen por . se denominan ocultos, as por ejemplo en el
directorio de partida de un usuario.
bash$ ls -a user
.
.alias
.fvwmrc .login
.xinitrc
..
.cshrc
.joverc .profile
.Xdefaults
.enviroment .kshrc
.tcshrc
10

Normalmente se acude a la imagen de una carpeta que puede contener informes, documentos o bien otras
carpetas, y as sucesivamente.
11
Incluido el punto ., unix no es dos.
12
bash$ es el prompt en todos los ejemplos.

8.4. ORDENES
BASICAS.
Algunos
.
..
~
~user

8.4.2.

245

caracteres especiales para el acceso a archivos son:


Directorio actual
Directorio superior en el arbol
Directorio $HOME
Directorio $HOME del usuario user

Ordenes
relacionadas con directorios.

ls (LiSt)
Este comando permite listar los archivos de un determinado directorio. Si no se le suministra
argumento, lista los archivos y directorios en el directorio actual. Si se a
nade el nombre de
un directorio el listado es del directorio suministrado. Existen varias opciones que modifican
su funcionamiento entre las que destacan:
-l (Long listing) proporciona un listado extenso, que consta de los permisos13 de cada
archivo, el usuario el tama
no del archivo, . . .
-a (list All) lista tambien los archivos ocultos.
-R (Recursive) lista recursivamente el contenido de todos los directorios que se encuentre.
-t ordena los archivos por tiempo de modificacion.
-S ordena los archivos por tama
no.
-r invierte el sentido de un orden.
-p agrega un caracter al final de cada nombre de archivo, indicando el tipo de archivo
(por ejemplo, los directorios son identificados con un / al final).
pwd (Print Working Directory)
Este comando proporciona el nombre del directorio actual.
cd (Change Directory)
Permite moverse a traves de la estructura de directorios. Si no se le proporciona argumento se
provoca un salto al directorio $HOME. El argumento puede ser un nombre absoluto o relativo
de un directorio. cd - vuelve al u
ltimo directorio visitado.
mkdir (MaKe DIRectory)
Crea un directorio con el nombre (absoluto o relativo) proporcionado.
rmdir (ReMove DIRectory)
Elimina un directorio con el nombre (absoluto o relativo) suministrado. Dicho directorio debe
de estar vaco.
13

Se comentar
a posteriormente este concepto.

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

246

8.4.3.

Visitando archivos.

Este conjunto de ordenes permite visualizar el contenido de un archivo sin modificar su


contenido.
cat
Muestra por pantalla el contenido de un archivo que se suministra como argumento.
more
Este comando es analogo al anterior, pero permite la paginacion.
less
Es una version mejorada del anterior. Permite moverse en ambas direcciones. Otra ventaja
es que no lee el archivo entero antes de arrancar.

8.4.4.

Copiando, moviendo y borrando archivos.

cp (CoPy)
copia un archivo(s) con otro nombre y/o a otro directorio. Veamos algunas opciones:
-i (interactive), impide que la copia provoque una perdida del archivo destino si este
existe14 .
-R (recursive), copia un directorio y toda la estructura que cuelga de el.
mv (MoVe)
Mover un archivo(s) a otro nombre y/o a otro directorio. Dispone de opciones analogas al
caso anterior.
rm (ReMove)
Borrar un archivo(s). En caso de que el argumento sea un directorio y se haya suministrado
la opcion -r, es posible borrar el directorio y todo su contenido. La opcion -i pregunta antes
de borrar.

8.4.5.

Espacio de disco.

El recurso de almacenamiento en el disco es siempre limitado, a continuacion se comentan


un par de comandos relacionados con la ocupacion de este recurso:
du (Disk Usage)
Permite ver el espacio de disco ocupado (en bloques de disco15 ) por el archivo o directorio
suministrado como argumento. La opcion -s impide que cuando se aplique recursividad en
un directorio se muestren los subtotales. La opcion -h imprime los tama
nos en un formato
facil de leer (Human readable).
df (Disk Free)
Muestra los sistemas de archivos que estan montados en el sistema, con las cantidades totales,
usadas y disponibles para cada uno. df -h muestra los tama
nos en formato facil de leer.
14
15

Muchos sistemas tienen esta opci


on habilitada a traves de un alias, para evitar equivocaciones.
1 bloque normalmente es 1 Kbyte.

8.4. ORDENES
BASICAS.

8.4.6.

247

Links.

ln (LiNk)
Permite realizar un enlace (link) entre dos archivos o directorios. Un enlace puede ser:
hard link : se puede realizar solo entre archivos del mismo sistema de archivos. El archivo
enlazado apunta a la zona de disco donde se halla el archivo original. Por tanto, si se
elimina el archivo original, el enlace sigue teniendo acceso a dicha informacion. Es el
enlace por omision.
symbolic link : permite enlazar archivos/directorios16 de diferentes sistemas de archivos.
El archivo enlazado apunta al nombre del original. As si se elimina el archivo original
el enlace apunta hacia un nombre sin informacion asociada. Para realizar este tipo de
enlace debe emplearse la opcion -s.
Un enlace permite el uso de un archivo en otro directorio distinto del original sin necesidad
de copiarlo, con el consiguiente ahorro de espacio.

8.4.7.

Protecci
on de archivos.

Dado que el sistema de archivos unix es compartido por un conjunto de usuarios, surge el
problema de la necesidad de privacidad. Sin embargo, dado que existen conjuntos de personas
que trabajan en com
un, es necesario la posibilidad de que un conjunto de usuarios puedan
tener acceso a una serie de archivos (que puede estar limitado para el resto de los usuarios).
Cada archivo y directorio del sistema dispone de un propietario, un grupo al que pertenece
y unos permisos. Existen tres tipos fundamentales de permisos:
lectura (r-Read ): en el caso de un archivo, significa poder examinar el contenido del
mismo; en el caso de un directorio significa poder entrar en dicho directorio.
escritura (w-Write): en el caso de un archivo significa poder modificar su contenido;
en el caso de un directorio es crear un archivo o directorio en su interior.
ejecuci
on (x-eXecute): en el caso de un archivo significa que ese archivo se pueda
ejecutar (binario o archivo de procedimientos); en el caso de un directorio es poder
ejecutar alguna orden dentro de el.
Se distinguen tres grupos de personas sobre las que especificar permisos:
user: el usuario propietario del archivo.
group: el grupo propietario del archivo (excepto el usuario). Como ya se ha comentado,
cada usuario puede pertenecer a uno o varios grupos y el archivo generado pertenece a
uno de los mismos.
other: el resto de los usuarios (excepto el usuario y los usuarios que pertenezcan al
grupo)
16

Debe hacerse notar que los directorios solo pueden ser enlazados simbolicamente.

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

248

Tambien se puede emplear all que es la union de todos los anteriores. Para visualizar las
protecciones de un archivo o directorio se emplea la orden ls -l, cuya salida es de la forma:
-rw-r--r-- ...otra informaci
on... nombre
Los 10 primeros caracteres muestran las protecciones de dicho archivo:
El primer caracter indica el tipo de archivo de que se trata:
archivo
d directorio
l enlace (link )
c dispositivo de caracteres (p.e. puerta serial)
b dispositivo de bloques (p.e. disco duro)
s socket (conexion de red)
Los caracteres 2, 3, 4 son los permisos de usuario
Los caracteres 5, 6, 7 son los permisos del grupo
Los caracteres 8, 9, 10 son los permisos del resto de usuarios
As en el ejemplo anterior -rw-r--r-- se trata de un archivo donde el usuario puede
leer y escribir, mientras que el grupo y el resto de usuarios solo pueden leer. Estos suelen
ser los permisos por omision para un archivo creado por un usuario. Para un directorio
los permisos por omision suelen ser: drwxr-xr-x, donde se permite al usuario entrar
en el directorio y ejecutar ordenes desde el.
chmod (CHange MODe)
Esta orden permite modificar los permisos de un archivo. Con opcion -R es recursiva.
chmod permisos files
Existen dos modos de especificar los permisos:
Modo absoluto o modo numerico. Se realiza empleando un n
umero que resulta de la OR
binario de los siguientes modos:
400
200
100
040
020
010
004
002
001
4000

lectura por el propietario.


escritura por el propietario.
ejecucion (b
usqueda) por el propietario.
lectura por el grupo.
escritura por el grupo.
ejecucion (b
usqueda) por el grupo.
lectura por el resto.
escritura por el resto.
ejecucion (b
usqueda) por el resto.
Set User ID, cuando se ejecuta el proceso corre
con los permisos del due
no del archivo.

Por ejemplo:
chmod 640 *.txt

8.4. ORDENES
BASICAS.

249

Permite la lectura y escritura por el usuario, lectura para el grupo y ning


un permiso
para el resto, de un conjunto de archivos que acaban en .txt
Modo simbolico o literal. Se realiza empleando una cadena (o cadenas separadas por
comas) para especificar los permisos. Esta cadena se compone de los siguientes tres
elementos: who operation permission

who : es una combinacion de:

u
g
o
a

:
:
:
:

user
group
others
all (equivalente a ugo)

Si se omite este campo se supone a, con la restriccion de no ir en contra de la


mascara de creacion (umask).
operation: es una de las siguientes operaciones:
+ : a
nadir permiso.
- : eliminar permiso.
= : asignar permiso, el resto de permisos de la misma categora se anulan.
permission: es una combinacion de los caracteres:

r
w
x
s

:
:
:
:

read.
write.
execute.
en ejecucion fija el usuario o el grupo.

Por ejemplo:
chmod u+x tarea
Permite la ejecucion por parte del usuario17 del archivo tarea.
chmod u=rx, go=r *.txt
Permite la lectura y ejecucion del usuario, y solo la lectura por parte del grupo y el
resto de usuarios.
umask
Esta es una orden intrnseca del Shell que permite asignar los permisos que se desea tengan
los archivos y directorios por omision. El argumento que acompa
na a la orden es un n
umero
octal que aplicara una xor sobre los permisos por omision (rw-rw-rw-) para archivos y
(rwxrwxrwx) para directorios. El valor por omision de la mascara es 022 que habilita al
usuario para lectura-escritura, al grupo y al resto para lectura. Sin argumentos muestra el
valor de la mascara.
17

Un error muy frecuente es la creaci


on de un archivo de ordenes (script file) y olvidar permitir la ejecucion
del mismo.

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

250

chgrp (CHange GRouP)


Cambia el grupo propietario de una serie de archivos/directorios
chgrp grupo files
El usuario que efect
ua esta orden debe pertenecer al grupo mencionado.
chown (CHange OWNer)
Cambia el propietario y el grupo de una serie de archivos/directorios
chown user:group files
La opcion -r hace que la orden se efect
ue recursivamente.
id
Muestra la identificacion del usuario18 , as como el conjunto de grupos a los que el usuario
pertenece.
user@hostname:~$ id
uid=1000(user) gid=1000(group) groups=1000(group),25(floppy),29(audio)
user@hostname:~$

8.4.8.

Filtros.

Existe un conjunto de ordenes en unix que permiten el procesamiento de archivos de texto.


Se denominan filtros (Unix Filters), porque normalmente se trabaja empleando redireccion
recibiendo datos por su stdin19 y retornandolos modificados por su stdout20 .
Para facilitar la comprension de los ejemplos siguientes supondremos que existen dos
archivo llamado mylist.txt y yourlist.txt que tienen en su interior:
mylist.txt

yourlist.txt

1 190
2 280
3 370

1 190
2 281
3 370

echo
Este no es propiamente un filtro, pero nos sera muy u
til mas adelante. Despliega sobre la
pantalla un mensaje
user@hostname:~$ echo Hola Mundo
Hola Mundo
user@hostname:~$
cat
Es el filtro mas basico, copia la entrada a la salida.
user@hostname:~$ cat
1 190
18

mylist.txt

A pesar de que el usuario se identifica por una cadena denominada username, tambien existe un n
umero
denominado uid que es un identificativo numerico de dicho usuario.
19
Entrada est
andar.
20
Salida estandar.

8.4. ORDENES
BASICAS.

251

2 280
3 370
user@hostname:~$
cut
Para un archivo compuesto por columnas de datos, permite escribir sobre la salida cierto
intervalo de columnas. La opcion -b N-M permite indicar el intervalo en bytes que se escribiran
en la salida.
user@hostname:~$ cut -b 3-4 mylist.txt
19
28
37
user@hostname:~$
paste
Mezcla lneas de distintos archivos. Escribe lneas en el stdout pegando secuencialmente las
lneas correspondientes de cada unos de los archivo separadas por tab. Ejemplo, supongamos
que tenemos nuestros archivos mylist.txt y mylist.txt y damos el comando
user@hostname:~$ paste mylist.txt yourlist.txt
1 190
1 190
2 280
2 281
3 370
3 370
user@hostname:~$
sed
Es un editor de flujo. Veamos algunos ejemplos
user@hostname:~$ sed = mylist.txt
1
1 190
2
2 280
3
3 370
user@hostname:~$
Numera las lneas.
user@hostname:~$ sed -n 3p mylist.txt
3 370
user@hostname:~$
Solo muestra la lnea 3. El modificador -n suprime la impresion de todas las lneas excepto
aquellas especificadas por p. Separando por coma damos un rango en el n
umero de lneas.

252

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

user@hostname:~$ sed -e 2q mylist.txt


1 190
2 280
user@hostname:~$
Muestra hasta la lnea 2 y luego se sale de sed. El modificador -e corre un script, secuencia
de comandos.
user@hostname:~$ sed -e s/0/a/g mylist.txt
1 19a
2 28a
3 37a
user@hostname:~$
Reemplaza todos los 0 del archivo por la letra a. Este es uno de los usos mas comunes.
user@hostname:~$ sed -e /2 2/s/0/a/g mylist.txt
1 190
2 28a
3 370
user@hostname:~$
Busca las lneas con la secuencia 2 2 y en ellas reemplaza todos los 0 por la letra a.
user@hostname:~$ sed -e s/1/XX/2 mylist.txt
1 XX90
2 280
3 370
user@hostname:~$
Reemplaza la segunda aparicion de un 1 en una lnea por los caracteres XX.
diff
Permite comparar el contenido de dos archivos
user@hostname:~$ diff mylist.txt yourlist.txt
2c2
< 2 280
--> 2 281
user@hostname:~$
Hay una diferencia entre los archivos en la segunda fila.
sort
Permite ordenar alfabeticamente

8.4. ORDENES
BASICAS.

253

user@hostname:~$ sort -n -r mylist.txt


3 370
2 280
1 190
user@hostname:~$
La opcion -n considera los valores numericos y la opcion -r invierte el orden.
find
Permite la b
usqueda de un archivo en la estructura de directorios
find . -name file.dat -print
Comenzando en el directorio actual recorre la estructura de directorios buscando el archivo
file.dat, cuando lo encuentre imprime el path al mismo.
find . -name *~ -exec rm {} \;
Busca en la estructura de directorios un archivo que acabe en ~ y lo borra. xargs ordena
repetir orden para cada argumento que se lea desde stdin. Permite el uso muy eficiente de
find.
find . -name *.dat -print | xargs mv ../data \;
Busca en la estructura de directorios todos los archivos que acaben en .dat, y los mueve al
directorio ../data.
grep
Permite la b
usqueda de una cadena de caracteres en uno o varios archivos, imprimiendo el
nombre del archivo y la lnea en que se encuentra la cadena.
user@hostname:~$ grep 1 *list.txt
mylist.txt:1 190
yourlist.txt:1 190
yourlist.txt:2 281
user@hostname:~$
Algunas opciones u
tiles
-c Elimina la salida normal y solo cuenta el n
umero de apariciones de la cadena en
cada archivo.
-i Ignora para la comparacion entre la cadena dada y el archivo, si la cadena esta en
may
usculas o min
usculas.
-n Incluye el n
umero de lneas en que aparece la cadena en la salida normal.
-r Hace la b
usqueda recursiva.
-v Invierte la b
usqueda mostrando todas las lneas donde no aparece la cadena pedida.
head
Muestra las primeras diez lneas de un archivo.
head -30 file Muestra las 30 primeras lneas de file.

254

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

user@hostname:~$ head -1
1 190
user@hostname:~$

mylist.txt

tail
Muestra las diez u
ltimas lneas de un archivo.
tail -30 file Muestra las 30 u
ltimas lneas de file.
tail +30 file Muestra desde la lnea 30 en adelante de file.
user@hostname:~$ tail -1
3 370
user@hostname:~$

mylist.txt

awk
Es un procesador de archivos de texto que permite la manipulacion de las lneas de forma tal
que tome decisiones en funcion del contenido de la misma. Ejemplo, supongamos que tenemos
nuestro archivo mylist.txt con sus dos columnas
user@hostname:~$ awk {print $2, $1 }
190 1
280 2
370 3
user@hostname:~$

mylist.txt

Imprime esas dos columnas en orden inverso.


user@hostname:~$ awk {print a, 8*$1, $2-1 }
a 8 189
a 16 279
a 24 369
user@hostname:~$

mylist.txt

Permite operar sobre las columnas.


user@hostname:~$ awk {print }
1 190
2 280
3 370
user@hostname:~$

mylist.txt

Funciona como el comando cat


user@hostname:~$ awk { if (NR>1 && NR < 3) print} mylist.txt
2 280
user@hostname:~$
Solo imprime la lnea 2.
tar
Este comando permite la creacion/extraccion de archivos contenidos en un u
nico archivo

8.4. ORDENES
BASICAS.

255

denominado tarfile (o tarball). Este tarfile suele ser luego comprimido con gzip, la
version de compresion gnu21 o bien con bzip2.
La accion a realizar viene controlada por el primer argumento:
c (Create) creacion
x (eXtract) extraccion
t (lisT) mostrar contenido
r a
nadir al final
u (Update) a
nadir aquellos archivos que no se hallen en el tarfile o que hayan sido
modificados con posterioridad a la version que aparece.
A continuacion se colocan algunas de las opciones:
v Verbose (indica que archivos son agregados a medida que son procesados)
z Comprimir o descomprimir el contenido con gzip.
j Comprimir o descomprimir el contenido con bzip2.
f File: permite especificar el archivo para el tarfile.
Veamos algunos ejemplos:
tar cvf simul.tar *.dat
Genera un archivo simul.tar que contiene todos los archivos que terminen en .dat del
directorio actual. A medida que se va realizando indica el tama
no en bloques de cada archivo
a
nadido modo verbose.
tar czvf simul.tgz *.dat
Igual que en el caso anterior, pero el archivo generado simul.tgz ha sido comprimido empleando gzip.
tar tvf simul.tar
Muestra los archivos contenidos en el tarfile simul.tar.
tar xvf simul.tar
Extrae todos los archivos contenidos en el tarfile simul.tar.
wc (Word Count) Contabiliza el n
umero de lneas, palabras y caracteres de un archivo.
user@hostname:~$ wc
3
6
user@hostname:~$

mylist.txt
18 mylist.txt

El archivo tiene 3 lneas, 6 palabras, considerando cada n


umero como una palabra i.e. 1 es la
primera palabra y 190 la segunda, y finalmente 18 caracteres. Cuales son los 18 caracteres?
21

gnu es un acr
onimo recursivo, significa: gnus Not unix! gnu es el nombre del producto de la Free
Software Foundation, una organizaci
on dedicada a la creacion de programas compatibles con unix (y mejorado
respecto a los est
andars) y de libre distribucion. La distribucion de Linux gnu es debian.

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

256

8.4.9.

Otros usuarios y m
aquinas

users who w
Para ver quien esta conectado en la maquina.
ping
Verifica si una maquina esta conectada a la red y si el camino de Internet hasta la misma
funciona correctamente.
finger
finger user, muestra informacion22 sobre el usuario user en la maquina local.
finger user@hostname, muestra informacion sobre un usuario llamado user en una maquina
hostname.
finger @hostname, muestra los usuarios conectados de la maquina hostname.

8.4.10.

Fecha

cal
Muestra el calendario del mes actual. Con la opcion -y y el a
no presenta el calendario del
a
no completo.
date
Muestra el da y la hora actual.

8.4.11.

Transferencia a diskettes.

La filosofa de diferentes unidades (A:, B:,. . . ) difiere de la estructura u


nica del sistema
de archivos que existe en unix. Son varias las alternativas que existen para la transferencia
de informacion a diskette.
Una posibilidad es disponer de una maquina win9x con ftp instalado y acceso a red.
Empleando dicha aplicacion se pueden intercambiar archivos entre un sistema y el otro.
Existe un conjunto de comandos llamados mtools disponible en multitud plataformas,
que permiten el acceso a diskettes en formato win9x de una forma muy eficiente.
mdir a: Muestra el contenido de un diskette en a:.
mcopy file a: Copia el archivo file del sistema de archivos unix en un diskette en
a:.
mcopy a:file file Copia el archivo a:file del diskette en el sistema de archivos
unix con el nombre file.
mdel a:file Borra el archivo a:file del diskette.
22

La informacion proporcionada es el nombre de completo del usuario, las u


ltimas sesiones en dicha maquina, si ha ledo o no su correo y el contenido de los archivos .project y .plan del usuario.

8.4. ORDENES
BASICAS.

257

Con a: nos referimos a la primera diskettera /dev/fd0 y luego al archivo que se encuentra en el diskette. Su nombre se compone de a:filename. Si se desea emplear el
caracter comodn para un conjunto de archivos del diskette, estos deben rodearse de
dobles comillas para evitar la actuacion del shell (p.e. mcopy a:*.dat). La opcion
-t realiza la conversion necesaria entre unix y win9x, que se debe realizar s
olo en
archivos de texto.
Una alternativa final es montar el dispositivo /dev/fd0 en alg
un directorio, tpicamente
/floppy, considerando el tipo especial de sistema de archivos que posee vfat y luego
copiar y borrar usando comandos unix. Esta forma suele estar restringida solo a root,
el comando: mount -t vfat /dev/fd0 /floppy no puede ser dado por un usuario. Sin
embargo, el sistema aceptara el comando mount /floppy de parte del usuario. Una vez
terminado el trabajo con el floppy este debe ser desmontado, antes de sacarlo, mediante
el comando: umount /floppy.

8.4.12.

Diferencias entre los sistemas.

Cuando se transfieren archivos de texto entre dos y unix sin las precauciones adecuadas
pueden aparecer los siguientes problemas:
En dos los nombres de los archivos pueden tener un maximo de 8 caracteres y una
extension de 3 caracteres. En unix no existe restriccion respecto a la longitud del
nombre, y aunque pueden llevar extension, no es obligatorio. Tambien pueden tener
mas de una extension algo.v01.tar.gz, esto complica mucho a otros sistemas que
tienen limitaciones en los nombres.
El cambio de lnea en dos se compone de Carriage Return y Line Feed. Sin embargo,
en unix solo existe el Carriage Return. As un archivo de unix visto desde DOS parece
una u
nica lnea. El caso inverso es la aparicion del caracter ^M al final de cada lnea.
Ademas, el fin de archivo en dos es ^Z y en unix es ^D.
La presencia de caracteres con codigo ascii por encima del 127 (ascii extendido) suele
plantear problemas. Debido a que en DOS dicho codigo depende de la asignacion hecha,
que a su vez depende del pas.
Usando el comando tr se puede transformar un archivo con cambios de lneas para dos
en uno para unix. Sabiendo que ^M es ascii 13 decimal, pero 15 en octal:
tr -d \015 < datafile > TEMPFILE
mv -f TEMPFILE datafile
En Debian, instalando el paquete sysutils, queda instalado el comando dos2unix que tambien lo hace.

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

258

8.5.

Shells.

El sistema operativo unix soporta varios interpretes de comandos o shells, que ayudan
a que la interaccion con el sistema sea lo mas comoda y amigable posible. La eleccion de
cual es el shell mas comoda es algo personal; en este punto solo indicaremos las cuatro mas
significativas y populares:
sh : Bourne SHell, el shell basico, no pensado para uso interactivo.
csh : C-SHell, shell con sintaxis como el lenguaje C. El archivo de configuracion es
.cshrc (en el directorio $HOME).
tcsh : alTernative C-Shell (Tenex-CSHell), con editor de lnea de comando. El archivo
de configuracion es .tcshrc, o en caso de no existir, .cshrc (en el directorio $HOME).
bash : Bourne-Again Shell, con lo mejor de sh, ksh y tcsh. El archivo de configuracion
es .bash_profile cuando se entra a la cuenta por primera vez, y despues el archivo de
configuracion es .bashrc siempre en el directorio $HOME. La lnea de comando puede
ser editada usando comandos (secuencias de teclas) del editor emacs. Es el shell por
defecto de Linux.
Si queremos cambiar de shell en un momento dado, solo sera necesario que tecleemos el
nombre del mismo y estaremos usando dicho shell. Si queremos usar de forma permanente otro
shell del que tenemos asignado por omision23 podemos emplear la orden chsh que permite
realizar esta accion.
En los archivos de configuracion se encuentran las definiciones de las variables de entorno
(enviroment variables) como camino de b
usqueda PATH, los aliases y otras configuraciones
personales. Veamos unos caracteres con especial significado para el Shell:
24 permite que el output de un comando reemplace al nombre del comando. Por
ejemplo: echo pwd imprime por pantalla el nombre del directorio actual.
user@hostname:~$ echo pwd
/home/user
user@hostname:~$
25 preserva el significado literal de cada uno de los caracteres de la cadena que
delimita.
user@hostname:~$ echo Estoy en pwd
Estoy en pwd
user@hostname:~$
23

Por omision se asigna bash.


Acento agudo o inclinado hacia atr
as, backquote.
25
Acento usual o inclinado hacia adelante, single quote.

24

8.5. SHELLS.

259

26 preserva el significado literal de todos los caracteres de la cadena que delimita,


salvo $, , \.
user@hostname:~$ echo "Estoy en pwd"
Estoy en /home/user
user@hostname:~$
; permite la ejecucion de mas de una orden en una sola lnea de comando.
user@hostname:~$ mkdir mydir; cd mydir; cp *.txt . ; cd ..
user@hostname:~$

8.5.1.

Variables de entorno.

Las variables de entorno permiten la configuracion, por defecto, de muchos programas


cuando ellos buscan datos o preferencias. Se encuentran definidas en los archivos de configuracion anteriormente mencionados. Para referenciar a las variables se debe poner el smbolo
$ delante, por ejemplo, para mostrar el camino al directorio por defecto del usuario user:
user@hostname:~$ echo $HOME
/home/user
user@hostname:~$
Las variables de entorno mas importantes son:
HOME - El directorio por defecto del usuario.
PATH - El camino de b
usqueda, una lista de directorios separado con : para buscar
programas.
EDITOR - El editor por defecto del usuario.
DISPLAY - Bajo el sistema de X windows, el nombre de maquina y pantalla que esta usando. Si esta variable toma el valor :0 el despliegue es local.
TERM - El tipo de terminal. En la mayora de los casos bajo el sistema X windows se
trata de xterm y en la consola en Linux es linux. En otros sistemas puede ser vt100.
SHELL - La shell por defecto.
MANPATH - Camino para buscar paginas de manuales.
PAGER - Programa de paginacion de texto (less o more).
TMPDIR - Directorio para archivos temporales.
26

double quote.

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

260

8.5.2.

Redirecci
on.

Cuando un programa espera que se teclee algo, aquello que el usuario teclea se conoce
como el Standard Input: stdin. Los caracteres que el programa retorna por pantalla es lo que
se conoce como Standard Output: stdout (o Standard Error : stderr27 ). El signo < permite
que un programa reciba el stdin desde un archivo en vez de la interaccion con el usuario.
Por ejemplo: mail root < file, invoca el comando mail con argumento (destinatario del
mail) root, siendo el contenido del mensaje el contenido del archivo file en vez del texto que
usualmente teclea el usuario. Mas a menudo aparece la necesidad de almacenar en un archivo
la salida de un comando. Para ello se emplea el signo >. Por ejemplo, man bash > file,
invoca el comando man con argumento (informacion deseada) bash pero indicando que la
informacion debe ser almacenada en el archivo file en vez de ser mostrada por pantalla.
En otras ocasiones uno desea que la salida de un programa sea la entrada de otro. Esto
se logra empleando los denominados pipes, para ello se usa el signo |. Este signo permite que
el stdout de un programa sea el stdin del siguiente. Por ejemplo:
zcat manual.gz | more
Invoca la orden de descompresion de zcat y conduce el flujo de caracteres hacia el paginador
more, de forma que podamos ver pagina a pagina el archivo descomprimido. A parte de los
smbolos mencionados existen otros que permiten acciones tales como:
>> A
nadir el stdout al final del archivo indicado (append ).28
>& o &> (solo csh, tcsh y bash) Redireccionar el stdout y stderr. Con 2> redirecciono solo el stderr.
>>& Igual que >& pero en modo append.
>>! Igual que >>, pero con la adicion que funciona tambien cuando el archivo no existe.

8.5.3.

Ejecuci
on de comandos.

Si el comando introducido es propio del shell (built-in), se ejecuta directamente.


En caso contrario:
Si el comando contiene /, el shell lo considera un PATH e intenta resolverlo (entrar
en cada directorio especificado para encontrar el comando).
En caso contrario el shell busca en una tabla hash table que contiene los nombres de
los comandos que se han encontrado en los directorios especificados en la variable
PATH, cuando ha arrancado el shell.

8.5.4.

Aliases.

Para facilitar la entrada de algunas ordenes o realizar operaciones complejas, los shells
interactivos permiten el uso de aliases. La orden alias permite ver que aliases hay definidos
27
28

Si estos mensajes son de error.


En bash, si el archivo no existe, es creado.

8.5. SHELLS.

261

y tambien definir nuevos. Es corriente definir el alias rm =rm -i, de esta forma la orden
siempre pide confirmacion para borrar un archivo. Si alguna vez quieres usar rm sin alias,
solo hace falta poner delante el smbolo \, denominado backslash . Por ejemplo \rm elimina
los alias aplicados a rm. Otro ejemplo, bastante frecuente (en tcsh/csh) podra ser (debido
a la complejidad de la orden): alias ffind find . -name \!* -print. Para emplearlo:
ffind tema.txt, el resultado es la b
usqueda recursiva a partir del directorio actual de un
archivo que se llame tema.txt, mostrando el camino hasta el mismo.

8.5.5.

Las shells csh y tcsh.

Son dos de los Shells interactivos mas empleados. Una de las principales ventajas de tcsh
es que permite la edicion de la lnea de comandos, y el acceso a la historia de ordenes usando
las teclas de cursores.29
Comandos propios.
Los comandos propios o intrnsecos, Built-In Commands, son aquellos que proporciona el
propio shell 30 .
alias name def
Asigna el nombre name al comando def.
foreach var (wordlist)
commands
end
La variable var se asigna sucesivamente a los valores de cadena wordlist, y se ejecuta el
conjunto de comandos. El contenido de dicha variable puede ser empleado en los comandos:
$var.
history
Muestra las u
ltimas ordenes introducidas en el shell. Algunos comandos relacionados con el
Command history son:
!!
Repite la u
ltima orden.
!n
Repite la orden n-esima.
!string
Repite la orden mas reciente que empiece por la cadena string.
29

bash tambien lo permite.


A diferencia de los comandos que provienen de un ejecutable situado en alguno de los directorios de la
variable PATH.
30

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

262

!?string
Repite la orden mas reciente que contenga la cadena string.

str1 str2 o !!:s/str1/str2/


(substitute) Repite la u
ltima orden reemplanzando la primera ocurrencia de la cadena
str1 por la cadena str2.
!!:gs/str1/str2/
(global substitute) Repite la u
ltima orden reemplazando todas las ocurrencias de la
cadena str1 por la cadena str2.
!$
Es el u
ltimo argumento de la orden anterior que se haya tecleado.
pushd
Cambia de directorio, recordando el directorio actual.
popd
Retorna al directorio desde donde se hizo pushd la u
ltima vez.
repeat count command
Repite count veces el comando command.
rehash
Rehace la tabla de comandos (hash table).
set variable = VALUE
Asigna el valor de una variable del shell.
set variable
Muestra el valor de la variable
setenv VARIABLE VALUE
Permite asignar el valor de una variable de entorno.
source file
Ejecuta las ordenes del fichero file en el shell actual.
unset variable
Desasigna el valor de una variable del shell.
unsetenv VARIABLE VALUE
Permite desasignar el valor de una variable de entorno.
umask value
Asigna la mascara para los permisos por omision.
unalias name
Elimina un alias asignado.

8.5. SHELLS.

263

Variables propias del shell.


Existe un conjunto de variables denominadas shell variables, que permiten modificar el
funcionamiento del shell.
filec (FILE Completion)
Es una variable toggle que permite que el shell complete automaticamente el nombre de un
archivo o un directorio31 . Para ello, si el usuario introduce solo unos cuantos caracteres de
un archivo y pulsa el TAB, el shell completa dicho nombre. Si solo existe una posibilidad, el
completado es total y el shell deja un espacio tras el nombre. En caso contrario hace sonar
un pitido. Pulsando Ctrl-D el shell muestra las formas existentes para completar.
prompt
Es una variable de cadena que contiene el texto que aparece al principio de la lnea de
comandos.
savehist
Permite definir el n
umero de ordenes que se desea almacenar al abandonar el shell. Esto
permite recordar las ordenes que se ejecutaron en la sesion anterior.

8.5.6.

Las shell sh y bash.

Solo bash puede considerarse un shell interactivo, permitiendo la edicion de la lnea de


comandos, y el acceso a la historia de ordenes (readline). En uso normal (historia y editor
de lnea de comandos) BASH es compatible con TCSH y KSH. El modo de completado (file
completion) es automatico (usando TAB solo) si el shell es interactivo.
Comandos propios del shell.
Los comandos umask , source , pushd , popd , history , unalias , hash
nan igual que en la shell TCSH.

32

, funcio-

help
Ayuda interna sobre los comandos del shell.
VARIABLE=VALUE
Permite asignar el valor de una variable de entorno. Para que dicha variable sea heredada
es necesario emplear: export VARIABLE o bien combinarlas: export VARIABLE=VALUE.
for var in wordlist do comandos done
La variable var, que puede llamarse de cualquier modo, se le asignan sucesivamente los valores
de la cadena wordlist, y se ejecuta el conjunto de comandos. El contenido de dicha variable
puede ser empleado en los comandos: $var. Ejemplo {for i in 1 2 tres 4; do echo $i; done}
1 2 tres 4
alias
31

bash permite no s
olo completar ficheros/directorios sino tambien comandos.
En bash/sh la hash table se va generando dinamicamente a medida que el usuario va empleando las
ordenes. As el arranque del shell es m
as r
apido, y el uso de orden equivalente hash -r casi nunca hace falta.
32

264

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

En bash, alias solo sirve para substitucion simple de una cadena por otra. Por ejemplo:
alias ls=ls -F. Para crear alias con argumentos se usan funciones, ver la documentacion.

8.5.7.

Archivos de script.

Un archivo de script es una sucesion de comandos de la shell que se ejecutan secuencialmente. Veamos un ejemplo simple:
#!/bin/bash
variable=/home/yo
cp $1 /tmp/$2
rm $1
cd $variable
# Hecho por mi
La primera lnea declara la shell especfica que se quiere usar. En la segunda lnea hay una
declaracion de una variable interna. La tercera contiene los dos primeros argumentos con que
fue llamado el script. Por ejemplo, si el anterior script esta en un archivo llamado ejemplo,
el comando ejemplo file1 file2 asocia $1 a file1 y $2 a file2. La lnea 5 hace uso de la
variable interna dentro de un comando. La u
ltima lnea por comenzar con un # corresponde
a un comentario. Notemos que la primera tambien es un comentario, pero la combinacion #!
en la primera lnea fuerza a que se ejecute esa shell.
Esto solo es una mnima pincelada de una herramienta muy poderosa y u
til. Los comandos
disponibles en la shell conforman un verdadero lenguaje de programacion en s, y los scripts
pueden dise
narse para realizar tareas monotonas y complejas. Este es un tema que le sera u
til
profundizar.

8.6.

Ayuda y documentaci
on.

Para obtener ayuda sobre comandos de unix, se puede emplear la ayuda on-line, en la
forma de paginas de manual. As man comando proporciona la ayuda sobre el comando deseado. Por ejemplo, para leer el manual de los shells, puedes entrar: man sh csh tcsh bash
la orden formatea las paginas y te permite leer los manuales en el orden pedido. En el caso
de bash se puede usar el comando help, por ejemplo, help alias. Ademas, para muchos
comandos y programas se puede obtener informacion tipeando info comando. Finalmente, algunos comandos tienen una opcion de ayuda (--help), para recordar rapidamente las
opciones mas comunes disponibles (ls --help).

8.7.

Procesos.

En una maquina existen una multitud de procesos que pueden estar ejecutandose simultaneamente. La mayora de ellos no corresponden a ninguna accion realizada por el usuario y no merecen que se les preste mayor atencion. Estos procesos corresponden a programas
ejecutados en el arranque del sistema y tienen que ver con el funcionamiento global del
servidor. En general, los programas suelen tener uno de estos dos modos de ejecucion:

8.7. PROCESOS.

265

foreground: Son aquellos procesos que requieren de la interaccion y/o atencion del
usuario mientras se estan ejecutando, o bien en una de sus fases de ejecucion (i.e.
introduccion de datos). As por ejemplo, la consulta de una pagina de manual es un
proceso que debe ejecutarse claramente en foreground.
background: Son aquellos procesos que no requieren de la interaccion con el usuario
para su ejecucion. Si bien el usuario deseara estar informado cuando este proceso
termine. Un ejemplo de este caso sera la impresion de un archivo.
Sin embargo, esta division que a primera vista pueda parecer tan clara y concisa, a menudo
en la practica aparece la necesidad de conmutar de un modo al otro, detencion de tareas
indeseadas, etc. As por ejemplo, puede darse el caso de que estemos leyendo una pagina de
manual y de repente necesitemos ejecutar otra tarea. Un proceso viene caracterizado por:
process number
job number
Veamos algunas de las ordenes mas frecuentes para la manipulacion de procesos:
comando & Ejecucion de un comando en el background.

33

Ctrl-Z Detiene el proceso que estuviera ejecutandose en el foreground y lo coloca


detenido en el background.
Ctrl-C Termina un proceso que estaba ejecutandose en foreground.
Ctrl-\ Termina de forma definitiva un proceso que estaba ejecutandose en foreground.
ps x Lista todos los procesos que pertenezcan al usuario, incluyendo los que no estan
asociados a un terminal.
jobs Lista los procesos que se hayan ejecutado desde el shell actual, mostrando el job
number.
fg (job number) Pasa a ejecucion en foreground un proceso que se hallase en background.
bg (job number) Pasa a ejecucion en background un proceso que se hallase detenido
con Ctrl-Z.
kill (process number) Enva una se
nal34 a un proceso unix. En particular para
enviar la se
nal de termino a un programa, damos el comando kill -KILL, pero no
hace falta al ser la se
nal por defecto.
Cuando se intenta abandonar una sesion con alg
un proceso a
un detenido en el background
del shell, se informa de ello con un mensaje del tipo: There are stopped jobs si no importa,
el usuario puede intentar abandonar de nuevo el shell y este matara los jobs, o puedes utilizar
fg para traerlos al foreground y ah terminar el mismo.
33
34

Por omision un comando se ejecuta siempre en el foreground.


Para ver las se
nales disponibles entra la orden kill -l (l por list).

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

266

8.8.

Editores.

Un editor es un programa que permite crear y/o modificar un archivo. Existen multitud
de editores diferentes, y al igual que ocurre con los shells, cada usuario tiene alguno de su
predileccion. Mencionaremos algunos de los mas conocidos:
vi - El editor standard de unix.
emacs (xemacs) - Editor muy configurable escrito en lenguaje Lisp. Existen multitud
de modos para este editor (lector de mail, news, www,. . . ) que lo convierten en un
verdadero shell para multitud de usuarios. Las u
ltimas versiones del mismo permiten
la ejecucion desde X-windows o terminal indistintamente con el mismo binario. Posee
un tutorial en lnea, comando C-H t dentro del editor. El archivo de configuracion
personalizada es: $HOME/.emacs.
jove - Basado en Emacs, (Jonathans Own Version of Emacs). Posee tutorial en una utilidad asociada: teachjove. El archivo de configuracion personalizada es: $HOME/.joverc.
jed - Editor configurable escrito en S-Lang. Permite la emulacion de editores como
emacs y Wordstar. Posee una ayuda en lnea C-H C-H. El archivo de configuracion
personalizada es: $HOME/.jedrc.
gedit - Editor por defecto de gnome.
xjed - Version de jed para el X-windows system. Presenta como ventaja que es capaz
de funcionar en muchos modos: lenguaje C, Fortran, TeX, etc, reconociendo palabras
clave y signos de puntuacion, empleando un colorido distinto para ellos. El archivo de
configuracion personalizada es el mismo que el de de jed.
Dado que los editor del tipo de gedit disponen de men
us auto explicativos, daremos a
continuacion unas ligeras nociones solo de vi y emacs.

8.8.1.

El editor vi.

El vi es un editor de texto muy poderoso pero un poco difcil de usar. Lo importante


de este editor es que se puede encontrar en cualquier sistema unix y solo hay unas pocas
diferencias entre un sistema y otro. Explicaremos lo basico solamente. Comencemos con el
comando para invocarlo:
localhost:/# vi

~
~
~
/tmp/vi.9Xdrxi: new file: line 1

8.8. EDITORES.

267

La sintaxis para editar un archivo es:


localhost:/# vi nombre.de.archivo
~
~
~
nombre.de.archivo: new file: line 1

Insertar y borrar texto en vi.


Cuando se inicia el vi, editando un archivo, o no, se entra en un modo de ordenes, es decir,
que no se puede empezar a escribir directamente. Si se quiere entrar en modo de insercion
de texto se debe presionar la tecla i. Entrando en el modo de insercion, se puede empezar
a escribir. Para salir del modo de insercion de texto y volver al modo de ordenes se aprieta
ESC.
Aqui ya estamos escribiendo porque apretamos
la tecla i al estar en modo ordenes.
~
~

La tecla a en el modo de ordenes tambien entra en modo de insercion de texto, pero en


vez de comenzar a escribir en la posicion del cursor, empieza un espacio despues.
La tecla o en el modo de ordenes inserta texto pero desde la lnea que sigue a la lnea
donde se esta ubicado.
Para borrar texto, hay que salir al modo ordenes, y presionar la tecla x que borrara el
texto que se encuentre sobre el cursor. Si se quiere borrar las lneas enteras, entonces se debe
presionar dos veces la tecla d sobre la lnea que deseo eliminar. Si se presionan las teclas dw
se borra la palabra sobre la que se esta ubicado.
La letra R sobre una palabra se puede escribir encima de ella. Esto es una especie de modo
de insercion de texto pero solo se podra modificar la palabra sobre la que se esta situado. La
tecla ~ cambia de may
uscula a min
uscula la letra sobre la que se esta situado.
Moverse dentro de vi.
Estando en modo ordenes podemos movernos por el archivo que se esta editando usando
las flechas hacia la izquierda, derecha, abajo o arriba. Con la tecla 0 nos movemos al comienzo
de la lnea y con la tecla $ nos movemos al final de la misma.
Con las teclas w y b nos movemos al comienzo de la siguiente palabra o al de la palabra
anterior respectivamente. Para moverme hacia la pantalla siguiente la combinacion de teclas
CTRL F y para volver a la pantalla anterior CTRL B. Para ir hasta el principio del archivo se
presiona la tecla G.

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

268

Opciones de comandos.
Para entrar al men
u de comandos se debe presionar la tecla : en el modo de ordenes.
Apareceran los dos puntos (:). Aqu se pueden ingresar ordenes para guardar, salir, cambiar
de archivo entre otras cosas. Veamos algunos ejemplos:
:w Guardar los cambios.
:w otherfile.txt Guardar con el nuevo nombre otherfile.txt
:wq Guardar los cambios y salir.
:q! Salir del archivo sin guardar los cambios.
:e file1.txt Si deseo editar otro archivo al que se le pondra por nombre file1.txt.
:r file.txt Si se quiere insertar un archivo que ya existente, por ejemplo file.txt.
:r! comando Si se quiere ejecutar alg
un comando del shell y que su salida aparezca en
el archivo que se esta editando.

8.8.2.

Editores modo emacs.

El editor GNU Emacs, escrito por Richard Stallman de la Free Software Foundation, es
uno de los que tienen mayor aceptacion entre los usuarios de unix, estando disponible bajo
licencia GNU GPL35 para una gran cantidad de arquitecturas. Tambien existe otra version
de emacs llamada XEmacs totalmente compatible con la anterior pero presentando mejoras
significativas respecto al GNU Emacs. Dentro de los inconvenientes que presenta es que no
viene por defecto incluido en la mayora de los sistemas unix. Las actuales distribuciones
de Linux y en particular Debian GNU/Linux contienen ambas versiones de emacs, tanto
GNU Emacs como XEmacs, como tambien versiones de jove, jed, xjed y muchos otros editores.
Los editores tipo emacs se parecen mucho y en su mayora sus comandos son los mismos.
Para ejemplificar este tipo de editores nos centraremos en XEmacs, pero los comandos y
descripciones se aplican casi por igual a todos ellos. Los editores tipo emacs constan de tres
zonas:
La zona de edicion: donde aparece el texto que esta siendo editado y que ocupa la
mayor parte de la pantalla.
La zona de informacion: es una barra que esta situada en la pen
ultima lnea de la
pantalla.
La zona de introduccion de datos: es la u
ltima lnea de la pantalla.
35

La licencia de GNU, da el permiso de libre uso de los programas con su fuentes, pero los autores mantienen
el Copyright y no es permitido distribuir los binarios sin acceso a sus fuentes, los programas derivados de
dichos fuentes heredan la licencia GNU.

8.8. EDITORES.

269

Emacs es un editor que permite la edicion visual de un archivo (en contraste con el modo
de edicion de vi). El texto se agrega o modifica en la zona de edicion, usando las teclas
disponibles en el teclado.
Ademas, existen una serie de comandos disponibles para asistir en esta tarea.
La mayora de los comandos de emacs se realizan empleando la tecla de CONTROL o la
tecla META36 . Emplearemos la nomenclatura: C-key para indicar que la tecla key debe de
ser pulsada junto con CONTROL y M-key para indicar que la tecla META debe de ser pulsada
junto a key. En este u
ltimo caso NO es necesario pulsar simultaneamente las teclas ESC y
key, pudiendo pulsarse secuencialmente ESC y luego key, sin embargo, si se usa ALT como
META deben ser pulsadas simultaneamente. Observemos que en un teclado normal hay unos
50 caracteres (letras y n
umeros). Usando SHIFT se agregan otros 50. As, usando CONTROL
y META, hay unos 50 4 = 200 comandos disponibles. Ademas, existen comandos especiales
llamados prefijos, que modifican el comando siguiente. Por ejemplo, C-x es un prefijo, y si C-s
es un comando (de b
usqueda en este caso), C-x C-s es otro (grabar archivo). As, a traves
de un prefijo, se duplican el n
umero de comandos disponibles solo con el teclado, hasta llegar
a unos 200 2 = 400 comandos en total.
Aparte de estos comandos accesibles por teclas, algunos de los cuales comentaremos a
continuacion, existen comandos que es posible ejecutar por nombre, haciendo as el n
umero
de comandos disponibles virtualmente infinito.
Revisemos los comandos mas usuales, ordenados por topico.
Abortar y deshacer
En cualquier momento, es posible abortar la operacion en curso, o deshacer un comando
indeseado:
C-g
C-x u

abortar
deshacer

Archivos
C-x
C-x
C-x
C-x
C-x

C-f
i
C-s
C-w
C-c

cargar archivo
insertar archivo
grabar archivo
grabar con nombre
salir

Ventanas
Emacs permite dividir la pantalla en varias ventanas. En cada ventana se puede editar
texto e ingresar comandos independientemente. Esto es u
til en dos situaciones: a) si necesitamos editar un solo archivo, pero necesitamos ver su contenido en dos posiciones distintas
36

Dado que la mayora de los teclados actuales no poseen la tecla META se emplea ya sea ESC o ALT.

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

270

(por ejemplo, el comienzo y el final de archivos muy grandes); y b) si necesitamos editar o ver
varios archivos simultaneamente. Naturalmente, aunque son independientes, solo es posible
editar un archivo a la vez. A la ventana en la cual se encuentra el cursor en un momento
dado le llamamos la ventana actual.
C-x
C-x
C-x
C-x
C-x

2
3
1
0
o

dividir ventana actual en 2 partes, con lnea horizontal


dividir ventana actual en 2 partes, con lnea vertical
solo 1 ventana (la ventana actual, eliminando las otras)
elimina solo la ventana actual
cambia el cursor a la siguiente ventana

El cambio del cursor a una ventana cualquiera se puede hacer tambien rapidamente a
traves del mouse.
Comandos de movimiento
Algunos de estos comandos tienen dos teclas asociadas, como se indica a continuacion.
C-b o
C-p o
C-a o Home
M-< o C-Home
M-f o M-
C-v o Page Up
M-g (n
umero)

izquierda un caracter
arriba una lnea
principio de la lnea
principio del documento
avanza una palabra
avanza una pagina
salta a la lnea (n
umero)

C-f o
C-n o
C-e o End
M-> o C-End
M-b o M-
M-v o Page Down
C-l

derecha un caracter
abajo una lnea
fin de la lnea
fin del documento
retrocede una palabra
retrocede una pagina
refresca la pantalla

Comandos de inserci
on y borrado
Al ser un editor en modo visual, las modificaciones se pueden hacer en el texto sin necesidad de entrar en ning
un modo especial.
C-d o Delete
Backspace
C-k

borra un caracter despues del cursor


borra un caracter antes del cursor
borra desde la posicion del cursor hasta el fin de lnea
(no incluye el cambio de lnea)
M-d
borra desde el cursor hacia adelante, hasta que termina una palabra
M-Backspace borra desde el cursor hacia atras, hasta que comienza una palabra
C-o
Inserta una lnea en la posicion del cursor
May
usculas y min
usculas
M-u
M-l
M-c

Cambia a may
uscula desde la posicion del cursor hasta el fin de la palabra
Cambia a min
uscula desde la posicion del cursor hasta el fin de la palabra
Cambia a may
uscula el caracter en la posicion del cursor y
a min
uscula hasta el fin de la palabra

8.8. EDITORES.

271

Por ejemplo, veamos el efecto de cada uno de estos comandos sobre la palabra EmAcS, si
el cursor esta sobre la letra E (el efecto es distinto si esta sobre cualquier otra letra!):
M-u : EmAcS EMACS
M-l : EmAcS emacs
M-c : EmAcS Emacs
Transposici
on
Los siguientes comandos toman como referencia la posicion actual del cursor. Por ejemplo,
C-t intercambia el caracter justo antes del cursor con el caracter justo despues.

C-t
Transpone dos caracteres
M-t
Transpone dos palabras
C-x C-t Transpone dos lneas
B
usqueda y reemplazo

C-s
C-r
M- %
M-&

B
usqueda
B
usqueda
B
usqueda
B
usqueda

hacia el fin del texto


hacia el inicio del texto
y sustitucion (pide confirmacion cada vez)
y sustitucion (sin confirmacion)

Definici
on de regiones y reemplazo
Uno de los conceptos importantes en emacs es el de region. Para ello, necesitamos dos
conceptos auxiliares: el punto y la marca. El punto es simplemente el cursor. Especficamente,
es el punto donde comienza el cursor. As, si el cursor se encuentra sobre la letra c en emacs,
el punto esta entre la a y la c. La marca, por su parte, es una se
nal que se coloca en alg
un
punto del archivo con los comandos apropiados. La regi
on es el espacio comprendido entre el
punto y la marca.
Para colocar una marca basta ubicar el cursor en el lugar deseado, y teclear C-Space o
C-@. Esto coloca la marca donde esta el punto (en el ejemplo del parrafo anterior, quedara
entre las letras a y c. Una vez colocada la marca, podemos mover el cursor a cualquier otro
lugar del archivo (hacia atras o hacia adelante respecto a la marca). Esto define una cierta
ubicacion para el punto, y, por tanto, queda definida la region automaticamente.
La region es una porcion del archivo que se puede manipular como un todo. Una region se
puede borrar, copiar, pegar en otro punto del archivo o incluso en otro archivo; una region se
puede imprimir, grabar como un archivo distinto; etc. As, muchas operaciones importantes
se pueden efectuar sobre un bloque del archivo.
Por ejemplo, si queremos duplicar una region, basta con definir la region deseada (poniendo la marca y el punto donde corresponda) y teclear M-w. Esto copia la region a un buffer
temporal (llamado kill buffer). Luego movemos el cursor al lugar donde queremos insertar el
texto duplicado, y hacemos C-y. Este comando toma el contenido del kill buffer y lo inserta
en el archivo. El resultado final es que hemos duplicado una cierta porcion del texto.

272

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

Si la intencion era mover dicha porcion, el procedimiento es el mismo, pero con el comando
C-w en vez de M-w. C-w tambien copia la region a un kill buffer, pero borra el texto de la
pantalla.
Resumiendo:

C-Space o C-@ Comienzo de region


M-w
Copia region
C-w
Corta region
C-y
Pega region
El concepto de kill buffer es mucho mas poderoso que lo explicado recien. En realidad,
muchos comandos, no solo M-w y C-w, copian texto en un kill buffer. En general, cualquier
comando que borre mas de un caracter a la vez, lo hace. Por ejemplo, C-k borra una lnea.
Lo que hace no es solo borrarla, sino ademas copiarla en un kill buffer. Lo mismo ocurre
con los comandos que borran palabras completas (M-d, M-Backspace), y muchos otros. Lo
interesante es que C-y funciona tambien en todos esos casos: C-y lo u
nico que hace es tomar
el u
ltimo texto colocado en un kill buffer (resultado de la u
ltima operacion que borro mas de
un caracter a la vez), y lo coloca en el archivo. Por lo tanto, no solo podemos copiar o mover
regiones, sino tambien palabras o lneas. Mas a
un, el kill buffer no es borrado con el C-y,
as que ese mismo texto puede ser duplicado muchas veces. Continuara disponible con C-y
mientras no se ponga un nuevo texto en el kill buffer.
Ademas, emacs dispone no de uno sino de muchos kill buffers. Esto permite recuperar
texto borrado hace mucho rato. En efecto, cada vez que se borra mas de un caracter de una
vez, se una un nuevo kill buffer. Por ejemplo, consideremos el texto:
La primera linea del texto,
la segunda linea,
y finalmente la tercera.
Si en este parrafo borramos la primera lnea (con C-k), despues borramos la primera
palabra de la segunda (con M-d, por ejemplo), y luego la segunda palabra de la u
ltima,
entonces habra tres kill buffers ocupados:
buffer 1 : La primera linea del texto,
buffer 2 : la
buffer 3 : finalmente
Al colocar el cursor despues del punto final, C-y toma el contenido del u
ltimo kill buffer
y lo coloca en el texto:

segunda linea,
y la tercera. finalmente
Si se teclea ahora M-y, el u
ltimo texto recuperado, finalmente, es reemplazado por el
pen
ultimo texto borrado, y que esta en el kill buffer anterior:

8.8. EDITORES.

273

segunda linea,
y la tercera. la
Ademas, la posicion de los kill buffers se rota:
buffer 1 : finalmente
buffer 2 : La primera linea del texto,
buffer 3 : la
Sucesivas aplicaciones de M-y despues de un C-y rotan sobre todos los kill buffers (que
pueden ser muchos). El editor, as, conserva un conjunto de las u
ltimas zonas borradas durante
la edicion, pudiendo recuperarse una antigua a pesar de haber seleccionado una nueva zona,
o borrado una nueva palabra o lnea. Toda la informacion en los kill buffers se pierde al salir
de emacs (C-c).
Resumimos entonces los comandos para manejo de los kill buffers:

C-y Copia el contenido del u


ltimo kill buffer ocupado
M-y Rota los kill buffers ocupados
Definici
on de macros
La clave de la configurabilidad de emacs esta en la posibilidad de definir nuevos comandos
que modifiquen su comportamiento o agreguen nuevas funciones de acuerdo a nuestras necesidades. Un modo de hacerlo es a traves del archivo de configuracion $HOME/.emacs, para lo
cual se sugiere leer la documentacion disponible en la distribucion instalada. Sin embargo, si
solo necesitamos un nuevo comando en la sesion de trabajo actual, un modo mas simple es
definir una macro, un conjunto de ordenes que son ejecutados como un solo comando. Los
comandos relevantes son:
C-x (
C-x )
C-x e

Comienza la definicion de una macro


Termina la definicion de una macro
Ejecuta una macro definida

Todas las sucesiones de teclas y comandos dados entre C-x ( y C-x ) son recordados por
emacs, y despues pueden ser ejecutados de una vez con C-x e.
Como ejemplo, consideremos el siguiente texto, con los cinco primeros lugares del ranking
ATP (sistema de entrada) al 26 de marzo de 2002:
1
2
3
4
5

hewitt, lleyton (Aus)


kuerten, gustavo (Bra)
ferrero, juan (Esp)
kafelnikov, yevgeny (Rus)
haas, tommy (Ger)

274

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

Supongamos que queremos: (a) poner los nombres y apellidos con may
uscula (como debera ser); (b) poner las siglas de pases solo en may
usculas.
Para definir una macro, colocamos el cursor al comienzo de la primera lnea, en el 1,
y damos C-x (. Ahora realizamos todos los comandos necesarios para hacer las tres tareas
solicitadas para el primer jugador solamente: M-f (avanza una palabra, hasta el espacio antes
de hewitt; M-c M-c (cambia a Hewitt, Lleyton); M-u (cambia a AUS); Home (vuelve el
cursor al comienzo de la lnea); (coloca el cursor al comienzo de la lnea siguiente, en el 2).
Los dos u
ltimos pasos son importantes, porque dejan el cursor en la posicion correcta para
ejecutar el comando nuevamente. Ahora terminamos la definicion con C-x ). Listo. Si ahora
ejecutamos la macro, con C-x e, veremos que la segunda lnea queda modificada igual que
la primera, y as podemos continuar hasta el final:
1
2
3
4
5

Hewitt, Lleyton (AUS)


Kuerten, Gustavo (BRA)
Ferrero, Juan (ESP)
Kafelnikov, Yevgeny (RUS)
Haas, Tommy (GER)

Comandos por nombre


Aparte de los ya comentados existen muchas otras ordenes que no tienen necesariamente
una tecla asociada (bindkey) asociada. Para su ejecucion debe de teclearse previamente:
M-x
y a continuacion en la zona inferior de la pantalla se introduce el comando deseado. Empleando el TAB se puede completar dicho comando (igual que en bash).
De hecho, esto sirve para cualquier comando, incluso si tiene tecla asociada. Por ejemplo,
ya sabemos M-g n va a la lnea n del documento. Pero esto no es sino el comando goto-line,
y se puede tambien ejecutar tecleando: M-x goto-line n.
Repetici
on
Todos los comandos de emacs, tanto los que tienen una tecla asociada como los que se
ejecutan con nombre, se pueden ejecutar mas de una vez, anteponiendoles un argumento
numerico con
M-(number)
Por ejemplo, si deseamos escribir 20 letras e, basta teclear M-20 e. Esto es particularmente
u
til con las macros definidos por el usuario. En el ejemplo anterior, con el ranking ATP,
despues de definir la macro quedamos en la lnea 2, y en vez de ejecutar C-x e 4 veces,
podemos teclear M-4 C-x e, con el mismo resultado, pero en mucho menos tiempo.
Para terminar la discusion de este editor, diremos que es conveniente conocer las secuencias
de control basico de emacs:
C-a, C-e, C-k, C-y, C-w, C-t, C-d, etc.,
porque funcionan para editar la lnea de comandos en el shell, como tambien en muchos
programas de texto y en ventanas de dialogo de las aplicaciones X Windows. A su vez, los
editores jed, xjed, jove tambien usan por defecto estas combinaciones.

8.9. EL SISTEMA X WINDOWS.

8.9.

275

El sistema X Windows.

El X Windows system es el sistema estandar de ventanas en las estaciones de trabajo.


Es corriente que el sistema de ventanas sea arrancando automaticamente cuando la maquina
parte. En caso contrario, la orden para arrancarlo es startx. En el sistema X Windows deben
distinguirse dos conceptos:
server : Es un programa que se encarga de escribir en el dispositivo de vdeo y de capturar las entradas (por teclado, raton, etc). Asimismo se encarga de mantener los recursos
y preferencias de las aplicaciones. Solo puede existir un server para cada pantalla.
client : Es cualquier aplicacion que se ejecute en el sistema X Windows. No hay lmite
(en principio) en el n
umero de clientes que pueden estarse ejecutando simultaneamente.
Los clientes pueden ser locales o remotos.
.
Window Manager (WM) Es un cliente con privilegios especiales: controla el comportamiento (forma, tama
no,. . . ) del resto de clientes. Existen varios, destacando:
fvwm : F* Virtual Window Manager, el instalado por defecto.
icewm : Ice Window Manager, uno de los window managers gnome compatible.
sawfish : Window managers gnome compatible, altamente configurable y muy integrado al gnome desktop.
Metacity : Window managers gnome 2 compatible.
El look and feel (o GUI) de X Windows es extremadamente configurable, y puede parecer
que dos maquinas son muy distintas, pero esto se debe al WM que se este usando y no a que
las aplicaciones sean distintas.
Para configurar tu sesion es necesario saber que programas estas usando y ver las paginas
de manual. Los archivos principales son:
.xinitrc o .xsession archivo ledo al arrancar X Windows. Aqu se pueden definir
los programas que aparecen al inicio de tu sesion.
.fvwmrc archivo de configuracion del fvwm. Ver las paginas del manual de fvwm.
.olwmrc archivo de configuracion del olwm. Ver las paginas del manual de olwm.
.Xdefaults Configuracion general de las aplicaciones de X Windows. Aqu puedes
definir los resources que encontraras en los manuales de las aplicaciones de X.
En caso de que tengas que correr una aplicacion de X que no este disponible en la maquina
que estas usando, eso no representa ning
un problema. Las ordenes necesarias son (por ejemplo,
para arrancar un gnome-terminal remoto):

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

276

userA@hostname1:~$ xhost +hostname2


hostname2 being added to access control list
user@hostname1:~$ ssh userB@hostname2
userB@hostname2s password:
userB@hostname2:~$ export DISPLAY=hostname1:0
userB@hostname2:~$ gnome-terminal &
Si todo esta previamente configurado, es posible que no haga falta dar el password.
Cuando quieres salir, normalmente puedes encontrar un icono con la opcion Log out, en
un men
u o panel de la pantalla.

8.10.

Uso del rat


on.

El raton es un dispositivo esencial en el uso de programas X, sin embargo, la funcion que


realiza en cada uno de ellos no esta normalizada.
Comentaremos la pauta seguida por la mayora de las aplicaciones, pero debe tenerse
presente que es muy frecuente encontrar aplicaciones que no las respetan.37
Bot
on izquierdo (LB): Seleccionar. Comienza el bloque de seleccion.
Bot
on central (MB): Pegar. Copia la seleccion en la posicion del cursor.
Bot
on derecho (RB): Habitualmente ofrece un men
u para partir aplicaciones.
Existen dos modos para determinar cual es la ventana activa, aquella que recibe las
entradas de teclado:
Focus Follows Mouse: La ventana que contenga al raton es la que es activa. No usado
por defecto actualmente.
Click To Focus: La ventana seleccionada es la activa. El modo que este activo depende
de la configuracion del Window Manager.

8.11.

Internet.

En esta seccion denominaremos unix1 a la maquina local (desde donde ejecutamos la


orden) y unix2 a la maquina remota (con la que interaccionamos). Ambos son los hostnames
de las respectivas maquinas. Existen algunos conceptos que previamente debemos comentar:
IP-number: es un conjunto de 4 n
umeros separados por puntos (p.e. 146.83.57.34) que
se asocia a cada maquina. No puede haber dos maquinas conectadas en la misma red
con el mismo n
umero.
37

Las aplicaciones que son conscientes de un uso anormal y estan realizadas por programadores inteligentes,
muestran en pantalla la funci
on de cada bot
on cuando son posibles varias alternativas.

8.11. INTERNET.

277

hostname: es el nombre que tiene asociada la maquina (p.e. macul). A este nombre se
le suelen a
nadir una serie de sufijos separados por puntos que constituye el denominado
dominio (p.e. macul.ciencias.uchile.cl). Una maquina por tanto puede tener mas
de un nombre reconocido (se habla en este caso de alias). Se denomina resolucion
a la identificacion entre un hostname y el IP-number correspondiente. La consulta
se realiza inicialmente en el archivo /etc/hosts, donde normalmente se guardan las
identificaciones de las maquinas mas com
unmente empleadas. En caso de que no se
logre se accede al servicio DNS (Domain Name Service), que permite la identificacion
(resolucion) entre un hostname y un IP-number.
mail-address: es el nombre que se emplea para enviar correo electronico. Este nombre
puede coincidir con el nombre de una maquina, pero se suele definir como un alias, con
objeto de que la direccion no deba de cambiarse si la maquina se estropea o se cambia
por otra.

8.11.1.

Acceso a la red.

Existen muchos programas para la conexion de la red, los mas usados son:
telnet unix2, hace un login en la maquina unix2, debe ingresarse el usuario y su
respectiva passwd. Ademas, permite especificar el puerto en conexion en la maquina
remota.
ssh nombre@unix2, muy similar a telnet pero se puede especificar el usuario, si no
se especifica se usa el nombre de la cuenta local. Ademas, el passwd pasa encriptado
a traves de la red. ssh nombre@unix2 comando, muy similar a rsh, el passwd pasa
encriptado y ejecuta el comando en la maquina remota, mostrando el resultado en la
maquina local.
scp file1 usuario2@unix2:path/file, copia el archivo file1, del usuario1, que se
encuentra en el directorio local en la maquina unix1 en la cuenta del usuario2 en la
maquina unix2 en $HOME/path/file. Si no se especifica el nombre del usuario se usa el
nombre de la cuenta local. Si se quiere copiar el archivo file2 del usuario3 en unix2
en la cuenta actual de unix1 el comando sera: scp usuario3@unix2:file2 .. Antes
de realizar cualquiera de las copias el sistema preguntara por el passwd del usuario en
cuestion en la maquina unix2. Nuevamente, el passwd pasa encriptada a traves de la
red.
talk usuario1@unix2, intenta hacer una conexion para hablar con el usuario1 en la
maquina unix2. Existen varias versiones de talk en los diferentes sistemas operativos,
de forma que no siempre es posible establecer una comunicacion entre maquinas con
sistemas operativos diferentes.
ftp unix2, (file transfer protocol) aplicacion para copiar archivos entre maquinas de
una red. ftp exige un nombre de cuenta y password para la maquina remota. Algunas
de las opciones mas empleadas (una vez establecida la conexion) son:

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

278

bin: Establece el modo de comunicacion binario. Es decir, transfiere una imagen


exacta del archivo.
asc: Establece el modo de comunicacion ascii. Realiza las conversiones necesarias
entre las dos maquinas en comunicacion. Es el modo por defecto.
cd: Cambia directorio en la maquina remota.
lcd: Cambia directorio en la maquina local.
ls: Lista el directorio remoto.
!ls: Lista el directorio local.
prompt : No pide confirmacion para transferencia m
ultiple de archivos.
get rfile [lfile]: transfiere el archivo rfile de la maquina remota a la maquina local denominandolo lfile. En caso de no suministrarse el segundo argumento
supone igual nombre en ambas maquinas.
put lfile [rfile] : transfiere el archivo lfile de la maquina local a la maquina
remota denominandolo rfile. En caso de no suministrarse el segundo argumento
supone igual nombre en ambas maquinas. Tambien puede usarse send.
mget rfile : igual que get, pero con mas de un archivo (rfile puede contener
caracteres comodines).
mput lfile : igual que put, pero con mas de un archivo (lfile puede contener
caracteres comodines).
Existen versiones mejoradas de ftp con muchas mas posibilidades, por ejemplo, ncftp.
Tambien existen versiones graficas de clientes ftp donde la eleccion de archivo, el sentido
de la transferencia y el modo de esta, se elige con el mouse (p.e. wxftp).
rlogin -l nombre unix2, (remote login), hace un login a la maquina unix2 como el
usuario nombre por defecto, sin los argumentos -l nombre rlogin usa el nombre de la
cuenta local. Normalmente rlogin pide el password de la cuenta remota, pero con el
uso del archivo .rhosts o /etc/hosts.equiv esto no es siempre necesario.
rsh -l nombre unix2 orden, (remote shell ), ejecuta la orden en la maquina unix2
como usuario nombre. Es necesario que pueda entrar en la maquina remota sin password
para ejecutar una orden remota. Sin especificar orden act
ua como rlogin.

8.11.2.

El correo electr
onico.

El correo electronico (e-mail) es un servicio para el envo de mensajes entre usuarios,


tanto de la misma maquina como de diferentes maquinas.
Direcciones de correo electr
onico.
Para mandar un e-mail es necesario conocer la direccion del destinatario. Esta direccion
consta de dos campos que se combinan intercalando entre ellos el @ (at): user@domain

8.11. INTERNET.

279

user : es la identificacion del usuario (i.e. login) en la maquina remota.


domain : es la maquina donde recibe correo el destinatario. A menudo, es frecuente
que si una persona tiene acceso a un conjunto de maquinas, su direccion de correo no
corresponda con una maquina sino que corresponda a un alias que se resolvera en un
nombre especfico de maquina en forma oculta para el que enva.
Si el usuario es local no es necesario colocar el campo domain (ni tampoco el @).
Nomenclatura.
Veamos algunos conceptos relacionados con el correo electronico:
Subject : Es una parte de un mensaje que piden los programas al comienzo y sirve
como ttulo para el mensaje.
Cc (Carbon Copy) : Permite el envo de copias del mensaje que esta siendo editado a
terceras personas.
Reply : Cuando se enva un mensaje en respuesta a otro se suele a
nadir el comienzo
del subject: Re:, con objeto de orientar al destinatario sobre el tema que se responde.
Es frecuente que se incluya el mensaje al que se responde para facilitar al destinatario
la comprension de la respuesta.
Forward : Permite el envo de un mensaje (con modificaciones o sin ellas) a una tercera
persona.
Forwarding Mail : Permite a un usuario que disponga de cuentas en varias maquinas
no relacionadas, de concentrar su correo en una cuenta u
nica38 . Para ello basta con
tener un archivo $HOME/.forward que contenga la direccion donde desea centralizar su
correo.
Mail group : Un grupo de correo es un conjunto de usuarios que reciben el correo
dirigido a su grupo. Existen ordenes para responder a un determinado correo recibido
por esa va de forma que el resto del grupo sepa lo que ha respondido un miembro del
mismo.
In-Box : Es el archivo donde se almacena el correo que todava no ha sido ledo por el
usuario. Suele estar localizado en /var/spool/mail/user.
Mailer-Daemon : Cuando existe un problema en la transmision de un mensaje se
recibe un mensaje proveniente del Mailer-Daemon que indica el problema que se ha
presentado.
38

Este comando debe usarse con conocimiento pues en caso contrario podra provocar un loop indefinido y
no recibir nunca correo.

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

280
Aplicaci
on mail.

Es posiblemente la aplicacion mas simple. Para la lectura de mail teclear simplemente:


mail y a continuacion aparece un ndice con los diferentes mensajes recibidos. Cada mensaje
tiene una lnea de identificacion con n
umero. Para leer un mensaje basta teclear su n
umero y a
continuacion return. Para enviar un mensaje: mail (address) se pregunta por el Subject:
y a continuacion se introduce el mensaje. Para acabar se teclea solo un punto en una lnea
o bien Ctr-D. Por u
ltimo, se pregunta por Cc:. Es posible personalizar el funcionamiento
mediante el archivo $HOME/.mailrc. Para enviar un archivo de texto a traves del correo se
suele emplear la redireccion de entrada: mail (address) < file.

8.11.3.

Ftp anonymous.

Existen servidores que permiten el acceso por ftp a usuarios que no disponen de cuenta
en dichas maquinas. Para ello se emplea como login de entrada el usuario anonymous y como
passwd la direccion de e-mail personal. Existen servidores que no aceptan conexiones desde
maquinas que no estan declaradas correctamente en el servicio de nombre (dns), as como
algunas que no permiten la entrada a usuarios que no se identifican correctamente. Dada la
sobrecarga que existe, muchos de los servidores tienen limitado el n
umero de usuarios que
pueden acceder simultaneamente.

8.11.4.

WWW.

WWW son las siglas de World-Wide Web. Este servicio permite el acceso a informacion
entrelazada (dispone de un texto donde un termino puede conducir a otro texto): hyperlinks.
Los archivos estan realizados en un lenguaje denominado html. Para acceder a este servicio
es necesario disponer de un lector de dicho lenguaje conocido como browser o navegador.
Destacan actualmente: Netscape, Mozilla, Opera y el simple pero muy rapido Lynx.

8.12.

Impresi
on.

Cuando se quiere obtener una copia impresa de un archivo se emplea el comando lpr.
lpr file - Enva el archivo file a la cola de impresion por defecto. Si la cola esta activada, la impresora lista y ning
un trabajo por encima del enviado, nuestro trabajo sera procesado
de forma automatica.
A menudo existen varias posibles impresoras a las que poder enviar los trabajos. Para
seleccionar una impresora en concreto (en vez de la por defecto) se emplea el modificador:
lpr -Pimpresora, siendo impresora el nombre logico asignado a esta otra impresora. Para
recibir una lista de las posibles impresoras de un sistema, as como su estado, se puede emplear el comando /usr/sbin/lpc status. La lista de impresoras y su configuracion tambien
esta disponible en el archivo /etc/printcap.
Otras ordenes para la manipulacion de la cola de impresion son:
lpq [-Pprinter], permite examinar el estado de una determinada cola (para ver la
cantidad de trabajos sin procesar de esta, por ejemplo).


8.13. COMPRESION.

281

lprm [-Pprinter] jobnumber, permite eliminar un trabajo de la cola de impresion.


Uno de los lenguajes de impresion grafica mas extendidos en la actualidad es PostScript.
La extension de los archivos PostScript empleada es .ps. Un archivo PostScript puede ser
visualizado e impreso mediante los programas: gv, gnome-gv o ghostview. Por ello muchas
de las impresoras actuales solo admiten la impresion en dicho formato.
En caso de desear imprimir un archivo ascii debera previamente realizarse la conversion
a PostScript empleando la orden a2ps: a2ps file.txt Esta orden enva a la impresora
el archivo ascii file.txt formateado a 2 paginas por hoja. Otro programa que permite
convertir un archivo ascii en postscript es enscript.
Otro tipo de archivos ampliamente difundido y que habitualmente se necesita imprimir
es el conocido como Portable Document Format. Este tipo de archivo posee una extension
.pdf y pueden ser visualizados e impresos usando aplicaciones tales como: acroread, gv o
xpdf.

8.13.

Compresi
on.

A menudo necesitamos comprimir un archivo para disminuir su tama


no, o bien crear un
respaldo (backup) de una determinada estructura de directorios. Se comentan a continuacion
una serie de comandos que permiten ejecutar dichas acciones:
El compresor compress esta relativamente fuera de uso, pero es la estandar de unix.
compress file : comprime el archivo, creando el archivo file.Z, destruye el archivo
original.
uncompress file.Z : descomprime el archivo, creando el archivo file, destruye el
archivo original.
zcat file.Z : muestra por el stdout el contenido descomprimido del archivo (sin
destruir el original).
Otra alternativa de compresor mucho mas usada es gzip el compresor de GNU que posee
una mayor razon de compresion que compress. Veamos los comandos:
gzip file : comprime el archivo, creando el archivo file.gz, destruye el archivo original.
gunzip file.gz : descomprime el archivo, creando el archivo file, destruye el archivo
original.
zless file.gz : muestra por el stdout el contenido descomprimido del archivo paginado por less.
La extension empleada en los archivos comprimidos con gzip suele ser .gz pero a veces
se usa .gzip. Adicionalmente el programa gunzip tambien puede descomprimir archivos
creados con compress.

282

CAPITULO 8. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

La opcion con mayor tasa de compresion que gzip es bzip2 y su descompresor bunzip2.
La extension usada en este caso es .bz2. El kernel de Linux se distribuye en formato bzip2.
Existen tambien versiones de los compresores compatibles con otros sistemas operativos:
zip, unzip, unarj, lha, rar y zoo.
En caso que se desee crear un archivo comprimido con una estructura de directorios debe
ejecutarse la orden:
tar cvzf nombre.tgz directorio
o bien
tar cvjf nombre.tbz directorio
En el primer caso comprime con gzip y en el segundo con bzip2. Para descomprimir y
restablecer la estructura de directorio almacenada se usan los comandos:
tar xvzf nombre.tgz directorio
si se realizo la compresion con gzip o bien
tar xvjf nombre.tbz directorio
si se realizo la compresion con bzip2.

Captulo 9
Una breve introducci
on a C++.
versi
on final 3.6-021212

En este captulo se intentara dar los elementos basicos del lenguaje de programacion
C++. No se pretende mas que satisfacer las mnimas necesidades del curso, sirviendo como
un ayuda de memoria de los topicos abordados, para futura referencia. Se debe consignar que
no se consideran todas las posibilidades del lenguaje y las explicaciones estan reducidas al
mnimo.

9.1.
9.1.1.

Estructura b
asica de un programa en C++.
El programa m
as simple.

El primer ejemplo de todo manual es el que permite escribir Hola en la pantalla.


//
// Los comentarios comienzan con //
//
#include <iostream>
int main()
{
cout << "Hola." << endl;
return 0 ;
}
Las tres primeras lneas corresponden a comentarios, todo lo que esta a la derecha de
los caracteres // son comentarios y no seran considerados en la compilacion. En la lnea
siguiente se incluye un archivo de cabecera, o header, con la instruccion de preprocesador
#include. El nombre del archivo se puede escribir como <nombre> o bien "nombre.h". En
el primer caso el archivo nombre sera buscado en el path por defecto para los include,
tpicamente /usr/include o /usr/include/g++-3/ en el caso de headers propios de C++;
en el segundo caso la b
usqueda se hace en el directorio local. Tambien podramos incluir
un path completo cuando se ocupan las comillas. En nuestro ejemplo se incluye el archivo
iostream, en el cual se hacen las definiciones adecuadas para el manejo de la entrada y salida
en C++. Este archivo es necesario para enviar luego un mensaje a pantalla.
La funcion int main es donde comienza a ejecutarse el programa; siempre debe haber una
funcion main en nuestro programa. Debido a imposiciones del sistema operativo la funcion
283

284

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

main devuelve un entero y por tanto debe ser declarada int. Los parentesis vacos () indican
que el main no tiene argumentos de entrada (mas adelante se vera que puede tenerlos). Lo
que esta encerrado entre llaves {} corresponde al cuerpo de la funcion main. Cada una de
las lneas termina con el caracter ;. El identificador predefinido cout representa la salida a
pantalla. El operador << permite que lo que esta a su derecha se le de salida por el dispositivo
que esta a su izquierda, en este caso cout. Si se quiere enviar mas de un objeto al dispositivo
que esta al inicio de la lnea agregamos otro operador <<, y en este caso lo que esta a la derecha
del operador se agregara a lo que esta a la izquierda y todo junto sera enviado al dispositivo.
En nuestro caso se ha enviado endl, un objeto predefinido en el archivo iostream.h que
corresponde a un cambio de lnea, el cual sera agregado al final del mensaje. La lnea final
contiene la instruccion de retorno del entero cero, return 0.
Si escribimos nuestro primer programa en el editor xemacs con el nombre de primero.cc
las instrucciones para editarlo, compilarlo y correrlo seran:
jrogan@pucon:~/tmp$ xemacs primero.cc
jrogan@pucon:~/tmp$ g++ -Wall -o primero primero.cc
jrogan@pucon:~/tmp$ ./primero
Hola.
jrogan@pucon:~/tmp$
Luego de la compilacion, un archivo ejecutable llamado primero es creado en el directorio actual. Si el directorio actual no esta en el PATH, nuestro programa debe ser ejecutado
anteponiendo ./. Si esta en el PATH, para ejecutarlo basta escribir primero. (Para agregar el directorio local al PATH basta editar el archivo ~/.bashrc agregarle una lnea como
PATH="${PATH}:." y ejecutar en la lnea de comando source ~/.bashrc para que los cambios tengan efecto.)

9.1.2.

Definici
on de funciones.

Las funciones en C++ son muy importantes, pues permiten aislar parte del codigo en
una entidad separada. Esto es un primer paso a la modularizaci
on de nuestro programa,
es decir, a la posibilidad de escribirlo en partes que puedan ser editadas de modo lo mas
independiente posible. Ello facilita enormemente la creacion de codigo complicado, pues simplifica su modificacion y la localizacion de errores. Nos encontraremos frecuentemente con
este concepto.
Aprovecharemos de introducir las funciones modificando el primer programa de manera
que se delegue la impresion del mensaje anterior a una funcion independiente:
//
// Segunda version incluye funcion adicional
//
#include <iostream>
void PrintHola()
{
cout << "Hola." << endl;


9.1. ESTRUCTURA BASICA
DE UN PROGRAMA EN C++.

285

}
int main()
{
PrintHola();
return 0;
}
La funcion debe estar definida antes de que sea ocupada, por eso va primero en el codigo
fuente. Como ya se dijo antes, la ejecucion del programa comienza en la funcion main a
pesar de que no esta primera en el codigo fuente. Los parentesis vacos indican que la funcion
PrintHola no tiene argumentos y la palabra delante del nombre de la funcion indica el tipo
de dato que devuelve. En nuestro caso la palabra void indica que no devuelve nada a la
funcion main.
Una alternativa al codigo anterior es la siguiente:
#include <iostream>
void PrintHola();
int main()
{
PrintHola();
return 0 ;
}
void PrintHola()
{
cout << "Hola." << endl;
}
En esta version se ha separado la declaraci
on de la funcion de su implementaci
on. En
la declaracion se establece el nombre de la funcion, los argumentos que recibe, y el tipo de
variable que entrega como resultado. En la implementacion se da explcitamente el codigo
que corresponde a la funcion. Habamos dicho que una funcion debe estar definida antes que
sea ocupada. En verdad, basta conque la funcion este declarada. La implementacion puede
ir despues (como en el ejemplo anterior), o incluso en un archivo distinto, como veremos mas
adelante. La separacion de declaracion e implementacion es otro paso hacia la modularizacion
de nuestro programa.

9.1.3.

Nombres de variables.

Nuestros datos en los programas seran almacenados en objetos llamados variables. Para
referirnos a ellas usamos un nombre que debe estar de acuerdo a las siguientes reglas:
Deben comenzar con una letra (may
usculas y min
usculas son distintas).

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

286

Pueden contener n
umeros, pero no comenzar por uno.
Pueden contener el smbolo _ (underscore).
Longitud arbitraria.
No pueden corresponder a una de las palabras reservadas de C++1 :
asm
auto
break
case
catch
char
class
const
continue
default

9.1.4.

delete
do
double
else
enum
extern
float
for
friend
goto

if
inline
int
long
new
operator
private
protected
public
register

return
short
signed
sizeof
static
struct
switch
template
this
throw

try
typedef
union
unsigned
virtual
void
volatile
while

Tipos de variables.

Todas las variables a usar deben ser declaradas de acuerdo a su tipo. Por ejemplo, si
usamos una variable i que sea un n
umero entero, debemos, antes de usarla, declararla, y solo
entonces podemos asignarle un valor:
int i;
i=10;
Esta necesidad de declarar cada variable a usar se relaciona con la caracterstica de C++ de
ser fuertemente tipeado2 . Algunos de los errores mas habituales en programacion se deben
al intento de asignar a variables valores que no corresponden a sus tipos originales. Si bien
esto puede no ser muy grave en ciertos contextos, a medida que los programas se vuelven
mas complejos puede convertirse en un verdadero problema. El compilador de C++ es capaz
de detectar los usos indebidos de las variables pues conoce sus tipos, y de este modo nuestro
codigo se vuelve mas seguro.
Es posible reunir las acciones de declaracion e inicializacion en una misma lnea:
int i=10;
o declarar mas de una variable del mismo tipo simultaneamente, e inicializar algunas en la
misma lnea:
int r1, r2, r3 = 10;
1

A esta tabla hay que agregar algunas palabras adicionales, presentes en versiones mas recientes de C++,
como namespace y using
2
Una traducci
on libre del termino ingles strongly typed.


9.1. ESTRUCTURA BASICA
DE UN PROGRAMA EN C++.

287

A veces se requiere que una variable no vare una vez que se le asigna un valor. Por ejemplo,
podramos necesitar definir el valor de = 3,14159..., y naturalmente no nos gustara que,
por un descuido, a esa variable se le asignara otro valor en alguna parte del programa. Para
asegurarnos de que ello no ocurra, basta agregar el modificador const a la variable:

const float pi = 3.14159;


Para n
umeros reales se puede usar la notacion exponencial. Por ejemplo, 1.5e-3 representa el n
umero 1,5 103 .
Una variable puede ser declarada solo una vez, pero naturalmente se le pueden asignar
valores en un n
umero arbitrario de ocasiones.
Los tipos de variables disponibles son3 :
bool
int
short int
short
long int
long
unsigned int
unsigned short
unsigned long
char
float

double

Booleanas true y false.


Enteros entre 215 = 32768 y 215 1 = 32767
o entre 231 = 2147483648 y 231 1 = 2147483647
Enteros entre 215 y 215 1.
Enteros entre 231 y 231 1.
Enteros entre 0 y 216 1 o entre 0 y 232 1.
Enteros entre 0 y 216 1.
Enteros entre 0 y 232 1.
Caracteres.
Reales en los intervalos [1,7 1038 , 0,29 1038 ],
[0,29 1038 , 1,7 1038 ]
(Precision de unos 7 dgitos decimales.)
Reales en los mismos intervalos que float,
pero con precision de 16 decimales,
o en los intervalos [0,9 10308 , 0,86 10308 ]
y [0,86 10308 , 0,9 10308 ], con precision de 15 decimales.

Las variables tipo char alojan caracteres, debiendo inicializarse en la forma:

char c = a;
Ademas de las letras may
usculas y min
usculas, y smbolos como &, (, :, etc., hay una
serie de caracteres especiales (escape codes) que es posible asignar a una variable char. Ellos
son:
3

Los valores de los rangos indicados son simplemente representativos y dependen de la maquina utilizada.
Ademas, estos valores no corresponden exactamente a las versiones mas recientes de C++.

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

288
newline
horizontal tab
vertical tab
backspace
carriage return
form feed
alert (bell)
backslash
single quote
double quote

\n
\t
\v
\b
\r
\f
\a
\\
\
\"

Por ejemplo, la lnea:


cout << "Primera columna\t Segunda columna\n
Segunda linea" << endl;
corresponde al output
Primera columna
Segunda linea

9.1.5.

Segunda columna

Ingreso de datos desde el teclado.

El header iostream define un objeto especial llamado cin que esta asociado al teclado o
stdin. Con el operador >> asignamos la entrada en el dispositivo de la izquierda a la variable
de la derecha; una segunda entrada requiere de otro operador >> y de otra variable. En el
siguiente ejemplo veremos una declaracion simultanea de dos variables del mismo tipo i y
j, un mensaje a pantalla con las instrucciones a seguir, el ingreso de dos variables desde el
teclado y luego su escritura en la pantalla.
#include <iostream>
int main()
{
int i, j ;
cout << "Ingrese dos numeros enteros: " ;
cin >> i >> j ;
cout << "Los dos numeros ingresados fueron: " << i <<" "<< j << endl ;
return 0;
}

9.1.6.

Operadores aritm
eticos.

Existen operadores binarios (i.e., que act


uan sobre dos variables, una a cada lado del
operador) para la suma, la resta, la multiplicacion y la division:
+


9.1. ESTRUCTURA BASICA
DE UN PROGRAMA EN C++.

9.1.7.

289

Operadores relacionales.

Los smbolos para los operadores relacionales de igualdad, desigualdad, menor, menor o
igual, mayor y mayor o igual son:
==

!=

<

<=

>

>=

Para las relaciones logicas AND, OR y NOT:


&&

||

9.1.8.

Asignaciones.

a) Asignacion simple. Podemos asignar a una variable un valor explcito, o el valor de otra
variable:
i = 1;
j = k;
Una practica habitual en programacion es iterar porciones del codigo. La iteracion
puede estar determinada por una variable cuyo valor aumenta (disminuye) cada vez,
hasta alcanzar cierto valor maximo (mnimo), momento en el cual la iteracion se detiene.
Para que una variable x aumente su valor en 2, por ejemplo, basta escribir:
x = x + 2;
Si x fuera una variable matematica normal, esta expresion no tendra sentido. Esta
expresion es posible porque el compilador interpreta a x de modo distinto a cada lado
del signo igual: a la derecha del signo igual se usa el valor contenido en la variable x
(por ejemplo, 10); a la izquierda del signo igual se usa la direccion de memoria en la
cual esta alojada la variable x. De este modo, la asignacion anterior tiene el efecto de
colocar en la direccion de memoria que contiene a x, el valor que tiene x mas 2. En
general, todas las variables tienen un rvalue y un lvalue: el primero es el valor usado a
la derecha (right) del signo igual en una asignacion, y el segundo es el valor usado a la
izquierda (left), es decir, su direccion de memoria.
b) Asignacion compuesta.
La expresion

x = x + 2 se puede reemplazar por

Existen los operadores

+=

-=

*=

x += 2.

/=

c) Operadores de incremento y decremento.


La expresion

x = x + 1 se puede reescribir

x += 1

o bien

x++.

Analogamente, existe el operador --. Ambos operadores unarios, ++ y -- pueden ocuparse como prefijos o sufijos sobre una variable y su accion difiere en ambos casos.
Como prefijo la operacion de incremento o decremento se aplica antes de que el valor

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

290

de la variable sea usado en la evaluacion de la expresion. Como sufijo el valor de la variable es usado en la evaluacion de la expresion antes que la operacion de incremento o
decremento. Por ejemplo, supongamos que inicialmente x = 3. Entonces la instruccion
y=x++ hace que y = 3, x = 4; por su parte, y=++x hace que y = 4, x = 4.
Con estas consideraciones, deberamos poder convencernos de que la salida del siguiente
programa es 3 2 2-1 1 1 :
// Ejemplo de operadores unarios ++ y --.
#include <iostream>
int main()
{
int y ; int x = (y = 1) ;
int w = ++x + y++;
cout << w <<" " << x << " " << y << "-" ;
w = x-- - --y;
cout << w << " " << x << " " << y << endl ;
return 0;
}
Los operadores para asignacion compuesta, y los de incremento y decremento, no son solo
abreviaciones. En realidad hay que preferirlas porque implican optimizaciones en el ejecutable
resultante.

9.1.9.

Conversi
on de tipos.

Una consecuencia de que C++ sea fuertemente tipeado es que no se pueden hacer
operaciones binarias con objetos de tipos distintos. En la siguiente expresion,
int i = 3;
float x = 43.8;
cout << "Suma = " << x + i << endl;
el computador debe sumar dos variables de tipos distintos, y en principio la operacion es
imposible. La estrategia para resolver este problema es convertir ambas variables a un tipo
com
un antes de efectuar la suma (en ingles, decimos que hacemos un cast de un tipo a otro.
Existen dos modos de proceder:
a) Conversion explcita.
Si i es un int, por ejemplo, entonces float(i) la convierte en float. As, el programa
anterior se puede reescribir:
int i = 3;
float x = 43.8;
cout << "Suma = " << x + float(i) << endl;


9.1. ESTRUCTURA BASICA
DE UN PROGRAMA EN C++.

291

Ahora la suma es claramente entre dos variables float, y se puede realizar. Sin embargo, esto es bastante tedioso, por cuanto el programador debe realizar el trabajo de
conversion personalmente cada vez que en su codigo se desee sumar un real con un
n
umero entero.
b) Conversion implcita.
En este caso, el compilador realiza las conversiones de modo automatico, prefiriendo
siempre la conversion desde un tipo de variable de menor precision a uno de mayor
precision (de int a double, de short a int, etc.). As, a pesar de lo que dijimos, el
codigo anterior habra funcionado en su forma original. Evidentemente esto es muy
comodo, porque no necesitamos hacer una conversion explcita cada vez que sumamos
un entero con un real. Sin embargo, debemos estar conscientes de que esta comodidad
solo es posible porque ocurren varias cosas: primero, el compilador detecta el intento de
operar sobre dos variables que no son del mismo tipo; segundo, el compilador detecta,
en sus reglas internas, la posibilidad de cambiar uno de los tipos (int en este caso) al
otro (float); tercero, el compilador realiza la conversion, y finalmente la operacion se
puede llevar a cabo. Entender este proceso nos permitira aprovechar las posibilidades
de la conversion implcita de tipos cuando nuestro codigo involucre tipos de variables
mas complicados, y entender varios mensajes de error del compilador.
Es interesante notar como las conversiones implcitas de tipos pueden tener consecuencias insospechadas. Consideremos las tres expresiones:
i) x = (1/2) * (x + a/x) ;
ii) x = (0.5) * (x + a/x) ;
iii) x = (x + a/x)/2 ;
Si inicialmente x=0.5 y a=0.5, por ejemplo, i) entrega el valor x=0, mientras ii) y iii)
entregan el valor x=1.5. Lo que ocurre es que 1 y 2 son enteros, de modo que 1/2 = 0.
De acuerdo a lo que dijimos, uno esperara que en i), como conviven n
umeros reales
con enteros, los n
umeros enteros fueran convertidos a reales y, por tanto, la expresion
tuviera el resultado esperado, 1.5. El problema es la prioridad de las operaciones. No
todas las operaciones tienen igual prioridad (las multiplicaciones y divisiones se realizan
antes que las sumas y restas, por ejemplo), y esto permite al compilador decidir cual
operacion efectuar primero. Cuando se encuentra con operaciones de igual prioridad
(dos multiplicaciones, por ejemplo), se procede a efectuarlas de izquierda a derecha.
Pues bien, en i), la primera operacion es 1/2, una division entre enteros, i.e. cero. En
ii) no hay problema, porque todas son operaciones entre reales. Y en iii) la primera
operacion es el parentesis, que es una operacion entre reales. Al dividir por 2 este es
convertido a real antes de calcular el resultado.
i) a
un podra utilizarse, cambiando el prefactor del parentesis a 1.0/2.0, una practica
que sera conveniente adoptar como standard cuando queremos utilizar enteros dentro de expresiones reales, para evitar errores que pueden llegar a ser muy difciles de
detectar.

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

292

9.2.
9.2.1.

Control de flujo.
if, if... else, if... else if.

Las construcciones siguientes permiten controlar el flujo del programa en base a si una
expresion logica es verdadera o falsa.
a) En el caso de la sentencia if se evaluara la expresion (a==b), si ella es cierta ejecutara la
o las lneas entre los parentesis de llave y si la expresion es falsa el programa se salta
esa parte del codigo.
if (a==b) {
cout << "a es igual a b" << endl;
}
En este y en muchos de los ejemplos que siguen, los parentesis cursivos son opcionales.
Ellos indican simplemente un grupo de instrucciones que debe ser tratado como una sola
instruccion. En el ejemplo anterior, los parentesis cursivos despues del if (o despues de
un while, for, etc. mas adelante) indican el conjunto de instrucciones que deben o no
ejecutarse dependiendo de si cierta proposicion es verdadera o falsa. Si ese conjunto de
instrucciones es una sola, se pueden omitir los parentesis:
if (a==b) cout << "a es igual a b" << endl;
b) En el caso if... else hay dos acciones mutuamente excluyentes. La sentencia
if (c!=b) evaluara la expresion (c!=b). Si ella es cierta ejecutara la o las lneas entre
los parentesis de llave que le siguen, saltandose la o las lneas entre los parentesis de
llave que siguen a la palabra clave else. Si la expresion es falsa el programa se salta la
primera parte del codigo y solo ejecuta la o las lneas entre los parentesis de llave que
siguen a else.
if (c!=d) {
cout << "c es distinto de d" << endl;
}
else {
cout << "c es igual a d" << endl;
}
c) En el u
ltimo caso se evaluara la expresion que acompa
na al if y si ella es cierta se
ejecutara la o las lneas entre los parentesis de llave que le siguen, saltandose todo el
resto de las lneas entre los parentesis de llave que siguen a las palabras claves else if
y else. Si la primera expresion es falsa el programa se salta la primera parte del codigo
y eval
ua la expresion que acompa
na al primer else if y si ella es cierta ejecutara la
o las lneas entre los parentesis de llave que le siguen, saltandose todo el resto de las
lneas entre los parentesis que siguen a otros eventuales else if o al else. Si ninguna
de las expresiones logicas resulta cierta se ejecutara la o las lneas entre los parentesis
que siguen al else.

9.2. CONTROL DE FLUJO.

293

if (e > f) {
cout << "e es mayor que f" << endl;
}
else if (e == f) {
cout << "e es igual a f" << endl;
}
else {
cout << "e es menor que f" << endl;
}
Para C++, una expresion verdadera es igual a 1, y una falsa es igual a 0. Esto es, cuando
escribimos if(e>f), y e>f es falsa, en realidad estamos diciendo if(0). A la inversa, 0
es considerada una expresion falsa, y cualquier valor no nulo es considerado una expresion
verdadera. As, podramos hacer que una porcion del codigo siempre se ejecute (o nunca)
poniendo directamente if(1) o if(0), respectivamente.
Naturalmente, lo anterior no tiene mucho sentido, pero un error habitual (y particularmente difcil de detectar) es escribir a = b en vez de a == b en una expresion logica. Esto
normalmente trae consecuencias indeseadas, pues la asignacion a = b es una funcion que se
eval
ua siempre al nuevo valor de a. En efecto, una expresion como a=3 siempre equivale a
verdadero, y a=0 siempre equivale a falso. Por ejemplo, en el siguiente programa:
#include <iostream>
int main(){
int k=3;
if (k==3){
cout << "k es igual a 3" << endl;
}
k=4;
if (k=3){
cout << "k es igual a 3" << endl;
}
return 0;
}
la salida siempre es:
k es igual a 3
k es igual a 3
aunque entre los dos if el valor de k cambia.

9.2.2.

Expresi
on condicional.

Una construccion if else simple, que solo asigna un valor distinto a una misma variable
seg
un si una proposicion es verdadera o falsa, es muy com
un en programacion. Por ejemplo:

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

294
if (a==b) {
c = 1;
} else {
c = 0;
}

Existen dos maneras de compactar este codigo. Este


se puede reemplazar por
if (a==b) c = 1;
else c = 0;
Sin embargo, esto no es recomendable por razones de claridad al leer el codigo. Una expresion
mas compacta y clara, se consigue usando el operador ternario ? :
c = (a==b) ? 1 : 0;
Como en el caso de los operadores de incremento y decremento, el uso del operador ? es
preferible para optimizar el ejecutable resultante.

9.2.3.

switch.

La instruccion switch permite elegir m


ultiples opciones a partir del valor de una variable
entera. En el ejemplo siguiente tenemos que si i==1 la ejecucion continuara a partir del caso
case 1:, si i==2 la ejecucion continuara a partir del caso case 2: y as sucesivamente. Si
i toma un valor que no esta enumerado en ning
un case y existe la etiqueta default, la
ejecucion continuara a partir de ah. Si no existe default, la ejecucion contin
ua luego del
u
ltimo parentesis cursivo.
switch (i)
{
case 1:
{
cout << "Caso 1." << endl;
}
break;
case 2:
{
cout << "Caso 2." << endl;
}
break;
default:
{
cout << "Otro caso." << endl;
}
break;
}

9.2. CONTROL DE FLUJO.

295

La instruccion break permite que la ejecucion del programa salte a la lnea siguiente despues
de la serie de instrucciones asociadas a switch. De esta manera solo se ejecutaran las lneas
correspondientes al case elegido y no el resto. Por ejemplo, si i==1 veramos en pantalla
solo la lnea Caso 1. En el otro caso, si no existieran los break, y tambien i==1, entonces
veramos en pantalla las lneas Caso 1., Caso 2. y Otro caso. La instruccion default es
opcional.

9.2.4.

for.

Una instruccion que permite repetir un bloque de instrucciones un n


umero definido de
veces es el for. Su sintaxis comienza con una o varias inicializaciones, luego una condicion
logica de continuacion mientras sea verdadera, y finalmente una o mas expresiones que se
eval
uan vuelta por vuelta no incluyendo la primera vez. Siguiendo al for(...) viene una
instruccion o un bloque de ellas encerradas entre parentesis de llave. En el ejemplo siguiente
la variable entera i es inicializada al valor 1, luego se verifica que la condicion logica sea
cierta y se ejecuta el bloque de instrucciones. A la vuelta siguiente se eval
ua la expresion a
la extrema derecha (suele ser uno o mas incrementadores), se verifica que la condicion logica
se mantenga cierta y se ejecuta nuevamente el bloque de instrucciones. Cuando la condicion
logica es falsa se termina el loop, saltando la ejecucion a la lnea siguiente al parentesis que
indica el fin del bloque de instrucciones del for. En este ejemplo, cuando i=4 la condicion
de continuacion sera falsa y terminara la ejecucion del for.
for (int i = 1; i < 4; i++) {
cout << "Valor del indice: " << i << endl;
}
El output correspondiente es:
Valor del indice: 1
Valor del indice: 2
Valor del indice: 3
Cualquier variable declarada en el primer argumento del for es local al loop. En este caso,
la variable i es local, y no interfiere con otras posibles variables i que existan en nuestro
codigo.
for es una instruccion particularmente flexible. En el primer y tercer argumento del for
se puede colocar mas de una instruccion, separadas por comas. Esto permite, por ejemplo,
involucrar mas de una variable en el ciclo. El codigo:
for (int i=0, k=20; (i<10) && (k<50); i++, k+=6) {
cout << "i + k = " << i + k << endl;
}
resulta en el output:
i + k = 20
i + k = 27
i + k = 34

296

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

i + k = 41
i + k = 48
Ademas, la condicion de continuacion (segundo argumento del for), no tiene por que depender de las variables inicializadas en el primer argumento. Y el tercer argumento no tiene
por que ser un incremento o decremento de las variables del loop; puede ser cualquier expresion que queramos ejecutar cada vez que un ciclo termina. En el siguiente ejemplo, ademas
de incrementar los contadores en cada ciclo, se enva un mensaje a pantalla:
for (int i=1, k=2;k<20 && i<20;k++, i+=2, cout << "Fin iteracion" << endl){
cout << " i = " << i << endl;
cout << " k = " << k << endl;
}
El resultado:
i = 1, k = 2
Fin iteracion
i = 3, k = 3
Fin iteracion
i = 5, k = 4
Todos los argumentos del for son opcionales (no los ;), por lo cual se puede tener un for
que carezca de inicializacion y/o de condicion de continuacion y/o de una expresion que se
eval
ue en cada iteracion.
Un caso tpico en que se aprovecha la opcionalidad de los argumentos del for es para
tener un loop infinito, que puede servir para dejar el programa en pausa indefinida. Para salir
del loop (y en general, para detener cualquier programa en C++), hay que presionar ^C:
for (; ; ) cout << "Este es un loop infinito, ^C para detenerlo"<< endl;
Se puede ademas, salir abruptamente del loop con break. El codigo:
for(int indice=0; indice<10; indice++) {
int cuadrado = indice*indice ;
cout << indice << " " ;
if(cuadrado > 10 ) break ;
}
cout << endl;
da la salida a pantalla:
0 1 2 3 4
aun cuando la condicion de continuacion permite que indice llegue hasta 9.
Finalmente, las variables involucradas en el for pueden ser modificadas dentro del ciclo.
Por ejemplo, modifiquemos uno de los ejemplos anteriores, cambiando la variable k en medio
del ciclo:

9.2. CONTROL DE FLUJO.

297

for (int i=1, k=2;k<5 && i<8;k++, i+=2, cout << "Fin iteracion" << endl){
cout << " i = " << i << ", k = " << k << endl;
k = k+5;
}
El resultado es:
i = 1, k = 2
Fin iteracion
En vez de pasar por el ciclo tres veces, como ocurra originalmente, el programa sale del loop,
al cabo del primer ciclo, k = 2 + 5 = 7 > 5.
En general no es una buena practica modificar las variables internas del ciclo en medio
de el, porque no es muy ordenado, y el desorden normalmente conduce a los errores en
programacion, pero ocasionalmente puede ser u
til hacer uso de esta libertad que proporciona
el lenguaje. Los ciclos for pueden anidarse, tal que uno contenga a otro completamente.

9.2.5.

while.

La instruccion while permite repetir un bloque de instrucciones encerradas entre parentesis de llave mientras la condicion logica que acompa
na al while se mantenga cierta. La condicion es evaluada antes de que comience la primera iteracion; si es falsa en esta o en una
posterior evaluacion no se ejecuta el bloque de instrucciones que le siguen y se contin
ua la
ejecucion en la lnea siguiente al parentesis que indica el fin del bloque asociado al while.
Hay que notar que la instruccion while podra no ejecutarse ni una sola vez si la condicion
no se cumple inicialmente. Un ejemplo simple:
int i=1;
while (i < 3) {
cout << i++ << " ";
}
que da por resultado: 1 2 3.
En el siguiente loop, la salida sera: 5 4 3 2 1 (Por que?)
int k=5 ;
while(k) {
cout << k-- <<" ";
}

9.2.6.

do... while.

La instruccion do... while es analoga a while, salvo que la condicion logica es evaluada
despues de la primera iteracion. Por tanto, el bloque se ejecuta al menos una vez, siempre.
Un ejemplo simple:
do {
cout << i++ << endl;
} while (i<=20);

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

298

Podemos construir de otra manera un loop infinito usando do while


do {
cout << "Este es un segundo loop infinito, ^C para detenerlo"<< endl;
} while (1);

9.2.7.

goto.

Existe tambien en C++ una instruccion goto que permite saltar de un punto a otro del
programa (goto salto; permite saltar a la lnea que contiene la instruccion salto:). Sin
embargo, se considera una mala tecnica de programacion usar goto, y siempre se puede dise
nar un programa evitandolo. Es altamente no recomendable, pero si su utilizacion simplifica
el codigo se puede usar.

9.3.

Funciones.

Las funciones nos permiten programar partes del procedimiento por separado. Un ejemplo
simple de ellas lo vimos en la subseccion 9.1.2.

9.3.1.

Funciones tipo void.

Un caso especial de funciones es aquel en que el programa que llama la funcion no espera
que esta le entregue ning
un valor al terminar. Por ejemplo, en la subseccion 9.1.2, la funcion
PrintHola simplemente imprime un mensaje en pantalla. El resto del programa no necesita
de ning
un resultado parcial proveniente de la ejecucion de dicha funcion. La definicion de
estas funciones debe ir precedida de la palabra void, como en el ejemplo citado.

9.3.2.

return.

Si deseamos definir una funcion que calcule una raz cuadrada, evidentemente esperamos
que la funcion nos entregue un resultado: el valor de la raz cuadrada. En este caso hay que
traspasar el valor de una variable desde la funcion al programa que la llamo. Esto se consigue
con return. Veamos un ejemplo muy simple:
int numero(){
int i = 3;
return i;
}
int main(){
cout <<
cout <<
int i =
i = i +
cout <<

"Llamamos a la funcion" << endl;


"El numero es: " << numero() << endl;
5;
numero();
"El numero mas 5 es: " << i << endl;

9.3. FUNCIONES.

299

return 0;
}
En este caso, la funcion simplemente entrega el valor de la variable interna i, es decir 3, el
cual puede ser usado para salida en pantalla o dentro de operaciones matematicas corrientes.
Separando declaracion e implementacion de la funcion, el ejemplo anterior se escribe:
int numero();
int main(){ ... }
int numero(){
int i = 3;
return i;
}
Dos observaciones u
tiles:
a) La declaracion de la funcion lleva antepuesto el tipo de variable que la funcion entrega.
En el ejemplo, la variable entregada es un entero, i, y la declaracion debe ser, por tanto,
int numero(). Podemos tener funciones tipo double, char, long, etc., de acuerdo al
tipo de variable que corresponde a return.
b) La variable i que se usa dentro de main() y la que se usa dentro de numero() son
distintas. A pesar de que tienen el mismo nombre, se pueden usar independientemente
como si se llamaran distinto. Se dice que i es una variable local.
Despues de return debe haber una expresion que se eval
ue a una variable del tipo correspondiente, ya sea explcitamente o a traves de un cast implcito. Las siguientes funciones
devuelven un double al programa:
double f1(){
double l = 3.0;
return l;
}
double f2(){
double l = 3.0, m = 8e10;
return l*m;
}
double f3(){
int l = 3;
return l;
}
Sin embargo, la siguiente funcion hara que el compilador emita una advertencia, pues se
esta tratando de devolver un double donde debera ser un int, y la conversion implica una
perdida de precision:

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

300
int f4(){
double l=3.0;
return l;
}

Naturalmente, podemos modificar la funcion anterior haciendo una conversion explcita antes
de devolver el valor: return int(l).

9.3.3.

Funciones con par


ametros.

Volviendo al ejemplo de la raz cuadrada, nos gustara llamar a esta funcion con un
parametro (el n
umero al cual se le va a calcular la raz cuadrada). Consideremos por ejemplo
una funcion que necesita un solo parametro, de tipo int, y cuyo resultado es otro int:
int funcion(int i){
i+=4;
return i;
}
int main(){
int i = 3;
cout << "El valor de la funcion es " << funcion(i)
<< endl;
cout << "El valor del parametro es " << i << endl;
return 0 ;
}
El resultado en pantalla es:
El valor de la funcion es 7
El valor del parametro es 3
La funcion funcion entrega el valor del parametro mas 4. Usamos el mismo nombre (i)
para las variables en main y funcion, pero son variables locales, as que no interfieren. Lo
importante es notar que cuando se llama a la funcion, la reasignacion del valor de i (i+=4)
ocurre solo para la variable local en funcion; el parametro externo mantiene su valor.
Separando declaracion e implementacion el ejemplo anterior se escribe:
int funcion(int);
int main(){...}
int funcion(int i){
i+=4;
return i;
}

9.3. FUNCIONES.

301

Si nuestra funcion necesita mas parametros, basta separarlos con comas, indicando para
cada uno su tipo:
int funcion2(int,double);
void funcion3(double,int,float);
double funcion4(float);
El compilador verifica cuidadosamente que cada funcion sea llamada con el n
umero de
parametros adecuados, y que cada parametro corresponda al tipo especificado. En los ejemplos anteriores, funcion2 debe ser llamada siempre con dos argumentos, el primero de los
cuales es int y el segundo double. Como siempre, puede ser necesario un cast implcito (si se
llama funcion2 con el segundo argumento int, por ejemplo), pero si no existe una regla de
conversion automatica (llamando a funcion2 con el primer argumento double, por ejemplo),
el compilador enviara una advertencia. Ademas, el compilador verifica que el valor de retorno
de la funcion sea usado como corresponde. Por ejemplo, en las dos lneas:
double m = funcion2(2,1e-3);
int k = funcion4(0.4);
la primera compilara exitosamente (pero hay un cast implcito), y la segunda dara una
advertencia.
Existen dos modos de transferir parametros a una funcion:
a) Por valor. Se le pasan los parametros para que la funcion que es llamada copie sus
valores en sus propias variables locales, las cuales desapareceran cuando la funcion
termine y no tienen nada que ver con las variables originales.
Hasta ahora, en todos los ejemplos de esta subseccion el traspaso de parametros ha sido
por valor. En la funcion int funcion(int), en el codigo de la pagina 300, lo que ha
ocurrido es que la funcion copia el valor de la variable externa i en una nueva variable
(que tambien se llama i, pero esta en otra direccion de memoria). El valor con el que
trabaja la funcion es la copia, manteniendo inalterada la variable original.
b) Por referencia. Se le pasa la direccion de memoria de los parametros. La funcion llamada
puede modificar el valor de tales variables.
La misma funcion de la pagina 300 puede ser modificada para que el paso de parametros
sea por referencia, modificando la declaracion:
int funcion(int &);
int main()
{
int i = 3;
cout << "El valor de la funcion es " << funcion(i)
<< endl;
cout << "El valor del parametro es " << i << endl;
return 0;

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

302
}
int funcion(int & i)
{
i+=4;
return i;
}

En vez de traspasarle a funcion el valor del parametro, se le entrega la direccion


de memoria de dicha variable. Debido a ello, funcion puede modificar el valor de la
variable. El resultado en pantalla del u
ltimo programa sera:
El valor de la funcion es 7
El valor del parametro es 7
Debido a que las variables dejan de ser locales, el paso de parametros por referencia
debe ser usado con sabidura. De hecho el ejemplo presentado es poco recomendable.
Peor a
un, el problema es no solo que las variables dejan de ser locales, sino que es
imposible saber que no lo son desde el main. En efecto, el main en ambas versiones de
funcion es el mismo. Lo u
nico que cambio es la declaracion de la funcion. Puesto que un
usuario normal usualmente no conoce la declaracion e implementacion de cada funcion
que desea usar (pues pueden haber sido hechas por otros programadores), dejamos al
usuario en la indefension.
Por otro lado, hay al menos dos situaciones en que el paso de referencia es la u
nica
opcion viable para entregar los parametros. Un caso es cuando hay que cuidar el uso
de la memoria. Supongamos que una funcion necesita un parametros que es una matriz
de 10 millones de filas por 10 millones de columnas. Seguramente estaremos llevando al
lmite los recursos de nuestra maquina, y sera una torpeza pasarle la matriz por valor:
ello involucrara, primero, duplicar la memoria utilizada, con el consiguiente riesgo de
que nuestro programa se interrumpa; y segundo, hara el programa mas lento, porque
la funcion necesitara llenar su version local de la matriz elemento por elemento. Es
decir, nada de eficiente. En esta situacion, el paso por referencia es lo adecuado.
Un segundo caso en que el paso por referencia es recomendable es cuando efectivamente
nuestra intencion es cambiar el valor de las variables. El ejemplo tpico es el intercambio
de dos variables entre s, digamos a1=1 y a2=3. Luego de ejecutar la funcion queremos
que a1=3 y a1=1. El siguiente codigo muestra la definicion y el uso de una funcion para
esta tarea, y por cierto requiere el paso de parametros por referencia:
#include <iostream>
void swap(int &,int &);
int main(){
int i = 3, k=10;
swap(i,k);

9.3. FUNCIONES.

303

cout << "Primer argumento: " << i << endl;


cout << "Segundo argumento: " << k << endl;
return 0 ;
}
void swap(int & j,int & p){
int temp = j;
j = p;
p = temp;
}
El output es:
Primer argumento: 10
Segundo argumento: 3
En el ejemplo de la matriz anterior, sera interesante poder pasar el parametro por referencia, para ahorrar memoria y tiempo de ejecucion, pero sin correr el riesgo de que nuestra
matriz gigantesca sea modificada por accidente. Afortunadamente existe el modo de hacerlo,
usando una palabra que ya hemos visto antes: const. En el siguiente codigo:
int f5(const int &);
int main(){...}
int f5(const int & i){...};
f5 recibira su u
nico argumento por referencia, pero, debido a la presencia del modificador
const, el compilador avisara si se intenta modificar el argumento en medio del codigo de la
funcion.

9.3.4.

Par
ametros por defecto.

C++ permite que omitamos algunos parametros de la funcion llamada, la cual reemplaza los valores omitidos por otros predeterminados. Tomemos por ejemplo la funcion
int funcion(int); de la subseccion 9.3.3, y modifiquemosla de modo que si no le entregamos parametros, asuma que el n
umero entregado fue 5:
int funcion(int i = 5){
i+=4;
return i;
}
int main(){
cout << "El resultado default es " << funcion() << endl;
int i = 3;
cout << "Cuando el parametro vale " << i <<
" el resultado es " << funcion(i) << endl;
return 0;
}

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

304
El output correspondiente es:

El resultado default es 9
Cuando el parametro vale 3 el resultado es 7
Separando declaracion e implementacion:
int funcion(int = 5);
main(){...}
int funcion(int i){
i+=4;
return i;
}
Si una funcion tiene n argumentos, puede tener m n argumentos opcionales. La u
nica
restriccion es que, en la declaracion e implementacion de la funcion, los parametros opcionales
ocupen los u
ltimos m lugares:
void f1(int,int = 4);
int f2(double,int = 4, double = 8.2);
double f3(int = 3,double = 0.0, int = 0);
En este caso, f1(2), f1(2,8), f2(2.3,5), f3(3), f3(), y muchas otras, son todas llamadas
validas de estas funciones. Cada vez, los parametros no especificados son reemplazados por
sus valores predeterminados.

9.3.5.

Ejemplos de funciones: raz cuadrada y factorial.

Raz cuadrada.
Con lo visto hasta ahora, ya podemos escribir un programa que calcule la raz cuadrada
de una funcion. Para escribir una funcion, debemos tener claro que se espera de ella: cuantos
y de que tipo son los argumentos que recibira, que tipo de valor de retorno debera tener,
y, por cierto, un nombre adecuado. Para la raz cuadrada, es claro que el argumento es un
n
umero. Pero ese n
umero podra ser un entero o un real, y eso al compilador no le da lo
mismo. En este punto nos aprovechamos del cast implcito: en realidad, basta definir la raz
cuadrada con argumento double; de este modo, si se llama la funcion con un argumento int,
el compilador convertira automaticamente el int en double y nada fallara. En cambio, si la
definieramos para int y la llamamos con argumento double, el compilador se quejara de que
no sabe efectuar la conversion. Si el argumento es double, evidentemente esperamos que el
valor de retorno de la funcion sea tambien un double. Llamando a la funcion raiz, tenemos
la declaracion:
double raiz(double);
Debido a la naturaleza de la funcion raz cuadrada, raiz() no tendra sentido, y por tanto
no corresponde declararla con un valor default.

9.3. FUNCIONES.

305

Ahora debemos pensar en como calcular la raz cuadrada. Usando una variante del metodo
de Newton-Raphson, se obtiene que la secuencia


a
1
xn +
xn+1 =
2
xn

converge a a cuando n . Por tanto, podemos calcular la raz cuadrada con aproximaciones sucesivas. El calculo terminara en el paso N , cuando la diferencia entre el cuadrado
de la aproximacion actual, xN , y el valor de a, sea menor que un cierto n
umero peque
no:
2
| xN a | <   1. El valor de  determinara la precision de nuestro calculo. Un ejemplo de
codigo lo encontramos a continuacion:
#include <iostream>
#include <cmath>
double raiz(double);
int main(){
double r;
cout.precision(20);
cout << "Ingrese un numero: " << endl;
cin >> r;
cout << raiz(r) << endl;
return 0 ;
}
double raiz(double a){
double x, dx = 1e3, epsilon = 1e-8;
while (fabs(dx)>epsilon){
x = (x + a/x)/2;
dx = x*x - a;
cout << "x = " << x << ", precision = " << dx << endl;
}
return x;
}
Luego de la declaracion de la funcion raiz, esta main, y al final la implementacion de
raiz. En main se pide al usuario que ingrese un n
umero, el cual se aloja en la variable r,
y se muestra en pantalla el valor de su raz cuadrada. La instruccion cout.precision(20)
permite que la salida a pantalla muestre el resultado con 20 cifras significativas.
En la implementacion de la funcion hay varios aspectos que observar. Se ha llamado x a la
variable que contendra las sucesivas aproximaciones a la raz. Al final del ciclo, x contendra el
valor (aproximado) de la raz cuadrada. dx contiene la diferencia entre el cuadrado de x y el

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

306

valor de a, epsilon es el n
umero (peque
no) que determina si la aproximacion es satisfactoria
o no.
El ciclo esta dado por una instruccion while, y se ejecuta mientras dx>epsilon, es decir,
termina cuando dx es suficientemente peque
no. El valor absoluto del real dx se obtiene con la
funcion matematica fabs, disponible en el header cmath incluido al comienzo del programa.
Observar que inicialmente dx=1e3, esto es un valor muy grande; esto permite que la condicion
del while sea siempre verdadera, y el ciclo se ejecuta al menos una vez.
Dentro del ciclo, se calcula la nueva aproximacion, y se enva a pantalla un mensaje con
la aproximacion actual y la precision alcanzada (dada por dx). Eventualmente, cuando la
aproximacion es suficientemente buena, se sale del ciclo y la funcion entrega a main el valor
de x actual, que es la u
ltima aproximacion calculada.
Factorial.
Otro ejemplo u
til es el calculo del factorial, definido para n
umeros naturales:
n! = n (n 1) 2 1 ,

0! 1 .

La estrategia natural es utilizar un ciclo for, determinado por una variable entera i, que
va desde 1 a n, guardando los resultados en una variable auxiliar que contiene el producto
de todos los n
umeros naturales desde 1 hasta i:
#include <iostream>
int factorial(int);
int main(){
int n=5 ;
cout << "El factorial de " << n << " es: " << factorial(n) << endl;
return 0 ;
}
int factorial(int i)
{
int f =1;
for (int j=1;j<=i;j++){
f = f*j;
}
return f;
}
Observar que la variable auxiliar f, que contiene el producto de los primeros i n
umeros
naturales, debe ser inicializada a 1. Si se inicializara a 0, factorial(n) sera 0 para todo n.
Esta funcion no considera el caso n=0, pero al menos para el resto de los naturales funcionara bien.

9.3. FUNCIONES.

9.3.6.

307

Alcance, visibilidad, tiempo de vida.

Con el concepto de funcion hemos apreciado que es posible que coexistan variables con el
mismo nombre en puntos distintos del programa, y que signifiquen cosas distintas. Conviene
entonces tener en claro tres conceptos que estan ligados a esta propiedad:
Alcance (scope) La seccion del codigo durante la cual el nombre de una variable puede ser
usado. Comprende desde la declaracion de la variable hasta el final del cuerpo de la
funcion donde es declarada.
Si la variable es declarada dentro de una funcion es local . Si es definida fuera de todas
las funciones (incluso fuera de main), la variable es global.
Visibilidad Indica cuales de las variables, actualmente al alcance, pueden ser accesadas. En
nuestros ejemplos (subseccion 9.3.3), la variable i en main a
un esta al alcance dentro
de la funcion funcion, pero no es visible, y por eso es posible reutilizar el nombre.
Tiempo de vida Indica cuando las variables son creadas y cuando destruidas. En general
este concepto coincide con el alcance (las variables son creadas cuando son declaradas y
destruidas cuando la funcion dentro de la cual fueron declaradas termina), salvo porque
es posible definir: (a) variables din
amicas, que no tienen alcance, sino solo tiempo de
vida; (b) variables estaticas, que conservan su valor entre llamadas sucesivas de una
funcion (estas variables tienen tiempo de vida mayor que su alcance). Para declarar
estas u
ltimas se usa un modificador static.
El efecto del modificador static se aprecia en el siguiente ejemplo:
#include <iostream>
int f();
int main(){
cout << f() << endl;
cout << f() << endl;
return 0;
}
int f(){
int x=0;
x++;
return x;
}
La funcion f simplemente toma el valor inicial de x y le suma 1. Como cada vez que la
funcion es llamada la variable local x es creada e inicializada, el resultado de este programa
es siempre un 1 en pantalla:

308

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

1
1
Ahora modifiquemos la funcion, haciendo que x sea una variable estatica:
#include <iostream>
int f();
int main(){
cout << f() << endl;
cout << f() << endl;
return 0 ;
}
int f(){
static int x=0;
x++;
return x;
}
Ahora, al llamar a f por primera vez, la variable x es creada e inicializada, pero no
destruida cuando la funcion termina, de modo que conserva su valor cuando es llamada por
segunda vez:
1
2
Veamos un ejemplo de una variable estatica en el calculo del factorial:
int factorial2(int i=1){
static int fac = 1;
fac*=i;
return fac ;
}
int main (){
int n=5;
int m=n;
while(n>0) factorial2(n--);
cout << "El factorial de "<< m << " es = " << factorial2() << endl;
return 0 ;
}
La idea, si se desea calcular el factorial de 5, por ejemplo, es llamar a la funcion factorial2
una vez, con argumento n = 5, y despues disminuir n en 1. Dentro de la funcion, una variable
estatica (fac) aloja el valor 1 5 = 5. Luego se llama nuevamente con n = 4, con lo cual
fac=1*5*4, y as sucesivamente, hasta llegar a n = 1, momento en el cual fac=1*5*4*3*2*1.

9.3. FUNCIONES.

309

Al disminuir n en 1 una vez mas, la condicion del while es falsa y se sale del ciclo. Al llamar
una vez mas a factorial2, esta vez sin argumentos, el programa asume que el argumento
tiene el valor predeterminado 1, y as el resultado es 1*5*4*3*2*1*1, es decir 5!.
Observemos el uso del operador de decremento en este programa: factorial2(n--) llama

a la funcion con argumento n y despues disminuye n en 1. Esto


es porque el operador de
decremento esta actuando como sufijo, y es equivalente a las dos instrucciones:
factorial2(n);
n--;
Si fuera un prefijo [factorial2(n--)], primero disminuira n en 1, y llamara luego a factorial2
con el nuevo valor de n
Este ejemplo de calculo del factorial ilustra el uso de una variable estatica, que aloja los
productos parciales de los n
umeros enteros, pero no es un buen ejemplo de una funcion que
calcule el factorial, porque de hecho esta funcion no lo calcula: es main quien, a traves de
sucesivas llamadas a factorial2, calcula el factorial, pero la funcion en s no.

9.3.7.

Recursi
on.

C++ soporta un tipo especial de tecnica de programacion, la recursion, que permite que
una funcion se llame a s misma (esto es no trivial, por cuanto si definimos, digamos, una
funcion f, dentro del cuerpo de la implementacion no hay ninguna declaracion a una funcion
f, y por tanto en principio no se podra usar f porque dicho nombre no estara en scope;
C++ permite soslayar este hecho). La recursion permite definir de modo muy compacto una
funcion que calcule el factorial de un n
umero entero n.
int factorial3(int n){
return (n<2) ? 1: n * factorial3(n-1);
}
int main(){
int n=5;
cout << "El factorial de "<< n << " es = " << factorial3(n) << endl;
return 0;
}
En este tercer ejemplo, el factorial de n es definido en funcion del factorial de n 1.
Se ha usado la expresion condicional (operador ?) para compactar a
un mas el codigo. Por
ejemplo, al pedir el factorial de 5 la funcion se pregunta si 5 < 2. Esto es falso, luego, la
funcion devuelve a main el valor 5*factorial3(4). A su vez, factorial3(4) se pregunta si
4 < 2; siendo falso, devuelve a la funci
on que la llam
o (es decir, a factorial3(5)), el valor
4*factorial3(3). El proceso sigue hasta que factorial(2) llama a factorial3(1). En
ese momento, 1 < 2, y la funcion factorial3(1), en vez de llamar nuevamente al factorial,
devuelve a la funcion que la llamo el valor 1. No hay mas llamadas a factorial3, y el
proceso de recursion se detiene. El resultado final es que main recibe el valor factorial3(5)
= 5*factorial3(4) = = 5*4*3*2*factorial3(1) = 5*4*3*2*1= 120.

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

310

Este tercer codigo para el calculo del factorial s considera el caso n = 0, y ademas es mas
eficiente, al ser mas compacto.
La recursion debe ser empleada con cuidado. Es importante asegurarse de que existe
una condicion para la cual la recursion se detenga, de otro modo, caeramos en una recursion
infinita que hara in
util nuestro programa. En el caso del factorial, pudimos verificar que dicha
condicion existe, por tanto el programa es finito. En situaciones mas complicadas puede no
ser tan evidente, y es responsabilidad del programador como siempre revisar que todo
este bajo control.

9.3.8.

Funciones internas.

Existen muchas funciones previamente implementadas en C++ almacenadas en distintas


bibliotecas. Una de las bibliotecas importante es la matematica. Para usarla uno debe incluir
el archivo de header <cmath> y luego al compilar agregar al final del comando de compilacion
-lm:
g++ -Wall -o <salida> <fuente>.cc -lm
si se desea crear un ejecutable <salida> a partir del codigo en <fuente>.cc.
Veamos algunas de estas funciones:
pow(x,y)
fabs(x)
sqrt(x)
sin(x) cos(x)
tan(x)
atan(x)
atan2(y, x)
exp(x)
log(x) log10(x)
floor(x)
ceil(x)
fmod(x,y)

Eleva a potencia, xy
Valor absoluto
Raz cuadrada
Seno y coseno
Tangente
Arcotangente de x en [, ]
Arcotangente de y/x en [, ]
Exponencial
Logaritmo natural y logaritmo en base 10
Entero mas cercano hacia abajo (e.g. floor(3.2)=3)
Entero mas cercano hacia arriba (e.g. ceil(3.2)=4)
El resto de x/y (e.g. fmod(7.3, 2)=1.3)

Para elevar a potencias enteras, es mas conveniente usar la forma explcita en vez de la
funcion pow, i.e. calcular x^3 como x*x*x es mas eficiente computacionalmente que pow(x,3),

debido a los algoritmos que usa pow para calcular potencias. Estos
son mas convenientes
cuando las potencias no son enteras, en cuyo caso no existe una forma explcita en terminos
de productos.

9.4.

Punteros.

Una de las ventajas de C++ es permitir el acceso directo del programador a zonas de
memoria, ya sea para crearlas, asignarles un valor o destruirlas. Para ello, ademas de los tipos
de variables ya conocidos (int, double, etc.), C++ proporciona un nuevo tipo: el puntero.

9.4. PUNTEROS.

311

El puntero no contiene el valor de una variable, sino la direccion de memoria en la cual dicha
variable se encuentra.
Un peque
no ejemplo nos permite ver la diferencia entre un puntero y la variable a la cual
ese puntero apunta:
int main(){
int i = 42;
int * p = &i;
cout << "El valor del puntero es: " << p << endl;
cout << "Y apunta a la variable: " << *p << endl;
return 0;
}
En este programa definimos una variable i entera. Al crear esta variable, el programa
reservo un espacio adecuado en alg
un sector de la memoria. Luego pusimos, en esa direccion
de memoria, el valor 42. En la siguiente lnea creamos un puntero a i, que en este caso
denominamos p. Los punteros no son punteros a cualquier cosa, sino punteros a un tipo
particular de variable. Ello es manifiesto en la forma de la declaracion: int * p. En la
misma lnea asignamos a este puntero un valor. Ese valor debe ser tambien una direccion de
memoria, y para eso usamos &i, que es la direccion de memoria donde esta i. Ya hemos visto
antes el uso de & para entregar una direccion de memoria, al estudiar paso de parametros a
funciones por referencia (9.3.3).
Al ejecutar este programa vemos en pantalla los mensajes:
El valor del puntero es: 0xbffff9d8
Y apunta a la variable: 42
Primero obtenemos un n
umero hexadecimal imposible de determinar a priori , y que corresponde a la direccion de memoria donde quedo ubicada la variable i. La segunda lnea nos
da el valor de la variable que esta en esa direccion de memoria: 42. Puesto que * aplicado
a un puntero entrega el contenido de esa direccion de memoria, se le denomina operador de
dereferenciacion.
En este ejemplo, hemos creado un puntero que contiene la direccion de memoria de una
variable preexistente: declaramos una variable, esa variable queda en alguna direccion de
memoria, y despues asignamos esa direccion de memoria a un puntero. En este caso, podemos
referirnos a la variable tanto por su nombre (i) como por su puntero asociado (p_i).
Tambien es posible crear directamente una direccion de memoria, sin necesidad de crear
una variable antes. En este caso, la u
nica forma de manipular este objeto es a traves de su
puntero, porque no existe ninguna variable y por tanto ning
un nombre asociado a el. Esto se
hace con el operador new. El mismo ejemplo anterior puede ser reescrito usando solo punteros:
int

main(){
int * p = new int;
*p = 42;
cout << "El valor del puntero es: " << p << endl;
cout << "Y apunta a la variable: " << *p << endl;
delete p;

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

312
return 0;
}

La primera lnea crea un nuevo puntero a int llamado p. new verifica que haya suficiente
memoria para alojar un nuevo int, y si es as reserva ese espacio de memoria. En p queda la
direccion de la memoria reservada. Esto es equivalente a la declaracion int i; del programa
anterior, salvo que ahora la u
nica manera de accesar esa direccion de memoria es a traves del
puntero p. A continuacion se coloca dentro de esa direccion (observar la presencia del operador
de dereferenciacion *) el n
umero 42. El programa manda a pantalla la misma informacion
que la version anterior, salvo que seguramente el valor de p sera distinto.
Finalmente, ya que el puntero no volvera a ser usado, la direccion de memoria debe ser
liberada para que nuestro u otros programas puedan utilizarla. Ello se realiza con el operador
delete. Todo puntero creado con new debe ser, cuando ya no se utilice, borrado con delete.
Ello evitara desagradables problemas en nuestro programa debido a fuga de memoria (memory
leak ).
Los punteros tienen gran importancia cuando de manejar datos dinamicos se trata, es
decir, objetos que son creados durante la ejecucion del programa, en n
umero imposible de
predecir al momento de compilar. Por ejemplo, una aplicacion X-windows normal que crea
una, dos, tres, etc. ventanas a medida que uno abre archivos. En este caso, cada ventana es
un objeto dinamico, creado durante la ejecucion, y la u
nica forma de manejarlo es a traves
de un puntero a ese objeto, creado con new cuando la ventana es creada, y destruido con
delete cuando la ventana es cerrada.

9.5.
9.5.1.

Matrices o arreglos.
Declaraci
on e inicializaci
on.

Podemos declarar (e inicializar inmediatamente) matrices de enteros, reales de doble precision, caracteres, etc., seg
un nuestras necesidades.
int a[5];
double r[3] = {3.5, 4.1, -10.8};
char palabra[5];
Una vez declarada la matriz (digamos a[5]), los valores individuales se accesan con a[i],
con i desde 0 a 4. Por ejemplo, podemos inicializar los elementos de la matriz as:
a[0] = 3;
a[3] = 5; ...
o si queremos ingresarlos desde el teclado:
for (i = 0; i < 5; i++){
cin >> a[i];
}
Y si deseamos escribirlos en pantalla:

9.5. MATRICES O ARREGLOS.

313

for (i = 0; i < 5; i++){


cout << a[i];
}

9.5.2.

Matrices como par


ametros de funciones.

Si deseamos, por ejemplo, dise


nar una funcion que mande los elementos de una matriz
a pantalla, necesitamos entregarle como parametro la matriz que va a utilizar. Para ello se
agrega [] luego del nombre de la variable, para indicar que se trata de una matriz:
void PrintMatriz(int, double []);
int main(){
double matriz[5] = {3.5, 5.2, 2.4, -0.9, -10.8};
PrintMatriz(5, matriz);
return 0;
}
void PrintMatriz(int i, double a[]){
for (int j = 0; j < i; j++){
cout << "Elemento " << j << " = " << a[j] << endl;
}
}
Observemos que la funcion debe recibir dos parametros, uno de los cuales es la dimension
de la matriz. Esto se debe a que cuando las matrices son usadas como parametros la informacion de su dimension no es traspasada, y debe ser comunicada independientemente. Una
ligera optimizacion al programa anterior es modificar main a:
int main()
{
const int dim = 5;
double matriz[dim] = {3.5, 5.2, 2.4, -0.9, -10.8};
PrintMatriz(dim, matriz);
return 0;
}
De este modo, si eventualmente cambiamos de opinion y deseamos trabajar con matrices
de longitud distinta, solo hay que modificar una lnea de codigo (la primera) en todo el
programa, el cual puede llegar a ser bastante largo por cierto. (En el ejemplo, tambien habra
que cambiar la lnea de inicializacion de la matriz, porque asume que la matriz requiere solo 5
elementos, pero de todos modos debera ser clara la enorme conveniencia.) Podemos reescribir
este programa con un comando de preprocesador para hacer la definicion de la dimension:
#include <iostream>
#define DIM 5

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

314

int main(){
double matriz[DIM] = {3.5, 5.2, 2.4, -0.9, -10.8};
PrintMatriz(DIM, matriz);
return 0;
}
Sin embargo, ninguna de estas alternativas resuelve el problema de que el compilador
espera que la dimension de una matriz sea un entero constante, determinado en el momento
de la compilacion (no de la ejecucion).

9.5.3.

Asignaci
on din
amica.

La reserva de memoria para la matriz podemos hacerla en forma dinamica ocupando el


operador new que pedira al sistema la memoria necesaria, si esta disponible el sistema se
la asignara. Como con cualquier puntero, una vez desocupado el arreglo debemos liberar la
memoria con el comando delete.
#include <iostream>
int main()
{
cout<<"Ingrese la dimension deseada :" ;
int dim ;
cin >> dim ;
double * matriz = new double[dim] ; // Reserva la memoria
for(int i=0; i < dim; i++) {
cout << "Ingrese elemento "<< i <<" : ";
cin >> matriz[i] ;
}
for (int i=0;i<dim;i++){
cout << matriz[i] << ", ";
}
cout << endl;
delete [] matriz
return 0;

// Libera la memoria reservada

}
Este ejemplo permite apreciar una gran ventaja del uso de punteros, al permitirnos liberarnos de definir la dimension de una matriz como una constante. Aqu, dim es simplemente
un int. La asignacion dinamica permite definir matrices cuya dimension se determina recien
durante la ejecucion.
Observemos finalmente que la liberacion de memoria, en el caso de arreglos, se hace con
el operador delete [], no delete como en los punteros usuales.

9.5. MATRICES O ARREGLOS.

9.5.4.

315

Matrices multidimensionales.

Es facil declarar e inicializar matrices de mas de una dimension:


double array[10][8];
int array[2][3] = {{1, 2, 3},
{4, 5, 6}};
Una operacion usual es definir primero las dimensiones de la matriz, y luego llenar sus
elementos uno por uno (o desplegarlos en pantalla), recorriendo la matriz ya sea por filas o
por columnas. Hay que tener cuidado del orden en el cual uno realiza las operaciones. En
el siguiente codigo, definimos una matriz de 10 filas y 3 columnas, la llenamos con ceros
elemento por elemento, y luego inicializamos tres de sus elementos a n
umeros distintos de
cero. Finalmente desplegamos la matriz resultante en pantalla:
#include <iostream>
int main(){
const int dimx=3, dimy=10;
double a[dimy][dimx];
for (int i=0;i<dimy;i++){
for (int j=0;j<dimx;j++){
a[i][j]=0;
}
cout << endl;
}
a[0][0]=1;
a[3][2]=2;
a[9][2]=3;
for (int i=0;i<dimy;i++){
for (int j=0;j<dimx;j++){
cout << a[i][j] << ", ";
}
cout << endl;
}
return 0;
}
Inicializar los elementos a cero inicialmente es particularmente relevante. Si no, la matriz
se llenara con elementos aleatorios.
Tambien es posible definir arreglos bidimensionales dinamicamente. En el siguiente ejemplo, se define una matriz de 200 filas y 400 columnas, inicializandose sus elementos a cero, y
finalmente se borra:

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

316
int main()
{
int width;
int height;
width = 200;
height = 400;

double ** matriz = new double * [width];


for (int i=0;i<width;i++){
matriz[i] = new double[height];
}
for (int i=0;i<width;i++){
for (int j=0;j<height;j++){
matriz[i][j] = 0;
}
}
for (int i=0;i<width;i++){
delete [] matriz[i];
}
delete [] matriz;
return 0;
}
Primero se crea, con new, un puntero (matriz) de dimension 200, que representara las
filas. Cada uno de sus elementos (matriz[i]), a su vez, sera un nuevo puntero, de dimension
400, representando cada columna. Por tanto, matriz debe ser un puntero a puntero (de
dobles, en este caso), y as es definido inicialmente (double ** ...). Esto puede parecer
extra
no a primera vista, pero recordemos que los punteros pueden ser punteros a cualquier
objeto, en particular a otro puntero. Luego se crean los punteros de cada columna (primer
ciclo for). A continuacion se llenan los elementos con ceros (segundo ciclo for). Finalmente,
se libera la memoria, en orden inverso a como fue asignada: primero se libera la memoria de
cada columna de la matriz (delete [] matriz[i], tercer ciclo for), y por u
ltimo se libera
la memoria del puntero a estos punteros (delete [] matriz).

9.5.5.

Matrices de caracteres: cadenas (strings).

Una palabra, frase o texto mas largo es representado internamente por C++ como una
matriz de chars. A esto se le llama cadena (string). Sin embargo, esto ocasiona un problema,
pues las matrices deben ser definidas con dimension constante (a menos que sean definidas
dinamicamente), y las palabras pueden tener longitud arbitraria. La convencion de C++ para

9.5. MATRICES O ARREGLOS.

317

resolver el problema es aceptar que una cadena tiene longitud arbitraria, pero debe indicar
donde termina. Esto se hace con el char nulo: \0. As, para asignar a la variable palabra
el valor Hola, debe definirse como una matriz de dimension 5 (una mas que el n
umero de
letras):
char palabra[5] = {H, o, l, a, \0};
Para escribir Hola en pantalla basta recorrer los elementos de palabra uno a uno:
for (i = 0; i < 5; i++)
{
cout << palabra[i];
}
Si tuvieramos que hacer esto cada vez que queremos escribir algo a pantalla no sera muy
comodo. Por ello, tambien podemos escribir Hola en pantalla simplemente con cout << "Hola",
y de hecho ese fue el primer ejemplo de este captulo. De hecho, la declaracion de palabra
podra haberse escrito:
char palabra[5] = "Hola";
Esto ya es bastante mas comodo, aunque persiste la inconsistencia de definir palabra con
dimension 5, cuando en realidad al lado derecho de la asignacion hay un objeto con solo 4
elementos (visibles).

Este
y otros problemas asociados con el manejo convencional de cadenas en C++ se
resuelven incluyendo el header string.
string.
El codigo anterior se puede reescribir:
#include <iostream>
#include <string>
int main(){
string palabra = "Hola";
cout << palabra << endl;
return 0;
}
Observar que la lnea a incluir es #include <string>, sin la extensi
on .h. Al incluir
string, las cadenas pueden ser declaradas como objetos tipo string en vez de arreglos
de char. El hecho de que ya no tengamos que definir a priori la dimension de la cadena
es una gran ventaja. De hecho, permite ingresar palabras desde el teclado trivialmente, sin
preocuparse de que el input del usuario sea demasiado grande (tal que supere la dimension del
arreglo que podamos haber declarado inicialmente) o demasiado corto (tal que se traduzca
en un despilfarro de memoria por reservar mas memoria para el arreglo de la que realmente
se necesita):

318

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

#include <iostream>
#include <string>
int main(){
string palabra;
cin >> palabra;
return 0;
}
Ademas, este nuevo tipo string permite acceder a un sinn
umero de funciones adicionales
que facilitan enormemente el manejo de cadenas. Por ejemplo, las cadenas se pueden sumar,
donde la suma de cadenas a y b esta definida (siguiendo la intuicion) como la cadena que
resulta de poner b a continuacion de a:
#include <iostream>
#include <string>
int main(){
string texto1 = "Primera palabra";
string texto2 = "Segunda palabra";
cout << texto1 << endl << texto2 << endl;
cout << texto1 + ", " + texto2 << endl;
// La ultima linea es equivalente a:
// string texto3 = texto1 + ", " + texto2;
// cout << texto3 << endl;
return 0 ;
}
El output de este programa sera: Primera palabra, Segunda palabra.
Dijimos que es muy facil ingresar una cadena desde el teclado, pues no es necesario
definir la dimension desde el comienzo. Sin embargo, el codigo anterior, usando cin, no
es muy general, porque el input termina cuando el usuario ingresa el primer cambio de
lnea o el primer espacio. Esto es muy comodo cuando queremos ingresar una serie de valores (por ejemplo, para llenar un arreglo), pues podemos ingresarlos ya sea en la forma:
1<Enter> 2<Enter> 3<Enter>, etc., o 1 2 3, etc, pero no es optimo cuando deseamos ingresar texto, que podra constar de mas de una palabra y, por tanto, necesariamente incluira
espacios (por ejemplo, al ingresar el nombre y apellido de una persona). Sin explicar demasiado por que, digamos que la solucion a este problema es utilizar una funcion asociada a cin
llamada gets, y que espera input desde el teclado hasta que el usuario de el primer cambio
de lnea. Un ejemplo simple lo encontramos en el siguiente codigo:
#include <iostream>
#include <string>
int main(){
string texto1 = "El resultado es: " ;
char * texto2;

9.6. MANEJO DE ARCHIVOS.

319

cin.gets(&texto2);
cout << texto1 + string(texto2) << endl;
return 0;
}
Observamos que gets acepta en realidad un argumento que es un puntero a puntero
de caracteres (texto2 fue declarado como un puntero a char, y gets es llamado con el
argumento &texto2, que es la direccion de memoria asociada a texto2, i.e. el puntero que
apunta a texto2.)
De este modo, gets espera input desde el teclado hasta el primer cambio de lnea, y
asigna la cadena ingresada a texto2. Sin embargo, si despues queremos utilizar texto2 en
conjunto con otras cadenas (definidas como string), sera necesario convertirla explcitamente
a string (ver seccion 9.1.9). En nuestro codigo, deseabamos sumar texto1 con texto2 y
enviar el resultado a pantalla.

9.6.

Manejo de archivos.

Una operacion usual en todo tipo de programas es la interaccion con archivos. Ya sea que
el programa necesite conocer ciertos parametros de configuracion, hacer analisis estadstico
sobre un gran n
umero de datos generados por otro programa, entregar las coordenadas de
los puntos de una trayectoria para graficarlos posteriormente, etc., lo que se requiere es un
modo de ingresar datos desde, o poner datos en, archivos. En C++ ello se efect
ua incluyendo
el header fstream.

9.6.1.

Archivos de salida.

Observemos el siguiente programa:


#include <iostream>
#include <fstream>
int main(){
ofstream nombre_logico("nombre_fisico.dat");
int i = 3, j;
cout << i << endl;
nombre_logico << i << endl;
cout << "Ingrese un numero entero: ";
cin >> j;
cout << i << endl;
nombre_logico << j << endl;
nombre_logico.close();
return 0;
}

320

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

La primera lnea de main define un objeto de tipo ofstream (output file stream). Esto corresponde a un archivo de salida. Dentro de main este archivo sera identificado por
una variable llamada nombre_logico, y correspondera a un archivo en el disco duro llamado nombre_fisico.dat. Naturalmente, el identificador nombre_logico puede ser cualquier
nombre de variable valido para C++, y nombre_fisico.dat puede ser cualquier nombre de
archivo valido para el sistema operativo. En particular, se pueden tambien dar nombres que
incluyan paths absolutos o relativos:
ofstream nombre_logico_1("/home/vmunoz/temp/nombre_fisico.dat");
ofstream nombre_logico_2("../nombre_fisico.dat");
Las lneas tercera y sexta de main envan a nombre_logico (es decir, escribe en
nombre_fisico.dat), las variables i y j. Observar la analoga que existe entre estas operaciones y las que envan la misma informacion a pantalla.4 Si ejecutamos el programa y en
el teclado ingresamos el n
umero 8, al finalizar la ejecucion el archivo nombre_fisico.dat
tendra los dos n
umeros escritos:
3
8
Finalmente, el archivo creado debe ser cerrado (nombre_logico.close()). Si esta u
ltima
operacion se omite en el codigo, no habra errores de compilacion, y el programa se encargara de cerrar por s solo los archivos abiertos durante su ejecucion, pero un buen programador
debiera tener cuidado de cerrarlos explcitamente. Por ejemplo, un mismo programa podra
desear utilizar un mismo archivo mas de una vez, o varios programas podran querer acceder
al mismo archivo, y si no se ha insertado un close en el punto adecuado esto podra provocar
problemas.
El archivo indicado al declarar la variable de tipo ofstream tiene modo de escritura, para
permitir la salida de datos hacia el. Si no existe un archivo llamado nombre_fisico.dat es
creado; si existe, los contenidos antiguos se pierden y son reemplazados por los nuevos. No
siempre deseamos este comportamiento. A veces deseamos agregar la salida de un programa
a un archivo de texto ya existente. En ese caso la declaracion del archivo es diferente, para
crear el archivo en modo append:
#include <iostream>
#include <fstream>
int main(){
ofstream nombre_logico("nombre_fisico.dat",ios::app);
int i = 3;
nombre_logico << i << endl;
nombre_logico.close();
4

Esta analoga no es casual y se entiende con el concepto de clases (Sec. 9.8). fstream e iostream definen
clases que heredan sus propiedades de un objeto abstracto base, com
un a ambas, y que en el caso de iostream
se concreta en la salida est
andar pantalla, y en el de fstream en un archivo.

9.6. MANEJO DE ARCHIVOS.

321

return 0;
}
Si ejecutamos este programa y el archivo nombre_fisico.dat no existe, sera creado. El
resultado sera un archivo con el n
umero 3 en el. Al ejecutarlo por segunda vez, los datos se
ponen a continuacion de los ya existentes, resultando el archivo con el contenido:
3
3
La lnea del tipo ofstream a("b") es equivalente a una del tipo int i=3, declarando
una variable (a/i) de un cierto tipo (ofstream/int) y asignandole un valor simultaneamente
"b"/3. Como para los tipos de variables predefinidos de C++, es posible separar declaracion
y asignacion para una variable de tipo ofstream:
ofstream a;
a.open("b");
es equivalente a ofstream a("b"). Esto tiene la ventaja de que podramos usar el mismo
nombre logico para identificar dos archivos fsicos distintos, usados en distintos momentos
del programa:
ofstream a;
a.open("archivo1.txt");
// Codigo en que "archivo1.txt" es utilizado
a.close();
a.open("archivo2.txt");
// Ahora "archivo2.txt" es utilizado
a.close();
Observar la necesidad del primer close, que permitira liberar la asociacion de a a un nombre
fsico dado, y reutilizar la variable logica en otro momento.
En los ejemplos hemos escrito solamente variables de tipo int en los archivos. Esto por
cierto no es restrictivo. Cualquiera de los tipos de variables de C++ float, double, char,
etc. se puede enviar a un archivo del mismo modo. Dicho esto, en el resto de esta seccion
seguiremos usando como ejemplo el uso de int.

9.6.2.

Archivos de entrada.

Ya sabemos que enviar datos a un archivo es tan facil como enviarlos a pantalla. Como
hacemos ahora la operacion inversa, de leer datos desde un archivo? Como es de esperar, es tan
facil como leerlos desde el teclado. Para crear un archivo en modo de lectura, basta declararlo
de tipo ifstream (input file stream). Por ejemplo, si en nombre_logico.dat tenemos los
siguientes datos:
3
6
9
12

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

322
el siguiente programa,
#include <iostream>
#include <fstream>
int main(){

ifstream nombre_logico("nombre_fisico.dat");
int i, j,k,l;
nombre_logico >> i >> j >> k >> l;
cout << i << "," << j << "," << k << "," << l << endl;
nombre_logico.close();
return 0;
}
sera equivalente a asignar i=3, j=6, k=9, l=12, y luego enviar los datos a pantalla. Observar
que la sintaxis para ingresar datos desde un archivo, nombre_logico >> i, es identica a
cin >> i, para hacerlo desde el teclado. Al igual que cin, espacios en blanco son equivalentes
a cambios de lnea, de modo que el archivo podra haber sido tambien:
3 6 9 12
Por cierto, el ingreso de datos desde un archivo se puede hacer con cualquier tecnica, por
ejemplo, usando un for:
ifstream nombre_logico("nombre_fisico.dat");
int i;
for (int j=0;j<10;j++){
nombre_logico >> i;
cout << i << ",";
}
nombre_logico.close();
}
Como con ofstream, es posible separar declaracion e implementacion:
ifstream a;
a.open("b");
a.close();

9.6.3.

Archivos de entrada y salida.

Ocasionalmente nos encontraremos con la necesidad de usar un mismo archivo, en el


mismo programa, a veces para escribir datos, y otras veces para leer datos. Por ejemplo,
podramos tener una secuencia de datos en un archivo, leerlos, y de acuerdo al analisis de

9.6. MANEJO DE ARCHIVOS.

323

esos datos agregar mas datos a continuacion del mismo archivo, o reemplazar los datos ya
existentes con otros. Necesitamos entonces un tipo de variable flexible, que pueda ser usado
como entrada y salida. Ese tipo es fstream. Todo lo que hemos dicho para ofstream y
ifstream por separado es cierto simultaneamente para fstream.5 Para especificar si el archivo
debe ser abierto en modo de escritura o lectura, open contiene el argumento ios::out o
ios::in, respectivamente. Por ejemplo, el siguiente codigo escribe el n
umero 4 en un archivo,
y luego lo lee desde el mismo archivo:
#include <iostream>
#include <fstream>
int main(){
fstream nombre_logico;
nombre_logico.open("nombre_fisico.dat",ios::out);
int i = 4,j;
nombre_logico << i << endl;
nombre_logico.close();
nombre_logico.open("nombre_fisico.dat",ios::in);
nombre_logico >> j;
j = j++;
cout << j << endl;
nombre_logico.close();
return 0;
}
Las dos primeras lneas de main separan declaracion y asignacion, y son equivalentes a
fstream nombre_logico("nombre_fisico.dat",ios::out);, pero lo hemos escrito as para hacer evidente la simetra entre el uso del archivo como salida primero y como entrada
despues.
De lo anterior, se deduce que:
fstream archivo_salida("salida.dat",ios::out);
fstream archivo_entrada("entrada.dat",ios::in);
es equivalente a
ofstream archivo_salida("salida.dat");
ifstream archivo_entrada("entrada.dat");
5

Nuevamente, este hecho se debe al concepto de clases que subyace a las definiciones de estos tres tipos
de variables; fstream es una clase derivada a la vez de ofstream y de ifstream, heredando las propiedades
de ambas.

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

324

9.7.

main como funci


on.

Para ejecutar un programa compilado en C++, escribimos su nombre en el prompt:


user@host:~/$ programa
Si el mismo usuario desea ejecutar alguno de los comandos del sistema operativo, debe hacer
lo mismo:
user@host:~/$ ls
Sin embargo, ls es en realidad el nombre de un archivo ejecutable en el directorio /bin,
de modo que en realidad no hay diferencias entre nuestro programa y un comando del sistema operativo en ese sentido. Sin embargo, estos pueden recibir argumentos y opciones. Por
ejemplo, para ver todos los archivos que comienzan con l en el directorio local basta con
darle a ls el argumento l*: ls l*. Si queremos ordenar los archivos en orden inverso de
modificacion, basta dar otro argumento, en forma de opcion: ls -tr l*. Se ve entonces que
los argumentos de un archivo ejecutable permiten modificar el comportamiento del programa
de modos especficos.
Es posible hacer lo mismo con archivos ejecutables hechos por el usuario? La respuesta
es s, y para eso se usan los argumentos del main. Recordemos que main es una funcion,
pero hasta el momento no hemos aprovechado esa caracterstica. Simplemente sabemos que
el programa empieza a ejecutarse en la lnea donde esta la funcion main. Ademas, siempre
hemos escrito esa lnea como main(). Sin embargo, main, como cualquier funcion, es capaz de
aceptar argumentos. Especficamente, acepta dos argumentos, el primero es un entero (que
cuenta el n
umero de argumentos que main recibio), y el segundo es un puntero a un arreglo
de caracteres (que contiene los distintos argumentos, en forma de cadenas de caracteres, que
se le entregaron).
Por ejemplo:
#include <iostream>
int main( int argc, char * argv[])
{
for(int i = 0; i < argc; i++) cout << argv[i] << endl ;
return 0;
}
Si llamamos a este programa argumentos, obtenemos distintas salidas al llamarlo con distintos argumentos:
user@host:~/$ argumentos
argumentos
user@host:~/$ argumentos ap k
argumentos
ap
k
user@host:~/$ argumentos -t -s arg1
argumentos


9.7. MAIN COMO FUNCION.

325

-t
-s
arg1
Observar que el primer argumento del programa es siempre el nombre del propio programa.
Naturalmente, este es un ejemplo muy simple. Es tarea del programador decidir como manejar
cada una de las opciones o argumentos que se le entregan al programa desde la lnea de
comandos, escribiendo el codigo correspondiente.
Un segundo aspecto con el cual no hemos sido sistematicos es que main, como toda funcion,
tiene un tipo de retorno. En el caso de main, ese tipo debe ser int. Este int es entregado al
sistema operativo, y puede servir para determinar si el programa se ejecuto con normalidad o
si ocurrio algo anormal. Podramos hacer ese valor de retorno igual a 0 o 1, respectivamente.
As, la siguiente estructura es correcta:
int main(){
// Codigo
return 0;
}
En este caso, el programa entrega siempre el valor 0 al sistema operativo.
Los codigos del tipo:
main(){
// Codigo
}
o
void main(){
// Codigo
}
tambien compilan, pero el compilador emite una advertencia si es llamado con la opcion
-Wall (Warning all ). En el primer caso, la advertencia es:
warning: ANSI C++ forbids declaration main with no type
En el segundo:
return type for main changed to int
En general, siempre es conveniente compilar con la opcion -Wall, para lograr que nuestro
codigo este realmente correcto (g++ -Wall <archivo>.cc -o <archivo>).

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

326

9.8.

Clases.

C++ dispone de una serie de tipos de variables con las cuales nos esta permitido operar:
int, double, char, etc. Creamos variables de estos tipos y luego podemos operar con ellas:
int
x =
y =
int

x, y;
3;
6;
z = x + y;

No hay, sin embargo, en C++, una estructura predefinida que corresponda a n


umeros
complejos, vectores de dimension n o matrices, por ejemplo. Y sin embargo, nos agradara
disponer de n
umeros complejos que pudieramos definir como
z = (3,5);
w = (6,8);
y que tuvieran sentido las expresiones
a
b
c
d
e
f

=
=
=
=
=
=

z + w;
z * w;
z / w;
z + 3;
modulo(z);
sqrt(z);

Todas estas expresiones son completamente naturales desde el punto de vista matematico,
y sera bueno que el lenguaje las entendiera. Esto es imposible en el estado actual, pues, por
ejemplo, el signo + es un operador que espera a ambos lados suyos un n
umero. Sumar cualquier
cosa con cualquier cosa no significa nada necesariamente, as que solo esta permitido operar
con n
umeros. Pero los humanos sabemos que los complejos son n
umeros. Como decrselo
al computador? Como convencerlo de que sumar vectores o matrices es tambien posible
matematicamente, y que el mismo signo + debera servir para todas estas operaciones?
La respuesta es: a traves del concepto de clases. Lo que debemos hacer es definir una clase
de n
umeros complejos. Llamemosla Complejo. Una vez definida correctamente, Complejo
sera un tipo mas de variable que el compilador reconocera, igual que int, double, char, etc.
Y sera tan facil operar con los Complejos como con todos los tipos de variables preexistentes.
Esta facilidad es la base de la extensibilidad de que es capaz C++, y por tanto de todas las
propiedades que lo convierten en un lenguaje muy poderoso.
Las clases responden a la necesidad del programador de construir objetos o tipos de datos
que respondan a sus necesidades. Si necesitamos trabajar con vectores de 5 coordenadas,
sera natural definir una clase que corresponda a vectores con 5 coordenadas; si se trata de
un programa de administracion de personal, la clase puede corresponder a un empleado, con
sus datos personales como elementos.
Si bien es cierto uno puede trabajar con clases en el contexto de orientacion al procedimiento, las clases muestran con mayor propiedad su potencial con la orientacion al objeto,
donde cada objeto corresponde a una clase. Por ejemplo, para efectuar una aplicacion para
X-windows, la ventana principal, las ventanas de los archivos abiertos, la barra de men
u, las
cajas de dialogo, los botones, etc., cada uno de estos objetos estara asociado a una clase.

9.8. CLASES.

9.8.1.

327

Definici
on.

Digamos que queremos una clase para representar a los empleados de una empresa.
Llamemosla Persona. La convencion aceptada es que los nombres de las clases comiencen
con may
uscula. Esto es porque las clases, recordemos, corresponderan a tipos de variables
tan validos como los internos de C++ (int, char, etc.). Al usar nombres con may
uscula
distinguimos visualmente los nombres de un tipo de variable interno y uno definido por el
usuario.
La estructura mnima de la definicion de la clase Persona es:
class Persona
{
};
Todas las caractersticas de la clase se definen entre los parentesis cursivos.

9.8.2.

Miembros.

Se denomina miembros de una clase a todas las variables y funciones declaradas dentro de
una clase. Por ejemplo, para personas, es natural caracterizarlas por su nombre y su edad. Y
si se trata de empleados de una empresa, es natural tambien tener una funcion que entregue
su sueldo:
class Persona
{
string nombre;
fecha nacimiento;
int rut;
double edad();
};
Los miembros de una clase pueden tener cualquier nombre, excepto el nombre de la propia
clase dentro de la cual se definen, ese nombre esta reservado.

9.8.3.

Miembros p
ublicos y privados.

Una clase distingue informacion (datos o funciones) privada (accesible solo a otros miembros de la misma clase) y p
ublica (accesible a funciones externas a la clase). La parte privada
corresponde a la estructura interna de la clase, y la parte p
ublica a la implementacion (tpicamente funciones), que permite la interaccion de la clase con el exterior.
Consideremos ahora nuestro deseo de tener una clase que represente n
umeros complejos.
Un n
umero complejo tiene dos n
umeros reales (parte real e imaginaria), y esos son elementos
privados, es decir, parte de su estructura interna. Sin embargo, nos gustara poder modificar
y conocer esas cantidades. Eso solo puede hacerse a traves de funciones p
ublicas.

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

328

class Complejo
{
private:
double real, imaginaria;
public:
void setreal(double);
void setimag(double);
double getreal();
double getimag();
};
En este ejemplo, los miembros privados son solo variables, y los miembros p
ublicos son solo

funciones. Este
es el caso tpico, pero puede haber variables y funciones de ambos tipos.

9.8.4.

Operador de selecci
on (.).

Hemos definido una clase de n


umeros complejos y funciones que nos permiten conocer
y modificar las partes real e imaginaria. Como se usan estos elementos? Consideremos el
siguiente programa de ejemplo:
class Complejo
{
private:
double real, imaginaria;
public:
void setreal(double);
void setimag(double);
double getreal();
double getimag();
};
int main()
{
Complejo z, w;
z.setreal(3);
z.setimag(2.8);
w.setreal(1.5);
w.setimag(5);
cout << "El primer numero complejo es: " << z.getreal()
<< " + i*" << z.getimag() << endl;
cout << "El segundo es: " << w.getreal() << " + i*"
<< z.getimag() << endl;
return 0;
}

9.8. CLASES.

329

Vemos en la primera lnea de main como la clase Complejo se usa del mismo modo que
usaramos int o double. Ahora Complejo es un tipo de variable tan valido como los tipos
predefinidos por C++. Una vez definida la variable, el operador de seleccion (.) permite
acceder a las funciones p
ublicas correspondientes a la clase Complejo, aplicadas a la variable
particular que nos interesa: z.setreal(3) pone en la parte real del Complejo z el n
umero
3, y w.setreal(1.5) hace lo propio con w.

9.8.5.

Implementaci
on de funciones miembros.

Ya sabemos como declarar funciones miembros en el interior de la clase y como usarlas.


Ahora veamos como se implementan.
void Complejo::setreal(double x)
{
real = x;
}
void Complejo::setimag(double x)
{
imaginaria = x;
}
double Complejo::getreal()
{
return real;
}
double Complejo::getimag()
{
return imaginaria;
}
Como toda funcion, primero va el tipo de la funcion (void o double en los ejemplos), luego
el nombre de la funcion y los argumentos. Finalmente la implementacion. Lo diferente es que
el nombre va precedido del nombre de la clase y el operador :: .

9.8.6.

Constructor.

Al declarar una variable, el programa crea el espacio de memoria suficiente para alojarla.
Cuando se trata de variables de tipos predefinidos en C++ esto no es problema, pero cuando
son tipos definidos por el usuario, C++ debe saber como construir ese espacio. La funcion
que realiza esa tarea se denomina constructor.
El constructor es una funcion p
ublica de la clase, que tiene el mismo nombre que ella.
Agreguemos un constructor a la clase Complejo:
class Complejo

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

330

{
private:
double real,imaginaria;
public:
Complejo(double,double);
void setreal(double);
void setimag(double);
double getreal();
double getimag();
};
Complejo::Complejo (double x, double y)
: real(x), imaginaria(y)
{}
Definir el constructor de esta manera nos permite crear en nuestro programa variables de
tipo Complejo y asignarles valores sin usar setreal() o setimag():
Complejo z (2, 3.8);
Complejo w = Complejo(6.8, -3);
En el constructor se inicializan las variables internas que nos interesa inicializar al momento de crear un objeto de esta clase.
Si una de las variables internas a inicializar es una cadena de caracteres, hay que inicializarla de modo un poco distinto. Por ejemplo, si estamos haciendo una clase OtraPersona
que solo tenga el nombre de una persona, entonces podemos definir la clase y su constructor
en la forma:
class OtraPersona
{
private:
char nombre[20];
public:
Persona(char []);
};
Persona::Persona(char a[])
{
strcpy(nombre,a);
}
Si uno no especifica el constructor de una clase C++ crea uno default, pero en general
sera insuficiente para cualquier aplicacion realmente practica. Es una mala costumbre ser
descuidado y dejar estas decisiones al computador.

9.8.7.

Destructor.

As como es necesario crear espacio de memoria al definir una variable, hay que deshacerse
de ese espacio cuando la variable deja de ser necesaria. En otras palabras, la clase necesita

9.9. SOBRECARGA.

331

tambien un destructor . Si la clase es Complejo, el destructor es una funcion p


ublica de ella,
llamada ~Complejo.
class Complejo
{
private:
double real, imaginaria;
public:
Complejo(double,double);
~Complejo();
void setreal(double);
void setimag(double);
double getreal();
double getimag();
};
Complejo::Complejo (double x, double y): real(x), imaginaria(y)
{
}
Complejo::~Complejo()
{
}
Como con los constructores, al omitir un destructor C++ genera un default, pero es una
mala costumbre. . . , etc.

9.8.8.

Arreglos de clases.

Una clase es un tipo de variable como cualquier otra de las predefinidas en C++. Es
posible construir matrices con ellas, del mismo modo que uno tiene matrices de enteros o
caracteres. La u
nica diferencia con las matrices usuales es que no se pueden solo declarar,
sino que hay que inicializarlas simultaneamente. Por ejemplo, si queremos crear una matriz
que contenga 2 n
umeros complejos, la lnea
Complejo z[2];
es incorrecta, pero s es aceptable la lnea
Complejo z[2] = {Complejo(3.5,-0.8), Complejo(-2,4)};

9.9.

Sobrecarga.

Para que la definicion de nuevos objetos sea realmente u


til, hay que ser capaz de hacer
con ellos muchas acciones que nos seran naturales. Como ya comentamos al introducir el
concepto de clase, nos gustara sumar n
umeros complejos, y que esa suma utilizara el mismo

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

332

signo + de la suma usual. O extraerles la raz cuadrada, y que la operacion sea tan facil
como escribir sqrt(z). Lo que estamos pidiendo es que el operador + o la funcion sqrt()
sean polim
orficos, es decir, que act
uen de distinto modo seg
un el tipo de argumento que
se entregue. Si z es un real, sqrt(z) calculara la raz de un n
umero real; si es complejo,
calculara la raz de un n
umero complejo.
La tecnica de programacion mediante la cual podemos definir funciones polimorficas se
llama sobrecarga.

9.9.1.

Sobrecarga de funciones.

Digamos que la raz cuadrada de un n


umero complejo a + ib es (a/2) + i(b/2). (Es mas
complicado en realidad, pero no queremos escribir las formulas ahora.)
Para sobrecargar la funcion sqrt() de modo que acepte n
umeros complejos basta definirla
as:
Complejo sqrt(Complejo z)
{
return Complejo (z.getreal()/2, z.getimag()/2);
}
Observemos que definimos una funcion sqrt que acepta argumentos de tipo Complejo, y que
entrega un n
umero del mismo tipo. Cuando pidamos la raz de un n
umero, el computador
se preguntara si el n
umero en cuestion es un int, double, float o Complejo, y seg
un eso
escogera la version de sqrt que corresponda.
Con la definicion anterior podemos obtener la raz cuadrada de un n
umero complejo
simplemente con las instrucciones:
Complejo z(1,3);
Complejo raiz = sqrt(z);

9.9.2.

Sobrecarga de operadores.

Como le decimos al computador que el signo + tambien puede aceptar n


umeros complejos? La respuesta es facil, porque para C++ un operador no es sino una funcion, y la accion
de sobrecargar que ya vimos sirve en este caso tambien. La sintaxis es:
Complejo operator + (Complejo z, Complejo w)
{
return Complejo (z.getreal() + w.getreal(),
z.getimag() + w.getimag());
}

9.9.3.

Coerci
on.

Sabemos definir a + b, con a y b complejos. Pero que pasa si a o b son enteros? O reales?
Pareciera que tendramos que definir no solo

9.10. HERENCIA.

333

Complejo operator + (Complejo a, Complejo b);


sino tambien todas las combinaciones restantes:
Complejo operator + (Complejo a, int b);
Complejo operator + (Complejo a, float b);
Complejo operator + (int a, Complejo b);
etcetera.
En realidad esto no es necesario. Por cierto, un n
umero real es un n
umero complejo con
parte imaginaria nula, y es posible hacerle saber esto a C++, usando la posibilidad de definir
funciones con parametros default. Basta declarar (en el interior de la clase) el constructor de
los n
umeros complejos como
Complejo (double, double = 0);
Esto permite definir un n
umero complejo con la instruccion:
Complejo c = Complejo(3.5);
resultando el n
umero complejo 3,5 + i 0. Y si tenemos una lnea del tipo:
Complejo c = Complejo(3,2.8) + 5;
el computador convertira implcitamente el entero 5 a Complejo (sabe como hacerlo porque
el constructor de n
umeros complejos acepta tambien un solo argumento en vez de dos), y
luego realizara la suma entre dos complejos, que es entonces la u
nica que es necesario definir.

9.10.

Herencia.

Herencia es el mecanismo mediante el cual es posible definir clases a partir de otras,


preservando parte de las propiedades de la primera y agregando o modificando otras.
Por ejemplo, si definimos la clase Persona, toda Persona tendra una variable miembro
que sea su nombre. Si definimos una clase Hombre, tambien sera Persona, y por tanto debera
tener nombre. Pero ademas puede tener esposa. Y ciertamente no toda Persona tiene esposa.
Solo un Hombre.
C++ provee mecanismos para implementar estas relaciones logicas y poder definir una
clase Hombre a partir de Persona. Lo vemos en el siguiente ejemplo:
class Persona
{
private:
string nombre;
public:
Persona(string = "");
~Persona();
string getname();
}

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

334

class Hombre : public Persona


{
private:
string esposa;
public:
Hombre(string) : Persona(a)
{ };
string getwife();
void setwife(string);
}
Primero definimos una clase Persona que tiene nombre. Luego definimos una clase Hombre
a partir de Persona (con la lnea class Hombre : public Persona). Esto permite de modo
automatico que Hombre tenga tambien una variable nombre. Y finalmente, dentro de la clase
Hombre, se definen todas aquellas caractersticas adicionales que una Persona no tiene pero
un Hombre s: esposa, y funciones miembros para modificar y obtener el nombre de ella.
Un ejemplo de uso de estas dos clases:
Persona cocinera("Maria");
Hombre panadero("Claudio");
panadero.setwife("Estela");
cout << cocinera.getname() << endl;
cout << panadero.getname() << endl;
cout << panadero.getwife() << endl;
Observemos que panadero tambien tiene una funcion getname(), a pesar de que la clase
Hombre no la define explcitamente. Esta funcion se ha heredado de la clase de la cual Hombre
se ha derivado, Persona.

9.11.

Compilaci
on y debugging.

9.11.1.

Compiladores.

El comando para usar el compilador de lenguaje C es gcc, para usar el compilador de


C++ es g++ y para usar el compilador de fortran 77 es g77. Centremosnos en el compilador
de C++, los demas funcionan en forma muy similar. Su uso mas elemental es:
g++ filename.cc
Esto compila el archivo filename.cc y crea un archivo ejecutable que se denomina a.out
por omision. Existen diversas opciones para el compilador, solo comentaremos una pocas.
-c realiza solo la compilacion pero no el link:
g++ -c filename.cc
genera el archivo filename.o que es codigo objeto.

9.12. MAKE & MAKEFILE.

335

-o exename define el nombre del ejecutable creado, en lugar del por defecto a.out.
g++ -o outputfile filename.cc
-lxxx incluye la librera /usr/lib/libxxx.a en la compilacion.
g++ filename.cc -lm
En este caso se compila con la biblioteca matematica libm.a.
-g permite el uso de un debugger posteriormente.
-On optimizacion de grado n que puede tomar valores de 1 (por defecto) a 3. El objetivo
inicial del compilador es reducir el tiempo de la compilacion. Con -On, el compilador
trata de reducir el tama
no del ejecutable y el tiempo de ejecucion, con n se aumenta el
grado de optimizacion.
-Wall notifica todos los posibles warnings en el codigo que esta siendo compilado.
-L/path1 -I/path2/include incluye en el camino de b
usqueda /path1/ para las bibliotecas y /path2/include para los archivos de cabecera (headers).
El compilador gcc (the GNU C compiler) es compatible ANSI.

9.12.

make & Makefile.

Frecuentemente los programas estan compuestos por diferentes subprogramas que se hayan contenidos en diferentes archivos. La orden de compilacion necesaria puede ser muy
engorrosa, y a menudo no es necesario volver a compilar todos los archivos, sino solo aquellos que hayan sido modificados. unix dispone de una orden denominada make que evita
los problemas antes mencionados y permite el mantenimiento de una biblioteca personal de
programas. Este comando analiza que archivos fuentes han sido modificados despues de la
u
ltima compilacion y evita recompilaciones innecesarias.
En su uso mas simple solo es necesario suministrar una lista de dependencias y/o instrucciones a la orden make en un archivo denominado Makefile. Una dependencia es la relacion
entre dos archivos de forma que un archivo se considera actualizado siempre que el otro tenga una fecha de modificacion inferior a este. Por ejemplo, si el archivo file.cc incluye el
archivo file.h, no se puede considerar actualizado el archivo file.o si el archivo file.cc
o el archivo file.h ha sido modificado despues de la u
ltima compilacion. Se dice que el
archivo file.o depende de file.cc y el archivo file.cc depende del archivo file.h. El
Makefile se puede crear con un editor de texto y tiene el siguiente aspecto para establecer
una dependencia:
# Esto es un ejemplo de Makefile.
# Se pueden poner comentarios tras un caracter hash (#).
FILE1: DEP1 DEP2
comandos para generar FILE1
ETIQUETA1: FILE2
FILE2: DEP3 DEP4

336

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

comandos para generar FILE2


ETIQUETA2:
comandos
Se comienza con un destino, seguido de dos puntos (:) y los prerrequisitos o dependencias
necesarios. Tambien puede ponerse una etiqueta y como dependencia un destino, o bien una
etiqueta y uno o mas comandos. Si existen muchos prerrequisitos, se puede finalizar la lnea
con un backslash (\) y continuar en la siguiente lnea.
En la(s) lnea(s) siguiente(s) se escriben uno o mas comandos. Cada lnea se considera
como un comando independiente. Si se desea utilizar m
ultiples lneas para un comando,
se debera poner un backslash (\) al final de cada lnea del comando. El comando make
conectara las lneas como si hubieran sido escritas en una u
nica lnea. En esta situacion, se
deben separar los comandos con un punto y coma (;) para prevenir errores en la ejecucion de
el shell. Los comandos deben ser indentados con un tabulador, no con 8 espacios
Make lee el Makefile y determina para cada archivo destino (empezando por el primero) si
los comandos deben ser ejecutados. Cada destino, junto con los prerrequisitos o dependencias,
es denominado una regla.
Si make se ejecuta sin argumentos, solo se ejecutara el primer destino. Veamos un ejemplo:
file.o: file.cc file.h
g++ -c file.cc
En este caso se comprueban las fechas de las u
ltima modificaciones de los archivos file.cc y
file.h; si esta fecha es mas reciente que las del archivo file.o se procede a la compilacion.
El comando make se puede suministrar con un argumento, que indica la etiqueta situada
a la izquierda de los dos puntos. As en el ejemplo anterior podra invocarse make file.o..
Gracias a las variables, un Makefile se puede simplificar significativamente. Las variables
se definen de la siguiente manera:
VARIABLE1=valor1
VARIABLE2=valor2
Una variable puede ser utilizada en el resto del Makefile refiriendonos a ella con la expresion
$(VARIABLE). Por defecto, make sabe las ordenes y dependencias (reglas implcitas) para
compilar un archivo *.cc y producir un archivo *.o, entonces basta especificar solamente
las dependencias que make no puede deducir a partir de los nombres de los archivos, por
ejemplo:
OUTPUTFILE = prog
OBJS = prog.o misc.o aux.o
INCLUDESMISC = misc.h aux.h
INCLUDESFILE = foo.h $(INCLUDESMISC)
LIBS = -lmylib -lg++ -lm
prog.o: $(INCLUDESFILE)
misc.o: $(INCLUDESMISC)
aux.o: aux.h
$(OUTPUTFILE): $(OBJS)

9.12. MAKE & MAKEFILE.

337

gcc $(OBJS) -o $(OUTPUTFILE) $(LIBS)


Las reglas patrones son reglas en las cuales se especifican m
ultiples destinos y construye
el nombre de las dependencias para cada blanco basada en el nombre del blanco. La sintaxis
de una regla patron:
destinos ... : destino patron:dependencias patrones
comandos
La lista de destinos especifica aquellos sobre los que se aplicara la regla. El destino patron y
las dependencias patrones dicen como calcular las dependencias para cada destino. Veamos
un ejemplo:
objects = foo.o \
bar.o
all: $(objects)
$(objects): %.o: %.cc
$(CXX) -c $(CFLAGS) $< -o $@
Cada uno de los destinos (foo.o bar.o) es comparado con el destino patron %.o para extraer
parte de su nombre. La parte que se extrae es conocida como el tronco o stem, foo y bar en
este caso. A partir del tronco y la regla patron de las dependencias %.cc make construye los
nombres completos de ellas (foo.cc bar.cc). Ademas, en el comando del ejemplo anterior
aparecen un tipo de variables especiales conocidas como automaticas. La variable $< mantiene el nombre de la dependencia actual y la variable $@ mantiene el nombre del destino
actual. Finalmente un ejemplo completo:
#
# Makefile para el programa eapp
#_________________________________________________________
CXX = g++
CXXFLAGS = -Wall -O3 -mcpu=i686 -march=i686
#CXXFLAGS = -Wall -g
LIBS = -lm
BIN = eapp
OBJECTS = eapp.o md.o atoms.o vectores.o metalesEA.o Monte_Carlo.o\
string_fns.o nlista.o rij2.o velver2.o cbc2.o nforce.o \
temperature.o controles.o inparamfile.o \
azar.o velver3.o funciones.o observables.o
$(BIN): $(OBJECTS)
$(CXX) $(OBJECTS) -o $(BIN) $(LIBS)

338

A C++.
CAPITULO 9. UNA BREVE INTRODUCCION

$(OBJECTS): %.o:%.cc
$(CXX) -c $(CXXFLAGS) $< -o $@
clean:
rm -fr $(OBJECTS) $(BIN)
#End

Captulo 10
Gr
afica.
versi
on final 2.2-021217

En este captulo queremos mostrar algunas de las posibilidades graficas presentes en


Linux. Cubriendo temas como la visualizacion, conversion, captura y creacion de archivos
graficos. Solo mencionaremos las aplicaciones principales en cada caso centrandonos en sus
posibilidades mas que en su utilizacion especfica, ya que la mayora posee una interfase
sencilla de manejar y con amplia documentacion.

10.1.

Visualizaci
on de archivos gr
aficos.

Si disponemos de un archivo grafico conteniendo alg


un tipo de imagen lo primero que es
importante determinar es en que tipo de formato grafico esta codificada. Existe un n
umero
realmente grande de diferentes tipos de codificaciones de imagenes, cada una de ellas se
considera un formato grafico. Por razones de reconocimiento inmediato del tipo de formato
grafico se suelen incluir en el nombre del archivo, que contiene la imagen, un tro de letras
finales, conocidas como la extension, que representan el formato. Por ejemplo: bmp, tiff, jpg,
ps, eps, fig, gif entre muchas otras.
De que herramientas disponemos en Linux para visualizar estas imagenes? La respuesta
es que en Linux se dispone de variadas herramientas para este efecto.
Si se trata de archivos de tipo PostScript o Encapsulated PostScript, identificados por la
extension ps o eps, existen las aplicaciones gv, gnome-gv o kghostview, todos programas que
nos permitiran visualizar e imprimir este tipo de archivos. Si los archivos son tipo Portable
Document Format, con extension pdf, tenemos las aplicaciones gv, acroread o xpdf, Con
todas ellas podemos ver e imprimir dicho formato. Una mencion especial requieren los archivos
DeVice Independent con extension dvi ya que son el resultado de la compilacion de un
documento TEX o LATEX, para este tipo de archivo existen las aplicaciones xdvi y kdvi entre
otras. La primera aplicacion solo permite visualizar estos archivos y no imprimirlos, para
hacer esto, los archivos se transforman a ps y se imprime como cualquier otro Postscript.
Para la gran mayora de formatos graficos mas conocidos y usualmente usados para almacenar fotos existen otra serie se programas especializados en visualizacion que son capaces
de entender la mayora de los formatos mas usados. Entre estos programas podemos mencionar: Eye of Gnome (eog), Electric Eyes (eeyes), kview o display. Podemos mencionar que
aplicaciones como display entienden sobre ochenta formatos graficos distintos entre los que
se encuentran ps, eps, pdf, fig, html, entre muchos otros.
339


CAPITULO 10. GRAFICA.

340

10.2.

Modificando im
agenes

Si queremos modificaciones como rotaciones, ampliaciones, cortes, cambios de paleta de


colores, filtros o efectos sencillos, display es la herramienta precisa. Pero si se desea intervenir
la imagen en forma profesional, el programa gimp es el indicado. El nombre gimp viene de
GNU Image Manipulation Program. Se puede usar esta aplicacion para editar y manipular
imagenes. Pudiendo cargar y salvar en una variedad de formatos, lo que permite usarlo para
convertir entre ellos. Gimp puede tambien ser usado como programa de pintar, de hecho
posee una gran variedad de herramientas en este sentido, tales como brocha de aire, lapiz
clonador, tijeras inteligentes, curvas bezier, etc. Ademas, permite incluir plugins que realizan
gran variedad de manipulaciones de imagen. Como hecho anecdotico podemos mencionar que
la imagen oficial de Tux, el ping
uino mascota de Linux, fue creada en gimp.

10.3.

Conversi
on entre formatos gr
aficos.

El problema de transformar de un formato a otro es una situacion usual en el trabajo


con archivos graficos. Muchos softwares tienen salidas muy restringidas en formato o con
formatos arcaicos (gif) y se presenta la necesidad de convertir estos archivos de salida en
otros formatos que nos sean mas manejables o practicos. Como ya se menciono, gimp puede
ser usado para convertir entre formatos graficos. Tambien display permite este hecho. Sin
embargo, en ambos casos la conversion es va men
us, lo cual lo hace engorroso para un gran
n
umero de conversiones e imposible para conversiones de tipo automatico. Existe un programa
llamado convert que realiza conversiones desde la lnea de comando. Este programa junto
con display, import y varios otros forman la suite grafica ImageMagick, una de las mas
importantes en unix, en general, y en especial en Linux y que ya ha sido migrada a otras
plataformas. Ademas, de la clara ventaja de automatizacion que proporciona convert, posee
otro aspecto interesante, puede convertir un grupo de imagenes asociadas en una secuencia
de animacion o pelcula. Veamos la sintaxis para este programa:
user@host:~/imagenes$convert cockatoo.tiff cockatoo.jpg
user@host:~/secuencias$convert -delay 20 dna.* dna.gif
En el primer caso convierte el archivo cockatoo de formato tiff a formato jpg. En el
segundo, a partir de un conjunto de archivos gif numerados correlativamente, crea una
secuencia animada con imagenes que persisten por 20 centesimas de segundos en un formato
conocido como gif animado, muy usado en sitios en Internet.

10.4.

Captura de pantalla.

A menudo se necesita guardar imagenes que solo se pueden generar a tiempo de ejecucion,
es decir, mientras corre nuestro programa genera la imagen pero no tiene un mecanismo propio
para exportarla o salvarla como imagen. En este caso necesitamos capturar la pantalla y
poderla almacenar en un archivo para el cual podamos elegir el formato. Para estos efectos


10.5. CREANDO IMAGENES.

341

existe un programa, miembro tambien de la suite ImageMagick, llamado import que permite
hacer el trabajo. La sintaxis es
import figure.eps
import -window root root.jpg
En el primer caso uno da el comando en un terminal y queda esperando hasta que uno toque
alguna de las ventanas, la cual es guardada en este caso en un archivo figure.eps en formato
PostScript. La extension le indica al programa que formato usar para almacenar la imagen.
En el segundo caso uno captura la pantalla completa en un archivo root.jpeg. Este comando
puede ser dado desde la consola de texto para capturar la imagen completa en la pantalla
grafica.

10.5.

Creando im
agenes.

Para imagenes artsticas sin duda la alternativa es gimp, todo le que se dijo respecto a
sus posibilidades para modificar imagenes se aplica tambien en el caso de crearlas. En el
caso de necesitar imagenes mas bien tecnicas como esquemas o diagramas o una ilustracion
para aclarar un problema la alternativa de xfig es muy poderosa. El programa xfig es una
herramienta manejada por men
us que permite dibujar y manipular objetos interactivamente.
Las imagenes pueden ser salvadas, en formato xfig, y posteriormente editadas. La documentacion del programa esta en html y es facil de accesar y muy completa. La gran ventaja de
xfig es que trabaja con objetos y no con bitmaps. Ademas, puede exportar las imagenes
a una gran cantidad de formatos: LATEX, Metafont, PostScript o Encapsulated PostScript o
bien gif, jpeg y muchos otros.
Habitualmente los dibujos necesarios para ilustrar problemas en Fsica en tareas, pruebas
y apuntes son realizados con este software, exportados a PostScript e incluidos en los respectivos archivos LATEX. Tambien existe una herramienta extremadamente u
til que permite
convertir un archivo PostScript, generado de cualquier manera, a un archivo fig que puede
ser editado y modificado. Esta aplicacion que transforma se llama pstoedit y puede llegar
a ser realmente practica.
Una aparente limitacion de xfig es que se podra pensar que no podemos incluir curvas
analticas, es decir, si necesitamos ilustrar una funcion gaussiana no podemos pretender dibujarla con las herramientas de que dispone xfig como resolver este problema?, simple
veremos que un software que grafica funciones analticas como gnuplot permite exportar en
formato fig luego xfig puede leer el archivo y editarlo. Ademas, xfig permite importar e
incluir imagenes del tipo bitmap, agregando riqueza a los diagramas que puede generar.
Una caracterstica destacable del programa es que trabaja por capas, las cuales son tratadas independientemente, uno puede poner un objeto sobre otro o por debajo de otro logrando
diferentes efectos. Algunos programas de presentacion graficos basados en LATEX y pdf estan
utilizando esta capacidad para lograr animaciones de imagenes.
Finalmente este programa permite construir una biblioteca de objetos reutilizables ahorrando mucho trabajo. Por ejemplo, si uno dibuja los elementos de un circuito electrico y los
almacena en el lugar de las bibliotecas de imagenes podra incluir estos objetos en futuros
trabajos. El programa viene con varias bibliotecas de objetos listas para usar.


CAPITULO 10. GRAFICA.

342

10.6.

Graficando funciones y datos.

Existen varias aplicaciones que permiten graficar datos de un archivo, entre las mas populares estan: gnuplot, xmgrace y SciGraphica. La primera esta basada en la lnea de comando
y permite graficos en 2 y 3 dimensiones, pudiendo ademas, graficar funciones directamente
sin pasar por un archivo de datos. Las otras dos son aplicaciones basadas en men
us que
permiten un resultado final de mucha calidad y con m
ultiples variantes. La debilidad en el
caso de xmgrace es que solo hace graficos bidimensionales.
El programa gnuplot se invoca de la lnea de comando y da un prompt en el mismo
terminal desde el cual se puede trabajar, veamos una sesion de gnuplot:
jrogan@huelen:~$ gnuplot
G N U P L O T
Version 3.7 patchlevel 2
last modified Sat Jan 19 15:23:37 GMT 2002
System: Linux 2.4.19
Copyright(C) 1986 - 1993, 1998 - 2002
Thomas Williams, Colin Kelley and many others
Type help to access the on-line reference manual
The gnuplot FAQ is available from
http://www.gnuplot.info/gnuplot-faq.html
Send comments and requests for help to <info-gnuplot@dartmouth.edu>
Send bugs, suggestions and mods to <bug-gnuplot@dartmouth.edu>

Terminal type set to x11


gnuplot> plot sqrt(x)
gnuplot> set xrange[0:5]
gnuplot> set xlabel" eje de las x"
gnuplot> replot
gnuplot> set terminal postscript
Terminal type set to postscript
Options are landscape noenhanced monochrome dashed defaultplex "Helvetica" 14
gnuplot> set output "mygraph.ps"
gnuplot> replot
gnuplot> set terminal X
Terminal type set to X11
Options are 0
gnuplot> set xrange[-2:2]
gnuplot> set yrange[-2:2]
gnuplot> splot exp(-x*x-y*y)
gnuplot> plot "myfile.dat" w l

10.7. GRAFICANDO DESDE NUESTROS PROGRAMAS.

343

gnuplot> exit
jrogan@huelen:~$
En el caso de xmgrace y SciGraphica mucho mas directo manejarlo ya que esta basado en men
us. Ademas, existe abundante documentacion de ambos softwares. El software
SciGraphica es una aplicacion de visualizacion y analisis de data cientfica que permite
el despliegue de graficos en 2 y 3 dimensiones, ademas, exporta los resultados a formato
PostScript. Realmente esta aplicacion nacio como un intento de clonar el programa comercial
origen no disponible para Linux.

10.7.

Graficando desde nuestros programas.

Finalmente para poder graficar desde nuestro propio programa necesitamos alguna biblioteca grafica, en nuestro caso usaremos la biblioteca iglu, hecha completamente en casa. El
comando de compilacion incluido en un script, que llamaremos iglu_compila, y que contiene
las siguientes lneas:
#!/bin/bash
g++ -Wall -O3 -o $1 $1.cc -L. -L/usr/X11R6/lib/ -liglu -lX11 -lm
Veamos algunos ejemplos:
/* Ejemplo: sen(x) */
#include <cmath>
#include iglu.h
int main()
{
IgluDibujo v;
const int N=100;
double x[N], y[N];
v.map_coordinates(0,2*M_PI,-1.2,1.2);
double dx = 2*M_PI/(N-1);
for (int i=0;i<N;i++){
x[i] = i*dx;
y[i] = sin(x[i]);
}
v.plot_line(x,y,N);
v.flush();
v.wait();
return 0;
}
Este programa grafica la funcion seno con un n
umero de puntos dado.
Otro caso, una primitiva animacion

344
/* Ejemplo sen(x-vt) */
#include <cmath>
#include "iglu.h"
int main(){
IgluDibujo v;
const int N=100, Nt=100;
double x[N], y[N];
v.map_coordinates(0,2*M_PI,-1.2,1.2);
double dx = 2*M_PI/(N-1), dt = .1, t=0;
for (int j=0;j<Nt;j++){
v.clean();
t += dt*j;
for (int i=0;i<N;i++){
x[i] = i*dx;
y[i] = sin(x[i]-.1*t);
}
v.plot_line(x,y,N);
v.wait(1);
v.flush();
}
v.wait();
return 0;
}

CAPITULO 10. GRAFICA.

Captulo 11
Una breve introducci
on a
Octave/Matlab
versi
on 2.0-021217

11.1.

Introducci
on

Octave es un poderoso software para analisis numerico y visualizacion. Muchos de sus


comandos son compatibles con Matlab. En estos apuntes revisaremos algunas caractersticas
de estos programas. En realidad, el autor de este captulo ha sido usuario durante algunos a
nos
de Matlab, de modo que estos apuntes se han basado en ese conocimiento, considerando los
comandos que le son mas familiares de Matlab. En la mayora de las ocasiones he verificado
que los comandos descritos son tambien compatibles con Octave, pero ocasionalmente se
puede haber omitido algo. . . .
Matlab es una abreviacion de Matrix Laboratory. Los elementos basicos con los que se
trabaja con matrices. Todos los otros tipos de variables (vectores, texto, polinomios, etc.),
son tratados como matrices. Esto permite escribir rutinas optimizadas para el trabajo con
matrices, y extender su uso a todos los otros tipos de variables facilmente.

11.2.

Interfase con el programa

Con Octave/Matlab se puede interactuar de dos modos: un modo interactivo, o a traves


de scripts. Al llamar a Octave/Matlab (escribiendo octave en el prompt, por ejemplo), se
nos presenta un prompt. Si escribimos a=1, el programa respondera a=1. Alternativamente,
podemos escribir a=3; (con punto y coma al final), y el programa no respondera (elimina
el eco), pero almacena el nuevo valor de a. Si a continuacion escribimos a, el programa
respondera a=3. Hasta este punto, hemos usado el modo interactivo.
Alternativamente, podemos introducir las instrucciones anteriores en un archivo, llamado,
por ejemplo, prueba.m. En el prompt, al escribir prueba, y si nuestro archivo esta en el path
de b
usqueda del programa, las lneas de prueba.m seran ejecutadas una a una. Por ejemplo,
si el archivo consta de las siguientes cuatro lneas:
a=3;
a
345

A OCTAVE/MATLAB
CAPITULO 11. UNA BREVE INTRODUCCION

346
a=5
a

el programa respondera con


a=3
a=5
a=5
prueba.m corresponde a un script. Todas las instrucciones de Octave/Matlab pueden ejecutarse tanto en modo interactivo como desde un script. En Linux se puede ejecutar un archivo
de comandos Octave de modo stand-alone incluyendo en la primera lnea:
#!/usr/bin/octave -q.

11.3.

Tipos de variables

11.3.1.

Escalares

A pesar de que estos son solo un tipo especial de matrices (ver subseccion siguiente),
conviene mencionar algunas caractersticas especficas.
Un n
umero sin punto decimal es tratado como un entero exacto. Un n
umero con punto
decimal es tratado como un n
umero en doble precision. Esto puede no ser evidente
en el output. Por default, 8.4 es escrito en pantalla como 8.4000. Tras la instruccion
format long, sin embargo, es escrito como 8.40000000000000. Para volver al formato
original, basta la instruccion format.
Octave/Matlab acepta n
umeros reales y complejos. La unidad imaginaria es i: 8i y
8*i definen el mismo n
umero complejo. Como i es una varible habitualmente usada
en iteraciones, tambien esta disponible j como un sinonimo. Octave/Matlab distinguen
entre may
usculas y min
usculas.
Octave/Matlab representa de manera especial los infinitos y cantidades que no son
n
umeros. inf es infinito, y NaN es un no-n
umero (Not-a-Number). Por ejemplo, escribir
a=1/0 no arroja un error, sino un mensaje de advertencia, y asigna a a el valor inf.
Analogamente, a=0/0 asigna a a el valor NaN.

11.3.2.

Matrices

Este tipo de variable corresponde a escalares, vectores fila o columna, y matrices convencionales.
Construcci
on
Las instrucciones:
a = [1 2 ; 3 4]

11.3. TIPOS DE VARIABLES

347

o
a = [1, 2; 3, 4]


1 2
definen la matriz
. Las comas (opcionales) separan elementos de columnas distintas,
3 4
y los punto y coma separan elementos de filas distintas. El vector fila (1 2) es
b = [1 2]
 
1
y el vector columna
es
2
c = [1;2]
Un n
umero se define simplemente como d = [3] o d = 3.
Nota importante: Muchas funciones de Octave/Matlab en las paginas siguientes aceptan indistintamente escalares, vectores filas, vectores columnas, o matrices, y su output es
un escalar, vector o matriz, respectivamente. Por ejemplo, log(a) es un vector fila si a es un
vector fila (donde cada elemento es el logaritmo natural del elemento correspondiente en a),
y un vector columna si a es un vector columna. En el resto de este manual no se advertira
este hecho, y se pondran ejemplos con un solo tipo de variable, en el entendido que el lector
esta conciente de esta nota.
Acceso y modificaci
on de elementos individuales
Accesamos los elementos de cada matriz usando los ndices de filas y columnas, que parten
de uno. Usando la matriz a antes definida, a(1,2) es 2. Para modificar

 un elemento, basta
1 2
escribir, por ejemplo, a(2,2) = 5. Esto convierte a la matriz en
. En el caso especial
3 5
de vectores filas o columnas, basta un ndice. (En los ejemplos anteriores, b(2) = c(2) = 2.)
Una caracterstica muy importante del programa es que toda matriz es redimensionada
automaticamente cuando se intenta modificar un elemento que sobrepasa las dimensiones
actuales de la matriz, llenando con ceros los lugares necesarios. Por ejemplo, si b = [1 2],
y en seguida intentamos la asignacion b(5) = 8, b es automaticamente convertido al vector
fila de 5 elementos [1 2 0 0 8].
Concatenaci
on de matrices


 

1 2
7
Si a =
,b= 5 6 ,c=
, entonces
3 4
8
d = [a c]


1 2 7
d=
3 4 8
d = [a; b]

1 2
d = 3 4
5 6

348

A OCTAVE/MATLAB
CAPITULO 11. UNA BREVE INTRODUCCION

d = [a [0; 0] c]


1 2 0 7
d=
3 4 0 8

11.3. TIPOS DE VARIABLES

11.3.3.

349

Strings

Las cadenas de texto son casos particulares de vectores fila, y se construyen y modifican
de modo identico.
Construcci
on
Las instrucciones
t
t
t
t

=
=
=
=

[un buen texto]


["un buen texto"]
un buen texto
"un buen texto"

definen el mismo string t.


Acceso y modificaci
on de elementos individuales
r = t(4)
r = b
t(9) = s
texto = un buen sexto

Concatenaci
on
t = un buen texto;
t1 = [t es necesario]
t1 = un buen texto es necesario

11.3.4.

Estructuras

Las estructuras son extensiones de los tipos de variables anteriores. Una estructura consta
de distintos campos, y cada campo puede ser una matriz (es decir, un escalar, un vector o
una matriz), o una string.
Construcci
on
Las lneas
persona.nombre = Eduardo
persona.edad = 30
persona.matriz_favorita = [2 8;10 15];
definen una estructura con tres campos, uno de los cuales es un string, otro un escalar, y otro
una matriz:

A OCTAVE/MATLAB
CAPITULO 11. UNA BREVE INTRODUCCION

350

persona =
{
nombre = Eduardo;
edad = 30;
matriz_favorita = [2 8; 10 15];
}
Acceso y modificaci
on de elementos individuales
s = persona.nombre
s = Eduardo
persona.nombre = Claudio
persona.matriz_favorita(2,1) = 8
persona =
{
nombre = Claudio;
edad = 30;
matriz_favorita = [2 8; 8 15];
}

11.4.

Operadores b
asicos

11.4.1.

Operadores aritm
eticos

Los operadores +, -, * corresponden a la suma, resta y multiplicacion convencional de


matrices. Ambas matrices deben tener la misma dimension, a menos que una sea un escalar.
Un escalar puede ser sumado, restado o multiplicado de una matriz de cualquier dimension.
.* y ./ permiten multiplicar y dividir elemento por elemento. Por ejemplo, si




1 2
5 6
a=
b=
3 4
7 8
entonces
c = a.*b


5 12
c=
21 32
c = a./b


0,2
0,3333
c=
0,42857
0,5

Si b es un escalar, a.*b y a./b equivalen a a*b y a/b.


a^b es a elevado a b, si b es un escalar. a.^b eleva cada elemento de a a b.
a es la matriz a (traspuesta y conjugada)
a. es la matriz traspuesta de a.


11.4. OPERADORES BASICOS

11.4.2.

351

Operadores relacionales

Los siguientes operadores estan disponibles:


< <= > >= == ~=
El resultado de estas operaciones es 1 (verdadero) o 0 (falso). Si uno de los operandos
es una matriz y el otro un escalar, se compara el escalar con cada elemento de la matriz.
Si ambos operandos son matrices, el test se realiza elemento por elemento; en este caso, las
matrices deben ser de igual dimension. Por ejemplo,
a
b
c
d

=
=
=
=

[1 2 3];
[4 2 1];
(a<3);
(a>=b);

c = (1, 1, 0)
d = (0, 1, 1)

11.4.3.

Operadores l
ogicos

Los siguientes smbolos corresponden a los operadores AND, OR y NOT:


& | ~
El resultado de estas operaciones es 1 (verdadero) o 0 (falso).

11.4.4.

El operador :

Es uno de los operadores fundamentales. Permite crear vectores y extraer submatrices.


: crea vectores de acuerdo a las siguientes reglas:
es lo mismo que [j,j+1,...,k], si j<=k.
es lo mismo que [j,j+i,j+2*i,...,k], si i>0 y j<k, o si i<0 y j>k.

j:k
j:i:k

: extrae submatrices de acuerdo a las siguientes reglas:


A(:,j)
A(i,:)
A(:,:)
A(:,j:k)
A(:)

11.4.5.

es la j-esima columna de A.
es la i-esima fila de A.
es A.
es A(:,j), A(:,j+1), . . . , A(:,k).
son todos los elementos de A, agrupados en una u
nica columna.

Operadores de aparici
on preferente en scripts

Los siguientes operadores es mas probable que aparezcan durante la escritura de un script
que en modo interactivo.
% : Comentario. El resto de la lnea es ignorado.
... : Continuacion de lnea. Si una lnea es muy larga y no cabe en la pantalla, o por alguna
otra razon se desea dividir una lnea, se puede usar el operador ... . Por ejemplo,

A OCTAVE/MATLAB
CAPITULO 11. UNA BREVE INTRODUCCION

352
m = [1 2 3 ...
4 5 6];
es equivalente a

m = [1 2 3 4 5 6];

11.5.

Comandos matriciales b
asicos

Antes de revisar una a una diversas familias de comandos disponibles, y puesto que las
matrices son el elemento fundamental en Octave/Matlab, en esta seccion reuniremos algunas
de las funciones mas frecuentes sobre matrices, y como se realizan en Octave/Matlab.
Op. aritmetica
Conjugar
Trasponer
Trasponer y conjugar
Invertir
Autovalores, autovectores
Determinante
Extraer elementos
Traza
Dimensiones
Exponencial

11.6.

+, -, *, .*, /
conj(a)
a.
a
inv(a)
[v,d]=eig(a)
det(a)
:
trace(a)
size(a)
exp(a)
expm(a)

(ver subseccion 11.4.1)

(ver subseccion 11.6.5)


(ver subseccion 11.4.4)

(elemento por elemento)


(exponencial matricial)

Comandos

En esta seccion revisaremos diversos comandos de uso frecuente en Octave/Matlab. Esta


lista no pretende ser exhaustiva (se puede consultar la documentacion para mayores detalles),
y esta determinada por mi propio uso del programa y lo que yo considero mas frecuente
debido a esa experiencia. Insistimos en que ni la lista de comandos es exhaustiva, ni la lista
de ejemplos o usos de cada comando lo es. Esto pretende ser solo una descripcion de los
aspectos que me parecen mas importantes o de uso mas recurrente.

11.6.1.
clear

Comandos generales
Borra variables y funciones de la memoria

clear
clear a
disp

Borra todas las variables en memoria


Borra la variable a

Presenta matrices o texto

11.6. COMANDOS

353

disp(a) presenta en pantalla los contenidos de una matriz, sin imprimir el nombre de la
matriz. a puede ser una string.
disp(
c1
disp([.3 .4]);

load, save

c1
c2
0,30000 0,40000

Carga/Guarda variables desde el disco

save fname a b
load fname

size,length

c2);

Guarda las variables a y b en el archivo fname


Lee el archivo fname, cargando las definiciones de variables
en el definidas.

Dimensiones de una matriz/largo de un vector

Si a es una matrix de n m:
d = size(a)
[m,n] = size(a)

d = [m,n]
Aloja en m el n
umero de filas, y en n el de columnas

Si b es un vector de n elementos, length(b) es n.


who
quit

Lista de variables en memoria


Termina Octave/Matlab

11.6.2.

Como lenguaje de programaci


on

Control de flujo
for
n=3;
for i=1:n
a(i)=i^2;
end

a=[1 4 9]

Para Octave el vector resultante es columna en vez de fila.


Observar el uso del operador : para generar el vector [1 2 3]. Cualquier vector se puede
utilizar en su lugar: for i=[2 8 9 -3], for i=10:-2:1 (equivalente a [10 8 6 4 2]), etc.
son validas. El ciclo for anterior se podra haber escrito en una sola lnea as:
for i=1:n, a(i)=i^2; end
if, elseif, else
Ejemplos:
a) if a~=b, disp(a); end

A OCTAVE/MATLAB
CAPITULO 11. UNA BREVE INTRODUCCION

354

b) if a==[3 8 9 10]
b = a(1:3);
end
c) if a>3
clear a;
elseif a<0
save a;
else
disp(Valor de a no considerado);
end
Naturalmente, elseif y else son opcionales. En vez de las expresiones condicionales
indicadas en el ejemplo pueden aparecer cualquier funcion que de valores 1 (verdadero) o 0
(falso).
while
while s
comandos
end
Mientras s es 1, se ejecutan los comandos entre while y end. s puede ser cualquier
expresion que de por resultado 1 (verdadero) o 0 (falso).
break
Interrumpe ejecucion de ciclos for o while. En loops anidados, break sale del mas interno
solamente.
Funciones l
ogicas
Ademas de expresiones construidas con los operadores relacionales ==, <=, etc., y los
operadores logicos &, | y ~, los comandos de control de flujo anteriores admiten cualquier
funcion cuyo resultado sea 1 (verdadero) o 0 (falso). Particularmente u
tiles son funciones
como las siguientes:
all(a)
any(a)
isempty(a)

1 si todos los elementos de a son no nulos, y 0 si alguno es


cero
1 si alguno de los elementos de a es no nulo
1 si a es matriz vaca (a=[])

Otras funciones entregan matrices de la misma dimension que el argumento, con unos o
ceros en los lugares en que la condicion es verdadera o falsa, respectivamente:
finite(a)
isinf(a)
isnan(a)

1 donde a es finito (no inf ni NaN)


1 donde a es infinito
1 donde a es un NaN

Por ejemplo, luego de ejecutar las lneas

11.6. COMANDOS
x
y
a
b
c

=
=
=
=
=

355

[-2 -1 0 1 2];
1./x;
finite(y);
isinf(y);
isnan(y);

se tiene
a = [1 1 0 1 1]
b = [0 0 1 0 0]
c = [0 0 0 0 0]
Otra funcion logica muy importante es find:
find(a)

Encuentra los ndices de los elementos no nulos de a.

Por ejemplo, si ejecutamos las lneas


x=[11 0 33 0 55];
z1=find(x);
z2=find(x>0 & x<40);
obtendremos
z1 = [1 3 5]
z2 = [1 3]
find tambien puede dar dos resultados de salida simultaneamente (mas sobre esta posibilidad en la seccion 11.6.2), en cuyo caso el resultado son los pares de ndices (ndices de fila
y columna) para cada elemento no nulo de una matriz
y=[1 2 3 4 5;6 7 8 9 10];
[z3,z4]=find(y>8);
da como resultado
z3 = [2;2];
z4 = [4;5];
z3 contiene los ndice de fila y z4 los de columna para los elementos
de la matriz
 no nulos

2 4
y>8. Esto permite construir, por ejemplo, la matriz z5=[z3 z4] =
, en la cual cada
2 5
fila es la posicion de y tal que la condicion y>8 es verdadera (en este caso, es verdadera para
los elementos y(2,4) e y(2,5)).

356

A OCTAVE/MATLAB
CAPITULO 11. UNA BREVE INTRODUCCION

Funciones definidas por el usuario


Octave/Matlab puede ser facilmente extendido por el usuario definiendo nuevas funciones
que le acomoden a sus propositos. Esto se hace a traves del comando function.
Podemos definir (en modo interactivo o dentro de un script), una funcion en la forma
function nombre (argumentos)
comandos
endfunction
argumentos es una lista de argumentos separados por comas, y comandos es la sucesion
de comandos que seran ejecutados al llamar a nombre. La lista de argumentos es opcional,
en cuyo caso los parentesis redondos se pueden omitir.
A mediano y largo plazo, puede ser mucho mas conveniente definir las funciones en archivos especiales, listos para ser llamados en el futuro desde modo interactivo o desde cualquier script. Esto se hace escribiendo la definicion de una funcion en un script con extension
.m. Cuando Octave/Matlab debe ejecutar un comando o funcion que no conoce, por ejemplo, suma(x,y),busca en los archivos accesibles en su path de b
usqueda un archivo llamado
suma.m, lo carga y ejecuta la definicion contenida en ese archivo.
Por ejemplo, si escribimos en el script suma.m las lneas
function s=suma(x,y)
s = x+y;
el resultado de suma(2,3) sera 5.
Las funciones as definidas pueden entregar mas de un argumento si es necesario (ya hemos
visto algunos ejemplos con find y size). Por ejemplo, definimos una funcion que efect
ue un
analisis estadstico basico en stat.m:
function [mean,stdev] = stat(x)
n = length(x);
mean = sum(x)/n;
stdev = sqrt(sum((x-mean).^2/n));
Al llamarla en la forma [m,s] = stat(x), si x es un vector fila o columna, en m quedara el
promedio de los elementos de x, y en s la desviacion estandard.
Todas las variables dentro de un script que define una funcion son locales, a menos que
se indique lo contrario con global. Por ejemplo, si un script x.m llama a una funcion f, y
dentro de f.m se usa una variable a que queremos sea global, ella se debe declarar en la
forma global a tanto en f.m como en el script que la llamo, x.m, y en todo otro script que
pretenda usar esa variable global.

11.6.3.

Matrices y variables elementales

Matrices constantes importantes


Las siguientes son matrices que se emplean habitualmente en distintos contextos, y que
es u
til tener muy presente:

11.6. COMANDOS
eye(n)
ones(m,n)
rand(m,n)
randn(m,n)
zeros(m,n)

357
Matriz identidad de n n
Matriz de m n, con todos los elementos igual a 1.
Matriz de m n de n
umeros al azar, distribuidos uniformemente.
Igual que rand, pero con distribucion normal (Gaussiana).
Igual que ones, pero con todos los elementos 0.

Matrices u
tiles para construir ejes o mallas para graficar
v = linspace(min,max,n)
v = logspace(min,max,n)
[X,Y] = meshgrid(x,y)

Vector cuyo primer elemento es min, su u


ltimo elemento
es max, y tiene n elementos equiespaciados.
Analogo a linspace, pero los n elementos estan espaciados logartmicamente.
Construye una malla del plano x-y. Las filas de X son
copias del vector x, y las columnas de Y son copias del
vector y.

Por ejemplo:
x = [1 2 3];
y = [4 5];
[X,Y] = meshgrid(x,y);
da


X=


1 2 3
,
1 2 3


Y =


4 4 4
.
5 5 5

Notemos que al tomar sucesivamente los pares ordenados (X(1,1),Y(1,1)), (X(1,2),Y(1,2)),


(X(1,3),Y(1,3)), etc., se obtienen todos los pares ordenados posibles tales que el primer elemento esta en x y el segundo esta en y. Esta caracterstica hace particularmente u
til el
comando meshgrid en el contexto de graficos de funciones de dos variables (ver secciones
11.6.7, 11.6.7).
Constantes especiales
Octave/Matlab proporciona algunos n
umeros especiales, algunos de los cuales ya mencionamos en la seccion 11.3.1.

i, j
Unidad imaginaria ( 1 )
inf
Infinito
NaN
Not-A-Number
pi
El n
umero (= 3,1415926535897 . . .)
Funciones elementales
Desde luego, Octave/Matlab proporciona todas las funciones matematicas basicas. Por
ejemplo:

A OCTAVE/MATLAB
CAPITULO 11. UNA BREVE INTRODUCCION

358

a) Funciones sobre n
umeros reales/complejos
Valor absoluto de n
umeros reales, o modulo de n
umeros imaginarios

abs
angle

Angulo
de fase de un n
umero imaginario
Complejo conjugado
Parte real
Parte imaginaria
Signo
Raz cuadrada

conj
real
imag
sign
sqrt

b) Exponencial y funciones asociadas


cos, sin, etc.
cosh, sinh, etc.
exp
log

Funciones trigonometricas
Funciones hiperbolicas
Exponencial
Logaritmo

c) Redondeo
Redondear
Redondear
Redondear
Redondear

ceil
fix
floor
round

hacia
hacia
hacia
hacia

+
cero

el entero mas cercano

Funciones especiales
Ademas, Octave/Matlab proporciona diversas funciones matematicas especiales. Algunos
ejemplos:
bessel
besselh
beta
ellipke
erf
gamma

Funcion
Funcion
Funcion
Funcion
Funcion
Funcion

de Bessel
de Hankel
beta
elptica
error
gamma

As, por ejemplo, bessel(alpha,X) eval


ua la funcion de Bessel de orden alpha, J (x),
para cada elemento de la matriz X.

11.6.4.

Polinomios

Octave/Matlab representa los polinomios como vectores fila. El polinomio


p = cn xn + + c1 x + c0
es representado en Octave/Matlab en la forma
p = [c_n, ..., c1, c0]

11.6. COMANDOS

359

Podemos efectuar una serie de operaciones con los polinomios as representados.


poly(x)
polyval(p,x)
roots(p)

11.6.5.

Polinomio cuyas races son los elementos de x.


Eval
ua el polinomio p en x (en los elementos de x si este es
un vector)
Races del polinomio p

Algebra
lineal (matrices cuadradas)

Unos pocos ejemplos, entre los comandos de uso mas habitual:


Determinante
N
umero de filas o columnas linealmente independientes
Traza
Matriz inversa
Autovalores y autovectores
Polinomio caracterstico

det
rank
trace
inv
eig
poly

Notar que poly es la misma funcion de la seccion 11.6.4 que construye un polinomio de
races dadas. En el fondo, construir el polinomio caracterstico de una matriz es lo mismo,
y por tanto tiene sentido asignarles la misma funcion. Y no hay confusion, pues una opera
sobre vectores y la otra sobre matrices cuadradas.
El uso de todos estos comandos son autoexplicativos, salvo eig, que se puede emplear de
dos modos:
d = eig(a)
[V,D] = eig(a)
La primera forma deja en d un vector con los autovalores de a. La segunda, deja en D una
matriz diagonal con los autovalores, y en V una matiz cuyas columnas son los autovalores, de
modo que A*V = V*D. Por ejemplo, si a =[1 2; 3 4], entonces


5,37228
d=
0,37228
y

D=

5,37228 . . .
0
0
0,37228 . . .


,

V =

0,41597 . . . 0,82456 . . .
0,90938 . . . 0,56577 . . .


.

La primera columna de V es el autovector de a asociado al primer autovalor, 5,37228 . . ..

11.6.6.

An
alisis de datos y transformada de Fourier

En Octave/Matlab estan disponibles diversas herramientas para el analisis de series de


datos (estadstica, correlaciones, convolucion, etc.). Algunas de las operaciones basicas son:
a) Maximos y mnimos
Si a es un vector, max(a) es el mayor elemento de a. Si es una matriz, max(a) es un vector
fila, que contiene el maximo elemento para cada columna.

A OCTAVE/MATLAB
CAPITULO 11. UNA BREVE INTRODUCCION

360

a = [1 6 7; 2 8 3; 0 4 1]
b = max(a)

b = (2

7)

Se sigue que el mayor elemento de la matriz se obtiene con max(max(a)).


min opera de modo analogo, entregando los mnimos.
b) Estadstica basica
Las siguientes funciones, como min y max, operan sobre vectores del modo usual, y sobre
matrices entregando vectores fila, con cada elemento representando a cada columna de la
matriz.
mean
median
std
prod
sum

Valor promedio
Mediana
Desviacion standard
Producto de los elementos
Suma de los elementos

c) Orden
sort(a) ordena los elementos de a en orden ascendente si a es un vector. Si es una matriz,
ordena cada columna.
b = sort([1 3 9; 8 2 1; 4 -3 0]);

1 3 0
b = 4 2 1
8 3 9

d) Transformada de Fourier
Por u
ltimo, es posible efectuar transformadas de Fourier directas e inversas, en una o dos
dimensiones. Por ejemplo, fft y ifft dan la transformada de Fourier y la transformada
inversa de x, usando un algoritmo de fast Fourier transform (FFT). Especficamente, si
X=fft(x) y x=ifft(X), y los vectores son de largo N:
X(k) =

N
X

(j1)(k1)

x(j)N

j=1
N
1 X
(j1)(k1)
x(j) =
X(k)N
,
N k=1

donde N = e2i/N .

11.6.7.

Gr
aficos

Una de las caractersticas mas importantes de Matlab son sus amplias posibilidades graficas. Algunas de esas caractersticas se encuentran tambien en Octave. En esta seccion revisaremos el caso de graficos en dos dimensiones, en la siguiente el caso de tres dimensiones, y
luego examinaremos algunas posibilidades de manipulacion de graficos.

11.6. COMANDOS

361

Gr
aficos bidimensionales
Para graficar en dos dimensiones se usa el comando plot. plot(x,y) grafica la ordenada
y versus la abscisa x. plot(y) asume abscisa [1,2,...n], donde n es la longitud de y.
Ejemplo: Si x=[2 8 9], y=[6 3 2], entonces
plot(x,y)

Figura 11.1: Grafico simple.

Por default, Octave utiliza gnuplot para los graficos. Por default, los puntos se conectan
con una lnea roja en este caso. El aspecto de la lnea o de los puntos puede ser modificado.
Por ejemplo, plot(x,y,ob) hace que los puntos sean indicados con crculos (o) azules
(b, blue). Otros modificadores posibles son:
.
@
+
*
o
x

lnea (default)
puntos
otro estilo de puntos
signo mas
asteriscos
crculos
cruces

r
g
b
m
c
w

red
green
blue
magenta
cyan
white

Dos o mas graficos se pueden incluir en el mismo output agregando mas argumentos a
plot. Por ejemplo: plot(x1,y1,x,x2,y2,og,x3,y3,.c).
Los mapas de contorno son un tipo especial de grafico. Dada una funcion z = f (x, y),
nos interesa graficar los puntos (x, y) tales que f = c, con c alguna constante. Por ejemplo,
consideremos
2
2
z = xex y , x [2, 2], y [2, 3] .
Para obtener el grafico de contorno de z, mostrando los niveles z = ,3, z = ,1, z = 0,
z = ,1 y z = ,3, podemos usar las instrucciones:
x = -2:.2:2;
y = -2:.2:3;
[X,Y] = meshgrid(x,y);

362

A OCTAVE/MATLAB
CAPITULO 11. UNA BREVE INTRODUCCION

Z = X.*exp(-X.^2-Y.^2);
contour(Z.,[-.3 -.1 0 .1 .3],x,y);
# Octave por default (gnuplot)
contour(x, y, Z.,[-.3 -.1 0 .1 .3]); # Octave con plplot y Matlab

Figura 11.2: Curvas de contorno.

Las dos primeras lneas definen los puntos sobre los ejes x e y en los cuales la funcion
sera evaluada. En este caso, escojimos una grilla en que puntos contiguos estan separados por
.2. Para un mapa de contorno, necesitamos evaluar la funcion en todos los pares ordenados
(x, y) posibles al escoger x en x e y en y. Para eso usamos meshgrid (introducida sin mayores
explicaciones en la seccion 11.6.3). Luego evaluamos la funcion [Z es una matriz, donde cada
elemento es el valor de la funcion en un par ordenado (x, y)], y finalmente construimos el
mapa de contorno para los niveles deseados.
Gr
aficos tridimensionales
Tambien es posible realizar graficos tridimensionales. Por ejemplo, la misma doble gaussiana de la seccion anterior se puede graficar en tres dimensiones, para mostrarla como una
superficie z(x, y). Basta reemplazar la u
ltima instruccion, que llama a contour, por la siguiente:
mesh(X,Y,Z)
Observar que, mientras contour acepta argumentos dos de los cuales son vectores, y el
tercero una matriz, en mesh los tres argumentos son matrices de la misma dimension (usamos
X, Y, en vez de x, y).
Nota importante: Otro modo de hacer graficos bi y tridimensionales es con gplot
y gsplot (instrucciones asociadas realmente no a Octave sino a gnuplot, y por tanto no
equivalentes a instrucciones en Matlab). Se recomienda consultar la documentacion de Octave
para los detalles.

11.6. COMANDOS

363

Figura 11.3: Curvas de contorno.

Manipulaci
on de gr
aficos
Los siguientes comandos estan disponibles para modificar graficos construidos con Octave/Matlab:
a) Ejes
axis([x1 y1 x2 y2])

Cambia el eje x al rango (x1, x2), y el eje y al rango (y1, y2).

b) Ttulos
title(s)
xlabel(s)
ylabel(s)
zlabel(s)

Ttulo (s es un string)
Ttulo del eje x, y, z.

c) Grillas
grid

Incluye o borra una grilla de referencia en un grafico bidimensional. grid on coloca la grilla y grid off la saca.
grid equivale a grid on.

Al usar gnuplot, el grafico mostrado en pantalla no es actualizado automaticamente.


Para actualizarlo y ver las modificaciones efectuadas, hay que dar la instruccion replot.
Los siguientes comandos permiten manipular las ventanas graficas:

A OCTAVE/MATLAB
CAPITULO 11. UNA BREVE INTRODUCCION

364

Permite congelar la figura actual, de modo que sucesivos


comandos graficos se superponen sobre dicha figura (normalmente la figura anterior es reemplazada por la nueva).
hold on activa este congelamiento, y hold off lo desactiva. hold cambia alternativamente entre el estado on y off.
Cierra la ventana actual.

hold

closeplot

Finalmente, si se desea guardar un grafico en un archivo, se puede proceder del siguiente


modo si Octave esta generando los graficos con gnuplot y se trabaja en un terminal con
XWindows. Si se desea guardar un grafico de la funcion y = x3 , por ejemplo:
x = linspace(1,10,30);
y = x.^3;
plot(x,y);
gset term postscript color
gset output xcubo.ps
replot
gset term x11
Las tres primeras lneas son los comandos de Octave/Matlab convencionales para graficar.
Luego se resetea el terminal a un terminal postscript en colores (gset term postscript si
no deseamos los colores), para que el output sucesivo vaya en formato postscript y no a
la pantalla. La siguiente lnea indica que la salida es al archivo xcubo.ps. Finalmente, se
redibuja el grafico (con lo cual el archivo xcubo.ps es realmente generado), y se vuelve al
terminal XWindows para continuar trabajando con salida a la pantalla.
Debemos hacer notar que no necesariamente el grafico exportado a Postscript se vera igual
al resultado que gnuplot muestra en pantalla. Durante la preparacion de este manual, nos
dimos cuenta de ello al intentar cambiar los estilos de lnea de plot. Queda entonces advertido
el lector.

11.6.8.

Strings

Para manipular una cadena de texto, disponemos de los siguientes comandos:


lower
upper

Convierte a min
usculas
Convierte a may
usculas

As, lower(Texto) da texto, y upper(Texto) da TEXTO.


Para comparar dos matrices entre s, usamos strcmp:
strcmp(a,b)

1 si a y b son identicas, 0 en caso contrario

Podemos convertir n
umeros enteros o reales en strings, y strings en n
umeros, con los
comandos:
int2str
num2str
str2num

Convierte entero en string


Convierte n
umero en string
Convierte string en n
umero

11.6. COMANDOS

365

Por ejemplo, podemos usar esto para construir un ttulo para un grafico:
s = [Intensidad transmitida vs. frecuencia, n = , num2str(1.5)];
title(s);
Esto pondra un ttulo en el grafico con el texto:
Intensidad transmitida vs. frecuencia, n = 1.5.

11.6.9.

Manejo de archivos

Ocasionalmente nos interesara grabar el resultado de nuestros calculos en archivos, o


utilizar datos de archivos para nuevos calculos. El primer paso es abrir un archivo:
archivo = fopen(archivo.dat,w);
Esto abre el archivo archivo.dat para escritura (w), y le asigna a este archivo un n
umero
que queda alojado en la variable archivo para futura referencia.
Los modos de apertura posibles son:
r
w
a
r+
w+
a+

Abre para lectura


Abre para escritura, descartando contenidos anteriores si los
hay
Abre o crea archivo para escritura, agregando datos al final
del archivo si ya existe
Abre para lectura y escritura
Crea archivo para lectura y escritura
Abre o crea archivo para lectura y escritura, agregando datos
al final del archivo si ya existe

En un archivo se puede escribir en modo binario:


fread
fwrite

Lee datos binarios


Escribe datos binarios

o en modo texto
fgetl
fgets
fprintf
fscanf

Lee una lnea del archivo, descarta cambio de lnea


Lee una lnea del archivo, preserva cambio de lnea
Escribe datos siguiendo un formato
Lee datos siguiendo un formato

Referimos al lector a la ayuda que proporciona Octave/Matlab para interiorizarse del


uso de estos comandos. Solo expondremos el uso de fprintf, pues el formato es algo que
habitualmente se necesita tanto para escribir en archivos como en pantalla, y fprintf se
puede usar en ambos casos.
La instruccion
fprintf(archivo,formato,A,B,...)

A OCTAVE/MATLAB
CAPITULO 11. UNA BREVE INTRODUCCION

366

imprime en el archivo asociado con el identificador archivo (asociado al mismo al usar fopen,
ver mas arriba), las variables A, B, etc., usando el formato formato. archivo=1 corresponde
a la pantalla; si archivo se omite, el default es 1, es decir, fprintf imprime en pantalla si
archivo=1 o si se omite el primer argumento.
formato es una string, que puede contener caracters normales, caracteres de escape o
especificadores de conversion. Los caracteres de escape son:
\n
\t
\b
\r
\f
\\
\

New line
Horizontal tab
Backspace
Carriage return
Form feed
Backslash
Single quote

Por ejemplo, la lnea


fprintf(Una tabulacion\t y un {\o}riginal\\ cambio de linea\n aqui\n)
da como resultado
Una tabulacion
aqui

y un original cambio de linea

Es importante notar que por default, el cambio de lnea al final de un fprintf no existe,
de modo que, si queremos evitar salidas a pantalla o a archivo poco esteticas, siempre hay
que terminar con un \n.
Los especificadores de conversion permiten dar formato adecuado a las variables numericas
A, B, etc. que se desean imprimir. Constan del caracter %, seguido de indicadores de ancho
(opcionales), y caracteres de conversion. Por ejemplo, si deseamos imprimir el n
umero con
5 decimales, la instruccion es:
fprintf(Numero pi = %.5f\n,pi)
El resultado:
Numero pi = 3.14159
Los caracteres de conversion pueden ser
%e
%f
%g

Notacion exponencial (Ej.: 2.4e-5)


Notacion con punto decimal fijo (Ej.: 0.000024)
%e o %f, dependiendo de cual sea mas corto (los ceros no
significativos no se imprimen)

Entre % y e, f, o g seg
un corresponda, se pueden agregar uno o mas de los siguientes
caracteres, en este orden:
Un signo menos (-), para especificar alineamiento a la izquierda (a la derecha es el
default).

11.6. COMANDOS

367

Un n
umero entero para especificar un ancho mnimo del campo.
Un punto para separar el n
umero anterior del siguiente n
umero.
Un n
umero indicando la precision (n
umero de dgitos a la derecha del punto decimal).
En el siguiente ejemplo veremos distintos casos posibles. El output fue generado con las
siguientes instrucciones, contenidas en un script:
a = .04395;
fprintf(123456789012345\n);
fprintf(a = %.3f.\n,a);
fprintf(a = %10.2f.\n,a);
fprintf(a = %-10.2f.\n,a);
fprintf(a = %4f.\n,a);
fprintf(a = %5.3e.\n,a);
fprintf(a = %f.\n,a);
fprintf(a = %e.\n,a);
fprintf(a = %g.\n,a);
El resultado:
12345678901234567890
a = 0.044.
a =
0.04.
a = 0.04
.
a = 0.043950.
a = 4.395e-02.
a = 0.043950.
a = 4.395000e-02.
a = 0.04395.
En la primera lnea, se imprimen tres decimales. En la segunda, dos, pero el ancho mnimo
es 10 caracteres, de modo que se alnea a la derecha el output y se completa con blancos. En
la tercera lnea es lo mismo, pero alineado a la izquierda. En la cuarta lnea se ha especificado
un ancho mnimo de 4 caracteres; como el tama
no del n
umero es mayor, esto no tiene efecto
y se imprime el n
umero completo. En la quinta lnea se usa notacion exponencial, con tres
decimal (nuevamente, el ancho mnimo especificado, 5, es menor que el ancho del output,
luego no tiene efecto). Las u
ltimas tres lneas comparan el output de %f, %e y %g, sin otras
especificaciones.
Si se desean imprimir mas de un n
umero, basta agregar las conversiones adecuadas y los
argumentos en fprintf. As, la lnea
fprintf(Dos numeros arbitrarios: %g y %g.\n,pi,exp(4));
da por resultado
Dos numeros arbitrarios: 3.14159 y 54.5982.

A OCTAVE/MATLAB
CAPITULO 11. UNA BREVE INTRODUCCION

368

Si los argumentos numericos de fprintf son matrices, el formato es aplicado a cada


columna hasta terminar la matriz. Por ejemplo, el script
x = 1:5;
y1 = exp(x);
y2 = log(x);
a = [x; y1; y2];
fprintf = (%g %8g %8.3f\n,a);
da el output
1
2
3
4
5

2.71828
7.38906
20.0855
54.5982
148.413

0.000
0.693
1.099
1.386
1.609

Captulo 12
El sistema de preparaci
on de
documentos TEX .
versi
on 4.0 021217

12.1.

Introducci
on.

TEX es un procesador de texto o, mejor dicho, un avanzado sistema de preparacion de


documentos, creado por Donald Knuth, que permite el dise
no de documentos de gran calidad, conteniendo textos y formulas matematicas. A
nos despues, LATEX fue desarrollado por
Leslie Lamport, facilitando la preparacion de documentos en TEX, gracias a la definicion de
macros o conjuntos de comandos de facil uso.
LATEX tuvo diversas versiones hasta la 2.09. Actualmente, LATEX ha recibido importantes
modificaciones, siendo la distribucion actualmente en uso y desarrollo LATEX 2 , una version
transitoria en espera de que alg
un da se llegue a la nueva version definitiva de LATEX, LATEX3.
En estas paginas cuando digamos LATEX nos referiremos a la version actual, LATEX 2 . Cuando queramos hacer referencia a la version anterior, que debera quedar progresivamente en
desuso, diremos explcitamente LATEX 2.09.

12.2.

Archivos.

El proceso de preparacion de un documento LATEX consta de tres pasos:


1. Creacion de un archivo con extension tex con alg
un editor.
2. Compilacion
del
archivo
tex,
con
un
comando
del
tipo
latex
<archivo>.tex o latex <archivo>. Esto da por resultado tres archivos adicionales,
con el mismo nombre del archivo original, pero con extensiones distintas:
a) dvi. Es el archivo procesado que podemos ver en pantalla o imprimir. Una vez
compilado, este archivo puede ser enviado a otro computador, para imprimir en
otra impresora, o verlo en otro monitor, independiente de la maquina (de donde
su extension dvi, device independent).
369

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

370

b) log. Aqu se encuentran todos los mensajes producto de la compilacion, para


consulta si es necesario (errores encontrados, memoria utilizada, mensajes de advertencia, etc.).
c) aux. Contiene informacion adicional que por el momento no nos interesa.
3. Vision en pantalla e impresion del archivo procesado a traves de un programa anexo
(xdvi o dvips, por ejemplo), capaz de leer el dvi.

12.3.

Input b
asico.

12.3.1.

Estructura de un archivo.

En un archivo no pueden faltar las siguientes lneas:


\documentclass[12pt]{article}
\begin{document}
\end{document}
Haremos algunas precisiones respecto a la primera lnea mas tarde. Lo importante es que
una lnea de esta forma debe ser la primera de nuestro archivo. Todo lo que se encuentra
antes de \begin{document} se denomina pre
ambulo. El texto que queramos escribir va entre
\begin{document} y \end{document}. Todo lo que se encuentre despues de \end{document}
es ignorado.

12.3.2.

Caracteres.

Pueden aparecer en nuestro texto todos los caracteres del codigo ASCII no extendido
(teclado ingles usual): letras, n
umeros y los signos de puntuacion:
.

* @

Los caracteres especiales:


#

&

tienen un significado especfico para LATEX. Algunos de ellos se pueden obtener anteponiendoles un backslash:
#

\#

Los caracteres
+

<

>

\$

\%

&

\&

\{

\}


12.3. INPUT BASICO.

371

generalmente aparecen en formulas matematicas, aunque pueden aparecer en texto normal.


Finalmente, las comillas dobles (") casi nunca se usan.
Los espacios en blanco y el fin de lnea son tambien caracteres (invisibles), que LATEX
considera como un mismo caracter, que llamaremos espacio, y que simbolizaremos ocasionalmente como .
Para escribir en castellano requeriremos ademas algunos signos y caracteres especiales:
n

12.3.3.

\~n

\a

\{\i}

\"u

Comandos.

Todos los comandos comienzan con un backslash, y se extienden hasta encontrar el primer
caracter que no sea una letra (es decir, un espacio, un n
umero, un signo de puntuacion o
matematico, etc.).

12.3.4.

Algunos conceptos de estilo.

LATEX es consciente de muchas convenciones estilsticas que quizas no apreciamos cuando


leemos textos bien dise
nados, pero las cuales es bueno conocer para aprovecharlas.
a) Observemos la siguiente palabra: fino. Esta palabra fue generada escribiendo simplemente fino, pero observemos que las letras f e i no estan separadas, sino que unidas
artsticamente. Esto es una ligadura, y es considerada una practica esteticamente preferible. LATEX sabe esto e inserta este peque
no efecto tipografico sin que nos demos
cuenta.
b) Las comillas de apertura y de cierre son distintas. Por ejemplo: insigne (comillas
simples) o insigne (comillas dobles). Las comillas de apertura se hacen con uno o con
dos acentos graves (), para comillas simples o dobles, respectivamente, y las de cierre
con acentos agudos (): insigne, insigne. No es correcto entonces utilizar las
comillas dobles del teclado e intentar escribir "insigne" (el resultado de esto es el poco
estetico insigne).
c) Existen tres tipos de guiones:
Corto

Saint-Exupery

Medio paginas 12
Largo un ejemplo como este

(entre palabras, corte en


slabas al final de la lnea)
-(rango de n
umeros)
--- (puntuacion, parentesis)
-

d) LATEX inserta despues de un punto seguido un peque


no espacio adicional respecto al
espacio normal entre palabras, para separar sutilmente frases. Pero, como saber que
un punto termina una frase? El criterio que utiliza es que todo punto termina una
frase cuando va precedido de una min
uscula. Esto es cierto en la mayora de los casos,
as como es cierto que generalmente cuando un punto viene despues de una may
uscula
no hay fin de frase:

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

372

China y U.R.S.S. estuvieron de acuerdo. Sin embargo. . .


Pero hay excepciones:

En la pag. 11 encontraremos noticias desde la U.R.S.S. Estas


fueron entregadas. . .
Cuando estas excepciones se producen, nosotros, humanos, tenemos que ayudarle al
computador, diciendole que, aunque hay un punto despues de la g, no hay un fin de
frase, y que el punto despues de la u
ltima S s termina frase. Esto se consigue as:
En la p\ag.\ 11 encontraremos noticias desde la
U.R.S.S\@. \Estas fueron entregadas...

d) Enfasis
de texto:

Este
es un texto enfatizado.

\Este es un texto
{\em enfatizado}.

Otro texto enfatizado.

Otro texto \emph{enfatizado}.

Al enfatizar, pasamos temporalmente a un tipo de letra distinto, la it


alica. Esta letra es
ligeramente inclinada hacia adelante, lo cual puede afectar el correcto espaciado entre
palabras. Comparemos, por ejemplo:
Quiero hoy mi recompensa.
Quiero hoy mi recompensa.
Quiero hoy mi recompensa.

Quiero {\em hoy} mi recompensa.


Quiero {\em hoy\/} mi recompensa.
Quiero \emph{hoy} mi recompensa.

La segunda y tercera frase tienen un peque


no espacio adicional despues de hoy,
para compensar el espacio entre palabras perdido por la inclinacion de la italica. Este
peque
no espacio se denomina correcci
on it
alica, y se consigue usando \emph, o, si se
usa \em, agregando \/ antes de cerrar el parentesis cursivo. La correccion italica es
innecesaria cuando despues del texto enfatizado viene un punto o una coma. LATEX
advierte esto y omite el espacio adicional aunque uno lo haya sugerido.

12.3.5.

Notas a pie de p
agina.

Insertemos una nota a pie de p\agina.\footnote{Como \esta.}


LATEX colocara una nota a pie de pagina1 en el lugar apropiado.
1

Como esta.


12.3. INPUT BASICO.

12.3.6.

373

F
ormulas matem
aticas.

LATEX distingue dos modos de escritura: un modo de texto, en el cual se escriben los
textos usuales como los ya mencionados, y un modo matematico, dentro del cual se escriben
las formulas. Cualquier formula debe ser escrita dentro de un modo matematico, y si alg
un
smbolo matematico aparece fuera del modo matematico el compilador acusara un error.
Hay tres formas principales para acceder al modo matematico:
a) $x+y=3$
b) $$xy=8$$
c) \begin{equation}
x/y=5
\end{equation}
Estas tres opciones generan, respectivamente, una ecuacion en el texto: x + y = 3, una
ecuacion separada del texto, centrada en la pagina:
xy = 8
y una ecuacion separada del texto, numerada:
x/y = 5

(12.1)

Es importante notar que al referirnos a una variable matematica en el texto debemos


escribirla en modo matematico:
Decir que la incognita es x es
incorrecto. No: la incognita es
x.

12.3.7.

Decir que la inc{\o}gnita es


x es incorrecto. No: la
inc{\o}gnita es $x$.

Comentarios.

Uno puede hacer que el compilador ignore parte del archivo usando %. Todo el texto desde
este caracter hasta el fin de la lnea correspondiente sera ignorado (incluyendo el fin de lnea).
Un peque
no comentario.

12.3.8.

Un peque{\~n}o co%
mentario.

Texto ignorado

Estilo del documento.

Las caractersticas generales del documento estan definidas en el preambulo. Lo mas


importante es la eleccion del estilo, que determina una serie de parametros que al usuario
normal pueden no importarle, pero que son basicas para una correcta presentacion del texto:
Que margenes dejar en la pagina? Cuanto dejar de sangra? Tipo de letra? Distancia
entre lneas? Donde poner los n
umeros de pagina? Y un largo etcetera.
Todas estas decisiones se encuentran en un archivo de estilo (extension cls). Los archivos
standard son: article, report, book y letter, cada uno adecuado para escribir artculos
cortos (sin captulos) o mas largos (con captulos), libros y cartas, respectivamente.

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

374

La eleccion del estilo global se hace en la primera lnea del archivo:2


\documentclass{article}
Esta lnea sera aceptada por el compilador, pero nos entregara un documento con un
tama
no de letra peque
no, tecnicamente llamado de 10 puntos o 10pt (1pt = 1/72 pulgadas).
Existen tres tama
nos de letra disponibles: 10, 11 y 12 pt. Si queremos un tama
no de letra
mas grande, como el que tenemos en este documento, se lo debemos indicar en la primera
lnea del archivo:
\documentclass[12pt]{article}
Todas las decisiones de estilo contenidas dentro del archivo cls son modificables, existiendo tres modos de hacerlo:
a) Modificando el archivo cls directamente. Esto es poco recomendable, porque dicha
modificacion (por ejemplo, un cambio de los margenes) se hara extensible a todos los
archivos compilados en nuestro computador, y esto puede no ser agradable, ya sea que
nosotros seamos los u
nicos usuarios o debamos compartirlo. Por supuesto, podemos
deshacer los cambios cuando terminemos de trabajar, pero esto es tedioso.

b) Introduciendo comandos adecuados en el preambulo. Esta


es la opcion mas recomendable y la mas usada. Nos permite dominar decisiones especficas de estilo validas solo
para el archivo que nos interesa.
c) Creando un nuevo archivo cls. Esto es muy recomendable cuando las modificaciones de
estilo son abundantes, profundas y deseen ser reaprovechadas. Se requiere un poco de
experiencia en LATEX para hacerlo, pero a veces puede ser la u
nica solucion razonable.
En todo caso, la opcion a usar en la gran mayora de los casos es la b) (Sec. 12.9).

12.3.9.

Argumentos de comandos.

Hemos visto ya algunos comandos que requieren argumentos. Por ejemplo: \begin{equation},
\documentclass[12pt]{article}, \footnote{Nota}. Existen dos tipos de argumentos:
1. Argumentos obligatorios. Van encerrados en parentesis cursivos: \footnote{Nota},
por ejemplo. Es obligatorio que despues de estos comandos aparezcan los parentesis. A
veces es posible dejar el interior de los parentesis vaco, pero en otros casos el compilador
reclamara incluso eso (\footnote{} no genera problemas, pero \documentclass{} s es
un gran problema).
Una propiedad muy general de los comandos de LATEX es que las llaves de los argumentos
obligatorios se pueden omitir cuando dichos argumentos tienen solo un caracter. Por
ejemplo, \~n es equivalente a \~{n}. Esto permite escribir mas facilmente muchas
expresiones, particularmente matematicas, como veremos mas adelante.
2

En LATEX 2.09 esta primera lnea debe ser \documentstyle[12pt]article, y el archivo de estilo tiene
extension sty. Intentar compilar con LATEX 2.09 un archivo que comienza con \documentclass da un error.
Por el contrario, la compilaci
on con LATEX 2 de un archivo que comienza con \documentstyle no genera un
error, y LATEX entra en un modo de compatibilidad . Sin embargo, interesantes novedades de LATEX 2 respecto
a LATEX 2.09 se pierden.


12.3. INPUT BASICO.

375

2. Argumentos opcionales. Van encerrados en parentesis cuadrados. Estos argumentos


son omitibles, \documentclass[12pt]... . Ya dijimos que \documentclass{article}
es aceptable, y que genera un tama
no de letra de 10pt. Un argumento en parentesis
cuadrados es una opcion que modifica la decision default del compilador (en este caso,
lo obliga a usar 12pt en vez de sus instintivos 10pt).

12.3.10.

Ttulo.

Un ttulo se genera con:


\title{Una breve introducci\on}
\author{V\{\i}ctor Mu\~noz}
\date{30 de Junio de 1998}
\maketitle
\title, \author y \date pueden ir en cualquier parte (incluyendo el preambulo) antes de \maketitle. \maketitle debe estar despues de \begin{document}. Dependiendo de
nuestras necesidades, tenemos las siguientes alternativas:
a) Sin ttulo:
\title{}
b) Sin autor:
\author{}
c) Sin fecha:
\date{}
d) Fecha actual (en ingles): omitir \date.
e) Mas de un autor:
\author{Autor_1 \and Autor_2 \and Autor_3}
Para artculos cortos, LATEX coloca el ttulo en la parte superior de la primera pagina
del texto. Para artculos largos, en una pagina separada.

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

376

12.3.11.

Secciones.

Los ttulos de las distintas secciones y subsecciones de un documento (numerados adecuadamente, en negrita, como en este texto) se generan con comandos de la forma:
\section{Una secci\on}
\subsection{Una subsecci\on}
Los comandos disponibles son (en orden decreciente de importancia):
\part
\chapter
\section

\subsection
\subsubsection

\paragraph
\subparagraph

Los
mas
usados
son
\chapter,
\section,
\subsection
\subsubsection. \chapter solo esta disponible en los estilos report y book.

12.3.12.

Listas.

Los dos modos usuales de generar listas:


a) Listas numeradas (ambiente enumerate):
1.

Nivel 1, tem 1.

2.

Nivel 1, tem 2.
a)

Nivel 2, tem 1.
1)

3.

Nivel 3, tem 1.

Nivel 1, tem 3.

\begin{enumerate}
\item Nivel 1, \{\i}tem
\item Nivel 1, \{\i}tem
\begin{enumerate}
\item Nivel 2, \{\i}tem
\begin{enumerate}
\item Nivel 3, \{\i}tem
\end{enumerate}
\end{enumerate}
\item Nivel 1, \{\i}tem
\end{enumerate}

1.
2.
1.
1.

3.

b) Listas no numeradas (ambiente itemize):


Nivel 1, tem 1.
Nivel 1, tem 2.
Nivel 2, tem 1.
Nivel 3, tem 1.
Nivel 1, tem 3.

\begin{itemize}
\item Nivel 1, {\\i}tem
\item Nivel 1, {\\i}tem
\begin{itemize}
\item Nivel 2, {\\i}tem
\begin{itemize}
\item Nivel 3, {\\i}tem
\end{itemize}
\end{itemize}
\item Nivel 1, {\\i}tem
\end{itemize}

1.
2.
1.
1.

3.


12.3. INPUT BASICO.

377

Es posible anidar hasta tres niveles de listas. Cada uno usa tipos distintos de rotulos,
seg
un el ambiente usado: n
umeros arabes, letras y n
umeros romanos para enumerate, y
puntos, guiones y asteriscos para itemize. Los rotulos son generados automaticamente por
cada \item, pero es posible modificarlos agregando un parametro opcional:
a) Nivel 1, tem 1.

\begin{enumerate}
\item[a)] Nivel 1, \{\i}tem 1.
\item[b)] Nivel 1, \{\i}tem 2.
\end{enumerate}

b) Nivel 1, tem 2.

\item es lo primero que debe aparecer despues de un \begin{enumerate} o \begin{itemize}.

12.3.13.

Tipos de letras.

Fonts.
Los fonts disponibles por default en LATEX son:
roman
boldface
sans serif

italic
slanted

Small Caps
typewriter

Los siguientes modos de cambiar fonts son equivalentes:


texto
texto
texto
texto
texto
Texto
texto

{\rm
{\bf
{\sf
{\it
{\sl
{\sc
{\tt

texto}
texto}
texto}
texto}
texto}
Texto}
texto}

\textrm{texto}
\textbf{texto}
\textsf{texto}
\textit{texto}
\textsl{texto}
\textsc{texto}
\texttt{texto}

\rm es el default para texto normal; \it es el default para texto enfatizado; \bf es el
default para ttulos de captulos, secciones, subsecciones, etc.
\textrm, \textbf, etc., solo permiten cambiar porciones definidas del texto, contenido
entre los parentesis cursivos. Con \rm, \bf, etc. podemos, omitiendo los parentesis, cambiar
el font en todo el texto posterior:
Un cambio local de fonts y uno
global, interminable e infinito. . .

Un cambio {\sf local} de fonts


\sl y uno global, interminable
e infinito...

Tambien es posible tener combinaciones de estos fonts, por ejemplo, bold italic, pero no
sirven los comandos anteriores, sino versiones modificadas de \rm, \bf, etc.:
\rmfamily
\sffamily
\ttfamily
\mdseries

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

378

\bfseries
\upshape
\itshape
\slshape
\scshape
Por ejemplo:
texto
texto
Texto
texto
texto

{\bfseries\itshape texto}
{\bfseries\upshape texto} (= {\bf texto})
{\ttfamily\scshape texto}
{\sffamily\bfseries texto}
{\sffamily\mdseries texto} (= {\sf texto})

Para entender el uso de estos comandos hay que considerar que un font tiene tres atributos:
family (que distingue entre rm, sf y tt), series (que distingue entre md y bf), y shape (que
distingue entre up, it, sl y sc). Cada uno de los comandos \rmfamily, \bfseries, etc.,
cambia solo uno de estos atributos. Ello permite tener versiones mixtas de los fonts, como
un slanted sans serif, imposible de obtener usando los comandos \sl y \sf. Los defaults para
el texto usual son: \rmfamily, \mdseries y \upshape.
Tama
no.
Los tama
nos de letras disponibles son:
texto

\tiny

texto

\normalsize

texto

\scriptsize

texto

\large

texto

\footnotesize

texto

\Large

texto

\small

texto

texto
texto

\LARGE
\huge
\Huge

Se usan igual que los comandos de cambio de font \rm, \sf, etc., de la seccion 12.3.13.
\normalsize es el default para texto normal; \scriptsize para sub o suprandices;
\footnotesize para notas a pie de pagina.

12.3.14.

Acentos y smbolos.

LATEX provee diversos tipos de acentos, que se muestran en la Tabla 12.1 (como ejemplo
consideramos la letra o, pero cualquiera es posible, por supuesto). (Hemos usado aca el
hecho de que cuando el argumento de un comando consta de un caracter, las llaves son
omitibles.)
Otros smbolos especiales y caracteres no ingleses disponibles se encuentran en la Tabla
12.2.


12.3. INPUT BASICO.
o
o`
o
o

\o
\o
\^o
\"o

o
o
o
o

\~o
\=o
\. o
\u o

379
o
o
o o

o \c o
o. \d o
o \b o

\v o
\H o
\t{oo}
\r o

Cuadro 12.1: Acentos.

c

a

\dag
\ddag
\S
\P
\copyright
\textcircled a
\textvisiblespace
\pounds

\oe
\OE
\ae
\AE
\aa
\AA
\o
\O

l
L

SS

\l
\L
\ss
\SS
?
!

Cuadro 12.2: Smbolos especiales y caracteres no ingleses.

12.3.15.

Escritura de textos en castellano.

LATEX emplea solo los caracteres ASCII basicos, que no contienen smbolos castellanos
como , , n
, etc. Ya hemos visto que existen comandos que permiten imprimir estos caracteres,
y por tanto es posible escribir cualquier texto en castellano (y otros idiomas, de hecho).
Sin embargo, esto no resuelve todo el problema, porque en ingles y castellano las palabras
se cortan en slabas de acuerdo a reglas distintas, y esto es relevante cuando se debe cortar el
texto en lneas. LATEX tiene incorporados algoritmos para cortar palabras en ingles y, si se ha
hecho una instalacion especial de LATEX en nuestro computador, tambien en castellano u otros
idiomas (a traves del programa babel, que es parte de la distribucion standard de LATEX 2 ).
En un computador con babel instalado y configurado para cortar en castellano basta incluir el
comando \usepackage[spanish]{babel} en el preambulo para poder escribir en castellano
cortando las palabras en slabas correctamente.3
Sin embargo, ocasionalmente LATEX se encuentra con una palabra que no sabe cortar,
en cuyo caso no lo intenta y permite que ella se salga del margen derecho del texto, o bien
toma decisiones no optimas. La solucion es sugerirle a LATEX la silabacion de la palabra. Por
ejemplo, si la palabra conflictiva es matem\aticas (generalmente hay problemas con las
palabras acentuadas), entonces basta con reescribirla en la forma: ma\-te\-m\a\-ti\-cas.
Con esto, le indicamos a LATEX en que puntos es posible cortar la palabra. El comando \- no
tiene ning
un otro efecto, de modo que si la palabra en cuestion no queda al final de la lnea,
LATEX por supuesto ignora nuestra sugerencia y no la corta.
Consideremos el siguiente ejemplo:
3

Esto resuelve tambien otro problema: los encabezados de captulos o ndices, por ejemplo, son escritos
Captulo e Indice, en vez de Chapter e Index, y cuando se usa el comando \date, la fecha aparece
en castellano.

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

380

Podemos escribir matematicas. O matematicas.

Podemos escribir matem\aticas.


O matem\aticas.

Podemos escribir matematicas. O matematicas.

Podemos escribir
ma\-te\-m\a\-ti\-cas.
O ma\-te\-m\a\-ti\-cas.

En el primer caso, LATEX decidio por s mismo donde cortar matematicas. Como es una
palabra acentuada tuvo problemas y no lo hizo muy bien, pues quedo demasiado espacio
entre palabras en esa lnea. En el segundo parrafo le sugerimos la silabacion y LATEX pudo
tomar una decision mas satisfactoria. En el mismo parrafo, la segunda palabra matematicas
tambien tiene sugerencias de corte, pero como no quedo al final de lnea no fueron tomadas
en cuenta.

12.4.

F
ormulas matem
aticas.

Hemos mencionado tres formas de ingresar al modo matematico: $...$ (formulas dentro
del texto), $$...$$ (formulas separadas del texto, no numeradas) y \begin{equation} ...
\end{equation} (formulas separadas del texto, numeradas). Los comandos que revisaremos
en esta seccion solo pueden aparecer dentro del modo matematico.

12.4.1.
x2y
x2y

Sub y suprandices.
x^{2y}
x_{2y}

xy
x y1

x^{y^{2}} (o x^{y^2})
x^{y_{1}} (o x^{y_1})

xy1

x^y_1 (o x_1^y)

\textsuperscript permite obtener suprandices fuera del modo matematico:


La 3a es la vencida.

12.4.2.

La 3\textsuperscript{a}
es la vencida.

Fracciones.

a) Horizontales
n/2 n/2
b) Verticales
1
2
y + z/2
y2 + 1
x+y
y
1 + z+1

x=

\frac{1}{2}, \frac 1{2}, \frac{1}2 o \frac 12


x = \frac{y + z/2}{y^2+1}
\frac{x+y}{1 + \frac y{z+1}}

12.4. FORMULAS
MATEMATICAS.

381

La forma a) es mas adecuada y la preferida para fracciones dentro del texto, y la segunda para formulas separadas. \frac puede aparecer en formulas dentro del texto ( 21 con
$\frac 12$), pero esto es inusual y poco recomendable esteticamente, salvo estricta necesidad.

12.4.3.

Races.

\sqrt{n}

\sqrt n

a2 + b 2

n
2

12.4.4.
a)

\sqrt{a^2 + b^2}
\sqrt[n]{2}

Puntos suspensivos.
...

\ldots

Para formulas como


a1 a2 . . . an
b)

a_1 a_2 \ldots a_n

\cdots

Entre smbolos como +, , = :


x1 + + xn
c)

..
.

x_1 + \cdots + x_n

\vdots

x1
..
.
xn
d)

..

\ddots

Inn

1 0 0
0 1
0

..
. . . ..
.
.
0 0 ... 1

\ldots puede ser usado tambien en el texto usual:


Arturo quiso salir. . . pero se
detuvo.

Arturo quiso salir\ldots


pero se detuvo.

No corresponde usar tres puntos seguidos (...), pues el espaciado entre puntos es incorrecto.

382

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION
Min
usculas

\alpha
\beta
\gamma
\delta
\epsilon
\varepsilon
\zeta
\eta

\theta
\vartheta
\iota
\kappa
\lambda
\mu
\nu
\xi

o
\pi
\varpi
\rho
\varrho
\sigma
\varsigma

\tau
\upsilon
\phi
\varphi
\chi
\psi
\omega

May
usculas
\Gamma
\Delta
\Theta

\Lambda
\Xi
\Pi

\Sigma
\Upsilon
\Phi

\Psi
\Omega

Cuadro 12.3: Letras griegas.

12.4.5.

Letras griegas.

Las letras griegas se obtienen simplemente escribiendo el nombre de dicha letra (en ingles):
\gamma. Para la may
uscula correspondiente se escribe la primera letra con may
uscula: \Gamma.
La lista completa se encuentra en la Tabla 12.3.
No existen smbolos para , , , etc. may
usculas, pues corresponden a letras romanas
(A, B, E, etc.).

12.4.6.

Letras caligr
aficas.

Letras caligraficas may


usculas A, B, . . . , Z se obtienen con \cal. \cal se usa igual que
los otros comandos de cambio de font (\rm, \it, etc.).
Sea F una funcion con
F(x) > 0.

Sea $\cal F$ una funci\on


con ${\cal F}(x) > 0$.

No son necesarios los parentesis cursivos la primera vez que se usan en este ejemplo,
porque el efecto de \cal esta delimitado por los $.

12.4.7.

Smbolos matem
aticos.

LATEX proporciona una gran variedad de smbolos matematicos (Tablas 12.4, 12.5, 12.6,
12.7).
La negacion de cualquier smbolo matematico se obtiene con \not:
x 6< y
a 6 M

x \not < y
a \not \in {\cal M}

[Notemos, s, en la Tabla 12.5, que existe el smbolo 6= (\neq).]

12.4. FORMULAS
MATEMATICAS.

\pm
\mp
\times
\div
\ast
\star
\circ
\bullet
\cdot

]
u
t

\
o

383


4
5
/
.

\cap
\cup
\uplus
\sqcap
\sqcup
\lor
\land
\setminus
\wr

\diamond
\bigtriangleup
\bigtriangledown
\triangleleft
\triangleright
\bigcirc
\dagger
\ddagger
\amalg

\oplus
\ominus
\otimes
\oslash
\odot

Cuadro 12.4: Smbolos de operaciones binarias.




^
_
`

\leq
\prec
\preceq
\ll
\subset
\subseteq
\smile
\frown
\vdash





\geq
\succ
\succeq
\gg
\supset
\supseteq
\sqsubseteq
\in
\dashv

'


=
w
3

|=

|
k
./
6
=
.
=

\equiv
\sim
\simeq
\asymp
\approx
\cong
\sqsupseteq
\ni

\models
\perp
\mid
\parallel
\bowtie
\neq
\doteq
\propto

Cuadro 12.5: Smbolos relacionales.

(
)

\gets
\Leftarrow
\to
\Rightarrow
\Leftrightarrow
\mapsto
\hookleftarrow
\leftharpoonup
\leftharpoondown
\rightleftharpoons

7
,
*
+

\longleftarrow
\Longleftarrow
\longrightarrow
\Longrightarrow
\Longleftrightarrow
\longmapsto
\hookrightarrow
\rightharpoonup
\rightharpoondown

Cuadro 12.6: Flechas

m
%
&
.
-

\uparrow
\Uparrow
\downarrow
\Downarrow
\Updownarrow
\nearrow
\searrow
\swarrow
\nwarrow

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

384

<
=

\aleph
\hbar
\imath
\jmath
\ell
\wp
\Re
\Im

0 \prime
\emptyset

\nabla
\surd
> \top
\bot
k \|
\angle

[
\
]
\

\forall
\exists
\lnot
\flat
\natural
\sharp
\backslash
\partial

Cuadro 12.7: Smbolos varios.


T \
J
\sum
\bigcap
Q Y
S [
N
\prod
\bigcup
` a
F G
L
\coprod
\bigsqcup
Z
R
W _
L
\int
\bigvee
I
H
V ^
\bigwedge
\oint
P X

\infty
\triangle
\clubsuit
\diamondsuit
\heartsuit
\spadesuit

\bigodot

\bigotimes

\bigoplus

\bigoplus

Cuadro 12.8: Smbolos de tama


no variable.
Algunos smbolos tienen tama
no variable, seg
un aparezcan en el texto o en formulas
separadas del texto. Se muestran en la Tabla 12.8.
Estos smbolos pueden tener ndices que se escriben como sub o suprandices. Nuevamente,
la ubicacion de estos ndices depende de si la formula esta dentro del texto o separada de el:
n
X

Z
xi =

i=1

Pn

i=1 xi

$$\sum_{i=1}^n x_i = \int_0^1 f $$

12.4.8.

R1
0

$\sum_{i=1}^n x_i = \int_0^1 f $

Funciones tipo logaritmo.

Observemos la diferencia entre estas dos expresiones:


x = logy
x = log y

$x
$x

= log y$
= \log y$

En el primer caso LATEX escribe el producto de cuatro cantidades, l, o, g e y. En el segundo,


representa correctamente nuestro deseo: el logaritmo de y. Todos los comandos de la Tabla
12.9 generan el nombre de la funcion correspondiente, en letras romanas.
Algunas de estas funciones pueden tener ndices:
lm xn = 0

lmn xn = 0

$$\lim_{n\to\infty} x_n = 0 $$
$\lim_{n\to\infty} x_n = 0 $

12.4. FORMULAS
MATEMATICAS.
\arccos
\arcsin
\arctan
\arg

\cos
\cosh
\cot
\coth

\csc
\deg
\det
\dim

\exp
\gcd
\hom
\inf

385
\ker
\lg
\lim
\liminf

\limsup
\ln
\log
\max

\min
\Pr
\sec
\sin

\sinh
\sup
\tan
\tanh

Cuadro 12.9: Funciones tipo logaritmo


(
[
{
b
d
h
/
|

(
[
\{
\lfloor
\lceil
\langle
/
|

)
]
}
c
e
i
\
k

)
]
\}
\rfloor
\rceil
\rangle
\backslash
\|

\uparrow
\downarrow
\updownarrow
\Uparrow
\Downarrow
\Updownarrow

Cuadro 12.10: Delimitadores

12.4.9.

Matrices.

Ambiente array.
Se construyen con el ambiente array. Consideremos, por ejemplo:
a + b + c uv
27
a+b
u+v
134
a
3u + vw 2,978
La primera columna esta alineada al centro (c, center); la segunda, a la izquierda (l, left); la
tercera, a la derecha (r, right). array tiene un argumento obligatorio, que consta de tantas
letras como columnas tenga la matriz, letras que pueden ser c, l o r seg
un la alineacion
que queramos obtener. Elementos consecutivos de la misma lnea se separan con & y lneas
consecutivas se separan con \\. As, el ejemplo anterior se obtiene con:
\begin{array}{clr}
a+b+c & uv & 27 \\
a+b & u + v & 134 \\
a & 3u+vw & 2.978
\end{array}
Delimitadores.
Un delimitador es cualquier smbolo que act
ue como un parentesis, encerrando una expresion, apareciendo a la izquierda y a la derecha de ella. La Tabla 12.10 muestra todos los
delimitadores posibles.
Para que los delimitadores tengan el tama
no correcto para encerrar la expresion correspondiente hay que anteponerles \left y \right. Podemos obtener as expresiones matriciales:

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

386

\left(\begin{array}{cc}
a&b\\
c&d
\end{array}\right)

a b
c d

v = \left(\begin{array}{c}
1\\
2\\
3
\end{array}\right)

1
v= 2
3


a
a
= 11 12
a21 a22

\Delta = \left|\begin{array}{cc}
a_{11} & a_{12}\\
a_{21} & a_{22}
\end{array}\right|

\left y \right deben ir de a pares, pero los delimitadores no tienen por que ser los
mismos:


a
b

\left(\begin{array}{c}
a\\
b
\end{array}\right[

Tampoco es necesario que los delimitadores encierren matrices. Comparemos, por ejemplo:
~
~ + B)
~ = ( dF )x=a
(A
dx

dF~
dx

~+B
~ =
A

(\vec A + \vec B) =
( \frac{d \vec F}{dx} )_{x=a}

!
x=a

\left(\vec A + \vec B\right) =


\left( \frac{d \vec F}{dx} \right)_{x=a}

El segundo ejemplo es mucho mas adecuado esteticamente.


Algunas expresiones requieren solo un delimitador, a la izquierda o a la derecha. Un punto
(.) representa un delimitador invisible. Los siguientes ejemplos son tpicos:
Z
a

b

df
dx
= f (x)
dx
a


f (x) =

0 x<0
1 x>0

\left. \int_a^b dx \frac{df}{dx} =


f(x) \right |_a^b
f(x) = \left\{ \begin{array}{cl}
0 & x<0 \\
1 & x>0
\end{array} \right.

F
ormulas de m
as de una lnea.
eqnarray ofrece una manera de ingresar a modo matematico (en reemplazo de $, $$ o
equation) equivalente a un array con argumentos {rcl}:

12.4. FORMULAS
MATEMATICAS.
a
\hat a
a
\check a
a
\breve a

387

a
\acute a
a
` \grave a
a
\tilde a

a
\bar a
~a \vec a

a \dot a
a
\ddot a

Cuadro 12.11: Acentos matematicos

x = a+b+c+

\begin{eqnarray*}
x& = & a + b + c +\\
&& d + e
\end{eqnarray*}

d+e

El asterisco impide que aparezcan n


umeros en las ecuaciones. Si deseamos que numere
cada lnea como una ecuacion independiente, basta omitir el asterisco:
x = 5
a + b = 60

(12.2)
(12.3)

\begin{eqnarray}
x& = & 5 \\
a + b&= & 60
\end{eqnarray}

Si queremos que solamente algunas lneas aparezcan numeradas, usamos \nonumber:


x = a+b+c+
d+e

(12.4)

\begin{eqnarray}
x& = & a + b + c + \nonumber\\
&& d + e
\end{eqnarray}

El comando \eqnarray es suficiente para necesidades sencillas, pero cuando se requiere


escribir matematica de modo intensivo sus limitaciones comienzan a ser evidentes. Al agregar al preambulo de nuestro documento la lnea \usepackage{amsmath} quedan disponibles
muchos comandos mucho mas u
tiles para textos matematicos mas serios, como el ambiente
equation*, \split, \multline o \intertext. En la seccion 12.8.2 se encuentra una descripcion de estos y otros comandos.

12.4.10.

Acentos.

Dentro de una formula pueden aparecer una serie de acentos, analogos a los de texto
usual (Tabla 12.11).
Las letras i y j deben perder el punto cuando son acentuadas: ~i es incorrecto. Debe ser ~.
\imath y \jmath generan las versiones sin punto de estas letras:
~ +

12.4.11.

\vec \imath + \hat \jmath

Texto en modo matem


atico.

Para insertar texto dentro de modo matematico empleamos \mbox:

388

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

Vcrtico

V_{\mbox{\scriptsize cr\{\i}tico}}

Bastante mas optimo es utilizar el comando \text, disponible a traves de amsmath (secci
on
12.8.2).

12.4.12.

Espaciado en modo matem


atico.

TEX ignora los espacios que uno escribe en las formulas y los determina de acuerdo a sus propios
criterios. A veces es necesario ayudarlo para hacer ajustes finos. Hay cuatro comandos que agregan
peque
nos espacios dentro de modo matem
atico:
\,
\!

espacio peque
no
espacio peque
no (negativo)

Algunos ejemplos de su uso:

2x
\sqrt 2 \, x en vez de
n/log
n
n / \!\log n en vez de
R
f dx
\int f \, dx en vez de

\:
\;

espacio medio
espacio grueso

2x
n/
R log n
f dx

El u
ltimo caso es quizas el mas frecuente, por cuanto la no insercion del peque
no espacio adicional
entre f y dx hace aparecer el integrando como el producto de tres variables, f , d y x, que no es la
idea.

12.4.13.

Fonts.

Analogamente a los comandos para texto usual (Sec. 12.3.13), es posible cambiar los fonts dentro
del modo matematico:
(A, x)
(A, x)
(A, B)
(A, x)
(A, x)
(A, x)
(A, x )

\mathrm{(A,x)}
\mathnormal{(A,x)}
\mathcal{(A,B)}
\mathbf{(A,x)}
\mathsf{(A,x)}
\mathtt{(A,x)}
\mathit{(A,x)}

(Recordemos que la letras tipo \cal solo existen en may


usculas.)
Las declaraciones anteriores permiten cambiar los fonts de letras, dgitos y acentos, pero no de
los otros smbolos matematicos:
1
A

\mathbf{\tilde A \times 1}

Como en todo ambiente matematico, los espacios entre caracteres son ignorados:
Hola

\mathrm{H o l a}

Finalmente, observemos que \mathit corresponde al font italico, en tanto que \mathnormal al
font matematico usual, que es tambien italico. . . o casi:
dif f erent
dif f erent

$different$
$\mathnormal{different}$

12.5. TABLAS.

389

different
different

12.5.

$\mathit{different}$
\textit{different}

Tablas.

array nos permitio construir matrices en modo matematico. Para tablas de texto existe tabular,
que funciona de la misma manera. Puede ser usado tanto en modo matematico como fuera de el.
Nombre
Edad
Profesion

:
:
:

Juan Perez
26
Estudiante

\begin{tabular}{lcl}
Nombre&:&Juan P\erez\\
Edad&:&26\\
Profesi\on&:&Estudiante
\end{tabular}

Si deseamos agregar lneas verticales y horizontales para ayudar a la lectura, lo hacemos insertando | en los puntos apropiados del argumento de tabular, y \hline al final de cada lnea de la
tabla:
Item
Vasos
Botellas
Platos
Total

12.6.

\begin{tabular}{|l|r|}\hline
Item&Gastos\\ \hline
Vasos& \$ 500 \\
Botellas & \$ 1300 \\
Platos & \$ 500 \\ \hline
Total& \$ 2300 \\ \hline
\end{tabular}

Gastos
$ 500
$ 1300
$ 500
$ 2300

Referencias cruzadas.

Ecuaciones, secciones, captulos y paginas son entidades que van numeradas y a las cuales
podemos querer referirnos en el texto. Evidentemente no es optimo escribir explcitamente el n
umero
correspondiente, pues la insercion de una nueva ecuacion, captulo, etc., su eliminacion o cambio de
orden del texto podra alterar la numeracion, obligandonos a modificar estos n
umeros dispersos en
el texto. Mucho mejor es referirse a ellos de modo simbolico y dejar que TEX inserte por nosotros
los n
umeros. Lo hacemos con \label y \ref.
La ecuacion de Euler
ei + 1 = 0

(12.5)

re
une los n
umeros mas importantes. La ecuacion (12.5) es
famosa.

La ecuaci\on de Euler
\begin{equation}
\label{euler}
e^{i\pi} + 1 = 0
\end{equation}
re\une los n\umeros
m\as importantes.
La ecuaci\on (\ref{euler})
es famosa.

El argumento de \label (reiterado luego en \ref) es una etiqueta simbolica. Ella puede ser
cualquier secuencia de letras, dgitos o signos de puntuacion. Letras may
usculas y min
usculas son
diferentes. As, euler, eq:euler, euler_1, euler1, Euler, etc., son etiquetas validas y distintas.
Podemos usar \label dentro de equation, eqnarray y enumerate.

390

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

Tambien podemos referenciar paginas con \pageref:


Ver pagina 390 para mas detalles.
[Texto en p
ag. 390]
El significado de la vida. . .

Ver p\agina
\pageref{significado}
para m\as detalles.
...
El significado
\label{significado}
de la vida...

LATEX puede dar cuenta de las referencias cruzadas gracias al archivo aux (auxiliar) generado
durante la compilacion.
Al compilar por primera vez el archivo, en el archivo aux es escrita la informacion de los \label
encontrados. Al compilar por segunda vez, LATEX lee el archivo aux e incorpora esa informacion al
dvi. (En realidad, tambien lo hizo la primera vez que se compilo el archivo, pero el aux no exista
entonces o no tena informacion u
til.)
Por tanto, para obtener las referencias correctas hay que compilar dos veces, una para generar
el aux correcto, otra para poner la informacion en el dvi. Toda modificacion en la numeraci
on
tendra efecto solo despues de compilar dos veces mas. Por cierto, no es necesario preocuparse de
estos detalles a cada momento. Seguramente compilaremos muchas veces el archivo antes de tener
la version final. En todo caso, LATEX avisa, tras cada compilacion, si hay referencias inexistentes
u otras que pudieron haber cambiado, y sugiere compilar de nuevo para obtener las referencias
correctas. (Ver Sec. 12.14.2.)

12.7.

Texto centrado o alineado a un costado.

Los ambientes center, flushleft y flushright permiten forzar la ubicacion del texto respecto
a los margenes. Lneas consecutivas se separan con \\:
Una lnea centrada,
otra
y otra mas.
Ahora el texto contin
ua
alineado a la izquierda
y finalmente
dos lneas
alineadas a la derecha.

12.8.

\begin{center}
Una l\{\i}nea centrada,\\
otra\\
y otra m\as.
\end{center}
Ahora el texto contin\ua
\begin{flushleft}
alineado a la izquierda
\end{flushleft}
y finalmente
\begin{flushright}
dos l\{\i}neas\\
alineadas a la derecha.
\end{flushright}

Algunas herramientas importantes

Hasta ahora hemos mencionado escencialmente comandos disponibles en LATEX standard. Sin
embargo, estos, junto con el resto de los comandos basicos de LATEX, se vuelven insuficientes cuando

12.8. ALGUNAS HERRAMIENTAS IMPORTANTES

391

se trata de ciertas aplicaciones demasiado especficas, pero no inimaginables: si queremos escribir


un texto de alta matematica, o usar LATEX para escribir partituras, o para escribir un archivo .tex
en un teclado croata. . . . Es posible que con los comandos usuales LATEX responda a las necesidades,
pero seguramente ello sera a un costo grande de esfuerzo por parte del autor del texto. Por esta
razon, las distribuciones modernas de LATEX incorporan una serie de extensiones que hacen la vida
un poco mas facil a los eventuales autores. En esta seccion mencionaremos algunas extensiones muy
u
tiles. Muchas otras no estan cubiertas, y se sugiere al lector consultar la documentacion de su
distribucion para saber que otros paquetes se encuentran disponibles.
En general, las extensiones a LATEX vienen contenidas en paquetes (packages, en ingles), en
archivos .sty. As, cuando mencionemos el paquete amsmath, nos referimos a caractersticas disponibles en el archivo amsmath.sty. Para que los comandos de un paquete <package>.sty esten
disponibles, deben ser cargados durante la compilacion, incluyendo en el preambulo del documento
la lnea:
\usepackage{<package>}
Si se requiere cargar mas de un paquete adicional, se puede hacer de dos formas:
\usepackage{<package1>,<package2>}
o
\usepackage{<package1>}
\usepackage{<package2>}
Algunos paquetes aceptan opciones adicionales (del mismo modo que la clase article acepta
la opcion 12pt):
\usepackage[option1,option2]{<package1>}
Revisemos ahora algunos paquetes u
tiles.

12.8.1.

babel

Permite el procesamiento de textos en idiomas distintos del ingles. Esto significa, entre otras
cosas, que se incorporan los patrones de silabacion correctos para dicho idioma, para cortar adecuadamente las palabras al final de cada lnea. Ademas, palabras claves como Chapter, Index, List
of Figures, etc., y la fecha dada por \date, son cambiadas a sus equivalentes en el idioma escogido.
La variedad de idiomas disponibles es enorme, pero cada instalacion de LATEX tiene solo algunos de

ellos incorporados. (Esta


es una decision que toma el administrador del sistema, de acuerdo a las
necesidades de los usuarios. Una configuracion usual puede ser habilitar la compilacion en ingles,
castellano, aleman y frances.)
Ya sabemos como usar babel para escribir en castellano: basta incluir en el preambulo la lnea
\usepackage[spanish]{babel}

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

392

12.8.2.

AMS-LATEX

El paquete amsmath permite agregar comandos para escritura de textos matematicos profesionales, desarrollados originalmente por la American Mathematical Society. Si un texto contiene
abundante matematica, entonces seguramente incluir la lnea correspondiente en el preambulo:
\usepackage{amsmath}
aliviara mucho la tarea. He aqu algunas de las caractersticas adicionales disponibles con AMSLATEX.

Ambientes para ecuaciones


Con equation* generamos una ecuacion separada del texto, no numerada:
\begin{equation*}
x = 2y - 3
\end{equation*}

x = 2y 3

multline permite dividir una ecuacion muy larga en varias lneas, de modo que la primera lnea
quede alineada con el margen izquierdo, y la u
ltima con el margen derecho:
15
X

= 1 + 2 + 3 + 4 + 5+

i=1

6 + 7 + 8 + 9 + 10+
11 + 12 + 13 + 14 + 15 (12.6)

\begin{multline}
\sum_{i=1}^{15} = 1 +2+3+4+5+\\
6+7+8+9+10+\\
11+12+13+14+15
\end{multline}

align permite reunir un grupo de ecuaciones consecutivas alineandolas (usando &, igual que la
alineacion vertical de tabular y array). gather hace lo mismo, pero centrando cada ecuacion en
la pagina independientemente.

a1 = b1 + c1

(12.7)

a2 = b2 + c2 d2 + e2

(12.8)

a1 = b1 + c1
a2 = b2 + c2 d2 + e2

(12.9)
(12.10)

\begin{align}
a_1 &= b_1 + c_1 \\
a_2 &= b_2 + c_2 - d_2 + e_2
\end{align}
\begin{gather}
a_1 = b_1 + c_1 \\
a_2 = b_2 + c_2 - d_2 + e_2
\end{gather}

Con multline*, align* y gather* se obtienen los mismos resultados, pero con ecuaciones no
numeradas.
split permite escribir una sola ecuacion separada en lneas (como multline), pero permite
alinear las lneas con & (como align). split debe ser usado dentro de un ambiente como equation,
align o gather (o sus equivalentes con asterisco):

12.8. ALGUNAS HERRAMIENTAS IMPORTANTES

a1 = b1 + c1
= b2 + c2 d2 + e2

393

\begin{equation}
\begin{split}
a_1& = b_1 + c_1 \\
& = b_2 + c_2 - d_2 + e_2
\end{split}
\end{equation}

(12.11)

Espacio horizontal
\quad y \qquad insertan espacio horizontal en ecuaciones:
x>y ,
xz ,

x A
z B

\begin{gather*}
x > y \ , \quad \forall\, x \in A \\
x \leq z \ , \qquad \forall\, z \in B
\end{gather*}

Texto en ecuaciones
Para agregar texto a una ecuacion, usamos \text:
x = 2n 1 ,

con n entero

\begin{equation*}
x = 2^n - 1 \ , \quad \text{con $n$ entero}
\end{equation*}

\text se comporta como un buen objeto matematico, y por tanto se pueden agregar subndices
textuales mas facilmente que con \mbox (ver seccion 12.4.11):
Vcrtico

$V_{\text{cr\{\i}tico}}$

Referencia a ecuaciones
\eqref es equivalente a \ref, salvo que agrega los parentesis automaticamente:
La ecuacion (12.5) era la de
Euler.

La ecuaci\on \eqref{euler} era la de Euler.

Ecuaciones con casos

Esta
es una construccion usual en matematicas:

(
1
f (x) =
0

si x < 0
si x > 0

f(x)=
\begin{cases}
1&\text{si $x<0$} \\
0&\text{si $x>0$}
\end{cases}

Notar como es mas simple que el ejemplo con los comandos convencionales en la seccion 12.4.9.

394

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

Texto insertado entre ecuaciones alineadas


Otra situacion usual es insertar texto entre ecuaciones alineadas, preservando la alineacion:
\begin{align*}
x_1 &= a + b + c \ , \\
x_2 &= d + e \ , \\
\intertext{y por otra parte}
x_3 &= f + g + h \ .
\end{align*}

x1 = a + b + c ,
x2 = d + e ,
y por otra parte
x3 = f + g + h .

Matrices y coeficientes binomiales


La complicada construccion de matrices usando array (seccion 12.4.9), se puede reemplazar con
ambientes como pmatrix y vmatrix, y comandos como \binom.


a b
c d

\begin{pmatrix}
a&b\\
c&d
\end{pmatrix}

\Delta = \begin{vmatrix}
a_{11} & a_{12}\\
a_{21} & a_{22}
\end{vmatrix}



a11 a12


=
a21 a22
 
k
v=
2

v = \binom{k}{2}

Podemos observar que el espaciado entre los parentesis y el resto de la formula es mas adecuado
que el de los ejemplos en la seccion 12.4.9.

Flechas extensibles
Las flechas en la tabla 12.6 vienen en ciertos tama
nos predefinidos. amsmath proporciona flechas extensibles \xleftarrow y \xrightarrow, para ajustar sub o superndices demasiado anchos.
Ademas, tienen un argumento opcional y uno obligatorio, para colocar material sobre o bajo ellas:
n+1

ni1

A B C
D
T

A \xleftarrow{n+\mu-1} B \xrightarrow[T]{n\pm i-1} C \xrightarrow[U]{} D

12.8.3.

fontenc

Ocasionalmente, LATEX tiene problemas al separar una palabra en slabas. Tpicamente, eso
ocurre con palabras acentuadas, pues, debido a la estructura interna del programa, un caracter
como la a en matematicas no es tratado igual que los otros. Para solucionar el problema, y
poder cortar en slabas palabras que contengan letras acentuadas (ademas de acceder a algunos
caracteres adicionales), basta incluir el paquete fontenc:

12.8. ALGUNAS HERRAMIENTAS IMPORTANTES

395

\usepackage[T1]{fontenc}
Tecnicamente, lo que ocurre es que la codificacion antigua para fonts es la OT1, que no contiene
fonts acentuados, y que por lo tanto es u
til solo para textos en ingles. La codificacion T1 aumenta los
fonts disponibles, permitiendo que los caracteres acentuados sean tratados en igual pie que cualquier
otro.

12.8.4.

enumerate

enumerate.sty define una muy conveniente extension al ambiente enumerate de LATEX. El


comando se usa igual que siempre (ver seccion 12.3.12), con un argumento opcional que determina
el tipo de etiqueta que se usara para la lista. Por ejemplo, si queremos que en vez de n
umeros se
usen letras may
usculas, basta usar \begin{enumerate}[A]:
A Primer tem.
B Segundo tem.
Si queremos etiquetas de la forma 1.-, \begin{enumerate}[1.-]:
1.- Primer tem.
2.- Segundo tem.
Si deseamos insertar un texto que no cambie de una etiqueta a otra, hay que encerrarlo entre
parentesis cursivos (\begin{enumerate}[{Caso} A:]):
Caso A: Primer tem.
Caso B: Segundo tem.

12.8.5.

Color.

A traves de PostScript es posible introducir color en documentos LATEX. Para ello, incluimos en
el preambulo el paquete color.sty:
\usepackage{color}
De este modo, esta disponible el comando \color, que permite especificar un color, ya sea por
nombre (en el caso de algunos colores predefinidos), por su codigo rgb (red-green-blue) o c
odigo
cmyk (cian-magenta-yellow-black). Por ejemplo:
Un texto en azul
Un texto en un segundo color
Un texto en un tercer color

Un texto en {\color{blue} azul}


Un texto en un
{\color[rgb]{1,0,1} segundo color}
Un texto en un
{\color[cmyk]{.3,.5,.75,0} tercer color}

Los colores mas frecuentes (azul, amarillo, rojo, etc.) se pueden dar por nombre, como en este
ejemplo. Si se da el codigo rgb, se deben especificar tres n
umeros entre 0 y 1, que indican la cantidad

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

396

de rojo, verde y azul que constituyen el color deseado. En el ejemplo, le dimos maxima cantidad de
rojo y azul, y nada de verde, con lo cual conseguimos un color violeta. Si se trata del codigo cmyk los
n
umeros a especificar son cuatro, indicando la cantidad de cian, magenta, amarillo y negro. En el
ejemplo anterior pusimos una cantidad arbitraria de cada color, y resulto un color cafe. Es evidente
que el uso de los codigos rgb y cmyk permite explorar infinidad de colores.
Observar que \color funciona de modo analogo a los comandos de cambio de font de la secci
on
12.3.13, de modo que si se desea restringir el efecto a una porcion del texto, hay que encerrar dicho
texto entre parentesis cursivos. Analogamente al caso de los fonts, existe el comando \textcolor,
que permite dar el texto a colorear como argumento:
Un texto en azul
Un texto en un segundo color
Un texto en un tercer color

Un texto en \textcolor{blue}{azul}
Un texto en un
\textcolor[rgb]{1,0,1}{segundo color}
Un texto en un
\textcolor[cmyk]{.3,.5,.75,0}{tercer color}

12.9.

Modificando el estilo de la p
agina.

TEX toma una serie de decisiones por nosotros. Ocasionalmente nos puede interesar alterar el
comportamiento normal. Disponemos de una serie de comandos para ello, los cuales revisaremos a
continuacion. Todos deben aparecer en el preambulo, salvo en los casos que se indique.

12.9.1.

Estilos de p
agina.

a) N
umeros de pagina.
Si se desea que los n
umeros de pagina sean arabicos (1, 2, 3. . . ):
\pagenumbering{arabic}
Para n
umeros romanos (i, ii, iii,. . . ):
\pagenumbering{roman}
arabic es el default.
b) Estilo de pagina.
El comando \pagestyle determina donde queremos que vayan los n
umeros de pagina:
\pagestyle{plain}

N
umeros de pagina en el extremo inferior,
al centro de la pagina. (Default para estilos article, report.)

\pagestyle{headings}

N
umeros de pagina y otra informacion
(ttulo de seccion, etc.) en la parte superior de la pagina. (Default para estilo
book.)

\pagestyle{empty}

Sin n
umeros de pagina.


12.9. MODIFICANDO EL ESTILO DE LA PAGINA.

12.9.2.

397

Corte de p
aginas y lneas.

TEX tiene modos internos de decidir cuando cortar una pagina o una lnea. Al preparar la versi
on
final de nuestro documento, podemos desear coartar sus decisiones. En todo caso, no hay que hacer
esto antes de preparar la version verdaderamente final, porque agregar, modificar o quitar texto
puede alterar los puntos de corte de lneas y paginas, y los cortes inconvenientes pueden resolverse
solos.
Los comandos de esta seccion no van en el preambulo, sino en el interior del texto.

Corte de lneas.
En la pagina 379 ya vimos un ejemplo de induccion de un corte de lnea en un punto deseado
del texto, al dividir una palabra en slabas.
Cuando el problema no tiene relaci
on con slabas disponemos de dos comandos:
\newline

Corta la lnea y pasa a la siguiente en el punto


indicado.

\linebreak

Lo mismo, pero justificando la lnea para adecuarla a los margenes.

Un corte de lnea
no justificado a los margenes
en curso.

Un corte de l\{\i}nea\newline
no justificado a los m\argenes
en curso.

Un
corte
de
lnea
justificado a los margenes
en curso.

Un corte de l\{\i}nea\linebreak
justificado a los m\argenes
en curso.

Observemos como en el segundo caso, en que se usa \linebreak, la separacion entre palabras
es alterada para permitir que el texto respete los margenes establecidos.

Corte de p
aginas.
Como para cortar lneas, existe un modo violento y uno sutil:
\newpage

Cambia de pagina en el punto indicado. Analogo


a \newline.

\clearpage

Lo mismo, pero ajustando los espacios verticales


en el texto para llenar del mejor modo posible
la pagina.

\clearpage, sin embargo, no siempre tiene efectos visibles. Dependiendo de la cantidad y tipo
de texto que quede en la pagina, los espacios verticales pueden o no ser ajustados, y si no lo son,
el resultado termina siendo equivalente a un \newpage. TEX decide en u
ltima instancia que es lo
optimo.
Adicionalmente, tenemos el comando:
\enlargethispage{<longitud>}

Cambia el tama
no de la pagina actual en la cantidad <longitud>.

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

398

(Las unidades de longitud que maneja TEX se revisan a continuacion.)

Unidades de longitud y espacios.


a) Unidades.
TEX reconoce las siguientes unidades de longitud:
cm
mm
in
pt
em
ex

centmetro
milmetro
pulgada
punto (1/72 pulgadas)
ancho de una M en el font actual
altura de una x en el font actual

Las cuatro primeras unidades son absolutas; las u


ltimas dos, relativas, dependiendo del tama
no del font actualmente en uso.
Las longitudes pueden ser n
umeros enteros o decimales, positivos o negativos:
1cm

1.6in

.58pt

-3ex

b) Cambio de longitudes.
TEX almacena los valores de las longitudes relevantes al texto en comandos especiales:
\parindent

Sangra.

\textwidth

Ancho del texto.

\textheight

Altura del texto.

\oddsidemargin

Margen izquierdo menos 1 pulgada.

\topmargin

Margen superior menos 1 pulgada.

\baselineskip

Distancia entre la base de dos lneas de texto


consecutivas.

\parskip

Distancia entre parrafos.

Todas estas variables son modificables con los comandos \setlength, que le da a una variable
un valor dado, y \addtolength, que le suma a una variable la longitud especificada. Por
ejemplo:
\setlength{\parindent}{0.3em}

(\parindent = 0.3 cm.)

\addtolength{\parskip}{1.5cm}

(\parskip = \parskip + 1.5 cm.)

Por default, el ancho y altura del texto, y los margenes izquierdo y superior, estan definidos
de modo que quede un espacio de una pulgada (' 2,56 cm) entre el borde del texto y el borde
de la pagina.

12.10. FIGURAS.

399

Un problema tpico es querer que el texto llene un mayor porcentaje de la pagina. Por ejemplo, para que el margen del texto en los cuatro costados sea la mitad del default, debemos
introducir los comandos:
\addtolength{\textwidth}{1in}
\addtolength{\textheight}{1in}
\addtolength{\oddsidemargin}{-.5in}
\addtolength{\topmargin}{-.5in}
Las dos primeras lneas aumentan el tama
no horizontal y vertical del texto en 1 pulgada.
Si luego restamos media pulgada del margen izquierdo y el margen superior, es claro que la
distancia entre el texto y los bordes de la pagina sera de media pulgada, como deseabamos.
c) Espacios verticales y horizontales.
Se insertan con \vspace y \hspace:
\vspace{3cm}
\hspace{3cm}

Espacio vertical de 3 cm.


Espacio horizontal de 3 cm.

Algunos ejemplos:
Un primer parrafo de un peque
no texto.

Un primer p\arrafo de un
peque\~no texto.

Y un segundo parrafo separado del otro.

\vspace{1cm}
Y un segundo p\arrafo
separado del otro.

Tres palabras
del resto.

separadas

Tres\hspace{.5cm}palabras
\hspace{.5cm}separadas
del resto.

Si por casualidad el espacio vertical impuesto por \vspace debiese ser colocado al comienzo
de una pagina, TEX lo ignora. Sera molesto visualmente que en algunas paginas el texto
comenzara algunos centmetros mas abajo que en el resto. Lo mismo puede ocurrir si el
espacio horizontal de un \hspace queda al comienzo de una lnea.
Los comandos \vspace*{<longitud>} y \hspace*{<longitud>} permiten que el espacio en
blanco de la <longitud> especificada no sea ignorado. Ello es u
til cuando invariablemente
queremos ese espacio vertical u horizontal, aunque sea al comienzo de una pagina o una lnea
por ejemplo, para insertar una figura.

12.10.

Figuras.

Lo primero que hay que decir en esta seccion es que LATEX es un excelente procesador de texto,
tanto convencional como matematico. Las figuras, sin embargo, son un problema aparte.
LATEX provee un ambiente picture que permite realizar dibujos simples. Dentro de la estructura \begin{picture} y \end{picture} se pueden colocar una serie de comandos para dibujar
lneas, crculos, ovalos y flechas, as como para posicionar texto. Infortunadamente, el proceso de

400

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

ejecutar dibujos sobre un cierto umbral de complejidad puede ser muy tedioso para generarlo directamente. Existe software (por ejemplo, xfig) que permite superar este problema, pudiendose
dibujar con el mouse, exportando el resultado al formato picture de LATEX. Sin embargo, picture
tiene limitaciones (no se pueden hacer lneas de pendiente arbitraria), y por tanto no es una soluci
on
optima.

Para obtener figuras de buena calidad es imprescindible recurrir a lenguajes graficos externos, y
LATEX da la posibilidad de incluir esos formatos graficos en un documento. De este modo, tanto el
texto como las figuras seran de la mas alta calidad. Las dos mejores soluciones son utilizar Metafont
o PostScript. Metafont es un programa con un lenguaje de programacion grafico propio. De hecho,
los propios fonts de LATEX fueron creados usando Metafont, y sus capacidades permiten hacer dibujos
de complejidad arbitraria. Sin embargo, los dibujos resultantes no son trivialmente reescalables, y
exige aprender un lenguaje de programaci
on especfico.
Una soluci
on mucho mas versatil, y adoptada como el estandar en la comunidad de usuarios
de LATEX, es el uso de PostScript. Como se menciono brevemente en la seccion 8.12, al imprimir,
una maquina unix convierte el archivo a formato PostScript, y luego lo enva a la impresora. Pero
PostScript sirve mas que para imprimir, siendo un lenguaje de programacion grafico completo, con
el cual podemos generar imagenes de gran calidad, y reescalables sin perdida de resolucion. Adem
as,
muchos programas graficos permiten exportar sus resultados en formato PostScript. Por lo tanto,
podemos generar nuestras figuras en alguno de estos programas (xfig es un excelente software, que
satisface la mayor parte de nuestras necesidades de dibujos simples; octave o gnuplot pueden ser
usados para generar figuras provenientes de calculos cientficos, etc.), lo cual creara un archivo con
extension .ps (PostScript) o .eps (PostScript encapsulado).4 Luego introducimos la figura en el
documento LATEX, a traves del paquete graphicx.

12.10.1.

graphicx.sty

Si nuestra figura esta en un archivo figura.eps, la instruccion a utilizar es:

\documentclass[12pt]{article}
\usepackage{graphicx}
\begin{document}
... Texto ...
\includegraphics[width=w, height=h]{figura.eps}
...
\end{document}

Los parametros width y height son opcionales y puede omitirse uno para que el sistema escale
de acuerdo al parametro dado. Es posible variar la escala completa de la figura o rotarla usando
comandos disponibles en graphicx.
4

eps es el formato preferido, pues contiene informacion sobre las dimensiones de la figura, informacion
que es utilizada por LATEX para insertar esta adecuadamente en el texto.

12.10. FIGURAS.

401

Una figura aqu:

Una figura aqu\{\i}:


\begin{center}
\includegraphics[height=3cm]{figura.eps}
\end{center}
puede hacer m\as agradable
el texto.

puede hacer mas agradable el


texto.
En este ejemplo, indicamos solo la altura de la figura (3cm). El ancho fue determinado de modo
que las proporciones de la figura no fueran alteradas. Si no se especifica ni la altura ni el ancho, la
figura es insertada con su tama
no natural.
Observemos tambien que pusimos la figura en un ambiente center. Esto no es necesario, pero
normalmente uno desea que las figuras esten centradas en el texto.

12.10.2.

Ambiente figure.

Insertar una figura es una cosa. Integrarla dentro del texto es otra. Para ello esta el ambiente
figure, que permite: (a) posicionar la figura automaticamente en un lugar predeterminado o especificado por el usuario; (b) numerar las figuras; y (c) agregar un breve texto explicativo junto a la
figura.
Coloquemos la misma figura de la seccion anterior dentro de un ambiente figure. El input:
\begin{figure}[h]
\begin{center}
\includegraphics[height=3cm]{figura.eps}
\end{center}
\caption{Un sujeto caminando.}
\label{caminando}
\end{figure}
da como resultado:

Figura 12.1: Un sujeto caminando.


figure delimita lo que en TEX se denomina un objeto flotante, es decir, un objeto cuya posici
on
no esta determinada a priori, y se ajusta para obtener los mejores resultados posibles. TEX considera
(de acuerdo con la tradicion), que la mejor posicion para colocar una figura es al principio o al final

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

402

de la pagina. Ademas, lo ideal es que cada pagina tenga un cierto n


umero maximo de figuras,
que ninguna figura aparezca en el texto antes de que sea mencionada por primera vez, y que, por

supuesto, las figuras aparezcan en el orden en que son mencionadas. Estas


y otras condiciones
determinan la posicion que un objeto flotante tenga al final de la compilacion. Uno puede forzar la
decision de LATEX con el argumento opcional de figure:
t
b
h
p

(top)
(bottom)
(here)
(page of floats)

extremo superior de la pagina


extremo inferior de la pagina
aqu, en el punto donde esta el comando
en una pagina separada al final del texto

El argumento adicional ! suprime, para ese objeto flotante especfico, cualquier restriccion que
exista sobre el n
umero maximo de objetos flotantes en una pagina y el porcentaje de texto mnimo
que debe haber en una pagina.
Varios de estos argumentos se pueden colocar simultanemente, su orden dictando la prioridad.
Por ejemplo,
\begin{figure}[htbp]
...
\end{figure}
indica que la figura se debe colocar como primera prioridad aqu mismo; si ello no es posible, al
comienzo de p
agina (esta o la siguiente, dependiendo de los detalles de la compilacion), y as sucesivamente.
Ademas, figure numera automaticamente la figura, colocando el texto Figura N :, y \caption
permite colocar una leyenda, centrada en el texto, a la figura. Puesto que la numeracion es automatica, las figuras pueden ser referidas simbolicamente con \label y \ref (seccion 12.6). Para que la
referencia sea correcta, \label debe estar dentro del argumento de \caption, o despues, como
aparece en el ejemplo de la Figura 12.1 (\ref{caminando}!).
Finalmente, notemos que la figura debio ser centrada explcitamente con center. figure no
hace nada mas que tratar la figura como un objeto flotante, proporcionar numeracion y leyenda. El
resto es responsabilidad del autor.

12.11.

Cartas.

Para escribir cartas debemos emplear el estilo letter en vez del que hemos utilizado hasta
ahora, article. Comandos especiales permiten escribir una carta, poniendo en lugares adecuados
la direccion del remitente, la fecha, la firma, etc.
A modo de ejemplo, consideremos el siguiente input:
\documentclass[12pt]{letter}
\usepackage[spanish]{babel}
\begin{document}
\address{Las Palmeras 3425\\
\~Nu\~noa, Santiago}
\date{9 de Julio de 1998}

12.11. CARTAS.

\signature{Pedro P\erez \\ Secretario}


\begin{letter}{Dr.\ Juan P\erez \\ Las Palmeras 3425 \\
\~Nu\~noa, Santiago}
\opening{Estimado Juan}
A\un no tenemos novedades.
Parece incre\{\i}ble, pero los recientes acontecimientos nos han superado,
a pesar de nuestros esfuerzos. Esperamos que mejores tiempos nos
aguarden.
\closing{Saludos,}
\cc{Arturo Prat \\ Luis Barrios}
\end{letter}
\end{document}
El resultado se encuentra en la proxima pagina.

403

404

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

Las Palmeras 3425


noa, Santiago
Nu
9 de Julio de 1998
Dr. Juan Perez
Las Palmeras 3425
noa, Santiago
Nu
Estimado Juan
A
un no tenemos novedades.
Parece increble, pero los recientes acontecimientos nos han superado, a pesar
de nuestros esfuerzos. Esperamos que mejores tiempos nos aguarden.
Saludos,

Pedro Perez
Secretario
Copia a: Arturo Prat
Luis Barrios

12.12. LATEX Y EL FORMATO PDF.

405

Observemos que el texto de la carta esta dentro de un ambiente letter, el cual tiene un argumento obligatorio, donde aparece el destinatario de la carta (con su direccion opcionalmente).
Los comandos disponibles son:
\address{<direccion>}

<direccion> del remitente.

\signature{<firma>}

<firma> del remitente.

\opening{<apertura>}

Formula de <apertura>.

\closing{<despedida>}

Formula de <despedida>.

\cc{<copias>}

Receptores de <copias> (si los hubiera).

Uno puede hacer mas de una carta con distintos ambientes letter en un mismo archivo. Cada una tomara el mismo remitente y firma dados por \address y \signature. Si deseamos que
\address o \signature valgan solo para una carta particular, basta poner dichos comandos entre
el \begin{letter} y el \opening correspondiente.
Por ejemplo, la siguiente estructura:
\documentclass[12pt]{letter}
\begin{document}
\address{<direccion remitente>}
\date{<fecha>}
\signature{<firma>}
\begin{letter}{<destinatario 1>}
\opening<apertura 1>
...
\end{letter}
\begin{letter}{<destinatario 2>}
\address{<direccion remitente 2>}
\signature{<firma 2>}
\opening<apertura 2>
...
\end{letter}
\begin{letter}{<destinatario 3>}
\opening<apertura 3>
...
\end{letter}
\end{document}
dara origen a tres cartas con la misma direccion de remitente y firma, salvo la segunda.
En todos estos comandos, lneas sucesivas son indicadas con \\.

12.12.

LATEX y el formato pdf.

Junto con PostScript, otro formato ampliamente difundido para la transmision de archivos,
especialmente a traves de Internet, es el formato pdf (Portable Document Format). Para generar un

406

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

archivo pdf con LATEX es necesario compilarlo con pdflatex. As, pdflatex <archivo> generara un
archivo <archivo>.pdf en vez del <archivo>.dvi generado por el compilador usual.
Si nuestro documento tiene figuras, solo es posible incluirlas en el documento si estan tambien
en formato pdf. Por tanto, si tenemos un documento con figuras en PostScript, debemos introducir
dos modificaciones antes de compilar con pdflatex:
a) Cambiar el argumento de \includegraphics (seccion 12.10) de <archivo_figura>.eps
a <archivo_figura>.pdf.
b) Convertir las figuras PostScript a pdf (con epstopdf, por ejemplo). Si tenemos una figura en el
archivo <archivo_figura>.eps, entonces epstopdf <archivo_figura>.eps genera el archivo
correspondiente <archivo_figura>.pdf.
Observar que el mismo paquete graphicx descrito en la seccion 12.10 para incluir figuras
PostScript permite, sin modificaciones, incluir figuras en pdf.

12.13.

Modificando LATEX.

Esta seccion se puede considerar avanzada. Normalmente uno se puede sentir satisfecho con
el desempe
no de LATEX, y no es necesaria mayor intervencion. A veces, dependiendo de la aplicaci
on
y del autor, nos gustara modificar el comportamiento default. Una alternativa es definir nuevos
comandos que sean u
tiles para nosotros. Si esos nuevos comandos son abundantes, o queremos reutilizarlos frecuentemente en otros documentos, lo conveniente es considerar crear un nuevo paquete o
incluso una nueva clase. Examinaremos a continuacion los elementos basicos de estas modificaciones.

12.13.1.

Definici
on de nuevos comandos.

El comando \newcommand
Un nuevo comando se crea con:
\newcommand{<comando>}{<accion>}
El caso mas sencillo es cuando una estructura se repite frecuentemente en nuestro documento.
Por ejemplo, digamos que un sujeto llamado Cristobal no quiere escribir su nombre cada vez que
aparece en su documento:
Mi nombre es
S, como oyes,
Cristobal Loyola.

Cristobal.
Cristobal.

\newcommand{\nombre}{Crist\obal}
...
\begin{document}
...
Mi nombre es \nombre. S\{\i}, como oyes,
\nombre. \nombre\ Loyola.

Un \newcommand puede aparecer en cualquier parte del documento, pero lo mejor es que este en
el preambulo, de modo que sea evidente que nuevos comandos estan disponibles en el presente
documento. Observemos ademas que la definicion de un comando puede contener otros comandos
(en este caso, \). Finalmente, notamos que ha sido necesario agregar un espacio explcito con \ ,
al escribir Cristobal Loyola: recordemos que un comando comienza con un backslash y termina

12.13. MODIFICANDO LATEX.

407

con el primer caracter que no es letra. Por tanto, \nombre Loyola ignora el espacio al final de
\nombre, y el output sera CristobalLoyola.
Tambien es posible definir comandos que funcionen en modo matematico:
Sea x la velocidad, de modo
que x(t)

> 0 si t < 0.

\newcommand{\vel}{\dot x}
Sea $\vel$ la velocidad, de modo que
$ \vel(t)> 0$ si $t<0$.

Como \vel contiene un comando matematico (\dot), \vel solo puede aparecer en modo matematico.
Podemos tambien incluir la apertura de modo matematico en la definicion de \vel:
\newcommand{\vel}{$\dot x$}. De este modo, \vel (no $\vel$) da como output directamente x.
Sin embargo, esta solucion no es optima, porque la siguiente ocurrencia de \vel da un error.
En efecto, si \vel = $\dot x$, entonces $ \vel(t)>0$ = $ $\dot x$> 0$. En tal caso, LATEX
ve que un modo matematico se ha abierto y cerrado inmediatamente, conteniendo solo un espacio
entremedio, y luego, en modo texto, viene el comando \dot, que es matematico: LATEX acusa un
error y la compilacion se detiene.
La solucion a este problema es utilizar el comando \ensuremath, que asegura que haya modo
matematico, pero si ya hay uno abierto, no intenta volverlo a abrir:
Sea x la velocidad, de modo
que x(t)

> 0 si t < 0.

\newcommand{\vel}{\ensuremath{\dot x}}
Sea \vel\ la velocidad, de modo que
$ \vel(t)> 0$ si $t<0$.

Un caso especial de comando matematico es el de operadores tipo logaritmo (ver Tabla 12.9). Si
queremos definir una traduccion al castellano de \sin, debemos usar el comando \DeclareMathOperator
disponible via amsmath:
Ahora podemos escribir en
castellano, sen x.

\usepackage{amsmath}
\DeclareMathOperator{\sen}{sen}
...
Ahora podemos escribir en castellano, $\sen x$.

A diferencia de \newcommand, \DeclareMathOperator solo puede aparecer en el preambulo del


documento.
Un nuevo comando puede tambien ser usado para ahorrar tiempo de escritura, reemplazando
comandos largos de LATEX:
1.

El primer caso.

2.

Ahora el segundo.

3.

Y el tercero.

\newcommand{\be}{\begin{enumerate}}
\newcommand{\ee}{\end{enumerate}}
\be
\item El primer caso.
\item Ahora el segundo.
\item Y el tercero.
\ee

408

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

Nuevos comandos con argumentos


Podemos tambien definir comandos que acepten argumentos. Si el sujeto anterior, Cristobal,
desea escribir cualquier nombre precedido de Nombre: en italica, entonces puede crear el siguiente
comando:
Nombre: Cristobal
Nombre: Violeta

\newcommand{\nombre}[1]{\textit{Nombre:} #1}
\nombre{Crist\obal}
\nombre{Violeta}

Observemos que \newcommand tiene un argumento opcional, que indica el n


umero de argumentos
que el nuevo comando va a aceptar. Esos argumentos se indican, dentro de la definicion del comando,
con #1, #2, etc. Por ejemplo, consideremos un comando que acepta dos argumentos:
\newcommand{\fn}[2]{f(#1,#2)}
f (x, y) + f (x3 , y) = 0 .

$$ \fn{x}{y} + \fn{x_3}{y*} = 0 \ . $$

En los casos anteriores, todos los argumentos son obligatorios. LATEX permite definir comandos
con un (solo un) argumento opcional. Si el comando acepta n argumentos, el argumento opcional es
el #1, y se debe indicar, en un segundo parentesis cuadrado, su valor default. As, podemos modificar
el comando \fn del ejemplo anterior para que el primer argumento sea opcional, con valor default
x:
\newcommand{\fn}[2][x]{f(#1,#2)}
f (x, y) + f (x3 , y) = 0 .

$$ \fn{y} + \fn[x_3]{y*} = 0 \ . $$

Redefinici
on de comandos
Ocasionalmente no nos interesa definir un nuevo comando, sino redefinir la accion de un comando
preexistente. Esto se hace con \renewcommand:
La antigua version de ldots:
...
La nueva version de ldots:

La antigua versi\on de

{\tt ldots}: \ldots

\renewcommand{\ldots}{\textbullet \textbullet
\textbullet}
La nueva versi\on de {\tt ldots}: \ldots

P
arrafos y cambios de lnea dentro de comandos
En el segundo argumento de \newcommand o \renewcommand puede aparecer cualquier comando
de LATEX, pero ocasionalmente la aparicion de lneas en blanco (para forzar un cambio de parrafo)
puede provocar problemas. Si ello ocurre, podemos usar \par, que hace exactamente lo mismo.
Ademas, la definicion del comando queda mas compacta:

12.13. MODIFICANDO LATEX.

409

\newcommand{\comandolargo}{\par Un nuevo comando que incluye un cambio de


p\arrafo, porque deseamos incluir bastante texto.\par \Este es el
nuevo p\arrafo.\par}
Observemos en acci\on el comando: \comandolargo Listo.
da como resultado:
Observemos en accion el comando:
Un nuevo comando que incluye un cambio de parrafo, porque deseamos incluir bastante texto.

Este
es el nuevo parrafo.
Listo.
Un ejemplo mas u
til ocurre cuando queremos asegurar un cambio de parrafo, por ejemplo, para
colocar un ttulo de seccion:
Observemos en accion el comando:

\newcommand{\seccion}[1]{\par\vspace{.5cm}
{\bf Secci\on: #1}\par\vspace{.5cm}}

Secci
on: Ejemplo

Observemos en acci\on el comando:


\seccion{Ejemplo} Listo.

Listo.
Ademas de las lneas en blanco, los cambios de lnea pueden causar problemas dentro de la
definicion de un nuevo comando. El ejemplo anterior, con el comando \seccion, es un buen ejemplo:
notemos que cuando se definio, pusimos un cambio de lnea despues de \vspace{.5cm}. Ese cambio
de lnea es interpretado (como todos los cambios de lnea) como un espacio en blanco, y es posible
que, bajo ciertas circunstancias, ese espacio en blanco produzca un output no deseado. Para ello
basta utilizar sabiamente el caracter %, que permite ignorar todo el resto de la lnea, incluyendo el
cambio de lnea. Ilustremos lo anterior con los siguientes tres comandos, que subrayan (comando
\underline) una palabra, y difieren solo en el uso de % para borrar cambios de lnea:
Notar la diferencia entre:
Un texto de prueba ,
Un texto de prueba , y
Un texto de prueba.

\newcommand{\texto}{
Un texto de prueba
}
\newcommand{\textodos}{%
Un texto de prueba
}
\newcommand{\textotres}{%
Un texto de prueba%
}
Notar la diferencia entre:
\underline{\texto},
\underline{\textodos},
y
\underline{\textotres}.

\texto conserva espacios en blanco antes y despues del texto, \textodos solo el espacio en

410

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

blanco despues del texto, y \textotres no tiene espacios en blanco alrededor del texto.

Nuevos ambientes
Nuevos ambientes en LATEX se definen con \newenvironment:
\newenvironment{<ambiente>}{<comienzo ambiente>}{<final ambiente>}
define un ambiente <ambiente>, tal que \begin{ambiente} ejecuta los comandos
<comienzo ambiente>, y \end{ambiente} ejecuta los comandos <final ambiente>.
Definamos un ambiente que, al comenzar, cambia el font a italica, pone una lnea horizontal
(\hrule) y deja un espacio vertical de .3cm, y que al terminar cambia de parrafo, coloca XXX en
sans serif, deja un nuevo espacio vertical de .3cm, y vuelve al font roman:
\newenvironment{na}{\it \hrule \vspace{.3cm}}{\par\sf XXX \vspace{.3cm}\rm}
Entonces, con
\begin{na}
Hola a todos. Es un placer saludarlos en este d\{\i}a tan especial.
Nunca esper\e una recepci\on tan calurosa.
\end{na}
obtenemos:

Hola a todos. Es un placer saludarlos en este da tan especial.


Nunca espere una recepci
on tan calurosa.
XXX
Los nuevos ambientes tambien pueden ser definidos de modo que acepten argumentos. Como con
\newcommand, basta agregar como argumento opcional a \newenvironment un n
umero que indique
cuantos argumentos se van a aceptar:
\newenvironment{<ambiente>}[n]{<comienzo ambiente>}{<final ambiente>}
Dentro de <comienzo ambiente>, se alude a cada argumento como #1, #2, etc. Los argumentos
no pueden ser usados en los comandos de cierre del ambiente (<final ambiente>). Por ejemplo,
modifiquemos el ambiente na anterior, de modo que en vez de colocar una lnea horizontal al
comienzo, coloque lo que le indiquemos en el argumento:
\newenvironment{na}[1]{\it #1 \vspace{.3cm}}{\par\sf XXX\hrule\vspace{.3cm}\rm}
Ahora usemoslo dos veces, cada una con un argumento distinto:

12.13. MODIFICANDO LATEX.

411

El mismo ejemplo anterior,


ahora es

El mismo ejemplo anterior, ahora es

Hola a todos. . .
XXX

\begin{na}{\hrule}
Hola a todos...
\end{na}

Pero podemos ahora cambiar


el comienzo:
XXX Hola a todos. . .
XXX

12.13.2.

Pero podemos ahora cambiar el comienzo:


\begin{na}{\it XXX}
Hola a todos...
\end{na}

Creaci
on de nuevos paquetes y clases

Si la cantidad de nuevos comandos y/o ambientes que necesitamos en nuestro documento es


suficientemente grande, debemos considerar crear un nuevo paquete o una nueva clase. Para ello
hay que tener clara la diferencia entre uno y otro. En general, se puede decir que si nuestros comandos
involucran alterar la apariencia general del documento, entonces corresponde crear una nueva clase
(.cls). Si, por el contrario, deseamos que nuestros comandos funcionen en un amplio rango de
circunstancias, para diversas apariencias del documento, entonces lo adecuado es un paquete (.sty).
Consideremos por ejemplo la experiencia de los autores de estos apuntes. Para crear estos apuntes
necesitamos basicamente la clase book, con ciertas modificaciones: margenes mas peque
nos, inclusi
on
automatica de los paquetes amsmath, babel y graphicx, entre otros, y definicion de ciertos ambientes
especficos. Todo ello afecta la apariencia de este documento, cambiandola de manera apreciable,
pero a la vez de un modo que en general no deseamos en otro tipo de documento. Por ello lo hemos
compilado usando una clase adecuada, llamada mfm2.cls.
Por otro lado, uno de los autores ha necesitado escribir muchas tareas, pruebas y controles de
ayudanta en su vida, y se ha convencido de que su trabajo es mas facil creando una clase tarea.cls,
que sirve para esos tres propositos, definiendo comandos que le permiten especificar facilmente la
fecha de entrega de la tarea, o el tiempo disponible para una prueba, los nombres del profesor y el
ayudante, etc., una serie de comandos especficos para sus necesidades.
Sin embargo, tanto en este documento que usa mfm2.cls, como en las tareas y pruebas que
usan tarea.cls, se utilizan algunos comandos matematicos que no vienen con LATEX, pero que
son recurrentes, como \sen (la funcion seno en castellano), \modulo (el modulo de un vector), o
\TLaplace (la transformada de Laplace). Para que estos comandos esten disponibles en cualquier
tipo de documento, necesitamos reunirlos en un paquete, en este caso addmath.sty. De este modo,
mfm2.cls, tarea.cls o cualquier otra clase pueden llamar a este paquete y utilizar sus comandos.

Estructura b
asica.
La estructura basica de un paquete o una clase es:
a) Identificacion: Informacion general (nombre del paquete, fecha de creacion, etc.). (Obligatoria.)
b) Declaraciones preliminares: Opcionales, dependiendo del paquete o clase en cuestion.
c) Opciones: Comandos relacionados con el manejo de las opciones con las cuales el paquete o clase
pueden ser invocados. (Opcional.)

412

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

d) Mas declaraciones: Aqu van los comandos que constituyen el cuerpo de la clase o paquete.
(Obligatoria: si no hay ninguna declaracion, el paquete o clase no hace nada, naturalmente.)
La identificacion esta consituida por las siguientes dos lneas, que deben ir al comienzo del
archivo:
\NeedsTeXFormat{LaTeX2e}
\ProvidesPackage{<paquete>}[<fecha> <otra informacion>]
La primera lnea indica a LATEX que este es un archivo para LATEX 2 . La segunda lnea especifica
que se trata de un paquete, indicando el nombre del mismo (es decir, el nombre del archivo sin
extension) y, opcionalmente, la fecha (en formato YYYY/MM/DD) y otra informacion relevante. Por
ejemplo, nuestro paquete addmath.sty comienza con las lneas:
\NeedsTeXFormat{LaTeX2e}
\ProvidesPackage{addmath}[1998/09/30 Macros matematicos adicionales (VM)]
Si lo que estamos definiendo es una clase, usamos el comando \ProvidesClass. Para nuestra
clase mfm2.cls:
\NeedsTeXFormat{LaTeX2e}
\ProvidesClass{mfm2}[2002/03/25 Estilo para apuntes MFM II (VM)]
A continuacion de la identificacion vienen los comandos que se desean incorporar a traves de
este paquete o clase.
Como hemos dicho, addmath.sty contiene muchos nuevos comandos matematicos que consideramos necesario definir mientras escribamos estos apuntes. Veamos los contenidos de una versi
on
simplificada de dicho paquete:
\NeedsTeXFormat{LaTeX2e}
\ProvidesPackage{addmath}[1998/09/30 Macros matematicos adicionales (VM)]
\newcommand{\prodInt}[2]{\ensuremath \left(\, #1\, |\, #2\, \right ) }
\newcommand{\promedio}[1]{\langle #1 \rangle}
\newcommand{\intii}{\int_{-\infty}^{\infty}}
\newcommand{\grados}{\ensuremath{^\circ}}
\newcommand{\Hipergeometrica}[4]{{}_2F_1\left (#1, #2, #3\, ; #4\right )}
...
De este modo, incluyendo en nuestro documento el paquete con \usepackage{addmath}, varios
nuevos comandos estan disponibles:
(x|y)

\prodInt{x}{y}

hxi
Z

\promedio{x}
dz f (z)

\intii dz\, f(z)

ABC = 90

\angle\, ABC = 90\grados

2 F1 (a, b, c ; d)

\Hipergeometrica{a}{b}{c}{d}

12.13. MODIFICANDO LATEX.

413

Incluyendo otros paquetes y clases


Los comandos \RequirePackage y \LoadClass permiten cargar un paquete o una clase, respectivamente.5 . Esto es de gran utilidad, pues permite construir un nuevo paquete o clase aprovechando
la funcionalidad de otros ya existentes.
As, nuestro paquete addmath.sty define bastantes comandos, pero nos gustara definir varios mas que solo pueden ser creados con las herramientas de AMS-LATEX. Cargamos entonces
en addmath.sty el paquete amsmath y otros relacionados, y estamos en condiciones de crear m
as
comandos:
\NeedsTeXFormat{LaTeX2e}
\ProvidesPackage{addmath}[1998/09/30 Macros matematicos adicionales (VM)]
\RequirePackage{amsmath}
\RequirePackage{amssymb}
\RequirePackage{euscript}
...
\newcommand{\norma}[1]{\ensuremath \left\lVert\, #1 \,\right\rVert}
\newcommand{\intC}{{\sideset{^*}{}\int}}
\DeclareMathOperator{\senh}{senh}
...
Por ejemplo:
kxk
Z
dz f (z)

\norma{x}

senh(2y)

\senh (2y)

\intC dz \, f(z)

La posibilidad de basar un archivo .sty o .cls en otro es particularmente importante para


una clase, ya que contiene una gran cantidad de comandos y definiciones necesarias para compilar
el documento exitosamente. Sin embargo, un usuario normal, aun cuando desee definir una nueva
clase, estara interesado en modificar solo parte del comportamiento. Con \LoadClass, dicho usuario
puede cargar la clase sobre la cual se desea basar, y luego introducir las modificaciones necesarias,
facilitando enormemente la tarea.
Por ejemplo, al preparar este documento fue claro desde el comienzo que se necesitaba esencialmente la clase book, ya que sera un texto muy extenso, pero tambien era claro que se requeran
ciertas modificaciones. Entonces, en nuestra clase mfm2.cls lo primero que hacemos es cargar la
clase book, mas algunos paquetes necesarios (incluyendo nuestro addmath), y luego procedemos a
modificar o a
nadir comandos:
\NeedsTeXFormat{LaTeX2e}
\ProvidesClass{mfm2}[2002/03/25 Estilo para apuntes MFM II (VM)]
\LoadClass[12pt]{book}
\RequirePackage[spanish]{babel}
5

Estos comandos s
olo se pueden usar en un archivo .sty o .cls Para documentos normales, la manera
de cargar un paquete es \usepackage, y para cargar una clase es \documentclass.

414

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

\RequirePackage{enumerate}
\RequirePackage{addmath}
En un archivo .sty o un .cls se pueden cargar varios paquetes con \RequirePackage. \LoadClass,
en cambio, solo puede aparecer en un .cls, y solo es posible usarlo una vez (ya que normalmente
clases distintas son incompatibles entre s).

Manejo de opciones
En el u
ltimo ejemplo anterior, la clase mfm2 carga la clase book con la opcion 12pt. Esto significa
que si nuestro documento comienza con \documentclass{mfm2}, sera compilado de acuerdo a la
clase book, en 12 puntos. No es posible cambiar esto desde nuestro documento. Sera mejor que
pudieramos especificar el tama
no de letra fuera de la clase, de modo que \documentclass{mfm2}
de un documento en 10 puntos, y \documentclass[12pt]{mfm2} uno en 12 puntos. Para lograr
esto hay que poder pasar opciones desde la clase mfm2 a book.
El modo mas simple de hacerlo es con \LoadClassWithOptions. Si mfm2.cls ha sido llamada
con opciones <opcion1>,<opcion2>, etc., entonces book sera llamada con las mismas opciones.
Por tanto, basta modificar en mfm2.cls la lnea \LoadClass[12pt]{book} por:
\LoadClassWithOptions{book}
\RequirePackageWithOptions es el comando analogo para paquetes. Si una clase o un paquete
llaman a un paquete <paquete_base> y desean pasarle todas las opciones con las cuales han sido
invocados, basta indicarlo con:
\RequirePackageWithOptions{<paquete_base>}
El ejemplo anterior puede ser suficiente en muchas ocasiones, pero en general uno podra llamar
a nuestra nueva clase, mfm2, con opciones que no tienen nada que ver con book. Por ejemplo,
podramos llamarla con opciones spanish,12pt. En tal caso, debera pasarle spanish a babel, y
12pt a book. Mas a
un, podramos necesitar definir una nueva opcion, que no existe en ninguna de
las clases o paquetes cargados por book, para modificar el comportamiento de mfm2.cls de cierta
manera especfica no prevista. Estas dos tareas, discriminar entre opciones antes de pasarla a alg
un
paquete determinado, y crear nuevas opciones, constituyen un manejo mas avanzado de opciones.
A continuaci
on revisaremos un ejemplo combinado de ambas tareas, extraido de la clase con la cual
compilamos este texto, mfm2.cls.
La idea es poder llamar a mfm2 con una opcion adicional keys, que permita agregar al dvi
informacion sobre las etiquetas (dadas con \label) de ecuaciones, figuras, etc., que aparezcan en
el documento (veremos la utilidad y un ejemplo de esto mas adelante). Lo primero es declarar una
nueva opcion, con:
\DeclareOption{<opcion>}{<comando>}
<opcion> es el nombre de la nueva opcion a declarar, y <comando> es la serie de comandos que se
ejecutan cuando dicha opcion es especificada.
As, nuestro archivo mfm2.cls debe ser modificado:
\NeedsTeXFormat{LaTeX2e}
\ProvidesClass{mfm2}[2002/03/25 Estilo para apuntes MFM II (VM)]
...
\DeclareOption{keys}{...}

12.13. MODIFICANDO LATEX.

415

...
\ProcessOptions\relax
...
Observamos que despues de declarar la o las opciones (en este caso keys), hay que procesarlas,
con \ProcessOptions.6

Las lneas anteriores permiten que \documentclass{mfm2} y \documentclass[keys]{mfm2}


sean ambas validas, ejecutandose o no ciertos comandos dependiendo de la forma utilizada.
Si ahora queremos que \documentclass[keys,12pt]{mfm2} sea una lnea valida, debemos procesar keys dentro de mfm2.cls, y pasarle a book.cls las opciones restantes. El
siguiente es el codigo definitivo:
\NeedsTeXFormat{LaTeX2e}
\ProvidesClass{mfm2}[2002/03/25 Estilo para apuntes MFM II (VM)]
\newif\ifkeys\keysfalse
\DeclareOption{keys}{\keystrue}
\DeclareOption*{\PassOptionsToClass{\CurrentOption}{book}}
\ProcessOptions\relax
\LoadClass{book}
\RequirePackage[spanish]{babel}
\RequirePackage{amsmath}
\RequirePackage{theorem}
\RequirePackage{epsfig}
\RequirePackage{ifthen}
\RequirePackage{enumerate}
\RequirePackage{addmath}
\ifkeys\RequirePackage[notref,notcite]{showkeys}\fi
<nuevos comandos de la clase mfm2.cls>
Sin entrar en demasiados detalles, digamos que la opcion keys tiene el efecto de hacer
que una cierta variable logica \ifkeys, sea verdadera (cuarta lnea del codigo). La siguiente lnea (\DeclareOption*...) hace que todas las opciones que no han sido procesadas
(12pt, por ejemplo) se pasen a la clase book. A continuacion se procesan las opciones con
\ProcessOptions, y finalmente se carga la clase book.
Las lneas siguientes cargan todos los paquetes necesarios, y finalmente se encuentran
todos los nuevos comandos y definiciones que queremos incluir en mfm2.cls.
es preObservemos que la forma particular en que se carga el paquete showkeys. Esa
cisamente la funcion de la opcion keys que definimos: showkeys.sty se carga con ciertas
opciones solo si se da la opcion keys.
Cual es su efecto? Consideremos el siguiente texto de ejemplo, en que mfm2 ha sido
llamada sin la opcion keys:
6

\relax es un comando de TEX que, esencialmente, no hace nada, ni siquiera introduce un espacio en
blanco, y es u
til incluirlo en puntos crticos de un documento, como en este ejemplo.

416

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

\documentclass[12pt]{mfm2}
\begin{document}
La opci\on \verb+keys+ resulta muy \util cuando tengo objetos numerados
autom\aticamente, como una ecuaci\on:
\begin{equation}
\label{newton}
\vec F = m \vec a \ .
\end{equation}
y luego quiero referirme a ella: Ec.\ \eqref{newton}.
En el primer caso, se ha compilado sin la opcion keys, y en el segundo con ella. El efecto
es que, si se usa un \label en cualquier parte del documento, aparece en el margen derecho
una caja con el nombre de dicha etiqueta (en este caso, newton). Esto es u
til para cualquier
tipo de documentos, pero lo es especialmente en textos como estos apuntes, muy extensos y
con abundantes referencias. En tal caso, tener un modo visual, rapido, de saber los nombres
de las ecuaciones sin tener que revisar trabajosamente el archivo fuente es una gran ayuda.
As, versiones preliminares pueden ser compiladas con la opcion keys, y la version final sin
ella, para no confesar al lector nuestra mala memoria o nuestra comodidad.

12.13. MODIFICANDO LATEX.

417

Caso 1: \documentclass[12pt]{mfm2}
La opcion keys resulta muy u
til cuando tengo objetos numerados automaticamente, como una ecuacion:
F~ = m~a .

(1)

y luego quiero referirme a ella: Ec. (1).

Caso 2: \documentclass[keys,12pt]{mfm2}
La opcion keys resulta muy u
til cuando tengo objetos numerados automaticamente, como una ecuacion:
F~ = m~a .
y luego quiero referirme a ella: Ec. (1).

(1) newton

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

418

12.14.

Errores y advertencias.

12.14.1.

Errores.

Un mensaje de error tpico tiene la forma:


LaTeX error. See LaTeX manual for explanation.
Type H <return> for immediate help.
! Environment itemie undefined.
\@latexerr ...or immediate help.}\errmessage {#1}
\endgroup
l.140 \begin{itemie}
?
La primera lnea nos comunica que LATEX ha encontrado un error. A veces los errores
tienen que ver con procesos mas internos, y son encontrados por TEX. Esta lnea nos informa
quien encontro el error.

La tercera lnea comienza con un signo de exclamacion. Este


es el indicador del error. Nos
dice de que error se trata.
Las dos lneas siguientes describen el error en terminos de comandos de bajo nivel.
La lnea 6 nos dice donde ocurrio el error: la lnea 140 en este caso. Ademas nos informa
del texto conflictivo: \begin{itemie}.
En realidad, el mensaje nos indica donde LATEX advirtio el error por primera vez, que no
es necesariamente el punto donde el error se cometio. Pero la gran mayora de las veces la
indicacion es precisa. De hecho, es facil darse cuenta, con la tercera lnea
(Environment itemie undefined)
y la sexta (\begin{itemie}) que el error consistio en escribir itemie en vez de itemize. La
informacion de LATEX es clara en este caso y nos dice correctamente que ocurrio y donde.
Luego viene un ?. LATEX esta esperando una respuesta de nosotros. Tenemos varias alternativas. Comentaremos solo cuatro, tpicamente usadas:
(a) h <Enter>
Solicitamos ayuda. TEX nos explica brevemente en que cree el que consiste el error y/o
nos da alguna recomendacion.
(b) x <Enter>
Abortamos la compilacion. Deberemos volver al editor y corregir el texto. Es la opcion
mas tpica cuando uno tiene ya cierta experiencia, pues el mensaje basta para reconocer
el error.
(c) <Enter>
Ignoramos el error y continuamos la compilacion. TEX hace lo que puede. En algunos
casos esto no tiene consecuencias graves y podremos llegar hasta el final del archivo
sin mayores problemas. En otros casos, ignorar el error puede provocar que ulteriores
comandos perfectamente validos en principio no sean reconocidos y, as, acumular

12.14. ERRORES Y ADVERTENCIAS.

419

muchos errores mas. Podemos continuar con <Enter> sucesivos hasta llegar al final de
la compilacion.
(d) q <Enter>
La accion descrita en el punto anterior puede llegar a ser tediosa o infinita. q hace
ingresar a TEX en batchmode, modo en el cual la compilacion prosigue ignorando todos
los errores hasta el final del archivo, sin enviar mensajes a pantalla y por ende sin que
debamos darle infinitos <Enter>.
Las opciones (c) y (d) son u
tiles cuando no entendemos los mensajes de error. Como
TEX seguira compilando haciendo lo mejor posible, al mirar el dvi puede que veamos mas
claramente donde comenzaron a ir mal las cosas y, por tanto, por que.
Como dijimos, LATEX indica exactamente donde encontro el error, de modo que hemos de
ponerle atencion. Por ejemplo, si tenemos en nuestro documento la lnea:
... un error inesperado\fotnote{En cualquier punto.}
puede decidir...
generara el mensaje de error:
! Undefined control sequence.
l.249 ...un error inesperado\fotnote
{En cualquier punto.}
?
En la lnea de localizacion, LATEX ha cortado el texto justo despues del comando inexistente. LATEX no solo indica la lnea en la cual detecto el error, sino el punto de ella donde ello
ocurrio. (En realidad, hizo lo mismo cortar la lnea para hacer resaltar el problema en el
caso expuesto en la pag. 418, pero ello ocurrio en medio de comandos de bajo nivel, as que
no era muy informativo de todos modos.)
Errores m
as comunes.
Los errores mas comunes son:
a) Comando mal escrito.
b) Parentesis cursivos no apareados.
c) Uso de uno de los caracteres especiales #, $, %, &, _, {, }, ~, ^, \ como texto ordinario.
d) Modo matematico abierto de una manera y cerrado de otra, o no cerrado.
e) Ambiente abierto con \begin... y cerrado con un \end... distinto.
f) Uso de un comando matematico fuera de modo matematico.
g) Ausencia de argumento en un comando que lo espera.
h) Lnea en blanco en ambiente matematico.

420

DE DOCUMENTOS TEX .
CAPITULO 12. EL SISTEMA DE PREPARACION

Algunos mensajes de error.


A continuacion, una peque
na lista de errores (de LATEX y TEX) en orden alfabetico, y sus
posibles causas.
*
Falta \end{document}. (Dar Ctrl-C o escribir \end{document} para salir de la compilacion.)
! \begin{...} ended by \end{...}
Error e) de la Sec. 12.14.1. El nombre del ambiente en \end{...} puede estar mal escrito,
sobra un \begin o falta un \end.
! Double superscript (o subscript).
3

Una expresion como x^2^3 o x_2_3. Si se desea obtener x2 (x23 ), escribir {x^2}^3 ({x_2}_3).
! Environment ... undefined.
\begin{...} con un argumento que corresponde a un ambiente no definido.
! Extra alignment tab has been changed.
En un tabular o array sobra un &, falta un \\, o falta una c, l o r en el argumento
obligatorio.
! Misplaced alignment tab character &.
Un & aparece fuera de un tabular o array.
! Missing $ inserted.
Errores c), d), f), h) de la Sec. 12.14.1.
! Missing { (o }) inserted.
Parentesis cursivos no apareados.
! Missing \begin{document}.
Falta \begin{document} o hay algo incorrecto en el preambulo.
! Missing number, treated as zero.
Falta
un
n
umero
donde
LATEX
\setlength{\textwidth}{a}, etc.

lo

espera:

\hspace{},

\vspace cm,

! Somethings wrong -- perhaps a missing \item.


Posiblemente la primera palabra
\begin{itemize} no es \item.

despues

de

un

\begin{enumerate}

! Undefined control sequence.


Aparece una secuencia \<palabra>, donde <palabra> no es un comando.

12.14. ERRORES Y ADVERTENCIAS.

12.14.2.

421

Advertencias.

La estructura de una advertencia de LATEX es:


LaTeX warning. <mensaje>.
Algunos ejemplos:
Label ... multiply defined.
Dos \label tienen el mismo argumento.
Label(s) may have changed. Rerun to get cross-references right.
Los n
umeros impresos por \ref y \pageref pueden ser incorrectos, pues los valores correspondientes cambiaron respecto al contenido del aux generado en la compilacion anterior.
Reference ... on page ... undefined.
El argumento de un \ref o un \pageref no fue definido por un \label.
TEX tambien enva advertencias. Se reconocen porque no comienzan con TeX warning.
Algunos ejemplos.
Overfull \hbox ...
TEX no encontro un buen lugar para cortar una lnea, y puso mas texto en ella que lo
conveniente.
Overfull \vbox ...
TEX no encontro un buen lugar para cortar una pagina, y puso mas texto en ella que lo
conveniente.
Underfull \hbox ...
TEX construyo una lnea con muy poco material, de modo que el espacio entre palabras puede
ser excesivo.
Underfull \vbox ...
TEX construyo una pagina con muy poco material, de modo que los espacios verticales (entre
parrafos) pueden ser excesivos.
Las advertencias de LATEX siempre deben ser atendidas. Una referencia doblemente definida, o no compilar por segunda vez cuando LATEX lo sugiere, generara un resultado incorrecto
en el dvi. Una referencia no definida, por su parte, hace aparecer un signo ?? en el texto
final. Todos resultados no deseados, por cierto.
Las advertencias de TEX son menos decisivas. Un overfull o underfull puede redundar en
que alguna palabra se salga del margen derecho del texto, que el espaciado entre palabras en
una lnea sea excesivo, o que el espacio vertical entre parrafos sea demasiado. Los estandares
de calidad de TEX son altos, y por eso enva advertencias frecuentemente. Pero generalmente
los defectos en el resultado final son imperceptibles a simple vista, o por lo menos no son
suficientes para molestarnos realmente. A veces s, por supuesto, y hay que estar atentos.
Siempre conviene revisar el texto y prestar atencion a estos detalles, aunque ello solo tiene
sentido al preparar la version definitiva del documento.

Departamento de Fsica, Facultad de Ciencias, Universidad de Chile.


noa. Casilla 653, Correo 1, Santiago
Las Palmeras 3425, Nu
fono: 562 678 7276
fax: 562 271 2973
e-mail: secretaria@fisica.ciencias.uchile.cl

Apuntes de un curso de

FISICA MATEMATICA

Jose Rogan C.
Vctor Munoz G.

Indice
I

An
alisis Vectorial

1 An
alisis vectorial en coordenadas curvilneas y tensores.
1.1 Coordenadas ortogonales. . . . . . . . . . . . . . . . . . .
1.2 Operadores diferenciales vectoriales. . . . . . . . . . . . . .
1.3 Sistemas especiales de coordenadas: introduccion . . . . .
1.4 Coordenadas circulares cilndricas (, , z). . . . . . . . . .
1.5 Coordenadas polares esfericas (r, , ). . . . . . . . . . . .
1.6 Analisis tensorial. . . . . . . . . . . . . . . . . . . . . . . .
1.7 Contraccion y producto directo. . . . . . . . . . . . . . . .
1.8 Regla del cuociente. . . . . . . . . . . . . . . . . . . . . . .
1.9 Pseudotensores y tensores duales. . . . . . . . . . . . . . .
1.10 Tensores no cartesianos, diferenciacion covariante. . . . . .
1.11 Operadores diferenciales de tensores. . . . . . . . . . . . .
2 Determinantes y matrices.
2.1 Determinantes. . . . . . . . . . . . . . .
2.2 Matrices. . . . . . . . . . . . . . . . . . .
2.3 Matrices ortogonales. . . . . . . . . . . .
2.4 Matrices Hermticas, matrices unitarias.
2.5 Diagonalizacion de matrices. . . . . . . .
2.6 Matrices normales. . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

5
5
8
11
12
14
17
21
23
24
30
35

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

39
39
46
53
62
65
72

3 Teora de grupo.
3.1 Introduccion. . . . . . . . . . . . . . . . . . . . . . .
3.2 Generadores de grupos continuos. . . . . . . . . . . .
3.3 Momento angular orbital. . . . . . . . . . . . . . . .
3.4 Grupo homogeneo de Lorentz. . . . . . . . . . . . . .
3.5 Covarianza de Lorentz de las Ecuaciones de Maxwell.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

79
79
83
96
100
103

.
.
.
.
.

109
. 109
. 112
. 112
. 113
. 114

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

4 Series infinitas.
4.1 Conceptos fundamentales . . . . . . . . . . . . . . . .
4.2 Pruebas de Convergencia . . . . . . . . . . . . . . . .
4.2.1 Pruebas de comparacion. . . . . . . . . . . . .
4.2.2 Prueba de la raz de Cauchy. . . . . . . . . . .
4.2.3 Prueba de la razon de D Alembert o Cauchy.
iii

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

INDICE

iv

4.3

4.4

4.5

4.6

4.7
4.8

4.9

4.10

4.11

4.12

4.2.4 Prueba integral de Cauchy o Maclaurin. . . . . . . . . . . .


4.2.5 Prueba de Kummer. . . . . . . . . . . . . . . . . . . . . . .
4.2.6 Prueba de Raabe. . . . . . . . . . . . . . . . . . . . . . . . .
4.2.7 Prueba de Gauss. . . . . . . . . . . . . . . . . . . . . . . . .
4.2.8 Mejoramiento de convergencia. . . . . . . . . . . . . . . . .
Series alternadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.1 Criterio de Leibniz. . . . . . . . . . . . . . . . . . . . . . . .
4.3.2 Convergencia absoluta. . . . . . . . . . . . . . . . . . . . . .

Algebra
de series. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.1 Mejoramiento de la convergencia, aproximaciones racionales.
4.4.2 Reordenamiento de series dobles. . . . . . . . . . . . . . . .
Series de funciones. . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5.1 Convergencia uniforme. . . . . . . . . . . . . . . . . . . . . .
4.5.2 Prueba M de Weierstrass. . . . . . . . . . . . . . . . . . . .
4.5.3 Prueba de Abel. . . . . . . . . . . . . . . . . . . . . . . . . .
Expansion de Taylor. . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6.1 Teorema de Maclaurin. . . . . . . . . . . . . . . . . . . . . .
4.6.2 Teorema Binomial. . . . . . . . . . . . . . . . . . . . . . . .
4.6.3 Expansion de Taylor de mas de una variable. . . . . . . . . .
Series de potencias. . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.7.1 Convergencia. . . . . . . . . . . . . . . . . . . . . . . . . . .
Convergencia uniforme y absoluta. . . . . . . . . . . . . . . . . . .
4.8.1 Continuidad. . . . . . . . . . . . . . . . . . . . . . . . . . .
4.8.2 Diferenciacion e integracion. . . . . . . . . . . . . . . . . . .
4.8.3 Teorema de la singularidad. . . . . . . . . . . . . . . . . . .
4.8.4 Inversion de series de potencia. . . . . . . . . . . . . . . . .
Integrales elpticas. . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.9.1 Definiciones. . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.9.2 Expansion de series. . . . . . . . . . . . . . . . . . . . . . .
4.9.3 Valores lmites. . . . . . . . . . . . . . . . . . . . . . . . . .
N
umeros de Bernoulli. . . . . . . . . . . . . . . . . . . . . . . . . .
4.10.1 Funciones de Bernoulli. . . . . . . . . . . . . . . . . . . . . .
4.10.2 Formula de integracion de Euler-Maclaurin. . . . . . . . . .
4.10.3 Funcion zeta de Riemann. . . . . . . . . . . . . . . . . . . .
4.10.4 Mejoramiento de la convergencia. . . . . . . . . . . . . . . .
Series asintoticas o semiconvergentes. . . . . . . . . . . . . . . . . .
4.11.1 Funcion gama incompleta. . . . . . . . . . . . . . . . . . . .
4.11.2 Integrales coseno y seno. . . . . . . . . . . . . . . . . . . . .
4.11.3 Definicion de series asintoticas. . . . . . . . . . . . . . . . .
4.11.4 Aplicaciones a calculo numerico. . . . . . . . . . . . . . . . .
Productos infinitos. . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.12.1 Convergencia de un producto infinito. . . . . . . . . . . . . .
4.12.2 Funciones seno, coseno y gama. . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

115
117
117
118
119
120
120
121
122
123
124
126
127
128
129
130
132
134
136
136
136
137
137
137
137
139
140
141
142
143
144
146
147
148
151
151
152
154
155
156
157
157
158

INDICE
5 Funciones de una variable compleja I.
5.1 Algebra compleja. . . . . . . . . . . . . . . . . . . . . . .
5.1.1 Conjugacion compleja. . . . . . . . . . . . . . . .
5.1.2 Funciones de una variable compleja. . . . . . . . .
5.2 Condiciones de Cauchy-Riemann. . . . . . . . . . . . . .
5.3 Teorema integral de Cauchy. . . . . . . . . . . . . . . . .
5.3.1 Integrales de contorno. . . . . . . . . . . . . . . .
5.3.2 Prueba del teorema de Stoke. . . . . . . . . . . .
5.3.3 Prueba de Cauchy-Goursat. . . . . . . . . . . . .
5.3.4 Regiones multiplemente conexas. . . . . . . . . .
5.4 Formula integral de Cauchy. . . . . . . . . . . . . . . . .
5.4.1 Derivadas. . . . . . . . . . . . . . . . . . . . . . .
5.4.2 Teorema de Morera. . . . . . . . . . . . . . . . .
5.5 Expansion de Laurent. . . . . . . . . . . . . . . . . . . .
5.5.1 Expansion de Taylor. . . . . . . . . . . . . . . . .
5.5.2 Principio de Reflexion de Schwarz. . . . . . . . .
5.5.3 Continuacion analtica. . . . . . . . . . . . . . . .
5.5.4 Permanencia de la forma algebraica. . . . . . . .
5.5.5 Serie de Laurent. . . . . . . . . . . . . . . . . . .
5.6 Mapeo. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.6.1 Traslacion. . . . . . . . . . . . . . . . . . . . . . .
5.6.2 Rotacion. . . . . . . . . . . . . . . . . . . . . . .
5.6.3 Inversion. . . . . . . . . . . . . . . . . . . . . . .
5.6.4 Puntos de ramificacion y funciones multivaluadas.
5.7 Mapeo conforme . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

6 Funciones de variable compleja II.


6.1 Singularidades. . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1.1 Polos. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1.2 Puntos de ramificacion. . . . . . . . . . . . . . . . . . . .
6.2 Calculo del residuo. . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.1 Teorema del residuo. . . . . . . . . . . . . . . . . . . . .
6.2.2 Valor principal de Cauchy. . . . . . . . . . . . . . . . . .
6.2.3 Expansion en polos de funciones meromorficas. . . . . . .
6.2.4 Expansion en producto de funciones enteras. . . . . . . .
6.2.5 Evaluacion de integrales definidas. .R . . . . . . . . . . . .
2
6.2.6 Evaluacion de integrales definidas: 0R f (sen , cos )d .

6.2.7 Evaluaciones de integrales definidas: f (x)dx. . . . .


R
6.2.8 Evaluacion de integrales definidas: f (x)eiax dx. . . .
6.2.9 Evaluacion de integrales definidas: formas exponenciales.
6.2.10 Residuos de un polo de orden m. . . . . . . . . . . . . .
6.3 Relaciones de dispersion. . . . . . . . . . . . . . . . . . . . . . .
6.3.1 Relaciones de Simetra. . . . . . . . . . . . . . . . . . . .
6.3.2 Dispersion optica. . . . . . . . . . . . . . . . . . . . . . .
6.3.3 La relacion de Parseval. . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

161
. 162
. 164
. 165
. 166
. 169
. 169
. 170
. 172
. 174
. 175
. 176
. 177
. 179
. 179
. 180
. 181
. 182
. 183
. 185
. 186
. 186
. 187
. 189
. 193

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

195
. 195
. 195
. 196
. 198
. 198
. 200
. 202
. 203
. 204
. 205
. 206
. 207
. 213
. 216
. 216
. 218
. 218
. 219

INDICE

vi

6.3.4 Causalidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220


6.4 El metodo de steepest descents. . . . . . . . . . . . . . . . . . . . . . . . . . . 221
7 Ecuaciones diferenciales.
7.1 Ecuaciones diferenciales parciales . . . . . .
7.1.1 Ejemplos de PDE. . . . . . . . . . .
7.1.2 Clases de PDE y caracterstica. . . .
7.1.3 Las PDE no lineales. . . . . . . . . .
7.1.4 Condiciones de borde. . . . . . . . .
7.2 Ecuaciones diferenciales de primer orden. . .
7.2.1 Variables separables. . . . . . . . . .
7.2.2 Ecuaciones diferenciales exactas. . . .
7.2.3 Ecuaciones diferenciales ordinarias de
7.2.4 Conversion a una ecuacion integral. .
7.3 Separacion de variables. . . . . . . . . . . .
7.3.1 Coordenadas cartesianas. . . . . . . .
7.3.2 Coordenadas cilndricas circulares. .
7.3.3 Coordenadas polares esfericas. . . . .

. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
primer
. . . .
. . . .
. . . .
. . . .
. . . .

. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
orden lineales.
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

229
. 229
. 230
. 232
. 234
. 235
. 235
. 236
. 237
. 238
. 241
. 241
. 241
. 243
. 244

Indice de Figuras
1.1 Elemento de volumen curvilneo. . . . . . . . . . . . . .
1.2 Elemento de area curvilneo con q1 =constante. . . . .
1.3 Coordenadas circulares cilndricas. . . . . . . . . . . . .
1.4 Vectores unitarios en coordenadas circulares cilndricas.
1.5 Elementos de area en coordenadas polares esfericas. . .
1.6 Coordenadas polares esfericas. . . . . . . . . . . . . . .
1.7 Inversion de coordenadas cartesianas, vector polar. . .
1.8 Inversion de coordenadas cartesianas, vector axial. . . .
1.9 (a) Espejo en el plano xz; (b) Espejo en el plano xz. .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

2.1
2.2
2.3

.
.
.
.
.
.
.
.
.

9
10
12
13
15
16
24
25
26

Sistemas de coordenadas cartesianos. . . . . . . . . . . . . . . . . . . . . . .


Sistemas de coordenadas rotados en dos dimensiones. . . . . . . . . . . . . .
(a) Rotacion respecto al eje x3 en un angulo ; (b) Rotacion respecto a un eje
x02 en un angulo ; (c) Rotacion respecto a un eje x003 en un angulo . . . . .
2.4 Vector fijo con coordenadas rotadas. . . . . . . . . . . . . . . . . . . . . . . .
2.5 Elipsoide del momento de inercia. . . . . . . . . . . . . . . . . . . . . . . . .
2.6 Vector fijo con coordenadas rotada. . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.

59
61
66
75

3.1
3.2
3.3
3.4
3.5

Ilustracion de la ecuacion (3.13). . . . . . . . . .


Ilustracion de M0 = UMU ecuacion (3.42). . . .
Octeto barionico diagrama de peso para SU(3).
Separacion de masa barionica. . . . . . . . . . .
Separacion de masa barionica. . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

84
89
94
95
96

4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
4.9
4.10
4.11

Test de comparacion. . . . .
Comparacion de integral con
Rearreglo de serie armonica
Series dobles. . . . . . . . .
Series dobles. . . . . . . . .
Series dobles. . . . . . . . .
Convergencia uniforme. . . .
Pendulo simple . . . . . . .
Integrales elpticas. . . . . .
Funcion zeta de Riemman. .
Sumas parciales. . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

113
116
124
125
125
126
127
140
142
149
153

5.1

Plano complejo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162

. . . . .
suma de
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .

vii

. . . . .
bloques
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .

.
.
.
.
.
.
.
.
.
.
.

. 54
. 56

INDICE DE FIGURAS

viii
5.2
5.3
5.4
5.5
5.6
5.7
5.8
5.9
5.10
5.11
5.12
5.13
5.14
5.15
5.16
5.17
5.18
5.19
5.20
5.21
5.22

Mapeo en el plano complejo . . . . . . . . . . . .


Complejo conjugado . . . . . . . . . . . . . . . .
Aproximaciones a z0 , . . . . . . . . . . . . . . . .
Camino de integracion . . . . . . . . . . . . . . .
Dominio simplemente conexo. . . . . . . . . . . .
Contorno de Cauchy-Goursat. . . . . . . . . . . .
Contorno cerrado en region multiplemente conexa.
Conversion a simplemente conexa. . . . . . . . . .
Exclusion de un punto singular. . . . . . . . . . .
Centro de expansion y puntos singulares. . . . . .
Reflexion de Schwarz. . . . . . . . . . . . . . . . .
Continuacion analtica. . . . . . . . . . . . . . . .
Region anular. . . . . . . . . . . . . . . . . . . . .
Translacion. . . . . . . . . . . . . . . . . . . . . .
Rotacion. . . . . . . . . . . . . . . . . . . . . . .
Inversion. . . . . . . . . . . . . . . . . . . . . . .
Inversion, lneacrculo. . . . . . . . . . . . . . . .
Mapeo en coordenadas hiperbolicas. . . . . . . . .
Lnea de corte. . . . . . . . . . . . . . . . . . . .
Superficie de Riemann para ln z. . . . . . . . . . .
Mapeo conforme. . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

164
165
167
170
171
173
174
174
176
179
181
181
183
186
187
188
189
190
191
192
194

6.1
6.2
6.3
6.4
6.5
6.6
6.7
6.8
6.9
6.10
6.11
6.12
6.13
6.14

Contorno en torno a punto de ramificacion.


Singularidades aisladas. . . . . . . . . . . .
Bypass de puntos singulares. . . . . . . . .
Cerrando el contorno. . . . . . . . . . . . .
Valor principal de Cauchy. . . . . . . . . .
Contorno de integracion. . . . . . . . . . .
Desigualdad. . . . . . . . . . . . . . . . . .
Contorno de integracion. . . . . . . . . . .
Contorno de integracion. . . . . . . . . . .
Contorno de integracion. . . . . . . . . . .
Contorno de integracion. . . . . . . . . . .
Contorno de integracion. . . . . . . . . . .
Punto de ensilladura. . . . . . . . . . . . .
Contornos para las funciones de Hankel. .

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

197
199
200
201
202
206
208
210
211
213
215
217
223
224

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

INDICE DE FIGURAS

Segundo Curso

METODOS
DE LA FISICA

MATEMATICA
I

INDICE DE FIGURAS

Parte I
An
alisis Vectorial

Captulo 1
An
alisis vectorial en coordenadas
curvilneas y tensores.
versi
on final 1.7-0204011

Anteriormente nos hemos restringido casi por completo a coordenadas cartesianas. Estas
coordenadas ofrecen la ventaja de que los tres vectores unitarios, x, y, z, son constantes
tanto en direccion como en magnitud. Infortunadamente, no todos los problemas fsicos se
adaptan bien a una solucion en coordenadas cartesianas. Por ejemplo, si tenemos un problema
de fuerzas centrales, F~ = rF (r), tal como una fuerza gravitacional o electroestatica, las
coordenadas cartesianas son particularmente inapropiadas. Tales problemas llaman a usar un
sistema de coordenadas en el cual la distancia radial es tomada como una de las coordenadas,
es decir, coordenadas polares esfericas.
El sistema de coordenadas debe ser elegido apropiadamente para el problema, explotando
cualquier restriccion o simetra presente en el.
Naturalmente, hay un precio que pagar por usar un sistema no cartesiano de coordenadas. Debemos desarrollar nuevas expresiones para el gradiente, la divergencia, el rotor
y el laplaciano en estos nuevos sistemas de coordenadas. En este captulo desarrollaremos
tales expresiones de una manera muy general para luego particularizarla a los sistemas de
coordenadas mas usados: coordenadas circulares cilndricas y coordenadas polares esfericas.

1.1

Coordenadas ortogonales.

En coordenadas cartesianas nosotros tratamos con tres familias de planos mutuamente perpendiculares: x =constante, y =constante, y z =constante. Imaginemos que imponemos
sobre este sistema otras tres familias de superficies. Las superficies de una familia no necesariamente son paralelas unas con otras y ellas pueden no ser planos. Las tres nuevas familias
de superficies no necesariamente son mutuamente perpendiculares, pero por simplicidad, rapidamente impondremos esta condicion. Podemos describir cualquier punto (x, y, z) como
la interseccion de tres planos en coordenadas cartesianas o como la interseccion de las tres
superficies que forman nuestras nuevas coordenadas curvilneas. Describiendo las superficies
de las coordenadas curvilneas por q1 = constante, q2 = constante, q3 = constante, podemos identificar nuestro punto por (q1 , q2 , q3 ) tanto como por (x, y, z). Esto significa que en
1

Este captulo est


a basado en el segundo captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.


6CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.
principio podemos escribir
Coordenadas generales curvilnea,

q1 , q2 , q3
x = x(q1 , q2 , q3 )
y = y(q1 , q2 , q3 )
z = z(q1 , q2 , q3 )

Coordenadas circulares cilndricas

, , z
< x = cos <
< y = sen <
< z = z < ,

(1.1)

especificando x,y,z en terminos de los qi y las relaciones inversas,


0 = (x2 + y 2 )1/2 <
0 arctan(y/x) < 2
z = z < .

q1 = q1 (x, y, z)
q2 = q2 (x, y, z)
q3 = q3 (x, y, z)

(1.2)

Como una ilustracion especfica de los abstractos (q1 , q2 , q3 ) inclumos las ecuaciones de
transformacion para las coordenadas circulares cilndricas. Para cada familia de superficies qi =constante, podemos asociar un vector unitario ei normal a la superficie qi =constante
y en la direccion de crecimiento de qi . Entonces un vector V~ puede ser escrito
V~ = e1 V1 + e2 V2 + e3 V3 .

(1.3)

Los ei estan normalizados por e2i = 1 y forman un sistema de coordenadas diestro con volumen
e1 (
e2 e3 ) > 0.
Diferenciando a x en (1.1) conduce a
dx =

x
x
x
dq1 +
dq2 +
dq3 ,
q1
q2
q3

(1.4)

de la misma manera diferenciando y y z. A partir del teorema de Pitagoras en coordenadas


cartesianas, el cuadrado de la distancia entre dos puntos vecinos es
ds2 = dx2 + dy 2 + dz 2 .

(1.5)

El cuadrado del elemento de distancia en nuestras coordenadas curvilneas puede ser escrito
ds2 =g11 dq12 + g12 dq1 dq2 + g13 dq1 dq3 + g21 dq2 dq1 + g22 dq22
X
g23 dq2 dq3 + g31 dq3 dq1 + g32 dq3 dq2 + g33 dq32 =
gij dqi dqj ,

(1.6)

ij

donde2
gij =
2

x x
y y
z z
+
+
.
qi qj qi qj qi qj

Los dqi son arbitrarios. Por ejemplo, haciendo dq2 = dq3 = 0 aislamos g11 .

(1.7)

1.1. COORDENADAS ORTOGONALES.

Estos coeficientes gij pueden verse como especificando la naturaleza del sistema de coordenadas (q1 , q2 , q3 ). Colectivamente estos coeficientes son referidos como la metrica. Mostraremos
mas adelante que forman un tensor simetrico de segundo rango. En Relatividad General los
componentes son determinados por las propiedades de la materia. La Geometra se mezcla
con la Fsica.
En este punto nos limitamos a sistemas de coordenadas ortogonales (superficies mutuamente perpendiculares)
i 6= j ,

gij = 0 ,

(1.8)

y ei ej = ij . Veremos algo de sistemas no ortogonales en la seccion del analisis tensorial.


Para simplificar la notacion escribimos gii = h2i tal que
X
ds2 = (h1 dq1 )2 + (h2 dq2 )2 + (h3 dq3 )2 =
(hi dqi )2 .
(1.9)
i

Los especficos sistemas de coordenadas ortogonales son descritos en las secciones siguientes,
especificando estos factores de escala h1 , h2 y h3 . Por otra parte, los factores de escala pueden
ser identificados por la relacion
dsi = hi dqi ,

(1.10)

para alg
un dqi dado, manteniendo los otros qi constantes. Notemos que las tres coordenadas
curvilneas (q1 , q2 , q3 ) no necesariamente son una longitud. Los factores de escala hi pueden
depender de las qi y pueden tener dimensiones. Los productos hi dqi deben tener dimensiones
de longitud y ser positivos. El vector de desplazamiento diferencial d~s puede ser escrito
X
d~s = h1 dq1 e1 + h2 dq2 e2 + h3 dq3 e3 =
hi dqi ei .
i

Usando las componentes curvilneas, encontramos que la integral de lnea llega a ser
Z
XZ
V~ d~s =
Vi hi dqi .
i

De la ecuacion (1.10) podemos inmediatamente desarrollar los elementos de area y de volumen


dij = dsi dsj = hi hj dqi dqj

(1.11)

d = ds1 ds2 ds3 = h1 h2 h3 dq1 dq2 dq3 .

(1.12)

Estas expresiones coinciden con los resultados obtenidos al usar las transformaciones explcitamente y el Jacobiano.
A partir de la ecuacion (1.11) un elemento de area puede ser expandido:
d~ = ds2 ds3 e1 + ds3 ds1 e2 + ds1 ds2 e3
= h2 h3 dq2 dq3 e1 + h3 h1 dq3 dq1 e2 + h1 h2 dq1 dq2 e3 .


8CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.
Una integral de superficie llega a ser
Z
Z
Z
Z
V~ d~ = V1 h2 h3 dq2 dq3 + V2 h3 h1 dq3 dq1 + V3 h1 h2 dq1 dq2 .

(1.13)

Debemos dejar claro que el algebra vectorial es la misma en coordenadas curvilneas ortogonales que en coordenadas cartesianas. Especficamente, el producto punto
~B
~ = A1 B1 + A2 B2 + A3 B3 ,
A
donde los subndices indican componentes curvilneas. Para el producto cruz


e1 e2 e3


~B
~ = A 1 A2 A3
A


B1 B2 B3

1.2

(1.14)

(1.15)

Operadores diferenciales vectoriales.

Gradiente.
El punto de partida para desarrollar los operadores gradiente, divergencia y el rotor en coordenadas curvilneas es nuestra interpretacion del gradiente como un vector que tiene la magnitud y direccion de la maxima razon de crecimiento. A partir de esta interpretacion las
~
componentes de (q
on normal a la familia de superficies q1 =constante
1 , q2 , q3 ) en la direcci
es dado por

~ =
~ = = ,
e1
1
s1
h1 q1

(1.16)

ya que esta es la razon de cambio de para variaciones de q1 , manteniendo q2 y q3 fijos.


La cantidad ds1 es un diferencial de longitud en la direccion de incremento de q1 . El vector
unitario e1 indica la direccion. Si repetimos este calculo para las otras componentes q2 y q3
y sumamos vectorialmente obtenemos la expresion del gradiente

~
+ e2
+ e3
(q
1
1 , q2 , q3 ) = e
s1
s2
s3

= e1
+ e2
+ e3
h1 q1
h2 q2
h3 q3
X 1
=
ei
.
hi qi
i

(1.17)

Divergencia.
El operador divergencia puede obtenerse de una de sus definiciones
R
V~ d~
~ V~ (q1 , q2 , q3 ) = R lim
R

,
d
d 0

(1.18)

1.2. OPERADORES DIFERENCIALES VECTORIALES.

z
ds3= h 3 dq 3
4

3
1

ds2= h 2 dq 2

ds1= h 1 dq 1
y

x
Figura 1.1: Elemento de volumen curvilneo.

con un volumen diferencial h1 h2 h3 dq1 dq2 dq3 (figura 1.1). Notemos que la direccion positiva
ha sido escogida tal que (q1 , q2 , q3 ) o (
e1 , e2 , e3 ) formen un sistema diestro, e1 e2 = e3 .
La integral de area sobre las dos caras q1 = constante es dada por



V1 h2 h3 +
(V1 h2 h3 )dq1 dq2 dq3 V1 h2 h3 =
(V1 h2 h3 )dq1 dq2 dq3 ,
q1
q1

(1.19)

considerando las otras componentes


Z

V~ (q1 , q2 , q3 ) d~ =

(V1 h2 h3 ) +
(V2 h3 h1 ) +
(V3 h1 h2 ) dq1 dq2 dq3 .
q1
q2
q3

(1.20)

Dividiendo por la diferencial de volumen produce


~ V~ (q1 , q2 , q3 ) =



1

(V1 h2 h3 ) +
(V2 h3 h1 ) +
(V3 h1 h2 ) .
h1 h2 h3 q1
q2
q3

(1.21)

En la ecuacion anterior, Vi es la componente de V~ en la direccion ei en la que crece qi . Esto


es, Vi = ei V~ es la proyeccion de V~ sobre la direccion ei .
Podemos obtener el Laplaciano combinando las ecuaciones (1.17) y (1.21), usando V~ =
~
(q
1 , q2 , q3 ). Esto produce
~ (q
~

1 , q2 , q3 ) =








h2 h3

h3 h1

h1 h2
1
+
+
.
=
h1 h2 h3 q1
h1 q1
q2
h2 q2
q3
h3 q3
(1.22)
2


10CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.
Rotor.
~ V~ , apliquemos el teorema de Stokes y, como con la diFinalmente, para desarrollar
vergencia, tomemos el lmite en que el area de la superficie llega a ser despreciablemente
peque
na. Trabajando sobre una componente a la vez, consideremos un diferencial de area en
la superficie curvilnea q1 = constante. A partir de
Z
~ V~ d~ = e1 (
~ V~ ) h2 h3 dq2 dq3 ,

(1.23)
S

el teorema de Stokes produce


~ V~ ) h2 h3 dq2 dq3 =
e1 (

V~ d~s ,

(1.24)

con la integral de lnea sobre la superficie q1 =constante. Siguiendo el loop (1, 2, 3, 4) en la


figura 1.2,


I

~
V (q1 , q2 , q3 ) d~s = V2 h2 dq2 + V3 h3 +
(V3 h3 )dq2 dq3
q2



V2 h2 +
(V2 h2 )dq3 dq2 V3 h3 dq3
(1.25)
q3



=
(V3 h3 )
(V2 h2 ) dq2 dq3 .
q2
q3
Tomamos el signo positivo cuando vamos en la direccion positiva sobre las partes 1 y 2 y
negativa sobre las partes 3 y 4 porque aqu vamos en la direccion negativa. Los terminos mas
altos en las expansiones de Taylor son omitidos. Ellos desapareceran en el lmite en que la
superficie llega a ser despreciablemente peque
na (dq2 0, dq3 0).

z
4
(q 2 ,q 3 )

e^2

ds2= h 2 dq 2

2 ds3= h 3 dq 3
e^3
y

x
Figura 1.2: Elemento de area curvilneo con q1 =constante.


1.3. SISTEMAS ESPECIALES DE COORDENADAS: INTRODUCCION

11

Desde la ecuacion (1.24)



~ V~ =




(V3 h3 )
(V2 h2 ) .
h2 h3 q2
q3

(1.26)

Las dos componentes restantes pueden ser evaluadas tomando una permutacion cclica de
los ndices. Finalmente, podemos escribir el rotor en forma de determinante


e1 h1 e2 h2 e3 h3






1

~
~
(1.27)
V =

.
h1 h2 h3 q1 q2 q3




h1 V1 h2 V2 h3 V3
Notemos que esta ecuacion no es identica a la forma del producto cruz de dos vectores, ya
~ no es un vector ordinario, es un vector operador.
que

1.3

Sistemas especiales de coordenadas: introducci


on

Hay once sistemas de coordenadas en los cuales la ecuacion tridimensional de Helmholtz


puede separarse en tres ecuaciones diferenciales ordinarias3 . Algunos de estos sistemas adquirieron importancia en el desarrollo historico de la Mecanica Cuantica. Otros como el
bipolar satisfacen necesidades especficas. Debido al desarrollo de computadores de alta velocidad y a la eficiencia de las tecnicas de programacion se ha reducido la necesidad de utilizar
estos sistemas. Nos limitaremos a coordenadas cartesianas, coordenadas polares esfericas, y
coordenadas circulares cilndricas.
Coordenadas cartesianas rectangulares.
Este es el sistema mas simple de todos:
h1 = hx = 1 ,
h2 = hy = 1 ,
h3 = hz = 1 .

(1.28)

Las familias de superficies coordenadas son tres conjuntos de planos paralelos: x =constante,
y =constante, y z =constante. Las coordenadas cartesianas es el u
nico sistema en que todos
los hi son constantes. Notemos tambien que los vectores unitarios, e1 , e2 , e3 o x, y, z tienen
direcciones fijas.
Los operadores vectoriales corresponden a
~ = x + y + z ,

x
y
z
3

Ver por ejemplo, Morse and Feshbach.

(1.29)


12CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.
~ V~ = Vx + Vy + Vz ,

x
y
z

(1.30)

2
2
2
~
~ = 2 = + + ,

x2
y 2
z 2

(1.31)


x




~
~
V =
x


Vx

1.4

y
Vy


z


.
z

Vz

(1.32)

Coordenadas circulares cilndricas (, , z).

En el sistema de coordenadas circulares cilndricas las tres coordenadas curvilneas (q1 , q2 , q3 )


son reetiquetadas por (, , z). Las superficies coordenadas mostradas en la figura 1.3 son:

Figura 1.3: Coordenadas circulares cilndricas.

1. Cilindros circulares derechos que tienen el eje-z como eje com


un,
1/2

= constante.

y

= constante.

= x2 + y 2
2. Semiplanos a traves del eje-z,
= tan1

1.4. COORDENADAS CIRCULARES CILINDRICAS (, , Z).

13

3. Planos paralelos al plano xy como en el sistema cartesiano


z = constante.
Los lmites para , y z son
0<,

0 2 ,

<z < .

Notemos que estamos usando como la distancia perpendicular al eje z. Las relaciones de
transformacion inversas
x = cos ,
y = sen ,
z=z ,

(1.33)

de acuerdo a las ecuaciones anteriores los factores de escala son


h1 = h = 1 ,
h2 = h = ,
h3 = hz = 1 .

(1.34)

Los vectores unitarios e1 , e2 , e3 son reetiquetados (


, ,
z), figura 1.4. El vector unitario es
normal a la superficie cilndrica apuntando en la direccion de crecimiento del radio . El vector
unitario es tangencial a la superficie cilndrica, perpendicular al semiplano = constante
y apuntando en la direccion de crecimiento del angulo . El tercer vector unitario, z, es el
vector unitario cartesiano usual.

x
Figura 1.4: Vectores unitarios en coordenadas circulares cilndricas.

Un vector diferencial de desplazamiento d~s puede ser escrito


d~s = ds + ds
+ zdz = d + d

+ zdz .

(1.35)


14CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.
~
Los operadores diferenciales que involucran

~
(,
, z) =
+
+ z
,

(1.36)

~ V~ = 1 (V ) + 1 V + Vz ,

(1.37)

1
=

2

1 2 2
+ 2 ,
2 2
z



z






1

~
~
V =
.
z




V V Vz

1.5

(1.38)

(1.39)

Coordenadas polares esf


ericas (r, , ).

Reetiquetando (q1 , q2 , q3 ) como (r, , ), vemos que el sistema de coordenadas polares esfericas
consiste en lo siguiente:
1. Esferas concentricas centradas en el origen,
r = x2 + y 2 + z 2

1/2

= constante.

2. Conos circulares centrados sobre el eje z y vertice en el origen


!
z
= constante.
= arccos
(x2 + y 2 + z 2 )1/2
3. Semiplanos a traves del eje-z,
= tan1

y
x

= constante.

Por nuestra eleccion arbitraria de la definicion de , el angulo polar, y , el angulo azimutal,


el eje z queda particularizado para un tratamiento especial. las ecuaciones de transformacion
son
x = r sen cos ,
y = r sen sen ,
z = r cos ,

(1.40)


1.5. COORDENADAS POLARES ESFERICAS
(R, , ).

15

midiendo desde el eje z positivo y en el plano xy desde el eje x positivo. Los intervalos
de valores son 0 r < , 0 , y 0 2. A partir de la ecuacion (1.7)
h1 = hr = 1 ,
h2 = h = r,
h3 = h = r sen .

(1.41)

El elemento de arco

d~s = rdr + rd
+ r
sen d .
En este sistema de coordenadas esfericas el elemento de area (para r = constante) es
dA = d = r2 sen dd ,

(1.42)

el area sombreada en la figura 1.5. Integrando sobre el azimutal , encontramos que el


elemento de area llega a ser un anillo de ancho d,

y
d

x
Figura 1.5: Elementos de area en coordenadas polares esfericas.

dA = 2r2 sen d .

(1.43)

Esta forma aparece con frecuencia en problemas en coordenadas polares con simetra azimutal.
Por definicion el stereoradian, un elemento de angulo solido d es dado por
d =

dA
= sen dd .
r2

Integrando sobre la superficie esferica completa, obtenemos


Z
d = 4 .

(1.44)


16CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.
z

(x,y,z)

Figura 1.6: Coordenadas polares esfericas.

A partir de la ecuacion (1.12) el elemento de volumen es


d = r2 dr sen dd = r2 drd .

(1.45)

Los vectores unitarios en coordenadas polares esfericas son mostrados en la figura 1.6 Debemos
enfatizar que los vectores unitarios r, y varan en direccion cuando los angulos y
varan. Cuando diferenciamos vectores en coordenadas polares esfericas (o en cualquier otro
sistema no cartesiano) estas variaciones de los vectores unitarios con respecto a la posicion no
deben ser despreciadas. Escribamos los vectores unitarios r, y en termino de los vectores
unitarios cartesiano de direccion fija x, y, z
r = x sen cos + y sen sen + z cos ,
= x cos cos + y cos sen z sen ,
=
x sen + y cos .

(1.46)

Notemos que un vector dado puede ser expresado en un n


umero de diferentes (pero equivalentes) maneras. Por ejemplo, el vector posicion ~r puede ser escrtito
~r =
=
=
=

rr
1/2
r x2 + y 2 + z 2
xx + yy + zz
xr sen cos + yr sen sen + zr cos .

(1.47)

Podemos seleccionar la forma que nos es mas u


til para nuestro problema particular.
A partir de la seccion 1.2 reetiquetando los vectores unitarios en coordenadas curvilneas
y tenemos
e1 , e2 , e3 como r, ,
1
1
~
(,
, z) = r
+
+
,
r
r
r sen

(1.48)


1.6. ANALISIS
TENSORIAL.

17



1

2
~ V~ =

sen (r Vr ) + r (sen V ) + r
,
r2 sen
r

(1.49)







1

1 2
2
= 2
sen
r
+
sen
+
,
r sen
r
r

sen 2

(1.50)



r r r sen






1

~ V~ =


.

r2 sen r





Vr rV r sen V

1.6

(1.51)

An
alisis tensorial.

Introducci
on, definiciones.
Los tensores son importantes en muchas areas de la Fsica, incluyendo relatividad y electrodinamica. Escalares y vectores son casos especiales de tensores. Como ya vimos, una cantidad
que no cambia bajo rotaciones del sistema de coordenadas en un espacio tridimensional, un
invariante, fue etiquetado como un escalar. Un escalar es especificado por un n
umero real y es
un tensor de rango cero. Una cantidad cuyas componentes transforman bajo rotaciones como
las de la distancia de un punto a un origen elegido fue llamado un vector. La transformacion
de las componentes del vector bajo una rotacion de las coordenadas preserva el vector como
una entidad geometrica (tal como una flecha en el espacio), independiente de la orientacion
del sistema de referencia. En un espacio tridimensional, un vector es especificado por 3 = 31
n
umeros reales, por ejemplo, sus componentes, y es un un tensor de rango uno. En un espacio
N dimensional un tensor de rango n tiene N n componentes los cuales transforman de una
manera definida.
Hay una posible ambig
uedad en la ley de transformacion de un vector
X
A0i =
aij Aj ,
(1.52)
j

en la cual aij es el coseno del angulo entre el eje x0i y el eje xj .


Si partimos con un vector diferencial de distancia d~r, entonces, tomando dx0i como una
funcion de las variables sin primas,
dx0i =

X x0
i
dxj ,
x
j
j

(1.53)

x0i
,
xj

(1.54)

tomando la diferencial. Si fijamos


aij =


18CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.
las ecuaciones (1.52) y (1.53) son consistentes. Cualquier conjunto de cantidades Aj que
transforman de acuerdo a
X x0
i
A0i =
Aj ,
(1.55)
x
j
j
es definido como un vector contravariante.
Sin embargo, hemos ya encontrado un tipo de transformacion vectorial un poco diferente.
~ definido por
El gradiente de un escalar ,,
~ = x + y + z ,

x1
x2
x3
usando (x1 , x2 , x3 ) para (x, y, z), transforma como
0 X xj
=
,
x0i
xj x0i
j

(1.56)

(1.57)

usando = (x, y, z) = (x0 , y 0 , z 0 ) = 0 , definida como una cantidad escalar. Notemos


que esta difiere de la ecuacion (1.55) en que tenemos xj /x0i en vez de x0i /xj . Tomemos la
ecuacion (1.57) como la definicion de un vector covariante y al gradiente como el prototipo.
En coordenadas cartesianas
xj
x0i
=
= aij ,
(1.58)
x0i
xj
y no hay diferencia entre transformaciones covariantes y contravariantes. En otros sistemas
la ecuacion (1.58) en general no se aplica, y la distincion entre covariante y contravariante es
real y debe ser observado. Esto es de primera importancia en espacios curvos de Riemmann
en relatividad general.
En lo que resta de esta seccion las componentes de un vector contravariante son denotados
por superndices, Ai , mientras un subndice es usado para las componentes de un vector
covariante Ai .4
Definici
on de tensores de rango dos.
Ahora procedemos a definir tensores de rango dos contravariantes, mixtos y covariantes por
las siguiente ecuaciones para sus componentes bajo transformacion de coordenadas:
X x0 x0j
ij
i
A0 =
Akl ,
x
x
k
l
kl
0
X
xi xl k
i
Bl ,
B0j =
(1.59)
0
x
k xj
kl
X xk xl
Cij0 =
C .
0
0 kl
x
x
i
j
kl
4

Esto significa que las coordenadas (x, y, z) deben ser escritas (x1 , x2 , x3 ) ya que ~r trasforma como un
vector contravariante. Ya que nos restringiremos r
apidamente a tensores cartesianos (donde la distinci
on
entre contravariante y convariante desaparece) continuaremos usando subndices para las coordenadas. Esto
evita la ambig
uedad de x2 representa el cuadrado de x o y.


1.6. ANALISIS
TENSORIAL.

19

Claramente, el rango va como el n


umero de derivadas parciales ( o cosenos directores) en
la definicion: cero para un escalar, una para un vector y dos para un tensor de segundo
rango, y as sucesivamente. Cada ndice (subndice o superndice) corre sobre el n
umero de
dimensiones del espacio. El n
umero de ndices (rango del tensor) es independiente de las
dimensiones del espacio. Vemos que Akl es contravariante con respecto a ambos ndices, Ckl
es covariante respecto a ambos ndices, y Blk transforma contravariantemente con respecto al
primero de los ndices (k) y covariantemente con respecto al segundo ndice (l). Si usamos
coordenadas cartesianas, las tres formas de tensores de segundo rango, contravariante, mixto
y covariante son la misma.
Como con las componentes de un vector, las leyes de transformacion para las componentes
de un tensor, ecuacion (1.59), produce entidades (y propiedades) que son independientes de
la eleccion de un sistema de referencia. Esto es lo que hace el analisis tensorial importante
en Fsica. La independencia del sistema de referencia (invariancia) es ideal para expresar
afirmaciones en Fsica.
El tensor de segundo rango A (de componentes Akl ) puede ser convenientemente escrito
por sus componentes en un arreglo cuadrado (de 3 3 si estamos en un espacion tridimensional),

11
A
A12 A13
(1.60)
A = A21 A22 A23 .
A31 A32 A33
Esto no significa que cualquier arreglo de n
umeros o funciones formen un tensor. La condicion
esencial es que las componentes transformen de acuerdo a la ecuacion (1.59).
Suma y resta de tensores.
La suma y resta de tensores esta definida en terminos de los elementos individuales de la
misma manera que para vectores. Para sumar o restar dos tensores, debemos sumar o restar
sus correspondientes elementos. Si
A+B=C ,

(1.61)

entonces
Aij + B ij = C ij .
Naturalmente, A y B deben ser tensores del mismo rango y ambos expresados en un espacio
del mismo n
umero de dimensiones.
Convenci
on de suma.
En analisis tensorial es costumbre adoptar una convencion de suma para poner la ecuacion
(1.59) y las subsecuentes ecuaciones tensoriales en forma mas compacta. Siempre y cuando
distingamos entre covariante y contravariante, acordemos que cuando un ndice aparezca a un
lado de una ecuacion, una vez como superndice y una vez como subndice (excepta para las


20CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.
coordenadas donde ambos son subndices), automaticamente sumaremos sobre aquel ndice.
Entonces podemos escribir la segunda expresion en la ecuacion (1.59) como
i

B0j =

x0i xl k
B ,
xk x0j l

(1.62)

con las sumas sobre k e i implcitas en el lado derecho. Esta es la convencion de suma.
Para ilustrar el uso de la convencion de suma y algunas tecnicas del analisis tensorial,
mostremos que la familiar delta de Kronecker, kl , es realmente un tensor mixto de rango dos,
lk .5 la pregunta es: La lk transformara de acuerdo a la ecuacion (1.59)? Este es nuestro
criterio para llamarlo un tensor. Usando la convencion de suma tenemos
lk

x0i xl
x0i xk
=
,
xk x0j
xk x0j

(1.63)

por definicion de la delta de Kronecker. Ahora


x0i xk
x0i
=
,
xk x0j
x0j

(1.64)

a partir de la regla de la cadena. Sin embargo, x0i y x0j son coordenadas independientes, y
por tanto la variacion de una respecto a la otra debe ser cero si ellas son diferentes y uno si
ellas coinciden, esto es
x0i
i
= 0j .
0
xj

(1.65)

Por tanto
i

0j =

x0i xl k
,
xk x0j l

mostrando que lk son realmente las componentes de un tensor mixto de rango dos. Notemos
que el resultado es independiente del n
umero de dimensiones de nuestro espacio.
La delta de Kronecker posee ademas una interesante propiedad. Tiene las mismos componentes en todos los sistemas de coordenadas rotados y por lo tanto es llamada isotropica.
Tensores de primer rango (vectores) no isotropicos existen.
SimetraAntisimetra.
El orden en el cual los ndices aparecen en nuestra descripcion de un tensor es importante.
En general, Amn es independiente de Anm , pero hay algunos casos de interes especial. Si,
para todo m y n,
Amn = Anm ,
5

Es pr
actica com
un referirse a un tensor A especificando una componente tpica Aij .

(1.66)

Y PRODUCTO DIRECTO.
1.7. CONTRACCION

21

lo llamaremos un tensor simetrico. Si, por otra parte,


Amn = Anm ,

(1.67)

el tensor lo llamaremos antisimetrico. Claramente, cada tensor (de segundo rango) puede ser
resuelto en una parte simetrica y otra antisimetrica por la identidad
1 mn
1
(A + Anm ) + (Amn Anm ) ,
(1.68)
2
2
el primer termino de la derecha es un tensor simetrico y el segundo un tensor antisimetrico.
Una similar resolucion de las funciones en una parte simetrica y otra antisimetrica es de
extrema importancia en mecanica cuantica.
Amn =

Spinores.
Podriamos pensar que un sistema de escalares, vectores, tensores ( de rango dos) y superiores
forman un sistema matematico completo, uno que es adecuado para describir una Fsica
independiente de nuestra eleccion de sistema de coordenadas. Pero el universo y la fsica
matematica no es as de simple. En el reino de las partculas elementales, por ejemplo,
partculas de spin cero (mesones , partculas ) pueden ser descritos con escalares, partculas
de spin 1 (deuterones) por vectores, y partculas de spin 2 (gravitones) por tensores. Esta
lista omite a las partculas mas comunes: electrones, protones y neutrones, todas ellas con
spin 21 . Estas partculas son propiamente descritas por spinores. Un spinor no es un escalar,
vector o tensor.

1.7

Contracci
on y producto directo.

Contracci
on.
Cuando tratamos con vectores, formamos un producto escalar sumando el producto de las
componentes correspondientes:
~B
~ = Ai Bi .
A

(1.69)

La generalizacion de esta expresion en el analisis tensorial es un proceso conocido como


contraccion. Dos indices, uno covariante y el otro contravariante, se igualan uno con otro
y luego sumamos sobre ese ndice repetido. Por ejemplo, veamos la contraccion del tensor
mixto de segundo orden Bji .
i

B0j B0i =

x0i xl k
xl k
B =
B ,
0 l
xk xi
xk l

(1.70)

por la ecuacion (1.64) y luego por la ecuacion (1.65)


i

B 0 i = kl Blk = Bkk .

(1.71)

Nuestro tensor contrado es invariante y por lo tanto un escalar. Esto es exactamente lo que
obtuvimos anteriormente para el producto punto de dos vectores y para la divergencia de un
vector. En general, la operacion de contraccion reduce el orden de un tensor en 2.


22CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.
Producto Directo.
Las componentes de un vector covariante (tensor de rango uno) ai y aquellos de un vector
contravariante (tensor de rango uno) bj puede ser multiplicado componente a componente
para dar el termino general ai bj . Esto, por la ecuacion (1.59) es realmente un tensor de
segundo orden, por
j

a0 i b 0 =

xk x0j l xk x0j
a
b =
(ak bl ) .
0 k
0
xi xl
xi xl

(1.72)

Contrayendo, obtenemos
i

a0i b0 = ak bk ,

(1.73)

como en las ecuaciones (1.70) y (1.71) para dar el producto escalar regular.
La operacion de asociar dos vectores ai y bj como en el u
ltimo parrafo es conocido como
el producto directo. Para el caso de dos vectores, el producto directo es un tensor de segundo
~ E,
~ el cual no estaba definido dentro
rango. En ese sentido podemos atribuir significado a
del esquema del analisis vectorial. En general, el producto directo de dos tensores es un
tensor de rango igual a la suma de los dos rangos iniciales; esto es,
Aij B kl = Cjikl ,

(1.74)

donde Cjikl es un tensor de cuarto rango. A partir de la ecuacion (1.59)


ikl
C 0j

x0i xn x0k x0l mnq


=
C
.
xm x0j xp xq n

(1.75)

El producto directo aparece en fsica matematica como una tecnica para crear nuevos tensores
de mayor rango.
~
Cuando T es un tensor cartesiano de n-esimo rango, /xi Tjkl . . . , un elemento de T,
es un tensor cartesiano de rango n + 1. Sin embargo, /xi Tjkl . . . no es un tensor bajo
transformaciones mas generales. En sistemas no cartesianos /x0i actuara sobre las derivadas
parciales xp x0q y destruira la relacion simple de transformacion tensorial.
Hasta aqu la distincion entre una transformacion covariante y una contravariante ha
sido mantenida ya que existe en espacio no cartesiano y porque es de gran importancia en
relatividad general. Ahora, sin embargo, nos restringimos al tensor cartesiano. Como se hizo
notar, en el caso cartesiano, la distincion entre contravariancia y covariancia desaparece y
todos los ndices estan a partir de ahora en adelante mostrado como subndice.
Convenci
on de la suma.
Cuando un subndice (letra, no n
umero) aparece dos veces sobre un lado de una ecuacion,
implica que se suma con respecto a este subndice.
Contracci
on.
La contraccion consiste en fijar dos ndices distintos (subndices) igualar uno a otro y luego
sumarlos seg
un la convencion de suma.

1.8. REGLA DEL CUOCIENTE.

1.8

23

Regla del cuociente.

Si Ai y Bj son vectores, podemos facilmente mostrar que Ai Bj es un tensor de segundo


rango. Aqu, estamos interesados en una variedad de relaciones inversas. Consideremos tales
ecuaciones como
K i Ai
Kij Aj
Kij Ajk
Kijkl Aij
Kij Ak

=B ,
= Bi ,
= Bik ,
= Bkl ,
= Bijk .

(1.76a)
(1.76b)
(1.76c)
(1.76d)
(1.76e)

En cada una de esas expresiones A y B son tensores conocidos cuyo rango esta indicado por
el n
umero de ndices y el tensor A es arbitrario. En cada caso K es una cantidad desconocida.
Deseamos establecer las propiedades de transformacion de K. La regla del cuociente afirma
que si la ecuacion de interes se mantiene en todos los sistemas (rotados) de coordenadas
cartesianas, K es un tensor del rango indicado. La importancia en fsica teorica es que la
regla del cuociente puede establecer la naturaleza tensorial de las cantidades. La regla del
cuociente (ecuacion 1.76b) muestra que la matriz de inercia que aparece en la ecuacion de
~ = I~ , es un tensor.
momento angular L
Para probar la regla del cuociente, consideremos la ecuacion (1.76b) como un caso tpico.
En nuestro sistema de coordenadas prima
K 0 ij A0 j = B 0 i = aik Bk ,

(1.77)

~ Ya que la ecuacion se mantiene en


usando las propiedades de transformacion vectorial de B.
todos los sistemas de coordenadas rotados,
aik Bk = aik (Kkl Al ) .

(1.78)

~ regresamos al sistema de coordenadas prima (compare la ecuacion


Ahora, transformando A
(1.55)), tenemos
K 0 ij A0 j = aik Kkl ajl A0 j .

(1.79)

(K 0 ij aik ajl Kkl )A0 j = 0 .

(1.80)

Reordenando, tenemos

Esto debe mantenerse para cada valor del ndice i y para cada sistema de coordenadas prima.
Ya que A0j es arbitrario, concluimos
K 0 ij = aik ajl Kkl ,

(1.81)

la cual es nuestra definicion de un tensor de segundo rango.


Las otras ecuaciones pueden ser tratadas en forma similar, dando origen a otras formas de
la regla del cuociente. Un peligro menor debera ser tomado en cuenta, la regla del cuociente
~ es igual a cero. Las propiedades de transformacion de cero
no se aplica necesariamente si B
son indeterminadas.


24CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.

1.9

Pseudotensores y tensores duales.

Hasta aqu nuestras transformaciones de coordenadas han sido restringidas a rotaciones puras. Ahora consideramos el efecto de reflexiones o inversiones. Si tenemos coeficientes de
transformaciones aij = ij , entonces por la ecuacion (1.53)
xi = x0i ,

(1.82)

la cual es una inversion o transformacion de paridad. Notemos que esta transformacion


cambia nuestro sistema de coordenadas inicialmente diestro a un sistema de coordenadas
siniestro.6 Nuestro vector prototipo ~r con componentes (x1 , x2 , x3 ) se transforma al vector
~r 0 = (x01 , x02 , x03 ) = (x1 , x2 , x3 ). Este nuevo vector ~r 0 tiene componentes negativas, relativas al nuevo conjunto de ejes transformados. Como se muestra en la figura 1.7, invirtiendo
las direcciones de los ejes de coordenadas y cambiando los signos de las componentes da
~r0 = ~r. El vector (una flecha en el espacio) permanece exactamente como estaba antes de
que la transformacion se llevara a cabo. El vector posicion ~r y todos los otros vectores cuyas
componentes se comporten de esta manera (cambiando el signo con una inversion de los ejes
de coordenadas) son llamados vectores polares y tienen paridad impar.
x2
x3
r

r
x1

x1

x3
x2

Figura 1.7: Inversion de coordenadas cartesianas, vector polar.

Una diferencia fundamental aparece cuando encontramos un vector definido como el pro~ =A
~ B,
~ donde tanto A
~ como B
~ son vectores
ducto cruz de dos vectores polares. Sea C
~ estan dadas por
polares. Las componentes de C
C1 = A2 B3 A3 B2 .

(1.83)

y as sucesivamente. Ahora cuando los ejes de coordenadas son invertidos, Ai A0i , Bj Bj0
~ no se
pero de su definicion Ck +Ck0 ; esto es, nuestro vector producto cruz, vector C,
comporta como un vector polar bajo inversion. Para distinguir, lo etiquetamos como pseudo
vector o vector axial (ver figura 1.8) que tiene paridad par.
6

Esta es una inversi


on del sistema de coordenadas, los objetos en el mundo fsico permanecen fijos.

1.9. PSEUDOTENSORES Y TENSORES DUALES.

25

y
z

z
C

Figura 1.8: Inversion de coordenadas cartesianas, vector axial.

Ejemplos son:
velocidad angular,
momento angular,
torque,
campo magnetico,

~v =
~ ~r ,
~ = ~r p~ ,
L
~ = ~r F~ ,
~
B
~ E
~ .
= c
t

En ~v =
~ ~r, el vector axial es la velocidad angular
~ , y ~r y ~v = d~r/dt son vectores polares.
Claramente, los vectores axiales ocurren frecuentemente en Fsica elemental, aunque este
hecho usualmente no es recalcado. En un sistema de coordenadas de mano derecha un vector
~ tiene un sentido de rotacion asociado con el lado por la regla de la mano derecha. En
axial C
el sistema invertido de mano izquierda el sentido de la rotacion es una rotacion de la mano
izquierda. Esto es indicado por las flechas curvadas en la figura 1.8.
La distincion entre vectores polares y axiales tambien pueden ser ilustradas por una
reflexion. Un vector polar se refleja en un espejo como un flecha fsica real, figura1.9a. En la
figuras 1.7 y 1.8 las coordenadas estan invertidas; el mundo fsico permanece fijo. Aqui los
ejes de coordenadas permanecen fijos; el mundo es reflejado como en un espejo en el plano
xz. Especficamente, en esa representacion mantenemos los ejes fijos y asociamos un cambio
de signo con la componenete del vector. Para un espejo en el plano xz, Py Py . Tenemos
P = (Px , Py , Pz ) ,
P 0 = (Px , Py , Pz ) ,

vector polar.

~ o el momento magnetico (= corriente


Un vector axial tal como un campo magnetico B
area de loop ) se comporta muy diferentemente bajo reflexion.
~ y el momento magnetico como producidos de una
Consideremos el campo magnetico B
carga electrica moviendose circularmente. La reflexion revierte el sentido de la rotacion de la


26CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.

(a)

(b)
y

I
x

I
x

Figura 1.9: (a) Espejo en el plano xz; (b) Espejo en el plano xz.

carga. Los dos loops de corriente y el resultante de los momentos magneticos son mostrados
en la figura 1.9b. Tenemos
= (x , y , z ) ,
0 = (x , y , z ) vector axial.
Si concordamos que el universo no se preocupa si usamos sistemas de coordenadas ya sea
mano derecha o mano izquierda, luego no tiene sentido sumar un vector axial a un vector
~ = B,
~ ambos A
~yB
~ son tanto vectores polares como vectores
polar. En la ecuacion vectorial A
7
axiales . Restricciones similares se aplican a los escalares y pseudoescalares y, en general, a
los tensores y pseudotensores.
Usualmente, los pseudoescalares, pseudovectores, y pseudotensores transforman como
S0 = | a | S
Ci0 = | a | aij Cj ,
A0ij = | a | aik ajl Akl ,
donde | a | es el determinante de un arreglo de
determinante es

1 0

| a | = 0 1
0
0
Para la reflexion de un eje, el eje x,

(1.84)

coeficientes amn . En nuestra inversion el



0
0 = 1
1



1 0 0


| a | = 0 1 0 = 1
0 0 1

(1.85)

(1.86)

La gran excepci
on a esto esta en el decaimiento beta, interaciones debiles. Aqu el universo distingue
entre sistemas derechos y sistemas izquierdos.

1.9. PSEUDOTENSORES Y TENSORES DUALES.

27

y nuevamente el determinante es | a | = 1. Por otra parte, para todas las rotaciones puras el
determinante | a | es siempre +1. A menudo las cantidades que transforman de acuerdo a la
ecuacion (1.84) son conocidas como densidad tensorial. Ellos son tensores regulares en cuanto
a rotaciones se refiere, diferenciandose de los tensores solamente en reflexiones o inversiones
de las coordenadas, y luego la u
nica diferencia es la aparicion de un signo menos adicional
del determinante | a |.
~B
~ C
~ es un escalar
Anteriormente mostramos que el producto escalar triple S = A
(bajo rotaciones). Ahora considerando la transformacion de paridad dada por la ecuacion
(1.82), vemos que S S, probando que el producto escalar triple es un pseudoescalar.
Este comportamiento fue presagiado por la analoga geometrica de un volumen. Si los tres
parametros del volumen, longitud, ancho, profundidad, cambian de distancias positivas a
distancias negativas, el producto de los tres sera negativo.
Smbolo de Levi-Civita.
Para usos futuros es conveniente introducir el smbolo tridimensional de Levi-Civita ijk
definido por
123 = 231 = 312 = 1 ,
132 = 213 = 321 = 1 ,
todos los otros ijk = 0 .

(1.87)

Note que ijk es totalmente antisimetrico con respecto a todo par de ndices. Suponga que
tenemos un pseudovector de tercer grado ijk , el cual en un sistema de coordenadas particular
es igual a ijk . Luego
0
ijk
= | a | aip ajq akr pqr ,

(1.88)

por definicion de pseudotensor. Ahora


a1p a2q a3r pqr = | a | ,

(1.89)

0
por directa expansion del determinante, mostrando que 123
= | a |2 = 1 = 123 . Considerando
las otras posibilidades una a una, encontramos
0
ijk
= ijk ,

(1.90)

para rotaciones y reflexiones. Luego ijk es un pseudotensor. Ademas, se ve como un pseudotensor isotropico con las mismas componentes en todos los sistemas de coordenadas cartesianos rotados.
Tensores duales.
A cualquier tensor antisimetrico de segundo rango Cjk (en el espacio tridimensional) podemos
asociarle un pseudo vector dual Ci definido por
1
Ci = ijk Cjk .
2

(1.91)


28CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.
Aqu el antisimetrico Cjk puede ser escrito

0
C12 C31
0
C23 .
Cjk = C12
C31 C23
0

(1.92)

Sabemos que Ci debe transformar como un vector bajo rotaciones a partir de la doble contraccion del (pseudo) tensor de quinto rango ijk Cmn pero este es realmente un pseudovector
~ estan dados por
desde la naturaleza pseudo de ijk . Especficamente, los componentes de C
(C1 , C2 , C3 ) = (C23 , C31 , C12 ) .

(1.93)

Note que el orden cclico de los ndices que vienen del orden cclico de los componentes
de ijk . Esta dualidad, dada por la ecuacion (1.93), significa que nuestro producto vectorial
tridimensional puede, literalmente, ser tomado ya sea como un pseudovector o como un tensor
antisimetrico de segundo rango, dependiendo de como escojamos escribirlo.
~ B,
~ y C,
~ podemos definir
Si tomamos tres vectores (polares) A,


Ai Bi Ci


(1.94)
Vijk = Aj Bj Cj = Ai Bj Ck Ai Bk Cj + . . . .
Ak Bk Ck

Por una extension del analisis de la seccion 1.6 cada termino Ap Bq Cr es visto como un
tensor de tercer rango, haciendo Vijk un tensor de rango tres. A partir de su definicion como
un determinante Vijk es totalmente antisimetrico, cambiando signo bajo el intercambio de
cualquier par de ndices, esto es, el intercambio de cualquier par de filas del determinante.
La cantidad dual es
1
V = ijk Vijk ,
(1.95)
3!
claramente un pseudo escalar. Por expansion se ve que


A1 B1 C1


V = A2 B2 C2 ,
(1.96)
A3 B3 C3

nuestro conocido producto escalar triple.


Para poder escribir las ecuaciones Maxwell en forma covariante, necesitamos extender
este analisis vectorial dual a un espacio de cuatro dimensiones y, en particular, indicar que
el elemento de volumen cuadridimensional, dx1 , dx2 , dx3 , dx4 , es un pseudoescalar.
Introducimos el smbolo Levi-Civita ijkl , el analogo cuadridimensional de ijk . Esta
cantidad ijkl es definida totalmente antisimetrica respecto a sus cuatro ndices. Si (ijkl)
es una permutacion par de (1,2,3,4), luego ijkl es definido como +1; si es una permutacion
impar, luego ijkl es -1. El ijkl de Levi-Civita puede probarse que es un pseudotensor de
rango cuatro por analisis similar al usado para establecer la naturaleza de ijk . Introduciendo
un tensor de rango cuatro,


Ai Bi Ci Di


Aj Bj Cj Dj

,
(1.97)
Hijkl =

A
B
C
D
k
k
k
k


Al Bl Cl Dl

1.9. PSEUDOTENSORES Y TENSORES DUALES.

29

~ B,
~ C
~ yD
~ podemos definir la cantidad dual
construyendo a partir de los vectores polares A,
H=

1
ijkl Hijkl .
4!

(1.98)

Realmente tenemos una cuadruple contraccion la cual reduce el orden a cero. A partir
~ es un pseudo escalar. Ahora tomemos A,
~ B,
~ C
~ y D
~
de la naturaleza pseudo de ijkl , H
como desplazamientos infinitecimales a lo largo de cuatro ejes de coordenadas (espacio de
Minkowski),
~ = (dx1 , 0, 0, 0) ,
A

~ = (0, dx2 , 0, 0) ,
B

~ = (0, 0, dx3 , 0) ,
C

~ = (0, 0, 0, dx4 ) ,
D

(1.99)

y
H = dx1 dx2 dx3 dx4 .

(1.100)

El elemento de volumen cuadridimensional esta ahora identificado como un pseudo escalar.


Este resultado era de esperarse a partir de los resultados de la teora especial de relatividad.
La contraccion de Lorentz-Fitzgerald de dx1 , dx2 , dx3 justo se compensa con la dilatacion
temporal de dx4 .
Nos introducimos a este espacio cuadridimensional como una simple extension matematica
del espacio tridemensional y, por supuesto, podramos haber discutido facilmente espacios de
5, 6 o N dimensiones. Esto es tpico del poder del analisis de componentes. Fsicamente,
este espacio tetradimensional puede ser tomado como un espacio de Minkowski,
(x1 , x2 , x3 , x4 ) = (x, y, z, ict) ,

(1.101)

donde t es el tiempo. Esto es la mezcla de espacio y tiempo realizada en la relatividad


especial. Las transformaciones que describen las rotaciones en un espacio cuadridimensional
son las transformaciones de Lorenzt de la relatividad especial.
Tensores irreducibles.
Para algunas aplicaciones, particularmente en la teora cuantica del momento angular, nuestros tensores cartesianos no son particularmente convenientes. En el lenguaje matematico
nuestro tensor general de segundo orden Aij es reducible, lo que significa que puede ser descompuesto en partes de un tensor de menor orden. En efecto, ya hemos hecho esto. De la
ecuacion (1.71)
A = Aii ,

(1.102)

1
Bij = (Aij Aji )
2

(1.103)

es una cantidad escalar, la traza de Aij .


La parte antisimetrica

han sido mostrada como equivalente a un (pseudo) vector, o


Bij = Ck ,

permutacion cclica de i, j, k.

(1.104)


30CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.
Sustrayendo el escalar A y el vector Ck de nuestro tensor original, tenemos un tensor de
segundo orden irreducible, simetrico y de traza nula, Sij , en el cual
1
1
Sij = (Aij + Aji ) A ij ,
2
3

(1.105)

con cinco componentes independientes. Luego, finalmente, nuestro tensor cartesiano original
puede ser escrito
1
Aij = A ij + Ck + Sij .
3

(1.106)

Las tres cantidades A, Ck , y Sij forman el tensor esferico de orden 0, 1 y 2 respectivamente,


transformando como los armonicos esfericos YLM para L =0, 1 y 2.
Un ejemplo especfico de la reduccion anterior esta dada por el tensor cuadrupolo electrico
simetrico
Z
Qij = (3xi xj r2 ij )(x1 , x2 , x3 ) d3 x .
El termino r2 ij representa una resta de la traza escalar (los 3 terminos i = j). El resultante
Qij tiene traza cero.

1.10

Tensores no cartesianos, diferenciaci


on covariante.

La distincion entre transformaciones contravariante y transformaciones covariante fueron establecidas en la seccion 1.6. Luego, por conveniencia, nos restringimos a coordenadas cartesianas (en la cual la distincion desaparece). Ahora en estas dos secciones volvemos a las
coordenadas no cartesianas y resurge la distincion entre contravariante y covariante. Como
en la seccion 1.6, un superndice sera usado para denotar la dependencia contravariante y un
subndice para diferenciar la covariante. El tensor metrico de la seccion 1.1 sera usado para
relacionar los ndices contravariante y covariante.
El enfasis en esta seccion es sobre diferenciacion, culminando en la construccion de una
derivada covariante. Vimos en la seccion 1.7 que la derivada de un campo vectorial es un
tensor de segundo orden en coordenadas cartesianas. La derivada covariante de un campo
vectorial es un tensor de segundo orden en sistemas de coordenadas no cartesianas.
Tensor m
etrico, subida y bajada de ndices.
Empecemos con un conjunto de vectores base ~i tal que un desplazamiento infinitesimal d~r
podra estar dado por
d~r = ~1 dq 1 + ~2 dq 2 + ~3 dq 3 .

(1.107)

Por conveniencia tomamos ~1 , ~2 , ~3 formando un sistema diestro. Estos tres vectores no son
necesariamente ortogonales. Tambien, se requerira una limitacion al espacio tridimensional
solamente para la discusion de los productos cruz y rotores. De lo contrario estos ~i pueden

COVARIANTE.
1.10. TENSORES NO CARTESIANOS, DIFERENCIACION

31

estar en un espacio de N -dimensiones, incluyendo la cuarta dimension espacio-tiempo de la


relatividad especial y general. Los vectores base ~i pueden ser expresados por
~i =

~r
,
q i

(1.108)

Note, sin embargo, que los ~i no tienen necesariamente magnitud uno. Se puede probar que
los vectores unitarios son
ei =

1 ~r
,
hi q i

(no hay suma),

y por lo tanto
~i = hi ei ,

(no hay suma).

(1.109)

Los ~i estan relacionados a los vectores unitarios ei por el factor de escala hi de la seccion
1.2. Los ei no tienen dimensiones, los ~i tienen dimensiones de hi . En coordenadas polares
esfericas, como un ejemplo especfico,
~r = er ,
~ = r e ,
~ = r sen e .

(1.110)

Como en la seccion 1.1, construimos el cuadrado de un desplazamiento diferencial


(ds)2 = d~s d~s = (~i dq i )2 = ~i ~j dq i dq j .

(1.111)

Comparando esto con (ds)2 de la seccion 1.1, ecuacion (1.6), definimos ~i ~j como el tensor
metrico covariante
~i ~j = gij .

(1.112)

Claramente gij es simetrico. La naturaleza del tensor gij se deduce a partir de la regla
del cuociente. Tomemos la relacion
g ik gkj = ji ,

(1.113)

para definir el correspondiente tensor contravariante g ik . El contravariante g ik entra como el


inverso8 del covariante gkj . Usemos este contravariante g ik para subir ndices, convirtiendo
un ndice covariante en uno contravariante, como se muestra mas adelante. As mismo el
covariante gkj sera usado para bajar ndices. La eleccion de g ik y gkj para esta operacion de
subir y bajar es arbitraria. Cualquier tensor de segundo orden (y su inverso) podra hacerlo.
Especficamente, tenemos
g ij ~j = ~ i , relacion de covariante y
contravariante de vectores bases
g ij F~j = F~ i , relacion de covariante y
contravariante de componentes vectoriales.
8

Si el tensor gij es escrito como una matriz, el tensor g ij est


a dado por la matriz inversa.

(1.114)


32CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.
Entonces
gij ~ j = ~i , son las correspondientes relaciones
gij F~ j = F~i , de bajada de ndices.

(1.115)

Como un ejemplo de esas transformaciones comenzaremos con la forma contravariante del


vector
F~ = F i ~i .

(1.116)

F~ = Fj g ji gik ~ k = Fj ~ j ,

(1.117)

De las ecuaciones (1.114) y (1.115)

la igualdad final viene de la ecuaciones (1.113). La ecuacion (1.116) da la representacion


contravariante de F~ . La ecuacion (1.117) da la correspondiente representacion covariante del
mismo F~ .
Deberamos enfatizar de nuevo que ~i y ~ j no tienen unidades. Esto puede verse en la
ecuaciones (1.110) y en el tensor metrico gij para coordenadas polares esfericas y su inverso
g ij :

1 0
0

1 0
0

2
0

0
(gij ) = 0 r
(g ij ) = 0 r2
.

2
2
1
0 0 r sen
0 0
r2 sen2
Derivadas y smbolos de Christoffel.
Formemos la diferencial de un escalar
d =

i
dq .
q i

(1.118)

Ya que la dq i son las componentes de un vector contravariante, las derivadas parciales, /q i


debieran ser un vector covariante, por la regla del cuociente. El gradiente de un escalar llega
a ser
~ = ~ i .

q i

(1.119)

Deberiamos notar que /q i no son las componentes del gradiente de la seccion 1.2 ya que
~ i 6= ei de la seccion 1.2.
Continuando con las derivadas de un vector, encontramos que la situacion es mucho mas
complicada por que los vectores bases ~i en general no son constantes. Recordemos que
no estamos mas restingidos a las coordenadas cartesianas con sus conveniente x, y, z. La
diferenciacion directa es
V~
V i
~i
=
~i + V i j .
j
j
q
q
q

(1.120)

COVARIANTE.
1.10. TENSORES NO CARTESIANOS, DIFERENCIACION

33

Ahora ~i /q j sera alguna combinacion lineal de ~k con coeficientes que dependen de los
ndices i y j de las derivadas parciales y el ndice k del vector base. Escribimos
~i
= kij ~k .
q j

(1.121)

Multiplicando por ~ m y usando ~ m ~k = km (pruebelo).


m
m
ij = ~

~i
.
q j

(1.122)

El kij es un smbolo de Christoffel (del segundo tipo). Tambien se le conoce como coeficiente
de conexion. Estos kij no son tensores de rango tres y el V i /q j de la ecuacion (1.120) no
son tensores de segundo rango. En coordenadas cartesianas, kij = 0 para todos los valores
de los ndices i, j, k.
Usando la ecuacion (1.108), obtenemos
~i
2~r
~j
=
= i == kji ~k .
j
j
i
q
q q
q

(1.123)

Luego estos smbolos de Christoffel son simetricos en los dos ndices inferiores:
kij = kji .

(1.124)

Derivada covariante.
Con los smbolos de Christoffel, la ecuacion (1.120) puede ser reescrita
V~
V i
=
~i + V i kij ~k .
q j
q j

(1.125)

Ahora i y k en el u
ltimo termino son ndices mudos. Intercambiando i y k, tenemos
 i

V~
V
k i
=
+ V kj ~i .
(1.126)
q j
q j
La cantidad entre parentesis es denominada derivada covariante, V;ji . Tenemos
V;ji
Los subndices
convierte en

;j

V i

+ V k ikj .
j
q

(1.127)

indican que la diferenciacion es con respecto a q j . La diferencial dV~ se

dV~ =

V~ j
dq = [V;ji dq j ]~i .
q j

(1.128)

Una comparacion con las ecuaciones (1.107) o (1.116) muestran que la cantidad entre parentesis cuadrados es la i-esima componente de un vector contravariante. Ya que dq j es la j-esima


34CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.
componente de un vector contravariante, V;ji debe ser la componente ij-esima de un tensor
mixto de segundo rango (regla del cuociente). Las derivadas covariantes de las componentes
contravariantes de un vector forma un tensor mixto de segundo rango, V;ji .
Ya que los smbolos de Christoffel desaparecen en coordenadas cartesianas, la derivada
covariante y la derivada parcial ordinaria coinciden
V i
= V;ji ,
j
q

(En coordenadas cartesianas).

(1.129)

Se puede demostrar que la derivada covariante de un vector covariante Vi esta dada por
V i; j =

Vi
Vk kij .
q j

(1.130)

Como V;ji , el tensor Vi;j es de rango dos.


La importancia fsica de la derivada covariante es:
Un reemplazo consistente de las derivadas parciales regulares por derivadas
covariantes lleva las leyes de la Fsica (por componentes) desde un espacio tiempo
plano al espacio tiempo curvo (Riemannian) de la relatividad general. Realmente,
esta sustitucion puede ser tomada como una declaraci
on matem
atica del principio
9
de equivalencia.
Los smbolos de Christoffel como derivadas del tensor m
etrico.
A menudo es conveniente tener una expresion explcita para los smbolos de Christoffel en
terminos de derivadas del tensor metrico. Como un paso inicial, definimos el smbolo de
Christoffel del primer tipo [ij, k] por
[ij, k] gmk m
ij .

(1.131)

Este [ij, k] no es un tensor de rango tres. De la ecuacion (1.122)


[ij, k] = gmk ~ m

~i
,
q j

~i
= ~k j .
q

(1.132)

Ahora diferenciamos gij = ~i ~j , ecuacion (1.112):


gij
~i
~j
= k ~j + ~i k ,
k
q
q
q
= [ik, j] + [jk, i] ,

(1.133)

por la ecuacion (1.132).


9

C.W. Misner, K.S. Thorne, and J.A. Wheeler, Gravitation. San Francisco: W. H. Freeman (1973), p 387.

1.11. OPERADORES DIFERENCIALES DE TENSORES.

35

Luego
1
[ij, k] =
2

gik gjk gij


+
k
q j
q i
q

(1.134)

sij = g ks [ij, k] ,


1 ks gik gjk gij
= g
+
k .
2
q j
q i
q

(1.135)

Estos smbolos de Christoffel y las derivadas covariantes son aplicadas en la proxima seccion.

1.11

Operadores diferenciales de tensores.

En esta seccion la derivada covariante de la seccion 1.10 es aplicada para derivar las operaciones diferenciales vectoriales de la seccion 1.2 en la forma tensorial general.
Divergencia.
Reemplazando las derivadas parciales por la derivada covariante, tomamos la divergencia
como
i
~ V~ = V i = V + V k i .

;i
ik
q i

Expresando iik por la ecuacion (1.135), tenemos




1 im gim gkm gik
i
+
m .
ik = g
2
q k
q i
q

(1.136)

(1.137)

Cuando contraemos con g im los dos u


ltimos terminos en el parentesis de llave se cancelan, ya
que
g im

gkm
mi gki
im gik
=
g
=
g
.
q i
q m
q m

(1.138)

Entonces
1
gim
iik = g im k .
2
q

(1.139)

g
gim
= gg im k ,
k
q
q

(1.140)

Por la teora de determinantes

donde g es el determinante de la metrica,g = det(gij ). Sustituyendo este resultado en la


ecuacion (1.139), obtenemos
iik =

1 g
1 g 1/2
=
.
2g q k
g 1/2 q k

(1.141)


36CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.
Esto da
~ V~ = V i = 1 (g 1/2 V k ) .

;i
g 1/2 q k

(1.142)

Para comparar este resultado con la ecuacion (1.21), note que h1 h2 h3 = g 1/2 y V i (coeficiente
contravariante de ~i )= Vi /hi (no hay suma), donde Vi es el coeficiente de ei .
Laplaciano.
~ V~ por
~ para obtener al Laplaciano
~ .
~
En la seccion 1.2 reemplazamos el vector V~ en
i
Aqu tenemos un V contravariante. Usando el tensor metrico para crear un contravariante
~
,
hacemos la sustitucion
V i g ik

.
q k

(1.143)

~
~ se convierte
Entonces el Laplaciano
~
~ = 1 (g 1/2 g ik ) .

g 1/2 q i
q k

(1.144)

Para los sistemas ortogonales de la seccion 1.2 el tensor metrico es diagonal y el contravariante
g ii (no hay suma) llega a ser
g ii = (hi )2 .
La ecuacion (1.144) se reduce a
~
~ =

1
h1 h2 h3
(
).
h1 h2 h3 q i
h2i q k

en concordancia con la ecuacion (1.22).


Rotor.
La diferencia de derivadas que aparece en el rotor (ecuacion (1.26)) sera escrita
Vi Vj
i .
q j
q
Nuevamente, recordemos que las componentes de Vi aqu son los coeficientes contravariantes
de los vector no unitarios base ~ i . Los Vi de la seccion 1.2 son coeficientes de los vectores
unitarios ei . Usando
kij = kji ,
obtenemos
Vi Vj
Vi
Vj
i = j Vk kij i + Vk kji
j
q
q
q
q
= Vi;j Vj;i .

(1.145)

1.11. OPERADORES DIFERENCIALES DE TENSORES.

37

Las caractersticas diferencias de derivadas del rotor llega a ser diferencias en derivadas covariantes y por lo tanto es un tensor de segundo orden (covariante en ambos ndices). Como
enfatizamos en la seccion 1.9, la forma vectorial especial del rotor existe solamente en el
espacio tridimensional.
De la ecuacion (1.135) es claro que todos los smbolos de Christoffel de tres ndices se
anulan en el espacio de Minkowski y en el espacio-tiempo real de la relatividad especial con

1 0
0
0
0 1 0
0

g =
(1.146)
0 0 1 0 .
0 0
0 1
Aqu
x0 = ct ,

x1 = x ,

x2 = y ,

y x3 = z .

Esto completa el desarrollo de los operadores diferenciales en la forma tensorial general.


En adicion a los campos elasticos y electromagneticos, estas formas diferenciales encuentran
aplicacion en mecanica (mecanica Lagrangiana, Hamiltoniana, y las ecuaciones de Euler para
la rotacion de cuerpos rgidos); mecanica de fludos, y quizas mucho mas importante que
todas, en el espacio-tiempo curvado de la teora moderna gravitacional.


38CAPITULO 1. ANALISIS
VECTORIAL EN COORDENADAS CURVILINEAS Y TENSORES.

Captulo 2
Determinantes y matrices.
versi
on final 1.31-1604011

2.1

Determinantes.

Comenzamos el estudio de matrices resolviendo ecuaciones lineales las cuales nos llevan a
determinantes y matrices. El concepto de determinante y su notacion fueron introducidos
por Leibniz.
Ecuaciones lineales homogeneas.
Una de las mayores aplicaciones de los determinantes esta en el establecimiento de una condicion para la exixtencia de una solucion no trivial de un conjunto de ecuaciones algebraicas
lineales homogeneas. Supongamos que tenemos tres incognitas x1 , x2 , x3 (o n ecuaciones con
n incognitas).
a1 x 1 + a2 x 2 + a3 x 3 = 0 ,
b1 x 1 + b2 x 2 + b3 x 3 = 0 ,
c1 x1 + c2 x2 + c3 x3 = 0 .

(2.1)

El problema es: en que condiciones hay alguna solucion, aparte de la solucion trivial x1 = 0,
x2 = 0, x3 = 0? Si usamos notacion vectorial ~x = (x1 , x2 , x3 ) para la solucion y tres filas
~a = (a1 , a2 , a3 ), ~b = (b1 , b2 , b3 ), ~c = (c1 , c2 , c3 ) para los coeficientes, tenemos que las tres
ecuaciones, ecuacion (2.1), se convirten en
~a ~x = 0 ,

~b ~x = 0 ,

~c ~x = 0 .

(2.2)

Estas tres ecuaciones vectoriales tienen la interpretacion geometrica obvia que ~x es ortogonal
a ~a, ~b, ~c. Si el volumen sustentado por ~a, ~b, ~c dado por el determinante (o el producto escalar
triple)


a1 a2 a3


D3 = (~a ~b) ~c = det(~a, ~b, ~c) = b1 b2 b3 ,
(2.3)
c1 c2 c3
1

Este captulo est


a basado en el tercer captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.

39

40

CAPITULO 2. DETERMINANTES Y MATRICES.

no es cero, claramente solo existe la solucion trivial ~x = 0.


Vice-versa, si el anterior determinante de coeficientes se anula, luego uno de los vectores
columna es una combinacion lineal de otros dos. Supongamos que ~c esta en el plano que
sustenta ~a, ~b, i.e., la tercera ecuacion es una combinacion lineal de las primeras dos y no es
independiente. Luego ~x es ortogonal a ese plano tal que ~x ~a ~b. Ya que las ecuaciones
homogeneas pueden ser multiplicadas por n
umeros arbitrarios, solamente las relaciones de xi
son relevantes, para lo cual obtenemos razones de determinantes de 2 2
x1
(a2 b3 a3 b2 )
=
,
x3
(a1 b2 a2 b1 )
x2
(a1 b3 a3 b1 )
=
,
x3
(a1 b2 a2 b1 )

(2.4)

a partir de los componentes del producto cruz ~a ~b.


Ecuaciones lineales no homog
eneas.
El caso mas simple es de dos ecuaciones con dos incognitas
a1 x 1 + a2 x 2 = a3 ,
b1 x 1 + b2 x 2 = b3 ,

(2.5)

puede ser reducido al caso previo embebiendolo en un espacio tridimensional con una solucion
vectorial ~x = (x1 , x2 , 1) y el vector fila ~a = (a1 , a2 , a3 ), ~b = (b1 , b2 , b3 ). Como antes, ecuacion
(2.5) en notacion vectorial, ~a ~x = 0 y ~b ~x = 0, implica que ~x ~a ~b tal que el analogo de la
ecuacion (2.4) se mantiene. Para que esto se aplique la tercera componente de ~a ~b debiera
ser distinta de cero, i.e., a1 b2 a2 b1 6= 0, ya que la tecera componente de ~x es 1 6= 0. Esto
produce que los xi tengan la forma

a3

b3
(a3 b2 a2 b3 )
x1 =
=
(a1 b2 a2 b1 )
a1
b1

a1

b1
(a1 b3 a3 b1 )
x2 =
=
(a1 b2 a2 b1 )
a1
b1


a2
b2

a2
b2

a3
b3
.
a2
b2

(2.6a)

(2.6b)

El determinante

en el numerador de x1 (x2 ) es obtenido a partir del determinante de
 los

a1 a2
a3


coeficientes
reemplazando el primer vector columna (segundo) por el vector
b1 b2
b3
del lado inhomogeneo de la ecuacion (2.5).
Estas soluciones de ecuacion lineal en terminos de determinantes pueden ser generalizados

2.1. DETERMINANTES.

41

a n dimensiones. El determinante es un arreglo



a1 a2

b b
Dn = 1 2
c1 c2

cuadrado

. . . an
. . . bn
,
. . . cn
...

(2.7)

de n
umeros (o funciones), los coeficientes de n ecuaciones lineales en nuestro caso. El n
umero
n de columnas (y de filas) en el arreglo es llamado algunas veces el orden del determinante.
La generalizacion de la expansion del producto escalar triple (de vectores fila de las tres
ecuaciones lineales) tiende al siguiente valor del determinante Dn en n dimensiones,
X
Dn =
ijk... ai bj ck . . . ,
(2.8)
i,j,k,...

donde ijk . . . ., analogo al smbolo de Levi-Civita de la seccion (1.2), es +1 para permutaciones pares (ijk . . . ) de (123 . . . n), 1 para permutaciones impares, y cero si alg
un ndice
es repetido.
Especficamente, para el determinante de orden tres D3 de las ecuaciones (2.3) y (2.8)
tenemos
D3 = +a1 b2 c3 a1 b3 c2 a2 b1 c3 + a2 b3 c1 + a3 b1 c2 a3 b2 c1 .

(2.9)

El determinante de orden tres, entonces, es esta particular combinacion lineal de productos. Cada producto contiene uno y solo un elemento de cada fila y de cada columna. Cada
producto es sumado si las columnas (los ndices) representan una permutacion par de (123)
y restando si corresponde a una permutacion impar. La ecuacion (2.3) puede ser considerada
en notacion abreviada de la ecuacion (2.9). El n
umero de terminos en la suma (ecuacion
(2.8))es 24 para un determinante de cuarto orden, en general n! para un determinante de
orden n. A causa de la aparicion de signos negativos en la ecuacion (2.9) pueden haber cancelaciones. Debido a esto es muy posible que un determinante de elementos grandes tenga
un valor peque
no.
Algunas propiedades u
tiles de los determinantes de n-esimo orden siguen de la ecuacion
(2.8). De nuevo, para ser especfico, la ecuacion (2.9) para determinantes de orden tres es
usada para ilustrar estas propiedades.
Desarrollo laplaciano por las menores.
La ecuacion (2.9) puede ser reescrita
D3 = a1 (b2 c3 b3 c2 ) a2 (b1 c3 b3 c1 ) + a3 (b1 c2 b2 c1 )






b2 b3
b1 b3
b1 b2





.
= a1
a2
+ a3
c2 c3
c1 c3
c1 c2

(2.10)

En general, el determinante de orden n-esimo puede ser expandido como una combinacion
lineal de productos de elementos de alguna fila (o columna) por determinantes de orden
(n 1) formados suprimiendo la fila y la columna del determinante original en el cual aparece

CAPITULO 2. DETERMINANTES Y MATRICES.

42

el elemento. Este arreglo reducido (2 2 en el ejemplo especfico) es llamado una menor. Si


el elemento esta en la i-esima fila y en la j-esima columna, el signo asociado con el producto
es (1)i+j . La menor con este signo es llamada el cofactor. Si Mij es usado para designar
la menor formado omitiendo la fila i y la columna j y cij es el cofactor correspondiente, la
ecuacion (2.10) se convierte en
D3 =

3
X
j=1

(1)j+1 aj M1j =

3
X

aj c1j .

(2.11)

j=1

En este caso, expandiendo a lo largo de la primera fila, tenemos i = 1 y la suma es sobre j,


las columnas.
Esta expansion de Laplace puede ser usada para sacar ventaja en la evaluacion de determinantes de alto orden en el cual muchos de los elementos son nulos. Por ejemplo, para
encontrar el valor de el determinante


0 1 0 0


1 0 0 0

,
(2.12)
D=

0
0
0
1


0 0 1 0
expandimos a traves de la fila superior para obtener


1 0 0


0 1 .
D = (1)1+2 (1) 0
0 1 0

(2.13)

Nuevamente, expandimos a traves de la fila superior para obtener




0 1
1+1

D = (1) (1)
(1)
1 0


0 1

=1.
=
1 0

(2.14)

Este determinante D (ecuacion (2.12)) esta formado de una de las matrices de Dirac que
aparecen en la teora relativista del electron de Dirac.
Antisimetra.
El determinante cambia de signo si cualquier par de filas son intercambiadas o si cualquier
par de columnas son intercambiadas. Esto deriva del caracter par-impar del Levi-Civita en
la ecuacion (2.8) o explcitamente de la forma de las ecuaciones (2.9) y (2.10).
Esta propiedad fue usada en la seccion 1.9 para desarrollar una combinacion lineal totalmente antisimetrica. Esto es tambien frecuentemente usado en Mecanica Cuantica en la
construccion de una funcion de onda de muchas partculas que, en concordancia con el principio de exclusion de Pauli, sera antisimetrica bajo el intercambio de cualquier par de partculas
identicas con spin 1/2 (electrones, protones, neutrones, etc).

2.1. DETERMINANTES.

43

Como un caso especial de antisimetra, cualquier determinante con dos filas iguales o dos
columnas iguales es nulo.
Si cada elemento en una fila o de una columna es cero el determinante completo es nulo.
Si cada elemento en una fila o de una columna es multiplicado por una constante, el
determinante completo es multiplicado por esa constante.
El valor de un determinante es inalterado si un m
ultiplo de una fila es a
nadido (columna
por columna) a otra fila o si un m
ultiplo de una columna es a
nadido (fila por fila) a otra
columna. Tenemos



a1 a2 a3 a1 + ka2 a2 a3



b1 b2 b3 = b1 + kb2 b2 b3 .
(2.15)



c1 c2 c3 c1 + kc2 c2 c3
Usando el desarrollo de Laplace sobre el lado


a1 + ka2 a2 a3 a1


b1 + kb2 b2 b3 = b1


c1 + kc2 c2 c3 c1

derecho, obtenemos



a2 a2 a3
a2 a3


b2 b3 + k b2 b2 b3 ,
c2 c2 c3
c2 c3

(2.16)

entonces por la propiedad de antisimetra el segundo determinante del lado derecho se anula,
verificando la ecuacion (2.15).
Un caso especial, un determinante es igual a cero, si cualquier par de filas o columnas son
proporcionales.
Volviendo a las ecuaciones homogeneas (2.1) y multiplicando el determinante de los coeficientes por x1 , y luego sumando x2 veces la segunda columna y x3 veces la tercera columna,
podemos establecer directamente la condicion para la presencia de una solucion no trivial
para la ecuacion (2.1):





a1 a2 a3 x1 a1 a2 a3 a1 x1 + a2 x2 + a3 x3 a2 a3 0 a2 a3





x1 b1 b2 b3 = x1 b1 b2 b3 = b1 x1 + b2 x2 + b3 x3 b2 b3 = 0 b2 b3 = 0 . (2.17)
c1 c2 c3 x1 c1 c2 c3 c1 x1 + c2 x2 + c3 x 3 c2 c3 0 c2 c3
Por lo tanto x1 (x2 y x3 ) deberan ser cero a menos que el determinante de los coeficientes
sea nulo. Podemos mostrar que si el determinante de los coeficientes es nulo, existe realmente
una solucion no trivial.
Si nuestras ecuaciones lineales son inhomogeneas, esto es, como en la ecuacion (2.5) o si
los ceros en el lado derecho de la ecuacion (2.1) fueran reemplazados por a4 , b4 , c4 respectivamente, luego de la ecuacion (2.17) obtenemos,


a4 a2 a3


b4 b2 b3


c4 c2 c3
,
(2.18)
x1 =
a1 a2 a3


b1 b2 b3


c1 c2 c3

la cual generaliza la ecuacion (2.6a) a la dimension n = 3. Si el determinante de los coeficientes


se anula, el conjunto de ecuaciones no homogeneas no tiene solucion a menos que el numerador
tambien se anule. En este caso las soluciones pueden existir pero ellas no son u
nicas.

44

CAPITULO 2. DETERMINANTES Y MATRICES.

Para el trabajo numerico, esta solucion del determinante, ecuacion (2.18), es enormemente
difcil de manejar. El determinante puede involucrar grandes n
umeros con signos alternados,
y en la resta de dos n
umeros grandes el error relativo podra remontarse al punto que hace
que el resultado no tenga valor. Tambien, aunque el metodo del determinante es ilustrado
aqu con tres ecuaciones y tres incognitas, podramos facilmente tener 200 ecuaciones con
200 incognitas las cuales, involucran sobre 200! terminos por determinante, lo que pone un
desafo muy alto a la velocidad computacional. Debera haber una mejor manera. En efecto,
hay una mejor manera. Una de las mejores es un proceso a menudo llamado eliminacion de
Gauss. Para ilustrar esta tecnica, consideremos el siguiente conjunto de ecuaciones.
Resolvamos
3x + 2y + z = 11
2x + 3y + z = 13
(2.19)
x + y + 4z = 12 .
El determinante de la ecuacion lineal no homogenea ecuacion (2.19) es 18, por lo tanto existe
una solucion.
Por conveniencia y para una optima precision numerica, las ecuaciones son reordenadas
tal que los coeficientes mayores corran a lo largo de la diagonal principal (superior izquierda
a inferior derecha). Esto ha sido hecho en el conjunto anterior.
La tecnica de Gauss es usar la primera ecuacion para eliminar la primera incognita x de
las ecuaciones restantes. Entonces la (nueva) segunda ecuacion es usada para eliminar y de la
u
ltima ecuacion. En general, descendemos poco a poco a traves del conjunto de ecuaciones,
y luego, con una incognita determinada, avanzamos gradualmente para resolver cada una de
las otras incognitas en sucesion.
Dividiendo cada fila por su coeficiente inicial, vemos que las ecuaciones (2.19) se convierten
en
1
11
2
x+ y+ z =
3
3
3
3
1
13
(2.20)
x+ y+ z =
2
2
2
x + y + 4z = 12 .
Ahora, usando la primera ecuacion, eliminamos x de la segunda y la tercera:
2
1
11
x+ y+ z =
3
3
3
5
1
17
y+ z=
6
6
6
1
11
25
y+ z=
,
3
3
3
y
2
1
11
x+ y+ z =
3
3
3
17
1
y+ z=
5
5
y + 11z = 25 .

(2.21)

(2.22)

2.1. DETERMINANTES.

45

Repitiendo la tecnica, usamos la segunda ecuacion para eliminar y a partir de la tercera


ecuacion:
2
1
11
x+ y+ z =
3
3
3
1
17
(2.23)
y+ z=
5
5
54z = 108 ,
o
z=2.
Finalmente, al reemplazar obtenemos
y+

1
17
2=
,
5
5

o
y=3.
Luego con z e y determinados,
x+

2
1
11
3+ 2=
,
3
3
3

y
x=1.
La tecnica podra parecer no tan elegante como la ecuacion (2.17), pero esta bien adaptada
a los computadores modernos y es mas rapida que el tiempo gastado con los determinantes.
Esta tecnica de Gauss puede ser usada para convertir un determinante en una forma
triangular:


a1 b 1 c 1


D = 0 b2 c2 ,
0 0 c3

para un determinante de tercer orden cuyos elementos no deben ser confundidos con aquellos
en la ecuacion (2.3). De esta forma D = a1 b2 c3 . Para un determinante de n-esimo orden
la evaluacion de una forma triangular requiere solamente n 1 multiplicaciones comparadas
con las n! requeridas para el caso general.
Una variacion de esta eliminacion progresiva es conocida como eliminacion de GaussJordan. Comenzamos como si fuera el procedimiento de Gauss, pero cada nueva ecuacion
considerada es usada para eliminar una variable de todas las otras ecuaciones, no solo de
aquellas bajo ella. Si hemos usado esta eliminacion de Gauss-Jordan, la ecuacion (2.23)
llegara a ser
1
7
x+ z =
5
5
17
1
y+ z=
5
5
z=2,

(2.24)

CAPITULO 2. DETERMINANTES Y MATRICES.

46

usando la segunda ecuacion de la ecuacion (2.22) para eliminar y de ambas, la primera y


tercera ecuaciones. Entonces la tercera ecuacion de la ecuacion (2.24) es usada para eliminar
z de la primera y segunda ecuaciones, dando
x=1
y=3
z=2,

(2.25)

Volveremos a la tecnica de Guass-Jordan cuando invertamos matrices.


Otra tecnica disponible para el uso computacional es la tecnica de Gauss-Seidel. Cada
tecnica tiene sus ventajas y desventajas. Los metodos de Gauss y Gauss-Jordan pueden tener
problemas de precision para un determinante grande. Esto tambien es un problema para la
inversion de matrices. El metodo de Gauss-Seidel, como un metodo iterativo, puede tener
problemas de convergencia.

2.2

Matrices.

El analisis matricial pertenece al algebra lineal ya que las matrices son operadores o mapas lineales tales como rotaciones. Supongamos, por ejemplo, que rotamos las coordenadas
cartesianas de una espacio bidimensional tal que, en notacion vectorial,

 0 

P
x1 cos x2 sen
x1
a
x
=
=
.
(2.26)
ij
j
j
x02
x2 sin x1 cos
Etiquetamos el arreglo de elementos aij por la matriz A de 2 2 consistente de dos filas y
dos columnas, ademas, consideramos los vectores x, x0 como matrices de 2 1. Tomemos la
suma de productos de la ecuacion (2.26) como una definicion de la multiplicacion matricial
que involucra el producto escalar de cada uno de los vectores fila de A con el vector columna
x. As en notacion matricial la ecuacion (2.26) se convierte en
x0 = Ax .

(2.27)

Para extender esta definicion de multiplicacion de una matriz por un vector columna a el
producto de dos matrices de 2 2, consideremos la rotacion de coordenada seguida por una
segunda rotacion dada por la matriz B tal que
x00 = Bx 0 .

(2.28)

Por componentes
x00i =

X
j

bij x0j =

X
j

bij

ajk xk =

X X
k

bij ajk

xk .

(2.29)

La suma sobre j es la multiplicacion matricial definiendo una matriz C = BA tal que


X
x00i =
cik xk ,
(2.30)
k

2.2. MATRICES.

47

o x00 = Cx en notacion matricial. Nuevamente, esta definicion involucra el producto escalar


de vectores filas de B con vectores columnas de A. Esta definicion de multiplicacion matricial
se puede generalizar a matrices de m n y es u
til, realmente su utilidad es la justificacion
de su existencia. La interpretacion fsica es que el producto matricial de dos matrices, BA,
es la rotacion que conduce del sistema sin prima directamente al sistema de coordenadas con
doble prima. Antes de pasar a la definicion formal, podemos notar que el operador A esta
descrito por sus efectos sobre las coordenadas o vectores base. Los elementos de matriz aij
constituyen una representacion del operador, una representacion que depende de la eleccion
de una base.
El caso especial donde una matriz tiene una columna y n filas es llamada un vector
columna, |xi, con componentes xi , i = 1, 2, . . . ., n. Si A es una matriz de n n, |xi es un
vector columna de n componentes, A|xi esta definida como en la ecuacion (2.27) y (2.26).
Similarmente, si una matriz tiene una fila y n columnas, es llamada un vector fila, hx| con
componentes xi , i = 1, 2, . . . .n. Claramente, hx| resulta de |x > por el intercambio de filas

y columnas, una operacion matricial llamada transposici


on, y pora cualquier matriz A, A
ik = Aik . Transponiendo un
es llamada 2 la transpuesta de A con elementos de matriz (A)
producto de matrices AB se invierte el orden y da BA; similarmente, A|xi se transpone como
hx|A. El producto escalar toma la forma hx|yi.
Definiciones b
asicas.
Una matriz puede ser definida como una arreglo cuadrado o rectangular de n
umeros o funciones que obedecen ciertas leyes. Esto es una extension perfectamente logica de los conceptos
matematicos familiares. En aritmetica tratamos con n
umeros simples. En la teora de variable compleja tratamos con pares ordenados de n
umeros, (1, 2) = 1 + 2i, en el cual el orden es
importante. Ahora consideremos n
umeros (o funciones) ordenados en un arreglo cuadrados
o rectangular. Por conveniencia en el trabajo posterior los n
umeros son distinguidos por dos
subndices, el primero indica la fila (horizontal) y el segundo indica la columna (vertical) en
la cual aparecen los n
umeros. Por ejemplo, a13 es el elemento de matriz en la primera fila y
tercera columna. De este modo, si A es una matriz con m filas y n columnas,

a11
a21

A = ..
.

a12
a22
..
.

..
.

a1n
a2n

.. .
.

(2.31)

am1 am2 amn

Quizas el hecho mas importante a notar es que los elementos aij no estan combinados unos
con otros. Una matriz no es un determinante. Es un arreglo ordenado de n
umeros, no un
simple n
umero.
La matriz A hasta ahora de solo es un arreglo de n
umeros que tiene las propiedades
que le asignamos. Literalmente, esto significa construir una nueva forma de matematicas.
Postulamos que las matrices A, B y C, con elementos aij , bij y cij , respectivamente, combinan
de acuerdo a las siguientes reglas.
2

Algunos textos denotan A transpuesta por AT .

CAPITULO 2. DETERMINANTES Y MATRICES.

48
Igualdad.

Matriz A= Matriz B si y solo si aij = bij para todos los valores de i y j. Esto, por su puesto,
require que A y B sean cada uno arreglos de m n (m filas y n columnas).
Suma.
A + B = C si y solo si aij + bij = cij para todos los valores de i y j, los elementos se
combinan de acuerdo a las leyes del algebra lineal (o aritmetica si hay n
umeros simples). Esto
significa que A + B = B + A, la conmutacion. Tambien, se satisface la ley de asociatividad
(A + B) + C = A + (B + C). Si todos los elementos son cero, la matriz es llamada matriz nula
y se denota por 0. Para todo A,
A+0=0+A=A ,
con

0 0
0 0

.. . . .. .
. .
.
0 0 0

0
0

0 = ..
.

(2.32)

Tal que las matrices de m n forman un espacio lineal con respecto a la suma y la resta.
Multiplicaci
on (por un escalar).
La multiplicacion de la matriz A por una cantidad escalar esta definida como
A = (A) ,

(2.33)

en la cual los elementos de A son aij ; esto es, cada elemento de la matriz A es multiplicado
por el factor escalar. Esto contrasta con el comportamiento de los determinantes en el cual el
factor multiplica solamente una columna o una fila y no cada elemento del determinante.
Una consecuencia de esta multiplicacion por escalar es que
A = A ,

conmutacion.

(2.34)

Multiplicaci
on (multiplicaci
on matricial) producto interno.
AB = C si y solo si cij =

aik bkj .

(2.35)

Los elementos i y j de C estan formados como un producto escalar de la i-esima fila de A con
el j-esima columna de B (el cual demanda que A tenga el mismo n
umero de columnas como
B tiene de filas). El ndice mudo k toma los valores 1, 2, . . . , n en sucesion, esto es,
cij = ai1 b1j + ai2 b2j + ai3 b3j ,

(2.36)

2.2. MATRICES.

49

para n = 3. Obviamente, el ndice mudo k pude ser reemplazado por alg


un otro smbolo
que no este en uso sin alterar la ecuacion (2.35). Quizas la situacion puede ser aclarada
afirmando que la ecuacion (2.35) defina el metodo de combinar ciertas matrices. Este metodo
de combinacion, es llamado multiplicacion matricial. Para ilustrar, consideremos dos matrices
(matrices de Pauli)




0 1
1 0
1 =
y
.
(2.37)
1 0
0 1
El elemento 11 del producto, (1 3 )11 esta dado por la suma de productos de elementos de la
primera fila de 1 con el correspondiente elemento de la primera columna de 3 : Aqu
(1 3 )ij = 1i1 31j + 1i2 32j .
Una aplicacion directa de la multiplicacion de matrices muestra que


0 1
3 1 =
1 0

(2.38)

y por la ecuacion (2.35)


1 3 = 1 3 .

(2.39)

Excepto en casos especiales, la multiplicacion de matrices no es conmutativa.3


AB 6= BA .

(2.40)

Sin embargo, de la definicion de multiplicacion de matrices podemos mostrar que se mantiene


una ley de asosiatividad, (AB)C = A(BC). Tambien se satisface una ley de distributividad,
A(B + C) = AB + AC. La matriz unidad tiene elementos ij , la delta de Kronecker, y la
propiedad de que 1A = A1 = A para toda A,

1 0 0
0 1 0

1 = .. .. . . .. .
(2.41)
. .
. .
0 0 1
Notamos que es posible que el producto de dos matrices sea una matriz nula sin ser ninguna
de ellas una matriz nula. Por ejemplo, si




1 1
1 0
A=
y B=
.
0 0
1 0
AB = 0. Esto difiere de la multiplicacion de n
umeros reales o complejos los cuales forman un
campo, mientras que las estructura aditiva y multiplicativa de las matrices es llamada anillo
por los matematicos.
3

La perdida de la propiedad conmutativa es descrita por el conmutador [A, B] = AB BA. La no conmutatividad se expresa por [A, B] 6= 0.

CAPITULO 2. DETERMINANTES Y MATRICES.

50

Si A en una matriz de n n con determinante |A| =


6 0, luego tiene una unica inversa A1
tal que AA1 = A1 A = 1. Si B es tambien una matriz de n n con inversa B1 , luego el
producto de AB tiene la inversa
(AB)1 = B1 A1 ,

(2.42)

ya que ABB1 A1 = 1 = B1 A1 AB.


El teorema del producto el cual dice que el determinante de un producto,|AB|, de dos
matrices de n n A y B es igual al producto de los determinantes, |AkB|, uniendo matrices
con determinantes. El anterior teorema puede ser facilmente probado.
Producto directo.
Un segundo procedimiento para multiplicar matrices, conocido como el tensor producto directo o de Kronecker. Si A es una matriz de m m y B una matriz de n n, luego el producto
directo es
AB=C .

(2.43)

C es uan matriz de mn mn con elementos


C = Aij Bkl ,

(2.44)

con
= n(i 1) + k ,

= n(j 1) + l .

Por ejemplo, si A y B ambas son matrices de 2 2,





a11 B a12 B
AB=
a21 B a22 B

a11 b11 a11 b12


a11 b21 a11 b22
=
a21 b11 a21 b12
a21 b21 a21 b22

a12 b11
a12 b21
a22 b11
a22 b21

a12 b12
a12 b22
.
a22 b12
a22 b22

(2.45)

El producto directo es asociativo pero no conmutativo. Como un ejemplo de producto


directo, las matrices de Dirac pueden ser desarrolladas como productos directos de las matrices de Pauli y de la matriz unidad. Otros ejemplos aparecen en la construccion de grupos
en teora de grupos y en espacios de Hilbert en teora cuantica.
El producto directo definido aqu es algunas veces llamado la forma standard y es denotado por . Otros tres tipos de producto directo de matrices existe como posibilidades o
curiosidades matematicas pero tienen muy poca o ninguna aplicacion en fsica matematica.

2.2. MATRICES.

51

Matrices diagonales.
Un tipo especial muy importante de matrices es la matriz cuadrada en la cual todos los
elementos no diagonales son cero. Espacficamente, si una matriz A de 3 3 es diagonal,

a11 0
0
A = 0 a22 0 .
0
0 a33
Una interpretacion fsica de tales matrices diagonales y el metodo de reducir matrices a esta
forma diagonal son considerados en la seccion 2.5. Aqu nos limitamos a notar la importante
propiedad de que la multiplicacion de matrices es conmutativa, AB = BA, si A y B son cada
una diagonales.
Traza.
En cualquiera matriz cuadrada la suma de los elementos diagonales es llamada la traza.
Claramente la traza es una operacion lineal:
traza(A B) = traza(A) traza(B) .
Una de sus interesantes y u
tiles propiedades es que la traza de un producto de dos matrices
A y B es independiente del orden de la multiplicacion:
X
XX
traza(AB) =
(AB)ii =
aij bji
i

XX
i

bji aij =

(BA)jj

(2.46)

= traza(BA) .
Esto se mantiene a
un cuando AB 6= BA. La ecuacion (2.46) significa que la traza de cualquier
conmutador, [A, B] = AB BA, es cero. De la ecuacion (2.46) obtenemos
traza(ABC) = traza(BCA) = traza(CAB) ,
lo cual muestra que la traza es invariante bajo permutaciuones cclicas de la matriz en un
producto.
Para una matriz simetrica o una matriz Hermtica compleja la traza es la suma, y el
determinante el producto, de sus autovalores, y ambos son coeficientes del polinomio caracterstico. La traza servira una funcion similar para las matrices como la ortogonalidad sirve
para los vectores y funciones.
En terminos de tensores la traza es una contraccion y como el tensor de segundo orden
contrado es un escalar (invariante).
Las matrices son usadas ampliamente para representar los elementos de grupos. La traza
de las matrices representando los elementos de grupo es conocido en teora de grupos como el
car
acter. La razon de este nombre especial y espacial atencion es que mientras las matrices
pueden variar la traza o caracter se mantiene inavariante.

CAPITULO 2. DETERMINANTES Y MATRICES.

52
Inversi
on de matriz.

Al comienzo de esta seccion la matriz A fue presentada como la representacion de un operador


que (linealmente) transforma los ejes de coordenadas. Una rotacion podra ser un ejemplo de
tal transformacion lineal. Ahora buscaremos la transformacion inversa A1 que restablecera
los ejes de coordenadas originales. Esto significa, ya sea como una ecuacion matricial o de
operador4 ,
AA1 = A1 A = 1 .

(2.47)

Podemos probar (ejercicio) que


a1
ij =

Cji
,
|A|

(2.48)

con la suposicion que el determinante de A (|A|) 6= 0. Si es cero, etiquetaremos a A como singular. No existe la inversa. Como fue explicado en la seccion 2.1 esta forma con determinante
es totalmente inapropiado para el trabajo numerico con grandes matrices.
Hay una amplia variedad de tecnicas alternativas. Una de las mejores y mas com
unmente
usada es la tecnica de inversion de matrices de Gauss-Jordan. La teora esta basada en los
resultados que muestran que existen matrices ML tal que el producto ML A sera A pero con
a. una fila multiplicada por una constante, o
b. una fila reemplazada por la fila original menos un m
ultiplo de otra fila, o
c. filas intercambiadas.
Otras matrices MR operando sobre la derecha de (AMR ) puede llevar a las mismas operaciones sobre las columnas de A.
Esto significa que las filas y las columnas de la matriz pueden ser alteradas (por multiplicacion de matrices) como si estuvieramos tratando con determinantes, as podemos aplicar
las tecnicas de eliminacion de Gauss-Jordan a los elementos de matriz. Por tanto existe una
matriz ML (o MR ) tal que5
ML A = 1 .

(2.49)

La ML = A1 . Determinamos ML realizando las operaciones de eliminacion identicas sobre


la matriz unidad. Luego
ML 1 = ML .
Para clarificar esto consideremos un ejemplo especfico.
Deseamos invertir la matriz

3 2 1
A = 2 3 1 .
1 1 4
4
5

Aqu y a traves de todo el captulo nuestras matrices tienen rango finito.


Recordemos que det(A) 6= 0.

(2.50)

(2.51)

2.3. MATRICES ORTOGONALES.


Por conveniencia escribimos A y 1
una de ellas

3
2
1

53

lado a lado realizando operaciones identicas sobre cada

2 1
3 1
1 4

Para ser sistematicos, multiplicamos cada fila


2 1
1 3 3
3 1
1 2 2
1 1 4

1 0 0
0 1 0 .
0 0 1
para obtener ak1 = 1,
1

0
0
3
1
0 2 0 .
0 0 1

Restando la primera fila de la segunda y tercera, obtenemos


1

2 1
1 3 3
0 0
3
5 1
1 1
0 6 6
3 2 0 .
1
11
0 3 3
13 0 1

(2.52)

(2.53)

(2.54)

Entonces dividimos la segunda fila (de ambas matrices) por 5/6 y sustrayendola 2/3 veces de
la primera fila, y 1/3 veces de la tercera fila. Los resultados para ambas matrices son

1 0 15
25 0
5

2 3

(2.55)
0 1 15
5 5 0 .
18
1
1
0 0 5
5 5 1
Dividimos la tercera fila (de ambas matrices) por 18/5. Luego como u
ltimo paso 1/5 veces
la tercera fila es sustrada de cada una de las dos primeras filas (de ambas martices). Nuestro
par final es

11
7
1
1 0 0
18
18
8

7
1
18
(2.56)
.
0 1 0
18 11
18
1
5
1
0 0 1
18 18 18
El chequeo es multiplicar la original A por la calculada A1 para ver si realmente obtuvimos
la matriz unidad 1.
Como con la solucion de Gauss-Jordan de ecuaciones algebraicas simultaneas, esta tecnica
esta bien adaptada para computadores.

2.3

Matrices ortogonales.

El espacio de tres dimensiones ordinario puede ser descrito con las coordenadas cartesianas
(x1 , x2 , x3 ). Consideremos un segundo conjunto de coordenadas cartesianas (x01 , x02 , x03 ) cuyo origen y sentido coinciden con el primero pero su orientacion es diferente (figura 2.1).
Podemos decir que el sistema de ejes prima ha sido rotado respecto al inicial sistema de
coordenadas sin prima. Ya que esta rotacion es una operacion lineal, esperamos una ecuacion
matricial que relaciones la base con primas con la sin primas.

CAPITULO 2. DETERMINANTES Y MATRICES.

54

x3

x2

x3

x1

x2

x1

x1
x1

Figura 2.1: Sistemas de coordenadas cartesianos.

Cosenos directores.
Un vector unitario a lo largo del eje x01 (
x1 0 ) puede ser resuelto en sus componentes a lo largo
de los ejes x1 , x2 y x3 por las usuales tecnicas de proyeccion.
x1 0 = x1 cos(x01 , x1 ) + x2 cos(x02 , x2 ) + x3 cos(x03 , x3 ) .

(2.57)

Por conveniencia estos cosenos, los cuales son los cosenos directores, son etiquetados
cos(x01 , x1 ) = x1 0 x1 = a11 ,
cos(x01 , x2 ) = x1 0 x2 = a12 ,
cos(x01 , x3 ) = x1 0 x3 = a13 .

(2.58)

Continuando, tenemos
cos(x02 , x1 ) = x2 0 x1 = a21 ,
cos(x02 , x2 ) = x2 0 x2 = a22 ,

(a21 6= a12 ) ,
y as sucesivamente.

(2.59)

Ahora la ecuacion (2.57) puede ser reescrita como


x1 0 = x1 a11 + x2 a12 + x3 a13
y tambien
x2 0 = x1 a21 + x2 a22 + x3 a23
x3 0 = x1 a31 + x2 a32 + x3 a33 .

(2.60)

Tambien podemos ir de la otra manera resolviendo x1 , x2 y x3 en sus componentes en el


sistema con primas. Entonces
x1 = x1 0 a11 + x2 0 a21 + x3 0 a31
x2 = x1 0 a12 + x2 0 a22 + x3 0 a32
x3 = x1 0 a13 + x2 0 a23 + x3 0 a33 .

(2.61)

2.3. MATRICES ORTOGONALES.

55

Aplicaciones a vectores.
Si consideramos un vector cuyas componentes son funciones de la posicion, entonces
V~ (x1 , x2 , x3 ) = x1 V1 + x2 V2 + x3 V3
= V~ 0 (x01 , x02 , x03 ) = x01 V10 + x02 V20 + x03 V30 ,

(2.62)

ya que el punto puede ser dado en cualquiera de los dos sistema de coordenadas (x1 , x2 , x3 ) o
(x01 , x02 , x03 ). Notemos que V~ y V~ 0 son geometricamente el mismo vector (pero con diferentes
componentes). Si los ejes de coordenadas son rotados, el vector se mantiene fijo. Usando la
ecuacion (2.60) para eliminar x1 , x2 , x3 , podemos separar la ecuacion (2.62) en tres ecuaciones
escalares
V10 = a11 V1 + a12 V2 + a13 V3
V20 = a21 V1 + a22 V2 + a23 V3
V30 = a31 V1 + a32 V2 + a33 V3 .

(2.63)

En particular, estas relaciones se mantendran para las coordenadas de un punto (x1 , x2 , x3 )


y (x01 , x02 , x03 ), dando
x01 = a11 x1 + a12 x2 + a13 x3
x02 = a21 x1 + a22 x2 + a23 x3
x03 = a31 x1 + a32 x2 + a33 x3 ,

(2.64)

y similarmente para las coordenadas primas. En esta notacion el conjunto de tres ecuaciones
(2.64) pueden ser escritas como
x0i

3
X

aij xj ,

(2.65)

j=1

donde i toma los valores 1, 2 y 3 y el resultado son tres ecuaciones separadas.


De la ecuacion anterior podemos derivar interesante informacion sobre los aij los cuales
describen la orientacion del sistema de coordenadas (x01 , x02 , x03 ) relativa al sistema (x1 , x2 , x3 ).
La distancia respecto al origen es la misma en ambos sistemas. Elevando al cuadrado,
X
X 2
x2i =
x0i
i

X X
i

X
j,k

aij xj

xj xk

aik xk

aij aik .

Esto solo puede ser cierto para todos los puntos si y solo si
X
aij aik = jk ,
j, k = 1, 2, 3 .
i

(2.66)

(2.67)

CAPITULO 2. DETERMINANTES Y MATRICES.

56

La ecuacion (2.67) es una consecuencia de requerir que la longitud permanezca constante


(invariante) bajo rotaciones del sistema de coordenadas, es llamada la condici
on de ortogonalidad. Los aij escritos como una matriz A, forman una matriz ortogonal. Notemos que la
ecuacion (2.67) no es una multiplicacion matricial.
En notacion matricial la ecuacion (2.65) llega a ser
|x0 i = A|xi .

(2.68)

Condiciones de ortogonalidad, caso bidimensional.


Podemos ganar un mejor entendimiento de los aij y de la condicion de ortogonalidad considerando con detalle rotaciones en dos dimensiones. Esto lo podemos pensar como un sistema
tridimensional con los ejes x1 y x2 rotados respecto a x3 . De la figura 2.2,

x2

x2
x2

n
e
s

x2

s
o
x 1c

x1

x1
x1

Figura 2.2: Sistemas de coordenadas rotados en dos dimensiones.

x01 = x1 cos + x2 sen ,


x02 = x1 sen + x2 cos .

(2.69)

Por lo tanto por la ecuacion (2.68)


A=

cos sen
sen cos

(2.70)

Notemos que A se reduce a la matriz unidad para = 0. La rotacion cero significa que nada
ha cambiado. Es claro a partir de la figura 2.2 que
a11 = cos = cos(x01 , x1 ) ,


(2.71)
a12 = sen = cos
= cos(x01 , x2 ) , y as sucesivamente,
2
de este modo identificamos los elementos de matriz aij con los cosenos directores. La ecuacion
(2.67), la condicion de ortogonalidad, llega a ser
sen2 + cos2 = 1 ,
sen cos sen cos = 0 .

(2.72)

2.3. MATRICES ORTOGONALES.

57

la extension a tres dimensiones ( rotacion de las coordenadas a lo largo del eje z en un angulo
en el sentido de los punteros del reloj) es simplemente

cos sen 0
A = sen cos 0 .
0
0
1

(2.73)

El a33 = 1 expresa el hecho que x03 = x3 , ya que la rotacion ha sido en torno al eje x3 Los
ceros garantizan que x01 y x02 no dependen de x3 y que x03 no depende de x1 y x2 . En un
lenguaje mas sofisticado, x1 y x2 se extienden sobre un subespacio invariante, mientras que
x3 forma un subespacio invariante por si solo. La forma de A es reducible. La ecuacion (2.73)
da una posible descomposicion.
Matriz inversa A1 .
Volviendo a la matriz de transformacion general A, la matriz inversa A1 es definida tal que
|xi = A1 |x0 i .

(2.74)

Esto es, A1 describe el inverso de la rotacion dada por A y retorna el sistema de coordenadas
a su posicion original. Simbolicamente, las ecuaciones (2.68) y (2.74) combinadas dan
|xi = A1 A|xi ,

(2.75)

A1 A = 1 ,

(2.76)

AA1 = 1 .

(2.77)

y ya que |xi es arbitrario,

la matriz unidad, Similarmente,

usando las ecuaciones (2.68) y (2.74) y eliminando |x0 i en vez de |xi.

Matriz transpuesta, A.
Podemos determinar los elementos de nuestra postulada matriz inversa A1 empleando la
condicion de ortogonalidad. La ecuacion (2.67), la condicion de ortogonalidad, no esta de
acuerdo con nuestra definicion de multiplicacion matricial, pero la podemos definir de acuerdo
tal que
a una nueva matriz A
a
ji = aij .

(2.78)

=1.
AA

(2.79)

La ecuacion (2.67) llega a ser

58

CAPITULO 2. DETERMINANTES Y MATRICES.

Esta es una reformulacion de la condicion de ortogonalidad y puede ser tomada como una
definicion de ortogonalidad. Multiplicando (2.79) por A1 por la derecha y usando la ecuacion
(2.77), tenemos
= A1 .
A

(2.80)

Este importante resultado que la inversa es igual a la transpuesta se mantiene solo para
matrices ortogonales y puede ser tomado como una reformulacion de la condicion de ortogonalidad.
Multiplicando la ecuacion (2.80) por A por la izquierda, obtenemos
=1,
AA

(2.81)

aji aki = jk ,

(2.82)

o
X
i

lo cual es otra forma mas de la condicion de ortogonalidad.


Resumiendo, la condicion de ortogonalidad puede ser enunciada de varias maneras equivalentes:
X
aij aik = jk
(2.83a)
i

aji aki = jk

(2.83b)

= AA
=1
AA
= A1 .
A

(2.83c)

(2.83d)

Cualquiera de estas relaciones es condicion necesaria y suficiente para que A sea ortogonal.
Es posible ahora ver y enteder por que el nombre ortogonal es apropiado para estas
matrices. Tenemos la forma general

a11 a12 a13


A = a21 a22 a23 ,
a31 a32 a33
de una matriz de cosenos directores en la cual aij es el coseno del angulo entre x0i y xj . Por lo
tanto, a11 , a12 , a13 son los cosenos directores de x01 relativo a x1 , x2 , x3 . Estos tres elementos
de A definen una unidad de longitud a lo largo de x01 , esto es, un vector unitario x01 ,
x01 = x1 a11 + x2 a12 + x3 a13 .
La relacion de ortogonalidad (ecuacion (2.82)) es simplemente una declaracion que los vectores
unitarios x01 , x02 , y x03 son mutuamente perpendiculares o ortogonales. Nuestra matriz de
transformacion ortogonal A transforma un sistema ortogonal en un segundo sistema ortogonal
de coordenadas por rotacion y/o reflexion.

2.3. MATRICES ORTOGONALES.

59

Angulos
de Euler.
Nuestra matriz de trasformacion A contiene nueve cosenos directores. Claramente, solo tres
de ellos son independientes, la ecuacion (2.67) proveen seis restricciones. De otra manera,
uno puede decir que necesita dos parametros ( y en coordenadas polares esfericas) para
fijar el eje de rotacion, mas uno adicional para describir la magnitud de la rotacion en torno a
ese eje. En la formulacion Lagrangiana de la mecanica es necesario describir A usando alg
un
conjunto de tres parametros independientes mas que los redundantes cosenos directores. La
eleccion usual de estos parametros es la de los angulos de Euler6

x 3= x3
x 3= x3
x
3

x
3 = x
3

x1
x1

x2

x 3= x3

x2

x1

x
1

(a)

x2

x=
2 x
2

x
1

(b)

x
2
x=
x
2
2
x
1

(c)

Figura 2.3: (a) Rotacion respecto al eje x3 en un angulo ; (b) Rotacion respecto a un eje x02
en un angulo ; (c) Rotacion respecto a un eje x003 en un angulo .
000
000
El objetivo de describir la orientacion de un sistema final rotado (x000
1 , x2 , x3 ) relativo a
algun sistema de coordenadas inicial (x1 , x2 , x3 ). El sistema final es desarrollado en tres pasos
cada paso involucra una rotacion descrita por un angulo de Euler (figura 2.3):

1. Los ejes x01 , x02 , y x03 son rotados respecto al eje x3 en un angulo en el sentido horario
relativo a x1 , x2 y x3 . (Los ejes x3 y x03 coinciden.)
2. los ejes x001 , x002 , y x003 son rotados respecto al eje x02 en un angulo en el sentido horario
relativo a x01 , x02 y x03 . (Los ejes x02 y x002 coinciden.)
3. la tercera y final rotacion es en un angulo en sentido horario respecto al eje x003 produ000
000
00
000
ciendo el sistema (x000
1 , x2 , x3 ). (Los ejes x3 y x3 coinciden.)
Las tres matrices que describen estas rotaciones son:

cos sen

Rz () = sen cos
0
0
6

0
0 ,
1

(2.84)

No hay una u
nica manera de definir los angulos de Euler. Usamos la elecci
on usual en Mec
anica Cu
antica
de momento angular.

60

CAPITULO 2. DETERMINANTES Y MATRICES.

exactamente como en la ecuacion (2.73,

cos 0 sen
1
0
Ry () = 0
sen 0 cos

(2.85)

cos sen 0
Rz () = sen cos 0 .
0
0
1

(2.86)

La rotacion total es descrita por el producto matricial triple,


A(, , ) = Rz ()Ry ()Rz () .

(2.87)

Notemos el orden: Rz () opera primero, entonces Ry (), y finalmente Rz (). La multiplicacion da

cos cos cos sen sen


cos cos sen sen cos cos sen
sen sen .
A = sen cos cos cos sen sen cos sen + cos cos
sen cos
sen sen
cos
(2.88)
Comparando A(aij ) con A(, , ) elemento por elemento, nos produce los cosenos directores
en terminos de los angulos de Euler.
Propiedades de simetra.
Nuestra descripcion matricial conduce al grupo de rotaciones SO(3) en el espacio tridimensional R3 , y la descripcion en terminos de angulos de Euler de las rotaciones forman una base
para desarrollar el grupo de rotaciones. Las rotaciones pueden tambien ser descritas por el
grupo unitario SU (2) en el espacio bidimensional C2 .
La matriz transpuesta es u
til en la discusion de las propiedades de simetra. Si
,
A=A

aij = aji ,

(2.89)

aij = aji ,

(2.90)

la matriz es llamada simetrica, mientras que si


,
A = A

es llamada antisimetrica. Los elementos de la diagonal son nulos. Es facil mostrar que
cualquier matriz cuadrada puede ser escrita como la suma de una matriz simetrica y una
antisimetrica. Consideremos la identidad
i
h
i
1h
+ 1 AA
.
A+A
(2.91)
A=
2
2
es claramente simetrica, mientras que A A
es claramente antisimetrica. Esta es la
A+A
analoga matricial a la ecuacion tensorial (1.68).

2.3. MATRICES ORTOGONALES.

61

r
y

r 1= A r

y
x

Figura 2.4: Vector fijo con coordenadas rotadas.

Hasta ahora hemos interpretado las matrices ortogonales como rotaciones del sistema de
coordenadas. Estas cambian las componentes de un vector fijo. Sin embargo, una matriz ortogonal A puede ser interpretada igualmente bien como una rotacion del vector en la direccion
opuesta (figura 2.4).
Estas dos posibilidades, (1) rotar el vector manteniendo la base fija y (2) rotar la base
(en el sentido opuesto) manteniendo el vector fijo.
Supongamos que interpretamos la matriz A como rotar un vector ~r en una nueva posicion
~r1 , i.e., en un particular sistema de coordenadas tenemos la relacion
~r1 = A~r .

(2.92)

Ahora rotemos las coordenadas aplicando una matriz B, la cual rota (x, y, z) en (x0 , y 0 , z 0 ),
~r 01 = B~r1 = BA~r = (A~r)0
= BA(B1 B)~r
= (BAB1 )B~r = (BAB1 )~r 0 .

(2.93)

B~r1 es justo ~r1 0 en el nuevo sistema de coordenadas con una interpretacion similar se mantine
para B~r. Ya que en este nuevo sistema (B~r) es rotado a la posicion (B~r1 ) por la matriz BAB1 .
B~r1 = (BAB1 ) B~r

0
0
~r 1 = A
~r 0 .
En el nuevo sistema las coordenadas han sido rotadas por la matriz B, A tiene la forma A0 ,
en la cual
A0 = BAB1 .
A0 opera en el espacio x0 , y 0 , z 0 como A opera en el espacio x, y, z.

(2.94)

CAPITULO 2. DETERMINANTES Y MATRICES.

62

La transformacion definida por la ecuacion (2.94) con B cualquier matriz, no necesariamente ortogonal, es conocida como trasformacion de similaridad. Por componentes la
ecuacion (2.94) llega a ser
X
a0ij =
bik akl (B1 )lj .
(2.95)
k,l

Ahora si B es ortogonal,
lj = bjl ,
(B1 )lj = (B)

(2.96)

y tenemos
a0ij =

bik bjl akl .

(2.97)

k,l

La matriz A es la representacion de un mapeo lineal en un sistema de coordenadas dado


o base. Pero hay direcciones asociadas con A, ejes cristalinos, ejes de simetra en un solido
rotando y etc. tal que la representacion depende de la base. La transformacion de similaridad
muestran justo como la representacion cambia con un cambio de base.

2.4

Matrices Hermticas, matrices unitarias.

Definiciones.
Hasta aqu hemos generalmente supuesto que nuestro espacio vectorial es un espacio real y
que los elementos de las matrices (la representacion de los operadores lineales) son reales.
Para muchos calculos en Fsica Clasica los elementos de matriz reales seran suficientes. Sin
embargo, en Mecanica Cuantica las variables complejas son inevitables por la forma de las
reglas de conmutacion basicas (o la ecuacion tiempo dependiente de Schodinger). Con esto
en mente, generalizamos al caso de matrices con elementos complejos. Para manejar estos
elementos, definamos algunas propiedades.
1. Compleja conjugada, A ,
formada por tomar los complejos conjugados (i i) de
cada elemento, donde i = 1.
2. Adjunta, A , formada por transponer A ,

f = A
.
A = A

(2.98)

3. Matriz hermtica: La matriz es etiquetada como hermtica (o autoadjunta) si


A = A .

(2.99)

y las matrices hermticas reales son matrices reales y


Si A es real, entonces A = A,
simetricas. En Mecanica Cuantica las matrices son hermticas o unitarias.

2.4. MATRICES HERMITICAS, MATRICES UNITARIAS.

63

4. Matriz unitaria: La matriz U es etiquetada como unitaria si


U = U1 .

(2.100)

tal que las matrices reales unitarias son matrices


Si U es real, entonces U1 = U,
ortogonales. Este representa una generalizacion del concepto de matriz ortogonal.
5. (AB) = B A , (AB) = B A .
Si los elementos son complejos, a la Fsica casi siempre le interesan las matrices adjuntas,
hermticas y unitarias. Las matrices unitarias son especialmente importantes en Mecanica
Cuantica porque ellos dejan el largo de un vector (complejo) inalterado, analoga a la operacion
de una matriz ortogonal sobre un vector real. Una importante excepcion a este interes en las
matrices unitarias es el grupo de matrices de Lorentz.
En un espacio n-dimensional complejo el cuadrado del largo de P
un punto xP
= (x1 , x2 , . . . , xn ),
o el cuadrado de su distancia al origen, es definido como x x = i xi xi = i | xi |2 . Si una
trasformacion de coordenadas y = Ux deja la distancia inalterada, entonces x x = y y =
(Ux) Ux = x U Ux. Ya que x es arbitrario concluimos que U U = 1n , i.e., U es una matriz
unitaria de n n. Si x0 = Ax es un mapa lineal, entonces su matriz en las nuevas coordenadas
llega a ser una transformacion unitaria (analogo de una de similaridad)
A0 = UAU ,
porque Ux0 = y 0 = UAx = UAU1 y = UAU y.
Matrices de Pauli y de Dirac.
El conjunto de tres matrices de Pauli de 2 2 ,




0 1
0 i
1 =
, 2 =
,
1 0
i 0

3 =


1 0
,
0 1

fueron introducidas por W. Pauli para describir una partcula de spin


no relativista. Se puede demostrar que las satisfacen
i j + j i = 2ij 12 ,
i j = ik ,
(i )2 = 12 ,

1
2

(2.101)

en Mecanica Cuantica

anticonmutacion
permutacion cclica de los ndices

(2.102)
(2.103)
(2.104)

donde 12 es la matriz unidad de 2 2. As, el vector ~ /2 satisface las mismas reglas de


conmutacion
[i , j ] i j j i = 2iijk k ,

(2.105)

~
que el momento angular L.
Las tres matrices de Pauli ~ y la matriz unitaria forman un conjunto completo tal que
cualquier matriz de 2 2 M puede ser expandida como
M = m0 1 + m1 1 + m2 2 + m3 3 = m0 1 + m
~ ~ ,

(2.106)

CAPITULO 2. DETERMINANTES Y MATRICES.

64

donde los mi son constantes. Usando i2 = 1 y tr(i ) = 0 nosotros obtenemos a partir de la


ecuacion (2.106) los coeficientes mi de la expansion formando las trazas,
2m0 = tr(M) ,

2mi = tr(M i ) ,

i = 1, 2, 3 .

(2.107)

En 1927 P.A.M. Dirac extendio este formalismo para partculas de spin 12 moviendose a
velocidades cercana a la de la luz tales como electrones Para inclur la relatividad especial
su punto de partida es la ecuacion de Einstein para la energa E 2 = p~ 2 c2 + m2 c4 en vez de
la energa cinetica y potencial no relativista E = p~ 2 /2m + V . La clave para la ecuacion de
Dirac es factorizar
E 2 p~ 2 c2 = E 2 (c~ p~)2 = (E c~ p~)(E + c~ p~) = m2 c4 ,

(2.108)

usando la identidad matricial en 2 2


(c~ p~)2 = p~ 2 12 .

(2.109)

La matriz unidad de 2 2 12 no es escrita explcitamente en la ecuacion (2.108) y (2.109).


Podemos presentar las matrices 0 y para factorizar E 2 p~ 2 c2 directamente,
(0 E c~ p~)2 = 02 E 2 + 2 c2 (~ p~)2 Ec~ p~(0 + 0 ) = E 2 p~ 2 c2 = m2 c4 . (2.110)
Si reconocemos
0 E c~ p~ = p = (0 , ~ ) (E, c~p) ,

(2.111)

como el producto escalar de dos cuadrivectores y p , entonces la ecuacion (2.110) con


p2 = p p = E 2 p~ 2 c2 puede ser visto como una generalizacion cuadrivectorial de la ecuacion
(2.109). Claramente, para que la ecuacion (2.110) mantenega las condiciones
02 = 1 = 2 ,

0 + 0 = 0 ,

(2.112)

debe satisfacerse que las cuatro matrices anticonmuten, justo como las tres matrices de
Pauli. Ya que estas u
ltimas son un conjunto completo de matrices anticonmutantes de 2 2,
la condicion (2.112) no puede ser satisfacerse para matrices de 2 2, pero ella puede ser
satisfecha para matrices de 4 4

1 0 0
0


0 1 0

0
1
0
2
0

0 = =
0 0 1 0 = 0 12 ,
0 0 0 1

(2.113)
0
0 0 1


0
0 1 0
0 12

=
=
.
0 1 0 0
12 0
1 0 0 0
Alternativamente, el vector de matrices de 4 4


0 ~
=
= ~ = 1 ~ ,
~ 0

(2.114)

DE MATRICES.
2.5. DIAGONALIZACION

65

puede obtenerse como el producto directo en el mismo sentido de la seccion 2.2 de las matrices
de 2 2 de Pauli. De la misma manera, 0 = 3 12 y 14 = 12 12 .
Resumiendo el tratamiento no relativista de una partcula de spin 12 , produce matrices de
4 4, mientras que las partculas no relativistas de spin 21 son descritas por las matrices de
Pauli de 2 2.

2.5

Diagonalizaci
on de matrices.

Momento de la matriz de inercia .


En muchos problemas en Fsica que involucran matrices reales simetricas o complejas hermticas es deseable llevar a cabo una real transformacion de similaridad ortogonal o una
transformacion unitaria (correspondiente a una rotacion del sistema de coordenadas) para
reducir la matriz a una forma diagonal, con todos los elementos no diagonales nulos. Un
ejemplo particularmente directo de esto es la matriz del momento de inercia I de un cuerpo
~ tenemos
rgido. A partir de la difinicion del momento angular L
~ = I~ ,
L

(2.115)

donde
~ viene a ser la velocidad angular. La matriz de inercia I tiene elementos diagonales
Ixx =

mi (ri2 x2i ) , y as sucesivamante,

(2.116)

el subndice i referencia la masa mi localizada en ~ri = (xi , yi , zi ). Para las componentes no


diagonales tenemos
Ixy =

mi xi yi = Iyx .

(2.117)

Por inspeccion la matriz I es simetrica. Tambien, ya que I aparece en una ecuacion fsica de
la forma (2.115), la cual se mantiene para todas las orientaciones del sistema de coordenadas,
esta puede ser considerada un tensor (regla del cuociente).
La clave ahora es la orientacion de los ejes (a lo largo de un cuerpo fijo) tal que Ixy y
los otros elementos no diagonales desaparezcan. Como una consecuencia de esta orientacion
y una indicacion de ella, si la velocidad angular esta a lo largo de tales realineados ejes, la
velocidad angular y el momento angular seran paralelos.
Autovectores y autovalores (eigenvector y eigenvalues).
Es quizas instructivo considerar un cuadro geometrico asociado a este problema. Si la matriz
de inercia I es multiplicada a cada lado por un vector unitario cuya direccion es variable,
n
= (, , ), entonces en notacion de Dirac
h
n|I|
ni = I ,

(2.118)

CAPITULO 2. DETERMINANTES Y MATRICES.

66

donde I es el momento de inercia respecto a la direccion n


y es un n
umero positivo (escalar).
Llevando a cabo la multiplicacion, obtenemos
I = Ixx 2 + Iyy 2 + Izz 2 + 2Ixy + 2Ixz + 2Iyz .

(2.119)

~n = = (n1 , n2 , n3 ) ,
I

(2.120)

Si introducimos

la cual es variable en direccion y magnitud entonces la ecuacion (2.119) llega a ser


1 = Ixx n21 + Iyy n22 + Izz n23 + 2Ixy n1 n2 + 2Ixz n1 n3 + 2Iyz n2 n3 ,

(2.121)

una forma cuadratica positiva la cual debe ser un elipsoide (ver figura 2.5).
n3

n3

n1

n2
n1
n2

Figura 2.5: Elipsoide del momento de inercia.


A partir de la geometra analtica es sabido que los ejes de coordenadas pueden ser rotados
para coincidir con los ejes de nuestro elipsoide. En muchos casos elementales, espacialmente
cuando hay simetra, estos nuevos ejes, llamados ejes principales, pueden ser encontrados por
inspeccion. Ahora nosotros procederemos a desarrollar un metodo general de hallazgo de los
elementos diagonales y los ejes principales.
es la correspondiente matriz ortogonal real tal que ~n0 = R~n, o |n0 i = R|ni en
Si R1 = R
la notacion de Dirac, son las nuevas coordenadas, luego obtenemos usando hn0 |R = hn| en la
ecuacion (2.121)
0 i = I 0 n0 2 + I 0 n0 2 + I 0 n0 2 ,
hn|I|ni = hn0 |RIR|n
1 1
2 2
3 3

(2.122)

donde los Ii0 > 0 son los momentos de inercia principales. La matriz de inercia I0 en la ecuacion
(2.122) es diagonal en las nuevas coordenadas,
0

I1 0 0
= 0 I20 0 .
I0 = R1R
(2.123)
0 0 I30

DE MATRICES.
2.5. DIAGONALIZACION

67

Si reescribimos la ecuacion (2.123) usando R1 = R


0 = IR
,
RI

(2.124)

= (~v1 , ~v2 , ~v3 ) compuesto de tres vectores columnas, entonces la ecuacion (2.124)
y tomando R
se separa en tres ecuaciones de autovalores
I~vi = Ii0~vi ,

i = 1, 2, 3 ,

(2.125)

con autovalores Ii0 y autovectores ~vi . Como estas ecuaciones son lineales y homogeneas (para
un i fijo), por la seccion 2.1 los determinantes tienen que anularse:


I11 I10

I
I
12
13


0
I21
I22 I2
I23 = 0 .
(2.126)

0
I31
I32
I33 I3
Reemplazando los autovalores Ii0 por una variable veces la matriz unidad 1, podriamos
reescribir la ecuacion (2.125) como
(I 1)|vi = 0 ,

(2.127)

|I 1| = 0 ,

(2.128)

cuyo determinante

es un polinomio c
ubico en ; sus tres raices, por supuesto, son los Ii0 . Sustituyendo una raz
de regreso en la ecuacion (2.125), podemos encontrar los correspondientes autovectores. La
ecuacion (2.126) (o la (2.128)) es conocida como la ecuaci
on secular. El mismo tratamiento
se aplica a una matriz simetrica real I, excepto que sus autovalores no necesitan ser todos positivos. Tambien, la condicion de ortogonalidad en la ecuacion (2.83a-2.83d) para R dice que,
en terminos geometricos, los autovectores ~vi son vectores mutuamente ortogonales unitarios.
Por cierto ellos forman las nuevas coordenadas del sistema. El hecho que cualquier par de
autovectores ~vi , ~vj son ortogonales si Ii0 6= Ij0 se deduce de la ecuacion (2.125) en conjuncion
con la simetra de I multiplicando con ~vi y ~vj , respectivamente,
hvj |I|vi i = Ii0 hvj |vi i = hvi |I|vj i = Ij0 hvj |vi i .

(2.129)

Ya que Ii0 6= Ij0 y la ecuacion (2.129) implica que (Ii0 Ij0 ) ~vi ~vj = 0, por lo tanto ~vi ~vj = 0.
Matrices hermticas.
Para espacios vectoriales complejos las matrices unitarias y hermticas juegan el mismo rol
como las matrices ortogonales y simetricas sobre los espacios vectoriales reales, respectivamente. Primero, generalicemos el importante teorema acerca de los elementos diagonales y
los ejes principales para la ecuacion de autovalores
A|ri = |ri .

(2.130)

68

CAPITULO 2. DETERMINANTES Y MATRICES.

Ahora mostramos que si A es una matriz hermtica, sus autovalores son reales y sus
autovectores ortogonales.
Sean i y j dos autovalores y |ri i y |rj i, los correspondientes autovectores de A, una
matriz hermtica. Entonces
A|ri i = i |ri i
A|rj i = j |rj i .

(2.131)
(2.132)

La ecuacion (2.131) es multilicada por |rj i


hrj |A|ri i = i hrj |ri i .

(2.133)

La ecuacion (2.132) es multiplicada por |ri i para dar


hri |A|rj i = j hri |rj i .

(2.134)

Tomando la adjunta conjugada de esta ecuacion, tenemos


hrj |A |ri i = j hrj |ri i

(2.135)

hrj |A|ri i = j hrj |ri i ,

(2.136)

ya que A es hermtica. Sustrayendo la ecuacion (2.136) de la ecuacion (2.133), obtenemos


(i j )hrj |ri i .

(2.137)

Este es un resultado general para todas las combinaciones posibles de i y j. Primero, sea
j = i. Luego la ecuacion (2.137) se convierte en
(i i ) hri |ri i = 0 .

(2.138)

Ya que hri |ri i = 0 sera una solucion trivial de la ecuacion (2.138), concluimos que
i = i ,

(2.139)

(i j ) hri |rj i = 0

(2.140)

hri |rj i = 0

(2.141)

es decir, i es real, para todo i.


Segundo, para i 6= j y i 6= j ,

lo cual significa que los autovectores de distintos autovalores son ortogonales, la ecuacion
(2.141) siendo la generalizacion de ortogonalidad en este espacio complejo.
Si i = j (caso degenerado), hri | no es automaticamente ortogonal a |rj i, pero podra
hacerse ortogonal. Consideremos el problema fsico de la matriz del momento de inercia

DE MATRICES.
2.5. DIAGONALIZACION

69

nuevamente. Si xi es un eje de simetra rotacional, entonces encontraremos que 2 = 3 . Los


autovectores |r2 i y |r3 i son cada uno perpendiculares al eje de simetra, |r1 i, pero ellos yacen
en alguna parte en el plano perpendicular a |r1 i; esto es, alguna combinacion lineal de |r2 i y
|r3 i es tambien un autovector. Considere (a2 |r2 i + a3 |r3 i) con a2 y a3 constantes. Entonces
A(a2 |r2 i + a3 |r3 i) = a2 2 |r2 i + a3 3 |r3 i
= 2 (a2 |r2 i + a3 |r3 i) ,

(2.142)

como es esperado, para x1 un eje de simetra rotacional. Por lo tanto, si |r1 i y |r2 i son
fijos, |r3 i, puede simplemente escogerse yaciendo en el plano perpendicular a |r1 i y tambien
perpendicular a |r2 i. Un metodo general para ortogonalizar soluciones conocido como proceso
de Gram-Schmidt, es aplicado a funciones mas adelante.
El conjunto de n autovectores ortogonales de nuestra matriz hermtica de n n forma un
conjunto completo, generando el espacio de n dimensiones complejo. Este hecho es u
til en un
calculo variacional de los autovalores. Los autovalores y los autovectores no estan limitados a
las matrices hermticas. Todas las matrices tienen autovalores y autovectores. Por ejemplo,
la matriz T de poblacion estocastica satisface una ecuacion de autovalores
TP~equilibrio = P~equilibrio ,
con = 1. Sin embargo, solamente las matrices hermticas tienen todos los autovectores
ortogonales y todos sus autovalores reales.
Matrices antihermticas.
Ocasionalmente, en Mecanica Cuantica encontramos matrices antihermticas:
A = A .
Siguiendo el analisis de la primera porcion de esta seccion, podemos mostrar que
a. Los autovalores son imaginarios puros (o cero).
b. Los autovectores correspondientes a autovalores distintos son ortogonales.
La matriz R formada de los autovectores normalizados es unitaria. Esta propiedad antihermtica es preservada bajo transformaciones unitarias.
Ejemplo: Autovalores y autovectores de una
Sea

A= 1
0

matriz real simetrica.

1 0
0 0 .
0 0

(2.143)

La ecuacion secular es


1
0

1 0 = 0 ,


0
0

(2.144)

CAPITULO 2. DETERMINANTES Y MATRICES.

70
o

(2 1) = 0 ,

(2.145)

expandiendolo por las menores. Las raices son = 1, 0, 1. Para encontrar el autovector
correspondiente a = 1, sustituimos este valor de vuelta en la ecuacion de autovalores,
ecuacion (2.130),


1
0
x
0
1 0 y = 0 .
(2.146)
0
0
z
0
Con = 1, esto produce
x+y =0 ,

z=0.

(2.147)

Dentro de un factor de escala arbitrario, y un signo arbitrario (factor de fase), hr1 | = (1, 1, 0).
Notemos que (para el real |ri en el espacio ordinario) el autovector define una lnea en el
espacio. El sentido positivo o negativo no esta determinado. Esta indeterminacion puede
ser entendida si notamos que la ecuacion (2.130) es homogenea en |ri. Por conveniencia
requeriremos que los autovectores esten normalizados a la unidad, hr1 |r1 i = 1. Con esta
eleccion de signo


1
1
(2.148)
hr1 | = r~1 = , , 0 ,
2
2
esta fijo. Para = 0, la ecuacion (2.130) produce
y=0,

x=0,

(2.149)

hr2 | o ~r2 = (0, 0, 1) es un autovector aceptable. Finalmente, para = 1, tenemos


x + y = 0 ,

z=0,

(2.150)

o
hr3 | = r~3 =


1 1
, ,0 .
2 2

(2.151)

La ortogonalidad de ~r1 , ~r2 y ~r3 , correspondientes a los tres autovalores distintos, puede ser
facilmente verificada.
Ejemplo: Autovalores degenerados.
Consideremos

1 0 0
A = 0 0 1 .
0 1 0

(2.152)

DE MATRICES.
2.5. DIAGONALIZACION

71

La ecuacion secular es


1 0

0


0
1 = 0 ,

0
1

(1 )(2 1) = 0 ,

(2.153)

= 1, 1, 1 ,

(2.154)

un caso degenerado. Si = 1, la ecuacion de autovalores (2.130) produce


2x = 0 ,

y+z =0 .

(2.155)

Un autovector normalizado adecuado es


hr1 | = r~1 =

1
1
0, ,
2
2

(2.156)

para = 1, tenemos
y + z = 0 .

(2.157)

Cualquier autovector que satisface la ecuacion (2.157) es perpendicular a ~r1 . Tenemos infinito
n
umero de opciones. Tomemos una eleccion posible tomando


1 1
,
(2.158)
hr2 | = r~2 = 0, ,
2 2
la cual claramente satisface la ecuacion (2.157). Entonces ~r3 debe ser perpendicular a ~r1 y
puede ser escogido perpendicular a ~r2 por7
~r3 = ~r1 ~r2 = (1, 0, 0) .

(2.159)

Funciones de matrices.
Polinomios con uno o mas argumentos matriciales estan bien definidos y ocurren a menudo.
Series de potencias de una matriz tambien pueden estar definidas para dar la convergencia
de la serie para cada uno de los elementos de matriz. Por ejemplo, si A es cualquiera matriz
de n n entonces la serie de potencia
exp(A) =
sen(A) =

X
Ai

i=0

i!

(1)i

A2i+1
,
(2i + 1)!

(2.160b)

(1)i

A2i
,
(2i)!

(2.160c)

i=0

cos(A) =

X
i=0

(2.160a)

El uso del producto cruz es limitado a tres dimensiones.

CAPITULO 2. DETERMINANTES Y MATRICES.

72

son matrices de n n bien definidas. Para todas las matrices de Pauli k la identidad de
Euler para real y k =1, 2 o 3
exp(ik ) = 12 cos() + ik sen() ,

(2.161)

sale a partir de colectar las potencias pares e impares en series separadas usando k2 = 1.
Para las matrices de Dirac ij de 4 4 con ( ij )2 = 1, si j 6= k = 1, 2 o 3, obtenemos de
manera similar (sin escribir las obvias matrices 14 nunca mas)
exp(i jk ) = cos() + i jk sen() ,

(2.162)

exp(i 0k ) = cosh() + i 0k senh() ,

(2.163)

mientras

manteniendo real porque (i 0k )2 = 1 para k = 1, 2 o 3.


Para una matriz hermtica A hay una matriz unitaria U que la diagonaliza, es decir,
UAU = [a1 , a2 , . . . , an ]. Entonces la formula de la traza
det(exp(A)) = exp(tr(A))

(2.164)

Puede ser facilmente demostrado.


Otra importante relacion es la de f
ormula de Baker-Hausdorff
exp(iG)H exp(iG) = H + [iG, H] +

[iG, [iG, H]]


+
2!

(2.165)

lo cual resulta de multiplicar las serie de potencia para exp(iG) y recolectar los terminos de
la misma potencia en iG. Aqu definimos
[G, H] = GH HG
como el conmutador de G con H.

2.6

Matrices normales.

En la seccion 2.5 nos concentramos principalmente en matrices hermticas o reales simetricas


y en el proceso de encontrar autovalores y autovectores. En esta seccion generalizaremos a
matrices normales con matrices hermtica y unitario como casos especiales. Consideramos los
casos fsicamente importantes como el problema de los modos de vibraciones y el problema
numerico importante de matrices patologicas.
Una matriz normal es una matriz que conmuta con su adjunta,
[A, A ] = 0 .
Ejemplos obvios e importante son las matrices hermticas y unitarias. Mostraremos que
las matrices normales tienen autovectores (ver tabla 2.1)

2.6. MATRICES NORMALES.

73

Autovectores
Matriz
Autovalores
(para diferentes autovalores)
Hermtica
Real
Ortogonal
Antihermtica Imaginaria puro (o cero)
Ortogonal
Unitaria
Magnitud uno
Ortogonal
Normal
Si A tiene autovalor
Ortogonal
A tiene autovalor A y A tienen los mismos autovectores
Tabla 2.1:
I. Sea |xi un autovector de A con correspondiente autovalor . Entonces
A|xi = |xi

(2.166)

(A 1)|xi = 0 .

(2.167)

Por conveniencia la combinacion A1 la etiquetamos B. Tomando la adjunta de la ecuacion


(2.167), obtenemos
hx|(A 1) = 0 = hx|B .

(2.168)

Porque
[(A 1), (A 1) ] = [A, A ] = 0 ,
tenemos
[B, B ] = 0 .

(2.169)

La matriz B es tambien normal.


A partir de las ecuaciones (2.167) y (2.168) formamos
hx|B B|xi = 0 .

(2.170)

hx|BB |xi = 0 .

(2.171)

Usando (2.169)

Ahora la ecuacion (2.171) puede ser rescrita como


(B |xi) (B |xi) = 0 .

(2.172)

B |xi = (A 1)|xi = 0 .

(2.173)

Asi

CAPITULO 2. DETERMINANTES Y MATRICES.

74

Vemos que para matrices normales, A tiene los mismos autovectores que A pero los autovalores son los complejos conjugados.
II. Ahora, consideremos mas que uno autovector-autovalor, tenemos
A|xi i = i |xi i ,
A|xj i = j |xj i .

(2.174)
(2.175)

Multiplicando la ecuacion (2.175) por la izquierda por hxi | produce


hxi |A|xj i = j hxi |xj i .

(2.176)

Operando sobre el lado izquierdo de la ecuacion (2.176), obtenemos


hxi |A = (A |xi i) .

(2.177)

A partir de la ecuacion (2.173) sabemos que A tiene los mismos autovectores que A pero con
los complejos conjugados de los autovalores
(A |xi i) = (i |xi i) = i hxi | .

(2.178)

Sustituyendo en la ecuacion (2.176) tenemos


i hxi |xj i = j hxi |xj i

(2.179)

(i j )hxi |xj i = 0 .

(2.180)

Esta es la misma que la ecuacion (2.140).


Para i 6= j
hxi |xj i = 0 .
Los autovectores correspondientes a diferentes autovalores de una matriz normal son ortogonales. Esto significa que una matriz normal puede ser diagonalizada por una transformacion
unitaria. La matriz unitaria requerida puede ser construida a partir de los vectores ortonormales como se mostro en la seccion anterior.
El converso tambien es valido. Si A puede ser diagonalizada por una transformacion
unitaria, entonces A es normal.
Modos normales de vibraci
on.
Consideremos las vibraciones de un modelo clasico de la molecula de CO2 Esta es una ilustracion de la aplicacion de las tecnicas matriciales a un problema que no parte como un problema
de matrices. Tambien provee un ejemplo de autovalores y autovectores de una matriz real
asimetrica.
Ejemplo: Modos Normales.

2.6. MATRICES NORMALES.

75

k
M

k
M

x1

x2

x3

Figura 2.6: Vector fijo con coordenadas rotada.

Consideremos tres masas sobre el eje x unidas por resortes como muestra la figura 2.6.
Las fuerzas de los resortes se suponen lineales (para peque
nos desplazamientos, ley de Hooke)
y las masas se restringen a mantenerse sobre el eje x.
Usando una coordenada diferente para cada masa la segunda ley de Newton produce el
conjunto de ecuaciones
k
(x1 x2 )
M
k
k
(2.181)
x2 = (x2 x1 ) (x2 x3 )
M
m
k
x3 = (x3 x2 ) .
M
El sistema de masa esta vibrando. Buscamos las frecuencias comunes, tal que todas las
masas vibren en esta misma frecuencia. Estos son los modos normales. Sea
x1 =

xi = xi0 eit ,

i = 1, 2, 3.

Subtituyendo en la ecuacion (2.181), podemos escribir este conjunto como



k
x
x1
k
1


M
M


2k
k
k
= 2 x 2 ,
x


m
m
m


k
k
0

x3
x3
M M

(2.182)

dividiendo por el factor com


un eit . Tenemos una ecuacion matricial de autovalores con la
matriz asimetrica. La ecuacion secular es


k

k
2

0



M
M


k
2k
k

2
(2.183)
=0.


m
m
m



k
k

2
0

M
M

CAPITULO 2. DETERMINANTES Y MATRICES.

76
Esto conduce a

k
2
M



2k
k
2

=0
m
M

Los autovalores son


k
,
M

2 = 0 ,

k
2k
+
,
M
m

todas reales.
Los correspondientes autovectores son determinados sustituyendo los autovalores de regreso en la ecuacion (2.182) un autovalor a la vez. Para 2 = 0, ecuacion (2.182) produce
x1 x2 = 0
x1 + 2x2 x3 = 0
x2 + x3 = 0 .
Entonces, tenemos
x1 = x2 = x3 .
Esto describe una translacion pura sin movimiento relativo de las masas y sin vibracion.
k
, la ecuacion (2.182) produce
Para 2 =
M
x1 = x3 ,

x2 = 0 .

(2.184)

Las masas exteriores se mueven en direcciones opuestas. El masa del centro esta estacionaria.
k
2k
Para 2 =
+ , las componentes de los autovectores son
M
M
x1 = x3 ,

x2 =

2M
x1 .
m

Las dos masas exteriores se estan moviendo juntas. La masa del centro se esta moviendo
opuesta a las otras dos. El momentum neto es cero.
Cualquier desplazamiento de estas tres masas a lo largo del eje x puede ser descrito como
una combinacion lineal de estos tres tipos de movimiento: translacion mas dos formas de
vibracion.
Sistemas con condiciones patol
ogicas.
Un sistema lineal de ecuaciones puede ser escrito como
A|xi = |yi o A1 |yi = |xi ,

(2.185)

con A y |yi conocido y |xi desconocido. Podemos encontrar ejemplos en los cuales un peque
no
error en |yi resulta en un gran error en |xi. En este caso la matriz A es llamada de condicion

2.6. MATRICES NORMALES.

77

patologica. Si |xi es el error en |xi y |yi es el error en |yi, entonces los errores relativos
pueden ser escritos como
1/2

1/2

hy|yi
hx|xi
K(A)
.
(2.186)
hx|xi
hy|yi
Aqu K(A), una propiedad de la matriz A, es etiquetado la condici
on de n
umero. Para A
hermtica una forma de la condicion de n
umero es dada por
K(A) =

| |max
.
| |min

(2.187)

Una forma aproximada debido a Turing es


K(A) = n[Aij ]max [A1
ij ]max ,

(2.188)

en la cual n es el orden de la matriz y [Aij ]max es el maximo elemento en A.


Ejemplo: Una matriz patologica.
Un ejemplo com
un de una matriz con condicion patologica es la matriz de Hilbert, la
matriz de Hilbert de orden 4 es Hij = (i + j 1)1 ,

1 1 1
1

2 3 4

1 1 1 1

H4 = 2 3 4 5 .
(2.189)
1 1 1 1

3 4 5 6
1 1 1 1
4 5 6 7
Los elementos de la matriz inversa (orden n) son dados por
(H1
n )ij =

(1)i+j
(n + i 1)!(n + j 1)!

.
i + j 1 [(i 1)!(j 1)!]2 (n i)!(n j)!

(2.190)

Para n = 4
H1
4

16 120
240 140
120
1200 2700
1680
.
=
240 2700
6480 4200
140
1680 4200
2800

(2.191)

A partir de la ecuacion (2.188) la estimacion de Turing de la condicion de n


umero para H4
llega a ser
KTuring = 4 1 6480
2.59 104 .
Esto es una advertencia de que un error en la entrada puede ser multiplicado por 26000
en el calculo del resultado de salida. Esto sentencia que H4 tiene condicion patologica. Si
usted encuentra un sistema altamente patologico tiene un par de alternativas (ademas de
abandonar el problema).

78

CAPITULO 2. DETERMINANTES Y MATRICES.

a. Tratar un ataque matematico diferente.


b. Hacer arreglos para llevar mas cifras significativas y a costa de fuerza bruta empujar de
principio a fin.

Captulo 3
Teora de grupo.
versi
on final 1.2-0905021

Disciplined judgment about what is neat


and simmetrical and elegant has time and
time again proved an excellent guide to
how nature work.
Murray Gell-Mann

3.1

Introducci
on.

En mecanica clasica la simetra de un sistema fsico conduce a una ley de conservaci


on. La
conservacion del momentum angular es una consecuencia directa de la simetra rotacional, lo
cual significa invariancia bajo rotaciones espaciales. A principios del siglo pasado, Wigner y
otros comprendieron que la invariancia era el concepto clave en el entendimiento de los nuevos
fenomenos y en el desarrollo de teoras apropiadas. As, en mecanica cuantica los conceptos de
momento angular y spin han llegado a ser a
un mas centrales. Sus generalizaciones, el isospin
en fsica nuclear y la simetra de sabor en fsica de partculas, son herramientas indispensables
en la construccion teorica y en sus soluciones. Las generalizaciones del concepto de invariacia
de gauge de la electrodinamica clasica para la simetra del isospin conduce a la teora de
gauge electrodebil.
En cada caso el conjunto de estas operaciones de simetra forman un grupo. La teora de
grupo es la herramienta matematica para tratar las invariancias y las simetras. Ella trae
consigo unificacion y formalizacion de principios tales como reflexion espacial, o paridad,
momento angular, y geometra que son ampliamente usados por los fsicos.
En geometra el rol fundamental de la teora de grupo fue reconocido hace mucho tiempo
por los matematicos. En geometra euclideana la distancia entre dos puntos, el producto
escalar de dos vectores o metrica, no cambia bajo rotaciones o translaciones. Estas simetras
son caractersticas de esta geometra. En relatividad especial la metrica, o producto escalar
de cuadrivectores, difiere del de la geometra euclideana en que ya no es mas positivo definido
y es invariante ante transformaciones de Lorentz.
1

Este captulo est


a basado en el cuarto captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.

79

CAPITULO 3. TEORIA DE GRUPO.

80

Para un cristal el grupo de simetra contiene solo un n


umero finito de rotaciones en valores
discretos del angulo y reflexiones. La teora de tales grupos discretos o finitos, desarrollada
inicialmente como una rama de las matematicas pura, ahora es una u
til herramienta para
el desarrollo de la cristalografa y la fsica de la materia condensada. Haremos una breve
introduccion a ellos. Cuando las rotaciones dependen de un angulo continuo el grupo de
rotaciones tiene un n
umero infinito de elementos. Estudiaremos tales grupos continuos o de
Lie.
Definici
on de grupo.
Un grupo G puede ser definido como un conjunto de objetos u operaciones, llamados los
elementos de G, que pueden ser combinados o multiplicados para formar un producto bien
definido en G el cual satisface las siguientes cuatro condiciones.
1. Si a y b son cualquier par de elementos de G, entonces el producto ab es tambien elemento
de G; o (a, b) ab mapea G G sobre G.
2. Esta multiplicacion es asociativa, (ab)c = a(bc).
3. Hay un elemento unidad o neutro I en G tal que Ia = aI = a para cada elemento a de
G.2
4. Debe haber un inverso o reciproco de cada elemento a de G, etiquetado a1 , tal que
aa1 = a1 a = I.
Un ejemplo para un grupo es el conjunto de rotaciones de coordenadas en el sentido del
puntero del reloj,


cos sen
R() =
(3.1)
sen cos
en un angulo del sistema de coordenadas xy a una nueva orientacion. El producto de dos
rotaciones R(1 )R(2 ) es definida como una rotacion primero en un angulo 2 y entonces
en un angulo 1 . De acuerdo a la ecuacion (2.29), esto corresponde al producto de las dos
matrices ortogonales de 2 2


 

cos 1 sen 1
cos 2 sen 2
cos(1 + 2 ) sen(1 + 2 )
=
, (3.2)
sen 1 cos 1
sen 2 cos 2
sen(1 + 2 ) cos(1 + 2 )
usando las formulas de adicion de funciones trigonometricas. El producto es claramente una
rotacion representada por una matriz ortogonal con un angulo 1 + 2 . El producto es la
multiplicacion asociativa de matrices. Es conmutativo o abeliano porque el orden en el cual
esta rotaciones son realizadas no importa. El inverso de la rotacion con angulo es una
con angulo . La unidad o neutro corresponde al angulo = 0. El nombre del grupo
es SO(2), si el angulo vara continuamente desde 0 a 2. Claramente, SO(2) tiene infinitos
elementos. La unidad con angulo = 0 y la rotacion con = forman un subgrupo finito.
2

Tambien etiquetan al elemento unidad como E.


3.1. INTRODUCCION.

81

Un subgrupo G0 de un grupo G consiste de elementos de G tal que el producto de cualquiera


de sus elementos esta de nuevo en el subgrupo G0 , i.e., G0 es cerrado bajo la multiplicacion de
G. Si gg 0 g 1 es un elemento de G0 para cualquier g de G y g 0 de G0 , entonces G0 es llamado
un subgrupo invariante de G.
Las matrices ortogonales nn forman el grupo O(n), y tambien SO(n) si sus determinantes
i = O1 para i = 1 y 2, entonces el producto
son +1 (S por eSpecial). Si O
i
1
1 1

]
O
1 O2 = O2 O1 = O1 O2 = (O1 O2 )

es tambien una matriz ortogonal en SO(n). La inversa es la matriz (ortogonal) transpuesta.


La unidad del grupo es 1n . Una matriz real ortogonal de n n tiene n(n 1)/2 parametros
independientes. Para n = 2 hay solo un parametro: un angulo en la ecuacion (3.1). Para
n = 3, hay tres parametros independientes: los tres angulos de Euler de la seccion 2.3.
De la misma manera, las matrices unitarias de n n forman el grupo U(n), y tambien
SU(n) si sus determinantes son +1. Si Ui = U1
i , entonces
1
1
(U1 U2 ) = U2 U1 = U1
,
2 U1 = (U1 U2 )

tal que el producto es unitario y un elemento de SU(n). Cada matriz unitaria tiene una
inversa la cual es tambien unitaria.
Homomorfismo, isomorfismo.
Puede haber una correspondencia entre los elementos de dos grupos (o entre dos representaciones), uno a uno, dos a uno, o muchos a uno. Si esta correspondencia preserva la multiplicacion del grupo, diremos que los dos grupos son homom
orficos. Una de las mas importantes
correspondencias homomorficas entre el grupo de rotaciones SO(3) y el grupo de matrices
unitarias SU(2) sera desarrollado en la proxima seccion. Si la correspondencia es uno a uno,
y a
un preserva la multiplicacion del grupo,3 entonces los grupos son isom
orficos. Un ejemplo
es las rotaciones de coordenadas a traves de un angulo finito en el sentido horario respecto
al eje z en el espacio tridimensional descrito por

cos sen 0
(3.3)
Rz () = sen cos 0 .
0
0
1
El grupo de rotaciones Rz es isomorfico al grupo de rotaciones en la ecuacion (3.1).
Representaciones matriciales, reducibles e irreducibles.
La representacion de los elementos de un grupo por matrices es una tecnica muy poderosa y ha
sido casi universalmente adoptada por los fsicos. El uso de matrices no impone restricciones
significativas. Puede mostrarse que los elementos de cualquier grupo finito y de grupos
3

Supongamos que los elementos del primer grupo son etiquetados por gi y los elementos del segundo
grupo por hi . Entonces gi hi en una correspondencia uno a uno para todos los valores de i. Si gi gj = gk
y hi hj = hk , entonces gk y hk deben ser los elementos correspondientes del grupo.

CAPITULO 3. TEORIA DE GRUPO.

82

continuos pueden ser representados por matrices. Ejemplos son las rotaciones descritas en la
ecuacion (3.1) y (3.3).
Para ilustrar como las representaciones matriciales surgen a partir de una simetra, consideremos la ecuacion estacionaria de Schrodinger (o alg
un otra ecuacion de autovalores tal
como I vi = Ii vi para los momentos principales de inercia de un cuerpo rgido en mecanica
clasica)
H = E .

(3.4)

Supongamos que la ecuacion (3.4) se mantiene invariante bajo la accion de un grupo G de


transformaciones R en G (rotaciones de coordenadas, por ejemplo, para un potencial central
V (r) en el Hamiltoniano H), i.e.,
HR = RHR1 = H .

(3.5)

Ahora tomamos una solucion de la ecuacion (3.4) y la rotamos: R. Entonces


R tiene la misma energa E porque multiplicando la ecuacion (3.4) por R y usando (3.5)
produce
RH = E(R) = (RHR1 )R = H(R) .

(3.6)

En otras palabras, todas las soluciones rotadas R son degeneradas en energa o forman lo
que los fsicos llaman un multiplete. Supongamos que este espacio vectorial V de soluciones
transformadas tiene una dimension finita n. Sean 1 , 2 , . . . , n una base. Ya que Rj es un
miembro del multiplete, podemos expandirlo en terminos de esta base
X
Rj =
rjk k .
(3.7)
k

As, cada R en G puede ser asociado a una matriz (rjk ), y este mapeo R (rjk ) es llamada
una representacion de G. Si podemos tomar cualquier elemento de V y por rotaciones con
todos los elementos de R de G transforman en todos los otros elementos de V entonces la
representacion es irreducible. Si todos los elementos de V no son alcanzados, entonces V
se separa en una suma directa de dos o mas subespacion vectoriales, V = V1 + V2 + . . . , los
cuales son mapeados dentro de ellos mismos por rotacion de sus elementos. En este caso la
representacion es llamada reducible. Entonces podemos encontrar una base en V (i.e., hay
una matriz unitaria U) tal que

r1 0 . . .

U(rjk )U = 0 r2 . . .
(3.8)
.. .. . .
.
. .
para todos los R de G y todas las matrices (rjk ). Aqui r1 , r2 , . . . , son matrices de menor
dimensiones que (rjk ) que estan alineadas a lo largo de la diagonal y los 0 son matrices de ceros.
podemos decir que R ha sido descompuestas en r1 +r2 +. . . en paralelo con V = V1 V2 . . . .
Las representaciones irreducibles juegan un rol en teora de grupo que es aproximadamente
analogo a los vectores unitarios en el analisis vectorial. Ellas son las representaciones mas
simples, toda otra puede ser construida desde ellas.

3.2. GENERADORES DE GRUPOS CONTINUOS.

3.2

83

Generadores de grupos continuos.

Un caracterstica de los grupos continuos conocidos como grupos de Lie es que los parametros
de un producto de elementos son funciones analticas de los parametros de los factores. La
naturaleza analtica de las funciones nos permite desarrollar el concepto de generador y
reduce el estudio del grupo completo a un estudio de los elementos del grupo en la vecindad
del elemento identidad.
La idea esencial de Lie fue el estudio de elementos R en un grupo G que esten infinitesimalmente cercanos a la unidad de G. Consideremos el grupo SO(2) como un ejemplo simple.
Las matrices de rotacion de 2 2 en la ecuacion (3.1) puede ser escrita en forma exponencial
usando la identidad de Euler ecuacion (2.161) como


cos sen
R() =
= 12 cos + i2 sen = exp(i2 ) .
(3.9)
sen cos
A partir de la forma exponencial es obvio que la multiplicacion de estas matrices es equivalente
a la suma de los argumentos
R(2 )R(1 ) = exp(i2 2 ) exp(i2 1 ) = exp(i2 (1 + 2 )) = R(1 + 2 ) .
Por supuesto las rotaciones cercanas a 1 tienen un angulo peque
no 0.
Esto sugiere que busquemos una representacion exponencial
R = exp(iS) ,

0,

(3.10)

para elementos del grupos R G cercanos a la 1. Las transformaciones infinitesimales S son


llamadas los generadores de G. Ellos forman un espacio lineal cuya dimension es el orden
de G porque la multiplicacion de los elementos R del grupo se traduce en la suma de los
generadores S.
Si R no cambia el elemento de volumen, i.e., det(R) = 1, nosotros usamos la ecuacion
(2.164) para ver que
det(R) = exp(tr(ln R)) = exp(itr(S)) = 1
implica que los generadores son de traza nula,
tr(S) = 0 .

(3.11)

Este es el caso para el grupo de rotaciones SO(n) y el grupo unitario SU(n), como veremos
mas adelante.
Si R de G en la ecuacion (3.1) es unitario, entonces S = S es hermtica, lo cual tambien
es el caso para SO(n) y SU(n). Ya que hay un i extra en la ecuacion (3.10).
Expandamos los elementos del grupo
1
Ri = exp(ii Si ) = 1 + ii Si 2i S2i + . . . ,
2
1 2 2
R1
i = exp(ii Si ) = 1 ii Si i Si + . . . ,
2

(3.12)

CAPITULO 3. TEORIA DE GRUPO.

84
1

Rj

Ri
1

Ri

Rj
R ij
Figura 3.1: Ilustracion de la ecuacion (3.13).

a segundo orden en el peque


no parametro del grupo i porque los terminos lineales y varios
terminos cuadraticos se cancelan en el producto (figura 3.1)
1
R1
i Rj Ri Rj = 1 + i j [Sj , Si ] + . . . ,
X
= 1 + i j
ckji Sk + . . . ,

(3.13)

cuando las ecuaciones (3.12) son sustituidas dentro de la ecuacion (3.13). La u


ltima lnea
es debido a que el producto en la ecuacion (3.13) es nuevamente un elemento, Rij cercano
a la unidad en el grupo G. Por tanto su exponente debe ser una combinacion lineal de los
generadores Sk y sus parametros infinitesimales del grupo tienen que ser proporcionales al
producto i j . Comparando ambas lneas (3.13) encontramos la relacion de clausura de los
generadores del grupo de Lie G,
X
[Si , Sj ] =
ckij Sk
(3.14)
k

Los coeficientes ckij son las constantes de estructura del grupo G. Ya que el conmutador en la
ecuacion (3.14) es antisimetrico en i y en j, tambien lo son las constantes de estructura en
los ndices inferiores,
ckij = ckji .

(3.15)

Si el conmutador en la ecuacion (3.14) es tomado como la regla de multiplicaci


on de los
generadores, vemos que el espacio vectorial de los generadores llega a ser un algebra, el algebra
de Lie G del grupo G. Para SU(l + 1) el algebra de Lie es llamada Al , para SO(2l + 1) es Bl
y para SO(2l) es Dl , donde l = 1, 2, . . . es un entero positivo, esto sera llamado el rango de
grupo de Lie G o de su algebra G.
Finalmente, la identidad de Jacobi se satisface para los doblas conmutadores
[[Si , Sj ], Sk ] + [[Sj , Sk ], Si ] + [[Sk , Si ], Sj ] = 0 ,

(3.16)

3.2. GENERADORES DE GRUPOS CONTINUOS.

85

lo cual es facilmente verificable usando la definicion de conmutador. Cuando la ecuacion (3.14)


es substituida en (3.16) encontramos otra restriccion sobre las constantes de estructura,
X
m


m
m
cm
ij [Sm , Sk ] + cjk [Sm , Si ] + cki [Sm , Sj ] = 0 .

(3.17)

Usando de nuevo la ecuacion (3.14) en la ecuacion (3.17) implica que


X
mn


n
m n
m n
c
S
+
c
c
S
+
c
c
S
=0,
cm
n
n
n
ij mk
jk mi
ki mj

(3.18)

donde el factor com


un Sn (y la suma sobre n) pueden eliminarse por que los generadores son
linealmente independientes. Por tanto
X
m


n
m n
m n
cm
ij cmk + cjk cmi + cki cmj = 0 .

(3.19)

Las relaciones (3.14), (3.15) y (3.19) forman la base de las algebras de Lie desde la cual los
elementos finitos del grupo de Lie cerca de su unidad puede ser reconstrudo.
Volviendo a la ecuacion (3.5), el inverso de R es exactamente R1 = exp(iS). expandimos HR de acuerdo a la formula de Baker-Haudorff, ecuacion (2.17),
H = HR = exp(iS)H exp(iS) = H + i[S, H] 2

[S, [iS, H]]


+ .
2!

(3.20)

Al simplificar H de la ecuacion (3.20), dividiendo por y haciendo 0. Entonces la


ecuacion (3.20) implica que para cualquier rotacion cercana a 1 en G el conmutador
[S, H] = 0 .

(3.21)

Si S y H son matrices hermticas, la ecuacion (3.21) dice que S y H pueden ser simultaneamente diagonalizados. Si S y H son operadores diferenciales como el Hamiltoniano y el momento
angular orbital en mecanica cuantica, entoces la ecuacion (3.21) dice que S y H tienen autofunciones en com
un y que los autovalores degenerados de H pueden ser distinguidos por los
autovalores de los generadores S. Esta es con mucho la mas importante aplicacion de teora
de grupos a mecanica cuantica.
A continuacion, estudiaremos los grupos ortogonales y unitarios como ejemplos.
Grupos de rotaciones SO(2) y SO(3).
Para SO(2) definido por la ecuacion (3.1) hay solo un generador linealmente independiente,
2 y el orden de SO(2) es 1. Obtenemos 2 a partir de diferenciar la ecuacion (3.9) y evaluarla
en cero,





dR()
sen
cos
0 1
i
= i
= i
= 2 .
(3.22)
cos sen =0
1 0
d =0

CAPITULO 3. TEORIA DE GRUPO.

86

Para las rotaciones Rz () sobre el eje z descritas


dado por


0

dR()

= Sz = i
i
d =0
0

por la ecuacion (3.3), el generador es

i 0
0 0 ,
0 0

(3.23)

donde el factor extra i es insertado para hacer Sz hermtica. La rotacion Rz () en un angulo


infinitesimal puede ser escrita como
Rz () = 13 + iSz ,

(3.24)

Una expansion de Maclaurin-Taylor de Rz cerca de la unidad = 0 con terminos hasta


orden ()2 y los superiores son despreciados. Una rotacion finita puede ser compuesta por
sucesivas rotaciones infinitesimales
Rz (1 + 2 ) = (13 + i1 Sz )(13 + i2 Sz ) .

(3.25)

Sea = /N para N rotaciones, con N . Entonces,


h
iN
Rz () = lim 13 + i Sz = exp(iSz ) .
N
N

(3.26)

Esta forma identifica Sz como el generador del grupo Rz , un subgrupo abeliano de SO(3), el
grupo de rotaciones en tres dimensiones con determinante +1. Cada matriz de 3 3 Rz ()
es ortogonal, por lo tanto unitaria, y la tr(Sz ) = 0 de acuerdo con la ecuacion (3.11).
Por diferenciacion de las rotaciones de coordenadas

1
0
0
cos 0 sen
cos sen , Ry () = 0
1
0 ,
Rx () = 0
(3.27)
0 sen cos )
sen 0
cos
obtenemos los generadores

0 0 0
Sx = 0 0 i ,
0 i 0

0 0 i
Sy = 0 0 0 ,
i 0 0

(3.28)

de Rx y Ry , los subgrupos de rotaciones en torno a los ejes x e y respectivamente.


Rotaciones de funciones y momento angular orbital.
En la discusion precedente los elementos del grupos son matrices que rotan las coordenadas.
Cualquier sistema fsico que esta siendo descrito se mantiene fijo. Ahora mantengamos fijas
las coordenadas y rotemos una funcion (x, y, z) relativa a nuestras coordenadas fijas. Con
R para rotar las coordenadas,
~x 0 = R~x ,

(3.29)

3.2. GENERADORES DE GRUPOS CONTINUOS.

87

definimos R por
R(x, y, z) = 0 (x, y, z) (~x 0 ) .

(3.30)

En palabras, la matriz R opera sobre la funcion , creando una nueva funci


on 0 que es
0
0
numericamente igual a (~x ), donde ~x son las coordenadas rotadas por R. Si R rota las
coordenadas en el sentido horario, el efecto de la matriz R es rotar el modelo de la funcion
en el sentido horario.
Volviendo a las ecuaciones (3.3) y (3.28), consideremos una rotacion infinitesimal, .
Luego, usando Rz , ecuacion (3.3), obtenemos
Rz ()(x, y, z) = (x + y, y x, z) .

(3.31)

El lado derecho puede ser expandido como una serie de Taylor de primer orden en para
dar



Rz ()(x, y, z) = (x, y, z) x
y
+ O()2
y
x
(3.32)
= (1 iLz )(x, y, z) ,
la expresion diferencial en el parentesis de llave es iLz . Ya que una rotacion primero en y
luego en alrededor del eje z esta dado por
Rz ( + )(x, y, z) = Rz ()Rz ()(x, y, z) = (1 iLz )Rz ()(x, y, z) ,

(3.33)

tenemos (como una ecuacion de operadores)


Rz ( + ) Rz ()
= iLz Rz () .

(3.34)

El lado izquierdo es justo dRz ()/ (para 0). En esta forma la ecuacion (3.34) se
integra inmediatamente a
Rz () = exp(iLz ) .

(3.35)

Note cuidadosamente que Rz () rota funciones (en el sentido horario) relativa a las coorde~ La constante de
nadas fijadas y que Lz es la componente z del momento angular orbital L.
integracion esta fijada por la condicion de borde Rz (0) = 1.
Si reconocemos que los elementos de matriz

(3.36)
Lz = (x, y, z)Sz
y ,

z
claramente Lx , Ly , Lz satisface la misma relacion de conmutacion
[Li , Lj ] = iijk Lk
que Sx , Sy , Sz y tienen a la misma constantes de estructura iijk de SO(3).

(3.37)

CAPITULO 3. TEORIA DE GRUPO.

88
Homomorfismo SU(2)-SO(3).

El grupo unitario especial SU(2) de matrices unitarias de 2 2 con determinante +1 tiene las
tres matrices de Pauli i como generadores (mientras que las rotaciones del la ecuacion (3.3)
forman un subgrupo abeliano unidimensional). Por lo tanto SU(2) es de orden 3 y depende
de tres parametros continuos reales , y los cuales a menudo son llamados los parametros
de Caley-Klein. Sus elementos generales tienen la forma

 

ei cos ei sen
a b
U2 (, , ) =
=
.
(3.38)
ei sen ei cos
b a
Es facil chequear que el determinante det(U2 ) = 1 y que U2 U2 = 1 = U2 U2 se mantiene.
Para obtener los generadores diferenciamos



U2
1
0
i
=
= 3 ,
0 1
=0,=0



i U2
0
1
=
= 1 ,
(3.39)
1
0
sen =0



U2
0 i
=
= 2 .
i
i 0
=0,=0
Por supuesto, las matrices de Pauli son todas de traza nula y hermticas.
Con las matrices de Pauli como generadores de los elementos (U1 , U2 , U3 ) de SU(2) pueden
ser generados por
U1 = exp(ia1 1 /2) ,

U2 = exp(ia2 2 /2) ,

U3 = exp(ia3 3 /2) .

(3.40)

Los tres parametros ai son reales. El factor extra 1/2 esta presente en los exponentes ya que
si = i /2 satisface las mismas relaciones de conmutacion 4
[si , sj ] = iijk sk

(3.41)

como el momento angular en la ecuacion (3.37).


La ecuacion (3.3) da un operador de rotacion para rotar las coordenadas cartesianas en el
espacio tridimensional. Usando la matriz de momento angular s3 , tenemos el correspondiente
operador de rotacion en el espacio de dos dimensiones (complejo) Rz () = exp(i3 /2).
Para rotar una funcion de onda vectorial de dos componentes (spinor) o una partcula de
spin 1/2 relativa a coordenadas fijas, el operador de rotacion es Rz () = exp(i3 /2) de
acuerdo a la ecuacion (3.35).
Usando la ecuacion (3.40) la identidad de Euler, la ecuacion (2.161), obtenemos
a 
a 
j
j
Uj = cos
+ ij sen
.
2
2
4

Las constantes de estructuras (iijk ) conducen a las representaciones de SU(2) de dimensi


on 2J = 1
para generadores de dimensi
on 2j + 1, con J = 0, 1/2, 1, . . . . Los casos con J entero tambien conducen a las
representaciones de SO(3).

3.2. GENERADORES DE GRUPOS CONTINUOS.

89

Aqu el parametro aj aparece como un angulo, el coeficiente de una matriz tipo momento
angular en la ecuacion (3.26). Con esta identificacion de los exponenciales, la forma general
de la matriz SU(2) (para rotar funciones mas que las coordenadas) podra ser escrita como
U(, , ) = exp(i3 /2) exp(i2 /2) exp(i1 /2) .
Como vimos, los elementos de SU(2) describen rotaciones en un espacio complejo bidimensional que deja invariante a |z1 |2 + |z2 |2 . El determinante es +1. Hay tres parametros
independientes. Nuestro grupo ortogonal real SO(3) de determinante +1, claramente describe rotaciones comunes en el espacio tridimensional con la importante caracterstica de dejar
invariante a x2 + y 2 + z 2 . Tambien hay tres parametros independientes. Las interpretaciones
de rotacion y la igualdad de n
umeros de parametros sugiere la existencia de alguna clase de
correspondencia entre los grupos SU(2) y SO(3). Aqu desarrollamos esta correspondencia.

U
M

M
U

Figura 3.2: Ilustracion de M0 = UMU ecuacion (3.42).


La operacion SU(2) sobre una matriz esta dada por una transformacion unitaria, la ecuacion (3.5), con R = U y la figura (3.2)
M0 = UMU .

(3.42)

Tomando M como una matriz de 2 2, notemos que cualquier matriz de 2 2 puede ser
escrita como una combinacion lineal de la matriz unidad y las tres matrices de Pauli. Sea M
la matriz de traza cero,


z
x iy
M = x1 + y2 + z3 =
,
(3.43)
x + iy
z
la matriz unidad no entra. Ya que la traza es invariante bajo transformaciones unitarias, M0
debera tener la misma forma,


z0
x0 iy 0
0
0
0
M = x 1 + y 2 + z 3 =
.
(3.44)
x0 + iy 0
z 0
El determinante tambien es invariante bajo una transformacion unitaria. Por lo tanto
2

(x2 + y 2 + z 2 ) = (x0 + y 0 + z 0 ) ,

(3.45)

CAPITULO 3. TEORIA DE GRUPO.

90

o (x2 + y 2 + z 2 ) es invariante bajo esta operacion de SU(2), como con SO(3). SU(2) debe,
por lo tanto, describir una rotacion. Esto sugiere que SU(2) y SO(3) pueden ser isomorficos
o homomorficos.
Aproximemos el problema de que rotacion describe SU(2) considerando casos especiales.
Retomando la ecuacion (3.38) sea a = ei y b = 0, o
 i

e
0
.
(3.46)
Uz =
0 ei
En anticipacion de la ecuacion (3.50), esta U le esta dado un subndice z.
Realizando una transformacion unitaria sobre cada una de las tres matrices de Pauli,
tenemos
 i

  i

e
0
0 1
e
0

Uz 1 Uz =
0 ei
1 0
0 ei


(3.47)
0
e2i
= 2i
.
e
0
Reexpresamos este resultado en terminos de las matrices de Pauli para obtener
Uz x1 Uz = x cos 21 x sen 22 .

(3.48)

Similarmente,
Uz y2 Uz = y sen 21 y cos 22 ,
Uz z3 Uz = z3 .

(3.49)

A partir de esta expresion de doble angulo vemos que podramos comenzar con el angulo
medio: = /2. Entonces, de las ecuaciones (3.42)(3.44), (3.48) y (3.49),
x0 = x cos + y sen
y 0 = x sen + y cos
z0 = z .

(3.50)

La transformacion unitaria de 2 2 usando Uz (/2) es equivalente al operador de rotacion


R() de la ecuacion (3.3).
El establecimiento de la correspondencia de


cos /2 sen /2
Uy (/2) =
(3.51)
sen /2 cos /2
y Ry () y de
Ux (/2) =

cos /2 i sen /2
i sen /2 cos /2

(3.52)

y Rx () pueden calcularse como ejercicio. Podemos notar que Uk (/2) tiene la forma general
Uk (/2) = 1 cos /2 + ik sen /2 ,

(3.53)

3.2. GENERADORES DE GRUPOS CONTINUOS.

91

donde k = x, y, z.
La correspondencia
Uz


2

i/2

0
i/2

cos sen 0
sin cos 0 = Rz () ,
0
0
1

(3.54)

no es una simple correspondencia uno a uno. Especficamente, como en Rz recorre desde 0


a 2, el parametro Uz , /2, recorre desde 0 a . Encontramos que
Rz ( + 2) = Rz ()
 i/2

e
0
Uz (/2 + ) =
= Uz (/2) .
0
ei/2

(3.55)

Por lo tanto ambos Uz (/2) y Uz (/2 + ) = Uz (/2) corresponde a Rz (). La correspondencia es de 2 a 1, o SU(2) y SO(3) son homomorficos. Este establecimiento de la
correspondencia entre las representaciones de SU(2) y de aquella SO(3) significa que las representaciones conocidas de SU(2) automaticamente nos proporciona de las representaciones
de SO(3).
Combinando las rotaciones, encontramos que una transformacion unitaria usada
U(, , ) = Uz (/2)Uy (/2)Uz (/2) ,

(3.56)

corresponde a la rotacion general de Euler Rz ()Ry ()Rz (). Por multiplicacion directa,
 i/2

  i/2

e
0
cos /2 sen /2
e
0
U(, , ) =
sen /2 cos /2
0
ei/2
0
ei/2


(3.57)
ei(+)/2 cos /2 ei()/2 sen /2
.
=
ei()/2 sen /2 ei(+)/2 cos /2
Esta es nuestra forma general alternativa, la ecuacion (3.38), con
=

( + )
,
2

,
2

( )
.
2

(3.58)

De la ecuacion (3.57) podemos identificar los parametros de la ecuacion (3.38) como


a = ei(+)/2 cos /2
b = ei()/2 sen /2

(3.59)

SU(2) isospin y el octeto SU(3).


En el tratamiento de las partculas con interacciones fuertes de Fsica nuclear y de altas
energas que conducen al grupo de SU(2) de isospin y la simetra de sabor SU(3), podramos
mirar el momento angular y el grupo de rotacion SO(3) por una analoga. Supongamos
que tenemos un electron en un potencial atractivo esfericamente simetrico de alg
un n
ucleo
atomico. La funcion de onda para el electron puede ser caracterizada por tres n
umeros

CAPITULO 3. TEORIA DE GRUPO.

92

cuanticos n, l, m, que estan relacionados con los autovalores de los operadores conservados
H, L2 , Lz . La energa, 5 sin embargo, es 2l + 1 veces degenerada, dependiendo solamente de
n y l. La razon para esta degeneracion puede ser expresado de dos maneras equivalentes:
1. El potencial es simetricamente esferico, independiente de , .
2. El hamiltoniano de Schrodinger (~2 /2me )2 + V (r) es invariante bajo rotaciones
espaciales ordinarias SO(3).
Como una consecuencia de la simetra esferica del potencial V (r), el momento angular
~ es conservado. En la seccion 3.2 las componentes cartesianas de L
~ estan indentifiorbital L
cadas como los generadores del grupo de rotacion SO(3). En vez de representar Lx , Ly , Lz
por operadores, usaremos matrices. Las matrices Li son matrices (2l + 1) (2l + 1) con la
misma dimension del n
umero de estados degenerados. La dimension 2l + 1 esta identificada
con los estados degenerados 2l + 1.
~ hecho conocido como el
Esta degenerancion es removida por un campo magnetico B,
efecto Zeeman. Esta interaccion magnetica a
nade un termino al Hamiltoniano que no es
invariante bajo SO(3). Este es un termino quiebra la simetra.
En el caso de partculas con interaccion fuerte (protones, neutrones, etc.) no podemos
seguir la analoga directamente, ya que todava no entendemos completamente las interacciones nucleares. La fuerza fuerte esta descrita por la teora gauge de Yang-Mills basada sobre
la simetra de color SU(3) llamada cromodinamica cuantica o abreviada QCD. Sin embargo,
QCD es una teora no lineal y por lo tanto complicada a grandes distancias y baja energa
que permanece no resuelta. Por lo tanto, no conocemos el Hamiltoniano, en vez de esto,
volveremos a la analoga.
En los a
nos 1930, despues del descubrimiento del neutron, Heinsenberg propuso que las
fuerzas nucleares eran cargas independientes. Los neutrones difieren en masa de los protones
solamente en un 1.6%. Si esta peque
na diferencia es ignorada, el neutron y el proton podran
ser consideradas como dos estados de cargas (o isospin) de un doblete, llamado nucleon. El
isospin I tiene proyeccion en el eje z I3 = 1/2 para el proton y I3 = 1/2 para el neutron. El
isospin no tiene nada que ver con el spin (el momento angular intrnseco de una partcula) pero
las dos componentes del estado de isospin obedece las mismas relaciones matematicas que el
estado de spin 1/2. Para el nucleon, I = /2, son las matrices usuales
de

 Pauli y los estados
1
0
. Similarmente, los
de isospin (1/2) son autovectores de la matriz de Pauli 3 =
0 1
tres estados de carga del pion + , 0 , forman un triplete. El pion es la partcula mas
liviana con interaccion fuerte y es la mediadora de la fuerza nuclear a distancia, como el foton
es partcula que media la fuerza electromagnetica. La interaccion fuerte trata igualmente a
miembros de esa familia de partculas, o multipletes y conserva el isospin. La simetra es el
grupo isospin SU(2).
El octuplete mostrado en la tabla 3.1 llama la atencion 6 . Los n
umeros cuanticos conser2
vados que son analogos y generalizaciones de Lz y L de SO(3) son I3 e I 2 para el isospin, e
Y para hipercarga. Las partculas pueden ser agrupadas dentro de multipletes de carga o de
5
6

Para un potencial de Coulomb puro la energa depende s


olo de n.
Todas las masas est
an dadas en unidades de energa.

3.2. GENERADORES DE GRUPOS CONTINUOS.

Masa [MeV]

93

1321.32

-1

1
2

I3
12
+ 21

1314.9

0
+

1197.43
1192.55
1189.37

-1
0
+1

1115.63

939.566

1
p

938.272

Tabla 3.1: Bariones con spin

1
2

1
2

21
+ 12

y paridad par

isospin. Entonces la hipercarga puede ser tomada como dos veces el promedio de carga del
1
multiplete. Para el nucleon, i.e., el doblete neutronproton, Y = 2 (0 + 1) = 1. Los valores
2
de la hipercarga y los del isospin son listados en la tabla 3.1 para bariones como el nucleon y
sus compa
neros (aproximadamente degenerados). Ellos forman un octeto como lo muestra la
figura 3.3. En 1961 Gell-Mann, e independientemente Neeman, sugirieron que la interaccion
fuerte debe ser (aproximadamente) invariante bajo un grupo espacial tridimensional unitario,
SU(3), esto es, tienen simetra de sabor SU(3).
La eleccion de SU(3) estuvo basada primero sobre los dos n
umeros cuanticos conservados
e independientes H1 = I3 y H2 = Y (i.e., generados con [I3 , Y ] = 0), que llaman para un
grupo de rango 2. Segundo, el grupo ha tenido una representacion de ocho dimensiones para
tener en cuenta los cercanamente degenerados bariones y cuatro octetos similares para los
mesones. En un sentido SU(3) es la generalizacion mas simple del isospin SU(2). Tres de
sus generadores son matrices hermticas de 3 3 de traza nula que contienen las matrices de
Pauli de 2 2 para los isospin i en la esquina superior izquierda.

i
0
0 ,
i =
0 0 0

i = 1, 2, 3 .

(3.60)

De este modo, el grupo del isospin SU(2) es un subgrupo de SU(3) con I3 = 3 /2. Otros
cuatro generadores tienen los no diagonales 1 de 1 e i, i de 2 en todas las otras posibles

CAPITULO 3. TEORIA DE GRUPO.

94

Y
n

p
1

I3

Figura 3.3: Octeto barionico diagrama de peso para SU(3).

ubicaciones para formar las matrices

0 0

4 = 0 0
1 0

0 0

6 = 0 0
0 1

hermticas 3 3 de

1
0

0 ,
5 = 0
0
i

0
0

1 ,
7 = 0
0
0

traza nula.

0 i
0 0 ,
0 0

0 0
0 i .
i 0

(3.61)

El segundo generador diagonal tiene la matriz unidad bidimensional 12 en la esquina superior


izquierda, la cual la hace claramente independiente del subgrupo SU(2) isospin ya que su
traza no nula en el subespacio, y -2 en el lugar de la tercera diagonal la hace traza nula,

1 0
0
1
0 .
8 = 0 1
(3.62)
3 0 0 2
Generalmente hay 32 1 = 8 generadores para SU(3) el cual tiene orden 8. De los conmutadores de esos generadores pueden obtenerse facilmente las constantes de estructura de
SU(3).
Volviendo a la simetra de sabor SU(3) imaginemos que el Hamiltoniano para nuestro
octeto de bariones estan compuesto de tres partes
H = Hfuerte + Hmedio + Helectromagnetico .

(3.63)

La primera parte, Hfuerte , tiene la simetra SU(3) y conduce a la degenerancion ocho. La


introduccion del termino de quiebre de simetra, Hmedio , remueve parte de la degeneracion

3.2. GENERADORES DE GRUPOS CONTINUOS.

95

dando los cuatro multipletes del isospin ( , 0 ), ( , 0 , + ), , y N = (p, n) con diferentes


masas. Estos a
un son multipletes ya que Hmedio tiene la simetra del isospin SU(2). Finalmente, la presencia de fuerzas dependientes de la carga separan los multipletes de isospin y
remueve la u
tima degeneracion. Esta secuencia se muestra en la figura 3.4

masa

0
+

n
p

H fuerte

H fuerte + H medio

H fuerte + H medio+ H electromagntica

Figura 3.4: Separacion de masa barionica.

Aplicando teora de perturbacion de primer orden de Mecanica Cuantica, relaciones simples de masas de barionicas pueden ser calculadas. Quizas el suceso mas espectacular de este
modelo SU(3) ha sido su prediccion de nuevas partculas. En 1961 cuatro mesones K y tres
(todos pseudoescalares; spin 0, paridad impar) sugieren otro octeto, similar al del octeto
barionico. SU(3) predice un octavo meson , de masa 563 MeV. El meson con una masa
determinada experimentalmente de 548 MeV fue encontrado poco despues. Agrupamientos
de nueve de los bariones mas pesados (todos con spin 3/2, con paridad par) sugirio un multiplete de 10 miembros o un decaplete de SU(3). El decimo barion faltante fue predicho con
una masa cercana a 1680 MeV y una carga negativa. En 1964 cargada negativamente
con masa (167512) MeV fue descubierta.
La representacion de octeto no es la mas simple para SU(3). La representacion mas
simple son triangulares como se muestra en la figura 3.5 a partir de las cuales todas las otras
pueden ser generadas por acoplamiento del momento angular generalizado. La representacion
fundamental en la figura 3.5 (a) contiene los quark u (arriba) y d (abajo) y el s (extra
neza),
y figura 3.5 (b) los correspondientes antiquarks. Ya que los octetos de mesones pueden ser
obtenidos a partir de la representacion de quark como pares q q, 32 = 8 + 1, esto sugiere que
los mesones contienen quarks (y antiquarks) como sus constituyentes. El modelo de quarks
resultante dan una exitosa descripcion de la espectroscopa hadronica. La solucion de sus
problemas con el principio de exclusion de Pauli eventualmente conduce a la teora de gauge
de SU(3)-color de las interacciones fuertes llamada cromodinamica cuantica o QCD.

CAPITULO 3. TEORIA DE GRUPO.

96

(a)
d

(b)
1/3

Y
_
s

2/3

I3

I3
_
u

2 / 3

1 / 3

_
d

Figura 3.5: Separacion de masa barionica.

Para mantener la teora de grupo en su real perspectiva, podramos enfatizar que la


teora de grupo identifica y formaliza las simetras. Ella clasifica partculas (y algunas veces
predice). Pero a parte de decir que una parte del hamiltoniano tiene simetra SU(2) y otra
parte tiene simetra SU(3), la teora de grupo no dice nada a cerca de la interaccion de las
partculas. Recuerde que la afirmacion de que el potencial atomico es esfericamente simetrico
no nos dice nada a cerca de la dependencia radial del portencial o de su funcion de onda. En
contraste, en una teora de gauge la interaccion es mediada por bosones vectoriales (como
el foton media en la electrodinamica cuantica) y determinado u
nicamente por la derivada
covariante de gauge.

3.3

Momento angular orbital.

~ clasico = ~r p~ es mostrado en el captulo de vectores


El concepto clasico de momento angular L
para presentar el producto cruz. Siguiendo con la representacion usual de Schrodinger de la
~ El
Mecanica Cuantica, el momento lineal clasico p~ es reemplazado por el operador i.
7
operador de momento angular en la mecanica cuantica se convierte en
~ QM = i~r
~ .
L

(3.64)

Las componentes del momento angular satisfacen las relaciones de conmutacion


[Li , Lj ] = iijk Lk .

(3.65)

El ijk es el smbolo de Levi-Civita. Una suma sobre el ndice k es sobreentendida.


El operador diferencial correspondiente al cuadrado del momento angular
~2=L
~ L
~ = L2x + L2y + L2z ,
L
7

Por simplicidad, ~ = 1. Esto significa que el momento angular es medido en unidades de ~.

(3.66)

3.3. MOMENTO ANGULAR ORBITAL.

97

puede ser determinado a partir de


~ L
~ = (~r p~) (~r p~) ,
L

(3.67)

~ 2 es un escalar rotacional, [L
~ 2 , Li ] = 0, el
la cual puede verificarse como ejercicio. Ya que L
cual tambien puede ser verificado directamente.
La ecuacion (3.65) presenta las relaciones de conmutacion basicas de los componentes del
momento angular en Mecanica Cuantica. Por cierto, dentro del marco de la Mecanica Cuantica y la teora de grupo, estas relaciones de conmutacion definen un operador de momento
angular.
Acercamiento a los operadores de subida y bajada.
Comencemos con una aproximacion mas general, donde el momento angular J~ lo conside~ un spin /2, o un momento
ramos que puede representar un momento angular orbital L,
~
angular total L + /2, etc. Supongamos que
1. J es un operador hermtico cuyas componentes satisfacen las relaciones de conmutacion
[Ji , Jj ] = iijk Jk ,

[J~ 2 , Ji ] = 0 .

(3.68)

2. |M i es simultaneamente una autofuncion normalizada (o autovector) de Jz con autovalor M y una autofuncion de J~ 2 ,


J~ 2 |M i = |M i .

Jz |M i = M |M i ,

(3.69)

Mostraremos ahora que = J(J + 1). Este tratamiento ilustrara la generalidad y potencia
de las tecnicas de operadores particularmente el uso de operadores de subida y bajada.
Un operador de subida o bajada se defina como
J+ = Jx + iJy ,

J = Jx iJy .

(3.70)

En terminos de ese operador J~ 2 puede ser reeescrito como


1
J~ 2 = (J+ J + J J+ ) + Jz2 .
2

(3.71)

A partir de las relaciones de conmutacion, encontramos que


[Jz , J+ ] = +J+ ,

[Jz , J ] = J ,

[J+ , J ] = 2Jz .

(3.72)

Ya que J+ conmuta con J~ 2 , hagalo como ejercicio


J~ 2 (J+ |M i) = J+ (J~ 2 |M i) = (J+ |M i) .

(3.73)

Por lo tanto, J+ |M i todava es una autofuncion de J~ 2 con autovalores , y similarmente


para J |M i. Pero de la ecuacion (3.72)
Jz J+ = J+ (Jz + 1) ,

(3.74)

CAPITULO 3. TEORIA DE GRUPO.

98
o

Jz (J+ |M i) = J+ (Jz + 1)|M i = (M + 1)(J+ |M i) .

(3.75)

Por lo tanto, J+ |M i todava es una autofuncion de Jz con autovalores M + 1. J+ ha


elevado el autovalor en 1 y por eso es llamado operador de subida. Similarmente, J baja los
autovalores en 1 y a menudo es llamado operador de bajada.
Tomando los valores esperados y usando Jx = Jx , Jy = Jy ,
hM |J~ 2 Jz2 |M i = hM |Jx2 + Jy2 |M i = | Jx |M i |2 + | Jy |M i |2 ,
vemos que M 2 0, tal que M es ligado. Sea J el mas grande valor de M . Luego
J+ |Ji = 0, lo cual implica que J J+ |Ji = 0. Luego combinando las ecuaciones (3.71) y
(3.72) obtenemos
J~ 2 = J J+ + Jz (Jz + 1) ,

(3.76)

encontramos que a partir de la ecuacion (3.76)


0 = J J+ |M = Ji = (J~ 2 Jz2 Jz )|M = Ji = ( J 2 J)|M = Ji .
Por lo tanto
= J(J + 1) 0;

(3.77)

con un J no negativo. Ahora reetiquetaremos los estados |M i = |JM i. Similarmente, sea


J 0 el mas peque
no de los M . Entonces J |JJ 0 i = 0. A partir de
J~ 2 = J+ J Jz (Jz + 1) ,

(3.78)

2
0 = J+ J |JJ 0 i = (J~ 2 + Jz Jz2 )|JJ 0 i = ( + J 0 J 0 )|JJ 0 i .

(3.79)

vemos que

De manera que
= J(J + 1) = J 0 (J 0 1) = (J)(J 1) .
As J 0 = J, y M corre en pasos enteros desde J a +J,
J M +J .

(3.80)

Comenzando desde |JJi y aplicando J repetidas veces, alcanzaremos todos los otros estados
|JM i. De manera que |JM i forma una representacion irreductible; M vara y J esta fijo.
Entonces usando las ecuaciones (3.68), (3.76) y (3.78) obtenemos
J J+ |JM i = [J(J + 1) M (M + 1)]|JM i = (J M )(J + M + 1)|JM i ,
J+ J |JM i = [J(J + 1) M (M 1)]|JM i = (J + M )(J M + 1)|JM i .

(3.81)

3.3. MOMENTO ANGULAR ORBITAL.

99

Como J+ y J son hermticos conjugados,


J+ = J ,

J = J+ ,

(3.82)

los autovalores o valores esperados en la ecuacion (3.81) deberan ser positivos o cero.
Ya que J+ aumenta el autovalor de M a M + 1, reetiquetaremos la autofuncion resultante
|JM + 1i. La normalizacion esta dada por la ecuacion (3.81) como
p
(3.83)
J+ |JM i = (J M )(J + M + 1)|JM + 1i ,
tomando la raz cuadrada positiva y no introduciendo ning
un factor de fase. Por los mismos
argumentos
p
J |JM i = (J + M )(J M + 1)|JM 1i .
(3.84)
Finalmente, ya que M va desde J a +J en pasos unitarios, 2J debera ser un n
umero
entero. J es por lo tanto un entero o la mitad de un entero impar. Como hemos visto, el
momento angular orbital esta descrito con J entero. A partir de los spin de algunas partculas
fundamentales y de algunos n
ucleos, tenemos que J = 1/2, 3/2, 5/2, . . . Nuestro momento
angular esta cuantizado esencialmente como un resultado de relaciones de conmutaciones. En
coordenadas polares esfericas , las funciones h, |lmi = Ylm (, ) son armonicos esfericos.
Resumen de grupos y
algebras de Lie.
Las relaciones de conmutaciones generales, ecuacion (3.14) en la seccion 3.2, para un grupo
de Lie clasico [SO(n) y SU(n) en particular] pueden ser simplificadas para verse mas como la
ecuacion (3.72) para SO(3) y SU(2) en la seccion 3.3.
Primero escogemos generadores Hi que sean linealmente independientes y que conmuten
entre s, estos son generalizaciones de Jz de SO(3) y SU(2). Sea l el n
umero maximo de tales
Hi con
[Hi , Hk ] = 0 .

(3.85)

Entonces l es llamado el rango del grupo Lie G o de su algebra. El rango y la dimension u


orden de algunos grupos Lie son dados en la tabla 3.2. Todos los otros generadores E puede
mostrarse que son operadores de subida y bajada con respecto a todos los Hi , tal que
[Hi , E ] = i E .

(3.86)

El conjunto de los (1 , 2 , . . . , l ) son llamados los vectores raices.


Ya que los Hi conmutan entre s, ellos pueden ser diagonalizados simultaneamente. Ellos
nos dan un conjunto de autovalores m1 , m2 , . . . , ml . Al conjunto (m1 , m2 , . . . ..ml ) se les
llama vectores de peso de una representacion irreductible. Hay l operadores invariantes
Ci , llamados operadores de Casimir, los cuales conmutan con todos los generadores y son
generalizaciones de J 2 ,
[Ci , Hj ] = 0 ,

[Ci , E ] = 0 .

(3.87)

CAPITULO 3. TEORIA DE GRUPO.

100

Algebra
de Lie
Al
Bl
Dl
Grupo de Lie
SU(l+1) SO(2l+1) SO(2l)
rango
l
l
l
orden
l(l+2)
l(2l+1)
l(2l-1)
Tabla 3.2: Rango y orden de grupos rotacionales y unitarios.
El primero, C1 , es una funcion cuadratica de los generadores, los otros son mas complicados.
Ya que Ci conmuta con todos los Hj , ellos pueden ser diagonalizados simultaneamente con
los Hj . Sus autovalores c1 , c2 , . . . , cl caracterizan las representaciones irreductibles y permenecen constantes mientras los vectores de peso varan sobre una representacion irreductible
particular. Por lo tanto, la autofuncion general puede ser escrita como
|(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i ,

(3.88)

generalizando |JM i de SO(3) y SU(2). Sus ecuaciones de autovalores son


Hi |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i = mi |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i ,
Ci |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i = ci |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i .

(3.89a)
(3.89b)

Ahora podemos mostrar que E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i tiene los vector peso (m1 +
1 , m2 +2 , . . . , ml +l ) usando las relaciones de conmutacion, la ecuacion (3.86), en conjunto
con las ecuaciones (3.89a) y (3.89b),
Hi E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i = (E Hi + [Hi , E ])|(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i
= (mi + i )E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i .
(3.90)
Por lo tanto
E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i |(c1 , c2 , . . . , cl )m1 + 1 , m2 + 2 , . . . , ml + l i
estas son las generalizaciones de las ecuaciones (3.83) y (3.84) a partir de SO(3). Esos cambios
de autovalores por el operador E son llamados sus reglas de seleccion en mecanica cuantica.

3.4

Grupo homog
eneo de Lorentz.

En relatividad especial requerimos que nuestras leyes fsicas sean covariantes8 bajo
a. traslaciones en el tiempo y en el espacio,
b. rotaciones en el espacio real tridimensional, y
c. transformaciones de Lorentz.
8

Ser covariante significa que tienen la misma forma en diferentes sistemas de coordenadas tal que no hay
un sistema de referencia privilegiado.


3.4. GRUPO HOMOGENEO
DE LORENTZ.

101

El requerimiento para la covarianza bajo traslaciones esta basada en la homogeneidad del


espacio y el tiempo. Covarianza bajo rotaciones es una afirmacion de la isotropa del espacio.
El requerimiento de la covarianza de Lorentz viene de la relatividad especial. Todas estas
tres transformaciones en conjunto forman el grupo inhomogeneo de Lorentz o el grupo de
Poincare. Aqu exclumos las traslaciones. Las rotaciones espaciales y las transformaciones
de Lorentz forman un grupo, el grupo homogeneo ed Lorentz.
Primero generamos un subgrupo, las transformaciones de Lorentz en el cual la velocidad
relativa ~v esta a lo largo del eje x = x1 . El generador puede ser determinad considerando un
marco de referencia espacio-temporal moviendose con una velocidad relativa infinitesimal v.
Las relaciones son similares a aquellas para rotaciones en el espacio real, excepto que aqu el
angulo de rotacion es imaginario puro.
Las transformaciones de Lorentz son lineales no solo en el espacio de ccordenadas xi si
no que tambien en el tiempo t. Ellas se originan a partir de las ecuaciones de Maxwell
de la electrodinamica las cuales son invariantes bajo la transformaciones de Lorentz, como
veremos luego. Las transformaciones de Lorentz dejan invariante la forma cuadratica siguiente
c2 t2 x21 x22 x23 = x20 x21 x22 x23 donde x0 = ct. Vemos esto si encendemos una fuente
de luzpen
de coordenadas. En tiempo t la luz ha viajado una distancia
Pel2origen del 2sistema
2
2
ct =
xi , tal que c t x1 x22 x23 = 0. La relatividad especial requiere esto en todos
los sistemas (inercial) que se mueven con velocidad v c en cualquier direccion relativa
al sistema xi y que tengan el mismo origen a tiempo t = 0, se mantenga tambien que
c2 t0 2 x01 2 x02 2 x03 2 = 0. El espacio cuadridimensional con la metrica x20 x21 x22 x23 es
llamado espacio de Minkowski con el producto escalar de dos cuadrivectores definido como
a b = a0 b0 ~a ~b. Usando el tensor metrico

1 0
0
0
0 1 0
0

(g ) = (g ) =
(3.91)
0 0 1 0 ,
0 0
0 1
podemos subir y bajar ndices de un cuadrivector tal como de las coordenadas x = (x0 , ~x)
es decir x = g x = (x0 , ~x) y x g x = x20 ~x 2 , la convecion de suma de Einstein se
~ = /x y = (/x0 , )
~ tal que
dan por entendida. Para el gradiente = (/x0 , )
2
2
2
2
2
2
= /x0 es un escalar de Lorentz, al igual que la metrica x0 ~x .
Para v  c, en el lmite no relativista, las transformaciones de Lorentz deben ser transformaciones de Galileo. Por lo tanto, para derivar la forma de una transformacion de Lorentz
a lo largo del eje x1 , partimos con una transformacion Galileana para una velocidad relativa
infinitesimal v:
x01 = x1 vt = x1 x0 .

(3.92)

v
Como es usual = . Por simetra tambien podemos escribir
c
x00 = x0 ax1 ,

(3.93)

donde a es un parametro a fijar una vez que se imponga que x20 x21 deba ser invariante,
2

x00 x01 = x20 x21 .

(3.94)

CAPITULO 3. TEORIA DE GRUPO.

102

Recordemos que x = (x0 ; x1 , x2 , x3 ) es el prototipo de cuadrivector en el espacio de Minkowski.


As la ecuacion (3.94) es simplemente una afirmacion de la invariancia del cuadrado de la
magnitud del vector distancia bajo rotaciones en el espacio de Minkowski. Aqu es donde la
relatividad especial compromete nuestra trasnformacion. Elevando al cuadrado y restando
las ecuaciones (3.92) y (3.93) y descartando terminos del orden de 2 , encontramos a = 1.
Las ecuaciones (3.92) y (3.93) pueden ser combinadas como una ecuacion matricial
 0
 
x0
x
= (1 1 ) 0 ,
(3.95)
x01
x1
1 es la matriz de Pauli, y el parametro representa un cambio infinetesimal. Repetimos la
transformacion N veces para desarrollar una transformacion finita con el parametro velocidad
= N . entonces
 0 
 
1 N x0
x0
= 1
.
(3.96)
x01
x1
N
En el lmite N
lim

1 N
= exp(1 ) .
N

(3.97)

Interpretamos la exponencial como una serie de Maclaurin


exp(1 ) = 1 1 +

(1 )2 (1 )3

+ .
2!
3!

(3.98)

Notando que 2 = 1,
exp(1 ) = 1 cosh + 1 senh .
Por lo tanto nuestra transformacion de Lorentz finita es
 0 
 
x0
cosh senh
x0
=
.
0
x1
senh
cosh
x1

(3.99)

(3.100)

1 ha generado las representaciones de esta especial transformacion de Lorentz.


El cosh y el senh pueden ser identificados considerando el origen del sistema de coordenadas primas, x01 = 0, o x1 = vt. Sustituyendo en la ecuacion (3.100), tenemos
0 = x1 cosh x0 senh .

(3.101)

Con x1 = vt y x0 = ct.
tanh = =

v
.
c

v
excepto en el lmite v 0.
c
Usando 1 tanh2 = (cosh2 )1 ,

Note que la rapidez 6=

cosh = (1 2 )1/2 ,

senh = .

(3.102)

3.5. COVARIANZA DE LORENTZ DE LAS ECUACIONES DE MAXWELL.

103

El anterior caso especial en que la velocidad es paralela a uno de los ejes espaciales es
simple, pero ilustra la velocidad infinitesimal, la tecnica de la exponenciacion y el generador.
Ahora esta tecnica puede ser aplicada para derivar las transformaciones de Lorentz para una
velocidad relativa ~v no paralela a ning
un eje. Las matrices dadas por la ecuacion (3.100) para
el caso ~v = xvx forman un subgrupo. Las matrices en el caso general no lo hacen. El producto
de dos matrices de transformaciones de Lorentz, L(~v1 ) y L(~v2 ), producen una tercera matriz
de transformacion L(~v3 ), si las dos velocidades ~v1 y ~v2 son paralelas. La velocidad resultante
v3 esta relacionada con v1 y con v2 mediante la regla de adicion de velociades de Einstein. Si
~v1 y ~v2 no son paralelas, no existe entonces una relacion simple.

3.5

Covarianza de Lorentz de las Ecuaciones de Maxwell.

Si una ley fsica se mantiene para todas las orientaciones de nuestro (real) espacial sistema de
coordenadas (i.e. es invariante ante rotaciones), los terminos de la ecuacion deben ser covariantes bajo rotaciones. Esto significa que escribimos las leyes fsicas en la forma matematica
escalar=escalar, vector=vector, tensor de segundo rango=tensor de segundo rango, y as sucesivamente. Similarmente, si una ley fsica se mantiene para todos los sistemas inerciales,
los terminos de la ecuacion deben ser covariantes bajo transformaciones de Lorentz.
Usando el espacio de Minkowski (x = x1 , y = x2 , z = x3 , ct = x0 ) tenemos un espacio
cuadridimensional cartesiano con metrica g . Las transformaciones de Lorentz son lineales
en el espacio y en el tiempo en este espacio real de cuatro dimensiones.
Consideremos las ecuaciones de Maxwell
~
~ E
~ = B ,

t
~

D
~ H
~ =

+ ~v ,
t
~ D
~ =,

~ B
~ =0,

(3.103a)
(3.103b)
(3.103c)
(3.103d)

y las relaciones
~ = 0 E
~ ,
D

~ = 0 H
~ .
B

(3.104)

Todos los smbolos tienen sus significados usuales y hemos supuesto el vacio por simplicidad.
Supongamos que las ecuaciones de Maxwell se mantienen en todos los sistemas inerciales;
esto es , las ecuaciones de Maxwell son consistentes con la relatividad especial. (La covariancia de las ecuaciones de Maxwell bajo transformaciones de Lorentz fue realmente mostrada
por Lorentz y Poincare antes de que Einstein propusiera su teora de la relatividad especial). Nuestro objetivo inmediato es reescribir las ecuaciones de Maxwell como ecuaciones
tensoriales en el espacio de Minkowski. Esto hara la covariancia de Lorentz explcita.

CAPITULO 3. TEORIA DE GRUPO.

104

En terminos de los potenciales escalar y vectorial, podemos escribir


~ =
~ A
~,
B
~
~ .
~ = A
E
t

(3.105)

~ la divergencia de A
~ no esta definida. PoLa ecuacion anterior especifica el rotor de A;
demos, y por futuras conveniencias lo hacemos, imponer la siguiente relacion sobre el vector
potencial
~ A
~ + 0 0 = 0 .

(3.106)

Este es conocido como el gauge de Lorentz. Servira a nuestros propositos de desacoplar las
~ y para .
ecuaciones diferenciales para A
Ahora reescribimos las ecuaciones de Maxwell en terminos de los potenciales. A partir de
~ D
~ y (3.105)
la ecuacion (3.103c) para
~
~ A = ,
2 +
t
0

(3.107)

~ H
~ y (3.105) y la identidad vectorial para el
considerando que la ecuacion (3.103b) para
rotor del rotor produce
h
i
~
2A
~ + 1
~
~ A
~ 2 A
~ = ~v .
+
+

t2
t
0 0
0

(3.108)

Usando el gauge de Lorentz, la ecuacion (3.106), y la relacion 0 0 = 1/c2 , obtenemos




1 2 ~
2
2 2 A = 0 ~v ,
c t


(3.109)
1 2

2
2 2 = .
c t
0
Ahora el operador diferencial
2

1 2
= 2 = ,
c2 t2

es un Laplaciano cuadridimensional. Usualmente este operador es llamado el dAlembertiano


y denotado por 2 . Puede probarse que es un escalar.
Por conveniencia definimos
Ax
= c0 Ax ,
0 c
Ay
A2
= c0 Ay ,
0 c

A1

A3

Az
= c0 Az ,
0 c
0

A0 0 = A .

(3.110)

3.5. COVARIANZA DE LORENTZ DE LAS ECUACIONES DE MAXWELL.

105

Si ponemos ademas
vx
vy
vz
i1 ,
i2 ,
i3 , i0 = i0 ,
c
c
c
entonces la ecuacion (3.109) puede ser escrita de la forma
2 A = i .

(3.111)

(3.112)

La ecuacion anterior parece una ecuacion tensorial, pero eso no basta. Para probar que es una
ecuacion tensorial, partimos investigando las propiedades de transformacion de la corriente
generalizada i .
Ya que un elemento de carga de es una cantidad invariante, tenemos
de = dx1 dx2 dx3 ,

invariante.

(3.113)

Vimos que el elemento de volumen cuadridimensional es tambien un invariante, dx1 dx2 dx3 dx0 ,
comparando estos resultados vemos que la densidad de carga debe transformar de la misma manera que x0 . Ponemos = i0 con i0 establecida como la componente cero de un
cuadrivector. Las otras partes de la ecuacion (3.111) pueden ser expandidas como
vx
dx1
=
c
c dt
(3.114)
0 dx1
=i
.
dt
Ya que justo mostramos que i0 transforma como dx0 , esto significa que i1 transforma como
dx1 . Con resultados similares para i2 e i3 . tenemos que i transforma como dx , probando
de esta manera que i es un vector, un vector del espacio cuadridimensional de Minkowski.
La ecuacion (3.112), la cual deriva directamente de las ecuaciones de Maxwell, suponemos
que se mantiene en todos los sistemas cartesianos. Entonces, por la regla del cuociente A es
tambien un vector y (3.112) es una legitima ecuacion tensorial.
Ahora, devolviendonos, la ecuacion (3.105) puede ser escrita
i1 =

Aj A0
+
, j = 1, 2, 3,
x0
xj
1
Ak Aj
Bi =

, (i, j, k) = (1, 2, 3) ,
c
xj
xk
0 Ej =

(3.115)

y permuitaciones cclicas.
Definimos un nuevo tensor
A A =

A
A

F = F
x
x

(, = 0, 1, 2, 3)

un tensor antisimetrico de segundo rango, ya que A es un vector. Escribamoslo axplcitamente

0
Ex
Ey
Ez
0 Ex Ey Ez
Ex

0 cBz
cBy
0 cBz
cBy
, F = 0 Ex
.
F = 0
Ey
Ey
cBz
0 cBx
cBz
0 cBx
Ez cBy
cBx
0
Ez cBy
cBx
0
(3.116)

CAPITULO 3. TEORIA DE GRUPO.

106

~ yB
~ no son mas vectores sino que juntos
Notemos que en nuestro espacio de Minkowski E
forman un tensor de segundo rango. Con este tensor podemos escribir las dos ecuaciones de
Maxwell nohomogeneas (3.103b) y (3.103c) y combinandolas como una ecuacion tensorial
F
= i .
x

(3.117)

El lado izquierdo es una divergencia cuadridimensional de un tensor y por lo tanto un vector.


F
Esto es, por supuesto, equivalente a contraer un tensor de tercer rango
. Las ecuaciones
x
~ E
~ y la ecuacion (3.103d) para
~ B pueden ser expresadas en
de Maxwell (3.103a) para
forma tensorial
F23 F31 F12
+
+
=0,
x1
x2
x3

(3.118)

para (3.103d) y tres ecuaciones de la forma

F30 F02 F23

=0,
x2
x3 x0

(3.119)

para (3.103a). Una segunda ecuacion permutando 120 y una tercera permutando 130.
Ya que
F =

F
t ,
x

es un tensor de tercer rango, las ecuaciones (3.117) y (3.119) pueden ser expresadas por la
ecuacion tensorial
t + t + t = 0 .

(3.120)

En todos los casos anteriores los ndices , y se suponen diferentes.


~ y B.
~
Transformaciones de Lorentz de E
La construccion de las ecuaciones tensoriales (3.118) y (3.120) completan nuestro objetivo
inicial de reescribir las ecuaciones de Maxwell en forma tensorial. Ahora explotamos las
propiedades tensoriales de nuestros cuadrivectores y del tensor F .
Para las transformaciones de Lorentz que correspoonden a movimientos a lo largo del eje
z(x3 ) con velocidad v, los cosenos directores estan dados por
x00 = (x0 x3 )
x03 = (x3 x1 ) ,
donde
=

v
c

(3.121)

3.5. COVARIANZA DE LORENTZ DE LAS ECUACIONES DE MAXWELL.

107

y
= 1 2

1/2

(3.122)

Usando las propiedades de transformacion tensorial, podemos calcular los campos electrico y
magnetico en el sistema en movimiento en terminos de los valores en el marco de referencias
original. A partir de las ecuaciones (1.59), (3.116) y (3.121) obtenemos

1
v 
Ex0 = p
Ex 2 By ,
c
1 2

1
v 
(3.123)
Ey0 = p
Ey + 2 Bx ,
2
c
1
Ez0 = Ez ,

y
v 
Ey ,
c2
1 2

v 
1
0
By 2 Ex ,
By = p
c
1 2
0
Bz = Bz .

Bx0 = p

Bx +

(3.124)

~ y B
~ es esperado. Consideremos, por ejemplo, el caso de campo
Este acoplamiento de E
electrico nulo en el sistema sin prima
Ex = Ey = Ez = 0 .
Claramente, no habra fuerza sobre una partcula carga estacionaria. Cuando la partcula
esta en movimiento con una velocidad peque
na ~v a lo largo del eje z un observador sobre la
partcula ve campos (ejerciendo una fuerza sobre la partcula cargada) dados por
Ex0 = vBy ,
Ey0 = vBx ,
~ es un campo magnetico en el sistema sin primas. Estas ecuaciones pueden ser
donde B
puestas en forma vectorial
~ 0 = ~v B
~ ,
E

o bien,

~ ,
F~ = q~v B

(3.125)

~
la cual es usualmente tomada como la definicion operacional del campo magnetico B.
Invariantes electromagn
eticas.
Finalmente, las propiedades tensoriales (o vectorioles) nos permiten construir una multitud
de cantidades invariantes. Una de las importantes es el producto escalar de los cuadrivectores
A y i . Tenemos
vx
vy
vz
A i = c0 Ax
c0 Ay
c0 Az
+ 0
c
c
c
(3.126)
~ J)
~ , invariante,
= 0 ( A

108

CAPITULO 3. TEORIA DE GRUPO.

~ el usual potencial vector y J~ la densidad de corriente ordinaria. El primer termino


con A
es el ordinario acoplamiento electroestatico con dimensiones de energa per unidad de
volumen. En consecuencia nuestro recien construdo invariante escalar es un densidad de
~ J.
~ Este
energa. La interaccion dinamica del campo y corriente es dado por el producto A
invariante A i aparece en los Lagrangianos electromagneticos.

Captulo 4
Series infinitas.
versi
on final 1.3-1806021

4.1

Conceptos fundamentales

Las series infinitas, literalmente sumas de un n


umero infinito de terminos, ocurre frecuentemente tanto en matematicas pura como aplicada. Ellas podran ser usadas por los matematicos puros para definir funciones como una aproximacion fundamental a la teora de funciones,
tan bien como para calcular valores precisos de constantes y funciones trascendentales. En la
matematica en ciencias e ingeniera las series infinitas son ubicuas, es por ello que aparecen
en la evaluacion de integrales, en la solucion de ecuaciones diferenciales, en series de Fourier
y compite con las representaciones integral para la descripcion de funciones especiales. Mas
adelante veremos la solucion en series de Neumann para ecuaciones integrales dan un ejemplo
mas de la ocurrencia y uso de las series infinitas.
Encaramos el problema que significa la suma de un n
umero infinito de terminos. La
aproximacion usual es por sumas parciales. Si tenemos una sucesion de terminos infinitos
u1 , u2 , u3 , u4 , u5 , . . . , definimos la suma parcial i-esima como
si =

i
X

un ,

(4.1)

n=1

Esta es una suma finita y no ofrece dificultades. Si las sumas parciales si convergen a un
lmite (finito) cuando i ,
lim si = S ,

(4.2)

P
La serie infinita
n=1 un se dice que es convergente y tiene el valor S. Note cuidadosamente
que nosotros razonablemente y plausiblemente, pero a
un arbitrariamente definimos que la
serie infinita es igual a S. Podemos notar que una condicion necesaria para esta convergencia
a un lmite es que el limn un = 0. Esta condicion, sin embargo, no es suficiente para
garantizar la convergencia. La ecuacion (4.2) usualmente esta escrita en notacion matematica
formal:
1

Este captulo est


a basado en el quinto captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.

109

CAPITULO 4. SERIES INFINITAS.

110

La condicion para la existencia de un lmite S es que para cada > 0, haya un


N fijo tal que
| S si | < ,

para todo i > N .

Esta condicion a menudo derivada del criterio de Cauchy aplicado a las sumas parciales
si . El criterio de Cauchy es:
Una condicion necesaria y suficiente para que una sucesion (si ) converja es que
para cada > 0 exista un n
umero fijo N tal que
|sj si | <

para todos los i, j > N .

Esto significa que la sumas parciales individuales deben mantenerse cercanas cuando nos movemos lejos en la secuencia.
El criterio de Cauchy puede facilmente extenderse a sucesiones de funciones. La vemos
en esta forma en la seccion 4.5 en la definicion de convergencia uniforme y mas adelante en
el desarrollo del espacio de Hilbert.
Nuestras sumas parciales si pueden no converger a un lmite simple sino que podra oscilar,
como en el caso

un = 1 1 + 1 1 + 1 + (1)n .

n=0

Claramente, si = 1 para i impar pero 0 para i par. No hay convergencia a un lmite, y


series tal como una llamadas oscilantes.
Para las series
1 + 2 + 3 + + n +
tenemos
sn =

n(n + 1)
2

Cuando n ,
lim sn = .

Cada vez que las sumas parciales diverjan (tienden a ), la serie infinita se dice que
diverge. A menudo el termino divergente es extendido para incluir series oscilatorias.
Ya que evaluamos las sumas parciales por aritmetica ordinaria, la serie convergente, definida en terminos del lmite de las sumas parciales, asume una posicion de importancia
suprema. Dos ejemplos pueden clarificar la naturaleza de convergencia o divergencia de una
serie y servira como una base para una investigacion mas detallada en la proxima seccion.

4.1. CONCEPTOS FUNDAMENTALES

111

Ejemplo Series geometricas.


La sucesion geometrica, comenzando con a y con una razon r(r >= 0), esta dado por
a + ar + ar2 + ar3 + + arn1 + .
La suma parcial n-esima esta dada por
sn = a

1 rn
1r

(4.3)

Tomando el lmite cuando n ,


a
,
1r

lim sn =

para r < 1.

(4.4)

De modo que, por definicion, la serie geometrica infinita converge para r < 1 y esta dada por

arn1 =

n=1

a
.
1r

(4.5)

Por otra parte, si r 1, la condicion necesaria un 0 no se satisface y la serie infinita


diverge.
Ejemplo Series armonicas.
Consideremos la serie armonica

n1 = 1 +

n=1

1
1 1 1
+ + + + + .
2 3 4
n

(4.6)

Tenemos que el limn un = limn 1/n = 0, pero esto no es suficiente para garantizar la
convergencia. Si agrupamos los terminos (no cambiando el orden) como

 
 

1
1 1
1 1 1 1
1
1
1+ +
+
+
+ + +
+
+ +
+ ,
(4.7)
2
3 4
5 6 7 8
9
16
se vera que cada par de parentesis encierra p terminos de la forma
1
1
1
p
1
+
+ +
>
= .
p+1 p+2
p+p
2p
2

(4.8)

Formando sumas parciales sumando un grupos entre parentesis por vez, obtenemos
s1 = 1 ,
3
,
2
4
s3 > ,
2
s2 =

5
,
2
6
s5 > ,
2
n+1
sn >
.
2
s4 >

(4.9)

CAPITULO 4. SERIES INFINITAS.

112

Las series armonicas consideradas de esta manera ciertamente son divergentes. Una demostracion independiente y alternativa de su divergencia aparece en la seccion 4.2.
Usando el teorema del binomio, podramos expandir la funcion (1 + x)1 :
1
= 1 x + x2 x3 + . . . + (x)n1 + .
1+x

(4.10)

Si tomamos x 1, la serie se convierte


1 1 + 1 1 + 1 1 + ... ,

(4.11)

una serie que etiquetamos como oscilatoria anteriormente. Aunque no converge en el sentido
usual, significa que puede ser ligada a su serie. Euler, por ejemplo, asignado un valor de 1/2 a
esta sucesion oscilatoria sobre la base de la correspondencia entre esta serie y la bien definida
funcion (1 + x)1 . Desafortunadamente, tal correspondencia entre la serie y la funcion no es
u
nica y esta aproximacion debera ser redefinida. Otros metodos de asignar un significado a
una serie oscilatoria o divergente, metodos de definir una suma, han sido desarrollados. Otro
ejemplo de generalizar la convergencia lo vemos en las serie asintotica o semiconvergente,
consideradas mas adelante.

4.2

Pruebas de Convergencia

Aunque las series no convergentes pueden ser u


tiles en ciertos casos especiales, usualmente
insistimos, como una materia de conveniencia si no de necesidad, que nuestras series sean
convergentes. Por lo tanto esto llega a ser una materia de extrema importancia para ser
capaz de decir si una serie dada es o no convergente. Desarrollaremos un n
umero de posibles
pruebas, comenzando con una prueba simple pero poco sensible y posteriormente trabajar
con una mas complicada pero muy sensible.
Por ahora consideremos una serie de terminos positivos, an > 0, posponiendo los terminos
negativos hasta la proxima seccion.

4.2.1

Pruebas de comparaci
on.

Si termino a termino P
una serie de terminos un an , en el cual los an forman una serie
convergente, las series n un tambien es convergente. Simbolicamente, tenemos
X

an = a1 + a2 + a3 + ,

un = u1 + u 2 + u3 + .

convergente,

P
P
P
Si un an para todo n, luego n un n an y n un por lo tanto es convergente.
Si termino a termino
P es una serrie de terminos vn bn , en el cual bn forma una serie
divergente, las series n vn tambien es divergente. Note que las comparaciones de un con bn

4.2. PRUEBAS DE CONVERGENCIA

113

o vn con an no dan informacion. Aqu tenemos


X
bn = b1 + b2 + b3 + ,

divergente,

vn = v1 + v2 + v3 + .

P
P
P
Si vn bn para todo n, luego n vn n bn y n vn por lo tanto es divergente.
Para las series convergente an tenemos las series geometricas, mientras las series armonicas serviran como las series divergentes bn . En tanto otras series son identificadas como
convergentes o divergentes, ellas pueden ser usadas como las series conocidas en estas pruebas
de comparacion.
Todos las pruebas desarrolladas en esta seccion son esencialmente pruebas de comparacion.
La figura 4.1 muestra estas pruebas y sus relaciones.

Raz de Cauchy

Integral de
Euler Maclaurin

Kummer, an

(Comparacin con las


series geomtricas)
an = 1
Razn de DAlembert
Cauchy
(Tambin por comparacin
con la series geomtricas)

(Comparacin con
la integral)
an= n
Raabe
an= n ln n

Gauss
Figura 4.1: Test de comparacion.

Ejemplo Las series p.


P
Probamos n np , p = 0.999, por convergencia. Ya que n0.999 >Pn1 , y bn = n1 forman
la serie armonicaPdivergente, la prueba de comparacion muestra que n n0.999 es divergente.
Generalizando, n np se ve como divergente para todo p 1.

4.2.2

Prueba de la raz de Cauchy.

Si (an )1/n r < 1 para todo n suficientemente grande, con r independiente de n, P


entonces
P
1/n
1 para todo n suficientemente grande, entonces n an es
n an es convergente. Si (an )
divergente.

CAPITULO 4. SERIES INFINITAS.

114

La primera parte de esta prueba se verifica facilmente elevando (an )1/n r a la n-esima
potencia. Obtenemos
an r n < 1 .
P
Ya que rn es solo el termino n-esimo en una serie geometrica convergente,
n an es convergente por la prueba de comparacion. Conversamente, si (an )1/n 1, entonces an 1
y la serie debera diverger. La pruebe de la raz es particularmente u
til en establecer las
propiedades de la serie de potencias.

4.2.3

Prueba de la raz
on de D Alembert o Cauchy.

Si
P an+1 /an r < 1 para todo n suficientemente grande, y r independiente de n, entonces
P
n an es convergente. Si an+1 /an 1 para todo n suficientemente grande, entonces
n an
es divergente.
La convergencia esta dada por la comparacion directa con las series geometricas (1 + r +
2
r + . . . ). En la segunda parte an+1 an y la divergencia debe ser razonablemente obvia.
Aunque la prueba no es tan sensible como la prueba de la raz de Cauchy, esta prueba de
la razon e D Alembert es una de las mas faciles de aplicar y es ampliamente usada. Una
afiramcion alternativa de la prueba de la razon esta en la forma de un lmite: Si
an+1
< 1 , convergencia
lim
n an
(4.12)
> 1 , divergencia
= 1 , indeterminado.
A causa de la posibilidad de ser indeterminado, la prueba de la razon es probable que falle
en puntos cruciales, y se hace necesario una prueba mas delicada y sensible.
Podramos preguntarnos como podra levantarse esta indeterminacion. Realmente fue
disimulado en el primera afirmacion an+1 /an r < 1. Podriamos encontrar an+1 /an < 1 para
todo n finito pero ser inapropiado escoger un r < 1 e independiente de n tal que an+1 /an r
para todo n suficientemente grande. Un ejemplo esta dado por las series armonicas
an+1
n
=
<1,
(4.13)
an
n+1
Ya que
an+1
=1,
n an
lim

(4.14)

no existe una razon fija r < 1 y la prueba de la razon falla.


Ejemplo Prueba de la razon de D Alembert.
X n
Probar la convergencia de
2n
n
an+1
(n + 1)/2n+1
1n+1
=
=
.
n
an
n/2
2 n

(4.15)

4.2. PRUEBAS DE CONVERGENCIA

115

Ya que
an+1
3

an
4

para n 2,

(4.16)

tenemos convergencia. Alternativamente,


1
an+1
= ,
n an
2
lim

(4.17)

y de nuevo converge.

4.2.4

Prueba integral de Cauchy o Maclaurin.

Esta es otra clase de prueba de comparacion en la cual comparamos una serie con una integral.
Geometricamente, comparamos el area de una serie de un rectangulo de ancho unitario con
el area bajo la curva.
R on continua, monotonamente decreciente en la cual f (n) = an . Luego
P Sea f (x) una funci
esima
n an converge si 0 f (x) dx es finita y diverge si la integral es infinita. Para la i-
suma parcial
si =

i
X

an =

n=1

i
X

f (n) .

(4.18)

n=1

Pero
si >

i+1

f (x) dx ,

(4.19)

por la figura 4.2a, f (x) es monotonamente decreciente. Por otra parte, de la figura 4.2b,
Z i
s i a1 <
f (x) dx ,
(4.20)
1

en la cual la serie esta representada por los rectangulos inscritos. Tomando el lmite como
i , tenemos
Z
Z

X
f (x) dx <
an <
f (x) dx + a1 .
(4.21)
1

n=1

De modo que la serie infinita converge o diverge cuando la integral correpondiente converge
o diverge respectivamente.
La prueba de la integral es particularmente u
til para acotar superior e inferiormente el
resto de una serie, despues de que algunos n
umeros de terminos iniciales hayan sido sumados.
Esto es,

X
n=1

an =

N
X
n=1

an +

n=N +1

an ,

CAPITULO 4. SERIES INFINITAS.

116

(a)
f(x)

(b)
f(1)=a1
f(2)=a2

f(1)=a1

f(x)

x
1 2 3 4

1 2 3 4 5

Figura 4.2: (a) Comparacion de la integral y la suma de bloques sobresalientes. (b) Comparacion de la integral y la suma de bloques envueltos.

donde
Z

f (x) dx <

N +1

an <

f (x) dx + aN +1 .

N +1

n=N +1

Podemos liberar la prueba de la integral de los requerimientos muy restrictivos de que la


funcion de interpolacion f (x) sea positiva y monotonamente decreciente, basta que la funcion
f (x) tenga una derivada continua que satisfaga
Nf
X

n=Ni +1

f (n) =

Nf

f (x) dx +

Ni

Nf

(x [x])f 0 (x) dx .

(4.22)

Ni

Aqu [x] denota el entero mayor por debajo de x, tal que x [x] vara como diente de sierra
entre 0 y 1.
Ejemplo Funcion Zeta de Riemann.
La funcion zeta de Riemann esta definida por
(p) =

np .

(4.23)

n=1

Podemos tomar f (x) = xp y entonces


p+1

, p 6= 1
xp dx = p + 1 1

ln x ,
p=1
1

(4.24)

4.2. PRUEBAS DE CONVERGENCIA

117

La integral y por lo tanto la serie son divergentes para p 1 y convergente para p > 1. De
modo que la ecuacion (4.23) lleva la condicion de p > 1. Esto, incidentalmente, es una prueba
independiente de que la serie armonica
P (p = 1) diverge y lo hace en forma logartmica. La
suma del primer millon de terminos 1.000.000 n1 , es solamente 14.392726 . . . .
Esta comparacion con la integral tambien puede ser usada para dar una cota superior a
la constante Euler-Mascheroni definida por
!
n
X
1
= lim
ln n .
(4.25)
n
m
m=1
Volviendo a las sumas parciales,
sn =

n
X

ln n <

Z
1

m=1

dx
ln n + 1 .
x

(4.26)

Evaluando la integral del lado derecho, sn < 1 para todo n y por lo tanto < 1. Realmente
la constante de Euler-Mascheroni es 0.57721566 . . . .

4.2.5

Prueba de Kummer.

Esta es la primera de tres pruebas que son algo mas difciles para aplicar que las anteriores.
Su importancia radica en su poder y sensibilidad. Frecuentemente, al menos una de las tres
funcionara cuando las pruebas mas faciles sean indeterminadas. Debe recordarse, sin embargo, que estas pruebas, como aquellas previamente discutidas, estan finalmente basadas en
comparaciones. Esto significa que todas las pruebas de convergencia dadas aqu, incluyendo
la de Kummer, puedan fallar algunas veces.
Consideremos una serie de terminos positivos ui y una sucesion de constantes positivas
finitas ai . Si
un
an+1 C > 0 ,
un+1
P
para todo n N , alg
un n
umero fijo, entonces
i=1 ui converge. Si
an

an

un
an+1 0
un+1

(4.27)

(4.28)

P
a1
diverge, luego
i
i=1 ui diverge.
La prueba de este poderoso test es simple y queda como ejercicio.
Si las constantes positivas an de la prueba de Kummer son elegidas como an = n, tenemos
la prueba de Raabe.
y

i=1

4.2.6

Prueba de Raabe.

Si un > 0 y si
n


un
1 P >1 ,
un+1

(4.29)

CAPITULO 4. SERIES INFINITAS.

118

para todo n N , donde N es un entero positivo independiente de n, entonces


Si


un
n
1 1 ,
un+1
P
P
entonces i ui diverge ( n1 diverge).
La forma en lmite en el test de Raabe es


un
lim n
1 =P .
n
un+1

ui converge.
(4.30)

(4.31)

Tenemos convergencia para P > 1, y divergencia para P < 1, y no hay prueba para P = 1
exactamente como con el test de Kummer. Esta indeterminancia esta expresada en que
podemos encontrar ejemplos de una serie convergente y una divergente en que ambas series
tienden a P = 1 en la ecuacion (4.31).
P 1
El test de Raabe es mas sensible
P que la prueba de la razon de DAlembert ya que n=1 n
diverge mas lentamente que n=1 1. Obtenemos una prueba a
un mas sensible (y una relativamente facil de aplicar) si escogemos an = n ln n. Esto es la prueba de Gauss.

4.2.7

Prueba de Gauss.

Si un > 0 para todo n finito y


h B(n)
un
=1+ + 2 ,
un+1
n
n

(4.32)

P
en el cual B(n) es una funcion acotada de n para n , luego i ui converge para h > 1
y diverge para h 1.
La razon un /un+1 de la ecuacion (4.32) a menudo llega a ser como la razon de dos formas
cuadraticas:
un
n 2 + a1 n + a0
= 2
.
(4.33)
un+1
n + b1 n + b0
Se puede mostrar que tenemos convergencia para a1 > b1 + 1 y divergencia para a1 b1 + 1.
El test de Gauss es un test extremadamente sensible para la convergencia de series. Esto
funcionara para practicamente todas las series que encontraremos en Fsica. Para h > 1 o
h < 1 la prueba se deduce directamente del test de Raabe




h B(n)
B(n)
lim n 1 + + 2 1 = lim h +
=h.
(4.34)
n
n
n
n
n
Si h = 1, falla el test de Raabe. Sin embargo, si volvemos al test de Kummer y usamos
an = n ln n, tenemos




1 B(n)
lim n ln n 1 + + 2 (n + 1) ln(n + 1)
n
n
n


(n + 1)
= lim n ln n
(n + 1) ln(n + 1)
(4.35)
n
n



1
= lim (n + 1) ln n ln n ln 1 +
.
n
n

4.2. PRUEBAS DE CONVERGENCIA

119

Pidiendo prestado un resultado de la seccion 4.6 (el cual no es dependiente de la prueba de


Gauss) tenemos




1
1
1
1
lim (n + 1) ln 1 +
= lim (n + 1)

+
. . . = 1 < 0 .
(4.36)
n
n
n
n 2n2 3n3
De modo que tenemos divergencia para h = 1. Esto es un ejemplo de una aplicacion exitosa
del test de Kummer en el cual el test de Raabe falla.
Ejemplo Series de Legendre.
La relacion de recurrencia para la solucion en serie de la ecuacion de Legendre pueden ser
colocadas en la forma
a2j+2
2j(2j + 1) l(l + 1)
=
.
a2j
(2j + 1)(2j + 2)

(4.37)

Esto es equivalente a u2j+2 /u2j para x = +1. Para j  l


a2j
(2j + 1)(2j + 2)
2j + 2
1

=
=1+ .
a2j+2
2j(2j + 1)
2j
j

(4.38)

Por la ecuacion (4.33) la serie es divergente. Mas adelante exigiremos que las series de
Legendre sean finitas (se corten) para x = 1. Eliminaremos la divergencia ajustando los
parametros n = 2j0 , un entero par. Esto truncara la serie, convirtiendo la serie infinita en
un polinomio.

4.2.8

Mejoramiento de convergencia.

En esta seccion no nos preocupara establecer la convergencia como una propiedad matematica abstracta. En la practica, la razon de convergencia puede ser de considerable importancia.
Aqu presentamos un metodo que mejora la razon de la convergencia de una serie ya convergente.
El principio basico de este metodo, debido a Kummer, es formar una combinacion lineal
de nuestra serie lentamente convergente y una o mas series cuya suma es conocida. Entre las
series conocidas la coleccion

X
1
1 =
=1,
n(n + 1)
n=1
2 =

3 =

n=1

n=1

1
1
=
,
n(n + 1)(n + 2)(n + 3)
18
..
.

1
1
=
,
n(n + 1)(n + 2) (n + p)
p p!

..
.
p =

1
1
= ,
n(n + 1)(n + 2)
4

n=1

CAPITULO 4. SERIES INFINITAS.

120

es particularmente u
til. Las series estan combinadas termino a termino y los coeficientes en
combinacion lineal son escogidos para cancelar los terminos que convergen lentamente.
Ejemplo Funcion zeta de Riemann, (3).
P
3
Sea la serie a ser sumada
on 4.10 esta identificada como una funcion
n=1 n . En la secci
zeta de Riemann, (3). Formamos una combinacion lineal

n3 + a2 2 =

n=1

n3 +

n=1

a2
.
4

1 no esta incluida ya que converge mas lentamente que (3). Combinando terminos, obtenemos sobre la mano izquierda
 X


X
1
a2
n2 (1 + a2 ) + 3n + 2
+
=
.
n3 n(n + 1)(n + 2)
n3 (n + 1)(n + 2)
n=1
n=1
Si escogemos a2 = 1, la ecuacion precedente tiende a
(3) =

n3 =

n=1

1 X
3n + 2
+
.
4 n=1 n3 (n + 1)(n + 2)

(4.39)

La serie resultante no es muy bonita pero converge como n4 , apreciablemente mas rapido
que n3 .
El metodo puede ser extendido incluyendo a3 3 para obtener la convergencia como n5 ,
a4 4 para obtener la convergencia como n6 , etc. Eventualmente, usted tiene que alcanzar
un compromiso entre cuanta algebra usted hace y cuanta aritmetica la computadora hace.
Como las computadoras lo hacen mas rapido, el balance esta seguramente sustituyendo menos
algebra hecha por usted por mas aritmetica realizada por el computador.

4.3

Series alternadas.

En la seccion 4.2 nos limitamos a series de terminos positivos. Ahora, en contraste, consideraremos series infinitas en las cuales los signos se alternan. La cancelacion parcial debido a
la alternancia de los signos hace la convergencia mas rapida y mucho mas facil de identificar.
Probaremos que el criterio de Leibniz es una condicion general para la convergencia de una
serie alternada.

4.3.1

Criterio de Leibniz.

P
n+1
Consideremos la serie
an con an > 0. Si an es monotonamente decreciente (para
n=1 (1)
N suficientemente grande) y el limn an = 0, entonces la serie converge.
Para probar esto, examinemos las sumas parciales pares
s2n = a1 a2 + a3 . . . a2n ,
s2n+2 = s2n + (a2n+1 a2n+2 ) .

(4.40)

4.3. SERIES ALTERNADAS.

121

Ya que a2n+1 > a2n+2 , tenemos


s2n+2 > s2n .

(4.41)

s2n+2 = a1 (a2 a3 ) (a4 a5 ) . . . a2n+2 .

(4.42)

Por otra parte,

De modo que, con cada par de terminos a2p a2p+1 > 0,


s2n+2 < a1 .

(4.43)

Con las sumas parciales pares acotamos s2n < s2n+2 < a1 y los terminos an decrecen monotonamente aproximandose a cero, esta serie alternada converge.
Un resultado mas importante puede ser extrado de las sumas parciales. A partir de las
diferencias entre el lmite de la serie S y las sumas parciales sn
S sn = an+1 an+2 + an+3 an+4 + . . .
= an+1 (an+2 an+3 ) (an+4 an+5 ) . . .

(4.44)

S sn < an+1 .

(4.45)

La ecuacion (4.45) dice que el error en el corte de una serie alternada despues de n terminos
es menor que an+1 , el primer termino excludo. Un conocimiento del error obtenido de esta
manera puede ser de gran importancia practica.

4.3.2

Convergencia absoluta.

P
Dada unaP
serie en terminos de un en la cual un puede variar en
signo,
si
|un | converge,
P
P
entonces
un se dice que es absolutamente convergente. Si
un converge pero
|un |
diverge, la convergencia recibe el nombre de condicional.
La serie alternada armonica es un ejemplo simple de esta convergencia condicionada.
Tenemos

(1)n1 n1 = 1

n=1

1
1 1 1
+ + +
2 3 4
n

(4.46)

convergente por el criterio de Leibniz, pero

X
n=1

n1 = 1 +

1 1 1
1
+ + + + +
2 3 4
n

se ha demostrado que es divergente en la seccion 4.1 y 4.2.


Podemos notar que todas las pruebas desarrolladas en la seccion 4.2 supone una serie de
terminos positivos. Por lo tanto, todas las pruebas en esa seccion garantizan la convergencia
absoluta.

CAPITULO 4. SERIES INFINITAS.

122
Ejemplo
Para 0 < x < la serie de Fourier

X
cos(nx)
n=1


x
= ln 2 sen
,
2

(4.47)

converge teniendo coeficientes que cambian de signo frecuentemente, pero no tanto para que
el criterio de convergencia de Leibniz se aplique facilmente. Apliquemos el test de la integral
de la ecuacion (4.22). Usando integracion por partes vemos de inmediato que


Z
Z
sen(nx)
1 sen(nx)
cos(nx)

dn =
dn
n
nx
x 1
n2
1
1
converge para n , y la integral del lado derecho incluso converge absolutamente. El
termino derivado en la ecuacion (4.22) tiene la forma


Z
x
cos(nx)
dn ,
(n [n]) sen(nx)
n
n2
1
donde el segundo termino converge
R N absolutamente y no necesita ser considerado. Lo proximo es observar que g(N ) = 1 (n [n]) sen(nx) dn es acotado para N , tal como
RN
sen(nx) dn es acotado debido a la naturaleza periodica de sen(nx) y a su regular cambio
de signo. Usando integracion por partes nuevamente

 Z
Z 0
g (n)
g(n)
g(n)
dn =
+
dn ,
n
n 1
n2
1
1
vemos que el segundo termino es absolutamente convergente, y el primero va a cero en el
lmite superior. Por lo tanto la serie en la ecuacion (4.47) converge, lo cual es duro de ver
usando otro test de convergencia.

4.4

Algebra
de series.

Establecer la convergencia absoluta es importante porque puede probarse que las series absolutamente convergentes pueden ser manipuladas de acuerdo a las reglas familiares del algebra
o aritmetica.
1. Si una serie infinita es absolutamente convergente, la suma de la serie es independiente
del orden en el cual los terminos son a
nadidos.
2. La serie puede ser multiplicada por otra serie absolutamente convergente. El lmite del
producto sera el producto de los lmites de las series individuales. El producto de las
series, una doble serie, tambien sera absolutamente convergente.
No hay tales garantas en series condicionalmente convergentes. Nuevamente consideremos
la serie armonica alternada. Si escribimos

 

1 1 1
1 1
1 1

,
(4.48)
1 + + = 1
2 3 4
2 3
4 5


4.4. ALGEBRA
DE SERIES.

123

es claro que la suma

(1)n1 n1 < 1 .

(4.49)

n=1

Sin embargo, si rearreglamos los terminos sutilmente, podemos hacer que la serie armonica
alternada converja a 3/2. Reagrupamos los terminos de la ecuacion (4.48), tomando




1
1 1
1
1
1
1
1 1
+
+ +
+
+

1+ +
3 5
2
7 9 11 13 15
4




(4.50)
1
1
1
1
1
1
+
+ +
+
+ +
+ .
17
25
6
27
35
8
Tratando los terminos agrupados en parentesis como terminos simples por conveniencia, obtenemos las sumas parciales
s1
s3
s5
s7
s9

= 1.5333
= 1.5218
= 1.5143
= 1.5103
= 1.5078

s2 = 1.0333
s4 = 1.2718
s6 = 1.3476
s8 = 1.3853
s10 = 1.4078

A partir de esta tabulacion de los sn y el grafico de sn versus n en la figura 4.3 es clara la


convergencia a 3/2. Hemos rearreglado los terminos, tomando terminos positivos hasta que
la suma parcial sea igual o mayor que 3/2, luego sumando los terminos negativos hasta que
la suma parcial caiga bajo 3/2, etc. Como las series se extienden hasta infinito, todos los terminos originales eventualmente apareceran, pero las sumas parciales de este reordenamiento
de esta serie armonica alternada converge a 3/2. Por un reordenamiento de terminos una
serie condicionalmente convergente podra ser hecha para converger a alg
un valor deseado o
para que diverja. Esta afirmacion es dada como el teorema de Riemann. Obviamente, series
condicionalmente convergentes deberan ser tratadas con precaucion.

4.4.1

Mejoramiento de la convergencia, aproximaciones racionales.

La serie
ln(1 + x) =

xn
,
n

(1)n1

n=1

1 < x 1 ,

(4.51)

converge muy suavemente cuando x se aproxima a +1. La razon de convergencia podra ser
mejorada sustancialmente multiplicando ambos lados de la ecuacion (4.51) por un polinomio
y ajustando los coeficientes del polinomio para cancelar las porciones que convergen mas
lentamente en la serie. Consideremos la posibilidad mas simple: Multiplicar ln(1 + x) por
1 + a1 x.
(1 + a1 x) ln(1 + x) =

X
n=1

n1 x

(1)

+ a1

X
n=1

(1)n1

xn+1
.
n

CAPITULO 4. SERIES INFINITAS.

124

1.5

1.4

1.3
2

10

Figura 4.3: Serie armonica alternada, rearreglo de terminos para dar convergencia a 1.5.

Combinando las dos series sobre la derecha termino a termino, obtenemos


(1 + a1 x) ln(1 + x) = x +
=x+

X
n=2

(1)

(1)n1

n(1 a1 ) 1 n
x .
n(n 1)

n1

n=2

1
a1

n n1

xn

Claramente, si tomamos a1 = 1, el n en el numerador desaparece y nuestra serie combinada


converge como n2 .
Continuando este proceso, encontramos que (1 + 2x + x2 ) ln(1 + x) se anula como n3 ,
(1 + 3x + 3x2 + x3 ) ln(1 + x) se anula cuando n4 . En efecto estamos desplazandonos desde
una expansion de serie simple de la ecuacion (4.51) a una representacion racional en la cual
la funcion ln(1 + x) esta representada por la razon de una serie y un polinomio:
x+
ln(1 + x) =

X
(1)n xn
n=1

n(n 1)

1+x

Tales aproximaciones racionales pueden ser amba compactas y precisas. Los programas computacionales hacen extensivo el uso de ellas.

4.4.2

Reordenamiento de series dobles.

Otro aspecto del reordenamiento de series aparece en el tratamiento de series dobles (figura
4.4):
X

m=0 n=0

an,m .


4.4. ALGEBRA
DE SERIES.

125

m= 0
n= 0 a00

1
a01

2
a02

3
a03
a13

a10

a11

a12

a20

a21

a22 a23

a30

a31

a32 a33

Figura 4.4: Series dobles, la suma sobre n es indicada por lneas segmentadas verticales.

sustituyamos
n=q0,
m=pq 0 ,
(q p) .
Esto resulta en la identidad
X

an,m =

m=0 n=0

p
X
X

aq,pq .

(4.52)

p=0 q=0

La suma sobre p y q de la ecuacion (4.52) esta ilustrada en la figura 4.5. La sustitucion

p= 0
q= 0 a00
1

1
a01

2
a02

3
a03

a10

a11

a12

a20 a21

a30

Figura 4.5: Series dobles nuevamente, la primera suma es representada por lneas segmentadas
verticales pero estas lneas verticales corresponden a las diagonales en la figura 4.4.

CAPITULO 4. SERIES INFINITAS.

126

n=s0,

m = r 2s 0 ,

r
2

tiende a
X

an,m =

m=0 n=0

[r/2]
X
X

as,r2s .

(4.53)

r=0 s=0

con [r/2] = r/2 para r par, (r 1)/2 para r impar. La suma sobre r y s de la ecuacion
(4.53) esta mostrada en la figura 4.6. Las ecuaciones (4.52) y (4.53) son claramente reordenamientos del arreglo de coeficientes an,m , reordenamientos que son validos en tanto tengamos
convergencia absoluta. La combinacion de las ecuaciones (4.52) y (4.53),

r= 0 1 2 3 4
s= 0 a00 a01 a02 a03 a04
1

a10 a11 a12

a20

Figura 4.6: Series dobles. La suma sobre s corresponde a la suma a lo largo de la lneas
segmentadas inclinadas, en la figura 4.4.

p
X
X

aq,pq =

p=0 q=0

[r/2]
X
X

as,r2s .

(4.54)

r=0 s=0

es usada en la determinacion de la forma en serie de los polinomios de Legendre.

4.5

Series de funciones.

Extendemos nuestro concepto de series infinitas para incluir la posibilidad que cada termino
un pueda ser una funcion de alguna variable, un = un (x). Numerosas ilustraciones de tales
series de funciones apareceran mas adelante. Las sumas parciales llegan a ser funciones de la
variable x
sn (x) = u1 (x) + u2 (x) + + un (x) ,

(4.55)

4.5. SERIES DE FUNCIONES.

127

tal como lo hacemos para la suma de serie, definimos el lmite como el lmite de las sumas
parciales

un (x) = S(x) = lim sn (x) .

n=1

(4.56)

Hasta ahora nos hemos ocupado del comportamiento de las sumas parciales como una funcion
de n. Ahora consideremos como las cantidades anteriores dependen de x. Aqu el concepto
clave es la convergencia uniforme.

4.5.1

Convergencia uniforme.

Si para cualquier > 0 peque


no, existe un n
umero N , independiente de x en el intervalo
[a, b] con (a x b) tal que
| S(x) sn (x) | < , n N ,

(4.57)

se dice que la serie converge uniformemente en el intervalo [a, b]. Esto dice que para que
nuestra serie sea uniformemente
P convergente, debe ser posible encontrar un N finito tal que
no para
la cola de la serie infinita, | i=N +1 ui (x)|, sea menor que un arbitrariamente peque
todo x en el intervalo dado.
Esta condicion, ecuacion (4.57), la cual define la convergencia uniforme, es ilustrada en
la figura 4.7. El punto es que no importa cuan peque
no sea podemos siempre tomar un n
suficientemente grande tal que la magnitud absoluta de la diferencia entre S(x)
P y sn (x) sea
menor que para todo x, a x b. Si esto no puede ser hecho, entonces
un (x) no es
uniformemente convergente en el intervalo [a, b].

S(x) +
S(x)
S(x)

sn (x)

x
x=a

x=b

Figura 4.7: Convergencia uniforme.

CAPITULO 4. SERIES INFINITAS.

128
Ejemplo

un (x) =

n=1

x
.
[(n 1)x + 1][nx + 1]

n=1

(4.58)

La suma parcial sn (x) = nx(nx + 1)1 puede ser verificada por induccion matematica. Por
inspeccion esta expresion para sn (x) es valida para n = 1, 2. Suponemos que se mantiene
para el termino n y probamos para n + 1.
x
[nx + 1][(n + 1)x + 1]
nx
x
=
+
[nx + 1] [nx + 1][(n + 1)x + 1]
(n + 1)x
=
,
(n + 1)x + 1

sn+1 = sn +

completando la prueba.
Tomando n tenemos
S(0) = lim sn (0) = 0 ,
n

S(x 6= 0) = lim sn (x 6= 0) = 1 .
n

Tenemos una discontinuidad en el lmite de la serie en x = 0. Sin embargo, sn (x) es una


funcion continua de x, en el intervalo 0 x < 1, para todo n finito. La ecuacion (4.57)
con suficientemente peque
no, sera violado para todo n finito. Nuestra serie no converge
uniformemente.

4.5.2

Prueba M de Weierstrass.

La prueba mas com


unmente usada para la convergencia
P uniforme es la prueba M de Weierstrass. Si podemos construir
una
serie
de
n
u
meros
la cual Mi |ui (x)| para todo
1 Mi , en P
P
x en el intervalo [a, b] y 1 Mi es convergente, nuestra serie
a uniformemente
1 ui (x) ser
convergente en [a, b].
P
La prueba de este test M de Weierstrass es directa y simple. Ya que i Mi converge,
existen algunos n
umeros N tal que n + 1 N ,

Mi < .

(4.59)

i=n+1

Esto a partir de nuestra definicion de convergencia. Entonces, con |ui (x)| Mi para todo x
en el intervalo a x b,

i=n+1

|ui (x)| < .

(4.60)

4.5. SERIES DE FUNCIONES.

129

De modo que


X



|S(x) sn (x)| =
ui (x) < ,

(4.61)

i=n+1

y por definicion 1 ui (x) es uniformemente convergente en [a, b]. Ya que tenemos especificaP
dos valores absolutos en el planteamiento de la prueba M de Weierstrass, la serie
1 ui (x)
tambien es vista como serie absolutamente convergente.
Podemos notar que la convergencia uniforme y convergencia absoluta son propiedades
independientes. Una no implica la otra. Para ejemplos especficos,

X
(1)n
,
n + x2
n=1

< x <

(4.62)

(1)n1

n=1

xn
= ln(1 + x) ,
n

0x1,

(4.63)

converge uniformemente en los intervalos indicados pero no converge absolutamente. Por


otra parte,
(

X
1,
0x<1
n
(1 x)x =
,
(4.64)
0,
x=1
n=1
converge absolutamente pero no uniformemente en [0, 1].
A partir de la definicion de convergencia uniforme podramos mostrar que cualquier serie
f (x) =

un (x) ,

(4.65)

n=1

no puede converger uniformemente en ning


un intervalo que incluya una discontinuidad de
f (x).
Ya que la prueba M de Weierstrass establece tanto la convergencia uniforme como absoluta, necesariamente falla para series que son uniformes pero condicionalmente convergentes.

4.5.3

Prueba de Abel.

Una prueba algo mas delicada para la convergencia uniforme ha sido dada por Abel. Si
un (x) = an fn (x) ,
X
an = A ,
convergente,
y las funciones f (x) P
son monotonas [fn+1 (x) fn (x)] y acotadas, 0 fn (x) M , para todo
x en [a, b], entonces
un (x) converge uniformemente en [a, b].
Las series uniformemente convergentes tienen tres propiedades particularmente u
tiles.

CAPITULO 4. SERIES INFINITAS.

130

1. Si los terminos individuales un (x) son continuos, la suma de la serie

X
f (x) =
un (x) ,

(4.66)

n=1

es tambien continua.
2. Si los terminos individuales un (x) son continuos, las series pueden ser integradas termino
a termino. La suma de las integrales es igual a la integral de la suma.
Z b
Z b
X
f (x) dx =
un (x)dx .
(4.67)
a

n=1

3. Las derivadas de la suma de la serie f (x) es igual a la suma de los terminos individuales
derivados,

df (x) X dun (x)


=
,
(4.68)
dx
dx
n=1
siempre que las siguientes condiciones sean satisfechas:
dun (x)
un (x) y
son continuas en [a, b].
dx

X
dun (x)
es uniformemente convergente en [a, b].
dx
n=1
La integracion termino a termino de una serie uniformemente convergente2 requiere solo
continuidad de los terminos individuales. Esta condicion casi siempre es satisfecha en las
aplicaciones fsicas. La diferenciacion termino a termino de una serie a menudo no es valida
porque deben satisfacer condiciones mas restrictivas. Por cierto, encontraremos casos en
series de Fourier, en la cual la diferenciacion termino a termino de una serie uniformemente
convergente tiende a una serie divergente.

4.6

Expansi
on de Taylor.

Esta es una expansion de una funcion en una serie infinita o en una serie finita mas un
termino remanente. Los coefeicientes de los terminos sucesivos de la serie involucra las
derivadas sucesivas de la funcion. Este tipo de expansiones de son ampliamente usadas.
Ahora derivaremos la expansion de Taylor.
Supongamos que nuestra funcion f (x) tiene una derivada n-esima continua en el intervalo
a x b. Entonces, integrando esta n-esima derivada n veces,
x
Z x

(n)
(n1)
f (x) dx = f
(x) = f (n1) (x) f (n1) (a)
a
 a Z x
Z x Z x
(4.69)
f (n) (x) dx dx =
[f (n1) (x) f (n1) (a)]dx
a

=f
2

a
(n2)

(x) f (n2) (a) (x a)f (n1) (a) .

La integraci
on termino a termino tambien puede ser v
alida en ausencia de convergencia uniforme.

DE TAYLOR.
4.6. EXPANSION

131

Continuando, obtenemos
Z Z Z x
(x a)2 (n1)
(n)
3
(n3)
(n3)
(n2)
f
(a) .
f (x)(dx) = f
(x) f
(a) (x a)f
(a)
2
a
(4.70)
Finalmente, integrando por n-esima vez,
Z x
Z
f (n) (x)(dx)n = f (x) f (a) (x a)f 0 (a) +
a

(x a)2 00
(x a)n1 (n1)

f (a)
f
(a) .
2!
(n 1)!

(4.71)

Note que esta expresion es exacta. No hay terminos que hayan sido excludos, ni aproximaciones hechas. Ahora, resolviendo para f (x), tenemos
f (x) = f (a) + (x a)f 0 (a) +

(x a)n1 (n1)
(x a)2 00
f (a) + +
f
(a) + Rn .
2!
(n 1)!

El remanente, Rn , esta dado por la integral n-dimensional


Z x
Z
f (n) (x)(dx)n .

(4.72)

(4.73)

Este remanente, ecuacion (4.73), puede ser puesto en una forma mas inteligible usando la
forma integral del teorema del valor medio
Z x
g(x) dx = (x a)g() ,
(4.74)
a

con a x. Integrando n veces obtenemos la forma Lagrangiana del remanente:


Rn =

(x a)n (n)
f () .
n!

(4.75)

Con la expansion de Taylor en esta forma no estamos interesados en cualquier pregunta de


convergencia de series infinitas. Esta serie es finita, la sola pregunta que nos importa es la
magnitud del remanente.
Cuando la funcion f (x) es tal que
lim Rn = 0 ,

(4.76)

la ecuacion (4.72) se convierte en la serie de Taylor


f (x) = f (a) + (x a)f 0 (a) +
=

X
(x a)n
n=0

n!

(n)

(a) .

(x a)2 00
f (a) +
2!

(4.77)

CAPITULO 4. SERIES INFINITAS.

132

Nuestra serie de Taylor especifica el valor de una funcion en un punto, x, en terminos del
valor de la funcion y sus derivadas en un punto de referencia, a. Esta es una expansion en
potencias de un cambio en la variable, x = x a en este caso. La notacion puede ser
variada seg
un la conveniencia del usuario. Con la sustitucion x x + h y a x tenemos
una forma alterna

X
hn (n)
f (x + h) =
f (x) .
n!
n=0
Cuando usamos el operador D = d/dx la expansion de Taylor se convierte en
f (x + h) =

X
hn Dn
n=0

n!

f (x) = ehD f (x) .

Un forma en operadores equivalente de la expansion e Taylor. Una derivacion de la expansion


de Taylor en el contexto de la teora de variable compleja aparece en el proximo captulo.

4.6.1

Teorema de Maclaurin.

Si expandimos alrededor del origen (a = 0), la ecuacion (4.77) es conocida como la serie de
Maclaurin
x2 00
f (x) = f (0) + xf (0) + f (0) +
2!

X
xn (n)
=
f (0) .
n!
n=0
0

(4.78)

Una aplicacion inmediata de la serie de Maclaurin (o serie de Taylor) esta en la expansion de


varias funciones transcendentales en una serie infinita.
Ejemplo
Sea f (x) = ex . Diferenciando, tenemos
f (n) (0) = 1 ,

(4.79)

para todo n, n = 1, 2, 3 . . . . Entonces, para la ecuacion (4.78), tenemos

X xn
x2 x3
+
+ =
.
e =1+x+
2!
3!
n!
n=0
x

(4.80)

Esta es la expansion en serie de la funcion exponencial. Algunos autores usan esta serie para
definir la funcion exponencial.
Aunque esta serie es claramente convergente para todo x, podriamos chequear el termino
remanente, Rn . Por la ecuacion (4.75) tenemos
xn (n)
f ()
n!
xn
=
e ,
0 || x .
n!

Rn =

(4.81)

DE TAYLOR.
4.6. EXPANSION

133

Por lo tanto
xn x
| Rn |
e
n!

(4.82)

lim Rn = 0

(4.83)

y
n

para todo los valores finitos de x, el cual indica que esta expansion de Maclaurin de ex es
valida sobre el intervalo < x < .
Ejemplo
Sea f (x) = ln(1 + x). Diferenciando, obtenemos
f 0 (x) =
f

(n)

1
,
(1 + x)
n1

(x) = (1)

1
.
(n 1)!
(1 + x)n

(4.84)

La expansion de Maclaurin produce


x2 x3 x4
+

+ + Rn
2
3
4
n
X
xp
=
(1)p1 + Rn .
p
p=1

ln(1 + x) = x

(4.85)

En este caso el remanente esta dado por


xn (n)
f () , 0 x
n!
xn

, 0x1.
n

Rn =

(4.86)

Ahora el remanente se aproxima a cero cuando n crece indefinidamente, dado 0 x 13 .


Como una serie infinita

X
xn
ln(1 + x) =
(1)n1
,
(4.87)
n
n=1
la cual converge para 1 < x 1. El intervalo 1 < x < 1 es facilmente establecido por la
prueba de la razon de D Alembert. La convergencia en x = 1 se deduce a partir del criterio
de Leibniz. En particular, en x = 1, tenemos
1 1 1 1
+ +
2 3 4 5

X
1
=
(1)n 1 ,
n
n=1

ln 2 = 1

la serie armonica alterna condicionalmente convergente.


3

Este intervalo puede ser f


acilmente extendido a 1 < x 1 pero no a x = 1.

(4.88)

CAPITULO 4. SERIES INFINITAS.

134

4.6.2

Teorema Binomial.

Una segunda, aplicacion extremadamente importante de las expansiones de Taylor y Maclaurin es la derivacion del teorema binomial para potencias negativas y/o noenteras.
Sea f (x) = (1 + x)m , en la cual m puede ser negativo y no esta limitado a valores
integrables. La aplicacion directa de la ecuacion (4.78) da
m(m 1) 2
x + + Rn .
2!

(4.89)

xn
(1 + )mn m(m 1) (m n + 1)
n!

(4.90)

(1 + x)m = 1 + mx +
Para esta funcion el remanente es
Rn =

y con 0 x. Ahora, para n > m, (1 + )mn es un maximo para = 0. Por lo tanto


Rn

xn
m(m 1) (m n + 1) .
n!

(4.91)

Note que los factores dependientes de m no dan un cero a menos que m sea entero no negativo;
Rn tiende a cero cuando n si x esta restringido al intervalo 0 x 1. La expansion
binomial resulta
(1 + x)m = 1 + mx +

m(m 1) 2 m(m 1)(m 2) 3


x +
x + .
2!
3!

(4.92)

En otra, notacion equivalente


m

m!
xn
n!(m n)!
n=0


X m
=
xn .
n
n=0

(1 + x) =

(4.93)


La cantidad m
, la cual igual a m!/(n!(m n)!) es llamado el coeficiente binomial. Aunque
n
hemos mostrado solamente que el remanente se anula,
lim Rn = 0 ,

para 0 x < 1, la serie en la ecuacion (4.92) realmente puede mostrarse que converge en el
intervalo extendido 1 < x < 1. Para m un entero, (m n)! = si n > m y las series
automaticamente terminan en n = m.
Ejemplo Energa relativista.
La energa total relativista de una partcula es
E = mc

v2
1 2
c

1/2

(4.94)

DE TAYLOR.
4.6. EXPANSION

135

Comparemos esta ecuacion con la energa cinetica clasica,

1 2
mv .
2

v2
1
y m = tenemos
2
c
2
"
 2
 2 2
1
(1/2)(3/2)
v
v
2
E = mc 1
2 +
2 +
2
c
2!
c
#
 2 3
(1/2)(3/2)(5/2)
v
+
2
+ .
3!
c

Por la ecuacion (4.92) con x =

o
1
3
v2
5
E = mc + mv 2 + mv 2 2 + mv 2
2
8
c
16
2

v2
c2

2

+ .

El primer termino, mc2 , lo identificamos como la masa en reposo. Entonces


"
#
 2
1 2
3 v2 5 v2
+ .
Ecinetica = mv 1 + 2 +
2
4c
8 c2

(4.95)

(4.96)

Para la velocidad de la partcula v  c, donde c es la velocidad de la luz, la expresion en


los parentesis cuadrados se reduce a la unidad y vemos que la porcion cinetica de la energa
relativista total concuerda con el resultado clasico.
Para polinomios podemos generalizar la expansion binomial a
(a1 + a2 + + am )m =

n!
an1 an2 anmm ,
n1 !n2 ! nm ! 1 2

P
donde la suma incluye todas las combinaciones diferentes de n1 , n2 , . . . , nm con m
i=1 ni = n.
Aqu ni y n son enteros. Esta generalizacion encuentra considerables usos en Mecanica
Estadstica.
Las series de Maclaurin puede aparecer algunas veces indirectamente mas que el uso
directo de la ecuacion (4.78). Por ejemplo, la manera mas conveniente para obtener la
expansion en serie
sen

X
(2n 1)!! x2n+1
x3 3x5
x=
=x+
+
+ ,
(2n)!! 2n + 1
6
40
n=0

(4.97)

es hacer uso de la relacion


sen

x=

Z
0

dt
.
(1 t2 )1/2

Expandimos (1 t2 )1/2 (teorema binomial) y luego integramos temino a termino. Esta


integracion termino a termino es discutida en la seccion 4.7. El resultado es la ecuacion
(4.97). Finalmente, podemos tomar el lmite cuando x 1. La serie converge por la prueba
de Gauss.

CAPITULO 4. SERIES INFINITAS.

136

4.6.3

Expansi
on de Taylor de m
as de una variable.

La funcion f tiene mas de una variable independiente, es decir, f = f (x, y), la expansion de
Taylor se convierte en
f
f
f (x, y) = f (a, b) + (x a)
+ (y b)
+
x
x


2
2
1
2f
2 f
2 f
+
(x a)
+ 2(x a)(y b)
+ (y b)
+
2!
x2
xy
y 2

1
3f
3f
+
(x a)3 3 + 3(x a)2 (y b) 2 +
3!
x
x y

3
3
2 f
3 f
+3(x a)(y b)
+ (y b)
+ ,
xy 2
y 3

(4.98)

con todas las derivadas evaluadas en el punto (a, b). Usando j t = xj xj0 , podemos escribir
la expansion de Taylor para m variables independientes en la forma simbolica

!n

m

X
tn X


i
f (xk )
.
(4.99)
f (xj ) =

n!
xi
n=0

i=1

xk =xk0

Una forma vectorial conveniente es

X
1
~ n (~r) .
(~a )
(~r + ~a) =
n!
n=0

4.7

(4.100)

Series de potencias.

Las series de potencias son un tipo especial y extremadamente u


til de series infinitas de la
forma
f (x) = a0 + a1 x + a2 x2 + a3 x3 +
X
=
an xn ,

(4.101)

n=0

donde los coeficientes ai son constantes e independientes de x.4

4.7.1

Convergencia.

La ecuacion (4.101) puede testearse rapidamente para la convergencia ya sea por la prueba
de la raz de Cauchy o por la prueba de la razon de D Alembert. Si
an+1
= R1 ,
n an
lim

(4.102)

La ecuaci
on (4.101) puede ser reescrita con z = x + iy, reemplazando a x. Luego todos los resultados de
esta secci
on se aplican a series complejas

4.8. CONVERGENCIA UNIFORME Y ABSOLUTA.

137

la serie converge para R < x < R. Este es el intervalo o radio de convergencia. Ya que las
prueba de la raz y la razon falla cuando el lmite es la unidad, el punto final del intervalo
requiere atencion especial.
Por ejemplo, si an = n1 , entonces R = 1 y, la serie converge para x = 1 pero diverge
para x = +1. Si an = n!, entonces R = 0 y la serie diverge para todo x 6= 0.

4.8

Convergencia uniforme y absoluta.

Supongamos que nuestra serie de potencia sea convergente para R < x < R; entonces sera
uniforme y absolutamente convergente en cualquier intervalo interior, S x S, donde
0 < S < R. Esto podra ser probado directamente por la prueba M de Weierstrass usando
Mi = |ai |S i .

4.8.1

Continuidad.

P
Ya que cada termino un (x) = an xn es una funcion continua de x y f (x) =
an xn converge
uniformemente para S x S, f (x) debera ser una funcion continua en el intervalo
de convergencia uniforme. Este comportamiento es contradictorio con el comportamiento
impresionantemente diferente de las series de Fourier, en el cual las series de Fourier son
usadas frecuentemente para representar funciones discontinuas tales como ondas cuadradas
y ondas dientes de sierra.

4.8.2

Diferenciaci
on e integraci
on.

P
Con un (x) continua y
an xn uniformemenete convergente, encontramos que la serie difeerenciada es una serie de potencia con funciones continuas y del mismo radio de convergencia
que la serie original. Los nuevos factores introducidos por diferenciacion (o integracion) no
afecta ni a la prueba de la raiz ni a la de la razon. Por lo tanto nuestra serie podra ser diferenciada o integrada tan a menudo como uno deseemos dentro del intervalo de convergencia
uniforme.
En vista de las restricciones algo severas puestas en la diferenciacion, esto es un resultado
valioso y notable.

4.8.3

Teorema de la singularidad.

En la seccion precedente, usando las series de Maclaurin, expandimos ex y ln(1 + x) en


series infinitas. En los captulos venideros las funciones son frecuentemente representadas e
incluso definidas por series infinitas. Ahora estableceremos que la representacion de la serie
de potencias es u
nica.

CAPITULO 4. SERIES INFINITAS.

138
Si
f (x) =

an x n ,

Ra < x < Ra

n=0

(4.103)
bn x n ,

Rb < x < Rb ,

n=0

con intervalos de convergencia sobrepuestos, incluyendo el origen, luego


an = b n ,

(4.104)

para todo n; esto es, supongamos dos representaciones de serie de potencias (diferentes) y
luego procedamos a demostrar que las dos son identicas.
De la ecuacion (4.103)

an x n =

n=0

bn x n ,

R < x < R

(4.105)

n=0

donde R es el mas peque


no entre Ra , Rb . Haciendo x = 0 para eliminar todo salvo el termino
constante, obtenemos
a0 = b 0 .

(4.106)

Ahora, aprovechandose de la diferenciabilidad de nuestra serie de potencia, diferenciamos la


ecuacion (4.105), obteniendo

nan x

n1

nbn xn1 .

(4.107)

n=1

n=1

De nuevo ajustamos x = 0 para aislar el nuevo termino constante y encontramos


a1 = b 1 .

(4.108)

Repitiendo este proceso n veces, obtenemos


an = b n ,

(4.109)

lo cual muestra que las dos series coinciden. Por lo tanto nuestra representacion en serie de
potencia es u
nica.
Esto sera un punto crucial cuando usamos una serie de potencia para desarrollar soluciones
de ecuaciones diferenciales. Esta unicidad de las series de potencia aparece frecuentemente
en fsica teorica. La teora de perturbaciones en Mecanica Cuantica es un ejemplo de esto.
La representacion en serie de potencia de funciones es a menudo u
til en formas de evaluacion
indeterminadas, particularmente cuando la regla de lHospital puede ser inconveniente de
aplicar.

4.8. CONVERGENCIA UNIFORME Y ABSOLUTA.

139

Ejemplo
Evaluemos
1 cos x
.
x0
x2
lim

(4.110)

Remplazando cos x por su expansion en serie de Maclaurin, obtenemos


1 (1 x2 /2! + x4 /4! )
1 cos x
=
x2
x2
2
4
x /2! x /4! +
=
x2
1
x2
=
+ .
2!
4!
Tomando x 0, tenemos
1
1 cos x
= .
2
x0
x
2
lim

(4.111)

La unicidad de las series de potencia significa que los coeficientes an pueden ser identificadas con las derivadas en una serie de Maclaurin. A partir de
f (x) =

an x n =

n0

X
1 (n)
f (0)xn
n!
n=0

tenemos
an =

4.8.4

1 (n)
f (0) .
n!

Inversi
on de series de potencia.

Supongamos que dada una serie


y y0 = a1 (x x0 ) + a2 (x x0 )2 +

X
=
an (x x0 )n .

(4.112)

n=1

Esta dada (y y0 ) en terminos de (x x0 ). Sin embargo, podra ser deseable tener una
expresion explcita para (x x0 ) en terminos de (y y0 ). Podramos resolver la ecuacion
(4.112) para (x x0 ) por inversion de nuestra serie. Supongamos que
x x0 =

bn (y y0 )n ,

(4.113)

n=0

con bn determinado en terminos de la supuestamente conocidos an . Una aproximacion a fuerza


bruta, la cual es perfectamente adecuada para los primeros pocos coeficientes, es simplemente

CAPITULO 4. SERIES INFINITAS.

140

sustituir la ecuacion (4.112) en la ecuacion (4.113). Igualando los coeficientes de (x x0 )n


en ambos lados de la ecuacion (4.113), ya que la serie de potencia es u
nica, obtenemos
1
,
a1
a2
b2 = 3 ,
a1
1
b3 = 5 (2a22 a1 a3 ) ,
a1
1
b4 = 7 (5a1 a2 a3 a21 a4 5a32 ) ,
a1
b1 =

(4.114)

y as sucesivamente.

Los coeficientes mayores son listados en tamblas generalmente. Una aproximacion mas general
y mucho mas elegante es desarrollada usando variables complejas.

4.9

Integrales elpticas.

Las integrales elpticas son incluidas aqu parcialmente como una ilustracion del uso de las
series de potencias y por su propio interes intrnseco. Este interes incluye la ocurrencia de
las integrales elpticas en problemas fsicos y aplicaciones en problemas matematicos.
Ejemplo Perodo de un pendulo simple.
Para peque
nas oscilaciones de amplitud nuestro pendulo, figura 4.8 tiene un movimiento
armonico simple con un perodo T = 2(l/g)1/2 . Para una amplitud grande m tal que
sen m 6= m , la segunda ley de movimiento de Newton y las ecuaciones de Legrange conducen
a una ecuacion diferencial no lineal (sin es una funcion no lineal de ), as que tomemos
un acercamiento diferente.

Figura 4.8: Pendulo simple.


La masa oscilante m tiene una energa cinetica de 1/2ml2 (d/dt)2 y una energa potencial
de mgl cos ( = /2 como la eleccion del cero de la energa potencial). Ya que d/dt = 0
en = m , el principio de la conservacion de la energa da
 2
1 2 d
ml
mgl cos = mgl cos M .
(4.115)
2
dt

4.9. INTEGRALES ELIPTICAS.

141

Resolviendo para d/dt obtenemos


d
=
dt

2g
l

1/2

(cos cos M )1/2

(4.116)

con la cancelacion de la masa m. Tomando t como cero cuando = 0 y d/dt > 0. Una
integracion desde = 0 a = m produce
 1/2 Z t
 1/2
Z M
2g
2g
1/2
(cos cos M )
d =
dt =
t.
(4.117)
l
l
0
0
Esto es 1/4 del ciclo, y por lo tanto el tiempo t es 1/4 del perodo, T . Notemos que m ,
trataremos la sustitucion
 
 

M
sen
= sen
sen .
(4.118)
2
2
Con esto, la ecuacion (4.117) se convierte en
 1/2 Z /2
l
s
T =4
g
0

d
 

2
1 sen
sen2
2

(4.119)

Aunque no hay un obvio mejoramiento en la ecuacion (4.117), la integral ahora define la


integral elptica completa del primer tipo, K(sen m /2). A partir de la expansion de serie, el
perodo de nuestro pendulo puede ser desarrollado como una serie de potencia en sen m /2:
 1/2 

l
1
9
2 M
4 M
1 + sen
+
sen
+
(4.120)
T = 2
g
4
2
64
2

4.9.1

Definiciones.

Generalizando el ejemplo anterior para incluir el lmite superior como una variable, la integral
elptica del primere tipo esta definida como
Z
d

(4.121)
F (\) =
1 sen2 sen2
0
o
Z x
dt
p
, 0m<1.
(4.122)
F (x|m) =
(1 t2 )(1 mt2 )
0
Para = /2, x = 1, tenemos la integral elptica completa de primer tipo,
Z /2
d

K(m) =
1 m sen2
0
Z 1
dt
p
=
,
(1 t2 )(1 mt2 )
0

(4.123)

CAPITULO 4. SERIES INFINITAS.

142

con m = sen2 , 0 m < 1.


La integral elptica de segundo tipo esta definida por
Z
E(\) =
1 sen2 sen2 d

(4.124)

o
E(x|m) =

1 mt2
dt ,
1 t2

0m<1

(4.125)

Nuevamente, para el caso = /2, x = 1,tenemos la integral elptica completa de segundo


tipo:
Z /2
E(m) =
1 m sen2 d
0
(4.126)
Z 1r
1 mt2
dt , 0 m < 1 .
=
1 t2
0
La figura 5.9 muestra el comportamiento de K(m) y E(m). Los valores de ambas funciones
pueden encontrarse en tablas o evaluar en software como Mathematica.
3

K(m)

/2
E(m)

0.2

0.4

0.6

0.8

Figura 4.9: Integrales elpticas completas, K(m), E(m).

4.9.2

Expansi
on de series.

Para nuestro intervalo 0 m < 1, el denominador de K(m) puede ser expandido en serie
binomial
1
3
(1 m sen2 )1/2 = 1 + m sen2 + m2 sen4 +
2
8

X
(2n 1)!! n
m sen2n .
=
(2n)!!
n=0

(4.127)

4.9. INTEGRALES ELIPTICAS.

143

Para cualquier intervalo cerrado [0, mmax ], mmax < 1 esta serie es uniformemente convergente
y puede ser integrada termino a termino.
Z /2
(2n 1)!!
sen2n d =
.
(4.128)
(2n)!! 2
0
De modo que
"
#
 2

2

2

1
13
1

5
K(m) =
1+
m+
m2 +
m3 +
2
2
24
246

(4.129)

Similarmente,
"
#
 2

2

2

1 m
1 3 m2
1 3 5 m3
E(m) =
1


2
2
1
24
3
246
5

(4.130)

Mas adelante estas series son identificadas como funciones hipergoemetricas, y tenemos



1 1
K(m) = 2 F1
, , 1; m
(4.131)
2
2 2


1 1

E(m) = 2 F1 , , 1; m
2
2 2

4.9.3

(4.132)

Valores lmites.

De las series de las ecuaciones (4.129) y (4.130), o a partir de las integrales definidas,

(4.133)
lim K(m) = ,
m0
2

.
(4.134)
m0
2
Para m 1 las expansiones de series son de poco uso. Sin embargo, la integrales tienden
lim E(m) =

lim K(m) = ,

m1

(4.135)

la integral diverge logartmicamente, y


lim E(m) = 1 .

m1

(4.136)

Las integrales elpticas han sido usadas ampliamente en el pasado para evaluar integrales.
Por ejemplo, integrales de la forma
Z x
p
I=
R(t, a4 t4 + a3 t3 + a2 t2 + a1 t + a0 ) dt ,
0

donde R es una funcion rotacional de t y del radical, puede ser expresado en terminos de
integrales elpticas. Con los computadores de alta velocidad disponibles para la evaluacion
numerica directa, el interes en estas tecnicas de integrales elpticas ha declinado. Sin embargo,
las integrales elpticas todava mantienen el interes a causa de su apariencia en problemas en
Fsicos.

CAPITULO 4. SERIES INFINITAS.

144

4.10

N
umeros de Bernoulli.

Los n
umeros de Bernoulli fueron introducidos por Jacques Bernoulli. Hay muchas definiciones equivalentes, pero debe tenerse extremo cuidado, porque algunos autores introducen
variaciones en la numeracion o en signo. Un acercamiento relativamente simple para definir
los n
umeros de Bernoulli es por la serie5

X Bn xn
x
=
,
ex 1 n=0 n!

(4.137)

la cual convege para |x| < 2 usando el test del cuociente. Diferenciando esta serie de
potencia repetidamente y luego evaluando para x = 0, obtenemos

 n 
d
x
Bn =
.
(4.138)
dxn ex 1 x=0
Especficamente,
d
B1 =
dx



x


x
x
xe
1


=

= ,


x
x
x
2
e 1 x=0
e 1 (e 1) x=0
2

(4.139)

como puede ser visto por la expansion en series de los denominadores. Usando B0 = 1 y
B1 = 1/2, es facil verificar que la funcion

x
x X Bn xn
x

1
+
=
= x(ex 1) 1 ,
x
e 1
2
n!
2
n=0

(4.140)

es par en x, tal que todos los B2n+1 = 0.


Para derivar una relacion de recurrencia para los n
umeros de Bernoulli, multiplicamos
"
#"
#

X xm
ex 1 x
x X B2n x2n
=1=
1 +
x ex 1
(m
+
1)!
2 n=1 (2n)!
m=0

 X

X
X
1
1
B2n
m

+
xN
.
=1+
x
(m + 1)! 2 m!
[(2n)!(N 2n + 1)!]
m=1
N =2
1nN/2

(4.141)
La ecuacion (4.141) produce
1
(N + 1) 1 =
2

1nN/2

B2n


N +1
1
= (N 1) ,
2n
2

(4.142)

la cual es equivalente a


N
1 X
2N + 1
N =
B2n
,
2 n=1
2n
 
N
1
X
2N
N 1=
B2n
.
2n
n=1
5

La funci
on

ex

(4.143)

x
puede ser considerada una funci
on generatriz ya que genera los n
umeros de Bernoulli.
1


4.10. NUMEROS
DE BERNOULLI.

145

n Bn
Bn
0
1 1.0000 00000
1 12 -0.5000 00000
1
1
0.1666 66667
6
1
1 30 -0.0333 33333
1
1
0.0238 09524
42
1
1 30 -0.0333 33333
5
1
0.0757 57576
66
Tabla 4.1: N
umeros de Bernoulli
A partir de la ecuacion (4.143) los n
umeros de Bernoulli en la tabla 4.1 se obtienen rapidamente. Si la variable x en la ecuacion (4.137) es remplazada por 2xi (y B1 elegido igual a
-1/2), obtenemos una definicion alternativa (y equivalente) de B2n , la expresion

(2x)2n
x cot x =
(1) B2n
,
(2n)!
n=0
n

< x < .

(4.144)

Usando el metodo del residuo o trabajando a partir de la representacion de producto


infinito de sen(x), encontramos que

B2n =

(1)n1 2(2n)! X 1
,
2n
(2)2n
p
p=1

n = 1, 2, 3 . . . .

(4.145)

Esta representacion de los n


umeros de Bernoulli fue descubierta por Euler. Es facil ver a
partir de la ecuacion (4.145) que |B2n | aumenta sin lmite cuando n . Ilustrando el
comportamiento divergente de los n
umeros de Bernoulli, tenemos
B20 = 5.291 102
B200 = 3.647 10215 .
Algunos autores preferien definir los n
umeros de Bernoulli con una version modificada de la
ecuacion (4.145) usando
B2n =

2(2n)! X 1
,
(2)2n p=1 p2n

(4.146)

el subndice es justo la mitad de nuestro subndice original y todos los signos son positivos.
Nuevamente, se debe chequear cuidadosamente la definicion que se esta usando de los n
umeros
de Bernoulli.
Los n
umeros de Bernoulli aparecen frencuentemente en teora de n
umeros. El teorema de
von Standt-Clausen establece que
B2n = An

1
1
1
1


,
p1 p2 p3
pk

(4.147)

CAPITULO 4. SERIES INFINITAS.

146

en el cual An es un entero y p1 , p2 , . . . pk son n


umeros primos tal que pi 1 es un divisor de
2n. Podemos facilemnte verificar que esto se mantiene para
B6 (A3 = 1, p = 2, 3, 7) ,
B8 (A4 = 1, p = 2, 3, 5) ,
B10 (A5 = 1, p = 2, 3, 11) ,

(4.148)

y otros casos especiales.


Los n
umeros de Bernoulli aparecen en la suma de potencias enteras de enteros,
N
X

jp ,

p entero.

j=1

y en numerosas expansiones de series de las funciones trascendentales, incluyendo tan x, cot x,


sen1 x, ln | sen x|, ln | cos x|, ln | tan x|, tanh x, coth x y cosh1 x. Por ejemplo,
tan(x) = x +

2
(1)n1 22n (22n 1)B2n 2n1
x3
+ x5 + +
x
+ .
3
15
(2n)!

(4.149)

Los n
umeros de Bernoulli probablemente vengan en tales expansiones en series a causa de
las ecuaciones de definicion (4.137) y (4.143) y de su relacion a la funcion zeta de Riemann

X
1
.
(2n) =
p2n
p=1

4.10.1

(4.150)

Funciones de Bernoulli.

Si la ecuacion (4.137) puede ser facilmente generalizada, tenemos

X
xn
xexs
=
B
(s)
.
n
ex 1 n=0
n!

(4.151)

definiendo las funciones de Bernoulli, Bn (s). Las primeras siete funciones de Bernoulli estan
dadas en la tabla 4.2.
De la funcion generadora, ecuacion (4.151),
Bn (0) = Bn ,

n = 1, 2, . . . .

(4.152)

la funcion de Bernoulli evaluadas en cero igual a al correspondiente n


umero de Bernoulli. Dos
propiedades particularmente importantes de las funciones de Bernoulli se deducen a partir
de la definicion: una relacion de diferenciacion
Bn0 (s) = nBn1 (s) ,

n = 1, 2, . . . .

(4.153)

y una relacion e simetra


Bn (1) = (1)n Bn (0) ,

n = 1, 2, . . . .

(4.154)

Estas relaciones son usadas en el desarrollo de la formula de integracion de Euler-Maclaurin.


4.10. NUMEROS
DE BERNOULLI.

B0
B1
B2
B3
B4
B5
B6

=
=
=
=
=
=
=

147

1
x 12
x2 x + 16
x3 32 x2 + 12 x
1
x4 2x3 + x2 30
x5 52 x4 + 53 x2 16 x
x6 3x5 + 52 x4 21 x2 +

1
42

Tabla 4.2: Funciones de Bernoulli

4.10.2

F
ormula de integraci
on de Euler-Maclaurin.

Uno de los uso de las funciones de Bernoulli es la derivacion de la formula de integracion de


Euler-Maclaurin. Esta formula es usada en el desarrollo de una expresion asintotica para la
funcion factorial- serie de Stirling. La tecnica es integracion por partes repetida usando la
ecuacion (4.153) para crear nuevas derivadas. Comenzamos con
Z 1
Z 1
f (x) dx =
f (x)B0 (x) dx .
(4.155)
0

A partir de la ecuacion (4.153)


B10 (x) = B0 (x) = 1 .
Sustituyendo B10 (x) en la ecuacion (4.155) e integranddo por partes, obtenemos
Z 1
Z 1
f (x) dx = f (1)B1 (1) f (0)B1 (0)
f 0 (x)B1 (x) dx
0
0
Z 1
1
= [f (1) f (0)]
f 0 (x)B1 (x) dx
2
0

(4.156)

(4.157)

Nuevamente, usando la ecuacion (4.153), tenemos


1
B1 (x) = B20 (x) ,
2
e integrando por partes
Z 1
1
1
f (x) dx = [f (1) f (0)] [f 0 (1)B2 (1) f 0 (0)B2 (0)] +
2
2!
0
Z 1
1
f (2) (x)B2 (x) dx .
2! 0

(4.158)

(4.159)

Usando las relaciones,


B2n (1) = B2n (0) = B2n ,
B2n+1 (1) = B2n+1 (0) = 0 ,

n = 0, 1, 2, . . .
n = 1, 2, 3, . . . ,

(4.160)

CAPITULO 4. SERIES INFINITAS.

148

y continuando este proceso, tenemos


Z 1
q
X
1
1
f (x) dx = [f (1) f (0)]
B2p [f (2p1) (1) f (2p1) (0)] +
2
(2p)!
0
p=1
Z 1
1
+
f (2q) (x)B2q (x) dx .
(2p)! 0

(4.161)

Esta es la formula de integracion de Euler-Maclaurin. Supone que la funcion f (x) tiene las
derivadas requeridas.
El intervalo de integracion en la ecuacion (4.161) puede ser trasladado de [0, 1] a [1, 2]
reemplazando f (x) por f (x + 1). Sumando tales resultados hasta [n 1, n],
Z n
1
1
f (x) dx = f (0) + f (1) + f (2) + + f (n 1) + f (n) +
2
2
0
Z 1
q
n1
X
X
1
1
(2p1)
(2p1)
B2p [f
(n) f
(0)] +
B2q (x)
f (2q) (x + ) dx .

(2p)!
(2p)!
0
p=1
=0
(4.162)
Los terminos 12 f (0) + f (1) + . . . + 12 f (n) aparecen exactamente como una integracion trapezoidal o cuadratura. La suma sobre p puede ser interpretada como una correccion a la
proximacion trapezoidal. La ecuacion (4.162) es la forma usada en la derivacion de de la
formula de Stirling.
La formula de Euler-Maclaurin es a menudo u
til para sumar series al convertirlas en
integrales.

4.10.3

Funci
on zeta de Riemann.

P
2n
Estas series
fueron usadas como series de comparacion para probar la convergencia
p=1 p
y en la ecuacion (4.144) como una definicion de los n
umeros de Bernoulli, B2n . Tambien sirve
para definir la funcion zeta de Riemann por

X
1
(s)
,
ns
n=1

s>1.

(4.163)

La tabla 4.3 muestra los valores de (s) para s entero, s = 2, 3, . . . , 10. La figura 4.10 es
un grafico de (s) 1. Una expresion integral para esta funcion zeta de Riemann aparecera
como parte del desarrollo de la funcion gama.
Otra interesante expresion para la funcion zeta puede ser derivada como


1
1
1
1
1
s
(s)(1 2 ) = 1 + s + s +
+
+
+
(4.164)
2
3
2s 4s 6s
eliminando todos los ns , donde n es un multiplo de 2. Entonces
1
1
1
1
+ s + s + s +
s
3 5
7
9

1
1
1
+
+
+ ,

3s 9s 15s

(s)(1 2s )(1 3s ) = 1 +

(4.165)


4.10. NUMEROS
DE BERNOULLI.

149

s
2
3
4
5
6
7
8
9
10

(s)
1.64493 40668
1.20205 69032
1.08232 32337
1.03692 77551
1.01734 30620
1.00834 92774
1.00407 73562
1.00200 83928
1.00099 45751

Tabla 4.3: Funcion zeta de Riemann.

10
1
s

0.1

(s)1
0.01
0.001
0.0001
0

10

12

14

s
Figura 4.10: Funcion zeta de Riemmann, (s) 1 versus s.

eliminando todos los terminos remanentes en el cual n es un m


ultiplo de 3. Continuando,
s
s
s
s
tenemos (s)(12 )(13 )(15 ) . . . (1P ), donde P es un n
umero primo, y todos los
s
terminos n , en el cual n es un m
ultiplo entero por sobre P , son cancelados. Para P ,
s

(s)(1 2 )(1 3 ) (1 P

) = (s)

(1 P s ) = 1 .

(4.166)

P (primo)=2

Por lo tanto

(s) =

P (primo)=2

(1 P s )

(4.167)

CAPITULO 4. SERIES INFINITAS.

150

dando (s) como un producto infinito.6


Este procedimiento de cancelacion tiene una clara aplicacion en el calculo numerico. La
ecuacion (4.164) dara (s)(1 2s ) con la misma precision como la ecuacion (4.163) da (s),
pero solamente con la mitad de terminos. (En cuyo caso, podra hacerse una correccion
para despreciar la cola de la serie por la tecnica de Maclaurin reemplazando la serie por una
integral).
Conjuntamente con la funcion zeta de Riemann, habitualmente se definen otras tres funciones de sumas de potencia recprocas:
(s) =

X
(1)n1

(s) =

ns

n=1

n=0

= (1 21s )(s) ,

1
=
(2n + 1)s

1
1 s
2

(s) ,

y
(s) =

X
n=0

(1)n

1
.
(2n + 1)s

A partir de los n
umeros de Bernoulli o de las series de Fourier podemos determinar algunos
valores especiales
1
1
+
22 32
1
1
(4) = 1 + 4 + 4
2
3
1
1
(2) = 1 2 + 2
2
3
1
1
(4) = 1 4 + 4
2
3
1
1
(2) = 1 + 2 + 2
3
5
1
1
(4) = 1 + 4 + 4
3
5
1 1
(1) = 1 +
3 5
1
1
(3) = 1 3 + 3
3
5
(2) = 1 +

+ =
+ =
=
=
+ =
+ =
=
=

2
6
4
90
2
12
7 4
720
2
8
4
96

4
3
32

La constante de Catalan
(2) = 1
6

1
1
+ 2 = 0.9159 6559 . . . ,
2
3
5

Este es el punto de partida para la vasta aplicaci


on de la funci
on zeta de Riemann a la teora de n
umeros.


4.11. SERIES ASINTOTICAS
O SEMICONVERGENTES.

4.10.4

151

Mejoramiento de la convergencia.

P
Si requerimos sumar una serie convergente
erminos son funciones racionales
n=1 an cuyos t
de n, la convergencia puede ser mejorada dramaticamente introduciendo la funcion zeta de
Riemann.
Ejemplo Mejorando la convergencia.

X
El problema es evaluar la serie
n=1

1
1
1
. Expandiendo
= 2
2
2
(1 + n )
(1 + n )
n

1
1
1+ 2
n

 por

division directa, tenemos




1
1
1
1
n6
= 2 1 2 + 4
1 + n2
n
n
n
1 + n2
1
1
1
1
.
= 2 4+ 6 8
n
n
n
n + n6
Por lo tanto

X
n=1

X
1
1
= (2) (4) + (6)
.
2
8
1+n
n + n6
n=1

Las funciones son conocidas y el remanente de la series converge como n8 . Claramente,


el proceso pueden ser continuado hasta cuando uno desee. Usted puede hacer una eleccion
entre cuanta algebra hara y cuanta aritmetica hara el computador.
Otros metodos para mejorar la efectividad computacional estan dadas al final de la seccion
4.2 y 4.4.

4.11

Series asint
oticas o semiconvergentes.

Las series asintoticas frecuentemente ocurren en Fsica. En calculo numerico ellas son empleadas para la precision del calculo de una variedad de funciones. Consideremos aqu dos
tipos de integrales que conducen a series asintoticas: primero, una integral de la forma
Z
I1 (x) =
eu f (u) du ,
x

donde la variable x aparece como el lmite inferior de una integral. Segundo, consideremos
la forma
Z
u
I2 (x) =
eu f
du ,
x
0
con la funcion f expandible en serie de Taylor. Las series asintoticas a menudo ocurren como
solucion de ecuaciones diferenciales. Un ejemplo de este tipo de series aparece como una de
las soluciones de la ecuacion de Bessel.

CAPITULO 4. SERIES INFINITAS.

152

4.11.1

Funci
on gama incompleta.

La naturaleza de una serie asintotica es quizas mejor ilustrada por un ejemplo especfico.
Supongamos que tenemos una funcion integral exponencial7
Z x u
e
Ei(x) =
du ,
(4.168)
u
o
Ei(x) =

Z
x

eu
du = E1 (x) ,
u

(4.169)

para ser evaluada para grandes valores de x. Mejor todava, tomemos una generalizacion de
la funcion factorial incompleta (funcion gama incompleta),
Z
I(x, p) =
eu up du = (1 p, x) ,
(4.170)
x

en la cual x y p son positivas. De nuevo, buscamos evaluarla para valores grandes de x.


Integrando por partes, obtenemos
Z
Z
ex
ex pex
u p1
e u
du = p p+1 + p(p + 1)
eu up2 du
(4.171)
I(x, p) = p p
x
x
x
x
x
Continuando para integrar por partes, desarrollamos la serie


1
p
p(p + 1)
n1 (p + n 2)!
x

+
(1)
+
I(x, p) = e
xp xp+1
xp+2
(p 1)!xp+n1
Z
n (p + n 1)!
+ (1)
eu upn du .
(p 1)!
x

(4.172)

Esta es una serie notable. Chequeando la convergencia por la prueba de D Alembert, encontramos
|un+1 |
(p + n)! 1
= lim
n (p + n 1)! x
n |un |
(p + n)
= lim
n
x
=
lim

(4.173)

para todos los valores finitos de x. Por lo tanto nuestras series son series infinitas que divergen
en todas partes!. Antes de descartar la ecuacion (4.172) como in
util, veamos cuan bien una
suma parcial dada se aproxima a la funcion factorial incompleta, I(x, p).
Z
n+1 (p + n)!
eu upn1 du = Rn (x, p) .
(4.174)
= (1)
(p 1)! x
7

Esta funci
on ocurre con frecuencia en problemas astrofsicos que involucran gases con una distribuci
on
de energa de Maxwell-Boltzmann.


4.11. SERIES ASINTOTICAS
O SEMICONVERGENTES.

153

En valor absoluto
(p + n)!
| I(x, p) sn (x, p) |
(p 1)!

eu upn1 du .

Luego sustituimos u = v + x la integral se convierte en


Z
Z
u pn1
x
e u
du = e
ev (v + x)pn1 dv
x
0
Z

v pn1
ex
= p+n+1
ev 1 +
dv .
x
x
0
Para x grande la integral final se aproxima a 1 y
| I(x, p) sn (x, p) |

(p + n)! ex
.
(p 1)! xp+n+1

(4.175)

Esto significa que si tomamos un x suficientemente grande, nuestra suma parcial sn es arbitrariamente una buena aproximacion a la funcion deseada I(x, p). Nuestra serie divergente
por lo tanto es perfectamente buena para calculos de sumas parciales. Por esta razon algunas
veces es llamada serie semiconvergente. Notemos que la potencia de x en el denominador del
remanente (p + n + 1) es mas alto que la potencia de x en u
ltimo termino incluido en sn (x, p),
(p + n).
Ya que el remanente Rn (x, p) alterna en signo, las sucesivas sumas parciales dan alternadamente cotas superiores e inferiores para I(x, p). El comportamiento de la serie (con p = 1)
como una funcion del n
umero de terminos incluidos es mostrado en la figura 4.11. Tenemos
0.21

0.19

sn (x=5)
0.17

0.1741

0.1704

0.1664

0.15



Figura 4.11: Sumas parciales de e E1 (x)

10

.
x=5

eu
du
e E1 (x) = e
u
x
1
1!
2!
3!
n!
= sn (x) 2 + 3 4 + + (1)n n+1 ,
x x
x
x
x
x

(4.176)

CAPITULO 4. SERIES INFINITAS.

154

la cual es evaluada en x = 5. Para un valor dado de x las sucesivas cotas superiores e inferiores
dadas por las sumas parciales primero converge y luego diverge. La determinacion optima de
ex E1 (x) esta dado por la aproximacion mas cercana de las cotas superiores e inferiores, esto
es, entre s4 = s6 = 0.1664 y s5 = 0.1741 para x = 5. Por lo tanto


x
0.1664 e E1 (x)
0.1741 .
(4.177)
x=5

Realmente, a partir de las tablas,




e E1 (x)
x

= 0.1704 ,

(4.178)

x=5

dentro de los lmites establecidos por nuestra expansion asintotica. Note cuidadosamente
que la inclusion de terminos adicionales en la serie de expansion mas alla del punto optimo
literalmente reduce la precision de la representacion.
Cuando aumentamos x, la diferencia entre la cota superior mas baja y la cota inferior
mas alta disminuira. Tomando x suficientemente grande, uno podra calcular ex E1 (x) para
cualquier grado de precision deseado.

4.11.2

Integrales coseno y seno.

Las series asintoticas tambien pueden ser desarrolladas a partir de integrales definidas si el
integrando tiene el comportamiento requerido. Como un ejemplo, las integrales seno y coseno
estan definidas por
Z
cos t
dt ,
(4.179)
Ci(x) =
t
x

si(x) =

sen t
dt ,
t

Combinando estas con funciones trigonometricas regulares, podemos definir


Z
sen(x)
f (x) = Ci(x) sen(x) si(x) cos(x) =
y+x
Z0
cos(x)
g(x) = Ci(x) cos(x) si(x) sin(x) =
y+x
0

(4.180)

(4.181)

con la nueva variable y = t x. Llevando a variable compleja, tenemos


g(x) + if (x) =
=

Z0
0

eiy
dy
y+x
iexu
du
1 + iu

(4.182)


4.11. SERIES ASINTOTICAS
O SEMICONVERGENTES.

155

en el cual u = iy/x. Los lmites de integracion, 0 a , a mas que de 0 a i, puede ser


justificado por el teorema de Cauchy. Racionalizando el denominador e igualando las parte
reales y las parte imaginarias, obtenemos
Z xu
ue
g(x) =
du ,
1 + u2
0
Z xu
(4.183)
e
f (x) =
du .
1 + u2
0
La convergencia de las integrales requiere que Re(x) > 0.8
Ahora, desarrollamos la expansion asintotica, sea v = xu y expandimos el factor [1 +
(v/x)2 ]1 por el teorema del binomio. Tenemos
1
f (x)
x

ev

1
g(x) 2
x

(1)n

0nN

Z
0

nv

(1)

0nN

v 2n
1 X
(2n)!
dv
=
(1)n 2n
2n
x
x 0nN
x
2n+1

x2n

1 X
(2n + 1)!
dv = 2
(1)n
.
x 0nN
x2n

(4.184)

De las ecuaciones (4.181) y (4.184)


Ci(x)

(2n)! cos(x) X
(2n + 1)!
sen(x) X
(1)n 2n
(1)n
2
x 0nN
x
x
x2n
0nN

cos(x) X
(2n)! sen(x) X
(2n + 1)!
si(x)
(1)n 2n
(1)n
,
2
2n
x 0nN
x
x
x
0nN

(4.185)

las expansiones asintoticas deseadas.


La tecnica de expandir el integrando de una integral definida e integrar termino a termino
lo volveremos a aplicar para desarrollar una expansion asintotica de la funcion de Bessel modificada Kv y tambien para las expansiones de las dos funciones hipergeometricas confluentes
M (a, c; x) y U (a, c; x).

4.11.3

Definici
on de series asint
oticas.

El comportamiento de estas series (ecuaciones (4.172) y (4.185)) en consistencia con las


propiedades definidas para una serie asintotica9 . Siguiendo a Poincare, tomamos
xn Rn (x) = xn [f (x) sn (x)] ,

(4.186)

donde
sn (x) = a0 +
8
9

a1 a2
an
+ 2 + + n .
x
x
x

La parte real.
No es necesario que las series asint
oticas sean series de potencia.

(4.187)

CAPITULO 4. SERIES INFINITAS.

156

La expansion asintotica de f (x) tiene las propiedades que


lim xn Rn (x) = 0 ,

para n fijo,

(4.188)

lim xn Rn (x) = ,

para x fijo,

(4.189)

Vemos la ecuaciones (4.172) y (4.173) como un ejemplo de estas propiedades. Para series
de potencias, como las supuestas en la forma de sn (x), Rn (x) xn1 . Con condiciones
((4.188)) y ((4.189)) satisfechas, escribimos
f (x)

X
n=0

an

1
.
xn

(4.190)

Notemos el uso de en lugar de =. La funcion f (x) es igual a la serie solamente en el lmite


cuando x .
Las expansiones asintoticas de dos funciones pueden ser multiplicadas entre si y el resultado sera una expansion asintotica de un producto de dos funciones.
La expansion asintotica de una funcion dada f (t) puede ser integrada termino a termino
(justo como en una serie uniformemente convergente de unaRfuncion continua) a partir de

x t < y el resultado sera una expansion asintotica de x f (t)dt. Una diferenciacion


termino a termino, sin embargo, es valida solamente bajo condiciones muy especiales.
Algunas funciones no poseen una expansion asintotica; ex es un ejemplo de tales funciones. Sin embargo, si una funcion tiene una expansion asintotica, tiene solamente una.
La correspondencia no es uno a uno; muchas funciones pueden tener la misma expansion
asintotica.
Uno de los metodos mas poderoso y u
til de generar expansiones asintoticas, es el metodo
de steepest descents, sera desarrollado mas adelante. Las aplicaciones incluyen la derivacion
de la formula de Stirling para la funcion factorial (completa) y las formas asintoticas de las
varias funciones de Bessel. Las series asintoticas ocurren a menudo en fsica matematica. Una
de las aproximaciones mas primeras y a
un importante de mecanica cuantica, la expansion
WKB, es una serie asintotica.

4.11.4

Aplicaciones a c
alculo num
erico.

Las series asintoticas son usadas frecuentemente en el calculo de funciones por los computadores. Este es el caso de las funciones de Neumann N0 (x) y N1 (x), y las funciones modificadas
de Bessel In (x) y Kn (x). Las series asintoticas para integrales del tipo exponencial, ecuacion
(4.176), para las integrales de Fresnel, y para la funcion de error de Gauss, son usadas para
la evaluacion de estas integrales para valores grandes del argumento. Cuan grande debera
ser el argumento depende de la precision requerida.

4.12. PRODUCTOS INFINITOS.

4.12

157

Productos infinitos.

Consideremos una sucesion de factores positivos f1 f2 f3 f4 fn (fi > 0). Usando


may
uscula para indicar el producto, tenemos
f1 f2 f3 f4 fn =

n
Y

fi .

(4.191)

i=1

Definimos pn , como el producto parcial, en analoga con sn la suma parcial,


pn =

n
Y

fi ,

(4.192)

i=1

y entonces investigamos el lmite


lim pn = P .

(4.193)

Si P es finito (pero no cero), decimos que el producto infinito es convergente. Si P es infinito


o cero, el producto infinito es etiquetado como divergente.
Ya que el producto divergera a infinito si
lim fn > 1

(4.194)

0 < lim fn < 1 ,

(4.195)

o a cero para
n

es conveniente escribir nuestro producto como

(1 + an ) .

n=1

La condicion an 0 es entonces una condicion necesaria (pero no suficiente) para la convergencia.


El producto infinito puede ser relacionado a una serie infinita por el metodo obvio de
tomar el logaritmo
ln

(1 + an ) =

n=1

ln(1 + an ) .

(4.196)

n=1

Una relacion mas u


til es probada por el siguiente teorema.

4.12.1

Convergencia de un producto infinito.

Si 0 an < P
1, el producto infinito
y diverge si
n=1 an diverge.

n=1 (1+an ) y

n=1 (1an ) converge si

n=1

an converge

CAPITULO 4. SERIES INFINITAS.

158

Considerando el termino 1 + an , vemos que de la ecuacion (4.80)


1 + an ean .

(4.197)

pn esn ,

(4.198)

Por lo tanto el producto parcial pn

y haciendo n ,

(1 + an ) exp

n=1

an .

(4.199)

n=1

estableciendo una cota superior para el producto infinito.


Para desarrollar una cota mas baja, notemos que
pn = 1 +

n
X

ai +

i=1

n
n X
X

ai aj + > s n ,

(4.200)

(4.201)

i=1 j=1

ya que ai 0. De modo que

(1 + an )

an

n=1

n=1

Si la suma infinita permanece finita, el producto infinito tambien lo hara. Si la suma infinita
diverge, tambi
en lo hara el producto infinito.
Q
El caso de (1an ) es complicado por el signo negativo, pero una prueba de que depende
de la prueba anterior puede ser desarrollada notando que para an < 1/2 (recuerde que an 0
para convergencia)
(1 an )

1
1 + an

y
(1 an )

4.12.2

1
.
1 + 2an

(4.202)

Funciones seno, coseno y gama.

El lector reconocera que un polinomio de orden n Pn (x) con n raices reales puede ser escrito
como un producto de n factores:
n
Y
Pn (x) = (x x1 )(x x2 ) (x xn ) =
(x xi ) .

(4.203)

i=1

De la misma manera podemos esperar que una funcion con un n


umero infinito de raices
pueda ser escrito como un producto infinito, un factor para cada raiz. Esto es por cierto el

4.12. PRODUCTOS INFINITOS.

159

caso de las funciones trigonometricas. Tenemos dos representaciones muy u


tiles en productos
infinitos,


Y
x2
sen(x) = x
1 2 2 ,
(4.204)
n
n=1

Y
cos(x) =
1
n=1

4x2
(2n 1)2 2

(4.205)

La mas conveniente y quizas la mas elegante derivacion de estas dos expresiones es usando
variable compleja. Por nuestro teorema de convergencia, las ecuaciones (4.204) y (4.205) son
convergentes para todos los valores finitos de x. Especficamente, para el producto infinito
para el sen(x), an = x2 /n2 2 ,

x2
x2 X 1
=
(2)
an = 2
n=1 n2
2
n=1

(4.206)

x2
=
.
6
La serie correspondiente a la ecuacion (4.205) se comporta en una manera similar.
La ecuacion (4.204) conduce a dos resultados interesantes. Primero, si fijamos x = /2,
obtenemos




Y
1
Y (2n)2 1
1=
1
=
.
(4.207)
2 n=1
(2n)2
2 n=1
(2n)2
Resolviendo para /2, obtenemos


Y
(2n)2
22 44 66
=
=

,
2 n=1 (2n 1)(2n + 1)
13 35 57

(4.208)

la cual es la famosa formula de Wallis para /2.


El segundo resultado involucra la funcion factorial o funcion gama. Una definicion de la
funcion gama es
"
#

 x 1
Y
x
(x) = xex
1+
er
,
(4.209)
r
r=1
donde es la constante de Euler-Mascheroni, seccion 4.2. Si tomamos el producto de (x) y
(x), la ecuacion (4.209) tiende a
"
#


 x
 x 1
Y
Y
x
x
(x)(x) = xex
1+
e r xex
er
1
r
r
r=1
r=1
(4.210)
" 
#1

2
Y
x
.
= x2
1 2
r
r=1

CAPITULO 4. SERIES INFINITAS.

160

Usando la ecuacion (4.204) con x reemplazado por x, obtenemos


(x)(x) =

.
x sen(x)

(4.211)

Anticipando una relacion de recurrencia desarrollada posteriormente, tenemos que usando


x(x) = (1 x). La ecuacion (4.211) puede ser escrita como
(x)(1 x) =

.
sen(x)

(4.212)

Esto sera u
til cuando tratamos la funcion gama.
Estrictamente hablando, podramos chequear el intervalo en x para el cual la ecuacion
(4.209) es convergente. Claramente, para x = 0, 1, 2, . . . los factores individuales se
anulan. La prueba que el producto infinito converge para todos los otros valores (finitos) de
x es dejado como ejercicio.
Estos productos infinitos tienen una variedad de usos en matematica analtica. Sin embargo, a causa de su lentitud de convergencia, ellas no son aptas para un trabajo numerico
preciso.

Captulo 5
Funciones de una variable compleja I.
Propiedades analticas y Mapeo.
versi
on final 1.2-2606021

Veamos ahora el estudio de funciones de una variable compleja. En esta area desarrollamos
alguna de las herramientas mas poderosas y u
tiles de todo el analisis matematico.
1. Para muchos pares de funciones u y v, ambas satisfacen la ecuacion de Laplace
2 =

2 (x, y) 2 (x, y)
+
=0.
x2
y 2

De modo que u o v pueden ser usados para describir un potencial electroestatico bidimensional. La otra funcion que da una familia de curvas ortogonales a aquella de la
~ Una situacion
primera funcion, puede ser usada para describir el campo electrico E.
similar se mantiene para la hidrodinamica de un fluido ideal en movimiento irrotacional. La funcion u podra describir el potencial de velocidades, mientras que la funcion
v podra entonces ser la funcion de flujo.
En muchos casos en que las funciones u y v son desconocidas, un mapeo conforme o
transformacion en el plano complejo nos permite crear un sistema de coordenadas hecho
a la medida para el problema en particular.
2. Veremos que ecuaciones diferenciales de segundo orden de interes en Fsica pueden ser
resueltas por series de potencia. Las mismas series de potencia pueden ser usadas en
el plano complejo reemplazando x por la variable compleja z. La dependencia de la
solucion f (z) de un z0 dado sobre el comportamiento de f (z) en todas partes nos da
un mayor discernimiento del comportamiento de nuestra solucion y una herramienta
poderosa (continuacion analitica) para extender la region en la cual la solucion es valida.
3. El cambio de un parametro k de real a imaginario, k ik, transforma la ecuacion
de Helmholtz en la ecuacion de difusion. El mismo cambio transforma las soluciones
de la ecuacion de Helmholtz (funciones de Bessel y funciones esfericas de Bessel) en
las soluciones de la ecuacion de difusion (funciones de Bessel modificada y funciones
esfericas modificadas de Bessel).
4. Las integrales en el plano complejo tienen una amplia variedad de aplicaciones u
tiles.
1

Este captulo est


a basado en el sexto captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.

161

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

162

(a) Evaluacion de integrales definidas.


(b) Inversion de series de potencia.
(c) Formacion de productos infinitos.
(d) Obtener soluciones de ecuaciones diferenciales para valores grandes de la variable
(soluciones asintoticas).
(e) Investigacion de la estabilidad de sistemas potencialmente oscilatorios.
(f) Inversion de transformadas integrales.
5. Muchas cantidades fsicas que originalmente fueron reales se convierten en complejas
cuando una teora fsica simple se generaliza. Los ndices reales de difraccion de la luz
se convierte en una cantidad compleja cuando la absorcion es incluida. La energa real
asociada con un nivel de energa se convierte en compleja cuando la vida media finita
del nivel es considerado.

5.1

Algebra compleja.

Un n
umero complejo
es nada mas que un par ordenado de dos n
umeros reales, (a, b) o a + ib,

en el cual i es 1. Similarmente, una variable compleja es un par ordenado de dos variables


reales,
z = (x, y) = x + iy .

(5.1)

Veremos que el orden es importante, que en general a + bi no es igual a b + ai y x + iy no


es igual a y + xi.2 Frecuentemente es conveniente emplear una representacion grafica de la
variable compleja. Graficando x la parte real de z como la abscisa e y la parte imaginaria de
z como la ordenada, tenemos el plano complejo o plano Argand mostrado en la figura 5.1. Si
asignamos valores especficos a x e y, entonces z corresponde a un punto (x, y) en el plano.
En terminos del ordenamiento mencionado antes, es obvio que el punto (x, y) no coincide con
el punto (y, x) excepto para el caso especial de x = y.

y
(x,y)

y
r

x
x

Figura 5.1: Plano complejo, diagrama de Argand.

El algebra de los n
umeros complejos, a + ib es isom
orfica con la de las matrices de la forma


a b
b a

5.1. ALGEBRA COMPLEJA.

163

Todo nuestro analisis de variable compleja puede ser desarrollado en terminos de pares
ordenados de n
umeros (a, b), variables (x, y), y funciones (u(x, y), v(x, y)). La i no es necesaria
pero es conveniente. Sirve para mantener el par en orden algo como un vector unitario. De
modo que la suma y la multiplicacion de n
umeros complejos puede estar definida en terminos
de sus componentes cartesianas como
z1 + z2 = (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 )
= x1 + x2 + i(y1 + y2 ) ,

(5.2)

z1 z2 = (x1 , y1 ) (x2 , y2 ) = (x1 x2 y1 y2 , x1 y2 + x2 y1 ) .

(5.3)

De la figura 5.1 podemos escribir


x = r cos()
y = r sen()

(5.4)

z = r(cos() + i sen()) .

(5.5)

Usando un resultado que fue sugerido (pero no rigurosamente probado) en la seccion 4.6,
tenemos la muy u
til representacion polar
z = rei .

(5.6)

En esta representacion r es llamado el modulo o magnitud de z (r = |z| = (x2 + y 2 )1/2 ) y el


angulo (= tan1 (y/x)) se conoce como argumento arg(z) o fase de z.
La eleccion de la representacion polar, ecuacion (5.5), o representacion cartesiana, la ecuacion (5.1), es un asunto de conveniencia. La suma y la resta de variables complejas son mas
faciles en representacion cartesiana, ecuacion (5.2). La multiplicacion, division, potencias,
y raices son mas faciles en la forma polar, ecuacion (5.6). Analticamente o graficamente,
usando la analoga vectorial, podemos mostrar que el modulo de la suma de dos n
umeros
complejos no es mayor que la suma del modulo y no es menor que la diferencia, ejercicio,
|z1 | |z2 | |z1 + z2 | |z1 | + |z2 | .

(5.7)

A causa de la analoga vectorial, estas son llamadas las desigualdades triangulares.


Usando la forma polar, ecuacion (5.5), encontramos que la magnitud de un producto es
el producto de las magnitudes,
|z1 | |z2 | = |z1 z2 | .

(5.8)

arg(z1 z2 ) = arg(z1 ) + arg(z2 ) .

(5.9)

Tambien,

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

164

A partir de nuestra variable compleja z las funciones complejas f (z) o w(z) pueden ser
construidas. Estas funciones complejas pueden ser resueltas en su parte real y su parte
imaginaria
w(z) = u(x, y) + iv(x, y) ,

(5.10)

en la cual las funciones separadas u(x, y) y v(x, y) son reales puras. Por ejemplo, si f (z) = z 2 ,
tenemos
f (z) = (x + iy)2
= (x2 y 2 ) + i2xy .
La parte real de la funcion f (z) sera etiquetida <[f (z)], mientras la parte imaginaria sera
etiquetada =[f (z)]. En la ecuacion (5.10)
<[w(z)] = u(x, y) , =[w(z)] = v(x, y) .
La relacion entre la variable independiente z y la variable dependiente w es quizas mejor
representada como una operacion de mapeo. Dado un z = x + iy, un punto en el plano z. El
valor complejo w(z) es entonces un punto en el plano w. Puntos en el plano z se mapean en
puntos en el plano w y curvas en el plano z se mapean en curvas en el plano w como indica
la figura 5.2.

plano z

plano w

2
1

Figura 5.2: La funcion w(z) = u(x, y) + iv(x, y) mapea puntos en el plano xy en puntos en
el plano uv.

5.1.1

Conjugaci
on compleja.

En todos estos pasos, n


umeros complejos, variables, y funciones, la operacion de reemplazar
i por i es llamada tomar el complejo conjugado. El complejo conjugado de z se denota
por z , donde3
z = x iy .
3

El complejo conjugado es a menudo denotado por z

(5.11)

5.1. ALGEBRA COMPLEJA.

165

La variable compleja z y su complejo conjugado z es una imagen especular la una de la otra


reflejadas por el eje x, esto es, inversion del eje y (compare la figura 5.3). El producto zz es
zz = (x + iy)(x iy) = x2 + y 2 = r2 .

(5.12)

De modo que
(zz )1/2 = |z|,
la magnitud de z
y
z

(x,y)

z*

(x,y)

Figura 5.3: Puntos de complejos conjugados.

5.1.2

Funciones de una variable compleja.

Todas las funciones elementales de variables reales pueden ser extendidas al plano complejo
reemplazando la variable real x por la variable compleja z. Esto es un ejemplo de la continuacion analtica mencionada en la seccion 5.5. La relacion extremadamente importante,
ecuaciones (5.5) y (5.6), es una ilustracion de esto. Moverse en el plano complejo abre nuevas
oportunidades para analisis.
Ejemplo Formula de Moivre.
Si la ecuacion (5.6) es elevada a la n-esima potencia, tenemos
ein = (cos() + i sen())n .

(5.13)

Expandiendo la exponencial ahora con argumento n, obtenemos


cos(n) + i sen(n) = (cos() + i sen())n .

(5.14)

Esta es la formula de Moivre.


Ahora si el lado derecho de la ecuacion (5.14) es expandido usando el teorema del binomio,
obtenemos cos(n) como una serie de potencias de cos() y sen(). Numerosos de otros
ejemplos de relaciones entre funciones exponenciales, hiperbolicas y trigonometricas en el
plano complejo podemos encontrarlas como ejercicios. Ocasionalmente hay complicaciones.
El logaritmo de una variable compleja puede ser expandida usando la representacion polar
ln(z) = ln(rei )
= ln(r) + i .

(5.15)

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

166

Esto no esta completo. Al angulo fase , podemos a


nadirle alg
un m
ultiplo entero de 2 sin
cambiar z. Luego la ecuacion (5.15) debera leerse

ln z = ln rei(+2n)
(5.16)
= ln(r) + i( + 2n) .
El parametro n puede ser cualquier entero. Esto significa que ln z es una funcion multivaluada
teniendo un n
umero infinito de valores para una pareja de valores reales de r y . Para evitar
esta ambig
uedad, usualmente concordamos a tomar n = 0 y limitar la fase a un intervalo de
longitud 2 tal como (, )4 . La lnea en el plano z que no es cruzada, el eje real negativo
en este caso, es conocida como lnea de corte o de ramificaci
on. El valor de ln z con n = 0
es llamado valor principal de ln z. Mas adelante discutiremos estas funciones, incluyendo el
logartmo, aparece en la seccion 5.6.

5.2

Condiciones de Cauchy-Riemann.

Habiendo establecido las funciones complejas de una variable compleja, ahora procederemos
a derivarlas. La derivada de f (z), como la de una funcion real, esta definida por
f (z + z) f (z)
f (z)
df
= lim
=
z0
z0 z
z + z z
dz
lim

o f 0 (z) ,

(5.17)

a condicion que el lmite sea independiente de la forma de aproximacion particular al punto


z. Para variables reales requerimos que el lmite por la derecha (x x0 desde arriba) y el
lmite por la izquierda (x x0 desde abajo) sea iguales para que la derivada df (x)/dx exista
en x = x0 . Ahora, con z (o z0 ) alg
un punto en el plano, nuestro requerimiento de que el
lmite sea independiente de la direccion de aproximacion es muy restrictiva.
Consideremos incrementos x y y de las variables x e y, respectivamente. Entonces
z = x + iy .

(5.18)

f = u + iv ,

(5.19)

f
u + iv
=
.
z
x + iy

(5.20)

Tambien,

tal que

Tomemos el lmite indicado en la ecuacion (5.17) por dos aproximaciones diferentes como
muestra la figura (5.4). Primero, con y = 0, sea x 0. La ecuacion (5.17) tiende


f
u
v
lim
= lim
+i
z0 z
x0
x
x
(5.21)
u
v
+i
,
=
x
x
4

Hay elecciones inusuales de fase. La fase apropiada depende de cada problema.

5.2. CONDICIONES DE CAUCHY-RIEMANN.

x
y=0

167

z0
x=0
y 0
x

Figura 5.4: Aproximaciones alternativas a z0 .

suponiendo que las derivadas parciales existen. Para una segunda aproximacion, fijamos
x = 0 y entonces hacemos y 0. Esto tiende a


f
u v
lim
= lim i +
z0 z
y0
y y
(5.22)
u v
+
.
= i
y y
Para tener una derivada df /dz, las ecuaciones (5.21) y (5.22) deben ser identicas. Igualando
parte real a parte real y parte imaginaria con imaginaria (como los componentes del vector),
obtenemos
u
v
=
x
y

u
v
=
.
y
x

(5.23)

Estas son las famosas condiciones de Cauchy-Riemann. Ellas fueron descubiertas por Cauchy
y usadas ampliamente por Riemannn en su teora de funciones analticas. Estas condiciones
son necesarias para la existencia de una derivada de f (z), esto es, si df /dz existe, la condicion
de Cauchy-Riemann debe satisfacerse.
Inversamente, si las condiciones de Cauchy-Riemann se satisfacen y la derivada parcial de
u(x, y) y v(x, y) son continuas, la derivada df /dz existe. Esto puede ser mostrado escribiendo




u
v
u
v
f =
+i
x +
+i
y .
(5.24)
x
x
y
y
La justificacion para esta expresion depende de la continuidad de la derivada parcial de u y
v. Dividiendo por z, tenemos
f
(u/x + i(v/x))x + (u/y + i(v/y))y
=
z
x + iy
(u/x + i(v/x)) + (u/y + i(v/y))y/x
=
1 + i(y/x)

(5.25)

Si f /z tiene un valor u
nico, la dependencia de y/x debera eliminarse. Aplicando las
condiciones de Cauchy-Riemann a las derivadas de y obtenemos
v
v
u
u
+i
=
+i
.
y
y
x
x

(5.26)

168

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

Sustituyendo la ecuacion (5.26) y (5.25), podemos cancelar la dependencia y/x y


f
u
v
=
+i
,
z
x
x

(5.27)

la cual muestra que el lmite f /z es independiente de la direccion de aproximacion en el


plano complejo ya que las derivadas parciales son continuas.
Es digno de atencion notar que las condiciones de Cauchy-Riemann garantizan que las
curvas u = c1 seran ortogonales a las curvas v = c2 . Esto es fundamental en la aplicacion
de problemas de potencial en una variedad de areas de la Fsica. Si u = c1 es una lnea de
fuerza electrica, entonces v = c2 es una lnea equipotencial (superficie), y vice versa.
Funciones analticas.
Finalmente, se f (z) es diferenciable en z = z0 y en algunas peque
nas regiones alrededor
5
de z0 decimos que f (z) es analtica en z0 . Si f (z) es analtica en todo el plano complejo
(finito), la llamaremos una funcion entera. Nuestra teora de variables complejas aqu es
escencialmenteuna de funciones analticas de variables complejas, la cual destaca la importancia crucial de las condiciones de Cauchy-Riemann. El concepto de analiticidad presente
en teoras avanzadas de la fsica moderna, por ejemplo este concepto juega un rol crucial en
la teora de dispersion (de partculas elementales). Si f 0 (z) no existe en z = z0 , entonces z0
es conocido como punto singular.
Para ilustrar las condiciones de Cauchy-Riemann, consideremos dos ejemplos muy simples.
Ejemplo
Sea f (z) = z 2 . Entonces la parte real u(x, y) = x2 y 2 y la parte imaginaria v(x, y) = 2xy.
Siguiendo la ecuacion (5.23)
v
u
= 2x =
,
x
y

u
v
= 2y =
.
y
x

Vemos que f (z) = z 2 satisface las condiciones de Cauchy-Riemann a traves del plano complejo. Ya que las derivadas parciales son claramente continuas, concluimos que f (z) = z 2 es
analtica.
Ejemplo
Sea f (z) = z . Ahora u = x y v = y. Aplicando las condiciones de Cauchy-Riemann,
obtenemos
u
v
= 1 6=
.
x
y
Las condiciones de Cauchy-Riemann no son satisfechas y f (z) = z no es una funcion analtica
de z. Es interesante notar que f (z) = z es continua, aquello provee un ejemplo de una funcion
que es continua en todo lugar pero en ninguno diferenciable.
La derivada de una funcion real de una variable real es escencialmente una caracterstica
local, que provee informacion a cerca de la funcion solamente en un vecindario local por
5

Algunos autores usan el termino holom


orfica.

5.3. TEOREMA INTEGRAL DE CAUCHY.

169

ejemplo, como una expansion de Taylor truncada. La existencia de una derivada de una
funcion de una variable compleja tiene muchas mas implicancias de conocimiento lejano.
Las partes reales e imaginarias de nuestra funcion analtica debe satisfacer separadamente
las ecuaciones de Laplace. Mas a
un, nuestra funcion analtica esta garantizada para las
derivadas de todo orden, seccion 4.4. En este sentido las derivadas no solamente gobiernan el
comportamiento local de la funcion compleja, sino que controla el comportamiento distante
tambien.

5.3

Teorema integral de Cauchy.

5.3.1

Integrales de contorno.

Con la diferenciacion bajo control, veamos la integracion. La integral de una variable compleja
sobre un contorno en el plano complejo puede ser definida en cercana analoga a la integral
de (Riemann) de una funcion real integrada a lo largo del eje x real.
Dividimos el contorno z0 z00 en n intervalos tomando n 1 puntos intermedios z1 , z2 , . . . ,
sobre el contorno (figura 5.5). Consideremos la suma
Sn =

n
X

f (j )(zj zj1 ) ,

(5.28)

j=1

donde j es un punto sobre la curva entre zj y zj1 . Ahora hagamos n con


| zj zj1 | 0 ,
para todo j. Si el limn Sn existe y es independiente de los detalles de eleccion de los puntos
zj y j , entonces
lim

n
X

f (j )(zj zj1 ) =

z00

f (z) dz .

(5.29)

z0

j=1

El lado derecho de la ecuacion es llamado integral de contorno de f (z) (a lo largo del contorno
especfico C desde z = z0 a z = z00 ).
El procedimiento desarrollado para la integral de contorno es cercanamente analogo a
la integral de Riemann de una funcion real de una variable real. Como una alternativa, la
integral de contorno puede ser definida por
Z

z00

f (z) dz =

z0

x2 ,y2

Zx1x,y2 ,y1 2
x1 ,y1

[u(x, y) + iv(x, y)][dx + idy]


Z
[u(x, y)dx v(x, y)dy] + i

x2 ,y2

[v(x, y)dx + u(x, y)dy] ,

x1 ,y1

con el camino que une (x1 , y1 ) y (x2 , y2 ) espcificado. Esto reduce la integral compleja a la
suma compleja de integrales reales. Esto es algo analogo al reemplazo de una integral vectorial
por la suma de vectores de integrales escalares.

170

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

z0=zn

0
z0

z3

1
z1

z2
x

Figura 5.5: Camino de integracion.

R
Un ejemplo importante es la integral de contorno C z n dz, donde C es un crculo de radio
r > 0 alrededor del origen z = 0 en el sentido matematico positivo (en el sentido contrario a
los punteros del reloj). En coordenadas polares de la ecuacion (5.6) parametrizamos z = rei
y dz = irei d. Para n 6= 1 obtenemos
Z
Z
1
rn+1 2
n
z dz =
exp[i(n + 1)] d
2i C
2 0
(5.30)
 i(n+1) 2
rn+1
=
e
=0,
0
2i(n + 1)
ya que 2 es un perodo de ei(n+1) , mientras que para n = 1
Z
Z 2
1
dz
1
=
d = 1,
2i C z
2 0

(5.31)

nuevamente independiente de r. Estas integrales son ejemplos del teorema integral de Cauchy
el cual consideraremos en la proxima seccion.

5.3.2

Prueba del teorema de Stoke.

El teorema de la integral de Cauchy es el primero de dos teoremas basicos en la teora del


comportamiento de funciones de una variable compleja. Primero, una prueba bajo condiciones
relativamente restrictivas, condiciones que seran intolerables para matematicos desarrollando
una bella teora abstracta, pero que son satisfechas usualmente en problemas fsicos.
Si una funcion f (z) es analtica (por lo tanto simplemente valuada) y sus derivadas parciales son continuas a traves de una region simplemente conexa R,6 para cada camino cerrado
C (figura 5.6) en R la integral de f (z) alrededor de C es cero o
Z
I
f (z) dz =
f (z) dz = 0 .
(5.32)
C
6

Una regi
on o dominio simplemente conexo es aquel en el cual cada contorno cerrado en la regi
on encierra
solo puntos contenidas en ella. Si la regi
on no es simplemente conexa es multiplemente conexa. Como un
ejemplo de una regi
on multiplemente conexa, consideremos el plano z con el crculo unitario interior excludo.

5.3. TEOREMA INTEGRAL DE CAUCHY.

171

H
El smbolo es usado para enfatizar que el camino es cerrado. Recordemos que en el captulo
de vectores una funcion tal como f (z), identificada como una fuerza fue etiquetada como
conservativa.

y


Figura 5.6: Un contorno cerrado C dentro de una region R simplemente conexa.

En esta forma el teorema de la integral de Cauchy puede ser dado por aplicacion directa
del teorema de Stokes. Con f (z) = u(x, y) + iv(x, y) y dz = dx + idy,
I

f (z)dz =

(u + iv)(dx + idy)
I
I
= (udx vdy) + i (vdx + udy) .

(5.33)

Estas dos integrales de lnea pueden ser convertidas a integrales de superficie por el teorema
de Stokes, un procedimiento que es justificado si las derivadas parciales son continuas dentro
de C. Aplicando el teorema de Stokes podemos notar que las dos u
ltimas integrales de la
ecuacion (5.33) son completamente reales. Usando
V~ = xVx + yVy ,
tenemos
I
C

(Vx dx + Vy dy) =

Z 

Vy Vx

x
y

dxdy .

(5.34)

Para la primera integral en la u


ltima parte de la ecuacion (5.33) sea u = Vx y v = Vy .7
7

En la prueba del teorema de Stokes, Vx y Vy son cualquier par funciones (con derivadas parciales continuas).

172

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

Entonces
I

(udx vdy) =

(Vx dx + Vy dy)

Z 
Vy Vx
=

dxdy
x
y

Z 
v u
=

dxdy .
x y

(5.35)

Para la segunda integral del lado derecho de la ecuacion (5.33) sea u = Vy y v = Vx . Usando
nuevamente el teorema de Stokes, obtenemos

I
Z 
u v

dxdy .
(5.36)
(vdx + udy) =
x y
Aplicando las condiciones de Cauchy-Riemann que se deben satisfacer ya que f (z) se supone
analtica, cada integrando se anula y


I
Z 
Z 
v u
u v
f (z) dz =

dxdy + i

dxdy
x y
x y
(5.37)
=0.

5.3.3

Prueba de Cauchy-Goursat.

Esto completa la prueba del teorema integral de Cauchy. Sin embargo, la prueba esta estropeada desde el punto de vista teorico por la necesidad de continuidad de las primeras
derivadas parciales. Realmente, como se muestra por Goursat, esta condicion no es esencial.
Un perfil de la prueba de Goursat es como sigue. Subdividimos la region dentro del contorno
C en una red de peque
nos cuadrados como esta indicado en la figura 5.7. Luego
I
XI
f (z) dz =
f (z) dz ,
(5.38)
C

Cj

todas las integrales a lo largo de las lineas interiores se cancelan. Para atacar la
construimos la funcion

f (z) f (zj ) df (z)
j (z, zj ) =

,
z zj
dz z=zj

Cj

f (z)dz,

(5.39)

con zj un punto interno de la j-esima subregion. Note que [f (z) f (zj )]/(z zj ) es una
aproximacion a la derivada en z = zj . Equivalentemente, podemos notar que si f (z) tena
una expansion de Taylor (la cual todava no hemos dado), entonces j (z, zj ) sera del orden
de z zj , aproximandose a cero cuando la red fuera hecha muy fina. Podemos hacer
| j (z, zj ) | < ,
donde es una cantidad arbitrariamente escogida peque
na y positiva.

(5.40)

5.3. TEOREMA INTEGRAL DE CAUCHY.

173

C
Cj

x
Figura 5.7: Contorno de Cauchy-Goursat.

Resolviendo la ecuacion (5.39) para f (z) e integrando alrededor de Cj , obtenemos


I
I
f (z) dz =
(z zj )j (z, zj ) dz ,
(5.41)
Cj

Cj

las integrales de los otros terminos se anulan.8 Cuando las ecuaciones (5.40) y (5.41) estan
combinadas, uno puede mostrar que


XI



f (z)dz < A ,
(5.42)



Cj
j

donde A es un termino del orden del area de la region escogida. Ya que es arbitrario,
tomemos 0 y conclumos que si una funcion f (z) es analtica sobre y dentro de un
camino cerrado C,
I
f (z) dz = 0 .
(5.43)
Detalles de la prueba de esta forma significativamente mas general y poderosa puede ser
encontrada en la literatura de variable compleja (Churchill). Realmente podemos todava
comprobar el teorema para f (z) analtica dentro del interior de C y solamente continuas en
C.
La consecuencia del teorema integral de Cauchy es que para funciones analticas la integral
de lnea es una funcion solamente de sus puntos extremos, independiente del camino de
integracion,
Z z2
Z z1
f (z) dz = F (z2 ) F (z1 ) =
f (z) dz ,
(5.44)
z1

z2

de nuevo exactamente como el caso de la fuerza conservativa.


8

dz y

zdz = 0 por la ecuaci


on (5.30).

174

5.3.4

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

Regiones multiplemente conexas.

El enunciado original de nuestro teorema demanda una region simplemente conexa. Esta
restriccion puede ser facilmente relajada por la creacion de una barrera, una lnea de contorno.
Consideremos la region multiplemente conexa de la figura 5.8, en la cual f (z) no esta definida
para el interior de R0 . El teorema de la integral de Cauchy no es valido para el contorno
C, como lo demostramos, pero podemos construir un contorno C 0 para el cual el teorema se
mantenga. Dibujemos una lnea desde el interior de la region prohibida R0 a la region exterior
prohibida a R y luego corre un nuevo contorno C 0 , como se muestra en la figura 5.9.

y


x
Figura 5.8: Contorno cerrado C en una region multiplemente conexa.

y


C1


C2

G A
E D


x
Figura 5.9: Conversion de una region multiplemente conexa a una region simplemente conexa.

El nuevo contorno C 0 a traves de ABDEF GA nunca cruzara la lnea de contorno que


literalmente convierte a R en una region simplemente conexa. Por la ecuacion (5.44)
Z

f (z) dz =

f (z) dz ,

(5.45)


5.4. FORMULA
INTEGRAL DE CAUCHY.

175

f (z) sido continua a traves de la lnea de contorno y los segmentos de lnea DE y GA estan
arbitrariamente cerca. Entonces
I
Z
Z
f (z) dz =
f (z) dz +
f (z) dz
(5.46)
c0
ABD
EF G
=0
por el teorema integral de Cauchy, con la region R simplemente conexa. Aplicando la ecuacion
(5.44) una vez mas con ABD C10 y EF G C20 , obtenemos
I
I
f (z) dz =
f (z) dz ,
(5.47)
C10

C20

en la cual C10 y C20 ambos son recorridos en la misma direccion (de los punteros del reloj).
Debera enfatizarse que la lnea de contorno aqu es un asunto de conveniencia matematica para permitir la aplicacion del teorema integral de Cauchy. Ya que f (z) es analtica en
la region anular, es necesariamente univaluada y continua a traves de cualquier lnea de contorno. Cuando consideremos puntos de ramificacion nuestras funciones no seran univaluadas
y una lnea de corte sera requerida para hacerlas univaluadas.

5.4

F
ormula integral de Cauchy.

Como en la seccion anterior, consideremos una funcion f (z) que es analtica sobre un contorno
cerrado C y dentro de la region rodeada por C. Buscamos probar que
I
f (z)
dz = 2if (z0 ) ,
(5.48)
C z z0
en la cual z0 es alg
un punto en la region interior encerrada por C. Este es el segundo de los
dos teoremas basicos mencionados anteriormente. Note que z esta sobre el contorno de C
mientras z0 esta en el interior, luego z z0 6= 0 y la integral de la ecuacion (5.48) esta bien
definida.
Aunque f (z) se supone analtica, el integrando es f (z)/(z z0 ) y no es analtico en z = z0
a menos que f (z0 ) = 0. Si el contorno esta deformado como se muestra en la figura 5.10 se
aplica el teorema de la integral de Cauchy. Por la ecuacion (5.47)
I
I
f (z)
f (z)
dz
dz = 0 ,
(5.49)
C z z0
C2 z z0
donde C es el contorno externo original y C2 es el crculo circundante del punto z0 recorrido
en sentido contrario a los punteros del reloj. Sea z = z0 + rei , usando la representacion de
coordenadas polares a causa de la forma circular del camino en torno a z0 . Aqu r es peque
no
y eventualmente se aproximara a cero. Tenemos
I
I
f (z)
f (z0 + rei ) i
dz =
rie d .
rei
C2 z z0
C2

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

176

Lnea de contorno

C
z0
C2
x
Figura 5.10: Exclusion de un punto singular.

Tomando el lmite cuando r 0, obtemos


I
Z
f (z)
dz = if (z0 )
d
C2 z z0
C2
= 2if (z0 ) ,

(5.50)

ya que f (z) es analtica y por lo tanto continua en z = z0 . Esto prueba la formula de la


integral de Cauchy.
Este es un resultado notable. El valor de una funcion analtica f (z) esta dado en un
punto interior z = z0 una vez que los valores sobre el contorno C son especificados. Esto es
ntimamente analogo a una forma de la ley de Gauss bidimensional en la cual la magnitud
de una carga lineal interna estara dada en terminos de la integral de superficie cilndrica del
~
campo electrico E.
Una analoga adicional es la determinacion de una funcion en el espacio real por una integral de la funcion y la correspondiente funcion de Green (y sus derivadas) sobre la superficie
de contorno. La teora de difraccion de Kirchoff es un ejemplo de esto.
Ha sido enfatizado que z0 es un punto interior. Que ocurre si z0 es exterior a C?. En
este caso el integrando entero es analtico sobre y dentro de C. El teorema de la integral de
Cauchy, se aplica y la integral se anula. Tenemos
(
I
f (z0 ) ,
z0 interior
1
f (z) dz
=
2i C z z0
0,
z0 exterior

5.4.1

Derivadas.

La formula integral de Cauchy puede ser usada para obtener una expresion para la derivada
de f (z). A partir de la ecuacion (5.48), con f (z) analtica,
I

I
f (z0 + z0 ) f (z0 )
1
f (z)
f (z0 )
=
dz
dz .
z0
2iz0
z z0 z0
z z0


5.4. FORMULA
INTEGRAL DE CAUCHY.

177

Entonces, por definicion de la derivada (ecuacion (5.17)),


I
1
z0 f (z)
0
f (z0 ) = lim
dz
z0 0 2iz0
(z z0 z0 )(z z0 )
I
1
f (z)
=
dz .
2i
(z z0 )2

(5.51)

Podemos ver que este resultado podra haber sido obtenido por diferenciacion de la ecuacion
(5.48) bajo el signo integral con respecto a z0 .
Esta tecnica para construir derivadas puede ser repetida. Escribamos f 0 (z0 +z0 ) y f 0 (z0 ),
usando la ecuacion (5.51). Sustrayendo, dividiendo por z0 , y finalmente tomando el lmite
cuando z0 0, obtenemos
I
2
f (z)
(2)
dz .
f (z0 ) =
2i
(z z0 )3
Notemos que f 2 (z0 ) es independiente de la direccion de z0 como debe ser. Continuando,
obtenemos
I
n!
f (z)
(n)
f (z0 ) =
dz .
(5.52)
2i
(z z0 )n+1
esto es, el requerimiento que f (z) sea analtica no solo garantiza una primera derivada sino
que las derivadas de todos los ordenes tambien. Las derivadas de f (z) son automaticamente
analticas.

5.4.2

Teorema de Morera.

Otra aplicacion de la formula de la integral de Cauchy esta en la prueba del teorema de


Morera, el cual es la inversion del teorema de la integral de Cauchy. El teorema establece lo
siguiente:
H
Si una funcion f (z) es continua en una regi
on simplemente conexa R y c f (z)dz = 0
para cada contorno cerrado C dentro de R, entonces f (z) es analtica a traves de R.
Integremos f (z) desde z1 a z2 . Ya que cada integral cerrada de camino de f (z) se anula, la integral es independiente del camino y depende solamente de sus puntos extremos.
Etiquetemos el resultado de la integracion F (z), con
Z z2
F (z2 ) F (z1 ) =
f (z) dz .
(5.53)
z1

Como una identidad,


F (z2 ) F (z1 )
f (z1 ) =
z2 z1

R z2
z1

[f (t) f (z1 )] dt
z2 z1

usando t como otra variable compleja. Ahora tomemos el lmite cuando z2 z1 .


R z2
[f (t) f (z1 )] dt
lim z1
=0,
z2 z1
z2 z1

(5.54)

(5.55)

178

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

ya que f (t) es continua9 . Por lo tanto




F (z2 ) F (z1 )
= F 0 (z)
= f (z1 )
lim
z2 z1
z2 z1
z=z1

(5.56)

por definicion de derivada (ecuacion (5.17)). Hemos probado que F 0 (z) en z = z1 existe y es
igual a f (z1 ). Ya que z1 es cualquier punto en R, vemos que F (z) es analtica. Entonces por
la formula de la integral de Cauchy (compare la ecuacion (5.52)) F 0 (z) = f (z) es tambien
analtica, probando el teorema de Morera.
Dibujando una vez mas en nuestro analogo electroestatico, podramos usar f (z) para re~ Si la carga neta dentro de cada region encerrada en
presentar el campo electroestatico E.
R es cero (ley de Gauss), la densidad de carga es donde quiera igual a cero en R. Alternativamente, en terminos del analisis vectorial, si f (z) representa una fuerza conservativa (por
definicion de conservativa), y entonces encontramos que es siempre posible expresarla como
la derivada de una funcion potencial F (z).
P
Si f (z) = an z n es analtica y acotada, |f (z)| M sobre un crculo de radio r alrededor
del origen, entonces
| an | rn M

(5.57)

da cotas superiores para los coeficientes de su expansion de Taylor. Para probar la ecuacion
(5.57) definamos M (r) = max|z|=r |f (z)| y usemos la integral de Cauchy para an
Z

1
f (z)
2r
dz M (r)
.
| an | =

n+1
2 | z |=r z
2rn+1
Una consecuencia inmediata de la desigualdad (5.57) es el teorema de Liouville: Si f (z) es
analtica y acotada en el plano complejo ella es constante. En efecto, si |f (z)| M para
cualquier z, entonces la desigualdad de Cauchy (5.57) da |an | M rn 0 cuando r
para todo n > 0. De modo que f (z) = a0 .
Inversamente, la desviacion mas leve de una funcion analtica a partir de un valor constante
implica que debe haber al menos una singularidad en alguna parte del plano complejo infinito.
A parte de las funciones constantes triviales, entonces, las singularidades son un hecho de la
vida, y debemos aprender a vivir con ellas. Pero haremos mas que esto. Expandiremos una
funcion en una serie de Laurent en torno a una singularidad, y usaremos singularidades para
desarrollar el poderoso y u
til calculo del residuo en el proximo captulo.
P
El teorema fundamental del algebra, el cual dice que cualquier polinomio P (z) = nv=0 av z v
con n > 0 y an 6= 0 tiene n raices, tambien se deduce del teorema de Liouville. Suponga que
P (z) no tiene cero. Entonces, 1/P (z) es analtica y acotada cuando |z| . De modo que
f (z) es una constante por el teorema de Liouville, q.e.a. Por lo tanto P (z) tiene al menos una
raz por la cual puede ser dividida. Luego repetimos el proceso para el polinomio resultante
de grado n 1. Esto tiende a la conclusion que P (z) tiene exactamente n raices.
9

Podemos usar aqu el teorema del valor medio.

DE LAURENT.
5.5. EXPANSION

5.5
5.5.1

179

Expansi
on de Laurent.
Expansi
on de Taylor.

La formula de la integral de Cauchy de la seccion precedente abre el camino para otra derivacion de la serie de Taylor, pero esta vez para funciones de una variable compleja. Supongamos
que tratamos de expandir f (z) en torno a z = z0 y que tenemos z = z1 como el punto mas
cercano sobre el plano complejo para el cual f (z) no es analtica. Construimos un crculo C
centrado en z = z0 con radio |z 0 z0 | < |z1 z0 | (5.11). Ya que supusimos z1 como el punto
mas cercano en el cual f (z) no era analtica, f (z) es necesariamente analtica sobre y dentro
de C.

C
|z1z0 |
z0
|zz0 |

z1

Figura 5.11: Expansion en torno a z0 con z1 el primer punto en que f (z) no es analtica.

A partir de la ecuacion (5.48), la formula de la integral de Cauchy,


I
1
f (z 0 )dz 0
f (z) =
2i C z 0 z
I
1
f (z 0 )dz 0
=
2i C (z 0 z0 ) (z z0 )
I
f (z 0 )dz 0
1
.
=
2i C (z 0 z0 )[1 (z z0 )/(z 0 z0 )]

(5.58)

Aqu z 0 es un punto en el contorno de C y z es cualquier punto interior a C. No es rigurosamente legal expandir el denominador del integrando en la ecuacion (5.58) por el teorema
binomial, porque todava no hemos probado el teorema binomial para variables complejas.
En cambio, notemos la identidad

X
1
= 1 + t + t2 + t3 + =
tn ,
1t
n=0

(5.59)

la cual puede ser facilmente verificada multiplicando ambos lados por 1 t. La serie infinita,
siguiendo el metodo de la seccion 4.2, es convergente para |t| < 1.

180

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

Ahora para el punto z interior a C, |z z0 | < |z 0 z0 |, y usando la ecuacion (5.59), la


ecuacion (5.58) se convierte en
1
f (z) =
2i

I X

(z z0 )n f (z 0 )dz 0
(z 0 z0 )n+1
C n=0

(5.60)

Intercambiando el orden de la integracion y de la suma (valida ya que la ecuacion (5.59) es


uniformemente convergente para |t| < 1), obtenemos

1 X
f (z) =
(z z0 )n
2i n=0

I
C

f (z 0 )dz 0
(z 0 z0 )n+1

(5.61)

Usando la ecuacion (5.52),obtenemos


f (z) =

(z z0 )n

n=0

f (n) (z0 )
,
n!

(5.62)

la cual es nuestra expansion de Taylor deseada. Note que esta basada solamente en la
suposicion de que f (z) es analtica para |z z0 | < |z1 z0 |. Al igual que para series de
potencia de variable real, esta expansion es u
nica para un z0 dado.

5.5.2

Principio de Reflexi
on de Schwarz.

A partir de la expansion binomial de g(z) = (z x0 )n para n entero es facil ver que el


conjugado complejo de una funcion es la funcion del complejo conjugado, para x0 real
g (z) = ((z x0 )n ) = (z x0 )n = g(z ) .

(5.63)

Esto conduce al principio de reflexion de Schwarz: Si una funci


on f (z) es (1) analtica sobre
alguna regi
on incluyendo el eje real y (2) real cuando z es real, entonces
f (z) = f (z ) .

(5.64)

Ver figura 5.12.


Expandiendo f (z) alrededor de alg
un punto (no singular) x0 en el eje real,
f (z) =

X
n=0

nf

(z x0 )

(n)

(x0 )
,
n!

(5.65)

por la ecuacion (5.61). Ya que f (z) es analtica en z = x0 , esta expansion de Taylor existe.
Ya que f (z) es real cuando z es real, f (n) (x0 ) debe ser real para todo n. Luego cuando
usemos la ecuacion (5.63), la ecuacion (5.64), el principio de reflexion de Schwarz, sigue
inmediatamente.

DE LAURENT.
5.5. EXPANSION

181

u
f(z)=u(x,y)+iv(x,y)
=f*(z*)=u(x,y)iv(x,y)
v
f(z*)=u(x,y)+iv(x,y)
=f*(z)=u(x,y)iv(x,y)

Figura 5.12: Principio de reflexion de Schwarz.

5.5.3

Continuaci
on analtica.

Es natural pensar los valores f (z) de una funcion analtica f como una entidad u
nica que
usualmente esta definida en alguna region restringida S1 del plano complejo, por ejemplo una
serie de Taylor (ver figura 5.13). Entonces f es analtica dentro del crculo de convergencia
C1 , cuyo radio esta dado por la distancia r1 desde el centro de C1 a la singularidad mas
cercana de f en z1 (en figura 5.13). Si escogemos un punto dentro de C1 que este mas alla de
r1 desde la singularidad de z1 y hacemos una expansion de Taylor de f , luego el crculo de
convergencia C2 usualmente se extendera mas alla del primer crculo C1 . En la region que se
superponen ambos crculos C1 , C2 la funcion f esta definida en forma u
nica. En la region del
crculo C2 que se extiende mas alla de C1 , f (z) esta definida en forma u
nica por la serie de
Taylor en torno al centro de C2 y es analtica all, aunque la serie de Taylor en torno al centro
de C1 no es mas convergente all. Despues Weierstrass este proceso es llamado continuacion
analtica. Esta define la funcion analtica f en terminos de su definicion original (en C1 ) y
todas sus continuaciones.

y
S 2 z=z C2
2
x
z=z1

S1

C1

Figura 5.13: Continuacion analtica.

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

182

Un ejemplo especfico es la funcion merom


orfica
1
f (z) =
,
(5.66)
1+z
la cual tiene un polo simple en z = 1 y es analtica donde sea. La expansion de la serie
geometrica

X
1
2
= 1 z + z =
(z)n ,
(5.67)
1+z
n=0
converge para |z| < 1, i.e., dentro del crculo C1 en la figura 5.13. Supongamos que expandimos f (z) alrededor de z = i, tal que
1
1
1
=
=
1+z
1 + i + (z i)
(1 + i)(1 + (z i)/(1 + i))


(5.68)
2
z i (z i)
1
= 1
+
...
,
1 + i (1 + i)2
1+i

converge para |z i| < |1 + i| = 2. Nuestro crculo de convergencia es C2 en la figura


5.13. Ahora f (z) esta definida por la expansion (5.68) en S2 la cual se superpone a S1 y
se extiende mas alla en el plano complejo10 . Esta extension es una continuacion analtica, y
cuando tenemos solamente puntos singulares aislados con quien enfrentarnos, la funcion puede
ser extendida indefinidamente. Las ecuaciones (5.66),(5.67) y (5.68) son tres representaciones
diferentes de la misma funcion. Cada representacion tiene su propio dominio de convergencia.
La ecuacion (5.67) es una serie de Maclaurin. La ecuacion (5.68) es una expansion de Taylor
alrededor de z = i y desde el siguiente parrafo la ecuacion (5.66) se ve como una serie de
Laurent de un termino.
Una continuacion analtica puede ser tomada de muchas formas y la serie de expansion ya
consideradas no es necesariamente la tecnica mas conveniente. Como una tecnica alternativa
usaremos una relacion de recurrencia para extender la funcion factorial alrededor de los puntos
singulares aislados, z = n, n = 1, 2, 3, . . . .
f (z) =

5.5.4

Permanencia de la forma algebraica.

Todas nuestras funciones elementales, ez , sen(z), etc., pueden ser extendidas al plano complejo. Por ejemplo, ellas pueden ser definidas por expansiones de series de potencias tal
como

X
z2
zn
z
z
+ =
,
(5.69)
e =1+ +
1! 2!
n!
n=0
para la exponencial. Tales definiciones concuerdan con las definiciones de variable real a lo
largo del eje x y literalmente constituyen una continuacion analtica de las correspondientes
funciones reales en el plano complejo. Este resultado a menudo es llamado permanencia de
la forma algebraica
10

Uno de los m
as poderosos y hermosos resultados de la mas abstracta teora de funciones de variable
compleja es que si dos funciones analtica coinciden en una regi
on, tal como la intersecci
on de S1 y S2 , o
coinciden sobre cualquier segmento de lnea, ellas son la misma funci
on en el sentido que ellas coincidiran en
cualquier parte siempre que ambas esten bien definidas.

DE LAURENT.
5.5. EXPANSION

5.5.5

183

Serie de Laurent.

Frecuentemente encontramos funciones que son analticas en una region anular, es decir, de
radio interno r y radio externo R, como lo muestra la figura 5.14. Dibujando una lnea de

z(C1)

R
C2

C1

z0

z(C2)

Lnea de
contorno

Figura 5.14: |z 0 z0 |C1 > |z z0 |; |z 0 z0 |C2 < |z z0 |.

contorno auxiliar para convertir nuestra region en una region simplemente conexa, aplicamos
la formula integral de Cauchy, y para los dos crculos, C2 y C1 , centrados en z = z0 y con
radios r2 y r1 , respectivamente, donde r < r2 < r1 < R, tenemos11
I
I
1
f (z 0 )dz 0
1
f (z 0 )dz 0

.
(5.70)
f (z) =
2i C1 z 0 z
2i C2 z 0 z
Note cuidadosamente que en la ecuacion (5.70) un signo menos explcito ha sido introducido
as que el contorno C2 (como C1 ) sea recorridos en el sentido positivo (contra los punteros
del reloj). El tratamiento de la ecuacion (5.70) ahora procede exactamente como la ecuacion
(5.58) en el desarrollo de la serie de Taylor. Cada denominador escrito como (z 0 z0 )(z z0 )
y expandido por el teorema del binomio el cual ahora sigue a la serie de Taylor (ecuacion
(5.62)). Notando que para C1 , |z 0 z0 | > |z z0 | mientras que para C2 , |z 0 z0 | < |z z0 |,
encontramos

1 X
f (z) =
(z z0 )n
2i n=0

I
C1

f (z 0 )dz 0
1 X
+
(z z0 )n
(z 0 z0 )n+1 2i n=1

(z 0 z0 )n1 f (z 0 )dz 0 .

C2

(5.71)
El signo menos de la ecuacion (5.70) ha sido absorbido por la expansion binomial. Etiquetando la primera serie S1 y la segunda S2 ,

1 X
S1 =
(z z0 )n
2i n=0
11

I
C1

f (z 0 )dz 0
,
(z 0 z0 )n+1

(5.72)

Podemos tomar r2 arbitrariamente cerca de r y r1 arbitrariamente cerca de R, maximizando el area


encerrada por C1 y C2 .

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

184

la cual es la expansion de Taylor regular, convergente para |z z0 | < |z 0 z0 | = r1 , esto es,


para todo z interior del crculo, C1 . Para la segunda serie de la ecuacion tenemos
I

1 X
n
S2 =
(z z0 )
(z 0 z0 )n1 f (z 0 )dz 0
(5.73)
2i n=1
C2
convergente para |z z0 | > |z 0 z0 | = r2 , esto es, para todo z exterior al crculo mas peque
no
C2 . Recuerde, C2 ahora va en contra del sentido de los punteros del reloj.
Estas dos series pueden ser combinadas en una serie12 ( una serie de Laurent) por
f (z) =

an (z z0 )n ,

(5.74)

f (z 0 )dz 0
(z 0 z0 )n+1

(5.75)

n=

donde
1
an =
2i

I
C

Ya que, en la ecuacion (5.75), la convergencia de la expansion binomial ya no es un problema,


C puede ser cualquier contorno dentro de una region anular r < |z z0 | < R encerrando a
z0 una vez en sentido antihorario. Si suponemos que en una region anular la convergencia
existe, la ecuacion (5.74) es la serie de Laurent o la expansion de Laurent de f (z).
El uso de una lnea de contorno (figura 5.14) es conveniente para convertir la region anular
en una region simplemente conexa. Ya que nuestra funcion es analtica en esa region anular
(y por lo tanto univaluada), la lnea de contorno no es esencial y, por cierto, las funciones con
puntos de ramificacion deben tener lneas de corte. Los coeficientes de las series de Laurent
no necesitan venir de la evaluacion de las integrales de contorno ( las cuales pueden ser muy
difciles de trabajar). Otras tecnicas tales como las expansiones de series ordinarias pueden
dar los coeficientes.
Nos limitaremos a un ejemplo sencillo para ilustrar la aplicacion de la ecuacion (5.74).
Ejemplo
Sea f (z) = [z(z 1)]1 . Si escogemos z0 = 0, entonces r = 0 y R = 1, f (z) diverge en
z = 1. A partir de las ecuaciones (5.75) y (5.74)
I
1
dz 0
an =
2i
(z 0 )n+2 (z 0 1)n+1
I X
(5.76)

0
1
0 m dz
=
(z )
.
2i m=0
(z 0 )n+2
De nuevo, intercambiando el orden de la suma y la integracion (series uniformemente convergentes), tenemos
I
1 X
dz 0
an =
.
2i m=0 (z 0 )n+2m
12

Reemplazando n por n en S2 y sumando.

(5.77)

5.6. MAPEO.

185

Si empleamos la forma polar, como en la ecuacion (5.52)


I
riei d
1 X
an =
2i m=0 rn+2m ei(n+2m)

X
1
=
2i
n+2m,1 .
2i
m=0

(5.78)

En otras palabras,
(
1
an =
0

para n 1,
para n < 1.

(5.79)

La expansion de Laurent (ecuacion (5.74)) se convierte en


1
1
= 1 z z2 z3
z(z 1)
z

X
=
zn .

(5.80)

n=1

Para esta funcion simple la serie de Laurent puede, por su puesto, ser obtenida por una
expansion binomial directa.
La serie de Laurent difiere de la de Taylor por las caractersticas obvias de las potencias
negativas de (z z0 ). Por esta razon la serie de Laurent siempre divergira al menos en z = z0
y quizas en cuanto a alguna distancia mas alla de r (figura 5.14).

5.6

Mapeo.

En las seccciones precedentes hemos definido las funciones analticas y hemos desarrollado
alguna de sus principales caractersticas. A partir de estos desarrollo las relaciones integrales
del proximo captulo se derivan directamente. Aqu introducimos algunos de los aspectos mas
geometricos de las funciones de variables compleja, aspectos que seran u
tiles en la visualizacion de las operaciones integrales en el proximo captulo y que seran valiosas en s mismas
para resolver la ecuacion de Laplace en un sistema de dos dimensiones.
En geometra analtica com
un podemos tomar y = f (x) y graficar y versus x. Nuestro
problema aqu es mas complicado, porque z es una funcion de dos variables x e y. Usamos
la notacion
w = f (z) = u(x, y) + iv(x, y) ,

(5.81)

Entonces para un punto en el plano z (valores especficos de x e y) all puede corresponder


valores especficos para u(x, y) y v(x, y) los cuales producen luego un punto en el plano w.
As los puntos en el plano z transforman o son mapeados en puntos en el plano w, lneas
o areas en el plano z seran mapeados en lneas o areas en el plano w. Nuestro proposito
inmediato es ver cuantas lneas o areas mapean desde el plano z al plano w para un n
umero
de funciones simples.

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

186

5.6.1

Traslaci
on.
w = z + z0 .

(5.82)

La funcion w es igual a la variable z mas una constante, z0 = x0 + iy0 . Por las ecuaciones
(5.1) y (5.81)
u = x + x0 ,
v = y + y0 ,

(5.83)

representando una traslacion pura de los ejes de coordenadas como muestra la figura 5.15.

z
(x1 ,y1 )

w
(u1 ,v1 )
r
(x0 ,y0 )

Figura 5.15: Translacion.

5.6.2

Rotaci
on.
w = zz0 .

(5.84)

Aqu es conveniente volver a la representacion de coordenadas polares, usando


w = ei ,

z = rei

y z0 = r0 ei0 ,

(5.85)

entonces
ei = rr0 ei(+0 )

(5.86)

= rr0
= + 0 .

(5.87)

Dos cosas han ocurrido. Primero, el modulo r ha sido modificado, ya sea expandido o
contraido, por el factor r0 . Segundo, el argumento ha sido aumentado por la constante
aditiva 0 (figura 5.16). Esto representa una rotacion de la variable compleja en un angulo
0 . Para el caso especial de z0 = i, tenemos una rotacion pura en /2 radianes.

5.6. MAPEO.

187

(0,1)

= r r0
w

r0
r

(1,0)

=+ 0

Figura 5.16: Rotacion.

5.6.3

Inversi
on.
w=

1
.
z

(5.88)

Nuevamente, usando la forma polar, tenemos


ei =

1
1
= ei ,
i
re
r

(5.89)

la cual muestra que


=

1
,
r

= .

(5.90)

La primera parte de la ecuacion (5.90) muestra claramente una inversion. El interior del
crculo unitario es mapeado en el exterior y vice versa (figura 5.17). En suma, la segunda
parte de la ecuacion (5.90) muestra que el angulo polar se le invierte el signo. La ecuacion
(5.88), por lo tanto, tambien involucra una reflexion del eje y exactamente como la ecuacion
del complejo conjugado.
Para ver como las lneas en el plano z se transforman en el plano w, simplemente volvamos
a la forma cartesiana:
u + iv =

1
.
x + iy

(5.91)

Racionalizando el lado derecho multiplicando el numerador y el denominador por z y luego


igualando las partes reales e imaginarias, tenemos
x
u
u= 2
,
x= 2
,
2
x +y
u + v2
(5.92)
y
v
v= 2
,
y
=

.
x + y2
u2 + v 2
Un crculo centrado en el origen en el plano z tiene la forma
x2 + y 2 = r 2 ,

(5.93)

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

188

(0,1)

1
r

(0,1)
r

Figura 5.17: Inversion.

y por la ecuacion (5.92) se transforma en


u2
v2
+
= r2 .
(u2 + v 2 )2 (u2 + v 2 )2

(5.94)

Simplificando la ecuacion (5.94), obtenemos


u2 + v 2 =

1
= 2 ,
2
r

(5.95)

la cual describe un crculo en el plano w tambien centrado en el origen.


La lnea horizontal y = c1 se transforma en
(u2

v
= c1 ,
+ v 2 )2

(5.96)

v
1
1
+
=
c1 (2c1 )2
(2c1 )2

(5.97)

o
u2 + v 2 +

la cual describe un crculo en el plano w de radio (1/2)c1 y centrado en u = 0, v = 1/2c1


(figura 5.18).
Podemos probar otras posibilidades, x = c1 , y = c1 , o rotar los ejes xy. En general,
cualquier lnea recta o crculo en el plano z transformara en lnea recta o crculo en el plano
w.

5.6. MAPEO.

189

y=c1

4
4

3
2

(0,

1
2

c )

Figura 5.18: Inversion, lneacrculo.

5.6.4

Puntos de ramificaci
on y funciones multivaluadas.

Las tres transformaciones ya discutidas todas han involucrado una correspondencia uno a
uno de puntos en el plano z a puntos en el plano w. Ahora ilustraremos la variedad de
transformaciones que son posibles y los problemas que ellas puedan presentar, introduciremos
una correspondencia de dos a uno y luego una correspondencia de muchos a uno. Finalmente,
tomaremos los inversos de esas dos transformaciones.
Consideremos primero la transformacion
w = z2 ,

(5.98)

la cual conduce a
= r2 ,

= 2 .

(5.99)

Claramente, nuestras transformacion es no lineal, para el modulo es cuadrado, pero la caracterstica significante de la ecuacion (5.99) es que el angulo fase o argumento esta doblado.
Esto significa que:
primer cuadrante de z, 0 < /2 semi plano superior de w, 0 < ,
semi plano superior de z, 0 < plano completo de w, 0 < 2.
El semi plano inferior de z mapea sobre el ya cubierto el plano completo de w, cubriendo
el plano w por segunda vez. Esta es nuestra correspondencia dos a uno, dos puntos distintos
en el plano z, z0 y z0 ei = z0 , correspondiendo al punto u
nico w = z02 . En representacion
cartesiana
u + iv = (x + iy)2
= x2 y 2 + i2xy ,

(5.100)

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

190
produciendo

u = x2 y 2 ,
v = 2xy .

(5.101)

De modo que las lneas u = c1 , v = c2 en el plano w corresponden a x2 y 2 = c1 , 2xy = c2 ,


hiperbolas rectangular (y ortogonal) en el plano z (figura 5.19). Para cada punto sobre la

y
z

2xy=c 2
x 2 y2 = c1

u= c 1
v= c 2

Figura 5.19: Mapeo en coordenadas hiperbolicas.


hiperbola x2 y 2 = c1 en el semi plano derecho, x > 0, un punto sobre la lnea u = c1 tambien
corresponde a un punto sobre la hiperbola x2 y 2 = c1 y en el semi plano izquierdo, x < 0,
como se explico.
En la proxima seccion mostraremos que si las lneas en el plano w son ortogonales las
correspondientes lneas en el plano z tambien son ortogonales, ya que la trnasformacion es
analtica. Aunque u = c1 y v = c2 son construidas en forma perpendicular una a otra, las
correspondientes hiperbolas en el plano z son ortogonales. Literalmente hemos construido un
nuevo sistema ortogonal de lneas hiperbolicas (o superficies si a
nadimos un eje perpendicular
a x e y). Podra notarse que si las lneaas hiperbolicas son lneas de fuerza electrica o
magnetica, entonces tenemos un lente cuadrupolar u
til en enfocar haces de partculas de alta
energa. El inverso de la cuarta transformacion (ecuacion (5.98)) es
w = z 1/2 .

(5.102)

ei = r1/2 ei/2 ,

(5.103)

2 = ,

(5.104)

De la relacion

5.6. MAPEO.

191

ahora tenemos dos puntos en el plano w (argumentos y + ) corresponden a un punto


en el plano z (excepto para el punto z = 0). O, poniendolo de otra manera, y + 2
corresponden a y a + , dos puntos distintos en el plano w. Esto es en variable compleja
el analogo de la ecuacion en variable real simple y 2 = x, en la cual dos valores de y, mas y
menos, corresponden a cada valor de x.
El punto importante aqu es que podemos hacer la funcion w de la ecuacion (5.102) una
funcion univaluada en vez de una funcion bivaluada si acordamos en restringir a un rango
tal como 0 < 2. Esto puede ser hecho acordando nunca cruzar la lnea = 0 en el plano
z (figura 5.20). Cada una de las lneas de demarcacion es llamada una lnea de corte.

Lnea de corte

x
Figura 5.20: Lnea de corte.

La lnea de corte acopla las dos singularidades de puntos ramificados en 0 y , donde la


funcion es claramente no analtica. Cualquier lnea desde z = 0 a infinito servira igualmente
bien. El proposito de la lnea de corte es restringir el argumento de z. Los puntos z y
z exp(2i) coincide en el plano z pero produce diferentes puntos: w y w = w exp(i), en
el plano w. De modo que en ausencia de una lnea de corte la funcion w = z 1/2 es ambigua.
Alternativamente, aunque la funcion w = z 1/2 es bivaluada, tambien podemos pegar dos
hojas del plano complejo z junto a lo largo de la lnea de corte tal que arg(z) aumente mas
alla de 2 a lo largo de la lnea de corte bajar desde 4 sobre la segunda hoja hasta la partida
sobre la primera hoja. Esta construccion es llamada superficie de Riemann de w = z 1/2 .
Encontraremos puntos ramificados y lneas de corte frecuentemente en el proximo captulo.
La transformacion
w = ez ,

(5.105)

ei = ex+iy ,

(5.106)

= ex ,
=y .

(5.107)

produce

192

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

Si y pertenece a 0 y < 2 (o y < ), entonces cubre el mismo intervalo. Pero


esto es el plano w completo. En otras palabras, una franja horizontal en el plano z de ancho
2 mapea en el plano w entero. Mas amplio, cualquier punto (por la ecuacion (5.107)), en el
plano w. Tenemos una correspondencia de muchos a uno (infinitamente muchos). Finalmente,
el inverso de la quinta transformacion (ecuacion (5.105)), tenemos
w = ln z .

(5.108)

u + iv = ln rei
= ln r + i .

(5.109)

Expandiendola, tenemos

Para un punto z0 dado en el plano z el argumento es inespecfico dentro de un multiplo


entero de 2. Esto significa que
v = + 2n ,

(5.110)

y como en la transformacion exponencial, tenemos una correspondencia de muchos a uno.


La ecuacion (5.108) una simpatica representacion fsica. Si vamos alrededor del crculo
unitario en el plano z, r = 1 y por la ecuacion (5.109), u = ln r = 0; pero v = , y esta
aumentando establemente y contin
ua aumentando cuando contin
ua, pasado 2.
La lnea de corte acopla el punto ramificado en el origen con infinito. Cuando aumenta
pasado 2 pegamos una nueva hoja del plano complejo z a lo largo de la lnea de corte,
etc. Haciendo un recorrido alrededor del crculo unitario en el plano z es como avanza un
desatornillador como si rotara o la subida de una persona ascendiendo una escalera de espiral
(figura 5.21), la cual es la superficie de Riemann de w = ln z.

x
Figura 5.21: Esta es la superficie de Riemann para ln(z), una funcion multivaluada.

Como en el ejemplo precedente, tambien podemos hacer la correspondencia u


nica (y
ecuacion (5.108) inambigua) restringendo a un intervalo tal como 0 < 2 tomando la
lnea = 0 (eje real positivo) como una lnea de corte. Esto es equivalente a tomar una y
solamente una vuelta completa de la escalera de espiral.

5.7. MAPEO CONFORME

193

Esto a causa de la naturaleza multivaluada de ln z que la integral de contorno


I
dz
= 2i 6= 0 ,
z
integrando alrededor del origen.
El concepto de mapeo es amplio y u
til en matematicas. Nuestro mapeo del plano complejo
z a un plano complejo w es una generalizacion simple de una definicion de funcion: un mapeo
de x (a partir de un arreglo) en y en un segundo arreglo. Una forma mas sofisticada de mapeo
aparece cuando usamos la funcion delta de Dirac (x a) para mapear una funcion f (x) en
su valor en el punto a.

5.7

Mapeo conforme

En la seccion 5.6 las hiperbolas fueron mapeadas en lneas rectas y lneas rectas mapeadas en
crculos. A
un en todas esas transformaciones una caracterstica permanecio constante. Esta
constancia fue un resultado del hecho que todas las transformaciones de la seccion 5.6 eran
analticas. Ya que w = f (z) es una funcion analtica, tenemos
df
dw
w
=
= lim
z0
dz
dz
z

(5.111)

Suponiendo que esta ecuacion esta en una forma polar, podemos igualar el modulo al modulo
y el argumento al argumento. Para el u
ltimo (suponiedo que df /dz 6= 0)
w
w
= lim arg
z0 z
z0
z
= lim argw lim argz

arg lim

z0

= arg

z0

(5.112)

df
=,
dz

donde , el argumento de la derivada, puede depender de z pero es una constante para


un z fijo, independiente de la direccion de aproximacion. Para ver el significado de esto,
consideremos dos curvas, Cz en el plano z y la correspondiente curva Cw en el plano w (figura
5.22). El incremento z esta mostrado en un angulo relativo al eje real (x) mientras el
correspondiente incremento w forma un angulo de con el eje real (u). De la ecuacion
(5.112)
=+ ,

(5.113)

o cualquier lnea en el plano z es rotado a traves de un angulo en el plano w ya que w


es una transformacion analtica y la derivada es distinta de cero13 . Entonces para el angulo
entre estas dos lneas
2 1 = (2 + ) (1 + ) = 2 1 ,
13

(5.114)

Si df /dz = 0 las fases quedan indefinidas y la transformaci


on no necesariamente preservar
a los angulos.

CAPITULO 5. FUNCIONES DE UNA VARIABLE COMPLEJA I.

194

Cz
z0

planoz

z
x

w
w0

Cw
=+

planow u

Figura 5.22: Mapeo conforme preservacion de los angulos.

la cual muestra que el angulo incluido es preservado bajo una transformacion analtica. Tal
transformacion que preserva el angulo son llamadas conformes. El angulo de rotacion , en
general, dependera de z. Adicionalmente |f (z)| usualmente, sera una funcion de z.
Historicamente, estas transformaciones conformes han sido de gran importancia para los
cientficos e ingenieros en resolver la ecuacion de Laplace para problemas de electroestatica,
hidrodinamica, flujo de calor y etc. Desafortunadamente, el acercamiento por transformacion conformes, siempre elegante, esta limitada a problemas que pueden ser reducidos a dos
dimensiones. El metodo es a menudo bello si hay una alta simetra presente pero a menudo
imposible si la simetra esta rota o ausente. A causa de estas limitaciones y principalmente
a causa de la alta velocidad que los computadores que ofrecen una u
til alternativa (soluciones iterativas de la ecuaciones diferenciales parcial), los detalles y aplicaciones del mapeo
conforme son omitidas.

Captulo 6
Funciones de una variable compleja II.
C
alculo del residuo.
versi
on final 1.4-1207021

6.1

Singularidades.

En este captulo volvemos a la lnea de analisis que comenzamos con las condiciones de
Cauchy-Riemann en el captulo anterior y nos condujo a la expansion de Laurent. La expansion de Laurent representa una generalizacion de las series de Taylor en presencia de
singularidades. Definimos el punto z0 como un punto singular aislado de la funcion f (z) si
f (z) no es analtica en z = z0 pero es analtica en las cercanas del punto. Una funcion que es
analtica en el plano complejo entero finito excepto por polos aislados es llamada merom
orfica.

6.1.1

Polos.

En la expansion de Laurent de f (z) alrededor de z0


f (z) =

an (z z0 )n .

(6.1)

n=

Si an = 0 para todo n < m < 0 y am 6= 0, decimos que z0 es un polo de orden m. Por


ejemplo, si m = 1; esto es, si a1 /(z z0 ) es el primer termino no nulo en la serie de Laurent,
tenemos un polo de orden uno, a menudo llamado un polo simple.
Si, por otra parte, la suma continua en n = , entonces z0 es un polo de orden
infinito y es llamado una singularidad esencial. Estas singularidades esenciales tienen muchas
caractersticas patologicas. Por ejemplo, podemos mostrar que en cualquier peque
na vecindad
en torno a una singularidad esencial de f (z) la funcion f (z) llega a ser arbitrariamente cercana
a cualquier cantidad compleja seleccionada w0 . Literalmente, el plano w complejo es mapeado
en el entorno del punto z0 . Un punto de diferencia fundamental entre un polo de orden finito
y una singularidad esencial es que un polo de orden m puede ser removido multiplicando f (z)
por (z z0 )m . Esto obviamente no puede ser hecho para una singularidad esencial.
1

Este captulo est


a basado en el septimo captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.

195

196

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.

El comportamiento de f (z) cuando z esta definido en terminos de f (1/t) cuando


t 0. Consideremos la funcion
sen(z) =

X
(1)n z 2n+1
n=0

(2n + 1)!

(6.2)

Cuando z , reemplazamos la z por 1/t para obtener


  X

1
(1)n
sen
=
.
t
(2n + 1)!t2n+1
n=0

(6.3)

Claramente, a partir de la definicion, sen(z) tiene una singularidad esencial en infinito. Este
resultado podra anticiparse ya que
sen(z) = sen iy ,
= i senh y ,

cuando x = 0

el cual tiende a infinito en forma exponencial cuando y . Por lo tanto, aunque el valor
absoluto de sen x para x real es igual a o menor que uno, el valor absoluto de sen z no esta
acotado.

6.1.2

Puntos de ramificaci
on.

Hay otra tipo de singularidad que sera importante en las u


ltimas secciones de este captulo.
Consideremos
f (z) = z a ,
en el cual a no es un entero2 . Cuando z se mueve alrededor del crculo unitario desde e0 a
e2i ,
f (z) e2i 6= e0i ,
para a no entero. Como en el captulo anterior, tenemos un punto ramificado en el origen y
otro en infinito. Los puntos e0i y e2i en el plano z coinciden pero esos puntos coincidentes
producen valores diferentes de f (z); esto es, f (z) es una funcion multivaluada. El problema
es resuelto construyendo una lnea de corte uniendo ambos puntos de ramificacion tal que
f (z) este u
nicamente especificada para un punto dado en el plano z.
Note cuidadosamente que una funcion con un punto de ramificacion y una requerida lnea
de corte no sera continua a traves de la lnea de corte. En general, sera una fase diferente
sobre el lado opuesto de esa lnea de corte. De modo que las integrales de lneas sobre los
lados opuestos de estos puntos ramificados de la lnea de corte generalmente no se cancelaran
unas con otras.
2

z = 0 es tecnicamente un punto singular, para z a tiene un n


umero finito de derivadas, mientras una
funci
on analtica tiene garantizada un n
umero infinito de derivadas. El problema es que f (z) no es una
funci
on monovaluada cuando tomamos un crculo en torno al origen. La f
ormula integral de Cauchy no puede
ser aplicada.

6.1. SINGULARIDADES.

197

La lnea de contorno usada para convertir una region multiplemente conexa en una region
simplemente conexa es completamente diferente. Nuestra funcion es continua a traves de la
lnea de contorno, y no existen fases diferentes.
Ejemplo
Considere la funcion
f (z) = (z 2 1)1/2 = (z + 1)1/2 (z 1)1/2 .

(6.4)

El primer factor sobre el lado derecho, (z = 1)1/2 , tiene un punto de ramificacion en z = 1.


El segundo factor tiene un punto de ramificacion z = +1. En infinito f (z) tiene un polo
simple. La lnea de corte conecta ambos puntos ramificados. Consideremos la posibilidad de
tomar el segmento de lnea que une z = +1 y z = 1 como una lnea de corte, sigamos las
fases de estos dos factores cuando nos movemos a lo largo del contorno mostrado en la figura
6.1.

y
4

1 3
5

2 +1 1
6

Figura 6.1: Contorno que rodea a un par de puntos de ramificacion.

Por conveniencia en los siguientes cambios de fase sea z +1 = rei y z 1 = ei . Entonces


la fase de f (z) es ( + )/2. Comenzamos en el punto 1 donde ambos z + 1 y z 1 tienen
una fase de cero. Moviendose desde el punto 1 al punto 2, , la fase de z 1 = ei aumenta
por . (z 1 llega a ser negativo). luego permanece constante hasta que el crculo es
completado, moviendose desde 6 a 7. , la fase de z + 1 = rei muestra un comportamiento
similar aumentando por 2 cuando nos movemos desde 3 a 5. La fase de la funcion f (z) es
( + )/2. Esto es tabulado en la columna final de la tabla 6.1.
Dos caractersticas emergen;
1. La fase en los puntos 5 y 6 no es la misma que la de las fases de los puntos 2 y 3. Este
comportamiento puede ser esperado en una lnea de corte de punto ramificado.
2. La fase en el punto 7 excede a la del punto 1 por 2 y la funcion f (z) = (z 2 1)1/2
es por lo tanto univaluada para el contorno mostrado, circunscribiendo ambos puntos
ramificados.
Si tomamos el eje x 1 x 1 como una lnea de corte, f (z) esta unicamente especificada. Alternativamente, el eje x positivo para x > 1 y el eje x negativo para x < 1 puede ser
tomado como lnea de corte. Los puntos ramificados no pueden ser encerrados y la funcion
permanece univaluada.

198

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.


Punto
1
0
2
0
3
0
4

5
2
6
2
7
2

( + )/2
0
/2
/2

3/2
3/2
2

Tabla 6.1:
Generalizando a partir de este ejemplo, tenemos que la fase de una funcion
f (z) = f1 (z) f2 (z) f3 (z) . . .
es la suma algebraica de la fase de sus factores individuales:
arg[f (z)] = arg[f1 (z)] + arg[f2 (z)] + arg[f3 (z)] + . . . .
La fase de un factor individual puede ser tomada como el arcotangente de la razon de su
parte imaginaria y su parte real,
 
vi
1
arg[fi (z)] = tan
.
ui
Para el caso de un factor de la forma
fi (z) = (z z0 )
la fase corresponde a la fase angular de un vector bidimensional desde +z0 a z, la fase
aumenta en 2 cuando el punto +z0 es encerrado. Inversamente, la transversal de cualquier
loop cerrado que no encierre a z0 no cambia la fase de z z0 .

6.2
6.2.1

C
alculo del residuo.
Teorema del residuo.

P
n
Si la expansion de Laurent de una funcion f (z) =
ermino
n= an (z z0 ) es integrada t
a termino usando un contorno cerrado que circunscribe un punto singular z0 aislado en un
sentido antihorario, obtenemos
z
I
(z z0 )n+1 2
n
an (z z0 ) dz = an
n + 1 z1
(6.5)
=0

para todo n 6= 1 .


6.2. CALCULO
DEL RESIDUO.

199

Sin embargo, si n = 1,
a1

(z z0 )

dz = a1

irei d
= 2ia1 .
rei

Resumiendo las ecuaciones (6.5) y (6.6), tenemos


I
1
f (z) dz = a1 .
2i

(6.6)

(6.7)

La constante a1 , el coeficiente de (z z0 )1 en la expansion de Laurent, es llamada el residuo


de f (z) en z = z0 .

C2

C
C1

C0

Figura 6.2: Excluyendo singularidades aisladas.

Un conjunto de singularidades aisladas pueden ser manejada adecuadamente deformando


nuestro contorno como es mostrado en la figura 6.2. El teorema integral de Cauchy conduce
a
I
I
I
I
f (z) dz +
f (z) dz +
f (z) dz +
f (z) dz + = 0 .
(6.8)
C

C0

C1

C2

La integral cerrada en torno a cualquier punto singular es dada por la ecuacion (6.7).
I
f (z) dz = 2ia1,zi
(6.9)
Ci

suponiendo una expansion de Laurent en torno del punto singular, z = zi . El signo negativo
viene de la integracion en sentido horario como muestra la figura 6.2. Combinando las
ecuaciones (6.8) y (6.9), tenemos
I
f (z) dz = 2i(a1,z0 + a1,z1 + a1,z2 + )
(6.10)
C
= 2i(la suma de los residuos encerrados) .
Este es el teorema del residuo. El problema de evaluar una o mas integrales de contorno
es reemplazado por el problema algebraico del calculos de residuo en los puntos singulares
encerrados.

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.

200

El primer uso que le daremos al teorema del residuo es desarrollar el concepto del valor
principal de Cauchy. Entonces en el remanente de esta seccion aplicaremos el teorema del
residuo a una amplia variedad de integrales definidas de interes matematico y fsico. En la
seccion 6.3 el concepto del valor principal de Cauchy es usado para obtener las importantes
relaciones de dispersion . El teorema del residuo tambien sera necesario mas adelante para una
variedad de transformadas integrales, particularmente la transformada inversa de Laplace.
Usando la transformacion z = 1/w para w 0, podemos encontrar la naturaleza de la
singularidad en z y el residuo de una funcion f (z) con solo singularidades aisladas y
no en puntos ramificados. En tales casos conocemos que
X
residuos en el plano finito z + residuo en z = 0 .

6.2.2

Valor principal de Cauchy.

Ocasionalmente un polo de primer orden aislado estara directamente sobre el contorno de


integracion. En este caso podemos deformar el contorno para incluir o excluir el residuo
deseado incluyendo un desvo semicircular de radio infinitesimal. Esto es mostrado en la
figura 6.3. La integracion sobre el semicrculo luego da con z x0 = ei , dz = aei d,
Z
Z 2
dz
=i
d = i , i.e., ia1
sentido antihorario,
z x0

Z 0
Z
dz
=i
d = i , i.e., ia1
sentido horario,
z x0

esta contribucion, + o , aparece sobre el lado izquierdo de la ecuacion (6.10). Si nuestro


desvo es en sentido horario, el residuo no puede ser encerrado y all no estara el correspondiente termino sobre el lado derecho de la ecuacion (6.10). Sin embargo, si nuestro desvo es
en sentido antihorario, este residuo podra estar encerrado por el contorno C y un termino
2ia1 aparecera sobre el lado derecho de la ecuacion (6.10). El resultado neto del desvo
ya sea para el horario o antihorario es que un polo simple sobre el contorno es contabilizado
como un medio de lo que podra ser si estuviera dentro del contorno. Esto corresponde a
tomar el valor principal de Cauchy.

x0
Figura 6.3: Bypass de puntos singulares.
Por ejemplo, supongamos que f (z) con un polo simple en z = x0 es integrado sobre el
eje entero real. El contorno esta encerrado con un semicrculo infinito en la mitad del plano
superior (6.4). Entonces
I
Z x0
Z
Z
Z
f (z) dz =
f (x) dx +
f (z) dz +
f (x) dx +

Cx0
x0 +
C semicrculo infinito
(6.11)
X
= 2i
residuos encerrado .


6.2. CALCULO
DEL RESIDUO.

201

Si el semicrculo peque
no Cx0 incluye x0 (moviendose a lo largo del eje x, en
R sentido antihorario), x0 esta encerrado, y su contribucion aparece dos veces como ia1 en Cx y como 2ia1
0
P
en el termino 2i
residuo encerrado para una contribucion neta de ia1 . Si el semicrculo
peque
no superior es elegido, x0 es excludo. La u
nica contribucion es de la integracion sobre
Cx0 en el sentido antihorario la cual tiende a ia1 . Moviendo esto al extremo derecho de
la ecuacion (6.11), tenemos +ia1 , como antes.

x0

Figura 6.4: Cerrando el contorno con un semicrculo de radio infinito.

Las integrales a lo largo del eje x pueden ser combinadas y al radio del semicrculo lo
hacemos tender a cero. Por lo tanto definimos
Z x0
 Z
Z
f (x) dx +
f (x) dx = P f (x) dx .
(6.12)
lim
0

x0 +

La P indica el valor principal de Cauchy y representa el proceso lmite precedente. Note


cuidadosamente que el valor principal de Cauchy es un proceso de cancelacion o de balance.
En la vecindad de nuestra singularidad en z = x0 ,
f (x)

a1
.
x x0

(6.13)

Esto es impar, respecto a x0 . El intervalo simetrico o par (respecto a x0 ) da la cancelacion del


area achurada, figura 6.5. La contribucion de la singularidad esta en la integracion alrededor
del semicrculo. Algunas veces, esta misma tecnica lmite es aplicada para los lmites de
integracion . Podemos definir
Z

P f (x) dx = a
lim

f (x) dx .

(6.14)

Un tratamiento alternativo mueve el polo fuera del contorno y luego considera el comportamiento lmite cuando es trado de vuelta.

202

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.

a1
f(x) ~ xx
0
x0
x0 x +
0

Figura 6.5: Valor principal de Cauchy.

6.2.3

Expansi
on en polos de funciones merom
orficas.

Las funciones analticas f (z) que tienen solamente polos bien separados como singularidades
son llamadas meromorficas. Por simplicidad suponemos esos polos en z = an finito con
0 < |a1 | < |a2 | < son todos simples con residuos bn . Entonces una expansion de f (z)
en terminos de bn (z an )1 depende solamente de las propiedades intrinsecas de f (z), en
contraste a la expansion de Taylor cerca de un punto analtico arbitrario z0 de f (z) o de la
expansion de Laurent cerca de alg
un punto singular de f (z).
Consideremos una serie de crculos concentricos Cn alrededor del origen tal que Cn incluya
a1 , a2 , , an pero no otros polos, su radio Rn cuando n . Para garantizar la
convergencia suponemos que |f (z)| < Rn para cualquier constante positiva peque
na y
todo z sobre Cn . Entonces la serie



X
1
1
f (z) = f (0) +
bn
+
,
(6.15)
z an an
n=1
converge a f (z). Para probar este teorema (debido a Mittag-Leffler) usamos el teorema del
residuo para evaluar la integral de contorno para z dentro de Cn :
Z
1
f (w)
In =
dw
2i Cn w(w z)
(6.16)
n
X
bm
f (z) f (0)
=
+
.
a (a z)
z
m=1 m m
En Cn tenemos para n
| In | 2Rn max

wsobreCn

| f (w) |
Rn
<
.
2Rn (Rn |z|)
Rn |z|

Usando In 0 en la ecuacion (6.16) probamos la ecuacion (6.15).


6.2. CALCULO
DEL RESIDUO.

203

Si |f (z)| < Rnp+1 , entonces evaluamos la integral de forma similar


Z
1
f (w)
In =
dw 0
cuando n ,
p+1
2i
w (w z)
y obtenemos la expansion en polo analoga

f (z) = f (0) + zf 0 (0) + +

6.2.4

z p f (p) (0) X bn z p+1 /aPn +1


+
.
p!
z

a
n
n=1

(6.17)

Expansi
on en producto de funciones enteras.

Una funcion f (z) que es analtica para todo z finito es llamada una funcion entera. La
derivada logartmica f 0 /f es una funcion meromorfica con una expansion en polos.
Si f (z) tiene un cero simple en z = an , entonces f (z) = (z an )g(z) con g(z) analtica y
g(an ) 6= 0. de modo que la derivada logartmica
f 0 (z)
1
g 0 (z)
=
+
,
f (z)
z an
g(z)

(6.18)

tiene un polo simple en z = an con residuo 1, y g 0 /g es analtica all. Si f 0 /f satisface las


condiciones que conducen a la expansion en polos de la ecuacion (6.15), entonces


f 0 (0) X 1
1
f 0 (z)
=
+
+
,
(6.19)
f (z)
f (0) n=1 an z an
se mantiene. Integrando la ecuacion anterior obtenemos
Z z 0
f (z)
dz = ln f (z) ln f (0)
0 f (z)


zf 0 (0) X
z
=
+
ln(z an ) ln(an ) +
,
f (0)
a
n
n=1
y expandiendo obtenemos el expansion en producto

 

zf 0 (0) Y
z
z
f (z) = f (0) exp
1
exp
.
f (0) n=1
an
an

(6.20)

Ejemplos son las expansiones en productos



Y



Y
z  z/n
z2
sen(z) = z
1
e
=z
1 2 2 ,
n
n
n=
n=1


Y
z2
cos(z) =
1
.
22
(n

1/2)
n=1

(6.21)

Otro ejemplo es la expansion en producto de la funcion gamma la cual sera discutida mas
adelante.

204

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.

Como una consecuencia de la ecuacion (6.18) la integral de contorno de la derivada logartmica puede ser usado para contar el n
umero Nf de ceros (incluyendo sus multiplicidades)
de la funcion f (z) del contorno C:
Z 0
f (z)
1
dz = Nf .
(6.22)
2i C f (z)
Por otra parte, usando
Z 0
f (z)
dz = ln f (z) = ln | f (z) | + i arg[f (z)] ,
f (z)

(6.23)

vemos que la parte real en la ecuacion (6.23) no cambia cuando z se mueve una vez al rededor
del contorno, mientras el correspondiente cambio en arg[f ] debe ser
C arg[f ] = 2Nf .

(6.24)

Esto conduce al teorema de Rouche: Si f (z) y g(z) son analticas dentro y sobre un contorno
encerrado C, y |g(z)| < |f (z)| sobre C, entonces f (z) y f (z) + g(z) tienen el mismo n
umero
de ceros dentro de C.
Para mostrar esto usamos


g
2Nf +g = C arg[f + g] = c arg[f ] + c arg 1 +
.
f
ya que |g| < |f | en C, el punto w = 1 + g(z)/f (z) es siempre un punto interior del crculo
en el plano w con centro en 1 y radio 1. De modo que arg[1 + g/f ] debera volver a su valor
original cuando z se mueve al rededor de C; no puede disminuir o aumentar por un m
ultiplo
de 2 tal que c arg[1 + g/f ] = 0.
El teorema de Rouche puede ser usado
una prueba alternativa del teorema funPn como
m
damental el algebra: Un polinomio
a
z
con an 6= 0 tiene n ceros. Definamos
m=0 m
n
f (z) =Pan z . Entonces f tiene un cero de orden n en el origen y no otros ceros. Sea
g(z) = n1
am z m . Apliquemos el teorema de Rouche a un crculo C con centro en el origen
0
y radio R > 1. En C, |f (z)| = |an |Rn y
!
n1
X
| g(z) | | a0 | + | a1 | R + + | an1 | Rn1
| am | Rn1 .
m=0

Pn1
Por lo tanto |g(z)| < |f (z)| para z en C dado R
>
(
|am |)/|an |. Para todo crculo
0
Pn
m
C suficientemente grande, por lo tanto, f + g = m=0 am z tiene n ceros dentro de C de
acuerdo al teorema de Rouche.

6.2.5

Evaluaci
on de integrales definidas.

Las integrales definidas aparecen repetidamente en problemas de fsica matematica tanto


como en matematica pura. Tres tecnicas moderadamente generales son u
tiles para evaluar
estas integrales definidas: (1) integrales de contorno, (2) conversion a funciones beta o gamma
y (3) cuadratura numerica. Otros acercamientos incluyen expansion en serie con integracion
termino a termino y transformadas integrales. Como veremos, el metodo de integracion de
contorno es quizas el mas versatil de esos metodos, ya que es aplicable a una amplia variedad
de integrales.


6.2. CALCULO
DEL RESIDUO.

6.2.6

205

Evaluaci
on de integrales definidas:

R 2
0

f (sen , cos )d

El calculo del residuo es u


til evaluando una amplia variedad de integrales finitas tanto en
problemas de la fsica como en matematica pura. Consideremos, primero, integrales de la
forma
Z 2
I=
f (sen , cos ) d ,
(6.25)
0

donde f es finita para todos los valores de . Tambien requerimos que f sea una funcion
racional de sen y cos que sera univaluada. Sea
z = ei ,

dz = iei d .

De esto,
dz
z z 1
z + z 1
, sen() =
, cos() =
.
z
2i
2
Nuestra integral se convierte en

I 
z z 1 z + z 1 dz
,
,
I = i f
2i
2
z
d = i

(6.26)

(6.27)

con el camino de integracion sobre un crculo unitario. Por el teorema del residuo la ecuacion
(6.20),
X
I = (i)2i
residuo dentro del crculo unitario.
(6.28)
Note que estamos despues del residuo de f (z)/z.
Ejemplo
Nuestro problema es evaluar la integral definida
Z 2
d
I=
,
1 + cos
0

|| < 1 .

Por la ecuacion (6.27) esta se convierte en


I
dz
I = i
1
crculo unitario z[1 + (/2)(z + z )]
I
2
dz
.
= i
2

z + (2/)z + 1
El denominador tiene raices
1 1
1 1
z =
1 2
y
z+ = +
1 2


z+ esta dentro del crculo unitario; z esta afuera. Luego por la ecuacion (6.28)


2
1

I = i 2i
.

z + 1/ + (1/) 1 2
z=1/+(1/) 12

Obtenemos

Z
0

d
2
=
,
1 + cos()
1 2

|| < 1 .

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.

206

6.2.7

Evaluaciones de integrales definidas:

f (x)dx.

Supongamos que nuestra integral definida tiene la forma


Z
I=
f (x) dx ,

(6.29)

y satisface las dos condiciones:


a. f (z) es analtica en el semiplano superior excepto para un n
umero finito de polos. (Supunemos que aqu no hay polos en el eje real. Si se presentan polos en el eje real, ellos
podran ser includos o excludos como se discutio anteriormente).
b. f (z) se anula tan fuertemente3 como 1/z 2 para |z| , 0 arg[z] .

x
R
R

Figura 6.6: Contorno de integracion.

Con estas condiciones, podemos tomar como un contorno de integracion el eje real y un
semicrculo en el plano medio superior como muestra la figura 6.6. Tomemos el radio R del
semicrculo infinitamente grande. Entonces
I
Z R
Z
f (z) dz = lim
f (x) dx + lim
f (Rei )iRei d
R R
R 0
(6.30)
X
= 2i
residuos (en el semiplano superior).
De la segunda condicion la segunda integral (sobre el semicrculo) se anula y
Z
X
f (x) dx = 2i
residuos (en el semiplano superior).

Podramos usar que f (z) se anula m


as r
apido que 1/z, pero queremos tener f (z) monovaluada.

(6.31)


6.2. CALCULO
DEL RESIDUO.

207

Ejemplo
Eval
ue
I=

dx
.
1 + x2

(6.32)

A partir de la ecuacion (6.31)


Z
X
dx
=
2i
residuos (en el semiplano superior).
2
1 + x
Aqu y en cada problema similar tenemos una pregunta: donde estan los polos? Reescribiendo el integrando como
1
1
1
=

,
2
1+z
z+i zi

(6.33)

vemos que hay polos simples (orden 1) en z = i y z = i. Un polo simple en z = z0 indica


(y esta indicado por) una expansion de Laurent de la forma

X
a1
+ a0 +
an (z z0 )n .
f (z) =
z z0
n=1

(6.34)

El residuo a1 es facilmente aislado como


a1 = (z z0 )f (z)|z=z0 .

(6.35)

Usando la ecuacion (6.35), encontramos que el residuo en z = i es 1/(2i), mientras que en


z = i es 1/(2i). Entonces
Z
dx
1
= 2i = .
(6.36)
2
2i
1 + x
Aqu hemos usado a1 = 1/(2i) para el residuo del u
nico polo incluido en z = i. Es facil
probar que es posible usar el semicrculo inferior y que esta opcion conducira al mismo
resultado, I = .

6.2.8

Evaluaci
on de integrales definidas:

iax
f (x)e dx.

Consideremos la integral definida


I=

f (x)eiax dx ,

(6.37)

con a real y positivo. Esto es una transformada de Fourier. Suponemos las dos condiciones:
a. f (z) es analtica en el semiplano superior excepto para un n
umero finito de polos.

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.

208
b.

0 arg[z] .

lim f (z) = 0 ,

| z |

(6.38)

Note que esta es una condici


R on menos restrictiva que la segunda condicion impuesta sobre
f (z) para la integral previa f (x)dx.
Empleamos el contorno mostrado en la figura 6.6. La aplicacion del calculo del residuo es
la misma cuando solo se considera uno, pero aqu tenemos que trabajar un poco mas duro
para mostrar que la integral sobre el semicrculo (infinito) va a cero. Esta integral se convierte
en
Z
IR =
f (Rei )eiaR cos aR sen iRei d .
(6.39)
0

Sea R tan grande que |f (z)| = |f (Rei )| < . Entonces


Z
| IR | R
eaR sen d
0
Z /2
= 2R
eaR sen d .

(6.40)

En el rango [0, /2]


2
sen .

Por lo tanto (figura 6.7)


| IR | 2R

/2

eaR2/ d .

(6.41)

Ahora, integrando por inspeccion, obtenemos

y
(a)
1

(b)

Figura 6.7: (a) y = (2/), (b) y = sen .


6.2. CALCULO
DEL RESIDUO.

209
1 eaR
.
aR2/

| IR | 2R
Finalmente,

.
a

lim

| IR |

(6.42)

De la ecuacion (6.38), 0 cuando R y


lim | IR | = 0 .

(6.43)

Este u
til resultado es a veces llamado lema de Jordan. Con esto, hemos preparado para
atacar las integrales de Fourier de la forma mostrada en la ecuacion (6.37).
Usando el contorno mostrado en la figura 6.6, tenemos
Z
X
f (x)eiax dx + lim IR = 2i
residuos (en el semiplano superior).
R

Ya que la intengral sobre el semicrculo superior IR se anula cuando R (lema de Jordan),


Z
X
f (x)eiax dx = 2i
residuos (en el semiplano superior) (a > 0) .
(6.44)

Ejemplo Singularidad sobre el contorno de integracion.


El problema es evaluar
I=

sen(x)
dx .
x

(6.45)

esto puede ser tomado como la parte imaginaria de4


Z

Iz = P

eiz
dz.
z

(6.46)

Ahora el u
nico polo es un polo simple en z = 0 y el residuo dado por la ecuacion (6.35) es
a1 = 1. Escogemos el contorno dado por la figura 6.8 (1) para evitar el polo, (2) para incluir
el eje real y (3) para procurar que tienda a cero el integrando para z = iy con y . Note
que en este caso un semicrculo grande (infinito) en el semiplano inferior sera desastroso.
Tenemos
I iz
Z r
Z
Z R
Z
e dz
eiz dz
eiz dz
ix dx
ix dx
=
e
+
+
e
+
=0,
(6.47)
z
x
z
x
z
R
C1
r
C2
4

Uno puede usar


dos exponenciales.

[(eiz eiz )/2iz]dz, pero entonces dos diferentes contornos ser


an necesarios para las

210

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.

C2

C1

Figura 6.8: Contorno de integracion.

el cero final viene del teorema del residuo (ecuacion (6.20)). Por el lema de Jordan
Z
eiz dz
=0,
z
C2
y
I iz
Z
Z ix
e dz
eiz dz
e dx
=
+P
=0.
z
z
x
C1

(6.48)

(6.49)

La integral sobre el peque


no semicrculo produce ()i veces el residuo de 1, el signo menos
es el resultado de ir en sentido horario. Tomando la parte imaginaria, tenemos
Z
sen(x)
dx = ,
(6.50)
x

o
Z
sen(x)

dx = .
(6.51)
x
2
0
El contorno de la figura 6.8, aunque conveniente, no es u
nico. Encuentre alternativas de
contorno para evaluar la ecuacion (6.45) como ejercicio.
Ejemplo Scattering en mecanica cuantica.
El analisis mecanico cuantico del scattering conduce a la funcion
Z
x sen(x) dx
I() =
,
x2 2

(6.52)

donde es real y positivo. A partir de las condiciones fsicas del problema hay un requerimiento posterior: I() esta para tener la forma ei tal que representara una onda saliente
(outgoing scattered). Usando
sen(z) =

1
1
1
senh(iz) = eiz eiz ,
i
2i
2i

(6.53)


6.2. CALCULO
DEL RESIDUO.

211

escribimos la ecuacion (6.52) en el plano complejo como


I() = I1 + I2 ,

(6.54)

con

zeiz
dz ,
2
2
z
Z
1 zeiz
I2 =
dz .
2i z 2 2
1
I1 =
2i

(6.55)

La integral I1 es similar al ejemplo anterior y, como en este caso, podramos completar el


contorno por un semicrculo infinito en el semiplano superior como muestra la figura 6.9a.
Para I2 la exponencial es negativa y completamos el contorno con un semicrculo infinito en el
semiplano inferior, como muestra la figura 6.9b. Como en el ejemplo anterior, el semicrculo
no contribuye a la integral, lema de Jordan.

y
I1
a

a
I2

Figura 6.9: Contorno de integracion.

Todava esta el problema de localizar los polos y evaluar los residuos. Encontramos polos
en z = + y z = sobre el contorno de integraci
on. Los residuos son

I1
I2

z=
ei
2
i
e
2

z =
ei
2
ei
2

Rodeando los polos, como se muestra en la figura 6.9 (esto se complica un poco si vamos de
arriba a bajo), encontramos que el teorema del residuo conduce a
  i
  i
  i
1 e
1 e
1 e
P I1 i
+ i
= 2i
,
(6.56)
2i
2
2i 2
2i 2

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.

212

por tener encerrada la singularidad en z = pero excluida en z = . En un aspecto similar,


pero notando que el contorno para I2 es en sentido horario,
P I2 i

1
2i

ei
+ i
2

1
2i

ei
= 2i
2

1
2i

ei
,
2

(6.57)

Sumando las ecuaciones (6.56) y (6.57), tenemos


P I() = P I1 + P I2 =


i
e + ei = cosh i
2
= cos .

(6.58)

Esta es una buena evaluacion de la ecuacion (6.52), pero desafortunadamente la dependencia


del coseno es apropiada para una onda estacionaria y no para una onda saliente como se
especifico. Para obtener la forma deseada, tratamos una tecnica diferente. En vez de rodear
los puntos singulares, los movemos fuera del eje real. especificamente, sea + i,
i, donde es positivo pero peque
no y eventualmente tendera a cero, esto es,
I+ () = lim I( + i) .
0

(6.59)

Con esta sustitucion simple, la primera integral I1 se convertira


I1 ( + i) = 2i

1
2i

ei(+i)
,
2

(6.60)

por directa aplicacion del teorema del residuo. Tambien,


I2 ( + i) = 2i

1
2i

ei(+i)
.
2

(6.61)

Sumando las ecuaciones (6.60) y (6.61) y haciendo luego 0, obtenemos


I+ = lim [I1 ( + i) + I2 ( + i)]
0

= lim ei(+i) = ei .

(6.62)

un resultado que ajustan las condiciones de borde de nuestro problema de scattering.


Es interesante notar que la sustitucion i tendra que conducir a
I () = ei ,

(6.63)

la cual representara una onda entrante. Nuestros resultados anteriores (ecuacion (6.58)) es
visto como el promedio aritmetico de las ecuaciones (6.62) y (6.63). Este promedio es el valor
principal de Cauchy de la integral. Note que tenemos esas posibilidades (ecuaciones (6.58),
(6.62) y (6.63)) por que nuestra integral no es u
nicamente definida hasta que especifiquemos
el proceso lmite particular (o promedio) a ser usado.


6.2. CALCULO
DEL RESIDUO.

6.2.9

213

Evaluaci
on de integrales definidas: formas exponenciales.

Con funciones exponenciales o hiperbolicas presentes en el integrando, la vida es mas complicada que antes. En vez de una prescripcion general completa, el contorno debe ser escogido
para ajustar la integral especfica. Estos casos son oportunidades para ilustrar la versatilidad
y poder de la integracion de contorno.
Como un ejemplo, consideremos una integral que sera muy u
til en el desarrollo de una relacion entre z! y (z)!. Note como la periodicidad a lo largo del eje imaginario es aprovechada.

R+ 2 i

R+ 2 i

R x

Figura 6.10: Contorno de integracion.

Ejemplo Funcion factorial.


Deseamos evaluar
I=

eax
dx ,
1 + ex

0<a<1.

(6.64)

Los lmites sobre a son necesarios (y suficientes) para prevenir la divergencia de la integral
cuando x . Esta integral (ecuacion (6.64)) puede ser manejada reemplazando la
variable real x por la variable compleja z e integrando alrededor del contorno mostrado en
la figura 6.10. Si tomamos el lmite cuando R , el eje real, por supuesto, tiende a la
integral que deseamos. El camino de vuelta a lo largo de y = 2 es escogido para dejar el
denominador de la integral invariante, al mismo tiempo introducir un factor constante ei2a
en el numerador. Tenemos, en el plano complejo,
Z R

I
Z R
eaz
eax
eax
i2a
dz = lim
dx e
dx
x
x
R
1 + ez
R 1 + e
R 1 + e
(6.65)
Z
 eax
i2a
= 1e
dx .
x
1 + e
En suma hay dos secciones verticales (0 y 2), la cual se anula (exponencialmente)
cuando R . Ahora donde estan los polos y c
uales son los residuos? Tenemos un polo
cuando
ez = ex eiy = 1 .

(6.66)

214

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.

La ecuacion (6.66) es satisfecha cuando z = 0 + i. Por una expansion de Laurent5 en


potencias de (z i) el polo es un polo simple con un residuo de eia . Luego, aplicando el
teorema del residuo,
Z
 eax
+i2a
1e
dx = 2i(eia ) .
(6.67)
x
1
+
e

Esto rapidamente se reduce a


Z

a
eax
dx =
,
x
1+e
sen a

0<a<1.

(6.68)

Usando la funcion beta, podemos mostrar que la integral es igual al producto (a 1)!(a)!.
Esto resulta en la interesante y u
til relacion de la funcion factorial
a!(a)! =

a
.
sen a

(6.69)

Aunque la ecuacion (6.68) se mantiene para a real, 0 < a < 1, la ecuacion (6.69) puede
ser extendida por una continuacion analtica de todos los valores de a, reales y complejos,
excluyendo solamente los valores reales enteros.
Como un ejemplo final de integrales de contorno de funciones exponenciales, consideremos
nuevamente los n
umeros de Bernoulli
Ejemplo N
umeros de Bernoulli.
En la seccion 5.9 los n
umeros de Bernoulli fueron definidos por la expansion

X Bn
x
=
xn .
ex 1 n=0 n!

(6.70)

Reemplazando x por z (continuacion analtica), tenemos una serie de Taylor (compare con
la ecuacion (5.52)) con
I
n!
z
dz
Bn =
,
(6.71)
2i C0 ez 1 z n+1
donde el contorno C0 esta rodeando el origen en sentido antihorario con |z| < 2 para dar
los polos en 2i.
Para n = 0 tenemos un polo simple en z = 0 con un residuo de +1. De modo que por la
ecuacion (6.20)
B0 =

0!
2i(1) = 1 .
2i

(6.72)

Para n = 1 la singularidad en z = 0 llega a ser un polo de segundo orden. El residuo puede


mostrarse que es 1/2 por la expansion en serie de la exponencial, seguida por la expansion
binomial. Esto resulta en
 
1!
1
1
2i
= .
(6.73)
B1 =
2i
2
2


6.2. CALCULO
DEL RESIDUO.

215

y
8i
6i
4i
2i

C
R

2i
4i
6i
8i

Figura 6.11: Contorno de integracion para los n


umeros de Bernoulli.

Para n 2 este procedimiento llega a ser algo tedioso, y recurrimos a diferentes maneras de
evaluar la ecuacion (6.71). El contorno esta deformado, como lo muestra la figura 6.11.
El nuevo contorno C todava encierra el origen, como se requirio, pero ahora tambien
encierra (en una direccion negativa) series infinitas de puntos singulares a lo largo del eje
imaginario en z = p2i, con p = 1, 2, 3, . . . . La integracion de ida y vuelta a lo largo del eje
x se cancelan, y para R la integracion sobre el crculo infinito tiende a cero. Recuerde
que n 2. Por lo tanto
I
C0

X
z
dz
= 2i
residuos
ez 1 z n+1
p=1

(z = p2i) .

(6.74)

En z = p2i tenemos un polo simple con un residuo (p2i)n . Cuando n es impar, el residuo
en z = p2i se cancela exactamente con el de z = p2i y por lo tanto Bn = 0, con n = 3, 5, 7,
etc. Para n par los residuos se suman, dando

X
n!
1
Bn =
(2i)2
n
2i
p (2i)n
p=1

(1)n/2 2n! X n
p
=
(2)n
p=1
=

(6.75)

(1)n/2 2n!
(n) (n par,)
(2)n

donde (n) es la funcion zeta de Riemann.


5


1 + ez = 1 + ezi e+i = 1 ezi = (z i) 1 +

zi
2!

(zi)2
3!


+ .

216

6.2.10

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.

Residuos de un polo de orden m.

Si f (z) tiene un polo de orden m en z = z0 , donde m es un n


umero entero positivo, entonces
el residuo R de f (z) en z = z0 es
R=

1
dm1
lim m1 [(z z0 )m f (z)] ,
(m 1)! zz0 dz

(6.76)

donde la derivada de orden cero de la funcion se entiende la funcion misma y 0! = 1.

6.3

Relaciones de dispersi
on.

El concepto de relacion de dispersion lo introduce en fsica los trabajos de Kroing y Kramers en


optica. El nombre de dispersion viene de la dispersion optica, un resultado de la dependencia
del ndice de refraccion con la longitud de onda o frecuencia angular. El ndice de refraccion
n puede tener una parte real determinada por la velocidad de fase y una (negativa) parte
imaginaria determinada por la absorcion, ver ecuacion (6.91). Kroing y Kramers mostraron
en 1926-1927 que la parte real de (n2 1) podra ser expresada como una integral de la
parte imaginaria. Generalizando esto, aplicaremos la etiqueta de relaciones de dispersion a
cualquier par de ecuaciones que dan la parte real de una funcion como una integral de su
parte imaginaria y la parte imaginaria como una integral de su parte real ecuaciones (6.82) y
(6.83). La existencia de tales relaciones integrales puede entenderse como un analogo integral
a las relaciones diferenciales de Cauchy-Riemann, seccion 5.2.
Las aplicaciones en fsica moderna son extensas. Por ejemplo, la parte real de la funcion
podra describir el scattering hacia adelante de un rayo gamma en un campo nuclear de
Coulomb. Luego la parte imaginaria describira la produccion del par electron-positron en
este mismo campo de Coulomb. Como sera visto mas adelante, las relaciones de dispersion
pueden ser tomados como una consecuencia de la causalidad y por lo tanto son independientes
de los detalles de la interaccion particular.
Consideremos una funcion compleja f (z) que es analtica en el semiplano superior y sobre
el eje real. Tambien requerimos que
lim | f (z) | = 0 ,

| z |

0 arg z ,

(6.77)

para que la integral sobre un semicrculo infinito se anule. El punto de esta condicion es que
podemos expresar f (z) por la formula integral de Cauchy, ecuacion (5.48),
I
f (z)
1
dz .
(6.78)
f (z0 ) =
2i
z z0
La integral sobre el semicrculo superior6 se anula y tenemos
I
1
f (x)
f (z0 ) =
dx .
2i
x z0

(6.79)

La integral sobre el contorno mostrado en la figura 6.12 se ha convertido en una integral a lo


largo del eje x.
6

El uso de un semicrculo para cerrar el contorno de integraci


on es conveniente, pero no obligatorio. Otros
caminos son posibles.


6.3. RELACIONES DE DISPERSION.

217

Figura 6.12: Contorno de integracion.

La ecuacion (6.79) supone que z0 esta en el semiplano superior interior al contorno cerrado.
Si z0 estuviera en el semiplano inferior, la integral producira cero por el teorema integral
de Cauchy. Ahora, ya sea dejando que z0 se aproxime al eje real desde arriba (z0 x0 ), o
colocandolo sobre el eje real y tomando un promedio de la ecuacion (6.79) y cero, encontramos
que la ecuacion (6.79) se convierte en
Z
1 f (x)
dx ,
(6.80)
f (x0 ) = P
i x x0
donde P indica el valor principal de Cauchy.
Separando la ecuacion (6.80) en partes real e imaginaria7 produce
f (x0 ) = u(x0 ) + iv(x0 )
Z
Z
1 v(x)
i u(x)
dx P
dx .
= P
x x0
x x0
Finalmente, igualando las partes reales y las partes imaginarias obtenemos
Z
1 v(x)
u(x0 ) = P
dx ,
x x0
Z
1 u(x)
dx .
v(x0 ) = P
x x0

(6.81)

(6.82)

(6.83)

Estas son las relaciones de dispersion. La parte real de nuestra funcion compleja es expresada
como una integral sobre la parte imaginaria. La parte imaginaria esta expresada como una
integral sobre la parte real. Las partes reales e imaginarias son transformaciones de Hilbert
una de la otra. Note que estas relaciones son significativas solamente cuando f (x) es una
funcion compleja de la variable real x.
Desde un punto de vista fsico u(x) y/o v(x) representan alguna medida fsica. Luego
f (z) = u(z) + iv(z) es una continuacion analtica sobre el semiplano superior, con el valor en
el eje real sirviendo como una condicion de borde.
7

El segundo argumento, y = 0 es omitido. u(x0 , 0) u(x0 ).

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.

218

6.3.1

Relaciones de Simetra.

En ocasiones f (x) satisfacera una relacion de simetra y la integral desde a + puede ser
reemplazada por una integral solamente sobre valores positivos. Esto es de importancia fsica
considerable ya que la variable x podra representar una frecuencia y solamente frecuencias
0 son posibles en fsicas. Supongamos8
f (x) = f (x) .

(6.84)

u(x) + iv(x) = u(x) iv(x) .

(6.85)

Entonces

La parte real de f (x) es par y la parte imaginaria es impar. En problemas de scattering en


mecanica cuantica estas relaciones (ecuacion (6.85)) son llamadas condiciones de cruzamiento.
Para sacar utilidad de estas condiciones, reescribimos la ecuacion (6.82) como
Z
Z
1 v(x)
1 0 v(x)
dx + P
dx .
u(x0 ) = P
x x0
0 x x0

(6.86)

Haciendo x x en la primera integral al lado derecho de la ecuacion (6.86) y sustituyendo


v(x) = v(x) de la ecuacion (6.85), obtenemos


Z
1
1
1
+
dx
u(x0 ) = P v(x)
0
x + x0 x x0
(6.87)
Z
2 xv(x)
= P
dx .
0 x2 x20
Similarmente,
Z
2 x0 u(x)
dx .
v(x0 ) = P
0 x2 x20

(6.88)

Las originales relaciones de dispersion optica de Kroing-Kramers eran de esta forma.

6.3.2

Dispersi
on o
ptica.

La funcion exp[i(kx t)] describe una onda moviendose a lo largo del eje x en la direccion
positiva con velocidad v = /k, es la frecuencia angular, k el n
umero de onda o vector de
propagacion, y n = ck/ el ndice de refraccion. A partir de las ecuaciones de Maxwell, la
permitividad electrica , y la ley de Ohm con conductividad el vector de propagacion k
para un dielectrico llega a ser


2
4
2
k = 2 1+i
(6.89)
c

Esto no es una feliz coincidencia. Esto asegura que la transformada de Fourier de f (x) ser
a real.


6.3. RELACIONES DE DISPERSION.

219

(con , la permeabilidad magnetica tomada como uno). La presencia de la conductividad (la


cual significa absorcion) da un aumento en la parte imaginaria. El vector de propagacion k
(y por lo tanto el ndice de refraccion n) se ha convertido en complejo.
Inversamente, la parte imaginaria (positiva) implica absorcion. Para conductividades
pobres (4/  1) una expansion binomial produce
k=


2
+i
c
c

y
ei(kxt) = ei(x

/ct) 2x/c

una onda atenuada.


Volviendo a la expresion general para k 2 , encontramos que la ecuacion (6.79) el ndiuce
de refraccion se convierte en
n2 =

c2 k 2
4
=+i
.
2

(6.90)

Tomamos n2 como una funcion de la variable compleja (con y dependiendo de ). Sin


embargo, n2 no se anula cuando sino realmente se aproxima a la unidad. Tal de
satisfacer la condicion, ecuacion (6.77), uno trabaja con f () = n2 () 1. Las relaciones
originales de dispersion optica de Kroing-Kramers estaban en la forma de
Z
2 =[n2 () 1]
2
<[n (0 ) 1] = P
d
0
2 02
(6.91)
Z
2 0 <[n2 () 1]
2
d .
=[n (0 ) 1] = P
0
2 02
El conocimiento de los coeficientes de absorcion en todas las frecuencias especifica la parte
real del ndice de refraccion y vice versa.

6.3.3

La relaci
on de Parseval.

Cuando las funciones u(x) y v(x) son transformadas de Hilbert una de la otra y cada una es
cuadrado integrable9 , las dos funciones estan relacionadas por
Z
Z
2
| u(x) | dx =
| v(x) |2 dx .
(6.92)

Esta es la relacion de Parseval.


Para derivar la ecuacion (6.92), comenzamos con
Z
Z Z
Z
1
v(s) ds 1 v(t) dt
2
| u(x) | dx =
dx

s x t x
9

Esto significa que

| u(x) | dx y

| v(x) | dx son finitas.

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.

220

usando la ecuacion (6.82) dos veces.


Integrando primero con respecto a x, tenemos
Z
Z
Z Z
dx
1
2
| u(x) | dx =
v(s) ds v(t) dt .
2

(s x)(t x)

(6.93)

Parte de la integracion en x produce una funcion delta:


Z
1
dx
= (s t) .
2 (s x)(t x)
Tenemos
Z

| u(x) | dx =

v(s)(s t) ds v(t) dt .

(6.94)

Luego la integracion en s es llevada a cabo por inspeccion, usando la propiedad que define la
funcion delta.
Z
v(s)(s t) ds = v(t) .
(6.95)

Sustituyendo la ecuacion (6.95) en la (6.94), tenemos la ecuacion (6.92), la relacion de Parseval.

6.3.4

Causalidad.

El significado real de las relaciones de dispersion en fsica es que ellas son una consecuencia
directa de suponer que un sistema fsico en particular obedece causalidad. Causalidad es
difcil para definir precisamente pero el significado general es que el efecto no puede preceder
la causa. Una onda scattered no puede ser emitida por el centro scattering antes de que la
onda incidente haya llegado. Para sistemas lineales la relacion mas general entre una funcion
de entrada G (la causa) y la funcion de salida H (el efecto) puede ser escrita como
Z
H(t) =
F (t t0 )G(t0 ) dt0 .
(6.96)

La causalidad es impuesta requiriendo que


F (t t0 ) = 0

para t t0 < 0 .

La ecuacion (6.96) da la dependencia temporal. La dependencia en la frecuencia es obtenida


tomando las transformadas de Fourier. Por el teorema de convolucion de Fourier,
h() = f ()g() ,
donde f () es la transformada de Fourier F (t), etc. Inversamente, F (t) es la transformada
de Fourier de f ().
La coneccion con las relaciones de dispersion estan dadas por el teorema de Tichmarsh.
Este establece que si f () es cuadrado integrable sobre el eje real , entonces cualquiera de
las tres afirmaciones implica las otras dos.


6.4. EL METODO
DE STEEPEST DESCENTS.

221

1. La transformada de Fourier para f () es cero para t < 0 ecuacion (6.96).


2. Remplazando por z, la funcion f (z) es analtica en el plano complejo z para y > 0 y se
aproxima a f (x) casi en cualquier lugar cuando y 0. Ademas,
Z
| f (x + iy) |2 dx < K
para y > 0 ,

esto es, la integral esta acotada.


3. Las partes reales e imaginarias de f (z) son transformaciones de Hilbert la una de la otra:
ecuaciones (6.82) y (6.83).
La suposicion de esta relacion entre la entrada y la salida de nuestro sistema lineal es
casual (ecuacion (6.96)) significa que la primera afirmacion es satisfecha. Si f () es cuadrado integrable, entonces el teroema de Tichmarsh tiene la tercera afirmacion como una
consecuencia y tenemos relaciones de dispersion.

6.4

El m
etodo de steepest descents.

Analizado problemas en fsica matematica, a menudo uno encuentra deseable conocer el comportamiento de una funcion para valores grandes de la variable, esto es, el comportamiento
asintotico de la funcion. Ejemplos especficos son proporcionados por la funcion gamma y
los varios tipos de funciones de Bessel. El metodo de steepest descents es un metodo para
determinar tales comportamientos asintoticos cuando la funcion puede ser expresada como
la integral de la forma general
Z
I(s) =
g(z)esf (z) dz .
(6.97)
C

Para el momento, tomemos s real. El contorno C de integracion es entonces escogido tal que
la parte real de f (z) tienda a menos infinito en ambos lmites y que el integrando se anulara
en ambos lmites, o es escogido como un contorno cerrado. Mas a
un, supongamos que el
factor g(z) en el integrando es dominado por la exponencial en la region de interes.
Si el parametro s es grande y positivo, el valor del integrando llegara a ser grande cuando
la parte real de f (z) es grande y peque
no cuando la parte real de f (z) es peque
na y negativa.
En particular, cuando s se le permite aumentar indefinidamente (dejando la dependencia
asintotica), la contribucion completa del integrando a la integral vendra de la region en la
cual la parte real de f (z) tome un valor maximo positivo. Fuera de este valor maximo positivo
el integrando llegara a ser en comparacion despreciablemente peque
no. Esto se ve expresando
f (z) como
f (z) = u(x, y) + iv(x, y) .
Entonces la integral puede ser reescrita como
Z
g(z)esu(x,y) eisv(x,y) dz .
I(s) =
C

(6.98)

222

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.

Si ahora, adicionalmente, imponemos la condicion que la parte imaginaria del exponente,


iv(x, y), sea constante en la region en la cual la parte real toma su valor maximo, esto es,
v(x, y) = v(x0 , y0 ) = v0 , podemos aproximar la integral por
Z
isv0
I(s) e
g(z)esu(x,y) dz
(6.99)
C

Fuera del maximo de la parte real, la parte imaginaria se le puede permitir oscilar como
desee, por el integrando despreciablemente peque
no y el factor de fase variante es por lo
tanto irrelevante.
La parte real de sf (z) es un maximo para un s dado cuando la parte real de f (z), u(x, y)
es un maximo. Esto implica que
u
u
=
=0,
x
y
y por lo tanto, por el uso de las condiciones de Cauchy-Riemann
df (z)
=0,
dz

(6.100)

procedemos a buscar tales ceros de la derivada.


Es esencial notar que el valor maximo de u(x, y) es el maximo solo en un contorno dado.
En el plano finito ni la parte real ni la parte imaginaria de nuestra funcion analtica posee un
maximo absoluto. Esto puede ser visto recordando que ambas u y v satisfacen la ecuacion
de Laplace
2u 2u
+
=0.
x2 y 2

(6.101)

A partir de esto, si la segunda derivada con respecto a x es positiva, la segunda derivada con
respecto a y debe ser negativa, y por lo tanto ni u ni v pueden poseer un maximo o mnimo
absoluto. Ya que la funcion f (z) fue tomada como analtica, los puntos singulares claramente
estan excludos. La anulacion de la derivada, ecuacion (6.100), implica que tenemos un punto
de ensilladura, un valor estacionario, el cual puede ser un maximo de u(x, y) para un contorno
y un mnimo para otro (figura 6.13).
Nuestro problema, entonces, es escoger el contorno de integracion para satisfacer dos
condiciones. (1) El contorno debe ser escogido tal que u(x, y) tenga un maximo en el punto
de ensilladura. (2) El contorno debe pasar a traves del punto de ensilladura de tal manera
que la parte imaginaria, v(x, y) sea una constante. Esta segunda condicion conduce al camino
de descenso mas abrupto steepest descent y da al metodo su nombre. Del captulo anterior
sabemos que las curvas correspondientes a u = constante y a v = constante forman un sistema
ortogonal. Esto significa que una curva v = ci , constante, es tangencial en cualquier parte
~
a la gradiente de u, u.
Por lo tanto, la curva v = constante es la curva que da la lnea de
steepest descent desde el punto de ensilladura.10
10

La lnea de steepest ascent est


a tambien caracterizada por v constante. El punto de ensilladura debe
ser inspeccionado cuidadosamente para distinguir la lnea de steepest descent respecto a la linea de steepest
ascent.


6.4. EL METODO
DE STEEPEST DESCENTS.

223

Figura 6.13: Punto de ensilladura.

En el punto de ensilladura la funcion f (z) puede ser expandida en serie de Taylor para
dar
1
f (z) = f (z0 ) + (z z0 )2 f 00 (z0 ) + .
2

(6.102)

La primera derivada esta ausente, ya que obviamente la ecuacion (6.100) es satisfecha. El


primer termino de correccion, (z z0 )2 f 00 (z0 )/2, es real y negativo. Es real, porque hemos
especificado que la parte imaginaria es constante a lo largo de nuestro contorno y negativo
porque nos estamos moviendo hacia abajo del punto de ensilladura. Entonces, suponiendo
que f 00 (z0 ) 6= 0, tenemos
1
1
f (z) f (z0 ) (z z0 )2 f 00 (z0 ) = t2 ,
2
2s

(6.103)

la cual sirve para definir una nueva variable t. Si (z z0 ) es escrito en forma polar
(z z0 ) = ei ,

(6.104)

(con la fase mantenida constante), tenemos


t2 = sf 00 (z0 ) 2 e2i .

(6.105)

Ya que t es real11 , la ecuacion puede ser escrita como


1/2

t = | sf 00 (z0 ) |

Sustituyendo la ecuacion (6.103) en (6.97), obtenemos


Z
dz
2
sf (z0 )
I(s) g(z0 )e
et /2 dt .
dt

11

(6.106)

(6.107)

La fase del contorno (especificada por ) en el punto de ensilladura es elegida tal que =[f (z) f (z0 )] = 0,
lo que implica que 21 (z z0 )2 f 00 (z0 ) debe ser real.

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.

224
Tenemos
dz
=
dt

dt
dz

1

dt d
d dz

1

1/2 i

= | sf 00 (z0 ) |

a partir de las ecuaciones (6.104) y (6.106). La ecuacion (6.107) se transforma en


Z
g(z0 )esf (z0 ) ei t2 /2
I(s)
e
dt .
| sf 00 (z0 ) |1/2

(6.108)

(6.109)

Se notara que los lmites han sido ajustados como menos infinito a mas infinito. Esto es
permitido, porque el integrando es esencialmente cero cuando t se desva apreciablemente

del origen. Note que la integral remanente es una integral de error de Gauss igual a 2,
finalmente obtenemos

2g(z0 )esf (z0 ) ei


I(s)
.
(6.110)
| sf 00 (z0 ) |1/2
La fase fue introducida en la ecuacion (6.104) como la fase del contorno cuando paso a traves del punto de ensilladura. Esta es escogida tal que las dos condiciones dadas
[=constante; <[f (z)]=maximo] son satisfechas. Ocurre algunas veces que el contorno pasa
a traves de dos o mas puntos de ensilladura en sucesion. Si este es el caso, necesitamos
solamente a
nadir la contribucion hecha por la ecuacion (6.110) para cada uno de los puntos
de ensilladura para obtener una aproximacion a la integral total.
Una nota de advertencia: Supusimos que la u
nica contribucion significativa a la integral
viene de la vencindad inmediata del o de los puntos de ensilladura z = z0 , esto es,
<[f (z)] = u(x, y)  u(x0 , y0 ) ,
sobre el contorno entero a partir de z0 = x0 + iy0 . Esta condicion debe ser chequeada para
cada uno de los nuevos problemas.

y
z=i

C1
Lnea de corte

C2

z=i

Figura 6.14: Contornos para las funciones de Hankel.

(1)

Ejemplo Forma asintotica de la funcion de Hankel, Hv (s)


6.4. EL METODO
DE STEEPEST DESCENTS.

225

Las funciones de Hankel satisfacen las ecuaciones de Bessel y pueden ser definidas por
Z
1 (s/2)(z1/z) dz
(1)
Hv (s) =
e
,
(6.111)
i 0 C1
z +1

Hv(2) (s)

1
=
i

e(s/2)(z1/z)

C2

dz
.
z +1

(6.112)

El contorno C1 es la curva en el semiplano superior de la figura 6.14. El contorno C2 esta


en el semiplano inferior. Aplicamos el metodo de steepest descent a la primera funcion de
(1)
Hankel, Hv (s), con f (z) dado por


1
1
z
.
(6.113)
f (z) =
2
z
Diferenciando, obtenemos
f 0 (z) =

1
1
+ 2 .
2 2z

(6.114)

Fijando f 0 (z) = 0 de acuerdo con la ecuacion (6.90), obtenemos


z = i , i .

(6.115)
(1)

De modo que hay puntos de ensilladura en z = +i y z = i. La integral para Hv (s)


es escogida tal que comience en el origen, se mueva tangencialmente al eje real positivo, y
luego se mueva a traves del punto de ensilladura en z = +i y hacia afuera a menos infinito,
asintotica con el eje real negativo. Debemos escoger el contorno a traves del punto z = +i
en tal manera que la parte real de (z 1/z) sea un maximo y al fase sea constante en la
vecindad del punto soporte. Tenemos


1
< z
=0
para z = i.
z
Requerimos que <(z 1/z) < 0 para el resto de C1 (z 6= 1).
En la vecindad del punto de ensilladura en z0 = +i tenemos
z i = ei ,

(6.116)

donde es un n
umero peque
no. Entonces
2f (z) = z

1
1
= ei + i i
z
e + i
1
cos + i( sen + 1)
cos i( sen + 1)
= cos + i( sen + 1)
.
1 + 2 sen + 2

= cos + i( sen + 1)

(6.117)

226

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.

Por lo tanto nuestra parte real llega a ser




1
< z
= cos cos (1 + 2 sen + 2 )1 .
z

(6.118)

Recordando que es peque


no, expandimos por el teorema del binimio y despreciando ordenes
en 3 y mayores.


1
< z
= 2 2 cos sen + O( 3 ) 2 sen 2 .
(6.119)
z
Vemos que la parte real de (z 1/z) tomara un valor extremo si sen 2 es un extremo,
esto es, si 2 es /2 o 3/2. De modo que la fase del contorno debe escogerse como /4
o 3/4. Una eleccion representara el camino de steepest descent que deseamos. La otra
alternativa representara el camino de steepest ascent que debemos evitar. Distinguimos las
dos posibilidades sustituyendo los valores espacfcos de . Para = /4


1
= 2 .
(6.120)
< z
z
Para la eleccion z = i es un mnimo.
Para = 3/4


1
< z
z

= 2 ,

(6.121)

y z = i es un maximo. Esta es la fase que deseamos.


La sustitucion directa en la ecuacion (6.110) con = 3/4 ahora produce

1 2i1 e(s/2)(i1/i) ei(3/4)


(1)
H (s) =
i
| (s/2)(2/i3 ) |1/2
r
2 (i/2)(2) is i(3/4)
e
e e
.
=
s
Combinando terminos, finalmente obtenemos
r
2 i(s(/2)/4)
(1)
H (s) =
e
s

(6.122)

(6.123)
(1)

que conducen a la expansion asintotica de la funcion de Hankel Hv (s). Los terminos adicionales, si se desean, pueden ser obtenidos suponiendo una serie de potencias descendentes
y sustituyendo de regreso en la ecuacion de Bessel.
Ejemplo Forma asintotica de la funcion factorial, s!.
En muchos problemas fsicos, particularmente en el campo de la mecanica estadstica, es
deseable tener una aproximacion precisa de la funcion gamma o funcion factorial de n
umeros
muy grandes. Como desarrollaremos mas adelante, la funcion factorial puede ser definida por
la integral
Z
Z
s
s+1
s! =
e d = s
es(ln zz) dz .
(6.124)
0

0C


6.4. EL METODO
DE STEEPEST DESCENTS.

227

Aqu hemos hecho una sustitucion = zs para que la integral este en la forma requerida
por la ecuacion (6.97). Como antes, suponemos que s es real y positiva, de la cual sigue que
el integrando se anula en los lmites 0 y . Diferenciando con respecto a z el exponente,
obtenemos
df (z)
d
1
= (ln z z) = 1 ,
dz
dz
z

(6.125)

la cual muestra que el punto z = 1 es un punto de ensilladura. Sea


z 1 = ei ,

(6.126)

con peque
no para describir el contorno en la vecindad del punto de ensilladura. Sustituyendo
en f (z) = ln z z, desarrollamos una expansion en serie
f (z) = ln(1 + ei ) (1 + ei )
1
= ei 2 e2i + 1 ei
2
1 2 2i
= 1 e + .
2

(6.127)

De esto vemos que el integrando toma un valor maximo (es ) en el punto de ensilladura si
escogemos nuestro contorno C siguiendo el eje real, una conclusion que se puede llegar mas
o menos intuitivamente.
Una sustitucion directa en la ecuacion (6.110) con = 0 ahora da

2ss+1 es
s!
.
(6.128)
| s(1)2 |1/2
Por lo tanto el primer termino en la expansion asintotica de la funcion factorial es

s! 2sss es .

(6.129)

Este resultado es el primer termino en la expansion de Stirling de la funcion factorial. El


metodo de steepest descent es probablemente la mas facil manera de obtener este primer
termino. Si se desean mas terminos en la expansion, entonces es preferible otro metodo, el
cual veremos en el proximo curso.
En los ejemplos precedentes el calculo fue llevado a cabo suponiendo s como real. Esta
suposicion no es necesaria. Se puede mostrar que la ecuacion (6.129) tambien se mantiene
cuando s es reemplazada por la variable compleja w, probando solamente que la parte real
de w se requiere grande y positiva.

228

CAPITULO 6. FUNCIONES DE VARIABLE COMPLEJA II.

Captulo 7
Ecuaciones diferenciales.
versi
on final 1.2-1707021

7.1

Ecuaciones diferenciales parciales, caractersticas y


condiciones de borde.

En Fsica el conocimiento de la fuerza en una ecuacion de movimiento usualmente conduce


a una ecuacion diferencial. Por lo tanto, casi todas las partes elementales y numerosas
partes avanzadas de la Fsica teorica estan formuladas en terminos de ecuaciones diferenciales.
Algunas veces son ecuaciones diferenciales ordinarias en una variable (ODE). Mas a menudo
las ecuaciones son ecuaciones diferenciales parciales (PDE) en dos o mas variables.
Recordemos del calculo la operacion de tomar una derivada ordinaria o parcial es una
operaci
on lineal 2 (L)
d
d
d(a(x) + b(x))
=a
+b
,
dx
dx
dx
para ODE que involucran derivadas en una variable x solamente y no cuadraticas, (d/dx)2 ,
o potencias mayores. Similarmente, para derivadas parciales,
(a(x, y) + b(x, y))
(x, y)
(x, y)
=a
+b
,
x
x
x
En general
L(a + b) = aL() + bL() .

(7.1)

As, las ODE y las PDE aparecen como ecuaciones de operadores lineales
L() = F ,
1

Este captulo est


a basado en el octavo captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.
2
Estamos especialmente interesados en operadores lineales porque en mecanica cu
antica las cantidades
fsicas est
an representadas por operadores lineales operando en un espacio complejo de Hilbert de dimensi
on
infinita.

229

CAPITULO 7. ECUACIONES DIFERENCIALES.

230

donde F es una funcion conocida de una (para ODE) o mas variables (para PDE), L es una
combinacion lineal de derivadas, es una funcion o solucion desconocida. Cualquier combinacion lineal de soluciones es de nuevo una solucion; esto es el principio de superposici
on.
Ya que la dinamica de muchos sistemas fsicos involucran solo dos derivadas, e.g., la aceleracion en mecanica clasica y el operador de energa cinetica, 2 , en mecanica cuantica,
las ecuaciones diferenciales de segundo orden ocurren mas frecuentemente en Fsica. [Las
ecuaciones de Maxwell y de Dirac son de primer orden pero involucran dos funciones desconocidas. Eliminando una incognita conducen a una ecuacion diferencial de segundo orden
por la otra.]

7.1.1

Ejemplos de PDE.

Entre las PDE mas frecuentemente encontradas tenemos:


1. La ecuacion de Laplace, 2 = 0. Esta ecuacion muy com
un y muy importante aparece
en el estudio de
a. Fenomenos electromagneticos incluyendo electroestaticos, dielectricos, corrientes estacionarias y magnetoestatica.
b. Hidrodinamica (flujo irrotacional de lquidos perfectos y superficies de ondas).
c. Flujo de calor.
d. Gravitacion.
2. La ecuacion de Poisson, 2 = 4 En contraste a la ecuacion homogenea de Laplace,
la ecuacion de Poisson es no homogenea con un termino de fuente 4.
3. Las ecuaciones de onda (Helmholtz) y las ecuaciones de difusion tiempo independiente,
2 k 2 = 0. Estas ecuaciones aparecen en fenomenos tan diversos como
a. Ondas elasticas en solidos incluyendo cuerdas vibrantes, barras y membranas.
b. En sonido o ac
ustica.
c. En ondas electromagneticas.
d. En reactores nucleares.
4. La ecuacion de difusion tiempo dependiente
2 =

1
,
a2 t

y su correspondiente forma cuadridimensional que involucra el DAlembertiano, un analogo


cuadridimensional del Laplaciano en el espacio Minkowski,
= 2 =

1 2
2 .
2
2
c t

5. Las ecuaciones de onda tiempo dependiente, 2 = 0.

7.1. ECUACIONES DIFERENCIALES PARCIALES

231

6. La ecuacion del potencial escalar, 2 = 4. Como la ecuacion de Poisson esta ecuacion


es no homogenea con un termino de fuente 4.
7. La ecuacion de Klein-Gordon, 2 = 2 , y las correspondientes ecuaciones vectoriales
en la cual la funcion escalar es reemplazada por una funcion vectorial. Otras formas
complicadas son comunes.
8. La ecuacion de onda de Schrodinger,

~2 2

+ V = i~
2m
t

~2 2
+ V = E ,
2m

para el caso tiempo independiente.


9. Las ecuaciones para ondas elasticas y lquidos viscosos y la ecuacion telegrafica.
10. Ecuaciones diferenciales parciales acopladas de Maxwell para los campos electricos y magneticos son aquellas de Dirac para funciones de ondas relativista del electron.
Algunas tecnicas generales para resolver PDE de segundo orden son discutidas en esta
seccion:
1. Separacion de variables, donde el PDE es separada en ODE que estan relacionadas
por constantes comunes las cuales aparecen como autovalores de operadores lineales,
L = l, usualmente en una variable. La ecuacion de Helmholtz dada como ejemplo
3 anteriormente tiene esta forma, donde el autovalor k 2 puede surgir por la separacion
del tiempo t respecto de las variables espaciales. Como en el ejemplo 8, la energa E es
el autovalor que surge en la separacion de t respecto de ~r en la ecuacion de Schrodinger.
2. Conversion de una PDE en una ecuacion integral usando funciones de Green que se
aplica a PDE no homogeneas tales como los ejemplos 2 y 6 dados mas arriba.
3. Otros metodos analticos tales como el uso de transformadas integrales que seran desarrolladas en el proximo curso.
4. Calculo numerico. El desarrollo de los computadores ha abierto una abundancia de
posibilidades basadas en el calculo de diferencias finitas. Aqu tambien tenemos los
metodos de relajacion. Metodos como Runge-Kutta y predictor-corrector son aplicados
a ODEs.
Ocasionalmente, encontramos ecuaciones de orden mayor. En ambos la teora del movimiento suave de un lquido viscoso y la teora de un cuerpo elastico encontramos la ecuacion
(2 )2 = 0 .

CAPITULO 7. ECUACIONES DIFERENCIALES.

232

Afortunadamente, estas ecuaciones diferenciales de orden mas altos son relativamente raras
y no son discutidas en una etapa introductoria como esta.
Aunque no son tan frecuentemente encontrados y quizas no son tan importantes como
las ecuaciones diferenciales de segundo orden, las ecuaciones diferenciales de primer orden
aparecen en Fsica teorica y algunas veces son pasos intermedios para ecuaciones diferenciales
de segundo orden. Las soluciones de algunos de los tipos mas importantes de ODE de primer
orden son desarrollados en la seccion 7.2. Las PDEs de primer orden siempre pueden ser
reducidas a ODEs. Este es un proceso directo pero lento e involucra una busqueda para las
caractersticas que son presentadas brevemente mas adelante.

7.1.2

Clases de PDE y caracterstica.

Las PDEs de segundo orden forman tres clases: (i) Las PDEs elpticas que involucran 2 o
c2 2 /t2 +2 ; (ii) Las PDEs parabolica, a/t2 ; (iii) Las PDEs hiperbolica, c2 2 /t2
2 . Estos operadores canonicos aparecen por un cambio de variables = (x, y), = (x, y)
en un operador lineal (para dos variables solo por simplicidad)
L=a

2
2
2

+
2b
+
c
+d
+e
+f ,
2
2
x
xy
y
x
y

(7.2)

la cual puede ser reducida a las formas canonicas (i), (ii), (iii) de acuerdo a si el discriminante
D = ac b2 > 0, = 0 o < 0. Si (x, y) es determinada a partir de la ecuacion de primer
orden, pero no lineal, PDE
 2
  
 2

+ 2b
+c
=0,
(7.3)
a
x
x
y
y
donde los terminos de mas bajo orden en L son ignorados, entonces los coeficientes de 2 / 2
en L es cero (i.e., ecuacion (7.3)). Si es una solucion independiente de la misma ecuacion
(7.3), entonces el coeficiente de 2 / 2 tambien es cero. El operador remanente 2 / en L
es caracterstico del caso hiperbolico (iii) con D < 0, donde la forma cuadratica a2 + 2b + c
es factorizable y, por lo tanto, la ecuacion (7.3) tiene dos soluciones independientes (x, y),
(x, y). En el caso elptico (i) con D > 0 las dos soluciones , son complejos conjugados los
cuales, cuando se sustituyeron en la ecuacion (7.2), remueven la derivada de segundo orden
mezclada en vez de los otros terminos de segundo orden produciendo la forma canonica (i).
En el caso parabolico (ii) con D = 0, solamente 2 / 2 permanece en L, mientras que los
coeficientes de las otras dos derivadas de segundo orden se anulan.
Si los coeficientes a ,b, c en L son funciones de las coordenadas, entonces esta clasificacion
es solamente local, i.e., su tipo podra cambiar cuando las coordenadas varan.
Ilustremos la fsica implcita en el caso hiperbolico mirando la ecuacion de onda (en 1 +
1 dimensiones por simplicidad)


1 2
2

=0.
(7.4)
c2 t2 x2
Ya que la ecuacion (7.3) se convierte en
 2
 2 



2
c
=
c
+c
=0,
t
x
t
x
t
x

(7.5)

7.1. ECUACIONES DIFERENCIALES PARCIALES

233

y es factorizable, determinamos la solucion de /t c/x = 0. Esta es una funcion


arbitraria = F (x + ct), y = G(x ct) resuelve /t + c/x = 0, la cual se verifica
rapidamente. Por superposicion lineal una solucion general de la ecuacion (7.4) es =
F (x + ct) + G(x ct). Para funciones periodicas F , G reconocemos los argumentos x + ct y
x ct como la fase de la onda plana o frente de ondas, donde las soluciones de la ecuacion
de onda (7.4) cambia abruptamente (de cero a sus valores actuales) y no estan u
nicamente
determinadas. Normal al frente de onda estan los rayos de la optica geometrica. De este modo,
las soluciones de la ecuacion (7.5) o (7.3) mas generalmente, son llamadas caractersticas o
algunas veces bicaractersticas (para PDE de segundo orden) en la literatura matematica
corresponde a los frente de ondas de la solucion de la optica geometrica de la ecuacion de
onda completa.
Para el caso elptico consideremos la ecuacion de Laplace
2 2
+ 2 =0,
x2
y

(7.6)

para un potencial de dos variables. Aqu la ecuacion caracterstica es




2

2

+i
x
y



i
x
y

=0

(7.7)

tiene soluciones complejas conjugada: = F (x+iy) para /x+i/y = 0 y = G(xiy)


para /x i/y = 0. Una solucion general de la ecuacion de potencial (7.6) es por lo
tanto = F (x + iy) + G(x iy), tanto la parte real como la imaginaria de , las cuales
son llamadas funciones arm
onicas, mientras que las soluciones polinomiales son llamadas
polinomios arm
onicos.
En mecanica cuantica la forma de Wentzel-Kramers-Brillouin (WKB) de = exp(iS/~)
para la solucion de la ecuacion de Schroedinger


~2 2
+V

2m

= i~

,
t

(7.8)

conduce a la ecuacion Hamilton-Jacobi de la mecanica clasica,


1 ~ 2
S
(S) + V =
,
2m
t

(7.9)

en el lmite ~ 0. La accion clasica de S entonces llega a ser la caracterstica de la ecuacion


~ = i S/~,
~
de Schroedinger. Sustituyendo
/t = iS/t/~ en la ecuacion (7.8),
dejando la totalidad de los factores de no nulos, y aproximando 2 = i2 S/~
(S)2 /~2 ' (S)2 , i.e., despreciando i2 /~, realmente obtenemos la ecuacion (7.9).
Encontrando las soluciones de PDE por resolver las caractersticas es uno de varias tecnicas
generales. Para mas ejemplos y tratamientos detallados de las caractersticas, las cuales no
perseguimos aqu, nos referimos a H. Bateman, Partial Differential Equations of Mathematical
Physics. New York: Dover (1994); K.E. Gustafson, Partial Differential Equations and Hilbert
Space Methods, 2nd ed. New York: Wiley (1987).

CAPITULO 7. ECUACIONES DIFERENCIALES.

234

7.1.3

Las PDE no lineales.

Las ODEs y PDEs no lineales son un campo importante y de rapido crecimiento. Encontramos
mas arriba la ecuacion de onda lineal mas simple

+c
=0,
t
x
como la PDE de primer orden a partir de la caracterstica de la ecuacion de onda. La ecuacion
de onda no lineal mas simple

+ c()
=0,
t
x

(7.10)

resulta si la velocidad local de propagacion, c, no es constante sino que depende de la onda .


Cuando una ecuacion no lineal tiene una solucion de la forma (x, t) = A cos(kx t) donde
(k) vara con k tal que 00 (k) 6= 0, entonces ella es llamada dispersiva. Quizas la ecuacion
dispersiva no lineal mas conocida de segundo orden es la ecuacion de Korteweg-de Vries

3
+
+
=0,
t
x
x3

(7.11)

la cual modela la propagacion sin perdidas de las ondas de agua superficiales y otros fenomenos. Esta es ampliamente conocida por sus soluciones solit
on. Un soliton es una onda viajera
con la propiedad de persistir a traves de una interaccion con otro soliton: Despues de que
ellos pasan uno a traves del otro, ellos emergen en la misma forma y con la misma velocidad
y no adquieren mas que un cambio de fase. Sea ( = x ct) tal onda viajera. Cuando es
sustituida en la ecuacion (7.11) esta produce la ODE no lineal
( c)

d d3
+ 3 =0,
d
d

(7.12)

la cual puede ser integrada dando


d2
2
=
c

.
d 2
2

(7.13)

No hay constantes de integracion aditivas en la ecuacion (7.13) para asegurar que d2 /d 2 0


con 0 para grande, tal que esta localizado en la caracterstica = 0, o x = ct.
Multiplicando la ecuacion (7.13) por d/d e integrando nuevamente tenemos
 2
d
3
= c 2
,
(7.14)
d
3
donde d/d 0 para grande. Tomando la raz de la ecuacion (7.14) e integrando una vez
mas encontramos la solucion solitonica
(x ct) =
cosh

3c
 .
x ct
c
2

(7.15)

7.2. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

7.1.4

235

Condiciones de borde.

Usualmente, cuando conocemos un sistema fsico en alg


un momento y la ley que rigen ese
proceso fsico, entonces somos capaces de predecir el desarrollo subsecuente. Tales valores iniciales son las mas comunes condiciones de borde asociadas con ODEs y PDEs. Encontrando
soluciones que calcen con los puntos, curvas, o superficies dados correspondientes al problema de valores de contorno. Las autofunciones usualmente requieren que satisfagan ciertas
condiciones de borde impuestas (e.g., asintoticas). Estas condiciones pueden ser tomadas de
tres formas:
1. Condiciones de borde de Cauchy. El valor de una funcion y su derivada normal especificada en el borde. En electroestatica estas significaran , el potencial, y En la
componente normal del campo electrico.
2. Condiciones de borde de Dirichlet. El valor especfico en el borde.
3. Condiciones de borde de Neumann. La derivada normal (gradiente normal) de una
funcion especfica en el borde. En el caso electrestatico este sera En y por lo tanto ,
la densidad de carga superficial.
Un resumen de las relaciones de estos tres tipos de condiciones de borde con los tres tipos
de ecuaciones diferenciales parciales bidimensionales estan dadas en la tabla 7.1. Para discusiones mas extensas de estas ecuaciones diferenciales parciales puede consultar Sommerfeld,
captulo 2, o Morse y Feshbach, captulo 6.
Partes de la tabla 7.1 son simplemente un asunto de mantener la consistencia interna,
o sentido com
un. Por ejemplo, para la ecuacion de Poisson con una superficie cerrada,
las condiciones de Dirichlet conducen a una solucion u
nica y estable. Las condiciones de
Neumann, independiente de las condiciones de Dirichlet, del mismo modo conducen a una
solucion u
nica y estable independiente de la solucion de Dirichlet. Por lo tanto las condiciones
de borde de Cauchy (lo que significa la de Dirichlet mas la de Neumann) conducen a una
inconsistencia.
El termino de condiciones de borde incluye como un caso especial el concepto de condiciones iniciales. Por ejemplo, especificando la posicion inicial x0 y la velocidad inicial v0 en
algunos problemas de dinamica correspondera a condiciones de borde de Cauchy. La u
nica
diferencia en el presente uso de las condiciones de borde en estos problemas unidimensionales
es que estamos aplicando las condiciones en ambos extremos del intervalo permitido de la
variable.

7.2

Ecuaciones diferenciales de primer orden.

La fsica involucra algunas ecuaciones diferenciales de primer orden, ellas fueron estudiadas
en el primer curso. Por completitud parece ser deseable revisarlas brevemente.
Consideremos aqu ecuaciones diferenciales de la forma general
P (x, y)
dy
= f (x, y) =
.
dx
Q(x, y)

(7.16)

CAPITULO 7. ECUACIONES DIFERENCIALES.

236
Condiciones
de borde

Cauchy
Superficie Abierta

Tipo de ecuacion diferencial parcial


Elpticas

Hiperbolicas

Laplace, Poisson
en (x, y)

Ecuacion de Ondas Ecuacion de difusion


en (x, t)
en (x, t)

Resultados no fsicos Soluci


on u
nica
(inestabilidades)
y estable

Parabolicas

Demasiado
restrictivo

Superficie Cerrada Demasiado


restrictivo
Dirichlet
Superficie Abierta Insuficiente

Demasiado
restrictivo

Demasiado
restrictivo

Insuficiente

Soluci
on u
nica y
estable en 1 dim

Superficie Cerrada Solucion u


nica
y estable
Neumann
Superficie Abierta Insuficiente

Solucion no
u
nica

Demasiado
restrictivo

Insuficiente

Soluci
on u
nica y
estable en 1 dim

Superficie Cerrada Solucion u


nica
y estable

Solucion no
u
nica

Demasiado
restrictivo

Tabla 7.1:
La ecuacion (7.16) es claramente una ecuacion de primer orden ordinaria. Es de primer orden
ya que contiene la primera derivada y no mayores. Es Ordinaria ya que la derivada dy/dx
es una derivada ordinaria o total. La ecuacion (7.16) puede o no puede ser lineal, aunque
trataremos el caso lineal explicitamente mas adelante.

7.2.1

Variables separables.

Frecuentemente la ecuacion (7.16) tendra la forma especial


dy
P (x)
= f (x, y) =
.
dx
Q(y)

(7.17)

Entonces la podemos reescribir como


P (x)dx + Q(y)dy = 0 .
Integrando de (x0 , y0 ) a (x, y) tiende a
Z x
Z
0
0
P (x )dx +
x0

y0

Q(y 0 )dy 0 = 0 .

(7.18)

7.2. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

237

Ya que los lmites inferiores x0 e y0 contribuyen en unas constantes, podramos ignorar los
lmites inferiores de integracion y simplemente a
nadir una constante de integracion al final.
Note que esta tecnica de separacion de variables no requiere que la ecuacion diferencial sea
lineal.
Ejemplo Ley de Boyle.
Una forma diferencial de la ley de los gases de Boyle es
V
dV
= ,
dP
P
para el volumen V de una cantidad fija de gas a presion P (y temperatura constante). Separando variables, tenemos
dV
dP
=
V
P
o
ln V = ln P + C .
Con dos logartmos presentes, es mas conveniente reescribir la constante de integracion C
como ln k. Entonces
ln V + ln P = ln P V = ln k
y
PV = k .

7.2.2

Ecuaciones diferenciales exactas.

Reescribimos la ecuacion (7.16) como


P (x, y)dx + Q(x, y)dy = 0 .

(7.19)

Esta ecuacion se dice que es exacta si podemos calzar el lado izquierdo de ella a un diferencial
d,
d =

dx +
dy .
x
y

(7.20)

Ya que la ecuacion (7.19) tiene un cero a la derecha, buscamos una funcion desconocida
(x, y) =constante tal que d = 0. Tenemos (si tal funcion (x, y) existe)
P (x, y)dx + Q(x, y)dy =

dx +
dy
x
y

(7.21)

238

CAPITULO 7. ECUACIONES DIFERENCIALES.

= P (x, y) ,
x

= Q(x, y) .
y

(7.22)

La condicion necesaria y suficiente para que la ecuacion sea exacta es que la segunda derivada
parcial mezclada de (x, y) (supuesta continua) es independiente del orden de diferenciacion:
2
P (x, y)
Q(x, y)
2
=
=
=
.
yx
y
x
xy

(7.23)

Si la ecuacion (7.19) corresponde a un rotor (igual cero), entonces un potencial, (x, y),
debiera existir.
Si (x, y) existe entonces a partir de las ecuaciones (7.19) y (7.21) nuestra solucion es
(x, y) = C .

(7.24)

Podemos construir (x, y) a partir de sus derivadas parciales de la misma manera que construimos un potencial magnetico vectorial en el captulo de vectores a partir de su rotor.
Podemos volver a la ecuacion (7.19) y ver que pasa si no es exacta, la ecuacion (7.23) no
es satisfecha. Sin embargo, siempre existe al menos una o quizas una infinidad de factores de
integracion, (x, y), tales que
(x, y)P (x, y)dx + (x, y)Q(x, y)dy = 0
es exacta. Desafortunadamente, un factor de integracion no siempre es obvio o facil de
encontrar. Diferente es el caso de la ecuacion diferencial de primer orden lineal considerada
a continuacion, no hay una manera sistematica de desarrollar un factor de integracion para
la ecuacion (7.19).
Una ecuacion diferencial en la cual las variables han sido separadas es automaticamente
exacta. Una ecuacion diferencial exacta no es necesariamente separable.

7.2.3

Ecuaciones diferenciales ordinarias de primer orden lineales.

Si f (x, y) en la ecuacion (7.16) tiene la forma p(x)y + q(x), entonces la ecuacion (7.16) se
convierte en
dy
+ p(x)y = q(x) .
dx

(7.25)

La ecuacion (7.25) es la ODE de primer orden lineal mas general. Si q(x) = 0, la ecuacion
(7.25) es homogenea (en y). Un q(x) distinto de cero puede representar una fuente o un
termino de forzamiento. La ecuacion (7.25) es lineal ; cada termino es lineal en y o dy/dx.
No hay potencias mayores; esto es, no hay y 2 , ni productos, y(dy/dx). Note que la linealidad
se refiere a el y y a la dy/dx; p(x) y q(x) no es necesario que sean lineales en x. La ecuacion
(7.25), es la mas importante de estas ecuaciones diferenciales de primer orden para los fsicos
y puede ser resuelta exactamente.

7.2. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

239

Busquemos un factor de integraci


on (x) tal que
(x)

dy
+ (x)p(x)y = (x)q(x) ,
dx

(7.26)

puede ser reescrito como


d
[(x)y] = (x)q(x) .
dx

(7.27)

El proposito de esto es hacer el lado izquierdo de la ecuacion (7.25) una derivada total que
pueda ser integrada por inspeccion. Esto tambien, incidentalmente, hace la ecuacion (7.25)
exacta. Expandiendo la ecuacion (7.27), obtenemos
(x)

dy d
+
y = (x)q(x) .
dx dx

La comparacion con la ecuacion (7.26) muestra que debemos requerir que


d(x)
= (x)p(x) .
dx

(7.28)

Aqu hay una ecuacion diferencial para (x), con las variables y x separables. Separamos
variables, integramos, y obtenemos
Z x

0
0
(x) = exp
p(x ) dx
(7.29)
como nuestro factor de integracion.
Con (x) conocida procedemos a integrar la ecuacion (7.27). Esto, por supuesto, fue el
objetivo de introducir en primer lugar. Tenemos
Z x
Z x
d
0
0
[(x )y] dx =
(x0 )q(x0 ) dx0 .
dx0
Ahora integrando por inspeccion, tenemos
Z x
(x)y =
(x0 )q(x0 ) dx0 + C .
Las constantes a partir del lmite inferior de integracion constante son reunidas en la constante
C. Dividiendo por (x), obtenemos
Z x

1
0
0
0
y(x) =
(x )q(x ) dx + C .
(x)
Finalmente, sustituyendo en la ecuacion (7.29) por conduce
 Z x
 Z x
Z s


y(x) = exp
p(t) dt
exp
p(t) dt q(s) ds + C .

(7.30)

CAPITULO 7. ECUACIONES DIFERENCIALES.

240

Aqu las variables mudas de integracion han sido reescritas para hacerlas inambiguas. La
ecuacion (7.30) es la solucion general completa de la ecuacion diferencial lineal, de primer
orden, la ecuacion (7.25). La porcion
 Z x

y1 (x) = C exp
p(t) dt
(7.31)
corresponde al caso q(x) = 0 y es solucion general de la ecuacion diferencial homogenea. El
otro termino en la ecuacion (7.30),
 Z x
Z x
Z s

y(x) = exp
p(t) dt
exp
p(t) dt q(s) ds ,
(7.32)
es una solucion particular que corresponde al termino especfico de fuente q(x).
Podemos notar que si nuestra ecuacion diferencial de primer orden es homogenea (q = 0),
entonces ella es separable. De lo contrario, salvo casos especiales tal como p =constante,
q =constante, o q(x) = ap(x), la ecuacion (7.25) no es separable.
Ejemplo Circuito RL.
Para un circuito resistencia-inductancia las leyes de Kirchhoff producen a
L

dI(t)
+ RI(t) = V (t) ,
dt

para la corriente I(t), donde L es la inductancia y R es la resistencia, ambas constantes. V (t)


es el voltaje aplicado tiempo dependiente.
De la ecuacion (7.29) nuestro factor de integracion (t) es
Z t
R
(t) = exp
dt
L
= eRt/L .
Entonces por la ecuacion (7.30)
Rt/L

I(t) = e

Z

Rt/L V

(t)
dt + C
L

con la constante C es determinada por una condicion inicial (una condicion de borde).
Para el caso especial V (t) = V0 , una constante,


Rt/L V0 L Rt/L
e
+C
I(t) = e
LR
V0
=
+ CeRt/L .
R
Si la condicion inicial es I(0) = 0, entonces C = V0 /R y
I(t) =


V0 
1 eRt/L .
R

DE VARIABLES.
7.3. SEPARACION

7.2.4

241

Conversi
on a una ecuaci
on integral.

Nuestra ecuacion diferencial de primer orden, ecuacion (7.16), puede ser convertida a una
ecuacion integral por integracion directa:
Z x
y(x) y(x0 ) =
f [x, y(x)] dx .
(7.33)
x0

Como una ecuacion integral hay una posibilidad de una solucion en serie de Neumann (se vera
en el proximo curso) con la aproximacion inicial y(x) y(x0 ). En la literatura de ecuaciones
diferenciales esto es llamado el metodo de Picard de aproximaciones sucesivas.
Ecuaciones diferenciales de primer orden las encontraremos de nuevo en conexion con las
transformadas de Laplace y de Fourier.

7.3

Separaci
on de variables.

Las ecuaciones de la fsica matematica listada en la seccion 7.1 son todas ecuaciones diferenciales parciales. Nuestra primera tecnica para su solucion es dividir la ecuacion diferencial
parcial en n ecuaciones diferenciales ordinarias de n variables. Cada separacion introduce
una constante de separacion arbitraria. Si tenemos n variables, tenemos que introducir n 1
constantes, determinadas por las condiciones impuestas al resolver el problema.

7.3.1

Coordenadas cartesianas.

En coordenadas cartesianas las euaciones de Helmholtz llegan a ser


2 2 2
+ 2 + 2 + k2 = 0 ,
x2
y
z

(7.34)

usando la forma cartesiana para el Laplaciano. Por el momento k 2 sera una constante. Quizas
la manera mas simple de tratar una ecuacion diferencial parcial tal como la ecuacion (7.34)
es dividirla en un conjunto de ecuaciones diferenciales ordinarias. Esto puede ser hecho como
sigue. Sea
(x, y, z) = X(x)Y (y)Z(z) ,

(7.35)

y sustituir de vuelta en la ecuacion (7.34). Como sabemos que la ecuacion (7.35) es valida?.
La respuesta es muy simple. No sabemos si es valida!. Mejor dicho, estamos procediendo en
este espritu y tratando a ver si trabaja. Si nuestro intento es exitoso, entonces la ecuacion
(7.35) sera justificada. Si no es exitoso, lo descubriremos pronto y luego trataremos otro
ataque tal como las funciones de Green, transformadas integral, o analisis numerico a la
fuerza bruta. Con supuestamente dada por la ecuacion (7.35), la ecuacion (7.34) llega a
ser
YZ

d2 Y
d2 Z
d2 X
+
XZ
+
XY
+ k 2 XY Z = 0 .
2
2
2
dx
dy
dz

(7.36)

CAPITULO 7. ECUACIONES DIFERENCIALES.

242

Dividiendo por = XY Z y rearreglando los terminos, obtenemos


1 d2 Y
1 d2 Z
1 d2 X
2
=
k

.
X dx2
Y dy 2
Z dz 2

(7.37)

La ecuacion (7.37) exhibe una separacion de variables. El lado izquierdo es solo funcion de
x, mientras que el lado derecho depende solamente de y y z. As la ecuacion (7.37) es una
clase de paradoja. Una funcion de x es igualada a una funcion de y y z, pero x, y y z son
todas coordenadas independientes. Esta independencia significa que el comportamiento de x
como una variable independiente no esta determinada ni por y ni por z. La paradoja esta
resuelta fijando cada lado igual a una constante, una constante de separacion. Escogemos3
1 d2 X
= l2 ,
X dx2
k 2

1 d2 Y
1 d2 Z

= l2 .
Y dy 2
Z dz 2

(7.38)

(7.39)

Ahora, volviendo nuestra atencion a la ecuacion (7.39), obtenemos


1 d2 Y
1 d2 Z
2
2
=
k
+
l

,
Y dy 2
Z dz 2

(7.40)

y una segunda separacion ha sido realizada. Aqu tenemos una funcion de y igualada a una
funcion de z y aparece la misma paradoja. La resolvemos como antes igualando cada lado a
otra constante de separacion, m2 ,
1 d2 Y
= m2 ,
Y dy 2

(7.41)

1 d2 Z
= k 2 + l2 + m2 = n2 ,
Z dz 2

(7.42)

introduciendo una constante n2 por k 2 = l2 + m2 + n2 para producir un conjunto simetrico de


ecuaciones. Ahora tenemos tres ecuaciones diferenciales ordinarias ((7.38), (7.41), y (7.42))
para reemplazar en la ecuacion (7.34). Nuestra suposicion (ecuacion (7.35)) ha sido exitosa
y es por lo tanto justificada.
Nuestra solucion sera etiquetada de acuerdo a la eleccion de nuestras constantes l, m, n,
esto es,
lmn (x, y, z) = Xl (x)Ym (y)Zn (z) .

(7.43)

Sujeto a las condiciones del problema que se resuelve y a la condicion k 2 = l2 + m2 + n2 ,


podemos escoger l, m, n como queramos, y la ecuacion (7.43) sera todava una solucion de
la ecuacion (7.34), dado que Xl (x) es una solucion de la ecuacion (7.38) y as seguimos.
3

La elecci
on de signo es completamente arbitraria, ser
a fijada en un problema especfico por la necesidad
de satisfacer las condiciones de borde.

DE VARIABLES.
7.3. SEPARACION

243

Podemos desarrollar la solucion mas general de la ecuacion (7.34) tomando una combinacion
lineal de soluciones lmn ,
X
almn lmn .
(7.44)
=
l,m,n

Los coeficientes constantes almn finalmente son escogidos para permitir que satisfaga las
condiciones de borde del problema.

7.3.2

Coordenadas cilndricas circulares.

Si consideramos que nuestra funcion desconocida depende de , , z la ecuacion de Helmholtz se convierte en


2 (, , z) + k 2 (, , z) = 0 ,

(7.45)

o
1

1 2 2
+ 2 + k2 = 0 .
2
2

z

(7.46)

Como antes, suponemos una forma factorizada para ,


(, , z) = P ()()Z(z) .
Sustituyendo en la ecuacion (7.46), tenemos


dP
P Z d2
d2 Z
Z d

+ 2
+
P

+ k 2 P Z = 0 .
d
d
d2
dz 2

(7.47)

(7.48)

Todas las derivadas parciales han llegado a ser derivadas ordinarias. Dividiendo por P Z y
moviendo la derivada z al lado derecho conduce a


1 d
dP
1 d2
1 d2 Z
2

+ 2
+
k
=

.
(7.49)
P d
d
d2
Z dz 2
De nuevo, tenemos la paradoja. Una funcion de z en la derecha aparece dependiendo de
una funcion de y en el lado izquierdo. Resolvemos la paradoja haciendo cada lado de la
ecuacion (7.49) igual a una constante, la misma constante. Escojamos4 l2 . Entonces
d2 Z
= l2 Z ,
2
dz

(7.50)

y
1 d
P d
4

dP

1 d2
+ k 2 = l2 .
2 d2

(7.51)

La elecci
on del signo de la constante de separaci
on es arbitraria. Sin embargo, elegimos un signo menos
para la coordenada axial z en espera de una posible dependencia exponencial en z. Un signo positivo es
elegido para la coordenada azimutal en espera de una dependencia peri
odica en .

244

CAPITULO 7. ECUACIONES DIFERENCIALES.

Ajustando k 2 + l2 = n2 , multiplicando por 2 , y reordenando terminos, obtenemos




d
dP
1 d2

+ n 2 2 =
.
P d
d
d2

(7.52)

Podemos ajustar el lado derecho a m2 y


d2
= m2
d2
Finalmente, para la dependencia en tenemos


d
dP

+ (n2 2 m2 )P = 0 .
d
d

(7.53)

(7.54)

Esta es la ecuacion diferencial de Bessel. La solucion y sus propiedades seran presentradas


en el proximo curso. La separacion de variables de la ecuacion de Laplace en coordenadas
parabolicas tambien conduce a ecuaciones de Bessel. Puede notarse que la ecuacion de Bessel
es notable por la variedad de formas que puede asumir.
La ecuacion original de Helmholtz, una ecuacion diferencial parcial tridimensional, ha
sido reemplazada por tres ecuaciones diferenciales ordinarias, las ecuaciones (7.50), (7.53) y
(7.54). Una solucion de la ecuacion de Helmholtz es
(, , z) = P ()()Z(z) .

(7.55)

Identificando las soluciones especficas P , , Z por subndices, vemos que la solucion mas
general de la ecuacion de Helmholtz es una combinacion lineal del producto de soluciones:
X
(, , z) =
amn Pmn ()m ()Zn (z) .
(7.56)
m,n

7.3.3

Coordenadas polares esf


ericas.

Tratemos de separar la ecuacion de Helmholtz, de nuevo con k 2 constante, en coordenadas


polares esfericas. Usando la expresion del Laplaciano en estas coordenadas obtenemos






1

1 2
2
sen
r
+
sen
+
= k 2 .
(7.57)
2
2
r sen
r
r

sen
Ahora, en analoga con la ecuacion (7.35) tratamos
(r, , ) = R(r)()() .
Sustituyendo de vuelta en la ecuacion (7.57) y dividiendo por R, tenemos




1 d
1
d
d
1
d2
2 dR
r
+
sen
+ 2
= k2 .
2
2
2
2
Rr dr
dr
r sen d
d
r sen d

(7.58)

(7.59)

DE VARIABLES.
7.3. SEPARACION

245

Note que todas las derivadas son ahora derivadas ordinarias mas que parciales. Multiplicando
por r2 sen2 , podemos aislar (1/)(d2 /d2 ) para obtener5





1 d2
1 d
1
d
d
2
2
2 dR
2
= r sen k 2
r
2
sen
.
(7.60)
d2
r R dr
dr
r sen d
d
La ecuacion (7.60) relaciona una funcion u
nicamente de con una funcion de r y . Ya
que r, , y son variables independientes, igualamos cada lado de la ecuacion (7.60) a una
constante. Aqu una peque
na consideracion puede simplificar el analisis posterior. En casi
todos los problemas fsicos aparecera como un angulo azimutal. Esto sugiere una solucion
periodica mas que una exponencial. Con esto en mente, usemos m2 como la constante
de separacion. Cualquier constante lo hara, pero esta hara la vida un poquito mas facil.
Entonces
1 d2
= m2
d2

(7.61)

y
1 d
2
r R dr

2 dR

dr

1
d
+ 2
r sen d

d
sen
d

m2
= k 2 .
r2 sen2

Multiplicando la ecuacion (7.62) por r2 y reordenando terminos, tenemos






1 d
1
d
d
m2
2 dR
2 2
r
+r k =
sen
+
.
R dr
dr
sen d
d
sen2

(7.62)

(7.63)

Nuevamente, las variables son separadas. Igualamos cada lado a una conmstante Q y finalmente obtenemos


1 d
d
m2
sen

+ Q = 0 ,
(7.64)
sen d
d
sen2
1 d
r2 dr

2 dR

dr

+ k2R

QR
=0.
r2

(7.65)

Una vez mas hemos reemplazado una ecuacion diferencial parcial de tres variables por tres
ecuaciones diferenciales ordinarias. Las soluciones de estas tres ecuaciones diferenciales ordinarias son discutidas en el proximo curso. Por ejemplo, la ecuacion (7.64) es identificada
como la ecuacion de asociada de Legendre en la cual la constante Q llega a ser l(l + 1); con l
entero. Si k 2 es una constante (positiva), la ecuacion (7.65) llega a ser la ecuacion de Bessel
esferica.
Nuevamente, nuestra solucion mas general puede ser escrita
X
Qm (r, , ) =
RQ (r)Qm ()m () .
(7.66)
q,m

El orden en el cual las variables son separadas aqu no es u


nico. Muchos textos de mecanica cu
antica
separan la dependencia en r primero.

CAPITULO 7. ECUACIONES DIFERENCIALES.

246

La restriccion que k 2 sea una constante es innecesariamente severa. El proceso de separacion


sera todava posible para k 2 tan general como
k 2 = f (r) +

1
1
2
g() + 2
h() + k 0 .
2
2
r
r sen

(7.67)

En el problema del atomo de hidrogeno, uno de los ejemplos mas importantes de la ecuacion
de onda de Schrodinger con una forma cerrada de solucion es k 2 = f (r). La ecuacion (7.65)
para el atomo de hidrogeno llega a ser la ecuacion asociada de Laguerre.
La gran importancia de esta separacion de variables en coordenadas polares esfericas
deriva del hecho que el caso k 2 = k 2 (r) cubre una tremenda cantidad de fsica: las teoras de
gravitacion, electroestatica, fsica atomica y fsica nuclear. Y, con k 2 = k 2 (r), la dependencia
angular es aislada en las ecuaciones (7.61) y (7.64), la cual puede ser resuelta exactamente.
Finalmente, una ilustracion de como la constante m en la ecuacion (7.61) es restringida,
notamos que en coordenadas polares esfericas y cilndricas es un angulo azimutal. Si esto es
un problema clasico, ciertamente requeriremos que la solucion azimutal () sea univaluada,
esto es,
( + 2) = () .

(7.68)

Esto es equivalente a requerir que la solucion azimutal tenga un perodo de 2 o alg


un m
ultiplo
entero de el. Por lo tanto m debe ser un entero. Cual entero, depende de los detalles del
problema. Cada vez que una coordenada corresponda a un eje de translacion o a un angulo
azimutal la ecuacion separada siempre tendra la forma
d2 ()
= m2 ()
2
d
para , el angulo azimutal, y
d2 Z
= a2 Z(z)
dz 2

(7.69)

para z, un eje de traslacion en un sistema de coordenadas cilndrico. Las soluciones, por supuesto, son sen az y cos az para a2 y la correspondiente funcion hiperbolica (o exponencial)
senh az y cosh az para +a2 .
Otras ecuaciones diferenciales ordinarias encontradas ocasionalmente incluyen las ecuaciones de Laguerre y la asociada de Laguerre del importante problema del atomo de hidrogeno
en mecanica cuantica:

d2 y
dy
x 2 + (1 x) + y = 0 ,
dx
dx

(7.70)

d2 y
dy
+ (1 + k x) + y = 0 .
2
dx
dx

(7.71)

De la teora de la mecanica cuantica del oscilador armonico lineal tenemos la ecuacion de


Hermite,
d2 y
dy
2x + 2y = 0 .
2
dx
dx

(7.72)

DE VARIABLES.
7.3. SEPARACION

247

Finalmente, de vez en vez encontramos la ecuacion diferencial de Chebyshev


(1 x2 )

d2 y
dy
x + n2 y = 0 .
2
dx
dx

(7.73)

Para una referencia conveniente, las formas de la solucion de la ecuacion de Laplace, la ecuacion de Helmholtz y la ecuacion de difusion en coordenadas polares esfericas son resumidas
en la tabla 7.2. Las soluciones de la ecuacion de Laplace en coordenadas circulares cilndricas
son representadas en la tabla 7.3.
X
=
alm lm
l,m

1.

2.

3.

=0
2

+k =0
2 k 2 = 0

lm =

lm =

rl
rl1

jl (kr)




nl (kr)
lm =

il (kr)



kl (kr)

Plm (cos )
Qm
l (cos )
Plm (cos )
Qm
l (cos )
Plm (cos )
Qm
l (cos )



cos m

sen m


cos m

sen m


cos m

sen m

Tabla 7.2: Soluciones en coordenadas polares esfericas

2 = 0

am m ,

m,

a.

m =

Jm ()



Nm ()
m =

b.

Im ()

c.

m =

m
m



ez



cos z

sen m


Km ()
= 0 (no hay
dependencia en z)

cos m

cos m
sin m



cos m

ez




sen z


sen m

Tabla 7.3: Soluciones en coordenadas cilndricas circulares


Para las ecuaciones de Helmholtz y de difusion la constante k 2 se agrega a la constante
de separacion 2 para definir un nuevo parametro 2 o 2 . Para la eleccion de + 2 (con
2 > 0) obtenemos Jm () y Nm (). Para la eleccion 2 (con 2 > 0) obtenemos Im ()
y Km () como previamente.
Estas ecuaciones diferenciales ordinarias y sus generalizaciones seran examinadas y sistematizadas en el proximo curso

Departamento de Fsica, Facultad de Ciencias, Universidad de Chile.


noa. Casilla 653, Correo 1, Santiago
Las Palmeras 3425, Nu
fono: 562 678 7276
fax: 562 271 2973
e-mail: secretaria@fisica.ciencias.uchile.cl

Apuntes de un curso de

FISICA MATEMATICA
segunda edici
on

Jose Rogan C.
Vctor Munoz G.

ii

iii

Segundo Curso

METODOS
DE LA FISICA

MATEMATICA
I

Indice
I

Series y Variable Compleja

1. Series infinitas.
1.1. Conceptos fundamentales . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Pruebas de Convergencia . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1. Pruebas de comparacion. . . . . . . . . . . . . . . . . . . . .
1.2.2. Prueba de la raz de Cauchy. . . . . . . . . . . . . . . . . . .
1.2.3. Prueba de la razon de D Alembert o Cauchy. . . . . . . . .
1.2.4. Prueba integral de Cauchy o Maclaurin. . . . . . . . . . . .
1.2.5. Prueba de Kummer. . . . . . . . . . . . . . . . . . . . . . .
1.2.6. Prueba de Raabe. . . . . . . . . . . . . . . . . . . . . . . . .
1.2.7. Prueba de Gauss. . . . . . . . . . . . . . . . . . . . . . . . .
1.2.8. Mejoramiento de convergencia. . . . . . . . . . . . . . . . .
1.3. Series alternadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1. Criterio de Leibniz. . . . . . . . . . . . . . . . . . . . . . . .
1.3.2. Convergencia absoluta. . . . . . . . . . . . . . . . . . . . . .

1.4. Algebra
de series. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.1. Mejoramiento de la convergencia, aproximaciones racionales.
1.4.2. Reordenamiento de series dobles. . . . . . . . . . . . . . . .
1.5. Series de funciones. . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5.1. Convergencia uniforme. . . . . . . . . . . . . . . . . . . . . .
1.5.2. Prueba M de Weierstrass. . . . . . . . . . . . . . . . . . . .
1.5.3. Prueba de Abel. . . . . . . . . . . . . . . . . . . . . . . . . .
1.6. Expansion de Taylor. . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6.1. Teorema de Maclaurin. . . . . . . . . . . . . . . . . . . . . .
1.6.2. Teorema Binomial. . . . . . . . . . . . . . . . . . . . . . . .
1.6.3. Expansion de Taylor de mas de una variable. . . . . . . . . .
1.7. Series de potencias. . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.7.1. Convergencia. . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8. Convergencia uniforme y absoluta. . . . . . . . . . . . . . . . . . .
1.8.1. Continuidad. . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8.2. Diferenciacion e integracion. . . . . . . . . . . . . . . . . . .
1.8.3. Teorema de unicidad. . . . . . . . . . . . . . . . . . . . . . .
1.8.4. Inversion de series de potencia. . . . . . . . . . . . . . . . .
1.9. Integrales elpticas. . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.9.1. Definiciones. . . . . . . . . . . . . . . . . . . . . . . . . . . .
v

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

3
3
6
6
7
8
9
11
11
12
13
14
14
15
16
17
18
20
20
21
23
24
25
27
29
29
30
30
30
30
31
32
33
34

INDICE

vi

1.9.2. Expansion de series. . . . . . . . . . . . . .


1.9.3. Valores lmites. . . . . . . . . . . . . . . . .
1.10. N
umeros de Bernoulli. . . . . . . . . . . . . . . . .
1.10.1. Funciones de Bernoulli. . . . . . . . . . . . .
1.10.2. Formula de integracion de Euler-Maclaurin.
1.11. Funcion zeta de Riemann. . . . . . . . . . . . . . .
1.11.1. Mejoramiento de la convergencia. . . . . . .
1.12. Series asintoticas o semi-convergentes. . . . . . . . .
1.12.1. Funcion gama incompleta. . . . . . . . . . .
1.12.2. Integrales coseno y seno. . . . . . . . . . . .
1.12.3. Definicion de series asintoticas. . . . . . . .
1.12.4. Aplicaciones a calculo numerico. . . . . . . .
1.13. Productos infinitos. . . . . . . . . . . . . . . . . . .
1.13.1. Convergencia de un producto infinito. . . . .
1.13.2. Funciones seno, coseno y gama. . . . . . . .
2. N
umeros Complejos
2.1. Introduccion. . . . . . . . . . . . . .
2.2. Plano complejo. . . . . . . . . . . . .
2.3. Representacion polar. . . . . . . . . .
2.4. Distancia en el plano complejo. . . .
2.5. Desigualdad triangular. . . . . . . . .
2.6. Isomorfismo con matrices. . . . . . .
2.7. Sucesion de n
umeros complejos. . . .
2.8. Series de n
umeros complejos. . . . . .
2.8.1. Pruebas mas comunes para la
2.8.2. Radio de convergencia. . . . .
2.8.3. La serie exponencial. . . . . .
2.9. Relacion de Euler. . . . . . . . . . .
2.10. Formula de Moivre. . . . . . . . . . .
2.11. Ecuacion ciclotonica. . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
convergencia absoluta.
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .

3. Ejemplos sencillos de funciones complejas


3.1. Notacion. . . . . . . . . . . . . . . . . . . . . .
3.2. Ejemplo 1, traslacion. . . . . . . . . . . . . . . .
3.3. Ejemplo 2, rotacion en torno al origen. . . . . .
3.4. Ejemplo 3, reflexion respecto al eje real. . . . .
3.5. Ejemplo 4, rotacion mas traslacion. . . . . . . .
3.6. Ejemplo 5, transformacion cuadratica. . . . . .
3.7. Ejemplo 6, transformacion exponencial. . . . . .
3.8. Ejemplo 7, transformacion de Joukowsky. . . . .
3.9. Ejemplo 8, inverso. . . . . . . . . . . . . . . . .
3.10. Ejemplo 9, inverso conjugado. . . . . . . . . . .
3.11. Mapeo sobre la esfera de Riemann. . . . . . .
3.11.1. Algunas propiedades de esta proyeccion.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

35
36
37
39
40
41
44
44
45
47
48
49
49
50
51

.
.
.
.
.
.
.
.
.
.
.
.
.
.

53
53
55
57
57
57
59
59
59
60
60
61
62
63
63

.
.
.
.
.
.
.
.
.
.
.
.

65
65
66
66
67
68
69
70
71
72
73
74
74

INDICE

vii

3.11.2. Mapeo de z y 1/z y su relacion. . . . . . . . . . . . . . . . . . . . . . 75


4. Transformaciones homogr
aficas y rotaciones de la esfera.

77

5. Derivabilidad.
5.1. Identidades de Cauchy-Riemann. . . . . . . . . . . . . . . . . . . . .
5.2. Ecuaciones de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3. Interpretacion hidrodinamica de las identidades de Cauchy-Riemann.
5.4. Familias ortogonales. . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

83
83
86
89
91

6. Integraci
on.
6.1. Definiciones . . . . . . . . . . . . . . . . . . . .
6.2. Interior de una curva cerrada sin puntos dobles.
6.3. Recorrido del contorno de un dominio. . . . . .
6.4. Integrales de lnea en el plano complejo. . . . .
6.5. Evaluacion de integrales impropias reales. . . . .
6.6. Formula integral de Cauchy. . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

93
93
96
97
99
104
105

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

7. Series de Potencias.
7.1. Series y radio de convergencia.
7.2. Propiedades. . . . . . . . . . .
7.3. Maximos, mnimos y funciones
7.4. N
umeros de Bernoulli. . . . .

. . . . . . .
. . . . . . .
armonicas.
. . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

109
. 109
. 112
. 118
. 120

8. Prolongaci
on Analtica.
8.1. Definiciones. . . . . . . . . .
8.2. Lema de Heine-Borel . . . .
8.3. Teorema de identidad. . . .
8.4. Prolongacion analtica. . . .
8.5. Funcion de Riemann. . . .
8.6. Lugares nulos y a-lugares. .
8.7. Comportamiento en infinito.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.

137
. 137
. 140
. 141
. 143
. 145

.
.
.
.
.

149
. 149
. 150
. 151
. 151
. 153

.
.
.
.
.
.
.

9. Funciones Multivaluadas.

9.1. Funcion z. . . . . . . . . . .
9.2. Superficies de Riemann. . . .
9.3. Otros puntos de ramificacion.
9.4. La funcion Logaritmo. . . . .
9.5. La funcion Arcotangente. . . .

.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.

10.Desarrollo de Laurent.
10.1. Desarrollo en torno a z0 = 0. . . . .
10.2. Desarrollo en torno a z0 . . . . . . .
10.3. Unicidad del desarrollo de Laurent.
10.4. Ejemplos. . . . . . . . . . . . . . .
10.5. Definiciones. . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

123
123
124
125
126
131
132
134

INDICE

viii

10.6. La funcion Arcosecante. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154


10.7. Funciones enteras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
11.Residuos.
11.1. Definicion y teorema. . . . . . . . . . . .
11.2. Funciones racionales. . . . . . . . . . . .
11.3. Funciones trigonometricas. . . . . . . . .
11.4. Polos, residuos y lugares nulos. . . . . .
11.5. Ejemplos. . . . . . . . . . . . . . . . . .
11.5.1. Residuos de un polo de orden m.
11.6. Valor principal de Cauchy. . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

159
. 159
. 161
. 161
. 164
. 167
. 172
. 172

12.Funciones Meromorfas.
13.La funci
on .
13.1. Definicion. . . . . . . . . . . . . .
13.2. Exploracion. . . . . . . . . . . . .
13.3. Definiciones precisas. . . . . . . .
13.4. Representaciones integrales de .
13.5. La funcion Beta. . . . . . . . . .
13.5.1. Casos particulares. . . . .

175

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

14.Representaci
on Conforme.
14.1. Introduccion. . . . . . . . . . . . . . . . . . . .
14.2. Representacion conforme. . . . . . . . . . . . .
14.3. Transformaciones de funciones armonicas. . . .
14.4. Transformaciones de las condiciones de borde. .
14.5. Aplicaciones . . . . . . . . . . . . . . . . . . . .
14.5.1. Temperaturas estacionarias en una pared
15.Ecuaciones diferenciales.
15.1. Ecuaciones diferenciales parciales . . . . . .
15.1.1. Ejemplos de PDE. . . . . . . . . . .
15.1.2. Clases de PDE y caracterstica. . . .
15.1.3. Las PDE no lineales. . . . . . . . . .
15.1.4. Condiciones de borde. . . . . . . . .
15.2. Ecuaciones diferenciales de primer orden. . .
15.2.1. Variables separables. . . . . . . . . .
15.2.2. Ecuaciones diferenciales exactas. . . .
15.2.3. Ecuaciones diferenciales ordinarias de
15.2.4. Conversion a una ecuacion integral. .
15.3. Separacion de variables. . . . . . . . . . . .
15.3.1. Coordenadas cartesianas. . . . . . . .
15.3.2. Coordenadas cilndricas circulares. .
15.3.3. Coordenadas polares esfericas. . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
semi-infinita.

. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
primer
. . . .
. . . .
. . . .
. . . .
. . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
orden lineales.
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

181
181
182
183
186
188
188

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

191
. 191
. 191
. 193
. 196
. 198
. 199

.
.
.
.
.
.
.
.
.
.
.
.
.
.

203
. 203
. 204
. 206
. 208
. 209
. 209
. 210
. 211
. 212
. 214
. 215
. 215
. 216
. 218

Indice de figuras
1.1. Prueba de comparacion. . .
1.2. Comparacion de integral con
1.3. Rearreglo de serie armonica
1.4. Series dobles. . . . . . . . .
1.5. Series dobles. . . . . . . . .
1.6. Series dobles. . . . . . . . .
1.7. Convergencia uniforme. . . .
1.8. Pendulo simple . . . . . . .
1.9. Integrales elpticas. . . . . .
1.10. Funcion zeta de Riemann. .
1.11. Sumas parciales. . . . . . . .
2.1.
2.2.
2.3.
2.4.
2.5.
2.6.
2.7.

. . . . .
suma de
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .

Plano complejo. . . . . . . . . . . . .
Complejo conjugado. . . . . . . . . .
Representacion polar. . . . . . . . . .
Distancia en el plano complejo. . . .
Convergencia de una serie en el plano
Convergencia en el plano complejo. .
Las raices sextas de la unidad. . . . .

. . . . .
bloques
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

7
9
17
18
19
19
21
33
35
42
46

. . . . . .
. . . . . .
. . . . . .
. . . . . .
complejo.
. . . . . .
. . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

55
56
58
58
60
61
64

. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
radiales.
. . . . .
. . . . .
. . . . .
. . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

65
66
66
67
67
68
68
69
70
71
72
73
73
74
75

3.1. Funcion compleja. . . . . . . . . . . . . . . . . . . .


3.2. Funcion traslacion en a. . . . . . . . . . . . . . . .
3.3. Funcion rotacion en torno al origen. . . . . . . . . .
3.4. Funcion reflexion respecto al eje real. . . . . . . . .
3.5. Funcion reflexion respecto al eje imaginario. . . . .
3.6. Funcion rotacion mas traslacion. . . . . . . . . . . .
3.7. ejemplo de mapeo . . . . . . . . . . . . . . . . . . .
3.8. Transformacion cuadratica. . . . . . . . . . . . . . .
3.9. Mapeo z 2 para rectas ortogonales. . . . . . . . . . .
3.10. Mapeo ez para rectas ortogonales. . . . . . . . . . .
3.11. Transformacion de Joukowsky para crculos y rectas
3.12. Mapeo 1/z para los diferentes cuadrantes. . . . . .
3.13. Mapeo 1/z . . . . . . . . . . . . . . . . . . . . . . .
3.14. Esfera de Riemann. . . . . . . . . . . . . . . . . . .
3.15. Mapeo sobre la esfera de crculos y lneas. . . . . .
ix

INDICE DE FIGURAS

3.16. Mapeo sobre la esfera de rectas que se cruzan. . . . . . . . . . . . . . . . . . . 75


3.17. Mapeo de z y 1/z y su relacion sobre la esfera. . . . . . . . . . . . . . . . . . 76
4.1. Puntos diametralmente opuestos en la esfera. . . . . . . . . . . . . . . . . . . . 80
5.1.
5.2.
5.3.
5.4.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

83
90
91
92

6.1. Curva seccionalmente lisa y orientada.


6.2. Curva parametrizada. . . . . . . . . . .
6.3. Otra curva parametrizada. . . . . . . .
6.4. Curva con y sin puntos dobles. . . . . .
6.5. Dominio simplemente conexo. . . . . .
6.6. Dominio no simplemente conexo. . . .
6.7. Dominio m
ultiplemente conexo. . . . .
6.8. Interior de curva I. . . . . . . . . . . .
6.9. Interior de curva II. . . . . . . . . . . .
6.10. Interior de curva III. . . . . . . . . . .
6.11. Triangulo. . . . . . . . . . . . . . . . .
6.12. Curva cerrada. . . . . . . . . . . . . .
6.13. Polgono. . . . . . . . . . . . . . . . . .
6.14. Camino en el plano complejo. . . . .
6.15. Camino . . . . . . . . . . . . . . . . .
6.16. Camino cerrado . . . . . . . . . . . .
6.17. Camino cerrado . . . . . . . . . . . .
6.18. Camino cerrado . . . . . . . . . . . .
6.19. Camino . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

93
94
94
95
95
95
96
96
96
97
98
98
99
100
101
101
102
104
106

Sucesion senn x. . . . . . . . . . . . . .
Radios de convergencia. . . . . . . . .
Region simplemente conexa Re(z) > 0.
Region de convergencia. . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

111
112
116
118

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

123
123
124
125
125
126
126
127
128
128
129

7.1.
7.2.
7.3.
7.4.

Funciones en dominios abiertos.


ImagF (z) = = cte. . . . . . .
ImagF (z) = ln r = cte. . . . . .
Familias de curvas ortogonales.

.
.
.
.

.
.
.
.

8.1. Conjunto acotado. . . . . . . . . .


8.2. Punto lmite. . . . . . . . . . . . .
8.3. Lema de Heine-Borel I. . . . . . . .
8.4. Lema de Heine-Borel II. . . . . . .
8.5. Teorema de identidad. . . . . . . .
8.6. Conjuntos D1 y D2 . . . . . . . . . .
8.7. Zona de convergencia de 1/(1 z).
8.8. Prolongacion analtica. . . . . . . .
8.9. Prolongacion al plano complejo. . .
8.10. Agrandar el radio de convergencia.
8.11. Obstaculos para la funcion z cot z. .

.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

INDICE DE FIGURAS

xi

8.12. Desarrollos para la funcion 1/(1 z). . . . . . . . . . . . . . . . . . . . . . . . 129


8.13. Funcion de Riemann. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
8.14. Prolongacion al plano complejo de la funcion . . . . . . . . . . . . . . . . . . 132
9.1. La funcion f (z) = z 2 . . . . . . . . . . . . . . . . .

9.2. La funcion f (x) = x. . . . . . . . . . . . . . . .

9.3. Crculo de convergencia del desarrollo de z. . . .

9.4. El eje real negativo para z. . . . . . . . . . . . .


9.5. Funcion con lnea de ramificacion. . . . . . . . . .
9.6. Despues de dos vueltas se vuelve al mismo punto.

9.7. Las dos superficies de Riemann


de z. . . . . . .

9.8. Punto de ramificacion de z a. . . . . . . . . .


9.9. Dos puntos de ramificacion. . . . . . . . . . . . .
9.10. Otra lnea de ramificacion. . . . . . . . . . . . . .
9.11. Lnea de ramificacion sobre la esfera de Riemann.
9.12. Funcion logaritmo sobre el eje real. . . . . . . . .
9.13. Radio de convergencia para (9.5). . . . . . . . . .
9.14. Camino de integracion para (9.6). . . . . . . . . .
9.15. Camino de integracion para (9.10). . . . . . . . .
9.16. Camino de integracion en torno a +i. . . . . . . .
9.17. Camino de integracion en torno a i. . . . . . . .
9.18. Funcion arcotangente. . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

137
137
138
139
139
140
140
141
142
142
143
143
144
144
146
146
146
147

10.1. Region anular. . . . . . . . . . . . . . . . . . .


10.2. La funcion f (z) = 1/(z 1). . . . . . . . . . .
10.3. La funcion f (z) = 1/(z 1)(z 2). . . . . . .
10.4. La region donde f es univaluada y holomorfa.
10.5. Singularidades de la funcion 1/ sen z. . . . . .
10.6. Zona de convergencia. . . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

149
152
152
153
154
156

11.1. Region donde f es analtica. . . . .


11.2. Camino de integracion. . . . . . . .
11.3. Camino de integracion. . . . . . . .
11.4. Camino de integracion. . . . . . . .
11.5. Camino de integracion ejemplo I. .
11.6. Eleccion de rama. . . . . . . . . . .
11.7. Camino de integracion ejemplo II. .
11.8. Camino de integracion ejemplo III.
11.9. Camino de integracion ejemplo IV.
11.10.Camino de integracion. . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

159
160
161
162
167
168
168
169
171
172

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

12.1. Malla. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178


13.1. Valores de la funcion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
13.2. Acotando el lmite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
13.3. La funcion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

INDICE DE FIGURAS

xii

14.1. Transformacion w = f (z). . . . . . . . . . . . . . . .


14.2. Par de curvas bajo la transformacion w = f (z). . . .
14.3. Mapeo isogonal. . . . . . . . . . . . . . . . . . . . . .
14.4. Mapeo w = z 2 . . . . . . . . . . . . . . . . . . . . . .
14.5. Condiciones de borde de primera clase (Dirichlet). . .
14.6. Region donde H(u, v) es armonica. . . . . . . . . . .
14.7. Mapeo de una condicion de borde. . . . . . . . . . . .
14.8. Curvas ortogonales. . . . . . . . . . . . . . . . . . . .
14.9. Mapeo de una particular condicion de borde. . . . . .
14.10.Geometra del solido. . . . . . . . . . . . . . . . . . .
14.11.Curvas ortogonales. . . . . . . . . . . . . . . . . . . .
14.12.Pared semi-infinita. . . . . . . . . . . . . . . . . . . .
14.13.Transformacion conforme. . . . . . . . . . . . . . . .
14.14.Transformacion conforme w = Log[(z 0 1)/(z 0 + 1)].

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

191
192
192
193
194
195
196
197
198
198
199
199
200
200

Parte I
Series y Variable Compleja

Captulo 1
Series infinitas.
versi
on final corregida 2.31, 6 de Mayo del 20031

1.1.

Conceptos fundamentales

Las series infinitas, literalmente sumas de un n


umero infinito de terminos, ocurre frecuentemente tanto en matematicas pura como aplicada. Ellas podran ser usadas por los
matematicos puros para definir funciones como una aproximacion fundamental a la teora
de funciones, tanto como para calcular valores precisos de constantes y funciones trascendentales. En matematica, en ciencias y en ingeniera las series infinitas son ubicuas, es por
ello que aparecen en la evaluacion de integrales, en la solucion de ecuaciones diferenciales, en
series de Fourier y compite con las representaciones integral para la descripcion de funciones
especiales. Mas adelante veremos la solucion en series de Neumann para ecuaciones integrales
dan un ejemplo mas de la ocurrencia y uso de las series infinitas.
Encaramos el problema que significa la suma de un n
umero infinito de terminos. La
aproximacion usual es por sumas parciales. Si tenemos una sucesion de terminos infinitos
u1 , u2 , u3 , u4 , u5 , . . ., definimos la suma parcial i-esima como
si =

i
X

un ,

(1.1)

n=1

Esta es una suma finita y no ofrece dificultades. Si las sumas parciales si convergen a un
lmite (finito) cuando i ,
lm si = S ,
(1.2)
i

La serie infinita n=1 un se dice que es convergente y tiene el valor S. Note cuidadosamente
que nosotros razonablemente y plausiblemente, pero a
un arbitrariamente definimos que la
serie infinita es igual a S. Podemos notar que una condicion necesaria para esta convergencia
a un lmite es que el lmn un = 0. Esta condicion, sin embargo, no es suficiente para
garantizar la convergencia. La ecuacion (1.2) usualmente esta escrita en notacion matematica
formal:
1

Este captulo est


a basado en el quinto captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.

CAPITULO 1. SERIES INFINITAS.

La condicion para la existencia de un lmite S es que para cada > 0, haya un


N fijo tal que
| S si | < ,
para todo i > N .
Esta condicion a menudo derivada del criterio de Cauchy aplicado a las sumas parciales
si . El criterio de Cauchy es:
Una condicion necesaria y suficiente para que una sucesion (si ) converja es que
para cada > 0 exista un n
umero fijo N tal que
|sj si | <

para todos los i, j > N .

Esto significa que la sumas parciales individuales deben mantenerse cercanas


cuando nos movemos lejos en la secuencia.
El criterio de Cauchy puede facilmente extenderse a sucesiones de funciones. La vemos
en esta forma en la seccion 1.5 en la definicion de convergencia uniforme y mas adelante en
el desarrollo del espacio de Hilbert.
Nuestras sumas parciales si pueden no converger a un lmite simple sino que podra oscilar,
como en el caso

X
un = 1 1 + 1 1 + 1 + (1)n .
n=0

Claramente, si = 1 para i impar pero 0 para i par. No hay convergencia a un lmite, y


series tal como estas son llamadas oscilantes.
Para las series
1 + 2 + 3 + + n +
tenemos
sn =

n(n + 1)
2

Cuando n ,
lm sn = .

Cada vez que las sumas parciales diverjan (tienden a ), la serie infinita se dice que
diverge. A menudo el termino divergente es extendido para incluir series oscilatorias.
Ya que evaluamos las sumas parciales por aritmetica ordinaria, la serie convergente, definida en terminos del lmite de las sumas parciales, asume una posicion de importancia
suprema. Dos ejemplos pueden clarificar la naturaleza de convergencia o divergencia de una
serie y servira como una base para una investigacion mas detallada en la proxima seccion.
Ejemplo Series geometricas.
La sucesion geometrica, comenzando con a y con una razon r(r >= 0), esta dado por
a + ar + ar2 + ar3 + + arn1 + .

1.1. CONCEPTOS FUNDAMENTALES

La suma parcial n-esima esta dada por


sn = a

1 rn
1r

(1.3)

Tomando el lmite cuando n ,


a
,
1r

lm sn =

para r < 1.

(1.4)

De modo que, por definicion, la serie geometrica infinita converge para r < 1 y esta dada por

arn1 =

n=1

a
.
1r

(1.5)

Por otra parte, si r 1, la condicion necesaria un 0 no se satisface y la serie infinita


diverge.
Ejemplo Series armonicas.
Consideremos la serie armonica

n1 = 1 +

n=1

1 1 1
1
+ + + + + .
2 3 4
n

(1.6)

Tenemos que el lmn un = lmn 1/n = 0, pero esto no es suficiente para garantizar la
convergencia. Si agrupamos los terminos (no cambiando el orden) como

 
 

1 1
1 1 1 1
1
1
1
+
+
+ + +
+
+ +
+ ,
(1.7)
1+ +
2
3 4
5 6 7 8
9
16
se vera que cada par de parentesis encierra p terminos de la forma
1
1
1
p
1
+
+ +
>
= .
p+1 p+2
p+p
2p
2

(1.8)

Formando sumas parciales sumando un grupos entre parentesis por vez, obtenemos
s1 = 1 ,
3
,
2
4
s3 > ,
2
s2 =

5
,
2
6
s5 > ,
2
n+1
sn >
.
2

s4 >

(1.9)

Las series armonicas consideradas de esta manera ciertamente son divergentes. Una demostracion independiente y alternativa de su divergencia aparece en la seccion 1.2.
Usando el teorema del binomio, podramos expandir la funcion (1 + x)1 :
1
= 1 x + x2 x3 + . . . + (x)n1 + .
1+x

(1.10)

CAPITULO 1. SERIES INFINITAS.

6
Si tomamos x 1, la serie se convierte

1 1 + 1 1 + 1 1 + ...,

(1.11)

una serie que etiquetamos como oscilatoria anteriormente. Aunque no converge en el sentido
usual, significa que puede ser ligada a su serie. Euler, por ejemplo, asignado un valor de 1/2 a
esta sucesion oscilatoria sobre la base de la correspondencia entre esta serie y la bien definida
funcion (1 + x)1 . Desafortunadamente, tal correspondencia entre la serie y la funcion no es
u
nica y esta aproximacion debera ser redefinida. Otros metodos de asignar un significado a
una serie oscilatoria o divergente, metodos de definir una suma, han sido desarrollados. Otro
ejemplo de generalizar la convergencia lo vemos en las serie asintotica o semi-convergente,
consideradas mas adelante.

1.2.

Pruebas de Convergencia

Aunque las series no convergentes pueden ser u


tiles en ciertos casos especiales, usualmente
insistimos, como una materia de conveniencia si no de necesidad, que nuestras series sean
convergentes. Por lo tanto esto llega a ser una materia de extrema importancia para ser
capaz de decir si una serie dada es o no convergente. Desarrollaremos un n
umero de posibles
pruebas, comenzando con una prueba simple pero poco sensible y posteriormente trabajar
con una mas complicada pero muy sensible.
Por ahora consideremos una serie de terminos positivos, an > 0, posponiendo los terminos
negativos hasta la proxima seccion.

1.2.1.

Pruebas de comparaci
on.

Si termino a termino
P una serie de terminos un an , en el cual los an forman una serie
convergente, las series n un tambien es convergente. Simbolicamente, tenemos
X

an = a1 + a2 + a3 + ,

convergente,

un = u1 + u 2 + u 3 + .

P
P
P
Si un an para todo n, luego n un n an y n un por lo tanto es convergente.
Si termino a termino
P es una serie de terminos vn bn , en el cual bn forma una serie
divergente, las series n vn tambien es divergente. Note que las comparaciones de un con bn
o vn con an no dan informacion. Aqu tenemos
X
bn = b1 + b2 + b3 + , divergente,
n

vn = v1 + v2 + v3 + .

Si vn bn para todo n, luego

vn

n bn

vn por lo tanto es divergente.

1.2. PRUEBAS DE CONVERGENCIA

Para las series convergente an tenemos las series geometricas, mientras las series armonicas
serviran como las series divergentes bn . En tanto otras series son identificadas como convergentes o divergentes, ellas pueden ser usadas como las series conocidas en estas pruebas de
comparacion.
Todos las pruebas desarrolladas en esta seccion son esencialmente pruebas de comparacion.
La figura 1.1 muestra estas pruebas y sus relaciones.

Raz de Cauchy

Integral de
Euler Maclaurin

Kummer, an

(Comparacin con
la integral)
an= n

(Comparacin con las


series geomtricas)
an = 1
Razn de DAlembert
Cauchy
(Tambin por comparacin
con la series geomtricas)

Raabe
an= n ln n

Gauss
Figura 1.1: Prueba de comparacion.

Ejemplo Las series p.


P
Probamos n np , p = 0.999, por convergencia. Ya que n0.999 >P
n1 , y bn = n1 forman
la serie armonicaPdivergente, la prueba de comparacion muestra que n n0.999 es divergente.
Generalizando, n np se ve como divergente para todo p 1.

1.2.2.

Prueba de la raz de Cauchy.

1/n
n suficientemente grande, con r independiente de n, P
entonces
P Si (an ) r < 1 para todo
1/n
1 para todo n suficientemente grande, entonces n an es
n an es convergente. Si (an )
divergente.
La primera parte de esta prueba se verifica facilmente elevando (an )1/n r a la n-esima
potencia. Obtenemos
an r n < 1 .
P
Ya que rn es solo el termino n-esimo en una serie geometrica convergente, n an es convergente por la prueba de comparacion. Conversamente, si (an )1/n 1, entonces an 1 y la serie
debera diverger. La prueba de la raz es particularmente u
til en establecer las propiedades
de la serie de potencias.

CAPITULO 1. SERIES INFINITAS.

1.2.3.

Prueba de la raz
on de D Alembert o Cauchy.

de n, entonces
P Si an+1 /an r < 1 para todo n suficientemente grande, y r independiente
P
n an es convergente. Si an+1 /an 1 de un n en adelante, entonces
n an es divergente.
La convergencia esta dada por la comparacion directa con las series geometricas (1 + r +
r2 + . . .). En la segunda parte an+1 an y la divergencia debe ser razonablemente obvia.
Aunque la prueba no es tan sensible como la prueba de la raz de Cauchy, esta prueba de
la razon e D Alembert es una de las mas faciles de aplicar y es ampliamente usada. Una
afirmacion alternativa de la prueba de la razon esta en la forma de un lmite: si
an+1
<1,
n an
>1,
=1,
lm

convergencia
divergencia
indeterminado.

(1.12)

A causa de la posibilidad de ser indeterminado, la prueba de la razon es probable que falle


en puntos cruciales, y se hace necesario una prueba mas delicada y sensible.
Podramos preguntarnos como podra levantarse esta indeterminacion. Realmente fue disimulado en el primera afirmacion an+1 /an r < 1. Podramos encontrar an+1 /an < 1 para
todo n finito pero ser inapropiado escoger un r < 1 e independiente de n tal que an+1 /an r
para todo n suficientemente grande. Un ejemplo esta dado por las series armonicas
an+1
n
<1,
=
an
n+1
Ya que
lm

an+1
=1,
an

(1.13)

(1.14)

no existe una razon fija r < 1 y la prueba de la razon falla.


Ejemplo Prueba de la razon de D Alembert.
X n
Probar la convergencia de
2n
n
an+1
(n + 1)/2n+1
1n+1
=
=
.
n
an
n/2
2 n

(1.15)

Ya que
an+1
3

an
4

para n 2,

(1.16)

tenemos convergencia. Alternativamente,


an+1
1
= ,
n an
2
lm

y de nuevo converge.

(1.17)

1.2. PRUEBAS DE CONVERGENCIA

1.2.4.

Prueba integral de Cauchy o Maclaurin.

Esta es otra clase de prueba de comparacion en la cual comparamos una serie con una
integral. Geometricamente, comparamos el area de una serie de un rectangulo de ancho
unitario con el area bajo la curva.
R on continua, monotonamente decreciente en la cual f (n) = an . Luego
P Sea f (x) una funci
esima suma
n an converge si 0 f (x) dx es finita y diverge si la integral es infinita. Para la i-
parcial
i
i
X
X
si =
an =
f (n) .
(1.18)
n=1

n=1

Pero
Z

i+1

si >

f (x) dx ,

(1.19)

por la figura 1.2a, f (x) es monotonamente decreciente. Por otra parte, de la figura 1.2b,
Z
s i a1 <

f (x) dx ,

(1.20)

en la cual la serie esta representada por los rectangulos inscritos. Tomando el lmite como
i , tenemos
Z
Z

X
an <
f (x) dx + a1 .
(1.21)
f (x) dx <
1

n=1

De modo que la serie infinita converge o diverge cuando la integral correspondiente converge
o diverge respectivamente.

(a)
f(x)

(b)
f(1)=a1
f(2)=a2

f(x)

f(1)=a1

x
1 2 3 4

1 2 3 4 5

Figura 1.2: (a) Comparacion de la integral y la suma de bloques sobresalientes. (b) Comparacion de la integral y la suma de bloques envueltos.

La prueba de la integral es particularmente u


til para acotar superior e inferiormente el
resto de una serie, despues de que algunos n
umeros de terminos iniciales hayan sido sumados.

CAPITULO 1. SERIES INFINITAS.

10
Esto es,

an =

n=1

donde
Z

N
X
n=1

f (x) dx <
N +1

an +

an ,

n=N +1

Z
an <

f (x) dx + aN +1 .
N +1

n=N +1

Podemos liberar la prueba de la integral de los requerimientos muy restrictivos de que la


funcion de interpolacion f (x) sea positiva y monotonamente decreciente, basta que la funcion
f (x) tenga una derivada continua que satisfaga
Nf
X

Nf

(x [x])f 0 (x) dx .

(1.22)

Ni

Ni

n=Ni +1

Nf

f (x) dx +

f (n) =

Aqu [x] denota el entero mayor por debajo de x, tal que x [x] vara como diente de sierra
entre 0 y 1.
Ejemplo Funcion Zeta de Riemann.
La funcion zeta de Riemann esta definida por
(p) =

np .

(1.23)

n=1

Podemos tomar f (x) = xp y entonces


p+1

, p 6= 1

p
+
1
p
x dx =
1

ln x ,
p=1
1

(1.24)

La integral y por lo tanto la serie son divergentes para p 1 y convergente para p > 1. De
modo que la ecuacion (1.23) lleva la condicion de p > 1. Esto, incidentalmente, es una prueba
independiente de que la serie armonica
(p = 1) diverge y lo hace en forma logartmica. La
P1.000.000
suma del primer millon de terminos
n1 , es solamente 14.392726. . . .
Esta comparacion con la integral tambien puede ser usada para dar una cota superior a
la constante Euler-Mascheroni definida por
!
n
X
1
ln n .
(1.25)
= lm
n
m
m=1
Volviendo a las sumas parciales,
sn =

n
X
m=1

Z
ln n <
1

dx
ln n + 1 .
x

(1.26)

Evaluando la integral del lado derecho, sn < 1 para todo n y por lo tanto < 1. Realmente
la constante de Euler-Mascheroni es 0.57721566. . . .

1.2. PRUEBAS DE CONVERGENCIA

1.2.5.

11

Prueba de Kummer.

Esta es la primera de tres pruebas que son algo mas difciles para aplicar que las anteriores.
Su importancia radica en su poder y sensibilidad. Frecuentemente, al menos una de las
tres funcionara cuando las pruebas mas faciles sean indeterminadas. Debe recordarse, sin
embargo, que estas pruebas, como aquellas previamente discutidas, estan finalmente basadas
en comparaciones. Esto significa que todas las pruebas de convergencia dadas aqu, incluyendo
la de Kummer, puedan fallar algunas veces.
Consideremos una serie de terminos positivos ui y una sucesion de constantes positivas
finitas ai . Si
un
an+1 C > 0 ,
(1.27)
an
un+1
P
para todo n N , alg
un n
umero fijo, entonces
i=1 ui converge. Si
an

un
an+1 0
un+1

(1.28)

P
a1
diverge, luego
i
i=1 ui diverge.
La prueba de este poderoso test es simple y queda como ejercicio.
Si las constantes positivas an de la prueba de Kummer son elegidas como an = n, tenemos
la prueba de Raabe.
y

i=1

1.2.6.

Prueba de Raabe.

Si un > 0 y si

n


un
1 P >1 ,
un+1

para todo n N , donde N es un entero positivo independiente de n, entonces


Si


un
n
1 1 ,
un+1
P
P
entonces i ui diverge ( n1 diverge).
La forma en lmite en el test de Raabe es


un
lm n
1 =P .
n
un+1

(1.29)
P

ui converge.
(1.30)

(1.31)

Tenemos convergencia para P > 1, y divergencia para P < 1, y no hay prueba para P = 1
exactamente como con el test de Kummer. Esta indeterminancia esta expresada en que
podemos encontrar ejemplos de una serie convergente y una divergente en que ambas series
tienden a P = 1 en la ecuacion (1.31).
P 1
El test de Raabe es mas sensible
P que la prueba de la razon de DAlembert ya que n=1 n
diverge mas lentamente que n=1 1. Obtenemos una prueba a
un mas sensible (y una relativamente facil de aplicar) si escogemos an = n ln n. Esto es la prueba de Gauss.

CAPITULO 1. SERIES INFINITAS.

12

1.2.7.

Prueba de Gauss.

Si un > 0 para todo n finito y


h B(n)
un
=1+ + 2 ,
un+1
n
n

(1.32)

P
en el cual B(n) es una funcion acotada de n para n , luego i ui converge para h > 1
y diverge para h 1.
La razon un /un+1 de la ecuacion (1.32) a menudo llega a ser como la razon de dos formas
cuadraticas:
un
n 2 + a1 n + a0
= 2
.
(1.33)
un+1
n + b1 n + b0
Se puede mostrar que tenemos convergencia para a1 > b1 + 1 y divergencia para a1 b1 + 1.
El test de Gauss es un test extremadamente sensible para la convergencia de series. Esto
funcionara para practicamente todas las series que encontraremos en Fsica. Para h > 1 o
h < 1 la prueba se deduce directamente del test de Raabe




B(n)
h B(n)
=h.
(1.34)
lm n 1 + + 2 1 = lm h +
n
n
n
n
n
Si h = 1, falla el test de Raabe. Sin embargo, si volvemos al test de Kummer y usamos
an = n ln n, tenemos




1 B(n)
lm n ln n 1 + + 2 (n + 1) ln(n + 1)
n
n
n


(n + 1)
(n + 1) ln(n + 1)
(1.35)
= lm n ln n
n
n



1
= lm (n + 1) ln n ln n ln 1 +
.
n
n
Pidiendo prestado un resultado de la seccion 1.6 (el cual no es dependiente de la prueba de
Gauss) tenemos




1
1
1
1

+
. . . = 1 < 0 .
(1.36)
lm (n + 1) ln 1 +
= lm (n + 1)
n
n
n
n 2n2 3n3
De modo que tenemos divergencia para h = 1. Esto es un ejemplo de una aplicacion exitosa
del test de Kummer en el cual el test de Raabe falla.
Ejemplo Series de Legendre.
La relacion de recurrencia para la solucion en serie de la ecuacion de Legendre pueden ser
colocadas en la forma
a2j+2
2j(2j + 1) l(l + 1)
=
.
(1.37)
a2j
(2j + 1)(2j + 2)
Esto es equivalente a u2j+2 /u2j para x = +1. Para j  l
a2j
(2j + 1)(2j + 2)
2j + 2
1

=
=1+ .
a2j+2
2j(2j + 1)
2j
j

(1.38)

1.2. PRUEBAS DE CONVERGENCIA

13

Por la ecuacion (1.33) la serie es divergente. Mas adelante exigiremos que las series de Legendre sean finitas (se corten) para x = 1. Eliminaremos la divergencia ajustando los parametros
n = 2j0 , un entero par. Esto truncara la serie, convirtiendo la serie infinita en un polinomio.

1.2.8.

Mejoramiento de convergencia.

En esta seccion no nos preocupara establecer la convergencia como una propiedad matematica abstracta. En la practica, la razon de convergencia puede ser de considerable importancia. Aqu presentamos un metodo que mejora la razon de la convergencia de una serie
ya convergente.
El principio basico de este metodo, debido a Kummer, es formar una combinacion lineal
de nuestra serie lentamente convergente y una o mas series cuya suma es conocida. Entre las
series conocidas, la coleccion
1 =
2 =

X
n=1

X
n=1

3 =

X
n=1

..
.
p =

X
n=1

1
=1,
n(n + 1)
1
1
= ,
n(n + 1)(n + 2)
4
1
1
=
,
n(n + 1)(n + 2)(n + 3)
18
..
.
1
1
=
,
n(n + 1)(n + 2) (n + p)
p p!

es particularmente u
til. Las series estan combinadas termino a termino y los coeficientes en
combinacion lineal son escogidos para cancelar los terminos que convergen lentamente.
Ejemplo Funcion zeta de Riemann, (3).
P
3
Sea la serie a ser sumada
on 1.10 esta identificada como una funcion
n=1 n . En la secci
zeta de Riemann, (3). Formamos una combinacion lineal

+ a2 2 =

n=1

n3 +

n=1

a2
.
4

1 no esta incluida ya que converge mas lentamente que (3). Combinando terminos, obtenemos sobre la mano izquierda
 X


X
1
a2
n2 (1 + a2 ) + 3n + 2
+
=
.
3
3 (n + 1)(n + 2)
n
n(n
+
1)(n
+
2)
n
n=1
n=1
Si escogemos a2 = 1, la ecuacion precedente tiende a
(3) =

X
n=1

3n + 2
1 X
= +
.
3
4 n=1 n (n + 1)(n + 2)

(1.39)

CAPITULO 1. SERIES INFINITAS.

14

La serie resultante no es muy bonita pero converge como n4 , apreciablemente mas rapido
que n3 .
El metodo puede ser extendido incluyendo a3 3 para obtener la convergencia como n5 ,
a4 4 para obtener la convergencia como n6 , etc. Eventualmente, usted tiene que alcanzar
un compromiso entre cuanta algebra usted hace y cuanta aritmetica la computadora hace.
Como las computadoras lo hacen mas rapido, el balance esta seguramente sustituyendo menos
algebra hecha por usted, por mas aritmetica realizada por el computador.

1.3.

Series alternadas.

En la seccion 1.2 nos limitamos a series de terminos positivos. Ahora, en contraste, consideraremos series infinitas en las cuales los signos se alternan. La cancelacion parcial debida a
la alternancia de los signos hace la convergencia mas rapida y mucho mas facil de identificar.
Probaremos que el criterio de Leibniz es una condicion general para la convergencia de una
serie alternada.

1.3.1.

Criterio de Leibniz.

P
n+1
an con an > 0. Si an es monotonamente decreciente
Consideremos la serie
n=1 (1)
(para N suficientemente grande) y el lmn an = 0, entonces la serie converge.
Para probar esto, examinemos las sumas parciales pares
s2n = a1 a2 + a3 . . . a2n ,
s2n+2 = s2n + (a2n+1 a2n+2 ) .

(1.40)

Ya que a2n+1 > a2n+2 , tenemos


s2n+2 > s2n .

(1.41)

s2n+2 = a1 (a2 a3 ) (a4 a5 ) . . . a2n+2 .

(1.42)

Por otra parte,


De modo que, con cada par de terminos a2p a2p+1 > 0,
s2n+2 < a1 .

(1.43)

Con las sumas parciales pares acotamos s2n < s2n+2 < a1 y los terminos an decrecen monotonamente aproximandose a cero, esta serie alternada converge.
Un resultado mas importante puede ser extrado de las sumas parciales. A partir de las
diferencias entre el lmite de la serie S y las sumas parciales sn
S sn = an+1 an+2 + an+3 an+4 + . . .
= an+1 (an+2 an+3 ) (an+4 an+5 ) . . .

(1.44)

S sn < an+1 .

(1.45)

o
La ecuacion (1.45) dice que el error en el corte de una serie alternada despues de n terminos
es menor que an+1 , el primer termino excluido. Un conocimiento del error obtenido de esta
manera puede ser de gran importancia practica.

1.3. SERIES ALTERNADAS.

1.3.2.

15

Convergencia absoluta.

P
Dada unaP
serie en terminos de un en la cual un puede variarP
en signo, si
|un | converP
ge, entonces
un se dice que es absolutamente convergente. Si
un converge pero
|un |
diverge, la convergencia recibe el nombre de condicional.
La serie alternada armonica es un ejemplo simple de esta convergencia condicionada.
Tenemos

X
1
1 1 1
(1.46)
(1)n1 n1 = 1 + + +
2
3
4
n
n=1
convergente por el criterio de Leibniz, pero

n1 = 1 +

n=1

1 1 1
1
+ + + + +
2 3 4
n

se ha demostrado que es divergente en la seccion 1.1 y 1.2.


Podemos notar que todas las pruebas desarrolladas en la seccion 1.2 supone una serie de
terminos positivos. Por lo tanto, todas las pruebas en esa seccion garantizan la convergencia
absoluta.
Ejemplo
Para 0 < x < la serie de Fourier

X
cos(nx)
n=1

x
= ln 2 sen
,
2


(1.47)

converge teniendo coeficientes que cambian de signo frecuentemente, pero no tanto para que
el criterio de convergencia de Leibniz se aplique facilmente. Apliquemos el test de la integral
de la ecuacion (1.22). Usando integracion por partes vemos de inmediato que


Z
Z
1 sen(nx)
sen(nx)
cos(nx)

dn =
dn
n
nx
x 1
n2
1
1
converge para n , y la integral del lado derecho incluso converge absolutamente. El
termino derivado en la ecuacion (1.22) tiene la forma


Z
x
cos(nx)
(n [n]) sen(nx)
dn ,
n
n2
1
donde el segundo termino converge
R N absolutamente y no necesita ser considerado. Lo proximo es observar que g(N ) = 1 (n [n]) sen(nx) dn es acotado para N , tal como
RN
sen(nx) dn es acotado debido a la naturaleza periodica de sen(nx) y a su regular cambio
de signo. Usando integracion por partes nuevamente

 Z
Z 0
g (n)
g(n)
g(n)
dn =
+
dn ,
n
n 1
n2
1
1
vemos que el segundo termino es absolutamente convergente, y el primero va a cero en el
lmite superior. Por lo tanto la serie en la ecuacion (1.47) converge, lo cual es duro de ver
usando otro test de convergencia.

CAPITULO 1. SERIES INFINITAS.

16

1.4.

Algebra
de series.

Establecer la convergencia absoluta es importante porque puede probarse que las series
absolutamente convergentes pueden ser manipuladas de acuerdo a las reglas familiares del
algebra o aritmetica.
1. Si una serie infinita es absolutamente convergente, la suma de la serie es independiente
del orden en el cual los terminos son a
nadidos.
2. La serie puede ser multiplicada por otra serie absolutamente convergente. El lmite del
producto sera el producto de los lmites de las series individuales. El producto de las
series, una doble serie, tambien sera absolutamente convergente.
No hay tales garantas en series condicionalmente convergentes. Nuevamente consideremos
la serie armonica alternada. Si escribimos

 

1 1
1 1
1 1 1

,
(1.48)
1 + + = 1
2 3 4
2 3
4 5
es claro que la suma

(1)n1 n1 < 1 .

(1.49)

n=1

Sin embargo, si rearreglamos los terminos sutilmente, podemos hacer que la serie armonica
alternada converja a 3/2. Reagrupamos los terminos de la ecuacion (1.48), tomando




1 1
1
1
1
1
1
1 1
+ +
+
+
+

1+ +
3 5
2
7 9 11 13 15
4




(1.50)
1
1
1
1
1
1
+
+ +
+
+ +
+ .
17
25
6
27
35
8
Tratando los terminos agrupados en parentesis como terminos simples por conveniencia,
obtenemos las sumas parciales
s1
s3
s5
s7
s9

= 1.5333
= 1.5218
= 1.5143
= 1.5103
= 1.5078

s2 = 1.0333
s4 = 1.2718
s6 = 1.3476
s8 = 1.3853
s10 = 1.4078

A partir de esta tabulacion de los sn y el grafico de sn versus n en la figura 1.3 es clara la


convergencia a 3/2. Hemos rearreglado los terminos, tomando terminos positivos hasta que
la suma parcial sea igual o mayor que 3/2, luego sumando los terminos negativos hasta que la
suma parcial caiga bajo 3/2, etc. Como las series se extienden hasta infinito, todos los terminos originales eventualmente apareceran, pero las sumas parciales de este reordenamiento
de esta serie armonica alternada converge a 3/2. Por un reordenamiento de terminos una
serie condicionalmente convergente podra ser hecha para converger a alg
un valor deseado o
para que diverja. Esta afirmacion es dada como el teorema de Riemann. Obviamente, series
condicionalmente convergentes deberan ser tratadas con precaucion.


1.4. ALGEBRA
DE SERIES.

17

1.5

1.4

1.3
2

10

Figura 1.3: Serie armonica alternada, rearreglo de terminos para dar convergencia a 1.5.

1.4.1.

Mejoramiento de la convergencia, aproximaciones racionales.

La serie
ln(1 + x) =

(1)n1

n=1

xn
,
n

1 < x 1 ,

(1.51)

converge muy suavemente cuando x se aproxima a +1. La razon de convergencia podra ser
mejorada sustancialmente multiplicando ambos lados de la ecuacion (1.51) por un polinomio
y ajustando los coeficientes del polinomio para cancelar las porciones que convergen mas
lentamente en la serie. Consideremos la posibilidad mas simple: Multiplicar ln(1 + x) por
1 + a1 x.

X
X
xn+1
xn
(1)n1
.
(1)n1 + a1
(1 + a1 x) ln(1 + x) =
n
n
n=1
n=1
Combinando las dos series sobre la derecha termino a termino, obtenemos
(1 + a1 x) ln(1 + x) = x +

n1

(1)

n=2

=x+

X
n=2

(1)n1

1
a1

n n1

xn

n(1 a1 ) 1 n
x .
n(n 1)

Claramente, si tomamos a1 = 1, el n en el numerador desaparece y nuestra serie combinada


converge como n2 .
Continuando este proceso, encontramos que (1 + 2x + x2 ) ln(1 + x) se anula como n3 ,
(1 + 3x + 3x2 + x3 ) ln(1 + x) se anula cuando n4 . En efecto estamos desplazandonos desde
una expansion de serie simple de la ecuacion (1.51) a una representacion racional en la cual

CAPITULO 1. SERIES INFINITAS.

18

la funcion ln(1 + x) esta representada por la razon de una serie y un polinomio:


x+

X
(1)n xn
n=1

ln(1 + x) =

n(n 1)

1+x

Tales aproximaciones racionales pueden ser ambas compactas y precisas. Los programas computacionales hacen extensivo el uso de ellas.

1.4.2.

Reordenamiento de series dobles.

Otro aspecto del reordenamiento de series aparece en el tratamiento de series dobles


(figura 1.4):

m= 0
n= 0 a00

1
a01

2
a02

3
a03
a13

a10

a11

a12

a20

a21

a22 a23

a30

a31

a32 a33

Figura 1.4: Series dobles, la suma sobre n es indicada por lneas segmentadas verticales.
X

an,m .

m=0 n=0

sustituyamos
n=q0,
m=pq 0 ,
(q p) .
Esto resulta en la identidad
X

X
m=0 n=0

an,m =

p
X
X

aq,pq .

(1.52)

p=0 q=0

La suma sobre p y q de la ecuacion (1.52) esta ilustrada en la figura 1.5. La sustitucion



r
n=s0,
m = r 2s 0 ,
s
2


1.4. ALGEBRA
DE SERIES.

19

p= 0
q= 0 a00
1

1
a01

2
a02

3
a03

a10

a11

a12

a20 a21

a30

Figura 1.5: Series dobles nuevamente, la primera suma es representada por lneas segmentadas
verticales pero estas lneas verticales corresponden a las diagonales en la figura 1.4.

tiende a
X

an,m =

m=0 n=0

[r/2]
X
X

as,r2s .

(1.53)

r=0 s=0

con [r/2] = r/2 para r par, (r 1)/2 para r impar. La suma sobre r y s de la ecuacion
(1.53) esta mostrada en la figura 1.6. Las ecuaciones (1.52) y (1.53) son claramente reordenamientos del arreglo de coeficientes an,m , reordenamientos que son validos en tanto tengamos
convergencia absoluta. La combinacion de las ecuaciones (1.52) y (1.53),

r= 0 1 2 3 4
s= 0 a00 a01 a02 a03 a04
1

a10 a11 a12

a20

Figura 1.6: Series dobles. La suma sobre s corresponde a la suma a lo largo de la lneas
segmentadas inclinadas, en la figura 1.4.

p
X
X
p=0 q=0

aq,pq =

[r/2]
X
X
r=0 s=0

as,r2s .

(1.54)

CAPITULO 1. SERIES INFINITAS.

20

es usada en la determinacion de la forma en serie de los polinomios de Legendre.

1.5.

Series de funciones.

Extendemos nuestro concepto de series infinitas para incluir la posibilidad que cada termino un pueda ser una funcion de alguna variable, un = un (x). Numerosas ilustraciones de tales
series de funciones apareceran mas adelante. Las sumas parciales llegan a ser funciones de la
variable x
sn (x) = u1 (x) + u2 (x) + + un (x) ,

(1.55)

tal como lo hacemos para la suma de serie, definimos el lmite como el lmite de las sumas
parciales

X
un (x) = S(x) = lm sn (x) .
(1.56)
n

n=1

Hasta ahora nos hemos ocupado del comportamiento de las sumas parciales como una funcion
de n. Ahora consideremos como las cantidades anteriores dependen de x. Aqu el concepto
clave es la convergencia uniforme.

1.5.1.

Convergencia uniforme.

Si para cualquier > 0 peque


no, existe un n
umero N , independiente de x en el intervalo
[a, b] con (a x b) tal que
| S(x) sn (x) | < , n N ,

(1.57)

se dice que la serie converge uniformemente en el intervalo [a, b]. Esto dice que para que
nuestra serie sea uniformemente
P convergente, debe ser posible encontrar un N finito tal que
la cola de la serie infinita, | i=N +1 ui (x)|, sea menor que un arbitrariamente peque
no para
todo x en el intervalo dado.
Esta condicion, ecuacion (1.57), la cual define la convergencia uniforme, es ilustrada en
la figura 1.7. El punto es que no importa cuan peque
no sea podemos siempre tomar un n
suficientemente grande tal que la magnitud absoluta de la diferencia entre S(x)
P y sn (x) sea
menor que para todo x, a x b. Si esto no puede ser hecho, entonces
un (x) no es
uniformemente convergente en el intervalo [a, b].
Ejemplo

X
n=1

un (x) =

X
n=1

x
.
[(n 1)x + 1][nx + 1]

(1.58)

La suma parcial sn (x) = nx(nx + 1)1 puede ser verificada por induccion matematica. Por
inspeccion esta expresion para sn (x) es valida para n = 1, 2. Suponemos que se mantiene

1.5. SERIES DE FUNCIONES.

21

S(x) +
S(x)
S(x)

sn (x)

x
x=a

x=b

Figura 1.7: Convergencia uniforme.

para el termino n y probamos para n + 1.


x
[nx + 1][(n + 1)x + 1]
x
nx
+
=
[nx + 1] [nx + 1][(n + 1)x + 1]
(n + 1)x
=
,
(n + 1)x + 1

sn+1 = sn +

completando la prueba.
Tomando n tenemos
S(0) = lm sn (0) = 0 ,
n

S(x 6= 0) = lm sn (x 6= 0) = 1 .
n

Tenemos una discontinuidad en el lmite de la serie en x = 0. Sin embargo, sn (x) es una


funcion continua de x, en el intervalo 0 x < 1, para todo n finito. La ecuacion (1.57)
con suficientemente peque
no, sera violado para todo n finito. Nuestra serie no converge
uniformemente.

1.5.2.

Prueba M de Weierstrass.

La prueba mas com


unmente usada para la convergencia
P uniforme es la prueba M de
Weierstrass. Si podemos construir
umeros 1 Mi , en P
la cual Mi |ui (x)| para
P una serie de n
todo x en el intervalo [a, b] y 1 Mi es convergente, nuestra serie
a uniforme1 ui (x) ser
mente convergente en [a, b].

CAPITULO 1. SERIES INFINITAS.

22

La prueba de este test M de Weierstrass es directa y simple. Ya que


existen algunos n
umeros N tal que n + 1 N ,

Mi < .

Mi converge,

(1.59)

i=n+1

Esto a partir de nuestra definicion de convergencia. Entonces, con |ui (x)| Mi para todo x
en el intervalo a x b,

X
|ui (x)| < .
(1.60)
i=n+1

De modo que


X


ui (x) < ,
|S(x) sn (x)| =

(1.61)

i=n+1

y por definicion 1 ui (x) es uniformemente convergente en [a, b]. Ya que tenemos especificaP
dos valores absolutos en el planteamiento de la prueba M de Weierstrass, la serie
1 ui (x)
tambien es vista como serie absolutamente convergente.
Podemos notar que la convergencia uniforme y convergencia absoluta son propiedades
independientes. Una no implica la otra. Para ejemplos especficos,

X
(1)n
,
n + x2
n=1

< x <

(1.62)

X
n=1

(1)n1

xn
= ln(1 + x) ,
n

0x1,

(1.63)

converge uniformemente en los intervalos indicados pero no converge absolutamente. Por otra
parte,
(

X
1,
0x<1
,
(1.64)
(1 x)xn =
0
,
x
=
1
n=1
converge absolutamente pero no uniformemente en [0, 1].
A partir de la definicion de convergencia uniforme podramos mostrar que cualquier serie
f (x) =

un (x) ,

(1.65)

n=1

no puede converger uniformemente en ning


un intervalo que incluya una discontinuidad de
f (x).
Ya que la prueba M de Weierstrass establece tanto la convergencia uniforme como absoluta, necesariamente falla para series que son uniformes pero condicionalmente convergentes.

1.5. SERIES DE FUNCIONES.

1.5.3.

23

Prueba de Abel.

Una prueba algo mas delicada para la convergencia uniforme ha sido dada por Abel. Si
un (x) = an fn (x) ,
X
an = A ,
convergente,
y las funciones f (x) P
son monotonas [fn+1 (x) fn (x)] y acotadas, 0 fn (x) M , para todo
x en [a, b], entonces
un (x) converge uniformemente en [a, b].
Las series uniformemente convergentes tienen tres propiedades particularmente u
tiles.
1. Si los terminos individuales un (x) son continuos, la suma de la serie
f (x) =

un (x) ,

(1.66)

n=1

es tambien continua.
2. Si los terminos individuales un (x) son continuos, las series pueden ser integradas termino
a termino. La suma de las integrales es igual a la integral de la suma.
Z

f (x) dx =
a

Z
X
n=1

un (x)dx .

(1.67)

3. Las derivadas de la suma de la serie f (x) es igual a la suma de los terminos individuales
derivados,

df (x) X dun (x)


=
,
(1.68)
dx
dx
n=1
siempre que las siguientes condiciones sean satisfechas:
dun (x)
son continuas en [a, b].
dx

X
dun (x)
es uniformemente convergente en [a, b].
dx
n=1

un (x) y

La integracion termino a termino de una serie uniformemente convergente2 requiere solo


continuidad de los terminos individuales. Esta condicion casi siempre es satisfecha en las
aplicaciones fsicas. La diferenciacion termino a termino de una serie a menudo no es valida porque deben satisfacer condiciones mas restrictivas. Por cierto, encontraremos casos en
series de Fourier, en la cual la diferenciacion termino a termino de una serie uniformemente
convergente tiende a una serie divergente.
2

La integraci
on termino a termino tambien puede ser valida en ausencia de convergencia uniforme.

CAPITULO 1. SERIES INFINITAS.

24

1.6.

Expansi
on de Taylor.

Esta es una expansion de una funcion en una serie infinita o en una serie finita mas
un termino remanente. Los coeficientes de los terminos sucesivos de la serie involucra las
derivadas sucesivas de la funcion. Este tipo de expansiones de son ampliamente usadas.
Ahora derivaremos la expansion de Taylor.
Supongamos que nuestra funcion f (x) tiene una derivada n-esima continua en el intervalo
a x b. Entonces, integrando esta n-esima derivada n veces,
x
Z x

(n)
(n1)
f (x) dx = f
(x) = f (n1) (x) f (n1) (a)
a
 a Z x
Z x Z x
(1.69)
f (n) (x) dx dx =
[f (n1) (x) f (n1) (a)]dx
a

=f

a
(n2)

(x) f (n2) (a) (x a)f (n1) (a) .

Continuando, obtenemos
Z Z Z x
(x a)2 (n1)
f
(a) . (1.70)
f (n) (x)(dx)3 = f (n3) (x) f (n3) (a) (x a)f (n2) (a)
2
a
Finalmente, integrando por n-esima vez,
Z
Z x
f (n) (x)(dx)n = f (x) f (a) (x a)f 0 (a)+
a

(x a)2 00
(x a)n1 (n1)

f (a)
f
(a) .
2!
(n 1)!

(1.71)

Note que esta expresion es exacta. No hay terminos que hayan sido excluidos, ni aproximaciones hechas. Ahora, resolviendo para f (x), tenemos
f (x) = f (a) + (x a)f 0 (a) +

(x a)2 00
(x a)n1 (n1)
f (a) + +
f
(a) + Rn .
2!
(n 1)!

El remanente, Rn , esta dado por la integral n-dimensional


Z x
Z
f (n) (x)(dx)n .

(1.72)

(1.73)

Este remanente, ecuacion (1.73), puede ser puesto en una forma mas inteligible usando la
forma integral del teorema del valor medio
Z x
g(x) dx = (x a)g() ,
(1.74)
a

con a x. Integrando n veces obtenemos la forma Lagrangiana del remanente:


Rn =

(x a)n (n)
f () .
n!

(1.75)

DE TAYLOR.
1.6. EXPANSION

25

Con la expansion de Taylor en esta forma no estamos interesados en cualquier pregunta de


convergencia de series infinitas. Esta serie es finita, la sola pregunta que nos importa es la
magnitud del remanente.
Cuando la funcion f (x) es tal que
lm Rn = 0 ,

(1.76)

la ecuacion (1.72) se convierte en la serie de Taylor


f (x) = f (a) + (x a)f 0 (a) +
=

X
(x a)n

n!

n=0

(n)

(x a)2 00
f (a) +
2!

(1.77)

(a) .

Nuestra serie de Taylor especifica el valor de una funcion en un punto, x, en terminos del
valor de la funcion y sus derivadas en un punto de referencia, a. Esta es una expansion en
potencias de un cambio en la variable, x = xa en este caso. La notacion puede ser variada
seg
un la conveniencia del usuario. Con la sustitucion x x + h y a x tenemos una forma
alterna

X
hn (n)
f (x) .
f (x + h) =
n!
n=0
Cuando usamos el operador D = d/dx la expansion de Taylor se convierte en
f (x + h) =

X
hn Dn
n=0

n!

f (x) = ehD f (x) .

Un forma en operadores equivalente de la expansion e Taylor. Una derivacion de la expansion


de Taylor en el contexto de la teora de variable compleja aparece en el proximo captulo.

1.6.1.

Teorema de Maclaurin.

Si expandimos alrededor del origen (a = 0), la ecuacion (1.77) es conocida como la serie
de Maclaurin
f (x) = f (0) + xf 0 (0) +
=

X
xn
n=0

n!

x2 00
f (0) +
2!

(1.78)

f (n) (0) .

Una aplicacion inmediata de la serie de Maclaurin (o serie de Taylor) esta en la expansion


de varias funciones transcendentales en una serie infinita.
Ejemplo
Sea f (x) = ex . Diferenciando, tenemos
f (n) (0) = 1 ,

(1.79)

CAPITULO 1. SERIES INFINITAS.

26

para todo n, n = 1, 2, 3 . . .. Entonces, para la ecuacion (1.78), tenemos

X xn
x2 x3
e =1+x+
+
+ =
.
2!
3!
n!
n=0
x

(1.80)

Esta es la expansion en serie de la funcion exponencial. Algunos autores usan esta serie para
definir la funcion exponencial.
Aunque esta serie es claramente convergente para todo x, podramos chequear el termino
remanente, Rn . Por la ecuacion (1.75) tenemos
xn (n)
f ()
n!
xn
=
e ,
0 || x .
n!

Rn =

Por lo tanto

(1.81)

xn x
e
n!

(1.82)

lm Rn = 0

(1.83)

| Rn |
y
n

para todo los valores finitos de x, el cual indica que esta expansion de Maclaurin de ex es
valida sobre el intervalo < x < .
Ejemplo
Sea f (x) = ln(1 + x). Diferenciando, obtenemos
f 0 (x) =
f

(n)

1
,
(1 + x)
n1

(x) = (1)

1
(n 1)!
.
(1 + x)n

(1.84)

La expansion de Maclaurin produce


x2 x3 x4
+

+ + Rn
2
3
4
n
X
xp
=
(1)p1 + Rn .
p
p=1

ln(1 + x) = x

(1.85)

En este caso el remanente esta dado por


xn (n)
f () , 0 x
n!
xn

, 0x1.
n

Rn =

(1.86)

DE TAYLOR.
1.6. EXPANSION

27

Ahora el remanente se aproxima a cero cuando n crece indefinidamente, dado 0 x 13 .


Como una serie infinita

X
xn
ln(1 + x) =
(1)n1
,
(1.87)
n
n=1
la cual converge para 1 < x 1. El intervalo 1 < x < 1 es facilmente establecido por la
prueba de la razon de D Alembert. La convergencia en x = 1 se deduce a partir del criterio
de Leibniz. En particular, en x = 1, tenemos
1 1 1 1
+ +
2 3 4 5

X
1
=
(1)n 1 ,
n
n=1

ln 2 = 1

(1.88)

la serie armonica alterna condicionalmente convergente.

1.6.2.

Teorema Binomial.

Una segunda, aplicacion extremadamente importante de las expansiones de Taylor y Maclaurin es la derivacion del teorema binomial para potencias negativas y/o no enteras.
Sea f (x) = (1 + x)m , en la cual m puede ser negativo y no esta limitado a valores enteros.
La aplicacion directa de la ecuacion (1.78) da
m(m 1) 2
x + + Rn .
2!

(1.89)

xn
(1 + )mn m(m 1) (m n + 1)
n!

(1.90)

(1 + x)m = 1 + mx +
Para esta funcion el remanente es
Rn =

y con 0 x. Ahora, para n > m, (1 + )mn es un maximo para = 0. Por lo tanto


Rn

xn
m(m 1) (m n + 1) .
n!

(1.91)

Note que los factores dependientes de m no dan un cero a menos que m sea entero no negativo;
Rn tiende a cero cuando n si x esta restringido al intervalo 0 x 1. La expansion
binomial resulta
(1 + x)m = 1 + mx +

m(m 1) 2 m(m 1)(m 2) 3


x +
x + .
2!
3!

(1.92)

En otra notacion equivalente

m!
xn
n!(m

n)!
n=0
 
X
m n
=
x .
n
n=0

(1 + x)m =

Este intervalo puede ser f


acilmente extendido a 1 < x 1 pero no a x = 1.

(1.93)

CAPITULO 1. SERIES INFINITAS.

28


Cuando la cantidad m
es igual a m!/(n!(mn)!), es llamado el coeficiente binomial. Aunque
n
hemos mostrado solamente que el remanente se anula,
lm Rn = 0 ,

para 0 x < 1, realmente puede mostrarse que la serie en la ecuacion (1.92) converge en el
intervalo extendido 1 < x < 1. Para m un entero, (m n)! = si n > m y las series
automaticamente terminan en n = m.
Ejemplo Energa relativista.
La energa total relativista de una partcula es
E = mc

v2
1 2
c

1/2
.

Comparemos esta ecuacion con la energa cinetica clasica,

(1.94)
1 2
mv .
2

v2
1
Por la ecuacion (1.92) con x = 2 y m = tenemos
c
2
"
 2
 2 2
1
v
(1/2)(3/2)
v
2
E = mc 1
2 +
2 +
2
c
2!
c
#
 2 3
(1/2)(3/2)(5/2)
v
+
2
+ .
3!
c
o
3
v2
5
1
E = mc + mv 2 + mv 2 2 + mv 2
2
8
c
16
2

v2
c2

2
+ .

El primer termino, mc2 , lo identificamos como la masa en reposo. Entonces


"
#
 2
1 2
3 v2 5 v2
Ecinetica = mv 1 + 2 +
+ .
2
4c
8 c2

(1.95)

(1.96)

Para la velocidad de la partcula v  c, donde c es la velocidad de la luz, la expresion en


los parentesis cuadrados se reduce a la unidad y vemos que la porcion cinetica de la energa
relativista total concuerda con el resultado clasico.
Para polinomios podemos generalizar la expansion binomial a
(a1 + a2 + + am )n =

n!
an1 an2 anmm ,
n1 !n2 ! nm ! 1 2

donde
la suma anterior incluye todas las combinaciones diferentes de los n1 , n2 , . . . , nm tal
Pm
que i=1 ni = n. Aqu ni y n son enteros. Esta generalizacion encuentra considerables usos
en Mecanica Estadstica.

1.7. SERIES DE POTENCIAS.

29

Las series de Maclaurin pueden aparecer algunas veces indirectamente mas que el uso directo de la ecuacion (1.78). Por ejemplo, la manera mas conveniente para obtener la expansion
en serie

X
x3 3x5
(2n 1)!! x2n+1
1
=x+
+
+ ,
(1.97)
sen x =
(2n)!! 2n + 1
6
40
n=0
es hacer uso de la relacion
sen

Z
x=
0

dt
.
(1 t2 )1/2

2 1/2

Expandimos (1 t )
(teorema binomial) y luego integramos termino a termino. Esta
integracion termino a termino es discutida en la seccion 1.7. El resultado es la ecuacion
(1.97). Finalmente, podemos tomar el lmite cuando x 1. La serie converge por la prueba
de Gauss.

1.6.3.

Expansi
on de Taylor de m
as de una variable.

La funcion f tiene mas de una variable independiente, es decir, f = f (x, y), la expansion
de Taylor se convierte en
f
f
+ (y b) +
f (x, y) = f (a, b) + (x a)
x
y


2
2
2f
1
2 f
2 f
+ 2(x a)(y b)
+ (y b)
(x a)
+
+
2!
x2
xy
y 2

1
3f
3f
+
(x a)3 3 + 3(x a)2 (y b) 2 +
3!
x
x y

3
3
2 f
3 f
+3(x a)(y b)
+ (y b)
+ ,
xy 2
y 3

(1.98)

con todas las derivadas evaluadas en el punto (a, b). Usando j t = xj xj0 , podemos escribir
la expansion de Taylor para m variables independientes en la forma simbolica

!n
m

tn X

i
f (xk )
.
(1.99)
f (xj ) =

n!
x
i
n=0
i=1
xk =xk0

Una forma vectorial conveniente es

X
1
~ n (~r) .
(~r + ~a) =
(~a )
n!
n=0

1.7.

(1.100)

Series de potencias.

Las series de potencias son un tipo especial y extremadamente u


til de series infinitas de
la forma
f (x) = a0 + a1 x + a2 x2 + a3 x3 +

X
=
an x n ,
n=0

(1.101)

CAPITULO 1. SERIES INFINITAS.

30

donde los coeficientes ai son constantes e independientes de x.4

1.7.1.

Convergencia.

La ecuacion (1.101) puede testearse rapidamente para la convergencia ya sea por la prueba
de la raz de Cauchy o por la prueba de la razon de D Alembert. Si
an+1
= R1 ,
n an
lm

(1.102)

la serie converge para R < x < R. Este es el intervalo o radio de convergencia. Ya que las
pruebas de la raz y la razon fallan cuando el lmite es la unidad, el punto final del intervalo
requiere atencion especial.
Por ejemplo, si an = n1 , entonces R = 1 y, la serie converge para x = 1, pero diverge
para x = +1. Si an = n!, entonces R = 0 y la serie diverge para todo x 6= 0.

1.8.

Convergencia uniforme y absoluta.

Supongamos que nuestra serie de potencia es convergente para R < x < R; entonces
sera uniforme y absolutamente convergente en cualquier intervalo interior, S x S,
donde 0 < S < R. Esto podra ser probado directamente por la prueba M de Weierstrass
usando Mi = |ai |S i .

1.8.1.

Continuidad.

P
Ya que cada termino un (x) = an xn es una funcion continua de x y f (x) =
an xn converge uniformemente para S x S, f (x) debera ser una funcion continua en el intervalo
de convergencia uniforme. Este comportamiento es contradictorio con el comportamiento
impresionantemente diferente de las series de Fourier. Las series de Fourier son usadas frecuentemente para representar funciones discontinuas tales como ondas cuadradas y ondas
dientes de sierra.

1.8.2.

Diferenciaci
on e integraci
on.

P
Con un (x) continua y
an xn uniformemente convergente, encontramos que la serie diferenciada es una serie de potencia con funciones continuas y del mismo radio de convergencia
que la serie original. Los nuevos factores introducidos por diferenciacion (o integracion) no
afecta ni a la prueba de la raz ni a la de la razon. Por lo tanto nuestra serie podra ser
diferenciada o integrada tan a menudo como deseemos dentro del intervalo de convergencia
uniforme.
En vista de las restricciones algo severas puestas en la diferenciacion, esto es un resultado
valioso y notable.
4

La ecuacion (1.101) puede ser reescrita con z = x + iy, reemplazando a x. Luego todos los resultados de
esta seccion se aplican a series complejas

1.8. CONVERGENCIA UNIFORME Y ABSOLUTA.

1.8.3.

31

Teorema de unicidad.

En la seccion precedente, usando las series de Maclaurin, expandimos ex y ln(1 + x) en


series infinitas. En los captulos venideros las funciones son frecuentemente representadas e
incluso definidas por series infinitas. Ahora estableceremos que la representacion de la serie
de potencias es u
nica.
Si

X
f (x) =
an x n ,
Ra < x < Ra
n=0

(1.103)
bn x n ,

Rb < x < Rb ,

n=0

con intervalos de convergencia sobrepuestos, incluyendo el origen, luego


an = b n ,

(1.104)

para todo n; esto es, supongamos dos representaciones de serie de potencias (diferentes) y
luego procedamos a demostrar que las dos son identicas.
De la ecuacion (1.103)

an x =

bn x n ,

R < x < R

(1.105)

n=0

n=0

donde R es el mas peque


no entre Ra , Rb . Haciendo x = 0 para eliminar todo salvo el termino
constante, obtenemos
a0 = b 0 .
(1.106)
Ahora, aprovechandose de la diferenciabilidad de nuestra serie de potencia, diferenciamos la
ecuacion (1.105), obteniendo

nan x

n1

nbn xn1 .

(1.107)

n=1

n=1

De nuevo ajustamos x = 0 para aislar el nuevo termino constante y encontramos


a1 = b 1 .

(1.108)

Repitiendo este proceso n veces, obtenemos


an = b n ,

(1.109)

lo cual muestra que las dos series coinciden. Por lo tanto nuestra representacion en serie de
potencia es u
nica.
Esto sera un punto crucial cuando usamos una serie de potencia para desarrollar soluciones
de ecuaciones diferenciales. Esta unicidad de las series de potencia aparece frecuentemente
en fsica teorica. La teora de perturbaciones en Mecanica Cuantica es un ejemplo de esto.
La representacion en serie de potencia de funciones es a menudo u
til en formas de evaluacion
indeterminadas, particularmente cuando la regla de lHospital puede ser inconveniente de
aplicar.

CAPITULO 1. SERIES INFINITAS.

32
Ejemplo
Evaluemos

1 cos x
.
x0
x2
lm

(1.110)

Remplazando cos x por su expansion en serie de Maclaurin, obtenemos


1 (1 x2 /2! + x4 /4! )
1 cos x
=
x2
x2
2
4
x /2! x /4! +
=
x2
2
x
1
+ .
=
2!
4!
Tomando x 0, tenemos
1
1 cos x
= .
2
x0
x
2
lm

(1.111)

La unicidad de las series de potencia significa que los coeficientes an pueden ser identificadas con las derivadas en una serie de Maclaurin. A partir de

X
1 (n)
an x =
f (x) =
f (0)xn
n!
n=0
n0

tenemos
an =

1.8.4.

1 (n)
f (0) .
n!

Inversi
on de series de potencia.

Supongamos que tenemos una serie


y y0 = a1 (x x0 ) + a2 (x x0 )2 +

X
=
an (x x0 )n ,

(1.112)

n=1

en la cual esta dada (y y0 ) en terminos de (x x0 ). Sin embargo, podra ser deseable tener
una expresion explcita para (xx0 ) en terminos de (y y0 ). Necesitamos resolver la ecuacion
(1.112) para (x x0 ) por inversion de nuestra serie. Supongamos que
x x0 =

bn (y y0 )n ,

(1.113)

n=0

con bn determinado en terminos de los supuestamente conocidos an . Una aproximacion a


fuerza bruta, la cual es perfectamente adecuada para los primeros coeficientes, ya que es
simplemente sustituir la ecuacion (1.112) en la ecuacion (1.113). Igualando los coeficientes

1.9. INTEGRALES ELIPTICAS.

33

de (x x0 )n en ambos lados de la ecuacion (1.113), ya que la serie de potencia es u


nica,
obtenemos
1
,
a1
a2
b2 = 3 ,
a1
1
b3 = 5 (2a22 a1 a3 ) ,
a1
1
b4 = 7 (5a1 a2 a3 a21 a4 5a32 ) ,
a1

b1 =

(1.114)

y as sucesivamente.

Los coeficientes mayores son listados en tablas generalmente. Una aproximacion mas general
y mucho mas elegante es desarrollada usando variables complejas.

1.9.

Integrales elpticas.

Las integrales elpticas son incluidas aqu parcialmente como una ilustracion del uso de
las series de potencias y por su propio interes intrnseco. Este interes incluye la ocurrencia
de las integrales elpticas en una gran variedad de problemas fsicos.
Ejemplo Perodo de un pendulo simple.
Para peque
nas oscilaciones en la amplitud nuestro pendulo, figura 1.8, tiene un movimiento armonico simple con un perodo T = 2(l/g)1/2 . Para una amplitud grande M tal
que sen M 6= M , la segunda ley de movimiento de Newton y las ecuaciones de Lagrange
conducen a una ecuacion diferencial no lineal (sen es una funcion no lineal de ), as que
necesitamos un acercamiento diferente.

Figura 1.8: Pendulo simple.

La masa oscilante m tiene una energa cinetica de ml2 (d/dt)2 /2 y una energa potencial
de mgl cos ( = /2 como la eleccion del cero de la energa potencial). Ya que d/dt = 0
en = M , el principio de la conservacion de la energa da
 2
1 2 d
ml
mgl cos = mgl cos M .
(1.115)
2
dt

CAPITULO 1. SERIES INFINITAS.

34
Resolviendo para d/dt obtenemos
d
=
dt

2g
l

1/2

(cos cos M )1/2

(1.116)

con la cancelacion de la masa m. Tomando t como cero cuando = 0 y d/dt > 0. Una
integracion desde = 0 a = M produce
 1/2
 1/2 Z t
Z M
2g
2g
1/2
dt =
t.
(1.117)
(cos cos M )
d =
l
l
0
0
Esto es 1/4 del ciclo, y por lo tanto el tiempo t es 1/4 del perodo, T . Notemos que M ,
trataremos la sustitucion
 
 

M
sen
= sen
sen .
(1.118)
2
2
Con esto, la ecuacion (1.117) se convierte en
 1/2 Z /2
l
s
T =4
g
0

d
 
M
1 sen2
sen2
2

(1.119)

Aunque no hay un obvio mejoramiento en la ecuacion (1.117), la integral ahora corresponde a


la integral elptica completa del primer tipo, K(sen M /2). A partir de la expansion de serie,
el perodo de nuestro pendulo puede ser desarrollado como una serie de potencia en sen M /2:

 1/2 
9
l
1
2 M
4 M
+
sen
+
(1.120)
1 + sen
T = 2
g
4
2
64
2

1.9.1.

Definiciones.

Generalizando el ejemplo anterior para incluir el lmite superior como una variable, la
integral elptica del primer tipo esta definida como
Z
d

F (\) =
(1.121)
1 sen2 sen2
0
o

Z
F (x|m) =
0

dt
p

(1

t2 )(1

mt2 )

0m<1.

Para = /2, x = 1, tenemos la integral elptica completa de primer tipo,


Z /2
d

K(m) =
1 m sen2
0
Z 1
dt
p
=
,
2
(1 t )(1 mt2 )
0
con m = sen2 , 0 m < 1.

(1.122)

(1.123)

1.9. INTEGRALES ELIPTICAS.

35

La integral elptica de segundo tipo esta definida por


Z
E(\) =
1 sen2 sen2 d

(1.124)

o
x

E(x|m) =
0

1 mt2
dt ,
1 t2

0m<1

(1.125)

Nuevamente, para el caso = /2, x = 1,tenemos la integral elptica completa de segundo


tipo:
Z

/2

E(m) =

1 m sen2 d

=
0

1 mt2
dt ,
1 t2

(1.126)
0m<1.

La figura 1.9 muestra el comportamiento de K(m) y E(m). Los valores de ambas funciones
pueden encontrarse en tablas o evaluar en software como Mathematica.
3

K(m)

/2
E(m)

0.2

0.4

0.6

0.8

Figura 1.9: Integrales elpticas completas, K(m), E(m).

1.9.2.

Expansi
on de series.

Para nuestro intervalo 0 m < 1, el denominador de K(m) puede ser expandido en serie
binomial
1
3
(1 m sen2 )1/2 = 1 + m sen2 + m2 sen4 +
2
8

X
(2n 1)!! n
=
m sen2n .
(2n)!!
n=0

(1.127)

CAPITULO 1. SERIES INFINITAS.

36

Para cualquier intervalo cerrado [0, mmax ], con mmax < 1, esta serie es uniformemente convergente y puede ser integrada termino a termino.
Z /2
(2n 1)!!
sen2n d =
.
(1.128)
(2n)!! 2
0
De modo que
"
#
 2

2

2
1
13
135

2
3
1+
m+
m +
m + .
K(m) =
2
2
24
246

(1.129)

Similarmente,
"
#
 2

2

2

1 m
1 3 m2
1 3 5 m3
E(m) =
1

.
2
2
1
24
3
246
5

(1.130)

Mas adelante estas series son identificadas como funciones hipergeometricas, y tenemos



1 1
K(m) = 2 F1
, , 1; m
(1.131)
2
2 2



1 1
E(m) = 2 F1 , , 1; m
(1.132)
2
2 2

1.9.3.

Valores lmites.

De las series en las ecuaciones (1.129) y (1.130), o a partir de las integrales definidas,
obtenemos

lm K(m) = ,
(1.133)
m0
2

lm E(m) = .
(1.134)
m0
2
Para m 1, las expansiones en series no son muy u
tiles, A partir de la representacion
integral tenemos que
lm K(m) = ,
(1.135)
m1

diverge logartmicamente, y por otra parte, la integral para E(m) tiene un lmite finito
lm E(m) = 1 .

m1

(1.136)

Las integrales elpticas han sido usadas ampliamente en el pasado para evaluar integrales.
Por ejemplo, integrales de la forma
Z x
p
I=
R(t, a4 t4 + a3 t3 + a2 t2 + a1 t + a0 ) dt ,
0

donde R es una funcion racional de t y del radical, pueden ser expresadas en terminos de
integrales elpticas. Con los computadores actuales disponibles para una evaluacion numerica
rapida y directa, el interes en estas tecnicas de integrales elpticas ha declinado. Sin embargo,
las integrales elpticas mantienen su interes a causa de su apariencia en problemas en Fsica.


1.10. NUMEROS
DE BERNOULLI.

1.10.

37

N
umeros de Bernoulli.

Los n
umeros de Bernoulli fueron introducidos por Jacques Bernoulli. Hay muchas definiciones equivalentes, pero debe tenerse extremo cuidado, porque algunos autores introducen
variaciones en la numeracion o en signo. Un acercamiento relativamente simple para definir
los n
umeros de Bernoulli es por la serie5

X Bn xn
x
=
,
ex 1 n=0 n!

(1.137)

la cual converge para |x| < 2 usando el test del cociente. Diferenciando esta serie de potencia
repetidamente y luego evaluando para x = 0, obtenemos

 n 
x
d
.
(1.138)
Bn =
dxn ex 1 x=0
Especficamente,
d
B1 =
dx



x


xe
x
1
1

=
= ,


x
x
x
2
e 1 x=0
e 1 (e 1) x=0
2

(1.139)

como puede ser visto por la expansion en series de los denominadores. Usando B0 = 1 y
B1 = 1/2, es facil verificar que la funcion

x
x X Bn xn
x
x

1
+
=
= x
1 ,
x
e 1
2
n!
e 1
2
n=2

(1.140)

es par en x, tal que todos los B2n+1 = 0.


Para derivar una relacion de recurrencia para los n
umeros de Bernoulli, multiplicamos
"
#"
#

X xm
x X B2n x2n
ex 1 x
=1=
1 +
x ex 1
(m
+
1)!
2 n=1 (2n)!
m=0

 X

X
X
1
1
B2n
m
=1+
x

+
xN
.
(m + 1)! 2 m!
[(2n)!(N 2n + 1)!]
m=1
N =2
1nN/2

(1.141)
La ecuacion (1.141) produce
1
(N + 1) 1 =
2

X
1nN/2


B2n


N +1
1
= (N 1) ,
2n
2

(1.142)

la cual es equivalente a


N
1 X
2N + 1
N =
B2n
,
2 n=1
2n
 
N
1
X
2N
N 1=
B2n
.
2n
n=1
5

La funcion

ex

(1.143)

x
puede ser considerada una funci
on generatriz ya que genera los n
umeros de Bernoulli.
1

CAPITULO 1. SERIES INFINITAS.

38

n Bn
Bn
0
1 1.0000 00000
1 21 -0.5000 00000
1
2
0.1666 66667
6
1
3 30 -0.0333 33333
1
4
0.0238 09524
42
1
-0.0333 33333
5 30
5
6
0.0757 57576
66
Cuadro 1.1: N
umeros de Bernoulli
A partir de la ecuacion (1.143) los n
umeros de Bernoulli en la tabla 1.1 se obtienen rapidamente. Si la variable x en la ecuacion (1.137) es remplazada por 2xi (y B1 elegido igual a
-1/2), obtenemos una definicion alternativa (y equivalente) de B2n , la expresion
x cot x =

(1)n B2n

n=0

(2x)2n
,
(2n)!

< x < .

(1.144)

Usando el metodo del residuo o trabajando a partir de la representacion de producto


infinito de sen(x), encontramos que

B2n

(1)n1 2(2n)! X 1
,
=
2n
(2)2n
p
p=1

n = 1, 2, 3 . . . .

(1.145)

Esta representacion de los n


umeros de Bernoulli fue descubierta por Euler. Es facil ver a
partir de la ecuacion (1.145) que |B2n | aumenta sin lmite cuando n . Ilustrando el
comportamiento divergente de los n
umeros de Bernoulli, tenemos
B20 = 5.291 102
B200 = 3.647 10215 .
Algunos autores prefieren definir los n
umeros de Bernoulli con una version modificada de la
ecuacion (1.145) usando

2(2n)! X 1
B2n =
,
(1.146)
(2)2n p=1 p2n
el subndice es justo la mitad de nuestro subndice original y todos los signos son positivos.
Nuevamente, se debe chequear cuidadosamente la definicion que se esta usando de los n
umeros
de Bernoulli.
Los n
umeros de Bernoulli aparecen frecuentemente en teora de n
umeros. El teorema de
von Standt-Clausen establece que
B2n = An

1
1
1
1


,
p1 p2 p3
pk

(1.147)


1.10. NUMEROS
DE BERNOULLI.

39

en el cual An es un entero y p1 , p2 , . . . pk son n


umeros primos tal que pi 1 es un divisor de
2n. Podemos facilmente verificar que esto se satisface para
B6 (A3 = 1, p = 2, 3, 7) ,
B8 (A4 = 1, p = 2, 3, 5) ,
B10 (A5 = 1, p = 2, 3, 11) ,

(1.148)

y otros casos especiales.


Los n
umeros de Bernoulli aparecen en la suma de potencias enteras de enteros,
N
X

jp ,

p entero.

j=1

y en numerosas expansiones de series de las funciones trascendentales, incluyendo tan x, cot x,


sen1 x, ln | sen x|, ln | cos x|, ln | tan x|, tanh x, coth x y cosh1 x. Por ejemplo,
x3
2 5
(1)n1 22n (22n 1)B2n 2n1
tan(x) = x +
+ x + +
x
+ .
3
15
(2n)!

(1.149)

Los n
umeros de Bernoulli probablemente vengan en tales expansiones en series a causa de las
ecuaciones de definicion (1.137) y (1.143) y de su relacion con la funcion zeta de Riemann

X
1
(2n) =
.
p2n
p=1

1.10.1.

(1.150)

Funciones de Bernoulli.

Si la ecuacion (1.137) puede ser facilmente generalizada, tenemos

X
xn
xexs
=
B
(s)
.
n
ex 1 n=0
n!

(1.151)

definiendo las funciones de Bernoulli, Bn (s). Las primeras siete funciones de Bernoulli estan
dadas en la tabla 1.2.
De la funcion generadora, ecuacion (1.151),
Bn (0) = Bn ,

n = 1, 2, . . . .

(1.152)

la funcion de Bernoulli evaluadas en cero es igual al correspondiente n


umero de Bernoulli. Dos
propiedades particularmente importantes de las funciones de Bernoulli se deducen a partir
de la definicion: una relacion de diferenciacion
Bn0 (s) = nBn1 (s) ,

n = 1, 2, . . . .

(1.153)

y una relacion de simetra


Bn (1) = (1)n Bn (0) ,

n = 1, 2, . . . .

(1.154)

Estas relaciones son usadas en el desarrollo de la formula de integracion de Euler-Maclaurin.

CAPITULO 1. SERIES INFINITAS.

40

B0
B1
B2
B3
B4
B5
B6

=
=
=
=
=
=
=

1
x 12
x2 x + 16
x3 23 x2 + 12 x
1
x4 2x3 + x2 30
x5 52 x4 + 53 x2 16 x
x6 3x5 + 52 x4 21 x2 +

1
42

Cuadro 1.2: Funciones de Bernoulli

1.10.2.

F
ormula de integraci
on de Euler-Maclaurin.

Uno de los usos de las funciones de Bernoulli es la derivacion de la formula de integracion


de Euler-Maclaurin. Esta formula es usada en el desarrollo de una expresion asintotica para
la funcion factorial, serie de Stirling. La tecnica es integracion por partes repetida, usando la
ecuacion (1.153) para crear nuevas derivadas. Comenzamos con
Z 1
Z 1
f (x) dx =
f (x)B0 (x) dx .
(1.155)
0

A partir de la ecuacion (1.153)


B10 (x) = B0 (x) = 1 .
Sustituyendo B10 (x) en la ecuacion (1.155) e integrando por partes, obtenemos
Z 1
Z 1
f 0 (x)B1 (x) dx
f (x) dx = f (1)B1 (1) f (0)B1 (0)
0
0
Z 1
1
f 0 (x)B1 (x) dx
= [f (1) f (0)]
2
0

(1.156)

(1.157)

Nuevamente, usando la ecuacion (1.153), tenemos


1
B1 (x) = B20 (x) ,
2
e integrando por partes
Z 1
1
1
f (x) dx = [f (1) f (0)] [f 0 (1)B2 (1) f 0 (0)B2 (0)]+
2
2!
0
Z 1
1
f (2) (x)B2 (x) dx .
2! 0

(1.158)

(1.159)

Usando las relaciones,


B2n (1) = B2n (0) = B2n ,
B2n+1 (1) = B2n+1 (0) = 0 ,

n = 0, 1, 2, . . .
n = 1, 2, 3, . . . ,

(1.160)

ZETA DE RIEMANN.
1.11. FUNCION

41

y continuando este proceso, tenemos


Z 1
q
X
1
1
f (x) dx = [f (1) f (0)]
B2p [f (2p1) (1) f (2p1) (0)]+
2
(2p)!
0
p=1
Z 1
1
+
f (2q) (x)B2q (x) dx .
(2p)! 0

(1.161)

Esta es la formula de integracion de Euler-Maclaurin. Supone que la funcion f (x) tiene todas
las derivadas requeridas.
El intervalo de integracion en la ecuacion (1.161) puede ser trasladado de [0, 1] a [1, 2]
reemplazando f (x) por f (x + 1). Sumando tales resultados hasta [n 1, n],
Z n
1
1
f (x) dx = f (0) + f (1) + f (2) + + f (n 1) + f (n)+
2
2
0
Z 1
q
n1
X 1
X
1
(2p1)
(2p1)

B2p [f
B2q (x)
f (2q) (x + ) dx .
(n) f
(0)] +
(2p)!
(2p)!
0
p=1
=0
(1.162)
Los terminos 21 f (0) + f (1) + . . . + 21 f (n) aparecen exactamente como una integracion o
cuadratura trapezoidal. La suma sobre p puede ser interpretada como una correccion a la
aproximacion trapezoidal. La ecuacion (1.162) es la forma usada en la derivacion de la formula
de Stirling.
La formula de Euler-Maclaurin es a menudo u
til para sumar series al convertirlas en
integrales.

1.11.

Funci
on zeta de Riemann.

P
2n
fueron usadas como series de comparacion para probar la conEstas series
p=1 p
vergencia y en la ecuacion (1.144) como una definicion de los n
umeros de Bernoulli, B2n .
Tambien sirve para definir la funcion zeta de Riemann por
(s)

X
1
,
s
n
n=1

s>1.

(1.163)

La tabla 1.3 muestra los valores de (s) para s entero, s = 2, 3, . . . , 10. La figura 1.10 es un
grafico de (s) 1. Una expresion integral para esta funcion zeta de Riemann aparecera como
parte del desarrollo de la funcion gama.
Otra interesante expresion para la funcion zeta puede ser derivada como


1
1
1
1
1
s
(s)(1 2 ) = 1 + s + s +
+
+
+
(1.164)
2
3
2s 4s 6s
eliminando todos los ns , donde n es un m
ultiplo de 2. Entonces
1
1
1
1
(s)(1 2s )(1 3s ) = 1 + s + s + s + s +
3 5
7
9

1
1
1

+
+
+ ,
3s 9s 15s

(1.165)

CAPITULO 1. SERIES INFINITAS.

42

s
2
3
4
5
6
7
8
9
10

(s)
1.64493 40668
1.20205 69032
1.08232 32337
1.03692 77551
1.01734 30620
1.00834 92774
1.00407 73562
1.00200 83928
1.00099 45751

Cuadro 1.3: Funcion zeta de Riemann.

10
1
s

0.1

(s)1
0.01
0.001
0.0001
0

10

12

14

s
Figura 1.10: Funcion zeta de Riemann, (s) 1, versus s.

eliminando todos los terminos remanentes, donde n es un m


ultiplo de 3. Continuando, tenemos (s)(1 2s )(1 3s )(1 5s ) . . . (1 P s ), donde P es un n
umero primo, y todos los
s
terminos n , en el cual n es un m
ultiplo entero por sobre P , son cancelados. Para P ,
s

(s)(1 2 )(1 3 ) (1 P

) = (s)

(1 P s ) = 1 .

(1.166)

P (primo)=2

Por lo tanto

(s) =

P (primo)=2

1
(1 P s )

(1.167)

ZETA DE RIEMANN.
1.11. FUNCION

43

dando (s) como un producto infinito.6


Este procedimiento de cancelacion tiene una clara aplicacion en el calculo numerico. La
ecuacion (1.164) dara (s)(1 2s ) con la misma precision como la ecuacion (1.163) da (s),
pero solamente con la mitad de terminos. (En cuyo caso, podra hacerse una correccion para
despreciar la cola de la serie por la tecnica de Maclaurin reemplazando la serie por una
integral).
Conjuntamente con la funcion zeta de Riemann, habitualmente se definen otras tres funciones de sumas de potencia recprocas:
(s) =
(s) =

X
(1)n1
n=1

X
n=0

ns

= (1 21s )(s) ,

1
=
(2n + 1)s

1
1 s
2


(s) ,

y
(s) =

X
n=0

(1)n

1
.
(2n + 1)s

A partir de los n
umeros de Bernoulli o de las series de Fourier podemos determinar algunos
valores especiales
(2) = 1 +
(4) = 1 +
(2) = 1
(4) = 1
(2) = 1 +
(4) = 1 +
(1) = 1
(3) = 1

1
1
2
+
+

=
22 32
6
1
4
1
+
+ =
24 34
90
1
2
1
+

=
22 32
12
1
1
7 4
+
=
24 34
720
1
2
1
+
+ =
32 52
8
1
1
4
+
+ =
34 54
96
1 1

+ =
3 5
4
1
1
3
+

=
33 53
32

La constante de Catalan
(2) = 1
6

1
1
+ 2 = 0.9159 6559 . . . ,
2
3
5

Este es el punto de partida para la vasta aplicacion de la funcion zeta de Riemann a la teora de n
umeros.

CAPITULO 1. SERIES INFINITAS.

44

1.11.1.

Mejoramiento de la convergencia.

P
Si requerimos sumar una serie convergente
erminos son funciones racion=1 an cuyos t
nales de n, la convergencia puede ser mejorada dramaticamente introduciendo la funcion zeta
de Riemann.
Ejemplo Mejorando la convergencia.

X
El problema es evaluar la serie
n=1

1
1
1
. Expandiendo
= 2
2
2
(1 + n )
(1 + n )
n

1
1
1+ 2
n

 por

division directa, tenemos




1
1
1
1
n6
= 2 1 2 + 4
1 + n2
n
n
n
1 + n2
1
1
1
1
.
= 2 4+ 6 8
n
n
n
n + n6
Por lo tanto

X
n=1

X
1
1
=
(2)

(4)
+
(6)

.
8 + n6
1 + n2
n
n=1

Las funciones son conocidas y el remanente de la series converge como n6 . Claramente, el


proceso puede ser continuado hasta cuando uno desee. Usted puede hacer una eleccion entre
cuanta algebra hara y cuanta aritmetica hara el computador.
Otros metodos para mejorar la efectividad computacional estan dadas al final de la seccion
1.2 y 1.4.

1.12.

Series asint
oticas o semi-convergentes.

Las series asintoticas aparecen frecuentemente en Fsica. En calculo numerico ellas son
empleadas para el calculo de una variedad de funciones. Consideremos aqu dos tipos de
integrales que conducen a series asintoticas: primero, una integral de la forma
Z
I1 (x) =

eu f (u) du ,

donde la variable x aparece como el lmite inferior de una integral. Segundo, consideremos la
forma
Z
u
I2 (x) =
eu f
du ,
x
0
con la funcion f expandible en serie de Taylor. Las series asintoticas a menudo ocurren como
solucion de ecuaciones diferenciales. Un ejemplo de este tipo de series aparece como una de
las soluciones de la ecuacion de Bessel.


1.12. SERIES ASINTOTICAS
O SEMI-CONVERGENTES.

1.12.1.

45

Funci
on gama incompleta.

La naturaleza de una serie asintotica es quizas mejor ilustrada por un ejemplo especfico.
Supongamos que tenemos una funcion integral exponencial7
Z x u
e
Ei(x) =
du ,
(1.168)
u
o

Z
Ei(x) =
x

eu
du = E1 (x) ,
u

(1.169)

para ser evaluada para grandes valores de x. Mejor todava, tomemos una generalizacion de
la funcion factorial incompleta (funcion gama incompleta),
Z
I(x, p) =
eu up du = (1 p, x) ,
(1.170)
x

en la cual x y p son positivas. De nuevo, buscamos evaluarla para valores grandes de x.


Integrando por partes, obtenemos
Z
Z
ex pex
ex
u p1
e u
du = p p+1 + p(p + 1)
eu up2 du
(1.171)
I(x, p) = p p
x
x
x
x
x
Continuando para integrar por partes, desarrollamos la serie


1
p
p(p + 1)
x
n1 (p + n 2)!
I(x, p) = e

+
(1)
+
xp xp+1
xp+2
(p 1)!xp+n1
Z
n (p + n 1)!
eu upn du .
+ (1)
(p 1)!
x

(1.172)

Esta es una serie notable. Chequeando la convergencia por la prueba de D Alembert, encontramos
|un+1 |
(p + n)! 1
= lm
n |un |
n (p + n 1)! x
(p + n)
= lm
n
x
=
lm

(1.173)

para todos los valores finitos de x. Por lo tanto nuestras series son series infinitas que divergen
en todas partes!. Antes de descartar la ecuacion (1.172) como in
util, veamos cuan bien una
suma parcial dada se aproxima a la funcion factorial incompleta, I(x, p).
Z
n+1 (p + n)!
= (1)
eu upn1 du = Rn (x, p) .
(1.174)
(p 1)! x
7

Esta funci
on ocurre con frecuencia en problemas astrofsicos que involucran gases con una distribucion
de energa de Maxwell-Boltzmann.

CAPITULO 1. SERIES INFINITAS.

46
En valor absoluto
(p + n)!
| I(x, p) sn (x, p) |
(p 1)!

eu upn1 du .

Luego sustituimos u = v + x la integral se convierte en


Z
Z
u pn1
x
ev (v + x)pn1 dv
e u
du = e
0
x
Z

ex
v pn1
= p+n+1
ev 1 +
dv .
x
x
0
Para x grande la integral final se aproxima a 1 y
(p + n)! ex
| I(x, p) sn (x, p) |
.
(p 1)! xp+n+1

(1.175)

Esto significa que si tomamos un x suficientemente grande, nuestra suma parcial sn es arbitrariamente una buena aproximacion a la funcion deseada I(x, p). Nuestra serie divergente,
por lo tanto, es perfectamente buena para calculos de sumas parciales. Por esta razon algunas
veces es llamada serie semi-convergente. Notemos que la potencia de x en el denominador
del remanente (p + n + 1) es mas alto que la potencia de x en u
ltimo termino incluido en
sn (x, p), (p + n).
Ya que el remanente Rn (x, p) alterna en signo, las sucesivas sumas parciales dan alternadamente cotas superiores e inferiores para I(x, p). El comportamiento de la serie (con p = 1)
como una funcion del n
umero de terminos incluidos es mostrado en la figura 1.11. Tenemos
0.21

0.19

sn (x=5)
0.17

0.1741

0.1704

0.1664

0.15



Figura 1.11: Sumas parciales de e E1 (x)

10

.
x=5

eu
du
u
x
1
1!
2!
3!
n!
= sn (x) 2 + 3 4 + + (1)n n+1 ,
x x
x
x
x
x

e E1 (x) = e

(1.176)


1.12. SERIES ASINTOTICAS
O SEMI-CONVERGENTES.

47

la cual es evaluada en x = 5. Para un valor dado de x las sucesivas cotas superiores e inferiores
dadas por las sumas parciales primero convergen y luego divergen. La determinacion optima
de ex E1 (x) esta dada por la aproximacion mas cercana de las cotas superiores e inferiores,
esto es, entre s4 = s6 = 0.1664 y s5 = 0.1741 para x = 5. Por lo tanto


x
0.1664 e E1 (x)
0.1741 .
(1.177)
x=5

Realmente, a partir de las tablas,




e E1 (x)
x

= 0.1704 ,

(1.178)

x=5

dentro de los lmites establecidos por nuestra expansion asintotica. Note cuidadosamente
que la inclusion de terminos adicionales en la serie de expansion mas alla del punto optimo,
literalmente reduce la precision de la representacion.
Cuando aumentamos x, la diferencia entre la cota superior mas baja y la cota inferior
mas alta disminuira. Tomando x suficientemente grande, uno podra calcular ex E1 (x) para
cualquier grado de precision deseado.

1.12.2.

Integrales coseno y seno.

Las series asintoticas tambien pueden ser desarrolladas a partir de integrales definidas
si el integrando tiene el comportamiento requerido. Como un ejemplo, las integrales seno y
coseno estan definidas por
Z
cos t
dt ,
(1.179)
Ci(x) =
t
x
Z
sen t
dt ,
(1.180)
si(x) =
t
x
Combinando estas con funciones trigonometricas regulares, podemos definir
Z
sen(x)
f (x) = Ci(x) sen(x) si(x) cos(x) =
dy
y+x
0
Z
cos(x)
g(x) = Ci(x) cos(x) si(x) sin(x) =
dy
y+x
0
con la nueva variable y = t x. Llevando a variable compleja, tenemos
Z iy
e
dy
g(x) + if (x) =
y+x
0
Z xu
ie
du
=
1 + iu
0

(1.181)

(1.182)

en el cual u = iy/x. Los lmites de integracion, 0 a , a mas que de 0 a i, puede ser


justificado por el teorema de Cauchy. Racionalizando el denominador e igualando la parte

CAPITULO 1. SERIES INFINITAS.

48
real y la parte imaginaria, obtenemos
Z

g(x) =
Z0
f (x) =
0

uexu
du ,
1 + u2
exu
du .
1 + u2

(1.183)

La convergencia de las integrales requiere que Re(x) > 0.8


Ahora, desarrollamos la expansion asintotica, consideremos el cambio de variable v = xu
y expandimos el factor [1 + (v/x)2 ]1 por el teorema del binomio. Tenemos
Z
v 2n
(2n)!
1 X
1 v X
(1)n 2n dv =
(1)n 2n
e
f (x)
x 0
x
x 0nN
x
0nN
(1.184)
Z
2n+1
X
1
1 X
v
nv
n (2n + 1)!
g(x) 2
e
(1)
dv = 2
.
(1)
2n
2n
x 0
x
x
x
0nN
0nN
De las ecuaciones (1.181) y (1.184)
Ci(x)

sen(x) X
(2n)! cos(x) X
n (2n + 1)!
(1)n 2n
(1)
x 0nN
x
x2 0nN
x2n

cos(x) X
(2n)! sen(x) X
(2n + 1)!
(1)n 2n
(1)n
,
si(x)
2
x 0nN
x
x
x2n
0nN

(1.185)

las expansiones asintoticas deseadas.


La tecnica de expandir el integrando de una integral definida e integrar termino a termino
lo volveremos a aplicar para desarrollar una expansion asintotica de la funcion de Bessel modificada Kv y tambien para las expansiones de las dos funciones hipergeometricas confluentes
M (a, c; x) y U (a, c; x).

1.12.3.

Definici
on de series asint
oticas.

El comportamiento de estas series (ecuaciones (1.172) y (1.185)) en consistencia con las


propiedades definidas para una serie asintotica9 . Siguiendo a Poincare, tomamos
xn Rn (x) = xn [f (x) sn (x)] ,

(1.186)

donde

a1 a2
an
+ 2 + + n .
x
x
x
La expansion asintotica de f (x) tiene las propiedades que
sn (x) = a0 +

lm xn Rn (x) = 0 ,

x
8
9

para n fijo,

La parte real.
No es necesario que las series asint
oticas sean series de potencia.

(1.187)

(1.188)

1.13. PRODUCTOS INFINITOS.

49

y
lm xn Rn (x) = ,

para x fijo,

(1.189)

Vemos la ecuaciones (1.172) y (1.173) como un ejemplo de estas propiedades. Para series de
potencias, como las supuestas en la forma de sn (x), Rn (x) xn1 . Con condiciones (1.188)
y (1.189) satisfechas, escribimos

X
1
(1.190)
f (x)
an n .
x
n=0
Notemos el uso de en lugar de =. La funcion f (x) es igual a la serie solamente en el lmite
cuando x .
Las expansiones asintoticas de dos funciones pueden ser multiplicadas entre s y el resultado sera una expansion asintotica de un producto de dos funciones.
La expansion asintotica de una funcion dada f (t) puede ser integrada termino a termino
(justo como en una serie uniformemente convergente de una Rfuncion continua) a partir de

x t < y el resultado sera una expansion asintotica de x f (t)dt. Una diferenciacion


termino a termino, sin embargo, es valida solamente bajo condiciones muy especiales.
Algunas funciones no poseen una expansion asintotica; ex es un ejemplo de tales funciones. Sin embargo, si una funcion tiene una expansion asintotica, tiene solamente una.
La correspondencia no es uno a uno; muchas funciones pueden tener la misma expansion
asintotica.
Uno de los metodos mas poderoso y u
til de generar expansiones asintoticas, es el metodo
de steepest descents, sera desarrollado mas adelante. Las aplicaciones incluyen la derivacion
de la formula de Stirling para la funcion factorial (completa) y las formas asintoticas de las
varias funciones de Bessel.

1.12.4.

Aplicaciones a c
alculo num
erico.

Las series asintoticas son usadas frecuentemente en el calculo de funciones por los computadores. Este es el caso de las funciones de Neumann N0 (x) y N1 (x), y las funciones
modificadas de Bessel In (x) y Kn (x). Las series asintoticas para integrales del tipo exponencial, ecuacion (1.176), para las integrales de Fresnel, y para la funcion de error de Gauss,
son usadas para la evaluacion de estas integrales para valores grandes del argumento. Cuan
grande debera ser el argumento depende de la precision requerida.

1.13.

Productos infinitos.

Consideremos una sucesion de factores positivos f1 f2 f3 f4 fn (fi > 0). Usando


may
uscula para indicar el producto, tenemos
n
Y
f1 f2 f3 f4 fn =
fi .
(1.191)
i=1

Definimos pn , como el producto parcial, en analoga con sn la suma parcial,


n
Y
pn =
fi ,
i=1

(1.192)

CAPITULO 1. SERIES INFINITAS.

50
y entonces investigamos el lmite
lm pn = P .

(1.193)

Si P es finito (pero no cero), decimos que el producto infinito es convergente. Si P es infinito


o cero, el producto infinito es etiquetado como divergente.
Ya que el producto divergera a infinito si
lm fn > 1

(1.194)

0 < lm fn < 1 ,

(1.195)

o a cero para
n

es conveniente escribir nuestro producto como

(1 + an ) .

n=1

La condicion an 0 es entonces una condicion necesaria (pero no suficiente) para la convergencia.


El producto infinito puede ser relacionado a una serie infinita por el metodo obvio de
tomar el logaritmo

X
Y
ln(1 + an ) .
(1.196)
(1 + an ) =
ln
n=1

n=1

Una relacion mas u


til es probada por el siguiente teorema.

1.13.1.

Convergencia de un producto infinito.

P
Q
Q
Si 0 an < 1, el P
producto infinito
n=1 an
n=1 (1 an ) converge si
n=1 (1 + an ) y

converge y diverge si n=1 an diverge.


Considerando el termino 1 + an , vemos que de la ecuacion (1.80)
1 + an ean .

(1.197)

pn esn ,

(1.198)

Por lo tanto el producto parcial pn


y haciendo n ,

(1 + an ) exp

n=1

an .

(1.199)

n=1

estableciendo una cota superior para el producto infinito.


Para desarrollar una cota mas baja, notemos que
pn = 1 +

n
X
i=1

ai +

n X
n
X
i=1 j=1

ai aj + > s n ,

(1.200)

1.13. PRODUCTOS INFINITOS.


ya que ai 0. De modo que

51

Y
n=1

(1 + an )

an .

(1.201)

n=1

Si la suma infinita permanece finita, el producto infinito tambien lo hara. Si la suma infinita
diverge, tambi
en lo hara el producto infinito.
Q
El caso de (1an ) es complicado por el signo negativo, pero una prueba de que depende
de la prueba anterior puede ser desarrollada notando que para an < 1/2 (recuerde que an 0
para convergencia)
1
(1 an )
1 + an
y
1
(1 an )
.
(1.202)
1 + 2an

1.13.2.

Funciones seno, coseno y gama.

El lector reconocera que un polinomio de orden n Pn (x) con n races reales puede ser
escrito como un producto de n factores:
n
Y
Pn (x) = (x x1 )(x x2 ) (x xn ) =
(x xi ) .

(1.203)

i=1

De la misma manera podemos esperar que una funcion con un n


umero infinito de races
pueda ser escrito como un producto infinito, un factor para cada raz. Esto es por cierto el
caso de las funciones trigonometricas. Tenemos dos representaciones muy u
tiles en productos
infinitos,


Y
x2
(1.204)
sen(x) = x
1 2 2 ,
n
n=1


Y
4x2
cos(x) =
1
.
(1.205)
(2n 1)2 2
n=1
La mas conveniente y quizas la mas elegante derivacion de estas dos expresiones es usando
variable compleja. Por nuestro teorema de convergencia, las ecuaciones (1.204) y (1.205) son
convergentes para todos los valores finitos de x. Especficamente, para el producto infinito
para el sen(x), an = x2 /n2 2 ,

x2 X 1
x2
an = 2
=
(2)
n=1 n2
2
n=1

(1.206)

x2
=
.
6
La serie correspondiente a la ecuacion (1.205) se comporta en una manera similar.
La ecuacion (1.204) conduce a dos resultados interesantes. Primero, si fijamos x = /2,
obtenemos




Y
1
Y (2n)2 1
1=
1
=
.
(1.207)
2 n=1
(2n)2
2 n=1
(2n)2

CAPITULO 1. SERIES INFINITAS.

52
Resolviendo para /2, obtenemos



Y
(2n)2
22 44 66
=
=

,
2 n=1 (2n 1)(2n + 1)
13 35 57

(1.208)

la cual es la famosa formula de Wallis para /2.


El segundo resultado involucra la funcion factorial o funcion gama. Una definicion de la
funcion gama es
#
"

 x 1
Y
x
1+
er
,
(1.209)
(x) = xex
r
r=1
donde es la constante de Euler-Mascheroni, seccion 1.2. Si tomamos el producto de (x) y
(x), la ecuacion (1.209) tiende a
"

x x
x  x x Y 
1
1+
e r xe
er
(x)(x) = xex
r
r
r=1
r=1
#1
" 

Y
x2
.
= x2
1 2
r
r=1

Y

#1
(1.210)

Usando la ecuacion (1.204) con x reemplazado por x, obtenemos


(x)(x) =

.
x sen(x)

(1.211)

Anticipando una relacion de recurrencia desarrollada posteriormente, tenemos que usando


x(x) = (1 x), la ecuacion (1.211) puede ser escrita como
(x)(1 x) =

.
sen(x)

(1.212)

Esto sera u
til cuando tratamos la funcion gama.
Estrictamente hablando, podramos chequear el intervalo en x para el cual la ecuacion
(1.209) es convergente. Claramente, para x = 0, 1, 2, . . . los factores individuales se anulan.
La prueba que el producto infinito converge para todos los otros valores (finitos) de x es dejado
como ejercicio.
Estos productos infinitos tienen una variedad de usos en matematica analtica. Sin embargo, a causa de su lentitud de convergencia, ellas no son aptas para un trabajo numerico
preciso.

Captulo 2
N
umeros Complejos
versi
on 1.1, 5 de Mayo del 2003

2.1.

Introducci
on.

Definici
on 2.1 Dominio de integridad, D. Es un conjunto de elementos entre los cuales
estan definidas las operaciones de suma y multiplicacion con las siguientes propiedades:
a) Para todo a, b que pertenece a D existe un solo a + b D y un solo a b D tal que se
satisfacen
La conmutatividad a + b = b + a y a b = b a.
La asociatividad a + (b + c) = (a + b) + c y a (b c) = (a b) c.
b) Existe un elemento 0 D y un elemento 1 D con 0 6= 1 tal que a D,
a+0=0+a=a
a1=1a=a .
c) Para todo a D solo existe un x D tal que a + x = 0 a tal elemento se le llama opuesto
de a y es a.
d) Si c D con c 6= 0 y c a = c b, entonces a = b ley de simplificacion.
Un par de ejemplos de dominios de integridad son los n
umeros reales, R, y los n
umeros
racionales, Q.
Definici
on 2.2 Campo, C. Es un dominio de integridad que contiene para cada elemento
a 6= 0 un elemento llamado inverso de a y denotado a1 tal que
a a1 = 1 .
Definici
on 2.3 Correspondencia biunvoca. Existe una correspondencia biunvoca entre los
conjuntos A y B si a todos los elementos a A se les puede hacer corresponder un s
olo
0
elemento a B y viceversa.
Notaci
on: a a0 , a A y a0 B.
53


CAPITULO 2. NUMEROS
COMPLEJOS

54
Ejemplo Considere x x + 1 para todo x Z.

Ejemplo (Los puntos de un plano dotados de un sistema ortogonal de ejes) (pares de


n
umeros reales).
Definici
on 2.4 Isomorfismo. Un isomorfismo entre dos campos C y C 0 es una correspondencia biunvoca a a0 con a C y a0 C 0 que satisface para cualquier par de elementos
a C y a0 C 0 las condiciones:
(a + b)0 = a0 + b0
(a b)0 = a0 b0 .
En tal caso se dice que C es isomorfo a C 0 .
Definici
on 2.5 N
umero complejo. Un n
umero complejo es un par (x, y) de n
umeros reales
que satisfacen las reglas:
(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )
(x, y) (x0 , y 0 ) = (xx0 yy 0 , xy 0 + yx0 ) .

(2.1)
(2.2)

Estos n
umeros complejos forman un campo que llamamos campo complejo C.
Consideremos
el dominio D por los n
umeros reales (R) y la raz de la ecuacion x2 + 1 = 0

2
i.e. i 1, i = 1. Toda expresion de la forma x + iy (con x, y R), pertenece a D. Por
definicion de dominio de integridad
(x + iy) + (x0 + iy 0 ) = x + x0 + i(y + y 0 )
(x + iy) (x0 + iy 0 ) = xx0 yy 0 + i(xy 0 + x0 y) .
Establezcamos la correspondencia
(x, y) x + iy .
Afirmamos que esta correspondencia es biunvoca, en efecto, si
(x, y) x + iy
(x0 , y 0 ) x0 + iy 0 ,
y
(x + iy) = (x0 + iy 0 ) (x x0 ) = i(y y 0 ) ,
elevando al cuadrado
(x x0 )2 = (y y 0 )2 (x x0 )2 + (y y 0 )2 = 0 ,
como ambos terminos son 0, deben ser nulos por separados,
x x0 = 0 , y y 0 = 0 x = x0 , y = y 0 ,

(2.3)
(2.4)

2.2. PLANO COMPLEJO.

55

es decir, si (x + iy) = (x0 + iy 0 ) entonces (x, y) = (x0 , y 0 ) son iguales. A cada elemento le
corresponde un solo elemento y viceversa. Por lo tanto,
a partir de (2.1), (2.2) y (2.3), (2.4),
se tiene que el conjunto C es isomorfo a D = {R, i 1}.
Por lo anterior concluimos que si z = (x, y) es un n
umero complejo, entonces z = x + iy.
Identificamos a x como la parte real de z, i.e Re(z) = x. De la misma manera, identificamos a
y como la parte imaginaria de z, i.e Im(z) = y. Ademas tenemos las siguientes equivalencias:
(x, 0) = x ,

(0, 1) = i ,

(1, 0) = 1 ,

(0, y) = iy ,

En el u
ltimo caso tenemos un n
umero que es imaginario puro.

2.2.

Plano complejo.

La forma x+iy de los complejos nos conduce a definir lo que llamaremos el plano complejo,
figura 2.1,

Im
z

Im( z )

Re

i
1

Re( z )

Figura 2.1: Plano complejo.


Aqu los vectores distinguidos son 1 y i. El n
umero complejo z tiene dos interpretaciones
en el plano complejo:
a) Como un vector en este espacio vectorial de dimension 2, isomorfo a R2 .
b) Como un punto de este plano.
Definici
on 2.6 Complejo Conjugado. El complejo conjugado de z = (x, y) = x + iy es

z = z = (x, y) = x iy. La operacion de tomar el conjugado de un n


umero complejo
corresponde, graficamente, a una reflexion respecto al eje real.
Propiedades: Para todo z, z1 , z2 C
1.

(z^
1 + z2 ) = (z1 + z2 ) = ((x1 + x2 ) + i(y1 + y2 ))
= (x1 + x2 ) i(y1 + y2 )
= (x1 iy1 ) + (x2 iy2 ) = z1 + z2
(z1 + z2 ) = z1 + z2 .

(2.5)


CAPITULO 2. NUMEROS
COMPLEJOS

56

Im
z
Re
~
z

Figura 2.2: Complejo conjugado.

2.

^
(z
1 ) = (z1 ) = (x1 iy1 )
= x1 + iy1
= (x1 iy1 ) = (z1 )
(z1 ) = (z1 ) .

(2.6)

3.

(z^
1 z2 ) = (z1 z2 ) = (x1 x2 y1 y2 ) i(x2 y1 + x1 y2 )
= x1 x2 (y1 )(y2 ) + i(x1 (y2 ) + x2 (y1 )) = z1 z2
(z1 z2 ) = z1 z2 .
(2.7)

4.
z = (z ) = z .

(2.8)

z + z = z + z = 2 Re(z) .

(2.9)

z z = z z = 2i Im(z) .

(2.10)

z z = z z = (x + iy)(x iy)
= x2 (i)2 y 2 = x2 + y 2 |z|2
z z = |z|2 .

(2.11)

5.
6.
7.

POLAR.
2.3. REPRESENTACION

57

En general, el conjugado de una expresion racional de complejos sera igual a la expresion


racional de los complejos conjugados. Por ejemplo, det(aij ) = det(
aij ).
A partir de lo anterior, podemos dar una expresion para el inverso de z en funcion de z
y | z |2 . El inverso de z es tal que
1
z
1
z z
z
2 1
|z|
z
1
z
z

=1
= z
= z
=

z
.
| z |2

Si z = x + iy la expresion anterior toma la forma


x iy
1
= 2
.
z
x + y2

2.3.

Representaci
on polar.

Cada n
umero complejo z = x + iy puede representarse en forma polar
z = r(cos + i sen ) ,

(2.12)

donde
r = |z| =

2.4.

p
(Re(z))2 + (Im(z))2 ,

= tan1

y
x

, con < .

(2.13)

Distancia en el plano complejo.

La distancia entre dos puntos z1 y z2 en el plano complejo: d | z2 z1 |, figura 2.4 (a).


Si z es tal que | z z0 | < R, entonces z se encuentra en el interior de una circunferencia
de radio R con centro en z0 , figura 2.4 (b).

2.5.

Desigualdad triangular.

Teorema 2.1 Para cualquier par de n


umeros complejos z1 y z2 se tiene que
| z1 + z2 | | z1 | + | z2 | .

(2.14)


CAPITULO 2. NUMEROS
COMPLEJOS

58

Im
Im( z )

r=| z|

Re
Re( z )

Figura 2.3: Representacion polar.

Im

(a)

Im

(b)

z2 z1

z1

R
z0

z2

Re

Re

Figura 2.4: Distancia en el plano complejo.

Demostraci
on Sean z1 = a1 + ib1 y z2 = a2 + ib2 ,
(a1 b2 a2 b1 )2 = a21 b22 + a22 b21 2a1 b2 a2 b1 0
a21 a22 + a21 b22 + a22 b21 + b21 b22 a21 a22 + 2a1 b2 a2 b1 + b21 b22
(a21 + b21 )(a22 + b22 ) = | z1 |2 | z2 |2 (a1 a2 + b1 b2 )2
| z1 | | z2 | (a1 a2 + b1 b2 )
| z1 |2 + | z2 |2 + 2 | z1 | | z2 | 2a1 a2 + 2b1 b2 + a21 + b21 + a22 + b22
(| z1 | + | z2 |)2 (a1 + a2 )2 + (b1 + b2 )2 = | z1 + z2 |2
| z1 | + | z2 | | z1 + z2 | .
q.e.d.

2.6. ISOMORFISMO CON MATRICES.

2.6.

59

Isomorfismo con matrices.





a b
El algebra de los n
umeros complejos es isomorfa a la de las matrices de la forma
.
b a
Consideremos dos complejos
z1 =
2 = a2 + ib

 a1 + ib1 y z
2 y asociemosles, va la funcion A.
a1 b 1
a2 b 2
Las matrices A(z1 ) =
y A(z2 ) =
respectivamente. Podemos probar
b1 a1
b2 a2
que

 
 

a1 + a2 b 1 + b 2
a1 b 1
a2 b2
A(z1 + z2 ) =
=
+
= A(z1 ) + A(z2 ) ,
b1 b2 a1 + a2
b1 a1
b2 a2

 
 

a1 a2 b 1 b 2
a1 b 1 + a2 b 2
a1 b 1
a2 b 2
A(z1 z2 ) =
=

= A(z1 ) A(z2 ) .
(a1 b1 + a2 b2 ) a1 a2 b1 b2
b1 a1
b2 a2
En esta representacion podemos identificar


1 0
A(1) =
=1,
0 1


A(i) =


0 1
=I.
1 0

De esta manera a un complejo z = a + ib le podemos asociar la matriz Z = a1 + bI.


Consideremos aquellas matrices tales que satisfacen a2 + b2 = 1, o dicho de otra manera
det A = 1. Denotemoslas por Ur , luego det Ur = 1. Los Ur corresponden a todos los z C
tales que | z |2 = 1, puesto que | z |2 = zz = a2 + b2 cuando z tiene la forma z = a + ib.
Recordando la representacion geometrica de los complejos a = cos y b = sen , luego
Ur = cos 1 + sen I,


cos sen
Ur =
,
sen cos
la cual es una isometra propia, una rotacion.

2.7.

Sucesi
on de n
umeros complejos.

Sean z0 , z1 , z2 ,. . . , zn una sucesion de n


umeros complejos, esta sucesion converge si y solo
si para todo > 0 existe un N tal que | zn zm | < para todo n, m N . El anterior es el
criterio de Cauchy de convergencia y en el caso complejo es necesario y suficiente.
Una sucesion de n
umeros complejos z0 , z1 , z2 ,. . . , zn tiene como lmite z si y solo si para
todo > 0 existe un N tal que | zn z | < para todo n N .

2.8.

Series de n
umeros complejos.

Como definicion de la convergencia de una serie compleja usaremos ls convergencia de la


sucesion de sumas parciales, i.e.

n
X
X
zi = z lm Sn =
zi = z .
(2.15)
i=0

i=0

El criterio necesario y suficiente de Cauchy


P para la convergencia de la serie se puede expresar
como > 0 N tal que n, m > N | ni=m zi | < .


CAPITULO 2. NUMEROS
COMPLEJOS

60

Im

z3
z2

z4
z0

z1
Re

Figura 2.5: Convergencia de una serie en el plano complejo.

Definici
on 2.7 La serie

=0

a converge absolutamente si

=0

| a | converge.

Teorema 2.2 La convergencia absoluta implica la convergencia ordinaria.

2.8.1.

Pruebas m
as comunes para la convergencia absoluta.

Teorema 2.3 Prueba de comparaci


on. Si | zn | an y
converge absolutamente.

an converge entonces

zn

Teorema
on. Si | zn+1 /zn | k n suficientemente grande y k < 1,
P 2.4 Prueba de la raz
la serie
zn converge absolutamente.
P
Si | zn+1 /zn | k n suficientemente grande y k > 1, la serie
zn diverge.
p
n
Teorema
2.5
Prueba
de
la
ra
z.
Si
| zn | k < 1 n suficientemente grande entonces
P
la seriep zn converge absolutamente.
P
zn diverge.
Si n | zn | > k 1 para n suficientemente grande entonces la serie

2.8.2.

Radio de convergencia.

Consideremos la serie

z = 1 + z2 + z3 + z4 + . . . .

=0
i)

Para | z P
| < 1, la prueba de la razon nos da | z n+1 /z n | = | z | < 1. Lo anterior implica que
la serie
zn converge absolutamente para | z | < 1.

Para | z P
| > 1, la prueba de la razon nos da | z n+1 /z n | = | z | > 1. Lo anterior implica que
la serie
zn diverge para | z | < 1.
P
n
iii) Para | z | = 1 no existe un n tal que z 0, por lo tanto, la serie
zn diverge para
| z | = 1.
P
La serie
zn converge absolutamente dentro de una circunferencia de radio R = 1. Este
R se llama radio de convergencia.
ii)


2.8. SERIES DE NUMEROS
COMPLEJOS.

61

Zona de
Divergencia

Zona de
Convergencia

Figura 2.6: Convergencia en el plano complejo.

2.8.3.

La serie exponencial.

Consideremos la serie

X
z
=0

Evaluemos la prueba de la razon,


n+1
z
n!

(n + 1)! z n



z n
=

n + 1 0 ,

converge para | z | < .


Definici
on 2.8 Usamos esta serie para definir la funcion exponencial,
z

e = exp z

X
z
=0

Propiedades a, b C:
a)
!

X
b

 
X
X
a b k!
e e =
=
!
!
!! k!
=0
=0
k=0 +=k
!
k

X
X
k!
1 X
1
k
=
a b
=
(a + b)k
k! =0 (k )!!
k!
k=0
k=0
a b

X
a

ea eb = e(a+b) .
b)



z2 z4
z3 z5
e = 1
+
... + i z
+
...
2!
4!
3!
5!
= cos(z) + i sen(z) .
iz

(2.16)


CAPITULO 2. NUMEROS
COMPLEJOS

62

2.9.

Relaci
on de Euler.

A partir de la propiedad anterior podemos escribir


eiz = cos z + i sen z ,

(2.17)

eiz = cos z i sen z .

(2.18)

Podemos despejar las funciones trigonometricas en funcion de las exponeciales complejas


eiz + eiz
,
2
eiz eiz
sen z =
.
2i

(2.19)

cos z =

(2.20)

Algunos valores numericos


ei = 1 ,

e2i = +1 ,

ei/2 = i ,

ei/2 = i .

La funcion ez es periodica con perodo 2i,


ez+2i = ez e2i = ez .
Reobtengamos algunas identidades trigonometricas usando complejos
 1 ia ib

1 i(a+b)
e
+ ei(a+b) =
e e + eia eib
2
2
1
= [(cos a + i sen a)(cos b + i sen b) + (cos a i sen a)(cos b i sen b)]
2
1
= [2 cos a cos b 2 sen a sen b]
2
cos(a + b) = cos a cos b sen a sen b ,
cos(a + b) =

de la misma manera podemos demostrar que


sen(a + b) = sen a cos b + cos a sen b .
Si consideremos el caso b = a tenemos la conocida identidad 1 = cos2 b + sen2 b.
Si R entonces ei = cos + i sen , si calculamos su modulo cuadrado
i 2
e = (cos + i sen )(cos i sen ) = cos2 + sen2 = 1 ,
por lo tanto | ei | = 1. Sabemos ademas, que ei = ei(+2) . Podemos escribir un complejo
z = | z | ei donde corresponde al angulo polar en la figura 2.3.


2.10. FORMULA
DE MOIVRE.

2.10.

63

F
ormula de Moivre.

Consideremos la exponencial compleja de n veces el angulo ,


ein = exp(i + i + i + + i)
{z
}
|
n veces
n
= ei ei ei ei = ei
= cos n + i sen n = (cos + i sen )n
n  
X
n
=
cosn sen i ,

=0
luego tenemos
cos n + i sen n =

n  
X
n
=0

cosn sen i .

Comparando parte real y parte imaginaria tenemos


n(n 1)
cosn2 sen2 + . . .
2
sen n = n cosn1 sen + . . . .
cos n = cosn

(2.21)
(2.22)

Como ejemplo de la relacion anterior consideremos el caso n = 2,


cos 2 = cos2 sen2
sen 2 = 2 cos sen .

2.11.

Ecuaci
on ciclot
onica.

Consideremos la siguiente ecuacion en los complejos


zn = 1 .

(2.23)

Es decir, se busca un z tal que | z | = 1, ya que | z n | = | z |n = 1 | z | = 1, y que su angulo


polar satisfaga n( + 2k) = 0 + 2k 0 . Las soluciones


2ki
,
con k = 0, 1, . . . , n 1.
(2.24)
zk = exp
n
n
1

zk
1

-1, +1

3
2

+1, 21 i

+1, -1, +i, -i

+1, exp(2i/5), exp(4i/5)

1, 1

i 3
2


CAPITULO 2. NUMEROS
COMPLEJOS

64

z2

z1

z3

z1

z4

z5

Figura 2.7: Las raices sextas de la unidad.

La representacion grafica de las soluciones para el caso n = 6, figura 2.7


Las races de la unidad de grado n forman un grupo respecto a la multiplicacion, en el
cual z0 = 1 corresponde al elemento neutro. A continuacion la tabla de producto para el caso
n=4

z0
z1
z2
z3

z0
z0
z1
z2
z3

z1
z1
z0
z3
z2

z2
z2
z3
z1
z0

z3
z3
z2 .
z0
z1

Captulo 3
Ejemplos sencillos de funciones
complejas
versi
on final 1.24, 12 de Mayo del 2003

3.1.

Notaci
on.

Las funciones complejas o mapeos van de los complejos a los complejos,


f

C C .
La notacion es que el plano de salida lo denotaremos por Z con elementos z = x + iy, la
imagen sera el plano W con elementos w = u + iv. Es decir, f (z) = f (x + iy) = w = u + iv.

Figura 3.1: Funcion compleja.

65

CAPITULO 3. EJEMPLOS SENCILLOS DE FUNCIONES COMPLEJAS

66

3.2.

Ejemplo 1, traslaci
on.

La funcion traslacion en un complejo constante a,


z f (z) = z + a .

y
a
a

a
x

Figura 3.2: Funcion traslacion en a.

3.3.

Ejemplo 2, rotaci
on en torno al origen.

La funcion rotacion en torno al origen


z f (z) = zei = u + iv = (x + iy)(cos + i sen ) = x cos y sen + i(y cos + x sen ) ,
donde R. En forma matricial

R z = w ,

o bien

cos sen
sen cos

   
x
u
=
.
y
v

f(z)
z

Figura 3.3: Funcion rotacion en torno al origen.

RESPECTO AL EJE REAL.


3.4. EJEMPLO 3, REFLEXION

3.4.

Ejemplo 3, reflexi
on respecto al eje real.

La funcion reflexion respecto al eje real


z f (z) = z = z .

Im
z

Re

f(z)= ~
z =z *
Figura 3.4: Funcion reflexion respecto al eje real.

Si la reflexion es respecto al eje imaginario


z f (z) =
z = z .

Im
f(z)= ~
z = z*

z
Re

~
z =z *

Figura 3.5: Funcion reflexion respecto al eje imaginario.

67

68

3.5.

CAPITULO 3. EJEMPLOS SENCILLOS DE FUNCIONES COMPLEJAS

Ejemplo 4, rotaci
on m
as traslaci
on.

La funcion incluye una rotacion en a/ | a |, una multiplicacion en | a | y finalmente una


traslacion en b.
z f (z) = az + b = | a | ei z + b .

Im
|a|
b

Re
Figura 3.6: Funcion rotacion mas traslacion.

Este tipo de funciones o mapeos, conocidos como conformes, tienen la caracterstica de


preservar los angulos orientados. En nuestro caso, f mapeo lneas rectas en lneas rectas y
circunferencias en circunferencias.

w
f

Figura 3.7: Un ejemplo que mapeo crculos en crculos y rectas en rectas.

CUADRATICA.

3.6. EJEMPLO 5, TRANSFORMACION

3.6.

69

Ejemplo 5, transformaci
on cuadr
atica.

La transformacion cuadratica
z f (z) = z 2 = (x + iy)2 = x2 y 2 + i2xy = u + iv .
Despejando para u y v
u = x2 y 2 ,
v = 2xy .

f(z)=z2
z

Im





















Re

Re( z )>0

Figura 3.8: Transformacion cuadratica.


Mapeo de curvas notables
Verticales en z, es decir, x = c = cte. Representacion parametrica con parametro y,
u = c2 y 2 ,
v = 2cy .
Despejando y =

v
y reemplazandola en la primera ecuacion
2c
v2
u = c2
.
4c

Horizontales en z, es decir, y = c = cte. Representacion parametrica con parametro x,


u = x2 c2 ,
v = 2xc .
v
y reemplazandola en la primera ecuacion
2c
v2
u=
c2 .
4c

La funcion inversa, no podemos simplemente escribir z = w a menos que nos restrinjamos a Re z > 0.
Despejando x =

CAPITULO 3. EJEMPLOS SENCILLOS DE FUNCIONES COMPLEJAS

70
z

f(z) = z 2

Parbolas
confocales

Rectas

foco
x

Figura 3.9: Mapeo z 2 para rectas ortogonales.

3.7.

Ejemplo 6, transformaci
on exponencial.

La transformacion exponencial
z f (z) = ez = e(x+iy) = ex eiy = ex (cos y + i sen y) = u + iv = w .
Despejando para u y v
u = ex cos y ,
v = ex sen y .
Mapeo de curvas notables
Verticales en z, es decir, x = c = cte. Representacion parametrica con parametro
< y < ,
u = ec cos y ,
v = ec sen y .
Horizontales en z, es decir, y = c = cte. Representacion parametrica con parametro x,
u = ex cos c ,
v = ex sen c .
La funcion inversa de ez , tenemos w = ez tal que < Im (ez ) . Sea w 6= 0, escribamos
w = rei con < . Debemos identificar lo anterior con ez = ex eiy , basta tomar ex = r
e y = luego x = ln r e y = . Por lo tanto,
z = ln | w | + i = ln w ,
siendo w = | w | ei con < .

DE JOUKOWSKY.
3.8. EJEMPLO 7, TRANSFORMACION

z
y
.5 .5 1

71

w
f(z)=e z

v
i /2

Rectas
i /2

0.3
u

0.3 x
i
i /2
2.2
i

2.2

Mapeo Abanico

i/2

Figura 3.10: Mapeo ez para rectas ortogonales.

3.8.

Ejemplo 7, transformaci
on de Joukowsky.

La transformacion que nos interesa es


1
z f (z) =
2

1
z+
z


= u + iv = w ,

escribiendo z = rei tenemos


1
w=
2

1
re + ei
r
i


= u + iv ,

despejando para u y v

1
u=
r+
2

1
r
v=
2


1
cos ,
r

1
sen .
r

Crculos en z, es decir, r = c > 1. Representacion parametrica con parametro tal que


< ,


1
1
u=
c+
cos ,
2
c


1
1
c
sen .
v=
2
c
Las curvas anteriores corresponden a elipses,

2u
2v
+
=1.

1
1
c+
c
c
c

CAPITULO 3. EJEMPLOS SENCILLOS DE FUNCIONES COMPLEJAS

72

Rectas radiales en z, es decir, = 0 6= k/2 con k Z y r > 1. Representacion


parametrica con parametro r > 1,


1
1
r+
cos 0 ,
u=
2
r


1
1
v=
r
sen 0 .
2
r
Las curvas anteriores corresponden a hiperbolas,

2 
2
u
v

=1.
cos 0
sen 0

f(z)=
z

1
2

(z + 1z)

Figura 3.11: Transformacion de Joukowsky para crculos y rectas radiales.

3.9.

Ejemplo 8, inverso.

La funcion inverso
z f (z) =

1
,
z

f (rei ) =

1 i
e
,
|r|

El origen se mapeara en infinito va esta funcion e infinito se mapeara en el origen,


1/z

z = 0 w = ,
1/z

z = w = 0 .

(3.1)
(3.2)

3.10. EJEMPLO 9, INVERSO CONJUGADO.

73

f(z)=z1
z

w















































































































































Figura 3.12: Mapeo 1/z para los diferentes cuadrantes.

3.10.

Ejemplo 9, inverso conjugado.

La funcion inverso conjugado


z f (z) =

1
,
z

f (rei ) =

1 i
e ,
|r|

1
z*

Figura 3.13: Mapeo 1/z .

CAPITULO 3. EJEMPLOS SENCILLOS DE FUNCIONES COMPLEJAS

74

3.11.

Mapeo sobre la esfera de Riemann.

polo N
y

R=1/2

x
0
z

Proyeccin
Estereogrfica

Figura 3.14: Esfera de Riemann.

Ponemos una esfera de radio r = 1/2 sobre el plano complejo tal que el polo sur de la
esfera coincida con el origen, llamaremos a esta esfera: esfera de Riemann.
A cada punto z del plano complejo z le haremos corresponder un u
nico punto sobre
la esfera de la siguiente manera: unimos el punto sobre el plano complejo con el extremo
superior de la esfera o polo Norte por una recta y el punto que esta recta intersecta la esfera
correspondera a la imagen del punto z.
Definici
on 3.1 Infinito. El punto, en el plano z, llamado infinito, z = , es aquel cuya
imagen se encuentra en el polo norte de la esfera de Riemann. Es decir,
Def.

z = Polo N .

3.11.1.

(3.3)

Algunas propiedades de esta proyecci


on.

1. Crculos en el plano z son mapeados sobre crculos en la esfera , los cuales no pasan
por el polo norte.
2. Lneas rectas en el plano z son mapeadas en circunferencias sobre la esfera , los cuales
pasan por el polo norte.
3. Dos rectas que se cortan en el plano z tienen dos punto comunes sobre la esfera siendo
uno de ellos el polo N.
La proyeccion estereografica es conforme, es decir, preserva los angulos orientados.

3.11. MAPEO SOBRE LA ESFERA DE RIEMANN.

75

Figura 3.15: Mapeo sobre la esfera de crculos y lneas.

Figura 3.16: Mapeo sobre la esfera de rectas que se cruzan.

3.11.2.

Mapeo de z y 1/z y su relaci


on.

Sea A sobre la esfera de Riemann el punto correspondiente a z en el plano z. Sea A0 sobre


la esfera el punto correspondiente a 1/z en el plano z. Afirmamos que A0 se obtiene de A
mediante una reflexion en el plano ecuatorial, es decir, en la figura 3.17 debemos demostrar
que = 0 .
Demostraci
on Considerando que el radio es 1/2, vemos del dibujo que tan = r/1 = r.

CAPITULO 3. EJEMPLOS SENCILLOS DE FUNCIONES COMPLEJAS

76

R

R

R= 1_2

Plano
Ecuatorial

1/r

|z|=r

1/z*
r

Figura 3.17: Mapeo de z y 1/z y su relacion sobre la esfera.

Ademas, en A tenemos que + + = y = /2 luego = (/2 2), ahora


calculemos la tangente de
tan = tan


cos(2)
1
1 tan2
r2 1
2 =
=
=
=
.
2
sen 2
tan 2
2 tan
2r

(3.4)

Por otro lado, tenemos que tan = (1/r)/1 = 1/r. Claramente desde la figura tenemos que
/2 0 = 2, por lo tanto, calculamos la tangente de 0 de una manera equivalente
cos(2)
1
1 tan2
1 1/r2
r2 1
tan = tan
2 =
=
=
=
=
.
2
sen 2
tan 2
2 tan
2(1/r)
2r
0

(3.5)

Comparando (3.4) y (3.5) tenemos que = 0


q.e.d.

Captulo 4
Transformaciones homogr
aficas y
rotaciones de la esfera.
versi
on final 1.21, 12 de Mayo del 2003

Consideremos el espacio real de 3 dimensiones en coordenadas cartesianas. Las transformaciones isometricas son aquellas que conservan el producto escalar. Este tipo de transformaciones se pueden representar por matrices reales de 3 3, que satisfacen:
AA = 1 ,

det(A) = 1 .

(4.1)

Si el valor del determinante corresponde a +1 decimos que la isometra es par y si corresponde


a -1 diremos que es impar.
Proposici
on 4.1 Toda isometra par corresponde a una rotacion de la esfera.
Demostraci
on Tenemos que demostrar que existe un eje, es decir, hay dos puntos fijos o
dicho de otra manera existe un vector fijo ~x tal que
A~x = ~x = (A 1)~x = 0 ,
existira una solucion no trivial si y solo si det(A 1) = 0.
det(A 1) = det(A AA ) = det(A(1 A ))
= det(A) det(1 A ) = det(1 A )
= det(1(A 1)) = 1 det(A 1)
det(A 1) = det(A 1) ,
luego det(A 1) = 0, implica que existe solucion no trivial, es decir, existe el vector fijo
~x 6= 0.
q.e.d.
Teniendo el vector fijo lo tomamos como e3 y completamos la base con e1 y e2 , tales que
e e = ,

, = 1, 2, 3.

En esta nueva base la matriz A se escribe






B 0 , donde B = cos sen .
sen cos
0 1
77


78CAPITULO 4. TRANSFORMACIONES HOMOGRAFICAS
Y ROTACIONES DE LA ESFERA.
Ya que la matriz A satisface A = A1 eso implica que B = B1 y tambien tenemos que
det(A) = det(B) = 1.
Consideremos ahora la transformacion
f (z) = w =

az + b
,
cz + d

tal que

D = ad bc 6= 0 C .

(4.2)

La anterior es conocida como transformaci


on homogr
afica o transformaci
on lineal fraccionada.
Representaci
on:
  
 
w
a b
z
=
1
c d
1

az + b
w
=
.
(4.3)
1
cz + d




a b
d b
1
La matriz
es no singular, es decir, tiene inversa, D
.
c d
c a
Las transformaciones homograficas forman un grupo respecto a su composicion funcional.
tal que

Escribamos la matriz como producto de matrices, lo cual nos permitira entender como
mapea las rectas y las circunferencias,






1 D a
a b
0 1
c d
=
,
c d
0 c
1 0
0 1
c
la primera matriz del lado derecho corresponde a la transformacion t (Dt + a)/c, la
segunda a s 1/s y la tercera z cz + d. La primera y la tercera de las transformaciones no cambia la forma de las curvas y la segunda transforma circunferencias o rectas en
circunferencias o rectas. Claramente, despues de este analisis, vemos que la transformacion
mantiene la geometra, de ah su nombre de homografica.
Existen dos puntos notables en una transformacion homografica
f (z) = w =

az + b
,
cz + d

1. El punto z = d/c, que corresponde a la pre-imagen de w = .


2. El punto z = se mapea en el punto w = a/c.
Definici
on 4.1 Punto fijo. Punto fijo de una transformacion es aquel cuya imagen el mismo
punto. Es decir, z0 punto fijo de f f (z0 ) = z0 .
Proposici
on 4.2 A lo sumo en una aplicacion homografica hay dos puntos fijos, sino es la
transformacion identidad.
Demostraci
on Debemos separar nuestro analisis en dos casos distintos
d
1. Infinito no es punto fijo, es decir, z0 6= , por lo tanto
c
z0 =

az0 + b
cz02 + (d a)z0 b = 0 .
cz0 + d

79
En principio hay dos soluciones. Para que haya mas de dos soluciones c =0 y d= a, lo
a 0
que implica b = 0, por lo tanto, la matriz asociada a la transformacion es
= a1.
0 a
2. Infinito es punto fijo, es decir, c = 0, luego
z0 =

az0 + b
(d a)z0 b = 0 .
d

Para que haya mas de una soluci


on d =
 a lo que implica b = 0, por lo tanto, la matriz
a 0
asociada a la transformacion es
= a1.
0 a
q.e.d.

Proposici
on 4.3 Si describimos tres puntos en el plano complejo z1 6= z2 6= z3 6= z1 y sus
respectivas imagenes w1 6= w2 6= w3 6= w1 , entonces existe exactamente una transformacion
homografica f tal que f (zi ) = wi para i = 1, 2, 3.
Demostraci
on Construimos la razon cruzada invariante
z z1 z2 z1
w w1 w2 w1
:
=
:
= f (z) = w .
w w3 w2 w3
z z3 z2 z3

(4.4)

La transformacion f as construida es homografica y satisface que para


z = z1 = w = w1 ,
z = z2 = w = w2 ,
z = z3 = w = w3 ,

porque 0 = 0,
porque 1 = 1,
porque = .

Falta probar que f es u


nica, para esto supongamos que existe una transformacion homografica
g tal que
g(z ) = w ,
para = 1, 2, 3.
Por ser g homografica tiene inversa g 1 , luego
g 1 (w ) = z = g 1 (f (z )) = g 1 f (z ) = z ,

para = 1, 2, 3.

Tenemos una transformacion homografica g 1 f con tres puntos fijos, luego la transformacion
es la identidad g 1 f = 1 o bien g 1 = f 1 lo que implica finalmente que g = f , es decir f
es u
nica.
q.e.d.
Consideremos las transformaciones homograficas de la forma
f (z) =

az + b
.
b z + a

(4.5)


80CAPITULO 4. TRANSFORMACIONES HOMOGRAFICAS
Y ROTACIONES DE LA ESFERA.

Plano
Ecuatorial

1
z*

1
z*

Figura 4.1: Puntos diametralmente opuestos en la esfera.

Proposici
on 4.4 Las transformaciones homograficas del tipo (4.5) corresponden exactamente a todas las rotaciones de la esfera.
Demostraci
on Una rotacion transforma puntos diametralmente opuestos en puntos diametralmente opuestos.
El par de puntos (z, 1/z ) son puntos diametralmente opuestos sobre la esfera.
az0 + b
Sea z0 tal que f (z0 ) = w0 =
, evaluemos
b z0 + a

f

1

z0


=

za + b

bz0 a
=
=
a z0 + b
+ a

b
z0

b z0 + a
az0 + b


=

1
w0


=

1
.
w0

Ahora veamos si podemos prescribir un eje frente a esta transformacion. Sea z1 el eje
prescrito, encontremos a y b

 
 
a
b
z1
z
=K 1 ,

b a
1
1
lo que implica dos ecuaciones para a y b
az1 + b = Kz1 ,
a bz1 = K .
El determinante de los coeficientes es D = | z |2 1 6= 0, luego tiene soluciones para
cualquier K. El par de puntos que define el eje puede ser descrito (z1 , 1/z1 ).
Tratemos de prescribir un angulo de rotacion con los parametros que tenemos,
f (z) =

az + b
,
b z + a

D = | a |2 + | b |2 > 0 ,

81
normalicemos los coeficientes tal que el determinante sea 1.
f (z) =

a z + b
D
D

D z + aD

Az + B
B z + A

D = | A |2 + | B |2 = 1 .

Cada uno de los coeficientes A y B son complejos, por lo tanto, tienen dos parametros reales.
En total cuatro parametros menos la restriccion de que el determinante sea +1, tenemos
entonces tres parametros, dos para el eje y uno para el angulo.
q.e.d.


82CAPITULO 4. TRANSFORMACIONES HOMOGRAFICAS
Y ROTACIONES DE LA ESFERA.

Captulo 5
Derivabilidad.
versi
on final 1.11, 12 de Mayo del 2003

5.1.

Identidades de Cauchy-Riemann.

Definici
on 5.1 La vecindad circular de un punto z0 con radio R es el conjunto de todos
los puntos tales que
0 < | z z0 | < .
(5.1)
Definici
on 5.2 Dominio abierto es aquel en que todos elementos tiene alguna vecindad
circular que pertenece totalmente al dominio.
Consideraremos funciones definidas en un dominio abierto de ahora en adelante.

z0

f(z 0)

Figura 5.1: Funciones en dominios abiertos.

Definici
on 5.3 Continuidad.
La funcion f es continua en el punto z0 si f (z0 + h) = f (z0 ) + R, donde R 0 cuando
h 0.
Definici
on 5.4 Diferenciabilidad.
La funcion f es derivable en z0 si
f (z0 + h) = f (z0 ) + Ah + R ,

donde
83

R
0 cuando h 0,
h

(5.2)

CAPITULO 5. DERIVABILIDAD.

84
en tal caso

f
f (z0 + h) f (z0 )
R
=
=A+
.
h
h
h

Notaci
on:
A = f 0 (z0 )

derivada de f en z = z0 .

Si escribimos f (z + h) Ah + B, la podemos interpretar como un giro en un angulo polar


de A, mas una translacion y una dilatacion. Lo anterior implica la conservacion de angulos
orientados, representacion conforme.
Veamos un ejemplo explcito, la derivada de f (z) = | z |2 evaluada en z = z0 ,
| z0 + h |2
(z0 + h)(z0 + h)
z0 h + hz0 + hh
R
h

= | z0 |2 + Ah + R
= z0 z0 + Ah + R
= Ah + R
h
= z0 + z0 + h A .
h

Podemos tomar h como queramos, en particular lo elegimos primero real puro,


R
= z0 + z0 + h A = 2 Re z0 A = 0 = A = 2 Re z0 .
h0 h
lm

Sea h imaginario puro, es decir, h = i con R,


R
= z0 + z0 + i A = 2i Im z0 A = 0 = A = 2i Im z0 .
0 i
lm

Combinando ambos resultados,


2 Re z0 = 2i Im z0
Re z0 + i Im z0 = 0 = z0 = 0 .
La derivada existe solo en z0 = 0.
Nos esta permitido escribir
f (z) = f (x + iy) = u(x, y) + iv(x, y) .

(5.3)

Tomemos z0 = x0 + iy0 donde f es derivable. Sea h = x + iy, ahora evaluemos f /h,


f
u(x0 + x, y0 + y) u(x0 , y0 ) + iv(x0 + x, y0 + y) iv(x0 , y0 )
=
.
h
x + iy
Al punto z0 podemos acercarnos en forma arbitraria en el plano z.
Primero y = 0,

z0

f
u(x0 + x, y0 ) u(x0 , y0 ) + iv(x0 + x, y0 ) iv(x0 , y0 )
=
,
x
x

5.1. IDENTIDADES DE CAUCHY-RIEMANN.

85

luego para x = h 0
u
v
+i
= f 0 (z) .
x
x
Ahora x = 0,

(5.4)

z0

u(x0 , y0 + y) u(x0 , y0 ) + iv(x0 , y0 + y) iv(x0 , y0 )


f
=
,
iy
iy
luego para y = h 0
v
u
i
= f 0 (z) .
y
y
Ambas ecuaciones, (5.4) y (5.5), se debe ser iguales, lo que significa que: cumplir
u
v
=
,
x
y

v
u
=
.
x
y

(5.5)

(5.6)

Las ecuaciones anteriores son conocidas como las identidades de Cauchy-Riemann y es la


condicion necesaria para la existencia de la derivada. Investiguemos la suficiencia de ellas
para la derivabilidad, tenemos u = u(x, y) tal que
u
u
x +
y + 1 x + 2 y ,
u = u(x0 + x, y0 + y) u(x0 , y0 ) =
x
y
p
donde 1 , 2 0 si h = (x)2 + (y)2 0.
Analogamente
v
v
v = v(x0 + x, y0 + y) v(x0 , y0 ) =
x +
y + 3 x + 4 y ,
x
y
p
donde 3 , 4 0 si h = (x)2 + (y)2 0.
Luego, como la derivada es una operacion lineal


u
u
v
v
f = u + iv =
x +
y + 1 x + 2 y + i
x +
y + 3 x + 4 y
x
y
x
y
v
v
u
C.R. u
=
x
y + i x + i y + (1 + 3 )x + (2 + 4 )y
x
x
x
x
u
v
=
(x + iy) + i (x + iy) + 1 x + 2 y
x
x
f
u
v
x
y
=
+i
+ 1
+ 2
.
z
x
x
z
z
Tomemos el lmite z 0
f
u
v
x
y
lm
=
+i
+ 1 lm
+ 2 lm
,
z0 z
z0 z
z0 z
x
x
como se satisface que | x | | z | y | y | | z | ambos lmites van a cero quedandonos
u
v
f 0 (z0 ) =
+i
,
x
x
f 0 existe en z0 , donde se satisface Cauchy-Riemann.

CAPITULO 5. DERIVABILIDAD.

86

5.2.

Ecuaciones de Laplace.

Sea f (z) = u(x, y) + iv(x, y) derivable tal que u, v tengan derivadas de segundo orden
continuas
 
 
2 u C.R. v
v C.R. 2 u
2u 2u
=
=

=
=
+
=0,
(5.7)
x2
x y
y x
y 2
x2 y 2
analogamente
 
 
2 v C.R. u
u C.R. 2 v
2v 2v
=

=
+
=0.
(5.8)
x2
x y
y x
y 2
x2 y 2
Ambas ecuaciones, (5.7) y (5.8), corresponden a una ecuacion de Laplace bidimensional para
u y v respectivamente.
Notemos que | f 0 | = | A | corresponde a una dilatacion lineal, | f 0 |2 corresponde a una
dilatacion de area

  2   2

v
u
v
u
v
v u
(u, v)
u
C.R. u v
0 2
0 0
i
+i
=
+
=

=
,
|f | = f f =
x
x
x
x
x
x
x y x y
(x, y)
el cual corresponde al Jacobiano de la transformacion (x, y) (u, v).
Definici
on 5.5 La funcion f (z) es holomorfa en un dominio si en tal dominio existe f 0 (z).
Definici
on 5.6 La funcion f (z) es analtica si se puede expandir en serie de potencia.
Definici
on 5.7 Una funcion u(x, y) es armonica si satisface que
2u 2u
+
=0.
x2 y 2
Definici
on 5.8 La funcion f (z) es entera si es analtica en todo el plano z.
Teorema 5.1 Si u(x, y) es armonica entonces se puede construir f holomorfa.
f (z) = u(x, y) + iv(x, y) .

Demostraci
on Se busca v(x, y) tal que
u
v
=
,
x
y

v
u
=
.
x
y

Para que sea integrable se debe satisfacer


 
 
v
v
=
,
x y
y x
y puesto que v debe satisfacer Cauchy-Riemann
 
 
u
u
=
,
x x
y y

(5.9)

5.2. ECUACIONES DE LAPLACE.

87

Y esto es cierto por hipotesis, u es armonica, lo cual implica que v existe y por lo tanto f es
holomorfa.
q.e.d.

Ejemplo Sea u = y 3 3x2 y, probemos primero que esta funcion es armonica


2u
= 6y ,
x2

2u
= 6y .
y 2

Determinemos v,
u
= 6xy ,
x
usando Cauchy-Riemann
u
v
=
= 6xy = v(x, y) = 3xy 2 + (x) ,
x
y
con (x) arbitraria. Ahora bien,
v C.R. u
= 3y 2 + 3x2 = 3y 2 + 0 (x) ,
=
x
y
lo que implica una ecuacion para (x),
0 (x) = 3x2 = (x) = x3 + C .
De lo anterior determinamos v(x, y) = 3xy 2 + x3 + C, por lo tanto, f es holomorfa:
f (z) = y 3 3x2 y + i(x3 3xy 2 ) + C = iz 3 + c .

Ejemplo Consideremos f (z) = z = x iy = u + iv luego u(x, y) = x y v(x, y) = y, si


evaluamos sus derivadas
u
v
=1,
= 1 ,
x
y
claramente no satisface Cauchy-Riemann luego no existe f 0 .
Ejemplo Consideremos f (z) = z 2 = x2 y 2 + 2ixy = u + iv luego u(x, y) = x2 y 2 y
v(x, y) = 2xy, si evaluamos sus derivadas
u
= 2x ,
x
v
= 2x ,
y

v
= 2y ,
x
u
= 2y ,
y

por lo tanto, f 0 (x) existe. Evaluemosla


f 0 (z) =

u
v
v
u
+i
=
i
= 2x + i2y = 2z .
x
x
y
y

CAPITULO 5. DERIVABILIDAD.

88

Ejemplo Sea f (z) = z n para n = 1, 2, 3, . . . evaluemos su derivada



 
n
(z0 + h)n1 h + O(h2 ) h0 n
f
(z0 + h)n z0n
1
=
=

(z0 + h)n1 ,
h
h
h
1
es decir,
f 0 (z) = (z n )0 = nz n1 .

(5.10)

Cualquier polinomio o funcion racional es derivable


z
z2 z3
+
+
+ ... ,
1! 2!
3!
z
z2 z3
(ez )0 = 1 + +
+
+ . . . = ez .
1! 2!
3!
La derivada de las funciones trigonometricas
ez = 1 +

(sen z)0 = cos z ,

(5.11)

(5.12)

(cos z)0 = sen z .


Si definimos las funciones hiperbolicas mediante las series
z2 z4
+
+ ... ,
2!
4!
z3
z
+ ... .
senh z +
1! 3!
Su relacion con las funciones trigonometricas
cosh z 1 +

cosh iz = cos z
senh iz = i sen z

=
=

cos iz = cosh z ,
sen iz = i senh z .

(5.13)

(5.14)

La derivada de las funciones hiperbolicas,


(senh z)0 = cosh z ,

(5.15)

(cosh z)0 = senh z .


La derivada de la funcion logaritmo,
(ln z)0 =

1
.
z

(5.16)

La transformacion de Joukowsky,
1
f (z) =
2

1
z+
z


,

(5.17)

su derivada



1
1
1 2 .
(f (z)) =
2
z
La derivada es distinta de cero en todos los puntos salvo en z = 1.
0

(5.18)

HIDRODINAMICA

5.3. INTERPRETACION
DE LAS IDENTIDADES DE CAUCHY-RIEMANN.89
Proposici
on 5.1 Si 0 = 0 entonces (z) = (z) + cte.
u
u
=0=
.
x
y
Por lo tanto, u(x, y) = cte = c1 y v(x, y) = cte = c2 implica u + iv = cte lo que finalmente
significa que (z) = (z) + cte.
q.e.d.

Demostraci
on Consideremos f = = u + iv su derivada f 0 = 0 luego

5.3.

Interpretaci
on hidrodin
amica de las identidades de
Cauchy-Riemann.

Premisa: Sea f (z) = u + iv holomorfa implica f (z) = u iv.


Definici
on 5.9 El campo de velocidades asociado a f (z) es va su funcion conjugada
   
u
q

(5.19)
f (z) ~q =
= 1 .
q2
v
El campo es solenoidal e irrotacional
~ ~q = q1 q2 = u v C.R.

= 0,
x
y
x y


~ ~q = q1 q2 k = u v C.R.

= 0.
y
x
y x

(5.20)

Teorema 5.2 Si f = u + iv tiene primitiva F = U + iV en cierta region del plano entonces


cada lnea de flujo satisface
V (x, y) = cte.
(5.21)

Demostraci
o
n Consideremos
el movimiento de una partcula durante un intervalo t con

u
velocidad ~q =
v
(x0 + ut, y0 vt) + O(t2 )
%
(x0 , y0 )
tenemos
F 0 (z) =

V
V
+i
= f (x, y) = u + iv ,
y
x

luego
V
=u,
y

V
=v .
x

CAPITULO 5. DERIVABILIDAD.

90
Ahora bien,
V = V (x0 + ut, y0 vt) V (x0 , y0 )

V
V
ut +
(v)t = vut uvt = 0 ,
x
y

lo cual implica que V = cte en la lnea de flujo.


q.e.d.

Ejemplo Sea f (z) =

1
luego
z
f (z) =

Para ~q elegimos
q1 =
La primitiva de f (z) =

1
z

1
z
x
y
=
= 2 i 2 .

z
zz
r
r

cos
x
=
,
2
r
r

q2 =

y
sen
=
.
2
r
r

F (z) = ln z = ln | z | + i ,

luego
Im F (z) = cte. = = cte.

Im
= cte.
Re

Figura 5.2: ImagF (z) = = cte.

Ejemplo Sea f (z) =

i
luego
z
f (z) =

Para ~q elegimos
q1 =

y
sen
=
,
2
r
r

i
y
x
= 2 +i 2 .
z
r
r
q2 =

x
cos
=
.
2
r
r

5.4. FAMILIAS ORTOGONALES.


La primitiva de f (z) =

91

i
z
F (z) = i ln z = i ln | z | ,

luego
Im F (z) = cte. = ln r = cte. = r = cte.

Im
r= cte.
Re

Figura 5.3: ImagF (z) = ln r = cte.

5.4.

Familias ortogonales.

Sea f (z) holomorfa en una region,


f (x, y) = u(x, y) + iv(x, y) .
Consideremos las familias de curvas
u(x, y) = ,

v(x, y) = ,

con y R.

Variando y se obtienen las distintas familias.


Proposici
on 5.2 Estas familias de curvas son ortogonales, es decir, cada miembro de una
familia es ortogonal a cada miembro de la otra familia en el punto de interseccion.
Demostraci
on
Consideremos u(x, y) = 1 y v(x, y) = 1 arbitrarias. Tenemos que du = 0 = dv, luego la
pendiente de la curva u(x, y) = 1 definida como p1 la podemos evaluar a partir de
u
u u dy
dy
+
= 0 =
= ux = p1 .
x y dx
dx
y

CAPITULO 5. DERIVABILIDAD.

92

Im

u(x,y)= 1

v(x,y)= 1

u(x,y)= 2
u(x,y)= 3

v(x,y)= 2
v(x,y)= 3

Re

Figura 5.4: Familias de curvas ortogonales.

Analogamente la pendiente de la curva v(x, y) = 1 definida por p1


v
dy
v v dy
+
= 0 =
= vx = p1 .
x y dx
dx
y
Luego multiplicando ambas y usando Cauchy-Riemann
p 1 p 1 =

u v
x x
u v
y y

u v
y x
v u
x
y

= 1 .

Las curvas son ortogonales en los puntos de interseccion.


q.e.d.

Captulo 6
Integraci
on.
versi
on final 1.1, 26 de Mayo del 2003

6.1.

Definiciones

Sea (t) = 1 (t) + i2 (t) una funcion continua de la variable real t, con t1 t t2 , y
1 , 2 R.
Definici
on 6.1

t2

t2

(t) dt =
t1

t2

1 (t) dt + i
t1

2 (t) dt .
t1

Definici
on 6.2 Curva orientada, seccionalmente lisa
(
x = 1 (t)
z = (t)
,
t1 t t2 y (01 )2 + (02 )2 > 0.
y = 2 (t)
Si 01 (t), 02 (t) son continuas en el intervalo t1 t t2 la curva es lisa en tal intervalo.
Una curva seccionalmente lisa es aquella que admite saltos finitos una cantidad finita
de veces, discontinuidades de la funcion (t).
Orientacion:

seccin lisa
Figura 6.1: Curva seccionalmente lisa y orientada.

93


CAPITULO 6. INTEGRACION.

94

Se admite cambio de parametro t = (t) > 0 con 0 (t) > 0:


(t) = (( )) = ( ) ,
el intervalo t1 t t2 corresponde al intervalo 1 2 tal que t1 = (1 ) y t2 = (2 ).
Ejemplo Representacion parametrica de la curva
orientada , un cuadrado, z = (t)

Im
i

Re

+1

(1 + t) i

1 + i(t 3)
z=

(5 t) + i

1 + i(7 t)

0t2
2t4
4t6
6t8

Para cambiar la orientacion hacemos t t.

Figura 6.2: Curva parametrizada.

Ejemplo Representacion parametrica de la curva orientada , una circunferencia, mediante


la funcion z = (t)

Im

z = cos + i sen = ei ,

Re
+1

con . Aqu la curva esta recorrida en el


sentido contrario a las agujas del reloj, tal sentido
lo consideraremos como el positivo.

Figura 6.3: Otra curva parametrizada.


Definici
on 6.3 Curva cerrada sin puntos dobles es una curva parametrizada por (t) tal
que si t 6= t = (t ) 6= (t ), salvo en el lugar de la partida y de la llegada.

Las curvas se encuentran incrustadas en regiones. Estas pueden ser dominios abiertos.
Definici
on 6.4 Dominio simplemente conexo. Es un dominio abierto tal que toda curva
cerrada en el encierra solo puntos del dominio.

6.1. DEFINICIONES

95

Curva con puntos dobles.

Curvas sin puntos dobles.

Figura 6.4: Curva con y sin puntos dobles.

Una forma equivalente de definir un dominio simplemente conexo es decir que toda curva
cerrada se puede contraer de manera continua a un punto del dominio.
Ejemplo Consideremos la region | z | < 2. Claramente es un dominio simplemente conexo,
la curva que dibujamos puede contraerse de manera continua a un punto del dominio.

+2

Figura 6.5: Dominio simplemente conexo.

Pero no todos los dominios tendran esta propiedad. Podemos construir dominios que
no sean simplemente conexos, veamos el siguiente ejemplo en que claramente la curva que
dibujaremos sobre la region no puede contraerse a un punto del dominio.
Ejemplo Consideremos el dominio definido por : 0.95 < | z | < 2. Claramente este no es un
dominio simplemente conexo.

+2

Figura 6.6: Dominio no simplemente conexo.


CAPITULO 6. INTEGRACION.

96

Los dominios simplemente conexos no tienen lagunas. Por otro lado tenemos los dominios m
ultiplemente conexos como por ejemplo el de la figura 6.7.
Im

Re

Figura 6.7: Dominio m


ultiplemente conexo.

6.2.

Interior de una curva cerrada sin puntos dobles.

a) Interior definido y descrito por tres desigualdades lineales.

"x + "y< "




x+ y<

x + y >
Figura 6.8: Interior de curva I.

b) Interior descrito por cinco desigualdades lineales.

Figura 6.9: Interior de curva II.

6.3. RECORRIDO DEL CONTORNO DE UN DOMINIO.

97

c) Interior definido por aproximacion poligonal.




Figura 6.10: Interior de curva III.

Una curva cerrada sin puntos dobles tiene un interior bien definido.
Definici
on 6.5 Curva de Jordan es una curva lisa y cerrada, sin puntos dobles, puede o no
puede tener longitud finita.
Teorema 6.1 Teorema de Jordan. (Sin dem.)
Toda curva de Jordan, y por lo tanto, todo contorno cerrado, separa el plano en dos dominios los cuales tienen a los puntos como u
nicos puntos de bordes. Uno de estos dominios,
llamado interior de , es acotado y el otro, llamado el exterior de , es no acotado.

6.3.

Recorrido del contorno de un dominio.

Curva orientada: en cada lugar de la curva el conjunto de vectores tangenciales esta subordinado en una clase positiva y una clase negativa. Definida la clase positiva la curva
esta orientada.
Situaciones:
1. Considere el triangulo de la figura
Los dos vectores que definen los dos lados del triangulo de la figura 6.11, son ~a = (a1 , a2 )
y ~b = (b1 , b2 ). Si evaluamos el area orientada A del triangulo:


| ( | ~a ~b)
1 a1 a2 a1 b2 a2 b2
=
=
.
2
2 b2 b1
2
Si esta area resulta positiva se dice que el contorno recorrido en el sentido de ~a, ~b tienen
orientacion positiva. Los vectores ~a, ~b definen un recorrido del contorno:
Recorrido positivo si det(~a, ~b) > 0,
Recorrido negativo si det(~a, ~b) < 0.


CAPITULO 6. INTEGRACION.

98


>
a

Figura 6.11: Triangulo.




Figura 6.12: Curva cerrada.

2. Considerar una curva cerrada sin puntos dobles (fig. 6.12), x = x(t) e y = y(t).
Si
1

Area
incluida =
2

(
I
x x0
> 0 recorrido positivo


y y 0 = < 0 recorrido negativo

3. Si consideramos el polgono
Es el mismo caso que la situacion 2.
Ejemplo Consideremos la curva z = eit con t , el area es:

Z
1 cos t sen t

Area incluida =
dt = > 0 ,
2 sen t cos t
<

luego la curva cerrada tiene recorrido positivo.

6.4. INTEGRALES DE LINEA EN EL PLANO COMPLEJO.

99

Figura 6.13: Polgono.

Notemos el cambio de orientacion al sustituir t t, se tiene z = eit con t



Z
1 cos t sen t

dt = < 0 ,
Area incluida =
2 sen t cos t
en este caso la curva cerrada
tiene orientacion negativa.
<
Tambien podemos cambiar la orientacion al recorrerla al reves,

Z
cos t sen t
1


dt = < 0 .
Area
incluida =
2 + sen t cos t

6.4.

Integrales de lnea en el plano complejo.

Sea f continua definida en cierta region


Definici
on 6.6 La integral de lnea de la funcion f entre los puntos a y b a traves de la
curva , fig. 6.14, queda definida por
Z
X
f (z) dz = lm f ( ) z ,
0

donde 0 significa que subdividimos cada vez mas fino el camino.


Definici
on 6.7 La integral de lnea de la funcion f entre los puntos a y b a traves de la
curva parametrizada por la funcion (t), queda definida por
Z

f (z) dz =

t2

t2

f ((t)) (t) dt =
t1

t1

f (1 (t) + i2 (t))(01 (t) + i02 (t)) dt ,


CAPITULO 6. INTEGRACION.

100

z1 z
2

zk

zn1

zk1
x

Figura 6.14: Camino en el plano complejo.

donde 0 (t) = d(t)/dt. Esta definicion es invariante a un cambio de parametro, en efecto


sea t = ( )
Z
Z 2
Z 2
0
0
f (z) dz = f ((( ))) (( )) ( ) d = f (( ))0( ) d ,
1

donde hemos definido ( ) = (( )).


Proposici
on 6.1
Z


f L Max | f | ,

(6.1)

donde L es la longitud de la curva y Max | f | es el maximo del modulo de la funcion sobre


la curva .
Demostraci
on


Z
X

X




f = lm
| f ( )z |
f
(
)z

l
m

lm

z Max | f |

LMax | f | .
q.e.d.
Ejemplo
La curva puede ser parametrizada por z = eit con 0 t . Integremos f (z) = z 2
sobre . Como z = eit entonces z 2 = e2it y dz = ieit dt.


Z
Z
Z
1 3it
1
1
2
2
2it it
3it
= (e3i e0 ) = (1 1) = .
z dz = e ie dt = i e dt = i 3i e
3
3
3
0
0
0

6.4. INTEGRALES DE LINEA EN EL PLANO COMPLEJO.

101

+1

Figura 6.15: Camino .

D


+1

Figura 6.16: Camino cerrado .

Ejemplo La curva (fig. 6.16), puede ser parametrizada por z = eit con t .
Integremos f (z) = 1/z sobre . Notemos que D no es un dominio de conexion simple para
1/z. Como z = eit entonces 1/z = eit y dz = ieit dt.
Z
Z
Z
1
it it
z dz = e ie dt = i dt = 2i = 2i coef. de z1 .

Ejemplo Consideremos la curva (fig. 6.17), cuya representacion parametrica es z = a + eit


con t .
1
dz
= 0 (t) = ieit . Integremos la funcion f (z) =
Como z = (t) = a + eit entonces
dt
za
sobre esta curva :
I
Z it
dz
ie dt
1
=
= 2i = 2i coef. de
.
it
za
| za |==1 z a
e
Notemos que este resultado vale para toda curva , crculo, centrada en a no importando el
radio . Si consideramos como el crculo de radio 0 la integral queda
I
Z
Z it
dz
i0 eit dt
ie dt
=
=
= 2i .
it
it
| za |=0 z a
0 e
e


CAPITULO 6. INTEGRACION.

102

Im

Re
Figura 6.17: Camino cerrado .

Proposici
on 6.2 Sea f holomorfa en cierto dominio simplemente conexo. Sea F la primitiva, entonces la integral
Z b
f (z) dz = F (b) F (a) ,
(6.2)
a

es independiente del camino .


Demostraci
on
Z t2
Z
0
f ((t)) (t) dt =
t1

t2

t1

dF ((t))
= [F ((t))]tt21 = F ((t2 )) F ((t1 )) = F (b) F (a) .
dt
q.e.d.

Consecuencia: En tales circunstancias se tiene

f = 0.

Ejemplo Integremos f (z) = z 2 en el camino cerrado, fig. 6.16. La curva puede ser parametrizada por z = eit , con t .


I
Z
Z
1 3it
1
1
2
2it it
3it
z dz =
e ie dt = i
e dt = i
e
= (e3i e3i ) = (1 1) = 0 .
3i
3
3

Usando la primitiva
z3
z dz =
3

1
=
1

1 1

=0.
3
3

6.4. INTEGRALES DE LINEA EN EL PLANO COMPLEJO.

103

Teorema 6.2 Teorema de Cauchy. (Sin dem.)


Sea f holomorfa en un dominio de conexion simple D y una curva cerrada dentro de
D, entonces
I
f =0.
(6.3)

Notemos que
Z

f (z) dz = (u + iv)

dx
dy
+i
dt
dt


dt ,

donde u = u(x(t), y(t)) y v(x(t), y(t)). La invariancia frente a un cambio de parametro permite
simplificar el dt.
Z
Z
Z

f (z) dz = (udx vdy) + i (udy + vdx) ,

donde las condiciones de integrabilidad son:


v
u
=
,
x
y

u
v
=
.
y
x

Premisas:
1. Conexion simple.
2. Condicion de integrabilidad.
3. Continuidad de las derivadas parciales.
Todo lo anterior implica independencia del camino.
Proposici
on 6.3 Si f es continua en D (de conexion simple) y si la integral
Z z
f (z 0 ) dz 0 = F (z) ,
a

es independiente del camino, entonces existe F 0 = f .


Demostraci
on
Z
F (z0 +h)F (z0 ) =

z0 +h

Z
f () d

z0

z0 +h

f () d =

Z
f () d = hf (z0 )+

z0

con R() = f () f (z0 ). Acotemos el u


ltimo termino de la derecha
Z z0 +h




R() d h Max | R | .

z0

Luego
F (z0 + h) F (z0 )
= f (z0 ) + ,
h

z0 +h

z0

R() d d ,


CAPITULO 6. INTEGRACION.

104
donde

R

z0 +h
z0 R() d

h0

Max | R | 0 ,

por lo tanto 0 si h 0.
q.e.d.

6.5.

Evaluaci
on de integrales impropias reales.

Damos por conocida la integral

x2

.
2

dx =

(6.4)

Se buscan las integrales de cos(x2 ) y sen(x2 ):

b+ib

ib



III

II

Figura 6.18: Camino cerrado .

Evaluaremos
Z

b+ib

exp(z 2 ) dz ,

sobre diferentes caminos.


Notemos que
Z

z 2

Z
dz =

x2

.
2

dx

(6.5)

Ademas,
Z
=
III

+
I

(6.6)

II

Afirmamos que la integral sobre la curva III es despreciable. Demostracion: sea z = b + it


con 0 t b y dz/dt = i luego
Z

z 2

e
II

Z
dz = i

b
2

exp((b + it) ) dt = i
0

2 b2

et

e2ibt dt ,


6.6. FORMULA
INTEGRAL DE CAUCHY.

105

notemos que t2 bt = et ebt , se tiene


Z b
Z

Z b

bt b


2 e
2 b2 2ibt
2
2

bt
b
t
b
z
dt e

= eb2
e dt = e
e dz
e e e

b 0
0
0
II

eb 1
b

!
b

0 .

(6.7)
Consideremos ahora la curva III, la parametrizacion z = (1 + i) con 0 b y
dz
2
2
= 1 + i, ademas notemos que (1 + i)2 = 2i, tal que ez = e2i . Luego
dt
Z b
Z b
Z
Z b
2
2
2
2
z 2
(cos 2 2 sen 2 2 ) d .
(cos 2 +sen 2 ) d +i
(cos 2 i sen 2 ) d =
e dz = (1+i)
0

III

(6.8)
Luego en el lmite b y usando (6.5), (6.6), (6.7), (6.8) tenemos que
Z

z 2

e
III

b
2

(cos 2 sen 2 ) d =

(cos 2 + sen 2 ) d + i

dz =

,
2

el resultado es real, luego la parte imaginaria se anula por lo tanto


Z
Z
2
sen 2 2 d .
cos 2 d =

(6.9)

(6.10)

usando (6.9) y (6.10) tenemos

cos 2 d =

2
0

,
2

(6.11)

haciendo el cambio de variable 2 2 = x2 tal que 4 d = 2xdx de manera tal que d =


y reemplazando en (6.11)

2
dx
2

Z
2
1
cos x2 dx =
,
2 0
4

finalmente
Z
0

1
cos x dx =
2
2

(6.12)

conocida como la Integral de Fresnel.

6.6.

F
ormula integral de Cauchy.

Proposici
on 6.4 Sea una curva cerrada sin puntos dobles y de orientacion positiva, incrustada en un dominio D de conexion simple, en el cual f es holomorfa, y sea a un punto
de D, entonces
I
1
f (z)
f (a) =
(6.13)
dz
2i z a


CAPITULO 6. INTEGRACION.

106

Lo anterior muestra que el valor de una funcion que es holomorfa en una region esta determinado en toda la region por el valor que toma en los bordes.
Demostraci
on La integral es
I
I
I
f (a)
f (z) f (a)
f (z)
dz =
dz +
dz
za
za

za

Figura 6.19: Camino .


El dominio es de conexion simple, luego
Z
Z
I
=0,
+ +

la segunda integral se anula resultando


I

Tenemos de esta manera


I

Z
=

(6.14)

(6.15)

I
f (a)
f (z) f (a)
dz +
dz
za
za

I
f (z) f (a)
= f (a)2i +
dz .
za

f (z)
=
za

Acotemos la segunda integral:


I
I

f (z) f (a)
| f (z) f (a) |
| f (z) f (a) |

dz
dz L Max
,

za
|z a|
|z a|

siendo | z a | = se tiene L = 2. Ademas, tomando suficientemente peque


no podemos

hacer | f (z) f (a) | <


donde > 0 tan peque
no como se quiera luego
2
I


f (z) f (a)


dz 2
=.

za
2


6.6. FORMULA
INTEGRAL DE CAUCHY.

107

Luego
I

f (z)
dz = f (a)2i
za

(6.16)
q.e.d.

Tenemos pues:

si derivamos

1
f (z) =
2i

1
f (z) =
2i

00

f ()
d ,
z
f ()
z

n!
(z) =
2i

z punto interior de .

1
d =
2i

f ()
d .
( z)2

000

Existen f , f , . . .
f

(n)

f ()
d
( z)n+1

(6.17)

Teorema 6.3 (de Morera)


Sea f funcion continua en un dominio D de conexion simple. Si para todo camino cerrado
arbitrario , en D vale
I
f (z) dz = 0 ,

entonces f es holomorfa en D.
Demostraci
on

f = F (z) = F 0 (z) = f = F 00 = f 0 , . . .

la primera igualdad es debido a la independencia del camino y el implica es debido a la


proposicion que dice que existe F 0 = f . Todo lo anterior implica f holomorfa.
q.e.d.

108

CAPITULO 6. INTEGRACION.

Captulo 7
Series de Potencias.
versi
on final 1.3, 2 de Junio del 2003

7.1.

Series y radio de convergencia.

Consideramos la serie infinita de potencias como el lmite de las sumas parciales

a (z z0 ) = lm

=0

n
X

a (z z0 ) ,

=0

donde z0 es el centro de expansion.


Ejemplos:
1. Una serie divergente

(z) .

=0

2. La serie geometrica
1 + z + z2 + . . . + zn =

1 z n+1
1
z n
=

z .
1z
1z 1z

Si | z | < 1 el segundo termino tiende a cero cuando n


3. La definicion de la funcion exponencial

X
(z)
=0

exp(z) .

Converge para todo z.


4. Otra serie divergente

!(z) ,

=0

jamas converge.
109

(7.1)

CAPITULO 7. SERIES DE POTENCIAS.

110

Teorema 7.1 Sea


=0 a (z) una serie que converge en ciertos puntos z 6= 0, pero que
diverge en otros. Existe entonces un r > 0 tal que para | z | < r la serie converge absolutamente
y para | z | > r la serie diverge.
Demostraci
on Usando el criterio de la raz, la convergencia absoluta esta garantizada si
p
n
n
| an z | k < 1, desde cierto n en adelante, esto dice:
|z|

p
n

| an | k ,

| z | lm

p
n

| an | < 1 ,

luego
|z| <

lm

1
p
n

| an |

r,

convergencia garantizada.
La divergencia se tiene si
|z|

p
n

| an | k > 1 ,

de cierto n en adelante, luego


lm

p
n
| an z n | > 1 ,

|z|

1
>1,
r

|z| > r .

La divergencia esta garantizada.


q.e.d.
Sobre el borde se debe realizar un analisis caso a caso. Veamos algunos ejemplos en relacion
con esto:
Ejemplos:
1.

z , no converge para | z | = 1.

=0

2.

X
z
=0

, el radio de convergencia es r = lm

z=1 :
z = 1 :

3.

=0

n = 1, sobre el radio

1 1 1
+ + + ...
2 3 4
1 1 1
1 + + + . . . = log 2
2 3 4

+1+

X
z

, el radio de convergencia es r = lm
2

diverge
converge

n2 = 1 converge para todo | z | = 1 ,

X
1
1 1
1
2
=
1
+
+
+
+
.
.
.
=
.
2
4 9 16
6
=0

7.1. SERIES Y RADIO DE CONVERGENCIA.

111


z
1
Esta serie funciona como mayorante convergente, ya que 2 2 para todo | z | 1.

X
X
z
z


Por lo tanto, si
converge absolu 2 converge sobre el borde implica que
2
=0
=0
tamente sobre el borde.
Consideremos la sucesion senn x para n = 1, 2, 3, . . . con 0 x .

1
n=1

/2
Figura 7.1: Sucesion senn x.

Existe

2
lm senn x =

0
si x 6=
2
No existe convergencia uniforme. Es decir, la convergencia es no uniforme.
Consideremos

fn (z) = f (z)

si x =

para todo z D.

(7.2)

n=0

La convergencia nos dice que dado un tan peque


no como se quiera existe un N tal que
n+p

X



f (z) < ,



=n

para todo n > N (z) y para todo p 0. La convergencia es uniforme si N (z) es independiente
de z.
Proposici
on 7.1 Un criterio (o condicion) suficiente para la convergencia uniforme: basta
la existencia de una mayorante
convergente. Si enPD cada f (z) cumple con | f (z) | c , con
P
c 0 constantes, y si c converge entonces f (z) converge uniformemente en D.

CAPITULO 7. SERIES DE POTENCIAS.

112
Demostraci
on

X
X
X


f (z)
| f (z) |
c < ,
| Rn (z) | =
=n
=n
=n
para todo n suficientemente grande.
q.e.d.

r = radio de convergencia
= radio de convergencia
uniforme

Figura 7.2: Radios de convergencia.

Teorema 7.2 Toda serie de potencia converge uniformemente en un crculo concentrico a


su crculo de convergencia, pero con un radio menor.
Demostraci
on

a z tenga radio de convergencia r. Sea 0 < < r, para | z1 | < se

=0

tiene

X
X


| a | < ,
a z1

=n
=n
para n suficientemente grande. Notemos que es independiente de z. La serie
corresponde a la mayorante convergente.

=n

| a |
q.e.d.

7.2.

Propiedades.

Sean f holomorfas en D (abierto). Sea


subdominio cerrado de D, entonces:
Proposici
on 7.2 La funcion f es continua.

f = f uniformemente convergente en todo

7.2. PROPIEDADES.

113

Demostraci
on


X
X


f (z)
f (z0 )
| f (z) f (z0 ) | =


=0
=0



n1

X
X
X




f (z0 ) < ,
f (z) +
(f (z) f (z0 )) +





=n

=n

=0

Si cada uno de los terminos lo acotamos por /3, tomamos un n suficientemente grande y
hacemos z z0 .
q.e.d.
Proposici
on 7.3 Afirmamos que
Z
f=

Z X

Demostraci
on

Z X

Z
f=

f =

=0

Z X
n1

f .

(7.3)

f +

Z X

f ,

=n

=0

=0

f =

=0

Z
X

luego
Z
f

Z X
n1

f =

Z X

f ,

=n

=0

podemos intercambiar la suma finita con la integral


Z X
Z

n1 Z
X
f .
f =
f

=0

=n

Tomando modulo a ambos lados


Z
Z

n1 Z


X

X
X



f

f
=
f

LM
a
x
f ,







=0
=n
=n
donde L es el largo del camino y cuando n es suficientemente grande el maximo puede ser
reemplazado por .
Z

n1 Z


X


f

f

L ,


=0
tomando el lmite n tendiendo a infinito
Z

n1 Z


X


lm f
f = 0 .
n

=0

q.e.d.

CAPITULO 7. SERIES DE POTENCIAS.

114

Proposici
on 7.4 La funcion f es holomorfa y f 0 = (

f )0 =

f0 .

Demostraci
on Sea una curva cerrada con su interior en D.
I
I X

I
X
f =
f=
f = 0 ,

=0

=0

por lo tanto, por el teorema de Morera f es holomorfa. Ademas,


I
I P
f ()
1
1
0
=0 f ()
f (z0 ) =
d =
d .
2
2i
( z0 )
2i
( z0 )2
La sumatoria converge uniformemente sobre la curva, luego
I

X
X
f ()
1
0
d =
f0 (z0 ) .
f (z0 ) =
2
2i
(

z
)
0

=0
=0
q.e.d.
Consideremos
f (z) =

a z ,

(7.4)

=0

con radio de convergencia r. la funcion f es holomorfa y continua en | z | < r, su derivada


!0

X
X
a z 1 .
(7.5)
f 0 (z) =
a z =
=0

=0
0

Afirmamos que el radio de convergencia r de f es igual a r.


Demostraci
on
i)

0
rP
r porque se ha visto que la convergencia de
0
zD f (z).

ii)

r0 r porque losp
coeficientes | a | son mas grandes que los coeficientes a . Recordemos
n
que = lmn 1/ | an |

zD

f (z) implica la convergencia de

q.e.d.
Consideremos la serie

a z con radio de convergencia r, esta serie representara a una

=0

funcion holomorfa f (z) dentro del crculo de convergencia. La derivacion termino a termino
es lcita y el radio de convergencia sigue igual. Se tiene:
f 0 (z) =

a z 1 ,

=1

f (p) (z) =

X
=p

( 1)( 2) ( p + 1)a z p ,

7.2. PROPIEDADES.

115

haciendo el cambio de ndice de suma = p luego = + p tenemos


f (p) (z) =

( + p)( + p 1)( + p 2) ( + 1)a+p z

=0

p!
,
p!

compactando
f

(p)

(z) = p!



X
+p
p

=0

a+p z

(7.6)

Esta serie conserva el mismo radio de convergencia que la original. En el caso particular z = 0
tenemos
f (n) (0) = n!an ,
despejando el coeficiente an tenemos
1
1
an = f (n) (0) =
n!
2i

I
| |=<r

f ()
d .
n+1

Podemos a partir de esta ecuacion acotar el modulo del coeficiente an


| an |

Max| |= | f |
1
2
,
2
n+1

finalmente
| an |

M ()
n

(7.7)

donde M () = Max| z |= | f |. Esta relacion, (7.7), es conocida como la Desigualdad de Cauchy.


Hemos observado propiedades de las series, cuyos terminos son funciones holomorfas, para
representar funciones holomorfas.
Sea ahora f (z) holomorfa en la vecindad de z0 = 0, | z | < r0 . Consideremos

1
1 1
1 X z
=
=
.
z
1 z
=0

Esta serie converge en | z | < | |. Luego

X z
1
=
,
+1
z

=0
converge uniformemente en | z | q < | |, usando uno de los teoremas anteriores. Por Cauchy
1
f (z) =
2i

I
| |=

X
f ()
d =
z
z
=0

1
2i

I
| |<

f ()
d
+1


,

CAPITULO 7. SERIES DE POTENCIAS.

116
lo que podemos reescribir como
f (z) =

X
f (0)
=0

(7.8)

Lo que corresponde al desarrollo de Maclaurin de f (z). A continuacion formalizaremos un


poco mas todo esto mediante el siguiente teorema.
Teorema 7.3 Si la funcion f (z) es holomorfa en una vecindad de z0 entonces
f (z) =

X
f (z0 )
=0

(z z0 ) ,

Taylor.

(7.9)

Basta poner ( z0 ) (z z0 ) en los desarrollos anteriores. Con z0 = 0 obtenemos Maclaurin.


Teorema 7.4 De identidad
o unicidad.

X
X

b (z z0 )
a (z z0 ) con radio de convergencia r1 > 0 y
Consideremos las series
=0

=0

con radio de convergencia r2 > 0. Si sus sumas coinciden para todos sus puntos en una
vecindad de z = z0 entonces son identicas.
Demostraci
on Si z = z0 entonces a0 = b0 . Supongamos que hemos probado ak = bk para
k = 0, . . . , m, entonces tenemos
am+1 + am+2 (z z0 ) + . . . = bm+1 + bm+2 (z z0 ) + . . . .
Puesto que esta serie es continua podemos hacer z z0 obteniendo am+1 = bm+1 .
q.e.d.

1
Ejemplo Sea f (z) = log z, como f (z) = = log z =
z
0

Z
1

centro en 1
Figura 7.3: Region simplemente conexa Re(z) > 0.

7.2. PROPIEDADES.

117

Expandamos en serie el inverso de z

X
X
1
1
=
=
(1 z) =
(1) (z 1) ,
z
1 (1 z) =0
=0
integrando la ecuacion anterior
log z =

(1)

=0

(z 1)+1
1
1
= (z 1) (z 1)2 + (z 1)3 + . . . .
+1
2
3

(7.10)

Esta expansion es u
nica. Notemos que no se incluye una constante de integracion tal que
log 1 = 0. Podemos evaluar en un punto sobre el borde
log 2 = 1

1 1 1 1
+ + +... .
2 3 4 5

Cuando se conoce que f (z) es holomorfa en todos los puntos de un crculo 0 la convergencia de la serie esta garantizada, no es necesario hacer una prueba para la convergencia.
El maximo radio de 0 es la distancia desde el centro z0 de la expansion al punto singular
de f mas cercano a z0 , ya que la funcion debe ser holomorfa en todo el crculo. Ver figura
7.3.
Ejemplos:
z

X
z

|z| <

(7.11)

z 21
(2 1)!

|z| <

(7.12)

z 2
(2)!

|z| <

(7.13)

z 21
(2 1)!

|z| <

(7.14)

X
z 2
cosh z = 1 +
(2)!
=1

|z| <

(7.15)

|z| < 1

(7.16)

|z| < 1

(7.17)

e =1+

=1

sen z =

(1)+1

=1

cos z = 1 +

(1)

=1

senh z =

X
=1

X
1
=
z
1z
=0

X
1
=
(1) z
1+z
=0

CAPITULO 7. SERIES DE POTENCIAS.

118

z
por medio de una serie de potencias
(z 1)(z 3)
positivas y negativas de (z 1) que converge a f (z) cuando 0 < | z 1 | < 2.

Ejercicio Representar la funcion f (z) =

Figura 7.4: Region de convergencia.

X
(z 1)n1
1
Solucion: f (z) =
3
.
2(z 1)
2n+1
n=1

7.3.

M
aximos, mnimos y funciones arm
onicas.

Teorema 7.5 Una funcion holomorfa en z0 no puede tener all un maximo de su valor
absoluto salvo en el caso que f = cte.
Demostraci
on (1ra ) En la vecindad de z0 tenemos
f (z) = a0 + a1 (z z0 ) + a2 (z z0 )2 + . . . ,
con alg
un radio de convergencia r. Supongamos que por lo menos uno de los coeficientes
siguientes a a0 es no nulo. Sea am con m 1 el primero de estos coeficientes
f (z) = a0 + am (z z0 )m + am+1 (z z0 )m+1 + . . . ,
con a1 = a2 = . . . = am1 = 0. Sea
a0 = Aei ,

am = Bei ,

z z0 = ei ,

con 0 < < r. De este modo


f (z) = Aei + Bei m eim + am+1 (z z0 )m+1 + . . . .
Busquemos una direccion donde crezca | f (z) |. Tomamos tal que + m = , entonces
f (z) = (A + Bm )ei + am+1 (z z0 )m+1 + . . . ,

7.3. MAXIMOS,
MINIMOS Y FUNCIONES ARMONICAS.

119

tomemos el modulo a ambos lados


| f (z) | A + Bm | am+1 | m+1 . . .
A + m [B (| am+1 | + . . .)] .
Tomamos tan peque
no de modo que (| am+1 | + . . .) <
| f (z) | > A +

B
,
2

Bm
Bm
= | f (z0 ) | +
.
2
2

Lo cual implica | f (z) | > | f (z0 ) | para todo punto suficientemente cercano a z0 .
q.e.d.
Principio de modulo maximo: El modulo maximo de una funcion holomorfa en una region
cerrada, se encuentra siempre sobre la frontera de la region.
Demostraci
on (2da ) Escribamos f (z0 ) a partir de la formula integral de Cauchy
1
f (z0 ) =
2i
tomamos modulo a ambos lados

I
1
f ()
| f (z0 ) | =
2i | z0 |= z0

I
| z0 |=

f ()
d ,
z0


I
I

1
|
f
()
|
1

d =
| f () | d .
2
| z0 |
2

Supongamos que | f (z0 ) | | f (z) | en cierta vecindad de z0 . Si un punto sobre el borde,


| z z0 | = fuese | f (z) | < | f (z0 ) | entonces en una parte del borde
I
I
1
1
| f () | d <
| f (z0 ) | d = | f (z0 ) | ,
| f (z0 ) |
2
2
contradiccion.
q.e.d.
Consideremos ahora funciones armonicas, escribimos f (z0 ) = u(x0 , y0 ) + iv(x0 , y0 ). Por
otra parte, de la formula integral de Cauchy tenemos
I
1
f ()
f (z0 ) =
d .
2i circunf. z0
Parametricemos la circunferencia centrada en z0 y de radio por = z0 + eit , donde
t , la diferencial d = ieit dt, luego
1
f (z0 ) =
2i

f (z0 + eit )ieit dt


1
=
it
e
2

f (z0 + eit ) dt .

CAPITULO 7. SERIES DE POTENCIAS.

120

Lo cual corresponde al promedio de f sobre la curva. Usemos ahora la expresion de f en


funcion de u y v
Z
1
f (z0 ) =
[u(x0 + cos t, y0 + sen t) + iv(x0 + cos t, y0 + sen t)] dt .
2
Comparando parte real y parte imaginaria tenemos
Z
1
u(x0 , y0 ) =
u(x0 + cos t, y0 + sen t) dt
2
Z
1
v(x0 + cos t, y0 + sen t) dt .
v(x0 , y0 ) =
2
Si tomamos el arco como el parametro s = t con dt =
1
u(x0 , y0 ) =
2

ds
tenemos

s=

uds ,
s=

lo cual es el promedio. Si u = cte sobre la circunferencia entonces u(x0 , y0 ) = u.


En el centro z0 = (x0 , y0 ) las funciones u y v no pueden tomar maximos ni mnimos salvo
en el caso que ellas sean constantes. Usemos u para el analisis pero es claramente valido para
v. Por ser u armonica satisface
2u 2u
2u
2u
+
= 0 =
= 2 .
x2 y 2
x2
y
Por lo tanto, la expresion
2u 2u

0,
x2 y 2
esto excluye maximos y mnimos en el sentido estricto. Solo podemos tener puntos de ensilladura.

7.4.

N
umeros de Bernoulli.

Consideremos la funcion
ez

z
=
1

z
1
=
.
2
z
z
z
z2
1
1 + 1 + +
+
+ +
+
1! 2!
1! 2! 3!

Es holomorfa en z = 0 luego permite un desarrollo en serie con centro en z = 0.

X B
z
B1
B2 2
=
B
+
z
+
z
+
.
.
.
=
z .
0
ez 1
1!
2!
!
=0

(7.18)

Los Bi son conocidos como los n


umeros de Bernoulli. La ecuacion (7.18) corresponde a una
generalizacion a variable compleja de la ecuacion (1.137).


7.4. NUMEROS
DE BERNOULLI.

121

Podemos encontrar las relaciones de recurrencia para los Bi a partir de la identidad



 

z ez 1
B1
B2 2
z
z2
= 1 = B0 +
z+
z + ... = 1 + +
+ ...
ez 1 z
1!
2!
1! 2!




1
B1
Bn 1
Bn1
1
1
=1+ 1 +
z + ... +
+
+ ... +
zn + . . . .
2!
1!
n! 1! (n 1)! 2!
(n + 1)!
Obtenemos

Bn 1
Bn1
1
1
+
+ ... +
=0.
n! 1! (n 1)! 2!
(n + 1)!

Los n
umeros de impares B2n+1 = 0 para n 1 como ya probamos en la seccion 1.10, en esa
misma seccion listamos los primeros n
umeros de Berrnoulli en la tabla 1.1 que reproducimos
a continuacion.
n Bn
Bn
0
1 1.0000 00000
1 12 -0.5000 00000
1
2
0.1666 66667
6
1
3 30 -0.0333 33333
1
4
0.0238 09524
42
1
5 30 -0.0333 33333
5
6
0.0757 57576
66
Cuadro 7.1: N
umeros de Bernoulli
Ejemplo Encuentre el desarrollo en serie de potencias positivas y negativas de cot z en torno
a z = 0.
cos z
eiz + eiz
(e2iz 1) + 2
cot z =
= i iz
=
i
,
sen z
e eiz
e2iz 1
luego multiplicando por z,
z cot z = iz +

2iz
B2
22 B2 2 24 B4 4
2
=
iz
+
1
+
B
(2iz)
+
(2iz)
+

=
1

z +
z + .
1
e2iz 1
2!
2!
4!

Dividiendo por z tenemos

cot z =

1 X 22 B2 21

z
z =1 (2)!

Existe un desarrollo similar para tan z?

(7.19)

122

CAPITULO 7. SERIES DE POTENCIAS.

Captulo 8
Prolongaci
on Analtica.
versi
on final 1.3, 05 de Junio del 2003

8.1.

Definiciones.

Definici
on 8.1 El conjunto T es un conjunto acotado si existe un tal que | z | < z T .
Definici
on 8.2 El conjunto T es un conjunto no acotado si > 0 habra z T tal que
| z | > .

Figura 8.1: Conjunto acotado.

Definici
on 8.3 El punto es punto lmite del conjunto T si dado cualquier > 0 tan
peque
no como se quiera, existe en cantidad infinita de z T tal que | z | < .

z0

Figura 8.2: Punto lmite.


El punto es punto lmite del conjunto T si cada vecindad de contiene puntos, distintos
de , del conjunto.
123

ANALITICA.
CAPITULO 8. PROLONGACION

124

Definici
on 8.4 El punto T es un punto aislado de T si existe una vecindad en torno a
que no contiene otros puntos de T .
Definici
on 8.5 El punto T es un punto interior de T si existe una vecindad en torno a
cuyos puntos esten en T . Los puntos interiores son siempre puntos lmites.
Definici
on 8.6 El punto es un punto exterior de T si y una vecindad en torno a no
pertenecen a T .
Definici
on 8.7 El punto es un punto de la frontera de T si en toda vecindad en torno a
hay por lo menos un punto que pertenece a T y por lo menos un punto que no pertenece
a T . El punto puede o no pertenecer al conjunto T .
Definici
on 8.8 El conjunto T es un conjunto cerrado si contiene a todos sus puntos lmites.
Por ejemplo, | z | 1.
Definici
on 8.9 El conjunto T es un conjunto abierto si z T es punto interior. Por ejemplo,
0 < | z | < 1.

8.2.

Lema de Heine-Borel

Sea T un subconjunto del plano, acotado y cerrado. Si todo punto z T esta recubierto
por al menos un crculo Cz entonces basta una cantidad finita de crculos para recubrir todo
el conjunto T .
Demostraci
on
Supongamos que se requiere una cantidad infinita
de crculos para recubrir T .
Encerrando a T en un cuadrado Q1 subdividimos a
Q3
Q1
este
cuadrado en cuatro partes de las cuales consideraT
mos una llamada Q2 . El subconjunto T queda con una
parte en cada cuadrado y por definicion la cerramos.
Puesto que se requiere una cantidad infinita de crculos
para cubrir T , tambien se requerira una cantidad infinita para por lo menos una de las subdivisiones. ProseFigura 8.3: Lema de Heine-Borel I. guimos construyendo una sucesion de cuadrados encajados: Q1 , Q2 , Q3 ,. . . ,Qn ,. . . cada uno conteniendo
un subconjunto de T que requiere de una cantidad infinita de crculos para su recubrimiento.
Esto no puede ser as si T es cerrado.
Si el encaje de cuadrados se contrae a un punto, llamemoslo . el punto T es un
punto lmite de T , (T es cerrado). Por lo tanto, esta recubierto por uno de los crculos en
cuestion, sea C este crculo. Ahora bien, si p se elige tal que la diagonal de Qp es menor
que la distancia de a la circunferencia, entonces todos los puntos dentro de Qp ya estan
recubiertos por el crculo C y sin embargo se supuso que una cantidad infinita de crculos se
necesita para recubrir estos puntos, contradiccion.
q.e.d.
Q2

8.3. TEOREMA DE IDENTIDAD.

125

Figura 8.4: Lema de Heine-Borel II.

8.3.

Teorema de identidad.

Si dos funciones f y g son holomorfas en un dominio abierto y conexo D, y si ellas


coinciden en una vecindad de un punto z0 D, o a lo largo de un segmento que termina
en z0 , o en un n
umero infinito de puntos distintos con punto lmite en z0 , entonces las dos
funciones son iguales en todo D.
Demostraci
on
Ambas funciones pueden expandirse con
D
centro en z0 . Por el teorema de identidad para las series de potencia ambas expansiones

son identicas, por lo tanto, f = g dentro del


crculo K0 .
Consideremos ahora un punto arbitrario
zn
D debemos mostrar que tambien en ese
punto f () = g(). Conectemos z0 con con
un camino contenido completamente en D.
Sea > 0 la distancia mnima del camino
al borde de D. Subdividamos el camino en
crculo K1
segmentos cuyas longitudes sean menores que
z0
. Se definen as los puntos z1 , z2 , . . . , zn , . . ..
crculo K0
Dibujemos los crculos maximos centrados
en estos puntos. Es claro que los radios de
Figura 8.5: Teorema de identidad.
estos crculos son todos mayores o iguales a .
Por lo tanto, cada crculo contiene el centro del siguiente. Expandimos ahora f y g en estos
nuevos centros z . En cada caso las series convergen dentro del crculo K . Vimos que f = g
en K0 por lo tanto, f (z1 ) = g(z1 ) ya que z1 K0 , y tambien en una vecindad de z1 lo que
implica que las expansiones con centro en z1 son identicas = f = g en z2 y en un vecindad
de z2 . Luego de varias etapas similares concluimos que f = g en y en una vecindad de .
El Lema de Heine-Borel garantiza que el recubrimiento se hace con una cantidad finita
de crculos.
q.e.d.

ANALITICA.
CAPITULO 8. PROLONGACION

126

8.4.

Prolongaci
on analtica.

Idea: Sea el conjunto D = D1 D2 tal que D1 D2 6= . Supongamos ademas, que estan


bien definidas las funciones f1 en D1 y f2 en D2 respectivamente.

f1

f2

D1

D2

Figura 8.6: Conjuntos D1 y D2 .

Premisa: f1 (z) = f2 (z) si z D1 D2 . Se conocan dos representaciones parciales f1 y f2


de la misma funcion f . (f1 y f2 son elementos de f .)
En casos de dominios de conexion simple la prolongacion es u
nica.
f1 = f2 ,

en D1 D2 .

f1 es la prolongacion analtica de f2 , y viceversa.


Ejemplo Definamos f (z) =

z en el dominio | z | < 1.

=0

Figura 8.7: Zona de convergencia de 1/(1 z).

En el crculo vale que

X
=0

1
funcion vale
.
1z

z =

1
= f (z). Tambien en todo el plano salvo z = 1, la
1z

ANALITICA.
8.4. PROLONGACION

127

Consideremos ahora



1 X zi
g(z) =
.
1 i =0 1 i

Su radio de convergencia | z i | < | 1 i | = 2.

Figura 8.8: Prolongacion analtica.


Dentro de la circunferencia superior (la verde)
g(z) =

1
1
1
.
zi =
1 i 1 1i
1z

Decimos entonces que g(z) es la prolongacion analtica de f (z) y viceversa.


Notemos que no es posible prolongar f analticamente usando centros x0 con 0 < x0 < 1.


1
1 X z x0
1
=
=
,
1z
(1 x0 ) (z x0 )
1 x0 =0 1 x0
converge para | z x0 | < | 1 x0 | < 1. No se sale del crculo.
En caso 1 < x0 < 0 tenemos


X
1
1
z | x0 |
=
.
1z
1 + | x0 | =0 1 | x0 |
converge para | z | x0 | | < | 1 | x0 | |. i.e. crculo centro en x0 < 0 y radio 1 < r < 2.

X
X
(z i)n
zn
y
, son las continuaciones analticas
Problema: Muestre que las series
n+1
n+1
2
(2

i)
=0
=0
de una respecto a la otra.
Ejemplo Consideremos las funciones
x3 x5
sen x = x
+
+ ,
3!
5!

e =

X
x
=0

ANALITICA.
CAPITULO 8. PROLONGACION

128
Im

intervalo

Re

Figura 8.9: Prolongacion al plano complejo.

Prolongacion analtica al plano complejo


z3 z5
+
+
3!
5!

X
z
ez =
!
=0

sen z = z

Ambas expresiones u
nicas son u
nicas.
Vimos en el ejemplo de la funcion 1/(1 z) que sobre el borde del crculo | z | < 1 se
podan efectuar nuevos desarrollos en serie, en particular en z0 = i. Haba un problema serio
en z = 1.
Teorema 8.1 En la periferia del crculo de convergencia hay por lo menos un problema serio
para el desarrollo de f en una serie de Taylor.
Demostraci
on Si as no fuere, cada punto de la periferia estara recubierto por un crculo
donde f existe como holomorfa.
Definiendo la zona de convergencia
| z z0 | < r0 ,

r0 > r ,

podemos ver que hay una contradiccion ya que podramos agrandar el radio de convergencia:

r
r

Figura 8.10: Agrandar el radio de convergencia.

ANALITICA.
8.4. PROLONGACION

129
q.e.d.

Ejemplo

X
1
=
z ,
1z
=0
tiene un obstaculo en z = 1.
Ejemplo
22
24
B2 z 2 + B4 z 4 + . . . ,
2!
4!
con radio de convergencia , en efecto z cot z = z cos z/ sen z el denominador se anula y da
problemas en z = , 2, 3,
z cot z = 1

Figura 8.11: Obstaculos para la funcion z cot z.

Consideremos la funcion
f (z) =

1
,
1z

z =

=0

para | z | < 1.

Nuevo centro de desarrollo z0 = 1. Hacemos el cambio de variable z +1 = s La prolongacion




1/2


Figura 8.12: Desarrollos para la funcion 1/(1 z).

ANALITICA.
CAPITULO 8. PROLONGACION

130
que buscamos es

(s 1) =

=0

X
 
X

=0 =0

s (1)

X
=0

"
s

 
X

(1)

 
 
 

0
1
2
0
1
2
(1) +
(1) +
(1) + . . .
=s
0
0
0
 
 
 

1
2
3
0
1
2
1
(1) +
(1) +
(1) + . . . + . . .
+s
1
1
1
= s0 (1 1 + 1 1 + 1 + ) + s1 (1 2 + 3 4 + ) + ,
0

1
esto fracaso porque la funcion f (z) no converge en 1. Tratemos con otro centro z0 = ,
2


1
1
1
= s , prolongacion
luego z = z +
2
2
2


 

X
 

X
X
1
1
f (z) =
s
=
s
2
2

=0
=0 =0
"    #

X
X
1

s
=

2
=0
=




1
1
1
1 1 1
1
0
= s 1 + + + s 1 2 + 3 4 + + ,
2 4 8
2
4
8
ahora s converge.
1
1
en z0 =
1z
2
n!
f (n) (z) =
,
(1 z)n+1

Busquemos ahora las derivadas de f (z) =

al evaluar en z0 =

1
2
f

(n)

 n+1
2
=
n! ,
3

1
luego los coeficientes bn de la expansion de Taylor de f en z0 = son
2
   n+1
1
1
2
=
.
bn f (n)
n!
2
3
Luego la expansion para f es

n X
n

 n+1 
X
1
2
1
bn z +
f (z) =
=
z+
.
2
3
2
n=0
n=0
Evaluemos el radio de convergencia.
r = lm q
n

3
3
1
1
= lm q = .

2 n n 2
2
2 n+1
3

DE RIEMANN.
8.5. FUNCION

8.5.

131

Funci
on de Riemann.

Los n
umero primos: 2, 3, 5, 7, 11, 13,. . . . Los n
umeros naturales los podemos escribir
como: n = 2 3 5 7 . En general, cada n
umero natural tiene una expansion u
nica
en n
umero primos que podemos escribir
n = todo p pe

con e 0 y p1 = 2, p2 = 3, . . . .

(8.1)

Consideremos la siguiente relacion


1

  X
  X
 
X
1
1
1

X1
,
n

1
1
1
2
3
5
=0
=0
=0
1
1
{...}
2
3
5
donde la notacion {. . .} significa que la suma corre sobre todos los n que solo tienen los
factores primos 2, 3 y 5. Podemos pensar en el caso general, es decir:
X1
1
?
,
(8.2)
todo p
=
1
n
nN
1
p
lamentablemente la serie de la derecha diverge, luego no podemos hacer la identificacion, tal
como esta planteada en (8.2).
1

Sea x > 1 el exponente en

X
1
= (x) ,
x
n
n=1

(8.3)

esta serie converge. Graficamos esta serie en funcion de x


zeta de Riemann (z )

1
1

Figura 8.13: Funcion de Riemann.

Definici
on 8.10 Definimos la funcion llamada funcion zeta de Riemman z(x) para todo
x > 1 como

X
1
1
(x) todo p
=
(8.4)
1
nx
n=1
1 x
p

ANALITICA.
CAPITULO 8. PROLONGACION

132

Permite (x) una prolongacion analtica al plano complejo?


y

+1

x
c

Figura 8.14: Prolongacion al plano complejo de la funcion .


Tenemos que nz = ez log n luego podemos definir la funcion zeta en el plano complejo como
sigue:

X
X
1
=
ez log n .
(8.5)
(z) =
z
n
n=1
n=1
La funcion as definida tiene los valores conocidos (2) =

4
2
o (4) = .
6
96

Proposici
on 8.1 La serie (8.5) converge uniformemente en Re[z] c > 1.
Demostraci
on
z log n x log n iy log n x log n
= 1 1 .
= e
e
e
= e
nx
nc
P
1
Pero
de z y de acuerdo a lo anterior es una mayorante
n=1 nc converge
P independientemente
1
converge
absolutamente
y uniformemente en Re[z] c > 1.
convergente, luego
n=1 nz
q.e.d.
Con esto se tiene que (z) es holomorfa. Es posible atravesar la frontera, paralela al eje
imaginario y que pasa por 1?

8.6.

Lugares nulos y a-lugares.

Definici
on 8.11 Un punto z0 de una region donde f (z) es holomorfa, es llamado lugar nulo
de f (z) si f (z0 ) = 0.
Definici
on 8.12 Tal punto z0 de una region donde f (z) es holomorfa, es llamado un a-lugar
de f (z) si f (z0 ) = a.
Definici
on 8.13 El punto z0 es un lugar nulo de multiplicidad m > 0 de f (z), si f (z) es
holomorfa en z0 y admite el desarrollo
f (z) = am (z z0 )m + am+1 (z z0 )m+1 + ,

con am 6= 0.

8.6. LUGARES NULOS Y A-LUGARES.

133

Ejemplo La funcion g(z) tiene un lugar nulo de multiplicidad uno en z0 si acepta un desarrollo
g(z) = a(z z0 ) + con a 6= 0.
Definici
on 8.14 El punto z0 es un a-lugar de f (z) de multiplicidad m > 0 si g(z) = f (z)a
tiene en z0 un lugar nulo de multiplicidad m.
f (z) = a +

a (z z0 ) ,

con am 6= 0.

=m

Proposici
on 8.2 Si f tiene en z0 un a-lugar de multiplicidad m 1, entonces f 0 tiene en
z0 un lugar nulo de multiplicidad m 1.
Demostraci
on Como f tiene en z0 un a-lugar de multiplicidad m 1 la podemos escribir
f (z) = a + am (z z0 )m + am+1 (z z0 )m+1 + ,
con am 6= 0. Derivamos esta ecuacion y obtenemos
f (z) = am m(z z0 )m1 + am+1 (m + 1)(z z0 )m + ,
claramente mam 6= 0 luego f 0 tiene en z0 un lugar nulo de multiplicidad m 1.
q.e.d.
Teorema 8.2 Sea f (z) 6= cte., holomorfa en alg
un dominio D. Entonces en un parte finita
y cerrada de D, la condicion f (z) = a se puede cumplir solo en un conjunto finito de puntos.
Demostraci
on Supongamos que la funcion f (z) tiene infinitos a-lugares en z distintos con
= 0, 1, 2, . . ., es decir, f (z ) = a. Existira en D un punto lmite llamemoslo z0 , por lo tanto,
por el teorema de identidad : Si dos funciones f y g son holomorfas en un dominio abierto
y conexo D, y si ellas coinciden en una vecindad de un punto z0 D, o a lo largo de un
segmento que termina en z0 , o en un n
umero infinito de puntos distintos con punto lmite en
z0 , entonces las dos funciones son iguales en todo D. En nuestro caso las dos funciones son
f y g = a = cte. luego f = cte, contradiccion. No hay un n
umero infinito de puntos en los
que la funcion f (z) tenga a-lugares en D.
q.e.d.
Teorema 8.3 Si f (z) es holomorfa en z0 , existe una vecindad de z0 donde f (z) 6= f (z0 )
z 6= z0 .
Demostraci
on Consecuencia del teorema anterior.
q.e.d.
Contraejemplo: (Aparente)
Consideremos la funcion
f (z) = sen

1
,
1z

ANALITICA.
CAPITULO 8. PROLONGACION

134

en el intervalo real ]0, 1[. Resolvamos el caso


sen

1
1
1
= 0 , =
= k = xk = 1
,
1x
1x
k

con k = 1, 2, 3, . . .. La funcion f tiene infinitos lugares nulos entre 0 y 1. Lo que pasa es que
el punto de acumulacion o punto lmite es x = 1 y en ese punto f (z) no es holomorfa.

8.7.

Comportamiento en infinito.

Funciones definidas para | z |  1 nos sugieren preguntarnos por su comportamiento en


infinito (z = ).
 
1
Definici
on 8.15 La funcion f (z) es holomorfa en z = si la funcion f
lo es en s = 0.
s
Lo anterior implica que
 

  
1
d
1
1
0
f
=f
2 ,
ds
s
s
s
debe existir en s = 0.
 
 
1
1
Ejemplo 1: Sea f (z) = c constante. Luego f
= c implica f 0
= 0. Evaluemos la
s
s
derivada cuando s 0
  



1
1
1
0
2 = lm 0 2 = 0 ,
lm f
s0
s0
s
s
s
por lo tanto, f es holomorfa en z = y f 0 (z) = 0 en z = .
 
 
1
1
1
0
implica f
=
= 1. Evaluemos la
Ejemplo 2: Sea f (z) = z lineal. Luego f
s
s
s
derivada cuando s 0
  



1
1
1
0
2 = lm 1 2 ,
lm f
s0
s0
s
s
s
por lo tanto, f no es holomorfa en z = .
Ejemplo 3: Sea f (z) una funcion racional
am z m + + a1 z + a0
,
bn z n + + b1 z + b0
 
1
con las premisas que m n, am =
6 0 y bn 6= 0. Escribamos f
s
 
1
am sm + + a1 s1 + a0
am snm + + a1 sn1 + a0 sn
=
.
f
=
s
bn sn + + b1 s1 + b0
bn + + b1 sn1 + b0 sn
f (z) =

8.7. COMPORTAMIENTO EN INFINITO.

135

Evaluemos el lmite de la funcion f (z) cuando z va a infinito


a
m
am
a1
a0

si m = n,

+ + n1 + n
nm
z
z = bn
lm f (z) = lm z
,
b1
b0
z
z

bn + + n1 + n
0
si m < n,
z
z
 
1
en ambos casos tiende a una constante, luego f
es diferenciable en s = 0, lo que implica
s
que f (z) es holomorfa en z = .

136

ANALITICA.
CAPITULO 8. PROLONGACION

Captulo 9
Funciones Multivaluadas.
versi
on final 1.1, 10 de Junio del 2003

9.1.

Funci
on

z.

Consideremos la funcion w = f (z) = z 2


y

f(z)=z2

v w

Figura 9.1: La funcion f (z) = z 2 .

No hay una correspondencia biunvoca entre z y w. A cada punto (u, v) 6= 0 le corresponden dos puntos en el plano z.

Consideremos f (x) = x con x una variable real 0 x < . Podemos expandir la


funcion en torno a x = 1
1
X
1
2 (x 1) ,
f (x) = (1 + (x 1)) 2 =
0 x 1.

=0

f(x) 1
0

Figura 9.2: La funcion f (x) =

137

x.

CAPITULO 9. FUNCIONES MULTIVALUADAS.

138

Consideremos la prolongacion analtica al plano complejo:


f (z) =

1
X
2

=0

(z 1) =

Tratemos de comprobar si se cumple la igualdad. Tenemos


!
!
"
#

X 1
X 1
X
X  1  1 
2

2 (z 1)
2 (z 1)
2
2
(f (z)) =
=
(z 1)n .

n=0 +=n
Usando la formula auxiliar
  

n 
X

+
=
.
n

n
=0
En nuestro caso = =

1
2

(9.1)

luego

1 ,
 
1
=
= 1,

0,

X  1  1 
+=n

si n = 0
si n = 1 ,
si n > 1

luego
(f (z))2 = 1 (z 1)0 + 1 (z 1)1 = z = rei ,
con < < +. Si despejamos f (z) tenemos
f (z) =

r ei/2

r(1) ei/2 .

Ahora bien, la condicion f (1) = 1 excluye la segunda posibilidad, quedando:


f (z) =

r ei/2 ,

con < < +.

(9.2)

Figura 9.3: Crculo de convergencia del desarrollo de

z.


9.1. FUNCION

Z.

139

+1

Figura 9.4: El eje real negativo para

z.

Usando la definicion anterior de la raz veamos lo que pasa al acercarnos el eje real negativo
desde el plano complejo
p
p
lm+ 1 + iy = 1 ei/2 = i
lm 1 + iy = 1 ei/2 = i .
y0

y0

La funcion f (z) =

z puede ser, al tomar z = rei :

+ r ei/2
o
r ei/2 ,

una funcio
n as es conocida como bivaluada o bivalente, y cada posibilidad es conocida como
ramas de z.
Se acostumbra asignar a una rama el nombre de rama principal.
Notemos:
z
A
1

Figura 9.5: Funcion con lnea de ramificacion.

Plano z

A = rei1

Plano w

A = rei1 /2

<

realizando un circuito en
torno al punto 0 se tiene
A = rei(1 +2)
No hemos obtenido el mismo valor para

rei(1 /2+2/2)= rei1 /2 (1) = A

A en el plano w.

CAPITULO 9. FUNCIONES MULTIVALUADAS.

140

Limitando el valor de podemos hacer que la funcion sea univaluada o univalente. Esto se
hace definiendo una lnea de ramificacion: Por
ejemplo, si restringimos 0 < 2 estaremos
sobre una rama de
la
funci
o
n
multivaluada
z. Si definimos 2 < 4 estaremos sobre

la otra rama de z. Este procedimiento equivale a establecer una lnea de ramificacion la


cual no debe ser cruzada, lnea de corte, lnea roja en la figura. Notemos que la lnea emerge
del punto z = 0. Este punto se define como punto de ramificaci
on. La lnea de ramificacion
no es u
nica. El circuito debe circundar al punto de ramificacion si se quieren obtener valores
bivaluados, es equivalente a traspasar la lnea de corte.

9.2.

Superficies de Riemann.

La funcion z tiene dos superficies de Riemann. Notemos que dando dos vueltas en torno
al origen volvemos al punto f (A):

ei(1 /2+4/2) r = rei(1 /2+2) = rei1 /2 = A .


Esto lo podemos visualizar mediante las dos superficies de Riemann: tomando dos superficies
cortamos cada una en la lnea 0 B, ver figura, luego unimos la parte superior de una con
la inferior de la otra.

Figura 9.6: Despues de dos vueltas se vuelve al mismo punto.

Superficies de Riemann

Im

Re

Figura 9.7: Las dos superficies de Riemann de

Consideremos el producto

ab =

b,

z.


9.3. OTROS PUNTOS DE RAMIFICACION.

141


Usando se llega a ? (Donde sus valores tienen parte real positiva). La respuesta
es NO, en efecto, por ejemplo
a = b = (1 + 2i)2 = 3 + 4i = ab = (3 + 4i)2 = 7 24i ,
evaluemos las races

a = b = 1 + 2i ,

ab = 3 4i ,

a b = (1 + 2i)2 = 3 + 4i .

9.3.

Otros puntos de ramificaci


on.

Consideremos la funcion f (z) = z a, tenemos

z a = ei/2 ,
si z a = ei .

lnea de ramificacin

Figura 9.8: Punto de ramificacion de

A a = eiA =

Aa=

z a.

eiA /2 ,

considerando un giro en 2

Aa=

eiA /2+ = eiA /2 .

Luego, a es un punto de ramificacion de orden 2. Es decir, dos superficies de Riemann.

1
Es z = punto de ramificacion de z a ? Tomemos z
s
r
r

1
1 as
1 as
1
za=
a=
=
=
s 1 as ,
s
s
s
s

se ramifica en s = 0, por lo tanto, z = es punto de ramificacion de z a.

CAPITULO 9. FUNCIONES MULTIVALUADAS.

142

Consideremos la funcion
p
p
p
p
f (z) = z 2 + pz + q = (z a)(z b) = (z a) (z b) ,
con a 6= b. Claramente a y b son puntos de ramificacion. Para saber si z = es punto de
ramificacion reemplazamos z 1s y estudiamos lo que pasa en s = 0:
  r

1
1p
1
1
1
2 =
0 s b0 .
=
+
q
=
f
+
p
1
+
ps
+
qs
s

a
s
s2
s
s
s
Esta funcion no se ramifica en s = 0, s = 0 no es raz del polinomio 1 + ps + qs2 , por lo tanto,
z = no es punto de ramificacion.
Consideremos


1
1
w+
,
(9.3)
z=
2
w
Resolviendo para w
2wz = w2 + 1 w2 2wz + 1 = 0 w = z +

z2 + 1 = z +

z+1 z1 ,

tiene puntos de ramificacion en z = 1 y z = 1.


y

+1

Figura 9.9: Dos puntos de ramificacion.

Visto que z = no es punto de ramificacion las lneas de ramificacion no se extienden


hasta el infinito y por lo tanto deben necesariamente unirse, figura 9.9.
Las lneas de ramificacion pueden ser rectas o curvas, as pues podramos tomar en vez
de la recta de arriba, lo siguiente

+1

Figura 9.10: Otra lnea de ramificacion.

Podemos visualizar un corte desde 0 usando la esfera de Riemann

LOGARITMO.
9.4. LA FUNCION

143
polo N

corte

Figura 9.11: Lnea de ramificacion sobre la esfera de Riemann.

9.4.

La funci
on Logaritmo.

Consideremos la funcion f (x) = log(x) con x > 0. A continuacion mostramos un grafico


de la funcion:
2
1
0
1
2
3

Figura 9.12: Funcion logaritmo sobre el eje real.

Al evaluar la derivada de la funcion

X
1
1
f (x) = =
=
(1) (x 1) ,
x
1 + (x 1) =0
0

Integramos, imponiendo que log(1) = 0, lo cual anula cualquier constante de integracion


adicional

X
(1)
(x 1)+1 .
(9.4)
log x =

+
1
=0
El intervalo de convergencia del desarrollo (9.4) es 0 < x < 2.
Haciendo la prolongacion analtica al plano complejo tenemos
f (z) = log z =

X
(1)
=0

+1

(z 1)+1 =

z 1 (z 1)2 (z 1)3

+
+... .
1
2
3

(9.5)

CAPITULO 9. FUNCIONES MULTIVALUADAS.

144
Comprobemos la expansion

2
+
+ ...
1!
2!



1
1
1
1
1
1
2
= 1 + (z 1) + +
(z 1) +
+
(z 1)3 + . . . = z .
1!
2 2!
3 2! 6

exp(f (z)) = e = 1 +

Figura 9.13: Radio de convergencia para (9.5).


1
Si evaluamos la derivada del desarrollo en serie corresponde f 0 (z) = .
z
Consideremos
Z z
d
f (z) =

(9.6)

con la prohibicion de cruzar el eje real negativo.


La integral es independiente del camino porque la prohibicion nos restringe a un dominio
simplemente conexo

z


= reit

0<t<

Figura 9.14: Camino de integracion para (9.6).

Por lo tanto

Z
Log z =
1

d
=

Z
1

dx
+
x

Z
0

reit i dt
,
reit

resolviendo obtenemos
Log z = Log r + i , < < +

(9.7)

ARCOTANGENTE.
9.5. LA FUNCION

145

El punto z = 0 es un punto de ramificacion de orden infinito:


con k = 0, 1, 2, . . ..

log z = Log z + 2ki ,

(9.8)

El smbolo log z es un smbolo multivaluado para el cual no se ha especificado la rama. Pero


ese smbolo satisface
log z = w z = ew .
(9.9)
Siempre es cierto que log(ab) = log(a) + log(b). Pero en general no es cierto que se cumpla
que Log(ab) = Log(a) + Log(b). Por ejemplo, sea a = b = exp(3i/4)
3
Log a + Log b = i +
4

3
3
i = i
4
2



3
1
1
Log(ab) = Log exp
i = Log exp i = i .
2
2
2
log(1) = 0 + i( + 2k) = (2k + 1)i .

9.5.

La funci
on Arcotangente.

Consideremos la integral
x

Z
f (x) =
0

dt
,
1 + t2

con < x < +,

expandiendo en serie el denominador se tiene que


Z
f (x) =
0

xX

(1) t2 dt ,

con 1 < t < +1 y 1 < x < +1.

=0

Integrando
f (x) =

X
(1) x2+1

2 + 1

=0

Prolongacion analtica al plano complejo


f (z) =

X
(1) z 2+1
=0

2 + 1

La idea es

Z
f (z) =
0

con | z | < 1.

d
1 + 2

(9.10)

La integral es independiente del camino si se prohbe cruzar las lneas Im() +1 y


Im() 1.




1
1
1
1
1
1
1
=

=
+
1 + 2
2i i + i
2 1 + i 1 i

CAPITULO 9. FUNCIONES MULTIVALUADAS.

146

+1

Figura 9.15: Camino de integracion para (9.10).

Definici
on 9.1 Definimos la funcion
z

Z
Arctan z
0

d
.
1 + 2

En el crculo de radio uno centrado en el origen.


Consideremos el camino

+1
i

Figura 9.16: Camino de integracion en torno a +i.

I
centro +i

d
1
=
2
1+
2i

d
1
= 2i = .
i
2i

Consideremos el camino
+i

+1
i

Figura 9.17: Camino de integracion en torno a i.

I
centro i

d
1
=
2
1+
2i

d
1
= 2i = .
+i
2i

(9.11)

ARCOTANGENTE.
9.5. LA FUNCION

147

Es decir, cada vez que se cruzan las fronteras prohibidas se aumenta en +. Ramificacion
de orden infinito.

/2
0
/2

10

10

Figura 9.18: Funcion arcotangente.

Relacion con la funcion logartmica


Proposici
on 9.1
Z z
0

1
d
= Log(1 + iz)
1 + i
i

Z
0

d
1
= Log(1 iz) ,
1 i
i

(9.12)

o sea,
Arctan z =

1
(Log(1 + iz) Log(1 iz))
2i

Demostraci
on
i tan w =

(9.13)

eiw eiw
= iz ,
eiw + eiw

usando lo anterior
1 + iz
eiw + eiw + eiw eiw
eiw
= iw
= iw = e2iw .
iw
iw
iw
1 iz
e +e
e +e
e
luego despejando
2iw = log

1 + iz
1
1 + iz
w = arctan z = log
.
1 iz
2i
1 iz

Buscamos un smbolo Arctan z univaluado. Sea z = x + iy, Log(1 + iz) esta definido salvo
en caso Im(1 + iz) = 0 y Re(1 + iz) 0, es decir, siendo 1 + iz = (1 y) + ix esto implica
que esta definida salvo en caso x = 0 e y 1.
Log(1 iz) esta definido salvo en caso Im(1 iz) = 0 y Re(1 iz) 0, es decir, siendo
1 iz = (1 + y) ix esto implica que esta definida salvo en caso x = 0 e y 1.
1
Ademas se cumple Arctan 0 = 0 = (Log 1 Log 1) = 0.
2i
q.e.d.

148

CAPITULO 9. FUNCIONES MULTIVALUADAS.

Captulo 10
Desarrollo de Laurent.
versi
on final 1.1, 18 de Junio del 2003

10.1.

Desarrollo en torno a z0 = 0.

Consideremos ahora dominios con puntos singulares. Sea f univaluada y holomorfa en el


anillo r < | z | < R con centro en zo = 0. Nada se sabe de la funcion f fuera del anillo.

z0=0

Figura 10.1: Region anular.


Sea p un punto de la region anular, aplicando el teorema de Cauchy se tiene
Z

Z
1
f (z)dz
f (z)dz
f (p) =

.
2i
1 z p
2 z p
Escribamos lo siguiente:

1 1
1 X  p 
, converge en | p | < | z |, i.e. 1 .
=
z 1 p
z =0 z
z
 
1
1 1
1X z
=
=
, converge en | z | < | p |, i.e. 2 .
zp
p 1 z
p =0 p
p

1
=
zp

149

CAPITULO 10. DESARROLLO DE LAURENT.

150
Luego
f (p) =

=0

1
2i

I
1

f (z)dz
z +1



I

X
1
1

+
z f (z)dz .
p+1 2i 2
=0

(10.1)

Si nombramos por a al primer termino entre parentesis del lado derecho y por a1 al
segundo termino entre parentesis podemos reescribir (10.1) como
f (p) =

p a +

=0

X
1
a1 ,
+1
p
=0

(10.2)

Notemos que la primera serie converge para | p | < R y la segunda converge en | p | > r.
Hacemos el cambio de ndice + 1 = = 1 y tenemos

f (p) =

X
a

p a +

=0

=1

Por lo tanto,
f (p) =

=0

1
X

p a +

p a .

a p ,

(10.3)

siempre que el centro de expansion sea z0 = 0, con los coeficientes:


I
f (z)
1
, = , . . . , + .
a =
2i centro en z0 = 0 z +1

10.2.

(10.4)

Desarrollo en torno a z0.

Tomemos un centro z0 arbitrario. Sea f () univalente y holomorfa en r < | z0 | < R.


Usemos z = z0
f () = f (z + z0 ) = g(z) ,
holomorfa en r < | z | < R. Sea p = q + z0
f (p) = f (q + z0 ) = g(q) =

a q ,

con

1
a =
2i

I
centro 0 en z

g(z)dz
.
z +1

Tenemos dz = d, luego:
1
a =
2i
y
f (p) =

X
=

I
centro z0 en

a (p z0 ) =

X
=0

f ()
d ,
( z0 )+1

a (p z0 ) +

X
=1

(10.5)

1
.
(p z0 )

(10.6)

10.3. UNICIDAD DEL DESARROLLO DE LAURENT.

151

P
P

La serie
converge
=0 a (p z0 ) converge en | p z0 | < R y la serie
=1 a (p z0 )
en r < | p z0 | < .
La serie converge automaticamente en el dominio anular mas grande posible que sea
compatible con cualquier prolongacion analtica de f . Sobre | p z0 | = r y sobre | p z0 | = R
existe por lo menos un obstaculo serio.
Un caso interesante es cuando r = 0, en este caso se admiten dos posibilidades,
i

f holomorfa en z0 .

ii

f no holomorfa en z0 , una singularidad aislada.

10.3.

Unicidad del desarrollo de Laurent.

Supongamos que en el dominio anular r < | z | < R se tiene:

a z =

b z .

Sabemos que
I

(
0,
c z dz =
c1 2i ,

si 6= 1
si = 1,

luego concluimos que a1 = b1 . Para los demas coeficientes, multiplicamos por una potencia
adecuada, z k1 , y tenemos

I
a

k1+

dz =

I
b

z k1 dz ,

solo resulta algo no trivial si k 1 + = 1, es decir, = k lo que implica ak 2i = bk 2i


ak = b k .
Hemos obtenido una representacion de f (z) como una suma de una serie de potencias
ascendentes de (z z0 ), mas una serie de potencias descendentes de (z z0 ). Ambas series
convergen en la region anular ya que sus coeficientes son independientes de la forma de las
curvas 1 y 2 .

10.4.

Ejemplos.

Ejemplo 1 Consideremos la funcion


f (z) =

1
,
z1

desarrollemosla con centro en z = 0.


Esta funcion puede expandirse de dos maneras

CAPITULO 10. DESARROLLO DE LAURENT.

152

Figura 10.2: La funcion f (z) = 1/(z 1).

i)

En serie de Taylor para | z | < 1.

ii)

En serie de Laurent para | z | > 1.

i)

Taylor para | z | < 1,

X
1
f (z) =
=
z .
1z
=0

ii)

Laurent para | z | > 1,


1
f (z) =
z

X
X
1
1
=
=
.
+1
1
z
z
=0
=1
1
z

Ejemplo 2 Consideremos la funcion


f (z) =

1
,
(z 1)(z 2)

desarrollemosla con centro en z = 0

Figura 10.3: La funcion f (z) = 1/(z 1)(z 2).

Esta funcion puede expandirse en tres regiones


i)

En serie de Taylor para | z | < 1.

ii)

En serie de Laurent para 1 < | z | < 2.

iii)

En serie de Laurent para | z | > 2.

10.5. DEFINICIONES.

153
f (z) =

i)

1
1

.
z2 z1

Taylor para | z | < 1,





1
1
1 1
1
1 X  z  X X
1
f (z) =

=
+
=
+
z =
1 +1 z .
z
z2 z1
21
1z
2 =0 2
2
=0
=0
2

ii)

Laurent para 1 < | z | < 2,

X
X
1 1
1 1
z
1
f (z) =

,
z
+1
+1
1
2 1
z
2
z
=0
=0
1
2
z

la primera serie del lado derecho converge para | z | < 2 y la otra converge en 1 < | z | < ,
luego ambas convergen en 1 < | z | < 2.
iii)

Laurent para | z | > 2,


1
f (z) =
z

 
 
X
1 1
1 X 2
1 X 1
1
1

=
(21 1) = 2 + . . . .
2 z
1
z =0 z
z =0 z
z
z
=1
1
1
z
z

Como control comprobamos que 1/[(z 1)(z 2)] 1/z 2 para z  1.

10.5.

Definiciones.

Sea f univaluada y holomorfa en 0 < | z z0 | < R Podemos desarrollar

R
z0

Figura 10.4: La region donde f es univaluada y holomorfa.

f (z) =

X
=0

a (z z0 ) +

a (z z0 ) .

=1

Al segundo termino, correspondiente a las potencias negativas, se le conoce como la parte


principal del desarrollo de Laurent.
Definici
on 10.1 El punto z0 es un lugar regular si el desarrollo de Laurent en torno a z0
tiene la parte principal nula.

CAPITULO 10. DESARROLLO DE LAURENT.

154

Definici
on 10.2 El punto z0 es un polo de orden si la parte principal es del tipo

X
=1

a
,
(z z0 )

a 6= 0 ,

a1 = a2 = = 0 .

Se trata de una singularidad no esencial ya que al multiplicar por (z z0 ) desaparecen los


exponentes negativos:

(z z0 ) f (z) ==

a (z z0 )

=0

X
=1

a
.
(z z0 )

Definici
on 10.3 El punto z0 es una singularidad esencial si la parte principal es infinita, es
decir, existe una cantidad infinita de coeficientes a ( = 1, 2, 3, . . . , ) 6= 0.

10.6.

La funci
on Arcosecante.

Consideremos la funcion

1
,
sen z
la funcion tiene singularidades en k, con k = 0, 1, 2, 3, . . .. Es univaluada en las regiones
0 < | z | < , < | z | < 2,. . . . Planteamos
f (z) =

Figura 10.5: Singularidades de la funcion 1/ sen z.

sen z z
1=
=
z sen z



z2 z4
c2
c4
1
+
+...
c0 + z 2 + z 4 + . . . .
3!
5!
2!
4!

Igualando las distintas potencias


z 0 : 1 c0 = 1
c2 c0
c2
1
z2 :

=
2! 3!
2!
6
c
c
1
c
c4
7
4
2
0
z4 :

=
4! 2! 3! 5!
4!
360
c
31
6
z6 :
=
.
6!
15120

ARCOSECANTE.
10.6. LA FUNCION

155

Luego

1
1 1
7 3
31 5
1 X c2 2
= + z+
z +
z + = +
z ,
sen z
z 6
360
15120
z =0 2!

(10.7)

este desarrollo, de Laurent con centro en cero, converge para 0 < | z | < .
Busquemos el desarrollo entre y 2, tenemos que sen z = sen(z ), luego

X c2
1
1
1
=
=

(z )21 .
sen(z )
sen z
z =1 2!

Definamos una funcion auxiliar que tenga desarrollo de Taylor. La funcion que estamos
considerando es g(z) = 1/ sen z, si a esta funcion le restamos las partes principales que dan
singularidades nos queda una funcion holomorfa:
f (z) =

1
1
1
1
+
+
,
sen z z z z +

esta funcion tiene en | z | < 2 un desarrollo de Taylor, f (z) =


| z | < 2. Efectuemos el desarrollo de Taylor: (es u
nico)
1
1
1
7 3
31 5
= z+
z +
z +
sen z z
6
360
15120
2
2z
= 2
2
2
z

=0

a z convergente en

|z| < .

2  z 2
2z 2z 2z
1
= 2 2 2
 z 2 = 2 =0

|z| < .

Combinandolas

f (z) =

2
1
2
6


z+

Tenemos

2
7
4
360

z3 +

| z | < 2 .

X
1
2z
1
.
=
a z + 2
2
sen z
z
z

=0
Pero
2z
2z
= 2
2
2
z
z

1
2 X  2
 2 =
z =0 z
1
z

|z| > ,

luego:

X
1
1 2 X  2
=
a z +
,
sen z
z
z
z
=0
=0

(10.8)

el primer termino converge en | z | < 2 = R y el segundo r = < | z | < es decir, el


desarrollo completo converge en < | z | < 2.

CAPITULO 10. DESARROLLO DE LAURENT.

156

Figura 10.6: Zona de convergencia.

10.7.

Funciones enteras.

Definici
on 10.4 La funcion entera es una funcion holomorfa en todo el plano y que por lo
tanto posee un desarrollo de Taylor de radio infinito respecto a cualquier centro.
Estas funciones enteras se clasifican en
P
1) Polinomios de grado n: n=0 b s con b 6= 0.
P

2) Funciones enteras trascendentes


=0 b s , con una cantidad infinita de coeficientes no
nulos. Radio de convergencia para cualquier centro.
Teorema 10.1 Liouville
Si una funcion entera g(z) es acotable, entonces g(z) = cte.
Demostraci
on Si | g(s) | M , entonces podemos acotar los coeficientes, usando (7.7), la
desigualdad de Cauchy
M
| a | ,

con arbitrario. Podemos demostrar que a = 0 para todo salvo a0 , basta tomar suficientemente grande. Lo anterior implica que g(s) = a0 .
q.e.d.
Corolario: Sea g entera y no constante. Sea R un radio, y sea K > 0 tan grande como
se quiera, entonces existe p con | p | > R tal que | g(p) | > K.
Teorema 10.2 Sobre polinomios
Sea g un polinomio de grado n 1. Entonces para K > 0 tan grande como se quiera se
puede indicar un radio R tal que | g(z) | > K para todo | z | > R.
Demostraci
on
bn z n = g(z) bn1 z n1 b1 z b0
Sea | z | =
n

| bn | | g(z) | +

n1
X
=0

| b | ,

bn 6= 0 .

10.7. FUNCIONES ENTERAS.

157
(

| g(z) | n

n1
X
| b |
| bn |
n
=0

)
,

para suficientemente grande


| g(z) | n

| bn |
>K ,
2

|z| .

q.e.d.
Consecuencias: Un polinomio g de grado n 1 tiene (al menos) un lugar nulo.
Demostraci
on Si g nunca se anulara, entonces 1/g(z) sera entera y no constante. Por lo
tanto, fuera de crculos muy grandes habra un punto p tal que


1


g(p) > 1 | g(p) | < 1 ,
lo cual contradice el teorema anterior.
q.e.d.
La funcion ez es entera trascendente, no tiene lugares nulo.
Teorema 10.3 Una funcion entera trascendente a lo largo de ciertos caminos hacia s = ,
crece mas rapidamente que | s |m .
En otros terminos: si g es entera y acotada por | g(s) | M sm , entonces g es un polinomio.
Demostraci
on
| b |

Max | g |
M m

ya que el borde de un crculo de radio la funcion g satisface que | g | M m . Si > m


| b |

M
m

tan peque
no como se quiera, luego b = 0 para = m + 1, . . ..
q.e.d.

Teorema 10.4 Casorati-Weierstrass


Si g es entera trascendente y c es un n
umero complejo, entonces fuera de cualquier crculo
hay puntos donde g toma aproximadamente el valor c con una precision tan grande como se
quiera.
En otros terminos: despues de prescribir c C, R > 0 tan grande como se quiera y > 0
tan peque
no como se quiera, se puede encontrar un punto p tal que | p | > R y | g(p) c | < .

158

CAPITULO 10. DESARROLLO DE LAURENT.

Demostraci
on En | s | > R sea g(s) 6= c, entonces 1/(g(s) c) es holomorfa en | s | > R
por lo tanto acepta un desarrollo de Laurent

X
X
1
X

=
s =
+
s ,

g(s) c =
s
=1
=0

luego

X
X
1

=
s ,

g(s) c =1 s
=0
tomando el modulo a ambos lados



X
1


g(s) c +
s
=1




X


s > G ,



=0

donde G es tan grande como se quiera, lo que podemos escribir como G = 2/ con tan
peque
no como se quiera. El segundo termino del lado izquierdo es muy peque
no si | s | es
grande, digamos que lo podemos acotar por G/2. El primer termino del lado derecho, crece
a lo largo de ciertos caminos al infinito. Luego, para cierto p, donde | p | es grande, se tiene




G



1
G
2 1
1
1
+ G =


g(p) c G 2 = = .
g(p) c 2
Lo que finalmente conduce a | g(p) c | < .
q.e.d.

Captulo 11
Residuos.
versi
on final 1.2, 24 de Junio del 2003

11.1.

Definici
on y teorema.

Consideremos la funcion f (z) y su expansion en serie de Laurent


f (z) =

a (z z0 )

0 < | z z0 | < R ,

se tiene
I
f (z) dz =
centro z0

I
a

(z z0 ) dz = 2ia1 .

Definici
on 11.1 El residuo de la funcion f (z) en z0 , Resz=z0 f (z) a1 .
Teorema 11.1 Teorema de los residuos Sea D un dominio con un borde , en el cual f
es analtica, salvo en una cantidad finita de singularidades aisladas z1 , z2 , . . . , zn . Entonces
I
n
X
Res f (z)
(11.1)
f (z) dz = 2i

=1

z=z

Figura 11.1: Region donde f es analtica.

Demostraci
on Usando el teorema de Cauchy en el camino de la figura 11.1, se tiene
I
n I
X
f (z) dz
f (z) dz = 0 ,

=1

| zz |=

159

CAPITULO 11. RESIDUOS.

160
luego
I
f (z) dz = 2i

n
X
=1

Res f (z) .

z=z

q.e.d.

Ejemplo Una aplicacion del teorema, Consideremos la integral


Z
dx
,
2
1 + x

(11.2)

notemos que sobre el eje real no hay singularidades. Usemos un camino de integracion como
el siguiente.

+R
i

Figura 11.2: Camino de integracion.


Consideremos la integral de la prolongacion analtica al plano complejo de la funcion
1/(1 + x2 ) sobre el camino de la figura 11.2,
I
dz
I=
,
1 + z2
la funcion f (z) = 1/(1 + z 2 ) tiene polos de primer orden en z = i, en efecto


1
1
1
f (z) =

.
2i z i z + i
Tenemos
Res f (z) =

z=+i

1
,
2i

Res f (z) =

z=i

1
,
2i

luego
I
I=

dz
1
=
2i
Res
f
(z)
=
2i
= ,
z=+i
1 + z2
2i

por lo tanto,
Z R
Z
dz
dx
dz
=
+
= .
2
2
2
1+z
R 1 + x
arco 1 + z
Nos interesa cuando R . Acotemos la segunda integral, sea R > 1,
Z


dz
1

R 2
0 ,


2
R 1 R
arco 1 + z
I

11.2. FUNCIONES RACIONALES.

161

donde hemos usado que | z1 + z2 | | z1 | | z2 | para acotar la cantidad subintegral. Por lo


tanto
Z
dx
= .
(11.3)
2
1 + x

11.2.

Funciones racionales.

Sea f (z) = p(z)/q(z) el cociente entre dos polinomios tales que gr(p) gr(q)2. Premisa
q(x) 6= 0 para < x < . Tomaremos el dominio

+R

Figura 11.3: Camino de integracion.


tan grande como sea necesario para que contenga todos los polos del semiplano superior.
Entonces
I
Z
Z
n
X
p(z)
p(x)
p(z)
p(z)
=
dz =
dx +
dz ,
Res
2i
z=z q(z)
q(z)
q(x)
arco q(z)
=1
ahora bien, sea am 6= 0 y bn 6= 0
p(z)
am 1 1 +
am z m + . . . + a0
=
=
q(z)
bn z n + . . . + b0
bn z nm 1 +

am1 1
am z
bn1 1
bn z

+ +
+ +

a0 1
am z m
b0 1
bn z n

el valor absoluto de el u
ltimo termino tiende a +1 cuando | z | si n m + 2, luego
Z




p
am 1
p(z)



dz R Max = R nm 0 .

R
| z |=R q
bn R
arco q(z)

11.3.

Funciones trigonom
etricas.

Consideremos eiz , sen z y cos z. Acotemos las diferentes funciones comenzando por la
exponencial
iz
e = eRe[iz] = ey ,
y+

esta acotada en el plano superior y 0, por lo tanto, | eiz | 1. En cambio


sen z = sen(x + iy) = sen x cosh y +i cos x senh y ,
| {z }
| {z }
crece

crece

CAPITULO 11. RESIDUOS.

162

al tomar modulo tenemos que | sen z | crece cuando y , ya que las dos funciones
hiperbolicas crecen. Analogamente
cos z = cos(x + iy) = cos x cosh y i sen x senh y ,
| {z }
| {z }
crece

crece

por lo tanto, | cos z | crece cuando y .


Ejemplo Evaluemos la integral
Z

sen x
dx .
x

(11.4)

Para calcular esta integral estudiaremos la integral sobre el eje real entre R y +R, mediante
la integracion de la funcion sen z/z sobre diversos caminos. Esta funcion es holomorfa
sen z
z2 z4
=1
+
+ ,
z
3!
5!
no tiene polos. Sin embargo, cuando tomemos R deberemos acotar la funcion y en base
a lo expuesto al comienzo de esta seccion es mejor escribir las funciones trigonometricas como
combinaciones de exponenciales complejas.
eiz
eiz
sen z
=

.
z
2iz
2iz
Ahora bien, eiz y eiz estan acotadas para y 0 y para y 0 respectivamente. Ademas, las
dos funciones de la derecha tienen un polo de primer orden en z = 0.
En base a todo esto consideremos los caminos cerrados de la figura siguiente para lograr
nuestro objetivo (esta eleccion no es u
nica). Tenemos
t+iR


+iR

II
R+it
R+it


+R
0<t<R



iR III
tiR

Figura 11.4: Camino de integracion.

Z
I

sen z
dz =
z

Z
I

eiz
dz
2iz

Z
I

eiz
dz .
2iz

Para evaluar estas integrales lo hacemos eligiendo caminos cerrados apropiados.


11.3. FUNCIONES TRIGONOMETRICAS.

163

Para acotar bien elegimos para la primera integral


I
eiz
dz ,
I+II 2iz
y para la segunda
I
I+III

eiz
dz ,
2iz

en el sentido horario. (Negativo.)


Tenemos


I
eiz
1 1
z
eiz
dz = 2i Res
= 2i Res
+ 1 + +
z=0 2iz
z=0 2i
z
2!
I+II 2iz
1
= 2i = ,
2i
es decir,
Z

eix
dx +
2ix

Z
arco,

eiz
dz +
2iz

+R

eix
dx +
2ix

Z
II

eiz
dz = .
2iz

Acotemos la u
ltima integral:


Segmentos verticales | eiz | = eRi+iit = et .


Segmentos horizontales | eiz | = ei(t+iR) = eR .
Z


II


Z R t

eiz
e
eR

dz 2
dt + 2R
2iz
R
R
0



2
1
R
et 0 + 2eR = (1 eR ) + 2eR 0 .
2
R
R
R

En el lmite 0 la integral sobre el arco central es igual a /2 y por lo tanto nos queda
Z R ix
e

dx .
R 2
R 2ix
Consideremos el segundo camino cerrado I + III, este camino no contiene polos de primer
orden y por lo tanto su residuo es igual a cero, es decir,
I
eiz
dz = 0 .
I+III 2iz
Descomponiendo la integral cerrada tenemos
Z R ix
Z
e
eiz

dx +
dz + = 0 .
2
R 2ix
III 2iz
Acotando como lo hicimos anteriormente tenemos:
Z

Z R t


eiz
e
eR


dz

2
+
2R
0 ,


R
R R
III 2iz
0

CAPITULO 11. RESIDUOS.

164
por lo tanto,
Z

eix

dx ,
R
2ix
2

y nos queda finalmente


Z

sen x
dx =
x

(11.5)

En todos los casos anteriores hemos definido la integral entre - e de una de las siguientes
maneras:

Z
Z R
Z R
Z
f (t)dt ,
(11.6)
f (t)dt +
f (t)dt lm
P f (t) dt = lm

R,0

a esta forma se le llama el valor principal de Cauchy de la integral.

11.4.

Polos, residuos y lugares nulos.

Sea z0 = 0 el centro de desarrollo de las funciones g(z) y h(z), consideremos


g(z)
b0 + b1 z + b2 z 2 +
=
,
h(z)
ck z k + ck+1 z k+1 +
con b0 6= 0, ck 6= 0 con k 1 y c0 = c1 = = ck1 = 0. Esta funcion tiene en z = 0 un polo
de orden k.
1 b0 + b1 z + b2 z 2 +
g(z)
= k
,
h(z)
z
c + ck+1 z +
| k
{z
}
holomorfa en 0

es decir,

1
g(z)

= k ak + ak1 z + + a1 z k1 + a0 z k + .
|{z}
h(z)
z
Resz=0

g
h

Queremos determinar el coeficiente a1 , tenemos


b0 + b1 z + b2 z 2 + = (ck + ck+1 z + )(ak + ak+1 z + ) ,
despejando para potencias iguales
ck ak = b0
ck+1 ak + ck ak+1 = b1
ck+2 ak + ck+1 ak+1 + ck ak+2 = b2
..
.
.
= ..
c2k1 ak + + ck a1 = bk1 .
|{z}

11.4. POLOS, RESIDUOS Y LUGARES NULOS.

165

Son k ecuaciones lineales para k incognitas. Por la regla de Kramer tenemos para el coeficiente
a1 :


ck
0
.
.
.
0
b
0


ck+1
ck
... 0
b1

1 .
..
..
..
...
.
.
. ,
a1 = k ..
(11.7)

Ck .
.
.
..
..
. . ck bk2


c
c
... c
b
2k1

2k2

k+1

k1

donde Ckk es el determinante de los coeficientes. Esta relacion, (11.7), nos da una relacion
explcita para el residuo.
Sea k = 1, entonces
a1 =

b0
g(0)
= 0
,
c1
h (0)

polo de orden k 1.

Sea k = 2, entonces
a1

1 00
h (0)g 0 (0) 61 h000 (0)g(0)
1
6g 0 (0)h00 (0) 2g(0)h000 (0)
2
= 2 (c2 b1 c3 b0 ) =
=
.
1
C2
3(h00 (0))2
(h00 (0))2
4

Caso particular g = h0 = kck z k1 + con bk1 6= 0, mientras b0 = b1 = = bk2 = 0,


entonces
h0
kC k
a1 = Res = kk = k ,
z=0 h
Ck
es decir, el residuo es igual a la multiplicidad del lugar nulo en 0.
Proposici
on 11.1 Si en z0 una funcion f tiene un lugar nulo de multiplicidad k, entonces
la derivada logartmica f 0 /f tiene en z0 un polo de primer orden con residuo igual a k.
Demostraci
on Tenemos
f (z) = ak (z z0 )k + ak+1 (z z0 )k+1 + ,
su derivada
f 0 (z) = kak (z z0 )k1 + (k + 1)ak+1 (z z0 )k + .
La derivada logartmica
f0
k
=
f
z z0

1 +
1 +


=

k
(1 + potencias crecientes z z0 ) ,
z z0

lo cual implica
Res

z=z0

f0
=k.
f
q.e.d.

CAPITULO 11. RESIDUOS.

166

Proposici
on 11.2 Sea N = 1 + 2 + + n donde 1 , . . . , n son las multiplicidades de
los ceros z1 , z2 , . . . , zn de f , respectivamente. Entonces
I 0
1
f (z)
N=
dz .
(11.8)
2i
f (z)

Demostraci
on Del teorema de los residuos
I 0
X
1
f 0 (z) X
f (z)
dz =
Res
=
= N ,
z f (z)
2i
f (z)

la pen
ultima igualdad corresponde a la proposicion anterior.
q.e.d.

Proposici
on 11.3 Si h tiene en z0 un polo de orden m entonces h0 /h tiene en z0 un polo de
primer orden con residuo igual a m.
Demostraci
on Hagamos z0 = 0, luego
h(z) = am z m + + a0 + a1 z + a2 z 2 + ,

am 6= 0 ,

la derivada de h
h0 (z) = mam z m1 + + 0 + a1 + 2a2 z + ,

am 6= 0 .

La derivada logartmica
mam z m1 1 + potencia creciente de z
m
h0 (z)
=
= [1 + O(z)] ,
m
h(z)
am
z
1 + potencia creciente de z
z
el residuo en z0
Res
z0

h0 (z)
= m .
h(z)
q.e.d.

Teorema 11.2 Sea h(z) 6= 0 sobre la curva , cerrada, (sin puntos dobles). Sea h univalente
y holomorfa en el interior de , salvo en z0 , z1 , . . . , zn donde existen polos. Entonces
I 0
1
h (z)
dz = N P .
(11.9)
2i h(z)
con N = 1 +2 + +n y P = 1 +2 + +n , donde 1 , 2 , . . . , n son las multiplicidades
de ceros de h y 1 , 2 , . . . , n son los ordenes de los polos de h.

11.5. EJEMPLOS.

11.5.

167

Ejemplos.

Ejemplo I Evaluemos la integral


Z

I=

Tenemos

I=

d
.
1 + sen2

d
=4
1 i
1 4 (e ei )2

d
.
e2i

e2i

Pasemos al plano complejo escribiendo z = | z | e2i diferenciando d = dz/2iz, por lo tanto,


Z
Z
Z
dz
dz
dz
= 2i
= 2i
,
I=4
1
2
z 6z + 1
(z z1 )(z z2 )
2iz(6 z z )

con z1 = 3 2 2 y z2 = 3 + 2 2.

z1

z2

Figura 11.5: Camino de integracion ejemplo I.

Notemos que el camino da dos vueltas en torno al crculo.


I = 2i 2i Res = 2i 2i
z=z1

,
(3 2 2 3 2 2)

el dos en la u
ltima fraccion corresponde a que las vueltas son dos.

2
I = 4 = 2 .
4 2
Finalmente
Z

d
=

2
1 + sen2

(11.10)

CAPITULO 11. RESIDUOS.

168
Ejemplo II Evaluemos la integral

Z
I=
0

x
dx .
1 + x2

Sea z lo que se obtiene por prolongacion hacia elsemiplano superior y luego en torno
.
al origen. Elegimos ad-hoc la univaluacion del smbolo

0 < ang * z <


0

Figura 11.6: Eleccion de rama.

Consideremos el siguiente camino de integracion




+i

r<1




R>1

Figura 11.7: Camino de integracion ejemplo II.


Los polos de 1/1 + z 2 son +i y i. Por el teorema del residuo tenemos
I

X
z
z
dz
=
2i
Res
.
z=z 1 + z 2
1 + z2
=1

z
1
Res
=
=
i
Res
i Res
z=+i 1 + z 2
z=+i 1 + z 2
z=+i

z
i
Res
=
.
2
z=i 1 + z
2i

1
1

zi z+i


=

i
2i

11.5. EJEMPLOS.

169

Evaluemos las integrales sobre ambas circunferencias, la de radio r y la de radio R.


Tenemos
I




2R R 1
0 ,


R2 1 R
CR

donde hemos usado | 1 + z 2 | | z |2 1. Para la segunda integral


I


2r r 1 0 .


1 r2 r0
Cr
Ademas,
Z
r

x
dx
1 + x2

x
dx +
1 + x2

I
+
Cr

= 2i
CR

!
i
i

.
2i
2i

En el lmite r 0 y R tenemos
Z

x
(1 + i)
2
2
dx
=
(
i

i)
=

i(1 i) = (1 i) = .
2
1+x
2
2
0
Finalmente

Z
0

x
dx =
2
1+x
2

Ejemplo III Evaluemos la integral


Z

I=
1

dx

dx .
(1 + x2 ) 1 x2

No debemos incluir puntos de ramificacion en la curva.

+i

1 z2 > 0

+1
i

R
1 z2 < 0

Figura 11.8: Camino de integracion ejemplo III.


Tenemos por el teorema del residuo
I
2
X
dz
1

= 2i
Res
.
2
2
z=z (1 + z 2 ) 1 z 2
(1 + z ) 1 z
=1

(11.11)

CAPITULO 11. RESIDUOS.

170
Separemos la integral por pedazos
Z

+1r

2
1+r

dx

(1 + x2 ) 1 x2

| z |=R

+
Cr centro 1

Cr centro +1

Acotemos la integrales
I





2R Max



CR

2
(1 + z ) 1 z 2

= 2i
CR

2
X
=1

Res

z=z

.
(1 + z 2 ) 1 z 2



2R 1 1
0 ,

R2 1 R2 1 R

donde hemos usado | 1 z 2 | | z 2 | 1. Las integrales con centro en z = 1 y radio r


I





1
1

2R Max
0 .




| z1 |=r (1 + z 2 ) 1 z
r r0
Cr

Luego en el lmite r 0 y R tenemos


Z

+1

2
X
1
dx

Res
= i
.
2
2
2
z=z (1 + z ) 1 z 2
(1 + x ) 1 x
=1

Los residuos
1
1
1
1
1
1

=
=+
2
2
(z + i)(z i) 1 z
2i 1 i
2i (+ 2)
1
1
1
1
1
1

,
= p
=
Res
2
2
z=i (z + i)(z i)
2i 1 (i)
2i ( 2)
1z
Res

z=+i

Ver figura 11.8 para entender el signo de la raz. Finalmente tenemos


Z

dx

dx = i 2 =
(1 + x2 ) 1 x2
2 2i
2

Ejemplo IV Evaluemos la integral


Z p1
x
I=
dx ,
1+x
0

(11.12)

0<p<1.

Consideremos la integral
I

z p1
dz .
1+z

Tenemos que z = 0 es un punto de ramificacion de z p1 : z p1 = e(p1) log z , multivaluada.


Tomamos log z = Log | z | + i con 0 < < 2, ahora si
z p1 = e(p1) Log| z | ei(p1) ,
con 0 < < 2, es univaluada. Tomemos la lnea de corte a lo largo del eje real. El integrando
tiene un polo simple en z = 1 dentro del contorno mostrado en la figura 11.9.

11.5. EJEMPLOS.

171







1
R

Figura 11.9: Camino de integracion ejemplo IV.

Evaluemos el residuo en z = 1 = ei
z p1
= ei(p1) .
z=1 1 + z
Res

Luego
I

z p1
dz = 2iei(p1) ,
1+z

separando las integrales


Z R p1
Z 2
Z
Z 0
x
(Rei )p1 iRei d
(xe2i )p1
(ei )p1 iei d
dx+
+
dx+
= 2iei(p1) .
2i
1 + Rei
1 + ei
1+x
0
R 1 + xe
2
Acotamos


Z 2

Rp1
(Rei )p1 iRei d

2R
0 , p < 1 ,


1 + Rei
R 1 R
0


usando 1 + Rei R 1. La otra integral en torno al origen
Z 2

i p1
i
p1


(e
)
ie
d

2
0 ,


1 + ei
1 0
0


usando 1 + ei 1 . Luego
Z p1
Z 0 p1 2i(p1)
x
x e
dx +
dx = 2iei(p1)
2i
1+x
1 + xe
0

Z p1
Z p1 2ip
x
x e
dx
dx = 2ieip ,
1+x
1+x
0
0
Z p1

x
1 e2ip
dx = 2ieip ,
1
+
x
0
Z p1
eip
1
x
dx = 2i
= 2i ip
.
2ip
1+x
1e
e
eip
0

CAPITULO 11. RESIDUOS.

172
Finalmente, tenemos
Z
0

11.5.1.

xp1
dx =
1+x
sen(p)

(11.13)

Residuos de un polo de orden m.

Si f (z) tiene un polo de orden m en z = z0 , donde m es un entero positivo, entonces el


residuo de f (z) en z = z0 es
Res f (z) =

z=z0

dm1
1
lm m1 [(z z0 )m f (z)]
(m 1)! zz0 dz

(11.14)

donde la derivada de orden cero de la funcion se entiende como la funcion misma y 0! = 1.

11.6.

Valor principal de Cauchy.

Consideremos la funcion u(x) = 1/x. No podemos integrar directamente


s podemos hacer lo siguiente
Z
Z +1  Z +1
dx
dx
dx
lm
+
P
=0,
0
x
x
1 x
+
1

R1
1

dx/x. Pero

esto corresponde a tomar el valor principal de Cauchy de la integral, para un tan peque
no
como se quiera. Consideremos el grafico siguiente:

S
a

x0

Figura 11.10: Camino de integracion.

Sea f univaluada y holomorfa en un dominio simplemente conexo en el cual se encuentra


la curva .
Consideremos el desarrollo de Laurent en x0 :
f (z) =

a1
+ a0 + a1 (z x0 ) + .
z x0

Definici
on 11.2 Definamos el valor principal de Cauchy como
Z x0

Z b
Z b
P f = lm
f+
f .
a

x0 +

(11.15)

11.6. VALOR PRINCIPAL DE CAUCHY.

173

Sea 1 una curva cerrada que no incluya a x0 , entonces


I
f (z) dz = 0 .
1

Sea 2 una curva cerrada que si incluye a x0 , entonces


I
f (z) dz = 2ia1 .
2

Consideremos
Z

a1 + a0 + iei d ,
ei | {z }
=

f=
S

=0 si 0

Z
f = i

lm

a1 d = ia1 .
0

Definici
on 11.3 Definamos el valor principal de Cauchy sobre la curva
I
Z 
Z
f f = 0 + ia1
P f = lm
0
1

SI

I
1
= i Res f =
f+
f .
z=x0
2
1
2

174

CAPITULO 11. RESIDUOS.

Captulo 12
Funciones Meromorfas.
versi
on final 1.1, 30 de Junio del 2003

Definici
on 12.1 Se llama funcion meromorfa a una funcion holomorfa en todo el plano,
salvo polos. Los polos no se pueden acumular en el plano.
Ejemplo Las funciones racionales

p(z)
con p(z) y q(z) polinomios
q(z)

p(z)
r(z)
= P (z) +
,
q(z)
q(z)

gr(r) < gr(q) .

Nos interesa el u
ltimo termino solamente. Los lugares nulos de q(z): z1 , z2 , . . . , zk (distintos)
r
son los polos de . La correspondiente descomposicion en fracciones parciales
q
c11
c12
c13
c1m1
r(z)
=
+
+
+ +
+
2
3
q(z)
z z1 (z z1 )
(z z1 )
(z z1 )m1
c22
c2m2
c21
+
+

+
+
+
z z2 (z z2 )2
(z z2 )m2
+ +
ck2
c1mk
ck1
+
+ +
.
+
2
z zk (z zk )
(z zk )mk
Ejemplo La funcion
cot z =

1
z

z2
2!
z3
3!

+
+

1
(1 + potencias crecientes de z) .
z

1
El Res cot z = 1, lo que significa que la parte principal en z0 = 0 es .
z=0
z
Sabemos, ademas, que sen z = 0 solo si z = k, para k = 0, 1, 2, . . .. Las respectivas
1
1
1
partes principales son ,
,
, . . . . Si sumamos las partes principales en k
z z z 2
tenemos
1
1
2z
+
= 2
.
z k z + k
z k22
175

CAPITULO 12. FUNCIONES MEROMORFAS.

176

La idea es reconstruir la funcion a partir de las partes principales

1 X
2z
cot z = +
.
+ (z)
2
| {z }
z k=1 z k 2 2
?

(12.1)

funci
on entera

Utilizaremos analisis de Fourier para validar la expresion (12.1). Consideremos la funcion


cos xt con x R pero x 6= 0, 6= 1, 6= 2, . . .

cos xt =

a0 X
+
a cos t ,
2
=1

donde los coeficientes de Fourier vienen dados por


Z
2
a =
cos xt cos t dt .
0
Calculemos los coeficientes
Z
21
(cos(x + )t + cos(x )t) dt
a =
2 0


1 sen(x + ) sen(x )t
=
+

x+
x



1 (1) sen x (1) sen x


=
+

x+
x
2x sen x
.
= (1)
(x2 2 )
Evaluamos en t = , tenemos cos t = cos = (1) . Luego
(
)

sen x 1 X 2x
cos x =
+
.

x =1 x2 2
Hacemos una prolongacion analtica:

1 X 2z
cos z
+

= cot z = +
sen z
z =1 z 2 2

0 }
| {z

funci
on entera

La convergencia de la serie esta garantizada por el desarrollo:


Convergencia ordinaria en z0 :
z02
converge porque es esencialmente

P 1
.
2

1
,
2

177
Dentro del crculo | z | R hay una cantidad finita de polos. Tomemos en cuenta en la
serie solo los ndices suficientemente grandes > 2R.
2
2

z 2 2 | z |2 2 R2 > 2 = 3 2 .
4
4

Por lo tanto, los terminos de la serie:




1

z2 2
tiene como mayorante convergente


4 1

3 2 ,

P 1
.
2

A partir de lo anterior podemos encontrar un desarrollo para sen z/z como producto
infinito, sabemos que
1
d
log z =
dz
z
luego
cos z
d
log sen z =
= cot z ,
dz
sen z
y
 2

z2
d
2z
2z
2
log
= 2 = 2
.
=
2
2
2
dz

z 2
Combinando
 2


X
d
d
d
z2
cot z =
log sen z =
log z +
log
,
2
dz
dz
dz

=1
integrando
log sen z = C + log z +


log

=1

exponenciando
c

sen z = e z


Y
=1

z2
1 2

2 z2
2

dividamos por z a ambos lados




Y
sen z
z2
c
=e
1 2
z

=1
y tomemos el lmite z 0
= ec ,
luego


sen z Y
z2
=
1 2 .
z

=1


,

CAPITULO 12. FUNCIONES MEROMORFAS.

178

Teorema 12.1 Mittag-Leffler


Se pueden prescribir polos en z1 , z2 , . . ., en cantidad infinita solo sometidos a la condicion
de que no se acumulen en el plano.
En cada uno se puede prescribir una parte principal
pj (z) =

cj,mj
cj,1
cj,2
+
+ +
.
2
z zj (z zj )
(z zj )mj

Entonces es posible construir una funcion meromorfa que tiene exactamente estas singularidades en el plano. Su representacion puede darse en forma de una descomposicion en fracciones
parciales. La funcion meromorfa mas general con dichas particularidades se obtiene sumando
cualquier funcion entera.
Ejemplo
Consideremos una red {m1 + n2 }, con m, n Z

2
1

Figura 12.1: Malla.

prescribir
pj (z) =

1
,
(z zj )2

polos de segundo orden, en particular p0 (z) =

X
1
f (z) = 2 +
z
j=1

1
. Escribimos un intento de la funcion
z2
1
1
2
2
(z zj )
zj


,

se puede demostrar que esta serie converge. Reemplacemos la malla



X 
1
1
1
f (z) = 2 +

,
z
(z m1 n2 )2 (m1 + n2 )2
06=m,nZ

179
derivemos
0

f (z) = 2

X 
m,nZ

= 2

X 
m,nZ

1
(z (m 1)1 n2 )3

1
((z + 1 ) m1 n2 )3

f 0 (z + 1 ) .

Esto muestra que 1 es perodo de f 0 y de la misma manera podemos probar que 2 tambien es
perodo de f 0 . Luego, existen funciones doblemente periodicas. Integrando la relacion anterior
f (z) = f (z + 1 ) + C .
Si 0 6= m, n Z entonces 0 6= m, n Z, luego

X 
1
1
1
f (z) =
+

= f (z) ,
(z)2 06=m,nZ (z + m1 + n2 )2 (m1 + n2 )2
por lo tanto, f (z) es una funcion par. Evaluando en z = 21 tenemos
 
 
1
1
f
f
= 0 = C .
2
2
Luego 1 , 2 son tambien perodos de f . Una funcion periodica dada sugiere definir:
Definici
on 12.2 Malla primitiva es un par de perodos 1 , 2 tal que, todo perodo de la
funcion es combinacion lineal de 1 y 2 con coeficientes en Z.
Sea el par de perodos 1 y 2 la malla primitiva. Entonces cualquier otro par
  
 
1
n11 n12
1
=
,
2
n21 n22
2
y


1
2


=

n22

n21

n12

n11

 
1
,
2

donde n11 n22 n12 n21 = 6= 0. La condicion necesaria y suficiente es que todos los ij sean
n11 n22 n12 n21
1
divisibles por , lo cual implica

=
Z esto es cierto si y solo si = 1.
2
2

Teorema 12.2 Toda funcion entera doblemente periodica, es necesariamente constante.


Demostraci
on
| f (z) | < K ,
en todo el plano, luego la funcion es constante.
q.e.d.

180

CAPITULO 12. FUNCIONES MEROMORFAS.

Captulo 13
La funci
on .
versi
on final 1.2, 1 de Julio del 2003

13.1.

Definici
on.

El factorial definido por


n! = 1 2 3 n
(n + 1)! = (n + 1) n!
Definici
on 13.1 Definamos la funcion
(n + 1) = n! = n(n 1)! = (n)n ,
para n = 0, 1, 2, 3, .

Figura 13.1: Valores de la funcion .

Nuestras exigencias seran


i)

(z) holomorfa, en lo posible.

ii)

(z + 1) = (z) z, identidad funcional.

iii)

(1) = 1.
181

(13.1)

.
CAPITULO 13. LA FUNCION

182

13.2.

Exploraci
on.

Supongamos que existe tal (z), entonces


1
1
(z) = (z + 1) = (1 + potencias crecientes de z)
z
z
Proposici
on 13.1 La funcion (z) tiene polos simples en 0, 1, 2, . . . , n, . . ., con residuos
(1)n
en z = n,
.
n!
Demostraci
on Es cierto para n = 0. Por hipotesis inductiva, lo suponemos valido para
n = k, polo en z = k y probamos para k + 1, es decir, polo z = (k + 1). Por hipotesis,
(z) =

(1)k 1
+ a0 + a1 (z + k) + ,
k! z + k

construimos

1
+ potencias crecientes de (z + k + 1)

k+1


(1)k
1

+ a0 + a1 (z + k + 1) + ,
k! z + k + 1

1
(z + 1) =
z

usando la identidad funcional


(1)k+1
1
1
(z + 1) = (z) =
+ potencias crecientes de (z + k + 1) .
z
(k + 1)! z + k + 1
Luego la demostracion por induccion esta completa.
q.e.d.
Consideremos
log (z + 1) = log z + log (z) ,
derivando

0 (z + 1)
1 0 (z)
= +
.
(z + 1)
z
(z)
Definamos g(z) = 0 (z)/(z), luego
1
g(z) = + g(z + 1)
z
1
g(z + 1) =
+ g(z + 2) ,
z+1
combinandolas
1
1
g(z) =
+ g(z + 2) ,
z z+1
derivando
1
1
g 0 (z) = 2 +
+ g 0 (z + 2) ,
z
(z + 1)2
iterando una vez mas
1
1
1
g 0 (z) = 2 +
+
+ g 0 (z + 3) .
z
(z + 1)2 (z + 2)2

13.3. DEFINICIONES PRECISAS.

13.3.

183

Definiciones precisas.

Consideremos la expansion infinita

X
1
1
g (z) = 2 +
.
z
(z + )2
=1
0

Converge en el crculo | z | < R. Integremos g 0 (z) termino a termino


Z z
X
1
d
g(z) = C +
,
z
( + )2
=1 o
por un camino tal que evita los polos
z 


Z z
d
1
1
1
+
.
=
=
2
+ 0
z+
o ( + )
Recordando la definicion


X
d
1
1
1
log (z) = g(z) = C

,
dz
z
z
+

=1
integrando
log (z) = C1 log z Cz


X

log(z + ) log()

=1

ya que la integral
Z
o

exponenciando

1
1

z
,


z

d = log( + )
,
o


Y
z
z 1
1
e 1 +
,
(z) = K eCz
z

=1

donde K = eC1 . Tomamos el cociente de las funciones ,


z+1

(z + 1)
z
eCz Y e
=z=
z
(z)
z + 1 eC(z+1) =1 e

+z

+z+1

luego despejando la constate que queremos determinar

1 Y 1 +z
e =
e
z + 1 =1 + z + 1
C

1
(z + 1)(z + 2) (z + n)
z+1+n
lm e1 e1/2 e1/3 e1/n

z + 1 n
(z + 2)(z + 3) (z + 1 + n)
n+1

haciendo las simplificaciones y sacando logaritmo




1
1
C = lm 1 + + + log(n + 1)
n
2
n

.
CAPITULO 13. LA FUNCION

184

2
u= 1
x+1
u= 1
x

Figura 13.2: Acotando el lmite.

Los segmentos rojos (obscuros) son un area finita:




Z 
1
1
x

= log 2 .
dx = [log x log(1 + x)]0 = log
x 1+x
x + 1 1
0
podemos acotar el lmite que nos interesa


1
1
C = lm 1 + + + log(n + 1) < log 2
n
2
n
este lmite existe y es conocido como la constante de Euler-Mascheroni, 0.577.
Determinemos la otra constante, para ello formemos
n
 z z

Y
z
(z)
1
z

e
= lm exp + z log n lm
n
n
K
z
1 2
n
+z
=1

1
nz n!
lm
.
z n (z + 1) (z + n)

Evaluando en z = 1
(1)
n n!
n
= 1 lm
= lm
=1,
n 2 3 (1 + n)
n n + 1
K
luego K = 1. Determinadas las constantes podemos escribir expresiones para la funcion :
1
nz n!
lm
z n (z + 1)(z + 2) (z + n)

ez Y ez/
(z) =
z =1 1 + z

(z) =

(13.2)

Ambas expresiones son debidas a Gauss. La funcion es meromorfa tiene polos simples en
z = 0, 1, 2, 3, . . ..

13.3. DEFINICIONES PRECISAS.

185

Formemos el inverso de un producto de funciones





Y
Y
z
z
z2
1
2
= z (z)
1+
1
= z
1 2 ,
(z) (z)

=1
=1
pero z(z) = (1 z) luego
1
1
= sen z
(z)(1 z)

(13.3)

1
Evaluemos (13.3) para z = , tenemos
2
1
1
= ,
2
[(1/2)]

luego
 

=
2

(13.4)

A partir de este valor podemos evaluar


 


 
3
1
1
1
=
+1 =
=

2
2
2
2

 
 

3
3
5
3
+1 =

=
=
2
2
2
2

2
3 1
.
22

La expresion general


2n + 1
2


=

3 1
(2n 1)!!
2n 1
...
=

2
22
2n

20

10

-3

-2

-1

-10

-20

Figura 13.3: La funcion .

(13.5)

.
CAPITULO 13. LA FUNCION

186

2n + 1
2n 1
entonces 1 z =
luego
2
2

 

sen[(2n + 1) 2 ]
2n + 1
2n 1
(2n 1)!!
(z)(1 z) =

=
(1 z) =
,
2
2
2n

Si z =

donde hemos usado (13.3). Despejando la relacion anterior para (1 z) tenemos




2n 1
(1 z) =
2


=

1
(2)n
2n

=

(2n 1)!!
(2n 1)!! sen[(2n + 1) 2 ]

(13.6)

Para n = 1 tenemos (1/2) = 2 , para n = 2 tenemos (3/2) = 4 /3.


1
Sea z = luego
2

n n!
1 2 3n
2n+1
=
l
m
= lm 1 3
n.
n 1 3 5 (2n 1) 2n + 1
n
2n+1
22
2
Elevando al cuadrado, tomando el recproco y multiplicando por dos, tenemos
1 3 3 5 5 (2n 1)(2n 1) 2n + 1 1 2n + 1
2
= 2 lm
n

2 2 4 4 6 2n
2n 2 2n






Y
1
1
1
1
= 1 2
1 2
1 2 =
1
.
2
4
6
(2)2
=1
Este u
ltimo resultado es conocido como el producto de Wallis.

Y
=1

13.4.

1
1
(2)2


=

(13.7)

Representaciones integrales de .

Consideremos tz , con t > 0, valor principal de ez Log t . Derivemos respecto a t


z z z Log t
t = e
= ze Log t ez Log t = ze(z1) Log t = ztz1 .
t
t
Consideremos la integral siguiente
Z
0

1


= 1 .

z+
premisa x > 0 m
odulo = 1

1
1

t
1 (z+) Log t
1
z+1
Log t
iy Log t

t
dt =
=
e
=
e|(x+)


{z } e| {z }
z+ 0
z+
z
+

0
z+

(1) 1
con = 0, 1, 2, 3, . . ..
! z +
Z
Z 1X

X
X
(1) 1 z1
(1) 1
(t) z1
=
t t dt =
t dt .
! z +
!
!
0
0 =0
=0
=0

Las partes principales de (z) son:

13.4. REPRESENTACIONES INTEGRALES DE .

187

Luego
1

et tz1 dt + funcion entera.

(z) =
0

et tz1 dt.

Afirmaci
on: La funcion entera es
1

Afirmaci
on:

t x1

e t

dt = lm

t
1
n

n

tx1 dt .

Relacion con (x). Hagamos el cambio de variable = t/n y dt = nd


Z
I=
0

t
1
n

n

x1

Z
dt =

x1 x1
(1 )n |{z}
n nd ,
|
{z
}
=0
0
v

integrando por partes


Z 1


x 1
n
x
x
n1
n
d .
I=n
(1 )
(1 )
+

x 0 x =0 | {z } |{z}
0
u

Nuevamente integrando por partes


)
(

Z
x+1 1
n1 1
xn
n2 x+1
n1
I=n
(1 ) d .
(1 )
+
x
x + 1 0 x + 1 =0
Se ve una clara ley de formacion, despues de integrar n veces por partes:
 x+n 1
n(n 1) 1

nx n!
I=n
(x) .
=
x(x + 1) (x + n 1) x + n 0 x(x + 1) (x + n 1) n
x

Obtuvimos pues
Z

et tx1 dt = (x) ,

para x > 0.

(13.8)

Haciendo una prolongacion analtica al plano complejo


Z

et tz1 dt = (z)

para Re[z] > 0.


Hagamos una observacion
 
Z
Z

1
2
t 1/2

= =
e t
dt =
e d .
2
0
0

(13.9)

.
CAPITULO 13. LA FUNCION

188

13.5.

La funci
on Beta.

Estudiemos el producto de dos funciones ,


Z
Z
t z1
eu us1 du ,
e t dt
(z) (s) =
0
Z0 Z
e(t+u) tz1 us1 dt du .
=
0

para Re[z] > 0 y Re[s] > 0

Hagamos el cambio de variable t = t y u = v t, el Jacobiano de la transformacion




(t, u) +1 0
=
=1>0.
(t, v) 1 1
Escribiendo la integral en las nuevas variables
Z
Z
v
e
(z) (s) =
v=0

v
z1

s1

(v t)


dt dv ,

t=0

ahora hacemos el cambio de variable = t/v y la integral se transforma


Z

(z) (s) =

Z

z1 z1 s1

s1

(1 )


v d

dv .

=0

v=0

Luego
Z
(z) (s) =

v z+s1

e v
v=0
|
{z

(z+s)

Z
dv
}

z1 (1 )s1 d .

=0

Definici
on 13.2 Definimos la funcion B(z, s) a partir de
(z) (s)
B(z, s) = B(s, z) =
=
(z + s)

z1 (1 )s1 d

(13.10)

para Re[z] > 0 y Re[s] > 0.

13.5.1.
i)

Casos particulares.

Sea s = 1 z luego (z + s) = (1) = 1, lo que implica


1

Z
(z)(1 z) =
0

z1

d =
,
z
(1 )
sen z

Re[z] > 0 .

Luego
B(z, 1 z) =

sen z

(13.11)

BETA.
13.5. LA FUNCION
ii)

189

Sea s = n + 1, para Re[z] > 0


Z 1
z1 (1 )n d =
0

n!
= B(z, n + 1) ,
z(z + 1) (z + n)

lo que implica
lm nz B(z, n + 1) = (z) .

n
iii)

Sea z =

(13.12)

n+1
1
ys=
, luego
2
2

 Z 1p
(1 )n1
1 n+1

B
,
=
d ,
2
2

Sea = sen2 con 0 , luego d = 2 sen cos d y 1 = cos , haciendo


2
este cambio de variable




Z /2
21 n+1
1 n+1
2

=2
cosn d .
B
,
=
n
2
2
2 +1
0

190

.
CAPITULO 13. LA FUNCION

Captulo 14
Representaci
on Conforme.
versi
on final 1.2, 11 de Julio del 2003

14.1.

Introducci
on.

Consideremos la transformacion o mapeo w = f (z)


f
z
y

v
S

w0

z0

Figura 14.1: Transformacion w = f (z).

Consideremos la curva C en el plano z. Sea f analtica en z0 y tal que f 0 (z0 ) 6= 0. Sea S


la curva correspondiente al mapeo de la curva C, f (z0 ) = w0 .
Si es el angulo de la tangente en z0 y si es el angulo de al tangente en w0 entonces
= + 0 ,

(14.1)

donde 0 = Ang f 0 (z0 ). Es decir, las tangentes rotan en un angulo 0 fijo siempre que f sea
analtica en z0 y f 0 (z0 ) 6= 0.

14.2.

Representaci
on conforme.

Puesto que el angulo 0 esta determinado por la funcion f en el punto z0 , es el mismo


para toda curva que pase por z0 .
191

CONFORME.
CAPITULO 14. REPRESENTACION

192

C1

w
v

S1

C2

S2

w0

z0
x

Figura 14.2: Par de curvas bajo la transformacion w = f (z).

Veamos lo que pasa con el angulo entre las curvas en el plano z y en el plano w,

1 = 1 + 0
= 1 2 = 1 2 = .
2 = 2 + 0
En tal caso la representacion es conforme.
Teorema 14.1 En cada punto de un dominio donde f es analtica y f 0 (z) 6= 0, el mapeo
w = f (z) es conforme, i.e. preserva los angulos orientados.
Notemos que
| w |
= | f 0 (z0 ) | ,
z0 | z |
lm

es decir, la transformacion magnifica la longitud de trazos cortos que pasan por z0 en un


factor de | f 0 (z0 ) |.
Definici
on 14.1 Un punto donde f 0 (z0 ) = 0 se llama un punto crtico de la transformacion.
Por ejemplo, el punto z0 = 0 es un punto crtico de la transformacion w = z 2 + 1. Usemos
una forma polar para z = rei y w 1 = ei , entonces ei = r2 e2i , luego un rayo que salga
con un angulo c desde z = 0 se mapeara en un rayo que sale con un angulo 2c desde el punto
w = 1.
Definici
on 14.2 Un mapeo isogonal es aquel que preserva el angulo pero no su orientacion.
C1
S2
C2

z0

w0

Figura 14.3: Mapeo isogonal.

S1


14.3. TRANSFORMACIONES DE FUNCIONES ARMONICAS.

193

Por ejemplo, w = z es un reflexion sobre el eje real y es isogonal.


Ejemplo Toda transformacion conforme debe mapear curvas ortogonales sobre curvas ortogonales.
Ejemplo Consideremos la transformacion w = z 2 = x2 y 2 + 2ixy
w=z2
z

/4

2i
/4
i

1+ i

Figura 14.4: Mapeo w = z 2 .

En el plano w tenemos una parabola



u = 1 y2
v = 2y

parametro y, (x = 1) ,

o bien, v 2 = 4(u 1).


Si la direccion de y creciente se toma como el sentido positivo de las dos lneas en z
entonces el angulo entre ellas es /4.
Veamos que pasa en el plano w: cuando y > 0 e y crece a lo largo de la lnea y = x,
entonces v crece a lo largo de la lnea u = 0, puesto que v = 2y 2 , y por lo tanto el sentido
positivo de la imagen de la lnea x = y es hacia v creciente. Para la parabola vemos que v
tambien crece cuando y > 0, crece ya que v = 2y, y por lo tanto el sentido es el indicado en
la figura 14.4.
Es claro que el angulo entre las curvas en z es igual a /4, es decir, toda curva que pase
por 1 + i rota en /4 frente a la transformacion w = z 2 .

El coeficiente de magnificacion es | f 0 (1 + i) | = 2 | 1 + i | = 2 2.

14.3.

Transformaciones de funciones arm


onicas.

Un problema viejo y prominente: encontrar una funcion que sea armonica en un dominio
dado y que satisfaga condiciones dadas (prescritas) en el borde del dominio.
Problema de condiciones de borde de primera clase o problema de Dirichlet: prescripcion
de los valores de la funcion sobre el borde.
Problema de condiciones de borde se segunda clase o problema de Neumann: prescripcion de los valores de la derivada normal de la funcion.

CONFORME.
CAPITULO 14. REPRESENTACION

194

Existen modificaciones y combinaciones de los dos problemas anteriores.


Toda funcion analtica proporciona un par de funciones armonicas:
f (x + iy) = u(x, y) + iv(x, y) ,
donde u y v satisfacen
2u 2u
+
=0,
x2 y 2

2v 2v
+
=0,
x2 y 2

la funcion u se llama la armonica conjugada de v y viceversa.


Ejemplo Consideremos la funcion
f (z) = eiz = u(x, y) + iv(x, y) ,
las funciones u, v corresponden a
u(x, y) = ey cos x ,

v(x, y) = ey sen x ,

las funciones u, v son armonicas en todo el plano.

v=0
y

v=0

v=0

v= sen x

Figura 14.5: Condiciones de borde de primera clase (Dirichlet).

Condiciones de borde:
v(0, y) = 0 ,

v(, y) = 0 ,

v(x, 0) = sen x ,

lm v(x, y) = 0 ,

y ademas v(x, y) satisface:


2v 2v
+
=0.
x2 y 2
Este procedimiento necesita muchas veces ayuda adicional ya que no siempre es simple.


14.3. TRANSFORMACIONES DE FUNCIONES ARMONICAS.

195

Consideremos una funcion H(x, y) armonica. Sean u, v dos nuevas variables tales que
z = x + iy sea una funcion analtica de w = u + iv, es decir,
z = f (w) .
Sabemos que podemos encontrar una funcion G(x, y) armonica conjugada de H(x, y) y en
tal caso H + iG es una funcion analtica de z. Puesto que z es una funcion analtica de w se
tiene que H + iG es tambien una funcion analtica de w en tal caso
2H 2H
+
=0.
u2
v 2
Establecemos entonces el siguiente teorema:
Teorema 14.2 Toda funcion armonica de x, y se transforma en una funcion armonica de u,
v bajo el cambio de variable x + iy = f (u + iv) donde f es una funcion analtica.
Consecuencia: una funcion que es armonica en una vecindad permanece armonica bajo el
cambio de variable que proviene de la transformacion
w = F (z) ,
donde F es analtica y F 0 (z) 6= 0 en la vecindad, puesto que la funcion inversa z = f (w) es
analtica.
Ilustraci
on: La funcion H(x, y) = ey sen x es armonica en alguna region del plano z. Si
transformamos z = w2 tenemos
x = u2 v 2 ,

y = 2uv ,

y por lo tanto la funcion


H(u, v) = e2uv sen(u2 v 2 ) ,
es armonica en la region correspondiente del plano w
all
z

Figura 14.6: Region donde H(u, v) es armonica.

2H 2H
+
=0.
u2
v 2

CONFORME.
CAPITULO 14. REPRESENTACION

196

14.4.

Transformaciones de las condiciones de borde.

H
Condiciones tpicas para H armonica: H = cte. o
= cte., etc. sobre porciones del
n
borde de una region.
Algunas de estas condiciones permanecen inalteradas frente a una transformacion conforme.
Definici
on 14.3 Curvas de nivel son aquellas sobre las cuales H(x, y) = cte.
Haciendo el cambio de variable: x = x(u, v) e y = y(u, v), si originalmente tenamos
H(x, y) = cte., ahora tenemos que H[x(u, v), y(u, v)] = cte.
z
y

H=c

w
v

H=c

Figura 14.7: Mapeo de una condicion de borde.


La condicion se traslada al problema transformado.
Si la derivada normal de H se anula a lo largo de alguna curva en z entonces la derivada
normal, expresada en terminos de u y v, tambien se anula a lo largo de la curva correspondiente en w.
H v H u
H
= 0 implica que en w tenemos
+
= 0.
Ejemplo En z tenemos
x
v x
u x
H
Veamoslo con
, la derivada normal. Para ello consideremos las siguientes propiedades
n
del gradiente de una funcion H(x, y).
i)

La direccion del vector gradiente de H(x, y) es aquella en la cual esta funcion vara mas
rapido.

ii)

La magnitud del vector gradiente es el valor de aquella maxima variacion.

iii)

La proyeccion del vector gradiente de H en una determinada direccion es la derivada


direccional de la funcion H en tal direccion. En particular
~ x = H ,
~ y = H ,
H
H
x
y
por lo tanto podemos escribir en z,
~ = 1 H + i H .
H
x
y

14.4. TRANSFORMACIONES DE LAS CONDICIONES DE BORDE.


iv)

197

El gradiente es perpendicular a la curva de nivel H = cte. en cada punto, en efecto


H
H
~ d~r = 0 implica que H
~ es perpenH(x, y) = cte. implica dH =
dx +
dy = H
x
y
dicular a las curvas de nivel.

Supongamos que la derivada normal de H(x, y) es igual a cero sobre alguna curva C, es
dH
decir,
= 0 sobre C.
dn

z
y

w
v

H=c

H=c
x

Figura 14.8: Curvas ortogonales.


dH
~
es la proyeccion de H
sobre la normal, la normal sobre C debe ser
dn
~
perpendicular a H
sobre todo punto de la curva. Por lo tanto, la tangente a C coincide
con el gradiente y usando la ultima propiedad enumerada del gradiente C es ortogonal a las
curvas de nivel H(x, y) = c. La imagen S de C es, bajo transformacion conforme, ortogonal
a las curvas de nivel
H[x(u, v), y(u, v)] = c ,
Puesto que

que son las imagenes de H(x, y) = c. Por lo tanto, la derivada normal de H en w, sobre la
curva S, debe ser igual a cero.
De todo lo anterior podemos formular el siguiente teorema:
Teorema 14.3 Bajo una transformacion z = f (w), donde f es analtica y f 0 (w) 6= 0, las
dH
condiciones de borde de los tipos H = c o
= 0, sobre una funcion armonica H, donde
dn
c = cte. permanecen inalteradas.
Ejemplo Consideremos la funcion armonica
H =2x+

x2

x
+ y2

La transformacion z = ew implica x + iy = eu+iv = eu eiv es decir



x = eu cos v
= x2 + y 2 = e2u ,
y = eu sen v

CONFORME.
CAPITULO 14. REPRESENTACION

198

z
H=2

w
z=ew

x2+y2=1
1 x

Figura 14.9: Mapeo de una particular condicion de borde.

luego

eu cos v
= 2 eu cos v + eu cos v ,
2u
e
2
para la imagen de la circunferencia x + y 2 = 1, que corresponde a la recta u = 0, se tiene
H = 2 eu cos v +

H = 2 cos v + cos v = 2 .
Vemos que la condicion H = 2 sobre el contorno x2 + y 2 = 1 se mantiene sobre su imagen
u = 0 en el plano w.

14.5.

Aplicaciones de la representaci
on conforme.
Solido con conductividad termica .
Flujo estacionario de calor, la Temperatura en el interior del solido, T = T (x, y),
satisface

2T
2T
+
=0.
x2
y 2
x

Figura 14.10: Geometra del solido.

(14.2)

Es decir, T es una funcion armonica de x,


y en el dominio definido por el interior del
solido.

Definici
on 14.4 Las curvas isot
ermicas satisface T (x, y) = c, con c una constante. Estas
~ es perpendicular a la isotermica.
son las curvas de nivel de la funcion T . Claramente T
Si S(x, y) es la funcion armonica conjugada de T (x, y), entonces las curvas S(x, y) = c
tiene a los vectores gradientes como sus tangentes, estas curvas son las lneas de flujo.
F (x, y) = T (x, y) + iS(x, y)

(14.3)

Tal que Re[F ] = cte. corresponden a las isotermicas y Im[F ] = cte. corresponden a las lneas
de flujo de calor.

14.5. APLICACIONES

199
T
isotrmica

T(x,y)=c

lneas de flujo

S(x,y)=c

Figura 14.11: Curvas ortogonales.

14.5.1.

Temperaturas estacionarias en una pared semi-infinita.

Debemos determinar T (x, y) con las


condiciones de borde dada en la figura 14.12.
La funcion T (x, y) esta acotada en toda
esta region, en particular para y .
El problema matematico a resolver es
el siguiente:

y
T=0




2T 2T
+
=
0
,

<
x
<
,
y
>
0
.
x2 y 2
2
2
Con las condiciones de borde
 
 
T ,y = T
,y = 0 ,
2
2

T=0

T=0

/2

/2

T= 1

Figura 14.12: Pared semi-infinita.


y>0,



< x < ,y > 0 ,


2
2
| T (x, y) | < M , con M = cte.

T (x, 0) = 1 ,

Tal que T 0 cuando y .


Estamos frente a un problema de Dirichlet para un franja semi-infinita. Las condiciones
son del tipo T = c, invariantes frente a transformaciones conformes. Es difcil descubrir una
funcion analtica cuya parte real o imaginaria satisfaga las condiciones de borde se
naladas
arriba. Realizaremos entonces una transformacion conforme para obtener una region y un
problema suficientemente simple de modo que la funcion buscada resulte evidente.
Consideremos la transformacion z 0 = sen(z) = sen x cosh y + i cos x senh y
Ahora usando la transformacion
w = Log

r1
z0 1
= Log + i(1 2 ) ,
0
z +1
r2

0 < 1 < , 0 < 2 < .

(14.4)

Una funcion armonica de u, v que es igual a cero para v = 0, igual a uno para v = y
acotada en la franja es claramente,
1
T = v,
(14.5)

w
ya que corresponde a la parte imaginaria de la funcion analtica f (w) = .

CONFORME.
CAPITULO 14. REPRESENTACION

200
z

z= sen z

z
r2

T=0

T=0

12

r1

/2

T= 1

/2

x
T=0 1

T= 1

isoterma

x
T=0

Figura 14.13: Transformacion conforme.

v
i

T= 1

T=0

T=0

Figura 14.14: Transformacion conforme w = Log[(z 0 1)/(z 0 + 1)].

Combinando a las coordenadas x0 e y 0 del plano z 0 por medio de la transformacion


0

0
z 1
z0 1
+ i Ang z 1 ,
w = Log 0
= Log 0
(14.6)
z +1
z +1
z0 + 1
tenemos que

v = Ang

x0 1 + iy 0
x0 + 1 + iy 0

o bien

x02 + y 02 1 + 2iy 0
= Ang
(x0 + 1)2 + y 02


2y 0
v = arctan
x02 + y 02 1
donde la funcion arctan va entre 0 y puesto que


Ang


,


,

z0 1
= 1 2 ,
z0 + 1

y los angulos son los indicados en la figura 14.13. Luego




1
2y 0
T = arctan
.

x02 + y 02 1

(14.7)

z0 1
v
es analtica en y 0 > 0. Puesto que la funcion T =
es
0
z +1

analtica en la franja, la funcion (14.7) debe ser armonica en y 0 > 0. Las condiciones de borde
deben ser las mismas en las partes correspondientes de los bordes.

La transformacion w = Log

14.5. APLICACIONES

201

Isotermas del plano z 0 : la condicion T = c con 0 < c < 1, tenemos


x02 + y 02

2
y0 1 = 0 ,
tan c

las cuales corresponden a circunferencias con centro en el eje y 0 y que pasan por los puntos
(1, 0).
Volviendo al problema original, z 0 = sen z luego tenemos
x0 = sen x cosh y
y 0 = cos x senh y ,
luego
T (x, y) =
=
=
=


2 cos x senh y
arctan
sen2 x cosh2 y + cos2 x senh2 y 1


2 cos x senh y
arctan
cosh2 cos2 x(cosh2 y senh2 y) 1


2 cos x senh y
arctan
senh2 y cos2 x


2 cos x/ senh2 x
arctan
,
1 (cos x/ senh y)2

finalmente
T (x, y) =

cos x
2
arctan
,

senh y

0T 1.

(14.8)

Puesto que sen z es analtica la transformacion z 0 = sen z asegura que la funcion (14.8)
sera armonica en la franja /2 < x < /2, y > 0. Ademas, se mantendran las condiciones
de borde. Mas a
un, | T (x, y) | 1 en la franja. Por lo tanto, (14.8) es la funcion buscada.
Las isotermas corresponden a T = c es decir dado (14.8)
cos x = tan

c
senh y ,
2

cada una de las cuales pasa por los puntos (/2, 0). La lneas de flujo S(x, y) = cte., con S
la funcion armonica conjugada de T (x, y).

202

CONFORME.
CAPITULO 14. REPRESENTACION

Captulo 15
Ecuaciones diferenciales.
versi
on final 2.1 7 de Julio del 20031

15.1.

Ecuaciones diferenciales parciales, caractersticas


y condiciones de borde.

En Fsica el conocimiento de la fuerza en una ecuacion de movimiento usualmente conduce


a una ecuacion diferencial. Por lo tanto, casi todas las partes elementales y numerosas partes avanzadas de la Fsica teorica estan formuladas en terminos de ecuaciones diferenciales.
Algunas veces son ecuaciones diferenciales ordinarias en una variable (ODE). Mas a menudo
las ecuaciones son ecuaciones diferenciales parciales (PDE) en dos o mas variables.
Recordemos que la operacion de tomar una derivada ordinaria o parcial, es una operacion
lineal 2 (L)
d
d
d(a(x) + b(x))
=a
+b
,
dx
dx
dx
para ODE que involucran derivadas en una variable x solamente y no cuadraticas, (d/dx)2 ,
o potencias mayores. Similarmente, para derivadas parciales,
(x, y)
(x, y)
(a(x, y) + b(x, y))
=a
+b
.
x
x
x
En general
L(a + b) = aL() + bL() .

(15.1)

As, las ODE y las PDE aparecen como ecuaciones de operadores lineales
L() = F ,
donde F es una funcion conocida de una (para ODE) o mas variables (para PDE), L es una
combinacion lineal de derivadas, es una funcion o solucion desconocida. Cualquier combinacion lineal de soluciones es de nuevo una solucion; esto es el principio de superposici
on.
1

Este captulo est


a basado en el octavo captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.
2
Estamos especialmente interesados en operadores lineales porque en mecanica cuantica las cantidades
fsicas estan representadas por operadores lineales operando en un espacio complejo de Hilbert de dimension
infinita.

203

CAPITULO 15. ECUACIONES DIFERENCIALES.

204

Ya que la dinamica de muchos sistemas fsicos involucran solo dos derivadas, e.g., la aceleracion en mecanica clasica y el operador de energa cinetica, 2 , en mecanica cuantica,
las ecuaciones diferenciales de segundo orden ocurren mas frecuentemente en Fsica. [Las
ecuaciones de Maxwell y de Dirac son de primer orden pero involucran dos funciones desconocidas. Eliminando una incognita conducen a una ecuacion diferencial de segundo orden
por la otra.]

15.1.1.

Ejemplos de PDE.

Entre las PDE mas frecuentemente encontradas tenemos:


1. La ecuacion de Laplace, 2 = 0. Esta ecuacion muy com
un y muy importante aparece
en el estudio de
a. Fenomenos electromagneticos incluyendo electroestaticos, dielectricos, corrientes estacionarias y magnetoestatica.
b. Hidrodinamica (flujo irrotacional de lquidos perfectos y superficies de ondas).
c. Flujo de calor.
d. Gravitacion.
2. La ecuacion de Poisson, 2 = 4. En contraste a la ecuacion homogenea de Laplace,
la ecuacion de Poisson es no homogenea con un termino de fuente 4.
3. Las ecuaciones de onda (Helmholtz) y las ecuaciones de difusion tiempo independiente,
2 k 2 = 0. Estas ecuaciones aparecen en fenomenos tan diversos como
a. Ondas elasticas en solidos, incluyendo cuerdas vibrantes, barras y membranas.
b. En sonido o ac
ustica.
c. En ondas electromagneticas.
d. En reactores nucleares.
4. La ecuacion de difusion tiempo dependiente
2 =

1
.
a2 t

5. Las ecuaciones de onda tiempo dependiente,


2 =

1 2
.
c2 t2

La forma cuadridimensional que involucra el DAlembertiano, un analogo cuadridimensional del Laplaciano en el espacio Minkowski,
= 2 =

1 2
2 .
c2 t2

Luego las ecuaciones de onda tiempo dependiente quedan 2 = 0.

15.1. ECUACIONES DIFERENCIALES PARCIALES

205

6. La ecuacion del potencial escalar, 2 = 4. Como la ecuacion de Poisson esta ecuacion


es no homogenea con un termino de fuente 4.
7. La ecuacion de Klein-Gordon, 2 = 2 , y las correspondientes ecuaciones vectoriales
en las cuales la funcion escalar es reemplazada por una funcion vectorial. Otras formas
complicadas son comunes.
8. La ecuacion de onda de Schrodinger,

~2 2
+ V = i~
2m
t

y
~2 2
+ V = E ,
2m
para el caso tiempo independiente.

9. Las ecuaciones para ondas elasticas y lquidos viscosos y la ecuacion telegrafica.


10. Ecuaciones diferenciales parciales acopladas de Maxwell para los campos electricos y
magneticos son aquellas de Dirac para funciones de ondas relativistas del electron.
Algunas tecnicas generales para resolver PDE de segundo orden son discutidas en esta
seccion:
1. Separacion de variables, donde el PDE es separada en ODEs que estan relacionadas
por constantes comunes las cuales aparecen como autovalores de operadores lineales,
L = l, usualmente en una variable. La ecuacion de Helmholtz dada como ejemplo
3 anteriormente tiene esta forma, donde el autovalor k 2 puede surgir por la separacion
del tiempo t respecto de las variables espaciales. Como en el ejemplo 8, la energa E es
el autovalor que surge en la separacion de t respecto de ~r en la ecuacion de Schrodinger.
2. Conversion de una PDE en una ecuacion integral usando funciones de Green que se
aplica a PDE no homogeneas tales como los ejemplos 2 y 6 dados mas arriba.
3. Otros metodos analticos tales como el uso de transformadas integrales que seran desarrolladas en el proximo curso.
4. Calculo numerico. El desarrollo de los computadores ha abierto una abundancia de
posibilidades basadas en el calculo de diferencias finitas. Aqu tambien tenemos los
metodos de relajacion. Metodos como Runge-Kutta y predictor-corrector son aplicados
a ODEs.
Ocasionalmente, encontramos ecuaciones de orden mayor. En ambos la teora del movimiento suave de un lquido viscoso y la teora de un cuerpo elastico encontramos la ecuacion
(2 )2 = 0 .
Afortunadamente, estas ecuaciones diferenciales de orden mas altos son relativamente raras
y no son discutidas en una etapa introductoria como esta.

CAPITULO 15. ECUACIONES DIFERENCIALES.

206

Aunque no son tan frecuentemente encontrados y quizas no son tan importantes como
las ecuaciones diferenciales de segundo orden, las ecuaciones diferenciales de primer orden
aparecen en Fsica teorica y algunas veces son pasos intermedios para ecuaciones diferenciales
de segundo orden. Las soluciones de algunos de los tipos mas importantes de ODE de primer
orden son desarrollados en la seccion 15.2. Las PDEs de primer orden siempre pueden ser
reducidas a ODEs. Este es un proceso directo pero lento e involucra una b
usqueda para las
caractersticas que son presentadas brevemente mas adelante.

15.1.2.

Clases de PDE y caracterstica.

Las PDEs de segundo orden forman tres clases:


(i) Las PDEs elpticas que involucran 2 o c2 2 /t2 + 2 .
(ii) Las PDEs parabolica, a/t 2 .
(iii) Las PDEs hiperbolica, c2 2 /t2 2 .
Estos operadores canonicos aparecen por un cambio de variables = (x, y), = (x, y)
en un operador lineal (para dos variables solo por simplicidad)
L=a

2
2

2
+
2b
+
c
+d
+e
+f ,
2
2
x
xy
y
x
y

(15.2)

la cual puede ser reducida a las formas canonicas (i), (ii), (iii) de acuerdo a si el discriminante
D = ac b2 > 0, = 0 o < 0. Si (x, y) es determinada a partir de la ecuacion de primer
orden, pero no lineal, PDE
 2
  
 2

a
+ 2b
+c
=0,
(15.3)
x
x
y
y
donde los terminos de mas bajo orden en L son ignorados, entonces los coeficientes de 2 / 2
en L es cero (i.e., ecuacion (15.3)). Si es una solucion independiente de la misma ecuacion
(15.3), entonces el coeficiente de 2 / 2 tambien es cero. El operador remanente 2 / en
L es caracterstico del caso hiperbolico (iii) con D < 0, donde la forma cuadratica a2 +2b+c
es factorizable y, por lo tanto, la ecuacion (15.3) tiene dos soluciones independientes (x, y),
(x, y). En el caso elptico (i) con D > 0 las dos soluciones , son complejos conjugados los
cuales, cuando se sustituyeron en la ecuacion (15.2), remueven la derivada de segundo orden
mezclada en vez de los otros terminos de segundo orden produciendo la forma canonica (i).
En el caso parabolico (ii) con D = 0, solamente 2 / 2 permanece en L, mientras que los
coeficientes de las otras dos derivadas de segundo orden se anulan.
Si los coeficientes a, b, c en L son funciones de las coordenadas, entonces esta clasificacion
es solamente local, i.e., su tipo podra cambiar cuando las coordenadas varan.
Ilustremos la fsica implcita en el caso hiperbolico mirando la ecuacion de onda (en 1 +
1 dimensiones por simplicidad)


1 2
2

=0.
(15.4)
c2 t2 x2

15.1. ECUACIONES DIFERENCIALES PARCIALES


Ya que la ecuacion (15.3) se convierte en
 2
 2 



2
c
=
c
+c
=0,
t
x
t
x
t
x

207

(15.5)

y es factorizable, determinamos la solucion de /t c/x = 0. Esta es una funcion


arbitraria = F (x + ct), y = G(x ct) resuelve /t + c/x = 0, la cual se verifica
rapidamente. Por superposicion lineal una solucion general de la ecuacion (15.4) es la suma
= F (x + ct) + G(x ct). Para funciones periodicas F , G reconocemos los argumentos
x + ct y x ct como la fase de la onda plana o frente de ondas, donde las soluciones de la
ecuacion de onda (15.4) cambian abruptamente (de cero a sus valores actuales) y no estan
u
nicamente determinadas. Normal al frente de onda estan los rayos de la optica geometrica.
De este modo, las soluciones de la ecuacion (15.5) o (15.3) mas generalmente, son llamadas
caractersticas o algunas veces bicaractersticas (para PDE de segundo orden) en la literatura
matematica corresponde a los frente de ondas de la solucion de la optica geometrica de la
ecuacion de onda completa.
Para el caso elptico consideremos la ecuacion de Laplace
2 2
+ 2 =0,
x2
y
para un potencial de dos variables. Aqu la ecuacion caracterstica es
 2   2 



+
=
+i
i
=0
x
y
x
y
x
y

(15.6)

(15.7)

tiene soluciones complejas conjugadas: = F (x + iy) para /x + i/y = 0 y =


G(x iy) para /x i/y = 0. Una solucion general de la ecuacion de potencial (15.6)
es por lo tanto = F (x + iy) + iG(x iy) Tanto la parte real como la imaginaria de ,
son llamadas funciones armonicas, mientras que las soluciones polinomiales son llamadas
polinomios armonicos.
En mecanica cuantica la forma de Wentzel-Kramers-Brillouin (WKB) de = exp(iS/~)
para la solucion de la ecuacion de Schroedinger



~2 2
+ V = i~
,
(15.8)

2m
t
conduce a la ecuacion Hamilton-Jacobi de la mecanica clasica,
1 ~ 2
S
(S) + V =
,
(15.9)
2m
t
en el lmite ~ 0. La accion clasica de S entonces llega a ser la caracterstica de la ecuacion
~ = i S/~,
~
de Schroedinger. Sustituyendo
/t = iS/t/~ en la ecuacion (15.8),
dejando la totalidad de los factores de no nulos, y aproximando el Laplaciano 2 =
i2 S/~ (S)2 /~2 ' (S)2 , i.e., despreciando i2 /~, realmente obtenemos la
ecuacion (15.9).
Resolver las caractersticas es una de las tecnicas generales de encontrar las soluciones
de PDE. Para mas ejemplos y tratamientos detallados de las caractersticas, las cuales no
perseguimos aqu, nos referimos a H. Bateman, Partial Differential Equations of Mathematical
Physics. New York: Dover (1994); K.E. Gustafson, Partial Differential Equations and Hilbert
Space Methods, 2nd ed. New York: Wiley (1987).

CAPITULO 15. ECUACIONES DIFERENCIALES.

208

15.1.3.

Las PDE no lineales.

Las ODEs y PDEs no lineales son un campo importante y de rapido crecimiento. Encontramos mas arriba la ecuacion de onda lineal mas simple

+c
=0,
t
x
como la PDE de primer orden a partir de la caracterstica de la ecuacion de onda. La ecuacion
de onda no lineal mas simple

+ c()
=0,
(15.10)
t
x
resulta si la velocidad local de propagacion, c, no es constante sino que depende de la onda .
Cuando una ecuacion no lineal tiene una solucion de la forma (x, t) = A cos(kx t), donde
(k) vara con k tal que 00 (k) 6= 0, entonces ella es llamada dispersiva. Quizas la ecuacion
dispersiva no lineal mas conocida de segundo orden es la ecuacion de Korteweg-de Vries
3

+
+
=0,
t
x
x3

(15.11)

la cual modela la propagacion sin perdidas de las ondas de agua superficiales y otros fenomenos. Esta es ampliamente conocida por sus soluciones solit
on. Un soliton es una onda viajera
con la propiedad de persistir a traves de una interaccion con otro soliton: despues de que
ellos pasan uno a traves del otro, ellos emergen en la misma forma y con la misma velocidad
y no adquieren mas que un cambio de fase. Sea ( = x ct) tal onda viajera. Cuando es
sustituida en la ecuacion (15.11) esta produce la ODE no lineal
( c)

d d3
+ 3 =0,
d
d

(15.12)

la cual puede ser integrada dando


d2
2
= c
.
d 2
2

(15.13)

No hay constantes de integracion aditivas en la ecuacion (15.13) para asegurar que se satisfaga la condicion d2 /d 2 0 con 0 para grande, tal que esta localizado en
la caracterstica = 0, o x = ct. Multiplicando la ecuacion (15.13) por d/d e integrando
nuevamente tenemos
 2
d
3
= c 2
,
(15.14)
d
3
donde d/d 0 para grande. Tomando la raz de la ecuacion (15.14) e integrando una
vez mas encontramos la solucion solitonica
(x ct) =
2

cosh

3c
 .
x ct
c
2

(15.15)

15.2. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

15.1.4.

209

Condiciones de borde.

Usualmente, cuando conocemos un sistema fsico en alg


un momento y la ley que rige ese
proceso fsico, entonces somos capaces de predecir el desarrollo subsecuente. Tales valores iniciales son las mas comunes condiciones de borde asociadas con ODEs y PDEs. Encontrando
soluciones que calcen con los puntos, curvas o superficies dados correspondientes al problema
de valores de contorno. Las autofunciones usualmente requieren que satisfagan ciertas condiciones de borde impuestas (e.g., asintoticas). Estas condiciones pueden ser tomadas de tres
formas:
1. Condiciones de borde de Cauchy. El valor de una funcion y su derivada normal especificada en el borde. En electroestatica estas significaran , el potencial, y En la
componente normal del campo electrico.
2. Condiciones de borde de Dirichlet. El valor especfico en el borde.
3. Condiciones de borde de Neumann. La derivada normal (gradiente normal) de una
funcion especfica en el borde. En el caso electrostatico este sera En y por lo tanto ,
la densidad de carga superficial.
Un resumen de las relaciones de estos tres tipos de condiciones de borde con los tres tipos
de ecuaciones diferenciales parciales bidimensionales estan dadas en la tabla 15.1. Para discusiones mas extensas de estas ecuaciones diferenciales parciales puede consultar Sommerfeld,
captulo 2, o Morse y Feshbach, captulo 6.
Partes de la tabla 15.1 son simplemente un asunto de mantener la consistencia interna, o
sentido com
un. Por ejemplo, para la ecuacion de Poisson con una superficie cerrada, las condiciones de Dirichlet conducen a una solucion u
nica y estable. Las condiciones de Neumann,
independiente de las condiciones de Dirichlet, del mismo modo conducen a una solucion u
nica
y estable independiente de la solucion de Dirichlet. Por lo tanto las condiciones de borde de
Cauchy (lo que significa la de Dirichlet mas la de Neumann) conducen a una inconsistencia.
El termino de condiciones de borde incluye como un caso especial el concepto de condiciones iniciales. Por ejemplo, especificando la posicion inicial x0 y la velocidad inicial v0 en
algunos problemas de dinamica correspondera a condiciones de borde de Cauchy. La u
nica
diferencia en el presente uso de las condiciones de borde en estos problemas unidimensionales
es que estamos aplicando las condiciones en ambos extremos del intervalo permitido de la
variable.

15.2.

Ecuaciones diferenciales de primer orden.

La fsica involucra algunas ecuaciones diferenciales de primer orden, ellas fueron estudiadas en el primer curso. Por completitud parece ser deseable revisarlas brevemente.
Consideremos aqu ecuaciones diferenciales de la forma general
P (x, y)
dy
= f (x, y) =
.
dx
Q(x, y)

(15.16)

CAPITULO 15. ECUACIONES DIFERENCIALES.

210
Condiciones
de borde

Cauchy
Superficie Abierta
Superficie Cerrada
Dirichlet
Superficie Abierta
Superficie Cerrada
Neumann
Superficie Abierta
Superficie Cerrada

Tipo de ecuacion diferencial parcial


Elpticas

Hiperbolicas

Parabolicas

Laplace, Poisson
en (x, y)

Ecuacion de Ondas Ecuacion de difusion


en (x, t)
en (x, t)

Resultados no fsicos Soluci


on u
nica
(inestabilidades)
y estable

Demasiado
restrictivo

Demasiado
restrictivo

Demasiado
restrictivo

Demasiado
restrictivo

Insuficiente

Insuficiente

Soluci
on u
nica y
estable en 1 dim

Solucion u
nica
y estable

Solucion no
u
nica

Demasiado
restrictivo

Insuficiente

Insuficiente

Soluci
on u
nica y
estable en 1 dim

Solucion u
nica
y estable

Solucion no
u
nica

Demasiado
restrictivo

Cuadro 15.1:
La ecuacion (15.16) es claramente una ecuacion de primer orden ordinaria. Es de primer
orden ya que contiene la primera derivada y no mayores. Es Ordinaria ya que la derivada
dy/dx es una derivada ordinaria o total. La ecuacion (15.16) puede o no puede ser lineal,
aunque trataremos el caso lineal explcitamente mas adelante.

15.2.1.

Variables separables.

Frecuentemente la ecuacion (15.16) tendra la forma especial


P (x)
dy
= f (x, y) =
.
dx
Q(y)

(15.17)

Entonces la podemos reescribir como


P (x)dx + Q(y)dy = 0 .
Integrando de (x0 , y0 ) a (x, y) tiende a
Z x
Z
0
0
P (x )dx +
x0

Q(y 0 )dy 0 = 0 .

(15.18)

y0

Ya que los lmites inferiores x0 e y0 contribuyen en unas constantes, podramos ignorar los
lmites inferiores de integracion y simplemente a
nadir una constante de integracion al final.

15.2. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

211

Note que esta tecnica de separacion de variables no requiere que la ecuacion diferencial sea
lineal.
Ejemplo Ley de Boyle.
Una forma diferencial de la ley de los gases de Boyle es
V
dV
= ,
dP
P
para el volumen V de una cantidad fija de gas a presion P (y temperatura constante). Separando variables, tenemos
dV
dP
=
V
P
o
ln V = ln P + C .
Con dos logaritmos presentes, es mas conveniente reescribir la constante de integracion C
como ln k. Entonces
ln V + ln P = ln P V = ln k
y
PV = k .

15.2.2.

Ecuaciones diferenciales exactas.

Reescribimos la ecuacion (15.16) como


P (x, y)dx + Q(x, y)dy = 0 .

(15.19)

Esta ecuacion se dice que es exacta si podemos calzar el lado izquierdo de ella a un diferencial
d,

d =
dx +
dy .
(15.20)
x
y
Ya que la ecuacion (15.19) tiene un cero a la derecha, buscamos una funcion desconocida
(x, y) = constante, tal que d = 0. Tenemos (si tal funcion (x, y) existe)
P (x, y)dx + Q(x, y)dy =

dx +
dy
x
y

(15.21)

= P (x, y) ,
x

= Q(x, y) .
y

(15.22)

La condicion necesaria y suficiente para que la ecuacion sea exacta es que la segunda derivada
parcial mezclada de (x, y) (supuesta continua) es independiente del orden de diferenciacion:
2
P (x, y)
Q(x, y)
2
=
=
=
.
yx
y
x
xy

(15.23)

CAPITULO 15. ECUACIONES DIFERENCIALES.

212

Si la ecuacion (15.19) corresponde a un rotor (igual cero), entonces un potencial, (x, y),
debiera existir.
Si (x, y) existe entonces a partir de las ecuaciones (15.19) y (15.21) nuestra solucion es
(x, y) = C .

(15.24)

Podemos construir (x, y) a partir de sus derivadas parciales de la misma manera que construimos un potencial magnetico vectorial en el captulo de vectores a partir de su rotor.
Podemos volver a la ecuacion (15.19) y ver que pasa si no es exacta: la ecuacion (15.23)
no es satisfecha. Sin embargo, siempre existe al menos una o quizas una infinidad de factores
de integracion, (x, y), tales que
(x, y)P (x, y)dx + (x, y)Q(x, y)dy = 0
es exacta. Desafortunadamente, un factor de integracion no siempre es obvio o facil de encontrar. Diferente es el caso de la ecuacion diferencial de primer orden lineal considerada a
continuacion, no hay una manera sistematica de desarrollar un factor de integracion para la
ecuacion (15.19).
Una ecuacion diferencial en la cual las variables han sido separadas es automaticamente
exacta. Una ecuacion diferencial exacta no es necesariamente separable.

15.2.3.

Ecuaciones diferenciales ordinarias de primer orden lineales.

Si f (x, y) en la ecuacion (15.16) tiene la forma p(x)y +q(x), entonces la ecuacion (15.16)
se convierte en
dy
+ p(x)y = q(x) .
(15.25)
dx
La ecuacion (15.25) es la ODE de primer orden lineal mas general. Si q(x) = 0, la ecuacion
(15.25) es homogenea (en y). Un q(x) distinto de cero puede representar una fuente o un
termino de forzamiento. La ecuacion (15.25) es lineal ; cada termino es lineal en y o dy/dx.
No hay potencias mayores; esto es, no hay y 2 , ni productos, y(dy/dx). Note que la linealidad
se refiere a y y a la dy/dx; p(x) y q(x) no es necesario que sean lineales en x. La ecuacion
(15.25), es la mas importante de estas ecuaciones diferenciales de primer orden para los fsicos
y puede ser resuelta exactamente.
Busquemos un factor de integracion (x) tal que
(x)

dy
+ (x)p(x)y = (x)q(x) ,
dx

(15.26)

puede ser reescrito como


d
[(x)y] = (x)q(x) .
(15.27)
dx
El proposito de esto es hacer el lado izquierdo de la ecuacion (15.25) una derivada total que
pueda ser integrada por inspeccion. Esto tambien, incidentalmente, hace la ecuacion (15.25)
exacta. Expandiendo la ecuacion (15.27), obtenemos
(x)

dy d
+
y = (x)q(x) .
dx dx

15.2. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

213

La comparacion con la ecuacion (15.26) muestra que debemos requerir que


d(x)
= (x)p(x) .
dx

(15.28)

Aqu hay una ecuacion diferencial para (x), con las variables y x separables. Separamos
variables, integramos, y obtenemos

Z x
0
0
(15.29)
(x) = exp
p(x ) dx
como nuestro factor de integracion.
Con (x) conocida procedemos a integrar la ecuacion (15.27). Esto, por supuesto, fue el
objetivo de introducir en primer lugar. Tenemos
Z x
Z x
d
0
0
[(x )y] dx =
(x0 )q(x0 ) dx0 .
dx0
Ahora integrando por inspeccion, tenemos
Z x
(x)y =
(x0 )q(x0 ) dx0 + C .
Las constantes a partir del lmite inferior de integracion constante son reunidas en la constante
C. Dividiendo por (x), obtenemos

Z x
1
0
0
0
(x )q(x ) dx + C .
y(x) =
(x)
Finalmente, sustituyendo en la ecuacion (15.29) por conduce


Z s
 Z x
 Z x
p(t) dt q(s) ds + C .
exp
y(x) = exp
p(t) dt

(15.30)

Aqu las variables mudas de integracion han sido reescritas para hacerlas inambiguas. La
ecuacion (15.30) es la solucion general completa de la ecuacion diferencial lineal, de primer
orden, la ecuacion (15.25). La porcion
 Z x

y1 (x) = C exp
p(t) dt
(15.31)
corresponde al caso q(x) = 0 y es solucion general de la ecuacion diferencial homogenea. El
otro termino en la ecuacion (15.30),
 Z x
Z x
Z s

y(x) = exp
p(t) dt
exp
p(t) dt q(s) ds ,
(15.32)
es una solucion particular que corresponde al termino especfico de fuente q(x).
Podemos notar que si nuestra ecuacion diferencial de primer orden es homogenea (q = 0),
entonces ella es separable. De lo contrario, salvo casos especiales tal como p =constante,
q =constante, o q(x) = ap(x), la ecuacion (15.25) no es separable.

CAPITULO 15. ECUACIONES DIFERENCIALES.

214
Ejemplo Circuito RL.

Para un circuito resistencia-inductancia las leyes de Kirchhoff producen


L

dI(t)
+ RI(t) = V (t) ,
dt

para la corriente I(t), donde L es la inductancia y R es la resistencia, ambas constantes. V (t)


es el voltaje aplicado tiempo dependiente.
De la ecuacion (15.29) nuestro factor de integracion (t) es
Z

(t) = exp

R
dt
L

= eRt/L .
Entonces por la ecuacion (15.30)
Rt/L

Z

I(t) = e

Rt/L V

(t)
dt + C
L


,

con la constante C es determinada por una condicion inicial (una condicion de borde).
Para el caso especial V (t) = V0 , una constante,
Rt/L

I(t) = e
=

V0 L Rt/L
e
+C
LR

V0
+ CeRt/L .
R

Si la condicion inicial es I(0) = 0, entonces C = V0 /R y


I(t) =

15.2.4.


V0 
1 eRt/L .
R

Conversi
on a una ecuaci
on integral.

Nuestra ecuacion diferencial de primer orden, ecuacion (15.16), puede ser convertida a
una ecuacion integral por integracion directa:
Z x
y(x) y(x0 ) =
f [x, y(x)] dx .
(15.33)
x0

Como una ecuacion integral hay una posibilidad de una solucion en serie de Neumann (se
vera en el proximo curso) con la aproximacion inicial y(x) y(x0 ). En la literatura de
ecuaciones diferenciales esto es llamado el metodo de Picard de aproximaciones sucesivas.
Ecuaciones diferenciales de primer orden las encontraremos de nuevo en conexion con las
transformadas de Laplace y de Fourier.

DE VARIABLES.
15.3. SEPARACION

15.3.

215

Separaci
on de variables.

Las ecuaciones de la fsica matematica listada en la seccion 15.1 son todas ecuaciones diferenciales parciales. Nuestra primera tecnica para su solucion es dividir la ecuacion diferencial
parcial en n ecuaciones diferenciales ordinarias de n variables. Cada separacion introduce
una constante de separacion arbitraria. Si tenemos n variables, tenemos que introducir n 1
constantes, determinadas por las condiciones impuestas al resolver el problema.

15.3.1.

Coordenadas cartesianas.

En coordenadas cartesianas las ecuaciones de Helmholtz llegan a ser


2 2 2
+ 2 + 2 + k2 = 0 ,
2
x
y
z

(15.34)

usando la forma cartesiana para el Laplaciano. Por el momento, k 2 sera una constante. Quizas
la manera mas simple de tratar una ecuacion diferencial parcial tal como la ecuacion (15.34)
es dividirla en un conjunto de ecuaciones diferenciales ordinarias. Esto puede ser hecho como
sigue. Sea
(x, y, z) = X(x)Y (y)Z(z) ,
(15.35)
y sustituir de vuelta en la ecuacion (15.34). Como sabemos que la ecuacion (15.35) es valida?.
La respuesta es muy simple: No sabemos si es valida!. Mejor dicho, estamos procediendo en
este espritu y tratando de ver si trabaja. Si nuestro intento es exitoso, entonces la ecuacion
(15.35) sera justificada. Si no es exitoso, lo descubriremos pronto y luego trataremos otro
ataque tal como las funciones de Green, transformadas integral, o analisis numerico a la
fuerza bruta. Con supuestamente dada por la ecuacion (15.35), la ecuacion (15.34) llega a
ser
d2 Y
d2 Z
d2 X
(15.36)
Y Z 2 + XZ 2 + XY 2 + k 2 XY Z = 0 .
dx
dy
dz
Dividiendo por = XY Z y rearreglando los terminos, obtenemos
1 d2 X
1 d2 Y
1 d2 Z
2
=
k

X dx2
Y dy 2
Z dz 2

(15.37)

La ecuacion (15.37) exhibe una separacion de variables. El lado izquierdo es solo funcion de
x, mientras que el lado derecho depende solamente de y y z. As la ecuacion (15.37) es una
clase de paradoja. Una funcion de x es igualada a una funcion de y y z, pero x, y y z son todas
coordenadas independientes. Esta independencia significa que el comportamiento de x como
una variable independiente no esta determinada ni por y ni por z. La paradoja esta resuelta
fijando cada lado igual a una constante, una constante de separacion. Escogemos3
1 d2 X
= l2 ,
X dx2
3

(15.38)

La eleccion de signo es completamente arbitraria, sera fijada en un problema especfico por la necesidad
de satisfacer las condiciones de borde.

CAPITULO 15. ECUACIONES DIFERENCIALES.

216
k 2

1 d2 Y
1 d2 Z

= l2 .
2
2
Y dy
Z dz

(15.39)

Ahora, volviendo nuestra atencion a la ecuacion (15.39), obtenemos


1 d2 Y
1 d2 Z
2
2
=
k
+
l

,
Y dy 2
Z dz 2

(15.40)

y una segunda separacion ha sido realizada. Aqu tenemos una funcion de y igualada a una
funcion de z y aparece la misma paradoja. La resolvemos como antes igualando cada lado a
otra constante de separacion, m2 ,
1 d2 Y
= m2 ,
Y dy 2

(15.41)

1 d2 Z
= k 2 + l2 + m2 = n2 ,
(15.42)
Z dz 2
introduciendo una constante n2 por k 2 = l2 + m2 + n2 para producir un conjunto simetrico
de ecuaciones. Ahora tenemos tres ecuaciones diferenciales ordinarias ((15.38), (15.41), y
(15.42)) para reemplazar en la ecuacion (15.34). Nuestra suposicion (ecuacion (15.35)) ha
sido exitosa y es por lo tanto justificada.
Nuestra solucion sera etiquetada de acuerdo a la eleccion de nuestras constantes l, m, n,
esto es,
lmn (x, y, z) = Xl (x)Ym (y)Zn (z) .
(15.43)
Sujeto a las condiciones del problema que se resuelve y a la condicion k 2 = l2 + m2 + n2 ,
podemos escoger l, m, n como queramos, y la ecuacion (15.43) sera todava una solucion de
la ecuacion (15.34), dado que Xl (x) es una solucion de la ecuacion (15.38) y as seguimos.
Podemos desarrollar la solucion mas general de la ecuacion (15.34) tomando una combinacion
lineal de soluciones lmn ,
X
almn lmn .
(15.44)
=
l,m,n

Los coeficientes constantes almn finalmente son escogidos para permitir que satisfaga las
condiciones de borde del problema.

15.3.2.

Coordenadas cilndricas circulares.

Si consideramos que nuestra funcion desconocida depende de , , z la ecuacion de


Helmholtz se convierte en
2 (, , z) + k 2 (, , z) = 0 ,
o


+

1 2 2
+ 2 + k2 = 0 .
2 2
z

(15.45)

(15.46)

Como antes, suponemos una forma factorizada para ,


(, , z) = P ()()Z(z) .

(15.47)

DE VARIABLES.
15.3. SEPARACION
Sustituyendo en la ecuacion (15.46), tenemos


Z d
dP
P Z d2
d2 Z

+ 2
+
P

+ k 2 P Z = 0 .
d
d
d2
dz 2

217

(15.48)

Todas las derivadas parciales han llegado a ser derivadas ordinarias. Dividiendo por P Z y
moviendo la derivada z al lado derecho conduce a


dP
1 d2
1 d
1 d2 Z
2

+ 2
+
k
=

.
(15.49)
P d
d
d2
Z dz 2
De nuevo, tenemos la paradoja. Una funcion de z en la derecha aparece dependiendo de
una funcion de y en el lado izquierdo. Resolvemos la paradoja haciendo cada lado de la
ecuacion (15.49) igual a una constante, la misma constante. Escojamos4 l2 . Entonces
d2 Z
= l2 Z ,
dz 2


dP
1 d2
1 d
+ k 2 = l2 .

+ 2
P d
d
d2

Ajustando k 2 + l2 = n2 , multiplicando por 2 , y reordenando terminos, obtenemos




d
dP
1 d2

+ n 2 2 =
.
P d
d
d2

(15.50)

(15.51)

(15.52)

Podemos ajustar el lado derecho a m2 y


d2
= m2
2
d
Finalmente, para la dependencia en tenemos


d
dP

+ (n2 2 m2 )P = 0 .
d
d

(15.53)

(15.54)

Esta es la ecuacion diferencial de Bessel. La solucion y sus propiedades seran presentadas


en el proximo curso. La separacion de variables de la ecuacion de Laplace en coordenadas
parabolicas tambien conduce a ecuaciones de Bessel. Puede notarse que la ecuacion de Bessel
es notable por la variedad de formas que puede asumir.
La ecuacion original de Helmholtz, una ecuacion diferencial parcial tridimensional, ha
sido reemplazada por tres ecuaciones diferenciales ordinarias, las ecuaciones (15.50), (15.53)
y (15.54). Una solucion de la ecuacion de Helmholtz es
(, , z) = P ()()Z(z) .

(15.55)

Identificando las soluciones especficas P , , Z por subndices, vemos que la solucion mas
general de la ecuacion de Helmholtz es una combinacion lineal del producto de soluciones:
X
(, , z) =
amn Pmn ()m ()Zn (z) .
(15.56)
m,n
4

La eleccion del signo de la constante de separacion es arbitraria. Sin embargo, elegimos un signo menos
para la coordenada axial z en espera de una posible dependencia exponencial en z. Un signo positivo es
elegido para la coordenada azimutal en espera de una dependencia periodica en .

CAPITULO 15. ECUACIONES DIFERENCIALES.

218

15.3.3.

Coordenadas polares esf


ericas.

Tratemos de separar la ecuacion de Helmholtz, de nuevo con k 2 constante, en coordenadas


polares esfericas. Usando la expresion del Laplaciano en estas coordenadas obtenemos







1 2
1
2
sen
r
+
sen
+
= k 2 .
(15.57)
r2 sen
r
r

sen 2
Ahora, en analoga con la ecuacion (15.35) tratamos
(r, , ) = R(r)()() .

(15.58)

Sustituyendo de vuelta en la ecuacion (15.57) y dividiendo por R, tenemos






1 d
1
d
d
1
d2
2 dR
r
+
sen

+
= k2 .
Rr2 dr
dr
r2 sen d
d
r2 sen2 d2

(15.59)

Note que todas las derivadas son ahora derivadas ordinarias mas que parciales. Multiplicando
por r2 sen2 , podemos aislar (1/)(d2 /d2 ) para obtener5





1 d
1
d
d
1 d2
2
2
2
2 dR
= r sen k 2
r
2
sen
.
(15.60)
d2
r R dr
dr
r sen d
d
La ecuacion (15.60) relaciona una funcion u
nicamente de con una funcion de r y . Ya
que r, , y son variables independientes, igualamos cada lado de la ecuacion (15.60) a una
constante. Aqu una peque
na consideracion puede simplificar el analisis posterior. En casi
todos los problemas fsicos aparecera como un angulo azimutal. Esto sugiere una solucion
periodica mas que una exponencial. Con esto en mente, usemos m2 como la constante de
separacion. Cualquier constante lo hara, pero esta hara la vida un poquito mas facil. Entonces
1 d2
= m2
d2

(15.61)

y
1 d
2
r R dr


r

2 dR

dr

d
1
+ 2
r sen d

d
sen
d

m2
= k 2 .
r2 sen2

Multiplicando la ecuacion (15.62) por r2 y reordenando terminos, tenemos






1 d
1
d
d
m2
2 dR
2 2
r
+r k =
sen
+
.
R dr
dr
sen d
d
sen2

(15.62)

(15.63)

Nuevamente, las variables son separadas. Igualamos cada lado a una constante Q y finalmente
obtenemos


1 d
d
m2
sen

+ Q = 0 ,
(15.64)
sen d
d
sen2


1 d
QR
2 dR
r
+ k2R 2 = 0 .
(15.65)
2
r dr
dr
r
5

El orden en el cual las variables son separadas aqu no es u


nico. Muchos textos de mecanica cuantica
separan la dependencia en r primero.

DE VARIABLES.
15.3. SEPARACION

219

Una vez mas hemos reemplazado una ecuacion diferencial parcial de tres variables por tres
ecuaciones diferenciales ordinarias. Las soluciones de estas tres ecuaciones diferenciales ordinarias son discutidas en el proximo curso. Por ejemplo, la ecuacion (15.64) es identificada
como la ecuacion de asociada de Legendre en la cual la constante Q llega a ser l(l + 1); con l
entero. Si k 2 es una constante (positiva), la ecuacion (15.65) llega a ser la ecuacion de Bessel
esferica.
Nuevamente, nuestra solucion mas general puede ser escrita
X
Qm (r, , ) =
RQ (r)Qm ()m () .
(15.66)
q,m

La restriccion que k 2 sea una constante es innecesariamente severa. El proceso de separacion


sera todava posible para k 2 tan general como
k 2 = f (r) +

1
1
2
h() + k 0 .
g()
+
r2
r2 sen2

(15.67)

En el problema del atomo de hidrogeno, uno de los ejemplos mas importantes de la ecuacion
de onda de Schrodinger con una forma cerrada de solucion es k 2 = f (r). La ecuacion (15.65)
para el atomo de hidrogeno llega a ser la ecuacion asociada de Laguerre.
La gran importancia de esta separacion de variables en coordenadas polares esfericas
deriva del hecho que el caso k 2 = k 2 (r) cubre una tremenda cantidad de fsica: las teoras de
gravitacion, electroestatica, fsica atomica y fsica nuclear. Y, con k 2 = k 2 (r), la dependencia
angular es aislada en las ecuaciones (15.61) y (15.64), la cual puede ser resuelta exactamente.
Finalmente, una ilustracion de como la constante m en la ecuacion (15.61) es restringida,
notamos que en coordenadas polares esfericas y cilndricas es un angulo azimutal. Si esto es
un problema clasico, ciertamente requeriremos que la solucion azimutal () sea univaluada,
esto es,
( + 2) = () .
(15.68)
Esto es equivalente a requerir que la solucion azimutal tenga un perodo de 2 o alg
un
m
ultiplo entero de el. Por lo tanto m debe ser un entero. Cual entero, depende de los detalles
del problema. Cada vez que una coordenada corresponda a un eje de translacion o a un
angulo azimutal la ecuacion separada siempre tendra la forma
d2 ()
= m2 ()
2
d
para , el angulo azimutal, y
d2 Z
= a2 Z(z)
(15.69)
dz 2
para z, un eje de traslacion en un sistema de coordenadas cilndrico. Las soluciones, por supuesto, son sen az y cos az para a2 y la correspondiente funcion hiperbolica (o exponencial)
senh az y cosh az para +a2 .
Otras ecuaciones diferenciales ordinarias encontradas ocasionalmente incluyen las ecuaciones de Laguerre y la asociada de Laguerre del importante problema del atomo de hidrogeno
en mecanica cuantica:
d2 y
dy
x 2 + (1 x) + y = 0 ,
(15.70)
dx
dx

CAPITULO 15. ECUACIONES DIFERENCIALES.

220

d2 y
dy
(15.71)
+ (1 + k x) + y = 0 .
2
dx
dx
De la teora de la mecanica cuantica del oscilador armonico lineal tenemos la ecuacion de
Hermite,
d2 y
dy
(15.72)
2x + 2y = 0 .
2
dx
dx
Finalmente, de vez en vez encontramos la ecuacion diferencial de Chebyshev
x

(1 x2 )

d2 y
dy
x + n2 y = 0 .
2
dx
dx

(15.73)

Para una referencia conveniente, las formas de la solucion de la ecuacion de Laplace, la ecuacion de Helmholtz y la ecuacion de difusion en coordenadas polares esfericas son resumidas en
la tabla 15.2. Las soluciones de la ecuacion de Laplace en coordenadas circulares cilndricas
son representadas en la tabla 15.3.
=

alm lm

l,m

1.

2.

=0

+k =0



rl

lm =

rl1


jl (kr)

lm =

3.

2 k 2 = 0

il (kr)

lm =



Qm
l (cos )


Plm (cos )



Plm (cos )



cos m

sen m


Qm
l (cos )

kl (kr)

cos m
sen m

Qm
l (cos )

nl (kr)


Plm (cos )

cos m

sen m

Cuadro 15.2: Soluciones en coordenadas polares esfericas

2 = 0

am m ,

m,


a.

m =

Jm ()



Nm ()

b.

m =

Im ()

c.


m =

m
m





cos m



sin m


cos m

ez

ez

sen m

Km ()
= 0 (no hay
dependencia en z)

cos m

cos z
sen z

sen m

Cuadro 15.3: Soluciones en coordenadas cilndricas circulares

DE VARIABLES.
15.3. SEPARACION

221

Para las ecuaciones de Helmholtz y de difusion la constante k 2 se agrega a la constante


de separacion 2 para definir un nuevo parametro 2 o 2 . Para la eleccion de + 2 (con
2 > 0) obtenemos Jm () y Nm (). Para la eleccion 2 (con 2 > 0) obtenemos Im ()
y Km () como previamente.
Estas ecuaciones diferenciales ordinarias y sus generalizaciones seran examinadas y sistematizadas en el proximo curso.

Departamento de Fsica, Facultad de Ciencias, Universidad de Chile.


noa. Casilla 653, Correo 1, Santiago
Las Palmeras 3425, Nu
fono: 562 678 7276
fax: 562 271 2973
e-mail: secretaria@fisica.ciencias.uchile.cl

Apuntes de un curso de

FISICA MATEMATICA

Jose Rogan C.
Vctor Munoz G.

Indice
I

Computaci
on.

1 Elementos del sistema operativo unix.


1.1 Introduccion. . . . . . . . . . . . . . . . . . . . .
1.2 Ingresando al sistema. . . . . . . . . . . . . . . .
1.2.1 Terminales. . . . . . . . . . . . . . . . . .
1.2.2 Login. . . . . . . . . . . . . . . . . . . . .
1.2.3 Passwords. . . . . . . . . . . . . . . . . . .
1.2.4 Cerrando la sesion. . . . . . . . . . . . . .
1.3 Archivos y directorios. . . . . . . . . . . . . . . .
1.4 Ordenes basicas. . . . . . . . . . . . . . . . . . .
1.4.1 Archivos y directorios. . . . . . . . . . . .
1.4.2 Ordenes relacionadas con directorios. . . .
1.4.3 Visitando archivos. . . . . . . . . . . . . .
1.4.4 Copiando, moviendo y borrando archivos.
1.4.5 Espacio de disco. . . . . . . . . . . . . . .
1.4.6 Links. . . . . . . . . . . . . . . . . . . . .
1.4.7 Proteccion de archivos. . . . . . . . . . . .
1.4.8 Filtros. . . . . . . . . . . . . . . . . . . . .
1.4.9 Transferencia a diskettes. . . . . . . . . . .
1.4.10 Diferencias entre los sistemas. . . . . . . .
1.5 Mas comandos. . . . . . . . . . . . . . . . . . . .
1.6 Shells. . . . . . . . . . . . . . . . . . . . . . . . .
1.6.1 Variables de entorno. . . . . . . . . . . .
1.7 Redireccion. . . . . . . . . . . . . . . . . . . . . .
1.7.1 Las shells csh y tcsh. . . . . . . . . . . . .
1.7.2 Ejecucion de comandos. . . . . . . . . . .
1.7.3 Aliases. . . . . . . . . . . . . . . . . . . .
1.7.4 Comandos propios. . . . . . . . . . . . . .
1.7.5 Variables propias del shell. . . . . . . . . .
1.7.6 Las shell sh y bash. . . . . . . . . . . . . .
1.7.7 Comandos propios del shell. . . . . . . . .
1.8 Ayuda y documentacion. . . . . . . . . . . . . . .
1.9 Procesos. . . . . . . . . . . . . . . . . . . . . . . .
1.10 Editores. . . . . . . . . . . . . . . . . . . . . . . .
1.10.1 Editores modo emacs. . . . . . . . . . . .
iii

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

5
5
6
6
7
7
8
8
9
10
11
11
12
12
12
13
16
19
20
20
21
22
23
23
24
24
24
26
26
26
27
27
29
29

INDICE

iv
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

32
34
35
35
36
37
39
39
39
40
41
41
42

2 Una breve introducci


on a C++.
2.1 Estructura basica de un programa en C++. . .
2.1.1 El programa mas simple. . . . . . . . . .
2.1.2 Definicion de funciones. . . . . . . . . .
2.1.3 Nombres de variables. . . . . . . . . . .
2.1.4 Tipos de variables. . . . . . . . . . . . .
2.1.5 Ingreso de datos desde el teclado. . . . .
2.1.6 Operadores aritmeticos. . . . . . . . . .
2.1.7 Operadores relacionales. . . . . . . . . .
2.1.8 Asignaciones. . . . . . . . . . . . . . . .
2.1.9 Conversion de tipos. . . . . . . . . . . .
2.2 Control de flujo. . . . . . . . . . . . . . . . . . .
2.2.1 if, if... else, if... else if. . . .
2.2.2 Expresion condicional. . . . . . . . . . .
2.2.3 switch. . . . . . . . . . . . . . . . . . .
2.2.4 for. . . . . . . . . . . . . . . . . . . . .
2.2.5 while. . . . . . . . . . . . . . . . . . . .
2.2.6 do... while. . . . . . . . . . . . . . .
2.2.7 goto. . . . . . . . . . . . . . . . . . . .
2.3 Funciones. . . . . . . . . . . . . . . . . . . . . .
2.3.1 Funciones tipo void. . . . . . . . . . . .
2.3.2 return. . . . . . . . . . . . . . . . . . .
2.3.3 Funciones con parametros. . . . . . . . .
2.3.4 Parametros por defecto. . . . . . . . . .
2.3.5 Alcance, visibilidad, tiempo de vida. . .
2.3.6 Recursion. . . . . . . . . . . . . . . . . .
2.3.7 Funciones internas. . . . . . . . . . . . .
2.4 Matrices. . . . . . . . . . . . . . . . . . . . . . .
2.4.1 Declaracion e inicializacion. . . . . . . .
2.4.2 Matrices como parametros de funciones.
2.4.3 Asignacion dinamica. . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

45
45
45
46
47
47
48
49
49
49
50
51
51
52
52
53
54
54
54
55
55
55
56
57
58
58
59
59
59
60
61

1.11
1.12
1.13

1.14
1.15
1.16
1.17
1.18

1.10.2 El editor vi. . . . . .


El sistema X Windows. . . .
Uso del raton. . . . . . . . .
Internet. . . . . . . . . . . .
1.13.1 Acceso a la red. . . .
1.13.2 El correo electronico.
1.13.3 Ftp anonymous. . . .
WWW. . . . . . . . . . . .
Impresion. . . . . . . . . . .
Compresion. . . . . . . . . .
Compilacion y debugging. .
1.17.1 Compiladores. . . . .
make & Makefile. . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

INDICE

2.5

2.6

2.7
2.8

v
2.4.4 Matrices multidimensionales. . . . . . . . .
2.4.5 Matrices de caracteres: cadenas (strings). .
2.4.6 Argumentos del programa. . . . . . . . . .
Clases. . . . . . . . . . . . . . . . . . . . . . . . .
2.5.1 Definicion. . . . . . . . . . . . . . . . . . .
2.5.2 Miembros. . . . . . . . . . . . . . . . . . .
2.5.3 Miembros p
ublicos y privados. . . . . . . .
2.5.4 Operador de seleccion (.). . . . . . . . . .
2.5.5 Implementacion de funciones miembros. .
2.5.6 Constructor. . . . . . . . . . . . . . . . . .
2.5.7 Destructor. . . . . . . . . . . . . . . . . .
2.5.8 Matrices de clases. . . . . . . . . . . . . .
Sobrecarga. . . . . . . . . . . . . . . . . . . . . .
2.6.1 Sobrecarga de funciones. . . . . . . . . . .
2.6.2 Sobrecarga de operadores. . . . . . . . . .
2.6.3 Coercion. . . . . . . . . . . . . . . . . . .
Punteros. . . . . . . . . . . . . . . . . . . . . . .
Herencia. . . . . . . . . . . . . . . . . . . . . . .

3 Gr
afica.
3.1 Visualizacion de archivos graficos. . .
3.2 Modificando imagenes . . . . . . . .
3.3 Conversion entre formatos graficos. .
3.4 Captura de pantalla. . . . . . . . . .
3.5 Creando imagenes. . . . . . . . . . .
3.6 Graficando funciones y datos. . . . .
3.7 Graficando desde nuestros programas.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

61
61
63
64
65
65
65
66
67
67
68
69
69
70
70
70
71
72

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

75
75
76
76
76
77
78
79

4 Una breve introducci


on a Octave/Matlab
4.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . .
4.2 Interfase con el programa . . . . . . . . . . . . . . . .
4.3 Tipos de variables . . . . . . . . . . . . . . . . . . . .
4.3.1 Escalares . . . . . . . . . . . . . . . . . . . . .
4.3.2 Matrices . . . . . . . . . . . . . . . . . . . . .
4.3.3 Strings . . . . . . . . . . . . . . . . . . . . . .
4.3.4 Estructuras . . . . . . . . . . . . . . . . . . .
4.4 Operadores basicos . . . . . . . . . . . . . . . . . . .
4.4.1 Operadores aritmeticos . . . . . . . . . . . . .
4.4.2 Operadores relacionales . . . . . . . . . . . . .
4.4.3 Operadores logicos . . . . . . . . . . . . . . .
4.4.4 El operador : . . . . . . . . . . . . . . . . .
4.4.5 Operadores de aparicion preferente en scripts
4.5 Comandos matriciales basicos . . . . . . . . . . . . .
4.6 Comandos . . . . . . . . . . . . . . . . . . . . . . . .
4.6.1 Comandos generales . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

85
85
85
86
86
86
89
89
90
90
91
91
91
91
92
92
92

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

INDICE

vi
4.6.2
4.6.3
4.6.4
4.6.5
4.6.6
4.6.7
4.6.8
4.6.9

Como lenguaje de programacion . .


Matrices y variables elementales . .
Polinomios . . . . . . . . . . . . . .

Algebra
lineal (matrices cuadradas)
Analisis de datos y transformada de
Graficos . . . . . . . . . . . . . . .
Strings . . . . . . . . . . . . . . . .
Manejo de archivos . . . . . . . . .

. . . . .
. . . . .
. . . . .
. . . . .
Fourier
. . . . .
. . . . .
. . . . .

5 El sistema de preparaci
on de documentos TEX .
5.1 Introduccion. . . . . . . . . . . . . . . . . . . . .
5.2 Archivos. . . . . . . . . . . . . . . . . . . . . . . .
5.3 Input basico. . . . . . . . . . . . . . . . . . . . .
5.3.1 Estructura de un archivo. . . . . . . . . .
5.3.2 Caracteres. . . . . . . . . . . . . . . . . .
5.3.3 Comandos. . . . . . . . . . . . . . . . . .
5.3.4 Algunos conceptos de estilo. . . . . . . . .
5.3.5 Notas a pie de pagina. . . . . . . . . . . .
5.3.6 Formulas matematicas. . . . . . . . . . . .
5.3.7 Comentarios. . . . . . . . . . . . . . . . .
5.3.8 Estilo del documento. . . . . . . . . . . . .
5.3.9 Argumentos de comandos. . . . . . . . . .
5.3.10 Ttulo. . . . . . . . . . . . . . . . . . . . .
5.3.11 Secciones. . . . . . . . . . . . . . . . . . .
5.3.12 Listas. . . . . . . . . . . . . . . . . . . . .
5.3.13 Tipos de letras. . . . . . . . . . . . . . . .
5.3.14 Acentos y smbolos. . . . . . . . . . . . . .
5.3.15 Escritura de textos en castellano. . . . . .
5.4 Formulas matematicas. . . . . . . . . . . . . . . .
5.4.1 Sub y suprandices. . . . . . . . . . . . . .
5.4.2 Fracciones. . . . . . . . . . . . . . . . . . .
5.4.3 Races. . . . . . . . . . . . . . . . . . . . .
5.4.4 Puntos suspensivos. . . . . . . . . . . . . .
5.4.5 Letras griegas. . . . . . . . . . . . . . . . .
5.4.6 Letras caligraficas. . . . . . . . . . . . . .
5.4.7 Smbolos matematicos. . . . . . . . . . . .
5.4.8 Funciones tipo logaritmo. . . . . . . . . .
5.4.9 Matrices. . . . . . . . . . . . . . . . . . .
5.4.10 Acentos. . . . . . . . . . . . . . . . . . . .
5.4.11 Texto en modo matematico. . . . . . . . .
5.4.12 Espaciado en modo matematico. . . . . . .
5.4.13 Fonts. . . . . . . . . . . . . . . . . . . . .
5.5 Tablas. . . . . . . . . . . . . . . . . . . . . . . . .
5.6 Referencias cruzadas. . . . . . . . . . . . . . . . .
5.7 Texto centrado o alineado a un costado. . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

93
96
98
99
99
100
104
105

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

109
109
109
110
110
110
111
111
112
113
113
113
114
115
116
116
117
118
119
120
120
120
121
121
122
122
122
124
125
128
128
128
129
129
130
131

INDICE

vii

5.8

Modificando el estilo. . . . . . . .
5.8.1 Estilos de pagina. . . . . .
5.8.2 Corte de paginas y lneas.
5.9 Figuras. . . . . . . . . . . . . . .
5.10 Cartas. . . . . . . . . . . . . . . .
5.11 Errores y advertencias. . . . . . .
5.11.1 Errores. . . . . . . . . . .
5.11.2 Advertencias. . . . . . . .

II

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

Ecuaciones diferenciales ordinarias.

.
.
.
.
.
.
.
.

131
131
132
135
135
138
138
141

143

6 Ecuaciones diferenciales de primer orden.


6.1 Introduccion. . . . . . . . . . . . . . . . . . . . . .
6.2 Ecuaciones de primer orden. . . . . . . . . . . . . .
6.3 Ecuaciones con variables separables. . . . . . . . . .
6.4 Ecuaciones que se reducen a ecuaciones de variables
6.5 Ecuaciones lineales de primer orden. . . . . . . . .
6.6 Ecuaciones en diferenciales totales. . . . . . . . . .
6.7 Teoremas. . . . . . . . . . . . . . . . . . . . . . . .

. . . . . .
. . . . . .
. . . . . .
separables
. . . . . .
. . . . . .
. . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

145
145
147
149
151
155
159
165

7 Ecuaciones diferenciales de orden mayor que uno.


167
7.1 Teorema de existencia y unicidad para la ecuacion diferencial de n-esimo orden.167
7.2 Casos simples de reduccion del orden. . . . . . . . . . . . . . . . . . . . . . . . 168
7.3 Ecuaciones diferenciales lineales de n-esimo orden. . . . . . . . . . . . . . . . . 174
7.4 Ecuaciones lineales homogeneas con . . . . . . . . . . . . . . . . . . . . . . . . 180
7.4.1 Ecuaciones lineales homogeneas con coeficientes constantes. . . . . . . . 180
7.4.2 Ecuaciones de Euler. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
7.5 Ecuaciones lineales no homogeneas. . . . . . . . . . . . . . . . . . . . . . . . . 184
7.6 Ecuaciones lineales no homogeneas con . . . . . . . . . . . . . . . . . . . . . . 192
7.7 Integracion de las ecuaciones diferenciales por medio de series. . . . . . . . . . 197
8 Sistemas de ecuaciones diferenciales.
8.1 Conceptos generales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Integracion de un sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3 Sistema de ecuaciones diferenciales lineales. . . . . . . . . . . . . . . . . . . .

201
. 201
. 204
. 205

III

211

M
etodos Num
ericos.

9 Preliminares.
9.1 Programas y funciones. . . .
9.2 Errores numericos. . . . . .
9.2.1 Errores de escala. . .
9.2.2 Errores de redondeo.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

213
. 213
. 221
. 221
. 223

INDICE

viii
10 EDO: M
etodos b
asicos.
10.1 Movimiento de un proyectil. . . . . . . . . . . . . . . . . . .
10.1.1 Ecuaciones basicas. . . . . . . . . . . . . . . . . . . .
10.1.2 Derivada avanzada. . . . . . . . . . . . . . . . . . . .
10.1.3 Metodo de Euler. . . . . . . . . . . . . . . . . . . . .
10.1.4 Metodos de Euler-Cromer y de Punto Medio. . . . .
10.1.5 Errores locales, errores globales y eleccion del paso de
10.1.6 Programa de la pelota de baseball. . . . . . . . . . . .
10.2 Pendulo simple. . . . . . . . . . . . . . . . . . . . . . . . . .
10.2.1 Ecuaciones basicas. . . . . . . . . . . . . . . . . . . .
10.2.2 Formulas para la derivada centrada. . . . . . . . . . .
10.2.3 Metodos del salto de la rana y de Verlet. . . . . . .
10.2.4 Programa de pendulo simple. . . . . . . . . . . . . .
10.3 Listado de los programas. . . . . . . . . . . . . . . . . . . .
10.3.1 balle.cc . . . . . . . . . . . . . . . . . . . . . . . .
10.3.2 pendulo.cc . . . . . . . . . . . . . . . . . . . . . . .
11 EDO II: M
etodos Avanzados.

11.1 Orbitas de cometas. . . . . . . . . . . . . . . . . .


11.1.1 Ecuaciones basicas. . . . . . . . . . . . . .
11.1.2 Programa orbita. . . . . . . . . . . . . .
11.2 Metodos de Runge-Kutta. . . . . . . . . . . . . .
11.2.1 Runge-Kutta de segundo orden. . . . . . .
11.2.2 Formulas generales de Runge-Kutta. . . .
11.2.3 Runge-Kutta de cuarto orden. . . . . . . .
11.2.4 Pasando funciones a funciones. . . . . . .
11.3 Metodos adaptativos . . . . . . . . . . . . . . . .
11.3.1 Programas con paso de tiempo adaptativo.
11.3.2 Funcion adaptativa de Runge-Kutta. . . .
11.4 Listados del programa. . . . . . . . . . . . . . . .
11.4.1 orbita.cc . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
tiempo.
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

12 Resolviendo sistemas de ecuaciones.


12.1 Sistemas de ecuaciones lineales. . . . . . . . . . . . . . . . . . .
12.1.1 Estado estacionario de EDO. . . . . . . . . . . . . . . . .
12.1.2 Eliminacion Gaussiana. . . . . . . . . . . . . . . . . . . .
12.1.3 Pivoteando. . . . . . . . . . . . . . . . . . . . . . . . . .
12.1.4 Determinantes. . . . . . . . . . . . . . . . . . . . . . . .
12.1.5 Eliminacion Gaussiana en Octave. . . . . . . . . . . . . .
12.1.6 Eliminacion Gaussiana con C++ de objetos matriciales.
12.2 Matriz inversa. . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.2.1 Matriz inversa y eliminacion Gaussiana. . . . . . . . . .
12.2.2 Matrices singulares y patologicas. . . . . . . . . . . . . .
12.2.3 Osciladores armonicos acoplados. . . . . . . . . . . . . .
12.3 Sistemas de ecuaciones no lineales. . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

225
. 225
. 225
. 227
. 228
. 229
. 229
. 230
. 232
. 232
. 234
. 235
. 237
. 241
. 241
. 242

.
.
.
.
.
.
.
.
.
.
.
.
.

245
. 245
. 245
. 247
. 250
. 250
. 253
. 254
. 255
. 256
. 256
. 257
. 260
. 260

.
.
.
.
.
.
.
.
.
.
.
.

267
. 267
. 267
. 268
. 269
. 271
. 271
. 272
. 274
. 274
. 276
. 277
. 278

INDICE
12.3.1 Metodo de Newton en una variable. . . .
12.3.2 Metodo de Newton multivariable. . . . .
12.3.3 Programa del metodo de Newton. . . . .
12.3.4 Continuacion. . . . . . . . . . . . . . . .
12.4 Listados del programa. . . . . . . . . . . . . . .
12.4.1 Definicion de la clase Matrix. . . . . . .
12.4.2 Implementacion de la clase Matrix. . . .
12.4.3 Funcion de eliminacion Gaussiana ge. . .
12.4.4 Funcion para inversion de matrices inv.
12.4.5 Programa newtn en Octave. . . . . . . .
12.4.6 Programa newtn en c++. . . . . . . . .

ix
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

13 An
alisis de datos.
13.1 Ajuste de curvas. . . . . . . . . . . . . . . . . . . .
13.1.1 El calentamiento global. . . . . . . . . . . .
13.1.2 Teora general. . . . . . . . . . . . . . . . .
13.1.3 Regresion lineal. . . . . . . . . . . . . . . .
13.1.4 Ajuste general lineal de mnimos cuadrados.
13.1.5 Bondades del ajuste. . . . . . . . . . . . . .

IV

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

295
. 295
. 295
. 296
. 298
. 300
. 301

An
alisis Vectorial

14 An
alisis vectorial.
14.1 Definiciones, una aproximacion elemental. . . . . . . . . . . . .
14.2 Rotacion de los ejes de coordenadas. . . . . . . . . . . . . . . .
14.2.1 Vectores y espacio vectoriales. . . . . . . . . . . . . . . .
14.3 Producto escalar o producto punto. . . . . . . . . . . . . . . . .
14.3.1 Invariancia del producto escalar bajo rotaciones. . . . . .
14.4 Producto vectorial o producto cruz. . . . . . . . . . . . . . . . .
14.5 Productos escalar triple y vectorial triple. . . . . . . . . . . . . .
14.5.1 Producto escalar triple. . . . . . . . . . . . . . . . . . . .
14.5.2 Producto vectorial triple. . . . . . . . . . . . . . . . . . .
14.6 Gradiente, . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.6.1 Una interpretacion geometrica . . . . . . . . . . . . . . .
14.7 Divergencia, . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.7.1 Una interpretacion fsica. . . . . . . . . . . . . . . . . . .
14.8 Rotor, . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.9 Aplicaciones sucesivas de . . . . . . . . . . . . . . . . . . . . .
14.10Integracion vectorial. . . . . . . . . . . . . . . . . . . . . . . . .
14.10.1 Integrales lineales. . . . . . . . . . . . . . . . . . . . . .
14.10.2 Integrales de superficie. . . . . . . . . . . . . . . . . . . .
14.10.3 Integrales de volumen. . . . . . . . . . . . . . . . . . . .
14.10.4 Definiciones integrales de gradiente, divergencia y rotor. .
14.11Teorema de Gauss. . . . . . . . . . . . . . . . . . . . . . . . . .

278
279
280
282
283
283
284
288
289
289
291

303
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

305
. 305
. 310
. 314
. 315
. 318
. 320
. 324
. 324
. 326
. 327
. 329
. 330
. 332
. 334
. 337
. 339
. 339
. 340
. 341
. 342
. 343

INDICE

x
14.11.1 Teorema de Green. . . . . . . . . . . . . . . . . . . .
14.11.2 Forma alternativa del Teorema de Gauss. . . . . . . .
14.12El Teorema de Stokes. . . . . . . . . . . . . . . . . . . . . .
14.12.1 Forma alternativa del Teorema de Stokes. . . . . . .
14.13Teora potencial. . . . . . . . . . . . . . . . . . . . . . . . .
14.13.1 Potencial escalar. . . . . . . . . . . . . . . . . . . . .
14.13.2 Termodinamica, diferenciales exactas. . . . . . . . . .
14.14Ley de Gauss y ecuacion de Poisson. . . . . . . . . . . . . .
14.14.1 Ecuacion de Poisson. . . . . . . . . . . . . . . . . . .
14.15La delta de Dirac. . . . . . . . . . . . . . . . . . . . . . . . .
14.15.1 Representacion de la delta por funciones ortogonales.
14.15.2 Representacion integral para la delta. . . . . . . . . .
14.16Teorema de Helmholtz. . . . . . . . . . . . . . . . . . . . . .
14.16.1 Teorema de Helmholtz. . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

344
345
346
347
347
347
350
352
355
355
359
360
361
363

Indice de Figuras
4.1
4.2
4.3

Grafico simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101


Curvas de contorno. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
Curvas de contorno. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

6.1 Curvas integrales. . . . . . . . . .


6.2 Curvas integrales y = cx. . . . . .
6.3 Caminos de integracion posibles. .
6.4 Camino de integracion. . . . . . .
9.1
9.2

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

148
149
160
161

Salida grafica del programa interp. . . . . . . . . . . . . . . . . . . . . . . . . 218


Error absoluto (h), ecuacion (9.8), versus h para f (x) = x2 y x = 1. . . . . . 223

10.1 Trayectoria de una partcula despues de un u


nico paso de tiempo con el metodo
de Euler. Solo para efectos ilustrativos es grande . . . . . . . . . . . . . . .
10.2 Salida del programa balle para una altura inicial de 0 [m], una velocidad
inicial de 15 [m/s], y un paso de tiempo =0.1 [s]. No hay resistencia del aire.
La lnea continua es la teorica y los puntos son los calculados, la diferencia se
debe a errores de truncamiento. . . . . . . . . . . . . . . . . . . . . . . . . . .
10.3 Salida del programa balle para una altura inicial de 1 [m], una velocidad
inicial de 50 [m/s], y un paso de tiempo =0.1 [s]. Con resistencia del aire. . .
10.4 Salida del programa pendulo usando el metodo de Euler. El angulo inicial es
m = 10 , el paso en el tiempo es = 0.1, y 300 iteraciones fueron calculadas. .
10.5 Salida del programa pendulo usando el metodo de Euler. El angulo inicial es
m = 10 , el paso en el tiempo es = 0.05 y 600 iteraciones fueron calculadas.
10.6 Salida del programa pendulo usando el metodo de Verlet. El angulo inicial es
m = 10 , el paso en el tiempo es = 0.1 y 300 iteraciones fueron calculadas. .
10.7 Salida del programa pendulo usando el metodo de Verlet. El angulo inicial es
m = 170 , el paso en el tiempo es = 0.1 y 300 iteraciones fueron calculadas.

229

231
232
239
240
240
241

11.1 Orbita
elptica alrededor del Sol. . . . . . . . . . . . . . . . . . . . . . . . . . . 246
11.2 Grafico de la trayectoria y la energa desde el programa orbita usando el
metodo de Euler. La distancia radial inicial es 1 [AU] y la velocidad tangencial
inicial es 2 [AU/a
no]. El paso en el tiempo es = 0.02 [a
nos]; y 200 pasos
son calculados. Los resultados estan en desacuerdo con la prediccion teorica
de una orbita circular con energa total constante. . . . . . . . . . . . . . . . . 249
xi

xii

INDICE DE FIGURAS
11.3 Grafico de la trayectoria y la energa desde el programa orbita usando el
metodo de Euler-Cromer. Los parametros son los mismos que en la figura
11.2. Los resultados estan en un acuerdo cualitativo al menos con la prediccion
teorica de una orbita circular con energa total constante. . . . . . . . . . . .
11.4 Grafico de la trayectoria y la energa desde el programa orbita usando el
metodo de Euler-Cromer. La distancia radial inicial es 1 [AU] y la velocidad
tangencial inicial es [AU/a
no]. El paso en el tiempo es = 0.02 [a
nos]; y 200
pasos son calculados. Debido al error numerico el cometa alcanza la velocidad
de escape, la posicion final es 35 [AU] y la energa total es positiva. . . . . .
11.5 Grafico de la trayectoria y la energa desde el programa orbita usando el
metodo de Euler-Cromer. Los parametros son los mismos que en la figura 11.4
excepto que el tiempo es mas peque
no = 0.005 [a
nos]. Los resultados son
mejores, pero a
un presenta una precesion esp
uria. . . . . . . . . . . . . . . .
11.6 Grafico de la trayectoria y la energa desde el programa orbita usando el
metodo de Runge-Kutta. La distancia radial inicial es 1 [AU] y la velocidad
tangencial inicial es [AU/a
no]. El paso en el tiempo es = 0.005 [a
nos]; y
200 pasos son calculados. Comparemos con la figura 11.5. . . . . . . . . . . .
11.7 Grafico de la trayectoria y la energa desde el programa orbita usando el
metodo de Runge-Kutta adaptativo. La distancia radial inicial es 1 [AU] y la
velocidad tangencial inicial es /2 [AU/a
no]. El paso inicial en el tiempo es
= 0.1 [a
nos]; y 40 pasos son calculados. . . . . . . . . . . . . . . . . . . . .
11.8 Paso de tiempo como funcion de la distancia radial desde el programa orbita
usando el metodo de Runge-Kutta adaptativo. Los parametros son los mismos
de la figura 11.7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. 250

. 250

. 251

. 256

. 259

. 259

12.1 Sistema de bloques acoplados por resortes anclados entre paredes. . . . . . . . 277
12.2 Representacion grafica del metodo de Newton. . . . . . . . . . . . . . . . . . . 279
13.1 Dioxido de carbono (en partes por millon) medida en Mauna Loa, Hawai desde
1981 a 1990. Barra de error estimada es 0 = 0.16 [p.p.m.] . . . . . . . . . . . 296
13.2 Ajuste de datos a una curva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
14.1 Ley del triangulo para suma de vectores. . . . . . . . . . . . . . . . . . . . . . 305
14.2 Ley del paralelogramo para suma de vectores. . . . . . . . . . . . . . . . . . . 306
14.3 La suma de vectores es asociativa. . . . . . . . . . . . . . . . . . . . . . . . . . 306
14.4 Equilibrio de fuerzas. F1 + F2 = F3 . . . . . . . . . . . . . . . . . . . . . . . 307
14.5 Componentes cartesianas y cosenos directores de A. . . . . . . . . . . . . . . . 308
14.6 Rotacion de los ejes coordenados cartesianos respecto del eje z. . . . . . . . . . 311
14.7 Producto escalar A B = AB cos . . . . . . . . . . . . . . . . . . . . . . . . . 316
14.8 La ley distributiva A (B + C) = ABA + ACA = A(B + C)A , ecuacion (14.24). 317
14.9 Un vector normal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
14.10La ley de los cosenos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
14.11Momento angular. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
14.12Paralelogramo que representa el producto cruz. . . . . . . . . . . . . . . . . . 321
14.13Paraleleppedo que representa el producto escalar triple. . . . . . . . . . . . . 325

INDICE DE FIGURAS
14.14Los vectores B y C estan en el plano xy. B C es perpendicular al plano xy y
es mostrado aqu a lo largo del eje z. Entonces A (B C) es perpendicular
al eje z y por lo tanto esta de regreso en el plano xy. . . . . . . . . . . . . .
14.15Requerimos que el diferencial de longitud dr permanezca sobre la superficie
= C. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.16Gradiente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.17Diferenciacion de un vector. . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.18Diferencial paraleleppedo rectangular (en el primer octante). . . . . . . . . .
14.19Circulacion alrededor de un loop diferencial. . . . . . . . . . . . . . . . . . .
14.20Regla de la mano derecha para la normal positiva. . . . . . . . . . . . . . . .
14.21Paraleleppedo rectangular diferencial con el origen en el centro. . . . . . . .
14.22Cancelacion exacta de los d sobre las superficies interiores. Sobre la superficie
externa no hay cancelacion. . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.23Cancelacion exacta de los caminos interiores. Sobre el permetro externo no
hay cancelacion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.24Posible camino para hacer el trabajo. . . . . . . . . . . . . . . . . . . . . . .
14.25Formulaciones equivalentes para una fuerza conservativa. . . . . . . . . . . .
14.26Ley de Gauss. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.27Exclusion del origen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.28Secuencia a la delta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.29Secuencia a la delta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.30Secuencia a la delta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.31Campo y fuente puntual. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

xiii

. 327
.
.
.
.
.
.
.

329
330
331
332
335
341
342

. 344
.
.
.
.
.
.
.
.
.

346
349
350
353
353
356
357
357
364

INDICE DE FIGURAS

Primera parte

A LA FISICA
INTRODUCCION

MATEMATICA

INDICE DE FIGURAS

Parte I
Computaci
on.

Captulo 1
Elementos del sistema operativo unix.
versi
on final 1.4-010816

1.1

Introducci
on.

En este captulo se intentara dar los elementos basicos para poder trabajar en un ambiente
unix. Sin pretender cubrir todos los aspectos del mismo, nuestro interes se centra en dar
las herramientas al lector para que pueda realizar los trabajos del curso bajo este sistema
operativo. Como comentario adicional, concientemente se ha evitado la traduccion de gran
parte de la terminologa tecnica teniendo en mente que documentacion disponible se encuentre
por lo general en ingles y nos interesa que el lector sea capaz se reconocer los terminos.
El sistema operativo unix es el mas usado en investigacion cientfica, tiene una larga
historia y muchas de sus ideas y metodos se encuentran presentes en otros sistemas operativos.
Algunas de las caractersticas relevantes del unix moderno son:
Memoria grande, lineal y virtual: Un programa en una maquina de 32 Bits puede
acceder y usar direcciones hasta los 4 GB en un maquina de solo 4 MB de RAM. El
sistema solo asigna memoria autentica cuando le hace falta, en caso de falta de memoria
de RAM, se utiliza el disco duro (swap).
Multitarea (Multitasking): Cada programa tiene asignado su propio espacio de memoria. Es imposible que un programa afecte a otro sin usar los servicios del sistema
operativo. Si dos programas escriben en la misma direccion de memoria cada uno
mantiene su propia idea de su contenido.
Multiusuario: Mas de una persona puede usar la maquina al mismo tiempo. Programas
de otros usuarios contin
uan ejecutandose a pesar de que un nuevo usuario entre a la
maquina.
Casi todo tipo de dispositivo puede ser accedido como un archivo.
Existen muchos aplicaciones dise
nadas para trabajar desde la lnea de comandos. Ademas, la mayora de las aplicaciones permiten que la salida de una pueda ser la entrada
de la otra.
Permite compartir dispositivos (como disco duro) entre una red de maquinas.
5

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

Por su naturaleza de multiusuario, nunca se debe apagar una maquina unix1 , ya que
una maquina apagada sin razon puede matar trabajos de das, perder los u
ltimos cambios de
tus archivos e ir degradando el sistema de archivos en dispositivos como el disco duro.
Entre los sistemas operativos unix actuales cabe destacar:
Linux: esta disponible para: Intel x86; Motorola 68k, en particular, para las estaciones
Sun3, computadores personales Apple Macintosh, Atari y Amiga; Sun SPARC; Alpha;
Motorola/IBM PowerPC; ARM, maquinas NetWinder; Sun UltraSPARC; MIPS CPUs,
maquinas SGI y estaciones Digital; HP PA-RISC; IA-64, arquitectura Intel de 64-bits;
S/390, servidores IBM S/390 y SuperH procesadores Hitachi SuperH.
SunOS2 : disponible para la familia 68K as como para la familia sparc de estaciones
de trabajo sun
Solaris3 : disponible para la familia sparc de Sun as como para la familia x86.
OSF14 : disponible para Alpha.
Ultrix: disponible para vax de Digital
SYSVR45 : disponible para la familia x86, vax.
IRIX: disponible para mips.
AIX6 : disponible para RS6000 de IBM y PowerPC.

1.2

Ingresando al sistema.

En esta seccion comentaremos las operaciones de comienzo y fin de una sesion en unix as
como la modificacion de la contrase
na (que a menudo no es la deseada por el usuario, y que
por lo tanto puede olvidar con facilidad).

1.2.1

Terminales.

Para iniciar una sesion es necesario poder acceder a un terminal. Pueden destacarse dos tipos
de terminales:
Terminal de texto: consta de una pantalla y de un teclado. Como indica su nombre,
en la pantalla solo es posible imprimir caracteres de texto.
Terminal grafico: Consta de pantalla grafica, teclado y mouse. Dicha pantalla suele ser de alta resolucion. En este modo se pueden emplear ventanas que emulan el
comportamiento de un terminal de texto (xterm o gnome-terminal).
1

incluyendo el caso en que la m


aquina es un PC normal corriendo Linux u otra versi
on de unix
SunOS 4.1.x tambien se conoce como Solaris 1
3
tambien conocido como SunOS 5.x, solaris 2 o Slowaris :-)
4
tambien conocido como Dec Unix
5
tambien conocido como Unixware y Novell-Unix
6
tambien conocido como Aches
2

1.2. INGRESANDO AL SISTEMA.

1.2.2

Login.

El primer paso es encontrar un terminal libre donde aparezca el login prompt del sistema:
Debian GNU/Linux 2.2 hostname tty2
hostname login:
Tambien pueden ocurrir un par de cosas cosas:
La pantalla no muestra nada.
Comprobar que la pantalla este encendida.
Pulsar alguna tecla o mover el mouse para desactivar el protector de pantalla.
Otra persona ha dejado una sesion abierta. En este caso existe la posibilidad de intentar
en otra maquina o bien finalizar la sesion de dicha persona (si esta no se halla en las
proximidades).
Una vez que se haya superado el paso anterior de encontrar el login prompt se procede con la introduccion de tu Username al prompt de login y despues la contrase
na
(password) adecuado.

1.2.3

Passwords.

El password puede ser cualquier secuencia de caracteres a eleccion. Deben seguirse las siguientes pautas:
Debe ser facil de recordar por uno mismo. Si se olvida, debera pasarse un mal rato
diciendole al administrator de sistema que uno lo ha olvidado.
Para evitar que alguna persona no deseada obtenga la password y tenga libre acceso a
los archivos de tu cuenta:
Las may
usculas y min
usculas no son equivalentes sin embargo se recomienda que
se cambie de una a otra.
Los caracteres numericos y no alfabeticos tambien ayudan. Debe tenerse sin embargo la precaucion de usar caracteres alfanumericos que se puedan encontrar en
todos los terminales desde los que se pretenda acceder.
Las palabras de diccionario deben ser evitadas.
Debes cambiarlo si crees que tu password es conocido por otras personas, o descubres
que alg
un intruso7 esta usando tu cuenta.
El password debe de ser cambiado con regularidad.
7

intruso es cualquier persona que no sea el usuario

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

La orden para cambiar el password en unix es passwd. A menudo cuando existen varias
maquinas que comparten recursos (disco duro, impresora, correo electronico, . . . ), para
facilitar la administracion de dicho sistema se unifican los recursos de red (entre los que se
hayan los usuarios de dicho sistema) en una base de datos com
un. Dicho sistema se conoce
8
como NIS (Network Information Service) . Si el sistema empleado dispone de este servicio, la
modificacion de la contrase
na en una maquina supone la modificacion en todas las maquinas
que constituyan el dominio NIS.

1.2.4

Cerrando la sesi
on.

Es importante que nunca se deje abierta una sesion, pues alg


un intruso podra tener libre
acceso a archivos de tu propiedad y manipularlos de forma indeseable para t. Para evitar
todo esto basta teclear logout o exit y habra acabado tu sesion de unix en dicha maquina9 .

1.3

Archivos y directorios.

Aunque haya diferentes distribuciones y cada una traiga sus programas, la estructura basica
de directorios y archivos es mas o menos la misma en todas:
/-|-->
|-->
|-->
|-->
|-->
|-->
|-->
|-->
|-->
|-->
|-->
|-->
|-->
|-->
|
|
|
|
|
|
|
|
|-->
8

bin
boot
cdrom
dev
etc
floppy
home
lib
mnt
proc
root
sbin
tmp
usr -|--> X11
|--> bin
|--> include
|--> lib
|--> local -|--> bin
|
|--> lib
|--> man
|--> src --> linux
|--> doc
var --> adm

antiguamente se conoca como YP (Yellow Pages), pero debido a un problema de marca registrada de
United Kingdom of British Telecomunications se adoptaron las siglas nis
9
en caso que se estuviera trabajando bajo X-Windows debes cerrar la sesi
on con Log out of Gnome


1.4. ORDENES BASICAS.

El arbol que observamos muestra un tpico arbol de directorios en Linux. Pueden variar,
sin embargo, algunos de los nombres dependiendo de la distribucion o version de Linux que
se este usando. Algunos directorios destacados son:
/home - Espacio reservado para las cuentas de los usuarios.
/bin, /usr/bin - Binarios (ejecutables) basicos de unix.
/etc, aqu se encuentran los archivos de configuracion de todo el software de la maquina.
/proc, es un sistema de archivo virtual. Contiene archivos que residen en memoria
pero no en el disco duro. Hace referencia a los programas que se estan corriendo en el
momento en el sistema.
/dev (device) (dispositivo). Aqu se guardan los controladores de dispositivos. Se usan
para acceder a los dispositivos fsicos del sistema y recursos como discos duros, modems,
memoria, mouse, etc. Algunos dispositivos:
hd: hda1 sera el disco duro IDE, primario (a), y la primera particion (1).
fd: As tambien, los archivos que empiecen con las letras fd se referiran a los controladores de las disketteras: fd0 sera la primera diskettera, fd1 sera la segunda
y as sucesivamente.
ttyS: se usan para acceder a los puertos seriales como por ejemplo, ttyS0 es el
puerto conocido como com1.
sd: son los dispositivos SCSI. Su uso es muy similar al del hd.
lp: son los puertos paralelos. lp0 es el puerto conocido como LPT1.
null: este es usado como un agujero negro, ya que todo lo que se dirige all
desaparece.
tty: hacen referencia a cada una de las consolas virtuales. Como es de suponerse,
tty1 sera la primera consola virtual, tty2 la segunda, etc.
/usr/local - Zona con las aplicaciones no comunes a todos los sistemas unix, pero
no por ello menos utilizadas. En /usr/doc se puede encontrar informacion relacionada
con dicha aplicacion (en forma de paginas de manual, texto, html o bien archivos dvi,
Postscript o pdf). Tambien encontramos archivos de ejemplo, tutoriales, HOWTO, etc.

1.4

Ordenes b
asicas.

Para ejecutar un comando, basta con teclear su nombre (tambien debes tener permiso para
hacerlo). Las opciones o modificadores empiezan normalmente con el caracter -

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

10

1.4.1

Archivos y directorios.

En un sistema computacional la informacion se encuentra en archivos que la contienen (tabla


de datos, texto ASCII, fuente en lenguaje C, fortran o C++, ejecutable, imagen, mp3, figura,
resultados de simulacion, . . . ). Para organizar toda la informacion se dispone de una entidad denominada directorio, que permite el almacenamiento en su interior tanto de archivos
como de otros directorios10 . Se dice que la estructura de directorios en unix es jerarquica
o arborescente, debido a que todos los directorios nacen en un mismo punto (denominado
directorio raz). De hecho la zona donde uno trabaja es un nodo de esa estructura de directorios, pudiendo uno a su vez generar una estructura por debajo de ese punto. Un archivo se
encuentra situado siempre en un directorio y su acceso se realiza empleando el camino que

conduce a el en el Arbol
de Directorios del Sistema. Este camino es conocido como el path.
El acceso a un archivo se puede realizar empleando:
Path Absoluto, aquel que empieza con /
Por ejemplo : /etc/printcap
Path Relativo, aquel que no empieza con /
Por ejemplo : ../examples/rc.dir.01
Nombres de archivos y directorios pueden usar un maximo de 255 caracteres, cualquier
combinacion de letras y smbolos ( el caracter / no se permite).
Los caracteres comodn pueden ser empleados para acceder a un conjunto de archivos con
caractersticas comunes. El signo * puede sustituir cualquier conjunto de caracteres11 y el
signo ? cualquier caracter individual. Por ejemplo:12
bash$ ls
f2c.1
flexdoc.1
rcmd.1
rptp.1
zforce.1
face.update.1 ftptool.1
rlab.1
rxvt.1
zip.1
faces.1
funzip.1
robot.1
zcat.1
zipinfo.1
flea.1
fvwm.1
rplay.1
zcmp.1
zmore.1
Los archivos cuyo
flex.1
rasttoppm.1 rplayd.1 zdiff.1 znew.1
bash$ ls rp*
rplay.1
rplayd.1
rptp.1
bash$ ls *e??
face.update.1 zforce.1
zmore.1
nombre comiencen por . se denominan ocultos, as por ejemplo en el directorio de partida
de un usuario.
bash$ ls -a user
.
.alias
.fvwmrc .login
.xinitrc
..
.cshrc
.joverc .profile
.Xdefaults
.enviroment .kshrc
.tcshrc
10

normalmente se acude a la imagen de una carpeta que puede contener informes, documentos o bien otras
carpetas, y as sucesivamente
11
includo el punto ., unix no es dos
12
bash$ es el prompt en todos los ejemplos


1.4. ORDENES BASICAS.
Algunos
.
..

~user

1.4.2

11

caracteres especiales para el acceso a archivos son:


Directorio actual
Directorio superior en el arbol
Directorio $HOME
Directorio $HOME del usuario user

Ordenes relacionadas con directorios.

ls (LiSt)
Este comando permite listar los archivos de un determinado directorio. Si no se le suministra
argumento, lista los archivos y directorios en el directorio actual. Si se a
nade el nombre de
un directorio el listado es del directorio suministrado. Existen varias opciones que modifican
su funcionamiento entre las que destacan:
-l (Long listing) proporciona un listado extenso, que consta de los permisos13 de cada
archivo, el usuario el tama
no del archivo, . . .
-a (list All) lista tambien los archivos ocultos.
-R (Recursive) lista recursivamente el contenido de todos los directorios que se encuentre.
-t ordena los archivos por tiempo de modificacion.
-S ordena los archivos por tama
no.
-r invierte el sentido de un orden.
pwd (Print Working Directory)
Este comando proporciona el nombre del directorio actual.
cd (Change Directory)
Permite moverse a traves de la estructura de directorios. Si no se le proporciona argumento
se provoca un salto al directorio $home. El argumento puede ser un nombre absoluto o
relativo de un directorio.
mkdir (MaKe DIRectory)
Crea un directorio con el nombre (absoluto o relativo) proporcionado.
rmdir (ReMove DIRectory)
Elimina un directorio con el nombre (absoluto o relativo) suministrado. Dicho directorio debe
de estar vaco.

1.4.3

Visitando archivos.

Este conjunto de ordenes permite visualizar el contenido de un archivo sin modificar su


contenido.
cat
Muestra por pantalla el contenido de un archivo que se suministra como argumento.
13

se comentar
a posteriormente este concepto

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

12

more
Este comando es analogo a la anterior, pero permite la paginacion.
less
Es una version mejorada del anterior. Permite moverse en ambas direcciones. Otra ventaja
es que no lee el archivo entero antes de arrancar.

1.4.4

Copiando, moviendo y borrando archivos.

cp (CoPy)
copia un archivo(s) con otro nombre y/o a otro directorio. Veamos algunas opciones:
-i (interactive), impide que la copia provoque una perdida del archivo destino si este
existe14 .
-R (recursive), copia un directorio y toda la estructura que cuelga de el.
mv (MoVe)
Mover un archivo(s) a otro nombre y/o a otro directorio. Dispone de opciones analogas al
caso anterior.
rm (ReMove)
Borrar un archivo(s). En caso de que el argumento sea un directorio y se haya sumnistrado
la opcion -r, es posible borrar el directorio y todo su contenido. La opcion -i pregunta antes
de borrar.

1.4.5

Espacio de disco.

El recurso de almacenamiento en el disco es siempre limitado, a continuacion se comentan


un par de comandos relacionados con la ocupacion de este recurso:
du (Disk Usage)
Permite ver el espacio de disco ocupado (en bloques de disco15 ) por el archivo o directorio
suministrado como argumento. La opcion -s impide que cuando se aplique recursividad en
un directorio se muestren los subtotales. La opcion -h imprime los tama
nos en un formato
facil de leer.
df (Disk Free)
Muestra los sistemas de archivos que estan montados en el sistema, con las cantidades totales,
usadas y disponibles para cada uno.

1.4.6

Links.

ln (LiNk)
Permite realizar un enlace (link) entre dos archivos o directorios. Un enlace puede ser:
14
15

muchos sistemas tienen esta opci


on habilitada a traves de un alias, para evitar equivocaciones
1 bloque normalmente es 1 Kbyte


1.4. ORDENES BASICAS.

13

hard link: se puede realizar solo entre archivos del mismo sistema de archivos. El archivo
enlazado apunta a la zona de disco donde se halla el archivo original. Por tanto, si se
elimina el archivo original, el enlace sigue teniendo acceso a dicha informacion. Es el
enlace por omision.
symbolic link: permite enlazar archivos/directorios16 de diferentes sistemas de archivos.
El archivo enlazado apunta al nombre del original. As si se elimina el archivo original
el enlace apunta hacia un nombre sin informacion asociada. Para realizar este tipo de
enlace debe emplearse la opcion -s.
Un enlace permite el uso de un archivo en otro directorio distinto del original sin necesidad
de copiarlo, con el consiguiente ahorro de espacio.

1.4.7

Protecci
on de archivos.

Dado que el sistema de archivos unix es compartido por un conjunto de usuarios, surge el
problema de la necesidad de privacidad. Sin embargo, dado que existen conjuntos de personas
que trabajan en com
un, es necesario la posibilidad de que un conjunto de usuarios puedan
tener acceso a una serie de archivos (que puede estar limitado para el resto de los usuarios).
Cada archivo y directorio del sistema dispone de un propietario, un grupo al que pertenece
y unos permisos. Existen tres tipos fundamentales de permisos:
lectura (r-Read): en el caso de un archivo significa poder examinar el contenido del
mismo; en el caso de un directorio significa poder entrar en dicho directorio.
escritura (w-Write): en el caso de un archivo significa poder modificar su contenido;
en el caso de un directorio es crear un archivo o directorio en su interior.
ejecuci
on (x-eXecute): en el caso de un archivo significa que ese archivo se pueda
ejecutar (binario o archivo de procedimientos); en el caso de un directorio es poder
ejecutar alguna orden dentro de el.
Se distinguen tres grupos de personas sobre las que especificar permisos:
user: el usuario propietario del archivo.
group: el grupo propietario del archivo (excepto el usuario). Como ya se ha comentado,
cada usuario puede pertenecer a uno o varios grupos y el archivo generado pertenece a
uno de los mismos.
other: el resto de los usuarios (excepto el usuario y los usuarios que pertenezcan al
grupo)
Tambien se puede emplear all que es la union de todos los anteriores. Para visualizar las
protecciones de un archivo o directorio se emplea la orden ls -l, cuya salida es de la forma:
-rw-r--r-- ...otra informaci
on... nombre
Los 10 primeros caracteres muestran las protecciones de dicho archivo:
16

debe hacerse notar que los directorios solo pueden ser enlazados simb
olicamente.

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

14

El primer caracter indica el tipo de archivo de que se trata:


archivo
d directorio
l enlace (link)
c dispositivo de caracteres (p.e. puerta serial)
b dispositivo de bloques (p.e. disco duro)
s socket (conexion de red)
Los caracteres 2,3,4 son los permisos de usuario
Los caracteres 5,6,7 son los permisos del grupo
Los caracteres 8,9,10 son los permisos del resto de usuarios
As en el ejemplo anterior -rw-r--r-- se trata de un archivo donde el usuario puede
leer y escribir, mientras que el grupo y el resto de usuarios solo pueden leer. Estos
suelen ser los permisos por omision para un archivo creado por un usuario. Para un
directorio los permisos por omision suelen ser:drwxr-xr-x donde se permite al usuario
entrar en el directorio y ejecutar ordenes desde el.
chmod (CHange MODe)
Esta orden permite modificar los permisos de un archivo.
chmod permisos files
Existen dos modos de especificar los permisos:
Modo absoluto o modo numerico. Se realiza empleando un n
umero que resulta de la
OR binario de los siguientes modos:
400
200
100
040
020
010
004
002
001
4000

lectura por el propietario.


escritura por el propietario.
ejecucion (b
usqueda) por el propietario.
lectura por el grupo.
escritura por el grupo.
ejecucion (b
usqueda) por el grupo.
lectura por el resto.
escritura por el resto.
ejecucion (b
usqueda) por el resto.
Set User ID, cuando se ejecuta el proceso corre
con los permisos del due
no del archivo.

Por ejemplo:
chmod 640 *.txt
Permite la lectura y escritura por el usuario, lectura para el grupo y ning
un permiso
para el resto, de un conjunto de archivos que acaban en .txt
Modo simbolico o literal. Se realiza empleando una cadena (o cadenas separadas por
comas) para especificar los permisos. Esta cadena se compone de los siguientes tres


1.4. ORDENES BASICAS.

15

elementos: who operation permission

who : es una combinacion de:

u
g
o
a

:
:
:
:

user
group
others
all (equivalente a ugo)

Si se omite este campo se supone a, con la restriccion de no ir en contra de la


mascara de creacion (umask).
operation: es una de las siguientes operaciones:
+ : a
nadir permiso.
- : eliminar permiso.
= : asignar permiso, el resto de permisos de la misma categora se anulan.
permission: es una combinacion de los caracteres:

r
w
x
s

:
:
:
:

read.
write.
execute.
en ejecucion usar los permisos de due
no.

Por ejemplo:
chmod u+x tarea
Permite la ejecucion por parte del usuario17 del archivo tarea.
chmod u=rx, go=r *.txt
Permite la lectura y ejecucion del usuario, y solo la lectura por parte del grupo y el
resto de usuarios. La opcion -r hace que la orden se efect
ue recursivamente.
umask
Esta es una orden intrnseca del Shell que permite asignar los permisos que se desea tengan
los archivos y directorios por omision. El argumento que acompa
na a la orden es un n
umero
octal que aplicara una xor sobre los permisos por omision (rw-rw-rw-) para archivos y
(rwxrwxrwx) para directorios. El valor por omision de la mascara es 022 que habilita al
usuario para lectura-escritura, al grupo y al resto para lectura. Sin argumentos muestra el
valor de la mascara.
chgrp (CHange GRouP)
Cambia el grupo propietario de una serie de archivos/directorios
chgrp grupo files
El usuario que efect
ua esta orden debe de pertenecer al grupo mencionado.
chown (CHange OWNer)
Cambia el propietario y el grupo de una serie de archivos/directorios
17

un error muy frecuente es la creaci


on de un archivo de ordenes (script file) y olvidar y permitir la ejecuci
on
del mismo

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

16

chown user:group files


La opcion -r hace que la orden se efect
ue recursivamente.
id
Muestra la identificacion del usuario18 , as como el conjunto de grupos a los que el usuario
pertenece.
user@hostname:~$ id
uid=1000(user) gid=1000(group) groups=1000(group),25(floppy),29(audio)
user@hostname:~$

1.4.8

Filtros.

Existe un conjunto de ordenes en unix que permiten el procesamiento de archivos de texto.


Se denominan filtros (Unix Filters) porque normalmente se trabaja empleando redireccion
recibiendo datos por su stdin19 y retornandolos modificados por su stdout20 .
Para facilitar la comprension de los ejemplos siguientes supondremos que existe dos archivo
llamado mylist.txt y yourlist.txt que tienen en su interior:
mylist.txt

yourlist.txt

1 190
2 280
3 370

1 190
2 281
3 370

awk
Es un procesador de archivos de texto que permite la manipulacion de las lneas de forma
tal que tome decisiones en funcion del contenido de la misma. Ejemplo, supongamos que
tenemos nuestro archivo mylist.txt con sus dos columnas
user@hostname:~$ awk {print $2, $1 }
190 1
280 2
370 3
user@hostname:~$

mylist.txt

Imprime esas dos columnas en orden inverso.


cat
Es el filtro mas basico, copia la entrada a la salida.
user@hostname:~$ cat
1 190
2 280
3 370
user@hostname:~$
18

mylist.txt

a pesar de que el usuario se identifica por una cadena denominada username, tambien existe un n
umero
denominado uid que es un identificativo numerico de dicho usuario
19
entrada est
andar
20
salida est
andar


1.4. ORDENES BASICAS.

17

cut
Para un archivo compuesto por columnas de datos, permite escribir sobre la salida cierto intervalo de columnas. La opcion -b N-M permite indicar el intervalo en bytes que se escribiran
en la salida.
user@hostname:~$ cut -b 3-4 mylist.txt
19
28
37
user@hostname:~$
diff
Permite comparar el contenido de dos archivos
user@hostname:~$ diff mylist.txt yourlist.txt
2c2
< 2 280
--> 2 281
user@hostname:~$
Hay una diferencia entre los archivos en la segunda fila.
find
Permite la b
usqueda de un archivo en la estructura de directorios
find . -name file.dat -print
Comenzando en el directorio actual recorre la estructura de directorios buscando el archivo
file.dat, cuando lo encuentre imprime el path al mismo.
find . -name *~ -exec rm {} \;
Busca en la estructura de directorios un archivo que acabe en ~ y lo borra. xargs ordena
repetir orden para cada argumento que se lea desde stdin. Permite el uso muy eficiente de
find.
find . -name *.dat -print | xargs mv ../data \;
Busca en la estructura de directorios todos los archivos que acaben en .dat, y los mueve al
directorio ../data.
grep
Permite la b
usqueda de una cadena de caracteres en uno o varios archivos, imprimiendo el
nombre del archivo y la lnea en que encuentra la cadena.
user@hostname:~$ grep 1 *list.txt
mylist.txt:1 190
yourlist.txt:1 190
yourlist.txt:2 281
user@hostname:~$
Algunas opciones u
tiles
-c Elimina la salida normal y solo cuenta el n
umero de apariciones de la cadena en
cada archivos.

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

18

-i Ignora para la comparacion entre la cadena dada y el archivo si la cadena esta en


may
usculas o min
usculas.
-n Incluye el n
umero de lneas en que aparece la cadena en la salida normal.
-r La busqueda la hace recursiva.
-v Invierte la busqueda mostrando todas las lneas donde no aparece al cadena pedida.
head
Muestra las primeras diez lneas de un archivo.
head -30 file Muestra las 30 primeras lneas de file.
user@hostname:~$ head -1
1 190
user@hostname:~$

mylist.txt

tail
Muestra las diez u
ltimas lneas de un archivo.
tail -30 file Muestra las 30 u
ltimas lneas de file.
tail +30 file Muestra desde la lnea 30 en adelante de file.
user@hostname:~$ tail -1
3 370
user@hostname:~$

mylist.txt

tar
Este comando permite la creacion/extraccion de archivos contenidos en un u
nico archivo
denominado tarfile (o tarball). Este tarfile suele ser luego comprimido con gzip la
version de compresion gnu21 o bien con bzip2.
La accion a realizar viene controlada por el primer argumento:
c (Create) creacion
x (eXtract) extraccion
t (lisT) mostrar contenido
r a
nadir al final
u (Update) a
nadir aquellos archivos que no se hallen en el tarfile o que hayan sido
modificados con posterioridad a la version que aparece.
A continuacion se colocan algunas de las opciones:
v : Verbose
21

gnu es un acr
onimo recursivo, significa: gnus Not unix!. gnu es el nombre del producto de la Free
Software Foundation, una organizaci
on dedicada a la creaci
on de programas compatible con unix (y mejorado
respecto a los est
andars) y de libre distribuci
on. La distribuci
on de Linux gnu es debian


1.4. ORDENES BASICAS.

19

z : Comprimir o descomprimir el contenido con gzip.


I : Comprimir o descomprimir el contenido con bzip2.
f file : permite especificar el archivo para el tarfile.
Veamos algunos ejemplos:
tar cvf simul.tar *.dat
Genera un archivo simul.tar que contiene todos los archivos que terminen en .dat del
directorio actual. A medida que se va realizando indica el tama
no en bloques de cada archivo
a
nadido modo verbose.
tar czvf simul.tgz *.dat
Igual que en el caso anterior, pero el archivo generado simul.tgz ha sido comprimido empleando gzip.
tar tvf simul.tar
Muestra los archivos contenidos en el tarfile simul.tar.
tar xvf simul.tar
Extrae todos los archivos contenidos en el tarfile simul.tar.
wc (Word Count) Contabiliza el n
umero de lneas, palabras y caracteres de un archivo.
user@hostname:~$ wc
3
6
user@hostname:~$

mylist.txt
18 mylist.txt

El archivo tiene 3 lneas, 6 palabras, al considerar cada n


umero como una palabra i.e. 1 es la
primera palabra y 190 la segunda, y finalmente 18 caracteres. Cuales son los 18 caracteres?

1.4.9

Transferencia a diskettes.

La filosofa de diferentes unidades (A:, B:, . . . ) difiere de la estructura u


nica del sistema de
archivos que existe en unix. Son varias las alternativas que existen para la transferencia de
informacion a diskette.
Una posibilidad es disponer de una maquina win9x con ftp instalado y acceso a red.
Empleando dicha aplicacion se pueden intercambiar archivos entre un sistema y el otro.
Existe un conjunto de comandos llamados mtools disponible en multitud plataformas,
que permiten el acceso a diskettes en formato win9x de una forma muy eficiente.
mdir a: Muestra el contenido de un diskette en a:.
mcopy file a: Copia el archivo file del sistema de archivos unix en un diskette en
a:.
mcopy a:file file Copia el archivo a:file del diskette en el sistema de archivos
unix con el nombre file.
mdel a:file Borra el archivo a:file del diskette.
Con a: nos referimos a la primera diskettera /dev/fd0, luego el archivo que se encuentra
en el diskette su nombre se compone de a:filename. Si se desea emplear el caracter

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

20

comodn para un conjunto de archivos del diskette debe de rodearse de dobles comillas
el mismo para evitar la actuacion del shell (p.e. mcopy a:*.dat). La opcion -t
realiza la conversion necesaria entre unix y win9x, que se debe realizar s
olo en archivos
de texto.
Una alternativa final es montar el dispositivo /dev/fd0 en alg
un directorio, tpicamente
/floppy, considerando el tipo especial de sistema de archivos que posee vfat y luego
copiar y borrar usando comandos unix. Hay que hacer notar que esta forma puede
estar restringida solo a root, el comando: mount -t vfat /dev/fd0 /floppy

1.4.10

Diferencias entre los sistemas.

Cuando se transfieren archivos de texto entre dos y unix sin las precauciones adecuadas
pueden aparecer los siguientes problemas:
En dos los nombres de los archivos pueden tener un maximo de 8 caracteres y una
extension de 3 caracteres. En unix no existe restriccion respecto a la longitud del
nombre, y aunque pueden llevar extension, no es obligatorio. Tambien pueden tener
mas de una extension algo.v01.tar.gz esto complica mucho a otros sistemas que
tienen limitaciones en los nombres.
El cambio de lnea en dos se compone de Carriage Return y Line Feed. Sin embargo,
en unix solo existe el Carriage Return. As un archivo de unix visto desde DOS parece
una u
nica lnea. El caso inverso es la aparicion del caracter ^M al final de cada lnea.
Ademas, el fin de archivo en dos es ^Z y en unix es ^D.
La presencia de caracteres con codigo ascii por encima del 127 (ascii extendido) suele
plantear problemas. Debido a que en DOS dicho codigo depende de la asignacion hecha,
que a su vez depende del pas.

1.5

M
as comandos.

users who w
Para ver quien esta conectado en la maquina
ping
Verifica si una maquina esta conectada a la red y si el camino de Internet hasta la misma
funciona correctamente.
finger
finger user, muestra informacion22 sobre el usuario user en la maquina local.
finger user@hostname, muestra informacion sobre un usuario llamado user en una maquina
hostname.
22

La informaci
on proporcionada es el nombre de completo del usuario, las u
ltimas sesiones en dicha maquina, si ha leido o no su correo y el contenido de los archivos .proyect y .plan del usuario

1.6. SHELLS.

21

finger @hostname, muestra los usuarios conectados de la maquina hostname.


cal
Muestra el calendario del mes actual. Con la opcion -y y el a
no presenta el calendario del
a
no completo.
date
Muestra el da y la hora actual.

1.6

Shells.

El sistema operativo unix soporta varios interpretes de comandos o shells, que ayudan a
que la interaccion con el sistema sea lo mas comoda y amigable posible. La eleccion de
cual es el shell mas comoda es algo personal; en este punto solo indicaremos las cuatro mas
significativas y populares:
sh : Bourne SHell, el shell basico, no pensado para uso interactivo.
csh : C-SHell, shell con sintaxis como el lenguaje C. El archivo de configuracion es
.cshrc (en el directorio $HOME).
tcsh : alTernative C-Shell (Tenex-CSHell), con editor de lnea de comando. El archivo
de configuracion es .tcshrc, o en caso de no existir, .cshrc (en el directorio $HOME).
bash : Bourne-Again Shell, con lo mejor de sh, ksh y tcsh. El archivo de configuracion
es .bash_profile cuando se entra a la cuenta por primera vez, y despues el archivo de
configuracion es .bashrc siempre en el directorio $HOME. La lnea de comando puede
ser editada usando comandos (secuencias de teclas) del editor emacs. Es el shell por
defecto de Linux.
Si queremos cambiar de shell en un momento dado, solo sera necesario que tecleemos el
nombre del mismo y estaremos usando dicho shell. Si queremos usar de forma permanente
otro shell del que tenemos asignado por omision23 podemos emplear la orden chsh que permite
realizar esta accion.
En los archivos de configuracion se encuentran las definiciones de las variables de entorno
(enviroment variables) como camino de b
usqueda PATH, los aliases y otras configuraciones
personales. Veamos unos caracteres con especial significado para el Shell:
24 permite que el output de un comando reemplace al nombre del comando. Por
ejemplo: echo pwd imprime por pantalla el nombre del directorio actual.
user@hostname:~$ echo pwd
/home/user
user@hostname:~$
23
24

Por omisi
on se asigna bash
Acento agudo o inclinado hacia atr
as, backquote

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

22

25 preserva el significado literal de cada uno de los caracteres de la cadena que


delimita.
user@hostname:~$ echo Estoy en pwd
Estoy en pwd
user@hostname:~$
26 preserva el significado literal de todos los caracteres de la cadena que delimitas
salvo $, , \.
user@hostname:~$ echo Estoy en pwd
Estoy en /home/user
user@hostname:~$
; permite la ejecucion de mas de una orden en una sola lnea de comando.
user@hostname:~$ mkdir mydir; cd mydir; cp *.txt . ; cd ..
user@hostname:~$

1.6.1

Variables de entorno.

Las variables de entorno permiten la configuracion, por defecto, de muchos programas cuando
ellos buscan datos o preferencias. Se encuentran definidas en los archivos de configuracion
anteriormente mencionados. Para referenciar a las variables se debe poner el smbolo $
delante, por ejemplo, para mostrar el camino al directorio por defecto del usuario user:
user@hostname:~$ echo $HOME
/home/user
user@hostname:~$
Las variables de entorno mas importantes son:
HOME - El directorio por defecto del usuario.
PATH - El camino de b
usqueda, una lista de directorios separado con : para buscar
programas.
EDITOR - El editor por defecto del usuario.
DISPLAY - Bajo el sistema de X windows, el nombre de maquina y pantalla que esta
usando. Si esta variable toma el valor :0 el despliegue es local.
TERM - El tipo de terminal. En la mayora de los casos bajo el sistema X windows se
trata de xterm y en la consola en Linux es linux, en otros sistemas puede ser vt100.
25
26

Acento usual o inclinado hacia adelante, single quote


double quote


1.7. REDIRECCION.

23

SHELL - La shell por defecto.


MANPATH - Camino para buscar paginas de manuales.
PAGER - Programa de paginacion de texto (less o more).
TMPDIR - Directorio para archivos temporales.

1.7

Redirecci
on.

Cuando un programa espera que se teclee algo, aquello que el usuario teclea se conoce como
el Standard Input: stdin. Los caracteres que el programa retorna por pantalla es lo que se
conoce como Standard Output: stdout (o Standard Error: stderr27 ). El signo < permite
que un programa reciba el stdin desde un archivo en vez de la interaccion con el usuario.
Por ejemplo: mail root < file, invoca el comando mail con argumento (destinatario del
mail) root, siendo el contenido del mensaje el contenido del archivo file en vez del texto que
usualmente teclea el usuario. Mas a menudo aparece la necesidad de almacenar en un archivo
la salida de un comando. Para ello se emplea el signo >. Por ejemplo, man bash > file,
invoca el comando man con argumento (informacion deseada) bash pero indicando que la
informacion debe ser almacenada en el archivo file en vez de ser mostrada por pantalla.
En otras ocasiones uno desea que la salida de un programa sea la entrada de otro. Esto
se logra empleando los denominados pipes, para ello se usa el signo |. Este signo permite que
el stdout de un programa sea el stdin del siguiente. Por ejemplo:
zcat manual.gz | more
Invoca la orden de descompresion de zcat y conduce el flujo de caracteres hacia el paginador
more, de forma que podamos ver pagina a pagina el archivo descomprimido. A parte de los
smbolos mencionados existen otros que permiten acciones tales como:
>> A
nadir el stdout al final del archivo indicado (append).

28

>& o &> (csh, tcsh y bash solo) Redireccionar el stdout y stderr. Con 2> redireciono
solo el stderr.
>>& Igual que >& pero en modo append.
>>! Igual que >> pero con la adicion que funciona tambien cuando el archivo no existe.

1.7.1

Las shells csh y tcsh.

Son dos de los Shells interactivos mas empleados. Una de las principales ventajas de tcsh
es que permite la edicion de la lnea de comandos, y el acceso a la historia de ordenes usando
las teclas de cursores.29
27

Si estos mensajes son de error.


En bash si el archivo no existe es creado.
29
bash tambien lo permite
28

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

24

1.7.2

Ejecuci
on de comandos.

Si el comando introducido es propio del shell (built-in), se ejecuta directamente.


En caso contrario:
Si el comando contiene /, el shell lo considera un PATH e intenta resolverlo (entrar
en cada directorio especificado para encontrar el comando).
En caso contrario el shell busca en una tabla hash table que contiene los nombres de
los comandos que se han encontrado en los directorios especificados en la variable
PATH, cuando ha arrancado el shell.

1.7.3

Aliases.

Para facilitar la entrada de algunas ordenes o realizar operaciones complejas, los shells interactivos permiten el uso de aliases. La orden alias permite ver que aliases hay definidos y
tambien definir nuevos. Es corriente definir el alias rm =rm -i, de esta forma la orden
siempre pide confirmacion para borrar un archivo. Si alguna vez quieres usar rm sin alias
solo hace falta poner delante el smbolo \, denominado backslash . Por ejemplo \rm elimina
los alias aplicados a rm. Otro ejemplo, bastante frecuente (en tcsh/csh) podra ser (debido
a la complejidad de la orden): alias ffind find . -name \!* -print Para emplearlo:
ffind tema.txt el resultado es la b
usqueda recursiva a partir del directorio actual de un
archivo que se llame tema.txt, mostrando el camino hasta el mismo.

1.7.4

Comandos propios.

Los comandos propios o intrnsecos Built-In Commands son aquellos que proporciona el propio
shell 30 .
alias name def
Asigna el nombre name al comando def.
foreach var (wordlist)
commands
end
La variable var se asigna sucesivamente a los valores de cadena wordlist, y se ejecutan el
conjunto de comandos. El contenido de dicha variable puede ser empleado en los comandos:
$var.
history
Muestra las u
ltimas ordenes introducidas en el shell. Algunos comandos relacionados con el
Command history son:
30

A diferencia de los comandos que provienen de un ejecutable situado en alguno de los directorios de la
variable PATH


1.7. REDIRECCION.

25

!!
Repite la u
ltima orden.
!n
Repite la orden n-esima.
!string
Repite la orden mas reciente que empiece por la cadena string.
!?string
Repite la orden mas reciente que contenga la cadena string.

str1 str2 o !!:s/str1/str2/


(substitute) Repite la u
ltima orden reemplanzando la primera ocurrencia de la cadena
str1 por la cadena str2.

!!:gs/str1/str2/
(global substitute) Repite la u
ltima orden reemplazando todas las ocurrencias de la
cadena str1 por la cadena str2.
!$
Es el u
ltimo argumento de la orden anterior que se haya tecleado.
pushd
Cambia de directorio, recordando el directorio actual.
popd
Retorna al directorio desde donde se hizo pushd la u
ltima vez.
repeat count command
Repite count veces el comando command.
rehash
Rehace la tabla de comandos (hash table).
set variable = VALUE
Asigna el valor de una variable del shell.
set variable
Muestra el valor de la variable
setenv VARIABLE VALUE
Permite asignar el valor de una variable de entorno.
source file
Ejecuta las ordenes del fichero file en el shell actual.
unset variable
Desasigna el valor de una variable del shell.

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

26

unsetenv VARIABLE VALUE


Permite desasignar el valor de una variable de entorno.
umask value
Asigna la mascara para los permisos por omision.
unalias name
Elimina un alias asignado.

1.7.5

Variables propias del shell.

Existe un conjunto de variables denominadas shell variables, que permiten modificar el funcionamiento del shell.
filec (FILE Completion)
Es una variable toggle que permite que el shell complete automaticamente el nombre de un
archivo o un directorio31 . Para ello, si el usuario introduce solo unos cuantos caracteres de
un archivo y pulsa el TAB el shell completa dicho nombre. Si solo existe una posibilidad, el
completado es total y el shell deja un espacio tras el nombre. En caso contrario hace sonar
un pitido. Pulsando Ctrl-D el shell muestra las formas existentes para completar.
prompt
Es una variable de cadena que contiene el texto que aparece al principio de la lnea de
comandos.
savehist
Permite definir el n
umero de ordenes que se desea se almacenen al abandonar el shell. Esto
permite recordar las ordenes que se ejecutaron en la sesion anterior.

1.7.6

Las shell sh y bash.

Solo bash puede considerarse un shell interactivo, permitiendo la edicion de la lnea de comandos, y el acceso a la historia de ordenes (readline). En uso normal (historia y editor
de lnea de comandos) BASH es compatible con TCSH y KSH. El modo de completado (file
completion) es automatico (usando TAB solo) si el shell es interactivo.

1.7.7

Comandos propios del shell.

Los comandos umask , source , pushd , popd , history , unalias , hash


igual que en la shell TCSH.

32

funcionas

help
Ayuda interna sobre los comandos del shell.
VARIABLE=VALUE
31

bash permite no s
olo completar ficheros/directorios sino tambien comandos
En bash/sh la hash table se va generando din
amicamente a medida que el usuario va empleando las
ordenes. As el arranque del shell es m
as r
apido, y el uso de orden equivalente hash -r casi nunca hace falta
32


1.8. AYUDA Y DOCUMENTACION.

27

Permite asignar el valor de una variable de entorno. Para que dicha variable sea heredada
es necesario emplear: export VARIABLE o bien combinarlas: export VARIABLE=VALUE.
alias
En BASH alias solo sirve para substitucion simple de una cadena por otra, Por ejemplo:
alias ls=ls -F. Para crear aliases con argumentos se usan funciones. Las funciones se
definen con () y los comandos a realizar entre llaves {}. El empleo de los argumentos se
realiza mediante $0, . . . ,$n, siendo $# el n
umero de argumentos. Por ejemplo:
setenv() {
if [ $# -gt 1 ]; then
export $1=$2
else
env
fi
}+
o bien,
setenv () { if [ $# -gt 1 ]; then export $1=$2 ; else env; fi; }
Define una funcion igual que el setenv de TCSH. El siguiente defina un funciona equivalente
al alias ffind de TCSH
\verb+ffind() {
if [ $# != 1 ]; then
echo Error, falta argumento
else
find . -name \$1 -print
fi
}+
Las funciones pueden usar todas las ordenes de shell y de unix presentando una forma
muy potente para construir aliases.

1.8

Ayuda y documentaci
on.

Para obtener ayuda sobre comandos de unix, se puede emplear la ayuda on-line, en la forma
de paginas de manual. Asi man comando : proporciona la ayuda sobre el comando deseado.
Por ejemplo, para leer el manual de los shells, puedes entrar: man sh csh tcsh bash la
orden formatea las paginas y te permite leer los manuales en el orden pedido. En el caso
de bash se puede usar el comando help, por ejemplo, help alias. Ademas, para muchos
comandos y programas se puede obtener informacion y tipeando info comando.

1.9

Procesos.

En una maquina existen una multitud de procesos que pueden estar ejecutandose simultanemente. La mayora de ellos no corresponden a ninguna accion realizada por el usuario y no

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

28

merecen que se les preste mayor atencion. Estos proceso corresponden a programas ejecutados en el arranque del sistema y tienen que ver con el funcionamiento global del servidor. En
general, los programas suelen tener uno de estos dos modos de ejecucion :
foreground: Son aquellos procesos que requieren de la interaccion y/o atencion del
usuario mientras se estan ejecutando, o bien en una de sus fases de ejecucion (i.e.
Introduccion de datos ). As por ejemplo, una consulta de una pagina de manual es un
proceso que debe ejecutarse claramente en foreground.
background: Son aquellos procesos que no requieren de la interaccion con el usuario
para su ejecucion. Si bien el usuario deseara estar informado cuando este proceso
termine. Un ejemplo de este caso sera la impresion de un archivo.
Sin embargo, esta division que a primera vista pueda parecer tan clara y concisa, a menudo
en la practica aparece la necesidad de conmutar de un modo al otro, detencion de tareas
indeseadas, etc. As por ejemplo, puede darse el caso de que estemos leyendo una pagina de
manual y de repente necesitemos ejecutar otra tarea. Un proceso viene caracterizado por:
process number
job number
Veamos algunas de las ordenes mas frecuentes para la manipulacion de procesos:
comando & Ejecucion de un comando en el background.

33

Ctrl-Z Detiene el proceso que estuviera ejecutandose en el foreground y lo coloca detenido en el background.
Ctrl-C Termina un proceso que estaba ejecutandose en foreground.
Ctrl-\ Termina de forma definitiva un proceso que estaba ejecutandose en foreground.
ps x Lista todos los procesos que pertenezcan al usuario, incluyendo los que no estan
asociados a un terminal.
jobs Lista los procesos que se hayan ejecutado desde el shell actual, mostrando el job
number.
fg (job number) Pasa a ejecucion en foreground un proceso que se hallase en background.
bg (job number) Pasa a ejecucion en background un proceso que se hallase detenido
con Ctrl-Z.
kill (process number) Enva una se
nal34 a un proceso unix. En particular para
enviar la se
nal de termino a un programa, damos el comando kill -KILL, pero no
hace falta al ser la se
nal por defecto.
33
34

Por omisi
on un comando se ejecuta siempre en el foreground.
Para ver las se
nales disponibles entra la orden kill -l (l por list)

1.10. EDITORES.

29

Cuando se intenta abandonar una sesion con alg


un proceso a
un detenido en el background
del shell, se informa de ello con un mensaje del tipo: There are stopped jobs si no importa,
el ususario puede intentar abandonar de nuevo el shell y este matara los jobs, o puedes utilizar
fg para traerlos al foreground y ah terminar el mismo.

1.10

Editores.

Un editor es un programa que permite crear y/o modificar un archivo. Existen multitud
de editores diferentes, y al igual que ocurre con los shells, cada usuario tiene alguno de su
predileccion. Mencionaremos algunos de los mas conocidos:
vi - El editor standard de unix.
emacs (xemacs) - Editor muy configurable escrito en lenguaje Lisp. Existen multitud
de modos para este editor (lector de mail, news, www,. . . ) que lo convierten en un
verdadero shell para multitud de usuarios. Las u
ltimas versiones del mismo permiten
la ejecucion desde X-windows o terminal indistintamente con el mismo binario. Posee
un tutorial en lnea, comando C-H t dentro del editor. El archivo de configuracion
personalizada es: $HOME/.emacs.
jove - Basado en Emacs, (Jonathans Own Version of Emacs). Posee tutorial en una
utilidad asociada: teachjove. El archivo de configuracion personalizada es: $HOME/.joverc.
jed - Editor configurable escrito en S-Lang. Permite la emulacion de editores como
emacs, edt35 y Wordstar. Posee una ayuda en lnea C-H C-H. El archivo de configuracion
personalizada es: $HOME/.jedrc.
gedit - Editor por defecto de gnome.
xjed - Version de jed para el X-windows system. Presenta como ventaja que es capaz
de funcionar en muchos modos: lenguaje C, Fortran, TeX, etc, reconociendo palabras
clave y signos de puntuacion, empleando un colorido distinto para ellos. El archivo de
configuracion personalizada es el mismo que el de de jed.
Dado que los editor del tipo de gedit disponen de men
us autoexplicativos, daremos a
continuacion unas ligeras nociones solo de vi y emacs. importantes.

1.10.1

Editores modo emacs.

El editor GNU Emacs, escrito por Richard Stallman de la Free Software Foundation, es uno de
los que tienen mayor aceptacion entre los usuarios de unix, estando disponible bajo licencia
GNU GPL36 para una gran cantidad de arquitecturas. Tambien existe otra version de emacs
35

para usuarios VMS


La licencia de GNU, da el permiso de libre uso de los programas con su fuentes, pero los autores mantienen
el Copyright y no es permitido distribuir los binarios sin acesso a sus fuentes, los programas derivados de
dichos fuentes heredan la licencia GNU
36

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

30

llamada XEmacs totalmente compatible con la anterior pero presentando mejoras significativas
respecto al GNU Emacs. Dentro de los inconvenientes que presenta es que no viene por
defecto includo en la mayora de los sistemas unix. Las actuales distribuciones de Linux
y en particular Debian GNU/Linux contienen ambas versiones de emacs, tanto GNU Emacs
como XEmacs, como tambien versiones de jove, jed, xjed y muchos otros editores.
Los editores tipo emacs se parecen mucho y en su mayoria sus comandos son los mismos. Para ejemplificar este tipo de editores nos centraremos en XEmacs pero los comandos y
descripciones se aplican casi por igual a todos ellos. Los editores tipo emacs consta de tres
zonas:
La zona de edicion: donde aparece el texto que esta siendo editado y que ocupa la
mayor parte de la pantalla.
La zona de informacion: es una barra que esta situada en la pen
ultima lnea de la
pantalla.
La zona de introduccion de datos: es la u
ltima lnea de la pantalla.
Emacs es un editor que permite la edicion visual de un archivo (en constraste con el modo
de edicion de vi). La mayora de los comandos de emacs se realizan empleando la tecla de
CONTROL o la tecla META37 . Emplearemos la nomenclatura: C-key para indicar que la tecla
key debe de ser pulsada junto con CONTROL y M-key para indicar que la tecla META debe de ser
pulsada junto a key. En este u
ltimo caso NO es necesario pulsar simultaneamente las teclas
ESC y key, pudiendo pulsarse secuencialmente ESC y luego key, sin embargo, si se usa ALT
como META deben ser pulsadas simultaneas. A parte de las teclas rapidas que comentaremos,
existen comandos que es posible ejecutar por nombre.
Archivos.

C-x
C-x
C-x
C-x
C-x

C-f
C-s
C-w
C-c
C-i

cargar archivo
salvar archivo
salvar con nombre
salir
insertar archivo

C-x
C-x
C-x
C-x
C-g

2
1
o
b

dividir ventana actual en 2 partes


solo 1 ventana
conmutar siguiente ventana
conmutar de buffer
aborta

Comandos de movimiento

C-b o
C-p o
C-a
M-<
M-f o M-
C-v
M-g (n
umero)
37

izquierda un caracter
arriba una lnea
principio de la lnea
principio del documento
avanza una palabra
avanza una pagina
salta a la lnea (n
umero)

C-f o
C-n o
C-e
M->
M-b o M-
M-v
C-l

derecha un caracter
abajo una lnea
fin de la lnea
fin del documento
retrocede una palabra
retrocede una pagina
refresca la pantalla

Dado que la mayora de los teclados actuales no poseen la tecla META se emplea ya sea ESC o ALT

1.10. EDITORES.

31

Comandos de inserci
on y borrado
Al ser un editor en modo visual, las modificaciones se pueden hacer en el texto sin necesidad de entrar en ning
un modo especial.
C-d
C-k
C-o

Borra un caracter
Borre desde la posicion hasta el fin de lnea (no incluye el cambio de lnea)
Inserta una lnea

May
usculas, min
usculas y transposici
on
C-t
M-t
C-x C-t
M-u
M-l
M-c

Transpone dos caracteres


Transpone dos palabras
Transpone dos lneas
Cambia a may
uscula desde la posicion del cursor hasta el fin de la palabra
Cambia a min
uscula desde la posicion del cursor hasta el fin de la palabra
Cambia a may
uscula el caracter en la posicion del cursor y
a min
uscula hasta el fin de la palabra

Definici
on de regiones y reemplazo

C-space
M-w
C-y
C-s
M-%
1
2

Comienzo de region
Copia region
Pega region
B
usqueda hacia el fin del texto
B
usqueda y sustitucion 2

M-@
C-w
M-y
C-r

Comienzo region
Corta region
Rota regiones1
B
usqueda hacia el inicio del texto

Aparecen las distintas regiones seleccionadas con anterioridad


Pide confirmaci
on para sustituir

El editor conserva un conjunto de las u


ltimas zonas seleccionadas durante la edicion,
pudiendo recuperarse una antigua a pesar de haber seleccionado una nueva zona.
Definici
on de macros

C-x (
C-x )
C-x e

Comienza la definicion de una macro


Termina la definicion de una macro
Ejecuta una macro definida

Se entiende por macro a una sucesion de ordenes que se desea realizar.


Repetici
on
Cuando se desee repetir una orden un cierto n
umero de veces se teclea previamente:
M-(number)

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

32
Comandos

Aparte de los ya comentados existen muchas otras ordenes que no tienen necesariamente
una tecla asociada (bindkey) asociada. Para su ejecucion debe de teclearse previamente:
M-x
y a continuacion en la zona inferior de la pantalla se introduce el comando deseado. Empleando el TAB se puede completar dicho comando.
Es conveniente conocer las secuencias de control basico de emacs
(C-a, C-e, C-k, C-y, C-w, C-t, C-d)
porque funcionan para editar la lnea de comandos en el shell, como tambien en muchos
programas de texto y en ventanas de dialogo de las aplicaciones X Windows. A su vez, los
editores jed, xjed, jove tambien usan por defecto estas combinaciones.

1.10.2

El editor vi.

El vi es un editor de texto muy poderoso pero un poco difcil de usar. Lo importante de este
editor es que se puede encontrar en cualquier sistema unix y solo hay unas pocas diferencias
entre un sistema y otro. Explicaremos lo basico solamente. Comencemos con el comando
para invocarlo:
localhost:/# vi
~
~
~
/tmp/vi.9Xdrxi: new file: line 1
La sintaxis para editar un archivo es:
localhost:/# vi nombre.de.archivo
~
~
~
nombre.de.archivo: new file: line 1

Insertar y borrar texto en vi.


Cuando se inicia el vi, editando un archivo, o no, se entra en un modo de ordenes, es decir,
que no se puede empezar a escribir directamente. . Si se quiere entrar en modo de insercion
de texto se debe presionar la tecla i. Entrando en el modo de insercion, se puede empezar
a escribir. Para salir del modo de insercion de texto y volver al modo de ordenes se aprieta
ESC.

1.10. EDITORES.

33

Aqui ya estamos escribiendo porque apretamos


la tecla i al estar en modo ordenes.
~
~

La tecla a en el modo de ordenes tambien entra en modo de insercion de texto, pero en


vez de comenzar a escribir en la posicion del cursor, empieza un espacio despues.
La tecla o en el modo de ordenes inserta texto pero desde la lnea que sigue a la lnea
donde se esta ubicado.
Para borrar texto, hay que salir al modo ordenes, y presionar la tecla x que borrara el
texto que se encuentre sobre el cursor. Si se quiere borrar las lneas enteras, entonces se debe
presionar dos veces la tecla d sobre la lnea que deseo eliminar. Si se presionan las teclas dw
se borra la palabra sobre la que se esta ubicado.
La letra R sobre una palabra se puede escribir encima de ella. Esto es una especie de modo
de insercion de texto pero solo se podra modificar la palabra sobre la que se esta situado. La
tecla ~ cambia de may
uscula a min
uscula la letra sobre la que se esta situado.
Moverse dentro de vi.
Estando en modo ordenes podemos movernos por el archivo que se esta editando usando las
flechas hacia la izquierda, derecha, abajo o arriba. Con la tecla 0 nos movemos al comienzo
de la lnea y con la tecla $ nos movemos al final de la misma.
Con las teclas w y b nos movemos al comienzo de la siguiente palabra o al de la palabra
anterior respectivamente. Para moverme hacia la pantalla siguiente la combinacion de teclas
CTRL F y para volver a la pantalla anterior CTRL B. Para ir hasta el principio del archivo se
presiona la tecla G.
Opciones de comandos.
Para entrar al men
u de comandos se debe presionar la tecla : en el modo de ordenes, apareceran los dos puntos (:), aqu se pueden ingresar ordenes para guardar, salir, cambiar de
archivo entre otras cosas. Veamos algunos ejemplos:
:w Guardar los cambios.
:w otherfile.txt Guardar con el nuevo nombre otherfile.txt
:wq Guardar los cambios y salir.
:q! Salir del archivo sin guardar los cambios.
:e file1.txt Si deseo editar otro archivo al que se le pondra por nombre file1.txt.
:r file.txt Si se quiere insertar un archivo que ya existente, por ejemplo file.txt.
:r! comando Si se quiere ejecutar alg
un comando del shell y que su salida aparezca en
el archivo que se esta editando.

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

34

1.11

El sistema X Windows.

El X Windows system es el sistema estandar de ventanas en las estaciones de trabajo. Es


corriente que el sistema de ventanas sea arrancando automaticamente cuando la maquina
parte. En caso contrario, la orden para arrancarlo es startx. En el sistema X Windows
deben distinguirse dos conceptos:
server : Es un programa que se encarga de escribir en el dispositivo de video y de
capturar las entradas (por teclado, raton, etc). Asimismo se encarga de mantener los
recursos y preferencias de las aplicaciones. Solo puede existir un server para cada
pantalla.
client : Es cualquier aplicacion que se ejecute en el sistema X Windows. No hay lmite
(en principio) en el n
umero de clientes que pueden estarse ejecutando simultaneamente.
Los clientes pueden ser locales o remotos.
.
Window Manager (WM) Es un cliente con privilegios especiales: Controla el comportamiento (forma,tama
no,..) del resto de clientes Existen varios, destacando :
fvwm : F* Virtual Window Manager, el instalado por defecto.
olwm : Open Look Window Manager, propio de las estaciones de trabajo SUN.
twm : Tab Window Manager, suministrado con la distribucion X11R* del MIT.
icewm : Ice Window Manager, uno de los window managers gnome compatible.
El look and feel (o GUI) de X Windows es extremadamente configurable, y puede parecer
que dos maquinas son muy distintas, pero esto se debe al WM que se este usando y no a que
las aplicaciones sean distintas.
Para configurar tu sesion es necesario saber que programas estas usando y ver las paginas
de manual. Los archivos pricipales son:
.xinitrc o .xsession archivo ledo al arrancar X Windows. Aqu se pueden definir
los programas que aparecen al inicio de tu sesion.
.fvwmrc archivo de configuracion del fvwm. Ver las paginas del manual de fvwm.

.olwmrc archivo de configuracion del olwm. Ver las paginas del manual de olwm.

.Xdefaults Configuracion general de las aplicaciones de X Windows. Aqu puedes


definir los resources que encontraras en los manuales de las aplicaciones de X.
En caso de que tengas que correr una aplicacion de X que no este disponible en la maquina que estas usando, eso no representa ning
un problema. Las ordenes necesarias son (por
ejemplo, para arrancar un gnome-terminal remoto):


1.12. USO DEL RATON.

35

userA@hostname1:~$ xhost +hostname2


hostname2 being added to access control list
user@hostname1:~$ ssh userB@hostname2
userB@hostname2s password:
userB@hostname2:~$ export DISPLAY=hostname1:0
userB@hostname2:~$ gnome-terminal &
Si todo esta previamente configurado, es posible que no haga falta dar la password.
Cuando quieres salir, normalmente puedes encontrar un icono con la opcion Log out, en
un men
u o panel de la pantalla.

1.12

Uso del rat


on.

El raton es un dispositivo esencial en el uso de programas X, sin embargo, la funcion que


realiza en cada uno de ellos no esta normalizada.
Comentaremos la pauta seguida por la mayora de las aplicaciones, pero debe tenerse
presente que es muy frecuente encontrar aplicaciones que no las respetan.38
Bot
on izquierdo (LB): Seleccionar. Comienza el bloque de seleccion.
Bot
on central (MB): Pegar. Copia la seleccion en la posicion del cursor.
Bot
on derecho (RB): Habitualmente ofrece un menu para partir aplicaciones.
Existen dos modos para determinar cual es la ventana activa, aquella que recibe las
entradas de teclado:
Focus Follows Mouse: La ventana que contenga al raton es la que es activa. No usado
por defecto actualmente.
Click To Focus: La ventana seleccionada es la activa. El modo que este activo depende
de la configuracion del Window Manager.

1.13

Internet.

En esta seccion denominaremos unix1 a la maquina local (desde donde ejecutamos la orden)
y unix2 a la maquina remota (con la que interaccionamos). Ambos son los hostnames de las
respectivas maquinas. Existen algunos conceptos que previamente debemos comentar:
IP-number: es un conjunto de 4 n
umeros separados por puntos (p.e. 146.83.57.34) que
se asocia a cada maquina. No puede haber dos maquinas conectadas en la misma red
con el mismo n
umero.
38

Las aplicaciones que son conscientes de un uso anormal y est


an relizadas por programadores inteligentes,
muestran en pantalla la funci
on de cada bot
on cuando son posibles varias alternativas

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

36

hostname: es el nombre que tiene asociada la maquina (p.e. macul). A este nombre se
le suelen a
nadir una serie de sufijos separados por puntos que constituye el denominado
dominio (p.e. macul.ciencias.uchile.cl). Una maquina por tanto puede tener mas
de un nombre reconocido (se habla en este caso de alias). Se denomina resolucion
a la identificacion entre un hostname y el IP-number correspondiente. La consulta
se realiza inicialmente en el archivo /etc/hosts, donde normalmente se guardan las
identificaciones de las maquinas mas comunmente empleadas. En caso de que no se
lograse se accede al servicio DNS (Domain Name Service), que permite la identificacion
(resolucion) entre un hostname y un IP-number.
mail-address: es el nombre que se emplea para enviar correo electronico. Este nombre
puede coincidir con el nombre de una maquina, pero se suele definir como un alias, con
objeto de que la direccion no deba de cambiarse si la maquina se estropea o se cambia
por otra.

1.13.1

Acceso a la red.

Existen muchos programas para la conexion de la red, los mas usados son:
telnet unix2, hace un login en la maquina unix2, debe ingresarse el usuario y su
respectiva passwd. Adermas, permite specifica el puerto en conexion en la maquina
remota.
ssh nombre@unix2, muy similar a telnet pero se puede especificar el usuario, si no se
especifica se usa el nombre de la cuenta local. Ademas, la passwd pasa encriptada a
traves de la red.
scp file1 usuario2@unix2:path/file, copia el archivo file1, del usuario1, que se
encuentra en el directorio local en la maquina unix1 en la cuenta del usuario2 en la
maquina unix2 en $HOME/path/file. Si no se especifica el nombre del usuario se usa
el nombre de la cuenta local. Si se quiere copiar el archivo file2del usuario3 en unix2
en la cuenta actual de unix1 el comando sera:scp usuario3@unix2:file2 .. Antes
de realizar cualquiera de las copias el sistema preguntara por la passwd del usuario en
cuestion en la maquina unix2. Nuevamente, la passwd pasa encriptada a traves de la
red.
talk usuario1@unix2, Intenta hacer una conexion para hablar con el usuario1 en la
maquina unix2. Existen varias versiones de talk en los diferentes sistemas operativos,
de forma que no siempre es posible establecer una comunicacion entre maquinas con
sistemas operativos diferentes.
ftp unix2, (file transfer protocol) aplicacion para copiar archivos entre maquinas de
una red. ftp exige un nombre de cuenta y password para la maquina remota. Algunas
de las opciones mas empleadas (una vez establecida la conexion) son:
bin: Establece el modo de comunicacion binario. Es decir, transfiere una imagen
exacta del archivo.

1.13. INTERNET.

37

asc: Establece el modo de comunicacion ascii. Realiza las conversiones necesarias


entre las dos maquinas en comunicacion. Es el modo por defecto.
cd: Cambia directorio en la maquina remota.
lcd: Cambia directorio en la maquina local.
ls: Lista el directorio remoto.
!ls: Lista el directorio local.
prompt : No pide confirmacion para transferencia m
ultiple de archivos.
get rfile [lfile]: transfiere el archivo rfile de la maquina remota a la maquina local denominandolo lfile. En caso de no suministrarse el segundo argumento
supone igual nombre en ambas maquinas.
put lfile [rfile] : transfiere el archivo lfile de la maquina local a la maquina
remota denominandolo rfile. En caso de no suministrarse el segundo argumento
supone igual nombre en ambas maquinas. Tambien puede usarse send.
mget rfile : igual que get, pero con mas de un archivo (rfile puede contener
caracteres comodines).
mput lfile : igual que put, pero con mas de un archivo (lfile puede contener
caracteres comodines).
Existen versiones mejoras de ftp con muchas mas posibilidades, por ejemplo, ncftp.
Tambien existen versiones graficas de clientes ftp donde la eleccion de archivo, el sentido
de la transferencia y el modo de esta se elige con el mouse (p.e. wxftp).
rlogin -l nombre unix2, (remote login), hace un login a la maquina unix2 como el
usuario nombre por defecto, sin los argumentos -l nombre rlogin usa el nombre de la
cuenta local. Normalmente rlogin pide el password de la cuenta remota, pero con el
uso del archivo .rhosts o /etc/hosts.equiv esto no es siempre necesario.
rsh -l nombre unix2 orden, (remote shell), ejecuta la orden orden en la maquina
unix2 como usuario nombre. Es necesario que pueda entrar en la maquina remota sin
password para ejecutar una orden remota. Sin especificar orden act
ua como rlogin.

1.13.2

El correo electr
onico.

El correo electronico (e-mail) es un servicio para el envo de mensajes entre usuarios, tanto
de la misma maquina como de diferentes maquinas.
Direcciones de correo electr
onico.
Para mandar un e-mail es necesario conocer la direccion del destinatario. Esta direccion
consta de dos campos que se combinan intercalando entre ellos el @ (at): user@domain
user : es la identificacion del usuario (i.e. login) en la maquina remota.

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

38

domain : es la maquina donde recibe correo el destinatario. A menudo, es frecuente


que si una persona tiene acceso a un conjunto de maquinas, su direccion de correo no
corresponda con una maquina sino que corresponda a un alias que se resolvera en un
nombre especfico de maquina en forma oculta para el que enva.
Si el usuario es local no es necesario colocar el campo domain (ni tampoco el @).
Nomenclatura.
Veamos algunos conceptos relacionados con el correo electronico:
Subject : Es una parte de un mensaje que piden los programas al comienzo y sirve
como ttulo para el mensaje.
Cc (Carbon Copy) : Permite el envo de copias del mensaje que esta siendo editado a
terceras personas.
Reply : Cuando se enva un mensaje en respuesta a otro se suele a
nadir el comienzo
del subject: Re:, con objeto de orientar al destinatario sobre el tema que se responde.
Es frecuente que se incluya el mensaje al que se responde para facilitar al destinatario
la comprension de la respuesta.
Forward : Permite el envo de un mensaje (con modificaciones o sin ellas) a una tercera
persona.
Forwarding Mail : Permite a un usuario que disponga de cuentas en varias maquinas
no relacionadas, de concentrar su correo en una cuenta u
nica39 . Para ello basta con
tener un archivo $HOME/.forward que contenga la direccion donde desea centralizar su
correo.
Mail group : Un grupo de correo es un conjunto de usuarios que reciben el correo
dirigido a su grupo. Existen ordenes para responder a un determinado correo recibido
por esa va de forma que el resto del grupo sepa lo que ha respondido un miembro del
mismo.
In-Box : Es el archivo donde se almacena el correo que todava no ha sido ledo por el
usuario. Suele estar localizado en /var/spool/mail/user.
Mailer-Daemon : Cuando existe un problema en la transmision de un mensaje se
recibe un mensaje proviniente del Mailer-Daemon que indica el problema que se ha
presentado.
39

Este comando debe usarse con conocimiento pues en caso contrario podra provocar un loop indefinido y
no recibir nunca correo.

1.14. WWW.

39

Aplicaci
on mail.
Es posiblemente la aplicacion mas simple. Para la lectura de mail teclear simplemente: mail
y a continuacion aparece un ndice con los diferentes mensajes recibidos. Cada mensaje tiene
una lnea de identificacion con n
umero. Para leer un mensaje basta teclear su n
umero y a
continuacion return. Para enviar un mensaje: mail (address) se pregunta por el Subject:
y a continuacion se introduce el mensaje. Para acabar se teclea solo un punto en una lnea
o bien Ctr-D. Por u
ltimo, se pregunta por Cc:. Es posible personalizar el funcionamiento
mediante el archivo $HOME/.mailrc. Para enviar un archivo de texto a traves del correo se
suele emplear la redireccion de entrada: mail (address) < file.

1.13.3

Ftp anonymous.

Existen servidores que permiten el acceso por ftp a usuarios que no disponen de cuenta en
dichas maquinas. Para ello se emplea como login de entrada el usuario anonymous y como
passwd la direccion de e-mail personal. Existen servidores que no aceptan conexiones desde
maquinas que no estan declaradas correctamente en el servicio de nombre (dns), as como
algunas que no permiten la entrada a usuarios que no se identifican correctamente. Dada la
sobrecarga que existe, muchos de los servidores tienen limitado el n
umero de usuarios que
pueden acceder simultaneamente.

1.14

WWW.

WWW son las siglas de World-Wide Web. Este servicio permite el acceso a informacion
entrelazada (dispone de un texto donde un termino puede conducir a otro texto): hyperlinks.
Los archivos estan realizados en un lenguaje denominado html. Para acceder a este servicio
es necesario disponer de un lector de dicho lenguaje conocido como browser o navegador.
Destacan actualmente: Netscape, Mozilla, Opera y el simple pero muy rapido Lynx.

1.15

Impresi
on.

Cuando se quiere obtener una copia impresa de un archivo se emplea el comando lpr.
lpr file - Enva el archivo file a la cola de impresion por defecto. Si la cola esta
activada, la impresora lista y ning
un trabajo por encima del enviado, nuestro trabajo sera
procesado de forma automatica.
A menudo existen varias posibles impresoras a las que poder enviar los trabajos. Para
seleccionar una impresora en concreto (en vez de la por defecto) se emplea el modificador:
lpr -Pimpresora. Siendo impresora el nombre logico asignado a esta otra impresora40 .
Otras ordenes para la manipulacion de la cola de impresion son:
lpq [-Pprinter], permite examinar el estado de una determinada cola ( para ver la
cantidad de trabajos sin procesar de esta, por ejemplo).
40

Para recibir una lista de las posibles impresoras de un sistema as como su estado se puede emplear el
comando /usr/sbin/lpc status

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

40

lprm [-Pprinter] jobnumber, permite eliminar un trabajo de la cola de impresion.


Uno de los lenguajes de impresion grafica mas extendidos en la actualidad es PostScript.
La extension de los archivos PostScript empleada es .ps Por ello muchas de las impresoras
actuales solo admiten la impresion en dicho formato. En caso de desear imprimir un archivo
ascii debera previamente realizarse la conversion a PostScript empleando la orden a2ps:
a2ps file.txt
Esta orden enva a la impresora el archivo ascii file.txt formateado a 2 paginas por
hoja. Los nombres de impresoras dependen de la instalacion, y su configuracion esta en el
archivo /etc/printcap. Un archivo PostScript puede ser visualizado e imprimirso mediante
los programas: gv, gnome-gv o ghostview.
Otro tipo de archivos ampliamente difundido y que habitualmente se necesita imprimir
es el conocido como Portable Document Format. Este tipo de archivo posee una extension
.pdf y pueden ser visualizados e impresos usando aplicaciones tales como: acroread, gv o
xpdf.

1.16

Compresi
on.

A menudo necesitamos comprimir un archivo para disminuir su tama


no, o bien crear un
respaldo (backup) de una determinada estructura de directorios. Se comentan a continuacion
una serie de comandos que permiten ejecutar dichas acciones:
El compresor compress esta relativamente fuera de uso, pero es la estadar de unix.
compress file : comprime el archivo, creando el archivo file.Z, destruye el archivo
original.
uncompress file.Z : descomprime el archivo, creando el archivo file, destruye el
archivo original.
zcat file.Z : muestra por el stdout el contenido descomprimido del archivo (sin
destruir el original).
Otra alternativa de compresor mucho mas usada es gzip el compresor de GNU que posee
una mayor razon de compresion que compress. Veamos los comandos:
gzip file : comprime el archivo, creando el archivo file.gz, destruye el archivo
original.
gunzip file.gz : descomprime el archivo, creando el archivo file, destruye el archivo
original.
zless file.gz : muestra por el stdout el contenido descomprimido del archivo paginado por less.
La extension empleada en los archivos comprimidos con gzip suele ser .gz pero a veces
se usa .gzip. Adicionalmente el programa gunzip tambien puede descomprimir archivos
creados con compress.

Y DEBUGGING.
1.17. COMPILACION

41

La opcion con mayor taza de compresion que gzip es bzip2 y su descompresor bunzip2.
La extension usada en este caso es .bz2. El kernel de Linux se distribuye en formato bzip2.
Existe tambien versiones de los compresores compatibles con otros sistemas operativos,
nos referimos a zip, unzip, unarj, lha y zoo.
En caso que se desee crear un archivo comprimido con una estructura de directorios debe
ejecutarse la orden:
tar cvzf nombre.tgz directorio
o bien
tar cvIf nombre.tgz directorio
En el primer caso comprime con gzip y en el segundo con bzip2. Para descomprimir y
reestablecer la estructura de directorio almacenada se usan los comandos:
tar xvzf nombre.tgz directorio
si se realizo la compresion con gzip o bien
tar xvIf nombre.tgz directorio
si se realizo la compresion con bzip2.

1.17

Compilaci
on y debugging.

1.17.1

Compiladores.

El comando para usar el compilador de lenguaje C es gcc, para usar el compilador de C++
es g++ y para usar el compilador de fortran 77 es g77. Centremosnos en el compilador de
C++, los demas funcionan en forma muy similar. Su uso mas elemental es:
g++ filename.cc
Esto compila el archivo filename.cc y crea un archivo ejecutable que se denomina a.out
por omision. Existen diversas opciones para el compilador, solo comentaremos una pocas.
-c realiza solo la compilacion pero no el link:
g++ -c filename.cc
genera el archivo filename.o que es codigo objeto.
-o exename define el nombre del ejecutable creado, en lugar del por defecto a.out.
g++ -o outputfile filename.cc
-lxxx incluye la librera /usr/lib/libxxx.a en la compilacion.
g++ filename.cc -lm
En este caso se compila con la librera matematica verb+libm.a+.
-g permite el uso de un debugger posteriormente.
-On optimizacion de grado n que puede tomar valores de 1 (por defecto) a 3. El objetivo
inicial del compilador es reducir el tiempo de la compilacion. Con -On, el compilador
trata de reducir el tama
no del ejecutable y el tiempo de ejecucion, con n se aumenta el
grado de optimizacion.
-Wall Notifica todos los posibles warnings en el codigo que esta siendo compilado.
El compilador gcc (the GNU C compiler) es compatible ANSI.

42

1.18

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

make & Makefile.

Frecuentemente los programas estan compuestos por diferentes subprogramas que se hayan
contenidos en diferentes archivos. La orden de compilacion necesaria puede ser muy engorrosa,
y a menudo no es necesario volver a compilar todos los archivos, sino solo aquellos que hayan
sido modificados. unix dispone de una orden denominada make que evita los problemas antes
mencionados y permite el mantenimiento de una biblioteca personal de programas. Este
comando analiza que archivos fuentes han sido modificados despues de la u
ltima compilacion
y evita recompilaciones innecesarias.
En su uso mas simple solo es necesario suministrar una lista de dependencias y/o instrucciones a la orden make en un archivo denominado Makefile. Una dependencia es la
relacion entre dos archivos de forma que un archivo se considera actualizado siempre que
el otro tenga una fecha de modificacion inferior a este. Por ejemplo, si el archivo file.cc
incluye el archivo file.h, no se puede considerar actualizado el archivo file.o si el archivo
file.cc o el archivo file.h ha sido modificado despues de la u
ltima compilacion. Se dice
que el archivo file.o depende de file.cc y el archivo file.cc depende de archivo file.h.
El Makefile se puede crear con un editor de texto y tiene el siguiente aspecto para establecer
una dependencia:
# Esto es un ejemplo de Makefile.
# Se pueden poner comentarios tras un caracter hash (#).
FILE1: DEP1 DEP2
comandos para generar FILE1
ETIQUETA1: FILE2
FILE2: DEP3 DEP4
comandos para generar FILE2
ETIQUETA2:
comandos
Se comienza con un destino, seguido de dos puntos (:) y los prerrequisitos o dependencias
necesarios. Tambien puede ponerse una etiqueta y como dependencia un destino, o bien una
etiqueta y un o mas comandos. Si existen muchos prerrequisitos, se puede finalizar la lnea
con un backslash (\) y continuar en la siguiente lnea.
En la(s) lnea(s) siguiente(s) se escriben uno o mas comandos. Cada lnea se considera
como un comando independiente. Si se desea utilizar m
ultiples lneas para un comando,
se debera poner un backslash (\) al final de cada lnea del comando. El comando make
conectara las lneas como si hubieran sido escritas en una u
nica lnea. En esta situacion, se
deben separar los comandos con un punto y coma (;) para prevenir errores en la ejecucion de
el shell. Los comandos deben ser indentados con un tabulador, no con 8 espacios
Make lee el Makefile y determina para cada archivo destino (empezando por el primero) si
los comandos deben ser ejecutados. Cada destino, junto con los prerrequisitos o dependencias,
es denominado una regla.
Si make se ejecuta sin argumentos, solo se ejecutara el primer destino. Veamos un ejemplo:
file.o: file.cc file.h
g++ -c file.cc

1.18. MAKE & MAKEFILE.

43

En este caso se comprueba las fechas de las u


ltima modificaciones de los archivo file.cc y
file.h, si estas fecha son mas recientes que la del archivo file.o se procede a la compilacion.
El comando make se puede suministrar con un argumento, que indica la etiqueta situada
a la izquierda de los dos puntos. As en el ejemplo anterior podra invocarse make file.o..
Gracias a las variables, un Makefile se puede simplificar significativamente. Las variables
se definen de la siguiente manera:
VARIABLE1=valor1
VARIABLE2=valor2
Una variable puede ser utilizada en el resto del Makefile refiriendonos a ella con la expresion
$(VARIABLE). Por defecto, make sabe las ordenes y dependencias (reglas implcitas) para
compilar un archivo *.cc y producir un archivo *.o, entonces basta especificar solamente los
dependecias que make no puede deducir a partir de los nombres de los archivos, por ejemplo:
OUTPUTFILE = prog
OBJS = prog.o misc.o aux.o
INCLUDESMISC = misc.h aux.h
INCLUDESFILE = foo.h $(INCLUDESMISC)
LIBS = -lmylib -lg++ -lm
prog.o: $(INCLUDESFILE)
misc.o: $(INCLUDESMISC)
aux.o: aux.h
$(OUTPUTFILE): $(OBJS)
gcc $(OBJS) -o $(OUTPUTFILE) $(LIBS)
Las reglas patrones son reglas en las cuales se especifican multiples destinos y construye
el nombre de las dependencias para cada blanco basada en el nombre del blanco. La sintaxis
de una regla patron:
destinos ... : destino patron:dependencias patrones
comandos
La lista de destinos especifica aquellos sobre los que se aplicara la regla. El destino patron y
las dependencias patrones dicen como calcular las dependencias para cada destino. Veamos
un ejemplo:
objects = foo.o \
bar.o
all: $(objects)
$(objects): %.o: %.cc
$(CXX) -c $(CFLAGS) $< -o $@
Cada uno de los destinos (foo.o bar.o) es comparado con el destino patron %.o para extraer
parte de su nombre. La parte que se extrae es conocida como el tronco o stem, foo y

44

CAPITULO 1. ELEMENTOS DEL SISTEMA OPERATIVO UNIX.

bar en este caso. A partir del tronco y la regla patron de las dependencias %.cc make
construye los nombres completos de ellas (foo.cc bar.cc). Ademas, en el comando del
ejemplo anterior aparecen un tipo de variables especiales conocidas como automaticas. La
variable $< mantiene el nombre de la dependencia actual y la variable $@ mantiene el nombre
del destino actual. Finalmente un ejemplo completo:
# Makefile for C++ program EMBAT
# Embedded Atoms Molecular Dynamics
#
# You should do a "make" to compile
############################################################
#Compiler name
CXX = g++
#Linker name
LCC = g++
#Compiler flags you want to use
MYFLAGS = -Wall
OPFLAGS = -O4
CPPFLAGS = $(MYFLAGS) $(OPFLAGS)
#Library flags you want to use
MATHLIBS = -lm
CLASSLIBS= -lg++
LIBFLAGS = $(MATHLIBS) $(CLASSLIBS)
############################################################
OBJFILES = embat.o lee2.o crea100.o errores.o\
archivos.o azar.o lista.o rij.o\
escribir2.o velver.o cbc.o force.o\
fMetMet.o fDf.o relaja.o funciones.o\
initvel.o leerfns.o spline.o
embat : $(OBJFILES)
$(LCC) -o embat $(OBJFILES) $(LIBFLAGS)
$(OBJFILES): %.o:%.cc
$(CXX) -c $(CPPFLAGS) $< -o $@
############################################################
clean:
rm embat $(OBJFILES)
############################################################

Captulo 2
Una breve introducci
on a C++.
versi
on final 1.4-010821

En este captulo se intentara dar los elementos basicos del lenguaje de programacion
C++. No se pretende mas que satisfacer las mnimas necesidades del curso, sirviendo como
un ayuda de memoria de los topicos abordados, para futura referencia. Se debe consignar
que no se consideran todas las posibilidades del lenguaje y las explicaciones estan reducidas
al mnimo.

2.1
2.1.1

Estructura b
asica de un programa en C++.
El programa m
as simple.

El primer ejemplo de todo manual es el que permite escribir Hola en la pantalla.


//
// Los comentarios comienzan con //
//
#include <iostream.h>
main()
{
cout << "Hola." << endl;
}
Las tres primeras lneas corresponden a comentarios, todo lo que esta a la derecha de los
caracteres // son comentarios y no seran considerados en la compilacion. En la lnea siguiente
se incluye un archivo de cabecera, o header, con la instruccion de preprocesador #include.
El nombre del archivo se puede escribir como <nombre.h> o bien "nombre.h". En el primer
caso el archivo nombre.h sera buscado en el path por defecto para los include, tpicamente
/usr/include o /usr/include/g++-3/ en el caso de headers propios de C++; en el segundo
caso la b
usqueda se hace en el directorio local. Tambien podramos incluir un path completo
cuando se ocupan las comillas. En nuestro ejemplo, se incluye el archivo iostream.h en el
cual se hacen las definiciones adecuadas para el manejo de la entrada y salida en C++. Este
archivo es necesario para enviar luego un mensaje a pantalla.
La funcion main es donde comienza a ejecutarse el programa; siempre debe haber una
funcion main en nuestro programa. Los parentesis vacos () indican que el main no tiene
45

A C++.
CAPITULO 2. UNA BREVE INTRODUCCION

46

argumentos de entrada (mas adelante se vera que puede tenerlos). Lo que esta encerrado
entre llaves {} corresponde al cuerpo de la funcion main. Cada una de las lneas termina con
el caracter ;. El identificador predefinido cout representa la salida a pantalla. El operador <<
permite que lo que esta a su derecha se le de salida por el dispositivo que esta a su izquierda,
en este caso cout. Si se quiere enviar mas de un objeto al dispositivo que esta al inicio de
la lnea agregamos otro operador << y en este caso lo que esta a la derecha del operador se
agregara a lo que esta a la izquierda y todo junto sera enviado al dispositivo. En nuestro
caso se ha enviado endl, un objeto predefinido en el archivo iostream.h que corresponde a
un cambio de lnea, el cual sera agregado al final del mensaje.
Si escribimos nuestro primer programa en el editor xemacs con el nombre de primero.cc
las instruciones para editarlo, compilarlo y correrlo seran:
jrogan@pucon:~/tmp$ xemacs primero.cc
jrogan@pucon:~/tmp$ g++ -o primero primero.cc
jrogan@pucon:~/tmp$ primero
Hola.
jrogan@pucon:~/tmp$

2.1.2

Definici
on de funciones.

Las funciones en C++ son muy importantes. Aprovecharemos de introducirlas modificando


el primer programa de manera que se delegue la impresion del mensaje anterior a una funcion
independiente:
//
// Segunda version incluye funcion adicional
//
#include <iostream.h>
void PrintHola()
{
cout << "Hola." << endl;
}
main()
{
PrintHola();
}
La funcion debe estar definida antes de que sea ocupada, por eso va primero en el codigo
fuente. Como ya se dijo antes la ejecucion del programa comienza en la funcion main a pesar
de que no esta primera en el codigo fuente. Los parentesis vacos indican que la funcion no
tiene argumentos y la palabra delante del nombre de la funcion indica el tipo de dato que
devuelve. En nuestro caso la palabra void indica que no devuelve nada a la funcion main.


2.1. ESTRUCTURA BASICA
DE UN PROGRAMA EN C++.

2.1.3

47

Nombres de variables.

Nuestros datos en los programas seran almacenados en objetos llamados variables. Para
referirnos a ellas usamos un nombre que debe estar de acuerdo a las siguientes reglas:
Deben comenzar con una letra (may
usculas y min
usculas son distintas).
Pueden contener n
umeros.
Pueden contener el smbolo _ (underscore).
Longitud arbitraria.
No pueden corresponder a una de las 48 palabras reservadas de C++ (if, else, etc.).

2.1.4

Tipos de variables.

Todas las variables a usar deben ser declaradas de acuerdo a su tipo. Por ejemplo, si usamos
una variable i que sea un n
umero entero, debemos, antes de usarla, declararla, y solo entonces
podemos asignarle un valor:
int i;
i=10;
Es posible reunir las acciones de declaracion e inicializacion en una misma lnea. Declarar dos
variables del mismo tipo simultaneamente. O bien es posible que se necesite que una variable
no vare, en tal caso a la declaracion de tal variable se la agrega un modificador const que
le indica al compilador que no puede ser cambiada:
int i = 10; double r1=8.0e0, r2=9.0e0; const float pi=3.14159;
Los tipos de variables disponibles son1 :
int
short int
short
long int
long
unsigned int
unsigned short
unsigned long
char
float

double

Enteros entre 215 = 32768 y 215 1 = 32767


o entre 231 = 2147483648 y 231 1 = 2147483647
Enteros entre 215 y 215 1.
Enteros entre 231 y 231 1.
Enteros entre 0 y 216 1 o entre 0 y 232 1.
Enteros entre 0 y 216 1.
Enteros entre 0 y 232 1.
Caracteres.
Reales en los intervalos [1.7 1038 , 0.29 1038 ],
[0.29 1038 , 1.7 1038 ]
(Precision de unos 7 dgitos decimales.)
Reales en los mismos intervalos que float,
pero con precision de 16 decimales,
o en los intervalos [0.9 10308 , 0.86 10308 ]
y [0.86 10308 , 0.9 10308 ], con precision de 15 decimales.

Los valores de los rangos indicados son simplemente representativos y dependen de la maquina utilizada.

A C++.
CAPITULO 2. UNA BREVE INTRODUCCION

48

Las variables tipo char alojan caracteres, debiendo inicializarse en la forma:


char c = a;
Ademas de las letras may
usculas y min
usculas, y smbolos como &, (, :, etc., hay una
serie de caracteres especiales (escape code) que es posible asignar a una variable char. Ellos
son:
newline
horizontal tab
vertical tab
backspace
carriage return
form feed
alert (bell)
backslash
single quote
double quote

\n
\t
\v
\b
\r
\f
\a
\\
\
\"

Por ejemplo, la lnea:


cout << "Primera columna\t Segunda columna\n
Segunda linea" << endl;
corresponde al output
Primera columna
Segunda linea

2.1.5

Segunda columna

Ingreso de datos desde el teclado.

El header iostream.h define un objeto especial llamado cin que esta asociado al teclado o
stdin. Con el operador >> asignamos la entrada en el dispositivo de la izquierda a la variable
de la derecha; una segunda entrada requiere de otro operador >> y de otra variable. En el
siguiente ejemplo veremos una declaracion simultanea de dos variables del mismo tipo i y
j, un mensaje a pantalla con las instrucciones a seguir, el ingreso de dos variables desde el
teclado y luego su escritura en la pantalla.
#include <iostream.h>
main()
{
int i, j ;
cout << "Ingrese dos numeros enteros : " ;
cin >> i >> j ;
cout << "Los dos numeros ingresados fueron: " << i <<" "<< j << endl ;
}


2.1. ESTRUCTURA BASICA
DE UN PROGRAMA EN C++.

2.1.6

49

Operadores aritm
eticos.

Existen operadores binarios para la suma, la resta, la multiplicacion y la division:


+

2.1.7

Operadores relacionales.

Los smbolos para los operadores relacionales de igualdad, desigualdad, menor, menor o igual,
mayor y mayor o igual son:
==

!=

<

<=

>

>=

Para las relaciones logicas AND, OR y NOT:


&&

||

2.1.8

Asignaciones.

a) Asignacion simple.
i = 1;
b) Asignacion compuesta.
La expresion

x = x + 2 se puede reemplazar por

Existen los operadores

+=

-=

*=

x += 2.

/=

c) Operadores de incremento y decremento.


La expresion

x = x + 1 se puede reescribir

x += 1

o bien

x++.

Analogamente, existe el operador --. Ambos operadores unarios, ++ y -- pueden


ocuparse como prefijos o sufijos sobre una variable y su accion difiere en ambos casos.
Como prefijo la operacion de incremento o decremento se aplica antes de que el valor
de la variable sea usado en la evaluacion de la expresion. Como sufijo el valor de la
variable es usado en la evaluacion de la expresion antes que la operacion de incremento
o decremento. Veamos un ejemplo:
// Ejemplo de operadores unarios ++ y --.
#include <iostream.h>
void main()
{
int y ; int x = (y = 1) ;
int w = ++x + y++;
cout << w <<" " << x << " " << y << "-" ;
w = x-- - --y;
cout << w << " " << x << " " << y << endl ;
}
La salida es: 3 2 2-1 1 1 .

A C++.
CAPITULO 2. UNA BREVE INTRODUCCION

50

2.1.9

Conversi
on de tipos.

Observemos que en una expresion del tipo:


int i = 3;
float x = 43.8;
cout << "Suma = " << x + i << endl;
el computador debe sumar dos variables de tipos distintos, y por tanto debe convertir ambas
a un tipo com
un antes de efectuar la suma. Existen dos modos de proceder:
a) Conversion explcita.
Insertar la expresion
j = float(i);
Esto es bastante tedioso, por cuanto el programador debe realizar el trabajo de conversion personalmente.
b) Conversion implcita.
El compilador realiza las conversiones de modo automatico, prefiriendo siempre la conversion desde un tipo de variable de menor precision a uno de mayor precision (de int
a double, de short a int, etc.).
Es interesante notar como las conversiones implcitas de tipos pueden tener consecuencias insospechadas. Consideremos las tres expresiones:
i) x = (1/2) * (x + a/x) ;
ii) x = (0.5) * (x + a/x) ;
iii) x = (x + a/x)/2 ;
Si inicialmente x=0.5 y a=0.5, por ejemplo, i) entrega el valor x=0, mientras ii) y iii)
entregan el valor x=1.5. Lo que ocurre es que 1 y 2 son enteros, de modo que 1/2 = 0.
De acuerdo a lo que dijimos, uno esperara que en i), como conviven n
umeros reales
con enteros, los n
umeros enteros fueran convertidos a reales y, por tanto, la expresion
tuviera el resultado esperado, 1.5. El problema es la prioridad de las operaciones. No
todas las operaciones tienen igual prioridad (las multiplicaciones y divisiones se realizan
antes que las sumas y restas, por ejemplo), y esto permite al compilador decidir cual
operacion efectuar primero. Cuando se encuentra con operaciones de igual prioridad
(dos multiplicaciones, por ejemplo), se procede a efectuarlas de izquierda a derecha.
Pues bien, en i), la primera operacion es 1/2, una division entre enteros, i.e. cero. En
ii) no hay problema, porque todas son operaciones entre reales. Y en iii) la primera
operacion es el parentesis, que es una operacion entre reales. Al dividir por 2 este es
convertido a real antes de calcular el resultado.
i) a
un podra utilizarse, cambiando el prefactor del parentesis a 1.0/2.0, una practica
que sera conveniente adoptar como standard cuando queremos utilizar enteros dentro de expresiones reales, para evitar errores que pueden llegar a ser muy difciles de
detectar.

2.2. CONTROL DE FLUJO.

2.2

51

Control de flujo.

2.2.1

if, if...

else, if...

else if.

Las construcciones siguientes permiten controlar el flujo del programa en base a si una expresion logica es verdadera o falsa.
a) En el caso de la sentencia if se evaluara la expresion (a==b), si ella es cierta ejecutara
la o las lneas entre los parentesis de llave y si la expresion es falsa el programa se salta
esa parte del codigo.
if (a==b) {
cout << "a es igual a b" << endl;
}
b) En el caso if else hay dos acciones mutuamente excluyentes. La sentencia if evaluara
la expresion (c!=b). Si ella es cierta ejecutara la o las lneas entre los parentesis de
llave que le siguen, saltandose la o las lneas entre los parentesis de llave que siguen a
la palabra clave else. Si la expresion es falsa el programa se salta la primera parte del
codigo y solo ejecuta la o las lneas entre los parentesis de llave que siguen a else.
if (c!=d) {
cout << "c es distinto de d" << endl;
}
else {
cout << "c es igual a d" << endl;
}
c) En el u
ltimo caso se evaluara la expresion que acompa
na al if y si ella es cierta se
ejecutara la o las lneas entre los parentesis de llave que le siguen, saltandose todo
el resto de las lneas entre los parentesis de llave que siguen a las palabras claves
else if y else. Si la primera expresion es falsa el programa se salta la primera parte
del codigo y eval
ua la expresion que acompa
na al primer else if y si ella es cierta
ejecutara la o las lneas entre los parentesis de llave que le siguen, saltandose todo el
resto de las lneas entre los parentesis que siguen a otros eventuales else if o al else.
Si ninguna de las expresiones logicas resulta cierta se ejecutara la o las lneas entre los
parentesis que siguen al else.
if (e > f) {
cout << "e es mayor que f" << endl;
}
else if (e == f) {
cout << "e es igual a f" << endl;
}
else {
cout << "e es menor que f" << endl;
}

A C++.
CAPITULO 2. UNA BREVE INTRODUCCION

52

2.2.2

Expresi
on condicional.

Una construccion if else simple, que solo asigna un valor distinto a una misma variable
seg
un si una proposicion es verdadera o falsa, es muy com
un en programacion. Por ejemplo:
if (a==b) {
c = 1;
} else {
c = 0;
}

Existen dos maneras de compactar este codigo. Este


se puede reemplazar por
if (a==b) c = 1;
else c = 0;
Sin embargo, esto no es recomendable por razones de claridad al leer el codigo. Una expresion
mas compacta y clara, se consigue usando el operador ternario ? :
c = (a==b) ? 1 : 0;

2.2.3

switch.

La instruccion switch permite elegir m


ultiples opciones a partir del valor de una variable
entera. En el ejemplo siguiente tenemos que si i==1 la ejecucion continuara a partir del caso
case 1:, si i==2 la ejecucion continuara a partir del caso case 2: y as sucesivamente. Si
i toma un valor que no esta enumerado en ning
un case y existe la etiqueta default, la
ejecucion continuara a partir de ah.
switch (i)
{
case 1:
{
cout << "Caso 1." << endl;
}
break;
case 2:
{
cout << "Caso 2." << endl;
}
break;
default:
{
cout << "Otro caso." << endl;
}
break;
}

2.2. CONTROL DE FLUJO.

53

La instruccion break permite que la ejecucion del programa salte a la lnea siguiente despues
de la serie de instrucciones asociadas a switch. De esta manera solo se ejecutara las lneas
correspondiente al case elegido y no el resto, por ejemplo, si i==1 entonces veramos en
pantalla solo la lnea Caso 1.. En el otro caso, si no existieran los break, y tambien i==1,
entonces veramos en pantalla las lneas Caso 1., Caso 2. y Otro caso. La instruccion
default es opcional.

2.2.4

for.

Una instruccion que permite repetir un bloque de instrucciones un n


umero definido de veces
es el for. Su sintaxis comienza con una o varias inicializaciones, luego una condicion logica
de continuacion mientras sea verdadera, y finalmente una o mas expresiones que se eval
uan
vuelta por vuelta no incluyendo la primera vez. Siguiendo al for(...) viene una instruccion
o un bloque de ellas encerradas entre parentesis de llave. En el ejemplo siguiente la variable
entera i es inicializada al valor 1, luego se verifica que la condicion logica sea cierta y se
ejecuta el bloque de instrucciones. A la vuelta siguiente se eval
ua la expresion a la extrema
derecha (suele ser uno o mas incrementadores), se verifica que la condicion logica se mantenga
cierta y se ejecuta nuevamente el bloque de instrucciones. Cuando la condicion logica es falsa
se termina el loop, saltando la ejecucion a la lnea siguiente al parentesis que indica el fin del
bloque de instrucciones del for. En este ejemplo, cuando i=10 la condicion de continuacion
sera falsa y terminara la ejecucion del for.
for (int i = 1; i < 10; i++) {
cout << "Valor del indice: " << i << endl;
}
Todos los argumentos del for son opcionales (no los ;), por lo cual se puede tener un for
que carezca de inicializacion y/o de condicion de continuacion y/o de una expresion que se
eval
ue en cada iteracion. Ademas, se puede involucrar mas de una variable en el ciclo:
for (int i=0, k=20; (i<10) && (k<100); i++, k+=6) {
cout << "i + k = " << i + k << endl;
}
Podemos tener un loop infinito:
for (; ; ) cout << "Este es un loop infinito, ^C para detenerlo"<< endl;
Se puede ademas, salir abruptamente del loop
for(int indice=0; indice<10; indice++) {
int cuadrado = indice*indice ;
cout << indice << endl;
if(cuadrado > 60 ) break ;
}

A C++.
CAPITULO 2. UNA BREVE INTRODUCCION

54

2.2.5

while.

La instruccion while permite repetir un bloque de instrucciones encerradas entre parentesis


de llave mientras la condicion logica que acompa
na al while se mantenga cierta. La condicion
es evaluada antes de que comience la primera iteracion, si es falsa en esta o en una posterior
evaluacion no se ejecuta el bloque de instrucciones que le siguen y se contin
ua la ejecucion en
la lnea siguiente al parentesis que indica el fin del bloque asociado al while. Hay que notar
que la instruccion while podra no ejecutarse ni una sola vez si la condicion no se cumple
inicialmente. Un ejemplo simple:
while (i < 3) {
cout << i++ << endl;
}
En el siguiente loop, la salida sera: 5 4 3 2 1 (Por que?)
int k=5 ;
while(k) {
cout << k-- <<" ";
}
Toda expresion logica se reduce a 0 si es falsa y !=0 si es verdadera.

2.2.6

do...

while.

La instruccion do while permite repetir un bloque de instrucciones encerradas entre parentesis de llave mientras la condicion logica que acompa
na al while, ubicado al final del bloque de
instrucciones, se mantenga cierta. La condicion es evaluada terminada la primera iteracion.
De ser falsa en esta o en una posterior evaluacion no se ejecuta el bloque de instruciones
que la antecede y se contin
ua la ejecucion en la lnea siguiente al parentesis que indica el fin
del bloque asociado al do while. Hay que notar que la instruccion do while se ejecuta a lo
menos una vez, siempre. Un ejemplo simple:
do {
cout << i++ << endl;
} while (i<=20);
Podemos construir de otra manera un loop infinito usando do while
do {
cout << "Este es un segundo loop infinito, ^C para detenerlo"<< endl;
} while (1);

2.2.7

goto.

Existe tambien en C++ una instruccion goto que permite saltar de un punto a otro del
programa (goto salto; permite saltar a la lnea que contiene la instruccion salto:). Sin
embargo, se considera una mala tecnica de programacion usar goto, y siempre se puede disen
ar un programa evitandolo. Es altamente no recomendable, pero si su utilizacion simplifica
el codigo se puede usar.

2.3. FUNCIONES.

2.3

55

Funciones.

Las funciones nos permiten programar partes del procedimiento por separado. Un ejemplo
simple de ellas lo vimos en la subseccion 2.1.2.

2.3.1

Funciones tipo void.

Un caso especial de funciones es aquel en que el programa que llama la funcion no espera
que esta le entregue ning
un valor al terminar. Por ejemplo, en la subseccion 2.1.2, la funcion
PrintHola simplemente imprime un mensaje en pantalla. El resto del programa no necesita
de ning
un resultado parcial proveniente de la ejecucion de dicha funcion. La definicion de
estas funciones debe ir precedida de la palabra void, como en el ejemplo citado.

2.3.2

return.

Si deseamos definir una funcion que calcule una raz cuadrada, evidentemente esperamos que
la funcion nos entregue un resultado: el valor de la raz cuadrada. En este caso hay que
traspasar el valor de una variable desde la funcion al programa que la llamo. Esto se consigue
con return. Veamos un ejemplo muy simple:
int numero()
{
int i = 3;
return i;
}
main()
{
cout <<
cout <<
int i =
i = i +
cout <<
}

"Llamamos a la funcion" << endl;


"El numero es: " << numero() << endl;
5;
numero();
"El numero mas 5 es: " << i << endl;

En este caso, la funcion simplemente entrega el valor de la variable interna i, es decir 3, el


cual puede ser usado para salida en pantalla o dentro de operaciones matematicas corrientes.
Dos observaciones u
tiles:
a) La declaracion de la funcion lleva antepuesto el tipo de variable que la funcion entrega.
En el ejemplo, la variable entregada es un entero, i, y la declaracion debe ser por tanto:
int numero(). Podemos tener funciones tipo double, char, long, etc., de acuerdo al
tipo de variable que corresponde a return.
b) La variable i que se usa dentro de main() y la que se usa dentro de numero() son
distintas. A pesar de que tienen el mismo nombre, se pueden usar independientemente
como si se llamaran distinto. Se dice que i es una variable local.

A C++.
CAPITULO 2. UNA BREVE INTRODUCCION

56

2.3.3

Funciones con par


ametros.

Volviendo al ejemplo de la raz cuadrada, nos gustara llamar a esta funcion con un parametro
(el n
umero al cual se le va a calcular la raz cuadrada). Existen dos modos de transferir
parametros a una funcion:
a) Por valor. Se le pasan los parametros para que la funcion que es llamada copie sus
valores en sus propias variables locales, las cuales desapareceran cuando la funcion
termine y no tienen nada que ver con las variables originales.
int funcion(int i)
{
i+=4;
return i;
}
main()
{
int i =
cout <<
<<
cout <<
}

3;
"El valor de la funcion es " << funcion(i)
endl;
"El valor del parametro es " << i << endl;

El resultado en pantalla es:


El valor de la funcion es 7
El valor del parametro es 3
La funcion funcion entrega el valor del parametro mas 4. Usamos el mismo nombre (i)
para las variables en main y funcion, pero son variables locales, as que no interfieren.
Lo importante es notar que cuando se llama la funcion, la reasignacion del valor de i
[i+=4] ocurre solo para la variable local en funcion; el parametro externo mantiene su
valor. Lo que ha ocurrido es que la funcion copia el valor de la variable externa i en
una nueva variable (que tambien se llama i, pero esta en otra direccion de memoria).
El valor con el que trabaja la funcion es la copia, manteniendo inalterada la variable
original.
b) Por referencia. Se le pasa la direccion de memoria de los parametros. La funcion
llamada puede modificar el valor de tales variables.
int funcion(int & i)
{
i+=4;
return i;
}

2.3. FUNCIONES.
main()
{
int i =
cout <<
<<
cout <<
}

57

3;
"El valor de la funcion es " << funcion(i)
endl;
"El valor del parametro es " << i << endl;

Este
es el mismo ejemplo anterior, pero modificando la declaracion del argumento en
funcion. El efecto es que en vez de traspasarle a funcion el valor del parametro, se
le entrega la direccion de memoria de dicha variable, permitiendosele de este modo
modificar su valor. El resultado en pantalla del u
ltimo programa sera:
El valor de la funcion es 7
El valor del parametro es 7
El paso de parametros por referencia debe ser usado con sabidura. De hecho el ejemplo
presentado es poco recomendable. Un caso mas u
til es el intercambiar entre s el valor
de dos variables, digamos a1=1 y a2=3. Luego de ejecutar la funcion queremos que
a1=3 y a1=1, es decir, precisamente que el valor de las variables originales cambie. El
uso de parametros por referencia es la tecnica a usar en esta situacion.

2.3.4

Par
ametros por defecto.

C++ permite que omitamos algunos parametros de la funcion llamada, la cual reemplaza los
valores omitidos por otros predeterminados, si hay mas de un parametro y solo algunos tiene
valor por defecto, ellos deben ser los u
ltimos en la declaracion de la funcion. Tomemos por
ejemplo la funcion de la subseccion 2.3.3, y modifiquemosla de modo que si no le entregamos
parametros, asuma que el n
umero entregado fue 5:
int funcion(int i = 5)
{
i+=4;
return i;
}
main()
{
cout << "El resultado default es " << funcion() << endl;
int i = 3;
cout << "Cuando el parametro vale " << i <<
" el resultado es " << funcion(i) << endl;
}
El output correspondiente es:
El resultado default es 9
Cuando el parametro vale 3 el resultado es 7

A C++.
CAPITULO 2. UNA BREVE INTRODUCCION

58

2.3.5

Alcance, visibilidad, tiempo de vida.

Con el concepto de funcion hemos apreciado que es posible que coexistan variables con el
mismo nombre en puntos distintos del programa, y que signifiquen cosas distintas. Conviene
entonces tener en claro tres conceptos que estan ligados a esta propiedad:
Alcance (scope) La seccion del codigo durante la cual el nombre de una variable puede ser
usado. Comprende desde la declaracion de la variable hasta el final del cuerpo de la
funcion donde es declarada.
Si la variable es declarada dentro de una funcion es local . Si es definida fuera de todas
las funciones (incluso fuera de main), la variable es global.
Visibilidad Indica cuales de las variables actualmente al alcance pueden ser accesadas. En
nuestros ejemplos (subseccion 2.3.3), la variable i en main a
un esta al alcance dentro
de la funcion funcion, pero no es visible, y por eso es posible reutilizar el nombre.
Tiempo de vida Indica cuando las variables son creadas y cuando destruidas. En general
este concepto coincide con el alcance (las variables son creadas cuando son declaradas y
destruidas cuando la funcion dentro de la cual fueron declaradas termina), salvo porque
es posible definir: (a) variables din
amicas, que no tienen alcance, sino solo tiempo de
vida; (b) variables estaticas, que conservan su valor entre llamadas sucesivas de una
funcion (estas variables tienen tiempo de vida mayor que su alcance). Para declarar
estas u
ltimas se usa un modificador static. Veamos un ejemplo de una variable estatica
en el calculo del factorial:
int factorial(int i=1)
{
static int fac = 1;
fac*=i;
return fac ;
}
main ()
{
int n=5 ;
int m=n;
while(n>0) factorial(n--) ;
cout << "El factorial de "<< m << "es =" << factorial() << endl ;
}

2.3.6

Recursi
on.

C++ soporta un tipo especial de tecnica de programacion, la recursion, que permite que una
funcion se llame a s misma. Esto permite definir de modo muy compacto una funcion que
calcule el factorial de un n
umero entero n.
int factorial(int n)
{
return (n<2) ? 1: n * factorial(n-1);
}

2.4. MATRICES.

2.3.7

59

Funciones internas.

Exiten muchas funciones previamente implementadas en C++ almacenadas en distintas bibliotecas. Una de las bibliotecas importante es la matematica. Para usarla uno debe incluir el
archivo de header <math.h> y luego al compilar agregar al final del comando de compilacion
-lm. Veamos algunas de estas funciones:
pow(x,y)
fabs(x)
sqrt(x)
sin(x) cos(x)
tan(x)
atan(x)
atan2(y, x)
exp(x)
log(x) log10(x)
floor(x)
ceil(x)
fmod(x,y)

2.4
2.4.1

Eleva a potencia, xy
Valor absoluto
Raz cuadrada
Seno y coseno
Tangente
Arcotangente de x en [, ]
Arcotangente de y/x en [, ]
Exponencial
Logaritmo natural y logaritmo en base 10
Entero mas cercano hacia abajo (e.g. floor(3.2)=3)
Entero mas cercano hacia arriba (e.g. ceil(3.2)=4)
El resto de x/y (e.g. fmod(7.3, 2)=1.3)

Matrices.
Declaraci
on e inicializaci
on.

Podemos declarar (e inicializar inmediatamente) matrices de enteros, reales de doble precision,


caracteres, etc., seg
un nuestras necesidades.
int a[5];
double r[3] = {3.5, 4.1, -10.8};
char palabra[5];
Una vez declarada la matriz (digamos a[5]), los valores individuales se accesan con a[i],
con i desde 0 a 4. Por ejemplo, podemos inicializar los elementos de la matriz as:
a[0] = 3;
a[3] = 5; ...
o si queremos ingresarlos desde el teclado:
for (i = 0; i < 5; i++)
{
cin >> a[i];
}
Y si deseamos escribirlos en pantalla:
for (i = 0; i < 5; i++)
{
cout >> a[i];
}

60

2.4.2

A C++.
CAPITULO 2. UNA BREVE INTRODUCCION

Matrices como par


ametros de funciones.

Si deseamos, por ejemplo, dise


nar una funcion que mande los elementos de una matriz a
pantalla:
void PrintMatriz(int i, double a[])
{
for (int j = 0; j < i; j++)
{
cout << "Elemento " << j << " = " << a[j] << endl;
}
}
void main()
{
double matriz[5] = {3.5, 5.2, 2.4, -0.9, -10.8};
PrintMatriz(5, matriz);
}
Observemos que la funcion debe recibir dos parametros, uno de los cuales es la dimension
de la matriz. Esto se debe a que cuando las matrices son usadas como parametros la informacion de su dimension no es traspasada, y debe ser comunicada independientemente. Una
ligera optimizacion al programa anterior es modificar main a:
main()
{
const int dim = 5;
double matriz[dim] = {3.5, 5.2, 2.4, -0.9, -10.8};
PrintMatriz(dim, matriz);
}
De este modo, si eventualmente cambiamos de opinion y deseamos trabajar con matrices de
longitud distinta, solo hay que modificar una lnea de codigo (la primera) en todo el programa,
el cual puede llegar a ser bastante largo por cierto. (En el ejemplo, tambien habra que
cambiar la lnea de inicializacion de la matriz, porque asume que la matriz requiere solo 5
elementos, pero de todos modos debera ser clara la enorme conveniencia). Podemos reescribir
este programa con un comando de preprocesador para hacer la definicion de la dimension:
#include <iostream.h>
#define DIM 5
main()
{
double matriz[DIM] = {3.5, 5.2, 2.4, -0.9, -10.8};
PrintMatriz(DIM, matriz);
}

2.4. MATRICES.

2.4.3

61

Asignaci
on din
amica.

La reserva de memoria para la matriz podemos hacerla en forma dinamica ocupando el


operador new que pedira al sistema la memoria necesaria, si esta disponible el sistema se
la asignara. La instruccion new devuelve una direccion de memoria (puntero) desde donde
comienza el arreglo (revisaremos punteros mas adelante). Una vez desocupado el arreglo
debemos liberar la memoria con el comando delete.
#include <iostream.h>
main()
{
cout<<"Ingrese la dimension deseada :" ;
int dim ;
cin >> dim ;
double * matriz = new double[dim] ; // Reserva la memoria
for(int i=0; i < dim; i++) {
cout << "Ingrese elemento "<< i <<" : ";
cin >> matriz[i] ;
}
PrintMatriz(dim, matriz);
delete [] matriz
// Libera la memoria reservada
}

2.4.4

Matrices multidimensionales.

Es facil declarar e inicializar matrices de mas de una dimension:


double array[10][8];
int array[2][3] = {{1, 2, 3},
{4, 5, 6}};

2.4.5

Matrices de caracteres: cadenas (strings).

Una cadena es una matriz de caracteres que termina con el char nulo: \0.
char palabra[5] = {H, o, l, a, \0};
Cuando enviamos esta matriz a pantalla:
for (i = 0; i < 5; i++)
{
cout << palabra[i];
}
El resultado es Hola. Es equivalente esto a la instruccion ya conocida cout << "Hola". De
hecho, la declaracion de palabra podra haberse escrito:
char palabra[5] = "Hola";

A C++.
CAPITULO 2. UNA BREVE INTRODUCCION

62

Las lneas de texto, entonces, no corresponden sino a matrices de caracteres. Se entiende


entonces la necesidad de introducir el char especial \0. En efecto, toda matriz en C++
debe tener una dimension definida. Sin embargo, las palabras o las lneas de texto que se nos
pudiera ocurrir utilizar pueden tener una longitud arbitraria, lo cual genera un conflicto. C++
resuelve el problema aceptando que estas matrices de caracteres tengan longitud arbitraria,
pero adoptando la convencion de se
nalar donde terminan.
string.h.
Una serie de funciones u
tiles para manejar palabras (convertir todas las letras en may
usculas,
contar el n
umero de caracteres, etc.) son accesibles agregando al comienzo del programa la
lnea:
#include <string.h>
Por ejemplo:
a) strlen(a) entrega el n
umero de caracteres de la cadena a (como un humano lo entendera, es decir, sin incluir \0).
b) strncpy(a,b) copia la cadena b en a. (Podramos esperar que, como cuando intervienen variables numericas, esto se realizara con a=b, pero no es as.)
Input/Output de cadenas.
Ya sabemos que la salida a pantalla de cadenas se realiza con cout y << simplemente, como
con todos los demas tipos de variables.
El ingreso por teclado de cadenas es mas problematico debido a la longitud indeterminada
de la matriz. La solucion mas facil es:
char a[30];
cout << "Ingrese una palabra: ";
cin >> a;
La idea es que la matriz sea suficientemente grande (30 caracteres en este caso) para que una
palabra cualquiera quepa holgadamente. Las dificultades que aparecen son dos:
a) La longitud del input puede ser demasiado grande. El problema de esto es que un
input demasiado grande aloja caracteres en direcciones de memoria sobre los cuales no
se tiene ningun control, con consecuencias posiblemente catastroficas en aplicaciones
suficientemente complicadas. La solucion sera aumentar el tama
no de la matriz (lo
cual no se puede hacer hasta infinito en todo caso).
b) Solo se puede ingresar una palabra a la vez. Esto es porque C++ considera a los
espacios en blanco como fin de input. Esto no es necesariamente una desventaja, porque
si queremos ingresar por teclado varios valores de una sola vez, basta separarlos por
espacios. Pero cuando se trata de texto no necesariamente queremos ingresar palabras
individuales.

2.4. MATRICES.

63

Una solucion al problema b) es ingresar lneas completas (i.e. hasta que aparezca un
\n o Enter). Claro que esto no soluciona el problema del control de la longitud del texto
(una lnea podra ser mas larga que cualquier longitud preconcebida), problema que debe ser
tratado por separado.
El siguiente programa muestra un ejemplo de solucion para ambas situaciones:
const int buffersize = 512;
char inputBuffer[buffersize];
if (cin.getline(inputBuffer,buffersize-1)) {
cout << inputBuffer << endl;
} else {
cout << "Demasiado larga: " << inputBuffer << endl;
while (cin.clear(), !cin.getline(inputBuffer, buffersize-1)) {
cout << " y tambien: " << inputBuffer << endl;
}
cout << " y finalmente: " << inputBuffer << endl;
}
En este programa, cin.getline(inputBuffer,buffersize) recibe una lnea desde el
teclado hasta que encuentra un fin de lnea, con un maximo de buffersize-1 caracteres,
a
nadiendo al final un \0. Esta funcion es falsa si algo salio mal en el proceso de ingreso de
datos (por ejemplo, si se ingresaron mas caracteres que la longitud establecida).
cin.clear() resetea el estado del mecanismo de input, preparandolo para una nueva
sesion de ingreso.
Como comentario final sobre el problema de las cadenas de caracteres en C++ hay que
mencionar la definicion de la clase String hecha en la biblioteca de clases de gnu del C++.
Es muy eficiente y practica para manejar cadenas de caracteres. Hay que incluir el header
<String.h> y en la compilacion agregar las bibliotecas de clases de gnu mediante -lg++.
Informacion sobre la biblioteca de clases gnu, que incluye la clase de cadenas y varias mas,
en la aplicacion de ayuda Info Pages (Gnome Help Browser) seccion libg++.

2.4.6

Argumentos del programa.

La funcion main tambien puede tener parametros o argumentos, permitiendo pasar opciones
o datos al programa desde la lnea de comando. Un Ejemplo
#include <iostream.h>
main( int argc, char * argv[])
{
for(int i = 0; i < argc; i++) cout << argv[i] << endl ;
}
El entero argc da el n
umero de argumentos, siendo el cero el nombre del programa. El
parametro argv corresponde a un arreglo de punteros a cadena, siendo cada uno de sus
componentes los argumentos dados en la lnea de comando.

A C++.
CAPITULO 2. UNA BREVE INTRODUCCION

64

2.5

Clases.

C++ dispone de una serie de tipos de variables con los cuales nos esta permitido operar:
int, double, char, etc. Creamos variables de estos tipos y luego podemos operar con ellos:
int
x =
y =
int

x, y;
3;
6;
z = x + y;

No hay, sin embargo, en C++, una estructura predefinida que corresponda a n


umeros
complejos, vectores de dimension n o matrices, por ejemplo. Y sin embargo, nos agradara
disponer de n
umeros complejos que pudieramos definir como
z = (3,5);
w = (6,8);
y que tuvieran sentido las expresiones
a
b
c
d
e
f

=
=
=
=
=
=

z + w;
z * w;
z / w;
z + 3;
modulo(z);
sqrt(z);

Todas estas expresiones son completamente naturales desde el punto de vista matematico,
y sera bueno que el lenguaje las entendiera. Esto es imposible en el estado actual, pues,
por ejemplo, el signo + es un operador que espera a ambos lados suyos un n
umero. Sumar
cualquier cosa con cualquier cosa no significa nada necesariamente, as que solo esta permitido
operar con n
umeros. Pero los humanos sabemos que los complejos son n
umeros. Como
decrselo al computador? Como convencerlo de que sumar vectores o matrices es tambien
posible matematicamente, y que el mismo signo + debera servir para todas estas operaciones?
La respuesta es: a traves del concepto de clases. Lo que debemos hacer es definir una clase
de n
umeros complejos. Llamemosla Complejo. Una vez definida correctamente, Complejo
sera un tipo mas de variable que el compilador reconocera, igual que int, double, char, etc.
Y sera tan facil operar con los Complejos como con todos los tipos de variables preexistentes.
Esta facilidad es la base de la extensibilidad de que es capaz C++, y por tanto de todas las
propiedades que lo convierten en un lenguaje muy poderoso.
Las clases responden a la necesidad del programador de construir objetos o tipos de datos
que respondan a sus necesidades. Si necesitamos trabajar con vectores de 5 coordenadas,
sera natural definir una clase que corresponda a vectores con 5 coordenadas; si se trata de
un programa de administracion de personal, la clase puede corresponder a un empleado, con
sus datos personales como elementos.
Si bien es cierto uno puede trabajar con clases en el contexto de orientacion al procedimiento, las clases muestran con mayor propiedad su potencial con la orientacion al objeto,
donde cada objeto corresponde a una clase. Por ejemplo, para efectuar una aplicacion para
Windows, la ventana principal, las ventanas de los archivos abiertos, la barra de men
u, las
cajas de dialogo, los botones, etc., cada uno de estos objetos estara asociado a una clase.

2.5. CLASES.

2.5.1

65

Definici
on.

Digamos que queremos una clase para representar los empleados de una empresa. Llamemosla
Persona. La convencion aceptada es que los nombres de las clases comiencen con may
uscula.
Esto es porque las clases, recordemos, corresponderan a tipos de variables tan validos como los
internos de C++ (int, char, etc.). Al usar nombres con may
uscula distiguimos visualmente
los nombres de un tipo de variable interno y uno definido por el usuario.
La estructura mnima de la definicion de la clase Persona es:
class Persona
{
};
Todas las caractersticas de la clase se definen entre los parentesis cursivos.

2.5.2

Miembros.

Se denomina miembros de una clase a todas las variables y funciones declaradas dentro de
una clase. Por ejemplo, para personas, es natural caracterizarlas por su nombre y su edad. Y
si se trata de empleados de una empresa, es natural tambien tener una funcion que entregue
su sueldo:
class Persona
{
char nombre[20];
int edad;
double sueldo();
}
Los miembros de una clase pueden tener cualquier nombre, excepto el nombre de la propia
clase dentro de la cual se definen, ese nombre esta reservado.

2.5.3

Miembros p
ublicos y privados.

Una clase distingue informacion (datos o funciones) privada (accesible solo a otros miembros
de la misma clase) y p
ublica (accesible a funciones externas a la clase). La parte privada corresponde a la estructura interna de la clase, y la parte p
ublica a la implementacion
(tpicamente funciones), que permite la interaccion de la clase con el exterior.
Consideremos ahora nuestro deseo de tener una clase que represente n
umeros complejos.
Un n
umero complejo tiene dos n
umeros reales (parte real e imaginaria), y esos son elementos
privados, es decir, parte de su estructura interna. Sin embargo, nos gustara poder modificar
y conocer esas cantidades. Eso solo puede hacerse a traves de funciones p
ublicas.
class Complejo
{
private:

A C++.
CAPITULO 2. UNA BREVE INTRODUCCION

66

double real, imaginaria;


public:
void setreal(double);
void setimag(double);
double getreal();
double getimag();
};
En este ejemplo, los miembros privados son solo variables, y los miembros p
ublicos son solo

funciones. Este es el caso tpico, pero puede haber variables y funciones de ambos tipos.

2.5.4

Operador de selecci
on (.).

Hemos definido una clase de n


umeros complejos y funciones que nos permiten conocer y
modificar las partes real e imaginaria. Como se usan estos elementos? Consideremos el
siguiente programa de ejemplo:
class Complejo
{
private:
double real, imaginaria;
public:
void setreal(double);
void setimag(double);
double getreal();
double getimag();
};
void main()
{
Complejo z, w;
z.setreal(3);
z.setimag(2.8);
w.setreal(1.5);
w.setimag(5);
cout << "El primer numero complejo es: " << z.getreal()
<< " + i*" << z.getimag() << endl;
cout << "El segundo es: " << w.getreal() << " + i*"
<< z.getimag() << endl;
}
Vemos en la primera lnea de main como la clase Complejo se usa del mismo modo que
usaramos int o double. Ahora Complejo es un tipo de variable tan valido como los tipos
predefinidos por C++. Una vez definida la variable, el operador de seleccion (.) permite
acceder a las funciones p
ublicas correspondientes a la clase Complejo, aplicadas a la variable

2.5. CLASES.

67

particular que nos interesa: z.setreal(3) pone en la parte real del Complejo z el n
umero
3, y w.setreal(1.5) hace lo propio con w.

2.5.5

Implementaci
on de funciones miembros.

Ya sabemos como declarar funciones miembros en el interior de la clase y como usarlas. Ahora
veamos como se implementan.
void Complejo::setreal(double x)
{
real = x;
}
void Complejo::setimag(double x)
{
imaginaria = x;
}
double Complejo::getreal()
{
return real;
}
double Complejo::getimag()
{
return imaginaria;
}
Como toda funcion, primero va el tipo de la funcion (void o double en los ejemplos), luego
el nombre de la funcion y los argumentos. Finalmente la implementacion. Lo diferente es
que el nombre va precedido del nombre de la clase y el operador :: .

2.5.6

Constructor.

Al declarar una variable, el programa crea el espacio de memoria suficiente para alojarla.
Cuando se trata de variables de tipos predefinidos en C++ esto no es problema, pero cuando
son tipos definidos por el usuario C++ debe saber como construir ese espacio. La funcion
que realiza esa tarea se denomina constructor.
El constructor es una funcion p
ublica de la clase, que tiene el mismo nombre que ella.
Agreguemos un constructor a la clase Complejo:
class Complejo
{
private:
double real,imaginaria;
public:

A C++.
CAPITULO 2. UNA BREVE INTRODUCCION

68

Complejo(double,double);
void setreal(double);
void setimag(double);
double getreal();
double getimag();
};
Complejo::Complejo (double x, double y)
: real(x), imaginaria(y)
{}
Definir el constructor de esta manera nos permite crear en nuestro programa variables de
tipo Complejo y asignarles valores sin usar setreal() o setimag():
Complejo z (2, 3.8);
Complejo w = Complejo(6.8, -3);
En el constructor se inicializan las variables internas que nos interesa inicializar al momento de crear un objeto de esta clase.
Si una de las variables internas a inicializar es una cadena de caracteres, hay que inicializarla de modo un poco distinto. Por ejemplo, si estamos haciendo una clase Persona que
solo tenga el nombre de una persona, entonces podemos definir la clase y su constructor en
la forma:
class Persona
{
private:
char nombre[20];
public:
Persona(char []);
};
Persona::Persona(a[])
{
strcpy(nombre,a);
}
Si uno no especifica el constructor de una clase C++ crea uno default, pero en general
sera insuficiente para cualquier aplicacion realmente practica. Es una mala costumbre ser
descuidado y dejar estas decisiones al computador.

2.5.7

Destructor.

As como es necesario crear espacio de memoria al definir una variable, hay que deshacerse
de ese espacio cuando la variable deja de ser necesaria. En otras palabras, la clase necesita
tambien un destructor . Si la clase es Complejo, el destructor es una funcion p
ublica de ella,
llamada ~Complejo.

2.6. SOBRECARGA.

69

class Complejo
{
private:
double real, imaginaria;
public:
Complejo(double,double);
~Complejo(void);
void setreal(double);
void setimag(double);
double getreal();
double getimag();
};
Complejo::Complejo (double x, double y): real(x), imaginaria(y)
{
}
Complejo::~Complejo(void)
{
}
Como con los constructores, al omitir un destructor C++ genera un default, pero es una
mala costumbre . . . , etc.

2.5.8

Matrices de clases.

Una clase es un tipo de variable como cualquier otra de las predefinidas en C++. Es posible
construir matrices con ellas, del mismo modo que uno tiene matrices de enteros o caracteres.
La u
nica diferencia con las matrices usuales es que no se pueden solo declarar, sino que hay
que inicializarlas simultaneamente. Por ejemplo, si queremos crear una matriz que contenga
2 n
umeros complejos, la lnea
Complejo z[2];
es incorrecta, pero s es aceptable la lnea
Complejo z[2] = {Complejo(3.5,-0.8), Complejo(-2,4)};

2.6

Sobrecarga.

Para que la definicion de nuevos objetos sea realmente u


til, hay que ser capaz de hacer
con ellos muchas acciones que nos seran naturales. Como ya comentamos al introducir el
concepto de clase, nos gustara sumar n
umeros complejos, y que esa suma utilizara el mismo
signo + de la suma usual. O extraerles la raz cuadrada, y que la operacion sea tan facil
como escribir sqrt(z). Lo que estamos pidiendo es que el operador + o la funcion sqrt()
sean polim
orficos, es decir, que act
ue de distinto modo seg
un el tipo de argumento que se

A C++.
CAPITULO 2. UNA BREVE INTRODUCCION

70

le entregue. Si z es un real, sqrt(z) calculara la raz de un n


umero real; si es complejo,
calculara la raz de un n
umero complejo.
La tecnica de programacion mediante la cual podemos definir funciones polimorficas se
llama sobrecarga.

2.6.1

Sobrecarga de funciones.

Digamos que la raz cuadrada de un n


umero complejo a + ib es (a/2) + i(b/2). (Es mas
complicado en realidad, pero no queremos escribir las formulas ahora.)
Para sobrecargar la funcion sqrt() de modo que acepte n
umeros complejos basta definirla
as:
Complejo sqrt(Complejo z)
{
return Complejo (z.getreal()/2, z.getimag()/2);
}
Observemos que definimos una funcion sqrt que acepta argumentos de tipo Complejo, y que
entrega un n
umero del mismo tipo. Cuando pidamos la raz de un n
umero, el computador
se preguntara si el n
umero en cuestion es un int, double, float o Complejo, y seg
un eso
escogera la version de sqrt que corresponda.
Con la definicion anterior podemos obtener la raz cuadrada de un n
umero complejo
simplemente con las instrucciones:
Complejo z(1,3);
Complejo raiz = sqrt(z);

2.6.2

Sobrecarga de operadores.

Como le decimos al computador que el signo + tambien puede aceptar n


umeros complejos?
La respuesta es facil, porque para C++ un operador no es sino una funcion, y la accion de
sobrecargar que ya vimos sirve en este caso tambien. La sintaxis es:
Complejo operator + (Complejo z, Complejo w)
{
return Complejo (z.getreal() + w.getreal(),
z.getimag() + w.getimag());
}

2.6.3

Coerci
on.

Sabemos definir a + b, con a y b complejos. Pero que pasa si a o b son enteros? O reales?
Pareciera que tendramos que definir no solo
Complejo operator + (Complejo a, Complejo b);
sino tambien todas las combinaciones restantes:

2.7. PUNTEROS.

71

Complejo operator + (Complejo a, int b);


Complejo operator + (Complejo a, float b);
Complejo operator + (int a, Complejo b);
etcetera.
En realidad esto no es necesario. Por cierto, un n
umero real es un n
umero complejo con
parte imaginaria nula, y es posible hacerle saber esto a C++, usando la posibilidad de definir
funciones con parametros default. Basta declarar (en el interior de la clase) el constructor de
los n
umeros complejos como
Complejo (double, double = 0);
Esto permite definir un n
umero complejo con la instruccion:
Complejo c = Complejo(3.5);
resultando el n
umero complejo 3.5 + i 0. Y si tenemos una lnea del tipo:
Complejo c = Complejo(3,2.8) + 5;
el computador convertira implcitamente el entero 5 a Complejo (sabe como hacerlo porque
el constructor de n
umeros complejos acepta tambien un solo argumento en vez de dos), y
luego realizara la suma entre dos complejos, que es entonces la u
nica que es necesario definir.

2.7

Punteros.

Una de las ventajas de C++ es permitir el acceso directo del programador a zonas de memoria,
ya sea para crearlas, asignarles un valor o destruirlas. Para ello, ademas de los tipos de
variables ya conocidos (int, double, clases), C++ proporciona un nuevo tipo: el puntero. El
puntero no contiene el valor de una variable, sino la direccion de memoria en la cual dicha
variable se encuentra.
Un peque
no ejemplo nos permite ver la diferencia entre un puntero y la variable a la cual
ese puntero apunta:
void main()
{
int i = 42;
int * p_i = &i;
cout << "El valor del puntero es: " << p_i << endl;
cout << "Y apunta a la variable: " << *p_i << endl;
}
En este programa definimos una variable i entera, y luego un puntero a esa variable,
que en este caso denominamos p_i. Observemos la presencia de los smbolos * y &. Al
ejecutar este programa, veremos en pantalla una primera lnea que nos da el valor del puntero,
donde encontraremos alg
un n
umero hexadecimal imposible de determinar a priori, y que
corresponde a la direccion de memoria donde quedo ubicada la variable i. La segunda lnea
nos da el valor de la variable que esta en esa direccion de memoria: 42.

A C++.
CAPITULO 2. UNA BREVE INTRODUCCION

72

Los punteros tienen gran importancia cuando de manejar datos dinamicos se trata, es
decir, objetos que son creados durante la ejecucion del programa, en n
umero imposible de
predecir al momento de compilar. Por ejemplo, una aplicacion X-windows normal que crea
una, dos, tres, etc. ventanas a medida que uno abre archivos. En este caso, cada ventana es
un objeto dinamico, creado durante la ejecucion, y la u
nica forma de manejarlo es a traves
de un puntero a ese objeto.

2.8

Herencia.

Herencia es el mecanismo mediante el cual es posible definir clases a partir de otras, preservando parte de las propiedades de la primera y agregando o modificando otras.
Por ejemplo, si definimos la clase Persona, toda Persona tendra una variable miembro
que sea su nombre. Si definimos una clase Hombre, tambien sera Persona, y por tanto
debera tener nombre. Pero ademas puede tener esposa. Y ciertamente no toda Persona
tiene esposa. Solo un Hombre.
C++ provee mecanismos para implementar estas relaciones logicas y poder definir una
clase Hombre a partir de Persona. Lo vemos en el siguiente ejemplo:
class Persona
{
private:
char nombre[20];
public:
Persona(char [] = "");
~Persona(void);
char getname();
}
class Hombre : public Persona
{
private:
char esposa[20];
public:
Hombre(char a[]) : Persona(a)
{ };
char getwife();
void setwife();
}
Primero definimos una clase Persona que tiene nombre. Luego definimos una clase Hombre
a partir de Persona (con la lnea class Hombre : public Persona). Esto permite de modo
automatico que Hombre tenga tambien una variable nombre. Y finalmente, dentro de la clase
Hombre, se definen todas aquellas caractersticas adicionales que una Persona no tiene pero
un Hombre s: esposa, y funciones miembros para modificar y obtener el nombre de ella.
Un ejemplo de uso de estas dos clases:

2.8. HERENCIA.

73

Persona cocinera("Maria");
Hombre panadero("Claudio");
panadero.setwife("Estela");
cout << cocinera.getname() << endl;
cout << panadero.getname() << endl;
cout << panadero.getwife() << endl;
Observemos que panadero tambien tiene una funcion getname(), a pesar de que la clase
Hombre no la define explcitamente. Esta funcion se ha heredado de la clase de la cual Hombre
se ha derivado, Persona.

74

A C++.
CAPITULO 2. UNA BREVE INTRODUCCION

Captulo 3
Gr
afica.
versi
on final 1.1-010821

En este captulo queremos mostrar algunas de las posibilidades graficas presentes en Linux. Cubriendo temas como la visualizacion, conversion, captura y creacion de archivos
graficos. Solo mencionaremos las aplicaciones principales en cada caso centrandonos en sus
posibilidades mas que en su utilizacion especfica, ya que la mayora posee una interfase
sencilla de manejar y con amplia documentacion.

3.1

Visualizaci
on de archivos gr
aficos.

Si disponemos de un archivo grafico conteniendo alg


un tipo de imagen lo primero que es
importante determinar es en que tipo de formato grafico esta codificada. Existen un n
umero
realmente grande de diferentes tipos de codificaciones de imagenes, cada una de ellas se
considera un formato grafico. Por razones de reconocimiento inmediato del tipo de formato
grafico se suelen inclur en el nombre del archivo, que contiene la imagen, una tro de letras
finales, conocidas como la extension, que representan el formato. Por ejemplo: bmp, tiff, jpg,
ps, eps, fig, gif entre muchas otras.
De que herramientas disponemos en Linux para visualizar estas imagenes? La respuesta
es que en Linux se dipone de variadas herramientas para este efecto.
Si se trata de archivos de tipo PostScript o Encapsulated PostScript, identificados por la
extension ps o eps, existen las aplicaciones gv, gnome-gv o kghostview, todos programas
que nos permitiran visualizar e imprimir este tipo de archivos. Si los archivos son tipo
Portable Document Format, con extension pdf, tenemos las aplicaciones gv, acroread o xpdf,
Con todas ellas podemos ver e imprimir dicho formato. Una mencion especial requieren los
archivos DeVice Independent con extension dvi ya que son el resultado de la compilacion de
un documento TEX o LATEX, para este tipo de archivo existen las aplicaciones xdvi y kdvi
entre otras. La primera aplicacion solo permite visualizar estos archivos y no imprimirlos,
para hacer esto, los archivos se transforman a ps y se imprime como cualquier otro Postscript.
Para la gran mayora de formatos graficos mas conocidos y usualmente usados para almacenar fotos existen otra serie se programas especializados en visualizacion que son capaces de
entender la mayora de los formatos mas usados. Entre estos programas podemos mencionar:
Eye de Gnome (eog), Electric Eyes (eeyes), kview o display. Podemos mencionar que
aplicaciones como display entienden sobre ochenta formatos graficos distintos entre los que
se encuentran ps, eps, pdf, fig, html, entre muchos otros.
75


CAPITULO 3. GRAFICA.

76

3.2

Modificando im
agenes

Si queremos modificaciones como rotaciones, ampliaciones, cortes, cambios de paleta de colores, filtros o efectos sencillos display es la herramienta precisa. Pero si se desea intervenir
la imagen en forma profesional, el programa gimp es el indicado. El nombre gimp viene de
GNU Image Manipulation Program. Se puede usar esta aplicacion para editar y manipular
imagenes. Pudiendo cargar y salvar en una variedad de formatos, lo que permite usarlo para
convertir entre ellos. Gimp puede tambien ser usado como programa de pintar, de hecho
posee una gran variedad de herramientas en este sentido tales como brocha de aire, lapiz
clonador, tijeras inteligentes, curvas bezier, etc. Ademas, permite inclur plugins que realizan
gran variedad de manipulaciones de imagen. Como hecho anecdotico podemos mencionar
que la imagen oficial de Tux, el ping
uino mascota de Linux, fue creada en gimp.

3.3

Conversi
on entre formatos gr
aficos.

El problema de transformar de un formato a otro es una situacion usual en el trabajo con


archivos graficos. Muchos software tienen salidas muy restringidas en formato o con formatos arcaicos (gif) y se presenta la necesidad de convertir estos archivos de salida en otros
formatos que nos sean mas manejables o practicos. Como ya se menciono, gimp puede ser
usado para convertir entre formatos graficos. Tambien display permite este hecho. Sin
embargo, en ambos casos la conversion es va men
us, lo cual lo hace engorroso para un gran
n
umero de conversiones e imposible para conversiones de tipo automatico. Existe un programa llamado convert que realiza conversiones desde la lnea de comando. Este programa
junto con display, import y varios otros forman la suite grafica ImageMagick una de las
mas importantes en unix en general y en especial en Linux y que ya ha sido migrada a otras
plataformas. Ademas de la clara ventaja de automatizacion que proporciona convert, posee
otro aspecto interesante, puede convertir un grupo de imagenes asociadas en una secuencia
de animacion o pelcula. Veamos la sintaxis para este programa:
user@host:~/imagenes$convert cockatoo.tiff cockatoo.jpg
user@host:~/secuencias$convert -delay 20 dna.* dna.gif
En el primer caso convierte el archivo cockatoo de formato tiff a formato jpg. En el segundo
a partir de un conjunto de archivos gif numerados correlativamente crea una secuencia
animada con imagenes que persisten por 20 centesimas de segundos en un formato conocido
como gif animado, muy usado en sitios en internet.

3.4

Captura de pantalla.

A menudo se necesita guardar imagenes que solo se pueden generar a tiempo de ejecucion, es
decir, mientras corre nuestro programa genera la imagen pero no tiene un mecanismo propio
para exportarla o salvarla como imagen. En este caso necesitamos capturar la pantalla y
poderla almacenar en un archivo para el cual podamos elegir el formato. Para estos efectos


3.5. CREANDO IMAGENES.

77

existe un programa, miembro tambien de la suite ImageMagick, llamado import que permite
hacer el trabajo. La sintaxis es
import figure.eps
import -window root root.jpeg
En el primer caso uno da el comando en un terminal y queda esperando hasta que uno toque
alguna de las ventanas, la cual es guardada en este caso en un archivo figure.eps en formato
PostScript. La extension le indica al programa que formato usar para almacenar la imagen.
En el segundo caso uno captura la pantalla completa en un archivo root.jpeg. Este comando
puede ser dado desde la consola de texto para capturar la imagen completa en la pantalla
grafica.

3.5

Creando im
agenes.

Para imagenes artsticas sin duda la alternativa es gimp, todo le que se dijo respecto a sus
posibilidades para modificar imagenes se aplica tambien en el caso de crearlas. En el caso
de necesitar imagenes mas bien tecnicas como esquemas o diagramas o una ilustracion para
aclarar un problema la alternativa de xfig es muy poderosa. El programa xfig es una herramienta manejada por men
us que permite dibujar y manipular objetos interactivamente.
Las imagenes pueden ser salvadas, en formato xfig, y posteriormente editadas. La documentacion del programa esta en html y es facil de accesar y muy completa. La gran ventaja
de xfig es que trabaja con objetos y no con bitmaps. Ademas, puede exportar las imagenes
a una gran cantidad de formatos: LATEX, Metafont, PostScript o Encapsulated PostScript o
bien gif, jpeg y muchos otros.
Habitualmente los dibujos necesarios para ilustrar problemas en Fsica en tareas, pruebas y
apuntes son realizados con este software, exportados a PostScript e includos en los respectivos
archivos LATEX. Tambien existe una herramienta extremadamente u
til que permite convertir
un archivo PostScript, generado de cualquier manera, a un archivo fig que puede ser editado y
modificado. Esta aplicacion que transforma se llama pstoedit y puede llegar a ser realmente
practica.
Una aparente limitacion de xfig es que se podra pensar que no podemos inclur curvas
analticas, es decir, si necesitamos ilustrar una funcion gaussiana no podemos pretender
dibujarla con las herramientas de que dispone xfig como resolver este problema?, simple
veremos que un software que grafica funciones analticas como gnuplot permite exportar en
formato fig luego xfig puede leer el archivo y editarlo. Ademas xfig permite importar e
inclur imagenes del tipo bitmap, agregando riqueza a los diagramas que puede generar.
Una caracterstica destacable del programa es que trabaja por capas, las cuales son tratadas independientemente, uno puede poner un objeto sobre otro o por debajo de otro logrando
diferentes efectos. Algunos programas de presentacion graficos basados en LATEX y pdf estan
utilizando esta capacidad para lograr animaciones de imagenes.
Finalmente este programa permite construir una biblioteca de objetos reutilizables ahorrando mucho trabajo. Por ejemplo, si uno dibuja los elementos de un circuito electrico y
los almacena en el lugar de las bibliotecas de imagenes podra inclur estos objetos en futuros
trabajos. El programa viene con varias bibliotecas de objetos listas para usar.


CAPITULO 3. GRAFICA.

78

3.6

Graficando funciones y datos.

Existen dos aplicaciones que permiten graficar datos de un archivo: gnuplot y xmgrace. La
primera esta basada en la lnea de comando y permite graficos en 2 y 3 dimensiones, pudiendo
ademas graficar funciones directamente sin pasar por un archivo de datos. La segunda es una
aplicacion basada en men
us que permite un resultado final de mucha calidad y con m
ultiples
variantes, su debilidad es que solo hace graficos bidimensionales.
El programa gnuplot se invoca de la lnea de comando y da un prompt en el mismo
terminal desde el cual se puede trabajar, veamos una sesion de gnuplot:
jrogan@huelen:~$ gnuplot
G N U P L O T
Linux version 3.7
patchlevel 1
last modified Fri Oct 22 18:00:00 BST 1999
Copyright(C) 1986 - 1993, 1998, 1999
Thomas Williams, Colin Kelley and many others
Type help to access the on-line reference manual
The gnuplot FAQ is available from
<http://www.ucc.ie/gnuplot/gnuplot-faq.html>
Send comments and requests for help to <info-gnuplot@dartmouth.edu>
Send bugs, suggestions and mods to <submit@bugs.debian.org>
Terminal type set to x11
gnuplot> plot sqrt(x)
gnuplot> set xrange[0:5]
gnuplot> set xlabel" eje de las x"
gnuplot> replot
gnuplot> set terminal postscript
Terminal type set to postscript
Options are landscape noenhanced monochrome dashed defaultplex "Helvetica" 14
gnuplot> set output "mygraph.ps"
gnuplot> replot
gnuplot> set terminal X
Terminal type set to X11
Options are 0
gnuplot> set xrange[-2:2]
gnuplot> set yrange[-2:2]
gnuplot> splot exp(-x*x-y*y)
gnuplot> plot "myfile.dat" w l
gnuplot> exit
jrogan@huelen:~$

3.7. GRAFICANDO DESDE NUESTROS PROGRAMAS.

79

En el caso de xmgrace es mucho mas directo manejarlo ya que esta basado en men
us.
Ademas existe abundante documentacion del software. Proximamente, estara disponible bajo
licencia gnu el software SciGraphica. Esta es una aplicacion de visualizacion y analisis de
data cientfica que permite el despliege de graficos en 2 y 3 dimensiones ademas de poder
exportar el resultado en formato PostScript. Realmente esta aplicacion nacio como un intento
de clonar el programa comercial origen no disponible para Linux.

3.7

Graficando desde nuestros programas.

Finalmente para poder graficar desde nuestro propio programa necesitamos alguna biblioteca
grafica, en nuestros caso usaremos las bibliotecas plplot. El comando de compilacion incluido
en un script sera:
#!/bin/bash
export PLPLOT_LIB="/usr/lib/plplot"
g++ -o $1 $1.cc -lplplot -lplcxx -ltclmatrix
-L/usr/X11R6/lib -lX11 -lm

-ltk8.2 -ltcl8.2

Veamos algunos ejemplos:


#include
#include
#include
#include

<iostream.h>
<math.h>
<unistd.h>
<plplot.h>

main()
{
cout << "Ingrese el numero de puntos : ";
int n =0 ;
cin >> n ;
float * x = new float[n] ;
float * y = new float[n] ;
plsdev("xwin") ;
plinit() ;
plenv(-M_PI, M_PI, -1, 1, 0, 0 ) ;
for( int ind=0; ind < n; ind++) {
float arg = -M_PI+ 2.0*M_PI*float(ind)/float(n-1) ;
x[ind] = arg ;
y[ind] = cos(arg) ;
}
plline(n, x, y) ;
plend() ;
cout << endl ;
delete [] x ;
delete [] y ;


CAPITULO 3. GRAFICA.

80
}

Este programa grafica la funcion seno con un n


umero de puntos dado. Veamos un caso
tridimensional
#include <iostream.h>
#include <math.h>
#include <plplot.h>
#include <stdlib.h>
#define nX
100
#define nY
100

/* Data points in x */
/* Datat points in y */

main()
{
float * x = new float[nX] ;
float * y = new float[nY] ;
float * * z = (float **) malloc(nX * sizeof(float *));
for (int indP = 0; indP < nX; indP++) {
z[indP] = (float *) malloc(nY * sizeof(float));
}
plsdev("xwin") ;
plinit() ;
float xmin2d =-2.9 ;
float xmax2d = 2.9 ;
float ymin2d = -2.9 ;
float ymax2d = 2.9 ;
plenv(xmin2d, xmax2d, ymin2d, ymax2d, 0, -2 ) ;
float basex =2.5 ;
float basey =2.5 ;
float height = 2.5 ;
float xmin =-2.0 ;
float xmax = 2.0 ;
float ymin = -2.0 ;
float ymax = 2.0 ;
float zmin = 0.0 ;
float zmax = 1.0 ;
float alt = 30.0 ;
float az = 30.0 ;
plw3d(basex, basey, height, xmin, xmax, ymin, ymax, zmin, zmax, alt, az) ;
for (int indX=0; indX <nX; indX++) {
for( int indY=0; indY < nY; indY++) {
float argX= -2.0 + 4.0*float(indX)/float(nX-1) ;
float argY= -2.0 + 4.0*float(indY)/float(nY-1) ;

3.7. GRAFICANDO DESDE NUESTROS PROGRAMAS.


x[indX]= argX ;
y[indY]= argY ;
float r=argX*argX+argY*argY ;
z[indX][indY] = sin(M_PI*r)/(M_PI*r) ;
}
plbox3("bnstu", "x axis", 0.0, 0,
"bnstu", "y axis", 0.0, 0,
"bcdmnstuv", "z axis", 0.0, 0);
plot3d(x, y, z, nX, nY, 1, 1) ;
plend() ;
cout << endl ;
delete [] x ;
delete [] y ;
}
Ahora un caso de graficos multiple:
#include <iostream.h>
#include <math.h>
#include <unistd.h>
#include <plplot.h>
#define nX
100
#define nY
100

/* Data points in x */
/* Datat points in y */

main()
{
plssub(2,2) ;
int n =1000 ;
float * x = new float[nX] ;
float * y = new float[nY] ;
float * x2 = new float[n] ;
float * y2 = new float[n] ;
plsdev("xwin") ;
plinit() ;
plenv(-M_PI, M_PI, -1, 1, 0, 0 ) ;
for( int ind=0; ind < n; ind++) {
float arg = -M_PI+ 2.0*M_PI*float(ind)/float(n-1) ;
x2[ind] = arg ;
y2[ind] = cos(arg) ;
}
plline(n, x2, y2) ;
pllab( "Hola", "chao", "nada") ;
plenv(-M_PI, M_PI, -1, 1, 0, 0 ) ;
for( int ind=0; ind < n; ind++) {

81


CAPITULO 3. GRAFICA.

82

float arg = -M_PI+ 2.0*M_PI*float(ind)/float(n-1) ;


x2[ind] = arg ;
y2[ind] = tan(arg) ;
}
plline(n, x2, y2) ;
plenv(-M_PI, M_PI, 0, 1, 0, 0 ) ;
for( int ind=0; ind < n; ind++) {
float arg = -M_PI+ 2.0*M_PI*float(ind)/float(n-1) ;
x2[ind] = arg ;
y2[ind] = exp(-arg*arg) ;
}
plline(n, x2, y2) ;
float * * z = (float **) malloc(nX * sizeof(float *));
for (int indP = 0; indP < nX; indP++) {
z[indP] = (float *) malloc(nY * sizeof(float));
}
float xmin2d =-2.9 ;
float xmax2d = 2.9 ;
float ymin2d = -2.9 ;
float ymax2d = 2.9 ;
plenv(xmin2d, xmax2d, ymin2d, ymax2d, 0, -2 ) ;
float basex =2.5 ;
float basey =2.5 ;
float height = 2.5 ;
float xmin =-2.0 ;
float xmax = 2.0 ;
float ymin = -2.0 ;
float ymax = 2.0 ;
float zmin = 0.0 ;
float zmax = 1.0 ;
float alt = 30.0 ;
float az = 30.0 ;
plw3d(basex, basey, height, xmin, xmax, ymin, ymax, zmin, zmax, alt, az) ;
for (int indX=0; indX <nX; indX++) {
for( int indY=0; indY < nY; indY++) {
float argX= -2.0 + 4.0*float(indX)/float(nX-1) ;
float argY= -2.0 + 4.0*float(indY)/float(nY-1) ;
x[indX]= argX ;
y[indY]= argY ;
float r=argX*argX+argY*argY ;
z[indX][indY] = sin(M_PI*r)/(M_PI*r) ;

3.7. GRAFICANDO DESDE NUESTROS PROGRAMAS.


}
}
plbox3("bnstu", "x axis", 0.0, 0,
"bnstu", "y axis", 0.0, 0,
"bcdmnstuv", "z axis", 0.0, 0);
plot3d(x, y, z, nX, nY, 1, 1) ;
plend() ;
cout << endl ;
delete [] x ;
delete [] y ;
}
Finalmente una primitiva animacion
#include
#include
#include
#include

<iostream.h>
<math.h>
<unistd.h>
<plplot.h>

main()
{
int n =1000 ;
float * x = new float[n] ;
float * y = new float[n] ;
plsdev("xwin") ;
plinit() ;
plenv(-M_PI, M_PI, -1, 1, 0, -2 ) ;
for (int indt=0; indt <5000; indt++) {
for( int ind=0; ind < n; ind++) {
float arg = -M_PI+ 2.0*M_PI*float(ind)/float(n-1) ;
x[ind] = arg ;
y[ind] = cos(arg-M_PI*indt/160.0) ;
}
plbop() ;
plcol(6) ;
plline(n, x, y) ;
usleep(50000) ;
}
plend() ;
cout << endl ;
delete [] x ;
delete [] y ;
}

83

84

CAPITULO 3. GRAFICA.

Captulo 4
Una breve introducci
on a
Octave/Matlab
versi
on final 1.2-010827

4.1

Introducci
on

Octave es un poderoso software para analisis numerico y visualizacion. Muchos de sus comandos son compatibles con Matlab. En estos apuntes revisaremos algunas caractersticas
de estos programas. En realidad, el autor de este captulo ha sido usuario durante algunos
a
nos de Matlab, de modo que estos apuntes se han basado en ese conocimiento, considerando
los comandos que le son mas familiares de Matlab. En la mayora de las ocasiones he verificado que los comandos descritos son tambien compatibles con Octave, pero ocasionalmente
se puede haber omitido algo . . . .
Matlab es una abreviacion de Matrix Laboratory. Los elementos basicos con los que se
trabaja con matrices. Todos los otros tipos de variables (vectores, texto, polinomios, etc.),
son tratados como matrices. Esto permite escribir rutinas optimizadas para el trabajo con
matrices, y extender su uso a todos los otros tipos de variables facilmente.

4.2

Interfase con el programa

Con Octave/Matlab se puede interactuar de dos modos: un modo interactivo, o a traves


de scripts. Al llamar a Octave/Matlab (escribiendo octave en el prompt, por ejemplo), se
nos presenta un prompt. Si escribimos a=1, el programa respondera a=1. Alternativamente,
podemos escribir a=3; (con punto y coma al final), y el programa no respondera (elimina
el eco), pero almacena el nuevo valor de a. Si a continuacion escribimos a, el programa
respondera a=3. Hasta este punto, hemos usado el modo interactivo.
Alternativamente, podemos introducir las instrucciones anteriores en un archivo, llamado,
por ejemplo, prueba.m. En el prompt, al escribir prueba, y si nuestro archivo esta en el path
de b
usqueda del programa, las lneas de prueba.m seran ejecutadas una a una. Por ejemplo,
si el archivo consta de las siguientes cuatro lneas:
a=3;
a
85

A OCTAVE/MATLAB
CAPITULO 4. UNA BREVE INTRODUCCION

86
a=5
a

el programa respondera con


a=3
a=5
a=5
prueba.m corresponde a un script. Todas las instrucciones de Octave/Matlab pueden ejecutarse tanto en modo interactivo como desde un script. En Linux se puede ejecutar un archivo
de comandos Octave de modo stand-alone incluyendo en la primera lnea:
#!/usr/bin/octave -q.

4.3
4.3.1

Tipos de variables
Escalares

A pesar de que estos son solo un tipo especial de matrices (ver subseccion siguiente), conviene
mencionar algunas caractersticas especficas.
Un n
umero sin punto decimal es tratado como un entero exacto. Un n
umero con punto
decimal es tratado como un n
umero en doble precision. Esto puede no ser evidente en
el output. Por default, 8.4 es escrito en pantalla como 8.4000. Tras la instruccion
format long, sin embargo, es escrito como 8.40000000000000. Para volver al formato
original, basta la instruccion format.
Octave/Matlab acepta n
umeros reales y complejos. La unidad imaginaria es i: 8i y
8*i definen el mismo n
umero complejo. Como i es una varible habitualmente usada en
iteraciones, tambien esta disponible j como un sinonimo. Octave/Matlab distinguen
entre may
usculas y min
usculas.
Octave/Matlab representa de manera especial los infinitos y cantidades que no son
n
umeros. inf es infinito, y NaN es un no-n
umero (Not-a-Number). Por ejemplo, escribir
a=1/0 no arroja un error, sino un mensaje de advertencia, y asigna a a el valor inf.
Analogamente, a=0/0 asigna a a el valor NaN.

4.3.2

Matrices

Este tipo de variable corresponde a escalares, vectores fila o columna, y matrices convencionales.
Construcci
on
Las instrucciones:
a = [1 2 ; 3 4]

4.3. TIPOS DE VARIABLES

87

o
a = [1, 2; 3, 4]


1 2
definen la matriz
. Las comas (opcionales) separan elementos de columnas distintas,
3 4
y los punto y coma separan elementos de filas distintas. El vector fila (1 2) es
b = [1 2]
 
1
y el vector columna
es
2
c = [1;2]
Un n
umero se define simplemente como d = [3] o d = 3.
Nota importante: Muchas funciones de Octave/Matlab en las paginas siguientes aceptan indistintamente escalares, vectores filas, vectores columnas, o matrices, y su output es un
escalar, vector o matriz, respectivamente. Por ejemplo, log(a) es un vector fila si a es un
vector fila (donde cada elemento es el logaritmo natural del elemento correspondiente en a),
y un vector columna si a es un vector columna. En el resto de este manual no se advertira
este hecho, y se pondran ejemplos con un solo tipo de variable, en el entendido que el lector
esta conciente de esta nota.
Acceso y modificaci
on de elementos individuales
Accesamos los elementos de cada matriz usando los ndices de filas y columnas, que parten
de uno. Usando la matriz a antes definida, a(1,2) es 2. Para modificar

 un elemento, basta
1 2
escribir, por ejemplo, a(2,2) = 5. Esto convierte a la matriz en
. En el caso especial
3 5
de vectores filas o columnas, basta un ndice. (En los ejemplos anteriores, b(2) = c(2) = 2.)
Una caracterstica muy importante del programa es que toda matriz es redimensionada
automaticamente cuando se intenta modificar un elemento que sobrepasa las dimensiones
actuales de la matriz, llenando con ceros los lugares necesarios. Por ejemplo, si b = [1 2],
y en seguida intentamos la asignacion b(5) = 8, b es automaticamente convertido al vector
fila de 5 elementos [1 2 0 0 8].
Concatenaci
on de matrices


 

1 2
7
Si a =
,b= 5 6 ,c=
, entonces
3 4
8
d = [a c]


1 2 7
d=
3 4 8
d = [a; b]

1 2
d = 3 4
5 6

88

A OCTAVE/MATLAB
CAPITULO 4. UNA BREVE INTRODUCCION
d = [a [0; 0] c]


1 2 0 7
d=
3 4 0 8

4.3. TIPOS DE VARIABLES

4.3.3

89

Strings

Las cadenas de texto son casos particulares de vectores fila, y se construyen y modifican de
modo identico.
Construcci
on
Las instrucciones
t
t
t
t

=
=
=
=

[un buen texto]


["un buen texto"]
un buen texto
"un buen texto"

definen el mismo string t.


Acceso y modificaci
on de elementos individuales
r = t(4)
r = b
t(9) = s
texto = un buen sexto

Concatenaci
on
t = un buen texto;
t1 = [t es necesario]
t1 = un buen texto es necesario

4.3.4

Estructuras

Las estructuras son extensiones de los tipos de variables anteriores. Una estructura consta
de distintos campos, y cada campo puede ser una matriz (es decir, un escalar, un vector o
una matriz), o una string.
Construcci
on
Las lneas
persona.nombre = Eduardo
persona.edad = 30
persona.matriz_favorita = [2 8;10 15];
definen una estructura con tres campos, uno de los cuales es un string, otro un escalar, y otro
una matriz:

A OCTAVE/MATLAB
CAPITULO 4. UNA BREVE INTRODUCCION

90

persona =
{
nombre = Eduardo;
edad = 30;
matriz_favorita = [2 8; 10 15];
}
Acceso y modificaci
on de elementos individuales
s = persona.nombre
s = Eduardo
persona.nombre = Claudio
persona.matriz_favorita(2,1) = 8
persona =
{
nombre = Claudio;
edad = 30;
matriz_favorita = [2 8; 8 15];
}

4.4
4.4.1

Operadores b
asicos
Operadores aritm
eticos

Los operadores +, -, * corresponden a la suma, resta y multiplicacion convencional de matrices. Ambas matrices deben tener la misma dimension, a menos que una sea un escalar. Un
escalar puede ser sumado, restado o multiplicado de una matriz de cualquier dimension.
.* y ./ permiten multiplicar y dividir elemento por elemento. Por ejemplo, si




1 2
5 6
a=
b=
3 4
7 8
entonces
c = a.*b


5 12
c=
21 32
c = a./b


0.2
0.3333
c=
0.42857
0.5

Si b es un escalar, a.*b y a./b equivalen a a*b y a/b.


a^b es a elevado a b, si b es un escalar. a.^b eleva cada elemento de a a b.
a es la matriz a (traspuesta y conjugada)
a. es la matriz traspuesta de a.


4.4. OPERADORES BASICOS

4.4.2

91

Operadores relacionales

Los siguientes operadores estan disponibles:


< <= > >= == ~=
El resultado de estas operaciones es 1 (verdadero) o 0 (falso). Si uno de los operandos
es una matriz y el otro un escalar, se compara el escalar con cada elemento de la matriz.
Si ambos operandos son matrices, el test se realiza elemento por elemento; en este caso, las
matrices deben ser de igual dimension. Por ejemplo,
a
b
c
d

=
=
=
=

[1 2 3];
[4 2 1];
(a<3);
(a>=b);

c = (1, 1, 0)
d = (0, 1, 1)

4.4.3

Operadores l
ogicos

Los siguientes smbolos corresponden a los operadores AND, OR y NOT:


& | ~
El resultado de estas operaciones es 1 (verdadero) o 0 (falso).

4.4.4

El operador :

Es uno de los operadores fundamentales. Permite crear vectores y extraer submatrices.


: crea vectores de acuerdo a las siguientes reglas:
j:k
j:i:k

es lo mismo que [j,j+1,...,k], si j<=k.


es lo mismo que [j,j+i,j+2*i,...,k], si i>0 y j<k, o si i<0 y j>k.

: extrae submatrices de acuerdo a las siguientes reglas:


A(:,j)
A(i,:)
A(:,:)
A(:,j:k)
A(:)

4.4.5

es la j-esima columna de A.
es la i-esima fila de A.
es A.
es A(:,j), A(:,j+1), . . . , A(:,k).
son todos los elementos de A, agrupados en una u
nica columna.

Operadores de aparici
on preferente en scripts

Los siguientes operadores es mas probable que aparezcan durante la escritura de un script
que en modo interactivo.
% : Comentario. El resto de la lnea es ignorado.
... : Continuacion de lnea. Si una lnea es muy larga y no cabe en la pantalla, o por alguna
otra razon se desea dividir una lnea, se puede usar el operador ... . Por ejemplo,

A OCTAVE/MATLAB
CAPITULO 4. UNA BREVE INTRODUCCION

92
m = [1 2 3 ...
4 5 6];
es equivalente a

m = [1 2 3 4 5 6];

4.5

Comandos matriciales b
asicos

Antes de revisar una a una diversas familias de comandos disponibles, y puesto que las
matrices son el elemento fundamental en Octave/Matlab, en esta seccion reuniremos algunas
de las funciones mas frecuentes sobre matrices, y como se realizan en Octave/Matlab.
Op. aritmetica
Conjugar
Trasponer
Trasponer y conjugar
Invertir
Autovalores, autovectores
Determinante
Extraer elementos
Traza
Dimensiones
Exponencial

4.6

+, -, *, .*, /
conj(a)
a.
a
inv(a)
[v,d]=eig(a)
det(a)
:
trace(a)
size(a)
exp(a)
expm(a)

(ver subseccion 4.4.1)

(ver subseccion 4.6.5)


(ver subseccion 4.4.4)

(elemento por elemento)


(exponencial matricial)

Comandos

En esta seccion revisaremos diversos comandos de uso frecuente en Octave/Matlab. Esta lista
no pretende ser exhaustiva (se puede consultar la documentacion para mayores detalles), y
esta determinada por mi propio uso del programa y lo que yo considero mas frecuente debido a
esa experiencia. Insistimos en que ni la lista de comandos es exhaustiva, ni la lista de ejemplos
o usos de cada comando lo es. Esto pretende ser solo una descripcion de los aspectos que me
parecen mas importantes o de uso mas recurrente.

4.6.1

Comandos generales

clear

Borra variables y funciones de la memoria

clear
clear a
disp

Borra todas las variables en memoria


Borra la variable a

Presenta matrices o texto

4.6. COMANDOS

93

disp(a) presenta en pantalla los contenidos de una matriz, sin imprimir el nombre de la
matriz. a puede ser una string.
disp(
c1
disp([.3 .4]);

load, save

c1
c2
0.30000 0.40000

Carga/Guarda variables desde el disco

save fname a b
load fname

size,length

c2);

Guarda las variables a y b en el archivo fname


Lee el archivo fname, cargando las definiciones de variables en
el definidas.

Dimensiones de una matriz/largo de un vector

Si a es una matrix de n m:
d = size(a)
[m,n] = size(a)

d = [m,n]
Aloja en m el n
umero de filas, y en n el de columnas

Si b es un vector de n elementos, length(b) es n.


who
quit

4.6.2

Lista de variables en memoria


Termina Octave/Matlab

Como lenguaje de programaci


on

Control de flujo
for
n=3;
for i=1:n
a(i)=i^2;
end

a=[1 4 9]

Para Octave el vector resultante es columna en vez de fila.


Observar el uso del operador : para generar el vector [1 2 3]. Cualquier vector se puede
utilizar en su lugar: for i=[2 8 9 -3], for i=10:-2:1 (equivalente a [10 8 6 4 2]), etc.
son validas. El ciclo for anterior se podra haber escrito en una sola lnea as:
for i=1:n, a(i)=i^2; end
if, elseif, else
Ejemplos:
a) if a~=b, disp(a); end

A OCTAVE/MATLAB
CAPITULO 4. UNA BREVE INTRODUCCION

94

b) if a==[3 8 9 10]
b = a(1:3);
end
c) if a>3
clear a;
elseif a<0
save a;
else
disp(Valor de a no considerado);
end
Naturalmente, elseif y else son opcionales. En vez de las expresiones condicionales
indicadas en el ejemplo pueden aparecer cualquier funcion que de valores 1 (verdadero) o 0
(falso).
while
while s
comandos
end
Mientras s es 1, se ejecutan los comandos entre while y end. s puede ser cualquier
expresion que de por resultado 1 (verdadero) o 0 (falso).
break
Interrumpe ejecucion de ciclos for o while. En loops anidados, break sale del mas interno
solamente.
Funciones l
ogicas
Ademas de expresiones construidas con los operadores relacionales ==, <=, etc., y los operadores logicos &, | y ~, los comandos de control de flujo anteriores admiten cualquier funcion
cuyo resultado sea 1 (verdadero) o 0 (falso). Particularmente u
tiles son funciones como las
siguientes:
all(a)
any(a)
isempty(a)

1 si todos los elementos de a son no nulos, y 0 si alguno es


cero
1 si alguno de los elementos de a es no nulo
1 si a es matriz vaca (a=[])

Otras funciones entregan matrices de la misma dimension que el argumento, con unos o
ceros en los lugares en que la condicion es verdadera o falsa, respectivamente:
finite(a)
isinf(a)
isnan(a)

1 donde a es finito (no inf ni NaN)


1 donde a es infinito
1 donde a es un NaN

Por ejemplo, luego de ejecutar las lneas

4.6. COMANDOS
x
y
a
b
c

=
=
=
=
=

95

[-2 -1 0 1 2];
1./x;
finite(y);
isinf(y);
isnan(y);

se tiene
a = [1 1 0 1 1]
b = [0 0 1 0 0]
c = [0 0 0 0 0]
Otra funcion logica muy importante es find:
find(a)

Encuentra los ndices de los elementos no nulos de a.

Por ejemplo, si ejecutamos las lneas


x=[11 0 33 0 55];
z1=find(x);
z2=find(x>0 & x<40);
obtendremos
z1 = [1 3 5]
z2 = [1 3]
find tambien puede dar dos resultados de salida simultaneamente (mas sobre esta posibilidad en la seccion 4.6.2), en cuyo caso el resultado son los pares de ndices (ndices de fila
y columna) para cada elemento no nulo de una matriz
y=[1 2 3 4 5;6 7 8 9 10];
[z3,z4]=find(y>8);
da como resultado
z3 = [2;2];
z4 = [4;5];
z3 contiene los ndice de fila y z4 los de columna para los elementos
de la matriz
 no nulos

2 4
y>8. Esto permite construir, por ejemplo, la matriz z5=[z3 z4] =
, en la cual cada
2 5
fila es la posicion de y tal que la condicion y>8 es verdadera (en este caso, es verdadera para
los elementos y(2,4) e y(2,5)).

96

A OCTAVE/MATLAB
CAPITULO 4. UNA BREVE INTRODUCCION

Funciones definidas por el usuario


Octave/Matlab puede ser facilmente extendido por el usuario definiendo nuevas funciones
que le acomoden a sus propositos. Esto se hace a traves del comando function.
Podemos definir (en modo interactivo o dentro de un script), una funcion en la forma
function nombre (argumentos)
comandos
endfunction
argumentos es una lista de argumentos separados por comas, y comandos es la sucesion
de comandos que seran ejecutados al llamar a nombre. La lista de argumentos es opcional,
en cuyo caso los parentesis redondos se pueden omitir.
A mediano y largo plazo, puede ser mucho mas conveniente definir las funciones en archivos especiales, listos para ser llamados en el futuro desde modo interactivo o desde cualquier
script. Esto se hace escribiendo la definicion de una funcion en un script con extension
.m. Cuando Octave/Matlab debe ejecutar un comando o funcion que no conoce, por ejemplo, suma(x,y),busca en los archivos accesibles en su path de b
usqueda un archivo llamado
suma.m, lo carga y ejecuta la definicion contenida en ese archivo.
Por ejemplo, si escribimos en el script suma.m las lneas
function s=suma(x,y)
s = x+y;
el resultado de suma(2,3) sera 5.
Las funciones as definidas pueden entregar mas de un argumento si es necesario (ya hemos
visto algunos ejemplos con find y size). Por ejemplo, definimos una funcion que efect
ue un
analisis estadstico basico en stat.m:
function [mean,stdev] = stat(x)
n = length(x);
mean = sum(x)/n;
stdev = sqrt(sum((x-mean).^2/n));
Al llamarla en la forma [m,s] = stat(x), si x es un vector fila o columna, en m quedara
el promedio de los elementos de x, y en s la desviacion estandard.
Todas las variables dentro de un script que define una funcion son locales, a menos que
se indique lo contrario con global. Por ejemplo, si un script x.m llama a una funcion f,
y dentro de f.m se usa una variable a que queremos sea global, ella se debe declarar en la
forma global a tanto en f.m como en el script que la llamo, x.m, y en todo otro script que
pretenda usar esa variable global.

4.6.3

Matrices y variables elementales

Matrices constantes importantes


Las siguientes son matrices que se emplean habitualmente en distintos contextos, y que es
u
til tener muy presente:

4.6. COMANDOS
eye(n)
ones(m,n)
rand(m,n)
randn(m,n)
zeros(m,n)

97
Matriz identidad de n n
Matriz de m n, con todos los elementos igual a 1.
Matriz de m n de n
umeros al azar, distribuidos uniformemente.
Igual que rand, pero con distribucion normal (Gaussiana).
Igual que ones, pero con todos los elementos 0.

Matrices u
tiles para construir ejes o mallas para graficar
Vector cuyo primer elemento es min, su u
ltimo elemento
es max, y tiene n elementos equiespaciados.
Analogo a linspace, pero los n elementos estan espaciados logartmicamente.
Construye una malla del plano x-y. Las filas de X son
copias del vector x, y las columnas de Y son copias del
vector y.

v = linspace(min,max,n)
v = logspace(min,max,n)
[X,Y] = meshgrid(x,y)

Por ejemplo:
x = [1 2 3];
y = [4 5];
[X,Y] = meshgrid(x,y);
da
X=


1 2 3
,
1 2 3

Y =


4 4 4
.
5 5 5

Notemos que al tomar sucesivamente los pares ordenados (X(1,1),Y(1,1)), (X(1,2),Y(1,2)),


(X(1,3),Y(1,3)), etc., se obtienen todos los pares ordenados posibles tales que el primer elemento esta en x y el segundo esta en y. Esta caracterstica hace particularmente u
til el
comando meshgrid en el contexto de graficos de funciones de dos variables (ver secciones
4.6.7, 4.6.7).
Constantes especiales
Octave/Matlab proporciona algunos n
umeros especiales, algunos de los cuales ya mencionamos en la seccion 4.3.1.

i, j
Unidad imaginaria ( 1 )
inf
Infinito
NaN
Not-A-Number
pi
El n
umero (= 3.1415926535897 . . . )
Funciones elementales
Desde luego, Octave/Matlab proporciona todas las funciones matematicas basicas. Por ejemplo:

A OCTAVE/MATLAB
CAPITULO 4. UNA BREVE INTRODUCCION

98

a) Funciones sobre n
umeros reales/complejos
abs
angle
conj
real
imag
sign
sqrt

Valor absoluto de n
umeros reales, o modulo de n
umeros imaginarios

Angulo de fase de un n
umero imaginario
Complejo conjugado
Parte real
Parte imaginaria
Signo
Raz cuadrada

b) Exponencial y funciones asociadas


cos, sin, etc.
cosh, sinh, etc.
exp
log

Funciones trigonometricas
Funciones hiperbolicas
Exponencial
Logaritmo

c) Redondeo
ceil
fix
floor
round

Redondear
Redondear
Redondear
Redondear

hacia
hacia
hacia
hacia

+
cero

el entero mas cercano

Funciones especiales
Ademas, Octave/Matlab proporciona diversas funciones matematicas especiales. Algunos
ejemplos:
bessel
besselh
beta
ellipke
erf
gamma

Funcion
Funcion
Funcion
Funcion
Funcion
Funcion

de Bessel
de Hankel
beta
elptica
error
gamma

As, por ejemplo, bessel(alpha,X) eval


ua la funcion de Bessel de orden alpha, J (x),
para cada elemento de la matriz X.

4.6.4

Polinomios

Octave/Matlab representa los polinomios como vectores fila. El polinomio


p = cn xn + + c1 x + c0
es representado en Octave/Matlab en la forma
p = [c_n, ..., c1, c0]

4.6. COMANDOS

99

Podemos efectuar una serie de operaciones con los polinomios as representados.


poly(x)
polyval(p,x)
roots(p)

4.6.5

Polinomio cuyas races son los elementos de x.


Eval
ua el polinomio p en x (en los elementos de x si este es
un vector)
Races del polinomio p

Algebra
lineal (matrices cuadradas)

Unos pocos ejemplos, entre los comandos de uso mas habitual:


Determinante
N
umero de filas o columnas linealmente independientes
Traza
Matriz inversa
Autovalores y autovectores
Polinomio caracterstico

det
rank
trace
inv
eig
poly

Notar que poly es la misma funcion de la seccion 4.6.4 que construye un polinomio de
races dadas. En el fondo, construir el polinomio caracterstico de una matriz es lo mismo,
y por tanto tiene sentido asignarles la misma funcion. Y no hay confusion, pues una opera
sobre vectores y la otra sobre matrices cuadradas.
El uso de todos estos comandos son autoexplicativos, salvo eig, que se puede emplear de
dos modos:
d = eig(a)
[V,D] = eig(a)
La primera forma deja en d un vector con los autovalores de a. La segunda, deja en D una
matriz diagonal con los autovalores, y en V una matiz cuyas columnas son los autovalores, de
modo que A*V = V*D. Por ejemplo, si a =[1 2; 3 4], entonces


5.37228
d=
0.37228
y
D=

5.37228 . . .
0

0
0.37228 . . .

V =

0.41597 . . .
0.90938 . . .

0.82456 . . .
0.56577 . . .

La primera columna de V es el autovector de a asociado al primer autovalor, 5.37228 . . . .

4.6.6

An
alisis de datos y transformada de Fourier

En Octave/Matlab estan disponibles diversas herramientas para el analisis de series de datos


(estadstica, correlaciones, convolucion, etc.). Algunas de las operaciones basicas son:
a) Maximos y mnimos
Si a es un vector, max(a) es el mayor elemento de a. Si es una matriz, max(a) es un vector
fila, que contiene el maximo elemento para cada columna.

A OCTAVE/MATLAB
CAPITULO 4. UNA BREVE INTRODUCCION

100

a = [1 6 7; 2 8 3; 0 4 1]
b = max(a)

b = (2

7)

Se sigue que el mayor elemento de la matriz se obtiene con max(max(a)).


min opera de modo analogo, entregando los mnimos.
b) Estadstica basica
Las siguientes funciones, como min y max, operan sobre vectores del modo usual, y sobre
matrices entregando vectores fila, con cada elemento representando a cada columna de la
matriz.
mean
median
std
prod
sum

Valor promedio
Mediana
Desviacion standard
Producto de los elementos
Suma de los elementos

c) Orden
sort(a) ordena los elementos de a en orden ascendente si a es un vector. Si es una matriz,
ordena cada columna.

1 3 0
b = 4 2 1
8 3 9

b = sort([1 3 9; 8 2 1; 4 3 0]);

d) Transformada de Fourier
Por u
ltimo, es posible efectuar transformadas de Fourier directas e inversas, en una o dos
dimensiones. Por ejemplo, fft y ifft dan la transformada de Fourier y la transformada
inversa de x, usando un algoritmo de fast Fourier transform (FFT). Especficamente, si
X=fft(x) y x=ifft(X), y los vectores son de largo N:
X(k) =

N
X

(j1)(k1)

x(j)N

j=1

N
1 X
(j1)(k1)
X(k)N
,
x(j) =
N k=1

donde N = e2i/N .

4.6.7

Gr
aficos

Una de las caractersticas mas importantes de Matlab son sus amplias posibilidades graficas.
Algunas de esas caractersticas se encuentran tambien en Octave. En esta seccion revisaremos
el caso de graficos en dos dimensiones, en la siguiente el caso de tres dimensiones, y luego
examinaremos algunas posibilidades de manipulacion de graficos.

4.6. COMANDOS

101

Gr
aficos bidimensionales
Para graficar en dos dimensiones se usa el comando plot. plot(x,y) grafica la ordenada y
versus la abscisa x. plot(y) asume abscisa [1,2,...n], donde n es la longitud de y.
Ejemplo: Si x=[2 8 9], y=[6 3 2], entonces
plot(x,y)

Figura 4.1: Grafico simple.

Por default, Octave utiliza gnuplot para los graficos. Por default, los puntos se conectan
con una lnea roja en este caso. El aspecto de la lnea o de los puntos puede ser modificado.
Por ejemplo, plot(x,y,ob) hace que los puntos sean indicados con crculos (o) azules
(b, blue). Otros modificadores posibles son:
.
@
+
*
o
x

lnea (default)
puntos
otro estilo de puntos
signo mas
asteriscos
crculos
cruces

r
g
b
m
c
w

red
green
blue
magenta
cyan
white

Dos o mas graficos se pueden incluir en el mismo output agregando mas argumentos a
plot. Por ejemplo: plot(x1,y1,x,x2,y2,og,x3,y3,.c).
Los mapas de contorno son un tipo especial de grafico. Dada una funcion z = f (x, y),
nos interesa graficar los puntos (x, y) tales que f = c, con c alguna constante. Por ejemplo,
consideremos
2
2
z = xex y , x [2, 2], y [2, 3] .
Para obtener el grafico de contorno de z, mostrando los niveles z = .3, z = .1, z = 0,
z = .1 y z = .3, podemos usar las instrucciones:
x = -2:.2:2;
y = -2:.2:3;
[X,Y] = meshgrid(x,y);

102

A OCTAVE/MATLAB
CAPITULO 4. UNA BREVE INTRODUCCION

Z = X.*exp(-X.^2-Y.^2);
contour(Z.,[-.3 -.1 0 .1 .3],x,y);
# Octave por default (gnuplot)
contour(x, y, Z.,[-.3 -.1 0 .1 .3]); # Octave con plplot y Matlab

Figura 4.2: Curvas de contorno.

Las dos primeras lneas definen los puntos sobre los ejes x e y en los cuales la funcion sera
evaluada. En este caso, escojimos una grilla en que puntos contiguos estan separados por
.2. Para un mapa de contorno, necesitamos evaluar la funcion en todos los pares ordenados
(x, y) posibles al escoger x en x e y en y. Para eso usamos meshgrid (introducida sin mayores
explicaciones en la seccion 4.6.3). Luego evaluamos la funcion [Z es una matriz, donde cada
elemento es el valor de la funcion en un par ordenado (x, y)], y finalmente construimos el
mapa de contorno para los niveles deseados.
Gr
aficos tridimensionales
Tambien es posible realizar graficos tridimensionales. Por ejemplo, la misma doble gaussiana
de la seccion anterior se puede graficar en tres dimensiones, para mostrarla como una superficie z(x, y). Basta reemplazar la u
ltima instruccion, que llama a contour, por la siguiente:
mesh(X,Y,Z)
Observar que, mientras contour acepta argumentos dos de los cuales son vectores, y el
tercero una matriz, en mesh los tres argumentos son matrices de la misma dimension (usamos
X, Y, en vez de x, y).
Nota importante: Otro modo de hacer graficos bi y tridimensionales es con gplot
y gsplot (instrucciones asociadas realmente no a Octave sino a gnuplot, y por tanto no
equivalentes a instrucciones en Matlab). Se recomienda consultar la documentacion de Octave
para los detalles.

4.6. COMANDOS

103

Figura 4.3: Curvas de contorno.

Manipulaci
on de gr
aficos
Los siguientes comandos estan disponibles para modificar graficos construidos con Octave/Matlab:
a) Ejes
axis([x1 y1 x2 y2])

Cambia el eje x al rango (x1, x2), y el eje y al rango (y1, y2).

b) Ttulos
title(s)
xlabel(s)
ylabel(s)
zlabel(s)

Ttulo (s es un string)
Ttulo del eje x, y, z.

c) Grillas
grid

Incluye o borra una grilla de referencia en un grafico bidimensional. grid on coloca la grilla y grid off la saca.
grid equivale a grid on.

Al usar gnuplot, el grafico mostrado en pantalla no es actualizado automaticamente.


Para actualizarlo y ver las modificaciones efectuadas, hay que dar la instruccion replot.
Los siguientes comandos permiten manipular las ventanas graficas:

A OCTAVE/MATLAB
CAPITULO 4. UNA BREVE INTRODUCCION

104

Permite congelar la figura actual, de modo que sucesivos


comandos graficos se superponen sobre dicha figura (normalmente la figura anterior es reemplazada por la nueva).
hold on activa este congelamiento, y hold off lo desactiva. hold cambia alternativamente entre el estado on y off.
Cierra la ventana actual.

hold

closeplot

Finalmente, si se desea guardar un grafico en un archivo, se puede proceder del siguiente


modo si Octave esta generando los graficos con gnuplot y se trabaja en un terminal con
XWindows. Si se desea guardar un grafico de la funcion y = x3 , por ejemplo:
x = linspace(1,10,30);
y = x.^3;
plot(x,y);
gset term postscript color
gset output xcubo.ps
replot
gset term x11
Las tres primeras lneas son los comandos de Octave/Matlab convencionales para graficar.
Luego se resetea el terminal a un terminal postscript en colores (gset term postscript si
no deseamos los colores), para que el output sucesivo vaya en formato postscript y no a
la pantalla. La siguiente lnea indica que la salida es al archivo xcubo.ps. Finalmente, se
redibuja el grafico (con lo cual el archivo xcubo.ps es realmente generado), y se vuelve al
terminal XWindows para continuar trabajando con salida a la pantalla.
Debemos hacer notar que no necesariamente el grafico exportado a Postscript se vera
igual al resultado que gnuplot muestra en pantalla. Durante la preparacion de este manual,
nos dimos cuenta de ello al intentar cambiar los estilos de lnea de plot. Queda entonces
advertido el lector.

4.6.8

Strings

Para manipular una cadena de texto, disponemos de los siguientes comandos:


lower
upper

Convierte a min
usculas
Convierte a may
usculas

As, lower(Texto) da texto, y upper(Texto) da TEXTO.


Para comparar dos matrices entre s, usamos strcmp:
strcmp(a,b)

1 si a y b son identicas, 0 en caso contrario

Podemos convertir n
umeros enteros o reales en strings, y strings en n
umeros, con los
comandos:
int2str
num2str
str2num

Convierte entero en string


Convierte n
umero en string
Convierte string en n
umero

4.6. COMANDOS

105

Por ejemplo, podemos usar esto para construir un ttulo para un grafico:
s = [Intensidad transmitida vs. frecuencia, n = , num2str(1.5)];
title(s);
Esto pondra un ttulo en el grafico con el texto:
Intensidad transmitida vs. frecuencia, n = 1.5.

4.6.9

Manejo de archivos

Ocasionalmente nos interesara grabar el resultado de nuestros calculos en archivos, o utilizar


datos de archivos para nuevos calculos. El primer paso es abrir un archivo:
archivo = fopen(archivo.dat,w);
Esto abre el archivo archivo.dat para escritura (w), y le asigna a este archivo un n
umero
que queda alojado en la variable archivo para futura referencia.
Los modos de apertura posibles son:
r
w
a
r+
w+
a+

Abre para lectura


Abre para escritura, descartando contenidos anteriores si los
hay
Abre o crea archivo para escritura, agregando datos al final
del archivo si ya existe
Abre para lectura y escritura
Crea archivo para lectura y escritura
Abre o crea archivo para lectura y escritura, agregando datos
al final del archivo si ya existe

En un archivo se puede escribir en modo binario:


fread
fwrite

Lee datos binarios


Escribe datos binarios

o en modo texto
fgetl
fgets
fprintf
fscanf

Lee una lnea del archivo, descarta cambio de lnea


Lee una lnea del archivo, preserva cambio de lnea
Escribe datos siguiendo un formato
Lee datos siguiendo un formato

Referimos al lector a la ayuda que proporciona Octave/Matlab para interiorizarse del


uso de estos comandos. Solo expondremos el uso de fprintf, pues el formato es algo que
habitualmente se necesita tanto para escribir en archivos como en pantalla, y fprintf se
puede usar en ambos casos.
La instruccion
fprintf(archivo,formato,A,B,...)

A OCTAVE/MATLAB
CAPITULO 4. UNA BREVE INTRODUCCION

106

imprime en el archivo asociado con el identificador archivo (asociado al mismo al usar fopen,
ver mas arriba), las variables A, B, etc., usando el formato formato. archivo=1 corresponde
a la pantalla; si archivo se omite, el default es 1, es decir, fprintf imprime en pantalla si
archivo=1 o si se omite el primer argumento.
formato es una string, que puede contener caracters normales, caracteres de escape o
especificadores de conversion. Los caracteres de escape son:
\n
\t
\b
\r
\f
\\
\

New line
Horizontal tab
Backspace
Carriage return
Form feed
Backslash
Single quote

Por ejemplo, la lnea


fprintf(Una tabulacion\t y un {\o}riginal\\ cambio de linea\n aqui\n)
da como resultado
Una tabulacion
aqui

y un original cambio de linea

Es importante notar que por default, el cambio de lnea al final de un fprintf no existe,
de modo que, si queremos evitar salidas a pantalla o a archivo poco esteticas, siempre hay
que terminar con un \n.
Los especificadores de conversion permiten dar formato adecuado a las variables numericas
A, B, etc. que se desean imprimir. Constan del caracter %, seguido de indicadores de ancho
(opcionales), y caracteres de conversion. Por ejemplo, si deseamos imprimir el n
umero con
5 decimales, la instruccion es:
fprintf(Numero pi = %.5f\n,pi)
El resultado:
Numero pi = 3.14159
Los caracteres de conversion pueden ser
%e
%f
%g

Notacion exponencial (Ej.: 2.4e-5)


Notacion con punto decimal fijo (Ej.: 0.000024)
%e o %f, dependiendo de cual sea mas corto (los ceros no
significativos no se imprimen)

Entre % y e, f, o g seg
un corresponda, se pueden agregar uno o mas de los siguientes
caracteres, en este orden:
Un signo menos (-), para especificar alineamiento a la izquierda (a la derecha es el
default).

4.6. COMANDOS

107

Un n
umero entero para especificar un ancho mnimo del campo.
Un punto para separar el n
umero anterior del siguiente n
umero.
Un n
umero indicando la precision (n
umero de dgitos a la derecha del punto decimal).
En el siguiente ejemplo veremos distintos casos posibles. El output fue generado con las
siguientes instrucciones, contenidas en un script:
a = .04395;
fprintf(123456789012345\n);
fprintf(a = %.3f.\n,a);
fprintf(a = %10.2f.\n,a);
fprintf(a = %-10.2f.\n,a);
fprintf(a = %4f.\n,a);
fprintf(a = %5.3e.\n,a);
fprintf(a = %f.\n,a);
fprintf(a = %e.\n,a);
fprintf(a = %g.\n,a);
El resultado:
12345678901234567890
a = 0.044.
a =
0.04.
a = 0.04
.
a = 0.043950.
a = 4.395e-02.
a = 0.043950.
a = 4.395000e-02.
a = 0.04395.
En la primera lnea, se imprimen tres decimales. En la segunda, dos, pero el ancho mnimo
es 10 caracteres, de modo que se alnea a la derecha el output y se completa con blancos. En
la tercera lnea es lo mismo, pero alineado a la izquierda. En la cuarta lnea se ha especificado
un ancho mnimo de 4 caracteres; como el tama
no del n
umero es mayor, esto no tiene efecto
y se imprime el n
umero completo. En la quinta lnea se usa notacion exponencial, con tres
decimal (nuevamente, el ancho mnimo especificado, 5, es menor que el ancho del output,
luego no tiene efecto). Las u
ltimas tres lneas comparan el output de %f, %e y %g, sin otras
especificaciones.
Si se desean imprimir mas de un n
umero, basta agregar las conversiones adecuadas y los
argumentos en fprintf. As, la lnea
fprintf(Dos numeros arbitrarios: %g y %g.\n,pi,exp(4));
da por resultado
Dos numeros arbitrarios: 3.14159 y 54.5982.

A OCTAVE/MATLAB
CAPITULO 4. UNA BREVE INTRODUCCION

108

Si los argumentos numericos de fprintf son matrices, el formato es aplicado a cada


columna hasta terminar la matriz. Por ejemplo, el script
x = 1:5;
y1 = exp(x);
y2 = log(x);
a = [x; y1; y2];
fprintf = (%g %8g %8.3f\n,a);
da el output
1
2
3
4
5

2.71828
7.38906
20.0855
54.5982
148.413

0.000
0.693
1.099
1.386
1.609

Captulo 5
El sistema de preparaci
on de
documentos TEX .
5.1

Introducci
on.

TEX es un procesador de texto o, mejor dicho, un avanzado sistema de preparacion de documentos, creado por Donald Knuth, que permite el dise
no de documentos de gran calidad,
conteniendo textos y formulas matematicas. A
nos despues, LATEX fue desarrollado por Leslie Lamport, facilitando la preparacion de documentos en TEX, gracias a la definicion de
macros o conjuntos de comandos de facil uso.
LATEX tuvo diversas versiones hasta la 2.09. Actualmente, LATEX ha recibido importantes
modificaciones, siendo la distribucion actualmente en uso y desarrollo LATEX 2 , una version
transitoria en espera de que alg
un da se llegue a la nueva version definitiva de LATEX, LATEX3.
En estas paginas cuando digamos LATEX nos referiremos a la version actual, LATEX 2 . Cuando queramos hacer referencia a la version anterior, que debera quedar progresivamente en
desuso, diremos explcitamente LATEX 2.09.

5.2

Archivos.

El proceso de preparacion de un documento LATEX consta de tres pasos:


1. Creacion de un archivo con extension tex con alg
un editor.
2. Compilacion del archivo tex,
con un comando del tipo latex
<archivo>.tex o latex <archivo>. Esto da por resultado tres archivos adicionales,
con el mismo nombre del archivo original, pero con extensiones distintas:
(a) dvi. Es el archivo procesado que podemos ver en pantalla o imprimir. Una vez
compilado, este archivo puede ser enviado a otro computador, para imprimir en
otra impresora, o verlo en otro monitor, independiente de la maquina (de donde
su extension dvi, device independent).
109

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION

110

(b) log. Aqu se encuentran todos los mensajes producto de la compilacion, para
consulta si es necesario (errores encontrados, memoria utilizada, mensajes de advertencia, etc.).
(c) aux. Contiene informacion adicional que por el momento no nos interesa.
3. Vision en pantalla e impresion del archivo procesado a traves de un programa anexo
(xdvi o dvips, por ejemplo), capaz de leer el dvi.

5.3

Input b
asico.

5.3.1

Estructura de un archivo.

En un archivo no pueden faltar las siguientes lneas:


\documentclass[12pt]{article}
\begin{document}
\end{document}
Haremos algunas precisiones respecto a la primera lnea mas tarde. Lo importante es que
una lnea de esta forma debe ser la primera de nuestro archivo. Todo lo que se encuentra antes de \begin{document} se denomina pre
ambulo. El texto que queramos escribir va entre \begin{document} y \end{document}. Todo lo que se encuentre despues de
\end{document} es ignorado.

5.3.2

Caracteres.

Pueden aparecer en nuestro texto todos los caracteres del codigo ASCII no extendido (teclado
ingles usual): letras, n
umeros y los signos de puntuacion:
.

} %$

* @

Los caracteres especiales:


#

&

tienen un significado especfico para LATEX. Algunos de ellos se pueden obtener anteponiendoles un backslash:
#

\#

Los caracteres
+

<

>

\$

\%

&

\&

\{

\}


5.3. INPUT BASICO.

111

generalmente aparecen en formulas matematicas, aunque pueden aparecer en texto normal.


Finalmente, las comillas dobles (") casi nunca se usan.
Los espacios en blanco y el fin de lnea son tambien caracteres (invisibles), que LATEX considera como un mismo caracter, que llamaremos espacio, y que simbolizaremos ocasionalmente
como .
Para escribir en castellano requeriremos ademas algunos signos y caracteres especiales:
n

5.3.3

{\~n}

{\a}

\{\i}

{\"u}

Comandos.

Todos los comandos comienzan con un backslash, y se extienden hasta encontrar el primer
caracter que no sea una letra (es decir, un espacio, un n
umero, un signo de puntuacion o
matematico, etc.).

5.3.4

Algunos conceptos de estilo.

LATEX es consciente de muchas convenciones estilsticas que quizas no apreciamos cuando


leemos textos bien dise
nados, pero las cuales es bueno conocer para aprovecharlas.
a) Observemos la siguiente palabra: fino. Esta palabra fue generada escribiendo simplemente fino, pero observemos que las letras f e i no estan separadas, sino que unidas
artsticamente. Esto es una ligadura, y es considerada una practica esteticamente preferible. LATEX sabe esto e inserta este peque
no efecto tipografico sin que nos demos
cuenta.
b) Las comillas de apertura y de cierre son distintas. Por ejemplo: insigne (comillas
simples) o insigne (comillas dobles). Las comillas de apertura se hacen con uno o con
dos acentos graves (), para comillas simples o dobles, respectivamente, y las de cierre
con acentos agudos (): insigne, insigne. No es correcto entonces utilizar las
comillas dobles del teclado e intentar escribir "insigne" (el resultado de esto es el poco
estetico insigne).
c) Existen tres tipos de guiones:
Corto

Saint-Exupery

(entre palabras, corte en slabas al final de la lnea)


Medio paginas 12
-(rango de n
umeros)
Largo un ejemplo como este --- (puntuacion, parentesis)
-

d) LATEX inserta despues de un punto seguido un peque


no espacio adicional respecto al
espacio normal entre palabras, para separar sutilmente frases. Pero, como saber que
un punto termina una frase? El criterio que utiliza es que todo punto termina una frase
cuando va precedido de una min
uscula. Esto es cierto en la mayora de los casos, as
como es cierto que generalmente cuando un punto viene despues de una may
uscula no
hay fin de frase:

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION

112

China y U.R.S.S. estuvieron de acuerdo. Sin embargo . . .


Pero hay excepciones:

En la pag. 11 encontraremos noticias desde la U.R.S.S. Estas


fueron entregadas . . .
Cuando estas excepciones se producen, nosotros, humanos, tenemos que ayudarle al
computador, diciendole que, aunque hay un punto despues de la g, no hay un fin de
frase, y que el punto despues de la u
ltima S s termina frase. Esto se consigue as:
En la p{\a}g.\ 11 encontraremos noticias desde la
U.R.S.S\@. {\E}stas fueron entregadas...

d) Enfasis
de texto:

Este
es un texto enfatizado.

{\E}ste es un texto
{\em enfatizado}.

Otro texto enfatizado.

Otro texto \emph{enfatizado}.

Al enfatizar, pasamos temporalmente a un tipo de letra distinto, la it


alica. Esta letra es
ligeramente inclinada hacia adelante, lo cual puede afectar el correcto espaciado entre
palabras. Comparemos, por ejemplo:
Quiero hoy mi recompensa.
Quiero hoy mi recompensa.
Quiero hoy mi recompensa.

Quiero {\em hoy} mi recompensa.


Quiero {\em hoy\/} mi recompensa.
Quiero \emph{hoy} mi recompensa.

La segunda y tercera frase tienen un peque


no espacio adicional despues de hoy, para
compensar el espacio entre palabras perdido por la inclinacion de la italica. Este pequen
o espacio se denomina correccion it
alica, y se consigue usando \emph, o, si se usa \em,
agregando \/ antes de cerrar el parentesis cursivo. La correccion italica es innecesaria
cuando despues del texto enfatizado viene un punto o una coma. LATEX advierte esto y
omite el espacio adicional aunque uno lo haya sugerido.

5.3.5

Notas a pie de p
agina.

Insertemos una nota a pie de p{\a}gina.\footnote{Como {\e}sta.}


LATEX colocara una nota a pie de pagina1 en el lugar apropiado.
1

Como esta.


5.3. INPUT BASICO.

5.3.6

113

F
ormulas matem
aticas.

LATEX distingue dos modos de escritura: un modo de texto, en el cual se escriben los textos
usuales como los ya mencionados, y un modo matematico, dentro del cual se escriben las
formulas. Cualquier formula debe ser escrita dentro de un modo matematico, y si alg
un
smbolo matematico aparece fuera del modo matematico el compilador acusara un error.
Hay tres formas principales para acceder al modo matematico:
a) $x+y=3$
b) $$xy=8$$
c) \begin{equation}
x/y=5
\end{equation}
Estas tres opciones generan, respectivamente, una ecuacion en el texto: x + y = 3, una
ecuacion separada del texto, centrada en la pagina:
xy = 8
y una ecuacion separada del texto, numerada:
x/y = 5

(5.1)

Es importante notar que al referirnos a una variable matematica en el texto debemos


escribirla en modo matematico:
Decir que la inc
ognita es x es
incorrecto. No: la inc
ognita
es x.

5.3.7

Decir que la inc{\o}gnita es


x es incorrecto. No: la
inc{\o}gnita es $x$.

Comentarios.

Uno puede hacer que el compilador ignore parte del archivo usando %. Todo el texto desde
este caracter hasta el fin de la lnea correspondiente sera ignorado (incluyendo el fin de lnea).
Un peque
no comentario.

5.3.8

Un peque{\~n}o co%
mentario.

Texto ignorado

Estilo del documento.

Las caractersticas generales del documento estan definidas en el preambulo. Lo mas importante es la eleccion del estilo, que determina una serie de parametros que al usuario normal
pueden no importarle, pero que son basicas para una correcta presentacion del texto: Que
margenes dejar en la pagina? Cuanto dejar de sangra? Tipo de letra? Distancia entre
lneas? Donde poner los n
umeros de pagina? Y un largo etcetera.
Todas estas decisiones se encuentran en un archivo de estilo (extension cls). Los archivos
standard son: article, report, book y letter, cada uno adecuado para escribir artculos
cortos (sin captulos) o mas largos (con captulos), libros y cartas, respectivamente.

114

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION

La eleccion del estilo global se hace en la primera lnea del archivo:2


\documentclass{article}
Esta lnea sera aceptada por el compilador, pero nos entregara un documento con un
tama
no de letra peque
no, tecnicamente llamado de 10 puntos o 10pt (1pt = 1/72 pulgadas).
Existen tres tama
nos de letra disponibles: 10, 11 y 12 pt. Si queremos un tama
no de letra
mas grande, como el que tenemos en este documento, se lo debemos indicar en la primera
lnea del archivo:
\documentclass[12pt]{article}
Todas las decisiones de estilo contenidas dentro del archivo cls son modificables, existiendo tres modos de hacerlo:
a) Modificando el archivo cls directamente. Esto es poco recomendable, porque dicha
modificacion (por ejemplo, un cambio de los margenes) se hara extensible a todos los
archivos compilados en nuestro computador, y esto puede no ser agradable, ya sea que
nosotros seamos los u
nicos usuarios o debamos compartirlo. Por supuesto, podemos
deshacer los cambios cuando terminemos de trabajar, pero esto es tedioso.

b) Introduciendo comandos adecuados en el preambulo. Esta


es la opcion mas recomendable y la mas usada. Nos permite dominar decisiones especficas de estilo validas solo
para el archivo que nos interesa.
c) Creando un nuevo archivo cls. Esto es muy recomendable cuando las modificaciones de
estilo son abundantes, profundas y deseen ser reaprovechadas. Se requiere un poco de
experiencia en LATEX para hacerlo, pero a veces puede ser la u
nica solucion razonable.
En todo caso, la opcion a usar en la gran mayora de los casos, y la u
nica que exploraremos
en estas paginas, es la b) (Sec. 5.8).

5.3.9

Argumentos de comandos.

Hemos visto ya algunos comandos que requieren argumentos. Por ejemplo: \begin{equation},
\documentclass[12pt]{article}, \footnote{Nota}. Existen dos tipos de argumentos:
1. Argumentos obligatorios. Van encerrados en parentesis cursivos: \footnote{Nota},
por ejemplo. Es obligatorio que despues de estos comandos aparezcan los parentesis. A
veces es posible dejar el interior de los parentesis vaco, pero en otros casos el compilador reclamara incluso eso (\footnote{} no genera problemas, pero \documentclass{}
s es un gran problema).
2

En LATEX 2.09 esta primera lnea debe ser \documentstyle[12pt]article, y el archivo de estilo tiene
extensi
on sty. Intentar compilar con LATEX 2.09 un archivo que comienza con \documentclass da un error.
Por el contrario, la compilaci
on con LATEX 2 de un archivo que comienza con \documentstyle no genera un
error, y LATEX entra en un modo de compatibilidad. Sin embargo, interesantes novedades de LATEX 2 respecto
a LATEX 2.09 se pierden.


5.3. INPUT BASICO.

115

Una propiedad muy general de los comandos de LATEX es que las llaves de los argumentos
obligatorios se pueden omitir cuando dichos argumentos tienen solo un caracter. Por
ejemplo, {\~n} es equivalente a \~{n}. Esto permite escribir mas facilmente muchas
expresiones, particularmente matematicas, como veremos mas adelante.
2. Argumentos opcionales. Van encerrados en parentesis cuadrados. Estos argumentos
son omitibles, \documentclass[12pt]... . Ya dijimos que \documentclass{article}
es aceptable, y que genera un tama
no de letra de 10pt. Un argumento en parentesis
cuadrados es una opcion que modifica la decision default del compilador (en este caso,
lo obliga a usar 12pt en vez de sus instintivos 10pt).

5.3.10

Ttulo.

Un ttulo se genera con:


\title{Una breve introducci{\o}n}
\author{V{\\i}ctor Mu{\~n}oz}
\date{30 de Junio de 1998}
\maketitle
\title, \author y \date pueden ir en cualquier parte (incluyendo el preambulo) antes de
\maketitle.
\maketitle
debe
estar
despues
de
\begin{document}. Dependiendo de nuestras necesidades, tenemos las siguientes alternativas:
a) Sin ttulo:
\title{}
b) Sin autor:
\author{}
c) Sin fecha:
\date{}
d) Fecha actual (en ingles): omitir \date.
e) Mas de un autor:
\author{Autor_1 \and Autor_2 \and Autor_3}
Para artculos cortos, LATEX coloca el ttulo en la parte superior de la primera pagina
del texto. Para artculos largos, en una pagina separada.

116

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION

5.3.11

Secciones.

Los ttulos de las distintas secciones y subsecciones de un documento (numerados adecuadamente, en negrita, como en este texto) se generan con comandos de la forma:
\section{Una secci{\o}n}
\subsection{Una subsecci{\o}n}
Los comandos disponibles son (en orden decreciente de importancia):
\part
\chapter
\section

\subsection
\subsubsection

\paragraph
\subparagraph

Los
mas
usados
son
\chapter,
\section,
\subsection
\subsubsection. \chapter solo esta disponible en los estilos report y book.

5.3.12

Listas.

Los dos modos usuales de generar listas:


a) Listas numeradas (ambiente enumerate):
1. Nivel 1, tem 1.
2. Nivel 1, tem 2.
(a) Nivel 2, tem 1.
i. Nivel 3, tem 1.
3. Nivel 1, tem 3.

\begin{enumerate}
\item Nivel 1, {\\i}tem
\item Nivel 1, {\\i}tem
\begin{enumerate}
\item Nivel 2, {\\i}tem
\begin{enumerate}
\item Nivel 3, {\\i}tem
\end{enumerate}
\end{enumerate}
\item Nivel 1, {\\i}tem
\end{enumerate}

1.
2.
1.
1.

3.

b) Listas no numeradas (ambiente itemize):


Nivel 1, tem 1.
Nivel 1, tem 2.
Nivel 2, tem 1.
Nivel 3, tem 1.
Nivel 1, tem 3.

\begin{itemize}
\item Nivel 1, {\\i}tem
\item Nivel 1, {\\i}tem
\begin{itemize}
\item Nivel 2, {\\i}tem
\begin{itemize}
\item Nivel 3, {\\i}tem
\end{itemize}
\end{itemize}
\item Nivel 1, {\\i}tem
\end{itemize}

1.
2.
1.
1.

3.


5.3. INPUT BASICO.

117

Es posible anidar hasta tres niveles de listas. Cada uno usa tipos distintos de rotulos,
seg
un el ambiente usado: n
umeros arabes, letras y n
umeros romanos para enumerate, y
puntos, guiones y asteriscos para itemize. Los rotulos son generados automaticamente por
cada \item, pero es posible modificarlos agregando un parametro opcional:
a) Nivel 1, tem 1.

\begin{enumerate}
\item[a)] Nivel 1, {\\i}tem 1.
\item[b)] Nivel 1, {\\i}tem 2.
\end{enumerate}

b) Nivel 1, tem 2.

\item es lo primero que debe aparecer despues de un \begin{enumerate} o \begin{itemize}.

5.3.13

Tipos de letras.

Fonts.
Los fonts disponibles por default en LATEX son:
roman
boldface
sans serif

italic
slanted

Small Caps
typewriter

Los siguientes modos de cambiar fonts son equivalentes:


texto
texto
texto
texto
texto
Texto
texto

{\rm
{\bf
{\sf
{\it
{\sl
{\sc
{\tt

texto}
texto}
texto}
texto}
texto}
Texto}
texto}

\textrm{texto}
\textbf{texto}
\textsf{texto}
\textit{texto}
\textsl{texto}
\textsc{texto}
\texttt{texto}

\rm es el default para texto normal; \it es el default para texto enfatizado; \bf es el
default para ttulos de captulos, secciones, subsecciones, etc.
\textrm, \textbf, etc., solo permiten cambiar porciones definidas del texto, contenido
entre los parentesis cursivos. Con \rm, \bf, etc. podemos, omitiendo los parentesis, cambiar
el font en todo el texto posterior:
Un cambio local de fonts y uno
global, interminable e infinito
...

Un cambio {\sf local} de fonts


\sl y uno global, interminable
e infinito...

Tambien es posible tener combinaciones de estos fonts, por ejemplo, bold italic, pero no
sirven los comandos anteriores, sino versiones modificadas de \rm, \bf, etc.:

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION

118
\rmfamily
\sffamily
\ttfamily
\mdseries
\bfseries
\upshape
\itshape
\slshape
\scshape

Por ejemplo:
texto
texto
Texto
texto
texto

{\bfseries\itshape texto}
{\bfseries\upshape texto} (= {\bf texto})
{\ttfamily\scshape texto}
{\sffamily\bfseries texto}
{\sffamily\mdseries texto} (= {\sf texto})

Para entender el uso de estos comandos hay que considerar que un font tiene tres atributos:
family (que distingue entre rm, sf y tt), series (que distingue entre md y bf), y shape (que
distingue entre up, it, sl y sc). Cada uno de los comandos \rmfamily, \bfseries, etc.,
cambia solo uno de estos atributos. Ello permite tener versiones mixtas de los fonts, como
un slanted sans serif, imposible de obtener usando los comandos \sl y \sf. Los defaults para
el texto usual son: \rmfamily, \mdseries y \upshape.
Tama
no.
Los tama
nos de letras disponibles son:
texto

\tiny

texto

\normalsize

texto

\scriptsize

texto

\large

texto

\footnotesize

texto

\Large

texto

\small

texto

texto
texto

\LARGE
\huge
\Huge

Se usan igual que los comandos de cambio de font \rm, \sf, etc., de la seccion 5.3.13.
\normalsize es el default para texto normal; \scriptsize para sub o suprandices;
\footnotesize para notas a pie de pagina.

5.3.14

Acentos y smbolos.

LATEX provee diversos tipos de acentos, que se muestran en la Tabla 5.1 (como ejemplo
consideramos la letra o, pero cualquiera es posible, por supuesto). (Hemos usado aca el
hecho de que cuando el argumento de un comando consta de un caracter, las llaves son
omitibles.)
Otros smbolos especiales y caracteres no ingleses disponibles se encuentran en la Tabla
5.2.


5.3. INPUT BASICO.
o
`o
o
o

{\o}
{\o}
{\^o}
{\"o}

o
o
o
o

119
o
o
o o

{\~o}
\=o
\. o
\u o

o \c o
o. \d o
o \b o

\v o
{\H o}
\t{oo}
\r o

Tabla 5.1: Acentos.

c

a

{\dag}
{\ddag}
{\S}
{\P}
\copyright
\textcircled a
{\textvisiblespace}
{\pounds}

{\oe}
{\OE}
{\ae}
{\AE}
{\aa}
{\AA}
{\o}
{\O}

l
L

SS

{\l}
{\L}
{\ss}
\SS
?
!

Tabla 5.2: Smbolos especiales y caracteres no ingleses.

5.3.15

Escritura de textos en castellano.

LATEX emplea solo los caracteres ASCII basicos, que no contienen smbolos castellanos como
, , n
, etc. Ya hemos visto que existen comandos que permiten imprimir estos caracteres, y
por tanto es posible escribir cualquier texto en castellano (y otros idiomas, de hecho).
Sin embargo, esto no resuelve todo el problema, porque en ingles y castellano las palabras
se cortan en slabas de acuerdo a reglas distintas, y esto es relevante cuando se debe cortar
el texto en lneas. LATEX tiene incorporados algoritmos para cortar palabras en ingles y, si
se ha hecho una instalacion especial de LATEX en nuestro computador, tambien en castellano
u otros idiomas (a traves del programa babel, que es parte de la distribucion standard de
LATEX 2 ). En un computador con babel instalado y configurado para cortar en castellano
basta incluir el comando \usepackage[spanish]{babel} en el preambulo para poder escribir
en castellano cortando las palabras en slabas correctamente.
Sin embargo, ocasionalmente LATEX se encuentra con una palabra que no sabe cortar,
en cuyo caso no lo intenta y permite que ella se salga del margen derecho del texto, o bien
toma decisiones no optimas. La solucion es sugerirle a LATEX la silabacion de la palabra. Por
ejemplo, si la palabra conflictiva es matem{\a}ticas (generalmente hay problemas con las
palabras acentuadas), entonces basta con reescribirla en la forma: ma\-te\-m{\a}\-ti\cas. Con esto, le indicamos a LATEX en que puntos es posible cortar la palabra. El comando
\- no tiene ning
un otro efecto, de modo que si la palabra en cuestion no queda al final de la
A
lnea, LTEX por supuesto ignora nuestra sugerencia y no la corta.
Consideremos el siguiente ejemplo:

120

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION

Podemos escribir matem


aticas. O matem
aticas.

Podemos escribir matem{\a}ticas.


O matem{\a}ticas.

Podemos escribir matem


aticas. O matem
aticas.

Podemos escribir
ma\-te\-m{\a}\-ti\-cas.
O ma\-te\-m{\a}\-ti\cas.

En el primer caso, LATEX decidio por s mismo donde cortar matematicas. Como es
una palabra acentuada tuvo problemas y no lo hizo muy bien, pues quedo demasiado espacio
entre palabras en esa lnea. En el segundo parrafo le sugerimos la silabacion y LATEX pudo
tomar una decision mas satisfactoria. En el mismo parrafo, la segunda palabra matematicas
tambien tiene sugerencias de corte, pero como no quedo al final de lnea no fueron tomadas
en cuenta.

5.4

F
ormulas matem
aticas.

Hemos mencionado tres formas de ingresar al modo matematico: $...$ (formulas dentro
del texto), $$...$$, formulas separadas del texto, no numeradas y formulas separadas del
texto, numeradas \begin{equation} ... \end{equation}. Los comandos que revisaremos
en esta seccion solo pueden aparecer dentro del modo matematico.

5.4.1
x2y
x2y

Sub y suprandices.
2

xy
x y1

x^{2y}
x_{2y}

x^{y^{2}} (o x^{y^2})
x^{y_{1}} (o x^{y_1})

xy1

x^y_1 (o x_1^y)

\textsuperscript permite obtener suprandices fuera del modo matematico:


La 3a es la vencida.

5.4.2

La 3\textsuperscript{a}
es la vencida.

Fracciones.

a) Horizontales
n/2 n/2
b) Verticales
1
2
y + z/2
y2 + 1
x+y
y
1 + z+1

x=

\frac{1}{2}, \frac 1{2}, \frac{1}2 o \frac 12


x = \frac{y + z/2}{y^2+1}
\frac{x+y}{1 + \frac y{z+1}}

5.4. FORMULAS
MATEMATICAS.

121

La forma a) es mas adecuada y la preferida para fracciones dentro del texto, y la segunda para formulas separadas. \frac puede aparecer en formulas dentro del texto ( 21 con
$\frac 12$), pero esto es inusual y poco recomendable esteticamente, salvo estricta necesidad.

5.4.3

Races.

\sqrt{n}

a2 + b 2

n
2

5.4.4
a)

\sqrt n

\sqrt{a^2 + b^2}
\sqrt[n]{2}

Puntos suspensivos.
...

\ldots

Para formulas como


a1 a2 . . . an
b)

a_1 a_2 \ldots a_n

\cdots

Entre smbolos como +, , = :


x1 + + xn
c)

..
.

x_1 + \cdots + x_n

\vdots

x1
..
.
xn
d)

...

\ddots

Inn

1 0 0
0 1
0

..
. . ..
. .
.
0 0 ... 1

\ldots puede ser usado tambien en el texto usual:


Arturo quiso salir . . . pero se
detuvo.

Arturo quiso salir\ldots


pero se detuvo.

No corresponde usar tres puntos seguidos (...), pues el espaciado entre puntos es incorrecto.

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION

122

Min
usculas

\alpha
\beta
\gamma
\delta
\epsilon
\varepsilon
\zeta
\eta

\theta
\vartheta
\iota
\kappa
\lambda
\mu
\nu
\xi

o
\pi
\varpi
\rho
\varrho
\sigma
\varsigma

\tau
\upsilon
\phi
\varphi
\chi
\psi
\omega

May
usculas
\Gamma
\Delta
\Theta

\Lambda
\Xi
\Pi

\Sigma
\Upsilon
\Phi

\Psi
\Omega

Tabla 5.3: Letras griegas.

5.4.5

Letras griegas.

Las letras griegas se obtienen simplemente escribiendo el nombre de dicha letra (en ingles): \gamma. Para la may
uscula correspondiente se escribe la primera letra con may
uscula:
\Gamma. La lista completa se encuentra en la Tabla 5.3.
No existen smbolos para , , , etc. may
usculas, pues corresponden a letras romanas
(A, B, E, etc.).

5.4.6

Letras caligr
aficas.

Letras caligraficas may


usculas A, B, . . . , Z se obtienen con \cal. \cal se usa igual que los
otros comandos de cambio de font (\rm, \it, etc.).
Sea F una funci
on con
F(x) > 0.

Sea $\cal F$ una funci{\o}n


con ${\cal F}(x) > 0$.

No son necesarios los parentesis cursivos la primera vez que se usan en este ejemplo,
porque el efecto de \cal esta delimitado por los $.

5.4.7

Smbolos matem
aticos.

LATEX proporciona una gran variedad de smbolos matematicos (Tablas 5.4, 5.5, 5.6, 5.7).
La negacion de cualquier smbolo matematico se obtiene con \not:
x 6< y
a 6 M

x \not < y
a \not \in {\cal M}

[Notemos, s, en la Tabla 5.5, que existe el smbolo 6= (\neq).]

5.4. FORMULAS
MATEMATICAS.

\pm
\mp
\times
\div
\ast
\star
\circ
\bullet
\cdot

]
u
t

\
o

123


4
5
/
.

\cap
\cup
\uplus
\sqcap
\sqcup
\lor
\land
\setminus
\wr

\diamond
\bigtriangleup
\bigtriangledown
\triangleleft
\triangleright
\bigcirc
\dagger
\ddagger
\amalg

\oplus
\ominus
\otimes
\oslash
\odot

Tabla 5.4: Smbolos de operaciones binarias.




^
_
`

\leq
\prec
\preceq
\ll
\subset
\subseteq
\smile
\frown
\vdash





\geq
\succ
\succeq
\gg
\supset
\supseteq
\sqsubseteq
\in
\dashv

'


=
w
3

|=

|
k
./
6=
.
=

\equiv
\sim
\simeq
\asymp
\approx
\cong
\sqsupseteq
\ni

\models
\perp
\mid
\parallel
\bowtie
\neq
\doteq
\propto

Tabla 5.5: Smbolos relacionales.

(
)

\gets
\Leftarrow
\to
\Rightarrow
\Leftrightarrow
\mapsto
\hookleftarrow
\leftharpoonup
\leftharpoondown
\rightleftharpoons

7
,
*
+

\longleftarrow
\Longleftarrow
\longrightarrow
\Longrightarrow
\Longleftrightarrow
\longmapsto
\hookrightarrow
\rightharpoonup
\rightharpoondown

Tabla 5.6: Flechas

m
%
&
.
-

\uparrow
\Uparrow
\downarrow
\Downarrow
\Updownarrow
\nearrow
\searrow
\swarrow
\nwarrow

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION

124

<
=

\aleph
\hbar
\imath
\jmath
\ell
\wp
\Re
\Im

P X
Q Y

` a
R
H

0 \prime
\emptyset

\nabla
\surd
> \top
\bot
k \|
\angle

\sum
\prod
\coprod

\int

\oint

[
\
]
\

\forall
\exists
\lnot
\flat
\natural
\sharp
\backslash
\partial

Tabla 5.7: Smbolos varios.


T \
J
\bigcap
S [
N
\bigcup
F G
L
\bigsqcup
W _
L
\bigvee
V ^
\bigwedge

\infty
\triangle
\clubsuit
\diamondsuit
\heartsuit
\spadesuit

\bigodot

\bigotimes

\bigoplus

\bigoplus

Tabla 5.8: Smbolos de tama


no variable.
Algunos smbolos tienen tama
no variable, seg
un aparezcan en el texto o en formulas
separadas del texto. Se muestran en la Tabla 5.8.
Estos smbolos pueden tener ndices que se escriben como sub o suprandices. Nuevamente,
la ubicacion de estos ndices depende de si la formula esta dentro del texto o separada de el:
n
X

xi =

i=1 xi

5.4.8

$$\sum_{i=1}^n x_i = \int_0^1 f $$

i=1

Pn

Z
=

R1
0

$\sum_{i=1}^n x_i = \int_0^1 f $

Funciones tipo logaritmo.

Observemos la diferencia entre estas dos expresiones:


x = logy
x = log y

$x
$x

= log y$
= \log y$

En el primer caso LATEX escribe el producto de cuatro cantidades, l, o, g e y. En el


segundo, representa correctamente nuestro deseo: el logaritmo de y. Todos los comandos de
la Tabla 5.9 generan el nombre de la funcion correspondiente, en letras romanas.
Algunas de estas funciones pueden tener ndices:
lim xn = 0

limn xn = 0

$$\lim_{n\to\infty} x_n = 0 $$
$\lim_{n\to\infty} x_n = 0 $

5.4. FORMULAS
MATEMATICAS.
\arccos
\arcsin
\arctan
\arg

\cos
\cosh
\cot
\coth

\csc
\deg
\det
\dim

125
\exp
\gcd
\hom
\inf

\ker
\lg
\lim
\liminf

\limsup
\ln
\log
\max

\min
\Pr
\sec
\sin

\sinh
\sup
\tan
\tanh

Tabla 5.9: Funciones tipo logaritmo


(
[
{
b
d
h
/
|

(
[
\{
\lfloor
\lceil
\langle
/
|

)
]
}
c
e
i
\
k

)
]
\}
\rfloor
\rceil
\rangle
\backslash
\|

\uparrow
\downarrow
\updownarrow
\Uparrow
\Downarrow
\Updownarrow

Tabla 5.10: Delimitadores

5.4.9

Matrices.

Ambiente array.
Se construyen con el ambiente array. Consideremos, por ejemplo:
a + b + c uv
27
a+b
u+v
134
a
3u + vw 2.978
La primera columna esta alineada al centro (c, center); la segunda, a la izquierda (l, left); la
tercera, a la derecha (r, right). array tiene un argumento obligatorio, que consta de tantas
letras como columnas tenga la matriz, letras que pueden ser c, l o r seg
un la alineacion
que queramos obtener. Elementos consecutivos de la misma lnea se separan con & y lneas
consecutivas se separan con \\. As, el ejemplo anterior se obtiene con:
\begin{array}{clr}
a+b+c & uv & 27 \\
a+b & u + v & 134 \\
a & 3u+vw & 2.978
\end{array}
Delimitadores.
Un delimitador es cualquier smbolo que act
ue como un parentesis, encerrando una expresion, apareciendo a la izquierda y a la derecha de ella. La Tabla 5.10 muestra todos los
delimitadores posibles.
Para que los delimitadores tengan el tama
no correcto para encerrar la expresion correspondiente hay que anteponerles \left y \right. Podemos obtener as expresiones matriciales:

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION

126

\left(\begin{array}{cc}
a&b\\
c&d
\end{array}\right)

a b
c d

v = \left(\begin{array}{c}
1\\
2\\
3
\end{array}\right)

1
v= 2
3


a
a
= 11 12
a21 a22

\Delta = \left|\begin{array}{cc}
a_{11} & a_{12}\\
a_{21} & a_{22}
\end{array}\right|

\left y \right deben ir de a pares, pero los delimitadores no tienen por que ser los
mismos:


a
b

\left(\begin{array}{c}
a\\
b
\end{array}\right[

Tampoco es necesario que los delimitadores encierren matrices. Comparemos, por ejemplo:
~
~ + B)
~ = ( dF )x=a
(A
dx

dF~
dx

~+B
~ =
A

!
x=a

(\vec A + \vec B) =
( \frac{d \vec F}{dx} )_{x=a}

\left(\vec A + \vec B\right) =


\left( \frac{d \vec F}{dx} \right)_{x=a}

El segundo ejemplo es mucho mas adecuado esteticamente.


Algunas expresiones requieren solo un delimitador, a la izquierda o a la derecha. Un punto
(.) representa un delimitador invisible. Los siguientes ejemplos son tpicos:
Z
a

b

df
dx
= f (x)
dx
a

f (x) =

0 x<0
1 x>0

\left. \int_a^b dx \frac{df}{dx} =


f(x) \right |_a^b
f(x) = \left\{ \begin{array}{cl}
0 & x<0 \\
1 & x>0
\end{array} \right.

F
ormulas de m
as de una lnea.
eqnarray ofrece una manera de ingresar a modo matematico (en reemplazo de $, $$ o
equation) equivalente a un array con argumentos {rcl}:

5.4. FORMULAS
MATEMATICAS.

x = a+b+c+

127

\begin{eqnarray*}
x& = & a + b + c +\\
&& d + e
\end{eqnarray*}

d+e

El asterisco impide

que aparezcan n
umeros en las ecuaciones. Si deseamos que numere cada lnea como una
ecuacion independiente, basta omitir el asterisco:

x = 5
a + b = 60

(5.2)
(5.3)

\begin{eqnarray}
x& = & 5 \\
a + b&= & 60
\end{eqnarray}

Si queremos que solamente algunas lneas aparezcan numeradas, usamos \nonumber:

x = a+b+c+
d+e

(5.4)

\begin{eqnarray}
x& = & a + b + c + \nonumber\\
&& d + e
\end{eqnarray}

Paquetes como el amsmath permiten agregar comandos adicionales, en este par de ejemplos
estan los comandos: equation*, que permite escribir una ecuacion sin numerarla, split, para
separar una ecuacion, intertext, que permite insertar texto sin perder la alineacion entre las
x =a + b + c

ecuaciones, y por otra parte


x =d + e + f

\usepackage{amsmath}
. . .
\begin{equation*}
\begin{split}
x = & a + b + c + \\
\intertext{y tambi{\e}n}
x =& d + e + f
\end{split}
\end{equation*}

Otra construccion adicional es multline, aqu la ecuacion de mas de una lnea se trata como
un solo objeto.

15
X

=1+2+3+4+5+

i=1

6 + 7 + 8 + 9 + 10 +
11 + 12 + 13 + 14 + 15 (5.5)

\begin{multline}
\sum_{i=1}^{15} = 1 +2+3+4+5+\\
6+7+8+9+10+\\
11+12+13+14+15
\end{multline}

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION

128

a
\hat a
a
\check a
a
\breve a

a
\acute a
a
` \grave a
a
\tilde a

a
\bar a
~a \vec a

a \dot a
a
\ddot a

Tabla 5.11: Acentos matematicos

5.4.10

Acentos.

Dentro de una formula pueden aparecer una serie de acentos, analogos a los de texto usual
(Tabla 5.11).
Las letras i y j deben perder el punto cuando son acentuadas: ~i es incorrecto. Debe ser
~. \imath y \jmath generan las versiones sin punto de estas letras:
~ +

5.4.11

\vec \imath + \hat \jmath

Texto en modo matem


atico.

Para insertar texto dentro de modo matematico empleamos \mbox:


Vcrtico

V_{\mbox{\scriptsize cr\{\i}tico}}

Con el paquete amsmath tenemos otra posibilidad tanto para construir una ecuaci
on con casos,
cases, como para usar texto dentro del modo matem
atico, text,

(
1
f (x) =
0

5.4.12

si x < 0
si x > 0

f(x)=
\begin{cases}
1&\text{si $x<0$} \\
0&\text{si $x>0$}
\end{cases}

Espaciado en modo matem


atico.

TEX ignora los espacios que uno escribe en las formulas y los determina de acuerdo a sus
propios criterios. A veces es necesario ayudarlo para hacer ajustes finos. Hay cuatro comandos
que agregan peque
nos espacios dentro de modo matematico:
\, espacio peque
no
\! espacio peque
no (negativo)

\: espacio medio
\; espacio grueso

Algunos ejemplos de su uso:

2x
\sqrt 2 \, x en vez de
2x
n / \!\log n en vez de Rn/ log n
Rn/log n
f dx
\int f \, dx en vez de
f dx
El u
ltimo caso es quizas el mas frecuente, por cuanto la no insercion del peque
no espacio
adicional entre f y dx hace aparecer el integrando como el producto de tres variables, f , d y
x, que no es la idea.

5.5. TABLAS.

5.4.13

129

Fonts.

Analogamente a los comandos para texto usual (Sec. 5.3.13), es posible cambiar los fonts
dentro del modo matematico:
(A, x)
(A, x)
(A, B)
(A, x)
(A, x)
(A, x)
(A, x )

\mathrm{(A,x)}
\mathnormal{(A,x)}
\mathcal{(A,B)}
\mathbf{(A,x)}
\mathsf{(A,x)}
\mathtt{(A,x)}
\mathit{(A,x)}

(Recordemos que la letras tipo \cal solo existen en may


usculas.)
Las declaraciones anteriores permiten cambiar los fonts de letras, dgitos y acentos, pero
no de los otros smbolos matematicos:
1
A

\mathbf{\tilde A \times 1}

Como en todo ambiente matematico, los espacios entre caracteres son ignorados:
Hola

\mathrm{H o l a}

Finalmente, observemos que \mathit corresponde al font italico, en tanto que \mathnormal
al font matematico usual, que es tambien italico . . . o casi:
dif f erent
dif f erent
different
different

5.5

$different$
$\mathnormal{different}$
$\mathit{different}$
\textit{different}

Tablas.

array nos permitio construir matrices en modo matematico. Para tablas de texto existe
tabular, que funciona de la misma manera. Puede ser usado tanto en modo matematico
como fuera de el.
Nombre
Edad
Profesi
on

:
:
:

Juan Perez
26
Estudiante

\begin{tabular}{lcl}
Nombre&:&Juan P{\e}rez\\
Edad&:&26\\
Profesi{\o}n&:&Estudiante
\end{tabular}

Si deseamos agregar lneas verticales y horizontales para ayudar a la lectura, lo hacemos


insertando | en los puntos apropiados del argumento de tabular, y \hline al final de cada
lnea de la tabla:

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION

130

Item
Vasos
Botellas
Platos
Total

5.6

\begin{tabular}{|l|r|}\hline
Item&Gastos\\ \hline
Vasos& \$ 500 \\
Botellas & \$ 1300 \\
Platos & \$ 500 \\ \hline
Total& \$ 2300 \\ \hline
\end{tabular}

Gastos
$ 500
$ 1300
$ 500
$ 2300

Referencias cruzadas.

Ecuaciones, secciones, captulos y paginas son entidades que van numeradas y a las cuales
podemos querer referirnos en el texto. Evidentemente no es optimo escribir explcitamente
el n
umero correspondiente, pues la insercion de una nueva ecuacion, captulo, etc., su eliminacion o cambio de orden del texto podra alterar la numeracion, obligandonos a modificar
estos n
umeros dispersos en el texto. Mucho mejor es referirse a ellos de modo simbolico y
dejar que TEX inserte por nosotros los n
umeros. Lo hacemos con \label y \ref.
La ecuaci
on de Euler
ei + 1 = 0

(5.6)

re
une los n
umeros mas importantes. La ecuaci
on (5.6) es
famosa.

La ecuaci{\o}n de Euler
\begin{equation}
\label{euler}
e^{i\pi} + 1 = 0
\end{equation}
re{\u}ne los n{\u}meros
m{\a}s importantes.
La ecuaci{\o}n (\ref{euler})
es famosa.

El argumento de \label (reiterado luego en \ref) es una etiqueta simbolica. Ella puede
ser cualquier secuencia de letras, dgitos o signos de puntuacion. Letras may
usculas y min
usculas son diferentes. As, euler, eq:euler, euler_1, euler1, Euler, etc., son etiquetas
validas y distintas. Podemos usar \label dentro de equation, eqnarray y enumerate.
Tambien podemos referenciar paginas con \pageref:
Ver p
agina 130 para mas detalles.
[Texto en p
ag. 130]
El significado de la vida . . .

Ver p{\a}gina
\pageref{significado}
para m{\a}s detalles.
...
El significado
\label{significado}
de la vida...

LATEX puede dar cuenta de las referencias cruzadas gracias al archivo aux (auxiliar) generado durante la compilacion.
Al compilar por primera vez el archivo, en el archivo aux es escrita la informacion de los
\label encontrados. Al compilar por segunda vez, LATEX lee el archivo aux e incorpora esa
informacion al dvi. (En realidad, tambien lo hizo la primera vez que se compilo el archivo,
pero el aux no exista entonces o no tena informacion u
til.)

5.7. TEXTO CENTRADO O ALINEADO A UN COSTADO.

131

Por tanto, para obtener las referencias correctas hay que compilar dos veces, una para
generar el aux correcto, otra para poner la informacion en el dvi. Toda modificacion en la
numeracion tendra efecto solo despues de compilar dos veces mas. Por cierto, no es necesario
preocuparse de estos detalles a cada momento. Seguramente compilaremos muchas veces el
archivo antes de tener la version final. En todo caso, LATEX avisa, tras cada compilacion,
si hay referencias inexistentes u otras que pudieron haber cambiado, y sugiere compilar de
nuevo para obtener las referencias correctas. (Ver Sec. 5.11.2.)

5.7

Texto centrado o alineado a un costado.

Los ambientes center, flushleft y flushright permiten forzar la ubicacion del texto respecto a los margenes. Lneas consecutivas se separan con \\:
Una lnea centrada,
otra
y otra mas.
Ahora el texto contin
ua
alineado a la izquierda
y finalmente
dos lneas
alineadas a la derecha.

5.8

\begin{center}
Una l\{\i}nea centrada,\\
otra\\
y otra m{\a}s.
\end{center}
Ahora el texto contin{\u}a
\begin{flushleft}
alineado a la izquierda
\end{flushleft}
y finalmente
\begin{flushright}
dos l\{\i}neas\\
alineadas a la derecha.
\end{flushright}

Modificando el estilo.

TEX toma una serie de decisiones por nosotros. Ocasionalmente nos puede interesar alterar el
comportamiento normal. Disponemos una serie de comandos para ello, los cuales revisaremos
a continuacion. Todos deben aparecer en el preambulo, salvo en los casos que se indique.

5.8.1

Estilos de p
agina.

a) N
umeros de pagina.
Si se desea que los n
umeros de pagina sean arabicos (1, 2, 3 . . . ):
\pagenumbering{arabic}
Para n
umeros romanos (i, ii, iii, . . . ):
\pagenumbering{roman}

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION

132

arabic es el default.
b) Estilo de pagina.
El comando \pagestyle determina donde queremos que vayan los n
umeros de pagina:
\pagestyle{plain}

N
umeros de pagina en el extremo inferior, al centro de la pagina. (Default
para estilos article, report.)

\pagestyle{headings} N
umeros de pagina y otra informacion
(ttulo de seccion, etc.) en la parte superior de la pagina. (Default para estilo
book.)
\pagestyle{empty}

5.8.2

Sin n
umeros de pagina.

Corte de p
aginas y lneas.

TEX tiene modos internos de decidir cuando cortar una pagina o una lnea. Al preparar la
version final de nuestro documento, podemos desear coartar sus decisiones. En todo caso,
no hay que hacer esto antes de preparar la version verdaderamente final, porque agregar,
modificar o quitar texto puede alterar los puntos de corte de lneas y paginas, y los cortes
inconvenientes pueden resolverse solos.
Los comandos de esta seccion no van en el preambulo, sino en el interior del texto.
Corte de lneas.
En la pagina 119 ya vimos un ejemplo de induccion de un corte de lnea en un punto deseado
del texto, al dividir una palabra en slabas.
Cuando el problema no tiene relacion con slabas disponemos de dos comandos:
\newline

Corta la lnea y pasa a la siguiente en el punto


indicado.

\linebreak Lo mismo, pero justificando la lnea para adecuarla a los margenes.


Un corte de lnea
no justificado a los margenes
en curso.

Un
te
no
do
en

Un
corte
de
lnea
justificado a los margenes
en curso.

Un corte de l\{\i}nea\linebreak
justificado a los m{\a}rgenes
en curso.

corde l\{\i}nea\newline
justificaa los m{\a}rgenes
curso.

5.8. MODIFICANDO EL ESTILO.

133

Observemos como en el segundo caso, en que se usa \linebreak, la separacion entre


palabras es alterada para permitir que el texto respete los margenes establecidos.
Corte de p
aginas.
Como para cortar lneas, existe un modo violento y uno sutil:
\newpage

Cambia de pagina en el punto indicado. Analogo a \newline.

\clearpage Lo mismo, pero ajustando los espacios verticales en el texto para llenar del mejor modo
posible la pagina.
\clearpage, sin embargo, no siempre tiene efectos visibles. Dependiendo de la cantidad
y tipo de texto que quede en la pagina, los espacios verticales pueden o no ser ajustados, y
si no lo son, el resultado termina siendo equivalente a un \newpage. TEX decide en u
ltima
instancia que es lo optimo.
Adicionalmente, tenemos el comando:
\enlargethispage{<longitud>} Cambia el tama
no de la pagina actual en la cantidad
<longitud>.
(Las unidades de longitud que maneja TEX se revisan en la Sec. 5.8.2.)
Unidades de longitud y espacios.
a) Unidades.
TEX reconoce las siguientes unidades de longitud:
cm
mm
in
pt
em
ex

centmetro
milmetro
pulgada
punto (1/72 pulgadas)
ancho de una M en el font actual
altura de una x en el font actual

Las cuatro primeras unidades son absolutas; las u


ltimas dos, relativas, dependiendo del
tama
no del font actualmente en uso.
Las longitudes pueden ser n
umeros enteros o decimales, positivos o negativos:
1cm

1.6in

.58pt

-3ex

b) Cambio de longitudes.
TEX almacena los valores de las longitudes relevantes al texto en comandos especiales:

134

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION
\parindent

Sangra.

\textwidth

Ancho del texto.

\textheight

Altura del texto.

\oddsidemargin Margen izquierdo menos 1 pulgada.


\topmargin

Margen superior menos 1 pulgada.

\baselineskip

Distancia entre la base de dos lneas de


texto consecutivas.

\parskip

Distancia entre parrafos.

Todas estas variables son modificables con los comandos \setlength, que le da a una
variable un valor dado, y \addtolength, que le suma a una variable la longitud especificada. Por ejemplo:
\setlength{\parindent}{0.3em}

(\parindent = 0.3 cm.)

\addtolength{\textwidth}{1.5cm} (\textwidth =
\textwidth + 1.5 cm.)
c) Espacios verticales y horizontales.
Se insertan con \vspace y \hspace:
\vspace{3cm} Espacio vertical de 3 cm.
\hspace{3cm} Espacio horizontal de 3 cm.
Algunos ejemplos:
Un primer p
arrafo de un peque
no texto.

Un primer p{\a}rrafo de un
peque{\~n}o texto.

Y un segundo p
arrafo separado del otro.

\vspace{1cm}
Y un segundo p{\a}rrafo
separado del otro.

Tres palabras
del resto.

Tres\hspace{.5cm}palabras
\hspace{.5cm}separadas
del resto.

separadas

Si por casualidad el espacio vertical impuesto por \vspace debiese ser colocado al
comienzo de una pagina, TEX lo ignora. Sera molesto visualmente que en algunas
paginas el texto comenzara algunos centmetros mas abajo que en el resto. Lo mismo
ocurre si el espacio horizontal de un \hspace queda al comienzo de una lnea.
Los comandos \vspace*{<longitud>} y \hspace*{<longitud>} permiten que el espacio en blanco de la <longitud> especificada no sea ignorado. Ello es u
til cuando

5.9. FIGURAS.

135

invariablemente queremos ese espacio vertical u horizontal, aunque sea al comienzo de


una pagina o una lnea por ejemplo, para insertar una figura.

5.9

Figuras.

LATEX provee un ambiente picture que permite realizar dibujos simples. Dentro de la estructura \begin{picture} y \end{picture} se pueden colocar una serie de comandos para
dibujar lneas, crculos, ovalos y flechas, as como para posicionar texto. Infortunadamente,
el proceso de ejecutar dibujos sobre un cierto umbral de complejidad puede ser muy tedioso
para generarlo directamente. La solucion para este problema consiste en dibujar en xfig y
luego exportar a LATEX picture. Se debe tener en cuenta que la calidad del dibujo queda
acotada por las posibilidades del ambiente picture. Programas del tipo de xfig satisfacen la
mayor parte de nuestras necesidades de dibujos simples. Para requerimientos mas complejos
existen programas externos con lenguajes propios tales como Metafont o PostScript cuyos
resultados pueden ser excelentes. Conviene tenerlos en cuenta para necesidades futuras, pero
son muy especficos para revisarlos aqu.
Un modo mas general y expedito de insertar figuras, principalmente PostScript en el texto
es usando alguno de los paquetes epsfig o bien graphicx. Estos paquetes permiten manejar
figuras en los formatos graficos ps y eps, ademas el u
ltimo agrega pdf.
Si nuestra figura esta en un archivo figura.eps, la instruccion a utilizar es:
\documentclass[12pt]{article}
\usepackage{epsfig}
\usepackage{graphicx}
\begin{document}
\begin{figure}
\includegraphics[width=w, height=h]{figura.pdf}
\caption{Una figura inclu{\\i}da}\label{fig1}
\end{figure}
\epsfig{file=figura.eps, height=h, width=w}
\end{document}
Los parametros width y height son opcionales y puede omitirse uno para que el sistema
escale de acuerdo al parametro dado. Es posible variar la escala completa de la figura o
rotarla usando comandos especificos de cada paquete.
Si deseamos compilar con pdflatex para producir un archivo pdf en vez de uno dvi
las figuras deben ser includas en formato pdf, usando el paquete graphicx y el comando
\includegraphics[height=h]{<archivo>.pdf} . Si tenemos figuras en formato Postscript
las podemos convertir en pdf con el comando epstopdf.

5.10

Cartas.

Para escribir cartas debemos emplear el estilo letter en vez del que hemos utilizado hasta ahora, article. Comandos especiales permiten escribir una carta, poniendo en lugares
adecuados la direccion del remitente, la fecha, la firma, etc.

136

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION

A modo de ejemplo, consideremos el siguiente input:

\documentclass[12pt]{letter}
\begin{document}
\usepackage[spanish]{babel}
\address{Las Palmeras 3425\\
{\~N}u{\~n}oa, Santiago}
\date{9 de Julio de 1998}
\signature{Pedro P{\e}rez \\ Secretario}
\begin{letter}{Dr.\ Juan P{\e}rez \\ Las Palmeras 3425 \\
{\~N}u{\~n}oa, Santiago}
\opening{Estimado Juan}
A{\u}n no tenemos novedades.
Parece incre{\\i}ble, pero los recientes acontecimientos nos han superado,
a pesar de nuestros esfuerzos. Esperamos que mejores tiempos nos
aguarden.
\closing{Saludos,}
\cc{Arturo Prat \\ Luis Barrios}
\end{letter}
\end{document}

Observemos que el texto de la carta esta dentro de un ambiente letter, el cual tiene un
argumento obligatorio, donde aparece el destinatario de la carta (con su direccion opcionalmente).

5.10. CARTAS.

137

Los comandos disponibles son:


\address{<direccion>} <direccion> del remitente.
\signature{<firma>}

<firma> del remitente.

\opening{<apertura>}

Formula de <apertura>.

\closing{<despedida>} Formula de <despedida>.


\cc{<copias>}

Receptores de <copias> (si los hubiera).

Uno puede hacer mas de una carta con distintos ambientes letter en un mismo archivo.
Cada una tomara el mismo remitente y firma dados por \address y \signature. Si deseamos que \address o \signature valgan solo para una carta particular, basta poner dichos
comandos entre el \begin{letter} y el \opening correspondiente.

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION

138

En todos estos comandos, lneas sucesivas son indicadas con \\.

5.11

Errores y advertencias.

5.11.1

Errores.

Un mensaje de error tpico tiene la forma:


LaTeX error. See LaTeX manual for explanation.
Type H <return> for immediate help.
! Environment itemie undefined.
\@latexerr ...or immediate help.}\errmessage {#1}
\endgroup
l.140 \begin{itemie}
?
La primera lnea nos comunica que LATEX ha encontrado un error. A veces los errores
tienen que ver con procesos mas internos, y son encontrados por TEX. Esta lnea nos informa
quien encontro el error.

La tercera lnea comienza con un signo de exclamacion. Este


es el indicador del error.
Nos dice de que error se trata.
Las dos lneas siguientes describen el error en terminos de comandos de bajo nivel.
La lnea 6 nos dice donde ocurrio el error: la lnea 140 en este caso. Ademas nos informa
del texto conflictivo: \begin{itemie}.
En realidad, el mensaje nos indica donde LATEX advirtio el error por primera vez, que no
es necesariamente el punto donde el error se cometio. Pero la gran mayora de las veces la
indicacion es precisa. De hecho, es facil darse cuenta, con la tercera lnea
(Environment itemie undefined)
y la sexta (\begin{itemie}) que el error consistio en escribir itemie en vez de itemize. La
informacion de LATEX es clara en este caso y nos dice correctamente que ocurrio y donde.
Luego viene un ?. LATEX esta esperando una respuesta de nosotros. Tenemos varias
alternativas. Comentaremos solo cuatro, tpicamente usadas:
(a) h <Enter>
Solicitamos ayuda. TEX nos explica brevemente en que cree el que consiste el error y/o
nos da alguna recomendacion.
(b) x <Enter>
Abortamos la compilacion. Deberemos volver al editor y corregir el texto. Es la opcion
mas tpica cuando uno tiene ya cierta experiencia, pues el mensaje basta para reconocer
el error.
(c) <Enter>
Ignoramos el error y continuamos la compilacion. TEX hace lo que puede. En algunos
casos esto no tiene consecuencias graves y podremos llegar hasta el final del archivo

5.11. ERRORES Y ADVERTENCIAS.

139

sin mayores problemas. En otros casos, ignorar el error puede provocar que ulteriores
comandos perfectamente validos en principio no sean reconocidos y, as, acumular
muchos errores mas. Podemos continuar con <Enter> sucesivos hasta llegar al final de
la compilacion.
(d) q <Enter>
La accion descrita en el punto anterior puede llegar a ser tediosa o infinita. q hace
ingresar a TEX en batchmode, modo en el cual la compilacion prosigue ignorando todos
los errores hasta el final del archivo, sin enviar mensajes a pantalla y por ende sin que
debamos darle infinitos <Enter>.
Las opciones (c) y (d) son u
tiles cuando no entendemos los mensajes de error. Como
TEX seguira compilando haciendo lo mejor posible, al mirar el dvi puede que veamos mas
claramente donde comenzaron a ir mal las cosas y, por tanto, por que.
Como dijimos, LATEX indica exactamente donde encontro el error, de modo que hemos de
ponerle atencion. Por ejemplo, si tenemos en nuestro documento la lnea:
... un error inesperado\fotnote{En cualquier punto.}
puede decidir...
generara el mensaje de error:
! Undefined control sequence.
l.249 ...un error inesperado\fotnote
{En cualquier punto.}
?
En la lnea de localizacion, LATEX ha cortado el texto justo despues del comando inexistente. LATEX no solo indica la lnea en la cual detecto el error, sino el punto de ella donde
ello ocurrio. (En realidad, hizo lo mismo cortar la lnea para hacer resaltar el problema
en el caso expuesto en la pag. 138, pero ello ocurrio en medio de comandos de bajo nivel, as
que no era muy informativo de todos modos.)
Errores m
as comunes.
Los errores mas comunes son:
a) Comando mal escrito.
b) Parentesis cursivos no apareados.
c) Uso de uno de los caracteres especiales #, $, %, &, _, {, }, ~, ^, \ como texto ordinario.
d) Modo matematico abierto de una manera y cerrado de otra, o no cerrado.
e) Ambiente abierto con \begin... y cerrado con un \end... distinto.
f) Uso de un comando matematico fuera de modo matematico.

140

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION

g) Ausencia de argumento en un comando que lo espera.


h) Lnea en blanco en ambiente matematico.
Algunos mensajes de error.
A continuacion, una peque
na lista de errores (de LATEX y TEX) en orden alfabetico, y sus
posibles causas.
*
Falta \end{document}. (Dar Ctrl-C o escribir \end{document} para salir de la compilacion.)
! \begin{...} ended by \end{...}
Error e) de la Sec. 5.11.1. El nombre del ambiente en \end{...} puede estar mal escrito,
sobra un \begin o falta un \end.
! Double superscript (o subscript).
3

Una expresion como x^2^3 o x_2_3. Si se desea obtener x2 (x23 ), escribir {x^2}^3 ({x_2}_3).
! Environment ... undefined.
\begin{...} con un argumento que corresponde a un ambiente no definido.
! Extra alignment tab has been changed.
En un tabular o array sobra un &, falta un \\, o falta una c, l o r en el argumento
obligatorio.
! Misplaced alignment tab character &.
Un & aparece fuera de un tabular o array.
! Missing $ inserted.
Errores c), d), f), h) de la Sec. 5.11.1.
! Missing { (o }) inserted.
Parentesis cursivos no apareados.
! Missing \begin{document}.
Falta \begin{document} o hay algo incorrecto en el preambulo.
! Missing number, treated as zero.
Falta
un
n
umero
donde
LATEX
\setlength{\textwidth}{a}, etc.

lo

espera:

\hspace{},

\vspace cm,

! Somethings wrong -- perhaps a missing \item.


Posiblemente la primera palabra
\begin{itemize} no es \item.

despues

de

un

\begin{enumerate}

! Undefined control sequence.


Aparece una secuencia \<palabra>, donde <palabra> no es un comando.

5.11. ERRORES Y ADVERTENCIAS.

5.11.2

141

Advertencias.

La estructura de una advertencia de LATEX es:


LaTeX warning. <mensaje>.
Algunos ejemplos:
Label ... multiply defined.
Dos \label tienen el mismo argumento.
Label(s) may have changed. Rerun to get cross-references right.
Los n
umeros impresos por \ref y \pageref pueden ser incorrectos, pues los valores correspondientes cambiaron respecto al contenido del aux generado en la compilacion anterior.
Reference ... on page ... undefined.
El argumento de un \ref o un \pageref no fue definido por un \label.
TEX tambien enva advertencias. Se reconocen porque no comienzan con TeX warning.
Algunos ejemplos.
Overfull \hbox ...
TEX no encontro un buen lugar para cortar una lnea, y puso mas texto en ella que lo
conveniente.
Overfull \vbox ...
TEX no encontro un buen lugar para cortar una pagina, y puso mas texto en ella que lo
conveniente.
Underfull \hbox ...
TEX construyo una lnea con muy poco material, de modo que el espacio entre palabras puede
ser excesivo.
Underfull \vbox ...
TEX construyo una pagina con muy poco material, de modo que los espacios verticales (entre
parrafos) pueden ser excesivos.
Las advertencias de LATEX siempre deben ser atendidas. Una referencia doblemente definida, o no compilar por segunda vez cuando LATEX lo sugiere, generara un resultado incorrecto
en el dvi. Una referencia no definida, por su parte, hace aparecer un signo ?? en el texto
final. Todos resultados no deseados, por cierto.
Las advertencias de TEX son menos decisivas. Un overfull o underfull puede redundar en
que alguna palabra se salga del margen derecho del texto, que el espaciado entre palabras en
una lnea sea excesivo, o que el espacio vertical entre parrafos sea demasiado. Los estandares
de calidad de TEX son altos, y por eso enva advertencias frecuentemente. Pero generalmente
los defectos en el resultado final son imperceptibles a simple vista, o por lo menos no son
suficientes para molestarnos realmente. A veces s, por supuesto, y hay que estar atentos.
Siempre conviene revisar el texto y prestar atencion a estos detalles, aunque ello solo tiene
sentido al preparar la version definitiva del documento.

142

DE DOCUMENTOS TEX .
CAPITULO 5. EL SISTEMA DE PREPARACION

Parte II
Ecuaciones diferenciales ordinarias.

143

Captulo 6
Ecuaciones diferenciales de primer
orden.
versi
on 1.1-0109051

6.1

Introducci
on.

Al estudiar los fenomenos fsicos, con frecuencia no es posible hallar de inmediato las expresiones explcitas de las magnitudes que caracterizan dicho fenomeno. Sin embargo, suele ser
mas facil establecer la dependencia entre esas magnitudes y sus derivadas o sus diferenciales.
As obtenemos ecuaciones que contienen las funciones desconocidas, escalares o vectoriales,
bajo el signo de derivadas o de diferenciales.
Las ecuaciones en las cuales la funcion desconocida, escalar o vectorial, se encuentra bajo
el signo de derivada o de diferencial, se llaman ecuaciones diferenciales. Veamos algunos
ejemplos de ecuaciones diferenciales:
dx
= kx es la ecuacion de la desintegracion radioctiva. (k es la constante de desindt
tegracion; x es la cantidad de sustancia no desintegrada en el tiempo t; la velocidad de
dx
es proporcional a la cantidad de sustancia que se desintegra).
desintegracion
dt


d2~r
d~
r
2) m 2 = F~ t, ~r,
es la ecuacion del movimiento de un punto de masa m, bajo la
dt
dt
influencia de una fuerza F~ dependiente del tiempo, de la posicion, ~r, y de su velocidad
d~r
. La fuerza es igual al producto de la masa por al aceleracion.
dt
1)

3)

2u 2u 2u
+
+
= 4(x, y, z) es la ecuacion de Poisson, la cual satisface el potencial
x2 y 2 z 2
electroestatico u(x, y, z) en presencia de la densidad de carga (x, y, z).

Si se indican los metodos para hallar las funciones incognitas, determinadas por las ecuaciones diferenciales, se habra hallado as la dependencia entre las magnitudes indicadas. La
1

Este captulo est


a basado en el primer captulo del libro: Ecuaciones diferenciales y c
alculo variacional
de L. Elsgoltz, editorial MIR

145

146

CAPITULO 6. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

b
usqueda de las funciones desconocidas, determinadas por las ecuaciones diferenciales, es
precisamente el problema fundamental de la teora de ecuaciones diferenciales.
Si en una ecuacion diferencial las funciones desconocidas, escalares o vectoriales, son
funciones de una sola variable, la ecuacion diferencial es llamada ordinaria (los dos primeros
casos en el ejemplo anterior). Si, en cambio, la funcion desconocida es funcion de dos o mas
variables independientes, la ecuacion diferencial se llama ecuaci
on en derivadas parciales (el
tercer caso en el ejemplo anterior).
Se denomina orden de la ecuacion diferencial al grado de la derivada (o diferencial) maxima
de la funcion desconocida, que figura en la ecuacion.
Se llama solucion de la ecuacion diferencial a una funcion que, al ser sustituida en la
ecuacion diferencial, la convierte en una identidad.
Por ejemplo, la ecuacion de la desintegracion radiactiva
dx
= kx ,
dt

(6.1)

x(t) = cekt ,

(6.2)

tiene la solucion

dode c es una constante arbitraria.


Es evidente que la ecuacion diferencial (6.1) a
un no determina por completo la ley de
desintegracion x = x(t). Para su completa determinacion hay que conocer la cantidad de
sustancia x0 en un momento inicial t0 . Si x0 es conocida, entonces tomando en cuenta la
condicion x(t0 ) = x0 , de (6.2) hallamos la ley de desintegracion radioactiva:
x(t) = x0 ek(tt0 ) .
El proceso de determinar las soluciones de una ecuacion diferencial se llama integracion
de la misma. En el ejemplo anterior hallamos facilmente la solucion exacta, pero, en casos
mas complejos, con frecuencia es necesario utilizar metodos aproximados de integracion de
dichas ecuaciones. Este tema lo abordaremos en la parte III de estos apuntes.
Veamos mas detalladamente el problema mas complejo mencionado antes, de la determinacion de la trayectoria ~r = ~r(t) de un punto material de masa m, bajo la accion de una
fuerza dada F~ (t, ~r, ~r ). Seg
un la ecuacion de Newton,
m~r = F~ (t, ~r, ~r ) .
Por lo
que la
fuerza

(6.3)

tanto, el problema se reduce a la integracion de esta ecuacion diferencial. Es evidente


ley de movimiento a
un no queda determinada por completo si se dan la masa m y la
F~ ; hay que conocer tambien la posicion inicial del punto
~r(t0 ) =~r0

(6.4)

~r (t0 ) =~r0

(6.5)

y su velocidad inicial

6.2. ECUACIONES DE PRIMER ORDEN.

147

Observese que la ecuacion vectorial (6.3) de segundo orden puede sustituirse por un sistema
equivalente de dos ecuaciones vectoriales de primer orden, si consideramos la velociadad ~v
como una segunda funcion vectorial desconocida:
d~r
= ~v ,
dt

d~v
= F~ (t, ~r, ~v ) .
dt

(6.6)

Cada ecuacion vectorial en el espacio tridimensional puede ser sustituida, proyectando sobre
los ejes de coordenadas, por tres ecuaciones escalares. Por lo tanto, la ecuacion (6.3) es
equivalente a un sistema de tres ecuaciones escalares de segundo orden, y el sistema (6.6), a
un sistema de seis ecuaciones escalares de primer orden.
Finalmente, podemos sustituir una ecuacion vectorial (6.3) de segundo orden en el espacio
tridimensional por una ecuacion vectorial de primer orden en el espacio de seis dimensiones
cuyas coordenadas son las tres del vector posicion rx , ry y rz , mas las tres del vector velocidad
~
vx , vy y vz . Usualmente este espacio es llamado espacio de fase. El vector R(t)
en dicho
espacio con coordenadas (rx , ry , rz , vx , vy , vz ). En esta notacion el sistema (6.6) toma la
forma:
~
dR
~
= (t, R(t))
,
dt

(6.7)

las proyecciones del vector en el espacio de seis dimensiones son las correspondientes proyecciones de los segundos mienbros del sistema (6.6) en el espacio tridimensional.
Bajo esta interpretacion, las condiciones iniciales (6.4) y (6.5) se sustituyen por la condicion
~ 0) = R
~0 .
R(t
~ = R(t)
~
La solucion de la ecuacion (6.7) R
sera una trayectoria en el espacio de fase, en la
que cada uno de sus puntos corresponde a cierto estado momentaneo del sistema.

6.2

Ecuaciones de primer orden.

Una ecuacion diferencial ordinaria de primer orden, puede escribirse en la forma


dy
= f (x, y) .
dx
Un ejemplo simple de tal ecuacion,
dy
= f (x) ,
dx
se analiza en el curso de calculo integral. En este caso simple, la solucion
Z
y = f (x) dx + c ,

CAPITULO 6. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

148

contiene una constante arbitraria , que puede determinarse si se conoce el valor de y(x0 ) = y0 ;
entonces
Z x
f (x0 ) dx0 .
y = y0 +
x0

Mas adelante se mostrara que, bajo algunas limitaciones establecidas sobre la funcion f (x, y),
la ecuacion
dy
= f (x, y) ,
dx
tiene tambien una solucion u
nica, que satisface la condicion y(x0 ) = y0 , y su soluci
on general,
es decir, el conjunto de soluciones que contienen sin excepcion todas las soluciones, depende
de una constante arbitraria.
dy
= f (x, y) establece una dependencia entre las coordenadas de
La ecuacion diferencial
dx
dy
a la grafica de la solucion en ese punto.
un punto y el coeficiente angular de la tangente
dx
dy
Conociendo x e y, se puede calcular
. Por consiguiente, la ecuacion diferencial de la forma
dx
considerada determina un campo de direcciones (figura 6.1), y el problema de la integracion
de la ecuacion diferencial se reduce a hallar las llamadas curvas integrales, para las cuales la
direccion de las tangentes a estas coincide en cada punto con la direccion del campo.
Ejemplo Consideremos la siguiente ecuacion

y
dy
= .
dx
x

x
Figura 6.1: Curvas integrales.

En cada punto, diferente del punto (0,0), el


coeficiente angular de la tangente a la curva
integral buscada es igual a la razon xy , o sea,
coincide con el coeficiente angular de la recta dirigida desde el origen de coordenadas al
mismo punto (x, y). En la figura (6.2) esta representado con flechas el campo de direcciones
determinado por la ecuacion estudiada. Evidentemente, en este caso las curvas integrales
seran las rectas y = cx, ya que las direcciones
de estas rectas coinciden en todas partes con

la direccion del campo.


En muchos problemas, en particular en casi todos los problemas de caracter geometricos,
las variables x e y son equivalentes. Por ello, en dichos problemas, si estos se reducen a la
resolucion de la ecuacion diferencial
dy
= f (x, y) ,
dx

(6.8)

6.3. ECUACIONES CON VARIABLES SEPARABLES.

149

Figura 6.2: Curvas integrales y = cx.

es natural considerar, conjuntamente con (6.8), tambien


dx
1
=
.
dy
f (x, y)

(6.9)

Si ambas ecuaciones tienen sentido, entonces son equivalentes, ya que si la funcion y = y(x)
es solucion de la ecuacion (6.8), la funcion inversa x = x(y) es solucion de (6.9) y, por lo
tanto, ambas ecuaciones poseen curvas integrales comunes.
Si, en cambio, en algunos puntos una de las ecuaciones (6.8) o (6.9) pierde sentido,
entonces en esos puntos es natural sustituirla por la otra ecuacion.

6.3

Ecuaciones con variables separables.

Las ecuaciones diferenciales del tipo


f2 (y) dy = f1 (x) dx ,

(6.10)

se llaman ecuaciones con variables separadas. Consideremos que las funciones f1 y f2 son
continuas.
Supongamos que y(x) es solucion de esta ecuacion; entonces al sustituir y(x) en la ecuacion
(6.10), obtenemos una identidad que, al ser integrada, da
Z
Z
f2 (y) dy = f1 (x) dx + c ,
(6.11)
donde c es una constante arbitraria.
Hemos obtenido una ecuacion en que no figuran ni derivadas ni diferenciales, ecuaciones
as se denominan ecuaciones finitas, satisfechas por todas las soluciones de la ecuacion (6.10).

150

CAPITULO 6. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

Ademas, cada solucion de la ecuacion (6.11) es solucion de (6.10), ya que si una funcion y(x),
al ser sustituida en la ecuacion (6.11), la transforma en una identidad, entonces derivando
dicha identidad obtenemos que y(x) satisface (6.10).
La ecuacion finita (x, y) = 0 que determina la solucion y(x) de la ecuacion diferencial
como funcion implcita de x, se llama integral de la ecuacion diferencial considerada.
Si esta ecuacion finita determina sin excepcion todas las soluciones de la ecuacion diferencial dada, entonces se llama integral general de dicha ecuacion diferencial. Por consiguiente,
la ecuacion (6.11) es integral general de la ecuacion (6.10). Para que (6.11) determine y como
funcion implcita de x, es suficiente exigir que f2 (y) 6= 0.
R Es posible
R que en algunos problemas no sea posible expresar las integrales indefinidas
f1 (x) dx y f2 (y) dy en funciones elementales; pero, a pesar de esto, consideramos resuelto
tambien en este caso el problema de la integracion de la ecuacion diferencial (6.10), en el
sentido de que lo hemos reducido a un problema simple del calculo de integrales indefinidas.
Como el termino integral en teora de ecuaciones diferenciales se utiliza frecuentemente en
el sentido Rde integral de la ecuacion diferencial, entonces para referirnos a integrales de
funciones, f (x) dx, generalmente se utiliza el termino cuadratura.
Si hay que obtener la solucion particular que satisface la condicion y(x0 ) = y0 , esta
evidentemente se determina por la ecuacion
Z x
Z y
f1 (x) dx ,
f2 (y) dy =
x0

y0

la cual se obtiene de
Z

f2 (y) dy =

f1 (x) dx + c ,

x0

y0

utilizando las condiciones iniciales y(x0 ) = y0 .


Ejemplo Considere la siguiente ecuacion
xdx + ydy = 0 .
Las variables estan separadas, ya que el coeficinete de dx es funcion solo de x, y el coeficiente
de dy, solo de y. Integrando, obtenemos
Z
Z
x dx + y dy = c o bien x2 + y 2 = c21 ,
que es una familia de circunferencias con centro en el origen de coordenadas.
Las ecuaciones del tipo
1 (x)1 (y) dx = 2 (x)2 (y) dy ,
en las cuales los coeficientes de las diferenciales se descomponen en factores dependientes solo
de x o de y, se llaman ecuaciones diferenciales con variables separables, ya que dividiendo
entre 1 (y)2 (x), estas se reducen a una ecuacion de variables separadas:
1 (x)
2 (y)
dx =
dy ,
2 (x)
1 (y)

6.4. ECUACIONES QUE SE REDUCEN A ECUACIONES DE VARIABLES SEPARABLES151


Observese que la division entre 1 (y)2 (x) puede conducir a la perdida de soluciones particulares, que reducen a cero el producto 1 (y)2 (x); si las funciones 1 (y) y 2 (x) pueden ser
discontinuas, es posible la aparicion de soluciones superfluas, que reducen a cero el factor
1
.
1 (y)2 (x)
Ejemplo Como ya fue mencionado, se ha establecido que la velocidad de desintegracion
radioactiva es proporcional a la cantidad x de sustancia a
un no desintegrada. Hallar la
dependencia de x respecto al tiempo t, si en el momento inicial para t = t0 , era x = x0 .
Supondremos conocido el coeficiente de proporcionalidad k, llamado constante de desintegracion. La ecuacion diferencial que gobierna el proceso tendra la forma
dx
= kx ,
dt
El signo menos en el termino derecho de la ecuacion indica que x decrece cuando t aumenta,
k > 0. Separando variables e integrando, se obtiene
dx
= k dt ;
x

ln(| x |) ln(| x0 |) = k (t t0 ) ,

de donde
x = x0 ek(tt0 ) .
Determinemos tambien el perodo de desintegracion ( o sea, el tiempo durante el cual se
desintegra x0 /2). Haciendo t t0 = , obtenemos x0 /2 = x0 ek , de donde = ln 2/k.
La ecuacion
dx
= kx ,
dt

k>0,

se diferencia solo en el signo del segundo miembro de la ecuacion anterior, sin embargo,
describe procesos de reproduccion completamente diferentes, por ejemplo: la variacion de
la cantidad de neutrones en las reacciones en nucleares en cadena, o la reproduccion de una
colonia de bacterias en condiciones ideales. La solucion de esta ecuacion que satisface la
condicion inicial x(t0 ) = x0 tiene la forma
x = x0 ek(tt0 ) ,
y, a diferencia de las soluciones anteriores, x(t) no disminuye, sino que crece exponencialmente
con el incremento de t

6.4

Ecuaciones que se reducen a ecuaciones de variables


separables

Muchas ecuaciones diferenciales pueden ser reducidas a ecuaciones con variables separables
mediante una sustitucion de variables. A dicho grupo pertenecen, por ejemplo, las ecuaciones

152

CAPITULO 6. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

de la forma
dy
= f (ax + by) ,
dx
donde a y b son magnitudes constantes, las cuales se transforman en ecuaciones con variables
separables por medio de la sustitucion z = ax + by. Efectivamente, pasando a las nuevas
variables x y z, tendremos
dz
dy
=a+b
,
dx
dx

dz
= a + bf (z) ,
dx

o bien
dz
= dx ,
a + bf (z)
con lo que hemos separado las variables. Integrando, obtenemos
Z
dz
+c .
x=
a + bf (z)
Ejemplo Consideremos la siguiente ecuacion diferencial
dy
1
=
+1 .
dx
xy
Haciendo x y = z, obtenemos
dy
dz
=1
dx
dx
dz
1
= ,
dx
z

zdz = dx ,

dz
1
= +1 ;
dx
z

z 2 = 2x + c ,

(x y)2 = 2x + c .

A ecuaciones con variables separables se reducen tambien las ecuaciones diferenciales


homogeneas de primer orden, que tienen la forma
y
dy
=f
.
dx
x
y
En efecto, despues de la sustitucion z = , o bien y = xz, obtenemos
x
dy
dz
=x +z ,
dx
dx
Z

dz
+ z = f (z) ,
dx

dz
= ln | x | + ln c ,
f (z) z

dz
dx
=
,
f (z) z
x
R

x = ce

dz
f (z)z

6.4. ECUACIONES QUE SE REDUCEN A ECUACIONES DE VARIABLES SEPARABLES153


Observese que el segundo miembro de la ecuacion homogenea es un funcion homogenea de
variables x e y de grado nulo2 de homogeneidad; por eso la ecuacion del tipo
M (x, y) dx + N (x, y) dy = 0 ,
sera homogenea si M (x, y) y N (x, y) son funciones homegeneas de x e y, del mismo grado de
homogeneidad, puesto que en este caso
y
dy
M (x, y)
=
=f
.
dx
N (x, y)
x
Ejemplo Considere la siguiente ecuacion
dy
y
y
= + tan .
dx
x
x
Haciendo y = xz,

dy
dz
= x + z y sustituyendo en la ecuacion inicial, obtenemos
dx
dx
x

dz
+ z = z + tan z ,
dx

ln | sen z | = ln | x | + ln c ,

cos z dz
dx
=
,
sen z
x

sen z = cx

sen

y
= cx .
x

Las ecuaciones del tipo


dy
=f
dx

a1 x + b 1 y + c 1
a2 x + b 2 y + c 2

(6.12)

pueden reducirse a ecuaciones homogeneas, si trasladamos el origen de coordenadas al punto


de interseccion (x1 , y1 ) de las rectas
a1 x + b1 y + c1 = 0 ,

a2 x + b2 y + c2 = 0 .

Efectivamente, el miembro independiente en las ecuaciones de estas rectas en las nuevas


coordenadas X = x x1 , Y = y y1 , sera igual a cero; los coeficientes de las coordenadas
dy
dY
=
, y la ecuacion (6.12) toma la forma
permanecen invariables;
dx
dX


dY
a1 X + b 1 Y
=f
,
dX
a2 X + b 2 Y
o bien
dY
=f
dX
2

Y
a1 + b 1 X
Y
a2 + b 2 X

Y
X

Una funci
on f (u, v) es homogenea de grado n si al multiplicar las variables por la funci
on resultante
es n veces la funci
on original.

154

CAPITULO 6. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

que ya es una ecuacion homogenea.


Este metodo no se puede aplicar solo en el caso en que haya paralelismo entre las rectas
a1 x + b1 y + c1 = 0 y a2 x + b2 y + c2 = 0. Pero en este caso los coeficientes de las coordenadas
a2
b2
son proporcionales:
=
= k, y la ecuacion (6.12) se puede escribir en la forma
a1
b1
dy
=f
dx

a1 x + b 1 y + c 1
k(a1 x + b1 y) + c2

= F (a1 x + b1 y) ,

como ya sabemos el cambio de variable z = a1 x + b1 y transforma la ecuacion considerada en


una ecuacion con variables separables.
Ejemplo Considere la siguiente ecuacion
dy
xy+1
=
.
dx
x+y3
Resolviendo el sistema de ecuaciones x y + 1 = 0, x + y 3 = 0, obtenemos x1 = 1, y1 = 2.
Haciendo x = X + 1, y = Y + 2, tendremos
dY
=f
dX

X Y
X +Y

El cambio de variable Y = zX conduce a una ecuacion de variables separables:


z+X

dz
1z
=
,
dX
1+z

(1 + z) dz
dX
=
,
2
1 2z + z
X

1
1
ln 1 2z z 2 = ln | X | ln c ,
2
2
(1 2z z 2 )X 2 = c ,

X 2 2XY Y 2 = c ,

x2 2xy y 2 + 2x + 6y = c1 .

6.5. ECUACIONES LINEALES DE PRIMER ORDEN.

6.5

155

Ecuaciones lineales de primer orden.

Se llama ecuacion diferencial de primer orden a una ecuacion lineal con respecto a la funcion
desconocida y a su derivada. La ecuacion lineal tiene la forma
dy
+ p(x)y = f (x) ,
dx

(6.13)

donde p(x) y f (x) se consideraran en lo sucesivo funciones continuas de x en la region en que


se exige integrar la ecuacion (6.13).
Si f (x) 0, la ecuacion (6.13) se llama lineal homogenea. En la ecuacion lineal homogenea
las variables se separan
dy
+ p(x)y = 0 ,
dx

de donde

dy
= p(x) dx ,
y

e integrando, obtenemos
ln | y | =

p(x) dx + ln c1 ,

y = c e

p(x) dx

c1 > 0 ,

c 6= 0 .

(6.14)

Al dividir entre y se perdio la solucion y = 0; sin embargo, esta puede ser incluida en la
familia de soluciones halladas (6.14), si se considera que c puede tomar el valor 0.
Para integrar la ecuacion lineal no homogenea
dy
+ p(x)y = f (x) .
dx

(6.13)

puede ser aplicado el as llamado metodo de variaci


on de la constante. Al aplicar dicho
metodo, primeramente se integra la ecuacion homogenea correspondiente ( o sea, la que tiene
el mismo primer miembro):
dy
+ p(x)y = 0 ,
dx
cuya solucion general, como fue indicado anteriormente, tiene la forma
y = c e
R

p(x0 ) dx0

Cuando c es constante, la funcion c e p(x ) dx es la solucion de la ecuacion homogenea.


Probemos ahora satisafacer la ecuacion no homegenea considerando c como funcion de x, o
sea, realizando en esencia la sustitucion de variables
y = c(x) e
donde c(x) es una funcion desconocida de x.

p(x0 ) dx0

156

CAPITULO 6. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

Calculando la derivada
R
dy
dc R p(x0 ) dx0
0
0
c(x)p(x) e p(x ) dx ,
=
e
dx
dx

y sustituyendola en la ecuacion no homogenea inicial (6.13), se obtiene


R
R
dc R p(x0 ) dx0
0
0
0
0
e
c(x)p(x) e p(x ) dx + p(x)c(x) e p(x ) dx = f (x) ,
dx

o bien
R
dc
0
0
= f (x) e p(x ) dx ,
dx

de donde, integrando, se halla


c(x) =

p(x0 ) dx0

f (x00 )e

dx00 + c1 ,

y, por consiguiente,

y = c(x) e

p(x0 ) dx0

= c1 e

p(x0 ) dx0

+e

p(x0 ) dx0

f (x00 )e

p(x0 ) dx0

dx00 .

(6.15)

De este modo, la solucion general de la ecuacion lineal no homogenea es igual a la suma de


la solucion general de la ecuacion homogenea correspondiente
c1 e

p(x0 ) dx0

y de la solucion particular de la ecuacion no homogenea


Z
R
R
0
0
p(x0 ) dx0
e
f (x00 )e p(x ) dx dx00 ,
que se obtiene de (6.15) si c1 = 0.
Observese que en ejemplos concretos no es conveniente utilizar la formula (6.15) , compleja
y dificil de recordar; es mas sencillo repetir cada vez todas las operaciones expuestas mas
arriba.
Ejemplo En un circuito electrico con autoinduccion tiene lugar el paso de corriente alterna.
La tension U es un funcion dada del tiempo, U = U (t), la resistencia R y la autoinduccion L
son constantes; la corriente inicial es dada, I(0) = I0 . Hallar la dependencia de la intensidad
de la corriente I = I(t) respecto al tiempo. Aplicando la ley de Ohm para el cirrcuito
obtenemos
U L

dI
= RI .
dt

La solucion de esta ecuacion lineal que satisface la condicion inicial I(0) = I0 , de acuardo
con (6.15), tiene la forma


Z
R 0
1 t
R
t
0
t
0
U (t )e L dt .
(6.16)
I = e L I0 +
L 0

6.5. ECUACIONES LINEALES DE PRIMER ORDEN.

157

Para una tension constante U = U0 , obtenemos




U0
U0 R t
I=
+ I0
e L .
R
R
Es interesante el caso de tension alterna sinusoidal: U = A sen t. En este caso, seg
un (6.16),
obtenemos


Z
A t
R
t
0 R
t0
L
L
I=e
I0 +
sen t e
.
L 0
La integral del segundo miembro se toma facilmente.
Muchas ecuaciones diferenciales pueden ser reducidas a ecuaciones lineales mediante un
cambio de variables. Por ejemplo, la ecuaci
on de Bernouilli, que tiene la forma
dy
+ p(x)y = f (x)y n ,
dx

n 6= 1 ,

o bien
y n

dy
+ p(x)y 1n = f (x) ,
dx

(6.17)

con el cambio de variable y 1n = z, se reduce a una ecuacion lineal. Efectivamente, derivando


y 1n = z, hallamos
(1 n)y n

dy
dz
=
,
dx
dx

y sustituyendo en (6.17), obtenemos la ecuacion lineal


1 dz
+ p(x) z = f (x) .
1 n dx
Ejemplo Consideremos la ecuacion
y
x2
dy
=
+
,
dx
2x 2y
o bien
y2
dy
=
+ x2 ,
2y
dx
x
con el cambio de variable y 2 = z tenemos 2y

dy
dz
=
con lo que la ecuacion nos queda
dx
dx

dz
z
= + x2 ,
dx
x
Que es una ecuacion diferencial lineal de primer orden no homogenea.

158

CAPITULO 6. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

La ecuacion
dy
+ p(x)y + q(x)y 2 = f (x) ,
dx
llamada ecuacion de Riccati, en general no se integra en cuadraturas, pero por sustitucion
de variables puede ser transformada en una ecuacion de Bernoulli, si se conoce una solucion
particular y1 (x) de esta ecuacion. Efectivamente, haciendo y = y1 + z, se obtiene
y10 + z 0 + p(x)(y1 + z) + q(x)(y1 + z)2 = f (x) ,
o, como y10 + p(x)y1 + q(x)y12 f (x), tendremos la ecuacion de Bernoulli
z 0 + [p(x) + 2q(x)y1 ]z + q(x)z 2 = 0 .
Ejemplo Consideremos la ecuacion
dy
2
= y2 2 .
dx
x
Aqu no es dificil hallar la solucion particular y1 = x1 . Haciendo y = z + f rac1x, obtenemos

2
1
1
1
2
0
0
0
y =z + 2 , z 2 = z
2 ,
x
x
x2
x
o bien
z0 = z2 + 2

z
,
x

que es una ecuacion de Bernoulli.


2
z0
=
+1 ,
2
z
xz

u=

2u
du
= 1 ,
dx
x
ln | u | = 2 ln | x | + ln c ,
c0 (x)
= 1 ,
x2
u=

c1
x
,
2
x
3

du
2dx
=
,
u
x
c
,
x2

u=

c(x) =

1
c1
x
= 2 ,
z
x
3

y=

du
z0
= 2 ,
dx
z

1
,
z

u=

c(x)
,
x2

x3
+ c1 ,
3

1
y

1
3x2
+
.
x c2 x3

1
x

c1
x
,
2
x
3

6.6. ECUACIONES EN DIFERENCIALES TOTALES.

6.6

159

Ecuaciones en diferenciales totales.

Puede suceder que el primer miembro de la ecuacion diferencial


M (x, y) dx + N (x, y) dy = 0 ,

(6.18)

sea la diferencial total de cierta funcion u(x, y):


du(x, y) = M (x, y) dx + N (x, y) dy ,
y que por consiguiente, la ecuacion (6.18) tome la forma
du(x, y) = 0 .
Si la funcion y(x) es solucion de la ecuacion (6.18), entonces
u(x, y(x)) = c ,

(6.19)

donde c es una constante. recprocamente, si cierta funcion y(x) convierte en identidad la


ecuacion finita (6.19), entonces, derivando la identidad obtenida, tendremos du(x, y(x)) = 0
y, por consiguiente, u(x, y) = c, donde c es una constante arbitraria, es integral general de la
ecuacion inicial.
Si las condiciones iniciales y(x0 ) = y0 estan dadas, la constante c se determina de (6.19):
c = u(x0 , y0 ) y
u(x, y(x)) = u(x0 , y0 ) ,

(6.20)

u
= N (x, y) 6= 0 en el punto (x0 , y0 ), entonces la
y
ecuacion (6.20) determina y como funcion implcita de x.
para que el primer miembro de la ecuacion (6.18)
es la integral particular buscada. Si

M (x, y) dx + N (x, y) dy ,
sea un diferencial total de cierta funcion u(x, y), como se sabe, es necesario y suficiente que
M (x, y)
N (x, y)

.
y
x

(6.21)

Si esta condicion, se
nalada por primera vez por Euler, se cumple, entonces (6.18) se integra
facilmente. En efecto
du = M dx + N dy .
Por otra parte,
du =

u
u
dx +
dy .
x
y

160

CAPITULO 6. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

Por consiguiente,
u
= M (x, y) ;
x

u
= N (x, y) ,
y

de donde
u(x, y) =

M (x, y) dx + c(y) .

Al calcular la integral de la expresion anterior, la magnitud y se considera constante; por eso,


c(y) es una funcion arbitraria de y.
PAradeterminar la funcion c(y), derivamos la funcion hallada u(x, y) respecto a y y, como
u
= N (x, y), obtenemos
y
Z


M (x, y) dx + c0 (y) = N (x, y) .


y
De esta ecuacion se determina c0 (y), e integrando se halla c(y).
Se puede determinar a
un mas facilmente la funcion u(x, y) por su diferencial total du =
M (x, y) dx+N (x, y) dy, tomando la integral curvilnea de M (x, y) dx+N (x, y) dy desde cierto
punto fijo (x0 , y0 ) hasta un punto con coordenadas variables (x, y), por cualquier camino:
u(x, y) =

(x,y)

M (x, y) dx + N (x, y) dy .

(x0 ,y0 )

Con frecuencia, es comodo tomar una lnea quebrada, compuesta por dos segmentos paralelos

( x ,y )

( x0,y0 )
0

( x0,y )

( x ,y )

( x0,y0 )

( x ,y0 )
x

Figura 6.3: Caminos de integracion posibles.

alos ejes de coordenadas (figura 6.3); en este caso


Z

(x,y)

(x0 ,y0 )

M dx + N dy =

(x,y0 )

(x0 ,y0 )

M dx +

(x,y)

(x,y0 )

N dy ,

6.6. ECUACIONES EN DIFERENCIALES TOTALES.

161

o bien
Z

(x,y)

M dx + N dy =

(x0 ,y0 )

(x0 ,y)

N dy +

(x0 ,y0 )

(x,y)

N dy .

(x0 ,y0 )

Ejemplo Consideremos la siguiente ecuacion


(x + y + 1) dx + (x y 2 + 3) dy = 0 .
El primer miembro de la ecuacion es la diferencial total de cierta funcion u(x, y), puesto que
(x y 2 + 3)
(x + y + 1)

,
y
x
u
=x+y+1
x

u=

u
= x + c0 (y) ,
y

c0 (y) = y 2 + 3 ,

x2
+ xy + x + c(y) ,
2

x + c0 (y) = x y 2 + 3 ,

c(y) =

y3
+ 3y + c1 .
3

Por lo tanto, la integral general tiene la forma


3x2 + 6xy + 6x 2y 3 + 18y = c2
Se puede utilizar tambien el otro metodo de determinacion de la funcion u(x, y):
u(x, y) =

(6.22)

( x ,y )

(x,y)

(x + y + 1) dx + (x y 2 + 3) dy .

(x0 ,y0 )

Como punto inicial (x0 , y0 ) escogemos por ejemplo


el origen de coordenadas, y como camino de integracion el mostrado en la figura 6.4). Entonces
u(x, y) =

(x,0)

(0,0)

(x + 1) dx +

( x ,0 )

Figura 6.4: Camino de integracion.

(x,y)
2

(x y + 3) dy ,

(x,0)

u(x, y) =

y3
x2
+ x + xy
+ 3y ,
2
3

162

CAPITULO 6. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

y la integral general tiene la forma


x2
y3
+ x + xy
+ 3y = c ,
2
3
o bien como en (6.22).
En algunos casos, si el primer miembro de la ecuacion
M (x, y) dx + N (x, y) dy = 0 ,

(6.18)

no es una diferencial total, resulta facil escoger una funcion (x, y),luego del producto por la
cual el primer miembro de (6.18) se transforma en una diferencial total:
du = M dx + N dy .
Esta funcion se llama factor integrante. Observese que la multiplicacion por el factor
integrante (x, y) puede conducir a que aparezcan soluciones particulares superfluas, que
reducen este factor a cero.
Ejemplo Consideremos la siguiente ecuacion
x dx + y dy + (x2 + y 2 )x2 dx = 0 .
es facil comprobar que despues de multiplicar por el factor = 1/(x2 +y 2 ), el primer miembro
se transforma en diferencial total. Efectivamente, luego del producto por = 1/(x2 + y 2 ),
obtenemos
x dx + y dy
+ x2 dx = 0 ,
x2 + y 2
o integrando:
1
x3
ln(x2 + y 2 ) +
= ln c1 .
2
3
multiplicando por 2 y potenciando, tendremos
(x2 + y 2 ) e2x

3 /3

=c.

Es claro que no siempre el factor integrante se escoge tan facilmente. En general, para
hallar dicho factor es necesario escoger por lo menos una solucion particular no identicamente
nula de la ecuacion en derivadas parciales
M
N
=
,
y
x
o, en forma desarrollada,
M

M +
=
N +
,
y
y
x
x

6.6. ECUACIONES EN DIFERENCIALES TOTALES.

163

la cual, despues de dividir entre y de cambiar de miembro algunos terminos, se reduce a


ln
ln
N
M
M
N=

.
y
x
x
y

(6.23)

En general, la integracion de esta ecuacion en derivadas parciales no es un problema mas


simple que la integracion de la ecuacion inicial. Sin embargo, a veces la eleccion de la solucion
particular de (6.23) no presenta dificultades.
Aparte de ello, considerando que el factor integrante es funcion de un solo argumento
(por ejemplo, es funcion solo de x + y o de x2 + y 2 , o funcion solo de x o de y, etc.), se puede
integrar ya sin dificultad la ecuacion (6.23) e indicar las condiciones bajo las cuales existe
un factor integrante del tipo considerado. Con esto se obtienen clases de ecuaciones para las
cuales el factor integrante puede ser hallado facilmente.
Por ejemplo, encontremos las condiciones bajo las cuales la ecuacion M dx + N dy = 0
tiene factor integrante que depende solo de x, = (x). En este caso, la ecuacion (6.23) se
simplifica y toma la forma

de donde, considerando

M
y

N
x

d ln
N
M
N=

,
dx
x
y

funcion continua de x, obtenemos

ln =

M
y

N
x

= c exp

M
y

dx + ln c ,

N
x

dx

(6.24)

Se puede considerar c = 1, ya que es suficoiente tener solo un factor integrante.


M
N
y
x
Si
es funcion solo de x, entonces existe un factor integrante que solo depende
N
de x, y es igual a (6.24). En caso contrario , no existe ning
un factor de la forma (x).
La condicion de existencia de un factor integrante que depende solo de x se cumple, por
ejemplo, para la ecuacion lineal
dy
+ p(x)y = f (x) ,
dx
M
y

N
x

o bien [p(x)y f (x)] dx + dy = 0 .


R

Efectivamente,
= p(x) y, por lo tanto, = e p(x) dx . De manera analoga se pueden
N
hallar las condiciones de existencia de factores integrantes de la forma
 
x
2
2
etc.
(y) , (x y) , (x y ) , (xy) ,
y

164

CAPITULO 6. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

Ejemplo Tiene la ecuacion


x dx + y dy + x dy y dx = 0 ,

(6.25)

un factor integrante de la forma = (x2 + y 2 )?


Designemos x2 + y 2 = z. La ecuacion (6.23) para = (x2 + y 2 ) = (z) toma la forma
2(M y N x)

ln
N
M
=

,
dz
x
y

de donde
1
ln | | =
2

(z) dz + ln c ,

o bien
 Z

1
= c exp
(z) dz ,
2

(6.26)

donde
N
M

x
y
.
(z) =
My Nx
Para la existencia de un factor integrante del tipo dado, es necesario ( y en caso que (z) sea
continua, suficiente) que sea funcion solo de x2 + y 2 . En nuestro caso,
N
M

2
x
y
= 2
;
My Nx
x + y2
por lo tanto, el factor integrante = (x2 + y 2 ) existe y es igual a (6.26). Para c = 1,
obtenemos:
 Z

dz
1
1
= exp
= = 2
.
z
z
x + y2
Multiplicando la ecuacion (6.25) por el que determinamos, la reducimos a la forma
x dx + y dy x dy y dx
+
=0,
x2 + y 2
x2 + y 2
o bien
1
d(x2 + y 2 )
2
+
x2 + y 2

 y
d
xy 2 = 0 ,
1+
x

Integrando, obtenemos
p
y
ln x2 + y 2 = arctan + ln c ,
x

1
y
d ln(x2 + y 2 ) + d arctan = 0 .
2
x

x2

y2

y
= c exp arctan
,
x


o bien en coordenadas polares = c e , que es una familia de espirales logartmicas.

6.7. TEOREMAS.

6.7

165

Teoremas.

Teorema 6.1 Existencia y unicidad de la soluci


on.
Si en la ecuacion
dy
= f (x, y) ,
dx

(6.27)

la funcion f (x, y) es continua en el rectangulo D:


x0 a x x0 + a ,

y0 b y y 0 + b ,

(6.28)

y satisface en D la condicion de Lipschitz:


| f (x, y1 ) f (x, y2 ) | N | y1 y2 | ,
donde N es una constante, entonces existe una solucion u
nica y = y(x), x0 H x x0 + H
de la ecuacion (6.27), que satisface la condicion y(x0 ) = y0 , donde


1
b
,
H < min a ,
M N
M = max | f (x, y) | en D.

Teorema 6.2 Sobre la dependencia continua de la soluci


on con respecto al par
ametro y a los valores iniciales.
Si el segundo mienbro de la ecuacion diferencial
dy
= f (x, y, ) ,
dx

(6.29)

es continuo en para 0 1 y satisface la condiciones del teorema de existencia y


unicidad, y la constante de Lipschitz N no depende de , entonces la solucion y(x, y) de la
ecuacion considerada que satisface la condicion y(x0 ) = y0 depende en forma continua de .
Teorema 6.3 Sobre la derivabilidad de las soluciones.
Si en un entorno del punto (x0 , y0 ) la funcion f (x, y) tiene derivadas continuas hasta
k-esimo orden inclusive, la solucion y(x) de la ecuacion
dy
= f (x, y) ,
dx
que satisface la condicion inicial y(x0 ) = y0 tendra derivadas continuas hasta k + 1-esimo
orden inclusive en cierto entorno del punto (x0 , y0 ).

166

CAPITULO 6. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

Captulo 7
Ecuaciones diferenciales de orden
mayor que uno.
versi
on final 1.2b-0110151

7.1

Teorema de existencia y unicidad para la ecuaci


on
diferencial de n-
esimo orden.

Las ecuaciones diferenciales de n-esimo orden tienen la forma


y (n) = f (x, y, y 0 , . . . , y (n1) ) ,

(7.1)

o bien, si no estan resueltas con respecto a la derivada de orden mayor:


F (x, y, y 0 , . . . , y (n) ) = 0 .
El teorema de existencia y unicidad para ecuacion de n-esimo orden se puede obtener facilmente, llevandola a un sistema de ecuaciones.
(n1)

Teorema 7.1 Si en un entorno de las condiciones iniciales (x0 , y0 , y00 , . . . , y0


) la funcion
f es continua en todos sus argumentos y satisface la condicion de Lipschitz respecto a todos
los argumentos a partir del segundo, existe una solucion u
nica de la ecuacion diferencial de
(n)
0
(n1)
n-esimo orden y = f (x, y, y , ..., y
) que satisface las condiciones
y(x0 ) = y0 ,

y 0 (x0 ) = y00 ,

y 00 (x0 ) = y000 ,

... ,

(n1)

y (n1) (x0 ) = y0

Se llama solucion general de la ecuacion diferencial de n-esimo orden al conjunto de


soluciones formado por todas las soluciones particulares, sin excepcion. Si el segundo miembro
de la ecuacion
y (n) = f (x, y, y 0 , . . . , y (n1) ) ,

(7.1)

satisface, en cierta region de variacion de sus argumentos, las condiciones del teorema de existencia y unicidad, entonces la solucion general de la ecuacion (7.1) depende de n parametros,
1

Este captulo est


a basado en el segundo captulo del libro: Ecuaciones diferenciales y c
alculo variacional
de L. Elsgoltz, editorial MIR

167

168 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


en calidad de los cuales se pueden tomar, por ejemplo, las condiciones iniciales de la funcion
(n1)
buscada y de sus derivadas y0 , y00 , y000 , . . . , y0
.
En particular, la solucion general de la ecuacion de segundo grado y 00 = f (x, y, y 0 ) depende
de dos parametros, por ejemplo, de y0 y de y00 . Si fijamos y0 e y00 o sea, damos el punto
(x0 , y0 ), y la direccion de la tangente a la curva integral buscada en dicho punto, entonces, si
se cumplen las condiciones del teorema de existencia y unicidad, mediante estas condiciones
se determinara una sola curva integral.
Por ejemplo, la ecuacion del movimiento rectilneo de un punto material de masa m bajo
la accion de la fuerza f (t, x, x):

m
x = f (t, x, x)
,
la posicion inicial del punto x(t0 ) = x0 y la velocidad inicial x(t
0 ) = x0 determinan una
solucion u
nica, una trayectoria u
nica x = x(t) si, por supuesto, la funcion f satisface las
condiciones del teorema de existencia y unicidad.

7.2

Casos simples de reducci


on del orden.

En ciertos casos el orden de la ecuacion diferencial puede ser reducido, lo que a menudo
facilita su integracion.
Se
nalemos algunas clases de ecuaciones que se encuentran con mayor frecuencia y que
pueden reducir su orden.
1. La ecuacion no contiene la funcion buscada y sus derivadas hasta el orden k1 inclusive:
F (x, y (k) , y (k+1) , . . . , y (n) ) = 0 .

(7.2)

En este caso el orden de la ecuacion puede ser reducido a n k mediante el cambio de


variables y (k) = p.
En efecto, luego del cambio de variables, la ecuacion (7.2) toma la forma
F (x, p, p0 , . . . , p(nk) ) = 0 .

(7.3)

De esta ecuacion se determina p = p(x, c1 , c2 , . . . , cnk ), e y se halla de la ecuacion


y (k) = p(x, c1 , c2 , . . . , cnk ) integrando k veces. En particular, si la ecuacion de segundo
orden no contiene a y, entonces la sustitucion de variables y 0 = p conduce a una ecuacion
de primer orden.
Ejemplo Consideremos la siguiente ecuacion
1 d4 y
d5 y

=0.
dx5 x dx4
d4 y
dp
1
= p obtenemos
p = 0; separando variables e integrando, tendreHaciendo
4
dx
dx x
d4 y
mos: ln | p | = ln | x | + ln c, o bien p = cx, 4 = cx, de donde
dx
y = c1 x5 + c2 x3 + c3 x2 + c4 x + c5 .

DEL ORDEN.
7.2. CASOS SIMPLES DE REDUCCION

169

Ejemplo Hallar la trayectoria de un cuerpo que cae sin velocidad inicial en la atmosfera,
considerando la resistencia del aire proporcional al cuadrado de la velocidad.
La ecuacion de movimiento tiene la forma
d2 s
m 2 = mg k
dt

ds
dt

2

donde s es el espacio recorrido por el cuerpo; m, la masa del mismo; t, el tiempo. Para
ds
t = 0, se tiene s = 0 y
= 0.
dt
La ecuacion no contiene explcitamente a la funcion incognita s; por lo tanto, se puede
ds
reducir el orden de la misma considerando
= v. Entonces la ecuacion de movimiento
dt
toma la forma
m

dv
= mg kv 2 .
dt

Separando variables e integrando, se obtiene


Z v
m dv
dv
1
kv
= dt ; t = m
= Arctanh ,
2
2
mg kv
k g
g
0 mg kv

de donde v =
tanh(k g t); multiplicando por dt e integrando nuevamente, hallamos
k
la trayectoria del movimiento:
s=

ln cosh(k g t) .
2
k

2. La ecuacion no contiene a la variable independiente:


F (y, y 0 , y 00 , . . . , y (n) ) = 0 .
En este caso el orden de la ecuacion se puede reducir en una unidad por medio de la
sustitucion y 0 = p; ademas, p se considera nueva funcion desconocida de y, p = p(y) y,
dk
por lo tanto, todas las derivadas
deben expresarse por medio de las derivadas de
dxk
la nueva funcion desconocida p(y) respecto a y:
dy
=p,
dx
d2 y
dp
dp dy
dp
=
=
=
p,
2
dx
dx
dy dx
dy




 2
d3 y
d dp
d dp
dy
d2 p 2
dp
=
p
=
p
=
p
+
p.
dx3
dx dy
dy dy
dx
dy 2
dy

170 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


y analogamente para las derivadas de orden superior. Ademas, es evidente que la
dk y
derivada k se expresa mediante las derivadas de p respecto a y de orden no superior
dx
a k 1, lo cual precisamente conduce a la disminucion del orden en una unidad.
En particular, si la ecuacion de segundo orden no contiene a la variable independiente,
entonces la sustitucion de variables se
nalada conduce a una ecuacion de primer orden.
Ejemplo Integrar la ecuacion del pendulo matematico x + a2 sen x = 0 con condiciones
iniciales x(0) = x0 , x(0)

= x 0 .
Reducimos el orden, haciendo
x = v ,

x = v

dv
,
dx

v2
= a2 (cos x cos x0 ) ,
2
p
dx
= a 2(cos x cos x0 ) ,
dt

v dv = a2 sen x dx ,

v = a

p
2(cos x cos x0 ) ,

1
t=
a 2

x0

dx0
.
cos x0 cos x0

La integral del segundo miembro no se resuelve en funciones elementales, pero se reduce


facilmente a funciones elpticas.
3. El primer miembro de la ecuacion
F (x, y, y 0 , . . . , y (n) ) = 0 .

(7.4)

es la derivada de cierta expresion diferencial (x, y, y 0 , . . . , y (n1) ) de orden n 1.


En este caso se halla facilmente la llamada primera integral, o sea, una ecuacion diferencial de orden n 1, que contiene una constante arbitraria, y que es equivalente a la
ecuacion dada de n-esimo orden, con lo cual reducimos el orden de la ecuacion en una
unidad. Efectivamente, la ecuacion (7.4) puede escribirse en la forma
d
(x, y, y 0 , . . . , y (n1) ) = 0
dx

(7.5)

Si y(x) es solucion de la ecuacion (7.5), entonces la derivada de (x, y, y 0 , . . . , y (n1) )


es identicamente nula. Por lo tanto, la funcion (x, y, y 0 , . . . , y (n1) ) es igual a una
constante, con lo que se obtiene la primera integral
(x, y, y 0 , . . . , y (n1) ) = c
Ejemplo Consideremos la siguiente ecuacion
yy 00 + (y 0 )2 = 0 .

DEL ORDEN.
7.2. CASOS SIMPLES DE REDUCCION

171

Esta ecuacion se puede escribir en la forma d(yy 0 ) = 0, de donde yy 0 = c1 , o bien


y dy = c1 dx. Por lo tanto, la integral general sera y 2 = c1 x + c2 .
A veces el primer miembro de la ecuacion F (x, y, y 0 , . . . , y (n) ) = 0 se convierte en derivada de la diferencial (x, y, y 0 , . . . , y (n1) ) de orden n 1 solo despues de multiplicarlo
por un factor, (x, y, y 0 , . . . , y (n1) ).
Ejemplo Consideremos la siguiente ecuacion:
yy 00 (y 0 )2 = 0 .

(7.6)
 0
d y
Multiplicando por el factor = 1/y 2 , se obtiene [yy 00 (y 0 )2 ]/y 2 = 0, o bien
=
dx y
y0
d
0, de donde
= c1 , o
ln | y | = c1 . Por lo tanto, ln | y | = c1 x + ln c2 , c2 > 0, de
y
dx
donde y = c2 ec1 x , c2 6= 0.
Observacion: Al multiplicar por el factor (x, y, y 0 , . . . , y (n1) ) se pueden introducir
soluciones superfluas, que reducen dicho factor a cero. Si , es discontinuo, pueden
tambien perderse soluciones. En el ejemplo anterior, al multiplicar por = 1/y 2 se
perdio la solucion y = 0; sin embargo, puede incluirse en la solucion obtenida, si se
considera que c2 puede tomar el valor 0.
4. La ecuacion F (x, y, y 0 , . . . , y (n) ) = 0 es homogenea con respecto a los argumentos
y, y 0 , . . . , y (n) .
El orden de la ecuacion homogenea respecto a y, y 0 , . . . , y (n)
F (x, y, y 0 , . . . , y (n) ) = 0

(7.7)

es decir, de la ecuacion para la cual se cumple la identidad


F (x, ky, ky 0 , . . . , ky (n) ) = k p F (x, y, y 0 , . . . , y (n) ) ,
R

puede ser reducido en una unidad por medio de la sustitucion y = e


una nueva funcion desconocida. En efecto, derivando, se obtiene
R

z dx

z,

z dx

(z 2 + z 0 ) ,

z dx

(z 3 + 3zz 0 + z 00 ) ,

z dx

(z, z 0 , z 00 , . . . , z (k1) ) ,

y0 = e
y 00 = e
y 000 = e
..
.

y (k) = e

z dx

, donde z es

se puede comprobar la veracidad de esta igualdad mediante el metodo de induccion


completa.
R

Sustituyendo en (7.7) y observando que en base a la homogeneidad el factor ep z dx se


puede sacar de la funcion F , reordenamos en funcion de las derivadas de z obteniendo
ep

z dx

f (x, z, z 0 , . . . , z (n1) ) = 0 ,

172 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


o bien, dividiendo entre ep

z dx

, tendremos para la nueva funcion f ,

f (x, z, z 0 , . . . , z (n1) ) = 0 .
Ejemplo Consideremos la ecuacion:
yy 00 (y 0 )2 = 6xy 2 .
R

Haciendo y = e
3
y = c2 e(x +c1 x) .

z dx

, obtenemos z 0 = 6x, z = 3x2 + c1 , y = e

(3x2 +c1 ) dx

, o bien

En las aplicaciones se encuentran con particular frecuencia ecuaciones diferenciales de


segundo orden que pueden reducir su orden.
1.
F (x, y 00 ) = 0 .

(7.8)

En esta ecuacion se puede


disminuir el orden mediante la sustitucion y 0 = p, y reducirla

dp
a la ecuacion F x, dx
= 0.

La ecuacion (7.8) se puede resolver con respecto al segundo argumento, y 00 = f (x),


e integrar dos veces, o introducir un parametro y sustituir la ecuacion (7.8) por su
representacion parametrica
d2 y
= (t) ,
dx2

x = (t) ,

de donde
0

00

dy = y dx = (t) (t) dt ,

dy = y dx ,

y=

Z Z

y =

(t) 0 (t) dt + c1 ,


(t) (t) dt + c1 0 (t0 ) dt0 + c2 .

2.
F (y 0 , y 00 ) = 0 ,

(7.9)

la ecuacion (7.9) en forma parametrica:


yx0 = (t) ,

00
yxx
= (t) ,

de donde
dy 0
0 (t) dt
dx = 00 =
,
y
(t)

x=

0 (t) dt
+ c1 ,
(t)

luego de lo cual y se determina por cuadratura:


0 (t)
dy = y dx = (t)
dt ,
(t)
0

y=

(t)0 (t)
dt + c2 .
(t)

DEL ORDEN.
7.2. CASOS SIMPLES DE REDUCCION

173

3.
F (y, y 00 ) = 0 .

(7.10)

Se puede reducir el orden haciendo


dy
=p
dx

d2 y
dp dy
dp
=
=p
.
2
dx
dy dx
dy

Si la ecuacion (7.10) es posible resolver facilmente con respecto al segundo argumento, y 00 = f (y), entonces, multiplicando esta ecuacion por la igualdad 2y 0 dx = 2 dy,
obtenemos d(y 0 )2 = 2f (y) dy, de donde
s Z
dy
dy
= 2 f (y) dy + c1 ,
q R
= dx ,
dx
2 f (y) dy + c
1

x + c2 =

dy
q R
2 f (y) dy + c1

La ecuacion (7.10) se puede sustituir por su representacion parametrica y = (t),


y 00 = (t); entonces de dy 0 = y 00 dx y de dy = y 0 dx se obtiene y 0 dy 0 = y 00 dy, o bien
1
d(y 0 )2 = (t)0 (t) dt ,
2
Z
0 2
(y ) = 2 (t)0 (t) dt + c1 ,
s Z
y 0 = 2 (t)0 (t) dt + c1 ,
luego de lo cual, de dy = y 0 dx se halla dx, y despues x:
dy
0 (t) dt
q
=

,
R
y0
0
2 (t) (t) dt + c1
Z
0 (t) dt
x= q R
+ c2 .
2 (t)0 (t) dt + c1

dx =

Las ecuaciones anteriores e y = (t) determinan en forma parametrica a la familia de


curvas integrales.
Ejemplo Consideremos la siguiente ecuacion
y 00 = 2y 3 ,

y(0) = 1 ,

y 0 (0) = 1 .

Multiplicando ambos miembros de esta ecuacion por 2y 0 dx, se obtiene d(y 0 )2 = 4y 3 dy,
de donde (y 0 )2 = y 4 + c1 . Teniendo en cuenta las condiciones iniciales, se halla que
dy
1
1
c1 = 0 e y 0 = y 2 . Por lo tanto, 2 = dx, = x + c2 , c2 = 1, y =
.
y
y
1x

174 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.

7.3

Ecuaciones diferenciales lineales de n-


esimo orden.

Se llama ecuacion diferencial lineal de n-esimo orden una ecuacion lineal con respecto a la
funcion desconocida y a sus derivadas, y que, por lo tanto, tiene la forma
a0 (x)y (n) + a1 (x)y (n1) + . . . + an1 (x)y 0 + an (x)y = (x) .

(7.11)

Si el segundo miembro (x) = 0, entonces la ecuacion se llama lineal homogenea, puesto que
es homogenea con respecto a la funcion desconocida y y a sus derivadas.
Si el coeficiente a0 (x) es diferente de cero en todos los puntos de cierto intervalo a x b,
entonces, dividiendo entre a0 (x), reducimos la ecuacion lineal homogenea (si x vara en dicho
intervalo) a la forma:
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = 0 ,

(7.12)

o bien
y

(n)

n
X

pi (x)y (ni) .

(7.13)

i=1

Si los coeficientes p(x) son contnuos en el intervalo a x b, entonces en un entorno de


cualesquiera condiciones iniciales
y(x0 ) = y0 ,

y 0 (x0 ) = y00 ,

y 00 (x0 ) = y000 ,

...

(n1)

y (n1) (x0 ) = y0

donde x0 es cualquier punto del intervalo a x b, se satisfacen las condiciones del teorema
de existencia y unicidad.
Observese que la linealidad y la homogeneidad de la ecuacion se conservan en cualquier
transformacion de la variable independiente x = (t), donde (t) es una funcion arbitraria
derivable n veces, cuya derivada (t) 6= 0 en el segmento de variacion de t considerado.
En efecto,
dy 1
dy
=
,
dx
dt 0 (t)
d2 y
d2 y 1
dy 00
=

,
dx2
dt2 [0 (t)]2
dt [0 (t)]3
..
.
dk y
dy d2 y
dk y
es
funci
o
n
lineal
homog
e
nea
de
,
,
.
.
.
,
y, por
dxk
dt dt2
dtk
lo tanto, al sustituir en la ecuacion (7.12) su linealidad y su homogeneidad se conservan.
La linealidad y la homogeneidad se conservan tambien al efectuarse una transformacion
lineal homogenea de la funcion desconocida: y(x) = (x)z(x). En efecto, por la formula de
derivada de un producto,
La derivada de cualquier orden

y (k) = (x)z (k) + k0 (x)z (k1) +

k(k 1) 00
(x)z (k2) + . . . + (k) (x)z ,
2!


7.3. ECUACIONES DIFERENCIALES LINEALES DE N -ESIMO
ORDEN.

175

es decir, la derivada y (k) es funcion lineal homogenea de z, z 0 , z 00 , . . . , z (k) . En consecuencia,


el primer miembro de la ecuacion lineal homogenea
a0 (x)y (n) + a1 (x)y (n1) + . . . + an1 (x)y 0 + an (x)y = 0 .
luego de sustituir las variables, sera funcion lineal homogenea de z, z 0 , z 00 , . . . , z (n) .
Escribamos la ecuacion lineal homogenea
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = 0 ,
en forma compacta:
L[y] = 0 ,
donde
L[y] = y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y .
Llamaremos a L[y] operador diferencial lineal.
El operador diferencial lineal posee las dos propiedades fundamentales siguientes:
1. Un factor constante puede sacarse del smbolo del operador:
L[cy] cL[y] .
En efecto,
(cy)(n) + p1 (x)(cy)(n1) + . . . + pn1 (x)(cy)0 + pn (x)(cy)
= c[y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y] .
2. El operador diferencial lineal, aplicado a la suma de dos funciones es igual a la suma
de los resultados de la aplicacion del mismo a cada funcion por separado:
L[y1 + y2 ] L[y1 ] + L[y2 ] .
en efecto,
(y1 + y2 )(n) + p1 (x)(y1 + y2 )(n1) + . . . + pn1 (x)(y1 + y2 )0 + pn (x)(y1 + y2 )
(n)

(n1)

+ . . . + pn1 (x)y10 + pn (x)y1 ] +

(n)

(n1)

+ . . . + pn1 (x)y20 + pn (x)y2 ].

[y1 + p1 (x)y1

[y2 + p1 (x)y2

Como consecuencia de las propiedades anteriores, resulta


" m
#
m
X
X
L
ci yi
ci L[yi ] ,
i=1

i=1

donde los ci son constantes.


Basandonos en las propiedades del operador lineal L, se puede demostrar una serie de
teoremas sobre las soluciones de la ecuacion lineal homogenea

176 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


Teorema 7.2 Si y1 es solucion de la ecuacion de lineal homogenea L[y] = 0, entonces cy1 ,
donde c es una constante arbitraria, tambien es solucion de esta.
Teorema 7.3 La suma y1 + y2 de dos soluciones y1 e y2 de la ecuacion lineal homogenea
L[y] = 0 es solucion de dicha ecuacion.
Corolario de losP
dos teoremas anteriores. La combinacion lineal con coeficientes arbitrarios constantes m
on lineal homogenea
i=1 ci yi de las soluciones y1 , y2 , . . . , ym de la ecuaci
L[y] = 0 es solucion de dicha ecuacion.
Teorema 7.4 Si la ecuacion lineal homogenea L[y] = 0 con coeficientes reales pi (x) tiene
solucion compleja y(x) = u(x) + iv(x), entonces la parte real u(x) de esta solucion y su parte
imaginaria v(x) son, por separado, soluciones de dicha ecuacion homogenea.
Las funciones y1 , y2 , . . . , yn se llaman linealmente dependientes en cierto intervalo de x,
a x b, si existen constantes 1 , 2 , . . . , n , que en dicho intervalo
1 y1 + 2 y2 + . . . + n yn 0 ,

(7.14)

y ademas por lo menos un i 6= 0. Si la identidad (7.14) se verifica solo para el caso en que
1 = 2 =, . . . , = n = 0, las funciones y1 , y2 , . . . , yn se llaman linealmente independientes
en el intervalo a x b.
Teorema 7.5 Si las funciones y1 , y2 , . . . , yn son linealmente dependientes en el intervalo
a x b, entonces en dicho intervalo el determinante


y1
y2
...
yn
0
y1
...
yn0
y20
00
00

y2
...
yn00
W (x) = W [y1 , y2 , . . . , yn ] = y1
..
..
..
.
.
.

(n1) (n1)
(n1)

y1
y2
. . . yn
llamado wroskiano, es identicamente nulo.

Teorema 7.6 Si las funciones linealmente independientes y1 , y2 , . . . , yn son soluciones de


la ecuacion lineal homogenea.
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = 0 ,
con coeficientes contnuos pi (x) en el intervalo a x b, entonces el wroskiano


y1

y
.
.
.
y
2
n
0

0
0
y1

y
.
.
.
y
2
n
00

00
00
y1
y2
...
yn
W (x) =
..
..
..
.
.
.
(n1) (n1)

(n1)
y1
y2
. . . yn
es diferente de cero en todos los puntos del intervalo a x b.

(7.15)


7.3. ECUACIONES DIFERENCIALES LINEALES DE N -ESIMO
ORDEN.

177

P
Teorema 7.7 La combinacion lineal ni=1 ci yi con coeficientes constantes arbitrarios de n soluciones particulares linealmente independientes yi (i = 1, 2, . . . , n) en el intervalo a x b
es solucion general, para a x b, de la ecuacion lineal homogenea
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = 0 ,

(7.15)

con coeficientes pi (x) contnuos en dicho intervalo (i = 1, 2, . . . , n).


Corolario del teorema anterior. El n
umero maximo de soluciones linealmente independientes de una ecuacion lineal homogenea es igual a su orden.
Observacion: Se llama sistema fundamental de soluciones de una ecuacion lineal homogenea de n-esimo orden al conjunto de cualquiera n soluciones particulares linealmente
independiente. Para cada ecuacion lineal homogenea (7.15) existe un sistema fundamental
de soluciones. Para la construccion de un sistema fundamental de soluciones, se dan arbitrariamente n2 cifras
(k)

yi (x0 ) {i = 1, 2, . . . , n; k = 0, 1, . . . , n 1} ,
sometiendo su eleccion exclusivamente a la condicion



y1 (x0 )
y
(x
)
.
.
.
y
(x
)
2
0
n
0

0
0
0
y1 (x0 )
...
yn (x0 )
y2 (x0 )
00
y1 (x0 )
y200 (x0 )
...
yn00 (x0 ) 6= 0 ,



..
..
..


.
.
.

(n1)
(n1)
(n1)
y 1
(x0 ) y2
(x0 ) . . . yn
(x0 )
donde x0 es un punto cualquiera del intervalo a x b. Entonces las soluciones yi (x),
(k)
determinadas por los valores iniciales yi (x0 ) con {i = 1, 2, . . . , n; k = 0, 1, . . . , n 1},
forman un sistema fundamental, puesto que su wroskiano W (x) en el punto x = x0 es
diferente de cero y, por lo tanto, en virtud del teorema 7.5 y del teorema 7.6, las soluciones
y1 , y2 , . . . , yn son linealmente independientes.
Conociendo una solucion particular no trivial y1 de la ecuacion lineal homogenea
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = 0 ,
(7.15)
R
se puede, por medio de la sustitucion y = y1 u dx, reducir su orden manteniendo la linealidad
y la homogeneidad.
R
En efecto, la sustitucion y = y1 u dx se puede reemplazar por dos sustituciones y = y1 z
y z 0 = u. La trasformacion lineal homogenea
y = y1 z

(7.16)

conserva la linealidad y la homogeneidad de la ecuacion; por lo tanto, la ecuacion (7.15) se


reduce en este caso a la forma
a0 (x) z (n) + a1 (x) z (n1) + + an (x) z = 0 .

(7.17)

178 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


Ademas, a la solucion y = y1 de la ecuacion (7.15) le corresponde, en virtud de (7.16), la
solucion z 1 de la ecuacion (7.17). Sustituyendo z 1 en la ecuacion (7.17), se obtiene
an = 0. Por consiguiente, la ecuacion (7.17) tiene la forma
a0 (x) z (n) + a1 (x) z (n1) + + an1 (x) z 0 = 0 ,
y la sustitucion z 0 = u reduce su orden en una unidad:
a0 (x) u(n1) + a1 (x) u(n2) + + an1 (x) u = 0 .
R
Observese que la misma sustitucion y = y1 u dx, donde y1 es solucion de la ecuacion
L[y] = 0, reduce en una unidad el orden de la ecuacion lineal no homogenea L[y] = f (x),
puesto que dicha sustitucion no altera el segundo miembro de la ecuacion.
Conociendo k soluciones linealmente independientes y1 , . . . , yk en el intervalo a x b,
de la ecuacion lineal homogenea, se puede reducir su orden hasta n k, en el mismo intervalo
a x b.
Lema. Dos ecuaciones de la forma
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = 0 ,
y

(n)

+ q1 (x)y

(n1)

+ . . . + qn1 (x)y + qn (x)y = 0 ,

(7.18)
(7.19)

donde las funciones pi (x) y qi (x) (i = 1, 2, , n) son continuas en el intervalo a x b,


las cuales tienen un sistema fundamental com
un de soluciones y1 , y2 , . . . , yn , coinciden, es
decir, que pi (x) qi (x) (i = 1, 2, , n) en el intervalo a x b.
De este modo, el sistema fundamental de soluciones y1 , y2 , . . . , yn determina por completo
la ecuacion lineal homogenea
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = 0

(7.18)

y, por consiguiente, se puede plantear el problema de hallar la ecuacion (7.18) que posea el
sistema fundamental de soluciones
y1 , y 2 , . . . , y n .
Como cualquier solucion y de la ecuacion buscada (7.18) debe ser linealmente dependiente
de las soluciones y1 , y2 , . . . ,yn , entonces el Wronskiano W [y1 , y2 , . . . , yn ] = 0. Escribamos
esta ecuacion en forma desarrollada



y1
y
.
.
.
y
y
2
n

0
0
0
0
y1
y 2 . . . yn
y
00
y1
y200 . . . yn00 y 00 = 0 ,

..
..
..
..
.
.
.
.
(n) (n)

(n)
(n)
y 1
y2
. . . yn y
o bien, descomponiendola por los elementos de la u
ltima columna,


y1

y
.
.
.
y
2
n
0

0
0
y1

y
.
.
.
y
2
n


.
.
.

..
.. y (n1) + . . . = 0 .
W [y1 , y2 , . . . , yn ] y (n) ..
(n2) (n2)
(n2)
y 1

(n) y2 (n) . . . yn (n)
y
y2
. . . yn
1

(7.20)


7.3. ECUACIONES DIFERENCIALES LINEALES DE N -ESIMO
ORDEN.

179

La ecuacion obtenida (7.20) es la ecuacion lineal homogenea buscada, que posee el sistema dado de soluciones y1 , y2 , . . . ,yn . Dividiendo ambos miembros de la ecuacion entre el
Wronskiano de la derivada de mayor grado, diferente de cero, la reducimos a la forma (7.18).
De aqu se deduce que, en particular,


y1
y2
...
yn
0
y1
y20
...
yn0

..
..
..
.
.
.
(n2) (n2)
(n2)
y 1

(n) y2 (n) . . . yn (n)
y
y2
. . . yn
1
p1 (x) =
.
W [y1 , y2 , . . . , yn ]
Observese que el determinante

y1
y2
0
y1
y20

..
..
.
.
(n2) (n2)
y 1
(n) y2 (n)
y
y2
1







,
(n2)

yn

(n)
yn

...
...

yn
yn0
..
.

...
...

es igual a la derivada del wroskiano W [y1 , y2 , . . .


de un determinante, la derivada

y1
y2
0
y1
y20
d ..
..
.
.

dx (n2) (n2)
y 1
(n1) y2(n1)
y
y2
1

(7.21)

, yn ]. En efecto, seg
un la regla de derivacion






,
(n2)

. . . yn

(n1)
. . . yn

...
...

yn
yn0
..
.

es igual a la suma sobre i desde 1 hasta n de determinantes que se diferencian del wronskiano
en que en ello se han derivado los elementos de la i-esima fila, y las filas restantes se dejan
sin variacion. En esta suma solamente el u
ltimo determinante, para i = n, que coincide con
el determinante (7.21) puede ser diferente de cero. Los restantes son iguales a cero, ya que
sus filas i e i + 1 coinciden.
W0
Por lo tanto, p1 (x) =
, de donde, multiplicando por dx e integrando, se obtiene
W
Z
R
log | W | = p1 (x) dx + log c , W = c e p1 (x) dx ,

o bien
W = c e

Rx

xo

p1 (x0 ) dx0

(7.22)

Para x = xo se obtiene c = W (xo ), de donde


W = W (xo ) e

Rx

xo

p1 (x0 ) dx0

(7.23)

180 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


La formulas anteriores son conocidas como f
ormulas de Ostrogradski-Liouville. Estas formulas
pueden aplicarse a la integracion de la ecuacion lineal homogenea de segundo orden
y 00 + p1 (x) y 0 + p2 (x) y = 0 ,

(7.24)

si es conocida una solucion no trivial y1 de la misma. Seg


un la formula (7.23), cualquier
solucion de la ecuacion (7.24) debe ser tambien solucion de la ecuacion


R
y1 y
p1 (x) dx
0

,
y1 y 0 = c1 e

o bien

y1 y 0 yy10 = c1 e

p1 (x) dx

Para integrar esta ecuacion lineal de primer orden lo mas facil es aplicar el metodo del factor
integrante.
1
Multiplicando por = 2 , se obtiene
y1
 
y
c1 R
d
= 2 e p1 (x) dx ,
dx y1
y1
de donde
y
=
y1

c1 e

p1 (x0 ) dx0

dx + c2 ,

y12

o bien
y = c2 y1 + c1 y1

7.4
7.4.1

p1 (x0 ) dx0

y12

dx .

Ecuaciones lineales homog


eneas con coeficientes constantes y ecuaci
on de Euler.
Ecuaciones lineales homogeneas con coeficientes constantes.

Si en la ecuacion lineal homogenea


a0 y (n) + a1 y (n1) + . . . + an y = 0 ,

(7.25)

todos los coeficientes ai son constantes, entonces sus soluciones particulares pueden ser halladas en la forma y = ekx , donde k es una constante. En efecto sustituyendo en (7.25) y = ekx
e y (p) = k p ekx con p = 1, 2, , n, tendremos:
a0 k n ekx + a1 k n1 ekx + . . . + an ekx = 0 .


7.4. ECUACIONES LINEALES HOMOGENEAS
CON . . .

181

Dividiendo entre el factor ekx , diferente de cero, se obtiene la llamada ecuacion caracterstica
a0 k n + a1 k n1 + . . . + an = 0 .

(7.26)

Esta ecuacion de n-esimo grado determina los valores de k para los cuales y = ekx es solucion de la ecuacion lineal homogenea inicial con coeficientes constantes (7.25). Si todas las
races k1 , k2 , . . . , kn de la ecuacion caracterstica son diferentes, entonces de esta forma se
hallan n soluciones linealmente independientes ek1 x , ek2 x , . . . , ekn x de la ecuacion (7.25). Por
consiguiente,
y = c1 ek1 x + c2 ek2 x + . . . + cn ekn x ,
donde ci son constantes arbitrarias, es solucion general de la ecuacion inicial (7.25). Este
metodo de integracion de las ecuaciones lineales con coeficientes constantes fue aplicado por
primera vez por Euler.
Ejemplo Consideremos la ecuacion
y 00 3y 0 + 2y = 0 .
la ecuacion caracterstica tiene la forma k 2 3k + 2 = 0; sus races son k1 = 1, k2 = 2. Por
lo tanto, la solucion general de la ecuacion inicial tiene la forma y = c1 ex + c2 e2x .
Puesto que los coeficientes de la ecuacion (7.25) se presuponen reales, las races complejas
de las ecuacion caracterstica pueden aparecer solo en pares conjugados. Las soluciones
complejas e(+i)x y e(i)x , correspondientes al par de races complejas conjugadas
k1 = + i

y k2 = i ,

pueden ser sustitudas por dos soluciones reales: por las partes reales e imaginarias de una
de las soluciones.
e(i)x = ex (cos x i sen x) ,
De esta manera, al par de races complejas conjugadas k1,2 = i le corresponden dos
soluciones reales: ex cos x y ex sen x.
Si entre las races de la ecuacion caracterstica hay races m
ultiples, entonces la cantidad
kx
de soluciones distintas del tipo e es menor que n y, por lo tanto, las soluciones linealmente
independientes que faltan deben ser buscadas en otra forma.
Se puede demostrar que si la ecuacion caracterstica tiene una raz ki de multiplicidad
i , entonces no solo ekj x sera solucion de la ecuacion inicial, sino tambien xekj x , x2 ekj x , . . . ,
xi 1 ekj x . Por lo tanto, la solucion general de la ecuacion (7.25) tiene la forma
y=

m
X
i=1


c0i + c1i x + c2i x2 + . . . + ci 1,i xi 1 eki x ,

donde csi son constantes arbitrarias.

182 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


Ejemplo Consideremos la ecuacion
y 000 3y 00 + 3y 0 y = 0 .
La ecuacion caracterstica k 3 3k 2 + 3k 1 = 0, o bien (k 1)3 = 0, posee la raz triple
k1,2,3 = 1. Por consiguiente, la solucion general tiene la forma
y = (c1 + c2 x + c3 x2 )ex .
Si la ecuacion caracterstica tiene una raz m
ultiple compleja p + iq de multiplicidad ,
entonces sus soluciones correspondientes
e(p+iq)x = epx (cos qx + i sen qx)
y, separando las partes real e imaginaria, obtener 2 soluciones reales:
epx cos qx , xepx cos qx , x2 epx cos qx , . . . , x1 epx cos qx ,
epx sen qx , xepx sen qx , x2 epx sen qx , . . . , x1 epx sen qx .

(7.27)

Tomando las partes reales e imaginarias de las soluciones correspondientes a la raz conjugada
p iq de la ecuacion caracterstica, no se obtienen nuevas soluciones linealmente independientes. De esta manera, al par de races complejas conjugadas p iq de multiplicidad le
corresponde 2 soluciones reales linealmente independientes (7.27).

7.4.2

Ecuaciones de Euler.

Las ecuaciones de la forma


a0 xn y (n) + a1 xn1 y (n1) + . . . + an1 xy 0 + an y = 0 ,

(7.28)

donde todas las ai son constantes, se llaman ecuaciones de Euler. La ecuacion de Euler se
reduce, mediante la sustitucion de la variable independiente x = et , a una ecuacion lineal
homogenea con coeficientes constantes.
En efecto, como fue se
nalado anteriormente, la linealidad y la homogeneidad de la ecuacion
se conservan en la transformacion de la variable independiente, y los coeficientes se vuelven
constantes, puesto que
dy
dy
= et ,
dx
dt 

d2 y
d2 y dy
2t
=e

,
dx2
dt2
dt
..
.


dk y
dy
d2 y
dk y
kt
=e
1 + 2 2 + . . . + k k ,
dxk
dt
dt
dt

(7.29)

donde todas las i son constantes, y al sustituir en la ecuacion (7.28) los factores ekt se
simplifican con los factores xk = ekt .


7.4. ECUACIONES LINEALES HOMOGENEAS
CON . . .

183

La validez de la igualdad (7.29) puede ser demostrada por el metodo de induccion. Por
lo tanto, los productos
xk

dk y
dy
d2 y
dk y
=

+
.
.
.
+

,
1
2
k
dxk
dt
dt2
dtk

que entran en la forma lineal con coeficientes constantes en la ecuacion de Euler


n
X
k=0

ank xk

dk y
=0,
dxk

(7.30)

se expresan en forma lineal ( y con coeficientes constantes) mediante las derivadas de la


funcion y respecto a la nueva variable t. De aqu se deduce que la ecuacion transformada
sera una ecuacion lineal homogenea con coeficientes constantes:
dn y
dn1 y
dy
b0 n + b1 n1 + . . . + bn1 + bn y = 0 .
dt
dt
dt

(7.31)

En lugar de transformar la ecuacion de Euler en una ecuacion lineal con coeficientes constantes, cuyas soluciones particulares tienen la forma y = ekt , se puede buscar directamente
la solucion de la ecuacion inicial en la forma y = xk , ya que
ekt = xk .
La ecuacion obtenida despues de simplificar entre xk
a0 k(k 1) . . . (k n + 1) + a1 k(k 1) . . . (k n + 2) + . . . + an = 0 ,

(7.32)

para la determinacion de k, debe coincidir con la ecuacion caracterstica para la ecuacion


transformada (7.31). En consecuencia, a las races ki de la ecuacion (7.32), de multiplicidad
i , le corresponden las soluciones
eki t , teki t , t2 eki t , . . . , ti 1 eki t .
de la ecuacion transformada, o bien las
xki , xki log(n) , xki log2 (n) , . . . , xki logi 1 (n) ,
de la ecuacion inicial. A las races complejas conjugadas p iq de la ecuacion (7.32) de
multiplicidad le corresponden las soluciones
ept cos qt , tept cos qt , . . . , t1 ept cos qt ,
ept sen qt , tept sen qt , . . . , t1 ept sen qt ,
de la ecuacion trasformada, o las
xp cos(q log x) , xp log x cos(q log x) , . . . , xp logi 1 x cos(q log x) ,
xp sen(q log x) , xp log x sen(q log x) , . . . , xp logi 1 x sen(q log x) ,

184 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


de la ecuacion inicial de Euler.
Ejemplo Consideremos la ecuacion
x2 y 00 xy 0 + y = 0 .
Buscamos la solucion en la forma y = xk ; k(k 1) + k + 1 = 0, o bien (k 1)2 = 0, k1,2 = 1.
Por consiguiente, la solucion general para x > 0 sera
y = (c1 + c2 log x)x .
Las ecuaciones de la forma
a0 (ax + b)n y (n) + a1 (ax + b)n1 y (n1) + . . . + an1 (ax + b)y 0 + an y = 0 ,

(7.33)

se donominan tambien ecuaciones de Euler, y se reducen a la ecuacion (7.28) por medio de la


sustitucion de la variable independiente (ax+b) = x1 . Por lo tanto, las soluciones particulares
de esta ecuacion se pueden buscar en la forma y = (ax + b)k , o transformar la ecuacion (7.33)
a una ecuacion lineal homogenea con coeficientes constantes, mediante la sustitucion de las
variables ax + b = et .

7.5

Ecuaciones lineales no homog


eneas.

La ecuacion lineal no homogenea tiene la forma


a0 (x) y (n) + a1 (x) y (n1) + . . . + an1 (x)y 0 + an (x)y = (x) ,
Si a0 (x) 6= 0 en el intervalo considerado de variacion de x, entonces dividiendo entre a0 (x) se
obtiene
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = f (x) .

(7.34)

Esta ecuacion, conservando las notaciones anteriores, la escribimos en forma compacta:


L[y] = f (x) .
Si para a x b, en la ecuacion (7.34) todos los coeficientes pi y el segundo miembro f (x)
son continuos, entonces ella posee una solucion u
nica que satisface las condiciones
(k)

y (k) (x0 ) = y0 ,

con k = 0, 1, . . . , n 1 ,

(k)

donde y0 son n
umeros reales cualesquiera, y x0 un punto arbitrario del intervalo a x b.
De las dos propiedades fundamentales del operador lineal
L[cy] cL[y] ,
L[y1 + y2 ] L[y1 ] + L[y2 ] ,
donde c es una constante, se deduce directamente que:


7.5. ECUACIONES LINEALES NO HOMOGENEAS.

185

(i) La suma y + y1 de una solucion y de la ecuacion no homogenea


L[y] = f (x)

(7.35)

y de una solucion y1 de la ecuacion homogenea correspondiente L[y] = 0, es solucion de


la ecuacion no homogenea (7.35).
P
(ii) Si yi es solucion de la ecuacion L[y] = fi (x) con i = 1, 2, . . . , m entonces y = m
i=1 i yi
es solucion de la ecuacion
L[y] =

m
X

i fi (x) ,

i=1

donde las i son constantes.


Esta propiedad, denominada principio P
de superposici
on, conserva evidentemente su va
lidez tambien para m , si la serie i=1 i yi converge y puede ser derivada termino
a termino n veces.
(iii) Si la ecuacion L[y] = U (x) + iV (x), donde todos los coeficientes pi (x) y las funciones
U (x) y V (x) son reales, tiene la solucion y = u(x) + iv(x), entonces la parte real u(x)
y la parte imaginaria v(x) son respectivamente soluciones de las ecuaciones
L[y] = U (x) y L[y] = V (x) .
Teorema 7.8 La solucion general en el intervalo a x b de la ecuacion L[y] = f (x) con
coeficientes pi y la funcion del miembro
derecho f (x) continuos en dicho intervalo, es igual
P
a la suma de la solucion general ni=1 ci yi de la ecuacion homogenea correspondiente y de
cualquier solucion particular y de la ecuacion no homogenea.
Ejemplo Consideremos la ecuacion
y 00 + y = x ,
Una solucion particular de esta ecuacion y = x es inmediata; la solucion general de la ecuacion
homogenea correspondiente tiene la forma
y = c1 cos x + c2 sen x .
Por lo tanto, la solucion general de la ecuacion no homogenea inicial es
y = c1 cos x + c2 sen x + x .
Si la eleccion de una solucion particular de la ecuacion no homog
Pnenea es difcil, pero la
solucion general de la ecuacion homogenea correspondiente y =
i=1 ci yi ya fue hallada,
entonces se puede integrar la ecuacion lineal no homogenea por el metodo de variacion de las
constantes.

186 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


AlPaplicar este metodo, la solucion de la ecuacion no homogenea se busca en la forma
y = ni=1 ci (x)yi , o sea que en esencia, en lugar de la funcion incognita y introducimos n
funciones desconocidas ci (x). Puesto que escogiendo las funciones ci (x) con i = 1, 2, . . . , n
hay que satisfacer solamente una ecuacion
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = f (x) ,

(7.34)

se puede exigir que estas n funciones ci (x) satisfagan otras


Pn n 1 ecuaciones, las cuales se
escogen de manera que las derivadas de la funcion y = i=1 ci (x)yi tengan en lo posible la
misma forma que tiene cuando las ci son constantes. Escojamos ci (x) de manera tal que la
segunda suma de
0

y =

n
X

ci (x)yi0 (x)

i=1

n
X

c0i (x)yi (x) ,

i=1

sea igual a cero,


n
X

c0i (x)yi (x) = 0

n
X

i=1

y, por lo tanto,
y =

ci (x)yi0 (x) ,

i=1

es decir, que y 0 tiene la misma forma que cuando las ci son constantes. De la misma manera,
en la derivada segunda
y 00 =

n
X

ci (x)yi00 (x) +

i=1

n
X

c0i (x)yi0 (x) ,

i=1

exigimos que la segunda suma sea igual a cero, con lo cual se somete ci (x) a la segunda
condicion
n
X

c0i (x)yi0 (x) = 0 .

i=1

P
Continuamos calculando las derivadas de la funcion y = ni=1 ci (x)yi hasta el orden n 1
P
(k)
inclusive, e igualando cada vez a cero la suma ni=1 c0i (x)yi (x):
n
X
i=1

(k)

c0i (x)yi (x) = 0

para k = 0, 1, 2, . . . , n 2 ,

(7.36)


7.5. ECUACIONES LINEALES NO HOMOGENEAS.

187

obtenemos
y=
y0 =

n
X
i=1
n
X

ci (x)yi ,
ci (x)yi0 (x) ,

i=1

y 00 =

n
X

ci (x)yi00 (x) ,

n
X

ci (x)yi

(7.37)

i=1

..
.
y

(n1)

y (n) =

i=1
n
X

(n1)

(x) ,

(n)

ci (x)yi (x) +

i=1

n
X

(n1)

c0i (x)yi

(x) .

i=1

P
(n1)
(x) = 0, puesto que las funciones
En la u
ltima igualdad no podemos exigir que ni=1 c0i (x)yi
ci (x) ya estan sometidas a las n 1 condiciones (7.36), y hay a
un que satisfacer la ecuacion
0
(n)
inicial (7.34). Sustituyendo y, y , . . . ,y de (7.37) en la ecuacion
y (n) + p1 (x)y (n1) + . . . + pn1 (x)y 0 + pn (x)y = f (x) ,

(7.34)

se obtiene la ecuacion que falta para la determinacion de ci (x) con i = 1, 2, . . . , n. Es evidente


P
(n1)
(x), ya que todos los
que en el primer miembro de (7.34) queda solo la suma ni=1 c0i (x)yi
terminos restantes tienen la misma
P forma que cuando las ci son constantes, y cuando estas
son constantes, la funcion y = ni=1 ci (x)yi satisface la ecuacion homogenea correspondiente.
De esta manera, las funciones ci (x) con i = 1, 2, . . . , n se determinan del sistema de n
ecuaciones lineales
n
X

c0i (x)yi = 0 ,

n
X

c0i (x)yi0 = 0 ,

i=1

i=1
n
X

c0i (x)yi00 = 0 ,

i=1

..
.
n
X

i=1
n
X
i=1

(n2)

=0,

(n1)

= f (x) .

c0i (x)yi

c0i (x)yi

(7.38)

188 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


cuyo determinante es diferente de cero, debido

y1
y2
0
y1
y20

..
..
.
.
(n2) (n2)
y 1
(n1) y2(n1)
y
y2
1

a que este
...
...
...
...







,
(n2)

yn

(n1)
yn
yn
yn0
..
.

es el wronskiano de las soluciones linealmente independientes de la ecuacion homogenea


correspondiente. Al determinar de (7.38) todas las ci (x) = i (x) por cuadraturas, hallamos
Z
ci (x) = i (x0 ) dx0 + ci .
Ejemplo Consideremos la ecuacion
y 00 + y =

1
.
cos x

La solucion general de la ecuacion homogenea correspondiente es y = c1 cos(x) + c2 sen x.


Variemos c1 y c2 :
y = c1 (x) cos x + c2 (x) sen x .
c1 (x) y c2 (x) se determinan del sistema (7.38):
c01 (x) cos x + c02 (x) sen x = 0 ,
1
c01 (x) sen x + c02 (x) cos x =
,
cos x
de donde
c01 (x) =

sen x
,
cos x

c1 (x) = log | cos x | + c1 ;

c2 (x) = 1 ,

c2 (x) = x + c2 .

La solucion general de la ecuacion inicial es:


y = c1 cos x + c2 sen x + cos x log | cos x | + x sen x .
De este modo, si se conocen n soluciones particulares linealmente independientes de la
ecuacion homogenea correspondiente, se puede, por el metodo de variacion de constantes,
integrar la ecuacion no homogenea
L[y] = f (x) .
Si se conoce, en cambio, solamente k (donde k < n) soluciones linealmente independientes y1 ,
y2 , . . . ,yk de la ecuacion homogenea correspondiente, entoces, como ya fue se
nalado, el cambio


7.5. ECUACIONES LINEALES NO HOMOGENEAS.

189

de variables permite reducir su orden hasta n k, conservando su linealidad. Observese que


si k = n 1, el orden de la ecuacion se reduce a 1, y la ecuacion lineal de primer orden
siempre se puede integrar en cuadraturas.
Analogamente se pueden utilizar k soluciones de la ecuacion no homogenea y1 , y2 , . . . ,
yk ,
puesto que sus diferencias son ya soluciones de la ecuacion homogenea correspondiente. En
efecto,
L[
yj ] f (x) ,

L[
yp ] f (x) ;

por lo tanto,
L[
yj yp ] L[
yj ] L[
yp ] f (x) f (x) 0 .
Si las soluciones particulares de la ecuacion homogenea correspondiente
(
y1 yk ) , (
y2 yk ) , . . . , (
yk1 yk ) ,

(7.39)

son linealmente independientes, entonces el orden de la ecuacion L[y] = f (x) puede ser
reducido hasta n (k 1). Es evidente que las otras diferencias yj yk son combinaciones
lineales de las soluciones (7.39):
yj yp = (
yj yk ) (
yp yk ) ,
y, por consiguiente, no pueden ser utilizadas para la reduccion ulterior del orden.
Se
nalemos otro metodo, el metodo de Cauchy, para hallar la solucion particular de la
ecuacion lineal no homogenea
L[y(x)] = f (x) .

(7.40)

En este metodo se supone conocida la solucion K(x, s), que depende de un parametro, de la
ecuacion homogenea correspondiente L[y(x)] = 0, y que satisface las condiciones
K(s, s) = K 0 (s, s) = . . . = K (n2) (s, s) = 0

(7.41)

K (n1) (s, s) = 1 .

(7.42)

No es difcil comprobar que en este caso


Z
y(x) =

K(x, s)f (s) ds ,

(7.43)

x0

sera solucion particular de la ecuacion (7.40), que satisface las condiciones iniciales nulas
y(x0 ) = y 0 (x0 ) = . . . = y (n1) (x0 ) = 0 .

190 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


En efecto, derivando2 (7.43) y teniendo en cuenta las condiciones (7.41) y (7.42), se obtiene
Z x
0
y (x) =
Kx0 (x, s)f (s) ds ,
Zx0x
y 00 (x) =
Kx00 (x, s)f (s) ds ,
x0

..
.

(7.44)

y (n1) (x) =
y (n) (x) =

Zx0x

Kx(n1) (x, s)f (s) ds ,


Kx(n) (x, s)f (s) ds + f (x) .

x0

El subndice x en la funcion K indican que las derivadas son tomadas respecto a esa variable.
Sustituyendo (7.43) y (7.44) en la ecuacion (7.40), obtenemos
Z x
L[K(x, s)]f (s) ds + f (x) f (x) ,
x0

y puesto que K(x, s) es solucion de la ecuacion homogenea


R x correspondiente tenemos que
L[K(x, s)] 0 lo cual demuestra que la funcion y(x) = x0 K(x, s)f (s) ds es solucion de
L[y(x)] = f (x).
P
La solucion K(x, s) puede ser tomada de la solucion general y = ni=1 ci yi de la ecuacion homogenea, si se escogen las constantes arbitrarias ci de manera que se cumplan las
condiciones (7.41) y (7.42).
Ejemplo Para la ecuacion
y 00 + 2 y = f (x) ,

(7.45)

la solucion general es y = c1 cos ax + c2 sen ax. Las condiciones (7.41) y (7.42) conducen a
las siguientes ecuaciones:
c1 cos as + c2 sen as = 0 ,
ac1 sen as + ac2 cos as = 1 .
Por lo tanto,
c1 =

sen as
,
a

c2 =

cos as
,
a

y la solucion buscada K(x, s) tiene la forma


K(x, s) =
2

1
sen a(x s) .
a

Debemos de considerar la regla de diferencianci


on de integrales:
"Z
# Z
2 (x)
2 (x)
d
F (x, s)
d1
d2
F (x, s) ds =
ds + F (1 (x), x)
F (2 (x), x)
.
dx 1 (x)
x
dx
dx
1 (x)


7.5. ECUACIONES LINEALES NO HOMOGENEAS.

191

La solucion de la ecuacion (7.45) que satisface las condiciones iniciales nulas, seg
un (7.43) se
puede representar en la forma
Z
1 x
y(x) =
sen a(x0 s)f (s) ds .
a x0
Se puede dar una interpretacion fsica a la funcion K(x, s) y a la solucion de la ecuacion
lineal con segundo miembro en la forma (7.43). Aqu sera mas comodo designar la variable
independiente por la letra t.
En muchos problemas, la solucion y(t) de la ecuacion
y (n) + p1 (t)y (n1) + . . . + pn (t)y = f (t) ,

(7.46)

describe el desplazamiento de cierto sistema, y la funcion f (t) es la fuerza que act


ua en este
sistema; t es el tiempo.
Supongamos primeramente que, para t < s, el sistema se encuentra en estado de reposo, y
que su desplazamiento se efect
ua debido a la fuerza f (t), diferente de cero solo en el intervalo
s < t < s + , y cuyo impulso es igual a 1:
Z s+
f ( ) d = 1 .
(7.47)
s

Designemos por y (t) la solucion de la ecuacion


y (n) + p1 (t)y (n1) + . . . + pn (t)y = f (t) .
Se comprueba facilmente la existencia del lmite y (t) cuando 0, el cual no depende de
la funcion f (t), si suponemos que esta no cambia su signo. En efecto,
Z t
K(t, s)f (s) ds .
y (x) =
t0

Aplicando el teorema del valor medio para t > s + , obtenemos


Z s+

y (x) = K(t, s + )
f ( ) d = K(t, s + ) ,
s

donde 0 < ; por lo tanto,


lim y (t) = K(t, s) .

Por ello, es natural llamar a la funcion K(t, s) funcion de influencia del impulso instantaneo
en el momento t = s. Tambien se le conoce como la funci
on de Green del sistema.
Dividiendo el intervalo (t0 , t) mediante los puntos si con i = 0, 1, 2, . . . , m en m partes
iguales de longitud s = (t t0 )/m, representamos la funcion f (t) en (7.46) como una suma
de las funciones fi (t), donde fi (t) es diferente de cero solo en el i-esimo intervalo si1 < t < si .
En este, fi (t) coincide con la funcion f (t):
f (t) =

m
X
i=1

fi (t) .

192 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


Debido al principio de superposicion, la solucion de la ecuacion (7.46) tiene la forma
y(t) =

m
X

yi (t) ,

i=1

donde yi son soluciones de la ecuacion


y (n) + p1 (t)y (n1) + . . . + pn (t)y = fi (t) ,
con condiciones iniciales nulas. Si m es suficientemente grande, la solucion yi (t) se puede
considerar como funcion de influencia del impulso instantaneo de intensidad fi (si )s. Por
consiguiente,
y(t)

m
X

K(t, si )f (si )s .

i=1

Pasando al lmite cuando m , se obtiene la solucion de la ecuacion (7.46) con condiciones


iniciales nulas, en la forma
Z t
y(t) =
K(t, s)f (s) ds ,
t0

la cual demuestra que la influencia de la fuerza de accion continua se puede considerar como
superposicion de las influencias de impulsos separados.

7.6

Ecuaciones lineales no homog


eneas con coeficientes
constantes y ecuaci
on de Euler.

Al resolver ecuaciones lineales no homogeneas con coeficientes constantes, en muchos casos


es posible escoger una solucion particular sin dificultad, reduciendo as el problema a la
integracion de la ecuacion homogenea correspondiente.
Supongamos, por ejemplo, que el segundo miembro es un polinomio de grado s y que ,
por lo tanto, la ecuacion tiene la forma
a0 y (n) + a1 y (n1) + . . . + an1 y 0 + an y = A0 xs + A1 xs1 + . . . + As ,

(7.48)

donde todas las aj y las Ai son constantes.


Si an 6= 0, entonces existe una solucion particular de la ecuacion (7.48) que tiene tambien
la forma de polinomio de grado s. En efecto, sustituyendo
y = B0 xs + B1 xs1 + . . . + Bs ,
en la ecuacion (7.48) y comparando coeficientes de iguales potencias de x en ambos miembros,
se obtiene un sistema de ecuaciones lineales para la determinacion de los coeficientes Bi , que
es siempre resoluble si an 6= 0:
an Bo = A0 ,

B0 =

A0
,
an

7.6. ECUACIONES LINEALES NO HOMOGENEAS CON . . .

193

an B1 + san1 B0 = A1 ,
de donde se determina B1
an B2 + (s 1)an1 B1 + s(s 1)an2 B0 = A2 ,
de donde se determina B2 , y seguimos as hasta
an Bs + . . . = As ,
de donde se determina Bs .
De esta manera, si an 6= 0 existe una solucion particular que tiene la forma de polinomio
cuyo grado es igual al grado del polinomio del segundo miembro.
Supongamos ahora que el coeficiente an = 0 y, para mayor generalidad, esciogemos que
tambien an1 = an2 = . . . = an+1 = 0, pero an 6= 0, o sea, que k = 0 es raz de
multiplicidad de la ecuacion caracterstica; ademas, el caso = 1 no se excluye. Entonces,
la ecuacion (7.48) toma la forma
a0 y (n) + a1 y (n1) + . . . + an y () = A0 xs + A1 xs1 + . . . + As .

(7.49)

Haciendo y () = z, llegamos al caso anterior y, en consecuencia, hay una solucion particular


de la ecuacion (7.49), para la cual
y () = B0 xs + B1 xs1 + . . . + Bs .
Esto significa que y es un polinomio de grado s + ; ademas , los terminos de grado menor o
igual a 1 de dicho polinomio tendran coeficientes constantes arbitrarios, que pueden ser,
en particular, escogidos iguales a cero. Entonces, la solucion particular de la forma:

y = x B0 xs + B1 xs1 + . . . + Bs .
Ejemplo Consideremos la ecuacion
y 00 + y = x2 + x .

(7.50)

La solucion particular tiene la forma


y = B0 x2 + B1 x + B2 .
Sustituyendo en la ecuacion (7.50) e igualando los coeficientes de los terminos de igual grado
respecto a x, obtenemos
B0 = 1 ,

B1 = 1 ,

B2 = 2 ,

y = x2 + x 2 .

La solucion general es
y = c1 cos x + c2 sen x + x2 + x 2 .

194 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


Consideremos ahora la ecuacion lineal no homogenea de la forma

a0 y (n) + a1 y (n1) + . . . + an y = epx A0 xs + A1 xs1 + . . . + As ,

(7.51)

donde todas las aj las Ai son constantes. Como fue indicado anteriormente, el cambio de
variables y = epx z reduce la ecuacion (7.51) a la forma



epx b0 z n + b1 z n1 + . . . + bn z = epx A0 xs + A1 xs1 + . . . + As ,
o bien
b0 z n + b1 z n1 + . . . + bn z = A0 xs + A1 xs1 + . . . + As ,

(7.52)

donde todas las bi son constantes.


La solucion particular de la ecuacion (7.52), si bn 6= 0 tiene la forma

z = B0 xs + B1 xs1 + . . . + Bs ;
por lo tanto, la solucion particular de la ecuacion (7.51) sera

y = epx B0 xs + B1 xs1 + . . . + Bs .
La condicion bn 6= 0 significa que k = 0 no es raz de la ecuacion caracterstica
b0 kn + b1 kn1 + . . . + bn = 0 .

(7.53)

Por consiguiente, k = p no es raz de la ecuacion caracterstica


a0 k n + a1 k n1 + . . . + an = 0 ,

(7.54)

puesto que las races de estas ecuaciones estan ligadas por la dependencia k = k + p.
en cambio, es raz de multiplicidad de la ecuacion caracterstica (7.53) o, en otras
Si k,
palabras, k = p es raz de la misma multiplicidad de la ecuacion caracterstica (7.54),
entonces las soluciones particulares de las ecuaciones (7.52) y (7.51) tienen respectivamente
las formas

z = x B0 xs + B1 xs1 + . . . + Bs ,

y = x epx B0 xs + B1 xs1 + . . . + Bs .
De esta manera, si el segundo miembro de la ecuacion diferencial lineal con coeficientes
constantes tiene la forma

epx A0 xs + A1 xs1 + . . . + As ,
y si p no es raz de la ecuacion caracterstica, la solucion particular debe buscarse en la misma
forma

y = epx B0 xs + B1 xs1 + . . . + Bs .

7.6. ECUACIONES LINEALES NO HOMOGENEAS CON . . .

195

Si, en cambio, p es raz de multiplicidad de la ecuacion caracterstica (este caso se denomina


singular o resonante), la solucion particular debe ser buscada en la forma

y = x epx B0 xs + B1 xs1 + . . . + Bs .
Ejemplo Consideremos la ecuacion
y 00 y = e3x (x 2) .
La solucion particular debe ser buscada en la forma
y = xe3x (B0 x+ B1 ) .

Observese que nuestros razonamientos son validos tambien si las p son complejas; por eso,
si el segundo miembro de la ecuacion diferencial lineal tiene la forma
epx [Ps (x) cos qx + Qs (x) sen qx] ,

(7.55)

donde uno de los dos polinomios Ps (x) o Qs (x) tiene grado s y el otro, no mayor que s,
entonces reduciendo seg
un las formulas de Euler las funciones trigonometricas a la forma
exponencial, obtenemos en el segundo miembro
e(p+iq)x Rs (x) + e(piq)x Ts (x) ,

(7.56)

donde Rs y Ts son polinomios de grado s.


A cada sumando del segundo miembro se le puede aplicar la regla anteriormente indicada,
es decir, si p iq no son races de la ecuacion caracterstica, la solucion particular se puede
buscar en la misma forma que el segundo miembro (7.56); si, en cambio, p iq son races de
multiplicidad de la ecuacion caracterstica, la solucion particular debe multiplicarse ademas
por x .
Si volvemos a las funciones trigonometricas, esta regla se puede formular as:
a) Si p iq no son races de la ecuacion caracterstica, la solucion particular debe buscarse
en la forma
h
i
s (x) sen(qx) ,
y = epx Ps (x) cos(qx) + Q
s (x) son polinomios de grado s con coeficientes indeterminados.
donde Ps (x) y Q
Observese que si uno de los polinomios de grado Ps (x) o Qs (x) tienen un grado menor
que s, e incluso, en particular, es identicamente nulo, de todos modos ambos polinomios
s (x) tendran, en general, grado s.
Ps (x) y Q
b) Si p iq son raices de multiplicidad de la ecuacion caracterstica, la solucion particular
debe ser buscada en la forma
h
i
s (x) sen(qx) ,
y = x epx Ps (x) cos(qx) + Q

196 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


Ejemplo Consideremos la ecuacion
y 00 + 4y 0 + 4y = cos(2x) .
Como los n
umeros 2i no son races de la ecuacion caracterstica, buscamos la solucion
particular en la forma
y = A cos 2x + B sin 2x .

Ejemplo Consideremos la ecuacion


y 00 + 4y = cos(2x) .
Como los n
umeros 2i son races simples de la ecuacion caracterstica, buscamos la solucion
particular en la forma
y = x [A cos 2x + B sen 2x] .

Ejemplo Consideremos la ecuacion


y 0000 + 2y 00 + y = sen(x) .
Puesto que los n
umeros i son races dobles de al ecuacion caracterstica, la solucion particular se busca en la forma
y = x2 [A cos x + B sen x] .

Ejemplo Consideremos la ecuacion


y 00 + 2y 00 + 2y = ex (x cos x + 3 sen x) .
Debido a que los n
umeros 1 i son races simples de la ecuacion caracterstica, la solucion
particular debe buscarse en la forma
y = xex [(A0 x + A1 ) cos x + (B0 x + B1 ) sen x] .
En muchos casos, al buscar soluciones particulares de ecuaciones lineales con coeficientes
constantes con segundos miembros de la forma (7.55), es conveniente pasar a las funciones
exponenciales.
Por ejemplo, en la ecuacion
y 00 2y 0 + y = cos x ,

DE LAS ECUACIONES DIFERENCIALES POR MEDIO DE SERIES.197


7.7. INTEGRACION
se puede trasformar cos x por la formula de Euler, o a
un de modo mas sencillo, considerar la
ecuacion
y 00 2y 0 + y = eix ,

(7.57)

la parte real de cuya solucion debe satisfacer la ecuacion original.


La solucion particular de la ecuacion (7.57) se puede buscar en la forma
y = Aeix .
Entonces
A=

i
i
, y = (cos x + i sen x) .
2
2

La solucion particular de la ecuacion original es


1
y1 = Re y = sen x .
2

7.7

Integraci
on de las ecuaciones diferenciales por medio de series.

El problema de la integracion de ecuaciones lineales homogeneas de n-esimo orden


p0 (x)y (n) + p1 (x)y (n1) + . . . + pn (x)y = 0 ,

(7.58)

se reduce a elegir n, o por lo menos n 1 soluciones linealmente independientes. Sin embargo, las soluciones particulares se escogen con facilidad solo en casos excepcionales. En
casos
as complejos las soluciones particulares son buscadas en forma de suma de una sePm

rie
i=1 ai i (x), sobre todo en forma de suma de una serie de potencias o de una serie
generalizada de potencias.
Las condiciones bajo las cuales existen soluciones en forma de suma de una serie de
potencia o de una serie generalizada de potencias, se establecen com
unmente por metodos de
la teora de funciones de variables complejas, la cual suponemos desconocida por el lector. Los
teoremas fundamentales se daran sin demostracion y aplicados a las ecuaciones de segundo
orden, las cuales se encuentran con mayor frecuencia en la practica.
Teorema 7.9 Sobre la propiedad analtica de la soluci
on
Si p0 , p1 (x) y p2 (x) son funciones analticas de x en un entorno del punto x = x0 y p0 (x0 ) 6= 0,
entonces las soluciones de la ecuacion
p0 (x)y 00 + p1 (x)y 0 + p2 (x)y = 0

(7.59)

son tambien funciones analticas en cierto entorno del mismo punto; por lo tanto, la solucion
de la ecuacion (7.59) se puede buscar de la forma
y = a0 + a1 (x x0 ) + a2 (x x0 )2 + . . . + an (x xn )n + . . . .

198 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.


Teorema 7.10 Sobre el desarrollo de la soluci
on en una serie generalizada de
potencias.
Si la ecuacion (7.59) satisface las condiciones del teorema anterior, pero x = x0 es un cero de
orden finito s de la funcion p0 (x), cero de orden s 1 o superior de la funcion p1 (x) (s > 1)
y cero de orden no inferior s 2 del coeficinete p2 (x) (si s > 2), entonces existe por lo menos
una solucion no trivial de la ecuacion (7.59) en forma de suma de una serie generalizada de
potencias
y = a0 (x x0 )k + a1 (x x0 )k+1 + a2 (x x0 )k+2 + . . . + an (x xn )k+n + . . . .

(7.60)

donde k es un n
umero real que puede ser entero y fraccionario, positivo o negativo.
La segunda solucion linealmente independiente de (7.60) por regla general, tiene tambien
la forma de suma de una serie generalizada de potencias, pero a veces puede contener ademas
el producto de una serie generalizada de potencia por log(x x0 ).
En problemas concretos se puede proceder sin los dos teoremas formulados mas arriba,
sobre todo porque en el enunciado de estos no se establecen las regiones de convergencia de
las series consideradas. Com mayor frecuencia en problemas concretos se escoge una serie
de potencias o una serie generalizada de potencias que satisfaga formalmente la ecuacion
diferencial, o sea, que al sustiturla en la ecuacion considerada de orden n (7.58) la transforme
en una identidad, si suponemos la convergencia de la serie y la posibilidad de su derivacion
termino a termino n veces. Al obtener formalmente la solucion en forma de serie, se investiga
su convergencia y la posibilidad de su derivacion termino a termino n veces. En la region
donde la serie converge y permite su derivacion termino a termino n veces, la misma no
solamente satisface formalmente la ecuacion, sino que su suma es en realidad la solucion
buscada.
Ejemplo Consideremos la ecuacion
y 00 xy = 0 .

(7.61)

Busquemos la solucion en forma de una serie de potencias


y=

an x n .

n=0

Basandonos en los teorema anteriores, o derivando esta serie formalmente termino a termino
dos veces y sustituyendo en la ecuacion (7.61), obtenemos

an n(n 1)x

n2

n=0

an x n 0 .

n=0

Igualando los coeficientes de iguales potencias de x en ambos miembros de la identidad,


obtenemos a2 = 0, 3 2a3 a0 = 0, de donde a3 = a0 /(2 3); 4 3a4 a1 = 0, de donde
a4 = a1 /(3 4); 5 4a5 a2 = 0, de donde a5 = a2 /(4 5) , . . . , n(n 1)an an3 = 0, de
donde an = an3 /(n 1)n, . . . . Por consiguiente,
a3n1 = 0 ,

a3n =

a0
,
2 3 5 6 . . . (3n 1)3n

DE LAS ECUACIONES DIFERENCIALES POR MEDIO DE SERIES.199


7.7. INTEGRACION
a3n+1 =

a1
,
3 4 6 7 . . . 3n(3n + 1)

con n = 1, 2, 3, . . . ,

a0 y a1 permanecen arbitrarios. De esta manera,




x3
x6
x3n
y = a0 1 +
+
+ ... +
+ ... +
23 2356
2 3 5 6 . . . (3n 1)3n


x4
x7
x3n+1
+ a1 x +
+
+ ... +
+ ... .
34 3467
3 4 6 7 . . . 3n(3n + 1)

(7.62)

El radio de convergencia de esta serie de potencias es infinito. Por consiguiente, la suma de


la serie (7.62) para valores cualesquiera de x es solucion de la ecuacion considerada.

200 CAPITULO 7. ECUACIONES DIFERENCIALES DE ORDEN MAYOR QUE UNO.

Captulo 8
Sistemas de ecuaciones diferenciales.
versi
on 1.1-0110021

8.1

Conceptos generales.

La ecuacion de movimiento de una partcula de masa m bajo la accion de la fuerza F~ (t, ~r, ~r ),
es
m

d2~r
= F~ (t, ~r, ~r ) ;
dt2

proyectando sobre los ejes de coordenadas, esta puede ser sustituida por un sistema de tres
ecuaciones escalares de segundo orden:
d2 x
m 2 = Fx (t, x, y, z, x,
y,
z)
,
dt
d2 y
m 2 = Fy (t, x, y, z, x,
y,
z)
,
dt
d2 z
m 2 = Fz (t, x, y, z, x,
y,
z)
,
dt
o por un sistema de seis ecuaciones de primer orden, si consideramos como funciones desconocida no solo las coordenadas x, y, z de la partcula, sino tambien las proyecciones x,
y,
z
de su velocidad
x = u ,
y = v ,
z = w ;
mu = Fx (t, x, y, z, u, v, w) ,
mv = Fy (t, x, y, z, u, v, w) ,
mw = Fz (t, x, y, z, u, v, w) .
En este caso, por lo general, se dan la posicion inicial del punto x(t0 ) = x0 , y(t0 ) = y0 ,
z(t0 ) = z0 , y la velocidad inicial u(t0 ) = u0 , v(t0 ) = v0 , w(t0 ) = w0 .
1

Este captulo est


a basado en el tercer captulo del libro: Ecuaciones diferenciales y c
alculo variacional
de L. Elsgoltz, editorial MIR

201

202

CAPITULO 8. SISTEMAS DE ECUACIONES DIFERENCIALES.

Se puede demostrar un teorema sobre existencia y unicidad de la solucion del sistema de


ecuaciones diferenciales
dx1
= f1 (t, x1 , x2 , . . . , xn ) ,
dt
dx2
= f2 (t, x1 , x2 , . . . , xn ) ,
dt
..
.

(8.1)

dxn
= fn (t, x1 , x2 , . . . , xn ) ,
dt
que satisfacen las condiciones iniciales
xi (t0 ) = xi0 ,

(i = 1, 2, . . . , n) .

(8.2)

Enumeremos las condiciones suficientes para la existencia y unicidad de la solucion del sistema
(8.1) con las condiciones iniciales (8.2):
i) Continuidad de todas las funciones fi en un entorno de las condiciones iniciales.
ii) Cumplimiento de la condicion de Lipschitz para todas las funciones fi en todos sus
argumentos, a partir del segundo, en dicho entorno.
La segunda condicion se puede cambiar por una mas grosera: la existencia de las derivadas
parciales
fi
,
xj

(i = 1, 2, . . . , n) ,

acotadas en valor absoluto.


La solucion x1 (t), x2 (t), . . . , xn (t) del sistema de ecuaciones diferenciales es una funcion
vectorial n-dimensional, que denotaremos abreviadamente por X(t). Con esta notacion, el
sistema (8.1) se puede escribir en la forma
dX
= F (t, X) ,
dt
donde F es una funcion vectorial con coordenadas (f1 , f2 , . . . , fn ) y las condiciones iniciales, en la forma X(t0 ) = X0 , donde X0 es un vector de n-dimensiones, con coordenadas
(x10 , x20 , . . . , xn0 ). La solucion
x1 = x1 (t) ,

x2 = x2 (t) ,

...

xn = xn (t) ,

o, mas compactamente, X = X(t), del sistema de ecuaciones, determina en el espacio euclidiano de coordenadas t, x1 , x2 , . . . ,xn , cierta curva llamada curva integral. Cuando se
cumplen las condiciones i) y ii) del teorema de existencia y unicidad, por cada punto de dicho
espacio pasa una sola curva integral, y el conjunto de estas forma una familia dependiente de
n parametros. Como parametros de esta familia se pueden tomar, por ejemplo, los valores
iniciales x10 , x20 , . . . ,xn0 .

8.1. CONCEPTOS GENERALES.

203

Se puede dar otra interpretacion de las soluciones


x1 = x1 (t) ,

x2 = x2 (t) ,

. . . , xn = xn (t) ,

o, en la forma mas compacta, X = X(t), que es particularmente comoda si los segundos


miembros del sistema (8.1) no dependen explcitamente del tiempo.
En el espacio euclidiano con coordenadas x1 , x2 , . . . ,xn , la solucion x1 = x1 (t), x2 = x2 (t),
. . . , xn = xn (t) determina la ley de movimiento por cierta trayectoria seg
un la variacion del
parametro t, el cual en esta interpretacion se considera como el tiempo. As, la derivada
dX/dt sera la velocidad del movimiento de la partcula, y dx1 /dt, dx2 /dt, . . . , dxn /dt, las
coordenadas de la velocidad en ese punto. En esta interpretacion, muy natural y comoda en
ciertos problemas fsicos y mecanicos, el sistema
dxi
= fi (t, x1 , x2 , . . . , xn ) ,
dt

(i = 1, 2, . . . , n) ,

(8.1)

o bien
dX
= F (t, X) ,
dt
se llama generalmente dinamicos; el espacio de coordenadas x1 , x2 , . . . ,xn , espacio de fase,
y la curva X = X(t), trayectoria de fases.
El sistema dinamico (8.1) determina en un momento dado t en el espacio x1 , x2 , . . . ,xn
un campo de velocidades. Si la funcion vectorial F depende explcitamente de t, entonces el
campo de velocidades cambia con el tiempo, y las trayectorias de fases pueden intersectarse. Si
la funcion vectorial F o, lo que es lo mismo, todas las funciones fi no dependen explcitamente
de t, el campo de velocidades es estacionario, es decir, no cambia en el tiempo, y el movimiento
sera permanente.
En este u
ltimo caso, si las condiciones del teorema de existencia y unicidad se cumplen,
por cada punto del espacio de fase (x1 , x2 , . . . , xn ) pasara una sola trayectoria. En efecto,
en este caso por cada trayectoria X = X(t) se realizan infinitos movimiento diferentes entre
X = X(t + c), donde c es una constante arbitraria. Es facil comprobar esto realizando la
sustitucion de variables t1 = t + c, con lo cual el sistema dinamico no cambia su forma:
dX
= F (X) ,
dt1
Por consiguiente, X = X(t) sera su solucion que, expresada en las variables anteriores, sera
X = X(t + c).
Si por un punto X0 del espacio de fase, en el caso considerado, pasaran dos trayectorias
X = X1 (t) y X = X2 (t) ,

X1 (t0 ) = X2 (t0 ) = X0 ,

entonces, tomando en cada una de ellas el movimiento para el cual el punto X0 se alcanza en
el momento t = t0 , o sea, considerando las soluciones
X = X1 (t t0 + t0 ) y X = X2 (t t0 + t0 ) ,
se obtendra una contradiccion con el teorema de existencia y unicidad, puesto que las dos
soluciones diferentes X1 (t t0 + t0 ) y X2 (t t0 + t0 ) satisfaran a la misma condicion inicial
X(t0 ) = X0 .

204

8.2

CAPITULO 8. SISTEMAS DE ECUACIONES DIFERENCIALES.

Integraci
on de un sistema de ecuaciones diferenciales por reducci
on a una sola ecuaci
on de mayor
orden.

Uno de los metodos fundamentales de integracion de sistemas de ecuaciones diferenciales


consiste en lo siguiente: de las ecuaciones del sistema (8.1) y de las ecuaciones obtenidas
derivando estas, se excluyen todas las funciones desconocidas, excepto una, para cuya determinacion se obtiene una ecuacion diferencial de orden mayor. Integrando dicha ecuacion, se
halla una de las funciones desconocidas. Las funciones desconocidas restantes se determinan,
en lo posible sin integracion partiendo de las ecuaciones originales y de las obtenidas por
derivacion. Veamos algunos ejemplos:
Ejemplo Consideremos el sistema de ecuaciones
dx
=y ,
dt

dy
=x.
dt

Derivemos una de las ecuaciones, por ejemplo, la primera,

d2 x
dy
dy
= ; eliminando
mediante
2
dt
dt
dt

d2 x
la segunda ecuacion, se obtiene 2 x = 0, de donde x = c1 et + c2 et . Utilizando la primera
dt
dx
= c1 et c2 et .
ecuacion, obtenemos y =
dt
Hemos determinado y sin integrar, mediante la primera ecuacion. Si hubieramos determinado y de la segunda ecuacion,
dy
= x = c1 et + c2 et ,
dt

y = c1 et c2 et + c3 ,

entonces habramos introducido soluciones superfluas, puesto que la sustitucion directa en el


sistema original muestra que las funciones x = c1 et + c2 et e y = c1 et c2 et + c3 satisfacen
al sistema no para c3 cualesquiera sino para c3 = 0.
Ejemplo Consideremos el sistema de ecuaciones
dx
= 3x 2y ,
dt
dy
= 2x y .
dt

(8.3a)
(8.3b)

Derivemos la segunda ecuacion:


d2 y
dx
=
2
dydt .
dt2
dt
dx
:
dt


1 dy
+y ,
x=
2 dt

(8.4)

De las ecuaciones (8.3b) y (8.4) se determina x y

(8.5)

8.3. SISTEMA DE ECUACIONES DIFERENCIALES LINEALES.


dx
1
=
dt
2

d2 y dy
+
dt2
dt

205

Sustituyendo en (8.3a), obtenemos


dy
d2 y

2
+y =0 .
dt2
dt
Integrando la ecuacion lineal homogenea con coeficientes constantes y = et (c1 + c2 t) y sustituyendo en (8.5) se halla x(t):
1
x = et (2c1 + c2 + 2c2 t) .
2
Si aplicamos el proceso de eliminacion de funciones desconocidas al sistema
n

dxi X
=
aij (t)xj ,
dt
j=1

(i = 1, 2, . . . , n) ,

llamado lineal homogeneo, entonces, como es facil comprobar, la ecuacion de n-esimo orden


dx1
dn1 x1
dn x1
= t, x1 ,
, . . . , n1
,
(8.6)
dtn
dt
dt
tambien sera lineal homogenea. Ademas, si todos los coeficientes aij son constantes, la
ecuacion (8.6) sera tambien lineal homogenea con coeficientes constantes. Una observacion
analoga se cumple tambien para el sistema lineal no homogeneo
n

dxi X
=
aij (t)xj + fi (t) ,
dt
j=1

(i = 1, 2, . . . , n) ,

para el cual la ecuacion (8.6) sera una ecuacion lineal no homogenea de n-esimo orden.

8.3

Sistema de ecuaciones diferenciales lineales.

Un sistema de ecuaciones diferenciales se llama lineal, si es lineal respecto a todas las funciones
desconocidad y a sus derivadas. El sistema de n ecuaciones lineales de primer orden, escrito
en la forma normal, es
n

dxi X
=
aij (t)xj + fi (t) ,
dt
j=1

(i = 1, 2, . . . , n) ,

(8.7)

o, en forma vectorial,
dX
= AX + F ,
dt

(8.8)

206

CAPITULO 8. SISTEMAS DE ECUACIONES DIFERENCIALES.

donde X es un vector n-dimensional de coordenadas x1 (t), x2 (t), . . . , xn (t); F es un vector ndimensional de coordenadas f1 (t), f2 (t), . . . ,fn (t). Es conveniente en lo sucesivo representar
dichos vectores como matrices de una columna:


x1
f1
x2
f2


X = .. , F = .. ,
.
.
xn
fn
dx
1

a11 a12
a21 a22

A = ..
..
.
.
an1 an2

...
...
...
...

a1n
a2n

.. ,
.

ann

dt

dx2
dX

= dt .
..
dt
.

dxn
dt

Seg
un la regla del producto de matrices, las filas del primer factor deben multiplicarse por la
columna del segundo: por tanto,
n

X
X
a1j xj
a1j xj + f1

j=1

j=1

n
X

a
x
a
x
+
f

2j j
2
2j j

.
AX = j=1
, AX + F = j=1

..
..

.
.
n

anj xj
anj xj + fn
j=1

j=1

La igualdad de matrices significa la igualdad de todos sus elementos, por lo cual una sola
ecuacion matricial (8.8). o bien
n

a1j xj + f1
dx1

j=1

dt n
X

dx
a
x
+
f
2
2j j
2


.
dt = j=1

..
..

.
.

n
dxn
X

anj xj + fn
dt
j=1

es equivalente al sistema (8.7).


Si todas las funciones aij (t) y fi (t) en (8.7) son continuas en el intervalo a t b, entoces
en un entorno suficientemente peque
no de cada punto (t0 , x10 , x20 , . . . , xn0 ), donde a t0 b

8.3. SISTEMA DE ECUACIONES DIFERENCIALES LINEALES.

207

se cumplen las conmdiciones del teorema de existencia y unicidad y, en consecuencia, por cada
punto con estas propiedades pasa una sola curva integral del sistema (8.7).
En efecto, en el caso considerado los segundos miembros del sistema (8.7) son continuos, y
sus derivadas parciales con respecto a cualquier xj son acotadas, puesto que dichas derivadas
son iguales a los coeficientes aij (t), continuos en el intervalo a t b.
Definamos el operador lineal L por la igualdad
L[X] =

dX
AX ;
dt

entonces la ecuacion (8.8) puede escribirse en la forma a


un mas compacta
L[X] = F .

(8.9)

Si todas las fi (t) 0 con i = 1, 2, . . . , n o, lo que es lo mismo, la matriz F = 0, el sistema


(8.7) se llama lineal homogeneo. En forma compacta, el sistema lineal homogeneo tiene la
forma
L[X] = 0 .

(8.10)

El operador L posee las dos propiedades siguientes:


(i) L[cX] cL[X], donde c es una constante arbitraria.
(ii) L[X1 + X2 ] L[X1 ] + L[X2 ].
Un corolario de (i) y (ii) es
L

"

m
X

ci Xi

i=1

m
X

ci L[Xi ] ,

i=1

donde las ci son constantes arbitrarias.


Teorema 8.1 Si X es solucion del sistema lineal homogeneo L[X] = 0, entonces cX, donde
c es una constante arbitraria, es tambien solucion de dicho sistema.
Teorema 8.2 La suma X1 + X2 de dos soluciones X1 y X2 del sistema de ecuaciones lineal
homogeneo es solucion de dicho sistema.
P
Corolario de los teoremas anteriores. La combinacion lineal m
i=1 ci Xi de las soluciones
X1 , X2 , . . . ,Xm del sistema L[X] 0 con coefientes constantes arbitrarios es solucion de
dicho sistema.
Teorema 8.3 Si el sistema lineal homogeneo (8.10) con coeficientes resles aij tiene una
solucion compleja X = U + iV , las partes real e imaginaria


u1
v1
u2
v2


U = .. , V = .. ,
.
.
un
vn
son por separado soluciones de dicho sistema.

208

CAPITULO 8. SISTEMAS DE ECUACIONES DIFERENCIALES.

Los vectores X1 , X2 , . . . , Xn , donde

x1i (t)
x2i (t)

Xi = .. ,
.
xni (t)

se llaman linealmente dependientes en el intervalo a t b, si existen 1 , 2 , . . . , n


constantes tales que
1 X1 + 2 X2 + . . . + n Xn 0

(8.11)

cuando a t b, y al menos un i 6= 0. Si, en cambio, la identidad (8.11) se cumple solo


cuando 1 = 2 = . . . = n = 0, entonces los vectores X1 , X2 , . . . , Xn se llaman linealmente
independientes.
Observese que la identidad vectorial (8.11) es equivalente a las n identidades:
n
X
i=1
n
X

i x1i (t) 0 ,
i x2i (t) 0 ,

i=1

(8.12)

..
.
n
X

i xni (t) 0 .

i=1

Si los vectores Xi (i = 1, 2, . . . , n) son linealmente dependientes y, por lo tanto, existe un


sistema no trivial de i ( es decir, no todas las i son iguales a cero) que satisface al sistema
(8.12) de n ecuaciones lineales homogeneas con respecto a i , entonces el determinante del
sistema (8.12)


x11 x12 . . . x1n


x21 x21 . . . x2n


W = ..
..
.. ,
.
. ...
.

xn1 xn2 . . . xnn

debe ser igual a cero para todos los valores de t del intervalo a t b. Este determinante
se llama wronskiano del sistema de vectores X1 , X2 , . . . , Xn .

Teorema 8.4 Si el wronskiano W de las soluciones X1 , X2 , . . . , Xn del sistema de ecuaciones


lineales homogeneo (8.10) con coeficientes continuos aij (t) en el intervalo a t b, es igual
a cero por lo menos en un punto t = t0 de dicho intervalo, entonces el conjunto de soluciones
X1 , X2 , . . . , Xn son linealmente dependientes en el intervalo mencionado y, por consiguiente,
W = 0 en dicho intervalo.

8.3. SISTEMA DE ECUACIONES DIFERENCIALES LINEALES.

209

Observacion. Este teorema no se extiende a vectores arbitrarios X1 , X2 , . . . , Xn , que no


son soluciones de un sistema (8.10) con coeficientes continuos.
P
Teorema 8.5 La combinacion lineal ni=1 ci Xi de n soluciones linealmente independientes
X1 , X2 , . . . , Xn del sistema lineal homogeneo (8.10) con coeficientes continuos aij (t) en el
intervalo a t b, es solucion general de este sistema en dicho intervalo.
es solucion del sistema lineal no homogeneo
Teorema 8.6 Si X
L[X] = F ,

(8.9)

y X1 es solucion del sistema homogeneo correspondiente L[X] = 0, entonces la suma X1 + X


es tambien solucion del sistema no homogeneo L[X] = F .
Teorema 8.7 La solucion general en el intervalo a t b del sistema no homogeneo (8.9)
con coeficientes aij (t) yP
segundo miembro fi (t) continuos en dicho intervalo, es igual a la suma
de la solucion general ni=1 ci Xi del sistema homogeneo correspondiente y de una solucion
del sistema no homogeneo considerado.
particular X
Teorema 8.8 principio de superposici
on.
La solucion del sistema de ecuaciones lineales

L[X] =

m
X

Fi ,

i=1

f1i (t)
f2i (t)

Fi = .. ,
.

(8.13)

fni (t)

es la suma

Pm

i=1

Xi de las soluciones Xi de las ecuaciones


L[Xi ] = Fi , (i = 1, 2, . . . , m) .

(8.14)

Observaci
P on. El teorema anterior puede extenderse tambien al caso cuando m , si
la serie i=1 Xi converge y puede ser derivada termino a termino.
Teorema 8.9 Si el sistema de ecuaciones lineales
L[X] = U + iV ,
donde

u1
u2

U = .. ,
.
un


v1
v2

V = .. ,
.
vn

con funciones reales aij (t), ui (t), vi (t) (i, j = 1, 2, . . . , n), tiene la solucion


u1
v1
u2
v2


X = U + iV , quadU = .. , V = .. ,
.
.
un
vn

210

CAPITULO 8. SISTEMAS DE ECUACIONES DIFERENCIALES.

entonces la parte real de U de la solucion y su parte imaginaria V son, respectivamente,


soluciones de las ecuaciones
L[X] = U

y L[X] = V .

Parte III
M
etodos Num
ericos.

211

Captulo 9
Preliminares.
versi
on 1.1-0110101 .

9.1

Programas y funciones.

Programa de ortogonalidad en Octave


En esta seccion nosotros escribiremos algunos programas simples usando Octave y C++.
En nuestro primer ejemplo, llamado orthog, probaremos si dos vectores son ortogonales
calculando su producto punto. Este simple programa lo bosquejamos a continuacion
Inicializamos los vectores ~a y ~b.
Evaluamos el producto punto como ~a ~b = a1 b1 + a2 b2 + a3 b3 .
Imprimir el producto punto y establecer si los vectores son ortogonales.
Primero consideremos la version en Octave del programa que llamaremos orthog.m. Las
primeras lneas de orthog son:
% orthog - Programa para probar si un par de vectores es ortogonal.
% Supondremos vectores en 3D.
clear all; % Borra la memoria
Las primeras dos lneas son comentarios; si tipeamos help orthog desde al lnea de comandos,
Octave desplegara estas lneas. El comando clear all en la tercera lnea borra la memoria.
Las proximas lneas del programa
%* Inicializa los vectores a y b
a= input(Entre el primer vector: );
b= input(Entre el segundo vector: );
Los vectores son entrados usando el comando input en estas lneas. Los comentarios que
comienzan con %* son aquellos que corresponden al bosquejo del programa que hicimos. En
las lneas siguientes se eval
ua el producto punto.
1

Este captulo est


a basado en el primer captulo del libro: Numerical Methods for Physics, second edition
de Alejandro L. Garcia, editorial Prentice Hall

213

214

CAPITULO 9. PRELIMINARES.

%* Evalua el producto punto como la suma sobre el producto de los elementos


adotb=0;
for i=1:3
adotb=adotb+a(i)*b(i);
end
El ciclo for, usando el ndice i, recorre las componentes de los vectores. Una manera habil
de hacer lo mismo podra ser usar
%* Evalua el producto punto como la suma sobre el producto de los elementos
adotb=a*b ;
En este caso, hemos usado la multiplicacion de matrices de Octave para calcular el producto
punto como el producto vetorial de el vector fila a y el columna b (donde hemos usado el
operador Hermtico conjugado ). Las u
ltimas lneas del programa
%* Imprime el producto punto y si los vetores son ortogonales
if(adotb==0)
disp(Los vectores son ortogonales);
else
disp(Los vectores no son ortogonales);
printf(Producto punto = %g \n, adotb);
end
De acuerdo al valor de adotb el program despliega una de las dos posibles respuestas. A
continuacion la salida al ejecutar el help del programa
octave> help orthog
orthog is the file: /home/jrogan/orthog.m
orthog - Programa para probar si un par de vectores es ortogonal.
Supondremos vectores en 3D.

Additional help for builtin functions, operators, and variables


is available in the on-line version of the manual. Use the command
help -i <topic> to search the manual index.
Help and information about Octave is also available on the WWW
at http://www.che.wisc.edu/octave/octave.html and via the
help-octave@bevo.che.wisc.edu mailing list.
Ahora ejecutamos el programa con diferentes vectores.
octave> orthog
Entre el primer vector: [1 1 1]
Entre el segundo vector: [1 -2 1]
Los vectores son ortogonales

9.1. PROGRAMAS Y FUNCIONES.

215

octave> orthog
Entre el primer vector: [1 1 1]
Entre el segundo vector: [2 2 2]
Los vectores no son ortogonales
Producto punto = 5
Programa de ortogonalidad en C++.
Ahora consideremos la version en C++ del programa orthog, el cual prueba si dos vectores
son ortogonales mediante el calculo de su producto punto. Las primeras lneas son
// orthog - Programa para probar si un par de vectores es ortogonal.
// Supondremos vectores en 3D.
#include <iostream.h>
Las primeras lneas son comentarios que nos recuerdan lo que el programa hace. La tercera
lnea incluye las definiciones del iostream.h el cual nos permite la entrada y salida. En la
proxima lnea comienza el programa
main()
{
El parentesis se cierra con uno al final del programa. Las primeras lneas del cuerpo del
programa son
//* Inicializa los vectores a y b
double a[3+1], b[3+1] ;
cout << "Entre el primer vector"<< endl;
for(int i=1; i<=3; i++) {
cout << " a["<<i<<"] = ";
cin >> a[i] ;
}
cout << "Entre el segundo vector"<< endl;
for(int i=1; i<=3; i++) {
cout << " b["<<i<<"] = ";
cin >> b[i] ;
}
Los comentarios que empiezan con //* corresponden a un punto en el bosquejo inicial que
hicmos del programa. Los vectores a y b son declarados arreglos de punto flotante con cuatro
elementos, tres componentes mas una componente de ndice cero no usada. La instruccion
de salida despliega sobre la pantalla:
Entre el primer vector
a[1] =
La instruccion de entrada lee los valores desde el teclado dentro del arreglo a[i]. Las proximas
lneas

CAPITULO 9. PRELIMINARES.

216

//* Evalua el producto punto como la suma sobre el producto de los elementos
double adotb=0.0 ;
for(int i=1; i<=3; i++) {
adotb += a[i]*b[i];
}
Finalmente las lneas
//* Imprime el producto punto y si los vetores son ortogonales
if(adotb==0) {
cout << "Los vectores son ortogonales"<< endl ;
} else {
cout << "Los vectores no son ortogonales"<< endl ;
cout << "El producto punto = " << adotb << endl ;
}
Despliega los resultados. Aqu la salida tpica del programa.
jrogan@pucon:~$ orthog
Entre el primer vector
a[1] = 1
a[2] = 1
a[3] = 1
Entre el segundo vector
b[1] = 1
b[2] = -2
b[3] = 1
Los vectores son ortogonales
Programa de interpolaci
on en Octave.
Es bien sabido que dado tres pares (x, y), se puede encontrar una cuadratica que pasa por
los puntos deseados. Hay varias maneras de encontrar el polinomio y varias maneras de
escribirlo. La forma de Lagrange del polinomio es
p(x) =

(x x1 )(x x3 )
(x x1 )(x x2 )
(x x2 )(x x3 )
y1 +
y2 +
y3 ,
(x1 x2 )(x1 x3 )
(x2 x1 )(x2 x3 )
(x3 x1 )(x3 x2 )

(9.1)

donde (x1 , y1 ), (x2 , y2 ), (x3 , y3 ), son los tres puntos por los que queremos pasar. Com
unmente
tales polinomios son usados para interpolar entre los puntos dados. A continuacion el bosquejo
de un programa simple de interpolacion interp
Inicializa los puntos (x1 , y1 ), (x2 , y2 ) y (x3 , y3 ) para ser ajustados por el polinomio.
Establece el intervalo de la interpolacion (desde xmn hasta xmax )
Encontrar y para los valores deseados de x , usando la funcion intrpf.
Graficar al curva dada por (x , y ), y marcar los puntos originales.

9.1. PROGRAMAS Y FUNCIONES.

217

Las primeras lneas del programa


% interp - Programa para interpolar datos usando
% el polinomio de Lagrange cuadratico para tres puntos dados.
clear all;
%* Inicializa los puntos a ser ajustados con una cuadratica
disp(Entre los puntos como pares x,y (e.g., [1 2]));
for i=1:3
temp =input(Ingrese el punto: );
x(i)=temp(1);
y(i)=temp(2) ;
end
%* Establece el intervalo de interpolacion (desde x_min a x_max)
xr = input (Ingrese el intervalo de valores de x como [x_min x_man]: );
Aqu el programa lee los tres pares (x, y) y el intervalo de valores entre los cuales sera
interpolado.
Los valores interpolados y = p(x ) son calculados por la funcion intrpf desde x = xmn
a x = xmax . Estos valores de y (yi) son calculados en el ciclo.
%* Encontrar yi para los valores deseados de interpolacion xi
% usando la funcion intrpf
nplot= 100; % Numero de puntos para la curva interpolada
for i=1:nplot
xi(i) = xr(1)+(xr(2)-xr(1))*(i-1)/(nplot-1);
yi(i) = intrpf(xi(i), x, y); % Usando intrpf para interpolar
end
Finalmente, los resultados son graficados usando las funciones grafica de Octave.
%* Grafica la curva dada por (xi,yi) y marca los puntos originales
xlabel(x);
ylabel(y);
title(Interpolacion de tres puntos);
gset nokey;
plot(x,y, *,xi,yi,-);
Los puntos de la interpolacion (x , y ) son graficados con lnea segmentada y los datos
originales con crculos, ver figura (9.1) El trabajo real es hecho por la funcion intrpf. Un
bosquejo de lo que queremos que haga esta funcion a continuacion.
Entrada: ~x = [x1 x2 x3 ], ~y = [y1 y2 y3 ], y x .
Salida: y .
Calculo de y = p(x ) usando el polinomio de Lagrange (9.1).
Las funciones en Octave estan implementadas como en la mayora de los lenguajes, excepto
que aqu cada funcion tiene que ir en un archivo separado. El nombre del archivo debe
coincidir con el nombre de la funcion (la funcion intrpf esta en el archivo intrpf.m).

CAPITULO 9. PRELIMINARES.

218
Interpolacion de tres puntos
9
8
7
6

5
4
3
2
1
0
-3

-2

-1

0
x

Figura 9.1: Salida grafica del programa interp.

function yi=intrpf(xi,x,y)
% Funcion para interpolar entre puntos
% usando polinomio de Lagrange (cuadratico)
% Entradas
%
x
Vector de las coordenadas x de los puntos dados (3 valores)
%
y
Vector de las coordenadas y de los puntos dados (3 valores)
% Salida
%
yi El polinomio de interpolacion evaluado en xi
La funcion intrpf tiene tres argumentos de entrada y uno de salida. El resto de la funcion
es directa, solo eval
ua el polinomio definido en (9.1). El cuerpo de la funcion a continuacion
yi = (xi-x(2))*(xi-x(3))/((x(1)-x(2))*(x(1)-x(3)))*y(1) ...
+ (xi-x(1))*(xi-x(3))/((x(2)-x(1))*(x(2)-x(3)))*y(2) ...
+ (xi-x(1))*(xi-x(2))/((x(3)-x(1))*(x(3)-x(2)))*y(3);
return;
Programa de interpolaci
on en C++.
Las primeras lneas de la version en C++ del programa interp son
// interp - Programa para interpolar datos usando
// el polinomio de Lagrange cuadratico para tres puntos dados.
#include "NumMeth.h"
double intrpf(double xi, double x[], double y[]);
main()
{

9.1. PROGRAMAS Y FUNCIONES.

219

Comentarios mas una instruccion para incluir el archivo de encabezamiento NumMeth.h, listado a continuacion
#include
#include
#include
#include

<iostream.h>
<fstream.h>
<math.h>
<stdlib.h>

La declaracion double intrpf(..) afirma que el programa pretende llamar una funcion
intrpf la cual tiene tres argumentos de tipo double y devuelve un double. Las proximas
lneas del programa
//* Inicializa los puntos a ser ajustados con una cuadratica
double x[3+1], y[3+1] ;
cout << "Entre los puntos como pares x,y (e.g., [1 2])" << endl ;
for(int i=1; i<=3; i++) {
cout << "x["<<i<<"] = ";
cin>> x[i];
cout << "y["<<i<<"] = ";
cin >> y[i];
}
//* Establece el intervalo de interpolacion (desde x_min a x_max)
double xmin, xmax;
cout <<"Entre el valor minimo de x: "; cin >> xmin ;
cout <<"Entre el valor maximo de x: "; cin >> xmax ;
El programa pregunta por los puntos para ajustar el polinomio de Lagrange (9.1) y por el
intervalo de interpolacion. Lo siguiente, los arreglos xi y yi son declarados:
//* Encontrar yi para los valores deseados de interpolacion xi
// usando la funcion intrpf
int nplot= 100; // Numero de puntos para la curva interpolada
double * xi = new double[nplot+1] ; // Reserva memoria para
double * yi = new double[nplot+1] ; // estos arreglos.
Estas lneas tambien podran reemplazarse por
const int nplot =100; // Numero de puntos para la curva interpolada
double xi[nplot+1], yi[nplot+1] ;
En el primer caso hay asignamiento dinamico de memoria, nplot podra ser una entrada
del programa. En el segundo caso nplot debe ser constante y para modificar el n
umero de
puntos debemos recompilar el programa, asignacion estatica.
Los valores interpolados son calculados en un for
for(int i=1; i<=nplot;i++) {
xi[i] = xmin+(xmax-xmin)*double(i-1)/double(nplot-1);
yi[i] = intrpf(xi[i], x, y); // Usando intrpf para interpolar
}

220

CAPITULO 9. PRELIMINARES.

Notemos que xi[1]=xmn , xi[nplot]=xmax , con valores equiespaciados entre ellos. Los
valores de yi (y = p(x )) son evaluados usando la ecuacion (9.1) en la funcion intrpf. La
salida del programa
//* Imprime las variables para graficar: x, y, xi, yi
ofstream xOut("x.txt"), yOut("y.txt"), xiOut("xi.txt"), yiOut("yi.txt");
for(int i =1; i <=3; i++) {
xOut << x[i] << endl;
yOut << y[i] << endl;
}
for(int i =1; i <=nplot; i++) {
xiOut << xi[i] << endl;
yiOut << yi[i] << endl;
}
Esto cuatro archivos de datos (x.txt, y.txt, etc) son creados.
Desgraciadamente , C++ carece de una biblioteca grafica estandar as que necesitamos
una aplicacion grafica adicional para graficar la salida. Tambien podemos usar un peque
no
script en Octave:
#!/usr/bin/octave
load x.txt; load y.txt; load xi.txt; load yi.txt;
%* Grafica la curva dada por (xi,yi) y marca los puntos originales
xlabel(x);
ylabel(y);
title(Interpolacion de tres puntos);
gset nokey;
plot(x,y, *,xi,yi,-);
pause
Al cual incluso podemos llamar desde el mismo programa mediante
system( "grafica.m" ) ;
La u
ltima lnea del programa
delete [] xi, yi ; // Libera la memoria pedida con "new"
Esta lnea no es absolutamente necesaria, por que al salir el programa liberara la memoria
de todas maneras. Sin embargo se considera de buen estilo de programacion limpiar uno la
memoria que requirio durante la ejecucion del programa.
La funcion intrpf la cual eval
ua el polinomio de Lagrange comienza por las siguientes
lneas
double intrpf( double xi, double x[], double y[])
{
// Funcion para interpolar entre puntos
// usando polinomio de Lagrange (cuadratico)


9.2. ERRORES NUMERICOS.

221

// Entradas
//
x
Vector de las coordenadas x de los puntos dados (3 valores)
//
y
Vector de las coordenadas y de los puntos dados (3 valores)
// Salida
//
yi El polinomio de interpolacion evaluado en xi
Especifica los argumentos de llamada y lo que devuelve. Todas las variables dentro de la
funcion son locales. El C++ pasa las variables por defecto por valor, la funcion recibe una
copia que se destruye cuando termina la funcion, si se desea pasar una variable double a
por referencia debemos anteponerle el signo &, es decir, pasarla como double &a. De esta
manera la funcion puede modificar el valor que tena la variable en el programa principal.
El resto de la funcion
//* Calcula yi=p(xi) usando Polinomio de Lagrange
double yi = (xi-x[2])*(xi-x[3])/((x[1]-x[2])*(x[1]-x[3]))*y[1]
+ (xi-x[1])*(xi-x[3])/((x[2]-x[1])*(x[2]-x[3]))*y[2]
+ (xi-x[1])*(xi-x[2])/((x[3]-x[1])*(x[3]-x[2]))*y[3];
return yi ;
Estas lneas eval
uan el polinomio. Inicialmente pondremos esta funcion en el mismo archivo,
luego la podemos separar en otro archivo y escribir un Makefile que compile y linkee todo
junto.

9.2
9.2.1

Errores num
ericos.
Errores de escala.

Un computador almacena n
umeros de punto flotante usando solo una peque
na cantidad
de memoria. Tpicamente, a una variable de precicion simple (un float en C++) se le
asigna 4 bytes (32 bits) para la representacion del n
umero, mientras que a una variable de
doble precision (double en C++, por defecto en Octave) usa 8 bytes. Un n
umero de punto
flotante es representado por su mantisa y su exponente (por ejemplo, para 6.625 1027 la
mantisa decimal es 6.625 y el exponente es 27). El formato IEEE para doble precision usa
53 bits para almacenar la mantisa (incluyendo un bit para el signo) y lo que resta, 11 bit
para el exponente. La manera exacta en que el computador maneja la representacion de los
n
umeros no es tan importante como saber el intervalo maximo de valores y el n
umero de
cifras significativas.
El intervalo maximo es el lmite sobre la magnitud de los n
umeros de punto flotante
impuesta por el n
umero de bit usados para el exponente. Para precision simple un valor
tpico es 2127 1038 ; para precision double es tpicamente 21024 10308 . Exceder el
intervalo de la precision simple no es difcil.. Consideremos, por ejemplo, la evaluacion del
radio de Bohr en unidades SI,
a0 =

40 ~2
5.3 1011 [m] .
me e2

(9.2)

CAPITULO 9. PRELIMINARES.

222

Mientras sus valores caen dentro del intervalo de un numero de precision simple, el eintervalo
es excedido en el calculo del numerador (40 ~2 1.24 1078 [kg C2 m]) y del denominador
(me e2 2.34 1068 [kg C2 ]). La mejor solucion para lidiar con este tipo de dificultades de
intervalo es trabajar en un conjunto de unidades naturales al problema (e.g. para problemas
atomicos se trabaja en las distancias en angstroms, la carga en unidades de la carga del
electron).
Algunas veces los problemas de intervalo no son causados por la eleccion de las unidades sino porque los n
umeros en el problema son inherentemente grandes. Consideremos un
importante ejemplo, la funcion factorial. Usando la definicion
n! = n (n 1) (n 2) . . . 3 2 1 ,
es facil evaluar n! en C++ como
double nFactorial=1;
for(int i=1; i <=n; i++) nFactorial *=i ;
donde n es un n
umero dado.
En Octave, usando el operador dos puntos este calculo puede ser realizado como
nFactorial = prod(1:n);
donde prod(x) es el producto de los elementos del vector x y :n=[ 2| . . . n]. Infortunadamente, debido a problemas de intervalo, no podemos calcular n! para n > 170 usando estos
metodos directos de evaluacion (9.2.1).
Una solucion com
un para trabajar con n
umeros grandes es usar su logaritmo. Para el
factorial
log(n!) = log(n) + log(n 1) + . . . + log(3) + log(2) + log(1) .

(9.3)

En Octave, esto puede ser evaluado como


log_nFactorial = sum( log(1:n) ) ;
donde sum(x) es la suma de los elementos del vector x. Sin embargo, este esquema es
computacionalmente pesado si n es grando. Una mejor estrategia es combinar el uso de
logaritmos con la formula de Stirling2



1
1
n n
n! = 2nn e
1+
+
+
(9.4)
12n 288n2
o


1
1
1
log(n!) = log(2n) + nlog(n) n + log 1 +
+
+ .
(9.5)
2
12n 288n2
Esta aproximacion puede ser usada cuando n es grande (n > 30), de otra manera es preferible
la definicion original.
Finalmente, si el valor de n! necesita ser impreso, podemos expresarlo como
n! = (mantisa) 10(exponente) ,

(9.6)

donde el exponente es la parte entera de log10 (n!), y la mantisa es 10a donde a es la parte
fracionaria de log10 (n!). Recordemos que la conversion entre logaritmo natural y logaritmo
en base 10 es log10 (x) = log10 (e) log(x).
2

M. Abramowitz and I. Stegun, Handbook of Mathematical Functions ( New York: Dover 1972).


9.2. ERRORES NUMERICOS.

9.2.2

223

Errores de redondeo.

Supongamos que deseamos calcular numericamente f 0 (x), la derivada de una funcion conocida
f (x). En calculo se aprendio que la formula para la derivada es
f 0 (x) =

f (x + h) f (x)
,
h

(9.7)

en el lmite en que h 0. Que sucede si evaluamos el lado derecho de esta expresion,


poniendo h = 0?. Como el computador no entiende que la expresion es valida solo como
un lmite, la division por cero tiene varios posibles salidas. El computador puede asignar
el valor, Inf, el cual es un n
umero de punto flotante especial reservado para representar el
infinito. Ya que el numerador es tambien cero el computador podra evaluar el cuociente
siendo indefinido (Not-a-Number), NaN, otro valor reservado. O el calculo podra parar con
un mensaje de error.
Claramente, poniendo h = 0 para evaluar (9.7) no nos dara nada u
til, pero si le ponemos
300
a h un valor muy peque
no, digamos h = 10
, usamos doble precision? La respuesta a
un
sera incorrecta debido a la segunda limitacion sobre la representacion de n
umeros con punto
flotante: el n
umero de dgitos en la mantisa. Para precision simple, el n
umero de dgitos
significantes es tpicamente 6 o 7 dgitos decimales; para doble precision es sobre 16 dgitos.
As, en doble precision, la operacion 3 + 1020 retorna una respuesta 3 por el redondeo;
usando h = 10300 en la ecuacion (9.7) casi con seguridad regresara 0 cuando evaluemos el
n
umerador.

10

10

(h)

10

10

10

10

10

20

10

16

10

12

10

10

10

10

h
Figura 9.2: Error absoluto (h), ecuacion (9.8), versus h para f (x) = x2 y x = 1.

La figura 9.2 ilustra la magnitud del error de redondeo en un calculo tpico de derivada.
Definimos el error absoluto


0

f
(x
+
h)

f
(x)
.
(9.8)
(h) = f (x)

h

224

CAPITULO 9. PRELIMINARES.

Notemos que (h) decrece cuando h se hace mas peque


no, lo cual es esperado dada que
la ecuacion (9.7) es exacta cuando h 0. Por debajo de h = 1010 , el error comienza a
incrementarse debido a efectos de redondeo. En valores menores de h el error es tan grande
que la respuesta carece de sentido. Volveremos en el proximo captulo a la pregunta como
mejorar el calculo de la derivada numericamente.
Para testear la tolerancia del redondeo, definimos como el mas peque
no n
umero que,
cuando es sumado a uno, regresa un valor distinto de 1. En Octave, la funcion integrada
eps devuelve 2.22 1016 . En C++, el archivo de encabezamiento <float.h> define
DBL_EPSILON como para doble precision.
Debido a los errores de redondeo la mayora de los calculos cientficos usan doble precision.
Las desventajas de la doble precision son que requiere mas memoria y que algunas veces (no
siempre) es mas costosa computacionalmente. Los procesadores modernos estan construdos
para trabajar en doble precision, tanto que puede ser mas lento trabajar en precision simple.
Usar doble precision algunas veces solo desplaza las dificultades de redondeo. Por ejemplo, el
calculo de la inversa de una matriz trabaja bien en simple precision para matrices peque
nas
de 50 50 elementos, pero falla por errores de redondeo para matrices mas grandes. La
double precision nos permite trbajar con matrices de 100 100, pero si necesitamos resolver
sistemas a
un mas grandes debemos usar un algoritmo diferente. La mejor manera de trabajar
es usar algoritmos robustos contra el error de redondeo.

Captulo 10
Ecuaciones diferenciales ordinarias:
M
etodos b
asicos.
versi
on final 1.3-0110171 .

En este captulo resolveremos uno de los primeros problemas considerados por un estudiante de fsica: el vuelo de un proyectil y, en particular, el de una pelota de baseball. Sin
la resistencia del aire el problema es facil de resolver. Sin embargo, incluyendo un arrastre
realista, nosotros necesitamos calcular la solucion numericamente. Para analizar este problema definiremos primero la diferenciacion numerica. De hecho antes de aprender Fsica uno
aprende calculo as que no debemos sorprendernos si este es nuestro punto de partida. En la
segunda mitad del captulo nos acuparemos de otro viejo conocido, el pendulo simple, pero
sin la aproximacion a angulos peque
nos. Interesantemente, problemas oscilatorios, tales como
el pendulo, revelan una falla fatal en algunos de los metodos numericos de resolver ecuaciones
diferenciales ordinarias.

10.1

Movimiento de un proyectil.

10.1.1

Ecuaciones b
asicas.

Consideremos el simple movimiento de un proyectil, digamos un pelota de baseball. Para


describir el movimiento nosotros debemos calcular el vector posicion ~r(t) y el vector velocidad
~v (t) del proyectil. Las ecuaciones basicas de movimiento son
d~v
1
= F~a (~v ) g y ,
dt
m

d~r
= ~v ,
dt

(10.1)

donde m es la masa del proyectil. La fuerza debido a la resistencia del aire es F~a (~v ), la
aceleracion gravitacional es g, e y es un vector unitario en la direccion y. El movimiento es
bidimensional, tal que podemos ignorar la componente z y trabajar en el plano xy.
La resistencia del aire se incrementa con la velocidad del objeto, y la forma precisa para
~
Fa (~v ) depende del flujo alrededor del proyectil. Com
unmente, esta fuerza es aproximada por
1
F~a (~v ) = Cd A | v | ~v ,
2
1

(10.2)

Este captulo est


a basado en el segundo captulo del libro: Numerical Methods for Physics, second edition
de Alejandro L. Garcia, editorial Prentice Hall

225

CAPITULO 10. EDO: METODOS


BASICOS.

226

donde Cd es el coeficiente de arrastre, es la densidad del aire, y A es el area de la seccion


transversal del proyectil. El coeficiente de arrastre es un parametro adimensional que depende
de la geometra del proyectil Entre mas aerodinamico el objeto , el coeficiente es menor.
Para una esfera suave de radio R moviendose lentamente a traves del fluido, el coeficiente
de arrastre es dado por la Ley de Stoke,
Cd =

12
24
=
,
Rv
Re

(10.3)

donde es la viscosidad del fluido ( 1.5 105 [m2 /s] para el aire) y Re= 2Rv/ es
el adimensional n
umero de Reynolds. Para un objeto del tama
no de un pelota de baseball
moviendose a traves del aire, la ley de Stokes es valida solo si la velocidad es menor que
0.2[mm/s] (Re 1).
A velocidades altas (sobre 20 [cm/s], Re> 103 ), la estela detras de la esfera desarrolla
vortices y el coeficiente de arrastre es aproximadamente constante (Cd 0.5) para un amplio
intervalo de velocidades. Cuando el n
umero de Reynolds excede un valor crtico, el flujo en la
estela llega a ser turbulento y el coeficiente de arrastre cae dramaticamente. Esta reduccion
ocurre porque la turbulencia rompe la region de bajas presiones en la estela detras de la
esfera2 . Para una esfera suave este n
umero crtico de Reynolds es aproximadamente 3 105 .
Para una pelota de baseball, el coeficiente de arrastre es usualmente mas peque
no que el de
una esfera suave, porque las costuras rompen el flujo laminar precipitando el inicio de la
turbulencia. Nosotros podemos tomar Cd = 0.35 como un valor promedio para el intervalo
de velocidades tpicas de una pelota de baseball.
Notemos que la fuerza de arrastre, ecuacion (10.2), vara como el cuadrado de la magnitud
de la velocidad (F~a v 2 ) y, por supuesto, act
ua en la direccion opuesta a la velocidad. La
masa y el diametro de una pelota de baseball son 0.145 [kg] y 7.4 [cm]. Para una pelota de
baseball, el arrastre y la fuerza gravitacional son iguales en magnitud cuando v 40 [m/s].
Nosotros sabemos como resolver las ecuaciones de movimiento si la resistencia del aire es
despreciable. La trayectoria es
1
(10.4)
~r(t) = ~r1 + ~v1 t gt2 y ,
2
donde ~r1 ~r(0) y ~v1 ~v (0) son la posicion y la velocidad inicial. Si el proyectil parte del
origen y la velocidad inicial forma un angulo con la horizontal, entonces
xmax =

2v12
sen cos ,
g

ymax =

v12
sen2 ,
2g

(10.5)

son el alcance horizontal y la altura maxima. El tiempo de vuelo es


tf l =

2v1
sen .
g

(10.6)

Nuevamente estas expresiones son validas solo cuando no hay resistencia con el aire. Es
facil demostrar que el maximo alcance horizontal se obtiene cuando la velocidad forma un
angulo de 45 con la horizontal. Deseamos mantener esta informacion en mente cuando
construyamos nuestra simulacion. Si se sabe la solucion exacta para un caso especial, se debe
comparar constantemente que el programa trabaje bien para este caso.
2

D.J. Tritton, Physical Fluid Dynamics, 2d ed. (Oxford: Clarendon Press, 1988).

10.1. MOVIMIENTO DE UN PROYECTIL.

10.1.2

227

Derivada avanzada.

Para resolver las ecuaciones de movimiento (10.1) necesitamos un metodo numerico para
evaluar la primera derivada. La definicion formal de la derivada es
f (t + ) f (t)
,
(10.7)
0

donde es el incremento temporal o paso en el tiempo. Como ya vimos en el captulo pasado


esta ecuacion debe ser tratada con cuidado. La figura 9.2 ilustra que el uso de un valor
extremadamente peque
no para causa un gran error en el calculo de (f (t + ) f (t))/ .
Especficamente, los errores de redondeo ocurren en el calculo de t + , en la evaluacion de la
funcion f y en la sustraccion del numerador. Dado que no puede ser elegido arbitrariamente
peque
no, nosotros necesitamos estimar la diferencia entre f 0 (t) y (f (t + ) f (t))/ para un
finito.
Para encontrar esta diferencia usaremos una expansion de Taylor. Como fsicos usualmente vemos las series de Taylor expresadas como
f 0 (t) lim

2 00
f (t) + . . .
(10.8)
2
donde el smbolo ( . . . ) significa terminos de mas alto orden que son usualmente despreciados.
Una alternativa, forma equivalente de la serie de Taylor usada en analisis numerico es
f (t + ) = f (t) + f 0 (t) +

2 00
f (t + ) = f (t) + f (t) + f () .
(10.9)
2
donde es un valor entre t y t + . No hemos botado ning
un termino, esta expansion tiene
un n
umero finito de terminos. El teorema de Taylor garantiza que existe alg
un valor para
el cual (10.9) es cierto, pero no sabemos cual valor es este.
La ecuacion previa puede ser rescrita
0

f (t + ) f (t) 1 00
f () ,
(10.10)

2
donde t t + . Esta ecuacion es conocida como la formula de la derivada derecha o
derivada adelantada. El u
ltimo termino de la mano derecha es el error de truncamiento; este
error es introducido por cortar la serie de Taylor.
En otras palabras, si mantenemos el u
ltimo termino en (10.10), nuestra expresion para
0
f (t) es exacta. Pero no podemos evaluar este termino porque no conocemos , todo lo que
conocemos es que yace en alg
un lugar entre t y t + . As despreciamos el termino f 00 ()
(truncamos) y decimos que el error que cometemos por despreciar este termino es el error de
truncamiento. No hay que confundir este con el error de redondeo discutido anteriormente. El
error de redondeo depende del hardware, el error de truncamiento depende de la aproximacion
usada en el algoritmo. Algunas veces veremos la ecuacion (10.10) escrita como
f 0 (t) =

f (t + ) f (t)
+ O( )
(10.11)

donde el error de truncamiento es ahora especificado por su orden en , en este caso el error
de truncamiento es lineal en . En la figura 9.2 la fuente de error predominante en estimar
f 0 (x) como [f (x + h) f (x)]/h es el error de redondeo cuando h < 1010 y es el error de
truncamiento cuando h > 1010 .
f 0 (t) =

CAPITULO 10. EDO: METODOS


BASICOS.

228

10.1.3

M
etodo de Euler.

Las ecuaciones de movimiento que nosotros deseamos resolver numericamente pueden ser
escritas como:
d~v
= ~a(~r, ~v ) ,
dt

d~r
= ~v ,
dt

(10.12)

dode ~a es la aceleracion. Notemos que esta es la forma mas general de las ecuaciones. En el
movimiento de proyectiles la aceleracion es solo funcion de ~v (debido al arrastre), en otros
problemas (e.g., orbitas de cometas) la aceleracion dependera de la posicion.
Usando la derivada adelantada (10.11), nuestras ecuaciones de movimiento son
~v (t + ) ~v (t)
+ O( ) = ~a(~r(t), ~v (t)) ,

~r(t + ) ~r(t)
+ O( ) = ~v (t) ,

(10.13)
(10.14)

o bien
~v (t + ) = ~v (t) + ~a(~r(t), ~v (t)) + O( 2 ) ,
~r(t + ) = ~r(t) + ~v (t) + O( 2 ) .

(10.15)
(10.16)

notemos que O( ) = O( 2 ). Este esquema numerico es llamado el metodo de Euler. Antes


de discutir los meritos relativos de este acercamiento, veamos como sera usado en la practica.
Primero, introducimos la notacion
fn = f (tn ) ,

tn = (n 1) ,

n = 1, 2, . . .

(10.17)

tal que f1 = f (t = 0). Nuestras ecuaciones para el metodo de Euler (despreciando el termino
del error) ahora toma la forma
~vn+1 = ~vn + ~an ,
~rn+1 = ~rn + ~vn ,

(10.18)
(10.19)

donde ~an = ~a(~rn , ~vn ). El calculo de la trayectoria podra proceder as:


1. Especifique las condiciones iniciales, ~r1 y ~v1 .
2. Elija un paso de tiempo .
3. Calcule la aceleracion dado los actuales ~r y ~v .
4. Use las ecuaciones (10.18) y (10.19) para calcular los nuevos ~r y ~v .
5. Vaya al paso 3 hasta que suficientes puntos de trayectoria hayan sido calculados.
El metodo calcula un conjunto de valores para ~rn y ~vn que nos da la trayectoria, al menos
en un conjunto discreto de valores. La figura 10.1 ilustra el calculo de la trayectoria para un
u
nico paso de tiempo.

10.1. MOVIMIENTO DE UN PROYECTIL.

an

vn

229

vn

vn
an

vn+1
rn

rn+1
y

Figura 10.1: Trayectoria de una partcula despues de un u


nico paso de tiempo con el metodo
de Euler. Solo para efectos ilustrativos es grande

10.1.4

M
etodos de Euler-Cromer y de Punto Medio.

Una simple (y por ahora injustificada) modificacion del metodo de Euler es usar las siguientes
ecuaciones:
~vn+1 = ~vn + ~an ,
~rn+1 = ~rn + ~vn+1 .

(10.20)
(10.21)

Notemos el cambio sutil: La velocidad actualizada es usada en la segunda ecuacion. Esta


formula es llamada metodo de Euler-Cromer3 . El error de truncamiento es a
un del orden de
2
O( ), no parece que hemos ganado mucho. Interesantemente, veremos que esta forma es
marcadamente superior al metodo de Euler en algunos casos.
En el metodo del punto medio usamos
~vn+1 = ~vn + ~an ,
~vn+1 + ~vn
~rn+1 = ~rn +
.
2

(10.22)
(10.23)

Notemos que hemos promediado las dos velocidades. Usando la ecuacion para la velocidad
en la ecuacion de la posicion, vemos que
1
~rn+1 = ~rn + ~vn + ~an 2 ,
2

(10.24)

lo cual realmente hace esto lucir atractivo. El error de truncamiento es a


un del orden de
2
en la ecuacion velocidad, pero para la posicion el error de truncamiento es ahora 3 .
Realmente, para el movimiento de proyectiles este metodo trabaja mejor que los otros dos.
Infortunadamente, en otros sistemas fsicos este metodo da resultados pobres.

10.1.5

Errores locales, errores globales y elecci


on del paso de tiempo.

Para juzgar la precision de estos metodos necesitamos distinguir entre errores de truncamiento
locales y globales. Hasta ahora, el error de truncamiento que hemos discutido ha sido el error
3

A. Cromer, Stable solutions using the Euler approximation, Am. J. Phys., 49 455-9 (1981).

230

CAPITULO 10. EDO: METODOS


BASICOS.

local, el error cometido en un u


nico paso de tiempo. En un problema tpico nosotros deseamos
evaluar la trayectoria desde t = 0 a t = T . El n
umero de pasos de tiempo es NT = T / ;
notemos que si reducimos , debemos tomar mas pasos. Si el error local es O( n ), entonces
estimamos el error global como
error global NT (error local)
T
= NT O( n ) = O( n ) = T O( n1 ) .

(10.25)

Por ejemplo, el metodo de Euler tiene un error local de truncamiento de O( 2 ), pero un error
global de truncamiento de O( ). Por supuesto, este analisis nos da solo una estimacion ya que
no sabemos si los errores locales se acumularan o se cancelaran (i.e. interferencia constructiva
o destructiva). El verdadero error global para un esquema numerico es altamente dependiente
del problema que se esta estudiando.
Una pregunta que siempre aparece es como elegir el ? Tratemos de responderla. Primero, supongamos que los errores de redondeo son despreciables tal que solo debemos preocuparnos por los errores de truncamiento. Desde (10.10) y (10.16), el error local de truncamiento
en el calculo de la posicion usando el metodo de Euler es aproximadamente 2 r00 = 2 a.
Usando solo estimaciones del orden de magnitud, tomamos a 10 [m/s2 ], el error en un solo
paso en la posicion es de 101 [m], cuando = 101 [s]. Si el tiempo de vuelo T 100 [s],
entonces el error global es del orden de metros. Si un error de esta magnitud es inaceptable
entonces debemos disminuir el paso en el tiempo. Finalmente usando un paso de tiempo
101 [s] no introduciramos ning
un error significativo de redondeo dada la magnitud de los
otros parametros del problema.
En el mundo real, a menudo no podemos hacer un analisis tan elegante por una variedad
de razones (ecuaciones complicadas, problemas con el redondeo, flojera, etc.). Sin embargo, a
menudo podemos usar la intuicion fsica. Respondase usted mismo en que escala de tiempo
el movimiento es casi lineal?. Por ejemplo, para la trayectoria completa de una pelota de
baseball que es aproximadamente parabolica, el tiempo en el aire son unos pocos segundos,
entonces el movimiento es aproximadamente lineal sobre una escala de tiempo de unos pocos
centesimos de segundo. Para revisar nuestra intuicion, nosotros podemos comparar los resultados obtenidos usando = 101 [s] y = 102 [s] y, si ellos son suficientemente cercanos,
suponemos que todo esta bien. A veces automatizamos la prueba de varios valores de ;
el programa es entonces llamado adaptativo (construiremos un programa de este tipo mas
adelante). Como con cualquier metodo numerico, la aplicacion ciega de esta tecnica es poco
recomendada, aunque con solo un poco de cuidado esta puede ser usada exitosamente.

10.1.6

Programa de la pelota de baseball.

La tabla 10.1 bosqueja un simple programa, llamado balle, que usa el metodo de Euler para
calcular la trayectoria de una pelota de baseball. Antes de correr el programa, establezcamos
algunos valores razonables para tomar como entradas. Una velocidad inicial de | ~v1 | =15 [m/s]
nos da una pelota que le han pegado debilmente. Partiendo del origen y despreciando la
resistencia del aire, el tiempo de vuelo es de 2.2 [s], y el alcance horizontal es sobre los 23 [m]
cuando el angulo inicial = 45 . A continuacion, mostramos la salida a pantalla del programa
balle en C++ cuando es corrido bajo estas condiciones

10.1. MOVIMIENTO DE UN PROYECTIL.

231

Fijar la posicion inicial ~r1 y la velocidad inicial ~v1 de la pelota de baseball.


Fijar los parametros fsicos ( m, Cd , etc.).
Iterar hasta que la bola golpee en el piso o el maximo n
umero de pasos sea completado.
Grabar posicion (calculada y teorica) para graficar.
Calcular la aceleracion de la pelota de baseball.
Calcular la nueva posicion y velocidad, ~rn+1 y ~vn+1 , Usando el metodo de Euler,
(10.18) y (10.19).
Si la pelota alcanza el suelo (y < 0) para la iteracion.
Imprimir el alcance maximo y el tiempo de vuelo.
Graficar la trayectoria de la pelota de baseball.
Tabla 10.1: Bosquejo del programa balle, el cual calcula la trayectoria de una pelota de
baseball usando el metodo de Euler.

Movimiento de Proyectil
7
Mtodo de Euler
Teora (sin aire)
6

Altura [m]

-1
0

10

15

20

25

Alcance [m]

Figura 10.2: Salida del programa balle para una altura inicial de 0 [m], una velocidad inicial
de 15 [m/s], y un paso de tiempo =0.1 [s]. No hay resistencia del aire. La lnea continua
es la teorica y los puntos son los calculados, la diferencia se debe a errores de truncamiento.

jrogan@huelen:~/programas$ balle
Ingrese la altura inicial [m] : 0
Ingrese la velocidad inicial [m/s]: 15
Ingrese angulo inicial (grados): 45
Ingrese el paso en el tiempo, tau en [s]: 0.1

CAPITULO 10. EDO: METODOS


BASICOS.

232
Tiempo de vuelo: 2.2
Alcance: 24.3952

La salida en Octave debiera ser muy similar.


La trayectoria calculada por el programa es mostrada en la figura 10.2. Usando un paso
de = 0.1 [s], el error en el alcance horizontal es sobre un metro, como esperabamos del
error de truncamiento. A velocidades bajas los resultados no son muy diferentes si inclumos
la resistencia con el aire, ya que |F~a (~v1 )|/m g/7.
Ahora tratemos de batear un cuadrangular. Consideremos una velocidad inicial grande
| v1 | = 50 [m/s]. Debido a la resistencia, encontramos que el alcance es reducido a alrededor
de 125 [m], menos de la mitad de su maximo teorico. La trayectoria es mostrada figura 10.3,
notemos como se aparta de la forma parabolica.
En nuestras ecuaciones para el vuelo de una pelota de baseball no hemos includo todos
los factores en el problema. El coeficiente de arrastre no es constante sino mas bien una
complicada funcion de la velocidad. Ademas, la rotacion de la pelota ayuda a levantar la
pelota (efecto Magnus).
Movimiento de Proyectil
70
Mtodo de Euler
Teora (sin aire)
60

Altura [m]

50

40

30

20

10

0
0

50

100

150

200

250

Alcance [m]

Figura 10.3: Salida del programa balle para una altura inicial de 1 [m], una velocidad inicial
de 50 [m/s], y un paso de tiempo =0.1 [s]. Con resistencia del aire.

10.2

P
endulo simple.

10.2.1

Ecuaciones b
asicas.

El movimiento de los pendulos ha fascinado a fsicos desde que Galileo fue hipnotizado por
la lampara en la Catedral de Pisa. El problema es tratado en los textos de mecanica basica pero antes de apresurarnos a calcular con el computador, revisemos algunos resultados
basicos. Para un pendulo simple es mas conveniente describir la posicion en terminos del


10.2. PENDULO
SIMPLE.

233

desplazamiento angular, (t). La ecuacion de movimiento es


d2
g
=

sen ,
dt2
L

(10.26)

donde L es la longitud del brazo y g es la aceleracion de gravedad. En la aproximacion para


angulo peque
no, sen , la ecuacion (10.26) se simplifica a
d2
g
=

.
dt2
L

(10.27)

Esta ecuacion diferencial ordinaria es facilmente resuelta para obtener




2t
+ C2 ,
(t) = C1 cos
Ts

(10.28)

donde las constantes C1 y C2 estan determinadas por los valores iniciales de y = d/dt.
El perodo para angulos peque
nos, Ts es
s
L
Ts = 2
.
(10.29)
g
Esta aproximacion es razonablemente buena para oscilaciones con amplitudes menores o
iguales a 20 .
Sin la aproximacion para angulos peque
nos, la ecuacion de movimiento es mas difcil de
resolver. Sin embargo, sabemos de la experiencia que el movimiento es todava periodico. En
efecto, es posible obtener una expresion para el perodo sin resolver explcitamente (t). La
energa total es
1
E = mL2 2 mgL cos ,
2

(10.30)

donde m es la masa de la lenteja. La energa total es conservada e igual a E = mgL cos m ,


donde m es el angulo maximo. De lo anterior, tenemos
1
mL2 2 mgL cos = mgL cos m ,
2

(10.31)

o
2 =

2g
(cos cos m ) .
L

(10.32)

Ya que = d/dt,
dt = r

d
2g
(cos cos m )
L

(10.33)

En un perodo el pendulo se balancea de = m a = m y regresa a = m . As, en medio


perodo el pendulo se balancea desde = m a = m . Por u
ltimo, por el mismo argumento,

CAPITULO 10. EDO: METODOS


BASICOS.

234

en un cuarto de perodo el pendulo se balancea desde = m a = 0, as integrando ambos


lados de la ecuacion (10.33)
s Z
T
L m
d
p
=
.
(10.34)
4
2g 0
(cos cos m )
Esta integral podra ser reescrita en terminos de funciones especiales usando la identidad
cos 2 = 1 2 sen2 , tal que
s Z
d
L m
p
T =2
.
(10.35)
g 0
(sen2 m /2 sen2 /2)
Introduciendo K(x), la integral elptica completa de primera especie,4
Z /2
dz

,
K(x)
1 x2 sen2 z
0

(10.36)

podramos escribir el perodo como


s

T =4

L
K(sen m /2) ,
g

(10.37)

usando el cambio de variable sen z = sen(/2)/ sen(m /2). Para valores peque
nos de m ,
podramos expandir K(x) para obtener
s 

L
1 2
T = 2
1+
+ ... .
(10.38)
g
16 m
Note que el primer termino es la aproximacion para angulo peque
no (10.29).

10.2.2

F
ormulas para la derivada centrada.

Antes de programar el problema del pendulo miremos un par de otros esquemas para calcular
el movimiento de un objeto. El metodo de Euler esta basado en la formulacion de la derivada
derecha para df /dt dado por (10.7). Una definicion equivalente para la derivada es
f (t + ) f (t )
.
0
2

f 0 (t) = lim

(10.39)

Esta formula se dice centrada en t. Mientras esta formula parece muy similar a la ecuacion
(10.7), hay una gran diferencia cuando es finito. Nuevamente, usando la expansion de
Taylor,
1
1
f (t + ) = f (t) + f 0 (t) + 2 f 00 (t) + 3 f (3) (+ ) ,
2
6
1
1
f (t ) = f (t) f 0 (t) + 2 f 00 (t) 3 f (3) ( ) ,
2
6
4

(10.40)
(10.41)

I.S. Gradshteyn and I.M. Ryzhik, Table of Integral, Series and Products (New York: Academic Press,
1965)


10.2. PENDULO
SIMPLE.

235

donde f (3) es la tercera derivada de f (t) y es un valor ente t y t . Restando las dos
ecuaciones anteriores y reordenando tenemos,
f 0 (t) =

f (t + ) f (t ) 1 2 (3)
f () ,
2
6

(10.42)

donde t t + . Esta es la aproximaci


on en la primera derivada centrada. El punto
clave es que el error de truncamiento es ahora cuadratico en , lo cual es un gran progreso
sobre la aproximacion de las derivadas adelantadas que tiene un error de truncamiento O( ).
Usando las expansiones de Taylor para f (t + ) y f (t ) podemos construir una formula
centrada para la segunda derivada. La que tiene la forma
f 00 (t) =

f (t + ) + f (t ) 2f (t)
1 2 (4)

f () ,
2
12

(10.43)

donde t t + . De nuevo, el error de truncamiento es cuadratico en . La mejor


manera de entender esta formula es pensar que la segunda derivada esta compuesta de una
derivada derecha y de una derivada izquierda, cada una con incrementos de /2.
Usted podra pensar que el proximo paso sera preparar formulas mas complicadas que
tengan errores de truncamiento a
un mas peque
nos, quizas usando ambas f (t ) y f (t 2 ).
Aunque tales formulas existen y son ocasionalmente usadas, las ecuaciones (10.10), (10.42) y
(10.43) sirven como el caballo de trabajo para calcular las derivadas primera y segunda.

10.2.3

M
etodos del salto de la rana y de Verlet.

Para el pendulo, las posiciones y velocidades generalizadas son y , pero para mantener
la misma notacion anterior trabajaremos con ~r y ~v . Comenzaremos de las ecuaciones de
movimiento escritas como
d~v
= ~a(~r(t)) ,
dt
d~r
= ~v (t) .
dt

(10.44)
(10.45)

Note que explcitamente escribimos la aceleracion dependiente solamente de la posicion. Discretizando la derivada temporal usando la aproximacion de derivada centrada da,
~v (t + ) ~v (t )
+ O( 2 ) = ~a(~r(t)) ,
2

(10.46)

para la ecuacion de la velocidad. Note que aunque los valores de velocidad son evaluados en
t + y t , la aceleracion es evaluada en el tiempo t.
Por razones que pronto seran claras, la discretizacion de la ecuacion de posicion estara
centrada entre t + 2 y t,
~r(t + 2 ) ~r(t)
+ O( 2 ) = ~v (t + ) .
2

(10.47)

CAPITULO 10. EDO: METODOS


BASICOS.

236

De nuevo usamos la notacion fn f (t = (n 1) ), en la cual la ecuacion (10.47) y (10.46)


son escritas como,
~vn+1 ~vn1
+ O( 2 ) = ~a(~rn ) ,
2
~rn+2 ~rn
+ O( 2 ) = ~vn+1 .
2

(10.48)
(10.49)

Reordenando los terminos para obtener los valores futuros a la izquierda,


~vn+1 = ~vn1 + 2~a(~rn ) + O( 3 ) ,
~rn+2 = ~rn + 2~vn+1 + O( 3 ) ,

(10.50)
(10.51)

el cual es el metodo del salto de la rana (leap frog). Naturalmente, cuando el metodo es usado
en un programa, el termino O( 3 ) no va y por lo tanto constituye el error de truncamiento
para el metodo.
El nombre salto de la rana es usado ya que la solucion avanza en pasos de 2 , con la
posicion evaluada en valores impares (~r1 , ~r3 , ~r5 , . . . ), mientras que la velocidad esta calculada
en los valores pares (~v2 , ~v4 , ~v6 , . . . ). Este entrelazamiento es necesario ya que la aceleracion,
la cual es una funcion de la posicion, necesita ser evaluada en a tiempo, esto es centrada entre
la nueva velocidad y la antigua. Algunas veces el esquema del salto de la rana es formulado
como
~vn+1/2 = ~vn1/2 + ~a(~rn ) ,
~rn+1 = ~rn + ~vn+1/2 ,

(10.52)
(10.53)

con ~vn1/2 ~v (t = (n 1 1/2) ). En esta forma, el esquema es funcionalmente equivalente


al metodo de Euler-Cromer.
Para el u
ltimo esquema numerico de este captulo tomaremos una aproximacion diferente
y empezaremos con,
d~r
= ~v (t) ,
dt
d2~r
= ~a(~r) .
dt2

(10.54)
(10.55)

Usando las formulas diferenciales centradas para la primera y segunda derivada, tenemos
~rn+1 ~rn1
+ O( 2 ) = ~vn ,
2
~rn+1 + ~rn1 2~rn
+ O( 2 ) = ~an ,
2

(10.56)
(10.57)

donde ~an ~a(~rn ). Reordenando terminos,


~vn =

~rn+1 ~rn1
+ O( 2 ) ,
2

~rn+1 = 2~rn ~rn1 + 2~an + O( 4 ) .

(10.58)
(10.59)


10.2. PENDULO
SIMPLE.

237

Estas ecuaciones, conocidas como el metodo de Verlet5 , podran parecer extra


nas a primera
vista, pero ellas son faciles de usar. Suponga que conocemos ~r0 y ~r1 ; usando la ecuacion
(10.59), obtenemos ~r2 . Conociendo ~r1 y ~r2 podramos ahora calcular ~r3 , luego usando la
ecuacion (10.58) obtenemos ~v2 , y as sucesivamente.
Los metodos del salto de la rana y de Verlet tienen la desventaja que no son autoiniciados. Usualmente tenemos las condiciones iniciales ~r1 = ~r(t = 0) y ~v1 = ~v (t = 0), pero no
~v0 = ~v (t = ) [necesitado por el salto de la rana en la ecuacion (10.50)] o ~r0 = ~r(t = )
[necesitado por Verlet en la ecuacion (10.59)]. Este es el precio que hay que pagar para los
esquemas centrados en el tiempo.
Para lograr que estos metodos partan, tenemos una variedad de opciones. El metodo de
Euler-Cromer, usando la ecuacion (10.53), toma ~v1/2 = ~v1 , lo cual es simple pero no muy
precisa. Una alternativa es usar otro esquema para lograr que las cosas partan, por ejemplo,
en el salto de la rana uno podra tomar un paso tipo Euler para atras, ~v0 = ~v1 ~a1 .
Algunas precauciones deberan ser tomadas en este primer paso para preservar la precision
del metodo; usando
~r0 = ~r1 ~v1 +

2
~a(~r1 ) ,
2

(10.60)

es una buena manera de comenzar el metodo de Verlet.


Ademas de su simplicidad, el metodo del salto de la rana a menudo tiene propiedades
favorables (e.g. conservacion de la energa) cuando resuelve ciertos problemas. El metodo de
Verlet tiene muchas ventajas. Primero, la ecuacion de posicion tiene un error de truncamiento
menor que otros metodos. Segundo, si la fuerza es solamente una funcion de la posicion y si
nos preocuparnos solo de la trayectoria de la partcula y no de su velocidad (como en muchos
problemas de mecanica celeste), podemos saltarnos completamente el calculo de velocidad.
El metodo es popular para el calculo de las trayectorias en sistemas con muchas partculas,
por ejemplo, el estudio de fluidos a nivel microscopico.

10.2.4

Programa de p
endulo simple.

Las ecuaciones de movimiento para un pendulo simple son


d
= ()
dt

d
= ,
dt

(10.61)

donde la aceleracion angular () = g sen /L. El metodo de Euler para resolver estas
ecuaciones diferenciales ordinarias es iterar las ecuaciones:
n+1 = n + n ,
n+1 = n + n .

(10.62)
(10.63)

Si estamos interesados solamente en el angulo y no la velocidad, el metodo de Verlet solo usa


la ecuacion
n+1 = 2n n1 + 2 n .
5

(10.64)

L.Verlet, Computer experiments on classical fluid I. Thermodynamical properties of Lennard-Jones


molecules, Phys. Rev. 159, 98-103 (1967).

238

CAPITULO 10. EDO: METODOS


BASICOS.

Seleccionar el metodo a usar: Euler o Verlet.


Fijar la posicion inicial 1 y la velocidad 1 = 0 del pendulo.
Fijar los parametros fsicos y otras variables.
Tomar un paso para atras para partir Verlet; ver ecuacion (10.60).
Iterar sobre el n
umero deseado de pasos con el paso de tiempo y metodo numerico dado.
Grabar angulo y tiempo para graficar.
Calcular la nueva posicion y velocidad usando el metodo de Euler o de Verlet.
Comprobar si el pendulo a pasado a traves de = 0; Si es as usar el tiempo
transcurrido para estimar el perodo.
Estima el perodo de oscilacion, incluyendo barra de error.
Graficar las oscilaciones como versus t.
Tabla 10.2: Bosquejo del programa pendulo, el cual calcula el tiempo de evolucion de un
pendulo simple usando el metodo de Euler o Verlet.

En vez de usar las unidades SI, usaremos las unidades adimensionales naturales del problema. Hay solamente dos parametros en el problema, g y L y ellos siempre aparecen en la
razon g/L. Fijando esta razon a la unidad, el perodo para peque
nas amplitudes Ts = 2.
En otras palabras, necesitamos solamente una unidad en el problema: una escala de tiempo.
Ajustamos nuestra unidad de tiempo tal que el perodo de peque
nas amplitudes sea 2.
La tabla 10.2 presenta un bosquejo del programa pendulo, el cual calcula el movimiento
de un pendulo simple usando o el metodo de Euler o el de Verlet. El programa estima el
perodo por registrar cuando el angulo cambia de signo; esto es verificar si n y n+1 tienen
signos opuestos probando si n n+1 < 0. Cada cambio de signo da una estimacion para el
perodo, Tk = 2 (nk+1 nk ), donde nk es el paso de tiempo en el cual el k-esimo cambio de
signo ocurre. El perodo estimado de cada inversion de signo es registrado, y el valor medio
calculado como
M
D E
1 X

T =
Tk ,
M k=1

(10.65)

donde M es el n
umero de veces que T es evaluado. La barra de error para esta medicion del
perodo es estimada como = s/M , donde
v
u
M 
D E2
u 1 X
t
s=
Tk T
,
(10.66)
M 1 k=1


10.2. PENDULO
SIMPLE.

239

es la desviacion estandar de la muestra T. Note que cuando el n


umero de medidas se incrementa, la desviacion estandar de la muestra tiende a una constante, mientras que la barra
de error estimado decrese.
Para comprobar el programa pendulo, primero tratamos con angulos iniciales peque
nos,
m , ya que conocemos el perodo T 2. Tomando = 0.1 tendremos sobre 60 puntos por
oscilacion; tomando 300 pasos deberamos tener como cinco oscilaciones. Para m = 10 , El
metodo de Euler calcula un perodo estimado de hTi = 6.375 0.025 sobre un 1.5% mayor
que el esperado T = 2(1.002) dado por la ecuacion (10.38). Nuestro error estimado para

el perodo es entorno a en cada medida. Cinco oscilaciones


son 9 medidas de T , as
que nuestro error estimado para el perodo debera ser ( /2)/ 9 0.02. Notemos que la
estimacion esta en buen acuerdo con los resultados obtenidos usando la desviacion estandar.
Hasta aqu todo parece razonable.
40

30

20

Angulo [grados]

10

-10

-20

-30

-40

-50
0

10

15
Tiempo

20

25

30

Figura 10.4: Salida del programa pendulo usando el metodo de Euler. El angulo inicial es
m = 10 , el paso en el tiempo es = 0.1, y 300 iteraciones fueron calculadas.

Infortunadamente si miramos el grafico 10.3 nos muestra los problemas del metodo de
Euler. La amplitud de oscilacion crece con el tiempo. Ya que la energa es proporcional
al angulo maximo, esto significa que la energa total se incrementa en el tiempo. El error
global de truncamiento en el metodo de Euler se acumula en este caso. Para pasos de
tiempos peque
nos = 0.05 e incrementos en el n
umero de pasos (600) podemos mejorar los
resultados, ver figura 10.4, pero no eliminamos el error. El metodo del punto medio tiene la
misma inestabilidad numerica.
Usando el metodo de Verlet con m = 10 , el paso en el tiempo = 0.1 y 300 iteraciones
obtenemos los resultados graficados en 10.5. Estos resultados son mucho mejores; la amplitud
de oscilacion se mantiene cerca de los 10 y hTi = 6.275 0.037. Afortunadamente el metodo
de Verlet, el del salto de rana y el de Euler-Cromer no sufren de la inestabilidad numerica
encontrada al usar el metodo de Euler.
Para m = 90 , la primera correccion para la aproximacion de angulo peque
no, ecuacion
(10.38), da T = 7.252. Usando el metodo de Verlet, el programa da un perodo estimado de

CAPITULO 10. EDO: METODOS


BASICOS.

240
20

15

10

Angulo [grados]

-5

-10

-15

-20

-25
0

10

15
Tiempo

20

25

30

Figura 10.5: Salida del programa pendulo usando el metodo de Euler. El angulo inicial es
m = 10 , el paso en el tiempo es = 0.05 y 600 iteraciones fueron calculadas.

15

10

Angulo [grados]

-5

-10

-15
0

10

15
Tiempo

20

25

30

Figura 10.6: Salida del programa pendulo usando el metodo de Verlet. El angulo inicial es
m = 10 , el paso en el tiempo es = 0.1 y 300 iteraciones fueron calculadas.

hTi = 7.414 0.014, lo cual indica que (10.38) es una buena aproximacion (alrededor de un
2% de error), a
un para angulos grandes. Para el angulo muy grande de m = 170 , vemos
la trayectoria en la figura 10.6. Notemos como la curva tiende a aplanarse en los puntos
de retorno. En este caso el perodo estimado es hTi = 15.3333 + / 0.0667, mientras que
(10.38) da T = 9.740, indicando que esta aproximacion para (10.37) deja de ser valida para
este angulo tan grande.

10.3. LISTADO DE LOS PROGRAMAS.

241

200

150

Angulo [grados]

100

50

-50

-100

-150

-200
0

10

15
Tiempo

20

25

30

Figura 10.7: Salida del programa pendulo usando el metodo de Verlet. El angulo inicial es
m = 170 , el paso en el tiempo es = 0.1 y 300 iteraciones fueron calculadas.

10.3

Listado de los programas.

10.3.1

balle.cc

#include "NumMeth.h"
main()
{
const double Cd=0.35;
const double rho=1.293;
// [kg/m^3]
const double radio=0.037;
// [m]
double A= M_PI*radio*radio ;
double m=0.145;
// [kg]
double g=9.8;
// [m/s^2]
double a = -Cd*rho*A/(2.0e0*m) ;
double v0, theta0, tau;
ofstream salida ("salida.txt") ;
ofstream salidaT ("salidaT.txt") ;
double x0, y0;
x0=0.0e0 ;
cout << "Ingrese la altura inicial [m] : ";
cin >> y0;
cout << "Ingrese la velocidad inicial [m/s]: ";
cin >> v0;
cout <<"Ingrese angulo inicial (grados): ";

CAPITULO 10. EDO: METODOS


BASICOS.

242
cin >> theta0;

int flagRA = 2 ;
while (flagRA!=0 && flagRA !=1) {
cout <<"Con resistencia del aire, Si= 1, No= 0:
cin >> flagRA;
}
cout <<"Ingrese el paso en el tiempo, tau en [s]:
cin >> tau ;
double vxn=v0*cos(M_PI*theta0/180.0) ;
double vyn=v0*sin(M_PI*theta0/180.0) ;
double xn=x0 ;
double yn=y0 ;
double tiempo = -tau;
while( yn >= y0) {
tiempo +=tau ;
salidaT << x0+v0*cos(M_PI*theta0/180.0) *tiempo
salidaT << y0+v0*sin(M_PI*theta0/180.0) *tiempo
salida << xn << " " << yn << endl;
if(flagRA==0) a=0.0e0 ;
double v=sqrt(vxn*vxn+vyn*vyn) ;
double axn= a*v*vxn ;
double ayn= a*v*vyn -g ;
double xnp1 = xn + tau*vxn ;
double ynp1 = yn + tau*vyn ;
double vxnp1 = vxn + tau*axn;
double vynp1 = vyn + tau*ayn;
vxn=vxnp1;
vyn=vynp1;
xn=xnp1 ;
yn=ynp1 ;
}
cout << "Tiempo de vuelo: " << tiempo<< endl;
cout << "Alcance: " << xn<<endl;
salida.close();
}

10.3.2

pendulo.cc

#include "NumMeth.h"
main()
{
int respuesta=2 ;
while(respuesta != 0 && respuesta !=1 ) {

";

";

<<" " ;
-g*tiempo*tiempo/2.0e0<< endl;

10.3. LISTADO DE LOS PROGRAMAS.


cout << "Eliga el metodo: Euler=0 y Verlet=1: " ;
cin >> respuesta ;
}
double theta1 ;
double omega1 = 0.0e0;
cout << "Ingrese el angulo inicial (grados): ";
cin >> theta1 ;
theta1*=M_PI/180.0e0 ;
double tau ;
cout << "Ingrese el paso de tiempo: ";
cin >> tau ;
int pasos ;
cout << "Ingrese el numero de pasos: ";
cin >> pasos ;
double * periodo = new double[pasos] ;
ofstream salida ("salidaPendulo.txt");
double theta0= theta1-tau*omega1-tau*tau*sin(theta1) ;
double thetaNm1=theta0 ;
double thetaN=theta1 ;
double omegaN=omega1;
double thetaNp1, omegaNp1 ;
int nK=1;
int M=0 ;
for(int i=1; i< pasos; i++) {
double alphaN=-sin(thetaN);
if(respuesta==0) {
// Euler
thetaNp1=thetaN+tau*omegaN ;
omegaNp1=omegaN+tau*alphaN ;
} else {
thetaNp1=2.0e0*thetaN-thetaNm1+tau*tau*alphaN ;
}
salida << (i-1)*tau<<" " <<thetaNp1*180/M_PI<< endl ;
if (thetaNp1*thetaN<0) {
if(M==0) {
periodo[M++]=0.0e0;
nK=i ;
} else {
periodo[M++] = 2.0e0*tau*double(i-nK);

243

CAPITULO 10. EDO: METODOS


BASICOS.

244
nK=i ;
}
}
thetaNm1=thetaN ;
thetaN=thetaNp1 ;
omegaN=omegaNp1 ;

}
double Tprom=0.0e0;
for (int i=1; i < M; i++) Tprom+=periodo[i] ;
Tprom/=double(M-1) ;
double ssr=0.0 ;
for (int i=1; i < M; i++) ssr+=(periodo[i]-Tprom)* (periodo[i]-Tprom);
ssr/=double(M-2);
double sigma =sqrt(ssr/double(M-1)) ;
cout <<" Periodo = "<< Tprom << "+/-"<< sigma << endl ;
salida.close() ;
delete [] periodo;
}

Captulo 11
Ecuaciones Diferenciales
Ordinarias II: M
etodos Avanzados.
versi
on final 1.41-0111051

En el captulo anterior aprendimos como resolver ecuaciones diferenciales ordinarias usando algunos metodos simples. En este captulo haremos algo de mecanica celeste basica comenzando con el problema de Kepler. Al calcular la orbita de un satelite peque
no alrededor
de un cuerpo masivo (e.g un cometa orbitando el Sol), descubriremos que metodos mucho
mas sofisticados son necesarios para manipular sistemas simples de dos cuerpos.

11.1

Orbitas
de cometas.

11.1.1

Ecuaciones b
asicas.

Considere el problema de Kepler en el cual un peque


no satelite, tal como un cometa, orbita el
Sol. Usamos un sistema de coordenadas Copernicano y fijamos el Sol en el origen. Por ahora,
consideremos solamente la fuerza gravitacional entre el cometa y el Sol, y despreciemos todas
las otras fuerzas (e.g., fuerzas debidas a los planetas, viento solar). La fuerza sobre el cometa
es
GmM
F~ =
~r ,
| ~r |3

(11.1)

donde ~r es la posicion del cometa, m es su masa, M = 1.99 1030 [kg] es la masa del Sol, y
G = 6.67 1011 [m3 /kg s2 ] es la constante gravitacional.
Las unidades naturales de longitud y tiempo para este problema no son metros ni segundos. Como unidad de distancia usaremos la unidad astronomica [AU], 1 AU=1.4961011 [m],
la cual es igual a la distancia media de la Tierra al Sol. La unidad de tiempo sera el [a
no]
AU (el perodo de una orbita circular de radio 1 [AU]). En estas unidades, el producto
GM = 4 2 [AU3 /a
no2 ]. Tomaremos la masa del cometa, m, como la unidad; en unidades
MKS la masa tpica de un cometa es 10153 [kg].
Ahora tenemos suficiente para ensamblar nuestro programa, pero antes hagamos una
rapida revision de lo que sabemos de orbitas. Para un tratamiento completo podemos recurrir
1

Este captulo est


a basado en el tercer captulo del libro: Numerical Methods for Physics, second edition
de Alejandro L. Garcia, editorial Prentice Hall.

245


CAPITULO 11. EDO II: METODOS
AVANZADOS.

246

a algunos textos de mecanica estandard, tales como Symon2 o Landau y Lifshitz3 . La energa
total del satelite es
1
GM m
E = mv 2
,
2
r

(11.2)

donde r = | ~r | y v = | ~v |. Esta energa total es conservada, tal como el momento angular,


~ = ~r (m~v ) .
L

(11.3)

Ya que este problema es bidimensional, consideraremos el movimiento en el plano x-y. El


u
nico componente distinto de cero del momento angular esta en la direccion z.
Cuando la orbita es circular, la fuerza centrpeta es compensada por la fuerza gravitacional,
mv 2
GM m
=
,
r
r2

(11.4)

o
v=

GM
.
r

(11.5)

Por colocar algunos valores, en una orbita circular en r=1 [AU] la velocidad orbital es v= 2
[AU/a
no] (cerca de 30.000 [km/h]). Reemplazando la ecuacion (11.5) en (11.2), la energa
total en una orbita circular es
E=

GM m
.
2r

(11.6)

En una orbita elptica, los semiejes mayores y menores, a y b, son desiguales (Figura 11.1).

y
q
2b

r
x

Q
2a

Figura 11.1: Orbita


elptica alrededor del Sol.
2
3

K. Symon, Mechanics (Reading Mass.: Addison-Wesley, 1971).


L. Landau and E. Lifshitz, Mechanics (Oxford: Pergamon, 1976).


11.1. ORBITAS
DE COMETAS.

247

Nombre del Cometa


T [a
nos]
e
q [AU]
i
Encke
3.30 0.847 0.339
12.4
Biela
6.62 0.756 0.861
12.6
Schwassmann-Wachmann 1
16.10 0.132 5.540
9.5
Halley
76.03 0.967 0.587 162.2
Grigg-Mellish
164.3 0.969 0.923 109.8
Hale-Bopp
2508.0 0.995 0.913
89.4

Primera pasada
1786
1772
1925
239 a.c.
1742
1995

Tabla 11.1: Datos orbitales de algunos cometas.

La excentricidad, e, esta definida como


e=

b2
.
a2

(11.7)

La excentricidad de la Tierra es e = 0.017, por lo tanto esta orbita esta muy cercana de ser
circular. La distancia del Sol al perihelio (punto de mayor aproximacion) es q = (1 e)a; la
distancia del Sol al afelio es Q = (1 + e)a.
La ecuacion (11.6) tambien se mantiene para una orbita elptica si reemplazamos el radio
con el semieje mayor; por lo tanto la energa total es
E=

GM m
.
2a

(11.8)

Note que E 0. De las ecuaciones (11.2) y (11.8), encontramos que la velocidad orbital
como funcion de la distancia radial es
s


2 1
v = GM

.
(11.9)
r a
La velocidad es maxima en el perihelio y mnima en el afelio, la razon entre las velocidades
esta dada por Q/q. Finalmente, usando la conservacion de momento angular, podramos
derivar la tercera ley de Kepler,
T2 =

4 2 3
a ,
GM

(11.10)

donde T es el perodo de la orbita.


Los datos orbitales para unos pocos cometas bien conocidos estan dados en la tabla 11.1.
La inclinacion, i, es el angulo entre el plano orbital del cometa y el plano eclptico (el plano
de la orbita de los planetas). Cuando la inclinacion es menor que los 90 , se dice que la orbita
es directa, cuando es mayor que 90 , se dice que la orbita es retrograda (i.e., orbita el Sol en
la direccion opuesta a la de los planetas).

11.1.2

Programa orbita.

Un programa simple, llamado orbita, que calcula las orbitas para el problema de Kepler
usando varios metodos numericos es propuesto en la tabla 11.2. El metodo de Euler, descrito


CAPITULO 11. EDO II: METODOS
AVANZADOS.

248

Fijar la posicion y velocidad inicial del cometa.


Fijar los parametros fsicos ( m, G, etc.).
Iterar sobre el n
umero deseado de pasos usando el metodo numerico especificado.
Grabar posicion y la energa para graficar.
Calcular la nueva posicion y velocidad usando:

Metodo
Metodo
Metodo
Metodo

de Euler (11.11), (11.12) o;


de Euler-Cromer (11.13), (11.14) o;
Runge-Kutta de cuarto orden (11.30), (11.31) o;
de Runge-Kutta adaptativo.

Graficar la trayectoria del cometa.


Graficar la energa del cometa versus el tiempo.

Tabla 11.2: Bosquejo del programa orbita, el cual calcula la trayectoria de un cometa usando
varios metodos numericos.
en el captulo anterior, calcula la trayectoria del cometa como
~rn+1 = ~rn + ~vn ,
~vn+1 = ~vn + ~a(~rn ) ,

(11.11)
(11.12)

donde ~a es la aceleracion gravitacional. De nuevo, discretizamos el tiempo y usamos la


notacion fn f (t = (n 1) ), donde es el paso tiempo.
El caso de prueba mas simple es una orbita circular. Para un radio orbital de 1 [AU], la
ecuacion (11.5) da una velocidad tangencial de 2 [AU/a
no]. Unos 50 puntos por revolucion
orbital nos dara una suave curva, tal que = 0.02 [a
nos] (o cercano a una semana) es un
paso de tiempo razonable. Con esos valores, el programa orbita usando el metodo de Euler,
da los resultados mostrados en la figura 11.2. Inmediatamente vemos que la orbita no es
circular, pero una espiral hacia fuera. La razon es clara desde el grafico de energa; en vez de
ser constante, la energa total aumenta contnuamente. Este tipo de inestabilidad se observa,
tambien, en el metodo de Euler para el pendulo simple. Afortunadamente hay una solucion
simple a este problema: el metodo Euler-Cromer para calcular la trayectoria
~vn+1 = ~vn + ~a(~rn ) ,
~rn+1 = ~rn + ~vn+1 .

(11.13)
(11.14)

Note que el solo cambio del metodo de Euler en que primero calculamos la nueva velocidad,
~vn+1 , y luego la usamos en el calculo de la nueva posicion. Para las mismas condiciones
iniciales y paso de tiempo, el metodo de Euler-Cromer da resultados mucho mejores, como
los mostrados en la figura 11.3. La orbita es casi circular, y la energa total se conserva.


11.1. ORBITAS
DE COMETAS.

249

90 o

0o

180o

Energa [M AU*AU/ao*ao]

30
Energa Cintica
Energa Potencial
Energa Total

20

10

10

20

30

40
3

Distancia [AU]

270o

0.5

1.5

2.5

3.5

Tiempo [aos]

Figura 11.2: Grafico de la trayectoria y la energa desde el programa orbita usando el metodo
de Euler. La distancia radial inicial es 1 [AU] y la velocidad tangencial inicial es 2 [AU/a
no].
El paso en el tiempo es = 0.02 [a
nos]; y 200 pasos son calculados. Los resultados estan en
desacuerdo con la prediccion teorica de una orbita circular con energa total constante.

Las energas potencial y cinetica no son constantes, pero este problema podra ser mejorado
usando un paso de tiempo peque
no. El programa orbita tambien da la opcion de usar el
metodo de Runge-Kutta, los cuales son descritos en las proximas dos secciones.
Aunque el metodo de Euler-Cromer hace un buen trabajo para bajas excentricidades,
tiene problemas con orbitas mas elpticas, como se muestra en la 11.4. Note que si la energa
llega a ser positiva; el satelite alcanza la velocidad de escape. Si bajamos el paso de tiempo
desde = 0.02 [a
nos] a = 0.005 [a
nos] obtenemos mejores resultados, como los mostrados
en la figura 11.5. Estos resultados no son del todo perfectos; la orbita puede ser una elipse
cerrada, pero todava tiene una notable deriva esp
uria.
En este punto usted se podra estar preguntando, Por que estamos estudiando este
problema? , si la solucion analtica es bien conocida. Es verdad que hay problemas mecanicos
celestes mas interesantes (e.g., el efecto de perturbaciones sobre la orbita, problema de tres
cuerpos). Sin embargo, antes de hacer los casos complicados podramos, siempre, chequear
los algoritmos de problemas conocidos. Suponga que introducimos una peque
na fuerza de
arrastre sobre el cometa. Podramos pecar de inocentes creyendo que la precision de la figura
11.5 fue un fenomeno fsico mas que un artefacto numerico.
Claramente, el metodo de Euler-Cromer hace un trabajo inaceptable de rastreo de las
orbitas mas elpticas. Los resultados mejoran si achicamos el paso de tiempo, pero entonces
solo podemos rastrear unas pocas orbitas. Suponga que deseamos rastrear cometas para
posibles impactos con la Tierra. Un gran cometa impactando sobre la Tierra sera mas
destructivo que una guerra nuclear. Muchos cometas tienen orbitas extremadamente elpticas
y perodos de cientos de a
nos. Esta amenaza desde el espacio exterior motiva nuestro estudio
de metodos mas avanzados para resolver ecuaciones diferenciales ordinarias.


CAPITULO 11. EDO II: METODOS
AVANZADOS.

250
90 o

0o

180o

Energa [M AU*AU/ao*ao]

30

20
Energa Cintica
Energa Potencial

10

Energa Total
0

10

20

30

40

50
1.5

0.5

Distancia [AU]

0.5

1.5

0.5

270o

1.5

2.5

3.5

Tiempo [aos]

Figura 11.3: Grafico de la trayectoria y la energa desde el programa orbita usando el metodo
de Euler-Cromer. Los parametros son los mismos que en la figura 11.2. Los resultados estan
en un acuerdo cualitativo al menos con la prediccion teorica de una orbita circular con energa
total constante.

180o

30

0o

270o
20
10
0
10
Distancia [AU]

20

30

Energa [M AU*AU/aos*aos]

90o

250
200
150
100
50
0
50
100
150
200

Energa Cintica
Energa Potencial
Energa Total

0 0.5 1 1.5 2 2.5 3 3.5 4


Tiempo [aos]

Figura 11.4: Grafico de la trayectoria y la energa desde el programa orbita usando el


metodo de Euler-Cromer. La distancia radial inicial es 1 [AU] y la velocidad tangencial
inicial es [AU/a
no]. El paso en el tiempo es = 0.02 [a
nos]; y 200 pasos son calculados.
Debido al error numerico el cometa alcanza la velocidad de escape, la posicion final es 35 [AU]
y la energa total es positiva.

11.2

M
etodos de Runge-Kutta.

11.2.1

Runge-Kutta de segundo orden.

Ahora miremos uno de los metodos mas populares para resolver numericamente las ecuaciones diferenciales ordinarias: Runge-Kutta. Primero trabajaremos las formulas generales de


11.2. METODOS
DE RUNGE-KUTTA.

251

90 o

180o

0o

Energa [M AU*AU/aos*aos]

300
Energa Cintica
Energa Potencial
Energa Total

200
100
0

100
200
300

270o

0.5

0.5

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Distancia [AU]

Tiempo [aos]

Figura 11.5: Grafico de la trayectoria y la energa desde el programa orbita usando el


metodo de Euler-Cromer. Los parametros son los mismos que en la figura 11.4 excepto que
el tiempo es mas peque
no = 0.005 [a
nos]. Los resultados son mejores, pero a
un presenta
una precesion esp
uria.

Runge-Kutta y luego las aplicaremos especficamente a nuestro problema del cometa. De esta
manera sera facil usar el metodo Runge-Kutta para otros sistemas fsicos. Nuestra ecuacion
diferencial ordinaria gerneral toma la forma
d~x
= f~(~x(t), t) ,
dt

(11.15)

donde el vector de estado x(t) = [x1 (t), x2 (t), . . . xN (t)] es la solucion deseada. En el problema
de Kepler tenemos
~x(t) = [rx (t) ry (t) vx (t) vy (t)] ,

(11.16)



drx dry dvx vy
~
,
f (~x(t), t) =
dt dt dt dt
= [vx (t) vy (t) Fx (t)/m Fy (t)/m] ,

(11.17)

donde rx , vx , y Fx son las componentes x de la posicion, la velocidad y la fuerza respectivamente (y lo mismo para la componente y). Note que en el problema de Kepler, la funcion f
no depende explcitamente del tiempo sino que solo depende de ~x(t).
Nuestro punto de partida es el metodo simple de Euler; en forma vectorial podra ser
escrito como
~x(t + ) = ~x(t) + f~(~x, t) .

(11.18)


CAPITULO 11. EDO II: METODOS
AVANZADOS.

252

Consideremos que la primera formula de Runge-Kutta es


 


1
1

~
~x(t + ) = ~x(t) + f ~x t + , t + ,
2
2

(11.19)

donde
~x

1
t+
2

1
~x(t) + f~(~x, t) .
2

(11.20)

Para ver de donde viene esta formula, consideremos por el momento el caso de una
variable. Sabemos que la expansion de Taylor
dx()
,
dt
= x(t) + f (x(), ) ,

x(t + ) = x(t) +

(11.21)

es exacta para alg


un valor de entre t y t + , como se vio en la ecuacion (10.10). La formula
de Euler toma = t; Euler-Cromer usa = t en la ecuacion de velocidad y = t + en la
ecuacion de posicion. Runge-Kutta
usa = t + 12 , lo cual pareciera una mejor estimacion.

Sin embargo, x t + 21 no es conocida,
 podemos aproximarla de la manera simple: usando

un paso de Euler calculamos x t + 12 y usando esta como nuestra estimacion de x t + 12 .
Avancemos a un ejemplo simple usando la formula Runge-Kutta. Consideremos la ecuacion
dx
= x ,
dt

x(t = 0) = 1 .

(11.22)

La solucion de la ecuacion (11.22) es x(t) = et . Usando el metodo de Euler con un paso de


tiempo de = 0.1, tenemos
x(0.1) = 1 + 0.1(1) = 0.9 ,
x(0.2) = 0.9 + (0.1)(0.9) = 0.81 ,
x(0.3) = 0.81 + 0.1(0.81) = 0.729 ,
x(0.4) = 0.729 + 0.1(0.729) = 0.6561 .
Ahora tratemos con Runge-Kutta. Para hacer una correcta comparacion usaremos un paso
de tiempo mayor para Runge-Kutta = 0.2 porque hace el doble de evaluaciones de f (x).
Por la formula de Runge-Kutta presentada arriba,
x (0.1) = 1 + 0.1(1) = 0.9 ,
x(0.2) = 1 + 0.2(0.9) = 0.82 ,
x (0.3) = 0.82 + 0.1(0.82) = 0.738
x(0.4) = 0.82 + 0.2(0.738) = 0.6724 .
Podemos comparar esto con la solucion exacta x(0.4) = exp(0.4) 0.6703. Claramente,
Runge-Kutta lo hace mucho mejor que Euler; los errores porcentuales absolutos son 0.3% y
2.1% respectivamente.


11.2. METODOS
DE RUNGE-KUTTA.

11.2.2

253

F
ormulas generales de Runge-Kutta.

La formula discutida arriba no es la u


nica formula posible para un Runge-Kutta de segundo
orden. Aqu hay una alternativa:
1
~x(t + ) = ~x(t) [f~(~x(t), t) + f~(~x (t + ), t + )] ,
2

(11.23)

~x (t + ) ~x(t) + f~(~x(t), t) .

(11.24)

donde

Para entender este esquema, consideremos nuevamante el caso en una variable. En nuestra
formula original, estimamos que f (x(), ) como 12 [f (x, t) + f (x (t + ), t + )].
Estas formulas no son sacada de la manga; se las puede deducir usando la expansion de
Taylor con dos variables,

n

X
1

f (x + h, t + ) =
h
+
f (x, t) ,
n!
x
t
n=0

(11.25)

donde todas las derivadas son evaluadas en (x, t). Para una formula general de Runge-Kutta
de segundo orden queremos obtener una expresion de la siguiente forma
x(t + ) = x(t) + w1 f (x(t), t) + w2 f (x , t + ) ,

(11.26)

x x(t) + f (x(t), t) .

(11.27)

donde

Hay cuatro coeficientes no especificados: a, b, w1 y w2 . Note que cubrimos las ecuaciones


(11.19) y (11.20) eligiendo los valores
w1 = 0 ,

w2 = 1

1
,
2

1
,
2

(11.28)

y las ecuaciones (11.23) y (11.24) eligiendo


w1 =

1
,
2

w2 =

1
,
2

=1,

=1.

(11.29)

Deseamos seleccionar cuatro coeficientes tal que tengamos una precision de segundo orden;
esto es deseamos calzar la serie de Taylor a traves de los terminos de la segunda derivada.
Los detalles del calculo se proponen como un ejercicio, pero cualquier grupo de coeficientes
satisfacen las relaciones siguientes w1 + w2 = 1, w2 = 1/2 y = daran un esquema
Runge-Kutta de segundo orden. El error de truncamiento local es O( 3 ), pero la expresion
explcita no tiene una forma simple. No esta claro que un esquema sea superior al otro ya
que el error de truncamiento, siendo una funcion complicada de f (x, t), variara de problema
a problema.


CAPITULO 11. EDO II: METODOS
AVANZADOS.

254

11.2.3

Runge-Kutta de cuarto orden.

Presentamos las formulas de Runge-Kutta de segundo orden porque es facil de comprender su


construccion. En la practica, sin embargo, el metodo mas com
unmente usado es la siguiente
formula de cuarto orden:
i
1 h~
~
~
~
~x(t + ) = ~x(t) + F1 + 2F2 + 2F3 + F4 ,
(11.30)
6
donde
F~1 = f~(~x, t) ,


1
1 ~
~
~
F2 = f ~x + F1 , t + ,
2
2


1 ~
1
~
~
F3 = f ~x + F2 , t + ,
2
2
F~4 = f~(~x + F~3 , t + ) .

(11.31)

El siguiente extracto del Numerical Recipes4 resume mejor el estado que las formulas de arriba
tienen en el mundo del analisis numerico:
Para muchos usuarios cientficos, el metodo de Runge-Kutta de cuarto orden no es
solo la primera palabra en esquemas de integracion para ecuaciones diferenciales
ordinarias, si no que es la u
ltima tambien. De hecho, usted puede ir bastante lejos
con este viejo caballito de batalla, especialmente si los combina con un algortmo
de paso adaptativo . . . Bulirsch-Stoer o los metodos predictor-corrector pueden
ser mucho mas eficientes para problemas donde se require una alta precision.
Estos metodos son los finos caballos de carrera mientras que Runge-Kutta es el
fiel caballo de tiro.
Usted se preguntara, por que formulas de cuarto orden y no de orden superior? Bien, los
metodos de orden superior tienen un error de truncamiento mejor, pero tambien requieren
mas calculo, esto es, mas evaluaciones de f (x, t). Hay dos opciones, hacer mas pasos con un
peque
no usando un metodo de orden inferior o hacer pocos pasos con un mas grande usando
un metodo de orden superior. Ya que los metodos de Runge-Kutta de ordenes superiores son
muy complicados, el esquema de cuarto orden dado anteriormente es muy conveniente. Entre
parentesis, el error de truncamiento local para Runge-Kutta de cuarto orden es O( 5 ).
Para implementar metodos de cuarto orden para nuestro problema de la orbita, usaremos
la funcion rk4 (tabla 11.3). Esta funcion toma como datos: el estado actual del sistema, ~x(t);
el paso de tiempo para ser usado, ; el tiempo actual, t; la funcion f~(~x(t), t; ); donde es una
lista de parametros usados por f~. La salida es el nuevo estado del sistema, ~x(t + ), calculado
por el metodo de Runge-Kutta. Usando Runge-Kutta de cuarto orden da los resultados
mostrados en la figura 11.6, la cual es mucho mejor que las obtenidas usando el metodo de
Euler-Cromer (figura 11.5).
4

W. Press, B. Flannery, S. Tukolsky and W. Vetterling, Numerical Recipes in fortran, 2nd ed. (Cambridge: Cambridge University Press 1992).


11.2. METODOS
DE RUNGE-KUTTA.

255

Entradas: ~x(t), t, , f~(~x, t; ), y .


Salidas: ~x(t + ).
Evaluacion F~1 , F~2 , F~3 y F~4 usando ecuacion (11.31).
Calculo de ~x(t + ) usando Runge-Kutta de cuarto orden, usando ecuacion (11.30).

Tabla 11.3: Bosquejo de la funcion rk4, la cual eval


ua un paso simple usando el metodo
Runge-Kutta de cuarto orden.
Entradas: ~x(t), t (no se usa), GM .
Salidas: d~x(t)/dt.
Eval
ua la aceleracion ~a = (GM~r/ | ~r |3 ).
Retorno: d~x(t)/dt = [vx , vy , ax , ay ].

Tabla 11.4: Bosquejo de la funcion gravrk, la cual es usada por la funcion Runge-Kutta para
evaluar las ecuaciones de movimiento para el problema de Kepler.

11.2.4

Pasando funciones a funciones.

La funcion de Runge-Kutta rk4 es muy simple, pero introduce un elemento de programacion


que no hemos usado antes. La funcion f~(~x, t; ) esta introducida como un parametro de
entrada a rk4. Esto nos permite usar rk4 para resolver diferentes problemas cambiando
simplemente la definicion de f~ (como lo haremos en la u
ltima seccion). Para el problema
de Kepler, la funcion gravrk (tabla 11.4) define la ecuacion de movimiento volviendo dx/dt,
ecuacion (11.17).
En C++ el puntero a la funcion f~(~x, t; ) es pasado como parametro a rk4. El programa
orbita llama a rk4 como
rk4( state, nState, time, tau, gravrk, param) ;
donde el vector de estado es ~x = [rx , ry , vx , vy ]. En el inicio del archivo, la funcion gravrk es
declarada con el prototipo
void gravrk( double * x, double t, double param, double * deriv );
La primera lnea de rk4 es
void rk4(double * x, int nX, double t, double tau,
void (*derivsRK) (double *, double, double, double *) , double param)


CAPITULO 11. EDO II: METODOS
AVANZADOS.

256
90 o

180o

0o

0.5

Distancia [AU]

270

0.5

Energa [M AU*AU/aos*aos]

300
Energa Cintica
Energa Potencial
Energa Total

200

100

100

200

300

0.2

0.4

0.6

0.8

1.0

Tiempo [aos]

Figura 11.6: Grafico de la trayectoria y la energa desde el programa orbita usando el


metodo de Runge-Kutta. La distancia radial inicial es 1 [AU] y la velocidad tangencial
inicial es [AU/a
no]. El paso en el tiempo es = 0.005 [a
nos]; y 200 pasos son calculados.
Comparemos con la figura 11.5.

Cuando es llamado por orbita, esta funcion recibe un puntero a gravrk en la variable
derivsRK. Dentro de rk4, la sentencia
(*derivsRK)( x, t, param, F1 ) ;
es equivalente a
gravrk( x, t, param, F1 ) ;
ya que dervsRK apunta a gravrk.

11.3

M
etodos adaptativos

11.3.1

Programas con paso de tiempo adaptativo.

Ya que el metodo de Runge-Kutta de cuarto orden es mas preciso (errores de truncamiento


peque
nos), hace un mejor trabajo dentro de una orbita altamemente elptica. A
un para una
distancia inicial al afelio de 1 [AU] y una velocidad inicial en el afelio de /2 [AU/a
no] usando
1
un paso tiempo tan peque
no como = 0.0005 [a
nos] ( 4 2 [hrs]), la energa total vara sobre
el 7% por orbita. Si pensamos la fsica, llegamos a que realizar una integracion con un paso
peque
no es solo necesaria cuando el cometa haga su acercamiento mas proximo, punto en el
cual su velocidad es maxima. Cualquier error peque
no en la trayectoria cuando rodea al Sol
causa una gran desviacion en la energa potencial.
La idea ahora es dise
nar un programa que use un paso de tiempo peque
no cuando el cometa
esta cerca del Sol y pasos de tiempo grande cuando esta lejos. Tal como esta, normalmente


11.3. METODOS
ADAPTATIVOS

257

tenemos solo una idea aproximada de lo que pudiera ser; ahora tenemos que seleccionar un
mn y un max y una manera de intercambiar entre ellos. Si tenemos que hacer esto por prueba
y error manual, podra ser peor que haciendolo por la fuerza bruta calculando con un paso
de tiempo peque
no toda la trayectoria. Idealmente, deseamos estar completamente liberados
de tener que especificar un paso de tiempo. Deseamos tener una trayectoria calculada de la
misma posicion inicial hasta alg
un tiempo final con la seguridad de que la solucion es correcta
a una precision especificada
Los programas adaptativos continuamente monitorean la solucion y modifican el paso
de tiempo para asegurar que se mantenga la precision especificada por el usuario. Esos
programas pueden hacer algunos calculos extras para optimizar la eleccion de , en muchos
casos este trabajo extra vale la pena. Aqu esta una manera para implementar esta idea: dado
el estado actual ~x(t), el programa calcula ~x(t + ) como siempre, y luego repite el calculo
haciendolo en dos pasos, cada uno con paso de tiempo 2 . Visualmente, esto es

paso grande

x (t)
paso pequeo

x (t+/2)

paso pequeo

x b(t+ )
x s (t+ )

La diferencia entre las dos respuestas, ~xb (t+ ) y ~xs (t+ ), estima el error de truncamiento
local. Si el error es tolerable, el valor calculado es aceptado y un valor mayor de es usado
en la proxima iteracion. Por otra parte, si el error es muy grande, la respuesta es rebotada, el
paso de tiempo es reducido y el procedimiento es repetido hasta que se obtenga una respuesta
aceptable. El error de truncamiento estimado para el actual paso de tiempo puede guiarnos
en seleccionar en nuevo paso de tiempo para la proxima iteracion.

11.3.2

Funci
on adaptativa de Runge-Kutta.

Aqu mostramos como una iteracion adaptativa puede ser implementada para un esquema de
Runge-Kutta de cuarto orden: llamemos al error de truncamiento; sabemos que 5
para un esquema Runge-Kutta de cuarto orden. Supongamos que el paso de tiempo actual
ant da un error de c = | ~xb ~xs |; esta es nuestra estimacion para el error de truncamiento.
Dado que deseamos que el error sea menor o igual que el error ideal especificado por el usuario,
le llamamos i ; luego, el nuevo paso de tiempo estimado es
est


i
=
c

1/5


.

(11.32)

Ya que esto es solo una estimacion, el nuevo paso de tiempo es nuevo = S1 est , donde S1 < 1.
Esto nos hace sobreestimar el cambio cuando disminuimos y subestimar el cambio cuando
lo aumentamos. Malogramos los esfuerzos computacionales cada vez que rebotamos una
respuesta y necesitamos reducir el paso de tiempo, por lo tanto es mejor ajustar nuevo < est .
Podramos poner un segundo factor de seguridad, S2 < 1, para asegurarse que el programa
no sea demasiado entusiasta en aumentar o disminuir precipitadamente el paso de tiempo.


CAPITULO 11. EDO II: METODOS
AVANZADOS.

258

Con ambas precauciones, el nuevo paso de tiempo es

si S1 est > S2 ant


S2 ant
nuevo = /S2
si S1 est < ant /S2 .

S1 est
en otro caso

(11.33)

Entradas: ~x(t), t, , i , f~(~x, t; ), y .


Salidas: x(t0 ), t0 , nuevo .
Fijar las variables iniciales
Iterar sobre el n
umero deseado de intentos para satisfacer el error lmite.
Tomar dos peque
nos pasos de tiempo.
Tomar un u
nico paso grande de tiempo.
Calcule el error de truncamiento estimado.
Estime el nuevo valor de (incluyendo factores de seguridad).
Si el error es aceptable, regresar los valores calculados.
Mostrar un mensaje de error si el error lmite nunca es satisfecho.

Tabla 11.5: Bosquejo de la funcion rka, la cual eval


ua un u
nico paso usando un metodo
adaptativo de Runge-Kutta de cuarto orden.
Esto obliga a asegurar que nuestro nueva estimacion para nunca aumente o decrezca
por mas que un factor S2 . Por supuesto, este nuevo podra ser insuficientemente peque
no,
y tendramos que continuar reduciendo el paso de tiempo; pero al menos sabramos que no
ocurrira de un modo incontrolado.
Este procedimiento no es a prueba de bala los errores de redondeo llegan a ser significativos
en pasos de tiempos muy peque
nos. Por esta razon la iteracion adaptativa podra fallar para
encontrar un paso de tiempo que de la precision deseada. Debemos mantener esta limitacion
en mente cuando especifiquemos el error aceptable. Una funcion de Runge-Kutta adaptativa,
llamada rka, es esbozada en la tabla 11.5. Note que los datos de entrada en la secuencia de
llamada son los mismos que para rk4, excepto por la suma de i , el error ideal especificado.
Las salidas del rka son el nuevo estado del sistema, ~x(t0 ); el tiempo nuevo, t0 y el nuevo paso
de tiempo, nuevo, el cual podra ser usado la proxima vez que sea llamada la rka.
Usando el metodo de Runge-Kutta adaptativo, el programa orbita da los resultados en
la figura 11.7 para una orbita altamente elptica. Notemos que el programa toma muchos
mas pasos en el perihelio que en el afelio. Podemos comparar con los resultados usando el
metodo de Runge-Kutta no adaptativo (figura 11.6) en el cual los pasos en el perihelio son
ampliamente espaciados. Una grafica de los pasos de tiempo versus la distancia radial (figura


11.3. METODOS
ADAPTATIVOS

259

90 o

0o

Energa [M AU*AU/aos*aos]

180

1500
Energa Cintica
Energa Potencial
Energa Total

1000

500

500

1000

1500

270
1

0.5

0.5

0.05

0.1

0.15

0.2

0.25

Tiempos [aos]

Distancia [AU]

Figura 11.7: Grafico de la trayectoria y la energa desde el programa orbita usando el metodo
de Runge-Kutta adaptativo. La distancia radial inicial es 1 [AU] y la velocidad tangencial
inicial es /2 [AU/a
no]. El paso inicial en el tiempo es = 0.1 [a
nos]; y 40 pasos son
calculados.

0.1

Tau [aos]

0.01

0.001

0.0001
0.01

0.1
Distancia [Au]

Figura 11.8: Paso de tiempo como funcion de la distancia radial desde el programa orbita
usando el metodo de Runge-Kutta adaptativo. Los parametros son los mismos de la figura
11.7.

11.8) muestra que vara casi tres ordenes de magnitud.Interesantemente esta grafica revela
una relacion exponencial aproximada de la forma r3 . Por supuesto esta dependencia
nos recuerda la tercera ley de Kepler, ecuacion (11.10). Esperamos alguna dispersion en los
puntos, ya que nuestra rutina adaptada solamente estima el paso de tiempo optimo.


CAPITULO 11. EDO II: METODOS
AVANZADOS.

260

11.4

Listados del programa.

11.4.1

orbita.cc

#include "NumMeth.h"
const double GM=4.0e0*M_PI*M_PI ;
const double masaCometa = 1.0e0 ;
const double adaptErr = 1.0e-3;
void rk4(double * x, int nX, double t, double tau,
void(*derivsRK)(double *, double, double, double *),
double param)
{
double * F1=new double [nX] ;
double * F2=new double [nX] ;
double * F3=new double [nX] ;
double * F4=new double [nX] ;
double * xtemp=new double [nX] ;
// Evaluemos F1=f(x,t)
(*derivsRK) (x, t, param, F1) ;
double half_tau = tau/2.0e0;
double t_half = t+half_tau ;
double t_full = t+tau ;
// Evaluamos F2=f(x+tau*F1/2, t+tau/2)
for(int i=0; i<nX; i++) xtemp[i]=x[i]+half_tau*F1[i] ;
(*derivsRK) (xtemp, t_half, param, F2) ;
// Evaluamos F3=f(x+tau*F2/2, t+tau/2)
for(int i=0; i<nX; i++) xtemp[i]=x[i]+half_tau*F2[i] ;
(*derivsRK) (xtemp, t_half, param, F3) ;
// Evaluamos F4=f(x+tau*F3, t+tau)
for(int i=0; i<nX; i++) xtemp[i]=x[i]+tau*F3[i] ;
(*derivsRK) (xtemp, t_full, param, F4) ;
// Retornamos x(t+tau)
for(int i=0; i<nX; i++) x[i] += tau*(F1[i]+F4[i]+2.0e0*(F2[i]+F3[i]))/6.0e0 ;
delete [] F1, F2, F3, F4, xtemp ;
}

11.4. LISTADOS DEL PROGRAMA.

void rka ( double * x, int nX, double & t, double & tau, double erro,
void(*derivsRK)(double *, double, double, double *),
double param)
{
double tSave = t ;
double safe1 = 0.9, safe2 = 4.0 ; //factores de seguridad
double * xSmall = new double[nX] ;
double * xBig = new double[nX] ;
int maxTray=100 ;
for (int iTray=0; iTray<maxTray; iTray++) {
// Tomemos dos peque{\~n}os pasos en el tiempo
double half_tau = 0.5*tau ;
for (int i =0; i < nX; i++) xSmall[i]=x[i] ;
rk4( xSmall, nX, tSave, half_tau, derivsRK, param) ;
t= tSave + half_tau ;
rk4( xSmall, nX, t, half_tau, derivsRK, param) ;
// Tomemos un solo tiempo grande
for (int i =0; i < nX; i++) xBig[i]=x[i] ;
rk4( xBig, nX, tSave, tau, derivsRK, param) ;
// Calculemos el error de truncamiento estimado
double erroRatio = 0.0e0 ;
double eps = 1.0e-16 ;
for (int i = 0 ; i < nX; i++) {
double scale = erro * (fabs(xSmall[i]) + fabs(xBig[i]))/2.0e0 ;
double xDiff = xSmall[i] - xBig[i] ;
double ratio = fabs(xDiff)/(scale+eps) ;
erroRatio = (erroRatio > ratio ) ? erroRatio:ratio ;
}
// Estimamos el nuevo valor de tau (incluyendo factores de seguridad)
double tau_old= tau ;
tau = safe1*tau_old*pow(erroRatio, -0.20) ;
tau = (tau > tau_old/safe2) ? tau:tau_old/safe2 ;
tau = (tau < safe2*tau_old) ? tau:safe2*tau_old ;
// Si el error es aceptable regrese los valores computados
if ( erroRatio < 1 ) {
for (int i =0 ; i < nX; i++) x[i]=xSmall[i] ;
return ;
}
}
cout << "Error: Runge-Kutta adaptativo fallo" << endl ;
exit(-1) ;

261


CAPITULO 11. EDO II: METODOS
AVANZADOS.

262
}

void gravrk( double * x, double t, double param, double * deriv)


{
double gm=param ;
double rX=x[0], rY=x[1];
double vX=x[2], vY=x[3] ;
double mod_r= sqrt(rX*rX+rY*rY) ;
double aX= -gm*rX/(mod_r*mod_r*mod_r) ;
double aY= -gm*rY/(mod_r*mod_r*mod_r) ;
// Retorna la derivada
deriv[0]
deriv[1]
deriv[2]
deriv[3]

=
=
=
=

vX;
vY;
aX;
aY;

}
main()
{
ofstream salidaO ("Orbita.txt") ;
ofstream salidaE ("Energia.txt") ;
ofstream salidaT ("Tau.txt") ;
double r0 ;
cout << "Ingrese la distancia radial inicial [AU]: " ;
cin >> r0 ;
double vT ;
cout << "Ingrese la velocidad tangencial inicial [AU/a{\~n}os]: " ;
cin >> vT ;
double x0=r0 ;
double y0=0.0e0;
double vx0=0.0e0 ;
double vy0=vT;
//
// Suponemos angulo inicial nulo
//
int metodo = 0 ;
while( metodo < 1|| metodo > 4 ) {
cout << "Ingrese el m{\e}todo num{\e}rico a usar :" << endl ;
cout << "\t M{\e}todo de Euler \t\t\t[1]" << endl;
cout << "\t M{\e}todo de Euler-Cromer \t\t[2]" << endl;
cout << "\t M{\e}todo de Runge-Kutta 4 orden \t\t[3]" << endl;

11.4. LISTADOS DEL PROGRAMA.


cout << "\t M{\e}todo de Runge-Kutta adaptativo \t[4]" << endl;
cout << "elija: " ;
cin >> metodo ;
}
double tau ;
cout << "Ingrese paso en el tiempo: " ;
cin >> tau ;
int numPasos ;
cout << "Ingrese el n{\u}mero de pasos: " ;
cin >> numPasos ;
double param=GM ;
const int dimX= 4;
double * x = new double[dimX] ;
double
double
double
double
double
double

xN= x0;
yN= y0;
vxN=vx0;
vyN=vy0;
vxNp1, vyNp1, xNp1, yNp1;
tiempo = 0.0e0 ;

for(int pasos=0; pasos < numPasos; pasos++) {


double r =sqrt(xN*xN+yN*yN) ;
double v2 =vxN*vxN+vyN*vyN ;
double theta= atan2(yN, xN) ;
salidaO << theta << " " << r << endl ;
double Ep = -GM*masaCometa/r ;
double Ek = masaCometa*v2/2.0e0 ;
double ET= Ep+Ek ;
salidaE<< tiempo << " " << Ek<< " " << Ep<<" " << ET << endl ;
double modr3=pow(xN*xN+yN*yN, 3.0e0/2.0e0) ;
double axN= -GM*xN/modr3 ;
double ayN= -GM*yN/modr3 ;
switch( metodo ) {
case 1: {
// Euler
vxNp1=vxN+tau*axN ;
vyNp1=vyN+tau*ayN ;
xNp1= xN+tau* vxN ;
yNp1= yN+tau* vyN ;
tiempo += tau ;
}

263


CAPITULO 11. EDO II: METODOS
AVANZADOS.

264

break ;
case 2: {
// Euler-Cromer
vxNp1=vxN+tau*axN ;
vyNp1=vyN+tau*ayN ;
xNp1= xN+tau* vxNp1 ;
yNp1= yN+tau* vyNp1 ;
tiempo += tau ;
}
break ;
case 3: {
// Runge-Kutta 4to Orden
x[0] = xN;
x[1] = yN;
x[2] = vxN;
x[3] = vyN;
rk4( x, dimX, tiempo, tau, gravrk, param);
xNp1=x[0] ;
yNp1=x[1];
vxNp1=x[2];
vyNp1=x[3];
tiempo += tau ;
}
break ;
case 4: {
x[0] = xN;
x[1] = yN;
x[2] = vxN;
x[3] = vyN;
rka( x, dimX, tiempo, tau, adaptErr, gravrk, param);
double distancia = sqrt( x[0]*x[0]+x[1]*x[1]) ;
salidaT<< distancia << " " <<tau << endl ;
xNp1=x[0] ;
yNp1=x[1];
vxNp1=x[2];
vyNp1=x[3];
}
}
xN=xNp1 ;
yN=yNp1 ;
vxN=vxNp1 ;
vyN=vyNp1 ;
}
salidaO.close() ;
salidaE.close() ;
salidaT.close() ;
delete [] x;

11.4. LISTADOS DEL PROGRAMA.


}

265

266

CAPITULO 11. EDO II: METODOS


AVANZADOS.

Captulo 12
Resolviendo sistemas de ecuaciones.
versi
on final 1.25-0111191

En este captulo aprenderemos a como resolver sistemas de ecuaciones de ambos tipos,


lineal y no lineal. Ya conocemos los algoritmos basicos para los sistemas lineales: eliminar
variables hasta que tengamos una sola ecuacion con una sola incognita. Para sistemas nolineales desarrollamos un esquema iterativo que en cada paso resuelve una version linealizada
de estas ecuaciones. Para mantener la continuidad, la discucion sera motivada por el calculo
del estado estacionario, un importante tema en ecuaciones diferenciales ordinarias.

12.1

Sistemas de ecuaciones lineales.

12.1.1

Estado estacionario de EDO.

En el captulo pasado, nosotros vimos como resolver ecuaciones diferenciales ordinarias de la


forma
d~x
= f~(~x, t) ,
dt

(12.1)

donde ~x = [x1 , x2 , . . . , xN ]. Dada una condicion inicial para las N variables xi (t) = 0,
nosotros podemos calcular la serie de tiempo xi (t) por una variedad de metodos (e.g. RungeKutta).
Los ejemplos que hemos estudiado hasta aqu han sido sistemas autonomos donde f~(~x, t) =
f~(~x), esto es, f~ no depende explcitamente del tiempo. Para sistemas autonomos, a menudo
existe una importante clase de condiciones iniciales para las cuales xi (t) = xi (0) para todo
i y t. Estos puntos en el espacio N -dimensional de nuestras variables son llamados estado
estacionario. Si nosotros partimos de un estado estacionario nos quedamos ah para siempre.
Localizar los estados estacionarios para ecuaciones diferenciales ordinarias es importante, ya
que ellos son usados en el analisis de bifurcaciones.2
Es facil ver que ~x = [x1 , x2 , . . . , xN ] es un estado estacionario si y solo si
f~(~x ) = 0 ,
1

(12.2)

Este captulo est


a basado en el cuarto captulo del libro: Numerical Methods for Physics, second edition
de Alejandro L. Garcia, editorial Prentice Hall.
2
R. Seydel, From Equilibrium to Chaos, Practical Bifurcation and Stability Analysis (New York: Elsevier,
1988).

267

CAPITULO 12. RESOLVIENDO SISTEMAS DE ECUACIONES.

268
o

fi (x1 , x2 , . . . , xN ) = 0 ,

para todo i,

(12.3)

ya que esto implica que d~x /dt = 0. Localizar los estados estacionarios se reduce al problema
de resolver N ecuaciones con N incognitas xi . Este problema es tambien llamado encontrar
las raices de f (x).
Como un ejemplo, consideremos el pendulo simple; el estado esta descrito por el angulo
y la velocidad angular . Los estados estacionarios se encuentran al resolver las ecuaciones
no lineales
g
sen = 0 , = 0 .
(12.4)
L
Las raices son = 0, , 2, . . . y = 0. Por supuesto que no todos los sistemas son tan
faciles de resolver.
Debera ser claro que encontrar raices tiene muchas mas aplicaciones que calcular los
estados estacionario. En este captulo consideraremos una variedad de maneras para resolver
ambos sistemas lineales y sistemas no lineales. En esta seccion y en la proxima consideraremos
sistemas lineales, dejando los sistemas no lineales para la parte final del captulo.

12.1.2

Eliminaci
on Gaussiana.

El problema de resolver fi ({xj }) = 0 se divide en dos importantes clases. En esta seccion


consideramos el caso facil cuando fi ({xj }) es una funcion lineal. El problema en ese caso se
reduce a resolver un sistema de N ecuaciones con N incognitas.
a11 x1 + a12 x2 + . . . + a1N xN b1 = 0
a21 x1 + a22 x2 + . . . + a2N xN b2 = 0
..
..
..
..
.
.
.
.
aN 1 x 1 + aN 2 x 2 + . . . + aN N x N b N = 0 ,

(12.5)

A ~x ~b = 0 ,

(12.6)

o en forma matricial

donde

a11 a12 . . .

A = a21 a22 . . . ,
..
.. . .
.
.
.


x1
x2
~x = ,
..
.


b1

~b =
b2 .
..
.

(12.7)

Sabemos como resolver este conjunto de ecuaciones. Combinando las ecuaciones para
eliminar variables hasta que tengamos una sola ecuacion con una sola incognita. Hagamos
un ejemplo simple para revisar como el procedimiento trabaja. Tomemos las ecuacion es
x1 + x2 + x3 = 6 ,
x1 + 2x2
= 3,
2x1
+ x3 = 5 .

(12.8)

12.1. SISTEMAS DE ECUACIONES LINEALES.

269

Deseamos eliminar x1 de la segunda y de la tercera ecuacion. Para llevar a cabo esto, primero
sumamos la primera y la segunda y despues restamos dos veces la primera a la tercera. Esto
nos da
x1 +

x2 + x3 =
6,
3x2 + x3 =
9,
2x2 x3 = 7 .

(12.9)

Ahora, eliminamos x2 de la u
ltima ecuacion multiplicando la segunda ecuacion por 32 y la
restamos de la tercera, dandonos
x1 +

x2 +
3x2 +

x3 =
6,
x3 =
9,
1
3 x3 = 1 .

(12.10)

Este procedimiento es llamado eliminaci


on hacia adelante. Si se tienen N ecuaciones, eliminamos x1 de las ecuaciones 2 hasta la N , luego eliminamos x1 y x2 de las ecuaciones 3 hasta
la N , y as sucesivamente. La u
ltima ecuacion solo contendra la variable xN .
Volviendo al ejemplo, es ahora trivial resolver la tercera ecuacion resultando x3 = 3.
Podemos ahora sustituir este valor en la segunda ecuacion obteniendo 3x2 + 3 = 9 tal que
x2 = 2. Finalmente, introduciendo los valores de x2 y x3 en la primera ecuacion obtenemos
x1 = 1. Este segundo procedimiento es llamado sustituci
on hacia atr
as. Debera ser claro
como esto trabaja con sistemas grandes de ecuaciones. Usando la u
ltima ecuacion obtenemos
xN , este es usado en la pen
ultima ecuacion para obtener xN 1 y as seguimos.
Este metodo de resolver sistemas de ecuaciones lineales por eliminacion hacia adelante
y luego sustitucion hacia atras es llamado eliminacion Gaussiana.3 Esta es una secuencia
rutinaria de pasos que es simple para un computador realizar sistematicamente. Para N
ecuaciones con N incognitas, el tiempo de computacion para eliminacion Gaussiana va como
N 3 . Afortunadamente, si el sistema es esparcido4 (la mayora de los coeficientes son cero),
El tiempo de calculo puede ser considerablemente reducido.

12.1.3

Pivoteando.

La eliminacion Gaussiana es un procedimiento simple, sin embargo, se debe estar conciente


de sus riesgos. Para ilustrar la primera fuente de problemas, consideremos el conjunto de
ecuaciones
x1 + x2 + x3 = 5 ,
x1 + x2
= 3,
x1
+ x3 = 4 .

(12.11)

En el lmite  0 la solucion es x1 = 1, x2 = 2, x3 = 3. Para estas ecuaciones, el primer


paso de la eliminacion hacia adelante podra partir por multiplicar la primera ecuacion por
3

G.E. Forsythe and C.B. Moler, Computer Solution of Linear Algebraic System (Upper Saddle River, N.J.:
Prentice-Hall, 1967).
4
sparse

270

CAPITULO 12. RESOLVIENDO SISTEMAS DE ECUACIONES.

(1/) y sustrayendola de la segunda y tercera ecuaciones, lo que da


x1 +

x2 +
x3 =
5,
(1 1/)x2
(1/)x3 = 3 5/ ,
(1/)x2 + (1 1/)x3 = 4 5/ .

(12.12)

Por supuesto, si  = 0 tenemos grandes problemas, ya que el factor 1/ estalla. A


un si  6= 0,
pero es peque
no, vamos a tener serios problemas de redondeo. Supongamos que 1/ es tan
grande que (C 1/) 1/, donde C es del orden de la unidad. Nuestras ecuaciones,
despues del redondeo, llegan a ser
x1 +

x2 +
x3 =
5,
(1/)x2 (1/)x3 = 5/ ,
(1/)x2 (1/)x3 = 5/ .

(12.13)

En este punto esta claro que no podemos proceder ya que la segunda y la tercera ecuacion en
(12.13) son ahora identicas; no tenemos mas que tres ecuaciones independientes. El proximo
paso de eliminacion sera transformar la tercera ecuacion en (4.13) en la tautologa 0 = 0.
Afortunadamente, hay una solucion simple: intercambiar el orden de las ecuaciones antes
de realizar la eliminacion. Cambiando las ecuaciones primera y segunda en (12.11),
x1 + x2
= 3,
x1 + x2 + x3 = 5 ,
x1 +
x3 = 4 .

(12.14)

El primer paso de la eliminacion hacia adelante nos da las ecuaciones


x1 +

x2
=
3,
(1 )x2 + x3 = 5 3 ,
x2 + x3 = 4 3 .

(12.15)

El redondeo elimina los terminos proporcionales a , dando


x1 +

x2
= 3,
x2 + x3 = 5 ,
x2 + x3 = 1 .

(12.16)

El segundo paso de eliminacion hacia adelante elimina x2 de la tercera ecuacion en (12.16)


usando la segunda ecuacion,
x1 + x2
x2 +

x3
2x3

= 3,
= 5,
= 6.

(12.17)

Se puede comprobar facilmente que la sustitucion hacia atras da x1 = 1, x2 = 2, y x3 = 3, la


cual es la respuesta correcta en el lmite  0.
Los algoritmos que reordenan las ecuaciones cuando ellas sit
uan elementos peque
nos en
la diagonal son llamados pivotes. A menudo si todos los elementos de una matriz son inicialmente de una magnitud comparable, el procedimiento de eliminacion hacia adelante podra
producir peque
nos elementos sobre la diagonal principal. El precio de pivotear es solo un
par de lneas extras en el programa, pero es esencial usar pivoteo para todas, no solo para
las matrices mas peque
nas. A
un con el pivoteo, no podemos garantizar estar a salvo de
problemas de redondeo si se trata de matrices muy grandes.

12.1. SISTEMAS DE ECUACIONES LINEALES.

12.1.4

271

Determinantes.

Es facil obtener el determinante de una matriz usando la eliminacion Gaussiana. Despues


de completar la eliminacion hacia adelante, uno simplemente calcula el producto de los coeficientes de los elementos diagonales. Tomando nuestro ejemplo original, la ecuacion (12.8);
la matriz es

1 1 1
A = 1 2 0 .
(12.18)
2 0 1
Completada la eliminacion hacia adelante, ecuacion (12.10), el producto de los coeficientes
de los elementos diagonales es (1)(3)( 13 ) = 1, el cual, usted puede comprobar, es el de Este metodo es sutlmente mas complicado cuando se usa el pivoteo. Si el
terminante de A.
n
umero de pivoteos es impar, el determinante es el producto negativo de los coeficientes de
los elementos de la diagonal. Ahora debera ser obvio que la regla de Cramer es computacionalmente una manera ineficiente para resolver el conjunto de ecuaciones lineales.

12.1.5

Eliminaci
on Gaussiana en Octave.

No necesitamos escribir un programa en Octave para realizar la eliminacion Gaussiana con


pivoteo. En vez de esto nosotros podemos usar las capacidades de manipulacion de matrices que viene con Octave. En Octave, la eliminacion Gaussiana es una rutina primitiva,
tal como las funciones seno o raz cuadrada. Como con cualquier rutina enlatada, usted
debera entender, en general, como trabaja y reconocer posibles problemas, especialmente los
computacionales (e.g., poner sqrt(-1) retorna un n
umero imaginario o un error?).
Octave implementa la eliminacion de Gauss usando los operadores slash / y backslash \.
El sistema de ecuaciones lineales ~x A = ~b donde ~x y ~b son vectores fila, se resuelve usando
El sistema de ecuaciones lineales A ~x = ~b donde ~x y ~b son
el operador slash como ~x = ~b/A.
Como un ejemplo,
vectores columna, se resuelve usando el operador backslash como ~x = ~b\A.
tomemos la ecuacion (12.11) con  = 0, escrito en forma matricial


0 1 1 x1
5
1 1 0 x2 = 3
(12.19)
1 0 1 x3
4
Usando Octave en forma interactiva la solucion es ilustrada a continuacion:
octave>
octave>
octave>
octave>
1
2
3

A=[0 1 1; 1 1 0; 1 0 1];
b=[5;3;4];
x=A\b;
disp(x);

Claramente, Octave usa pivoteo en este caso. Los operadores slash y backslash pueden ser
usados de la misma manera en programas. El comando en Octave para el determinante de
una matriz es det(A).

CAPITULO 12. RESOLVIENDO SISTEMAS DE ECUACIONES.

272

12.1.6

Eliminacion Gaussiana con C++ de objetos matriciales.

El uso de arreglos multidimensionales en C++ no es del todo comodo. Las maneras usuales
de declarar un arreglo de M N de n
umeros con punto flotante en doble precision son:
const int M=3, N=3;
double A[M][N] ;
para asignacion estatica de memoria y
int M, N
. . . // Se fijan valores a M y N
double * * A = new double * [M] ; // asignacion de un vector de punteros
for(int i=0;i<M;i++) {
A[i] = new double [N] ; // asignacion de memoria para cada fila
}
para un reserva dinamica (no olvide desasignar cada fila con un delete[]). Una asignacion
estatica es simple pero rgida, ya que las dimensiones son constantes fijas. Cuando el arreglo
estatico es pasado a una funcion, esta funcion debera declarar alg
un arreglo con el mismo
n
umero de columnas de acuerdo al arreglo a ser indexado apropiadamente. Una asignacion
dinamica es flexible pero es difcil de manejar, aunque los detalles pueden ser escondidos
dentro de funciones separadas. Accesar elementos fuera de los contornos del arreglo es un
error de programacion com
un (bug) el cual es difcil de rastrear con arreglos dinamicos.
C++ nos permite corregir estas deficiencias creando nuestros propios tipos de variables.
Estas variables definidas por el usuario son llamadas clases de objetos . De aqu en adelante
usaremos la clase Matrix para declarar arreglos de una o dos dimensiones de n
umeros de punto
flotante. Esta clase esta enteramente declarada dentro del archivo de cabecera Matrix.h e
implementada dentro de Matrix.cc. Algunos ejemplos de declaracion de objetos de Matrix
son
int M=3, N=2 ;
Matrix A(M,N), b(N), x(3) ;
Aunque esto se parece a una asignacion de arreglo estatico note que las dimensiones no son
constantes fijas. Tanto vectores unidimensionales como matrices bidimensionales pueden ser
declarados; las anteriores son tratadas como matrices de una sola columna. Los valores en
estas variables pueden ser fijados por la declaracion de asignamiento
A(0,0)=0;
A(1,0)=1;
A(2,0)=1;
b(1)=5;

A(0,1)=1;
A(1,1)=1;
A(2,1)=0;
b(2)=3;

A(0,2)=1;
A(1,2)=0;
A(2,2)=1;
b(3)=4.

El formato para el objeto Matrix es A(i, j) en vez de A[i][j], para distinguirlos de los arreglos
C++ convencionales.
Un objeto Matrix conoce sus dimensiones, y usted puede obtenerlas usando las funciones
miembros nRow() y nCol(). Por ejemplo

12.1. SISTEMAS DE ECUACIONES LINEALES.

273

~b.
Entradas: A,

Salidas: ~x, det A.


Fija el factor de escala, si = maxj (| Ai,j |) para cada fila.
Itera sobre las filas k = 1, . . . , (N 1).
Selecciona la columna a pivotear a partir de maxj (| Ai,j |)/si .
Realiza pivoteos usando la lista de ndice de columnas.
Realiza la eliminacion hacia adelante.
como producto de los elementos de la diagonal.
Calcula el determinante det A,
Realiza la sustitucion hacia atras.

Tabla 12.1: Bosquejo de la funcion ge, la cual resuelve un sistema de ecuaciones lineales

A ~x = ~b por eliminacion Gaussiana. La funcion tambien devuelve el determinante de A.


int m = A.nRow(), n = A.nCol() ;
asigna m y n a las dimensiones de A. La verificacion de los contornos se realiza cada vez que
un objeto Matrix es indexado. Las lneas
Matrix newA(3, 7) ;
newA(4,5) = 0;

// Una matriz no cuadrada de 3 por 7


// Fuera de los limites

produce el mensage de error: Indice de fila fuera de los limites cuando el programa
es corrido. Esto significa que al menos uno de los ndices i no satisface la condicion 0 < i N .
Los objetos Matrix automaticamente liberan la memoria que les fue asignada cuando ellos
exceden su alcance (scope), por lo tanto no es necesario invocar delete.
Para asignar todos los elementos de un objeto Matrix a un valor dado usamos la funcion
miembro set(double x ), por ejemplo A.set(1.0). Una matriz entera puede ser asignada
a otra del mismo tama
no (e.g., Matrix C(3,3); C=A;). Sin embargo, a diferencia de las
matrices de Octave, las operaciones aritmeticas (A+C, 2*A, etc.) no son a
un permitidas.
Estas operaciones deberan ser llevadas a cabo elemento por elemento, tpicamente usando
un ciclo for.
La rutina de eliminacion Gaussiana ge, la cual usa los objetos tipo Matrix, es descrita
en la tabla 12.1. Declarando y asignando la matriz A y los vectores b y x como arriba, un
programa puede llamar esta rutina como
double determ = ge(A, b, x) ; // Eliminacion Gaussiana
cout << x(1) << ", " << x(2) << ", " << x(3) << endl ;
cout
<< "Determinante = " << determ << endl ;

para resolver el sistema lineal A ~x = ~b y calcular el determinante de A.

274

CAPITULO 12. RESOLVIENDO SISTEMAS DE ECUACIONES.

12.2

Matriz inversa.

12.2.1

Matriz inversa y eliminaci


on Gaussiana.

En la seccion previa hemos revisado como resolver un conjunto de ecuaciones simultaneas


por eliminacion de Gauss. Sin embargo, si usted esta familiarizado con el algebra lineal,
probablemente podra escribir la solucion de
A ~x = ~b ,

(12.20)

~x = A1 ~b ,

(12.21)

como

No nos debera sorprender que el calculo de la matriz


donde A1 es la matriz inversa de A.
inversa este relacionada al algoritmo para resolver un conjunto de ecuaciones lineales. Usualmente la inversa de una matriz es calculada por aplicaciones repetidas de eliminaciones de
Gauss (o una variante de descomposicion llamada LU).
La inversa de una matriz esta definida por la ecuacion
A A1 = I ,

(12.22)

donde I es la matriz identidad

1
0

I = 0

..
.
Definiendo los vectores columna

1
0

e1 = 0 ,

..
.

0
1
0
..
.


0
1

e2 = 0 ,

..
.

0
0
1
..
.

...
. . .

. . .

..
.

... ,

(12.23)


..
.

eN = 0 ,
0
1

(12.24)

podramos escribir la matriz identidad como una vector fila de los vectores columna


I = e1 e2 . . . eN .
(12.25)
Si resolvemos el conjunto de ecuaciones lineales,
A ~x1 = e1 .

(12.26)

El vector solucion ~x1 es la primera columna de la inversa A1 . Si procedemos de esta manera


con los otros e calcularemos todas las columnas de A1 . En otras palabras, nuestra ecuacion
para la matriz inversa AA1 = I es resuelta escribiendola como
 


(12.27)
A x1 x2 . . . xN = e1 e2 . . . eN .

12.2. MATRIZ INVERSA.

275

Entradas: A.

Salidas: A1 , det A.
Matriz b es inicializada a la matriz identidad.
Fija el factor de escala, si = maxj (| Ai,j |) para cada fila.
Itera sobre las filas k = 1, . . . , (N 1).
Selecciona la columna a pivotear a partir de maxj (| Ai,j |)/si .
Realiza pivoteos usando la lista de ndice de columnas.
Realiza la eliminacion hacia adelante.
como producto de los elementos de la diagonal.
Calcula el determinante detA,
Realiza la sustitucion hacia atras.

Tabla 12.2: Bosquejo de la funcion inv, la cual calcula el inverso de una matriz y su determinante.
Despues de calcular los ~x, construimos A1 como

A1

(~x1 )1


 (~x1 )2
x1 x2 . . . xN = ..
.

(~x2 )1
(~x2 )2
..
.

...
...
...

(~x1 )N (~x2 )N . . .

(~xN )1
(~xN )2

..
.

(12.28)

(~xN )N

donde(~xi )j es el elemento j de ~xi .


La tabla 12.2 muestra la funcion inv para calcular la inversa de una matriz. En Octave,
inv(A) es una funcion internamente construida que regresa a la matriz inversa de A . Es
posible resolver un sistema de ecuaciones lineales usando la matriz inversa, pero hacer esto
es usualmente sobrepasarse. Una excepcion podra ser el caso donde deseamos resolver un
n
umero de problemas similares en el cual la matriz A es fija pero el vector ~b toma muchos
valores diferentes. Finalmente, aqu hay una formula manual para tener presente: la inversa
de una matriz 2 2 es
1



1
a22 a12
.
=
a11 a22 a12 a21 a21 a11

Para matrices mayores las formulas rapidamente llegan a ser muy desordenadas.

(12.29)

276

12.2.2

CAPITULO 12. RESOLVIENDO SISTEMAS DE ECUACIONES.

Matrices singulares y patol


ogicas.

Antes que regresemos a la fsica, discutamos otro posible riesgo en resolver sistemas de ecuaciones lineales. Consideremos las ecuaciones
x1 + x2 = 1
.
2x1 + 2x2 = 2

(12.30)

Note que realmente no tenemos dos ecuaciones independientes, ya que la segunda es solo el
doble de la primera. Estas ecuaciones no tienen una solucion u
nica. Si tratamos de hacer
una eliminacion hacia adelante, obtenemos
x1 + x2 = 1
,
0 = 0
y no se puede hacer nada mas.
Otra manera de mirar este problema es ver que la matriz


1 1

A=
2 2

(12.31)

(12.32)

no tiene inversa. Una matriz sin inversa se dice que es singular. Una matriz singular tambien
tiene un determinante nulo. Las matrices singulares no siempre son evidentes. Podra
adivinar si esta matriz

1 2 3
4 5 6
7 8 9
es singular?
Aqu esta lo que pasa en Octave cuando tratamos de resolver (12.30)
octave:1> A=[1 1; 2 2];
octave:2> b=[1; 2];
octave:3> x=A\b;
warning: matrix singular to machine precision, rcond = 0
Dependiendo de su compilador, la rutina inv de C++ probablemente retorne infinito o arroje
un mensage de error. En algunos casos la rutina calcula una inversa para una matriz singular,
pero naturalmente la respuesta es espuria.
Algunas veces la matriz no es singular pero esta tan cerca de serlo que los errores de
redondeo podran empujarla al abismo. Un ejemplo trivial sera


1+ 1
,
(12.33)
2
2
donde  es un n
umero muy peque
no. A una matriz se le dice patol
ogica cuando esta muy
cerca de ser singular.
~

Si usted sospecha que esta tratrando


con
matriz patologica cuando resuelve A~x = b,

una




entonces calcule el error absoluto, A~x ~b / ~b para comprobar si ~x es una solucion precisa.

12.2. MATRIZ INVERSA.

277

Formalmente, la condicion numerica esta definida como la distancia normalizada entre


una matriz y la matriz singular mas cercana5 . Hay una variedad de maneras para definir
la distancia, dependiendo del tipo de norma usada. La funcion de Octave cond(A) regresa
la condicion numerica de una matriz A. Una matriz con una gran condicion numerica es
patologica. Un peque
no determinante puede algunas veces advertirnos que la matriz podra
ser patologica, pero la condicion numerica es el criterio real.6

12.2.3

Osciladores arm
onicos acoplados.

En el comienzo de este captulo, discutimos el problema de encontrar los estados estacionarios


de ecuaciones diferenciales ordinarias. Un ejemplo canonico de un sistema con interacciones
lineales es el caso de osciladores armonicos acoplados. Consideremos el sistem mostrado en
la figura 12.1; las constantes de resorte son k1 , . . . , k4 . La posicion de los bloques, relativas
a la pared izquierda, son x1 , x2 y x3 . La distancia entre las paredes es LP , y las longitudes
naturales de los resortes son L1 , . . . , L4 . Los bloques son de ancho despreciable.

Lp

x1

x2

Figura 12.1: Sistema de bloques acoplados por resortes anclados entre paredes.

La ecuacion de movimiento para el bloque i es


dxi
= vi ,
dt

dvi
1
=
Fi ,
dt
mi

(12.34)

donde Fi es la fuerza neta sobre el bloque i. En el estado estacionario, las velocidades vi , son
nulas y las fuerzas netas, Fi son cero. Esto es justo el caso de equilibrio estatico. Nuestro
trabajo ahora es encontrar las posiciones en reposo de las masas. Explcitamente las fuerzas
netas son
F1 = k1 (x1 L1 ) + k2 (x2 x1 L2 )
F2 = k2 (x2 x1 L2 ) + k3 (x3 x2 L3 )
F3 = k3 (x3 x2 L3 ) + k4 (Lp x3 L4 )
5

(12.35)

S. Conte and C. de Boor, Elementary Numerical Analysis (New York: McGraw-Hill, 1980).
G.H. Golub and C.F. van Loan, Matrix computation 2d ed. (Baltimore Johns Hopkins University Press,
1989).
6

CAPITULO 12. RESOLVIENDO SISTEMAS DE ECUACIONES.

278

o en forma matricial,

F1
k1 k2
k2
0
x1
k1 L1 + k2 L2
F2 = k2
.
k2 k3
k3 x2
k2 L2 + k3 L3
F3
0
k3
k3 k 4
x3
k3 L3 + k4 (L4 Lp )

(12.36)

x ~b. En forma matricial


Por conveniencia, abreviaremos la ecuacion de arriba como F~ = K~
las simetras son claras, y vemos que no sera difcil extender el problema a un sistema mas
grande de osciladores acoplados. En el estado de equilibrio estatico las fuerzas netas son
x ~b.
iguales a cero, as obtenemos el resto de las posiciones de las masas resolviendo K~

12.3

Sistemas de ecuaciones no lineales.

12.3.1

M
etodo de Newton en una variable.

Ahora que sabemos como resolver sistemas de ecuaciones lineales, procederemos al caso mas
general (y mas desafiante) de resolver sistemas de ecuaciones no lineales. Este problema es
difcil, tanto que consideraremos primero el caso de una variable. Deseamos resolver para x
tal que
f (x ) = 0 .

(12.37)

donde f (x ) es ahora una funcion general. Hay un n


umero de metodos disponibles para
encontrar raices en una variable. Quizas usted conozca algunos metodos como el de biseccion
o de la secante u otros algoritmos. Tambien hay algoritmos especializados para cuando f (x)
es un polinomio (e.g., funcion de roots en Octave). En vez de utilizar todos estos esquemas,
nos concentraremos en el mas simple y u
til de los metodos para el caso general de N variables.
El metodo de Newton7 esta basado en la expansion de Taylor de f (x) entorno a la raz
x . Supongamos que hacemos una estimacion acerca de la localizacion de la raz; llamamos
a esta estimacion x1 . Nuestro error podra ser escrito como x = x1 x o x = x1 x.
Escribiendo la expansion de Taylor de f (x ),
df (x1 )
+ O(x2 ) .
dx
Note que si x es una raz, f (x ) = 0, as podemos resolver para x
f (x ) = f (x1 x) = f (x1 ) x

x =

f (x1 )
+ O(x2 ) .
f 0 (x1 )

(12.38)

(12.39)

Despreciamos el termino O(x2 ) (este sera nuestro error de truncamiento) y usamos la expresion resultante de x para corregir nuestra estimacion inicial. La nueva estimacion es
f (x1 )
.
(12.40)
x2 = x1 x = x1 0
f (x1 )
Este procedimiento podra ser iterado como
f (xn )
,
(12.41)
xn+1 = xn 0
f (xn )
para mejorar nuestra estimacion hasta obtener la precision deseada.
7

F.S. Acton, Numerical Methods that Work (New York: Harper&Row, 1970).

12.3. SISTEMAS DE ECUACIONES NO LINEALES.

279

f(x)

x*

x2
x1

x3

Figura 12.2: Representacion grafica del metodo de Newton.

El procedimiento iterativo descrito mas arriba puede entenderse mejor graficamente (figura 12.2). Note que en cada paso usamos la derivada de f (x) para dibujar la lnea tangente
a la funcion. Donde esta lnea tangente intersecta el eje x es nuestra siguiente estimacion
de la raz. Efectivamente, estamos linealizando f (x) y resolviendo el problema lineal. Si la
funcion es bien comportada, pronto sera aproximadamente lineal en alguna vecindad cerca
de la raz x .
Una pocas notas acerca del metodo de Newton: primero, cuando converge, encuentra una
raz muy rapidamente; pero, desafortunadamente, algunas veces diverge (e.g., f 0 (xn ) 0) y
falla. Para funciones bien comportadas, este metodo es garantizado que converger si estamos
suficientemente cerca de la raz. Por esta razon algunas veces esta combinada con un algoritmo
mas lento pero que asegura encontrar la raz, tal como la biseccion. Segundo, si hay varias
raices, la raz a la cual el metodo converge depende de la estimacion inicial (que podra no
ser la raz deseada). Hay procedimientos (e.g., deflation) para encontrar m
ultiples raices
usando el metodo de Newton. Finalmente, el metodo es mas lento cuando se encuentran
raices tangentes, tales como para f (x) = x2 .

12.3.2

M
etodo de Newton multivariable.

No es difcil generalizar el metodo de Newton a problemas de N variables. Ahora nuestra


incognita ~x = [x1 , x2 , . . . , xN ] es un vector fila, y deseamos encontrar los ceros (raices) de
la funcion vector fila
f~(~x) = [f1 (~x) , f2 (~x) , . . . , fN (~x)] .

(12.42)

De nuevo, hacemos una estimacion inicial para ubicar la raz, llamamos a esta estimacion ~x1 .
Nuestro error podra ser esrito como ~x = ~x1 ~x o ~x = ~x1 ~x. Usando la expansion de
Taylor de f~(~x1 ),
x1 ) + O(~x2 ) ,
f~(~x ) = f~(~x1 ~x) = f~(~x1 ) ~x D(~

(12.43)

280

CAPITULO 12. RESOLVIENDO SISTEMAS DE ECUACIONES.

es el Jacobiano, definido como


donde D
Dij (~x) =

fj (~x)
.
xi

(12.44)

Ya que ~x es la raz, f~(~x ) = 0, como antes podramos resolverla para ~x. Despreciando el
termino de error, podemos escribir la ecuacion (12.43) como
x1 ) ,
f~(~x1 ) = ~x D(~

(12.45)

1 (~x1 ) .
~x = f~(~x1 ) D

(12.46)

1 (~x1 ) .
~x2 = ~x1 ~x = ~x1 f~(~x1 ) D

(12.47)

Nuestra nueva estimacion es

Este procedimiento puede ser iterado para mejorar nuestra estimacion hasta que sea obtenida
cambia en cada iteracion, podra ser desgastador calcular su
la precision deseada. Ya que D
inversa. En cambio, usamos la eliminacion Gaussiana sobre la ecuacion (12.45) para resolver
para ~x, y calcular la nueva estimacion como ~x2 = ~x1 ~x.

12.3.3

Programa del m
etodo de Newton.

Para demostrar el metodo de Newton, lo usaremos para calcular estados estacionarios del
modelo de Lorenz.
A principios de la decada de 1960 el meteorologo del MIT, Ed Lorenz, encontro que
el clima es intrnsecamente impredecible, no por su complejidad, sino por la naturaleza no
lineal de las ecuaciones que lo gobiernan. Lorenz formulo un modelo simple del clima global,
reduciendo el problema a un sistema de ecuaciones diferenciales ordinarias de 12 variables.
observo que este sistema tena un comportamiento aperiodico y que era extremadamente
El
sensible a las condiciones iniciales. Estudiemos un modelo de Lorenz simplificado a tres
variables
dx
= (y x) ,
dt
dy
= rx y xz ,
dt
dz
= xy bz ,
dt

(12.48)

donde , r y b son contantes positivas. Estas ecuaciones simples fueron originalmente desarrolladas como un modelo para un fluido con conveccion. La variable x mide la razon
de conveccion, y y z miden los gradientes de temperaturas horizontales y verticales. Los
parametros y b dependen de las propiedades del fluido y de la geometra del contenedor;
com
unmente, los valores = 10 y b = 8/3 son usados. El parametro r es proporcional al
gradiente de temperatura aplicado.

12.3. SISTEMAS DE ECUACIONES NO LINEALES.

281

Conjunto inicial de estimaciones ~x1 y parametros k .


Itera sobre el n
umero de pasos deseados.

Eval
ua la funcion f~(~xn ; k ) y su Jacobiano D.
Encuentra ~x por la eliminacion Gaussiana [ver (12.45)].
Actualiza la estimacion para la raz usando ~xn+1 = ~xn ~x.
Imprime la estimacion final de la raz.

Tabla 12.3: Descripcion del programa newtn, el cual encuentra una raz para un conjunto de
ecuaciones.
Un programa que encuentra las raices de este sistema de ecuaciones usando el metodo
de Newton, al que llamadomos newtn, es esbozado en la tabla 12.3. Este programa llama la
funcion fnewt (tabla 12.4), la cual dado un ~x = [x , y , z] regresa

(y x)
f~ = rx y xz ,
xy bz

0
= r z 1 x .
D
y
x b

(12.49)

Para r = 28,

=
10
y
b
=
8/3,
las
tres
ra
ces
son
[x,
y,
z]
=
[0,
0,
0],
[6
2,
6
2, 27] y

[6 2, 6 2, 27].
Unejemplo
de la salida de newtn esta dada mas abajo; note que el programa obtiene la
raz [6 2, 6 2, 27].

octave:1> newtn
newtn is the file: /home/jrogan/cursosNEW/IntroduccionMFM.apuntes/programas/newtn.m
newtn - Programa para resolver un sistema de ecuaciones no lineales
usando el metodo de Newton. Las ecuaciones estan definidas en fnewt
Entre la estimacion inicial (vector columna): [50; 50; 50]
Entre los parametros a: [28 10 8/3]
Despues de 10 iteraciones la raiz es
8.4853
8.4853 27.0000
Otras condiciones iniciales convergen a otras raices. Por ejemplo, comenzando

por [2, 2, 2],


convergemos a la raz [0, 0, 0]; si comenzamos en [5, 5, 5], converge a [6 2, 6 2, 27]. Comenzando por el punto [4, 4, 15], el metodo converge a una raz solo despues de hacer una
excursion increblemente distante del origen.

CAPITULO 12. RESOLVIENDO SISTEMAS DE ECUACIONES.

282

Entradas: ~x = [x, y, z], = [r, , b].

Salidas: f~, D.
Eval
ua f~ por el modelo de Lorenz [(12.49)].
para el modelo de Lorenz.
Eval
ua el Jacobiano D

Tabla 12.4: Descripcion de la funcion fnewt, la cual es usada por newtn para encontrar los
estados estables de la ecuacion de Lorenz.

12.3.4

Continuaci
on.

La primera dificultad con el metodo de Newton es la necesidad de dar una buena estimacion
inicial para la raz. A menudo nuestro problema es de la forma
f~(~x ; ) = 0 ,

(12.50)

donde es alg
un parametro en el problema. Supongamos que conocemos una raz ~x 0 para el
valor 0 pero necesitamos encontrar una raz para un valor diferente de a . Intuitivamente,
si a 0 , entonces ~x 0 debera ser una buena estimacion inicial para encontrar ~x a usando
el metodo de Newton. Pero si a 6 0 , hay alguna manera para hacer uso de nuestra raz
conocida?
La respuesta es s y la tecnica es conocida como continuaci
on. La idea es acercarse poco
a poco a a definiendo la siguiente secuencia de :
i = 0 + (a 0 )

i
,
N

(12.51)

para i = 1, . . . . . . ., N . Usando el metodo de Newton, resolvemos f (~x 1 ; 1 ) = 0 con ~x 0


como la estimacion inicial. Si N es suficientemente grande, entonces 1 0 y el metodo
podra converger rapidamente. Luego usamos ~x 1 como una estimacion inicial para resolver
f (~x 2 ; 2 ) = 0; la secuencia contin
ua hasta alcanzar nuestro valor deseado en a . La tecnica
de continuacion tiene un beneficio adicional que podemos usar cuando estamos interesados
en conocer no solo una raz simple, sino conocer como ~x vara con .

12.4. LISTADOS DEL PROGRAMA.

12.4

Listados del programa.

12.4.1

Definici
on de la clase Matrix.

//
// Clase de Matrices doubles
//
#ifndef _Matrix_h
#define _Matrix_h 1
#include <iostream.h>
#include <String.h>
class Matrix {
private:
int nFilP ;
int nColP ;
int dimP ;
double * dataP ;
void copy(const Matrix &) ;
public:
Matrix() ;
Matrix( int, int = 1, double = 0.0e0) ;
Matrix( const Matrix &) ;
~Matrix() ;
Matrix & operator = (const Matrix &) ;
double & operator () (int, int =0) ;
int nRow () const;
int nCol () const ;
void set(double) ;
double maximoF(int) const ;
void pivot(int,int) ;
void multi(double, int, int ) ;
};
ostream & operator << (ostream &, Matrix );
void error ( int, String="Error") ;
Matrix operator * (Matrix, Matrix) ;
Matrix operator + (Matrix, Matrix) ;
Matrix operator - (Matrix, Matrix) ;
#endif

283

CAPITULO 12. RESOLVIENDO SISTEMAS DE ECUACIONES.

284

12.4.2

Implementaci
on de la clase Matrix.

//
// Implementacion de la clase Matrix
#include "Matrix.h"
#include <assert.h>
#include <stdlib.h>
// Funcion privada de copia
void Matrix::copy(const Matrix & mat) {
nFilP=mat.nFilP ;
nColP=mat.nColP ;
dimP = mat.dimP ;
dataP = new double[dimP] ;
for(int i =0 ; i< dimP; i++) dataP[i]=mat.dataP[i] ;
}
// Constructor default Crea una matriz de 1 por 1 fijando su valor a cero
Matrix::Matrix() {
Matrix(1) ;
}
// Constructor standar Crea una matriz de N por M
// y fija sus valores a cero o a un valor ingresado
Matrix::Matrix(int nF, int nC, double v) {
error(nF>0 && nC >0, "Una de las dimensiones no es positiva" ) ;
nFilP= nF ;
nColP = nC ;
dimP = nFilP*nColP ;
dataP = new double[dimP] ;
assert(dataP != 0) ;
// Habia memoria para reservar
for (int i=0; i < dimP; i++) dataP[i]=v ;
}
// Constructor de copia
Matrix::Matrix( const Matrix & mat) {
this->copy(mat) ;
// this permite acceder a la misma vartiable como un todo
// *this representa la variable, y this un puntero a ella
// -> nos permite elegir miembros de la clase pero cuando tenemos el puntero
// a la variable y no su valor
}
// Destructor

12.4. LISTADOS DEL PROGRAMA.

Matrix::~Matrix() {
delete [] dataP ;
}

285

// Libera la memoria

// Operador Asignacion, sobrecarga del = para que funcione con Matrix


Matrix & Matrix::operator= (const Matrix & mat) {
if( this == &mat ) return *this ; // Si ambos lados son iguales no hace nada
delete [] dataP ;
// borra la data del lado izquierdo
this-> copy(mat) ;
return * this ;
}
// Funciones simples que retornan el numero de filas y de columnas
// el const al final indica que no modifican ningun miembro de la clasa
int Matrix::nRow() const {return nFilP; }
int Matrix::nCol() const {return nColP;}
// operador Parentesis
// Permite accesar los valores de una matriz via el par (i,j)
// Ejemplo a(1,1)=2*b(2,3)
// Si no se especifica la columna la toma igual a 0
double & Matrix::operator() (int indF, int indC) {
error(indF>-1 && indF< nFilP, "Indice de fila fuera de los limites") ;
error(indC>-1 && indC<nColP, "Indice de columna fuera de los limites" ) ;
return dataP[indC+nColP*indF] ;
}
void Matrix::set(double value) {
for(int i=0; i<dimP; i++) dataP[i]=value ;
}
double Matrix::maximoF(int indF) const {
error(indF>-1 && indF< nFilP, "Indice de fila fuera en maximoF") ;
double max= dataP[nColP*indF];
for(int i=nColP*indF; i<nColP*(indF+1); i++ ) {
max = (max > fabs(dataP[i]) ) ? max : fabs(dataP[i]) ;
}
return max ;
}
void Matrix::pivot(int indF1, int indF2) {
error(indF1>-1 && indF1< nFilP, "Indice de fila fuera en Pivot") ;
error(indF1>-1 && indF1< nFilP, "Indice de columna fuera en Pivot") ;

286

CAPITULO 12. RESOLVIENDO SISTEMAS DE ECUACIONES.

if(indF1==indF2) return ;
double paso ;
int ind1, ind2 ;
for (int i = 0; i < nColP; i++ ) {
ind1 = nColP*indF1+i ;
ind2 = nColP*indF2+i ;
paso = dataP[ind1] ;
dataP[ind1] = dataP[ind2] ;
dataP[ind2] = paso ;
}
}
void Matrix::multi(double fact, int indF1, int indF2 ) {
int ind1, ind2 ;
for (int i = 0; i < nColP; i++ ) {
ind1 = nColP*indF1+i ;
ind2 = nColP*indF2+i ;
dataP[ind2] += fact*dataP[ind1] ;
}
}
//
// IOSTREAM <<
//
ostream & operator << (ostream & os, Matrix mat ) {
for(int indF=0; indF < mat.nRow(); indF++) {
os << "| " ;
for(int indC=0; indC<mat.nCol(); indC++) {
os << mat(indF,indC) << " ";
}
os << "|"<<endl ;
}
return os ;
}
void error ( int i, String s) {
if(i) return ;
cout << s<<"\a" <<endl ;
exit(-1);
}
Matrix operator * (Matrix A , Matrix B) {
int nColA = A.nCol() ;
int nColB = B.nCol() ;
int nFilA = A.nRow() ;

12.4. LISTADOS DEL PROGRAMA.

287

int nFilB = B.nRow() ;


error(nColA == nFilB, "No se pueden multiplicar por sus dimensiones") ;
Matrix R(nFilA
, nColB ) ;
for (int indF = 0; indF<nFilB; indF++){
for (int indC=0; indC<nColA; indC++){
double sum = 0.0 ;
for (int k=0; k < nColA; k++ ) sum += A(indF, k) * B(k, indC) ;
R(indF, indC) = sum ;
}
}
return R ;
}
Matrix operator + (Matrix A , Matrix B) {
int nColA = A.nCol() ;
int nColB = B.nCol() ;
int nFilA = A.nRow() ;
int nFilB = B.nRow() ;
error(nFilA == nFilB && nColA== nColB, "tienen dimensiones distintas") ;
Matrix R(nFilA
, nColA ) ;
for (int indF = 0; indF<nFilB; indF++){
for (int indC=0; indC<nColA; indC++){
R(indF, indC) = A( indF, indC) + B(indF, indC);
}
}
return R ;
}
Matrix operator - (Matrix A , Matrix B) {
int nColA = A.nCol() ;
int nColB = B.nCol() ;
int nFilA = A.nRow() ;
int nFilB = B.nRow() ;
error(nFilA == nFilB && nColA== nColB, "tienen dimensiones distintas") ;
Matrix R(nFilA
, nColA ) ;
for (int indF = 0; indF<nFilB; indF++){
for (int indC=0; indC<nColA; indC++){
R(indF, indC) = A( indF, indC) - B(indF, indC);
}
}
return R ;
}

CAPITULO 12. RESOLVIENDO SISTEMAS DE ECUACIONES.

288

12.4.3

Funci
on de eliminaci
on Gaussiana ge.

//
// Eliminacion Gaussiana.
//
#include "NumMeth.h"
#include "Matrix.h"
double ge( Matrix A, Matrix
{
int nFil = A.nRow() ;
int nCol = A.nCol() ;
Matrix si (nFil) ;

b, Matrix & x)

for ( int indF= 0; indF < nFil ; indF++) si(indF)= A.maximoF(indF) ;


double determinante=1.0e0 ;
for (int indC= 0; indC< nCol-1; indC++) {
// pivoteo
double max = A(indC,indC)/si(indC) ;
int indicePivot = indC ;
for (int i = indC+1; i < nCol ; i++){
if( A(i, indC)/si(i) > max ) {
max = A(i,indC)/si(i) ;
indicePivot = i ;
}
}
if(indicePivot != indC) {
A.pivot(indC, indicePivot) ;
b.pivot(indC, indicePivot) ;
determinante *= -1.0e0 ;
}
double Ad= A(indC,indC) ;
for (int indF=indC+1; indF< nFil; indF++ ) {
double factor = - A(indF, indC)/Ad ;
A.multi(factor, indC, indF);
b.multi(factor, indC, indF);
}
}
for (int indF= nFil-1; indF >=0; indF--) {
double sum =0.0e0 ;
for (int i = indF+1; i < nCol; i++) sum += A(indF, i)*x(i) ;
x(indF) = b(indF)/A(indF, indF) - sum /A(indF, indF);
}
double determ = 1.0e0 ;

12.4. LISTADOS DEL PROGRAMA.


for (int i = 0; i < nCol; i++) determ *= A(i,i) ;
return determinante*determ

12.4.4

Funci
on para inversi
on de matrices inv.

//
// Invierte una matriz
//
#include "NumMeth.h"
#include "Matrix.h"
double inv( Matrix A, Matrix & invA) {
int nFil = A.nRow() ;
int nCol = A.nCol() ;
error(nFil==nCol, "Matriz no es cuadrada");
Matrix e(nFil) ;
Matrix x(nFil) ;
double deter = 0.0e0 ;
invA.set(0.0e0) ;
for(int indC=0; indC < nCol; indC++) {
e.set(0.0e0) ;
e(indC) = 1.0e0;
deter = ge( A, e, x) ;
error(fabs(deter)>1.0e-10, " Determinante Singular" );
for (int indF=0; indF< nFil; indF++)
invA(indF, indC) = x(indF) ;
}
return deter ;
}

12.4.5

Programa newtn en Octave.

% newtn - Programa para resolver un sistema de ecuaciones no lineales


% usando el metodo de Newton. Las ecuaciones estan definidas en fnewt
suppress_verbose_help_message=1;
clear all; help newtn;
x0=input(Entre la estimacion inicial (vector columna): );
x=x0;
a=input(Entre los parametros a: );
nStep =10;

289

290

CAPITULO 12. RESOLVIENDO SISTEMAS DE ECUACIONES.

for iStep=1:nStep
[f D] = fnewt(x,a) ;
dx=D\f ;
x=x-dx;
end
fprintf(Despues de %g iteraciones la raiz es \n, nStep);
disp(x);
Funci
on fnewt en Octave.
function [f,D] = fnewt(x,a)
f(1)=a(2)*(x(2)-x(1));
f(2)= a(1)*x(1)-x(2)-x(1)*x(3);
f(3)=x(1)*x(2)-a(3)*x(3) ;
D(1,1)=-a(2);
D(2,1)=a(1)-x(3);
D(3,1)=x(2);
D(1,2)=a(2);
D(2,2)=-1;
D(3,2)=x(1);
D(1,3)=0;
D(2,3)=-x(1);
D(3,3)=-a(3);
return

12.4. LISTADOS DEL PROGRAMA.

12.4.6

Programa newtn en c++.

#include <iostream.h>
#include "NumMeth.h"
#include "Matrix.h"
void fnewt( Matrix & f, Matrix & D, Matrix xN, Matrix lambda )
{
double r= lambda(0) ;
double s= lambda(1) ;
double b=lambda(2) ;
double x=xN(0) ;
double y=xN(1) ;
double z=xN(2) ;
f(0) = s*(y-x) ;
f(1) = r*x-y-x*z ;
f(2) = x*y-b*z ;
D(0,0) = -s ;
D(1,0) = r-z ;
D(2,0) = y ;
D(0,1) = s ;
D(1,1)= -1.0e0 ;
D(2,1) = x ;
D(0,2)=0.0e0 ;
D(1,2)= -x ;
D(2,2) =-b ;
}
double ge( Matrix A, Matrix
{
int nFil = A.nRow() ;
int nCol = A.nCol() ;
Matrix si (nFil) ;

b, Matrix & x)

for ( int indF= 0; indF < nFil ; indF++) si(indF)= A.maximoF(indF) ;


double determinante=1.0e0 ;
for (int indC= 0; indC< nCol-1; indC++) {
// pivoteo
double max = A(indC,indC)/si(indC) ;
int indicePivot = indC ;
for (int i = indC+1; i < nCol ; i++){
if( A(i, indC)/si(i) > max ) {
max = A(i,indC)/si(i) ;
indicePivot = i ;
}

291

292

CAPITULO 12. RESOLVIENDO SISTEMAS DE ECUACIONES.


}
if(indicePivot != indC) {
A.pivot(indC, indicePivot) ;
b.pivot(indC, indicePivot) ;
determinante *= -1.0e0 ;
}
double Ad= A(indC,indC) ;
for (int indF=indC+1; indF< nFil; indF++ ) {
double factor = - A(indF, indC)/Ad ;
A.multi(factor, indC, indF);
b.multi(factor, indC, indF);
}

}
for (int indF= nFil-1; indF >=0; indF--) {
double sum =0.0e0 ;
for (int i = indF+1; i < nCol; i++) sum += A(indF, i)*x(i) ;
x(indF) = b(indF)/A(indF, indF) - sum /A(indF, indF);
}
double determ = 1.0e0 ;
for (int i = 0; i < nCol; i++) determ *= A(i,i) ;
return determinante*determ

main()
{
Matrix D(3,3) ;
Matrix f(3) ;
Matrix lambda(3), xN(3), xNp1(3), dx(3) ;
cout <<"Ingrese r , Sigma, b : " ;
cin >> lambda(0) >> lambda(1) >> lambda(2) ;
cout << "Ingrese estimacion inicial : " ;
cin>>
xN(0) >> xN(1) >>
xN(2) ;
int iteraciones ;
cout << "Ingrese numero de iteraciones : " ;
cin >> iteraciones ;
for (int itera = 0; itera < iteraciones; itera ++ ) {
f.set(0.0e0) ;
D.set(0.0e0) ;
dx.set(0.0e0) ;
fnewt(f, D, xN, lambda ) ;

12.4. LISTADOS DEL PROGRAMA.


ge(D, f, dx) ;
xNp1=xN-dx ;
xN=xNp1 ;
cout << xN(0)<< " " << xN(1) << " " << xN(2) << endl ;
}
cout << xN <<endl ;
}

293

294

CAPITULO 12. RESOLVIENDO SISTEMAS DE ECUACIONES.

Captulo 13
An
alisis de datos.
versi
on final 1.1-0111191

A menudo se destaca que los sistemas fsicos simulados sobre un computador son similares
al trabajo experimental. La razon de esta analoga es hecha ya que la simulacion computacional produce datos en muchas maneras similares a los experimentos de laboratorio. Sabemos
que en el trabajo experimental uno a menudo necesita analizar los resultados y esto es lo
mismo que con la simulacion numerica. Este captulo cubre parcialmente algunos topicos en
el analisis de datos.

13.1

Ajuste de curvas.

13.1.1

El calentamiento global.

En el presente, parece que predicciones sobre el tiempo de largo alcance y precisas nunca
se llevaran a cabo. La razon es a causa de las ecuaciones gobernantes que son altamente
no lineales y sus soluciones son extremadamente sensibles a las condiciones iniciales (ver el
modelo de Lorenz). Por otra parte, las predicciones generales acerca del clima terrestre son

posibles. Se pueden predecir si habra o no condiciones de sequa en Africa


en los proximos
a
nos, aunque no la cantidad de precipitaciones sobre un da en particular.
El calentamiento global es un importante topico acaloradamente debatido en la investigacion climatica. El calentamiento es culpa de los gases de invernadero, tal como es el dioxido
de carbono en la atmosfera. Estos gases calientan la Tierra porque son transparentes a la
radiacion de onda corta que llega desde el Sol, pero opacas a la radiacion infrarroja desde
la tierra. Cientficos y legisladores todava estan debatiendo la amenaza del calentamiento
global. Sin embargo, nadie se pregunta que concentraciones de gases invernadero estan en
aumento. Especficamente, los niveles de dioxido de carbono han estado firmemente aumentados desde la revolucion industrial. La figura 13.1 muestra el aumento en la concentracion
de dioxido de carbono durante los a
nos ochenta, medidos en Mauna Loa, Hawaii.
El estudio del calentamiento global ha producido una vasta cantidad de datos, tanto
mediciones practicas, como datos de las simulaciones computacionales. En este captulo
estudiaremos algunas tecnicas basicas para analizar y reducir tales conjuntos de datos. Por
ejemplo, para los datos mostrados en la figura 13.1, cual es la razon estimada de crecimiento
1

Este captulo est


a basado en el quinto captulo del libro: Numerical Methods for Physics, second edition
de Alejandro L. Garcia, editorial Prentice Hall.

295


CAPITULO 13. ANALISIS
DE DATOS.

296

CO2 (ppm)

355

350

345

340

335

1982

1984

1986

1988

1990

Ao

Figura 13.1: Dioxido de carbono (en partes por millon) medida en Mauna Loa, Hawai desde
1981 a 1990. Barra de error estimada es 0 = 0.16 [p.p.m.] .

de la concentracion de CO2 por a


no?. Esta es la primera pregunta que motiva nuestro estudio
de ajustes de curvas.

13.1.2

Teora general.

El tipo mas simple de analisis de datos es ajustar una curva. Suponga que tenemos un conjunto de datos de N puntos (xi , yi ). Deseamos ajustar estos datos a una funcion Y (x; {aj }),
donde {aj } es un conjunto de M parametros ajustables. Nuestro objetivo es encontrar los
valores de esos parametros, para lo cual la funcion ajusta mejor los datos. Intuitivamemte,
esperamos que si nuestro ajuste de la curva es bueno, un grafico del conjunto de datos (xi , yi )
y la funcion Y (x; {aj }) mostraran la curva pasando cerca de los puntos (ver figura 13.2).
Podemos cuantificar esta sentencia midiendo la distancia entre un punto y la curva.
i = Y (xi ; {aj }) yi .

(13.1)

Nuestro criterio de ajuste para la curva sera que la suma de los cuadrados de los errores

13.1. AJUSTE DE CURVAS.

297

yi

Y(x;{aj })

xi
Figura 13.2: Ajuste de datos a una curva.

sea un mnimo; esto es, necesitamos encontrar {aj } que minimice la funcion
D({aj }) =

N
X

2i

N
X

[Y (xi ; {aj}) yi ]2 .

(13.2)

i=1

i=1

Esta tecnica nos dara el ajuste de los cuadrados mnimos; esta no es la u


nica manera de
obtener un ajuste de la curva, pero es la mas com
un. El metodo de los mnimos cuadrados
fue el primero usado por Gauss para determinar las orbitas de los cometas a partir de los
datos observados.
A menudo, nuestros datos tienen una barra de error estimada (o intervalo de seguridad),
el cual escribimos como yi i . En este caso podramos modificar nuestro criterio de ajuste
tanto como para dar un peso menor a los puntos con mas error. En este espritu definimos
2

({aj }) =

2
N 
X
i
i=1

N
X
[Y (xi ; {aj }) yi ]2
i=1

i2

(13.3)

La funcion chi-cuadrado es la funcion de ajuste mas com


unmente usada porque si los errores
son distribuidos gaussianamente, podemos hacer sentencias estadsticas concernientes a la
virtud del ajuste.
Antes de continuar, debemos destacar que discutiremos brevemente la validacion de la
curva de ajuste. Usted puede ajustar cualquier curva para cualquier conjunto de datos, pero
esto no significa que los resultados sean significativos. Para establecer una significancia tenemos que preguntarnos lo siguiente; Cual es la probabilidad que los datos, dado el error
experimental asociado con cada uno de los puntos, sean descrito por la curva?. Desafortunadamente, las hipotesis de prueba ocupan una porcion significativa de un curso estadstico y
estan fuera de los objetivos de esta libro.2
2

W. Mendenhall, R.L. Scheaffer, and D.D. Wackerly, Mathematical Statistics with Applications (Boston:
Duxbury Press, 1981).


CAPITULO 13. ANALISIS
DE DATOS.

298

13.1.3

Regresi
on lineal.

Primero consideremos ajustar el conjunto de datos con una lnea recta,


Y (x; {a1 , a2 }) = a1 + a2 x .

(13.4)

Este tipo de ajuste de curva es tambien conocido como regresion lineal. Deseamos determinar
a1 y a2 tal que
2 (a1 , a2 ) =

N
X
1
(a1 + a2 xi yi )2 ,
2

i=1 i

(13.5)

es minimizada. El mnimo es encontrado diferenciando (13.5) y ajustando la derivada a cero:


N

X 1
2
=2
(a1 + a2 xi yi ) = 0 ,
2
a1

i
i=1

(13.6)

X 1
2
=2
(a1 + a2 xi yi ) xi = 0 ,
2
a2

i
i=1

(13.7)

a1 S + a2 x y = 0
a1 x + a2 x2 xy = 0 ,

(13.8)
(13.9)

donde
S

N
X
1
,
2

i
i=1

x2

N
X
xi
,
2

i
i=1

N
X
x2
i

i=1

i2

y
xy

N
X
yi
,
2

i
i=1

N
X
xi yi
i=1

i2

(13.10)

Puesto que las sumas pueden ser calculadas directamente de los datos, ellas son constantes
conocidas. De este modo tenemos un conjunto lineal de dos ecuaciones simultaneas en las
incognitas a1 y a2 . Estas ecuaciones son faciles de resolver:
a1 =

yx2 xxy
,
Sx2 (x)2

a2 =

Sxy xy
.
Sx2 (x)2

(13.11)

Note que si i , esto es, si el error es el mismo para todos los datos, los se cancelan en las
ecuaciones (13.11). En este caso, los parametros, a1 y a2 , son independientes de la barra
de error. Es com
un que un conjunto de datos no incluya las barras de error asociadas.
Todava podramos usar las ecuaciones (13.11) para ajustar los datos si tenemos que los i
son constantes (i =1 siendo la eleccion mas simple).

13.1. AJUSTE DE CURVAS.

299

Lo siguiente es obtener una barra de error asociado, aj , para el parametro aj de la curva


de ajuste. Usando la ley de la propagacion de errores,3

N 
X
aj
2
aj =
i2 ,
(13.12)
y
i
i=1
e incertando las ecuaciones (13.11), despues de un poco de algebra obtenemos
s
s
x2
S
a1 =
,
a2 =
.
2
2
2
Sx (x)
Sx (x)2

(13.13)

Note que aj es independiente de yi . Si las barras de error de los datos son constantes
(i = 0 ), el error en los parametros es
s
s
hx2 i
0
1
0
a1 =
,
a2 =
,
(13.14)
2
2
2
N hx i hxi
N hx i hxi2
donde
N
1 X
xi ,
hxi =
N i=1

N
1 X 2
hx i =
x .
N i=1 i
2

(13.15)

Finalmente, si nuestro conjunto de datos no tiene un conjunto de barras de error aociadas,


podramos estimar o a partir de la diferencia muestral de los datos,
N

02

1 X
s =
[yi (a1 + a2 xi )]2 ,
N 2 i=1
2

(13.16)

donde s es al desviacion estandar de la muestra. Note que esta varianza muestral esta
normalizada por N 2, puesto que hemos extrado dos parametros a1 y a2 , de los datos.
Muchos problemas de ajuste de curva no lineales, pueden ser transformados en problemas
lineales por un simple cambio de variable. Por ejemplo,
Z(x; {, }) = ex ,

(13.17)

podra ser reescrita como las ecuaciones (13.4) usando el cambio de variable
ln Z = Y ,

ln = a1 ,

= a2 .

(13.18)

Similarmente, para ajustar una potencia de la forma


Z(t; {, }) = t ,

(13.19)

usamos el cambio de variable


ln Z = Y ,

ln t = x ,

ln = a1 ,

= a2 .

(13.20)

Estas transformaciones deberan ser familiares debido a que se usan para graficar datos en
escala semi logartmica o escalas log-log.
3

P. Bevington, Data Reduction an Error Analysis for the Physical Sciences 2d ed. (New York: McGrawHill, 1992).


CAPITULO 13. ANALISIS
DE DATOS.

300

13.1.4

Ajuste general lineal de mnimos cuadrados.

El procedimiento de ajuste de mnimos cuadrados es facil de generalizar para funciones de la


forma
Y (x; {aj }) = a1 Y1 (x) + a2 Y2 (x) + . . . + aM YM (x) =

M
X

aj Yj (x) .

(13.21)

j=1

Para encontrar los optimos parametros procedemos como antes encontrando el mnimo de
2 ,
(M
)2
N
2
X 1 X
=
ak Yk (x) yi
=0,
(13.22)
aj
aj i=1 i2 k=1
o
(M
)
N
X
X
1
Y (xi )
ak Yk (x) yi = 0 ,
2 j

i
i=1
k=1

(13.23)

N X
M
X
Yj (xi )Yk (xi )

(13.24)

por lo tanto

i2

i=1 k=1

ak =

N
X
Yj (xi )yi
i=1

i2

para j = 1, . . . , M . Este conjunto de ecuaciones es conocida como las ecuaciones normales


del problema de los mnimos cuadrados.
Las ecuaciones normales son mas faciles de trabajar en forma matricial. Primero, defina como
mos la matriz de dise
no A,

Y1 (xi )/1 Y2 (xi )/1 . . .


Yj (xi )

A = Y1 (x2 )/2 Y2 (xi )/2 . . . ,


.
(13.25)
Aij =
i
..
..
...
.
.
Note que la matriz de dise
no no depende de yi , los valores de datos, pero depende de xi , esto
es, sobre el dise
no del experimento (donde las mediciones son tomadas). Usando la matriz
de dise
no, podemos escribir (13.24) como
N X
M
X
i=1 k=1

Aij Aik ak =

N
X

Aij

i=1

yi
,
i2

(13.26)

o en forma matricial,
a = AT~b ,
(AT A)~

(13.27)

donde el vector ~b esta definido como bi = yi /i y AT es la traspuesta de la matriz de dise


no.
Esta ecuacion es facil de resolver para el parametro vector ~a,
1 AT~b .
~a = (AT A)

(13.28)

13.1. AJUSTE DE CURVAS.

301

Usando este resultado y la ley de propagacion de errores, en la ecuacion (13.12), encontramos


que el error estimado en el parametro aj es
p
aj = Cjj
(13.29)
1 .
donde C = (AT A)
Una aplicion com
un de esta formulacion general lineal de ajuste de mnimos cuadrados es
el ajuste de los datos polinomiales,
Y (x; {aj }) = a1 + a2 x + a3 x2 + . . . + aM xM 1 .

(13.30)

La matriz de dise
no tiene elementos Aij = aj xj1
I /i , el cual es un tipo de matriz de Vandermonde. Desafortunadamente estas matrices son notoriamente patologicas, por lo tanto sea
cuidadoso para M > 10.

13.1.5

Bondades del ajuste.

Podemos facilmente ajustar cada punto de dato si el n


umero de parametros, M , es igual al
n
umero de puntos de datos, N . En este caso ya sea que hemos construido una teora de Rube
Goldberg4 o no hemos tomado suficientes datos. En vez de eso, supongamos el escenario mas
com
un en el cual N  M . Porque cada dato de punto tiene un error, no esperemos que la
curva pase exactamente a traves de los datos. Sin embargo, preguntemos, con las barras de
error dadas, cuan probable es que la curva en efecto describa los datos?. Por supuesto, si
no se tienen barras de error no hay nada que se pueda decir acerca de la bondad del ajuste.
El sentido com
un sugiere que si el ajuste es bueno, entonces el promedio de la diferencia
debera ser aproximadamente igual a la barra de error,
| yi Y (xi ) | i .

(13.31)

Colocando esto dentro de nuestra definicion para 2 , la ecuacion (13.3), da 2 N . Sin


embargo, sabemos que entre mas parametros usamos, mas facil es ajustar la curva; el ajuste
puede ser perfecto si M = N . Esto sugiere que nuestra regla practica para que un ajuste sea
bueno sea
2 N M .

(13.32)

Por supuesto, este es solo un crudo indicador, pero es mejor que una simple ojeada a la curva.
Un analisis completo podra usar estadstico para asignar una probabilidad de que los datos
sean ajustados por la curva.
Si encontramos que 2  N M , entonces una de dos: no hemos usado una funcion
apropiada, Y (x), para nuestro ajuste de curva o las barras de errores, I , son demasiado
peque
nas. Por otra parte, si 2  N M , el ajuste es tan espectacularmente bueno que
podemos esperar que las barras de error sean realmente demasiado grandes.
4

Como un caricaturista, Rube Golberg, quien creaba maquinas absurdamente elavoradas que realizaban
tareas triviales.

302

CAPITULO 13. ANALISIS


DE DATOS.

Parte IV
An
alisis Vectorial

303

Captulo 14
An
alisis vectorial.
versi
on final 1.9-0112071

14.1

Definiciones, una aproximaci


on elemental.

En ciencia e ingeniera encontramos frecuentemente cantidades que tienen magnitud y solo


magnitud: la masa, el tiempo, la temperatura. Estas cantidades las etiquetamos como escalares. En constraste, muchas cantidades fsicas interesantes tienen magnitud y, adicionalmente,
una direccion asociada. Este segundo grupo incluye el desplazamiento, la velocidad, la aceleracion, la fuerza, el momentum, el momentum angular. Cantidades con magnitud y direccion
seran etiquetadas como cantidades vectoriales. Usualmente, en tratamientos elementales, un
vector es definido como una cantidad que tiene magnitud y direccion. Para distinguir vectores
de escalares, identificaremos las cantidades vectoriales con letra en negrita, esto es, V.
Un vector puede ser convenientemente representado por una flecha con largo proporcional
a la magnitud. La direccion de la flecha da la direccion del vector, el sentido positivo de la
direccion esta siendo indicado por la punta. En esta representacion la suma vectorial
C=A+B ,

(14.1)

consiste en poner en la parte posterior del vector B en la punta del vector A. El vector C es

B
A
C
Figura 14.1: Ley del triangulo para suma de vectores.

el representado por una flecha dibujada desde la parte posterior de A y la punta de B. Este
1

Este captulo est


a basado en el primer captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.

305


CAPITULO 14. ANALISIS
VECTORIAL.

306

procedimiento, la ley del triangulo de la suma, le asigna un significado a la ecuacion (14.1) y


es ilustrada en la figura 14.1. Al completar el paralelogramo, vemos que
C=A+B=B+A ,

(14.2)

como muestra la figura 14.2. En otras palabras la suma vectorial es conmutativa

B
A
C

B
Figura 14.2: Ley del paralelogramo para suma de vectores.

Para la suma de tres vectores


D=A+B+C ,
figura 14.3, podemos primero sumar A y B
A+B=E .
Entonces a esta suma le agregamos C
D=E+C .
Similarmente, podemos primero sumar B y C

B
A
E

D
Figura 14.3: La suma de vectores es asociativa.

B+C=F .
Entonces
D=A+F .

ELEMENTAL.
14.1. DEFINICIONES, UNA APROXIMACION

307

F1 + F2
F1

F2
o
F1

wt

F2
o
F3

F3

Figura 14.4: Equilibrio de fuerzas. F1 + F2 = F3 .

En terminos de la expresion original,


(A + B) + C = A + (B + C) .
La suma de vectores es asociativa.
Un ejemplo fsico directo de la ley de suma del paralelogramo es provisto por un peso
suspendido de dos cuerdas. Si el punto de juntura (o en la figura 14.4) esta en equilibrio, el
vector suma de las dos fuerzas F1 y F2 deben justo cancelarse con la fuerza hacia abajo F3 .
Aqu la ley de suma del paralelogramo es sujeta a una verificacion experimental inmediata.2
La resta puede ser manejada definiendo el negativo de un vector como un vector de la
misma magnitud pero con la direccion contraria. Entonces
A B = A + (B) .
En la figura 14.3
A=EB
Notemos que los vectores son tratados como objetos geometricos que son independientes
de cualquier sistema de coordenadas. Realmente, no hemos presentado a
un un sistema de
2

Estrictamente hablando la ley de suma del paralel


ogramo fue introducida como definici
on. Los experimentos muestran que si suponemos que las fuerzas son cantidades vectoriales y las combinamos usando la
ley de suma del paralel
ogramo, la condici
on de una fuerza resultante nula como condici
on de equilibrio es
satisfecha.


CAPITULO 14. ANALISIS
VECTORIAL.

308

coordenadas. Este concepto de independencia de un particular sistema de coordenadas es


desarrollado en detalle en la proxima seccion.
La representacion del vector A por una flecha sugiere una segunda posibilidad. La flecha
A (figura 14.5), partiendo desde el origen,3 y terminando en el punto (Ax , Ay , Az ). As,
acordamos que los vectores partan en el origen y su final puede ser especificado dando las
coordenadas cartesianas (Ax , Ay , Az ) de la punta de la flecha.

z
Az
(A x ,A y ,A z)

Ay
y

Ax
(A x ,A y ,0)

Figura 14.5: Componentes cartesianas y cosenos directores de A.


Aunque A podra haber representado cualquier cantidad vectorial (momentum, campo
electrico, etc.) exite una cantidad vectorial importante, el desplazamiento desde el origen
al punto (x, y, z), que es denotado por el smbolo especial r. Entonces tenemos la eleccion
de referirnos al desplazamiento como el vector r o por la coleccion (x, y, z), que son las
coordenadas del punto final:
r (x, y, z) .

(14.3)

Usando r para la magnitud del vector r encontramos que la figura 14.5 muestra que las
coordenadas del punto final y la magnitud estan relacionadas por
x = r cos ,

y = r cos ,

z = r cos .

(14.4)

Los cos , cos y cos son llamados los cosenos directores, donde es el angulo entre el
vector dado y el eje-x positivo, y as sucesivamente. Un poco de vocabulario: las cantidades
Ax , Ay y Az son conocidas como las componentes (cartesianas) de A o las proyecciones de A.
As, cualquier vector A puede ser resuelto en sus componentes (o proyecciones sobre los
ejes coordenados) produciendo Ax = A cos , etc., como en la ecuacion (14.4). Podemos elegir
referirnos al vector como un cantidad simple A o por sus componentes (Ax , Ay , Az ). Notemos
3

Se ver
a que se puede partir desde cualquier punto en el sistema de referencias cartesiano, hemos elegido
el origen por simplicidad. Esta libertad de desplazar el origen del sistema de coordenadas sin afectar la
geometra es llamada invariancia translacional.

ELEMENTAL.
14.1. DEFINICIONES, UNA APROXIMACION

309

que el subndice x en Ax denota la componente x y no la dependencia sobre la variable x. La


componente Ax puede ser funcion de x, y y z tal que Ax (x, y, z). La eleccion entre usar A o sus
componentes (Ax , Ay , Az ) es esencialmente una eleccion entre una representacion geometrica
y una algebraica. En el lenguaje de teora de grupos (Captulo 18), las dos representaciones
son isom
orficas.
Usaremos la representacion que nos convenga mas en cada caso. La representacion geometrica flecha en el espacio puede ayudar en la visualizacion. El conjunto algebraico de
componentes es usualmente mucho mas conveniente para calculos numericos o algebraicos.
Los vectores entran en la Fsica de dos maneras distintas : (1) Un vector A puede representar una sola fuerza actuando sobre un u
nico punto. La fuerza de gravedad actuando sobre
el centro de gravedad ilustra esta forma. (2) Un vector A puede estar definido sobre una region extendida; esto es, A y sus componentes son funciones de la posicion: Ax = Ax (x, y, z),
y as sucesivamente. Ejemplo de este tipo incluyen el campo de velocidades de un fluido.
Algunos autores distinguen estos dos casos refiriendose a los vectores definidos sobre una
region como un campo vectorial. Los conceptos de campos vectoriales como funciones de la
posicion seran extremadamente importantes mas adelante.
En este estado es conveniente presentar los vectores unitarios a lo largo de cada eje
coordenado. Sea x
un vector de magnitud uno apuntando en la direccion x-positiva, y
, un
vector de magnitud uno apuntando en la direccion y-positiva, y
z, un vector de magnitud
unitaria en la direccion z-positiva. Entonces x
Ax , es un vector con magnitud igual a Ax , en
la direccion de x-positiva. Por suma de vectores
A=x
Ax + y
Ay +
z Az ,

(14.5)

lo cual establece que un vector es igual a la suma vectorial de sus componentes. Notemos
que si A se anula, todas sus componentes deben anularse individualmente; esto es, si
A=0,

entonces Ax = Ay = Az = 0 .

Finalmente, por el Teorema de Pitagoras, la magnitud del vector A es


A = (A2x + A2y + A2z )1/2 .

(14.6)

Esta resolucion de un vector en sus componentes puede ser llevada a cabo en una variedad de
sistemas de coordenadas, como mostramos en el proximo captulo. Aqu nos restringiremos
a coordenadas cartesianas.
La ecuacion (14.5) es realmente la afirmacion de que los tres vectores unitarios x
, y
y
z
abarcan nuestro espacio real tridimensional. Cualquier vector constante puede ser escrito
como una combinacion lineal de x
, y
y
z. Ya que x
, y
y
z son linealmente independientes
(ninguno es una combinacion lineal de los otros dos), ellos forman una base para el espacio
real tridimensional.
Como un reemplazo a la tecnica grafica, la suma y resta de vectores puede ser llevada a
cabo en terminos de sus componentes. Para A = x
Ax + y
Ay +
z Az y B = x
Bx + y
By +
zBz ,
AB=x
(Ax Bx ) + y
(Ay By ) +
z(Az Bz ) .

(14.7)

Deberamos enfatizar aqu que los vectores unitarios x


, y
, y
z son usados por conveniencia.
Ellos no son esxenciales; podemos describir vectores y usarlos enteramente en terminos de sus

310

CAPITULO 14. ANALISIS


VECTORIAL.

componentes: A (Ax , Ay , Az ). Esta aproximacion es la mas poderosa, definiciones mas


sofisticadas de vectores seran discutidas en las proximas secciones.
Hasta aqu hemos definido las operaciones de suma y resta de vectores. Tres variedades
de multiplicaciones son definidas sobre las bases de sus aplicaciones: un producto interno o
escalar, un producto propio del espacio tridimensional, y un producto externo o directo que
produce un tensor de rango dos. La division por un vector no esta definida.

14.2

Rotaci
on de los ejes de coordenadas.

En la seccion anterior los vectores fueron definidos o representados en dos maneras equivalentes: (1) geometricamente especificando la magnitud y la direccion, con una flecha y (2)
algebraicamente especificando las componentes relativas a ejes de coordenadas cartesianos.
Esta segunda definicion es adecuada para el analisis vectorial del resto del captulo. En esta
seccion propondremos dos definiciones ambas mas sofisticadas y poderosas. Primero, el campo vectorial esta definido en terminos del comportamiento de las componentes de los vectores
bajo la rotacion de los ejes de coordenadas. Este acercamiento teorico de transformacion nos
llevara al analisis tensorial en el captulo 15 y a la teora de grupo de las transformaciones en
el captulo 17. Segundo, la definicion de componentes de la seccion anterior sera refinada y
generalizada de acuerdo a los conceptos matematicos de espacio vectorial. Este acercamiento
nos llevara a los espacios vectoriales de funciones incluyendo o el espacio de Hilbert.
La definicion de vector como una cantidad con magnitud y direccion se quiebra en trabajos
avanzados. Por otra parte, encontramos cantidades, tales como constantes elasticas e ndices
de refraccion en cristales anisotropicos, que tienen magnitud y direccion pero no son vectores.
Por otro lado, nuestra aproximacion ingenua es inconveniente para generalizar y extenderla
a cantidades mas complejas. Tratamos de obtener una nueva definicion de campo vectorial,
usando nuestro vector desplazamiento r como un prototipo.
Hay una importante base fsica para el desarrollo de una nueva definicion. Describimos
nuestro mundo fsico por matematicas, pero el y cualquier prediccion fsica que podamos
hacer debe ser independiente de nuestro analisis matematico. Algunos comparan el sistema
fsico a un edificio y el analisis matematico al andamiaje usado para construir el edificio. Al
final el andamiaje es sacado y el edificio se levanta.
En nuestro caso especfico suponemos que el espacio es isotropico; esto es, no hay direcciones privilegiadas o, dicho de otra manera, todas las direcciones son equivalentes. Luego
cualquier sistema fsico que esta sienddo analizado o las bien las leyes fsicas que son enunciadas no pueden ni debe depender de nuestra eleccion u orientaci
on de los ejes coordenados.
Ahora, volveremos al concepto del vector r como un objeto geometrico independiente del
sistema de coordenadas. Veamos un r en dos sistemas diferentes, uno rotado respecto al otro.
Por simplicidad consideremos primero el caso en dos dimensiones. Si las coordenadas x
e y son rotadas en el sentido contrario a los punteros del reloj en un angulo , manteniendo
r fijo (figura 14.6) obtenemos las siguientes relaciones entre las componentes resueltas en el
sistema original (sin primas) y aquellas resueltas en el nuevo sistema rotado (con primas):
x0 = x cos + y sen ,
y 0 = x sen + y cos .

(14.8)

DE LOS EJES DE COORDENADAS.


14.2. ROTACION

311

y
y
y
y

n
e
s

x
x

s
o
xc


en
x s y cos

x
Figura 14.6: Rotacion de los ejes coordenados cartesianos respecto del eje z.

Vimos en la seccion anterior que un vector podra ser representado por las coordenadas
de un punto; esto es, las coordenadas eran proporcionales a los componentes del vector. En
consecuencia las componentes de un vector deberan transformar bajo rotaciones como las
coordenadas de un punto (tal como r). Por lo tanto cualquier par de cantidades Ax (x, y) y
Ay (x, y) en el sistema de coordenadas xy es transformada en (A0X , A0y ) por esta rotacion del
sistema de coordenadas con
A0x = Ax cos + Ay sen ,
A0y = Ax sen + Ay cos ,

(14.9)

definimos4 Ax y Ay como las componentes de un vector A. Nuestro vector esta definido


ahora en terminos de la transformacion de sus componentes bajo rotacion del sistema de
coordenadas. Si Ax y Ay transforman de la misma manera como x e y, las componentes del
vector de desplazamiento bidimensional, ellas son las componentes del vector A. Si Ax y Ay
no muestran esta forma invariante cuando las coordenadas son rotadas, ellas no forman un
vector.
Las componentes del campo vectorial Ax y Ay que satisfacen las ecuaciones de definicion
(14.9), estan asociadas a una magnitud A y a una direccion en el espacio. La magnitud es una
cantidad escalar, invariante a la rotacion del sistema de coordenadas. La direccion (relativa
al sistema sin primas) es asimismo invariante ante la rotacion del sistema de coordenadas.
El resultado de todo esto es que las componentes de un vector pueden variar de acuerdo a la
rotacion del sistema de coordenadas con primas. Esto es lo que dicen las ecuaciones (14.9).
La definici
on correspondiente de una cantidad escalar es S 0 = S, esto es, invariante ante rotaciones de
los ejes de coordenadas.
4


CAPITULO 14. ANALISIS
VECTORIAL.

312

Pero la variacion con el angulo es tal que las componentes en el sistema de coordenadas
rotado A0x y A0y definen un vector con la misma magnitud y la misma direccion que el vector
definido por las componentes Ax y Ay relativas al eje de coordenadas xy. Las componentes de
A en un sistema de coordenadas particular constituye la representaci
on de A en el sistema de
coordenadas. Las ecuaciones (14.9), que corresponden a las relaciones de transformacion, son
una garanta de que la identidad A es preservada de la rotacion del sistema de coordenadas.
Para ir a tres y, luego, a cuatro dimensiones, encontramos conveniente usar una notacion mas
compacta. Sea
x x1
y x2

a11 = cos ,
a21 = sen ,

(14.10)

a12 = sen ,
a22 = cos .

(14.11)

Las ecuaciones (14.8) transforman como


x01 = a11 x1 + a12 x2 ,
x02 = a21 x1 + a22 x2 .

(14.12)

Los coeficientes aij pueden ser interpretados como los cosenos directores, es decir, el coseno
del angulo entre x0i y xj ; esto es,
a12 = cos(x01 , x2 ) = sen ,


= sen .
a21 = cos(x02 , x1 ) = cos +
2
La ventaja de la nueva notacion5 es que nos permite usar el smbolo suma
ecuaciones (14.12) como
x0i

2
X

aij xj ,

i = 1, 2 .

(14.13)

y reescribir las

(14.14)

j=1

Note que i permanece como un parametro que da origen a una ecuacion cuando este conjunto
es igual a 1 y a una segunda ecuacion cuando este conjunto es igual a 2. El ndice j, por
supuesto, es un ndice de suma, es un ndice mudo, como una variable de integracion, j puede
ser reemplazada por cualquier otro smbolo.
5
Podemos extra
narnos por que hemos sustitudo un par
amentro por cuatro par
ametros aij . Claramente,
los aij no constituyen un conjunto mnimo de par
ametros. Para dos dimensiones los cuatro aij est
an sujetos
a tres restricciones dadas en la ecuaci
on (14.19). La justificaci
on para el conjunto redundante de cosenos
directores es la conveniencia que provee. Se tiene la esperanza que esta conveniencia sea mas aparente en los
pr
oximos captulos. Para rotaciones en tres dimensiones son nueve los aij , pero solamente tres de ellos son
independientes, existen adem
as descripciones alternativas como: los angulos de Euler, los cuaterniones o los
par
ametros de Cayley-Klein. Estas alternativas tienen sus respectivas ventajas y sus desventajas.

DE LOS EJES DE COORDENADAS.


14.2. ROTACION

313

La generalizacion para tres, cuatro, o N dimensiones es ahora muy simple. El conjunto


de N cantidades, Vj , se dice que son las componentes de un vector de N dimensiones, V, si
y solo si sus valores relativos a los ejes coordenados rotados estan dados por
Vi0

N
X

aij Vj ,

i = 1, 2, . . . , N .

(14.15)

j=1

Como antes, aij es el coseno del angulo entre x0i y xj . A menudo el lmite superior N y el
correspondiente intervalo de i no sera indicado. Se da por descontado que se sabe en que
dimension se esta trabajando.
A partir de la definicion de aij como el coseno del angulo entre la direccion positiva de x0i
y la direccion positiva de xj podemos escribir (coordenadas cartesianas)6
aij =

x0i
.
xj

(14.16)

Usando la rotacion inversa ( ) produce


xj =

2
X

aij x0i ,

j=1

xj
= aij .
x0i

(14.17)

Notemos que estas son derivadas parciales. Por uso de las ecuaciones (14.16), (14.17) y
(14.15) se convierten en
Vi0

N
N
X
X
x0i
xj
=
Vj =
Vj .
xj
x0i
j=1
j=1

Los cosenos directores aij satisface una condici


on de ortogonalidad
X
aij aik = jk ,

(14.18)

(14.19)

o, equivalentemente,
X

aji aki = jk .

(14.20)

El smbolo ij es la delta de Kronecker definida por


(
1 para i = j ,
ij =
0 para i 6= j .

(14.21)

Podemos facilmente verificar las ecuaciones (14.19) y (14.20) mantienendose en el caso de dos
dimensiones y sustituyendo los especficos aij desde la ecuacion (14.11). El resultado es la
bien conocida identidad sen2 + cos2 = 1 para el caso no nulo. Para verificar la ecuacion
6

Diferenciando x0i =

aik xk con respecto a xj .


CAPITULO 14. ANALISIS
VECTORIAL.

314

(14.19) en forma general, podemos usar la forma en derivadas parciales de las ecuaciones
(14.16) y (14.17) para obtener
X xj xk
i

x0i x0i

X xj x0
xj
i
=
.
0
x
x
x
k
k
i
i

(14.22)

El u
ltimo paso sigue las reglas usuales para las derivadas parciales, suponiendo que xj es una
funcion de x01 , x02 , x03 , etc. El resultado final, xj /xk , es igual a ij , ya que xj y xk son
coordenadas lineales (j 6= k) que se suponen perpendiculares (en dos o tres dimensiones) u
ortogonales (para cualquier n
umero de dimensiones). Equivalentemente, podemos suponer
que xj y xk con (j 6= k) son variables totalmente independientes. Si j = k, la derivada
parcial es claramente igual a 1. Al redefinir un vector en terminos de como sus componentes
transforman bajo rotaciones del sistema de coordenadas, deberamos enfatizar dos puntos:
1.- Esta definicion se desarrolla porque es u
til y apropiada en describir nuestro mundo fsico. Nuestras ecuaciones vectoriales seran independientes de cualquier sistema particular
de coordenadas. (El sistema de coordenadas no necesita ser cartesiano.) La ecuacion
vectorial siempre puede ser expresada en alg
un sistema particular de coordenadas y, para obtener resultados numericos, deberamos finalmente expresarla en alg
un sistema de
coordenadas especfico.
2.- Esta definicion se puede generalizar abriendo la rama de la matematica conocida como
analisis tensorial, (proximo captulo).
El comportamiento de las componentes vectoriales bajo rotaciones de las coordenadas es
usado en al seccion 14.3 para probar que un producto escalar es un escalar, en la seccion
14.4 para probar que un producto vectorial es un vector, y en la seccion 14.6 para mostrar
que la gradiente de un escalar, 5, es un vector. Lo que resta de este captulo deriva de las
definiciones menos restrictivas de vector que las dadas en la seccion 14.1.

14.2.1

Vectores y espacio vectoriales.

Es habitual en matematicas etiquetar un vector en tres dimensiones x por un triplete ordenado


de n
umeros reales (x1 , x2 , x3 ). El n
umero xn es llamado la componente n del vector x. El
conjunto de todos los vectores (que obedecen las propiedades que siguen) forman un espacio
vectorial sobre los reales en este caso de tres dimensiones. Atribuimos cinco propiedades a
nuestros vectores: si x =(x1 , x2 , x3 ) e y = (y1 , y2 , y3 ),
1. Igualdad entre vectores : x = y significa xi = yi , para i =1, 2, 3.
2. Suma de vectores: x + y = z significa xi + yi = zi , para i =1,2,3.
3. Multiplicacion por un escalar: ax (ax1 , ax2 , ax3 ) con a R.
4. El negativo de un vector o inverso aditivo: x = (1)x (x1 , x2 , x3 ).
5. Vector nulo: aqu existe un vector nulo 0 (0, 0, 0).

14.3. PRODUCTO ESCALAR O PRODUCTO PUNTO.

315

Ya que nuestras componentes vector son n


umeros reales, las siguientes propiedades tambien se mantienen:
1. La suma de vectores es conmutativa: x + y = y + x.
2. La suma de vectores es asociativa: (x + y) + z = x + (y + z).
3. La multiplicacion por escalar es distributiva: a(x + y) = ax + ay, y tambien se cumple
(a + b)x = ax + bx.
4. La multiplicacion por escalar es asociativa: (ab)x = a(bx).
Ademas, el vector nulo 0 es u
nico, tal como lo es el inverso de un vector x dado.
Esta formulacion nos permite formalizar la discusion de componentes de la seccion 14.1.
Su importancia radica en las extensiones, las cuales seran consideradas en los captulos posteriores. En el captulo 17, mostraremos que los vectores forman tanto un grupo Abeliano
bajo la suma como un espacio lineal con las transformaciones en el espacio lineal descrito
por matrices. Finalmente, y quiza lo mas importante, para la fsica avanzada el concepto
de vectores presentado aqu puede ser generalizado a n
umeros complejos, funciones, y a un
n
umero infinito de componentes. Esto tiende a espacios de funciones de dimension infinita,
espacios de Hilbert, los cuales son importantes en la teora cuantica moderna.

14.3

Producto escalar o producto punto.

Habiendo definido vectores, debemos proceder a combinarlos. Las leyes para combinar vectores deben ser matematicamente consistentes. A partir de las posibilidades que existen
seleccionamos dos que son tanto matematica como fsicamente interesantes. Una tercera
posibilidad es introducida en el captulo 15, en la cual formaremos tensores.
La proyeccion de un vector A sobre los ejes de coordenados, la cual define su componente
cartesiana en la ecuacion (14.4), es un caso especial del producto escalar de A y los vectores
unitarios coordenados,
Ax = A cos A x
,

Ay = A cos A y
,

Ax = A cos A
z.

(14.23)

Al igual que la proyeccion es lineal en A, deseamos que el producto escalar de dos vectores
sea lineal en A y B, es decir, obedezca las leyes de distributividad y asociatividad
A (B + C) = A B + A C ,

(14.24)

A yB = (yA) B = yA B ,

(14.25)

donde y es un n
umero. Ahora podemos usar la descomposicion de B en sus componentes
cartesianas de acuerdo a la ecuacion (14.5), B = Bx x
+ By y
+ Bz
z, para construir el producto
escalar general o producto punto de los vectores A y B como
A B = A (Bx x
+ By y
+ Bz
z)
= Bx A x
+ By A y
+ Bz A
z
= Bx Ax + By Ay + Bz Az ,


CAPITULO 14. ANALISIS
VECTORIAL.

316
por lo tanto
AB

Bi Ai =

Ai Bi = B A .

(14.26)

P
Si A = B en la ecuacion (14.26), recuperamos la magnitud A = ( A2i )1/2 de A en la
ecuacion (14.6) a partir de la ecuacion (14.26).

z
B

x
Figura 14.7: Producto escalar A B = AB cos .
Es obvio, a partir de la ecuacion (14.26), que el producto escalar trata a A y B de la misma
manera, o es simetrica en A y B, y es conmutativa. As, alternativamente y equivalentemente,
podemos primero generalizar la ecuacion (14.23) a la proyeccion AB de un vector A sobre
donde B
= B/B es el vector
la direccion de un vector B 6= 0 como AB = A cos A B,
unitario en la direcion de B y es el angulo entre A y B como muestra la figura 14.7.
Segundo, hacemos esta
Similarmente, proyectamos B sobre A como BA = B cos B A.
proyeccion simetrica en A y B, la cual produce la definicion
A B AB B = ABA = AB cos .

(14.27)

La ley distributiva en la ecuacion (14.24) es ilustrada en la figura 14.8, en la cual se


muestra que la suma de las proyecciones de B y C, BA + CA , es igual a la proyeccion de
B + C sobre A, (B + C)A .
Se sigue a partir de las ecuaciones (14.23), (14.26) y (14.27) que los vectores unitarios
coordenados satisfacen la relacion
x
x
=y
y
=
z
z=1,

(14.28)

x
y
=x

z=y

z=0.

(14.29)

mientras

Si la definicion de las componentes, ecuacion (14.26), es etiquetada como una definicion


algebraica, entonces la ecuacion (14.27) es una definicion geometrica. Una de las mas comunes

14.3. PRODUCTO ESCALAR O PRODUCTO PUNTO.

317

B+C
A
BA

CA
(B+C)A

Figura 14.8: La ley distributiva A (B + C) = ABA + ACA = A(B + C)A , ecuacion (14.24).

aplicaciones del producto escalar en Fsica es el calculo del trabajo ejercido por una fuerza
constante = fuerza desplazamiento cos , lo cual es interpretado como el desplazamiento
por la proyeccion de la fuerza en la direccion del desplazamiento, i.e., el producto escalar de
la fuerza y el desplazamiento, W = F S.
n
y

r =xx^+yy^
x

Figura 14.9: Un vector normal.

Si A B = 0 y sabemos que A 6= 0 y B 6= 0, entonces desde la ecuacion (14.27),


cos = 0 o =90 , 270 , y as sucesivamente. Los vectores A y B deben ser perpendiculares.
Alternativamente, podemos decir que son ortogonales. Los vectores unitarios x
, y
y
z son
mutuamente ortogonales. Para desarrollar esta nocion de ortogonalidad demos un paso mas,
supongamos que n es un vector unitario y r es un vector distinto de cero en el plano-xy; esto
es r = x
x + y
y (figura 14.9). Si
nr=0 ,


CAPITULO 14. ANALISIS
VECTORIAL.

318

para todas las elecciones posibles de r, entonces n debe ser perpendicular (ortogonal) al
plano-xy.
A menudo es conveniente reemplazar x
, y
y
z por vectores unitarios con subndice em con
m = 1, 2, 3, con x
= e1 y as sucesivamente. Entonces las ecuaciones (14.28) y (14.29) llegan
a ser
em en = mn .

(14.30)

Para m 6= n los vectores unitarios em y en son ortogonales. Para m = n cada vector es


normalizado a la unidad, esto es, tiene magnitud uno. El conjunto de vectores em se dice que
es ortonormal. La mayor ventaja de la ecuacion (14.30) sobre las ecuaciones (14.28) y (14.29)
es que la ecuacion (14.30) puede ser facilmente genrealizada a un espacio de N dimensiones;
m, n = 1, 2, . . . , N . Finalmente, escogeremos un conjunto de vectores unitarios em que sean
ortonormales por conveniencia.

14.3.1

Invariancia del producto escalar bajo rotaciones.

No hemos mostrado a
un que la palabra escalar este justificada o que el producto escalar sea
realmente un a cantidad escalar. Para hacer esto, investiguemos el comportamiento de A B
bajo una rotacion del sistema de coordenadas. Usando la ecuacion (14.15)
X
X
X
X
X
X
A0x Bx0 + A0y By0 + A0z Bz0 =
axi Ai
axj Bj +
ayi Ai
ayj Bj +
azi Ai
azj Bj .
i

(14.31)
Usando los ndices k y l para sumar sobre x, y y z, obtenemos
XXX
X
A0k Bk0 =
ali Ai alj Bj ,
l

(14.32)

y, rearreglando terminos en el lado derecho, tenemos


X
XXX
XX
X
A0k Bk0 =
(ali alj )Ai Bj =
ij Ai Bj =
Ai Bi .
k

(14.33)

Los dos u
ltimos pasos se siguen de la ecuacion (14.19), la condicion de ortogonalidad de los
cosenos directores, y de la ecuacion (14.21) la cual define la delta de Kronecker. El efecto de
la delta de Kronecker es cancelar todos los terminos en la suma sobre uno de sus dos ndices
excepto el termino en el cual son iguales. En la ecuacion (14.33) su efecto es fijar j = i y
eliminar la suma sobre j. Por supuesto, podramos fijar i = j y eliminar la suma sobre i. la
ecuacion (14.33) nos da
X
X
A0k Bk0 =
Ai Bi ,
(14.34)
k

la cual es justo nuestra definicion de una cantidad escalar, una que permanece invariante
ante rotaciones de los sistemas de coordenadas.

14.4. PRODUCTO VECTORIAL O PRODUCTO CRUZ.

319

A
Figura 14.10: La ley de los cosenos.

En un acercamiento similar el cual se aprovecha de este concepto de invarianza, tomamos


C = A + B y hacemos producto punto consigo mismo.
C C = (A + B) (A + B)
= A A + B B + 2A B .

(14.35)

C C = C2 ,

(14.36)

Ya que

el cuadrado de la magnitud del vector C y por esto una cantidad invariante, veamos que
AB=

C 2 A2 B 2
,
2

invariante.

(14.37)

Ya que la mano derecha de la ecuacion (14.37) es invariante esto es, una cantidad escalar
el lado izquierdo, A B tambien debiera ser invariante bajo una rotacion del sistema de
coordenadas. En consecuencia A B es un escalar.
La ecuacion (14.35) es realmente otra forma de escribir el teorema del coseno, el cual es
C 2 = A2 + B 2 + 2AB cos ,
= A2 + B 2 + 2AB cos( ) ,
= A2 + B 2 2AB cos ,

(14.38)

Comparando las ecuaciones (14.35) y (14.38), tenemos otra verificacion de la ecuacion (14.27),
o, si se prefiere, una derivacion vectorial del teorema del coseno (figura 14.10).
El producto punto, dado por la ecuacion (14.26), podra ser generalizado en dos formas.
El espacio no necesita ser restringido a tres dimensiones. En un espacio n-dimensional, la
ecuacion se aplica con la suma corriendo desde 1 a n. Donde n puede ser infinito, con la suma
como una serie convergente infinita. La otra generalizacion extiende el concepto de vector
para abarcar las funciones. La funcion analoga a un producto punto o interno aparece mas
adelante.


CAPITULO 14. ANALISIS
VECTORIAL.

320

Momento Lineal
Brazo de palanca

Distancia
x

Figura 14.11: Momento angular.

14.4

Producto vectorial o producto cruz.

Una segunda forma de multiplicar vectores emplea el seno del angulo sustentado en vez del
coseno. Por ejemplo, el momento angular (figura 1.11) de un cuerpo esta definido como
momento angular = brazo de palanca momento lineal
= distancia momento lineal sen .
Por conveniencia en el tratamiento de problemas relacionados con cantidades tales como
momento angular, torque y velocidad angular, definiremos el producto vectorial o producto
cruz como
C=AB ,
con
C = AB sen .

(14.39)

A diferencia del caso anterior del producto escalar, C ahora es un vector, y le asignamos una
direccion perpendicular al plano que contiene a A y B tal que A, B y C forman un sistema
diestro. Con esta eleccion de direccion tenemos
A B = B A ,

anticonmutacion.

(14.40)

A partir de esta definicion de producto cruz tenemos


x
x
=y
y
=
z
z=0,

(14.41)

x
y
=
z, y

z= x
,
zx
= y
,
y
x
=
z,
zy
=
x, x

z =
y.

(14.42)

mientras

14.4. PRODUCTO VECTORIAL O PRODUCTO CRUZ.

321

Entre los ejemplos del producto cruz en Fsica Matematica estan la relacion entre el momento
lineal p y el momento angular L (que definine al momento angular),
L=rp ,
y la relacion entre velocidad lineal v y velocidad angular ,
v =r .
Los vectores v y p describen propiedades de las partculas o un sistema fsico. Sin embargo,
la posicion del vector r esta determinado por la eleccion del origen de las coordenadas. Esto
significa que y L dependen de la eleccion del origen.
La campo magnetico B usualmente esta definido por el producto vectorial de la ecuacion
de fuerza de Lorentz7
F=

q
vB ,
c

(cgs).

Donde v es la velocidad de la carga electrica q, c es la velocidad de la luz en el vaco y F es


la fuerza resultante sobre la carga en movimiento.

B sen

x
A

Figura 14.12: Paralelogramo que representa el producto cruz.

El producto cruz tiene una importante interpretacion geometrica la cual se usara en


secciones futuras. En el paralelogramo definido por A y B (figura 14.12), B sen es la altura
si A es tomada como la longitud de la base. Luego | (A B) | = AB sen es el area del
paralelogramo. Como un vector, A B es el area del paralelogramo definido por A y B,
con el vector normal al plano del paralelogramo. Esto sugiere que el area podra ser tratada
como una cantidad vectorial.
Entre parentesis, podemos notar que la ecuacion (14.42) y una ecuacion modificada (14.41)
forman el punto de partida para el desarrollo de los cuaterniones. La ecuacion (14.41) es
remplazada por x
x
=y
y
=
z
z = 1.
Una definicion alternativa del producto vectorial puede ser derivada del caso especial de los
vectores unitarios coordenados en las ecuaciones (14.40-14.42), en conjunto con la linealidad
7

El campo electrico E lo hemos supuesto nulo.


CAPITULO 14. ANALISIS
VECTORIAL.

322

del producto cruz en ambos argumentos vectoriales, en analoga con la ecuacion (14.24) y
(14.25) para el producto punto,
A (B + C) = A B + A C ,
(A + B) C = A C + B C ,

(14.43)

A (yB) = yA B = (yA) B ,

(14.44)

donde y es un n
umero. Usando la descomposicion de A y B en sus componentes cartesianas
de acuerdo a la ecuacion (14.5), encontramos
A B C = (Cx , Cy , Cz ) = (Ax x
+ Ay y
+ Az
z) (Bx x
+ By y
+ Bz
z)
= (Ax By Ay Bx )
xy
+ (Ax Bz Az Bx )
x
z + (Ay Bz Az By )
y
z,
por aplicacion de las ecuaciones (14.43),(14.44) y sustituyendo en las ecuaciones (14.40-14.42),
tal que las componentes cartesianas de A B sean
Cx = Ay Bz Az By ,

CY = Az Bx Ax Bz ,

Cz = Ax By Ay Bx ,

(14.45)

o
Ci = Aj Bk Ak Bj ,

i, j, k todos diferentes,

y con la permutacion ciclca de los ndices i, j, k.


nientemente representado por un determinante

x
y

C = Ax Ay
Bx By

(14.46)

El producto vectorial C puede ser conve

z
Az .
Bz

(14.47)

La expansion del determinante por la fila superior reproduce las tres componentes de C
listadas en la ecuacion (14.45).
La ecuacion (14.39) podra ser llamada una definicion geometrica del producto vectorial.
Luego la ecuacion (14.45) podra ser una definicion algebraica.
Para mostrar la equivalencia de la ecuacion (14.39) y la definicion de componente, ecuacion
(14.45), formemos A C y B C, usando la ecuacion (14.45). Tenemos
A C = A (A B) ,
= Ax (Ay Bz Az By ) + Ay (Az Bx Ax Bz ) + Az (Ax By Ay Bx ) ,
=0.

(14.48)

Similarmente,
B C = B (A B) = 0 .

(14.49)

Las ecuaciones (14.48) y (14.49) muestran que C es perpendicular tanto al vector A como al
vector B (cos = 0, = 90 ) y por lo tanto perpendicular al plano que ellos determinan.

14.4. PRODUCTO VECTORIAL O PRODUCTO CRUZ.

323

La direccion positiva esta determinada considerando el caso especial de los vectores unitarios
x
y
=
z (Cz = +Ax By ).
La magnitud es obtenida a partir de
(A B) (A B) = A2 B 2 (A B)2 ,
= A2 B 2 A2 B 2 cos2 ,
= A2 B 2 sen2 .

(14.50)

C = AB sen .

(14.51)

De donde

El gran primer paso en la ecuacion (14.50) puede ser verificado expandiendo en componentes,
usando la ecuacion (14.45) para A B y la ecuacion (14.26) para el producto punto. A
partir de las ecuaciones (14.48), (14.49) y (14.51) vemos la equivalencia de las ecuaciones
(14.39) y (14.45), las dos definiciones del producto vectorial. Todava permanece el problema
de verificar que C = A B es por cierto un vector; esto es, que obedece la ecuacion (14.15),
la ley de transformacion vectorial. Comencemos en un sistema rotado (sistema prima)
Ci0 = A0j Bk0 A0k Bj0 , i, j y k en orden cclico,
X
X
X
X
=
ajl Al
akm Bm
akl Al
ajm Bm ,
l

(14.52)

(ajl akm akl ajm )Al Bm .

l,m

La combinacion de cosenos directores en parentesis desaparece para m = l. Por lo tanto


tenemos que j y k toman valores fijos, dependiendo de la eleccion de i, y seis combinaciones
de l ym. Si i = 3, luego j = 1, k = 2 (en orden cclico), y tenemos la siguiente combinacion
de cosenos directores8
a11 a22 a21 a12 = a33 ,
a13 a21 a23 a11 = a32 ,
a12 a23 a22 a13 = a31 ,

(14.53)

y sus negativos. Las ecuaciones (14.53) son identidades que satisfacen los cosenos directores.
Ellas pueden ser verificadas con el uso de determinantes y matrices. Sustituyendo hacia atras
en la ecuacion (14.52),
C30 = a33 A1 B2 + a32 A3 B1 + a31 A2 B3 a33 A2 B1 a32 A1 B3 + a31 A3 B2 ,
= a31 C1 + a32 C2 + a33 C3 ,
X
=
a3n Cn .

(14.54)

Permutando los ndices para levantar C10 y C20 , vemos que la ecuacion (14.15) se satisface y C es
por cierto un vector. Podra mencionarse aqu que esta naturaleza vectorial del producto cruz
8

La ecuaci
on (14.53) se mantiene ante rotaciones porque ellas mantienen el volumen.


CAPITULO 14. ANALISIS
VECTORIAL.

324

es un accidente asociado con la naturaleza tridimensional del espacio ordinario9 . Veremos


en el captulo siguiente que el producto cruz tambien puede ser tratado como un tensor
asimetrico de rango dos.
Definimos un vetor como un triplete ordenado de n
umeros (o funciones) como en la
u
ltima parte de la seccion 14.2, luego no hay problemas en identificar el producto cruz como
un vector. La operacion de producto cruz mapea los dos tripletes A y B en un tercer triplete
C el cual por definicion es un vector.
Ahora tenemos dos maneras de multipicar vectores; una tercera forma aparece en el
proximo captulo . Pero que hay de la division por un vector? Esto resulta ser que la razon
B/A no esta unvocamente especificada a menos que A y B sean paralelos. Por lo tanto la
division de un vector por otro no esta bien definida.

14.5

Productos escalar triple y vectorial triple.

14.5.1

Producto escalar triple.

Las secciones 14.3 y 14.4 cubren los dos tipos de multiplicacion de interes aqu. Sin embargo,
hay combinaciones de tres vectores, A (B C) y A (B C), las cuales ocurren con la
suficiente frecuencia para merecer una atencion mas amplia. La combinacion
A (B C) ,
es conocida como el producto escalar triple. El producto B C produce un vector, el cual
producto punto con A, da un escalar. Notemos que (AB)C representa un escalar producto
cruz con un vector, una operacion que no esta definida. Por lo tanto, si estamos de acuerdo
en exclur estas interpretaciones no definidas, los parentesis puede ser omitidos y el producto
de escalar triple puede ser escrito como A B C.
Usando la ecuacion (14.45) para el producto cruz y la ecuacion (14.26) para el producto
punto, obtenemos
A B C = Ax (By Cz Bz Cy ) + Ay (Bz Cx Bx Cz ) + Az (Bx Cy By Cx ) ,
=BCA=CAB ,
= A C B = C B A = B A C , y as sucesivamente.

(14.55)

Notemos el alto grado de simetra presente en la expansion en componentes. Cada termino


contiene los factores Ai , Bj y Ck . Si i, j, k estan en un orden cclico (x, y, z), el signo es
positivo. Si el orden es anticclico, el signo es negativo. Por lo tanto, el punto y la cruz
pueden ser intercambiados,
ABC=ABC .
9

(14.56)

Especficamente la ecuaci
on (14.53) se mantiene solo para un espacio tridimensional. Tecnicamente, es
posible definir un producto cruz en R7 , el espacio de dimensi
on siete, pero el producto cruz resulta tener
propiedades inaceptables (patol
ogicas).

14.5. PRODUCTOS ESCALAR TRIPLE Y VECTORIAL TRIPLE.


Una representacion conveniente de la componente de
dada por el determinante

Ax A y

A B C = Bx By
Cx Cy

325

expansion de la ecuacion (14.55) esta



Az
Bz .
Cz

(14.57)

La regla para intercambiar filas por columnas de un determinante provee una inmediata
verificacion de la permutacion listada en la ecuacion (14.55), mientras la simetra de A, B y
C en la forma determinante sugiere la relacion dada en la ecuacion (14.56).
El producto triple encontrado en la seccion 14.4, en la cual se muestra que A B era
perpendicular a ambos, A y B, son casos especiales del resultado general (ecuacion (14.55)).
z

C
A

y
B
x

Figura 14.13: Paraleleppedo que representa el producto escalar triple.


El producto escalar triple tiene una interpretacion geometrica directa. Los tres vectores
A, B, y C pueden ser interpretados como la definicion de un paraleleppedo (figura 14.13).
| B C | = BC sen ,
= area de la base del paralelogramo.

(14.58)

La direccion, por supuesto, es normal a la base. Haciendo el producto punto con A, esto
significa multiplicar el area de la base, por la proyeccion de A sobre la normal, o la base
tantas veces por la altura. Por lo tanto
A B C = volumen del paraleleppedo definido por A, B y C.
Este es el volumen del paraleleppedo definido por A, B y C. Debemos notar que ABC
puede algunas veces volverse negativo. Este problema y su interpretacion los consideraremos
mas adelante.
El producto escalar triple encuentra una interesante e importante aplicacion en la construccion de una red recproca cristalina. Sea a, b y c (no necesariamente perpendiculares
entre ellos) vectores que definen una red cristalina. La distancia desde un punto de la red a
otro puede ser escrita
r = na a + nb b + nc c ,

(14.59)


CAPITULO 14. ANALISIS
VECTORIAL.

326

con na , nb y nc tomando los valores sobre los enteros. Con estos vectores podemos formar
a0 =

bc
,
abc

b0 =

ca
,
abc

c0 =

ab
.
abc

(14.60)

Vemos que a0 es perpendicular al plano que contiene a b y a c y tiene una magnitud proporcional a a1 . En efecto, podemos rapidamente mostrar que
a0 a = b0 b = c0 c = 1 ,

(14.61)

a0 b = a0 c = b0 a = b0 c = c0 a = c0 b = 0 .

(14.62)

mientras

Esto es a partir de las ecuaciones (14.61) y (14.62) derivamos el nombre de red recproca. El
espacio matematico en el cual esta red recproca existe es llamado a veces espacio de Fourier.
Esta red recproca es u
til en problemas que intervienen el scattering de ondas a partir de
varios planos en un cristal. Mas detalles pueden encontrarse en R.B. Leigthons Principles
of Modern Physics, pp. 440-448 [ New York: McGraw-Hill (1995)].

14.5.2

Producto vectorial triple.

El segundo producto triple de interes es A (B C), el cual es un vector. Aqu los parentesis
deben mantenerse, como puede verse del caso especial (
xx
) y
= 0, mientras que si
evaluamos x
(
xy
) = x

z =
y. El producto vectorial triple es perpendicular a A y
B C. El plano definido por B y C es perpendicular a B C y as el producto triple yace
en este plano (ver figura 14.14)
A (B C) = xB + yC .

(14.63)

Multiplicando (14.63) por A, lo que da cero para el lado izquierdo, tal que xAB+yAC = 0.
De aqu que x = zA C e y = zA B para un z apropiado. Sustituyendo estos valores en
la ecuacion (14.63) da
A (B C) = z(BA C CA B);

(14.64)

deseamos mostrar que z = 1 en la ecuacion (14.64), una importante relacion algunas veces
conocida como la regla BAC CAB. Ya que la ecuacion (14.64) es lineal en A, B y C, z es
independiente de esas magnitudes. Esto es, solamente necesitamos mostrar que z = 1 para
B,
C.
Denotemos B
C
= cos , C
A
= cos , A
B
= cos , y el
vectores unitarios A,
cuadrado de la ecuacion (14.64) para obtener
(B
C)]
2=A
2 (B
C)
2 [A
(B
C)]
2 = 1 cos2 [A
(B
C)]
2,
[A
C)
2 + (A
B)
2 2A
B
A
C
B
C]
,
= z 2 [(A

(14.65)

= z 2 (cos2 + cos2 2 cos cos cos ) ,


usando (
v w)
2=v
2 w
2 (
v w)
2 repetidas veces. Consecuentemente, el volumen abarcado
B
yC
que aparece en la ecuacion (14.65) puede ser escrito como
por A,
(B
C)]
2 = 1 cos2 z 2 (cos2 + cos2 2 cos cos cos ) .
[A

14.6. GRADIENTE,

327

A
y
C

B
A

(B C)

Figura 14.14: Los vectores B y C estan en el plano xy. B C es perpendicular al plano xy


y es mostrado aqu a lo largo del eje z. Entonces A (B C) es perpendicular al eje z y
por lo tanto esta de regreso en el plano xy.

De aqu z 2 = 1 ya que este volumen es simetrico en , y . Esto es z = 1 e independiente


B
y C.
Usando el caso especial x
de A,
(
xy
) =
y en la ecuacion (14.64) finalmente
da z = 1.
Una derivacion alternativa usando el tensor de Levi-Civita ijk ,

ijk

1
= 1

para i, j, k=x, y, z o y, z, x y z, x, y,
para i, j, k=y, x, z o x, z, y y z, y, x,
en otros casos.

La veremos mas adelante.


Podemos notar aqu que los vectores son independientes de las coordenadas tal que una
ecuacion vectorial es independiente de un particular sistema de coordenadas. El sistema de
coordenadas solo determina las componentes. Si la ecuacion vectorial puede ser establecida
en coordenadas cartesianas, ella se puede establecer y es valida en cualquier sistema de
coordenadas que sera introducido en el proximo captulo.

14.6

Gradiente,

Suponga que (x, y, z) es una funcion de punto escalar, esto es, una funcion cuyo valor
depende de los valores de las coordenadas (x, y, z). Como un escalar, debera tener el mismo
valor en un punto fijo dado en el espacio, independiente de la rotacion de nuestro sistema de
coordenadas, o
0 (x01 , x02 , x03 ) = (x1 , x2 , x3 ) .

(14.66)


CAPITULO 14. ANALISIS
VECTORIAL.

328
Diferenciando con respecto a x0i obtenemos

0 (x01 , x02 , x03 )


(x1 , x2 , x3 ) X xj X

=
=
=
aij
,
0
0
0
xi
xi
x
x
x
j
j
i
j
j

(14.67)

por las reglas de diferenciacion parcial y las ecuaciones (14.16) y (14.17). Pero la comparacion
con la ecuacion (14.18), la ley de transformacion vectorial, ahora nos muestra que hemos
construido un vector con componentes /xj . Este vector lo etiquetamos como la gradiente
de . Un simbolismo conveniente es

+y

+
z
x
y
z

(14.68)

+y

+
z
.
x
y
z

(14.69)

= x

o
=x

(o del o grad ) es nuestro gradiente del campo escalar , mientras es por s mismo
un operador diferencial vectorial (disponible para operar sobre o para diferenciar un campo
escalar ). Todas las relaciones para pueden ser derivadas a partir de la naturaleza
hbrida del gradiente, por un lado la expresion en terminos de derivadas parciales y por otra
su naturaleza vectorial.
Ejemplo: el gradiente de una funci
on de r.
p
Calculemos el gradiente de f (r) = f ( x2 + y 2 + z 2 ).
f (r) = x

f (r)
f (r)
f (r)
+y

+
z
.
x
y
z

La dependencia de f (r) sobre x es a traves de la dependencia de r sobre x. Por lo tanto10


f (r)
df (r) r
=
.
x
dr x
De r como funcion de x, y, z

r
=
x

p
x2 + y 2 + z 2
x
x
=p
= .
2
2
2
x
r
x +y +z

Por lo tanto
f (r)
df (r) x
=
.
x
dr r
10

Este es un caso especial de la regla de la cadena para derivadas parciales:


f (r, , )
f r
f
f
=
+
+
.
x
r x
x x

Ya que f / = f / = 0, f /r df /dr.

14.6. GRADIENTE,

329

Permutando las cordenadas obtenemos las otras derivadas, para que finalmente podamos
escribir
f (r) = (
xx + y
y +
zz)

r df
df
1 df
=
=
r
.
r dr
r dr
dr

Aqu
r es un vector unitario r/r en la direccion radial positiva. El gradiente de una funcion
de r es un vector en la direccion radial.

14.6.1

Una interpretaci
on geom
etrica

Una aplicacion inmediata de es hacer el producto punto contra un diferencial de camino


o diferencial de longitud
dr = x
dx + y
dy +
zdz .

(14.70)

As obtenemos
() dr =

dx +
dy +
dz = d ,
x
y
z

(14.71)

el cambio en la funcion escalar corresponde al cambio de posicion dr. Ahora consideremos


P y Q para ser dos puntos sobre una superficie (x, y, z) = C, una constante. Esos puntos
son escogidos tal que Q esta a un distancia dr de P . Entonces moviendose de P a Q, el
cambio en (x, y, z) = C esta dado por
d = () dr = 0 ,

(14.72)

ya que permanecemos sobre la superficie (x, y, z) = C. Esto muestra que es perpendicular a dr. Ya que dr puede tener cualquier direccion desde P mientras permanezca en la
superficie , el punto Q esta restringido a la superficie, pero teniendo una direccion arbitraria,
es normal a la superficie =constante (figura 14.15).
z

P dr

(x,y,z)=C
y
x

Figura 14.15: Requerimos que el diferencial de longitud dr permanezca sobre la superficie


= C.


CAPITULO 14. ANALISIS
VECTORIAL.

330

Si ahora permitimos que dr vaya desde la superficie = C1 a una superficie adyacente


= C2 (figura 14.16),
d = C2 C1 = C = () dr .

(14.73)

Para un d dado, | dr | es un mnimo cuando se escoge paralelo a (cos = 1); o, para un


| dr | dado, el cambio en la funcion escalar es maximizado escogiendo dr paralelo a .
Esto identifica como un vector que tiene la direcci
on de la m
axima raz
on espacial de
cambio de , una identificacion que sera u
til en el proximo captulo cuando consideremos
sistemas de coordenadas no cartesianos.

=C2 > C 1

=C1

P
y
x
Figura 14.16: Gradiente.

Esta identificacion de tambien puede ser desarrollada usando el calculo de variaciones


sujeto a constriciones.
El gradiente de un campo escalar es de extrema importancia en Fsica al expresar la
relacion entre un campo de fuerza y un campo potencial.
fuerza = (potencial) .

(14.74)

Esto es ilustrado para ambos campos, gravitacional y electroestatico, entre otros. Debemos
notar que el signo menos en la ecuacion (14.74) viene del hecho que el agua fluye cerro abajo
y no cerro arriba.

14.7

Divergencia, .

Diferenciar una funcion vectorial es una extension simple de diferenciacion de cantidades


escalares. Supongamos que r(t) describe la posicion de un satelite en alg
un tiempo t. Luego,
por diferenciacion con respecto al tiempo,
dr(t)
r(t + t) r(t)
= lim
,
t0
dt
t
= v , la velocidad lineal.

14.7. DIVERGENCIA, .

331

Graficamente, nuevamente tenemos que la pendiente de la curva, orbita, o trayectoria, como


se muestra en la figura 14.17.

y
r
r(t)
r (t + t)

x
Figura 14.17: Diferenciacion de un vector.

Si resolvemos r(t) dentro de las componentes cartesianas, dr/dt siempre reduca directamente a una suma vectorial de no mas que tres (para el espacio tridimensional) derivadas
escalares. En otro sistema de coordenadas la situacion es un poco mas complicada, los vectores unitarios no son mas constante en direccion. La diferenciacion con respecto al eapacio de
coordenadas es maneja de la misma manera como la diferenciacion con respecto al tiempo,
como se veremos en los siguientes parrafos.
En la seccion 14.6, fue definida como un operador vectorial. Ahora, poniendo cuidadosamnente atencion a ambas sus propiedades vectoriales y a sus propiedades diferenciales,
operemoslo sobre un vector. Primero, como un vector le hacemos producto punto con un
segundo vector para obtener
V =

Vx Vy Vz
+
+
,
x
y
z

(14.75)

lo que se conoce como divergencia de V. Este es un escalar, como se discutio en la seccion


14.3.
Ejemplo Calculemos r

 


x y z
+y

+
z
x
x + y
y +
zz =
+
+
,
r= x

x
y
z
x y z
r=3 .


CAPITULO 14. ANALISIS
VECTORIAL.

332

G
C
dz

H
D

F
dx

dy

x
Figura 14.18: Diferencial paraleleppedo rectangular (en el primer octante).

14.7.1

Una interpretaci
on fsica.

Para desarrollar una intuicion del sentido fsico de la divergencia, consideramos (v) con
v(x, y, z), la velocidad de un fluido compresible (x, y, z), su densidad en el punto (x, y, z).
Si consideramos un peque
no volumen dx, dy, dz (figura 14.18), el fluido fluye dentro de su
volumen per unidad de tiempo (direccion positiva de x) a traves de la cara EF GH es
(masa de fuido que sale por unidad de tiempo)EF GH = vx |x=0 dydz. Los componentes del
flujo vy y vz tangencial a esta cara no contribuye en nada al flujo en esa cara. La masa
de fluido por unidad de tiempo que pasa (todava en la direccion positiva de x) a traves de
la cara ABCD es vx |x=dx dydz. Para comparar estos flujos y para encontrar el flujo neto,
expandimos este u
ltimo resultado en una serie de Maclaurin. Este produce
(La masa de fluido que sale por unidad de tiempo)ABCD = vx |x=dx dydz ,



(vx )dx
dydz .
= vx +
x
x=0

Aqu el termino de la derivada es un primer termino de correccion permitiendo la posibilidad


de no uniformidad de la densidad o velocidad o ambas11 . El termino de orden cero vx |x=0
(correspondiente al flujo uniforme) se cancela.
(La masa neta de fluido que sale por unidad de tiempo)x =
11

(vx )dxdydz .
x

Estrctamente hablando, vx es promediado sobre la cara EF GH y la expresi


on vx + /x(vx )dx
es tambien promediada sobre la cara ABCD. Usando un diferencial de volumen arbitrariamente peque
no,
encontramos que los promedios se reducen a los valores empleados aqu.

14.7. DIVERGENCIA, .

333

Equivalentemente, podemos llegar a este resultado por



vx (x, 0, 0) vx (0, 0, 0)
vx (x, y, z)
lim


x0

x
x

0,0,0

Ahora el eje x no requiere ning


un tratamiento preferencial. El resultado precedente para las
dos caras perpendiculares al eje x debe mantenerse para las dos caras perpendiculares al eje
y, reemplazando x por y y los correspondientes cambios para y y z: y z, z x. Esta
es una permutacion cclica de las coordenadas. Una ulterior permutacion cclica produce los
resultados para las restantes dos caras de nuestro paraleleppedo. Sumando la velocidad de
flujo neto para los tres pares de superficies de nuestro elemento de volumen, tenemos



la masa neta de fluido que sale =


(vx ) +
(vy ) + (vz ) dx dy dz
x
y
z
(14.76)
(por unidad de tiempo)
= (v) dx dy dz .
Por lo tanto, el flujo neto de nuestro fluido compresible del elemento volumen dx dy dz
per unidad de volumen per unidad de tiempo es (v). De aqu el nombre de divergencia.
Una aplicacion directa es en la ecuacion de continuidad

+ (v) = 0 ,
(14.77)
t
la cual simplemente establece que el flujo neto resulta en una disminucion de la densidad
dentro del volumen. Note que en la ecuacion (14.77), es considerada como una funcion
posible del tiempo tanto como del espacio: (x, y, z, t). La divergencia aparece en una amplia
variedad de problemas fsicos, pasando desde una densidad de corriente de probabilidad en
mecanica cuantica, a la perdida de neutrones en un reactor nuclear.
La combinacion (f V), en la cual f es una funcion escalar y V una funcion vectorial,
puede ser escrita

(f Vx ) +
(f Vy ) + (f Vz )
x
y
z
f
Vx f
Vy f
Vz
=
Vx + f
+
Vy + f
+
Vz + f
x
x
y
y
z
z
= (f ) V + f V ,

(f V) =

(14.78)

la cual es justo lo que uno debera esperar para la derivada de un producto. Notemos que
como un operador diferencial, diferencia a ambos, f y V; como un vector se le hace producto
punto con V (en cada termino).
Si tenemos el caso especial de la divergencia de un campo vectorial igual a cero,
B=0 ,

(14.79)

el vector B se dice que es solenoidal, el termino viene del ejemplo en cual B es la campo o
induccion magnetica y la ecuacion (14.79) aparece como una de las ecuaciones de Maxwell.
Cuando un vector es solenoidal puede ser escrito como el rotor de otro vector conocido como
el vector potencial. Mas adelante calcularemos tal vector potencial.


CAPITULO 14. ANALISIS
VECTORIAL.

334

14.8

Rotor,

Otra posible operacion con el operador vectorial es hacerlo producto cruz contra otro
vector. Obtenemos







V =x

Vz Vy + y

Vx
Vz +
z
Vy
Vx
y
z
z
x
x
y


x
y

z

(14.80)



=
,
x y z
Vx Vy Vz

el cual es llamado el rotor de V. En la expansion de este determinante debemos considerar


la naturaleza diferencial de . Especficamente, V esta definido solo como un operador,
otro operador diferencial. Ciertamente no es igual, en general, a V12 . En el caso
de la ecuacion (14.80) el determinante debe ser expandido desde arriba hacia abajo, tal que
obtengamos las derivadas correctas. Si hacemos producto cruz contra el producto de un
escalar por un vector, podemos ver que



f
V
f
V
z
y
(f V) x =

y
z


Vz f
Vy f
(14.81)
= f
+
Vz f
+
Vy
y
y
z
z




= f (V) x + (f ) V x .
Si permutamos las coordenadas tenemos

(f V) = f (V) + (f ) V ,

(14.82)

la cual es el producto vectorial analogo a (14.78). De nuevo, como operador diferencial


diferencia a ambos f y V. Como vector hace producto cruz contra V en cada termino.
Ejemplo
Calculemos rf (r). Por la ecuacion (14.82),
rf (r) = f (r) r + [f (r)] r .

(14.83)

Primero,

x


r =
x
x

y
y

Segundo, usando f (r) =


r(df /dr), obtenemos
rf (r) =

z

=0.
z
z

df

rr .
dr

(14.84)

(14.85)

14.8. ROTOR,

335

y (x ,y +dy)
0 0
3 (x 0+dx,y0 +dy)
2

4
1

(x0 ,y0 )

(x 0+dx,y0 )
x

Figura 14.19: Circulacion alrededor de un loop diferencial.

El producto vectorial se anula, ya que r =


rr y
r
r = 0.
Para desarrollar un mejor sentido del significado fsico del rotor, consideremos la circulacion de un fludo alrededor de un loop diferencial en el plano xy, figura 14.19.
R
Aunque la circulacion tecnicamente esta dada por la integral lineal de un vector V d
(seccion 14.10), podemos establecer las integrales escalares equivalentes. Tomemos la circulacion como
Z
Z
Z
Z
circulacion1234 = Vx (x, y)dx + Vy (x, y)dy + Vx (x, y)dx + Vy (x, y)dy . (14.86)
1

Los n
umeros 1, 2, 3 y 4 se refieren al segmento lineal enumerado en la figura 14.19. En la
primera integral dx = +dx, pero en la tercera integral dx = dx, ya que el tercer segmento
de lnea es recorrido en la direccion negativa de x. Similarmente, dy = +dy, para la segunda
integral y dy para la cuarta. Luego, los integrandos estan referidos al punto (x0 , y0 ) con una
expansion de Taylor13 tomando en cuenta el desplazamiento del segmento de lnea 3 desde 1
y 2 desde 4. Para nuestro segmento de lnea diferencial esto tiende a


Vy
ciculacion1234 = Vx (x0 , y0 )dx + Vy (x0 , y0 ) +
dx dy +
x


Vx
+ Vx (x0 , y0 ) +
dy (dx) + Vy (x0 , y0 )(dy)
(14.87)
y


Vy Vx
=

dxdy .
x
y
12

En este mismo espritu, si A es un operador diferencial, no necesariamente es cierto que A A = 0.


Especficamente, en mec
anica cu
antica el operador de momento angular, L = i(r ), encontramos que
L L = iL.


13

Vy (x0 + dx, y0 ) = Vy (x0 , y0 ) +

Vy
x

x0 y0

dx + Los terminos de ordenes mas altos se van a cero en el

lmite dx 0. Un termino de correcci


on por la variaci
on de Vy con y es cancelado por el correspondiente
termino en la cuarta integral.


CAPITULO 14. ANALISIS
VECTORIAL.

336
Dividiendo por dxdy, tenemos


circulacion por unidad de area = V z .

(14.88)

V =0 ,

(14.89)

La circulacion14 alrededor de nuestra area diferencial en el plano xy esta dada por la componente z de V. En principio, el rotor, V en (x0 , y0 ), podra ser determinado
insertando una (diferencial) rueda con paleta dentro del fluido en movimiento en el punto
(x0 , y0 ). La rotacion de la peque
na rueda de paleta podra ser una medida del rotor, y su eje
a lo largo de la direccion de V, la cual es perpendicular al plano de circulacion.
Usaremos el resultado, ecuacion (14.87), en la seccion 14.13 para derivar el teorema de
Stockes. Cada vez que el rotor de un vector V se anula,

V es llamado irrotacional. Los ejemplos fsicos mas importantes de vectores irrotacionales


son las fuerzas gravitacional y electroestatica. En cada caso
V=C

r
r
=
C
,
r2
r3

(14.90)

donde C es una constante y


r es un vector unitario hacia afuera en la direccion radial. Para
el caso gravitacional tenemos C Gm1 m2 , dado por la ley de Newton de la gravitacion
universal. Si C = q1 q2 , tenemos la ley de Coulomb de la electroestatica (unidades cgs). La
fuerza V dada en la ecuacion (14.90) puede ser mostrada como irrotacional por expansion
directa en las componentes cartesiana como lo hicimos en el ejemplo. Otro acercamiento
sera desarrollado en el proximo captulo, en el cual expresamos , el rotor, en termino de
coordenadas polares esfericas. En la seccion 14.13 veremos que cada vez que un vector es
irrotacional, el vector puede ser escrito como la gradiente (negativa) de un potencial escalar.
En la seccion 14.15 probaremos que un campo vectorial puede ser resuelto en una parte
irrotacional y una parte solenoidal (sujetos a condiciones en infinito). En terminos del campo
electromagnetico esto corresponde a la resolucion dentro de un campo electrico irrotacional
y un campo magnetico solenoidal.
Para ondas en un medio elastico, si el desplazamiento u es irrotacional, u = 0, como
ondas planas (u ondas esfericas en distancias grandes) estas llegan a ser longitudinales. Si
u es solenoidal, u = 0, luego las ondas llegan a ser transversales. Una perturbacion
ssmica producira un desplazamiento que puede ser resuelto en una parte solenoidal y una
parte irrotacional (compare la seccion 14.15). La parte irrotacional produce la longitudinal P
(primaria) de las ondas de terremotos. La parte solenoidal da origen a las ondas tranversales
mas lentas S (secundarias).
Usando la gradiente, divergencia y rotor y por su puesto la regla BAC CAB, podemos
construir o verificar un gran n
umero de u
tiles identidades vectoriales. Para la verificacion, una
expansion completa en componentes cartesianas es siempre una posibilidad. Algunas veces
si usamos agudeza de ingenio en vez de la pesada rutina de las componentes cartesianas, el
proceso de verificacion puede ser drasticamente acortado.
Recuerde que es un operador vectorial, un objeto hbrido que satisface dos conjuntos
de reglas:
14

En din
amica de fluido V es llamada la vorticidad.

14.9. APLICACIONES SUCESIVAS DE .

337

1. reglas vectoriales, y
2. reglas de diferenciacion parcial incluyendo la de diferenciacion de un producto.
Ejemplo Verifiquemos que
(A B) = (B )A + (A )B + B ( A) + A ( B) .

(14.91)

En este particular ejemplo el factor mas importante es reconocer que (A B) es el tipo de


terminos que aparecen en la expansion BAC CAB de un producto triple vectorial, ecuacion
(14.64). Por ejemplo,
A ( B) = (A B) (A )B ,
con diferenciando solo a B, no a A. De la conmutatividad de los factores en el producto
escalar nosotros podemos intercambiar A con B y escribimos
B ( A) = (A B) (B )A ,
ahora con diferenciando solo a A, no a B. Sumando estas ecuaciones, obtenemos
diferenciando al producto A B y la identidad (14.91).
Esta identidad es usada frecuentemente en teora electromagnetica avanzada.

14.9

Aplicaciones sucesivas de .

Hemos definido gradiente, divergencia y rotor para obtener un vector, un escalar y una cantidad vectorial, respectivamente. Usando el operador sobre cada una de estas cantidades,
obtenemos
(a)
(b)
(c) V
(d) V
(e) ( V) ,
las cinco expresiones involucran una segunda derivada y las cinco aparecen en las ecuaciones diferenciales de segundo orden de la Fsica Matematica, particularmente en la teora
elctromagnetica.
La primera expresion, , la divergencia del gradiente, es llamada el Laplaciano de
. Tenemos

 


= x

+y

+
z
x

+y

+
z
x
y
z
x
y
z
(14.92)
2
2
2

+ 2 + 2 .
=
x2
y
z
Cuando es el potencial electroestatico, tenemos
= 2 = 0 .

(14.93)


CAPITULO 14. ANALISIS
VECTORIAL.

338

la cual es la ecuacion de Laplace de la electroestatica. A menudo la combinacion es


escrita como 2 .
la expresion (b) puede ser escrita

x



= x


x

z


z .

z

Expandiendo el determinante, obtenemos


= x

2
2

yz zy

+y

2
2

zx xz

2
2
+
z

xy yx


=0,

(14.94)

suponiendo que el orden de las derivadas parciales puede ser intercambiado. Esto es cierto
ya que estas segundas derivadas parciales de son funciones continuas.
Luego, de la ecuacion (14.94), el rotor de un gradiente es identicamente nulo. Todos los
gradientes, por lo tanto, son irrotacionales. Note cuidadosamente que el cero en la ecuacion
(14.94) se vuelve una identidad matematica, independiente de cualquier Fsica. El cero en la
ecuacion (14.93) es una consecuencia de la Fsica.
La expresion (d) es un producto escalar triple el cual puede ser escrito



x

V =

x
V
x

y
Vy




z
.

z
Vz

(14.95)

De nuevo, suponiendo continuidad tal que el orden de la diferenciacion es irrelevante, obtenemos


V =0 .

(14.96)

La divergencia de un rotor se anula para todos los rotores que sean solenoidales. En la
seccion 14.15 veremos que los vectores pueden ser resueltos dentro de una parte solenoidal y
otra irrotacional por el teorema de Helmholtz.
Las dos expresiones remanentes satisfacen una relacion
( V) = V V .

(14.97)

Esto se deduce inmediatamente a partir de la ecuacion (14.64), la regla BAC CAB, la cual
reescribimos tal que C aparece en el extremo derecho de cada termino. El termino V
no fue incluido en nuestra lista, pero puede ser definido por la ecuacion (14.97).
Ejemplo Una importante aplicacion de estas relaciones vectoriales es la derivacion de la

VECTORIAL.
14.10. INTEGRACION

339

ecuacion de ondas electromagnetica. En el vaco las ecuaciones de Maxwell llegan a ser


B=0 ,
E=0 ,

(14.98)
(14.99)

B=

1 E
,
c t

(14.100)

E=

1 B
,
c t

(14.101)

Aqu E es el campo electrico, B es el campo magnetico c la velocidad de la luz en el vaco


(unidades cgs). Supongamos que eliminamos B de las ecuaciones (14.100) y (14.101). Podemos hacer esto tomando rotor a ambos lados de (14.101) y la derivada temporal a ambos
lados de (14.100). Ya que las derivadas espaciales y temporales conmutan

B
B=
,
t
t

(14.102)

y obtenemos
( E) =

1 2E
.
c2 t2

(14.103)

Aplicando las ecuaciones (14.97) y (14.99) se produce


2 E =

1 2E
,
c2 t2

(14.104)

que es la ecuacion de onda para el vector electromagnetico. De nuevo, si E es expresado en


coordenadas cartesianas, la ecuacion (14.104) se separa en tres ecuaciones escalares.

14.10

Integraci
on vectorial.

El siguiente paso despues de la derivacion vectorial es integrarlos. Comencemos con las


integrales de lnea y luego procederemos con las integrales de superficie y de volumen. En
cada caso el metodo de ataque sera reducir la integral vectorial a un o varias integrales
escalares con las cuales supuestamente estamos mas familiarizado.

14.10.1

Integrales lineales.

Usando un incremento de longitud dr = x


dx + y
dy +
zdz, podemos encontrar las integrales
de lnea
Z
dr ,
(14.105)
c

Z
c

V dr ,

(14.106)


CAPITULO 14. ANALISIS
VECTORIAL.

340
Z

V dr ,

(14.107)

en cada una de las cuales la integral esta sobre alg


un contorno C que puede ser abierto (con un
punto inicial y un punto final separados) o cerrado (formando un loop). Dada la interpretacion
fsica que sigue, la segunda forma, ecuacion (14.106), es lejos la mas importante de las tres.
Con , un escalar, la primera integral se reduce a
Z
Z
Z
Z
dr = x
(x, y, z) dx + y
(x, y, z) dy +
z (x, y, z) dz .
(14.108)
c

Esta separacion ha empleado la relacion


Z
Z
x
dx = x
dx ,

(14.109)

la cual es permisible por que los vectores unitarios cartesianos x


, y
,
z son constantes en
magnitud y direccion. Quizas esta relacion es obvia aqu, pero no sera verdadera en los
sistemas no cartesianos encontrados en el siguiente captulo.
Las tres integrales sobre el lado derecho de la ecuacion (14.108) son integrales escalares
ordinarias. Note, sin embargo, que la integral con respecto a x no puede ser evaluada a menos
que y y z sean conocidos en terminos de x y similarmente para las integrales con respecto
a y y z. Esto simplemente significa que el camino de integracion C debe ser especificado.
A menos que el integrando tenga propiedades especiales que lleve a la integral a depender
solamente de los valores de los puntos extremos, el valor dependera de la eleccion particular
del contorno de C. Por ejemplo, si escogemos el caso muy especial de = 1, la ecuacion
(14.108) es solo la distancia vectorial desde el comienzo del contorno C al punto final, en
este caso es independiente de la eleccion del camino que conecta los puntos extremos. Con
dr = x
dx + y
dy +
zdz, las segunda y tercera formas tambien se reducen a una integral escalar
y, como la ecuacion (14.105), son dependientes, en general, de la eleccion del camino. La
forma (ecuacion (14.106)) es exactamente la misma, como la encontrada cuando calculamos
el trabajo hecho por una fuerza que vara a lo largo del camino,
Z
W = F dr
Z
Z
Z
(14.110)
= Fx (x, y, z)dx + Fy (x, y, z)dy + Fz (x, y, z)dz .
En esta expresion F es la fuerza ejercida sobre una partcula.

14.10.2

Integrales de superficie.

Las integrales de superficie aparecen en la misma forma que las integrales de lnea, el elemento
de area tambien es un vector, da. A menudo este elemento de area es escrito n
dA en el cual n

es un vector unitario (normal) para indicar la direccion positiva. Hay dos convenciones para
escoger la direccion positiva. Primero, si la superficie es una superficie cerrada, concordamos
en tomar hacia afuera como positivo. Segundo, si la superficie es abierta, la normal positiva
depende de la direccion en la cual el permetro de la superficie abierta es recorrido. Si los

VECTORIAL.
14.10. INTEGRACION

341

dedos de la mano derecha estan colocados en la direccion de viaje alrededor del permetro,
la normal positiva esta indicada por el pulgar de la mano derecha. Como una ilustracion,
un crculo en el plano xy (figura 14.23) recorrido de x a y a, x a y y de regreso a x
tendra su normal positiva paralela al eje z positivo (por el sistema de coordenadas de la
mano derecha). Si encontraran superficies de un lado, tal como las bandas de Moebius, se
sugiere que se corten las bandas y formen superficies bien comportadas o las etiqueten de
patologicas y las enven al departamento de Matematicas mas cercano.

n
y
x
Figura 14.20: Regla de la mano derecha para la normal positiva.
Analogo a las integrales de lnea, ecuaciones (14.105-14.107), las integrales de superficie
pueden aparecer en las formas
Z
Z
Z
d ,
V d ,
V d .
Nuevamente, el producto punto
R es lejos la forma mas comunmente encontrada.
La integral de superficie V d puede ser interpretada como un flujo a traves de la
superficie dada. Esto es realmente lo que hacemos en la seccion 14.7 para obtener el significado
del termino divergencia. Esta identificacion reaparece en la seccion 14.11 como el teorema
de Gauss. Note que en ambos, fsicamente y desde el punto de vista del producto punto, la
componente tangencial de la velocidad no contribuye en nada al flujo a traves de la superficie.

14.10.3

Integrales de volumen.

Las integrales de volumen son algo muy simple, porque el elemento de volumen d es una
cantidad escalar15 . Tenemos
Z
Z
Z
Z
Vy d +
z
Vz d ,
(14.111)
Vx d + y

Vd = x

de nuevo reduciendo la integral vectorial a una suma vectorial de integrales escalares.


15

Frecuentemente se denota d3 r o d3 x al elemento de volumen.


CAPITULO 14. ANALISIS
VECTORIAL.

342

14.10.4

Definiciones integrales de gradiente, divergencia y rotor.

Una interesante y significativa aplicacion de nuestras integrales de volumen y de superficie


es su uso en el desarrollo de definiciones alternativas de nuestras relaciones diferenciales.
Encontramos
R
d
= R lim R
,
d
d 0

V = R lim

d 0

V = R lim

d 0

(14.112)

V d
R
,
d

(14.113)

d V
R
.
d

(14.114)

R
En estas tres ecuaciones d es el volumen de una peque
na region del espacio y d es el
elemento de area vectorial de ese volumen. La identificacion de la ecuacion (14.113) como la
divergencia de V fue realizada en la seccion 14.7. Aqu mostramos que la ecuacion (14.112)
es consistente con nuestra definicion inicial de (ecuacion (14.68)). Por simplicidad escogemos d como la diferencial de volumen dxdydz (figura 14.21). Esta vez colocamos el
origen en el centro geometrico de nuestro elemento de volumen. La integral de area tiende
a seis integrales, una por cada una de las seis caras. Recordando que d es hacia afuera,
d x
= | d | para la superficie EF HG, y + | d | para la superficie ABCD, tenemos

z
G

H
D

A
x

Figura 14.21: Paraleleppedo rectangular diferencial con el origen en el centro.

14.11. TEOREMA DE GAUSS.


Z

343




Z
dx
dx
d =
x

dydz + x

+
dydz
x 2
x 2
EF GH
ABDC




Z
Z
dy
dy
y

dxdz + +
y

dxdz

y 2
y 2
AEGC
BF HD




Z
Z
dz
dz

dxdy +
z

dxdy .
z 2
z 2
ABF E
CDHG
Z

Usando los dos primeros terminos de la expansion de Maclaurin, evaluamos cada integrando
en el origen con una correccion includa para corregir por el desplazamiento (dx/2, etc.)
del centro de
no
R la cara desde el origen. Habiendo escogido el volumen total como el tama
diferencial ( d = dxdydz), obtenemos


Z

d = x

+y

+
z
.
(14.115)
x
y
z
Dividiendo por
Z

d = dxdydz ,

verificamos la ecuacion (14.112).


Esta verificacion ha sido sobre simplificada al ignorar otros terminos mas alla de las
primeras derivadas. Estos terminos adicionales, los cuales son introducidos mas adelante
cuando la expansion de Taylor es desarrollada, se anulan en el lmite
Z
d 0 (dx 0 , dy 0 , dz 0) .
Esto, por supuesto, es la razon especificada en las ecuaciones (14.112), (14.113) y (14.114),
que esos lmites son tomados.
La verificacion de la ecuacion (14.114) sigue esta misma lnea exactamente, usando un
volumen diferencial dxdydz.

14.11

Teorema de Gauss.

Aqu derivamos una u


til relacion entre una integral de superficie de un vector y la integral de
volumen de la divergencia de ese vector. Supongamos que el vector V y su primera derivada
son continuas en la region de interes. Luego el teorema de Gauss establece que
Z
Z
V d .
(14.116)
V d =
S

En otras palabras, la integral de superficie de un vector sobre una superficie cerrada es igual
a la integral de volumen de la divergencia del vector integrada sobre el volumen encerrado
definido por la superficie. Imaginemos que el volumen V lo subdividimos en un gran n
umero
de peque
nos paraleleppedos (diferenciales). Para cada uno de los paraleleppedos
X
V d = V d ,
(14.117)
seis superficies


CAPITULO 14. ANALISIS
VECTORIAL.

344

Figura 14.22: Cancelacion exacta de los d sobre las superficies interiores. Sobre la superficie
externa no hay cancelacion.

del analisis de la seccion 14.7, la ecuacion (14.76), con v reemplazado por V. La suma es
sobre las seis caras del paraleleppedo. Sumando sobre todos los paraleleppedos, encontramos
que el termino V d se cancela para todas las caras internas; solamente las contribuciones de
las superficies externas sobreviven (figura 14.22). Analoga a la definicion de una integral de
Riemann como el lmite de una suma, tomamos el lmite sobre el n
umero de paraleleppedos
tendiendo a infinito ( ) y las dimensiones de cada uno tendiendo a cero ( 0).
X
X
V d =
V d
superficies externas

vol
umenes

Z
S

V d =

V d

El resultado es la ecuacion (14.116), el teorema de Gauss.


A partir de un punto de vista fsico la ecuacion (14.76) ha establecido V como el flujo
neto de fluido por unidad de Rvolumen. Luego la integral de volumen da el flujo neto total.
Pero la integral de superficie V d es solo otra manera de expresar esta misma cantidad,
igualando ambas obtenemos el teorema de Gauss.

14.11.1

Teorema de Green.

Un corolario u
til del teorema de Gauss es una relacion conocida como teorema de Green. Si
u y v son dos funciones escalares, tenemos las identidades
(uv) = u v + (u) (v) ,
(vu) = v u + (v) (u) .

(14.118)
(14.119)

14.11. TEOREMA DE GAUSS.

345

Sustrayendo la ecuacion (14.119) de la (14.118) e integrando sobre un volumen (suponiendo


las derivadas de u y v continuas), y aplicando la ecuacion (14.116) (teorema de Gauss),
obtenemos
Z
Z
(u v v u) d = (uv vu) d .
(14.120)
V

Este es el teorema de Green. Una forma alternativa del teorema de Green derivada de la
ecuacion (14.118) es
Z
Z
Z
uv d =
u v d +
u v d .
(14.121)
S

Esta es otra forma del teorema de Green.

14.11.2

Forma alternativa del Teorema de Gauss.

Aunque la ecuacion (14.116) involucra la divergencia es con mucho la forma mas usada del
teorema de Gauss, las integrales de volumen tambien podran involucrar el gradiente o el
rotor. Suponga
V(x, y, z) = V (x, y, z) a,

(14.122)

en el cual a es un vector con una magnitud constante y de direccion constante pero arbitraria.
(se puede elegir la direccion, pero una vez que se escoge hay que mantenerla fija). La ecuacion
(14.116) se convierte en
Z
Z
a V d =
aV d
S
V Z
(14.123)
V d
=a
V

usando la ecuacion (14.78). Esta puede ser reescrita



Z
Z
V d = 0 .
V d
a
S

(14.124)

Ya que | a | =
6 0 y su direccion es arbitraria, significa que el coseno del angulo sustentado
entre ambos vectores no siempre se anula, lo cual implica que el termino en parentesis debe
ser nulo. El resultado es
Z
Z
V d =
V d .
(14.125)
S

En una manera similar, usando V = a P en el cual a es un vector constante, podemos


mostrar
Z
Z
d P =
P d .
(14.126)
S

Estas dos u
ltimas formas del teorema de Gauss son usadas en la forma vectorial de la teora
de difraccion de Kirchoff. Tambien pueden ser usadas para verificar las ecuaciones (14.112)
y (14.114).


CAPITULO 14. ANALISIS
VECTORIAL.

346

14.12

El Teorema de Stokes.

El teorema de Gauss relaciona la interal de volumen de una derivada de una funcion con una
integral de una funcion sobre la superficie cerrada que rodea el volumen. Aqu consideramos
una relacion analoga entre la integral de superficie de una derivada de una funcion y la
integral de lnea de la funcion, el camino de integracion es el permetro que rodea la superficie.
Tomemos la superficie y subdividamosla en una red de rectangulos arbitrariamente peque
nos.
En la seccion 14.8 mostramos que la circulacion alrededor de tales rectangulos diferenciales
(en el plano xy) es V|2 dxdy. De la ecuacion (14.87) aplicada a un rectangulo diferencial
X
V d = V d .
(14.127)
Sumamos sobre todos los peque
nos rectangulos como en la definicion de una integral de
Riemann. Las constribuciones superficiales (lado derecho de la ecuacion (14.127)) son sumadas juntas. Las integrales de lnea (lado izquierdo de la ecuacion (14.127)) sobre todos
los segmentos internos se cancelan. Solamente la integral de lnea alrededor del permetro
sobreviven (figura 14.23). Tomando el lmite usual con el n
umero de rectangulos tendiendo
a infinito mientras dx 0, dy 0, tenemos
X
X
V d =
V d
segmentos externos

rect
angulos

V d =

(14.128)

V d .

Este es el teorema de Stokes. La integral de superficie de la derecha es sobre la superficie


encerrada por el permetro o contorno de la integral de lnea de la izquierda. La direccion del
vector que representa el area que es hacia afuera del plano del papel si la direccion en que
se recorre el contorno para la integral de lnea es en el sentido matematico positivo como se
muestra en la figura 1.25.

Figura 14.23: Cancelacion exacta de los caminos interiores. Sobre el permetro externo no
hay cancelacion.

Esta demostracion del teorema de Stokes esta limitada por el hecho de que usamos una
expansion de Maclaurin de V(x, y, z) para establecer la ecuacion (14.87) en la seccion 14.8.

14.13. TEORIA POTENCIAL.

347

Realmente solo necesitamos pedir que el rotor de V(x, y, z) exista y que sea integrable sobre
la superficie.
El teorema de Stokes obviamente se aplica a una superficie abierta. Es posible considerar
una superficie cerrada como un caso lmite de una superficie abierta con la abertura (y por
lo tanto el permetro) contrada a cero.

14.12.1

Forma alternativa del Teorema de Stokes.

Como con el teorema de Gauss, otras relaciones entre superficies e integrales de lnea son
posibles. Encontramos
Z
I
d = d
(14.129)
S

y
Z

(d ) P =

d P .

(14.130)

La ecuacion (14.129) puede ser verificada rapidamente sustituyendo V = a en la cual


a es un vector de magnitud constante y de direccion constante, como en la seccion 14.11.
Sustituyendo dentro del teorema de Stokes, la ecuacion (14.128)
Z
Z
( a) d = a d
SZ
S
(14.131)
= a d .
S

Para la integral de lnea


I

a d = a

d ,

(14.132)

obtenemos
a

I

a d +

=0.

(14.133)

Ya que la eleccion de la direccion de a es arbitraria, la expresion entre parentesis debe anularse,


esto verifica la ecuacion (14.129). La ecuacion (14.130) puede ser derivada similarmente
usando V = a P, en el cual a nuevamente es un vector constante.
Ambos teoremas el de Stokes y de Gauss son de tremenda importancia en una variedad
de problemas que involucran calculo vectorial.

14.13

Teora potencial.

14.13.1

Potencial escalar.

Si una fuerza sobre una region dada del espacio S puede ser expresada como el gradiente
negativo de una funcion escalar ,
F = ,

(14.134)


CAPITULO 14. ANALISIS
VECTORIAL.

348

llamamos a un potencial escalar el cual describe la fuerza por una funcion en vez de tres.
Un potencial escalar esta determinado salvo una constante aditiva la cual puede ser usada
para ajustar su origen. La fuerza F presentada como el gradiente negativo de un potencial
escalar, mono valuado, es etiquetada como una fuerza conservativa. Deseamos saber cuando
existe una funcion de potencial escalar. Para contestar esta pregunta establezcamos otras
dos relaciones equivalentes a la ecuacion (14.134). Estas son
F=0

(14.135)

y
I

F dr = 0 ,

(14.136)

para todo camino cerrado en nuestra region S. Procedemos a mostrar que cada una de esas
ecuaciones implica las otras dos.
Comencemos con
F = .

(14.137)

F = = 0

(14.138)

Entonces

por las ecuaciones (14.94) o (14.18) implica la ecuacion (14.135). Volviendo a la integral de
lnea, tenemos
I
I
I
F dr = dr = d ,
(14.139)
usando la ecuacion (14.71). Al integrar d nos da . Ya que hemos especificado un loop
cerrado, los puntos extremos coinciden y obtenemos cero para cada camino cerrado en nuestra
region S por lo cual la ecuacion (14.134) se mantiene. Es importante notar aqu la restriccion
de que el potencial sea univaluado y que la ecuacion (14.134) se mantenga para todos los
puntos sobre S. Este problema puede presentarse al usar un potencial escalar magnetico, un
procedimiento perfectamente valido mientras el camino no rodee corriente neta. Tan pronto
como escojamos un camino que rodee una corriente neta, el potencial magnetico escalar cesa
de ser mono valuado y nuestro analisis no tiene mayor aplicacion.
Continuando
H esta demostracion de equivalencia, supongamos que la ecuacion (14.136) se
mantiene. Si F dr = 0 para todos los caminos en S, vemos que el valor de la integral
cerrada para dos puntos distintos A y B es independiente del camino (figura 14.24). Nuestra
premisa es que
I
F dr = 0 .
(14.140)
ACBDA

Por lo tanto
Z
ACB

F dr =

Z
BDA

F dr =

Z
ADB

F dr ,

(14.141)

14.13. TEORIA POTENCIAL.

349
B
D

Figura 14.24: Posible camino para hacer el trabajo.

cambiando el signo al revertir la direccion de integracion. Fsicamente, esto significa que el


trabajo hecho al ir de A a B es independiente del camino y que el trabajo hecho sobre un
camino cerrado es cero. Esta es la razon para etiquetar como una fuerza conservativa: la
energa es conservada.
Con el resultado mostrado en la ecuacion (14.141), tenemos que el trabajo hecho depende
solamente de los puntos extremos, A y B. Esto es,
Z B
trabajo hecho por la fuerza =
F dr = (A) (B) .
(14.142)
A

La ecuacion (14.142) define un potencial escalar (estrictamente hablando, la diferencia de


potencial entre los puntos A y B) y provee una manera de calcular el potencial. Si el punto
B es tomado como una variable, digamos, (x, y, z), luego la diferenciacion con respecto a x, y
y z cubrira la ecuacion (14.134). La eleccion del signo de la mano derecha es arbitraria. La
eleccion aqu es hecha para obtener concordancia con la ecuacion (14.134) y asegurar que
el agua correra ro abajo antes que ro arriba. Para los puntos A y B separados por una
longitud dr, la ecuacion (14.142) se convierte
F dr = d
= dr .

(14.143)

(F + ) dr = 0 ,

(14.144)

Esto puede ser reescrito

y ya que dr es arbitrario se concluye la ecuacion (14.134).


Si
I
F dr = 0 ,

(14.145)

podemos obtener la ecuacion (14.135) usando el teorema de Stokes (ecuacion (14.132)).


I
Z
F dr = F d .
(14.146)


CAPITULO 14. ANALISIS
VECTORIAL.

350

Si tomamos el camino de integracion como el permetro de una diferencial de area d arbitrario, el integrando en la integral de superficie debe ser nula. De ah que la ecuacion (14.136)
implica la ecuacion (14.135).
Finalmente, si F = 0, necesitamos solamente revertir nuestra afirmacion del teorema
de Stokes (ecuacion (14.146)) para derivar la ecuacion (14.136). Luego, por las ecuaciones
(14.142-14.144) la afirmacion inicial F = esta derivada. La triple equivalencia esta
demostrada en la figura 14.25.

F =

F . dr =0

F=0

Figura 14.25: Formulaciones equivalentes para una fuerza conservativa.

Para resumir, una funcion potencial escalar univaluada existe si y solo si F es irrotacional
o el trabajo hecho en torno a loops cerrados es cero. Los campos de fuerza gravitacional y
electroestaticos dados por la ecuacion (14.91) son irrotacionales y por lo tanto, conservativos.
Un potencial escalar gravitacional y electroestatico existen.

14.13.2

Termodin
amica, diferenciales exactas.

En termodinamica encontramos ecuaciones de la forma


df = P (x, y)dx + Q(x, y)dy .

(14.147)

R
El problema usual es determinar si (P (x, y)dx+Q(x, y)dy) depende solamente de los puntos
extremos, esto es, si df es realmente una diferencial exacta. La condicion necesaria y suficiente
es que
df =

f
f
dx +
dy
x
y

(14.148)

o que
f
,
x
f
Q(x, y) =
.
y
P (x, y) =

(14.149)

14.13. TEORIA POTENCIAL.

351

Las ecuaciones (14.149) dependen de que la relacion


P (x, y)
Q(x, y)
=
y
x

(14.150)

se satisfaga. Esto, sin embargo, es exactamente analogo a la ecuacion (14.135), con el requerimiento de que F sea irrotacional. Por cierto, la componente z de la ecuacion (14.135)
es
Fx
Fy
=
,
y
x

(14.151)

con
Fx =

f
,
x

Fy =

f
.
y

Potencial vectorial.
En algunas ramas de la fsica, especialmente en la teora electromagnetica, es conveniente
introducir un potencial vectorial A, tal que un (fuerza) campo B esta dado por
B=A .

(14.152)

Claramente, si la ecuacion (14.152) se mantiene, B = 0 por la ecuacion (14.96) y B es


solenoidal. Aqu queremos desarrollar el converso, mostrar que cuando B es solenoidal un
potencial vectorial A existe. Demostramos la existencia de A calculandolo. Suponga que
B=x
b1 + y
b2 +
zb3 y nuestra incognita A = x
a1 + y
a2 +
zba3 . Por la ecuacion (14.152)
a3 a2

= b1 ,
y
z
a1 a3

= b2 ,
z
x
a2 a1

= b3 .
x
y

(14.153)
(14.154)
(14.155)

Supongamos que las coordenadas han sido escogidas tal que A es paralelo al plano yz; esto
es, a1 = 016 . Entonces
a3
x
a2
b3 =
.
x
b2 =

(14.156)

Integrando, obtenemos
x

a2 =

a3 =

Zx0x

b3 dx + f2 (y, z) ,
(14.157)
b2 dx + f3 (y, z) ,

x0
16

Claramente esto puede hacerse en cualquier punto.


CAPITULO 14. ANALISIS
VECTORIAL.

352

donde f2 y f3 son funciones arbitrarias de y y z pero no son funciones de x. Estas dos


ecuaciones pueden ser comprobadas diferenciando y recobrando la ecuacion (14.156). La
ecuacion (14.153) se convierte en

Z x
b2 b3
f3 f2
a3 a2

=
+
dx +

y
z
y
z
y
z
x0
Z x
(14.158)
b1
f3 f2
=
dx +

,
y
z
x0 x
usando B = 0. Integrando con respecto a x, tenemos
a3 a2
f3 f2

= b1 (x, y, z) b1 (x0 , y, z) +

.
y
z
y
z

(14.159)

Recordando que f3 y f2 son funciones arbitrarias de y y z, escogemos


f2 = 0 ,
Z y
f3 =
b1 (x0 , y, z)dy ,

(14.160)

y0

tal que el lado derecho de la ecuacion (14.159) se reduce a b1 (x, y, z) en acuerdo con la
ecuacion (14.153). Con f2 y f3 dado por la ecuacion (14.160), podemos construir A.
Z y

Z x
Z x
A=y

b3 (x, y, z)dx +
z
b1 (x0 , y, z)dy
b2 (x, y, z)dx .
(14.161)
x0

y0

x0

Esto no es muy completo. Podemos a


nadir una constante, ya que B es una derivada de
A. Y mucho mas importante, podemos a
nadir un gradiente de una funcion escalar sin
afectar a B. Finalmente, las funciones f2 y f3 no son u
nicas. Otras elecciones podran haber
sido hechas. En vez de ajustar a1 = 0 para obtener las ecuaciones (14.153)-(14.155) cualquier
permutacion cclica de 1, 2, 3, x, y, z, x0 , y0 , z0 tambien podra funcionar.
Agregar un gradiente de una funcion escalar, digamos , al vector potencial A no afecta
a B, por la ecuacion (14.94), esta tranformacion es conocida como transformacion de gauge.
A A0 = A + .

14.14

(14.162)

Ley de Gauss y ecuaci


on de Poisson.

Consideremos una carga electrica puntual q en el origen de nuestro sistema de coordenadas.


Esta produce un campo electrico E dado por
E=

r,
r2

(cgs).

(14.163)

Ahora derivemos la ley de Gauss, la cual establece que la integral de superficie en la figura
14.26 es 4q si la superficie S incluye el origen (donde q esta localizada) y cero si la superficie no incluye el origen. La superficie S es cualquier superficie cerrada; no necesariamente
esferica.

DE POISSON.
14.14. LEY DE GAUSS Y ECUACION

353

E. d=0

E. d = 4 q

Figura 14.26: Ley de Gauss.

Usando el teorema de Gauss, la ecuacion (14.116), obtenemos


Z
Z
q
r d

r
= q 2 d ,
2
r
r
S
v

(14.164)

siempre que la superficie S no incluya el origen, donde el integrando no estan bien definidos.
Esto prueba la segunda parte de la ley de Gauss.

^r 0

Figura 14.27: Exclusion del origen.


La primera parte, en la cual la superficie S debera incluir el origen, puede ser tomada por
los alrededores del origen con una peque
na esfera S 0 de radio (figura 14.27). De esa manera
no habra duda de que si esta afuera o si esta adentro, imaginemos que el volumen externo a


CAPITULO 14. ANALISIS
VECTORIAL.

354

la superficie mas externa y el volumen del lado interno de la superficie S 0 (r > ) se conectan
por un peque
no espacio. Estas superficies unidas S y S 0 , las combinamos en una superficie
cerrada. Ya que el radio del espacio interior puede hacerse infinitamente peque
no, all no hay
contribucion adicional de la integral de superficie. La superficie interna esta deliberadamente
escogida para que sea esferica tal que seamos capaces de integrar sobre ella. El teorema de
Gauss ahora se aplica sobre el volumen S y S 0 sin ninguna dificultad. Tenemos
Z
Z
q
r d
q
r d 0
+
=0,
(14.165)
r2
2
S
S0
Podemos evaluar la segunda integral, para d 0 =
r 2 d, donde d es el diferencial de
angulo solido. El signo menos aparece porque concordamos en la seccion 14.10 para tener
la normal positiva
r0 fuera del volumen. En este caso
r0 externo esta en la direccion radial,
0

r =
r. Integrando sobre todos los angulos, tenemos
Z

S0

q
r d 0
=
2

S0

q
r
r 2 d
= 4q ,
2

independiente de radio . Luego tenemos


Z
E d = 4q ,

(14.166)

(14.167)

completando la prueba de la ley de Gauss. Note cuidadosamente que aunque la superficie S


puede ser esferica, no necesariamente es esferica.
Avanzando un poco mas, consideremos una carga distribuida tal que
Z
q=
d .
(14.168)
V

La ecuacion (14.167) todava se aplica, con q interpretada como la distribucion de carga total
encerrada por la superficie S.
Z
Z
E d = 4
d .
(14.169)
s

Usando el teorema de Gauss, tenemos


Z
Z
Ed =
4d .
V

(14.170)

Ya que nuestro volumen es completamente arbitrario, los integrandos deben ser iguales o
E = 4 ,

(14.171)

una de las ecuaciones de Maxwell. Si revertimos el argumento, la ley de Gauss se deduce


inmediatamente a partir de la ecuacion de Maxwell.

14.15. LA DELTA DE DIRAC.

14.14.1

355

Ecuaci
on de Poisson.

Reemplazando E por , la ecuacion (14.171) se convierte en


= 2 = 4 ,

(14.172)

la cual es la ecuacion de Poisson. Para la condicion = 0 esta se reduce a la famosa ecuacion,


2 = 0 ,

(14.173)

de Laplace. Encontramos frecuentemente la ecuacion de Laplace distintos sistemas de coordenadas y las funciones especiales de la Fsica Matematica apareceran como sus soluciones.
La ecuacion de Poisson sera invaluable en el desarrollo de la teora de las funciones de Green.
A partir de la directa comparacion de la fuerza electroestatica de Coulomb y al ley de
Newton de la gravitacion universal
q 1 q2
m1 m2
r , FG = G 2
r.
FE = 2
r
r
Todas las teoras de potencial de esta seccion se aplican igualmente bien a los potenciales
gravitacionales. Por ejemplo, la ecuacion gravitacional de Poisson es
2 = +4G

(14.174)

con ahora una densidad de masa.

14.15

La delta de Dirac.

Del desarrollo de la ley de Gauss en la seccion 14.14


(
 
 
Z
Z
4
1

d =
d =
2
r
r
0

(14.175)

dependiendo de si la integracion incluye el origen r = 0 o no. Este resultado puede ser


convenientemente expresado introduciendo la delta de Dirac,
 
1
2

= 4(r) = 4(x)(y)(z) .
(14.176)
r
Esta funcion delta de Dirac esta definida por sus propiedades
(x) = 0 ,
Z

x 6= 0

f (x)(x)dx = f (0) ,

(14.177)
(14.178)

donde f (x) es cualquiera funcion bien comportada y la integracion incluye el origen. Un caso
especial de la ecuacion (14.178),
Z
(x)dx = 1 .
(14.179)


CAPITULO 14. ANALISIS
VECTORIAL.

356

De la ecuacion (14.178), (x) debe ser un pico infinitamente alto y delgado en x = 0, como
en la descripcion de un impulso de fuerza o la densidad de carga para una carga puntual. El
problema es que tales funciones no existen en el sentido usual de una funcion. Sin embargo
la propiedad crucial en la ecuacion (14.178) puede ser desarrollada rigurosamente como el
lmite de una secuencia de funciones, una distribucion. Por ejemplo, la funcion delta puede
ser aproximada por la secuencias de funciones, ecuaciones (14.180) a (14.182) y las figuras
14.28 a 14.30 :

si x < 1/n
0 ,
n (x) = n/2 , si 1/n < x < 1/n
(14.180)

0,
si x > 1/n

3/2

f3

f2

1/2
-1

-1/2 -1/3

f1
1/3 1/2

Figura 14.28: Secuencia a la delta.

n 2 2
n (x) = en x

sen(nx)
1
n (x) =
=
x
2

(14.181)

eixt dt .

(14.182)

Estas aproximaciones tienen grados de utilidad variable. La ecuacion (14.180) es u


til
en dar una derivacion simple de la propiedad integral, la ecuacion (14.178). La ecuacion
(14.181) es conveniente para diferenciar. Sus derivadas tienden a los polinomios de Hermite.
La ecuacion (14.182) es particularmente u
til en el analisis de Fourier y en sus aplicaciones a

14.15. LA DELTA DE DIRAC.

357

f3

f2
f1
t
Figura 14.29: Secuencia a la delta.

f3
f2
f1
t
Figura 14.30: Secuencia a la delta.

la mecanica cuantica. En la teora de las series de Fourier, la ecuacion (14.182) a menudo


aparece (modificada) como el kernel de Dirichlet:


1 sen (n + 12 )x
n (x) =
.
1
2
x
2

(14.183)

Usando esta aproximacion en la ecuacion (14.178) y despues, suponemos que f (x) es bien
comportada no ofrece problemas para x grandes. Para muchos propositos fsicos tales aproximaciones son muy adecuadas. Desde un punto de vista matematico la situacion todava es


CAPITULO 14. ANALISIS
VECTORIAL.

358
insatisfactoria: Los lmites

lim n (x)

no existen.
Una salida para esta dificultad esta dada por la teora de las distribuciones. Reconociendo
que la ecuacion (14.178) es la propiedad fundamental, enfocaremos nuestra atencion sobre
algo mas que (x). Las ecuaciones (14.180)-(14.182) con n = 1, 2, 3, . . . puede ser interpretada
como una secuencia de funciones normalizadas:
Z
n (x) dx = 1 .
(14.184)

La secuencia de integrales tiene el lmite


Z
lim
n (x)f (x) dx = f (0) .
n

(14.185)

Note que la ecuacion (14.185) es el lmite de una secuencias de integrales. Nuevamente , el


lmite n (x) , n , no existe. (El lmite para todas las formas de n diverge en x = 0.)
Podemos tratar (x) consistentemente en la forma
Z
Z
(x)f (x) dx = lim
n (x)f (x) dx .
(14.186)
n

(x) es etiquetado como una distribucion (no una funcion) definida por la secuencia n (x)
como esta indicado en la ecuacion (14.186). Podramos enfatizar que la integral sobre el lado
izquierdo de la ecuacion (14.186) no es una integral de Riemann. Es un lmite.
Esta distribucion (x) es solamente una de una infinidad de posibles distribuciones, pero
es la u
nica en que estamos interesados en la ecuacion (14.178). A partir de estas secuencias
de funciones vemos que la funcion delta de Dirac debe ser par en x, (x) = (x). La
propiedad integral, la ecuacion (14.178), es u
til en casos, donde el argumento de la funcion
delta es una funcion g(x) con ceros simples sobre el eje real, el cual tiende a las reglas
1
(ax) = (x) ,
a
(g(x)) =

a>0,

a,g(a)=0,g 0 (a)6=0

(x a)
.
| g 0 (a) |

(14.187)

(14.188)

Para obtener la ecuacion (14.187) cambiamos la variable de integracion en


Z
Z
1
1
(ax)f (x) dx =
(y)f (y/a) dy = f (0) .
a
a

y aplicamos la ecuacion (14.178). Para probar la ecuacion (14.188) descomponemos la integral


Z
X Z a+
(g(x))f (x) dx =
f (x)(x a)g 0 (a) dx
(14.189)

a

14.15. LA DELTA DE DIRAC.

359

en una suma de integrales sobre peque


nos intervalos que contiene los ceros de g(x). En esos
0
intervalos, g(x) g(a) + (x a)g (a) = (x a)g 0 (a). Usando la euacion (14.187) sobre el
lado derecho de la ecuacion (14.189) obtenemos la integral de la ecuacion (14.188.
Usando integracion por partes tambien podemos definir la derivada 0 (x) de la delta de
Dirac por la relacion
Z
Z
0
(x x0 )f (x) dx =
f 0 (x)(x x0 ) dx = f 0 (x0 ) .
(14.190)

Usamos (x) frecuentemente y la llamamos la delta de Dirac17 por razones historicas. Recuerde que no es realmente una funcion. Es escencialmente una notacion mas taquigrafica,
definida implcitamente como el lmite de integrales en una secuencia, n (x), de acuerdo a la
ecuacion (14.186). Podra entenderse que nuestra delta de Dirac es a menudo mirada como
un operador, un operador lineal: (x x0 ) opera sobre f (x) y tiende a f (x0 ).
Z
L(x0 )f (x)
f (x)(x x0 ) dx = f (x0 ) .
(14.191)

Tambien podra ser clasificada como un mapeo lineal o simplemente como una funcion generalizada. Desplazando nuestra singularidad al punto x = x0 , escribimos la delta de Dirac
como (x x0 ). La ecuacion (14.178) se convierte en
Z
f (x)(x x0 ) dx = f (x0 )
(14.192)

Como una descripcion de una singularidad en x = x0 , la delta de Dirac puede ser escrita como
(x x0 ) o como (x0 x). En tres dimensiones y usando coordenadas polares esfericas,
obtenemos
Z
Z 2 Z Z
Z
Z
2

(r) r dr sen d d =

(x)(y)(z) dx dy dz = 1 .
0

(14.193)
Esto corresponde a una singularidad (o fuente ) en el origen. De nuevo, si la fuente esta en
r = r1 , la ecuacion (14.193) se convierte en
Z 2 Z Z
(r2 r1 ) r22 dr2 sen 2 d2 d2 = 1 .
(14.194)
0

14.15.1

Representaci
on de la delta por funciones ortogonales.

La funcion delta de Dirac puede ser expandida en terminos de alguna base de funciones
ortogonales reales n (x) con n = 0, 1, 2, . . . . Tales funciones apareceran mas adelante como
soluciones de ecuaciones diferenciales ordinarias de la forma Sturm-Liouville. Ellas satisfacen
las relaciones de ortogonalidad
Z b
m (x)n (x) dx = mn ,
(14.195)
a
17

Dirac introdujo la delta para Mec


anica Cu
antica.


CAPITULO 14. ANALISIS
VECTORIAL.

360

donde el interevalo (a, b) puede ser infinito en uno de los lados o en ambos.[ Por conveniencia
suponemos que n (x) ha sido definida para incluir (w(x))1/2 si las relaciones de ortogonalidad
contienen una funcion de peso positivo adicional w(x).] Usamos n (x) para expandir la delta
como
(x t) =

an (t)n (x) ,

(14.196)

n=1

donde los coeficientes an son funciones de la variable t. Multiplicando por m (x) e integrando
sobre el intervalo ortogonal (ecuacion (14.195)), tenemos
Z b
am (t) =
(x t)m (x) dx = m (t)
(14.197)
a

o
(x t) =

m (t)n (x) = (t x) .

(14.198)

n=1

Esta serie ciertamente no es uniformemente convergente, pero puede ser usada como parte
de un integrando en el cual la integraci
R on resultante la hara convergente.
Suponga que forma la integral F (t)(t x)dx, donde se supone que F (t) puede ser
expandida en una serie de funciones ortogonales p (t), una propiedad llamada completitud.
Luego obtenemos
Z
Z X

X
n (x)n (t) dt
ap p (t)
F (t)(t x)dt =
=

p=0

n=0

(14.199)

ap p (x) = F (x) ,

p=0

R
los productos cruzado p n dt con (n 6= p) se anulan por ortogonalidad. (ecuacion (14.195)).
Refiriendonos a la anterior definicion de la funcion delta de Dirac, ecuacion (14.178), vemos
que nuestra representacion en serie, ecuacion (14.198), sastiface la propiedad de definicion de
la delta de Dirac que es llamada clausura. La suposicion de completitud de un conjunto de
funciones para la expansion de (x t) produce la relacion de clausura. Lo converso, que
clausura implica completitud.

14.15.2

Representaci
on integral para la delta.

Las transformaciones integrales, tal como la integral de Fourier


Z
f (t) exp(it) dt
F () =

conducen a representaciones integrales de la delta de Dirac. Por ejemplo,


Z n
sen n(t x)
1
n (t x) =
=
exp(i(t x)) d ,
(t x)
2 n

(14.200)

14.16. TEOREMA DE HELMHOLTZ.

361

usando la ecuacion (14.182). Tenemos


f (x) = lim

f (t)n (t x) dt ,

(14.201)

donde n (tx) es la secuencia en la ecuacion (14.200) definiendo la distribucion (tx). Note


que la ecuacion (14.201) supone que f (t) es continua en t = x. Si sustituimos la ecuacion
(14.200) en la ecuacion (14.201) obtenemos
Z
Z n
1
f (x) = lim
f (t)
exp(i(t x)) d .
(14.202)
n 2
n
Intercambiando el orden de integracion y luego tomando el lmite n , tenemos el teorema
de integral de Fourier.
Con el entendimiento de que pertenece bajo el signo de la integral como en la ecuacion
(14.201), la identificacion
Z
1
(t x) =
exp(i(t x)) d
(14.203)
2
proporciona una muy u
til representacion integral de la delta.
Cuando la transformada de Laplace
Z
L (s) =
exp(st)(t t0 ) = exp(st0 ) ,

t0 > 0

(14.204)

es invertida, obtenemos la representacion compleja


Z +i
1
exp(s(t t0 )) ds ,
(t t0 ) =
2i i

(14.205)

la cual es esencialmente equivalente a la representacion preva de Fourier de la delta de Dirac.

14.16

Teorema de Helmholtz.

En la seccion 14.13 enfatizamos que la eleccion de un potencial vectorial magnetico A no era


u
nico. La divergencia de A estaba a
un indeterminada. En esta seccion dos teoremas acerca
de la divergencia y el rotor de un vector son desarrollados. El primer teorema es el siguiente.
Un vector esta u
nicamente especificado dando su divergencia y su rotor dentro de una
regi
on y su componente normal sobre el contorno.
Tomemos
V1 = s ,
V1 = c ,

(14.206)

donde s puede ser interpretado como una fuente (carga) densidad y c como una circulacion
(corriente) densidad. Suponiendo tambien que la componente normal V1n sobre el lmite
esta dada, deseamos mostrar que V1 es u
nico. Hacemos esto suponiendo la existencia de un


CAPITULO 14. ANALISIS
VECTORIAL.

362

segundo vector V2 , el cual satisface la ecuacion (14.206) y tiene la misma componente normal
sobre el borde, y luego mostrando que V1 V2 = 0. Sea
W =V1 V2 .
Luego
W =0

(14.207)

W =0 .

(14.208)

Ya que W es irrotacional podemos escribir (por la seccion 14.13)


W = .

(14.209)

Sustituyendo esto en la ecuacion (14.207), obtenemos


= 0,

(14.210)

la ecuacion de la Laplace.
Ahora hagamos uso del teorema de Green en la forma dada en la ecuacion (14.121, siendo
u y v cada uno igual a . Ya que
Wn = V1n V2n = 0
sobre el borde, el teorema de Green se reduce a
Z
Z
() () d = W W d = 0 .
V

(14.211)

(14.212)

La cantidad W W = W 2 es no negativa y por eso tenemos


W = V1 V2 = 0 ,

(14.213)

en todo lugar. Por lo tanto V1 es u


nico, probando el teorema.
Para nuestro potencial vectorial magnetico A la relacion B = A especifica el rotor de
A. A menudo por conveniencia ajustamos A = 0. Luego (con las condiciones de borde)
A esta fijo.
Esta teorema puede ser escrito como un teorema de unicidad para las soluciones de ecuaciones de Laplace. En esta forma, este teorema de unicidad es de gran importancia en en la
solucion de los problemas de contorno de electroestaticas y otras de ecuaciones tipo Laplace
con condiciones de borde. Si podemos encontrar una solucion de las ecuaciones de Laplace que satisfagan las condiciones de borde necesarias, luego nuestra solucion es la solucion
completa.

14.16. TEOREMA DE HELMHOLTZ.

14.16.1

363

Teorema de Helmholtz.

El segundo teorema que probaremos es el teorema de Helmholtz.


Un vector V que satisface la ecuacion (14.206) con ambas densidades de fuente y circulaci
on que se anulan en infinito pueden ser escritas como la suma de dos partes, una de la
cual es la irrotacional, la otra la solenoidal.
El teorema de Helmholtz claramente sera satisfecho si podemos escribir V como
V = + A ,

(14.214)

siendo irrotacional y A siendo solenoidal. Procederemos a justificar la ecuacion


(14.214).
Sea V un vector conocido. Tomemosle la divergencia y el rotor
V = s(r)
V = c(r) .

(14.215)
(14.216)

con s(r) y c(r) funciones de conocidas de la posicion. A partir de estas dos funciones construmos un potencial escalar (r1 ),
Z
1
s(r2 )
(r1 ) =
d2 ,
(14.217)
4
r12
y un potencial vector A(r1 ),
1
A(r1 ) =
4

c(r2 )
d2 .
r12

(14.218)

Si s = 0 luego V es solenoidal y la ecuacion (14.217) implica = 0. De la ecuacion (14.214),


V = A con A como dado en la ecuacion (14.161 es consistente con la seccion 14.13.
Ademas, si c = 0 luego V es irrotacional y la ecuacion (14.218) implica A = 0, y la ecuacion
(14.214) implica V = , consistente con la teora de potencial escalar de la seccion 14.13.
Aqu el argumento r1 indica que (x1 , y1 , z1 ), el campo puntual; r2 , las coordenadas de la
fuente puntual (x2 , y2 , z2 ), mientras
r12 = [(x1 x2 )2 + (y1 y2 )2 + (z1 z2 )2 ]1/2 .

(14.219)

Cuando una direccion esta asociada con r12 , la direccion positiva es tomada para estar alejarse
de la fuente. Vectorialmente, r12 = r1 r2 , como se muestra en la figura 14.31. Por su puesto, s
y c deben anularse suficientemente rapido en distancias grandes tal que existan las integrales.
La expansion actual y la evaluacion de las integrales tales como las ecuaciones (14.217) y
(14.218) estan tratadas mas adelante A partir del teorema de unicidad en los comienzos de
esta seccion, V es u
nico al especificar su divergencia, s, y su rotor, c (y su valor sobre el
contorno). Volviendo a la ecuacion (14.214), tenemos
V = ,

(14.220)

V =A ,

(14.221)

la divergencia del rotor se anula y


CAPITULO 14. ANALISIS
VECTORIAL.

364

Campo puntual

(x1 ,y1 ,z 1 )
r12
r1

(x2 ,y2 ,z 2 )
Fuente puntual

r2

x
Figura 14.31: Campo y fuente puntual.

el rotor del gradiente se anula. Si podemos mostrar que


(r1 ) = s(r1 )

(14.222)

A(r1 ) = c(r1 ),

(14.223)

luego V esta dado en la ecuacion (14.214) tendra la divergencia y el rotor apropiado. Nuestra
descripcion sera internamente consistente y la ecuacion (14.214) estara justificada.
Z
1
s(r2 )
d2 .
(14.224)
V = =
4
r12
El operador Laplaciano, o 2 , opera sobre las coordenadas de campo (x1 , y1 , z1 ) y por
lo tanto conmuta con la integracion con respecto a (x2 , y2 , z2 ). Tenemos
 
Z
1
1
2
V =
s(r2 )1
d2
(14.225)
4
r12
Debemos hacer dos modificaciones menores en la ecuacion (14.175) antes de aplicarla.
Primero, nuestra fuente esta en r2 , no esta en el origen. Esto significa que el 4 en la
ley de Gauss aparece si y solo si la superficie incluye el punto r = r2 . Para mostrar esto,
reescribimos la ecuacion (14.175):
 
1
2
1
= 4(r1 r2 ) .
(14.226)
r12
Este corrimiento de la fuente a r2 puede ser incorporado en las ecuaciones de definicion
(14.178) como
(r1 r2 ) = 0 ,

r1 6= r2 ,

(14.227)

14.16. TEOREMA DE HELMHOLTZ.


Z

365

f (r1 )(r1 r2 ) d1 = f (r2 ) .

(14.228)

1
Segundo, notando que diferenciando dos veces r12
con respecto a x2 , y2 , z2 es la misma cuando
diferenciamos dos veces con respecto a x1 , y1 , z1 , tenemos
 
 
1
1
2
2
1
= 2
= 4(r1 r2 )
r12
r12
(14.229)
4(r2 r1 ) .

Reescribiendo la ecuacion (14.225) y usando la delta de Dirac en la ecuacion (14.229), podemos integrar para obtener
 
Z
1
1
2
V =
s(r2 )1
d2
4
r12
Z
1
(14.230)
=
s(r2 )(4)(r2 r1 ) d2
4
= s(r1 ) .
El paso final se sigue de la ecuacion (14.228) con los subndices 1 y 2 intercambiados. Nuestros
resultados, ecuacion (14.230), muestra que la forma supuesta de V y del potencial escalar
estan en concordancia con la divergencia dada (ecuacion (14.215). Para completar la prueba
del teorema de Helmholtz, necesitamos mostrar que nuestras suposiciones son consistentes
con la ecuacion (14.216), esto es, que el rotor de V es igual a c(r1 ). De la ecuacion (14.214),
V = A = A 2 A .

(14.231)

El primer termino, A tiende a


4 A =

c(r2 ) 1 1

1
r12

(14.232)

por la ecuacion (14.218). Nuevamente reemplazando la segunda derivada con respecto a


x1 , y1 , z1 por segundas derivadas con respecto a x2 , y2 , z2 , integramos cada una de las componentes de la ecuacion (14.141) por partes:

 
Z

1
4 A = c(r2 ) 2
d2
x2 r12
x

 
 
(14.233)
Z
Z

1
= 2 c(r2 )
d2 [2 c(r2 )]
d2 .
x2 r12
x2 r12
La segunda integral se anula ya que la densidad de circulacion c es solenoidal. La primera
integral puede ser transformada a una integral de superficie por el teorema de Gauss. Si
c esta enlazado en el espacio o se anula mas rapido que 1/r para r grandes, de modo que
la integral en la ecuacion (14.218) existe, luego escogiendo una superficie suficientemente
grande la primera integral de la mano derecha de la ecuacion (14.233) tambien se anula. Con
A = 0, la ecuacion (14.231) se reduce a
 
Z
1
1
2
2
V = A =
c(r2 )1
d2 .
(14.234)
4
r12

366

CAPITULO 14. ANALISIS


VECTORIAL.

Esto es exactamente como la ecuacion (14.225) excepto que el escalar s(r2 ) es reemplazado
por la densidad de circulacion vectorial c(r2 ). Introduciendo la delta de Dirac, como antes,
como una manera conveniente de llevar a cabo la integracion, definimos que la ecuacion
(14.234) se reduce a la ecuacion (14.206). Vemos que nuestra forma supuesta de V, dada
por la ecuacion (14.214), y del potencial vectorial A, dado por la ecuacion (14.218), estan de
acuerdo con la ecuacion (14.206) especficamente con el rotor de V.
Esto completa la prueba del teorema de Helmholtz, mostrando que un vector puede ser
resuelto en una parte irrotacional y otra solenoidal. Aplicado al campo electromagnetico,
hemos resuelto nuestro campo vectorial V en un campo electrico irrotacional E, derivado
de un potencial escalar , y un campo de magnetico solenoidal B, derivado de un potencial
vectorial A. La densidad de fuente s(r) puede ser interpretada como una densidad de carga
electrica (dividida por la permitividad electrica ), mientras que la densidad de circulacion
c(r) se convierte en la densidad de corriente electrica.

Departamento de Fsica, Facultad de Ciencias, Universidad de Chile.


noa. Casilla 653, Correo 1, Santiago
Las Palmeras 3425, Nu
fono: 562 978 7276
fax: 562 271 2973
e-mail: secretaria@fisica.ciencias.uchile.cl

Apuntes de un curso de

FISICA MATEMATICA
Tercera edicion, revision 080624-12

Jose Rogan C.
Vctor Munoz G.

Indice
I

An
alisis Tensorial

1. Una breve revisi


on de
algebra lineal.
1.1. Notacion. . . . . . . . . . . . . . . . . . . . .
1.2. Operaciones vectoriales. . . . . . . . . . . . .
1.2.1. Rotacion de vectores. . . . . . . . . . .
1.2.2. Productos vectoriales. . . . . . . . . .
1.2.3. Calculos usando notacion de Einstein. .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

2. Operadores en campos escalares y vectoriales.


2.1. Dibujando campos escalares y vectoriales. . . . . . .
2.1.1. Dibujando campos escalares. . . . . . . . . . .
2.1.2. Dibujando campos vectoriales. . . . . . . . . .
2.2. Operadores vectoriales. . . . . . . . . . . . . . . . . .
2.2.1. Notacion del operador integral. . . . . . . . .
2.2.2. Integrales de lnea. . . . . . . . . . . . . . . .
2.2.3. Integrales de superficie. . . . . . . . . . . . . .
2.2.4. Integrales de volumen. . . . . . . . . . . . . .
2.3. Operadores diferenciales. . . . . . . . . . . . . . . . .
2.3.1. Vista fsica del gradiente. . . . . . . . . . . . .
2.3.2. Vista fsica de la divergencia. . . . . . . . . .
2.3.3. Vista fsica del rotor. . . . . . . . . . . . . . .
2.3.4. Identidades con operadores diferenciales. . . .
2.4. Definiciones integrales de los operadores diferenciales.
2.5. Los teoremas. . . . . . . . . . . . . . . . . . . . . . .
2.5.1. Teorema de Gauss. . . . . . . . . . . . . . . .
2.5.2. Teorema de Green. . . . . . . . . . . . . . . .
2.5.3. Teorema de Stokes. . . . . . . . . . . . . . . .
2.5.4. Teorema de Helmholtz. . . . . . . . . . . . . .
3. Sistemas de Coordenadas Curvilneos.
3.1. El vector posicion . . . . . . . . . . . . . . .
3.2. El sistema cilndrico . . . . . . . . . . . . .
3.3. Sistema esferico . . . . . . . . . . . . . . . .
3.4. Sistemas curvilneos generales . . . . . . . .
3.4.1. Coordenadas, vectores base y factores
iii

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

. . . . . .
. . . . . .
. . . . . .
. . . . . .
de escala

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

5
5
8
9
11
15

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

19
19
19
20
21
21
21
22
23
24
25
27
30
33
34
35
35
36
37
39

.
.
.
.
.

41
41
42
45
47
47

INDICE

iv

3.4.2. Geometra diferencial. . . . . . . . . . . . . . . . . . . .


3.4.3. El vector desplazamiento . . . . . . . . . . . . . . . . . .
3.4.4. Producto de vectores . . . . . . . . . . . . . . . . . . . .
3.4.5. La integral de lnea . . . . . . . . . . . . . . . . . . . . .
3.4.6. Integral de superficie . . . . . . . . . . . . . . . . . . . .
3.4.7. La integral de volumen . . . . . . . . . . . . . . . . . . .
3.4.8. El gradiente . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.9. La divergencia . . . . . . . . . . . . . . . . . . . . . . . .
3.4.10. El rotor . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5. Gradiente, divergencia y rotor en sistemas cilndricos y esfericos
3.5.1. Operaciones cilndricas . . . . . . . . . . . . . . . . . . .
3.5.2. Operaciones esfericas . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

49
51
51
52
52
52
52
53
54
56
56
57

4. Introducci
on a tensores.
4.1. El tensor de conductividad y la ley de Ohm. . . . . . . . . . . . . . .
4.2. Notacion tensorial general y terminologa. . . . . . . . . . . . . . . .
4.3. Transformaciones entre sistemas de coordenadas. . . . . . . . . . . . .
4.3.1. Transformaciones vectoriales entre sistemas cartesianos. . . . .
4.3.2. La matriz de transformacion. . . . . . . . . . . . . . . . . . .
4.3.3. Resumen de transformaciones de coordenadas. . . . . . . . . .
4.3.4. Transformaciones tensoriales. . . . . . . . . . . . . . . . . . .
4.4. Diagonalizacion de tensores. . . . . . . . . . . . . . . . . . . . . . . .
4.4.1. Diagonalizacion y problema de valores propios. . . . . . . . . .
4.5. Transformaciones tensoriales en sistemas de coordenadas curvilneos.
4.6. Pseudo-objetos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6.1. Pseudo-vectores. . . . . . . . . . . . . . . . . . . . . . . . . .
4.6.2. Pseudo-escalares. . . . . . . . . . . . . . . . . . . . . . . . . .
4.6.3. Pseudo-tensores. . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

59
59
62
63
63
64
67
68
69
70
76
77
77
82
83

5. Sistema de coordenadas no ortogonales.


5.1. Breve recuerdo de transformaciones tensoriales. . . . . . . . . . . . .
5.2. Sistemas de coordenadas no ortogonales. . . . . . . . . . . . . . . . .
5.2.1. Un sistema de coordenadas inclinado. . . . . . . . . . . . . . .
5.2.2. Covarianza, contravarianza y metrica. . . . . . . . . . . . . . .
5.2.3. Transformaciones de componentes vectoriales contravariantes.
5.2.4. Notacion de subndices y superndices. . . . . . . . . . . . . .
5.2.5. Transformaciones de componentes vectoriales covariantes. . . .
5.2.6. Covarianza y contravarianza en tensores. . . . . . . . . . . . .
5.2.7. Contravarianza y covarianza de derivadas parciales. . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

85
85
87
88
90
92
95
98
101
103

.
.
.
.

107
. 107
. 114
. 121
. 129

6. Determinantes y matrices.
6.1. Determinantes. . . . . . . . . . . . . . .
6.2. Matrices. . . . . . . . . . . . . . . . . . .
6.3. Matrices ortogonales. . . . . . . . . . . .
6.4. Matrices Hermticas, matrices unitarias.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

INDICE

6.5. Diagonalizacion de matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132


6.6. Matrices normales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
7. Teora de grupo.
7.1. Introduccion. . . . . . . . . . . . . . . . .
7.2. Generadores de grupos continuos. . . . . .
7.3. Momento angular orbital. . . . . . . . . .
7.4. Grupo homogeneo de Lorentz. . . . . . . .
7.5. Covarianza de Lorentz de las ecuaciones de

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

145
145
149
162
166
168

8. Series infinitas.
8.1. Conceptos fundamentales . . . . . . . . . . . . . . . . . . . . . . . .
8.2. Pruebas de Convergencia . . . . . . . . . . . . . . . . . . . . . . . .
8.2.1. Pruebas de comparacion. . . . . . . . . . . . . . . . . . . . .
8.2.2. Prueba de la raz de Cauchy. . . . . . . . . . . . . . . . . . .
8.2.3. Prueba de la razon de D Alembert o Cauchy. . . . . . . . .
8.2.4. Prueba integral de Cauchy o Maclaurin. . . . . . . . . . . .
8.2.5. Prueba de Kummer. . . . . . . . . . . . . . . . . . . . . . .
8.2.6. Prueba de Raabe. . . . . . . . . . . . . . . . . . . . . . . . .
8.2.7. Prueba de Gauss. . . . . . . . . . . . . . . . . . . . . . . . .
8.2.8. Mejoramiento de convergencia. . . . . . . . . . . . . . . . .
8.3. Series alternadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3.1. Criterio de Leibniz. . . . . . . . . . . . . . . . . . . . . . . .
8.3.2. Convergencia absoluta. . . . . . . . . . . . . . . . . . . . . .

8.4. Algebra
de series. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.1. Mejoramiento de la convergencia, aproximaciones racionales.
8.4.2. Reordenamiento de series dobles. . . . . . . . . . . . . . . .
8.5. Series de funciones. . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5.1. Convergencia uniforme. . . . . . . . . . . . . . . . . . . . . .
8.5.2. Prueba M de Weierstrass. . . . . . . . . . . . . . . . . . . .
8.5.3. Prueba de Abel. . . . . . . . . . . . . . . . . . . . . . . . . .
8.6. Expansion de Taylor. . . . . . . . . . . . . . . . . . . . . . . . . . .
8.6.1. Teorema de Maclaurin. . . . . . . . . . . . . . . . . . . . . .
8.6.2. Teorema Binomial. . . . . . . . . . . . . . . . . . . . . . . .
8.6.3. Expansion de Taylor de mas de una variable. . . . . . . . . .
8.7. Series de potencias. . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.7.1. Convergencia. . . . . . . . . . . . . . . . . . . . . . . . . . .
8.8. Convergencia uniforme y absoluta. . . . . . . . . . . . . . . . . . .
8.8.1. Continuidad. . . . . . . . . . . . . . . . . . . . . . . . . . .
8.8.2. Diferenciacion e integracion. . . . . . . . . . . . . . . . . . .
8.8.3. Teorema de unicidad. . . . . . . . . . . . . . . . . . . . . . .
8.8.4. Inversion de series de potencia. . . . . . . . . . . . . . . . .
8.9. Integrales elpticas. . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.9.1. Definiciones. . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.9.2. Expansion de series. . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

175
175
178
178
179
180
181
183
183
184
185
186
186
187
188
189
190
192
192
193
195
196
197
199
201
201
202
202
202
202
203
204
205
206
207

. . . . . .
. . . . . .
. . . . . .
. . . . . .
Maxwell.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

INDICE

vi

8.9.3. Valores lmites. . . . . . . . . . . . . . . . .


8.10. N
umeros de Bernoulli. . . . . . . . . . . . . . . . .
8.10.1. Funciones de Bernoulli. . . . . . . . . . . . .
8.10.2. Formula de integracion de Euler-Maclaurin.
8.11. Funcion zeta de Riemann. . . . . . . . . . . . . . .
8.11.1. Mejoramiento de la convergencia. . . . . . .
8.12. Series asintoticas o semi-convergentes. . . . . . . . .
8.12.1. Funcion gama incompleta. . . . . . . . . . .
8.12.2. Integrales coseno y seno. . . . . . . . . . . .
8.12.3. Definicion de series asintoticas. . . . . . . .
8.12.4. Aplicaciones a calculo numerico. . . . . . . .
8.13. Productos infinitos. . . . . . . . . . . . . . . . . . .
8.13.1. Convergencia de un producto infinito. . . . .
8.13.2. Funciones seno, coseno y gama. . . . . . . .
9. Ecuaciones diferenciales.
9.1. Ecuaciones diferenciales parciales . . . . . .
9.1.1. Ejemplos de PDE. . . . . . . . . . .
9.1.2. Clases de PDE y caracterstica. . . .
9.1.3. Las PDE no lineales. . . . . . . . . .
9.1.4. Condiciones de borde. . . . . . . . .
9.2. Ecuaciones diferenciales de primer orden. . .
9.2.1. Variables separables. . . . . . . . . .
9.2.2. Ecuaciones diferenciales exactas. . . .
9.2.3. Ecuaciones diferenciales ordinarias de
9.2.4. Conversion a una ecuacion integral. .
9.3. Separacion de variables. . . . . . . . . . . .
9.3.1. Coordenadas cartesianas. . . . . . . .
9.3.2. Coordenadas cilndricas circulares. .
9.3.3. Coordenadas polares esfericas. . . . .

II

. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
primer
. . . .
. . . .
. . . .
. . . .
. . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

208
209
211
212
213
216
216
217
219
220
221
221
222
223

. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
orden lineales.
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

225
225
226
228
230
231
231
232
233
234
236
237
237
238
240

Variable Compleja

10.N
umeros Complejos
10.1. Introduccion. . . . . . . . . . . . . .
10.2. Plano complejo. . . . . . . . . . . . .
10.3. Representacion polar. . . . . . . . . .
10.4. Distancia en el plano complejo. . . .
10.5. Desigualdad triangular. . . . . . . . .
10.6. Isomorfismo con matrices. . . . . . .
10.7. Sucesion de n
umeros complejos. . . .
10.8. Series de n
umeros complejos. . . . . .
10.8.1. Pruebas mas comunes para la
10.8.2. Radio de convergencia. . . . .

245
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
convergencia absoluta.
. . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

247
. 247
. 249
. 251
. 251
. 251
. 253
. 253
. 253
. 254
. 254

INDICE
10.8.3. La serie exponencial.
10.9. Relacion de Euler. . . . . .
10.10.Formula de Moivre. . . . . .
10.11.Ecuacion ciclotonica. . . . .

vii

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

255
256
257
257

11.Ejemplos sencillos de funciones complejas


11.1. Notacion. . . . . . . . . . . . . . . . . . . . . .
11.2. Ejemplo 1, traslacion. . . . . . . . . . . . . . . .
11.3. Ejemplo 2, rotacion en torno al origen. . . . . .
11.4. Ejemplo 3, reflexion respecto al eje real. . . . .
11.5. Ejemplo 4, rotacion mas traslacion. . . . . . . .
11.6. Ejemplo 5, transformacion cuadratica. . . . . .
11.7. Ejemplo 6, transformacion exponencial. . . . . .
11.8. Ejemplo 7, transformacion de Joukowsky. . . . .
11.9. Ejemplo 8, inverso. . . . . . . . . . . . . . . . .
11.10.Ejemplo 9, inverso conjugado. . . . . . . . . . .
11.11.Mapeo sobre la esfera de Riemann. . . . . . .
11.11.1.Algunas propiedades de esta proyeccion.
11.11.2.Mapeo de z y 1/z y su relacion. . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

259
259
260
260
261
262
263
264
265
266
267
268
268
269

12.Transformaciones homogr
aficas y rotaciones de la esfera.

271

13.Derivabilidad.
13.1. Identidades de Cauchy-Riemann. . . . . . . . . . . . . . . . . . . . .
13.2. Ecuaciones de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . .
13.3. Interpretacion hidrodinamica de las identidades de Cauchy-Riemann.
13.4. Familias ortogonales. . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

277
. 277
. 280
. 283
. 285

14.Integraci
on.
14.1. Definiciones . . . . . . . . . . . . . . . . . . . .
14.2. Interior de una curva cerrada sin puntos dobles.
14.3. Recorrido del contorno de un dominio. . . . . .
14.4. Integrales de lnea en el plano complejo. . . . .
14.5. Evaluacion de integrales impropias reales. . . . .
14.6. Formula integral de Cauchy. . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

303
. 303
. 306
. 312
. 314

16.Prolongaci
on Analtica.
16.1. Definiciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16.2. Lema de Heine-Borel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16.3. Teorema de identidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

317
. 317
. 318
. 319

15.Series de Potencias.
15.1. Series y radio de convergencia.
15.2. Propiedades. . . . . . . . . . .
15.3. Maximos, mnimos y funciones
15.4. N
umeros de Bernoulli. . . . .

. . . . . . .
. . . . . . .
armonicas.
. . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

287
287
290
291
293
298
299

INDICE

viii

16.4. Prolongacion analtica. . . .


16.5. Funcion de Riemann. . . .
16.6. Lugares nulos y a-lugares. .
16.7. Comportamiento en infinito.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

320
325
326
328

17.Funciones Multivaluadas.

17.1. Funcion z. . . . . . . . . . .
17.2. Superficies de Riemann. . . .
17.3. Otros puntos de ramificacion.
17.4. La funcion Logaritmo. . . . .
17.5. La funcion Arcotangente. . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

331
331
334
335
337
339

18.Desarrollo de Laurent.
18.1. Desarrollo en torno a z0 = 0. . . . .
18.2. Desarrollo en torno a z0 . . . . . . .
18.3. Unicidad del desarrollo de Laurent.
18.4. Ejemplos. . . . . . . . . . . . . . .
18.5. Definiciones. . . . . . . . . . . . . .
18.6. La funcion Arcosecante. . . . . . .
18.7. Funciones enteras. . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

343
343
344
345
345
347
348
350

19.Residuos.
19.1. Definicion y teorema. . . . . . . . . . . .
19.2. Funciones racionales. . . . . . . . . . . .
19.3. Funciones trigonometricas. . . . . . . . .
19.4. Polos, residuos y lugares nulos. . . . . .
19.5. Ejemplos. . . . . . . . . . . . . . . . . .
19.5.1. Residuos de un polo de orden m.
19.6. Valor principal de Cauchy. . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

355
355
357
358
360
363
368
368

20.Funciones Meromorfas.
21.La funci
on .
21.1. Definicion. . . . . . . . . . . . . .
21.2. Exploracion. . . . . . . . . . . . .
21.3. Definiciones precisas. . . . . . . .
21.4. Representaciones integrales de .
21.5. La funcion Beta. . . . . . . . . .
21.5.1. Casos particulares. . . . .

371

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

22.Representaci
on Conforme.
22.1. Introduccion. . . . . . . . . . . . . . . . . . .
22.2. Representacion conforme. . . . . . . . . . . .
22.3. Transformaciones de funciones armonicas. . .
22.4. Transformaciones de las condiciones de borde.
22.5. Aplicaciones . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

377
377
378
379
382
384
385

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

387
. 387
. 387
. 389
. 392
. 394

INDICE

ix

22.5.1. Temperaturas estacionarias en una pared semi-infinita. . . . . . . . . . 395

INDICE

Indice de figuras
1.1.
1.2.
1.3.
1.4.
1.5.

El sistema Cartesiano estandard . . .


Geometra para la rotacion vectorial .
El producto punto. . . . . . . . . . .
El producto cruz. . . . . . . . . . . .
El arreglo de 3 3 3 de Levi-Civita

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

. 6
. 9
. 12
. 14
. 15

2.1. Equipotenciales y lneas de campo electrico de dos lneas paralelas


2.2. La integral de lnea. . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3. Integrales de superficie. . . . . . . . . . . . . . . . . . . . . . . . .
2.4. Superficies de = xy constante. . . . . . . . . . . . . . . . . . .
2.5. Lneas de campo para = xy. . . . . . . . . . . . . . . . . . . .
2.6. Volumen diferencial. . . . . . . . . . . . . . . . . . . . . . . . . .
2.7. Flujo a traves de las caras superior e inferior. . . . . . . . . . . .
2.8. Campos vectoriales circulantes y no circulantes. . . . . . . . . . .
2.9. Camino cerrado para la integral del rotor. . . . . . . . . . . . . .
2.10. Campos con rotor cero, figura (a) y distinto de cero, figura (b). . .
2.11. La suma de dos vol
umenes diferenciales. . . . . . . . . . . . . . .
2.12. La suma de dos vol
umenes diferenciales. . . . . . . . . . . . . . .
2.13. La suma de dos superficies diferenciales. . . . . . . . . . . . . . .
2.14. El Teorema de Stokes implica un potencial escalar. . . . . . . . .

de carga.
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.

20
22
23
26
27
28
28
30
31
32
36
36
37
38

3.1. El vector posicion . . . . . . . . . . . . . . . . . . . . . . . . . . .


3.2. El sistema cilndrico . . . . . . . . . . . . . . . . . . . . . . . . .
3.3. El vector posicion en el sistema cilndrico . . . . . . . . . . . . . .
3.4. El sistema polar . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5. Componentes polares de un vector . . . . . . . . . . . . . . . . . .
3.6. El sistema esferico . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7. El vector posicion en coordenadas esfericas . . . . . . . . . . . . .
3.8. Coordenadas curvilneas y vectores bases . . . . . . . . . . . . . .
3.9. Volumen diferencial de un sistema de coordenadas curvilneas . .
3.10. Orientacion de la superficie para la integracion curvilnea del rotor
3.11. Geometra diferencial para integracion curvilnea del rotor . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

42
44
44
45
45
46
47
48
50
54
55

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

4.1. Sistemas rotados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64


4.2. Componentes del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.3. Vectores base en el sistema primado. . . . . . . . . . . . . . . . . . . . . . . . 74
xi

INDICE DE FIGURAS

xii

4.4.
4.5.
4.6.
4.7.
4.8.

Sistema de la mano derecha. . . . . . . . . .


Vectores en el sistema de la mano derecha. .
Sistema de la mano izquierda. . . . . . . . .
Vectores en el sistema de la mano izquierda.
El paralelogramo. . . . . . . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

78
78
79
80
82

5.1.
5.2.
5.3.
5.4.
5.5.
5.6.

Los sistemas de coordenadas de la Relatividad Especial. . . . . . . . .


Un sistema de coordenadas de la Relatividad General. . . . . . . . . .
Un sistema de coordenadas ortonormal y otro inclinado. . . . . . . .
Dos sistemas de coordenadas inclinados. . . . . . . . . . . . . . . . .
Determinacion de la base de vectores contravariante. . . . . . . . . .
Componentes covariantes y contravariantes proyectadas de un vector.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

88
88
89
93
99
100

6.1. Sistemas de coordenadas cartesianos. . . . . . . . . . . . . . . . . . . . . . .


6.2. Sistemas de coordenadas rotados en dos dimensiones. . . . . . . . . . . . . .
6.3. (a) Rotacion respecto al eje x3 en un angulo ; (b) Rotacion respecto a un eje
x02 en un angulo ; (c) Rotacion respecto a un eje x003 en un angulo . . . . .
6.4. Vector fijo con coordenadas rotadas. . . . . . . . . . . . . . . . . . . . . . . .
6.5. Elipsoide del momento de inercia. . . . . . . . . . . . . . . . . . . . . . . . .
6.6. Vector fijo con coordenadas rotada. . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.

127
128
134
142

7.1.
7.2.
7.3.
7.4.
7.5.

Ilustracion de la ecuacion (7.13). . . . . . . . . .


Ilustracion de M0 = UMU ecuacion (7.42). . . .
Octeto barionico diagrama de peso para SU(3).
Separacion de masa barionica. . . . . . . . . . .
Separacion de masa barionica. . . . . . . . . . .

8.1. Prueba de comparacion. . .


8.2. Comparacion de integral con
8.3. Rearreglo de serie armonica
8.4. Series dobles. . . . . . . . .
8.5. Series dobles. . . . . . . . .
8.6. Series dobles. . . . . . . . .
8.7. Convergencia uniforme. . . .
8.8. Pendulo simple . . . . . . .
8.9. Integrales elpticas. . . . . .
8.10. Funcion zeta de Riemann. .
8.11. Sumas parciales. . . . . . . .

. . . . .
suma de
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .

10.1. Plano complejo. . . . . . . . . . . . .


10.2. Complejo conjugado. . . . . . . . . .
10.3. Representacion polar. . . . . . . . . .
10.4. Distancia en el plano complejo. . . .
10.5. Convergencia de una serie en el plano
10.6. Convergencia en el plano complejo. .
10.7. Las raices sextas de la unidad. . . . .

. 121
. 124

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

150
155
159
161
161

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

179
181
189
190
191
191
193
205
207
214
218

. . . . . .
. . . . . .
. . . . . .
. . . . . .
complejo.
. . . . . .
. . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

249
250
252
252
254
255
258

. . . . .
bloques
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .

INDICE DE FIGURAS

xiii

11.1. Funcion compleja. . . . . . . . . . . . . . . . . . . .


11.2. Funcion traslacion en a. . . . . . . . . . . . . . . .
11.3. Funcion rotacion en torno al origen. . . . . . . . . .
11.4. Funcion reflexion respecto al eje real. . . . . . . . .
11.5. Funcion reflexion respecto al eje imaginario. . . . .
11.6. Funcion rotacion mas traslacion. . . . . . . . . . . .
11.7. ejemplo de mapeo . . . . . . . . . . . . . . . . . . .
11.8. Transformacion cuadratica. . . . . . . . . . . . . . .
11.9. Mapeo z 2 para rectas ortogonales. . . . . . . . . . .
11.10.Mapeo ez para rectas ortogonales. . . . . . . . . . .
11.11.Transformacion de Joukowsky para crculos y rectas
11.12.Mapeo 1/z para los diferentes cuadrantes. . . . . .
11.13.Mapeo 1/z . . . . . . . . . . . . . . . . . . . . . . .
11.14.Esfera de Riemann. . . . . . . . . . . . . . . . . . .
11.15.Mapeo sobre la esfera de crculos y lneas. . . . . .
11.16.Mapeo sobre la esfera de rectas que se cruzan. . . .
11.17.Mapeo de z y 1/z y su relacion sobre la esfera. . .

. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
radiales.
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

259
260
260
261
261
262
262
263
264
265
266
267
267
268
269
269
270

12.1. Puntos diametralmente opuestos en la esfera. . . . . . . . . . . . . . . . . . . . 274


13.1. Funciones en dominios abiertos.
13.2. Im F (z) = = cte. . . . . . . .
13.3. Im F (z) = ln r = cte. . . . . . .
13.4. Familias de curvas ortogonales.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

277
284
285
286

14.1. Curva seccionalmente lisa y orientada.


14.2. Curva parametrizada. . . . . . . . . . .
14.3. Otra curva parametrizada. . . . . . . .
14.4. Curva con y sin puntos dobles. . . . . .
14.5. Dominio simplemente conexo. . . . . .
14.6. Dominio no simplemente conexo. . . .
14.7. Dominio m
ultiplemente conexo. . . . .
14.8. Interior de curva I. . . . . . . . . . . .
14.9. Interior de curva II. . . . . . . . . . . .
14.10.Interior de curva III. . . . . . . . . . .
14.11.Triangulo. . . . . . . . . . . . . . . . .
14.12.Curva cerrada. . . . . . . . . . . . . .
14.13.Polgono. . . . . . . . . . . . . . . . . .
14.14.Camino en el plano complejo. . . . .
14.15.Camino . . . . . . . . . . . . . . . . .
14.16.Camino cerrado . . . . . . . . . . . .
14.17.Camino cerrado . . . . . . . . . . . .
14.18.Camino cerrado . . . . . . . . . . . .
14.19.Camino . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

287
288
288
289
289
289
290
290
290
291
292
292
293
294
295
295
296
298
300

15.1. Sucesion senn x. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305

INDICE DE FIGURAS

xiv

15.2. Radios de convergencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306


15.3. Region simplemente conexa Re(z) > 0. . . . . . . . . . . . . . . . . . . . . . . 310
15.4. Region de convergencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
16.1. Conjunto acotado. . . . . . . . . . . . . . .
16.2. Punto lmite. . . . . . . . . . . . . . . . . .
16.3. Lema de Heine-Borel I. . . . . . . . . . . . .
16.4. Lema de Heine-Borel II. . . . . . . . . . . .
16.5. Teorema de identidad. . . . . . . . . . . . .
16.6. Conjuntos D1 y D2 . . . . . . . . . . . . . . .
16.7. Zona de convergencia de 1/(1 z). . . . . .
16.8. Prolongacion analtica. . . . . . . . . . . . .
16.9. Prolongacion al plano complejo. . . . . . . .
16.10.Agrandar el radio de convergencia. . . . . .
16.11.Obstaculos para la funcion z cot z. . . . . . .
16.12.Desarrollos para la funcion 1/(1 z). . . . .
16.13.Funcion de Riemann. . . . . . . . . . . . .
16.14.Prolongacion al plano complejo de la funcion

. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

317
317
318
319
319
320
320
321
322
322
323
323
325
326

17.1. La funcion f (z) = z 2 . . . . . . . . . . . . . . . . .

17.2. La funcion f (x) = x. . . . . . . . . . . . . . . .

17.3. Crculo de convergencia del desarrollo de z. . . .

17.4. El eje real negativo para z. . . . . . . . . . . . .


17.5. Funcion con lnea de ramificacion. . . . . . . . . .
17.6. Despues de dos vueltas se vuelve al mismo punto.

17.7. Las dos superficies de Riemann


de
z. . . . . . .

17.8. Punto de ramificacion de z a. . . . . . . . . .


17.9. Dos puntos de ramificacion. . . . . . . . . . . . .
17.10.Otra lnea de ramificacion. . . . . . . . . . . . . .
17.11.Lnea de ramificacion sobre la esfera de Riemann.
17.12.Funcion logaritmo sobre el eje real. . . . . . . . .
17.13.Radio de convergencia para (17.5). . . . . . . . .
17.14.Camino de integracion para (17.6). . . . . . . . .
17.15.Camino de integracion para (17.10). . . . . . . . .
17.16.Camino de integracion en torno a +i. . . . . . . .
17.17.Camino de integracion en torno a i. . . . . . . .
17.18.Funcion arcotangente. . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

331
332
333
333
333
334
335
335
336
337
337
337
338
338
340
340
341
341

18.1. Region anular. . . . . . . . . . . . . . . . . . .


18.2. La funcion f (z) = 1/(z 1). . . . . . . . . . .
18.3. La funcion f (z) = 1/(z 1)(z 2). . . . . . .
18.4. La region donde f es univaluada y holomorfa.
18.5. Singularidades de la funcion 1/ sen z. . . . . .
18.6. Zona de convergencia. . . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

343
346
347
348
349
350

.
.
.
.
.
.

.
.
.
.
.
.

19.1. Region donde f es analtica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356

INDICE DE FIGURAS
19.2. Camino de integracion. . . . . . . .
19.3. Camino de integracion. . . . . . . .
19.4. Camino de integracion. . . . . . . .
19.5. Camino de integracion ejemplo I. .
19.6. Eleccion de rama. . . . . . . . . . .
19.7. Camino de integracion ejemplo II. .
19.8. Camino de integracion ejemplo III.
19.9. Camino de integracion ejemplo IV.
19.10.Camino de integracion. . . . . . . .

xv

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

356
357
359
363
364
364
365
367
368

20.1. Malla. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374


21.1. Valores de la funcion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377
21.2. Acotando el lmite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380
21.3. La funcion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
22.1. Transformacion w = f (z). . . . . . . . . . . . . . . .
22.2. Par de curvas bajo la transformacion w = f (z). . . .
22.3. Mapeo isogonal. . . . . . . . . . . . . . . . . . . . . .
22.4. Mapeo w = z 2 . . . . . . . . . . . . . . . . . . . . . .
22.5. Condiciones de borde de primera clase (Dirichlet). . .
22.6. Region donde H(u, v) es armonica. . . . . . . . . . .
22.7. Mapeo de una condicion de borde. . . . . . . . . . . .
22.8. Curvas ortogonales. . . . . . . . . . . . . . . . . . . .
22.9. Mapeo de una particular condicion de borde. . . . . .
22.10.Geometra del solido. . . . . . . . . . . . . . . . . . .
22.11.Curvas ortogonales. . . . . . . . . . . . . . . . . . . .
22.12.Pared semi-infinita. . . . . . . . . . . . . . . . . . . .
22.13.Transformacion conforme. . . . . . . . . . . . . . . .
22.14.Transformacion conforme w = Log[(z 0 1)/(z 0 + 1)].

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

387
388
389
389
390
391
392
393
394
394
395
395
396
396

INDICE DE FIGURAS

INDICE DE FIGURAS

Parte I
An
alisis Tensorial

Captulo 1
Una breve revisi
on de
algebra lineal.
versi
on final 1.0-0804151

Este captulo presenta una rapida revision del algebra de vectores y de matrices. No
intentamos cubrir por completo estos topicos sino mas bien usarlos como introduccion a
la notacion con subndices y la convencion de suma de Einstein. Estas herramientas nos
simplificaran la a menudo complicada manipulacion del algebra lineal.

1.1.

Notaci
on.

Una notacion estandard y consistente es un habito muy importante a formar en matematicas. Una buena notacion no solo facilita los calculos sino que permite analisis dimensional y
ayuda a encontrar y corregir errores. As comenzamos por explicitar la notacion que usaremos
a traves de los apuntes.
Smbolo

Cantidad

vi
Mij
[M ]
~v
ei

T
L

Una componente de un vector


Un elemento de una matriz o tensor
la matriz completa
Un vector
Un vector base
Tensor
Un operador
Cuadro 1.1: Notacion

Un vector tridimensional ~v puede ser expresado como


~v = vx ex + vy ey + vz ez ,

(1.1)

donde las componentes (vx , vy , vz ) son llamadas las componentes Cartesianas de ~v y (


ex , ey , ez )
son los vectores bases del sistema de coordenadas. La notacion puede ser mas eficiente a
un si
1

Este captulo est


a basado en el primer captulo del libro: Mathematical Physics de Brusse Kusse & Erik
Westwig, editorial John Wiley & Sons, Inc..

DE ALGEBRA

CAPITULO 1. UNA BREVE REVISION


LINEAL.

reemplazamos los subndices con letras (x,y,z), en las componentes, por subndices numericos
(1,2,3). Con esto, definimos:
e1 = ex
v1 = vx
e2 = ey
v2 = vy
(1.2)
e3 = ez
v3 = vz
La ecuacion (1.1) se transforma en
~v = v1 e1 + v2 e2 + v3 e3 ,
o mas sucintamente
~v =

3
X

(1.3)

vi ei .

(1.4)

i=1

La figura (1.1) muestra esta modificacion notacional sobre un tpico sistema de coordenadas
Cartesiano.
Aunque la notacion de subndices puede ser usada en diferentes tipos de sistemas de coordenadas, en este captulo limitaremos nuestra discusion al sistema Cartesiano. Los vectores
bases Cartesianos son ortonormales y posicion independientes. Ortonormal significa que la
magnitud de cada vector es unitaria y que ellos son perpendiculares entre ellos. Independiente
de la posicion significa que los vectores bases no cambian su orientacion cuando los movemos
a traves del espacio. Sistema de coordenadas no-Cartesianos son cubiertos en detalle en el
captulo 3.
un mas introduciendo la convencion de suma
La ecuacion (1.4) puede ser compactada a
de Einstein la cual supone que se suma cada vez que se repiten los subndices en el mismo
termino. Por lo tanto
3
X
~v =
vi ei = vi ei .
(1.5)
i=1

ez

e3

ey
ex

2
e2
1
e1

Figura 1.1: El sistema Cartesiano estandard


Nos referimos a la combinacion de los subndices y la convencion de suma como la notaci
on
de Einstein.


1.1. NOTACION.

Imaginemos ahora que queremos escribir una simple relacion vectorial


~c = ~a + ~b .

(1.6)

Esta ecuacion esta escrita en lo que se conoce como notacion vectorial. Notemos que no depende de la eleccion de un sistema de coordenadas. En un particular sistema de coordenadas,
nosotros podemos escribir la relacion entre estos vectores en terminos de sus componentes:
c1 = a1 + b1
c2 = a2 + b2
c3 = a3 + b3

(1.7)

Con la notacion de subndices estas tres ecuaciones pueden ser escritas en una sola lnea,
ci = ai + bi ,

(1.8)

donde el subndice i se puede reemplazar por cualquiera de los tres valores(1,2,3). Como
veremos mas adelante el uso de la notacion de Einstein puede simplificar drasticamente la
derivacion de muchas relaciones matematicas y fsicas. Sin embargo, los resultados escritos
en esta notacion estan amarrados a un particular sistema de coordenadas, lo que a menudo
dificulta la interpretacion. Por esta razon convertiremos nuestros resultados finales de vuelta
a una notacion vectorial cuando sea posible.
Una matriz es un arreglo dos dimensional de cantidades que puede o no estar asociada
con un particular sistema de coordenadas. Las matrices pueden ser expresadas usando diferentes tipos de notacion. Si deseamos hablar sobre una matriz como un todo, sin especificar
explcitamente todos sus elementos, la escribimos en notacion matricial como [M ]. Si, por el
contrario necesitamos listar todos los elementos de [M ], podemos escribirla como un arreglo
rectangular entre un par de parentesis:

M11 M12 M1c


M21 M22 M2c

[M ] = ..
(1.9)
..
..
.. .
.
.
.,
.
Mr1 Mr2 Mrc
Llamaremos a esta notacion de arreglos matriciales El elemento individual de la tercera fila
segunda columna de [M ] es escrito como M23 . Notemos que la fila de un elemento corresponde
al primer ndice y la columna al segundo. No todos los arreglos son cuadrados, esto significa
que en la ecuacion (1.9) r no es necesariamente igual a c.
La multiplicacion entre dos matrices es solo posible si el n
umero de columnas en el premultiplicador es igual al n
umero de filas del postmultiplicador. El resultado de tal forma de
multiplicacion es otra matriz con el mismo n
umero de columnas que el premultiplicador y
el mismo n
umero de columnas que el postmultiplicador. Por ejemplo, el producto entre una
matriz 3 2 [M ] y una matriz 2 3 [N ] forma una matriz de 3 3 [P ], con los elementos
dados por:


M11 M12 
M11 N11 + M12 N21 M11 N12 + M12 N22 M11 N13 + M12 N23
M21 M22 N11 N12 N13 = M21 N11 + M22 N21 M21 N12 + M22 N22 M21 N13 + M22 N23 .
N
N
N23
M31 M32 | 21 {z22
M31 N11 + M32 N21 M31 N12 + M32 N22 M31 N13 + M32 N23
}
|
{z
}
|
{z
}
[N ]
[M ]

[P ]

(1.10)

DE ALGEBRA

CAPITULO 1. UNA BREVE REVISION


LINEAL.

La multiplicacion de la ecuacion (1.10) puede ser escrita, en la notacion matricial abreviada,


como
[M ] [N ] = [P ] .
(1.11)
Tambien podemos usar la notacion de Einstein para escribir el mismo producto como
Mij Njk = Pik ,

(1.12)

con una suma implcita sobre el ndice j. notemos que j esta en la segunda posicion de el
termino Mij y en la primera posicion de el termino Njk , tal que la sumatoria es sobre las
columnas de [M ] y sobre las filas de [N ], tal como era en la ecuacion (1.10). La ecuacion
(1.12) es una expresion para el elemento ik-esimo de la matriz [P ].
La notacion de arreglos matriciales es conveniente para hacer calculos numericos, especialmente cuando se usan computadores. Cuando derivamos las relaciones entre diversas
cantidades en fsica es a menudo inadecuada porque carece de un mecanismo para mantener
la pista de la geometra del sistema de coordenadas. Por ejemplo, en un particular sistema
de coordenadas , el vector ~v , puede ser escrito como
~v = 1
e1 + 3
e2 + 2
e3 .

(1.13)

Cuando realizamos los calculos es a veces conveniente usar una representacion matricial del
vector escribiendo

1

~v [v] = 3 .
(1.14)
2
El problema con esta notacion es que no hay una manera conveniente para incorporar los
vectores bases en la matriz. Esta es la razon de que fuimos cuidadosos y usamos una flecha
() en la ecuacion (1.14) en vez del signo igual (=). En estos apuntes un signo igual entre
dos cantidades significa que ellas son perfectamente equivalente en todas sus formas. Una
cantidad puede ser subtituidas por la otra en cualquier expresion. Por ejemplo, la ecuacion
(1.13) implica que la cantidad 1
e1 + 3
e2 + 2
e3 puede reemplazar a ~v en cualquier expresion
matematica y vice-versa. En contraste la flecha en (1.14) implica que [v] puede representar
a ~v y que los calculos pueden ser realizados usandolo, pero debemos ser cuidadoso no son
directamente substituibles uno por otro sin especificar los vectores bases asociados con las
componentes de [v].

1.2.

Operaciones vectoriales.

En esta seccion veremos varias de las operaciones vectoriales. Usaremos todas las diferentes
formas de notacion discutidas en la seccion previa para ilustrar sus diferencias. Inicialmente,
nos concentraremos en la notacion matricial y de arreglo matricial. Cuando progresemos
usaremos la notacion de Einstein mas frecuentemente.
Como discutimos anteriormente un vector tridimensional ~v puede ser representada usando
una matriz. Hay realmente dos maneras de escribir esta matriz. Una puede escribirla como

1.2. OPERACIONES VECTORIALES.

una matriz columna (3 1) o una matriz fila (1 3), cuyos elementos son las componentes
de el vector en alguna base Cartesiana:

v1


~v [v] = v2
o
~v [v] = v1 v2 v3 .
(1.15)
v3
la notacion estandard [v] es usada para indicar la traspuesta de [v], indicando un intercambio
de filas por columnas. Recordemos que el vector ~v puede tener un n
umero infinito de diferentes
representaciones de arreglos matriciales, cada una escrita con respecto a una diferente base
coordenada.

1.2.1.

Rotaci
on de vectores.

Consideremos la rotacion simple de un vector en un sistema de coordenadas Cartesiano.


Este ejemplo sera trabajado, sin perdida de generalidad, en dos dimensiones.
Partimos con el vector ~a, el cual esta orientado en un angulo respecto al eje-1, como
muestra la figura 1.2. Este vector puede ser escrito en terminos de sus componentes Cartesianas como
~a = a1 e1 + a2 e2 .
(1.16)
donde
a1 = a cos

a2 = a sen .

(1.17)

Figura 1.2: Geometra para la rotacion vectorial


p
En esta expresion a = |~a| = a21 + a22 es la magnitud del vector ~a. El vector ~a 0 es
generado por rotar el vector ~a en el sentido contrario a los punteros del reloj en un angulo .
Esto cambia la orientacion del vector pero no su magnitud. Por lo tanto, podemos escribir
~a 0 = a cos( + ) e1 + a sen( + ) e2 .
|
{z
}
|
{z
}
a01

(1.18)

a02

Las componentes a01 y a02 pueden ser reescritas usando las identidades trigonometricas
para seno y el coseno de la suma de angulos
a01 = a cos( + ) = a
| cos
{z } cos a
| sen
{z } sen
a1

a02

a2

= a sen( + ) = a
| cos
{z } sen + a
| sen
{z } cos
a1

a2

(1.19)

10

DE ALGEBRA

CAPITULO 1. UNA BREVE REVISION


LINEAL.
Si nosotros representamos a ~a y ~a 0 como matrices columna.
 0
 
a
a1
0
0
~a [a ] = 10 .
~a [a] =
a2
a2

La ecuacion (1.19) puede ser puesta en forma de arreglo matricial


 0 
 
a1
cos sen a1
.
=
a02
sen cos
a2

(1.20)

(1.21)

En notacion matricial abreviada, la podemos escribir como


[a0 ] = [R()] [a] .

(1.22)

En esta u
ltima expresion [R()]es llamada la matriz de rotacion y esta claramente definida
como


cos sen
[R()] =
.
(1.23)
sen cos
Notemos que para que la ecuacion (1.22) sea la misma que la ecuacion (1.19), y para que
la multiplicacion de matrices tenga sentido, las matrices [a] y [a0 ] deben ser matrices columnas
y [R()] debe premultiplicar a [a]. El resultado de la ecuacion (1.19) tambien puede escribirse
usando una representacion fila para [a] y [a0 ]. En este caso, las transpuestas de [R()], [a] y
[a0 ] deben ser usadas, y [R()] debe postmultiplicar a [a] :

[a0 ] = [a] [R()] .


Escritos usando arreglos de matrices, estas expresiones llegan a ser


 0
 cos sen
 
0
a1 a2 = a1 a2
.
sen cos

(1.24)

(1.25)

Es facil ver que la ecuacion (1.25) es enteramente equivalente a la ecuacion (1.21).


Estas mismas manipulaciones pueden ser logradas usando la notacion de Einstein. Por
ejemplo, la ecuacion (1.19) puede ser expresada como
a0i = Rij aj .

(1.26)

La multiplicacion de matrices en la ecuacion (1.22) suma es sobre las columnas de los elementos de [R()]. Esto se logra en la ecuacion (1.26) por la suma implcita sobre j. A diferencia
de la notacion matricial en la notacion de Einstein el orden de aj y Rij no es ya importante,
porque
Rij aj = aj Rij .
(1.27)
El vector ~a 0 puede ser escrito usando la notacion de Einstein combinada con la ecuacion
(1.26) con los vectores bases
~a 0 = Rij aj ei .
(1.28)
Esta expresion demuestra una propiedad de contabilidad notacional de la notacion de
Einstein. La suma sobre un subndice remueve la dependencia en expresion, de la misma

1.2. OPERACIONES VECTORIALES.

11

manera que cuando uno integra sobre una variable. Por esta razon, el proceso de sumar
ndices es a menudo llamado contraccion sobre un ndice. Hay dos sumas en el lado derecho
(LD) de la ecuacion (1.28), una sobre i y la otra sobre j. Despues de la contraccion sobre
ambos subndices, no permanecen subndices en LD. Esto es consistente con el hecho de que
no hay subndices en el lado izquierdo (LI) de la ecuacion. La u
nica notacion sobre el LD es
una flecha sobre ~a 0 indicando que es un vector, lo cual tambien existe al LI con el vector
unitario ei . Esta suerte de analisis notacional puede ser aplicado a todas las ecuaciones. La
notacion sobre el LI de un signo igual debe estar siempre de acuerdo con la notacion en el
LD. Este hecho puede ser usado para chequear las ecuaciones. Por ejemplo,
~a 0 6= Rij aj ,

(1.29)

porque el subndice i permanece sobre el LD despues de contraer sobre j, mientras en el LI


no hay subndices. Adicionalmente, la notacion indican que el LI es un cantidad vectorial,
mientras el LD no le es.

1.2.2.

Productos vectoriales.

Ahora consideraremos los productos punto y cruz de dos vectores usando la notacion de
Einstein. Este tipo de producto estan presente en la fsica a todo nivel. El producto punto es
usualmente encontrado primero cuando calculamos el trabajo W hecho por una fuerza F~ en
la integral de lnea
Z
W = d~r F~ .
(1.30)
En esta ecuacion, d~r es un vector desplazamiento diferencial. El producto cruz puede ser
usado para encontrar la fuerza sobre una partcula de carga q moviendose con velocidad ~v en
~
un campo magnetico externo B
q
~ ,
F~ = (~v B)
(1.31)
c
doden c es la velocidad de la luz en el vaco.
El producto punto
~yB
~ es un escalar definido por
El producto punto o interno entre dos vectores A
~B
~ = |A||
~ B|
~ cos ,
A

(1.32)

donde es el angulo entre los dos vectores, como muestra la figura (1.3. Si nosotros tomamos
el producto punto de un vector con si mismo tendremos la magnitud al cuadrado de dicho
vector
~A
~ = |A|
~2.
A
(1.33)
En notacion de Einstein la ecuacion (1.32) se escribe como
~B
~ = Ai ei Bj ej .
A

(1.34)

~ y B,
~ esto es necesario para mantener las sumas
Notemos que hemos ocupados dos ndices en A
independientes de la manipulacion que sigue. La contabilidad notacional esta trabajando aqu,

12

DE ALGEBRA

CAPITULO 1. UNA BREVE REVISION


LINEAL.

porque no hay subndices en el LD, y ninguno en el LI despues de las contracciones sobre


ambos i y j. Solo los vectores bases estan involucrados en el producto punto, tal que la
ecuacion (1.34) puede ser reescrita como
~B
~ = Ai Bj (
A
ei ej ) .

(1.35)

Como hemos restringido nuestra atencion a sistemas cartesianos donde los vectores bases son
ortogonales, tenemos
(
1 i=j
ei ej =
.
(1.36)
0 i 6= j

2
A

B
1

Figura 1.3: El producto punto.


La delta de Kronecker

(
1 i=j
ij =
,
0 i=
6 j

(1.37)

facilita los calculos que involucran productos puntos. Usandola, podemos escribir ei ej = ij ,
en la ecuacion (1.35) se transforma en
~B
~ = Ai Bj ij .
A

(1.38)

La ecuacion (1.38) puede ser expandida haciendo explcitas las sumas sobre ambos ndices
~B
~ = A1 B1 11 + A1 B2 12 + A1 B3 13 + A2 B1 11 + . . . .
A

(1.39)

Ya que la delta de Kronecker es cero a menos que los subndices sean iguales. La ecuacion
(1.39) se reduce a solo tres terminos.
~B
~ = A1 B1 + A2 B2 + A3 B3 = Ai Bi .
A

(1.40)

Cuando nos familiaricemos con la notacion de Einstein y la delta de Kronecker, estos


u
ltimos pasos seran hechos en forma automatica. En cualquier momento que aparezca en un
termino una delta de Kronecker, con uno de sus subndices repetidos en cualquier otra parte
del mismo termino, la delta de Kronecker puede ser removida, y cada instancia del subndice
repetido cambiado por el otro subndice de la delta de Kronecker. Por ejemplo
Ai ij = Aj .

(1.41)

1.2. OPERACIONES VECTORIALES.

13

En la ecuacion (1.38) la delta de Kronecker puede ser agrupada con el factor Bj ,y contrada
sobre j para dar
Ai (Bj ij ) = Ai Bi .
(1.42)
De la misma manera podemos agruparla con el factor Ai , y sumar sobre i para dar un
resultado equivalente
Bj (Ai ij ) = Bj Aj .
(1.43)
Esto es cierto para expresiones mas complicadas. Por ejemplo,
Mij (Ak ik ) = Mij Ai
o
Bi Tjk (
em jm ) = Bi Tjk ej .

(1.44)

Esta flexibilidad es una de las cosas que hace los calculos realizados con notacion de Einstein
mas facil que trabajar con notacion de matrices.
Deberamos precisar que la delta de Kronecker tambien puede ser vista como una matriz
o arreglo matricial. En tres dimensiones esta representacion llega a ser

1 0 0
ij [1] = 0 1 0 .
(1.45)
0 0 1
Esta matriz puede ser usada para escribir la ecuacion (1.38) en notacion matricial. Notemos que la contraccion sobre el ndice i suma sobre las filas de la matriz [1], mientras que la
contraccion sobre j suma sobre las columnas. As, la ecuacion (1.38) en notacion matricial es


1 0 0 B1


~B
~ [A] [1] [B] = A1 A2 A3 0 1 0 B2
A
0 0 1 B3
= [A] [B] .

(1.46)

El producto cruz
~ yB
~ forma un tercer vector
El producto cruz o producto vectorial entre dos vectores A
~ el cual puede ser escrito como
C,
~ =A
~B
~ .
C
(1.47)
~ es
La magnitud del vector C
~ = |A||
~ B|
~ sen ,
|C|

(1.48)

donde es el angulo entre los dos vectores, como muestra la figura (1.4). la direccion de
~ depende de que el sistema de coordenadas sea derecho. Por convencion, los sistemas de
C
coordenadas tridimensionales en fsica son usualmente derechos. Extendiendo los dedos de la
manos derecha tal que ellos queden alineados con el vector base e1 . Ahora, enrollemoslos hacia
el vector base e2 . Si el pulgar apunta a lo largo del vector base e3 el sistema de coordenadas
es derecho. Cuando un sistema de coordenadas esta dispuesto de esta manera la direccion del
~ en la ecuacion (1.47), apunte
producto cruz sigue una regla similar. Para determinar de C

14

DE ALGEBRA

CAPITULO 1. UNA BREVE REVISION


LINEAL.

~ y enrollelos apuntando hacia B,


~ el pulgar apuntara la direccion de
los dedos a lo largo de A,
~ Esta definicion es a menudo llamada regla de la mano derecha. Notemos que la direccion
C.
~ es siempre perpendicular al plano formado por A
~ y B.
~ Si por alguna razon, usaremos
de C
un sistema zurdo, la definicion del producto cruz cambia y deberamos usar la regla de la
mano izquierda. Por que la definicion del producto cruz cambia levemente cuando movemos
la mano del sistema de coordenadas, el producto cruz no es exactamente un vector sino mas
bien un pseudovector. Discutiremos esta distincion mas adelante. Por ahora, limitaremos
nuestra discusion a sistema de coordenadas derecho, y trataremos el producto cruz como un
vector ordinario.

Figura 1.4: El producto cruz.


Otra manera de expresar el producto cruz es usando el determinante de una matriz, donde
algunos de sus elementos son los vectores bases:


e1 e2 e3


~B
~ = A1 A2 A3
.
(1.49)
A


B1 B2 B3
det
Expandiendo el determinante de la ecuacion (1.49) tenemos
~B
~ = (A2 B3 A3 B2 )
A
e1 + (A3 B1 A1 B3 )
e2 + (A1 B2 A2 B1 )
e3 .

(1.50)

Esta u
ltima expresion puede ser escrita usando la notacion de Einstein, con la presentacion
del smbolo de Levi-Civita ijk :
~B
~ = Ai Bj ek ijk ,
A
donde ijk es definido como

+1 para (i, j, k) = a una permutacion par de (1,2,3)


ijk = 1 para (i, j, k) = a una permutacion impar de (1,2,3) .

0 si dos o mas de los subndices son iguales

(1.51)

(1.52)

1.2. OPERACIONES VECTORIALES.

15

Una permutacion impar de (1,2,3) es cualquier rearreglo de estos tres n


umeros que pueda
ser realizado con un n
umero impar de intercambio de pares. As, las permutaciones impares
de (1,2,3) son (2,1,3),(1,3,2) y (3,2,1). Similarmente las permutaciones pares de (1,2,3) son
(1,2,3),(2,3,1) y (3,1,2). Ya que los subndices i, j y k pueden tomar independientemente los
valores (1,2,3), una manera de visualizar el smbolo de Levi-Civita es como un arreglo de
3 3 3 como lo muestra la figura (1.5)

313

k
j

111

ijk
331
Figura 1.5: El arreglo de 3 3 3 de Levi-Civita
El producto cruz, escrito usando notacion de Einstein en la ecuacion (1.51), y el producto
tiles para el calculo manual y lo
punto, escrito en la forma de la ecuacion (1.38) son muy u
veremos en los siguientes ejemplos

1.2.3.

C
alculos usando notaci
on de Einstein.

Ahora veremos algunos ejemplos para mostrar el uso de la notacion de Einstein. El primer
ejemplo muestra que la magnitud de un vector no es afectada por rotaciones. El objetivo
primario de este ejemplo es mostrar como una derivacion que es realizada enteramente con
notacion matricial tambien puede ser realizada usando notacion de subndices. El segundo
ejemplo deriva una identidad vectorial conocida. Este ejemplo muestra como la notacion de
subndices es una poderosa herramienta para derivar complicadas relaciones vectoriales.
Ejemplo 1
~A
~yA
~ 0 A
~ 0 , primero
Volvamos a la figura de la rotacion (1.2), y consideremos el producto A
~ 0 es generada por
usando notacion matricial y luego usando notacion de Einstein. Ya que A
~ sabemos que estos dos productos puntos, los cuales representan la
una rotacion simple de A
magnitud al cuadrado de los vectores, debera ser iguales.
Usando matrices:
~A
~ = [A] [A]
A
~ 0A
~ 0 = [A0 ] [A0 ] .
A

(1.53)
(1.54)

16

DE ALGEBRA

CAPITULO 1. UNA BREVE REVISION


LINEAL.
Pero [A0 ] y [A0 ] pueden ser expresadas en terminos de [A] y [A] como
[A0 ] = [R()] [A]

[A0 ] = [A] [R()] ,

(1.55)

donde R() es la matriz de rotacion definida en la ecuacion (1.23). Si estas dos ecuaciones
son reemplazadas en la ecuacion (1.54), tenemos
~ 0A
~ 0 = [A] [R()] [R()] [A] .
A
El producto entre las dos matrices de rotacion puede realizarse


 

cos sen cos sen
1 0

[R()] [R()] =
=
,
sen cos sen cos
0 1

(1.56)

(1.57)

y la ecuacion (1.56) llega a ser


~ 0A
~ 0 = [A] [1] [A] = [A0 ] [A] A
~A
~.
A

(1.58)

Nuestra conclusion final es que


~ 0A
~0=A
~A
~ .
A

(1.59)

Para llegar a este resultado usando matrices, tuvimos cuidado en hacer las operaciones de
matrices en el orden correcto.
Ahora repitamos la derivacion usando notacion de Einstein. La ecuacion (1.40) nos permite
escribir
~A
~ = Ai Ai
A
~ 0A
~ 0 = A0j A0j .
A

(1.60)
(1.61)

Notemos que debemos ser cuidadosos en usar diferentes subndices para las dos sumas en las
ecuaciones (1.60) y (1.61). Esto asegura mantenerlas independientes cuando ellas sean manipuladas en los siguientes pasos. Las componentes primas pueden ser expresadas en terminos
de las componentes sin primas como
A0i = Rij Aj ,

(1.62)

donde Rij es el ij-esimo elemento de la matriz de rotacion R(). Insertando esta expresion
en la ecuacion (1.61) obtenemos
~ 0A
~ 0 = Rru Au Rrv Av ,
A

(1.63)

donde nuevamente hemos sido cuidadosos en usar diferentes subndices u y v. Esta ecuacion
tiene tres sumas implcitas, sobre los ndices r, u y v.
Un la notacion con subndices, a diferencia de la notacion de matrices, el orden de los
terminos no es importante, as podemos rearreglar la ecuacion (1.63) tal que quede
~ 0A
~ 0 = Au Av Rru Rrv .
A

(1.64)

1.2. OPERACIONES VECTORIALES.

17

Ahora nos concentramos en la suma sobre r, la cual solo involucra los elementos de matriz
de [R] en el producto Rru Rrv . Que significa este producto? Al comparar con las operaciones
discutidas previas. En la ecuacion (1.12) precisamos la expresion en subndices Mij Njk representa el producto regular de matrices [M ] [N ] porque el ndice sumado j esta en la segunda
posicion de la matriz [M ] y en la primera posicion en la matriz [N ]. La expresion Rru Rrv ,
sin embargo, tiene una contraccion sobre el primer ndice en ambas matrices. Para que este
producto tenga sentido, escribimos la primera instancia de [R] usando la transpuesta:
Rru Rrv [R] [R] .

(1.65)

Rru Rrv = uv .

(1.66)

De la ecuacion (1.57)
Substituyendo este resultado en la ecuacion (1.64) nos da
~ 0A
~ 0 = Au Av uv = Au Av = A
~A
~.
A

(1.67)

Obviamente, este ejemplo es muy facil. No quedo demostrada ninguna ventaja entre la notacion de Einstein y la notacion de matrices. Sin embargo, se destaca su equivalencia. En el
siguiente ejemplo la notacion de Einstein probara ser mas indispensable
Ejemplo 2
La notacion de Einstein permite la derivacion de identidades vectoriales que parecen
imposibles usando otra manera. El ejemplo que trabajaremos sera la derivacion de la identidad
~ (B
~ C).
~ Este ejemplo muestra la mayora
del doble producto cruz entre tres vectores A
de las operaciones comunes que ocurren en este tipo de manipulaciones.
~ B
~ C)
~ esta escrita en notacion vectorial y es valida en cualquier sistema
La expresion A(
de coordenadas. Para derivar nuestra identidad, convertiremos esta expresion en notacion
de Einstein en un sistema de coordenadas Cartesiano. Al final retornaremos a la notacion
vectorial para obtener un resultado que no dependa de ning
un sistema de coordenadas. En
este ejemplo, necesitaremos usar la forma de subndices de un vector
V~ = Vi ei ,

(1.68)

Para el producto punto entre dos vectores


~B
~ = Ai Bi ,
A

(1.69)

~B
~ = Ai Bj ek ijk .
A

(1.70)

~ =B
~ C
~ ,
D

(1.71)

y para el producto cruz


Para comenzar, sea
lo cual escribimos usando el smbolo de Levi-Civita como
~ = Bi Cj ek ijk .
D

(1.72)

18

DE ALGEBRA

CAPITULO 1. UNA BREVE REVISION


LINEAL.

~ B
~ C)
~ y usando Levi-Civita nuevamente
Substituyendo la ecuacion (1.71) en la expresion A(
~ (B
~ C)
~ = Ar Ds et rst .
A

(1.73)

~ es obtenida aplicando el producto punto con es a ambos lados


La s-esima componente de D
de la ecuacion (1.72) como sigue
~ = es Bi Cj ek ijk
Ds = es D
Bi Cj ijk (
es ek )
.
Bi Cj ijk sk
Bi Cj ijs

(1.74)

Sustituyendo el resultado de la ecuacion (1.74) en la ecuacion (1.73) da


~ (B
~ C)
~ = Ar Bi Cj ijs et rst ,
A

(1.75)

lo cual puede ser levemente arreglado para leer


~ (B
~ C)
~ = Ar Bi Cj et ijs rst .
A

(1.76)

Para proceder, necesitamos desarrollar algunas de las propiedades del smbolo de LeviCivita. Primero, de acuerdo a la definicion dada en la ecuacion (1.52) es claro que intercambiar
cualquier par de ndices solo cambia el signo, i.e
ijk = ikj = jki .

(1.77)

la segunda propiedad involucra el producto de dos smbolos de Levi-Civita que tienen el


u
ltimo ndice en com
un
ijk mnk = im jn in jm .
(1.78)
Con una considerable cantidad de esfuerzo se puede mostrar que el LD de la ecuacion (1.78)
tiene todas las propiedades descrita para el producto de dos smbolos de Levi-Civita en LI.
Con las ecuaciones (1.77) y (1.78) podemos volver a la ecuacion (1.76), que ahora puede
ser reescrita como
~ (B
~ C)
~ = Ar Bi Cj et (rj ti ri tj ) .
A
(1.79)
Despues de remover las deltas de Kronecker obtenemos
~ (B
~ C)
~ = Aj Bi Cj ei Ai Bi Cj ej .
A

(1.80)

En este punto uno puede realmente ver la utilidad de la notacion de Einstein. Los factores en
los dos terminos del LD de la ecuacion (1.80) pueden ser arreglados, agrupados de acuerdo a
las sumas, y volver a la notacion vectorial en solo dos lneas! El procedimiento es
~ (B
~ C)
~ = (Aj Cj )(Bi ei ) (Ai Bi )(Cj ej )
A
~ C)
~ B
~ (A
~ B)
~ C
~ .
= (A

(1.81)
(1.82)

La ecuacion (1.81) es valida solo en un sistema Cartesiano. Como la ecuacion (1.82) esta en
notacion vectorial, esta es valida en cualquier sistema de coordenadas.

Captulo 2
Operadores en campos escalares y
vectoriales.
versi
on final 1.0-0804151

Un campo es una funcion que depende del espacio y algunas veces tambien del tiempo. El
potencial electrico, la densidad de carga, la temperatura y la presion son solo una magnitud,
y estan descritos por campos escalares. En cambio, el campo electrico, el campo magnetico,
la gravedad, la densidad de corriente o la velocidad de un fluido tienen magnitud y direccion
y son descritos por campos vectoriales.
Los operadores diferenciales e integrales en campos escalares y vectoriales pueden ser
expresados de forma unvoca usando la notacion y el formalismo de operadores, los cuales
veremos en este captulo.

2.1.
2.1.1.

Dibujando campos escalares y vectoriales.


Dibujando campos escalares.

Los dibujos de los campos escalares son mucho mas faciles de construir que los campos
vectoriales, ya que los campos escalares estan caracterizados por un valor u
nico en cada punto
del espacio y del tiempo. Consideremos un ejemplo: el potencial electrico producido por
dos lneas uniformes con carga 0 , las cuales estan ubicadas en (x = 1, y = 0). Para este
caso, sabemos que
(x + 1)2 + y 2
= 0 ln
(x 1)2 + y 2



.

(2.1)

Usualmente queremos construir las superficies donde es constante, usualmente llamadas


equipotenciales, contornos o geodesicas, las cuales para este caso son cilindros alrededor de las
lneas de carga. Ya que hay simetra en la direccion z, estas superficies pueden ser dibujadas
en dos dimensiones como se ve en la figura 2.1. Los centros de estos crculos estan ubicados
a lo largo del eje x desde 1 < x < para los valores positivos de , y desde < x < 1
para los valores negativos de . = 0 se encuentra a lo largo del eje y.
1

Este captulo est


a basado en el segundo captulo del libro: Mathematical Physics de Brusse Kusse & Erik
Westwig, editorial John Wiley & Sons, Inc..

19

CAPITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

20

Figura 2.1: Equipotenciales y lneas de campo electrico de dos lneas paralelas de carga.

2.1.2.

Dibujando campos vectoriales.

Como los vectores poseen magnitud y direccion, los dibujos de los campos que componen
son mas complicados que los campos vectoriales. Por ejemplo, las componentes cartesianas
del campo electrico del ejemplo de la seccion anterior son



x2 y 2 1
Ex =
= 40
x
[(x 1)2 + y 2 ][(x + 1)2 + y 2 ]



2xy
Ey =
= 40
.
y
[(x 1)2 + y 2 ][(x + 1)2 + y 2 ]

(2.2)
(2.3)

Un campo vectorial es dibujado tpicamente construyendo lneas tangentes al campo vectorial en cada punto del espacio. Por convencion, la densidad de estas lneas de campo indican
la magnitud del campo, y flechas muestran su direccion. Si suponemos que las lneas de campo electrico que expresan las ecuaciones (2.2) y (2.3) esta dada por la ecuacion y = y(x),
entonces
dy(x)
Ey
2xy
.
=
= 2
dx
Ex
x y2 1

(2.4)

Con un poco de algebra, la ecuacion (2.4) puede ser integrada, obteniendo


x2 + (y c)2 = 1 + c2 ,

(2.5)

donde c es una constante de integracion. Esta constante puede ser variada desde a
para generar la familia de lneas de
campo. Para este caso, estas lneas son crculos centrados
en y = c con un radio dado por 1 + c2 . Estas son mostradas como lneas solidas en la
figura 2.1. Las flechas indican como el campo apunta desde la carga positiva a la negativa.
Recordemos que donde las lneas estan mas densamente pobladas (entre las dos cargas) es
donde el campo electrico es mas fuerte.

2.2. OPERADORES VECTORIALES.

2.2.
2.2.1.

21

Operadores vectoriales.
Notaci
on del operador integral.

El gradiente, la divergencia y el rotor estan descritos naturalmente por su forma de operador. Esto es, que ellos son representados por un smbolo que opera sobre otra cantidad.
~
~ el cual act
Por ejemplo, el gradiente de es escrito por .
Aqu el operador es ,
ua sobre
el operando , lo cual resulta en el gradiente.
En cambio, la integral no es generalmente escrito en su forma de operador. La integral de
f (x) sobre x es escrita de la siguiente forma
Z
f (x) dx ,
(2.6)
la cual no esta escrita en su forma de operador ya que la integral y el operando f (x) estan
mezclados. Sin embargo, podemos poner la ecuacion (2.6) en forma de operador reorganizando
los terminos en la ecuacion, como sigue
Z
dx f (x) .
(2.7)
R
Ahora el operador dx act
ua sobre f (x) para formar la integral, tal como el operador
~
act
ua sobre para formar el gradiente. En la practica, el operador integral es colocado
en la derecha, pasando a traves de todos los terminos del integrando que no dependen de la
variable de integracion. Por ejemplo,
Z
Z
2
2
2
dx x (x + y)y = y
dx x2 (x + y) .
(2.8)

2.2.2.

Integrales de lnea.

El proceso de tomar una integral a lo largo de un camino es llamado integral de lnea y es


una operacion com
un en todas las ramas de la Fsica. Por ejemplo, el trabajo que una fuerza
~
F realiza cuando se mueve a traves de un camino C es
Z
W =
d~r F~ .
(2.9)
C

Aqu el operador integral de lnea C d~r act


ua sobre la fuerza F~ . El vector de desplazamiento
diferencial d~r es tangencial a cada punto a lo largo de C, como es mostrado en la figura 2.2.
Si C se cierra sobre s mismo, escribimos el operador con un crculo sobre el signo de integral,
I
d~r .
(2.10)
R

Ya que la ecuacion (2.9) esta escrita en notacion vectorial, es valido en cualquier sistema
de coordenadas. En el sistema de coordenadas Cartesiano, d~r = dxi ei y la ecuacion (2.9) se
convierte en

CAPITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

22

dr

Figura 2.2: La integral de lnea.

Z
W =

d~r F~ =

Z
dxi Fi .

(2.11)

Notemos que la cantidad producida por esta integracion es un escalar, ya que el subndice i
esta sumado implcitamente.
Hay otras operaciones integrales, las cuales son poco comunes. Por ejemplo, el operador
Z
Z
d~r = ei
dxi
(2.12)
C

act
ua sobre el escalar para producir un vector. Otro ejemplo,
Z
Z
d~r ~v = ek
dxi ijk vj ,
C

(2.13)

genera un vector usando el producto cruz. Notemos que todas las expresiones con subndices
estan escritas en el sistema Cartesiano donde la base de vectores es ortonormal e independientes de la posicion.

2.2.3.

Integrales de superficie.

Las integrales de superficie son representadas por su operador integral


Z
d~ ,

(2.14)

donde d~ es un vector que representa un area diferencial. Este vector tiene una magnitud
igual a un area diferencial de S, y una direccion perpendicular a la superficie. Si escribimos
el diferencial de area como d y el vector unitario normal n
, el vector de area diferencial
puede ser reescrito como d~ = n
d. Como la superficie tiene dos lados, hay un problema
para definir n
. Para una superficie simple y cerrada, como por ejemplo la que se muestra
en la figura 2.3(a), definimos n
para que siempre apunte hacia afuera. Si la superficie no es
cerrada, es decir, no encierra un volumen, la direccion de n
es definida por el camino cerrado
C que define los bordes de la superficie, y la regla de la mano derecha, como se muestra en
la figura 2.3(b).
Frecuentemente, el operador integral de superficie act
ua sobre una cantidad vectorial
mediante el producto punto

2.2. OPERADORES VECTORIALES.

23

000000
111111
1111111111111111111
0000000000000000000
000000
111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111
d
000000
111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111
00000000000000
11111111111111
000000
111111
00000000000000
11111111111111
000000
111111
00000000000000
11111111111111
000000
00000000000000111111
11111111111111
000000
111111

C
1111111111111111111
0000000000000000000
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
d

(a)

x
(b)

Figura 2.3: Integrales de superficie.

Z
d~ ~v .

(2.15)

En coordenadas cartesianas,
d~ = di ei ,

(2.16)

donde di es positivo o negativo dependiendo del signo de n


ei , como se discutio en el parrafo
anterior. Esta integral de superficie se transforma en
Z
Z
d~ ~v =
di vi .
(2.17)
S

Hay integrales de superficie poco comunes, como


Z
Z
d~ = ei di ,
S

(2.18)

la cual es una operacion sobre un escalar, la cual produce un vector, y


Z
Z
d~ ~v = ek di ijk vj
S

(2.19)

la cual tambien produce un vector.

2.2.4.

Integrales de volumen.

Las integrales de volumen son los operadores integrales mas sencillos, ya que las variables
de integracion son escalares. Son escritas
Z
d ,
(2.20)
V

donde d es un volumen diferencial, y V representa el volumen total de integracion. La


integral de volumen mas com
un act
ua sobre una cantidad escalar y, como resultado, produce
un escalar

24

CAPITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

Z
d .

(2.21)

En coordenadas cartesianas, esto es escrito como


Z
dx1 dx2 dx3 .

(2.22)

Las integrales de volumen de cantidades vectoriales tambien son posibles,


Z
Z
d ~v =
dx1 dx2 dx3 ~v .
V

2.3.

(2.23)

Operadores diferenciales.

Por su definicion, los campos son funciones de la posicion. Analogamente a como cambia
una funcion de una variable, lo cual esta descrito por su derivada, la dependencia de la
posicion de un campo escalar puede ser descrito por su gradiente, y la dependencia de la
posicion de un campo vectorial puede ser descrito por su rotor y su divergencia. El operador
~ es usado para describir estas tres operaciones fundamentales.
nabla
~ esta escrito en una notacion independiente del sistema de coordenadas.
El operador
Este puede ser expresado con notacion de Einstein en el sistema cartesiano como
~ = ei .

(2.24)
xi
Esta expresion sera vista en otros sistemas de coordenadas en el captulo siguiente.
~ produce un vector llamado el graCuando opera sobre un campo escalar, el operador
diente
(x1 , x2 , x3 )
~
(x
i
.
(2.25)
1 , x2 , x3 ) = e
xi
Por ejemplo, en electroestatica el campo electrico es igual a menos el gradiente del potencial
electrico
(x1 , x2 , x3 )
~ =
~ =
.
(2.26)
E
ei
xi
El operador nabla tambien act
ua sobre campos vectoriales va el producto punto o el producto
cruz. La divergencia de un campo vectorial es una cantidad escalar creada usando el producto
punto
~ A
~ = ei Aj ej = Ai .

(2.27)
xi
xi
La densidad de carga en una region del espacio puede ser calculada usando la divergencia
de la relacion
~ E
~ = 4 .

(2.28)

2.3. OPERADORES DIFERENCIALES.

25

En cambio, si utilizamos el producto cruz, generamos una cantidad vectorial llamada el


rotor





~
~
(2.29)
Aj ej =
Aj ijk ek ,
A = ei
xi
xi
donde hemos utilizado el smbolo de Levi-Civita para expresar el producto cruz en notacion
de Einstein. Una de las ecuaciones de Maxwell relaciona el campo electrico con la tasa de
cambio del campo magnetico usando el rotor,
~
~ E
~ = 1 B .

c t

2.3.1.

(2.30)

Vista fsica del gradiente.

El gradiente de un campo escalar es un vector que describe, en cada punto, como el campo
cambia con la posicion. Aplicando producto punto a ambos lados de la ecuacion (2.25) con
d~r = dxi ei obtenemos
~ = dxi ei ej .
d~r
xj

(2.31)

Haciendo un poco de algebra en el lado derecho de la ecuacion, obtenemos


~ = dxi .
d~r
xi

(2.32)

El lado derecho de esta expresion puede ser reorganizado como la diferencia total de carga
de debido al cambio diferencial de posicion d~r. El resultado puede ser escrito en notacion
vectorial como sigue
~ d~r .
d =

(2.33)

De la ecuacion (2.33), es claro que el valor maximo de d ocurre cuando d~r apunta en la
~
~ no produce
misma direccion que .
Por otra parte, un desplazamiento perpendicular a
cambio en , ya que d = 0. Esto significa que el gradiente siempre apuntara perpendicular
a las superficies donde es constante.
Al comienzo de este captulo discutimos la funcion potencial electrico generado por dos
lneas de carga. El campo electrico fue generado tomando el gradiente de este potencial
escalar, y fue dibujado en la figura 2.1. Pudimos haber usado este ejemplo como modelo para
desarrollar una vista Fsica del operador gradiente, pero es un poco complicado. En cambio,
observaremos una funcion de dos dimensiones mucho mas simple
= xy .

(2.34)

Un dibujo de las lneas equipotenciales en el plano xy es mostrado en la figura 2.4. Haciendo


la operacion gradiente obtenemos un vector de campo
~ = y

ex x
ey .

(2.35)

26

CAPITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

Figura 2.4: Superficies de = xy constante.


Ahora imaginemos que estamos en el punto (1, 2) y nos movemos a la derecha una cantidad
infinitesimal dr a lo largo del eje x positivo. El cambio correspondiente en puede ser
determinado calculando
~ d~r
d =
= (2
ex 1
ey ) (dr
ex )
= 2dr .

(2.36)

Esto dice que disminuye en 2 unidades por cada paso infinitesimal en esa direccion. En
cambio, si estamos sentados en el punto (3, 4) y nos movemos una cantidad infinitesimal dr,
con un angulo de 45 con respecto al eje x, cambia de la siguiente forma
~ d~r
d =
dr
ex + ey )
= (4
ex 3
ey ) (
2
7
= dr .
2

(2.37)

Notemos que estos cambios son por pasos infinitesimales. Para calcular el cambio de
sobre un camino finito, donde el gradiente cambia mientras nos vamos moviendo punto a
punto, necesitamos usar la integral de lnea
Z
~ .
=
d~r
(2.38)
C

Cuando utilizamos el gradiente para generar un campo vectorial, usualmente se a


nade un
signo negativo en la definicion. Por ejemplo, el campo electrico es generado desde el potencial
electrostatico por
~ =
~ .
E

(2.39)

2.3. OPERADORES DIFERENCIALES.

27

Usando esta convencion, si nos movemos en contra de las lneas de campo aumenta. Para
el potencial de la ecuacion (2.34), el gradiente negativo es
~ = y

ex + x
ey .

(2.40)

Las lneas de campo para esta funcion pueden ser determinadas como sigue
dy
dx
dy y
y2
x2 y 2

x
y
= dx x
= x2 + c
=c.

(2.41)

Estas lneas son perpendiculares a las lineas donde es constante, como es mostrado en
la figura 2.5. Notemos como la densidad de las lneas del campo vectorial muestran que la
magnitud del campo aumenta a medida que nos movemos al origen.

Figura 2.5: Lneas de campo para = xy.


En resumen, el gradiente de una funcion escalar genera un campo vectorial el cual, en
cada punto indica la direccion de crecimiento de y yacen perpendiculares a las lneas o superficies donde es constante. El ejemplo discutido anteriormente ha sido puesto en practica
en dos dimensiones, pero el proceso tambien puede ser visualizado en tres dimensiones, donde
= constante generan superficies, y el gradiente es siempre normal a estas superficies. Salvo
esta visualizacion, no hay lmites en el n
umero de dimensiones para el operador gradiente.

2.3.2.

Vista fsica de la divergencia.

El operador divergencia sera descrito fsicamente desarrollando la ecuacion de continuidad,


la cual describe el campo en la densidad local de una partcula en un fluido como funcion
del tiempo. Sea (x, y, z, t) el n
umero de partculas por unidad de volumen y ~v (x, y, z, t) la
velocidad de estas partculas ubicadas en el punto (x, y, z) y en el tiempo t. Consideremos
un volumen diferencial d = dx dy dz localizado en (x0 , y0 , z0 ) como se muestra en la figura
2.6. La ecuacion de continuidad es obtenida haciendo la suposicion que las partculas pueden

28

CAPITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

entrar o salir de este volumen, y despues equiparar el flujo neto de partculas con cuantas
partculas salieron o entraron con el consecuente cambio en . Si llamamos N d al
n
umero total de partculas en el volumen infinitesimal, tenemos
N
(x0 , y0 , z0 , t)
=
dx dy dz .
t
t

(2.42)

1111111111111111111111
0000000000000000000000
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
dz

1111111111111111111111
0000000000000000000000
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
dy
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
x
y
z
( 0 , 0 , 0)
dx

Figura 2.6: Volumen diferencial.


La tasa de cambio de N en la ecuacion (2.42) la tomaremos midiendo el flujo de partculas
que pasa a traves de las seis caras del volumen diferencial d . Consideremos la superficie
achurada inferior de la figura 2.6. El flujo a traves de esta superficie puede ser determinado
umero total de partculas que entran al volumen en un
con la ayuda de la figura 2.7(a). El n
tiempo dt a traves de esta superficie es igual al n
umero de partculas en la region sombreada
dx dy vz dt. Notemos que una velocidad positiva vz agrega partculas a este volumen, mientras
que si es negativa sucedera lo contrario. Luego, la contribucion inferior a N/t es
Ninferior
= (x0 , y0 , z0 , t) vz (x0 , y0 , z0 , t) dx dy .
t

(2.43)

vz
vz ( x 0 , y0 , z 0 + dz ) dt

dz
dz

vz
vz ( x 0 , y0 , z 0 ) dt
dy

( x 0 , y0 ,z 0 )
dx

dy

( x 0 , y0 ,z 0 )
dx

(a)

(b)

Figura 2.7: Flujo a traves de las caras superior e inferior.


Notemos que tanto como y vz estan evaluados en (x0 , y0 , z0 ) en la u
ltima ecuacion.
~
Definamos el vector densidad de corriente como J = ~v . La ecuacion (2.43) puede ser escrita
de forma mas compacta,

2.3. OPERADORES DIFERENCIALES.

Ninferior
= Jz (x0 , y0 , z0 , t) dx dy .
t

29

(2.44)

El mismo tipo de calculo se hace de forma analoga para la cara superior mostrada en la
umero de partculas en
figura 2.6. La figura 2.7(b) muestra que ahora vz positivo acarrea el n
la region sombreada del volumen. Este lado contribuye
Nsuperior
= Jz (x0 , y0 , z0 + dz, t) dx dy
t

(2.45)

al cambio total N/t. Notemos que en este caso, evaluamos Jz en el punto (x0 , y0 , z0 + dz).
Combinando las ecuaciones (2.44) y (2.45) obtenemos
Ninferior Nsuperior
+
= [Jz (x0 , y0 , z0 , t) Jz (x0 , y0 , z0 + dz, t)] dx dy .
t
t

(2.46)

Esta expresion puede ser escrita en terminos de la derivada de Jz , ya que en el lmite diferencial
tenemos

Jz
Jz (x0 , y0 , z0 + dz, t) = Jz (x0 , y0 , z0 , t) +
dz .
z (x0 ,y0 ,z0 )

(2.47)

Substituyendo la ecuacion (2.47) en (2.46) obtenemos



Ninferior Nsuperior
Jz
dx dy dz .
+
=
t
t
z (x0 ,y0 ,z0 )

(2.48)

Realizando el proceso analogo para las otras cuatro superficies se obtienen resultados similares. Por tanto, el flujo total en el volumen diferencial es
"
#



Jx
Jy
Jz
N

dx dy dz .
=
t
x (x0 ,y0 ,z0 )
y (x0 ,y0 ,z0 )
z (x0 ,y0 ,z0 )

(2.49)

~ J~ por d . Combinando este resultado con la ecuacion (2.42),


Lo cual es reconocido como
obtenemos la ecuacion de continuidad

~ J~ .
=
t

(2.50)

~ mas partculas estan dejando la region


Para una cantidad positiva de la divergencia de J,
que entrando en ella, por tanto /t es negativo.
Este ejercicio nos provee la interpretacion fsica de la divergencia. Si la divergencia de un
campo vectorial es positiva en una region, la region es una fuente. Las lneas de campo nacen
en las regiones tipo fuente. Por otra parte, si la divergencia en una region es negativa, la region
es considerada un sumidero. Las lneas de campo mueren en las regiones tipo sumidero. Si
la divergencia de un campo vectorial es cero en una region, todas las lneas de campo que
entran deben salir de esa region.

30

2.3.3.

CAPITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

Vista fsica del rotor.

El rotor de un campo vectorial es un vector, el cual describe en una escala local la


circulacion del campo. De la palabra rotor parece razonable concluir que si un campo vectorial
tiene rotor distinto de cero las lneas de campo deben ser curvadas, mientras que si un
campo vectorial tiene rotor cero las lneas de campo debiesen ser rectas. Esta concepcion
esta errada. Es posible que las lneas de un campo vectorial aparezcan como es mostrado en
la figura 2.8(a), describiendo una situacion curvada y tener rotor igual a cero. Tambien
las lneas de campo mostradas en la figura 2.8(b) las cuales son rectas pueden tener rotor
distinto de cero. Para resolver esta confusion, debemos mirar el rotor en una escala distinta.

(a)

(b)

Figura 2.8: Campos vectoriales circulantes y no circulantes.


Consideremos un campo vectorial ~v que solo es funcion de x e y. El rotor de este campo
apunta en la direccion z, y de acuerdo a la ecuacion (2.29) esta dado por


vy vx
~
~v =

ez
(2.51)
x
y
para un sistema de coordenadas Cartesiano.
Consideremos la integral de lnea del campo vectorial ~v alrededor de un camino cerrado,
tal como se muestra en la figura 2.9,
I
d~r ~v .
(2.52)
C

El punto de comienzo para la integracion es (x0 , y0 ). En esta derivacion, necesitamos


tener un poco mas de cuidado con las cantidades infinitesimales, en contraste con la seccion
anterior. Por esta razon, imponemos que las dimensiones del camino cerrado sean x y y,
como es mostrado en la figura. Luego comprimiremos estas cantidades a infinitesimales para
obtener el resultado final.
La integral a lo largo de C puede ser dividida en cuatro partes. Consideremos la integracion
a lo largo de C1 , donde y = y0 y x vara desde x0 a x
Z
Z x0 +x
d~r ~v =
dx vx .
(2.53)
C1

x0

2.3. OPERADORES DIFERENCIALES.

31
C3

C4

C2
y

(x0 , y0)

11
00
00
11
00
11
00
11

C1
x

Figura 2.9: Camino cerrado para la integral del rotor.


A lo largo de este segmento podemos expandir vx (x, y0 ) en serie de Taylor, reteniendo el
termino lineal en x

vx
(x x0 ) .
(2.54)
vx (x, y0 ) vx (x0 , y0 ) +
x (x0 ,y0 )
No mantendremos los terminos de mas alto orden, ya que no haran ninguna diferencia significativa en los resultados. Sustituyendo la ecuacion (2.54) en (2.53) y realizando la integracion,
obtenemos

Z
1 vx
(x)2 .
(2.55)
d~r ~v vx (x0 , y0 )x +

2
x
C1
(x0 ,y0 )
La proxima integracion la realizaremos a lo largo de C3 , la seccion superior del camino. A
lo largo de este camino, mantendremos fijo y = y0 + y, mientras que x vara desde x0 a
x0 + x. Por tanto,
Z
Z x0
d~r ~v =
dx vx .
(2.56)
C3

x0 +x

Nuevamente, expandimos en Taylor vx (x, y0 + y) a primer orden




vx
vx
(x x0 ) +
y .
vx (x, y0 + y) vx (x0 , y0 ) +
x (x0 ,y0 )
y (x0 ,y0 )
Reemplazando (2.57) en (2.56) y realizando la integral, obtenemos


Z
1 vx
vx
2
d~r ~v vx (x0 , y0 )x
(x)
xy .
2 x (x0 ,y0 )
y (x0 ,y0 )
C3
Combinando las ecuaciones (2.55) y (2.58) obtenemos

Z
Z
vx
xy .
d~r ~v +
d~r ~v
y (x0 ,y0 )
C1
C3

(2.57)

(2.58)

(2.59)

32

CAPITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

Si hacemos el proceso analogo para los caminos C2 y C4 , podemos combinar todos los resultados, obteniendo
!


vx
vy
xy .

x (x0 ,y0 )
y (x0 ,y0 )

I
d~r ~v
C

(2.60)

El error de la ecuacion (2.60) desaparece cuando las dimensiones del camino disminuyen
a dimensiones infinitesimales, es decir cuando x 0 y y 0. Ademas, utilizando la
ecuacion (2.51), el termino entre parentesis del lado derecho de la ecuacion (2.60) puede ser
identificado como la componente z de ~v . Por tanto, podemos escribir
I
Z
~
lm
d~r ~v = ez ( ~v ) lm dz ,
(2.61)
C0

s0

donde C es el contorno que encierra a S y dz = dx dy es el area diferencial de esta superficie.


Que nos dice esto acerca del rotor? El resultado en la ecuacion (2.61) puede ser reescrito
como
H
~ ~v ) = lm RC d~r ~v .
(2.62)
ez (
C,S0
d
z
S
~ ~v en un punto es la integral de lnea de ~v en
Esto nos dice que la componente z de
un camino alrededor de este punto, dividido por el area del camino, en el lmite cuando el
camino se vuelve muy peque
no. Por tanto, el rotor no nos dice nada acerca de la circulacion
en una escala macroscopica.
Por tanto, ahora podemos entender las situaciones de la figura 2.8. Si el campo curvado
mostrado en la figura 2.10(a) tiene una magnitud que decae como 1/r, exactamente suficiente
como para compensar el crecimiento en el camino mientras que r aumenta, luego la integral
alrededor del camino diferencial cerrado mostrado en la figura es cero. Por tanto, el rotor en
este punto tambien es cero. Si la magnitud del campo vectorial recto mostrado en la figura
2.10(b) vara como indican las lneas de densidad, la integral alrededor del camino cerrado
mostrado no puede ser cero y, por tanto, el rotor tambien tendra un valor distinto de cero.
000000
111111
111111
000000
000000
111111
000000
111111
000000
111111
000000
111111

0000000
1111111
1111111
0000000
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111

(a)

(b)

Figura 2.10: Campos con rotor cero, figura (a) y distinto de cero, figura (b).
Hemos derivado la ecuacion (2.61) en dos dimensiones y solo escogimos la componente z
del rotor. La generalizacion de este resultado a tres dimensiones y cualquier orientacion del
camino diferencial viene dada por

2.3. OPERADORES DIFERENCIALES.

I
lm

C0

2.3.4.

33

~ ~v ) lm
d~r ~v = (

s0

Z
d~ .

(2.63)

Identidades con operadores diferenciales.

La notacion de Einstein facilita mucho el trabajo al tener que demostrar igualdades con
los operadores diferenciales. Las relaciones presentadas en esta seccion son similares a las
identidades vectoriales discutidas en el captulo anterior, excepto que ahora debemos considerar las reglas del calculo diferencial. Como las identidades vectoriales, utilizaremos el
sistema de coordenadas cartesiano, pero los resultados finales estan expresados en notacion
vectorial independiente del sistema de coordenadas.
~ ).
~
Ejemplo 1: Consideremos la expresion de operadores (
Escribamos esta expresion
en notacion de Einstein, hagamos la sustitucion
~ = ei .

xi

(2.64)

~ en la expresion original debe ser escrita usando ndices independientes


Los dos operadores



~ ()
~

= ei
ej
.
(2.65)
xi
xj
Como los vectores base en el sistema cartesiano son independientes de la posicion,
ej /xi =
0, y la ecuacion (2.65) queda



~
~

() = (
ei ej )
xi xj



= ij

xi xj



=
xi xi
 2


2
2
=
+
+
.
x21 x22 x23

(2.66)

En la u
ltima lnea hemos escrito la suma explcitamente para hacer notar como se trabaja
con la notacion para este caso. La ecuacion (2.66) puede ser escrita en notacion vectorial
definiendo el operador laplaciano 2 como

  2

2
2

2
~
~ =
=
=
+
+
,
(2.67)
xi xi
x21 x22 x23
por tanto
~ ()
~

= 2

(2.68)

~
~ ~v , la cual es el rotor del rotor de ~v . Esta
Ejemplo 2: Consideremos la expresion
identidad sera u
til cuando desarrollemos la ecuacion de las ondas electromagneticas desde las

34

CAPITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

ecuaciones de Maxwell. Para escribir esto en notacion de Einstein, usaremos los smbolos de
Levi-Civita,



~
~
vs rsj ijk ek .
(2.69)
~v =
xi xr
El algebra para encontrar la relacion es como sigue



vs
~
~
~v =
rsj ijk ek
xi xr



vs
=
rsj ikj ek
xi xr



vs
=
(ri sk rk si ) ek
xi xr




vi

vk

ek
ek
=
xi xk
xi xi





vi

(vk ek )
=
ek
.
xk xi
xi
xi

(2.70)

As, el lado derecho de la ecuacion (2.70) es convertida a notacion vectorial para obtener la
igualdad


~
~ ~v =
~
~ ~v 2~v .

(2.71)
Notemos que el operador Laplaciano puede actuar tanto en campos escalares como vectoriales. En la ecuacion (2.68) el Laplaciano opera en un campo escalar, obteniendo un escalar.
En cambio, en la ecuacion (2.71) opera sobre un campo vectorial, obteniendo un vector.

2.4.

Definiciones integrales de los operadores diferenciales.

En las ecuaciones (2.25), (2.27) y (2.29) se muestran relaciones para hacer calculos con la
divergencia, el gradiente y el rotor. Cada una de estas relaciones son validas solo en un sistema
de coordenadas cartesianas y estan en terminos de las derivadas espaciales de los campos.
Las definiciones integrales de cada operador tambien existen. Ya derivamos la expresion para
el rotor en la ecuacion (2.63). En esta seccion, presentamos definiciones similares para el
gradiente y la divergencia. Sus derivaciones, las cuales son similares a la ecuacion (2.63)
estan en los textos de calculo. Solo presentaremos los resultados.
El gradiente de un campo escalar en un punto particular puede ser generado por
H
~ = lm RS d~s ,

(2.72)
S,V 0
d
V
donde V es el volumen que incluye el punto de interes y S es la superficie cerrada que encierra
a V . Tanto V como S deben ser reducidas a tama
no infinitesimal para que esta relacion se
cumpla.

2.5. LOS TEOREMAS.

35

Para obtener la divergencia de un campo vectorial en un punto, debemos integrar el


campo vectorial sobre una superficie infinitesimal S que encierre al punto, y dividimos por
el volumen infinitesimal,
H
~
~ A
~ = lm SRd~ A .
(2.73)

S,V 0
d
V
Ya habamos obtenido la definicion integral para el rotor,
I
Z


~
lm
d~r ~v = ~v lm d~s .
C0

S0

(2.74)

Esta definicion es un poco torpe, ya que requiere el calculo de tres integrales diferentes,
cada una con diferentes orientaciones de S, para obtener las tres componentes del rotor. La
definicion integral que daremos a continuacion no tiene este problema, pero usa una forma
poco com
un de integral de superficie
H
~
~ A
~ = lm S Rd~ A .

(2.75)
S,V 0
d
V

2.5.

Los teoremas.

Los operadores diferenciales nos proveen informacion acerca de la variacion de campos


escalares y vectoriales en una escala infinitesimal. Para aplicarlos en escala macroscopica necesitamos introducir cuatro teoremas importantes. Estos son el Teorema de Gauss, el Teorema
de Green, el Teorema de Stokes y el Teorema de Helmholtz, los cuales pueden ser directamente derivados de las definiciones integrales de los operadores. Damos especial atencion en
la demostracion y discusion del Teorema de Helmholtz ya que no es cubierto adecuadamente
en muchos textos.

2.5.1.

Teorema de Gauss.

El teorema de Gauss lo podemos deducir de la ecuacion (2.73), escribiendola de una


manera ligeramente distinta
I
~
~
~.
A d = lm d~ A
(2.76)
S0

En esta ecuacion, la superficie cerrada S rodea completamente el volumen d , el cual ha sido


escrito infinitesimalmente.
La ecuacion (2.76) puede ser aplicada en dos vol
umenes adyacentes d1 y d2 que tienen
una superficie en com
un, como se muestra en la figura 2.11
I
I
~
~.
~
~
~
~
A d1 + A d2 =
d~ A +
d~ A
(2.77)
S1

S2

Las contribuciones a la integral de superficie de las superficies comunes se cancelan como se


ve en la figura, por lo que la ecuacion (2.77) puede ser escrita como

36

CAPITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

d 1
1111111111
0000000000
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111

1111111111
0000000000
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111

d 2

d 1

d2
A . d1 + A . d2 = 0

Figura 2.11: La suma de dos vol


umenes diferenciales.

~ d1 +
~ A
~ d2 =
~ A

~,
d~ A

(2.78)

S1+2

donde S1+2 es la superficie exterior que encierra tanto como a d1 como d2 , como es mostrado
umenes diferenciales contiguos
en la figura 2.12. Podemos continuar este proceso sumando vol
para formar un volumen arbitrario V encerrado por una superficie cerrada S. El resultado es
llamado el Teorema de Gauss
Z
I
~
~
~.
d A =
d~ A
(2.79)
V

d 1 + d 2

S
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
11111111111111111111
00000000000000000000
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111

S 1+2

Figura 2.12: La suma de dos vol


umenes diferenciales.

2.5.2.

Teorema de Green.

El teorema de Green puede ser escrito de dos formas y se puede derivar directamente
usando el Teorema de Gauss y algunas manipulaciones algebraicas. Comencemos conside~ (uv),
~
rando la expresion
donde u y v son campos escalares. Usando una identidad de
operadores, la cual puede ser demostrada facilmente, podemos escribir
~ (uv)
~ = u
~ v
~ + u2 v .

Cambiando u con v, tenemos

(2.80)

2.5. LOS TEOREMAS.

37

~ (v u)
~ = v
~ u
~ + v2 u .

(2.81)

Restando la ecuacion (2.80) con (2.81), tenemos


~ (uv)
~
~ (v u)
~ = u2 v v2 u .

(2.82)

Finalmente, integramos ambos lados en la ecuacion (2.82) sobre un volumen V , y aplicando


el Teorema de Gauss, obtenemos una forma del Teorema de Green
I
Z
~
~
d~ (uv v u) =
d [u2 v v2 u] .
(2.83)
S

En esta expresion, la superficie cerrada S rodea el volumen V . El mismo proceso es aplicado


directamente en la ecuacion (2.80), con lo cual obtenemos una segunda forma del Teorema
de Green
I
Z
~
~ v
~ + u2 v] .
d~ (uv) =
d [u
(2.84)
S

2.5.3.

Teorema de Stokes.

El teorema de Stokes se deriva de la ecuacion (2.74)


I
~
~
~,
( A) d~ = lm
d~r A
C0

(2.85)

donde C es el camino que encierra la superficie diferencial d~ .


La deduccion del Teorema de Stokes se sigue de forma similar que para el Teorema de
Gauss. La ecuacion (2.85) es aplicada a dos superficies diferenciales adyacentes que tienen
un borde en com
un, como es mostrado en la figura 2.13. El resultado es
I
~ A)
~ d~1 + (
~ A)
~ d~2 =
~
(
d~r A
(2.86)
C1+2
00000000000
11111111111
00000000000
11111111111
11111111111
00000000000
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111

C2

C1

d2

d1

0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
1111111111111111111
0000000000000000000
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111

C1+2

d1 + d2

Figura 2.13: La suma de dos superficies diferenciales.


donde el camino C1+2 es el camino cerrado por d1 y d2 . Las integrales de lnea a lo largo
de los bordes C1 y C2 se cancelan. Cualquier n
umero de estas areas diferenciales pueden ser

38

CAPITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

sumadas para formar una superficie S arbitraria y el contorno cerrado C el cual rodea a S.
El resultado es el Teorema de Stokes
Z
I
~
~
~.
d~ ( A) =
d~r A
(2.87)
S

Hay una consecuencia importante del Teorema de Stokes para los campos vectoriales que
tienen rotor cero. Tales campos pueden ser siempre derivados desde un potencial escalar. Es
~ A
~ = 0 en todo el espacio, existe una funcion escalar (~r) tal que A
~ = .
~ Para
decir, si
ver esto, consideremos los puntos 1 y 2 y dos caminos A y B arbitrarios entre ellos, como se
muestra en la figura 2.14. Una integral de lnea cerrada puede ser formada combinando los
~ A
~ = 0 en todos lados, la ecuacion (2.87) nos
caminos A y el contrario del camino B. Si
permite escribir
Z
Z
I
~=0,
~
~
d~r A
d~r A = d~r A
(2.88)
A

o
Z

~=
d~r A

~.
d~r A

(2.89)

~ entre los dos puntos es independiente


La ecuacion (2.89) nos dice que la integral de lnea de A
del camino que se elija. Esto significa que es posible definir una funcion escalar de la posicion
(~r) tal que su diferencial total este dado por
~.
d = d~r A

(2.90)

Es convencional poner el signo negativo tal que aumente cuando se mueve en contra de
~ Reemplazando la ecuacion (2.90) en las integrales de lnea (2.89)
las lneas de campo de A.
muestra que estas integrales de lnea son iguales a
Z 2
d = (1) (2) .
(2.91)
1

Recordando la ecuacion (2.33), es claro que la condicion de la ecuacion (2.90) puede ser
reescrito como
Punto 2

Camino A

Camino B
Punto 1

Figura 2.14: El Teorema de Stokes implica un potencial escalar.

2.5. LOS TEOREMAS.

39

~ =
~ .
A

(2.92)

En resumen, si el rotor de un campo vectorial es cero, el campo es derivable desde un campo


escalar. Las integrales de lnea de este tipo de campos vectoriales es siempre independiente
del camino tomado. Estos tipos de campo son llamados campos conservativos.

2.5.4.

Teorema de Helmholtz.

El Teorema de Helmholtz se enuncia de la siguiente manera:


Un campo vectorial, si existe, es determinado en forma u
nica especificando su
divergencia y rotor en cualquier punto dentro de una region y su componente
normal en la superficie cerrada que rodea esta region.
Hay dos partes muy importantes en este enunciado. Por una parte, dice que si tenemos un
~ ~v y
~ ~v en
campo ~v que estamos tratando de determinar, y conocemos los valores de
todos los puntos en alg
un volumen mas la componente normal de ~v en la superficie de este
volumen, hay un solo ~v que hara todo el trabajo. Por otra parte, hemos hecho la aclaracion si
es que existe. Esta calificacion es necesaria ya que es enteramente posible especificar valores
para la divergencia, el gradiente, el rotor y la componente normal de un campo vectorial que
no pueden ser satisfechas por cualquier campo.
Para probar el Teorema de Helmholtz supondremos dos campos vectoriales ~v1 y ~v2 que
poseen los mismos valores de la divergencia, el gradiente, el rotor y la componente normal.
Luego, mostraremos que si se da este caso, las dos soluciones deben ser iguales. Ademas, sea
w
~ = ~v1 ~v2 . Ya que la divergencia, el rotor y el producto punto son operadores lineales, w
~
debe cumplir las siguientes propiedades
~ w

~ = 0 en la region
~ w

~ = 0 en la region
n
w
~ = 0 en la superficie.

(2.93)

~ w
Ya que
~ = 0, w
~ puede ser derivado de un potencial escalar
~ .
w
~ =

(2.94)

Ahora aplicamos el Teorema de Green, en la forma de la ecuacion (2.84), con u = v = ,


obteniendo
I
Z
h
i
~
~ ()
~
~
~
d~ () =
d
+
.
(2.95)
S

Reemplazando en la ecuacion (2.95), obtenemos


I
Z
~ w
d~ w
~=
d (
~ w
~ w)
~ .
S

(2.96)

40

CAPITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

Usando la ecuacion (2.93), que la integral de superficie en el lado izquierdo de la ecuacion y


~ w
la integral de volumen de
~ son ambas cero y que se cumple
Z
Z
d w
~ w
~=
d |w|
~ 2=0.
(2.97)
V

Ya que |w|
~ es siempre una cantidad positiva, la u
nica manera de que se satisfaga la ecuacion
(2.97) es que se cumpla w
~ = 0 en todo el espacio. Por tanto, ~v1 = ~v2 y hemos probado el
Teorema de Helmholtz.
El Teorema de Helmholtz es u
til para separar los campos vectoriales en dos partes, una
con rotor cero y otra con divergencia cero. Esta discusion se apoya en dos identidades
~ (
~ A)
~ =0

~
~ =0,

(2.98)
(2.99)

lo cual puede ser probado facilmente. Escribimos ~v como


~
~ .
~ A
~v =

(2.100)

~ ~v = 2

~ ~v =
~
~ A
~

~ A
~ )
~
n
~v = n
(
,

(2.101)

Luego, podemos escribir

~ y estan fijos,
ya que la divergencia, el rotor y la componente normal estan todas fijas si A
el Teorema de Helmholtz dice que ~v es u
nico. Notemos que la contribucion a ~v que viene
~
~
~
~ = 0. Esto es llamado el rotacional o la parte
de A no tiene divergencia, ya que ( A)
~ es llamado el potencial vector. La porcion de ~v que viene de
solenoidal del campo y A
~
~ = 0. Esto es llamado la parte irrotacional del campo y es
no tiene rotor, ya que
llamado el potencial escalar.

Captulo 3
Sistemas de Coordenadas Curvilneos.
versi
on final 1.0-0804151

Hasta este punto, nuestra discusion de operadores vectoriales, diferenciales e integrales ha


estado limitada a sistemas de coordenadas cartesianas. Aunque conceptualmente son simples,
estos sistemas a menudo no utilizan la simetra natural de ciertos problemas. Considere el
vector campo electrico creado por una carga puntual q ubicada en el origen de un sistema
cartesiano. Usando una base cartesiana de vectores, este campo es
x + y y + z z
~ = q x
.
E
2
(x + y 2 + z 2 )3/2

(3.1)

En contraste, un sistema esferico, descrito por las coordenadas (r, , ), explota completamente la simetra de este campo y simplifica la ecuacion (3.1) a
~ = q r ,
E
r2

(3.2)

El sistema esferico pertenece a la clase de sistema de coordenadas curvilneas. Los vectores


base de un sistema curvilneo son ortonormales, tal como los de un sistema cartesiano, pero
sus direcciones pueden ser funciones de la posicion.
Este captulo generaliza los conceptos de los captulos previos para incluir sistemas de
coordenadas curvilneos. Los dos sistemas mas comunes, esfericos y cilndricos son descritos
primero con el fin de proporcionar un marco para una discusion mas abstracta de coordenadas
curvilneas generalizadas que sigue.

3.1.

El vector posici
on

El vector posicion ~r(P ) asociado con un punto P describe el desplazamiento desde el


origen del sistema de coordenadas. Este tiene una magnitud igual a la distancia desde el
origen hasta P y una direccion que apunta desde el origen a este punto.
1

Este captulo est


a basado en el tercer captulo del libro: Mathematical Physics de Brusse Kusse & Erik
Westwig, editorial John Wiley & Sons, Inc..

41

42

CAPITULO 3. SISTEMAS DE COORDENADAS CURVILINEOS.

e1

e1
P
r (P)

r (P)

P
11
00
00
11
00
11

11
00
00
11
00
11

e2

e2

Figura 3.1: El vector posicion

Parece natural dibujar el vector posicion entre el origen y P como muestra la figura
3.1a. Aunque esto esta bien para sistemas de coordenadas cartesianas, esto puede acarrear
dificultades en sistemas curvilneos. Los problemas surgen debido a la dependencia de la
posicion de los vectores base del sistema curvilneo. Cuando dibujamos un vector, debemos ser
cuidadosos de donde esta ubicado. Si no lo hacemos, podra no ser claro como descomponer
el vector en terminos de su base. A pesar de esta dificultad, el vector y su base podran
ser dibujados partiendo desde un mismo punto. Las componentes del vector curvilneo son
entonces facilmente obtenidas proyectando el vector en sus bases. Consecuentemente, para
determinar las componentes del vector posicion, es mejor dibujarlo, as como sus vectores
base, emanando desde P . Esto es mostrado en la figura 3.1b. Hay situaciones, sin embargo,
en que es mejor dibujar el vector posicion desde el origen. Por ejemplo, integrales de lnea,
como la mostrada en la figura 2.2 son mejor descritas de esta forma, porque la punta del
vector posicion sigue el camino de integracion. Nosotros ubicaremos el vector posicion como
se muestra en la figura 3.1, dependiendo de cual es la mas apropiada para la situacion dada.
En coordenadas cartesianas, la expresion para el vector posicion es intuitiva y simple:
~r = ri ei = xi ei

(3.3)

Las componentes (r1 , r2 , r3 ) son facilmente identificadas como las coordenadas cartesianas
(x1 , x2 , x3 ). Formalmente, r1 es obtenida haciendo el producto punto entre el vector base e1
y el vector posicion ~r:
r1 = e1 ~r = x1

(3.4)

Si bien esto puede parecer exagerada, esta tecnica puede ser usada para encontrar las componentes de un vector en cualquier sistema de coordenadas ortogonales.

3.2.

El sistema cilndrico

Las coordenadas de un punto P descrito en un sistema cilndrico son (, , z). Las ecuaciones

3.2. EL SISTEMA CILINDRICO

43

x = cos
y = sen
z=z

(3.5)

y las correspondientes ecuaciones inversas

p
= x2 + y 2
= tan1 (y/x)
z=z

(3.6)

gobiernan la relacion entre coordenadas cilndricas y las coordenadas de un superimpuesto


sistema cartesiano, como muestra la figura 3.2a.
Los vectores base unitarios para el sistema cilndrico son mostrados en la figura 3.2b. Cada
vector base apunta en la direccion en que P se mueve cuando el correspondiente valor de la
coordenada es incrementado. Por ejemplo, la direccion de e se encuentra observando como P
se mueve al incrementar . Este metodo puede ser utilizado para determinar la direccion de
los vectores base de cualquier conjunto de coordenadas. A diferencia del sistema cartesiano,
los vectores base cilndricos no estan fijos. Como el punto P se mueve, las direcciones de e y
e cambian. Notemos tambien que si P se encuentra exactamente en el eje z, es decir, = 0,
las direcciones de e y e se indefinen.
Las coordenadas cilndricas, tomadas en el orden (, , z), forman un sistema de la mano
derecha. Si usted alnea su mano derecha a traves de e , y entonces rotar sus dedos apuntando
en la direccion de e , su pulgar apuntara en la direccion de ez . Los vectores base son tambien
as

e e = e ez = ez e = 0
e e = e e = ez ez = 1

(3.7)

El vector posicion expresado en coordenadas cilndricas es

~r = (~r e ) e + (~r e ) e + (~r ez ) ez

(3.8)

CAPITULO 3. SISTEMAS DE COORDENADAS CURVILINEOS.

44

ez
000
111
111
000

000
111
000
111
000
111
000
111
000
111
000
111
1
0
000
111
000
111
000
111
000
111
111
000
111
000
000
111
000
111

z
1
0

x
Figura 3.2: El sistema cilndrico

z
ez
1111
0000
0000
1111

0000
1111
0000
1111
0000
1111
000000
111111
000
111
0000
1111
1
0
000000
111111
000
111
000000
111111
000
111
000000
111111
000
111
000000
111111
000
000000111
111111
000
111
000000
111111
000
000000111
111111
000
111
000000
111111
000
111
000000
111111
000000
111111
000000
111111
000000
111111

ez

111111
000000
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
0000
1111
000000
111111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111

x
Figura 3.3: El vector posicion en el sistema cilndrico

Notemos que e esta siempre perpendicular a ~r, como se muestra en la figura 3.3, por lo
tanto la ecuacion (3.8) se reduce a
~r = r e + rz ez

(3.9)

La version bidimensional del sistema cilndrico, con solo las coordenadas (, ), es llamado
un sistema polar plano. Este sistema, mostrado en la figura 3.4a, tiene vectores base e y e .
El vector posicion, mostrado en la figura 3.4b, tiene solo una componente y es expresado
como
~r = e

(3.10)


3.3. SISTEMA ESFERICO

45

Recuerde que un vector arbitrario ~v , a diferencia del vector posicion, puede tener ambas
componentes ( y ), como se muestra en la figura 3.5.

e
11
00
00
11
00
11

11
00
00
11
00
11

x
Figura 3.4: El sistema polar

v
y

r
e

r
11
00
00
11
00
11

x
Figura 3.5: Componentes polares de un vector

3.3.

Sistema esf
erico

Las tres coordenadas (r, , ) describen un punto en un sistema de coordenadas polares


esfericas. Su relacion con un conjunto de coordenadas cartesianas se muestra en la figura 3.6.
Las ecuaciones

x = r sen cos
y = r sen sen
z = r cos
y las inversas

(3.11)

CAPITULO 3. SISTEMAS DE COORDENADAS CURVILINEOS.

46

r=

x2 + y 2 + z 2

= cos1
= cos1

x
p

x2 + y 2

(3.12)
!

z
p

x2 + y 2 + z 2

permiten una conversion entre los dos sistemas de coordenadas.


La base de vectores unitarios para el sistema esferico se muestra en la figura 3.6b. Como
con las coordenadas cilndricas, obtenemos la direccion de cada vector base incrementando la
coordenada asociada y observando como se mueve P . Note como los vectores base cambian
con la posicion de el punto P . Si P se encuentra en el eje z las direcciones para e y e no
estan definidas. Si P se encuentra en el origen er tampoco esta definido.
El sistema esferico, con las coordenadas en el orden (r, , ), es un sistema de la mano
derecha, tal como en el sistema Cartesiano y en el sistema cilndrico. Tambien es un sistema
ortonormal porque

er e = er e = e e = 0
er er = e e = e e = 1

(3.13)

z
e

1
0

111 r
000
000
111
000
111
000
111
00000
11111
000
111
00000
11111
000
111
00000
11111
000
111
0000
1111
1
0
00000
11111
000
111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111

y
x

y
x

Figura 3.6: El sistema esferico

3.4. SISTEMAS CURVILINEOS GENERALES

47

z
er

1
0

er

11
00

e
e

y
x
Figura 3.7: El vector posicion en coordenadas esfericas

El vector posicion, mostrado en la figura 3.7, esta expresado en el sistema esferico como
~r = (~r e ) e + (~r e ) e + (~r e ) e

(3.14)

Como ~r es siempre perpendicular a e y a e , la ecuacion (3.14) se simplifica a


~r = r
er

3.4.

(3.15)

Sistemas curvilneos generales

Aunque los mas comunes, el sistema de coordenadas cilndricas y el sistema de coordenadas polares esfericas son solo dos ejemplos de una gran familia de sistemas curvilneos.
Un sistema es clasificado como curvilneo si este tiene vectores base ortonormales, pero no
necesariamente constantes. Otros sistemas curvilneos menos comunes son el toroidal, el hiperbolico y el elptico. En lugar de trabajar individualmente con las operaciones vectoriales
del captulo anterior para cada uno de estos sistemas, se presenta un enfoque general que
pueda abordar cualquier geometra curvilnea.

3.4.1.

Coordenadas, vectores base y factores de escala

Las coordenadas (q1 , q2 , q3 ) y los correspondientes vectores base q1 , q2 y q3 seran usados


para representar cualquier sistema curvilneo generico como se ve en la figura 3.8. Debido
a que estos vectores base son funciones de posicion, deberamos siempre tener el cuidado
de dibujarlos saliendo desde un punto particular, como se menciono anteriormente en este
captulo.

CAPITULO 3. SISTEMAS DE COORDENADAS CURVILINEOS.

48

z
q1
11
00
00
11

P (q1 ,q2 ,q3)

q2
q3

y
x
Figura 3.8: Coordenadas curvilneas y vectores bases

En el sistema de coordenadas cilndrico y esferico exista un conjunto de ecuaciones que


relacionaban sus coordenadas con un conjunto standard de coordenadas cartesianas. Para
el caso general, escribimos estas ecuaciones como

xi = xi (q1 , q2 , q3 )
qi = qi (x1 , x2 , x3 ) ,

(3.16)
(3.17)

Donde el subndice de la notacion se ha arrastrado para mantener las cosas concisas. En


estas dos ecuaciones, el subndice i toma los valores (1, 2, 3). Las variables xi siempre representan coordenadas Cartesianas, mientras que los qi son coordenadas curvilneas generales.
Una expresion para qi , el vector base unitario asociado con la coordenada qi , puede ser
construida incrementando qi , observando como el vector posicion cambia y entonces normalizando:
qi =

~r/qi
hi

(3.18)

donde hi = |~r/qi |. Esta ecuacion es un poco confusa porque no hay una suma sobre el
ndice i en el lado derecho, aunque el ndice aparece dos veces. Esto esta sutilmente implcito
en la notacion, porque hay un subndice i al lado izquierdo. Los hi , los cuales a veces son
llamados factores de escala, obligan a los vectores base a tener largo unitario. Ellos pueden ser
escritos en terminos de las coordenadas curvilneas. Para ver esto, escriba el vector posicion
en terminos de sus componentes Cartesianas, que a su vez se escriben como funcion de las
coordenadas curvilneas:
~r = xj (q1 , q2 , q3 ) ej
Para ello,

(3.19)

3.4. SISTEMAS CURVILINEOS GENERALES

49

~r
xj (q1 , q2 , q3 )
=
ej
qi
qi

(3.20)

s
2 
2 
2
~r
x1
x2
x3


hi = =
+
+
qi
qi
qi
qi

(3.21)

La interpretacion fsica de los factores de escala es simple. Para un cambio dq1 de la


coordenada q1 , el vector posicion cambia una distancia |dq1 h1 |. Para ello, usando la ecuacion
(3.18), el vector desplazamiento puede ser escrito en el sistema curvilneo como

~r
dqi
qi
= dqi hi (q1 , q2 , q3 ) qi

d~r =

(3.22)

donde ahora hay una suma sobre el ndice i en el lado derecho ya que no hay subndice
en el lado izquierdo. Ya que los factores hi pueden cambiar con la posicion, un elemento
de volumen diferencial en un sistema curvilneo, no es necesariamente un cubo como en el
sistema Cartesiano. Como veremos en la proxima seccion, los lados de un volumen diferencial
en un sistema curvilneo varan en largo y pueden tener curvatura.

3.4.2.

Geometra diferencial.

La figura 3.9 representa una superficie diferencial encerrando en volumen infinitesimal en


un sistema curvilneo. Esta figura sera la base para la derivacion, en coordenadas curvilneas
generales, de la divergencia y el rotor, as como de integrales de superficie y de volumen.

CAPITULO 3. SISTEMAS DE COORDENADAS CURVILINEOS.

50

q3

11111111111111111111111
00000000000000000000000
q2
00000000000000000000000
11111111111111111111111
)d
00000000000000000000000
11111111111111111111111
q
d
00000000000000000000000
11111111111111111111111
+
00000000000000000000000
11111111111111111111111
,q 3
00000000000000000000000
11111111111111111111111
,q 2
00000000000000000000000
11111111111111111111111
q1
(
00000000000000000000000
2
h11111111111111111111111
00000000000000000000000
11111111111111111111111
00
11
00000000000000000000000
11111111111111111111111
( q , q2 ,q + dq 11
00
) 11111111111111111111111
00
1
3
00000000000000000000000
311
00000000000000000000000
11111111111111111111111
0000000000000000000
h1111111111111111111
00000000000000000000000
11111111111111111111111
( q , q ,q +
0000000000000000000
1111111111111111111
00000000000000000000000
11111111111111111111111
dq )
q2
0000000000000000000
1111111111111111111
3 dq
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
q ) dq
,
q
0000000000000000000
1111111111111111111
,
0000000000000000000000
1111111111111111111111
(q
0000000000000000000
1111111111111111111
0000000000000000000000
(q ,q ,q1111111111111111111111
) h
3

q1

(q

,q

,q )

dq

h3 (q1 ,q2 ,q3 ) d q3

Figura 3.9: Volumen diferencial de un sistema de coordenadas curvilneas

El volumen esta formado escogiendo un punto de partida (q1 , q2 , q3 ) y luego construyendo


otros siete vertices moviendose desde este punto con peque
nos cambios de coordenadas dq1 ,dq2
y dq3 . En el lmite diferencial, la longitud a lo largo de cada borde del cubo deformado
esta dado por el correspondiente dqi veces su factor de escala. El factor de escala se eval
ua en
un conjunto de coordenadas que corresponde a su valor inicial en el borde. Si la coordenada
qi es igual a qi + dqi todos a lo largo de un borde, este se fija en qi + dqi . Si la coordenada qi va
desde qi hasta qi + dqi en un borde, este se fija en qi . Esta es una manera un poco arrogante
de tratar la dependencia de la posicion de estos factores, aunque se den todos los resultados
correctos para nuestras derivaciones. Un acercamiento mas riguroso, en el cual eval
ua el valor
medio del factor de escala en cada borde puede ser hecha explcitamente.
Siguiendo este acercamiento, un elemento diferencial de volumen es simplemente
d = dq1 dq2 dq3 h1 h2 h3 |(q1 ,q2 ,q3 ) ,

(3.23)

donde los hi estan evaluados en el punto (q1 , q2 , q3 ). La superficie diferencial de la cara sombreada inferior es
d~inferior = dq1 dq2 h1 h2 q3 |(q1 ,q2 ,q3 ) ,

(3.24)

donde el signo menos es debido a que la superficie normal es antiparalela a q3 . Por el contrario,
la superficie diferencial de la cara sombreada superior es

3.4. SISTEMAS CURVILINEOS GENERALES

d~superior = dq1 dq2 h1 h2 q3 |(q1 ,q2 ,q3 +dq3 ) ,

51

(3.25)

El signo menos no aparece porque ahora la superficie es paralela a q3 . En este caso h1 , h2 y


el vector base q3 estan evaluados en el punto (q1 , q2 , q3 + dq3 ).

3.4.3.

El vector desplazamiento

El vector desplazamiento d~r juega un rol central en las matematicas de sistemas curvilneos. Una vez que la forma de d~r es conocida, las ecuaciones para la mayora de las
operaciones vectoriales puede ser facilmente determinada. Seg
un el calculo diferencial multivariable, d~r puede ser escrito
d~r =

~r
dqi .
qi

(3.26)

Como mostramos en la ecuacion (3.22), este puede ser escrito usando los factores de escala
como
d~r = dqi hi qi ,

(3.27)

En un sistema Cartesiano qi = xi , qi = ei y hi = 1, as la ecuacion (3.27) se convierte en


la familiar
d~r = dxi ei .

(3.28)

En coordenadas cilndricas, h1 = h = 1, h2 = h = y h3 = hz = 1 as
d~r = dq1 q1 + dq2 q2 + dq3 q3
= d
e + d
e + dz
ez .

3.4.4.

(3.29)

Producto de vectores

Como los sistemas curvilneos son ortonormales, tenemos que


qi qj = ij .

(3.30)

~ y B,
~ tienen la misma forma que
Esto significa que el producto punto de dos vectores, A
en un sistema Cartesiano:
~B
~ = Ai qi Bj qj = Ai Bj ij = Ai Bi .
A

(3.31)

Aqu Ai y Bi son las componentes curvilneas de los vectores, las cuales pueden ser
obtenidas tomando las proyecciones a los ejes paralelos de los vectores en los vectores base:
~ qi .
Ai = A

(3.32)

Con el orden correcto, siempre podemos arreglar nuestras tres coordenadas curvilneas
para ser un sistema de la mano derecha. Entonces, la forma del producto cruz es tambien

CAPITULO 3. SISTEMAS DE COORDENADAS CURVILINEOS.

52

~ yB
~ expresado usando los
la misma como en un sistema Cartesiano. El producto cruz de A
smbolos de Levi-Civita es
~B
~ = Ai qi Bj qj = Ai Bj qk ijk .
A

3.4.5.

(3.33)

La integral de lnea

Usando la expresion para el vector desplazamiento en la ecuacion (3.27), la integral de


lnea en sistemas curvilneos es sencillamente
Z
Z
d~r ~v =
dqj hj qj vi qi .
(3.34)
C

En el lado derecho de la ecuacion hay una suma sobre i y j. Ya que la base de vectores
curvilneos es ortonormal, la integral de lnea se transforma en
Z
Z
d~r ~v =
dqj hj vj .
(3.35)
C

3.4.6.

Integral de superficie

Las integrales de superficies curvilneas son un poco mas complicadas debido a que se debe
considerar la orientacion de la superficie. Recordando la figura 3.9 y las ecuaciones (3.24) y
(3.25), la integral de superficie de un vector V~ es
Z
Z
~
d~ V =
dq1 dq2 h1 h2 V3 dq2 dq3 h2 h3 V1 dq1 dq3 h1 h3 V2 ,
(3.36)
C

donde cada signo mas o menos debe ser elegido dependiendo del signo de d~ qi .

3.4.7.

La integral de volumen

La geometra de la figura 3.9 puede ser usada para derivar la forma de integrales de lnea en
sistemas curvilneos. El elemento de volumen en el lmite infinitesimal, es simplemente d =
dq1 dq2 dq3 h1 h2 h3 (q1 , q2 , q3 ). Para ello la integral de una funcion (~r) sobre alg
un volumen V
es expresada como
Z
Z
d (~r) =
dq1 dq2 dq3 h1 h2 h3 (q1 , q2 , q3 ) .
(3.37)
V

3.4.8.

El gradiente

En el captulo 2, mostramos como el gradiente de una funcion escalar se define como


~ d~r .
d =

(3.38)

Usando la ecuacion (3.27) para d~r tenemos que


~ dqj hj qj .
d =

(3.39)

3.4. SISTEMAS CURVILINEOS GENERALES

53

El calculo diferencial implica que d = (/qi )dqi , as

~ dqj hj qj .
dqi =
qi
La u
nica forma de que se cumpla la ecuacion (3.40) es que
 
1

~ =
qi .

hi qi

3.4.9.

(3.40)

(3.41)

La divergencia

La operacion divergencia en un sistema curvilneo es mas complicada que el gradiente y


debe ser obtenida desde la definicion de integral
~ A
~ = lm

S,V 0

H
SR

~
d~ A
d
V

(3.42)

donde S es la superficie cerrada que encierra al volumen V .


Consideremos nuevamente el volumen diferencial de la figura 3.9. El denominador de la
ecuacion (3.42) para este volumen en el lmite infinitesimal es sencillo
Z
d = dq1 dq2 dq3 h1 h2 h3 .
(3.43)
V

Para evaluar el numerador, la integracion sobre las seis superficies de V debe ser desarrollada. Primero, consideremos las dos caras sombreadas de la figura 3.9, con las normales
alineadas paralela o antiparalelamente a q3 . La integral sobre la superficie interior es
Z
~ = dq1 dq2 (h1 h2 A3 )|
d~ A
(3.44)
(q1 ,q2 ,q3 ) .
inferior

El signo menos surge porque en esta superficie d~ y q3 estan antiparalelas. Note tambien
que A3 , h1 y h2 son todas funciones de las coordenadas curvilneas y estan evaluadas en
(q1 , q2 , q3 ), el valor inicial de las coordenadas en esta superficie. La integral sobre la superficie
superior es
Z
~ = dq1 dq2 (h1 h2 A3 )|
d~ A
(3.45)
(q1 ,q2 ,q3 +dq3 ) .
superior

En este caso no hay signo menos porque la superficie normal esta orientada paralela a q3 .
El valor inicial de la coordenada q3 ha cambiado en dq3 comparado con la superficie inferior
y por lo tanto A3 , h1 y h2 deben ser evaluados en el punto (q1 , q2 , q3 + dq3 ). En el lmite
diferencial

(h1 , h2 A3 )
,
(3.46)
(h1 , h2 A3 )|(q1 ,q2 ,q3 +dq3 ) = (h1 , h2 A3 )|(q1 ,q2 ,q3 ) +

q3
(q1 ,q2 ,q3 )
as la suma de las ecuaciones (3.44) y (3.45) es

CAPITULO 3. SISTEMAS DE COORDENADAS CURVILINEOS.

54

Z
ambas

~ = (h1 h2 A3 ) dq1 dq2 dq3 .


d~ A
q3

(3.47)

Combinando este resultado con integraciones similares sobre las restantes cuatro superficies


Z
(h
h
A
)
(h
h
A
)
(h
h
A
)
2
3
1
1
3
2
1
2
3
~=
d~ A
+
+
dq1 dq2 dq3 .
(3.48)
q1
q2
q3
S
Sustituyendo las ecuaciones (3.43) y (3.48) en la ecuacion (3.42) obtenemos el resultado


1
(h
h
A
)
(h
h
A
)
(h
h
A
)
2
3
1
1
3
2
1
2
3
~=
~ A

+
+
.
(3.49)
h1 h2 h3
q1
q2
q3

3.4.10.

El rotor

El rotor para un sistema de coordenadas curvilneas tambien puede ser derivada desde la
definicion de integral:
Z
I
~
~
~,
A lm
d~ = lm
d~r A
(3.50)
S0

C0

donde C es un camino cerrado que encierra a la superficie S y la direccion de d~ es definida


va C y por la convencion de la mano derecha.

3
2
C

q1
1
Figura 3.10: Orientacion de la superficie para la integracion curvilnea del rotor

Una componente del rotor puede ser escogida orientando d~ en la direccion de un vector
base. Consideremos la figura 3.10, donde d~ esta orientado para elegir la componente q1 , en
este caso d~ = h2 q2 h3 dq3 q1 , as el lado izquierdo de la ecuacion (3.50) en el lmite diferencial
se convierte en

3.4. SISTEMAS CURVILINEOS GENERALES

~ A
~ lm

S0

55

h
i
~ A
~ ,
d~ = dq2 dq3 h2 h3 q1
i
h
~ A
~ .
= dq2 dq3 h2 h3

(3.51)

La integral de lnea en el lado derecho de la ecuacion (3.50) naturalmente divide en cuatro


partes a lo largo de Ca , Cb , Cc y Cd , como se muestra en la figura 3.11. La integral completa
es entonces dada por
I
C

~=
d~r A

dq2 h2 A2 +
Ca

dq3 h3 A3 +
Cb

dq2 h2 A2 +
Cc

dq3 h3 A3 .

(3.52)

Cd

111111111111111
000000000000000
000000000000000
111111111111111
2
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
3
000000000000000
111111111111111
000000000000000
111111111111111
2
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
1
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
2
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
e
000000000000000
111111111111111

)d
,q
q
,
(q

00
(q1 ,q2 ,q3 + dq )11
00
11
00
3 11

Cb
C

Cd
111111111111111
000000000000000
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
a
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
2
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
3
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
2
000000000000000
111111111111111
000000000000000
111111111111111
11
00
1
000000000000000
111111111111111
11
00
000000000000000
111111111111111
000000000000000
111111111111111
2
000000000000000
111111111111111

(q1 ,q2 ,q3)

)d
,q
q
,
(q

Figura 3.11: Geometra diferencial para integracion curvilnea del rotor

En el lmite diferencial, la integral a traves de Ca vale


Z
dq2 h2 A2 = (h2 A2 )|(q1 ,q2 ,q3 ) dq2 ,

(3.53)

Ca

donde evaluamos A2 y h2 en el punto (q1 , q2 , q3 ). Igualmente, la contribucion a lo largo de


Cc es
Z
dq2 h2 A2 = (h2 A2 )|(q1 ,q2 ,q3 +dq3 ) dq2
(3.54)
Cc

donde ahora evaluamos A2 Y h2 en (q1 , q2 , q3 + dq3 ). En el lmite diferencial,



(h2 A2 )
(h2 A2 )|(q1 ,q2 ,q3 +dq3 ) = (h2 A2 )|(q1 ,q2 ,q3 ) +
dq3 ,
q3 (q1 ,q2 ,q3 )

(3.55)

CAPITULO 3. SISTEMAS DE COORDENADAS CURVILINEOS.

56

lo cual permite que las integrales a lo largo de Cb y Cd se combinen para dar



Z

(h
A
)
2
2
~=

dq2 dq3 .
d~r A
q3 (q1 ,q2 ,q3 )
Ca +Cc

(3.56)

Integraciones similares pueden ser desarrolladas a lo largo de Cb y Cd . La combinacion de


las cuatro partes lleva a


I
(h3 A3 ) (h2 A2 )
~
lm
A d~r =

dq2 dq3 .
(3.57)
C0 C
q2
q3
Sustituyendo las ecuaciones (3.57) y (3.51) en la ecuacion (3.50) tenemos la 1-componente
~
del rotor de A:


h
i
1
(h
A
)
(h
A
)
3
3
2
2
~ A
~ =

.
(3.58)
h2 h3
q2
q3
1
~ A
~ pueden ser obtenidas reorientando la superficie mostrada
Las otras componentes de
en la figura 3.10. Los resultados son


1
(h
A
)
(h
A
)
1
1
3
3
~ A
~ =

h1 h3
q3
q1
2


h
i
(h
A
)
1
(h
A
)
2
2
1
1
~ A
~ =
,

h1 h2
q1
q2
3
h

(3.59)
(3.60)

Las ecuaciones (3.58)-(3.60) pueden ser usadas mas compactamente usando un determinante,


h1 q1
h2 q2
h3 q3

1
~ A
~=
/q1 /q2 /q3 ,
(3.61)

h1 h2 h3
h1 A1 h2 A2 h3 A3
o usando los smbolos de Levi-Civita y la notacion de Einstein,
~ A
~ = ijk (hk Ak ) qi .

hj hk qj

3.5.
3.5.1.

(3.62)

Gradiente, divergencia y rotor en sistemas cilndricos y esf


ericos
Operaciones cilndricas

En el sistema cilndrico h1 h = 1, h2 h = y h3 hz = 1. El gradiente, la


divergencia y el rotor se convierten en
~ = q + 1 q + qz

(3.63)


3.5. GRADIENTE, DIVERGENCIA Y ROTOR EN SISTEMAS CILINDRICOS Y ESFERICOS57

~ A
~ = 1 (A ) + 1 A + Az



z





A
A
A
A
1
(A
)
A
1
z

~ A
~=

q +

q +

qz .


z
z

(3.64)

3.5.2.

(3.65)

Operaciones esf
ericas

En el sistema esferico h1 hr = 1, h2 h = r y h3 h = r sen . El gradiente , la


divergencia y el rotor se convierten en

~ A
~=

~ = qr + 1 q + 1 q

r
r
r sen

(3.66)

2
~ A
~ = 1 (r Ar ) + 1 sen A + 1 A

r2 r
r sen

r sen

(3.67)



1
(sen A ) A

qr +
r sen





1
1 Ar (rA )
1 (rA ) Ar

q +

q . (3.68)
r sen
r
r
r

58

CAPITULO 3. SISTEMAS DE COORDENADAS CURVILINEOS.

Captulo 4
Introducci
on a tensores.
versi
on final 1.0-0804151

Los tensores se encuentran en todas las ramas de la Fsica. En mecanica, el tensor de


inercia es usado para describir la rotacion de un cuerpos rgidos, y el tensor de stress-tension
describe la deformacion de cuerpos rgidos. En electromagnetismo, el tensor de conductividad
extiende la ley de Ohm para manejar flujos de corriente en un medio anisotropico, y el tensor
de stress de Maxwell es la forma mas elegante para tratar las fuerzas electromagneticas. El
tensor de metrica de la mecanica relativista describe la extra
na geometra del espacio y el
tiempo.
Este captulo presenta una introduccion a tensores y sus manipulaciones, donde la forma
de proceder es la siguiente: primero trataremos solo con coordenadas cartesianas, para despues generalizar a coordenadas curvilneas. Solo nos limitaremos a sistemas de coordenadas
ortonormales. Al final de este captulo, introduciremos unos objetos que se les suele llamar
pseudo-objetos, los cuales surgiran de considerar las transformaciones entre sistemas de
coordenadas que cumplen la ley de la mano derecha y de la izquierda.

4.1.

El tensor de conductividad y la ley de Ohm.

La necesidad de tensores pueden ser facilmente demostradas considerando la ley de Ohm.


En una resistencia ideal, la ley de Ohm relaciona la corriente con el voltaje usando la expresion
lineal
I=

V
.
R

(4.1)

En esta ecuacion, I es la corriente que circula a traves de la resistencia y V es el voltaje


`
aplicado. Usando unidades MKS, I es medido en Amperes,
V en Volts y R en Ohms.
La ecuacion (4.1) describe el flujo de corriente a traves de un elemento discreto. Para
aplicar la ley de Ohm a un medio distribuido, como un solido cristalino, una forma alternativa
de esta ecuacion debe ser utilizada
~ .
J~ = E
1

(4.2)

Este captulo est


a basado en el cuarto captulo del libro: Mathematical Physics de Brusse Kusse & Erik
Westwig, editorial John Wiley & Sons, Inc..

59

60

A TENSORES.
CAPITULO 4. INTRODUCCION

~ es el campo electrico y es la conductividad del


Aqu J~ es la densidad de corriente, E
`
~ en Volts por
material. En unidades MKS, J~ es medido en Amperes
por unidad de area, E
metro y en Ohm-metros a la menos uno.
La ecuacion (4.2) describe una simple dependencia fsica entre la densidad de corriente
y el campo electrico, ya que la conductividad ha sido expresada como un escalar. Con una
conductividad escalar, la cantidad de flujo de corriente es gobernado u
nicamente por las
~
~ Pero en
magnitudes y E, mientras que la direccion del flujo es siempre paralela a E.
algunos materiales, esto no es as. Muchos solidos cristalinos permiten que el flujo de corriente
se desplace por una direccion mas que por otra. Estos materiales anisotropicos deben tener
distintas conductividades en distintas direcciones. Ademas, estos cristales pueden inclusive
presentar flujo de corriente de forma perpendicular a un campo electrico aplicado. Claramente
la ecuacion (4.2), con una conductividad escalar, no podra manejar este tipo de situaciones.
Una solucion es construir un arreglo de elementos de conductividad y expresar la ley de
Ohm usando la notacion matricial


E1
11 12 13
J1
J2 = 21 22 23 E2 .
(4.3)
E3
31 32 33
J3
En la ecuacion (4.3), la densidad de corriente y el campo electrico son representados como
vectores columna de un campo vectorial y la conductividad es ahora una matriz cuadrada.
Esta ecuacion puede ser escrita en una notacion matricial mas compacta
[J] = [][E]

(4.4)

Ji = ij Ej .

(4.5)

o, en notacion de Einstein

Todas estas expresiones producen el resultado deseado. Cualquier relacion lineal entre J~ y
~ puede ser descrita. Por ejemplo, la componente 1 de la densidad de corriente esta relacioE
nada con la componente 1 del campo electrico por 11 , mientras que la componente 2 de la
densidad de corriente esta relacionada con la componente 2 del campo electrico por 22 . Los
flujos perpendiculares estan descritos por los elementos fuera de la diagonal. Por ejemplo, el
elemento 12 describe el flujo en la direccion 1 debido a un campo aplicado en la direccion 2.
Sin embargo, la representacion matricial de la conductividad anisotropica tiene un problema fundamental. Los elementos matriciales deben depender del sistema de coordenadas.
Tal como sucede con las componentes de un vector, si reorientamos nuestro sistema de coordenadas, los valores especficos en el arreglo matricial deben cambiar. Lamentablemente, el
arreglo matricial en s no tiene la informacion sobre el sistema de coordenadas elegido. La
manera de resolver este problema para las cantidades vectoriales fue incorporar los vectores
base directamente en la notacion. La misma aproximacion puede ser usada para mejorar
la notacion para la conductividad anisotropica. Definimos un nuevo objeto, llamado el ten
sor de conductividad, que notaremos . Este objeto incluye tanto los elementos de matriz
de la matriz de conductividad como la base de vectores en el sistema de coordenadas en
cual estos elementos son validos. Como esta notacion esta motivada en la notacion vectorial,
comenzaremos con una peque
na revision de conceptos.

4.1. EL TENSOR DE CONDUCTIVIDAD Y LA LEY DE OHM.

61

Recordemos que una cantidad vectorial, tal como el campo electrico, puede ser representado como un vector columna

E1
~

E E2 .
(4.6)
E3
El vector y las cantidades matriciales no son iguales, ya que la matriz no puede reemplazar
~ en una ecuacion vectorial y viceversa. Mas a
al vector E
un, la base de vectores del sistema
coordenado en la cual el vector esta expresado debe ser incluida para formar una expresion
equivalente
~ = Ei ei .
E

El tensor de conductividad anisotropico


representado por un arreglo matricial

11

21
31

(4.7)

puede ser tratado de manera similar. Puede ser

12 13
22 23 ,
32 33

(4.8)

pero el arreglo matricial y el tensor no son equivalentes, ya que el arreglo matricial no contiene
la informacion sobre el sistema de coordenadas. Siguiendo el patron usado para los vectores y
la expresion para un vector dada en la ecuacion (4.7), expresamos el tensor de conductividad
como

= ij ei ej .

(4.9)

La discusion que sigue mostrara que esta es una notacion muy poderosa. Soporta toda la manipulacion algebraica que la notacion de matrices y tambien podemos manejar con facilidad
las transformaciones entre sistemas de coordenadas.
La expresion para el tensor de conductividad en el lado derecho de la ecuacion (4.9)
contiene los elementos de la matriz de conductividad y dos bases de vectores del sistema
de coordenadas donde los elementos tienen validez. No hay operacion entre estas bases de
vectores. Ellos sirven como cajones en donde los elementos ij son colocados. Hay una doble
suma sobre los ndices i e j, por tanto, para un sistema tridimensional, habran 9 terminos
en esta suma, cada uno conteniendo dos de los vectores base. En otras palabras, podemos
expandir la conductividad como
XX

=
ij ei ej = 11 e1 e1 + 12 e1 e2 + 21 e2 e1 + .
(4.10)
i

Analogamente a como expandamos un vector en terminos de la base,


X
~v =
vi ei = v1 e1 + v2 e2 + v3 e3 .

(4.11)

Veamos como manejamos la ley de Ohm en esta nueva notacion. Usando el tensor de conductividad, podemos escribir en un sistema de coordenadas independiente y usando notacion
vector/tensor

A TENSORES.
CAPITULO 4. INTRODUCCION

62

~ .
J~ = E

(4.12)

Notemos que usamos el producto punto entre el tensor de conductividad y el vector del campo
electrico en el lado derecho de esta expresion. Podemos utilizar la notacion de Einstein, y
escribir
Js es = (jk ej ek ) (El el ) .

(4.13)

Por convencion, el producto punto en la ecuacion (4.13) opera entre la segunda base vectorial

~ Podemos manipular la ecuacion (4.13) como sigue


de y la base del vector E.
Js es = jk El ej ek el
Js es = jk El ej kl
Js es = jk Ek ej .

(4.14)
(4.15)
(4.16)

Las cantidades en la ecuacion (4.16) son vectores. Las componentes i-esimas de estos vectores
pueden ser obtenidos aplicando producto punto con ei a ambos lados de la ecuacion (4.16),
obteniendo
Ji = ik Ek ,

(4.17)

lo cual es identico a las ecuaciones (4.3)-(4.5). Mantengamos en mente que hay una diferencia

~ yE
~
entre E
. El orden en los terminos importan, ya que en general
ej ek el 6= el ej ek ,

(4.18)

Las bases de vectores en esta notacion cumplen variadas funciones


1. Establecen cajones para separar las componentes tensoriales.
2. Emparejan a las componentes con un sistema de coordenadas.
3. Establecen el formalismo para operaciones algebraicas entre tensores.
4. Como es mostrado en este captulo, simplifican el formalismo para las transformaciones
entre sistemas de coordenadas.
Ahora que hemos motivado nuestra investigacion sobre los tensores con un ejemplo especfico, procedemos a mirar algunas de sus propiedades formales.

4.2.

Notaci
on tensorial general y terminologa.

El tensor de conductividad es un ejemplo especfico de un tensor que usa dos bases vectoriales y cuyos elementos tienen dos subndices. En general, un tensor puede tener una cantidad finita de subndices, pero el n
umero de subndices deben ser siempre igual al n
umero
de vectores base. Por tanto, en general

4.3. TRANSFORMACIONES ENTRE SISTEMAS DE COORDENADAS.

T = Tijk... ei ej ek . . . .

63

(4.19)

El n
umero de vectores base determina el rango del tensor. Notemos como la notacion tensorial
es una generalizacion de la notacion vectorial usada en los captulos previos. Los vectores son
simplemente tensores de rango uno. Los escalares pueden ser considerados como tensores de
rango cero. Mantengamos en mente el rango del tensor con el n
umero de vectores base en
el lado derecho de la ecuacion (4.19), mientras que la dimension del sistema de coordenadas
determina el n
umero de valores diferentes que un ndice en particular puede tomar. Para un
sistema tridimensional, los ndices (i, j, k, etc.) pueden tomar los valores (1,2,3) cada uno.
Esta notacion introduce la posibilidad de una nueva operacion entre los vectores, llamada
~ : B
~ o simplemente A
~ B.
~ El
el producto diadico. Este producto es escrito tanto como A
producto diadico entre dos vectores crea un tensor de rango dos
~B
~ = Ai ei Bj ej = Ai Bj ei ej .
A

(4.20)

Este tipo de operacion puede ser extendida para combinar dos tensores de un rango arbitrario. El resultado es un tensor con un rango igual a la suma de los rangos de los tensores
involucrados en el producto. Usualmente esta operacion es llamada un producto externo, lo
cual es opuesto al producto punto, el cual es llamado producto interno.

4.3.

Transformaciones entre sistemas de coordenadas.

La nueva notacion tensorial de la ecuacion (4.19) hace mas facil la tarea de transformar
vectores entre distintos sistemas de coordenadas. De hecho, muchos textos definen formalmente un tensor como un objeto que transforma como un tensor. Esto parece no tener mucho
sentido, como sera visto en esta seccion, pero es la definicion correcta.
En este captulo solo las transformaciones entre sistemas ortonormales son considerados.
Primero solo veremos las tranformaciones entre sistemas cartesianos, para luego generalizar
estos resultados a sistemas curvilneos.

4.3.1.

Transformaciones vectoriales entre sistemas cartesianos.

Comenzaremos viendo las transformaciones de componentes entre dos sistemas cartesianos


muy sencillos. Un sistema prima es rotado un angulo 0 con respecto a un sistema sin primas,
como es mostrado en la figura 4.1. Un vector ~v puede ser expresado en componentes como
~v = vi ei = vi0 e0i .

(4.21)

De la geometra de la figura 4.1, podemos ver que las componentes vectoriales en el sistema
primado estan relacionadas con las componentes vectoriales del sistema no primado por las
ecuaciones
v10 = v1 cos 0 + v2 sen 0
v20 = v1 sen 0 + v2 cos 0 .

(4.22)

A TENSORES.
CAPITULO 4. INTRODUCCION

64

1
e2
e2

e1

e1

Figura 4.1: Sistemas rotados.


Estas ecuaciones pueden ser escritas en notacion matricial
[v 0 ] = [a][v] ,

(4.23)

donde [v 0 ] y [v] son matrices columna que representan el vector ~v con las componentes primas
y no primas, y [a] es la matriz cuadrada


cos 0 sen 0
.
(4.24)
[a] =
sen 0 cos 0

4.3.2.

La matriz de transformaci
on.

En general, cualquier transformacion lineal de coordenadas de un vector puede ser escrita


usando la notacion de Einstein
vi0 = aij vj ,

(4.25)

donde [a] es llamada la matriz de transformacion. En la discusion que sigue, dos suposiciones
simples son presentadas para determinar los elementos de [a]. La primera supone que los dos
sistemas tienen vectores base conocidos. La segunda supone el conocimiento de las ecuaciones que relacionan las coordenadas. En este ejemplo utilizaremos el sistema de coordenadas
cartesiano, sin embargo no es difcil generalizar a cualquier sistema de coordenadas.
Determinando [a] desde la base de vectores.
Si la base de vectores de ambos sistemas coordenados son conocidos, es bastante simple
determinar las componentes de [a]. Consideremos un vector ~v expresado por componentes en
2
v2

v2
1

v1

v1

Figura 4.2: Componentes del vector.

4.3. TRANSFORMACIONES ENTRE SISTEMAS DE COORDENADAS.

65

dos sistemas cartesianos diferentes


~v = vk ek = vi0 e0i .

(4.26)

Sustituyendo la expresion para vi0 dada en la ecuacion (4.25) en (4.26), tenemos


vk ek = aij vj e0i .

(4.27)

Esto es verdad para cualquier ~v . En particular, sea ~v = em uno de los vectores base del
sistema no primado (en otras palabras, vk6=m = 0 y vk=m = 1), obtenemos
em = alm e0i .

(4.28)

Aplicando producto punto por e0n en ambos lados, obtenemos


anm = (
e0n em ) .

(4.29)

Notemos que los elementos de [a] son solo cosenos directores entre todos los pares de vectores
base entre los sistemas primado y no primado.
Determinando [a] desde las ecuaciones de coordenadas.
Si la base de vectores no es conocida explcitamente, las ecuaciones que relacionan los
dos sistemas proveen el metodo mas rapido para determinar la matriz de transformacion.
Comencemos considerando las expresiones para el vector desplazamiento en los dos sistemas.
Como los sistemas son cartesianos,
d~r = dxi ei = dx0i e0i ,

(4.30)

donde dxi y dx0i son los diferenciales totales de las coordenadas. Como la ecuacion (4.25)
representan las componentes de cualquier vector, includo el vector de desplazamiento
dx0i = aij dxj .

(4.31)

La ecuacion (4.31) provee un metodo general para obtener los elementos de matriz de [a]
usando las coordenadas primas y no primas. Trabajando en tres dimensiones, asumamos que
estas ecuaciones son
x01 = x01 (x1 , x2 , x3 )
x02 = x02 (x1 , x2 , x3 )
(4.32)
0
0
x3 = x3 (x1 , x2 , x3 ) ,
o en forma compacta
x0i = x0i (x1 , x2 , x3 ) .
Expandiendo los diferenciales totales de la ecuacion (4.32), tenemos

(4.33)

A TENSORES.
CAPITULO 4. INTRODUCCION

66

x01 (x1 , x2 , x3 )
x0 (x1 , x2 , x3 )
x0 (x1 , x2 , x3 )
dx1 + 1
dx2 + 1
dx3
x1
x2
x3
x02 (x1 , x2 , x3 )
x02 (x1 , x2 , x3 )
x02 (x1 , x2 , x3 )
0
dx1 +
dx2 +
dx3
dx2 =
x1
x2
x3
x03 (x1 , x2 , x3 )
x0 (x1 , x2 , x3 )
x0 (x1 , x2 , x3 )
dx03 =
dx1 + 3
dx2 + 3
dx3 .
x1
x2
x3
dx01 =

Nuevamente, usando la notacion de Einstein, podemos escribir lo anterior como


dx0i =

x0i (x1 , x2 , x3 )
dxj .
xj

(4.34)

Comparando las ecuaciones (4.31) y (4.34), podemos identificar los elementos de [a]
aij =

x0i (x1 , x2 , x3 )
.
xj

(4.35)

Propiedad ortonormal de [a].


Si el sistema de coordenadas original y el primado son ambos ortonormales, podemos
escribir una u
til relacion entre los elementos de [a]. Se puede derivar facilmente aplicando
producto punto con ek en la ecuacion (4.28)
ej = aij e0i
ej ek = aij (
e0i ek )
jk = aij aik .

(4.36)

La ecuacion (4.36) escrita en forma matricial queda


[a][a] = [1] ,

(4.37)

donde [a] es la notacion para la transpuesta conjugada de [a], y la matriz [1] es una matriz
cuadrada, con 1 en la diagonal y 0 fuera de ella.
La inversa de [a].
La matriz [a] genera las componentes de los vectores en el sistema primado desde las
componentes sin primas, como es indicado en la ecuacion (4.25). Esta expresion puede ser
invertida con la inversa de [a], la cual es escrita como [a]1 , y esta definida por
[a][a]1 = [a]1 [a] = [1] ,

(4.38)

1
a1
ij ajk = aij ajk = ik .

(4.39)

o en notacion de Einstein

4.3. TRANSFORMACIONES ENTRE SISTEMAS DE COORDENADAS.

67

Con la notacion de Einstein, manejamos facilmente la inversion


vi0
0
a1
ki vi
0
a1
ki vi
0
a1
ki vi

= aij vj
= a1
ki aij vj
= kj vj
= vk .

(4.40)

Las matrices de transformacion que obedecen la condicion de ortonormalidad son simples de


invertir. Comparando la ecuacion (4.37) y (4.38) muestra que
[a]1 = [a] ,

(4.41)

a1
ij = aji .

(4.42)

vi = aji vj0 .

(4.43)

o en notacion de Einstein

La relacion de inversion se convierte en

Transformaciones de vectores base.


Los vectores base no primados fueron relacionados con la base del sistema primado por
la ecuacion (4.28)
ei = aji e0j .

(4.44)

Usando el hecho que la inversa de la matriz [a] es su transpuesta, esta expresion puede ser
invertida para obtener la base de vectores primada en terminos de los no primados
e0j = aij ei .

(4.45)

Recordemos que estas expresiones son solo validas para transformaciones si ambos sistemas
son ortonormales.

4.3.3.

Resumen de transformaciones de coordenadas.

El siguiente cuadro resume las ecuaciones de las transformaciones entre dos sistemas
cartesianos
vi0 = aij vj
vi = aji vj0

e0i = aij ej
ei = aji e0j

aij = (
e0i ej ) = x0i (x1 , x2 , x3 )/xj
Las funciones x0i = x0i (x1 , x2 , x3 ) relacionan el sistema de coordenadas cartesiano primado
con el sistema cartesiano no primado. Para mantener las cosas ordenadas, notemos que hay
un patron para estas ecuaciones de transformacion. Cada vez que convertimos del sistema no

A TENSORES.
CAPITULO 4. INTRODUCCION

68

primado con el sistema primado, estamos tratando con una base vectorial o las componentes
de alg
un vector, sumamos sobre el segundo ndice aij . Por el contrario, las conversiones desde
el sistema primado al sistema no primado siempre se sumara sobre el primer ndice.

4.3.4.

Transformaciones tensoriales.

Para entender por que los elementos de un tensor deben cambiar de valor cuando son
expresados en distintos sistemas de coordenadas, consideremos el tensor de conductividad. Si
fijamos el set de coordenadas y la corriente fluye mas facilmente en la direccion 1 que en la
direccion 2, entonces 11 > 22 . Si observamos la misma situacion fsica en un nuevo sistema
de coordenadas donde la direccion 10 es equivalente a la direccion 2 y la direccion 20 es la
0
0
misma que la direccion 1 original, entonces deberamos tener que 11
< 22
. Claramente los
elementos del tensor de conductividad deben tomar diferentes valores en los dos sistemas,
a
un cuando describen la misma situacion Fsica. Esto es cierto tambien para una cantidad
vectorial, el mismo vector velocidad tienen diferentes componentes en diferentes sistemas de
coordenadas.
Las transformaciones tensoriales siguen el mismo patron que las tranformaciones vectoriales. Un vector expresado en un sistema primado y no primado seguira siendo el mismo
vector,
~v = vi ei = vj0 e0j .

(4.46)

De la misma forma, siguiendo la notacion de la ecuacion (4.19), las expresiones para un tensor
de segundo rango en los dos sistemas deben obedecer

0 0 0
T = Tij ei ej = Trs
er es .

(4.47)

0
Aqu yace la belleza de la notacion. La relacion entre los elementos Tij y Trs
es construda
desde la ecuacion (4.47) y es facilmente obtenida aplicando dos veces producto punto en
ambos lados. Del primer producto punto obtenemos

el Tij ei ej
Tij (
el ei )
ej
Tij li ej
Tlj ej

0 0 0
= el Trs
er es
0
= Trs (
el e0r )
e0s
0
arl e0s
= Trs
0
= Trs
arl e0s .

(4.48)

Aplicando un segundo producto punto y realizando el proceso analogo obtenemos


0
Tlm = Trs
arl asm .

(4.49)

Para invertir la ecuacion (4.49) usamos la matriz inversa [a]1 dos veces, y recordando que
para sistemas de coordenadas ortonormales se cumple que a1
ij = aji , obtenemos
0
Tlm
= Trs alr ams .

(4.50)

En general, las transformaciones tensoriales requieren un factor aij para cada subndice
en el tensor. En otras palabras, un rensor de rango r necesita r diferentes factores aij . Si

DE TENSORES.
4.4. DIAGONALIZACION

69

la transformacion va desde el sistema sin prima al sistema prima, todos los factores aij
son sumadas sobre el segundo subndice. Para la transformacion inversa, desde el sistema
primado al sistema no primado, las sumas son sobre el primer subndice. Las transformaciones
tensoriales, para tensores de rango arbitrario, pueden ser resumidas como siguen
0
Tijk...
= Trst... air ajs akt . . .
0
Tijk... = Trst...
ari asj atk . . .

donde los elementos de la matriz [a] estan dados por la ecuacion (4.35).
Hay otro asunto importante en la notacion tensorial de la ecuacion (4.19). Al contrario
de la ecuacion matricial, donde todos los terminos deben estar en la misma base, la notacion
tensorial/vectorial permite que las ecuaciones esten en bases distintas. Imaginemos que los
elementos de la ecuacion de Ohm expresados en los sistemas primados y no primados sean
los siguientes
J~ = Ji ei = Ji0 e0i
~ = Ei ei = Ei0 e0i
E

(4.51)

= ij ei ej = ij0 e0i e0j .

La ley de Ohm queda

~ ,
J~ = E

(4.52)

y cualquier combinacion de las representaciones de la ecuacion (4.51) pueden ser usados en


la evaluacion. Por ejemplo,
0 0 0
0
0
Ji ei = (jk
ej ek ) (El el ) = jk
El e0j (
e0k el ) = jk
El e0j akl .

(4.53)

El hecho que los elementos de del sistema primado sean combinados con las componentes
~ del sistema no primado no representa un problema. El producto punto de las bases de
de E
los vectores toma en cuenta las representaciones mezcladas, siempre y cuando el orden de las
bases de los vectores sea preservado. Esto es acompa
nado en la ecuacion (4.53) por el hecho
0
que ek el 6= kl . Este tipo de operacion no puede ser hecho con la notacion matricial sin antes
convertir todo a una misma base.
Con esto debera quedar claro el valor de expresar un tensor de la forma como se ve en
(4.19). Ademas de poder manejar las manipulaciones algebraicas como una matriz, tambien
contiene toda la informacion necesaria para transformar los elementos de un sistema de
coordenadas al otro. Por tanto, un tensor es de coordenadas independientes, y un objeto
geometrico, tal como un lo vector es.

4.4.

Diagonalizaci
on de tensores.

En problemas de Fsica a menudo necesitamos diagonalizar un tensor. Esto significa que


necesitamos encontrar un sistema de coordenadas particular en el cual la representacion
matricial de un tensor solo tenga elementos distintos de cero en su diagonal. Por ejemplo, un

A TENSORES.
CAPITULO 4. INTRODUCCION

70

cuerpo rgido no experimentara vibraciones cuando es rotado alrededor de cualquiera de tres


ejes en un sistema de ejes donde el tensor de inercia sea diagonal. El proceso de balancear una
rueda de un automovil usa este hecho. Y cuando los ejes no coinciden con los ejes requeridos,
se colocan peque
nos trozos de metal en la llanta para que esto s suceda.
Muchos estudiantes se pierden en el proceso matematico de la diagonalizacion y se olvidan
que, en realidad, es solo una transformacion de coordenadas. En esta seccion, derivamos los
elementos de la matriz de transformacion [a] que diagonaliza un tensor dado. Comenzaremos
con un tratamiento absolutamente teorico del tema. Luego veremos dos ejemplos numericos,
uno no degenerado y otro degenerado.

4.4.1.

Diagonalizaci
on y problema de valores propios.

Basado en la discusion de la seccion anterior, un tensor escrito en un sistema no primado


debe ser equivalente a uno escrito en un sistema primado

0 0 0
= ij ei ej = st
es et .

(4.54)

Estamos interesados en un sistema prima muy especial, un sistema en el cual todos los

elementos no diagonales de son cero. En este caso, la ecuacion (4.54) queda

0 0 0
= ij ei ej = ss
es es .

(4.55)

En esta u
ltima ecuacion suponemos conocidos los elementos tensoriales y la base vectorial del
sistema no prima. El problema es encontrar los elementos del tensor en el sistema primado
0
ss
y los elementos de la base e0s , de tal manera que se satisfaga la ecuacion (4.55). Para
realizar esto, aplicamos producto punto a la ecuacion (4.55) con el primer elemento de la
base del sistema primado, e01 , con lo cual obtenemos

0 0 0
e01 = ss
es es e01
0 0
= ss
es s1
0 0
= 11 e1 .

(4.56)

La ecuacion (4.56) revela una propiedad importante de la base de vectores donde el tensor
es diagonal. No cambian de direccion cuando es aplicado el producto punto por el tensor. Sin
0
embargo, ellos pueden cambiar de magnitud. Si definimos 1 = 11
, la ecuacion (4.56) queda

e01 = 1 e01 .

(4.57)

El factor 1 es llamado el autovalor de . Un autovalor aparece cuando una operacion sobre


un objeto produce una constante, el autovalor, por el objeto original. El vector base del
sistema primado es llamado un autovector.
Ahora introducimos el tensor unitario 1, el cual es definido por

1 = ij ei ej

que cumple

(4.58)

DE TENSORES.
4.4. DIAGONALIZACION

71

1 ~v = ~v .

Representado como matriz, el tensor unitario

1 [1] = 0
0

(4.59)

es

0 0
1 0 .
0 1

Usando el tensor unitario, la ecuacion (4.57) puede ser escrita como





1 1 e01 = 0 .

(4.60)

(4.61)

Expresando en el sistema no primado, la ecuacion (4.61) puede ser reescrita en notacion


de Einstein
(ij 1 ij ) ei ej e01 = 0 .

(4.62)

Usando la ecuacion (4.29) y alguna manipulacion algebraica, obtenemos


ei (ij 1 ij )a1j = 0 ,

(4.63)

donde el elemento a1j es uno de los tres elementos desconocidos de la matriz transformacion

entre el sistema original de coordenadas y el sistema donde es diagonal.


El lado izquierdo de la ecuacion (4.63) es un vector, y para que sea cero, cada componente
debe ser cero. Cada componente involucra una suma sobre el ndice j. Por tanto, la ecuacion
(4.63) se convierte en tres ecuaciones, las cuales pueden ser anotadas en notacion matricial

0
a11
11 1
12
13

21
a12 = 0 .
22 1
23
(4.64)
a13
0
31
32
33 1
Para que este set de ecuaciones lineales y homogeneas tengan solucion, el determinante de
los coeficientes debe ser cero


11 1

12
13


21
22 1
23 = 0 .
(4.65)

31

32
33 1
Resulta una ecuacion de tercer orden para 1 , las cuales generaran tres autovalores. De estos
tres autovalores, seleccionaremos uno, el cual sera llamado 1 , y los otros dos los usaremos
luego. Reemplazando este valor en la ecuacion (4.64) encontraremos una solucion para a11 , a12
y a13 con una constante arbitraria. Estos son tres elementos de la matriz de transformacion
entre los sistemas primados y no primados, lo cual estamos buscando. Estos tres elementos
tambien permitiran determinar la base vectorial e01 con una constante arbitraria
e01 = a1j ej .

(4.66)

Imponiendo que e01 sea un vector unitario, obtenemos una condicion para las constantes
arbitrarias asociadas con a11 , a12 y a13

A TENSORES.
CAPITULO 4. INTRODUCCION

72

(a11 )2 + (a12 )2 + (a13 )2 = 1 .

(4.67)

Exceptuando un signo arbitrario global y la situacion degenerada, la cual discutiremos luego,


hemos determinado en forma u
nica e01 .
En forma analoga encontramos los otros elementos de la base y los elementos de la matriz
de transformacion. El segundo vector base del sistema primado es determinado aplicando el
producto punto en la ecuacion (4.56) y usando e02 . Podemos escribir ecuaciones matriciales
analogas a (4.64) para a21 , a22 y a23 . Las ecuaciones (4.65) que escribimos mediante determinante resultan identicas para 2 . Seleccionamos uno de los dos autovalores restantes, y lo
llamamos 2 , el cual usamos para determinar a21 , a22 , a23 y e02 . Analogamente, obtenemos
los elementos a31 , a32 , a33 y e03 .

El sistema de coordenadas primado, donde es diagonal, es definido por la base vectorial

e01 , e02 y e03 . Los elementos de en este sistema son los autovalores que determinamos desde
la ecuacion (4.65)

1 0 0
[ 0 ] = 0 2 0 .
(4.68)
0 0 3
Las matrices de interes en Fsica son Hermitianas. Si dejamos la posibilidad de elementos
de matriz complejos, una matriz se dice Hermitiana si es igual a su transpuesta conjugada.
Esto es, ij = ij . Hay dos propiedades muy importantes en este tipo de matrices. Uno, los
valores propios son n
umeros reales. Segundo, sus autovectores son siempre ortonormales. La
prueba de este hecho es dejado como ejercicio.
La u
nica complicacion que puede surgir en el proceso de diagonalizacion es una situacion
degenerada, la cual ocurre cuando dos o mas autovalores son identicos. Consideremos el caso
cuando 1 6= 2 = 3 . El autovalor 1 determina a11 , a12 , a13 y e01 , como ya lo vimos. Sin
embargo, los autovalores degenerados no especificaran en forma u
nica sus autovectores. Estos
autovectores pueden ser elegidos de manera infinita. Un ejemplo con este tipo de degeneracion
es discutido en uno de los ejemplos que a continuacion siguen.
Ejemplo 1
Como un ejemplo del proceso de diagonalizacion, consideremos el tensor de conductividad
expresado en coordenadas cartesianas

= ij ei ej .

Sea su representacion matricial (ignorando

10
[] = 0
0

las unidades)

0 0
10 1 .
1 10

(4.69)

(4.70)

Esta matriz es Hermitiana, por tanto podemos esperar que sus valores propios sean reales
y sus autovectores ortonormales. Los autovalores para la diagonalizacion son generados desde
la ecuacion determinante

DE TENSORES.
4.4. DIAGONALIZACION



10
0
0

0
10
1 = 0 .

0
1
10

73

(4.71)

La expansion del determinante nos arroja una ecuacion polinomial de tercer orden


(10 ) (10 )2 1 = 0 ,

(4.72)

la cual tiene tres soluciones, 1 = 9, 2 = 11 y 3 = 10.


Los elementos a1j son determinados reemplazando el valor de 1 en la ecuacion (4.64),
obtenemos

a11
1 0 0
0
0 1 1 a12 = 0 .
(4.73)
0 1 1
a13
0
Esta ecuacion requiere que se cumpla a12 = a13 y a11 = 0. La condicion de normalizacion
impone el contre
nimiento adicional (a12 )2 + (a13 )2 = 1, de donde obtenemos


a11
0
a12 = 1 1 .
(4.74)
2
a13
1
El primer autovector asociado con el sistema primado es
 
 
0
e1 = 1/ 2 e2 1/ 2 e3 .

(4.75)

Las otras componentes de [a] pueden ser determinadas en forma analoga. La matriz de
transformacion completa es

0 1 1
1
[a] = 0 1 1 .
(4.76)
2
2 0 0
Los otros dos autovectores no primados son
 
 
e02 = 1/ 2 e2 + 1/ 2 e3

(4.77)

e03 = e1 .

(4.78)

Podemos notar que hay una ambig


uedad de orden con los autovalores y en los signos asociados
con cada autovector. Estas ambig
uedades nos permiten fijar el sistema primado como de mano
derecha. El orden y las elecciones de signo hechas en este ejemplo dan la base primada que
se muestra en la figura 4.3.
Los elementos del tensor de conductividad expresados en el nuevo sistema diagonal son

A TENSORES.
CAPITULO 4. INTRODUCCION

74

e3

1
3

e2
e1

Figura 4.3: Vectores base en el sistema primado.

9 0 0
[ 0 ] = 0 11 0
0 0 10

(4.79)

Ejemplo 2
Este ejemplo demuestra el proceso de diagonalizacion cuando dos autovectores son degenerados. Consideremos nuevamente un tensor de conductividad en coordenadas cartesianas
(nuevamente, ignoramos las unidades)

11 1 0
[] = 1 11 0 .
0
0 10

(4.80)

Esta es una matriz Hermitiana, por tanto esperamos valores propios reales y vectores
ortonormales. La condicion del determinante queda


11
1
0

1
11
0 = 0 ,

0
0
10

(4.81)

lo cual lleva a una ecuacion polinomial de tercer orden




(10 ) (11 )2 1 .

(4.82)

Esta ecuacion de tercer orden posee tres races, pero solo dos distintas, 1 = 12 y 2 =
3 = 10. La raz 1 puede ser tratada como antes. Cuando es sustituda en la ecuacion (4.64),
la relacion matricial se convierte en


1 1 0
a11
0
1 1 0 a12 = 0 .
0
0 2
a13
0
Cuando utilizamos esto mas la condicion de normalizacion, obtenemos

(4.83)

DE TENSORES.
4.4. DIAGONALIZACION

75


a11
1
a12 = 1 1 .
(4.84)
2
a13
0
Estos elementos de la matriz transformacion nos permiten definir el primer autovector
 
 
e01 = 1/ 2 e1 1/ 2 e2 .
(4.85)
Ahora consideremos los valores propios degenerados. Cuando sustitumos 2 = 10 en la
ecuacion (4.64), obtenemos

a21
1 1 0
0
1 1 0 a22 = 0 .
(4.86)
0
0 0
a23
0
Si sustitumos 3 obtenemos una ecuacion muy parecida


0
1 1 0
a31
1 1 0 a32 = 0 .
(4.87)
a33
0
0
0 0
La ecuacion (4.86) nos requiere a21 = a22 , pero deja libre el factor a23 . La condicion de
normalizacion nos exige que se cumpla a221 + a222 + a223 = 1. Estas condiciones pueden ser
satisfechas por muchos autovectores. Como a23 es arbitrario, lo fijamos igual a cero. Ahora,
si el segundo autovector debe ser ortonormal a e01 , tenemos


a21
1
a22 = 1 1 .
(4.88)
2
a
0
23

Con esto, escribimos el segundo autovector


 
 
e02 = 1/ 2 e1 + 1/ 2 e2 .

(4.89)

El autovector asociado con 3 esta dado por la ecuacion (4.87) y tiene las mismas condiciones que el autovector asociado a 2 , es decir, a31 = a32 y a33 es arbitrario. Sin embargo,
si queremos que los autovectores sean ortonormales, e03 debe ser perpendicular a e01 y e02 . Los
vectores base e01 y e02 estan en el plano 1-2 de los vectores originales, por tanto si queremos
que e03 perpendicular a estos dos vectores, debe estar en la direccion 3. Por tanto,

a31
0
a32 0 ,
(4.90)
a33
1
y para el tercer autovector
e03 = e3 .

(4.91)

Un chequeo rapido demostrara que estos tres autovectores son ortonormales y que definen
un sistema derecho de coordendas, en el cual los elementos del tensor de conductividad estan
diagonalizados.

A TENSORES.
CAPITULO 4. INTRODUCCION

76

4.5.

Transformaciones tensoriales en sistemas de coordenadas curvilneos.

Las transformaciones de las secciones previas pueden ser facilmente generalizadas a un


sistema de coordenadas curvilneas. Consideremos el problema intermedio de una transformacion entre un sistema cartesiano y uno curvilneo.
El sistema cartesiano tendra las coordenadas primadas (x01 , x02 , x03 ) y los vectores base
(
e01 , e02 , e03 ). Por otra parte, el sistema curvilneo tiene las coordenadas (q1 , q2 , q3 ), los vectores
base (
q1 , q2 , q3 ) y los factores de escala (h1 , h2 , h3 ). El set de ecuaciones que relacionan las
coordenadas de los dos sistemas pueden ser escritas por
x01 = x01 (q1 , q2 , q3 )
x02 = x02 (q1 , q2 , q3 )
x03 = x03 (q1 , q2 , q3 ) .

(4.92)

Por ejemplo, las ecuaciones que relacionan el sistema de coordenadas cilndrico con el cartesiano son
x01 = x0 = cos
x02 = y 0 = sen
x03 = z 0 = z .

(4.93)

La matriz de transformacion [a] realiza la misma funcion como antes. Esto es, toma las componentes del sistema curvilneo no primado de un vector y genera las coordenadas cartesianas
en el sistema primado
vi0 = aij vj .

(4.94)

Recordando del captulo anterior que el vector desplazamiento para los dos sistemas puede
ser escrito como
d~r = dx0i e0i = hj dqj qj .

(4.95)

Las componentes del vector desplazamiento en el sistema curvilneo no primado estan dados por hj dqj , mientras que sus componentes en el sistema cartesiano primado estan dados
por dx0i . Estas componentes deben estar relacionadas por la matriz transformacion [a]. En
notacion de Einstein
dx0i = aij hj dqj .

(4.96)

El diferencial total dx0i puede ser formado desde la ecuacion (4.92), de donde obtenemos
dx0i =

x0i (q1 , q2 , q3 )
dqj .
qj

(4.97)

4.6. PSEUDO-OBJETOS.

77

La ecuacion (4.97) puede ser colocada en la forma de la ecuacion (4.96) multiplicando el lado
derecho de la ecuacion (4.97) por hj /hj
dx0i =

x0i (q1 , q2 , q3 ) hj
x0i (q1 , q2 , q3 )
dqj =
hj dqj .
qj
hj
hj qj

(4.98)

Comparando las ecuaciones (4.98) y (4.96) obtenemos


aij =

x0i (q1 , q2 , q3 )
hj qj

[Curvilneo a Cartesiano] .

(4.99)

La generalizacion para la transformacion entre dos sistemas curvilneos se sigue de una


manera analoga. Los elementos para la matriz transformacion [a] en este caso son
h0j x0i (q1 , q2 , q3 )
aij =
hj qj

[Curvilneo a Curvilneo] .

(4.100)

Notemos que no hay suma sobre i o j en el lado derecho de la ecuacion (4.100) ya que ambos
subndices aparecen en el lado izquierdo de la expresion.
La ecuacion (4.100) es la forma mas general para los elementos de la matriz transformacion
entre dos sistemas curvilneos. Es simplificada a la ecuacion (4.99) si el sistema primado es
cartesiano, ya que para este caso h0j 1. Ademas se degenera a la ecuacion (4.35) cuando
los dos sistemas son cartesianos, ya que para este caso hj 1.
Como antes, la matriz de tranformacion puede ser determinada tambien desde la base
vectorial de los dos sistemas de coordenadas. Para el caso curvilneo general, los elementos
de [a] son
aij = (
qi0 qj ) .

(4.101)

La manipulacion algebraica es facil utilizando la notacion de Einstein. Puede ser un


ejercicio u
til realizar los mismos pasos usando solo matrices para que se convenza que es mas
u
til.

4.6.

Pseudo-objetos.

Si consideramos solo las transformaciones que involucran traslaciones o rotaciones rgidas,


no hay forma de cambiar un sistema de orientacion derecha a uno de orientacion izquierda, o
viceversa. Para cambiar esto necesitamos una reflexion. Las transformaciones que involucran
reflexiones requieren la introduccion de los llamados pseudo-objetos. Los pseudoescalares,
pseudovectores y pseudotensores son muy similares a sus contrapartes regulares, excepto
por su comportamiento cuando son reflejados. Una forma facil de demostrar la diferencia es
examinando el producto cruz de dos vectores regulares en los sistemas derechos e izquierdos.

4.6.1.

Pseudo-vectores.

Consideremos el sistema de coordenadas cartesiana derecho mostrado en la figura 4.4. La


figura muestra dos vectores regulares en este sistema, orientado a lo largo de dos vectores de
la base

A TENSORES.
CAPITULO 4. INTRODUCCION

78

3
e3

2
e2
1
e1

Figura 4.4: Sistema de la mano derecha.

~ = A0 e1
A
~ = B0 e2 .
B

(4.102)
(4.103)

Por regulares nos referimos que las componentes de estos vectores obedecen la ecuacion
(4.25) cuando transformamos las coordenadas.
~yB
~ puede ser escrito usando el determinante
El producto cruz entre A


e1 e2 e3


~B
~ = A0 0 0 = A0 B0 e3 ,
A
(4.104)


0 B0 0
o, usando el tensor de Levi-Civita
~B
~ = Ai Bj ijk ek = A0 B0 e3 .
A

(4.105)

~B
~
El vector resultante es mostrado en la figura 4.5. Notemos como la direccion de A
esta dada por la regla de la mano derecha. Si apuntamos los dedos de la mano en la direccion
~ y los rotamos en la direccion de B,
~ el pulgar apuntara en la direccion del resultado.
de A
Mantengamos en mente que el producto cruz no es conmutativo. Si el orden de la operacion
~ A,
~ el resultado apunta exactamente en la direccion
es invertido, es decir, si hacemos B
opuesta.
3
A xB

2
B
1
A

Figura 4.5: Vectores en el sistema de la mano derecha.

4.6. PSEUDO-OBJETOS.

79

Consideremos ahora el sistema orientado a la izquierda, mostrado en la figura 4.6, con


la base de vectores marcada con primas para direfenciarla de las coordenadas y la base del
sistema de la mano derecha. Este sistema resulta de una inversion simple del eje 1 del sistema
no primado. Tambien puede ser visto como una reflexion del sistema derecho sobre el plano
x2 x3 . Las ecuaciones que relacionan los sistemas son
x01 = x1
x02 = +x2
x03 = +x3

(4.106)

3
e3

2
e2

1
e1
Figura 4.6: Sistema de la mano izquierda.
por tanto, la matriz transformacion es

1 0 0
[a] = 0 1 0 .
0 0 1

(4.107)

~yB
~ en el sistema prima son simplemente
Los vectores regulares A
~ = A0 e01
A
~ = B0 e02 .
B

(4.108)
(4.109)

Solo escribimos estos resultados porque son obvios. Recordemos que formalmente estos son
obtenidos aplicando [a] a las componentes de los vectores no primados. De la multiplicacion
matricial obtenemos

A01
1 0 0
A0
A0
A02 = 0 1 0 0 = 0
0 0 1
0
0
A03

(4.110)



B10
1 0 0
0
0
B20 = 0 1 0 B0 = B0 .
B30
0 0 1
0
0

(4.111)

A TENSORES.
CAPITULO 4. INTRODUCCION

80

Es importante recordar que los vectores son los mismos objetos fsicos en ambos sistemas de
coordenadas. Estan expresados en terminos de distintas componentes y bases vectoriales.
~B
~ en el sistema izquierdo. Para esto usaremos la
Ahora formemos el producto cruz A
relacion de determinante

0
0
0
e1
e

2
3

~B
~ = A0 0 0 = A0 B0 e03 ,
(4.112)
A


0
B0 0
o, usando el tensor de Levi-Civita
~B
~ = A0i Bj0 ijk e0k = A01 B10 123 e03 = A0 B0 e03 .
A

(4.113)

~ B
~ y el producto cruz A
~B
~ para el sistema izquierdo son mostrados en
Los vectores A,
la figura 4.7. Notemos como la regla de la mano derecha ya no nos sirve para encontrar
la direccion del producto cruz. Si definimos el producto cruz usando el determinante en la
ecuacion (4.112), entonces debemos usar la regla de la mano izquierda si estamos en el sistema
de coordenadas izquierdo.

2
B
1

3
A

A xB
Figura 4.7: Vectores en el sistema de la mano izquierda.
~ y
Notemos algo peculiar. Comparando las figuras 4.7 y 4.5 observamos que, mientras A
~
B apuntan en las mismas direcciones, sus productos cruces no apuntan en las mismas direcciones. Cambiando la orientacion del sistema de coordenadas, hemos cambiado la direccion
~ B.
~
del vector A
~ B
~
Miremos el producto cruz desde otro punto de vista. Si las componentes del vector A
en el sistema no primado, dado por la ecuacion (4.104), son transformados al sistema primado
usando usando la matriz [a], como lo hacemos para las componentes de los vectores regulares,
obtenemos

1 0 0
0
0
0 1 0 0 = 0 .
(4.114)
0 0 1
A0 B0
A0 B0

4.6. PSEUDO-OBJETOS.

81

Combinando estas componentes con la base de vectores apropiada, obtenemos para el vector
resultante del producto cruz
A0 B0 e03 .

(4.115)

Este resultado difiere de la ecuacion (4.112) por un signo menos. Para sortear esta dificultad,
la cantidad formada por el producto cruz de dos vectores regulares es llamado un pseudovector. Los Pseudovectores tambien son llamados vectores axiales, mientras que los vectores
regulares son llamados vectores polares. Si ~v es un vector regular transforma de acuerdo a la
ecuacion (4.25). Por otra parte, si ~v es un pseudovector, sus componentes tranforman como
vr0 = |a|vi ari .

(4.116)

De esta forma, la ecuacion (4.114) se convierte en


~ ~ 0

(A B)1
1 0 0
0
0
(A
~ B)
~ 02 = 0 1 0 0 = 0
~ B)
~ 03
0 0 1
A0 B0
A0 B0
(A

(4.117)

~B
~ = A0 B0 e03 ,
A

(4.118)

de donde resulta

de acuerdo con las ecuaciones (4.112) y (4.113).


En resumen, si ~v es un vector regular sus componentes transforman como
vr0 = vi ari .

(4.119)

En cambio, si es un pseudovector, sus componentes transforman como


vr0 = |a|vi ari .

(4.120)

Si la orientacion del sistema de dos sistemas de coordenadas ortonormales son el mismo, una
transformacion entre ellos tendra |a| = 1, y los vectores y pseudovectores transformaran normalmente. Si los sistemas tienen orientacion opuesta, |a| = 1 y los vectores transformaran
normalmente, mientras que los pseudovectores cambiaran su direccion. Un vector generado
por el producto cruz de dos vectores regulares es un pseudovector.
Es tentador pensar que toda esta parafernalia es un sutil error de signo embebidos en la
definicion de producto cruz. En algunos casos esto es correcto. Por ejemplo, cuando definimos
la direccion del vector que define el campo magnetico, que resulta ser un pseudovector, hemos
elegido implcitamente el sentido del sistema de coordenadas que debe ser tratada de manera
consistente. Otro ejemplo es el vector momento angular, el cual es definido por un producto
cruz. Aunque se puede achacar este problema de pseudovectores de estos dos ejemplos es
solo un problema de definicion, hay casos en que simplemente no se puede olvidar esta
propiedad. Es posible dise
nar una situacion en la cual un experimento y su imagen especular
no producen los resultados esperados, los cuales son simplemente la imagen especular una de
otra. De hecho, el premio Nobel fue adjudicado a Lee y Yang por analizar estas violaciones
a la conservacion de paridad, lo cual va en contra de la logica com
un. El experimento fue

A TENSORES.
CAPITULO 4. INTRODUCCION

82

realizado por primera vez por Wu, quien mostro este efecto con la emision de partculas beta
desde el Cobalto 60, bajo la influencia de interacciones debiles.

4.6.2.

Pseudo-escalares.

Las ideas que nos dejaron los pseudovectores se aplican tambien a los escalares. Un escalar
es invariante ante cualquier cambio del sistema de coordenadas. En cambio, un pseudoescalar
cambia de signo si la orientacion del sistema cambia. Un pseudoescalar involucrado en una
transformacion, governado por una matriz de transformacion [a], obedecera
S 0 = |a|S .

(4.121)

Un buen ejemplo de pseudoescalar se puede derivar del comportamiento del producto


cruz. El volumen de un paralelogramo tridimensional, mostrado en la figura 4.8, puede ser
escrito por
~ B)
~ C
~ .
Volumen = (A

(4.122)

C
B

A
Figura 4.8: El paralelogramo.
~B
~ apuntara hacia arriba.
En un sistema de coordenadas derecho, el vector formado por A
Por tanto, en un sistema derecho,
~ B)
~ C
~ >0.
(A

(4.123)

Pero en un sistema de coordenadas izquierdo, apunta hacia abajo, por tanto


~ B)
~ C
~ <0.
(A
Interpretado de esta forma, el volumen de un paralelogramo es un pseudoescalar.

(4.124)

4.6. PSEUDO-OBJETOS.

4.6.3.

83

Pseudo-tensores.

Los pseudotensores estan definidos como uno espera. Bajo una transformacion, las componentes de un pseutensor obedecen
0
Trst...
= |a|Tijk... ari asj atk . . . ,

(4.125)

la cual es igual a lo que obedece un tensor regular, salvo por el termino |a|.
Nuevamente utilizamos el producto cruz como ejemplo. Consideremos dos sistemas de
coordenadas. El sistema primado es un sistema derecho, y el otro, con el sistema no primado,
es izquierdo. Usando el smbolo de Levy-Civita en los dos sistemas para generar el producto
~B
~ obtenemos
cruz A
Ai Bj ijk ek = A0r Bs0 0rst et .

(4.126)

El signo menos aparece porque como fue mostrado antes, la direccion fsica del producto cruz
es diferente en los dos sistemas de coordenadas. Ahora, las transformaciones de coordenadas de vectores regulares pueden ser usadas para encontrar la relacion entre ijk y 0rst . Ya
~ B
~ y los vectores base, estos
que todos los vectores involucrados son regulares, es decir, A,
transforman de acuerdo a la ecuacion (4.25). Escribiendo las componentes primadas de estos
vectores en terminos de los no primados, la ecuacion (4.126) se convierte en
Ai Bj ijk ek = Ai Bj ari asj atk 0rst ek .

(4.127)

~yB
~ arbitrarios, por tanto obtenemos
Esta u
ltima expresion es cierta para A
ijk = ari asj atk 0rst .

(4.128)

Tengamos en mente que esto se aplica solo cuando dos sistemas tienen orientaciones
distintas. Si ambos sistemas tienen la misma orientacion, el signo menos desaparece. Por
tanto, para el caso general de una transformacion arbitraria entre dos sistemas ortonormales,
el smbolo de Levy-Civita obedece
ijk = |a|ari asj atk 0rst .
Por tanto, el smbolo de Levy-Civita es un pseudotensor.

(4.129)

84

A TENSORES.
CAPITULO 4. INTRODUCCION

Captulo 5
Sistema de coordenadas no
ortogonales.
versi
on final 1.0-0804151

5.1.

Breve recuerdo de transformaciones tensoriales.

Ya discutimos como un tensor es definido por su comportamiento bajo transformaciones


de coordenadas. Con una cuota de sarcasmo, la definicion que dimos fue un tensor es una
cantidad que transforma como tensor. Lo que esto significa es que las reglas de transformacion son suficientes como para caracterizar a los tensores con sus propiedades especiales.
Si un objeto transforma entre sistemas de coordenadas usando las reglas de transformacion
tensorial, podemos decir legtimamente que el objeto es un tensor.
Recordemos, los elementos de un tensor pueden transformar usando una matriz de transformaciones, cuyos elementos pueden ser obtenidos de las ecuaciones que relacionan las coordenadas de los dos sistemas. Para transformaciones entre sistemas cartesianos, los elementos
de esta matriz de transformacion [a] estan dados por
aij = (
e0i ej ) =

x0i
.
xj

(5.1)

En esta ecuacion, el sistema original tiene coordenadas xi y vectores base ei . El sistema


es transformado al sistema primado, el cual tiene coordenadas x0i y vectores base e0i . Para
sistemas de coordenadas ortonormales, la inversa de esta matriz de transformacion es siempre
su transpuesta
a1
ij = aji .

(5.2)

Un tensor arbitrario de rango n puede ser expresado tanto en el sistema primado como
en el no primado por

0
T = Tijk... ei ej ek . . . = Trst...
e0r e0s e0t . . . ,
1

(5.3)

Este captulo est


a basado en el decimo cuarto captulo del libro: Mathematical Physics de Brusse Kusse
& Erik Westwig, editorial John Wiley & Sons, Inc..

85

86

CAPITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

0
donde hay n subndices y n vectores base en cada termino. Tijk... y Trst...
son los elementos
del tensor en el sistema de coordenadas no primado y primado, respectivamente. Los dos
conjuntos de elementos estan relacionados por la ecuacion matricial de transformacion
0
Trst...
= Tijk... ari asj atk . . . ,

(5.4)

donde la matriz [a] aparece n veces. La transformacion inversa es


0
Trst... = Tijk...
air ajs akt . . . .

(5.5)

Nuestra propuesta fundamental es que cualquier cantidad que transforma en la manera descrita por la ecuacion (5.4) es por definicion un tensor.
Como un vector es un tensor de primer rango, las transformaciones de las componentes
son descritas por las ecuaciones (5.4) y (5.5). Si escribimos un vector en dos sistemas de
coordenadas como
~v = vi ei = vr0 e0r ,

(5.6)

la relacion entre las componentes esta dado por


vr0 = vi ari ,

(5.7)

vr = vi0 air .

(5.8)

y la inversa

Los escalares son invariantes ante una transformacion de coordenadas. Podemos pensar
que un escalar es un tensor de rango cero. El u
nico elemento de un tensor de rango cero no
tiene subndices y no esta combinado con una base vectorial. La ecuacion (5.4) se reduce a
S = S0

(5.9)

donde S (o S 0 ) en el u
nico elemento del escalar.
Ejemplo
Como un ejemplo del uso de las propiedades de las transformaciones para identificar a un
objeto como tensor, consideremos la delta de Kronecker. Recordemos que este smbolo fue
introducido para formar el producto punto en sistemas de coordenadas ortonormales. El pro~yB
~ escrito en dos sistemas ortonormales de coordenadas,
ducto punto entre dos vectores, A
uno primado y otro primado, puede ser escrito por
0
~B
~ = Ai Bj ij = A0r Bs0 rs
.
A

(5.10)

0
Ahora, sabemos que tanto ij como rs
pueden ser escritos como matrices unitarias, tal
como [1]. Sin embargo, para los propositos de esta discusion, observemos las consecuencias
de imponer que las dos expresiones para el producto punto en la ecuacion (5.10) sean iguales,
y que Ai y Bi son componentes vectoriales, y por tanto, transforma de acuerdo a la ecuacion
(5.7). Sustituyendo en la ecuacion (5.10), tenemos para A0r y Bs0

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.

0
Ai Bj ij = ari Ai asj Bj rs
.
0
= Ai Bj ari asj rs .

87

(5.11)

~ y B,
~ podemos escribir
Como esta expresion debe ser verdadera para cualquier A
0
ij = ari asj rs
.

(5.12)

ij0 = air ajs rs .

(5.13)

Invirtiendo esta expresion, obtenemos

Comparando las ecuaciones (5.12) y (5.13) con las ecuaciones (5.4) y (5.5), se observa que los
elementos de la delta de Kronecker transforman como los elementos de un tensor de segundo
rango. Por tanto, el smbolo de la delta de Kronecker es un tensor de segundo rango, el cual
puede ser expresado con una base vectorial como

= ij ei ej = ij0 e0i e0j .

5.2.

(5.14)

Sistemas de coordenadas no ortogonales.

Hasta este punto, hemos tratado solo con sistemas de coordenadas ortonormales. En
sistemas cartesianos, los vectores base ei son independientes de la posicion y ortonormales,
por lo tanto ei ej = ij . En sistemas curvilneos, los vectores base qi no son independientes de
la posicion, pero a
un son ortonormales, por tanto qi qj = ij . Ahora consideraremos sistemas
no ortonormales. Para distinguir estos sistemas, escribiremos los vectores base de sistemas
de coordenadas no ortonormales como gi , y la condicion de no ortonormalidad se convierte
en gi gj 6= ij . Para mantener esta discusion y las derivaciones de la forma mas simple, nos
limitaremos a sistemas de coordenadas donde las bases vectoriales no varen con la posicion.
Obviamente esto no es el caso mas general de sistemas de coordenadas no ortogonales, pero
es suficiente para demostrar las ideas de covarianza, contravarianza y metrica.
En fsica, los sistemas de coordenadas no ortonormales aparecen, por ejemplo, en relatividad (tanto especial como general). El postulado basico de la relatividad especial es que la
velocidad de la luz c es la misma para todos los sistemas de referencia. Como consecuencia
de este postulado, la posicion y el tiempo de alg
un fenomeno fsico (un evento) cambia tal
como cambie el sistema de referencia. Es muy similar a como las componentes de un vector
cambian cuando transformamos los ejes coordenados. Si restringimos el movimiento a una
coordenada espacial, un evento puede ser descrito por dos coordenadas, una coordenada espacial y una temporal. Como sera mostrado, la observacion de un evento en dos sistemas de
coordenadas distintos, uno primado y otro no primado, puede ser dibujado como un punto
usando el conjunto de ejes combinados, como es mostrado en la figura 5.1. Tomando sus
componentes con respecto a ambos ejes coordenados, podemos obtener todas las relaciones
impuestas por la relatividad especial. Notemos como los ejes x y ct se intersectan en angulos
rectos, pero los ejes x0 y ct0 no lo hacen. Mientras el sistema no primado parece ser ortogonal,
el sistema primado parece ser un sistema no ortogonal e inclinado.

CAPITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

88

ct

ct
Un evento

x
Figura 5.1: Los sistemas de coordenadas de la Relatividad Especial.
El postulado basico de la relatividad general es que la gravedad y la aceleracion son equivalentes. Los eventos observados en un campo gravitacional aparecen como si estos estuviesen
siendo observados en un sistema de coordenadas acelerado. Esto implica que la luz propagandose a traves del campo gravitacional de un objeto masivo, como una estrella, se debera
doblar, como es mostrado en la figura 5.2. Esto podra causar que la posicion aparente de
una estrella se desva de su posicion actual. Este fenomeno fue observado por primera vez
por Arthur Eddington, el cual midio la peque
na deflexion de las estrellas provocadas por el
Sol durante el eclipse total de 1919. Los caminos que siguen los rayos de luz a traves del
espacio son llamados geodesicas. Una eleccion natural para las lneas de la grilla de un sistema de coordenadas localizado, siguen estas geodesicas, como es mostrado en la figura 5.2.
No discutiremos ejemplos de este tipo de sistemas, pero si nos restringiremos a discutir los
sistemas inclinados, donde las bases vectoriales no son ortonormales, pero son espacialmente
invariantes.

Sistema de coordenadas
local no ortogonal
Estrella Aparente

Mo

Estrella

Figura 5.2: Un sistema de coordenadas de la Relatividad General.

5.2.1.

Un sistema de coordenadas inclinado.

Consideremos un sistema de coordenadas cartesiano (x1 , x2 ) y el sistema primado no


ortonormal (x01 , x02 ), como es mostrado en la figura 5.3. Tambien son representados en la

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.

89

figura dos pares de vectores base y un vector arbitrario ~v . La base vectorial de sistema no
primado es ortonormal
ei ej = ij .
2

(5.15)

2
V

V2

1
V2

g2
e2

V1
g1

e1

V1

Figura 5.3: Un sistema de coordenadas ortonormal y otro inclinado.


La base vectorial del sistema inclinado son elegidos para que sean vectores unitarios,
g10 g10 = g20 g20 = 1 ,

(5.16)

gi0 gj0 6= ij .

(5.17)

pero no son ortonormales

Como podemos ver, el formalismo que es desarrollado permite que los vectores base no sean
unitarios. Sin embargo, para comenzar el tratamiento de la manera mas sencilla, suponemos
que la base vectorial del sistema inclinado satisface la ecuacion (5.16).
En el sistema ortonormal, el vector ~v puede ser expresado como la suma de sus componentes proyectadas de forma paralela en los ejes, como es mostrado en la figura 5.3, junto a
la correspondiente base vectorial
~v = v1 e1 + v2 e2 .

(5.18)

Estas componentes vectoriales son solo los tama


nos proyectados de ~v a lo largo de los ejes del
sistema no primado y pueden ser determinados con trigonometra o siguiendo la manipulacion
vectorial correspondiente. Una componente particular es obtenida haciendo el producto punto
entre ~v y el correspondiente vector base. Por ejemplo, para encontrar v1
~v e1 = (v1 e1 + v2 e2 ) e1
= v1 (
e1 e1 ) + v2 (
e2 e1 )
= v1 11 + v2 21
= v1 .

(5.19)

90

CAPITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

Esto resulta bello solo por la ortogonalidad de los vectores base.


En el sistema primado, el mismo vector puede ser escrito en terminos de las componentes
proyectadas de forma paralela en los ejes y los vectores base prima, como es mostrado en la
figura 5.3,
~v = v10 g10 + v20 g20 .

(5.20)

Estas componentes tambien pueden ser determinadas por trigonometra, pero como tenemos
una geometra inclinada, no es tan sencillo como lo es en el sistema ortogonal. Como la base
de vectores primados no son ortogonales, un intento por aislar una componente particular
por una manipulacion vectorial, similar a la desarrollada en la ecuacion (5.19) falla
~v g10 = (v10 g10 + v20 g20 ) g10
= v10 (
g10 g10 ) + v20 (
g20 g10 )
= v10 + v20 (
g20 g10 )
6= v1 .

(5.21)

Al parecer, las manipulaciones vectoriales en sistemas de coordenadas no ortogonales son


mucho mas difciles que en los sistemas ortonormales. Afortunadamente, hay algunas tecnicas
formales que simplifican el proceso. En la proxima seccion, introduciremos los conceptos de
covarianza, contravarianza, y el tensor metrico. Usando estas herramientas, el producto punto
entre dos vectores tienen la misma forma tanto en un sistema ortogonal como en un sistema
no ortogonal.

5.2.2.

Covarianza, contravarianza y m
etrica.

La complicacion basica introducida por un sistema de coordenadas no-ortogonal es evidentemente en la operacion producto punto. En un sistema ortonormal de dos dimensiones
descrito anteriormente, el producto interno entre dos vectores es dado por
~B
~ = Ai ei Bj ej
A
= Ai Bj ij
= A1 B1 + A2 B2 .

(5.22)

Si este mismo producto interno es realizado en el sistema no-ortogonal de la figura 5.3 el


resultado contiene algunos terminos extras:
~B
~ = A0i gi0 Bj0 gj0
A
= A0i Bj0 (
gi0 gj0 )
g10 g20 ) .
= A01 B10 + A02 B20 + (A01 B20 + A02 B10 )(

(5.23)

El producto interno evaluado en el sistema no-ortonormal, expresado en (5.23), puede ser


puesto en la forma de la ecuacion (5.22) rearreglandolo como sigue:
~B
~ = A01 (B10 + B20 (
A
g10 g20 )) + A02 (B10 (
g10 g20 ) + B20 ) .

(5.24)

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.

91

~ como
Ahora definamos un nuevo conjunto de componentes para B
10 = B10 + B20 (
B
g10 g20 )
20 = B10 (
B
g10 g20 ) + B20 .

(5.25)

~ mientras que las comEstas cantidades son llamadas las componentes covariantes de B,
~ no puede ser
ponentes originales son llamadas contravariantes. Claramente, el vector B
expresado por la combinacion de estas nuevas componentes covariantes con los vectores bases g10 y g20 :
~ 6= B
10 g10 + B
20 g20 .
B
(5.26)
Sin embargo, con estas componentes el producto evaluado en el sistema inclinado puede ser
puesto en una forma simple
~B
~ = A0i B
i0
A
10 + A02 B
20 .
= A01 B

(5.27)

Notemos que el producto interno tambien puede ser escrito como


~B
~ = A0i Bi0 ,
A

(5.28)

~ definidas como
con las componentes covariantes de A
A01 = A01 + A02 (
g10 g20 )
A02 = A01 (
g10 g20 ) + A02 .

(5.29)

El producto interno necesita estar formado con una mezcla de componentes covariantes y
contravariantes, pero no importa que vector es expresado en que tipo de componentes.
Estos argumentos pueden ser extendidos a sistemas no-ortogonales de dimension arbitraria. La restriccion que los vectores bases esten normalizados a la unidad puede ser levantada.
Las componentes covariantes pueden ser generadas a partir de las componentes contravariantes usando la expresion general
A0i = A0j (
gi0 gj0 ) .
(5.30)
Hemos usado convencion de Einstein, lo cual implica suma sobre j. Para un sistema de
coordenada n-dimensional en cada suma habra n terminos. Notemos que si el sistema de coordenadas es ortonormal la ecuacion (5.30) se reduce a A0i = A0i y las componentes covariante
y contravariantes son iguales. En este caso, ambas ecuaciones (5.27) y (5.28) se revierten a
la ecuacion (5.22). Esto es importante, porque implica que esta nueva notacion es suficientemente general para manejar todos nuestros previos sistemas de coordenadas Cartesianos y
curvilneos, tanto como los nuevos no-ortogonales.
Existe otra manera de expresar el producto interno entre dos vectores en un sistema noortogonal que hace uso de una cantidad llamada la m
etrica. Como veremos mas tarde, la
metrica es un tensor de rango dos. Los elementos de la metrica, en un sistema sin primas,
estan definidos como
Mij = gi gj .
(5.31)

92

CAPITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

Notemos que esta definicion implica que la metrica es simetrico:


Mij = Mji .

(5.32)

Usando la metrica la ecuacion (5.30) puede ser escrita como


Ai = Aj Mij .

(5.33)

La metrica convierte las componentes contravariantes en componentes covariantes.


~yB
~ pueden ser reescrito
Ahora el producto interno entre A
~B
~ = Ai Bj Mij .
A

(5.34)

La suma sobre ambos i y j esta indicada en el lado derecho de la ecuacion. Si realizamos la


suma sobre i primero, la ecuacion (5.34) se convierte en
~B
~ = Aj Bj .
A

(5.35)

Cuando la suma sobre j es realizada primero, la ecuacion (5.34) se convierte en


~B
~ = Ai B
i .
A

(5.36)

Cuando la ecuacion (5.34) es usada para el producto interno, las componentes vectoriales no
se mezclan. Las componentes contravariantes son usadas para ambos vectores. Si el sistema es
ortonormal Mij = ij , resultando el producto interno standard para un sistema ortonormal.
Notemos que la metrica es determinada solamente por los vectores bases del sistema de
coordenadas. Esto se volvera un hecho importante y nos permitira identificar a la metrica
como un tensor de rango dos.
En resumen, hay dos maneras de realizar el producto interno entre dos vectores en un
sistema no-ortogonal. Una manera es usar las componentes covariantes y contravariantes,
como fue hecho en las ecuaciones (5.27) y (5.28). Un metodo completamente equivalente es
usar la metrica y las componentes regulares contravariantes del vector, como demostramos en
la ecuacion (5.34). Estos argumentos pueden ser naturalmente extendidos al producto interno
entre cantidades tensoriales, pero esta generalizacion sera pospuesta hasta que las ecuaciones
de transformacion para sistema no-ortogonales sean trabajadas.

5.2.3.

Transformaciones de componentes vectoriales contravariantes.

Imaginemos dos sistemas de coordenadas inclinados diferentes, como es mostrado en la


figura 5.4. Queremos encontrar como la componentes contravariantes de un vector expresadas
en el primer sistema pueden ser transformadas al segundo sistema. El primer sistema tiene
las coordenadas no primadas xi y vectores base gi , mientras que el segundo sistema usa las
coordenadas primadas x0i y vectores base gi0 . Recordemos que estamos limitados a sistemas
de coordenadas con vectores base constantes. Sean las ecuaciones generales que relacionan
los dos conjuntos de coordenadas

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.


2

93

2
V

V2

1
V2

g2
e2

V1
g1

e1

V1

Figura 5.4: Dos sistemas de coordenadas inclinados.

x0i = x0i (x1 , x2 , x3 )


xi = xi (x01 , x02 , x03 ) .

(5.37)

Habran solo un par de ecuaciones para cada dimension de los sistemas.


En nuestro trabajo previo tratando con transformaciones entre sistemas de coordenadas
ortonormales, fuimos capaces de relacionar las componentes vectoriales de un sistema con el
otro va la matriz de transformacion [a],
vi0 = aij vj .

(5.38)

La restriccion para sistemas ortonormales nos permitio invertir esta expresion de forma trivial, ya que se transformo en a1
on similar para la ecuacion
ij = aji . Podemos escribir una relaci
(5.38) para las transformaciones entre sistemas no ortonormales, pero necesitamos tener mas
cuidado, ya que la inversa de la matriz transformacion no es su transpuesta. Para no perder
la pista entre las transformaciones que aceptan esta inversion simple y las que no, reservaremos la matriz [a] para las transformaciones entre sistemas ortonormales. La matriz [t]
representara las transformaciones entre las coordenadas no primadas y las primadas, donde
los sistemas pueden ser no ortonormales
vi0 = tij vj .

(5.39)

La operacion en reversa, una transformacion entre las coordenadas primadas y las coordenadas no primadas, usaremos la matriz [g],
vi = gij vj0 ,

(5.40)

donde gij = t1
on, se sigue que tij gjk = ik . Discutiremos detalladamente
ij 6= tji . Por su definici
la relacion entre las matrices [t] y [g] mas adelante. En ambas expresiones, las componentes
vectoriales son componentes contravariantes regulares de ~v , no las componentes covariantes
que presentamos.

94

CAPITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

Todos los vectores en un punto dado transforman usando la misma matriz [t]. Para determinar los elementos tij , es mas facil considerar el vector desplazamiento d~r, el cual en los
dos sistemas de coordenadas esta dado por
d~r = dxi gi = dx0i gi0 .

(5.41)

Aplicando esta igualdad a la ecuacion (5.39), tenemos


dx0i = tij dxj .

(5.42)

Refiriendose a las ecuaciones (5.37), obtenemos la relacion


dx0i

x0i
dxj ,
=
xj

(5.43)

y los elementos de la matriz transformacion pueden ser escritos como


x0i
tij =
.
xj

(5.44)

Hasta ahora, estos resultados se parecen mucho a las transformaciones cartesianas que ya
habamos visto. De hecho, la ecuacion para las componentes de [t] dadas en la ecuacion (5.44)
es el mismo resultado obtenido para la matriz [a] entre sistemas cartesianos. Las complicaciones aparecen cuando tratamos de invertir estas ecuaciones. Como ya hemos mencionado,
la inversion de [t] no es simplemente calcular la traspuesta. Una forma general de obtener
[t]1 , la cual estamos llamando [g], es utilizar la expresion
gij = t1
ij =

cji
,
|tij |

(5.45)

donde cji es el cofactor ji de la matriz tij . Del algebra de matrices, este cofactor es definido
como (1)i+j por el determinante de la matriz tij , con la columna j-esima y la columna iesima removida. La matriz [g] puede tambien ser obtenida desde las ecuaciones que relacionan
las coordenadas, exactamente de la misma manera que se llega a la ecuacion (5.44)
gij = t1
ij =

xi
.
x0j

(5.46)

Las matrices [t] y [g] pueden tambien ser usadas para relacionar una base vectorial con
la otra. Usando las componentes contravariantes, cualquier vector ~v puede ser expresado en
el sistema primado o el no primado como
~v = vj gj = vi0 gi0 .

(5.47)

Sustituyendo la ecuacion (5.39) en la ecuacion (5.47) obtenemos


~v = vj gj = vj tij gi0 .

(5.48)

Como esta expresion es valida para cualquier ~v , se debe cumplir


gj = tij gi0 .

(5.49)

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.

95

Haciendo el proceso analogo, pero usando [g] en vez de [t], obtenemos


gj0 = gij gi .

(5.50)

Notemos que las componentes vectoriales contravariantes son transformadas por contracciones sobre el segundo subndice de tij o gij , mientras que las bases vectoriales son transformados
contrayendo sobre el primer subndice.
Para resumir los resultados de esta seccion, la transformacion entre los dos sistemas de
coordenadas no ortonormales es gobernada por las relaciones
tij = x0i /xj

5.2.4.

gij = xi /x0j

vi0 = tij vj

vi = gij vj0

gj = tij gi0

gj0 = gij gi .

Notaci
on de subndices y superndices.

Antes de proceder con una discusion de como las componentes de un vector covariantes
transforman, resulta conveniente introducir una notacion nueva. La notacion con tilde (
vi )
que hemos usado para las componentes de los vectores covariantes es engorrosa. No es obvio
que las siguientes convenciones son mucho mejores, pero proveen un mecanismo valioso para
mantener la pista de cual tipo de componentes (contravariantes o covariantes) deben ser
usados en una expresion. Las componentes vectoriales proyectadas en forma paralela, las
cuales hemos llamado las componentes contravariantes, seran anotadas con un superndice,
mientras que para las nuevas componentes covariantes se usara un subndice en vez de un tilde.
Por ejemplo, las componentes contravariantes del vector ~v son v i , mientras las componentes
covariantes seran vi .
Una ventaja de esta nueva notacion es evidente viendo la forma del producto interno.
~yB
~ como
Con la convencion ya propuesta, podemos escribir el producto punto de A
~B
~ = Ai Bi = Ai B i .
A

(5.51)

Notemos que el ndice sobre el cual sumamos aparece una vez como subndice y otra como
superndice. Esto es, por supuesto, lo mismo que decir que la suma es hecha sobre cantidades covariantes y contravariantes mezcladas. Este proceso de mezclar subndices y superndices persistira sobre casi todas las contracciones sobre un ndice repetido. Tambien
funcionara cuando queramos formar un vector desde sus componentes con la interpretacion
adecuada de los vectores base. Sabemos que el vector puede ser formado con las componentes
contravariantes y la base vectorial
~v = v i gi .

(5.52)

Para ser consistentes con la convencion de subndices y superndices, las bases vectoriales
deben ser escritas con subndices y ser consideradas covariantes. Veremos en la proxima
seccion, que esta conclusion es consistente con la forma en que estas bases transforman.
Esta convencion tambien previene que accidentalmente formemos un vector combinando
sus componentes covariantes con la base vectorial gi

96

CAPITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

~v 6= vi gi .

(5.53)

La notacion nos advierte que esto no es correcto ya que ambos ndices aparecen como subndices.
En la seccion anterior generamos varias relaciones, las cuales describieron como las componentes contravariantes del vector ~v transforman entre dos sistemas inclinados. Como debiesen ser modificados la presentacion de estos resultados para ser consistente con la nueva
convencion? En la seccion anterior escribimos
vi0 = tij vj .

(5.54)

Ahora estas componentes vectoriales deben ser escritas de manera correcta. Para ser consistentes con esta nueva notacion, uno de los ndices de la matriz transformacion necesita ser
un subndice y otra con superndice,
v 0i = tij v j ,

(5.55)

donde
x0i
.
xj
De manera similar, la inversion de la ecuacion (5.55) se convierte en
tij =

(5.56)

v i = g ij v 0j ,

(5.57)

donde
xi
.
(5.58)
x0j
Notemos como en las ecuaciones (5.56) y (5.58) la componente con superndice en el denominador de la derivada parcial resulta en un subndice en el lado izquierdo de esta expresion.
Esta es una propiedad general de las derivadas parciales con respecto a cantidades covariantes
y contravariantes. Una derivada parcial con respecto a una cantidad contravariante produce un resultado covariante, mientras que una derivada parcial con respecto a una cantidad
covariante da como resultado una cantidad contravariante. Probaremos este hecho mas tarde
en este captulo.
Estas matrices de transformacion tienen lo que es llamado una combinacion de propiedades contravariantes/covariantes. Ellas son contravariantes con respecto a un ndice, pero
covariantes con respecto al otro.
Con la notacion que usabamos hasta comenzar esta seccion, la naturaleza recproca de [t]
y [g] era indicada por la ecuacion tij gjk = ik . Pero ahora, para ser consistentes con la nueva
notacion, anotaremos
g ij =

tij gkj = ik .

(5.59)

La delta de Kronecker, escrita de esta manera, tambien presenta la forma mezclada de covariante y contravariante.

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.

97

Las ecuaciones (5.49) y (5.50), las cuales indican como transforman las bases vectoriales,
son escritas usando la notacion de subndices/superndices por
gj = tij gi0
gj0 = g ij gi .

(5.60)

Notemos la importancia de las posiciones horizontales de los ndices de la matriz transformacion. En las ecuaciones (5.55) y (5.57) la suma era sobre el segundo ndice de la matriz,
mientras que estas sumas son sobre el primer ndice. Esto previene de escribir los elementos
de la matriz [t] como tij , ya que esto podra indicar cual ndice viene primero.
Deberamos tambien reescribir las relaciones que involucran la metrica usando la nueva notacion. Nuestra definicion previa de la metrica fue en terminos de una base vectorial
covariante. Por tanto, la ecuacion (5.31) se mantiene
Mij = gi gj ,

(5.61)

y ambos ndices permanecen como subndices. De esta manera, los elementos de la metrica
son puramente covariantes, ya que ambos ndices son subndices. La metrica convierte las
componentes contravariantes de un vector a sus componentes covariantes, dentro del mismo
sistema de coordenadas. Esta operacion puede ser escrita, usando la notacion de subndices/superndices
vi = Mij v j .

(5.62)

Notemos como la convencion de sumas contin


ua su trabajo. La misma operacion para un
sistema primado, usando una metrica primada, queda
Mij0 = gi0 gj0 ,

(5.63)

vi0 = Mij0 v 0j .

(5.64)

y puede ser escrito como

En resumen, las ecuaciones que gobiernan las transformaciones de las componentes contravariantes de un vector ~v pueden ser escritas usando la nueva notacion de subndices/superndices
tij = x0i /xj

g ij = xi /x0j

vi0 = tij v j

v i = g ij v 0j

gj = tij gi0

gj0 = g ij gi .

Las componentes covariantes de ~v puede ser obtenida desde las componentes contravariantes
usando la metrica
Mij = gi gj
Mij0 = gi0 gj0

vi = Mij v j
vi0 = Mij0 v 0j .

98

CAPITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

Claramente hay algunos hoyos en estos cuadros. Primero, esta la pregunta de como las
componentes covariantes de un vector transforman. Segundo, decimos que los vectores base
gi son covariantes por naturaleza. Necesitamos probar esto. Finalmente, podemos definir
bases vectoriales contravariantes? Estos topicos estan ntimamente relacionados unos con los
otros, y apuntamos a esa direccion.

5.2.5.

Transformaciones de componentes vectoriales covariantes.

Retornemos al par de sistemas coordenados inclinados descritos en la figura 5.4. Las


componentes vectoriales covariantes del vector ~v transformaran de acuerdo a alguna relacion
lineal
vi0 = [?] vj .

(5.65)

Para determinar [?] de esta expresion, consideremos dos formas equivalentes del producto
interno de dos vectores, uno en el sistema primado y otro en el sistema no primado
~B
~ = Ai Bi = A0j Bj0 .
A

(5.66)

~ transforman de acuerdo a las reglas ya determinadas


Las componentes contravariantes de A
A0j = tj i Ai .

(5.67)

Sustituyendo esta expresion en el lado derecho de la ecuacion (5.66), tenemos


Ai Bi = tj i Ai Bj0 .

(5.68)

~ se debe tener
Como esta ecuacion debe ser valida para cualquier A,
Bi = tj i Bj0 .

(5.69)

Esta expresion puede ser facilmente invertida, para obtener


Bi0 = g ji Bj .

(5.70)

Notemos la similaridad entre las ecuaciones (5.60), (5.69) y (5.70). Esto soporta nuestra
conclusion que la base del eje paralelo es covariante.
Ahora somos capaces de combinar las componentes de los vectores base contravariantes,
gi , las cuales pueden ser determinados con la componente del vector covariante para formar
el mismo vector. Esto es,
~v = v i gi .

(5.71)

Sera mas bonito construir un nuevo conjunto de vectores base contravariantes, gi , los cuales
pudiesen ser combinados con las componentes covariantes para formar el mismo vector. Esto
es,
~v = vi gi .

(5.72)

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.

99

De hecho, podemos usar esta expresion para definir las bases de vectores contravariantes, y
ver las consecuencias.
Las propiedades basicas de las bases de vectores contravariantes pueden ser deducidas
~ y B.
~ Si A
~ es expresado
considerando nuevamente el producto interno entre dos vectores, A
~ es
usando la base de vectores covariantes y las componentes contravariantes, mientras B
escrito con vectores base contravariantes y componentes vectoriales covariantes, el producto
interno se convierte en
~B
~ = Ai gi Bj gj
A
= Ai Bj gi gj .

(5.73)

De acuerdo a la ecuacion (5.51), esta expresion debe ser igual a Ai Bi , por tanto
(
1 i=j
gi gj =
,
0 i 6= j

(5.74)

o en terminos de la delta de Kronecker,


gi gj = i j .

(5.75)

Esta u
ltima condicion permite determinar tanto la magnitud como la direccion de la base
de vectores contravariante, si la base de vectores covariante es conocida. Trabajando en dos
dimensiones, g1 g2 = 0 y g1 g1 = 1. En palabras, g1 debe ser perpendicular a g2 , mientras
que su proyeccion a lo largo del eje 1, paralelo a g1 , debe ser uno. Esta unicidad determina
g1 y, por argumentos similares, g2 . Las condiciones de la ecuacion (5.75) pueden ser vistas
graficamente como es mostrado en la figura 5.5. Las construcciones en esta figura fueron
hechas suponiendo que |
gi | = 1.
2

g2
g2
1
g1

g1

Figura 5.5: Determinacion de la base de vectores contravariante.


Las componentes de los vectores covariantes y contravariantes tambien pueden ser interpretadas graficamente, como es mostrado en la figura 5.6. Nuevamente, en esta figura se

100

CAPITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

ha supuesto que |
gi | = 1. Las componentes de los vectores contravariantes son simplemente
las magnitudes de las proyecciones paralelas a los ejes del vector sobre los ejes inclinados
definidos por la base covariante de vectores. Las componentes covariantes son las magnitudes
de las proyecciones del vector en el mismo eje coordenado, pero siguiendo las lneas paralelas
a las nuevas base de vectores contravariante. Esto hace que las lneas de proyeccion para
las componentes vectoriales covariantes perpendiculares a los ejes, como es mostrado en la
figura. La geometra asegura que
~v = v i gi = vi gi .

(5.76)

V2
V
V2
1
V1
V1

Figura 5.6: Componentes covariantes y contravariantes proyectadas de un vector.


Si la base vectorial covariante no son vectores unitarios, las construcciones de las figuras 5.5
y 5.6 deben ser ajustadas apropiadamente, siguiendo los requerimientos de las ecuaciones
(5.75) y (5.76).
Las transformaciones para la base vectorial contravariante se siguen directamente de la
ecuacion (5.76) usando las tecnicas que hemos aplicado ya varias veces

g0i = tij gj
i

g =

g ij g0j

(5.77)
.

(5.78)

Esto confirma nuestra clasificacion de esta nueva base vectorial como contravariante, ya que
transforma exactamente como las componentes contravariantes de un vector.
El conjunto completo de reglas de transformacion para componentes vectoriales contravariantes y covariantes pueden ser resumidas por el conjunto simetrico de relaciones

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.

v 0i = tij v j

g0i = tij gj

v i = g ij v 0j

gi = g ij g0j

vi0 = g ji vj

gi0 = g ji gj

vi = tj i vj0

gi = tj i gj0

101

con
tij = x0i /xj

g ij = xi /x0j .

Notemos que las cantidades contravariantes siempre transforman por una suma sobre el
segundo ndice tanto de tij y g ij , mientras las cantidades covariantes transforman sobre
el primer ndice. Para cantidades contravariantes, tij es usado para ir desde el sistema no
primado al sistema primado, mientras que g ij es usado para ir desde el sistema primado al
sistema no primado. Para cantidades covariantes, los roles de tij y g ij son los contrarios.
La nueva base de vectores contravariantes nos permiten construir otra version del tensor
metrico, esta vez con superndices
M ij = gi gj .

(5.79)

La aplicacion de esta forma de la metrica convierte cantidades covariantes en cantidades


contravariantes. Por ejemplo,
v i = M ij vj .

(5.80)

Veremos en la proxima seccion que las dos metricas distintas, Mij y M ij son simplemente
representaciones del mismo objeto, el tensor metrico.

5.2.6.

Covarianza y contravarianza en tensores.

Las propiedades covariantes y contravariantes discutidas en la seccion anterior pueden ser


facilmente extendidas a tensores. Tal como un vector puede ser expresado con componentes
contravariantes o covariantes,
~v = v i gi = vi gi ,

(5.81)

un tensor puede ser expresando usando solamente componentes contravariantes o covariantes

T = T ijk gi gj gk = Tijk gi gj gk .

(5.82)

Sin embargo, los tensores de mas alto rango son mas flexibles que los vectores, ya que
pueden ser expresados en una forma mixta, con ndices contravariantes y covariantes. Por
ejemplo,

T = T ij k gi gj gk

(5.83)

102

CAPITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

la cual es una representacion equivalente de T .


Todas las expresiones tensoriales de las ecuaciones (5.82) y (5.83) son equivalentes, aunque los valores especficos de las componentes seran diferentes en cada caso. As como las
componentes covariantes y contravariantes
de un vector estan relacionadas con la metrica,

las diferentes representaciones de T pueden ser obtenidas


desde una hacia otra usando la

misma metrica. Por ejemplo, si las dos expresiones para T en la ecuacion (5.82) son iguales,
podemos escribir
T ijk = M il M jm M kn Tlmn .

(5.84)

La expresion en la ecuacion (5.83) nos arroja el mismo tensor cuando


T ij k = Mjm T imk .

(5.85)

Para convertir un conjunto de componentes tensoriales desde la forma puramente covariante


a la forma puramente contravariante, es necesaria operacion de metrica para cada ndice.
Las transformaciones de sistemas de coordenadas para tensores siguen las mismas conductas que establecimos para las transformaciones vectoriales. Una matriz de transformacion
del tipo apropiado es usada para cada ndice. Por ejemplo, podramos escribir
T 0i jk = g li tj m g nk Tl mn

(5.86)

Ti jk = tli g jm tnk T 0l mn

(5.87)

Ejemplo
Hemos dicho que el tensor metrico es un tensor, pero no lo hemos probado. La demostracion es directa. Consideremos los elementos de la metrica, expresado en forma covariante
pura,
Mij = gi gj .

(5.88)

El producto interno entre dos vectores, expresados en dos sistemas de coordenadas distintos,
puede ser escrito como
0
~B
~ = Ai B j Mij = A0m B 0m Mmn
A
,

(5.89)

0
0
donde Mmn
= gm
gn0 . Las ecuaciones de transformacion pueden ser usadas para expresar las
componentes del vector en el sistema primado en terminos de las componentes no primados.
Esto resulta ser,
0
Ai B j Mij = Ai B j tmi tnj Mmn
.

(5.90)

~ y B,
~ tenemos
Como la expresion debe ser valida para cualquier A
0
Mij = tmi tnj Mmn
,

lo cual es facilmente invertido, obteniendo

(5.91)

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.

Mij0 = g mi g nj Mmn .

103

(5.92)

Pero esto es exactamente como transforman los elementos de un tensor de segundo rango.
Por tanto, el tensor metrico es por definicion un tensor. Esto implica que podemos escribir

M = Mij gi gj .

(5.93)

Como la metrica es un tensor, podemos modificar su naturaleza covariante o contravariante como lo haramos para cualquier tensor. Aunque puede parecer un poco extra
na utilizar la
misma metrica para modificarla, podemos cambiar una metrica puramente covariante a una
metrica puramente contravariante aplicando la metrica dos veces
M ij = M im M jn Mmn .

(5.94)

Tambien podemos escribir la metrica en una forma mezclada escribiendo


M ij = M im Mmj .

(5.95)

Usando las ecuaciones de transformacion, se puede demostrar facilmente que


M ij = gi gj = ij .

(5.96)

Esto implica que el tensor metrico es realmente solo una generalizacion del tensor Delta de
Kronecker.

5.2.7.

Contravarianza y covarianza de derivadas parciales.

Cuando las derivadas parciales son tomadas con respecto a las coordenadas contravariantes, el resultado es una cantidad covariante. Para ver esto, sean xi y x0i las coordenadas
contravariantes en un par arbitrario de sistemas de coordenadas. Las reglas del calculo requieren que se cumpla

xj
=
,
(5.97)
x0i
x0i xj
donde hay una suma implcita sobre el ndice j. Pero notemos que el termino xj /x0i es
exactamente la definicion de g ji . Esto nos permite escribir

= g ji j .
(5.98)
0i
x
x
Comparando esta expresion con la ecuacion (5.70) vemos que la operacion derivada parcial
transforma como una cantidad covariante. En ese caso, encontramos que

xj
=
0
xi
x0i xj

= tj i
,
xj

(5.99)
(5.100)

104

CAPITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

lo cual nos dice que esta derivada parcial act


ua como una cantidad contravariante. Para ser
consistentes con nuestra notacion, imponemos la regla que un superndice en el denominador de la operacion derivada act
ua como un subndice, mientras que un subndice en el
denominador act
ua como un superndice. Esta idea fue discutida brevemente en la conexion
con las matrices de transformacion en las ecuaciones (5.56) y (5.58).
Ejemplo
Un campo electrico estatico es calculado usualmente tomando el gradiente de un potencial
escalar
~ =
~ .
E

(5.101)

En un captulo anterior, definimos el operador gradiente por la relacion


~ d~r .
d =

(5.102)

Como el vector desplazamiento puede ser descrito por


d~r = dxi gi ,

(5.103)

donde dxi es una cantidad contravariante, es claro que el gradiente de puede ser escrito
por
~ = gi .

dxi

(5.104)

Podemos chequear la validez de esta expresion, reemplazando las ecuaciones (5.104) y (5.103)
en el lado derecho de la ecuacion (5.102), de donde obtenemos
~ d~r = gi dxj gj

dxi

= i dxj ij
dx

= i dxi
dx
= d

(5.105)

(5.106)

Luego, escribimos las componentes del campo electrico por


Ei =

,
xi

(5.107)

las cuales son covariantes y deben transformar seg


un la relacion
Ei0 = g ji Ej .

(5.108)

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.

105

Otro ejemplo
~ puede ser calculado usando la ley de Ampere
`
Un campo magnetico estatico B
I
~ = 4 I .
d~r B
c
C

(5.109)

En esta expresion, I es la corriente total que fluye a traves del camino cerrado C. Tomando
d~r como el vector diferencial con componentes contravariantes, como esta dado en la ecuacion
(5.103), las componentes del campo magnetico usadas en esta integracion deben ser escritas
en forma covariante, por tanto
I
4
dxi Bi =
I .
(5.110)
c
C

106

CAPITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

Captulo 6
Determinantes y matrices.
versi
on final 1.31-1604011

6.1.

Determinantes.

Comenzamos el estudio de matrices resolviendo ecuaciones lineales las cuales nos llevan
a determinantes y matrices. El concepto de determinante y su notacion fueron introducidos
por Leibniz.
Ecuaciones lineales homogeneas.
Una de las mayores aplicaciones de los determinantes esta en el establecimiento de una
condicion para la existencia de una solucion no trivial de un conjunto de ecuaciones algebraicas lineales homogeneas. Supongamos que tenemos tres incognitas x1 , x2 , x3 (o n ecuaciones
con n incognitas).
a1 x1 + a2 x2 + a3 x3 = 0 ,
b1 x 1 + b2 x 2 + b3 x 3 = 0 ,
c1 x1 + c2 x2 + c3 x3 = 0 .

(6.1)

El problema es: en que condiciones hay alguna solucion, aparte de la solucion trivial x1 = 0,
x2 = 0, x3 = 0? Si usamos notacion vectorial ~x = (x1 , x2 , x3 ) para la solucion y tres filas
~a = (a1 , a2 , a3 ), ~b = (b1 , b2 , b3 ), ~c = (c1 , c2 , c3 ) para los coeficientes, tenemos que las tres
ecuaciones, ecuacion (6.1), se convirten en
~a ~x = 0 ,

~b ~x = 0 ,

~c ~x = 0 .

(6.2)

Estas tres ecuaciones vectoriales tienen la interpretacion geometrica obvia que ~x es ortogonal
a ~a, ~b, ~c. Si el volumen sustentado por ~a, ~b, ~c dado por el determinante (o el producto escalar
triple)


a1 a2 a3


D3 = (~a ~b) ~c = det(~a, ~b, ~c) = b1 b2 b3 ,
(6.3)
c1 c2 c3
1

Este captulo est


a basado en el tercer captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.

107

108

CAPITULO 6. DETERMINANTES Y MATRICES.

no es cero, claramente solo existe la solucion trivial ~x = 0.


Vice-versa, si el anterior determinante de coeficientes se anula, luego uno de los vectores
columna es una combinacion lineal de otros dos. Supongamos que ~c esta en el plano que
sustenta ~a, ~b, i.e., la tercera ecuacion es una combinacion lineal de las primeras dos y no es
independiente. Luego ~x es ortogonal a ese plano tal que ~x ~a ~b. Ya que las ecuaciones
homogeneas pueden ser multiplicadas por n
umeros arbitrarios, solamente las relaciones de xi
son relevantes, para lo cual obtenemos razones de determinantes de 2 2
x1
(a2 b3 a3 b2 )
=
,
x3
(a1 b2 a2 b1 )
(6.4)
x2
(a1 b3 a3 b1 )
=
,
x3
(a1 b2 a2 b1 )
a partir de los componentes del producto cruz ~a ~b.
Ecuaciones lineales no homog
eneas.
El caso mas simple es de dos ecuaciones con dos incognitas
a1 x1 + a2 x2 = a3 ,
b1 x 1 + b2 x 2 = b3 ,

(6.5)

puede ser reducido al caso previo embebiendolo en un espacio tridimensional con una solucion
vectorial ~x = (x1 , x2 , 1) y el vector fila ~a = (a1 , a2 , a3 ), ~b = (b1 , b2 , b3 ). Como antes, ecuacion
(6.5) en notacion vectorial, ~a ~x = 0 y ~b ~x = 0, implica que ~x ~a ~b tal que el analogo de la
ecuacion (6.4) se mantiene. Para que esto se aplique la tercera componente de ~a ~b debiera
ser distinta de cero, i.e., a1 b2 a2 b1 6= 0, ya que la tecera componente de ~x es 1 6= 0. Esto
produce que los xi tengan la forma


a3 a2


b3 b2
(a3 b2 a2 b3 )

(6.6a)
x1 =
=

(a1 b2 a2 b1 )
a1 a2
b1 b2


a1 a3


b1 b3
(a1 b3 a3 b1 )
.
x2 =
=
(6.6b)

(a1 b2 a2 b1 )
a
a
1
2


b1 b2
El determinante

en el numerador de x1 (x2 ) es obtenido a partir del determinante de

 los
a1 a2
a
3
reemplazando el primer vector columna (segundo) por el vector
coeficientes
b1 b2
b3
del lado inhomogeneo de la ecuacion (6.5).
Estas soluciones de ecuacion lineal en terminos de determinantes pueden ser generalizados
a n dimensiones. El determinante es un arreglo cuadrado


a1 a2 . . . an


b1 b2 . . . b n
,
Dn =
(6.7)

c1 c2 . . . cn
...

6.1. DETERMINANTES.

109

de n
umeros (o funciones), los coeficientes de n ecuaciones lineales en nuestro caso. El n
umero
n de columnas (y de filas) en el arreglo es llamado algunas veces el orden del determinante.
La generalizacion de la expansion del producto escalar triple (de vectores fila de las tres
ecuaciones lineales) tiende al siguiente valor del determinante Dn en n dimensiones,
X
Dn =
ijk... ai bj ck . . . ,
(6.8)
i,j,k,...

donde ijk . . . ., analogo al smbolo de Levi-Civita de la ecuacion (1.52), es +1 para permutaciones pares (ijk . . .) de (123 . . . n), 1 para permutaciones impares, y cero si alg
un ndice
es repetido.
Especficamente, para el determinante de orden tres D3 de las ecuaciones (6.3) y (6.8)
tenemos
D3 = +a1 b2 c3 a1 b3 c2 a2 b1 c3 + a2 b3 c1 + a3 b1 c2 a3 b2 c1 .
(6.9)
El determinante de orden tres, entonces, es esta particular combinacion lineal de productos. Cada producto contiene uno y solo un elemento de cada fila y de cada columna. Cada
producto es sumado si las columnas (los ndices) representan una permutacion par de (123) y
restando si corresponde a una permutacion impar. La ecuacion (6.3) puede ser considerada en
umero de terminos en la suma (ecuacion (6.8))
notacion abreviada de la ecuacion (6.9). El n
es 24 para un determinante de cuarto orden, en general n! para un determinante de orden
n. A causa de la aparicion de signos negativos en la ecuacion (6.9) pueden haber cancelaciones. Debido a esto es muy posible que un determinante de elementos grandes tenga un valor
peque
no.
Algunas propiedades u
tiles de los determinantes de n-esimo orden siguen de la ecuacion
(6.8). De nuevo, para ser especfico, la ecuacion (6.9) para determinantes de orden tres es
usada para ilustrar estas propiedades.
Desarrollo laplaciano por las menores.
La ecuacion (6.9) puede ser reescrita
D3 = a1 (b2 c3 b3 c2 ) a2 (b1 c3 b3 c1 ) + a3 (b1 c2 b2 c1 )






b1 b2
b2 b3
b1 b3



a2
= a1
c1 c3 + a3 c1 c2 .
c2 c3

(6.10)

En general, el determinante de orden n-esimo puede ser expandido como una combinacion
lineal de productos de elementos de alguna fila (o columna) por determinantes de orden
(n 1) formados suprimiendo la fila y la columna del determinante original en el cual aparece
el elemento. Este arreglo reducido (2 2 en el ejemplo especfico) es llamado una menor. Si
el elemento esta en la i-esima fila y en la j-esima columna, el signo asociado con el producto
es (1)i+j . La menor con este signo es llamada el cofactor. Si Mij es usado para designar
la menor formado omitiendo la fila i y la columna j y cij es el cofactor correspondiente, la
ecuacion (6.10) se convierte en
D3 =

3
X
j=1

j+1

(1)

aj M1j =

3
X
j=1

aj c1j .

(6.11)

110

CAPITULO 6. DETERMINANTES Y MATRICES.

En este caso, expandiendo a lo largo de la primera fila, tenemos i = 1 y la suma es sobre j,


las columnas.
Esta expansion de Laplace puede ser usada para sacar ventaja en la evaluacion de determinantes de alto orden en el cual muchos de los elementos son nulos. Por ejemplo, para
encontrar el valor de el determinante


0 1 0 0


1 0 0 0

,
D=
(6.12)

0
0
0
1


0 0 1 0
expandimos a traves de la fila superior para obtener


1 0 0


0 1 .
D = (1)1+2 (1) 0
0 1 0
Nuevamente, expandimos a traves de la fila superior para obtener


0 1
1+1


D = (1) (1)
(1)
1 0


0 1
=1.
=
1 0

(6.13)

(6.14)

Este determinante D (ecuacion (6.12)) esta formado de una de las matrices de Dirac que
aparecen en la teora relativista del electron de Dirac.
Antisimetra.
El determinante cambia de signo si cualquier par de filas son intercambiadas o si cualquier
par de columnas son intercambiadas. Esto deriva del caracter par-impar del Levi-Civita en
la ecuacion (6.8) o explcitamente de la forma de las ecuaciones (6.9) y (6.10).
Esta propiedad es frecuentemente usada en Mecanica Cuantica para la construccion de
una funcion de onda de muchas partculas que, en concordancia con el principio de exclusion
de Pauli, sera antisimetrica bajo el intercambio de cualquier par de partculas identicas con
spin 1/2 (electrones, protones, neutrones, etc).
Como un caso especial de antisimetra, cualquier determinante con dos filas iguales o dos
columnas iguales es nulo.
Si cada elemento en una fila o de una columna es cero el determinante completo es nulo.
Si cada elemento en una fila o de una columna es multiplicado por una constante, el
determinante completo es multiplicado por esa constante.
El valor de un determinante es inalterado si un m
ultiplo de una fila es a
nadido (columna
por columna) a otra fila o si un m
ultiplo de una columna es a
nadido (fila por fila) a otra
columna. Tenemos



a1 a2 a3 a1 + ka2 a2 a3



b1 b2 b3 = b1 + kb2 b2 b3 .
(6.15)



c1 c2 c3 c1 + kc2 c2 c3

6.1. DETERMINANTES.

111

Usando el desarrollo de Laplace sobre el lado derecho, obtenemos







a2 a2 a3
a1 + ka2 a2 a3 a1 a2 a3





b1 + kb2 b2 b3 = b1 b2 b3 + k b2 b2 b3 ,





c2 c2 c3
c1 + kc2 c2 c3 c1 c2 c3

(6.16)

entonces por la propiedad de antisimetra el segundo determinante del lado derecho se anula,
verificando la ecuacion (6.15).
Un caso especial, un determinante es igual a cero, si cualquier par de filas o columnas son
proporcionales.
Volviendo a las ecuaciones homogeneas (6.1) y multiplicando el determinante de los coeficientes por x1 , y luego sumando x2 veces la segunda columna y x3 veces la tercera columna,
podemos establecer directamente la condicion para la presencia de una solucion no trivial
para la ecuacion (6.1):





a1 a2 a3 x1 a1 a2 a3 a1 x1 + a2 x2 + a3 x3 a2 a3 0 a2 a3





x1 b1 b2 b3 = x1 b1 b2 b3 = b1 x1 + b2 x2 + b3 x3 b2 b3 = 0 b2 b3 = 0 . (6.17)
c1 c2 c3 x1 c1 c2 c3 c1 x1 + c2 x2 + c3 x3 c2 c3 0 c2 c3
Por lo tanto x1 (x2 y x3 ) deberan ser cero a menos que el determinante de los coeficientes
sea nulo. Podemos mostrar que si el determinante de los coeficientes es nulo, existe realmente
una solucion no trivial.
Si nuestras ecuaciones lineales son inhomogeneas, esto es, como en la ecuacion (6.5) o si
los ceros en el lado derecho de la ecuacion (6.1) fueran reemplazados por a4 , b4 , c4 respectivamente, luego de la ecuacion (6.17) obtenemos,

a4

b4

c4
x1 =
a1

b1

c1

a2
b2
c2
a2
b2
c2


a3
b3
c3
,
a3
b3
c3

(6.18)

la cual generaliza la ecuacion (6.6a) a la dimension n = 3. Si el determinante de los coeficientes


se anula, el conjunto de ecuaciones no homogeneas no tiene solucion a menos que el numerador
tambien se anule. En este caso las soluciones pueden existir pero ellas no son u
nicas.
Para el trabajo numerico, esta solucion del determinante, ecuacion (6.18), es enormemente
difcil de manejar. El determinante puede involucrar grandes n
umeros con signos alternados,
y en la resta de dos n
umeros grandes el error relativo podra remontarse al punto que hace
que el resultado no tenga valor. Tambien, aunque el metodo del determinante es ilustrado
aqu con tres ecuaciones y tres incognitas, podramos facilmente tener 200 ecuaciones con
200 incognitas las cuales, involucran sobre 200! terminos por determinante, lo que pone un
desafo muy alto a la velocidad computacional. Debera haber una mejor manera. En efecto,
hay una mejor manera. Una de las mejores es un proceso a menudo llamado eliminacion de
Gauss. Para ilustrar esta tecnica, consideremos el siguiente conjunto de ecuaciones.

112

CAPITULO 6. DETERMINANTES Y MATRICES.

Resolvamos
3x + 2y + z = 11
2x + 3y + z = 13
x + y + 4z = 12 .

(6.19)

El determinante de la ecuacion lineal no homogenea ecuacion (6.19) es 18, por lo tanto existe
una solucion.
Por conveniencia y para una optima precision numerica, las ecuaciones son reordenadas
tal que los coeficientes mayores corran a lo largo de la diagonal principal (superior izquierda
a inferior derecha). Esto ha sido hecho en el conjunto anterior.
La tecnica de Gauss es usar la primera ecuacion para eliminar la primera incognita x de
las ecuaciones restantes. Entonces la (nueva) segunda ecuacion es usada para eliminar y de la
u
ltima ecuacion. En general, descendemos poco a poco a traves del conjunto de ecuaciones,
y luego, con una incognita determinada, avanzamos gradualmente para resolver cada una de
las otras incognitas en sucesion.
Dividiendo cada fila por su coeficiente inicial, vemos que las ecuaciones (6.19) se convierten
en
2
1
11
x+ y+ z =
3
3
3
3
1
13
x+ y+ z =
2
2
2
x + y + 4z = 12 .

(6.20)

Ahora, usando la primera ecuacion, eliminamos x de la segunda y la tercera:


1
11
2
x+ y+ z =
3
3
3
5
1
17
y+ z=
6
6
6
1
11
25
y+ z=
,
3
3
3

(6.21)

2
1
11
x+ y+ z =
3
3
3
1
17
y+ z=
5
5
y + 11z = 25 .

(6.22)

Repitiendo la tecnica, usamos la segunda ecuacion para eliminar y a partir de la tercera


ecuacion:
2
1
11
x+ y+ z =
3
3
3
1
17
y+ z=
5
5
54z = 108 ,

(6.23)

6.1. DETERMINANTES.

113

o
z=2.
Finalmente, al reemplazar obtenemos
y+

1
17
2=
,
5
5

o
y=3.
Luego con z e y determinados,
x+

2
1
11
3+ 2=
,
3
3
3

y
x=1.
La tecnica podra parecer no tan elegante como la ecuacion (6.17), pero esta bien adaptada
a los computadores modernos y es mas rapida que el tiempo gastado con los determinantes.
Esta tecnica de Gauss puede ser usada para convertir un determinante en una forma
triangular:


a1 b1 c1


D = 0 b2 c2 ,
0 0 c3
para un determinante de tercer orden cuyos elementos no deben ser confundidos con aquellos
en la ecuacion (6.3). De esta forma D = a1 b2 c3 . Para un determinante de n-esimo orden la
evaluacion de una forma triangular requiere solamente n 1 multiplicaciones comparadas
con las n! requeridas para el caso general.
Una variacion de esta eliminacion progresiva es conocida como eliminacion de GaussJordan. Comenzamos como si fuera el procedimiento de Gauss, pero cada nueva ecuacion
considerada es usada para eliminar una variable de todas las otras ecuaciones, no solo
de aquellas bajo ella. Si hemos usado esta eliminacion de Gauss-Jordan, la ecuacion (6.23)
llegara a ser
1
7
x+ z =
5
5
1
17
y+ z=
5
5
z=2,

(6.24)

usando la segunda ecuacion de la ecuacion (6.22) para eliminar y de ambas, la primera y


tercera ecuaciones. Entonces la tercera ecuacion de la ecuacion (6.24) es usada para eliminar
z de la primera y segunda ecuaciones, dando
x=1
y=3
z=2,

(6.25)

CAPITULO 6. DETERMINANTES Y MATRICES.

114

Volveremos a la tecnica de Guass-Jordan cuando invertamos matrices.


Otra tecnica disponible para el uso computacional es la tecnica de Gauss-Seidel. Cada
tecnica tiene sus ventajas y desventajas. Los metodos de Gauss y Gauss-Jordan pueden tener
problemas de precision para un determinante grande. Esto tambien es un problema para la
inversion de matrices. El metodo de Gauss-Seidel, como un metodo iterativo, puede tener
problemas de convergencia.

6.2.

Matrices.

El analisis matricial pertenece al algebra lineal ya que las matrices son operadores o
mapas lineales tales como rotaciones. Supongamos, por ejemplo, que rotamos las coordenadas
cartesianas de una espacio bidimensional tal que, en notacion vectorial,
 0 


P
x1
x1 cos x2 sen
=
=
.
(6.26)
0
j aij xj
x2
x2 sin x1 cos
Etiquetamos el arreglo de elementos aij por la matriz A de 2 2 consistente de dos filas y
dos columnas, ademas, consideramos los vectores x, x0 como matrices de 2 1. Tomemos la
suma de productos de la ecuacion (6.26) como una definicion de la multiplicacion matricial
que involucra el producto escalar de cada uno de los vectores fila de A con el vector columna
x. As en notacion matricial la ecuacion (6.26) se convierte en
x0 = Ax .

(6.27)

Para extender esta definicion de multiplicacion de una matriz por un vector columna a el
producto de dos matrices de 2 2, consideremos la rotacion de coordenada seguida por una
segunda rotacion dada por la matriz B tal que
x00 = Bx 0 .

(6.28)

Por componentes
!
x00i =

X
j

bij x0j =

X
j

bij

ajk xk =

X X
k

bij ajk

xk .

(6.29)

La suma sobre j es la multiplicacion matricial definiendo una matriz C = BA tal que


X
x00i =
cik xk ,
(6.30)
k

o x00 = Cx en notacion matricial. Nuevamente, esta definicion involucra el producto escalar


de vectores filas de B con vectores columnas de A. Esta definicion de multiplicacion matricial
se puede generalizar a matrices de m n y es u
til, realmente su utilidad es la justificacion de
su existencia. La interpretacion fsica es que el producto matricial de dos matrices, BA, es la
rotacion que conduce del sistema sin prima directamente al sistema de coordenadas con doble
prima. Antes de pasar a la definicion formal, podemos notar que el operador A esta descrito

6.2. MATRICES.

115

por sus efectos sobre las coordenadas o vectores base. Los elementos de matriz aij constituyen
una representacion del operador, una representacion que depende de la eleccion de una base.
El caso especial donde una matriz tiene una columna y n filas es llamada un vector
columna, |xi, con componentes xi , i = 1, 2, . . . ., n. Si A es una matriz de n n, |xi es un
vector columna de n componentes, A|xi esta definida como en la ecuacion (6.27) y (6.26).
Similarmente, si una matriz tiene una fila y n columnas, es llamada un vector fila, hx| con
componentes xi , i = 1, 2, . . . .n. Claramente, hx| resulta de |x > por el intercambio de filas

y columnas, una operacion matricial llamada transposicion, y pora cualquier matriz A, A


2
ik = Aik . Transponiendo un
es llamada la transpuesta de A con elementos de matriz (A)
producto de matrices AB se invierte el orden y da BA; similarmente, A|xi se transpone como
hx|A. El producto escalar toma la forma hx|yi.

Definiciones b
asicas.
Una matriz puede ser definida como una arreglo cuadrado o rectangular de n
umeros
o funciones que obedecen ciertas leyes. Esto es una extension perfectamente logica de los
conceptos matematicos familiares. En aritmetica tratamos con n
umeros simples. En la teora
de variable compleja tratamos con pares ordenados de n
umeros, (1, 2) = 1 + 2i, en el cual
el orden es importante. Ahora consideremos n
umeros (o funciones) ordenados en un arreglo
cuadrados o rectangular. Por conveniencia en el trabajo posterior los n
umeros son distinguidos
por dos subndices, el primero indica la fila (horizontal) y el segundo indica la columna
(vertical) en la cual aparecen los n
umeros. Por ejemplo, a13 es el elemento de matriz en la
primera fila y tercera columna. De este modo, si A es una matriz con m filas y n columnas,

a11
a21

A = ..
.

a12
a22
..
.

am1 am2

a1n
a2n

.. .
..
.
.
amn

(6.31)

Quizas el hecho mas importante a notar es que los elementos aij no estan combinados unos
con otros. Una matriz no es un determinante. Es un arreglo ordenado de n
umeros, no un
simple n
umero.
La matriz A hasta ahora de solo es un arreglo de n
umeros que tiene las propiedades
que le asignamos. Literalmente, esto significa construir una nueva forma de matematicas.
Postulamos que las matrices A, B y C, con elementos aij , bij y cij , respectivamente, combinan
de acuerdo a las siguientes reglas.

Igualdad.
Matriz A= Matriz B si y solo si aij = bij para todos los valores de i y j. Esto, por su
puesto, require que A y B sean cada uno arreglos de m n (m filas y n columnas).
2

Algunos textos denotan A transpuesta por AT .

CAPITULO 6. DETERMINANTES Y MATRICES.

116
Suma.

A + B = C si y solo si aij + bij = cij para todos los valores de i y j, los elementos se
combinan de acuerdo a las leyes del algebra lineal (o aritmetica si hay n
umeros simples). Esto
significa que A + B = B + A, la conmutacion. Tambien, se satisface la ley de asociatividad
(A + B) + C = A + (B + C). Si todos los elementos son cero, la matriz es llamada matriz nula
y se denota por 0. Para todo A,
A+0=0+A=A ,
con

0
0
.. . .
.
.
0 0

0
0

0 = ..
.

0
0

.. .
.
0

(6.32)

Tal que las matrices de m n forman un espacio lineal con respecto a la suma y la resta.
Multiplicaci
on (por un escalar).
La multiplicacion de la matriz A por una cantidad escalar esta definida como
A = (A) ,

(6.33)

en la cual los elementos de A son aij ; esto es, cada elemento de la matriz A es multiplicado
por el factor escalar. Esto contrasta con el comportamiento de los determinantes en el cual el
factor multiplica solamente una columna o una fila y no cada elemento del determinante.
Una consecuencia de esta multiplicacion por escalar es que
A = A ,

conmutacion.

(6.34)

Multiplicaci
on (multiplicaci
on matricial) producto interno.
AB = C si y solo si cij =

aik bkj .

(6.35)

Los elementos i y j de C estan formados como un producto escalar de la i-esima fila de A con
el j-esima columna de B (el cual demanda que A tenga el mismo n
umero de columnas como
B tiene de filas). El ndice mudo k toma los valores 1, 2, . . . , n en sucesion, esto es,
cij = ai1 b1j + ai2 b2j + ai3 b3j ,

(6.36)

para n = 3. Obviamente, el ndice mudo k pude ser reemplazado por alg


un otro smbolo
que no este en uso sin alterar la ecuacion (6.35). Quizas la situacion puede ser aclarada
afirmando que la ecuacion (6.35) defina el metodo de combinar ciertas matrices. Este metodo
de combinacion, es llamado multiplicacion matricial. Para ilustrar, consideremos dos matrices
(matrices de Pauli)




0 1
1 0
1 =
y
.
(6.37)
1 0
0 1

6.2. MATRICES.

117

El elemento 11 del producto, (1 3 )11 esta dado por la suma de productos de elementos de la
primera fila de 1 con el correspondiente elemento de la primera columna de 3 : Aqu
(1 3 )ij = 1i1 31j + 1i2 32j .
Una aplicacion directa de la multiplicacion de matrices muestra que


0 1
3 1 =
1 0

(6.38)

y por la ecuacion (6.35)


1 3 = 1 3 .

(6.39)

Excepto en casos especiales, la multiplicacion de matrices no es conmutativa.3


AB 6= BA .

(6.40)

Sin embargo, de la definicion de multiplicacion de matrices podemos mostrar que se mantiene


una ley de asosiatividad, (AB)C = A(BC). Tambien se satisface una ley de distributividad,
A(B + C) = AB + AC. La matriz unidad tiene elementos ij , la delta de Kronecker, y la
propiedad de que 1A = A1 = A para toda A,

1 0 0
0 1 0

1 = .. .. . . .. .
(6.41)
. .
. .
0 0 1
Notamos que es posible que el producto de dos matrices sea una matriz nula sin ser ninguna
de ellas una matriz nula. Por ejemplo, si




1 1
1 0
A=
y B=
.
0 0
1 0
AB = 0. Esto difiere de la multiplicacion de n
umeros reales o complejos los cuales forman un
campo, mientras que las estructura aditiva y multiplicativa de las matrices es llamada anillo
por los matematicos.
Si A en una matriz de n n con determinante |A| =
6 0, luego tiene una unica inversa A1
tal que AA1 = A1 A = 1. Si B es tambien una matriz de n n con inversa B1 , luego el
producto de AB tiene la inversa
(AB)1 = B1 A1 ,
(6.42)
ya que ABB1 A1 = 1 = B1 A1 AB.
El teorema del producto el cual dice que el determinante de un producto, |AB|, de dos
matrices de n n A y B es igual al producto de los determinantes, |AkB|, uniendo matrices
con determinantes. El anterior teorema puede ser facilmente probado.
3

La perdida de la propiedad conmutativa es descrita por el conmutador [A, B] = AB BA. La no conmutatividad se expresa por [A, B] 6= 0.

CAPITULO 6. DETERMINANTES Y MATRICES.

118
Producto directo.

Un segundo procedimiento para multiplicar matrices, conocido como el tensor producto


directo o de Kronecker. Si A es una matriz de m m y B una matriz de n n, luego el
producto directo es
AB=C .

(6.43)

C es uan matriz de mn mn con elementos


C = Aij Bkl ,

(6.44)

con
= n(i 1) + k ,

= n(j 1) + l .

Por ejemplo, si A y B ambas son matrices de 2 2,



a11 B a12 B
AB=
a21 B a22 B

a11 b11 a11 b12


a11 b21 a11 b22
=
a21 b11 a21 b12
a21 b21 a21 b22


a12 b11
a12 b21
a22 b11
a22 b21

a12 b12
a12 b22
.
a22 b12
a22 b22

(6.45)

El producto directo es asociativo pero no conmutativo. Como un ejemplo de producto


directo, las matrices de Dirac pueden ser desarrolladas como productos directos de las matrices de Pauli y de la matriz unidad. Otros ejemplos aparecen en la construccion de grupos
en teora de grupos y en espacios de Hilbert en teora cuantica.
El producto directo definido aqu es algunas veces llamado la forma standard y es denotado por . Otros tres tipos de producto directo de matrices existe como posibilidades o
curiosidades matematicas pero tienen muy poca o ninguna aplicacion en fsica matematica.
Matrices diagonales.
Un tipo especial muy importante de matrices es la matriz cuadrada en la cual todos los
elementos no diagonales son cero. Espacficamente, si una matriz A de 3 3 es diagonal,

a11 0
0
A = 0 a22 0 .
0
0 a33
Una interpretacion fsica de tales matrices diagonales y el metodo de reducir matrices a esta
forma diagonal son considerados en la seccion 10.5. Aqu nos limitamos a notar la importante
propiedad de que la multiplicacion de matrices es conmutativa, AB = BA, si A y B son cada
una diagonales.

6.2. MATRICES.

119

Traza.
En cualquiera matriz cuadrada la suma de los elementos diagonales es llamada la traza.
Claramente la traza es una operacion lineal:
traza(A B) = traza(A) traza(B) .
Una de sus interesantes y u
tiles propiedades es que la traza de un producto de dos matrices
A y B es independiente del orden de la multiplicacion:
X
XX
traza(AB) =
(AB)ii =
aij bji
i

XX
i

bji aij =

(BA)jj

(6.46)

= traza(BA) .
Esto se mantiene a
un cuando AB 6= BA. La ecuacion (6.46) significa que la traza de cualquier
conmutador, [A, B] = AB BA, es cero. De la ecuacion (6.46) obtenemos
traza(ABC) = traza(BCA) = traza(CAB) ,
lo cual muestra que la traza es invariante bajo permutaciuones cclicas de la matriz en un
producto.
Para una matriz simetrica o una matriz Hermtica compleja la traza es la suma, y el
determinante el producto, de sus autovalores, y ambos son coeficientes del polinomio caracterstico. La traza servira una funcion similar para las matrices como la ortogonalidad sirve
para los vectores y funciones.
En terminos de tensores la traza es una contraccion y como el tensor de segundo orden
contrado es un escalar (invariante).
Las matrices son usadas ampliamente para representar los elementos de grupos. La traza
de las matrices representando los elementos de grupo es conocido en teora de grupos como
el caracter. La razon de este nombre especial y espacial atencion es que mientras las matrices
pueden variar la traza o caracter se mantiene inavariante.
Inversi
on de matriz.
Al comienzo de esta seccion la matriz A fue presentada como la representacion de un
operador que (linealmente) transforma los ejes de coordenadas. Una rotacion podra ser un
ejemplo de tal transformacion lineal. Ahora buscaremos la transformacion inversa A1 que
restablecera los ejes de coordenadas originales. Esto significa, ya sea como una ecuacion
matricial o de operador4 ,
AA1 = A1 A = 1 .
(6.47)
Podemos probar (ejercicio) que
a1
ij =
4

Cji
,
|A|

Aqu y a traves de todo el captulo nuestras matrices tienen rango finito.

(6.48)

CAPITULO 6. DETERMINANTES Y MATRICES.

120

con la suposicion que el determinante de A (|A|) 6= 0. Si es cero, etiquetaremos a A como singular. No existe la inversa. Como fue explicado en la seccion 10.1 esta forma con determinante
es totalmente inapropiado para el trabajo numerico con grandes matrices.
Hay una amplia variedad de tecnicas alternativas. Una de las mejores y mas com
unmente
usada es la tecnica de inversion de matrices de Gauss-Jordan. La teora esta basada en los
resultados que muestran que existen matrices ML tal que el producto ML A sera A pero con
a. una fila multiplicada por una constante, o
b. una fila reemplazada por la fila original menos un m
ultiplo de otra fila, o
c. filas intercambiadas.
Otras matrices MR operando sobre la derecha de (AMR ) puede llevar a las mismas operaciones sobre las columnas de A.
Esto significa que las filas y las columnas de la matriz pueden ser alteradas (por multiplicacion de matrices) como si estuvieramos tratando con determinantes, as podemos aplicar
las tecnicas de eliminacion de Gauss-Jordan a los elementos de matriz. Por tanto existe una
matriz ML (o MR ) tal que5
ML A = 1 .
(6.49)
La ML = A1 . Determinamos ML realizando las operaciones de eliminacion identicas sobre
la matriz unidad. Luego
ML 1 = ML .
(6.50)
Para clarificar esto consideremos un ejemplo especfico.
Deseamos invertir la matriz

3 2 1
A = 2 3 1 .
1 1 4
Por conveniencia escribimos A y 1
una de ellas

3
2
1

lado a lado realizando operaciones identicas sobre cada

2 1
1 0 0
0 1 0 .
3 1
(6.52)
1 4
0 0 1

Para ser sistematicos, multiplicamos cada fila


2 1
1 3 3
3 1
1 2 2
1 1 4

para obtener ak1 = 1,


1

0
0
3
1
0 2 0 .
0 0 1

Restando la primera fila de la segunda y tercera, obtenemos


2 1
1

1 3 3
0
0
3
5 1
1 1
0 6 6
3 2 0 .
0 31 11
13 0 1
3
5

Recordemos que det(A) 6= 0.

(6.51)

(6.53)

(6.54)

6.3. MATRICES ORTOGONALES.

121

Entonces dividimos la segunda fila (de ambas matrices) por 5/6 y sustrayendola 2/3 veces
de la primera fila, y 1/3 veces de la tercera fila. Los resultados para ambas matrices son

1 0

0 1
0 0

1
5
1
5
18
5

25 0

3
0 .
5
15 1

3
5

2
5
15

(6.55)

Dividimos la tercera fila (de ambas matrices) por 18/5. Luego como u
ltimo paso 1/5 veces
la tercera fila es sustrada de cada una de las dos primeras filas (de ambas martices). Nuestro
par final es

11

7
1
1 0 0

8
18
18

11
1
18
(6.56)
18 18
0 1 0
.
1
1
5
0 0 1
18 18 18
El chequeo es multiplicar la original A por la calculada A1 para ver si realmente obtuvimos
la matriz unidad 1.
Como con la solucion de Gauss-Jordan de ecuaciones algebraicas simultaneas, esta tecnica
esta bien adaptada para computadores.

6.3.

Matrices ortogonales.

El espacio de tres dimensiones ordinario puede ser descrito con las coordenadas cartesianas (x1 , x2 , x3 ). Consideremos un segundo conjunto de coordenadas cartesianas (x01 , x02 , x03 )
cuyo origen y sentido coinciden con el primero pero su orientacion es diferente (figura 10.1).
Podemos decir que el sistema de ejes prima ha sido rotado respecto al inicial sistema de
x3

x2

x3

x1

x2

x1

x1
x1

Figura 6.1: Sistemas de coordenadas cartesianos.

coordenadas sin prima. Ya que esta rotacion es una operacion lineal, esperamos una ecuacion
matricial que relaciones la base con primas con la sin primas.

CAPITULO 6. DETERMINANTES Y MATRICES.

122
Cosenos directores.

Un vector unitario a lo largo del eje x01 (


x1 0 ) puede ser resuelto en sus componentes a lo
largo de los ejes x1 , x2 y x3 por las usuales tecnicas de proyeccion.
x1 0 = x1 cos(x01 , x1 ) + x2 cos(x02 , x2 ) + x3 cos(x03 , x3 ) .

(6.57)

Por conveniencia estos cosenos, los cuales son los cosenos directores, son etiquetados
cos(x01 , x1 ) = x1 0 x1 = a11 ,
cos(x01 , x2 ) = x1 0 x2 = a12 ,
cos(x01 , x3 ) = x1 0 x3 = a13 .

(6.58)

Continuando, tenemos
cos(x02 , x1 ) = x2 0 x1 = a21 ,
cos(x02 , x2 ) = x2 0 x2 = a22 ,

(a21 6= a12 ) ,
y as sucesivamente.

(6.59)

Ahora la ecuacion (6.57) puede ser reescrita como


x1 0 = x1 a11 + x2 a12 + x3 a13
y tambien
x2 0 = x1 a21 + x2 a22 + x3 a23
x3 0 = x1 a31 + x2 a32 + x3 a33 .

(6.60)

Tambien podemos ir de la otra manera resolviendo x1 , x2 y x3 en sus componentes en el


sistema con primas. Entonces
x1 = x1 0 a11 + x2 0 a21 + x3 0 a31
x2 = x1 0 a12 + x2 0 a22 + x3 0 a32
x3 = x1 0 a13 + x2 0 a23 + x3 0 a33 .

(6.61)

Aplicaciones a vectores.
Si consideramos un vector cuyas componentes son funciones de la posicion, entonces
V~ (x1 , x2 , x3 ) = x1 V1 + x2 V2 + x3 V3
= V~ 0 (x01 , x02 , x03 ) = x01 V10 + x02 V20 + x03 V30 ,

(6.62)

ya que el punto puede ser dado en cualquiera de los dos sistema de coordenadas (x1 , x2 , x3 ) o
(x01 , x02 , x03 ). Notemos que V~ y V~ 0 son geometricamente el mismo vector (pero con diferentes
componentes). Si los ejes de coordenadas son rotados, el vector se mantiene fijo. Usando la
ecuacion (6.60) para eliminar x1 , x2 , x3 , podemos separar la ecuacion (6.62) en tres ecuaciones
escalares
V10 = a11 V1 + a12 V2 + a13 V3
V20 = a21 V1 + a22 V2 + a23 V3
V30 = a31 V1 + a32 V2 + a33 V3 .

(6.63)

6.3. MATRICES ORTOGONALES.

123

En particular, estas relaciones se mantendran para las coordenadas de un punto (x1 , x2 , x3 )


y (x01 , x02 , x03 ), dando
x01 = a11 x1 + a12 x2 + a13 x3
x02 = a21 x1 + a22 x2 + a23 x3
x03 = a31 x1 + a32 x2 + a33 x3 ,

(6.64)

y similarmente para las coordenadas primas. En esta notacion el conjunto de tres ecuaciones
(6.64) pueden ser escritas como
3
X
0
xi =
aij xj ,
(6.65)
j=1

donde i toma los valores 1, 2 y 3 y el resultado son tres ecuaciones separadas.


De la ecuacion anterior podemos derivar interesante informacion sobre los aij los cuales
describen la orientacion del sistema de coordenadas (x01 , x02 , x03 ) relativa al sistema (x1 , x2 , x3 ).
La distancia respecto al origen es la misma en ambos sistemas. Elevando al cuadrado,
X
X 2
x2i =
x0i
i

!
X X

aik xk

(6.66)

Esto solo puede ser cierto para todos los puntos si y solo si
X
aij aik = jk ,
j, k = 1, 2, 3 .

(6.67)

X
j,k

aij xj

xj xk

aij aik .

La ecuacion (6.67) es una consecuencia de requerir que la longitud permanezca constante


(invariante) bajo rotaciones del sistema de coordenadas, es llamada la condicion de ortogonalidad. Los aij escritos como una matriz A, forman una matriz ortogonal. Notemos que la
ecuacion (6.67) no es una multiplicacion matricial.
En notacion matricial la ecuacion (6.65) llega a ser
|x0 i = A|xi .

(6.68)

Condiciones de ortogonalidad, caso bidimensional.


Podemos ganar un mejor entendimiento de los aij y de la condicion de ortogonalidad
considerando con detalle rotaciones en dos dimensiones. Esto lo podemos pensar como un
sistema tridimensional con los ejes x1 y x2 rotados respecto a x3 . De la figura 10.2,
x01 = x1 cos + x2 sen ,
x02 = x1 sen + x2 cos .

(6.69)

CAPITULO 6. DETERMINANTES Y MATRICES.

124

x2

x2
x2

n
e
s

x2

os
c
x1

x1

x1
x1

Figura 6.2: Sistemas de coordenadas rotados en dos dimensiones.

Por lo tanto por la ecuacion (6.68)



A=

cos sen
sen cos


.

(6.70)

Notemos que A se reduce a la matriz unidad para = 0. La rotacion cero significa que nada
ha cambiado. Es claro a partir de la figura 10.2 que
a11 = cos = cos(x01 , x1 ) ,


= cos(x01 , x2 ) ,
a12 = sen = cos
2

y as sucesivamente,

(6.71)

de este modo identificamos los elementos de matriz aij con los cosenos directores. La ecuacion
(6.67), la condicion de ortogonalidad, llega a ser
sen2 + cos2 = 1 ,
sen cos sen cos = 0 .

(6.72)

la extension a tres dimensiones ( rotacion de las coordenadas a lo largo del eje z en un angulo
en el sentido de los punteros del reloj) es simplemente

cos sen 0
A = sen cos 0 .
0
0
1

(6.73)

El a33 = 1 expresa el hecho que x03 = x3 , ya que la rotacion ha sido en torno al eje x3 Los
ceros garantizan que x01 y x02 no dependen de x3 y que x03 no depende de x1 y x2 . En un
lenguaje mas sofisticado, x1 y x2 se extienden sobre un subespacio invariante, mientras que
x3 forma un subespacio invariante por si solo. La forma de A es reducible. La ecuacion (6.73)
da una posible descomposicion.

6.3. MATRICES ORTOGONALES.

125

Matriz inversa A1 .
Volviendo a la matriz de transformacion general A, la matriz inversa A1 es definida tal
que
|xi = A1 |x0 i .
(6.74)
Esto es, A1 describe el inverso de la rotacion dada por A y retorna el sistema de coordenadas
a su posicion original. Simbolicamente, las ecuaciones (6.68) y (6.74) combinadas dan
|xi = A1 A|xi ,

(6.75)

A1 A = 1 ,

(6.76)

AA1 = 1 .

(6.77)

y ya que |xi es arbitrario,

la matriz unidad, Similarmente,


usando las ecuaciones (6.68) y (6.74) y eliminando |x0 i en vez de |xi.

Matriz transpuesta, A.
Podemos determinar los elementos de nuestra postulada matriz inversa A1 empleando
la condicion de ortogonalidad. La ecuacion (6.67), la condicion de ortogonalidad, no esta de
acuerdo con nuestra definicion de multiplicacion matricial, pero la podemos definir de acuerdo
tal que
a una nueva matriz A
a
ji = aij .
(6.78)
La ecuacion (6.67) llega a ser
=1.
AA

(6.79)

Esta es una reformulacion de la condicion de ortogonalidad y puede ser tomada como una
definicion de ortogonalidad. Multiplicando (6.79) por A1 por la derecha y usando la ecuacion
(6.77), tenemos
= A1 .
A
(6.80)
Este importante resultado que la inversa es igual a la transpuesta se mantiene solo para
matrices ortogonales y puede ser tomado como una reformulacion de la condicion de ortogonalidad.
Multiplicando la ecuacion (6.80) por A por la izquierda, obtenemos
=1,
AA

(6.81)

aji aki = jk ,

(6.82)

o
X
i

lo cual es otra forma mas de la condicion de ortogonalidad.

126

CAPITULO 6. DETERMINANTES Y MATRICES.

Resumiendo, la condicion de ortogonalidad puede ser enunciada de varias maneras equivalentes:


X
aij aik = jk
(6.83a)
i

aji aki = jk

(6.83b)

= AA
=1
AA
= A1 .
A

(6.83c)

(6.83d)

Cualquiera de estas relaciones es condicion necesaria y suficiente para que A sea ortogonal.
Es posible ahora ver y enteder por que el nombre ortogonal es apropiado para estas
matrices. Tenemos la forma general

a11 a12 a13


A = a21 a22 a23 ,
a31 a32 a33
de una matriz de cosenos directores en la cual aij es el coseno del angulo entre x0i y xj . Por lo
tanto, a11 , a12 , a13 son los cosenos directores de x01 relativo a x1 , x2 , x3 . Estos tres elementos
de A definen una unidad de longitud a lo largo de x01 , esto es, un vector unitario x01 ,
x01 = x1 a11 + x2 a12 + x3 a13 .
La relacion de ortogonalidad (ecuacion (6.82)) es simplemente una declaracion que los vectores unitarios x01 , x02 , y x03 son mutuamente perpendiculares o ortogonales. Nuestra matriz de
transformacion ortogonal A transforma un sistema ortogonal en un segundo sistema ortogonal
de coordenadas por rotacion y/o reflexion.

Angulos
de Euler.
Nuestra matriz de trasformacion A contiene nueve cosenos directores. Claramente, solo
tres de ellos son independientes, la ecuacion (6.67) proveen seis restricciones. De otra manera,
uno puede decir que necesita dos parametros ( y en coordenadas polares esfericas) para
fijar el eje de rotacion, mas uno adicional para describir la magnitud de la rotacion en torno a
ese eje. En la formulacion Lagrangiana de la mecanica es necesario describir A usando alg
un
conjunto de tres parametros independientes mas que los redundantes cosenos directores. La
eleccion usual de estos parametros es la de los angulos de Euler6
000
000
El objetivo de describir la orientacion de un sistema final rotado (x000
1 , x2 , x3 ) relativo a
algun sistema de coordenadas inicial (x1 , x2 , x3 ). El sistema final es desarrollado en tres pasos
cada paso involucra una rotacion descrita por un angulo de Euler (figura 10.3):
1. Los ejes x01 , x02 , y x03 son rotados respecto al eje x3 en un angulo en el sentido horario
relativo a x1 , x2 y x3 . (Los ejes x3 y x03 coinciden.)
6

No hay una u
nica manera de definir los
angulos de Euler. Usamos la eleccion usual en Mecanica Cuantica
de momento angular.

6.3. MATRICES ORTOGONALES.

127

x 3= x3

x
3 = x
3

x 3= x3
x
3

x1
x1

x2

x 3= x3

x2

x1

x
1

x2

x=
2 x
2

x
1

(b)

(a)

x
2
x=
x
2
2
x
1

(c)

Figura 6.3: (a) Rotacion respecto al eje x3 en un angulo ; (b) Rotacion respecto a un eje x02
en un angulo ; (c) Rotacion respecto a un eje x003 en un angulo .

2. los ejes x001 , x002 , y x003 son rotados respecto al eje x02 en un angulo en el sentido horario
relativo a x01 , x02 y x03 . (Los ejes x02 y x002 coinciden.)
3. la tercera y final rotacion es en un angulo en sentido horario respecto al eje x003 produ000
000
00
000
ciendo el sistema (x000
1 , x2 , x3 ). (Los ejes x3 y x3 coinciden.)
Las tres matrices que describen estas rotaciones son:

cos sen

Rz () = sen cos
0
0

0
0 ,
1

(6.84)

exactamente como en la ecuacion (6.73,

cos 0 sen
1
0
Ry () = 0
sen 0 cos

(6.85)

cos sen 0
Rz () = sen cos 0 .
0
0
1

(6.86)

La rotacion total es descrita por el producto matricial triple,


A(, , ) = Rz ()Ry ()Rz () .

(6.87)

Notemos el orden: Rz () opera primero, entonces Ry (), y finalmente Rz (). La multiplicacion da

cos cos cos sen sen


cos cos sen sen cos cos sen
sen sen .
A = sen cos cos cos sen sen cos sen + cos cos
sen cos
sen sen
cos
(6.88)

CAPITULO 6. DETERMINANTES Y MATRICES.

128

Comparando A(aij ) con A(, , ) elemento por elemento, nos produce los cosenos directores
en terminos de los angulos de Euler.
Propiedades de simetra.
Nuestra descripcion matricial conduce al grupo de rotaciones SO(3) en el espacio tridimensional R3 , y la descripcion en terminos de angulos de Euler de las rotaciones forman una
base para desarrollar el grupo de rotaciones. Las rotaciones pueden tambien ser descritas por
el grupo unitario SU (2) en el espacio bidimensional C2 .
La matriz transpuesta es u
til en la discusion de las propiedades de simetra. Si
,
A=A

aij = aji ,

(6.89)

aij = aji ,

(6.90)

la matriz es llamada simetrica, mientras que si


,
A = A

es llamada antisimetrica. Los elementos de la diagonal son nulos. Es facil mostrar que cualquier matriz cuadrada puede ser escrita como la suma de una matriz simetrica y una antisimetrica. Consideremos la identidad
i
h
i
1h
+ 1 AA
.
(6.91)
A=
A+A
2
2
es claramente simetrica, mientras que A A
es claramente antisimetrica.
A+A
Hasta ahora hemos interpretado las matrices ortogonales como rotaciones del sistema de
coordenadas. Estas cambian las componentes de un vector fijo. Sin embargo, una matriz ortogonal A puede ser interpretada igualmente bien como una rotacion del vector en la direccion
opuesta (figura 10.4).

r
y

r 1= A r

y
x

Figura 6.4: Vector fijo con coordenadas rotadas.


Estas dos posibilidades, (1) rotar el vector manteniendo la base fija y (2) rotar la base
(en el sentido opuesto) manteniendo el vector fijo.

6.4. MATRICES HERMITICAS, MATRICES UNITARIAS.

129

Supongamos que interpretamos la matriz A como rotar un vector ~r en una nueva posicion
~r1 , i.e., en un particular sistema de coordenadas tenemos la relacion
~r1 = A~r .

(6.92)

Ahora rotemos las coordenadas aplicando una matriz B, la cual rota (x, y, z) en (x0 , y 0 , z 0 ),
~r 01 = B~r1 = BA~r = (A~r)0
= BA(B1 B)~r
1

(6.93)
1

= (BAB )B~r = (BAB )~r .


B~r1 es justo ~r1 0 en el nuevo sistema de coordenadas con una interpretacion similar se mantine
para B~r. Ya que en este nuevo sistema (B~r) es rotado a la posicion (B~r1 ) por la matriz BAB1 .
B~r1 = (BAB1 ) B~r

0
0
~r 1 = A
~r 0 .
En el nuevo sistema las coordenadas han sido rotadas por la matriz B, A tiene la forma A0 ,
en la cual
A0 = BAB1 .
(6.94)
A0 opera en el espacio x0 , y 0 , z 0 como A opera en el espacio x, y, z.
La transformacion definida por la ecuacion (6.94) con B cualquier matriz, no necesariamente ortogonal, es conocida como trasformacion de similaridad. Por componentes la ecuacion
(6.94) llega a ser
X
a0ij =
bik akl (B1 )lj .
(6.95)
k,l

Ahora si B es ortogonal,
lj = bjl ,
(B1 )lj = (B)

(6.96)

y tenemos
a0ij =

bik bjl akl .

(6.97)

k,l

La matriz A es la representacion de un mapeo lineal en un sistema de coordenadas dado


o base. Pero hay direcciones asociadas con A, ejes cristalinos, ejes de simetra en un solido
rotando y etc. tal que la representacion depende de la base. La transformacion de similaridad
muestran justo como la representacion cambia con un cambio de base.

6.4.

Matrices Hermticas, matrices unitarias.

Definiciones.
Hasta aqu hemos generalmente supuesto que nuestro espacio vectorial es un espacio real
y que los elementos de las matrices (la representacion de los operadores lineales) son reales.
Para muchos calculos en Fsica Clasica los elementos de matriz reales seran suficientes. Sin

CAPITULO 6. DETERMINANTES Y MATRICES.

130

embargo, en Mecanica Cuantica las variables complejas son inevitables por la forma de las
reglas de conmutacion basicas (o la ecuacion tiempo dependiente de Schodinger). Con esto
en mente, generalizamos al caso de matrices con elementos complejos. Para manejar estos
elementos, definamos algunas propiedades.
1. Compleja conjugada, A ,
formada por tomar los complejos conjugados (i i) de
cada elemento, donde i = 1.
2. Adjunta, A , formada por transponer A ,
f = A
.
A = A

(6.98)

3. Matriz hermtica: La matriz es etiquetada como hermtica (o autoadjunta) si


A = A .

(6.99)

y las matrices hermticas reales son matrices reales y


Si A es real, entonces A = A,
simetricas. En Mecanica Cuantica las matrices son hermticas o unitarias.
4. Matriz unitaria: La matriz U es etiquetada como unitaria si
U = U1 .

(6.100)

tal que las matrices reales unitarias son matrices


Si U es real, entonces U1 = U,
ortogonales. Este representa una generalizacion del concepto de matriz ortogonal.
5. (AB) = B A , (AB) = B A .
Si los elementos son complejos, a la Fsica casi siempre le interesan las matrices adjuntas,
hermticas y unitarias. Las matrices unitarias son especialmente importantes en Mecanica
Cuantica porque ellos dejan el largo de un vector (complejo) inalterado, analoga a la operacion
de una matriz ortogonal sobre un vector real. Una importante excepcion a este interes en las
matrices unitarias es el grupo de matrices de Lorentz.
En un espacio n-dimensional complejo el cuadrado del largo de P
un punto x P
= (x1 , x2 , . . . , xn ),

o el cuadrado de su distancia al origen, es definido como x x = i xi xi = i | xi |2 . Si una


trasformacion de coordenadas y = Ux deja la distancia inalterada, entonces x x = y y =
(Ux) Ux = x U Ux. Ya que x es arbitrario concluimos que U U = 1n , i.e., U es una matriz
unitaria de n n. Si x0 = Ax es un mapa lineal, entonces su matriz en las nuevas coordenadas
llega a ser una transformacion unitaria (analogo de una de similaridad)
A0 = UAU ,
porque Ux0 = y 0 = UAx = UAU1 y = UAU y.

6.4. MATRICES HERMITICAS, MATRICES UNITARIAS.

131

Matrices de Pauli y de Dirac.


El conjunto de tres matrices de Pauli de 2 2 ,




0 1
0 i
1 =
, 2 =
,
1 0
i 0


3 =


1 0
,
0 1

fueron introducidas por W. Pauli para describir una partcula de spin


no relativista. Se puede demostrar que las satisfacen
i j + j i = 2ij 12 ,
i j = ik ,
(i )2 = 12 ,

1
2

(6.101)

en Mecanica Cuantica

anticonmutacion
permutacion cclica de los ndices

(6.102)
(6.103)
(6.104)

donde 12 es la matriz unidad de 2 2. As, el vector ~ /2 satisface las mismas reglas de


conmutacion
[i , j ] i j j i = 2iijk k ,
(6.105)
~
que el momento angular L.
Las tres matrices de Pauli ~ y la matriz unitaria forman un conjunto completo tal que
cualquier matriz de 2 2 M puede ser expandida como
M = m0 1 + m1 1 + m2 2 + m3 3 = m0 1 + m
~ ~ ,

(6.106)

donde los mi son constantes. Usando i2 = 1 y tr(i ) = 0 nosotros obtenemos a partir de la


ecuacion (6.106) los coeficientes mi de la expansion formando las trazas,
2m0 = tr(M) ,

2mi = tr(M i ) ,

i = 1, 2, 3 .

(6.107)

En 1927 P.A.M. Dirac extendio este formalismo para partculas de spin 21 moviendose a
velocidades cercana a la de la luz tales como electrones Para inclur la relatividad especial
su punto de partida es la ecuacion de Einstein para la energa E 2 = p~ 2 c2 + m2 c4 en vez de
la energa cinetica y potencial no relativista E = p~ 2 /2m + V . La clave para la ecuacion de
Dirac es factorizar
E 2 p~ 2 c2 = E 2 (c~ p~)2 = (E c~ p~)(E + c~ p~) = m2 c4 ,

(6.108)

usando la identidad matricial en 2 2


(c~ p~)2 = p~ 2 12 .

(6.109)

La matriz unidad de 2 2 12 no es escrita explcitamente en la ecuacion (6.108) y (6.109).


Podemos presentar las matrices 0 y para factorizar E 2 p~ 2 c2 directamente,
(0 E c~ p~)2 = 02 E 2 + 2 c2 (~ p~)2 Ec~ p~(0 + 0 ) = E 2 p~ 2 c2 = m2 c4 . (6.110)
Si reconocemos
0 E c~ p~ = p = (0 , ~ ) (E, c~p) ,

(6.111)

CAPITULO 6. DETERMINANTES Y MATRICES.

132

como el producto escalar de dos cuadrivectores y p , entonces la ecuacion (6.110) con


p2 = p p = E 2 p~ 2 c2 puede ser visto como una generalizacion cuadrivectorial de la ecuacion
(6.109). Claramente, para que la ecuacion (6.110) mantenega las condiciones
02 = 1 = 2 ,

0 + 0 = 0 ,

(6.112)

debe satisfacerse que las cuatro matrices anticonmuten, justo como las tres matrices de
Pauli. Ya que estas u
ltimas son un conjunto completo de matrices anticonmutantes de 2 2,
la condicion (6.112) no puede ser satisfacerse para matrices de 2 2, pero ella puede ser
satisfecha para matrices de 4 4

1 0 0
0


0 1 0
12 0
0
0

=
,
0 = =
0 12
0 0 1 0
0 0 0 1

(6.113)
0
0 0 1


0
0 1 0
0 12

=
0 1 0 0 = 12 0 .
1 0 0 0
Alternativamente, el vector de matrices de 4 4


0 ~
=
= ~ = 1 ~ ,
~ 0

(6.114)

puede obtenerse como el producto directo en el mismo sentido de la seccion 10.2 de las
matrices de 2 2 de Pauli. De la misma manera, 0 = 3 12 y 14 = 12 12 .
Resumiendo el tratamiento relativista de una partcula de spin 21 , produce matrices de
4 4, mientras que las partculas no relativistas de spin 12 son descritas por las matrices de
Pauli de 2 2.

6.5.

Diagonalizaci
on de matrices.

Momento de la matriz de inercia .


En muchos problemas en Fsica que involucran matrices reales simetricas o complejas
hermticas es deseable llevar a cabo una real transformacion de similaridad ortogonal o una
transformacion unitaria (correspondiente a una rotacion del sistema de coordenadas) para
reducir la matriz a una forma diagonal, con todos los elementos no diagonales nulos. Un
ejemplo particularmente directo de esto es la matriz del momento de inercia I de un cuerpo
~ tenemos
rgido. A partir de la difinicion del momento angular L
~ = I~ ,
L

(6.115)

donde
~ viene a ser la velocidad angular. La matriz de inercia I tiene elementos diagonales
X
Ixx =
mi (ri2 x2i ) , y as sucesivamante,
(6.116)
i

DE MATRICES.
6.5. DIAGONALIZACION

133

el subndice i referencia la masa mi localizada en ~ri = (xi , yi , zi ). Para las componentes no


diagonales tenemos
X
Ixy =
mi xi yi = Iyx .
(6.117)
i

Por inspeccion la matriz I es simetrica. Tambien, ya que I aparece en una ecuacion fsica de la
forma (6.115), la cual se mantiene para todas las orientaciones del sistema de coordenadas,
esta puede ser considerada un tensor (regla del cuociente).
La clave ahora es la orientacion de los ejes (a lo largo de un cuerpo fijo) tal que Ixy y
los otros elementos no diagonales desaparezcan. Como una consecuencia de esta orientacion
y una indicacion de ella, si la velocidad angular esta a lo largo de tales realineados ejes, la
velocidad angular y el momento angular seran paralelos.
Autovectores y autovalores (eigenvector y eigenvalues).
Es quizas instructivo considerar un cuadro geometrico asociado a este problema. Si la
matriz de inercia I es multiplicada a cada lado por un vector unitario cuya direccion es
variable, n
= (, , ), entonces en notacion de Dirac
h
n|I|
ni = I ,

(6.118)

donde I es el momento de inercia respecto a la direccion n


y es un n
umero positivo (escalar).
Llevando a cabo la multiplicacion, obtenemos
I = Ixx 2 + Iyy 2 + Izz 2 + 2Ixy + 2Ixz + 2Iyz .

(6.119)

Si introducimos

~n = = (n1 , n2 , n3 ) ,
I
la cual es variable en direccion y magnitud entonces la ecuacion (6.119) llega a ser
1 = Ixx n21 + Iyy n22 + Izz n23 + 2Ixy n1 n2 + 2Ixz n1 n3 + 2Iyz n2 n3 ,

(6.120)

(6.121)

una forma cuadratica positiva la cual debe ser un elipsoide (ver figura 10.5).
A partir de la geometra analtica es sabido que los ejes de coordenadas pueden ser rotados
para coincidir con los ejes de nuestro elipsoide. En muchos casos elementales, espacialmente
cuando hay simetra, estos nuevos ejes, llamados ejes principales, pueden ser encontrados por
inspeccion. Ahora nosotros procederemos a desarrollar un metodo general de hallazgo de los
elementos diagonales y los ejes principales.
es la correspondiente matriz ortogonal real tal que ~n0 = R~n, o |n0 i = R|ni en
Si R1 = R
la notacion de Dirac, son las nuevas coordenadas, luego obtenemos usando hn0 |R = hn| en la
ecuacion (6.121)
0 i = I 0 n0 2 + I 0 n0 2 + I 0 n0 2 ,
hn|I|ni = hn0 |RIR|n
1 1
2 2
3 3
Ii0

(6.122)
0

donde los > 0 son los momentos de inercia principales. La matriz de inercia I en la ecuacion
(6.122) es diagonal en las nuevas coordenadas,
0

I1 0 0
= 0 I0 0 .
(6.123)
I0 = R1R
2
0
0 0 I3

CAPITULO 6. DETERMINANTES Y MATRICES.

134

n3

n3

n1

n2
n1
n2

Figura 6.5: Elipsoide del momento de inercia.

Si reescribimos la ecuacion (6.123) usando R1 = R


0 = IR
,
RI

(6.124)

= (~v1 , ~v2 , ~v3 ) compuesto de tres vectores columnas, entonces la ecuacion (6.124)
y tomando R
se separa en tres ecuaciones de autovalores
I~vi = Ii0~vi ,

i = 1, 2, 3 ,

(6.125)

con autovalores Ii0 y autovectores ~vi . Como estas ecuaciones son lineales y homogeneas (para
un i fijo), por la seccion 10.1 los determinantes tienen que anularse:


I11 I10

I
I
12
13


0
I21
I22 I2
I23 = 0 .
(6.126)

0
I31
I32
I33 I3
Reemplazando los autovalores Ii0 por una variable veces la matriz unidad 1, podriamos
reescribir la ecuacion (6.125) como
(I 1)|vi = 0 ,

(6.127)

|I 1| = 0 ,

(6.128)

cuyo determinante
es un polinomio c
ubico en ; sus tres raices, por supuesto, son los Ii0 . Sustituyendo una raz
de regreso en la ecuacion (6.125), podemos encontrar los correspondientes autovectores. La
ecuacion (6.126) (o la (6.128)) es conocida como la ecuacion secular. El mismo tratamiento
se aplica a una matriz simetrica real I, excepto que sus autovalores no necesitan ser todos positivos. Tambien, la condicion de ortogonalidad en la ecuacion (6.83a-6.83d) para R dice que,
en terminos geometricos, los autovectores ~vi son vectores mutuamente ortogonales unitarios.
Por cierto ellos forman las nuevas coordenadas del sistema. El hecho que cualquier par de

DE MATRICES.
6.5. DIAGONALIZACION

135

autovectores ~vi , ~vj son ortogonales si Ii0 6= Ij0 se deduce de la ecuacion (6.125) en conjuncion
con la simetra de I multiplicando con ~vi y ~vj , respectivamente,
hvj |I|vi i = Ii0 hvj |vi i = hvi |I|vj i = Ij0 hvj |vi i .

(6.129)

Ya que Ii0 6= Ij0 y la ecuacion (6.129) implica que (Ii0 Ij0 ) ~vi ~vj = 0, por lo tanto ~vi ~vj = 0.
Matrices hermticas.
Para espacios vectoriales complejos las matrices unitarias y hermticas juegan el mismo
rol como las matrices ortogonales y simetricas sobre los espacios vectoriales reales, respectivamente. Primero, generalicemos el importante teorema acerca de los elementos diagonales
y los ejes principales para la ecuacion de autovalores
A|ri = |ri .

(6.130)

Ahora mostramos que si A es una matriz hermtica, sus autovalores son reales y sus
autovectores ortogonales.
Sean i y j dos autovalores y |ri i y |rj i, los correspondientes autovectores de A, una
matriz hermtica. Entonces
A|ri i = i |ri i
A|rj i = j |rj i .

(6.131)
(6.132)

La ecuacion (6.131) es multilicada por |rj i


hrj |A|ri i = i hrj |ri i .

(6.133)

La ecuacion (6.132) es multiplicada por |ri i para dar


hri |A|rj i = j hri |rj i .

(6.134)

Tomando la adjunta conjugada de esta ecuacion, tenemos


hrj |A |ri i = j hrj |ri i

(6.135)

hrj |A|ri i = j hrj |ri i ,

(6.136)

o
ya que A es hermtica. Sustrayendo la ecuacion (6.136) de la ecuacion (6.133), obtenemos
(i j )hrj |ri i .

(6.137)

Este es un resultado general para todas las combinaciones posibles de i y j. Primero, sea
j = i. Luego la ecuacion (6.137) se convierte en
(i i ) hri |ri i = 0 .

(6.138)

Ya que hri |ri i = 0 sera una solucion trivial de la ecuacion (6.138), concluimos que
i = i ,

(6.139)

CAPITULO 6. DETERMINANTES Y MATRICES.

136
es decir, i es real, para todo i.
Segundo, para i 6= j y i 6= j ,

(i j ) hri |rj i = 0

(6.140)

hri |rj i = 0

(6.141)

o
lo cual significa que los autovectores de distintos autovalores son ortogonales, la ecuacion
(6.141) siendo la generalizacion de ortogonalidad en este espacio complejo.
Si i = j (caso degenerado), hri | no es automaticamente ortogonal a |rj i, pero podra
hacerse ortogonal. Consideremos el problema fsico de la matriz del momento de inercia
nuevamente. Si xi es un eje de simetra rotacional, entonces encontraremos que 2 = 3 . Los
autovectores |r2 i y |r3 i son cada uno perpendiculares al eje de simetra, |r1 i, pero ellos yacen
en alguna parte en el plano perpendicular a |r1 i; esto es, alguna combinacion lineal de |r2 i y
|r3 i es tambien un autovector. Considere (a2 |r2 i + a3 |r3 i) con a2 y a3 constantes. Entonces
A(a2 |r2 i + a3 |r3 i) = a2 2 |r2 i + a3 3 |r3 i
= 2 (a2 |r2 i + a3 |r3 i) ,

(6.142)

como es esperado, para x1 un eje de simetra rotacional. Por lo tanto, si |r1 i y |r2 i son
fijos, |r3 i, puede simplemente escogerse yaciendo en el plano perpendicular a |r1 i y tambien
perpendicular a |r2 i. Un metodo general para ortogonalizar soluciones conocido como proceso
de Gram-Schmidt, es aplicado a funciones mas adelante.
El conjunto de n autovectores ortogonales de nuestra matriz hermtica de n n forma un
conjunto completo, generando el espacio de n dimensiones complejo. Este hecho es u
til en un
calculo variacional de los autovalores. Los autovalores y los autovectores no estan limitados
a las matrices hermticas. Todas las matrices tienen autovalores y autovectores. Por ejemplo,
la matriz T de poblacion estocastica satisface una ecuacion de autovalores
TP~equilibrio = P~equilibrio ,
con = 1. Sin embargo, solamente las matrices hermticas tienen todos los autovectores
ortogonales y todos sus autovalores reales.
Matrices antihermticas.
Ocasionalmente, en Mecanica Cuantica encontramos matrices antihermticas:
A = A .
Siguiendo el analisis de la primera porcion de esta seccion, podemos mostrar que
a. Los autovalores son imaginarios puros (o cero).
b. Los autovectores correspondientes a autovalores distintos son ortogonales.

DE MATRICES.
6.5. DIAGONALIZACION

137

La matriz R formada de los autovectores normalizados es unitaria. Esta propiedad antihermtica es preservada bajo transformaciones unitarias.
Ejemplo: Autovalores y autovectores de una
Sea

A= 1
0
La ecuacion secular es

matriz real simetrica.

1 0
0 0 .
0 0

(6.143)



1
0

1 0 = 0 ,


0
0

(6.144)

(2 1) = 0 ,

(6.145)

o
expandiendolo por las menores. Las raices son = 1, 0, 1. Para encontrar el autovector
correspondiente a = 1, sustituimos este valor de vuelta en la ecuacion de autovalores,
ecuacion (6.130),


1
0
x
0
1 0 y = 0 .
(6.146)
0
0
z
0
Con = 1, esto produce
x+y =0 ,

z=0.

(6.147)

Dentro de un factor de escala arbitrario, y un signo arbitrario (factor de fase), hr1 | = (1, 1, 0).
Notemos que (para el real |ri en el espacio ordinario) el autovector define una lnea en el
espacio. El sentido positivo o negativo no esta determinado. Esta indeterminacion puede
ser entendida si notamos que la ecuacion (6.130) es homogenea en |ri. Por conveniencia
requeriremos que los autovectores esten normalizados a la unidad, hr1 |r1 i = 1. Con esta
eleccion de signo


1
1
(6.148)
hr1 | = r~1 = , , 0 ,
2
2
esta fijo. Para = 0, la ecuacion (6.130) produce
y=0,

x=0,

(6.149)

hr2 | o ~r2 = (0, 0, 1) es un autovector aceptable. Finalmente, para = 1, tenemos


x+y =0 ,
o

z=0,

(6.150)


1 1
hr3 | = r~3 = , , 0 .
(6.151)
2 2
La ortogonalidad de ~r1 , ~r2 y ~r3 , correspondientes a los tres autovalores distintos, puede ser
facilmente verificada.
Ejemplo: Autovalores degenerados.

CAPITULO 6. DETERMINANTES Y MATRICES.

138
Consideremos

La ecuacion secular es

1 0 0
A = 0 0 1 .
0 1 0

(6.152)




1 0
0


0
1 = 0 ,

0
1

(6.153)

o
(1 )(2 1) = 0 ,

= 1, 1, 1 ,

(6.154)

un caso degenerado. Si = 1, la ecuacion de autovalores (6.130) produce


2x = 0 ,

y+z =0 .

(6.155)

Un autovector normalizado adecuado es



hr1 | = r~1 =

1
1
0, ,
2
2


.

(6.156)

para = 1, tenemos
y+z =0 .

(6.157)

Cualquier autovector que satisface la ecuacion (6.157) es perpendicular a ~r1 . Tenemos infinito
n
umero de opciones. Tomemos una eleccion posible tomando


1 1
,
(6.158)
hr2 | = r~2 = 0, ,
2 2
la cual claramente satisface la ecuacion (6.157). Entonces ~r3 debe ser perpendicular a ~r1 y
puede ser escogido perpendicular a ~r2 por7
~r3 = ~r1 ~r2 = (1, 0, 0) .

(6.159)

Funciones de matrices.
Polinomios con uno o mas argumentos matriciales estan bien definidos y ocurren a menudo. Series de potencias de una matriz tambien pueden estar definidas para dar la convergencia
de la serie para cada uno de los elementos de matriz. Por ejemplo, si A es cualquiera matriz
de n n entonces la serie de potencia
exp(A) =
sen(A) =

X
Ai
i=0

i!

(1)i

A2i+1
,
(2i + 1)!

(6.160b)

(1)i

A2i
,
(2i)!

(6.160c)

i=0

cos(A) =

X
i=0

(6.160a)

El uso del producto cruz es limitado a tres dimensiones.

6.6. MATRICES NORMALES.

139

son matrices de n n bien definidas. Para todas las matrices de Pauli k la identidad de
Euler para real y k =1, 2 o 3
exp(ik ) = 12 cos() + ik sen() ,

(6.161)

sale a partir de colectar las potencias pares e impares en series separadas usando k2 = 1.
Para las matrices de Dirac ij de 4 4 con ( ij )2 = 1, si j 6= k = 1, 2 o 3, obtenemos de
manera similar (sin escribir las obvias matrices 14 nunca mas)
exp(i jk ) = cos() + i jk sen() ,

(6.162)

exp(i 0k ) = cosh() + i 0k senh() ,

(6.163)

mientras
manteniendo real porque (i 0k )2 = 1 para k = 1, 2 o 3.
Para una matriz hermtica A hay una matriz unitaria U que la diagonaliza, es decir,
UAU = [a1 , a2 , . . . , an ]. Entonces la formula de la traza
det(exp(A)) = exp(tr(A))

(6.164)

Puede ser facilmente demostrado.


Otra importante relacion es la de formula de Baker-Hausdorff
exp(iG)H exp(iG) = H + [iG, H] +

[iG, [iG, H]]


+
2!

(6.165)

lo cual resulta de multiplicar las serie de potencia para exp(iG) y recolectar los terminos de
la misma potencia en iG. Aqu definimos
[G, H] = GH HG
como el conmutador de G con H.

6.6.

Matrices normales.

En la seccion 10.5 nos concentramos principalmente en matrices hermticas o reales


simetricas y en el proceso de encontrar autovalores y autovectores. En esta seccion generalizaremos a matrices normales con matrices hermtica y unitario como casos especiales.
Consideramos los casos fsicamente importantes como el problema de los modos de vibraciones y el problema numerico importante de matrices patologicas.
Una matriz normal es una matriz que conmuta con su adjunta,
[A, A ] = 0 .
Ejemplos obvios e importante son las matrices hermticas y unitarias. Mostraremos que
las matrices normales tienen autovectores (ver tabla 6.1)
I. Sea |xi un autovector de A con correspondiente autovalor . Entonces
A|xi = |xi

(6.166)

CAPITULO 6. DETERMINANTES Y MATRICES.

140

Autovectores
Matriz
Autovalores
(para diferentes autovalores)
Hermtica
Real
Ortogonal
Antihermtica Imaginaria puro (o cero)
Ortogonal
Unitaria
Magnitud uno
Ortogonal
Normal
Si A tiene autovalor
Ortogonal

A tiene autovalor
A y A tienen los mismos autovectores
Cuadro 6.1:
o
(A 1)|xi = 0 .

(6.167)

Por conveniencia la combinacion A 1 la etiquetamos B. Tomando la adjunta de la ecuacion


(6.167), obtenemos
hx|(A 1) = 0 = hx|B .
(6.168)
Porque
[(A 1), (A 1) ] = [A, A ] = 0 ,
tenemos
[B, B ] = 0 .

(6.169)

La matriz B es tambien normal.


A partir de las ecuaciones (6.167) y (6.168) formamos
hx|B B|xi = 0 .

(6.170)

hx|BB |xi = 0 .

(6.171)

Usando (6.169)
Ahora la ecuacion (6.171) puede ser rescrita como
(B |xi) (B |xi) = 0 .

(6.172)

B |xi = (A 1)|xi = 0 .

(6.173)

Asi
Vemos que para matrices normales, A tiene los mismos autovectores que A pero los autovalores son los complejos conjugados.
II. Ahora, consideremos mas que uno autovector-autovalor, tenemos
A|xi i = i |xi i ,
A|xj i = j |xj i .

(6.174)
(6.175)

Multiplicando la ecuacion (6.175) por la izquierda por hxi | produce


hxi |A|xj i = j hxi |xj i .

(6.176)

6.6. MATRICES NORMALES.

141

Operando sobre el lado izquierdo de la ecuacion (6.176), obtenemos


hxi |A = (A |xi i) .

(6.177)

A partir de la ecuacion (6.173) sabemos que A tiene los mismos autovectores que A pero con
los complejos conjugados de los autovalores
(A |xi i) = (i |xi i) = i hxi | .

(6.178)

Sustituyendo en la ecuacion (6.176) tenemos


i hxi |xj i = j hxi |xj i

(6.179)

(i j )hxi |xj i = 0 .

(6.180)

o
Esta es la misma que la ecuacion (6.140).
Para i 6= j
hxi |xj i = 0 .
Los autovectores correspondientes a diferentes autovalores de una matriz normal son ortogonales. Esto significa que una matriz normal puede ser diagonalizada por una transformacion
unitaria. La matriz unitaria requerida puede ser construida a partir de los vectores ortonormales como se mostro en la seccion anterior.
El converso tambien es valido. Si A puede ser diagonalizada por una transformacion
unitaria, entonces A es normal.
Modos normales de vibraci
on.
Consideremos las vibraciones de un modelo clasico de la molecula de CO2 Esta es una
ilustracion de la aplicacion de las tecnicas matriciales a un problema que no parte como
un problema de matrices. Tambien provee un ejemplo de autovalores y autovectores de una
matriz real asimetrica.
Ejemplo: Modos Normales.
Consideremos tres masas sobre el eje x unidas por resortes como muestra la figura 10.6.
Las fuerzas de los resortes se suponen lineales (para peque
nos desplazamientos, ley de Hooke)
y las masas se restringen a mantenerse sobre el eje x.
Usando una coordenada diferente para cada masa la segunda ley de Newton produce el
conjunto de ecuaciones
k
(x1 x2 )
M
k
k
x2 = (x2 x1 ) (x2 x3 )
M
m
k
x3 = (x3 x2 ) .
M
x1 =

(6.181)

CAPITULO 6. DETERMINANTES Y MATRICES.

142

x1

x2

x3

Figura 6.6: Vector fijo con coordenadas rotada.

El sistema de masa esta vibrando. Buscamos las frecuencias comunes, tal que todas las
masas vibren en esta misma frecuencia. Estos son los modos normales. Sea
xi = xi0 eit ,

i = 1, 2, 3.

Subtituyendo en la ecuacion (6.181), podemos escribir este conjunto como


k
k

M
M

2k
k

m
m

k
0


x
x1
1
0

x2
= 2

x2 ,



k
x3
x3
M

(6.182)

dividiendo por el factor com


un eit . Tenemos una ecuacion matricial de autovalores con la
matriz asimetrica. La ecuacion secular es


k

k

0

2

M
M


k
2k
k

2
(6.183)
=0.



m
m
m




k
k
2

0


M
M
Esto conduce a

k
2
M



2k
k
2

=0
m
M

Los autovalores son


2 = 0 ,
todas reales.

k
,
M

k
2k
+
,
M
m

6.6. MATRICES NORMALES.

143

Los correspondientes autovectores son determinados sustituyendo los autovalores de regreso en la ecuacion (6.182) un autovalor a la vez. Para 2 = 0, ecuacion (6.182) produce
x1 x2 = 0
x1 + 2x2 x3 = 0
x2 + x3 = 0 .
Entonces, tenemos
x1 = x2 = x3 .
Esto describe una translacion pura sin movimiento relativo de las masas y sin vibracion.
k
, la ecuacion (6.182) produce
Para 2 =
M
x1 = x3 ,

x2 = 0 .

(6.184)

Las masas exteriores se mueven en direcciones opuestas. El masa del centro esta estacionaria.
k
2k
Para 2 =
+ , las componentes de los autovectores son
M
M
x2 =

x1 = x3 ,

2M
x1 .
m

Las dos masas exteriores se estan moviendo juntas. La masa del centro se esta moviendo
opuesta a las otras dos. El momentum neto es cero.
Cualquier desplazamiento de estas tres masas a lo largo del eje x puede ser descrito como
una combinacion lineal de estos tres tipos de movimiento: translacion mas dos formas de
vibracion.
Sistemas con condiciones patol
ogicas.
Un sistema lineal de ecuaciones puede ser escrito como
A|xi = |yi o A1 |yi = |xi ,

(6.185)

con A y |yi conocido y |xi desconocido. Podemos encontrar ejemplos en los cuales un peque
no
error en |yi resulta en un gran error en |xi. En este caso la matriz A es llamada de condicion
patologica. Si |xi es el error en |xi y |yi es el error en |yi, entonces los errores relativos
pueden ser escritos como


hx|xi
hx|xi

1/2

hy|yi
K(A)
hy|yi

1/2
.

(6.186)

Aqu K(A), una propiedad de la matriz A, es etiquetado la condicion de n


umero. Para A
hermtica una forma de la condicion de n
umero es dada por
K(A) =

| |max
.
| |min

(6.187)

CAPITULO 6. DETERMINANTES Y MATRICES.

144

Una forma aproximada debido a Turing es


K(A) = n[Aij ]max [A1
ij ]max ,

(6.188)

en la cual n es el orden de la matriz y [Aij ]max es el maximo elemento en A.


Ejemplo: Una matriz patologica.
Un ejemplo com
un de una matriz con condicion patologica es la matriz de Hilbert, la
matriz de Hilbert de orden 4 es Hij = (i + j 1)1 ,

1 1 1
1

2 3 4

1 1 1 1

(6.189)
H4 = 2 3 4 5 .
1 1 1 1

3 4 5 6
1 1 1 1
4

Los elementos de la matriz inversa (orden n) son dados por


(H1
n )ij =
Para n = 4

(1)i+j
(n + i 1)!(n + j 1)!

.
i + j 1 [(i 1)!(j 1)!]2 (n i)!(n j)!

H1
4

16 120
240 140
120
1200 2700
1680
.
=
240 2700
6480 4200
140
1680 4200
2800

(6.190)

(6.191)

umero para H4
A partir de la ecuacion (6.188) la estimacion de Turing de la condicion de n
llega a ser
KTuring = 4 1 6480
2.59 104 .
Esto es una advertencia de que un error en la entrada puede ser multiplicado por 26000
en el calculo del resultado de salida. Esto sentencia que H4 tiene condicion patologica. Si
usted encuentra un sistema altamente patologico tiene un par de alternativas (ademas de
abandonar el problema).
a. Tratar un ataque matematico diferente.
b. Hacer arreglos para llevar mas cifras significativas y a costa de fuerza bruta empujar de
principio a fin.

Captulo 7
Teora de grupo.
versi
on final 1.2-0905021

Disciplined judgment about what is neat


and simmetrical and elegant has time and
time again proved an excellent guide to
how nature work.
Murray Gell-Mann

7.1.

Introducci
on.

En mecanica clasica la simetra de un sistema fsico conduce a una ley de conservacion. La


conservacion del momentum angular es una consecuencia directa de la simetra rotacional, lo
cual significa invariancia bajo rotaciones espaciales. A principios del siglo pasado, Wigner y
otros comprendieron que la invariancia era el concepto clave en el entendimiento de los nuevos
fenomenos y en el desarrollo de teoras apropiadas. As, en mecanica cuantica los conceptos de
momento angular y spin han llegado a ser a
un mas centrales. Sus generalizaciones, el isospin
en fsica nuclear y la simetra de sabor en fsica de partculas, son herramientas indispensables
en la construccion teorica y en sus soluciones. Las generalizaciones del concepto de invariacia
de gauge de la electrodinamica clasica para la simetra del isospin conduce a la teora de
gauge electrodebil.
En cada caso el conjunto de estas operaciones de simetra forman un grupo. La teora
de grupo es la herramienta matematica para tratar las invariancias y las simetras. Ella trae
consigo unificacion y formalizacion de principios tales como reflexion espacial, o paridad,
momento angular, y geometra que son ampliamente usados por los fsicos.
En geometra el rol fundamental de la teora de grupo fue reconocido hace mucho tiempo
por los matematicos. En geometra euclideana la distancia entre dos puntos, el producto
escalar de dos vectores o metrica, no cambia bajo rotaciones o translaciones. Estas simetras
son caractersticas de esta geometra. En relatividad especial la metrica, o producto escalar
de cuadrivectores, difiere del de la geometra euclideana en que ya no es mas positivo definido
y es invariante ante transformaciones de Lorentz.
1

Este captulo est


a basado en el cuarto captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.

145

CAPITULO 7. TEORIA DE GRUPO.

146

Para un cristal el grupo de simetra contiene solo un n


umero finito de rotaciones en valores
discretos del angulo y reflexiones. La teora de tales grupos discretos o finitos, desarrollada
inicialmente como una rama de las matematicas pura, ahora es una u
til herramienta para
el desarrollo de la cristalografa y la fsica de la materia condensada. Haremos una breve
introduccion a ellos. Cuando las rotaciones dependen de un angulo continuo el grupo de
rotaciones tiene un n
umero infinito de elementos. Estudiaremos tales grupos continuos o de
Lie.
Definici
on de grupo.
Un grupo G puede ser definido como un conjunto de objetos u operaciones, llamados los
elementos de G, que pueden ser combinados o multiplicados para formar un producto bien
definido en G el cual satisface las siguientes cuatro condiciones.
1. Si a y b son cualquier par de elementos de G, entonces el producto ab es tambien elemento
de G; o (a, b) ab mapea G G sobre G.
2. Esta multiplicacion es asociativa, (ab)c = a(bc).
3. Hay un elemento unidad o neutro I en G tal que Ia = aI = a para cada elemento a de
G.2
4. Debe haber un inverso o reciproco de cada elemento a de G, etiquetado a1 , tal que
aa1 = a1 a = I.
Un ejemplo de grupo es el conjunto de rotaciones de coordenadas en el sentido del puntero
del reloj,


cos sen
R() =
(7.1)
sen cos
en un angulo del sistema de coordenadas xy a una nueva orientacion. El producto de dos
rotaciones R(1 )R(2 ) es definida como una rotacion primero en un angulo 2 y entonces
en un angulo 1 . De acuerdo a la ecuacion (6.29), esto corresponde al producto de las dos
matrices ortogonales de 2 2


 

cos 1 sen 1
cos 2 sen 2
cos(1 + 2 ) sen(1 + 2 )
=
, (7.2)
sen 1 cos 1
sen 2 cos 2
sen(1 + 2 ) cos(1 + 2 )
usando las formulas de adicion de funciones trigonometricas. El producto es claramente una
rotacion representada por una matriz ortogonal con un angulo 1 + 2 . El producto es la
multiplicacion asociativa de matrices. Es conmutativo o abeliano porque el orden en el cual
esta rotaciones son realizadas no importa. El inverso de la rotacion con angulo es una con
angulo . La unidad o neutro corresponde al angulo = 0. El nombre del grupo es SO(2), si
el angulo vara continuamente desde 0 a 2. Claramente, SO(2) tiene infinitos elementos. La
unidad con angulo = 0 y la rotacion con = forman un subgrupo finito. Un subgrupo G0
de un grupo G consiste de elementos de G tal que el producto de cualquiera de sus elementos
2

Tambien etiquetan al elemento unidad como E.


7.1. INTRODUCCION.

147

esta de nuevo en el subgrupo G0 , i.e., G0 es cerrado bajo la multiplicacion de G. Si gg 0 g 1


es un elemento de G0 para cualquier g de G y g 0 de G0 , entonces G0 es llamado un subgrupo
invariante de G.
Las matrices ortogonales n n forman el grupo O(n), y tambien SO(n) si sus determi i = O1 para i = 1 y 2, entonces el producto
nantes son +1 (S por eSpecial). Si O
i
1 1
1

]
O
1 O2 = O2 O1 = O1 O2 = (O1 O2 )

es tambien una matriz ortogonal en SO(n). La inversa es la matriz (ortogonal) transpuesta.


La unidad del grupo es 1n . Una matriz real ortogonal de n n tiene n(n 1)/2 parametros
independientes. Para n = 2 hay solo un parametro: un angulo en la ecuacion (7.1). Para
n = 3, hay tres parametros independientes: los tres angulos de Euler de la seccion 10.3.
De la misma manera, las matrices unitarias de n n forman el grupo U(n), y tambien
SU(n) si sus determinantes son +1. Si Ui = U1
i , entonces
1
1
(U1 U2 ) = U2 U1 = U1
,
2 U1 = (U1 U2 )

tal que el producto es unitario y un elemento de SU(n). Cada matriz unitaria tiene una
inversa la cual es tambien unitaria.
Homomorfismo, isomorfismo.
Puede haber una correspondencia entre los elementos de dos grupos (o entre dos representaciones), uno a uno, dos a uno, o muchos a uno. Si esta correspondencia preserva la
multiplicacion del grupo, diremos que los dos grupos son homomorficos. Una de las mas importantes correspondencias homomorficas entre el grupo de rotaciones SO(3) y el grupo de
matrices unitarias SU(2) sera desarrollado en la proxima seccion. Si la correspondencia es
uno a uno, y a
un preserva la multiplicacion del grupo,3 entonces los grupos son isomorficos.
Un ejemplo es las rotaciones de coordenadas a traves de un angulo finito en el sentido
horario respecto al eje z en el espacio tridimensional descrito por

cos sen 0
Rz () = sen cos 0 .
(7.3)
0
0
1
El grupo de rotaciones Rz es isomorfico al grupo de rotaciones en la ecuacion (7.1).
Representaciones matriciales, reducibles e irreducibles.
La representacion de los elementos de un grupo por matrices es una tecnica muy poderosa
y ha sido casi universalmente adoptada por los fsicos. El uso de matrices no impone restricciones significativas. Puede mostrarse que los elementos de cualquier grupo finito y de grupos
continuos pueden ser representados por matrices. Ejemplos son las rotaciones descritas en la
ecuacion (7.1) y (7.3).
3

Supongamos que los elementos del primer grupo son etiquetados por gi y los elementos del segundo
grupo por hi . Entonces gi hi en una correspondencia uno a uno para todos los valores de i. Si gi gj = gk y
hi hj = hk , entonces gk y hk deben ser los elementos correspondientes del grupo.

CAPITULO 7. TEORIA DE GRUPO.

148

Para ilustrar como las representaciones matriciales surgen a partir de una simetra, consideremos la ecuacion estacionaria de Schrodinger (o alg
un otra ecuacion de autovalores tal
como I vi = Ii vi para los momentos principales de inercia de un cuerpo rgido en mecanica
clasica)
H = E .
(7.4)
Supongamos que la ecuacion (7.4) se mantiene invariante bajo la accion de un grupo G de
transformaciones R en G (rotaciones de coordenadas, por ejemplo, para un potencial central
V (r) en el Hamiltoniano H), i.e.,
HR = RHR1 = H .

(7.5)

Ahora tomamos una solucion de la ecuacion (7.4) y la rotamos: R. Entonces R


tiene la misma energa E porque multiplicando la ecuacion (7.4) por R y usando (7.5) produce
RH = E(R) = (RHR1 )R = H(R) .

(7.6)

En otras palabras, todas las soluciones rotadas R son degeneradas en energa o forman lo
que los fsicos llaman un multiplete. Supongamos que este espacio vectorial V de soluciones
transformadas tiene una dimension finita n. Sean 1 , 2 , . . . , n una base. Ya que Rj es un
miembro del multiplete, podemos expandirlo en terminos de esta base
Rj =

rjk k .

(7.7)

As, cada R en G puede ser asociado a una matriz (rjk ), y este mapeo R (rjk ) es llamada
una representacion de G. Si podemos tomar cualquier elemento de V y por rotaciones con
todos los elementos de R de G transforman en todos los otros elementos de V entonces la
representacion es irreducible. Si todos los elementos de V no son alcanzados, entonces V se
separa en una suma directa de dos o mas subespacion vectoriales, V = V1 + V2 + . . ., los
cuales son mapeados dentro de ellos mismos por rotacion de sus elementos. En este caso la
representacion es llamada reducible. Entonces podemos encontrar una base en V (i.e., hay
una matriz unitaria U) tal que

r1 0 . . .

U(rjk )U = 0 r2 . . .
.. .. . .
.
. .

(7.8)

para todos los R de G y todas las matrices (rjk ). Aqui r1 , r2 , . . ., son matrices de menor
dimensiones que (rjk ) que estan alineadas a lo largo de la diagonal y los 0 son matrices de
ceros. podemos decir que R ha sido descompuestas en r1 + r2 + . . . en paralelo con V =
V1 V2 . . ..
Las representaciones irreducibles juegan un rol en teora de grupo que es aproximadamente
analogo a los vectores unitarios en el analisis vectorial. Ellas son las representaciones mas
simples, toda otra puede ser construida desde ellas.

7.2. GENERADORES DE GRUPOS CONTINUOS.

7.2.

149

Generadores de grupos continuos.

Un caracterstica de los grupos continuos conocidos como grupos de Lie es que los parametros de un producto de elementos son funciones analticas de los parametros de los factores.
La naturaleza analtica de las funciones nos permite desarrollar el concepto de generador y
reduce el estudio del grupo completo a un estudio de los elementos del grupo en la vecindad
del elemento identidad.
La idea esencial de Lie fue el estudio de elementos R en un grupo G que esten infinitesimalmente cercanos a la unidad de G. Consideremos el grupo SO(2) como un ejemplo simple.
Las matrices de rotacion de 2 2 en la ecuacion (7.1) puede ser escrita en forma exponencial
usando la identidad de Euler ecuacion (6.161) como


cos sen
R() =
= 12 cos + i2 sen = exp(i2 ) .
(7.9)
sen cos
A partir de la forma exponencial es obvio que la multiplicacion de estas matrices es equivalente
a la suma de los argumentos
R(2 )R(1 ) = exp(i2 2 ) exp(i2 1 ) = exp(i2 (1 + 2 )) = R(1 + 2 ) .
Por supuesto las rotaciones cercanas a 1 tienen un angulo peque
no 0.
Esto sugiere que busquemos una representacion exponencial
R = exp(iS) ,

0,

(7.10)

para elementos del grupos R G cercanos a la 1. Las transformaciones infinitesimales S son


llamadas los generadores de G. Ellos forman un espacio lineal cuya dimension es el orden
de G porque la multiplicacion de los elementos R del grupo se traduce en la suma de los
generadores S.
Si R no cambia el elemento de volumen, i.e., det(R) = 1, nosotros usamos la ecuacion
(6.164) para ver que
det(R) = exp(tr(ln R)) = exp(itr(S)) = 1
implica que los generadores son de traza nula,
tr(S) = 0 .

(7.11)

Este es el caso para el grupo de rotaciones SO(n) y el grupo unitario SU(n), como veremos
mas adelante.
Si R de G en la ecuacion (7.1) es unitario, entonces S = S es hermtica, lo cual tambien
es el caso para SO(n) y SU(n). Ya que hay un i extra en la ecuacion (7.10).
Expandamos los elementos del grupo
1
Ri = exp(ii Si ) = 1 + ii Si 2i S2i + . . . ,
2
1 2 2
R1
i = exp(ii Si ) = 1 ii Si i Si + . . . ,
2

(7.12)

a segundo orden en el peque


no parametro del grupo i porque los terminos lineales y varios
terminos cuadraticos se cancelan en el producto (figura 11.1)

CAPITULO 7. TEORIA DE GRUPO.

150
1

Rj

Ri
1

Ri

Rj
R ij
Figura 7.1: Ilustracion de la ecuacion (7.13).

1
R1
i Rj Ri Rj = 1 + i j [Sj , Si ] + . . . ,
X
ckji Sk + . . . ,
= 1 + i j

(7.13)

cuando las ecuaciones (7.12) son sustituidas dentro de la ecuacion (7.13). La u


ltima lnea
es debido a que el producto en la ecuacion (7.13) es nuevamente un elemento, Rij cercano
a la unidad en el grupo G. Por tanto su exponente debe ser una combinacion lineal de los
generadores Sk y sus parametros infinitesimales del grupo tienen que ser proporcionales al
producto i j . Comparando ambas lneas (7.13) encontramos la relacion de clausura de los
generadores del grupo de Lie G,
X
[Si , Sj ] =
ckij Sk
(7.14)
k

Los coeficientes ckij son las constantes de estructura del grupo G. Ya que el conmutador en la
ecuacion (7.14) es antisimetrico en i y en j, tambien lo son las constantes de estructura en
los ndices inferiores,
ckij = ckji .
(7.15)
Si el conmutador en la ecuacion (7.14) es tomado como la regla de multiplicacion de los
generadores, vemos que el espacio vectorial de los generadores llega a ser un algebra, el algebra
de Lie G del grupo G. Para SU(l + 1) el algebra de Lie es llamada Al , para SO(2l + 1) es Bl
y para SO(2l) es Dl , donde l = 1, 2, . . . es un entero positivo, esto sera llamado el rango de
grupo de Lie G o de su algebra G.
Finalmente, la identidad de Jacobi se satisface para los doblas conmutadores
[[Si , Sj ], Sk ] + [[Sj , Sk ], Si ] + [[Sk , Si ], Sj ] = 0 ,

(7.16)

lo cual es facilmente verificable usando la definicion de conmutador. Cuando la ecuacion (7.14)


es substituida en (7.16) encontramos otra restriccion sobre las constantes de estructura,
X
m


m
m
cm
ij [Sm , Sk ] + cjk [Sm , Si ] + cki [Sm , Sj ] = 0 .

(7.17)

7.2. GENERADORES DE GRUPOS CONTINUOS.

151

Usando de nuevo la ecuacion (7.14) en la ecuacion (7.17) implica que


X

n
m n
m n
cm
ij cmk Sn + cjk cmi Sn + cki cmj Sn = 0 ,

(7.18)

mn

donde el factor com


un Sn (y la suma sobre n) pueden eliminarse por que los generadores son
linealmente independientes. Por tanto
X

n
m n
m n
cm
(7.19)
ij cmk + cjk cmi + cki cmj = 0 .
m

Las relaciones (7.14), (7.15) y (7.19) forman la base de las algebras de Lie desde la cual los
elementos finitos del grupo de Lie cerca de su unidad puede ser reconstrudo.
Volviendo a la ecuacion (7.5), el inverso de R es exactamente R1 = exp(iS). expandimos HR de acuerdo a la formula de Baker-Haudorff, ecuacion (6.17),
H = HR = exp(iS)H exp(iS) = H + i[S, H] 2

[S, [iS, H]]


+ .
2!

(7.20)

Al simplificar H de la ecuacion (7.20), dividiendo por y haciendo 0. Entonces la


ecuacion (7.20) implica que para cualquier rotacion cercana a 1 en G el conmutador
[S, H] = 0 .

(7.21)

Si S y H son matrices hermticas, la ecuacion (7.21) dice que S y H pueden ser simultaneamente diagonalizados. Si S y H son operadores diferenciales como el Hamiltoniano y el momento
angular orbital en mecanica cuantica, entoces la ecuacion (7.21) dice que S y H tienen autofunciones en com
un y que los autovalores degenerados de H pueden ser distinguidos por los
autovalores de los generadores S. Esta es con mucho la mas importante aplicacion de teora
de grupos a mecanica cuantica.
A continuacion, estudiaremos los grupos ortogonales y unitarios como ejemplos.
Grupos de rotaciones SO(2) y SO(3).
Para SO(2) definido por la ecuacion (7.1) hay solo un generador linealmente independiente, 2 y el orden de SO(2) es 1. Obtenemos 2 a partir de diferenciar la ecuacion (7.9) y
evaluarla en cero,





dR()
sen
cos
0 1
i
= i
= i
= 2 .
(7.22)
cos sen =0
1 0
d =0
Para las rotaciones Rz () sobre el eje z descritas por la ecuacion (7.3), el generador es
dado por


0
i
0
dR()
i
= Sz = i 0 0 ,
(7.23)
d =0
0 0 0
donde el factor extra i es insertado para hacer Sz hermtica. La rotacion Rz () en un angulo
infinitesimal puede ser escrita como
Rz () = 13 + iSz ,

(7.24)

CAPITULO 7. TEORIA DE GRUPO.

152

Una expansion de Maclaurin-Taylor de Rz cerca de la unidad = 0 con terminos hasta


orden ()2 y los superiores son despreciados. Una rotacion finita puede ser compuesta por
sucesivas rotaciones infinitesimales
Rz (1 + 2 ) = (13 + i1 Sz )(13 + i2 Sz ) .

(7.25)

Sea = /N para N rotaciones, con N . Entonces,


h
iN
Rz () = lm 13 + i Sz = exp(iSz ) .
N
N

(7.26)

Esta forma identifica Sz como el generador del grupo Rz , un subgrupo abeliano de SO(3), el
grupo de rotaciones en tres dimensiones con determinante +1. Cada matriz de 3 3 Rz ()
es ortogonal, por lo tanto unitaria, y la tr(Sz ) = 0 de acuerdo con la ecuacion (7.11).
Por diferenciacion de las rotaciones de coordenadas

1
0
0
cos 0 sen
cos sen , Ry () = 0
1
0 ,
Rx () = 0
(7.27)
0 sen cos )
sen 0
cos
obtenemos los generadores

0 0 0
Sx = 0 0 i ,
0 i 0

0 0 i
Sy = 0 0 0 ,
i 0 0

(7.28)

de Rx y Ry , los subgrupos de rotaciones en torno a los ejes x e y respectivamente.


Rotaciones de funciones y momento angular orbital.
En la discusion precedente los elementos del grupos son matrices que rotan las coordenadas. Cualquier sistema fsico que esta siendo descrito se mantiene fijo. Ahora mantengamos
fijas las coordenadas y rotemos una funcion (x, y, z) relativa a nuestras coordenadas fijas.
Con R para rotar las coordenadas,
~x 0 = R~x ,
(7.29)
definimos R por
R(x, y, z) = 0 (x, y, z) (~x 0 ) .

(7.30)

En palabras, la matriz R opera sobre la funcion , creando una nueva funcion 0 que
es numericamente igual a (~x 0 ), donde ~x 0 son las coordenadas rotadas por R. Si R rota las
coordenadas en el sentido horario, el efecto de la matriz R es rotar el modelo de la funcion
en el sentido horario.
Volviendo a las ecuaciones (7.3) y (7.28), consideremos una rotacion infinitesimal, .
Luego, usando Rz , ecuacion (7.3), obtenemos
Rz ()(x, y, z) = (x + y, y x, z) .

(7.31)

7.2. GENERADORES DE GRUPOS CONTINUOS.

153

El lado derecho puede ser expandido como una serie de Taylor de primer orden en para
dar



Rz ()(x, y, z) = (x, y, z) x
y
+ O()2
y
x
(7.32)
= (1 iLz )(x, y, z) ,
la expresion diferencial en el parentesis de llave es iLz . Ya que una rotacion primero en y
luego en alrededor del eje z esta dado por
Rz ( + )(x, y, z) = Rz ()Rz ()(x, y, z) = (1 iLz )Rz ()(x, y, z) ,

(7.33)

tenemos (como una ecuacion de operadores)


Rz ( + ) Rz ()
= iLz Rz () .

(7.34)

El lado izquierdo es justo dRz ()/ (para 0). En esta forma la ecuacion (7.34) se
integra inmediatamente a
Rz () = exp(iLz ) .
(7.35)
Note cuidadosamente que Rz () rota funciones (en el sentido horario) relativa a las coorde~ La constante de
nadas fijadas y que Lz es la componente z del momento angular orbital L.
integracion esta fijada por la condicion de borde Rz (0) = 1.
Si reconocemos que los elementos de matriz

Lz = (x, y, z)Sz
(7.36)
y ,

z
claramente Lx , Ly , Lz satisface la misma relacion de conmutacion
[Li , Lj ] = iijk Lk

(7.37)

que Sx , Sy , Sz y tienen a la misma constantes de estructura iijk de SO(3).


Homomorfismo SU(2)-SO(3).
El grupo unitario especial SU(2) de matrices unitarias de 2 2 con determinante +1 tiene
las tres matrices de Pauli i como generadores (mientras que las rotaciones de la ecuacion
(7.3) forman un subgrupo abeliano unidimensional). Por lo tanto SU(2) es de orden 3 y
depende de tres parametros continuos reales , y los cuales a menudo son llamados los
parametros de Caley-Klein. Sus elementos generales tienen la forma

 

ei cos ei sen
a b
U2 (, , ) =
=
.
(7.38)
ei sen ei cos
b a

CAPITULO 7. TEORIA DE GRUPO.

154

Es facil chequear que el determinante det(U2 ) = 1 y que U2 U2 = 1 = U2 U2 se mantiene.


Para obtener los generadores diferenciamos



U2
1
0
=
= 3 ,
i
0 1
=0,=0



i U2
0
1
=
= 1 ,
(7.39)
1
0
sen =0



U2
0 i
i
=
= 2 .
i 0
=0,=0
Por supuesto, las matrices de Pauli son todas de traza nula y hermticas.
Con las matrices de Pauli como generadores de los elementos (U1 , U2 , U3 ) de SU(2) pueden
ser generados por
U1 = exp(ia1 1 /2) ,

U2 = exp(ia2 2 /2) ,

U3 = exp(ia3 3 /2) .

(7.40)

Los tres parametros ai son reales. El factor extra 1/2 esta presente en los exponentes ya que
si = i /2 satisface las mismas relaciones de conmutacion 4
[si , sj ] = iijk sk

(7.41)

como el momento angular en la ecuacion (7.37).


La ecuacion (7.3) da un operador de rotacion para rotar las coordenadas cartesianas en el
espacio tridimensional. Usando la matriz de momento angular s3 , tenemos el correspondiente
operador de rotacion en el espacio de dos dimensiones (complejo) Rz () = exp(i3 /2).
Para rotar una funcion de onda vectorial de dos componentes (spinor) o una partcula de
spin 1/2 relativa a coordenadas fijas, el operador de rotacion es Rz () = exp(i3 /2) de
acuerdo a la ecuacion (7.35).
Usando la ecuacion (7.40) la identidad de Euler, la ecuacion (6.161), obtenemos
a 
a 
j
j
Uj = cos
+ ij sen
.
2
2
Aqu el parametro aj aparece como un angulo, el coeficiente de una matriz tipo momento
angular en la ecuacion (7.26). Con esta identificacion de los exponenciales, la forma general
de la matriz SU(2) (para rotar funciones mas que las coordenadas) podra ser escrita como
U(, , ) = exp(i3 /2) exp(i2 /2) exp(i1 /2) .
Como vimos, los elementos de SU(2) describen rotaciones en un espacio complejo bidimensional que deja invariante a |z1 |2 + |z2 |2 . El determinante es +1. Hay tres parametros
independientes. Nuestro grupo ortogonal real SO(3) de determinante +1, claramente describe rotaciones comunes en el espacio tridimensional con la importante caracterstica de dejar
invariante a x2 + y 2 + z 2 . Tambien hay tres parametros independientes. Las interpretaciones
de rotacion y la igualdad de n
umeros de parametros sugiere la existencia de alguna clase de
correspondencia entre los grupos SU(2) y SO(3). Aqu desarrollamos esta correspondencia.
4

Las constantes de estructuras (iijk ) conducen a las representaciones de SU(2) de dimension 2J = 1


para generadores de dimensi
on 2j + 1, con J = 0, 1/2, 1, . . .. Los casos con J entero tambien conducen a las
representaciones de SO(3).

7.2. GENERADORES DE GRUPOS CONTINUOS.

155

U
M

M
U

Figura 7.2: Ilustracion de M0 = UMU ecuacion (7.42).

La operacion SU(2) sobre una matriz esta dada por una transformacion unitaria, la ecuacion (7.5), con R = U y la figura (11.2)
M0 = UMU .

(7.42)

Tomando M como una matriz de 2 2, notemos que cualquier matriz de 2 2 puede ser
escrita como una combinacion lineal de la matriz unidad y las tres matrices de Pauli. Sea M
la matriz de traza cero,


z
x iy
M = x1 + y2 + z3 =
,
(7.43)
x + iy
z
la matriz unidad no entra. Ya que la traza es invariante bajo transformaciones unitarias, M0
debera tener la misma forma,


z0
x0 iy 0
0
0
0
M = x 1 + y 2 + z 3 =
.
(7.44)
x0 + iy 0
z 0
El determinante tambien es invariante bajo una transformacion unitaria. Por lo tanto
2

(x2 + y 2 + z 2 ) = (x0 + y 0 + z 0 ) ,

(7.45)

o (x2 + y 2 + z 2 ) es invariante bajo esta operacion de SU(2), como con SO(3). SU(2) debe,
por lo tanto, describir una rotacion. Esto sugiere que SU(2) y SO(3) pueden ser isomorficos
o homomorficos.
Aproximemos el problema de que rotacion describe SU(2) considerando casos especiales.
Retomando la ecuacion (7.38) sea a = ei y b = 0, o

Uz =

ei 0
0 ei


.

En anticipacion de la ecuacion (7.50), esta U le esta dado un subndice z.

(7.46)

CAPITULO 7. TEORIA DE GRUPO.

156

Realizando una transformacion unitaria sobre cada una de las tres matrices de Pauli,
tenemos

  i

 i
e
0
0 1
e
0

Uz 1 Uz =
0 ei
1 0
0 ei


(7.47)
0
e2i
= 2i
.
e
0
Reexpresamos este resultado en terminos de las matrices de Pauli para obtener
Uz x1 Uz = x cos 21 x sen 22 .

(7.48)

Similarmente,
Uz y2 Uz = y sen 21 y cos 22 ,
Uz z3 Uz = z3 .

(7.49)

A partir de esta expresion de doble angulo vemos que podramos comenzar con el angulo
medio: = /2. Entonces, de las ecuaciones (7.42)(7.44), (7.48) y (7.49),
x0 = x cos + y sen
y 0 = x sen + y cos
z0 = z .

(7.50)

La transformacion unitaria de 2 2 usando Uz (/2) es equivalente al operador de rotacion


R() de la ecuacion (7.3).
El establecimiento de la correspondencia de


cos /2 sen /2
Uy (/2) =
(7.51)
sen /2 cos /2
y Ry () y de

Ux (/2) =

cos /2 i sen /2
i sen /2 cos /2


(7.52)

y Rx () pueden calcularse como ejercicio. Podemos notar que Uk (/2) tiene la forma general
Uk (/2) = 1 cos /2 + ik sen /2 ,

(7.53)

donde k = x, y, z.
La correspondencia
Uz


2


=

i/2

0
i/2

cos sen 0
sin cos 0 = Rz () ,
0
0
1

(7.54)

no es una simple correspondencia uno a uno. Especficamente, como en Rz recorre desde 0


a 2, el parametro Uz , /2, recorre desde 0 a . Encontramos que
Rz ( + 2) = Rz ()
 i/2

e
0
Uz (/2 + ) =
= Uz (/2) .
0
ei/2

(7.55)

7.2. GENERADORES DE GRUPOS CONTINUOS.

157

Por lo tanto ambos Uz (/2) y Uz (/2+) = Uz (/2) corresponde a Rz (). La correspondencia es de 2 a 1, o SU(2) y SO(3) son homomorficos. Este establecimiento de la correspondencia
entre las representaciones de SU(2) y de aquella SO(3) significa que las representaciones conocidas de SU(2) automaticamente nos proporciona de las representaciones de SO(3).
Combinando las rotaciones, encontramos que una transformacion unitaria usada
U(, , ) = Uz (/2)Uy (/2)Uz (/2) ,

(7.56)

corresponde a la rotacion general de Euler Rz ()Ry ()Rz (). Por multiplicacion directa,
  i/2

 i/2

e
0
cos /2 sen /2
e
0
U(, , ) =
sen /2 cos /2
0
ei/2
0
ei/2


(7.57)
ei(+)/2 cos /2 ei()/2 sen /2
=
.
ei()/2 sen /2 ei(+)/2 cos /2
Esta es nuestra forma general alternativa, la ecuacion (7.38), con
=

( + )
,
2

,
2

( )
.
2

(7.58)

De la ecuacion (7.57) podemos identificar los parametros de la ecuacion (7.38) como


a = ei(+)/2 cos /2
b = ei()/2 sen /2

(7.59)

SU(2) isospin y el octeto SU(3).


En el tratamiento de las partculas con interacciones fuertes de Fsica nuclear y de altas
energas que conducen al grupo de SU(2) de isospin y la simetra de sabor SU(3), podramos
mirar el momento angular y el grupo de rotacion SO(3) por una analoga. Supongamos que
tenemos un electron en un potencial atractivo esfericamente simetrico de alg
un n
ucleo atomico. La funcion de onda para el electron puede ser caracterizada por tres n
umeros cuanticos
n, l, m, que estan relacionados con los autovalores de los operadores conservados H, L2 , Lz .
La energa, 5 sin embargo, es 2l + 1 veces degenerada, dependiendo solamente de n y l. La
razon para esta degeneracion puede ser expresado de dos maneras equivalentes:
1. El potencial es simetricamente esferico, independiente de , .
2. El hamiltoniano de Schrodinger (~2 /2me )2 + V (r) es invariante bajo rotaciones
espaciales ordinarias SO(3).
Como una consecuencia de la simetra esferica del potencial V (r), el momento angular
~ es conservado. En la seccion 11.2 las componentes cartesianas de L
~ estan indentiorbital L
ficadas como los generadores del grupo de rotacion SO(3). En vez de representar Lx , Ly , Lz
por operadores, usaremos matrices. Las matrices Li son matrices (2l + 1) (2l + 1) con la
5

Para un potencial de Coulomb puro la energa depende solo de n.

CAPITULO 7. TEORIA DE GRUPO.

158

misma dimension del n


umero de estados degenerados. La dimension 2l + 1 esta identificada
con los estados degenerados 2l + 1.
~ hecho conocido como el
Esta degenerancion es removida por un campo magnetico B,
efecto Zeeman. Esta interaccion magnetica a
nade un termino al Hamiltoniano que no es
invariante bajo SO(3). Este es un termino quiebra la simetra.
En el caso de partculas con interaccion fuerte (protones, neutrones, etc.) no podemos
seguir la analoga directamente, ya que todava no entendemos completamente las interacciones nucleares. La fuerza fuerte esta descrita por la teora gauge de Yang-Mills basada sobre
la simetra de color SU(3) llamada cromodinamica cuantica o abreviada QCD. Sin embargo,
QCD es una teora no lineal y por lo tanto complicada a grandes distancias y baja energa
que permanece no resuelta. Por lo tanto, no conocemos el Hamiltoniano, en vez de esto,
volveremos a la analoga.
En los a
nos 1930, despues del descubrimiento del neutron, Heinsenberg propuso que las
fuerzas nucleares eran cargas independientes. Los neutrones difieren en masa de los protones
solamente en un 1.6 %. Si esta peque
na diferencia es ignorada, el neutron y el proton podran
ser consideradas como dos estados de cargas (o isospin) de un doblete, llamado nucleon. El
isospin I tiene proyeccion en el eje z I3 = 1/2 para el proton y I3 = 1/2 para el neutron. El
isospin no tiene nada que ver con el spin (el momento angular intrnseco de una partcula) pero
las dos componentes del estado de isospin obedece las mismas relaciones matematicas que el
estado de spin 1/2. Para el nucleon, I = /2, son las matrices usuales
de Pauli y los estados

1
0
de isospin (1/2) son autovectores de la matriz de Pauli 3 =
. Similarmente, los
0 1
tres estados de carga del pion + , 0 , forman un triplete. El pion es la partcula mas
liviana con interaccion fuerte y es la mediadora de la fuerza nuclear a distancia, como el foton
es partcula que media la fuerza electromagnetica. La interaccion fuerte trata igualmente a
miembros de esa familia de partculas, o multipletes y conserva el isospin. La simetra es el
grupo isospin SU(2).
El octuplete mostrado en la tabla 7.1 llama la atencion 6 . Los n
umeros cuanticos conser2
vados que son analogos y generalizaciones de Lz y L de SO(3) son I3 e I 2 para el isospin, e
Y para hipercarga. Las partculas pueden ser agrupadas dentro de multipletes de carga o de
isospin. Entonces la hipercarga puede ser tomada como dos veces el promedio de carga del
1
multiplete. Para el nucleon, i.e., el doblete neutronproton, Y = 2 (0 + 1) = 1. Los valores
2
de la hipercarga y los del isospin son listados en la tabla 7.1 para bariones como el nucleon y
sus compa
neros (aproximadamente degenerados). Ellos forman un octeto como lo muestra la
figura 11.3. En 1961 Gell-Mann, e independientemente Neeman, sugirieron que la interaccion
fuerte debe ser (aproximadamente) invariante bajo un grupo espacial tridimensional unitario,
SU(3), esto es, tienen simetra de sabor SU(3).
La eleccion de SU(3) estuvo basada primero sobre los dos n
umeros cuanticos conservados
e independientes H1 = I3 y H2 = Y (i.e., generados con [I3 , Y ] = 0), que llaman para un
grupo de rango 2. Segundo, el grupo ha tenido una representacion de ocho dimensiones para
tener en cuenta los cercanamente degenerados bariones y cuatro octetos similares para los
mesones. En un sentido SU(3) es la generalizacion mas simple del isospin SU(2). Tres de sus
generadores son matrices hermticas de 3 3 de traza nula que contienen las matrices de
6

Todas las masas est


an dadas en unidades de energa.

7.2. GENERADORES DE GRUPOS CONTINUOS.

159

Masa [MeV]

1321.32

1
2

-1
0

I3
12
+ 12

1314.9

0
+

1197.43
1192.55
1189.37

-1
0
+1

1115.63

939.566

1
2

1
p

938.272

Cuadro 7.1: Bariones con spin

1
2

12
+ 12

y paridad par

Y
n

p
1

0
0

I3

Figura 7.3: Octeto barionico diagrama de peso para SU(3).

Pauli de 2 2 para los isospin i en la esquina superior izquierda.

0
0 ,
i =
0 0 0
i

i = 1, 2, 3 .

(7.60)

160

CAPITULO 7. TEORIA DE GRUPO.

De este modo, el grupo del isospin SU(2) es un subgrupo de SU(3) con I3 = 3 /2. Otros
cuatro generadores tienen los no diagonales 1 de 1 e i, i de 2 en todas las otras posibles
ubicaciones para formar las matrices hermticas 3 3 de traza nula.

0 0 i
0 0 1
5 = 0 0 0 ,
4 = 0 0 0 ,
i 0 0
1 0 0
(7.61)

0 0 0
0 0 0
7 = 0 0 i .
6 = 0 0 1 ,
0 i 0
0 1 0
El segundo generador diagonal tiene la matriz unidad bidimensional 12 en la esquina superior
izquierda, la cual la hace claramente independiente del subgrupo SU(2) isospin ya que su traza
no nula en el subespacio, y -2 en el lugar de la tercera diagonal la hace traza nula,

1 0
0
1
0 .
8 = 0 1
(7.62)
3 0 0 2
Generalmente hay 32 1 = 8 generadores para SU(3) el cual tiene orden 8. De los conmutadores de esos generadores pueden obtenerse facilmente las constantes de estructura de
SU(3).
Volviendo a la simetra de sabor SU(3) imaginemos que el Hamiltoniano para nuestro
octeto de bariones estan compuesto de tres partes
H = Hfuerte + Hmedio + Helectromagnetico .

(7.63)

La primera parte, Hfuerte , tiene la simetra SU(3) y conduce a la degenerancion ocho. La


introduccion del termino de quiebre de simetra, Hmedio , remueve parte de la degeneracion
dando los cuatro multipletes del isospin ( , 0 ), ( , 0 , + ), , y N = (p, n) con diferentes
masas. Estos a
un son multipletes ya que Hmedio tiene la simetra del isospin SU(2). Finalmente, la presencia de fuerzas dependientes de la carga separan los multipletes de isospin y
remueve la u
tima degeneracion. Esta secuencia se muestra en la figura 11.4
Aplicando teora de perturbacion de primer orden de Mecanica Cuantica, relaciones simples de masas de barionicas pueden ser calculadas. Quizas el suceso mas espectacular de este
modelo SU(3) ha sido su prediccion de nuevas partculas. En 1961 cuatro mesones K y tres
(todos pseudoescalares; spin 0, paridad impar) sugieren otro octeto, similar al del octeto
barionico. SU(3) predice un octavo meson , de masa 563 MeV. El meson con una masa
determinada experimentalmente de 548 MeV fue encontrado poco despues. Agrupamientos
de nueve de los bariones mas pesados (todos con spin 3/2, con paridad par) sugirio un multiplete de 10 miembros o un decaplete de SU(3). El decimo barion faltante fue predicho con
una masa cercana a 1680 MeV y una carga negativa. En 1964 cargada negativamente con
masa (167512) MeV fue descubierta.
La representacion de octeto no es la mas simple para SU(3). La representacion mas simple
son triangulares como se muestra en la figura 11.5 a partir de las cuales todas las otras
pueden ser generadas por acoplamiento del momento angular generalizado. La representacion

7.2. GENERADORES DE GRUPOS CONTINUOS.

161

masa

0
+

p
H fuerte

H fuerte + H medio+ H electromagntica

H fuerte + H medio

Figura 7.4: Separacion de masa barionica.

(a)
d

(b)
1/3

Y
_
s

2/3

2 / 3

I3

I3
_
u

1 / 3

_
d

Figura 7.5: Separacion de masa barionica.

fundamental en la figura 11.5 (a) contiene los quark u (arriba) y d (abajo) y el s (extra
neza),
y figura 11.5 (b) los correspondientes antiquarks. Ya que los octetos de mesones pueden ser
obtenidos a partir de la representacion de quark como pares q q, 32 = 8 + 1, esto sugiere que
los mesones contienen quarks (y antiquarks) como sus constituyentes. El modelo de quarks
resultante dan una exitosa descripcion de la espectroscopa hadronica. La solucion de sus
problemas con el principio de exclusion de Pauli eventualmente conduce a la teora de gauge
de SU(3)-color de las interacciones fuertes llamada cromodinamica cuantica o QCD.
Para mantener la teora de grupo en su real perspectiva, podramos enfatizar que la teora
de grupo identifica y formaliza las simetras. Ella clasifica partculas (y algunas veces predice).
Pero a parte de decir que una parte del hamiltoniano tiene simetra SU(2) y otra parte tiene

CAPITULO 7. TEORIA DE GRUPO.

162

simetra SU(3), la teora de grupo no dice nada a cerca de la interaccion de las partculas.
Recuerde que la afirmacion de que el potencial atomico es esfericamente simetrico no nos dice
nada a cerca de la dependencia radial del portencial o de su funcion de onda. En contraste, en
una teora de gauge la interaccion es mediada por bosones vectoriales (como el foton media en
la electrodinamica cuantica) y determinado u
nicamente por la derivada covariante de gauge.

7.3.

Momento angular orbital.

~ clasico = ~r p~ es mostrado en el captulo de


El concepto clasico de momento angular L
vectores para presentar el producto cruz. Siguiendo con la representacion usual de Schrodinger
~
de la Mecanica Cuantica, el momento lineal clasico p~ es reemplazado por el operador i.
7
El operador de momento angular en la mecanica cuantica se convierte en
~ QM = i~r
~ .
L

(7.64)

Las componentes del momento angular satisfacen las relaciones de conmutacion


[Li , Lj ] = iijk Lk .

(7.65)

El ijk es el smbolo de Levi-Civita. Una suma sobre el ndice k es sobreentendida.


El operador diferencial correspondiente al cuadrado del momento angular
~2=L
~ L
~ = L2x + L2y + L2z ,
L

(7.66)

puede ser determinado a partir de


~ L
~ = (~r p~) (~r p~) ,
L

(7.67)

~ 2 es un escalar rotacional, [L
~ 2 , Li ] = 0, el
la cual puede verificarse como ejercicio. Ya que L
cual tambien puede ser verificado directamente.
La ecuacion (7.65) presenta las relaciones de conmutacion basicas de los componentes del
momento angular en Mecanica Cuantica. Por cierto, dentro del marco de la Mecanica Cuantica y la teora de grupo, estas relaciones de conmutacion definen un operador de momento
angular.
Acercamiento a los operadores de subida y bajada.
Comencemos con una aproximacion mas general, donde el momento angular J~ lo consi~ un spin /2, o un momento
deramos que puede representar un momento angular orbital L,
~ + /2, etc. Supongamos que
angular total L
1. J es un operador hermtico cuyas componentes satisfacen las relaciones de conmutacion
[Ji , Jj ] = iijk Jk ,
7

[J~ 2 , Ji ] = 0 .

Por simplicidad, ~ = 1. Esto significa que el momento angular es medido en unidades de ~.

(7.68)

7.3. MOMENTO ANGULAR ORBITAL.

163

2. |M i es simultaneamente una autofuncion normalizada (o autovector) de Jz con autovalor M y una autofuncion de J~ 2 ,


J~ 2 |M i = |M i .

Jz |M i = M |M i ,

(7.69)

Mostraremos ahora que = J(J + 1). Este tratamiento ilustrara la generalidad y potencia
de las tecnicas de operadores particularmente el uso de operadores de subida y bajada.
Un operador de subida o bajada se defina como
J+ = Jx + iJy ,

J = Jx iJy .

(7.70)

En terminos de ese operador J~ 2 puede ser reeescrito como


1
J~ 2 = (J+ J + J J+ ) + Jz2 .
2

(7.71)

A partir de las relaciones de conmutacion, encontramos que


[Jz , J+ ] = +J+ ,

[Jz , J ] = J ,

[J+ , J ] = 2Jz .

(7.72)

Ya que J+ conmuta con J~ 2 , hagalo como ejercicio


J~ 2 (J+ |M i) = J+ (J~ 2 |M i) = (J+ |M i) .

(7.73)

Por lo tanto, J+ |M i todava es una autofuncion de J~ 2 con autovalores , y similarmente


para J |M i. Pero de la ecuacion (7.72)
Jz J+ = J+ (Jz + 1) ,

(7.74)

Jz (J+ |M i) = J+ (Jz + 1)|M i = (M + 1)(J+ |M i) .

(7.75)

o
Por lo tanto, J+ |M i todava es una autofuncion de Jz con autovalores M +1. J+ ha elevado el
autovalor en 1 y por eso es llamado operador de subida. Similarmente, J baja los autovalores
en 1 y a menudo es llamado operador de bajada.
Tomando los valores esperados y usando Jx = Jx , Jy = Jy ,
hM |J~ 2 Jz2 |M i = hM |Jx2 + Jy2 |M i = | Jx |M i |2 + | Jy |M i |2 ,
vemos que M 2 0, tal que M es ligado. Sea J el mas grande valor de M . Luego
J+ |Ji = 0, lo cual implica que J J+ |Ji = 0. Luego combinando las ecuaciones (7.71) y
(7.72) obtenemos
J~ 2 = J J+ + Jz (Jz + 1) ,
(7.76)
encontramos que a partir de la ecuacion (7.76)
0 = J J+ |M = Ji = (J~ 2 Jz2 Jz )|M = Ji = ( J 2 J)|M = Ji .
Por lo tanto
= J(J + 1) 0;

(7.77)

CAPITULO 7. TEORIA DE GRUPO.

164

con un J no negativo. Ahora reetiquetaremos los estados |M i = |JM i. Similarmente, sea


J 0 el mas peque
no de los M . Entonces J |JJ 0 i = 0. A partir de
J~ 2 = J+ J Jz (Jz + 1) ,

(7.78)

2
0 = J+ J |JJ 0 i = (J~ 2 + Jz Jz2 )|JJ 0 i = ( + J 0 J 0 )|JJ 0 i .

(7.79)

vemos que
De manera que
= J(J + 1) = J 0 (J 0 1) = (J)(J 1) .
As J 0 = J, y M corre en pasos enteros desde J a +J,
J M +J .

(7.80)

Comenzando desde |JJi y aplicando J repetidas veces, alcanzaremos todos los otros estados
|JM i. De manera que |JM i forma una representacion irreductible; M vara y J esta fijo.
Entonces usando las ecuaciones (7.68), (7.76) y (7.78) obtenemos
J J+ |JM i = [J(J + 1) M (M + 1)]|JM i = (J M )(J + M + 1)|JM i ,
J+ J |JM i = [J(J + 1) M (M 1)]|JM i = (J + M )(J M + 1)|JM i .

(7.81)

Como J+ y J son hermticos conjugados,


J+ = J ,

J = J+ ,

(7.82)

los autovalores o valores esperados en la ecuacion (7.81) deberan ser positivos o cero.
Ya que J+ aumenta el autovalor de M a M + 1, reetiquetaremos la autofuncion resultante
|JM + 1i. La normalizacion esta dada por la ecuacion (7.81) como
p
(7.83)
J+ |JM i = (J M )(J + M + 1)|JM + 1i ,
tomando la raz cuadrada positiva y no introduciendo ning
un factor de fase. Por los mismos
argumentos
p
J |JM i = (J + M )(J M + 1)|JM 1i .
(7.84)
Finalmente, ya que M va desde J a +J en pasos unitarios, 2J debera ser un n
umero
entero. J es por lo tanto un entero o la mitad de un entero impar. Como hemos visto, el
momento angular orbital esta descrito con J entero. A partir de los spin de algunas partculas
fundamentales y de algunos n
ucleos, tenemos que J = 1/2, 3/2, 5/2, . . . Nuestro momento
angular esta cuantizado esencialmente como un resultado de relaciones de conmutaciones.
En coordenadas polares esfericas , las funciones h, |lmi = Ylm (, ) son armonicos
esfericos.
Resumen de grupos y
algebras de Lie.
Las relaciones de conmutaciones generales, ecuacion (7.14) en la seccion 11.2, para un
grupo de Lie clasico [SO(n) y SU(n) en particular] pueden ser simplificadas para verse mas
como la ecuacion (7.72) para SO(3) y SU(2) en la seccion 11.3.

7.3. MOMENTO ANGULAR ORBITAL.

Algebra
de Lie
Grupo de Lie
rango
orden

Al
SU(l+1)
l
l(l+2)

165
Bl
Dl
SO(2l+1) SO(2l)
l
l
l(2l+1)
l(2l-1)

Cuadro 7.2: Rango y orden de grupos rotacionales y unitarios.


Primero escogemos generadores Hi que sean linealmente independientes y que conmuten
entre s, estos son generalizaciones de Jz de SO(3) y SU(2). Sea l el n
umero maximo de tales
Hi con
[Hi , Hk ] = 0 .
(7.85)
Entonces l es llamado el rango del grupo Lie G o de su algebra. El rango y la dimension u
orden de algunos grupos Lie son dados en la tabla 7.2. Todos los otros generadores E puede
mostrarse que son operadores de subida y bajada con respecto a todos los Hi , tal que
[Hi , E ] = i E .

(7.86)

El conjunto de los (1 , 2 , . . . , l ) son llamados los vectores raices.


Ya que los Hi conmutan entre s, ellos pueden ser diagonalizados simultaneamente. Ellos
nos dan un conjunto de autovalores m1 , m2 , . . . , ml . Al conjunto (m1 , m2 , . . . ..ml ) se les llama
vectores de peso de una representacion irreductible. Hay l operadores invariantes Ci , llamados
operadores de Casimir, los cuales conmutan con todos los generadores y son generalizaciones
de J 2 ,
[Ci , Hj ] = 0 ,
[Ci , E ] = 0 .
(7.87)
El primero, C1 , es una funcion cuadratica de los generadores, los otros son mas complicados.
Ya que Ci conmuta con todos los Hj , ellos pueden ser diagonalizados simultaneamente con
los Hj . Sus autovalores c1 , c2 , . . . , cl caracterizan las representaciones irreductibles y permenecen constantes mientras los vectores de peso varan sobre una representacion irreductible
particular. Por lo tanto, la autofuncion general puede ser escrita como
|(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i ,

(7.88)

generalizando |JM i de SO(3) y SU(2). Sus ecuaciones de autovalores son


Hi |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i = mi |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i ,
Ci |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i = ci |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i .

(7.89a)
(7.89b)

Ahora podemos mostrar que E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i tiene los vector peso (m1 +
1 , m2 +2 , . . . , ml +l ) usando las relaciones de conmutacion, la ecuacion (7.86), en conjunto
con las ecuaciones (7.89a) y (7.89b),
Hi E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i = (E Hi + [Hi , E ])|(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i
= (mi + i )E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i .
(7.90)

CAPITULO 7. TEORIA DE GRUPO.

166
Por lo tanto

E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i |(c1 , c2 , . . . , cl )m1 + 1 , m2 + 2 , . . . , ml + l i


estas son las generalizaciones de las ecuaciones (7.83) y (7.84) a partir de SO(3). Esos cambios
de autovalores por el operador E son llamados sus reglas de seleccion en mecanica cuantica.

7.4.

Grupo homog
eneo de Lorentz.

En relatividad especial requerimos que nuestras leyes fsicas sean covariantes8 bajo
a. traslaciones en el tiempo y en el espacio,
b. rotaciones en el espacio real tridimensional, y
c. transformaciones de Lorentz.
El requerimiento para la covarianza bajo traslaciones esta basada en la homogeneidad del
espacio y el tiempo. Covarianza bajo rotaciones es una afirmacion de la isotropa del espacio.
El requerimiento de la covarianza de Lorentz viene de la relatividad especial. Todas estas
tres transformaciones en conjunto forman el grupo inhomogeneo de Lorentz o el grupo de
Poincare. Aqu exclumos las traslaciones. Las rotaciones espaciales y las transformaciones
de Lorentz forman un grupo, el grupo homogeneo ed Lorentz.
Primero generamos un subgrupo, las transformaciones de Lorentz en el cual la velocidad
relativa ~v esta a lo largo del eje x = x1 . El generador puede ser determinad considerando un
marco de referencia espacio-temporal moviendose con una velocidad relativa infinitesimal v.
Las relaciones son similares a aquellas para rotaciones en el espacio real, excepto que aqu el
angulo de rotacion es imaginario puro.
Las transformaciones de Lorentz son lineales no solo en el espacio de coordenadas xi
si no que tambien en el tiempo t. Ellas se originan a partir de las ecuaciones de Maxwell
de la electrodinamica las cuales son invariantes bajo la transformaciones de Lorentz, como
veremos luego. Las transformaciones de Lorentz dejan invariante la forma cuadratica siguiente
c2 t2 x21 x22 x23 = x20 x21 x22 x23 donde x0 = ct. Vemos esto si encendemos una fuente
de luzpen
de coordenadas. En tiempo t la luz ha viajado una distancia
Pel2origen del 2sistema
2
2
ct =
xi , tal que c t x1 x22 x23 = 0. La relatividad especial requiere esto en todos
los sistemas (inercial) que se mueven con velocidad v c en cualquier direccion relativa
al sistema xi y que tengan el mismo origen a tiempo t = 0, se mantenga tambien que
c2 t0 2 x01 2 x02 2 x03 2 = 0. El espacio cuadridimensional con la metrica x20 x21 x22 x23 es
llamado espacio de Minkowski con el producto escalar de dos cuadrivectores definido como
a b = a0 b0 ~a ~b. Usando el tensor metrico

1 0
0
0
0 1 0
0

(g ) = (g ) =
(7.91)
0 0 1 0 ,
0 0
0 1
8

Ser covariante significa que tienen la misma forma en diferentes sistemas de coordenadas tal que no hay
un sistema de referencia privilegiado.


7.4. GRUPO HOMOGENEO
DE LORENTZ.

167

podemos subir y bajar ndices de un cuadrivector tal como de las coordenadas x = (x0 , ~x)
es decir x = g x = (x0 , ~x) y x g x = x20 ~x 2 , la convecion de suma de Einstein se
~ = /x y = (/x0 , )
~ tal que
dan por entendida. Para el gradiente = (/x0 , )
2
2
2
2
2
2
= /x0 es un escalar de Lorentz, al igual que la metrica x0 ~x .
Para v  c, en el lmite no relativista, las transformaciones de Lorentz deben ser transformaciones de Galileo. Por lo tanto, para derivar la forma de una transformacion de Lorentz
a lo largo del eje x1 , partimos con una transformacion Galileana para una velocidad relativa
infinitesimal v:
x01 = x1 vt = x1 x0 .
(7.92)
v
Como es usual = . Por simetra tambien podemos escribir
c
x00 = x0 ax1 ,

(7.93)

donde a es un parametro a fijar una vez que se imponga que x20 x21 deba ser invariante,
2

x00 x01 = x20 x21 .

(7.94)

Recordemos que x = (x0 ; x1 , x2 , x3 ) es el prototipo de cuadrivector en el espacio de Minkowski.


As la ecuacion (7.94) es simplemente una afirmacion de la invariancia del cuadrado de la
magnitud del vector distancia bajo rotaciones en el espacio de Minkowski. Aqu es donde la
relatividad especial compromete nuestra trasnformacion. Elevando al cuadrado y restando
las ecuaciones (7.92) y (7.93) y descartando terminos del orden de 2 , encontramos a = 1.
Las ecuaciones (7.92) y (7.93) pueden ser combinadas como una ecuacion matricial
 0
 
x0
x
= (1 1 ) 0 ,
(7.95)
0
x1
x1
1 es la matriz de Pauli, y el parametro representa un cambio infinetesimal. Repetimos la
transformacion N veces para desarrollar una transformacion finita con el parametro velocidad
= N . entonces
 0 
 
1 N x0
x0
= 1
.
(7.96)
x01
x1
N
En el lmite N

1 N
= exp(1 ) .
lm 1
N
N
Interpretamos la exponencial como una serie de Maclaurin


exp(1 ) = 1 1 +

(1 )2 (1 )3

+ .
2!
3!

(7.97)

(7.98)

Notando que 2 = 1,
exp(1 ) = 1 cosh + 1 senh .
Por lo tanto nuestra transformacion de Lorentz finita es
 0 
 
x0
cosh senh
x0
=
.
0
x1
senh
cosh
x1

(7.99)

(7.100)

CAPITULO 7. TEORIA DE GRUPO.

168

1 ha generado las representaciones de esta especial transformacion de Lorentz.


El cosh y el senh pueden ser identificados considerando el origen del sistema de coordenadas primas, x01 = 0, o x1 = vt. Sustituyendo en la ecuacion (7.100), tenemos
0 = x1 cosh x0 senh .
Con x1 = vt y x0 = ct.
tanh = =

(7.101)

v
.
c

v
excepto en el lmite v 0.
c
Usando 1 tanh2 = (cosh2 )1 ,

Note que la rapidez 6=

cosh = (1 2 )1/2 ,

senh = .

(7.102)

El anterior caso especial en que la velocidad es paralela a uno de los ejes espaciales es
simple, pero ilustra la velocidad infinitesimal, la tecnica de la exponenciacion y el generador.
Ahora esta tecnica puede ser aplicada para derivar las transformaciones de Lorentz para una
velocidad relativa ~v no paralela a ning
un eje. Las matrices dadas por la ecuacion (7.100) para
el caso ~v = xvx forman un subgrupo. Las matrices en el caso general no lo hacen. El producto
de dos matrices de transformaciones de Lorentz, L(~v1 ) y L(~v2 ), producen una tercera matriz
de transformacion L(~v3 ), si las dos velocidades ~v1 y ~v2 son paralelas. La velocidad resultante
v3 esta relacionada con v1 y con v2 mediante la regla de adicion de velociades de Einstein. Si
~v1 y ~v2 no son paralelas, no existe entonces una relacion simple.

7.5.

Covarianza de Lorentz de las ecuaciones de Maxwell.

Si una ley fsica se mantiene para todas las orientaciones de nuestro (real) espacial sistema
de coordenadas (i.e. es invariante ante rotaciones), los terminos de la ecuacion deben ser covariantes bajo rotaciones. Esto significa que escribimos las leyes fsicas en la forma matematica
escalar=escalar, vector=vector, tensor de segundo rango=tensor de segundo rango, y as sucesivamente. Similarmente, si una ley fsica se mantiene para todos los sistemas inerciales,
los terminos de la ecuacion deben ser covariantes bajo transformaciones de Lorentz.
Usando el espacio de Minkowski (x = x1 , y = x2 , z = x3 , ct = x0 ) tenemos un espacio
cuadridimensional cartesiano con metrica g . Las transformaciones de Lorentz son lineales
en el espacio y en el tiempo en este espacio real de cuatro dimensiones.
Consideremos las ecuaciones de Maxwell
~
~ E
~ = B ,

t
~
~ H
~ = D + ~v ,

t
~
~
D = ,
~ B
~ =0,

(7.103a)
(7.103b)
(7.103c)
(7.103d)

7.5. COVARIANZA DE LORENTZ DE LAS ECUACIONES DE MAXWELL.

169

y las relaciones
~ = 0 E
~ ,
D

~ = 0 H
~ .
B

(7.104)

Todos los smbolos tienen sus significados usuales y hemos supuesto el vacio por simplicidad.
Supongamos que las ecuaciones de Maxwell se mantienen en todos los sistemas inerciales;
esto es , las ecuaciones de Maxwell son consistentes con la relatividad especial. (La covariancia de las ecuaciones de Maxwell bajo transformaciones de Lorentz fue realmente mostrada
por Lorentz y Poincare antes de que Einstein propusiera su teora de la relatividad especial). Nuestro objetivo inmediato es reescribir las ecuaciones de Maxwell como ecuaciones
tensoriales en el espacio de Minkowski. Esto hara la covariancia de Lorentz explcita.
En terminos de los potenciales escalar y vectorial, podemos escribir
~ =
~ A
~,
B
~
~ .
~ = A
E
t

(7.105)

~ la divergencia de A
~ no esta definida. PoLa ecuacion anterior especifica el rotor de A;
demos, y por futuras conveniencias lo hacemos, imponer la siguiente relacion sobre el vector
potencial
~ A
~ + 0 0 = 0 .
(7.106)

t
Este es conocido como el gauge de Lorentz. Servira a nuestros propositos de desacoplar las
~ y para .
ecuaciones diferenciales para A
Ahora reescribimos las ecuaciones de Maxwell en terminos de los potenciales. A partir de
~ D
~ y (7.105)
la ecuacion (7.103c) para
~
~ A = ,
2 +
t
0

(7.107)

~ H
~ y (7.105) y la identidad vectorial para el
considerando que la ecuacion (7.103b) para
rotor del rotor produce
i ~v
~
2A

1 h~ ~ ~
2~
~
+ +
+
.
A A =
t2
t
0 0
0

(7.108)

Usando el gauge de Lorentz, la ecuacion (7.106), y la relacion 0 0 = 1/c2 , obtenemos




1 2 ~
2
2 2 A = 0 ~v ,
c t


(7.109)
1 2

2
2 2 = .
c t
0
Ahora el operador diferencial
2

1 2
= 2 = ,
2
2
c t

CAPITULO 7. TEORIA DE GRUPO.

170

es un Laplaciano cuadridimensional. Usualmente este operador es llamado el dAlembertiano


y denotado por 2 . Puede probarse que es un escalar.
Por conveniencia definimos
Ax
= c0 Ax ,
0 c
Ay
A2
= c0 Ay ,
0 c

A1

A3

Az
= c0 Az ,
0 c

(7.110)

A 0 0 = A .

Si ponemos ademas
vx
i1 ,
c

vy
i2 ,
c

vz
i3 ,
c

i0 = i0 ,

(7.111)

entonces la ecuacion (7.109) puede ser escrita de la forma


2 A = i .

(7.112)

La ecuacion anterior parece una ecuacion tensorial, pero eso no basta. Para probar que es una
ecuacion tensorial, partimos investigando las propiedades de transformacion de la corriente
generalizada i .
Ya que un elemento de carga de es una cantidad invariante, tenemos
de = dx1 dx2 dx3 ,

invariante.

(7.113)

Vimos que el elemento de volumen cuadridimensional es tambien un invariante, dx1 dx2 dx3 dx0 ,
comparando estos resultados vemos que la densidad de carga debe transformar de la misma
manera que x0 . Ponemos = i0 con i0 establecida como la componente cero de un cuadrivector. Las otras partes de la ecuacion (7.111) pueden ser expandidas como
vx
dx1
=
c
c dt
dx
1
= i0
.
dt

i1 =

(7.114)

Ya que justo mostramos que i0 transforma como dx0 , esto significa que i1 transforma como
dx1 . Con resultados similares para i2 e i3 . tenemos que i transforma como dx , probando
de esta manera que i es un vector, un vector del espacio cuadridimensional de Minkowski.
La ecuacion (7.112), la cual deriva directamente de las ecuaciones de Maxwell, suponemos
que se mantiene en todos los sistemas cartesianos. Entonces, por la regla del cuociente A es
tambien un vector y (7.112) es una legitima ecuacion tensorial.
Ahora, devolviendonos, la ecuacion (7.105) puede ser escrita
Aj A0
+
, j = 1, 2, 3,
x0
xj
1
Ak Aj
Bi =

, (i, j, k) = (1, 2, 3) ,
c
xj
xk
0 Ej =

y permutaciones cclicas.

(7.115)

7.5. COVARIANZA DE LORENTZ DE LAS ECUACIONES DE MAXWELL.

171

Definimos un nuevo tensor


A A =

A
A

F = F
x
x

(, = 0, 1, 2, 3)

un tensor antisimetrico de segundo rango, ya que A es un vector. Escribamoslo axplcitamente

0
Ex
Ey
Ez
0 Ex Ey Ez
Ex

0 cBz
cBy
0 cBz
cBy
, F = 0 Ex
.
F = 0
Ey
Ey
cBz
0 cBx
cBz
0 cBx
Ez cBy
cBx
0
Ez cBy
cBx
0
(7.116)
~
~
Notemos que en nuestro espacio de Minkowski E y B no son mas vectores sino que juntos
forman un tensor de segundo rango. Con este tensor podemos escribir las dos ecuaciones de
Maxwell nohomogeneas (7.103b) y (7.103c) y combinandolas como una ecuacion tensorial
F
= i .
x

(7.117)

El lado izquierdo es una divergencia cuadridimensional de un tensor y por lo tanto un vector.


F
. Las ecuaciones
Esto es, por supuesto, equivalente a contraer un tensor de tercer rango
x
~ y la ecuacion (7.103d) para
~ E
~ B pueden ser expresadas en
de Maxwell (7.103a) para
forma tensorial
F23 F31 F12
+
+
=0,
(7.118)
x1
x2
x3
para (7.103d) y tres ecuaciones de la forma

F30 F02 F23

=0,
x2
x3 x0

(7.119)

para (7.103a). Una segunda ecuacion permutando 120 y una tercera permutando 130.
Ya que
F
F =
t ,
x
es un tensor de tercer rango, las ecuaciones (7.117) y (7.119) pueden ser expresadas por la
ecuacion tensorial
t + t + t = 0 .
(7.120)
En todos los casos anteriores los ndices , y se suponen diferentes.
~ y B.
~
Transformaciones de Lorentz de E
La construccion de las ecuaciones tensoriales (7.118) y (7.120) completan nuestro objetivo
inicial de reescribir las ecuaciones de Maxwell en forma tensorial. Ahora explotamos las
propiedades tensoriales de nuestros cuadrivectores y del tensor F .

CAPITULO 7. TEORIA DE GRUPO.

172

Para las transformaciones de Lorentz que correspoonden a movimientos a lo largo del eje
z(x3 ) con velocidad v, los cosenos directores estan dados por
x00 = (x0 x3 )
x03 = (x3 x1 ) ,
donde

(7.121)

v
c

=
y

= 1 2

1/2

(7.122)

Usando las propiedades de transformacion tensorial, podemos calcular los campos electrico y
magnetico en el sistema en movimiento en terminos de los valores en el marco de referencias
original. A partir de las ecuaciones (7.116) y (7.121) obtenemos
1

v 
By ,
c2
1 2

v 
1
0
Ey + 2 Bx ,
Ey = p
c
1 2
0
Ez = Ez ,

Ex0 = p

Ex

(7.123)

y
1

v 
Ey ,
c2
1 2

1
v 
By 2 Ex ,
By0 = p
c
1 2
Bz0 = Bz .

Bx0 = p

Bx +

(7.124)

~ y B
~ es esperado. Consideremos, por ejemplo, el caso de campo
Este acoplamiento de E
electrico nulo en el sistema sin prima
Ex = Ey = Ez = 0 .
Claramente, no habra fuerza sobre una partcula carga estacionaria. Cuando la partcula
esta en movimiento con una velocidad peque
na ~v a lo largo del eje z un observador sobre la
partcula ve campos (ejerciendo una fuerza sobre la partcula cargada) dados por
Ex0 = vBy ,
Ey0 = vBx ,
~ es un campo magnetico en el sistema sin primas. Estas ecuaciones pueden ser puestas
donde B
en forma vectorial
~ 0 = ~v B
~ ,
~ ,
E
o bien,
F~ = q~v B
(7.125)
~
la cual es usualmente tomada como la definicion operacional del campo magnetico B.

7.5. COVARIANZA DE LORENTZ DE LAS ECUACIONES DE MAXWELL.

173

Invariantes electromagn
eticas.
Finalmente, las propiedades tensoriales (o vectorioles) nos permiten construir una multitud de cantidades invariantes. Una de las importantes es el producto escalar de los cuadrivectores A y i . Tenemos
vy
vz
vx
c0 Ay
c0 Az
+ 0
c
c
c
~ J)
~ , invariante,
= 0 ( A

A i = c0 Ax

(7.126)

~ el usual potencial vector y J~ la densidad de corriente ordinaria. El primer termino es


con A
el ordinario acoplamiento electroestatico con dimensiones de energa per unidad de volumen.
En consecuencia nuestro recien construdo invariante escalar es un densidad de energa. La
~ J.
~ Este invariante
interaccion dinamica del campo y corriente es dado por el producto A
A i aparece en los Lagrangianos electromagneticos.

174

CAPITULO 7. TEORIA DE GRUPO.

Captulo 8
Series infinitas.
versi
on final corregida 2.31, 6 de Mayo del 20031

8.1.

Conceptos fundamentales

Las series infinitas, literalmente sumas de un n


umero infinito de terminos, ocurre frecuentemente tanto en matematicas pura como aplicada. Ellas podran ser usadas por los
matematicos puros para definir funciones como una aproximacion fundamental a la teora
de funciones, tanto como para calcular valores precisos de constantes y funciones trascendentales. En matematica, en ciencias y en ingeniera las series infinitas son ubicuas, es por
ello que aparecen en la evaluacion de integrales, en la solucion de ecuaciones diferenciales, en
series de Fourier y compite con las representaciones integral para la descripcion de funciones
especiales.
Encaramos el problema que significa la suma de un n
umero infinito de terminos. La
aproximacion usual es por sumas parciales. Si tenemos una sucesion de terminos infinitos
u1 , u2 , u3 , u4 , u5 , . . ., definimos la suma parcial i-esima como
si =

i
X

un ,

(8.1)

n=1

Esta es una suma finita y no ofrece dificultades. Si las sumas parciales si convergen a un
lmite (finito) cuando i ,
lm si = S ,
(8.2)
i
P
La serie infinita
n=1 un se dice que es convergente y tiene el valor S. Note cuidadosamente
que nosotros razonablemente y plausiblemente, pero a
un arbitrariamente definimos que la
serie infinita es igual a S. Podemos notar que una condicion necesaria para esta convergencia
a un lmite es que el lmn un = 0. Esta condicion, sin embargo, no es suficiente para
garantizar la convergencia. La ecuacion (8.2) usualmente esta escrita en notacion matematica
formal:
La condicion para la existencia de un lmite S es que para cada > 0, haya un
N fijo tal que
| S si | < ,
para todo i > N .
1

Este captulo est


a basado en el quinto captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.

175

CAPITULO 8. SERIES INFINITAS.

176

Esta condicion a menudo derivada del criterio de Cauchy aplicado a las sumas parciales
si . El criterio de Cauchy es:
Una condicion necesaria y suficiente para que una sucesion (si ) converja es que
para cada > 0 exista un n
umero fijo N tal que
|sj si | <

para todos los i, j > N .

Esto significa que la sumas parciales individuales deben mantenerse cercanas


cuando nos movemos lejos en la secuencia.
El criterio de Cauchy puede facilmente extenderse a sucesiones de funciones. La vemos
en esta forma en la seccion 8.5 en la definicion de convergencia uniforme y mas adelante en
el desarrollo del espacio de Hilbert.
Nuestras sumas parciales si pueden no converger a un lmite simple sino que podra oscilar,
como en el caso

X
un = 1 1 + 1 1 + 1 + (1)n .
n=0

Claramente, si = 1 para i impar pero 0 para i par. No hay convergencia a un lmite, y


series tal como estas son llamadas oscilantes.
Para las series
1 + 2 + 3 + + n +
tenemos
sn =

n(n + 1)
2

Cuando n ,
lm sn = .

Cada vez que las sumas parciales diverjan (tienden a ), la serie infinita se dice que
diverge. A menudo el termino divergente es extendido para incluir series oscilatorias.
Ya que evaluamos las sumas parciales por aritmetica ordinaria, la serie convergente, definida en terminos del lmite de las sumas parciales, asume una posicion de importancia
suprema. Dos ejemplos pueden clarificar la naturaleza de convergencia o divergencia de una
serie y servira como una base para una investigacion mas detallada en la proxima seccion.
Ejemplo Series geometricas.
La sucesion geometrica, comenzando con a y con una razon r(r >= 0), esta dado por
a + ar + ar2 + ar3 + + arn1 + .
La suma parcial n-esima esta dada por
sn = a

1 rn
1r

(8.3)

8.1. CONCEPTOS FUNDAMENTALES

177

Tomando el lmite cuando n ,


a
,
1r

lm sn =

para r < 1.

(8.4)

De modo que, por definicion, la serie geometrica infinita converge para r < 1 y esta dada por

arn1 =

n=1

a
.
1r

(8.5)

Por otra parte, si r 1, la condicion necesaria un 0 no se satisface y la serie infinita


diverge.
Ejemplo Series armonicas.
Consideremos la serie armonica

n1 = 1 +

n=1

1 1 1
1
+ + + + + .
2 3 4
n

(8.6)

Tenemos que el lmn un = lmn 1/n = 0, pero esto no es suficiente para garantizar la
convergencia. Si agrupamos los terminos (no cambiando el orden) como

 
 

1
1 1
1 1 1 1
1
1
1+ +
+
+
+ + +
+
+ +
+ ,
(8.7)
2
3 4
5 6 7 8
9
16
se vera que cada par de parentesis encierra p terminos de la forma
1
1
p
1
1
+
+ +
>
= .
p+1 p+2
p+p
2p
2

(8.8)

Formando sumas parciales sumando un grupos entre parentesis por vez, obtenemos
s1 = 1 ,
3
,
2
4
s3 > ,
2
s2 =

5
,
2
6
s5 > ,
2
n+1
sn >
.
2
s4 >

(8.9)

Las series armonicas consideradas de esta manera ciertamente son divergentes. Una demostracion independiente y alternativa de su divergencia aparece en la seccion 8.2.
Usando el teorema del binomio, podramos expandir la funcion (1 + x)1 :
1
= 1 x + x2 x3 + . . . + (x)n1 + .
1+x

(8.10)

Si tomamos x 1, la serie se convierte


1 1 + 1 1 + 1 1 + ...,

(8.11)

CAPITULO 8. SERIES INFINITAS.

178

una serie que etiquetamos como oscilatoria anteriormente. Aunque no converge en el sentido
usual, significa que puede ser ligada a su serie. Euler, por ejemplo, asignado un valor de 1/2 a
esta sucesion oscilatoria sobre la base de la correspondencia entre esta serie y la bien definida
funcion (1 + x)1 . Desafortunadamente, tal correspondencia entre la serie y la funcion no es
u
nica y esta aproximacion debera ser redefinida. Otros metodos de asignar un significado a
una serie oscilatoria o divergente, metodos de definir una suma, han sido desarrollados. Otro
ejemplo de generalizar la convergencia lo vemos en las serie asintotica o semi-convergente,
consideradas mas adelante.

8.2.

Pruebas de Convergencia

Aunque las series no convergentes pueden ser u


tiles en ciertos casos especiales, usualmente
insistimos, como una materia de conveniencia si no de necesidad, que nuestras series sean
convergentes. Por lo tanto esto llega a ser una materia de extrema importancia para ser
capaz de decir si una serie dada es o no convergente. Desarrollaremos un n
umero de posibles
pruebas, comenzando con una prueba simple pero poco sensible y posteriormente trabajar
con una mas complicada pero muy sensible.
Por ahora consideremos una serie de terminos positivos, an > 0, posponiendo los terminos
negativos hasta la proxima seccion.

8.2.1.

Pruebas de comparaci
on.

Si termino a termino
P una serie de terminos un an , en el cual los an forman una serie
convergente, las series n un tambien es convergente. Simbolicamente, tenemos
X

an = a1 + a2 + a3 + ,

convergente,

un = u1 + u2 + u3 + .

P
P
P
Si un an para todo n, luego n un n an y n un por lo tanto es convergente.
Si termino a termino
P es una serie de terminos vn bn , en el cual bn forma una serie
divergente, las series n vn tambien es divergente. Note que las comparaciones de un con bn
o vn con an no dan informacion. Aqu tenemos
X
bn = b1 + b2 + b3 + , divergente,
n

vn = v1 + v2 + v3 + .

P
P
P
Si vn bn para todo n, luego n vn n bn y n vn por lo tanto es divergente.
Para las series convergente an tenemos las series geometricas, mientras las series armonicas
serviran como las series divergentes bn . En tanto otras series son identificadas como convergentes o divergentes, ellas pueden ser usadas como las series conocidas en estas pruebas de
comparacion.

8.2. PRUEBAS DE CONVERGENCIA

Raz de Cauchy

179

Integral de
Euler Maclaurin

Kummer, an

(Comparacin con
la integral)
an= n

(Comparacin con las


series geomtricas)
an = 1
Razn de DAlembert
Cauchy
(Tambin por comparacin
con la series geomtricas)

Raabe
an= n ln n

Gauss
Figura 8.1: Prueba de comparacion.

Todos las pruebas desarrolladas en esta seccion son esencialmente pruebas de comparacion.
La figura 8.1 muestra estas pruebas y sus relaciones.
Ejemplo Las series p.
P
Probamos n np , p = 0.999, por convergencia. Ya que n0.999 >P
n1 , y bn = n1 forman
la serie armonicaPdivergente, la prueba de comparacion muestra que n n0.999 es divergente.
Generalizando, n np se ve como divergente para todo p 1.

8.2.2.

Prueba de la raz de Cauchy.

1/n
n suficientemente grande, con r independiente de n, P
entonces
P Si (an ) r < 1 para todo
1/n
1 para todo n suficientemente grande, entonces n an es
n an es convergente. Si (an )
divergente.
La primera parte de esta prueba se verifica facilmente elevando (an )1/n r a la n-esima
potencia. Obtenemos

an r n < 1 .
P
Ya que rn es solo el termino n-esimo en una serie geometrica convergente, n an es convergente por la prueba de comparacion. Conversamente, si (an )1/n 1, entonces an 1 y la serie
debera diverger. La prueba de la raz es particularmente u
til en establecer las propiedades
de la serie de potencias.

CAPITULO 8. SERIES INFINITAS.

180

8.2.3.

Prueba de la raz
on de D Alembert o Cauchy.

de n, entonces
P Si an+1 /an r < 1 para todo n suficientemente grande, y r independiente
P
n an es convergente. Si an+1 /an 1 de un n en adelante, entonces
n an es divergente.
La convergencia esta dada por la comparacion directa con las series geometricas (1 + r +
r2 + . . .). En la segunda parte an+1 an y la divergencia debe ser razonablemente obvia.
Aunque la prueba no es tan sensible como la prueba de la raz de Cauchy, esta prueba de
la razon e D Alembert es una de las mas faciles de aplicar y es ampliamente usada. Una
afirmacion alternativa de la prueba de la razon esta en la forma de un lmite: si
an+1
<1,
n an
>1,
=1,
lm

convergencia
divergencia
indeterminado.

(8.12)

A causa de la posibilidad de ser indeterminado, la prueba de la razon es probable que falle


en puntos cruciales, y se hace necesario una prueba mas delicada y sensible.
Podramos preguntarnos como podra levantarse esta indeterminacion. Realmente fue disimulado en el primera afirmacion an+1 /an r < 1. Podramos encontrar an+1 /an < 1 para
todo n finito pero ser inapropiado escoger un r < 1 e independiente de n tal que an+1 /an r
para todo n suficientemente grande. Un ejemplo esta dado por las series armonicas
an+1
n
=
<1,
an
n+1
Ya que
lm

an+1
=1,
an

(8.13)

(8.14)

no existe una razon fija r < 1 y la prueba de la razon falla.


Ejemplo Prueba de la razon de D Alembert.
X n
Probar la convergencia de
2n
n
an+1
(n + 1)/2n+1
1n+1
=
=
.
n
an
n/2
2 n

(8.15)

Ya que
an+1
3

an
4

para n 2,

(8.16)

tenemos convergencia. Alternativamente,


an+1
1
= ,
n an
2
lm

y de nuevo converge.

(8.17)

8.2. PRUEBAS DE CONVERGENCIA

8.2.4.

181

Prueba integral de Cauchy o Maclaurin.

Esta es otra clase de prueba de comparacion en la cual comparamos una serie con una
integral. Geometricamente, comparamos el area de una serie de un rectangulo de ancho
unitario con el area bajo la curva.
R on continua, monotonamente decreciente en la cual f (n) = an . Luego
P Sea f (x) una funci
esima suma
n an converge si 0 f (x) dx es finita y diverge si la integral es infinita. Para la i-
parcial
i
i
X
X
si =
an =
f (n) .
(8.18)
n=1

n=1

Pero
Z

i+1

si >

f (x) dx ,

(8.19)

por la figura 8.2a, f (x) es monotonamente decreciente. Por otra parte, de la figura 8.2b,
Z
si a1 <

f (x) dx ,

(8.20)

en la cual la serie esta representada por los rectangulos inscritos. Tomando el lmite como
i , tenemos
Z
Z

X
an <
f (x) dx + a1 .
(8.21)
f (x) dx <
1

n=1

De modo que la serie infinita converge o diverge cuando la integral correspondiente converge
o diverge respectivamente.

(a)
f(x)

(b)
f(1)=a1
f(2)=a2

f(x)

f(1)=a1

x
1 2 3 4

1 2 3 4 5

Figura 8.2: (a) Comparacion de la integral y la suma de bloques sobresalientes. (b) Comparacion de la integral y la suma de bloques envueltos.

La prueba de la integral es particularmente u


til para acotar superior e inferiormente el
resto de una serie, despues de que algunos n
umeros de terminos iniciales hayan sido sumados.

CAPITULO 8. SERIES INFINITAS.

182
Esto es,

an =

n=1

donde
Z

N
X
n=1

f (x) dx <
N +1

an +

an ,

n=N +1

Z
an <

f (x) dx + aN +1 .
N +1

n=N +1

Podemos liberar la prueba de la integral de los requerimientos muy restrictivos de que la


funcion de interpolacion f (x) sea positiva y monotonamente decreciente, basta que la funcion
f (x) tenga una derivada continua que satisfaga
Nf
X

Nf

Z
f (n) =

Ni

n=Ni +1

Nf

f (x) dx +

(x [x])f 0 (x) dx .

(8.22)

Ni

Aqu [x] denota el entero mayor por debajo de x, tal que x [x] vara como diente de sierra
entre 0 y 1.
Ejemplo Funcion Zeta de Riemann.
La funcion zeta de Riemann esta definida por
(p) =

np .

(8.23)

n=1

Podemos tomar f (x) = xp y entonces


p+1

, p 6= 1

p
+
1
p
x dx =
1

ln x ,
p=1
1

(8.24)

La integral y por lo tanto la serie son divergentes para p 1 y convergente para p > 1. De
modo que la ecuacion (8.23) lleva la condicion de p > 1. Esto, incidentalmente, es una prueba
independiente de que la serie armonica
(p = 1) diverge y lo hace en forma logartmica. La
P1.000.000
suma del primer millon de terminos
n1 , es solamente 14.392726. . . .
Esta comparacion con la integral tambien puede ser usada para dar una cota superior a
la constante Euler-Mascheroni definida por
!
n
X
1
= lm
ln n .
(8.25)
n
m
m=1
Volviendo a las sumas parciales,
sn =

n
X
m=1

Z
ln n <
1

dx
ln n + 1 .
x

(8.26)

Evaluando la integral del lado derecho, sn < 1 para todo n y por lo tanto < 1. Realmente
la constante de Euler-Mascheroni es 0.57721566. . . .

8.2. PRUEBAS DE CONVERGENCIA

8.2.5.

183

Prueba de Kummer.

Esta es la primera de tres pruebas que son algo mas difciles para aplicar que las anteriores.
Su importancia radica en su poder y sensibilidad. Frecuentemente, al menos una de las
tres funcionara cuando las pruebas mas faciles sean indeterminadas. Debe recordarse, sin
embargo, que estas pruebas, como aquellas previamente discutidas, estan finalmente basadas
en comparaciones. Esto significa que todas las pruebas de convergencia dadas aqu, incluyendo
la de Kummer, puedan fallar algunas veces.
Consideremos una serie de terminos positivos ui y una sucesion de constantes positivas
finitas ai . Si
un
an
an+1 C > 0 ,
(8.27)
un+1
P
para todo n N , alg
un n
umero fijo, entonces
i=1 ui converge. Si
an

un
an+1 0
un+1

(8.28)

P
a1
diverge, luego
i
i=1 ui diverge.
La prueba de este poderoso test es simple y queda como ejercicio.
Si las constantes positivas an de la prueba de Kummer son elegidas como an = n, tenemos
la prueba de Raabe.
y

i=1

8.2.6.

Prueba de Raabe.

Si un > 0 y si

n


un
1 P >1 ,
un+1

para todo n N , donde N es un entero positivo independiente de n, entonces


Si


un
n
1 1 ,
un+1
P
P
entonces i ui diverge ( n1 diverge).
La forma en lmite en el test de Raabe es


un
1 =P .
lm n
n
un+1

(8.29)
P

ui converge.
(8.30)

(8.31)

Tenemos convergencia para P > 1, y divergencia para P < 1, y no hay prueba para P = 1
exactamente como con el test de Kummer. Esta indeterminancia esta expresada en que
podemos encontrar ejemplos de una serie convergente y una divergente en que ambas series
tienden a P = 1 en la ecuacion (8.31).
P 1
El test de Raabe es mas sensible
P que la prueba de la razon de DAlembert ya que n=1 n
un mas sensible (y una relatidiverge mas lentamente que n=1 1. Obtenemos una prueba a
vamente facil de aplicar) si escogemos an = n ln n. Esto es la prueba de Gauss.

CAPITULO 8. SERIES INFINITAS.

184

8.2.7.

Prueba de Gauss.

Si un > 0 para todo n finito y


h B(n)
un
=1+ + 2 ,
un+1
n
n

(8.32)

P
en el cual B(n) es una funcion acotada de n para n , luego i ui converge para h > 1
y diverge para h 1.
La razon un /un+1 de la ecuacion (8.32) a menudo llega a ser como la razon de dos formas
cuadraticas:
n2 + a1 n + a0
un
= 2
.
(8.33)
un+1
n + b1 n + b0
Se puede mostrar que tenemos convergencia para a1 > b1 + 1 y divergencia para a1 b1 + 1.
El test de Gauss es un test extremadamente sensible para la convergencia de series. Esto
funcionara para practicamente todas las series que encontraremos en Fsica. Para h > 1 o
h < 1 la prueba se deduce directamente del test de Raabe




h B(n)
B(n)
lm n 1 + + 2 1 = lm h +
=h.
(8.34)
n
n
n
n
n
Si h = 1, falla el test de Raabe. Sin embargo, si volvemos al test de Kummer y usamos
an = n ln n, tenemos




1 B(n)
lm n ln n 1 + + 2 (n + 1) ln(n + 1)
n
n
n


(n + 1)
(n + 1) ln(n + 1)
(8.35)
= lm n ln n
n
n



1
= lm (n + 1) ln n ln n ln 1 +
.
n
n
Pidiendo prestado un resultado de la seccion 8.6 (el cual no es dependiente de la prueba de
Gauss) tenemos




1
1
1
1
lm (n + 1) ln 1 +

+
. . . = 1 < 0 .
(8.36)
= lm (n + 1)
n
n
n
n 2n2 3n3
De modo que tenemos divergencia para h = 1. Esto es un ejemplo de una aplicacion exitosa
del test de Kummer en el cual el test de Raabe falla.
Ejemplo Series de Legendre.
La relacion de recurrencia para la solucion en serie de la ecuacion de Legendre pueden ser
colocadas en la forma
a2j+2
2j(2j + 1) l(l + 1)
=
.
(8.37)
a2j
(2j + 1)(2j + 2)
Esto es equivalente a u2j+2 /u2j para x = +1. Para j  l
a2j
(2j + 1)(2j + 2)
2j + 2
1

=
=1+ .
a2j+2
2j(2j + 1)
2j
j

(8.38)

8.2. PRUEBAS DE CONVERGENCIA

185

Por la ecuacion (8.33) la serie es divergente. Mas adelante exigiremos que las series de Legendre sean finitas (se corten) para x = 1. Eliminaremos la divergencia ajustando los parametros
n = 2j0 , un entero par. Esto truncara la serie, convirtiendo la serie infinita en un polinomio.

8.2.8.

Mejoramiento de convergencia.

En esta seccion no nos preocupara establecer la convergencia como una propiedad matematica abstracta. En la practica, la razon de convergencia puede ser de considerable importancia. Aqu presentamos un metodo que mejora la razon de la convergencia de una serie
ya convergente.
El principio basico de este metodo, debido a Kummer, es formar una combinacion lineal
de nuestra serie lentamente convergente y una o mas series cuya suma es conocida. Entre las
series conocidas, la coleccion
1 =
2 =

X
n=1

X
n=1

3 =

X
n=1

..
.
p =

X
n=1

1
=1,
n(n + 1)
1
1
= ,
n(n + 1)(n + 2)
4
1
1
=
,
n(n + 1)(n + 2)(n + 3)
18
..
.
1
1
=
,
n(n + 1)(n + 2) (n + p)
p p!

es particularmente u
til. Las series estan combinadas termino a termino y los coeficientes en
combinacion lineal son escogidos para cancelar los terminos que convergen lentamente.
Ejemplo Funcion zeta de Riemann, (3).
P
3
Sea la serie a ser sumada
on 8.10 esta identificada como una funcion
n=1 n . En la secci
zeta de Riemann, (3). Formamos una combinacion lineal

+ a2 2 =

n=1

n3 +

n=1

a2
.
4

1 no esta incluida ya que converge mas lentamente que (3). Combinando terminos, obtenemos sobre la mano izquierda
 X


X
1
a2
n2 (1 + a2 ) + 3n + 2
+
=
.
3
3 (n + 1)(n + 2)
n
n(n
+
1)(n
+
2)
n
n=1
n=1
Si escogemos a2 = 1, la ecuacion precedente tiende a
(3) =

X
n=1

1 X
3n + 2
.
= +
3
4 n=1 n (n + 1)(n + 2)

(8.39)

CAPITULO 8. SERIES INFINITAS.

186

La serie resultante no es muy bonita pero converge como n4 , apreciablemente mas rapido
que n3 .
El metodo puede ser extendido incluyendo a3 3 para obtener la convergencia como n5 ,
a4 4 para obtener la convergencia como n6 , etc. Eventualmente, usted tiene que alcanzar
un compromiso entre cuanta algebra usted hace y cuanta aritmetica la computadora hace.
Como las computadoras lo hacen mas rapido, el balance esta seguramente sustituyendo menos
algebra hecha por usted, por mas aritmetica realizada por el computador.

8.3.

Series alternadas.

En la seccion 8.2 nos limitamos a series de terminos positivos. Ahora, en contraste, consideraremos series infinitas en las cuales los signos se alternan. La cancelacion parcial debida a
la alternancia de los signos hace la convergencia mas rapida y mucho mas facil de identificar.
Probaremos que el criterio de Leibniz es una condicion general para la convergencia de una
serie alternada.

8.3.1.

Criterio de Leibniz.

P
n+1
Consideremos la serie
an con an > 0. Si an es monotonamente decreciente
n=1 (1)
(para N suficientemente grande) y el lmn an = 0, entonces la serie converge.
Para probar esto, examinemos las sumas parciales pares
s2n = a1 a2 + a3 . . . a2n ,
s2n+2 = s2n + (a2n+1 a2n+2 ) .

(8.40)

Ya que a2n+1 > a2n+2 , tenemos


s2n+2 > s2n .

(8.41)

s2n+2 = a1 (a2 a3 ) (a4 a5 ) . . . a2n+2 .

(8.42)

Por otra parte,


De modo que, con cada par de terminos a2p a2p+1 > 0,
s2n+2 < a1 .

(8.43)

Con las sumas parciales pares acotamos s2n < s2n+2 < a1 y los terminos an decrecen monotonamente aproximandose a cero, esta serie alternada converge.
Un resultado mas importante puede ser extrado de las sumas parciales. A partir de las
diferencias entre el lmite de la serie S y las sumas parciales sn
S sn = an+1 an+2 + an+3 an+4 + . . .
= an+1 (an+2 an+3 ) (an+4 an+5 ) . . .

(8.44)

S sn < an+1 .

(8.45)

o
La ecuacion (8.45) dice que el error en el corte de una serie alternada despues de n terminos
es menor que an+1 , el primer termino excluido. Un conocimiento del error obtenido de esta
manera puede ser de gran importancia practica.

8.3. SERIES ALTERNADAS.

8.3.2.

187

Convergencia absoluta.

P
Dada unaP
serie en terminos de un en la cual un puede variarP
en signo, si
|un | converP
ge, entonces
un se dice que es absolutamente convergente. Si
un converge pero
|un |
diverge, la convergencia recibe el nombre de condicional.
La serie alternada armonica es un ejemplo simple de esta convergencia condicionada.
Tenemos

X
1 1 1
1
(8.46)
(1)n1 n1 = 1 + + +
2
3
4
n
n=1
convergente por el criterio de Leibniz, pero

n1 = 1 +

n=1

1 1 1
1
+ + + + +
2 3 4
n

se ha demostrado que es divergente en la seccion 8.1 y 8.2.


Podemos notar que todas las pruebas desarrolladas en la seccion 8.2 supone una serie de
terminos positivos. Por lo tanto, todas las pruebas en esa seccion garantizan la convergencia
absoluta.
Ejemplo
Para 0 < x < la serie de Fourier

X
cos(nx)
n=1

x
= ln 2 sen
,
2


(8.47)

converge teniendo coeficientes que cambian de signo frecuentemente, pero no tanto para que
el criterio de convergencia de Leibniz se aplique facilmente. Apliquemos el test de la integral
de la ecuacion (8.22). Usando integracion por partes vemos de inmediato que


Z
Z
cos(nx)
sen(nx)
1 sen(nx)
dn

dn =
n
nx
x 1
n2
1
1
converge para n , y la integral del lado derecho incluso converge absolutamente. El
termino derivado en la ecuacion (8.22) tiene la forma


Z
x
cos(nx)
(n [n]) sen(nx)
dn ,
n
n2
1
donde el segundo termino converge
R N absolutamente y no necesita ser considerado. Lo proximo es observar que g(N ) = 1 (n [n]) sen(nx) dn es acotado para N , tal como
RN
sen(nx) dn es acotado debido a la naturaleza periodica de sen(nx) y a su regular cambio
de signo. Usando integracion por partes nuevamente

 Z
Z 0
g(n)
g (n)
g(n)
+
dn ,
dn =
n
n 1
n2
1
1
vemos que el segundo termino es absolutamente convergente, y el primero va a cero en el
lmite superior. Por lo tanto la serie en la ecuacion (8.47) converge, lo cual es duro de ver
usando otro test de convergencia.

CAPITULO 8. SERIES INFINITAS.

188

8.4.

Algebra
de series.

Establecer la convergencia absoluta es importante porque puede probarse que las series
absolutamente convergentes pueden ser manipuladas de acuerdo a las reglas familiares del
algebra o aritmetica.
1. Si una serie infinita es absolutamente convergente, la suma de la serie es independiente
del orden en el cual los terminos son a
nadidos.
2. La serie puede ser multiplicada por otra serie absolutamente convergente. El lmite del
producto sera el producto de los lmites de las series individuales. El producto de las
series, una doble serie, tambien sera absolutamente convergente.
No hay tales garantas en series condicionalmente convergentes. Nuevamente consideremos
la serie armonica alternada. Si escribimos

 

1 1 1
1 1
1 1

,
(8.48)

1 + + = 1
2 3 4
2 3
4 5
es claro que la suma

(1)n1 n1 < 1 .

(8.49)

n=1

Sin embargo, si rearreglamos los terminos sutilmente, podemos hacer que la serie armonica
alternada converja a 3/2. Reagrupamos los terminos de la ecuacion (8.48), tomando




1
1 1
1
1
1
1
1 1
+
+ +
+
+

1+ +
3 5
2
7 9 11 13 15
4




(8.50)
1
1
1
1
1
1
+
+ +
+ +
+
+ .
17
25
6
27
35
8
Tratando los terminos agrupados en parentesis como terminos simples por conveniencia,
obtenemos las sumas parciales
s1
s3
s5
s7
s9

= 1.5333
= 1.5218
= 1.5143
= 1.5103
= 1.5078

s2 = 1.0333
s4 = 1.2718
s6 = 1.3476
s8 = 1.3853
s10 = 1.4078

A partir de esta tabulacion de los sn y el grafico de sn versus n en la figura 8.3 es clara la


convergencia a 3/2. Hemos rearreglado los terminos, tomando terminos positivos hasta que
la suma parcial sea igual o mayor que 3/2, luego sumando los terminos negativos hasta que la
suma parcial caiga bajo 3/2, etc. Como las series se extienden hasta infinito, todos los terminos originales eventualmente apareceran, pero las sumas parciales de este reordenamiento
de esta serie armonica alternada converge a 3/2. Por un reordenamiento de terminos una
serie condicionalmente convergente podra ser hecha para converger a alg
un valor deseado o
para que diverja. Esta afirmacion es dada como el teorema de Riemann. Obviamente, series
condicionalmente convergentes deberan ser tratadas con precaucion.


8.4. ALGEBRA
DE SERIES.

189

1.5

1.4

1.3
2

10

Figura 8.3: Serie armonica alternada, rearreglo de terminos para dar convergencia a 1.5.

8.4.1.

Mejoramiento de la convergencia, aproximaciones racionales.

La serie
ln(1 + x) =

(1)n1

n=1

xn
,
n

1 < x 1 ,

(8.51)

converge muy suavemente cuando x se aproxima a +1. La razon de convergencia podra ser
mejorada sustancialmente multiplicando ambos lados de la ecuacion (8.51) por un polinomio
y ajustando los coeficientes del polinomio para cancelar las porciones que convergen mas
lentamente en la serie. Consideremos la posibilidad mas simple: Multiplicar ln(1 + x) por
1 + a1 x.

X
X
xn
xn+1
(1)n1 + a1
(1 + a1 x) ln(1 + x) =
.
(1)n1
n
n
n=1
n=1
Combinando las dos series sobre la derecha termino a termino, obtenemos
(1 + a1 x) ln(1 + x) = x +

n1

(1)

n=2

=x+

X
n=2

(1)n1

1
a1

n n1

xn

n(1 a1 ) 1 n
x .
n(n 1)

Claramente, si tomamos a1 = 1, el n en el numerador desaparece y nuestra serie combinada


converge como n2 .
Continuando este proceso, encontramos que (1 + 2x + x2 ) ln(1 + x) se anula como n3 ,
(1 + 3x + 3x2 + x3 ) ln(1 + x) se anula cuando n4 . En efecto estamos desplazandonos desde
una expansion de serie simple de la ecuacion (8.51) a una representacion racional en la cual

CAPITULO 8. SERIES INFINITAS.

190

la funcion ln(1 + x) esta representada por la razon de una serie y un polinomio:


x+

X
(1)n xn
n=1

ln(1 + x) =

n(n 1)
.

1+x

Tales aproximaciones racionales pueden ser ambas compactas y precisas. Los programas
computacionales hacen extensivo el uso de ellas.

8.4.2.

Reordenamiento de series dobles.

Otro aspecto del reordenamiento de series aparece en el tratamiento de series dobles


(figura 8.4):

m= 0
n= 0 a00

1
a01

2
a02

3
a03
a13

a10

a11

a12

a20

a21

a22 a23

a30

a31

a32 a33

Figura 8.4: Series dobles, la suma sobre n es indicada por lneas segmentadas verticales.
X

an,m .

m=0 n=0

sustituyamos
n=q0,
m=pq 0 ,
(q p) .
Esto resulta en la identidad
X

X
m=0 n=0

an,m =

p
X
X

aq,pq .

(8.52)

p=0 q=0

La suma sobre p y q de la ecuacion (8.52) esta ilustrada en la figura 8.5. La sustitucion



r
n=s0,
m = r 2s 0 ,
s
2


8.4. ALGEBRA
DE SERIES.

191

p= 0
q= 0 a00
1

1
a01

2
a02

3
a03

a10

a11

a12

a20 a21

a30

Figura 8.5: Series dobles nuevamente, la primera suma es representada por lneas segmentadas
verticales pero estas lneas verticales corresponden a las diagonales en la figura 8.4.

tiende a
X

an,m =

m=0 n=0

[r/2]
X
X

as,r2s .

(8.53)

r=0 s=0

con [r/2] = r/2 para r par, (r 1)/2 para r impar. La suma sobre r y s de la ecuacion
(8.53) esta mostrada en la figura 8.6. Las ecuaciones (8.52) y (8.53) son claramente reordenamientos del arreglo de coeficientes an,m , reordenamientos que son validos en tanto tengamos
convergencia absoluta. La combinacion de las ecuaciones (8.52) y (8.53),

r= 0 1 2 3 4
s= 0 a00 a01 a02 a03 a04
1

a10 a11 a12

a20

Figura 8.6: Series dobles. La suma sobre s corresponde a la suma a lo largo de la lneas
segmentadas inclinadas, en la figura 8.4.

p
X
X
p=0 q=0

aq,pq =

[r/2]
X
X
r=0 s=0

as,r2s .

(8.54)

CAPITULO 8. SERIES INFINITAS.

192

es usada en la determinacion de la forma en serie de los polinomios de Legendre.

8.5.

Series de funciones.

Extendemos nuestro concepto de series infinitas para incluir la posibilidad que cada
termino un pueda ser una funcion de alguna variable, un = un (x). Numerosas ilustraciones de tales series de funciones apareceran mas adelante. Las sumas parciales llegan a ser
funciones de la variable x
sn (x) = u1 (x) + u2 (x) + + un (x) ,

(8.55)

tal como lo hacemos para la suma de serie, definimos el lmite como el lmite de las sumas
parciales

X
un (x) = S(x) = lm sn (x) .
(8.56)
n

n=1

Hasta ahora nos hemos ocupado del comportamiento de las sumas parciales como una funcion
de n. Ahora consideremos como las cantidades anteriores dependen de x. Aqu el concepto
clave es la convergencia uniforme.

8.5.1.

Convergencia uniforme.

Si para cualquier > 0 peque


no, existe un n
umero N , independiente de x en el intervalo
[a, b] con (a x b) tal que
| S(x) sn (x) | < , n N ,

(8.57)

se dice que la serie converge uniformemente en el intervalo [a, b]. Esto dice que para que
nuestra serie sea uniformemente
P convergente, debe ser posible encontrar un N finito tal que
la cola de la serie infinita, | i=N +1 ui (x)|, sea menor que un arbitrariamente peque
no para
todo x en el intervalo dado.
Esta condicion, ecuacion (8.57), la cual define la convergencia uniforme, es ilustrada en
la figura 8.7. El punto es que no importa cuan peque
no sea podemos siempre tomar un n
suficientemente grande tal que la magnitud absoluta de la diferencia entre S(x)
P y sn (x) sea
menor que para todo x, a x b. Si esto no puede ser hecho, entonces
un (x) no es
uniformemente convergente en el intervalo [a, b].
Ejemplo

X
n=1

un (x) =

X
n=1

x
.
[(n 1)x + 1][nx + 1]

(8.58)

La suma parcial sn (x) = nx(nx + 1)1 puede ser verificada por induccion matematica. Por
inspeccion esta expresion para sn (x) es valida para n = 1, 2. Suponemos que se mantiene

8.5. SERIES DE FUNCIONES.

193

S(x) +
S(x)
S(x)

sn (x)

x
x=a

x=b

Figura 8.7: Convergencia uniforme.

para el termino n y probamos para n + 1.


x
[nx + 1][(n + 1)x + 1]
x
nx
+
=
[nx + 1] [nx + 1][(n + 1)x + 1]
(n + 1)x
,
=
(n + 1)x + 1

sn+1 = sn +

completando la prueba.
Tomando n tenemos
S(0) = lm sn (0) = 0 ,
n

S(x 6= 0) = lm sn (x 6= 0) = 1 .
n

Tenemos una discontinuidad en el lmite de la serie en x = 0. Sin embargo, sn (x) es una


funcion continua de x, en el intervalo 0 x < 1, para todo n finito. La ecuacion (8.57)
con suficientemente peque
no, sera violado para todo n finito. Nuestra serie no converge
uniformemente.

8.5.2.

Prueba M de Weierstrass.

La prueba mas com


unmente usada para la convergencia
P uniforme es la prueba M de
Weierstrass. Si podemos construir
umeros 1 Mi , en P
la cual Mi |ui (x)| para
P una serie de n
todo x en el intervalo [a, b] y 1 Mi es convergente, nuestra serie
a uniforme1 ui (x) ser
mente convergente en [a, b].

CAPITULO 8. SERIES INFINITAS.

194

La prueba de este test M de Weierstrass es directa y simple. Ya que


existen algunos n
umeros N tal que n + 1 N ,

Mi < .

Mi converge,

(8.59)

i=n+1

Esto a partir de nuestra definicion de convergencia. Entonces, con |ui (x)| Mi para todo x
en el intervalo a x b,

X
|ui (x)| < .
(8.60)
i=n+1

De modo que


X


ui (x) < ,
|S(x) sn (x)| =

(8.61)

i=n+1

y por definicion 1 ui (x) es uniformemente convergente en [a, b]. Ya que tenemos especificaP
dos valores absolutos en el planteamiento de la prueba M de Weierstrass, la serie
1 ui (x)
tambien es vista como serie absolutamente convergente.
Podemos notar que la convergencia uniforme y convergencia absoluta son propiedades
independientes. Una no implica la otra. Para ejemplos especficos,

X
(1)n
,
n + x2
n=1

< x <

(8.62)

X
n=1

(1)n1

xn
= ln(1 + x) ,
n

0x1,

(8.63)

converge uniformemente en los intervalos indicados pero no converge absolutamente. Por otra
parte,
(

X
1, 0x<1
(1 x)xn =
,
(8.64)
0
,
x
=
1
n=1
converge absolutamente pero no uniformemente en [0, 1].
A partir de la definicion de convergencia uniforme podramos mostrar que cualquier serie
f (x) =

un (x) ,

(8.65)

n=1

no puede converger uniformemente en ning


un intervalo que incluya una discontinuidad de
f (x).
Ya que la prueba M de Weierstrass establece tanto la convergencia uniforme como absoluta, necesariamente falla para series que son uniformes pero condicionalmente convergentes.

8.5. SERIES DE FUNCIONES.

8.5.3.

195

Prueba de Abel.

Una prueba algo mas delicada para la convergencia uniforme ha sido dada por Abel. Si
un (x) = an fn (x) ,
X
an = A ,
convergente,
y las funciones f (x) P
son monotonas [fn+1 (x) fn (x)] y acotadas, 0 fn (x) M , para todo
x en [a, b], entonces
un (x) converge uniformemente en [a, b].
Las series uniformemente convergentes tienen tres propiedades particularmente u
tiles.
1. Si los terminos individuales un (x) son continuos, la suma de la serie
f (x) =

un (x) ,

(8.66)

n=1

es tambien continua.
2. Si los terminos individuales un (x) son continuos, las series pueden ser integradas termino
a termino. La suma de las integrales es igual a la integral de la suma.
Z

f (x) dx =
a

Z
X
n=1

un (x)dx .

(8.67)

3. Las derivadas de la suma de la serie f (x) es igual a la suma de los terminos individuales
derivados,

df (x) X dun (x)


=
,
(8.68)
dx
dx
n=1
siempre que las siguientes condiciones sean satisfechas:
dun (x)
son continuas en [a, b].
dx

X
dun (x)
es uniformemente convergente en [a, b].
dx
n=1

un (x) y

La integracion termino a termino de una serie uniformemente convergente2 requiere solo


continuidad de los terminos individuales. Esta condicion casi siempre es satisfecha en las
aplicaciones fsicas. La diferenciacion termino a termino de una serie a menudo no es valida porque deben satisfacer condiciones mas restrictivas. Por cierto, encontraremos casos en
series de Fourier, en la cual la diferenciacion termino a termino de una serie uniformemente
convergente tiende a una serie divergente.
2

La integraci
on termino a termino tambien puede ser valida en ausencia de convergencia uniforme.

CAPITULO 8. SERIES INFINITAS.

196

8.6.

Expansi
on de Taylor.

Esta es una expansion de una funcion en una serie infinita o en una serie finita mas
un termino remanente. Los coeficientes de los terminos sucesivos de la serie involucra las
derivadas sucesivas de la funcion. Este tipo de expansiones de son ampliamente usadas.
Ahora derivaremos la expansion de Taylor.
Supongamos que nuestra funcion f (x) tiene una derivada n-esima continua en el intervalo
a x b. Entonces, integrando esta n-esima derivada n veces,
x
Z x

(n)
(n1)
f (x) dx = f
(x) = f (n1) (x) f (n1) (a)
a
 a Z x
Z x Z x
(8.69)
f (n) (x) dx dx =
[f (n1) (x) f (n1) (a)]dx
a

=f

a
(n2)

(x) f (n2) (a) (x a)f (n1) (a) .

Continuando, obtenemos
Z Z Z x
(x a)2 (n1)
f
(a) . (8.70)
f (n) (x)(dx)3 = f (n3) (x) f (n3) (a) (x a)f (n2) (a)
2
a
Finalmente, integrando por n-esima vez,
Z x
Z
f (n) (x)(dx)n = f (x) f (a) (x a)f 0 (a)+
a

(x a)n1 (n1)
(x a)2 00
f (a)
f
(a) .

2!
(n 1)!

(8.71)

Note que esta expresion es exacta. No hay terminos que hayan sido excluidos, ni aproximaciones hechas. Ahora, resolviendo para f (x), tenemos
f (x) = f (a) + (x a)f 0 (a) +

(x a)2 00
(x a)n1 (n1)
f (a) + +
f
(a) + Rn .
2!
(n 1)!

El remanente, Rn , esta dado por la integral n-dimensional


Z x
Z
f (n) (x)(dx)n .

(8.72)

(8.73)

Este remanente, ecuacion (8.73), puede ser puesto en una forma mas inteligible usando la
forma integral del teorema del valor medio
Z x
g(x) dx = (x a)g() ,
(8.74)
a

con a x. Integrando n veces obtenemos la forma Lagrangiana del remanente:


Rn =

(x a)n (n)
f () .
n!

(8.75)

DE TAYLOR.
8.6. EXPANSION

197

Con la expansion de Taylor en esta forma no estamos interesados en cualquier pregunta de


convergencia de series infinitas. Esta serie es finita, la sola pregunta que nos importa es la
magnitud del remanente.
Cuando la funcion f (x) es tal que
lm Rn = 0 ,

(8.76)

la ecuacion (8.72) se convierte en la serie de Taylor


f (x) = f (a) + (x a)f 0 (a) +
=

X
(x a)n

n!

n=0

(n)

(x a)2 00
f (a) +
2!

(8.77)

(a) .

Nuestra serie de Taylor especifica el valor de una funcion en un punto, x, en terminos del
valor de la funcion y sus derivadas en un punto de referencia, a. Esta es una expansion en
potencias de un cambio en la variable, x = xa en este caso. La notacion puede ser variada
seg
un la conveniencia del usuario. Con la sustitucion x x + h y a x tenemos una forma
alterna

X
hn (n)
f (x + h) =
f (x) .
n!
n=0
Cuando usamos el operador D = d/dx la expansion de Taylor se convierte en
f (x + h) =

X
hn Dn
n=0

n!

f (x) = ehD f (x) .

Un forma en operadores equivalente de la expansion e Taylor. Una derivacion de la expansion


de Taylor en el contexto de la teora de variable compleja aparece en el proximo captulo.

8.6.1.

Teorema de Maclaurin.

Si expandimos alrededor del origen (a = 0), la ecuacion (8.77) es conocida como la serie
de Maclaurin
f (x) = f (0) + xf 0 (0) +
=

X
xn
n=0

n!

x2 00
f (0) +
2!

(8.78)

f (n) (0) .

Una aplicacion inmediata de la serie de Maclaurin (o serie de Taylor) esta en la expansion


de varias funciones transcendentales en una serie infinita.
Ejemplo
Sea f (x) = ex . Diferenciando, tenemos
f (n) (0) = 1 ,

(8.79)

CAPITULO 8. SERIES INFINITAS.

198

para todo n, n = 1, 2, 3 . . .. Entonces, para la ecuacion (8.78), tenemos

X xn
x2 x3
+
+ =
.
e =1+x+
2!
3!
n!
n=0
x

(8.80)

Esta es la expansion en serie de la funcion exponencial. Algunos autores usan esta serie para
definir la funcion exponencial.
Aunque esta serie es claramente convergente para todo x, podramos chequear el termino
remanente, Rn . Por la ecuacion (8.75) tenemos
xn (n)
f ()
n!
xn
=
e ,
0 || x .
n!

Rn =

Por lo tanto

(8.81)

xn x
e
n!

(8.82)

lm Rn = 0

(8.83)

| Rn |
y
n

para todo los valores finitos de x, el cual indica que esta expansion de Maclaurin de ex es
valida sobre el intervalo < x < .
Ejemplo
Sea f (x) = ln(1 + x). Diferenciando, obtenemos
f 0 (x) =
f

(n)

1
,
(1 + x)
n1

(x) = (1)

1
(n 1)!
.
(1 + x)n

(8.84)

La expansion de Maclaurin produce


x2 x3 x4
+

+ + Rn
2
3
4
n
X
xp
=
(1)p1 + Rn .
p
p=1

ln(1 + x) = x

(8.85)

En este caso el remanente esta dado por


xn (n)
f () , 0 x
n!
xn

, 0x1.
n

Rn =

(8.86)

DE TAYLOR.
8.6. EXPANSION

199

Ahora el remanente se aproxima a cero cuando n crece indefinidamente, dado 0 x 13 .


Como una serie infinita

X
xn
ln(1 + x) =
(1)n1
,
(8.87)
n
n=1
la cual converge para 1 < x 1. El intervalo 1 < x < 1 es facilmente establecido por la
prueba de la razon de D Alembert. La convergencia en x = 1 se deduce a partir del criterio
de Leibniz. En particular, en x = 1, tenemos
1 1 1 1
+ +
2 3 4 5

X
1
(1)n 1 ,
=
n
n=1

ln 2 = 1

(8.88)

la serie armonica alterna condicionalmente convergente.

8.6.2.

Teorema Binomial.

Una segunda, aplicacion extremadamente importante de las expansiones de Taylor y Maclaurin es la derivacion del teorema binomial para potencias negativas y/o no enteras.
Sea f (x) = (1 + x)m , en la cual m puede ser negativo y no esta limitado a valores enteros.
La aplicacion directa de la ecuacion (8.78) da
m(m 1) 2
x + + Rn .
2!

(8.89)

xn
(1 + )mn m(m 1) (m n + 1)
n!

(8.90)

(1 + x)m = 1 + mx +
Para esta funcion el remanente es
Rn =

y con 0 x. Ahora, para n > m, (1 + )mn es un maximo para = 0. Por lo tanto


Rn

xn
m(m 1) (m n + 1) .
n!

(8.91)

Note que los factores dependientes de m no dan un cero a menos que m sea entero no negativo;
Rn tiende a cero cuando n si x esta restringido al intervalo 0 x 1. La expansion
binomial resulta
(1 + x)m = 1 + mx +

m(m 1) 2 m(m 1)(m 2) 3


x +
x + .
2!
3!

(8.92)

En otra notacion equivalente

m!
xn
n!(m

n)!
n=0
 
X
m n
=
x .
n
n=0

(1 + x)m =

Este intervalo puede ser f


acilmente extendido a 1 < x 1 pero no a x = 1.

(8.93)

CAPITULO 8. SERIES INFINITAS.

200


Cuando la cantidad m
es igual a m!/(n!(mn)!), es llamado el coeficiente binomial. Aunque
n
hemos mostrado solamente que el remanente se anula,
lm Rn = 0 ,

para 0 x < 1, realmente puede mostrarse que la serie en la ecuacion (8.92) converge en el
intervalo extendido 1 < x < 1. Para m un entero, (m n)! = si n > m y las series
automaticamente terminan en n = m.
Ejemplo Energa relativista.
La energa total relativista de una partcula es
E = mc

v2
1 2
c

1/2
.

Comparemos esta ecuacion con la energa cinetica clasica,

(8.94)
1 2
mv .
2

v2
1
Por la ecuacion (8.92) con x = 2 y m = tenemos
c
2
"
 2
 2 2
(1/2)(3/2)
1
v
v
2
E = mc 1
2 +
2 +
2
c
2!
c
#
 2 3
(1/2)(3/2)(5/2)
v
+
+ .
2
3!
c
o
1
5
3
v2
E = mc + mv 2 + mv 2 2 + mv 2
2
8
c
16
2

v2
c2

2
+ .

El primer termino, mc2 , lo identificamos como la masa en reposo. Entonces


"
#
 2
1 2
3 v2 5 v2
Ecinetica = mv 1 + 2 +
+ .
2
4c
8 c2

(8.95)

(8.96)

Para la velocidad de la partcula v  c, donde c es la velocidad de la luz, la expresion en


los parentesis cuadrados se reduce a la unidad y vemos que la porcion cinetica de la energa
relativista total concuerda con el resultado clasico.
Para polinomios podemos generalizar la expansion binomial a
(a1 + a2 + + am )n =

n!
an1 an2 anmm ,
n1 !n2 ! nm ! 1 2

donde
la suma anterior incluye todas las combinaciones diferentes de los n1 , n2 , . . . , nm tal
Pm
que i=1 ni = n. Aqu ni y n son enteros. Esta generalizacion encuentra considerables usos
en Mecanica Estadstica.

8.7. SERIES DE POTENCIAS.

201

Las series de Maclaurin pueden aparecer algunas veces indirectamente mas que el uso directo de la ecuacion (8.78). Por ejemplo, la manera mas conveniente para obtener la expansion
en serie

X
(2n 1)!! x2n+1
x3 3x5
1
sen x =
=x+
+
+ ,
(8.97)
(2n)!! 2n + 1
6
40
n=0
es hacer uso de la relacion
sen

Z
x=
0

dt
.
(1 t2 )1/2

2 1/2

Expandimos (1 t )
(teorema binomial) y luego integramos termino a termino. Esta
integracion termino a termino es discutida en la seccion 8.7. El resultado es la ecuacion
(8.97). Finalmente, podemos tomar el lmite cuando x 1. La serie converge por la prueba
de Gauss.

8.6.3.

Expansi
on de Taylor de m
as de una variable.

La funcion f tiene mas de una variable independiente, es decir, f = f (x, y), la expansion
de Taylor se convierte en
f
f
f (x, y) = f (a, b) + (x a)
+ (y b) +
x
y


2
2
1
2f
2 f
2 f
+ 2(x a)(y b)
+
(x a)
+ (y b)
+
2!
x2
xy
y 2

1
3f
3f
+
(x a)3 3 + 3(x a)2 (y b) 2 +
3!
x
x y

3
3
2 f
3 f
+ (y b)
+ ,
+3(x a)(y b)
xy 2
y 3

(8.98)

con todas las derivadas evaluadas en el punto (a, b). Usando j t = xj xj0 , podemos escribir
la expansion de Taylor para m variables independientes en la forma simbolica

!n

m

X
tn X


f (xj ) =
i
f (xk )
.
(8.99)

n!
x
i
n=0
i=1
xk =xk0

Una forma vectorial conveniente es

X
1
~ n (~r) .
(~r + ~a) =
(~a )
n!
n=0

8.7.

(8.100)

Series de potencias.

Las series de potencias son un tipo especial y extremadamente u


til de series infinitas de
la forma
f (x) = a0 + a1 x + a2 x2 + a3 x3 +

X
=
an xn ,
n=0

(8.101)

CAPITULO 8. SERIES INFINITAS.

202

donde los coeficientes ai son constantes e independientes de x.4

8.7.1.

Convergencia.

La ecuacion (8.101) puede testearse rapidamente para la convergencia ya sea por la prueba
de la raz de Cauchy o por la prueba de la razon de D Alembert. Si
an+1
= R1 ,
n an
lm

(8.102)

la serie converge para R < x < R. Este es el intervalo o radio de convergencia. Ya que las
pruebas de la raz y la razon fallan cuando el lmite es la unidad, el punto final del intervalo
requiere atencion especial.
Por ejemplo, si an = n1 , entonces R = 1 y, la serie converge para x = 1, pero diverge
para x = +1. Si an = n!, entonces R = 0 y la serie diverge para todo x 6= 0.

8.8.

Convergencia uniforme y absoluta.

Supongamos que nuestra serie de potencia es convergente para R < x < R; entonces
sera uniforme y absolutamente convergente en cualquier intervalo interior, S x S,
donde 0 < S < R. Esto podra ser probado directamente por la prueba M de Weierstrass
usando Mi = |ai |S i .

8.8.1.

Continuidad.

P
Ya que cada termino un (x) = an xn es una funcion continua de x y f (x) =
an xn converge uniformemente para S x S, f (x) debera ser una funcion continua en el intervalo
de convergencia uniforme. Este comportamiento es contradictorio con el comportamiento
impresionantemente diferente de las series de Fourier. Las series de Fourier son usadas frecuentemente para representar funciones discontinuas tales como ondas cuadradas y ondas
dientes de sierra.

8.8.2.

Diferenciaci
on e integraci
on.

P
Con un (x) continua y
an xn uniformemente convergente, encontramos que la serie diferenciada es una serie de potencia con funciones continuas y del mismo radio de convergencia
que la serie original. Los nuevos factores introducidos por diferenciacion (o integracion) no
afecta ni a la prueba de la raz ni a la de la razon. Por lo tanto nuestra serie podra ser
diferenciada o integrada tan a menudo como deseemos dentro del intervalo de convergencia
uniforme.
En vista de las restricciones algo severas puestas en la diferenciacion, esto es un resultado
valioso y notable.
4

La ecuaci
on (8.101) puede ser reescrita con z = x + iy, reemplazando a x. Luego todos los resultados de
esta secci
on se aplican a series complejas

8.8. CONVERGENCIA UNIFORME Y ABSOLUTA.

8.8.3.

203

Teorema de unicidad.

En la seccion precedente, usando las series de Maclaurin, expandimos ex y ln(1 + x) en


series infinitas. En los captulos venideros las funciones son frecuentemente representadas e
incluso definidas por series infinitas. Ahora estableceremos que la representacion de la serie
de potencias es u
nica.
Si

X
f (x) =
an xn ,
Ra < x < Ra
n=0

(8.103)
bn x n ,

Rb < x < Rb ,

n=0

con intervalos de convergencia sobrepuestos, incluyendo el origen, luego


an = b n ,

(8.104)

para todo n; esto es, supongamos dos representaciones de serie de potencias (diferentes) y
luego procedamos a demostrar que las dos son identicas.
De la ecuacion (8.103)

an x =

n=0

bn x n ,

R < x < R

(8.105)

n=0

donde R es el mas peque


no entre Ra , Rb . Haciendo x = 0 para eliminar todo salvo el termino
constante, obtenemos
a0 = b0 .
(8.106)
Ahora, aprovechandose de la diferenciabilidad de nuestra serie de potencia, diferenciamos la
ecuacion (8.105), obteniendo

nan x

n1

n=1

nbn xn1 .

(8.107)

n=1

De nuevo ajustamos x = 0 para aislar el nuevo termino constante y encontramos


a1 = b1 .

(8.108)

Repitiendo este proceso n veces, obtenemos


an = bn ,

(8.109)

lo cual muestra que las dos series coinciden. Por lo tanto nuestra representacion en serie de
potencia es u
nica.
Esto sera un punto crucial cuando usamos una serie de potencia para desarrollar soluciones
de ecuaciones diferenciales. Esta unicidad de las series de potencia aparece frecuentemente
en fsica teorica. La teora de perturbaciones en Mecanica Cuantica es un ejemplo de esto.
La representacion en serie de potencia de funciones es a menudo u
til en formas de evaluacion
indeterminadas, particularmente cuando la regla de lHospital puede ser inconveniente de
aplicar.

CAPITULO 8. SERIES INFINITAS.

204
Ejemplo
Evaluemos

1 cos x
.
x0
x2
lm

(8.110)

Remplazando cos x por su expansion en serie de Maclaurin, obtenemos


1 (1 x2 /2! + x4 /4! )
1 cos x
=
x2
x2
2
4
x /2! x /4! +
=
x2
2
x
1
+ .
=
2!
4!
Tomando x 0, tenemos
1 cos x
1
= .
2
x0
x
2
lm

(8.111)

La unicidad de las series de potencia significa que los coeficientes an pueden ser identificadas con las derivadas en una serie de Maclaurin. A partir de

X
1 (n)
f (x) =
an x =
f (0)xn
n!
n0
n=0
n

tenemos
an =

8.8.4.

1 (n)
f (0) .
n!

Inversi
on de series de potencia.

Supongamos que tenemos una serie


y y0 = a1 (x x0 ) + a2 (x x0 )2 +

X
=
an (x x0 )n ,

(8.112)

n=1

en la cual esta dada (y y0 ) en terminos de (x x0 ). Sin embargo, podra ser deseable tener
una expresion explcita para (xx0 ) en terminos de (y y0 ). Necesitamos resolver la ecuacion
(8.112) para (x x0 ) por inversion de nuestra serie. Supongamos que
x x0 =

bn (y y0 )n ,

(8.113)

n=0

con bn determinado en terminos de los supuestamente conocidos an . Una aproximacion a


fuerza bruta, la cual es perfectamente adecuada para los primeros coeficientes, ya que es
simplemente sustituir la ecuacion (8.112) en la ecuacion (8.113). Igualando los coeficientes

8.9. INTEGRALES ELIPTICAS.

205

de (x x0 )n en ambos lados de la ecuacion (8.113), ya que la serie de potencia es u


nica,
obtenemos
1
,
a1
a2
b2 = 3 ,
a1
1
b3 = 5 (2a22 a1 a3 ) ,
a1
1
b4 = 7 (5a1 a2 a3 a21 a4 5a32 ) ,
a1

b1 =

(8.114)

y as sucesivamente.

Los coeficientes mayores son listados en tablas generalmente. Una aproximacion mas general
y mucho mas elegante es desarrollada usando variables complejas.

8.9.

Integrales elpticas.

Las integrales elpticas son incluidas aqu parcialmente como una ilustracion del uso de
las series de potencias y por su propio interes intrnseco. Este interes incluye la ocurrencia
de las integrales elpticas en una gran variedad de problemas fsicos.
Ejemplo Perodo de un pendulo simple.
Para peque
nas oscilaciones en la amplitud nuestro pendulo, figura 8.8, tiene un movimiento armonico simple con un perodo T = 2(l/g)1/2 . Para una amplitud grande M tal
que sen M 6= M , la segunda ley de movimiento de Newton y las ecuaciones de Lagrange
conducen a una ecuacion diferencial no lineal (sen es una funcion no lineal de ), as que
necesitamos un acercamiento diferente.

Figura 8.8: Pendulo simple.

La masa oscilante m tiene una energa cinetica de ml2 (d/dt)2 /2 y una energa potencial
de mgl cos ( = /2 como la eleccion del cero de la energa potencial). Ya que d/dt = 0
en = M , el principio de la conservacion de la energa da
 2
1 2 d
ml
mgl cos = mgl cos M .
(8.115)
2
dt

CAPITULO 8. SERIES INFINITAS.

206
Resolviendo para d/dt obtenemos
d
=
dt

2g
l

1/2

(cos cos M )1/2

(8.116)

con la cancelacion de la masa m. Tomando t como cero cuando = 0 y d/dt > 0. Una
integracion desde = 0 a = M produce
 1/2 Z t
 1/2
Z M
2g
2g
1/2
(cos cos M )
d =
dt =
t.
(8.117)
l
l
0
0
Esto es 1/4 del ciclo, y por lo tanto el tiempo t es 1/4 del perodo, T . Notemos que M ,
trataremos la sustitucion
 
 

M
sen
= sen
sen .
(8.118)
2
2
Con esto, la ecuacion (8.117) se convierte en
 1/2 Z /2
l
s
T =4
g
0

d
 
M
1 sen2
sen2
2

(8.119)

Aunque no hay un obvio mejoramiento en la ecuacion (8.117), la integral ahora corresponde a


la integral elptica completa del primer tipo, K(sen M /2). A partir de la expansion de serie,
el perodo de nuestro pendulo puede ser desarrollado como una serie de potencia en sen M /2:

 1/2 
1
9
l
2 M
4 M
1 + sen
+
sen
+
(8.120)
T = 2
g
4
2
64
2

8.9.1.

Definiciones.

Generalizando el ejemplo anterior para incluir el lmite superior como una variable, la
integral elptica del primer tipo esta definida como
Z
d

(8.121)
F (\) =
1 sen2 sen2
0
o

Z
F (x\m) =
0

dt
p

(1

t2 )(1

mt2 )

0m<1.

Para = /2, x = 1, tenemos la integral elptica completa de primer tipo,


Z /2
d

K(m) =
1 m sen2
0
Z 1
dt
p
=
,
2
(1 t )(1 mt2 )
0
con m = sen2 , 0 m < 1.

(8.122)

(8.123)

8.9. INTEGRALES ELIPTICAS.

207

La integral elptica de segundo tipo esta definida por


Z
E(\) =
1 sen2 sen2 d

(8.124)

o
x

E(x\m) =
0

1 mt2
dt ,
1 t2

0m<1

(8.125)

Nuevamente, para el caso = /2, x = 1,tenemos la integral elptica completa de segundo


tipo:
Z

/2

E(m) =

1 m sen2 d

=
0

1 mt2
dt ,
1 t2

(8.126)
0m<1.

La figura 8.9 muestra el comportamiento de K(m) y E(m). Los valores de ambas funciones
pueden encontrarse en tablas o evaluar en software como Mathematica.
3

K(m)

/2
E(m)

0.2

0.4

0.6

0.8

Figura 8.9: Integrales elpticas completas, K(m), E(m).

8.9.2.

Expansi
on de series.

Para nuestro intervalo 0 m < 1, el denominador de K(m) puede ser expandido en serie
binomial
1
3
(1 m sen2 )1/2 = 1 + m sen2 + m2 sen4 +
2
8

X
(2n 1)!! n
=
m sen2n .
(2n)!!
n=0

(8.127)

CAPITULO 8. SERIES INFINITAS.

208

Para cualquier intervalo cerrado [0, mmax ], con mmax < 1, esta serie es uniformemente convergente y puede ser integrada termino a termino.
Z /2
(2n 1)!!
.
(8.128)
sen2n d =
(2n)!! 2
0
De modo que
"
#
 2

2

2
1
13
135

2
3
1+
m+
m +
m + .
K(m) =
2
2
24
246

(8.129)

Similarmente,
"
#
 2

2

2

1 m
1 3 m2
1 3 5 m3
E(m) =
1

.
2
2
1
24
3
246
5

(8.130)

Mas adelante estas series son identificadas como funciones hipergeometricas, y tenemos



1 1
K(m) = 2 F1
, , 1; m
(8.131)
2
2 2



1 1
(8.132)
E(m) = 2 F1 , , 1; m
2
2 2

8.9.3.

Valores lmites.

De las series en las ecuaciones (8.129) y (8.130), o a partir de las integrales definidas,
obtenemos

lm K(m) = ,
(8.133)
m0
2

lm E(m) = .
(8.134)
m0
2
Para m 1, las expansiones en series no son muy u
tiles, A partir de la representacion
integral tenemos que
lm K(m) = ,
(8.135)
m1

diverge logartmicamente, y por otra parte, la integral para E(m) tiene un lmite finito
lm E(m) = 1 .

m1

(8.136)

Las integrales elpticas han sido usadas ampliamente en el pasado para evaluar integrales.
Por ejemplo, integrales de la forma
Z x
p
I=
R(t, a4 t4 + a3 t3 + a2 t2 + a1 t + a0 ) dt ,
0

donde R es una funcion racional de t y del radical, pueden ser expresadas en terminos de
integrales elpticas. Con los computadores actuales disponibles para una evaluacion numerica
rapida y directa, el interes en estas tecnicas de integrales elpticas ha declinado. Sin embargo,
las integrales elpticas mantienen su interes a causa de su apariencia en problemas en Fsica.


8.10. NUMEROS
DE BERNOULLI.

8.10.

209

N
umeros de Bernoulli.

Los n
umeros de Bernoulli fueron introducidos por Jacques Bernoulli. Hay muchas definiciones equivalentes, pero debe tenerse extremo cuidado, porque algunos autores introducen
variaciones en la numeracion o en signo. Un acercamiento relativamente simple para definir
los n
umeros de Bernoulli es por la serie5

X Bn xn
x
=
,
ex 1 n=0 n!

(8.137)

la cual converge para |x| < 2 usando el test del cociente. Diferenciando esta serie de potencia
repetidamente y luego evaluando para x = 0, obtenemos

 n 
x
d
.
(8.138)
Bn =
dxn ex 1 x=0
Especficamente,
d
B1 =
dx



x


1
1
x
xe


=
= ,



x
x
x
2
e 1 x=0
e 1 (e 1) x=0
2

(8.139)

como puede ser visto por la expansion en series de los denominadores. Usando B0 = 1 y
B1 = 1/2, es facil verificar que la funcion

x
x X Bn xn
x
x

1
+
1 ,
=
= x
x
e 1
2
n!
e 1
2
n=2

(8.140)

es par en x, tal que todos los B2n+1 = 0.


Para derivar una relacion de recurrencia para los n
umeros de Bernoulli, multiplicamos
#"
#
"

X xm
x X B2n x2n
ex 1 x
1 +
=1=
x ex 1
(m
+
1)!
2 n=1 (2n)!
m=0

 X

X
X
1
1
B2n
m
x
=1+

xN
.
+
(m + 1)! 2 m!
[(2n)!(N 2n + 1)!]
m=1
N =2
1nN/2

(8.141)
La ecuacion (8.141) produce
1
(N + 1) 1 =
2

X
1nN/2


B2n


1
N +1
= (N 1) ,
2n
2

(8.142)

la cual es equivalente a


N
1 X
2N + 1
N =
B2n
,
2n
2 n=1
 
N
1
X
2N
N 1=
B2n
.
2n
n=1
5

La funci
on

ex

(8.143)

x
puede ser considerada una funci
on generatriz ya que genera los n
umeros de Bernoulli.
1

CAPITULO 8. SERIES INFINITAS.

210

n Bn
Bn
0
1 1.0000 00000
1 21 -0.5000 00000
1
2
0.1666 66667
6
1
3 30 -0.0333 33333
1
4
0.0238 09524
42
1
-0.0333 33333
5 30
5
6
0.0757 57576
66
Cuadro 8.1: N
umeros de Bernoulli
A partir de la ecuacion (8.143) los n
umeros de Bernoulli en la tabla 8.1 se obtienen rapidamente. Si la variable x en la ecuacion (8.137) es remplazada por 2xi (y B1 elegido igual a
-1/2), obtenemos una definicion alternativa (y equivalente) de B2n , la expresion
x cot x =

(1)n B2n

n=0

(2x)2n
,
(2n)!

< x < .

(8.144)

Usando el metodo del residuo o trabajando a partir de la representacion de producto


infinito de sen(x), encontramos que

B2n

(1)n1 2(2n)! X 1
,
=
2n
(2)2n
p
p=1

n = 1, 2, 3 . . . .

(8.145)

Esta representacion de los n


umeros de Bernoulli fue descubierta por Euler. Es facil ver a
partir de la ecuacion (8.145) que |B2n | aumenta sin lmite cuando n . Ilustrando el
comportamiento divergente de los n
umeros de Bernoulli, tenemos
B20 = 5.291 102
B200 = 3.647 10215 .
Algunos autores prefieren definir los n
umeros de Bernoulli con una version modificada de la
ecuacion (8.145) usando

2(2n)! X 1
B2n =
,
(8.146)
(2)2n p=1 p2n
el subndice es justo la mitad de nuestro subndice original y todos los signos son positivos.
Nuevamente, se debe chequear cuidadosamente la definicion que se esta usando de los n
umeros
de Bernoulli.
Los n
umeros de Bernoulli aparecen frecuentemente en teora de n
umeros. El teorema de
von Standt-Clausen establece que
B2n = An

1
1
1
1


,
p1 p2 p3
pk

(8.147)


8.10. NUMEROS
DE BERNOULLI.

211

en el cual An es un entero y p1 , p2 , . . . pk son n


umeros primos tal que pi 1 es un divisor de
2n. Podemos facilmente verificar que esto se satisface para
B6 (A3 = 1, p = 2, 3, 7) ,
B8 (A4 = 1, p = 2, 3, 5) ,
B10 (A5 = 1, p = 2, 3, 11) ,

(8.148)

y otros casos especiales.


Los n
umeros de Bernoulli aparecen en la suma de potencias enteras de enteros,
N
X

jp ,

p entero.

j=1

y en numerosas expansiones de series de las funciones trascendentales, incluyendo tan x, cot x,


sen1 x, ln | sen x|, ln | cos x|, ln | tan x|, tanh x, coth x y cosh1 x. Por ejemplo,
x3
2 5
(1)n1 22n (22n 1)B2n 2n1
+ x + +
x
+ .
tan(x) = x +
3
15
(2n)!

(8.149)

Los n
umeros de Bernoulli probablemente vengan en tales expansiones en series a causa de las
ecuaciones de definicion (8.137) y (8.143) y de su relacion con la funcion zeta de Riemann

X
1
.
(2n) =
p2n
p=1

8.10.1.

(8.150)

Funciones de Bernoulli.

Si la ecuacion (8.137) puede ser facilmente generalizada, tenemos

X
xexs
xn
B
(s)
=
.
n
ex 1 n=0
n!

(8.151)

definiendo las funciones de Bernoulli, Bn (s). Las primeras siete funciones de Bernoulli estan
dadas en la tabla 8.2.
De la funcion generadora, ecuacion (8.151),
Bn (0) = Bn ,

n = 1, 2, . . . .

(8.152)

la funcion de Bernoulli evaluadas en cero es igual al correspondiente n


umero de Bernoulli. Dos
propiedades particularmente importantes de las funciones de Bernoulli se deducen a partir
de la definicion: una relacion de diferenciacion
Bn0 (s) = nBn1 (s) ,

n = 1, 2, . . . .

(8.153)

y una relacion de simetra


Bn (1) = (1)n Bn (0) ,

n = 1, 2, . . . .

(8.154)

Estas relaciones son usadas en el desarrollo de la formula de integracion de Euler-Maclaurin.

CAPITULO 8. SERIES INFINITAS.

212

B0
B1
B2
B3
B4
B5
B6

=
=
=
=
=
=
=

1
x 12
x2 x + 16
x3 23 x2 + 21 x
1
x4 2x3 + x2 30
x5 25 x4 + 35 x2 61 x
x6 3x5 + 52 x4 21 x2 +

1
42

Cuadro 8.2: Funciones de Bernoulli

8.10.2.

F
ormula de integraci
on de Euler-Maclaurin.

Uno de los usos de las funciones de Bernoulli es la derivacion de la formula de integracion


de Euler-Maclaurin. Esta formula es usada en el desarrollo de una expresion asintotica para
la funcion factorial, serie de Stirling. La tecnica es integracion por partes repetida, usando la
ecuacion (8.153) para crear nuevas derivadas. Comenzamos con
Z 1
Z 1
f (x) dx =
f (x)B0 (x) dx .
(8.155)
0

A partir de la ecuacion (8.153)


B10 (x) = B0 (x) = 1 .
Sustituyendo B10 (x) en la ecuacion (8.155) e integrando por partes, obtenemos
Z 1
Z 1
f (x) dx = f (1)B1 (1) f (0)B1 (0)
f 0 (x)B1 (x) dx
0
0
Z 1
1
f 0 (x)B1 (x) dx
= [f (1) f (0)]
2
0

(8.156)

(8.157)

Nuevamente, usando la ecuacion (8.153), tenemos


1
B1 (x) = B20 (x) ,
2
e integrando por partes
Z 1
1
1
f (x) dx = [f (1) f (0)] [f 0 (1)B2 (1) f 0 (0)B2 (0)]+
2
2!
0
Z 1
1
f (2) (x)B2 (x) dx .
2! 0

(8.158)

(8.159)

Usando las relaciones,


B2n (1) = B2n (0) = B2n ,
B2n+1 (1) = B2n+1 (0) = 0 ,

n = 0, 1, 2, . . .
n = 1, 2, 3, . . . ,

(8.160)

ZETA DE RIEMANN.
8.11. FUNCION

213

y continuando este proceso, tenemos


Z 1
q
X
1
1
B2p [f (2p1) (1) f (2p1) (0)]+
f (x) dx = [f (1) f (0)]
2
(2p)!
0
p=1
Z 1
1
+
f (2q) (x)B2q (x) dx .
(2p)! 0

(8.161)

Esta es la formula de integracion de Euler-Maclaurin. Supone que la funcion f (x) tiene todas
las derivadas requeridas.
El intervalo de integracion en la ecuacion (8.161) puede ser trasladado de [0, 1] a [1, 2]
reemplazando f (x) por f (x + 1). Sumando tales resultados hasta [n 1, n],
Z n
1
1
f (x) dx = f (0) + f (1) + f (2) + + f (n 1) + f (n)+
2
2
0
Z 1
q
n1
X
X 1
1
(2p1)
(2p1)
f (2q) (x + ) dx .
B2q (x)

B2p [f
(n) f
(0)] +
(2p)!
(2p)!
0
=0
p=1
(8.162)
Los terminos 21 f (0) + f (1) + . . . + 21 f (n) aparecen exactamente como una integracion o
cuadratura trapezoidal. La suma sobre p puede ser interpretada como una correccion a la
aproximacion trapezoidal. La ecuacion (8.162) es la forma usada en la derivacion de la formula
de Stirling.
La formula de Euler-Maclaurin es a menudo u
til para sumar series al convertirlas en
integrales.

8.11.

Funci
on zeta de Riemann.

P
2n
Estas series
fueron usadas como series de comparacion para probar la conp=1 p
vergencia y en la ecuacion (8.144) como una definicion de los n
umeros de Bernoulli, B2n .
Tambien sirve para definir la funcion zeta de Riemann por
(s)

X
1
,
s
n
n=1

s>1.

(8.163)

La tabla 8.3 muestra los valores de (s) para s entero, s = 2, 3, . . . , 10. La figura 8.10 es un
grafico de (s) 1. Una expresion integral para esta funcion zeta de Riemann aparecera como
parte del desarrollo de la funcion gama.
Otra interesante expresion para la funcion zeta puede ser derivada como


1
1
1
1
1
s
(s)(1 2 ) = 1 + s + s +
+
+
+
(8.164)
2
3
2s 4s 6s
eliminando todos los ns , donde n es un m
ultiplo de 2. Entonces
1
1
1
1
(s)(1 2s )(1 3s ) = 1 + s + s + s + s +
3 5
7
9

1
1
1

+
+
+ ,
3s 9s 15s

(8.165)

CAPITULO 8. SERIES INFINITAS.

214

s
2
3
4
5
6
7
8
9
10

(s)
1.64493 40668
1.20205 69032
1.08232 32337
1.03692 77551
1.01734 30620
1.00834 92774
1.00407 73562
1.00200 83928
1.00099 45751

Cuadro 8.3: Funcion zeta de Riemann.

10
1
s

0.1

(s)1
0.01
0.001
0.0001
0

10

12

14

s
Figura 8.10: Funcion zeta de Riemann, (s) 1, versus s.

eliminando todos los terminos remanentes, donde n es un m


ultiplo de 3. Continuando, tenemos (s)(1 2s )(1 3s )(1 5s ) . . . (1 P s ), donde P es un n
umero primo, y todos los
s
terminos n , en el cual n es un m
ultiplo entero por sobre P , son cancelados. Para P ,
s

(s)(1 2 )(1 3 ) (1 P

) = (s)

(1 P s ) = 1 .

(8.166)

P (primo)=2

Por lo tanto

(s) =

P (primo)=2

1
(1 P s )

(8.167)

ZETA DE RIEMANN.
8.11. FUNCION

215

dando (s) como un producto infinito.6


Este procedimiento de cancelacion tiene una clara aplicacion en el calculo numerico. La
ecuacion (8.164) dara (s)(1 2s ) con la misma precision como la ecuacion (8.163) da (s),
pero solamente con la mitad de terminos. (En cuyo caso, podra hacerse una correccion para
despreciar la cola de la serie por la tecnica de Maclaurin reemplazando la serie por una
integral).
Conjuntamente con la funcion zeta de Riemann, habitualmente se definen otras tres funciones de sumas de potencia recprocas:
(s) =
(s) =

X
(1)n1
n=1

X
n=0

ns

= (1 21s )(s) ,

1
=
(2n + 1)s

1
1 s
2


(s) ,

y
(s) =

X
n=0

(1)n

1
.
(2n + 1)s

A partir de los n
umeros de Bernoulli o de las series de Fourier podemos determinar algunos
valores especiales
(2) = 1 +
(4) = 1 +
(2) = 1
(4) = 1
(2) = 1 +
(4) = 1 +
(1) = 1
(3) = 1

1
1
2
+
+

=
22 32
6
1
4
1
+
+ =
24 34
90
1
2
1
+

=
22 32
12
1
1
7 4
+
=
24 34
720
1
1
2
+
+ =
32 52
8
1
4
1
+
+ =
34 54
96
1 1

+ =
3 5
4
1
1
3
+

=
33 53
32

La constante de Catalan
(2) = 1
6

1
1
+ 2 = 0.9159 6559 . . . ,
2
3
5

Este es el punto de partida para la vasta aplicacion de la funcion zeta de Riemann a la teora de n
umeros.

CAPITULO 8. SERIES INFINITAS.

216

8.11.1.

Mejoramiento de la convergencia.

P
Si requerimos sumar una serie convergente
erminos son funciones racion=1 an cuyos t
nales de n, la convergencia puede ser mejorada dramaticamente introduciendo la funcion zeta
de Riemann.
Ejemplo Mejorando la convergencia.

X
El problema es evaluar la serie
n=1

1
1
1
. Expandiendo
= 2
2
2
(1 + n )
(1 + n )
n

1
1
1+ 2
n

 por

division directa, tenemos




1
1
1
n6
1
= 2 1 2 + 4
1 + n2
n
n
n
1 + n2
1
1
1
1
= 2 4+ 6 8
.
n
n
n
n + n6
Por lo tanto

X
n=1

X
1
1
=
(2)

(4)
+
(6)

.
8 + n6
1 + n2
n
n=1

Las funciones son conocidas y el remanente de la series converge como n6 . Claramente, el


proceso puede ser continuado hasta cuando uno desee. Usted puede hacer una eleccion entre
cuanta algebra hara y cuanta aritmetica hara el computador.
Otros metodos para mejorar la efectividad computacional estan dadas al final de la seccion
8.2 y 8.4.

8.12.

Series asint
oticas o semi-convergentes.

Las series asintoticas aparecen frecuentemente en Fsica. En calculo numerico ellas son
empleadas para el calculo de una variedad de funciones. Consideremos aqu dos tipos de
integrales que conducen a series asintoticas: primero, una integral de la forma
Z
I1 (x) =

eu f (u) du ,

donde la variable x aparece como el lmite inferior de una integral. Segundo, consideremos la
forma
Z
u
I2 (x) =
eu f
du ,
x
0
con la funcion f expandible en serie de Taylor. Las series asintoticas a menudo ocurren como
solucion de ecuaciones diferenciales. Un ejemplo de este tipo de series aparece como una de
las soluciones de la ecuacion de Bessel.


8.12. SERIES ASINTOTICAS
O SEMI-CONVERGENTES.

8.12.1.

217

Funci
on gama incompleta.

La naturaleza de una serie asintotica es quizas mejor ilustrada por un ejemplo especfico.
Supongamos que tenemos una funcion integral exponencial7
Z x u
e
du ,
(8.168)
Ei(x) =
u
o

Z
Ei(x) =
x

eu
du = E1 (x) ,
u

(8.169)

para ser evaluada para grandes valores de x. Mejor todava, tomemos una generalizacion de
la funcion factorial incompleta (funcion gama incompleta),
Z
I(x, p) =
eu up du = (1 p, x) ,
(8.170)
x

en la cual x y p son positivas. De nuevo, buscamos evaluarla para valores grandes de x.


Integrando por partes, obtenemos
Z
Z
ex pex
ex
u p1
e u
du = p p+1 + p(p + 1)
eu up2 du
(8.171)
I(x, p) = p p
x
x
x
x
x
Continuando para integrar por partes, desarrollamos la serie


1
p
p(p + 1)
x
n1 (p + n 2)!
I(x, p) = e

+
(1)
+
xp xp+1
xp+2
(p 1)!xp+n1
Z
n (p + n 1)!
+ (1)
eu upn du .
(p 1)!
x

(8.172)

Esta es una serie notable. Chequeando la convergencia por la prueba de D Alembert, encontramos
(p + n)! 1
|un+1 |
= lm
n |un |
n (p + n 1)! x
(p + n)
= lm
n
x
=
lm

(8.173)

para todos los valores finitos de x. Por lo tanto nuestras series son series infinitas que divergen
en todas partes!. Antes de descartar la ecuacion (8.172) como in
util, veamos cuan bien una
suma parcial dada se aproxima a la funcion factorial incompleta, I(x, p).
Z
n+1 (p + n)!
= (1)
eu upn1 du = Rn (x, p) .
(8.174)
(p 1)! x
7

Esta funci
on ocurre con frecuencia en problemas astrofsicos que involucran gases con una distribuci
on
de energa de Maxwell-Boltzmann.

CAPITULO 8. SERIES INFINITAS.

218
En valor absoluto
(p + n)!
| I(x, p) sn (x, p) |
(p 1)!

eu upn1 du .

Luego sustituimos u = v + x la integral se convierte en


Z
Z
u pn1
x
e u
du = e
ev (v + x)pn1 dv
x
0
Z

ex
v pn1
= p+n+1
ev 1 +
dv .
x
x
0
Para x grande la integral final se aproxima a 1 y
(p + n)! ex
| I(x, p) sn (x, p) |
.
(p 1)! xp+n+1

(8.175)

Esto significa que si tomamos un x suficientemente grande, nuestra suma parcial sn es arbitrariamente una buena aproximacion a la funcion deseada I(x, p). Nuestra serie divergente,
por lo tanto, es perfectamente buena para calculos de sumas parciales. Por esta razon algunas
veces es llamada serie semi-convergente. Notemos que la potencia de x en el denominador
del remanente (p + n + 1) es mas alto que la potencia de x en u
ltimo termino incluido en
sn (x, p), (p + n).
Ya que el remanente Rn (x, p) alterna en signo, las sucesivas sumas parciales dan alternadamente cotas superiores e inferiores para I(x, p). El comportamiento de la serie (con p = 1)
como una funcion del n
umero de terminos incluidos es mostrado en la figura 8.11. Tenemos
0.21

0.19

sn (x=5)
0.17

0.1741

0.1704

0.1664

0.15



Figura 8.11: Sumas parciales de e E1 (x)

10

.
x=5

eu
du
u
x
1
1!
2!
3!
n!
= sn (x) 2 + 3 4 + + (1)n n+1 ,
x x
x
x
x
x

e E1 (x) = e

(8.176)


8.12. SERIES ASINTOTICAS
O SEMI-CONVERGENTES.

219

la cual es evaluada en x = 5. Para un valor dado de x las sucesivas cotas superiores e inferiores
dadas por las sumas parciales primero convergen y luego divergen. La determinacion optima
de ex E1 (x) esta dada por la aproximacion mas cercana de las cotas superiores e inferiores,
esto es, entre s4 = s6 = 0.1664 y s5 = 0.1741 para x = 5. Por lo tanto


x
0.1741 .
(8.177)
0.1664 e E1 (x)
x=5

Realmente, a partir de las tablas,




e E1 (x)
x

= 0.1704 ,

(8.178)

x=5

dentro de los lmites establecidos por nuestra expansion asintotica. Note cuidadosamente
que la inclusion de terminos adicionales en la serie de expansion mas alla del punto optimo,
literalmente reduce la precision de la representacion.
Cuando aumentamos x, la diferencia entre la cota superior mas baja y la cota inferior
mas alta disminuira. Tomando x suficientemente grande, uno podra calcular ex E1 (x) para
cualquier grado de precision deseado.

8.12.2.

Integrales coseno y seno.

Las series asintoticas tambien pueden ser desarrolladas a partir de integrales definidas
si el integrando tiene el comportamiento requerido. Como un ejemplo, las integrales seno y
coseno estan definidas por
Z
cos t
Ci(x) =
dt ,
(8.179)
t
x
Z
sen t
dt ,
(8.180)
si(x) =
t
x
Combinando estas con funciones trigonometricas regulares, podemos definir
Z
sen(x)
f (x) = Ci(x) sen(x) si(x) cos(x) =
dy
y+x
0
Z
cos(x)
dy
g(x) = Ci(x) cos(x) si(x) sin(x) =
y+x
0
con la nueva variable y = t x. Llevando a variable compleja, tenemos
Z iy
e
dy
g(x) + if (x) =
y+x
0
Z xu
ie
=
du
1 + iu
0

(8.181)

(8.182)

en el cual u = iy/x. Los lmites de integracion, 0 a , a mas que de 0 a i, puede ser


justificado por el teorema de Cauchy. Racionalizando el denominador e igualando la parte

CAPITULO 8. SERIES INFINITAS.

220
real y la parte imaginaria, obtenemos
Z

g(x) =
Z0
f (x) =
0

uexu
du ,
1 + u2
exu
du .
1 + u2

(8.183)

La convergencia de las integrales requiere que Re(x) > 0.8


Ahora, desarrollamos la expansion asintotica, consideremos el cambio de variable v = xu
y expandimos el factor [1 + (v/x)2 ]1 por el teorema del binomio. Tenemos
Z
(2n)!
1 v X
v 2n
1 X
e
(1)n 2n
f (x)
(1)n 2n dv =
x 0
x
x 0nN
x
0nN
(8.184)
Z
2n+1
X
1
1 X
n (2n + 1)!
v
nv
g(x) 2
dv = 2
(1)
.
e
(1)
2n
2n
x 0
x
x
x
0nN
0nN
De las ecuaciones (8.181) y (8.184)
Ci(x)

sen(x) X
(2n)! cos(x) X
n (2n + 1)!
(1)n 2n
(1)
x 0nN
x
x2 0nN
x2n

(2n)! sen(x) X
(2n + 1)!
cos(x) X
(1)n 2n
(1)n
,
si(x)
2
x 0nN
x
x
x2n
0nN

(8.185)

las expansiones asintoticas deseadas.


La tecnica de expandir el integrando de una integral definida e integrar termino a termino
lo volveremos a aplicar para desarrollar una expansion asintotica de la funcion de Bessel modificada Kv y tambien para las expansiones de las dos funciones hipergeometricas confluentes
M (a, c; x) y U (a, c; x).

8.12.3.

Definici
on de series asint
oticas.

El comportamiento de estas series (ecuaciones (8.172) y (8.185)) en consistencia con las


propiedades definidas para una serie asintotica9 . Siguiendo a Poincare, tomamos
xn Rn (x) = xn [f (x) sn (x)] ,

(8.186)

donde

a1 a2
an
+ 2 + + n .
x
x
x
La expansion asintotica de f (x) tiene las propiedades que
sn (x) = a0 +

lm xn Rn (x) = 0 ,

x
8
9

para n fijo,

La parte real.
No es necesario que las series asint
oticas sean series de potencia.

(8.187)

(8.188)

8.13. PRODUCTOS INFINITOS.

221

y
lm xn Rn (x) = ,

para x fijo,

(8.189)

Vemos la ecuaciones (8.172) y (8.173) como un ejemplo de estas propiedades. Para series de
potencias, como las supuestas en la forma de sn (x), Rn (x) xn1 . Con condiciones (8.188)
y (8.189) satisfechas, escribimos

X
1
an n .
f (x)
(8.190)
x
n=0
Notemos el uso de en lugar de =. La funcion f (x) es igual a la serie solamente en el lmite
cuando x .
Las expansiones asintoticas de dos funciones pueden ser multiplicadas entre s y el resultado sera una expansion asintotica de un producto de dos funciones.
La expansion asintotica de una funcion dada f (t) puede ser integrada termino a termino
(justo como en una serie uniformemente convergente de una Rfuncion continua) a partir de

x t < y el resultado sera una expansion asintotica de x f (t)dt. Una diferenciacion


termino a termino, sin embargo, es valida solamente bajo condiciones muy especiales.
Algunas funciones no poseen una expansion asintotica; ex es un ejemplo de tales funciones. Sin embargo, si una funcion tiene una expansion asintotica, tiene solamente una.
La correspondencia no es uno a uno; muchas funciones pueden tener la misma expansion
asintotica.
Uno de los metodos mas poderoso y u
til de generar expansiones asintoticas, es el metodo
de steepest descents, sera desarrollado mas adelante. Las aplicaciones incluyen la derivacion
de la formula de Stirling para la funcion factorial (completa) y las formas asintoticas de las
varias funciones de Bessel.

8.12.4.

Aplicaciones a c
alculo num
erico.

Las series asintoticas son usadas frecuentemente en el calculo de funciones por los computadores. Este es el caso de las funciones de Neumann N0 (x) y N1 (x), y las funciones modificadas de Bessel In (x) y Kn (x). Las series asintoticas para integrales del tipo exponencial,
ecuacion (8.176), para las integrales de Fresnel, y para la funcion de error de Gauss, son usadas para la evaluacion de estas integrales para valores grandes del argumento. Cuan grande
debera ser el argumento depende de la precision requerida.

8.13.

Productos infinitos.

Consideremos una sucesion de factores positivos f1 f2 f3 f4 fn (fi > 0). Usando


may
uscula para indicar el producto, tenemos
n
Y
f1 f2 f3 f4 fn =
fi .
(8.191)
i=1

Definimos pn , como el producto parcial, en analoga con sn la suma parcial,


n
Y
pn =
fi ,
i=1

(8.192)

CAPITULO 8. SERIES INFINITAS.

222
y entonces investigamos el lmite
lm pn = P .

(8.193)

Si P es finito (pero no cero), decimos que el producto infinito es convergente. Si P es infinito


o cero, el producto infinito es etiquetado como divergente.
Ya que el producto divergera a infinito si
lm fn > 1

(8.194)

0 < lm fn < 1 ,

(8.195)

o a cero para
n

es conveniente escribir nuestro producto como

(1 + an ) .

n=1

La condicion an 0 es entonces una condicion necesaria (pero no suficiente) para la convergencia.


El producto infinito puede ser relacionado a una serie infinita por el metodo obvio de
tomar el logaritmo

X
Y
ln(1 + an ) .
(8.196)
(1 + an ) =
ln
n=1

n=1

Una relacion mas u


til es probada por el siguiente teorema.

8.13.1.

Convergencia de un producto infinito.

Q
P
Q
Si 0 an < 1, el P
producto infinito
n=1 (1 + an ) y
n=1 (1 an ) converge si
n=1 an

converge y diverge si n=1 an diverge.


Considerando el termino 1 + an , vemos que de la ecuacion (8.80)
1 + an ean .

(8.197)

pn esn ,

(8.198)

Por lo tanto el producto parcial pn


y haciendo n ,

(1 + an ) exp

n=1

an .

(8.199)

n=1

estableciendo una cota superior para el producto infinito.


Para desarrollar una cota mas baja, notemos que
pn = 1 +

n
X
i=1

ai +

n X
n
X
i=1 j=1

ai aj + > s n ,

(8.200)

8.13. PRODUCTOS INFINITOS.


ya que ai 0. De modo que

223

Y
n=1

(1 + an )

an .

(8.201)

n=1

Si la suma infinita permanece finita, el producto infinito tambien lo hara. Si la suma infinita
diverge, tambi
en lo hara el producto infinito.
Q
El caso de (1an ) es complicado por el signo negativo, pero una prueba de que depende
de la prueba anterior puede ser desarrollada notando que para an < 1/2 (recuerde que an 0
para convergencia)
1
(1 an )
1 + an
y
1
.
(8.202)
(1 an )
1 + 2an

8.13.2.

Funciones seno, coseno y gama.

El lector reconocera que un polinomio de orden n Pn (x) con n races reales puede ser
escrito como un producto de n factores:
n
Y
(x xi ) .
Pn (x) = (x x1 )(x x2 ) (x xn ) =

(8.203)

i=1

De la misma manera podemos esperar que una funcion con un n


umero infinito de races
pueda ser escrito como un producto infinito, un factor para cada raz. Esto es por cierto el
caso de las funciones trigonometricas. Tenemos dos representaciones muy u
tiles en productos
infinitos,


Y
x2
(8.204)
sen(x) = x
1 2 2 ,
n
n=1


Y
4x2
.
(8.205)
cos(x) =
1
(2n 1)2 2
n=1
La mas conveniente y quizas la mas elegante derivacion de estas dos expresiones es usando
variable compleja. Por nuestro teorema de convergencia, las ecuaciones (8.204) y (8.205) son
convergentes para todos los valores finitos de x. Especficamente, para el producto infinito
para el sen(x), an = x2 /n2 2 ,

x2 X 1
x2
an = 2
=
(2)
n=1 n2
2
n=1

(8.206)

x2
=
.
6
La serie correspondiente a la ecuacion (8.205) se comporta en una manera similar.
La ecuacion (8.204) conduce a dos resultados interesantes. Primero, si fijamos x = /2,
obtenemos




Y
1
Y (2n)2 1
=
.
(8.207)
1=
1
2 n=1
(2n)2
2 n=1
(2n)2

CAPITULO 8. SERIES INFINITAS.

224
Resolviendo para /2, obtenemos



Y
(2n)2
22 44 66
=
=

,
2 n=1 (2n 1)(2n + 1)
13 35 57

(8.208)

la cual es la famosa formula de Wallis para /2.


El segundo resultado involucra la funcion factorial o funcion gama. Una definicion de la
funcion gama es
#
"

 x 1
Y
x
,
(8.209)
(x) = xex
1+
er
r
r=1
donde es la constante de Euler-Mascheroni, seccion 8.2. Si tomamos el producto de (x) y
(x), la ecuacion (8.209) tiende a
"


Y

x  x x Y 
x x
(x)(x) = xex
1+
1
e r xe
er
r
r
r=1
r=1
#1
" 

Y
x2
.
= x2
1 2
r
r=1

#1
(8.210)

Usando la ecuacion (8.204) con x reemplazado por x, obtenemos


(x)(x) =

.
x sen(x)

(8.211)

Anticipando una relacion de recurrencia desarrollada posteriormente, tenemos que usando


x(x) = (1 x), la ecuacion (8.211) puede ser escrita como
(x)(1 x) =

.
sen(x)

(8.212)

Esto sera u
til cuando tratamos la funcion gama.
Estrictamente hablando, podramos chequear el intervalo en x para el cual la ecuacion
(8.209) es convergente. Claramente, para x = 0, 1, 2, . . . los factores individuales se anulan.
La prueba que el producto infinito converge para todos los otros valores (finitos) de x es dejado
como ejercicio.
Estos productos infinitos tienen una variedad de usos en matematica analtica. Sin embargo, a causa de su lentitud de convergencia, ellas no son aptas para un trabajo numerico
preciso.

Captulo 9
Ecuaciones diferenciales.
versi
on final 2.1 7 de Julio del 20031

9.1.

Ecuaciones diferenciales parciales, caractersticas


y condiciones de borde.

En Fsica el conocimiento de la fuerza en una ecuacion de movimiento usualmente conduce


a una ecuacion diferencial. Por lo tanto, casi todas las partes elementales y numerosas partes avanzadas de la Fsica teorica estan formuladas en terminos de ecuaciones diferenciales.
Algunas veces son ecuaciones diferenciales ordinarias en una variable (ODE). Mas a menudo
las ecuaciones son ecuaciones diferenciales parciales (PDE) en dos o mas variables.
Recordemos que la operacion de tomar una derivada ordinaria o parcial, es una operaci
on
2
lineal (L)
d(a(x) + b(x))
d
d
=a
+b
,
dx
dx
dx
para ODE que involucran derivadas en una variable x solamente y no cuadraticas, (d/dx)2 ,
o potencias mayores. Similarmente, para derivadas parciales,
(a(x, y) + b(x, y))
(x, y)
(x, y)
=a
+b
.
x
x
x
En general
L(a + b) = aL() + bL() .

(9.1)

As, las ODE y las PDE aparecen como ecuaciones de operadores lineales
L() = F ,
donde F es una funcion conocida de una (para ODE) o mas variables (para PDE), L es una
combinacion lineal de derivadas, es una funcion o solucion desconocida. Cualquier combinacion lineal de soluciones es de nuevo una solucion; esto es el principio de superposicion.
1

Este captulo est


a basado en el octavo captulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.
2
Estamos especialmente interesados en operadores lineales porque en mecanica cuantica las cantidades
fsicas est
an representadas por operadores lineales operando en un espacio complejo de Hilbert de dimensi
on
infinita.

225

CAPITULO 9. ECUACIONES DIFERENCIALES.

226

Ya que la dinamica de muchos sistemas fsicos involucran solo dos derivadas, e.g., la aceleracion en mecanica clasica y el operador de energa cinetica, 2 , en mecanica cuantica,
las ecuaciones diferenciales de segundo orden ocurren mas frecuentemente en Fsica. [Las
ecuaciones de Maxwell y de Dirac son de primer orden pero involucran dos funciones desconocidas. Eliminando una incognita conducen a una ecuacion diferencial de segundo orden
por la otra.]

9.1.1.

Ejemplos de PDE.

Entre las PDE mas frecuentemente encontradas tenemos:


1. La ecuacion de Laplace, 2 = 0. Esta ecuacion muy com
un y muy importante aparece
en el estudio de
a. Fenomenos electromagneticos incluyendo electroestaticos, dielectricos, corrientes estacionarias y magnetoestatica.
b. Hidrodinamica (flujo irrotacional de lquidos perfectos y superficies de ondas).
c. Flujo de calor.
d. Gravitacion.
2. La ecuacion de Poisson, 2 = 4. En contraste a la ecuacion homogenea de Laplace,
la ecuacion de Poisson es no homogenea con un termino de fuente 4.
3. Las ecuaciones de onda (Helmholtz) y las ecuaciones de difusion tiempo independiente,
2 k 2 = 0. Estas ecuaciones aparecen en fenomenos tan diversos como
a. Ondas elasticas en solidos, incluyendo cuerdas vibrantes, barras y membranas.
b. En sonido o ac
ustica.
c. En ondas electromagneticas.
d. En reactores nucleares.
4. La ecuacion de difusion tiempo dependiente
2 =

1
.
a2 t

5. Las ecuaciones de onda tiempo dependiente,


2 =

1 2
.
c2 t2

La forma cuadridimensional que involucra el DAlembertiano, un analogo cuadridimensional del Laplaciano en el espacio Minkowski,
= 2 =

1 2
2 .
c2 t2

Luego las ecuaciones de onda tiempo dependiente quedan 2 = 0.

9.1. ECUACIONES DIFERENCIALES PARCIALES

227

6. La ecuacion del potencial escalar, 2 = 4. Como la ecuacion de Poisson esta ecuacion


es no homogenea con un termino de fuente 4.
7. La ecuacion de Klein-Gordon, 2 = 2 , y las correspondientes ecuaciones vectoriales
en las cuales la funcion escalar es reemplazada por una funcion vectorial. Otras formas
complicadas son comunes.
8. La ecuacion de onda de Schrodinger,

~2 2

+ V = i~
2m
t

y
~2 2
+ V = E ,
2m
para el caso tiempo independiente.

9. Las ecuaciones para ondas elasticas y lquidos viscosos y la ecuacion telegrafica.


10. Ecuaciones diferenciales parciales acopladas de Maxwell para los campos electricos y
magneticos son aquellas de Dirac para funciones de ondas relativistas del electron.
Algunas tecnicas generales para resolver PDE de segundo orden son discutidas en esta
seccion:
1. Separacion de variables, donde el PDE es separada en ODEs que estan relacionadas
por constantes comunes las cuales aparecen como autovalores de operadores lineales,
L = l, usualmente en una variable. La ecuacion de Helmholtz dada como ejemplo
3 anteriormente tiene esta forma, donde el autovalor k 2 puede surgir por la separacion
del tiempo t respecto de las variables espaciales. Como en el ejemplo 8, la energa E es
el autovalor que surge en la separacion de t respecto de ~r en la ecuacion de Schrodinger.
2. Conversion de una PDE en una ecuacion integral usando funciones de Green que se
aplica a PDE no homogeneas tales como los ejemplos 2 y 6 dados mas arriba.
3. Otros metodos analticos tales como el uso de transformadas integrales que seran desarrolladas en el proximo curso.
4. Calculo numerico. El desarrollo de los computadores ha abierto una abundancia de
posibilidades basadas en el calculo de diferencias finitas. Aqu tambien tenemos los
metodos de relajacion. Metodos como Runge-Kutta y predictor-corrector son aplicados
a ODEs.
Ocasionalmente, encontramos ecuaciones de orden mayor. En ambos la teora del movimiento suave de un lquido viscoso y la teora de un cuerpo elastico encontramos la ecuacion
(2 )2 = 0 .
Afortunadamente, estas ecuaciones diferenciales de orden mas altos son relativamente raras
y no son discutidas en una etapa introductoria como esta.

CAPITULO 9. ECUACIONES DIFERENCIALES.

228

Aunque no son tan frecuentemente encontrados y quizas no son tan importantes como
las ecuaciones diferenciales de segundo orden, las ecuaciones diferenciales de primer orden
aparecen en Fsica teorica y algunas veces son pasos intermedios para ecuaciones diferenciales
de segundo orden. Las soluciones de algunos de los tipos mas importantes de ODE de primer
orden son desarrollados en la seccion 9.2. Las PDEs de primer orden siempre pueden ser
reducidas a ODEs. Este es un proceso directo pero lento e involucra una b
usqueda para las
caractersticas que son presentadas brevemente mas adelante.

9.1.2.

Clases de PDE y caracterstica.

Las PDEs de segundo orden forman tres clases:


(i) Las PDEs elpticas que involucran 2 o c2 2 /t2 + 2 .
(ii) Las PDEs parabolica, a/t 2 .
(iii) Las PDEs hiperbolica, c2 2 /t2 2 .
Estos operadores canonicos aparecen por un cambio de variables = (x, y), = (x, y)
en un operador lineal (para dos variables solo por simplicidad)
L=a

2
2

2
+
2b
+d
+
c
+e
+f ,
2
2
x
xy
y
x
y

(9.2)

la cual puede ser reducida a las formas canonicas (i), (ii), (iii) de acuerdo a si el discriminante
D = ac b2 > 0, = 0 o < 0. Si (x, y) es determinada a partir de la ecuacion de primer
orden, pero no lineal, PDE
 2
  
 2

a
+ 2b
+c
=0,
(9.3)
x
x
y
y
donde los terminos de mas bajo orden en L son ignorados, entonces los coeficientes de 2 / 2
en L es cero (i.e., ecuacion (9.3)). Si es una solucion independiente de la misma ecuacion
(9.3), entonces el coeficiente de 2 / 2 tambien es cero. El operador remanente 2 / en L
es caracterstico del caso hiperbolico (iii) con D < 0, donde la forma cuadratica a2 + 2b + c
es factorizable y, por lo tanto, la ecuacion (9.3) tiene dos soluciones independientes (x, y),
(x, y). En el caso elptico (i) con D > 0 las dos soluciones , son complejos conjugados los
cuales, cuando se sustituyeron en la ecuacion (9.2), remueven la derivada de segundo orden
mezclada en vez de los otros terminos de segundo orden produciendo la forma canonica (i).
En el caso parabolico (ii) con D = 0, solamente 2 / 2 permanece en L, mientras que los
coeficientes de las otras dos derivadas de segundo orden se anulan.
Si los coeficientes a, b, c en L son funciones de las coordenadas, entonces esta clasificacion
es solamente local, i.e., su tipo podra cambiar cuando las coordenadas varan.
Ilustremos la fsica implcita en el caso hiperbolico mirando la ecuacion de onda (en 1 +
1 dimensiones por simplicidad)


1 2
2

=0.
(9.4)
c2 t2 x2

9.1. ECUACIONES DIFERENCIALES PARCIALES


Ya que la ecuacion (9.3) se convierte en
 2 
 2



2
c
=
c
+c
=0,
t
x
t
x
t
x

229

(9.5)

y es factorizable, determinamos la solucion de /t c/x = 0. Esta es una funcion


arbitraria = F (x + ct), y = G(x ct) resuelve /t + c/x = 0, la cual se verifica
rapidamente. Por superposicion lineal una solucion general de la ecuacion (9.4) es la suma
= F (x + ct) + G(x ct). Para funciones periodicas F , G reconocemos los argumentos x + ct
y x ct como la fase de la onda plana o frente de ondas, donde las soluciones de la ecuacion
de onda (9.4) cambian abruptamente (de cero a sus valores actuales) y no estan u
nicamente
determinadas. Normal al frente de onda estan los rayos de la optica geometrica. De este modo,
las soluciones de la ecuacion (9.5) o (9.3) mas generalmente, son llamadas caractersticas o
algunas veces bicaractersticas (para PDE de segundo orden) en la literatura matematica
corresponde a los frente de ondas de la solucion de la optica geometrica de la ecuacion de
onda completa.
Para el caso elptico consideremos la ecuacion de Laplace
2 2
+ 2 =0,
x2
y
para un potencial de dos variables. Aqu la ecuacion caracterstica es
 2  2 



+
=
+i
i
=0
x
y
x
y
x
y

(9.6)

(9.7)

tiene soluciones complejas conjugadas: = F (x+iy) para /x+i/y = 0 y = G(xiy)


para /xi/y = 0. Una solucion general de la ecuacion de potencial (9.6) es por lo tanto
= F (x+iy)+iG(xiy) Tanto la parte real como la imaginaria de , son llamadas funciones
armonicas, mientras que las soluciones polinomiales son llamadas polinomios armonicos.
En mecanica cuantica la forma de Wentzel-Kramers-Brillouin (WKB) de = exp(iS/~)
para la solucion de la ecuacion de Schroedinger



~2 2
+ V = i~
,
(9.8)

2m
t
conduce a la ecuacion Hamilton-Jacobi de la mecanica clasica,
S
1 ~ 2
(S) + V =
,
(9.9)
2m
t
en el lmite ~ 0. La accion clasica de S entonces llega a ser la caracterstica de la ecuacion
~ = i S/~,
~
de Schroedinger. Sustituyendo
/t = iS/t/~ en la ecuacion (9.8),
dejando la totalidad de los factores de no nulos, y aproximando el Laplaciano 2 =
i2 S/~ (S)2 /~2 ' (S)2 , i.e., despreciando i2 /~, realmente obtenemos la
ecuacion (9.9).
Resolver las caractersticas es una de las tecnicas generales de encontrar las soluciones
de PDE. Para mas ejemplos y tratamientos detallados de las caractersticas, las cuales no
perseguimos aqu, nos referimos a H. Bateman, Partial Differential Equations of Mathematical
Physics. New York: Dover (1994); K.E. Gustafson, Partial Differential Equations and Hilbert
Space Methods, 2nd ed. New York: Wiley (1987).

CAPITULO 9. ECUACIONES DIFERENCIALES.

230

9.1.3.

Las PDE no lineales.

Las ODEs y PDEs no lineales son un campo importante y de rapido crecimiento. Encontramos mas arriba la ecuacion de onda lineal mas simple

+c
=0,
t
x
como la PDE de primer orden a partir de la caracterstica de la ecuacion de onda. La ecuacion
de onda no lineal mas simple

+ c()
=0,
(9.10)
t
x
resulta si la velocidad local de propagacion, c, no es constante sino que depende de la onda .
Cuando una ecuacion no lineal tiene una solucion de la forma (x, t) = A cos(kx t), donde
(k) vara con k tal que 00 (k) 6= 0, entonces ella es llamada dispersiva. Quizas la ecuacion
dispersiva no lineal mas conocida de segundo orden es la ecuacion de Korteweg-de Vries

3
=0,
+
+
t
x
x3

(9.11)

la cual modela la propagacion sin perdidas de las ondas de agua superficiales y otros fenomenos. Esta es ampliamente conocida por sus soluciones soliton. Un soliton es una onda viajera
con la propiedad de persistir a traves de una interaccion con otro soliton: despues de que
ellos pasan uno a traves del otro, ellos emergen en la misma forma y con la misma velocidad
y no adquieren mas que un cambio de fase. Sea ( = x ct) tal onda viajera. Cuando es
sustituida en la ecuacion (9.11) esta produce la ODE no lineal
( c)

d d3
+ 3 =0,
d
d

(9.12)

la cual puede ser integrada dando


d2
2
= c
.
d 2
2

(9.13)

No hay constantes de integracion aditivas en la ecuacion (9.13) para asegurar que se satisfaga
la condicion d2 /d 2 0 con 0 para grande, tal que esta localizado en la caracterstica = 0, o x = ct. Multiplicando la ecuacion (9.13) por d/d e integrando nuevamente
tenemos
 2
d
3
= c 2
,
(9.14)
d
3
donde d/d 0 para grande. Tomando la raz de la ecuacion (9.14) e integrando una vez
mas encontramos la solucion solitonica
(x ct) =
2

cosh

3c
 .
x ct
c
2

(9.15)

9.2. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

9.1.4.

231

Condiciones de borde.

Usualmente, cuando conocemos un sistema fsico en alg


un momento y la ley que rige ese
proceso fsico, entonces somos capaces de predecir el desarrollo subsecuente. Tales valores iniciales son las mas comunes condiciones de borde asociadas con ODEs y PDEs. Encontrando
soluciones que calcen con los puntos, curvas o superficies dados correspondientes al problema
de valores de contorno. Las autofunciones usualmente requieren que satisfagan ciertas condiciones de borde impuestas (e.g., asintoticas). Estas condiciones pueden ser tomadas de tres
formas:
1. Condiciones de borde de Cauchy. El valor de una funcion y su derivada normal especificada en el borde. En electroestatica estas significaran , el potencial, y En la
componente normal del campo electrico.
2. Condiciones de borde de Dirichlet. El valor especfico en el borde.
3. Condiciones de borde de Neumann. La derivada normal (gradiente normal) de una
funcion especfica en el borde. En el caso electrostatico este sera En y por lo tanto ,
la densidad de carga superficial.
Un resumen de las relaciones de estos tres tipos de condiciones de borde con los tres tipos
de ecuaciones diferenciales parciales bidimensionales estan dadas en la tabla 9.1. Para discusiones mas extensas de estas ecuaciones diferenciales parciales puede consultar Sommerfeld,
captulo 2, o Morse y Feshbach, captulo 6.
Partes de la tabla 9.1 son simplemente un asunto de mantener la consistencia interna, o
sentido com
un. Por ejemplo, para la ecuacion de Poisson con una superficie cerrada, las condiciones de Dirichlet conducen a una solucion u
nica y estable. Las condiciones de Neumann,
independiente de las condiciones de Dirichlet, del mismo modo conducen a una solucion u
nica
y estable independiente de la solucion de Dirichlet. Por lo tanto las condiciones de borde de
Cauchy (lo que significa la de Dirichlet mas la de Neumann) conducen a una inconsistencia.
El termino de condiciones de borde incluye como un caso especial el concepto de condiciones iniciales. Por ejemplo, especificando la posicion inicial x0 y la velocidad inicial v0 en
algunos problemas de dinamica correspondera a condiciones de borde de Cauchy. La u
nica
diferencia en el presente uso de las condiciones de borde en estos problemas unidimensionales
es que estamos aplicando las condiciones en ambos extremos del intervalo permitido de la
variable.

9.2.

Ecuaciones diferenciales de primer orden.

La fsica involucra algunas ecuaciones diferenciales de primer orden, ellas fueron estudiadas en el curso de ecuaciones diferenciales. Por completitud parece ser deseable revisarlas
brevemente.
Consideremos aqu ecuaciones diferenciales de la forma general
dy
P (x, y)
= f (x, y) =
.
dx
Q(x, y)

(9.16)

CAPITULO 9. ECUACIONES DIFERENCIALES.

232
Condiciones
de borde

Tipo de ecuacion diferencial parcial


Elpticas

Hiperbolicas

Parabolicas

Laplace, Poisson
en (x, y)

Ecuacion de Ondas
en (x, t)

Ecuacion de difusion
en (x, t)

Resultados no fsicos
(inestabilidades)

Solucion u
nica
y estable

Demasiado
restrictivo

Demasiado
restrictivo

Demasiado
restrictivo

Demasiado
restrictivo

Insuficiente

Insuficiente

Solucion u
nica y
estable en 1 dim

Superficie Cerrada Solucion u


nica
y estable
Neumann
Superficie Abierta Insuficiente

Solucion no
u
nica

Demasiado
restrictivo

Insuficiente

Solucion u
nica y
estable en 1 dim

Superficie Cerrada Solucion u


nica
y estable

Solucion no
u
nica

Demasiado
restrictivo

Cauchy
Superficie Abierta
Superficie Cerrada
Dirichlet
Superficie Abierta

Cuadro 9.1:
La ecuacion (9.16) es claramente una ecuacion de primer orden ordinaria. Es de primer orden
ya que contiene la primera derivada y no mayores. Es Ordinaria ya que la derivada dy/dx
es una derivada ordinaria o total. La ecuacion (9.16) puede o no puede ser lineal, aunque
trataremos el caso lineal explcitamente mas adelante.

9.2.1.

Variables separables.

Frecuentemente la ecuacion (9.16) tendra la forma especial


dy
P (x)
= f (x, y) =
.
dx
Q(y)

(9.17)

Entonces la podemos reescribir como


P (x)dx + Q(y)dy = 0 .
Integrando de (x0 , y0 ) a (x, y) tiende a
Z x
Z
0
0
P (x )dx +
x0

Q(y 0 )dy 0 = 0 .

(9.18)

y0

Ya que los lmites inferiores x0 e y0 contribuyen en unas constantes, podramos ignorar los
lmites inferiores de integracion y simplemente a
nadir una constante de integracion al final.

9.2. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

233

Note que esta tecnica de separacion de variables no requiere que la ecuacion diferencial sea
lineal.
Ejemplo Ley de Boyle.
Una forma diferencial de la ley de los gases de Boyle es
V
dV
= ,
dP
P
para el volumen V de una cantidad fija de gas a presion P (y temperatura constante). Separando variables, tenemos
dV
dP
=
V
P
o
ln V = ln P + C .
Con dos logaritmos presentes, es mas conveniente reescribir la constante de integracion C
como ln k. Entonces
ln V + ln P = ln P V = ln k
y
PV = k .

9.2.2.

Ecuaciones diferenciales exactas.

Reescribimos la ecuacion (9.16) como


P (x, y)dx + Q(x, y)dy = 0 .

(9.19)

Esta ecuacion se dice que es exacta si podemos calzar el lado izquierdo de ella a un diferencial
d,

dx +
dy .
(9.20)
d =
x
y
Ya que la ecuacion (9.19) tiene un cero a la derecha, buscamos una funcion desconocida
(x, y) = constante, tal que d = 0. Tenemos (si tal funcion (x, y) existe)
P (x, y)dx + Q(x, y)dy =

dx +
dy
x
y

(9.21)

= P (x, y) ,
x

= Q(x, y) .
y

(9.22)

La condicion necesaria y suficiente para que la ecuacion sea exacta es que la segunda derivada
parcial mezclada de (x, y) (supuesta continua) es independiente del orden de diferenciacion:
2
P (x, y)
Q(x, y)
2
=
=
=
.
yx
y
x
xy

(9.23)

CAPITULO 9. ECUACIONES DIFERENCIALES.

234

Si la ecuacion (9.19) corresponde a un rotor (igual cero), entonces un potencial, (x, y),
debiera existir.
Si (x, y) existe entonces a partir de las ecuaciones (9.19) y (9.21) nuestra solucion es
(x, y) = C .

(9.24)

Podemos construir (x, y) a partir de sus derivadas parciales de la misma manera que construimos un potencial magnetico vectorial en el captulo de vectores a partir de su rotor.
Podemos volver a la ecuacion (9.19) y ver que pasa si no es exacta: la ecuacion (9.23) no
es satisfecha. Sin embargo, siempre existe al menos una o quizas una infinidad de factores de
integracion, (x, y), tales que
(x, y)P (x, y)dx + (x, y)Q(x, y)dy = 0
es exacta. Desafortunadamente, un factor de integracion no siempre es obvio o facil de encontrar. Diferente es el caso de la ecuacion diferencial de primer orden lineal considerada a
continuacion, no hay una manera sistematica de desarrollar un factor de integracion para la
ecuacion (9.19).
Una ecuacion diferencial en la cual las variables han sido separadas es automaticamente
exacta. Una ecuacion diferencial exacta no es necesariamente separable.

9.2.3.

Ecuaciones diferenciales ordinarias de primer orden lineales.

Si f (x, y) en la ecuacion (9.16) tiene la forma p(x)y + q(x), entonces la ecuacion (9.16)
se convierte en
dy
+ p(x)y = q(x) .
(9.25)
dx
La ecuacion (9.25) es la ODE de primer orden lineal mas general. Si q(x) = 0, la ecuacion
(9.25) es homogenea (en y). Un q(x) distinto de cero puede representar una fuente o un
termino de forzamiento. La ecuacion (9.25) es lineal ; cada termino es lineal en y o dy/dx.
No hay potencias mayores; esto es, no hay y 2 , ni productos, y(dy/dx). Note que la linealidad
se refiere a y y a la dy/dx; p(x) y q(x) no es necesario que sean lineales en x. La ecuacion
(9.25), es la mas importante de estas ecuaciones diferenciales de primer orden para los fsicos
y puede ser resuelta exactamente.
Busquemos un factor de integracion (x) tal que
(x)

dy
+ (x)p(x)y = (x)q(x) ,
dx

(9.26)

puede ser reescrito como


d
[(x)y] = (x)q(x) .
(9.27)
dx
El proposito de esto es hacer el lado izquierdo de la ecuacion (9.25) una derivada total que
pueda ser integrada por inspeccion. Esto tambien, incidentalmente, hace la ecuacion (9.25)
exacta. Expandiendo la ecuacion (9.27), obtenemos
(x)

dy d
+
y = (x)q(x) .
dx dx

9.2. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

235

La comparacion con la ecuacion (9.26) muestra que debemos requerir que


d(x)
= (x)p(x) .
dx

(9.28)

Aqu hay una ecuacion diferencial para (x), con las variables y x separables. Separamos
variables, integramos, y obtenemos

Z x
0
0
(x) = exp
p(x ) dx
(9.29)
como nuestro factor de integracion.
Con (x) conocida procedemos a integrar la ecuacion (9.27). Esto, por supuesto, fue el
objetivo de introducir en primer lugar. Tenemos
Z x
Z x
d
0
0
[(x )y] dx =
(x0 )q(x0 ) dx0 .
dx0
Ahora integrando por inspeccion, tenemos
Z x
(x)y =
(x0 )q(x0 ) dx0 + C .
Las constantes a partir del lmite inferior de integracion constante son reunidas en la constante
C. Dividiendo por (x), obtenemos
Z x

1
0
0
0
(x )q(x ) dx + C .
y(x) =
(x)
Finalmente, sustituyendo en la ecuacion (9.29) por conduce
 Z x
 Z x
Z s


y(x) = exp
p(t) dt
exp
p(t) dt q(s) ds + C .

(9.30)

Aqu las variables mudas de integracion han sido reescritas para hacerlas inambiguas. La
ecuacion (9.30) es la solucion general completa de la ecuacion diferencial lineal, de primer
orden, la ecuacion (9.25). La porcion
 Z x

y1 (x) = C exp
p(t) dt
(9.31)
corresponde al caso q(x) = 0 y es solucion general de la ecuacion diferencial homogenea. El
otro termino en la ecuacion (9.30),
 Z x
Z x
Z s

y(x) = exp
p(t) dt
exp
p(t) dt q(s) ds ,
(9.32)
es una solucion particular que corresponde al termino especfico de fuente q(x).
Podemos notar que si nuestra ecuacion diferencial de primer orden es homogenea (q = 0),
entonces ella es separable. De lo contrario, salvo casos especiales tal como p =constante,
q =constante, o q(x) = ap(x), la ecuacion (9.25) no es separable.

CAPITULO 9. ECUACIONES DIFERENCIALES.

236
Ejemplo Circuito RL.

Para un circuito resistencia-inductancia las leyes de Kirchhoff producen


L

dI(t)
+ RI(t) = V (t) ,
dt

para la corriente I(t), donde L es la inductancia y R es la resistencia, ambas constantes. V (t)


es el voltaje aplicado tiempo dependiente.
De la ecuacion (9.29) nuestro factor de integracion (t) es
Z

(t) = exp

R
dt
L

= eRt/L .
Entonces por la ecuacion (9.30)
Rt/L

Z

I(t) = e

Rt/L V

(t)
dt + C
L


,

con la constante C es determinada por una condicion inicial (una condicion de borde).
Para el caso especial V (t) = V0 , una constante,
Rt/L

I(t) = e
=

V0 L Rt/L
e
+C
LR

V0
+ CeRt/L .
R

Si la condicion inicial es I(0) = 0, entonces C = V0 /R y


I(t) =

9.2.4.


V0 
1 eRt/L .
R

Conversi
on a una ecuaci
on integral.

Nuestra ecuacion diferencial de primer orden, ecuacion (9.16), puede ser convertida a una
ecuacion integral por integracion directa:
Z x
y(x) y(x0 ) =
f [x, y(x)] dx .
(9.33)
x0

Como una ecuacion integral hay una posibilidad de una solucion en serie de Neumann (se
vera en el proximo curso) con la aproximacion inicial y(x) y(x0 ). En la literatura de
ecuaciones diferenciales esto es llamado el metodo de Picard de aproximaciones sucesivas.
Ecuaciones diferenciales de primer orden las encontraremos de nuevo en conexion con las
transformadas de Laplace y de Fourier.

DE VARIABLES.
9.3. SEPARACION

9.3.

237

Separaci
on de variables.

Las ecuaciones de la fsica matematica listada en la seccion 9.1 son todas ecuaciones diferenciales parciales. Nuestra primera tecnica para su solucion es dividir la ecuacion diferencial
parcial en n ecuaciones diferenciales ordinarias de n variables. Cada separacion introduce
una constante de separacion arbitraria. Si tenemos n variables, tenemos que introducir n 1
constantes, determinadas por las condiciones impuestas al resolver el problema.

9.3.1.

Coordenadas cartesianas.

En coordenadas cartesianas las ecuaciones de Helmholtz llegan a ser


2 2 2
+ 2 + 2 + k2 = 0 ,
x2
y
z

(9.34)

usando la forma cartesiana para el Laplaciano. Por el momento, k 2 sera una constante. Quizas
la manera mas simple de tratar una ecuacion diferencial parcial tal como la ecuacion (9.34)
es dividirla en un conjunto de ecuaciones diferenciales ordinarias. Esto puede ser hecho como
sigue. Sea
(x, y, z) = X(x)Y (y)Z(z) ,
(9.35)
y sustituir de vuelta en la ecuacion (9.34). Como sabemos que la ecuacion (9.35) es valida?.
La respuesta es muy simple: No sabemos si es valida!. Mejor dicho, estamos procediendo en
este espritu y tratando de ver si trabaja. Si nuestro intento es exitoso, entonces la ecuacion
(9.35) sera justificada. Si no es exitoso, lo descubriremos pronto y luego trataremos otro
ataque tal como las funciones de Green, transformadas integral, o analisis numerico a la
fuerza bruta. Con supuestamente dada por la ecuacion (9.35), la ecuacion (9.34) llega a ser
YZ

d2 X
d2 Y
d2 Z
+
XZ
+
XY
+ k 2 XY Z = 0 .
dx2
dy 2
dz 2

(9.36)

Dividiendo por = XY Z y rearreglando los terminos, obtenemos


1 d2 X
1 d2 Z
1 d2 Y
2
= k

.
X dx2
Y dy 2
Z dz 2

(9.37)

La ecuacion (9.37) exhibe una separacion de variables. El lado izquierdo es solo funcion de x,
mientras que el lado derecho depende solamente de y y z. As la ecuacion (9.37) es una clase
de paradoja. Una funcion de x es igualada a una funcion de y y z, pero x, y y z son todas
coordenadas independientes. Esta independencia significa que el comportamiento de x como
una variable independiente no esta determinada ni por y ni por z. La paradoja esta resuelta
fijando cada lado igual a una constante, una constante de separacion. Escogemos3
1 d2 X
= l2 ,
X dx2
3

(9.38)

La elecci
on de signo es completamente arbitraria, sera fijada en un problema especfico por la necesidad
de satisfacer las condiciones de borde.

CAPITULO 9. ECUACIONES DIFERENCIALES.

238
k2

1 d2 Y
1 d2 Z

= l2 .
2
2
Y dy
Z dz

(9.39)

Ahora, volviendo nuestra atencion a la ecuacion (9.39), obtenemos


1 d2 Z
1 d2 Y
2
2
=
k
+
l

,
Y dy 2
Z dz 2

(9.40)

y una segunda separacion ha sido realizada. Aqu tenemos una funcion de y igualada a una
funcion de z y aparece la misma paradoja. La resolvemos como antes igualando cada lado a
otra constante de separacion, m2 ,
1 d2 Y
= m2 ,
Y dy 2

(9.41)

1 d2 Z
= k 2 + l2 + m2 = n2 ,
(9.42)
Z dz 2
introduciendo una constante n2 por k 2 = l2 + m2 + n2 para producir un conjunto simetrico de
ecuaciones. Ahora tenemos tres ecuaciones diferenciales ordinarias ((9.38), (9.41), y (9.42))
para reemplazar en la ecuacion (9.34). Nuestra suposicion (ecuacion (9.35)) ha sido exitosa
y es por lo tanto justificada.
Nuestra solucion sera etiquetada de acuerdo a la eleccion de nuestras constantes l, m, n,
esto es,
lmn (x, y, z) = Xl (x)Ym (y)Zn (z) .
(9.43)
Sujeto a las condiciones del problema que se resuelve y a la condicion k 2 = l2 + m2 + n2 ,
podemos escoger l, m, n como queramos, y la ecuacion (9.43) sera todava una solucion de la
ecuacion (9.34), dado que Xl (x) es una solucion de la ecuacion (9.38) y as seguimos. Podemos
desarrollar la solucion mas general de la ecuacion (9.34) tomando una combinacion lineal de
soluciones lmn ,
X
almn lmn .
(9.44)
=
l,m,n

Los coeficientes constantes almn finalmente son escogidos para permitir que satisfaga las
condiciones de borde del problema.

9.3.2.

Coordenadas cilndricas circulares.

Si consideramos que nuestra funcion desconocida depende de , , z la ecuacion de


Helmholtz se convierte en
2 (, , z) + k 2 (, , z) = 0 ,
o


+

1 2 2
+ 2 + k2 = 0 .
2 2
z

(9.45)

(9.46)

Como antes, suponemos una forma factorizada para ,


(, , z) = P ()()Z(z) .

(9.47)

DE VARIABLES.
9.3. SEPARACION

239

Sustituyendo en la ecuacion (9.46), tenemos




Z d
dP
P Z d2
d2 Z

+ 2
+
P

+ k 2 P Z = 0 .
d
d
d2
dz 2

(9.48)

Todas las derivadas parciales han llegado a ser derivadas ordinarias. Dividiendo por P Z y
moviendo la derivada z al lado derecho conduce a


1 d
dP
1 d2
1 d2 Z
2

+ 2
+
k
=

.
(9.49)
P d
d
d2
Z dz 2
De nuevo, tenemos la paradoja. Una funcion de z en la derecha aparece dependiendo de
una funcion de y en el lado izquierdo. Resolvemos la paradoja haciendo cada lado de la
ecuacion (9.49) igual a una constante, la misma constante. Escojamos4 l2 . Entonces
d2 Z
= l2 Z ,
dz 2


1 d
dP
1 d2
+ k 2 = l2 .

+ 2
P d
d
d2

Ajustando k 2 + l2 = n2 , multiplicando por 2 , y reordenando terminos, obtenemos




d
dP
1 d2
.

+ n 2 2 =
P d
d
d2

(9.50)

(9.51)

(9.52)

Podemos ajustar el lado derecho a m2 y


d2
= m2
2
d
Finalmente, para la dependencia en tenemos


d
dP

+ (n2 2 m2 )P = 0 .
d
d

(9.53)

(9.54)

Esta es la ecuacion diferencial de Bessel. La solucion y sus propiedades seran presentadas


en el proximo curso. La separacion de variables de la ecuacion de Laplace en coordenadas
parabolicas tambien conduce a ecuaciones de Bessel. Puede notarse que la ecuacion de Bessel
es notable por la variedad de formas que puede asumir.
La ecuacion original de Helmholtz, una ecuacion diferencial parcial tridimensional, ha
sido reemplazada por tres ecuaciones diferenciales ordinarias, las ecuaciones (9.50), (9.53) y
(9.54). Una solucion de la ecuacion de Helmholtz es
(, , z) = P ()()Z(z) .

(9.55)

Identificando las soluciones especficas P , , Z por subndices, vemos que la solucion mas
general de la ecuacion de Helmholtz es una combinacion lineal del producto de soluciones:
X
(, , z) =
amn Pmn ()m ()Zn (z) .
(9.56)
m,n
4

La elecci
on del signo de la constante de separacion es arbitraria. Sin embargo, elegimos un signo menos
para la coordenada axial z en espera de una posible dependencia exponencial en z. Un signo positivo es
elegido para la coordenada azimutal en espera de una dependencia periodica en .

CAPITULO 9. ECUACIONES DIFERENCIALES.

240

9.3.3.

Coordenadas polares esf


ericas.

Tratemos de separar la ecuacion de Helmholtz, de nuevo con k 2 constante, en coordenadas


polares esfericas. Usando la expresion del Laplaciano en estas coordenadas obtenemos







1 2
1
2
sen
r
+
sen
+
= k 2 .
(9.57)
r2 sen
r
r

sen 2
Ahora, en analoga con la ecuacion (9.35) tratamos
(r, , ) = R(r)()() .

(9.58)

Sustituyendo de vuelta en la ecuacion (9.57) y dividiendo por R, tenemos






1 d
1
d
d
1
d2
2 dR
r
+
sen

+
= k2 .
Rr2 dr
dr
r2 sen d
d
r2 sen2 d2

(9.59)

Note que todas las derivadas son ahora derivadas ordinarias mas que parciales. Multiplicando
por r2 sen2 , podemos aislar (1/)(d2 /d2 ) para obtener5





1 d
1 d2
1
d
d
2 dR
2
2
2
= r sen k 2
r
2
sen
.
(9.60)
d2
r R dr
dr
r sen d
d
La ecuacion (9.60) relaciona una funcion u
nicamente de con una funcion de r y . Ya
que r, , y son variables independientes, igualamos cada lado de la ecuacion (9.60) a una
constante. Aqu una peque
na consideracion puede simplificar el analisis posterior. En casi
todos los problemas fsicos aparecera como un angulo azimutal. Esto sugiere una solucion
periodica mas que una exponencial. Con esto en mente, usemos m2 como la constante de
separacion. Cualquier constante lo hara, pero esta hara la vida un poquito mas facil. Entonces
1 d2
= m2
d2

(9.61)

y
1 d
2
r R dr


r

2 dR

dr

1
d
+ 2
r sen d

d
sen
d

m2
= k 2 .
r2 sen2

Multiplicando la ecuacion (9.62) por r2 y reordenando terminos, tenemos






1
1 d
d
d
m2
2 dR
2 2
r
+r k =
sen
+
.
R dr
dr
sen d
d
sen2

(9.62)

(9.63)

Nuevamente, las variables son separadas. Igualamos cada lado a una constante Q y finalmente
obtenemos


1 d
d
m2
+ Q = 0 ,
(9.64)
sen

sen d
d
sen2


QR
1 d
2 dR
r
+ k2R 2 = 0 .
(9.65)
2
r dr
dr
r
5

El orden en el cual las variables son separadas aqu no es u


nico. Muchos textos de mecanica cuantica
separan la dependencia en r primero.

DE VARIABLES.
9.3. SEPARACION

241

Una vez mas hemos reemplazado una ecuacion diferencial parcial de tres variables por tres
ecuaciones diferenciales ordinarias. Las soluciones de estas tres ecuaciones diferenciales ordinarias son discutidas en el proximo curso. Por ejemplo, la ecuacion (9.64) es identificada
como la ecuacion de asociada de Legendre en la cual la constante Q llega a ser l(l + 1); con l
entero. Si k 2 es una constante (positiva), la ecuacion (9.65) llega a ser la ecuacion de Bessel
esferica.
Nuevamente, nuestra solucion mas general puede ser escrita
X
Qm (r, , ) =
RQ (r)Qm ()m () .
(9.66)
q,m

La restriccion que k 2 sea una constante es innecesariamente severa. El proceso de separacion


sera todava posible para k 2 tan general como
k 2 = f (r) +

1
1
2
g()
+
h() + k 0 .
r2
r2 sen2

(9.67)

En el problema del atomo de hidrogeno, uno de los ejemplos mas importantes de la ecuacion
de onda de Schrodinger con una forma cerrada de solucion es k 2 = f (r). La ecuacion (9.65)
para el atomo de hidrogeno llega a ser la ecuacion asociada de Laguerre.
La gran importancia de esta separacion de variables en coordenadas polares esfericas
deriva del hecho que el caso k 2 = k 2 (r) cubre una tremenda cantidad de fsica: las teoras de
gravitacion, electroestatica, fsica atomica y fsica nuclear. Y, con k 2 = k 2 (r), la dependencia
angular es aislada en las ecuaciones (9.61) y (9.64), la cual puede ser resuelta exactamente.
Finalmente, una ilustracion de como la constante m en la ecuacion (9.61) es restringida,
notamos que en coordenadas polares esfericas y cilndricas es un angulo azimutal. Si esto es
un problema clasico, ciertamente requeriremos que la solucion azimutal () sea univaluada,
esto es,
( + 2) = () .
(9.68)
Esto es equivalente a requerir que la solucion azimutal tenga un perodo de 2 o alg
un
m
ultiplo entero de el. Por lo tanto m debe ser un entero. Cual entero, depende de los detalles
del problema. Cada vez que una coordenada corresponda a un eje de translacion o a un
angulo azimutal la ecuacion separada siempre tendra la forma
d2 ()
= m2 ()
2
d
para , el angulo azimutal, y
d2 Z
= a2 Z(z)
(9.69)
dz 2
para z, un eje de traslacion en un sistema de coordenadas cilndrico. Las soluciones, por supuesto, son sen az y cos az para a2 y la correspondiente funcion hiperbolica (o exponencial)
senh az y cosh az para +a2 .
Otras ecuaciones diferenciales ordinarias encontradas ocasionalmente incluyen las ecuaciones de Laguerre y la asociada de Laguerre del importante problema del atomo de hidrogeno
en mecanica cuantica:
d2 y
dy
x 2 + (1 x) + y = 0 ,
(9.70)
dx
dx

CAPITULO 9. ECUACIONES DIFERENCIALES.

242

d2 y
dy
+ (1 + k x) + y = 0 .
(9.71)
2
dx
dx
De la teora de la mecanica cuantica del oscilador armonico lineal tenemos la ecuacion de
Hermite,
d2 y
dy
2x + 2y = 0 .
(9.72)
2
dx
dx
Finalmente, de vez en vez encontramos la ecuacion diferencial de Chebyshev
x

(1 x2 )

d2 y
dy
x + n2 y = 0 .
2
dx
dx

(9.73)

Para una referencia conveniente, las formas de la solucion de la ecuacion de Laplace, la ecuacion de Helmholtz y la ecuacion de difusion en coordenadas polares esfericas son resumidas
en la tabla 9.2. Las soluciones de la ecuacion de Laplace en coordenadas circulares cilndricas
son representadas en la tabla 9.3.
=

alm lm

l,m

1.

2.

=0

+k =0



rl

lm =

rl1


jl (kr)

lm =

3.

2 k 2 = 0

il (kr)

lm =



Qm
l (cos )


Plm (cos )



Plm (cos )



cos m

sen m


Qm
l (cos )

kl (kr)

cos m
sen m

Qm
l (cos )

nl (kr)


Plm (cos )

cos m

sen m

Cuadro 9.2: Soluciones en coordenadas polares esfericas

2 = 0

am m ,

m,


a.

m =

Jm ()



Nm ()

b.

m =

Im ()

c.


m =

m
m





cos m



sin m


cos m

ez

ez

sen m

Km ()
= 0 (no hay
dependencia en z)

cos m

cos z
sen z

sen m

Cuadro 9.3: Soluciones en coordenadas cilndricas circulares

DE VARIABLES.
9.3. SEPARACION

243

Para las ecuaciones de Helmholtz y de difusion la constante k 2 se agrega a la constante


de separacion 2 para definir un nuevo parametro 2 o 2 . Para la eleccion de + 2 (con
2 > 0) obtenemos Jm () y Nm (). Para la eleccion 2 (con 2 > 0) obtenemos Im ()
y Km () como previamente.
Estas ecuaciones diferenciales ordinarias y sus generalizaciones seran examinadas y sistematizadas en el proximo curso.

244

CAPITULO 9. ECUACIONES DIFERENCIALES.

Parte II
Variable Compleja

245

Captulo 10
N
umeros Complejos
versi
on 1.1, 5 de Mayo del 2003

10.1.

Introducci
on.

Definici
on 10.1 Dominio de integridad, D. Es un conjunto de elementos entre los cuales
estan definidas las operaciones de suma y multiplicacion con las siguientes propiedades:
a) Para todo a, b que pertenece a D existe un solo a + b D y un solo a b D tal que se
satisfacen
La conmutatividad a + b = b + a y a b = b a.
La asociatividad a + (b + c) = (a + b) + c y a (b c) = (a b) c.
b) Existe un elemento 0 D y un elemento 1 D con 0 6= 1 tal que a D,
a+0=0+a=a
a1=1a=a .
c) Para todo a D solo existe un x D tal que a + x = 0 a tal elemento se le llama opuesto
de a y es a.
d) Si c D con c 6= 0 y c a = c b, entonces a = b ley de simplificacion.
Un par de ejemplos de dominios de integridad son los n
umeros reales, R, y los n
umeros
racionales, Q.
Definici
on 10.2 Campo, C. Es un dominio de integridad que contiene para cada elemento
a 6= 0 un elemento llamado inverso de a y denotado a1 tal que
a a1 = 1 .
Definici
on 10.3 Correspondencia biunvoca. Existe una correspondencia biunvoca entre
los conjuntos A y B si a todos los elementos a A se les puede hacer corresponder un s
olo
0
elemento a B y viceversa.
Notaci
on: a a0 , a A y a0 B.
247


CAPITULO 10. NUMEROS
COMPLEJOS

248

Ejemplo Considere x x + 1 para todo x Z.


Ejemplo (Los puntos de un plano dotados de un sistema ortogonal de ejes) (pares de
n
umeros reales).
Definici
on 10.4 Isomorfismo. Un isomorfismo entre dos campos C y C 0 es una correspondencia biunvoca a a0 con a C y a0 C 0 que satisface para cualquier par de elementos
a C y a0 C 0 las condiciones:
(a + b)0 = a0 + b0
(a b)0 = a0 b0 .
En tal caso se dice que C es isomorfo a C 0 .
Definici
on 10.5 N
umero complejo. Un n
umero complejo es un par (x, y) de n
umeros reales
que satisfacen las reglas:
(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )
(x, y) (x0 , y 0 ) = (xx0 yy 0 , xy 0 + yx0 ) .

(10.1)
(10.2)

Estos n
umeros complejos forman un campo que llamamos campo complejo C.
Consideremos
el dominio D por los n
umeros reales (R) y la raz de la ecuacion x2 + 1 = 0

2
i.e. i 1, i = 1. Toda expresion de la forma x + iy (con x, y R), pertenece a D. Por
definicion de dominio de integridad
(x + iy) + (x0 + iy 0 ) = x + x0 + i(y + y 0 )
(x + iy) (x0 + iy 0 ) = xx0 yy 0 + i(xy 0 + x0 y) .
Establezcamos la correspondencia
(x, y) x + iy .
Afirmamos que esta correspondencia es biunvoca, en efecto, si
(x, y) x + iy
(x0 , y 0 ) x0 + iy 0 ,
y
(x + iy) = (x0 + iy 0 ) (x x0 ) = i(y y 0 ) ,
elevando al cuadrado
(x x0 )2 = (y y 0 )2 (x x0 )2 + (y y 0 )2 = 0 ,
como ambos terminos son 0, deben ser nulos por separados,
x x0 = 0 , y y 0 = 0 x = x0 , y = y 0 ,

(10.3)
(10.4)

10.2. PLANO COMPLEJO.

249

es decir, si (x + iy) = (x0 + iy 0 ) entonces (x, y) = (x0 , y 0 ) son iguales. A cada elemento le
corresponde un solo elemento y viceversa. Por lo tanto, a partir
de (10.1), (10.2) y (10.3),
(10.4), se tiene que el conjunto C es isomorfo a D = {R, i 1}.
Por lo anterior concluimos que si z = (x, y) es un n
umero complejo, entonces z = x + iy.
Identificamos a x como la parte real de z, i.e Re(z) = x. De la misma manera, identificamos a
y como la parte imaginaria de z, i.e Im(z) = y. Ademas tenemos las siguientes equivalencias:
(x, 0) = x ,

(0, 1) = i ,

(1, 0) = 1 ,

(0, y) = iy ,

En el u
ltimo caso tenemos un n
umero que es imaginario puro.

10.2.

Plano complejo.

La forma x+iy de los complejos nos conduce a definir lo que llamaremos el plano complejo,
figura 10.1,

Im
z

Im( z )

Re

i
1

Re( z )

Figura 10.1: Plano complejo.


Aqu los vectores distinguidos son 1 y i. El n
umero complejo z tiene dos interpretaciones
en el plano complejo:
a) Como un vector en este espacio vectorial de dimension 2, isomorfo a R2 .
b) Como un punto de este plano.
Definici
on 10.6 Complejo Conjugado. El complejo conjugado de z = (x, y) = x + iy es

z = z = (x, y) = x iy. La operacion de tomar el conjugado de un n


umero complejo
corresponde, graficamente, a una reflexion respecto al eje real.
Propiedades: Para todo z, z1 , z2 C
1.

(z^
1 + z2 ) = (z1 + z2 ) = ((x1 + x2 ) + i(y1 + y2 ))
= (x1 + x2 ) i(y1 + y2 )
= (x1 iy1 ) + (x2 iy2 ) = z1 + z2
(z1 + z2 ) = z1 + z2 .

(10.5)


CAPITULO 10. NUMEROS
COMPLEJOS

250

Im
z
Re
~
z

Figura 10.2: Complejo conjugado.

2.

^
(z
1 ) = (z1 ) = (x1 iy1 )
= x1 + iy1
= (x1 iy1 ) = (z1 )
(z1 ) = (z1 ) .

(10.6)

3.

(z^
1 z2 ) = (z1 z2 ) = (x1 x2 y1 y2 ) i(x2 y1 + x1 y2 )
= x1 x2 (y1 )(y2 ) + i(x1 (y2 ) + x2 (y1 )) = z1 z2
(z1 z2 ) = z1 z2 .
(10.7)

4.
z = (z ) = z .

(10.8)

z + z = z + z = 2 Re(z) .

(10.9)

z z = z z = 2i Im(z) .

(10.10)

z z = z z = (x + iy)(x iy)
= x2 (i)2 y 2 = x2 + y 2 |z|2
z z = |z|2 .

(10.11)

5.
6.
7.

POLAR.
10.3. REPRESENTACION

251

En general, el conjugado de una expresion racional de complejos sera igual a la expresion


racional de los complejos conjugados. Por ejemplo, det(aij ) = det(
aij ).
A partir de lo anterior, podemos dar una expresion para el inverso de z en funcion de z
y | z |2 . El inverso de z es tal que
1
z
1
z z
z
2 1
|z|
z
1
z
z

=1
= z
= z
=

z
.
| z |2

Si z = x + iy la expresion anterior toma la forma


1
x iy
.
= 2
z
x + y2

10.3.

Representaci
on polar.

Cada n
umero complejo z = x + iy puede representarse en forma polar
z = r(cos + i sen ) ,

(10.12)

donde
r = |z| =

10.4.

p
(Re(z))2 + (Im(z))2 ,

= tan1

y
x

, con < .

(10.13)

Distancia en el plano complejo.

La distancia entre dos puntos z1 y z2 en el plano complejo: d | z2 z1 |, figura 10.4 (a).


Si z es tal que | z z0 | < R, entonces z se encuentra en el interior de una circunferencia
de radio R con centro en z0 , figura 10.4 (b).

10.5.

Desigualdad triangular.

Teorema 10.1 Para cualquier par de n


umeros complejos z1 y z2 se tiene que
| z1 + z2 | | z1 | + | z2 | .

(10.14)


CAPITULO 10. NUMEROS
COMPLEJOS

252

Im
Im( z )

r=| z|

Re
Re( z )

Figura 10.3: Representacion polar.

Im

(a)

Im

(b)

z2 z1

z1

R
z0

z2

Re

Re

Figura 10.4: Distancia en el plano complejo.

Demostraci
on Sean z1 = a1 + ib1 y z2 = a2 + ib2 ,
(a1 b2 a2 b1 )2 = a21 b22 + a22 b21 2a1 b2 a2 b1 0
a21 a22 + a21 b22 + a22 b21 + b21 b22 a21 a22 + 2a1 b2 a2 b1 + b21 b22
(a21 + b21 )(a22 + b22 ) = | z1 |2 | z2 |2 (a1 a2 + b1 b2 )2
| z1 | | z2 | (a1 a2 + b1 b2 )
| z1 |2 + | z2 |2 + 2 | z1 | | z2 | 2a1 a2 + 2b1 b2 + a21 + b21 + a22 + b22
(| z1 | + | z2 |)2 (a1 + a2 )2 + (b1 + b2 )2 = | z1 + z2 |2
| z1 | + | z2 | | z1 + z2 | .
q.e.d.

10.6. ISOMORFISMO CON MATRICES.

10.6.

253

Isomorfismo con matrices.


a b
El algebra de los n
umeros complejos es isomorfa a la de las matrices de la forma
.
b a
Consideremos dos complejos
z1 =
2 = a2 + ib

 a1 + ib1 y z
2 y asociemosles, va la funcion A.
a1 b1
a2 b2
Las matrices A(z1 ) =
y A(z2 ) =
respectivamente. Podemos probar
b1 a1
b2 a2
que

 
 

a1 + a2 b1 + b2
a1 b1
a2 b2
A(z1 + z2 ) =
=
+
= A(z1 ) + A(z2 ) ,
b1 b2 a1 + a2
b1 a1
b2 a2

 
 

a1 a2 b1 b2
a1 b1 + a2 b2
a1 b1
a2 b2
A(z1 z2 ) =
=

= A(z1 ) A(z2 ) .
(a1 b1 + a2 b2 ) a1 a2 b1 b2
b1 a1
b2 a2


En esta representacion podemos identificar




1 0
A(1) =
=1,
0 1


A(i) =


0 1
=I.
1 0

De esta manera a un complejo z = a + ib le podemos asociar la matriz Z = a1 + bI.


Consideremos aquellas matrices tales que satisfacen a2 + b2 = 1, o dicho de otra manera
det A = 1. Denotemoslas por Ur , luego det Ur = 1. Los Ur corresponden a todos los z C
tales que | z |2 = 1, puesto que | z |2 = zz = a2 + b2 cuando z tiene la forma z = a + ib.
Recordando la representacion geometrica de los complejos a = cos y b = sen , luego
Ur = cos 1 + sen I,


cos sen
Ur =
,
sen cos
la cual es una isometra propia, una rotacion.

10.7.

Sucesi
on de n
umeros complejos.

Sean z0 , z1 , z2 ,. . . , zn una sucesion de n


umeros complejos, esta sucesion converge si y solo
si para todo > 0 existe un N tal que | zn zm | < para todo n, m N . El anterior es el
criterio de Cauchy de convergencia y en el caso complejo es necesario y suficiente.
Una sucesion de n
umeros complejos z0 , z1 , z2 ,. . . , zn tiene como lmite z si y solo si para
todo > 0 existe un N tal que | zn z | < para todo n N .

10.8.

Series de n
umeros complejos.

Como definicion de la convergencia de una serie compleja usaremos ls convergencia de la


sucesion de sumas parciales, i.e.

n
X
X
zi = z lm Sn =
zi = z .
(10.15)
i=0

i=0

El criterio necesario y suficiente de Cauchy


P para la convergencia de la serie se puede expresar
como > 0 N tal que n, m > N | ni=m zi | < .


CAPITULO 10. NUMEROS
COMPLEJOS

254

Im

z3
z2

z4
z0

z1
Re

Figura 10.5: Convergencia de una serie en el plano complejo.

Definici
on 10.7 La serie

=0

a converge absolutamente si

=0

| a | converge.

Teorema 10.2 La convergencia absoluta implica la convergencia ordinaria.

10.8.1.

Pruebas m
as comunes para la convergencia absoluta.

Teorema 10.3 Prueba de comparaci


on. Si | zn | an y
converge absolutamente.

an converge entonces

zn

Teorema
on. Si | zn+1 /zn | k n suficientemente grande y k < 1,
P 10.4 Prueba de la raz
la serie
zn converge absolutamente.
P
Si | zn+1 /zn | k n suficientemente grande y k > 1, la serie
zn diverge.
p
n
Teorema
10.5
Prueba
de
la
ra
z.
Si
| zn | k < 1 n suficientemente grande entonces
P
la seriep zn converge absolutamente.
P
zn diverge.
Si n | zn | > k 1 para n suficientemente grande entonces la serie

10.8.2.

Radio de convergencia.

Consideremos la serie

z = 1 + z2 + z3 + z4 + . . . .

=0
i)

Para | z P
| < 1, la prueba de la razon nos da | z n+1 /z n | = | z | < 1. Lo anterior implica que
la serie
zn converge absolutamente para | z | < 1.

Para | z P
| > 1, la prueba de la razon nos da | z n+1 /z n | = | z | > 1. Lo anterior implica que
la serie
zn diverge para | z | < 1.
P
n
iii) Para | z | = 1 no existe un n tal que z 0, por lo tanto, la serie
zn diverge para
| z | = 1.
P
La serie
zn converge absolutamente dentro de una circunferencia de radio R = 1. Este
R se llama radio de convergencia.
ii)


10.8. SERIES DE NUMEROS
COMPLEJOS.

255

Zona de
Divergencia

Zona de
Convergencia

Figura 10.6: Convergencia en el plano complejo.

10.8.3.

La serie exponencial.

Consideremos la serie

X
z
=0

Evaluemos la prueba de la razon,


n+1
z
n!

(n + 1)! z n



z n

=
n + 1 0 ,

converge para | z | < .


Definici
on 10.8 Usamos esta serie para definir la funcion exponencial,
z

e = exp z

X
z
=0

Propiedades a, b C:
a)
!

X
b

 
X
X
a b k!
e e =
=
!
!
!! k!
=0
=0
k=0 +=k
!
k

X
X
1 X
k!
1
k
a b
=
(a + b)k
=
k! =0 (k )!!
k!
k=0
k=0
a b

X
a

ea eb = e(a+b) .
b)



z2 z4
z3 z5
e = 1
+
... + i z
+
...
2!
4!
3!
5!
= cos(z) + i sen(z) .
iz

(10.16)


CAPITULO 10. NUMEROS
COMPLEJOS

256

10.9.

Relaci
on de Euler.

A partir de la propiedad anterior podemos escribir


eiz = cos z + i sen z ,

(10.17)

eiz = cos z i sen z .

(10.18)

Podemos despejar las funciones trigonometricas en funcion de las exponeciales complejas


eiz + eiz
,
2
eiz eiz
sen z =
.
2i

(10.19)

cos z =

(10.20)

Algunos valores numericos


ei = 1 ,

e2i = +1 ,

ei/2 = i ,

ei/2 = i .

La funcion ez es periodica con perodo 2i,


ez+2i = ez e2i = ez .
Reobtengamos algunas identidades trigonometricas usando complejos
 1 ia ib

1 i(a+b)
e
+ ei(a+b) =
e e + eia eib
2
2
1
= [(cos a + i sen a)(cos b + i sen b) + (cos a i sen a)(cos b i sen b)]
2
1
= [2 cos a cos b 2 sen a sen b]
2
cos(a + b) = cos a cos b sen a sen b ,
cos(a + b) =

de la misma manera podemos demostrar que


sen(a + b) = sen a cos b + cos a sen b .
Si consideremos el caso b = a tenemos la conocida identidad 1 = cos2 b + sen2 b.
Si R entonces ei = cos + i sen , si calculamos su modulo cuadrado
i 2
e = (cos + i sen )(cos i sen ) = cos2 + sen2 = 1 ,
por lo tanto | ei | = 1. Sabemos ademas, que ei = ei(+2) . Podemos escribir un complejo
z = | z | ei donde corresponde al angulo polar en la figura 10.3.


10.10. FORMULA
DE MOIVRE.

10.10.

257

F
ormula de Moivre.

Consideremos la exponencial compleja de n veces el angulo ,


ein = exp(i + i + i + + i)
{z
}
|
n veces
n
= ei ei ei ei = ei
= cos n + i sen n = (cos + i sen )n
n  
X
n
cosn sen i ,
=

=0
luego tenemos
cos n + i sen n =

n  
X
n

=0

cosn sen i .

Comparando parte real y parte imaginaria tenemos


n(n 1)
cosn2 sen2 + . . .
2
sen n = n cosn1 sen + . . . .
cos n = cosn

(10.21)
(10.22)

Como ejemplo de la relacion anterior consideremos el caso n = 2,


cos 2 = cos2 sen2
sen 2 = 2 cos sen .

10.11.

Ecuaci
on ciclot
onica.

Consideremos la siguiente ecuacion en los complejos


zn = 1 .

(10.23)

Es decir, se busca un z tal que | z | = 1, ya que | z n | = | z |n = 1 | z | = 1, y que su angulo


polar satisfaga n( + 2k) = 0 + 2k 0 . Las soluciones


2ki
,
con k = 0, 1, . . . , n 1.
(10.24)
zk = exp
n
n
1

zk
1

-1, +1

3
2

+1, 21 i

+1, -1, +i, -i

+1, exp(2i/5), exp(4i/5)

1, 1

i 3
2


CAPITULO 10. NUMEROS
COMPLEJOS

258

z2

z1

z3

z1

z4

z5

Figura 10.7: Las raices sextas de la unidad.

La representacion grafica de las soluciones para el caso n = 6, figura 10.7


Las races de la unidad de grado n forman un grupo respecto a la multiplicacion, en el
cual z0 = 1 corresponde al elemento neutro. A continuacion la tabla de producto para el caso
n=4

z0
z1
z2
z3

z0
z0
z1
z2
z3

z1
z1
z0
z3
z2

z2
z2
z3
z1
z0

z3
z3
z2 .
z0
z1

Captulo 11
Ejemplos sencillos de funciones
complejas
versi
on final 1.24, 12 de Mayo del 2003

11.1.

Notaci
on.

Las funciones complejas o mapeos van de los complejos a los complejos,


f

C C .
La notacion es que el plano de salida lo denotaremos por Z con elementos z = x + iy, y la
imagen sera el plano W con elementos w = u + iv. Es decir, f (z) = f (x + iy) = w = u + iv.

Figura 11.1: Funcion compleja.

259

260

11.2.

CAPITULO 11. EJEMPLOS SENCILLOS DE FUNCIONES COMPLEJAS

Ejemplo 1, traslaci
on.

La funcion traslacion en un complejo constante a,


z f (z) = z + a .

y
a
a

a
x

Figura 11.2: Funcion traslacion en a.

11.3.

Ejemplo 2, rotaci
on en torno al origen.

La funcion rotacion en torno al origen


z f (z) = zei = u + iv = (x + iy)(cos + i sen ) = x cos y sen + i(y cos + x sen ) ,
donde R. En forma matricial

R z = w ,

o bien

cos sen
sen cos

   
x
u
=
.
y
v

f(z)
z

Figura 11.3: Funcion rotacion en torno al origen.

RESPECTO AL EJE REAL.


11.4. EJEMPLO 3, REFLEXION

11.4.

Ejemplo 3, reflexi
on respecto al eje real.

La funcion reflexion respecto al eje real


z f (z) = z = z .

Im
z

Re

f(z)= ~
z =z *
Figura 11.4: Funcion reflexion respecto al eje real.

Si la reflexion es respecto al eje imaginario


z f (z) =
z = z .

Im
f(z)= ~
z = z*

z
Re

~
z =z *

Figura 11.5: Funcion reflexion respecto al eje imaginario.

261

262

11.5.

CAPITULO 11. EJEMPLOS SENCILLOS DE FUNCIONES COMPLEJAS

Ejemplo 4, rotaci
on m
as traslaci
on.

La funcion incluye una rotacion en a/ | a |, una multiplicacion en | a | y finalmente una


traslacion en b.
z f (z) = az + b = | a | ei z + b .

Im
|a|
b

Re
Figura 11.6: Funcion rotacion mas traslacion.

Este tipo de funciones o mapeos, conocidos como conformes, tienen la caracterstica de


preservar los angulos orientados. En nuestro caso, f mapeo lneas rectas en lneas rectas y
circunferencias en circunferencias.

w
f

Figura 11.7: Un ejemplo que mapeo crculos en crculos y rectas en rectas.

CUADRATICA.

11.6. EJEMPLO 5, TRANSFORMACION

11.6.

263

Ejemplo 5, transformaci
on cuadr
atica.

La transformacion cuadratica
z f (z) = z 2 = (x + iy)2 = x2 y 2 + i2xy = u + iv .
Despejando para u y v
u = x2 y 2 ,
v = 2xy .

f(z)=z2
z

Im










































Re

Re( z )>0

Figura 11.8: Transformacion cuadratica.


Mapeo de curvas notables
Verticales en z, es decir, x = c = cte. Representacion parametrica con parametro y,
u = c2 y 2 ,
v = 2cy .
Despejando y =

v
y reemplazandola en la primera ecuacion
2c
v2
u = c2
.
4c

Horizontales en z, es decir, y = c = cte. Representacion parametrica con parametro x,


u = x2 c2 ,
v = 2xc .
v
y reemplazandola en la primera ecuacion
2c
v2
u=
c2 .
4c

La funcion inversa, no podemos simplemente escribir z = w a menos que nos restrinjamos a Re z > 0.
Despejando x =

CAPITULO 11. EJEMPLOS SENCILLOS DE FUNCIONES COMPLEJAS

264
z

f(z) = z 2

Parbolas
confocales

Rectas

foco
x

Figura 11.9: Mapeo z 2 para rectas ortogonales.

11.7.

Ejemplo 6, transformaci
on exponencial.

La transformacion exponencial
z f (z) = ez = e(x+iy) = ex eiy = ex (cos y + i sen y) = u + iv = w .
Despejando para u y v
u = ex cos y ,
v = ex sen y .
Mapeo de curvas notables
Verticales en z, es decir, x = c = cte. Representacion parametrica con parametro
< y < ,
u = ec cos y ,
v = ec sen y .
Horizontales en z, es decir, y = c = cte. Representacion parametrica con parametro x,
u = ex cos c ,
v = ex sen c .
La funcion inversa de ez , tenemos w = ez tal que < Im (ez ) . Sea w 6= 0, escribamos
w = rei con < . Debemos identificar lo anterior con ez = ex eiy , basta tomar ex = r
e y = luego x = ln r e y = . Por lo tanto,
z = ln | w | + i = ln w ,
siendo w = | w | ei con < .

DE JOUKOWSKY.
11.8. EJEMPLO 7, TRANSFORMACION

z
y
.5 .5 1

w
f(z)=e z

265

v
i /2

Rectas
i /2

0.3
u

0.3 x
i
i /2
2.2
i

2.2

Mapeo Abanico

i/2

Figura 11.10: Mapeo ez para rectas ortogonales.

11.8.

Ejemplo 7, transformaci
on de Joukowsky.

La transformacion que nos interesa es


1
z f (z) =
2

1
z+
z


= u + iv = w ,

escribiendo z = rei tenemos


1
w=
2

1
re + ei
r
i


= u + iv ,

despejando para u y v

1
u=
r+
2

1
r
v=
2


1
cos ,
r

1
sen .
r

Crculos en z, es decir, r = c > 1. Representacion parametrica con parametro tal que


< ,


1
1
u=
c+
cos ,
2
c


1
1
v=
c
sen .
2
c
Las curvas anteriores corresponden a elipses,

2u
2v
+
=1.

1
1
c+
c
c
c

CAPITULO 11. EJEMPLOS SENCILLOS DE FUNCIONES COMPLEJAS

266

Rectas radiales en z, es decir, = 0 6= k/2 con k Z y r > 1. Representacion


parametrica con parametro r > 1,


1
1
r+
cos 0 ,
u=
2
r


1
1
v=
r
sen 0 .
2
r
Las curvas anteriores corresponden a hiperbolas,

2 
2
u
v

=1.
cos 0
sen 0

f(z)=
z

1
2

(z + 1z)

Figura 11.11: Transformacion de Joukowsky para crculos y rectas radiales.

11.9.

Ejemplo 8, inverso.

La funcion inverso
z f (z) =

1
,
z

f (rei ) =

1 i
e
,
|r|

El origen se mapeara en infinito va esta funcion e infinito se mapeara en el origen,


1/z

z = 0 w = ,
1/z

z = w = 0 .

(11.1)
(11.2)

11.10. EJEMPLO 9, INVERSO CONJUGADO.

267

f(z)=z1
z

w















































































































































Figura 11.12: Mapeo 1/z para los diferentes cuadrantes.

11.10.

Ejemplo 9, inverso conjugado.

La funcion inverso conjugado


z f (z) =

1
,
z

f (rei ) =

1 i
e ,
|r|

1
z*

Figura 11.13: Mapeo 1/z .

268

11.11.

CAPITULO 11. EJEMPLOS SENCILLOS DE FUNCIONES COMPLEJAS

Mapeo sobre la esfera de Riemann.

polo N
y

R=1/2

x
0
z

Proyeccin
Estereogrfica

Figura 11.14: Esfera de Riemann.

Ponemos una esfera de radio r = 1/2 sobre el plano complejo tal que el polo sur de la
esfera coincida con el origen, llamaremos a esta esfera: esfera de Riemann.
A cada punto z del plano complejo z le haremos corresponder un u
nico punto sobre
la esfera de la siguiente manera: unimos el punto sobre el plano complejo con el extremo
superior de la esfera o polo Norte por una recta y el punto que esta recta intersecta la esfera
correspondera a la imagen del punto z.
Definici
on 11.1 Infinito. El punto, en el plano z, llamado infinito, z = , es aquel cuya
imagen se encuentra en el polo norte de la esfera de Riemann. Es decir,
Def.

z = Polo N .

11.11.1.

(11.3)

Algunas propiedades de esta proyecci


on.

1. Crculos en el plano z son mapeados sobre crculos en la esfera , los cuales no pasan
por el polo norte.
2. Lneas rectas en el plano z son mapeadas en circunferencias sobre la esfera , los cuales
pasan por el polo norte.
3. Dos rectas que se cortan en el plano z tienen dos punto comunes sobre la esfera siendo
uno de ellos el polo N.
La proyeccion estereografica es conforme, es decir, preserva los angulos orientados.

11.11. MAPEO SOBRE LA ESFERA DE RIEMANN.

269

Figura 11.15: Mapeo sobre la esfera de crculos y lneas.

Figura 11.16: Mapeo sobre la esfera de rectas que se cruzan.

11.11.2.

Mapeo de z y 1/z y su relaci


on.

Sea A sobre la esfera de Riemann el punto correspondiente a z en el plano z. Sea A0 sobre


la esfera el punto correspondiente a 1/z en el plano z. Afirmamos que A0 se obtiene de A
mediante una reflexion en el plano ecuatorial, es decir, en la figura 11.17 debemos demostrar
que = 0 .
Demostraci
on Considerando que el radio es 1/2, vemos del dibujo que tan = r/1 = r.

CAPITULO 11. EJEMPLOS SENCILLOS DE FUNCIONES COMPLEJAS

270

R

R

R= 1_2

Plano
Ecuatorial

1/r

|z|=r

1/z*
r

Figura 11.17: Mapeo de z y 1/z y su relacion sobre la esfera.

Ademas, en A tenemos que + + = y = /2 luego = (/2 2), ahora


calculemos la tangente de
tan = tan


cos(2)
1
1 tan2
r2 1
2 =
=
=
=
.
2
sen 2
tan 2
2 tan
2r

(11.4)

Por otro lado, tenemos que tan = (1/r)/1 = 1/r. Claramente desde la figura tenemos que
/2 0 = 2, por lo tanto, calculamos la tangente de 0 de una manera equivalente
cos(2)
1
1 tan2
1 1/r2
r2 1
2 =
=
=
=
=
.
tan = tan
2
sen 2
tan 2
2 tan
2(1/r)
2r
0

(11.5)

Comparando (11.4) y (11.5) tenemos que = 0


q.e.d.

Captulo 12
Transformaciones homogr
aficas y
rotaciones de la esfera.
versi
on final 1.21, 12 de Mayo del 2003

Consideremos el espacio real de 3 dimensiones en coordenadas cartesianas. Las transformaciones isometricas son aquellas que conservan el producto escalar. Este tipo de transformaciones se pueden representar por matrices reales de 3 3, que satisfacen:
AA = 1 ,

det(A) = 1 .

(12.1)

Si el valor del determinante corresponde a +1 decimos que la isometra es par y si corresponde


a -1 diremos que es impar.
Proposici
on 12.1 Toda isometra par corresponde a una rotacion de la esfera.
Demostraci
on Tenemos que demostrar que existe un eje, es decir, hay dos puntos fijos o
dicho de otra manera existe un vector fijo ~x tal que
A~x = ~x = (A 1)~x = 0 ,
existira una solucion no trivial si y solo si det(A 1) = 0.
det(A 1) = det(A AA ) = det(A(1 A ))
= det(A) det(1 A ) = det(1 A )
= det(1(A 1)) = 1 det(A 1)
det(A 1) = det(A 1) ,
luego det(A 1) = 0, implica que existe solucion no trivial, es decir, existe el vector fijo
~x 6= 0.
q.e.d.
Teniendo el vector fijo lo tomamos como e3 y completamos la base con e1 y e2 , tales que
e e = ,

, = 1, 2, 3.

En esta nueva base la matriz A se escribe






B 0 , donde B = cos sen .
sen cos
0 1
271


272CAPITULO 12. TRANSFORMACIONES HOMOGRAFICAS
Y ROTACIONES DE LA ESFERA.
Ya que la matriz A satisface A = A1 eso implica que B = B1 y tambien tenemos que
det(A) = det(B) = 1.
Consideremos ahora la transformacion
f (z) = w =

az + b
,
cz + d

tal que

D = ad bc 6= 0 C .

(12.2)

La anterior es conocida como transformacion homografica o transformacion lineal fraccionada.


Representaci
on:
 
  
w
a b
z
=
1
c d
1

w
az + b
=
.
(12.3)
1
cz + d




a b
d b
1
La matriz
es no singular, es decir, tiene inversa, D
.
c d
c a
Las transformaciones homograficas forman un grupo respecto a su composicion funcional.
tal que

Escribamos la matriz como producto de matrices, lo cual nos permitira entender como
mapea las rectas y las circunferencias,






1 D a
a b
0 1
c d
=
,
c d
0 c
1 0
0 1
c
la primera matriz del lado derecho corresponde a la transformacion t (Dt + a)/c, la
segunda a s 1/s y la tercera z cz + d. La primera y la tercera de las transformaciones no cambia la forma de las curvas y la segunda transforma circunferencias o rectas en
circunferencias o rectas. Claramente, despues de este analisis, vemos que la transformacion
mantiene la geometra, de ah su nombre de homografica.
Existen dos puntos notables en una transformacion homografica
f (z) = w =

az + b
,
cz + d

1. El punto z = d/c, que corresponde a la pre-imagen de w = .


2. El punto z = se mapea en el punto w = a/c.
Definici
on 12.1 Punto fijo. Punto fijo de una transformacion es aquel cuya imagen el mismo
punto. Es decir, z0 punto fijo de f f (z0 ) = z0 .
Proposici
on 12.2 A lo sumo en una aplicacion homografica hay dos puntos fijos, sino es la
transformacion identidad.
Demostraci
on Debemos separar nuestro analisis en dos casos distintos
d
1. Infinito no es punto fijo, es decir, z0 6= , por lo tanto
c
z0 =

az0 + b
cz02 + (d a)z0 b = 0 .
cz0 + d

273
En principio hay dos soluciones. Para que haya mas de dos soluciones c =0 y d= a, lo
a 0
que implica b = 0, por lo tanto, la matriz asociada a la transformacion es
= a1.
0 a
2. Infinito es punto fijo, es decir, c = 0, luego
z0 =

az0 + b
(d a)z0 b = 0 .
d

Para que haya mas de una soluci


on d =
 a lo que implica b = 0, por lo tanto, la matriz
a 0
asociada a la transformacion es
= a1.
0 a
q.e.d.

Proposici
on 12.3 Si describimos tres puntos en el plano complejo z1 6= z2 6= z3 6= z1 y sus
respectivas imagenes w1 6= w2 6= w3 6= w1 , entonces existe exactamente una transformacion
homografica f tal que f (zi ) = wi para i = 1, 2, 3.
Demostraci
on Construimos la razon cruzada invariante
z z1 z2 z1
w w1 w2 w1
:
=
:
= f (z) = w .
w w3 w2 w3
z z3 z2 z3

(12.4)

La transformacion f as construida es homografica y satisface que para


z = z1 = w = w1 ,
z = z2 = w = w2 ,
z = z3 = w = w3 ,

porque 0 = 0,
porque 1 = 1,
porque = .

Falta probar que f es u


nica, para esto supongamos que existe una transformacion homografica
g tal que
g(z ) = w ,
para = 1, 2, 3.
Por ser g homografica tiene inversa g 1 , luego
g 1 (w ) = z = g 1 (f (z )) = g 1 f (z ) = z ,

para = 1, 2, 3.

Tenemos una transformacion homografica g 1 f con tres puntos fijos, luego la transformacion
es la identidad g 1 f = 1 o bien g 1 = f 1 lo que implica finalmente que g = f , es decir f
es u
nica.
q.e.d.
Consideremos las transformaciones homograficas de la forma
f (z) =

az + b
.
b z + a

(12.5)


274CAPITULO 12. TRANSFORMACIONES HOMOGRAFICAS
Y ROTACIONES DE LA ESFERA.

Plano
Ecuatorial

1
z*

1
z*

Figura 12.1: Puntos diametralmente opuestos en la esfera.

Proposici
on 12.4 Las transformaciones homograficas del tipo (12.5) corresponden exactamente a todas las rotaciones de la esfera.
Demostraci
on Una rotacion transforma puntos diametralmente opuestos en puntos diametralmente opuestos.
El par de puntos (z, 1/z ) son puntos diametralmente opuestos sobre la esfera.
az0 + b
, evaluemos
Sea z0 tal que f (z0 ) = w0 =
b z0 + a

f

1

z0


=

za + b

bz0 a
=
=
a z0 + b
+ a

b
z0

b z0 + a
az0 + b


=

1
w0


=

1
.
w0

Ahora veamos si podemos prescribir un eje frente a esta transformacion. Sea z1 el eje
prescrito, encontremos a y b

 
 
a
b
z1
z
=K 1 ,

b a
1
1
lo que implica dos ecuaciones para a y b
az1 + b = Kz1 ,
a bz1 = K .
El determinante de los coeficientes es D = | z |2 1 6= 0, luego tiene soluciones para
cualquier K. El par de puntos que define el eje puede ser descrito (z1 , 1/z1 ).
Tratemos de prescribir un angulo de rotacion con los parametros que tenemos,
f (z) =

az + b
,
b z + a

D = | a |2 + | b |2 > 0 ,

275
normalicemos los coeficientes tal que el determinante sea 1.
f (z) =

a z + b
D
D

D z + aD

Az + B
B z + A

D = | A |2 + | B |2 = 1 .

Cada uno de los coeficientes A y B son complejos, por lo tanto, tienen dos parametros reales.
En total cuatro parametros menos la restriccion de que el determinante sea +1, tenemos
entonces tres parametros, dos para el eje y uno para el angulo.
q.e.d.


276CAPITULO 12. TRANSFORMACIONES HOMOGRAFICAS
Y ROTACIONES DE LA ESFERA.

Captulo 13
Derivabilidad.
versi
on final 1.11, 12 de Mayo del 2003

13.1.

Identidades de Cauchy-Riemann.

Definici
on 13.1 La vecindad circular de un punto z0 con radio R es el conjunto de
todos los puntos tales que
0 < | z z0 | < .
(13.1)
Definici
on 13.2 Dominio abierto es aquel en que todos elementos tiene alguna vecindad
circular que pertenece totalmente al dominio.
Consideraremos funciones definidas en un dominio abierto de ahora en adelante.

z0

f(z 0)

Figura 13.1: Funciones en dominios abiertos.

Definici
on 13.3 Continuidad.
La funcion f es continua en el punto z0 si f (z0 + h) = f (z0 ) + R, donde R 0 cuando
h 0.
Definici
on 13.4 Diferenciabilidad.
La funcion f es derivable en z0 si
f (z0 + h) = f (z0 ) + Ah + R ,

donde
277

R
0 cuando h 0,
h

(13.2)

CAPITULO 13. DERIVABILIDAD.

278
en tal caso

f
f (z0 + h) f (z0 )
R
=
=A+
.
h
h
h

Notaci
on:
A = f 0 (z0 )

derivada de f en z = z0 .

Si escribimos f (z + h) Ah + B, la podemos interpretar como un giro en un angulo polar


de A, mas una translacion y una dilatacion. Lo anterior implica la conservacion de angulos
orientados, representacion conforme.
Veamos un ejemplo explcito, la derivada de f (z) = | z |2 evaluada en z = z0 ,
| z0 + h |2
(z0 + h)(z0 + h)
z0 h + hz0 + hh
R
h

= | z0 |2 + Ah + R
= z0 z0 + Ah + R
= Ah + R
h
= z0 + z0 + h A .
h

Podemos tomar h como queramos, en particular lo elegimos primero real puro,


R
= z0 + z0 + h A = 2 Re z0 A = 0 = A = 2 Re z0 .
h0 h
lm

Sea h imaginario puro, es decir, h = i con R,


R
= z0 + z0 + i A = 2i Im z0 A = 0 = A = 2i Im z0 .
0 i
lm

Combinando ambos resultados,


2 Re z0 = 2i Im z0
Re z0 + i Im z0 = 0 = z0 = 0 .
La derivada existe solo en z0 = 0.
Nos esta permitido escribir
f (z) = f (x + iy) = u(x, y) + iv(x, y) .

(13.3)

Tomemos z0 = x0 + iy0 donde f es derivable. Sea h = x + iy, ahora evaluemos f /h,


f
u(x0 + x, y0 + y) u(x0 , y0 ) + iv(x0 + x, y0 + y) iv(x0 , y0 )
=
.
h
x + iy
Al punto z0 podemos acercarnos en forma arbitraria en el plano z.
Primero y = 0,

z0

f
u(x0 + x, y0 ) u(x0 , y0 ) + iv(x0 + x, y0 ) iv(x0 , y0 )
=
,
x
x

13.1. IDENTIDADES DE CAUCHY-RIEMANN.

279

luego para x = h 0
v
u
+i
= f 0 (z) .
x
x
Ahora x = 0,

(13.4)

z0

u(x0 , y0 + y) u(x0 , y0 ) + iv(x0 , y0 + y) iv(x0 , y0 )


f
=
,
iy
iy
luego para y = h 0
v
u
i
= f 0 (z) .
(13.5)
y
y
Ambas ecuaciones, (13.4) y (13.5), se debe ser iguales, lo que significa que: cumplir
v
u
=
,
x
y

v
u
=
.
x
y

(13.6)

Las ecuaciones anteriores son conocidas como las identidades de Cauchy-Riemann y es la


condicion necesaria para la existencia de la derivada. Investiguemos la suficiencia de ellas
para la derivabilidad, tenemos u = u(x, y) tal que
u
u
u = u(x0 + x, y0 + y) u(x0 , y0 ) =
x +
y + 1 x + 2 y ,
x
y
p
donde 1 , 2 0 si h = (x)2 + (y)2 0.
Analogamente
v
v
v = v(x0 + x, y0 + y) v(x0 , y0 ) =
x +
y + 3 x + 4 y ,
x
y
p
donde 3 , 4 0 si h = (x)2 + (y)2 0.
Luego, como la derivada es una operacion lineal


u
u
v
v
f = u + iv =
x +
y + 1 x + 2 y + i
x +
y + 3 x + 4 y
x
y
x
y
v
v
u
C.R. u
x
y + i x + i y + (1 + 3 )x + (2 + 4 )y
=
x
x
x
x
u
v
(x + iy) + i (x + iy) + 1 x + 2 y
=
x
x
f
u
v
x
y
=
+i
+ 1
+ 2
.
z
x
x
z
z
Tomemos el lmite z 0
f
u
v
x
y
lm
=
+i
+ 1 lm
+ 2 lm
,
z0 z
z0 z
z0 z
x
x
como se satisface que | x | | z | y | y | | z | ambos lmites van a cero quedandonos
u
v
f 0 (z0 ) =
+i
,
x
x
f 0 existe en z0 , donde se satisface Cauchy-Riemann.

CAPITULO 13. DERIVABILIDAD.

280

13.2.

Ecuaciones de Laplace.

Sea f (z) = u(x, y) + iv(x, y) derivable tal que u, v tengan derivadas de segundo orden
continuas
 
 
2 u C.R. v
v C.R. 2 u
2u 2u
=
=

=
+
=0,
(13.7)
=
x2
x y
y x
y 2
x2 y 2
analogamente
 
 
u C.R. 2 v
2v 2v
2 v C.R. u
=

=
+
=0.
(13.8)
=

x2
x y
y x
y 2
x2 y 2
Ambas ecuaciones, (13.7) y (13.8), corresponden a una ecuacion de Laplace bidimensional
para u y v respectivamente.
Notemos que | f 0 | = | A | corresponde a una dilatacion lineal, | f 0 |2 corresponde a una
dilatacion de area

  2  2

v
v
v
v u
(u, v)
u
u
u
C.R. u v
0 2
0 0
i
+i
+
=

=
,
|f | = f f =
=
x
x
x
x
x
x
x y x y
(x, y)
el cual corresponde al Jacobiano de la transformacion (x, y) (u, v).
Definici
on 13.5 La funcion f (z) es holomorfa en un dominio si en tal dominio existe f 0 (z).
Definici
on 13.6 La funcion f (z) es analtica si se puede expandir en serie de potencia.
Definici
on 13.7 Una funcion u(x, y) es armonica si satisface que
2u 2u
+
=0.
x2 y 2
Definici
on 13.8 La funcion f (z) es entera si es analtica en todo el plano z.
Teorema 13.1 Si u(x, y) es armonica entonces se puede construir f holomorfa.
f (z) = u(x, y) + iv(x, y) .

Demostraci
on Se busca v(x, y) tal que
u
v
=
,
x
y

v
u
=
.
x
y

Para que sea integrable se debe satisfacer


 
 
v
v
=
,
x y
y x
y puesto que v debe satisfacer Cauchy-Riemann
 
 
u
u
=
,
x x
y y

(13.9)

13.2. ECUACIONES DE LAPLACE.

281

Y esto es cierto por hipotesis, u es armonica, lo cual implica que v existe y por lo tanto f es
holomorfa.
q.e.d.

Ejemplo Sea u = y 3 3x2 y, probemos primero que esta funcion es armonica


2u
= 6y ,
x2

2u
= 6y .
y 2

Determinemos v,
u
= 6xy ,
x
usando Cauchy-Riemann
v
u
=
= 6xy = v(x, y) = 3xy 2 + (x) ,
x
y
con (x) arbitraria. Ahora bien,
v C.R. u
=
= 3y 2 + 3x2 = 3y 2 + 0 (x) ,
x
y
lo que implica una ecuacion para (x),
0 (x) = 3x2 = (x) = x3 + C .
De lo anterior determinamos v(x, y) = 3xy 2 + x3 + C, por lo tanto, f es holomorfa:
f (z) = y 3 3x2 y + i(x3 3xy 2 ) + C = iz 3 + c .

Ejemplo Consideremos f (z) = z = x iy = u + iv luego u(x, y) = x y v(x, y) = y, si


evaluamos sus derivadas
u
v
=1,
= 1 ,
x
y
claramente no satisface Cauchy-Riemann luego no existe f 0 .
Ejemplo Consideremos f (z) = z 2 = x2 y 2 + 2ixy = u + iv luego u(x, y) = x2 y 2 y
v(x, y) = 2xy, si evaluamos sus derivadas
u
= 2x ,
x
v
= 2x ,
y

v
= 2y ,
x
u
= 2y ,
y

por lo tanto, f 0 (x) existe. Evaluemosla


f 0 (z) =

u
v
v
u
+i
=
i
= 2x + i2y = 2z .
x
x
y
y

CAPITULO 13. DERIVABILIDAD.

282

Ejemplo Sea f (z) = z n para n = 1, 2, 3, . . . evaluemos su derivada



 
n
(z0 + h)n1 h + O(h2 ) h0 n
f
(z0 + h)n z0n
1
=
=

(z0 + h)n1 ,
h
h
h
1
es decir,
f 0 (z) = (z n )0 = nz n1 .

(13.10)

Cualquier polinomio o funcion racional es derivable


z
z2 z3
+
+
+ ... ,
1! 2!
3!
z
z2 z3
(ez )0 = 1 + +
+
+ . . . = ez .
1! 2!
3!
La derivada de las funciones trigonometricas
ez = 1 +

(sen z)0 = cos z ,

(13.11)

(13.12)

(cos z)0 = sen z .


Si definimos las funciones hiperbolicas mediante las series
z2 z4
+
+ ... ,
2!
4!
z3
z
+ ... .
senh z +
1! 3!
Su relacion con las funciones trigonometricas
cosh z 1 +

cosh iz = cos z
senh iz = i sen z

=
=

cos iz = cosh z ,
sen iz = i senh z .

(13.13)

(13.14)

La derivada de las funciones hiperbolicas,


(senh z)0 = cosh z ,

(13.15)

(cosh z)0 = senh z .


La derivada de la funcion logaritmo,
(ln z)0 =

1
.
z

(13.16)

La transformacion de Joukowsky,
1
f (z) =
2

1
z+
z


,

(13.17)

su derivada



1
1
(f (z)) =
1 2 .
2
z
La derivada es distinta de cero en todos los puntos salvo en z = 1.
0

(13.18)

HIDRODINAMICA

13.3. INTERPRETACION
DE LAS IDENTIDADES DE CAUCHY-RIEMANN.283
Proposici
on 13.1 Si 0 = 0 entonces (z) = (z) + cte.
u
u
=0=
.
x
y
Por lo tanto, u(x, y) = cte = c1 y v(x, y) = cte = c2 implica u + iv = cte lo que finalmente
significa que (z) = (z) + cte.
q.e.d.

Demostraci
on Consideremos f = = u + iv su derivada f 0 = 0 luego

13.3.

Interpretaci
on hidrodin
amica de las identidades
de Cauchy-Riemann.

Premisa: Sea f (z) = u + iv holomorfa implica f (z) = u iv.


Definici
on 13.9 El campo de velocidades asociado a f (z) es va su funcion conjugada
   
u
q

f (z) ~q =
= 1 .
(13.19)
v
q2
El campo es solenoidal e irrotacional
~ ~q = q1 q2 = u v C.R.
= 0,

x
y
x y


~ ~q = q1 q2 k = u v C.R.

= 0.
y
x
y x

(13.20)

Teorema 13.2 Si f = u + iv tiene primitiva F = U + iV en cierta region del plano entonces


cada lnea de flujo satisface
V (x, y) = cte.
(13.21)

Demostraci
o
n Consideremos
el movimiento de una partcula durante un intervalo t con

u
velocidad ~q =
v
(x0 + ut, y0 vt) + O(t2 )
%
(x0 , y0 )
tenemos
F 0 (z) =

V
V
+i
= f (x, y) = u + iv ,
y
x

luego
V
=u,
y

V
=v .
x

CAPITULO 13. DERIVABILIDAD.

284
Ahora bien,
V = V (x0 + ut, y0 vt) V (x0 , y0 )

V
V
ut +
(v)t = vut uvt = 0 ,
x
y

lo cual implica que V = cte en la lnea de flujo.


q.e.d.

Ejemplo Sea f (z) =

1
luego
z
f (z) =

Para ~q elegimos
q1 =
La primitiva de f (z) =

1
z

1
z
x
y
=
= 2 i 2 .

z
zz
r
r

cos
x
=
,
2
r
r

q2 =

sen
y
=
.
2
r
r

F (z) = ln z = ln | z | + i ,

luego
Im F (z) = cte. = = cte.

Im
= cte.
Re

Figura 13.2: Im F (z) = = cte.

Ejemplo Sea f (z) =

i
luego
z
f (z) =

Para ~q elegimos
q1 =

y
sen
=
,
2
r
r

i
y
x
= 2 +i 2 .
z
r
r
q2 =

x
cos
=
.
2
r
r

13.4. FAMILIAS ORTOGONALES.


La primitiva de f (z) =

285

i
z
F (z) = i ln z = i ln | z | ,

luego
Im F (z) = cte. = ln r = cte. = r = cte.

Im
r= cte.
Re

Figura 13.3: Im F (z) = ln r = cte.

13.4.

Familias ortogonales.

Sea f (z) holomorfa en una region,


f (x, y) = u(x, y) + iv(x, y) .
Consideremos las familias de curvas
u(x, y) = ,

v(x, y) = ,

con y R.

Variando y se obtienen las distintas familias.


Proposici
on 13.2 Estas familias de curvas son ortogonales, es decir, cada miembro de una
familia es ortogonal a cada miembro de la otra familia en el punto de interseccion.
Demostraci
on
Consideremos u(x, y) = 1 y v(x, y) = 1 arbitrarias. Tenemos que du = 0 = dv, luego la
pendiente de la curva u(x, y) = 1 definida como p1 la podemos evaluar a partir de
u
u u dy
dy
+
= 0 =
= ux = p1 .
x y dx
dx
y

CAPITULO 13. DERIVABILIDAD.

286

Im

u(x,y)= 1

v(x,y)= 1

u(x,y)= 2
u(x,y)= 3

v(x,y)= 2
v(x,y)= 3

Re

Figura 13.4: Familias de curvas ortogonales.

Analogamente la pendiente de la curva v(x, y) = 1 definida por p1


v
dy
v v dy
+
= 0 =
= vx = p1 .
x y dx
dx
y
Luego multiplicando ambas y usando Cauchy-Riemann
p 1 p 1 =

u v
x x
u v
y y

u v
y x
v u
x
y

= 1 .

Las curvas son ortogonales en los puntos de interseccion.


q.e.d.

Captulo 14
Integraci
on.
versi
on final 1.1, 26 de Mayo del 2003

14.1.

Definiciones

Sea (t) = 1 (t) + i2 (t) una funcion continua de la variable real t, con t1 t t2 , y
1 , 2 R.
Definici
on 14.1

t2

t2

(t) dt =
t1

t2

1 (t) dt + i
t1

2 (t) dt .
t1

Definici
on 14.2 Curva orientada, seccionalmente lisa
(
x = 1 (t)
,
t1 t t2 y (01 )2 + (02 )2 > 0.
z = (t)
y = 2 (t)
Si 01 (t), 02 (t) son continuas en el intervalo t1 t t2 la curva es lisa en tal intervalo.
Una curva seccionalmente lisa es aquella que admite saltos finitos una cantidad finita
de veces, discontinuidades de la funcion (t).
Orientacion:

seccin lisa
Figura 14.1: Curva seccionalmente lisa y orientada.

287


CAPITULO 14. INTEGRACION.

288

Se admite cambio de parametro t = (t) > 0 con 0 (t) > 0:


(t) = (( )) = ( ) ,
el intervalo t1 t t2 corresponde al intervalo 1 2 tal que t1 = (1 ) y t2 = (2 ).
Ejemplo Representacion parametrica de la curva
orientada , un cuadrado, z = (t)

Im
i

Re

+1

(1 + t) i

1 + i(t 3)
z=

(5 t) + i

1 + i(7 t)

0t2
2t4
4t6
6t8

Para cambiar la orientacion hacemos t t.


i

Figura 14.2: Curva parametrizada.


Ejemplo Representacion parametrica de la curva orientada , una circunferencia, mediante
la funcion z = (t)

Im

z = cos + i sen = ei ,

Re

con . Aqu la curva esta recorrida en el


sentido contrario a las agujas del reloj, tal sentido
lo consideraremos como el positivo.

+1

Figura 14.3: Otra curva parametrizada.


Definici
on 14.3 Curva cerrada sin puntos dobles es una curva parametrizada por (t) tal
que si t 6= t = (t ) 6= (t ), salvo en el lugar de la partida y de la llegada.

Las curvas se encuentran incrustadas en regiones. Estas pueden ser dominios abiertos.
Definici
on 14.4 Dominio simplemente conexo. Es un dominio abierto tal que toda curva
cerrada en el encierra solo puntos del dominio.
Una forma equivalente de definir un dominio simplemente conexo es decir que toda curva
cerrada se puede contraer de manera continua a un punto del dominio.

14.1. DEFINICIONES

289

Curva con puntos dobles.

Curvas sin puntos dobles.

Figura 14.4: Curva con y sin puntos dobles.

Ejemplo Consideremos la region | z | < 2. Claramente es un dominio simplemente conexo,


la curva que dibujamos puede contraerse de manera continua a un punto del dominio.

+2

Figura 14.5: Dominio simplemente conexo.

Pero no todos los dominios tendran esta propiedad. Podemos construir dominios que
no sean simplemente conexos, veamos el siguiente ejemplo en que claramente la curva que
dibujaremos sobre la region no puede contraerse a un punto del dominio.
Ejemplo Consideremos el dominio definido por : 0.95 < | z | < 2. Claramente este no es un
dominio simplemente conexo.

+2

Figura 14.6: Dominio no simplemente conexo.


CAPITULO 14. INTEGRACION.

290

Los dominios simplemente conexos no tienen lagunas. Por otro lado tenemos los dominios m
ultiplemente conexos como por ejemplo el de la figura 14.7.
Im

Re

Figura 14.7: Dominio m


ultiplemente conexo.

14.2.

Interior de una curva cerrada sin puntos dobles.

a) Interior definido y descrito por tres desigualdades lineales.

"x + "y< "




x+ y<

x + y >
Figura 14.8: Interior de curva I.

b) Interior descrito por cinco desigualdades lineales.

Figura 14.9: Interior de curva II.

14.3. RECORRIDO DEL CONTORNO DE UN DOMINIO.

291

c) Interior definido por aproximacion poligonal.




Figura 14.10: Interior de curva III.

Una curva cerrada sin puntos dobles tiene un interior bien definido.
Definici
on 14.5 Curva de Jordan es una curva lisa y cerrada, sin puntos dobles, puede o
no puede tener longitud finita.
Teorema 14.1 Teorema de Jordan. (Sin dem.)
Toda curva de Jordan, y por lo tanto, todo contorno cerrado, separa el plano en dos dominios los cuales tienen a los puntos como u
nicos puntos de bordes. Uno de estos dominios,
llamado interior de , es acotado y el otro, llamado el exterior de , es no acotado.

14.3.

Recorrido del contorno de un dominio.

Curva orientada: en cada lugar de la curva el conjunto de vectores tangenciales esta subordinado en una clase positiva y una clase negativa. Definida la clase positiva la curva esta orientada.
Situaciones:
1. Considere el triangulo de la figura
Los dos vectores que definen los dos lados del triangulo de la figura 14.11, son ~a =
(a1 , a2 ) y ~b = (b1 , b2 ). Si evaluamos el area orientada A del triangulo:






(~a ~b)
1 a1 a2 a1 b2 a2 b2
=
.
=
2
2 b2 b1
2
Si esta area resulta positiva se dice que el contorno recorrido en el sentido de ~a, ~b tienen
orientacion positiva. Los vectores ~a, ~b definen un recorrido del contorno:
Recorrido positivo si det(~a, ~b) > 0,
Recorrido negativo si det(~a, ~b) < 0.


CAPITULO 14. INTEGRACION.

292


>
a

Figura 14.11: Triangulo.




Figura 14.12: Curva cerrada.

2. Considerar una curva cerrada sin puntos dobles (fig. 14.12), x = x(t) e y = y(t).
Si
1

Area
incluida =
2

(
I
x x0
> 0 recorrido positivo


y y 0 = < 0 recorrido negativo

3. Si consideramos el polgono
Es el mismo caso que la situacion 2.
Ejemplo Consideremos la curva z = eit con t , el area es:

Z
1 cos t sen t

dt = > 0 ,
Area incluida =
2 sen t cos t
<

luego la curva cerrada tiene recorrido positivo.

14.4. INTEGRALES DE LINEA EN EL PLANO COMPLEJO.

293

Figura 14.13: Polgono.

Notemos el cambio de orientacion al sustituir t t, se tiene z = eit con t



Z
1 cos t sen t

Area incluida =
dt = < 0 ,
2 sen t cos t
en este caso la curva cerrada
tiene orientacion negativa.
<
Tambien podemos cambiar la orientacion al recorrerla al reves,

Z
cos t sen t
1


dt = < 0 .
Area
incluida =
2 + sen t cos t

14.4.

Integrales de lnea en el plano complejo.

Sea f continua definida en cierta region


Definici
on 14.6 La integral de lnea de la funcion f entre los puntos a y b a traves de la
curva , fig. 14.14, queda definida por
Z
X
f (z) dz = lm f ( ) z ,
0

donde 0 significa que subdividimos cada vez mas fino el camino.


Definici
on 14.7 La integral de lnea de la funcion f entre los puntos a y b a traves de la
curva parametrizada por la funcion (t), queda definida por
Z

f (z) dz =

t2

t2

f ((t)) (t) dt =
t1

t1

f (1 (t) + i2 (t))(01 (t) + i02 (t)) dt ,


CAPITULO 14. INTEGRACION.

294

z1 z
2

zk

zn1

zk1
x

Figura 14.14: Camino en el plano complejo.

donde 0 (t) = d(t)/dt. Esta definicion es invariante a un cambio de parametro, en efecto


sea t = ( )
Z
Z 2
Z 2
0
0
f (z) dz = f ((( ))) (( )) ( ) d = f (( ))0( ) d ,
1

donde hemos definido ( ) = (( )).


Proposici
on 14.1
Z


f L Max | f | ,

(14.1)

donde L es la longitud de la curva y Max | f | es el maximo del modulo de la funcion sobre


la curva .
Demostraci
on


Z
X

X




f = lm
f
(
)z

l
m
| f ( )z |

lm

z Max | f |

LMax | f | .
q.e.d.
Ejemplo
La curva puede ser parametrizada por z = eit con 0 t . Integremos f (z) = z 2
sobre . Como z = eit entonces z 2 = e2it y dz = ieit dt.


Z
Z
Z
1
1
2
1 3it
2
2it it
3it
= (e3i e0 ) = (1 1) = .
z dz = e ie dt = i e dt = i 3i e
3
3
3
0
0
0

14.4. INTEGRALES DE LINEA EN EL PLANO COMPLEJO.

295

+1

Figura 14.15: Camino .

D


+1

Figura 14.16: Camino cerrado .

Ejemplo La curva (fig. 14.16), puede ser parametrizada por z = eit con t .
Integremos f (z) = 1/z sobre . Notemos que D no es un dominio de conexion simple para
1/z. Como z = eit entonces 1/z = eit y dz = ieit dt.
Z
Z
Z
1
it it
z dz = e ie dt = i dt = 2i = 2i coef. de z1 .

Ejemplo Consideremos la curva (fig. 14.17), cuya representacion parametrica es z = a+eit


con t .
dz
1
Como z = (t) = a + eit entonces
= 0 (t) = ieit . Integremos la funcion f (z) =
dt
za
sobre esta curva :
I
Z it
dz
ie dt
1
=
= 2i = 2i coef. de
.
it
za
e
| za |==1 z a
Notemos que este resultado vale para toda curva , crculo, centrada en a no importando el
radio . Si consideramos como el crculo de radio 0 la integral queda
I
Z
Z it
dz
i0 eit dt
ie dt
=
=
= 2i .
it
it
| za |=0 z a
0 e
e


CAPITULO 14. INTEGRACION.

296

Im

Re
Figura 14.17: Camino cerrado .

Proposici
on 14.2 Sea f holomorfa en cierto dominio simplemente conexo. Sea F la
primitiva, entonces la integral
Z

f (z) dz = F (b) F (a) ,

(14.2)

es independiente del camino .


Demostraci
on
Z t2
Z
0
f ((t)) (t) dt =
t1

t2

t1

dF ((t))
= [F ((t))]tt21 = F ((t2 )) F ((t1 )) = F (b) F (a) .
dt
q.e.d.

Consecuencia: En tales circunstancias se tiene

f = 0.

Ejemplo Integremos f (z) = z 2 en el camino cerrado, fig. 14.16. La curva puede ser
parametrizada por z = eit , con t .


Z
I
Z
1 3it
1
1
3it
2
2it it
z dz =
= (e3i e3i ) = (1 1) = 0 .
e dt = i
e ie dt = i
e
3i
3
3

Usando la primitiva
z3
z dz =
3

1
=
1

1 1

=0.
3
3

14.4. INTEGRALES DE LINEA EN EL PLANO COMPLEJO.

297

Teorema 14.2 Teorema de Cauchy. (Sin dem.)


Sea f holomorfa en un dominio de conexion simple D y una curva cerrada dentro de
D, entonces
I
f =0.

(14.3)

Notemos que
Z

f (z) dz = (u + iv)

dx
dy
+i
dt
dt


dt ,

donde u = u(x(t), y(t)) y v(x(t), y(t)). La invariancia frente a un cambio de parametro permite
simplificar el dt.
Z
Z
Z

f (z) dz = (udx vdy) + i (udy + vdx) ,

donde las condiciones de integrabilidad son:


u
v
=
,
x
y

u
v
=
.
y
x

Premisas:
1. Conexion simple.
2. Condicion de integrabilidad.
3. Continuidad de las derivadas parciales.
Todo lo anterior implica independencia del camino.
Proposici
on 14.3 Si f es continua en D (de conexion simple) y si la integral
Z z
f (z 0 ) dz 0 = F (z) ,
a

es independiente del camino, entonces existe F 0 = f .


Demostraci
on
Z
F (z0 +h)F (z0 ) =

z0 +h

Z
f () d

z0

z0 +h

f () d =

Z
f () d = hf (z0 )+

z0

con R() = f () f (z0 ). Acotemos el u


ltimo termino de la derecha
Z z0 +h




R() d h Max | R | .

z0

Luego
F (z0 + h) F (z0 )
= f (z0 ) + ,
h

z0 +h

z0

R() d d ,


CAPITULO 14. INTEGRACION.

298
donde
=


R

z0 +h
z0 R() d

h0

Max | R | 0 ,

por lo tanto 0 si h 0.
q.e.d.

14.5.

Evaluaci
on de integrales impropias reales.

Damos por conocida la integral

x2

.
2

dx =

(14.4)

Se buscan las integrales de cos(x2 ) y sen(x2 ):

b+ib

ib



III

II

Figura 14.18: Camino cerrado .

Evaluaremos
Z

b+ib

exp(z 2 ) dz ,

sobre diferentes caminos.


Notemos que
Z

z 2

Z
dz =

x2

.
2

dx

(14.5)

Ademas,
Z
=
III

(14.6)

II

Afirmamos que la integral sobre la curva III es despreciable. Demostracion: sea z = b + it


con 0 t b y dz/dt = i luego
Z

z 2

e
II

Z
dz = i

b
2

exp((b + it) ) dt = i
0

2 b2

et

e2ibt dt ,


14.6. FORMULA
INTEGRAL DE CAUCHY.

299

notemos que t2 bt = et ebt , se tiene



Z b
Z
Z b

bt b


2
2 e
2 b2 2ibt
2

b
bt
b
t
z
dt e
= eb2

e dt = e
e dz
e e e

b 0
0
II
0

eb 1
b

!
b

0 .

(14.7)
Consideremos ahora la curva III, la parametrizacion z = (1 + i) con 0 b y
dz
2
2
= 1 + i, ademas notemos que (1 + i)2 = 2i, tal que ez = e2i . Luego
dt
Z
Z b
Z b
Z b
z 2
2
2
2
2
e dz = (1+i)
(cos 2 i sen 2 ) d =
(cos 2 +sen 2 ) d +i
(cos 2 2 sen 2 2 ) d .
III

(14.8)
Luego en el lmite b y usando (14.5), (14.6), (14.7), (14.8) tenemos que
Z

z 2

e
III

Z
dz =

b
2

b
2

(cos 2 sen 2 ) d =

(cos 2 + sen 2 ) d + i
0

el resultado es real, luego la parte imaginaria se anula por lo tanto


Z
Z
2
cos 2 d =
sen 2 2 d .
0

,
2

(14.9)

(14.10)

usando (14.9) y (14.10) tenemos

cos 2 d =
0

,
2

(14.11)

haciendo el cambio de variable 2 2 = x2 tal que 4 d = 2xdx de manera tal que d =


y reemplazando en (14.11)

2
dx
2

Z
1
2
cos x2 dx =
,
2 0
4

finalmente
Z
0

1
cos x dx =
2
2

(14.12)

conocida como la Integral de Fresnel.

14.6.

F
ormula integral de Cauchy.

Proposici
on 14.4 Sea una curva cerrada sin puntos dobles y de orientacion positiva,
incrustada en un dominio D de conexion simple, en el cual f es holomorfa, y sea a un punto
de D, entonces
I
1
f (z)
f (a) =
dz
(14.13)
2i z a


CAPITULO 14. INTEGRACION.

300

Lo anterior muestra que el valor de una funcion que es holomorfa en una region esta determinado en toda la region por el valor que toma en los bordes.
Demostraci
on La integral es
I
I
I
f (z)
f (a)
f (z) f (a)
dz =
dz +
dz
za
za
za

Figura 14.19: Camino .


El dominio es de conexion simple, luego
I
Z
Z
+ +
=0,

la segunda integral se anula resultando


I

Z
=

Tenemos de esta manera


I

(14.14)

I
=

(14.15)

I
f (a)
f (z) f (a)
dz +
dz
za
za

I
f (z) f (a)
= f (a)2i +
dz .
za

f (z)
=
za

Acotemos la segunda integral:


I
I

f (z) f (a)
| f (z) f (a) |
| f (z) f (a) |

dz
dz L Max
,

za
|z a|
|z a|

siendo | z a | = se tiene L = 2. Ademas, tomando suficientemente peque


no podemos

hacer | f (z) f (a) | <


donde > 0 tan peque
no como se quiera luego
2
I

f (z) f (a)

dz 2
=.

za
2


14.6. FORMULA
INTEGRAL DE CAUCHY.

301

Luego
I

f (z)
dz = f (a)2i
za

(14.16)
q.e.d.

Tenemos pues:

si derivamos

1
f (z) =
2i

1
f (z) =
2i

00

f ()
d ,
z
f ()
z

n!
(z) =
2i

z punto interior de .

1
d =
2i

f ()
d .
( z)2

000

Existen f , f , . . .
f

(n)

f ()
d
( z)n+1

(14.17)

Teorema 14.3 (de Morera)


Sea f funcion continua en un dominio D de conexion simple. Si para todo camino cerrado
arbitrario , en D vale
I
f (z) dz = 0 ,

entonces f es holomorfa en D.
Demostraci
on

f = F (z) = F 0 (z) = f = F 00 = f 0 , . . .

la primera igualdad es debido a la independencia del camino y el implica es debido a la


proposicion que dice que existe F 0 = f . Todo lo anterior implica f holomorfa.
q.e.d.

302

CAPITULO 14. INTEGRACION.

Captulo 15
Series de Potencias.
versi
on final 1.3, 2 de Junio del 2003

15.1.

Series y radio de convergencia.

Consideramos la serie infinita de potencias como el lmite de las sumas parciales

a (z z0 ) = lm

=0

n
X

a (z z0 ) ,

=0

donde z0 es el centro de expansion.


Ejemplos:
1. Una serie divergente

(z) .

=0

2. La serie geometrica
1 + z + z2 + . . . + zn =

1 z n+1
1
z n
=

z .
1z
1z 1z

Si | z | < 1 el segundo termino tiende a cero cuando n


3. La definicion de la funcion exponencial

X
(z)
=0

exp(z) .

Converge para todo z.


4. Otra serie divergente

!(z) ,

=0

jamas converge.
303

(15.1)

CAPITULO 15. SERIES DE POTENCIAS.

304

Teorema 15.1 Sea


=0 a (z) una serie que converge en ciertos puntos z 6= 0, pero que
diverge en otros. Existe entonces un r > 0 tal que para | z | < r la serie converge absolutamente
y para | z | > r la serie diverge.
Demostraci
on Usando el criterio de la raz, la convergencia absoluta esta garantizada si
p
n
n
| an z | k < 1, desde cierto n en adelante, esto dice:
|z|

p
n

| an | k ,

| z | lm

p
n

| an | < 1 ,

luego
|z| <

lm

1
p
n

| an |

r,

convergencia garantizada.
La divergencia se tiene si
|z|

p
n

| an | k > 1 ,

de cierto n en adelante, luego


lm

p
n

| an z n | > 1 ,

|z|

1
>1,
r

|z| > r .

La divergencia esta garantizada.


q.e.d.
Sobre el borde se debe realizar un analisis caso a caso. Veamos algunos ejemplos en relacion
con esto:
Ejemplos:
1.

z , no converge para | z | = 1.

=0

2.

X
z
=0

, el radio de convergencia es r = lm

z=1 :
z = 1 :

3.

=0

n = 1, sobre el radio

1 1 1
+ + + ...
2 3 4
1 1 1
1 + + + . . . = log 2
2 3 4

+1+

X
z

, el radio de convergencia es r = lm
2

diverge
converge

n2 = 1 converge para todo | z | = 1 ,

X
1
1 1
1
2
=
1
+
+
+
+
.
.
.
=
.
2
4 9 16
6
=0

15.1. SERIES Y RADIO DE CONVERGENCIA.

305


z
1
Esta serie funciona como mayorante convergente, ya que 2 2 para todo | z | 1.

X
X
z
z


Por lo tanto, si
converge absolu 2 converge sobre el borde implica que
2
=0
=0
tamente sobre el borde.
Consideremos la sucesion senn x para n = 1, 2, 3, . . . con 0 x .

1
n=1

/2

Figura 15.1: Sucesion senn x.

Existe

1 si x =
2
lm senn x =
n

0 si x 6=
2
No existe convergencia uniforme. Es decir, la convergencia es no uniforme.
Consideremos

fn (z) = f (z)

para todo z D.

(15.2)

n=0

La convergencia nos dice que dado un tan peque


no como se quiera existe un N tal que
n+p

X



f (z) < ,

=n

para todo n > N (z) y para todo p 0. La convergencia es uniforme si N (z) es independiente
de z.
Proposici
on 15.1 Un criterio (o condicion) suficiente para la convergencia uniforme: basta
la existencia de una mayorante
convergente. Si enPD cada f (z) cumple con | f (z) | c , con
P
c 0 constantes, y si c converge entonces f (z) converge uniformemente en D.

CAPITULO 15. SERIES DE POTENCIAS.

306
Demostraci
on

X
X
X


| f (z) |
c < ,
f (z)
| Rn (z) | =

=n
=n
=n
para todo n suficientemente grande.
q.e.d.

r = radio de convergencia
= radio de convergencia
uniforme

Figura 15.2: Radios de convergencia.

Teorema 15.2 Toda serie de potencia converge uniformemente en un crculo concentrico a


su crculo de convergencia, pero con un radio menor.
Demostraci
on

a z tenga radio de convergencia r. Sea 0 < < r, para | z1 | < se

=0

tiene

X
X


a z1
| a | < ,

=n
=n
para n suficientemente grande. Notemos que es independiente de z. La serie
corresponde a la mayorante convergente.

=n

| a |
q.e.d.

15.2.

Propiedades.

Sean f holomorfas en D (abierto). Sea


subdominio cerrado de D, entonces:

Proposici
on 15.2 La funcion f es continua.

f = f uniformemente convergente en todo

15.2. PROPIEDADES.

307

Demostraci
on


X
X


f (z)
f (z0 )
| f (z) f (z0 ) | =

=0
=0




n1

X
X

X




f (z0 ) < ,
f (z) +
(f (z) f (z0 )) +

=0

=n
=n
Si cada uno de los terminos lo acotamos por /3, tomamos un n suficientemente grande y
hacemos z z0 .
q.e.d.
Proposici
on 15.3 Afirmamos que
Z
Z X

Z
X
f=
f =
f .

Demostraci
on

=0

Z X

Z
f=

f =

=0

Z X
n1

=0

f +

(15.3)

Z X

=0

f ,

=n

luego
Z
f

Z X
n1
=0

f =

Z X

f ,

=n

podemos intercambiar la suma finita con la integral


Z X
Z

n1 Z
X
f
f =
f .

=0

=n

Tomando modulo a ambos lados


Z

Z
n1 Z


X

X
X



f
=
f

LM
a
x
f ,
f

=0
=n
=n
donde L es el largo del camino y cuando n es suficientemente grande el maximo puede ser
reemplazado por .
Z

n1 Z


X


f

f

L ,


=0
tomando el lmite n tendiendo a infinito
Z

n1 Z


X


lm f
f = 0 .
n

=0
q.e.d.

CAPITULO 15. SERIES DE POTENCIAS.

308

Proposici
on 15.4 La funcion f es holomorfa y f 0 = (

f )0 =

f0 .

Demostraci
on Sea una curva cerrada con su interior en D.
I
I X

I
X
f =
f=
f = 0 ,

=0

=0

por lo tanto, por el teorema de Morera f es holomorfa. Ademas,


I
I P
1
f ()
1
0
=0 f ()
d =
d .
f (z0 ) =
2
2i
( z0 )
2i
( z0 )2
La sumatoria converge uniformemente sobre la curva, luego
I

X
X
1
f ()
0
f (z0 ) =
d =
f0 (z0 ) .
2
2i
(

z
)
0

=0
=0
q.e.d.
Consideremos
f (z) =

a z ,

(15.4)

=0

con radio de convergencia r. la funcion f es holomorfa y continua en | z | < r, su derivada


!0

X
X
a z 1 .
(15.5)
f 0 (z) =
a z =
=0

=0
0

Afirmamos que el radio de convergencia r de f es igual a r.


Demostraci
on
i)

r0 r porque se ha visto que la convergencia de


P
0
zD f (z).

ii)

r0 r porque losp
coeficientes | a | son mas grandes que los coeficientes a . Recordemos
n
que = lmn 1/ | an |

zD

f (z) implica la convergencia de

q.e.d.
Consideremos la serie

a z con radio de convergencia r, esta serie representara a una

=0

funcion holomorfa f (z) dentro del crculo de convergencia. La derivacion termino a termino
es lcita y el radio de convergencia sigue igual. Se tiene:
f 0 (z) =

a z 1 ,

=1

f (p) (z) =

X
=p

( 1)( 2) ( p + 1)a z p ,

15.2. PROPIEDADES.

309

haciendo el cambio de ndice de suma = p luego = + p tenemos


f

(p)

(z) =

( + p)( + p 1)( + p 2) ( + 1)a+p z

=0

p!
,
p!

compactando
f

(p)

(z) = p!



X
+p
p

=0

a+p z

(15.6)

Esta serie conserva el mismo radio de convergencia que la original. En el caso particular z = 0
tenemos
f (n) (0) = n!an ,
despejando el coeficiente an tenemos
1
1
an = f (n) (0) =
n!
2i

I
| |=<r

f ()
d .
n+1

Podemos a partir de esta ecuacion acotar el modulo del coeficiente an


| an |

Max| |= | f |
1
,
2
2
n+1

finalmente
| an |

M ()
n

(15.7)

donde M () = Max| z |= | f |. Esta relacion, (15.7), es conocida como la Desigualdad de Cauchy.


Hemos observado propiedades de las series, cuyos terminos son funciones holomorfas, para
representar funciones holomorfas.
Sea ahora f (z) holomorfa en la vecindad de z0 = 0, | z | < r0 . Consideremos

1 1
1 X z
1
=
=
.
z
1 z
=0

Esta serie converge en | z | < | |. Luego

X z
1
=
,
z
+1
=0
converge uniformemente en | z | q < | |, usando uno de los teoremas anteriores. Por Cauchy
1
f (z) =
2i

I
| |=

X
f ()
d =
z
z
=0

1
2i

I
| |<

f ()
d
+1


,

CAPITULO 15. SERIES DE POTENCIAS.

310
lo que podemos reescribir como
f (z) =

X
f (0)
=0

(15.8)

Lo que corresponde al desarrollo de Maclaurin de f (z). A continuacion formalizaremos un


poco mas todo esto mediante el siguiente teorema.
Teorema 15.3 Si la funcion f (z) es holomorfa en una vecindad de z0 entonces
f (z) =

X
f (z0 )
=0

(z z0 ) ,

Taylor.

(15.9)

Basta poner ( z0 ) (z z0 ) en los desarrollos anteriores. Con z0 = 0 obtenemos Maclaurin.


Teorema 15.4 De identidad
o unicidad.

X
X

b (z z0 )
a (z z0 ) con radio de convergencia r1 > 0 y
Consideremos las series
=0

=0

con radio de convergencia r2 > 0. Si sus sumas coinciden para todos sus puntos en una
vecindad de z = z0 entonces son identicas.
Demostraci
on Si z = z0 entonces a0 = b0 . Supongamos que hemos probado ak = bk para
k = 0, . . . , m, entonces tenemos
am+1 + am+2 (z z0 ) + . . . = bm+1 + bm+2 (z z0 ) + . . . .
Puesto que esta serie es continua podemos hacer z z0 obteniendo am+1 = bm+1 .
q.e.d.

1
Ejemplo Sea f (z) = log z, como f (z) = = log z =
z
0

Z
1

centro en 1
Figura 15.3: Region simplemente conexa Re(z) > 0.

15.2. PROPIEDADES.

311

Expandamos en serie el inverso de z

X
X
1
1
=
=
(1 z) =
(1) (z 1) ,
z
1 (1 z) =0
=0
integrando la ecuacion anterior
log z =

(1)

=0

1
1
(z 1)+1
= (z 1) (z 1)2 + (z 1)3 + . . . .
+1
2
3

(15.10)

Esta expansion es u
nica. Notemos que no se incluye una constante de integracion tal que
log 1 = 0. Podemos evaluar en un punto sobre el borde
log 2 = 1

1 1 1 1
+ + +... .
2 3 4 5

Cuando se conoce que f (z) es holomorfa en todos los puntos de un crculo 0 la convergencia de la serie esta garantizada, no es necesario hacer una prueba para la convergencia.
El maximo radio de 0 es la distancia desde el centro z0 de la expansion al punto singular
de f mas cercano a z0 , ya que la funcion debe ser holomorfa en todo el crculo. Ver figura
15.3.
Ejemplos:
z

X
z

|z| <

(15.11)

z 21
(2 1)!

|z| <

(15.12)

z 2
(2)!

|z| <

(15.13)

z 21
(2 1)!

|z| <

(15.14)

X
z 2
cosh z = 1 +
(2)!
=1

|z| <

(15.15)

|z| < 1

(15.16)

|z| < 1

(15.17)

e =1+

=1

sen z =

(1)+1

=1

cos z = 1 +

(1)

=1

senh z =

X
=1

X
1
=
z
1z
=0

X
1
=
(1) z
1+z
=0

CAPITULO 15. SERIES DE POTENCIAS.

312

z
por medio de una serie de potencias
(z 1)(z 3)
positivas y negativas de (z 1) que converge a f (z) cuando 0 < | z 1 | < 2.
Ejercicio Representar la funcion f (z) =

Figura 15.4: Region de convergencia.

X
(z 1)n1
1
.
Solucion: f (z) =
3
2(z 1)
2n+1
n=1

15.3.

M
aximos, mnimos y funciones arm
onicas.

Teorema 15.5 Una funcion holomorfa en z0 no puede tener all un maximo de su valor
absoluto salvo en el caso que f = cte.
Demostraci
on (1ra ) En la vecindad de z0 tenemos
f (z) = a0 + a1 (z z0 ) + a2 (z z0 )2 + . . . ,
con alg
un radio de convergencia r. Supongamos que por lo menos uno de los coeficientes
siguientes a a0 es no nulo. Sea am con m 1 el primero de estos coeficientes
f (z) = a0 + am (z z0 )m + am+1 (z z0 )m+1 + . . . ,
con a1 = a2 = . . . = am1 = 0. Sea
a0 = Aei ,

am = Bei ,

z z0 = ei ,

con 0 < < r. De este modo


f (z) = Aei + Bei m eim + am+1 (z z0 )m+1 + . . . .
Busquemos una direccion donde crezca | f (z) |. Tomamos tal que + m = , entonces
f (z) = (A + Bm )ei + am+1 (z z0 )m+1 + . . . ,

15.3. MAXIMOS,
MINIMOS Y FUNCIONES ARMONICAS.

313

tomemos el modulo a ambos lados


| f (z) | A + Bm | am+1 | m+1 . . .
A + m [B (| am+1 | + . . .)] .
Tomamos tan peque
no de modo que (| am+1 | + . . .) <
| f (z) | > A +

B
,
2

Bm
Bm
= | f (z0 ) | +
.
2
2

Lo cual implica | f (z) | > | f (z0 ) | para todo punto suficientemente cercano a z0 .
q.e.d.
Principio de modulo maximo: El modulo maximo de una funcion holomorfa en una region
cerrada, se encuentra siempre sobre la frontera de la region.
Demostraci
on (2da ) Escribamos f (z0 ) a partir de la formula integral de Cauchy
1
f (z0 ) =
2i
tomamos modulo a ambos lados

I
1
f ()
| f (z0 ) | =
2i | z0 |= z0

I
| z0 |=

f ()
d ,
z0


I
I

1
|
f
()
|
1

d =
| f () | d .
2
| z0 |
2

Supongamos que | f (z0 ) | | f (z) | en cierta vecindad de z0 . Si un punto sobre el borde,


| z z0 | = fuese | f (z) | < | f (z0 ) | entonces en una parte del borde
I
I
1
1
| f () | d <
| f (z0 ) | d = | f (z0 ) | ,
| f (z0 ) |
2
2
contradiccion.
q.e.d.
Consideremos ahora funciones armonicas, escribimos f (z0 ) = u(x0 , y0 ) + iv(x0 , y0 ). Por
otra parte, de la formula integral de Cauchy tenemos
I
1
f ()
f (z0 ) =
d .
2i circunf. z0
Parametricemos la circunferencia centrada en z0 y de radio por = z0 + eit , donde
t , la diferencial d = ieit dt, luego
1
f (z0 ) =
2i

f (z0 + eit )ieit dt


1
=
it
e
2

f (z0 + eit ) dt .

CAPITULO 15. SERIES DE POTENCIAS.

314

Lo cual corresponde al promedio de f sobre la curva. Usemos ahora la expresion de f en


funcion de u y v
Z
1
f (z0 ) =
[u(x0 + cos t, y0 + sen t) + iv(x0 + cos t, y0 + sen t)] dt .
2
Comparando parte real y parte imaginaria tenemos
Z
1
u(x0 , y0 ) =
u(x0 + cos t, y0 + sen t) dt
2
Z
1
v(x0 + cos t, y0 + sen t) dt .
v(x0 , y0 ) =
2
Si tomamos el arco como el parametro s = t con dt =
1
u(x0 , y0 ) =
2

ds
tenemos

s=

uds ,
s=

lo cual es el promedio. Si u = cte sobre la circunferencia entonces u(x0 , y0 ) = u.


En el centro z0 = (x0 , y0 ) las funciones u y v no pueden tomar maximos ni mnimos salvo
en el caso que ellas sean constantes. Usemos u para el analisis pero es claramente valido para
v. Por ser u armonica satisface
2u 2u
2u
2u
+
= 0 =
= 2 .
x2 y 2
x2
y
Por lo tanto, la expresion
2u 2u

0,
x2 y 2
esto excluye maximos y mnimos en el sentido estricto. Solo podemos tener puntos de ensilladura.

15.4.

N
umeros de Bernoulli.

Consideremos la funcion
ez

z
=
1

1
z
=
.
2
z
z
1
z
z2
+
+ +
+
1 + 1 + +
1! 2!
1! 2! 3!

Es holomorfa en z = 0 luego permite un desarrollo en serie con centro en z = 0.

X B
z
B1
B2 2
=
B
+
z
+
z
+
.
.
.
=
z .
0
ez 1
1!
2!
!
=0

(15.18)

Los Bi son conocidos como los n


umeros de Bernoulli. La ecuacion (15.18) corresponde a una
generalizacion a variable compleja de la ecuacion (8.137).


15.4. NUMEROS
DE BERNOULLI.

315

Podemos encontrar las relaciones de recurrencia para los Bi a partir de la identidad



 

B1
B2 2
z
z2
z ez 1
= 1 = B0 +
z+
z + ... = 1 + +
+ ...
ez 1 z
1!
2!
1! 2!




1
B1
Bn 1
Bn1
1
1
=1+ 1 +
z + ... +
+
+ ... +
zn + . . . .
2!
1!
n! 1! (n 1)! 2!
(n + 1)!
Obtenemos

Bn 1
Bn1
1
1
+
+ ... +
=0.
n! 1! (n 1)! 2!
(n + 1)!

Los n
umeros de impares B2n+1 = 0 para n 1 como ya probamos en la seccion 8.10, en esa
misma seccion listamos los primeros n
umeros de Berrnoulli en la tabla 8.1 que reproducimos
a continuacion.
n Bn
Bn
0
1 1.0000 00000
1 12 -0.5000 00000
1
2
0.1666 66667
6
1
3 30 -0.0333 33333
1
4
0.0238 09524
42
1
5 30 -0.0333 33333
5
6
0.0757 57576
66
Cuadro 15.1: N
umeros de Bernoulli
Ejemplo Encuentre el desarrollo en serie de potencias positivas y negativas de cot z en torno
a z = 0.
eiz + eiz
(e2iz 1) + 2
cos z
=
i
,
= i iz
cot z =
sen z
e eiz
e2iz 1
luego multiplicando por z,
z cot z = iz +

2iz
B2
22 B2 2 24 B4 4
2
=
iz
+
1
+
B
(2iz)
+
(2iz)
+

=
1

z +
z + .
1
e2iz 1
2!
2!
4!

Dividiendo por z tenemos

cot z =

1 X 22 B2 21

z
z =1 (2)!

Existe un desarrollo similar para tan z?

(15.19)

316

CAPITULO 15. SERIES DE POTENCIAS.

Captulo 16
Prolongaci
on Analtica.
versi
on final 1.3, 05 de Junio del 2003

16.1.

Definiciones.

Definici
on 16.1 El conjunto T es un conjunto acotado si existe un tal que | z | < z T .
Definici
on 16.2 El conjunto T es un conjunto no acotado si > 0 habra z T tal que
| z | > .

Figura 16.1: Conjunto acotado.

Definici
on 16.3 El punto es punto lmite del conjunto T si dado cualquier > 0 tan
peque
no como se quiera, existe en cantidad infinita de z T tal que | z | < .

z0

Figura 16.2: Punto lmite.


El punto es punto lmite del conjunto T si cada vecindad de contiene puntos, distintos
de , del conjunto.
317

ANALITICA.
CAPITULO 16. PROLONGACION

318

Definici
on 16.4 El punto T es un punto aislado de T si existe una vecindad en torno
a que no contiene otros puntos de T .
Definici
on 16.5 El punto T es un punto interior de T si existe una vecindad en torno
a cuyos puntos esten en T . Los puntos interiores son siempre puntos lmites.
Definici
on 16.6 El punto es un punto exterior de T si y una vecindad en torno a no
pertenecen a T .
Definici
on 16.7 El punto es un punto de la frontera de T si en toda vecindad en torno
a hay por lo menos un punto que pertenece a T y por lo menos un punto que no pertenece
a T . El punto puede o no pertenecer al conjunto T .
Definici
on 16.8 El conjunto T es un conjunto cerrado si contiene a todos sus puntos lmites.
Por ejemplo, | z | 1.
Definici
on 16.9 El conjunto T es un conjunto abierto si z T es punto interior. Por
ejemplo, 0 < | z | < 1.

16.2.

Lema de Heine-Borel

Sea T un subconjunto del plano, acotado y cerrado. Si todo punto z T esta recubierto
por al menos un crculo Cz entonces basta una cantidad finita de crculos para recubrir todo
el conjunto T .
Demostraci
on
Supongamos que se requiere una cantidad infinita
de crculos para recubrir T .
Encerrando a T en un cuadrado Q1 subdividimos a
Q3
Q1
este
cuadrado en cuatro partes de las cuales consideraT
mos una llamada Q2 . El subconjunto T queda con una
parte en cada cuadrado y por definicion la cerramos.
Puesto que se requiere una cantidad infinita de crculos
para cubrir T , tambien se requerira una cantidad infinita para por lo menos una de las subdivisiones. ProseFigura 16.3: Lema de Heine-Borel I. guimos construyendo una sucesion de cuadrados encajados: Q1 , Q2 , Q3 ,. . . ,Qn ,. . . cada uno conteniendo
un subconjunto de T que requiere de una cantidad infinita de crculos para su recubrimiento.
Esto no puede ser as si T es cerrado.
Si el encaje de cuadrados se contrae a un punto, llamemoslo . el punto T es un
punto lmite de T , (T es cerrado). Por lo tanto, esta recubierto por uno de los crculos en
cuestion, sea C este crculo. Ahora bien, si p se elige tal que la diagonal de Qp es menor
que la distancia de a la circunferencia, entonces todos los puntos dentro de Qp ya estan
recubiertos por el crculo C y sin embargo se supuso que una cantidad infinita de crculos se
necesita para recubrir estos puntos, contradiccion.
q.e.d.
Q2

16.3. TEOREMA DE IDENTIDAD.

319

Figura 16.4: Lema de Heine-Borel II.

16.3.

Teorema de identidad.

Si dos funciones f y g son holomorfas en un dominio abierto y conexo D, y si ellas


coinciden en una vecindad de un punto z0 D, o a lo largo de un segmento que termina
en z0 , o en un n
umero infinito de puntos distintos con punto lmite en z0 , entonces las dos
funciones son iguales en todo D.
Demostraci
on
Ambas funciones pueden expandirse con
D
centro en z0 . Por el teorema de identidad para las series de potencia ambas expansiones

son identicas, por lo tanto, f = g dentro del


crculo K0 .
Consideremos ahora un punto arbitrario
zn
D debemos mostrar que tambien en ese
punto f () = g(). Conectemos z0 con con
un camino contenido completamente en D.
Sea > 0 la distancia mnima del camino
al borde de D. Subdividamos el camino en
crculo K1
segmentos cuyas longitudes sean menores que
z0
. Se definen as los puntos z1 , z2 , . . . , zn , . . ..
crculo K0
Dibujemos los crculos maximos centrados
en estos puntos. Es claro que los radios de
Figura 16.5: Teorema de identidad.
estos crculos son todos mayores o iguales a .
Por lo tanto, cada crculo contiene el centro del siguiente. Expandimos ahora f y g en estos
nuevos centros z . En cada caso las series convergen dentro del crculo K . Vimos que f = g
en K0 por lo tanto, f (z1 ) = g(z1 ) ya que z1 K0 , y tambien en una vecindad de z1 lo que
implica que las expansiones con centro en z1 son identicas = f = g en z2 y en un vecindad
de z2 . Luego de varias etapas similares concluimos que f = g en y en una vecindad de .
El Lema de Heine-Borel garantiza que el recubrimiento se hace con una cantidad finita
de crculos.
q.e.d.

ANALITICA.
CAPITULO 16. PROLONGACION

320

16.4.

Prolongaci
on analtica.

Idea: Sea el conjunto D = D1 D2 tal que D1 D2 6= . Supongamos ademas, que estan


bien definidas las funciones f1 en D1 y f2 en D2 respectivamente.

f1

f2

D1

D2

Figura 16.6: Conjuntos D1 y D2 .

Premisa: f1 (z) = f2 (z) si z D1 D2 . Se conocan dos representaciones parciales f1 y f2


de la misma funcion f . (f1 y f2 son elementos de f .)
En casos de dominios de conexion simple la prolongacion es u
nica.
f1 = f2 ,

en D1 D2 .

f1 es la prolongacion analtica de f2 , y viceversa.


Ejemplo Definamos f (z) =

z en el dominio | z | < 1.

=0

Figura 16.7: Zona de convergencia de 1/(1 z).

En el crculo vale que

X
=0

1
funcion vale
.
1z

z =

1
= f (z). Tambien en todo el plano salvo z = 1, la
1z

ANALITICA.
16.4. PROLONGACION

321

Consideremos ahora



1 X zi
.
g(z) =
1 i =0 1 i

Su radio de convergencia | z i | < | 1 i | = 2.

Figura 16.8: Prolongacion analtica.


Dentro de la circunferencia superior (la verde)
g(z) =

1
1
1
.
zi =
1 i 1 1i
1z

Decimos entonces que g(z) es la prolongacion analtica de f (z) y viceversa.


Notemos que no es posible prolongar f analticamente usando centros x0 con 0 < x0 < 1.


1
1 X z x0
1
,
=
=
1z
(1 x0 ) (z x0 )
1 x0 =0 1 x0
converge para | z x0 | < | 1 x0 | < 1. No se sale del crculo.
En caso 1 < x0 < 0 tenemos


X
1
1
z | x0 |
=
.
1z
1 + | x0 | =0 1 | x0 |
converge para | z | x0 | | < | 1 | x0 | |. i.e. crculo centro en x0 < 0 y radio 1 < r < 2.

X
X
zn
(z i)n
Problema: Muestre que las series
y
, son las continuaciones analticas
n+1
n+1
2
(2

i)
=0
=0
de una respecto a la otra.
Ejemplo Consideremos las funciones
x3 x5
+
+ ,
sen x = x
3!
5!

e =

X
x
=0

ANALITICA.
CAPITULO 16. PROLONGACION

322
Im

intervalo

Re

Figura 16.9: Prolongacion al plano complejo.

Prolongacion analtica al plano complejo


z3 z5
+
+
3!
5!

X
z
ez =
!
=0

sen z = z

Ambas expresiones u
nicas son u
nicas.
Vimos en el ejemplo de la funcion 1/(1 z) que sobre el borde del crculo | z | < 1 se
podan efectuar nuevos desarrollos en serie, en particular en z0 = i. Haba un problema serio
en z = 1.
Teorema 16.1 En la periferia del crculo de convergencia hay por lo menos un problema
serio para el desarrollo de f en una serie de Taylor.
Demostraci
on Si as no fuere, cada punto de la periferia estara recubierto por un crculo
donde f existe como holomorfa.
Definiendo la zona de convergencia
| z z0 | < r0 ,

r0 > r ,

podemos ver que hay una contradiccion ya que podramos agrandar el radio de convergencia:

r
r

Figura 16.10: Agrandar el radio de convergencia.

ANALITICA.
16.4. PROLONGACION

323
q.e.d.

Ejemplo

X
1
=
z ,
1z
=0
tiene un obstaculo en z = 1.
Ejemplo
22
24
B2 z 2 + B4 z 4 + . . . ,
2!
4!
con radio de convergencia , en efecto z cot z = z cos z/ sen z el denominador se anula y da
problemas en z = , 2, 3,
z cot z = 1

Figura 16.11: Obstaculos para la funcion z cot z.

Consideremos la funcion
f (z) =

1
,
1z

z =

=0

para | z | < 1.

Nuevo centro de desarrollo z0 = 1. Hacemos el cambio de variable z +1 = s La prolongacion




1/2


Figura 16.12: Desarrollos para la funcion 1/(1 z).

ANALITICA.
CAPITULO 16. PROLONGACION

324
que buscamos es

(s 1) =

=0

X
 
X

=0 =0

s (1)

X
=0

"
s

 
X

(1)

 
 
 

0
1
2
0
1
2
=s
(1) +
(1) +
(1) + . . .
0
0
0
 
 
 

1
2
3
1
0
1
2
+s
(1) +
(1) +
(1) + . . . + . . .
1
1
1
= s0 (1 1 + 1 1 + 1 + ) + s1 (1 2 + 3 4 + ) + ,
0

1
esto fracaso porque la funcion f (z) no converge en 1. Tratemos con otro centro z0 = ,
2


1
1
1
= s , prolongacion
luego z = z +
2
2
2

 


 
X

X
X
1
1
s
f (z) =
=
s

2
2
=0
=0 =0
"    #

X
X
1

=
s
2

=0
=




1
1
1
1 1 1
1
0
= s 1 + + + s 1 2 + 3 4 + + ,
2 4 8
2
4
8
ahora s converge.
1
1
en z0 =
1z
2
n!
f (n) (z) =
,
(1 z)n+1

Busquemos ahora las derivadas de f (z) =

al evaluar en z0 =

1
2
f

(n)

 n+1
2
=
n! ,
3

1
luego los coeficientes bn de la expansion de Taylor de f en z0 = son
2
   n+1
1
1
2
bn f (n)
=
.
n!
2
3
Luego la expansion para f es

n X
n

 n+1 
X
1
2
1
f (z) =
bn z +
=
z+
.
2
3
2
n=0
n=0
Evaluemos el radio de convergencia.
r = lm q
n

1
3
1
3
= lm q = .

2 n n 2
2
2 n+1
3

DE RIEMANN.
16.5. FUNCION

16.5.

325

Funci
on de Riemann.

Los n
umero primos: 2, 3, 5, 7, 11, 13,. . . . Los n
umeros naturales los podemos escribir
como: n = 2 3 5 7 . En general, cada n
umero natural tiene una expansion u
nica
en n
umero primos que podemos escribir
n = todo p pe

con e 0 y p1 = 2, p2 = 3, . . . .

(16.1)

Consideremos la siguiente relacion


1

  X
  X
 
X
1
1
1

X1
,
n

1
1
1
2
3
5
=0
=0
=0
1
1
{...}
2
3
5
donde la notacion {. . .} significa que la suma corre sobre todos los n que solo tienen los
factores primos 2, 3 y 5. Podemos pensar en el caso general, es decir:
X1
1
?
,
(16.2)
todo p
=
1
n
nN
1
p
lamentablemente la serie de la derecha diverge, luego no podemos hacer la identificacion, tal
como esta planteada en (16.2).
1

Sea x > 1 el exponente en

X
1
= (x) ,
x
n
n=1

(16.3)

esta serie converge. Graficamos esta serie en funcion de x


zeta de Riemann (z )

1
1

Figura 16.13: Funcion de Riemann.

Definici
on 16.10 Definimos la funcion llamada funcion zeta de Riemman z(x) para todo
x > 1 como

X
1
1
(x) todo p
=
(16.4)
1
nx
n=1
1 x
p

ANALITICA.
CAPITULO 16. PROLONGACION

326

Permite (x) una prolongacion analtica al plano complejo?


y

+1

x
c

Figura 16.14: Prolongacion al plano complejo de la funcion .


Tenemos que nz = ez log n luego podemos definir la funcion zeta en el plano complejo como
sigue:

X
X
1
=
(z) =
ez log n .
(16.5)
z
n
n=1
n=1
La funcion as definida tiene los valores conocidos (2) =

4
2
o (4) = .
6
96

Proposici
on 16.1 La serie (16.5) converge uniformemente en Re[z] c > 1.
Demostraci
on
z log n x log n iy log n x log n
e
= e
e
= e
= 1 1 .
nx
nc
P
1
Pero
de z y de acuerdo a lo anterior es una mayorante
n=1 nc converge
P independientemente
1
convergente, luego
converge
absolutamente
y uniformemente en Re[z] c > 1.
n=1 nz
q.e.d.
Con esto se tiene que (z) es holomorfa. Es posible atravesar la frontera, paralela al eje
imaginario y que pasa por 1?

16.6.

Lugares nulos y a-lugares.

Definici
on 16.11 Un punto z0 de una region donde f (z) es holomorfa, es llamado lugar
nulo de f (z) si f (z0 ) = 0.
Definici
on 16.12 Tal punto z0 de una region donde f (z) es holomorfa, es llamado un a-lugar
de f (z) si f (z0 ) = a.
Definici
on 16.13 El punto z0 es un lugar nulo de multiplicidad m > 0 de f (z), si f (z) es
holomorfa en z0 y admite el desarrollo
f (z) = am (z z0 )m + am+1 (z z0 )m+1 + ,

con am 6= 0.

16.6. LUGARES NULOS Y A-LUGARES.

327

Ejemplo La funcion g(z) tiene un lugar nulo de multiplicidad uno en z0 si acepta un desarrollo
g(z) = a(z z0 ) + con a 6= 0.
Definici
on 16.14 El punto z0 es un a-lugar de f (z) de multiplicidad m > 0 si g(z) = f (z)a
tiene en z0 un lugar nulo de multiplicidad m.
f (z) = a +

a (z z0 ) ,

con am 6= 0.

=m

Proposici
on 16.2 Si f tiene en z0 un a-lugar de multiplicidad m 1, entonces f 0 tiene en
z0 un lugar nulo de multiplicidad m 1.
Demostraci
on Como f tiene en z0 un a-lugar de multiplicidad m 1 la podemos escribir
f (z) = a + am (z z0 )m + am+1 (z z0 )m+1 + ,
con am 6= 0. Derivamos esta ecuacion y obtenemos
f (z) = am m(z z0 )m1 + am+1 (m + 1)(z z0 )m + ,
claramente mam 6= 0 luego f 0 tiene en z0 un lugar nulo de multiplicidad m 1.
q.e.d.
Teorema 16.2 Sea f (z) 6= cte., holomorfa en alg
un dominio D. Entonces en un parte finita
y cerrada de D, la condicion f (z) = a se puede cumplir solo en un conjunto finito de puntos.
Demostraci
on Supongamos que la funcion f (z) tiene infinitos a-lugares en z distintos con
= 0, 1, 2, . . ., es decir, f (z ) = a. Existira en D un punto lmite llamemoslo z0 , por lo tanto,
por el teorema de identidad : Si dos funciones f y g son holomorfas en un dominio abierto
y conexo D, y si ellas coinciden en una vecindad de un punto z0 D, o a lo largo de un
segmento que termina en z0 , o en un n
umero infinito de puntos distintos con punto lmite en
z0 , entonces las dos funciones son iguales en todo D. En nuestro caso las dos funciones son
f y g = a = cte. luego f = cte, contradiccion. No hay un n
umero infinito de puntos en los
que la funcion f (z) tenga a-lugares en D.
q.e.d.
Teorema 16.3 Si f (z) es holomorfa en z0 , existe una vecindad de z0 donde f (z) 6= f (z0 )
z 6= z0 .
Demostraci
on Consecuencia del teorema anterior.
q.e.d.
Contraejemplo: (Aparente)
Consideremos la funcion
f (z) = sen

1
,
1z

ANALITICA.
CAPITULO 16. PROLONGACION

328

en el intervalo real ]0, 1[. Resolvamos el caso


sen

1
1
1
= 0 , =
= k = xk = 1
,
1x
1x
k

con k = 1, 2, 3, . . .. La funcion f tiene infinitos lugares nulos entre 0 y 1. Lo que pasa es que
el punto de acumulacion o punto lmite es x = 1 y en ese punto f (z) no es holomorfa.

16.7.

Comportamiento en infinito.

Funciones definidas para | z |  1 nos sugieren preguntarnos por su comportamiento en


infinito (z = ).
 
1
Definici
on 16.15 La funcion f (z) es holomorfa en z = si la funcion f
lo es en
s
s = 0. Lo anterior implica que

 
  
d
1
1
1
0
f
=f
2 ,
ds
s
s
s
debe existir en s = 0.
 
 
1
1
0
Ejemplo 1: Sea f (z) = c constante. Luego f
= c implica f
= 0. Evaluemos la
s
s
derivada cuando s 0
  



1
1
1
0
2 = lm 0 2 = 0 ,
lm f
s0
s0
s
s
s
por lo tanto, f es holomorfa en z = y f 0 (z) = 0 en z = .
 
 
1
1
1
0
Ejemplo 2: Sea f (z) = z lineal. Luego f
=
implica f
= 1. Evaluemos la
s
s
s
derivada cuando s 0
  



1
1
1
0
2 = lm 1 2 ,
lm f
s0
s0
s
s
s
por lo tanto, f no es holomorfa en z = .
Ejemplo 3: Sea f (z) una funcion racional
am z m + + a1 z + a0
,
bn z n + + b1 z + b0
 
1
con las premisas que m n, am =
6 0 y bn 6= 0. Escribamos f
s
 
1
am sm + + a1 s1 + a0
am snm + + a1 sn1 + a0 sn
=
=
.
f
s
bn sn + + b1 s1 + b0
bn + + b1 sn1 + b0 sn
f (z) =

16.7. COMPORTAMIENTO EN INFINITO.

329

Evaluemos el lmite de la funcion f (z) cuando z va a infinito


a
m
a1
a0
am

si m = n,

+ + n1 + n
nm
z
z = bn
lm f (z) = lm z
,
b1
b0
z
z

bn + + n1 + n
0
si m < n,
z
z
 
1
es diferenciable en s = 0, lo que implica
en ambos casos tiende a una constante, luego f
s
que f (z) es holomorfa en z = .

330

ANALITICA.
CAPITULO 16. PROLONGACION

Captulo 17
Funciones Multivaluadas.
versi
on final 1.1, 10 de Junio del 2003

17.1.

Funci
on

z.

Consideremos la funcion w = f (z) = z 2

f(z)=z2
z

v w

Figura 17.1: La funcion f (z) = z 2 .


No hay una correspondencia biunvoca entre z y w. A cada punto (u, v) 6= 0 le corresponden dos puntos en el planoz.
Consideremos f (x) = x con x una variable real 0 x < . Podemos expandir la
funcion en torno a x = 1
1
X
1
2 (x 1) ,
0 x 1.
f (x) = (1 + (x 1)) 2 =

=0
Consideremos la prolongacion analtica al plano complejo:
1
X
?
2 (z 1) =
f (z) =
z

=0
331

CAPITULO 17. FUNCIONES MULTIVALUADAS.

332

f(x) 1
0

Figura 17.2: La funcion f (x) =

x.

Tratemos de comprobar si se cumple la igualdad. Tenemos


!
!
#
"

X 1
X 1
X
X  1  1 
2

2 (z 1)
2 (z 1)
2
2
(z 1)n .
(f (z)) =
=

n=0 +=n
Usando la formula auxiliar
  

n 
X

+
=
.
n

n
=0
En nuestro caso = =

1
2

(17.1)

luego

X  1  1 
+=n

1 , si n = 0
 
1
=
= 1 , si n = 1 ,

0 , si n > 1

luego
(f (z))2 = 1 (z 1)0 + 1 (z 1)1 = z = rei ,
con < < +. Si despejamos f (z) tenemos

f (z) = r ei/2
o

r(1) ei/2 .

Ahora bien, la condicion f (1) = 1 excluye la segunda posibilidad, quedando:

f (z) = r ei/2 ,
con < < +.

(17.2)

Usando la definicion anterior de la raz veamos lo que pasa al acercarnos el eje real negativo
desde el plano complejo
p
p
lm+ 1 + iy = 1 ei/2 = i
lm 1 + iy = 1 ei/2 = i .
y0

y0


17.1. FUNCION

Z.

333

Figura 17.3: Crculo de convergencia del desarrollo de

+1

Figura 17.4: El eje real negativo para

z.

La funcion f (z) =

z.

z puede ser, al tomar z = rei :

+ r ei/2

r ei/2 ,

una funcio
n as es conocida como bivaluada o bivalente, y cada posibilidad es conocida como
ramas de z.
Se acostumbra asignar a una rama el nombre de rama principal.
Notemos:
z
A
1

Figura 17.5: Funcion con lnea de ramificacion.

CAPITULO 17. FUNCIONES MULTIVALUADAS.

334
Plano z

A = rei1

Plano w

A = rei1 /2

<

realizando un circuito en
torno al punto 0 se tiene
A = rei(1 +2)

rei(1 /2+2/2)= rei1 /2 (1) = A

No hemos obtenido el mismo valor para A en el plano w.


Limitando el valor de podemos hacer que la funcion sea univaluada o univalente. Esto se
hace definiendo una lnea de ramificacion: Por
ejemplo, si restringimos 0 < 2 estaremos
sobre una rama de
la funcion multivaluada z. Si definimos 2 < 4 estaremos sobre
la otra rama de z. Este procedimiento equivale a establecer una lnea de ramificacion la
cual no debe ser cruzada, lnea de corte, lnea roja en la figura. Notemos que la lnea emerge
del punto z = 0. Este punto se define como punto de ramificacion. La lnea de ramificacion
no es u
nica. El circuito debe circundar al punto de ramificacion si se quieren obtener valores
bivaluados, es equivalente a traspasar la lnea de corte.

17.2.

Superficies de Riemann.

La funcion z tiene dos superficies de Riemann. Notemos que dando dos vueltas en torno
al origen volvemos al punto f (A):

ei(1 /2+4/2) r = rei(1 /2+2) = rei1 /2 = A .


Esto lo podemos visualizar mediante las dos superficies de Riemann: tomando dos superficies
cortamos cada una en la lnea 0 B, ver figura, luego unimos la parte superior de una con
la inferior de la otra.

Figura 17.6: Despues de dos vueltas se vuelve al mismo punto.

Superficies de Riemann
Consideremos el producto

ab =

b,


Usando se llega a ? (Donde sus valores tienen parte real positiva). La respuesta
es NO, en efecto, por ejemplo
a = b = (1 + 2i)2 = 3 + 4i = ab = (3 + 4i)2 = 7 24i ,


17.3. OTROS PUNTOS DE RAMIFICACION.

335

Im

Re

Figura 17.7: Las dos superficies de Riemann de

evaluemos las races

a = b = 1 + 2i ,

ab = 3 4i ,

a b = (1 + 2i)2 = 3 + 4i .

17.3.

Otros puntos de ramificaci


on.

Consideremos la funcion f (z) = z a, tenemos

z a = ei/2 ,
si z a = ei .

lnea de ramificacin

Figura 17.8: Punto de ramificacion de

A a = eiA =

Aa=

z a.

eiA /2 ,

considerando un giro en 2

Aa=

eiA /2+ = eiA /2 .

z.

CAPITULO 17. FUNCIONES MULTIVALUADAS.

336

Luego, a es un punto de ramificacion de orden 2. Es decir, dos superficies de Riemann.

1
Es z = punto de ramificacion de z a ? Tomemos z
s
r
r

1
1 as
1 as
1
a=
=
za=
=
s 1 as ,
s
s
s
s
se ramifica en s = 0, por lo tanto, z = es punto de ramificacion de
Consideremos la funcion
f (z) =

z 2 + pz + q =

(z a)(z b) =

z a.

p
p
(z a) (z b) ,

con a 6= b. Claramente a y b son puntos de ramificacion. Para saber si z = es punto de


ramificacion reemplazamos z 1s y estudiamos lo que pasa en s = 0:
  r

1
1
1p
1
1
2 =
0 s b0 .
f
=
+
p
+
q
=
1
+
ps
+
qs
s

a
s
s2
s
s
s
Esta funcion no se ramifica en s = 0, s = 0 no es raz del polinomio 1 + ps + qs2 , por lo tanto,
z = no es punto de ramificacion.
Consideremos


1
1
z=
w+
,
(17.3)
2
w
Resolviendo para w
2wz = w2 + 1 w2 2wz + 1 = 0 w = z +

z2 + 1 = z +

z+1 z1 ,

tiene puntos de ramificacion en z = 1 y z = 1.


y

+1

Figura 17.9: Dos puntos de ramificacion.

Visto que z = no es punto de ramificacion las lneas de ramificacion no se extienden


hasta el infinito y por lo tanto deben necesariamente unirse, figura 17.9.
Las lneas de ramificacion pueden ser rectas o curvas, as pues podramos tomar en vez
de la recta de arriba, lo siguiente
Podemos visualizar un corte desde 0 usando la esfera de Riemann

LOGARITMO.
17.4. LA FUNCION

337

+1

Figura 17.10: Otra lnea de ramificacion.


polo N

corte

Figura 17.11: Lnea de ramificacion sobre la esfera de Riemann.


2
1
0
1
2
3

Figura 17.12: Funcion logaritmo sobre el eje real.

17.4.

La funci
on Logaritmo.

Consideremos la funcion f (x) = log(x) con x > 0. A continuacion mostramos un grafico


de la funcion:
Al evaluar la derivada de la funcion

f 0 (x) =

X
1
1
=
=
(1) (x 1) ,
x
1 + (x 1) =0

Integramos, imponiendo que log(1) = 0, lo cual anula cualquier constante de integracion


adicional

X
(1)
(x 1)+1 .
(17.4)
log x =

+
1
=0

CAPITULO 17. FUNCIONES MULTIVALUADAS.

338

El intervalo de convergencia del desarrollo (17.4) es 0 < x < 2.


Haciendo la prolongacion analtica al plano complejo tenemos
f (z) = log z =

X
(1)
=0

+1

z 1 (z 1)2 (z 1)3
=

+
+... .
1
2
3

+1

(z 1)

(17.5)

Comprobemos la expansion
2
+
+ ...
1!
2!



1
1
1
1
1
1
2
= 1 + (z 1) + +
(z 1) +
+
(z 1)3 + . . . = z .
1!
2 2!
3 2! 6

exp(f (z)) = e = 1 +

Figura 17.13: Radio de convergencia para (17.5).


1
Si evaluamos la derivada del desarrollo en serie corresponde f 0 (z) = .
z
Consideremos
Z z
d
f (z) =

(17.6)

con la prohibicion de cruzar el eje real negativo.


La integral es independiente del camino porque la prohibicion nos restringe a un dominio
simplemente conexo

z


= reit

0<t<

Figura 17.14: Camino de integracion para (17.6).

ARCOTANGENTE.
17.5. LA FUNCION
Por lo tanto

Log z =
1

d
=

339
r

dx
+
x

reit i dt
,
reit

resolviendo obtenemos
Log z = Log r + i , < < +

(17.7)

El punto z = 0 es un punto de ramificacion de orden infinito:


con k = 0, 1, 2, . . ..

log z = Log z + 2ki ,

(17.8)

El smbolo log z es un smbolo multivaluado para el cual no se ha especificado la rama. Pero


ese smbolo satisface
log z = w z = ew .
(17.9)
Siempre es cierto que log(ab) = log(a) + log(b). Pero en general no es cierto que se cumpla
que Log(ab) = Log(a) + Log(b). Por ejemplo, sea a = b = exp(3i/4)
3
Log a + Log b = i +
4

3
3
i = i
4
2



1
1
3
i = Log exp i = i .
Log(ab) = Log exp
2
2
2
log(1) = 0 + i( + 2k) = (2k + 1)i .

17.5.

La funci
on Arcotangente.

Consideremos la integral
x

Z
f (x) =
0

dt
,
1 + t2

con < x < +,

expandiendo en serie el denominador se tiene que


Z xX

(1) t2 dt ,
f (x) =
con 1 < t < +1 y 1 < x < +1.
0

=0

Integrando
f (x) =

X
(1) x2+1

2 + 1

=0

Prolongacion analtica al plano complejo


f (z) =

X
(1) z 2+1
=0

2 + 1

La idea es

Z
f (z) =
0

con | z | < 1.

d
1 + 2

(17.10)

CAPITULO 17. FUNCIONES MULTIVALUADAS.

340

+1

Figura 17.15: Camino de integracion para (17.10).

La integral es independiente del camino si se prohbe cruzar las lneas Im() +1 y


Im() 1.




1
1
1
1
1
1
1
=

+
=
1 + 2
2i i + i
2 1 + i 1 i
Definici
on 17.1 Definimos la funcion
z

Z
Arctan z
0

d
.
1 + 2

En el crculo de radio uno centrado en el origen.


Consideremos el camino

+1
i

Figura 17.16: Camino de integracion en torno a +i.

I
centro +i

d
1
=
2
1+
2i

d
1
= 2i = .
i
2i

(17.11)

ARCOTANGENTE.
17.5. LA FUNCION

341

Consideremos el camino

+i

+1
i

Figura 17.17: Camino de integracion en torno a i.

I
centro i

d
1
=
2
1+
2i

1
d
= 2i = .
+i
2i

Es decir, cada vez que se cruzan las fronteras prohibidas se aumenta en +. Ramificacion
de orden infinito.

/2
0
/2

10

10

Figura 17.18: Funcion arcotangente.

Relacion con la funcion logartmica


Proposici
on 17.1
Z z
0

d
1
= Log(1 + iz)
1 + i
i

Z
0

d
1
= Log(1 iz) ,
1 i
i

(17.12)

CAPITULO 17. FUNCIONES MULTIVALUADAS.

342
o sea,
Arctan z =

Demostraci
on

1
(Log(1 + iz) Log(1 iz))
2i

(17.13)

eiw eiw
= iz ,
i tan w = iw
e + eiw

usando lo anterior
eiw + eiw + eiw eiw
eiw
1 + iz
= iw
=
= e2iw .
1 iz
e + eiw eiw + eiw
eiw
luego despejando
2iw = log

1 + iz
1
1 + iz
w = arctan z = log
.
1 iz
2i
1 iz

Buscamos un smbolo Arctan z univaluado. Sea z = x + iy, Log(1 + iz) esta definido salvo
en caso Im(1 + iz) = 0 y Re(1 + iz) 0, es decir, siendo 1 + iz = (1 y) + ix esto implica
que esta definida salvo en caso x = 0 e y 1.
Log(1 iz) esta definido salvo en caso Im(1 iz) = 0 y Re(1 iz) 0, es decir, siendo
1 iz = (1 + y) ix esto implica que esta definida salvo en caso x = 0 e y 1.
1
Ademas se cumple Arctan 0 = 0 = (Log 1 Log 1) = 0.
2i
q.e.d.

Captulo 18
Desarrollo de Laurent.
versi
on final 1.1, 18 de Junio del 2003

18.1.

Desarrollo en torno a z0 = 0.

Consideremos ahora dominios con puntos singulares. Sea f univaluada y holomorfa en el


anillo r < | z | < R con centro en zo = 0. Nada se sabe de la funcion f fuera del anillo.

z0=0

Figura 18.1: Region anular.


Sea p un punto de la region anular, aplicando el teorema de Cauchy se tiene
Z

Z
1
f (z)dz
f (z)dz
f (p) =

.
2i
1 z p
2 z p
Escribamos lo siguiente:

1 1
1 X  p 
=
, converge en | p | < | z |, i.e. 1 .
z 1 p
z =0 z
z
 
1
1 1
1X z
=
=
, converge en | z | < | p |, i.e. 2 .
zp
p 1 z
p =0 p
p

1
=
zp

343

CAPITULO 18. DESARROLLO DE LAURENT.

344
Luego
f (p) =

=0

1
2i

I
1

f (z)dz
z +1



I

X
1
1

+
z f (z)dz .
p+1 2i 2
=0

(18.1)

Si nombramos por a al primer termino entre parentesis del lado derecho y por a1 al
segundo termino entre parentesis podemos reescribir (18.1) como
f (p) =

p a +

=0

X
1
a1 ,
+1
p
=0

(18.2)

Notemos que la primera serie converge para | p | < R y la segunda converge en | p | > r.
Hacemos el cambio de ndice + 1 = = 1 y tenemos

f (p) =

X
a

p a +

=0

=1

Por lo tanto,
f (p) =

=0

1
X

p a +

p a .

a p ,

(18.3)

siempre que el centro de expansion sea z0 = 0, con los coeficientes:


I
f (z)
1
, = , . . . , + .
a =
2i centro en z0 = 0 z +1

18.2.

(18.4)

Desarrollo en torno a z0.

Tomemos un centro z0 arbitrario. Sea f () univalente y holomorfa en r < | z0 | < R.


Usemos z = z0
f () = f (z + z0 ) = g(z) ,
holomorfa en r < | z | < R. Sea p = q + z0
f (p) = f (q + z0 ) = g(q) =

a q ,

con

1
a =
2i

I
centro 0 en z

g(z)dz
.
z +1

Tenemos dz = d, luego:
1
a =
2i
y
f (p) =

X
=

I
centro z0 en

a (p z0 ) =

X
=0

f ()
d ,
( z0 )+1

a (p z0 ) +

X
=1

(18.5)

1
.
(p z0 )

(18.6)

18.3. UNICIDAD DEL DESARROLLO DE LAURENT.

345

P
P

La serie
converge
=0 a (p z0 ) converge en | p z0 | < R y la serie
=1 a (p z0 )
en r < | p z0 | < .
La serie converge automaticamente en el dominio anular mas grande posible que sea
compatible con cualquier prolongacion analtica de f . Sobre | p z0 | = r y sobre | p z0 | = R
existe por lo menos un obstaculo serio.
Un caso interesante es cuando r = 0, en este caso se admiten dos posibilidades,
i

f holomorfa en z0 .

ii

f no holomorfa en z0 , una singularidad aislada.

18.3.

Unicidad del desarrollo de Laurent.

Supongamos que en el dominio anular r < | z | < R se tiene:

a z =

b z .

Sabemos que
I

(
0,
si =
6 1
c z dz =
c1 2i , si = 1,

luego concluimos que a1 = b1 . Para los demas coeficientes, multiplicamos por una potencia
adecuada, z k1 , y tenemos

I
a

k1+

dz =

I
b

z k1 dz ,

solo resulta algo no trivial si k 1 + = 1, es decir, = k lo que implica ak 2i = bk 2i


ak = b k .
Hemos obtenido una representacion de f (z) como una suma de una serie de potencias
ascendentes de (z z0 ), mas una serie de potencias descendentes de (z z0 ). Ambas series
convergen en la region anular ya que sus coeficientes son independientes de la forma de las
curvas 1 y 2 .

18.4.

Ejemplos.

Ejemplo 1 Consideremos la funcion


f (z) =

1
,
z1

desarrollemosla con centro en z = 0.


Esta funcion puede expandirse de dos maneras

CAPITULO 18. DESARROLLO DE LAURENT.

346

Figura 18.2: La funcion f (z) = 1/(z 1).

i)

En serie de Taylor para | z | < 1.

ii)

En serie de Laurent para | z | > 1.

i)

Taylor para | z | < 1,

X
1
f (z) =
=
z .
1z
=0

ii)

Laurent para | z | > 1,


1
f (z) =
z

X
X
1
1
=
.
=
+1

1
z
z
=0
=1
1
z

Ejemplo 2 Consideremos la funcion


f (z) =

1
,
(z 1)(z 2)

desarrollemosla con centro en z = 0


Esta funcion puede expandirse en tres regiones
i)

En serie de Taylor para | z | < 1.

ii)

En serie de Laurent para 1 < | z | < 2.

iii)

En serie de Laurent para | z | > 2.


f (z) =

1
1

.
z2 z1

18.5. DEFINICIONES.

347

Figura 18.3: La funcion f (z) = 1/(z 1)(z 2).

i)

Taylor para | z | < 1,





1
1
1
1 1
1 X  z  X X
1
+
f (z) =

=
=
+
z =
1 +1 z .
z
z2 z1
21
1z
2 =0 2
2
=0
=0
2

ii)

Laurent para 1 < | z | < 2,

X
X
z
1
1 1
1 1

,
f (z) =
z
+1
+1
1
2 1
z
2
z
=0
=0
1

2
z

la primera serie del lado derecho converge para | z | < 2 y la otra converge en 1 < | z | < ,
luego ambas convergen en 1 < | z | < 2.
iii)

Laurent para | z | > 2,


1
f (z) =
z

 
 

X
1 1
1 X 2
1 X 1
1
1

=
(21 1) = 2 + . . . .
2 z
1
z =0 z
z =0 z
z
z
=1
1
1
z
z

Como control comprobamos que 1/[(z 1)(z 2)] 1/z 2 para z  1.

18.5.

Definiciones.

Sea f univaluada y holomorfa en 0 < | z z0 | < R Podemos desarrollar


f (z) =

X
=0

a (z z0 ) +

a (z z0 ) .

=1

Al segundo termino, correspondiente a las potencias negativas, se le conoce como la parte


principal del desarrollo de Laurent.

CAPITULO 18. DESARROLLO DE LAURENT.

348

R
z0

Figura 18.4: La region donde f es univaluada y holomorfa.

Definici
on 18.1 El punto z0 es un lugar regular si el desarrollo de Laurent en torno a z0
tiene la parte principal nula.
Definici
on 18.2 El punto z0 es un polo de orden si la parte principal es del tipo

X
=1

a
,
(z z0 )

a 6= 0 ,

a1 = a2 = = 0 .

Se trata de una singularidad no esencial ya que al multiplicar por (z z0 ) desaparecen los


exponentes negativos:
(z z0 ) f (z) ==

a (z z0 )+ +

=0

X
=1

a
.
(z z0 )

Definici
on 18.3 El punto z0 es una singularidad esencial si la parte principal es infinita, es
decir, existe una cantidad infinita de coeficientes a ( = 1, 2, 3, . . . , ) 6= 0.

18.6.

La funci
on Arcosecante.

Consideremos la funcion
f (z) =

1
,
sen z

la funcion tiene singularidades en k, con k = 0, 1, 2, 3, . . .. Es univaluada en las regiones


0 < | z | < , < | z | < 2,. . . . Planteamos
sen z z
1=
=
z sen z



z2 z4
c2
c4
1
+
+...
c0 + z 2 + z 4 + . . . .
3!
5!
2!
4!

ARCOSECANTE.
18.6. LA FUNCION

349

Figura 18.5: Singularidades de la funcion 1/ sen z.

Igualando las distintas potencias


z 0 : 1 c0 = 1
c2 c0
c2
1
z2 :

=
2! 3!
2!
6
c
1
c
c
c4
7
4
2
0

=
z4 :
4! 2! 3! 5!
4!
360
c
31
6
z6 :
=
.
6!
15120
Luego

1
1 1
7 3
31 5
1 X c2 2
= + z+
z +
z + = +
z ,
sen z
z 6
360
15120
z =0 2!

(18.7)

este desarrollo, de Laurent con centro en cero, converge para 0 < | z | < .
Busquemos el desarrollo entre y 2, tenemos que sen z = sen(z ), luego

X c2
1
1
1
=
=

(z )21 .

sen(z )
sen z
z =1 2!
Definamos una funcion auxiliar que tenga desarrollo de Taylor. La funcion que estamos
considerando es g(z) = 1/ sen z, si a esta funcion le restamos las partes principales que dan
singularidades nos queda una funcion holomorfa:
f (z) =

1
1
1
1
+
+
,
sen z z z z +

esta funcion tiene en | z | < 2 un desarrollo de Taylor, f (z) =


| z | < 2. Efectuemos el desarrollo de Taylor: (es u
nico)
1
1
1
7 3
31 5
= z+
z +
z +
sen z z
6
360
15120

=0

a z convergente en

|z| < .

CAPITULO 18. DESARROLLO DE LAURENT.

350
2z
2z
= 2
2
2
z

2z X  z 2
1
2z 2z 3 2z 5
= 2 4 6
 z 2 = 2
=0

|z| < .

Combinandolas

f (z) =

1
2
2
6


z+

Tenemos

7
2
4
360

z3 +

| z | < 2 .

X
1
2z
1
.
a z + 2
=
2
sen z
z
z

=0
Pero
2z
2z
=
z2 2
z2

2 X  2
1
=
 2
z =0 z
1
z

|z| > ,

luego:

X
1 2 X  2
1
=
a z +
,
sen z
z
z
z
=0
=0

(18.8)

el primer termino converge en | z | < 2 = R y el segundo r = < | z | < es decir, el


desarrollo completo converge en < | z | < 2.

Figura 18.6: Zona de convergencia.

18.7.

Funciones enteras.

Definici
on 18.4 La funcion entera es una funcion holomorfa en todo el plano y que por lo
tanto posee un desarrollo de Taylor de radio infinito respecto a cualquier centro.
Estas funciones enteras se clasifican en

18.7. FUNCIONES ENTERAS.


Pn

351

con b 6= 0.
P

2) Funciones enteras trascendentes


=0 b s , con una cantidad infinita de coeficientes no
nulos. Radio de convergencia para cualquier centro.
1) Polinomios de grado n:

=0 b s

Teorema 18.1 Liouville


Si una funcion entera g(z) es acotable, entonces g(z) = cte.
Demostraci
on Si | g(s) | M , entonces podemos acotar los coeficientes, usando (15.7), la
desigualdad de Cauchy
M
| a | ,

con arbitrario. Podemos demostrar que a = 0 para todo salvo a0 , basta tomar suficientemente grande. Lo anterior implica que g(s) = a0 .
q.e.d.
Corolario: Sea g entera y no constante. Sea R un radio, y sea K > 0 tan grande como
se quiera, entonces existe p con | p | > R tal que | g(p) | > K.
Teorema 18.2 Sobre polinomios
Sea g un polinomio de grado n 1. Entonces para K > 0 tan grande como se quiera se
puede indicar un radio R tal que | g(z) | > K para todo | z | > R.
Demostraci
on
bn z n = g(z) bn1 z n1 b1 z b0

bn 6= 0 .

Sea | z | =
n

| bn | | g(z) | +

n1
X

| b | ,

=0

(
| g(z) | n

n1
X
| b |
| bn |
n
=0

)
,

para suficientemente grande


| g(z) | n

| bn |
>K ,
2

|z| .
q.e.d.

Consecuencias: Un polinomio g de grado n 1 tiene (al menos) un lugar nulo.


Demostraci
on Si g nunca se anulara, entonces 1/g(z) sera entera y no constante. Por lo
tanto, fuera de crculos muy grandes habra un punto p tal que


1


g(p) > 1 | g(p) | < 1 ,

CAPITULO 18. DESARROLLO DE LAURENT.

352
lo cual contradice el teorema anterior.

q.e.d.
La funcion ez es entera trascendente, no tiene lugares nulo.
Teorema 18.3 Una funcion entera trascendente a lo largo de ciertos caminos hacia s = ,
crece mas rapidamente que | s |m .
En otros terminos: si g es entera y acotada por | g(s) | M sm , entonces g es un polinomio.
Demostraci
on
| b |

Max | g |
M m

ya que el borde de un crculo de radio la funcion g satisface que | g | M m . Si > m


| b |

M
m

tan peque
no como se quiera, luego b = 0 para = m + 1, . . ..
q.e.d.

Teorema 18.4 Casorati-Weierstrass


Si g es entera trascendente y c es un n
umero complejo, entonces fuera de cualquier crculo
hay puntos donde g toma aproximadamente el valor c con una precision tan grande como se
quiera.
En otros terminos: despues de prescribir c C, R > 0 tan grande como se quiera y > 0
tan peque
no como se quiera, se puede encontrar un punto p tal que | p | > R y | g(p) c | < .
Demostraci
on En | s | > R sea g(s) 6= c, entonces 1/(g(s) c) es holomorfa en | s | > R
por lo tanto acepta un desarrollo de Laurent

X
X
X
1

s =
=
+
s ,

g(s) c =
s
=1
=0

luego

X
X
1

=
s ,
g(s) c =1 s
=0
tomando el modulo a ambos lados



X
1


g(s) c +
s
=1

X



s > G ,

=0

donde G es tan grande como se quiera, lo que podemos escribir como G = 2/ con tan
peque
no como se quiera. El segundo termino del lado izquierdo es muy peque
no si | s | es

18.7. FUNCIONES ENTERAS.

353

grande, digamos que lo podemos acotar por G/2. El primer termino del lado derecho, crece
a lo largo de ciertos caminos al infinito. Luego, para cierto p, donde | p | es grande, se tiene





G


1
1
G
2 1
1

+ G =

g(p) c 2
g(p) c G 2 = = .
Lo que finalmente conduce a | g(p) c | < .
q.e.d.

354

CAPITULO 18. DESARROLLO DE LAURENT.

Captulo 19
Residuos.
versi
on final 1.2, 24 de Junio del 2003

19.1.

Definici
on y teorema.

Consideremos la funcion f (z) y su expansion en serie de Laurent


f (z) =

a (z z0 )

0 < | z z0 | < R ,

se tiene
I
f (z) dz =
centro z0

I
a

(z z0 ) dz = 2ia1 .

Definici
on 19.1 El residuo de la funcion f (z) en z0 , Resz=z0 f (z) a1 .
Teorema 19.1 Teorema de los residuos Sea D un dominio con un borde , en el cual f
es analtica, salvo en una cantidad finita de singularidades aisladas z1 , z2 , . . . , zn . Entonces
I
f (z) dz = 2i

n
X
=1

Res f (z)

z=z

(19.1)

Demostraci
on Usando el teorema de Cauchy en el camino de la figura 19.1, se tiene
I
f (z) dz

n I
X
=1

f (z) dz = 0 ,

| zz |=

luego
I
f (z) dz = 2i

n
X
=1

Res f (z) .

z=z

q.e.d.

355

CAPITULO 19. RESIDUOS.

356

Figura 19.1: Region donde f es analtica.

Ejemplo Una aplicacion del teorema, Consideremos la integral


Z
dx
,
2
1 + x

(19.2)

notemos que sobre el eje real no hay singularidades. Usemos un camino de integracion como
el siguiente.

+R
i

Figura 19.2: Camino de integracion.


Consideremos la integral de la prolongacion analtica al plano complejo de la funcion
1/(1 + x2 ) sobre el camino de la figura 19.2,
I
dz
,
I=
1 + z2
la funcion f (z) = 1/(1 + z 2 ) tiene polos de primer orden en z = i, en efecto


1
1
1
f (z) =

.
2i z i z + i
Tenemos
Res f (z) =

z=+i

1
,
2i

Res f (z) =

z=i

1
,
2i

19.2. FUNCIONES RACIONALES.

357

luego
I
I=

dz
1
= 2i Res f (z) = 2i = ,
2
z=+i
1+z
2i

por lo tanto,
I

dz
=
1 + z2

dx
+
1 + x2

Z
arco

dz
= .
1 + z2

Nos interesa cuando R . Acotemos la segunda integral, sea R > 1,


Z


dz
1

R 2
0 ,


2
R 1 R
arco 1 + z
donde hemos usado que | z1 + z2 | | z1 | | z2 | para acotar la cantidad subintegral. Por lo
tanto
Z
dx
= .
(19.3)
2
1 + x

19.2.

Funciones racionales.

Sea f (z) = p(z)/q(z) el cociente entre dos polinomios tales que gr(p) gr(q)2. Premisa
q(x) 6= 0 para < x < . Tomaremos el dominio

+R

Figura 19.3: Camino de integracion.


tan grande como sea necesario para que contenga todos los polos del semiplano superior.
Entonces
I
Z
Z
n
X
p(z)
p(z)
p(x)
p(z)
2i
Res
=
dz =
dx +
dz ,
z=z q(z)
q(z)
q(x)
arco q(z)
=1
ahora bien, sea am 6= 0 y bn 6= 0
p(z)
am z m + . . . + a0
am 1 1 +
=
=
n
q(z)
bn z + . . . + b0
bn z nm 1 +

am1 1
am z
bn1 1
bn z

+ +
+ +

a0 1
am z m
b0 1
bn z n

el valor absoluto de el u
ltimo termino tiende a +1 cuando | z | si n m + 2, luego



Z


p
am 1
p(z)

dz R Max = R nm 0 .

R
| z |=R q
bn R
arco q(z)

CAPITULO 19. RESIDUOS.

358

19.3.

Funciones trigonom
etricas.

Consideremos eiz , sen z y cos z. Acotemos las diferentes funciones comenzando por la
exponencial
iz
e = eRe[iz] = ey ,
y+

esta acotada en el plano superior y 0, por lo tanto, | eiz | 1. En cambio


sen z = sen(x + iy) = sen x cosh y +i cos x senh y ,
| {z }
| {z }
crece

crece

al tomar modulo tenemos que | sen z | crece cuando y , ya que las dos funciones
hiperbolicas crecen. Analogamente
cos z = cos(x + iy) = cos x cosh y i sen x senh y ,
| {z }
| {z }
crece

crece

por lo tanto, | cos z | crece cuando y .


Ejemplo Evaluemos la integral
Z

sen x
dx .
x

(19.4)

Para calcular esta integral estudiaremos la integral sobre el eje real entre R y +R, mediante
la integracion de la funcion sen z/z sobre diversos caminos. Esta funcion es holomorfa
sen z
z2 z4
=1
+
+ ,
z
3!
5!
no tiene polos. Sin embargo, cuando tomemos R deberemos acotar la funcion y en base
a lo expuesto al comienzo de esta seccion es mejor escribir las funciones trigonometricas como
combinaciones de exponenciales complejas.
eiz
eiz
sen z
=

.
z
2iz
2iz
Ahora bien, eiz y eiz estan acotadas para y 0 y para y 0 respectivamente. Ademas, las
dos funciones de la derecha tienen un polo de primer orden en z = 0.
En base a todo esto consideremos los caminos cerrados de la figura siguiente para lograr
nuestro objetivo (esta eleccion no es u
nica). Tenemos
Z
Z iz
Z iz
sen z
e
e
dz =
dz
dz .
z
I
I 2iz
I 2iz
Para evaluar estas integrales lo hacemos eligiendo caminos cerrados apropiados.
Para acotar bien elegimos para la primera integral
I
eiz
dz ,
I+II 2iz


19.3. FUNCIONES TRIGONOMETRICAS.

359
t+iR



+iR
II

R+it
R+it


+R
0<t<R



iR III
tiR

Figura 19.4: Camino de integracion.

y para la segunda
I
I+III

eiz
dz ,
2iz

en el sentido horario. (Negativo.)


Tenemos


I
eiz
eiz
1 1
z
dz = 2i Res
= 2i Res
+ 1 + +
z=0 2iz
z=0 2i
z
2!
I+II 2iz
1
= 2i = ,
2i
es decir,
Z
Z +R ix
Z
Z ix
eiz
e
eiz
e
dx +
dz +
dx +
dz = .
arco, 2iz
+ 2ix
II 2iz
R 2ix
Acotemos la u
ltima integral:


Segmentos verticales | eiz | = eRi+iit = et .


Segmentos horizontales | eiz | = ei(t+iR) = eR .
Z


II


Z R t

e
eR
eiz

dz 2
dt + 2R
2iz
R
R
0



1
2
R
2
et 0 + 2eR = (1 eR ) + 2eR 0 .
R
R
R

En el lmite 0 la integral sobre el arco central es igual a /2 y por lo tanto nos queda
Z R ix
e

dx .
R 2
R 2ix
Consideremos el segundo camino cerrado I + III, este camino no contiene polos de primer
orden y por lo tanto su residuo es igual a cero, es decir,
I
eiz
dz = 0 .
I+III 2iz

CAPITULO 19. RESIDUOS.

360
Descomponiendo la integral cerrada tenemos
Z

eix
dx +
2ix

Z
III

eiz
dz + = 0 .
2iz
2

Acotando como lo hicimos anteriormente tenemos:


Z

Z R t
iz


e
e
eR

2
dz
+
2R
0 ,


R
R R
III 2iz
0
por lo tanto,
Z

eix

dx ,
R
2ix
2

y nos queda finalmente


Z

sen x
dx =
x

(19.5)

En todos los casos anteriores hemos definido la integral entre - e de una de las siguientes
maneras:
Z

Z R
Z
Z R
f (t)dt lm
f (t)dt +
f (t)dt ,
(19.6)
P f (t) dt = lm

R,0

a esta forma se le llama el valor principal de Cauchy de la integral.

19.4.

Polos, residuos y lugares nulos.

Sea z0 = 0 el centro de desarrollo de las funciones g(z) y h(z), consideremos


g(z)
b0 + b1 z + b2 z 2 +
=
,
h(z)
ck z k + ck+1 z k+1 +
con b0 6= 0, ck 6= 0 con k 1 y c0 = c1 = = ck1 = 0. Esta funcion tiene en z = 0 un polo
de orden k.
g(z)
1 b0 + b1 z + b2 z 2 +
= k
,
h(z)
z
ck + ck+1 z +
|
{z
}
holomorfa en 0

es decir,

g(z)
1

= k ak + ak1 z + + a1 z k1 + a0 z k + .
|{z}
h(z)
z
Resz=0

g
h

Queremos determinar el coeficiente a1 , tenemos


b0 + b1 z + b2 z 2 + = (ck + ck+1 z + )(ak + ak+1 z + ) ,

19.4. POLOS, RESIDUOS Y LUGARES NULOS.

361

despejando para potencias iguales


ck ak = b0
ck+1 ak + ck ak+1 = b1
ck+2 ak + ck+1 ak+1 + ck ak+2 = b2
..
.
.
= ..
c2k1 ak + + ck a1 = bk1 .
|{z}
Son k ecuaciones lineales para k incognitas. Por la regla de Kramer tenemos para el coeficiente
a1 :


ck
0
.
.
.
0
b
0


ck+1
ck
... 0
b1

1 .
..
..
..
...
.
.
. ,
(19.7)
a1 = k ..

Ck .
..
..
..

. ck bk2
.

c
c
... c
b
2k1

2k2

k+1

k1

donde Ckk es el determinante de los coeficientes. Esta relacion, (19.7), nos da una relacion
explcita para el residuo.
Sea k = 1, entonces
a1 =

b0
g(0)
= 0
,
c1
h (0)

polo de orden k 1.

Sea k = 2, entonces
a1

1 00
h (0)g 0 (0) 61 h000 (0)g(0)
6g 0 (0)h00 (0) 2g(0)h000 (0)
1
2
.
= 2 (c2 b1 c3 b0 ) =
=
1
C2
3(h00 (0))2
(h00 (0))2
4

Caso particular g = h0 = kck z k1 + con bk1 6= 0, mientras b0 = b1 = = bk2 = 0,


entonces
h0
kC k
a1 = Res = kk = k ,
z=0 h
Ck
es decir, el residuo es igual a la multiplicidad del lugar nulo en 0.
Proposici
on 19.1 Si en z0 una funcion f tiene un lugar nulo de multiplicidad k, entonces
la derivada logartmica f 0 /f tiene en z0 un polo de primer orden con residuo igual a k.
Demostraci
on Tenemos
f (z) = ak (z z0 )k + ak+1 (z z0 )k+1 + ,
su derivada
f 0 (z) = kak (z z0 )k1 + (k + 1)ak+1 (z z0 )k + .
La derivada logartmica
f0
k
=
f
z z0

1 +
1 +


=

k
(1 + potencias crecientes z z0 ) ,
z z0

CAPITULO 19. RESIDUOS.

362
lo cual implica
Res

z=z0

f0
=k.
f
q.e.d.

Proposici
on 19.2 Sea N = 1 + 2 + + n donde 1 , . . . , n son las multiplicidades de
los ceros z1 , z2 , . . . , zn de f , respectivamente. Entonces
I 0
1
f (z)
dz .
(19.8)
N=
2i
f (z)
Demostraci
on Del teorema de los residuos
I 0
X
1
f (z)
f 0 (z) X
dz =
Res
=
= N ,
z f (z)
2i
f (z)

la pen
ultima igualdad corresponde a la proposicion anterior.
q.e.d.
Proposici
on 19.3 Si h tiene en z0 un polo de orden m entonces h0 /h tiene en z0 un polo de
primer orden con residuo igual a m.
Demostraci
on Hagamos z0 = 0, luego
h(z) = am z m + + a0 + a1 z + a2 z 2 + ,

am 6= 0 ,

la derivada de h
h0 (z) = mam z m1 + + 0 + a1 + 2a2 z + ,

am 6= 0 .

La derivada logartmica
mam z m1 1 + potencia creciente de z
m
h0 (z)
=
= [1 + O(z)] ,
m
h(z)
am
z
1 + potencia creciente de z
z
el residuo en z0
Res
z0

h0 (z)
= m .
h(z)
q.e.d.

Teorema 19.2 Sea h(z) 6= 0 sobre la curva , cerrada, (sin puntos dobles). Sea h univalente
y holomorfa en el interior de , salvo en z0 , z1 , . . . , zn donde existen polos. Entonces
I 0
1
h (z)
dz = N P .
(19.9)
2i h(z)
con N = 1 +2 + +n y P = 1 +2 + +n , donde 1 , 2 , . . . , n son las multiplicidades
de ceros de h y 1 , 2 , . . . , n son los ordenes de los polos de h.

19.5. EJEMPLOS.

19.5.

363

Ejemplos.

Ejemplo I Evaluemos la integral


Z

I=

Tenemos

I=

d
.
1 + sen2

d
=4
1 i
1 4 (e ei )2

d
.
e2i

e2i

Pasemos al plano complejo escribiendo z = | z | e2i diferenciando d = dz/2iz, por lo tanto,


Z
Z
Z
dz
dz
dz
= 2i
= 2i
,
I=4
1
2
z 6z + 1
(z z1 )(z z2 )
2iz(6 z z )

con z1 = 3 2 2 y z2 = 3 + 2 2.

z1

z2

Figura 19.5: Camino de integracion ejemplo I.

Notemos que el camino da dos vueltas en torno al crculo.


I = 2i 2i Res = 2i 2i
z=z1

,
(3 2 2 3 2 2)

el dos en la u
ltima fraccion corresponde a que las vueltas son dos.

2
I = 4 = 2 .
4 2
Finalmente
Z

d
=

2
1 + sen2

(19.10)

CAPITULO 19. RESIDUOS.

364
Ejemplo II Evaluemos la integral

Z
I=
0

x
dx .
1 + x2

Sea z lo que se obtiene por prolongacion hacia elsemiplano superior y luego en torno
al origen. Elegimos ad-hoc la univaluacion del smbolo
.

0 < ang * z <


0

Figura 19.6: Eleccion de rama.

Consideremos el siguiente camino de integracion




+i

r<1




R>1

Figura 19.7: Camino de integracion ejemplo II.


Los polos de 1/1 + z 2 son +i y i. Por el teorema del residuo tenemos
I

X
z
z
dz
=
2i
Res
.
z=z 1 + z 2
1 + z2
=1

z
1
=
i
Res
=
i Res
Res
z=+i 1 + z 2
z=+i 1 + z 2
z=+i

z
i
=
Res
.
2
z=i 1 + z
2i

1
1

zi z+i


=

i
2i

19.5. EJEMPLOS.

365

Evaluemos las integrales sobre ambas circunferencias, la de radio r y la de radio R.


Tenemos
I



2R R 1

0 ,


R2 1 R
CR

donde hemos usado | 1 + z 2 | | z |2 1. Para la segunda integral


I

2r r 1 0 .



1 r2 r0
Cr
Ademas,
Z
r

x
dx
1 + x2

x
dx +
1 + x2

I
+

Cr

= 2i
CR

!
i
i
.

2i
2i

En el lmite r 0 y R tenemos
Z

x
2
(1 + i)
dx
=
(
2
i

i)
=

i(1 i) = (1 i) = .
2
1+x
2
2
0
Finalmente

Z
0

x
dx =
2
1+x
2

Ejemplo III Evaluemos la integral


Z

I=
1

dx

dx .
(1 + x2 ) 1 x2

No debemos incluir puntos de ramificacion en la curva.

+i

1 z2 > 0

+1
i

R
1 z2 < 0

Figura 19.8: Camino de integracion ejemplo III.


Tenemos por el teorema del residuo
I
2
X
dz
1

= 2i
Res
.
2
2
z=z (1 + z 2 ) 1 z 2
(1 + z ) 1 z
=1

(19.11)

CAPITULO 19. RESIDUOS.

366
Separemos la integral por pedazos
Z

+1r

2
1+r

dx

(1 + x2 ) 1 x2

| z |=R

+
Cr centro 1

Cr centro +1

Acotemos la integrales

I



2R Max




CR

2
(1 + z ) 1 z 2

= 2i
CR

2
X
=1

Res

z=z

.
(1 + z 2 ) 1 z 2



2R 1 1
0 ,

R2 1 R2 1 R

donde hemos usado | 1 z 2 | | z 2 | 1. Las integrales con centro en z = 1 y radio r



I




1
1
2R Max

0 .




| z1 |=r (1 + z 2 ) 1 z
r r0
Cr

Luego en el lmite r 0 y R tenemos


Z

+1

2
X
dx
1

Res
= i
.
2
2
2
z=z (1 + z ) 1 z 2
(1 + x ) 1 x
=1

Los residuos
1
1
1
1
1
1

=
=+
2
2
(z + i)(z i) 1 z
2i 1 i
2i (+ 2)
1
1
1
1
1
1

= p
=
,
Res
2
2
z=i (z + i)(z i)
2i 1 (i)
2i ( 2)
1z
Res

z=+i

Ver figura 19.8 para entender el signo de la raz. Finalmente tenemos


Z

dx

dx = i 2 =
(1 + x2 ) 1 x2
2 2i
2

Ejemplo IV Evaluemos la integral


Z p1
x
dx ,
I=
1+x
0

(19.12)

0<p<1.

Consideremos la integral
I

z p1
dz .
1+z

Tenemos que z = 0 es un punto de ramificacion de z p1 : z p1 = e(p1) log z , multivaluada.


Tomamos log z = Log | z | + i con 0 < < 2, ahora si
z p1 = e(p1) Log| z | ei(p1) ,
con 0 < < 2, es univaluada. Tomemos la lnea de corte a lo largo del eje real. El integrando
tiene un polo simple en z = 1 dentro del contorno mostrado en la figura 19.9.

19.5. EJEMPLOS.

367







1
R

Figura 19.9: Camino de integracion ejemplo IV.

Evaluemos el residuo en z = 1 = ei
z p1
= ei(p1) .
z=1 1 + z
Res

Luego
I

z p1
dz = 2iei(p1) ,
1+z

separando las integrales


Z 2
Z
Z 0
Z R p1
(Rei )p1 iRei d
(xe2i )p1
(ei )p1 iei d
x
dx+
+
dx+
= 2iei(p1) .
2i
1 + Rei
1 + ei
0
R 1 + xe
2
1+x
Acotamos


Z 2

Rp1
(Rei )p1 iRei d

2R
0 , p < 1 ,


1 + Rei
R 1 R
0


usando 1 + Rei R 1. La otra integral en torno al origen

Z 2
i p1
i
p1


(e
)
ie
d

2
0 ,


1 + ei
1 0
0


usando 1 + ei 1 . Luego
Z p1
Z 0 p1 2i(p1)
x
x e
dx +
dx = 2iei(p1)
2i
1+x
1 + xe

0
Z p1
Z p1 2ip
x
x e
dx
dx = 2ieip ,
1+x
1+x
0
0
Z p1

x
1 e2ip
dx = 2ieip ,
1
+
x
0
Z p1
x
eip
1
.
dx = 2i
= 2i ip
2ip
1+x
1e
e
eip
0

CAPITULO 19. RESIDUOS.

368
Finalmente, tenemos

Z
0

19.5.1.

xp1

dx =
1+x
sen(p)

(19.13)

Residuos de un polo de orden m.

Si f (z) tiene un polo de orden m en z = z0 , donde m es un entero positivo, entonces el


residuo de f (z) en z = z0 es
Res f (z) =

z=z0

dm1
1
lm m1 [(z z0 )m f (z)]
(m 1)! zz0 dz

(19.14)

donde la derivada de orden cero de la funcion se entiende como la funcion misma y 0! = 1.

19.6.

Valor principal de Cauchy.

Consideremos la funcion u(x) = 1/x. No podemos integrar directamente


s podemos hacer lo siguiente
Z

lm

dx
+
x

+1

dx
x

+1

P
1

R1
1

dx/x. Pero

dx
=0,
x

esto corresponde a tomar el valor principal de Cauchy de la integral, para un tan peque
no
como se quiera. Consideremos el grafico siguiente:

S
a

x0

Figura 19.10: Camino de integracion.

Sea f univaluada y holomorfa en un dominio simplemente conexo en el cual se encuentra


la curva .

19.6. VALOR PRINCIPAL DE CAUCHY.

369

Consideremos el desarrollo de Laurent en x0 :


f (z) =

a1
+ a0 + a1 (z x0 ) + .
z x0

Definici
on 19.2 Definamos el valor principal de Cauchy como
Z x0

Z b
Z b
P f = lm
f+
f .
0

x0 +

Sea 1 una curva cerrada que no incluya a x0 , entonces


I
f (z) dz = 0 .
1

Sea 2 una curva cerrada que si incluye a x0 , entonces


I
f (z) dz = 2ia1 .
2

Consideremos
Z

a1 + a0 + iei d ,
ei | {z }
=

f=
S

=0 si 0

Z
f = i

lm

a1 d = ia1 .
0

Definici
on 19.3 Definamos el valor principal de Cauchy sobre la curva
I
Z
Z 
P f = lm
f f = 0 + ia1
0

1
SI

I
1
= i Res f =
f+
f .
z=x0
2
1
2

(19.15)

370

CAPITULO 19. RESIDUOS.

Captulo 20
Funciones Meromorfas.
versi
on final 1.1, 30 de Junio del 2003

Definici
on 20.1 Se llama funcion meromorfa a una funcion holomorfa en todo el plano,
salvo polos. Los polos no se pueden acumular en el plano.
Ejemplo Las funciones racionales

p(z)
con p(z) y q(z) polinomios
q(z)

p(z)
r(z)
= P (z) +
,
q(z)
q(z)

gr(r) < gr(q) .

Nos interesa el u
ltimo termino solamente. Los lugares nulos de q(z): z1 , z2 , . . . , zk (distintos)
r
son los polos de . La correspondiente descomposicion en fracciones parciales
q
r(z)
c11
c12
c13
c1m1
+
+ +
+
=
+
2
3
q(z)
z z1 (z z1 )
(z z1 )
(z z1 )m1
c2m2
c21
c22
+

+
+
+
+
z z2 (z z2 )2
(z z2 )m2
+ +
ck1
c1mk
ck2
+
+ +
.
+
2
z zk (z zk )
(z zk )mk
Ejemplo La funcion
cot z =

1
z

z2
2!
z3
3!

+
+

1
(1 + potencias crecientes de z) .
z

1
El Res cot z = 1, lo que significa que la parte principal en z0 = 0 es .
z=0
z
Sabemos, ademas, que sen z = 0 solo si z = k, para k = 0, 1, 2, . . .. Las respectivas
1
1
1
partes principales son ,
,
, . . . . Si sumamos las partes principales en k
z z z 2
tenemos
1
1
2z
.
+
= 2
z k z + k
z k22
371

CAPITULO 20. FUNCIONES MEROMORFAS.

372

La idea es reconstruir la funcion a partir de las partes principales

2z
1 X
+ (z)
cot z = +
.
2
| {z }
z k=1 z k 2 2
?

(20.1)

funci
on entera

Utilizaremos analisis de Fourier para validar la expresion (20.1). Consideremos la funcion


cos xt con x R pero x 6= 0, 6= 1, 6= 2, . . .

cos xt =

a0 X
+
a cos t ,
2
=1

donde los coeficientes de Fourier vienen dados por


Z
2
cos xt cos t dt .
a =
0
Calculemos los coeficientes
Z
21
a =
(cos(x + )t + cos(x )t) dt
2 0


1 sen(x + ) sen(x )t
+
=

x+
x



1 (1) sen x (1) sen x


=
+

x+
x
2x sen x
.
= (1)
(x2 2 )
Evaluamos en t = , tenemos cos t = cos = (1) . Luego
(
)

sen x 1 X 2x
cos x =
+
.

x =1 x2 2
Hacemos una prolongacion analtica:

cos z
1 X 2z
+

= cot z = +
sen z
z =1 z 2 2

0 }
| {z

funci
on entera

La convergencia de la serie esta garantizada por el desarrollo:


Convergencia ordinaria en z0 :
z02
converge porque es esencialmente

P 1
.
2

1
,
2

373
Dentro del crculo | z | R hay una cantidad finita de polos. Tomemos en cuenta en la
serie solo los ndices suficientemente grandes > 2R.
2

2
z 2 2 | z |2 2 R2 > 2 = 3 2 .
4
4

Por lo tanto, los terminos de la serie:




1

z2 2
tiene como mayorante convergente


4 1

3 2 ,

P 1
.
2

A partir de lo anterior podemos encontrar un desarrollo para sen z/z como producto
infinito, sabemos que
d
1
log z =
dz
z
luego
d
cos z
log sen z =
= cot z ,
dz
sen z
y

 2
2
2z
2z
d
z2
=
= 2 = 2
.
log
2
2
2
dz

z 2
Combinando

 2

X
d
d
z2
d
,
cot z =
log sen z =
log z +
log
2
dz
dz
dz

=1
integrando
log sen z = C + log z +


log

=1

exponenciando
c

sen z = e z


Y
=1

z2
1 2

2 z2
2

dividamos por z a ambos lados




Y
sen z
z2
c
=e
1 2
z

=1
y tomemos el lmite z 0
= ec ,
luego


sen z Y
z2
1 2 .
=
z

=1


,

CAPITULO 20. FUNCIONES MEROMORFAS.

374

Teorema 20.1 Mittag-Leffler


Se pueden prescribir polos en z1 , z2 , . . ., en cantidad infinita solo sometidos a la condicion
de que no se acumulen en el plano.
En cada uno se puede prescribir una parte principal
pj (z) =

cj,mj
cj,2
cj,1
+
+ +
.
2
z zj (z zj )
(z zj )mj

Entonces es posible construir una funcion meromorfa que tiene exactamente estas singularidades en el plano. Su representacion puede darse en forma de una descomposicion en fracciones
parciales. La funcion meromorfa mas general con dichas particularidades se obtiene sumando
cualquier funcion entera.
Ejemplo
Consideremos una red {m1 + n2 }, con m, n Z

2
1

Figura 20.1: Malla.

prescribir
pj (z) =

1
,
(z zj )2

polos de segundo orden, en particular p0 (z) =

X
1
f (z) = 2 +
z
j=1

1
. Escribimos un intento de la funcion
z2
1
1
2
2
(z zj )
zj


,

se puede demostrar que esta serie converge. Reemplacemos la malla



X 
1
1
1
f (z) = 2 +

,
z
(z m1 n2 )2 (m1 + n2 )2
06=m,nZ

375
derivemos
0

f (z) = 2

X 
m,nZ

= 2

X 
m,nZ

1
(z (m 1)1 n2 )3

1
((z + 1 ) m1 n2 )3

f 0 (z + 1 ) .

Esto muestra que 1 es perodo de f 0 y de la misma manera podemos probar que 2 tambien es
perodo de f 0 . Luego, existen funciones doblemente periodicas. Integrando la relacion anterior
f (z) = f (z + 1 ) + C .
Si 0 6= m, n Z entonces 0 6= m, n Z, luego

X 
1
1
1
+

f (z) =
= f (z) ,
(z)2 06=m,nZ (z + m1 + n2 )2 (m1 + n2 )2
por lo tanto, f (z) es una funcion par. Evaluando en z = 21 tenemos
 
 
1
1
f
f
= 0 = C .
2
2
Luego 1 , 2 son tambien perodos de f . Una funcion periodica dada sugiere definir:
Definici
on 20.2 Malla primitiva es un par de perodos 1 , 2 tal que, todo perodo de la
funcion es combinacion lineal de 1 y 2 con coeficientes en Z.
Sea el par de perodos 1 y 2 la malla primitiva. Entonces cualquier otro par
 
  
1
1
n11 n12
,
=
2
n21 n22
2
y


1
2


=

n22

n21

n12

n11

 
1
,
2

donde n11 n22 n12 n21 = 6= 0. La condicion necesaria y suficiente es que todos los ij sean
n11 n22 n12 n21
1

=
Z esto es cierto si y solo si = 1.
divisibles por , lo cual implica
2
2

Teorema 20.2 Toda funcion entera doblemente periodica, es necesariamente constante.


Demostraci
on
| f (z) | < K ,
en todo el plano, luego la funcion es constante.
q.e.d.

376

CAPITULO 20. FUNCIONES MEROMORFAS.

Captulo 21
La funci
on .
versi
on final 1.2, 1 de Julio del 2003

21.1.

Definici
on.

El factorial definido por


n! = 1 2 3 n
(n + 1)! = (n + 1) n!
Definici
on 21.1 Definamos la funcion
(n + 1) = n! = n(n 1)! = (n)n ,
para n = 0, 1, 2, 3, .

Figura 21.1: Valores de la funcion .

Nuestras exigencias seran


i)

(z) holomorfa, en lo posible.

ii)

(z + 1) = (z) z, identidad funcional.

iii)

(1) = 1.
377

(21.1)

.
CAPITULO 21. LA FUNCION

378

21.2.

Exploraci
on.

Supongamos que existe tal (z), entonces


1
1
(z) = (z + 1) = (1 + potencias crecientes de z)
z
z

Proposici
on 21.1 La funcion (z) tiene polos simples en 0, 1, 2, . . . , n, . . ., con residuos
(1)n
en z = n,
.
n!
Demostraci
on Es cierto para n = 0. Por hipotesis inductiva, lo suponemos valido para
n = k, polo en z = k y probamos para k + 1, es decir, polo z = (k + 1). Por hipotesis,
(z) =

(1)k 1
+ a0 + a1 (z + k) + ,
k! z + k

construimos

1

+ potencias crecientes de (z + k + 1)
k+1


(1)k
1

+ a0 + a1 (z + k + 1) + ,
k! z + k + 1

1
(z + 1) =
z

usando la identidad funcional


1
(1)k+1
1
(z + 1) = (z) =
+ potencias crecientes de (z + k + 1) .
z
(k + 1)! z + k + 1
Luego la demostracion por induccion esta completa.
q.e.d.
Consideremos
log (z + 1) = log z + log (z) ,
derivando

1 0 (z)
0 (z + 1)
= +
.
(z + 1)
z
(z)

Definamos g(z) = 0 (z)/(z), luego


1
g(z) = + g(z + 1)
z
1
g(z + 1) =
+ g(z + 2) ,
z+1
combinandolas

1
1
g(z) =
+ g(z + 2) ,
z z+1

21.3. DEFINICIONES PRECISAS.


derivando
g 0 (z) =

379

1
1
+
+ g 0 (z + 2) ,
2
2
z
(z + 1)

iterando una vez mas


g 0 (z) =

21.3.

1
1
1
+
+
+ g 0 (z + 3) .
2
2
z
(z + 1)
(z + 2)2

Definiciones precisas.

Consideremos la expansion infinita

X
1
1
g (z) = 2 +
.
z
(z + )2
=1
0

Converge en el crculo | z | < R. Integremos g 0 (z) termino a termino


Z z
X
1
d
g(z) = C +
,
2
z
(
+
)
o
=1

por un camino tal que evita los polos



z 

Z z
1
1
1
d
=
=
+
.
2
+ 0
z+
o ( + )
Recordando la definicion


X
1
1
1
d
log (z) = g(z) = C

,
dz
z
z+
=1
integrando
log (z) = C1 log z Cz


X

log(z + ) log()

=1

ya que la integral
Z
o

1
1


z

,
d = log( + )
o

exponenciando

1 Cz Y z 
z 1

(z) = K e
e 1+
,
z

=1

donde K = eC1 . Tomamos el cociente de las funciones ,


z+1

(z + 1)
z
eCz Y e
=z=
z
(z)
z + 1 eC(z+1) =1 e

+z

+z+1

z
,

.
CAPITULO 21. LA FUNCION

380
luego despejando la constate que queremos determinar
eC =
=

1 Y 1 +z
e
z + 1 =1 + z + 1

(z + 1)(z + 2) (z + n)
1
z+1+n
lm e1 e1/2 e1/3 e1/n

z + 1 n
(z + 2)(z + 3) (z + 1 + n)
n+1

haciendo las simplificaciones y sacando logaritmo




1
1
C = lm 1 + + + log(n + 1)
n
2
n

2
u= 1
x+1
u= 1
x

Figura 21.2: Acotando el lmite.


Los segmentos rojos (obscuros) son un area finita:


Z 
1
1
x

= log 2 .

dx = [log x log(1 + x)]0 = log


x 1+x
x + 1 1
0
podemos acotar el lmite que nos interesa


1
1
C = lm 1 + + + log(n + 1) < log 2
n
2
n
este lmite existe y es conocido como la constante de Euler-Mascheroni, 0.577.
Determinemos la otra constante, para ello formemos
n
 z z

Y
z
(z)
1
z

= lm exp + z log n lm
e
n
K
z n
1 2
n
+z
=1

1
nz n!
lm
.
z n (z + 1) (z + n)

Evaluando en z = 1
(1)
n n!
n
= 1 lm
= lm
=1,
n 2 3 (1 + n)
n n + 1
K

21.3. DEFINICIONES PRECISAS.

381

luego K = 1. Determinadas las constantes podemos escribir expresiones para la funcion :


nz n!
1
lm
z n (z + 1)(z + 2) (z + n)

ez Y ez/
(z) =
z =1 1 + z

(z) =

(21.2)

Ambas expresiones son debidas a Gauss. La funcion es meromorfa tiene polos simples en
z = 0, 1, 2, 3, . . ..
Formemos el inverso de un producto de funciones



Y
Y
1
z
z
z2
2
= z (z)
1+
1
= z
1 2 ,
(z) (z)

=1
=1
pero z(z) = (1 z) luego
1
1
= sen z
(z)(1 z)

(21.3)

1
Evaluemos (21.3) para z = , tenemos
2
1
1
= ,
2
[(1/2)]

luego
 

=
2
A partir de este valor podemos evaluar
 


 
3
1
1
1

+1 =
=
=
2
2
2
2


 
 
3
3
3
5
=
+1 =
=

2
2
2
2

(21.4)

2
3 1
.
22

La expresion general


2n + 1
2


=

3 1
(2n 1)!!
2n 1
...
=

2
22
2n

(21.5)

2n + 1
2n 1
entonces 1 z =
luego
2
2

 

sen[(2n + 1) 2 ]
2n + 1
2n 1
(2n 1)!!
(z)(1 z) =

=
(1

z)
=
,
2
2
2n

Si z =

.
CAPITULO 21. LA FUNCION

382
20

10

-3

-2

-1

-10

-20

Figura 21.3: La funcion .

donde hemos usado (21.3). Despejando la relacion anterior para (1 z) tenemos




2n 1
(1 z) =
2

1
(2)n
2n

=
(2n 1)!!
(2n 1)!! sen[(2n + 1) 2 ]

(21.6)

Para n = 1 tenemos (1/2) = 2 , para n = 2 tenemos (3/2) = 4 /3.


1
Sea z = luego
2

1 2 3n
2n+1
n n!
= lm 1 3
n.
=
l
m
n
n 1 3 5 (2n 1) 2n + 1
2n+1
22
2
Elevando al cuadrado, tomando el recproco y multiplicando por dos, tenemos
2
1 3 3 5 5 (2n 1)(2n 1) 2n + 1 1 2n + 1
= 2 lm
n

2 2 4 4 6 2n
2n 2 2n






Y
1
1
1
1
1 2
1 2 =
1
.
= 1 2
2
2
4
6
(2)
=1
Este u
ltimo resultado es conocido como el producto de Wallis.

Y
=1

21.4.

1
1
(2)2


=

Representaciones integrales de .

Consideremos tz , con t > 0, valor principal de ez Log t . Derivemos respecto a t


z z z Log t
t = e
= ze Log t ez Log t = ze(z1) Log t = ztz1 .
t
t

(21.7)

21.4. REPRESENTACIONES INTEGRALES DE .

383

Consideremos la integral siguiente


Z
0

1


= 1 .

z+
premisa x > 0 m
odulo = 1

1
1

t
1 (z+) Log t
1
z+1
Log t
iy Log t

t
dt =
=
e
=
e|(x+)


{z } e| {z }
z+ 0
z+
z
+

0
z+

(1) 1
con = 0, 1, 2, 3, . . ..
! z +
Z
Z 1X

X
X
(1) 1
(1) 1 z1
(t) z1
=
t t dt =
t dt .
!
z
+

!
!
0
0
=0
=0
=0

Las partes principales de (z) son:

Luego
1

et tz1 dt + funcion entera.

(z) =
0

et tz1 dt.

Afirmaci
on: La funcion entera es
1

Afirmaci
on:

t x1

e t

dt = lm

t
1
n

n

tx1 dt .

Relacion con (x). Hagamos el cambio de variable = t/n y dt = nd


n
Z 1
Z n
t
x1
x1 x1
t
dt =
(1 )n |{z}
I=
1
n nd ,
{z
}
|
n
=0
0
0
v

integrando por partes


Z 1


x 1
n
x
x
n
n1
d .
I=n
(1 )
+
(1 )

x 0 x =0 | {z } |{z}
0
u

Nuevamente integrando por partes


(
)

Z 1
x+1 1
n

n1
+
(1 )n1
(1 )n2 x+1 d .
I = nx
x
x + 1 0 x + 1 =0
Se ve una clara ley de formacion, despues de integrar n veces por partes:
 x+n 1
n(n 1) 1
nx n!

x
I=n
=
(x) .
x(x + 1) (x + n 1) x + n 0 x(x + 1) (x + n 1) n
Obtuvimos pues
Z

et tx1 dt = (x) ,

para x > 0.

(21.8)

Haciendo una prolongacion analtica al plano complejo


Z
et tz1 dt = (z)
0

(21.9)

.
CAPITULO 21. LA FUNCION

384
para Re[z] > 0.
Hagamos una observacion

 
Z
Z

1
2
t 1/2
= =
e t
dt =
e d .

2
0
0

21.5.

La funci
on Beta.

Estudiemos el producto de dos funciones ,


Z
(z) (s) =

t z1

e t
0
Z Z

=
0

eu us1 du ,

dt

para Re[z] > 0 y Re[s] > 0

e(t+u) tz1 us1 dt du .

Hagamos el cambio de variable t = t y u = v t, el Jacobiano de la transformacion




(t, u) +1 0
=
=1>0.
(t, v) 1 1
Escribiendo la integral en las nuevas variables
Z

(z) (s) =

Z

v
z1

v=0

s1

(v t)


dt dv ,

t=0

ahora hacemos el cambio de variable = t/v y la integral se transforma


Z

(z) (s) =

Z

e
v=0

z1 z1 s1

s1

(1 )


v d

dv .

=0

Luego
Z
(z) (s) =

v z+s1

e v
v=0
{z
|

(z+s)

Z
dv
}

z1 (1 )s1 d .

=0

Definici
on 21.2 Definimos la funcion B(z, s) a partir de
(z) (s)
B(z, s) = B(s, z) =
=
(z + s)
para Re[z] > 0 y Re[s] > 0.

Z
0

z1 (1 )s1 d

(21.10)

BETA.
21.5. LA FUNCION

21.5.1.
i)

385

Casos particulares.

Sea s = 1 z luego (z + s) = (1) = 1, lo que implica


Z 1
z1

(z)(1 z) =
d
=
,
z
sen z
0 (1 )

Re[z] > 0 .

Luego
B(z, 1 z) =
ii)

Sea s = n + 1, para Re[z] > 0


Z 1
z1 (1 )n d =
0

sen z

(21.11)

n!
= B(z, n + 1) ,
z(z + 1) (z + n)

lo que implica
lm nz B(z, n + 1) = (z) .

n
iii)

Sea z =

(21.12)

n+1
1
ys=
, luego
2
2

 Z 1p
(1 )n1
1 n+1

B
d ,
,
=
2
2

Sea = sen2 con 0 , luego d = 2 sen cos d y 1 = cos , haciendo


2
este cambio de variable




Z /2
21 n+1
1 n+1
2
 =2
B
cosn d .
,
=
2
2
n2 + 1
0

386

.
CAPITULO 21. LA FUNCION

Captulo 22
Representaci
on Conforme.
versi
on final 1.2, 11 de Julio del 2003

22.1.

Introducci
on.

Consideremos la transformacion o mapeo w = f (z)


f
z
y

v
S

w0

z0

Figura 22.1: Transformacion w = f (z).

Consideremos la curva C en el plano z. Sea f analtica en z0 y tal que f 0 (z0 ) 6= 0. Sea S


la curva correspondiente al mapeo de la curva C, f (z0 ) = w0 .
Si es el angulo de la tangente en z0 y si es el angulo de al tangente en w0 entonces
= + 0 ,

(22.1)

donde 0 = Ang f 0 (z0 ). Es decir, las tangentes rotan en un angulo 0 fijo siempre que f sea
analtica en z0 y f 0 (z0 ) 6= 0.

22.2.

Representaci
on conforme.

Puesto que el angulo 0 esta determinado por la funcion f en el punto z0 , es el mismo


para toda curva que pase por z0 .
387

CONFORME.
CAPITULO 22. REPRESENTACION

388

C1

w
v

S1

C2

w0

z0
x

S2
u

Figura 22.2: Par de curvas bajo la transformacion w = f (z).

Veamos lo que pasa con el angulo entre las curvas en el plano z y en el plano w,

1 = 1 + 0
= 1 2 = 1 2 = .
2 = 2 + 0
En tal caso la representacion es conforme.
Teorema 22.1 En cada punto de un dominio donde f es analtica y f 0 (z) 6= 0, el mapeo
w = f (z) es conforme, i.e. preserva los angulos orientados.
Notemos que
| w |
= | f 0 (z0 ) | ,
z0 | z |
es decir, la transformacion magnifica la longitud de trazos cortos que pasan por z0 en un
factor de | f 0 (z0 ) |.
lm

Definici
on 22.1 Un punto donde f 0 (z0 ) = 0 se llama un punto crtico de la transformacion.
Por ejemplo, el punto z0 = 0 es un punto crtico de la transformacion w = z 2 + 1. Usemos
una forma polar para z = rei y w 1 = ei , entonces ei = r2 e2i , luego un rayo que salga
con un angulo c desde z = 0 se mapeara en un rayo que sale con un angulo 2c desde el punto
w = 1.
Definici
on 22.2 Un mapeo isogonal es aquel que preserva el angulo pero no su orientacion.
Por ejemplo, w = z es un reflexion sobre el eje real y es isogonal.
Ejemplo Toda transformacion conforme debe mapear curvas ortogonales sobre curvas ortogonales.
Ejemplo Consideremos la transformacion w = z 2 = x2 y 2 + 2ixy
En el plano w tenemos una parabola

u = 1 y2
parametro y, (x = 1) ,
v = 2y


22.3. TRANSFORMACIONES DE FUNCIONES ARMONICAS.

389

C1
S2
C2

S1

w0

z0

Figura 22.3: Mapeo isogonal.


w=z2
z

/4

2i
/4
i

1+ i

Figura 22.4: Mapeo w = z 2 .

o bien, v 2 = 4(u 1).


Si la direccion de y creciente se toma como el sentido positivo de las dos lneas en z
entonces el angulo entre ellas es /4.
Veamos que pasa en el plano w: cuando y > 0 e y crece a lo largo de la lnea y = x,
entonces v crece a lo largo de la lnea u = 0, puesto que v = 2y 2 , y por lo tanto el sentido
positivo de la imagen de la lnea x = y es hacia v creciente. Para la parabola vemos que v
tambien crece cuando y > 0, crece ya que v = 2y, y por lo tanto el sentido es el indicado en
la figura 22.4.
Es claro que el angulo entre las curvas en z es igual a /4, es decir, toda curva que pase
por 1 + i rota en /4 frente a la transformacion w = z 2 .

El coeficiente de magnificacion es | f 0 (1 + i) | = 2 | 1 + i | = 2 2.

22.3.

Transformaciones de funciones arm


onicas.

Un problema viejo y prominente: encontrar una funcion que sea armonica en un dominio
dado y que satisfaga condiciones dadas (prescritas) en el borde del dominio.
Problema de condiciones de borde de primera clase o problema de Dirichlet: prescripcion
de los valores de la funcion sobre el borde.

CONFORME.
CAPITULO 22. REPRESENTACION

390

Problema de condiciones de borde se segunda clase o problema de Neumann: prescripcion de los valores de la derivada normal de la funcion.
Existen modificaciones y combinaciones de los dos problemas anteriores.
Toda funcion analtica proporciona un par de funciones armonicas:
f (x + iy) = u(x, y) + iv(x, y) ,
donde u y v satisfacen
2u 2u
+
=0,
x2 y 2

2v 2v
+
=0,
x2 y 2

la funcion u se llama la armonica conjugada de v y viceversa.


Ejemplo Consideremos la funcion
f (z) = eiz = u(x, y) + iv(x, y) ,
las funciones u, v corresponden a
u(x, y) = ey cos x ,

v(x, y) = ey sen x ,

las funciones u, v son armonicas en todo el plano.


v=0
y

v=0

v=0

v= sen x

Figura 22.5: Condiciones de borde de primera clase (Dirichlet).

Condiciones de borde:
v(0, y) = 0 ,

v(, y) = 0 ,

v(x, 0) = sen x ,

y ademas v(x, y) satisface:


2v 2v
+
=0.
x2 y 2

lm v(x, y) = 0 ,


22.3. TRANSFORMACIONES DE FUNCIONES ARMONICAS.

391

Este procedimiento necesita muchas veces ayuda adicional ya que no siempre es simple.
Consideremos una funcion H(x, y) armonica. Sean u, v dos nuevas variables tales que
z = x + iy sea una funcion analtica de w = u + iv, es decir,
z = f (w) .
Sabemos que podemos encontrar una funcion G(x, y) armonica conjugada de H(x, y) y en
tal caso H + iG es una funcion analtica de z. Puesto que z es una funcion analtica de w se
tiene que H + iG es tambien una funcion analtica de w en tal caso
2H 2H
+
=0.
u2
v 2
Establecemos entonces el siguiente teorema:
Teorema 22.2 Toda funcion armonica de x, y se transforma en una funcion armonica de u,
v bajo el cambio de variable x + iy = f (u + iv) donde f es una funcion analtica.
Consecuencia: una funcion que es armonica en una vecindad permanece armonica bajo el
cambio de variable que proviene de la transformacion
w = F (z) ,
donde F es analtica y F 0 (z) 6= 0 en la vecindad, puesto que la funcion inversa z = f (w) es
analtica.
Ilustraci
on: La funcion H(x, y) = ey sen x es armonica en alguna region del plano z. Si
transformamos z = w2 tenemos
x = u2 v 2 ,

y = 2uv ,

y por lo tanto la funcion


H(u, v) = e2uv sen(u2 v 2 ) ,
es armonica en la region correspondiente del plano w
all
z

Figura 22.6: Region donde H(u, v) es armonica.

2H 2H
+
=0.
u2
v 2

CONFORME.
CAPITULO 22. REPRESENTACION

392

22.4.

Transformaciones de las condiciones de borde.

H
Condiciones tpicas para H armonica: H = cte. o
= cte., etc. sobre porciones del
n
borde de una region.
Algunas de estas condiciones permanecen inalteradas frente a una transformacion conforme.
Definici
on 22.3 Curvas de nivel son aquellas sobre las cuales H(x, y) = cte.
Haciendo el cambio de variable: x = x(u, v) e y = y(u, v), si originalmente tenamos
H(x, y) = cte., ahora tenemos que H[x(u, v), y(u, v)] = cte.
z
y

H=c

w
v

H=c

Figura 22.7: Mapeo de una condicion de borde.


La condicion se traslada al problema transformado.
Si la derivada normal de H se anula a lo largo de alguna curva en z entonces la derivada
normal, expresada en terminos de u y v, tambien se anula a lo largo de la curva correspondiente en w.
H
H v H u
Ejemplo En z tenemos
= 0 implica que en w tenemos
+
= 0.
x
v x
u x
H
Veamoslo con
, la derivada normal. Para ello consideremos las siguientes propiedades
n
del gradiente de una funcion H(x, y).
i)

La direccion del vector gradiente de H(x, y) es aquella en la cual esta funcion vara mas
rapido.

ii)

La magnitud del vector gradiente es el valor de aquella maxima variacion.

iii)

La proyeccion del vector gradiente de H en una determinada direccion es la derivada


direccional de la funcion H en tal direccion. En particular
~ x = H ,
~ y = H ,
H
H
x
y
por lo tanto podemos escribir en z,
~ = 1 H + i H .
H
x
y

22.4. TRANSFORMACIONES DE LAS CONDICIONES DE BORDE.


iv)

393

El gradiente es perpendicular a la curva de nivel H = cte. en cada punto, en efecto


H
H
~ d~r = 0 implica que H
~ es perpenH(x, y) = cte. implica dH =
dx +
dy = H
x
y
dicular a las curvas de nivel.

Supongamos que la derivada normal de H(x, y) es igual a cero sobre alguna curva C, es
dH
= 0 sobre C.
decir,
dn

z
y

w
v

H=c

H=c
x

Figura 22.8: Curvas ortogonales.


dH
~
es la proyeccion de H
sobre la normal, la normal sobre C debe ser
dn
~
perpendicular a H
sobre todo punto de la curva. Por lo tanto, la tangente a C coincide
con el gradiente y usando la ultima propiedad enumerada del gradiente C es ortogonal a las
curvas de nivel H(x, y) = c. La imagen S de C es, bajo transformacion conforme, ortogonal
a las curvas de nivel
H[x(u, v), y(u, v)] = c ,
Puesto que

que son las imagenes de H(x, y) = c. Por lo tanto, la derivada normal de H en w, sobre la
curva S, debe ser igual a cero.
De todo lo anterior podemos formular el siguiente teorema:
Teorema 22.3 Bajo una transformacion z = f (w), donde f es analtica y f 0 (w) 6= 0, las
dH
condiciones de borde de los tipos H = c o
= 0, sobre una funcion armonica H, donde
dn
c = cte. permanecen inalteradas.
Ejemplo Consideremos la funcion armonica
H =2x+

x2

x
+ y2

La transformacion z = ew implica x + iy = eu+iv = eu eiv es decir



x = eu cos v
= x2 + y 2 = e2u ,
y = eu sen v

CONFORME.
CAPITULO 22. REPRESENTACION

394

z
H=2

w
z=ew

x2+y2=1
1 x

Figura 22.9: Mapeo de una particular condicion de borde.

luego

eu cos v
= 2 eu cos v + eu cos v ,
2u
e
2
para la imagen de la circunferencia x + y 2 = 1, que corresponde a la recta u = 0, se tiene
H = 2 eu cos v +

H = 2 cos v + cos v = 2 .
Vemos que la condicion H = 2 sobre el contorno x2 + y 2 = 1 se mantiene sobre su imagen
u = 0 en el plano w.

22.5.

Aplicaciones de la representaci
on conforme.
Solido con conductividad termica .
Flujo estacionario de calor, la Temperatura en el interior del solido, T = T (x, y),
satisface

2T
2T
+
=0.
x2
y 2
x

Figura 22.10: Geometra del solido.

(22.2)

Es decir, T es una funcion armonica de x,


y en el dominio definido por el interior del
solido.

Definici
on 22.4 Las curvas isot
ermicas satisface T (x, y) = c, con c una constante. Estas
~ es perpendicular a la isotermica.
son las curvas de nivel de la funcion T . Claramente T
Si S(x, y) es la funcion armonica conjugada de T (x, y), entonces las curvas S(x, y) = c
tiene a los vectores gradientes como sus tangentes, estas curvas son las lneas de flujo.
F (x, y) = T (x, y) + iS(x, y)

(22.3)

Tal que Re[F ] = cte. corresponden a las isotermicas y Im[F ] = cte. corresponden a las lneas
de flujo de calor.

22.5. APLICACIONES

395
T
isotrmica

T(x,y)=c

lneas de flujo

S(x,y)=c

Figura 22.11: Curvas ortogonales.

22.5.1.

Temperaturas estacionarias en una pared semi-infinita.

Debemos determinar T (x, y) con las


condiciones de borde dada en la figura 22.12.
La funcion T (x, y) esta acotada en toda
esta region, en particular para y .
El problema matematico a resolver es
el siguiente:

y
T=0



2T 2T

+
=
0
,
<
x
<
,
y
>
0
.

x2 y 2
2
2
Con las condiciones de borde
 
 
T ,y = T
,y = 0 ,
2
2

T=0

T=0

/2

/2

T= 1

Figura 22.12: Pared semi-infinita.


y>0,



< x < ,y > 0 ,


2
2
| T (x, y) | < M , con M = cte.

T (x, 0) = 1 ,

Tal que T 0 cuando y .


Estamos frente a un problema de Dirichlet para un franja semi-infinita. Las condiciones
son del tipo T = c, invariantes frente a transformaciones conformes. Es difcil descubrir una
funcion analtica cuya parte real o imaginaria satisfaga las condiciones de borde se
naladas
arriba. Realizaremos entonces una transformacion conforme para obtener una region y un
problema suficientemente simple de modo que la funcion buscada resulte evidente.
Consideremos la transformacion z 0 = sen(z) = sen x cosh y + i cos x senh y
Ahora usando la transformacion
w = Log

r1
z0 1
= Log + i(1 2 ) ,
0
z +1
r2

0 < 1 < , 0 < 2 < .

(22.4)

Una funcion armonica de u, v que es igual a cero para v = 0, igual a uno para v = y
acotada en la franja es claramente,
1
T = v,
(22.5)

w
ya que corresponde a la parte imaginaria de la funcion analtica f (w) = .

CONFORME.
CAPITULO 22. REPRESENTACION

396
z

z= sen z

z
r2

T=0

T=0

12

r1

/2

T= 1

/2

x
T=0 1

T= 1

isoterma

x
T=0

Figura 22.13: Transformacion conforme.

v
i

T= 1

T=0

T=0

Figura 22.14: Transformacion conforme w = Log[(z 0 1)/(z 0 + 1)].

Combinando a las coordenadas x0 e y 0 del plano z 0 por medio de la transformacion


0

0
z 1
z0 1
+ i Ang z 1 ,
w = Log 0
= Log 0
(22.6)
z +1
z +1
z0 + 1
tenemos que

v = Ang

x0 1 + iy 0
x0 + 1 + iy 0

o bien

x02 + y 02 1 + 2iy 0
= Ang
(x0 + 1)2 + y 02


2y 0
v = arctan
x02 + y 02 1
donde la funcion arctan va entre 0 y puesto que


Ang


,


,

z0 1
= 1 2 ,
z0 + 1

y los angulos son los indicados en la figura 22.13. Luego




1
2y 0
.
T = arctan

x02 + y 02 1

(22.7)

z0 1
v
es analtica en y 0 > 0. Puesto que la funcion T =
es
0
z +1

analtica en la franja, la funcion (22.7) debe ser armonica en y 0 > 0. Las condiciones de borde
deben ser las mismas en las partes correspondientes de los bordes.
La transformacion w = Log

22.5. APLICACIONES

397

Isotermas del plano z 0 : la condicion T = c con 0 < c < 1, tenemos


x02 + y 02

2
y0 1 = 0 ,
tan c

las cuales corresponden a circunferencias con centro en el eje y 0 y que pasan por los puntos
(1, 0).
Volviendo al problema original, z 0 = sen z luego tenemos
x0 = sen x cosh y
y 0 = cos x senh y ,
luego
T (x, y) =
=
=
=


2 cos x senh y
arctan
sen2 x cosh2 y + cos2 x senh2 y 1


2 cos x senh y
arctan
cosh2 cos2 x(cosh2 y senh2 y) 1


2 cos x senh y
arctan
senh2 y cos2 x


2 cos x/ senh2 x
,
arctan
1 (cos x/ senh y)2

finalmente
T (x, y) =

2
cos x
arctan
,

senh y

0T 1.

(22.8)

Puesto que sen z es analtica la transformacion z 0 = sen z asegura que la funcion (22.8)
sera armonica en la franja /2 < x < /2, y > 0. Ademas, se mantendran las condiciones
de borde. Mas a
un, | T (x, y) | 1 en la franja. Por lo tanto, (22.8) es la funcion buscada.
Las isotermas corresponden a T = c es decir dado (22.8)
cos x = tan

c
senh y ,
2

cada una de las cuales pasa por los puntos (/2, 0). La lneas de flujo S(x, y) = cte., con S
la funcion armonica conjugada de T (x, y).

Apuntes de un curso de

METODOS
DE LA FISICA MATEMATICA
II

Departamento de Fsica
Facultad de Ciencias
Universidad de Chile

Vctor Mu
noz G.
Jose Rogan C.

Indice
1. Espacio de funciones
1.1. Definiciones . . . . . . . . . . . . . . . . . . . .
1.2. Sucesiones de funciones . . . . . . . . . . . . . .
1.3. Proceso de ortonormalizacion de Gram-Schmidt
1.4. Coeficientes de Fourier . . . . . . . . . . . . . .
1.5. Integrales impropias (valor principal) . . . . . .
1.6. Convergencia seg
un Ces`aro . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

2. Series de Fourier
3. Transformada de
3.1. Definiciones .
3.2. Ejemplos . . .
3.3. Propiedades .
3.4. Aplicaciones .

1
1
3
10
11
15
16
19

Fourier
. . . . .
. . . . .
. . . . .
. . . . .

.
.
.
.

35
35
37
41
43

4. Convoluci
on
4.1. Espacio S . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2. Producto de convolucion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3. El espacio S como anillo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

47
47
48
51

5. Distribuciones temperadas
5.1. Definiciones . . . . . . . . . . . . . . . .
5.2. Sucesion de distribuciones . . . . . . . .
5.3. Producto de distribuciones . . . . . . . .
5.4. Distribuciones y ecuaciones diferenciales
5.5. Convergencia debil . . . . . . . . . . . .

55
55
64
74
76
77

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

6. Distribuciones y transformada de Fourier

83

7. Convoluci
on de distribuciones
7.1. Definiciones . . . . . . . . . . . . . . . . . . . .
7.2. Propiedades de la convolucion de distribuciones
7.3. Uso de convolucion en Fsica . . . . . . . . . . .
7.4. Funcion de Green de un operador diferencial . .

93
93
95
97
99

iii

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

INDICE

iv
8. La funci
on Gamma
8.1. La funcion factorial . . . . .
8.2. La funcion Gamma . . . . .
8.3. Funcion Beta . . . . . . . .
8.4. Notacion doble factorial . .
8.5. Formula de Stirling . . . . .
8.6. Otras funciones relacionadas

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

9. Transformada de Laplace
9.1. Definicion . . . . . . . . . . . . . . . . . .
9.2. Inversion de la transformada de Laplace .
9.3. Propiedades de la transformada de Laplace
9.4. Lista de transformadas de Laplace . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

101
. 101
. 102
. 104
. 107
. 107
. 109

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

113
. 113
. 115
. 120
. 121

10.Aplicaciones de la transformada de Laplace


10.1. Ecuaciones diferenciales lineales con coeficientes constantes
10.2. Ecuaciones integrales . . . . . . . . . . . . . . . . . . . . .
10.3. Ecuaciones en derivadas parciales . . . . . . . . . . . . . .
10.4. Sistema de ecuaciones lineales . . . . . . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

125
126
128
130
133

11.Polinomios ortogonales
11.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.3. Relacion de recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

135
. 135
. 136
. 137

12.Polinomios de Hermite
12.1. Definicion . . . . . . . . . . . .
12.2. Funcion generatriz . . . . . . .
12.3. Ortogonalidad . . . . . . . . . .
12.4. Algunos resultados interesantes
12.5. Solucion por serie de la ecuacion

. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
de Hermite

13.Polinomios de Laguerre
13.1. Definicion . . . . . . . . . . . . .
13.2. Funcion generatriz . . . . . . . .
13.3. Relaciones de recurrencia . . . . .
13.4. Ecuacion de Laguerre . . . . . . .
13.5. Ortogonalidad . . . . . . . . . . .
13.6. Polinomios asociados de Laguerre

.
.
.
.
.
.

.
.
.
.
.
.

14.El problema de Sturm-Liouville


14.1. Operadores diferenciales autoadjuntos
14.2. Operadores autohermticos . . . . . .
14.3. Problema de autovalores . . . . . . .
14.4. Ejemplos de funciones ortogonales . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

139
. 139
. 139
. 142
. 143
. 143

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

151
. 151
. 153
. 154
. 156

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

145
145
145
147
147
148
150

INDICE

15.Ecuaciones diferenciales con singularidades


15.1. Puntos singulares . . . . . . . . . . . . . . .
15.2. Solucion por serie: metodo de Frobenius . .
15.3. Limitaciones del metodo. Teorema de Fuchs
15.4. Una segunda solucion . . . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

159
159
160
163
165

16.Ecuaciones diferenciales del tipo...


16.1. Soluciones en puntos regulares . . . . . . . . . .
16.2. Soluciones en la vecindad de puntos singulares .
16.3. Singularidades en infinito . . . . . . . . . . . . .
16.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . .
16.5. Ecuaciones con n 3 singularidades Fuchsianas

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

169
169
173
182
183
185

.
.
.
.
.

191
. 191
. 192
. 193
. 195
. 198

17.Funciones hipergeom
etricas
17.1. La ecuacion hipergeometrica general
17.2. Ecuacion indicial . . . . . . . . . . .
17.3. Ecuacion diferencial de Gauss . . . .
17.4. La serie hipergeometrica . . . . . . .
17.5. Ecuacion hipergeometrica confluente

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

18.Polinomios de Legendre
18.1. Funcion generatriz . . . . . . . . . . . . . .
18.2. Relaciones de recurrencia . . . . . . . . . . .
18.3. Coeficientes del polinomio Pn (x) . . . . . . .
18.4. Formula de Rodrigues . . . . . . . . . . . .
18.5. Ecuacion diferencial de Legendre . . . . . .
18.6. Lugares nulos de Pn (x) . . . . . . . . . . . .
18.7. Relacion de ortogonalidad . . . . . . . . . .
18.8. Expresiones integrales para Pn (x) . . . . . .
18.9. Serie de Legendre . . . . . . . . . . . . . . .
18.10.Funciones asociadas de Legendre . . . . . .
18.11.Problema de Sturm-Liouville asociado . . .
18.12.Armonicos esfericos . . . . . . . . . . . . . .
18.13.Segunda solucion de la ecuacion de Legendre

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

201
. 201
. 203
. 204
. 205
. 206
. 207
. 207
. 208
. 210
. 213
. 215
. 217
. 219

19.La ecuaci
on diferencial de Bessel
19.1. La ecuacion diferencial de Bessel . . . .
19.2. Funciones de Bessel de ndice no entero
19.3. Funciones de Bessel de ndice entero . .
19.4. Comportamiento asintotico . . . . . . .
19.5. Funcion generatriz . . . . . . . . . . .
19.6. Formulas de adicion . . . . . . . . . .
19.7. Representaciones integrales . . . . . . .
19.8. Relaciones de recurrencia . . . . . . . .
19.9. Relaciones de ortogonalidad . . . . . .
19.10.Problema de Sturm-Liouville asociado

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

225
225
226
228
229
230
231
232
234
235
236

INDICE

vi

20.Diversos tipos de funciones cilndricas


239
20.1. Segunda solucion de la ecuacion de Bessel . . . . . . . . . . . . . . . . . . . . 239
20.2. Funciones de Hankel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
21.Aplicaciones
21.1. Coordenadas rectangulares . . . . . . . . . . . .
21.2. Coordenadas polares, dos dimensiones . . . . . .
21.3. Ecuacion de Laplace en coordenadas esfericas .
21.4. Ecuacion de Laplace en coordenadas cilndricas
21.5. Otras aplicaciones . . . . . . . . . . . . . . . . .
21.6. Ecuacion de difusion . . . . . . . . . . . . . . .
21.7. Difusion con creacion de partculas . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

245
245
249
252
257
259
263
265

Captulo 1
Espacio de funciones
versi
on 17 agosto 2009

1.1.

Definiciones

Definici
on 1.1 Denotemos por C0 [a, b] al conjunto de funciones complejas continuas de una
variable real t [a, b]. Ademas, escojamos que:
f C0 [a, b],

f (a) = f (b).

(1.1)

Notemos que claramente se cumple


Si f, g C0 [a, b] = f + g C0 [a, b]

(1.2a)

si f C0 [a, b] y C = f C0 [a, b] .

(1.2b)

y
Definici
on 1.2 Denotemos por C [a, b] al conjunto de funciones complejas seccionalmente
continuas, acotadas (o sea, con discontinuidades mansas o de primera especie), de una
variable real t [a, b].
f C[a, b]
s

t
a
t0
b
Si t0 es un punto de discontinuidad, la funcion f debe estar dada, en ese punto, por
f (t0 ) =


1 +
f (t0 ) + f (t
0) .
2

(1.3)

Podemos afirmar que los conjuntos C0 [a, b] y C [a, b] forman espacios vectoriales sobre el
cuerpo de los complejos. Ademas, C0 [a, b] C [a, b].
1

CAPITULO 1. ESPACIO DE FUNCIONES

Definici
on 1.3 Consideremos dos funciones f, g C [a, b]. Definimos su producto escalar
como
Z b
f (t)g(t) dt
(f |g) =
(1.4)
a

Propiedades del producto escalar. Sean f, g, h C [a, b] y C.


( f | g ) = ( g | f )

(1.5a)

(f |g + h) = (f |g) + (f |h)
(f + g|h) = (f |h) + (g|h)

(1.5b)

( f | g ) = ( f | g )
( f | g ) = ( f | g )

(1.5c)

Si f 6 0 = ( f | f ) > 0.

(1.5d)

Definici
on 1.4 Un espacio vectorial complejo dotado de un producto escalar con las propiedades anteriores, ecuaciones (1.5), se conoce como espacio pre-Hilbert.
Definici
on 1.5 Sea f C [a, b]. Definimos su norma:
p
k f k = ( f | f ) R.

(1.6)

Propiedades de la norma. Sean f, g C [a, b] y C.


kf k 0
k f k = || k f k
|(f |g)| kf k kgk
kf gk kf k + kgk
Si f (z) 6 0 = k f k > 0.

Desigualdad de Cauchy-Schwartz
Desigualdad Triangular

(1.7a)
(1.7b)
(1.7c)
(1.7d)
(1.7e)

Demostraci
on Desigualdad de Cauchy-Schwartz, ecuacion (1.7c). Sea C arbitrario.
0 k f + g k2 = ( f + g | f + g ) = k f k2 + ( f | g ) + ( g | f ) + k g k2 .
Siendo arbitrario, tomemoslo entonces como:
=

(f |g)
k f k2

(g|f )
.
k f k2

(Observar que esta eleccion corresponde a un extremo del lado derecho de la relacion anterior
con respecto a . Es decir, simplemente estamos diciendo que, si el lado derecho es siempre
positivo, en particular lo es su valor maximo o mnimo.) Luego
0

| ( f | g ) |2
| ( f | g ) |2
| ( f | g ) |2
2
2
k
f
k

2
+
k
g
k
=

+ k g k2
k f k4
k f k2
k f k2

1.2. SUCESIONES DE FUNCIONES

| ( f | g ) |2 k f k2 k g k2
|(f |g)| kf k kgk.
q.e.d.
Demostraci
on Desigualdad triangular, ecuacion (1.7d). De la definicion de norma
k f g k2 = ( f g | f g ) = ( f g | f ) ( f g | g ) R,
k f g k2 = Re [( f g | f ) ( f g | g )] ,
y como Re [z] |z| =

(Re[z])2 + (Im[z])2 , entonces:

k f g k2 | ( f g | f ) | + | ( f g | g ) |.
Usando Cauchy-Schwartz,
k f g k2 k f g k k f k + k f g k k g k ,
kf gk kf k + kgk.
q.e.d.

1.2.

Sucesiones de funciones

Definici
on 1.6 Sea fn (t) con n = 0, 1, 2, . . ., una sucesion de funciones. Si t [a, b] fijo, y
 > 0 N tal que
|fn (t) F (t)| < 
para
n > N,
(1.8)
para una cierta funcion F (t), entonces decimos que fn (t) converge puntualmente a F (t) en
[a, b], y se escribe fn (t) F (t). Observemos que N depende posiblemente de t.
n

Definici
on 1.7 Una sucesion de funciones fn (t) con n = 0, 1, 2, . . ., converge uniformemente
a F (t) si  > 0 N tal que
|fn (t) F (t)| < 
unif

Escribiremos en tal caso fn (t) F (t).


n

para n > N y t [a, b].

(1.9)

CAPITULO 1. ESPACIO DE FUNCIONES

Definici
on 1.8 La distancia entre dos funciones f , g C [a, b] se define por
s
Z b
(f g) (f g).
kf gk =

(1.10)

A partir de la definicion y las propiedades de la norma, se tiene


k f g k = 0 f (t) = g(t) t [a, b].
Definici
on 1.9 Una sucesion de funciones fn (t) con n = 0, 1, 2, . . ., converge en la norma a
F (t) si  > 0 N tal que
k fn F k < 

(1.11)

para n > N .

Escribiremos en tal caso fn


F o bien lm k fn F k = 0.
n

Para ilustrar las diferencias entre los distintos tipos de convergencia anteriores, consideremos algunos ejemplos.
Ilustraciones
1) En el intervalo [0, 1] consideremos la funcion


1 1

,n
n
si t 2n

1 1
fn (t) = 12 n
si t = 2n
,n

0
en otro caso.
6

1
n
2

1
2n

1
n

Notemos que f (t) desarrolla un gran peak cerca de t = 0 cuando n . Mostraremos


que esta funcion converge puntualmente a cero, pero no converge uniformemente a cero (y,
de hecho, no converge a ninguna funcion uniformemente), y tampoco converge en la norma
a cero (aunque s converge en la norma a otra funcion.)
a) fn 0.
n

En efecto, notamos primero que, si t = 0, entonces fn (t) = 0,

n.

1.2. SUCESIONES DE FUNCIONES

Ahora consideramos t 6= 0, con 0 < t < 1. Hay que mostrar que, si n es suficientemente
grande, entonces fn (t) se hace arbitrariamente peque
no. Tecnicamente, nos damos un
 > 0, y hay que encontrar un N tal que |fn (t)| < , n > N . Notamos que la funcion es
tal que solo es no nula en un peque
no subintervalo de [0, 1], y que si fn (t) 6= 0 para un t
y n dados, entonces basta con esperar que n crezca lo suficiente para que t quede fuera
del intervalo (1/2n, 1/n). A partir de ese momento, la funcion sera nula en t, para todos
los n sucesivos.
Esto nos lleva a concluir que, para un t fijo (notar lo importante que es eso), el valor
de N que estamos buscando es cualquiera tal que t > 1/N , es decir, cualquiera
  tal que
1
, donde
N > 1/t. Como N debe ser un entero, podemos tomar, por ejemplo, N = 1 +
t
[x] representa la parte entera de x. Con esta eleccion, se tiene que si n > N , entonces
fn (t) = 0 n > N .

unif
b) fn 0.
n


1 1
,
Dado n, y suponiendo que existe N , basta seleccionar t
para que fn crezca
2n n
sobre cualquier cota. Luego fn no puede converger uniformemente a 0, ya que, aunque
acotaramos a fn en todo el intervalo [0, 1] con una u
nica cota (debe ser todo el intervalo
porque queremos convergencia uniforme), dicha cota sera sobrepasada para algunos t
tarde o temprano, a medida que N crece.

N
c) fn 0.
n

fn no converge en la norma a cero. De hecho,


k fn 0 k =
2

dt | fn (t) | =
2

1
n
1
2n

1
1
dt ( n )2 =
n=
2n
2

n,

de modo que fn de hecho s converge a alguna funcion en la norma, pero dicha funcion es
F (t) = 1/2.
2)
fn (t) =

1
1



si t 0, n1
.
si t = n1
1
si t > n

fn (t) no puede converger a cero uniformemente, pues fn (0) = 1 6= 0, pero s en la norma:


k fn 0 k =
2

Z
0

1
n

dt | fn (t) |2 =

1
0 .
n n

3) Sea fn (t) = cosn t, con t [ 2 , 2 ] y n N. Claramente fn C [ 2 , 2 ], n N.

CAPITULO 1. ESPACIO DE FUNCIONES


1.0
0.8
0.6
0.4
0.2
0.0

/2

/2

Es claro que
(
0 t [ 2 , 2 ], con t 6= 0
fn (t) f (t) =
n
1 si t = 0

Esto es convergencia puntual. La funcion f (t) C [ 2 , 2 ]. Pero claramente


fn no converge

uniformemente a f (t), ya que el N que debo elegir de manera que fn (t) f (t) sea tan
peque
no como se quiera, n > N , depende del t que elija.
N

F (t), es decir
Por otra parte, si F (t) 0, t [ 2 , 2 ], entonces, fn (t)
 > 0 N tal que k fn F k < 

para n > N .

En efecto, como F (t) es nula en todo el intervalo, la diferencia en la norma entre las dos
funciones es
s
Z b
cos2n t dt ,
k fn k =
a

expresion que se puede hacer arbitrariamente peque


na (menor que ) para n suficientemente
grande.
Los ejemplos anteriores nos permiten concluir, como corolario, que la convergencia en la
norma no implica convergencia puntual ni convergencia uniforme. Sin embargo, el inverso
s es cierto, como se demuestra a continuacion.
Proposici
on 1.1 Convergencia uniforme en un intervalo finito implica convergencia en la
norma.
Demostraci
on Sea  > 0 N0 tal que
| fn (t) F (t) | < ,

n > N0 y t [a, b] ,

luego
k fn F k =

s
Z
a

| fn (t) F (t) |2 dt <

s
Z
a

2 dt =

2 (b a) =  b a ,

1.2. SUCESIONES DE FUNCIONES


lo cual nos da una cota para la norma:

k fn F k <  b a n > N 0 .

q.e.d.
Teorema 1.1 de Weierstrass (sin demostracion)
Sea f continua en [a, b], entonces se tiene que  > 0 existe un polinomio p(t) tal que:
| f (t) p(t) | <  t [a, b].

(1.12)

(Es decir, f es aproximable uniformemente por polinomios.)


Proposici
on 1.2 Sea f C0 [a, b].  > 0 dado, existe un polinomio p tal que k f p k < .
Demostraci
on Usando el teorema de Weierstrass, sabemos que existe un polinomio p(t)
tal que

t [a, b] ,
| f (t) p(t) | <
ba
luego
kf pk =

s
Z

| f (t) p(t) | dt <


2

s
Z

2
dt = ,
ba

kf pk < 
q.e.d.
Proposici
on 1.3 g C [a, b] se puede construir una funcion f C0 [a, b] tal que k g f k <
, donde  es arbitrario.
Demostraci
on Sea g C [a, b] con K discontinuidades en {ti }ni=1 dentro del intervalo [a, b]
y sea M = max | g(t) |. Consideremos una funcion f C0 [a, b] definida de modo que coincida
atb

con g, salvo en una vecindad de ancho 2:

f(a)
f(b)

f(a)
f(b)
a a+

x1

x1

x1+

b b

CAPITULO 1. ESPACIO DE FUNCIONES

Tenemos que | f (t) | M t [a, b]. Usando la desigualdad triangular:


| g(t) f (t) | | g(t) | + | f (t) | 2M,
con lo cual podemos acotar la distancia entre las funciones
kg f k =
2

| g(t) f (t) | dt =
2

K Z
X
=1

t +

| g(t) f (t) | dt 2(2M )


2

K
X

!
1

=.

=1

Ya que lo podemos hacer arbitrariamente peque


no, tenemos demostrada la proposicion.
q.e.d.
Las u
ltimas dos proposiciones conducen al siguiente teorema:
Teorema 1.2 de Aproximaci
on Una funcion g C [a, b] se puede aproximar en la norma
por un polinomio p(t) tal que k g p k <  arbitrario.

Demostraci
on Sea f C0 [a, b] tal que k g f k < . Sea p(t) un polinomio tal que
2

k f p k < . Luego
2
k g p k = k g f + f p k k g f k + k f p k < .
q.e.d.
El teorema de Weierstrass se puede generalizar a funciones de mas de una variable. Esto
permite resultados como el siguiente.
Proposici
on 1.4 Sea f C0 [, ], entonces existe un polinomio trigonometrico que aproxima a f uniformemente.
Demostraci
on Sea f C0 [, ]. Construimos una funcion F (r, ) = rf (). Claramente F (r, ) es continua en todo el plano x-y. Sea F (x, y) F (r, ). Usando el teorema de
Weierstrass tenemos que existen a tales que




F (x, y)




X

a x y < 

=0,1,...,n

=0,1,...,n

x, y en el plano x-y.

Reemplazando x = r cos e y = r sen , podemos reescribir la doble suma


X
,

a x y =

X
,

a r+ cos sen .

1.2. SUCESIONES DE FUNCIONES

Evaluemos en r = 1. Ademas, sabemos que un producto de la forma cos sen se puede


escribir como una combinacion lineal de productos de la forma cos(m) sen(n). Tenemos
entonces




X


bmn cos(m) sen(n) <  [, ].
f ()


m,n

q.e.d.
Definici
on 1.10 Una sucesion {fn } en C [a, b] se dice sucesion de Cauchy si  > 0 existe un
N N tal que para todo n, m N se tiene que k fn fm k .
La definicion anterior se puede generalizar a espacios de funciones sin norma.
Es inmediato verificar que si {fn } converge a una funcion f en la norma, entonces es de
Cauchy, pues
k fn fm k k fn f k + k fm f k ,
y ambos terminos en el lado derecho se pueden acotar por un  > 0 arbitrario. El inverso, sin
embargo, es falso, como se puede apreciar en el siguiente ejemplo:
Ejemplo Consideremos el conjunto de funciones reales C [0, 1], con el producto escalar definido como
Z 1
hf, gi =
f (x)g(x) dx .
0

Consideremos

si 0 x 21
1
fn (x) = 1 (x 21 )n si 12 < x < 12 + n1 .

0
si 12 + n1 x 1
f ( x)
1

1/2

1/2 + 1/ n

Se tiene que
2

1/2+1/n

k fn fm k
1/2

| fn (x) fm (x) |2 dx

1
,
2

de modo que es una sucesion de Cauchy. Sin embargo, se puede ver que {fn } tiende a una
funcion discontinua, y por lo tanto no converge en C [0, 1].

10

CAPITULO 1. ESPACIO DE FUNCIONES

Definici
on 1.11 Un espacio normado es llamado completo si toda sucesion de Cauchy es
convergente. A un espacio normado completo se le llama espacio de Banach. A un espacio
pre-Hilbert que es completo se le llama espacio de Hilbert.
Definici
on 1.12 El conjunto de funciones {n (t)}n=0,1,2,... se dice ortonormal si
( n | m ) = n m

(1.13)

n, m.

Ilustraci
on
Como ejemplo de funciones ortonormales tenemos las cn (t) C0 [, ] con n = 0, 1, 2, . . .
que se definen como
1
cn (t) = eint .
2
Claramente:

1
( cn | cm ) =
2

ei(mn)t dt = n m

n, m.

Definici
on 1.13 Un conjunto de funciones {n (t)}n=0,1,2,..., se dice linealmente dependiente cuando

X
an n (t) = 0,
t [a, b],
(1.14)
n=1

es posible sin que todos los an sean nulos. En caso contrario son linealmente independientes.
Proposici
on 1.5 Un sistema ortogonal de funciones es siempre linealmente independiente
(l.i.). (Demostracion como ejercicio.)

1.3.

Proceso de ortonormalizaci
on de Gram-Schmidt

Sea {v }=1,2,... un conjunto linealmente independiente de funciones en C [a, b]. Para construir un conjunto ortonormal debemos seguir los siguientes pasos:
Construimos 1 =

v1
tal que ( 1 | 1 ) = 1.
k v1 k

Considerar 2 = v2 ( 1 | v2 ) 1 . Entonces
( 2 | 1 ) = ( v2 | 1 ) ( 1 | v2 ) ( 1 | 1 ) = ( v2 | 1 ) ( v2 | 1 ) = 0.
Luego, normalizando,
2 =

2
.
k 2 k

11

1.4. COEFICIENTES DE FOURIER

Ahora tomamos 3 = v3 ( 1 | v3 ) 1 ( 2 | v3 ) 2 . Se puede comprobar que efectivamente


( 3 | 1 ) = ( 3 | 2 ) = 0. Finalmente, normalizando,
3 =

3
.
k 3 k

Y continuamos en forma analoga para el resto de los vectores.


El conjunto de funciones {n }n=1,2,... construido de la manera anterior es un conjunto
ortonormal.
Ejercicio. Para el conjunto de funciones {1, x, x2 , x3 , . . .} encontrar el sistema ortonormal
en el intervalo [1, +1]. Compare su resultado con los polinomios de Legendre.

1.4.

Coeficientes de Fourier

Sea {n (t)}n=1,2,... un conjunto ortonormal de funciones tal que n C [a, b] n. Sea f (t)
Rb
una funcion tal que a | f (t) |2 dt < . Deseamos aproximar f (t) por una suma finita
X
SI (t) =
Cn n (t) ,
nI

de manera que k f SI k sea mnimo (siendo I un conjunto de ndices prescrito). Es decir,


el objetivo es encontrar los coeficientes Cn de modo que el error cuadratico medio:
2
Z b

X


f
(t)

(t)
MI (f ) = k f SI k2 =
dt ,

n n


a
nI

sea mnimo. Evaluemos el error cuadratico medio


Z b
Z b
Z b
Z b
X
X
X
2
2
2

|f | +
| Cn |
| n |
Cn
f n
Cn
f n
MI (f ) =
a

nI

= k f k2 +

| Cn |2

nI

nI

Cn ( n | f )

nI

| ( n | f ) |
2

nI

= k f k2

nI

Cn ( n | f )

nI

| ( n | f ) |

nI

X
nI

| ( n | f ) |2 +

| Cn ( n | f ) |2 0 ,

nI

ya que la norma es mayor igual a cero siempre. Claramente el mnimo se obtiene cuando
Cn = ( n | f ). De lo anterior se desprende:
X
X
| Cn |2 =
| ( n | f ) |2 k f k2
Desigualdad de Bessel
(1.15)
nI

nI

12

CAPITULO 1. ESPACIO DE FUNCIONES

Definici
on 1.14 Los coeficientes ( n | f ) son llamados los coeficientes de Fourier de f respecto del sistema ortonormal {n }n=1,2,... .
Definici
on 1.15 Si un conjunto de funciones {n } en cierto espacio permite aproximar en
la norma, con sus combinaciones lineales, cualquier funcion f del espacio tan bien como se
quiera, i.e.




X


f

para  arbitrario,

n n < ,


n

se dice que es un conjunto completo respecto a este espacio.


Sean Cn = ( n | f ) los coeficientes de Fourier de f respecto de un conjunto ortonormal
{n }, entonces la completitud de este conjunto se puede expresar por


m


X


lm f
Cn n = 0 ,
m

n=1
lo que tambien podemos escribir como
N

f=

Cn n .

{n }

Lo anterior no implica que f (t) =

Cn n (t) en alg
un otro sentido (convergencia puntual

n=1

o uniforme), y para recordarlo es importante mantener la N sobre la igualdad. Si


N

f=

Cn n

{n }

entonces


2


X


2

kf k =
Cn n
,
{n }

luego se cumple
kf k =
2

| f |2 =

Ejemplo El conjunto

1 eint
2

X
n

o
nZ

es ortonormal completo respecto a [, ].

eint

f (t) =
Cn
=
2
n=
N

Igualdad de Parseval

| Cn |2

|f | =
2

X
n=

| Cn |2 = k f k2 .

(1.16)

13

1.4. COEFICIENTES DE FOURIER

Teorema 1.3 Si el conjunto ortonormal {n } es completo respecto a C [a, b], entonces en C


la u
nica funcion ortonormal a todo n es f (t) 0.
Demostraci
on Si f (t0 ) 6= 0, la funcion tambien es no nula en una vecindad en torno a t0 ,
por lo tanto
Z b
| f |2 = k f k2 > 0 ,
a

pero usando la igualdad de Parseval tenemos para la norma de f


X
X
k f k2 =
| Cn |2 =
| ( n | f ) |2 > 0 ,
n

es decir, f no es ortogonal a todos los : contradiccion! Luego f debe ser identicamente nula.
q.e.d.

Teorema 1.4 Sea {Sn (t) C0 [a, b]}; si existe F (t) tal que la sucesion Sn (t) =

n
X

c (t)

=0

converge uniformemente, i.e.


unif

Sn (t) F (t) ,
n

entonces F (t) es continua, F (t) C0 [a, b].


Demostraci
on
| F (t) F (t0 ) | = | F (t) Sn (t) + Sn (t) Sn (t0 ) + Sn (t0 ) F (t0 ) |
| F (t) Sn (t) | + | Sn (t) Sn (t0 ) | + | Sn (t0 ) F (t0 ) | .
De la convergencia uniforme, existe un N () tal que, si n > N () se cumple que
| F (t) Sn (t) | <


3

t [a, b] ,

luego

2
| F (t) F (t0 ) | <  + | Sn (t) Sn (t0 ) | .
3
Pero Sn (t) es continua. Dado t fijo, y  arbitrario, tal que
1
| t t0 | < = | Sn (t) Sn (t0 ) | <  = | F (t) F (t0 ) | <  .
3
q.e.d.

Este teorema asegura que una funcion discontinua no puede ser aproximada uniformemente por una familia de funciones continuas (por ejemplo, las funciones sinusoidales).

14

CAPITULO 1. ESPACIO DE FUNCIONES

Teorema 1.5 Si dos funciones f, g C [a, b] tienen igual expansion en base completa (en el
sentido de aproximacion en la norma), entonces f (t) = g(t).
Demostraci
on Sean
S(t) =

( | f ) (t)

=0

la aproximacion en la norma para f y g. Luego


kf S k = kg S k = 0 .
As
k f g k = k f S + S g k k f S k + k S g k = 0 + 0 = 0 = f = g .

q.e.d.
Notar que este teorema es falso fuera de C [a, b]. Por ejemplo,
(
1 si t = 0
fn (t) =
0 si t 6= 0
tiene igual expansion que g(t) = 0.
Teorema 1.6 Sea {}
=0 un conjunto ortonormal en C [a, b] y f C [a, b]. Entonces la serie

X
| ( | f ) |2 converge. En particular,
=0

( | f ) 0 .

Demostraci
on De la desigualdad de Bessel,
X
nI

| Cn | k f k =
2

dt | f (t) |2 .

Como el lado derecho es independiente de I, la suma esta acotada superiormente. Siendo


todos sus terminos positivos, debe converger. Luego ( | f ) 0.

q.e.d.

15

1.5. INTEGRALES IMPROPIAS (VALOR PRINCIPAL)

1.5.

Integrales impropias (valor principal)

1
Considere la funcion f (t) = .
t

R1
Una integral como 1 f (t) dt no esta bien definida. Sin embargo, debiera ser nula simplemente por paridad. Para conciliar estos hechos, podemos entender este tipo de integrales, en
intervalos simetricos en torno a la divergencia (t = 0 en este caso), de la siguiente manera:

Z 
Z 1
Z 1
f (t) dt +
f (t) dt = 0 .
(1.17)
P f (t) dt = lm
0

En el caso de funciones impares que son asntotas al eje x,

podemos definir la integral de la siguiente manera:


Z 0
Z
Z
P f (t) dt = lm
f (t) dt +
G


f (t) dt = 0.

(1.18)

Definici
on 1.16 Valor principal de una integral. Sea t0 [a, b], f (t) integrable en la union
[a, t0 ] [t0 + , b],  > 0, f (t) singular si t t0 . Si existe el lmite
Z t0 
 Z b
Z b
lm
f (t) dt +
f (t) dt P f (t) dt ,
(1.19)
0

t0 +

se le llama el valor principal de la integral.


Ejemplo Sea

1
g(t) , con g(t) derivable en t0 .
t t0



Z b
Z b
Z b
g(t)
g(t) g(t0 )
b t0
P f (t) dt = P
.
dt =
dt + g(t0 ) log
t t0
t0 a
a
a t t0
a
f (t) =

16

CAPITULO 1. ESPACIO DE FUNCIONES

Si f (t) es integrable en todo intervalo finito de R, entonces, de existir, se define


Z M
Z
f (t) dt .
P f (t) dt = lm

Ejemplo La integral
y +, y vale cero.

1.6.

(1.20)

dx 1/x solo existe como valor principal en torno a x = 0 entre

Convergencia seg
un Ces`
aro

Considere la expansion en serie


1
= 1 + x + x2 + x3 +
1x
Ella converge para | x | < 1. A pesar de lo anterior evaluemos la funcion y su expansion en
serie en x = 1:

1 ?
1
= = 1 1 + 1 1 + 1 1 + .

1 x x=1 2
Sera posible sumar la serie de modo que esta s converja al valor de la funcion en ese punto?
Consideremos las sumas parciales: S0 = 1, S1 = 0, S2 = 1, S3 = 0 y as sucesivamente.
Claramente no es convergente, sin embargo, si consideramos los promedios de las sumas
parciales, encontramos que ellos s convergen y lo hacen al valor de la funcion en ese punto.
En efecto:
1
S0 + S1 + S3
2
S0 + S1 + S3 + S4
1
S0 + S1
= ,
= ,
= ,
S0 = 1 ,
2
2
3
3
4
2
n
X
S
3
1
S0 + + S5
=0
= , . . . lm
= .
n
5
5
n
2
Definici
on 1.17 Consideremos la suma parcial
SN =

N
X

T` .

`=0

Definimos la suma de Ces`aro de esta serie como:



M 1

X
1 X
`

1
S = lm
SN = lm
T`
M M
M
M
N =0
`=0

(1.21)

(reagrupando la suma finita).


El factor (1 `/M ) aparece como un factor de convergencia, que permite que los terminos
de orden mas alto pesen menos al sumar (logrando as la convergencia de la serie), pero
desapareciendo al tomar el lmite M , de modo que la suma converja al valor de la
suma original.

17

CESARO
`
1.6. CONVERGENCIA SEGUN
Siguiendo con el ejemplo de la serie geometrica,
T` = (1)` = S2N = 1,

n=0

S2N +1 = 0

1
1
(1) =
(1 + 0 + 1 + 0 + ) '
M
M
n

La convergencia ordinaria necesita que el lm

n
X

M
2

1
.
2

a exista.

=0
n

1 XX
La convergencia seg
un Ces`aro necesita que el lm
a exista.
n n
=0 =0
Problemas similares a la serie discreta anterior ofrece calcular
la integral, desde cero hasta
Z

sen(x) dx:

infinito, de una funcion oscilante, que no decrece, del tipo

En el mismo espritu del caso discreto, proponemos la siguiente definicion.


Definici
on 1.18 Definimos una integral Ces`aro de la siguiente manera:

Z y
Z x
Z
1
dt f (t) .
dx
lm
f (t) dt = lm
y
y y
t=0
x=0
0

(1.22)

Podemos encontrar una expresion alternativa para la integral de Ces`aro integrando por partes
la ecuacion (1.22):
Z

f (t) dt =

=
=
Z
0

f (t) dt =

Z y

Z x
1
lm
dx
dt f (t)
y y
x=0
t=0
y Z y
 Z x


1
lm
x
f (t) dt
xf (x) dx
y y
0
0
0
 Z y

Z y
1
lm
y
f (t) dt
xf (x) dx
y y
0
0

Z 
x
lm
1
f (x) dx .
y 0
y

(1.23)

Vemos aqu como el factor (1 `/M ) en el caso discreto (1.21) proviene simplemente de
reordenar la suma. La expresion formal (1.23) permite ver la aparicion de un factor de
convergencia (1 x/y), pero no es necesariamente u
til en la practica.

18

CAPITULO 1. ESPACIO DE FUNCIONES

Evaluemos como ejemplo la integral Ces`aro de la funcion f (x) = sen(x) con 6= 0,


usando la ecuacion (1.22) directamente.

Z y
Z x
Z
1
dt sen(t)
dx
sen(t) dt = lm
y y
t=0
x=0
0

Z 
1 y 1 cos(x)
= lm
dx
y y 0



1
1 sen(y)
= lm
2
y

y
Z

sen(t) dt =

Ejercicio Eval
ue

(1.24)

cos(t) dt, con 6= 0.

Bibliografa Adicional
Los topicos discutidos en este captulo son solo una introduccion a una amplia rama de
las Matematicas, el analisis funcional. Una tpica referencia del tema es el libro de Yosida
[1], el cual esta claramente orientado para matematicos. Una referencia mas al gusto de un
lector con interes en lo aplicado es el libro de Kreyszig [2].
En el interesante tema de las sucesiones divergentes el libro de Hardy [3] es una de las
referencias principales.
1 Kosaku Yosida, Functional Analysis, Classics in Mathematics, Springer-Verlag, Berln 1995
(ISBN 3 540 58654 7).
2 Erwin O. Kreyszig, Introductory Functional Analysis with Application, Wiley Classics Library, John Wiley & Sons, Nueva York 1990 (ISBN 0 47150 459 9).
3 G. H. Hardy, Divergent Series, Chelsea Publishing, Nueva York 1949 (ISBN 0 8284 0334
1).

Captulo 2
Series de Fourier
versi
on 24 agosto 2009

Sea f una funcion arbitraria en C [, ], i.e.


f

[, ] C tal que

|f (t)|2 dt < .

Sea { }Z un conjunto de funciones ortonormales en C [, ], definidas como (t) =


eit
.
2
Los coeficientes de Fourier, C = ( | f ), satisfacen
Z
X
2
| C |
| f |2 <
(Desigualdad de Bessel)

Luego

lm C = 0 .

(2.1)

Necesitaremos un par de resultados preliminares. Observemos primero que


n
X

ei = ein 1 + ei + ei2 + + ei2n

=n


1
2
4
4n
1
+
a
+
a
+

+
a
con a = ei/2
2n
a 

1 a4n+2 1
a2n+1 a(2n+1)
=
.
= 2n
a
a2 1
a a1
=

Luego

n
X

ei =

=n

sen[(2n + 1)/2]
.
sen(/2)

Por otra parte,


Z
0

n
X
=n

d =

Z 

1+2

n
X
=1

19

cos() d = .

(2.2)

20

CAPITULO 2. SERIES DE FOURIER

Usando (2.2)
=

Z
0

sen[(2n + 1)/2]
d .
sen(/2)

Tomando = /2:
f (t) = 2

/2

f (t)

sen[(2n + 1)]
d .
sen

(2.3)

Teorema 2.1 Sea f C [, ], entonces su serie de Fourier


X
( | f ) (t)
Z

converge y representa a f (t) (convergencia punto a punto) en todo el intervalo [, ].


Demostraci
on Considerar la suma parcial
n
X

eit
C
.
2
=n

Sn (t) =
Los coeficientes de Fourier son

C = ( | f ) =

eit
f (t0 ) dt0
2

n
X

n Z it0
X
eit
e
eit
f (t0 ) dt0
C = 2
2Sn (t) = 2
2
2
2
=n
=n
Z
n
X
0
f (t0 )
ei(tt ) dt0
2Sn (t) =

=n

Sea u = t0 t (du = dt0 ). Se tiene:


2Sn (t) =

f (u + t)

Puesto que =n ein =


periodica de f a todo R,
Pn

Pn

=n

n
X

eiu du .

=n

ein [ver (2.2), por ejemplo], y haciendo una extension

f (u 2) = f (u)

u R ,

resulta
2Sn (t) =

f (u + t)

1
Sn (t) =
2

f (t + u)

n
X
=n

n
X

ei u du

0 =n
iu

1
du +
2

Z
0

f (t + u)

n
X
=n

eiu du

21
Haciendo en la primera integral el cambio de variables u = 2v, y en la segunda el cambio
u = 2v:
Z 0
Z /2
n
n
X
X
1
1
i2v
f (t 2v)
e
dv + (2)
f (t + 2v)
ei2v dv .
Sn (t) = (2)
2
2
/2
0
=n
=n
Usando (2.2) y (2.3):


Sn (t) f (t) =

 sen[(2n + 1)v]
f (t 2v) + f (t + 2v) 2f (t)
dv .
sen v

/2 

Z
0

(2.4)

Definamos ahora
t (v) = f (t + 2v) + f (t 2v) 2f (t)
Sea

t (v)

sen v
g(v) = 0

v [0, /2] .

v [0, /2]
v [, 0]
v [/2, ]

g(v) es acotada en [, ] y, de hecho, se puede mostrar que pertenece a C [, ]. Podemos


reescribir (2.4):
Z



g(v) sen[(2n + 1)v] dv = 2 Im ( 2n+1 | g ) .
Sn (t) f (t) =

Con (2.1),



Sn (t) f (t) = 2 Im ( 2n+1 | g ) 0 .
n

Luego

lm Sn (t) = f (t) ,

o sea
f (t) =

eit
C
.
2
Z

q.e.d.
Sabemos, de (2.1), que
Z

| f (t) |2 dt < = lm C = 0 .

R
Supongamos que f C0 [, ] y que f 0 es continua, tal que | f 0 |2 < . Entonces de la
definicion de los coeficientes de Fourier:
Z

2 C =
f (t)eit dt
Z.

22

CAPITULO 2. SERIES DE FOURIER

Si integramos por partes:

2 C =


Z
1 0
eit
+
f (t)
f (t)eit dt .
i
i

Observando que el segundo termino no es sino el coeficiente de Fourier de f 0 , tenemos


C 0 .

Analogamente, si f , f 0 C0 [, ] y f 00 es continua, tal que

| f 00 |2 < , entonces

2 C 0 .

Vale decir, cuanto mas derivable es la funcion f , tanto mas rapido tienden a cero sus
coeficientes de Fourier. Mas a
un, se puede demostrar el siguiente teorema:
Teorema 2.2 (Sin demostraci
on) Si f C y f tiene discontinuidades mansas (saltos
finitos), entonces los coeficientes de Fourier C decrecen como 1/.
Si f Co , f 0 C y f 0 tiene discontinuidades mansas, entonces los coeficientes de Fourier
C decrecen como 1/ 2 .
Etcetera.
El teorema anterior muestra que la serie de Fourier converge mas rapidamente mientras
mejor comportamiento analtico tenga la funcion f . En el caso de funciones infinitamente derivables, los coeficientes de Fourier exhiben decaimientos mas fuertes que cualquier polinomio
(C ' 1/!, por ejemplo).
Teorema 2.3 Si f 00 C [, ] entonces la serie de Fourier de f converge uniformemente a
f.
Demostraci
on Sean C = ( | f ) los coeficientes de Fourier de f . Como f 0 Co , entonces
2
C 0, luego existe un N tal que para todo || > N se tiene

2
C < 1 .
Por otro lado, podemos separar la suma completa en la forma:
X
Z

C =

C +

| |N

X
| |>N

Sea
M = max

t[,]

X
| |N

C .

C .

23
Este maximo existe, porque en la suma hay un n
umero finito de terminos y las funciones
son acotadas. Entonces




X
X
X

X
X









C
C +
C
C +
C
| |N
| |N
| |>N

Z
| |>N
X
X
1
M+
| C | | | = M +
| C |
2
| |>N
| |>N
1 X
1 X 1
M+
| C | < M +
2
2
2
| |>N

Pero

| |>N

X
1
2
,
=
(2)
=
2
n
6
n=1

donde (x) es la funcion zeta de Riemann. As:


2
.
C < M +
2
Z

Luego existe un mayorante convergente independiente de t, y por lo tanto hay convergencia


uniforme.
q.e.d.
Proposici
on 2.1 (Sin demostraci
on) Si f C [, ] y f (t) R, entonces f se puede
expandir en una serie trigonometrica:

A0 X
+
An cos(nt) + Bn sen(nt) ,
f (t) =
2
n=1
con los coeficientes dados por
Z
1
An =
f (t) cos(nt) dt

Z
1
Bn =
f (t) sen(nt) dt

Resultados u
tiles
Escribamos la serie de Fourier
f (x) =

X
=

ix

C e

1
C =
2

f (t)eit dt .

24

CAPITULO 2. SERIES DE FOURIER

1) f (x + 2) = f (x)
La expansion de Fourier de f (x) implica su extension periodica a R.
2) Si f (x) R x [, ],

C = C .

3) Poniendo

eix = cos(x) i sen(x) ,

obtenemos la expansion alternativa


A0 X
+
A cos(x) + B sen(x) ,
f (x) =
2
=1
con
A = C + C

1
=

f (t) cos(t) dt ,

1
B = i(C C ) =

f (t) sen(t) dt .

Ademas:
f (x) = f (x) = B = 0 ,
f (x) = f (x) = A = 0 ,
de modo que esta forma de la expansion es u
til cuando f tiene paridad definida.
4) Para expandir una funcion F de perodo L, definimos una funcion f de perodo 2 por
 u
.
F (u) = f 2
L
As, F (u + L) = F (u). Podemos expandir en serie de Fourier la funcion f , obteniendose
finalmente:
F (u) =

C eiq u = F (u + L) ,

1
C =
L

con q =

2
,
L

L/2

F (t)eiq t dt .

L/2

Aplicaciones
1) Rectificador de media onda.
Consideremos el siguiente circuito electrico, y la forma de la corriente en funcion del
tiempo que por el circula:

25
I(t)

R
/2

/2

I(t) es par, luego Bn = 0 n N:

A0 X
+
An cos(nt) ,
I(t) =
2
n=1
con
2
I(t) dt =

1/2

Z /2

2
cos t cos(nt) dt = 0
An =

0
2(1)n/2

(n2 1)
1
A0 =

2
I(t) dt =

/2

cos t dt =

si n = 1
si n es impar, n 6= 1
si n es par

Luego


1 cos t 2 cos(2t) cos(4t)
I(t) = +
+

13
35


1 1 2
1
1
I(0) = + +

+
2 13 35

(2.5)

En general, An 0 como 1/n2 , como corresponde a una funcion I(t) cuya primera derivada
tiene discontinuidades mansas.
2) Rectificador de onda completa.
I(t)

26

CAPITULO 2. SERIES DE FOURIER


En este caso, I(t) = | sen t| es par, y se tiene:
A0 =

An =

sen t cos(nt) dt

(n2 1)

n impar
n par

e


2
4 cos(2t) cos(4t)
I(t) =
+
+

13
35
3) Circuito resonante RLC.
C

E(t)

Consideremos ahora E(t) una funcion arbitraria pero periodica de perodo T . La corriente
I(t) satisface
dI
1
dE
d2 I
.
L 2 +R + I =
dt
dt C
dt
E(t) se puede desarrollar en serie de Fourier:
E(t) =

En eint ,

n=

donde

1
En =
T

2
,
T

T /2

E(t)eint dt .

T /2

Estos coeficientes se pueden calcular si E(t) es una funcion conocida. Escribiendo


I(t) =

Cn eint ,

n=

encontramos, reemplazando en la ecuacion diferencial:





X
1
2 2
n L + inR +
Cn inEn eint = 0 .
C
n=

27
Siendo {eint }n un conjunto linealmente independiente, cada coeficiente de la suma debe ser
nulo, luego:
i n
L
E .
Cn = 1
2
2 + i nR n

LC
L

Aqu, 0 = 1/ LC es la frecuencia natural del sistema.


4) Conduccion del calor.
Consideremos una barra de longitud L. Su temperatura es una cierta funcion de la distancia x a uno de sus extremos y del tiempo, U (x, t). Supongamos que en los extremos la
temperatura es siempre nula:
U (0, t) = U (L, t) = 0
y que inicialmente el perfil de temperatura es:
U (x, 0) = x(L x) .
La ecuacion que rige la evolucion de la temperatura es:
2 U (x, t)
U (x, t)
=
,
t
x2
donde es la constante de conduccion termica. Al separar variables:
U (x, t) = X(x)T (t) ,
obtenemos las ecuaciones
dT
= 2 T ,
dt
d2 X
= 2 X ,
dx2
donde es una constante. Las soluciones generales de estas ecuaciones son:
2 t
T (t) = Ce
de modo que

sen(x) ,
y X(x) = A cos(x) + B
2

U (x, t) = [A cos(x) + B sen(x)]e t .

Imponiendo la condicion de borde U (0, t) = 0:


A=0.
De U (L, t) = 0, en tanto,
sen(L) = 0 ,
m
m =
,
mN.
L

28

CAPITULO 2. SERIES DE FOURIER

La solucion mas general es entonces:

U (x, t) =

Bm em t sen(m x) .

m=1

Ahora consideramos las condiciones iniciales:

 m 
U (x, 0) =
Bm sen
x = x(L x) .
L
m=1
Como esta serie es una funcion impar, consideramos la extension periodica impar de la funcion
g(x) al intervalo [L, L], de modo que los coeficientes Bm correspondan a los coeficientes de
Fourier de g(x):
g(x)

-L
L

1
Bm =
L

g(x) sen

2
dx =
L

 mx 
L

U (x, t) =

(1)m+1

m=1

x(L x) sen

 mx 
L

dx =

4L2
(1)m+1
m3 3

 mx  m2 2 t
4L2 1
sen
e L2 .
3 m3
L

En particular,
U (x, t)
2
tt0 =

L
2

 x 
4L2
sen
et/t0 .
3
L

5) Resolver la ecuacion de Laplace en dos dimensiones


2U
2U
+
=0
x2
y 2
para el interior del crculo x2 + y 2 1, con la condicion de borde U ( = 1, ) = ().
La solucion a (2.6) se puede plantear como
U (x, y) = Re{f (z)},

(2.6)

29
donde f (z) es una funcion holomorfa en C. Por tanto, podemos escribir
f (z) = f (x + iy) =

cn z n ,

n=0

y consideremos

cn = an ibn .

Cada termino de la expansion anterior satisface (2.6). En efecto,



 2

 2

2
2
n
z =
(x + iy)n
+
+
x2 y 2
x2 y 2




=
n(x + iy)n1 +
in(x + iy)n1
x
y
n2
= n(n 1)(x + iy)
n(n 1)(x + iy)n2 = 0 .
Escribamos U (x, y) en coordenadas polares:
(
)
X
U (x, y) = Re
(an ibn )rn ein
= Re

( n=0

)
(an ibn )rn (cos n + i sen n)

n=0



rn an cos(n) + bn sen(n) .

(2.7)

n=0

Imponiendo la condicion de borde:


() =

an cos(n) + bn sen(n) .

n=0

Por lo tanto, an y bn son los coeficientes de Fourier de (). Vale decir, la solucion de una
ecuacion de Laplace en dos dimensiones se puede escribir en terminos de una expansion de
Fourier.
Fen
omeno de Gibbs
Consideremos la onda cuadrada

0<x<
1
f (x) = 0
x = 0,

1 < x < 0
Su expansion en serie de Fourier se obtiene facilmente, encontrandose:
f (x) =

4X 1
sen[(2l + 1)x] .
l=0 2l + 1

30

CAPITULO 2. SERIES DE FOURIER

Observamos que los coeficientes decaen como bn ' 1/n, en concordancia con el teorema
demostrado anteriormente (pag. 22). En la siguiente figura presentamos la funcion f (x) y su
aproximacion por sumas parciales de Fourier, con n = 2, n = 10 y n = 50 terminos.
1.5
1
0.5
0
-0.5
-1
-1.5

Se observa que hay buena convergencia con 10 terminos, y el resultado es casi perfecto con
50, salvo ciertas oscilaciones en los puntos de discontinuidad, oscilaciones que no se amortiguan cuando el n
umero de terminos va a infinito. Sin embargo, como la suma parcial SN (x)
converge punto a punto al valor esperado f (x), las oscilaciones no amortiguadas deben necesariamente limitarse a una vecindad cada vez menor en torno a los puntos de discontinuidad,
de modo que cualquier x 6= l, l Z, quede fuera de tal vecindad para N suficientemente
grande.
Este fenomeno se conoce como fenomeno de Gibbs, y es consecuencia de la imposibilidad
de aproximar uniformemente por funciones continuas una funcion discontinua.
Para estudiarlo con mas detalle, consideremos la funcion diente de sierra:

x 0 < x <
(2.8)
f (x) = 0
x=0

x + < x < 0

f(x)

Su expansion de Fourier es:

X
2
f (x) =
sen(nx) .
n
n=1

31
Y la suma de los N primeros terminos:
N
X
2
fN (x) =
sen(nx) .
n
n=1

Si x 0, los primeros terminos de la suma se hacen despreciables. Para valores grandes de


n, en tanto, el sumando vara lentamente, y se puede reemplazar la suma por una integral.
Por lo tanto, en el lmite N  1, x  1 podemos escribir
fN (x) '

Z
0

2
dn sen(nx) = 2
n

Nx

dt
0

sen t
.
t

Definiendo la funcion seno integral


Si(x) =

dt
0

se sigue que

sen t
,
t

(2.9)

fN (x) = 2 Si(N x) .

Es claro de (2.9) que Si(0) = 0 y Si() = /2. Ademas, Si(x) posee extremos dados por
0=

Si
sen x
=
x
x
x = n

As, como sen t/t oscila amortiguandose para t , se espera que Si(x) igualmente oscile
cuando x crece, pero convergiendo a /2. Sus extremos en x = (2n + 1) deben ser maximos
(contribuciones de area positiva de sen t/t), y sus extremos en x = 2n deben ser mnimos
(contribuciones de area negativa de sen t/t). El primer maximo, en x = , es el maximo
absoluto (ver figura).

Si(x)

2
/2
1

Algunos valores caractersticos:

32

CAPITULO 2. SERIES DE FOURIER


Si() ' 1.852 (Primer maximo, absoluto)
Si(2) ' 1.418 (Primer mnimo)
Si(3) ' 1.675 (Segundo maximo)
De estos resultados se desprende que:

a) fN (0) = 0
b) fN (x) ' 3.14159
x1/N

c) fN (x) tiene maximos en (2n + 1)/N , por ejemplo:




' 3.704 (Primer maximo, absoluto)


N
 
3
fN
' 3.350 (Segundo maximo)
N

fN

d) fN (x) tiene mnimos en 2n/N :



fN

2
N

' 2.836 (Primer mnimo)

De este modo, la funcion fN (x) oscila en tanto se tenga x ' O(1/N ). El primer maximo
implica sobrepasar el valor lmite en un 18 %, y el segundo solo en un 7 %. Toda esta
estructura esta en una peque
na vecindad de x = 0, vecindad cuyo ancho va a cero si
N .
Esto explica el fenomeno de Gibbs. Aun cuando hemos considerado la funcion (2.8), es
facil convencerse de que nuestros razonamientos son generales, y que podemos aplicarlos a
cualquier funcion en torno a una discontinuidad finita de la misma.
Integraci
on de series de Fourier
Sea f C [, ] y

f (x) =

a0 X
+
(an cos nx + bn sen nx) .
2
n=1

Sea
F (x) =

f (t) dt .

Entonces F (x) es continua y acotada. Ademas es periodica si F () = F (), i.e.


Z
0 = F () =
f (t) dt = a0 ,

33
es decir,

a0 = 0 .

Siendo F periodica, es expandible en serie de Fourier:

A0 X
F (x) =
+
(An cos nx + Bn sen nx) ,
2
n=1
con
1
An =

F (x) cos(nx) dx

Z
sen nx
sen nx 0
= F (x)

F (x) dx

n
n

Z
bn
1
f (x) sen nx dx = ,
=
n
n

Si n = 0,

1
A0 =

n 6= 0 .


Z

1
F (x) dx = xF (x)
xf (x) dx .

Analogamente,
Bn =

an
.
n

Tenemos pues el siguiente teorema:


Teorema 2.4 Sea f C [, ] con un desarrollo de Fourier
f (x) =

(an cos nx + bn sen nx)

n=1

(a0 = 0). Entonces


Z

f (x) dx =

con

A 0 X an
bn
+
sen nx cos nx,
2
n
n
n=1

1
A0 =

xf (x) dx .

Si a0 6= 0, basta considerar g(x) = f (x) a0 /2.


Bibliografa Adicional
La bibliografa sobre el tema es muy amplia, pero claramente la primera referencia es el
libro de Fourier (de 1822) [1]. Para los que tengan interes por cuestiones teoricas, una de las
referencias mas autorizadas es [2]. Una breve referencia de entre las muchas dedicadas a las
aplicaciones es [3].

34

CAPITULO 2. SERIES DE FOURIER

1 Joseph Fourier, Theorie analytique de la chaleur, Editions Jacques Gabay, Pars, 1988
(ISBN 2 87647 046 2).
2 A. Zygmund, Trigonometric Series, vol. 12, Cambridge Mathematical Library, Cambridge
University Press, Cambridge, 1988 (ISBN 0 52135 885 X).
3 James Ward Brown and Ruel V. Churchill, Fourier Series and Boundary Value Problems,
McGraw-Hill Company, Nueva York, 2000 (ISBN 0 07232 570 4).

Captulo 3
Transformada de Fourier
versi
on 31 de agosto de 2009

3.1.

Definiciones

Vimos, en el captulo anterior, que la serie de Fourier esta definida, si f C [L, L], como

inx

e L
Cn
f (x) =
2
n=

con L x L ,

(3.1)

donde
1
Cn =
2L

inx

e L
f (x)
dx ,
2
L

n Z.

(3.2)

Una consecuencia inmediata de la expansion en serie de Fourier es que la funcion f (x) representada por la serie resulta periodica, con perodo L. Por tanto, uno puede decir que la
serie de Fourier permite expandir funciones periodicas. Sin embargo, no todas las funciones
son periodicas. Necesitamos, entonces, alg
un modo de expandir, en una base ortonormal,
funciones no periodicas.
A partir de los resultados anteriores, es claro que el modo natural de obtener un resultado
para funciones no periodicas es hacer tender L (cualquier valor finito de L permitira la
extension periodica de f , con perodo L).
Tomemos, entonces, el lmite cuando L . Pero antes, convendra hacer el cambio de
variables k = n/L. Notemos que la diferencia entre valores consecutivos de k es
k =

n
= ,
L
L

pues n = 1,

y definamos
CL (k) =
35

L
Cn .

36

CAPITULO 3. TRANSFORMADA DE FOURIER


Usando las anteriores definiciones en las ecuaciones (3.1) y (3.2) obtenemos:



X
X
1
eikx kL
CL (k)eikx k ,
=
f (x) =
CL (k)
L 2

2
Lk/=
Lk/=
Z L
L 1 1

f (x)eikx dx .
CL (k) =
2 2L L
Al hacer L , obtenemos
Z
1
f (x) =
C(k)eikx dk ,
2
Z
1
C(k) =
f (x)eikx dx ,
2

pues k se convierte en una variable continua. Notamos que, esencialmente, hay una simetra
entre ambas expresiones. Esta simetra corresponde a decir que es equivalente referirse a un
vector de un espacio vectorial [f (x) en este caso] o a sus coordenadas [C(k)].
Definimos ahora C(k) como la transformada de Fourier F (k) de la funcion f (x). La
relacion entre f y F esta dada por el teorema de reciprocidad:
Z
1
F (k)eikx dk ,
(3.3a)
f (x) =
2
Z
1
F (k) =
f (x)eikx dx F{f, k} .
(3.3b)
2
(En realidad hemos cambiado el signo de las exponenciales dentro de las integrales, para seguir
la definicion usual de transformada de Fourier, lo cual no es problema, dada precisamente la
simetra que notamos antes.)
Observemos que la transformada de Fourier es la extension natural del concepto de series
de Fourier para funciones no periodicas. Y notando que n es una variable discreta, y k
continua, podemos decir que la transformada de Fourier es la generalizacion del concepto
de series de Fourier cuando las funciones a expandir pertenecen a un espacio vectorial de
dimension continua.
Definici
on 3.1 Si f es tal que
kf k =

|f | < ,

entonces se dice que f L1 .


De la definicio n anterior,
se sigue que f L1 si y solo si | f | L1 . Por otro lado, si

f L1 , entonces eikx f (x) L1 , luego eikx f (x) L1 . Por tanto, la transformada de Fourier
esta bien definida.
Teorema 3.1 (Riemann-Lebesgue. Sin demostraci
on.)
Si f L1 entonces la transformada de Fourier F (k) = F{f, k} existe y lm F (k) = 0.
k

37

3.2. EJEMPLOS

3.2.

Ejemplos

a) Una gaussiana, f (x) = N ex . Su transformada de Fourier es:


2

N
F (k) =
2

x2

ikx

Haciendo el cambio de variable u =


1 N
2
F (k) = ek /4
2

N
dx =
2

e(

xik/2 )2

ek

2 /4

dx .

x ik/2 , obtenemos

ik/2

ik/2

u2

N k2 /4
du =
e
2

eu du

N k2 /4
N
2
F (k) =
= ek /4 ,
e
2
2
otra gaussiana. Si es grande:
f(x)

F(k)

Si es peque
no:
F(k)

f(x)

Los anchos de la funcion y de su transformada estan en razon inversa.


a
con a > 0. La transformada de Fourier:
x 2 + a2
Z
eikx
a
eikx

dx
=
dx .
x 2 + a2
2 (x + ai)(x ai)

b) Una funcion Lorentziana f (x) =


a
F (k) =
2

Haciendo una prolongacion analtica al plano complejo de la funcion f (x) y luego considerando el contorno cerrado de integracion , para el caso k > 0, podemos aplicar el
teorema del residuo:

38

CAPITULO 3. TRANSFORMADA DE FOURIER

Im z

a
-L

Re z

-a
I



eikz
eikz


dz = 2i Res = 2i(z ai)
= eka .

z=ia
(z + ai)(z ai)
(z + ai)(z ai) z=ai a

Podemos separar el contorno en dos tramos, un semicrculo y un tramo horizontal entre


L y L sobre el eje real. Al tomar el lmite L es facil mostrar que la integral sobre
el semicrculo tiende a cero y la integral entre L y L tiende a una integral real entre
y , es decir
I
Z
eikz
eikx

dz
dx = eka .
L
a
(z + ai)(z ai)
(x + ai)(x ai)
Finalmente, nuestra transformada de Fourier resulta
r
a ka
ka
F (k) =
e
=
e
2
2 a

para k > 0 .

Analogamente, podemos mostrar, considerando el polo en el semiplano inferior y un contorno de integracion que lo contenga, que
r
ka
F (k) =
e
para k < 0 .
2
Para k = 0:
1
F (0) =
2


 r
 x  +
a
1
1


dx = arctan
=

.
=

2
2
x +a
a
2
2
2
2 2

Reuniendo los resultados para los diferentes k tenemos


r
| k | a
e
.
F (k) =
2
Graficamente:
f(x)

F(k)

39

3.2. EJEMPLOS

Nuevamente, como en el caso de la Gaussiana, mientras mas ancha es la funcion, mas


angosta es su transformada, y viceversa. Observamos que:
i) f (x) 0 como
| x |

1
x2

F 0 (k) discontinua en cero

ii) f (x) infinitamente


diferenciable

F (k) decrece mas rapido que


cualquier potencia

Esto coincide con los resultados generales sobre los coeficientes de Fourier del captulo 2.
Mas adelante, en la seccion 3.3, demostraremos el teorema analogo para transformadas
de Fourier.
c) Consideremos la funcion, con a > 0,
(
1 |x| < a
f (x) =
.
0 |x| > a
Su transformada de Fourier
1
F (k) =
2

+a
ikx

e
a

f(x)

dx =

2 sen(ka)

k
F(k)

-a

Se observa, como en los ejemplos anteriores:


f (x) ancha

F (k) angosta

f (x) angosta

F (k) ancha

f (x) discontinua

F (k) 0 como

f (x) 0 mas rapido que

F (k) infinitamente

| x |

cualquier potencia

| k |

1
k

diferenciable

1
Ejercicio Para el caso anterior, evaluar F 1 {F, x}, y mostrar que f (x = a) = .
2

40

CAPITULO 3. TRANSFORMADA DE FOURIER

d) Si g(x) R y es impar, i.e. g(x) = g(x), entonces


Z
Z
1
2i
ikx
G(k) =
g(x)e dx =
g(x) sen(kx) dx iGS (k) ,
2
2 0
donde GS es conocida como la transformada seno de Fourier de la funcion g(x), y viene
definida por
r Z
2
g(x) sen(kx) dx
GS (k) =
(3.4)
0
Como ilustracion de la definicion anterior, sea f (x) = sgn(x) e| x | . Evaluemos su transformada de Fourier:
r Z
2
ex sen(kx) dx
F (k) = iFS (k) = i
0
r Z

 ikx
2
e eikx
x
dx
= i
e
0
2i

Z
Z
1
(xikx)
(x+ikx)
=
e
dx
e
dx
2
0
0



1
1 (xikx)
1 (x+ikx)
=
e
+ ik e

2 ik
0
0


1
1
1
2ik
1

=
=
2
2 ik + ik
2 + k 2
r
2 ik
F (k) =
.
2 + k 2
f(x)

Fs (k)

f (x) discontinua

F (k) 0 como

f (x) 0 mas rapido que

F (k) infinitamente

| x |

| k |

1
k

cualquier potencia

diferenciable
Z
1
Notemos que F L , pero su integral entre y resulta impropia, P F = 0.
Analogamente a la definicion de la transformada seno de Fourier, si g(x) R y es par,
i.e. g(x) = g(x), entonces
Z
Z
1
2
ikx
G(k) =
g(x)e dx =
g(x) cos(kx) dx GC (k) ,
2
2 0

41

3.3. PROPIEDADES

donde GC es conocida como la transformada coseno de Fourier de la funcion g(x), y viene


definida por
r Z
2
g(x) cos(kx) dx
GC (k) =
(3.5)
0
e) Z
Consideremos ahora una funcion f (x) 6 L1 . Sea f (x) = sgn(x). f (x) 6 L1 , ya que

| f (x) | dx diverge. Intentemos de todas maneras evaluar la transformada de Fourier:

Z
1

sgn(x)eikx dx
F (k) =
2
r
Z
2
= i
sen(kx) dx

0
r
i 2
si k 6= 0
=
k

0
si k = 0

(integral Ces`aro)

f(x)

Fs (k)

-1

3.3.

Propiedades

Algunas propiedades de la transformada de Fourier. Sean f, g L1 y , C.


F{f + g, k} = F{f, k} + F{g, k}

F es lineal

F{f (x a), k} = eika F{f, k} = eika F (k)


F{f, k} = (F{f, k})

(3.6a)
(3.6b)

si f R

(3.6c)

F{eax f (x), k} = F{f, k ai} = F (k ai)

(3.6d)

F{eiax f (x), k} = F{f, k + a} = F (k + a)




 
k
1
k
1
F{f (x), k} =
F f (x),
=
F
||

||

(3.6e)
(3.6f)

Teorema 3.2 Cuanto mas derivable es f (x) tanto mas rapido decrece F (k) 0.
| k |

Demostraci
on Sea f (x) continua en < x < . Si f , f 0 L1 , entonces
F (k) 0 ,
| k |

42

CAPITULO 3. TRANSFORMADA DE FOURIER

pero tambien

kF (k) 0 ,
| k |

ya que
1
F (k) =
2
o sea

f (x)e

ikx


Z
eikx
1
1
dx = f (x)
f 0 (x)eikx dx = F{f 0 , k} ,
ik
ik 2 ik 2
ipp

ikF (k) = F{f 0 , k} 0 ,


| k |

pues f L .
Sean ahora f , f 0 , f 00 , f 000 , . . ., f (n1) L1 continuas en < x < . Sea f (n) L1 ,
entonces integrando n veces por partes obtenemos
0

F{f (n) , k} = (ik)n F (k) 0 ,


| k |

lo cual demuestra lo enunciado en el teorema.

q.e.d.

Teorema 3.3 Cuanto mas rapido f (x) 0, tanto mas derivable es F (k).
| x |

Demostraci
on Sea f L1 . Entonces F (k) es continua. En efecto,
Z


1
f (x) ei(k+h)x eikx dx
F (k) = F (k + h) F (k) =
2
Z


1
f (x)eikx eihx/2 eihx/2 eihx/2 dx
=
2
 
Z
hx
1
ikx ihx/2
=
f (x)e e
2i sen
dx .
2
2
R
Que f L1 dice que | f | < , luego  > 0 A suficientemente grande, tal que
R
R A
| f | < , | f | < . Ademas, se tiene que
A

 


sen hx 1 | hx | hA
para x [A, A] .

2 2
2
Teniendo en cuenta los resultados anteriores podemos acotar | F |, a saber
r Z

 

2
hx
| F |
| f (x) | sen
dx

2
r Z A

Z
Z A
2
hA

| f (x) | dx +
| f (x) | dx +
| f (x) |
dx

A
A
r 

Z
2
hA A

++
| f (x) | dx ,

2 A

43

3.4. APLICACIONES
lo cual es tan peque
no como se quiera. Lo anterior implica que F (k) es continua.
Sea ahora f (x) y xf (x) L1 , entonces afirmamos que F (k) es derivable. En efecto
Z
Z
Z
i


d h
d
ikx
ikx
xf (x)eikx dx .
f (x)e dx =
f (x)e
dx = i
2F (k) =
dk
dk
k

El intercambio entre la integral y la derivada queda legitimado ya que Rhay convergencia

uniforme porque la u
ltima de las integrales tiene un mayorante convergente: | xf (x) | <
pues xf (x) L1 . De lo anterior tenemos que
Z
1
0
F (k) =
ixf (x)eikx dx = F{ixf (x), k} .
2
Finalmente, si f (x), xf (x), . . . , xn f (x) L1 , entonces, de una forma analoga al caso
anterior, podemos probar que la derivada de la transformada de Fourier existe, porque
F (n) (k) = F{(ix)n f (x), k}.
q.e.d.
Tambien se puede probar que, en general, mientras mas ancha es una funcion, mas angosta es su transformada de Fourier y viceversa, como ya observamos en los ejemplos de la
seccion 3.2.
Definici
on 3.2 Sea f (x) tal que x | f (x) |2 , x2 | f (x) |2 L1 . Definimos la posicion media de
la distribucion | f (x) |2
Z
1
x | f (x) |2 dx ,
(3.7)
hxi =
C
con
Z
| f (x) |2 dx ,
C=

y el ancho de la distribucion | f (x) |


q
q
2
x = h (x hxi) i = hx2 i hxi2 ,
2

(3.8)

Teorema 3.4 (Principio de incerteza) Sea x el ancho medio asociado a una funcion
f (x) L1 . Sea F (k) = F{f (x), k} la transformada de Fourier de f , con ancho k. Entonces
se cumple
1
kx .
2
La igualdad se consigue solo si f (x) es una gaussiana.

3.4.

Aplicaciones

a) Consideremos la ecuacion de Laplace en dos dimensiones


2 2
+
=0.
x2
y 2

44

CAPITULO 3. TRANSFORMADA DE FOURIER


Busquemos soluciones para y 0 que satisfagan las condiciones de contorno
(x, 0) = f (x) y (x, y) 0 .
y

Soluci
on
Realicemos separacion de variables, i.e. escribimos (x, y) = X(x)Y (y). Al introducir esta
forma para (x, y) en la ecuacion diferencial obtenemos
1 d2 X(x)
1 d2 Y (y)
=
= 2 ,
2
2
X(x) dx
Y (y) dy
donde > 0 es la constante de separacion. Las soluciones de las respectivas ecuaciones
diferenciales son:
d2 X(x)
+ 2 X(x) = 0 X(x) = Aeix + Beix ,
dx2
d2 Y (y)
2 Y (y) = 0 Y (y) = Cey + Dey .
2
dy
Al aplicar la condicion de contorno (x, y) 0 concluimos que D = 0.
y

Planteamos la solucion mas general superponiendo sobre todos los valores posibles de la
constante de separacion :
Z


1
(x, y) =
A()eix + B()eix ey d .
2 0
Imponiendo la condicion de borde para y = 0:
Z


1
A()eix + B()eix d = f (x) .
(x, 0) =
2 0
Al definir A() = B() podemos compactar las dos integrales en solo una:
Z
1
(x, 0) =
A()eix d = f (x) .
2
Identificamos los coeficientes, A() = F{f (x), }, y reemplazamos en la solucion general,
Z
1
(x, y) =
F{f (x), }eix e| | y d ,
2
obteniendo la solucion del problema de contorno.
b) Consideremos la ecuacion diferencial del oscilador armonico amortiguado y forzado por
una fuerza externa:
d2 x(t)
dx(t)
+ 2
+ 02 x(t) = f (t) .
2
dt
dt

45

3.4. APLICACIONES
Soluci
on

Aplicando la transformada de Fourier a ambos lados de la ecuacion diferencial, obtenemos


(i)2 F{x(t), } + 2(i)F{x(t), } + 02 F{x(t), } = F{f (t), } F () .
Despejando para la transformada de Fourier de la solucion:
F{x(t), } =

F ()
.
2i + 02

Tomando la antitransformada obtenemos la solucion


Z
1
F ()
eit d .
x(t) =
2
2
2 0 + 2i
El procedimiento anterior resulta u
til para resolver ecuaciones diferenciales lineales con
coeficientes constantes.
Bibliografa Adicional
De la enorme literatura sobre el tema recomendamos [1] para quienes tengan interes en
la teora.
1 Elias M. Stein y Guido Weiss, Introduction to Fourier Analysis on Euclidean Spaces, Princeton Mathematical Series 32, Princeton University Press, Princeton 1971 (ISBN 0 691
08078 X).

46

CAPITULO 3. TRANSFORMADA DE FOURIER

Captulo 4
Convoluci
on
versi
on 31 agosto 2009

Espacio S

4.1.

Definici
on 4.1 Una funcion f : R C pertenece al espacio S si es infinitamente diferenciable y
lm tm f (n) (t) = 0 m, n N .
t

A S se le llama espacio de Schwartz.


Ejemplos
i) et pl (t), > 0, real, con pl (t) polinomio de orden l.



exp 1 1
atb
tb ta
ii) f (t) =

0
t 6 [a, b]
2

Proposici
on 4.1 S es un espacio vectorial.
En efecto, de la definicion de S es inmediato mostrar que {S, +} es un grupo abeliano, y
que si f, g S, entonces f + g S, , C.
P
Proposici
on 4.2 Si f S, entonces pl (t)f (r) (t) S, donde pl (t) = lk=0 ak tk es un polinomio de grado l.
Tambien esto es claro, dada la proposicion anterior y la definicion de S.
Proposici
on 4.3 Si f , g S, entonces
Z
(f |g) =

f (t)g(t) dt existe.

47

48

CAPITULO 4. CONVOLUCION

En particular
kf k = (f |f ) =
2

| f (t) |2 dt existe.

Vale decir, S es un espacio pre-Hilbert (ya mostramos que es un espacio vectorial).


Proposici
on 4.4 Si f S, entonces F{f, } = F () S.
Demostraci
on
a) Como f S, entonces

lm tn f (t) = 0 .

De las propiedades de las transformadas de Fourier:


F (n) () existe n N.
Luego F () es infinitamente diferenciable.
dm
b) Como f S, entonces m [tn f (t)] existe n, m N . Por las propiedades de las transdt
formadas de Fourier:
lm m F{tn f (t), } = 0 m, n N

lm m F (n) () = 0 m, n N

Luego

F () = F{f, } S .
q.e.d.

4.2.

Producto de convoluci
on

Definici
on 4.2 Producto de convolucion .
f g = p p(t) =

f (t x)g(x) dx .

Idea fsica
Sea f (t) alg
un estmulo (fuerza en el tiempo t, densidad de carga en la posicion t,
etc.). Sea g(x, t) = g(x t) la respuesta en x a un estmulo en t. La dependencia en x t
tiene implcita la hipotesis de que el medio es isotropico. Si el sistema es lineal , la respuesta
total en el punto x al estmulo global {f (t)|t R} sera la suma de todas las contribuciones
elementales [dt f (t)] g(x, t), que es la convolucion p(x).

49

4.2. PRODUCTO DE CONVOLUCION


Ejemplo El potencial debido a una densidad de carga (~r ) se puede escribir:
Z
(~r 0 ) d~r 0
1
= g(~r ) , g(~r ) =
.
(~r ) =
0
| ~r ~r |
| ~r |

Idea matem
atica
Consideremos las funciones f (t), g(t):
f(t)

g(t)

Entonces el grafico de g(t) es:


g(t)

y se tiene:
f(t)

g(xt)

f(t) g(xt)

f g mide entonces el grado de traslape entre f (t) y g(t), luego de trasladar esta
funcion una distancia x. Si f (t) y g(t) decaen violentamente para t , el traslape
tendera rapidamente a cero si x :
[f g](x) 0 .
x

50

CAPITULO 4. CONVOLUCION

Proposici
on 4.5 Si f , g S, entonces p = f g S.
Demostraci
on
i)
d
dp(t)
=
dt
dt

f (t x)g(x) dx =

f (t x)g(x) dx .
t

La u
ltima igualdad se tiene si existe un mayorante
R convergente. En efecto existe, pues
0
si M es tal que | f (x) | < M x R, entonces M | g(x) | < es tal mayorante.
Luego
p0 = f 0 g
p(m) = f (m) g

m N

Es decir, p es infinitamente diferenciable.


ii)
lm t p

m (n)

luego

(t) = lm

m (n)

t f

(t x)g(x) dx =

lm tm f (n) (t x)g(x) dx = 0 ,

lm tm p(n) (t) = 0 n, m N .

q.e.d.
Teorema 4.1 Sea f , g S y F (k) = F{f, k}, G(k) = F{g, k}, entonces
F{f g, k} =

2F (k) G(k)

Demostraci
on
Z
Z
Z
1
1
ikt
F{f g, k} =
p(t)e dt =
dt
dx f (t x)g(x)eikt
2
2

Z

Z
1
=
dx
dt f (t x)eikt g(x)
.
2

Haciendo el cambio de variables t = y + x:




Z
Z
1
iky
F{f g, k} =
dx
dy f (y)e
g(x)eikx
2




Z
Z

1
1
ikx
iky

= 2
dx g(x)e
dy f (y)e
.
2
2

(4.1)

51

4.3. EL ESPACIO S COMO ANILLO


Vale decir:
F{f g, k} =

2F (k) G(k) .
q.e.d.

4.2.1.

Propiedades del producto de convoluci


on

i) Asociatividad:
(f g) h = f (g h)
ii) Distributividad:
f (g + h) = f g + f h
(f + g) h = f h + g h
iii) Conmutatividad:
f g =gf
Ejercicio Demostrar propiedades i y ii.
Demostremos la conmutatividad (propiedad iii).
p(t) = f g(t) =

f (t x)g(x) dx .

Con el cambio de variable t x = y:


p(t) =

f (y)g(t y) dy =

f (y)g(t y) dy = g f (t) .

Tambien podramos haber procedido usando (4.1), aplicando la transformada de Fourier sobre
el producto de convolucion y luego invirtiendo la transformada.

4.3.

El espacio S como anillo

En S hay dos operaciones binarias:


i) Adicion. Si f , g S, entonces f + g S.
ii) Convolucion. Si f , g S, entonces f g S.

52

CAPITULO 4. CONVOLUCION

De las propiedades de la suma y la convolucion se sigue que {S, +, } es un anillo conmutativo. Es un anillo unitario, es decir, tiene un elemento neutro multiplicativo?
Supongamos que existe S tal que f = f = f f S, es decir:
Z
f (t x)(x) dx = f (t)
f S .
(4.2)

Supongamos que (t0 ) > 0. Luego > 0 en cierto intervalo, ya que es continua. Podemos
ademas considerar, sin perdida de generalidad, dicho intervalo como 0 < a < b.
Escojamos ahora f S tal que
(
> 0 a < x < b
f (x) =
.
0
x 6 ]a, b[
En particular, se tiene que f (0) = 0.
Evaluemos (4.2) en t = 0:
0 = f (t = 0) =

f (x)(x) dx =

f (x)(x) dx > 0 ,

que es evidentemente una contradiccion.


Luego el anillo conmutativo {S, +, } no tiene elemento neutro respecto a la operacion .
Proposici
on 4.6 El anillo {S, +, } tiene divisores del cero respecto a .
Demostraci
on En efecto, sean F = F{f, k}, G = F{g, k} S nulas fuera de cierto intervalo, tales que F (k)G(k) = 0. Basta considerar dos funciones con soporte finito y disjunto,
como en la figura:

F(k)

G(k)

Invirtiendo la trasformada de Fourier [en virtud del Teorema de Reciprocidad, ecuacion


(3.3)]:
1
f g(t) = F 1 {F (k)G(k), t} = F 1 {0, t} = 0 .
2
Luego tenemos f 6= 0 y g 6= 0, pero f g = 0.

q.e.d.

53

4.3. EL ESPACIO S COMO ANILLO


Proposici
on 4.7 Si f , g S, entonces
(f |g) = (F |G) .

(4.3)

Demostraci
on Se tiene
Z
Z

1
h g(t) =
h(t x)g(x) dx = 2F {HG, t} =

H(k)G(k)eikt dk .

Escojamos

h (x) = f (x) ,

de modo que
Z
1
f (t)eikt dt
H(k) = F{h(t), k} = F{f (t), k} =
2


Z
Z
1
1

ik
ik
=
f ()e
d =
f ()e d = F (k) .
2
2

Luego

h(x)g(x) dx = h g(t = 0)

o sea
Z

f (x)g(x) dx =

F (k)G(k) dk

(Identidad de Plancherel)

(4.4)
En particular, si f = g:
Z

| f (t) | dt =
2

| F (k) |2 dk

(Relacion de Parseval)

q.e.d.

54

CAPITULO 4. CONVOLUCION

Captulo 5
Distribuciones temperadas
versi
on 7 septiembre 2009

5.1.

Definiciones

Definici
on 5.1 Sea V un espacio vectorial sobre el cuerpo de los C con dimension finita.
Sean ~x, ~y V . Existen funciones lineales sobre V , u( ~x ), tal que
u

V C,
donde u satisface linealidad, i.e.
u( ~x + ~y ) = u( ~x ) + u( ~y ) ,

, C .

Estas funciones forman el dual de V, el cual denotamos por V .


Definici
on 5.2 Un elemento del espacio dual es llamado un covector. La accion de un covector u V sobre un vector ~x V la denotamos por
hu, ~x i = u( ~x ) C .

(5.1)

Las definiciones anteriores son validas para espacios vectoriales de dimension finita. Extendamolas a espacios de dimension continua, infinita. Consideremos el espacio vectorial de
Schwartz S de funciones infinitamente diferenciables y rapidamente decrecientes, el cual es
de dimension infinita. Sus vectores son funciones x(t), y(t), . . . S.
Definici
on 5.3 Un funcional lineal sobre S es una funcion que act
ua sobre las funciones
x(t), y(t), . . . S, tal que

SC
y
h, x + yi = h, xi + h, yi

, C y x, y S.

La definicion anterior permite definir el espacio dual de S. Sin embargo, nos interesara estudiar un subconjunto particular de el. Para ello, necesitamos introducir antes una definicion
de convergencia adicional: la convergencia fuerte.
55

56

CAPITULO 5. DISTRIBUCIONES TEMPERADAS

Definici
on 5.4 Sean x1 (t), . . . , xn (t) una sucesion de funciones en S. Se dice que esta sucesion converge fuertemente a cero si
lm tm x(k)
n (t) = 0

k, m = 0, 1, 2, . . .

(5.2)

uniformemente en < t < . En tal caso escribimos


!

xn (t) 0 .
n

Esto es, la convergencia fuerte es una convergencia de todas las derivadas, mas rapidamente que cualquier polinomio.
Si la sucesion x1 (t), . . . , xn (t) converge fuertemente a x(t), i.e.
!

xn (t) x(t) ,
n

significa que
!

yn (t) xn (t) x(t) 0 .


n

Ejemplos
1) Si f (t) S, entonces xn (t) =

f (t) !
0
n n

2) Un ejemplo de no convergencia fuerte. Consideremos


xn (t) =
Entonces

1 t2 /n2
e
0 .
n
ns

 s
t
1
2
2
et /n .
t xn (t) =
sm
n t
m

Tomamos m > s y t = n. t vara con n (si hay convergencia uniforme, la expresion anterior
debe converger a cero para todo t). Entonces
tm xn (t) = tms e1 = nms e1 .
n

No hay convergencia fuerte. Observamos que si hubieramos tomado t fijo, es decir el lmite
puntual, el lmite es cero.
Definimos ahora un subconjunto especial de elementos del dual de S:
Definici
on 5.5 Un funcional lineal sobre S es una distribucion temperada si es continua
en el sentido
!
en C
yn (t) y(t) = h, yn i h, yi .
n

Observemos que, en principio, podramos definir funcionales sobre cualquier conjunto de


funciones de prueba. Una distribucion sera, en general, un funcional lineal que satisface la
condicion de continuidad anterior. Una distribucion temperada corresponde a un funcional
lineal continuo sobre el espacio de Schwartz.

57

5.1. DEFINICIONES

Definici
on 5.6 La suma de dos distribuciones y se define como el funcional + tal
que:
h + , xi = h, xi + h, xi
xS .
(5.3)
Definici
on 5.7 El producto de un escalar por una distribucion se define como el funcional
lineal tal que:
h, xi = h, xi
xS yC.
(5.4)
Es inmediato mostrar que + y son funcionales lineales y que ademas son distribuciones temperadas. Luego el conjunto de las distribuciones temperadas sobre S, forma un
espacio vectorial denotado S . S no es el espacio dual de S, sino un subespacio de el.
Ejemplos
1) Un funcional asigna un escalar a una funcion. El caso mas simple es aquel en que el n
umero
es simplemente el valor de la funcion en alg
un punto, por ejemplo, en el origen. Definamos
entonces el siguiente funcional:
h, xi = x(0), x S. Mostremos que S . Claramente es funcional lineal sobre S,
h, x + yi = x(0) + y(0) = h, xi + h, yi .
Sean ahora {yn (t)} una sucesion de funciones que convergen fuertemente a y(t), es decir,
!

yn (t) y(t) .
n

Consideremos el lmite
lm h, yn i = lm yn (0) = y(0) = h, yi .

Por lo anterior tenemos que S .


2) Nada impide definir un funcional como el anterior, pero tomando cualquier otro valor del
argumento:
ha , xi = x(a), x S. De la misma forma anterior, podemos demostrar que a S .
3) h 0 , xi = x0 (0) x S. Demostremos que 0 S . Linealidad:
h 0 , x + yi = x0 (0) y 0 (0) = h 0 , xi + h 0 , yi .
Sea

yn (t) y(t) .
n

Tomemos el lmite
lm h 0 , yn i = lm yn0 (0) = y 0 (0) = h 0 , yi .

Concluimos, de lo anterior, que 0 S .

58

CAPITULO 5. DISTRIBUCIONES TEMPERADAS

Los tres ejemplos anteriores son particularmente importantes. El funcional se conoce


como la delta de Dirac, y fue introducida por Dirac por la necesidad de tener una teora
matematica consistente para la Mecanica Cuantica. Eventualmente, Schwartz desarrollo formalmente la teora de distribuciones.
4) Otro modo
de asignar un escalar a una funcion es integrandola:
Z
h, xi =
x(t) dt.

Linealidad

h, x + yi =

[x(t) + y(t)] dt = h, xi + h, yi .

Sea
!

yn (t) y(t) ,
n

entonces
lm h, yn i = lm

yn (t) dt =

lm yn (t) dt =

y(t) dt = h, yi ,

luego S .
Hasta el momento, hemos definido solo algunas distribuciones sencillas. A continuacion
mostraremos que es posible construir infinitas distribuciones, a partir de funciones llamadas
de crecimiento lento.
Definici
on 5.8 Una funcion f (t) se dice de crecimiento lento si
| f (t) | < A(1 + t2 )m

para ciertos A y m.

(5.5)

Esto significa que f (t) tiene crecimiento polinomial, no exponencial. Quedan tambien excluidas funciones singulares como 1/t.
Definici
on 5.9 Sea una funcion f (t) : R C de crecimiento lento, seccionalmente continua
y con discontinuidades mansas. Definimos el funcional f asociado a la funcion f (t) de la
siguiente manera:
Z


f, x =
f (t)x(t) dt .
(5.6)

Observemos que si x(t) pertenece a S, esto es precisamente lo que permite que f sea de
crecimiento lento (i.e., polinomial), y a
un as la integral en (5.6), y por ende el funcional
asociado a f , existan.
Proposici
on 5.1 El funcional f S .

59

5.1. DEFINICIONES

Demostraci
on Consideremos el funcional actuando sobre una combinacion lineal de funciones:
Z

f , x + y =
f (t) [x(t) + y(t)] dt

Z
Z


f (t)y(t) dt = f , x + f , y .
f (t)x(t) dt +
=

Luego f es un funcional lineal.


Por otra parte, sea
!

yn (t) y(t) .
n

Entonces
Z


f , yn y =

Z

f (t) [yn (t) y(t)] dt

| f (t) | | yn (t) y(t) | dt .

Como es de crecimiento lento,


Z


f , yn y
A(1 + t2 )m | yn (t) y(t) | dt,

para ciertos A, m.

La convergencia fuerte de yn (t) a y(t) significa que




0 = lm tq yn(k) (t) y (k) (t)
n

En particular,

k, q, t .

0 = lm (1 + t2 )m+1 [yn (t) y(t)]


n

t,

lo cual significa que para un  > 0 arbitrario se tiene que


m+1
[yn (t) y(t)] 1 + t2
<,
de cierto n en adelante, independiente de t. Luego existe un N tal que
Z



f , yn y
A(1 + t2 )m
dt para  arbitrario y n > N .
(1 + t2 )m+1

Finalmente


f , yn y A

dt
= A .
1 + t2

La pen
ultima desigualdad se cumple desde un cierto n en adelante, siendo el resultado final
tan peque
no como se quiera. Por lo tanto


lm f , yn = f , y = f S .
n

q.e.d.

60

CAPITULO 5. DISTRIBUCIONES TEMPERADAS

Es importante hacer notar que lo que hemos hecho es construir una distribucion a partir
de una funcion, y que demostramos que toda funcion de crecimiento lento tiene una distribucion asociada. Sin embargo, no todas las distribuciones provienen de funciones. Pero ciertas
propiedades de las distribuciones asociadas a funciones nos serviran para inspirar definiciones
y mostrar propiedades validas para toda distribucion.
Teorema 5.1 Sean f , g S, seccionalmente continuas y de crecimiento lento. Sean f , g sus
correspondientes distribuciones temperadas. Entonces
f = g = f = g .

Demostraci
on


f = g = f , x = hg, xi

xS .

Supongamos que f 6= g en un punto, por ejemplo f (t0 ) > g(t0 ). Por continuidad de f (t) y
g(t) tenemos que f (t) > g(t) en una vecindad (a, b) en torno a t0 . Si t0 fuera justo un punto
de discontinuidad de f o g (recordemos que son seccionalmente continuas) no hay problema.
Siempre podemos correr t0 en un intervalo vecino.
Tomemos una funcion de prueba x(t), tal que x(t) > 0 si t (a, b) y x(t) = 0 si t 6 (a, b),
entonces
Z b
Z
[f (t) g(t)] x(t) dt 6= 0 .
[f (t) g(t)] x(t) dt =

Esto dice que

f (t)x(t) dt 6=

g(t)x(t) dt = f 6= g ,

lo cual contradice la hipotesis. Luego f = g.

q.e.d.

Sean f , f 0 dos funciones de crecimiento lento, continuas en < t < . Sean f , f 0 las
distribuciones correspondientes. Definimos la derivada de la distribucion f como
f 0 = f0 .
Con ello,


f , x = f 0, x =

Z


f (t)x(t) dt = f (t)x(t)


f (t)x0 (t) dt = f , x0 . (5.7)

Observemos como este resultado, y por lo tanto la definicion (5.7), es consistente con el
ejemplo 3 de este captulo.
A la luz de este resultado, proponemos la siguiente definicion.
Definici
on 5.10 Si S definimos la derivada de la distribucion, 0 , de la siguiente manera:
h0 , xi = h, x0 i

xS .

(5.8)

61

5.1. DEFINICIONES
Proposici
on 5.2 0 as definida pertenece a S .

Demostraci
on Consideremos la derivada del funcional actuando sobre una combinacion
lineal de funciones:
h0 , x + yi = h, x0 + y 0 i = h, x0 i h, y 0 i = h0 , xi + h0 , yi .
Se cumple entonces la linealidad. Por otra parte, sea
!

yn (t) y(t) ,
n

entonces

lm h0 , yn i = lm h, yn0 i = h, y 0 i = h0 , yi .

La pen
ultima igualdad es consecuencia de que S , y que yn0 (t) converge fuertemente a
y(t), siendo la conclusion final que 0 S .
q.e.d.
Una consecuencia de lo anterior es que
(n) S
donde

S ,

(n)


, x = (1)n , x(n)

x S .

(5.9)

Ejemplo Funcion escalon de Heaviside:

1 + sgn t
= 21
h(t) =

si t > 0
si t = 0
si t < 0

1
1/2
0

Tomamos h(t) como funcional, i.e. consideramos el funcional asociado h, definido por
Z


h, x =
x(t) dt x S .
0

Evaluemos su derivada


h , x = h, x0 =

Z
0



x (t) dt = x(t) = x(0) = h, xi ,
0

(5.10)

62

CAPITULO 5. DISTRIBUCIONES TEMPERADAS

luego
h0 =

(5.11)

Este resultado es importante. Hemos logrado en alg


un sentido diferenciar una funcion discontinua. El espacio de las distribuciones aparece como una generalizacion del espacio de
funciones, en el cual la derivada existe incluso para funciones discontinuas. Sin embargo, esta
analoga, que puede sernos u
til de modo informal, no debe ser tomada como rigurosa. No es
la funcion discontinua la que estamos derivando, sino el funcional asociado a ella. S es cierto
que, mientras en el espacio de funciones las derivadas no siempre estan definidas, en el espacio
de distribuciones siempre lo estan, y, por ejemplo, como muestra (5.9), toda distribucion es
infinitamente diferenciable.
Proposici
on 5.3 Para distribuciones la diferenciacion es lineal, es decir,
( + )0 = 0 + 0 .

(5.12)

Demostraci
on Sea x S arbitrario.


( + )0 , x = h + , x0 i = h, x0 i h, x0 i = h0 , xi + h 0 , xi .
q.e.d.
Generalicemos el ejemplo de la funcion escalon de Heaviside. Sea f (t) una funcion diferenciable a tramos con una sola discontinuidad en t = a.

p
a

Sea p = f (a+ ) f (a ). Por hipotesis f 0 existe para todo t 6= a. Escribamos Df en lugar de


f 0 . Claramente, para t = a Df no existe. Consideremos ahora el funcional f asociado a f y
tomemos su derivada f 0 . Para ello sea x S arbitrario:


f , x = f , x0 =
0

f (t)x (t) dt
0

f (t)x0 (t) dt

a+

Z a
a
Z


= f (t)x(t)
+
Df (t)x(t) dt f (t)x(t) +
Df (t)x(t) dt

a+

a+




= f (a+ ) f (a ) x(a) + Df , x


= Df , x + px(a) = Df , x + p ha , xi .

63

5.1. DEFINICIONES
Por lo tanto, en el espacio de las distribuciones temperadas se satisface:
f 0 = f 0 = Df + pa

(5.13)

Proposici
on 5.4 Si f tiene discontinuidades con saltos finitos de tama
nos pk en t = ak para
0
k = 1, . . . , n y si f es continua fuera de los ak , entonces
f = Df +
0

m
X

pk ak

(5.14)

k=1

De la proposicion anterior se desprende el siguiente resultado:


Proposici
on 5.5 Si f tiene una discontinuidad finita en a, entonces
0

f = Df + p0 a ,
00

f = D2 f + p0 a0 + p1 a ,
...
f

(n)

= Dn f + p0 a(n1) + p1 a(n2) + + pn1 a ,

donde pk es el salto en el punto a de la funcion f (k) .


La demostracion es similar a la de la proposicion 5.4, integrando por partes n veces.
Hemos enfatizado que las distribuciones no son funciones. Pero dadas las fuertes analogas,
y aun cuando no todas las distribuciones son funcionales asociados a funciones, las siguientes
definiciones nos permiten emplear un lenguaje similar para distribuciones y funciones.
Definici
on 5.11 La distribucion S tiene un valor nulo en (a, b) si h, xi = 0, x S,
que sea nula fuera de (a, b). En tal caso se escribe (t) = 0 para a < t < b.
Si el funcional f asociado a f tiene un lugar nulo en (a, b) esto nos dice que f (t) = 0 en
a < t < b.
Ejemplo Sea (a, b) un intervalo abierto que no contiene el cero. Sea la distribucion definida
por
h, xi = x(0)
xS .
Sea y(t) S tal que y(t) 6= 0 solo para t (a, b). En tal caso
h, yi = y(0) = 0 ,

ya que 0 6 (a, b).

De acuerdo a nuestra convencion, se escribe (t) = 0 si t 6= 0.


Para una funcion f , se define el soporte de f como la clausura de {x|f (x) 6= 0}, es
decir, el menor conjunto cerrado fuera del cual f es cero. Podemos extender esta definicion
a distribuciones:

64

CAPITULO 5. DISTRIBUCIONES TEMPERADAS

Definici
on 5.12 El soporte de una distribucion es el menor conjunto cerrado fuera del cual
tiene valor nulo.
Ejemplo De acuerdo a nuestra definicion tiene soporte {0} y a tiene soporte {a}.
Definici
on 5.13 La distribucion temperada S tiene valores g(t) en (a, b) si g tiene
valor nulo en (a, b).

5.2.

Sucesi
on de distribuciones

Consideremos ciertas distribuciones discretas de masa y la distribucion continua asociada.


m1

m5
m4
m2m3

x1 x2 x3 x4 x5

mn

xn

(x)

m(x)

x
m(x)

m(x) =

n
X

m(x) =

mi

(x0 ) dx0

i=1

Podramos decir que una sucesion de distribuciones discretas tiende a una distribucion
continua, usando los terminos entre comillas sin mayor precision. Para formalizar esta idea,
definamos que vamos a entender por convergencia de una sucesion de distribuciones.
Definici
on 5.14 Convergencia de una sucesion de distribuciones
Una sucesion de distribuciones {n } converge a una distribucion si y solo si x S
tenemos que lm hn , xi = 0, i.e.
n

lm n = lm hn , xi = h, xi

Ejemplo
1) Consideremos la sucesion de funciones

2
fn (t) =

si | t | <

1
n

1
si | t | >
n

xS .

(5.15)

65

DE DISTRIBUCIONES
5.2. SUCESION

3/2

f3

f2

1/2
-1

-1/2 -1/3

f1
1/3 1/2

Consideremos ahora los respectivos funcionales asociados y veamos como act


ua uno de ellos
sobre una funcion x cualquiera. Usando el teorema del valor medio:


fn , x =

1
n

1
n

n
n 2
x(t) dt =
x( ) ,
2
2 n

con

1
1
< < ,
n
n

luego


lm fn , x = x(0) = h, xi ,

es decir, en terminos de distribuciones


lm fn = .

Esto puede inducirnos a pensar que la es una funcion, que es nula en todo el eje
real, salvo en el origen, donde es infinita. Esto puede servir como imagen mental, pero es
importante enfatizar que en rigor no es correcto, y que el lmite anterior solo existe en
el sentido de distribuciones. La sucesion fn converge a algo, pero ese algo no es una
funcion (lo cual nos muestra, incidentalmente, que el espacio de funciones no es un conjunto
cerrado).
En el ejemplo anterior, se dice que la sucesion fn es una representacion de la . Existen
muchas representaciones de la . De hecho, el ejemplo anterior es un caso particular de la
siguiente proposicion:
Proposici
on 5.6 Sea g(t) una funcion seccionalmente continua, con
Z
Z
g(t) dt = 1
y
| g(t) | dt < .

g(t) no es necesariamente simetrica. Formemos la sucesion


fn (t) = n g(nt) .
Entonces
lm fn = .

66

CAPITULO 5. DISTRIBUCIONES TEMPERADAS

Demostraci
on Consideremos la distribucion asociada a fn y veamos como act
ua sobre una
funcion x cualquiera.
Z
Z
u


fn , x = n
g(nt)x(t) dt =
g(u)x
du .
n

Interesa el lmite cuando n . Busquemos una mayorante. Sea M > max {| x(t) |},
<t<
entonces
Z
Z
Z
u
u






du
| g(u) | x
| g(u) | du < .
g(u)x
du < M

n
n

Vemos que hay convergencia uniforme y podremos intercambiar el lmite con la integral.
Z
Z
Z
u
u


lm fn , x = lm
g(u)x
du =
g(u) lm x
du = x(0)
g(u) du = x(0) ,
n
n
n
n
n

por lo tanto
lm fn = .

q.e.d.
En los siguientes ejemplos se muestran diversas representaciones de la , generadas gracias
a la proposicion anterior.
Ejemplos
1) Una ilustracion del caso anterior.
1
2
g(t) = et ,

Formemos la sucesion

de modo que

g(t) dt = 1 .

n
2 2
fn (t) = en t .

f3

f2
f1
t

67

DE DISTRIBUCIONES
5.2. SUCESION
Obtenemos de acuerdo a la conclusion del caso anterior
n
lm en2 t2 = (t)

(5.16)

2) Otra ilustracion.
1 sen(t)
g(t) =
,
t

de modo que

g(t) dt = 1 .

La sucesion asociada es:


fn (t) =

n sen(nt)
.
nt

f3
f2
f1
t
Nuevamente obtenemos, a partir de la conclusion anterior, el resultado para el lmite:
sen(nt)
= (t)
n
t
lm

Esta
se conoce como la representacion de Dirichlet de la .
3) Sea

si | t | > 1
0
g(t) = t + 1
si 1 < t < 0 .

t + 1 si 0 < t < 1
La sucesion, usando fn = ng(nt), tenemos

si | t | > 1/n
0
2
fn (t) = n t + n
si 1/n < t < 0 .

2
n t + n si 0 < t < 1/n

(5.17)

68

CAPITULO 5. DISTRIBUCIONES TEMPERADAS

f3
2

f2

f1
-1

-1/2 -1/3

En el lmite,

1/3 1/2

lm fn = .

4) Consideremos ahora la Lorentziana:


g(t) =
generando la sucesion
fn (t) =

1 1
,
1 + t2

1
1
n
1
 .

=
2
1 + (nt)
n 1
2
+t
n2

Luego, con = 1/n,


lm

1
= .
2 + t2

5) Una generalizacion del ejemplo 2. Toda sucesion de funciones tal que



Z
Z
| fn (x) | dx +
| fn (x) | dx = 0 ,
> 0 fijo
lm
n

lm

cumple

fn (x) dx = 1 ,

> 0 fijo

lm fn = .

Demostracion: Ejercicio.
Este ejemplo sugiere, una vez mas, que uno podra imaginarse la como una funcion que
es nula en todo punto distinto del origen, pero en el origen es suficientemente infinita como
para que la integral en un intervalo que contiene al origen sea uno. Por supuesto, todas estas
curiosas propiedades de la son curiosas solo si insistimos en pensarla como una funcion.
Todo es completamente consistente dentro del espacio de distribuciones.
Ya hemos visto que las distribuciones no solo tienen derivada, sino que son infinitamente
diferenciables. Los siguientes teoremas muestran que la derivada de distribuciones se puede

69

DE DISTRIBUCIONES
5.2. SUCESION

intercambiar con el lmite, y con la suma infinita, dos propiedades altamente no triviales
cuando se trata de funciones usuales.
Teorema 5.2 Si la sucesion de distribuciones {n } converge a la distribucion cuando
n , entonces la sucesion de derivadas {0n } converge a 0 , es decir,

0
lm 0n = lm n = 0 .
(5.18)
n

Demostraci
on
h0n , xi = hn , x0 i .
El lado izquierdo tiende a h, x0 i = h0 , xi, pues n converge a . Entonces, para todo x
se tiene que
h0n , xi h0 , xi ,
n

luego

lm 0n = 0 .

q.e.d.
Teorema 5.3 Toda serie convergente de sucesiones puede ser derivada termino a termino
dentro de la sumatoria.
P
Demostraci
on En efecto, supongamos que la serie
=0 es convergente. Sea
n =

n
X

=0

Se tiene

n
X

!0
=

=0

n
X

0 .

=0

Como n converge, definamos


lm n =

X
=0

Por el teorema anterior,


0 =

lm n

0

es decir,
= lm
0

n
X
=0

= lm 0n ,
n

0 .

=0

q.e.d.

70

CAPITULO 5. DISTRIBUCIONES TEMPERADAS

Aplicaciones
1) En el espacio de distribuciones, una serie trigonometrica puede converger aun cuando sus
coeficientes ak crezcan polinomialmente cuando k (en contraste a lo que ocurre con
funciones, donde si una serie converge sus terminos deben anularse para k ; por ejemplo,
los coeficientes de Fourier).
Consideremos coeficientes ak tales que ak < C | k | , con C constante y > 0, cuando
| k | . Definimos la funcion
f (x) =

ak
e2ikx ,
+2
(2ik)
k=
k6=0

donde . Como el termino general de esta serie esta acotado por C 0 / | k |2 cuando
| k | , vemos que la serie es uniformemente convergente, de modo que f no solo esta bien
definida, sino que es continua.
Consideramos ahora la distribucion asociada f . (5.9) dice que f es infinitamente diferenciable. En particular,
f

(+2)

(x) =

ak e2ikx .

k=
k6=0

Esta serie existe como distribucion, no como funcion porque no convergera. Agregar un
termino con k = 0 no afecta la convergencia de la serie, obteniendose finalmente que la serie
trigonometrica

ak e2ikx

k=

es sumable en S . Es mas, esta serie trigonometrica es una distribucion de perodo 1, siendo


la suma de a0 y de la derivada (como distribucion) de una funcion periodica y continua.
2) Si lm fn = , entonces
n

lm fn

0

= lm fn0 = 0 .
n

Una ilustracion de lo anterior.

si | t | > 1/n
0
2
fn (t) = n t + n
si 1/n < t < 0 .

2
n t + n si 0 < t < 1/n

(5.19)

71

DE DISTRIBUCIONES
5.2. SUCESION

f3
2

f2

f1
-1

-1/2 -1/3

1/3 1/2

El lmite:
lm fn = .

Su derivada:

0
0
fn (t) = n2

2
n

si | t | > 1/n
si 1/n < t < 0 ,
si 0 < t < 1/n
9

1
1/3
-1

1/2

-1/2 -1/3

f1
f2
f3

Y su lmite sera, de acuerdo al resultado anterior,


lm fn0 = 0 .

72

CAPITULO 5. DISTRIBUCIONES TEMPERADAS

Del mismo modo como lo hicimos con las representaciones de la , este ejemplo nos permite
tener una imagen mental para 0 , aun cuando el u
nico sentido real es como una distribucion.
0
El ejemplo, sugiere, en todo caso, que es una funcion impar (en rigor, es el lmite, como
distribucion, de una sucesion de funciones impares), lo cual tiene sentido, pues la es una
funcion par (i.e., es el lmite, como distribucion, de una sucesion de funciones pares). Lo
cual refleja por supuesto el resultado analogo en funciones reales, es decir, que la derivada de
una funcion par es, a su vez, una funcion impar. Inspirados por estos resultados, entonces,
formalicemos el concepto de paridad en distribuciones.
Definici
on 5.15 Paridad en distribuciones
Decimos que es una distribucion par si
h, x(t)i = h, x(t)i .

(5.20)

Decimos que es una distribucion impar si


h, x(t)i = h, x(t)i .

(5.21)

Ejemplos
Sea x(t) S arbitraria. Definimos y(t) = x(t).
1) es una distribucion par. Demostracion:
h, x(t)i = h, y(t)i = y(0) = x(0) = h, x(t)i .
2) 0 es una distribucion impar. Demostracion:
h 0 , x(t)i = h 0 , y(t)i = h, y 0 (t)i = y 0 (0) = x0 (0) = h, x(t)i ,
ya que si y(t) = x(t) esto implica que y 0 (t) = x0 (t).
Los dos ejemplos anteriores concuerdan con la intuicion que pudimos ganar mirando las
representaciones de y 0 . Ahora, sin embargo, los hemos establecido rigurosamente.
3) Si f es una funcion de crecimiento lento con paridad definida, entonces la distribucion
asociada f tiene la misma paridad de f . (Demostracion como ejercicio.)
Notaci
on usada
Hemos visto que la analoga entre distribuciones y funciones es, a lo menos, sugerente. Por
ello, en muchos textos de Fsica se escriben las distribuciones como si fueran funciones. En
particular, se generaliza la definicion (5.6) para distribuciones que no provienen de funciones:
Z
h, xi =
(t)x(t) dt ,

73

DE DISTRIBUCIONES
5.2. SUCESION

aun cuando (t) no es una funcion y no tiene sentido estricto ni el producto de una distribucion por una funcion, ni la integral. Es solo una notacion u
til, y la utilizaremos frecuentemente. En particular, con esta notacion podemos reescribir la condicion de paridad de una
distribucion. Si es par,
Z
Z
(t0 )x(t0 ) dt0 ,
(t)x(t) dt =
h, x(t)i =

es igual a
h, x(t)i =

(t)x(t) dt ,

Si es impar, analogamente:
Z

(t)x(t) dt =

(t)x(t) dt .

Esto justifica la notacion:


(t) =
(t)
(t) = (t)

(distribucion par) ,
(distribucion impar) .

(5.22)

Esta notacion de distribuciones como si fueran funciones se utiliza tambien para la delta.
Con ella, algunas de las propiedades ya demostradas para esta distribucion toman la forma:
i)
h, xi =

(t)x(t) dt = x(0) .

ii)
ha , xi =

a (t)x(t) dt =

(t a)x(t) dt = x(a) .

la conveniencia de la notacion a = (t a), que permite que la expresion


RObservemos

(t a)x(t) dt pueda ser considerada como

P el lmite continuo de la relacion discreta


en terminos de la delta de Kronecker xi =
i= ij xj .
iii)
h, 1i =

iv) (t) = (t), es par.


v) 0 (t) = 0 (t), 0 es impar.
vi) 0 (t a) = 0 (a t).

(t) dt = 1 .

74

CAPITULO 5. DISTRIBUCIONES TEMPERADAS

vii) La notacion anterior nos permite demostrar facilmente la siguiente importante relacion:
(kt) =

1
(t)
|k|

(5.23)

Demostraci
on Sea (kt) con k 6= 0. Consideremos la delta actuando sobre una funcion
x S cualquiera:

 u  du
sgn(k)
(kt)x(t) dt = sgn(k)
(u)x
k |k|

sgn(k)
Z
Z
 u  du
(t)
1
(u)x
=
=
x(0) =
x(t) dt .
k |k|
|k|

| k |

q.e.d.
viii) Si f es una funcion continua, analtica y diferenciable, con ceros simples en ti , con
i = 1, . . . , n, entonces
n
X
1
(f (t)) =
(t ti ) .
(5.24)
0
|
f
(t
)
|
i
i=1
f

Demostraci
on Consideremos (f (t)) con R R y f S, es decir, f continua,
analtica y diferenciable. Supongamos que f tiene ceros simples en ti con i = 1, 2, . . . , n,
f (ti ) = 0 i.
Z

(f (t))x(t) dt .

h(f (t)), xi =

El soporte de (f (t)) = {ti }ni=1 . En la vecindad de estos puntos f puede expandirse en


serie:
f (t) ' f (ti ) + f 0 (ti )(t ti ) = f 0 (ti )(t ti ) ,
luego
(f (t)) =

n
X
i=1

(f (ti )(t ti )) =
0

n
X

| f 0 (ti ) |
i=1

(t ti ) .
q.e.d.

5.3.

Producto de distribuciones

Tambien es posible definir el producto entre distribuciones, con ciertas restricciones, como
veremos a continuacion.

5.3. PRODUCTO DE DISTRIBUCIONES

75

Definici
on 5.16 Producto de dos distribuciones asociadas a funciones
Sean f , g continuas y derivables a tramos con discontinuidades mansas y de crecimiento
lento. Sean f , g sus distribuciones asociadas, entonces definimos el producto de f y g por


f g, x hg, f xi ,
(5.25)
si f x S.
Proposici
on 5.7
f g =gf .

(5.26)

Demostraci
on

f g, x = hg, f xi =


f (t)g(t)x(t) dt = f , gx = g f , x ,

luego

f g =gf .
q.e.d.

Definici
on 5.17 Multiplicacion de una distribucion arbitraria por polinomio
Sea p(t) un polinomio y sea p(t) S su funcional asociado. Sea, ademas S
arbitrario, entonces p se define por
hp , xi h, p xi .

(5.27)

Proposici
on 5.8 La distribucion p S si p(t) es un polinomio.
Demostracion: Ejercicio.

Ejemplos
1) Si p es un polinomio, entonces
En efecto,
En particular,

p = p(0) .

hp , xi = h, pxi = p(0)x(0) = hp(0) , xi .


t = 0 .

En los libros se suele encontrar la notacion t (t) = 0. Esta


parece una igualdad de funciones.
Si se considera a la delta de Dirac como una funcion nula en todas partes, salvo en cero donde

es infinito, la igualdad anterior es muy natural para t 6= 0 pero no para t = 0. Este


es un
ejemplo de que la anterior es solo una notacion, que puede ser u
til, pero que tiene sus lmites.

76

CAPITULO 5. DISTRIBUCIONES TEMPERADAS

2) Si p es un polinomio,

p 0 = p(0) 0 p0 (0) .

En efecto,
hp 0 , xi = h 0 , pxi = (px)0 (0)
= p(0)x0 (0) p0 (0)x(0)
= hp(0) 0 p0 (0), xi .
En particular,
t 0 = ,
t2 0 = 0 .
Todo esto parece muy natural viendo la representacion de 0 vista anteriormente, pero
siempre hay que tener presente que estas no son igualdades entre funciones.
El siguiente paso sera poder definir el producto entre dos distribuciones arbitrarias. Sin
embargo, tal como hemos definido el producto, no existe una extension obvia a las definiciones
(5.25) y (5.27) para el caso de dos distribuciones arbitrarias 1 , 2 , ya que, por ejemplo, el
producto h1 , 2 xi no existe, pues no esta definido el producto entre una distribucion 2
arbitraria y una funcion x S . Por lo tanto, en general no tiene sentido hablar de 1 2 .
Por ejemplo, [(t)]2 o (t) 0 (t) son objetos sin sentido.

5.4.

Distribuciones y ecuaciones diferenciales

Hasta el momento, hemos mostrado que las distribuciones tienen al menos un par de
propiedades matematicamente muy interesantes: ser siempre diferenciables (y serlo infinitas
veces), y que una sucesion de funciones puede no converger a ninguna funcion, pero s converger como distribucion. En esta seccion, mostraremos que las distribuciones permiten extender
el tipo de ecuaciones diferenciales que se pueden resolver, lo cual es una propiedad de interes
no solo matematico, sino fsico.
Consideremos la ecuacion diferencial
t
La solucion general es:

df
=0.
dt

(
C1 = cte.
f (t) =
C2 = cte.

t>0
.
t<0

Puesto que f (t) debe ser una funcion continua (de otro modo no sera diferenciable), se debe

tener C1 = C2 . Esta
es entonces la u
nica solucion posible en el espacio de funciones.
Pero si admitimos distribuciones como soluciones, no es necesario que C1 = C2 , pues ya
sabemos que dentro del espacio de distribuciones, funciones discontinuas son diferenciables.
Intentemos pues una solucion del tipo:
f (t) = C1 + (C2 C1 ) h(t) ,

donde

h(t) =

1 + sgn(t)
.
2

77

5.5. CONVERGENCIA DEBIL


Entonces
t f 0 (t) = t (C2 C1 ) h(t)0 = (C2 C1 ) t = 0 ,

es decir, f es solucion.
Una consecuencia importante, entonces, de haber construido el espacio de distribuciones
es que podemos extender el espacio de soluciones de ecuaciones diferenciales y, por ende, el
conjunto de ecuaciones diferenciales que somos capaces de resolver.
Conviene entonces tener presente las propiedades de la derivada para el producto de
distribuciones definido en la Sec. 5.3, que resultan ser analogas a la regla de Leibniz para
funciones reales.
Teorema 5.4
0

= f 0g+f g0 ,

(5.28a)

(p )0 = p 0 + p 0 .

(5.28b)

fg
o bien

Demostraci
on
h(p )0 , xi = hp , x0 i = h, p x0 i .
Por otro lado,
hp0 + p 0 , xi = hp 0 , xi+hp 0 , xi = h, p0 xi+h0 , p xi = h, p0 xih, (p x)0 i = h, p x0 i .
Comparando,
(p )0 = p 0 + p 0 .
q.e.d.

5.5.

Convergencia d
ebil

La definicion (5.15) introdujo el concepto de convergencia de una sucesion de distribuciones. Ello permite definir el siguiente criterio de convergencia para funciones:
Definici
on 5.18 Convergencia debil
Una sucesion de funciones fn (t) continuas y derivables por tramos con discontinuidades
mansas y de crecimiento lento, se dice que converge debilmente a f si
lm fn = f S existe.

(5.29)

78

CAPITULO 5. DISTRIBUCIONES TEMPERADAS

Una sucesion fn que converge debilmente, no significa necesariamente que converge, como
funcion, en alg
un sentido usual: uniformemente, puntualmente o en la norma. Lo u
nico que
sabemos es que consideradas como distribuciones hay convergencia, y que la convergencia es
a una distribucion que, a su vez, tambien proviene de una funcion f . Puede darse o no que
ademas fn (t) converja a cierta funcion g(t) (no necesariamente igual a f (t)!) puntualmente,
o en la norma o uniformemente. Sin embargo, la convergencia uniforme asegura convergencia
debil, como afirma la siguiente proposicion.
Proposici
on 5.9 Una sucesion de funciones f1 , . . . , fn continuas, derivables por tramos y
de crecimiento lento con
unif
lm fn (t) f (t) ,
n

tiene convergencia debil.


Demostraci
on Consideremos
Z

fn f , x =

[fn (t) f (t)] x(t) dt ,

para x S. Elijamos un > 0 arbitrario. Tenemos:


Z A
Z A
Z


fn f , x =
[fn (t) f (t)] x(t) dt+
[fn (t) f (t)] x(t) dt+

[fn (t) f (t)] x(t) dt .

Elegimos A tan grande que se satisfagan, simultaneamente, las dos condiciones siguientes:
Z A

Z








< .
[f
(t)

f
(t)]
x(t)
dt
<
y
[f
(t)

f
(t)]
x(t)
dt
n
n

3

3

Este A existe pues fn f crece a lo mas como potencias, mientras que x decae mas rapido
unif
que cualquier potencia. Como fn f 0 en el intervalo [A, A], se tiene que para cierto
n
N N,

| fn (t) f (t) | <


,
n > N ,
6AM
donde M > | x(t) | en el intervalo A < t < A. Haciendo uso de lo anterior podemos acotar
la integral en el intervalo central, es decir,
Z A

Z A




[fn (t) f (t)] x(t) dt
| fn (t) f (t) | | x(t) | dt

A
A
Z A

| x(t) | dt =
2AM = , n > N .
<
6AM A
6AM
3
Con este resultado podemos acotar la integral completa
Z




[fn (t) f (t)] x(t) dt = fn f , x < ,

n > N .

Finalmente podemos escribir lm fn = f , por lo tanto, fn converge debilmente a f .


n

q.e.d.

79

5.5. CONVERGENCIA DEBIL


Aclaremos los conceptos anteriores con algunos ejemplos.
Ejemplos
1
1) Sea fn (t) = eint . Se tiene
2


fn , x = F{x, n} 0 ,
n

x S ,

pues la transformada de Fourier se anula en .


Luego


1 int
e
=0.
lm
n
2
fn converge a cero debilmente.

1
Existe convergencia de fn en alg
un otro sentido? No, pues lm eint no existe, salvo
n
2
en t = 2, Z.
Observemos cuan anti-intuitivo puede ser el concepto de convergencia debil. eint es una
funcion compleja, cuyas partes real e imaginaria oscilan entre 1 y 1, y cuando n crece, oscilan
cada vez mas rapido, llenando dicho intervalo. Si tuvieramos que representar de alg
un modo
el lmite de fn , terminaramos con un par de bandas de ancho 2 en torno al eje de las abscisas
y al eje de las ordenadas en el plano complejo. Sin embargo, como distribuciones la sucesion
converge a 0, y por tanto la sucesion de funciones converge debilmente a la funcion 0.
2) Sea
(
0,
fn (t) =
n,
n N,

si t 6 [1/n, 2/n]
.
si t [1/n, 2/n]

fn (t) dt = 1, y fn (t) 0 puntualmente.


n

Pero ademas:

Z 2/n
Z 2/n

fn , x = n
x(t) dt = n x(tn )
dt ,
1/n
1/n


fn , x = x(tn ) x(0) = h, xi .

alg
un tn [1/n, 2/n]

Luego
fn ,
n

con lo cual fn converge debilmente, pero no a una funcion. Sin embargo, fn s converge a la
funcion 0, de modo que
E

D
lm fn , x 6= lm fn , x = 0, x = 0 .
n

El problema es que la convergencia a 0 no es uniforme.

80

CAPITULO 5. DISTRIBUCIONES TEMPERADAS

3) Consideremos la sucesion de funciones


(
n/2 ,
si | t | < 1/n
fn (t) =
0,
si | t | > 1/n

para n = 1, 2, 3, . . .

El lmite de la sucesion es:


(
0
lm fn (t) =
n

t 6= 0
.
t=0

No hay convergencia puntual, sin embargo, fn (t) converge debilmente, pues lm fn = .


n

4) Consideremos las siguientes sucesiones:


Z
1
1
2
eu du
fn (t) = erfc(nt) =
2
nt

nt

gn (t) = ee

Ambas sucesiones convergen debilmente.


Demostraci
on Consideremos el lmite de las fn :
Z

fn (t)x(t) dt .
lm fn , x = lm
n

Podemos acotar la integral:


Z
Z



fn (t)x(t) dt

| fn (t) | | x(t) | dt

| x(t) | dt < ,

ya que | fn (t) | < 1 fn , n, t. Luego existe mayorante convergente y podemos intercambiar


el lmite con la integral:
Z
Z
lm
fn (t)x(t) dt =
lm fn (t)x(t) dt .
n

Pero el lmite de fn es

0
lm fn (t) = 1/2
n

si t < 0
si t = 0 ,
si t > 0

lo cual corresponde a la definicion de la funcion escalon de Heaviside h(t). Tenemos entonces


Z


lm fn , x =
h(t)x(t) dt = h, x .
n

Entonces fn converge debilmente, pues


lm fn = h .

81

5.5. CONVERGENCIA DEBIL


Analogamente, se tiene
lm hgn , xi =

pero el lmite de gn es

lm gn (t)x(t) dt ,

0
lm gn (t) 1/e
n

si t < 0
si t = 0 .
si t > 0

Excepto en t = 0, coincide con la funcion escalon h(t). Un solo punto no es importante en la


integracion, luego
Z


h(t)x(t) dt = h, x
lm hgn , xi =
n

lm gn = h ,

de modo que gn tambien converge debilmente a h.

q.e.d.

Bibliografa Adicional
El primer libro sobre teora de distribuciones es el de Schwartz [1]; la primera publicacion
en dos tomos es de 195051.
Otra referencia importante, pero de un estilo un poco diferente a la referencia anterior,
son los primeros tres tomos del libro de Gelfand y Shilov [24] (en total son 5 tomos).
En el amplio tema de la aplicacion de la teora de distribuciones a las ecuaciones diferenciales, una de las referencias mas importantes es el primer tomo del libro de Hormander [5]
(en total son 4 tomos).
Finalmente, una referencia mas al estilo y contenidos de este curso es [6].
1 Lauren Schwartz, Theorie des Distributions, Hermann, Pars, 1998 (ISBN 2 70565 551 4).
2 Israil M. Gelfand y G. E. Shilov, Generalized Functions I: Properties and Operations,
Academic Press, Nueva York, 1964 (ISBN 0 12 279501 6).
3 Israil M. Gelfand y G. E. Shilov, Generalized Functions II: Spaces of Fundamental and
Generalized Functions, Academic Press, Nueva York, 1968 (ISBN 0 12 279502 4).
4 Israil M. Gelfand y G. E. Shilov, Generalized Functions III: Some Problems in the Theory
of Differencial Equations, Academic Press, Nueva York, 1967 (ISBN 0 12 279503 2).
5 Lars Hormander, The Analysis of Linear Differencial Operators I: Distribution Theory and
Fourier Analysis, Grundlehren der Mathematischen Weissenschaften 25, Springer-Verlag,
Berln, 1990 (ISBN 0 38752 343 X).
6 Lauren Schwartz, Methodes mathematiques pour les sciences physiques, Hermann, Pars,
1998 (ISBN 2 70565 213 2).

82

CAPITULO 5. DISTRIBUCIONES TEMPERADAS

Captulo 6
Distribuciones y transformada de
Fourier
versi
on 10 septiembre 2007

En este captulo extenderemos la definicion de transformada de Fourier al espacio de distribuciones. Lo haremos de modo analogo a la derivada de una distribucion, la cual definimos
en terminos de la derivada de funciones.
Sea f S. Sabemos que F{f, k} S.
Definici
on 6.1 Transformada de Fourier de un funcional.
Sea f S el funcional asociado a f . Definimos F{f } S por:
F{f , k} = F{f, k} .
Podemos demostrar entonces que la transformada de Fourier de un funcional, equivale a
tomar la transformada de Fourier de la funcion de prueba:
E

D

Proposici
on 6.1 F{f }, x = f , F{x}
Demostraci
on
Z
Z
D
E Z
1
F{f }, x =
dk F{f, k}x(k) =
dk
dt f (t)eikt x(k)
2

Z
Z
Z

1
=
dt f (t)
dk x(k)eikt =
dt f (t)F{x, t}
2


= f , F{x} .
q.e.d.
Esta proposicion motiva la siguiente definicion.
Definici
on 6.2 Transformada de Fourier de una distribucion. Sea S y x S arbitrario.
Definimos
hF{}, xi = h, F{x}i
(6.1)
83

84

CAPITULO 6. DISTRIBUCIONES Y TRANSFORMADA DE FOURIER

Proposici
on 6.2 Si S , entonces F{} S .
Demostraci
on
a) Linealidad.
hF{}, x + yi = h, F{x + y}i = h, F{x}i + h, F{y}i
= hF{}, xi + hF{}, yi .
!

b) Sea xn x. Entonces
n

lm hF{}, xn xi = lm h, F{xn x}i .

Puesto que S y F{xn x} 0,


n

D
E
lm hF{}, xn xi = , lm F{xn x}
n

 n
Z
1
it
lm
[xn (t) x(t)]e dt
= ,
2 n


Z
1
it
= ,
lm [xn (t) x(t)]e dt
2 n
D
E
= , F{ lm (xn x)}
n
D
E
= F{}, lm (xn x) .
n

Por lo tanto F{} S .

q.e.d.

Ejemplos
1) La delta . Sea x S arbitrario. Entonces

Z
1
ist
hF{}, xi = h, F{x}i = ,
e x(t) dt
2


Z
Z
1
1
1
x(t) dt = , x .
=
x(t) dt =
2
2
2

Luego
1
F{} =
.
2

(6.2)

85
2) La derivada de la delta 0 . Sea x S arbitrario.


Z
1
ist
0
0
0
e x(t) dt
hF{ }, xi = h , F{x}i = ,
2



Z
Z


d
1

1
ist
ist

=
e x(t) dt
x(t) e dt
=
ds
s
2
2
s=0
s=0

Z
Z

1
1
=
x(t)iteist
dt =
x(t)it dt
2
2
s=0


Z
it
it
x(t) dt = , x .
=
2
2

Entonces

(it)
F{ 0 } =
.
2

(6.3)

(it)n
F{ (n) } =
.
2

(6.4)

3) En general,

Definici
on 6.3 Antitransformada de Fourier en S . Definimos la antitransformada de Fourier
de una distribucion S como

1
F {}, x = , F 1 {x}

x S

(6.5)

Proposici
on 6.3 Si S , entonces
FF 1 {} = F 1 F{} = .

(6.6)

(Vale decir, se tiene un teorema de reciprocidad, analogamente al que encontramos en el


espacio de funciones S.)
Demostraci
on


FF 1 {}, x = F 1 {}, F{x} = , F 1 F{x} = h, xi .
q.e.d.

Como en el caso de funciones en S, se cumplen las siguientes dos proposiciones.


Proposici
on 6.4 Si S es una distribucion par, entonces
F{} = F 1 {} .

(6.7)

86

CAPITULO 6. DISTRIBUCIONES Y TRANSFORMADA DE FOURIER

Demostraci
on


{}, x = , F 1 {x} =

1
,
2

it

dt x(t)e


.

Siendo par podemos cambiar por :


{}, x =

1
,
2

dt x(t)e

it

= h, F{x}i = hF{}, xi ,

de modo que
F{} = F 1 {}
si es una distribucion par.

q.e.d.

Notemos entonces que si es una distribucion par,


F{ + F{}} = F{} + F{F 1 {}} = F{} + ,
lo cual nos dice que, para cualquier distribucion par , la distribucion + F{} es igual a
su transformada.
Proposici
on 6.5 Si S es una distribucion impar, entonces
F{} = F 1 {} .
Demostraci
on Ejercicio.
Ejemplo Sea f (t) = 1. f (t) es de crecimiento lento, luego f = 1 existe.
Consideremos F{f } = F{1}. Sabemos que, por ser una distribucion par,
1
F 1 {} = F{} =
,
2
luego

1
F{1} = .
2

(6.8)

Entonces
1
F{1, } = () ,
2
1
F{} =
.
2

(6.9)
(6.10)

87
Y puesto que de modo puramente simbolico escribimos
Z
1
1 eit dt ,
F{1, } =
2
Z
1
F{} =
(t)eit dt ,
2
obtenemos las expresiones (en rigor incorrectas):
Z
1
() =
eit dt ,
2
Z
1
1

(t)eit dt =
.
2
2

(6.11)
(6.12)

Observemos, sin embargo, que aun cuando la integral en el lado derecho de (6.11) no
existe en el sentido ordinario, uno puede escribir
Z
Z
Z
1
2
1
it
e dt =
(cos t + i sen t) dt =
cos t dt ,
2
2
2 0
donde hemos usado el valor principal de la integral de sen t:
Z K
Z
sen t dt = 0 .
P sen t dt = lm
K

Y como la integral de Ces`aro de cos t es


(
Z
0 si =
6 0
,
cos t dt =
si = 0
0
encontramos una cierta consistencia con el resultado (6.11).
Analogamente a lo que ocurre en el espacio de funciones, se tiene el siguiente par de
proposiciones para derivadas de distribuciones:
Proposici
on 6.6 Sea S . Entonces
(F{})(n) = F{(it)n } .

(6.13)

Demostraci
on



(F{})(n) , x = (1)n F{}, x(n) = (1)n , F{x(n) }
E
D
= (1)n h, (it)n F{x}i = (it)n , F{x}
D
E
= F{(it)n }, x .

As
(F{})(n) = F{(it)n } S .
q.e.d.

88

CAPITULO 6. DISTRIBUCIONES Y TRANSFORMADA DE FOURIER

Proposici
on 6.7
F{(n) } = (i)n F{} .

(6.14)

Demostraci
on Ejercicio.
Observemos que si f es una funcion de crecimiento lento, entonces F{f }, considerada
como una funci
on, no lo es necesariamente. Por ejemplo, f (t) = 1 es de crecimiento lento,
pero F{1} = 2 no lo es.
De hecho, cuando definimos la transformada de Fourier, exigimos que las funciones decayeran suficientemente rapido, para asegurar convergencia de la integral. En (6.11), estamos
calculando la transformada de Fourier de una constante, que no decae a cero en infinito. En
general, (6.1) nos muestra que es posible calcular, en el sentido de distribuciones, la transformada de Fourier de funciones que no solo no decaen a cero, sino que divergen en infinito
(mientras sean de crecimiento lento y se les pueda asociar un funcional). Vale decir, hemos
ampliado (en alg
un sentido), gracias al concepto de distribuciones, el espacio de funciones al
cual se le puede calcular la transformada de Fourier!
2
R Por ejemplo, las funciones 1, t, t , . . . , no tienen transformada de Fourier (no existe
| f |). Sin embargo, s la tienen 1, t, t2 , . . . , a saber:

F{itn } = (F{1})(n) = 2 (n) .


Por otro lado, continuando con el analisis de (6.11), sabemos que mientras mas lento
decae una funcion en infinito, menos derivadas tiene la transformada de Fourier. Una funcion
que decae como x2 tiene transformada de Fourier diferenciable, y una que decae como x1
tiene transformada de Fourier que es solo continua. Extrapolando, una funcion que decae
como x0 (i.e. una constante) debera tener como transformada de Fourier algo que sea, en
cierto sentido, menos que una funcion solo continua. Quizas discontinua puede aparecer
como una solucion posible, pero no puede serlo, ya que despues de todo la transformada de
Fourier es una integral. El conflicto se soluciona saliendo del espacio de funciones, de modo
que funciones que tienden a una constante en infinito seran distribuciones.
Consideremos ahora la distribucion a tal que ha , x(t)i = x(a). Entonces


Z
1
it
x(t)e dt
hF{a }, xi = ha , F{x, }i = a ,
2


Z
1
1 iat
iat
=
x(t)e dt = e , x ,
2
2
es decir,
1
F{a } = eiat .
2
Sustituyendo a por a:
1
F{a } = eiat .
2

(6.15)

89
Luego
2
F{a + a } = cos(at)
2
y
2i
F{a a } = sen(at) .
2
En consecuencia,
r

(a + a ) = F 1 {cos(at)} ,
2
r

F{sen(at)} = i
(a a ) = F 1 {sen(at)} ,
2
F{cos(at)} =

(6.16)
(6.17)

donde hemos usado el hecho de que a + a es una distribucion par y que a a es impar.
En textos de Fsica encontraremos las relaciones (6.16) y (6.17) en la forma:
r

[( 0 ) + ( + 0 )] ,
F{cos(0 t), } =
2
r

[( 0 ) ( + 0 )] .
F{sen(0 t), } = i
2
Vale decir, al graficar el espectro de frecuencias de cos(0 t) tendramos dos peaks, en 0 :

y en el caso de sen(0 t) el peak en 0 sera negativo:

90

CAPITULO 6. DISTRIBUCIONES Y TRANSFORMADA DE FOURIER

Todo esto tiene mucho sentido, si lo consideramos desde el punto de vista fsico. La
transformada de Fourier da informacion acerca de que modos de oscilacion conforman una
perturbacion dada de un sistema. Es decir, lo mismo que con series de Fourier, solo que en
un dominio infinito. Pero que ocurre si la perturbacion esta dada por un u
nico modo de
oscilacion? Si se tratara de ondas sonoras, por ejemplo, cual debera ser la transformada de
Fourier de un tono puro? En este caso, como hay un u
nico modo de oscilacion, el soporte de
la transformada de Fourier debe ser un solo punto. Pero no podra tener altura finita, pues
su antitransformada sera cero (un solo punto no afecta la integral). Con lo que sabemos de
representaciones de la delta, nos damos cuenta que lo u
nico que podra ser la transformada
de un coseno o un seno es la distribucion .
Terminemos este Captulo encontrando una representacion u
til para la delta. Consideremos la funcion dientes de sierra:

2 (t + ) t < 0
f (t) = 0
t=0

1
2 (t ) 0 < t

f (t )
1/2

1/2

La funcion es periodica:
f (t + 2m) = f (t) m Z .
Es pues expandible en una serie de Fourier impar:
f (t) =

b sen(t) ,

=1

con
1
b =

entonces

1 X sen(t)
.
f (t) =
=1

f (t0 ) sen(t0 ) dt0 =

1
,

91
Consideremos la distribucion asociada


1 X sen(t)
f (t) =
,
=1

y derivemosla:


0
1X
f (t) =
=1

sen(t)

Por otra parte,




!0

0


1X
1 X sen(t)
=
=
cos(t) .
=1

=1

0
X
1
f (t) =
2n
2
n=

(la demostracion queda como ejercicio), luego

X
1
1X
2n
,
cos(t) =
=1
2
n=

es decir,

X
n=

2n

1
1X
=
+
cos(t) .
2 =1

Restringiendonos al intervalo [, ], encontramos la relacion:

1
1X
(t) =
+
cos(t) ,
2 =1

t [, ] .

(6.18)

92

CAPITULO 6. DISTRIBUCIONES Y TRANSFORMADA DE FOURIER

Captulo 7
Convoluci
on de distribuciones
versi
on 28 septiembre 2009

7.1.

Definiciones

Sean x, y S y sean x, y S sus funcionales asociados. Hemos definido


x+y x+y
y0 y0
F{y} F{y} .
En forma analoga, definiremos a continuacion, el producto de convolucion. Nos daremos cuenta, sin embargo, de que no siempre existe el producto de convolucion entre dos distribuciones
arbitrarias.
Definici
on 7.1 Producto de convolucion de funcionales
Sea x y S y x y S el funcional asociado. Definimos el producto de convolucion
de dos funcionales como
xy =xy .
(7.1)
Evaluemos
hy z, xi =
=

Z


y(s t)z(t) dt x(s) ds

[y z](s)x(s) ds =

Z

y(s t)x(s) ds z(t) dt .

Haciendo el cambio de variable u = s t,



Z Z
hy z, xi =
y(u)x(u + t) du z(t) dt =
x(u + t)y(u)z(t) dt du



Z Z
Z
=
x(u + t)z(t) dt y(u) du =
y(u) hz(t), x(u + t)i du .
Z

Z

93

94

DE DISTRIBUCIONES
CAPITULO 7. CONVOLUCION

La u
ltima igualdad tiene sentido solo si la funcion de u hz(t), x(u + t)i S. Si lo es, podemos
escribir.
hy z, xi = hy(u), hz(t), x(u + t)ii .
El lado derecho es un n
umero complejo, que se puede reescribir:

Z Z
Z
y(u)x(u + t) du z(t) dt =
z(t) hy(u), x(u + t)i dt
hy z, xi =

= hz(t), hy(u), x(u + t)ii .

Este
es otro n
umero complejo, que tiene sentido solo si la funcion de t hy(u), x(u + t)i S.
Por lo tanto, resumiendo,
hy z, xi = hy z, xi = hy(u), hz(t), x(u + t)ii = hz(t), hy(u), x(u + t)ii .
Falta demostrar que las igualdades u
ltima y pen
ultima tienen sentido.
Proposici
on 7.1 Si x, z S entonces hz(t), x(u + t)i S(u).
Demostraci
on Sabemos que si x, z S entonces:
lm tm x(n) (t) = 0 y

lm tm z (n) (t) = 0 ,

Definamos
g(u) hz(t), x(u + t)i =

m y n N .

z(t)x(u + t) dt .

Tomemos las derivadas de g(u):


g (u) =
0

..
.
g

(n)

z(t)x0 (u + t) dt

z(t)x(n) (u + t) dt .

Luego g es infinitamente diferenciable. Ahora consideremos el lmite


Z
 m (n) 


lm u g (u) =
z(t) lm um x(n) (u + t) dt = 0 n, m N .
| u |

| u |

Luego g(u) S.

q.e.d.

Definici
on 7.2 Producto de convolucion entre una distribucion y un funcional asociado a una
funcion
Sean S , f S. Definimos
Z
[ f ](u) = ht , f (u t)i =
(t)f (u t) dt ,

DE DISTRIBUCIONES
7.2. PROPIEDADES DE LA CONVOLUCION

95

usando la notacion como funciones. Esta definicion es consistente con los resultados anteriores.
Z


[ f ](u)x(u) du
f, x =

Z
Z
=
du x(u)
(t)f (u t) dt

Z
Z
dt (t)
x(u)f (u t) du
=

Z
Z
dt (t)
x(v + t)f (v) dv
=

Z
D
E
dt (t) f (v), x(v + t)
=
D D
EE
= (t), f (v), x(v + t)
.
D

E
f (v), x(v + t) no necesariamente pertenece a S si f es de crecimiento lento, que es lo que
se necesita para que la u
ltima expresion tenga sentido. Por ejemplo, si f = 1,
Z
E Z
D
x(u) du = cte 6 S .
x(v + t) dv =
f (v), x(v + t) =

Sin embargo, al menos es una funcion infinitamente derivable. El problema anterior se presenta por supuesto tambien cuando se trata de dos distribuciones arbitrarias.
Definici
on 7.3 Producto de convolucion de distribuciones Sean , S . Si h(t), x(t + u)i
S(u) x S, se define como:
h , xi h(u), h(t), x(u + t)ii .
Si ademas h(t), x(u + t)i S(t), entonces tambien existe .
Proposici
on 7.2 (Sin demostracion)
Una condicion suficiente para que valga h(t), x(t + u)i S(u), es que tenga soporte
finito.

7.2.

Propiedades de la convoluci
on de distribuciones

En el Cap. 4 establecimos algunas propiedades del producto de convolucion entre funciones, y de hecho mostramos que {S, +, } es un anillo conmutativo, pero no unitario (no
existe elemento neutro). Revisemos las mismas propiedades, ahora para distribuciones.
1) Conmutatividad?
No, solo en algunos casos y existen ambas.
2) Asociatividad?

96

DE DISTRIBUCIONES
CAPITULO 7. CONVOLUCION
S. Sean , , S , con
h(u), y(u + t)i S(t) y

h(t), x(u + t)i S(u) x, y S ,

entonces
h( ) , xi = h( )(u), h(t), x(t + u)ii
= h(v), h(u), h(t), x(t + u + v)iii .
Por otra parte,
h ( ), xi = h(v), h (u), x(u + v)ii
= h(v), h(u), h(t), x(t + u + v)iii ,
luego

( ) = ( ) = .

3) Distributividad?
S. Sean , , S , con h(t), x(t + u)i S(u) x S, entonces
h( + ) , xi = h( + )(u), h(t), x(t + u)ii
= h(u), h(t), x(t + u)ii + h(u), h(t), x(t + u)ii
= h , xi + h , xi = h + , xi .
4) La es elemento neutro derecho:
h , xi = h(u), h(t), x(t + u)ii = h(u), x(u)i = h, xi ,
por lo tanto, S , tenemos

(7.2)

5) Papel de 0 como factor derecho:


h 0 , xi = h(u), h 0 (t), x(t + u)ii = h, x0 i = h0 , xi .
Luego podemos escribir, S ,
0 = 0
Vale decir, la derivacion es un caso particular de la convolucion.
6) a como factor derecho
h a , xi = h(u), h(t a), x(t + u)ii = h(u), x(a + u)i .
Sea f S y f S su funcional asociado. Entonces


f a , x = f (u), x(a + u) = f (u a), x(u) .

(7.3)

97

EN FISICA
7.3. USO DE CONVOLUCION
Es decir, si f S , escribimos:
f a = f (t a)

(7.4)

El desplazamiento es un caso particular de la convolucion.


7) El producto de deltas:
ha b , xi = h(u a), h(t b), x(t + u)ii = h(u a), x(b + u)i = x(a + b) = ha+b , xi .
Luego

a b = a+b

(7.5)

8) Existen divisores del cero. Sea C una funcion constante en un intervalo finito y cero en el
resto.
C 0 = C 0 = C 0 = 0 = 0 ,
o sea que se tiene = 0 sin que = 0 ni = 0. Consecuencia de lo anterior es que si ,
, S , las ecuaciones
( ) = 0 o = 6 = ,
aun si 6= 0,
9) Las ecuaciones = o = pueden tener mas de una solucion para , dados.
Por ejemplo, para = 0 y = 0 la ecuacion = tiene como soluciones = 0, = C
entre otras.
Las propiedades revisadas en esta seccion muestran que, a diferencia de lo que ocurre en el
espacio de funciones, el producto de convolucion de distribuciones s tiene un elemento neutro
(), es decir, {S , +, } tiene estructura de anillo unitario. Por otra parte, en el Cap. 4 vimos
que la convolucion se puede interpretar como una medida del traslape entre dos funciones.
Ahora, sin embargo, vemos que dos importantes operaciones sobre funciones (la derivacion
y la traslacion), no son sino casos particulares de convolucion. De hecho, las propiedades de
grupo de la traslacion (es decir, la propiedad de que la composicion de dos traslaciones es
otra traslacion), se derivan simplemente de la conmutatividad de la suma de n
umeros reales
[ver (7.5)].

7.3.

Uso de convoluci
on en Fsica

Consideremos el siguiente circuito:

V
Dispositivo

98

DE DISTRIBUCIONES
CAPITULO 7. CONVOLUCION

V Mide la fem e(t) aplicada al dispositivo. Esto corresponde al estmulo o excitacion


que perturba el sistema.

A Mide la corriente i(t) que circula por el sistema. Esta


corresponde a la respuesta del
sistema frente a lo que lo perturba.
En este problema fsico, si conocemos la fem e(t), nos interesa determinar la respuesta
i(t) para todo t.
Esperamos, intuitivamente, que se satisfagan las siguientes propiedades:
i Si e(t) = 0 para t < t1 , entonces i(t) = 0 para t < t1 . (Causalidad.)
ii Si a las excitaciones e1,2 (t) les corresponden respuestas i1,2 (t), entonces a una excitacion
e1 (t) + e2 (t) le corresponde una respuesta i1 (t) + i2 (t). (Linealidad.)
iii Si a la excitacion e(t) le corresponde la respuesta i(t), entonces a e(t a) le corresponde
i(t a). (Desplazamiento.)
iv Si a la excitacion en (t) le corresponde la respuesta in (t), entonces a lm en (t) le corresn

ponde lm i(t). (Continuidad.)


n

Si consideramos ahora tanto al estmulo e(t) como a la respuesta i(t), como elementos
de un espacio vectorial, podemos pensar las propiedades anteriores como que debe existir
un cierto operador que asigna a cada funcion e(t) una funcion i(t), y este operador debe ser
lineal (propiedad ii), conmutar con las traslaciones en el tiempo (propiedad iii) y ser continuo
(propiedad iv). En el caso de la propiedad iv, el lmite debe ser entendido en el sentido de
distribuciones (lo cual no es evidente ahora, pero debera serlo mas adelante). Lo anterior
sugiere el siguiente teorema:
Teorema 7.1 Sea la distribucion G(t) la respuesta a la excitacion (t). (Esto corresponde a
una excitacion percusional, nula para todo tiempo salvo en el instante t = 0.) Entonces la
respuesta a cualquier excitacion e(t) se obtiene por el producto de convolucion
=Ge .

(7.6)

As pues, basta conocer la respuesta de un sistema (cualquier sistema con las premisas anteriores, esperables para un sistema fsico) a un estmulo elemental, para conocer la respuesta
del sistema a cualquier otro estmulo, a traves del producto de convolucion. Situaciones similares se presentan en otros problemas fsicos: basta conocer el campo electrico producido por
una carga puntual para saber el campo electrico producido por una distribucion arbitraria
de carga.
A continuacion damos las lneas generales de una eventual demostracion del anterior
teorema.
i. Si e = entonces = G = G = G e.
ii. Si e = b = b (t) = (t b) entonces = G(t b) = G(t) (t b) = G b = G e.

DE GREEN DE UN OPERADOR DIFERENCIAL


7.4. FUNCION

99

X
t (t) =
(t t ) entonces la respuesta sera, usando las propiedades

P
P
del sistema, = G (t t ) = G(t) (t t ) = G(t) e(t) = G e.

iii. Si e =

iv. Sea e(t) nula para t < t0 , de crecimiento lento, seccionalmente continua y derivable, de
modo que e S existe.
+
*
Z
N
N
X
X
(t t ), x .
x(t ) = lm
he, xi =
e(t)x(t) dt = lm
N

Si e(t) = lm

N
X

(t t ), existe la esperanza de que esto permita expresar toda la

respuesta de la forma
(t) = lm

7.4.

N
X

G(t t ) = G(t) lm

N
X

(t t ) = G e .

Funci
on de Green de un operador diferencial

En la seccion anterior hemos mostrado que, para un problema fsico lineal, pero por lo
demas arbitrario, basta encontrar la respuesta a un estmulo puntual para conocer la respuesta
a un estmulo arbitrario. Nosotros ya hemos encontrado situaciones as en Fsica. Por ejemplo,
basta conocer el potencial electrostatico debido a una carga puntual para conocer el potencial
debido a una distribucion de carga arbitraria. De hecho, esto ya lo habamos comentado en
relacion con el producto de convolucion (ver pag. 49). Ahora hemos aprendido que dicha
tecnica es aplicable a cualquier sistema fsico lineal.
Por otra parte, sabemos que el potencial electrostatico es solucion de la ecuacion de
Poisson
2 (~r ) = 4(~r ) .
(7.7)
Representando una carga puntual como una delta de Dirac, (~r ) = (~r), entonces se sigue
que la funcion G antes descrita debe ser solucion de:
2 G(~r ) = 4(~r ) .

(7.8)

Es decir, la funcion G es aquella (


unica) funcion que es solucion de la ecuacion de Poisson, pero cuando la distribucion de carga es una delta. El teorema de la seccion anterior
nos asegura que basta con resolver (7.8) para conocer la solucion de (7.7), para cualquier
distribucion de carga.
En el caso electrostatico, sabemos que el problema fsico va a involucrar resolver una
ecuacion diferencial, donde el operador diferencial es el laplaciano. Para un problema fsico
arbitrario, sera alg
un otro operador, que llamaremos L. En ese caso, en vez de la distribucion
de carga, en el lado derecho de (7.7) tendremos alguna otra cantidad fsica, que llamaremos
f (t).
El problema general corresponde entonces a resolver la ecuacion diferencial
L(t) = f (t) .

(7.9)

100

DE DISTRIBUCIONES
CAPITULO 7. CONVOLUCION
2

L correspondera al Laplaciano dtd 2 para un problema electrostatico, a dtd 2 + 2 para un oscilador


d2
d2
armonico, etc. Para un problema en mas de una dimension, el Laplaciano sera dx
2 + dy 2 ; o
2

d
1 d
podramos tener una ecuacion de ondas, en cuyo caso L = dx
2 v 2 dt2 . Como L es lineal,
existen tecnicas generales, sistematicas, para resolver el problema homogeneo asociado a (7.9),

L(t) = 0 .

(7.10)

La solucion al problema fsico general sera una superposicion de la solucion general al problema homogeneo (7.10), y una solucion particular del problema inhomogeneo (7.9). Pero,
como encontrar esta solucion particular, que nos permite resolver el problema completo?
Ahora tenemos la respuesta: basta con resolver el problema con una inhomogeneidad
puntual :
LG(t) = (t) .
(7.11)
A la solucion de esta ecuacion se le llama la funcion de Green del operador diferencial L.
Una vez hallada la funcion de Green, la solucion del problema general (7.9) sera simplemente el producto de convolucion entre la funcion de Green y la inhomogeneidad f (t) (es
decir, el estmulo no puntual):
(t) = [G f ](t) .
(7.12)
La funcion de Green, entonces, nos da una manera sistematica de encontrar la solucion
particular de la ecuacion inhomogenea (7.9), y as resolver un problema fsico con un estmulo
arbitrario. Todo, por supuesto, mientras el operador diferencial subyacente sea lineal.
Usando la notacion integral para distribuciones, es facil darse cuenta de que (7.12) es una
solucion particular de (7.9), sustituyendola directamente en ella. En efecto, se tendra
Z
Z
L(t) = L[G f ](t) = L
dx G(t x)f (x) dx =
dx LG(t x)f (x) dx

Como el operador L act


ua solo sobre la variable t, usando (7.11) se tiene
Z
L(t) =
dx (t x)f (x) = f (t) ,

que es precisamente (7.9).


De ahora en adelante, usando el concepto de funcion de Green, tenemos un modo sistematico de resolver ecuaciones diferenciales lineales inhomogeneas, es decir, de encontrar la
respuesta de sistemas fsicos a estmulos arbitrarios.

Captulo 8
La funci
on Gamma
versi
on 5 octubre 2009

En numerosos problemas en Fsica, tales como la normalizacion de la funcion de onda


de Coulomb y en el computo de probabilidades en mecanica estadstica, aparece la funcion
Gamma. Una razon por la cual esto sucede es porque problemas de combinatoria normalmente
involucraran el calculo de un factorial y, como veremos, la funcion Gamma es la generalizacion
del factorial a n
umeros complejos arbitrarios. Pero ademas, la funcion Gamma resulta estar
relacionada con muchas otras funciones especiales en Fsica, y ello hace que esta funcion
este presente en numerosas aplicaciones. Todo esto hace que su estudio sea relevante, lo que
haremos en este captulo en forma somera.

8.1.

La funci
on factorial

Consideremos la integral:
Z


1
1 x
dx = e = .

Derivando n veces respecto a ambos lados de esta expresion:


Z
n!
xn ex dx = n+1 .

0
Poniendo = 1 encontramos una expresion integral para la funcion factorial:
Z
n! =
xn ex dx ,
n = 1, 2, 3. . .
0

A partir de este resultado podemos extender la funcion factorial para n = 0:



Z

x
x
0! =
e dx = e = 1 .
0

As, tenemos en general,


n! =

xn ex dx ,

101

n = 0, 1, 2. . .

(8.1)

102

GAMMA
CAPITULO 8. LA FUNCION

8.2.

La funci
on Gamma

Definimos la funcion Gamma por:


Z
(z) =
tz1 et dt ,

Re z > 0 .

(8.2)

Vale decir, es una generalizacion de la funcion factorial para n


umeros complejos con parte
real positiva.
Observemos que:
Cuando t , la funcion et domina cualquier potencia. Cuando t 0, | et tz1 |
tRe(z)1 , de modo que la condicion Re z > 0 (es decir, Re(z) 1 > 1 es necesaria para
la convergencia de la integral).
Para el caso Re z 0 la integral diverge y no puede usarse para definir (z). Mas
adelante veremos que hacer con este caso.
La funcion (z) es continua (si Re z > 0). Ademas, es facil ver (al menos formalmente)
que, para Re z > 0,
Z
0
et tz1 ln t dt ,
(8.3)
(z) =
0
Z
00
(z) =
et tz1 (ln t)2 dt ,
(8.4)
0

etc. Se puede demostrar que (z) es infinitamente diferenciable si Re z > 0.

8.2.1.

Relaci
on con la funci
on factorial

De la definicion de la funcion Gamma (8.2), se tiene


Z
(n + 1) =
tn et dt = n! ,

si n N.

(8.5)

8.2.2.

Relaci
on de recurrencia

Integrando por partes (8.2),


Z

z t
(z + 1) = t e
0

z1

zt

dt = z

et tz1 dt = z(z) ,

luego
(z + 1) = z(z)
Notemos que, en particular, si n N,
(n + 1) = n(n) = n (n 1)(n 1) = = n! ,
pues (1) = 1.

(8.6)

103

GAMMA
8.2. LA FUNCION

8.2.3.

Funci
on Gamma de n
umeros negativos

Ya observamos que la expresion integral (8.2) no es adecuada para su extension a n


umeros
negativos. Sin embargo, ello s es posible a traves de la relacion de recurrencia (8.6). En efecto,
notemos que podemos escribir (z) = (z + 1)/(z + 1), pero tambien podramos escribir
(z) = (z + 2)/[(z + 2)(z + 1)], y as sucesivamente. De hecho, si z 6= 0, 1, 2, . . . , la
expresion
(z + n)
(z + n 1)(z + n 2) (z + 1)z
esta bien definida para todo n N suficientemente grande (Re(z) + n > 0). Ademas su valor
es independiente de n, pues
(z + n + m)
(z + n)(z + n + m 1) (z + n)
=
(z + n + m 1)(z + n + m 2) (z + 1)z
(z + n + m 1) (z + n)(z + n 1) z
(z + n)
.
=
(z + n 1) (z + 1)z
De lo anterior, nos convencemos de que podemos definir (z) para todo z diferente de 0, 1,
2, . . . , por medio de
(z) =

(z + n)
,
(z + n 1)(z + n 2) (z + 1)z

Por ejemplo,
(1.5) =

n N y Re(z) + n > 0 ,

(8.7)

1
1
1
(0.5) =
(0.5) .
1.5
1.5 0.5

La expresion (8.7) no es valida para enteros negativos. De hecho, podemos mostrar que
la funcion Gamma es singular en dichos puntos. En efecto, observemos que si z = m + ,
con m N y  < 1, la ecuacion (8.7) nos dice (con n = m + 1) que
(z) =

(1)m
( + 1)

( 1)( 2) ( m)
m! 

cuando  0.

Entonces, en todos los puntos z = 0, 1, 2, . . . , (z) tiene polos simples, y el residuo en el


polo z = m es (1)m /m!.
Mas adelante veremos que 0 (1) = , donde es la constante de Euler-Mascheroni.
Entonces, cuando z 0, (1 + z) = 1 z + , y con esto
(z) =

8.2.4.

(z + 1)
1
= + ,
z
z

cuando z 0.

Algunos resultados

(a) Evaluemos (1/2). De la definicion (8.2),


(1/2) =

Z
0

1
et dt .
t

104

GAMMA
CAPITULO 8. LA FUNCION
Con el cambio de variables t = y 2 ,
Z

(1/2) = 2

ey dy .

Entonces
[(1/2)] = 4
2

Z

y 2

e
0

 Z

dy

x2


dx

=4

e(x

2 +y 2 )

dx dy .

Reescribiendo la integral en coordenadas polares,


[(1/2)] = 4
2

/2

r2

e
0

r dr d = 4
2

r2

e
0

Luego
(1/2) =



 
1 r2
1
r dr = 2 e
= 2
.

2
2
0

(8.8)

(b) Para todo z 6 Z se verifica que


(z)(1 z) =

.
sen(z)

(8.9)

La demostracion la veremos mas adelante. Esta expresion nos indica que la funcion
Gamma tiene una estrecha (inesperada, dada la manera en que la introducimos) relacion
con las funciones trigonometricas.
(c) La formula de duplicacion de Legendre dice que


22z1
1
(2z) = (z) z +
.
2

(8.10)

La demostracion la veremos mas adelante.

8.3.
8.3.1.

Funci
on Beta
Definici
on

Definimos la funcion Beta por:


B(p, q) =

tp1 (1 t)q1 dt ,

Re p > 0, Re q > 0

(8.11)

Con el cambio de variables = 1 t se puede demostrar que


B(p, q) = B(q, p) .

(8.12)

105

BETA
8.3. FUNCION

Otras formas de expresar B(p, q), con los cambios de variable t = cos2 y t = r/(1 + r)
respectivamente, son:
Z /2
(sen )2q1 (cos )2p1 d ,
(8.13)
B(p, q) = 2
0
Z
rp1
B(p, q) =
dr .
(8.14)
(1 + r)p+q
0
La funcion Beta se relaciona con la funcion Gamma a traves de la expresion:
B(p, q) =

(p)(q)
.
(p + q)

(8.15)

Demostraci
on Ejercicio.

8.3.2.

Otras relaciones entre las funciones Beta y Gamma

En esta seccion volveremos sobre los dos resultados pendientes de la seccion 8.2.4, esto
es, las ecuaciones (8.9) y (8.10).
Para demostrar el resultado (8.9) primero notamos que, con la ayuda de (8.15), B(z, 1
z) = (z)(1 z). Ahora, por (8.14), lo que tenemos es
Z z1
w
(z)(1 z) =
dw ,
1+w
0
con 0 < Re z < 1 (por la definicion de Beta).
Notemos que la funcion wz1 /(1 + w), con z fijo y tal que 0 < Re z < 1, tiene un polo en
w = 1. Ademas, como la funcion es multivaluada, consideraremos, en el primer cuadrante
del plano complejo, que
wz1 = e(z1) ln w .
Aqu, ln w es real. Consideremos ahora el camino cerrado C que muestra la figura:
y

C3

C1

C4
C2

R
x

C = C 1+ C 2+ C 3+ C 4

Entonces

Z
C

wz1
dw = 2ieiz ,
1+w

106

GAMMA
CAPITULO 8. LA FUNCION

pues el residuo en w = 1 es wz1 (ejercicio). Tambien quedara como ejercicio demostrar


que
Z z1
Z
w
wz1
dw =
dw ,
lm
0
1
+
w
1
+
w
0
C
1
R
Z
Z z1
wz1
w
2iz
lm
dw = e
dw ,
0
1
+
w
1
+
w
C
0
2
R
Z
wz1
dw = 0 ,
lm
R C 1 + w
3
Z
wz1
lm
dw = 0 ,
0 C 1 + w
4
es decir, demuestre que
lm

0
R

Z
C1

wz1
dw = (1 e2ix )
1+w

Z
0

wz1
dw .
1+w

De este modo, se obtiene que


(z)(1 z) =

2ieiz

=
2iz
1e
sen(z)

si 0 < Re z < 1. Por otro lado,


(z + 1)
(z)
= (z)(1 z)

=
sen(z)

(z + 1)(z) = z(z)

si 0 < Re z < 1, de modo que


(z)(1 z) =

=
sen(z + )
sen(z)

si 1 < Re z < 2. As, entonces,


(z)(1 z) =

,
sen(z)

Re z 6 Z .

Para demostrar la formula de duplicacion de Legendre (8.10), primero notemos que esta
es equivalente a


 
1
1
2z1

(2z) = 2
(z) z +
2
2
[donde hemos usado el resultado (8.8)], lo cual es equivalente a
(1/2)(z)
[(z)]2
= 22z1
.
(z + 1/2)
(2z)

107

DOBLE FACTORIAL
8.4. NOTACION
De este modo, por la expresion (8.15), lo que tenemos que demostrar es
B(1/2, z) = 22z1 B(z, z) .
Pero con el cambio de variable t = (x + 1)/2 en la definicion de la funcion Beta (8.11),
z1 
z1
Z 1
Z 1
1+x
1x
dx
2
B(z, z) =
= 2z1
(1 x2 )z1 dx ,
2
2
2
2
1
0
mientras que, con el cambio de variable t = x2 ,
Z 1
B(1/2, z) = 2
(1 x2 )z1 dx .
0

De este modo, con las dos ecuaciones anteriores, terminamos de obtener lo buscado, esto es


22z1
1
(2z) = (z) z +
.
2

8.4.

Notaci
on doble factorial

A veces, en problemas de combinatoria, es necesario utilizar el doble factorial , que se


define como el producto de los n primeros enteros impares o pares:
(2n + 1)!! = 1 3 5 (2n + 1) ,
(2n)!! = 2 4 6 (2n) .

(8.16)
(8.17)

(2n)!! = 2n n! ,
(2n + 1)!
.
(2n + 1)!! =
2n n!

(8.18)

Claramente

8.5.

(8.19)

F
ormula de Stirling

Ya hemos comentado que, en problemas de combinatoria, tpicamente aparecera la funcion Gamma. La respuesta es que el factorial tiene relacion con el n
umero de modos de
ordenar N elementos. Nos podemos dar cuenta, entonces, que si queremos estudiar un sistema de muchas partculas (un gas, una galaxia, etc.), y concentrarnos solo en sus propiedades
globales, termodinamicas (temperatura, presion, etc.), ninguna de esas propiedades debera depender de el orden exacto en que se encuentren las partculas que lo constituyen.
Por tanto, deberamos esperar que dichas propiedades termodinamicas involucren, de alg
un
modo, un factorial. Pero el gas en una pieza o una galaxia contienen una gran cantidad de
partculas, y sera entonces, deseable, disponer de una expresion asintotica para N !, cuando
N es muy grande. Ademas, el calculo numerico de un factorial de tal magnitud involucrara
una cantidad de recursos computacionales excesiva, y esta es otra razon por lo cual dicha
aproximacion sera interesante.

108

GAMMA
CAPITULO 8. LA FUNCION

Dicha aproximacion se conoce como formula de Stirling, y a continuacion damos una idea
de la demostracion.
Deseamos encontrar una expresion asintotica para (x) para x grande. Consideremos
Z
Z
x t
(x + 1) =
t e dt =
ex ln tt dt .
0

Con el cambio de variables t = x + r x, obtenemos


Z


(x + 1) = ex ln(x+r x )xr x x dr .
x

Para x grande, se tiene



r
r
r2
ln(x + r x ) = ln x + ln 1 +
ln x +
+ .
x x
x 2x
De este modo,
(x + 1)

ex ln x+r xr /2xr

x
x
Z

2
x ln xx
=e
x er /2 dr

x dr

= xx e

r2 /2

dr

!
r2 /2

dr



xx ex x
2 0 ,
x

obteniendo as la formula de Stirling:

(x + 1) xx ex 2x
x

Con mas trabajo es posible encontrar la expansion asintotica de (x + 1):





1
1
x x
2x 1 +
+
+ .
(x + 1) x e
x
12x 288x2

(8.20)

(8.21)

Con la ayuda de la formula de Stirling encontraremos una forma alternativa de definir la


funcion Gamma, pero solo mostraremos un sentido de la demostracion. Directamente de la
formula de Stirling, para un x fijo y con y ,
p

x+y
(x + y)x+y e(x+y) 2(x + y)
(x + y)
x
x

y 1+
ex ,
y
y
(y)
y
y e
2y
pero como

x+y 
x 
y
x
x
x
1+
= 1+
1+
ex ,
y
y
y

109

8.6. OTRAS FUNCIONES RELACIONADAS


se tiene
(x + y)
yx,
(y)
Por otro lado, si n N, entonces
(x + n)
(x + n 1)(x + n 2) (x + 1)x(x)
=
(n)
(n 1)(n 2) 2 1


 
x
x
x
= 1+
1+
1 +
x(x) .
n1
n2
1
Si en la ecuacion anterior se toma el lmite n resulta que

 

x
x
x
x
1+
1 +
x(x) ,
n 1+
n1
n2
1
es decir,




1
x
x
x(1 + x) 1 +
1+
nx ,
(x)
n2
n1

n.

Recordando que la constante de Euler-Mascheroni se define como


!
s
X
1
= lm
ln s = 0.577215664901 . . . ,
s
n
n=1
vemos que

(8.22)

nx = ex ln n ex(1+ 2 ++ n1 )+x ,
1

de lo cual resulta que







x
x
x
x
1
x x

x
x1
xe (1 + x)e
e 2 1 +
1+
e n2 1 +
e n1 ,
(x)
2
n2
n1

n.

As, se obtiene la representacion de Weierstrass de la funcion Gamma:



Y
1
x x
x
1+
= xe
e n
(x)
n
n=1

8.6.

(8.23)

Otras funciones relacionadas

Hay muchas otras funciones relacionadas con la funcion Gamma, y que aparecen tambien
en ciertos problemas fsicos. A continuacion revisamos algunas de ellas.
1. Funcion digamma:
z(z) =
donde entendemos que z! = (z + 1).

d
ln(z!) ,
dz

(8.24)

110

GAMMA
CAPITULO 8. LA FUNCION
De la representacion de Weierstrass (8.23) se obtiene que
h 
X
z zi
ln (z) = ln z + z +
ln 1 +

.
n
n
n=1

Derivando la ecuacion anterior es claro que




X
0 (z)
1
1
1

= ++

,
(z)
z
z
+
n
n
n=1
o bien


X
0 (z + 1)
1
1
1
=
+

(z + 1)
z+1
n
z+1+n
n=1



X
1
1
= +

,
n z+n
n=1
es decir
z(z) = +

X
n=1

z
.
n(z + n)

(8.25)

Del resultado anterior es claro que z(z) tiene polos en z = 1, 2, . . . , con residuo 1.
2. Funcion poligamma: Es la m-esima derivada de la funcion z:
(m)

X
1
dm+1
m+1
(z) = m+1 ln(z!) = (1)
m!
.
dz
(z + n)m+1
n=1

(8.26)

Observemos que
z(m) (0) = (1)m+1 m! (m + 1) ,

m = 1, 2, 3. . . ,

(8.27)

donde la funcion zeta de Riemann se define como

X
1
(s) =
,
ns
n=1

3. Funcion Beta incompleta:


Z x
Bx (p, q) =
tp1 (1 t)q1 dt ,

s > 1 .

Re p > 0, Re q > 0 y 0 x 1.

Claramente
Bx=1 (p, q) = B(p, q) .

(8.28)

(8.29)

111

8.6. OTRAS FUNCIONES RELACIONADAS


4. Funciones Gamma incompletas:
(a, x) =

Re(a) > 0 ,

et ta1 dt ,

(8.30)

y
(a, x) =

et ta1 dt .

(8.31)

(a, x) + (a, x) = (a) .

(8.32)

Se tiene

Se puede mostrar (ejercicio) que, para todo n N,


n1 k
X
x

(n, x) = (n 1)! 1 ex

k=0

(n, x) = (n 1)!ex

n1 k
X
x
k=0

k!

k!

(8.33)
(8.34)

5. Integrales de error :
2
erf(z) =

(8.35)

et dt ,

2
erfc(z) = 1 erf(z) =

et dt .

(8.36)

Con un cambio de variable simple podemos escribir las integrales de error en terminos
de las funciones Gamma incompletas:


1 2
1
,z
,
(8.37)
erf(z) =
2



1
1 2
,z
erfc(z) =
.
(8.38)
2

Bibliografa Adicional
Un libro dedicado completamente al tema es la referencia [1], el cual fue originalmente
publicado en 1906 (en dos tomos). Una interesante y famosa referencia es el captulo XII del
libro de Whittaker y Watson [2]:
1. Niels Nielsen, Die Gammafunktion, Band I/II, Chelsea Publishing Company, Nueva
York, 1965 (ISBN 0-8284-0188-8).
2. E. T. Whittaker y G. N. Watson, A Course of Modern Analysis, Cambridge Mathematical Library, Cambridge University Press, Cambridge, 1997 (ISBN 0-5215-8807-3).

112

GAMMA
CAPITULO 8. LA FUNCION

Captulo 9
Transformada de Laplace
versi
on 5 octubre 2009

Una de las ventajas del definir la transformada de Fourier es ser capaces de convertir
ecuaciones diferenciales en ecuaciones polinomiales, convirtiendolas en un problema mas sencillo de resolver. Sin embargo, la existencia de la transformada de Fourier esta garantizada
solo para funciones de modulo integrable, i.e., en particular deben anularse en infinito. El
concepto de distribuciones, sin embargo, nos permitio extender la transformada de Fourier a
funciones de crecimiento lento. Sera posible extender el concepto aun mas, a funciones de
crecimiento exponencial? No es una pregunta gratuita, ya que de hecho son muchas las situaciones en que la solucion a una ecuacion diferencial crece exponencialmente en infinito (por
ejemplo, problemas de inestabilidad). El camino ello sera definir una nueva transformada, la
transformada de Laplace.

9.1.

Definici
on

Definici
on 9.1 Definimos la transformada de Laplace de una funcion f (t) por
L{f (t), s} = F (s) =

est f (t) dt

sC.

(9.1)

Notamos que s es un n
umero complejo arbitrario. De hecho, si es un n
umero imaginario
puro, se reobtiene (salvo por el lmite de integracion) la transformada de Fourier. El extender, entonces, la transformada de Fourier al caso en que la frecuencia no es puramente
imaginaria es la clave de todo, ya que nos damos cuenta de que si s tiene parte real, el
decaimiento de la exponencial puede compensar un eventual crecimiento exponencial de f ,
logrando que el integrando sea modulo integrable y la integral exista. La siguiente definicion
y las proposiciones que le siguen formalizan esta idea.
f

Definici
on 9.2 Una funcion f : [0, ) C es de orden exponencial si f (t) es seccionalmente continua y derivable en 0 t < y
| f (t) | Aes0 t

t 0 A, s0 R.
113

(9.2)

114

CAPITULO 9. TRANSFORMADA DE LAPLACE

Proposici
on 9.1 Sea f un funcion de orden exponencial. Entonces la transformada de Laplace, L{f }, existe en el semiplano Re[s] > s0 .
Demostraci
on
Z
Z
Z
st s t
st


st
e e 0 dt
e | f (t) | dt A
e f (t) dt
| L{f } | =
0
0
0
Z
Z
i Im[s]t (Re[s]s )t
0
e
e
dt = A
e(Re[s]s0 )t dt < Re[s] > s0 .
=A
0

q.e.d.
R

Proposici
on 9.2 La integral
Re[s] s1 > s0 .

est f (t) dt converge uniformemente para todo s tal que

Demostraci
on Si  > 0, afirmamos que existe M () independiente de s tal que

Z

F (s)

M
st

dt e

Z

f (t) =

st

dt e



f (t) <  .

En efecto,
Z


st

dt e

Z
Z

st




f (t)
dt e f (t)
dt Aet(Re[s]s0 )
M
ZM
A
dt Aet(s1 s0 ) =

eM (s1 s0 ) <  ,
s

s
1
0
M

donde la u
ltima desigualdad se satisface escogiendo


1
A
M>
ln
.
s1 s0
(s1 s0 )
q.e.d.
Proposici
on 9.3 F (s) es holomorfa (analtica) en Re[s] s1 > s0 , es decir, la derivada
0
F (s) existe en dicho semiplano.
Demostraci
on En virtud de la convergencia uniforme, podemos pasar la derivada dentro
de la integral:
Z
Z
Z
st
d st
0
F (s) =
e f (t) dt =
e f (t) dt =
est tf (t) dt ,
ds 0
s
0
0

115

DE LA TRANSFORMADA DE LAPLACE
9.2. INVERSION
luego
Z

| F (s) |
0

st
e t | f (t) | dt A

te(s0 s1 )t dt ,

y la u
ltima integral existe (es finita), independiente de s.
En general, existe
F

(n)

(s) =

q.e.d.

(t)n f (t)est dt .

(9.3)

Proposici
on 9.4
lm F (s) = 0 .

(9.4)

Re[s]

Demostraci
on
lm

Re[s]

st

f (t) dt =

f (t)e

i Im[s]t

lm e

Re[s]t

Re[s]

dt = 0 .
q.e.d.

Notemos, como consecuencia de esta proposicion, que 1, s, s2 o cualquier polinomio, no


pueden ser transformadas de Laplace de ninguna funcion. S pueden serlo, en cambio, 1/s o,
en general, funciones racionales con el grado del denominador superior al del numerador.
Ejemplo Sea f (t) = cos at.
1
L{cos at, s} =
e cos(at) dt =
2
0


1
1
1
=
+
2 s ia s + ia
s
= 2
.
a + s2
Z

st


est eiat + eiat dt

(si Re[s] > 0)

Recordemos que la transformada de Fourier de un coseno esta relacionada con la delta de


Dirac, y por lo tanto no existe como funcion, sino solo como distribucion. En cambio, bajo una
transformada de Laplace no hay ning
un problema, el resultado es una funcion completamente
razonable.

9.2.

Inversi
on de la transformada de Laplace

Sea f una funcion de orden exponencial, tal que f (t) = 0 si t < 0. Sean F (s) = L{f, s}
y > s0 . Observemos que
g(t) = f (t)et
(9.5)

116

CAPITULO 9. TRANSFORMADA DE LAPLACE

es modulo integrable:

|g| < ,

luego la transformada de Fourier de g(t) existe. Se tiene


Z
Z
1
1
itu
F{g(t), u} =
g(t)e dt =
f (t)e(iu)t dt
2 0
2 0
1
F{g(t), u} = L{f (t), iu} .
2

(9.6)

Usando el teorema de reciprocidad de la transformada de Fourier:


Z
Z
1
1
iut
F{g(t), u}e
du =
L{f, iu}eiut du .
g(t) =
2
2

Con el cambio de variable s = iu,


Z i
Z
i
et +i
(s)t
g(t) =
L{f, s}e
ds =
L{f, s}est ds .
2 +i
2i i
Finalmente
1
f (t) =
2i

+i

(9.7)

L{f, s}est ds .

Por lo tanto, si la transformada de Laplace de una funcion f (t) esta dada por
Z
f (t)est dt ,
Re s > s0 ,
F (s) = L{f (t), s} =
0

entonces f (t) viene dada por la antitransformada de Laplace:


1
f (t) = L {F (s), t} =
2i
1

+i

F (s)est ds ,

> s0 .

(9.8)

La expresion (9.8) se conoce como la integral de inversion de Mellin.


Observamos, entonces, que hemos tenido que pagar un par de costos al extender el concepto de transformada a funciones de orden exponencial. Primero, la transformada de Laplace,
a diferencia de la de Fourier, que existe para todo el eje real, no existe en todo el plano
complejo. Y ahora encontramos que la transformada y su inversa no tienen la misma forma
(en el caso de la de Fourier basta cambiar un signo).
Notemos que debe ser mayor que s0 , para asegurar que estamos en la region en que
la transformada existe. Pero aparte de eso, es arbitrario. Como es posible que la integral
de Mellin [igual a f (t)] sea independiente de ? Para verificarlo, necesitamos la siguiente
proposicion:
Proposici
on 9.5
lm

Im[s]

F (s) = 0 .

(9.9)

117

DE LA TRANSFORMADA DE LAPLACE
9.2. INVERSION
Demostraci
on Sea s = sR + i. Entonces, por (9.6),

L{f, s} = L{f, sR + i} = 2F{f esR t , } 0 ,

donde el u
ltimo lmite se sigue de las propiedades de la transformada de Fourier. Luego hemos
demostrado la proposicion.
q.e.d.
Ahora podemos discutir la independencia de de la integral de Mellin. En efecto, consideremos el circuito de integracion:
Im(s)
B

s0

2
Re(s)

El contorno ABCD no encierra singularidades, y las integrales a lo largo de CB y AD se


van a cero cuando M = Im[s] [ver (9.9)]. Luego, por el teorema de Cauchy,
Z 1 +i
Z 2 +i
ts
ds e F (s) =
ds ets F (s) ,
1 , 2 > s0 ,
1 i

2 i

lo que muestra la independencia en .


Una consecuencia del teorema de inversion de la transformada de Laplace es que si dos
funciones son distintas, entonces sus transformadas de Laplace tambien lo son.
Ejemplo Consideremos la funcion escalon de Heaviside
h(t) =

1 + sgn(t)
.
2

Su transformada de Laplace es
H(s) = L{h, s} =

Z
0

est dt =

1
.
s

118

CAPITULO 9. TRANSFORMADA DE LAPLACE

Observemos que h(t) es de crecimiento exponencial con s0 = 0 y, consistentemente, H(s) es


holomorfa en el semiplano Re[s] > 0.
Invirtiendo la transformada de Laplace, deberamos tener
 
Z +i
1 st
1
1
1
,t =
e ds .
h(t) = L
s
2i i s
Sera cierto? Comprobarlo exigira un poco de trabajo al integrar en el plano complejo.
i) t > 0. Consideremos el siguiente camino de integracion:
Im(s)
+iR

iR

Re(s)

iR

iR

Sobre los segmentos horizontales:


Z tx itR
Z ts Z t(xiR)


e
|e | e
e
et
=


ds
dx
dx

0 ,



s
| x iR |
R R
0 x iR
0

t>0.

Sobre el segmento circular, se tiene


z = iRei ,

0 .

Luego
Z ts Z tz
Z
Z /2
i
e


tR
e
(Re
)
tR sen




ds =
d
e
d 2
e 2 d .

i
s
iRe
0
0
0
La u
ltima desigualdad se sigue del hecho de que
sen

si 0 /2 ,

de modo que, si t > 0,


tR sen tR

.
2

119

DE LA TRANSFORMADA DE LAPLACE
9.2. INVERSION
Por tanto,
Z ts
Z /2


e
4 
tR
tR
2

2 d =
4
ds
e
1

e
0


R
s
tR
0
As, por el teorema del residuo,
Z +i
i

vale decir

t>0.


ets
ets
ds = 2i
= 2i ,
s
s s=0

h(t) = 1 ,

t>0.

ii) Sea t < 0. En este caso es facil convencerse, a partir de lo visto en el caso anterior, que
el camino de integracion conveniente es:

Im(s)
+iR

iR

Re(s)

iR

Y en tal caso,
Z

+i

ets
ds =
s

iR

ets
ds = 0 ,
s

pues no hay polos dentro del circuito de integracion . Entonces


h(t) = 0 ,

t<0.

iii) Caso t = 0.
La integral queda simplemente
Z

+iR

iR

r=R
 r  r=R


ds
2
2


= ln( + ir)
= ln( + r ) + i arctan
i ,

R
s

r=R
r=R

120

CAPITULO 9. TRANSFORMADA DE LAPLACE


de modo que
h(0) =

1
.
2

Por lo tanto, al invertir la transformada de Laplace hemos reobtenido la funcion escalon


de Heaviside h(t).

9.3.

Propiedades de la transformada de Laplace

En lo sucesivo, el smbolo
significara tiene como transformada de Laplace.
Ademas, f (t) y g(t) seran funciones de crecimiento exponencial, con f (t) = g(t) = 0 si t < 0.
Finalmente, definimos F (s) = L{f, s} y G(s) = L{g, s}.
1) Si a, b C, entonces

aF (s) + bG(s) .

af (t) + bg(t)

(La transformada de Laplace es lineal.)


2) Si > 0, entonces
f (t)
3)
Z

f (t0 ) dt0

st

1 s
F
.

1
F (s) ,
s

Demostraci
on
 Z
Z t
f (u) du, s =
L

Re(s) > s0 .

f (u) du dt .

Integrando por partes,



Z t

Z t
Z

est
1 st
1

f (u) du, s =
L
f (u) du +
e f (t) dt = F (s) .
s
s 0
s
0
0
0
4)

f 0 (t)

sF (s) f (0) ,

Re(s) > s0 .

Demostraci
on Integrando por partes:

Z
Z

0
st 0
st

L{f , s} =
e f (t) dt = e f (t) + s
0

est f (t) dt = sF (s) f (0) .

Analogamente,
f (n) (t)

sn F (s) sn1 f (0) sn2 f 0 (0) f (n1) (0) .

9.4. LISTA DE TRANSFORMADAS DE LAPLACE


5)

tn f (t)

121

(1)n F (n) (s) .

6) Desplazamiento en el eje t. Sea > 0. Entonces


es F (s) .

f (t )

7) Desplazamiento en el plano s. Sea c C. Entonces


ect f (t)

Demostraci
on
L{e f (t), s} =
ct

F (s c) .

est ect f (t) dt = F (s c) .

8) Convolucion. De la definicion de producto de convolucion, y puesto que f (t) y g(t) son


nulas si sus argumentos son menores que cero, se sigue que
Z t
f (t u)g(u) du .
p(t) = f g(t) =
0

Y se puede mostrar que


f g(t)

F (s)G(s) .

Demostraci
on Ejercicio.
Todas las propiedades anteriores son analogas a las correspondientes propiedades de la
transformada de Fourier, con la excepcion de 4), pues la derivada se convierte en un polinomio
mas un termino extra, dado por el valor de la funcion en el origen.

9.4.

Lista de transformadas de Laplace

Se supone en lo que sigue que todas las funciones que aparecen a la izquierda del smbolo

son tales que f (t) = 0 si t < 0.


a)
0
1
c

0
1

s
c

122

CAPITULO 9. TRANSFORMADA DE LAPLACE

b) Sea > 0.
L{t , s} =

t dt =

st

s+1

eu u du =

( + 1)
.
s+1

Luego
t

tn

1
s+1

( + 1) ,

n!

n = 0, 1, 2. . .

,
sn+1
r
1

.
2s s

>0.

c)
ect
tn ect

1
,
cC.
sc
n!

.
(s c)n+1

En efecto,
L{ect , s} = L{ect 1, s} = L{1, s c} =
y

(n)
L{tn ect , s} = (1)n L{ect , s}
=

1
,
sc

n!
.
(s c)n+1

d) Si s > 0, > 0,
cos t

sen t

1 t
(e + et )
2

cosh(t)

senh(t)

s
+ 2

s2+ 2

1
1
1
+
2 s s+
s
R
2
s 2

2
s 2
s2

e)
et cos(t)
et sen(t)

+s
(s + )2 + 2

(s + )2 + 2

123

9.4. LISTA DE TRANSFORMADAS DE LAPLACE


f)
tet cos(t)
tet sen(t)

( + s)2 2
[(s + )2 + 2 ]2
2( + s)

[(s + )2 + 2 ]2

g) Si se desea encontrar la antitransformada de una funcion racional P (s)/Q(s), con el grado


de P menor que el grado de Q, la estrategia sera descomponerla en fracciones parciales,
de la forma
X An
.
(s c)n
Por ejemplo, de este modo podemos mostrar que
as2 + bs + c 2

(s2 + 2 )2

ac
a + bt + c
t cos(t) +
sen t .
2
2

h) Sea q(t) la funcion escalon desplazada en t0 hacia la derecha:


1
q(t) = h(t t0 ) = [1 + sgn(t t0 )] ,
2

t0 > 0 .

Entonces, de las propiedades de la transformada de Laplace,


q(t) = h(t t0 )

et0 s

1
.
s

Entonces
q(t) 0 = (t t0 )

1
sL{q(t), s} q(0) = set0 s 0 = et0 s .
s

Suponiendo entonces que es lcito evaluar la transformada de Laplace de distribuciones,


tenemos que
(t t0 )
0 (t t0 )
(n) (t t0 )

et0 s
set0 s
sn et0 s

124

CAPITULO 9. TRANSFORMADA DE LAPLACE

Captulo 10
Aplicaciones de la transformada de
Laplace
versi
on 1 octubre 2007

La transformada de Laplace introducida en el Captulo anterior tiene algunas ventajas


respecto a la transformada de Fourier (Cap. 3).
En primer lugar, al igual que la transformada de Fourier, nos permite convertir ecuaciones diferenciales en ecuaciones algebraicas (propiedad 4, seccion 9.3), con una diferencia:
se requiere el valor de la funcion en un punto dado. Si la funcion es conocida, esto no es
problema, pero que pasa si la funcion es desconocida? Esto es precisamente lo que ocurre
cuando intentamos resolver una ecuacion diferencial: no conocemos la solucion. Significa eso
que tenemos un problema autoconsistente, y no podemos calcular la transformada de Laplace
de su derivada? Observemos que, fsicamente, resolver una ecuacion diferencial no es simplemente encontrar una solucion general de ella, sino aplicar a esta sus condiciones iniciales o
de borde, seg
un corresponda. Solo entonces la solucion de una ecuacion diferencial es u
nica,
y correspondera a la solucion del problema fsico especfico en cuestion. Cuando usamos una
tranformada de Fourier, por ejemplo, una vez que resolvemos la ecuacion polinomial para la
transformada, y luego la invertimos, lo u
nico que hemos logrado es encontrar una solucion
general. A
un hay que aplicar las condiciones iniciales o de borde, lo cual significa resolver
nuevas ecuaciones. Con la transformada de Laplace, sin embargo, ello no es necesario: simplemente al aplicar la transformada a la ecuacion diferencial, aparecen las condiciones iniciales
explcitamente. Nunca tuvimos un problema autoconsistente; lo u
nico que necesitamos es
la misma informacion que hemos requerido siempre. Mas a
un, una vez que se invierta la
transformada, tendremos de inmediato la solucion al problema fsico.
Lo anterior no es solamente una economa de recursos. Tiene mucho de implicancias fsicas. En efecto, recordemos que la transformada de Laplace es una integral entre 0 e infinito.
Matematicamente, ello se justifica porque solo podemos asegurar convergencia de las integrales en dicho dominio. Pero, por otro lado, significa que el comportamiento de la funcion para
t < 0 es irrelevante. Por ejemplo, las transformadas de la funcion escalon de Heaviside y de
f (t) = 1 son ambas iguales a 1/s. Lo cual, considerado fsicamente, significa que la evolucion
de un sistema esta dada solamente por la ecuacion que lo gobierna, y sus condiciones iniciales,
no toda su historia anterior.
125

126

CAPITULO 10. APLICACIONES DE LA TRANSFORMADA DE LAPLACE

En todo caso, uno podra argumentar que los puntos anteriores son mas bien secundarios,
ya que resolver una ecuacion diferencial va transformada de Fourier o de Laplace debera
arrojar el mismo resultado. Un aspecto nada de secundario, sin embargo, es que, mientras la
transformada de Fourier solo se puede aplicar a funciones que decrecen rapidamente a cero
(funciones en S), o a lo sumo a funciones de crecimiento polinomial (es decir, funciones que
tienen asociadas distribuciones temperadas), la transformada de Laplace esta bien definida
incluso para funciones de crecimiento exponencial. Puesto que en general una inestabilidad
de un sistema fsico esta caracterizada por alguna variable que crece exponencialmente, no
esta garantizado que el formalismo de transformada de Fourier de resultados con sentido en
estos casos. As, la transformada de Laplace no es solo un formalismo alternativo, sino que
en ocasiones puede ser el u
nico adecuado.
A continuacion expondremos algunos ejemplos de empleo de la transformada de Laplace
para resolver algunos problemas matematicos o fsicos. En particular, estos ejemplos permiten
ilustrar, por un lado, la utilidad de incorporar inmediatamente las condiciones iniciales al
aplicar la transformada a ecuaciones diferenciales, y por otro, que tanto las soluciones de
dichas ecuaciones como las ecuaciones mismas pueden contener terminos exponencialmente
crecientes, situacion que impedira el empleo de transformadas de Fourier.

10.1.

Ecuaciones diferenciales lineales con coeficientes


constantes

1) Consideremos la siguiente ecuacion diferencial con condiciones iniciales:


d2 y
y =1 ,
dt2

y(0) = 0, y 0 (0) = 1 .

Para resolverla, aplicamos la transformada de Laplace a ambos lados de la ecuacion:


 2

dy
L
, s L {y, s} = L {1, s} ,
dt2
donde interpretamos la funcion constante 1 como 1 para t 0 y 0 para t < 0. Evaluamos
la transformada de la segunda derivada, usando las propiedades enunciadas en el captulo
anterior.
 2

dy
L
, s = s2 Y (s) sy(0) y 0 (0) = s2 Y (s) 1 ,
dt2
donde Y (s) = L {y, s}. Usando lo anterior en la ecuacion diferencial tenemos
1
s
1 s
1+s
2
(s 1)Y (s) = + =
s s
s
s+1 1
1 1
1
1
=
=

.
Y (s) =
s s2 1
ss1
s1 s
s2 Y (s) 1 Y (s) =

10.1. ECUACIONES DIFERENCIALES LINEALES CON COEFICIENTES CONSTANTES127


Retransformando,

y(t) = et 1 .

2) Consideremos la siguiente ecuacion diferencial con condiciones iniciales:


d2 y
y =t ,
dt2

y(1) = a, y(2) = b .

Encontremos la solucion para y(t). Primero hacemos el cambio de variable x = t 1 con


u(x) = y(t), de esta manera la ecuacion nos queda
d2 u
u=x+1 ,
dx2

u(0) = y(1) = a, u(1) = b .

Aplicamos la transformada de Laplace. Definiendo L {u, s} = U (s) y u0 (0) = , tenemos


s2 U (s) su(0) u0 (0) U (s) =

1
1
+
s2 s

1+s
s2
as

1
U (s) = 2
+ 2
+ 2
.
s 1 s + 1 s (s 1)

(s2 1)U (s) = as + +

Retransformando,
u(x) = a cosh(x) + senh(x) + L


1
,x .
s2 (s 1)

Haciendo notar que



Z x
1 1
1 
x0
0
L
e dx , s = L et , s =
s
ss1
0
(Z
)


Z
Z
0
x
x
x
1
1 1 1
1
0
x00
00
x0
0
dx
e dx , s = L
L
e dx , s =
= 2
,
s
s s s1
s (s 1)
0
0
0
se tiene
L
Finalmente

 Z x
Z x0
Z x
1
0
x00
00
0
,x =
dx
e dx =
(ex 1) dx0 = ex 1 x .
2
s (s 1)
0
0
0
u(x) = a cosh(x) + senh(x) + ex (1 + x) .

Expresando la solucion en la variable original,


y(t) = a cosh(t 1) + senh(t 1) + et1 t .
Comprobamos la condicion inicial:
y(1) = a cosh(0) + senh(0) + e0 1 ,
y(1) = a + 0 + 1 1 = a .

128

CAPITULO 10. APLICACIONES DE LA TRANSFORMADA DE LAPLACE

Para determinar = u0 (0) usamos y(2) = b:


y(2) = a cosh(1) + senh(1) + e 2 = b
2 + b e a cosh(1)
.
=
senh(1)
En general, la ecuacion diferencial
d2
d
x(t) + x(t) + x(t) = f (t)h(t) ,
2
dt
dt
donde h(t) corresponde a la funcion escalon de Heaviside, tiene por solucion:
Z +i+
1
1
x(t) = L {, t} =
ds est (s) ,
2i i+
con
(s) = L {x, s} =

10.2.

s2

1
[L {f (t), s} + ( + s)x(0) + x0 (0)] .
+ s +

Ecuaciones integrales

Sea la ecuacion integral para f (x)


g(x) = f (x) +

f ()K(x ) d ,

(10.1)

donde g(x) y K(x) son funciones dadas. Busquemos la solucion aplicando la transformada
L {g(x), s} = L {f (x), s} + L {f K(x), s} = L {f (x), s} + L {f (x), s} L {K(x), s} .
Despejando,
L {f (x), s} =

L {g(x), s}
.
+ L {K(x), s}

(10.2)

Retransformando se obtiene f (x).


Como ilustracion de situaciones fsicas que involucran ecuaciones integrales revisaremos
el problema de la tautocrona: una partcula de masa m resbala, sin roce, sobre una curva
bajo el efecto de la gravedad. Queremos la forma de la curva de modo que el tiempo que se
demore la partcula en llegar abajo sea independiente del punto de lanzamiento.

yo
y

129

10.2. ECUACIONES INTEGRALES


Debido a la conservacion de la energa se satisface para todo y
1 2
mv = mg(y0 y)
2
p
2g y0 y ,
v =
donde y0 es la altura inicial. Podemos evaluar el tiempo de descenso
Z
Z 0
Z y0
ds
1
1 ds
f (y)(y0 y)1/2 dy ,
=
dy =
v
2g
y0 v dy
0

donde hemos definido f (y) = ds/dy. Con este resultado podemos escribir la condicion de que
la curva sea tautocrona de la siguiente manera:
Z y0
f (y)(y0 y)1/2 dy = C0 ,
constante independiente de y0 .
0

Esta ecuacion integral es de la forma (10.1), con = 0, g(x) = C0 y K(x) = x1/2 , por tanto
tiene solucion de la forma (10.2):
L {f (x), s} =
Sabemos que

luego

C0 /s
.
L {x1/2 , s}


( 1 )
L x1/2 , s = 2 ,
s

C0 s
C0 1
.
L {f (x), s} =
1 =
s ( 2 )
( 21 ) s

Retransformando,
f (y) =
A partir de

C0
ds
=
y 1/2 = Cy 1/2 .
dy
[( 21 )]2
ds2 = dx2 + dy 2 ,

despejamos
s

2
ds
dy dy 2 ,
dy
s 
" 
#1/2
2
2
ds
ds
dx =
dy 2 dy 2 =
1
dy .
dy
dy

p
dx = ds2 dy 2 =

Como conocemos ds/dy, tenemos


1/2
C2
1
dy .
dx =
y


(10.3)

130

CAPITULO 10. APLICACIONES DE LA TRANSFORMADA DE LAPLACE

Haciendo el cambio de variable


 

C2
=
[1 cos()] .
y = C sen
2
2
2

Diferenciando,
dy =

C2
sen d .
2

Reemplazando en (10.3) obtenemos


 
1/2 2


C
2
1
sen d
dx = csc
2
2
  2
 
 
C

dx = cot
2 sen
cos
d
2 2
2
2
 

C2
2
2
dx = C cos
d =
(1 + cos ) d .
2
2
Integrando esta u
ltima ecuacion y agregando el cambio de variable podemos expresar la curva
resultante en forma parametrica:
C2
( + sen )
2
C2
y=
(1 cos ) .
2

x=

Esta es la ecuacion de una cicloide.

10.3.

Ecuaciones en derivadas parciales

Consideremos la ecuacion unidimensional de conduccion del calor


2
u(x, t)
2 u(x, t)
c
=
,
(10.4)
2
x
t
donde u(x, t) corresponde a la temperatura en la posicion x y a tiempo t. Elegimos, por
simplicidad, la constante c2 = K/ = 1, donde K es la conductividad termica, el calor
especfico y la densidad.
El problema especfico a abordar es el de una varilla seminfinita con condicion inicial
u(x, 0) = 0, x > 0, y condiciones de borde u(0, t) = A y u(, t) = 0.
Si tomamos la transformada de Laplace respecto de x en (10.4), encontramos que la
transformada de u debe satisfacer la siguiente ecuacion:


u
u
2
s L {u(x, t), s} su(0, t)
(0, t) = L
,s .
x
t
La anterior ecuacion resulta no ser de coeficientes constantes, ademas, es inhomogenea y
uno de sus terminos, u/x(0, t) no lo conocemos, as que la solucion no es directa. Pero si
tomamos la transformada de Laplace respecto a t de la ecuacion de conduccion, y definiendo
Z
U (x, s) = L {u(x, t), s} =
est u(x, t) dt ,
0

131

10.3. ECUACIONES EN DERIVADAS PARCIALES


obtenemos

2 U (x, s)
= s U (x, s) u(x, 0) .
x2

Utilizando la condicion inicial u(x, 0) = 0, nos queda una ecuacion diferencial en donde s es
un parametro,
2 U (x, s)
s U (x, s) = 0 ,
x2
con solucion
U (x, s) = C1 ex

+ C2 ex

Aplicamos la transformada de Laplace sobre las condiciones de borde:


L {u(, t), s} = U (, s) = 0 = C1 = 0 ,
A
A
.
L {u(0, t), s} = U (0, s) = L {A, s} = = C2 =
s
s
La solucion es
U (x, s) =

A xs
e
,
s

para Re[s] > 0.

Retransformando,
u(x, t) = L


Z t
n o
A xs
1
,t = A
L
ex s , t0 dt0 .
e
s
0

Evaluamos, primero,
Z +i
n o

1
x s
L
e
,t =
est ex s ds .
2i i

Usando el cambio de variable z = s, el camino de integracion se modifica como muestra la


figura:
1

Im[ z ]

Im[ z ]
z= s

II R

III
R

Re[ z ]
R

Re[ z ]
R=

II R
I

132

CAPITULO 10. APLICACIONES DE LA TRANSFORMADA DE LAPLACE

y la integral nos queda


1

Z
n o
2
2
x s
e
,t =
ez t ezx z dz .
2i

Para efectuar la integral, cerraremos el contorno de integracion como indica la figura (tramos
I-II-III-II-I-). Analicemos la integral sobre los tramos que cierran el camino, partiendo por
el tramo I:
Z

Z



1
1
z 2 tzx
2
(1+i)2 y 2 t(1+i)yx

ze
dz
=
(1 + i) ye
dy

I
R
z=(1+i)y
Z
2 yx
ye
dy 0 .

R
R
El tramo II:
Z


1
1
z 2 tzx
=
ze
dz

II

z=iR+y

Z R



(iR+y)2 t(iR+y)x

(iR + y)e
dy

0
Z R
1
2
2

| iR + y | e(y R )tyx dy
0
Z R
2
eR t
2

2R
ey tyx dy

El integrando f (y) = ey tyx es acotado en el intervalo [0, R], siendo su maximo f (0) = 1
o f (R) (dentro del intervalo hay solo un punto con derivada nula, y = x/2, y resulta ser un
mnimo). Si R es suficientemente grande, el maximo es f (R). de modo que podemos escribir
Z

Z R
2

eR t
1
2
z 2 tzx

ze
dz

2R
eR tRx dy

II

0
z=iR+y
Rx
e
=
2R2 0 .
R

Notamos que dentro del circuito no hay polos, entonces al utilizar el teorema del residuo
podemos concluir que la integral sobre el circuito cerrado es nula. Ya hemos demostrado que
las integrales sobre los tramos I y II tienden a cero cuando R . En forma equivalente
se puede mostrar que se anularan, en el mismo lmite, las integrales sobre los tramos I y II.
Por lo tanto, la integral sobre el camino mas la integral sobre el tramo III deben cancelarse
en el lmite R , o lo que es lo mismo, la integral sobre el camino , que es la que nos
interesa, es igual a menos la integral sobre el tramo III. Parametrizamos por z = iy, y nos
queda
Z
Z
n o
1 y2 tiyx
x 1
1
2
1
x s
z 2 tzx
e
z dz =
e
y dy = 3/2 ex /4t .
L
e
,t =
i III
i
2 t
Podemos escribir la solucion
u(x, t) = A

Z
0

x 1
2
0
3/2 ex /4t dt0 .
0
2 t

10.4. SISTEMA DE ECUACIONES LINEALES

133

Hacemos el cambio de variable 2 = x2 /4t0 , lo que implica dt0 = x2 /23 d, y obtenemos


finalmente



Z
x
2A 2

e
d = A 1 erf
.
u(x, t) =
x/2t
2 t

10.4.

Sistema de ecuaciones lineales

Consideremos el siguiente sistema de ecuaciones diferenciales lineales


y10 + 2y20 + y1 y2 = 25 ,
2y10 + y2 = 25et ,
con condiciones iniciales y1 (0) = 0 e y2 (0) = 25. Apliquemos la transformada de Laplace, con
las definiciones
Y1,2 = L {y1,2 (t), s} .
Obtenemos para el sistema:
25
,
s
25
2sY1 2y1 (0) + Y2 =
.
s1

sY1 y1 (0) + 2sY2 2y2 (0) + Y1 Y2 =

Usando las condiciones iniciales,


25
,
s
25
2sY1 + Y2 =
.
s1

sY1 + 2sY2 50 + Y1 Y2 =

Despejando,
Y1 (s) =
Retransformando,
Analogamente

25
25
9
5
16
=

.
2
2
4s(s 1) (s + 1/4)
s
s 1 (s 1)
(s + 1/4)
y1 (t) = 25 9et + 5tet 16et/4 .
y2 (t) = 33et 10tet 8et/4 .

134

CAPITULO 10. APLICACIONES DE LA TRANSFORMADA DE LAPLACE

Captulo 11
Polinomios ortogonales
versi
on 1 octubre 2007

En cierto sentido, en los captulos anteriores no hemos hecho otra cosa que desarrollar
estrategias para resolver el problema general de escribir las soluciones de una ecuacion diferencial en una determinada base. Si la funcion esta definida en un intervalo finito, dicha base
es discreta y la solucion se puede escribir como una serie de Fourier. Si se necesita una solucion en todo el eje real, la expansion se convierte en una transformada de Fourier. Luego nos
enfrentamos al problema de que hay todo un conjunto de funciones que pueden ser soluciones
a problemas fsicos, pero para las cuales no existe la transformada de Fourier, o a las que no
se les puede aplicar un operador diferencial: funciones discontinuas, o funciones divergentes
polinomial o exponencialmente, por ejemplo. Sin embargo, es posible, gracias a los conceptos
de distribuciones y transformada de Laplace, aplicar a dichas funciones los mismos formalismos que para funciones bien comportadas, diferenciables y modulo integrables. Como
sea, mirado globalmente, los captulos anteriores nos han permitido desarrollar y generalizar
la idea de que las soluciones de una ecuacion diferencial se pueden expandir como funciones
oscilatorias (aceptando que la frecuencia puede no ser puramente real).
En este captulo, y los que siguen, desarrollamos un segundo tipo de estrategia: expandir
funciones en una base de polinomios. Desde luego, ya conocemos una tal expansion, la serie
de Taylor. Sin embargo, veremos que en absoluto esta es la u
nica posibilidad. Existen infinitos
modos de expandir una funcion en polinomios, y que expansion sea la adecuada dependera del problema fsico en cuestion, es decir, de las ecuaciones diferenciales que lo rijan, y las
condiciones de borde. Primero, en este breve captulo, revisaremos algunas propiedades generales sobre polinomios ortogonales, para luego, en los captulos siguientes, revisar diversos
casos particulares de interes para la Fsica.

11.1.

Definiciones

Definici
on 11.1 Sean f, g C [a, b] y sea p(x) > 0 continua en el intervalo [a, b]. Definimos
el producto interno de f y g con funcion de peso p de la forma siguiente:
Z
hf, gi

f (x)g(x)p(x) dx .

135

(11.1)

136

CAPITULO 11. POLINOMIOS ORTOGONALES

Definici
on 11.2 Sean {Pn (x)}nN0 un conjunto de polinomios reales, donde Pn (x) es un
polinomio de grado n. El conjunto {Pn (x)}nN0 forma un sistema ortogonal de polinomios
con la funcion de peso p(x) si
hPn , Pm i = nm Am .
(11.2)

11.2.

Teoremas

Teorema 11.1 Sean {Pn (x)}nN0 polinomios ortogonales en [a, b] con la funcion de peso
p(x). Sea Qk un polinomio cualquiera de grado k. Entonces Pn (x) es ortogonal a Qk si n > k.
Demostraci
on Escribamos el polinomio Qk (x) como sigue
Qk (x) =

k
X

a x .

=0

Podemos escribir los x como combinacion de los polinomios Pn (x),


x =

b P (x) ,

con b hx , P i ,

=0

por lo tanto,
Qk (x) =

k
X
=0

hPn , Qk i =

k
X
=0

b hPn , P i =

=0

b P (x) ,

=0
k
X
=0

b A n = 0 ,

si n > k.

=0

q.e.d.
Teorema 11.2 Los ceros de los polinomios ortogonales son reales y simples.
Demostraci
on Consideremos el polinomio Pn+1 (x) que tiene n + 1 races. Por el teorema
anterior
Z b
hQk , Pn+1 i =
Qk (x)Pn+1 (x)p(x) dx = 0
kn.
a

Supongamos que Pn+1 (x) no tiene races reales en [a, b]. Al considerar Qk = 1 obtenemos
Z b
1 Pn+1 (x)p(x) dx 6= 0 .
a

Esto contradice lo anterior, lo que significa que Pn+1 tiene por lo menos una raz en [a, b].
Sea esa raz. Podemos factorizar Pn+1 como
Pn+1 (x) = (x )Sn (x).

137

DE RECURRENCIA
11.3. RELACION
Si n 1 se debe tomar Qk = (x ), y como por un lado debe cumplirse
hPn+1 , x i = 0 ,
y por otro lado, de (11.1),
hPn+1 , x i =

(x )2 Sn (x)p(x) dx 6= 0

si Sn (x) no tiene una raz en [a, b], hay nuevamente contradiccion. Por lo tanto, Sn (x) tiene
por lo menos una raz en [a, b]. Siguiendo con este procedimiento encontramos que Pn+1 (x)
tiene n + 1 races reales.
Nos falta demostrar que las races son simples. Sea x = una raz no simple, es decir,
Pn+1 (x) = (x )m Sn+1m (x) ,

con m 2 .

Si m es par, sea Qk (x) = Sn+1m (x).


Si m es impar, sea Qk (x) = (x )Sn+1m (x).
Supongamos que m es impar por simplicidad (si m es par la demostracion es analoga),
entonces
Z b
hPn+1 , Qk i =
(x )m Sn+1m (x)(x )Sn+1m (x) p(x) dx
a
Z b
(x )m+1 [Sn+1m (x)]2 p(x) dx 6= 0 ,
=
a

distinta de cero porque cada factor de la funcion subintegral es positivo, en los dos primeros
casos por ser las potencias pares y en el u
ltimo por definicion de p(x). Por otra parte,
grado[Qk (x)] = n + 1 m + 1 = (n + 1) (m 1) < n + 1, luego
hPn+1 , Qk i = 0 ,
lo cual contradice el resultado anterior. Por lo tanto, las races deben ser simples.

q.e.d.

Teorema 11.3 Teorema de unicidad (sin demostraci


on)
Si {Pn (x)}nN0 y {Qn (x)}nN0 son dos conjuntos de polinomios ortogonales que satisfacen
la misma relacion de ortogonalidad en [a, b], entonces son iguales. Es decir, si
Z b
Z b

Pn (x)Pm (x)p(x) dx =
Qn (x)Qm (x)p(x) dx = Pn (x) = Qn (x) .
a

11.3.

Relaci
on de recurrencia

Sea {Pn (x)}nN0 un conjunto de polinomios ortogonales. Se tiene


Pn (x) = an xn + bn xn1 + cn xn2 +
Pn1 (x) = an1 xn1 + bn1 xn2 + cn1 xn3 +
Pn+1 (x) = an+1 xn+1 + bn+1 xn + cn+1 xn1 + .

(11.3a)
(11.3b)
(11.3c)

138

CAPITULO 11. POLINOMIOS ORTOGONALES

Luego se puede escribir


xPn (x) =

n+1
X

nj Pj (x) = n0 P0 + n1 P1 + + n n+1 Pn+1 ,

j=0

donde, si suponemos adicionalmente que los Pn (x) estan normalizados,


nj =

p(x)xPn (x)Pj (x) dx = jn


.

(11.4)

Por el Teorema 11.1, vemos que nj 6= 0 solo si n = j, j 1, j + 1, luego


xPn (x) = n n+1 Pn+1 (x) + n n Pn (x) + n n1 Pn1 (x) .

(11.5)

Reemplazando (11.3) en (11.5) y comparando potencias, obtenemos para los coeficientes


n n+1 =

an
,
an+1

n n =

bn
bn+1

,
an an+1

n1 n =

an1
.
an

[n n+1 y n n se obtienen facilmente de (11.5); n1 n se obtiene simplemente desplazando en


1 los subndices para n n+1 , lo cual permite obtener n n1 por la simetra (11.4).] Reemplazando en (11.5) estos resultados, tenemos finalmente


an
bn
bn+1
an1
Pn+1 (x) +

x Pn (x) +
Pn1 (x) = 0
an+1
an an+1
an

(11.6)

Captulo 12
Polinomios de Hermite
versi
on 20 octubre 2009

En este captulo revisaremos una tipo particular de polinomios ortogonales, los polinomios de Hermite. Introduciremos el concepto de funcion generatriz, muy u
til para encontrar
relaciones de recurrencia entre polinomios ortogonales y demostrar diversos tipos de igualdades que involucran a los mismos, y encontraremos la ecuacion diferencial que satisfacen estos
polinomios, y que resultara ser de interes fsico.

12.1.

Definici
on

Definimos los polinomios de Hermite por:


2

Hn (t) = (1)n et

dn t2
e
.
dtn

(12.1)

{Hn (t)}nN son polinomios de grado n. Se tiene que:


Hn (t) = (1)n Hn (t) ,

(12.2)

es decir, Hn es par si n es par, e impar si n es impar.


Los primeros polinomios de Hermite son:
H0 (t) = 1
H1 (t) = 2t
H2 (t) = 4t2 2
H3 (t) = 8t3 12t
H4 (t) = 16t4 48t2 + 12

12.2.

Funci
on generatriz

Consideremos la funcion
2

(t, x) = et e(tx) = e2txx .


139

(12.3)

140

CAPITULO 12. POLINOMIOS DE HERMITE

Su desarrollo en serie de Taylor sera:


(t, x) =

X
An (t)
n=0

Como
se tiene

n!


n
An (t) =
.
xn x=0

x ,

=
(1) ,
x
(t x)

n t2

n
(tx)2
n
n t2 d e
An (t) = e
e
(1) = (1) e
= Hn (t) ,

(t x)n
dtn
x=0
t2

luego
2

e2txx =

X
Hn (t)
n=0

n!

xn .

(12.4)

Se dice que e
es la funcion generatriz de los polinomios de Hermite, vale decir, es
aquella funcion de dos variables tal que su desarrollo de Taylor en una de las variables tiene
como coeficientes precisamente los polinomios de Hermite.
A partir de (12.4) se pueden encontrar relaciones entre los polinomios de Hermite. La
estrategia para hallarlas (para esta o cualquier otra funcion generatriz de otros polinomios)
es tpica: derivar parcialmente respecto a alguna de las variables y luego comparar potencias
de x en los desarrollos en Taylor resultantes.
2txx2

1) Derivando respecto a t:

= 2x .
t
Usando (12.4):



X
X
Hn (t) n+1
1 d
n
Hn (t) x =
2x
.
n! dt
n!
n=0
n=0
Reordenando la suma en el lado izquierdo:

X
2Hn (t)
n=0

n!

n+1

H00 (t)

0
X
Hm+1
(t) m+1
+
x
.
(m + 1)!
m=0

Comparando los coeficientes de las potencias de x en cada serie encontramos:


H00 (t) = 0 ,
1
2Hn (t) =
H 0 (t) ,
n + 1 n+1
lo cual puede ser reescrito en la forma
2nHn1 (t) = Hn0 (t) ,

n0.

(12.5)

141

GENERATRIZ
12.2. FUNCION

Observemos que, si bien solo tiene sentido considerar polinomios de Hermite con ndice positivo, la expresion (12.5) puede ser extendida a n = 0, aunque ello haga aparecer un factor
H1 . En general, las relaciones de recurrencia que obtendremos pueden considerarse validas
para cualquier ndice entero, adoptando la convencion de que los polinomios con subndices
negativos tienen alg
un valor adecuado, por ejemplo, cero.
La relacion (12.5) expresa un polinomio de Hermite en terminos de un operador (en
este caso la derivada) aplicado sobre el polinomio de Hermite inmediatamente superior. Un
operador que tiene tal propiedad se denomina operador de bajada. En este caso, el operador
de bajada de los polinomios de Hermite es (2n)1 dt .
2) Derivando respecto a x:

= (2t 2x) .
x

Con (12.4):

X
X
X
Hn (t) n1
Hn (t) n
Hn (t) n+1
x
= 2t
x 2
x
(n 1)!
n!
n!
n=1
n=0
n=0

X
Hn+1 (t)
n=0

n!

x =
n

X
2tHn (t)
n=0

n!

X
2Hn1 (t)
n=1

(n

1)!

xn

Comparando potencias de x:

O bien

H1 (t) = 2tH0 (t) ,


Hn+1 (t) = 2tHn (t) 2nHn1 (t) ,

n1.

Hn+1 (t) = 2tHn (t) 2nHn1 (t) ,

n0.

(12.6)

3) Podemos utilizar las dos relaciones de recurrencia (12.5) y (12.6) para obtener una tercera:
Hn+1 (t) = 2tHn (t) Hn0 (t) .

(12.7)

Hemos pues encontrado el operador de subida para los polinomios de Hermite, a saber,
2t dt .
Derivando (12.7):
0
Hn+1
= 2Hn + 2tHn0 Hn00 .

Con (12.5),
2(n + 1)Hn = 2Hn + 2tHn0 Hn00 ,
o sea,

Hn00 2tHn0 + 2nHn = 0 .

Es decir, los polinomios Hn son una solucion de la ecuacion de Hermite:


y 00 (t) 2ty 0 (t) + 2ny(t) = 0 .

(12.8)

142

CAPITULO 12. POLINOMIOS DE HERMITE

12.3.

Ortogonalidad

Evaluemos
I=

Hm (t)Hn (t)et dt .

Sin perdida de generalidad, sea n m. Podemos escribir


2

dn et
Hm (t)
.
dtn

I = (1)

Integrando por partes:


I = (1)

n+1

2m

Hm1 (t)

dn1 t2
e dt .
dtn1

Integrando por partes m veces:


I = (1) (1) 2 m!
m

n m

H0 (t)

dnm t2
e dt .
dtnm

Si m < n, entonces
I = (1)

2 m!

n+m m


dnm t2
dnm1 t2
n+m m
e dt = (1)
2 m! nm1 e
=0.
dtnm
dt

Si n = m,
I = 2 n!
n

2
et dt = 2n n! .

Resumiendo,
Z

2
Hm (t)Hn (t)et dt = 2n n! nm .

(12.9)

Podemos expresar este resultado diciendo que los polinomios de Hermite son ortogonales,
2
pero con una funcion de peso p(t) = et .
Si definimos las funciones
2
Hn (t)et /2
n (t) = p
(12.10)
,
2n n!
es claro que {n }n es un conjunto ortonormal:
Z

n (t)m (t) dt = nm .

(12.11)

143

12.4. ALGUNOS RESULTADOS INTERESANTES

12.4.

Algunos resultados interesantes

(a) Es facil demostrar que las funciones n definidas en (12.10) satisfacen la ecuacion diferencial
y 00 t2 y = (2n + 1)y
(12.12)
[con la condicion de borde y() = 0], que es precisamente la ecuacion de Schrodinger
para el oscilador armonico.
(b) Sea n () = F{n (t), }. Dado que se cumple
00n + (2n + 1 t2 )n = 0 ,
se puede demostrar que n () satisface
00n () + (2n + 1 2 )n () = 0 ,

(12.13)

es decir, la misma ecuacion diferencial que n (t). En otras palabras, la transformada


de Fourier de n (t) es esencialmente ella misma. Un resultado que, en alg
un sentido,
podramos haber esperado. En efecto, notemos que la funcion 0 es una gaussiana, y ya
sabemos que esta tiene como transformada de Fourier precisamente otra gaussiana. Esto
no es cierto para n en general, pero el hecho de que, al menos, n y n satisfagan la
misma ecuacion diferencial es sugerente.

12.5.

Soluci
on por serie de la ecuaci
on de Hermite

En este captulo partimos entregando la definicion de los polinomios de Hermite, y eventualmente encontramos la ecuacion diferencial que ellos satisfacen. Ahora seguiremos el camino inverso, partiendo de la ecuacion de Hermite y resolviendola.
Consideremos para ello la ecuacion de Hermite (12.8), pero generalicemosla ligeramente:
y 00 2ty 0 + 2y = 0 .

(12.14)

Busquemos soluciones con un cierto desarrollo de Taylor:


y(t) =

(12.15)

a t .

=0

Reemplazando en (12.14):

[a+2 ( + 2)( + 1) 2a + 2a ]t = 0 ,

=0

2a 2a + a+2 ( + 1)( + 2) = 0 ,

0,

es decir, obtenemos una relacion de recurrencia para los coeficientes de la serie:


a+2 =

2( )
a .
( + 1)( + 2)

Se desprenden las siguientes consecuencias:

(12.16)

144

CAPITULO 12. POLINOMIOS DE HERMITE

a) Hay dos series independientes, la de coeficientes con ndice par, que depende solo de a0 , y
la de coeficientes con ndice impar, que depende solo de a1 . Por tanto, hay dos coeficientes
arbitrarios, a0 y a1 , y por ende dos soluciones linealmente independientes.
b)

2( )
2
a+2
=
'
a
( + 1)( + 2)

si  1,

lo cual significa que el radio de convergencia de la serie es infinito. Vale decir, las soluciones
no tienen singularidades en el plano.
c) La ecuacion tiene por solucion un polinomio solo si N . Si es par, hay que tomar
a0 6= 0 y a1 = 0. Si es impar, hay que tomar a0 = 0 y a1 6= 0.
d) Si 6 N , y si la solucion es par o impar, entonces ( )/[( + 1)( + 2)] > 0 desde
cierto 0 en adelante, de modo que los a tienen todos el mismo signo para > 0 . Esto
es, la serie tiene un crecimiento rapido cuando t .
Es posible mostrar, a partir de la relacion de recurrencia (12.16), que, si es entero, los
polinomios resultantes son precisamente los polinomios de Hermite.

Captulo 13
Polinomios de Laguerre
versi
on final 3.2-13 enero 2003

13.1.

Definici
on

Definici
on 13.1 Definimos el conjunto de los polinomios de Laguerre {Ln (t)}nN0 mediante
una cualquiera de las siguientes ecuaciones:
dn n t 
= (1)n tn + + n! ,
Ln (t) = e n t e
dt
n    n n  t
X
n
d t
d e
t
Ln (t) = e
,
n

dt
dt
=0
 
n
n
X
n! X
n! n!
n
(1)
t =
t .
Ln (t) =
(1)
2

!
(n

)!
(!)
=0
=0
t

(13.1a)
(13.1b)
(13.1c)

Algunos de los polinomios en forma explcita:


L0 (t)
L1 (t)
L2 (t)
L3 (t)
L4 (t)

13.2.

=
=
=
=
=
..
.

1
t + 1
t2 4t + 2
t3 + 9t2 18t + 6
t4 16t3 + 72t2 96t + 24

Funci
on generatriz

Definici
on 13.2 La funcion generatriz (t, x) esta definida por la siguiente relacion:
(t, x) =

X
Ln (t)
n=0

145

n!

xn .

(13.2)

146

CAPITULO 13. POLINOMIOS DE LAGUERRE

Usando (13.1c) obtenemos:


(t, x) =

 
X
n
X
(1) n
!

n=0 =0

t xn

Cambiemos el orden de suma. El primer grafico corresponde a la forma en que estabamos


sumando: fijamos un n en el eje horizontal, con n = 1, . . . , y luego consideramos los v
variando desde 1 a n (flechas verticales hacia arriba). El segundo corresponde a la misma
suma pero hecha de forma diferente: fijamos un en el eje vertical, con = 1, . . . , y luego
consideramos los n variando desde a (flechas horizontales hacia la derecha).

r6
6
r r
6
r r r
r6 r r r
6
r r r r r

6
r r r r r r
r r r r r r

Obtenemos
(t, x) =

r
r
r
r

r
r
r

r
r

X
(1)

=0 n=

r
r
r
r
r
r

r
r
r
r
r

rrrrrrr

 
n
t
xn .

Haciendo el cambio de ndice m = n :




X

X
(1) m +
(t, x) =
t
xm+ .
!

=0 m=0
Reordenando
(t, x) =

X
(1)
=0

Pero



X
m+
m=0

x =
m

!


t x



X
m+

m=0

1
1x

+1

xm .

cuando | x | < 1 ,

luego
(t, x) =

X
(1)
=0

x
1x

1
1 X (1)
=
1x
1 x =0 !

tx
1x


.

Finalmente
1
exp
(t, x) =
1x

tx
1x

X
Ln (t)
n=0

n!

xn

(13.3)

147

13.3. RELACIONES DE RECURRENCIA

13.3.

Relaciones de recurrencia

Reescribamos la definicion de la funcion generatriz





X
tx
Ln (t) n
exp
= (1 x)
x .
1x
n!
n=0

(13.4)

Derivemos respecto a x:
t
exp
(1 x)2

tx
1x

X
Ln (t) (n1) X Ln (t) n
= (1 x)
x

x .
(n 1)!
n!
n=1
n=0

Usando (13.4) y comparando coeficientes de x,


Ln+1 (t) + (t 2n 1)Ln (t) + n2 Ln1 (t) = 0

(13.5)

De la misma manera, derivando (13.4) respecto a t, se obtiene


L0n (t) n L0n1 (t) + n Ln1 (t) = 0

13.4.

n1.

(13.6)

Ecuaci
on de Laguerre

Diferenciando dos veces (13.4) respecto a t,


L00n+2 (t) + (t 2n 3)L00n+1 (t) + (n + 1)2 L00n (t) + 2L0n+1 (t) = 0 .
De (13.6) tenemos

L0n+1 (t) = (n + 1) [L0n (t) Ln (t)] ,

(13.7)
(13.8)

de donde obtenemos, derivando nuevamente,


L00n+1 (t) = (n + 1) [L00n (t) L0n (t)] .

(13.9)

Cambiando n n + 1,


L00n+2 (t) = (n + 2) L00n+1 (t) L0n+1 (t) .
Usando (13.8) y (13.9),
L00n+2 (t) = (n + 2)(n + 1) [L00n (t) L0n (t) L0n (t) + Ln (t)] ,
L00n+2 (t) = (n + 2)(n + 1) [L00n (t) 2L0n (t) + Ln (t)] .

(13.10)

Reemplazando (13.8), (13.9) y (13.10) en (13.7),


(n + 2)(n + 1) [L00n (t) 2L0n (t) + Ln (t)] + (t 2n 3)(n + 1) [L00n (t) L0n (t)]
+(n + 1)2 L00n (t) + 2(n + 1) [L0n (t) Ln (t)] = 0
(n + 1) (n + 2 + t 2n 3 + n + 1) L00n (t) + (n + 1) (2n 4 t + 2n + 3 + 2) L0n (t)
+(n + 1) (n + 2 2) Ln (t) = 0
00
(n + 1) t Ln (t) + (n + 1) (1 t) L0n (t) + (n + 1)n Ln (t) = 0 .

148

CAPITULO 13. POLINOMIOS DE LAGUERRE

Dividiendo por (n + 1) obtenemos


t L00n (t) + (1 t) L0n (t) + n Ln (t) = 0

(13.11)

Es decir, Ln (t) es una solucion de la ecuacion de Laguerre


t y 00 (t) + (1 t) y 0 (t) + n y(t) = 0 .

(13.12)

Consideremos esta ecuacion, pero en una forma mas general:


t y 00 (t) + (1 t) y 0 (t) + y(t) = 0 .
Buscando soluciones del tipo
y(t) =

a t ,

=0

es facil demostrar que los a satisfacen la siguiente relacion de recurrencia:


a+1 =

a .
( + 1)2

Lo anterior tiene varias consecuencias:


(i) El coeficiente a0 puede elegirse libremente, quedando a1 , a2 , . . . as determinados por a0 .
Se obtiene un espacio de soluciones de dimension uno. Para encontrar la otra solucion
linealmente independiente hay que analizar ecuaciones del tipo
f 00 + p(z)f 0 + q(z)f = 0 .
Esto se hara en el captulo siguiente.
(ii) Al hacer el cuociente entre los coeficientes tenemos
a+1
1
= .
a

Esto implica radio de convergencia infinito para la serie.


(iii) Los valores = 0, 1, 2, 3, . . . son excepcionales: dan soluciones polinomiales.
(iv) Si 6 N0 todos los coeficientes de ndice suficientemente grande son positivos o negativos. Esto implica un crecimiento muy rapido.

13.5.

Ortogonalidad

Consideremos
I=

Z
0

tm Ln (t) et dt ,

con m < n .

149

13.5. ORTOGONALIDAD
Sea m > 0, entonces
I=

tm

dn n t 
dt ,
t e
dtn

integrando por partes,


t


Z
n1

dn1 n t 
m1 d
n t
dt .
t
e

m
t
t
e

dtn1
dtn1
0
0

Integrando n veces por partes se obtiene entonces


Z nm

d
n
n t
I = (1) m!
t
e
dt .
dtnm
0
Si m < n,


dnm1 n t 
I = (1) m! nm1 t e = 0 ,
dt
0
n

luego

Ln (t) Lm (t) et dt = 0

si m < n .

Por simetra la integral va a ser nula siempre que m 6= n.


Si m = n,
Z
Z
2
t
n
n
Ln (t) e dt = (1) (1) n!
tn et dt = (n!)2 .
0

Resumiendo ambos casos,


Z

Ln (t) Lm (t) et dt = (n!)2 nm

(13.13)

Basados en la relacion de ortogonalidad (13.13) podemos definir un conjunto de funciones


n (t) =
Claramente

1
Ln (t) et/2 .
n!

(13.14)

n (t) m (t) dt = nm .

Es decir, el conjunto {n (t)}nN0 corresponde a un conjunto de funciones ortonormales en el


intervalo [0, ).
A partir de (13.14) podemos despejar los polinomios de Laguerre
Ln (t) = n! et/2 n (t) ,
y usando la ecuacion diferencial (13.11) que satisfacen, encontramos la ecuacion para las
funciones n (t):


1 t
00
0
t n (t) + n (t) + n +
n (t) = 0 .
(13.15)
2 2
Ademas, n (t) satisface
lm n (t) = 0

lm n (t) < .
t0

150

13.6.

CAPITULO 13. POLINOMIOS DE LAGUERRE

Polinomios asociados de Laguerre

Al diferenciar m veces la ecuacion (13.11) obtenemos


(t) + (m + 1 t) L(m+1)
(t) + (n m) L(m)
t L(m+2)
n
n
n (t) = 0 .
Podemos definir un nuevo conjunto de polinomios
Lm
n (t) =

dm
Ln (t)
dtm

para n m ,

(13.16)

conocidos como los polinomios asociados de Laguerre. Los cuales son soluciones de la siguiente
ecuacion diferencial:
t y 00 (t) + (m + 1 t) y 0 (t) + (n m) y(t) = 0 .

(13.17)

Algunos de los primeros polinomios son:


L11 = 1 ,
L12 = 4 + 2t ,
L13 = 18 + 18t 3t2 ,

L22 = 2 ,
L23 = 18 6t ,

L33 = 6 .

La funcion generatriz
m (t, x) = (1) x

m m

exp

tx
1x

= (1 x)

m+1

X
Lm
n (t) n
x .
n!
n=m

(13.18)

Utilizando esta ecuacion podemos obtener las relaciones de recurrencia


d m
L (t) = Lm+1
(t) ,
n
dt n
m
m+1
Lm
(t) + n2 Lm
n+1 (t) + (t 2n 1)Ln (t) + m Ln
n1 (t) = 0 ,
m
m
m1
Ln (t) n Ln1 (t) + n Ln1 (t) = 0 .

(13.19)
(13.20)
(13.21)

Finalmente, en forma analoga a lo que hicimos con los polinomios de Laguerre podemos definir
las funciones ortogonales a partir de los polinomios asociados de Laguerre de la siguiente
forma:
(13.22)
Rn ` (t) et/2 t` L2`+1
n+` (t) .
Estas funciones satisfacen la ecuacion diferencial


1 n `(` + 1)
d2 y(t) 2 dy(t)
+

+
y(t) = 0 .
dt2
t dt
4
t
t2

(13.23)

Esta ecuacion aparece en Mecanica Cuantica al resolver el atomo de Hidrogeno. Especficamente, corresponde a la ecuacion radial de Schrodinger para la funcion de onda del atomo
de Hidrogeno.

Captulo 14
El problema de Sturm-Liouville
versi
on 26 octubre 2009

Una gran cantidad de problemas fsicos estan descritos por ecuaciones diferenciales en
las que interviene un operador Laplaciano (la ecuacion de Laplace, la ecuacion de onda,
la ecuacion de Schrodinger, etc.). Matematicamente, estas ecuaciones corresponden a casos
particulares del problema de Sturm-Liouville, vale decir, ecuaciones de autovalores para un
un operador diferencial autoadjunto. Las propiedades que demostramos en general para los
polinomios ortogonales (Cap. 11), y reencontramos en dos casos particulares (Caps. 12 y
13), son en realidad propiedades generales de las soluciones de problemas de Sturm-Liouville,
como veremos en este captulo.
De hecho, este captulo tiene importancia no solo porque permite mirar los resultados
obtenidos en los tres captulos anteriores desde una perspectiva general. En efecto, notemos
que, hasta el Captulo anterior, siempre hemos resuelto, en el fondo, el mismo problema:
sabiendo que el espacio de funciones es un espacio vectorial, expandir cualquier funcion
en una base (o, al menos, un conjunto ortogonal de vectores) de dicho espacio vectorial.
Primero lo hicimos para funciones exponenciales (serie de Fourier, transformada de Fourier,
transformada de Laplace), y luego para funciones polinomiales. Pero nunca hemos dicho nada
es precisamente el valor del Captulo
de como encontrar la base del espacio vectorial. Ese
actual y los siguientes: tendremos un modo sistematico para encontrar la base del espacio de
funciones. Dicha base provendra precisamente de resolver el problema de autovalores de un
operador diferencial autoadjunto.

14.1.

Operadores diferenciales autoadjuntos

Consideremos el operador diferencial L de la forma:




d
d2
Lu(x) = p0 (x) 2 + p1 (x) + p2 (x) u(x) ,
dx
dx

(14.1)

donde u(x) es una funcion compleja dos veces diferenciable, y los {pj (x)} son funciones reales
que cumplen:
p000 (x), p01 (x), p2 (x) existen y son continuas en [a, b].
151

152

CAPITULO 14. EL PROBLEMA DE STURM-LIOUVILLE


p0 (x) no tiene ceros en (a, b).

p0 (x) puede (y suele) tener ceros en los extremos del intervalo, y el intervalo [a, b] podra
ser semi-infinito o infinito.
Consideremos una segunda funcion derivable dos veces, v(x). Definimos
Z b
dx v (x)Lu(x) .
(14.2)
hv | L | u i hv, Lui =
a

Integrando por partes y usando la continuidad de p00 (x) y p1 (x),


b Z b
Z b

dx u(x)[v (x)p1 (x)]0 ,


dx v (x)p1 (x)u (x) = v (x)u(x)p1 (x)
a

y
Z

dx v (x)p0 (x)u (x) =

00

b Z b

v (x)u (x)p0 (x)
dx u0 (x)[v (x)p0 (x)]0

b Z b

{v (x)u0 (x)p0 (x) u(x)[v (x)p0 (x)]0 } +
dx u(x)[v (x)p0 (x)]00 .
a

Entonces, podemos escribir


hv | L | u i =

dx u(x)Lv (x)

u(x)v (x)[p1 (x)

p00 (x)]


b
+ p0 (x)[u (x)v (x) u(x)v (x)] , (14.3)
0

donde
d2
d
[p0 (x)u(x)] [p1 (x)u(x)] + p2 (x)u(x) ,
2
dx
dx


2
d
d
0
0
00
Lu(x) = p0 (x) 2 + [2p0 (x) p1 (x)] + [p2 (x) p1 (x) + p0 (x)] u(x)
dx
dx
Lu(x) =

es el operador adjunto a L.
Si

L=L,

decimos que L es autoadjunto.


Comparando (14.1) y (14.4), se sigue que L es autoadjunto si y solo si
2p00 (x) p1 (x) = p1 (x)
y
[p1 (x) p00 (x)]0 = 0 ,

(14.4a)
(14.4b)

(14.5)

153

14.2. OPERADORES AUTOHERMITICOS


es decir, si

p00 (x) = p1 (x) .

(14.6)

Muchos problemas interesantes corresponden a operadores autoadjuntos; por ejemplo, el


oscilador armonico simple, mientras que otros, como las ecuaciones de Hermite y Laguerre,
no. Sin embargo la teora de operadores diferenciales autoadjuntos de segundo orden es completamente general, pues cualquier operador de segundo orden puede ser transformado a una
forma autoadjunta. En efecto, puesto que p0 (x) no tiene ceros en (a, b), consideremos
Z x

p1 (t)
1
exp
dt
,
h(x) =
p0 (x)
p0 (t)
x0
y definamos
p0 (x) = h(x)p0 (x) ,
p1 (x) = h(x)p1 (x) .
Entonces
d
p0 (x) =
exp
dx
0

Z

x0


Z x

p1 (x)
p1 (t)
p1 (t)
=
exp
= p1 (x) ,
dt
dt
p0 (t)
p0 (x)
p0 (t)
x0

es decir, h(x)L es autoadjunto.


Usando (14.6), y definiendo A(x) = p0 (x), B(x) = p2 (x), se sigue que todo operador
autoadjunto se puede escribir en la forma:


d
du(x)
Lu(x) =
A(x)
+ B(x)u(x) .
(14.7)
dx
dx
Ademas, para operadores autoadjuntos (14.3) queda
hv | L | u i =

dx u(x)Lv (x) +

14.2.

b

A(x)[u (x)v (x) u(x)v (x)] .
0

(14.8)

Operadores autohermticos

Limitemonos ahora a un subespacio H de nuestro espacio de funciones, en el cual se


cumple


du(x)
du(x)
v (x)
= A(x)
v (x)
, u, v H .
(14.9)
A(x)
dx
dx
x=a
x=b
Es inmediato mostrar que H es un espacio vectorial.
Entonces, de (14.8) se sigue que, si u(x), v(x) H, y si L es autoadjunto, entonces
hv, Lui =

dx u(x)Lv(x) = hLv, ui .

Se dice entonces que L es autohermtico en H.

(14.10)

154

14.3.

CAPITULO 14. EL PROBLEMA DE STURM-LIOUVILLE

Problema de autovalores

Sea w(x) una funcion real positiva, la cual a lo mas puede tener ceros aislados en [a, b]
(funcion de peso). Consideremos la ecuacion
Lu(x) + w(x)u(x) = 0 ,

C,

(14.11)

con determinadas condiciones de borde (en este caso, nos interesaran las condiciones que
determinan el subespacio H). Las soluciones de (14.11), debido precisamente a las condiciones
de borde, no existen para todo , sino para cierto n
umero discreto {i }iN , asociados a
ciertas funciones {ui }iN . Los i se denominan autovalores y las funciones asociadas ui ,
autofunciones.
Se pueden mostrar las siguientes propiedades:
Proposici
on 14.1 Los autovalores de un operador autohermtico son reales.
Demostraci
on Sean j , k autovalores asociados a autofunciones uj (x), uk (x), respectivamente. Entonces
Luj (x) + j w(x)uj (x) = 0 ,
Luk (x) + k w(x)uk (x) = 0 .
Multiplicando la primera ecuacion por uk (x) e integrando en [a, b]:
huk , Luj i + j

dx uk (x)w(x)uj (x) = 0 .

Haciendo algo similar con la segunda ecuacion, pero multiplicando por uj (x),
hLuk , uj i + k

dx uj (x)w(x)uk (x) = 0 .

Restando ambas expresiones, y usando (14.10),


(j

k )

uk (x)w(x)uj (x) = 0 .

(14.12)

Ahora, si j = k,
0 = (j

j )

| uj (x) |2 w(x) .

Como w(x) 0, existen soluciones uj (x) no triviales si solo si


j = j ,
es decir, j R.

q.e.d.

155

14.3. PROBLEMA DE AUTOVALORES

Proposici
on 14.2 Las autofunciones de un operador autohermtico se pueden elegir ortogonales entre s.
Demostraci
on Si escogemos ahora j 6= k , entonces de (14.12) se sigue que
Z b
dx uk (x)w(x)uj (x) ,
0=
a

es decir uk (x) y uj (x) son ortogonales con funcion de peso w(x). (Incidentalmente, vemos
que la generalizacion del producto interno introducida en (11.1) emerge naturalmente al
considerar el problema de autovalores de un operador autohermtico.)
Por lo tanto, autofunciones asociadas a autovalores distintos son ortogonales. Sin embargo,
puede ocurrir que mas de una autofuncion este asociada al mismo autovalor, es decir, que un
autovalor sea degenerado. Es facil mostrar que las funciones asociadas a un mismo autovalor
forman un espacio vectorial. En efecto, si uj,1 (x), uj,2 estan asociadas al autovalor j , se tiene
Luj,1 + j w(x)uj,1 = 0 ,
Luj,2 + j w(x)uj,2 = 0 .
Entonces una combinacion lineal de ellas tambien es autofuncion de L con el mismo autovalor:
X
X
X
[Luj, + j w(x)uj, ] = 0 .
uj, =
uj, + j w(x)
L
=1,2

=1,2

=1,2

Por lo tanto, es posible encontrar una base ortogonal del subespacio asociado a j (va GramSchmidt). Procediendo as con todos los subespacios de degeneracion, podemos finalmente
construir una base ortogonal para el espacio de funciones completo.
q.e.d.
Proposici
on 14.3 Las autofunciones de un operador autohermtico forman una base del
espacio H.
Demostraci
on (Discusion)
La completitud de un conjunto de funciones usualmente se determina comparando con
una serie de Laurent. Por ejemplo, para polinomios ortogonales, es posible encontrar una
expansion polinomial para cada potencia de z:
n
X
n
z =
ai Pi (z) ,
i=0

donde Pi (z) es el i-esimo polinomio. Una funcion f (z) se puede entonces expandir en una serie
de Laurent, y en definitiva en una combinacion lineal de los polinomios Pi (z). As, podemos
mostrar que la expansion polinomial existe y que es u
nica. La limitacion de este desarrollo
en serie de Laurent es que f (z) debe ser analtica. Las funciones pueden ser mas generales
que eso (recordemos la expansion de la funcion dientes de sierra en series de Fourier, por
ejemplo). Una demostracion de que nuestras autofunciones de problemas de Sturm-Liouville
son completas aparece en el libro de Courant y Hilbert [R. Courant y D. Hilbert, Metodos
de la Fsica Matematica, Vol. 1, Cap. 6, Sec. 3].
q.e.d.

156

14.4.

CAPITULO 14. EL PROBLEMA DE STURM-LIOUVILLE

Ejemplos de funciones ortogonales

Distintas elecciones del operador diferencial L (es decir, de las funciones A(x) y B(x) en
(14.7), de la funcion de peso w(x) en el problema de autovalores asociado, y del intervalo
[a, b] que determina las condiciones de borde (14.9), generan diversas funciones especiales.
Algunos ejemplos ya han aparecido en problemas fsicos de gran interes. Por ejemplo, el
oscilador armonico se puede ver como un problema de autovalores del operador diferencial
L=

d2
,
dt2

que evidentemente es autoadjunto, pues p0 (t) = 1 y p1 (t) = 0. En este caso, el problema de


autovalores se puede escribir
Lu(t) + 2 u(t) = 0 ,
que corresponde a un autovalor 2 , y una funcion de peso w(t) = 1, de modo que las autofunciones deberan ser ortogonales bajo el producto interno usual (que es efectivamente el
caso, pues las autofunciones son las exponenciales complejas).
Tambien las ecuaciones de Hermite, de Laguerre, y de Laguerre asociada, se pueden escribir en la forma de un problema de autovalores para un operador diferencial autoadjunto. Estas
y otras funciones ortogonales, de interes en problemas fsicos, y relacionadas con problemas
de autovalores, aparecen en la siguiente tabla:

xk ex

xk+1 ex

ex

ex

xex

(1 x2 ) 2

(1 x2 )+ 2

ex

1 x2

(1 x2 )3/2

1 x2
1
1x2

m2
1x2

1 x2

w(x)
1

B(x)
0

A(x)
1 x2

b
1

a
1

a2

2n

nk

n(n + 2)

n(n + 2)

n2

l(l + 1)

l(l + 1)

n

1
1 ( 2 x)
(+ 21 )

R1

Hn (x) = ex

Ln (x) =

(m)

Ln (x) = ex

n

n

ex

Ln (x)
n

Ver captulo (19).

(1 x2 )+n 2

dt (1 t2 ) 2 cos(xt)

d
dx

(1 x2 )n+ 2

(xn ex )

d m
dx


d n
dx

Pl (x)
(1 x2 )n 2


d m
dx

d
dx

d
dx

d
dx

(n+1)

(2n+1)!! 1x2

1x2
(2n1)!!

(2)(+ 21 +n)(1x2 ) 2
2n n!(+ 12 )(2+n)

J (x) =

Cn (x) =

Un (x) =

Tn (x) =

Plm (x) = (1 x2 )m/2

Formula generatriz
 2
d l
Pl (x) = 221l! dx
(x 1)l

Las relaciones de ortogonalidad de las funciones de Bessel son atpicas: debemos reemplazar J (x) por J (xa ) en la ecuaci
on diferencial, con
J (a ) = 0, cumpliendose
Z 1
dx xJ (a x)J (a x) = cte. a ,a .

Bessela

Gegenbauer
(ultraesfericas)
Laguerre
(polinomios)
Laguerre
(asociados)
Hermite
(polinomios)

Funcion
Legendre
(polinomios)
Legendre
(asociados)
Chebyshev I
(polinomios)
Chebyshev II
(polinomios)

14.4. EJEMPLOS DE FUNCIONES ORTOGONALES


157

158

CAPITULO 14. EL PROBLEMA DE STURM-LIOUVILLE

Captulo 15
Ecuaciones diferenciales con
singularidades
versi
on 9 noviembre 2009

La ecuacion de Laplace que aparece naturalmente en problemas de electrostatica o


Mecanica Cuantica, por ejemplo se puede resolver por separacion de variables, y esto da,
para la parte radial en coordenadas esfericas, la ecuacion


1 d
QR
2 dR
r
+ k2R 2 = 0 ,
2
r dr
dr
r

donde k y Q son constantes. Esta


es una ecuacion diferencial con coeficientes que no solo
no son constantes, sino que son singulares (en r = 0). Muchos otros problemas dan origen a
ecuaciones que son tambien de la forma
f 00 (z) + p(z)f 0 (z) + q(z)f (z) = 0 .

(15.1)

El problema de encontrar soluciones a este tipo de problemas es complejo. El estudio de las


las singularidades de p(z) y q(z) es u
til pues permite clasificar las ecuaciones diferenciales, e
investigar la factibilidad de encontrar soluciones va expansion en serie (Teorema de Fuchs).
En este captulo veremos nociones u
tiles para trabajar con este tipo de ecuaciones; los aspectos
formales de esta discusion se encuentran en el captulo siguiente.

15.1.

Puntos singulares

Consideremos ecuaciones diferenciales de la forma (15.1).


Algunas definiciones u
tiles:
1. z0 es un punto ordinario si p(z0 ) y q(z0 ) son finitas.
2. z0 es un punto singular si p(z) o q(z), o ambas, divergen si z z0 .
3. z0 es un punto regular o singular no esencial si p(z) o q(z) divergen si z z0 , pero
(z z0 )p(z) y (z z0 )2 q(z) son finitas cuando z z0 .
159

160

CAPITULO 15. ECUACIONES DIFERENCIALES CON SINGULARIDADES

4. z0 es una singularidad irregular o esencial si (z z0 )p(z) o (z z0 )2 q(z) divergen si


z z0 . Es decir, si p(z) diverge mas rapido que 1/(z z0 ), o q(z) diverge mas rapido
que 1/(z z0 )2 .
Estas definiciones son validas para todo valor finito de z. El punto z se trata
introduciendo el cambio de variables s = 1/z, y luego haciendo s 0. Con dicho cambio de
variables, (15.1) queda
 

 
df
1
f
1
3
2
+q
+ 2s s p
f =0.
s
2
ds
s
ds
s
4d

(15.2)

con f (s) = f (z) = f (1/s). Luego, el comportamiento en z = (s = 0) esta dado por el


comportamiento de los nuevos coeficientes
p(s) =

2s p(1/s)
,
s2

q(s) =

q(1/s)
.
s4

(15.3)

Si son finitos, z = es un punto ordinario. Si divergen como 1/s y 1/s2 o mas lentamente,
respectivamente, z = es punto singular regular; si no, es un punto singular irregular o
esencial.
Ejemplo La ecuacion de Bessel,
x2 y 00 + xy 0 + (x2 n2 )y = 0 ,

(15.4)

solo tiene una singularidad regular en x = 0, y una singularidad irregular o esencial en


x = .

15.2.

Soluci
on por serie: m
etodo de Frobenius

El metodo de expansion en serie permite encontrar soluciones de ecuaciones diferenciales


lineales homogeneas de segundo orden. Siempre sera posible encontrar una solucion con este
metodo, siempre que la serie corresponda a una expansion en torno a un punto que sea
ordinario o punto singular regular.
Consideremos, por ejemplo, la ecuacion del oscilador armonico:
d2 y
+ 2y = 0 .
2
dx

(15.5)

Introduzcamos una solucion de la forma


y(x) = x

a x ,

a0 6= 0 .

(15.6)

=0

Ya hicimos algo similar al estudiar las ecuaciones de Hermite y Laguerre en los captulos anteriores. En esos casos, k = 0. Ahora nos interesa el caso general. De hecho, k no necesariamente

POR SERIE: METODO

15.2. SOLUCION
DE FROBENIUS

161

es un n
umero entero. Entonces:

dy X
=
a (k + )xk+1 ,
dx =0

d2 y X
=
a (k + )(k + 1)xk+2 ,
dx2
=0
de modo que, reemplazando en (15.5), se tiene

a (k + )(k + 1)x

k+2

=0

a xk+ = 0 .

(15.7)

=0

Esta igualdad implica que cada coeficiente, para todas las potencias de x, debe anularse. En
particular, el coeficiente de la menor potencia de x, xk2 :
a0 k(k 1) .
Puesto que a0 es el menor coeficiente no nulo de la serie,
k(k 1) = 0 .

(15.8)

Esta ecuacion, que proviene de anular el coeficiente de la menor potencia de x en (15.7), se


denomina ecuacion indicial. Sus races son de gran importancia para nuestro analisis. Para
el oscilador armonico, las races de la ecuacion indicial son
k=0,

k=1.

(15.9)

Por otro lado, de (15.7) se sigue, al anular el coeficiente de xk+j , con j = + 2, la relacion
de recurrencia
2
.
(15.10)
aj+2 = aj
(k + j + 2)(k + j + 1)
Como en el caso de la ecuacion de Hermite, esta relacion de recurrencia determina o solo los
terminos pares, o solo los impares, de modo que hay dos coeficientes arbitrarios, a0 y a1 .
Ahora bien, volviendo a las races de la ecuacion indicial, si k = 0, entonces el coeficiente
de xk2 en (15.7) se anula, y as a0 6= 0. Al mismo tiempo, el coeficiente de la siguiente
potencia de x, xk1 , es
a1 (k + 1)k = 0 ,
que tambien se satisface si k = 0. Por tanto, en este caso ambos coeficientes son arbitrarios.
Para k = 1, en tanto, el coeficiente de xk2 es cero, pero el de xk1 no es cero a menos que
a1 = 0. Como a1 es arbitrario si k = 0, y necesariamente cero si k = 1, escojamos a1 = 0.
De este modo, todos los coeficientes impares de la serie desaparecen. (En principio podemos
temer perdida de soluciones, pero el objetivo aqu es encontrar al menos una solucion; de
todos modos, los terminos impares reapareceran al considerar la segunda raz de la ecuacion
indicial.)

162

CAPITULO 15. ECUACIONES DIFERENCIALES CON SINGULARIDADES

Tomando entonces k = 0, la relacion de recurrencia queda


aj+2 = aj

2
,
(j + 2)(j + 1)

es decir,
2
2
= a0 ,
12
2!
4
2
=
a0 ,
a4 = a2
34
4!
2
6
a6 = a0
= a0 ,
56
6!
a2 = a0

etc. Podemos ver entonces (y mostrar por induccion) que


a2n = (1)n

2n
a0 ,
(2n)!

(15.11)

y la solucion es
(x)2 (x)4 (x)6
= a0 1
+

+
2!
4!
6!
= a0 cos(x) .


y(x)k=0
y(x)k=0


(15.12)

Con k = 1, en tanto, la relacion de recurrencia es


aj+2 = aj

2
,
(j + 3)(j + 2)

es decir
2
2
= a0 ,
23
3!
2
4
a4 = a2
=
a0 ,
45
5!
2
6
a6 = a0
= a0 ,
67
7!
a2 = a0

que conduce a
a2n = (1)n

2n
a0 .
(2n + 1)!

(15.13)

As,
y(x)k=1

y(x)k=1



(x)2 (x)4 (x)6
= a0 x 1
+

+
3!
5!
7!


a0
(x)3 (x)5 (x)7
(x)
+

+
=

3!
5!
7!
a0
=
sen(x) .

(15.14)


15.3. LIMITACIONES DEL METODO.
TEOREMA DE FUCHS

163

Por supuesto, hemos obtenido dos soluciones linealmente independientes que no son ninguna sorpresa, pero el metodo de Frobenius es general y nos permite estudiar cualquier
ecuacion diferencial homogenea lineal de segundo orden. Sin embargo, obtener una solucion
como una expansion en serie no significa que dicha solucion sea aceptable: eso depende de si
converge o no, lo cual no esta asegurado, y requiere un analisis separado.
En general, es posible usar este metodo expandiendo la solucion en torno a un punto x0
arbitrario, en cuyo caso (15.6) es reemplazada por
y(x) =

a (x x0 )k+ ,

a0 6= 0 .

(15.15)

=0

15.3.

Limitaciones del m
etodo. Teorema de Fuchs

Para el oscilador armonico encontramos, mediante el metodo de Frobenius, las dos soluciones linealmente independientes que bastan para describir todo el espacio de soluciones.
Es siempre posible ello? La respuesta es no. Ya sabemos un caso en el que no es posible:
la ecuacion de Laguerre (Sec. 13.4). Cuando introdujimos una solucion en la forma de una
serie de Taylor, resulto una relacion de recurrencia que determinaba todos los coeficientes
en terminos del primero, y por tanto el metodo de Frobenius en este caso permite encontrar
solo una solucion. Mas a
un, ni siquiera esta asegurado que, una vez determinados todos los
coeficientes, la serie sea convergente. En el caso de la ecuacion de Laguerre (13.12), a menos
que la serie termine y sea en realidad un polinomio, la serie diverge.
Bajo que condiciones es posible encontrar soluciones con el metodo de Frobenius? La
respuesta a esta pregunta involucra a las races de la ecuacion indicial y el grado de singularidad de los coeficientes en la ecuacion diferencial. Consideremos, a modo de ilustracion, las
siguientes ecuaciones simples:
6
y
x2
6
y 00 3 y
x
1
a2
y 00 + y 0 2 y
x
x
1
a2
y 00 + 2 y 0 2 y
x
x
y 00

=0,

(15.16)

=0,

(15.17)

=0,

(15.18)

=0.

(15.19)

En el primer caso, la ecuacion indicial es


k2 k 6 = 0 ,
con soluciones k = 3, k = 2. El metodo de Frobenius no da una relacion de recurrencia, de
modo que las dos soluciones son simplemente x3 y x2 .
El segundo caso difiere del primero solo en una potencia de x en el coeficiente de y, pero
esto es suficiente para cambiar radicalmente la estructura del problema: la ecuacion indicial
resulta ser
6a0 = 0 ,

164

CAPITULO 15. ECUACIONES DIFERENCIALES CON SINGULARIDADES

lo que es imposible pues a0 6= 0. As, vemos que en el caso (15.16), con una singularidad
regular en x = 0, el metodo de Frobenius da dos soluciones, pero simplemente no funciona
para (15.17), que tiene una singularidad esencial en x = 0.
Si ahora agregamos un termino con primera derivada en la forma (15.18), se obtiene la
ecuacion indicial
k 2 a2 = 0 ,
sin relacion de recurrencia, de modo que las soluciones son xa y xa .
Finalmente, si modificamos la ecuacion anterior cambiando en 1 la potencia del coeficiente
de y 0 , ejemplo (15.19), se tiene la ecuacion indicial
k=0,
que arroja solo un valor de k, y la relacion de recurrencia
aj+1

a2 j(j 1)
.
= aj
j+1

p
A menos que a sea tal que la serie se corte para alg
un j (es decir, si a = n(n 1), con
n N), se tiene


2
aj+1
= lm j(j + 1) = lm j = ,

lm
j
j j
aj j j + 1
es decir, la solucion por serie diverge para todo x 6= 0.
Nuevamente nuestra solucion tiene problemas con singularidades esenciales.
En general se puede mostrar que al menos una solucion en forma de serie de potencias
se puede obtener, siempre que la expansion sea en torno a un punto ordinario o un punto
singular regular. Este resultado constituye el Teorema de Fuchs. Una demostracion de este
teorema se encuentra en el Captulo 16. Se mostrara tambien en ese Captulo, y parcialmente
en la siguiente seccion, que la obtencion de una o dos soluciones a partir del metodo de
Frobenius depende de las races de la ecuacion indicial:
Si las dos races de la ecuacion indicial son iguales, se obtiene solo una solucion. (Ej.:
ecuacion de Laguerre.)
Si las dos races difieren en un n
umero no entero, se obtienen dos soluciones linealmente
independientes.
Si las dos races difieren en un n
umero entero, la mayor de ellas da una solucion. La
otra puede o no dar una solucion dependiendo del comportamiento de los coeficientes.
Para el oscilador armonico se obtienen dos soluciones; para la ecuacion de Bessel (15.4),
solo una (Cap. 19).
En la siguiente seccion desarrollaremos un metodo para encontrar una segunda solucion
linealmente independiente en el caso que el metodo de Frobenius no nos la proporcione.

165

15.4. UNA SEGUNDA SOLUCION

15.4.

Una segunda soluci


on

15.4.1.

Forma integral

Para una ecuacion diferencial de segundo orden, el espacio de soluciones es un espacio


vectorial de dimension dos. Dos soluciones y1 y y2 seran linealmente dependientes si
k1 y1 + k2 y2 = 0 ,

(15.20)

con ki no todos cero. Inversamente, si k1 = k2 = 0 es la u


nica solucion, entonces las soluciones
son linealmente independientes. Derivando (15.20) (yi es solucion de una ecuacion de segundo
orden, as que al menos es una vez diferenciable):
k1 y10 + k2 y20 = 0 .

(15.21)

(15.20) y (15.21) son un conjunto de ecuaciones lineales, donde los coeficientes ki son desconocidos. Este sistema tiene solucion no nula si


y1 (x) y2 (x)
=0.

(15.22)
W (x) 0
y1 (x) y20 (x)
W (x) se denomina el Wronskiano de las funciones yi . Si el Wronskiano es distinto de cero,
entonces las funciones yi son linealmente independientes. Si el Wronskiano es cero en un
cierto intervalo, entonces las funciones yi son linealmente dependientes en ese intervalo.
As pues, supongamos que, por el metodo de Frobenius u otro, tenemos una solucion y1 (x).
El problema es ahora encontrar una segunda solucion y2 (x) tal que el Wronskiano de ambas
sea distinto de cero. Primero es facil mostrar (ver Cap. 16) que si la ecuacion diferencial tiene
la forma general
y 00 + p(x)y 0 + q(x)y = 0 ,
entonces el Wronskiano de dos soluciones y1 , y2 es
W 0 = p(x)W ,

(15.23)

que podemos reescribir

dW
= p(x)dx ,
W
lo que tiene sentido pues deseamos que W 6= 0. Integrando en un intervalo [a, x], para cierto
a,
Z x
W (x)
ln
=
p(x1 ) dx1 ,
W (a)
a
o
Rx
W (x) = W (a)e a p(x1 ) dx1 .
(15.24)
Por otro lado,
W (x) =
de modo que
d
dx

y2
y1

y1 y20


y10 y2

= W (a)

y12

d
dx

y2
y1

1 R x p(x1 ) dx1
e a
.
y12

(15.25)

166

CAPITULO 15. ECUACIONES DIFERENCIALES CON SINGULARIDADES

Integrando ahora en [b, x], para cierto b,


Z x
R
1
y2 (b)
ax2 p(x1 ) dx1
y2 (x) = y1 (x)W (a)
dx2 + y1 (x)
.
e
2
y1 (b)
b [y1 (x2 )]
El segundo termino, no entrega nueva informacion, pues es proporcional a la solucion conocida, y no nos sirve para encontrar una linealmente independiente. Lo eliminamos entonces.
Ademas, W (a) es una constante, y como de todos modos y1 (x) esta determinada salvo una
constante de normalizacion, ponemos W (a) = 1, quedando entonces
Z x
R
1
x2 p(x1 ) dx1
y2 (x) = y1 (x)
dx2 .
(15.26)
e
[y1 (x2 )]2

Esta
es la segunda solucion, linealmente independiente, que buscamos. Observemos que hemos
omitido la evaluacion en el lmite inferior de las integrales. Al igual que antes, mantener el
lmite inferior contribuye con un termino proporcional a la solucion conocida y1 (x).
Ejemplo Para el oscilador armonico, d2 y/dx2 + y = 0, una solucion es y1 = sen x, obteniendose
Z x
dx2
= sen x( cot x) = cos x .
y2 (x) = sen x
sen2 x2

15.4.2.

Expansi
on en serie

Podemos reescribir la segunda solucion obtenida (15.26) usando expansiones en serie para
y1 (x) y p(x). De acuerdo al teorema de Fuchs, es posible encontrar una solucion por serie
y1 (x), si x = 0 no es singularidad esencial, y es de la forma
y1 (x) = x

a x ,

(15.27)

=0

con la mayor de las races de la ecuacion indicial. Por su parte, este teorema exige que, a
lo sumo, p(x) diverja como 1/x, y q(x) como 1/x2 , en x = 0, luego
p(x) =
q(x) =

X
i=1

p i xi ,

(15.28)

q i xi .

(15.29)

i=2

La ecuacion indicial resulta ser:


k 2 + (p1 1)k + q2 = 0 .

(15.30)

Esta
tiene dos races, que podemos escribir
k1 = ,
k2 = n ,

(15.31)

167

15.4. UNA SEGUNDA SOLUCION

con n entero (el u


nico caso problematico es cuando las races difieren en un n
umero entero).
Entonces
(k )(k + n) = 0 ,
(15.32)
Igualando coeficientes de k en (15.30) y (15.32), tenemos
p1 1 = n 2 .

(15.33)

Reemplazando ahora (15.27) en (15.26),


Z

y2 (x) = y1 (x)

R x P
2

x2
2

i=1

=0

pi xi1 dx1

a x2

(15.34)

2 dx2 .

En el termino exponencial aparece la integral


x2

Z
a

pi xi1

i=1

X
pk k+1
dx1 = p1 ln x2 +
x2 + f (a) ,
k
+
1
k=0

con f cierta funcion. Luego


exp

x2

!
pi xi1 dx1

i=1

X
pk k+1
p
= ef (a) x2 1 exp
x2
k
+
1
k=0

!
.

El denominador en (15.34) se puede reescribir en general:

!2 1

X
X

2
x2

a x2
= x2
b x2 ,
2
=0

=0

para ciertos coeficientes b . As, despreciando factores constantes que pueden ser absorbidos
en W (a), y2 (x) queda de la forma
!
Z x

X
p 2
y2 (x) = y1 (x)
x2 1
c x2 dx2 ,
=0

es decir, con (15.33),


y2 (x) = y1 (x)

xn1
2

!
c x2

dx2 ,

=0

de modo que
y2 (x) = y1 (x)

x
n+1
(c0 x2n1 + c1 xn
+ + cn x1
2 + c2 x 2
2 + ) dx2 .

(15.35)

Se aprecia entonces que la segunda solucion es de la forma y1 (x)s(x), con s(x) una funcion
que tiene dos partes:
Una serie de potencias, partiendo con xn .

168

CAPITULO 15. ECUACIONES DIFERENCIALES CON SINGULARIDADES


Un termino logartmico, proveniente de integrar x1 .

El termino logartmico proviene del termino con = n esta presente solo si = n en


(15.4.2), de modo que aparece solo si n es un entero, a menos que cn , por casualidad, resulte
ser cero.
Puesto que la menor potencia de y1 (x) es x = xk1 , se sigue que, obviando el termino
logartmico, la menor potencia de y2 es xn = xk2 (independiente de si n es entero o no).
As, podemos escribir la segunda solucion (absorbiendo el coeficiente c0 en la normalizacion
de y1 (x)), en la forma

X
y2 (x) = y1 (x) ln(x) + xk2
d x .
(15.36)
=0

En otras palabras, si las dos races de la ecuacion indicial difieren en un n


umero no
entero, las dos soluciones de la ecuacion diferencial estan dadas por el Ansatz del metodo
de Frobenius, determinadas por las dos races de la ecuacion indicial [(15.27) y (15.36), sin
el termino logartmico]. Si las races difieren en un n
umero entero, una primera solucion
esta dada por el metodo de Frobenius, con la mayor de las races, y a la segunda solucion se
le agrega un termino y1 (x) ln(x).

Captulo 16
Ecuaciones diferenciales del tipo
f 00 + p(z)f 0 + q(z)f = 0
versi
on 9 noviembre 2009

En este Captulo volveremos sobre algunos temas del anterior sobre ecuaciones diferenciales con singularidades (Cap. 15), ahora desde un punto de vista mas formal.

16.1.

Soluciones en puntos regulares

Consideremos la ecuacion diferencial


f 00 (z) + p(z)f 0 (z) + q(z)f (z) = 0 .

(16.1)

Sea D una region en el plano complejo. Sean p(z) y q(z) holomorfas en D. Sea z0 D.
En este caso se puede eliminar el termino en f 0 en (16.1). Para ello consideramos
f (z) = g(z)e

21

Rz
z0

p(z 0 ) dz 0

g(z)E .

(16.2)

Puesto que
1
E 0 = pE ,
2 0

p
p2
00
E = +
E,
2
4
(16.1) se puede reescribir:


p2 g p0 g
00
f + pf + qf = E g + qg
=0,

4
2
00

es decir

g 00 (z) + A(z)g(z) = 0 ,

con
A(z) = q(z)

p(z)2 p0 (z)

.
4
2

169

(16.3)
(16.4)

170

CAPITULO 16. ECUACIONES DIFERENCIALES DEL TIPO...

A(z) sera analtica y univalente en D si p y q lo son. Supongamos entonces que esto se


satisface. Sea el origen 0 D. Entonces, en torno a z = 0:
A(z) =

(16.5)

a z ,

=0

serie que tiene un cierto radio de convergencia r.


Planteamos para g(z) una solucion de forma analoga:
g(z) =

(16.6)

ck z k .

k=0

Debemos demostrar que esta es efectivamente una solucion, es decir, que esta serie es convergente. Reordenando las series:
A(z)g(z) =

al ck z l+k =

lk

a c z .

=0 =0

(16.3) queda entonces

"
c+2 ( + 1)( + 2) +

=0

#
a c z = 0 ,

=0

hallando la formula recursiva:

c+2

X
1
a c .
=
( + 1)( + 2) =0

(16.7)

Es claro entonces que podemos elegir arbitraria e independientemente dos coeficientes, c0 y


c1 .
Para probar la convergencia de la serie, mostraremos que (16.6) esta acotada, en modulo,
por una serie convergente. Pero los coeficientes ck estan dados, a su vez, por (16.7), que
involucra tanto a los ak como a los propios ck .
P

Para los ak , observamos que como (16.5) existe, entonces


=0 | a | converge, es decir,
existe un M > 0 tal que
| a | < M , ,
(16.8)
con 0 < < r.
En cuanto a los ck , no podemos decir algo similar, precisamente porque estamos demostrando que (16.6) existe. Pero s sabemos que los primeros de ellos [los u
nicos que aparecen
en la relacion de recurrencia (16.7)], se pueden acotar, simplemente porque son un n
umero
finito de elementos. Como no sabemos si la serie (16.6) es convergente, a lo sumo podemos
decir que dicha cota para c depende de . Sea entonces
N (k) = max{| c0 | , | c1 | , . . . , | ck | k } ,

(16.9)

171

16.1. SOLUCIONES EN PUNTOS REGULARES


es decir,
| c |

N (k)
,

= 0, 1, . . . , k .

Usando la relacion de recurrencia (16.7):


k1

ck+1

X
1
c ak1 ,
=
k(k + 1) =0

luego
k1

X N (k) M
1
N (k)
1
| ck+1 | <
=
Mk

k1
k(k + 1) =0
k(k + 1) k1
<
Luego
| ck+1 | k+1 <

1 N (k)2 M
k+1 (k + 1)
M 2
N (k) < N (k)
(k + 1)

k suficientemente grande.

Es decir, para k suficientemente grande, la misma cota que permite acotar a los primeros
k terminos ck k , permite tambien acotar al siguiente termino. Por tanto, desde cierto k0 en
adelante,
N (k) = N (k + 1) = N (k + 2) = = N ,
o sea
| ck | k N ,

k k0 .

Con ello,


k
k



X
X
X
X
|z|
|z|

k
k
k
N
.
ck z
| ck | | z | =
| ck |


k=k0

k=k0

k=k0

k=k0

P
k
La u
ltima suma converge si | z | < < r, luego
k=0 ck z converge si | z | < r. Por lo tanto,
existe una solucion de la forma (16.6). Este resultado sugiere el siguiente teorema.
Teorema 16.1 (Sin demostraci
on) Toda solucion de f 00 + p(z)f 0 + q(z)f = 0 es analtica
por lo menos all donde los coeficientes p(z) y q(z) lo son.
Como la ecuacion diferencial es de grado dos, es necesaria la siguiente definicion.
Definici
on 16.1 Dos funciones univalentes en D son linealmente dependientes (l.d.) si una
es m
ultiplo de la otra en D, i.e.
1 = 2 .
Se dice que son linealmente independientes (l.i.) en D si en D ninguna es m
ultiplo de la
otra.

172

CAPITULO 16. ECUACIONES DIFERENCIALES DEL TIPO...

Teorema 16.2 (Sin demostraci


on) En un dominio D simplemente conexo, donde p(z) y
q(z) son holomorfas, las soluciones forman un espacio de dimension dos.
Definici
on 16.2 El Wronskiano de dos soluciones de la ecuacion (16.1) es


1 (z) 2 (z)
.
W (z) = W [1 (z), 2 (z)] = 0
1 (z) 20 (z)

(16.10)

Evaluemos W 0 :
W = 1 20 2 10
W 0 = 1 200 2 100 = 1 (p20 q2 ) 2 (p10 q1 )
= p1 20 + p2 10 = p(1 20 2 10 ) = pW ,
W0
= (ln W )0 = p ,
W
luego

W (z) = Ce

Rz
z0

p(z 0 ) dz 0

(16.11)
.

(16.12)

Observemos que si W (z0 ) 6= 0, W (z) 6= 0 z D. Observemos tambien que si p(z) = 0,

W (z) es constante. Este


es precisamente el caso de la ecuacion de Schrodinger:



~ 2
+ V (x) + E = 0 .

2m x2
Proposici
on 16.1 Sean p(z) y q(z) holomorfas en D y univalentes. Entonces
a) W (z) = 0 z D 1 (z), 2 (z) son l.d. en D.
b) 1 (z), 2 (z) son l.i. en D W (z) 6= 0 z D.
Ejemplo Consideremos la ecuacion
2
2
f 00 f 0 + 2 f = 0 ,
z
z
en un dominio D que no incluye el cero. En D,
p(z) =
son analticas, holomorfas.
Dos soluciones l.i. son
El Wronskiano:

2
,
z

1 (z) = z ,

q(z) =

2
,
z2

2 (z) = z 2 .

W = 2z 2 z 2 = z 2 6= 0 z D .

16.2. SOLUCIONES EN LA VECINDAD DE PUNTOS SINGULARES

173

Conociendo 1 y 2 , soluciones linealmente independientes de (16.1), podemos encontrar


p y q. En efecto, de (16.11)
W 0 (z)
.
(16.13)
p(z) =
W (z)
Y reemplazando este resultado en (16.1):
q(z) =

i00 (z)
0 (z)
p(z) i
,
i (z)
i (z)

i = 1, 2 .

(16.14)

Notemos que esto tiene mucho sentido. Conocer dos soluciones l.i. significa, en el fondo,
conocer todas las soluciones del problema, y por tanto es razonable esperar que conocer todas
las soluciones de un problema es equivalente a conocer la ecuacion diferencial que define el
problema.

16.2.

Soluciones en la vecindad de puntos singulares

Consideremos ahora la ecuacion (16.1), pero sea ahora z0 un punto fuera del dominio D.
Sean 1 , 2 base del espacio vectorial de soluciones de (16.1). 1 y 2 son analticas en D,
donde p y q lo son. Supongamos que p o q no son holomorfas en z0 . Que ocurre con nuestras
soluciones si las prolongamos analticamente en torno al punto z0 y volvemos a D?:

1, 2
D

z0
1, 2

Al recorrer un circuito en torno a un punto singular aparecera un problema de multivalencia, de modo que en general 1 y 2 no recuperaran sus valores originales al completar el
circuito:
(1 , 2 ) (1 , 2 ) .
La transformacion es un endomorfismo de V en V . Despues del viaje, las funciones base
quedan convertidas en ciertas combinaciones lineales de las funciones originales:
1 = a11 1 + a12 2 ,
2 = a21 1 + a22 2 ,
o bien

  
 
1
a11 a12
1
=
.

a21 a22
2
2

(16.15)

La matriz de la transformacion se denomina matriz de circunvalacion asociada a la base


{1 , 2 }.

174

CAPITULO 16. ECUACIONES DIFERENCIALES DEL TIPO...

Para que 1 y 2 sean l.i., y por tanto sigan siendo base de V , se debe cumplir que el
determinante de la matriz de circunvalacion sea no nulo:
a11 a22 a12 a21 6= 0 .
Nuestro proposito a continuacion sera encontrar bases canonicas, en el siguiente sentido:
deseamos construir una solucion de (16.1) tal que
x

= ,

= cte.

(16.16)

Observemos, de hecho, que en principio la circunvalacion en torno a z0 , en general, puede


tanto amplificar como rotar las soluciones en el plano (si las imaginamos como vectores en
un espacio de dimension dos), y dicha rotacion no tiene por que ser la misma para ambas
soluciones. En particular, entonces, una base ortonormal puede convertirse en una base ni
siquiera ortogonal. As que este requerimiento sobre la solucion permite, al menos, que la
circunvalacion preserve la ortogonalidad de la base.
Sea entonces {1 , 2 } una base de soluciones. Entonces
= b1 1 + b2 2 .
Luego del viaje:
Con (16.15):

= = b1 1 + b2 2 .
(b1 1 + b2 2 ) = (b1 a11 + b2 a21 )1 + (b1 a12 + b2 a22 )2 .

Siendo {1 , 2 } l.i.:
(a11 )b1 + a21 b2 = 0 ,
a12 b1 + (a22 )b2 = 0 .
Existen soluciones no triviales si


a11
a21

=0,
a12
a22

(16.17)

es decir, nuestro problema corresponde a encontrar los autovalores de la matriz de circunvalacion. (Algo esperable, por cierto.)
Sean ahora 1 y 2 las soluciones de esta ecuacion. Existen dos posibilidades:
a) Sea 1 6= 2 . En este caso podemos escoger la base tal que
1 = 1 1 ,
2 = 2 2 .
La matriz de circunvalacion en la base canonica es diagonal:
  
 
1
1 0
1
=
.

0 2
2
2
Es conveniente introducir la siguiente definicion:

(16.18)

16.2. SOLUCIONES EN LA VECINDAD DE PUNTOS SINGULARES


Definici
on 16.3

1
ln k .
2i

k =

175

(16.19)

Entonces
x



(z z0 )k [(z z0 )k ] = ek ln(zz0 )
= ek [ln(zz0 )+2i] = (z z0 )k e2ik = k (z z0 )k .
En resumen:
k = k k ,
[(z z0 )k ] = k (z z0 )k .
O sea el cuociente

k
(z z0 )k

k
,
(z z0 )k

es decir, queda univalente al dar la vuelta en torno al punto singular z0 , luego este cuociente
admite un desarrollo de Laurent:

X
k (z)
=
ck (z z0 ) .
(z z0 )k
=

En resumen: Si 1 6= 2 , existe una base cuyo desarrollo en la vecindad del punto singular
z0 es:
1 (z) = (z z0 )

2 (z) = (z z0 )2

X
=

c1 (z z0 ) ,

(16.20)

c2 (z z0 ) .

(16.21)

b) Si 1 = 2 , estamos en un caso incomodo. Supongamos que la base transforma del


siguiente modo:
x

1 1 = 1 1 ,
x

2 2 = a21 1 + a22 2 .
Matricialmente:

 
  
1
1 0
1
=
.

a21 a22
2
2

La ecuacion de autovalores es:


(1 )(a22 ) = 0 .
Para que 1 = 2 debe tenerse que 1 = a22 , es decir
2 = a21 1 + 1 2 ,

176

CAPITULO 16. ECUACIONES DIFERENCIALES DEL TIPO...

de donde

2
1

2 a21
a21 1 + 1 2
=
+
.
1 1
1
1

Afirmamos que
=

2 a21 1

ln(z z0 )
1
1 2i

(16.22)

(16.23)

es univalente en torno a z0 . En efecto, usando (16.22):


=

2
1

2 a21 1
a21
[ln(z z0 ) + 2i] =

ln(z z0 ) = .
1 2i
1
1 2i

Podemos entonces desarrollar en una serie de Laurent en torno a z0 :


=

d (z z0 ) ,

o bien

2 = 1

d (z z0 ) +

a21
1 ln(z z0 ) .
2i1

Pero 1 es autovector de la matriz de circunvalacion, por tanto tiene un desarrollo de


Laurent del tipo (16.20). Reordenando entonces las series, obtenemos:
2 = (z z0 )

c2 (z z0 ) +

a21
1 (z) ln(z z0 ) .
2i1

Si a21 6= 0 podemos dividir 2 por a21 , es decir, podemos tomar, sin perdida de generalidad,
a21 = 1.
En resumen: Si 1 = 2 existe una base canonica cuyo desarrollo en la vecindad del
punto singular z0 es:
1 (z) = (z z0 )1
2 (z) = (z z0 )1

X
=

X
=

c1 (z z0 ) ,
c2 (z z0 ) +

(16.24)
1
1 (z) ln(z z0 ) .
2i1

(16.25)

Resumimos los resultados anteriores en el siguiente teorema.


Teorema 16.3 Si los coeficientes p(z) y q(z) son singulares en z0 , entonces existen dos
soluciones l.i. que en la vecindad de z0 tienen la forma:

177

16.2. SOLUCIONES EN LA VECINDAD DE PUNTOS SINGULARES


a) Si 1 6= 2 (caso comodo):
1 (z) = (z z0 )

2 (z) = (z z0 )2

X
=

c1 (z z0 ) ,

(16.26)

c2 (z z0 ) .

(16.27)

b) Si 1 = 2 (caso incomodo):
1 (z) = (z z0 )

2 (z) = (z z0 )1

X
=

c1 (z z0 ) ,
c2 (z z0 ) +

(16.28)
1
1 (z) ln(z z0 ) .
2i1

(16.29)

En estas expresiones,

ln k
.
(16.30)
2i
El teorema nos dice por lo tanto que las soluciones de la ecuacion diferencial son precisamente de la forma que descubrimos en el Captulo anterior (dos series de potencia, o una serie
y un termino logartmico), excepto por el hecho de que las series en (16.26)(16.29) tienen
todas las potencias de z z0 , positivas y negativas, en cambio en el Cap. 15 haba una cota
inferior. La diferencia, desde luego, es que hasta el momento hemos tratado el problema de
modo completamente general. Solo sabemos que z0 es un punto singular de p(x) y/o q(x),
pero no que tipo de singularidad es. Ahora nos preocuparemos de ello.
Primero, veamos el caso en que un punto z0 del plano complejo es un punto de holomorfa.
k =

Definici
on 16.4 z0 es un punto de holomorfa de la ecuacion (16.1) si en z0 todas las soluciones de esta ecuacion son holomorfas.
Teorema 16.4 z0 es punto de holomorfa si y solo si p(z) y q(z) son holomorfas en z0 .
Demostraci
on
i) Si p(z) y q(z) son holomorfas en z0 , entonces z0 es punto de holomorfa.
Ya demostrado.
ii) Si z0 es punto de holomorfa, entonces p(z) y q(z) son holomorfas en z0 .
De (16.11) se tiene de inmediato que
p(z) =

W0
W

es holomorfa (ya que W y W 0 son productos y sumas de funciones holomorfas, y W 6= 0,


pues las soluciones son l.i.). Y de (16.14), q(z) tambien debe ser holomorfa. El u
nico

178

CAPITULO 16. ECUACIONES DIFERENCIALES DEL TIPO...


problema podra ocurrir si j (z) = 0 para alg
un z. Pero la otra funcion l.i. no puede
ser nula en el mismo punto (si lo fuese, el Wronskiano sera nulo en ese punto, lo que
contradice la independencia lineal), y basta usar, en (16.14), entonces aquella funcion
que no es nula en ese punto.
q.e.d.

Ahora consideremos el caso en que z0 es un punto singular. Pero como sugieren los resultados anteriores, no nos interesan singularidades cualesquiera. Introducimos entonces el
concepto de singularidad Fuchsiana.
Definici
on 16.5 Un punto es una singularidad Fuchsiana de (16.1) si en ese punto p(z) y q(z)
no son ambas holomorfas y si el desarrollo de Laurent de las soluciones (base canonica) tiene
una cantidad finita de terminos de potencias negativas. Es decir, los cuocientes univalentes
son meromorfos.
Definici
on 16.6 Una funcion se dice meromorfa si es analtica en todo el plano complejo
excepto en un n
umero finito de polos. Por ejemplo: z/[(z + 1)(z 3)3 ].
Ahora estamos en condiciones de demostrar el siguiente importante teorema, el teorema
de Fuchs, que en el Cap. 15 solo se mostro de manera cualitativa: bajo que condiciones
es posible tener soluciones con un desarrollo en serie de Laurent con un n
umero finito de
potencias negativas.
Teorema 16.5 (Fuchs) Para que z0 sea una singularidad Fuchsiana de (16.1) es necesario
y suficiente que p(z) tenga en z0 a lo sumo un polo simple y q(z) tenga en z0 a lo sumo un
polo doble, sin ser ambas holomorfas.
Demostraci
on
i) Demostracion de necesidad.
Sea z0 = 0 singularidad Fuchsiana de (16.1). Consideremos la base canonica:
1 (z) = z

2 (z) = z 2

c1 z

c1,n 6= 0 ,

c2 z + ln(z)1 (z)

c2,m 6= 0 ,

=n

X
=m

donde
=

2i1

caso comodo
caso incomodo

Con las definiciones


1 = 1 n ,
2 = 2 m ,

179

16.2. SOLUCIONES EN LA VECINDAD DE PUNTOS SINGULARES

podemos reescribir las series anteriores de modo que ambas comiencen en el ndice cero:
1 (z) = z

2 (z) = z 2

X
=0

c1 z

c10 6= 0 ,

c2 z + ln(z)1 (z)

c20 6= 0 .

=0

p(z) viene dado por (16.11). Observemos que


W =

1 20

2 10

2
1

0

12 .

Pero

X
2
2 1
= ln z + z
a z ,
1
=0
 0

X
2
( 2 1 + )a z +2 1 1 ,
= +
1
z =0

luego

W =

X
( 2 1 + )a z +2 1 1
+
z =0

!
z 1

!2
c1 z

=0

lo que se puede reescribir siempre en la forma


W =z

b z ,

b0 6= 0 .

=0

De aqu,
W =
0

( + )b z

1+

=0

1 X
= z
( + )b z .
z =0

p(z) tiene entonces la forma:


p(z) =

W0
1 b0 + ( + 1)b1 z +
=
.
W
z
b0 + b1 z +

Si = 0, entonces p(z) es regular en z = 0. Si 6= 0, entonces p(z) = /z + , luego


tiene un polo simple en z = 0.
De modo analogo podemos estudiar q(z), dado por (16.14). Por un lado, el factor
P
( 1 + )c1 z 1 +1
10
1 1 c10 + ( 1 + 1)z +
=0P
=
=

+
1
1
z
c10 + c11 z +
=0 c1 z
tiene a lo sumo un polo simple en z = 0.
Por su parte, 100 /10 tiene a lo sumo un polo simple en z = 0. Como p(z) tambien tiene
a lo sumo un polo simple en z = 0, se concluye que q(z) tiene a lo sumo un polo doble
en z = 0.

180

CAPITULO 16. ECUACIONES DIFERENCIALES DEL TIPO...

ii) Demostracion de suficiencia.


Supongamos que p(z) y q(z) tienen a lo sumo un polo simple y doble, respectivamente,
en z = 0. Reescribamos (16.1):
f 00 +

P (z) 0 Q(z)
f + 2 f =0,
z
z

(16.31)

con P (z) y Q(z) analticas:


P (z) =

p z ,

(16.32)

q z .

(16.33)

=0

Q(z) =

X
=0

Planteamos una solucion de la forma


f =z

c z =

=0

c0 6= 0 .

c z + ,

(16.34)

=0

Entonces

z X
c ( + )z ,
f =
z =0
0

z X
c ( + )( + 1)z .
f = 2
z =0
00

La ecuacion diferencial nos queda:

c ( + )( + 1)z +

=0

!
p z

=0

!
c ( + )z

=0

!
q z

=0

!
c z

= 0 . (16.35)

=0

Comparando coeficientes para z = 0:


c0 ( 1) + p0 c0 + q0 c0 = 0 ,
es decir, se obtiene la llamada ecuacion indicial :
( 1) + p0 + q0 = 0
Sean las races de la ecuacion indicial 1 y 2 .
Definamos

() = ( 1) + p0 + q0 ,

(16.36)

181

16.2. SOLUCIONES EN LA VECINDAD DE PUNTOS SINGULARES


de modo que

(1 ) = (2 ) = 0 .

Igualando los coeficientes de z 1 en (16.35):


c1 ( + 1) + p0 c1 ( + 1) + p1 c0 + q0 c1 + q1 c0 = 0 ,
c1 [( + 1) + p0 ( + 1) + q0 ] = c0 (p1 + q1 ) ,
c1 ( + 1) = c0 (p1 + q1 ) .
Analogamente, para z n , se obtienen ecuaciones de la forma:
cn ( + n) =
De este modo, si ( + n) 6= 0 para n = 1, 2, 3. . . , podemos dividir por cada ecuacion
y obtener los coeficientes de la serie.
El procedimiento para resolver (16.31) es entonces, primero, resolver la ecuacion
() = 0 ,
para obtener 1 y 2 .
Se pueden presentar dos casos:
I)

(16.37)

1 2 6 Z .
En este caso,
y por tanto

1 + n 6= 2
(i + n) 6= 0

n Z ,

n Z ,

i = 1, 2 .

Es posible entonces obtener todos los coeficientes de la expansion en serie de la


solucion. Pero ademas, (16.37) asegura que
1 6= 2 ,
de modo que los coeficientes obtenidos por el metodo descrito son distintos en
general, y las dos soluciones resultantes son linealmente independientes.
II)
1 2 Z .
Supongamos, sin perdida de generalidad, que
Re 1 Re 2 .
Entonces de (16.38) se sigue que
(1 + n) 6= 0

n N .

(16.38)

182

CAPITULO 16. ECUACIONES DIFERENCIALES DEL TIPO...


Por tanto, el procedimiento anterior de dividir por (1 +n) es valido, obteniendose
la solucion asociada a 1 .
Para 2 , por su parte, puede haber problemas, pues (2 + n) = 0 cuando n =
1 2 y no se pueden obtener los coeficientes de la solucion. Esto significa que la
solucion no es de la forma (16.34), y se necesita la expresion mas general, con un
termino logartmico. De todos modos z = 0 sera singularidad Fuchsiana.
q.e.d.

16.3.

Singularidades en infinito

Consideremos el cambio de variable


s=

1
z

(16.39)

en la ecuacion (16.1), y definamos


 
1
f (s) = f (z) = f
.
s

(16.40)

Se tiene
1
ds
= 2 = s2 ,
dz
z
df ds
df
df
=
= s2
,
dz
ds dz
ds
2
d2 f
4d f
3 df
=
s
+
2s
,
dz 2
ds2
ds
de modo que f satisface:
2s p(1/s) df
q(1/s)
d2 f
+
+
f =0.
2
2
ds
s
ds
s4

(16.41)

Este resultado nos conduce a la siguiente definicion:


Definici
on 16.7 Infinito es punto de holomorfa de (16.1) si cero lo es de (16.41).
Proposici
on 16.2 Infinito es punto de holomorfa de (16.1) si:
a) 2s p(1/s) tiene en cero un lugar nulo de multiplicidad doble o mayor (es decir,
2s p(1/s) sn , con n 2, cuando s 0).
b) q(1/s) tiene en cero un lugar nulo de multiplicidad cuadruple o mayor.
Demostraci
on Es inmediata del teorema 16.4 y de la forma de (16.41).
Analogamente definimos la singularidad Fuchsiana en infinito:

183

16.4. EJEMPLOS
Definici
on 16.8 Infinito es singularidad Fuchsiana de (16.1) si cero lo es de (16.41).

Proposici
on 16.3 Infinito es singularidad Fuchsiana de (16.1) si no es punto de holomorfa
y al menos
a) q(1/s) tiene un lugar nulo doble en s = 0.
b) p(1/s) tiene un lugar nulo simple en s = 0.
Demostraci
on Inmediata del teorema de Fuchs 16.5 y de la forma de (16.41).

16.4.

Ejemplos

1) Ecuacion diferencial de Laguerre:


zf 00 + (1 z)f 0 + nf = 0 ,

(16.42)

o, equivalentemente,

1 z 0 nz
f + 2f =0 .
(16.43)
z
z
Claramente z = 0 es singularidad Fuchsiana. En cuanto a z = , observemos que p(1/s) es
holomorfo en s = 0:
 
1
1 (1/s)
p
=
=s1 ,
s
(1/s)
f 00 +

de modo que z = no es singularidad Fuchsiana.


Siguiendo las definiciones (16.31), (16.32) y (16.33) para la ecuacion de Laguerre
P (z) = 1 z ,
luego

p0 = 1 ,

Q(z) = nz ,
q0 = 0 .

La ecuacion indicial es entonces


( 1) + = 0
2 = 0
1 = 2 = 0
Estamos pues en el caso incomodo.
En el Cap. 13, Polinomios de Laguerre, ya habamos encontrado la primera solucion, de
la forma

X
1
1 (z) = z
d z .
(16.44)
=0

184

CAPITULO 16. ECUACIONES DIFERENCIALES DEL TIPO...

Corresponde a los polinomios de Laguerre Ln . Falta encontrar la segunda solucion, linealmente independiente con Ln :
2 (z) =

f z + 1 (z) ln(z) .

(16.45)

=0

El primer polinomio de Laguerre es Ln=0 = 1, de modo que:


2 (z) = ln(z) +

f z ,

n=0.

(16.46)

=0

Reemplazando en (16.42):

0=z

X
1
2+
f ( 1)z 2
z
=2

0 = 1 +

f ( 1)z

=2

1 X
+
f z 1
z =1

+ (1 z)
f z

=1

f z

=1

Se sigue la relacion de recurrencia:


f+1 ( 2 + 2 + 1) = f , 1 ,
f
.
f+1 =
( + 1)2
Escogiendo

f1 = 1 ,

se obtiene

(n 1)!
1
=
.
2
(n!)
n n!
As, las dos soluciones linealmente independientes de la ecuacion de Laguerre para n = 0 son:
fn =

1 (z) = L0 (z) = 1 ,

X
z
2 (z) = ln(z) +
.

!
n=1
2) La ecuacion


1
1
z f +z z
f0 + f = 0
2
2
tiene una singularidad Fuchsiana en z = 0. La ecuacion indicial es:


2 00

1
1
( 1) + = 0 ,
2
2
luego
1 =

1
,
2

2 = 1 y 1 6= 2 .

16.5. ECUACIONES CON n 3 SINGULARIDADES FUCHSIANAS

185

i) Obtengamos la primera solucion l.i., con = 1/2. En este caso

X
X

f= z
a z =
a z +1/2 .
=0

=0

Sustituyendo en la ecuacion y comparando potencias de z obtenemos la relacion de


recurrencia
a1
, 1.
a =

Tomando a0 = 1:
a1 = 1 ,

a2 =

1
,
2

1
1
= ,
23
3!
1
a = (1) .
!
a3 =

... ,

Luego

X
(1) z
= ez z .
f (z) = z
!
=0

ii) La segunda solucion corresponde a = 1:


f (z) =

a z +1 .

=0

Obtenemos la relacion de recurrencia


a =

a+1
,
+ 1/2

1.

Tomando a0 = 1, resulta
a = (1)

2
,
(2 + 1)!!

X
(2z)
f (z) = z
.
(2 + 1)!!
=0

16.5.

Ecuaciones con n 3 singularidades Fuchsianas

Nuestro objetivo ahora sera encontrar el tipo de ecuacion (16.1) mas general tal que sea
holomorfa en todo el plano completo (es decir, incluyendo infinito), salvo en 0, 1, 2 o 3
singularidades Fuchsianas, una de las cuales podra estar en infinito. Esto es, p(z), q(z),
p(1/s) y q(1/s) deben ser meromorfas.

186

CAPITULO 16. ECUACIONES DIFERENCIALES DEL TIPO...

Proposici
on 16.4 Para que la ecuacion (16.1) tenga solo singularidades Fuchsianas es necesario y suficiente que se cumplan las siguientes condiciones:
n
X

Ak
,
z k
k=1

n 
X
Bk
Ck
,
q(z) =
+
(z k )2 (z k )
k=1

p(z) =

n
X

(16.47a)
(16.47b)

Ck = 0 .

(16.47c)

k=1

Demostraci
on Para que 1 , 2 , . . . , n sean singularidades Fuchsianas, se debe tener que
p(z) a lo sumo tenga un polo de primer orden y q(z) a lo sumo uno de segundo orden:
P (z)
,
(z 1 ) (z n )
Q(z)
q(z) =
,
2
(z 1 ) (z n )2

p(z) =

(16.48a)
(16.48b)

donde P (z) y Q(z) son funciones regulares.


Para que z = sea a lo sumo singularidad Fuchsiana, se debe tener que
 
1
p
= a1 s + a2 s 2 +
s
 
1
= a0 s 2 + a3 s 3 +
q
s
Pero, de (16.48),
 
 
1
1
P (1/s)
n
n
s P
p
=s
,
s
(1 s1 ) (1 sn )
s

si s 0 ,

de modo que la mayor potencia de 1/s en P (1/s) debe ser 1/sn1 . Es decir, P (z) debe ser un
polinomio al menos un grado inferior al grado del denominador de p(z). Un analisis similar
conduce a que el grado de Q(z) es al menos dos grados inferior al grado del denominador de
q(z).
De esto se sigue que podemos descomponer p(z) y q(z) en fracciones parciales en la forma:
n
X

Ak
,
z k
k=1

n 
X
Ck
Bk
+
,
q(z) =
2
(z

(z

k)
k)
k=1

p(z) =

n
X
k=1

Ck = 0 .

16.5. ECUACIONES CON n 3 SINGULARIDADES FUCHSIANAS

187

La u
ltima condicion viene de exigir que el grado de Q(z) sea al menos dos grados inferior al del
denominador de q(z). En efecto,Qal sumar las fracciones parciales, los terminos que contienen
Ck son de la forma Ck (z k ) nj6=k (z j )2 , que tiene grado 1 + 2 (n 1) = 2n 1, que
es solo un grado inferior alPgrado del denominador. La mayor potencia de z aparece en un
termino de
forma z 2n1 nk=1 Ck . Por otro lado, los terminos que contienen Bk son de la
Qla
n
forma Bk j6=k (z j )2 , de grado
P 2 (n 1) = 2n 2 a lo sumo. Por tanto, el numerador es
de grado 2n 2 o inferior si nk=1 Ck = 0.
q.e.d.
Ahora revisemos cada uno de los casos que nos interesan.

16.5.1.

n = 0 singularidades Fuchsianas

Para que p(z) y q(z) no tengan singularidades deben ser de la forma:


p(z) = p0 + p1 z + p2 z 2 +
q(z) = q0 + q1 z + q2 z 2 +
De este modo
 
1
1
1
= p0 + p1 + p2 2 +
p
s
s
s
 
1
1
1
q
= q0 + q1 + q2 2 +
s
s
s
Pero entonces 2s p(1/s) tiene un cero en s = 0 solo si p(1/s) = 0, y q(1/s) tiene un cero
en s = 0 solo si q(1/s) = 0. Luego, por la Proposicion 16.2, z = puede ser punto de
holomorfa solo si
p(z) = q(z) = 0 .
Sin embargo, esta condicion implica a su vez que infinito es singularidad Fuchsiana (Proposicion 16.3). Esto es una contradiccion, luego no existen ecuaciones de la forma (16.1) sin
singularidades Fuchsianas.

16.5.2.

n = 1 singularidades Fuchsianas, en z =

De lo dicho en la Subseccion 16.5.1, si la ecuacion (16.1) tiene una u


nica singularidad
Fuchsiana, y localizada en z = , entonces
p(z) = q(z) = 0 ,
de donde, en (16.47)

Ak = Bk = Ck = 0 .

La ecuacion con una singularidad Fuchsiana en z = es pues


y su solucion es

f 00 = 0 ,

(16.49)

f (z) = c1 + c2 z .

(16.50)

188

16.5.3.

CAPITULO 16. ECUACIONES DIFERENCIALES DEL TIPO...

n = 1 singularidades Fuchsianas, en z = 0

En este caso n = 1 en (16.47), y por tanto, de (16.47c),


C1 = 0 .
Luego, escribiendo A1 = A y B1 = B,
p(z) =

A
,
z

q(z) =

B
,
z2

y la ecuacion es de la forma:

A 0 B
f + 2f = 0 .
z
z
Pero z = es punto de holomorfa, de modo que (Proposicion 16.2)
f 00 +

a)

 
1
2s p
= 2s As
s
debe tener al menos un lugar nulo doble en s = 0, vale decir,
A=2.

b)

 
1
= Bs2
q
s
debe tener al menos un lugar nulo cuadruple en s = 0, luego
B=0.
La ecuacion con una singularidad Fuchsiana en z = 0 es entonces
2
f 00 + f 0 = 0 .
z

(16.51)

f 1 = c1 ,
c2
f2 =
.
z

(16.52)

Sus soluciones:

16.5.4.

n = 2 singularidades Fuchsianas, en z = 0 y z =

En este caso n = 1 en (16.47), de modo que C1 = 0. Escribamos A1 = A y B1 = B. Para


que infinito sea singularidad Fuchsiana, de la Proposicion 16.3 se sigue que 2s p(1/s) =
2s As debe tener un lugar nulo simple en s = 0 y q(1/s) = Bs2 debe tener un lugar nulo
doble en s = 0. Ambas condiciones se cumplen, de modo que no hay nuevas restricciones

16.5. ECUACIONES CON n 3 SINGULARIDADES FUCHSIANAS

189

sobre A y B. La ecuacion mas general con dos singularidades Fuchsianas, una de ellas en
infinito, es la ecuacion diferencial de Euler :
f 00 +

A 0 B
f + 2f = 0
z
z

(16.53)

Determinemos sus soluciones. La ecuacion indicial es


( 1) + A + B = 0 .
Sean 1 y 2 las dos soluciones de ella:

p
1
1 A + (1 A)2 B 2 ,
2

p
1
2 =
1 A (1 A)2 B 2 .
2
1 =

1) Caso 1 6= 2 (caso comodo).


En cualquier dominio de conexion simple que no contiene al cero z 1 y z 2 son dos soluciones l.i. La solucion general es
f = c1 z 1 + c2 z 2 .
(16.54)
2) Caso 1 = 2 (caso incomodo).
Una solucion no trivial es:

f1 = z 1 .

La otra viene dada por:

f2 = z 1 ln z ,

como es facil comprobar reemplazando en (16.53).


La solucion general en este caso es entonces
f = c1 z 1 (1 + c2 ln z) .

16.5.5.

(16.55)

n = 2 singularidades Fuchsianas, en z = a y z = b, holomorfa


en infinito

La ecuacion y sus soluciones se obtienen del caso anterior por medio de la transformacion:
z

za
.
zb

En efecto, bajo esta transformacion:


0 a ,
b .

(16.56)

190

CAPITULO 16. ECUACIONES DIFERENCIALES DEL TIPO...

La ecuacion diferencial queda de la forma:


f 00 +

B(a b)2
2z 2aA(a b) 0
f +
f =0,
(z a)(z b)
(z a)2 (z b)2

lo que se puede reescribir, con las definiciones adecuadas,


f 00 +

2z + A
B
f0 +
f =0.
(z a)(z b)
(z a)2 (z b)2

(16.57)

Las soluciones se obtienen simplemente aplicando la transformacion (16.56) a la solucion


hallada en la Subseccion 16.5.4:
1) Caso comodo:
f = c1

za
zb

1

+ c2

za
zb

2

(16.58)

2) Caso incomodo:
f = c1

za
zb

1 

1 + c2 ln

za
zb


.

(16.59)

Captulo 17
Funciones hipergeom
etricas
versi
on 9 noviembre 2009

En el captulo anterior encontramos la forma general de todas las ecuaciones con n < 3
singularidades Fuchsianas. En este estudiaremos el siguiente caso en complejidad: n = 3.
Escribiremos la forma general de una ecuacion con tres singularidades Fuchsianas, y la resolveremos. La ecuacion hipergeometrica sera la ecuacion con mayor n
umero de singularidades
Fuchsianas que estudiaremos, pero sera suficiente para nuestros propositos, dada la riqueza
de sus soluciones. De hecho, muchas funciones especiales que ya hemos visto o que veremos
en los captulos siguientes se pueden escribir como casos particulares de funciones hipergeometricas, de modo que la funcion hipergeometrica puede ser vista como la solucion para
una gran familia de problemas de interes en Fsica.

17.1.

La ecuaci
on hipergeom
etrica general

Consideremos la ecuacion diferencial


00 + p(z)0 + q(z) = 0 ,

(17.1)

con tres singularidades fuchsianas localizadas en:


z1 = A ,

z2 = B ,

z3 = C ,

y con z = punto de holomorfa.


Para que la ecuacion (17.1) tenga singularidades fuchsianas, p(z) debe tener a lo mas un
polo simple en cada una de ellas, tomando la forma:
p(z) =

k
l
h
+
+
.
zA zB zC

Para que z = sea punto de holomorfa


 
1
hs
ks
ls
= 2s

,
2s p
s
1 As 1 Bs 1 Cs
191

(17.2)

(17.3)

192

CAPITULO 17. FUNCIONES HIPERGEOMETRICAS

debe tener a lo menos un lugar nulo doble en s = 0. Lo anterior implica que


 
1
' 2s hs(1 + As) ks(1 Bs) ls(1 Cs) +
0 = 2s p
s
= (2 h k l)s + , s 0 ,
es decir, las constantes debe satisfacer la condicion h + k + l = 2. La caracterstica de singularidades fuchsianas impone sobre la funcion q(z) a lo mas polos dobles en las singularidades,
es decir,
Q(z)
q(z) =
,
(17.4)
(z A)2 (z B)2 (z C)2
y para que infinito sea punto de holomorfa q(1/s) debe tener a lo menos un lugar nulo
cuadruple en s = 0. Luego a lo sumo Q(z) debe ser un polinomio de grado 2. En efecto, si es
as,
a + b/s + c/s2
a + bz + cz 2
=
,
(z A)2 (z B)2 (z C)2
(1/s A)2 (1/s B)2 (1/s C)2
as2 + bs + c
1/s2
as2 + bs + c
4
=
=
s
.
(1 As)2 (1 Bs)2 (1 Cs)2 1/s6
(1 As)2 (1 Bs)2 (1 Cs)2

q(z) =

(17.5)

Esto claramente no impone nuevas restricciones sobre q(z), la cual podemos escribir de forma
general como:


1
Q(z)
q(z) =
(z A)(z B)(z C) (z A)(z B)(z C)



(17.6)
H
K
L
1
=
+
+
.
zA zB zC
(z A)(z B)(z C)
Reemplazando la forma general de p(z) y q(z) dadas en (17.2) y (17.6) en (17.1) obtenemos
la ecuacion hipergeometrica general:


k
l
h
00
+
+
0
+
zA zB zC



(17.7)
H
K
L
1
+
+
+
=0,
zA zB zC
(z A)(z B)(z C)
con h + k + l = 2, i.e. 5 constantes libres.

17.2.

Ecuaci
on indicial

Consideremos la singularidad fuchsiana en z = A, su ecuacion indicial corresponde a:


( 1) + h +

H
=0.
(A B)(A C)

Sean y 0 las dos soluciones de esta ecuacion, entonces


+ 0 = 1 h

0 =

H
.
(A B)(A C)

(17.8)

193

DIFERENCIAL DE GAUSS
17.3. ECUACION

Analogamente sean y 0 y y 0 las soluciones respectivas de la ecuacion indicial en las


singularidades fuchsianas z = B y z = C, con
+ 0 = 1 k ,

0 =

K
,
(B A)(B C)

+ 0 = 1 l ,

0 =

L
.
(C A)(C B)

Tenemos + 0 + + 0 + + 0 = 3 k l h = 3 (k + l + h) = 3 2 = 1.
De lo anterior podemos eliminar de la ecuacion hipergeometrica los coeficientes h, k, l,
H, K, L y escribirla en funcion de , 0 , , 0 , y 0




(C A)(A B)(B C)
1 0 1 0 1 0
0
00
+
+

+
zA
zB
zC
(z A)(z B)(z C)


(17.9)
0
0
0

+
+
=0,
(z A)(B C) (z B)(C A) (z C)(A B)
con singularidades fuchsianas en z1 = A, z2 = B y z3 = C y 5 constantes independientes, ya
que tenemos la restriccion de que
+ 0 + + 0 + + 0 = 1 .
La solucion mas general de esta ecuacion es la
tamos por

(z) = P
0

17.3.

llamada funcion P de Riemann la cual deno


B C

z
.
(17.10)

0
0

Ecuaci
on diferencial de Gauss

Consideremos el caso particular z1 = A = 0, z2 = B = 1 y z3 = C . Elegimos


ademas 0 = 0 = 0, obteniendo


1 1
0
00
+
0 +
=0.
(17.11)
+
z
z1
z(z 1)
Las constantes deben satisfacer + + + 0 = 1, lo cual deja solo tres constantes independientes. La ecuacion (17.11) es conocida como ecuacion diferencial de Gauss y su solucion,
escrita como funcion P de Riemann, es:

0 1

z
(z) = P
.
(17.12)

0
0 0
Haciendo un cambio de notacion
1=c ,

=a,

0 = b .

194

CAPITULO 17. FUNCIONES HIPERGEOMETRICAS

Podemos despejar a partir de la condicion que satisfacen las races de la ecuacion indicial,
= 1 0 = c a b ,
luego, la ecuacion diferencial de Gauss (17.11) queda de la forma
00 +

ab
(1 + a + b)z c 0
+
=0.
z(z 1)
z(z 1)

Su solucion, escrita como funcion P de Riemann

1c cab a z
(z) = P
.

0
0
b

(17.13)

(17.14)

Busquemos soluciones de (17.13) de la forma


(z) =

d z ,

con d0 = 1.

(17.15)

=0

Recordemos que z = 0 es singularidad fuchsiana de (17.13) y las races de la ecuacion indicial


corresponden a 1 = 0 y 2 = 1 c. Podemos reescribir (17.13) de la forma
z(z 1)00 + [(1 + a + b)z c]0 + ab = 0 ,

(17.16)

Reemplazando la serie (17.15) en (17.16) e igualando potencias del mismo orden, obtenemos
una relacion de recurrencia para los coeficientes d ,
d+1 =

( + a)( + b)
d ,
( + c)( + 1)

para = 0, 1, 2, . . . .

(17.17)

La exclusion de c = 0, 1, 2, . . ., no es siempre necesaria, ya que es posible que se anule el


numerador.
Definici
on 17.1 Definimos la funcion hipergeometrica 2 F1 (a, b, c ; z), por la siguiente serie:
2 F1

(a, b, c ; z) = 1 +

ab
a(a + 1)b(b + 1) 2
z+
z + .
c
c(c + 1)2!

(17.18)

La serie geometrica es un caso particular de la anterior


2 F1 (1, b, b ; z) =

z .

=0

El radio de convergencia de la serie hipergeometrica es igual a uno, exceptuando el caso


cuando a o b son iguales a cero o a un entero negativo, en tal caso el radio de convergencia
es infinito.
Observando (17.17), se sigue que 2 F1 (a, b, c ; z) es solucion de (17.13), correspondiendo al
ndice 1 = 0.

195

17.4. LA SERIE HIPERGEOMETRICA

Busquemos ahora la otra solucion linealmente independiente correspondiente a la solucion


de la ecuacion indicial 2 = 1 c. Planteamos
(z) = z 1c (z) , c 6= 1 ,
0 (z) = (1 c)z c (z) + z 1c 0 (z) ,
00 (z) = (1 c)cz c1 (z) + 2(1 c)z c 0 (z) + z 1c 00 (z) .
Reemplazando en (17.16)
z(z 1)00 + [(a + b 2c + 3)z (2 c)] 0 + (a c + 1)(b c + 1) = 0 .

(17.19)

Sustituyendo
c2c ,

aac+1 ,

bbc+1 ,

se obtiene la ecuacion hipergeometrica de Gauss, por lo tanto la solucion para (z) en (17.19)
es:
(z) = 2 F1 (a c + 1, b c + 1, 2 c ; z) , con c 6= 2 ,
luego la otra solucion de (17.13) es
(z) = z 1c 2 F1 (a c + 1, b c + 1, 2 c ; z) .

(17.20)

Hagamos un resumen de los resultados anteriores. La ecuacion diferencial de Gauss


z(z 1)00 + [(1 + a + b)z c]0 + ab = 0 ,

(17.19)

bajo la condicion de que c 6 Z tiene como base de soluciones con centro en cero:
1 = 2 F1 (a, b, c ; z) ,
2 = z 1c 2 F1 (a c + 1, b c + 1, 2 c ; z) .

(17.21a)
(17.21b)

Si c = 1 las soluciones 1 y 2 coinciden, en ese caso se debe plantear


2 (z) = 1 (z) ln(z) +

c z .

=0

Derivando y reemplazando en la ecuacion diferencial obtenemos una relacion de recurrencia


para los c .

17.4.

La serie hipergeom
etrica

Analicemos en mas detalle la serie hipergeometrica

X z
a(a + 1)b(b + 1) 2
ab
z+
z + =
,
f
2 F1 (a, b, c ; z) = 1 +
c
c(c + 1)2!
!
=0

(17.18)

196

CAPITULO 17. FUNCIONES HIPERGEOMETRICAS

tenemos para el coeficiente n + 1


a(a + 1)(a + 2) (a + n)b(b + 1)(b + 2) (b + n)
,
c(c + 1)(c + 2) (c + n)


(a + n + 1)(b + n + 1) (c)
(c b)
=
.
(c + n + 1)
(a)(b) (c b)

fn+1 =
fn+1

Reescribamos la serie hipergeometrica usando el anterior resultado:

X (c b)(b + )
(c)
z
(a + ) ,
2 F1 (a, b, c ; z) =
(a)(b)(c b) =0
(c + )
!
pero

(c b)(b + )
= B(c b, b + ) ,
(c + )

con
B(m, n) =

tm1 (1 t)n1 dt =

(m)(n)
,
(m + n)

para m > 0 y n > 0 .

Reescribimos la serie, usando la expresion integral de la funcion beta,


Z 1

X
(c)
(a + ) t z
b1
cb1
t (1 t)
dt ,
2 F1 (a, b, c ; z) =
(b)(c b) 0
(a)
!
=0
con Re[c] > Re[b] > 0.
Ahora como
(1 tz)

X
(a + )
=0

(a)!

t z .

La forma integral de la funcion hipergeometrica es:


1
2 F1 (a, b, c ; z) =
B(b, c b)

tb1 (1 t)cb1 (1 tz)a dt ,

con Re[c] > Re[b] > 0, | z | < 1 y donde t es una variable compleja.
Proposiciones


z
1
a) 2 F1 (a, b, c ; z) =
.
2 F1 a, c b, c ;
(1 z)a
z1


1
z
b) 2 F1 (a, b, c ; z) =
.
2 F1 c a, b, c ;
(1 z)b
z1
c) 2 F1 (a, b, c ; 1) =

(c)(c a b)
.
(c a)(c b)

d) 2 F1 (a, b, c ; z) = (1 z)cab 2 F1 (c a, c b, c ; z).

(17.22)


17.4. LA SERIE HIPERGEOMETRICA

197

Demostraciones
a)


a

Z 1
1
(c)
tz
1
z
cb1
b1
=
1
t
(1t)
dt ,
2 F1 a, c b, c ;
a
(1 z)
z1
(b)(c b) 0
z1
(1 z)a
haciendo el cambio de variable 1 t = t0


Z 1
(c)
z
1
b1
=
t0 (1 t0 )cb1
2 F1 a, c b, c ;
a
(1 z)
z1
(b)(c b) 0


a
(1 t0 )z
(1 z) 1
dt0 ,
z1


Z 1
1
z
(c)
tb1 (1 t)cb1 (1 tz)a dt ,
=
2 F1 a, c b, c ;
(1 z)a
z1
(b)(c b) 0
= 2 F1 (a, b, c ; z) .
b) Directo usando a) y la relacion de simetra
2 F1

(a, b, c ; z) = 2 F1 (b, a, c ; z) .

c) y d) Tarea.
Consideremos la expansion en serie de la funcion ln(1 + z) con centro en z = 0:
z2 z3 z4
ln(1 + z) = z
+

+ ,
para | z | < 1 ,
3
4

 2
1212
123123
11
2
3
(z) +
(z) +
(z) + ,
ln(1 + z) = z 1 +
2 1!
2 3 2!
2 3 4 3!


z
z
ln(1 + z) = z 2 F1 (1, 1, 2 ; z) =
.
2 F1 1, 1, 2 ;
1+z
1+z
La u
ltima igualdad corresponde a la propiedad a) probada anteriormente. Tenemos que para
| z | < 1 sirve la primera expresion z 2 F1 (1, 1, 2 ; z) y no la segunda, para | z | > 1 la primera
expresion no nos sirve y s la segunda. Probemos, en forma explcita, la u
ltima relacion,
!



2
z
z
z
1 z
1
z
=
1+
+
+ ,
2 F1 1, 1, 2 ;
1+z
1+z
1+z
21+z 3 1+z

2

3
z
1
z
1
z
=
+
+
+ ,
1+z 2 1+z
3 1+z




z
1
= ln 1
= ln
= ln(1 + z) .
1+z
1+z

198

17.5.

CAPITULO 17. FUNCIONES HIPERGEOMETRICAS

Ecuaci
on hipergeom
etrica confluente

Consideremos la ecuacion diferencial de Gauss con singularidades fuchsianas en z = 0,


z=1yz
z(z 1)00 + [(1 + a + b)z c]0 + ab = 0 .
u
Al reemplazar z = nos queda
b
 d2  u  h
i d u
u
u u
u
1
+
(a
+
b
+
1)

+
ab

=0.
(17.23)

b b
dz 2
b
b
dz
b
b
u

Definimos (u)
=
y evaluamos las derivadas
b
d u 1
1 d u
d2
d
1 d2  u 
=
=

,
.
= 2 2
du
dz
b b
b dz
b
du2
b dz
b
Dividiendo (17.23) por b,


u
u  1 d2  u 
a+1
1 d u
u 1

+
u

=0,
b b2 dz 2
b
b
b dz
b
b


a + 1
u  d2
d
=0.
u 1

+
u

c
a
b du2
b
du
a . Ademas,
Simplificando la notacion, cambiamos la variable de u a z y la funcion de
haciendo tender b obtenemos:


z 00 (z) + (c z) 0 (z) a(z) = 0 .

(17.24)

La anterior es conocida como la ecuacion hipergeometrica confluente y su solucion se denota


por 1 F1 (a, c ; z). Esta ecuacion tiene una singularidad fuchsiana en z = 0 y una singularidad
esencial en z = . Una de las soluciones en torno a z = 0 es:



z
ab z a(a + 1)b(b + 1) z 2
lm 2 F1 a, b, c ;
= lm 1 +
+
+ ,
b
b
b
1c b 1 2 c(c + 1) b2
1 F1

(a, c ; z) = 1 +

az
a(a + 1) z 2
+
+ .
c 1! c(c + 1) 2!

(17.25)

Esta serie es conocida como la serie hipergeometrica confluente. Tiene radio de convergencia
infinito siempre que c 6= 0, 1, 2, 3, . . .. La otra solucion de la ecuacion diferencial es:
 z 1c

z
lm
= z 1c 1 F1 (a c + 1, 2 c ; z) , (17.26)
2 F1 a c + 1, b c + 1, 2 c ;
b b
b
con c 6= 1, 2, 3 . . .
Proposiciones
a) ez = 1 F1 (a, a ; z).

HIPERGEOMETRICA

17.5. ECUACION
CONFLUENTE


; z 2 .
R1
1
c) 1 F1 (a, c ; z) = B(a,ca)
(1 t)ca1 ta1 ezt dt.
0

b)

erf(z)
2

= z 1 F1

1 3
,
2 2

d) 1 F1 (a, c ; z) = ez 1 F1 (c a, c ; z).
Demostraciones
a) Directa a partir de la definicion dada en (17.26).
b)

c) y d) Tarea.



t2 t4
e dt =
1 + dt ,
1! 2!
0
0
3
5
z
z
z7
=z
+

+ ,
3

1!
5

2!
7

3!


1/2 z 2
1/2 3/2 z 4
=z 1
+
+ ,
3/2 1!
3/2 5/2 2!


1 3
2
, ; z
.
= z 1 F1
2 2

erf(z) =
2

t2

199

200

CAPITULO 17. FUNCIONES HIPERGEOMETRICAS

Captulo 18
Polinomios de Legendre
versi
on 16 noviembre 2009

En diversos problemas fsicos (gravitacion, electrostatica, etc.) nos encontramos con fuerzas que dependen del inverso de la distancia entre dos cuerpos. Los polinomios de Legendre
aparecen naturalmente en el problema geometrico de determinar esta distancia inversa, lo
cual los vincula con numerosas situaciones de interes fsico.

18.1.

Funci
on generatriz

Consideremos dos radios r0 y r que unen un punto O con dos puntos, A y B, respectivamente:

A
r0

La distancia d = AB esta dada por:


q
d = r2 + r02 2rr0 cos .
Definamos
x = cos ,

1 x 1 .

Si r > r0 y s = r0 /r < 1, conviene escribir


1
1
1
=
.
d
r 1 + s2 2sx
201

202

CAPITULO 18. POLINOMIOS DE LEGENDRE

Si, por el contrario, r < r0 , y s = r/r0 < 1:


1
1
1
.
=
d
r0 1 + s2 2sx
En ambos casos, la segunda fraccion es la misma y resulta ser precisamente la funcion
generatriz de los polinomios de Legendre.
Definici
on 18.1

(x, s) =

X
1
=
Pn (x)sn
2
1 + s 2xs n=0

(18.1)

es la funcion generatriz de los polinomios de Legendre Pn (x).


Observemos que (x, s) puede ser expandida en serie de Taylor en el argumento (s2 2xs):
1
3
(x, s) = [1 + (s2 2xs)]1/2 = 1 (s2 2xs) + (s2 2sx)2
2
8
1
2
= 1 + xs + (3x 1)s2 ,
2
lo cual nos permite encontrar expresiones explcitas para los polinomios de Legendre:
P0 (x) = 1 ,
P1 (x) = x ,
1
P2 (x) = (3x2 1) ,
2
1
P3 (x) = (5x3 3x) . . .
2

(18.2a)
(18.2b)
(18.2c)
(18.2d)

Considerando el caso particular x = 1 en (18.1):

X
1
1
Pn (1)sn .
(1, s) =
=
= 1 + s + s2 + s3 + =
2
1

s
1 + s 2s
n=0
Luego

Pn (1) = 1 n N0 .

(18.3)

Analogamente, tomando x = 1:

X
1
1
(1, s) =
=
= 1 s + s2 s3 + =
Pn (1)sn .
2
1
+
s
1 + s + 2s
n=0
Luego

Pn (1) = (1)n

n N0 .

(18.4)

Tambien es inmediato evaluar Pn (0):

X
X
1 2 3 4
1
(2 1)!! 2

= 1 s + s + = 1 +
s =
(0, s) =
(1)
Pn (0)sn ,
2
2
8
(2)!!
1+s
=1
n=0

203

18.2. RELACIONES DE RECURRENCIA


luego
Pn (0) = 0 si n es impar,
(2 1)!!
si 1,
P2 (0) = (1)
(2)!!
P0 (0) = 1 .

18.2.

Relaciones de recurrencia

1) Derivemos (18.1) respecto a s.

1
xs
= (1 + s2 2xs)3/2 (2s 2x) =

=
nPn (x)sn1 ,
s
2
1 + s2 2xs
n=0
es decir

(x s) = 0 .
s
Introduciendo la expansion (18.1) e igualando coeficientes de sn , se obtiene la relacion de
recurrencia
(1 + s2 2xs)

(n + 1)Pn+1 (x) x(2n + 1)Pn (x) + nPn1 (x) = 0 ,

n1,

P1 xP0 = 0 .

(18.5a)
(18.5b)

2) Escribamos los polinomios de Legendre en la forma


Pn (x) =

n
X

an,m xm .

(18.6)

m=0

Reemplazando en (18.5) y comparando coeficientes de xm+1 se sigue que:


(n + 1) a(n+1),(n+1) = (2n + 1)an,n ,
am,m =

2m 1
am1,m1 ,
m

m1.

(18.7)

Esta
es una relacion de recurrencia entre los coeficientes supremos de los polinomios de
Legendre. Puesto que a00 = 1 [relaciones (18.2)], se sigue que
a11 = 1 ,

a22 =

y en general
ann =

13
,
12

a33 =

135
...
123

(2n 1)!!
(2n)!
= n
.
n!
2 (n!)2

(18.8)

204

CAPITULO 18. POLINOMIOS DE LEGENDRE

3) Derivando (18.1) respecto a x se obtiene:


0
(x) = nPn (x)
xPn0 (x) Pn1

(18.9)

Derivando (18.5) respecto a x, y combinandola con (18.9) para eliminar el termino en

Pn0 (x):

0
0
(x) = (2n + 1)Pn (x)
(x) Pn1
Pn+1

(18.10)

Restando (18.9) y (18.10):


0
Pn+1
(x) xPn0 (x) = (n + 1)Pn (x)

18.3.

(18.11)

Coeficientes del polinomio Pn(x)

Consideremos (18.1) y expandamos (x, s) en serie de Taylor:




X
1/2
1
=
(s2 2sx)k ,
(x, s) = p
2
k
1 + (s 2sx) k=0
donde




1/2
(1/2)!

=
.
=
1
1
k
k!( 2 k)!
k!( 2 k)!

Por su parte,
k  
X
k 2
(s 2sx) =
s (2sx)k ,

=0
2

de modo que

 
X
k 
X
1/2 k
(x, s) =
(2x)k sk+ .
k

k=0 =0

Sea n = k + . Entonces


X
2k 
X
1/2
k
(x, s) =
(2x)2kn sn .
k
nk
k=0 n=k
Deseamos intercambiar el orden de las sumas. Para ello observemos la siguiente figura:
n
k=n

8
7
6
5
4
3
2
1
0
0 1 2 3 4 5 6 7 8

205

18.4. FORMULA
DE RODRIGUES

Efectuar la doble suma equivale a sumar sobre los pares ordenados (k, n) indicados con
puntos en la figura. El orden en que se realizan las sumas corresponde a desplazarnos sobre
el eje horizontal, escoger un valor de k, y luego desplazarnos sobre el eje vertical, recorriendo
los valores de n entre n = k y n = 2k. Equivalentemente, podemos desplazarnos primero
sobre el eje vertical, escoger un valor de n, y luego recorrer los puntos horizontalmente entre
los lmites k = [(n + 1)/2] y k = n. As, la doble suma se puede escribir:




n
X
X
1/2
k
(2x)2kn sn ,
(x, s) =
k
n

k
n=0 k=[ n+1 ]
2
donde

n+1
n

si n es par,
2
2


n+1
n+1
si n es impar.

2
2


Comparando con (18.1), identificamos





n
X
1/2
k
(2x)2kn .
Pn (x) =
k
nk
k=[ n+1
2 ]
Definiendo = n k, el lmite inferior de la suma corresponde a = n [(n + 1)/2] = [n/2],
de modo que



0
X
1/2
n
=
(2)n2 xn2 ,
Pn (x) =
n

=[ n
2]
o bien
Pn (x) =

[ n2 ]
X
=0

(1) (2n 2)!


xn2
2n (n )!(n 2)!!

De (18.12) es facil deducir que:


Pn (x) es par si n es par.
Pn (x) es impar si n es impar.

18.4.

F
ormula de Rodrigues

Puesto que

dn 2(n) (2n 2)! n2


x
=
x
,
dxn
(n 2)!

(18.12)

206

CAPITULO 18. POLINOMIOS DE LEGENDRE

(18.12) se puede reescribir en la forma:


[ n2 ]
1
dn 2(n)
1 X
Pn (x) = n
(1)
x
2 =0
!(n )! dxn
[ n2 ]
n!
1 dn X
x2(n)
= n
(1)
n
2 n! dx =0
!(n )!
=

1 dn 2
(x 1)n ,
2n n! dxn

obteniendose la formula de Rodrigues:


Pn (x) =

1 dn 2
(x 1)n
2n n! dxn

(18.13)

La formula de Rodrigues nos permite demostrar facilmente diversas propiedades de los


polinomios de Legendre, como veremos en las siguientes secciones.

18.5.

Ecuaci
on diferencial de Legendre

Nos interesa ahora determinar la ecuacion diferencial de la cual los polinomios de Legendre
son solucion. Sea
u(x) = (x2 1)n .
Entonces

dn+1
dxn+1

u0 (x) = n(x2 1)n1 2x ,


(x2 1)u0 (x) = 2nx(x2 1)n = 2nxu(x) ,
 2

dn+1
(x 1)u0 (x) = n+1 2nxu(x) .
dx

Desarrollando las derivadas de productos a ambos lados de esta expresion:


(x 1)u
2

(n+2)




n+1
n+1
(n+1)
(x) +
2xu
(x) +
2u(n) (x) =
1
2


2nxu

(n+1)



n+1
(x) +
2nu(n) (x) ,
1

(x2 1)u(n+2) (x) + 2xu(n+1) (x) n(n + 1)u(n) (x) = 0 .


Luego, con (18.13), obtenemos la ecuacion diferencial de Legendre:
(x2 1)Pn00 (x) + 2xPn0 (x) n(n + 1)Pn (x) = 0

(18.14)

18.6. LUGARES NULOS DE Pn (x)

18.6.

207

Lugares nulos de Pn(x)

Proposici
on 18.1 Pn (x) tiene lugares nulos simples en el intervalo (1, 1).
Demostraci
on Sea u(x) = (x2 1)n . Entonces u(x) tiene lugares nulos de multiplicidad n
en x = 1. Como u(1) = u(1) = 0, por el teorema del valor medio u0 (x0 ) = 0 para alg
un
x0 (1, 1). Pero u0 (1) = u0 (1) = 0, luego tambien es cierto que u00 (x) se anula dos veces
en (1, 1), una vez en (1, x0 ) y otra vez en (x0 , 1). Procediendo sucesivamente, se encuentra
que u(n) (x), y por ende Pn (x), se anula n veces en (1, 1).
Estos ceros son necesariamente simples, dada la condicion de polinomios ortogonales de
los polinomios de Legendre (seccion 18.7 y teorema 11.2).
q.e.d.

18.7.

Relaci
on de ortogonalidad

Supongamos 0 m < n, y observemos que, por la formula de Rodrigues (18.13):


2 n!
n

t Pn (t) dt =
m

tm u(n) (t) dt ,

donde u(t) = (t2 1)n . Integrando por partes:


2 n!
n

t Pn (t) dt = t u
m

m (n1)

1
Z

(t) m

tm1 u(n1) (t) dt .

El termino de borde es cero pues u(m) (1) = 0 si m < n. Analogamente, integrando por
partes m veces:
2n n!

tm Pn (t) dt = (1)m m!

1

u(nm) (t) dt = (1)m m! u(nm1) (t) = 0 .
1

Luego Pn (x) es ortogonal a todo polinomio de grado m < n en el intervalo [1, 1], en
particular a Pm (x).
En el caso m = n, el producto interno entre los polinomios de Legendre es:
(2 n!)
n

Pn2 (t) dt

u(n) (t)u(n) (t) dt .

Integrando por partes:


(2 n!)
n

Pn2 (t) dt

=u

1
Z

(n) (n1)

(n+1)

(t)u

(n1)

(t) dt =

u(n+1) (t)u(n1) (t) dt ,

208

CAPITULO 18. POLINOMIOS DE LEGENDRE

pues el termino de borde es nulo. As, integrando por partes n veces:


(2 n!)
n

Pn2 (t) dt

= (1)

= (1)n

u(2n) (t)u(t) dt

1
1


d2n  2
(t 1)n (t2 1)n dt .
2n
dt

d2n 2
[(t 1)n ] = (2n)!,
dt2n
Z 1
Z 1
n
2
2
n
(2 n!)
Pn (t) dt = (1) (2n)!
(1)n (1 t2 )n dt
1
1
Z 1
(1 t)n (1 + t)n dt .
= (2n)!

Usando que

Integrando por partes:


(2n n!)2

"

#

Z 1
n+1 1
(1
+
t)
n
+
Pn2 (t) dt = (2n)! (1 t)n
(1 t)n1 (1 + t)n+1 dt

n
+
1
n
+
1
1
1
1
Z 1
n
(1 t)n1 (1 + t)n+1 dt
= (2n)!
n + 1 1

Analogamente, integrando por partes n veces:


(2 n!)
n

Pn2 (t) dt

n(n 1)(n 2) 2 1
= (2n)!
(n + 1)(n + 2) 2n
= (2n)! n!

1 (1 + t)2n dt

1
1

2n+1

n!
1
(1 + t)
(2n)! 2n + 1

(n!)2 22n+1
.
2n + 1

Obtenemos as la relacion de ortogonalidad :


Z

Pn (t)Pm (t) dt =

2
nm
2n + 1

(18.15)

Notar que, en particular, la relacion anterior implica que | Pn (t) | < 1 en [1, 1], para todo
n 1.

18.8.

Expresiones integrales para Pn(x)

Sabemos, por el Teorema de Cauchy, que una funcion analtica se puede escribir en terminos de una integral de contorno:
I
n!
f (u)
(n)
f (z) =
du .
2i
(u z)n+1

18.8. EXPRESIONES INTEGRALES PARA Pn (x)

209

Sea

1
(z 2 1)n .
n!
Entonces los polinomios de Legendre se pueden escribir en la forma:
I
n! 1
(u2 1)n
(n)
Pn (z) = f (z) =
du ,
2i 2n n!
(u z)n+1
f (z) =

2n

obteniendose la formula de Schlafli :


1 1
Pn (z) = n
2 2i

(u2 1)n
du
(u z)n+1

(18.16)

Integremos sobre una circunferencia de centro z y radio . Entonces


u = z + ei ,

0 < 2 ,

du = ie d = i(u z)d ,
i

luego
u2 1
z 2 + 2zei + 2 e2i 1
=
uz
ei

1 2
=
(z 1)ei + 2z + 2 ei ,

de modo que
Z 2

1  2
1 1
i
2 i n
(z

1)e
+
2z
+

e
i d
Pn (z) = n
2 2i 0 n
Z 2
 2
n
1 1 1
(z 1)ei + 2z + 2 ei d .
= n
n
2 2 0

Si z =
6 1 podemos tomar = z 2 1, con lo cual la relacion anterior queda:
Z 2
 2 i
n
1 1 1
i

(e
+
e
)
+
2z
d
Pn (z) = n
2 2 n 0
n
Z 2  2 i
1
(e + ei ) 2z
=
+
d
2 0

2
2
Z 2
1
=
[ cos + z]n d .
2 0
Se obtiene as la relacion de Laplace:
1
Pn (z) =
2

z+

z2

in
1 cos d

Para z = 1 tenemos simplemente


Pn (1) = (1)n .

(18.17)

210

CAPITULO 18. POLINOMIOS DE LEGENDRE

Corolario | Pn (x) | 1 n N0 ,

x [1, 1] .

Demostraci
on Sea x [1, 1]. Adoptamos la convencion de que la raz cuadrada es un
n
umero positivo, y escribimos

x2 1 = i 1 x2 .
El integrando en (18.17) satisface:
2



2
x + i 1 x cos = x2 + (1 x)2 cos2 x2 + 1 x2 = 1 ,
luego


2 n/2



2
1.
x + i 1 x cos

As,

1
| Pn (x) |
2

Z 2

n

1


2
d = 1 .
x + i 1 x cos d
2 0
q.e.d.

z 2 1 = i sen , se obtiene la representacion adicional:


Z 2
1
(cos + i sen cos )n d ,
Pn (cos ) =
2 0

Poniendo z = cos en (18.17),

1
Pn (cos ) =

18.9.

(cos + i sen cos )n d

(18.18)

Serie de Legendre

Los polinomios de Legendre, siendo ortogonales en [1, 1], son candidatos a ser una base
en ese intervalo, de modo que una funcion arbitraria podra ser escrita como una combinacion
lineal de los PnP
. Estudiemos esta posibilidad.
Si la serie
a f (x), es
=0 a P (x) converge uniformemente en [1, 1] y representa all
decir,

X
f (x) =
a P (x) ,
=0

entonces
Z

f (x)Pn (x) dx =

X
=0

a
1

P (x)Pn (x) dx =

X
=0

a n

2
2an
=
.
2n + 1
2n + 1

Entonces los coeficientes de Fourier de f (x) respecto a los polinomios de Legendre estan
dados por:

Z 1
1
an = n +
f (x)Pn (x) dx .
(18.19)
2
1

211

18.9. SERIE DE LEGENDRE

A la inversa: Sea f (x) una funcion dada, acotada y seccionalmente continua en [1, 1].
Entonces se pueden calcular los coeficientes de Fourier a respecto a P y construir la serie

a P (x) .

=0

Converge la serie? Si converge, representa a f (x)?


Para saberlo, tomemos el modulo de (18.19):
Z 1

1
| f (x) | | Pn (x) | dx .
| an | n +
2
1
Sea M = maxx[1,1] | f (x) |. Como | Pn (x) | 1,


1
| an | n +
2M = (2n + 1)M .
2
Esto no es muy u
til, pues si bien es una cota para los coeficientes an , la cota crece con n, y
no podemos mostrar que an 0.
n

Intentemos ahora con una integracion por partes. Si f 0 existe y es continua en [1, 1],
entonces se puede integrar por partes (18.19), obteniendose
#
1

"
Z x
Z 1
Z x

1
an = n +
f (x)
Pn (x0 ) dx0
f 0 (x)
Pn (x0 ) dx0 dx .
2
1
1
1
1
Pero, de la relacion de recurrencia (18.10),
Z x
1
[Pn+1 (x) Pn1 (x)] ,
Pn (x0 ) dx0 =
2n + 1
1
con lo cual

1
an =
2

f 0 (x)[Pn+1 (x) Pn1 (x)] dx .

(En principio, esta relacion es solo valida para n > 0, pero ello no importa, pues nos interesa
encontrar cotas para an , y basta encontrarlas para n suficientemente grande.) As,
Z
Z 1
1 1 0
| an |
| f (x) | (| Pn+1 (x) | + | Pn1 (x) |) dx
| f 0 (x) | dx 2M 0 ,
2 1
1
donde

M 0 = max | f 0 (x) | .
x[1,1]

Vemos que, en efecto, integrar por partes resulto una mejor estrategia, pues la cota obtenida
ahora no crece con n, sino que es constante. A
un no es suficiente para mostrar convergencia,
pero el resultado sugiere que vale la pena integrar por partes una vez mas. Realizando entonces
el mismo procedimiento suponiendo que f 00 es seccionalmente continua en [1, 1] se obtiene
que
1
| an | ' 2 A ,
n

212

CAPITULO 18. POLINOMIOS DE LEGENDRE

P
para
P n suficientemente grande, y A cierta constante. Por tanto, n=0 | an | converge, luego
n=0 an Pn (x) converge uniformemente.
Ahora
P nos preguntamos: Dada una funcion f , calculamos los coeficientes an y sabemos
que n=0 an Pn (x) converge uniformemente. Representa esta serie de Legendre la funcion
f (x)? Para responder, consideremos la diferencia entre la serie y la funcion f (x):
g(x) = f (x)

a P (x) .

=0

Los coeficientes de Fourier de g(x) son:


bn =

1
n+
2

= an

#

 "Z 1
Z 1

X
1
g(x)Pn (x) dx = n +
f (x)Pn (x) dx
a
P (x)Pn (x) dx
2
1
1
1
=0

Z

a n = 0 .

=0

Afirmamos que

g(x) 0 .

Demostraci
on Supongamos que g(x) 6= 0 en un intervalo [, ] [1, 1]. Sin perdida de
generalidad, supongamos ademas que g(x) > 0 en este intervalo. Sea q(x) un polinomio de
grado dos tal que q() = q() = 1 y q(x) < 1 en [1, ] [, 1]. Graficamente:

y=1
g

-1

Luego
Z

g q
k1

g qk > 0 .

Pero g(x) es ortogonal a todos los polinomios Pn (x), y por tanto a todo polinomio (es claro
que todo polinomio se puede escribir como combinacion lineal de los Pn (x); lo que estamos
tratando de probar es que toda funcion se puede expandir en una serie de Legendre), luego
Z

g qk = 0 ,

lo que contradice nuestro resultado anterior.

213

18.10. FUNCIONES ASOCIADAS DE LEGENDRE


Por lo tanto g(x) 0.

q.e.d.

Luego,
f (x) =

a P (x) .

=0

18.10.

Funciones asociadas de Legendre

Una manera de obtener la ecuacion asociada de Legendre es partir de la ecuacion regular


de Legendre (18.14)
(1 x2 )Pn00 2xPn0 + n(n + 1)Pn = 0 ,
(18.14)
y con la ayuda de la formula de Leibniz, para la derivada n-esima de un producto de funciones,
n

X
n!
ds
dns
dn
[A(x)B(x)]
=
A(x)
B(x) .
dxn
(n s)!s! dxns
dxs
s=0

(18.20)

Diferenciando (18.14) m veces, se obtiene:


(1 x)2 u00 2x(m + 1)u0 + (n m)(n + m + 1)u = 0 ,
donde
u(x)

(18.21)

dm
Pn (x) .
dxm

Reemplazando
(x) = (1 x2 )m/2 u(x) = (1 x2 )m/2

dm
Pn (x) ,
dxm

resolviendo para u y diferenciando,




mx
0
0
u = +
(1 x2 )m/2 ,
1 x2


2mx 0
m
m(m + 2)x2
00
00
u = +
+
+
(1 x2 )m/2 .
1 x2
1 x2
(1 x2 )2
Sustituyendo en la ecuacion (18.21), encontramos que satisface la ecuacion diferencial

m2
(1 x ) 2x + n(n + 1)
=0.
1 x2
2

00

(18.22)

La cual es conocida como la ecuacion asociada de Legendre. Para reobtener la ecuacion de


Legendre (18.14) basta tomar m = 0. Haciendo el cambio de variable x = cos , obtenemos
la ecuacion expresada en coordenadas polares, que es la forma usual en que nos la vamos a
encontrar

 

1 d
d
m2
sen
+ n(n + 1)
=0.
(18.23)
sen d
d
sen2

214

CAPITULO 18. POLINOMIOS DE LEGENDRE

Las soluciones regulares, denotadas por Pnm (x), son:


(x) = Pnm (x) = (1 x2 )m/2

dm
Pn (x) .
dxm

(18.24)

Ocasionalmente los Pnm (x) aparecen en su definicion con un factor (1)m , por ejemplo en
Classical Electrodynamics, Second Edition de J.D. Jackson, esta eleccion es conocida como
fase de Magnus y Oberhettinger o de Condon y Shortley. Nosotros incluiremos esta fase en la
definicion de los armonicos esfericos, al estilo seguido en Mathematical Methods for Physicists,
Fourth Edition de G.B. Arfken y H.J. Weber. A pesar de que el factor de fase se introduce
en distintos puntos de las definiciones los armonicos esfericos resultantes son iguales.
En coordenadas polares, x = cos , (18.24) queda

m
 m
d
d d
m
m
Pm (cos ) =
Pm (cos ) .
(18.25)
Pn (cos ) = sin
d cos d
d
As, si bien (18.24) puede aparecer complicada, su version en coordenadas polares es mucho
mas transparente: la funcion asociada de Legendre es una derivada m-esima del polinomio
de Legendre de grado n.
Usando (18.24), o bien (18.25), podemos escribir explcitamente las primeras funciones
asociadas de Legendre:
P11 (x) = (1 x2 )1/2 = sen ,
P21 (x) = 3x (1 x2 )1/2 = 3 cos sen ,
P22 (x) = 3 (1 x2 ) = 3 sen2 ,
3
3
P31 (x) = (5x2 1) (1 x2 )1/2 = (5 cos2 1) sen ,
2
2
2
2
P3 (x) = 15x (1 x ) = 15 cos sen2 ,
P33 (x) = 15 (1 x2 )3/2 = 15 sen3 ,
5
5
P41 (x) = (7x3 3x) (1 x2 )1/2 = (7 cos3 3 cos ) sen ,
2
2
15
15
2
2
2
P4 (x) =
(7x 1) (1 x ) = (7 cos2 1) sen2 ,
2
2
P43 (x) = 105x (1 x2 )3/2 = 105 cos sen3 ,
P44 (x) = 105 (1 x2 )2 = 105 sen4 .

(18.26)

Tambien es posible generalizar los resultados anteriores a m negativo. De hecho, (18.23)


muestra que Pnm satisface la misma ecuacion que Pnm , y por ende deberan ser proporcionales
entre s. La relacion entre Pnm y Pnm es:
Pnm (x) = (1)m

(n m)! m
P (x) .
(n + m)! n

(18.27)

A partir de la funcion generatriz de los polinomios de Legendre, por ejemplo, se puede encontrar la funcion generatriz de las funciones asociadas de Legendre:

X
(2m)!(1 x2 )m/2
m
=
(x)t .
P+m
m
2
m+1/2
2 m!(1 2tx + t )
=0

(18.28)

18.11. PROBLEMA DE STURM-LIOUVILLE ASOCIADO

215

Usando dicha funcion generatriz, encontramos relaciones de recurrencia para las funciones
asociadas de Legendre:
Pnm+1

2mx
P m + [n(n + 1) m(m 1)]Pnm1 = 0 ,
(18.29)
(1 x2 )1/2 n
m
m
(n + m)Pn1
+ (n m + 1)Pn+1
= (2n + 1)xPnm , (18.30)
1 m+1 1
P
(n + m)(n m + 1)Pnm1 = (1 x2 )1/2 Pnm 0 , (18.31)
2 n
2

m+1
m1
(2n + 1)(1 x2 )1/2 Pnm = Pn+1
Pn1
,
m1
= (n + m)(n + m 1)Pn1
m1
(n m + 1)(n m + 2)Pn+1
.

(18.32)
(18.33)

Notamos que, en este caso, cada funcion tiene dos ndices, por ende hay una mayor riqueza
en el tipo de relaciones de recurrencia que se pueden encontrar. Algunas involucran cambios
solo en m, otras solo en n, y otras en ambos.
Es claro tambien que la relacion de paridad satisfecha por las funciones asociadas de
Legendre es
Pnm (x) = (1)n+m Pnm (x) .
(18.34)
Ademas, se satisface en los extremos que
Pnm (1) = 0

para m 6= 0.

(18.35)

Finalmente, las funciones asociadas de Legendre satisfacen distintas relaciones de ortogonalidad dependiendo sobre cual ndice se tomen. La primera:
Z 1
2 (q + m)!
Ppm (x)Pqm (x) dx =
p q ,
(18.36)
2q + 1 (q m)!
1
o en coordenadas polares
Z
Ppm (cos )Pqm (cos ) sen d =
0

2 (q + m)!
p q .
2q + 1 (q m)!

(18.37)

Sobre el otro ndice


Z

18.11.

Pnm (x)Pnk (x)(1 x2 )1 dx =

(n + m)!
m k .
m(n m)!

(18.38)

Problema de Sturm-Liouville asociado

La ecuacion asociada de Legendre (18.22) o (18.23) se puede reescribir en la forma




d
m2
2 dy
(1 x )

y + n(n + 1)y = 0 .
(18.39)
dx
dx
1 x2

216

CAPITULO 18. POLINOMIOS DE LEGENDRE

La condicion de borde

y(1) finito

(18.40)

asegura que las soluciones sean las funciones asociadas de Legendre [ver (18.35), (18.3) y
(18.4)]. Claramente, esto corresponde a un problema de autovalores de un operador diferencial
autoadjunto de la forma general (14.7), con A(x) = (1x2 ), B(x) = m2 /(1x2 ), y donde el
problema de autovalores esta caracterizado por una funcion de peso w(x) = 1, y autovalores
= n(n + 1) (ver tabla en Seccion 14.4).
La relevancia fsica de este problema se aprecia al considerar ecuaciones que contengan el
laplaciano:
2 (~r) + f (r)(~r) = 0 ,

(18.41)

Estas ecuaciones aparecen frecuentemente en Fsica, ya sea para encontrar el potencial


electrostatico debido a una distribucion de cargas [f (r) = 0], los modos normales de oscilacion
de un medio continuo (una cavidad esferica, una membrana, etc.) [f (r) = k 2 ], o, en Mecanica
Cuantica, la dependencia espacial de una funcion de onda en un potencial central dado por
f (r).
Si el problema tiene simetra esferica (potencial fuera de un conductor esferico, ondas en
una cavidad esferica, problema cuantico con potencial coulombiano, etc.), conviene resolver
este problema mediante separacion de variables, en coordenadas esfericas. Como la u
nica
dependencia angular proviene del operador laplaciano, se obtiene la siguiente ecuacion tras
la separacion de variables:


d()
() d2 ()
() d
sen
+
+ ()() = 0 .
(18.42)
sen d
d
sen2 d2
La dependencia azimutal satisface

con soluciones

1 d2 ()
= m2 ,
() d2

(18.43)



() = eim , eim .

(18.44)

Las cuales satisfacen la condicion de ortogonalidad


Z 2
Z 2

eim1 eim2 d = 2m1 m2 .


m1 ()m2 () d =
0

(18.45)

En la mayora de los problemas fsicos requerimos que m sea un entero para que (), sea
una funcion monovaluada del angulo azimutal. Dada la relacion (18.45)
1
m () = eim ,
2

(18.46)

es un conjunto de funciones ortonormales con respecto a la integracion sobre el angulo azimutal . Separando la dependencia azimutal, la dependencia en el angulo polar conduce a
una ecuacion asociada de Legendre

 

1 d
d()
m2
sen
+
() = 0 .
(18.47)
sen d
d
sen2

217

18.12. ARMONICOS
ESFERICOS

Nos aseguramos de que las soluciones no diverjan en cos = 1 poniendo = n(n + 1),
pues en ese caso esta ecuacion tiene por solucion las funciones asociadas de Legendre () =
Pnm (cos ). Por tanto, cualquier problema laplaciano con simetra esferica corresponde a un
problema de autovalores de un operador autoadjunto (problema de Sturm-Liouville). Las
soluciones de este problema seran ortogonales para distintos autovalores, y se podra construir
una base del espacio de soluciones con ellas. En otras palabras, la parte angular de cualquier
solucion de la ecuacion diferencial (18.41) se podra escribir como una combinacion lineal de
los Pnm (cos ).
Puesto que los polinomios de Legendre se reobtienen con m = 0, se sigue que gran parte
de la discusion en las secciones 18.7 y 18.9 es solo una manifestacion de estas conclusiones
generales.

18.12.

Arm
onicos esf
ericos

En la seccion anterior mostramos que la parte angular de un problema laplaciano con


simetra esferica consta de dos partes:
()() = Anm Pnm (cos )eim ,
con Anm una cierta constante de normalizacion, m entero, positivo o negativo, si la funcion
debe ser monovaluada en la variable , y n entero para que las soluciones no diverjan en
cos = 1.
La definicion (18.24) en principio solo contempla m > 0. Para incluir valores negativos
de m usamos la formula de Rodrigues en la definicion de Pnm (cos ):
Pnm (x) =

m+n
1
2 m/2 d
(1

x
)
(x2 1)n ,
n
m+n
2 n!
dx

Normalizando las funcion asociadas de Legendre


s
(2n + 1) (n m)! m
P (cos ) ,
Pnm (cos ) =
2
(n + m)! n

n m n .

n m n .

(18.48)

(18.49)

Ahora bien, la funcion m () = eim / 2 es ortonormal con respecto al angulo azimutal ,


y la funcion Pnm (cos ) es ortonormal con respecto al angulo polar . Consideramos entonces
el producto de ambas y definimos los armonicos esfericos:
s
Ynm (, ) = Ynm (, ) (1)m

(2n + 1) (n m)! m
Pn (cos ) eim ,
4 (n + m)!

(18.50)

que son funciones en los dos angulos, ortonormales sobre la superficie esferica. La integral
completa de ortogonalidad es
Z 2 Z
Ynm1 1 (, )Ynm2 2 (, ) sen dd = n1 n2 m1 m2 ,
(18.51)
=0

=0

218
o bien,

CAPITULO 18. POLINOMIOS DE LEGENDRE

Ynm1 1 ()Ynm2 2 ()d = n1 n2 m1 m2 ,

(18.52)

donde es el angulo solido.


A continuacion, una lista de los primeros armonicos esfericos:
1
Y00 (, ) =
,
4
r
3
1
sen ei ,
Y1 (, ) =
8
r
3
0
Y1 (, ) =
cos ,
4
r
3
Y11 (, ) =
sen ei ,
8
r
5
Y22 (, ) =
3 sen2 e2i ,
96
r
5
1
Y2 (, ) =
3 sen cos ei ,
24
r 

1
5 3
0
2
Y2 (, ) =
cos
,
4 2
2
r
5
1
3 sen cos ei ,
Y2 (, ) =
24
r
5
Y22 (, ) =
3 sen2 e2i .
96

(18.53)

Parte de la importancia de los armonicos esfericos yace en la propiedad de completitud.


Esta propiedad, en este caso, significa que cualquier funcion f (, ), con las suficientes propiedades de continuidad, evaluada sobre la superficie de la esfera puede ser expandida en
una uniformemente convergente doble serie de armonicos esfericos, conocida como serie de
Laplace,
X
n
X
X
m
f (, ) =
amn Yn (, ) =
amn Yn (, ) .
(18.54)
m,n

n=0 m=n

Si f (, ) es conocida, los coeficientes pueden ser inmediatamente encontrados por el uso de


la integral de ortogonalidad (18.51).
Una propiedad importante que satisfacen los armonicos esfericos es:
Ynm (, ) = (1)m Ynm (, ) .

(18.55)

Consideremos a continuacion dos direcciones en coordenadas polares esfericas en un espacio tridimensional, (1 , 1 ) y (2 , 2 ). El angulo entre las dos direcciones lo denotamos .
Este angulo satisface la siguiente identidad trigonometrica
cos = cos 1 cos 2 + sen 1 sen 2 cos(1 2 ) .

(18.56)

219

DE LA ECUACION
DE LEGENDRE
18.13. SEGUNDA SOLUCION
El teorema de adicion para los armonicos esfericos afirma que
Pn (cos ) =

n
X
4
(1)m Ynm (1 , 1 )Ynm (2 , 2 ) ,
2n + 1 m=n

(18.57)

o equivalentemente
n
X
4
Pn (cos ) =
Y m (1 , 1 )Ynm (2 , 2 ) .
2n + 1 m=n n

(18.58)

En terminos de los polinomios de Legendre


n
X
(n m)! m
Pn (cos 1 )Pnm (cos 2 ) cos[m(1 2 )] .
(n + m)!
m=1
(18.59)
La ecuacion (18.56) es un caso especial de la ecuacion (18.59).

Pn (cos ) = Pn (cos 1 )Pn (cos 2 ) + 2

18.13.

Segunda soluci
on de la ecuaci
on de Legendre

Los polinomios de Legendre son solucion de la ecuacion diferencial (18.14). Pero esta es
una ecuacion de segundo grado, y por tanto debe existir otra solucion, linealmente independiente a los Pn (x). La encontraremos observando que los polinomios de Legendre son un caso
particular de la funcion hipergeometrica. En efecto, consideremos la ecuacion hipergeometrica
general:

1 0 1 0 1 0
+
+
W0
W +
zA
zB
zC


0
0
0
(A B)(B C)(C A)
+
+
W =0,

(z A)(B C) (z B)(C A) (z C)(A B)


(z A)(z B)(z C)
00

con soluciones

A B C

z
P
.
0 0 0

Considerando el caso particular


A = 1 ,
B=1,
C=,
0
0
= = 0 , = = 0 , = n , 0 = n + 1 ,

(18.60)

que satisface la condicion + 0 + + 0 + + 0 = 1, la ecuacion hipergeometrica queda




1
1
n(n + 1)
00
+
W0
W =0,
W +
z+1 z1
(z + 1)(z 1)
es decir

(z 2 1)W 00 + 2zW 0 n(n + 1)W = 0

(18.61)

220

CAPITULO 18. POLINOMIOS DE LEGENDRE

que es la ecuacion diferencial de Legendre ya encontrada en (18.14).


Los polinomios de Legendre se pueden escribir entonces como la funcion

1 1

0 0 n z
Pn (z) = P
.

0 0 n+1

(18.62)

As pues, la ecuacion de Legendre tiene singularidades Fuchsianas en 1, 1 e . Las


races de la ecuacion indicial en torno a 1 son ambas cero, por lo tanto estamos en el caso
incomodo, en que el metodo de Frobenius solo puede darnos una solucion por serie, y la otra
tiene un termino logartmico.
Observemos que la expresion (15.26) para la segunda solucion de una
R xecuacion con singularidades indica que esta solucion se puede escribir en la forma Pn (x) u(t) dt, con u(x)
cierta funcion. A partir de este hecho, se puede mostrar que la expresion
1
Qn (z) =
2

Pn (t)
dt
zt

(18.63)

es solucion de la ecuacion de Legendre. En efecto,


Z 1
Z 1
Pn (t)
Pn (t)
2
00
0
2
(z 1)Qn (z) + 2zQn (z) =
(z 1)
dt

z
dt
2
(z t)3
1
1 (z t)

Z 1 2
t(z t)
t 1
+
=
Pn (t) dt
3
(z t)3
1 (z t)
Z 1
Z 1
tPn (t)
dt
2
+
dt .
=
(t 1)Pn (t)
2
(z t)3
1 (z t)
1
Integrando por partes la primera integral:

2
00
0
(z 1)Qn (z) + 2zQn (z) = (t2 1)Pn (t)
1

 2

(t 1)Pn0 (t) + 2tPn (t)

1
1

 1

1

2
2(z t) 1

dt
+
2(z t)2

tPn (t)
dt
(z t)2

(t2 1)Pn0 (t)


dt .
2(z t)2

Integrando nuevamente por partes:



2
00
0
(z 1)Qn (z) + 2zQn (z) = (t2 1)Pn0 (t)

 1
Z 1 2

1
1
(t 1)Pn00 (t) + 2tPn0 (t)
+
dt .
2(z t) 1 2 1
zt

Luego
(z 2 1)Q00n (z) + 2zQ0n (z) n(n + 1)Qn (z)
Z
1 1 (t2 1)Pn00 (t) + 2tPn0 (t) n(n + 1)Pn (t)
=
dt .
2 1
zt

DE LA ECUACION
DE LEGENDRE
18.13. SEGUNDA SOLUCION

221

Pero el integrando es precisamente la ecuacion de Legendre, que es satisfecha por los Pn ,


luego el integrando es cero y
(z 2 1)Q00n (z) + 2zQ0n (z) n(n + 1)Qn (z) = 0 .

(18.64)

Las funciones Qn (z) son la segunda solucion de la ecuacion de Legendre. (18.63) se puede
reescribir:
Z
1 1
1
Q (z, t) dt ,
(18.65a)
Qn (z) = Pn (z)I(z)
2
2 1 n
con
Z 1
dt
I(z) =
,
(18.65b)
1 z t
Pn (z) Pn (t)
Qn (z, t) =
.
(18.65c)
zt
Se tiene

t=1



z
+
1
I(z) = ln(z t)
= ln(z + 1) ln(z 1) = ln
,
z1
t=1

que es univaluado en todo el plano complejo, salvo en la recta 1 z 1, luego




z+1
, salvo en 1 z 1.
I(z) = ln
z1

(18.66)

El numerador de Qn es un polinomio de grado n, y su denominador es un polinomio de


grado 1. Se puede mostrar que Qn es un polinomio de grado n 1 en t y z. As, la segunda
integral en (18.65a) es un polinomio en z de grado n 1. Finalmente,
1
Qn (z) = Pn (z) ln
2

z+1
z1

qn (z) ,

(18.67)

con qn (z) un polinomio de grado n1 con coeficientes reales, que tiene el termino logartmico
que esperabamos.
Para 1 < < 1, (18.67) nos permite afirmar que
Qn ( + 0i) = Qn ( 0i) iPn () .
Basta considerar el circuito en torno al polo en z = 1:

-1

+1

(18.68)

222

CAPITULO 18. POLINOMIOS DE LEGENDRE

Afirmaci
on Si x es real, | x | > 1, entonces Qn (x) R.
Demostraci
on Basta observar que el argumento del logaritmo en (18.67) es siempre positivo, pues el numerador y el denominador son positivos (negativos) si x > 1 (x < 1).
q.e.d.
Denominamos a las soluciones Qn de la ecuacion de Legendre, funciones de Legendre de
segunda especie.
De las expresiones explcitas (18.65a), (18.65c) y (18.67), notamos que


z+1
1
,
(18.69)
Q0 (z) = ln
2
z1


z
z+1
Q1 (z) = ln
1 .
(18.70)
2
z1
Expansi
on en serie
Podemos utilizar (18.63) para encontrar una expansion en serie para Qn . En efecto,
Z 1
1
1
Qn (z) =
Pn (t) dt .
2z 1 1 zt
Si | z | > 1,
 
Z
1 X 1 t
Pn (t) dt .
Qn (z) =
2z =n 1 z
Observemos que todos los terminos con < n en la suma son cero, debido a la ortogonalidad
de Pn (t) y t . Obtenemos as
Qn (z) =

bn+1
bn+2
+ n+2 + ,
n+1
z
z

con
1
b =
2
En particular,
bn+1
Como

1
=
2

t1 Pn (t) dt .

tn Pn (t) dt .

1 3 (2n 1) n
t + ,
1 2 n
se tiene, dada la ortogonalidad de Pn (t) con polinomios de grado menor que n,
Z 1
1
1 2 n
1
1 2 n
2
bn+1 =
Pn (t)Pn (t) dt =
.
2 1 3 (2n 1) 1
2 1 3 (2n 1) 2n + 1
Pn (t) =

DE LA ECUACION
DE LEGENDRE
18.13. SEGUNDA SOLUCION
Es decir,
bn+1 =

223

n!
.
(2n + 1)!!

Relaci
on de recurrencia
Obtengamos una relacion de recurrencia para Qn (z). En general,
lm z n Qn (z) = 0 ,

| z |

n = 0, 1. . .

Sea n 1. Entonces
(n + 1)Qn+1 z(2n + 1)Qn + nQn1 =


1
z+1
[(n + 1)Pn+1 z(2n + 1)Pn + nPn1 ] ln
(polinomio) .
2
z1
El factor entre parentesis cuadrados es cero. Sea | z | . Entonces
0 = lm (polinomio) ,
| z |

luego el polinomio es nulo. Por tanto, para todo z,


(n + 1)Qn+1 z(2n + 1)Qn + nQn1 = 0

(18.71)

Ejemplo Sea z 6 [1, 1]. Entonces

X
1
an Pn (t) ,
=
z t n=0
al menos en 1 t 1. Los coeficientes de la expansion estan dados por

Z 1
1
Pn (t)
an = n +
dt = (2n + 1)Qn (z) ,
2
1 z t
luego

X
1
=
(2n + 1)Pn (t)Qn (z) .
z t n=0

(18.72)

Afirmaci
on (Sin demostraci
on) El desarrollo (18.72) es valido en el interior de la elipse
con focos en 1 que pasa por z:
Im(t)
z

-1

Re(t)

224

CAPITULO 18. POLINOMIOS DE LEGENDRE

Captulo 19
La ecuaci
on diferencial de Bessel
versi
on 14 diciembre 2009

En el Captulo anterior hemos observado que en problemas con simetra esferica, en que
aparece el operador de Laplace, la ecuacion angular involucra a la ecuacion asociada de Legendre. En este Captulo estudiaremos otra ecuacion diferencial, que tambien resultara estar
relacionada con el operador de Laplace, pero en coordenadas cilndricas: la ecuacion de Bessel. En este Captulo revisaremos algunas de las propiedades matematicas de la ecuacion de
Bessel y de sus soluciones; en el Captulo ?? aplicaremos lo aprendido en la resolucion de
problemas de interes fsico.

19.1.

La ecuaci
on diferencial de Bessel

Consideremos en la ecuacion hipergeometrica general el caso A = 0, C = , + 0 = 0,


+ 0 = 1 y + 0 = 0, lo cual esta de acuerdo con + 0 + + 0 + + 0 = 1


1 0
B 0
B 0
0
00
+ + 2
+
+
=0,
z
z (z B) z(z B)2 z(z B)
si consideramos ademas, 0 = 0 = B 2 y tomamos el lmite B , obtenemos


1 0
2
+ + 1 2 =0 .
z
z
00

(19.1)

la cual es conocida como la ecuacion diferencial de Bessel. Esta ecuacion tiene una singularidad fuchsiana en z = 0 cuando Re() > 0. Planteamos como solucion
(z) = z

a z =

=0

a z + .

=0

Sustituyendo en la ecuacion (19.1)


z 2 00 + z0 2 = z 2 ,
225

226

DIFERENCIAL DE BESSEL
CAPITULO 19. LA ECUACION

tenemos

X


a ( + )( + 1) + a ( + ) a

a2 z + ,

=2

=0

obteniendo



a ( + )2 2 = a2 ,

mientras que para = 0

= 2, 3, . . . ,

a0 ( 2 2 ) = 0 ,

lo que da una ecuacion para el exponente 2 = 2 , con dos soluciones, 1 = + y 2 = .


Elegimos = 1 = + y a0 6= 0. Para = 1
a1 (1 + 2) = 0 ,
lo que implica a1 = 0. Ademas, usando la formula recursiva para los coeficientes
a =

a2
,
( + 2)

(19.2)

se puede demostrar que todos los coeficientes impares son nulos. Los coeficientes pares
a2 =

22

a0
,
1! ( + 1)

a4 =

24

a0
,
2! ( + 1)( + 2)

...

El termino general es
a2 = (1)

22

a0
.
! ( + 1)( + 2) ( + )

Tomando
a0 =
se obtiene
J (z) =

 z  X

=0

1
,
( + 1)

 z 2
(1)
,
! ( + + 1) 2

(19.3)

con Re 0, conocida como funcion de Bessel de orden .

19.2.

Funciones de Bessel de ndice no entero

Si es no entero, estamos en un caso sencillo de estudiar, porque hay dos soluciones


linealmente independientes inmediatas.
En efecto, consideremos = . Hay solucion, en este caso, linealmente independiente
de J , en forma de serie
J (z) =

 z  X

=0

 z 2
(1)
,
! ( + 1) 2

(19.4)

227

19.2. FUNCIONES DE BESSEL DE INDICE NO ENTERO

Notemos que, en rigor, solo podemos asegurar que si 1 2 = 2 es no entero, las dos
soluciones J y J son linealmente independientes. Esto todava deja abierta la posibilidad
de que si es semientero, no sean linealmente independientes. Afortunadamente, no es as.
Mostremos lo anterior con = 1/2. En este caso, la resta de las dos races 1 2 =
1/2 + 1/2 = 1 Z. Sin embargo, a pesar de estar en el caso incomodo las dos soluciones
todava funcionan (habamos encontrado un hecho similar al discutir el oscilador armonico).
En efecto, consideremos = 1/2. El denominador en (19.3) se puede reescribir
!( + 3/2) = !( + 1/2)( + 1/2) .

Pero (n + 1/2) = (2n 1)!! /2n , luego

! ( + 3/2) = !( + 1/2)(2 1)!! /2

= !(2 + 1)(2 1)!! /2+1

= !(2 + 1)!! /(2+1 )


Y como (2n + 1)!! =

(2n + 1)!
, de modo que
2n n!

! ( + 3/2) = (2 + 1)! /22+1 ,

se tiene finalmente
J1/2 (z) =

es decir

z 1 X (1) 22+1 z 2+1

,
2 z =0 (2 + 1)! 22

r
J1/2 (z) =

2 X (1) 2+1
z
.
z =0 (2 + 1)!

(19.5)

La sumatoria en (19.5) es el desarrollo en serie de sen z, luego


2 sen z

(19.6)

2 X (1) 2
z ,
z =0 (2)!

(19.7)

2 cos z

(19.8)

r
J1/2 (z) =
La otra solucion resulta ser
r
J1/2 (z) =
o bien

r
J1/2 (z) =

Sin demostracion: J para ndices = (2n + 1)/2 se expresa por formulas semejantes.
Detengamonos por un momento en la forma de las
funciones (19.6) y (19.8): ambas son
funciones armonicas, cuya amplitud decrece como z. Esto esta ntimamente relacionado

228

DIFERENCIAL DE BESSEL
CAPITULO 19. LA ECUACION

con la relevancia de las funciones de Bessel en problemas con simetra cilndrica. En efecto, consideremos un frente de onda cilndrico (radiacion proveniente de un alambre infinito,
por ejemplo). Esto corresponde a una solucion de la ecuacion de Helmholtz en coordenadas
cilndricas. Como el flujo de radiacion solo ocurre a traves del manto del cilindro, y el area
de este aumenta proporcionalmente a su radio , entonces, por conservacion de energa, la
intensidad del frente de onda cilndrico debe ser proporcional a 1/. Como la intensidad es
proporcional al cuadrado de la amplitud, se sigue que la amplitud debe ser proporcional a

1/ . Es decir, podemos intuir que fenomenos oscilatorios con simetra cilndrica deben invo
lucrar funciones armonicas, con amplitud proporcional a 1/ , precisamente lo que sucede,
al menos, con las funciones de Bessel de ndice semientero. Mas adelante veremos que esta es
una propiedad general de todas las soluciones de la ecuacion de Bessel.

19.3.

Funciones de Bessel de ndice entero

Consideramos ahora el caso incomodo, en que el metodo de Frobenius no da directamente


dos soluciones linealmente independientes.
Para = n Z, Jn dada por (19.3) es holomorfa en z = 0, y en realidad holomorfa en
todo el plano. Consideremos la primera funcion de Bessel, es decir con n = 0, y derivemosla:

X
(1)  z 2
1 z2
1 z4
J0 (z) =
=
1

+
,
(!)2 2
(1!)2 22 (2!)2 24

J00 (z) =

4 z3
6 z5
2 z
+

+ .
(1!)2 22 (2!)2 24 (3!)2 26

Por otra parte, la funcion de Bessel de ndice uno es





z
1 z4
z X (1)  z 2
1 z2
=
+
.
J1 (z) =
1
2 !( + 1)! 2
2
(1!)2 22 (2!)2 24
Comparando concluimos que
J1 (z) = J00 (z) .

(19.9)

J0(z) funcin par

0.8
0.6

J1(z) funcin impar

0.4
0.2
0
0.2
0.4
0.6

229

19.4. COMPORTAMIENTO ASINTOTICO


Para ndice entero positivo, (19.3) da
Jn (z) =

 z n X

=0

(1)  z 2
.
! ( + n)! 2

(19.10)

Para ndice entero pero negativo:


Jn (z) =

 z n X

=n

 z 2
(1)
.
! ( n + 1) 2

Consideraremos nulos los coeficientes con < n en la funcion gamma (la funcion gamma
tiene polos en = 0, 1, 2, . . . , luego 1/() = 0). Sea = n. Luego

 z n X
(1) (1)n  z 2
Jn (z) =
,
2 =0 ( + n)!! 2

lo que resumimos como


Jn (z) = (1)n Jn (z) .

(19.11)

Claramente ambas soluciones no son linealmente independientes. El problema de encontrar


la segunda solucion sera resuelto en el Cap. 20.

19.4.

Comportamiento asint
otico

En la Sec. 19.2 observamos que las funciones


de Bessel de ndice = 1/2 son funciones armonicas, con amplitud proporcinoal a 1/ z, precisamente el resultado esperado, por
argumentos energeticos, para frentes de onda cilndricos. Ahora mostraremos que dicho resultado es cierto tambien para todas las soluciones reales de la ecuacion de Bessel, al menos
asintoticamente (lo cual tambien es razonable, ya que esperamos que los frentes de onda sean
funciones armonicas sencillas solo asintoticamente).
Proposici
on 19.1 Para una variable real x 1, toda solucion real de la ecuacion de Bessel
es aproximadamente de la forma A cos(x + )/ x.
Demostraci
on Sea

x(x) = u(x) .

Despejando y diferenciando tenemos


(x) = x1/2 u(x) ,
1
0 (x) = x1/2 u0 (x) x3/2 u(x) ,
2

3
00 (x) = x1/2 u00 (x) x3/2 u0 (x) + x5/2 u(x).
4
Sustituyendo en la ecuacion de Bessel,


2
u0 (x) 3 u(x) u0 (x) 1 u(x)
+
+

+ 1 2 u(x) = 0 ,
u (x)
x
4 x2
x
2 x2
x
00

230

DIFERENCIAL DE BESSEL
CAPITULO 19. LA ECUACION

quedando

1/4 2
u (x) + 1
x2
00

u(x) = 0 .

Para x muy grande,


u00 (x) + u(x) = 0 ,

con solucion u(x) = A cos(x + ) ,

luego la solucion completa es


(x) = A

cos(x + )

.
x
q.e.d.

Por otra parte, cerca de cero la funcion de Bessel de ndice nulo se puede aproximar por

2
z2 z4
z2
J0 (z) 1
+
= 1
.
(19.12)
4
64
8

19.5.

Funci
on generatriz

Buscamos una funcion generatriz de las funciones de Bessel de ndice entero,

X
sn Jn (z) .
(z, s) =

(19.13)

n=

Usando (19.10) (que es valida tambien si n < 0, recordando que 1/h! 0 si h < 0, h Z),

X
X
(1)l  z 2l+n
(z, s) =
sn
l!(l + n)! 2
n=
l=0
X

X
(1)l  z 2l  zs n
=
l!(l + n)! 2
2
n= l=0
X

 zs l+n
X
(1)l  z l
1
=
l!
2s (l + n)! 2
n= l=0
Sea h = l + n. La doble suma se puede reescribir

X
X
X
=
,
n= l=0

l=0 h=

pero los factores de la forma 1/h! reducen la suma sobre h a ir entre 0 e . As,
"
#

X
z
zs
(1)l  z l X 1  zs h
(z, s) =
= e 2s e 2 .
l!
2s
h! 2
l=0
h=0
De este modo, la funcion generatriz queda
 


X
z
1
(z, s) = exp
s
=
Jn (z)sn .
2
s
n=

(19.14)

231

19.6. FORMULAS
DE ADICION

19.6.

F
ormulas de adici
on

Consideremos la funcion generatriz (19.14) con argumento z = (z1 + z2 )/2





 

 

z1 + z2
1
z1
1
z2
1
exp
s
= exp
s
exp
s
,
2
s
2
s
2
s

X
X
X
sn Jn (z1 + z2 ) =
s J (z1 )
s J (z2 ) .
n=

Comparando coeficientes para igual potencia en s tenemos


Jn (z1 + z2 ) =

J (z1 )Jn (z2 ) .

(19.15)

Particularicemos (19.15) al caso n = 0 y z1 = z = z2


J0 (0) = 1 =

J02 (z)

J (z)J (z) +

=1

J (z)J (z) ,

=1

obteniendo
1 = J02 (z) + 2

J2 (z) .

(19.16)

=1

En el caso que la variable z R y considerando que | J0 (z) | 1, podemos acotar los J por
1
| J (z) | ,
2

si = 1, 2, 3, . . .

(19.17)

Reemplazamos s = ei con R, luego




1
1
1
s
= (ei ei ) = i sen .
2
s
2
En la funcion generatriz,
 

z
1
exp
s
= exp(iz sen ) ,
2
s
luego
exp(iz sen ) =

ein Jn (z) .

(19.18)

n=

Desarrollando, y usando (19.11),


exp(iz sen ) = J0 (z) +

Jn (z)(cos n + i sen n) +

n=1

= J0 (z) + 2

m=1

Jn (z)(cos n i sen n) ,

n=1

J2m (z) cos 2m + 2i

X
m=1

J2m+1 (z) sen(2m + 1) ,

232

DIFERENCIAL DE BESSEL
CAPITULO 19. LA ECUACION

Comparando partes real e imaginaria, con x R,


cos(x sen ) = J0 (x) + 2

J2m (x) cos 2m ,

m=1

sen(x sen ) = 2

(19.19)

J2m+1 (x) sen(2m + 1) .

m=0

Sea = 0. Entonces
1 = J0 (x) + 2

J2m (x) .

(19.20)

m=1

Sea = /2. Entonces


cos x = J0 (x) + 2

(1)m J2m (x) ,

m=1

sen x = 2

(19.21)

(1) J2m+1 (x) .


m

m=0

19.7.

Representaciones integrales

Cambiemos el ndice de suma en (19.18) a m, multipliquemos la ecuacion por eim e


integremos en . Se obtiene
Z
exp(i(z sen m)d = 2Jm (z) .

Si x R entonces Jm (x) es real, lo que significa


Z
1
cos (x sen m) d ,
Jm (x) =
2
por paridad de la funcion subintegral, podemos reescribir la integral como
1
Jm (x) =

cos (m x sen ) d .

(19.22)

En particular,
1
J0 (x) =

Z
0

1
cos(x sen ) d =

"Z
0

/2

cos(x sen ) d +

cos(x sen ) d

/2

Haciendo el cambio de variable = , tenemos


"Z
#
Z 0
/2
1
J0 (x) =
cos(x sen ) d +
cos(x sen( + )) d .
0
/2

233

19.7. REPRESENTACIONES INTEGRALES


Usando que sen( + ) = sen y que coseno es una funcion par,
"Z

1
J0 (x) =

/2

cos(x sen ) d +

cos(x sen ) d

/2

Sumando ambas integrales


1
J0 (x) =

/2

(19.23)

cos(x sen ) d .

/2

Hagamos el cambio de variable en (19.23) = sen . Entonces d =


nos queda
Z

J0 (x) =

d
y la integral
1 2

cos(x)

d .
1 2

Definamos una funcion p() de la forma


p() =

1

1 2

si | | 1,
si | | < 1,

podemos reescribir J0 como


J0 (x) =

cos(x)p() d .

Con los cambios de variable x = t y = 2s, obtenemos


J0 (t) =

cos(2st)F (s) ds ,

donde
F (s) =

2

1 4 2 s2

si | s |

1
,
2

si | s | <

1
.
2

De lo anterior se desprende, puesto que J0 (x) es una funcion par, que F (s) es precisamente
la transformada de Fourier de J0 (x):
F{J0 , s} = F (s) .
Analogamente, tomando transformada de Fourier a la relacion (19.9) obtenemos
F{J1 , s} = F{J00 , s} = i2sF{J0 , s} = 2isF (s) .

234

19.8.

DIFERENCIAL DE BESSEL
CAPITULO 19. LA ECUACION

Relaciones de recurrencia

Derivemos la funcion generatriz (19.14) respecto a s,


z
(z, s)
=
s
2

nsn1 Jn (z) =

n=

Comparando coeficientes,

1
1+ 2
s

 X

sn Jn (z) ,

n=

z
[Jn1 + Jn+1 ] sn1 .
2 n=

2n
Jn (z) = Jn1 (z) + Jn+1 (z) .
z

(19.24)

Derivamos (19.14) respecto a z y obtenemos


(z, s)
1
=
z
2

Jn0 (z)

n=



1 X n
s
s Jn (z) ,
s n=

1 X
[Jn1 Jn+1 ] sn .
=
2 n=

Comparando coeficientes
2Jn0 (z) = Jn1 (z) Jn+1 (z) .

(19.25)

Sumando (19.24) y (19.25) tenemos

es decir

n
Jn (z) + Jn0 (z) = Jn1 (z) ,
z

(19.26)

z n Jn1 (z) = [z n Jn (z)]0 .

(19.27)

Por otro lado, restando (19.24) y (19.25) obtenemos


n
Jn (z) = Jn+1 (z) ,
z

(19.28)


0
z n Jn+1 (z) = z n Jn (z) .

(19.29)

Jn0 (z)
es decir

(19.27) y (19.29) indican que, al igual que los polinomios de Hermite, las funciones de
Bessel de ndice entero tienen operadores de subida y de bajada. En este caso, el operador
de subida es
d 1
z n
,
dz z n
y el de bajada es
1 d n
z .
z n dz

235

19.9. RELACIONES DE ORTOGONALIDAD


Finalmente, consideremos (19.20)
1 = J0 (z) + 2

J2 (z) =

=1

[J2 (z) + J2+2 (z)] .

=0

Usando la relacion de recurrencia (19.24) para n = 2 + 1 tenemos


1=2

X
2 + 1

=0

J2+1 (z) ,

z X
=
(2 + 1)J2+1 (z) ,
2 =0
y por induccion completa:
 z n
2

X
(2 + n)(n + + 1)!

=0

J2+n (z) .

(19.30)

Podemos pues expresar cualquier serie de potencias en serie de funciones de Bessel.

19.9.

Relaciones de ortogonalidad

Estudiemos las relaciones de ortogonalidad en el intervalo 0 x . Consideremos


f (x) = J (hx) ,

g(x) = J (kx) ,

con h 6= k.

(19.31)

Tomemos las derivadas


f 0 (x) = hJ0 (hx) ,
g 0 (x) = kJ0 (kx) ,

f 00 (x) = h2 J00 (hx) ,


g 00 (x) = k 2 J00 (kx) .

La ecuaciones de Bessel que satisfacen son:



1 0
+
J (hx) + h2
hx

1 0
00
J (kx) +
J (kx) + k 2
kx

J00 (hx)


2
J (hx) = 0 ,
x2

2
J (kx) = 0 .
x2

Multiplicando la primera ecuacion por h2 y la segunda por k 2 y usando las definiciones dadas
en (19.31) obtenemos


1 0
2
00
2
f (x) + f (x) + h 2 f (x) = 0 ,
x
x


(19.32)
1 0
2
2
00
g (x) + g (x) + k 2 g(x) = 0 .
x
x

236

DIFERENCIAL DE BESSEL
CAPITULO 19. LA ECUACION

Multiplicando por xg(x) y por xf (x) respectivamente y restando,


xf (x)00 g(x) xg(x)00 f (x) + (xf 0 (x)g 0 (x) xf 0 (x)g 0 (x))
+ f 0 (x)g(x) f (x)g 0 (x) + x(h2 k 2 )f (x)g(x) = 0 .
El factor entre parentesis corresponde a un cero agregado para lograr el reordenamiento
0

[x(f 0 (x)g(x) f (x)g 0 (x))] = (k 2 h2 )xf (x)g(x) .


Integrando en el intervalo a x b
Z
a


b
1
0
0
x(f (x)g(x) f (x)g (x)) .
tf (t)g(t) dt = 2
k h2
a

La expresion del lado derecho se anulara en tres casos


1. Si J (hx) y J (kx) se anulan en a y en b.
2. Sus derivadas se anulan en a y en b.
3. O bien J (ha) = J (ka) = 0 = J0 (hb) = J0 (kb).
De cualquier modo,
Z

xJ (hx)J (kx) dx

es la tpica integral que interviene en asuntos de ortogonalidad.


Ortogonalidad
Por ejemplo, para m 6= n, se tiene ortogonalidad sobre el intervalo [0, a] con
Z a 
 

J m
J n
d = 0 ,
a
a
0

(19.33)

donde los m son tales que J (m ) = 0.


Normalizaci
on (sin demostracion)
Z ah 
i2
a2
J m
d = [J+1 (m )]2 .
a
2
0

19.10.

(19.34)

Problema de Sturm-Liouville asociado


(19.33) y (19.34) sugieren que J m a pueden ser base de un espacio de funciones en
[0, a]. Poniendo h = m /a y = en (19.32) encontramos que satisfacen la ecuacion
 2

1 0
m 2
00
f () + f () +
2 f () = 0 ,

a2

19.10. PROBLEMA DE STURM-LIOUVILLE ASOCIADO

237

que se puede reescribir


f () + f () +
00

o bien

d
d

2
m
2

a2
2

f () = 0 ,


  2

d
m 2
f +
2 f () = 0 ,
d
a2

(19.35)

que es un problema de autovalores de un operador autoadjunto. En efecto, tomando el operador autoadjunto




d
d
2
L=

,
d
d

y la funcion de peso

w() = > 0 en [0, ] ,

(19.35) corresponde al problema de autovalores de L, con autovalores


m =

2
m
.
a2

As, las funciones J (m ) asociadas a cada autovalor, para m = 0, 1, 2,. . . ( esta fijo) seran
un set completo en el cual se podra expandir cualquier funcion en [0, ].
A que problemas fsicos esta asociado este problema de Sturm-Liouville? Consideremos
nuevamente el operador laplaciano, como en (18.41), pero ahora en coordenadas cilndricas:




d2
1 d
d
1 d2
2
(~r ) =

+ 2 2 + 2 (, , z) .
(19.36)
d
d
d
dz
Se aprecia de inmediato que en un proceso de separacion de variables, las derivadas respecto
a z seran reemplazadas por una constante, y las derivadas respecto a seran reemplazadas por otra constante, quedando para la parte radial precisamente la ecuacion de Bessel
en la forma (19.35). Por tanto, las funciones de Bessel apareceran tpicamente (no u
nicamente) como soluciones de problemas que involucren el operador de Laplace (encontrar un
potencial electrostatico ecuacion de Laplace, modos normales de oscilacion ecuacion
de Helmholtz, etc.) y que tengan simetra cilndrica.

238

DIFERENCIAL DE BESSEL
CAPITULO 19. LA ECUACION

Captulo 20
Diversos tipos de funciones cilndricas
versi
on 14 diciembre 2009

La ecuacion de Bessel, que estudiamos en el captulo anterior, da origen a una serie


de funciones que genericamente denominamos cilndricas, debido a que la ecuacion de
Bessel aparece de modo natural en diversos problemas fsicos con simetra cilndrica, pues
corresponde a la parte radial del Laplaciano en dichas coordenadas. Una de ellas es la funcion
de Bessel J (z), que estudiamos en el captulo anterior. En este revisaremos brevemente
algunas otras funciones y sus propiedades.

20.1.

Segunda soluci
on de la ecuaci
on de Bessel

Consideremos la ecuacion de Bessel, con solucion centrada en z = 0. Escojamos ademas


n = 0:
1
(20.1)
f 00 + f 0 + f = 0 .
z
Esta ecuacion hipergeometrica tiene dos soluciones linealmente independientes, una de las
cuales es la ya conocida J0 (z). Determinemos ahora la segunda solucion. Observando la forma
de la segunda solucion en (15.26), proponemos una solucion de la forma
Z z
f (z) = J0 (z)
u(t) dt .
(20.2)
Luego
1 0
1
f (z) = J00 (z)
z
z
Z
00
00
f (z) = J0 (z)

1
u(t) dt + J0 (z)u(z) ,
z

(20.3)

u(t) dt + 2J00 (z)u(z) + J0 (z)u0 (z) .

Reemplazando en (20.1), y puesto que J0 (z) es solucion de ella,




1
0
0
u (z)J0 (z) + u(z) 2J0 (z) + J0 (z) = 0 ,
z
239

(20.4)

240

CAPITULO 20. DIVERSOS TIPOS DE FUNCIONES CILINDRICAS

esto es,

2J00 (z) 1
u (z) =
+
u(z) ,
J0 (z)
z
 Z z 0
 
2J0 (t) 1
u(z) = C exp
+
dt ,
J0 (t)
t


u(z) = exp ln J02 (z) ln z ,


es decir,
1
1
=
u(z) =
zJ02 (z)
z

1+

!
a2 z 2

(20.5)

=1

La solucion linealmente independiente a J0 (z) es entonces


Z z
dt
N0 (z) = J0 (z)
,
tJ02 (t)

(20.6)

lo que reescribimos como


"
N0 (z) = J0 (z) ln z +

#
b2 z

= J0 (z) ln z +

X
=1

=1

c2

 z 2
2

Reemplazando en la ecuacion diferencial (20.1) determinamos los coeficientes c2 . Para ello,


notamos que:

X
2  z 22 1
1 0
1
1 0
N0 (z) = J0 (z) ln z + 2 J0 (z) +
c2
z
z
z
2 2
2
=1

N000 (z)

J000 (z) ln z

1
2J00 (z)

X 2(2 1)  z 22
1
c2
J0 (z) 2 +
.
z
z
4
2
=1

Comparando los coeficientes de potencias iguales de z, se tiene la relacion de recurrencia


c2 =

c22 (1) 1

,
2
(!)2

1.

(20.7)

Tomamos c0 = 0, y notamos que solo nos interesan los ndices pares. Entonces
c2 = 1 ,


1 1
1
1
c4 = =
1+
.
4 8
4
2
Afirmaci
on
c2

(1)
=
(!)2

1 1
1
1 + + + +
2 3


.

(20.8)

DE LA ECUACION
DE BESSEL
20.1. SEGUNDA SOLUCION

241

Demostraci
on La demostracion es facil por induccion. Suponiendo que la afirmacion es
cierta para = n, podemos calcular


(1)n
1
1
(1)n+1
1
1
1
+
+
.
.
.

c2n+2 =
2
2
2
(n + 1) (n!)
2
n
[(n + 1)!] n + 1


n+1
1
1
1
(1)
1 + + + +
.
c2n+2 =
[(n + 1)!]2
2
n n+1
q.e.d.
Con este resultado, podemos escribir una solucion linealmente independiente de J0 (x) en
la forma:




1  z 2
1
1
1  z 4
1 1  z 6
N0 (z) = J0 (z) ln(z) +

+

1+
1+ +
(1!)2 2
(2!)2
2
2
(3!)2
2 3
2
(20.9)
Graficamente:
N0

Analogamente, asociadas a las funciones de ndices superiores Jn (z), sera posible encontrar
la segunda solucion, Nn (z).
En general, Nn (z) se puede encontrar notando que la funcion
1
[J (z) cos J (z)] ,
(20.10)
N (z) =
sen
es linealmente independiente a J (z) si 6 Z , y por tanto puede ser usada como segunda
solucion. Las N (z) se conocen como funciones de Bessel de segunda especie, o funciones de
Neumann. Lo interesante es que, al contrario de J (z), N (z) contin
ua siendo linealmente
independiente cuando es entero. Para mostrarlo (no lo haremos aqu), se puede considerar
= n + , y tomar el lmite  0. Resulta finalmente

2 z 
1 X (1)l [(l + 1) + (n + l + 1)]  z 2l+n
Nn (z) = ln
Jn (z)

2
l=0
l!(l + n)!
2
n1
1 X (n l 1)!  z 2ln

, (20.11)
l=0
l!
2

donde
() =

1 d()
.
() d

(20.12)

242

20.2.

CAPITULO 20. DIVERSOS TIPOS DE FUNCIONES CILINDRICAS

Funciones de Hankel

En el captulo anterior, vimos que las funciones de Bessel se pueden representar en la


forma integral
Z
1
exp[i(z sen n)] d .
Jn (z) =
2
Hagamos el cambio de variable = , de modo que
Z
1
Jn (z) =
exp[i(z sen n)] d .
2
Consideremos ahora una generalizacion de lo anterior al plano complejo, la funcion
Z
(z) =
eiz sen s eis ds .
(20.13)
C

Sea
Entonces
Sea ademas
de modo que
z2

g(s) = eis .

(20.14)

g 00 + 2 g = 0 .

(20.15)

f (z, s) = eiz sen s ,

(20.16)

f
2f
2f
2
+
z
+
z
f
=

.
z 2
z
s2

(20.17)

Afirmaci
on (z) satisface la ecuacion de Bessel (bajo ciertas restricciones),
z 2 00 + z0 + (z 2 2 ) = 0 .

Demostraci
on Si (20.18) se satisface, entonces

Z 
2
f
2 f
2
2
+z
+ (z )f g .
0=
z
z 2
z
C
Con (20.17),

2f
0 =
fg
g
s2
C
C


Z
Z
f 0
f
2
fg +
=
g
g
s C
C
C s


Z
Z
f
2
00
0
=
fg
fg + fg
g
s C
C
C


Z
f
00
2
0
= f (g + g) + f g
g
.
s C
C
2

Z 

(20.18)

243

20.2. FUNCIONES DE HANKEL


Con (20.15),

f
g
0 = fg
.
s C


Por lo tanto, es solucion de la ecuacion de Bessel si f y f /s son despreciables en el


contorno de integracion C.
q.e.d.
Sean ahora z = x > 0, s = s1 + is2 , s1,2 R. En este caso,
sen s = sen s1 cosh s2 + i cos s1 senh s2 .
Considerando la afirmacion anterior, en que parte del plano (Re s, Im s) tenemos | f (x, s) | =
| eix sen s | 0? Esto es, buscamos un contorno C tal que
Re(ix sen s) = x cos s1 senh s2 .
Esta condicion equivale a
senh s2 si cos s1 > 0 ,
senh s2
si cos s1 < 0 .

(20.19)

Escojamos los contornos de integracion:


s2

C1

-3
2

-
2

C2

3
2

s1

Sobre estos contornos, f y f /s son despreciables en infinito, y estamos en condiciones


de definir dos nuevas funciones, soluciones de la ecuacion diferencial de Bessel:
Definici
on 20.1 Funciones de Hankel
H(1,2) (x)

1
=

Z
C1,2

eix sen s eis ds ,

x>0

(20.20)

244

CAPITULO 20. DIVERSOS TIPOS DE FUNCIONES CILINDRICAS

Consideremos el caso particular = n, y la expresion


I(x) = Hn(1) (x) + Hn(2) (x)
De (20.20),

1
I(x) =

(20.21)

eix sen s eins ds ,

con
s2

s1

Puesto que
ein(s+2) = eins ,
sen(s + 2) = sen s ,
las integraciones sobre los segmentos verticales de C se anulan entre s. Se tiene entonces
Z
1 ix sen in
(1)
(2)
e
e d .
Hn (x) + Hn (x) =

Se siguen las siguientes relaciones entre las funciones cilndricas que hemos examinado:

1  (1)
Hn + Hn(2) ,
2

1  (1)
Nn =
Hn Hn(2) ,
2i
Jn =

(20.22)
(20.23)

y a la inversa,
Hn(1) = Jn + iNn ,

(20.24)

= Jn iNn .

(20.25)

Hn(2)

Recordemos ahora que las funciones de Bessel son, de alg


un modo, el equivalente a las
funciones sinusoidales en coordenadas cilndricas. A la luz de esa analoga, podemos claramente observar que los resultados (20.22)(20.25) nos obligan a considerar a las funciones
Jn como el equivalente a un seno, a las funciones de Neumann como un coseno [lo cual
no es sorprendente, a la luz de los resultados (19.6) y (19.8)], y a las funciones de Hankel al
equivalente a las exponenciales complejas respectivas. Estos resultados sin duda permiten
hacer la analoga con funciones armonicas simples mucho mas explcita.

Captulo 21
Aplicaciones
versi
on 14 diciembre 2009

En este Captulo aplicaremos algunos de los resultados obtenidos en los captulos anteriores para resolver problemas de interes fsico. En particular, estudiaremos el problema de
encontrar el potencial electrostatico en un cierto volumen del espacio delimitado por superficies mantenidas a potenciales dados. Este problema involucra la solucion de Laplace en cierto
dominio del espacio real. En los captulos anteriores hemos podido encontrar autofunciones
asociadas al operador de Laplace, y por lo tanto podemos escribir formalmente la solucion
como una combinacion lineal de tales autofunciones. Los potenciales fijos en las superficies
que determinan el dominio proporcionaran las condiciones de borde necesarias para encontrar todos los coeficientes de dicha combinacion lineal y, por ende, resolver completamente el
problema.
Ademas, resolveremos algunos problemas relacionados con la ecuacion de onda (modos
normales de una membrana) y la ecuacion de difusion.

21.1.

Coordenadas rectangulares

La ecuacion de Laplace en coordenadas rectangulares:


2 2 2
+
+ 2 =0.
x2
y 2
z

(21.1)

(x, y, z) = X(x)Y (y)Z(z) .

(21.2)

Suponemos
Sustituyendo en (21.1) y dividiendo por (21.2) tenemos
1 d2 X
1 d2 Y
1 d2 Z
+
+
=0.
X(x) dx2
Y (y) dy 2
Z(z) dz 2

(21.3)

Si cada termino en (21.3) depende solo de una variable independiente, cada uno debe ser
245

246

CAPITULO 21. APLICACIONES

igual a una constante:


1 d2 X
X(x) dx2
1 d2 Y
Y (y) dy 2
1 d2 Z
Z(z) dz 2

= 2 ,

(21.4)

= 2 ,

(21.5)

= 2 ,

(21.6)

donde 2 = 2 + 2 . Si elegimos arbitrariamente 2 y 2 positivos entonces las soluciones de


(21.4), (21.5) y (21.6) son
X(x) = exp(ix) ,
luego

Y (y) = exp(iy) ,

p
Z(z) = exp( 2 + 2 z) ,

2
2
(x, y, z) = eix eiy e + z .

(21.7)

Observamos que:
y son arbitrarios y se determinan por las condiciones de contorno;
por superposicion lineal de (21.7) obtenemos la solucion mas general de la ecuacion de
Laplace en coordenadas cartesianas.
Ejemplos
1) Potencial en el interior de un paraleleppedo con caras a diferente potencial.
Consideremos primero el caso de un paraleleppedo con todas las caras a potencial cero
salvo una. El problema general, en el cual cada una de las seis caras esta a un potencial
diferente, se puede obtener como la superposicion de seis de estos problemas.
= V (x , y)
z=c
1111111111111111111111111111
0000000000000000000000000000
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111

y=b
x=a
= 0

Si = 0 en x = 0, y = 0 y z = 0, se tiene
X(x) = sin x ,
Y (y) = sin y ,
p
Z(z) = sinh( 2 + 2 z) .

247

21.1. COORDENADAS RECTANGULARES


Si = 0 en x = a y y = b,

a = n

b = m ,

luego

r 
n
m
n 2  m 2
n =
,
m =
, y nm =
+
.
a
b
a
b
Podemos escribir el potencial parcial nm , el cual satisface todas las condiciones de contorno
excepto una:
nm = sin(n x) sin(m y) sinh(nm z) .
(21.8)
La solucion completa es la superposicion de estos potenciales para todos los valores posibles de m y n:
X
(x, y, z) =
Anm sin(n x) sin(m y) sinh(nm z) .
(21.9)
nm

Solo queda satisfacer (x, y, z = c) = V (x, y):


X
Anm sin(n x) sin(m y) sinh(nm c) ,
V (x, y) =

(21.10)

nm

correspondiendo a una doble serie de Fourier. Los coeficientes vienen dados por
Anm

4
=
ab sinh(nm c)

dy V (x, y) sin(n x) sin(m y) .

dx
0

2) Calculemos ahora el potencial en la region definida por los planos x = 0, x = a, y = 0,


y = . Debido a la simetra de traslacion en z, el problema es efectivamente bidimensional:

=0

=V
0

Podemos afirmar que la solucion sera de la forma:


(x, y) = eix ey ,
con real o complejo.

248

CAPITULO 21. APLICACIONES

La condicion = 0 en x = 0 y x = a, da
X(x) = sin

 nx 
a

La condicion = 0 para y da
Y (y) = ey = e
Por lo tanto

n = e

La solucion general es
(x, y) =

n
y
a

sin

An e

n
y
a

 nx 

n
y
a

a
sin

n=1

 nx 
a

Los An son determinados imponiendo = V para y = 0, con 0 x a:


Z
 nx 
2 a
(x, 0) sin
,
An =
a 0
a
con (x, 0) = V . Es decir,
n
Z

2V n
2V
2V
An =
sin u du =
cos u =
[(1)n+1 + 1]
n 0
n
n
0

4V
1 para n impar
An =
0 para n par
n
As, el potencial queda
(x, y) =

4V

 nx 
X 1 n
e a y sin
.
n
a
n impar

(21.11)

En principio esta es la solucion al problema. En general, por supuesto, no es posible


encontrar una forma cerrada para la suma. En este caso, sin embargo, es posible, notando
primero que la solucion se puede escribir como una funcion en el plano complejo, como
veremos a continuacion.
Usando que Im(ei ) = sin y definiendo
i

z = e a (x+iy) ,
podemos reescribir el potencial como una funcion en el plano complejo:
"
#
X zn
4V
(z) =
Im
.

n
n impar
(Esto es un hecho bastante general. En variable compleja, las funciones analticas satisfacen las condiciones de Cauchy-Riemann, que son equivalentes a una ecuacion de Laplace,

249

21.2. COORDENADAS POLARES, DOS DIMENSIONES

por tanto no es sorprendente que un potencial electrostatico se pueda escribir en terminos de


funciones analticas en el espacio
complejo.)
P
1
Integrando (1 z) = (z)n , tenemos
2

ln(1 + z) = z z2 + z3 z4 +
2
3
4
ln(1 z) = z z2 z3 z4 +
Restando ambos resultados,


X zn
1+z
=
,
ln
1z
n
n impar


es decir,



2V
1+z
(x, y) =
Im ln
.

1z

Por otro lado,


(1 + z)(1 z )
1 |z|2 + 2i Im(z)
1+z
=
=
1z
|1 z|2
|1 z|2






1+z
1+z
2Im(z)
Im ln
= fase ln
= arctan
1z
1z
1 |z|2
Pero

z = ei a (x+iy) = e a e

ix
a

luego
y
a

Im(z) = e

sin

1 |z|2 = 1 e
As, finalmente,

21.2.

 y 

2y
a

,
a
 y

 y 
y
y
y
= e a e a e a = 2e a sinh
.
a

2V
arctan
(x, y) =

sin x
a
sinh y
a


.

Coordenadas polares, dos dimensiones

Estudiemos ahora el potencial entre dos placas conductoras que forman un cierto angulo
entre s, mantenidas a potencial V :
11111111111111111111111
00000000000000000000000
00000000000000000000000
11111111111111111111111
00000000000000000000000
11111111111111111111111
00000000000000000000000
11111111111111111111111
00000000000000000000000
11111111111111111111111
00000000000000000000000
11111111111111111111111
00000000000000000000000
11111111111111111111111
00000000000000000000000
11111111111111111111111
00000000000000000000000
11111111111111111111111
=V
00000000000000000000000
11111111111111111111111
00000000000000000000000
11111111111111111111111
00000000000000000000000
11111111111111111111111
00000000000000000000000
11111111111111111111111

00000000000000000000000
11111111111111111111111
000000000000000000000000
111111111111111111111111
00000000000000000000000
11111111111111111111111
000000000000000000000000
111111111111111111111111
000000000000000000000000
111111111111111111111111
000000000000000000000000
111111111111111111111111

250

CAPITULO 21. APLICACIONES

La ecuacion de Laplace en este caso es:





1 2
1

+ 2 2 =0.


Separando variables,

(21.12)

(, ) = R()() .

Reemplazando en (21.12),
() d dR() R() d2 ()

+ 2
=0
d d

d2


dR()
1 d2 ()
d

+
=0.
R() d
d
() d2
Cada uno de los terminos debe ser igual a una constante:


dR()
1 d2 ()
d
= 2 ,

= 2 ,
R() d
d
() d2
quedando las ecuaciones
2

dR
d2 R
+
2R = 0 ,
2
d
d

d2
+ 2 = 0 ,
d2

con soluciones
R() = a + b ,

() = A cos() + B sin() .

(21.13)

En el caso especial = 0 las ecuaciones toman la forma

con soluciones

dR
= cte ,
d

R() = a0 + b0 ln ,

d2
=0,
d2
() = A0 + B0 .

(21.14)

Si no hay restricciones sobre (i.e. 0 2) entonces por unicidad debemos imponer


que Z. Por la misma razon, cuando = 0 debe imponerse B0 = 0.
La solucion general en dos dimensiones es entonces
(, ) = a0 + b0 ln +

(an n + bn n )(An cos n + Bn sin n) .

n=1

Notemos que:
1. Si el origen es incluido en el volumen, en el cual no hay carga, todos los bn son 0
(b0 = bn = 0 n )
2. Si excluimos el origen bn 6= 0.

251

21.2. COORDENADAS POLARES, DOS DIMENSIONES

3. El termino logartmico equivale al potencial generado por una lnea de carga infinita
sobre el eje z, con densidad lineal de carga = b0 /2.
En nuestro problema, 0 . Las condiciones de borde son entonces
(, 0) = (, ) = V .
La condicion de que la solucion sea finita en = 0 implica que
b0 = b = 0 .
Para = 0 se obtiene
V = a0 A0 +

a A .

Siendo el lado izquierdo independiente de ,


a A = 0 ,
a0 A0 = V .
La primera ecuacion da A = 0 (si a = 0, no habra ninguna dependencia en del potencial).
Para = se obtiene
X
a B sin ,
V = a0 (A0 + B0 ) +

a0 B0 =

a B sin .

Siendo el lado izquierdo independiente de , ambos terminos deben ser nulos. Como a0 A0 = V ,
se sigue que a0 6= 0, luego
B0 = 0 .
En el lado derecho, en tanto, como a 6= 0 (para preservar alguna dependencia en del
potencial), y B 6= 0 (para preservar dependencia en ), se concluye que
sin = 0 ,
es decir

m
,

m = 1, 2, 3, . . .

Queda entonces la solucion general


(, ) = V +

X
m=1

am

m/

sin


.

Para suficientemente peque


no solo el primer termino es relevante:
 

/
.
(, ) ' V + a1 sin

252

CAPITULO 21. APLICACIONES

Las componentes del campo electrico son


E
E

 

a1 1

=
'

sin

 
1

a1 1
=
'

cos

La densidad de carga para = 0 y = es


() =

21.3.

E
a1
' 1 .
4
4

Ecuaci
on de Laplace en coordenadas esf
ericas

La ecuacion a resolver es
1

1 2
(r) + 2
2
r r
r sin



2

1
sin
+ 2 2
=0

r sin 2

Separando variables, suponemos (~r ) = r1 U (r)P ()Q(). Obtenemos




UQ d
d2 U
dP
U P d2 Q
=0.
PQ 2 + 2
sin
+ 2 2
dr
r sin d
d
r sin d2
2

queda
Si multiplicamos por r2 sin
UP Q



1 d2 U
1
d
dP
1 d2 Q
2
2
r sin
+
=0.
sin

+
U dr2
P r2 sin d
d
Q d2

El u
ltimo termino debe ser una constante:
1 d2 Q
= m2 ,
Q d2
es decir

Q = eim .

Para que Q sea univaluada para [0, 2], m debe ser entero.
Separando ahora las ecuaciones para P () y U (r), queda la ecuacion angular

 

1 d
dP
m2
P =0,
sin
+ l(l + 1)
sin d
d
sin2
donde l(l + 1) es otra constante real, y la ecuacion radial
d
U (r)
U (r) l(l + 1) 2 = 0 .
2
dr
r
La ecuacion radial es la ecuacion de Euler, con solucion
Ul (r) = Arl+1 + Brl .

DE LAPLACE EN COORDENADAS ESFERICAS

21.3. ECUACION

253

l a
un esta por determinar. Escribiendo x = cos , se observa que la ecuacion para P () es la
ecuacion generalizada de Legendre. Sus soluciones regulares en [1, 1] ( [0, 2]), son las
funciones asociadas de Legendre (Cap. 18):
Plm (x) = (1 x2 )m/2

dm
Pl (x) ,
dxm

si l es un entero, y m = l, l + 1, . . . , l 1, l.
La solucion general se puede escribir entonces,
(r, , ) =

X
l
X


Aml Arl + Br(l+1) Plm (cos )eim ,

l=0 m=l

o en terminos de los armonicos esfericos,


(r, , ) =

X
l
X


Bml Arl + Br(l+1) Ylm (, ) .

l=0 m=l

Si hay simetra azimutal, es decir, si no hay dependencia en , entonces m = 0, con lo


cual la ecuacion para se convierte en la ecuacion de Legendre ordinaria:


d
2 dP
(1 x )
+ l(l + 1)P = 0 ,
dx
dx
y la solucion general es
(r, ) =

(Al rl + Bl r(l+1) )Pl (cos ) .

l=0

{Al , Bl } son determinados por las condiciones de contorno.


Ejemplo Potencial al interior de una esfera de radio a, en cuya superficie el potencial es
V ().
En este caso, la solucion debe ser regular en el origen, luego
Bl = 0 .
Al imponer la condicion de borde,

V () =

Al al Pl (cos ) ,

l=0

con Al

2l + 1
Al =
2al

V ()Pl (cos ) sin d .

Particularicemos al caso en que el hemisferio superior e inferior estan a potenciales opuestos:

254

CAPITULO 21. APLICACIONES


= V

= V

V () =
Entonces,
2l + 1
Al =
V
2al

"Z

+V
V

0 /2
/2 <

/2

Pl (cos ) sin d

.
#

Pl (cos ) sin d

/2

Con el cambio de variables u = cos , de modo que du = sin d,


 Z 0

Z 1
2l + 1
V
Al =
Pl (u) du +
Pl (u) du ,
2al
1
0

Z 1
Z 0
2l + 1
Pl (u) du .
Pl (u) du
V
Al =
2al
1
0
Usando la paridad de los polinomios de Legendre,
Z 1
Z 0
Z 1
Pl (u) du
Pl (u) du = 2
Pl (u) du
1

si l impar,

y es cero si l es par. Si l es impar, entonces,


2l + 1
Al =
V
al

Z
0

2l + 1
Pl (u) du =
V
al

 (l1)/2
1
(l 2)!!
 ,

2
2 l+1
!!
2

y la solucion queda

 (l1)/2
1
(l 2)!!  r l

(r, ) = V
(2l + 1)
Pl (cos ) .
l+1
2
2
!! a
2
l=0
Es facil darse cuenta que para resolver el problema exterior, basta reemplazar
 r l
a

 a l+1
r

en la solucion anterior.
A partir de la discusion sobre la funcion generatriz de los polinomios de Legendre, Sec.
18.1, es inmediato obtener el siguiente importante resultado:

X rl
1
1
<
p
=
P
(cos
)
=
,
l
l+1
2 + r 2 2r r cos
|~x ~x0 |
r
r
<
>
>
>
<
l=0

DE LAPLACE EN COORDENADAS ESFERICAS

21.3. ECUACION

255

donde r< (r> ) es el mas peque


no (grande) de |~x| y |~x0 |, y es el angulo entre ~x y ~x0 .
Tambien importante es la siguiente observacion: notemos que si tenemos un problema con
simetra acimutal, el potencial sobre el eje z es ( = 0, cos = 1, Pl (cos ) = 1)
(z) =

Al z l +

l=0

Bl
.
z l+1

En consecuencia, si hay simetra acimutal, y de alg


un modo conseguimos evaluar el potencial
sobre el eje z como una serie de potencias, eso significa haber encontrado los coeficientes Al
y Bl de la expansion anterior. Dada la unicidad de la expansion, entonces, el potencial en
todo el espacio se obtiene simplemente reemplazando z por r, y multiplicando cada termino
de la serie por Pl (cos ). Veamos un ejemplo a continuacion:
Ejemplo Consideremos un anillo de radio a y densidad de carga q, paralelo a y a una
distancia b del plano x-y. Deseamos encontrar el potencial debido a este anillo cargado en
todo el espacio.

z
q
a

Este problema tiene claramente simetra acimutal. Ademas, es particularmente sencillo


encontrar el potencial en el eje z, que es el eje de simetra del anillo. En efecto, todos los
puntos del anillo se encuentran a la misma distancia R de un punto dado sobre el eje z.
Calcular el potencial en dicho punto como una suma sobre todos los puntos del anillo resulta
muy simple. Si = q/2a es la densidad lineal de carga, entonces
(z) =

Z
0

q 2a
q
a d
=
= 2
,
2
R
2a R
(z + c 2zc cos )1/2

donde c2 = a2 + b2 y = arctan(a/b). Ahora podemos distinguir dos casos:

X
cl
P (cos ) ,
l+1 l
z
l=0

si z > c,

(z) = q

si z < c,

X
zl
(z) = q
P (cos ) .
l+1 l
c
l=0

256

CAPITULO 21. APLICACIONES

Hemos entonces expresado el potencial en el eje z como una serie de potencias, y los coeficientes tienen la forma que esperabamos, z l para z peque
no, y z (l+1) para z grande.
Ahora podemos afirmar que el potencial en todo el espacio se obtiene simplemente multiplicando por Pl (cos ) todos los terminos de la serie:

l
X
r<
Pl (cos )Pl (cos ) ,
(r, ) = q
rl+1
l=0 >

donde r< (r> ) es el mas peque


no (grande) de r y c.

En particular para = 2 y = 2 (el anillo se encuentra sobre el plano x-y, y el punto


de observacion esta sobre el mismo plano),

 
l
X
r<
r,
=q
[Pl (0)]2 .
l+1
2
r
l=0 >

Pero
(1)k (2k 1)!!
,
2k k!
P2k+1 (0) = 0 ,
P2k (0) =

luego


2

2k
X
r<
(2k 1)!!
.
(r) = q
2k k!
r2k+1
k=0 >

Volviendo a los problemas sin simetra acimutal necesariamente, de modo que la solucion
de la ecuacion de Laplace puede ser escrita
(r, , ) =

l
X
X

[Alm rl + Blm r(l+1) ]Ylm (, ) ,

l=0 m=l

el potencial dentro de una esfera de radio R donde se ha especificado sobre su superficie el


potencial V (, ) vendra dado por la condicion:
V (, ) =

X
l
X

Alm Rl Ylm (, ) ,

l=0 m=l

donde
Alm

1
= l
R

dR Ylm
(, )V (, ) .

Finalmente, recordemos que hemos expresado |~x ~x0 |1 como una serie de potencias de
|~x| y |~x0 |, involucrando el coseno del angulo entre ambos vectores. A su vez, si ~x y ~x0 estan
determinados por los angulos = (, ), 0 = (0 , 0 ), conocemos una relacion entre Pl (cos )

DE LAPLACE EN COORDENADAS CILINDRICAS


21.4. ECUACION

257

y los armonicos esfericos evaluados en y 0 [(18.58)]. Esto da origen al Teorema de adici


on
de los Armonicos Esfericos:
X

l
X
r<
1
1

=
4
Ylm
(0 , 0 )Ylm (, ) .
l+1
0
|~x ~x |
2l + 1 r>
l=0 m=l

Esta expresion nos permite escribir el potencial debido a una carga puntual, separando
entre s las coordenadas asociadas a ~x y a ~x0 . Esto resulta u
til al integrar sobre una de
0
las variables, digamos ~x (que puede representar la posicion de la distribucion de carga),
manteniendo a la otra coordenada (~x) constante (punto de observacion).
En definitiva, esta formula de adicion no hace sino recordarnos que cualquier funcion angular (en particular la distancia entre dos puntos cualesquiera del espacio) puede ser expandida
en la base de armonicos esfericos.

21.4.

Ecuaci
on de Laplace en coordenadas cilndricas

La ecuacion a resolver es:


1 2 2
2 1
+
+
+ 2 =0.
2

2 2
z
Separando variables:

(, , z) = R()Q()Z(z) ,

queda
d2 Z
d2 R QZ dR RZ d2 Q
+
+
+
RQ
d2
d
2 d2
dz 2
1 d2 R
1 dR
1 d2 Q
1 d2 Z
+
+
+
R d2
R d
2 Q d2
Z dz 2

QZ

= 0
= 0

La u
nica dependencia en z esta en el u
ltimo termino, y la u
nica dependencia en esta en
el pen
ultimo termino, por tanto deben ser iguales a una constante, que llamamos k 2 y 2 ,
respectivamente. Entonces quedan las ecuaciones:
d2 Z
k2Z = 0 ,
2
dz
d2 Q
+ 2Q = 0 ,
d2


d2 R 1 dR
2
2
+
+ k 2 R=0.
d2
d

Las ecuaciones para z y tienen solucion:


Z = ekz ,

Q = ei .

Para que la funcion sea univaluada cuando 0 2 es permitido, debe ser entero.
k, por su parte, puede ser cualquier n
umero real en principio.

258

CAPITULO 21. APLICACIONES

Si x = k, la ecuacion radial queda




d2 R 1 dR
2
+ 1 2 R=0 ,
+
dx2
x dx
x

que es la ecuacion de Bessel, con soluciones J , J . Estas


soluciones son linealmente independientes solo si 6 Z. Si todos los angulos entre 0 y 2 son permitidos, que es lo usual,
entonces es entero y no son independientes, y hay que usar como base de soluciones las
funciones de Bessel y de Neumann, J y N , con
N (x) =

J (x) cos J (x)


,
sin

o bien las funciones de Hankel:


H(1) (x) = J (x) + iN (x) ,
H(2) (x) = J (x) iN (x) .
Si las soluciones deben ser regulares en el origen, sin embargo, las soluciones a usar son

solamente las funciones de Bessel J (x). La sucesion { J (xn a )} con fijo, J (xn ) = 0,
n = 1, 2, 3. . . es un conjunto de funciones ortogonales en el intervalo 0 a, cumpliendose
que
Z a

 

a2
J xn
d = [J+1 (xn )]2 nn0 .
J xn0
a
a
2
0
Al escribir una funcion arbitraria de como combinacion lineal de esta base se obtiene la
llamada expansion en serie de Fourier Bessel:
f () =

An J

n=1

con
An =

2
2
a2 J+1
(xn )


xn
a

Z
0

0a,



f ()J xn
d .
a

De lo indicado en la seccion 19.9 se sigue que esta expansion es apropiada cuando la


funcion es nula en = 0, es decir, cuando las condiciones de borde sobre el manto del
cilindro son tipo Dirichlet. Si las condiciones de borde son tipo Neumann, de modo que la
derivada de la funcion se debe anular en = a, entonces es posible una expansion en la

(x)
base J (yn a ) donde yn es la n-esima raz de dJdx
.
Ejemplo Busquemos el potencial en el interior de un cilindro cuya tapa superior se encuentra
a potencial V (, ):

259

21.5. OTRAS APLICACIONES


z
11111111111111111
00000000000000000
00000000000000000
11111111111111111
00000000000000000
11111111111111111
00000000000000000
11111111111111111
00000000000000000
11111111111111111

= V ( , )

=0
=a

Todos los angulos estan permitidos, por lo tanto podemos escribir las funciones en cada
variable en la forma:
Q() = A sin m + B cos m ,
Z(z) = sinh kz ,
R() = CJm (k) + DNm (k) .
La expresion para Z(z) satisface la condicion de borde Z(0) = 0. Como ademas es finito
en = 0, debe tenerse
xmn
,
n = 1, 2, 3 ,
k = kmn =
a
donde xmn es la raz n-esima de Jm i.e. Jm (xmn ) = 0. La solucion general se escribe entonces
(, , z) =

Jm (kmn ) sinh(kmn z)[Amn sin(m) + Bmn cos(m)] .

m=0 n=1

Imponiendo la condicion de borde en z = L:


X
V (, ) =
sinh(kmn L)Jm (kmn )[Amn sin m + Bmn cos m] .
mn

Los coeficientes del potencial Amn , Bmn se encuentran invirtiendo esta doble serie de Fourier
Bessel. Usando las relaciones de ortogonalidad para senos, cosenos y las funciones de Bessel:
Z
Z a
2 cosech(kmn L) 2
Amn =
d
d V (, )Jm (kmn ) sin m ,
2
a2 Jm+1
(kmn a) 0
0
Z
Z a
2 cosech(kmn L) 2
Bmn =
d
d V (, )Jm (kmn ) cos m .
2
a2 Jm+1
(kmn a) 0
0

21.5.

Otras aplicaciones

21.5.1.

Modos normales de oscilaci


on

Un sistema oscilatorio se puede caracterizar por una variable (~r, t) (escalar o vectorial)
que depende del espacio y el tiempo, y que satisface la ecuacion de onda
2

1 2
=0,
v 2 t2

260

CAPITULO 21. APLICACIONES

donde v es la velocidad de propagacion de las oscilaciones. puede ser la altura de cada


punto de una cuerda tensada horizontalmente, la presion de un gas, el angulo de un pendulo
respecto a la posicion de equilibrio, el campo electromagnetico, etc. Los modos normales de
un sistema oscilatorio son aquellos en que todas las partes moviles del sistema oscilan con
una misma frecuencia, . En este caso, la dependencia temporal de , para todo ~r, se puede
escribir como un factor eit , en cuyo caso la ecuacion de onda se convierte en la ecuacion de
Helmholtz :

2 + k 2 (~r ) = 0 ,
con

k = /v .

Al involucrar el operador Laplaciano, esperamos que sus soluciones (es decir, la amplitud
de los modos normales de oscilacion de un sistema general), se pueda escribir en terminos
de funciones sinusoidales, armonicos esfericos o funciones de Bessel, seg
un la simetra del
problema. Revisemos algunos ejemplos.
Modos normales de un gas dentro de una cavidad esf
erica de radio a
La ecuacion de Helmholtz se escribe en este caso:


1
2

1
1 2
(r)
+
+ k22 = 0 .
sin

+
r r2
r2 sin

r2 sin2 2
Separando variables, escribiendo (~r ) = R(r)P ()Q(), es facil advertir que las ecuaciones angulares seran las mismas que para la ecuacion de Laplace en coordenadas esfericas
(Sec. 21.3), de modo que la parte angular correspondera a los armonicos esfericos:
P ()Q() = Ylm (, ) .
La ecuacion radial, en tanto, queda:
1 d2
l(l + 1)
(rR(r))
R(r) + k 2 R(r) = 0 .
2
r dr
r2
Con el cambio de variables
queda

R(r) = U (r)/ r ,


(l + 12 )2
d2
1 d
2
U (r) = 0 .
+
+k
dr2 r dr
r2


(l + 12 )2
d2
1 d
+
+1
U (x) = 0 ,
dx2 x dx
x2

Con r = kx, queda

que es la ecuacion de Bessel (19.1) con = l + 1/2. As, la solucion radial se puede escribir
en la forma
Jl+1/2 (kr)
Nl+1/2 (kr)
R(r) = Alm
+ Blm
,
1/2
r
r1/2

261

21.5. OTRAS APLICACIONES


que se puede reescribir en terminos de las funciones de Bessel esfericas:
r

J 1 (x) ,
2x l+ 2
r

nl (x) =
N 1 (x) .
2x l+ 2
jl (x) =

Como sus equivalentes cilndricos, jl (x) es regular en el origen y nl (x) es singular en el origen.
(Observemos que losmismos argumentos energeticos que nos sugieren que J debe disminuir su amplitud como x, nos
muestran ahora la necesidad de que las funciones de Bessel
esfericas tengan el prefactor x. En efecto, para un frente de onda esferico la amplitud debe
decrecer como 1/r, ya que el area de dicho frente crece comor2 . Como la funcion de Bessel

por s sola, asintoticamente, tiene amplitud proporcional a 1/ r, se requiere un factor 1/ r


adicional para tener el balance energetico correcto.)
Estando interesados en el interior de una cavidad esferica, nos quedamos con jl (x). Al
imponer la condicion de borde de paredes fijas, es decir (r = a, , ) = 0, se obtiene
k = kln =

xln
,
a

con xln es n-esimo cero de jl (x).


Ahora bien, cada k corresponde a un modo normal (es decir, a un modo caracterizado
por una u
nica frecuencia, dada por = ck). Los modos normales de la cavidad esferica son
entonces
 r
nlm (~r ) = jl xln
Ylm (, ) ,
a
asociados a frecuencias
ln = vkln = v

xln
.
a

v es la velocidad del sonido en el gas. Observemos que la frecuencia no depende del ndice
azimutal m. Es decir, existen 2l + 1 (la cantidad de ms posibles para cada l) modos normales
con la misma frecuencia (el espectro es degenerado).
Finalmente, la solucion general entonces es una combinacion lineal sobre todos los modos
normales:
X
X
l
X
(~r, t) =
Anlm nlm (r, , )eiln t .
n=1 l=1 m=l

Los coeficientes Anlm se obtienen al imponer una condicion inicial. Por ejemplo, si inicialmente
el gas al interior de la cavidad esferica esta dado por una funcion 0 (r, , ), los Anlm se
obtendran invirtiendo la serie de Fourier
0 (r, , ) =

X
X
l
X
n=1 l=1 m=l

Anlm jl

r
xln
Ylm (, ) .
a

262

CAPITULO 21. APLICACIONES

Membrana circular
Consideremos los modos de oscilacion de una membrana circular de radio a, densidad de
masa superficial , sometida a una tension T , con extremos fijos. En este caso, la ecuacion de
Helmholtz involucra el Laplaciano en dos dimensiones, conveniendo escribirlo en coordenadas
polares:




1

1 2
2

+ 2 2 + k (, ) = 0 .


La separacion de variables, (, ) = R()(), de modo analogo a lo realizado en la seccion
21.2, da las ecuaciones


2
d2 R 1 dR
2
+ k 2 R=0,
+
d2
d

2
d
+ 2 = 0 .
2
d
La ecuacion angular tiene soluciones armonicas, ei . La monovaluacion de la solucion en
el intervalo [0, 2] indica que Z. La ecuacion radial, en tanto, es la ecuacion de Bessel,
con solucion J (k) (la otra solucion linealmente independiente, N (k), no es aceptable
fsicamente, pues diverge en = 0. Ademas, la condicion de borde fijo implica que
k = kn =

xn
,
a

con xn el n-esimo cero de J (x). Cada kn esta asociado a una frecuencia


n = vkn = v
donde

xn
,
a

(21.15)

es la velocidad de propagacion de las vibraciones sobre la membrana.


A diferencia de lo que ocurre con las oscilaciones de una cavidad esferica, la frecuencia
depende de todos los ndices ( y n) presentes en el sistema, luego no hay degeneracion del
espectro. Todos los modos normales tienen distinta frecuencia. Estos modos estan descritos
por la funcion


n (, , t) = J xn
(A sen() + B cos())ein t ,
(21.16)
a
v=

y la solucion general por una combinacion lineal de estos modos:


(, ) =



J xn
(A sen() + B cos())ein t .
a
=0 n=1

Dado que las frecuencias (21.15) son proporcionales a los ceros de las funciones de Bessel, es
posible conocer la razon entre las frecuencias de oscilacion de la membrana circular. Las seis

263

DE DIFUSION

21.6. ECUACION
frecuencias mas bajas son:
01
11
21
02
12
03

,
= 1.59301
= 2.13601
= 2.29501
= 2.91701
= 3.59801

,
,
,
,
.

Para dibujar estos modos normales, basta notar que su amplitud se puede reescribir en la
forma:


J xn
cos( + ) ,
a
con una cierta fase, que podemos considerar nula si nos interesa solo un modo normal a
la vez. Entonces advertimos que la frecuencia n corresponde a un modo de oscilacion con
n nodos radiales contando el borde fijo como un nodo radial y nodos angulares. Los
primeros seis modos normales tienen la siguiente forma:
_
_

+
01

11

21

+ _
02

+
_

+
_ +
12

_
+

03

En esta figura, las lneas indican lneas nodales, el signo + indica regiones que en un tiempo
dado se desplazan saliendo del plano de la pagina, y el signo regiones que en el mismo
tiempo se desplazan entrando al plano de la pagina.

21.6.

Ecuaci
on de difusi
on

Si u es una cantidad conservada, entonces uno puede afirmar que la variacion de u dentro
de un volumen solo es posible porque hay un flujo de esa cantidad a traves de las paredes del
volumen:
Z
Z
d
~ r, t) ,
d~r u(~r, t) =
d~a J(~
(21.17)
dt V
S[V ]
donde J~ es una corriente asociada a u. Del teorema de la divergencia se sigue entonces que
~ J~ + u = 0 .

(21.18)

264

CAPITULO 21. APLICACIONES

Puesto que se espera en procesos de difusion que exista corriente solo si hay gradientes de
concentracion, y que la direccion de la corriente sea tal que vaya de puntos de alta concentracion a puntos de baja concentracion (tendiendo a homogeneizar el sistema), se supone
tpicamente que
~ r, t) ,
J~ = u(~
(21.19)
con alguna constante. Se tiene entonces
2 u

1 u
=0.
t

(21.20)

Por ejemplo, la ecuacion de difusion del calor es de la forma (21.19), con = K/, donde
K es la conductividad termica, el calor especfico y la densidad.
Consideremos entonces el problema de la difusion del calor en el interior de un paraleleppedo de aristas a, b, c, cuyas paredes estan a temperatura cero, y que inicialmente tiene un
perfil de temperatura u0 (x, y, z). El dibujo es esencialmente el mismo que el de la pagina 246,
as que no lo repetiremos.
Al separar variables en (21.20), escribiendo u(~r, t) = R(~r )T (t), obtenemos
1 1 dT
2 R
=
.
R
T dt
Ambos terminos deben ser entonces igual a una constante, que llamaremos k 2 . Entonces
obtenemos, para la parte temporal,
dT
+ k 2 T = 0 ,
dt
que tiene por solucion

T (t) = ek t ,

lo que indica que, si k es real, un perfil inicial decaera exponencialmente hacia la situacion
de equilibrio. La parte espacial, en tanto, es
2 R + k 2 R = 0 ,
que no es sino la ecuacion de Helmholtz.
Dada la simetra del problema, la escribimos en coordenadas cartesianas y separamos
variables, R(~r) = X(x)Y (y)Z(z), obteniendose
X 00 Y 00 Z 00
+
+
+ k2 = 0 .
X
Y
Z

(21.21)

Concluimos entonces que cada termino debe ser igual a una constante. En particular, podemos
escribir X 00 /X = 2 , Y 00 /Y = 2 , Z 00 /Z = 2 , de modo que
X 00 + 2 X = 0 ,
Y 00 + 2 Y = 0 ,
Z 00 + 2 Z = 0 .

265

CON CREACION
DE PARTICULAS
21.7. DIFUSION

Notando que deben satisfacerse las condiciones de borde X(0) = Y (0) = Z(0) = X(a) =
Y (b) = Z(c) = 0, concluimos rapidamente que las soluciones son


nx x ,
X(x) = sen
a


Y (y) = sen
ny y ,
 b

Z(z) = sen
nz z ,
c
con nx , ny , nz enteros. Reemplazando estas soluciones en (21.21) encontramos que
k = knx ,ny ,nz =

r 
n 2
x

 n 2
y

 n 2
z

(21.22)

La base de soluciones de (21.20) es entonces


unx ,ny ,nz (x, y, z, t) = sen


a

nx x sen


b

ny y sen


c

nz z e

( nax ) +( nby ) +( ncz )


2

, (21.23)

y la solucion general es de la forma


u(x, y, z, t) =

Anx ,ny ,nz unx ,ny ,nz (x, y, z, t) .

(21.24)

nx ,ny ,nz =0

Por ejemplo, si inicialmente tenemos un cubo de arista a, con un perfil de temperatura


inicial sinusoidal en todas direcciones:
 
 
 
u(x, y, z, 0) = T0 sen
x sen
y sen
z ,
(21.25)
a
a
a
es inmediato verificar, al imponer esta condicion inicial sobre (21.24), que
Anx ,ny ,nz = T0 nx ,1 ny ,1 nz ,1 ,
y que la evolucion temporal de este perfil sera
 
 
 
3 2
u(x, y, z, t) = T0 sen
x sen
y sen
z e a2 t .
a
a
a

21.7.

(21.26)

(21.27)

Difusi
on con creaci
on de partculas

Consideremos la evolucion de neutrones en material fisionable. Cuando un neutron impactar sobre un n


ucleo de U 235 por ejemplo, este se fisiona y se liberan nuevos neutrones,
que pueden continuar la reaccion en cadena. En principio, la densidad de neutrones es una
cantidad conservada, salvo por el hecho de que se estan generando nuevos neutrones continuamente. Si n(~r, t) es la densidad de neutrones, J~ su corriente, y si suponemos que la creacion
de neutrones ocurre a una tasa temporal 1/ , y es proporcional a la densidad de neutrones

266

CAPITULO 21. APLICACIONES

(es decir, se generan mas neutrones en regiones donde hay mayor cantidad de ellos), podemos
reescribir la ecuacion de conservacion (21.17) para los neutrones en la forma
Z
Z
Z
1
d
~
d~r n(~r, t) =
d~a J(~r, t) +
d~r n(~r, t) .
(21.28)
dt V
V
S[V ]
Al usar el teorema de la divergencia para el termino de superficie, y poner una ley para la
corriente de la forma (21.19), es claro que se obtendra la siguiente ecuacion para la densidad:
n
1
= 2 n + n ,
t

es decir,

1 n
1
+
n=0.
(21.29)
t

Esta ecuacion de continuidad modificada describe el comportamiento de la densidad de neutrones en material fisionable, considerando creacion de neutrones a una tasa proporcional a
su densidad.
Separando variables en la forma n(~r, t) = R(~r )T (t), se tiene:
2 n

1 dT
1
2 R
=

.
R
T dt

Cada lado debe ser igual a una constante, que llamaremos k 2 , de modo que quedan las
ecuaciones
(2 + k 2 )R = 0 ,
1
dT
= (1 k 2 )T ,
dt

es decir nuevamente la ecuacion de Helmholtz para la parte espacial, y una parte temporal
de la forma
1
2
T (t) = e (1k )t .
Estudiemos ahora una geometra especfica: una esfera de radio a que contiene U 235 , que
impide el ingreso o fuga de neutrones por sus paredes, de modo que n(r = a, , , t) = 0.
Debido a la simetra esferica, el problema para la parte espacial es el mismo que para los
modos normales dentro de una cavidad esferica (Sec. 21.5.1), es decir,
k = kln =

xln
a

(21.30)

 r
R(~r ) = jl xln
Ylm (, ) ,
(21.31)
a
con jl (x) la funcion de Bessel esferica e Ylm (, ) los armonicos esfericos. Con (21.30) y
(21.31), la base de soluciones de (21.29) es
nlnm (~r, t) = jl

1
r
xln
Ylm (, )e
a

x2
ln
a2

(21.32)

CON CREACION
DE PARTICULAS
21.7. DIFUSION

267

La evolucion de la densidad de neutrones en esta esfera de material fisionable, para un perfil


de densidad inicial dado, es de la forma
X
n(~r, t) =
Alnm nlnm (~r, t) .
(21.33)
nlm

Indice alfab
etico
ancho de una distribucion, 43
armonicos esfericos, 217
teorema de adicion, 219
autofunciones
de un operador diferencial, 154
ortogonalidad, 155
autovalores
de un operador diferencial, 154

primera especie, 1
distancia, 4
distribuciones
antitransformada de Fourier, 85
convergencia de sucesiones, 64
delta de Dirac, 57, 61, 73, 75
composicion con funcion, 74
estmulo puntual, vease funcion de Green
paridad, 72, 73
Bessel
producto de convolucion, 96
ecuacion, vease ecuacion de Bessel
transformada de Fourier, 84
derivada, 60, 62
circuito
derivada de la delta de Dirac, 57, 70, 76
RLC, 26
paridad, 72, 73
rectificador de media onda, 24
transformada de Fourier, 85
rectificador de onda completa, 25
derivada de producto, 77
conjunto de funciones
derivada de serie de sucesiones, 69
completo, 12
distribucion impar, 72
linealmente dependiente, 10
distribucion par, 72
linealmente independiente, 10
funcional asociado a una funcion, 58
ortonormales, 10
notacion integral, 72, 87
constante de Euler-Mascheroni, vease Eulerparidad, 72, 73
Mascheroni
producto, 74
convergencia
producto de convolucion, 93, 95
debil, 77
con un funcional, 94
en la norma, 4
propiedades, 95
fuerte, 55, 56
producto
por escalar, 57
puntual, 3
producto por polinomio, 75
sucesion de distribuciones, 64
representaciones de la delta, 6568
uniforme, 3
solucion de ecuaciones diferenciales, 76
covector, 55
soporte, 64
sucesion de derivadas, 69
desigualdad
sucesiones, 64
de Bessel, 11, 19
suma, 57
de Cauchy-Schwartz, 2
temperada, 56
triangular, 2
temperadas, 55
discontinuidades
transformada de Fourier, 83
mansas, 1
268

INDICE ALFABETICO

derivada, 87
derivada de distribucion, 88
valor, 64
valor nulo, 63

269
solo con singularidades Fuchsianas, 185
singularidad en infinito, 182
singularidad Fuchsiana, 178
singularidad irregular, 160
solucion en punto regular, 169
solucion en torno a punto singular, 173
solucion por serie, vease metodo de Frobenius
hipergeometrica, 191
confluente, 198
ecuacion indicial, 192
indicial, 161, 180
ecuacion hipergeometrica, 192
oscilador armonico
metodo de Frobenius, 160
oscilador armonico amortiguado y forzado, 44
error cuadratico medio, 11
espacio dual, 55
espacios de funciones, 1
anillo, 51
anillo conmutativo, 51
Banach, 10
completo, 10
dual de Schwartz, 55
Hilbert, 10
pre-Hilbert, 2
Schwartz, 47, 55
vectorial, 1
Euler-Mascheroni
constante de, 103, 109

ecuacion
asociada de Laguerre, 150
asociada de Legendre, 213
con singularidades, 159
de Bessel, 225
singularidades, 160
de conduccion del calor, 27
de difusion, 263, 265
de Euler, 189
de Gauss, 193, 195
de Helmholtz, 260
de Hermite, 141
metodo de Frobenius, 143
de Laguerre, 147
metodo de Frobenius, 148
singularidades, 183
de Laplace, 28, 43
coordenadas cartesianas, 245
coordenadas cilndricas, 237, 257
coordenadas esfericas, 216, 252
coordenadas polares, 249
de Legendre, 206, 220
segunda solucion, 219
de onda, 259
cavidad esferica, 260
membrana circular, 262
de Schrodinger
formula
atomo de hidrogeno, 150
de duplicacion de Legendre, 104, 107
oscilador armonico, 143
de Rodrigues, 205
diferencial
de Schlafli, 209
con 0 singularidad Fuchsiana, 187
de Stirling, 107
con 1 singularidad Fuchsiana, 187
con 2 singularidades Fuchsianas, 188, fenomeno de Gibbs, 29
funcion
189
P de Riemann, 193
con 3 singularidades Fuchsianas, vease
ecuacion hipergeometrica
asociada de Legendre, 213
punto de holomorfa, 177
como problema de Sturm-Liouville, 156,
215
punto ordinario, 159
funcion generatriz, 214
punto regular, 159
Beta, 104
punto singular, 159

270

INDICE ALFABETICO

relacion con la funcion Gamma, 105


polinomios de Legendre, 201
hipergeometrica, 191, 194, 195
Beta incompleta, 110
forma integral, 196
de Bessel, 226
Lorentziana, 37
ndice entero, 228
meromorfa, 178
ndice no entero, 226
poligamma, 110
ndice semientero, 227
funci
on de Green, 9799
como problema de Sturm-Liouville, 156,
funcion de peso, 135
236
de un problema de autovalores, 154
comportamiento asintotico, 229
polinomios de Hermite, 142
de segunda especie, vease funcion de Neufuncional
mann
asociado a una funcion, 58
esferica, 261
producto, 75
formula de adicion, 231
derivada, 60
funcion generatriz, 230
derivada funcion discontinua, 63
ortogonalidad, 235
lineal, 55
relacion de recurrencia, 234
paridad, 72
representacion integral, 232
producto de convolucion, 93
de crecimiento lento, 58
con una distribucion, 94
de Hankel, 242, 243
transformada
de Fourier, 83
de Legendre de segunda especie, 219
relacion de recurrencia, 223
Hermite
de Neumann, 239, 241
ecuacion
de orden exponencial, 113
metodo de Frobenius, 143
dientes de sierra, 90
identidad
digamma, 109
Plancherel, 53
doble factorial, 107
igualdad de Parseval, 12, 53
error, 111
integral
escalon de Heaviside, 61
Ces`aro, 17, 87
transformada de Laplace, 117
de inversion de Mellin, vease transformafactorial, 101
da de Laplace
relacion con funcion Gamma, 102
impropia,
15
Gamma, 101, 102
n
umeros negativos, 103
Laguerre
relacion con funcion factorial, 102
ecuacion
relacion con la funcion Beta, 105
metodo de Frobenius, 148
relacion de recurrencia, 102
Laplace
representacion de Weierstrass, 109
transformada de, vease transformada de
Gamma incompleta, 111
Laplace
gaussiana, 37
Laurent
generatriz
serie de, vease serie de Laurent
funcion de Bessel, 230
Legendre
funciones asociadas de Legendre, 214
formula de duplicacion, 104, 107
polinomios asociados de Laguerre, 150
polinomios, vease polinomios de Legendre
polinomios de Hermite, 139
polinomios de Laguerre, 145
metodo

INDICE ALFABETICO

de Frobenius, 160
ecuacion de Hermite, 143
ecuacion de Laguerre, 148
segunda solucion, 165
de Gram-Schmidt, 10
matriz de circunvalacion, 173
Mellin
integral de inversion, vease transformada
de Laplace
norma, 2
operador de bajada
polinomios de Hermite, 141
operador de subida
polinomios de Hermite, 141
operador diferencial
adjunto, 152
autoadjunto, 151
autofunciones, 154
ortogonalidad, 155
autohermtico, 153
autovalores, 154
polinomio trigonometrico, 8
polinomios
asociados de Laguerre, 150
como problema de Sturm-Liouville, 156
ecuacion, 150
funcion generatriz, 150
relacion con la ecuacion de Schrodinger
para el atomo de hidrogeno, 150
Chebyshev I
como problema de Sturm-Liouville, 156
Chebyshev II
como problema de Sturm-Liouville, 156
Gegenbauer
como problema de Sturm-Liouville, 156
Hermite, 139
como problema de Sturm-Liouville, 156
ecuacion, 141
funcion de peso, 142
funcion generatriz, 139
operador de bajada, 141
operador de subida, 141
ortogonalidad, 142

271
relacion con ecuacion de Schrodinger del
oscilador armonico, 143
relacion de recurrencia, 140, 141
Laguerre, 145
asociados, vease polinomios asociados
de Laguerre
como problema de Sturm-Liouville, 156
ecuacion, 147
funcion generatriz, 145
ortogonalidad, 148
relacion de recurrencia, 147
Legendre, 11, 201
como problema de Sturm-Liouville, 156
ecuacion, 206
formula de Rodrigues, 205
formula de Schlafli, 209
funcion generatriz, 201
ortogonalidad, 207
races, 207
relacion de Laplace, 209
relacion de recurrencia, 203
serie de Legendre, 210
ortogonales, 135, 136
races, 136
relacion de recurrencia, 137
ultraesfericos, vease polinomios de Gegenbauer
principio de incerteza, 43
problema de Sturm-Liouville, 151
producto de convolucion, 47, 48
de distribuciones, 93, 95
propiedades, 95
de funcionales, 93
de una distribucion y un funcional, 94
diferenciabilidad, 50
interpretacion fsica, 48
interpretacion matematica, 49
propiedades, 51
respuesta a estmulo puntual, vease funcion de Green
transformada de Fourier, 50
transformada de Laplace, 121
producto escalar, vease producto interno
producto interno, 2
con funcion de peso, 135

272
promedio de una distribucion, 43
punto de holomorfa
de ecuacion diferencial, 177
punto ordinario
de ecuacion diferencial, 159
punto regular
de ecuacion diferencial, 159
solucion ecuacion diferencial en, 169
punto singular
de ecuacion diferencial, 159
solucion en torno a, 173
punto singular no esencial, vease punto regular

INDICE ALFABETICO

Stirling
formula de, 107
sucesion de funciones, 3
Cauchy, 9
suma de Ces`aro, 16

teorema
de adicion de armonicos esfericos, 219
de aproximacion, 8
de Cauchy, 208
de Fuchs, 163, 178
de reciprocidad, 36
de Riemann-Lebesgue, 36
de Weierstrass, 7
relacion de Laplace, 209
transformada de Fourier, 35
relacion de recurrencia
ancho, 43
funcion de Bessel, 234
antitransformada, 36
funcion de Legendre de segunda especie,
de una distribucion, 85
223
de un funcional, 83
funcion Gamma, 102
de una distribucion, 83
polinomios
derivada, 87
Hermite, 140, 141
de una funcion sinusoidal, 89
Laguerre, 147
decaimiento, 41
Legendre, 203
definicion, 36
ortogonales, 137
delta de Dirac, 84
derivada de distribucion, 88
serie
derivada de la delta de Dirac, 85
geometrica, 194
diferenciabilidad, 42
hipergeometrica, 194, 195
lmite continuo de serie de Fourier, 35
confluente, 198
producto de convolucion, 50
serie de Fourier, 19
propiedades, 41
coeficientes, 11, 12, 19
teorema de reciprocidad, 36
convergencia, 14, 22
transformada coseno, 41
decaimiento coeficientes, 22
transformada seno, 40
integracion, 32
transformada
de Laplace, 113
perodo L, 24
antitransformada, 115, 116
periodicidad, 24
convergencia, 114
trigonometrica, 23
de funcion escalon de Heaviside, 117
serie de Laurent, 175
de producto de convolucion, 121
serie de Legendre, 210
holomorfa, 114
singularidad
integral de inversion de Mellin, 116
en infinito, 182
lmite en infinito, 115
esencial, vease singularidad irregular
para resolver ecuaciones a derivadas parFuchsiana, 178
ciales, 130
irregular
para resolver ecuaciones diferenciales, 126
de ecuacion diferencial, 160

INDICE ALFABETICO

para resolver ecuaciones integrales, 128


para resolver sistemas de ecuaciones, 133
propiedades, 120
valor principal, 15, 87
Weierstrass
representacion de la funcion Gamma, 109
Wronskiano, 165, 172

273

También podría gustarte