Está en la página 1de 342

MATERIAL DIDCTICO

FUNCIONES ESPECIALES Y
TRANSFORMADAS INTEGRALES CON
APLICACIONES A LA MECNICA
CUNTICA Y ELECTRODINMICA

AUTOR:
Dr. Juan Manuel Romero Sanpedro

Departamento de Matemticas
Aplicadas y Sistemas
IBSN: 978-607-28-0038-0

Octubre 2013
UNIVERSIDAD AUTONOMA METROPOLITANA
UNIDAD CUAJIMALPA
DEPARTAMENTO DE MATEMATICAS
APLICADAS Y SISTEMAS

FUNCIONES ESPECIALES Y TRANSFORMADAS


INTEGRALES
CON APLICACIONES A LA MECANICA CUANTICA Y
ELECTRODINAMICA

JUAN MANUEL ROMERO SANPEDRO


jromero@correo.cua.uam.mx

1
Indice general

0.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1. La Convencion de Suma de Einstein, el Tensor de Levi-Civita


y las Ecuaciones de Maxwell 11
1.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2. Producto escalar y la delta de Kronecker . . . . . . . . . . . . . 13
1.3. Producto vectorial y el tensor de Levi-Civita . . . . . . . . . . . 16
1.4. El tensor de Levi-Civita y las matrices . . . . . . . . . . . . . . 19
1.4.1. El tensor de Levi-Civita y las matrices antisimetricas . . 20
1.4.2. El tensor de Levi-Civita y las matrices simetricas . . . . 20
1.4.3. Conservacion de carga . . . . . . . . . . . . . . . . . . . 22
1.5. Triple producto escalar . . . . . . . . . . . . . . . . . . . . . . . 22
1.6. Aplicaciones del triple producto escalar . . . . . . . . . . . . . . 23
1.6.1. Energa cinetica . . . . . . . . . . . . . . . . . . . . . . . 24
1.6.2. Conservacion de la energa . . . . . . . . . . . . . . . . . 24
1.7. Contraccion de dos tensores de Levi-Civita . . . . . . . . . . . . 25
1.8. Triple producto vectorial I . . . . . . . . . . . . . . . . . . . . . 27
1.9. Conservacion del momento . . . . . . . . . . . . . . . . . . . . . 28
1.9.1. Conservacion del momento angular . . . . . . . . . . . . 31
1.10. Triple producto vectorial II . . . . . . . . . . . . . . . . . . . . 32
1.10.1. Ecuacion de onda . . . . . . . . . . . . . . . . . . . . . . 33
1.11. Libertad de norma . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.12. Representacion compleja de las ecuaciones de Maxwell . . . . . 36
1.13. Otros resultados de calculo vectorial . . . . . . . . . . . . . . . . 38

2. Operadores en Coordenadas Curvilneas 40


2.1. Interpretacion geometrica de operaciones vectoriales . . . . . . . 40
2.2. Operadores en coordenadas cartesianas . . . . . . . . . . . . . . 42
2.2.1. Coordenadas esfericas . . . . . . . . . . . . . . . . . . . 44
2.2.2. Coordenadas cilndricas . . . . . . . . . . . . . . . . . . 45
2.3. Coordenadas curvilneas ortogonales . . . . . . . . . . . . . . . . 47

2
2.3.1. Gradiente en coordenadas curvilneas . . . . . . . . . . . 48
2.3.2. Divergencia en coordenadas curvilneas . . . . . . . . . . 49
2.3.3. Laplaciano en coordenadas curvilneas . . . . . . . . . . 50
2.3.4. Rotacional en coordenadas curvilneas . . . . . . . . . . 51
2.4. Operador momento angular . . . . . . . . . . . . . . . . . . . . 53

3. El Factorial y la Funcion Gamma 57


3.1. Funcion Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . 57

4. Repaso de Ecuaciones Diferenciales Ordinarias 62


4.1. Teorema de existencia y unicidad . . . . . . . . . . . . . . . . . 62
4.2. El Wronskiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.3. Independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4. Los ceros de las soluciones . . . . . . . . . . . . . . . . . . . . . 64
4.4.1. Forma normal . . . . . . . . . . . . . . . . . . . . . . . . 65
4.5. Teorema de comparacion de Sturm . . . . . . . . . . . . . . . . 68
4.6. Problema de Sturm-Liuoville . . . . . . . . . . . . . . . . . . . . 70

5. Funciones de Bessel 73
5.1. Ecuacion de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.2. Funcion generatriz . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.3. Relaciones de recurrencia . . . . . . . . . . . . . . . . . . . . . . 79
5.4. Funciones de Bessel de orden n + 12 . . . . . . . . . . . . . . . 82
5.5. Ortonormalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.6. La ecuacion de Laplace en coordenadas cilndricas . . . . . . . 87
5.6.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.7. Ecuaciones tipo Bessel . . . . . . . . . . . . . . . . . . . . . . . 92
5.7.1. Partcula cuantica en una fuerza constante . . . . . . . 94
5.8. Mecanica cuantica conforme . . . . . . . . . . . . . . . . . . . . 94
5.9. Ecuacion de Fick-Jacobs . . . . . . . . . . . . . . . . . . . . . . 95

6. Elementos de Algebra Lineal 98


6.1. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . 98
6.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.2.1. Cn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.2.2. Sucesiones . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.2.3. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.2.4. Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.3. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.4. Ejemplos de producto escalar . . . . . . . . . . . . . . . . . . . 102
6.4.1. Producto escalar en Cn . . . . . . . . . . . . . . . . . . . 102

3
6.4.2. Sucesiones . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.4.3. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.4.4. Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . 104
6.5. Ortonormalidad e independencia lineal . . . . . . . . . . . . . . 105
6.6. Teorema de Pitagoras . . . . . . . . . . . . . . . . . . . . . . . . 106
6.6.1. Desigualdad de Bessel . . . . . . . . . . . . . . . . . . . 108
6.6.2. Desigualdad de Schwarz . . . . . . . . . . . . . . . . . . 108
6.6.3. Desigualdad del triangulo . . . . . . . . . . . . . . . . . 108
6.7. Espacios normados . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.7.1. Espacios metricos . . . . . . . . . . . . . . . . . . . . . . 110
6.8. Ejemplos de bases ortonormales . . . . . . . . . . . . . . . . . . 111
6.8.1. Exponencial compleja . . . . . . . . . . . . . . . . . . . . 111
6.8.2. Ecuaciones tipo Sturm-Liouville . . . . . . . . . . . . . . 111
6.8.3. Ecuacion de Schrodinger en una dimension . . . . . . . . 113
6.8.4. Ecuacion de Schrodinger en tres dimensiones . . . . . . . 113
6.8.5. Armonicos esfericos . . . . . . . . . . . . . . . . . . . . . 115
6.9. Polinomios trigonometricos . . . . . . . . . . . . . . . . . . . . . 117
6.10. Espacios completos . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.11. Operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.12. Operador adjunto . . . . . . . . . . . . . . . . . . . . . . . . . . 122
6.12.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.12.2. Derivada . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.12.3. Derivada con peso . . . . . . . . . . . . . . . . . . . . . 124
6.12.4. Propiedades del operador adjunto . . . . . . . . . . . . . 125
6.13. Operadores Hermticos . . . . . . . . . . . . . . . . . . . . . . . 125
6.13.1. Ejemplos de matrices Hemticas . . . . . . . . . . . . . 126
6.13.2. Ejemplos de operadores Hermticos . . . . . . . . . . . . 126
6.14. Conmutador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
6.14.1. Propiedades de los conmutadores . . . . . . . . . . . . . 129
6.14.2. Ejercicio . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
6.15. Conmutadores y la derivada . . . . . . . . . . . . . . . . . . . . 132
6.16. Vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
6.16.1. Espectro de operadores Hermticos . . . . . . . . . . . . 134
6.16.2. Operadores que conmutan . . . . . . . . . . . . . . . . . 135

7. Prueba de Feynman de las Ecuaciones de Maxwell 136


7.1. Fuerza de Lorentz . . . . . . . . . . . . . . . . . . . . . . . . . . 136
7.2. Inexistencia de monopolos magneticos . . . . . . . . . . . . . . . 138
7.3. Ley de Faraday . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

4
8. Series de Fourier 140
8.1. Funciones trigonometricas . . . . . . . . . . . . . . . . . . . . . 140
8.2. Relaciones de ortonormalidad . . . . . . . . . . . . . . . . . . . 142
8.2.1. Series de Fourier . . . . . . . . . . . . . . . . . . . . . . 143
8.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
8.3.1. Caso f (x) = x . . . . . . . . . . . . . . . . . . . . . . . . 144
8.3.2. Caso f (x) = x2 . . . . . . . . . . . . . . . . . . . . . . . 145
8.3.3. Caso f (x) = cos(x) . . . . . . . . . . . . . . . . . . . . 146
8.3.4. Funcion f (x) = ex . . . . . . . . . . . . . . . . . . . . . 148
8.4. Serie tipo coseno . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.5. Serie tipo seno . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
8.6. Intervalo arbitrario . . . . . . . . . . . . . . . . . . . . . . . . . 152
8.6.1. Delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . 153
8.7. Serie coseno en el intervalo [0, L] . . . . . . . . . . . . . . . . . . 154
8.7.1. Delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . 155
8.8. Serie seno en el intervalo [0, L] . . . . . . . . . . . . . . . . . . . 155
8.8.1. Delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . 156
8.9. Representacion compleja . . . . . . . . . . . . . . . . . . . . . . 157
8.9.1. Delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . 157
8.10. Ecuacion de Laplace en dos dimensiones . . . . . . . . . . . . . 158
8.10.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
8.11. Ecuacion de Poisson en dos dimensiones con coordenas polares . 163
8.11.1. Formula de Poisson en dos dimensiones . . . . . . . . . . 165
8.11.2. Cilindro infinito . . . . . . . . . . . . . . . . . . . . . . 168
8.12. Ecuacion de Schrodinger en una dimension . . . . . . . . . . . 170
8.12.1. Pozo infinito . . . . . . . . . . . . . . . . . . . . . . . . . 171
8.13. Ecuacion de Onda . . . . . . . . . . . . . . . . . . . . . . . . . . 172
8.13.1. Cuerda con extremos fijos . . . . . . . . . . . . . . . . . 173
8.13.2. Condiciones iniciales . . . . . . . . . . . . . . . . . . . . 173
8.13.3. Energa . . . . . . . . . . . . . . . . . . . . . . . . . . . 174

9. El Oscilador Armonico y los Polinomios de Hermite 176


9.1. Hamiltoniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
9.1.1. Ortonormalidad . . . . . . . . . . . . . . . . . . . . . . . 177
9.2. Operadores de acenso y decenso . . . . . . . . . . . . . . . . . . 178
9.3. Estado base y ortonormalidad . . . . . . . . . . . . . . . . . . . 182
9.4. Polinomios de Hermite . . . . . . . . . . . . . . . . . . . . . . . 185
9.5. Funcion generadora . . . . . . . . . . . . . . . . . . . . . . . . . 188
9.5.1. Ecuacion de Hermite . . . . . . . . . . . . . . . . . . . . 191
9.6. Metodo tradicional . . . . . . . . . . . . . . . . . . . . . . . . . 192

5
9.7. Oscilador en campo electrico constante . . . . . . . . . . . . . . 195
9.8. Suma de osciladores y el oscilador en D dimensiones . . . . . . 196
9.8.1. Cadena de osciladores . . . . . . . . . . . . . . . . . . . 198
9.8.2. Oscilador en D dimensiones . . . . . . . . . . . . . . . . 200
9.9. Niveles de Landau, partcula en un campo magnetico constante 200
9.10. Ecuacion de Fokker-Planck, caso libre y homogeneo . . . . . . . 203

10.El Grupo de Rotaciones y los Armonicos Esfericos 206


10.1. Transformaciones de coordenadas lineales . . . . . . . . . . . . . 206
10.2. Laplaciano y elemento de lnea . . . . . . . . . . . . . . . . . . 208
10.3. Grupo de transformaciones . . . . . . . . . . . . . . . . . . . . . 210
10.4. El grupo de rotaciones . . . . . . . . . . . . . . . . . . . . . . . 211
10.4.1. Transformaciones infinitesimales . . . . . . . . . . . . . . 215
10.5. Armonicos esfericos . . . . . . . . . . . . . . . . . . . . . . . . . 220
10.6. Reglas de conmutacion del momento angular . . . . . . . . . . . 222
10.7. Ecuacion de valores propios de L2 . . . . . . . . . . . . . . . . . 223
10.8. Relaciones de ortonormalidad . . . . . . . . . . . . . . . . . . . 224
10.9. Operadores escalera y espectro de L2 . . . . . . . . . . . . . . . 226
10.10.Resultados preliminares . . . . . . . . . . . . . . . . . . . . . . 230
10.10.1.Constante y reglas de recurrencia . . . . . . . . . . . . 230
10.10.2.Relaciones de recurrencia de L . . . . . . . . . . . . . . 231
10.11.El armonico esferico Yll (, ) . . . . . . . . . . . . . . . . . . . . 233
10.12.Forma explcita de los armonicos esfericos . . . . . . . . . . . . 235
10.13.Polinomios de Legendre y polinomios asociados de Legendre . . 236
10.14.Propiedades de los polinomios de Legendre . . . . . . . . . . . . 239
10.14.1.Funcion generadora . . . . . . . . . . . . . . . . . . . . . 241
10.14.2.Relaciones de recurrencia . . . . . . . . . . . . . . . . . . 243
10.15.Relacion de completez de los armonicos esfericos . . . . . . . . . 246
10.16.Teorema de adicion de los armonicos esfericos . . . . . . . . . . 247
10.16.1.Implicaciones del teorema de adicion . . . . . . . . . . . 252
10.17.L2 y el Laplaciano . . . . . . . . . . . . . . . . . . . . . . . . . 253
10.18.Paridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254

11.Ecuacion de Laplace en Coordenadas esfericas 256


11.1. Solucion general . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
11.1.1. Problema de la esfera . . . . . . . . . . . . . . . . . . . . 258
11.1.2. Formula de Poisson . . . . . . . . . . . . . . . . . . . . . 259
11.1.3. Esfera partida . . . . . . . . . . . . . . . . . . . . . . . . 262
11.2. Esfera a potencial cero . . . . . . . . . . . . . . . . . . . . . . . 264
11.2.1. Plano con protuberancia esferica . . . . . . . . . . . . . 264

6
11.3. Problemas con simetra azimutal . . . . . . . . . . . . . . . . . . 266
11.3.1. Esfera con condiciones especiales . . . . . . . . . . . . . 266
11.3.2. Potencial de un anillo circular . . . . . . . . . . . . . . . 267
11.3.3. Esfera con hueco . . . . . . . . . . . . . . . . . . . . . . 269
11.4. Disco a potencial constante . . . . . . . . . . . . . . . . . . . . 270
11.5. Distribucion de carga continua . . . . . . . . . . . . . . . . . . . 273
11.5.1. Esfera cargada . . . . . . . . . . . . . . . . . . . . . . . 275
11.6. Problemas en magnetismo . . . . . . . . . . . . . . . . . . . . . 276
11.6.1. Esfera rotante . . . . . . . . . . . . . . . . . . . . . . . . 276
11.6.2. Anillo de corriente I . . . . . . . . . . . . . . . . . . . . 279
11.6.3. Anillo de corriente II . . . . . . . . . . . . . . . . . . . . 282

12.Los Polinomio de Laguerre y el atomo de hidrogeno 287


12.1. Atomo de hidrogeno . . . . . . . . . . . . . . . . . . . . . . . . 287
12.2. Funcion de onda . . . . . . . . . . . . . . . . . . . . . . . . . . . 296

13. Ecuacion de Helmholtz 298


13.1. El origen de la ecuacion Helmholtz . . . . . . . . . . . . . . . . 298
13.2. Ecuacion de Helmholtz en dos dimensiones . . . . . . . . . . . . 299
13.3. Ecuacion de Helmholtz en tres dimensiones . . . . . . . . . . . . 301
13.4. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
13.5. Desarrollo en ondas parciales . . . . . . . . . . . . . . . . . . . . 304

14. Transformada de Fourier 308


14.1. Definicion de transforma de Fourier . . . . . . . . . . . . . . . . 308
14.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
14.2.1. Funcion Gaussiana . . . . . . . . . . . . . . . . . . . . . 309
14.2.2. Funcion e|x| . . . . . . . . . . . . . . . . . . . . . . . . 309
14.3. Teorema de la convolucion . . . . . . . . . . . . . . . . . . . . . 310
14.4. Transformada inversa de Fourier . . . . . . . . . . . . . . . . . . 310
14.5. Ejemplos de la transformada inversa de Fourier . . . . . . . . . 313
14.6. Transfomada de Fourier de la derivada . . . . . . . . . . . . . . 314
14.7. Ecuacion de calor y ecuacion de Schrodinger libre . . . . . . . . 314
14.7.1. Ecuacion de Schrodinger libre . . . . . . . . . . . . . . . 315
14.8. Ecuacion ordinaria de segundo orden . . . . . . . . . . . . . . . 316
14.8.1. Ecuacion de Laplace en dos dimensiones . . . . . . . . . 317
14.9. Ecuacion de Black-Scholes . . . . . . . . . . . . . . . . . . . . . 318
14.10.Delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321
14.10.1. La funcion de Heaviside . . . . . . . . . . . . . . . . . . 324
14.11.Norma de una funcion . . . . . . . . . . . . . . . . . . . . . . . 324
14.12.Transformada de Fourier en d dimensiones . . . . . . . . . . . . 325

7
14.13.Funcion de Green . . . . . . . . . . . . . . . . . . . . . . . . . . 325
14.13.1. Funcion de Green y funciones propias . . . . . . . . . . 326
14.14.Ecuacion de Laplace en dos dimensiones . . . . . . . . . . . . . 327
14.15.Resultados de variable compleja . . . . . . . . . . . . . . . . . . 329
14.16.Ecuacion de Poisson . . . . . . . . . . . . . . . . . . . . . . . . 329
14.17.Funcion de Green de la ecuacion Helmholtz . . . . . . . . . . . . 333
14.17.1.Ecuacion de Lippman-Schwinger . . . . . . . . . . . . . . 334
14.18.Funcion de Green de la ecuacion de onda . . . . . . . . . . . . . 335

8
0.1. Introduccion
Deca Galileo que los secretos de la naturaleza estan escritos en el lenguaje
de las matematicas. I. Newton tambien se dio cuenta de este hecho e invento el
calculo infinitesimal para entender el movimiento de los planetas. Al ser es-
tudiados los fenomenos electricos y magneticos surgieron nuevas matematicas.
Ahora esta parte de la naturaleza se expreso en terminos de campos vectoria-
les y ecuaciones diferenciales parciales, las cuales se resumen en las ecuaciones
de Maxwell. Al resolver las ecuaciones de Maxwell surgieron funciones con
caractersticas especiales, por ello se les llama funciones especiales. Para la
electrodinamia, dentro de esas funciones especiales, de notable importancia
son las funciones de Bessel, los polinomios de Legendre, as como las llamadas
series de Fourier. Las cantidades importantes de la electrodinamica se expresan
en terminos de estas funciones. Despues de mucho esfuerzo los matematicos se
dieron cuentas que estas funciones forman espacios vectoriales con dimension
infinita, lo que hoy se conoce como espacios de Hilbert. Textos clasicos sobre
electrodinanica se pueden ver en [1, 2] y referencias sobre espacios de Hilbert
se pueden ver en [3, 4].

Por otra parte, en un inicio nadie entenda los fenomenos cuanticos y co-
mo expresarlos matematicamente. Sin embargo, al proponer Schrodinger su
ecuacion de onda las cosas se entendieron un poco mas. Sorprendentemen-
te al resolver la ecuacion de Schrodinger surgieron funciones especiales, como
los polinomios de Hermite y los polinomios de Laguerre. As, los matemati-
cos de la epoca se dieron cuenta que estaban frente a una nueva aplicacion
de los espacios de Hilbert. Dos excelentes referencias sobre mecanica cuantica
se pueden ver [5, 6]. Ademas, se encontro que una generalizacion de las se-
ries Fourier, la transformada de Fourier, es de vital importancia para entender
diversos fenomenos cuanticos. La transformada de Fourier es un caso particu-
lar de las transformadas integrales, un texto sobre este tema se puede ver en [7].

Cabe senalar que en un inicio las ecuaciones diferenciales que surgan en


la electrodinamica y en la mecanica cuantica se resolvan mediante series de
potencial, ese es el metodo tradicional [8, 9, 10]. Sin embargo, el matematicos
frances Jean Gaston Darboux se dio cuenta que muchas de esas ecuaciones se
pueden resolver con lo que hoy se llama el metodo de Factorizacion. Al ser
aplicado este metodo en mecanica cuantica mostro su gran potencia. Refe-
rencias sobre este ultimo metodo se pueden ver en [11, 12]. Otra aportacion
importante fue dada por el matematico frances Sophus Lie, quien mostro que
la teora de grupos es de gran ayuda para encontrar soluciones de las ecuacio-

9
nes diferenciales. Posteriormente, Pauli mostro que usando teora de grupos
poda obtener los estados cuanticos de varios sistemas fsicos. As, pocos se
sorprendieron cuando se encontro una relacion entre algunos grupos, como el
grupo de rotaciones, y algunas funciones especiales, como los polinomios de
Legendre. Con el tiempo la teora de grupos se convirto en una herramienta
fundamental en varias areas de la fsica teorica. Textos sobre aplicaciones de
la teora de grupos a las ecuaciones diferenciales se pueden ver [13, 14].

Notablemente, recientemente se ha encontrado que herramientas de la mecani-


ca cuantica se pueden aplicar para abordar problemas de otras disciplinas. Por
ejemplo, en estudios de las Finanzas [15] .

En este libro, se busca introducir al estudiante en las funciones especiales y


las transformadas integrales junto con sus aplicaciones en la electrodinamica y
en la mecanica cuantica. El objetivo principal de este texto es dar al estudiante
las herramientas basicas para que aborde sin dificultad problemas avanzados
a nivel licenciatura. Para que el lector tenga una vision de los objetos ma-
tematicos que se estudian, se da una introduccion a los espacios de Hilbert. En
el libro se usan tres diferentes metodos para obtener las funciones especiales.
Se usan la series de potencia para obtener las funciones de Bessel. Se usa el
metodo de factorizacion para obtener los polinomios de Hermite y se usa el
grupo de rotaciones para obtener los polinomios de Legendre y los armonicos
esfericos.

A lo largo del texto, se realizan varios ejercicios para mostrar como se


usan las funciones especiales. As, se encuentran soluciones a ecuaciones como
la ecuacion de Laplace, de onda, de Helmholtz, de calor, de Schrodinger. En
particular se obtienen los estados para el oscilador armonico y del atomo de
Hidrogeno. Tambien se obtienen las funciones de Green de la ecuacion de La-
place, de la ecuacion de Helmholtz y la ecuacion de onda.

El material de este texto ha sido utilizado en cursos para estudiantes de las


carreras de Fsica y Matematicas de la UNAM y de Matematicas Aplicadas
de la UAM-Cuajimalpa. Normalmente los fsicos se muestran mas interesados
en los aspectos formales, mientras que los matematicos se interesan mas en las
aplicaciones. Se trato de tener un punto de equilibrio para que las dos clases
de estudiantes logren obtener fundamentos solidos y al mismo tiempo sean
capaces de abordar problemas sofisticados.

10
Captulo 1

La Convencion de Suma de
Einstein, el Tensor de
Levi-Civita y las Ecuaciones de
Maxwell

Le calcul tensoriel sait mieux la physique que le physicien lui-meme


( El calculo tensorial sabe mas fsica que los mismos fsicos)
Paul Langevin 1964.

1.1. Introduccion
En este captulo veremos algunas herramientas matematicas que facilitan
la manipulacion de operaciones vectoriales. Para ver la eficacia de estas herra-
mientas las aplicaremos a las ecuaciones de Maxwell y a la fuerza de Lorentz.
En particular, ocupando estas herramientas, obtendremos las cantidades con-
servadas que implican las ecuaciones de Maxwell.

Las ecuaciones de Maxwell son


~ E
~ = 4, (1.1)
~
~ E
~ = 1 B , (1.2)
c t
~ ~
B = 0, (1.3)
~
~ = 4 J~ + 1 E .
~ B (1.4)
c c t
11
Donde es la densidad volumetrica de carga y J~ es la densidad de corriente
electrica. De forma generica J~ se puede escribir como J~ = (~x, t)~v (~x, t), con
~v (~x, t) la velocidad de las partculas cargadas en el punto ~x al tiempo t.

La ley de Gauss Eq. (1.1) relaciona la densidad de carga electrica con el


campo electrico. La ley de Faraday Eq. (1.2) nos dice que un campo magnetico
que varia en el tiempo produce un campo electrico. La ecuacion Eq. (1.3) nos
dice que no existen cargas magneticas. La ley de Ampere Eq. (1.4) nos dice
dos cosas, la primera es que la corriente electrica produce campo magnetico
y la segunda es que la variacion temporal del campo electrico produce campo
magnetico. Como se puede ver todas estas ecuaciones son lineales.

Ademas, la fuerza de Lorentz nos dice que una partcula de masa m y carga
~ y magnetico B
q en un campo electrico E ~ siente la fuerza

~ + q ~v B.
m~a = F~ = q E ~ (1.5)
c
Esta fuerza se puede obtener de las ecuaciones de Maxwell, sin embargo para
interpretar los resultados que obtendremos la supondremos independiente.

Las ecuaciones de Maxwell Eqs. (1.1)-(1.4) tambien se pueden escribir de


forma integral. Para ver esto, recordemos el teorema de Gauss y el teorema de
Stokes. Supongamos que tenemos una region de volumen V cuya frontera es la
superficie S. Entonces, el Teorema de Gauss nos dice que, si F~ es un campo
vectorial suave definido en V, se cumple
Z I Z
~ F~ dV =
F~ d~a = F~ nda, (1.6)
V V S

aqu d~a es el elemento de area de S y n representa la normal exterior a esta


superficie.

Ahora, supongamos que tenemos una superficie S cuya frontera esta dada
por la curva . Entonces, el Teorema de Stokes nos dice que si F~ es un
campo regular sobre S, se cumple
Z Z
( F ) nda = F~ d~l.
~ ~ (1.7)
S

donde ~l es el vector tangente a y gira en el sentido opuesto a las manecillas


del reloj.

12
As, ocupando el teorema de Gauss Eq. (1.6) y de Stokes Eq. (1.7), las
ecuaciones de Maxwell toman la forma
Z
~ nda = 4QT ,
E (1.8)
V
Z
~ d~l = 1 dm ,
E (1.9)
S c dt
Z
~ nda = 0,
B (1.10)
V
Z
~ d~l = 4 I + 1 de .
B (1.11)
S c c dt
Donde
Z
QT = dv (1.12)
V

es la carga total contenida en el volumen V. Mientras que


Z Z
m = ~
B nda, e = ~ nda
E (1.13)
S S

son, respectivamente, el flujo magnetico y electrico que pasa por la superficie


S. Adicionalmente
Z
I= J~ nda (1.14)
S

representa la corriente total que pasa por la superficie S.

1.2. Producto escalar y la delta de Kronecker


Recordemos que un vector tridimensional se define como
~ = (Ax , Ay , Az ) = (A1 , A2 , A3 ),
A (1.15)
tambien lo podemos representar como Ai con i = 1, 2, 3, es decir, Ai es la
componente i-esima.

Una operacion importante entre vectores es el producto escalar. Si tenemos


~yB
los vectores A ~ = (B 1 , B 2 , B 3 ), el producto escalar se define como
3
X
~B
A ~ = A1 B 1 + A2 B 2 + A3 B 3 = Ai B i . (1.16)
i=1

13
Por simplicidad es comun escribir
~B
A ~ = Ai B i , (1.17)

donde se entiende que los ndices repetidos se suman, a esta regla se le llama
convencion de Einstein. Cuando dos ndices estan repetidos se dice que estan
contraidos. Por ejemplo, si

~r = (x, y, z) = (x1 , x2 , x3 ) (1.18)

es el vector posicion, entonces el cuadrado de la distancia es

r2 = ~r ~r = xi xi = x1 x1 + x2 x2 + x3 x3 = x2 + y 2 + z 2 . (1.19)

Ahora, definamos la delta de Kronecker como el smbolo tal que



1 si i = j,
ij = (1.20)
0 si i 6= j.

En realidad se esta definiendo una matriz, la matriz identidad I, pues,



11 12 13 1 0 0
ij = 21 22 23 = 0 1 0 = I. (1.21)
31 32 33 0 0 1

Con la delta de Kronecker y la convencion de Einstein se tiene


3
X
1j Aj = 1j Aj = A1 , 2j Aj = A2 3j Aj = A3 , (1.22)
j=1

es decir

ij Aj = Ai . (1.23)

Por lo que, el producto escalar se puede escribir como


~ B.
Ai ij B j = Ai B i = A ~ (1.24)

Ademas, con la convencion de Einstein el smbolo ii significa


3
X
ii = ii = 11 + 22 + 33 = 3. (1.25)
i=1

14
Un vector importante es el gradiente, el cual se define como
   
~ =
, , = , , . (1.26)
x y z x1 x2 x3

Por simplicidad, en algunos casos solo escribiremos

~ = = i ,
 
i = 1, 2, 3. (1.27)
i xi
Veamos que significa

xj
= i xj , (1.28)
xi
para cada valor de i y j se tiene un valor de i xj por lo que se tiene la matriz
x1 x2 x3
j x 1 x 1 x 1 1 0 0
x x21 x22 x32 = 0 1 0 = ij .
= x x x
(1.29)
xi x1 x2 x3
3 3 3
0 0 1
x x x

Ahora, considerando que r = xi xi , se tiene

1 (xi xi ) 1 xi i i
 
r xi xi i x
= = = x +x
xj xj 2 xi xi xj 2r xj xj
1  xj
= ij xi + xi ij = . (1.30)
2r r
De donde
r xj ~ = ~r = r.
j
= , r (1.31)
x r r
Si f (r) es una funcion que solo depende de r se tiene

f (r) f (r) r f (r) xi ~ (r) = f (r) ~r = f (r) r.


i
= i
= , f (1.32)
x r x r r r r r
Veamos otro ejemplo, consideremos la funcion

P~ ~r
(~r) = , (1.33)
r3

15
con P~ un vector constante, entonces
! !
P~ ~r P~ ~r 1
 
(~r) ~ 1
i
= i 3
= i 3
+ P ~r i
x x r x r x r3
 
Pj xj 1 1 r
= i 3
3P~ ~r 4 i
x r r x
Pj xj 1 xi
= 3 i 3P~ ~r 4
r x r r
Pj ij x i Pi xi
= 3
3P~ ~r 5 = 3 3P~ ~r 5
r r r r
2 ~
Pi r 3P ~rxi
= ,
r5
de donde
 
~
!
P~ r2 3 P~ ~r ~r
~ P ~r = . (1.34)
r3 r5
~ se puede escribir
Note que con esta notacion la divergencia de un vector E
como
~ E
~ = Ex + Ey + Ez = E1 + E2 + E3
x y z x1 x2 x3
3
X Ei Ei
= = = i Ei . (1.35)
i=1
xi xi
Tambien se puede probar la identidad
       
~ ~ ~ ~ ~ ~ ~ ~
f g A = g f A + f g A + f g A . (1.36)
En efecto
~ (f g A)
~ = i (f gAi ) = (i f ) gAi + f (i g) Ai + f g (i Ai )
     
~ ~ ~ ~
= g f A + f g A + f g A . ~ ~ (1.37)

1.3. Producto vectorial y el tensor de Levi-


Civita
Otra operacion importante entre vectores es el producto vectorial:

i j k
~ ~

A B = A1 A2 A3

(1.38)
B1 B2 B3

16
= (A2 B3 A3 B2 ) i + (A3 B1 A1 B3 ) j + (A1 B2 A2 B1 ) k,

es decir
 
~B
A ~ = (A2 B3 A3 B2 ), (1.39)
 1
~B
A ~ = (A3 B1 A1 B3 ), (1.40)
 2
~B
A ~ = (A1 B2 A2 B1 ). (1.41)
3
 
Note que en la componente A ~B~ no esta A1 ni B1 . De hecho, esto tam-
1  
bien ocurre para las demas componentes, es decir, en la componente A~B~
i
no esta la componente Ai ni la componente Bi .

Anteriormente vimos que el producto escalar se puede escribir en terminos


de una matriz, veamos si con el producto vectorial ocurre lo mismo. Conside-
remos la matriz antisimetrica
 
0 1
ij = . (1.42)
1 0

Con esta matriz, las igualdades Eqs. (1.39)-(1.41) se pueden escribir como
  

~ ~
  0 1 B2
AB = A2 A3
1 1 0 B3
= ab Aa Bb , a, b = 2, 3, (1.43)
  

~B ~
  0 1 B3
A = A3 A1
2 1 0 B1
= cd Ac Bd , c, d = 3, 1, (1.44)
  

~B ~
  0 1 B1
A = A1 A2
3 1 0 B2
= ef Ae Bf , e, f = 1, 2. (1.45)

Note que la matriz Eq. (1.42) esta en dos dimensiones, mientras que el espacio
es tridimensional. As es mas conveniente ocupar una generalizacion de Eq.
(1.42) en tres dimensiones, la cual denotaremos con

ijk , i, j, k = 1, 2, 3. (1.46)

En principio, para reproducir el productor vectorial basta que ijk sea anti-
simetrico en las dos ultimas entradas. Sin embargo, como en A ~B ~ no
i

17
esta Ai ni Bi , pediremos que ijk sea antisimetrico tambien en las dos primeras
entradas. Es decir, pediremos las propiedades
ijk = ikj , ijk = jik , 123 = 1. (1.47)
Note que esto implica que, para cualquier i y k, se cumpla
iik = iik = 0, (1.48)
de donde
iki = kii = 0. (1.49)
Es decir, las componentes de ijk con dos ndices repetidos tienen valor cero. Por
lo tanto, las componentes de ijk no nulas tienen todos los ndices diferentes.
Ocupando las propiedades de ijk Eq. (1.47) se puede ver que
123 = 1, (1.50)
132 = 123 = 1, (1.51)
213 = 123 = 1, (1.52)
231 = 213 = 1, (1.53)
312 = 132 = 1, (1.54)
321 = 312 = 1. (1.55)
Claramente, todos estos valores se obtienen de permutar los ndices de 123 .
Al smbolo Eq. (1.46) se le llama tensor de Levi-Civita. Ahora veremos que
este tensor es util para expresar el producto vectorial. Definamos
  3 X
X 3
~B
A ~ = ijk Aj Bk = ijk Aj Bk . (1.56)
i
j=1 k=1

Veamos que esta igualdad es correcta, para la primera componente tenemos


  3 X
X 3 3
X
~B
A ~ = 1jk Aj Bk = (11k A1 Bk + 12k A2 Bk + 13k A3 Bk )
1
j=1 k=1 k=1
3
X
= (12k A2 Bk + 13k A3 Bk ) (1.57)
k=1
= 121 A2 B1 + 122 A2 B2 + 123 A2 B3 (1.58)
+131 A3 B1 + 132 A3 B2 + 133 A3 B3 (1.59)
= 123 A2 B3 + 132 A3 B2 (1.60)
= A2 B3 A3 B2 . (1.61)

18
Este calculo es mas facil si se ocupan las propiedades de ijk . En efecto, si se
tiene 1jk , los unicos valores que puede tomar j son 2 o 3 y k solo puede tomar
los valores 3 o 2. Por lo que,
  X 3 X3
A~B ~ = 1jk Aj Bk = 123 A2 B3 + 132 A3 B2
1
j=1 k=1
= A2 B3 A3 B2 . (1.62)
Para las demas componentes tenemos
  X3 X 3
~
AB ~ = 2jk Aj Bk = 213 A1 B3 + 231 A3 B1
2
j=1 k=1
= A3 B1 A1 B3 , (1.63)
  X3 X 3
~B
A ~ = 3jk Aj Bk = 312 A1 B2 + 321 A2 B1
3
j=1 k=1
= A1 B2 A2 B1 . (1.64)
Como podemos ver, la definicion de producto vectorial Eq. (1.56) coincide con
Eq. (1.38).

Con el smbolo ijk es mas economico escribir un producto vectorial. Por


ejemplo el momento angular se puede escribir como
Li = (~r p~)i = ijk rj pk . (1.65)
Mientras que el rotacional se puede escribir como
 
~ ~
A = ijk j Ak . (1.66)
i
 
Ademas el momento angular cuantico, L ~ , se escribe
~ = i~ ~r

Li = i~ijk rj k . (1.67)
El tensor de Levi-Civita no es solo otra forma de expresar el producto vectorial,
tambien es util para simplificar los calculos.

1.4. El tensor de Levi-Civita y las matrices


Vimos que con el tensor de Levi-Civita se puede expresar el producto vecto-
rial de forma sencilla. Este tensor tambien se puede relacionar con las matrices.
Se tienen resultados particularmente interesantes con matrices antisimetricas
y simetricas.

19
1.4.1. El tensor de Levi-Civita y las matrices antisimetri-
cas
Cualquier matriz antimetrica de 3 3 se puede escribir como

0 B3 B2
Mij = B3 0 B1 . (1.68)
B2 B1 0

Con las componentes no nulas de esta matriz se puede formar el vector B ~ =


(B1 , B2 , B3 ). Note que si hacemos la contraccion de ijk con Bi se tiene ijk Bk
que es un objeto con dos ndices libres, es decir es una matriz. Considerando
las propiedades Eq. (1.47) se tiene

0 123 B3 132 B2 0 B3 B2
ijk Bk = 213 B3 0 231 B1 = B3 0 B1 = Mij .
312 B2 321 B1 0 B2 B1 0

Por lo tanto, cualquier matriz antisimetrica M de 3 3 se puede poner en


termino del tensor de Levi-Civita y un vector B:

Mij = ijk Bk . (1.69)

1.4.2. El tensor de Levi-Civita y las matrices simetricas


Hasta aqu hemos ocupado ijk con vectores. Pero tambien lo podemos
emplear con matrices de 3 3. En efecto, dada la matriz Mij podemos definir
3 X
X 3
Vi = ijk Mjk = ijk Mjk . (1.70)
j=1 k=1

Para evitar confusiones notemos que la contraccion de los ndices de ijk se


puede escribir de diferentes forma. Por ejemplo,
3 X
X 3 3 X
X 3
Vi = ijk Mjk = ikj Mkj . (1.71)
j=1 k=1 k=1 j=1

Esta igualdad no se obtiene por un intercambio de ndices en ijk . Se obtiene


por renombrar al mismo tiempo los dos ultimos ndices de rst y los dos ndices
de Mab . Con la convecion de Einstein esta igualdad se escribe como

Vi = ijk Mjk = ikj Mkj . (1.72)

20
Un resultado de este hecho trivial es que si Mij es una matriz simetrica entonces
la contraccion con ijk es cero, es decir,
Mij = Mji = ijk Mjk = 0. (1.73)
Esto se debe a que
ijk Mjk = ikj Mjk = ikj Mkj = ijk Mjk . (1.74)
En la primera igualdad, se empleo que ijk es antisimetrico, en la segun-
da que Mjk es simetrica, en la tercera la igualdad Eq. (1.72). Por lo tanto,
ijk Mjk = ijk Mjk y se cumple Eq. (1.73).

Por ejemplo, con cualquier vector Ai se puede forma la matriz Mij = Ai Aj .


Esta matriz es simetrica, pues

A1 A1 A1 A2 A1 A3 A1 A1 A2 A1 A3 A1
Mij = A2 A1 A2 A2 A2 A3 = A1 A2 A2 A2 A3 A2 . (1.75)
A3 A1 A3 A2 A3 A3 A1 A3 A2 A3 A3 A3
Esto implica que
~A
A ~ = 0. (1.76)
En efecto, ocupando la definicion de producto vectorial y que la matriz
Mij = Ai Aj
es simetrica se cumple
~ A)
0 = ijk Aj Ak = (A ~ i. (1.77)
Otra matriz simetrica esta dada por Mij = i j . Esto implica que
 
~
~ = 0. (1.78)
Pues,
 
~ )
( ~ i = ijk j
~ = ijk j k = 0. (1.79)
k
Tambien se puede mostrar la identidad
~ (
~ A)
~ = 0. (1.80)
En efecto, como Mij = i j es simetrica se llega a
 
~ ~ ~ ~ ~
( A) = i A = i (ijk j Ak ) = ijk i j Ak
i
= kij i j Ak = 0. (1.81)
Esta identidad tiene implicaciones en las ecuaciones de Maxwell.

21
1.4.3. Conservacion de carga
Un hecho experimental bien conocido es que la carga electrica se conserva.
Veamos si las ecuaciones de Maxwell son compatibles con este resultado. Para
esto ocuparemos la ley de Gauss Eq. (1.1) y la ley de Ampere Eq. (1.4). De la
ley de Gauss obtenemos

1 ~ E~
= (1.82)
t 4 t
y ocupando la ley de Ampere se tiene
~

~ ~ ~

= BJ . (1.83)
t
~ (
Ahora, considerando Eq. (1.80) tenemos que ~ B)
~ = 0, de donde

~ ~
+ J = 0, (1.84)
t
que es la llamada ecuacion de continuidad. Integrando sobre un volumen V la
expresion Eq. (1.84) y ocupando el teorema de Gauss Eq. (1.6) se encuentra
Z  Z Z Z
dQT d ~ J~ =
= dV = dV = dV daJ~ n. (1.85)
dt dt t V

Si el volumen de integracion es suficientemente grande, de tal forma que en su


frontera no haya corriente, el ultimo termino de Eq. (1.85) es cero y se obtiene

dQT
= 0, (1.86)
dt
es decir, la carga total se conserva en el tiempo.

1.5. Triple producto escalar


Algunas identidades vectoriales son faciles de demostrar con la convencion
de Einstein y el smbolo de Levi-Civita. Por ejemplo el triple producto escalar
     
~ ~ ~ ~ ~
A BC =C AB =B C A , ~ ~ ~ ~ (1.87)

22
que se demuestra simplemente de la forma
   
~ ~
A BC ~ ~ ~
= Ai B C = Ai ijk Bj Ck = Ck (kij Ai Bj )
 i  
~
= Ck A B = C~ ~ A ~B ~ ,
   k
~ B
A ~ C~ = Ai B ~ C ~ = Ai ijk Bj Ck = Bj jik Ai Ck
i
   
= Bj jki Ck Ai = Bj C~ A~ =B ~ C~ A ~ . (1.88)
j

Por lo tanto, se cumple Eq. (1.87). Note que ocupando la regla del triple
~A
producto escalar y la igualdad A ~ = 0, se encuentra
   
A~ A ~C ~ =C~ A ~A ~ = 0. (1.89)

Si en lugar del vector constante C ~ se tiene el operador , ~ la identidad del


triple producto escalar ya no es valido. En este caso se cumple la identidad
     
~ A
~ B ~ = ~ A ~B ~ + ~ B ~ A.
~ (1.90)

En efecto,
   
~ ~ ~ ~ ~
A B = A Bi = (ijk j Ak ) Bi = ijk (j Ak ) Bi
i
= ijk [j (Ak Bi ) Ak j Bi ] = j (jki Ak Bi ) + (kji j Bi ) Ak
   
~ A
= ~B ~ + ~ B ~ A.~ (1.91)

Otra identidad que se puede mostrar ocupando solo las propiedades del tensor
de Levi-Civita es
 
~
A ~ = ~ A ~ +
~ A.~ (1.92)

Pues
    
~ A
~ = ijk j A~ = ijk j (Ak ) = ijk (j ) Ak + ijk j Ak
i
 k  
= ~ A ~ + ~ A ~ . (1.93)
i i

En la proxima seccion veremos implicaciones de estas propiedades vectoriales.

1.6. Aplicaciones del triple producto escalar


Las identidades de la seccion anterior tienen consecuencias importantes
para las ecuaciones de Maxwell, veamos cuales son.

23
1.6.1. Energa cinetica
Ocupando Eq. (1.89) en la fuerza de Lorentz se encuentra

~ + q ~v B
 
F~ ~v = q E ~ ~v = q E
~ ~v , (1.94)
c
este resultado nos indica que el campo magnetico no hace trabajo.

Ahora, recordemos que la derivada temporal de la energa cinetica es


d  m 2 d~v
Ecin = ~v = m ~v = m~a ~v = F~ ~v . (1.95)
dt 2 dt
Para el caso particular de la fuerza de Lorentz se tiene
 
~ ~ ~v ~ ~ ~v .
Ecin = F ~v = q E + B ~v = q E (1.96)
c
Ademas, suponiendo que no tenemos una carga si no una distribucion de cargas
en un volumen V , como dq = d3 x,
~ ~v = E
dq E ~ (~v )dx3 = E
~ Jdx
~ 3. (1.97)

Por lo tanto
Z
Ecin = ~ Jdx
E ~ 3. (1.98)
V

Para este razonamiento solo hemos ocupado la fuerza de Lorentz. Posterior-


mente veremos lo que dicen las ecuaciones de Maxwell respecto a la energa.

1.6.2. Conservacion de la energa


Veamos que implicaciones tiene Eq. (1.91) en las ecuaciones de Maxwell.

Para esto consideremos la ley de Faraday Eq. (1.2) y de Ampere Eq. (1.4).
Haciendo el producto escalar de B~ con la ley de Faraday encontramos que

~ ~2
~ = 1 B B
~ = 1 B .
 
~ E
~ B (1.99)
c t 2c t
~ con la ley de Ampere se llega a
Si hacemos el producto escalar de E
~ ~2
~ + 1 E E
~ = 4 J~ E ~ = 4 J~ E
~ + 1 E .
 
~ ~
B E (1.100)
c c t c 2c t
24
Restando estas dos ecuaciones y ocupando la identidad Eq. (1.91) se obtiene

1  ~ 2 ~ 2 ~ + c ( ~ c (
E +B = J~ E ~ E
~ B) ~ B
~ E) ~
8 t 4 4
~ c
 
= J~ E ~ E~ B~ . (1.101)
4
Al vector
~ c ~ ~

S= EB (1.102)
4
se le llama vector de Poynting. Ahora, integrando Eq. (1.101) sobre un volumen
V y ocupando la teorema de Gauss Eq. (1.6) se encuentra
Z I
d 3 ~ ~ ~ nda,
(Eem + Ecin ) = d x S = S (1.103)
dt V V

donde
Z
1 
~2 + B

~2 .
Eem = d3 x E (1.104)
8 V

Como podemos ver, ademas de la energa cinetica, las ecuaciones de Max-


well nos dicen que hay otra energa. Esta nueva energa se debe a los campos
electricos y magneticos dada por Eem , a esta energa se le llama energa elec-
tromagnetica. El termino I
S~ nda
V
se interpreta como flujo de energa. Si el volumen es suficientemente grande de
tal forma que no haya flujo de energa en su frontera, Eq. (1.103) implica

ET = Eem + Ecin = constante, (1.105)

es decir, la energa total se conserva.

1.7. Contraccion de dos tensores de Levi-Civita


El tensor ij es simetrico mientras que ijk es totalmente antisimetrico. Sin
embargo estos dos tensores estan relacionados. Primero notemos que en dos
dimensiones se cumple
    
0 1 0 1 1 0
ik kj = = = ij . (1.106)
1 0 1 0 0 1

25
En tres dimensiones se cumple la identidad
3
X
ijk klm = ijk klm = il jm im jl . (1.107)
k=1

Para mostrar esto definamos el smbolo

Mijlm = il jm im jl . (1.108)

Debido a que ab es un tensor simetrico, se cumple

Mijlm = Mjilm = Mijml , (1.109)

en efecto

Mjilm = jl im jm il = (il jm im jl ) = Mijlm , (1.110)


Mijml = im jl il jm = (il jm im jl ) = Mijlm . (1.111)

En particular se tiene Miilm = Mijmm = 0. Tambien se puede observar que


ijk klm es antisimetrico si hacemos una permutacion en (ij) o (lm), es decir

ijk klm = jik klm = ijk kml . (1.112)

Las igualdades Eqs. (1.109)-(1.112) nos indican que si Eq. (1.107) se cumple
para una cuarteta ordenada (ijml), tambien se cumple para las cuartetas or-
denadas (jilm), (ijml).

Note si i = j, Eq. (1.107) toma la forma 0 = 0. As, los valores que falta por
probar son i 6= j. De la definicion Eq. (1.108) es claro que Mijlm es diferente
de cero solo si i = l, j = m o i = m, j = l, que son las cuartetas ordenadas
(ijij) y (ijji). Esta propiedad tambien la tiene la cantidad ijk klm . En efecto,
recordemos que los ndices i, j, k, l, m solo pueden tomar los valores (1, 2, 3),
ademas en la suma ijk klm los unicos terminos que contribuyen son tales que
i 6= j, i 6= k, j 6= k y k 6= l, k 6= m, l 6= m. Estas condiciones implican que
i = m, l = j o i = l, j = m. Es decir las unica cuartetas ordenadas que dan
resultados no nulos en ijk klm son (ijij) y (ijji).

Como probar Eq. (1.107) para el caso (ijij) es equivalente a probarla para
el caso (ijji), solo probaremos los caso (ijij) = (1212), (1313), (2323).

Si (ijij) = (1212), se tiene

12k k12 = 123 312 = 1, M1212 = 11 22 12 21 = 1. (1.113)

26
Por lo tanto, Eq. (1.107) se cumple.

Si (ijij) = (1313), se encuentra

13k k13 = 132 213 = 1, M1313 = 11 33 13 23 = 1. (1.114)

Por lo tanto, Eq. (1.107) se cumple.

Si (ijij) = (2323), se llega a

23k k23 = 231 123 = 1, M2323 = 22 33 23 32 = 1. (1.115)

Por lo tanto, Eq. (1.107) se cumple.

En conclusion la igualdad Eq. (1.107) es valida para cualquier ijlm. Una


implicacion de Eq. (1.107) es

ilm mjs + sim mjl = ijm mls . (1.116)

En efecto ocupando Eq. (1.107) se tiene

ilm mjs + sim mjl = (ij ls is lj ) + (sj il sl ij )


= il sj is lj = ijm mls . (1.117)

En la proxima seccion veremos la importancia de la igualdad Eq. (1.107).

1.8. Triple producto vectorial I


Ocupando Eq. (1.107), se puede probar el llamado triple producto vectorial

~ (B
A ~ C)
~ = B(
~ A~ C)
~ C(
~ A~ B),
~ (1.118)

pues
h i  
~ ~ ~
A (B C) = ijk Aj ~ C
B ~ = ijk Aj (klm Bl Cm )
i k
= ijk klm Aj Bl Cm = (il jm im jl ) Aj Bl Cm
= (Am Cm )Bi Ci (Al Bl )
= (A~ C)B
~ i (A ~ B)C
~ i. (1.119)

27
~ la identidad Eq.
Si en lugar de un vector constante se tiene el operador ,
~ ~
(1.118) ya no es validad. Por ejemplo, si en lugar de B C se considera ~ A,
~
ahora se cumple
 
h
~ ~ ~
i 1 2 ~ A)A
~ i.
( A) A = j Ai Aj ij A ( (1.120)
i 2
En efecto,
h i
~ ~ ~
( A) A ~ A)
= ijk ( ~ j Ak = ijk (jlm l Am )Ak
i
= ikj jlm (l Am )Ak
= (il km im kl ) (l Am )Ak
= Al l Ai Am i Am
1
= l (Ai Al ) Ai l Al i (Am Am )
  2
1 ~ A.
~
= l Ai Al il A2 Ai (1.121)
2
Con esta identidad posteriormente veremos que se conserva el momento.

1.9. Conservacion del momento


Para estudiar la conservacion del momento veamos de nuevo la fuerza de
Lorentz, la cual se puede escribir como
dP~cin
 
~
v
= m~a = F~ = q E~ + B~ . (1.122)
dt c
Si tenemos una distribucion de carga, un elemento de carga esta dado por
dq = d3 x y el elemento de fuerza es
 
~
v
dF~ = E ~+ B~ d3 x = Fd
~ 3 x, (1.123)
c
con
~
~ = E
F ~ + J B ~ (1.124)
c
la densidad de fuerza mecanica. As, la fuerza total mecanica es
!
dP~cin ~
Z
J
= F~ = E~ + B ~ d3 x. (1.125)
dt V c

28
En este resultado solo se ocupo la fuerza de Lorentz. Veamos que dicen las
ecuaciones de Maxwell.

Si hacemos el producto vectorial de E~ con la ley de Faraday Eq. (1.2) se


tiene
!
  1 ~
B
~ E
~ E ~ = ~
E. (1.126)
c t
~ con la ley de Ampere Eq. (1.4) encon-
Si hacemos el producto vectorial de B
tramos
!
  4 1 ~
E
~ B
~ B ~ = J~ + ~
B (1.127)
c c t
4 ~ ~ 1 E ~
= J B+ ~
B. (1.128)
c c t
Sumando estas dos ecuaciones y considerando
 
~
EB ~ ~ ~
E ~ +E ~ B ,
= B (1.129)
t t t
se llega a
!
    4 1 ~
E ~
B
~ E
~ E ~+ ~ B ~ B ~ = J~ B
~+ B ~ E~
c c t t
!
4 ~ ~ 1 E ~ ~
B
= J B+ B ~ +E ~
c c t t
 
~ ~
4 ~ ~ 1 E B
= J B+ . (1.130)
c c t
Ademas, tomando en cuenta Eq. (1.120), la ley de Gauss Eq. (1.1) y la ley de
inexistencia de monopolos magneticos Eq. (1.3), se tiene
 

~ E

~ E ~
 1 2 ~ E)E
~ i
= j Ei Ej ij E ( (1.131)
i 2
 
1 2
= j Ei Ej ij E 4Ei , (1.132)
2
 

~ ~

~
 1 2 ~ B)B
~ i
B B = j Bi Bj ij B ( (1.133)
i 2
 
1 2
= j Bi Bj ij B . (1.134)
2

29
Introduciendo estos resultados en Eq. (1.130) se llega a
 
ij 2 2

j Ei Ej + Bi Bj E +B
2
 
~ 1~ ~ 1 ~ ~
= 4 E + J B + EB . (1.135)
c 4c t i

Antes de continuar definamos la densidad de momento electromagnetico como

~ = 1 E
P ~ = 1S
~ B ~ (1.136)
4c c2
y el tensor de esfuerzos de Maxwell como
 
1 ij 2 2

ij = Ei Ej + Bi Bj E +B . (1.137)
4 2

Entonces, la igualdad Eq. (1.135) toma la forma

Pi
+ Fi = j ji . (1.138)
t
Integrando esta ecuacion sobre un volumen V se tiene
Z   Z  Z Z
3 Pi d 3 3
dx + Fi = dx Pi + dx Fi = dx3 j ji
V t dt V V V
I
= ij nj da. (1.139)
V

Definiremos el momento electromagnetico como


Z
~ 1 ~ B,
~
Pem = dx3 E (1.140)
4c V

entonces, considerando Eq. (1.125) se encuentra que


I
d ~ 
Pem + P~cin = ij nj da (1.141)
dt i V

Como podemos ver, ademas del momento cinetico, las ecuaciones de Maxwell
implican el momento electromagnetico P~em que solo depende de los campos.
Tambien podemos ver que I
ij nj da
V

30
es un termino de fuerza y ij nj es una presion. De hecho, si definimos
I
P~T = P~cin + P~em , Fi = ij nj da (1.142)
V

se tiene la segunda ley de Newton

dP~T
= F~ . (1.143)
dt
Ahora, si el volumen de integracion es suficientemente grande de tal forma que
el termino de la derecha sea nulo, la ecuacion Eq. (1.141) implica

(Pcin + Pem )i = constante (1.144)

que significa que el momento total se conserva.

1.9.1. Conservacion del momento angular


Tomando en cuenta la ecuacion Eq. (1.138) se encuentra

Pk
ijk xj + ijk xj Fi = ijk xj l lk . (1.145)
t
Considerando que t xj = 0 y que lk es simetrico se llega a


~

(ijk xj Pk ) + ~x F = ijk (l (xj lk ) lk l xj )
t i
= ijk (l (xj lk ) lk lj )
= l (ijk xj lk ) ijk jk
= l (ijk xj lk ) . (1.146)

Definamos el momento angular electromagnetico como


Z
~
Lem = ~
dx3~x P. (1.147)
V

Ademas, note que, como F ~ es una densidad de fuerza, ~x F


~ es una densidad
de torca. Por lo que, la torca, que es la deriva temporal del momento angular
cinetico, es
~ cin
dL
Z
= ~
dx3~x F. (1.148)
dt V

31
As, integrando Eq. (1.146) sobre un volumen V y ocupando el teorema de
Gauss, se tiene
I
d ~ ~

Lem + Lcin = (ijk xj lk )nl da. (1.149)
dt i V

Si V es suficientemente grande de tal forma que no haya campo electromagneti-


co en su frontera se tiene
d ~ 
~ cin = 0.
Lem + L (1.150)
dt i

Es decir, el momento angular total se conserva.

1.10. Triple producto vectorial II


Hay otra versiones del triple producto escalar, una de ellas es la identidad
   
~ ~ ~ ~ ~ ~
A = A 2 A. ~ (1.151)

Esta propiedad se demuestra de la siguiente forma


h  i  
~
A ~ ~ ~ ~
= ijk j A = ijk j (klm l Am ) = ijk klm j l Am
i k
= (il jm im jl ) j l Am = i (j Aj ) j j Ai
 
= i ~ A
~ 2 Ai . (1.152)

Con esta identidas porteriomente mostraremos que de las ecuaciones de Max-


well se puede obtener la ecuacion de onda.

Otro tipo de triple producto escalar es


     
~ A
~B ~ =B ~
~A~+A ~ ~ B
~ A ~ B
~ B
~ ~ A
~ . (1.153)

Que se demuestra de la siguiente forma


    
~ A
~B ~ = ijk j A ~B ~ = ijk j klm (Al Bm )
i k
= ijk klm j (Al Bm )
= (il jm im jl ) (Bm j Al + Al j Bm )
= il jm Bm j Al + il jm Al j Bm
(im jl Bm j Al + im jl Al j Bm )
= Bj j Ai + Ai j Bj Bi j Aj Aj j Bi
       
= ~ ~ ~ ~ ~ ~
B A+A B A BB A ~ ~ ~ ~ ~ ~ ,
i

32
que es la prueba de Eq. (1.153).

1.10.1. Ecuacion de onda


Con la identidad Eq. (1.152) se puede probar que las ecuaciones de Maxwell
implican la ecuacion de onda. Por simplicidad veremos solo el caso donde no
hay fuentes, por lo que las ecuaciones de Maxwell toman la forma
~ E
~ = 0, (1.154)
~
~ E
~ = 1 B , (1.155)
c t
~ B
~ = 0, (1.156)
~
~ B
~ = 1 E . (1.157)
c t
De la ley de Faraday Eq. (1.155) se obtiene
~ ~
~ (
~ E)~ = 1 ( B) , (1.158)
c t
ocupando la ley de Ampere sin fuentes Eq. (1.157) y la identidad Eq. (1.152)
se llega a
1 2 ~
 
2
2 2 E = 0. (1.159)
c t
Analogamente, aplicando el operador rotacional a la ley de Ampere Eq. (1.157)
sin fuentes y ocupando la ley de Faraday Eq. (1.155) se obtiene
1 2 ~
 
2
2 2 B = 0. (1.160)
c t
Por lo tanto, en el vaco los campos electrico y magnetico satisfacen la ecuacion
de onda.

1.11. Libertad de norma


Recordemos dos teoremas de calculo vectorial, el teorema de la divergencia
y teorema del rotacional. El teorema de la divergencia nos dice que si ~a es un
campo vectorial tal que
~ ~a = 0
= ~b tal que ~ ~b,
~a = (1.161)

33
donde ~b es un campo vectorial. Mientras que el teorema del rotacional establece
que si f~ es un campo vectorial tal que
~ ~c = 0
= h tal que ~
~c = h, (1.162)

donde h es un campo escalar.

De la ley de inexistencia de monopolos magneticos Eq. (1.3) y del teorema


~ tal que
de la divergencia Eq. (1.161) se infiere que existe un campo vectorial A
~ =
B ~ A.
~ (1.163)

Sustituyendo este resultado en la ley de Faraday Eq. (1.2) obtenemos que


!
1 ~
A
~ E
~+ = 0. (1.164)
c t

Ahora, por el teorema del rotacional Eq. (1.162) se concluye que existe un
campo escalar tal que
~
~ + 1 A = .
E ~ (1.165)
c t
Por lo tanto podemos decir que la inexistencia de monopolos magneticos y la
ley de Faraday implican que existen los campos A~ y tal que
!
1 ~
A
B~ =~ A,
~ ~ =
E ~ + . (1.166)
c t

Este es un resultado importante. Note que dados los campos E, ~ B~ los campos
~ y no son unicos. En efecto, sea = (~x, t) un campo escalar arbitrario y
A
definamos

~0 = A
~ + ,
~ 1
A 0 = . (1.167)
c t
Entonces Eq. (1.166) implica
~ 0 = B,
B ~ ~ 0 = E,
E ~ (1.168)

es decir los campos electrico y magnetico no cambian bajo las transformaciones


Eq. (1.167). Debido a que depende del espacio y del tiempo, se dice que las
transformaciones Eq. (1.167) son locales y se les suele llamar transformaciones

34
de norma.

Ahora, definamos U = ei , entonces Eq. (1.167) se puede escribir como


 
~ 0

1 ~ ~

0 1 1
A =U A + i U, =U i U. (1.169)
c t
Esto es interesantes pues el conjunto de todas las funciones
U = ei , (1.170)
forman un crculo de tamano unitario y cumple las propiedades algebraica del
grupo llamado U (1) [16]. Por lo que, se dice que el grupo de norma de la elec-
trodinamica es U (1).

El resto de las ecuaciones de Maxwell, la ley de Gauss Eq. (1.1) y la ley


~ En efecto, si
de Ampere Eq. (1.4), nos dan la dinamica de los campos y A.
sustituimos Eq. (1.166) en Eqs. (1.1,1.4) se obtiene
~ A
1 ~
2 = 4, (1.171)
c t
2
 
~

~ A

~ = 4 1 1
J~ ~ + ~ .
A (1.172)
c c t c t2
Ocupamos la identidad Eq. (1.152) se encuentra
1 ~ A~
2 = 4, (1.173)
c t
1 2 ~ ~ ~ ~ 1
   
2 4 ~
2 2 A+ A+ = J. (1.174)
c t c t c
Debido a que los campos de norma y A ~ no son unicos, para trabajar con estos
debemos elegir un par de ellos de un numero infinito de posibilidades. Para
hacer esto se suele imponer condiciones sobre los campos de norma, una de las
condiciones mas recurridas es la norma de Lorentz que pide que se cumpla la
condicion

~ A~ + 1 = 0. (1.175)
c t
En este caso Eqs. (1.173-1.174) toman la forma
1 2
 
2
2 2 = 4, (1.176)
c t
1 2 ~
 
2 4 ~
2 2 A = J. (1.177)
c t c

35
Que son ecuaciones de onda con fuentes.

Otra condicion de norma que se puede ocupar es la llamada condicion de


Coulomb
~ A
~ = 0. (1.178)

En este caso las Eqs.(1.173)-(1.174) toman la forma

2 = 4, (1.179)
1 2 ~
 
4 1 ~
2 2 A = J~ +
2
. (1.180)
c t c c t

Un estudio mas detallado sobre las posibles condiciones de norma de la elec-


trodinamica se puede ver en [16].

1.12. Representacion compleja de las ecuacio-


nes de Maxwell
Cuando no hay fuentes, = 0 y J~ = 0, las ecuaciones de Maxwell toman
la forma
~ E
~ = 0, (1.181)
~
~ E
~ = 1 B , (1.182)
c t
~ B
~ = 0, (1.183)
~
~ B
~ = 1 E . (1.184)
c t

En este caso podemos definir el vector E~ = E


~ + iB,
~ donde i2 = 1. Por lo que
las ecuaciones de Maxwell se pueden escribir como
~
~ E~ = 0,
~ E~ = i E .
(1.185)
c t
Claramente estas ecuaciones son invariantes bajo la transformacion
 
E~ E~0 = E ~ 0 + iB
~ 0 = ei E,
~ = constante. (1.186)

36
Esta transformacion explcitamente toma la forma
 
E = E + iB = ei E~ = (E
~ 0 ~ 0 ~ 0 ~ cos B
~ sin ) + i(B
~ cos + E
~ sin ),

que se puede expresar como


~ ~0
 0    
E cos sin E
~ 0 = sin cos
B ~0
B
. (1.187)

Si hay fuentes, las ecuaciones de Maxwell no son invariantes bajo estas trans-
formaciones. Para mantener esta invariancia, en 1931 P. A. M Dirac propuso la
existencia de cargas y corrientes magneticas. En este caso se pueden proponer
la ecuaciones de Maxwell generalizadas:
~ E
~ = 4e , (1.188)
!
4 ~ ~
1 B
~ E
~ = Jm + , (1.189)
c c t
~ B
~ = 4m , (1.190)
~
~ = 4 J~e + 1 E .
~ B (1.191)
c c t

Definamos = e + im y ~J = J~e + iJ~m , entonces las ecuaciones de Maxwell


con monopolos magneticos toman la forma
!
4 1 ~
E
~ E~ = 4,
~ E~ = i ~J + . (1.192)
c c t

Estas ecuaciones de Maxwell son invariantes bajo las transformaciones

E~ ei E~ = (E
~ cos B~ sin ) + i(B~ cos + E~ sin ), (1.193)
ei = (e cos m sin ) + i(m cos + e sin ), (1.194)
~J ei~J = (J~e cos J~m sin ) + i(J~m cos + J~e sin ).(1.195)

La fuerza de Lorentz con monopolos magneticos toma la forma

F~ = qe E ~ + qe ~v B
~ + qm B ~ qm ~v E.
~ (1.196)
c c

37
1.13. Otros resultados de calculo vectorial
Antes de finalizar este captulo veamos otros resultados de calculo vectorial
que ocuparemos posteriormente.

Ahora, demostraremos los siguientes lemas.


Lema de Gauss: Si B ~ es un campo vectorial suave sobre una region de
volumen V y frontera V, se cumple
Z   I  
~ ~
B dv = ~
d~a B . (1.197)
V V

Para probar esta afirmacion ocuparemos el teorema de Gauss Eq. (1.6), el


cual es es valido para cualquier campo vectorial suave F~ . En particular, si
F~ = B
~ C,
~ el teorema de Gauss Eq. (1.6) implica
Z   I  
~ ~ ~
B C dv = B~ C ~ nda. (1.198)
V V

Ademas ocupando la identidad del triple producto escalar Eq. (1.87) se tiene
I   I  
~ ~
B C nda = ~ ~
n B Cda. (1.199)
V V

~ es un vector constante, se encuentra


Para el caso en que C
I   I  
~ ~ ~
B C nda = C ~ da.
n B (1.200)
V V

~ es constante, se cumple
Ademas, si C
   
~
BC~ ~ ~ ~
= i B C = i (ijk Bj Ck ) = Ck ijk i Bj
i
 
= Ck kij i Bj = C ~ ~ B
~ .

~ es constante
Por lo tanto, si C
Z   Z  
~ ~ ~ ~
B C dv = C ~ ~
dv B . (1.201)
V V

As, igualando Eq. (1.198) con Eq. (1.201) para el caso C~ constante se llega
Z   I  
~
C ~ ~
B dv = C ~ ~ ,
d~a B
V V

38
es decir
Z   I  
~
C ~ ~
B dv ~
d~a B = 0.
V V

~ constante, por lo tanto se debe


Esta igualdad es valida para cualquier vector C
cumplir Eq. (1.197), que es el llamado lema de Gauss.

Lema de Stokes: Si es un campo escalar que toma valores sobre una


superficie S cuya frontera es , entonces
Z   I
~
n da = d~l. (1.202)
S

~ es un vector constant, entonces


Probemos esta igualdad, supongamos que A
de (1.92) se llega a

~ (A)
~ = (
~ A).
~

Ocupando este resultado y la identidad del triple producto escalar Eq. (1.87),
se encuentra
Z    Z   Z  
~ ~
A nda = ~ ~
A nda = ~
n ~
Ada
S S Z S
 
= A ~ ~
n da. (1.203)
S

Ademas, de acuerdo al teorema de Stokes Eq. (1.7), se llega a


Z    I   I
~ ~
A nda = A dl = A d~l.
~ ~ ~ (1.204)
S

Por lo tanto, igualando Eq. (1.203) con Eq. (1.204) se tiene


Z   I
~
A ~
n ~ d~l.
da = A
S

Como A ~ es un vector arbitrario constante, se cumple el lema de Stokes Eq.


(1.202).

39
Captulo 2

Operadores en Coordenadas
Curvilneas

En este captulo veremos la expresion de los operadores gradiente, Lapla-


ciano y rotacional en terminos de coordenadas curvilneas. Primero recorda-
remos algunos resultados de calculo vectorial en coordenadas cartesianas y
despues veremos el caso general en coordenadas curvilneas.

2.1. Interpretacion geometrica de operaciones


vectoriales
Supongamos que tenemos los vectores A ~ yB
~ con magnitudes A y B. Re-
cordemos que cualquiera dos vectores los podemos poner en un plano, por lo
que, sin perdida de generalidad, podemos tomar A ~ = A(cos 1 , sin 1 ), B
~ =
B(cos 2 , sin 2 ). Entonces,

~B
A ~ = AB(cos 1 cos 2 + sin 1 sin 2 ) = AB cos(1 2 ).

~ y B,
Es decir, como = 1 2 es el angulo entre los vectores A ~ se tiene

~B
A ~ = AB cos . (2.1)

Tambien recordemos que dados los vectores A ~ y B,


~ siempre se puede construir
un paralelogramo. El area de un paralelogramos es simplemente el producto
de la base por la altura h, en este caso es [17]

a = hA = AB sin .

40
AxB
B

Ley del paralelogramo

Esta cantidad se puede relacionar con A ~ B.


~ Primero notemos que ocupando
el triple producto escalar Eq. (1.87), el triple producto vectorial Eq. (1.118) y
el producto escalar Eq. (2.1), se encuentra
 2       
~B
A ~ = A ~B ~ A ~B ~ =B ~ A ~B ~ A ~
  
= B ~ A ~ A ~B ~
   
~ ~ ~
= B A A B A B 2~

 2
2 2
= A B AB ~

= A2 B 2 A2 B 2 cos2
= A2 B 2 sin2 = a2 .
~yB
Entonces, el area del paralelogramo que forman A ~ esta dada por

~ B|.
a = AB sin = |A ~

~B
Por esta razon a A ~ se le suele llamar vector area. Note que este vector es
normal al paralelogramo.

41
Otro resultado que es conveniente tener presente es que si tenemos tres
~ B,
vectores A, ~ C ~ con ellos podemos formar un paraleleppedo. El volumen de
un paraleleppedo esta dado por el producto de la altura con el area de su base
[17]

V = ha.

Donde h = C cos , con el angulo que hace C~ con la normal de la base del
~ B.
paraleleppedo, es decir con A ~ Ademas, a = |A
~ B|,
~ de donde
 
V = C cos |A~ B|
~ = C
~ A~B ~ .

2.2. Operadores en coordenadas cartesianas


Un vector tridimensional ~r = (x, y, z) se puede escribir en diferentes coor-
denadas. En la base Euclidiana tenemos

~r = xi + y j + z k, (2.2)

con

i = (1, 0, 0), j = (0, 1, 0), k = (0, 0, 1). (2.3)

Para estos vectores el producto escalar es

i i = j j = k k = 1,
i j = k i = j k = 0.

Otro vector que se puede construir es

d~r = dxi + dy j + dz k, (2.4)

que nos da el elemento de lnea

ds2 = d~r d~r = dx2 + dy 2 + dz 2 . (2.5)

Note que la energa cinetica esta dada por


 2
m ds m d~r d~r m 2
x + y 2 + z 2 .

T = = =
2 dt 2 dt dt 2
En esta base se tiene los productos vectoriales

i j = k, k i = j, j k = i.

42
As, se pueden plantear los elementos de area
 
d~axy = d~rx d~ry = dxi dy j = dxdy k,
 
d~ayz = d~ry d~rz = dy j dz k = dydz i,
 
d~azx = d~rz d~rx = dz k dxi = dzdxj,

que forman el vector

d~a = dydz i + dzdxj + dxdy k. (2.6)

Mientras que el elemento de volumen se plantea como

dV = d~rz (d~rx d~ry ) = dxdydz. (2.7)

En este caso el operador gradiente es

~ = i + j + k.
(2.8)
x y z
Por lo que un elemento de se puede escribir como
~ d~r.
d = dx + dy + dz = (2.9)
x y z
Ademas, la divergencia es

~ = Ax + Ay + Az ,
~ A (2.10)
x y z
~ =
tomando el caso A ~ se obtiene el Laplaciano:
2 2 2
~ = 2 = + + .
~ (2.11)
x2 y 2 z 2
Mientras que el rotacional es
     
~ ~ Az Ay Ax Az Ay Ax
A= i + j + k. (2.12)
y z z x x y

Estos resultados los ocuparemos para construir la version del gradiente, diver-
gencia, Laplaciano y rotacional en coordenadas curvilneas.

43
2.2.1. Coordenadas esfericas
Antes de estudiar las coordenadas curvilneas en general veremos dos casos
particulares.

Primero veamos las coordenadas esfericas:


x = r cos sin , y = r sin sin , z = r cos , (2.13)
es decir
~r = r(cos sin , sin sin , cos )
= r(cos sin i + sin sin j + cos k). (2.14)
As,
d~r = er dr + re d + r sin e d, (2.15)
con
er = (cos sin , sin sin , cos )
= cos sin i + sin sin j + cos k, (2.16)
er
e = = (cos cos , sin cos , sin ),

= cos cos i + sin cos j + sin k, (2.17)
1 er
e = = ( sin , cos )
sin
= sin i + cos j. (2.18)
Los vectores er , e , e cumplen
er er = e e = e e = 1, (2.19)
er e = er e = e e = 0, (2.20)
por lo que forman una base ortonormal.

Esto implica que el elemento de lnea toma la forma


ds2 = d~r d~r = dr2 + r2 d2 + r2 sin2 d2
= dr2 + r2 d2 + sin2 d2 ,

(2.21)
mientras que la energa cinetica es
 2
m ds m 2  
T = = r + r2 2 + sin2 2 . (2.22)
2 dt 2

44
Con el producto vectorial se tiene

er e = e , e er = e , e e = er . (2.23)

Por lo que los elementos de area son

d~ar = d~rr d~r = (er dr re d) = rdrde , (2.24)


d~ar = d~r d~rr = (r sin e d er dr) = r sin drde , (2.25)
d~a = d~r d~r = (re d r sin e d) = r2 sin dder , (2.26)

que forman el vector

d~a = r2 sin dder + r sin drde + rdrde . (2.27)

Para este caso el elemento de volumen es

dV = d~rr (d~r d~r ) = r2 sin drdd = r2 drd, d = sin dd, (2.28)

a d se le llama elemento de angulo solido.

Ademas ocupando Eqs. (2.16)-(2.18) se encuentra

i = cos sin er + cos cos e sin e , (2.29)


j = sin sin er + sin cos e + cos e , (2.30)
k = cos er sin e . (2.31)

2.2.2. Coordenadas cilndricas


Ahora veamos la transformacion de coordenadas cilndricas

x = cos , y = sin , z = z, (2.32)

es decir,

~r = ( cos , sin , z)
= cos i + sin j + z k. (2.33)

De donde,

d~r = e d + e d + ez dz, (2.34)

45
con

e = (cos , sin , 0) = cos i + sin j, (2.35)


e
e = = ( sin , cos , 0) = sin i + cos k, (2.36)

ez = (0, 0, 1) = k. (2.37)

Estos vectores son ortonormales, pues cumplen

e e = e e = ez ez = 1, (2.38)
e e = e ez = e ez = 0, (2.39)

que implica

ds2 = d~r d~r = d2 + 2 d2 + dz 2 . (2.40)

As, la energa cinetica toma la forma


 2
m ds m 2
+ 2 2 + z 2 .

T = = (2.41)
2 dt 2

Con el producto vectorial tenemos

e ez = e , e e = ez , ez e = e . (2.42)

Por lo que los elementos de area son

d~a = d~r d~r = ddez ,


d~az = d~rz d~r = dzde ,
d~az = d~r d~rz = ddze ,

que definen el vector elemento area

d~a = ddze + dzde + ddez . (2.43)

Mientras que el elemento de volumen esta dado por

dV = d~rz (d~r d~r ) = dddz. (2.44)

46
2.3. Coordenadas curvilneas ortogonales
Ya hemos practicado suficiente, ahora veamos el caso general. Supongamos
que tenemos el cambio de coordenadas

x = f1 (u1 , u2 , u3 ) , y = f2 (u1 , u2 , u3 ) , z = f3 (u1 , u2 , u3 ) , (2.45)

es decir

~r = (f1 (u1 , u2 , u3 ) , f2 (u1 , u2 , u3 ) , f3 (u1 , u2 , u3 )) . (2.46)

De donde,

d~r = h1 e1 du1 + h2 e2 du2 + h2 e3 du3 , (2.47)

con
1 ~r 1 ~r 1 ~r
e1 = 1
, e2 = 2
, e3 = , (2.48)
h1 u h2 u h3 u3
~r ~r ~r
h1 = 1 , h2 = 2 , h3 = 3 . (2.49)

u u u
Claramente los vectores e1 , e2 , e3 son unitarios. Supondremos que la base e1 , e2 , e3
forma una base ortonormal

e1 e1 = e2 e2 = e3 e3 = 1, (2.50)
e1 e2 = e1 e3 = e2 e3 = 0. (2.51)

Esto implica que el elemento de lnea

ds2 = d~r d~r = (h1 )2 (du1 )2 + (h2 )2 (du2 )2 + (h3 )2 (du3 )2 , (2.52)

por lo que la energa cinetica toma forma


 2
m ds m
(h1 )2 u21 + (h2 )2 u22 + (h3 )2 u23 .

T = = (2.53)
2 dt 2
Tambien supondremos que e1 , e2 , e3 forman una base derecha, es decir

e1 e2 = e3 , e2 e3 = e1 , e3 e1 = e2 , (2.54)

que implica los elementos de area

d~a12 = d~r1 d~r2 = h1 h2 (e1 e2 ) du1 du2 = h1 h2 du1 du2 e3 , (2.55)


d~a23 = d~r2 d~r3 = h2 h3 (e2 e3 ) du2 du3 = h2 h3 du2 du3 e1 , (2.56)
d~a31 = d~r1 d~r2 = h3 h1 (e3 e1 ) du3 du1 = h3 h1 du3 du1 e2 , (2.57)

47
con el cual se forma el vector

d~a = h2 h3 du2 du3 e1 + h3 h1 du3 du1 e2 + h1 h2 du1 du2 e3 . (2.58)

Ademas, el elemento de volumen esta dado por

= d~r1 (d~r2 ~r3 ) = h1 du(1) e1 h2 du(2) e2 h3 du(3) e3



dV
= h1 h2 h3 du(1) du(2) du(3) . (2.59)

Estas cantidades son de gran utilidad para construir operadores diferenciales


en coordenadas curvilneas.

2.3.1. Gradiente en coordenadas curvilneas


~ se puede escribir en
Como e1 , e2 , e3 forma una base, cualquier vector A
terminos de ella, es decir,
~ = A1 e1 + Ae2 + A3 e3 .
A (2.60)

En particular, el gradiente se debe escribir como


~ = () e1 + () e2 + () e3 .
(2.61)
1 2 3

De donde, considerando Eq. (2.9), se tiene


~ d~r
d =
   
1 2 3
= ()1 e1 + ()2 e2 + ()3 e3 h1 e1 du + h2 e2 du + h2 e3 du

= ()1 h1 du1 + ()2 h2 du2 + ()3 h3 du3 . (2.62)

Esta cantidad tiene el mismo valor independientemente de las coordenadas en


que se calcule. Ademas en las variables u1 , u2 , u3 se encuentra
1
d(u1 , u2 , u3 ) = 1
du + 2 du2 + 3 du3 . (2.63)
u u u
Por lo tanto, como las variables u1 , u2 , u3 son idependientes, igualando Eq.
(2.63) con Eq. (2.62) se llega a

()1 h1 = , ()2 h2 = , ()3 h3 = , (2.64)
u1 u2 u3
es decir,
1 1 1
()1 = , ()2 = , ()3 = . (2.65)
h1 u1 h2 u2 h3 u3

48
As, el gradiente en coordenadas curvilneas es

~ = 1 e1 + 1 e1 + 1 e3 .
(2.66)
h1 u1 h2 u2 h3 u3
En particular el gradiente en coordenadas esfericas es

~ = er + 1 e + 1 e .
(2.67)
r r r sin
Mientras que en coordenadas cilndricas tenemos

~ = e + 1 e + ez .
(2.68)
z

2.3.2. Divergencia en coordenadas curvilneas


Para obtener la divergencia en coordenadas curvilneas ocuparemos el teo-
rema de Gauss Eq. (1.6). Note que usando los elementos de area Eq. (2.6) y
volumen Eq. (2.7) en coordenadas cartesianas, este teorema se puede escribir
como
Z   I
Ax Ay Az
+ + dxdydz = (Ax dydz + Ay dzdx + Az dxdy) . (2.69)
V x y z V

Con el elemento de volumen Eq. (2.59) en coordenadas curvilneas se tiene


Z Z  
~ ~
Adv = ~ A
~ h1 h2 h3 du(1) du(2) du(3) . (2.70)
V V c

Mientras que ocupando A ~ y el elemento de area en coordenadas curvilneas,


Eq. (2.60) y Eq. (2.58), se encuentra
I I  
~
A d~a = A1 e1 + A2 e2 + A3 e3
V V
 
(2) (3) (3) (1) (1) (2)
h2 h3 e1 du du + h3 h1 e2 du du + h1 h2 e3 du du
I  
(3) (2) (3) (1) (1) (2)
= A1 h3 h1 du du + A2 h3 h1 du du + A3 h1 h2 du du .
V

Por lo tanto, definiendo

Ax = A1 h2 h3 , Ay = A2 h3 h1 , Az = A3 h1 h2 ,
(1) (2) (3)
dx = du , dy = du , dz = du .

49
y considerando la igualdad Eq. (2.69) se llega a
I I  
~ d~a =
A Ax zdy + Ay dzdx + Az dxdy.
V V
Z  
Ax Ay Az
= + + dxdydz,
V x y z
Z  
(1) (2) (3) (A1 h2 h3 ) (A2 h3 h1 ) (A3 h1 h2 )
= du du du + + . (2.71)
V u(1) u(2) u(3)

As, igualando Eq. (2.70) con Eq. (2.71) se llega a


 

~ A

~ h1 h2 h3 = (A1 h2 h3 ) (A2 h3 h1 ) (A3 h1 h2 )
+ + , (2.72)
c u(1) u(2) u(3)
es decir
 

~ ~
 1 (A1 h2 h3 ) (A2 h3 h1 ) (A3 h1 h2 )
A = + + . (2.73)
c h1 h2 h3 u(1) u(2) u(3)
Esta es la expresion de la divergencia en coordenadas curvilneas. Para coor-
denadas esfericas obtenemos

~ = 1 r2 Ar + 1 (sin A ) + 1 A .
~ A

(2.74)
r2 r r sin r sin
Mientras que en coordenadas cilndricas se llega a

~ = 1 (A ) + 1 A + Az .
~ A (2.75)
z

2.3.3. Laplaciano en coordenadas curvilneas


~ en
La expresion Eq. (2.73) es valida para cualquier campo vectorial A,
particular si es el gradiente de un campo escalar :

A ~ = 1 e1 + 1 e1 + 1 e3 .
~ = (2.76)
h1 u1 h2 u2 h3 u3
~ A
En este caso ~ = 2 , de donde
    
2 1 h2 h3 h3 h1
= + (2)
h1 h2 h3 u(1) h1 u(1) u h2 u(2)
 
h1 h2
+ (3) .
u h3 u(3)

50
Para coordenadas esfericas se tiene
2
   
2 1 2 1 1
= 2 r + 2 sin + 2 2 , (2.77)
r r r r sin r sin 2
tambien se puede ocupar
1 2
 
1 2
r = (r). (2.78)
r2 r r r r2
Mientras que en coordenadas cilndricas se encuentra
1 2 2
 
2 1
= + 2 2 + 2. (2.79)
z

2.3.4. Rotacional en coordenadas curvilneas


El rotacional es un vector, por lo que se debe poder escribir de la forma
       
~ A
~ = ~ A ~ e1 + ~ A ~ e2 + ~ A~ e3 . (2.80)
1 2 3
 
Para encontrar los coeficientes ~ A~ , notemos que el teorema de Stokes
i
Eq. (1.7) en coordenadas cartesianas toma la forma
Z   Z    
~ ~
A d~a = ~ ~
A dydz + A dzdx ~ ~
S S x y
  
+ ~ A ~ dxdy
z
Z    
Az Ay Ax Az
= dydz + dxdy +
S y z z x
  
Ay Ax
dxdy
x y
Z Z
= A~ d~r = (Ax , Ay , Az ) (dx, dy, dz)
Z S S

= (Ax dx + Ay dy + Az dz). (2.81)


S

Ahora, considerando A ~ y d~r en coordenadas generalizadas, Eq. (2.60) y Eq.


(2.47), tenemos
Z Z
~ d~r = (A1 e1 + A2 e2 + A3 e3 ) h1 e1 du(1) + h2 e2 du(2) + h3 e3 du(3)

A
S ZS
A1 h1 du(1) + A2 h2 du(2) + A3 h3 du(3) .

=
S

51
Por lo que definiendo

(A0x , A0y , A0z ) = (A1 h1 , A2 h2 , A3 h3 ), (dx0 , dy 0 , dz 0 ) = (du(1) , du(2) , du(3) )

y ocupando el teorema de Stokes Eq. (2.81), se llega a


Z Z
~ d~r = A0x dx0 + A0y dy 0 + A0z dz 0

A
S
ZS  0
Az A0y
 0
Ax A0z
 
0 0
= 0
0
dy dz + 0
0
dx0 dy 0 +
y z z x
S 0 0
Ay Ax
 
dx0 dy 0
x0 y 0
Z  
(A3 h3 ) (A2 h2 )
= (2)
(3)
du(2) du(3)
S u u
 
(A1 h1 ) (A3 h3 )
+ du(1) du(3)
u(3) u(1)
  
(A2 h2 ) (A1 h1 ) (1) (2)
+ du du . (2.82)
u(1) u(2)
 
Ademas, usando el elemento de area y ~ A ~ en coordenadas generalizadas,
Eq. (2.58) y Eq. (2.80), tenemos
Z   Z       
~ A
~ d~a = ~ A
~ e1 + ~ A ~ e2 + ~ A ~ e3
S S 1 2 3
 
2 3 3 1 1 2
h2 h3 du du e1 + h3 h1 du du e2 + h1 h2 du du e3
Z    
= ~ A
~ h2 h3 du2 du3 + ~ A
~ h3 h1 du3 du1
S 1 2
  
+ ~ A ~ h1 h2 du1 du2 , (2.83)
3

igualando Eq. (2.82) con Eq. (2.83) se obtiene


 

~ A

~ h2 h3 = (A 3 h3 ) (A2 h2 )
,
1 u(2) u(3)
 

~ ~
 (A1 h1 ) (A3 h3 )
A h3 h1 = ,
2 u(3) u(1)
 

~ ~
 (A2 h2 ) (A1 h1 )
A h1 h2 = . (2.84)
3 u(1) u(2)

52
Es decir,
 

~ A
~
 1 (A3 h3 ) (A2 h2 )
= ,
1 h2 h3 u(2) u(3)
 

~ A
~
 1 (A1 h1 ) (A3 h3 )
= ,
2 h3 h1 u(3) u(1)
 

~ A
~
 1 (A2 h2 ) (A1 h1 )
= , (2.85)
3 h1 h2 u(1) u(2)

que son las componentes del rotacional en coordenadas generalizadas.

En particular para coordenas esfericas tenemos


   
~ A
~ = 1 (sin A ) (rA ) 1 A r 1 (rA )
er + e +
r sin r sin r
 
1 (rA ) Ar
e . (2.86)
r r

Mientras que en coordenadas cilndricas se llega a


   
~ ~ 1 Az A Ar Az
A = e + e +
z z
 
1 (A ) Ar
ez . (2.87)

2.4. Operador momento angular


Para obtener mayor practica en el manejo de vectores veamos el operador
 
~ = i ~r
L ~ . (2.88)

Este operador surge de manera natural en mecanica cuantica, pero tambien


es importante en la teora del potencial, en el grupo de rotaciones y para el
estudio de las ondas electromagneticas.

En coordenadas cartesianas, usando Eq. (2.2) y Eq. (2.8), se encuentra

~ = Lx i + Ly j + Lz k
L
    

~
= i ~r = i xi + y j + z k i + j + k
x y z

53

       
= i x i j + x i k + y j i + y j k
y z x z
   
+z k i + z k j
x y
      

= i y z i + z x j + x y k .
z y x z y x
Por lo que,
     

Lx = i y z , Ly = i z x , Lz = i x y . (2.89)
z y x z y x
En coordenadas esfericas, considerando Eq. (2.14) y Eq. (2.67), se llega a
 
~

~
 1 1
L = i ~r = i (rer ) er + e + e
r r r sin
 
1
= i (er e ) + (er e )
sin
 
1
= i e e ,
sin
es decir
 
~ = i e 1
L e . (2.90)
sin

De esta expresion se puede obtener Lx , Ly , Lz en coordenadas esfericas. En


efecto, utilizando Eqs. (2.16)-(2.18), en (2.90) se obtiene
 
~
L = i sin i + cos j

1   
cos cos i + cos sin j sin k
sin
 
cos
= i sin cos i
sin
  
cos
+ cos sin j + k ,
sin
por lo que,
 

Lx = i sin + cot cos , (2.91)

54
 

Ly = i cos cot sin , (2.92)


Lz = i . (2.93)

Un operador importante es
~ L
L2 = L ~ = L2 + L2 + L2 . (2.94)
x y z

Este operador es mas sugerente en coordenadas esfericas, usando Eq. (2.90) se


encuentra
 
2 ~ L
~ = i e 1 ~
L = L e L
sin
!
L~ e L ~
= i e . (2.95)
sin

~yB
Antes de continuar notemos que si A ~ dependen de la variable u, entonces
 
A~B~ ~ ~
A ~ +A~ B ,
= B (2.96)
u u u
ademas de Eqs. (2.16)-(2.17) se llega a
e
= ( cos sin , cos cos , 0) = cos ( sin , cos , 0) = cos e ,

Tomando en cuenta esta dos ultimas igualdades, las expresiones Eqs. (2.90),
(2.16)-(2.18), se tiene
 
~ ~
e L
L 2
e = = i 2 (2.97)
 
~ ~
e L  
L (e ) ~ 1 ~
e = L= i cos e L
sin
1 2
 

= i + cos
sin 2

Sustituyendo estos resultado en Eq. (2.95) se consigue


 2
1 2

2 cos
L = + + ,
2 sin sin2 2

55
ademas utilizando la igualdad

2
 
1 cos
sin = 2+ (2.98)
sin sin

se llega a

1 2
   
2 1
L = sin + . (2.99)
sin sin2 2

Note que con este resultado el Laplaciano en coordenadas esfericas Eq. (2.78)
se puede escribir como

L2
 
2 1 2
= 2 r 2 . (2.100)
r r r r

Esta version del Laplaciano es de gran utilidad para resolver la ecuacion de


Laplace,2 = 0, en coordenadas esfericas. Este problema lo estudiaremos en
otro captulo.

56
Captulo 3

El Factorial y la Funcion
Gamma

En este captulo veremos una funcion que generaliza el factorial de un


numero natural, que es la funcion Gamma. El estudio de este tema no es
exhaustivo pero es suficiente para resolver diferentes problemas interesantes.

3.1. Funcion Gamma


Dado un numero natural, n, se define el factorial como

n! = n (n 1) (n 2) 2 1. (3.1)

Tambien se puede definir un producto similar para los primeros n numeros


pares mediante

(2n)!! = (2n) 2(n 1) 2(n 2) 6 4 2, (3.2)

factorizando un 2 de cada termino se encuentra

(2n)!! = 2n (n (n 1) (n 2) 2 1) = 2n n!, (3.3)

es decir

(2n)!! = 2n n!. (3.4)

Ademas, el producto de los primeros (n + 1) numeros impares es

(2n + 1)!! = (2n + 1) (2n 1) (2n 3) 5 3 1. (3.5)

57
Ahora, multiplicando y dividiendo este numero por (2n)!! se encuentra
(2n + 1) (2n) (2n 1) 2(n 1) (5) (4) (3) (2) (1)
(2n + 1)!! =
(2n) 2(n 1) (4) (2)
(2n + 1)! (2n + 1)!
= = ,
(2n)!! 2n n!
es decir
(2n + 1)!
(2n + 1)!! = . (3.6)
2n n!
Adicionalmente se puede definir el factorial para cualquier numero real o
complejo. Para hacer esa definicion ocuparemos la funcion Gamma
Z
(z) = et tz1 dt, Re(z) > 0. (3.7)
0

Primero veamos dos valores de esta funcion. Notemos que si z = 1, se tiene


Z
(1) = et dt = et = 1,

0 0

mientras que si z = 21 , con el cambio de variable u = t1/2 , se encuentra


  Z Z Z
1 t 1/2 u2 2
= e t dt = 2 e du = eu du
2 0 0
Z Z  21
2 2
= eu du ev dv

Z Z  12 Z 2 Z 1/2
(u2 +v 2 ) r2
= dudve = d drre
0 0
2
!1/2

der
Z
()
= 2 dr = ,
2 0 dr

es decir,

 
1
= . (3.8)
2
La funcion (z) tiene las mismas propiedades que el factorial, en efecto obser-
vemos que se cumple
d t z 
et tz = ztz1 et e t , (3.9)
dt
58
que implica
Z Z
t z
(z + 1) = e t dt = z tz1 et = z(z), (3.10)
0 0

es decir

(z + 1) = z(z). (3.11)

Usando de forma reiterada (3.11) se encuentra

(z + 1) = z(z) = z(z 1)(z 1) = z(z 1)(z 2)(z 2)


= z(z 1)(z 2) (z k)(z k), Re(z k) > 0.(3.12)

En particular si z es un natural, n, el maximo valor que puede tomar k es


n 1, por lo que

(n + 1) = n(n 1)(n 2) (n (n 1))(1) = n(n 1)(n 2) 2 1


= n!,

entonces

(n + 1) = n!. (3.13)

As, para cualquier numero complejo con Re(z k) > 0, definiremos el factorial
como

z! = (z + 1) = z(z 1)(z 2) (z k)(z k), Re(z k) > 0. (3.14)

Por ejemplo,
     
1 1 1 1
!= +1 = = . (3.15)
2 2 2 2 2

Si queremos saber cuanto vale n + 21 ! debemos ocupar la definicion (3.14).




Para este caso es claro que el maximo valor que puede tomar k es n, de donde
         
1 1 1 3 1 1
n+ ! = n+ n n
2 2 2 2 2 2
(2n + 1) (2n 1) (2n 3) 1
=
2 2 2 2
(2n + 1)!! (2n + 1)!
= = ,
2n+1 22n+1 n!

59
por lo que
 
1 (2n + 1)!
n+ != .
2 22n+1 n!
De este resultado se tiene
   
1 1 (2(n 1) + 1)! (2n 1)!
n ! = n1+ ! = 2(n1)+1 = 2n1
2 2 2 (n 1)! 2 (n 1)!

(2n 1)!(2n) (2n)!
= 2n1 = ,
2 (n 1)!(2n) 22n n!
de donde
 
1 (2n)!
n != .
2 22n n!
Tambien se puede calcular el factorial para numeros negativos, por ejemplo

     
1 1 1
! = 1 = = . (3.16)
2 2 2
De hecho, ocupando que la ecuacion (3.11) implica
(z + 1)
(z) = , (3.17)
z
se puede definir (z) para numeros negativos. Por ejemplo, si z = 21 , se
encuentra
1 21


   
1 1
= 1
 = 2 = 2 . (3.18)
2 2
2
Similarmente, si 0 <  < 1, podemos definir
(1 )
() = . (3.19)

La parte derecha de esta igualdad tiene sentido pues (1 ) > 0, as la parte
izquierda tiene sentido.

Ocupando de forma reiterada (3.17) se llega a


(z + 1) (z + 2) (z + 3)
(z) = = = = =
z z(z + 1) z(z + 1)(z + 2)
(z + k)
= . (3.20)
z(z + 1)(z + 2)(z + 3) (z + (k 1))

60
Si z + k > 0 la parte derecha de esta igualdad tiene sentido, por lo tanto la
parte izquierda esta bien definida, aun si z < 0. Por ejemplo, si z es de la
forma z = n + , con n un natural y  (0, 1), tomando k = n se cumple
z + k > 0 y la cantidad

(z) = (n + )
()
= (3.21)
(n + )((n 1) + )((n 2) + ) (1 + )

esta bien definida.

Ahora, es claro que

lm(n + )((n 1) + )((n 2) + ) (1 + ) = ()n n!. (3.22)


0

Mientras que de la integral (3.7) se tiene (0+ ) = y de (3.19) se encuentra


(0 ) = . Por lo tanto, si n es un natural se cumple

(n ) = ()n (), (3.23)

en ambos caso
1
= 0. (3.24)
(n)

Existen mas propiedades de la funcion (z), pero las que hemos visto nos
bastan para estudiar las funciones de Bessel.

61
Captulo 4

Repaso de Ecuaciones
Diferenciales Ordinarias

En este captulo veremos una serie de resultado sobre ecuaciones diferen-


ciales que aplicaremos posteriormente.

4.1. Teorema de existencia y unicidad


El primer resultado es sobre la existencia y unicidad de las soluciones de
ecuaciones diferenciales de la forma
d2 Y (x) dY (x)
2
+ P (x) + Q(x)Y (x) = R(x). (4.1)
dx dx
Si P (x), Q(x) y R(x) son funciones continuas en el intervalo [a, b] y x0 [a, b],
entonces existe una unica solucion de Eq. (4.1) que cumple las condiciones
iniciales
dY (x)
Y (x0 ) = a1 , = a2 , (4.2)
dx x0
donde a1 y a2 son constantes. Este resultado lo usaremos sin demostrar, la
demostracion se puede ver en [18].

4.2. El Wronskiano
Un concepto de mucha utilidad en el estudio de la independencia de las
soluciones de las ecuaciones diferenciales es el Wronskiano. Supongamos que

62
tenemos dos funciones f y g, el Wronskiano se define como

f g dg(x) df (x)
W (f, g)(x) = df dg (x) = f (x) g(x), (4.3)
dx dx dx dx
note que

dW (f, g)(x) d2 g(x) d2 f (x)


= f (x) g(x). (4.4)
dx dx2 dx2

4.3. Independencia lineal


Ahora, si Y1 (x) y Y2 (x) son soluciones de la ecuacion diferencial

d2 Y (x) dY (x)
2
+ P (x) + Q(x)Y (x) = 0, (4.5)
dx dx
es decir, si se cumple

d2 Y1 (x) dY1 (x)


+ P (x) + Q(x)Y1 (x) = 0, (4.6)
dx2 dx
d2 Y2 (x) dY2 (x)
2
+ P (x) + Q(x)Y2 (x) = 0, (4.7)
dx dx
se obtiene
d2 Y1 (x) dY1 (x)
Y2 (x) 2
+ P (x)Y2 (x) + Q(x)Y2 (x)Y1 (x) = 0, (4.8)
dx dx
d2 Y2 (x) dY2 (x)
Y1 (x) 2
+ P (x)Y1 (x) + Q(x)Y1 (x)Y2 (x) = 0. (4.9)
dx dx
Al restar estas ecuaciones se llega a

d2 Y1 (x)
 
dY1 (x) dY1 (x) dY1 (x)
Y2 (x) Y2 (x) + P (x) Y1 (x) Y2 (x) = 0,
dx2 dx dx dx

esta ultima ecuacion se puede escribir como

dW (Y1 , Y2 )(x)
+ P (x)W (Y1 , Y2 )(x) = 0, (4.10)
dx
cuya solucion es
R
W (Y1 , Y2 )(x) = Ce P (x)dx
, C = constante. (4.11)

63
Como la funcion exponencial nunca se anula, si el Wronskiano es cero en un
punto, implica que C = 0. Por lo tanto, si el Wronskiano es cero en un punto,
es cero en cualquier otro punto. Claramente tambien es cierto que si el Wrons-
kiano es diferente de cero en un punto, es diferentes de cero en cualquier otro
punto. Ademas, si el Wronskiano es diferente de cero no puede cambiar de
signo, pues de lo contrario tendra que pasar por cero.

Con el Wronskiano se puede obtener informacion sobre Y1 (x) y Y2 (x). En


efecto, si W (Y1 , Y2 )(x) = 0, entonces el sistema de ecuaciones lineales
    
Y1 (x) Y2 (x) a1 0
dY1 (x) dY2 (x) = (4.12)
dx dx
a2 0

tiene solucion no trivial y las funciones Y1 (x), Y2 (x) son linealmente depen-
dientes. Ahora, si W (Y1 , Y2 )(x) 6= 0, la unica solucion a (4.12) es la trivial y
por lo tanto, Y1 (x) y Y2 (x) son linealmente independientes.

Supongamos que Y1 (x) y Y2 (x) son soluciones linealmente independien-


tes de Eq. (4.5), entonces podemos afirmar que estas funciones no se pue-
den anular en un mismo punto. Esto es verdad, pues si existe x0 tal que
Y1 (x0 ) = Y2 (x0 ) = 0, entonces W (Y1 , Y2 )(x0 ) = 0, que no puede ser posi-
ble pues Y1 (x) y Y2 (x) son linealmente independientes.

4.4. Los ceros de las soluciones


Diremos que a1 y a2 son ceros sucesivos de Y1 (x), si para toda x en el in-
tervalo (a1 , a2 ) se cumple Y1 (x) 6= 0 y Y1 (a1 ) = Y1 (a2 ) = 0.

El Wronskiano nos da informacion sobre los puntos donde se anulan las


soluciones linealmente independientes de Eq. (4.5). En efecto, supongamos
que Y1 (x) y Y2 (x) son soluciones linealmente independientes de Eq. (4.5) y que
a1 y a2 son ceros sucesivos de Y1 (x), entonces podemos afirmar que Y2 (x) tiene
un cero en el intervalo (a1 , a2 ). Para probar esta afirmacion, notemos que la
derivada de Y1 (x) no puede tener el mismo signo en a1 y a2 , ademas

dY1 (x)
W (Y1 , Y2 )(a1 ) = Y1 (a1 ), (4.13)
dx a1
dY1 (x)
W (Y1 , Y2 )(a2 ) = Y1 (a2 ). (4.14)
dx a2

64

dY1 (x) dY1 (x)
Ahora como dx
tiene signo diferente a dx
y el Wronskiano no cam-
a2 a1
bia de signo, entonces Y2 (a1 ) y Y2 (a2 ) tienen signos diferentes. Como Y2 (x)
es continua, existe un punto a3 (a1 , a2 ) tal que Y2 (a3 ) = 0, que es lo que
queramos demostrar.

De hecho, podemos afirmar que si Y1 (x) y Y2 (x) son soluciones linealmente


independientes de Eq. (4.5), Y2 (x) tiene un unico cero entre dos ceros sucesivos
de Y1 (x).

4.4.1. Forma normal


Para poder estudiar la ecuacion diferencial Eq. (4.5) en muchos caso es
mejor expresarla en una forma mas conveniente. Por ejemplo, supongamos que
Y (x) = u(x)v(x), de donde

dY (x) du(x) dv(x)


= v(x) + u(x) , (4.15)
dx dx dx
d2 Y (x) d2 u(x) du(x) dv(x) d2 v(x)
= v(x) + 2 + u(x) , (4.16)
dx2 dx2 dx dx dx2
por lo que Eq. (4.5) se puede escribir como

d2 u(x)
 
dv(x) du(x)
2
v(x) + 2 + P (x)v(x)
dx dx dx
 2 
d v(x) dv(x)
+ 2
+ P (x) + Q(x)v(x) u(x) = 0. (4.17)
dx dx

Si pedimos que

dv(x)
2 + P (x)v(x) = 0, (4.18)
dx
se obtiene,

d2 v(x) 1 dP (x) P 2 (x)


 
dv(x) P (x)v(x)
= , = + v(x). (4.19)
dx 2 dx2 2 dx 4

Sustituyendo estos resultados en Eq. (4.17) se llega a

d2 u(x) P 2 (x) 1 dP (x)


 
+ Q(x) u(x) = 0. (4.20)
dx2 4 2 dx

65
A esta ecuacion se le llama forma norma de Eq. (4.5). Note que la solucion de
Eq. (4.18) es
1
R
v(x) = ce 2 dxP (x)
, c = constante (4.21)

y esta funcion nunca se anula. As la informacion de los ceros de Y (x) esta con-
tenida en u(x). Por lo tanto, para estudiar los ceros de las soluciones de Eq.
(4.5) es mas conveniente estudiar su forma normal (4.20) .

Notablemente la ecuacion normal Eq. (4.20) es un caso particular de

d2 Y (x)
+ q(x)Y (x) = 0. (4.22)
dx2
Por lo tanto, para estudiar los ceros de las soluciones de la ecuacion diferencial
Eq. (4.5) basta estudiar los ceros de la ecuacion diferencial Eq. (4.22). Antes de
entrar en detalles formales observemos que Eq. (4.22) se puede escribir como

d2 Y (x)
= q(x)Y (x) (4.23)
dx2
que se puede ver como la segunda ley de Newton donde Y (x) representa la
posicion de una partcula y q(x) una fuerza que cambia punto a punto.

Primero veamos un caso sencillo. Supongamos que q(x) = , con una


constante, en este caso Eq. (4.23) toma la forma

d2 Y (x)
= Y (x), (4.24)
dx2
que es la segunda ley de Newton con una fuerza constante centrada en el ori-
gen. Si > 0, la fuerza es atractiva y una partcula bajo su influencia pasa
una cantidad infinita de veces por el cero. Es decir, si > 0 las soluciones de
Eq. (4.24) tienen un numero infinito de ceros. Ahora, si < 0 tenemos una
fuerza repulsiva y una partcula bajo su influencia a lo mas puede pasar una
vez por el cero. Por lo tanto podemos, afirmar que, si < 0 las soluciones de
Eq. (4.24) tienen a lo mas un cero.

Ahora veamos un caso mas general donde q(x) tiene signo definido. Prime-
ro supongamos que q(x) < 0 para cualquier x positiva. Entonces afirmamos
que la soluciones de Eq. (4.22) a lo mas tienen un cero. Para demostrar esta
afirmacion, primero notemos que, desde el punto de vista fsico Eq. (4.23) re-
presenta una partcula bajo una fuerza repulsiva. Por lo que, si existe x0 tal

66
que Y (x0 ) = 0, la partcula no puede regresar a la posicion Y (x0 ) = 0. Por lo
tanto, si q(x) < 0 las soluciones de Eq. (4.22) a lo mas tienen un cero.

Si q(x) > 0, podemos afirmar que la soluciones de Eq. (4.22) tiene un


numero infinito de ceros. Primero notemos que, desde el punto de vista fsi-
co, la ecuacion Eq. (4.23) representa una partcula bajo una fuerza atractiva.
Supongamos que Y (x) es una solucion con un numero finito de cero. Si es
el maximo de los ceros, entonces si x > la posicion Y (x) debe tener signo
defindio. Ahora, como la fuerza es tractiva, la partcula debe regresar de nuevo
a la posicion que tena en , es decir debe regresar a cero. Esto implica que
debe existir x1 > donde Y (x1 ) = 0. Por lo tanto, no es el maximo de los
ceros de Y (x) y esta funcion no puede tener un numero finito de ceros.

Otra forma de mostrar esta afirmacion es la siguiente, como es el maximo


de los ceros de Y (x), entonces si x > , la funcion Y (x) tiene signo definido.
De Eq. (4.23) se puede observar que si Y (x) > 0, entonces la segunda derivada
es negativa, lo que quiere decir que la taza de crecimiento disminuye, es decir
Y (x) decrece y eventualmente llega a cero. Que contradice el hecho de que
sea el maximo de los ceros de Y (x). Ahora si Y (x) < 0, entonces de Eq. (4.23)
se puede observar que la segunda derivada es positiva, lo que quiere decir que
la taza de crecimiento aumenta. Por lo tanto, Y (x) crece y eventualmente lle-
ga a cero. Esto contradice el hecho de que sea el maximo de los cero de Y (x).

Tambien podemos afirmar que en un intervalo cerrado y acotado las solu-


ciones de Eq. (4.23) solo pueden tener un numero finito de ceros. Para probar
esta afirmacion recordemos el principio de Weierstrass, el cual no dice que una
sucesion acotada de numeros reales tiene una subsucesion convergente. Aho-
ra, supongamos que Y (x) es solucion no trivial de Eq. (4.23) y que tiene un
numero infinito de ceros en el intervalo [a, b]. Con ese conjunto infinito de ce-
ros se puede formar una sucesion acotada. Por lo que existe una subsucesion,
{xi }
i=0 , de ceros de Y (x) que converge en un punto x0 de [a, b]. Como Y (x) es
continua, se debe cumplir Y (x0 ) = 0, ademas

dY (x) Y (xi ) Y (x0 ) 00


= lm = lm = 0. (4.25)
dx x0 i xi x0 i xi x0

As, tenemos una solucion de Eq. (4.23) que cumple Y (x0 ) = 0, dYdx(x) = 0,

x0
por el teorema de unicidad, este resultado implica que Y (x) = 0. Esto es ab-
surdo, pues supusimos que Y (x) es una solucion no trivial de Eq. (4.23). As,
en un intervalo cerrado y acotado las soluciones de Eq. (4.23) solo puede tener

67
un numero finito de ceros, que implica que los ceros de Y (x) deben formar un
conjunto numerable.

4.5. Teorema de comparacion de Sturm


Ahora, supongamos que q(x) < q(x) y que Y (x) y Y (x) son soluciones de
las ecuaciones
d2 Y (x)
+ q(x)Y (x) = 0, (4.26)
dx2
d2 Y (x)
+ q(x)Y (x) = 0. (4.27)
dx2
Entonces se puede afirmar que Y (x) tiene un cero entre dos cero consecutivos
de Y (x). A esta afirmacion se le llama el Teorema de Comparacion de
Sturm, para su demostracion ocuparemos el Wronskiano

dY (x) dY (x)
W (Y, Y )(x) = Y (x) Y (x). (4.28)
dx dx
Se puede probar que considerando Eq. (4.26) y Eq. (4.27) se encuentra

dW (Y, Y )(x) d2 Y (x) d2 Y (x)


= Y (x) Y (x) = (q(x) q(x)) Y (x)Y (x).(4.29)
dx dx2 dx2
Ahora, supongamos que a1 , a2 son ceros consecutivos de Y (x). Sin perdida de
generalidad, podemos suponer que Y (x) > 0 en (a1 , a2 ), esto implica

dY (x) dY (x)
>0 < 0. (4.30)
dx a1 dx a2
Tambien se cumple

dY (x) dY (x)
W (Y, Y )(a1 ) = Y (a1 ) , W (Y, Y )(a2 ) = Y (a2 ) . (4.31)
dx a1 dx a2

De Eq. (4.29) es claro que el signo de dW (Y, Y )(x)


dx
en [a1 , a2 ] solo depende
del signo de Y (x). Supongamos que Y (x) no tiene ceros en ese intervalo,
si Y (x) > 0 entonces (q(x) q(x)) Y (x)Y (x) > 0. Note que al integrar Eq.
(4.29) se encuentra que W (a2 ) > W (a1 ). Mientras que de Eq. (4.31) se tie-
ne W (a1 ) > 0 y W (a2 ) < 0, lo cual es absurdo. As, Y (x) no puede tener

68
signo positivo en el intervalo [a1 , a2 ]. Ahora, si Y (x) < 0 en [a1 , a2 ], enton-
ces (q(x) q(x)) Y (x)Y (x) < 0 y al integrar Eq. (4.29) se encuentra que
W (a2 ) < W (a1 ). Pero de Eq. (4.31) se tiene W (a1 ) < W (a2 ), lo cual es
absurdo. As, Y (x) no puede tener solo signo negativo en el intervalo [a1 , a2 ].
Esto implica que debe cambiar de signo en el intervalo [a1 , a2 ] y por lo tanto
debe tener un cero en ese intervalo.

Por ejemplo, supongamos que tenemos las ecuaciones

d2 Y (x)
+ q(x)Y (x) = 0, (4.32)
dx2
d2 Y (x)
2
+ k 2 Y (x) = 0, k = constante, (4.33)
dx
2
y se cumpleh q(x) > ki . Como las soluciones de Eq. (4.33) tienen ceros en los
intervalos nk
, (n+1)
k
, podemos afirmar que las soluciones de Eq. (4.32) tam-
bien tienen ceros en esos intervalos.

Los resultados que hemos visto nos sirven para estudiar los ceros de las
soluciones de la ecuacion de Bessel
d2 Y (x) 1 dY (x) 2
 
+ + 1 2 Y (x) = 0, (4.34)
dx2 x dx x

a las soluciones de esta ecuacion se les llaman funciones de Bessel. En este caso
la forma normal es
d2 u(x)
+ q(x)u(x) = 0, (4.35)
dx2
con
1 4 2
q(x) = 1 + . (4.36)
4x2

Note que si x > ( 4 2 1)/2, se tiene q(x) > 0. Por lo tanto, las funciones de
Bessel tienen un numero infinito de ceros.

Las funciones de Bessel las podemos comparar con las soluciones de la


ecuacion
d2 u(x)
+ u(x) = 0, (4.37)
dx2

69
cuyas soluciones son {sin x, cos x}. La distancia entre dos ceros consecutivos
para estas funciones es .

Ahora, si 12 < 21 , se cumple


1 4 2
1<1+ . (4.38)
4x2
Entonces cada intervalo de longitud tiene al menos un cero de las soluciones
de la ecuacion de Bessel. Para el caso = 12 , la ecuacion normal de Bessel Eq.
(4.35) se reduce a Eq. (4.37) y la distancia entre los ceros es exactamente .
Ahora, si 12 < , se cumple
1 4 2
1+ < 1, . (4.39)
4x2
Esto implica que entre dos ceros sucesivos de las soluciones de Eq. (4.37) hay
a lo mas un cero de las funciones de Bessel. En efecto, supongamos que 1
y 2 son ceros sucesivos de Eq. (4.37) y que en (1 , 2 ) hay dos ceros de las
funciones de Bessel. Como se cumple Eq. (4.39), debe haber un cero de las
soluciones de Eq. (4.37), lo cual es absurdo, pues supusimos que 1 y 2 son
ceros sucesivos de las soluciones de Eq. (4.37). Por lo tanto, si 21 < , en cada
intervalo de longitud hay a lo mas un cero de las funciones de Bessel.

4.6. Problema de Sturm-Liuoville


Una ecuacion diferencial que surge en diferentes problemas de fsica y ma-
tematicas es la ecuacion de Sturm-Liuoville:
 
d d(x)
p(x) + (q(x) + r(x)) (x) = 0. (4.40)
dx dx
Donde q(x), p(x), r(x) son funciones reales, q(x) es una funcion positiva en el
intervalo (a, b) y es una constante real. El problema consiste en encontrar
las constantes y funciones (x) que resuelven Eq. (4.40).

La ecuacion Eq. (4.40) se suele resolver con las condiciones de Dirichlet


(a) = (b) = 0, (4.41)
o las de Neumann
d(x) d(x)
= = 0. (4.42)
dx x=a dx x=b

70
Si no se cumple ninguna de estas condiciones se puede pedir que p(x) cumpla
p(a) = p(b) = 0. (4.43)
La afirmacion importante aqu es que si 1 (x) es solucion de Eq. (4.40) con
1 y 2 (x) es solucion de Eq. (4.40) con 2 y ademas se satisfacen una de las
condiciones Eqs. (6.72)-(4.43), entonces se cumple
Z b
(1 2 ) dxq(x)2 (x)1 (x) = 0.
a

Para probar esta afirmacion ocuparemos que se satisface


 
d d1 (x)
p(x) + (1 q(x) + r(x)) 1 (x) = 0, (4.44)
dx dx
 
d d2 (x)
p(x) + (2 q(x) + r(x)) 2 (x) = 0.
dx dx
El complejo conjugado de la segunda ecuacion es
d2 (x)
 
d
p(x) + (2 q(x) + r(x)) 2 (x) = 0. (4.45)
dx dx
Ademas, multiplicando 2 (x) por Eq. (4.44) y 1 (x) por Eq. (4.45) se llega
a
 
d d1 (x)
2 (x) p(x) + (1 q(x) + r(x)) 2 (x)1 (x) = 0,
dx dx
d2 (x)
 
d
1 (x) p(x) + (2 q(x) + r(x)) 1 (x)2 (x) = 0.
dx dx
Adicionalmente, considerando
dg(x) df (x)g(x) df (x)
f (x) = g(x)
dx dx dx
se encuentra
d (x) d1 (x)
 
d d1 (x)

p(x)2 (x) p(x) 2
dx dx dx dx
 
+ 1 q(x) + r(x) 2 (x)1 (x) = 0,

d2 (x) d1 (x) d2 (x)


 
d
p(x)1 (x) p(x)
dx dx dx dx
 
+ 2 q(x) + r(x) 2 (x)1 (x) = 0.

71
Restando estas dos ultimas ecuaciones se llega a
d2 (x)
  
d d1 (x)
p(x) 2 (x) 1 (x)
dx dx dx

+ (1 2 ) q(x)2 (x)1 (x) = 0.

Integrando esta ecuacion en el intervalo [a, b], se obtiene


 b
d2 (x)
 
d1 (x)
p(x) 2 (x) 1 (x)
dx dx
a
Z b
+ (1 2 ) dxq(x)2 (x)1 (x) = 0.
a

Suponiendo que las soluciones satisfacen las condiciones de Dirichlet, de Neu-


mann o bien que p(x) se anule en la frontera, se consigue
Z b
(1 2 ) dxq(x)2 (x)1 (x) = 0,
a

que es lo que queriamos probar.

En particular note que si 1 6= 2 se infiere que


Z b
dxq(x)2 (x)1 (x) = 0, (4.46)
a

Ademas, se puede ver que la integral


Z b
dxq(x)1 (x)1 (x) = , (4.47)
a

es positiva, es decir > 0. Por lo que, si < , el conjunto de funciones

(x)
(4.48)

cumplen
Z b
dxq(x)1 (x)2 (x) = 1 2 . (4.49)
a

Se dice que las soluciones de Eq. (4.40) que satisfacen alguna de las condicio-
nes Eqs. (6.72)-(4.43) son un conjunto de funciones ortonormales con funcion
de peso q(x). En los proximos captulos veremos varias aplicaciones de este
resultado.

72
Captulo 5

Funciones de Bessel

En este captulo estudiaremos la ecuacion de Bessel y sus soluciones, las


cuales se llaman funciones de Bessel. Las funciones de Bessel tienen aplica-
ciones en diversos problemas de mecanica cuantica, electrodinamica y otras
disciplinas.

5.1. Ecuacion de Bessel


La ecuacion de Bessel es
d2 R(z) 1 dR(z) 2
 
+ + 1 2 R(z) = 0, (5.1)
dz 2 z dz z

que se puede escribir de la forma

d2 R(z) dR(z)
z2 2 2

+ z + z R(z) = 0. (5.2)
dz 2 dz
Para resolver esta ecuacion ocuparemos el Metodo de Frobenius [18], es decir
propondremos soluciones de la forma
X X
R(z) = z m an z n = an z n+m , 6 0.
a0 = (5.3)
n0 n0

De donde
X X
2 R(z) = 2 an z n+m = 2 a0 z m 2 a1 z m+1 2 an z n+m ,
n0 n2
X X X
z 2 R(z) = z 2 an z n+m = an z n+m+2 = an2 z n+m ,
n0 n0 n2

73
dR(z) X X
z = z (n + m)an z n+m1 = (n + m)an z n+m
dz n0 n0
X
= ma0 z m + (m + 1)a1 z m+1 + (n + m)an z n+m ,
n2
2
d R(z) X
z2 = z 2
(n + m)(n + m 1)an z n+m2
dz 2 n0
X
= (n + m)(n + m 1)an z n+m
n0

= m(m 1)a0 z m + (m + 1)ma1 z m+1


X
+ (n + m)(n + m 1)an z n+m .
n2

Considerando estas cuatro igualdades en Eq. (5.2) y tomando en cuenta que

(n + m)(n + m 1) + (n + m) = (n + m)2 ,

se tiene
2
2d
R(z) dR(z) 2 2

z + z + z R(z) =
dz 2 dz
= a0 2 + m + m(m 1) z m + a1 2 + (m + 1) + (m + 1)m z m+1
 
Xh i
(n + m)(n + m 1) + (n + m) an + an2 z n+m
2

+
n2

= a0 m2 2 z m + a1 (m + 1)2 2 z m+1
 
X
an2 + (n + m)2 2 an z n+m = 0,
 
+ (5.4)
n2

que se debe cumplir para cualquier z. Esto implica

a0 (m2 2 ) = 0, (5.5)
a1 (1 + m)2 2 = 0,

(5.6)
an2 + an (n + m)2 2 = 0.

(5.7)

Como a0 6= 0, Eq. (5.5) induce

m2 = 2 , m = , (5.8)

introduciendo este resultado en Eq. (5.6) se llega a

a1 = 0. (5.9)

74
Ademas, considerando

(n + m)2 2 = (n )2 2 = n2 2n + 2 2 = n(n 2) (5.10)

en Eq. (5.7) obtiene


an2
an = . (5.11)
n(n 2)
Apartir de esta igualdad y ocupando Eq. (5.9) se infiere que a3 = 0, que a
su vez implica a5 = 0. Es claro que en general a2n+1 = 0. As, los unicos an
diferentes de cero son de la forma
a2(n1) ()
a2n = = 2 a2(n1) . (5.12)
2n(2n 2) 2 n(n )
Note que hay un problema si es un natural y se considera el signo negativo
en (5.12), despues trataremos esta cuestion. Observe que Eq. (5.12) se puede
escribir como
() ()(n 1)!(n 1 )!
a2n = a 2(n1) = a2(n1)
22 n(n ) 22 n!(n )!
  
()(n 1)!(n 1 )! ()(n 2)!(n 2 )!
= a2(n2)
22 n!(n )! 22 (n 1)!(n 1 )!
()2 (n 2)!(n 2 )!
 
= a2(n2)
222 n!(n )!
()2 (n 2)!(n 2 )!
  
()(n 3)!(n 3 )!
= a2(n3)
222 n!(n )! 2(n 2)!(n 2 )!
()3 (n 3)!(n 3 )!
 
= a2(n3)
223 n!(n )!
..
.
()k (n k)!(n k )!
 
= a2(nk) . (5.13)
22k n!(n )!
El maximo valor que puede tomar k en la expresion anterior es n, entonces
()n ()!
a2n = a0 , (5.14)
22n n!(n )!
tomando
1
a0 = , (5.15)
2 ()!

75
3.2

2.4

1.6

0.8
J2

-4.8 -4 -3.2 -2.4 -1.6 -0.8 0 0.8 1.6 2.4 3.2 4 4.8

J0
J1 -0.8

-1.6

-2.4

Tres primeras funciones de Bessel

-3.2

se tiene
()n
a2n = . (5.16)
22n n!(n )!

Sustituyendo este resultado en Eq. (5.3) se encuentra


X ()n X ()n  z 2n
R(z) = z z 2n
= , (5.17)
n0
22n n!(n )! n0
n!(n )! 2

que son las llamadas funciones de Bessel. Se puede observar que ocupando la
funcion Gamma, (z), las funciones de Bessel se pueden escribir como
 z  X (1)n  z 2n
J (z) = , (5.18)
2 n0 (n + 1)(n + + 1) 2
 z  X (1)n  z 2n
J (z) = . (5.19)
2 n0
(n + 1)(n + 1) 2

Note que si > 0, se cumple J (0) = 0 y J (0) = .

76
Ahora, para el caso en que es un natural, = m, probaremos que se
cumple

Jm (z) = ()m Jm (z). (5.20)

Primero notemos que Jm (z) esta bien definida y recordemos que si l es un


natural 1/(l) = 0. Por lo que, el termino 1/(nm+1) es nulo si nm+1 <
0, entonces
X (1)n  z 2nm
Jm (z) =
n0
(n + 1)(n m + 1) 2
X (1)n  z 2nm
=
nm
(n + 1)(n m + 1) 2
X (1)n+m  z 2(n+m)m
=
n0
(n + m + 1)(n + m m + 1) 2
X (1)n  z 2n+m
= ()m
n0
(n + m + 1)(n + 1) 2
= ()m Jm (z), (5.21)

que es lo que queriamos probar. Es decir, si m es natural, Jm (z) es solucion


de la ecuacion de Bessel, pero no es linealmente independientes de Jm (z). Por
esta razon en lugar de usar la funciones de Bessel del tipo J (z), > 0, se
suelen ocupar las funciones de Neumman

J (z) cos J (z)


N (z) = , (5.22)
sin
o las funciones de Hankel

H(1,2) (z) = J (z) iN (z). (5.23)

5.2. Funcion generatriz


Existe una funcion de la cual se pueden extraer todas las funciones de
Bessel de orden n. A esta funcion se le llama funcion generatriz y es:
z 1
e 2 (t t ) =
X
Jn (z)tn . (5.24)
nZ

77
Para probar esta igualdad primero note que

zt
X 1  zt k X tk  z k
e 2 = = ,
k0
k! 2 k0
k! 2
z
X 1  z j X ()j tj  z j
e 2t = = ,
j0
j! 2t j0
j! 2

estas series implican


! !
z X tk  z k
z
X ()j tj  z j
e 2 (t 1t ) = e e =
zt
2 2t

k0
k! 2 j0
j! 2
X X tkj ()j  z k+j
= .
k0 j0
k!j! 2

Ahora, definamos n = k j, por lo que k = n + j y k + j = 2j + n, con este


cambio de variable se llega a

z 1 X X tn ()j  z 2j+n X X ()j  z 2j+n


e (t t ) =
2 = tn
nZ j0
j!(j + n)! 2 nZ j0
j!(j + n)! 2
X
= tn Jn (z).
nZ

Por lo tanto, se cumple Eq. (5.24). En particular si t = ei se encuentra


 
z 1
t = iz sin , (5.25)
2 t

de donde
X
eiz sin = Jn (z)ein . (5.26)
nZ


Adicionalmente, como sin( + 2 ) = cos y ei 2 = i, se llega a
X
eiz cos = (i)n Jn (z)ein , (5.27)
nZ

esta es la lamada propiedad de Jacobi-Anger.

78
Ademas, considerando que si m y n son enteros se tiene
Z
deim ein = 2nm (5.28)

y recurriendo a Eq. (5.26) se consigue


Z Z Z X
im iz sin
de i(z sin m)
= de e = deim Jn (z)ein
nZ
X Z X
= Jn (z) deim ein = Jn (z)2nm
nZ nZ
= 2Jm (z),

entonces
Z
1
Jn (z) = dei(z sin n) . (5.29)
2

Tomando en cuenta la paridad de las funciones {sin u, cos u} y la formula de


Euler, esta integral toma la forma
Z
1
Jn (z) = dei(z sin n)
2
Z
1
= d (cos(z sin n) + i sin(z sin n))
2
Z
2
= d cos(z sin n), (5.30)
2 0
es decir
Z
1
Jn (z) = d cos(z sin n). (5.31)
0

Esta expresion de las funciones de Bessel fue la que originalmente encontro F.


W. Bessel.

5.3. Relaciones de recurrencia


Ahora veremos que las funciones de Bessel satisfacen las relaciones de recu-
rrencia
d
(z J (z)) = z J1 (z), (5.32)
dz
79
d
z J (z) = z J+1 (z),

(5.33)
 dzn
1 d
(z J (z)) = z n Jn (z), (5.34)
z dz
 n
1 d
z J (z) = ()n z (+n) J+n (z).

(5.35)
z dz
Para probar la primera identidad notemos que
X ()n z 2n+ X ()n z 2(n+)
z J (z) = z = ,
n0
n!(n + )! 22n+ n0
n!(n + )! 22n+

entonces
d (z J (z)) X ()n 2(n + ) z 2(n+)1 X ()n z 2n+1
= = z
dz n0
n!(n + )! 22n+ n0
n!(n + 1)! 22n+1
X ()n  z 2n+1
= z = z J1 (z),
n0
n!(n + 1)! 2

por lo tanto se cumple la identidad Eq. (5.32).

Ahora,
X ()n z 2n+ X ()n z 2n
z J (z) = z = ,
n0
n!(n + )! 22n+ n0
n!(n + )! 22n+

de donde
d (z J (z)) X ()n 2n z 2n1 X ()n 2n z 2n1
= =
dz n0
n!(n + )! 22n+ n1
n!(n + )! 22n+
X ()n+1 2(n + 1) z 2n+1
=
n0
(n + 1)!(n + + 1)! 22n++2
X ()n z 2n++1
= () z
n0
n!(n + + 1)! 22n++1
X ()n  z 2n++1
= ()z
n0
n!(n + + 1)! 2
= ()z J+1 (z),

as, se cumple la identidad Eq. (5.33).

80
Para probar las identidades Eqs. (5.34)-(5.35) ocuparemos induccion. Pri-
mero haremos la prueba de Eq. (5.34). Para n = 0 esta igualdad es correcta,
por lo que la base inductiva esta demostrada. Para el paso inductivo debemos
suponer Eq. (5.34) y probar
 n+1
1 d
(z J (z)) = z (n+1) J(n+1) (z).
z dz

Note que ocupando la hipotesis inductiva y Eq. (5.32) se tiene


 n+1  n 
1 d 1 d 1 d
(z J (z)) = (z J (z))
z dz z dz z dz
1 d n 
= z Jn (z)
z dz
1 n
z Jn1 (z) = z (n+1) J(n+1) (z)

=
z
que es lo que queriamos demostrar. As, la igualdad (5.34) es correcta para
cualquier n.

Ahora probaremos Eq. (5.35). Para n = 0 esta igualdad es correcta, por lo


que la base inductiva esta demostrada. Para el paso inductivo debemos suponer
Eq. (5.35) y demostrar la igualdad
 n+1
1 d
z J (z) = ()n+1 z (+n+1) J+n+1 (z).

z dz

Usando la hipotesis inductiva y Eq. (5.33) se encuentra


 n+1  n 
1 d
 1 d 1 d

z J (z) = z J (z)
z dz z dz z dz
1 d
()n z n J+n (z)

=
z dz
1 d (+n)
= ()n

z J+n (z)
z dz
1
= ()n () z (+n) J+n+1 (z)

z
n+1 (+n+1)
= () z J+n+1 (z)

esto es lo que queriamos demostrar. Por lo tanto la igualdad Eq. (5.35) es


valida para cualquier n.

81
Las identidades Eqs. (5.32)-(5.35) tambien se pueden escribir como
dJ (z)
J1 (z) = + J (z), (5.36)
dz z
dJ (z)
J+1 (z) = J (z), (5.37)
dz  z
n
n 1 d
Jn (z) = z (z J (z)) , (5.38)
z dz
 n
1 d
n +n
z J (z) .

J+n (z) = () z (5.39)
z dz
Estas identidades son importantes para las aplicaciones.

Funciones de Bessel de orden n + 21



5.4.
Las funciones de Bessel de orden (n + 12 ) son particularmente importantes
para las aplicaciones, por lo que vale la pena estudiar sus propiedades. Primero
observemos que ocupando Eq. (5.18) y la serie de Taylor de la funcion sin z se
llega a
 z  21 X (1)n  z 2n  z  12 X (1)n  z 2n
J 1 (z) = =
2 n0 n! n + 12 ! 2
  
2 2 n0 n! (2n+1)! 2
22n+1 n!
 z  21 X 2(1)n   12 X
2z 1 (1)n 2n+1
= z 2n = z
2 n0 (2n + 1)! z n0 (2n + 1)!
  12 X
2 (1)n 2n+1
= z ,
z n0
(2n + 1)!

es decir
 1/2
2
J 1 (z) = sin z. (5.40)
2 z
Ademas, considerando Eq. (5.18) y la serie de Taylor de la funcion cos z, se
obtiene
 z  12 X (1)n  z 2n  z  12 X (1)n  z 2n
J 1 (z) = =
n! n 12 ! 2
  
2 2 n0
2 n0 n!
(2n)! 2
2n 2 n!
1
2 2 X (1)n 2n

= z , (5.41)
z n0
(2n)!

82
por lo que
  12
2
J 1 (z) = cos z. (5.42)
2 z
Usando Eqs. (5.39)-(5.40) se encuentra
  12  n  
n (n+ 12 ) 2 1 d sin z
Jn+ 1 (z) = () z . (5.43)
2 z dz z
De forma analoga, apelando a (5.39)-(5.40) se llega a
  12  n 
(n+ 21 ) 2 1 d cos z 
J(n+ 1 ) (z) = z . (5.44)
2 z dz z
Adicionalmente, ocupando el resultado
   
1 1
cos n + = 0, sin n + = ()n , (5.45)
2 2
se encuentra
Jn+ 1 (z) cos n + 12 J(n+ 1 ) (z)

2 2
N(n+ 1 ) (z) =
sin n + 1

2
2
n+1
= () J(n+ 1 ) (z),
2

es decir
  12  n 
n+1 2 1 d
(n+ 12 ) cos z 
N(n+ 1 ) (z) = () z .
2 z dz z
Las funciones de Hankel de orden n + 21 tienen la forma


(1,2)
H n+ 1 (z) = J(n+ 1 ) (z) iN(n+ 1 ) (z)
( 2) 2 2
  12  n  
n (n+ 12 ) 2 1 d sin z
= () z
z dz z
  12  n 
1 2 1 d cos z 
i()n+1 z (n+ 2 )
z dz z
  12  n  
n (n+ 12 ) 2 1 d sin z cos z
= () z i
z dz z z
  12  n  
n (n+ 21 ) 2 1 d cos z i sin z
= () (i)z
z dz z
  12  n  iz 
2 1 1 d e
= (i)()n z (n+ 2 ) ,
z dz z

83
entonces
  12  n  iz 
(1,2) 2
n (n+ 12 ) 1 d e
H n+ 1 (z) = (i)() z .
( 2) z dz z
Definiremos las funciones esfericas de Bessel como
  12
jl (z) = J(l+ 1 ) (z),
2z 2
  12
nl (z) = N(l+ 1 ) (z), (5.46)
2z 2
  12
(1,2) (1,2)
hl (z) = H l+ 1 (z),
2z ( 2)
de donde
l  
1 d
l sin z
jl (z) = (z) , (5.47)
z dz z
 l 
l 1 d cos z 
nl (z) = (z) ,
z dz z
 l  iz 
(1,2) l 1 d e
hl (z) = (i)(z) . (5.48)
z dz z
Estas funciones se usan en mecanica cuantica y electrodinamica.

5.5. Ortonormalidad
En el captulo anterior vimos que cada funcion de Bessel J (z) tienen un
numero numerable de races, n , que satisfacen J (n ) = 0. Ocuparemos este
resultado para probar que la integral del producto de dos funciones de Bessel
satisfacen una propiedad que llamaremos de ortonormalidad.

La ecuacion
d2 R (x) 1 dR (x) 2
 
2
+ + 2 R (x) = 0, (5.49)
dx2 x dx x
con el cambio de variable z = x se convierte en la ecuacion de Bessel Eq.
(5.1) que tiene la soluciones J (z), por lo que R (x) = J (x). Ademas, Eq.
(5.49) se puede escribir como
2
   
1 d dR (x) 2
x + 2 R (x) = 0, (5.50)
x dx dx x

84
es decir
2
   
d dR (x) 2
x + x R (x) = 0. (5.51)
dx dx x
En particular si = n se tiene la ecuacion
2
   
d dR (x) 2
x + xn R (x) = 0, (5.52)
dx dx x
que tiene las soluciones R (x) = J (n x). Note que esta ecuacion es del tipo
Sturm-Liuoville Eq. (4.40) y si 0, se cumplen las condiciones de borde de
Dirichlet

R (0) = R (1) = 0. (5.53)

Por lo tanto, usando el teorema de Sturm-Liuoville, mostrado en el captulo


anterior, se llega a
Z 1
2 2
(n m ) dxxJ (n x)J (m x) = 0. (5.54)
0

En particular si n 6= m , se debe cumplir


Z 1
dxxJ (n x)J (m x) = 0, (5.55)
0

de donde
Z 1
dxxJ (n x)J (m x) = nm a2 , a = constante. (5.56)
0

A esta propiedad se le llamada de ortogonalidad, se dice que las funciones de


Bessel son ortogonales con peso x.

Para calcular la constante a multilplicaremos Eq. (5.49) por 2x2 dRdx (x)
, de
donde
2
 2
2 dR (x) d R (x) dR (x)  dR (x)
0 = 2x 2
+ 2x + x2 2 2 2 R (x)
dx dx dx dx
 2  2
2 d dR (x) dR (x)  d
= x + 2x + x2 2 2 (R (x))2
dx dx dx dx
 2 !
d dR (x) d d
= x2 2 (R (x))2 + x2 2 (R (x))2 ,
dx dx dx dx

85
ocupando que
d d
x2 (R (x))2 = x2 (R (x))2 2x (R (x))2 ,

dx dx
se tiene
 2 !
d dR (x)
x2 + (x2 2 2 ) (R (x))2 22 x (R (x))2 = 0. (5.57)
dx dx

Por lo tanto,
!
1
Z 1  2
dR (x)
2 2
dxx (R (x))2 = x2 + (x2 2 2 ) (R (x))2 . (5.58)
0 dx 0

En particular, como R (x) = J (x), si > 0 y = n con J (n ) = 0, se


tiene
Z 1  2  2
2 2 dJ (n x) 2 dJ (n x)
2n dxx (J (n x)) = = n , (5.59)
0 dx
x=1 d(n x) x=1

considerando la identidad Eq. (5.37) se llega a


Z 1
1
dxx (J (n x))2 = (J+1 (n ))2 . (5.60)
0 2
Por lo que, si > 0 y n , m son raices de la funcion de Bessel J (z) se cumple
Z 1
nm
dzzJ (n z)J (m z) = (J+1 (n ))2 . (5.61)
0 2
Entonces, para cualquier funcion f (z) definida en el intervalo (0, 1) se puede
expresar en terminos de la funcion de Bessel J (n z). En efecto, supongamos
que
X
f (z) = am J (m z), (5.62)
m0

entonces
Z 1 Z 1 X
dzzJ (n z)f (z) = dzzJ (n z) am J (m z)
0 0 m0
X Z 1
= am dzzJ (n z)J (m z)
m0 0
X nm an
= am (J+1 (n ))2 = (J+1 (n ))2 ,(5.63)
m0
2 2

86
por lo que
Z 1
2
an = dzzJ (n z)f (z). (5.64)
(J+1 (n ))2 0

En la proxima seccion veremos una aplicacion de este resultado.

5.6. La ecuacion de Laplace en coordenadas


cilndricas
Ahora veremos algunas aplicaciones de las funciones de Bessel.

Primero estudiaremos las soluciones de la ecuacion de Laplace en coorde-


nadas cilndricas
1 2 (, , z) 2 (, , z)
 
2 1 (, , z)
(, , z) = + 2 + = 0.
2 z 2
Para resolver esta ecuacion propondremos (, , z) = R()()Z(z), de don-
de
1 2 R()()Z(z)
 
2 1 R()()Z(z)
(, , z) = + 2
2
2 R()()Z(z)
+
z 2 
R()Z(z) 2 ()

()Z(z) R()
= +
2 2
2 Z(z)
+R()() = 0,
z 2
por lo que
2 (, , z) 1 2 () 1 2 Z(z)
 
1 R()
= + 2 + = 0. (5.65)
(, , z) R() () 2 Z(z) z 2
Entonces
2 (, , z) 1 2 Z(z)
   

= = 0,
z (, , z) z Z(z) z 2
que induce
1 2 Z(z) 2 Z(z)
= 2 , = 2 Z(z), (5.66)
Z(z) z 2 z 2

87
la solucion general a esta ecuacion es

Z(z) = a ez + b ez . (5.67)

Sustituyendo (5.66) en (5.65) se tiene

2 (, , z) 1 2 ()
 
1 R()
= + 2 + 2 = 0,
(, , z) R() () 2
as
2
1 2 ()
   
2 (, , z)
= = 0, (5.68)
(, , z) () 2
que implica
1 2 () 2 ()
= 2 , = 2 (), (5.69)
() 2 2
cuya solucion general es

() = A ei + B ei . (5.70)

Introduciendo (5.69) en (5.65) se llega a

2
 
1 R()
2 + 2 = 0,
R()
es decir,
2
   
1 R() 2
+ 2 R() = 0.

Con el cambio de variable = se encuentra
2
   
1 d dR()
+ 1 2 R() = 0, (5.71)
d d
que es la ecuacion de Bessel. De donde

R() = C J () + D J ().

Por lo que las soluciones de la ecuacion de Laplace en coordenadas cilndricas


son de la forma

(, , z), = a ez + b ez A ei + B ei (C J () + D J ()) .
 

88
Las constantes a , b , A , B , C , D de determina segun las condiciones de
borde del problema.

Por ejemplo, si en = 0 el potencial debe ser finito, como la funcion de


Bessel J () diverge en = 0, debe ocurrir que D = 0. En ese caso la
solucion es de la forma

(, , z), = a ez + b ez A ei + B ei J ().
 

Ademas, para muchos problemas es importante que (, , z) sea una funcion


univaluada. As, como (, , z) y (, + 2, z) representan el mismo punto, se
debe cumplir

(, + 2, z) = (, , z), (5.72)

en consecuencia

( + 2) = A ei(+2) + B ei(+2) = () = A ei + B ei , (5.73)

que induce

ei2 = 1. (5.74)

Por lo tanto, debe ser un numero natural n. Esto implica que R() debe ser
de la forma

R() = Cn Jn () + Dn Jn (). (5.75)

As, para este caso se tiene las soluciones

,n (, , z) = a ez + b ez An ein + Bn ein (Cn Jn () + Dn Jn ()) .


 

Por lo tanto, si el potencial es univaluado y ademas finito en el origen, debe


ser una combinacion lineal de potenciales de la forma

,n (, , z) = a ez + b ez An ein + Bn ein Jn ().


 

5.6.1. Ejemplo
Veamos un problema de electrostatica.

89
Supongamos que tenemos un cilindro de radio R y altura h. La tapa inferior
del cilindro y la superficie lateral tiene pontencial cero, mientras que la tapa
superior tiene potencial V (, ). Calcularemos el potencial electrico en el in-
terior del cilindro suponiendo que no hay cargas en esa region.

Por simplicidad, pondremos el eje del cilindro en el eje z y la tapa inferior


la pondremos sobre el plano x y. En este sistema las condiciones de borde
son

(, , 0) = 0, (R, , z) = 0, (, , h) = V (, ). (5.76)

Como no hay fuentes dentro del cilindro, el potencial deber ser finito en el
interior. Ademas como el potencial debe ser univaluado, este debe ser de la
forma

,n (, , z) = a ez + b ez An ein + Bn ein Jn ().


 

R() = Cn Jn (). (5.77)

Adicionalmente, como se debe cumplir la condicion de borde (R, , z) = 0,


se tiene que

R(R) = Cn Jn (R) = 0, (5.78)

que implica
nm
R = nm , = . (5.79)
R

90
Donde nm es la raz m-esima la funcion de Bessel de orden n. As, la funciones
R() son de la forma
 
nm
R() = Cn Jn . (5.80)
R
Note que Eq. (5.79) implica que Z(z) tome la forma
nm z nm z
Z(z) = anm e R + bnm e R (5.81)

Mientras que la condicion de borde (, , 0) = 0 implica que

Z(0) = (anm + bnm ) = 0, (5.82)

por lo tanto,
 
 nm z
nm z
 nm z
Z(z) = anm e R e R = Anm sinh . (5.83)
R
As, la solucion mas general de la ecuacion de Laplace que satisface las condi-
ciones de borde (, , 0) = (R, , z) = 0, es
   
XX nm z nm
(, , z) = sinh Jn (Anm cos n + Bnm sin n) .
n0 m0
R R

Para determinar los coeficientes Anm , Bnm debemos imponer la condicion de


borde faltante:

(, , h) = V (, )
   
XX nm h nm
= sinh Jn (Anm cos n + Bnm sin n) .
n0 m0
R R

Ahora, se puede probar que si k y l son naturales se cumplen las integrales


Z 2 Z 2 Z 2
d cos k cos l = d sin k sin l = kl , d cos k sin l = 0,
0 0 0

por lo que, usando Eq. (5.61), se encuentra


Z 2 Z 1      
kl XX nm h
d d sin kJk V (, ) = sinh Bnm
0 0 R R n0 m0
R
Z 2 Z 1      
kl nm
d sin k sin n d Jk Jn
0 0 R R R

91
  Z 1      
XX nm h kl nm
= sinh Bnm kn d Jk Jn
n0 m0
R 0 R R R
  Z 1      
X km h kl km
= sinh Bkm d Jk Jk
m0
R 0 R R R
   
X km h 1 2 kl h
= sinh Bkm lm (Jk+1 (kl ) = sinh Bkl (Jk+1 (kl ))2 ,
m0
R 2 R

entonces
Z 2 Z 1    
2 kl
Bkl =   d d sin kJk V (, ).
kl h 2 R R
sinh R
(Jk+1 (kl ) 0 0

De la misma forma se obtiene


Z 2 Z 1    
2 kl
Akl =   d d cos kJk V (, ).
sinh kl h
R
(Jk+1 (kl ))2 0 0 R R

5.7. Ecuaciones tipo Bessel


Existen varias ecuaciones que se pueden reducir a la ecuacion de Bessel.
Por ejemplo, si R(z) es solucion de la ecuacion de Bessel, la funcion

u(z) = z c R(az b )

es una solucion de la ecuacion


d2 u(z) du(z)
z2 2 2 2b 2 2 2

+ (2c + 1)z + a b z + c b u(z) = 0. (5.84)
dz 2 dz
Para probar esta afirmacion tomaremos el cambio de variable w = az b , de
donde
 w  1b
z = , (5.85)
a
dz z z 1b
= = , (5.86)
dw bw ba
R(w) = z c u(z).

Por lo que
zc
w2 2 R(w) = a2 z 2b 2 z c u(z) = 2 a2 b2 z 2b 2 b2 u(z),
  
b
92
dR(w) d dz d c
= (z c u(z)) = (z u(z))
dw dw   dw dz
z 1b
 
c1 c du(z)
= cz u(z) + z
ab dz
 
1 cb cb+1 du(z)
= cz u(z) + z
ab dz
c
zc
   
dR(w) z du(z) du(z)
w = cu(z) + z = 2 cbu(z) + zb
dw b dz b dz
2
  
d R(w) dz d 1 du(z)
2
= cz cb u(z) + z cb+1
dw dw dz ab dz

1 du(z)
= c(c b)z cb1 u(z) + (2c b + 1)z cb
ab dz
2

d u(z)
+z cb+1
dz 2
2
zc 2
 
2 d R(w) du(z) 2 d u(z)
w = 2 c(c b)u(z) + (2c + 1 b)z +z .
dw2 b dz dz 2
De donde, como R(w) satisface la ecuacion de Bessel, se encuentra
d2 R(w) dR(w)
0 = w2 2 2

+ w + w R(w)
dw2 dw
zc 2
 
du(z) 2 d u(z)
= 2 c(c b)u(z) + (2c + 1 b)z +z
b dz dz 2
zc zc
 
du(z)
+ 2 a2 b2 z 2b 2 b2 u(z)

+ 2 cbu(z) + zb
b dz b
zc 2
 
2 d u(z) du(z) 2 2 2b 2 2 2

= 2 z + (2c + 1)z + a b z + c b u(z) = 0.
b dz 2 dz
Lo que implica que la funcion u(z) es solucion de Eq. (5.84). Este resultado
tiene varias aplicaciones. Por ejemplo, consideremos la ecuacion de Airy
d2 u(z)
+ zu(z) = 0. (5.87)
dz 2
Note que si
1 3 2 1
c= , b= , a= , = (5.88)
2 2 3 3
Eq. (5.84) se convierte en Eq. (5.87). Por lo tanto, la solucion general de la
ecuacion de Airy es
3
! 3
!!
1 2|z| 2 2|z| 2
u(z) = |z| 2 AJ 1 + BJ 1 , (5.89)
3 3 3 3

93
con A y B constantes.

5.7.1. Partcula cuantica en una fuerza constante


La ecuacion de Schrodinger para una partcula en una fuerza constante, F,
es
~2 2
 
F x (x) = E(x). (5.90)
2m x2

Con el cambio de variable


  13  
2mF E
z= x+ (5.91)
~2 F

se obtiene
 13  13
~2
 
E 2mF
x=z , = , (5.92)
2mF F x ~2 x

por lo que Eq. (5.90) toma la forma


 2 

+ z (z) = 0, (5.93)
z 2

que es la ecuacion de Airy. Entonces, considerando (5.89), se tiene


 1 1  1 3 !
2mF 3 E 2 8mF 2 E 2
(x) = x + AJ 1 x +
~2 F 3 9~2 F
1 3 ! 
8mF 2 E 2
+BJ 1 2 x + (5.94)
3 9~ F

que es la funcion de onda del sistema.

5.8. Mecanica cuantica conforme


La ecuacion de Schrodinger para la llamada cuantica conforme es [20, 21]

~2 2
 
(x, t) g
i~ = + (x, t). (5.95)
t 2m x2 x2

94
Este sistema tiene aplicaciones en diferentes areas de la fsica. En este caso
tomaremos la propuesta
Et
(x, t) = ei ~ (x), (5.96)

de donde (5.95) toma la forma

~2 2
 
g
E(x) = + (x), (5.97)
2m x2 x2

la cual se puede escribir como


 2  
2mE 2mg
+ 2 2 (x) = 0. (5.98)
x2 ~2 ~x

Se puede observar que tomando las constantes


r r
1 2mE 1 2mg
c = , b = 1, a= 2
, = + 2 (5.99)
2 ~ 4 ~
en la ecuacion (5.84) se obtiene (5.87). Por lo tanto,
r !
1 2mE
(x) = A|x| 2 Jq 1 + 2mg x . (5.100)
4 ~2 ~2

con A una constante. Entonces, la funcion de onda de la mecanica cuantica


conforme es
r !
Et 1 2mE
(x, t) = Aei ~ |x| 2 Jq 1 + 2mg x . (5.101)
4 ~2 ~2

5.9. Ecuacion de Fick-Jacobs


En diferentes sistemas es importante el estudio de difusion de partculas
en un medio. El modelo de disfusion mas simple esta dado por la ecuacion de
Fick
C(x, t) 2 C(x, t)
=D . (5.102)
t x2
Aqu C(x, t) es la concentracion de partculas y D es el coeficiente de difusion.
Si D es una constante, la ecuacion de Fick es equivalente a la ecuacion de calor

95
(14.36), as la ecuacion de Fick se puede resolver con las tecnicas usadas pa-
ra resolver esta ultima ecuacion. Mas adelante se estudiara la ecuacion de calor.

Cuando la difusion se da en canales la geometra de este es importante y la


ecuacion de Fick ya no es valida. Para el caso en que el canal tiene la forma de
una superficie de revolucion, donde el area de la seccion transversal es A(x), la
ecuacion de Fick se debe cambiar por la llamada ecuacion de Fick-Jacobs [22]
  
C(x, t) C(x, t)
= D(x)A(x) . (5.103)
t x x A(x)

Claramente esta ecuacion es mas sofisticada que la ecuacion de Fick (5.102).

Existen caso en los cuales la ecuacion de Fick-Jacobs se puede escribir como


una ecuacion de Schrodinger. Por ejemplo, si

D(x) = D0 = constante,

usando la propuesta p
C(x, t) = A(x)(x, t)
se obtiene
" !#
(x, t) 2 D0 1 A(x)
= D0 2 p p (x, t). (5.104)
t x 2 A(x) x A(x) x

Por lo tanto proponiendo la solucion (x, t) = eEt (x), se llega a la ecuacion


de Schrodinger

E(x) = H(x), (5.105)

con
!
2 D0 1 A(x)
H = D0 2 + p p . (5.106)
x 2 A(x) x A(x) x

Para el caso particular de canales con seccion transversal de la forma

A(x) = (a + x)2 (5.107)

el Hamiltoniano es
2 g
H = D0 2 + , g = 2 D0 ( 1) . (5.108)
x (a + x)2

96
Por lo que, usando el cambio de variable

z = a + x, (5.109)

se llega a

2 g
H = D0 2 2
+ 2, g = 2 D0 ( 1) . (5.110)
z z
Por lo tanto, la ecuacion a resolver es
2
 
2 g
E(x) = D0 + (x), g = 2 D0 ( 1) , (5.111)
z 2 z 2

que tiene la misma forma que la ecuacion (5.97). Entonces, usando los resulta-
dos de la seccion previa, se encuentra que concentracion de partculas esta dada
por
r !
2+1 E
C (x, t) = BeEt (a + x) 2 J( 21 ) (a + x) , (5.112)
2 2 D0

donde B es una constante.

97
Captulo 6

Elementos de Algebra Lineal

En este captulo veremos algunas herramientas del algebra lineal. Este


captulo es importante para entender los captulos posteriores. Tambien es im-
portante para entender los principios de la mecanica cuantica, as como para
resolver ecuaciones diferenciales.

6.1. Espacios vectoriales


Un espacio vectorial se define con un conjunto V, un campo K y dos
operaciones
+ : V V V, (6.1)
: K V V. (6.2)
Esta operaciones deben cumplir que si u, v pertenecen a V, entonces u + v
pertenece a V y si pertenece a K, entonces (, v) = v pertenece a V.
Ademas, se debe cumplir
1) u, v V, u + v = v + u, (6.3)
2) u, v, w V, (u + v) + w = u + (v + w), (6.4)
3) u, v V, , K, (u + v) = u + v, (6.5)
4) v V, , K, ( + )v = v + v, (6.6)
5) v V, , K, ()v = (v), (6.7)
6) 0 V tal que v V, 0 + v = v, (6.8)
7) v V, v V, tal que v + (v) = 0, (6.9)
8) v V, ev = v, (6.10)
aqu e representa el neutro multiplicativo de K.

98
6.2. Ejemplos
Ahora, veremos algunos ejemplos de espacios vectoriales. El lector puede
verificar que los siguientes espacios cumplen las reglas de espacios vectoriales.

6.2.1. Cn
Supongamos que C es el conjunto de los numeros complejos. Un ejemplo
de espacio vectorial son los arreglos de la forma
Cn = {(c1 , c2 , , cn ), ci C}. (6.11)
Si se tienen dos vectores de Cn ,
(c1 , c2 , , cn ), (d1 , d2 , , dn ) (6.12)
la suma se define como
(c1 + d1 , c2 + d2 , , cn + dn ). (6.13)
Mientras que si es un numero complejo, el producto por un escalar se define
como
(c1 , c2 , , cn ) = (c1 , c2 , , cn ). (6.14)

6.2.2. Sucesiones
Una generalizacion de Cn es tomar el lmite n , que nos da el espacio
de sucesiones
{an }
n=0 , an C. (6.15)
Para este caso debemos pedir que
X
|an |2 < . (6.16)
n0

As, si se tienen dos sucesiones


{an }
n=0 , {bn }
n=0 , an , bn C (6.17)
la suma se define como
{an + bn }
n=0 . (6.18)
Mientras que si es un numero complejo, el producto por un escalar se define
como
{an }
n=0 = {an }n=0 . (6.19)

99
6.2.3. Matrices
Otra generalizacion de Cn es el espacio de matrices M(nm) de entradas
complejas

M11 M12 M1m
M21 M22 M2m
M = , Mij C, i = 1, n, j = 1, , m.

.. .. . . ..
. . . .
Mn1 Mn2 Mnm

Si se tienen dos matrices


M11 M12 M1m N11 M12 N1m
M21 M22 M2m N21 M22 N2m
M = .. , N = .. ,(6.20)

.. .. .. .. .. ..
. . . . . . . .
Mn1 Mn2 Mnm Nn1 Nn2 Nnm

La suma se define como



M11 + N11 M12 + N12 M1m + N1m
M21 + N21 M22 + N22 M2m + N2m
M +N = . (6.21)

.. .. . . ..
. . . .
Mn1 + Nn1 Mn2 + Nn2 Mnm + Nnm

Mientras que el producto por un escalar, C, se define como



M11 M12 M1m
M21 M22 M2m
M = .. .

.. .. . .
. . . .
Mn1 Mn2 Mnm

6.2.4. Funciones
Otro ejemplo de espacio vectorial es el espacio de funciones f : [a, b] C.
Supongamos que tenemos dos funciones

f : [a, b] C, g : [a, b] C, (6.22)

la suma se define como

f + g : [a, b] C, (6.23)

100
con la regla de correspondencia

(f + g) (x) = f (x) + g(x), x [a, b]. (6.24)

Mientras que el producto por un escalar, C, se define como

f : [a, b] C, (6.25)

con la regla de correspondencia

(f ) (x) = f (x), x [a, b]. (6.26)

6.3. Producto escalar


Una operacion importante entre vectores es el producto escalar. Este pro-
ducto manda dos vectores a un numero complejo

h|i : V V C, (6.27)

y debe satisfacer los axiomas:

) v V hv|vi 0, hv|vi = 0 v = 0, (6.28)


) v, u, w V hv + u|wi = hv|wi + hu|wi , (6.29)
) v, u V, C hv|ui = hv|ui , (6.30)
) v, u V, hv|ui = (hu|vi) . (6.31)

Existen diferentes implicaciones de estos axiomas. Por ejemplo, para cualquier


vector v se cumple hv|0i = 0. En efecto sabemos que v v = 0, entonces

hv|0i = hv|v vi = hv|vi hv|vi = 0. (6.32)

Otra implicacion es que si es un numero complejo y v1 , v2 dos vectores,


entonces se cumple

hv1 |v2 i = hv1 |v2 i . (6.33)

Esta igualdad es correcta pues considerando Eq. (6.30) y Eq. (6.31) se encuen-
tra

hv1 |v2 i = (hv2 |v1 i) = ( hv2 |v1 i) = (hv2 |v1 i)


= hv1 |v2 i .

101
Ademas, si v y w son dos vectores, entonces
hv + w|v + wi + hv w|v wi = hv + w|v + wi
+ hv w|v wi
= hv|v + wi + hw|v + wi + hv|v wi hw|v wi ,
= hv|vi + hv|wi + hw|vi + hw|wi + hv|vi hv|wi
hw|vi + hw|wi
= 2 (hv|vi + hw|wi) ,
es decir
hv + w|v + wi + hv w|v wi = 2 (hv|vi + hw|wi) , (6.34)
que es la llamada igualdad del paralelogramo.

Antes de ver otras propiedades del producto escalar veremos algunos ejem-
plos de ellos.

6.4. Ejemplos de producto escalar


6.4.1. Producto escalar en Cn
Si tenemos dos vectores en Cn , v = (v1 , v2 , . . . , vn ) y w = (w1 , w2 , . . . , wn ),
el producto escalar se define como
n
X
hv|wi = vi wi . (6.35)
i=1

Note que a los vectores v y w se les puede asignar las matrices columna

v1 w1
v2 w2
v = .. , w = .. , (6.36)

. .
vn wn

por lo que

w1
n
T
X  w2
hv|wi = v w = vi wi = v1 v2 vn . (6.37)

..
i=1
.
wn

102
6.4.2. Sucesiones
P Si tenemos dos
Psucesiones s1 = {an }
n=0 y s2 = {bn }n=0 donde an , bn C y
2 2
n0 |an | < , n0 |bn | < , se puede definir el producto escalar como
X
hs1 |s2 i = an bn , (6.38)
n0

note que este es una generalizacion del producto escalar entre vectores.

6.4.3. Matrices
En el espacio vectorial de las matrices de entradas complejas de n n
tambien es posible definir un producto escalar. Antes de definir este producto
recordemosPque si M es una matriz de entradas Mij , la traza se define como
T r(M ) = ni=1 Mii . Tambien recordemos que las entradas de la matriz trans-
puesta M T se definen como (M T )ij = Mji . Ademas si N es otra Pn matriz de
n n las entradas de la matriz producto, M N, son (M N )ij = k=1 Mik Nkj .
De estas definiciones es claro que
T r M T = T r (M ) , T r(M + N ) = T r(M ) + T r(N ),


T r(N M ) = T r(M N ), (M N )T = N T M T ,
en efecto
n
X n
X
T T
 
Tr M = M ii
= Mii = T r (M ) ,
i=1 i=1
n
X n
X n
X n
X
T r(M + N ) = (M + N )ii = (Mii + Nii ) = Mii + Nii
i=1 i=1 i=1 i=1
= T r(M ) + T r(N ),
Xn Xn Xn n X
X n
T r (M N ) = (M N )aa = Mab Nba = Nba Mab
a=1 a=1 b=1 a=1 b=1
n n
! n
X X X
= Nba Mab = (N M )bb = T r(N M ),
b=1 a=1 b=1
n
X n
X
T

(M N ) ij
= (M N )ji = Mjk Nki = Nki Mjk
k=1 k=1
n
X
T T
= NT MT
  
= N ik
M kj ij
.
k=1

103
Definiremos el producto escalar entre matrices como
hM |N i = T r M T N .

(6.39)
El primer axioma se cumple, pues
n
X n X
X n
T T
M T
  
hM |M i = T r M M = M M ii
= ik
Mki
i=i i=1 k=1
n X
X n n X
X n

= Mki Mki = |Mik |2 0. (6.40)
i=1 k=1 i=1 k=1

De donde, si hM |M i = 0, entonces Mik = 0, es decir M = 0.

Ademas, si N1 y N2 son matrices de n n,


hM |N1 + N2 i = T r M T (N1 + N2 ) = T r M T N1 + M T N2
 

= T r M T N1 + T r M T N2
 

= hM |N1 i + hM |N2 i .
Por lo que se cumple el segundo axioma de producto escalar.

Tambien se puede observar que si es un numero complejo, entonces


n
X n
X
T T
M T N
  
hM |N i = T r M N = M N ii
= ii
i=i i=i
= T r M T N = hM |N i .

(6.41)
Adicionalmente, se encuentra
 T 
hM |N i = T r M T N = T r M T N = T r NT M
 
  
T r NT M = T r N T M = (hN |M i) .

=
Por lo tanto, (6.39) es un producto escalar para el espacio vectorial de las
matrices de n n.

6.4.4. Funciones
Si q(x) es una funcion real, continua y positiva en el intervalo (a, b), para
el espacio vectorial de las funciones continuas, {f }, que va del intervalo [a, b]
a los complejos, tales que
Z b
dxq(x)f (x)f (x) < , (6.42)
a

104
se puede definir el producto escalar como
Z b
hf |gi = dxq(x)f (x)g(x). (6.43)
a
Considerando las propiedades del q(x) y f (x), el primer axioma de producto
escalar se cumple pues
Z b Z b

hf |f i = dxq(x)f (x)f (x) = dxq(x)|f (x)|2 0,
a a
Z b Z b
hf |f i = dxq(x)f (x)f (x) = dxq(x)|f (x)|2 = 0 f (x) = 0.
a a
El segundo axioma de producto escalar se cumple, en efecto
Z b
hf |g1 + g2 i = dxq(x)f (x) (g1 (x) + g2 (x))
a
Z b
= dxq(x) (f (x) g1 (x) + f (x) g2 (x))
a
Z b Z b

= dxq(x)f (x) g1 (x) + dxq(x)f (x) g2 (x)
a a
= hf |g1 i + hf |g2 i .
Los axiomas restantes tambien se cumplen, para probar esta afirmacion su-
pongamos que es un numero complejo, entonces
Z b Z b

hf |gi = dxq(x)f (x)g(x) = dxq(x)f (x)g(x) = hf |gi ,
a a
Z b Z b 

hf |gi = dxq(x)f (x)g(x) = dx (q(x)f (x)g(x))
a a
Z b 
= dxq(x)g (x)f (x) = (hg|f i) .

a
Por lo tanto, Eq. (6.43) es un producto escalar para el espacio vectorial de las
funciones.

6.5. Ortonormalidad e independencia lineal


Se dice que un conjunto de vectores {vi }ni=1 = {v1 , v2 , , vn } es linealmente
independiente si cualquier combinacion lineal de la forma
Xn
0= ai v i , (6.44)
i=1

105
implica ai = 0. Ademas, ee dice que un conjunto de vectores, {vi }ni=1 , es orto-
normal si
hvi |vj i = ij , i, j = 1, 2, . . . , n. (6.45)
Si un conjunto de vectores es ortonomal, entonces es linealmente independiente.
En efecto, supongamos que {a1 , a2 , , an } son un conjunto de escalares tales
que se cumple Eq. (6.44), entonces como los vectores son ortonormales,
* n + n n
X X X
0 = hvj |0i = vj ai vi = hvj |ai vi i = ai hvj |vi i
i=1 i=1 i=1
n
X
= ai ij = aj ,
i=1

es decir ai = 0, lo que completa la prueba.

Un conjunto de vectores ornormal, {vi }ni=1 , tiene varias propiedades intere-


santes.P
Por ejemplo, si v es una combinacion lineal de estos vectores, es decir
si v = ni=1 ai vi , se cumple
n
X
hv|vi = |ai |2 . (6.46)
i=1

En efecto
* n n + n X
n
X X X
hv|vi = ai vi aj vj = hai vi |aj vj i
i=1 j=1 i=1 j=1
n
XX n n
XX n n
X
= ai aj hvi |vj i = ai aj ij = |ai |2 . (6.47)
i=1 j=1 i=1 j=1 i=1

6.6. Teorema de Pitagoras


Supongamos que v es un vector y {vi }ni=1 es un conjunto de vectores orto-
normales, entonces el vector
n
X
w1 = hvi |vi vi
i=1

es ortonormal a n
X
w2 = v hvj |vi vj .
j=1

106
Esta afirmacion se satisface, pues
* n ! n
!+
X X
hw1 |w2 i = hvi |vi vi | v hvj |vi vj
i=1 j=1
* n
! +
X
= hvi |vi vi |v
i=1
* n
! n
!+
X X
hvi |vi vi | hvj |vi vj
i=1 j=1
n
X
= hvi (hvi |vi) |vi
i=1
n X
X n
h(hvi |vi vi ) | (hvj |vi vj )i
i=1 j=1
n
X n X
X n
= hvi |vi hvi |vi hvi |vi hvj |vi hvi |vj i
i=1 i=1 j=1
Xn Xn X n
= hvi |vi hvi |vi hvi |vi hvj |vi ij
i=1 i=1 j=1
Xn Xn
= hvi |vi hvi |vi hvi |vi hvi |vi = 0.
i=1 i=1

Ademas, ocupando que {vi }ni=1 es un conjunto de vectores ortonormales se


cumple
n
X
hw1 |w1 i = | hvi |vi |2 . (6.48)
i=1

Adicionalmente, se puede notar que


v = w1 + w2 , (6.49)
considerando que w1 y w2 son vectores ortonormales, se puede probar que
hv|vi = hw1 |w1 i + hw2 |w2 i . (6.50)
Tomando en cuenta los resultados anteriores, claramente se cumple que si {vn }
es un conjunto de vectores ortonormales, para cualquier vector v se tiene que
n
* n
! n
!+
X X X
hv|vi = | hvi |vi |2 + v hvi |vi vi v hvi |vi vi . (6.51)
i=1 i=1 i=1

107
6.6.1. Desigualdad de Bessel
Note que el teorema de Pitagoras implica la desigualdad
n
X
| hvi |vi |2 hv|vi , (6.52)
i=1

que es la llamada desigualdad de Bessel.

6.6.2. Desigualdad de Schwarz


Sea w un vector diferente de cero, claramente el conjunto formado por
{ w } es ortonormal. Entonces, de acuerdo a la desigualdad de Bessel Eq.
hw|wi
(6.63), para cualquier vector v se cumple
* + 2
w
|hw|vi|2 hw|wi hv|vi


p v hv|vi , = (6.53)
hw|wi
que implica
p p
|hw|vi| hw|wi hv|vi. (6.54)
Esta es la llamada desigualdad de Schwarz.

6.6.3. Desigualdad del triangulo


Sean v y w dos vectores, entonces
hv + w|v + wi = hv + w|v + wi = hv|v + wi + hw|v + wi
= hv|vi + hv|wi + hw|vi + hw|wi
= hv|vi + hw|wi + (hw|vi + hw|vi)
= hv|vi + hw|wi + 2Re (hw|vi)
hv|vi + hw|wi + 2| hw|vi |. (6.55)
De donde, ocupando desigualdad de Schwarz Eq. (6.64) se tiene
p p
hv + w|v + wi hv|vi + hw|wi + 2 hw|wi hv|vi
p p 2
= hw|wi + hv|vi , (6.56)

es decir
p p 2
hv + w|v + wi hw|wi + hv|vi (6.57)

esta es la llamada desigualdad del triangulo.

108
6.7. Espacios normados
Sea V un espacio vectorial y || || una funcion de V en los reales. Se dice
que (V, || ||) es un espacio normado si
I) ||v|| 0,
II) ||v|| = 0, v = 0,
III) ||v|| = ||||v||,
IV ) ||v + w|| ||v|| + ||w||.
(6.58)
Note que si V es un espacio vectorial con producto escalar, entonces se
puede definir un espacio normado con la norma dada por
p
||v|| = hv|vi. (6.59)
En efecto, las propiedades I) y II) se cumplen, pues por los axiomas de pro-
ducto escalar se tiene que hv|vi 0 y hv|vi = 0 v = 0. La propiedad
III) se cumple pues, si es un escalar, se tiene
p p p
||v|| = hv|vi = hv|vi = ||2 hv|vi
p
= || hv|vi = || ||v||. (6.60)
La propiedad IV ) tambien se cumple pues, ocupando la desigualdad del triangu-
lo se encuentra
p 2
hw|wi + hv|vi = (||w|| + ||v||)2 ,
p
||v + w||2 = hv + w|v + wi

es decir
||v + w|| ||w|| + ||v||.
Por lo tanto, un espacio vectorial
p con producto escalar es un espacio normado
con la norma dada por ||v|| = hv|vi.

Note que ocupando la notacion de espacios normados la igualdad del pa-


ralelogramos toma la forma
||v + w||2 + ||v w||2 = 2 ||v||2 + ||w||2 .

(6.61)
Mientras que, si {vi }ni=1 es un conjunto de vectores ortonormales, el teorema
de Pitagoras se puede escribir como
n
n
2
X X
||v||2 = | hvi |vi |2 + v hvi |vi vi . (6.62)


i=1 i=1

109
Ademas, la desigualdad de Bessel toma la forma
n
X
| hvi |vi |2 ||v||2 , (6.63)
i=1

y la desigualdad de Schwarz es
|hw|vi| ||w|| ||v||. (6.64)

6.7.1. Espacios metricos


Sea un conjunto M y d una funcion de M M en los reales. Se dice que
(M, d) es un espacio metrico si satisface que x, y M se cumple
A) d(x, y) 0,
B) d(x, y) = 0, x = y,
C) d(x, y) = d(y, x),
D) d(x, z) d(x, y) + d(y, z).
(6.65)
A la funcion d se le llama distancia.

Si V es un espacio normado, entonces se tiene un espacio metrico con la


distancia definida por
d(v1 , v2 ) = ||v1 v2 ||. (6.66)
Los dos primeros axiomas de distancia se cumplen, pues
d(v1 , v2 ) = ||v1 v2 || 0 y d(v1 , v2 ) = ||v1 v2 || = 0 v1 v2 = 0,
es decir v1 = v2 . Tambien se cumple,
d(v1 , v2 ) = ||v1 v2 || = ||()(v2 v1 )|| = |()| ||v2 v1 || = ||v2 v1 ||
= d(v2 , v1 ),
por lo tanto, se cumple el axioma C). Ademas, por la desigualdad del triangulo,
se tiene
d(v1 , v3 ) = ||v1 v3 || = ||(v1 v2 ) + (v2 v3 )|| ||v1 v2 || + ||v2 v3 ||
= d(v1 , v2 ) + d(v2 , v3 ),
de donde se cumple el axioma D).

As, un espacio normado es metrico. Lo que quiere decir que cualquier


espacio con producto escalar es normado y por lo tanto metrico.

110
6.8. Ejemplos de bases ortonormales
En esta seccion veremos diferentes conjuntos de funciones que forman una
base ortonormal.

6.8.1. Exponencial compleja


Sea el conjunto de funciones

ein
n () = (6.67)
2
definidas en el intervalo [0, 2], aqu n es un numero entero. Este conjunto de
funciones es ortonormal. En efecto
Z 2 Z 2
1
hn ()|m ()i = d (n ()) m () = dei(mn) . (6.68)
0 2 0

Si m = n, es claro que
Z 2 Z 2
1 i(nn) 1
de = d = 1. (6.69)
2 0 2 0
Adicionalmente, si n 6= m se tiene
Z 2 2
1 1 1
dei(mn) = ei(mn)

2 0 2 i(n m) 0
1 1
(1)2(mn) 1 = 0.

=
2 i(m n)
Por lo tanto,

hn ()|m ()i = mn , (6.70)

es decir, el conjunto Eq. (6.67) es ortonormal y entonces linealmente indepen-


diente.

6.8.2. Ecuaciones tipo Sturm-Liouville


Anteriormente vimos que si (1 (x), 1 ) , (2 (x), 2 ) son soluciones de la
ecuacion de Sturm-Liouville
 
d d(x)
p(x) + (q(x) + r(x)) (x) = 0 (6.71)
dx dx

111
que satisfacen la condiciones de Dirichlet

(a) = (b) = 0 (6.72)

o las de Neumann
d(x) d(x)
= =0 (6.73)
dx x=a dx x=b

o bien que p(x) cumpla

p(a) = p(b) = 0, (6.74)

se encuentra que
Z b
(1 2 ) dxq(x)2 (x)1 (x) = 0.
a

En particular note que si 1 6= 2 se tiene


Z b
dxq(x)2 (x)1 (x) = 0, (6.75)
a

Ademas, se puede ver que la integral


Z b
dxq(x)1 (x)1 (x) = , (6.76)
a

es positiva, es decir > 0. Por lo que, si < , el conjunto de funciones

(x)
(6.77)

cumplen
Z b
dxq(x)1 (x)2 (x) = 1 2 . (6.78)
a

Se dice que las soluciones de Eq. (6.71) que satisfacen alguna de las condiciones
Eqs. (6.72)-(6.74) son un conjunto de funciones ortonormales con funcion de
peso q(x).

112
6.8.3. Ecuacion de Schrodinger en una dimension
Supongamos que V (x) es una funcion real, la ecuacion de Schrodinger en
el intervalo [a, b] es
~2 2
 
H(x) = + V (x) (x) = E(x), (6.79)
2m x2
donde E es una constante real a determinar y se deben satisfacer las condiciones
de borde (a) = (b) = 0. Claramente este es un problema tipo Sturm-Lioville
con condiciones de Dirichlet. Por lo que si E (x) es solucion con la constante
E y E 0 (x) es solucion con la contante E 0 , entonces
Z b
hE (x)|E 0 (x)i = dxE (x)E 0 (x) = EE 0 . (6.80)
a

Por lo tanto, las soluciones de la ecuacion de Schrodinger en una dimension


forman un conjunto de funciones ortonormales.

6.8.4. Ecuacion de Schrodinger en tres dimensiones


Para la ecuacion de Schrodinger en tres dimensiones se tiene el mismo
resultado. Veamos este caso, si U (x, y, z) es una funcion real, la ecuacion de
Schrodinger es
~2 2
 
H(x, y, z) = + U (x, y, z) (x, y, z) = E(x, y, z). (6.81)
2m
Supondremos que esta ecuacion esta definida en una region de volumen V cuya
frontera es , por lo que la condicion de Dirichlet es (x, y, z)| = 0.

Si E (x, y, z) es solucion con la constante E y E 0 (x, y, z) es solucion con


la contante E 0 , entonces
~2 2
 
+ U (x, y, z) E (x, y, z) = EE (x, y, z), (6.82)
2m
~2 2
 
+ U (x, y, z) E 0 (x, y, z) = E 0 E 0 (x, y, z). (6.83)
2m
El complejo conjugado de la seguda ecuacion es
~2 2
 
+ U (x, y, z) E 0 (x, y, z) = E 0 E 0 (x, y, z), (6.84)
2m

113
Por lo tanto, multiplicando E 0 por Eq. (6.82) y E por Eq. (6.84) se encuentra
~2 2
0 E + U (x, y, z)E 0 E = EE 0 E ,
2m E
~2
E 2 E 0 + U (x, y, z)E E 0 = E 0 E E 0 ,
2m
Ahora, considerando la igualdad
     
~ ~
f g = f ~ ~
g + f 2 g, (6.85)
se llega a
     
~ f g
f 2 g = ~ ~
f ~
g , (6.86)
por lo tanto
~2  ~  ~  ~ ~ 
E 0 E E 0 E + U E 0 E = EE 0 E ,
2m
~2  ~  ~  ~ 
~ E 0 + U E E 0 = E 0 E E 0 ,
E E 0 E
2m
restando estas ecuaciones se encuentra
~2 ~  ~ 
~ 0 = (E E 0 ) 0 E .
E 0 E E E E
2m
Integrando esta ultima ecuacion sobre el volumen V y usando el teorema de
Gauss Eq. (1.6), se tiene
~2
Z I  
0
(E E )
dvE 0 E = ~ E E
da E 0 ~ 0 n = 0, (6.87)
E
V 2m
es decir
Z
0
(E E ) dvE 0 E = 0. (6.88)
V

Por lo tanto, si E 6= E 0 , se llega a


Z
dvE 0 (x, y, z)E (x, y, z) = 0. (6.89)
V

Si la funciones de onda son tales que V dvE E = < , siempre se puede


R

tener un conjunto de funciones tales que


Z
dvE 0 (x, y, z)E (x, y, z) = EE 0 . (6.90)
V
Por lo tanto con las soluciones de la ecuacion de Schrodinger se puede formar
un conjunto ortonormal de funciones. Este resultado es fundamental para la
mecanica cuantica.

114
6.8.5. Armonicos esfericos
Otro ejemplo esta en las funciones propias del operado L2 ,

L2 Y (, ) = Y (, ),

que deben satisfacer

1 2 Y (, )
   
2 1 Y (, )
L Y (, ) = sin + = Y (, ).
sin sin 2 2

Por ahora no resolveremos esta ecuacion, pero veremos algunas de sus propie-
dades respecto a la ortonormalidad.

Propondremos Ym (, ) = ()(), de donde

() 2 ()
   
2 () ()
L Y (, ) = sin + = ()(),
sin sin 2 2

por lo que
!
sin2 L2 Y (, ) 1 2 ()
   
sin ()
= sin +
Ym (, ) () () 2
= sin2 , (6.91)

que implica
!
sin2 L2 Y (, ) 1 2 ()
 

= = 0, (6.92)
Ym (, ) () 2

entonces
1 2 ()
= m2 = constante, (6.93)
() 2
es decir
2 ()
2
= m2 (). (6.94)

Sustituyendo Eq. (6.93) en Eq. (6.91), se llega a
   
sin ()
sin m = sin2 ,
2
(6.95)
()

115
que se puede escribir como

m2
   
()
sin + sin () = 0. (6.96)
sin

Esta ecuacion depende de los parametros y m por lo que redefiniremos ()


como () = Pm (cos ). Note que Eq. (6.96) es tipo Sturm-Liouville con

m2
p() = sin , q() = sin , r() = . (6.97)
sin
Ademas como p(0)) = sin 0 = p() = sin = 0, las soluciones de Eq. (6.96)
son ortormales en el intervalo [0, ] con funcion de peso sin , es decir
Z
d sin Pm0 (cos )Pm (cos ) = m 0 , m = constante > 0. (6.98)
0

Note que las funciones

m () = A0 eim (6.99)

son soluciones de Eq. (6.94). En particular si todas las m son enteros el conjunto
de funciones
eim
m () = (6.100)
2
son ortonormales en intervalo [0, 2], como fue mostrado en Eq. (6.70). As, si
el conjunto de las m esta en los enteros, las funciones
1
Ym (, ) = eim Pm (cos ) (6.101)
m 2

son ortonormales. En efecto, considerando la ortonormalidad de las funciones


im
e
2
y Pm (cos ), se tiene
Z
hY0 m0 (, )|Ym (, )i = dY0 m0 (, )Ym (, )
Z 2 Z
= d d sin Y0 m0 (, )Ym (, )
0 0
Z 2 Z !
1 0 0 1
= d d sin eim Pm0 (cos ) eim Pm (cos )
0 0 0 m0 2 m 2

116
Z 2 Z
1 0 0 1
= d d sin eim Pm0 (cos ) eim Pm (cos )
0 0 0
m 0 2 m 2
 Z 2 Z
1 1 0 0
= deim eim d sin Pm0 (cos )Pm (cos )
0 m0 m 2 0 0
Z
1 0
= mm0 d sin Pm0 (cos )Pm (cos )
0 m0 m
Z 0
1
= mm0 d sin Pm0 (cos )Pm (cos )
0 m m 0
1
= mm0 m 0
0 m m
1
= m 0 = mm0 0 ,
m m
es decir
hY0 m0 (, )|Ym (, )i = mm0 0 . (6.102)
Aun no sabemos cual es la forma explcita las funciones Ym (, ), pero po-
demos decir que son un conjunto de funciones ortornales. Posteriormente ocu-
paremos este hecho para encontrar la forma explcita de estas funciones. Cabe
senalar que las funciones Ym (, ) son importantes para diferentes areas de la
fsica, como la mecanica cuantica y la electrodinamica.

6.9. Polinomios trigonometricos


Supongamos que {n (x)} n=0 es un conjunto de funciones ortonormales en
el intervalo [a, b], es decir
Z b
hn |m i = dxq(x)n (x)m (x) = nm , (6.103)
a

aqu q(x) es una funcion de peso positiva en el intervalo (a, b). Con este con-
junto de funciones podemos hacer las combinaciones lineales
n
X
Tn (x) = bi i (x), (6.104)
i=1

las cuales llamaremos polinomios trigonometricos. Note que debido a que


{n (x)}
n=0 es un conjunto de funciones ortonormales, la norma de Tn (x) es
n
X
2
||Tn || = |bi |2 . (6.105)
i=1

117
Rb
Sea F (x) una funcion tal que hF |F i = ||F ||2 = a dxq(x)|F (x)|2 < , enton-
ces definiremos los coeficientes de Fourier de F como
Z b
an = hn |F i = dxq(x)n (x)F (x). (6.106)
a

Ahora veremos que tanto se puede aproximar la funcion F (x) con polinomios
de la forma Tn (x). El sentido de la distancia en este espacio esta dada por la
norma de la funciones. As, el problema es encontrar los polinomios tales que
Z b
2 2
d (F, Tn ) = ||F Tn || = dxq(x)|F (x) Tn (x)|2 (6.107)
a

es mnimo. Basicamente se trata de encontrar los coeficientes bi que hacen


mnimo (6.107). Podemos iniciar notando que

d2 (F, Tn ) = ||F Tn ||2 = hF Tn |F Tn i


= hF |F i hF |Tn i hTn |F i + hTn |Tn i
= ||F ||2 + ||Tn ||2 hF |Tn i hTn |F i
* n
+ * n +
X X
= ||F ||2 + ||Tn ||2 F | bi i bi i |F
i=1 i=1
n
X n
X
= ||F ||2 + ||Tn ||2 bi hF |i i bi hi |F i ,
i=1 i=1

considerando la norma de Tn (x) y la definicion de los coeficientes de Fourier


se llega a
n
X
2 2
|bi |2 bi ai bi ai .

||F Tn || = ||F || + (6.108)
i=1

Ademas, como

|bi ai |2 = (bi ai )(bi ai ) = |bi |2 + |ai |2 (bi ai + bi ai ), (6.109)

se tiene

|bi ai |2 |ai |2 = |bi |2 (bi ai + bi ai ). (6.110)

De donde,
n
X n
X
2 2 2
||F Tn || = ||F || + |bi ai | |ai |2 . (6.111)
i=1 i=1

118
Claramente la distancia entre esta dos funciones es mnima cuando bi = ai , es
decir, cuando el polinomio tienen los coeficientes de Fourier.

Si bi = ai se encuentra
n
X
2 2
||F Tn || = ||F || |ai |2 0. (6.112)
i=1

Por lo que, para cualquier n


n
X
2
||Tn || = |ai |2 ||F ||2 < . (6.113)
i=1

Esta desigualdad Pse llama la desigualdad de Bessel, la cual implica que la su-
n
cesion ||Tn || = i=1 |ai |2 esta acotada.
2

Un resultado de calculo diferencial nos dice que si una sucesion es mono-


tona creciente y esta acotada, converge [17]. Note que la sucesion ||Tn ||2 es
monotona creciente y esta acotada, entonces converge. La pregunta es hacia
donde converge, supondremos sin demostrar que converge a ||F ||2 , es decir
n
X X
2
lm ||Tn || = lm |ai |2 = |an |2 = ||F ||2 . (6.114)
n n
i=1 n0

A esta igualdad se llama igualdad de Parseval. Demostrar esta igualdad es un


problema importante [3, 4], pero altamente no trivial y rebasa el proposito de
este escrito por lo que solo tocaremos este tema en casos particulares.

6.10. Espacios completos


Cuando se cumple la igualdad de Parseval se dice que el conjunto de fun-
ciones {n (x)}n0 es completo. En este caso cualquier funcion, F (x), con
||F || < se puede escribir como combinacion lineal de {n (x)}n0 , es de-
cir
X
F (x) = an n (x). (6.115)
n0

|an |2 converge, entonces


P
Un resultado de calculo diferencial es que si n0
an 0.

119
Esto tiene diferentes implicaciones fsicas. Por ejemplo, en mecanica cuanti-
ca significa que es mas probable que el sistema este en estado base. Mientras
que en electrostatica, significa que en un sistema de cargas los terminos mas im-
portantes son el monopolo, dipolo, cuadrupolo. Posteriormente veremos ejem-
plos concretos de esta afirmacion.

6.11. Operadores lineales


Sea V un espacio vectorial, una funcion O : V V es un operador lineal,
o transformacion lineal, si

v1 , v2 V, , K O (v1 + v2 ) = O (v1 ) + O (v2 ) . (6.116)

Por ejemplo, el operador derivada es lineal, pues



(f1 (x) + f2 (x)) = f1 (x) + f2 (x). (6.117)
x x x
Usando el producto por un escalar, con una funcion f (x) podemos definir un
operador lineal, O, de la forma:

O(v1 ) = f (x)v1 ,

claramente este operador es lineal, pues

O(v1 + v2 ) = f (x)(v1 + v2 ) = f (x)v1 + f (x)v2 ) = O (v1 ) + O (v2 ) .

Dada una funcion g(k, x) se puede definir una transformacion con la integral
Z b
f(k) = dxg(k, x)f (x). (6.118)
a

Esta transformacion es lineal, pues si definimos h(x) = f1 (x) + f2 (x) se


encuentra
Z b Z b
h(k) = dxg(k, x)h(x) = dxg(k, x) (f1 (x) + f2 (x))
a a
Z b Z b
= dxg(k, x)f1 (x) + dxg(k, x)f2 (x) = f1 (k) + f2 (k).
a a

A Eq. (6.119) se le llama transformada integral en base g(k, x).

120
Por ejemplo, con g(k, x) = eikx se define la transformada de Fourier
Z

f (k) = dxeikx f (x). (6.119)

Para cada funcion, g(k, x), bien portada se puede definir una transformada
integral.

Si tenemos dos transformaciones lineales, O1 y O2 , cualquier combinacion


lineal de ellas tambien es lineal. En efecto, si a y b son dos escalares podemos
construir la combinacion lineal
O = aO1 + bO2 , (6.120)
entonces
O (v1 + v2 ) = (aO1 + bO2 ) (v1 + v2 )
= aO1 (v1 + v2 ) + bO2 (v1 + v2 )
= a (O1 (v1 ) + O1 (v2 )) + b (O2 (v1 ) + O2 (v2 ))
= (aO1 (v1 ) + bO2 (v1 )) + (aO1 (v2 ) + bO2 (v2 ))
= (aO1 + bO2 ) (v1 ) + (aO1 + bO2 ) (v2 )
= O (v1 ) + O (v2 ) .
As, cualquier combinacion lineal de dos operadores lineales nos da otro ope-
rador lineal.

Ahora veamos el productor de dos operadores lineales, definamos


O = O1 O2 , (6.121)
entonces
O (v1 + v2 ) = (O1 O2 ) (v1 + v2 )
= O1 (O2 (v1 + v2 )) = O1 (O2 (v1 ) + O2 (v2 ))
= O1 (O2 (v1 )) + O1 (O2 (v2 ))
= (O1 O2 ) (v1 ) + (O1 O2 ) (v2 )
= O (v1 ) + O (v2 ) .
Por lo tanto, el producto de dos operadores lineales tambien nos da otro ope-
rador lineal. Por ejemplo, sabemos que los operadores

, , (6.122)
x y z

121
son lineales, entonces tambien lo son

2 2 2
, , . (6.123)
x2 y 2 z 2
Esto implica que el operador Laplaciano

2 2 2
2 = + + (6.124)
x2 y 2 z 2

sea lineal. Cualquier funcion V (x, y, z) como operador es lineal, entonces el


operador Hamiltoniano

~2 2
H= + V (x, y, z) (6.125)
2m
es lineal, esto se debe a que es combinacion lineal de opeadores lineales. Ademas
las variables

x, y, z (6.126)

como operadores son lineales. Entonces los operadores


     

Lx = i y z , Ly = i z x , Lz = i x y ,
z y x z y x

son lineales, puesto que son combinaciones lineales de productos de operadores


lineales. Por la misma razon el operador

L2 = L2x + L2y + L2z

es lineal.

6.12. Operador adjunto


Dado un operador A definiremos el operador adjunto, A , como el operador
que satisface

hAv|ui = v|A u ,


(6.127)

con u y v dos vectores arbitrarios.

122
6.12.1. Matrices
Por ejemplo, para Cn se tiene

hAv|ui = (Av)T u = v T AT u = v|A u = v T A u,




(6.128)

de donde, para una matriz cuadrada con entradas complejas la matriz adjunta
es

A = AT . (6.129)

6.12.2. Derivada
Para el espacio vectorial de las funciones, el adjunto de un operador de-
pende fuertemente del dominio, las condiciones de borde que se satisfacen y
del producto escalar. En el espacio de las funciones suaves e integrables (x)
definidas en el intervalo [a, b] y que cumplen (a) = (b) = 0. se puede definir
el operador

A= , (6.130)
x
con un numero complejo. Veamos cual es el operador adjunto de este ope-
rador, para ello tomaremos el producto escalar Eq. (6.43) con funcion de peso
q(x) = 1. En este caso se puede notar que
Z b Z b  

hA1 |2 i = dx(A1 (x)) 2 (x) = dx 1 (x) 2 (x)
a a x
Z b
(x)
= dx 1 2 (x)
a x
Z b 
(1 (x)2 (x))

2 (x)
= dx 1 (x)
a x x
b Z b  
2 (x)

= (1 (x)2 (x)) + dx1 (x)
a a x
Z b  

= dx1 (x) 2 (x),
a x

ahora
Z b
1 |A 2 = dx1 (x)A 2 (x),


a

123
entonces
 

= . (6.131)
x x

Note que este resultado depende fuertemente de que se cumpla (a) = (b) =
0.

6.12.3. Derivada con peso



Se puede observar que el adjunto del operador A = x no esta bien defi-
nido con un producto escalar general
Z b
hf |gi = dxq(x)f (x)g(x), q(x) > 0. (6.132)
a

Para este caso es mas conveniente ocupar el operador



A = , (6.133)
q(x) x

quien s tiene bien definido su adjunto. En efecto,


D E Z b
A1 |2 = dxq(x)(A1 (x)) 2 (x)
a
Z b  

= dxq(x) 1 (x) 2 (x)
a q(x) x
Z b Z b
1 (x)
 

= dx 2 (x) = dx1 (x) 2 (x),
a x a x
Z b

 

= dxq(x)1 (x) 2 (x) (6.134)
a q(x) x

ahora
D E Z b

1 |A 2 = dxq(x)1 (x)A 2 (x),
a

de donde

A = . (6.135)
q(x) x

124
6.12.4. Propiedades del operador adjunto
Hay dos propiedades importantes de los operadores adjuntos. La primera
propiedad esta relacionada con las suma. Si A, B son dos operadores lineales,
se tiene
D E
h(A + B) v|ui = v| (A + B) u , (6.136)
pero
h(A + B) v|ui = h(Av + Bv) |ui = hAv|ui + hBv|ui
= v|A u + v|B u = v| A + B u .





Por lo tanto,
D E


v| (A + B) |u = v| A + B u ,


este resultado es valido para cualquier par de vectores v y u, entonces


(A + B) = A + B . (6.137)
La otra propiedad esta relacionada con el producto de dos operadores:




D
E
h(AB) v|ui = hA (Bv) |ui = Bv|A u = v|B A u = v| (AB) u ,

que implica
(AB) = B A . (6.138)

6.13. Operadores Hermticos


Una clase importante de operadores son los autoadjuntos, que satisfacen
A = A, (6.139)
a estos operadores tambien se les llama Hermticos.

De (6.137) se puede ver que la suma de dos operadores Hermticos nos da


otro operador Hermtico. Ademas de Eq. (6.138) es claro que si A y B son
operadores Hermticos y conmutan, es decir AB = BA, entonces
(AB) = B A = BA = AB. (6.140)
Por lo tanto, el producto de dos operadores Hermticos que conmutan es
Hermtico.

125
6.13.1. Ejemplos de matrices Hemticas
De (6.129) se puede ver que una matriz de Cn Hermtica cumple

()T = . (6.141)

En C2 un ejemplo trivial una matriz Hermtica es la matriz identidad


 
1 0
I= . (6.142)
0 1

En ese mismo espacio, se puede ver que las matrices de Pauli


     
0 1 0 i 1 0
1 = , 2 = , 3 = (6.143)
1 0 i 0 0 1

son Hermticas.

6.13.2. Ejemplos de operadores Hermticos


En el espacio de funciones, claramente cualquier funcion real f (~r) es un
operador Hermtico. De Eq. (6.131) se puede ver que si es imaginario, por
ejemplo si = i~ el operador

Px = i~ (6.144)
x
es Hermtico. Ademas, como Px conmuta con Px , entonces Px Px = Px2 es un
operador Hermtico. Si V (x) es un potencial real, el operador Hamiltoniano de
la mecanica cuantica
1 2
H= P + V (x) (6.145)
2m x
es Hermtico, pues es la suma de dos operadores Hermticos.

Claramente los operadores



Px = i~ , Py = i~ , Pz = i~ (6.146)
x y z
son Hermticos. Entonces, si V (~r) es una funcion real, el operador

1 2 ~2 2
H= P + V (~r) = + V (~r)
2m 2m
126
es Hermtico.

Si y son variables independientes, entonces definiendo



O1 = , O2 = i

se tiene
f
O1 O2 f = (i) = (i) f = O2 O1 f,

 

es decir y i conmutan. As los operadores


xpy = x(i) , xpz = x(i) ,
y z

ypx = y(i) , ypz = y(i) ,
x z

zpx = z(i) , zpy = z(i) ,
x y
son Hermticos. Por lo tanto, tambien los operadores
     

Lx = i y z , Ly = i z x , Lz = i x y .
z y x z y x

son Hermticos. Esto implica que el operador

L2 = L2x + L2y + L2z

es Hermtico.

6.14. Conmutador
Supongamos que tenemos los operadores lineales A y B, entonces definire-
mos el conmutador como

[A, B] = AB BA. (6.147)

Por ejemplo, si f es una funcion de prueba y tenemos los operadores x, y se


tiene

(xy)f = xyf = yxf = (yx)f, (6.148)

127
de donde

(xy yx) f = 0. (6.149)

Este resultado es valido para cualquier funcion, por lo que se suele escribir

[x, y] = 0. (6.150)

Por lo misma razon se encuentra

[x, z] = [z, y] = 0. (6.151)

Ademas si f es una funcion bien portada, se cumple


 2   2 

f= f,
xy xy
entonces si

px = i , py = i , (6.152)
x y
se llega a
   2 

(py px )f = (i) (i) f = (i)(i) f
y x xy
 

= (i) (i) f = px py f,
y x

que implica

[px , py ] = 0. (6.153)

De la misma forma se tiene

[px , pz ] = [py , pz ] = 0. (6.154)

Con los operadores y, px se tiene


 
(yf )
(ypx )f = y(i) f = iy f = i = (px y)f,
x x x

por lo tanto,

[y, px ] = 0. (6.155)

128
Con los mismos argumentos se encuentra
[y, pz ] = [x, py ] = [x, pz ] = [z, px ] = [z, py ] = 0. (6.156)

Ahora, si x, px = i x , entonces
 
f
(xpx )f = x(i) f = ix ,
x x
 
f
(px x)f = (i) x f = i (xf ) = if ix ,
x x x
es decir
(xpx px x) f = if. (6.157)
Como este resultado es valido para cualquier funcion, se escribe
[x, px ] = i. (6.158)
Tambien se tiene
[y, py ] = i, [z, pz ] = i. (6.159)
Si definimos
x1 = x, x2 = y, x3 = z,

p1 = i , p2 = i , p3 = i , (6.160)
x1 x2 3
las anteriores reglas de conmutacion se pueden escribir como
[xi , xj ] = [pi , pj ] = 0 [xi , pj ] = iij . (6.161)
Salvo un factor de ~, estas son las reglas de conmutacion que propuso Heisen-
berg como base de la mecanica cuantica.

6.14.1. Propiedades de los conmutadores


Los conmutadores tiene varias propiedades algebraicas que los hacen im-
portantes para la Fsica y las Matematicas, a continuacion veremos algunas de
ellas. Sea c un numero, entonces si A, B, C son operadores lineales se cumple
[A, c] = 0, (6.162)
[A, B] = [B, A] , (6.163)
[A, B + C] = [A, B] + [A, C] , (6.164)
[A, BC] = [A, B] C + B [A, C] , (6.165)
[A, [B, C]] + [C, [A, B]] + [B, [A, C]] = 0. (6.166)

129
La identidad Eq. (6.162) es valida pues c es un numero. La prueba de Eq.
(6.163) es
[B, A] = BA AB = (AB BA) = [A, B] .
Mientras que la prueba de Eq. (6.164) es
[A, B + C] = A (B + C) (B + C) A = (AB + AC) (BA + CA)
= (AB BA) + (AC CA) = [A, B] + [A, C] .
Ademas,
[A, BC] = A (BC) (BC) A = (ABC) (BAC) + (BAC) (BCA)
= (AB BA) C + B (AC CA) = [A, B] C + B [A, C] ,
que prueba Eq. (6.165).

Ahora tenemos que


[A, [B, C]] = [A, (BC CB)] = [A, BC] [A, CB]
= B [A, C] + [A, B] C (C [A, B] + [A, C] B)
= B (AC CA) + (AB BA) C
(C (AB BA) + (AC CA) B)
= BAC + ABC + CBA + CAB
(BCA + BAC + CAB + ACB)
= ABC + CBA (BCA + ACB) ,
de la misma forma
[C, [A, B]] = CAB + BAC (ABC + CBA) ,
[B, [C, A]] = BCA + ACB (CAB + BAC) ,
sumando estas tres igualdades se llega a Eq. (6.166).

6.14.2. Ejercicio
Para tener un poco de practica con los conmutadoremos calcularemos las
reglas de conmutacion del momento angular Eq. (2.89), cuyas componentes se
pueden escribir como
Lx = ypz zpy ,
Ly = zpx xpz ,
Lz = xpy ypx .

130
De donde aplicando las propiedades de los conmutadores y considerando Eq.
(6.161) se llega

[Lx , Ly ] = [ypz zpy , zpx xpz ] = [ypz , zpx xpz ] + [zpy , zpx xpz ]
= [ypz , zpx xpz ] [zpy , zpx xpz ]
= [ypz , zpx ] [ypz , xpz ] ([zpy , zpx ] [zpy , xpz ])
= y [pz , zpx ] + [y, zpx ] pz y [pz , xpz ] [y, xpz ] pz
(z [py , zpx ] + [z, zpx ] py z [py , xpz ] [z, xpz ] py )
= yz [pz , px ] + y [pz , z] px + z [y, px ] pz + [y, z] px pz yx [pz , pz ]
y [pz , x] pz x [y, pz ] pz [y, x] pz pz z [py , px ] z [py , z] px
z [z, px ] py z [z, py ] px + zx [py , pz ] + z [py , x] pz
+x [z, pz ] py + [z, x] pz py
= i (xpy ypx ) = iLz (6.167)

Ademas

[Ly , Lz ] = [zpx xpz , xpy ypx ] = [zpx , xpy ypx ] [xpz , xpy ypx ]
= [zpx , xpy ] + [xpz , ypx ] = z [px , x] py + y [x, px ] pz
= i (ypz zpy ) = iLx ,
[Lz , Lx ] = [xpy ypx , ypz zpy ] = [xpy , ypz zpy ] [ypx , ypz zpy ]
= [xpy , ypz ] + [ypx , zpy ] = x [py , y] pz + z [y, py ] px
= i (zpx xpz ) = iLy . (6.168)

Es decir,

[Lx , Ly ] = Lz , [Lz , Lx ] = iLy , [Ly , Lz ] = iLx . (6.169)

Ahora, considerando L2 = L2x + L2y + L2z y Eq. (6.169) se tiene


 2
L , Lx , = L2x + L2y + L2z , Lx = L2x , Lx + L2y , Lx + L2z , Lx
        

= Ly [Ly , Lx ] + [Ly , Lx ] Ly + Lz [Lz , Lx ] + [Lz , Lx ] Lz


= iLy Lz iLz Ly + iLz Ly + iLy Lz = 0,
 2
L , Ly , = L2x + L2y + L2z , Ly = L2x , Ly + L2y , Ly + L2z , Ly
        

= Lx [Lx , Ly ] + [Lx , Ly ] Lx + Lz [Lz , Ly ] + [Lz , Ly ] Lz


= iLx Lz + iLz Lx iLz Lx iLx Lz = 0,
 2
L , Lz , = L2x + L2y + L2z , Lz = L2x , Lz + L2y , Lz + L2z , Lz
        

= Lx [Lx , Lz ] + [Lx , Lz ] Lx + Ly [Ly , Lz ] + [Ly , Lz ] Ly


= iLx Ly iLy Lx + iLy Lx + iLx Ly = 0.

131
Por lo tanto, L2 conmuta con cualquier componente del momento angular
 2
L , Lx = L2 , Ly = L2 , Lz = 0.
    
(6.170)

6.15. Conmutadores y la derivada


Una de las propiedades del conmutador entre dos operadores es que en
algunos casos actua como derivada. En efecto supongamos que

[A, B] = , = constante, (6.171)

entonces

A, B 2 = [A, BB] = B [A, B] + [A, B] B = B + B = 2B.


 
(6.172)

En general se cumple que

[A, B] = = [A, B n ] = nB n1 . (6.173)

Probaremos esta afirmacion por induccion. La hipotesis de induccion ya la


hemos probado. Para probar el paso inductivo debemos mostrar que

A, B k = kB k1 A, B k+1 = (k + 1)B k .
   
= (6.174)

Esta ultima igualdad es correcta, pues ocupando la hipotesis de induccion y


Eq. (6.164) se encuentra

A, B k+1 = A, BB k = B A, B k + [A, B] B k = kBB k1 + B k


     

= (k + 1)B k ,

que es lo que se queria demostrar. Por lo tanto, la propiedad (6.173) es valida


para cualquier natural n. As, en este caso el conmutador actua como derivada.

Para ver de forma mas explcita esta afirmacion, supongamos que tenemos
la funcion
X
f (x) = bn x n ,
n0

con la cual podemos formar el operador


X
f (B) = bn B n .
n0

132
De donde,
" #
X X X
[A, f (B)] = A, bn B n = bn [A, B n ] = bn nB n1
n0 n0 n0
X df (B)
= bn nB n1 = .
n0
dB

Por lo tanto, para cualquier funcion

df (B)
[A, B] = , = [A, f (B)] = . (6.175)
dB

Por ejemplo, sabemos que con px = i x se cumple [x, px ] = i, entonces si f
y g son dos funciones se encuentra

f (x)
[f (x), px ] = i ,
x
g(px )
[x, g(px )] = i .
px
Estas igualdades son de gran utilidad para obtener ecuaciones de movimiento
en mecanica cuantica. En efecto, dado un Hamiltoniano H las ecuaciones de
movimiento se definen como

ix = [x, H] ,
ip = [p, H] , (6.176)

que son las ecuaciones de Heisenger. En particular con el Hamiltoniano


1 2
H= p + V (x),
2m
se tiene
 
1 2 i
ix = [x, H] = x, p = p,
2m m
V (x)
ip = [p, H] = [p, V (x)] = i , (6.177)
x
es decir
1 V (x)
x = p, p = .
m x

133
6.16. Vectores propios
Sea A un operador lineal, si v es un vector tal que Av = v, se dice que v
es un vector propio de A con valor propio . Al conjunto de valores propios de
A se le llama el espectro de A.

Por ejemplo, los vectores propios del operador derivada deben cumplir

f (x) = f (x), (6.178)
x
que son las funciones de la forma f (x) = A0 ex , A0 = constante. En la fsica
matematica es importante obtener las funciones propias y valores propios de
diferentes operadores, como el momento angular Eq. (2.99)

L2 Ym = Ym , Lz Ym = mYm , (6.179)

y el operador Hamiltoniano
~2 2
 
H (~r) = + V (r) (~r) = E (~r) . (6.180)
2m

6.16.1. Espectro de operadores Hermticos


Los operadores Hermticos tienen valores propios reales. En efecto, si v es
un vector propio de un operador Hermtico A con valor propio , es decir
Av = v, se tiene

hAv|vi = hv|vi = hv|vi


= v|A v = hv|Avi = hv|vi = hv|vi ,

que nos conduce al resultado

= . (6.181)

As, los valores propios de los operadores Hermticos son reales.

Como el operador H es Hermtico, la ecuacion diferencial


~2 2
   
1 2
H(~r) = P + V (~r) (~r) = + V (~r) (~r) = E(~r)
2m 2m
solo tiene solucion si E es un valor real. Posteriormente veremos como resolver
esta ecuacion para algunos casos particulares de V (~r).

134
De la misma forma, como L2 es Hermtico, la ecuacion diferencial
1 2
   
2 1
L Y (, ) = sin + Y (, ) = Y (, )
sin sin 2 2
solo tiene solucion si es un numero real. Las soluciones de esta ecuacion se
llaman armonicos esfericos y son de suma importancia para la electrostatica y
la mecanica cuantica.

6.16.2. Operadores que conmutan


Se dice que un operador A tiene espectro no degenerado si

Av = v y Au = u = , v = u. (6.182)

Por ejemplo, el operador derivada tiene espectro no degenerado, pues todas las
soluciones de Eq. (6.178) son de la forma ex , en particular

Lz = i

tiene espectro no degenerado.

Supongamos que A y B son dos operadores lineales que conmutan, es decir

[A, B] = 0

y que A tiene espectro no degenerado. Entonces podemos afirmar que si v es


vector propio de A, es decir Av = v, tambien lo es de B. Esta afirmacion es
correcta pues si AB = BA, entonces

ABv = BAv = B(Av) = Bv = A(Bv) = (Bv). (6.183)

As, (Bv) es vector propio de A con valor propio . De donde, como A tiene
espectro no degenerado, existe tal que

Bv = v.

Esto quiere decir que v es vector propio de B, lo que completa la prueba.

Por ejemplo, Lz tiene espectro no degenerado y conmuta con L2 . Por lo tan-


to, estos operadores comparten funciones propias. En el lenguaje de la mecani-
ca cuantica significa que estas dos cantidades se pueden medir al mismo tiempo.

135
Captulo 7

Prueba de Feynman de las


Ecuaciones de Maxwell

Como un ejercicio para reforzar el usos de conmutadores y vectores, en este


captulo veremos la prueba de Feynman de dos ecuaciones de Maxwell.

Apesar de que las ecuaciones de Maxwell se obtienen de mediciones de la na-


turaleza, Feynman encontro que la ley de inexistencia de monopolos magneti-
cos y la ley de Faraday se pueden deducir de la dinamica de una partcula. La
demostracion parte de suponer la segunda ley de Newton
mxi = Fi (x, x, t) (7.1)
y las reglas de conmutacion
[xi , xj ] = 0, m[xi , xj ] = i~ij . (7.2)
Primero veremos como se obtiene la fuerza de Lorentz de estas hipotesis, para
despues hacer la deduccion de la ley de inexistencia de monopolos magneticos
y la ley de Faraday.

7.1. Fuerza de Lorentz


Para iniciar, notemos que
d
xi xj = (xi xj ) xi xj , (7.3)
dt
entonces,
   
d d
[xi , xj ] = xi xj xj xi = (xi xj ) xi xj (xj xi ) xj xi
dt dt

136
d
= (xi xj xj xi ) + (xj xi xi xj )
dt
d
= ([xi , xj ]) + [xj , xi ] = [xj , xi ], (7.4)
dt
es decir,
[xi , xj ] = [xj , xi ]. (7.5)
Por lo tanto, de la segunda ley de Newton Eq. (7.1) se obtiene
[xi , Fj ] = [xi , mxj ] = m[xj , xi ]. (7.6)
Usando esta ecuacion y la propiedad antisimetrica de los conmutadores, se
llega a
[xi , Fj ] = m[xj , xi ] = m[xi , xj ] = [xj , Fi ]. (7.7)
De donde, [xi , Fj ] es una matriz antisimetrica. Ahora, sabemos que cualquier
matriz antisimetrica de 3 3 se puede escribir en terminos del tensor de Levi-
Civita y un vector, ver Eq. (1.69). As, sin perdida de generalidad podemos
proponer
i~
[xi , Fj ] =
ijk Bk . (7.8)
m
Note que de Eq. (7.6) y Eq. (7.8) se obtiene
i~
[xi , xj ] =
ijk Bk . (7.9)
m2
En principio Bk puede depender de la velocidad, sin embargo, por la identidad
de Jacobi
[xi , [xj , xk ]] + [xk , [xi , xj ]] + [xj , [xk , xi ]] = 0, (7.10)
las reglas de conmutacion Eqs. (7.2), (7.6) y (7.8) se obtiene
i~
[xi , [xj , Fk ]] =
[xi , jkl Bl ] = 0, (7.11)
m
por lo tanto, Bk solo depende de las coordenadas. As, la igualdad Eq. (7.8)
implica que Fi debe ser de la forma Fi = ijk xj Bk . Note que la igualdad Eq.
(7.8) se sigue cumpliendo si sumamos a Fi una funcion, Ei , que solo depende
de las coordenadas. As, la forma mas general de la fuerza es
Fi = Ei + ijk xj Bk , (7.12)
que es exactamente la fuerza de Lorentz.

137
7.2. Inexistencia de monopolos magneticos
Ahora, veremos la ley de inexistencia de monopolos magneticos. De Eq.
(7.6) y Eq. (7.8) se obtiene
 
lij lij i~ i~
lij [xi , xj ] = [xi , Fj ] = ijk Bk = 2 lij ijk Bk
m m m m
i~ i~ i~
= 2 lij jik Bk = 2 (li ik lk ii ) Bk = 2 (lk 3lk ) Bk
m m m
2i~
= Bl , (7.13)
m2
es decir,

im2
Bl = lij [xi , xj ]. (7.14)
2~
Ademas, notemos que con los operadores A1 , A2 , A3 la identidad de Jacobi se
puede escribir como

ijk [Ai , [Aj , Ak ]] = 0. (7.15)

Por lo tanto, tomando Ai = xi y considerando Eq. (7.14), se tiene


2~ i2~ 2~ ~ ~
0 = ijk [xi , [xj , xk ]] = [xi , ijk [xj , xk ]] = [x i , Bi ] = i Bi = B,
im2 im2 m2
es decir, se cumple
~ B
~ = 0. (7.16)

Que es la ley de inexistencia de monopolos magneticos.

7.3. Ley de Faraday


Veamos la deduccion de la ley de Faraday. Primero notemos que ocupando
las propiedades antisimetricas del tensor de Levi-Civita y del conmutador,
ademas de renombrar ndices se encuentra,

lij [xi , xj ] = lji [xj , xi ] = lij [xi , xj ], (7.17)

es decir,

lij [xi , xj ] = lij [xi , xj ]. (7.18)

138
Tambien se puede ver que se cumple
Bl Bl
Bl = + xm . (7.19)
t xm
As, considerando Eqs. (7.14), (7.18) y (7.9) se encuentra
d im2 im2
 
Bl Bl d
Bl = + xm = lij [xi , xj ] = lij (xi xj xj xi )
t xm dt 2~ 2~ dt
2
im
= lij (xi xj + xi xj xj xi xj xi )
2~
im2 im
= lij ([xi , xj ] + [xi , xj ]) = lij [mxi , xj ]
2~ ~
im im
= lij [Fi , xj ] = lij [Ei + irs xr Bs , xj ]
~ ~
im
= lij ([Ei , xj ] + irs [xr Bs , xj ])
~
im
= lij j Ei + lji irs (xr [Bs , xj ] + [xr , xj ]Bs )
~  

~ E

~ + im i~ B s
= (lr js ls jr ) xr + [xr , xj ]Bs
l ~ m xj
   B B

im im
~ E ~ xl s l
= xj + [xl , xj ]Bj [xr , xr ]Bl
l xs xj ~ ~

~ ~
 
~ ~
 Bl 1
= E xl B + xm ljr Br Bj
l xm m

~ E

~ + xm B l
= . (7.20)
l xm
Por lo tanto, igualando Eq. (7.19) con Eq. (7.20) se tiene
~
~ = B ,
~ E (7.21)
t
que es la ley de Faraday.

Es notable que la fuerza de Lorentz y dos ecuaciones de Maxwell se puedan


obtener partiendo solo de las reglas de conmutacion y la segunda ley de New-
ton. Hay diversas opiniones sobre este hecho. Algunos piensan que hay algo
profundo en este resultado, el cual aun no hemos comprendido. Pero tambien
hay quienes piensan que es un resultado sin importancia y otros que creen
tener una explicacion de esta prueba. Feynman encontro este prueba pero no
la publico, solo se la conto a algunos de sus amigos. Fue Dyson quien mando a
publicar el resultado despues de la muerte de Feynman [19].

139
Captulo 8

Series de Fourier

En este captulo mostraremos que, eligiendo de manera adecuada los parame-


tros y el intervalo, las funciones trigonometricas sin y cos forman una base
ortonormal en el espacio de funciones. Este captulo es de especial importancia,
pues se aplican varias de las herramientas desarrolladas en el captulo 7. Al
final del captulo se muestran varios ejercicios.

8.1. Funciones trigonometricas


Recordemos que las funciones trigonometrica sin y cos satisfacen

sin() = sin , (8.1)


cos() = cos , (8.2)
sin( + 2) = sin , (8.3)
cos( + 2) = cos , (8.4)
sin n = 0, n = 0, 1, 2, 3, , (8.5)
 
2n + 1
sin = ()n , (8.6)
2
cos n = ()n , (8.7)
 
2n + 1
cos = 0, (8.8)
2
Z Z 2
dx cos lx = dx cos lx = 0, l = 1, 2, 3, , (8.9)
0
Z Z 2
dx sin lx = dx sin lx = 0, (8.10)
0

140
Z
dx cos lx = 0 (8.11)
0

Tambien es util recordar la formula de Euler


ei = cos + i sin , (8.12)
que induce
ei = cos i sin , (8.13)
de estas dos igualdades se obtiene
1 i
e + ei ,

cos = (8.14)
2
1 i
e ei .

sin = (8.15)
2i
La representacion de Euler es muy util, pues nos permite obtener propiedades
de las funciones trigonometricas de forma sencilla. Por ejemplo, como
ei ei = ei(+) , (8.16)
se encuentra que
ei ei = (cos + i sin ) (cos + i sin )
= (cos cos sin sin ) + i (sin cos + cos sin )
= ei(+) = cos( + ) + i sin( + ), (8.17)
es decir,
cos( + ) = cos cos sin sin , (8.18)
sin( + ) = sin cos + sin cos . (8.19)
De estas identidades y ocupando (8.1)-(8.2) se tiene
cos( ) = cos cos + sin sin , (8.20)
sin( ) = sin cos sin cos . (8.21)
Ademas, de Eqs. (8.18)-(8.21) se encuentra
1
cos() cos() = [cos( ) + cos( + )] , (8.22)
2
1
sin() sin() = [cos( ) cos( + )] , (8.23)
2
1
sin() cos() = [sin( + ) + sin( )] . (8.24)
2

141
8.2. Relaciones de ortonormalidad
Con las funciones trigonometricas
 
1 cos nx sin nx
{(x)} = , , , n = 1, 2, 3 , (8.25)
2
se puede construir una base de funciones ortonormal en el intervalo [, ].
Para mostrar esta afirmacion, primero notemos que
Z  2 Z
1 1 2
dx = dx = = 1.
2 2 2
Ademas, considerado Eqs. (8.9)-(8.10) se encuentra
Z Z
1 sin nx 1 cos nx
dx = dx = 0. (8.26)
2 2

Esto nos indica que la funcion constante 1/ 2 es ortogonal a las funciones
{cos nx, sin nx}.

Ahora, definamos l = n m y k = n + m, entonces considerando Eqs.


(8.22)-(8.24) y ocupando Eqs. (8.9)-(8.10) se llega a
Z
1
Z
sin mx cos nx
dx = dx sin mx cos nx

Z 
1 
= dx sin kx + sin lx = 0. (8.27)
2
Para el caso en que n 6= m, usando de nuevo Eqs. (8.22)-(8.24) y ocupando
Eqs. (8.9)-(8.10), se llega a
Z
1
Z
cos nx cos mx
dx = dx cos mx cos nx

Z 
1 
= dx cos(n m)x + cos(n + m)x
2
Z 
1 
= dx cos lx + cos kx = 0,
2
Z
1
Z
sin nx sin mx
dx = dx sin mx sin nx

Z 
1 
= dx cos(n m)x cos(n + m)x
2
Z 
1 
= dx cos lx cos kx = 0.
2

142
Ademas, se cumplen
Z
1
Z
cos nx cos nx
dx = dx cos nx cos nx

Z 
1 
= dx cos(n n)x + cos(2n)x
2
Z Z
1 1
= dx + dx cos(2n)x = 1,
2 2
Z
1
Z
sin nx sin nx
dx = dx sin nx sin nx

Z 
1 
= dx cos(n n)x cos(2n)x
2
Z Z
1 1
= dx dx cos(2n)x = 1.
2 2
En resumen tenemos
Z
sin mx sin nx
dx = nm , (8.28)

Z
cos mx cos nx
dx = nm , (8.29)

Z  2
1
dx = 1, (8.30)
2
Z
sin mx cos nx
dx = 0, (8.31)

Z
1 cos nx
dx = 0, (8.32)
2
Z
1 sin nx
dx = 0. (8.33)
2
Por lo tanto, el conjunto de funciones Eq. (8.25) son un conjunto de funciones
ortornales en el intervalo [, ].

8.2.1. Series de Fourier


Como el conjunto de funciones Eq. (8.25) es ortornal en el intervalo [, ],
entonces dada una funcion f en dicho intervalo se puede hacer la expansion
a0 X  cos nx sin nx

f (x) = + an + bn , (8.34)
2 n1

143
con los coeficientes de Fourier dados por
  Z
1 1
a0 = f (x) = dx f (x),
2 2
 
Z
cos nx cos nx
an = f (x) = dx f (x),

  Z
sin nx sin nx
bn = f (x) = dx f (x). (8.35)

8.3. Ejemplos
En esta seccion veremos varios ejemplos de series de Fourier

8.3.1. Caso f (x) = x


Consideremos la funcion f (x) = x en el intervalo [, ]. Como esta funcion
es impar, para este caso se tiene
  Z
1 1
a0 = x = dxx = 0,
2 2
  Z
cos nx 1
an = x = dx (cos nx) x = 0.

Ademas
  Z
sin nx 1
bn = |x = dx (sin nx) x,

por lo que empleando el resultado


 
1 d
x sin nx = (x cos nx) cos nx ,
n dx

se llega a
 
1 1 2 2
bn = x cos nx sin nx = cos n =
()n .
n n n n

As,
X 2 sin nx X ()n
x= ()n =2 sin nx.
n1
n n1
n

144
La igualdad de Parseval Eq. (6.114) para este caso es
Z X
2
||x|| = x2 = b2n ,
n1

es decir,
3
2 3 X 4
Z
x
x2 = = = ,
3 3 n1
n2

de donde
X 1 2
= .
n1
n2 6

Por otros metodos, este resultado fue obtenido primero por Euler.

Tambien note que


X 1 X 1 X 1 1X 1 X 1
= + = +
n1
n2 n1
(2n)2 n1 (2n 1)2 4 n1 n2 n1 (2n 1)2
2 X 1 2
= + = ,
24 n1 (2n 1)2 6

as
X 1 2
= .
n1
(2n 1)2 8

8.3.2. Caso f (x) = x2


Ahora consideremos la funcion f (x) = x2 en el intervalo [, ]. Como esta
funcion es par, se encuentra
  Z
sin nx 2 1
bn = |x = dx (sin nx) x2 = 0,

Z
2 3
 
1 2 1
a0 = |x = dxx2 = . (8.36)
2 2 3 2
Adicionalmente, usando la igualdad
d x2 sin x
   
2 2 d sin nx 2
x cos nx = x = x sin nx, (8.37)
dx n dx n n

145
se encuentra
  Z
cos nx 2 1
an = |x = dx (cos nx) x2 ,

Z
2 2 2()n+1 4 ()n
= dx (sin nx) x = = .
n n n n2
Por lo tanto,
2 3 1 X 4()n cos nx
2
x = +
3 2 2 n1 n2
2 X 4()n
= + cos nx.
3 n1
n2

Note que al evaluar esta funcion en x = 0 se tiene


2 X 4()n
0= + ,
3 n1
n2

de donde
X ()n+1 2
= .
n1
n2 12

8.3.3. Caso f (x) = cos(x)


Ahora estudiaremos la funcion f (x) = cos(x) en el intervalo [, ]. Como
esta funcion es par, se tienen que
  Z
sin nx 1
bn = cos(x) = dx (sin nx) cos(x) = 0,

  Z
1 1 2 sin()
a0 = cos(x) = dx cos(x) = .
2 2 2
Tambien se encuentra
  Z
cos nx 1
an = cos(x) = dx (cos nx) cos(x)

Z
1
= dx (cos(n + )x + cos(n )x)
2
 
1 sin(n + )x sin(n )x
= +
2 n+ n

146
 
1 sin(n + ) sin(n )
= +
n+ n
 
1 sin cos n + sin n cos sin n cos sin cos n
= +
n+ n
n n+1
   
() sin 1 1 2() sin
= =
n+ n n2 2
2()n sin
 

= .
2 n2
Por lo tanto,
2 sin 1 X 2()n sin 


cos nx
cos(x) = +
2 2 n1 2 n2
!
2 sin 1 X ()n cos nx
= + , (8.38)
22 n1 2 n2

de este resultado se obtiene


!
cos x 1 1 X 2()n cos nx
= + . (8.39)
sin n1 2 n2

Para el caso particular x = , se llega a


!
cos 1 1 X 2
= + , (8.40)
sin n1 2 n2

de donde
 
cos 1 X 2
= . (8.41)
sin n1
2 n2

Ahora, note que


Z x  Z x  
cos 1 cos u 1
d = du
0 sin 0 sin u u
Z x
d
= (ln sin u ln u)
0 du
Z x  
d sin u
= ln
0 du u
 
sin x
= ln . (8.42)
x

147
Tambien se obtiene
Z xX X Z x  2  d XZ x d 2
 
2
d = = ln 1 2
2
0 n1 n
2
n1 0
n2 1 22 n1 0
d n
n
x
2 x2
X   X  
= ln 1 2 = ln 1 2
n1
n 0 n1
n
x2
 

= ln n=1 1 2 . (8.43)
n

La expresion Eq. (8.41) nos indica que Eq. (8.42) debe ser igual a Eq. (8.43).
De donde se obtiene
x2
   
sin x
ln = ln n=1 1 2 , (8.44)
x n
es decir
x2
 
sin x
= n=1 1 2 . (8.45)
x n
Definiendo z = x, se llega a
  z 2 
sin z
= n=1 1 . (8.46)
z n
Esta igualdad la dedujo por primera vez Euler. Sorprendentemente Feynman
encontro que esta expresion tiene aplicaciones en mecanica cuantica [23]

8.3.4. Funcion f (x) = ex


Para la funcion f (x) = ex se tiene
Z
1 e e 2 sinh
a0 = dxex = = . (8.47)
2 2
Ademas
Z Z
1 x 1
an = dxe cos nx, bn = dxex sin nx, (8.48)

de donde
Z Z
1 x 1
an + ibn = dxe (cos nx + i sin nx) = dxex(1+in)

148

1 ex(1+in)
=
1 + in
1 e ein e ein 1 in n n

= = e () () e
1 + in (1 + n2 )
(1 in)()n
 (1 in)()n
= e e = 2 sinh . (8.49)
(1 + n2 ) (1 + n2 )

Por lo tanto,

2()n sinh 2n()n+1 sinh


an = , bn = ,
(1 + n2 ) (1 + n2 )

que implican

sinh 2 sinh X ()n cos nx n()n+1 sin nx


 
x
e = + 2
+ 2
. (8.50)
n1
1 + n 1 + n

De esta serie se encuentran las series


" #
sinh X  ()n cos nx n()n sin nx 
ex = 1+2 2
+ 2
,
n1
1 + n 1 + n
" #
x x n
e +e sinh X () cos nx
cosh x = = 1+2 ,
2 n1
1 + n2
ex ex 2 sinh X ()n+1 sin nx
sinh x = = 2
.
2 n1
1 + n

8.4. Serie tipo coseno


Para el espacio de funciones el intervalo donde estas son definidas es muy
importante. Por ejemplo, en el intervalo [0, ] el conjunto (8.25) ya no es or-
tonormal. En este intervalo consideraremos el conjunto de funciones
( r )
1 2
{(x)} = , cos nx . (8.51)

Ocupando las identidades Eqs. (8.22)-(8.24), se encuentra


Z  2
1
dx = 1, (8.52)
0

149
Z
r
1 2
dx cos nx = 0, (8.53)
0
Z r r
2 2
dx cos nx cos mx = nm . (8.54)
0

Entonces, si f es una funcion en el intervalo [0, ], se puede expresar como


r
a0 X 2
f (x) = + an cos nx, (8.55)
n1

con los coeficientes de Fourier dados por


Z
dx
a0 = f (x),
0
Z r
2
an = dx cos nxf (x).
0

Por ejemplo, para la funcion f (x) = x se tienen


Z
dx 1 x2 2
a0 = x= = ,
0 2 0 2

ademas

r r
21
Z Z
2 d
an = dx x cos nx = dxx sin nx
n 0 dx
r0 Z   r Z
21 d 2 1 d
= dx (x sin nx) sin nx = 2
dx cos nx
n 0 dx n 0 dx
r
2 1
= 2
[()n 1] ,
n
de donde a2n = 0 y
r
2 2
a2n1 = .
(2n 1)2

Por lo tanto,

4 X cos(2n 1)x
x= . (8.56)
2 n1 (2n 1)2

150
8.5. Serie tipo seno
En un mismo intervalo puede haber diferentes base para el espacio de fun-
ciones. Por ejemplo, usando las identidades Eqs. (8.22)-(8.24), se puede mostrar
que se cumple
Z r r
2 2
dx sin nx sin mx = nm . (8.57)
0
Por lo tanto, el conjunto de funciones
(r )
2
{(x)} = sin nx (8.58)

es ortonormal en el intervalo [0, ].

Entonces, si f es una funcion en el intervalo [0, ], se encuentra


r
X 2
f (x) = bn sin nx, (8.59)
n1

en este caso los coeficientes de Fourier son


Z r
2
bn = dx sin nxf (x). (8.60)
0

Por ejemplo, para la funcion constante f (x) = C se tienen los coeficientes de


Fourier
r Z r r
2 C 2 C 2
bn = C dx sin nx = cos nx = [()n 1] ,
0 n 0 n

de donde b2n = 0 y
r
2C 2
b2n1 = .
2n 1
As,

4C X sin(2n 1)x
C= . (8.61)
n1 2n 1

151
8.6. Intervalo arbitrario
Ahora estudiaremos el espacio de funciones en el intervalo [L, L]. En este
intervalo mostraremos que el conjunto de funciones
 
1 1 nx 1 nx
{(x)} = , cos , sin , n = 1, 2, 3 , (8.62)
2L L L L L
es ortonormal. Primero notemos que
Z L  2
1
dx = 1, (8.63)
L 2L
Z L
1 1 nx
dx sin = 0, (8.64)
L 2L L L
Z L
1 1 nx
dx cos = 0. (8.65)
L 2L L L
Ademas, con el cambio de variable
x
u= (8.66)
L
se encuentra
Z L  x  Z
L
dxf = duf (u). (8.67)
L L

Para este caso es conveniente tomar las siguientes definiciones


     Z L
x x x
   x 
f g = dxf g ,
L L L L L L
Z
hf (x)|g(x)i = dxf (x)g(x). (8.68)

Ocupando el resultado (8.67) se encuentra


   
1  x  1  x  1 1
f g = f (u) g(u) .
(8.69)
L L L L L

Entonces, utilizando las ecuaciones (8.28)-(8.33) se llega a



1  nx  1  mx 
sin sin = nm ,
L L L L L

1  nx  1  mx 
cos cos = nm ,
L L L L L

1  nx  1  mx 
sin cos = 0. (8.70)
L L L L L

152
Estas ecuaciones junto con Eqs. (8.63)-(8.63) nos indican que el conjunto de
funciones Eq. (8.62) forman un conjunto de funciones ortornales en el intervalo
[L, L].

Este resultado implica que si f es una funcion continua en el intervalo


[L, L], se puede escribir como
a0 X  an nx bn nx

f (x) = + cos + sin , (8.71)
2L n1 L L L L

aqu los coeficientes de Fourier son


  Z L
1 1
a0 = f (x) = dx f (x), (8.72)
2L L L 2L
  nx   Z L
1 1  nx 
an = cos f (x) = dx cos f (x), (8.73)
L L L L L L
  nx   Z L
1 1  nx 
bn = sin f (x) = dx sin f (x). (8.74)
L L L L L L

8.6.1. Delta de Dirac


Ahora veremos que las series de Fourier permiten generalizar la delta de
Kronecker, esta generalizacion se llama delta de Dirac y es de utilidad para
resolver problemas de mecanica cuantica y electromagnetismos.

Sustituyendo los coeficientes de Fourier Eqs. (8.72)-(8.74) en Eq. (8.71) se


encuentra
Z L 0 X 1 Z L nx0
   nx 
0 f (x ) 0 0
f (x) = dx + dx f (x ) cos cos
L 2L n1
L L L L
L
nx0
X1  Z    nx  
+ dx0 f (x0 ) sin sin ,
n1
L L L L
Z L
f (x0 )
= dx0
L
"L #
nx0 nx0
      nx 
1 X  nx 
+ cos cos + sin sin ,
2 n1 L L L L
Z L " #
0
0 f (x ) 1
X  n 
0
= dx + cos (x x ) . (8.75)
L L 2 n1 L

153
En el intervalo [L, L] definiremos la delta de Dirac como
0 1 1X  n
0

(x x ) = + cos (x x ) , (8.76)
2L L n1 L
de donde
Z L
f (x) = dx0 f (x0 ) (x x0 ) . (8.77)
L

Note que, bajo una integral, la delta de Dirac cambia la variable x0 por x.
En ese sentido la delta de Dirac es la generalizacion continua de la delta de
Kronecker Eq. (1.20).

Ahora, recordemos la identidad trigonometrica


sin n + 21

1
+ cos + cos 2 + + cos n = , (8.78)
2 2 sin 2
por lo tanto la delta de Dirac se puede expresar como
h 0 )
i
sin n + 12 (xx

L
(x x0 ) = lm 0 . (8.79)
n 2L sin (xx
2L
)

8.7. Serie coseno en el intervalo [0, L]


Ahora, mostraremos que el conjunto de funciones
( r )
1 2 nx
{(x)} = , cos , n = 1, 2, 3 , (8.80)
L L L
es ortonormal en el intervalo [0, L]. Primero notemos que con el cambio de
variable Eq. (8.67) se encuentra
Z L  x  L Z
dxf = duf (u). (8.81)
0 L 0
Por lo que

Z L  2
1
dx = 1,
0 L
Z L r
1 2 nx
dx cos = 0,
0 L L L
Z L r r Z r r
2 nx 2 mx 2 2
dx cos cos = dx cos nx cos mx = nm .
0 L L L L 0

154
As, el conjunto de funciones Eq. (8.80) forman un conjunto de funciones or-
tornales en el intervalo [0, L].

Entonces, si f es una funcion continua en el intervalo [0, L], se puede escribir


como
r
a0 X 2 nx
f (x) = + an cos (8.82)
L n1 L L

con los coeficientes de Fourier dados por


Z L
1
a0 = f (x), (8.83)
0 L
Z L r
2  nx 
an = dx cos f (x). (8.84)
0 L L

8.7.1. Delta de Dirac


Sustituyendo los coeficientes de Fourier Eqs. (8.83)-(8.84) en Eq. (8.82) se
encuentra
Z L 0 X 2 Z L nx0
   nx 
0 f (x ) 0 0
f (x) = dx + dx f (x ) cos cos
0 L n1
L 0 L L
Z L " #
0
nx0
 
0 f (x )
X  nx 
= dx 1+2 cos cos . (8.85)
0 L n1
L L

En el intervalo [0, L], con la base (8.80) , definiremos la delta de Dirac como
nx0
 
0 1 2X  nx 
(x x ) = + cos cos , (8.86)
L L n1 L L

por lo tanto
Z L
f (x) = dx0 f (x0 ) (x x0 ) . (8.87)
0

8.8. Serie seno en el intervalo [0, L]


Ahora estudiaremos el conjunto de funciones
(r )
2 nx
{(x)} = sin , n = 1, 2, 3 , (8.88)
L L

155
mostraremos que este conjunto de funciones es ortonormal en el intervalo [0, L].
Ocupando el cambio de variable Eq. (8.67) y la igualdad Eq. (8.81), se encuen-
tra
Z L r r Z r r
2 nx 2 mx 2 2
dx sin sin = dx sin nx sin mx = nm .
0 L L L L 0

As, el conjunto de funciones Eq. (8.88) forman un conjunto de funciones or-


tornales en el intervalo [0, L].

Entonces, si f es una funcion continua en el intervalo [0, L], se puede escribir


como
r
X 2 nx
f (x) = bn sin (8.89)
n1
L L

con los coeficientes de Fourier dados por


Z L r
2  nx 
bn = dx sin f (x). (8.90)
0 L L

8.8.1. Delta de Dirac


Sustituyendo los coeficientes de Fourier Eq. (8.90) en Eq. (8.89) se encuen-
tra
L X 2 Z L nx0
Z    nx 
0 0 0 0
f (x) = dx f (x ) dx f (x ) sin sin
0 n1
L 0 L L
Z L " #
0
 
2 X nx  nx 
= dx0 f (x0 ) sin sin . (8.91)
0 L n1 L L

En el intervalo [0, L], con la base (8.88), definiremos la delta de Dirac como

nx0
 
0 2X  nx 
(x x ) = sin sin , (8.92)
L n1 L L

por lo tanto
Z L
f (x) = dx0 f (x0 ) (x x0 ) . (8.93)
0

156
8.9. Representacion compleja
En el intervalo [L, L] tambien podemos usar el conjunto de funciones
 i nx 
e L
{n (x)} = , n = 0, 1, 2, 3, . (8.94)
2L
Note que si n 6= m
(mn)x
L L
ei ei(mn) ei(mn)
Z Z
L
L
dxn (x)m (x) = =
L L 2L i(m n) 2L
nm mn
L () ()
= = 0, (8.95)
i(n m) 2L

si m = n se cumple
Z L
dxn (x)n (x) = 1. (8.96)
L

As, el conjunto de funciones Eq. (8.94) es ortonormal. Entonces, si f es una


funcion continua en el intervalo [0, L], se puede escribir como
nx
ei L
X
f (x) = n (8.97)

2L

con los coeficientes de Fourier dados por


Z L nx
ei L
n = dx f (x). (8.98)
L 2L
Note que si la funcion f es real, se cumple

n = n . (8.99)

8.9.1. Delta de Dirac


Sustituyendo los coeficientes de Fourier Eq. (8.98) en Eq. (8.97) se encuen-
tra
0
Z L Z L n(xx )
X 1 0 0 i
n(xx0 )
0 0
X ei L
f (x) = dx f (x )e L = dx f (x ) .

2L L L
2L

157
As, la delta de Dirac en el intervalo [L, L] toma la forma
0
n(xx )
X ei L
(x x0 ) = , (8.100)

2L

de donde
Z L
f (x) = dx0 f (x0 ) (x x0 ) . (8.101)
L

8.10. Ecuacion de Laplace en dos dimensiones


Ahora veremos algunas aplicaciones de las series de Fourier. Primero estu-
diaremos problemas en dos dimensiones.

Usando coordenadas cartesianas, la ecuacion de Laplace en dos dimensiones


es
2 2
 
22D (x, y) = + (x, y) = 0. (8.102)
x2 y 2
Para resolver esta ecuacion propondremos

(x, y) = X(x)Y (y), (8.103)

sustituyendo esta propuesta en Eq. (8.102) se encuentra

2 X(x) 2 Y (y)
22D (x, y) = Y (y) + X(x) = 0, (8.104)
x2 y 2
de donde
22D (x, y) 1 2 X(x) 1 2 Y (y)
= + = 0. (8.105)
(x, y) X(x) x2 Y (y) y 2
Por lo tanto,

22D (x, y) 1 2 X(x)


   

= = 0, (8.106)
x (x, y) x X(x) x2
que implica

1 2 X(x) 2 X(x)
= 2 , = 2 X(x), = constante. (8.107)
X(x) x2 x2

158
Usando este resultado en Eq. (8.105) se llega a

1 2 Y (y)
2 + = 0, (8.108)
Y (y) y 2

es decir
2 Y (y)
= 2 Y (y). (8.109)
y 2

Si = 0, entonces Eq. (8.107) y Eq. (8.109) toman la forma

X0 (x) = (A + Bx) , Y0 (y) = (C + Dy) , A, B, C, D = constante.

Si 6= 0 las soluciones a las ecuaciones (8.107) y (8.109) son

X (x) = (a cos x + b sin x) ,


Y (y) = c ey + d ey , a , b , c , d = constante.


As, en coordenadas cartesianas, las soluciones generales de la ecuacion de


Laplace en dos dimensiones son

0 (x, y) = (A + Bx) (C + Dy) , (8.110)


(x, y) = (a cos x + b sin x) c ey + d ey .

(8.111)

8.10.1. Ejemplo
Suponga que tiene un sistema en dos dimensiones cuyo potencial electrico
satisface las condiciones de borde

(x, 0) = V, V = constante, (8.112)


(x, ) = 0, (8.113)
(0, y) = (L, y) = 0. (8.114)

Encontrar el potencial electrico en todo el espacio y mostrar que se puede


escribir como
sin 2x
 
2V 1 L
(x, y) = tan . (8.115)
sinh y
L

Primero notemos que la condicion de borde Eq. (8.114)

0 (0, y) = A (C + Dy) = 0 (8.116)

159
implica A = 0. As, 0 (x, y) = Bx (C + Dy) . Ademas, si pedimos que

0 (L, y) = BL (C + Dy) = 0, (8.117)

se encuentra que B = 0. Por lo tanto 0 (x, y) = 0. De las misma condicion de


borde Eq. (8.114) se puede ver que

(0, y) = a c ey + d ey = 0

(8.118)

entonces a = 0. As, (x, y) = b sin x (c ey + d ey ) . Ademas, si pedi-


mos que

(L, y) = b sin L c ey + d ey = 0

(8.119)

se debe cumplir

sin L = 0, (8.120)

que se satisface si
n
= , n = 1, 2, 3, . (8.121)
L
De donde, las soluciones deben ser de la forma
r
n
y n 
y 2 n
n (x, y) = cn e L + dn e L sin x. (8.122)
L L
Ahora, se puede observar que la condicion de borde Eq. (8.113) implica cn = 0.
As, las soluciones deben ser de la forma
r
n y 2 n
n (x, y) = an e L sin x. (8.123)
L L
Por lo tanto, las solucion mas general que cumple las condiciones de borde
Eqs. (8.113)-(8.114) es
r
X
n y 2 n
(x, y) = an e L sin x. (8.124)
n1
L L

Para cumplir la condicion de borde Eq. (8.112) se debe pedir que


r
X 2 n
(x, 0) = V = an sin x, (8.125)
n1
L L

160
que se cumple siempre y cuando
r Z L r Z L
2 n 2 n
an = dxV sin x= V dx sin x
L 0 L L 0 L
r Z L
2 L d n
= V () dx cos x
L n 0 dx L
r L r
2 L n 2 L
= V () cos x = V () [()n 1] , (8.126)
L n L L n 0

de donde
r
2 2V L
a2n1 = , a2n = 0. (8.127)
L (2n 1)
Sustituyendo estos resultados en Eq. (8.124), se obtiene
4V X 1 (2n1) (2n 1)
(x, y) = e L y sin x. (8.128)
n1 2n 1 L

Ahora, note que



(2n1)
y (2n 1)  (2n1) (2n1) 
y i x
 (2n1)
(ixy)

e L sin x = Im e L e L = Im e L
L  (2n1)  (2n1)
= Im ei L (x+iy) = Im ei L (x+iy) ,

por lo tanto, definiendo



= ei L (x+iy) ,
se encuentra
!
4V X 2n1
(x, y) = Im . (8.129)
n1
2n 1

Ahora, recordemos las series


1 X 1 X
= n, = ()n n , (8.130)
1 n0
1+ n0

de las cuales se deduce


Z
d X n+1 X n
= ln(1 ) = = ,
1 n0
n + 1 n1
n
n n+1
n
Z
d X () X
= ln(1 + ) = = ()n+1 , (8.131)
1+ n0
n+1 n1
n

161
que a su vez implican

1+
 X 1 + ()n+1 n
ln = ln(1 + ) ln(1 ) =
1 n1
n
X 2n1
= 2 . (8.132)
n1
2n 1

Entonces
  
2V 1+
(x, y) = Im ln . (8.133)
1
Ademas, si definimos
1+ Im(z)
z= = |z|ei , tan = , (8.134)
1 Re(z)
se tiene que
ln z = ln |z| + i. (8.135)
As,
2V
(x, y) =
. (8.136)

Considerando la definicion de , tenemos
1+ (1 + )(1 ) 1 +
z = = =
1 |1 |2 |1 |2

1 + ei L (x+iy) ei L (xiy) ei L (x+iy) ei L (xiy)
=
|1 |2
y  2
1 + e L ei L x ei L x e L
=
|1 |2
2y y
1 e L + 2ie L sin 2x
L
= , (8.137)
|1 |2
entonces
y
2e L sin 2x
L
2 sin 2x
L
sin 2x
L
tan = = y y = . (8.138)
1 e
2y
L e L e L sinh y
L

Por lo tanto,
sin 2x
 
2V
(x, y) = tan1 L
. (8.139)
sinh y
L

162
8.11. Ecuacion de Poisson en dos dimensiones
con coordenas polares
En coordenas polares, la ecuacion de Laplace en dos dimensiones es
1 2
 
2 1
2D = + 2 2 = 0. (8.140)

Para resolverla propondremos (, ) = R()(), de donde

R() 2 ()
 
2 () R()
2D = + 2 = 0, (8.141)
2
que implica
2 22D 1 2 ()
 
R()
= + = 0. (8.142)
R() () 2
Por lo tanto,
2 22D 1 2 ()
   

= = 0, (8.143)
() 2
as
1 2 () 2 ()
= 2 , = 2 (), = constate. (8.144)
() 2 2
Sustituyendo este resultado en Eq. (8.142) se llega a
   
R() 2 R()
= 0, = 2 R(). (8.145)
R()
En consecuencia las ecuaciones a resolver son
2 ()
 
2 R()
= (), = 2 R(). (8.146)
2
Si = 0, para el sector angular se tiene

() = (A + B) , A, B = constante. (8.147)

Para la parte radial se tiene la ecuacion


 
R()
= 0, (8.148)

163
es decir
R()
= C, C = constante, (8.149)

entonces
R() = C ln + D, D = constante. (8.150)
Por lo tanto,
0 (, ) = (A + B) (C ln + D) , A, B, C, D = constante. (8.151)
Si 6= 0, la parte angular tiene como solucion
() = a cos + b sin , a , b = constante. (8.152)
Para la parte radial propondremos R() = E , con E una contante. Al susti-
tuir esta propuesta en Eq. (8.146) se encuentra 2 = 2 , es decir = . As,
la solucion radial es
R() = c + d , c , d = constante. (8.153)
De donde, si 6= 0, las soluciones son
(, ) = (a cos + b sin ) c + d .

(8.154)
como (, ) y (, + 2) representan el mismo punto en el espacio, se debe
cumplir que
(, ) = (, + 2). (8.155)
Para el caso = 0 esta condicion implica B = 0, de donde
0 (, ) = C ln + D, C, D = constante. (8.156)
Si 6= 0, la condicion Eq. (8.155) impone que
cos ( + 2) = cos , sin ( + 2) = sin , (8.157)
que se satisfacen si n = , con n = 1, 2, 3, . Por lo tanto, las soluciones son
n (, ) = (an cos n + bn sin n) cn n + dn n .

(8.158)
Esto nos indica que, usando coordenas polares, la solucion general a la ecuacion
de Poisson en dos dimensiones es
a0 X  an bn

cos n + sin n cn n + dn n . (8.159)

(, ) = C ln + +
2 n1

164
8.11.1. Formula de Poisson en dos dimensiones
Un cilindro infinito de radio R esta a potencial V () en su superficie.
Suponiendo que el potencial es finito en cualquier punto del espacio, muestre
que el potencial se puede escribir como
"  2 # Z 2
1 < d0 V (0 )
(, ) = 1  2 , (8.160)
2 >
 
0 1 2 > cos( ) + ><
< 0

con < = menor{, R} y > = mayor{, R}.

Para este caso se debe ocupar la ecuacion de Poisson en tres dimensiones


con coordenadas cilndricas. Pero en el cilindro es infinito el potencial no de-
pende de z, por lo tanto la ecuacion que se debe satisfacer es la ecuacion de
Poisson en dos dimensiones en coordenadas polares Eq. (8.140). As, el po-
tencial debe ser de forma Eq. (8.159). Como el potencial debe ser finito en el
interior del cilindro, en esta region debe tomar la forma
a0 X  an bn
 
n
int (, ) = + cos n + sin n . (8.161)
2 n1 R

Ahora, como el potencial debe ser finito en el exterior del cilindro, en esta
region debe tomar la forma
X  An   n
A0 Bn R
ext (, ) = + cos n + sin n . (8.162)
2 n1

Ademas, si = R se debe cumplir


A0 X  An Bn

V () = ext (R, ) = + cos n + sin n
2 n1
 
a0 X an bn
= int (R, ) = + cos n + sin n ,
2 n1

que implica

V (0 ) 0
Z
A0 = a0 = d , (8.163)
2
Z
cos n0
an = An = V (0 ) d0 , (8.164)

Z

sin n0
bn = Bn = V (0 ) d0 . (8.165)

165
As, los potenciales son
a0 X  an bn
 
n
int (, ) = + cos n + sin n ,
2 n1 R
X  an   n
a0 bn R
ext (, ) = + cos n + sin n ,
2 n1

estos dos potenciales se puenden escribir como


X  an   n
a0 bn <
(, ) = + cos n + sin n .
2 n1 >

Ahora, sustituyendo los coeficientes de Fourier Eq. (8.163) en Eq. (8.165) se


encuentra
Z
1 V (0 ) 0
(, ) = d +
2 2
Z
X 1 cos n0
+ cos n d0 V (0 ) d0
n1

Z 0
  n
1 0 0 sin n 0 <
+ sin n d V ( ) d
>
Z  n !
1 1 X <
= d0 V (0 ) + (cos n0 cos n + sin n0 sin n)
2 n1 >
Z  n !
0
0 V ( ) 1 X <
= d + cos n( 0 ) .
2 n1
>

Definamos
 
< 0
z= ei( ) < 1, (8.166)
>
de donde
 
<
Rez = cos( 0 ). (8.167)
>
As,
!

(0 )
Z
0V 1 X n
(, ) = d Re + z
2 n1

166
!

(0 )
Z
0V 1 X
= d 1+1+
Re zn
2 n1
Z !
V (0 ) 1 X n
= d0 Re + z
2 n0
Z 0
 
0 V ( ) 1 1
= d Re + . (8.168)
2 1+z

Ahora, notemos que

1 1 11z 1 (1 z)(1 + z ) 1 1 + z z z
+ = = = . (8.169)
2 1+z 21+z 2 |1 + z|2 2 |1 + z|2

Ademas, considerando la definicion Eq. (8.166) se tiene


   2
< 0 <
1+z zz z = 1 2i sin( ) ,
> >
   
< 0 <
1+z = 1+ cos( ) + i sin( 0 )
> >
   2  2
< 0 <
|1 + z|2 = 1+ cos( ) + sin2 ( 0 )
> >
   2
< <
= 1+2 cos( 0 ) + . (8.170)
> >

Por lo tanto

 2

1 1
  
1 1 <>
Re + =  2 . (8.171)
2 1+z 2
 
1 + 2 > cos( ) + <>
< 0

Sustituyendo este resultado en Eq. (8.168) se llega a


"  2 # Z 2
1 < d0 F (0 )
(, ) = 1  2 ,
2 >
 
0 1 2 <> cos( 0 ) + ><

que es lo que se queria demostrar.

167
8.11.2. Cilindro infinito
Suponga que un cilindro infinito de radio R tiene en su superficie el poten-
cial
 

V ,
  , 2
V  2 , 0 ,

V () = (8.172)

V  0, 2  ,
V 2 , .

Suponiendo que el potencial es finito en cual quier punto del espacio, mostrar
que el potencial en todo el espacio es
 2
<
2V 2 > sin 2
(x, y) = tan1  4 , (8.173)

1 <>

con < = menor{, R} y > = mayor{, R}.

Por las caractersticas del sistema, el potencial es de la forma Eq. (8.159)


con los coeficientes de Fourier dados por Eqs. (8.163)-(8.165). Ademas, como
V () es una funcion impar se encuentra que a0 = an = 0 y
Z Z
1 2
bn = dV () sin n = dV () sin n
0
!
2V 2 2V  n 
= cos n cos n = ()n+1 1 + 2 cos .
n 0 n 2
2

Como cos (2n1)


2
= 0, se encuentra que b2n1 = 0, mientras que

2V 2V
b2n = (1 + cos n) = (1 + ()n ) ,
n n

de donde b2(2n) = 0 y

4V
b2(2n1) = . (8.174)
(2n 1)

Por lo tanto el potencial electrico es


 2(2n1)
4V X < 1
(, ) = sin 2(2n 1).
n1 > 2n 1

168
Con la definicion
 2
<
= ei2 , (8.175)
>
el potencial se puede escribir de la forma
!
4V X Im 2n1 4V X 2n1
(, ) = = Im .
n1 2n 1 n1
2n 1

Ademas, demas usando la serie



1+
 X 2n1
ln =2
1 n1
2n 1

se obtiene
  
2V 1+
(x, y) = Im ln . (8.176)
1
Ahora, si definimos
1+ Im(z)
z= = |z|ei , tan = , (8.177)
1 Re(z)
se encuentra

ln z = ln |z| + i, (8.178)

de donde
2V
(x, y) = . (8.179)

Ocupando la definicion de tenemos que
1+ (1 + )(1 ) 1 +
z = = =
1 |1 |2 |1 |2
 2  4  4  2
1 + 2i >< sin 2 <> 1 <> + 2i <> sin 2
= =
|1 |2 |1 |2
entonces
 2
<
2 >
sin 2
tan =  4 , (8.180)
<
1 >

169
de donde
 2
<
2V 2 > sin 2
(x, y) = tan1  4 , (8.181)

1 <>

que es lo que se queria mostrar.

8.12. Ecuacion de Schrodinger en una dimen-


sion
La ecuacion de Schrodinger en una dimension es
(x, t) ~2 2
i~ = H(x, t), H= + V (x). (8.182)
t 2m x2
Para resolver esta ecuacion, propondremos que (x, t) = T (t)(x), sustituyen-
do esta propuesta en Eq. (8.182) se encuentra
T (t)
i~(x) = T (t)H(x), (8.183)
t
de donde
1 T (t) 1
i~ = H(x). (8.184)
T (t) t (x)
Por lo tanto,
 
1 T (t)
i~ = 0, (8.185)
t T (t) t
es decir
 
1 T (t) T (t)
i~ = E, i~ = ET (t), E = constante,
T (t) t t
de donde
Et
T (t) = ei ~ . (8.186)
Sustituyendo este resultado en Eq. (8.184) se llega a
H(x) = E(x), (8.187)
como H es un operador Hermtico, E debe ser una constante real.

170
8.12.1. Pozo infinito
Suponga que el potencial es dado por

0 0 x L,
V (x) = (8.188)
x < 0, x > L.
Este potencial representa una partcula encerrada en una lnea de longitud L.
Como la partcula esta encerrada, se deben cumplir las condiciones de frontera
(0) = (L) = 0, que son condiciones de Dirichlet. Por lo tanto, Eq. (8.187)
es tipo Sturm-Llioville y sus soluciones deben formar una base ortonormal.

Dentro de la lnea [0, L], se tiene la ecuacion


~2 2 (x)
H(x) = = E(x), (8.189)
2m x2
es decir
2 (x) 2mE
= (x), (8.190)
x2 ~2
cuya solucion general es
r r
2mE 2mE
(x) = AE sin 2
x + BE cos x, AE , BE = constante. (8.191)
~ ~2
La condicion de borde (0) = 0 implica BE = 0. Mientras que la condicion
(L) = 0 implica
r
2mE
sin L = 0, (8.192)
~2
es decir
r
2mE
L = n. (8.193)
~2
Por lo tanto las unicas energas permitidas son
~2  n 2
En = , (8.194)
2m L
ademas las funciones de onda normalizadas son
r
2 n
n (x) = sin x. (8.195)
L L
Entonces, las funciones de onda del sistema son
r
X En t 2 n
(x, t) = an ei ~ sin x. (8.196)
n1
L L

171
8.13. Ecuacion de Onda
La ecuacion de onda en una dimension es
 2
1 2


(x, t) = 0. (8.197)
x2 c2 t2
Para resolver esta ecuacion propondremos la funcion (x, t) = T (t)X(x), al
sustituirla en Eq. (8.197) se obtiene
2 X(x) X(x) 2 T (t)
T (t) 2 = 0, (8.198)
x2 c t2
que implica
1 2 X(x) 1 2 T (t)
= , (8.199)
X(x) x2 T (t)c2 t2
de donde
1 2 X(x)
 

= 0, (8.200)
x X(x) x2
es decir
1 2 X(x)
= 2 , = constante, (8.201)
X(x) x2
al considerar este resultado en Eq. (8.199) se llega a
1 2 T (t)
= 2 . (8.202)
T (t)c2 t2
Por lo tanto, las ecuaciones a resolver son
2 T (t) 2 X(x)
= 2 c2 T (t), = 2 X(x). (8.203)
t2 x2
Si = 0, se tienen las soluciones
T (t) = (A + Bt) , X(x) = (C + Dx) , A, B, C, D = constante,
es decir
0 (x, t) = (A + Bt) (C + Dx) . (8.204)
Si 6= 0 se encuentra que
X(x) = (a cos x + b sin x) , T (t) = (c cos ct + d sin ct) ,
con a , b , c , d son constantes. De estas soluciones se tiene
(x, t) = (a cos x + b sin x) (c cos ct + d sin ct) . (8.205)

172
8.13.1. Cuerda con extremos fijos
Supongamos que tenemos una cuerda de longitud L con los extremos fi-
jos. Para este caso, las soluciones de la ecuacion de onda deben satisfacer las
condiciones de borde

(0, t) = (L, t) = 0. (8.206)

Estas condiciones implican

0 (0, t) = A(C + Dt) = 0, (8.207)

es decir A = 0, ademas

0 (L, t) = BL(C + Dt) = 0, (8.208)

que induce B = 0. Por lo tanto 0 (x, t) = 0. Para el caso 6= 0, se tiene

(0, t) = a (c cos ct + d sin ct) = 0, (8.209)

es decir a = 0, ademas

(L, t) = b sin L (c cos ct + d sin ct) = 0, (8.210)

que implica sin L = 0, por lo que L = n. De donde, en este caso las


soluciones deben ser de la forma
r  nx      
2 nct nct
n (x, t) = sin cn cos + dn sin . (8.211)
L L L L
As, la solucion general es
r  nx      
X 2 nct nct
(x, t) = sin cn cos + dn sin . (8.212)
n1
L L L L

8.13.2. Condiciones iniciales


Supongamos que se cumplen las condiciones iniciales

(x, t)
(x, 0) = f (x), = g(x), (8.213)
t t=0
entonces
r
X 2  nx 
(x, 0) = f (x) = cn sin , (8.214)
n1
L L

173
por lo tanto
Z L r Z L r
2  nx  2  nx 
cn = dx sin f (x) = dx sin (x, 0). (8.215)
0 L L 0 L L
Ademas,
r
(x, t) X  nc  2  nx 
= g(x) = dn sin , (8.216)
t t=0 n1
L L L

por lo tanto
 Z L
r
L 2  nx 
dn = sin dx g(x)
nc
0 L L
 Z L r  nx  (x, t)
L 2
= dx sin .
nc 0 L L t t=0

8.13.3. Energa
La energa para una cuerda esta dada por
"  2  2 #
1 L
Z
1 (x, t) (x, t)
H= dx 2 + (8.217)
2 0 c t x

Para calcular esta cantidad note que


r  nx      
(x, t) X 2  nc  nct nct
= sin cn sin + dn cos ,
t n1
L L L L L
r    nx      
(x, t) X 2 n nct nct
= cos cn cos + dn sin ,
x n1
L L L L L

de donde
 2 X X     r  nx  r 2  
1 (x, t) n l 2 lx
= sin sin
c2 t n1 l1
L L L L L L
         
nct nct lct lct
cn sin + dn cos cl sin + dl cos ,
L L L L
 2 X X     r  nx  r 2  
(x, t) n l 2 lx
= cos cos
x n1 l1
L L L L L L
         
nct nct lct lct
cn cos + dn sin cl cos + dl sin ,
L L L L

174
ocupando las relaciones de ortormalidad se encuentra

Z L  2 X  n 2     2
1 (x, t) nct nct
dx 2 = cn sin + dn cos ,
0 c t n1
L L L
Z L  2 X  n 2     2
(x, t) nct nct
dx = cn cos + dn sin .
0 x n1
L L L

Por lo tanto, la energa es


1 X  n 2 
(cn )2 + (dn )2 .

H= (8.218)
2 n1 L

175
Captulo 9

El Oscilador Armonico y los


Polinomios de Hermite

En este captulo obtendremos las funciones de onda propias del oscilador


armonico cuantico. En principio para obtener estas funciones se debe resol-
ver una ecuacion diferencial ordinaria de segundo orden. Sin embargo, J. G.
Darboux desarollo el llamado metodo de factorizacion, el cual permite resolver
diferentes ecuaciones diferenciales de forma algebraica. Al surgir la mecanica
cuantica este metodo mostro su gran potencial, pues con el se pueden obtener
soluciones exactas de sistemas sofisticados.

El material de este captulo es importante desde el punto de vista fsico,


pues se presentan los operadores de ascenso y descenso, los cuales nos abre
una ventana que nos permite ver mas alla del oscilador armonico. Tambien es
importante como herramienta matematica, pues muestra como herramientas
algebraicas permiten resolver ecuaciones diferenciales.

9.1. Hamiltoniano
El operador Hamiltoniano para el oscilador armonico en una dimension es
1 2 m 2 2
H = p + x , x = x, p = i~ , (9.1)
2m 2 x
de donde la ecuacion de onda estacionaria es
~2 2 m 2 2
 
H(x) = + x (x) = E(x). (9.2)
2m x2 2
Esta ecuacion esta definida en el intervalo (, ) y se debe cumplir las con-
diciones de Dirichlet () = () = 0. Resolver este problema equivale a

176
encontrar las funciones propias (x) y los valores propios E.

Aun sin resolver el problema sabemos que E debe ser real, pues p y x son
operadores Hermticos. Ademas para cualquier funcion f se cumple

0 hpf |pf i = f |p pf = f |p2 f ,




0 hxf |xf i = f |x xf = f |x2 f ,




por lo que
  2
m 2 2
 
p
0 hf |Hf i = f
+ x f . (9.3)
2m 2

En particular si f = y H = E se tiene

0 E h|i . (9.4)

De este resultado es claro que si E < 0, entonces h|i = 0, que implica que
(x) = 0. Ademas, si h|i =6 0, entonces E 0. Es decir, la unica solucion
con valor propio negativo es (x) = 0, en cualquier otro caso se debe cumplir
que E 0.

9.1.1. Ortonormalidad
Tambien podemos ver que Eq. (9.2) es tipo Sturm-Liouville, por lo que sus
soluciones que satisfancen la condiciones de Dirichlet () = () = 0
con valores propios diferentes, son ortogonales. Es decir, si a (x) y b (x) son
soluciones de Eq. (9.2) con los valores propios Ea y Eb y ademas a () =
b () = 0, entonces se cumple
Z
(Ea Eb ) dxa (x)b (x) = 0. (9.5)

En particular, si Ea 6= Eb , tenemos
Z
dxa (x)b (x) = 0. (9.6)

Por lo que las funciones de onda con diferente valor propio son ortonormales.
Si Ea = Eb , entonces la integral
Z Z

dxa (x)b (x) = dxa (x)a (x)

177
es la norma de la funcion de onda, la cual supondremos que esta normalizada,
es decir,
Z
dx|a (x)|2 = 1. (9.7)

Como este resultado es valido para cualquier valor propio, se encuentra


Z
ha |a i = dxa (x)b (x) = ab . (9.8)

Por lo tanto, las funciones de onda del oscilador armonico forman una base
ortonormal.

9.2. Operadores de acenso y decenso


Recordemos que se cumplen la reglas de conmutacion
[x, p] = xp px = i~, [x, x] = [p, p] = 0. (9.9)
Ahora, definamos el operador
1
a = (p imx) . (9.10)
2m~
Como p y x son operadores hermticos se tiene
1
a = (p + imx) . (9.11)
2m~
De donde
1
a a = (p + imx) (p imx)
2m~
1
= [p (p imx) + imx (p imx)]
2m~
1
pp im px + imxp + m2 2 xx

=
2m~
1
p2 + m2 2 x2 + im (xp px)

=
2m~
1
p2 + m2 2 x2 + im[x, p]

=
2m~ 
1 2 m 2 2 1

2m
= p + x ~
2m~ 2m 2 2
 
1 ~
= H , (9.12)
~ 2

178
por lo tanto,
 
1
H = ~ a a + . (9.13)
2
Ademas, se cumple
 
a, a = 1, (9.14)

en efecto, tomando en cuenta (9.9) se encuentra


 
  (p imx) (p + imx) 1
a, a = , = [p imx, p + imx]
2m~ 2m~ 2m~
1
= ([p, p + imx] im [x, p + imx])
2m~
1
= ([p, p] + im [p, x] im ([x, p] + im [x, x]))
2m~
1 2m~
= (im(i~) im(i~)) = = 1.
2m~ 2m~
Tambien se cumplen las reglas de conmutacion
h i h i
H, a = ~a, H, a = ~a , (9.15)

pues
   
h i
1
, a = ~ a a, a = ~ a [a, a] + a , a a
    
H, a = ~ a a +
2
 
= ~ a , a a = ~a,
   
h

i
1
, a = ~ a a, a = ~ a a, a + a , a a
      
H, a = ~ a a +
2
= ~a a, a = ~a .

 

Estas dos igualdades se pueden escribir como

Ha = aH ~a, (9.16)
Ha = a H + ~a . (9.17)

Con la ayuda de estas identidades encontraremos los valores propios E y las


funciones propias (x) del operador Hamiltoniano H. Primero supongamos
que (x) satisface la ecuacion H(x) = E(x), entonces las funciones

(1) (x) = a(x), +(1) (x) = a (x), (9.18)

179
satisfacen las ecuaciones
H(1) (x) = (E ~) (1) (x), (9.19)
H+(1) (x) = (E + ~) +(1) (x). (9.20)
Para probar estas afirmaciones primero notemos que de Eq. (9.16) se obtiene
 
H(1) (x) = Ha(x) = aH ~a (x) = aH(x) ~a(x)
= Ea(x) ~a(x) = (E ~) a(x) = (E ~) (1) (x),
mientras que de Eq. (9.17) se encuentra
 
H+(1) (x) = Ha (x) = a H + ~a (x) = a H(x) + ~a (x)
= Ea (x) + ~a (x) = (E + ~) a (x) = (E + ~) +(1) (x).
Por lo tanto, la funcion (1) (x) es funcion propia de H con valor propio
E ~, mientras que +(1) (x) es funcion propia de H con valor propio E + ~.
Es decir, si es solucion de la ecuacion Schrodinger del oscilador armonico,
la funciones (1) = a y +(1) = a tambien son soluciones de esta ecuacion.

Por induccion se puede probar que las funciones


n
(n) (x) = (a)n (x), +(n) (x) = a (x), (9.21)
satisfacen
H(n) (x) = (E n~) (n) (x), (9.22)
H+(n) (x) = (E + n~) +(n) (x). (9.23)
Para ambos casos la base inductiva ya esta probada, falta probar el paso in-
ductivo. Primero probaremos el paso inductivo para las funciones (n) (x), en
este caso debemos suponer que se cumple Eq. (9.22) y probar
H(n+1) (x) = [E (n + 1)~] (n+1) (x), con
n+1
(n+1) (x) = a(n) (x) = (a) (x).
Esta igualdad es cierta, pues de Eq. (9.16) y Eq. (9.22) se llega a
 
H(n+1) (x) = Ha(n) (x) = aH ~a (n) (x)
= aH(n) (x) ~a(n) (x)
= (E n~) a(n) (x) ~a(n) (x)
= (E n~ ~) a(n) (x)
= [E (n + 1)~] (n+1) (x),

180
as la igualdad Eq. (9.22) se satisface para cualquier n.

Para el caso de +n (x) debemos suponer Eq. (9.23) y probar que se cumple

H+(n+1) (x) = [E + (n + 1)~] +(n+1) (x), con (9.24)


n+1
+(n+1) (x) = a +(n) (x) = a (x).

Esta igualdad tambien es cierta, pues de Eq. (9.17) y Eq. (9.23) se encuentra
 
H+(n+1) (x) = Ha +(n) (x) = a H + ~a +(n) (x)
= a H+(n) (x) + ~a +(n) (x)
= (E + n~) a +(n) (x) + ~a +(n) (x)
= (E + n~ + ~) a +(n) (x)
= [E + (n + 1)~] +(n+1) (x).

Por lo tanto la igualdad Eq. (9.23) es validas para cualquier natural n.

Lo que hemos demostrado es que si (x) es funcion propia de H, con


valor propio E, entonces, dado cualquier natural n, las funciones (a)n (x)
n
y a (x) tambien son funciones propias del mismo operador, con valores
propios E n~ y E + n~, respectivamente.

Ahora, note que para cualquier valor E existen un natural n tal que el
valor propio En = E n~, con funcion propia (n) (x) = (a)n (x), sa-
tisfce E(n) = E n~ < 0. Esto implica que n (x) = 0. Es decir, si (x)
es una funcion propia de H existe un natural n tal que (a)n (x) = 0. Note
que en realidad existe un numero infinito de posibles valores de n, pues si
(a)n (x) = 0, entonces tambien se cumple (a)n+1 (x) = 0.

Supongamos n0 es el mnimo de los valores posibles de n tal que (a)n (x) =


0
0 y definamos N = n0 1. Entonces, la funcion 0 (x) = (a)n 1 (x) =
(a)N (x) satisface a0 (x) = 0. Note que 0 (x) 6= 0, pues de lo contrario
n0 no sera el mnimo de los valores de n, note tambien que el valor de la
energa de 0 (x) es
E0 = E N ~.
As, podemos afirmar que existe una funcion, 0 (x), tal que

a0 (x) = 0, 0 (x) 6= 0 (9.25)

181
a esta funcion le llamaremos estado base. Con el estado base se encuentra
 
1 ~
H0 (x) = ~ a a + 0 (x) = 0 (x) = E0 0 (x). (9.26)
2 2
Por lo que E0 = ~/2 es el valor propio de 0 (x), pero este valor propio debe
ser igual a E0 = E N ~, de donde
 
1
E = EN = ~ N + . (9.27)
2

Como (x) es cualquier estado propio de H, los valores propio E son discretos.
N
Ademas, si definimos N (x) = a 0 (x) y consideramos (9.23), se llega
a
 
1
HN (x) = (E0 + N ~)N (x) = ~ N + N (x). (9.28)
2
As, N (x) tiene el mismo valor propio que (x). Por lo tanto, (x) y N (x)
satisfacen la misma ecuacion diferencial de segundo orden con las mismas con-
diciones de borde, esto implica que estas funciones deben ser iguales.

9.3. Estado base y ortonormalidad


En el caso que estamos estudiado, cualquier solucion de la ecuacion de
Schrodinger se puede expresar en terminos del estado base. Entonces, basta
conocer esta funcion para obtener todas las soluciones. El estado base lo hemos
definido como la funcion que satisface
 
1 1
a0 (x) = (p imx) 0 (x) = i~ imx 0 (x)
2m~ 2m~ x
 
i~ m
= + x 0 (x) = 0,
2m~ x ~
es decir, el estado base debe ser solucion de la ecuacion diferencial

0 (x) m
= x0 (x),
x ~
cuya solucion es
m x2
0 (x) = Ae ~ 2 , A = constante.

182
Para determinar la constante A pediremos
Z
dx0 (x)0 (x) = 1,

que quiere decir que el estado base tiene norma unitaria. De esta condicion
tenemos
Z Z 2 Z
x2

m m 2
dx0 (x)0 (x) = dx Ae ~ 2 =A2
dxe ~ x = 1,

entonces
1
A = qR .
m x2

dxe ~

Ahora recordemos como calcular una integral de la forma


Z
2
I= dxex , > 0, = constante.

Notablemente, es mas facil calcular I 2 , que es


Z  Z  Z Z
x2 y 2 2 2
2
I = dxe dye = dx dyex ey
Z Z

dye(x +y ) ,
2 2
= dx

ocupando coordenadas polares tenemos


 
r2
Z Z 2
2
Z
2
Z
(1) d e
I2 = drr der = 2 drrer = 2 dr
0 2 dr
0 0 0
2
= er = .
0

De donde

Z r
x2
I= dxe = ,

considerando este resultado encontramos


 m 1/4
A= .
~
183
As, el estado base normalizado es
 m 1/4 m x2
0 (x) = e ~ 2 . (9.29)
~
Con esta funcion y a podemos construir el resto de las funciones propias de
H, que tienen la forma
n
n (x) = An a 0 (x), (9.30)

donde, An es una constante de normalizacion. Antes de calcular explcitamente


las funciones de onda n (x), calcularemos la constante de normalizacion An .
Recordemos que las funciones n (x) deben tener norma unitaria, es decir,

hn (x)|n (x)i = 1. (9.31)

Ahora,
n n
An a 0 (x)|An a 0 (x)n


hn |n i =

n n
= An An a 0 (x)| a 0 (x)n

n
= An An 0 (x)|an a 0 (x)


Z

n
= An An dx0 (x)(a)n a 0 (x). (9.32)

n  n1
Como a, a = 1, se tiene a, a = n a
  
y entonces
n n
(a)n a 0 (x) = (a)n1 a a 0
n n n 
(a)n1 a a a a + a a 0 (x)

=
n  n 
(a)n1 a, a + a a 0 (x)

=
 n1 n 
= (a)n1 n a + a a 0 (x)
 
n1 n1 n
 
= (a) n a 0 (x) + a a0 (x)
n1
n(a)n1 a

= 0 (x). (9.33)

Este resultado lo podemos aplicar de forma reiterada k veces, donde k n,


por lo que
n nk
(a)n a 0 (x) = n(n 1)(n 2) (n (k 1))(a)nk a 0 (x)
n! nk
= ank a 0 (x). (9.34)
(n k)!

184
El maximo valor que puede tomar k es n, de donde
n
(a)n a 0 (x) = n!0 (x). (9.35)

Introduciendo esta igualdad en (9.32), se obtiene


Z
2
hn (x)|n (x)i = |An | n! 0 (x)0 (x) = 1, (9.36)

as
1
An = . (9.37)
n!
Por lo tanto, las funciones de onda normalizadas son
1 n
n (x) = a 0 (x). (9.38)
n!

9.4. Polinomios de Hermite


Veamos la forma explcita de las funciones n (x), primero consideraremos
que
 m 1/4 mx2
0 (x) = e 2~ ,
~  
1 1
a = (p + imx) = i~ + imx
2m~ 2m~ x
 
i~ m
= x ,
2m~ x ~
por lo que, ocupando el cambio de variable
r r
2 mx2 m d ~ d
= , = x, = , (9.39)
~ ~ d m dx
se tiene
 
 m 1/4 2
2 i
0 () = e , a = .
~ 2
Por lo tanto, introduciendo estos resultados en Eq. (9.38) se llega a
 m 1/4 (i)n  n
2
n () = e 2 . (9.40)
~ n!2n

185
Note que
 2 
2
2 d

2

2 df 2
d e
e2 f e 2 = e 2 e 2 + f

d d d

   
2 df 2 2 df
= e 2 e 2 f e 2 = f ,
d d

es decir,
   
2 d 2
2 d
e 2 fe = f. (9.41)
d d

En general se cumple
n
dn
  
2 2
2 d
e 2 fe = f. (9.42)
d n d

Probaremos esta afirmacion por induccion. La base inductiva, n = 1 ya ha sido


demostrada, falta demostrar el paso inductivo. Aqu debemos suponer que se
cumple Eq. (9.42) y demostrar
n+1
dn+1
  
2 2
2 d
e 2 fe = f. (9.43)
d n+1 d

Ocupando la hipotesis de induccion, se encuentra


 n+1   n   2 n  
d d d d d 2
f= f = e 2 n fe 2 ,
d d d d d
2 2
n
 
as definiendo f = e 2 dd n f e 2 y usando Eq. (9.41) se obtiene
 n+1    2 
d d 2 d
f = f =e2 e 2 f
d d d
 2 2 n  
2
d d 2
= e2 e 2 e 2 n fe 2
d d
n n+1
    
2 d d 2 2 d 2

= e2 fe 2 = e 2 n+1 f e 2 ,
d d n d

que es lo que se queria demostrar, esto implica que Eq. (9.42) es valida para
cualquier numero natural n. Introduciendo el resultado Eq. (9.42) en Eq. (9.40)

186
se llega a
 m 1/4 (i)n 2 n  2 2 
n () = e 2 n e 2 e 2
~ n!2n
 m 1/4 (i)n 2
2
n
2
= e 2 ()n e n
e . (9.44)
~ n!2n

Definiremos el polinomio de Hermite de grado n como

2 n 2
Hn () = ()n e e . (9.45)
n
A esta expresion tambien se le llama formula de Rodrigues para los polinomios
de Hermite. En particular se tiene

H0 () = 1, H1 () = 2, H2 () = 2 + 4 2 , . (9.46)

Por lo tanto, la funcion de onda Eq. (9.44) se escribe como


 m 1/4 (i)n 2
n () = e 2 Hn () (9.47)
~ n!2n
Debido a que las funciones de onda forman un conjunto ortonormal de funcio-
nes, ocupando el cambio de variable Eq. (9.39), tenemos
Z Z r !
~
nl = < n (x)|l (x) >= dxn (x)l (x) = d n ()l ()
m
r
~  m 1/2 (i)n (i)l
Z
2
= de Hn ()Hl (),
m ~ n!2n l!2l
es decir
Z
2
de Hn ()Hl () = 2n n!nl . (9.48)

De donde, los polinomios de Hermite, forman un conjunto de funciones orto-


2
normales con funcion de peso e .

187
9.5. Funcion generadora
Ahora veremos una funcion que esta intimamente relacionada con los po-
linomios de Hermite, la llamada funcion generadora. Primero recordemos que
cualquier funcion, f (z), bien comportada se puede expresar en su serie de
Taylor
X z n  dn f (z) 
f (z) = n
, (9.49)
n0
n! dz z=0

en particular
X tn  n W (, t) 

2tt2
W (, t) = e = n
. (9.50)
n0
n! t
t=0

Note que, como

2t t2 = t2 2t + 2 2 = (t )2 2 = (t )2 + 2 ,
 

entonces
2 2 2 2
n W (, t) n e2tt n e (t) n (t)
2 e
= = = e . (9.51)
tn tn tn tn
Ademas, con el cambio de variable u = t se tiene
u
= = () , u|t=0 = . (9.52)
t t u u
Por lo tanto, considerando Eq. (9.45) se tiene
n (t)2 n u2
n W (, t)

2 e 2 n e
= e = e () un

tn
t=0 t n
t=0 u=
n 2 n 2
2 n e n 2 e
= e () = () e = Hn (), (9.53)
n n

sustituyendo este resultado en Eq. (9.50) se llega a


2
X tn
W (, t) = e2tt = Hn (), (9.54)
n0
n!

que es la llamada funcion generadora de los polinomios de Hermite. Con esta


funcion podemos obtener la forma explcita de las funciones Hn (). Para esto

188
recordemos los resultados
N
X N!
(a + b) N
= CkN aN k bk , CkN = ,
k=0
k!(N k)!
X zN
ez = .
N 0
N!
Por lo tanto,
X (2t t2 )N X 1 X N
2tt2
k
W (, t) = e = = CkN (2t)N k t2
N 0
N! N 0
N ! k=0
X 1 X N
= CkN (2)N k ()k t2k+N k
N 0
N ! k=0
N
XX ()k
= CkN (2)N k tN +k .
N 0 k=0
N!
Para hacer mar facil el calculo, definamos n = N + k, entonces N = n k y
N k = n 2k. Note que el maximo valor que puede tener k es N, es decir
N k = n 2k 0, que implica k n/2. As, si n es par, el maximo valor
que puede tomar k es n/2. Pero si n es impar, k no puede tomar el valor n/2
porque este no es un numero natural. En este
 n  caso el maximo valor que puede
tomar k es (n 1)/2. Definiremos como 2 como el maximo entero   menor
o igual a n/2. Entonces, el maximo valor que puede tomar k es n2 . Por lo
tanto, si tomamos como variable de suma a n en lugar de N, se tiene
[ n2 ]
2tt2
XX ()k
W (, t) = e = Cknk (2)nkk tn
n0 k=0
(n k)!

X tn X [ n2 ]
()k n! nk
= Ck (2)n2k
n0
n! k=0
(n k)!

X tn X [ n2 ]
()k n! (n k)!
= (2)n2k
n0
n! k=0 (n k)! k!(n 2k)!
[ n2 ]
X tn X ()k n!
= (2)n2k
n0
n! k=0
k!(n 2k)!
X tn
= Hn (). (9.55)
n0
n!

189
Entonces,

[ n2 ]
X ()k n!
Hn () = (2)n2k . (9.56)
k=0
k!(n 2k)!

Con la funcion generatriz se pueden probar varias propiedades de los polino-


mios de Hermite, por ejemplo, note que
2 2
W (, t) = e2()tt = e2(t)(t) = W (, t). (9.57)

Utilizando Eq. (9.54) se tiene


X tn X (t)n X tn
W (, t) = Hn () = W (, t) = Hn () = ()n Hn (),
n0
n! n0
n! n0
n!

igualdando termino a termino se encuentra

Hn () = ()n Hn (). (9.58)

Por lo tanto, los polinomios de Hermite, son pares o impares dependiendo de


su grado n. En particular H2n+1 (0) = ()2n+1 H2n+1 (0), es decir

H2n+1 (0) = 0.

Ademas,
X (t2 )n X ()n t2n
t2
W ( = 0, t) = e = =
n0
n! n0
n!
X tn X H2n (0)
W ( = 0, t) = Hn (0) = t2n .
n0
n! n0
(2n)!

Igualando termino a termino estas dos expresiones se llega a

(2n)!
H2n (0) = ()n .
n!
Tambien se tiene el resultado
2
W (, t) e2tt 2
= = 2te2tt = 2tW (, t). (9.59)

190
Adicionalmente, considerando Eq. (9.54) y que H0 () = 1 se encuentra

W (, t) X tn dHn () X tn dHn ()
= = ,
n0
n! d n1
n! d
X tn X 2tn+1
2tW (, t) = 2t Hn () = Hn ()
n0
n! n0
n!
X 2tn X tn
= Hn1 () = 2nHn1 (). (9.60)
n1
(n 1)! n1
n!

De donde,

dHn ()
= 2nHn1 (). (9.61)
d

9.5.1. Ecuacion de Hermite


De la formula de Rodrguez para los polinomios de Hermite Eq. (9.45) se
tiene
!
n 2 n1 2
2 d e 2 d d e
Hn () = ()n e = ()n e
d n d d n1
" !#
n1 2
2 d 2 2 d e
= ()e e ()n1 e
d d n1
2 d
 2 

= ()e e Hn1 ()
d
 
2 2 2 dHn1 ()
= ()e 2e Hn1 () + e
d
dHn1 ()
= 2Hn1 () .
d
es decir,

dHn1 ()
Hn () = 2Hn1 () . (9.62)
d
Derivando esta igualdad con respecto a , se llega a

dHn () dHn1 () d2 Hn1 ()


= 2Hn1 () + 2 . (9.63)
d d d 2

191
Ademas, usando Eq. (9.61) se encuentra
dHn1 () d2 Hn1 ()
2nHn1 () = 2Hn1 () + 2 (9.64)
d d 2
que se puede escribir como
d2 Hn () dHn ()
2
2 + 2nHn () = 0, (9.65)
d d
esta es la llamada ecuacion de Hermite.

9.6. Metodo tradicional


Ahora ocuparemos el metodo tradicional para resolver la ecuacion de onda
del oscilador armonico
~2 2 m 2 2
 
+ x (x) = E(x). (9.66)
2m x2 2
Con el cambio de variable Eq. (9.39) la ecuacion (9.66) toma la forma
2
 
2 2E
2 + () = (). (9.67)
~
Note que en el lmite se tiene la ecuacion asintotica
2
 
2
2 + () 0. (9.68)

2
Proponemos como solucion asintotica a la funcion () = e 2 , que satisface
d
= (),
d
d2 d
= (()) = () 2 () 2 ()

d 2 d
Por lo tanto, si >> 1 se tiene
 2 
d 2
() 0. (9.69)
d 2
As, cuando las soluciones de Eq. (9.67) deben ser de la forma
2
() e 2 ,

192
para el caso general, propondremos como solucion
2
() = e 2 (), (9.70)
2
con () una funcion que crece menos rapido que e 2 cuando . Para
esta propuesta se tiene
 
d() 2
2 d()
= e () + ,
d d
d2 ()
 2 
2
2 d () d() 2

= e 2 + 1 () . (9.71)
d 2 d 2 d
Sustituyendo Eq. (9.71) en Eq. (9.67) se encuentra
 2 
2
2 d () d() 2
 2
2 2
e () 2 + 1 () + e ()
d 2 d
2E 2 2
= e 2 ().
~
De donde
d2 () d() 2E
2
+ 2 + () = (), (9.72)
d d ~
es decir
d2 ()
 
d() 2E
2
2 + 1 () = 0. (9.73)
d d ~
Para resover esta ecuacion propondremos la solucion en serie de potencia
X
() = an n , (9.74)
n0

de la cual se obtiene
  X  2E 
2E
1 () = 1 an n ,
~ n0
~
d() X X
2 = 2 nan n1 = (2n)an n ,
d n0 n0

d2 () X
n2
X
= n(n 1)a n = n(n 1)an n2
d 2 n0 n2
X
= (n + 2)(n + 1)an+2 n .
n0

193
Por lo tanto,
d2 ()
 
d() 2E
2 + 1 ()
d 2 d ~
X  2E   
= 1 2n an + (n + 2)(n + 1)an+2 n = 0,
n1
~

de donde
2n 2E

~
1 an
an+2 = , (9.75)
(n + 2)(n + 1)
es decir
2n 2E

an+2 ~
1
= . (9.76)
an (n + 2)(n + 1)
Note que esta relacion de recurrencia P
separa los terminos
P pares e 2n+1
impares, por
2n
lo que se tendran series de la forma n0 a2n y n0 a2n+1 . Para el
caso par, si n , se tiene
a2(n+1) 4n 1
, (9.77)
a2n (2n + 2)(2n + 1) n
que es el mismo comportamiento que tiene los coeficientes de Taylor de la serie
2
X 2n
e = . (9.78)
n0
n!

Por lo tanto, en este caso la solucion () tiene el mismo comportamiento


2
asintotico que e 2 . Para el caso impar, la serie tiene el mismo comportamiento
2
asintotico que e 2 . Ninguno de estos dos caso debe ocurrir, pues () debe
2
estar dominada por e 2 . El problema se resuelve si () no es una serie, sino
un polinomio. Esto se cumple si despues de cierto numero todos los terminos
de la serie son cero, es decir an+2 /an = 0. Lo que implica
 
2E
2n 1 = 0, (9.79)
~
de donde,
 
1
E = En = ~ n + . (9.80)
2

194
Entonces la energa debe ser discreta y las funciones () son polinomios.
Sustituyendo En en Eq. (9.73) se obtiene

d2 () d()
2 + 2n() = 0, (9.81)
d 2 d

que es la ecuacion de Hermite (9.65). Por lo tanto, las funciones () son los
polinomios de Hermite.

As, las soluciones de la ecuacion de onda para el oscilador armonico son


de la forma
2
n () = An e 2 Hn (), (9.82)

con Hn () el polinomio de Hermite de grado n.

9.7. Oscilador en campo electrico constante


Ahora veamos como se resuelve el problema de un oscilador armonico en
un campo electrico constante.

El operador Hamiltoniano para un oscilador en un campo magnetico cons-


tante, E, es

1 2 m 2 2
H = p + x qE x, (9.83)
2m 2
note que este operador se puede escribir como

1 2 m 2
 
2 2qE
H = p + x x ,
2m 2 m 2
2  2 !
1 2 m 2

qE qE qE
= p + x2 2 x +
2m 2 m 2 m 2 m 2
2
1 2 m 2 q2E 2

qE
= p + x (9.84)
2m 2 m 2 2m 2
qE
Por lo que, con el cambio de variable = x m 2
, se tiene

1 2 m 2 2 q2E 2
H = p + . (9.85)
2m 2 2m 2

195
Entones, la ecuacion de valores propios

1 2 m 2 2
 
H(x) = p + x qEx (x) = E(x) (9.86)
2m 2

se puede escribir como

1 2 m 2 2 q2E 2
 
H() = p + () = E(), (9.87)
2m 2 2m 2

de donde
1 2 m 2 2 q2E 2
   
p + () = E + (). (9.88)
2m 2 2m 2

Esta ultima ecuacion es la ecuacion del oscilador armonico, por lo que

q2E 2
 
1
E+ = ~ n + , (9.89)
2m 2 2

es decir los unicos valores de la energa permitidos son

q2E 2
 
1
En = ~ n + (9.90)
2 2m 2

mientras que las funciones de onda son


 m 1/4 (i)n r  
2 m qE
n () = e 2 Hn (), = x . (9.91)
~ n!2n ~ m 2

9.8. Suma de osciladores y el oscilador en D


dimensiones
Supongamos que tenemos un sistema que consiste en dos osciladores des-
acoplados. En este caso el Hamiltoniano esta dado por

p21 p22 m1 12 2 m2 22 2
H= + + x1 + x2 , (9.92)
2m1 2m1 2 2
con

p1 = i~ , p2 = i~ .
x1 x2

196
Como los osciladores son independientes, estos operadores satisfance las reglas
de conmutacion

[xk , xl ] = [pk , pl ] = 0, [xk , pl ] = i~kl , k, l = 1, 2. (9.93)

Para obtener los valores y funciones propias de H definamos los Hamilto-


nianos
p21 m1 12 2 p22 m2 22 2
H1 = + x1 , H2 = + x2 .
2m1 2 2m1 2
Tambien definamos los operadores
1 1
a1 = (p1 im1 1 x1 ) , a2 = (p2 im2 1 x2 )
2m1 1 ~ 2m2 2 ~
1 1
a1 = (p1 + im1 1 x1 ) , a2 = (p2 + im2 1 x2 ) ,
2m1 1 ~ 2m2 2 ~
que satisfacen las reglas de conmutacion
h i h i
a1 , a1 = 1, a2 , a2 = 1

y cero en cualquier otro caso. Tambien tenemos que


   
1 1
H1 = ~1 a1 a1 + , H2 = ~2 a2 a2 + ,
2 2

as, el Hamiltoniano Eq. (9.92) es


   
1 1
H = H1 + H2 = ~1 a1 a1 + + ~2 a2 a2 + . (9.94)
2 2

Ahora, recordemos que para los Hamiltonianos H1 y H2 se tiene


 
1
Hk nk (xk ) = Enk nk (xk ), Enk = ~k nk + , k = 1, 2,
2
 m 1/4 (i)nk 2
k 1 2k
nk (xk ) = nk (k ) = e Hnk (k ),
~ nk !2nk
r
mk k
k = xk ,
~
Z
hnk |lk i = dxk n k (xk )lk (xk ) = nk lk .

197
Entonces, definiremos

n1 n2 (x1 , x2 ) = n1 (x1 )n2 (x2 ), (9.95)

que satisface
 
Hn1 n2 (x1 , x2 ) = H1 + H2 n1 (x1 )n2 (x2 )
= H1 n1 (x1 )n2 (x2 ) + H2 n1 (x1 )n2 (x2 )
= n2 (x2 )H1 n1 (x1 ) + n1 (x1 )H2 n2 (x2 )
= En1 n2 (x2 )n1 (x1 ) + En2 n1 (x1 )n2 (x2 )
= (En1 + En2 ) n1 (x1 )n2 (x2 )
    
1 1
= ~1 n1 + + ~2 n2 + n1 n2 (x1 , x2 ).
2 2

Por lo que, las funciones propias de H son Eq. (9.95) y sus valores propios son
   
1 1
En1 n2 = ~1 n1 + + ~2 n2 + (9.96)
2 2

Las funciones propias Eq. (9.95) son otonormales, pues


Z Z
hn1 n2 |l1 l2 i = dx1 dx2 (n1 (x1 )n2 (x2 )) l1 (x1 )l2 (x2 )
Z


Z

= dx1 n1 (x1 ) l1 (x1 ) dx2 n2 (x2 ) l2 (x2 )

= n1 l1 n2 l2 . (9.97)

9.8.1. Cadena de osciladores


El resultado anterior se puede generalizar para un numero N de osciladores
desacoplados. En efecto, consideremos el Hamiltoniano

N 
p2k mk k2 2

X
H = + xk , pk = i~ . (9.98)
k=1
2mk 2 xk

Como los osciladores son independientes, estos operadores satisfance las reglas
de conmutacion

[xk , xl ] = [pk , pl ] = 0, [xk , pl ] = i~kl , k, l = 1, 2 N. (9.99)

198
Para obtener los valores y funciones propias de H definamos los Hamiltonianos
p2k mk k2 2
Hk = + xk
2mk 2
y los operadores
1 1
ak = (pk imk k xk ) , ak = (pk + imk k xk ) ,
2mk k ~ 2mk k ~
que satisfacen las reglas de conmutacion
h i
ak , al = kl (9.100)
y cero en cualquier otro caso. Tambien tenemos que
 
1
Hk = ~k ak ak + ,
2
as el Hamiltoniano Eq. (9.102) es
N  
X 1
H = ~k ak ak + . (9.101)
k=1
2

Ahora, recordando de nuevo que para cada Hk se tiene


 
1
Hk nk (xk ) = Enk nk (xk ), Enk = ~k nk + , k = 1, 2, , N,
2
 m 1/4 (i)nk 2
k 1 2k
nk (xk ) = nk (k ) = e Hnk (k ),
~ nk !2nk
r
mk k
k = xk ,
~
Z
hnk |lk i = dxk n k (xk )lk (xk ) = nk lk ,

definiremos
n1 n2 nN (x1 , x2 , , xN ) = n1 (x1 )n2 (x2 ) nN (xN ). (9.102)
Estas funciones satisfacen las relaciones de ortonormalidad
hn1 n2 nN |l1 l2 lN i = n1 l1 n2 l2 nN lN . (9.103)
Tambien cumplen que
Hn1 n2 nN (x1 , x2 , , xN ) = En1 n2 nN n1 n2 nN (x1 , x2 , , xN ),
con
N  
X 1
En1 n2 nN = ~k nk + . (9.104)
k=1
2

199
9.8.2. Oscilador en D dimensiones
El Hamiltoniano de un oscilador en D dimensiones es
D  2
m 2 2

X pk
H= + xk , pk = i~ . (9.105)
k=1
2m 2 x k

Matematicamente este es un caso del problema de la subseccion anterior, por


lo que los valores propios son
D  
X 1
En1 n2 nD = ~ nk + . (9.106)
k=1
2

Para este sistema las funciones propias son un caso particular de Eq. (9.102).

En particular para tres dimensiones se tiene


 
3
En1 n2 n3 = ~ n1 + n2 + n3 + , (9.107)
2
con las funciones de onda
 m 3/4 (i)n1 +n2 n3
n1 n2 n3 (x, y, z) =
~ n1 !n2 !n3 !2n1 +n2 +n3
m (x2 +y 2 +z 2 )
r  r  r 
m m m
e 2~ Hn1 x Hn2 y Hn3 z .
~ ~ ~

9.9. Niveles de Landau, partcula en un campo


magnetico constante
Ahora veamos como obtener los estados propios de una partcula cargada
en un campo magnetico constante. Este problema primero fue resuelto por
Landau, por lo que algunos autores los llaman el problema de los niveles de
Landau.

~ es
El Hamiltoniano para una partcula de carga e en un campo magetico B
1 ~ 2
~ ,
H = P eA (9.108)
2m
donde

P~ = i~,
~ ~ =
B ~ A.
~ (9.109)

200
Antes de obtener el espectro de este sistema es conveniente obtener algunos
resultados previos. Perimero note que ocupando el tensor de Levi-Civita Eq.
(1.47), se tiene

Aj
Bi = ijk , (9.110)
xk
ademas con la propiedad Eq. (1.107) se llega a

Aj Ai
ijk Bk = i
j. (9.111)
x x
Tambien es conveniente definir la derivada covariante

Di = Pi eAi , (9.112)

este operador satisface

[Di , Dj ] = ie~ijk Bk . (9.113)

En efecto,

[Di , Dj ] = [Pi eAi , Pj eAj ] = [Pi , Pj ] e[Pi , Aj ] e[Ai , Pj ] + e2 [Ai , Aj ],


 
Aj Ai
= e ([Aj , Pi ] [Ai , Pj ]) = ie~ j , (9.114)
xi x

por lo tanto, ocupando Eq. (9.111) se obtiene Eq. (9.113).

Con la derivada covariante el Hamiltoniano toma la forma


1 ~2 1
D12 + D22 + D32

H = D = (9.115)
2m 2m
Note que, sin perdida de generalidad, si el campo magnetico es constante se
puede escribir como
~ = (0, 0, B3 ),
B B3 = constante. (9.116)

En este caso las reglas de conmutacion Eq. (9.113) implican

[Di , D3 ] = 0, (9.117)

de donde

[H, D3 ] = 0. (9.118)

201
Por lo tanto, D3 es un operador constante y comparte funciones propias con
el Hamiltoniano. Es decir, existe E tal que

HE = EE , D3 E = E . (9.119)

Esto implica que


 
1 2 2 2 1
D12 + D22 E + D32 E
 
HE = D1 + D2 + D3 E =
2m 2m
1
D12 + D22 E + 2 E = EE ,

= (9.120)
2m
entonces
1
D12 + D22 E = E 2 E .
 
(9.121)
2m
Adicionalmente, definamos los operadores
1
D = p (D1 ieD2 ) , (9.122)
|e|2~B

con e el signo de e, es decir e|e| = e. Estos operadores actuan como operadores


de ascenso y descenso, en efecto usando las relaciones de conmutacion Eq.
(9.113) se encuentra que
1
D+ D = (D1 ieD2 ) (D1 + ieD2 )
|e|~2B
1
D12 + D22 + ie (D1 D2 D2 D1 )

=
|e|~2B
1
D12 + D22 + ie[D1 , D2 ]

=
|e|~2B
1 1 ee
D12 + D22 + ieei~B = D12 + D22
 
=
|e|~2B |e|~2B 2|e|
1  1
= D12 + D22 , (9.123)
|e|~2B 2
de la misma forma se obtiene
1  1
D D+ = D12 + D22 + , (9.124)
|e|~2B 2
de donde

[D , D+ ] = 1. (9.125)

202
Ademas, de Eq. (9.123) se obtiene
 
1 |e|~B 1
D12 + D22 =

D+ D + . (9.126)
2m m 2

As, los operadores D1 , D2 tienen la misma algebra que los operadores de as-
censo y descenso del oscilador armonico. Esto implica que definiendo

|e|B
= (9.127)
m
se tiene que
   
1 1
~ D+ D + E = ~ n + E . (9.128)
2 2

Entonces, usando este resultado y Eq. (9.121), Eq. (9.126) se encuentra

2
 
1
E = En = + ~ n + . (9.129)
2m 2

estos son los niveles de energa, los cuales se llaman niveles de Landau.

9.10. Ecuacion de Fokker-Planck, caso libre y


homogeneo
La ecuacion de Fokker-Planck es
  
P (x, t, ) P (x, t, ) F (x)
= + P (x, t, )
t x m m
2
g P (x, t, )
+ 2 (9.130)
2m 2

donde es una constante de friccion, m es la masa y F (x) = Vx(x) es la fuerza.


P (x,, )
Para el caso libre V (x) = 0 y homogeneo, x
= 0, la ecuacion de
Fokker-Planck (9.130) toma la forma

P (t, ) g 2 P (t, )
= (P (t, )) +
t m
 2m2 2 
g P (t, )
= P (t, ) + . (9.131)
m 2m2

203
Esta ecuacion no esta en terminos de operadores hermticos, para expresarla
con operadores hermticos usaremos la transformacion
m 2
P (, t) = e 2g (, t). (9.132)

De donde
 
P (, t) m 2 m (, t)
= e 2g (, t) + , (9.133)
g
por lo que
g P (t, )
P (t, ) + =
m 2m2  
m 2
g m 2 m (, t)
= e 2g (, t) + e 2g (, t) +
m 2m2 g
 
m 2
g (, t)
= e 2g (, t) + .
2m 2m2
Entonces,
 
g P (t, )
P (t, ) +
m 2m2
  
m
2
g (, t)
= e 2g (, t) +
2m 2m2
  
m
2
m g (, t)
=e 2g (, t) +
g 2m 2m2
 
g (, t)
+ (, t) +
2m 2m2
2 2

m 2 (, t)
= e 2g (, t) + (, t)
2g 2m 2m
g 2 (, t)

(, t)
+ +
2m 2m2 2
2 2 2
  
m
2
g (, t)
= e 2g (, t) +
2m 2g 2m2 2
m 2
= e 2g H(, t) (9.134)

con
2 2
 
g 2 1
H = p + , p = i , (9.135)
2m2 2 g m

204
claramente H es un operador hermtico. Considerando este resultado en (9.131)
se llega a
(, t)
= H(, t). (9.136)
t
Si se propone como solucion a (, ) = e (), se encuentra
H() = (), (9.137)
es decir se tiene la ecuacion de valores propios
g 2 2 2
 

p + () = (). (9.138)
2m2 2g m
Note que renombrando
~2 g 2
2
= , m = , E =+ (9.139)
2m 2m2 g m
la ecuacion (9.138) toma la forma
~2 2 m 2 2
 
+ () = E(). (9.140)
2m 2 2
que es la ecuacion del oscilador armonico. Por lo tanto, las soluciones que
satisfacen las condiciones de Dirichlet, () = 0, implican
 
1
E = ~ n + =+ , (9.141)
2 m
es decir
 
1
n = n . (9.142)
m 2
Ademas, definiendo
r r
m m
= = (9.143)
~ g
se tienen las soluciones
 14
(i)n

m 2
n () = e 2 Hn (). (9.144)
2n n! g
Por lo tanto,
 14
(i)n

m
2
n t m 2
Pn (, t) = e 2g e n () = e Hn (). (9.145)
2n n! g

205
Captulo 10

El Grupo de Rotaciones y los


Armonicos Esfericos

En este captulo estudiaremos los polinomios de Legendre, los polinomios


asociados de Legendre y los Armonicos esfericos, quienes son importantes pa-
ra resolver la ecuacion de Laplace y diversos problemas de electrodinamica
y mecanica cuantica. Normalmente estas funciones se obtienen resolviendo
ecuaciones diferenciales. Sin embargo, tambien es posible obtenerlas usando el
grupo de rotaciones. Usaremos este ultimo metodo debido a que nos introduce
a las aplicacion de la teora de grupos en la fsica. Este captulo se puede ver
como una invitacion al estudio de las aplicaciones de la teora de grupos.

10.1. Transformaciones de coordenadas linea-


les
Sea f una funcion de la variable x, con el cambio de variable

x0 = x, con = constante, (10.1)

se encuentra
df dx df 1 df
0
= 0 = . (10.2)
dx dx dx dx
Entonces, si la variable x transforma con , el operador derivada transforma
con 1/, es decir,

x x0 = x,
d d 1 d
dx
0 = . (10.3)
dx dx
206
Veamos ahora que pasa en dos dimensiones. Consideremos la matriz de 2 2
con entradas constantes
 
a1 a2
= , (10.4)
a3 a4
cuya inversa es
 
1 1 a4 a2
= , || = a1 a4 a2 a3 . (10.5)
|| a3 a1
Tambien definamos los vectores columna

 1   
x x1
X= , = . (10.6)
x2 x2

Entonces, podemos hacer una transformacion lineal de coordenadas de la forma


X 0 = X, es decir
 01    1 
x a1 a2 x
= . (10.7)
x02 a3 a4 x2
La cual tiene la transformacion inversa, X = 1 X 0 ,
 1     01 
x 1 a4 a2 x
= , (10.8)
x 2
|| a3 a1 x02
es decir,
a4 x01 a2 x02
x1 = , (10.9)
||
a3 x01 + a1 x02
x2 = . (10.10)
||
Ademas, por la regla de la cadena se tiene
x1 x2
= + ,
x01 x01 x1 x01 x2
x1 x2
= + . (10.11)
x02 x02 x1 x02 x2
De la regla de transformacion Eq. (10.10) se encuentra
 
1
= a4 1 a3 02 ,
x01 || x x
 
1
= a2 1 + a1 2 , (10.12)
x2 || x x

207
que se puede expresar como
   

x 01 1 a 4 a3 x1
= . (10.13)
x02 || a2 a1 x2

De esta ecuacion podemos ver que la matriz involucrada en la transformacion


de las derivadas parciales es la transpuesta de la matriz inverza de , es decir
T
(1 ) . Otra forma de escribir esta ecuacion es
T
0 = 1 , (10.14)
por lo que
= ()T 0 . (10.15)
Este resultado se puede generalizar a mas dimensiones. En efecto, en general
una transformacion de coordenadas se escribe como
x0i = ij xj , xi = 1 ij x0j .

(10.16)
De donde, por la regla de la cadena, se tiene
xj (1 )jk x0k 1
 x0k
= = =
x0i x0i xj x0i xj jk x0i xj
 T 
= 1 jk ki j = 1 ji j = 1
 
. (10.17)
x x ij xj

Por lo tanto, para cualquier dimension se cumple


T
0 = 1 . (10.18)
Esta ley de transformacion sera de gran utilidad para obtener las simetras de
la ecuacion de Laplace.

10.2. Laplaciano y elemento de lnea


Supongamos que la matriz , de n n, satisface
= I, (10.19)
con I la matriz identidad de n n. Entonces, podemos definir un elemento de
lnea como

dx1
dx2
ds2 = dX T dX, dX = .. . (10.20)

.
dxn

208
A la matriz se le llama metrica, en dos dimensiones un ejemplo de estas
matrices son
   
1 0 1 0
, . (10.21)
0 1 0 1
Con la matriz el Laplacianose define como
2 = T . (10.22)
Notablemente, el elemento de lnea esta intimamente relacionado con el Lapla-
ciano, en particular tienen las mismas simetras. Esta relacion es importante
y se da tambien para espacios no euclidianos. Veamos como se da esta relacion.

Bajo una transformacion lineal de coordenadas se tiene


ds02 = dX 0T dX 0 = (dX)T dX = dX T T dX.

(10.23)
Las transformaciones, , que dejan invariante al elemento de lnea deben cum-
plir ds2 = ds02 . Igualando Eq. (10.20) con Eq. (10.23) se llega a la condicion
T = . (10.24)
Ademas, considerando que bajo una transformacion lineal de coordenadas el
gradiente transforma como Eq. (10.18), se obtiene
 T
1 T
02 0T 0
T
1

= =
 
 T
1 T 1 T
 T 
T
= T 1 1

= . (10.25)

Las transformaciones que dejan invariante al Laplaciano deben cumplir


2 = 02 ,
entonces igualando Eq. (10.22) con Eq. (10.25) se tiene la condicion
T
1 1 = . (10.26)

Como ()1 = , la condicion Eq. (10.26) tiene la forma


 T 1  1 T 1 1
= ()1 = 1 1 = 1 = T , (10.27)

que coincide con Eq. (10.24). Por lo tanto, las transformaciones lineales, , que
dejan invariante al elemento de lnea Eq. (10.20) tambien dejan invariante al
Laplaciano Eq. (10.22), claramente la afirmacion inversa tambien es correcta.

209
10.3. Grupo de transformaciones
Antes de continuar recordemos lo que es un grupo. Sea G un conjunto con
una operacion : G G G. El par (G, ) es un grupo si cumple

1) Axioma de cerradura:

g1 G, g2 G = g1 g2 G (10.28)

2) Axioma de asociatividad:

g1 G, g2 G, g3 G, = g1 (g2 g3 ) = (g1 g2 ) g3 . (10.29)

3) Axioma del neutro:

e G, g1 G = g1 e = e g1 = g1 . (10.30)

4) Axioma del inverso:

g1 G, g11 G, g1 g11 = g11 g1 = e. (10.31)

Definamos a T como el conjunto de transformaciones que dejan invariante


al Laplaciano. Estas transformaciones cumplen

T = , 2 = I. (10.32)

Probaremos que T es un grupo.

Supongamos que 1 T y 2 T, entonces cumplen

T1 1 = , T2 2 = , (10.33)

de donde

(1 2 )T (1 2 ) = T2 T1 1 2 = T2 2 = , (10.34)

esto implica 1 2 T , es decir

1 T, 2 T = 1 2 T. (10.35)

Por lo tanto, se cumple el axioma la cerradura.

El producto de matrices es asociativo, en particular el producto de las ma-


trices que satisfacen Eq. (10.32) . Ademas, la identidad I satisface Eq. (10.32),

210
es decir, I T. As se cumplen el axioma de la asociatividad y el del elemento
neutro.

Ahora, como 2 = I, si esta en T entonces se cumple T = I. De


donde,
1 T
= T = 1 . (10.36)

Por lo tanto,
T
1 1 = () 1 = 1 = . (10.37)

As, cuando esta en T , tambien 1 esta en T. Esto nos indica que se cumple
el axioma del inverso.

En consecuencia el conjunto de matrices que satisface Eq. (10.32) es un


grupo. Es decir, el conjunto de tranformaciones que dejan invariante al ele-
mento de lnea Eq. (10.20) forma un grupo, que es el mismo grupo que deja
invariante al Laplaciano Eq. (10.22).

10.4. El grupo de rotaciones


Sea ~x = (x1 , , xn ) un vector en Rn y definamos la forma cuadratica
l2 = x21 + x22 + + x2n , la cual representa la distancia de ~x al origen. Note que
si definimos la matriz columna

x1
x2
X = .. (10.38)

.
xn

y la matriz renglon

XT =

x1 x2 xn , (10.39)

la distancia se puede escribir como

l2 = X T X = X T IX. (10.40)

Ahora, si es una matriz de n n y se hace la transformacion de coordenadas

X 0 = X, (10.41)

211
se tiene la distancia

l02 = X 0T IX 0 = X T T I X.

(10.42)

Por lo tanto, si es tal que deja la distancia invariante, es decir que l2 = l02 ,
debe cumplir

T I = I. (10.43)

Otra forma de expresar esta igualdad es T = 1 . Claramente las matrices


que cumplen (10.43) forman un grupo, a este grupo de matrices se le llama
O(n).

Recordemos que para cualquier matriz A se cumple detA = detAT . En-


tonces, las matrices que satisfacen Eq. (10.43) deben cumplir (det)2 = 1, es
decir det = 1. El subconjunto de matrices que cumplen det = 1 no
forman un grupo, por ejemplo, la identidad no esta en ese subconjunto. Sin
embargo, las matrices que cumplen det = 1 s forman un grupo, este es el
grupo SO(n).

Note que la matriz de n n



11 12 1n
21 22 2n
= (10.44)

.. .. . . ..
. . . .
n1 n2 nn

se pueden formar con los vectores columna



11 12 1n
21 22 2n
C~1 =

~
.. , C 2 =
~n =
.. , , C .. .

(10.45)
. . .
n1 n2 nn

Claramente, para la matriz traspuesta, T , estos vectores representan los ren-


glones. Por lo tanto, la condicion Eq. (10.43) se puede escribir como

11 21 n1 11 12 1n
12 22 n2 21 22 2n
T =

.. .. . . .. .. .. . . ..
. . . . . . . .
1n 2n nn n1 n2 nn

212
~1 C
~1 ~1 C
~2 ~ 1 Cn

C C C
~2 C
C ~1 ~2 C
C ~2 C ~n C~2
= = I. (10.46)

.. .. .. ..
. . . .
~ ~
Cn C1 ~ ~
Cn C2 ~ ~
Cn Cn
Otra forma de expresar esta igualdad es
~i C
C ~ j = ij , (10.47)

es decir si una matriz satisface Eq. (10.43), tiene sus columnas ortonormales.
Ahora, si satisface la condicion (10.43), entonces 1 tambien la satisfa-
ce. Por lo tanto, 1 tiene sus columnas ortonormales entre si. Pero se debe
cumplir 1 = T , entonces las columnas de T son ortonormales entre si.
Considerando que las columnas de T son los renglones de , podemos ver
que los renglones de son ortonormales entre si. En conclusion, si satisface
Eq. (10.43) sus columnas y renglones son ortonormales entre si.

Una matriz de n n tiene n2 parametros libres, pero si satisface (10.46) no


todos sus parametros son libres. De (10.46) se puede ver que T es una matriz
simetrica, por lo que (10.46) solo tiene n(n+1)
2
ecuaciones independientes. As,
los parametros libres de una matriz que satisface (10.46) son
n(n + 1) n(n 1)
n2 = .
2 2

Para el caso n = 3 hay tres parametros libres, para esta dimension cualquier
matriz se puede escribir como

a1 b 1 c 1
= a2 b 2 c 2 . (10.48)
a3 b 3 c 3
Si esta matriz satisface (10.46), debe cumplir

~a ~a = ~b ~b = ~c ~c = 1, ~a ~b = ~a ~c = ~b ~c = 0, (10.49)

esto nos dice que la punta de los vectores ~a, ~b, ~c estan en una esfera y que son
ortonormales entre si. Un ejemplo de estas matrices son

1 0 0
x () = 0 cos sin , (10.50)
0 sin cos

213

cos 0 sin
y () = 0 1 0 , (10.51)
sin 0 cos

cos sin 0
z () = sin cos 0 . (10.52)
0 0 1
La matriz x () representa una rotacion sobre el eje x, y () representa una
rotacion sobre el eje y, mientras que z () representa una rotacion sobre el
eje z. Por lo tanto, las rotaciones dejan invariante la distancia y al Laplaciano.
Note que estas tres matrices son linealmente independientes.

Existen otras formas de reparametrizar una matriz de rotacion, por ejemplo


la base unitaria en coordenadas esfericas Eqs. (2.16)-(2.17) satisfacen la con-
dicion Eq. (10.49), pero no son la solucion mas general, pues solo dependen de
dos parametros mientra que la solucion general de Eq. (10.49) depende de tres.
Pero estos vectores nos sirven para obtener la solucion general. Propondremos
a ~c como
~c = (sin sin , cos sin , cos ) . (10.53)

Los vectores ~b y ~a deben ser tales que si = 0 se cumple


~b|=0 = e = (sin cos , cos cos , sin ) , (10.54)
~c|=0 = e = (cos , sin , 0) . (10.55)
Un par de vectores que satisfacen estas condiciones son:
~a = (sin sin cos + cos cos , sin cos cos cos sin , sin sin ) ,
~b = (sin cos + cos sin cos , sin sin + cos cos cos , cos sin ) .

Se puede probar que los vectores ~a, ~b y ~c cumplen Eq. (10.49). As se puede
escribir como

cc ssc sc + csc ss
(, , ) = cs scc ss + ccc cs .(10.56)
ss cs c
Claramente aun hay cierta arbitrariedad, pues podemos cambiar el lugar de
los vectores ~a, ~b, ~c, tambien podemos cambiar renglones por columnas y se
seguira cumpliendo Eq. (10.43). La ventaja de escribir de la forma (10.56)
es que se puede expresar como el producto de tres matrices
(, , ) = 1 ()2 ()3 (), (10.57)

214
con

cos sin 0
1 () = sin cos 0 , (10.58)
0 0 1

1 0 0
2 () = 0 cos sin , (10.59)
0 sin cos

cos sin 0
3 () = sin cos 0 . (10.60)
0 0 1

Esta descomposicion es muy util para el estudio del movimiento del cuerpo
rgido. A los parametros , , se les llama angulos de Euler.

Las rotaciones no son la unicas tranformaciones de O(3). Por ejemplo, las


matrices

1 0 0 1 0 0 1 0 0
0 1 0 , 0 1 0 , 0 1 0 (10.61)
0 0 1 0 0 1 0 0 1

cumplen Eq. (10.49) pero no son de rotacion, tampoco son de SO(3). Las
rotaciones representan las transformaciones de O(3) que se pueden conectar
con la matriz unidad I. Pues al hacer = 0, = 0, = 0 se obtiene la unidad
I.

10.4.1. Transformaciones infinitesimales


Las transformaciones de SO(n) que estan infinitesimalmente cercanas a la
unidad, es decir que cumplen

I + M  << 1, (10.62)

son particularmente importantes. Para este tipo de transformaciones la condi-


cion Eq. (10.43) implica

I = T (I + M )T (I + M ) (10.63)
= I + M T (I + M ) I +  M T + M .
 
(10.64)

Por lo tanto,

M = M T , (10.65)

215
es decir, M debe ser antisimetrica. Note que una matriz antisimetrica de n n
solo puede tener
n(n 1)
2
parametros libres, este numero de grados de libertad coincide con los parame-
tros libres del grupo SO(n). Para el caso particular n = 3, cualquier matriz
antisimetrica se puede escribir como

0 3 2
M = 3 0 1 . (10.66)
2 1 0
Definamos los vectores ~r = (x, y, z) , ~
=  (1 , 2 , 3 ) , entonces

0 3 2 x 2 z 3 y
X = M X =  3 0 1 y =  3 x 1 z
2 1 0 z 1 x 2 y
= ~ ~r. (10.67)
Por lo tanto, una rotacion infinitesimal esta dada por
X 0 = X (I + M ) X = (IX + M X) , (10.68)
es decir
~r0 = ~r + ~
~r. (10.69)
Estas rotaciones son importantes porque definen al resto de las transformacio-
nes de SO(3), para ver esto primero notemos que

0 3 2
M = 3 0 1 = 1 m1 + 2 m2 + 3 m3 = ~ m,
~ (10.70)
2 1 0
con

0 0 0 0 0 1 0 1 0
m1 = 0 0 1 , m2 = 0 0 0 , m3 = 1 0 0 .
0 1 0 1 0 0 0 0 0
Se puede observar que la matriz (10.70) no se modifica si hacemos el cambio
~ i~
ym ~ im ~ =M ~ , es decir

0 0 0 0 0 1 0 1 0
M1 = i 0 0 1 , M2 = i
0 0 0 , M3 = i 1 0 0 .
0 1 0 1 0 0 0 0 0

216
La ventaja de ocupar la matrices Mi es que son Hermticas, es decir Mi = Mi .
Esto implica que sus valores propios son reales, por lo tanto las matrices
~ = (M1 , M2 , M3 ) pueden representar cantidades fsicas.
M

Una transformacion finita se debe hacer como producto infinito de trans-


formaciones infinitesimales. Por ejemplo, ocupando
 N
0 N ~ N 1 ~
X ( (~ /N )) X = (I i~ M) x = I i ~ M X (10.71)
N
y considerando el resultado
 N
x
lm I+ = ex , (10.72)
N N
se tiene
 N
1 ~
lm I i ~ M = ei~M . (10.73)
N N
Por lo tanto, una transformacion finita esta dada por
~
X 0 = ei~M X. (10.74)

As, cualquier transformacion infinitesimal conectada con la identidad tiene la


forma
~
) = ei~M .
(~ (10.75)

En este sentido se dice que M1 , M2 , M3 son los generadores del grupo SO(3).

Ahora veamos de forma explcita la expresion (10.75) para algunos caso


particulares. Primero notemos que si n 1, se tiene

0 0 0
M12n = 0 1 0 = T1 , M12n+1 = M1 , (10.76)
0 0 1

1 0 0
M22n = 0 0 0 = T2 , M22n+1 = M2 , (10.77)
0 0 1

1 0 0
M32n = 0 1 0 = T3 , M32n+1 = M2 . (10.78)
0 0 0

217
Entonces, considerando estos resultados, juntos con las series de cos y sin ,
se tiene
X 1
eiMi = (iMi )n
n0
n!
X 1 X 1
= (i)2n (Mi )2n + (i)2n+1 (Mi )2n+1
n0
(2n)! n0
(2n + 1)!
X 1 X 1
= I + Ti (i)2n + Mi (i)2n+1
n1
(2n)! n0
(2n + 1)!
X (1)n X (1)n
= I Ti + Ti + 2n iMi 2n+1
n1
(2n)! n0
(2n + 1)!
X ()n 2n
= I Ti + Ti iMi sin
n0
(2n)!
= I Ti + Ti cos iMi sin . (10.79)
De donde,

1 0 0 cos 2 0 sin 2
ei1 M1 = 0 cos 1 sin 1 , ei2 M2 = 0 1 0 ,
0 sin 1 cos 1 sin 2 0 cos 2

cos 3 sin 3 0
ei3 M3 = sin 3 cos 3 0 . (10.80)
0 0 1
As, ei1 M1 representa una rotacion sobre el eje x, ei2 M2 representa una ro-
tacion sobre el eje y, mientras que ei3 M3 representa una rotacion sobre el eje
z.

Veamos que reglas de conmutacion cumplen los generadores de las rotacio-


nes M1 , M2 , M3 . Primero notemos que

0 0 0 0 1 0
M1 M2 = 1 0 0 , M2 M1 = 0 0 0 ,
0 0 0 0 0 0

0 0 0 0 0 1
M1 M3 = 0 0 0 , M3 M1 = 0 0 0 ,
1 0 0 0 0 0

0 0 0 0 0 0
M2 M3 = 0 0 0 , M3 M2 = 0 0 1 . (10.81)
0 1 0 0 0 0

218
Por lo que

[M1 , M2 ] = iM3 , [M3 , M1 ] = iM2 , [M2 , M3 ] = iM1 . (10.82)

Estas reglas de conmutacion se pueden escribir como

[Mi , Mj ] = iijk Mk . (10.83)

Por el hecho de que el conmutador de dos generadores de rotacion nos de otro


generador de rotacion se dice que estos generadores forman un algebra de Lie, el
algebra de Lie de SO(3). Note que, como el conmutador entre dos generadores
no es cero, dos generadores no se pueden diagonalizar simultaneamente. Ahora,
definamos

M 2 = M12 + M22 + M32 , (10.84)

de donde

M 2 = 2I, (10.85)

por lo tanto

[M 2 , Mi ] = 0. (10.86)

As, los valores propios de M 2 se pueden obtener al mismo tiempo que cual-
quiera de los generadores Mi .

Los valores propios de los generadores Mi se pueden calcular directamente


y estan dados por

0
1
M1 V = V = 1 V = a 1 , (10.87)
2 i

1
1
M2 V = V = 1 V = a 0 , (10.88)
2 i

1
1
M3 V = V = 1 V = a i . (10.89)
2 0

Si a = 1, en cada caso se tienen vectores propios ortonormales. Estos resul-


tados no son difciles de obtener, posteriormente veremos que los generadores
de las rotaciones en el espacio de las funciones de ~x estan relacionados con

219
operadores diferenciales.

~ = (M1 , M2 , M3 ) se pueden escribir de


Con el smbolo ijk las matrices M
forma mas economica. En efecto, en componentes tenemos

(M1 )ij = ii1j , (M2 )ij = ii2j , (M3 )ij = ii3j . (10.90)
Por ejemplo,

111 112 113 0 0 0
(M1 )ij = ii1j = i 211 212 213 = i 0 0 1 , (10.91)
311 312 313 0 1 0
se puede probar que las demas igualdades se cumplen.

As, las componentes de cualquier matriz antisimetrica se pueden escribir


como
Mik = ij (Mj )ik = j ijk . (10.92)
Ahora, si i es infintesimal, por ejemplo i = i /N con N grande, una trans-
formacion infinitesimal en el espacio de ~x esta dada por
X 0 = X = (I i~ ~ )X.
M (10.93)
En componentes se tiene
x0i ik xk = (I ij Mj )ik xk = (ik ij (Mj )ik )xk
~x)i ,
= (ik + j ijk )xk = xi + ijk j xk = xi + (~ (10.94)
es decir
x0i xi + (~
~x)i . (10.95)

10.5. Armonicos esfericos


Hasta el momento nos hemos enfocado en las trasformaciones que pasan del
espacio ~r al ~r0 . Ahora veamos que pasa con las funciones que actuan en estos
espacios. Supongamos que tenemos una funcion, F, de R3 a R. Entonces, al
evaluar esta funcion en un punto ~r0 y ocupando la transformacion infinitesimal
Eq. (10.69), se encuentra

F (~r0 ) F (~r + ~
~r) = F (~r) + (~ ~ (~r).
~r) F (10.96)

220
Ademas usando la propiedad cclica del triple producto escalar, se tiene
     
~ ~
~r) F (~r) = F (~r) ~
(~ ~
~r = ~r F (~r) ~ ~ ~
= i L F (~r)

con
~ = i~r .
L ~ (10.97)

As,
 
0
F (~r ) ~
L F (~r).
1 + i~ (10.98)

~ es el generador de las rotaciones en el espacio de


Por lo tanto, el operador L
las funciones. Anteriormente vimos que este operador es Hermtico, por lo que
sus valores propios son reales.

Veamos que forma tiene una rotacion finita. Al igual que en caso del espacio
~r, tomaremos ~ = ~ /N y consideraremos que para tener una transformacion
finita debemos hacer el producto de un numero infinito de transformaciones
infinitesimales. Entonces,
 N
0
~ ~
F (~r ) 1+i L F (~r). (10.99)
N

As, ocupando el resultado (10.72), se encuentra


 N
1 ~ ~
lm I + i ~ L ) = ei~L .
= U (~ (10.100)
N N

Por lo tanto, una transformacion finita esta dada por


~
F (~r0 ) = ei~L F (~r) . (10.101)

Note que el operador U (~


) satisface

) = U (~
U (~ ) = U 1 (~
) . (10.102)

Cuando un operador, A, cumple

A = A1

se dice que es un operador unitario. As, U (~


) es unitario.

221
10.6. Reglas de conmutacion del momento an-
gular
Anteriormente vimos que los generadores Mi satisfacen las reglas de conmu-
tacion Eq. (10.83). Veamos que reglas de conmutacion cumplen los operadores
Li . Primero notemos que definiendo p~ = i ~ se tiene L
~ = ~r p~. En compo-
nentes se encuentra Li = ijk xj pk . De donde

[Li , Lj ] = [ilm xl pm , jrs xr ps ] = ilm jrs [xl pm , xr ps ]


= ilm jrs (xl [pm , xr ]ps + xr [xl , ps ]pm ])
= ilm jrs (ixl ps mr + ixr pm ls )
= i (ilr jrs xl ps + ism jrs xr pm )
= i (ilr rjs xl ps ims sjr xr pm )
= i (iar rjb xa pb ibs sja xr pb )
= i (iar rjb ibs sja ) xa pb , (10.103)

ahora, note que

iar rjb ibs sja = (ij ab ib aj ) (ij ba ia bj )


= ia bj ib aj = ijk kab . (10.104)

Ocupando este resultado se encuentra

[Li , Lj ] = iijk kab xa pb ,

es decir

[Li , Lj ] = iijk Lk . (10.105)

Se puede observar que son las mismas reglas de conmutacion que cumple Mi
Eq. (10.83). A estas reglas de comutacion se les llama el algebra de Lie de
SO(3).

Anteriormente vimos que la matriz M 2 = M12 + M22 + M32 conmuta con


todas las matrices Mi . Para los operadores Li el operador equivalente a M 2 es

L2 = L2x + L2y + L2z = Lj Lj . (10.106)

El cual cumple

[L2 , Li ] = [Lj Lj , Li ] = Lj [Lj , Li ] + [Lj , Li ]Lj


= ijil Lj Ll + ijil Ll Lj = i (ijl Lj Ll + ijl Ll Lj ) , (10.107)

222
ahora, renombrando ndices se encuentra
3 X
X 3 3 X
X 3
ijl Lj Ll = ijl Lj Ll = ilj Ll Lj = ilj Ll Lj , (10.108)
j=1 l=1 l=1 j=1

introduciendo esta igualdad en Eq. (10.107) se tiene

[L2 , Li ] = i (ilj Ll Lj + ijl Ll Lj ) = i (ijl Ll Ll + ijl Ll Lj ) = 0. (10.109)

Por lo tanto, L2 conmuta con cualquier Li . A L2 se le llama el Casimir del


algebra de Lie de SO(3). Como L2 conmuta con cualquier Li , este operador
comparte vectores propios con estos tres operadores.

10.7. Ecuacion de valores propios de L2


Para obtener los vectores y valores propios de Mi y M 2 resolvimos un
problema de algebra lineal, mas para obtener los vectores propios de L2 y los
de, por ejemplo, Lz se deben plantear las ecuaciones

L2 Ylm = Ym , Lz Ym = mYm . (10.110)

Estas son dos ecuaciones diferenciales. En efecto, considerando las expresiones


de L2 y Lz en coordenadas esfericas, Eq. (2.99) y Eq. (2.93), se encuentra

1 2 Ym (, )
   
2 1 Ym (, )
L Ym (, ) = sin +
sin sin2 2
= Ym (, ), (10.111)
Ym (, )(, )
Lz Ym (, ) = i = mYm (, ). (10.112)

De la segunda ecuacion es claro que Ym (, ) es de la forma

Ym (, ) = m eim Pm (). (10.113)

Si queremos que la funcion Ym (, ) no sea multivaluada debemos pedir


Ym (, + 2) = Ym (, ). Esto implica eim = eim(+2) , lo cual se cum-
ple solo si

m = 0, 1, 2, 3, . (10.114)

223
Por lo tanto, m debe ser un entero. Posteriormente veremos los posibles valores
de .

Sustituyendo Eq. (10.113) en Eq. (10.111) se encuentra


Pm () m2 m
 
1
sin P () = Pm (). (10.115)
sin sin2
Con el cambio de variable u = cos , tenemos

sin = 1 u2 , = 1 u2 u . (10.116)
De donde, Eq. (10.115) toma la forma
m
m2
   
d 2 dP (u)
(1 u ) + 2
Pm (u) = 0. (10.117)
du du 1u
Esta es la llamada ecuacion asociada de Legendre. Para el caso m = 0 se define
P0 (u) = P (u), que debe satisfacer
 
d 2 dP (u)
(1 u ) + P (u) = 0, (10.118)
du du
que es la llamada ecuacion de Legendre. En lo que sigue, estudiando la estruc-
tura del grupo de rotaciones, obtendremos las soluciones de estas ecuaciones.
Primero veremos la ortormalidad de las soluciones de la ecuacion (10.115).

10.8. Relaciones de ortonormalidad


Supongamos que m y m0 son enteros y que m 6= m0 , entonces
Z 2  0  Z 2 Z 2
im im im0 im 0
d e e = de e = dei(mm )
0 0 0
i(mm0 ) 2 i(mm0 )2

e =e 1
= 0
= 0. (10.119)
i (m m ) 0 i (m m0 )
Si m = m0 , se encuentra
Z 2  0  Z 2 Z 2
im im im im
d e e = de e = d = 2. (10.120)
0 0 0

De donde, si m y m0 son enteros se tiene


Z 2  0 
d eim eim = 2mm0 . (10.121)
0

224
Por lo tanto las funciones eim son ortogonales en el intervalo [0, 2].

Note que la ecuacion (10.115) se puede escribir como

Pm () m2
   

sin + sen Pm () = 0. (10.122)
sin
Como se puede observar, esta ecuacion es tipo Sturm-Liouville. En este caso
2
p() = sin , r() = m
sin
. Considerando los resultados para las ecuaciones tipo
Sturm-Louville, como p(0) = p() = 0, se llega a
Z
0
( ) d sin Pm0 ()Pm () = 0.
0

En particular si 0 6=
Z
d sin Pm0 ()Pm () = 0. (10.123)
0

En general se tiene
Z
d sin Pm0 ()Pm () = 0 m , m = constante > 0. (10.124)
0

Por lo tanto, las funciones Pm () son ortogonales.

Empleando la ortogonalidad de las funciones eim y Pm (), se puede escojer


lm de tal forma que los armonicos esfericos sean ortonormales. En efecto, como
los armonicos esfericos tienen la forma Eq. (10.113), se encuentra
Z
dY0 m0 (, )Ym (, ) =
Z 2 Z  
im0 m0 im m
= d d sin 0 m0 e P0 (cos )m e P (cos )
0 0
Z 2 Z
i(m0 m) 0
= 0 m0 m de d d sin Pm0 (cos )Pm (cos )
0 0
Z
0
= 0 m0 m 2mm0 d sin Pm0 (cos )Pm (cos )
Z 0
= 0 m m 2mm0 d sin Pm0 (cos )Pm (cos )
0
= 0 m m 2mm0 m 0
= |0 m |2 2m mm0 0 . (10.125)

225
Entonces, si
1
|0 m |2 = , (10.126)
2m
se cumple
Z
< Y0 m0 (, )|Ym (, ) >= dY0 m0 (, )Ym (, ) = mm0 0 . (10.127)

As los armonicos esfericos son ortonormales.

10.9. Operadores escalera y espectro de L2


Antes de resolver la ecuacion diferencial (10.111) veamos algunas propieda-
des de las funciones propias Ym y sus valores propios , m. Primero notemos
que para cualquier funcion f se tiene

0 hLx f |Lx f i = f |Lx Lx f = f |L2x f




0 hLy f |Ly f i = f |Ly Ly f = f |L2y f ,




por lo que

f | L2x + L2y f = f | L2 L2z f .





0

En particular si f = Ym , se llega a

L2 L2z Ym = m2 Ym ,
 
(10.128)

entonces

0 m2 hYlm |Ylm i .

(10.129)

Note que la unica forma de que se cumpla la desigualdad ( m2 ) < 0 es que


hYlm |Ylm i = 0, es decir Ylm = 0. Si Ylm 6= 0 se tiene ( m2 ) 0, entonces

m . (10.130)

Esta restriccion nos permitira encontrar los valores de .

En el estudio del oscilador armonico fueron de gran utilidad los operadores


de ascenso y descenso. En el caso que ahora estudiamos hay dos operadores
equivalentes, los cuales son

L = Lx iLy . (10.131)

226
Note que
L L = (Lx iLy ) (Lx iLy ) = L2x + L2y i (Lx Ly Ly Lx )
= L2x + L2y + L2z L2z Lz = L2 L2z Lz = L2 L2z Lz ,


es decir,
L L = L2 L2z Lz .

(10.132)
Claramente L conmuta con L2 :
[L2 , L ] = 0. (10.133)
Esto indica que L tiene funciones propias comunes con L2 . Ademas
[Lz , Lx iLy ] = [Lz , Lx ] [Lz , Ly ] = iLy Lx = (Lx iLy ) , (10.134)
es decir
[Lz , L ] = L . (10.135)
Por lo que, L no tiene funciones propias comunes con Lz .

Veamos que efecto tiene el operador L sobre las funciones propias de Lz .


Definamos la funcion
Y = L Ym , (10.136)
entonces tomando en cuenta que L2 y L conmutan, se tiene
L2 Y = L2 L Ym = L L2 Ym = L Ym = Y . (10.137)
Por lo tanto, L Ym tambien es funcion propia de L2 con el mismo valor propio,
, que Ym . Ademas, considerando el conmutador Eq. (10.135) tenemos
Lz Y = Lz L Ym = (L Lz L ) Ym = (L Lz Ym L Ym )
= (mL Ym L Ym ) = (m 1)L Ym = (m 1)Y , (10.138)
es decir,
Lz L Ym = (m 1)L Ym . (10.139)
Por lo tanto, Y = L Ym es vector propio de Lz , pero no con el valor propio de
Ym si no con el de Ym1 . De donde, como Lz tiene un espectro no degenerado,
se debe cumplir
L Ym = (, m)Ym1 , (, m) = constante. (10.140)

227
El valor de (, m) lo obtendremos posteriormente.

Como podemos ver, el operador L es muy util, pues nos permite pasar de
una funcion propia Ym a otra Ym1 . Ahora si aplicamos n veces este operador
obtenemos

(L )n Ym = (, m)Ymn , (10.141)

con

Lz Ymn = (m n)Ymn . (10.142)

As, Ymn es vector propio de Lz con valor propio (m n), sin importar el
valor de n. Ahora, es claro que dado cualquier dos numeros y m existen otros
dos numeros, na y nb , tales que

< (m + na ), (m nb ) < ,

En estos casos no se cumple la restriccion Eq. (10.130), por lo que Ym+na = 0


y Ymnb = 0. Esto quiere decir que

(L+ )na Ym = 0, (L )nb Ym = 0. (10.143)

Definamos el conjunto

A+ = {n| (L+ )n Ym = 0} (10.144)

y sea N+ el mnimo de A+ . Note que

(L+ )N+ 1 Ym 6= 0, (10.145)

esto es cierto, pues de lo contrario N+ no sera el mnimo de A+ . Tambien


definamos l = N+ 1 + m, es decir l m = N+ 1, se puede observar que

(L+ )N+ 1 Ym = (L+ )lm Ym = Yl 6= 0, = constante.

Por lo tanto, existe l tal que Yl 6= 0 y

L+ Yl = 0,

note que l es el maximo valor que puede tomar m de tal forma que Ym 6= 0.

Ahora, definamos

A = {n| (L )n Ym = 0} (10.146)

228
y sea N el mnimo de A . Se puede observar que

(L )N 1 Ym 6= 0, (10.147)

pues de lo contrario N no sera el mnimo de A . Tambien definamos

l0 = m (N 1)

es decir
N1 1 = l0 m,
se puede observar que
0
(L+ )N 1 Ym = (L+ )l m Ym = 0 Yl0 6= 0, 0 = constante.

Por lo tanto, existe l0 tal que Yl0 6= 0 y

L Yl0 = 0,

note que l0 es el mnimo valor que puede tomar m de tal forma que Ym 6= 0.
De estos resultados tenemos que si Ym 6= 0, entonces se cumplen l0 m l.

Ahora, como l es el valor propio maximo que puede tener Lz , entonces


considerando Eq. (10.132), se tiene

L L+ Yl = L2 (L2z + Lz ) Yl = [ l(l + 1)]Yl = 0,




esto implica que


= l(l + 1).
Ademas, como l0 es el valor propio mnimo que puede tener Lz , se tiene

L+ (L Yl0 ) = L2 (L2z Lz ) Yl0 = [l(l + 1) l0 (l0 1)]Yl0 = 0,




de donde

l(l + 1) l0 (l0 1) = l2 l02 + l + l0 = (l + l0 )(l l0 ) + l + l0


= (l + l0 )(l + 1 l0 ) = 0. (10.148)

Entonces,
0 0
l+ = (l + 1) o l = l, (10.149)
0
claramente el unico valor permitido es l = l y el mnimo valor que puede
tomar m es l. As los valores propios de Lz deben cumplir

l m l l = 0, 1, 2, , l. (10.150)

229
Note que hay (2l + 1) funciones propias con el mismo valor propio l(l + 1). Es
decir, para cada propio l(l + 1) hay 2l + 1 funciones que satisfacen
L2 Ylm (, ) = l(l + 1)Ylm (, ) (10.151)
con valores propios de Lz que cumplen Eq. (10.150).

Un resultado importante de todo este desarrollo es que, dado un valor l,


basta obtener un armonico esferico, Ylm (, ), para que, mediante los opera-
dores L , obtener los 2l restantes. Por ejemplo podemos obtener el armonico
esferico Yll (, ) y con el operador L obtener los restantes. De la misma forma
si conocemos funcion Yl0 cualquier otro armonico esferico esta dado por
(L )m Yl0 = Yl,m (10.152)
o por
(L+ )m Yl0 = Yl,m . (10.153)
Posteriormente ocuparemos estos resultados para obtener de forma explcita
los armonicos esfericos.

10.10. Resultados preliminares


Antes de continuar veremos dos resultados que nos permitiran obtener los
armonicos esfericos.

10.10.1. Constante y reglas de recurrencia


Determinemos definida en Eq. (10.140). Ahora, sabemos que los armoni-
cos esfericos son ortonormales y que se cumple L Ylm = Ylm1 , entonces
usando las propiedades del producto escalar se tiene

< L Ylm |L Ylm > = < Ylm1 | Ylm1 >= < Ylm1 |Ylm1 >
2
= | | , (10.154)
ademas
< L Ylm |L Ylm > = < Ylm |L L Ylm >=< Ylm |L L Ylm >
< Ylm | L2 (L2z Lz ) Ylm >
 
=
< Ylm | l(l + 1) (m2 m) Ylm >
 
=
l2 + l m2 m < Ylm |Ylm >

=
l2 m2 + l m = (l m)(l m) + (l m)

=
= (l m)(l m + 1). (10.155)

230
Igualando Eq. (10.154) con Eq. (10.155) se encuentra

| |2 = (l m)(l m + 1). (10.156)

Por lo tanto,
p
= (l m)(l m + 1). (10.157)

As, Eq. (10.140) tiene la forma


p
L Ylm () = (l m)(l m + 1)Ylm1 (, ). (10.158)

10.10.2. Relaciones de recurrencia de L


Como aplicaremos varias veces el operador L , veremos algunas reglas de
recurrencia de estos operadores.

Primero observemos que en coordenadas esfericas, Eqs. (2.91)-(2.93), se


encuentra

L = Lx iLy
   

= i sin + cot cos i(i) cos cot sin

 

= ( cos + i sin ) + cot (i cos sin )

 

= (cos i sin ) + i cot (cos i sin )

 

= ei + iei cot

 

= ei + i cot . (10.159)

Ahora, note que
  f ()
(sin )k f () = k (sin )k1 (cos )f () + (sin )k
 
f ()
= (sin )k k(cot )f () ,

as
   f () 
k k
(sin ) (sin ) f () = k(cot )f () .

231
Entonces, usando que
(sin )1k = (sin )(k1)
y el cambio de variable u = cos , se llega a
  f () 
(k1)

k
(sin ) (sin ) f () = k(cot )f () .
u

Ocupando este resultado se obtiene


 
ik i
f ()eik
 
L f ()e = e + i(cot )

 
i(k1) f ()
= e k(cot )f ()

 
i(k1) f ()
= e k(cot )f ()

 
= ei(k1) (sin )(k1) (sin )k f () .
u
Adicionalmente, utilizando esta igualdad y definiendo
 
k 0 = k 1, g() = (sin )(k1) (sin )k f () ,
u
se encuentra
 
ik ik0

L2 f ()e = ()L e g()
2 i(k0 1) (k0 1)  k0

= () e (sin ) (sin ) g()
u
= ()2 ei(k2) (sin )(k2)
 
(k1) (k1)

k
(sin ) (sin ) (sin ) f ()
u u
2  
= ()2 ei(k2) (sin )(k2) 2 (sin )k f () ,
u
en general se tiene
n  
(L )n f ()eik = ()n ei(kn) (sin )(kn) n (sin )k f () . (10.160)

u
donde

u = cos .

232
10.11. El armonico esferico Yll (, )
En esta seccion obtendremos el armonico esferico Yll (, ) con el cual po-
demos construir el resto de los armonico esfericos. De Eq. (10.113) sabemos
que
ll eil ll ()
Yll (, ) = (10.161)
2
y de Eq. (10.158) tenemos que se debe cumplir L+ Yll (, ) = 0, es decir
ll eil ll ()
 
i
L+ Yll (, ) = e + i cot = 0. (10.162)
2
Por lo que, ll () debe satisfacer
 

l cot ll () = 0, (10.163)

as
ll () = sinl , = constante. (10.164)
Esto quiere decir que
ll eil sinl
Yll (, ) = . (10.165)
2
La constante ll se determina pidiendo la condicion < Yll |Yll >= 1, que es
Z 2 Z 
ll eil sinl ll eil sinl
Z 

dYll (, )Yll (, ) = d d sin
0 0 2 2
2 Z 2 Z
|ll |
= d d sin2l+1 ei(ll)
2 0 0
Z
2 2l+1
= |ll | d sin = 1,
0

entonces
1
|ll |2 = R . (10.166)
0
d sin2l+1
Para obtener esta constante, notemos que
d
sinn1 cos = (n 1) senn2 cos2 sinn1 sin

d
= (n 1) senn2 1 sin2 sinn ,


233
de donde
n1 1 d
sinn = senn2 sinn1 cos .

(10.167)
n n d
As,

n1
Z Z
n
d sin = d senn2 . (10.168)
0 n 0

En particular
Z Z Z
2l 2l
d sin2l+1 = d sen 2l1
= d sen2(l1)+1
0 2l + 1 0 2l + 1 0
Z
(2l)(2(l 1))
= d sen2(l2)+1
(2l + 1)(2(l 1) + 1) 0
Z
(2l)(2(l 1))(2(l 2))
= d sen2(l3)+1
(2l + 1)(2(l 1) + 1)(2(l 2) + 1) 0
..
.
(2l)(2(l 1))(2(l 2)) (2(l i))
=
(2l + 1)(2(l 1) + 1)(2(l 2) + 1) (2(l i) + 1)
Z 
2(l(i+1))+1
d sen .
0

Este proceso se puede hacer hasta que 2(l (i + 1)) + 1 = 1, que implica
l = i + 1, es decir i = l 1. En este caso
Z
(2l)(2(l 1))(2(l 2)) 2
Z
2l+1
d sin = d sen
0 (2l + 1)(2l 1)(2l 3) 3 0
2l (l)(l 1)(l 2) 1
= 2
(2l + 1)(2l 1)(2l 3) 3
2l+1 l!
= ,
(2l + 1)(2l 1)(2l 3) 3
considerando
(2l + 1)(2l)(2l 1)(2(l 1))(2l 3) 3 2
(2l + 1)(2l 1)(2l 3) 3 =
(2l)(2(l 1)) 2
(2l + 1)!
= (10.169)
2l l!
se llega a

22l+1 (l!)2
Z
d sin2l+1 = . (10.170)
0 (2l + 1)!

234
Tomando en cuenta este resultado en Eq. (10.166), tenemos que
r
(2l + 1)! 1
ll = , (10.171)
2 2l l!
entonces
r
(2l + 1)! eil
Yll (, ) = sinl . (10.172)
4 2l l!

10.12. Forma explcita de los armonicos esferi-


cos
Una vez obtenido un armonico esferico, ocupando el operado escalera, L ,
podemos obtener los demas. Por ejemplo, supongamos que tenemos el armonico
esferico Yll . Entonces, usando reiteradamente Eq. (10.158) se tiene

L Yll = 2lYll1 ,
s
p (2l)!2!
L2 Yll = 2lL Yll1 = (2l)(2l 1)2Yll2 = Yll2 ,
(2l 2)!
s s
(2l)!2! (2l)!2! p
L3 Yll = L Yll2 = (2l 2)3Yll3
(2l 2)! (2l 2)!
s
(2l)!3!
= Yll3 ,
(2l 3)!
..
.s
(2l)!n!
Ln Yll = Ylln . (10.173)
(2l n)!

Por lo tanto, si n = l m se encuentra


s
(l + m)!
Ylm (, ) = (L )lm Yll (, ). (10.174)
(2l)!(l m)!

Se puede observar que considerando los resultados previos (10.172) y (10.160)


para k = l y n = l m se tiene
s r !
il
(l + m)! (2l + 1)! e
Ylm (, ) = (L )lm sinl
(2l)!(l m)! 4 2l l!

235
s
(2l + 1)(l + m)! 1
(L )lm eil sinl

= l
4(l m)! 2 l!
s
(2l + 1)(l + m)! 1
= (+)lm ei(l(lm))
4(l m)! 2l l!
lm
sin[l(lm)] lm sinl sinl

s u
(2l + 1)(l + m)! eim m
lm
(sin )2l
= sin .
4(l m)! 2l l! ulm
Note que ninguna propiedad de estas funciones cambia si las multiplicamos por
un factor de norma uno, es decir por una potencia de i o de 1. En la lite-
ratura existen diferentes elecciones de este factor, por conveniencia tomaremos
()l . Entonces, los armonicos esfericos son
s l
im lm 2
(2l + 1)(l + m)! e m sin
Ylm (, ) = ()l (sin ) , (10.175)
4(l m)! 2l l! ulm
u = cos , l m l.
Esta expresion de los armonicos esfericos es comun en mecanica cuantica, en
la proxima seccion veremos otra que es mas usual en electrostatica.

10.13. Polinomios de Legendre y polinomios


asociados de Legendre
El caso m = 0 es de particular importancia para diferentes aplicaciones,
veamos este caso. Tomando m = 0 en Eq. (10.175), se tiene
r r
2l + 1 ()l dl 2l 2l + 1 ()l dl l
1 u2

Yl0 (, ) = l l
sin = l l
r 4 2 l! du r 4 2 l! du
l
2l + 1 1 d 2
l 2l + 1
= u 1 = Pl (u). (10.176)
4 2l l! dul 4
Donde
1 dl 2
l
Pl (u) = l u 1 , (10.177)
2 l! dul
a esta expresion se le llama formula de Rodrigues de los polinomios de Legendre
de grado l. Por lo que el armonico esferico de orden m = 0 es
r
2l + 1
Yl0 (, ) = Pl (cos ). (10.178)
4

236
Con este armonico esferico se pueden obtener el resto. En efecto, de Eq.
(10.158) se encuentra
s
p (l + 1)!
L Yl0 = l(l + 1)Yl1 = Yl1 ,
(l 1)!
s s
(l + 1)! (l + 1)! p
(L )2 Yl0 = L Yl1 = (l 1)(l + 2)Yl2
(l 1)! (l 1)!
s
(l + 2)!
= Yl2 ,
(l 2)!
..
.s
(l + m)!
(L )m Yl0 = Yl(m) , m 0. (10.179)
(l m)!

Entonces, tomando en cuenta Eq. (10.160) se llega a


s
(l m)!
Yl(m) (, ) = (L )m Yl0 (, ),
(l + m)!
s r !
m
(l m)! d 2l + 1
= ()m eim sinm m Pl (cos )
(l + m)! du 4
s
dm
 
(2l + 1)(l m)! m im m 2 m
= () e () (1 u ) 2 m Pl (u) .
4(l + m)! du
Definiremos los polinomios asociados de Legendre de grado positivo como
m dm
Plm (u) = ()m (1 u2 ) 2 Pl (u), (10.180)
dum
as
s
(2l + 1)(l m)! im
Yl(m) (, ) = e ()m Plm (cos ), m 0, (10.181)
4(l + m)!
es decir, si m 0,
s
(2l + 1)(l m)! im m
Ylm (, ) = e Pl (cos ), (10.182)
4(l + m)!
s
(2l + 1)(l m)! im
Yl(m) (, ) = e ()m Plm (cos ). (10.183)
4(l + m)!

237
Note que

Ylm (, ) = ()m Yl(m) (, ). (10.184)

Ahora, definiendo los polinomios asociados de Legendre de grado negativo


como
(l m)! m
Plm (u) = ()m P (u), (10.185)
(l + m)! l
se tiene
s
(2l + 1)(l + m)! im m
Yl(m) (, ) = e Pl (cos ). (10.186)
4(l m)!

Se puede observar que si definimos k = m esta expresion se escribe como


s
(2l + 1)(l k)! ik k
Ylk (, ) = e Pl (cos ), (10.187)
4(l + k)!

que tiene la forma de Eq. (10.182). Por lo tanto, cualquier armonico esferico
se escribe como
s
(2l + 1)(l m)! im m
Ylm (, ) = e Pl (cos ), l m l. (10.188)
4(l + m)!

Ademas, de las relaciones de ortonormalidad Eq. (10.127) se tiene


Z
l0 l =< Yl0 m |Ylm >= dYl0 m (, )Ylm (, )
Z 2 Z 2 s !
(2l0 + 1)(l0 m)! im m
= d d sin e Pl0 (cos )
0 0 4(l0 + m)!
s !
(2l + 1)(l m)! im m
e Pl (cos )
4(l + m)!
 Z
(2l + 1)(l m)!
= 2 d sin Plm m
0 (cos )Pl (cos ),
4(l + m)! 0

es decir
Z  
2(l + m)!
d sin Plm m
0 (cos )Pl (cos ) = l 0 l . (10.189)
0 (2l + 1)(l m)!

238
Tomando el cambio de variable u = cos se encuentra
Z 1
2 (l + m)!
duPlm m
0 (u)Pl (u) = ll0 . (10.190)
1 2l + 1 (l m)!
Estas son las relaciones de ortonormalidad de los polinomios asociados de
Legendre. En particular, para los polinomios de Legendre, m = 0, se llega
a
Z 1
2
duPl0 (u)Pl (u) = ll0 , (10.191)
1 2l + 1
que son las relaciones de ortonormalidad de los polinomios de Legendre.

10.14. Propiedades de los polinomios de Le-


gendre
Ahora veremos algunas propiedades de los Polinomios de Legendre. Primero
recordemos que se cumple la llamada formula de Rodrigues
1 dl 2
l
Pl (u) = u 1 , (10.192)
2l l! dul
de esta formula se puede ver que los primeros polinomios de Legendre son

P0 (u) = 1. (10.193)
P1 (u) = u, (10.194)
1
3u2 1 ,

P2 (u) = (10.195)
2
1
5u3 3u ,

P3 (u) = (10.196)
2
1
35u4 30u2 + 3 ,

P4 (u) = (10.197)
8
1
63u5 70u3 + 15 .

P5 (u) = (10.198)
8
Para obtener la expresion general de los polinomios de Legendre notemos que
si n y m son dos naturales tales que n m, se tiene
dn u m dn1 dum dn1 um1 m! dn1 um1
= = m =
dun dun1 du dun1 (m 1)! dun1
m! dn2 um2 m! dn2 um2
= (m 1) = =
(m 1)! dun2 (m 2)! dun2

239
m! dnn umn
=
(m n)! dunn
m!
= umn ,
(m n)!

mientras que para el caso n > m, se encuentra


dn u m
= 0. (10.199)
dun
De donde
dn u m

m! 1 z0
= umn (m n), (z) = .(10.200)
du n (m n)! 0 z<0

En particular, si l y k son naturales se llega a

dl u2(lk) (2l 2k)! l2k


l
= u (l 2k). (10.201)
du (l 2k)!

As, Eq. (14.97) es diferente de cero solo si l 2k 0. Esto quiere decir


que el maximo valor que puede tomar k es l/2. Si l es par, es decir l = 2r
entonces el maximo valor que puede tomar k es r. De donde, k puede tomar
los valores (0, 1, 2, 3, , r). Si l es impar l = 2r + 1, entonces el maximo valor
que puede tomar k es r + 1/2, que no es un natural. Como k es natural, en este
caso k solo puede tomar los valores (0, 1, 2, 3, , r). Definiremos [l/2] como el
maximo entero menor o igual a l/2. Entonces, en ambos casos, k puede tomar
los valores (0, 1, 2, 3, , [l/2]). Considerando esta definicion, Eq. (14.97) se
puede escribir como

dl u2(lk)
  
(2l 2k)! l2k l
= u k . (10.202)
dul (l 2k)! 2

Tambien recordemos el binomio de Newton


n
n
X n!
(A + B) = Ckn Ank B k , Ckn = , (10.203)
k=0
k!(n k)!

que implica
l
X (1)k l! 2(lk)
(u2 1)l = u . (10.204)
k=0
k!(l k)!

240
Por lo que, de Eq. (10.204) y Eq. (10.202) se llega a
l
1 dl (u2 1)l X (1)k l! dl u2l2k
Pl (u) = l =
2 l! dul k=0
2l l!k!(l k)! dul
l
(1)k (2l 2k)!
  
X
l2k l
= l k!(l k)!(l 2k)!
u k . (10.205)
k=0
2 2

As, la expresion general para los polinomios de Legendre es


[l/2]
X (1)k (2l 2k)!
Pl (u) = l
ul2k . (10.206)
k=0
2 k!(l k)!(l 2k)!

De esta expresion se puede ver que

Pl (u) = ()l Pl (u). (10.207)

Por lo tanto, si l es par, Pl (u) es par y si l es impar, Pl (u) es impar.

10.14.1. Funcion generadora


Ahora veremos la funcion generadora de los polinomios de Legendre. Pro-
baremos que se cumple
1 X
= z l Pl (u), z < 1. (10.208)
1 2zu + z 2
l0

Primero note que u = cos 1 y si 0 < z < 1, entonces z = 1 , con


0 <  < 1. Ademas recordemos que si || < 1, entonces se cumplen las series
1 X
= n , (10.209)
1 n0
1 X (2n)! n
= . (10.210)
1 n0
2 (n!)2
2n

Entonces,
X X X 1
2u < 2 + n = 1  + 1 +  + n = z + n = z +
n2 n2 n0
1
1
= z+ , (10.211)
z
241
de donde,

2uz z 2 = z(2u z) < 1. (10.212)

Por lo tanto, considerando Eq. (10.210) y el binomio de Newton Eq. (10.203)


se tiene
1 1 X (2n)!
= p = 2n 2
z n (2u z)n
1 2zu + z 2 1 z(2u z) n0 2 (n!)
X (2n)! Xn
n
= 2n (n!)2
z Ckn (2u)nk (z)k
n0
2 k=0
n
XX (2n)!()k 2nk C n unk k
= z n+k . (10.213)
n0 k=0
22n (n!)2

Para simplificar los calculos, definamos l = n + k, entonces n = l k. Como n


es el maximo valor que puede tener k, se cumple

k n = (l k),

esto implica 2k l. De donde, el maximo valor que puede tomar k es el


mayor entero menor o igual a l/2, que es [l/2]. Con este cambio de variable se
encuentra
[l/2]
1 XX [2(l k)]!()k 2l2k Cklk ul2k l
= z
1 2zu + z 2 l0 k=0
22(lk) [(l k)!]2
[l/2]
X
l
X [2(l k)]!()k 2l2k (l k)!
= z ul2k
l0 k=0
k!(l 2k)!22(lk) [(l k)!]2

[l/2] k
X X [2(l k)]!()
= zl ul2k . (10.214)
l0 k=0
2l (l k)!k!(l 2k)!

Por lo tanto, tomando en cuenta Eq. (10.206) se llega a la igualdad Eq.


(10.208).

La igualdad (10.208) es importante pues permite probar varias propiedades


de los Polinomios de Legendre. Por ejemplo, si u = 0, ocupando la serie Eq.
(10.210), se tiene
1 X ()l (2l)! X
2l
= 2l 2
z = z l Pl (0), (10.215)
1+z 2
l0
2 l! l0

242
por lo que

()l (2l)! (2l 1)!!


P2l (0) = 2l 2
= (1)l P2l+1 (0) = 0. (10.216)
2 l! (2l)!!

Si u = 1, utilizando la serie Eq. (10.209), se consigue


1 1 X X
= = (1)l z l = z l Pl (1), (10.217)
1 2z + z 2 1z l0 l0

de donde

Pl (1) = (1)l . (10.218)

10.14.2. Relaciones de recurrencia


Los polinomios de Legendre cumplen las siguientes reglas de recurrencia

(l + 1)Pl+1 (u) (2l + 1)uPl (u) + lPl1 (u) = 0, (10.219)


 
dPl+1 (u) dPl (u) dPl1 (u)
2u + Pl (u) + = 0, (10.220)
du du du
dPl+1 (u) dPl (u)
u (l + 1)Pl (u) = 0, (10.221)
du du
dPl+1 (u) dPl1 (u)
(2l + 1)Pl (u) = 0, (10.222)
du du
dPl (u)
(u2 1) luPl (u) + lPl1 (u) = 0. (10.223)
du
Para probar la identidad (10.219) definamos
1 X
W (z, u) = = z l Pl (u), (10.224)
1 2uz + z 2 l0

de donde
W (z, u) (2u + 2z) (u z)W (u, z)
= 2 3/2
= ,
z 2(1 2uz + z ) (1 2uz + z 2 )

es decir,

W (z, u)
(1 2uz + z 2 ) = (u z)W (u, z). (10.225)
z

243
Ademas,
W (z, u) X l1
= lz Pl (u),
z l0

usando este resultado en Eq. (10.225) se obtiene

W (z, u)
(1 2uz + z 2 ) (u z)W (u, z)
z
X X
= (1 2uz + z 2 ) lz l1 Pl (u) (u z) z l Pl (u)
l0 l0
X
l1 l l+1
uPl (u)z l + Pl (u)z l+1

= lPl (u)z 2luPl (u)z + lPl (u)z
l0
X
lPl (u)z l1 (2l + 1)uPl (u)z l + (l + 1)Pl (u)z l+1 = 0. (10.226)

=
l0

Ahora, note que


X X X
lPl (u)z l1 = lPl (u)z l1 = (l + 1)Pl+1 (u)z l
l0 l1 l0
X
= P1 (u) + (l + 1)Pl+1 (u)z l ,
l1
X X
(l + 1)Pl (u)z l+1 = lPl1 (u)z l . (10.227)
l0 l1

Por lo que, introduciendo estos resultados en (10.226), se encuentra


X
P1 (u) uP0 (u) + [(l + 1)Pl+1 (u) (2l + 1)uPl (u) + lPl1 (u)] z l = 0.
l1

Claramente esta igualdad implica Eq. (10.219).

Para probar la identidad Eq. (10.220) derivaremos W (z, u) con respecto a


u, en ese caso se tiene
W (z, u) (2z) zW (u, z)
= 2 3/2
= ,
u 2(1 2uz + z ) (1 2uz + z 2 )
es decir,
W (z, u)
(1 2uz + z 2 ) zW (u, z) = 0. (10.228)
u
244
Ademas
W (z, u) X l dPl (u)
= z ,
u l0
du

por lo que

W (z, u)
(1 2uz + z 2 ) zW (u, z)
u
X dPl (u) X
= (1 2uz + z 2 ) zl z z l Pl (u)
l0
du l0
X  dPl (u) 
dPl (u)

dPl (u) l+2

l l+1
= z 2u + Pl (u) z + z =(10.229)
0.
l0
du du du

Tomando en cuenta que P0 (u) = 1 y P1 (u) = u se encuentra


X dPl (u) X dPl (u) X dPl+1 (u) X dPl+1 (u)
zl = zl = z l+1 = z + z l+1 ,
l0
du l1
du l0
du l1
du

ademas
X dPl (u) X dPl1 (u)
z l+2 = z l+1 . (10.230)
l0
du l1
du

Sustituyendo esto dos resultados en Eq. (10.229) se llega a


X  dPl+1 (u)  dPl (u)  
dPl1 (u) l+1
(1 1)z + 2u + Pl (u) + z = 0,
l1
du du du

que implica Eq. (10.220).

Para probar la tercera identidad Eq. (10.221) derivaremos con respecto a


u a Eq. (10.219), que induce

dPl+1 (u) dPl (u) dPl1 (u)


(l + 1) (2l + 1)Pl (u) (2l + 1)u +l = 0. (10.231)
du du du
Multiplicando por l a Eq. (10.220) se encuentra
 
dPl+1 (u) dPl (u) dPl1 (u)
l l 2u + Pl (u) + l = 0. (10.232)
du du du

245
Ademas, restando Eq. (10.231) con Eq. (10.232), se consigue Eq. (10.221).

Ahora, restando a Eq. (10.231) el producto de (l + 1) con Eq. (10.220), se


obtiene
dPl (u) dPl1 (u)
u lPl (u) = 0. (10.233)
du du
Sumando este resultado con Eq. (10.221) se llega a la identidad Eq. (10.222).

Si en Eq. (10.221) cambiamos l por l 1 se encuentra

dPl (u) dPl1 (u)


u lPl1 (u) = 0. (10.234)
du du
Ademas, de Eq. (10.233) tenemos

dPl1 (u) dPl (u)


=u lPl (u). (10.235)
du du
Sustituyendo este resultado en Eq. (10.234) se obtiene la identidad Eq. (10.223).

Todas estas identidades son de gran utilidad para resolver diversos proble-
mas de electromagnetismo, en captulos posteriores las ocuparemos.

10.15. Relacion de completez de los armonicos


esfericos
Hemos demostrado que las funciones propias de los operadores Lz y L2 son
los armonicos esfericos Ylm (, ) y que estas funciones son una base ortonormal.
Por lo tanto cualquier otra funcion F (, ) se puede escribir como combinacion
lineal de esa base, es decir
m=l
X X
F (, ) = Clm Ylm (, ). (10.236)
l0 m=l

Ocupando las relaciones de ortonormalidad Eq. (10.127) se encuentra


Z

Clm = dYlm (, )F (, ). (10.237)

246
Note que sustituyendo Clm en Eq. (10.236) y haciendo el cambio de variable
u0 = cos 0 , u = cos se llega a
m=l Z
X X 
0
F (, ) = d Ylm (0 , 0 )F (0 , 0 ) Ylm (, )
l0 m=l
Z m=l
!
X X
= d0 F (0 , 0 )
Ylm (0 , 0 )Ylm (, )
l0 m=l
m=l
!
Z 2 Z X X
= d0 d0 sin 0 F (0 , 0 )
Ylm (0 , 0 )Ylm (, )
0 0 l0 m=l
m=l
!
Z 2 Z 1 X X
= d du0 F (u0 , 0 )
Ylm (u0 , 0 )Ylm (u, ) .
0 1 l0 m=l

Por lo tanto, lo que esta dentro del parentesis debe ser igual a (0 )(uu0 ),
es decir
m=l
X X

Ylm (0 , 0 )Ylm (, ) = ( 0 )(cos cos 0 ). (10.238)
l0 m=l

A esta igualdad se le llama relacion de completez.

10.16. Teorema de adicion de los armonicos


esfericos
Ahora veremos el teorema de adicion de los armonicos esfericos, el cual
tiene diferentes aplicaciones. Este teorema nos dice que si se tiene un vector en
los angulos (, ) y otro en los angulos (0 , 0 ) y ademas es el angulo entre
estos dos vectores, entonces se cumple
m=l
X 4
Pl (cos ) = Ylm (0 , 0 )Ylm (, ). (10.239)
m=l
2l + 1

Para mostrar este teorema primero recordemos que las funciones rotan con
~
) = ei~L , donde
el operador U (~ ~ es un vector constante. Por lo que si tenemos
una funcion f (~r), la funcion rotada es

f (~r0 ) = U (~
)f (~r).

247
Ahora, si tenemos el operador lineal A tal que

Af (~r) = g(~r), (10.240)

con g(~r) una funcion, como

f (~r) = U (~
)U (~ )f (~r0 ),
)f (~r) = U (~
g(~r) = U (~)U (~
)g(~r) = U (~)g(~r0 ),

se encuentra

)f (~r0 ) = U (~
Af (~r) = AU (~ )g(~r0 ) (10.241)

que implica

A0 f (~r0 ) = g(~r0 ), A0 = U (~
)AU (~
), (10.242)

al operador A0 le llamaremos operador rotado.

~ se tiene
Considerando que L2 conmuta con L,

L02 = U (~
)L2 U (~
) = U (~ )L2 = L2 ,
)U (~
L0z = U (~
)Lz U (~
).

Es claro que en terminos de los angulos una rotacion hace la transformacion

(, ) (0 , 0 ). (10.243)

En particular para los armonicos esfericos se tiene Ylm (0 , 0 ) = U (~


)Ylm (, ).
Ademas una rotacion no cambia las reglas de ortonormalidad en el sistema de
referencia de las variables (0 , 0 ), pues ocupando las propiedades del producto
escalar y las reglas de ortonormalidad Eq. (10.127) se tiene

< Ylm (0 , 0 )|Yl0 m0 (0 , 0 ) >=< U (~ )Ylm (, )|U (~


)Yl0 m0 (, ) >

= < Ylm (, )|U (~ )U (~ )Yl0 m0 (, ) >
= < Ylm (, )|U (~ )U (~ )Yl0 m0 (, ) >
= < Ylm (, )|Yl0 m0 (, ) >= mm0 ll0 . (10.244)

Adicionalmete, se cumple que

L02 Ylm (0 , 0 ) = )L2 U (~


U (~ )U (~
)Ylm (, ) = U (~)L2 Ylm (, )
= )l(l + 1)Ylm (, ) = l(l + 1)Ylm (0 , 0 ), (10.245)
U (~
0 0 0
Lz Ylm ( , ) = U (~
)Lz U (~
)U (~)Ylm (, ) = U (~)Lz Ylm (, )
0 0
= mU (~)Ylm (, ) = mYlm ( , ).

248
Por lo tanto, el conjunto de funciones Ylm (0 , 0 ) forman una base de funciones
ortonormales y cualquier funcion G(0 , 0 ) se puede escribir en terminos de
ellas
m=l
X X
0 0
G( , ) = Clm Ylm (0 , 0 ). (10.246)
l0 m=l

Tomando en cuenta que


~ es un vector constante, la funcion

Ylm (0 , 0 ) = U (~
)Ylm (, )

se puede ver como una funcion que depende de las variables (, ), por lo que
se puede expresar como una serie de armonicos esfericos que dependen de (, )
0 0
X mX
=l
Ylm (0 , 0 ) = Clml0 m0 Yl0 m0 (, ). (10.247)
l0 0 m0 =l0

Pero como se debe cumplir Eq. (10.245) en esta serie solo contribuyen los
terminos que tienen l0 = l, por lo que
m 0 =l
X
0 0
Ylm ( , ) = Clmm0 Ylm0 (, ), (10.248)
m0 =l

con
Z
0 0
Clmm0 =< Ylm0 (, )|Ylm ( , ) >= dYlm0 (, )U (~
)Ylm (, ). (10.249)

De forma analoga, como


~ es un vector constante, la funcion

)Ylm (0 , 0 )
Ylm (, ) = U (~

se puede ver como una funcion que depende de las variables (0 , 0 ) por lo
que se puede expresar como una serie de armonicos esfericos que dependen de
(0 , 0 ). Considerando que se debe cumplir

L2 Ylm (, ) = l(l + 1)Ylm (, )

se tiene

m0 =l
X
Ylm (, ) = Dlmm0 Ylm0 (0 , 0 ), (10.250)
m0 =l

249
con

Dlmm0 =< Ylm0 (0 , 0 )|Ylm (, ) > . (10.251)

Apelando a las propiedades del producto escalar se encuentra



Clmm0 = (< Ylm0 (, )|Ylm (0 , 0 ) >) =< Ylm (0 , 0 )|Ylm0 (, ) >
= Dlm0 m , (10.252)

que se puede escribir como



Dlmm0 = Clm0m. (10.253)

Por lo tanto,
m 0 =l
X
0 0
Ylm (, ) = Clm0 m Ylm0 ( , ). (10.254)
m0 =l

Ahora, note que por su definicion (10.249) las constantes Clm0 m no pueden
depender de (, ), solamente pueden depender del angulo ~ . Por esta razon,
tomaremos el caso mas simple. Supongamos que ~r esta en el eje z, es decir
~ = (0 , 0 ), claramente el
= 0, y que se hace una rotacion con el angulo
angulo final es mismo angulo
~.

Ademas, considerando Eq. (10.188) se encuentra que


r
2l + 1
Ylm ( = 0, ) = m0 . (10.255)
4
Por lo que, tomando = 0 en Eq. (10.248), se obtiene
m0 =l m 0 =l r
X X 2l + 1
) = Ylm (0 , 0 ) =
Ylm (~ Clmm0 Ylm0 ( = 0, ) = Clmm0 m 0 0
m0 =l m0 =l
4
r
2l + 1
= Clm0
4
es decir
r
4
Clm0 = Ylm (~
). (10.256)
2l + 1
Esta relacion debe ser cierta para cualquier otros angulos (, ) y (0 , 0 ).

250
Ahora, considerando el caso m = 0 en Eq. (10.254), se llega a
r m 0 =l
2l + 1 X
0 0
Yl0 (, ) = Pl (cos ) = Clm0 0 Ylm0 ( , )
4 m0 =l
m 0 =l r
X 4
= Ylm )Ylm0 (0 , 0 ).
0 (~ (10.257)
m0 =l
2l + 1

De donde
m=l
X 4
Pl (cos ) = Ylm )Ylm (0 , 0 ).
(~ (10.258)
m=l
2l + 1

Note que pasar del vector de angulos (, ) a otro de angulos (0 , 0 ) se esta ha-
ciendo una rotacion con el angulo
~ que hacen los dos vectores. En el resultado
(10.258) hemos ocupado tres vectores: el eje z, el vector de angulos P1 : (, )
y el vector de angulos P2 : (0 , 0 ). Claramente se esta suponiendo que esos
tres vectores estan en un sistema S.

Veamos el resultado (10.258) en otro sistema de referencia. Consideremos


el sistema S el cual tiene como eje z el vector que esta en P1 . En este sistema
definiremos al vector P1 como el vector P2 , el cual tiene angulos ~ con el eje
z = P1 . Mientras que definiremos como P2 al eje z que esta en los angulos
(, ) del eje z. Aqu el angulo que hacen los vectores P1 y P2 es (0 , 0 ). En
este sistema de referencia el resultado Eq. (10.258) toma la forma del teorema
de adicion de los armonicos esfericos (10.239).

El angulo puede ser bastante complicado, por ejemplo supongamos que


tenemos los vectores
~r1 = r1 (cos 1 sin 1 , sin 1 sin 1 , cos 1 ),
~r2 = r2 (cos 2 sin 2 , sin 2 sin 2 , cos 2 ). (10.259)
Entonces el angulo que forman esta dado por
r1 r2 = cos = sin 1 sin 2 cos(1 2 ) + cos 1 cos 2 . (10.260)
De donde, el teorema de adicion de los armonicos esfericos nos dice que se
cumple
m=l
4 X
Pl (cos ) = Y (2 , 2 )Ylm (1 , 1 ). (10.261)
2l + 1 m=l lm

251
10.16.1. Implicaciones del teorema de adicion
El teorema de adicion de los armonicos esfericos tiene bastantes aplicacio-
nes, por ejemplo si = 1 = 2 y = 1 = 2 , entonces la ecuacion (10.261)
toma la forma
m=l
X 2l + 1
|Ylm (, )|2 = (10.262)
m=l
4

que se le llama regla de suma de los armonicos esfericos.

Note que introduciendo Eq. (10.261) en la relacion de completez se encuen-


tra
X 4
( 0 )(cos cos 0 ) = Pl (cos ). (10.263)
l0
2l + 1

Ademas, considerando que la delta de Dirac en coordenadas esfericas es


1
(~r ~r0 ) = (r r0 )( 0 )(cos cos 0 ), (10.264)
r2
se llega al resultado
4 X (r r0 )
(~r ~r0 ) = 2
Pl (r r0 ). (10.265)
2l + 1 l0 r

Para ver otra aplicacion consideremos la funcion


1 1
=p 2 (10.266)
|~r1 ~r2 | r1 2r1 r2 cos + r22
con el angulo entre ~r1 y ~r20 que satisface (10.260). Ahora, si r1 6= r2 definamos
r< = min{r1 , r2 } y r> = max{r1 , r2 }, es claro que
 
r<
< 1. (10.267)
r>
Entonces, usando estas definiciones y la funcion generatriz Eq. (10.208) con
r<
z= , u = cos , (10.268)
r>
se tiene
 l
1 1 1 X r<
= r  2 = r> Pl (cos ).
|~r1 ~r2 | 
r<

r< l0
r>
r> 12 r>
cos + r>

252
As, utilizando el teorema de adicion de los armonicos esfericos Eq. (10.261),
tenemos
m=l  l 
1 X X 4 r<
= l+1
Ylm (2 , 2 )Ylm (1 , 1 ), (10.269)
|~r1 ~r2 | l0 m=l
2l + 1 r>

que es la funcion de Green de la ecuacion de Poisson en terminos de los armoni-


cos esfericos.

10.17. L2 y el Laplaciano
El espectro de L2 es de vital importancia para la mecanica cuantica y la
electrostatica, pues este operador esta relacionado con el Laplaciano. En efecto,
ocupando las propiedades del tensor de Levi-Civita se tiene

L2 = Li Li = (ijk xj pk ) (ilm xl pm ) = ijk ilm xj pk xl pm


= jki ilm xj (xl pk ilk ) pm = (jl km jm kl ) (xj xl pk pm ixj lk pm )
= jl km xj xl pk pm jm kl xj xl pk pm ijl km xj lk pm + jm kl xj lk pm
= xj xj pk pk xm xl pl pm ixk pk + ikk xl pl
= (~r)2 (~p)2 xm~r p~pm i~r p~ + 3i~r p~. (10.270)

Ademas, como

xm~r p~pm = xm xl pl pm = xm xl pm pl = xm (pm xl + iml ) pl


= xm pm xl pl + ixm ml pl = (~r p~) (~r p~) + i (~r p~) ,

se encuentra

L2 = (~r)2 (~p)2 (~r p~)2 + i~r p~, (10.271)

de donde
1
(~p)2 = (~r p~)2 i~r p~ + L2 .

2
(10.272)
r
~ se tiene
Considerando que p~ = i,
1
(~p)2 = 2 = 2 (~r p~)2 i~r p~ + L2

 r 
1  2 
~ i i~r

~ +L , 2
= 2 i~r (10.273)
r

253
es decir
 
2 1 2 
~ + ~r

~ L .
2
= 2 ~r (10.274)
r
~ en coordenadas esfericas, se encuentra
En particular, tomando
   2 !  
1  ~ 2  ~  1 1 2
~r + ~r = 2 r +r = 2 r .
r2 r r r r r r
Por lo tanto,
 
2 1 2 1
= 2 r 2 L2 . (10.275)
r r r r
Posteriormente ocuparemos este resultado para atacar problemas de electrostati-
ca y mecanica cuantica.

10.18. Paridad
La transformacion de paridad esta definida por
(x, y, z) (x, y z). (10.276)
Ahora, en coordenadas esfericas se tiene
x = r sin cos = r sin ( ) cos ( + ) ,
y = r sin sin = r sin ( ) sin ( + ) ,
z = r cos = cos( ).
Por lo tanto, la transformacion de paridad en coordenas esfericas toma la forma
(r, , ) (r, , + ). (10.277)
Ahora, veamos como transforman los polinomios asociados de Legendre bajo
paridad. Primero notemos que bajo paridad se tiene
u = cos cos( ) = u. (10.278)
Tambien se tiene
Pl (cos( )) = Pl ( cos ) = ()l Pl (cos )
 m dm
Plm (cos( )) = ()m 1 (u)2 2 Pl (u)
d(u)m
l+m m
m m
2 2 d
= () () 1 u Pl (u)
dum
= ()l+m Plm (cos ). (10.279)

254
Otra identidad de utilidad es

ei(+)m = eim eim = (cos + i sin )m eim = ()m ei . (10.280)

Por lo tanto, ocupando la definicion de los armonicos esfericos (10.188) se


encuentra

Ylm (r, , + ) = ()l Ylm (r, , ). (10.281)

255
Captulo 11

Ecuacion de Laplace en
Coordenadas esfericas

En este captulo estudiaremos la ecuacion de Laplace y resolveremos varios


problemas de electrostatica y magnetostatica.

11.1. Solucion general


Como vimos en el captulo anterior la ecuacion de Laplace en coordenadas
esfericas Eq. (10.275) tiene la forma

L2
 
2 1 2
= 2 r 2 = 0. (11.1)
r r r r

Propondremos como solucion a (r, , ) = R(r)Ylm (, ), de donde

R(r)L2 Ylm (, )
 
2 1 2 R(r)
(r, , ) = 2 r Ylm (, )
r r r r2
 
1 R(r) R(r)l(l + 1)Ylm (, )
= Ylm (, ) 2 r2
r r r r2
   
Ylm (, ) 2 R(r)
= r R(r)l(l + 1) = 0, (11.2)
r2 r r

por lo que R(r) debe satisfacer


 
d 2 dR(r)
r R(r)l(l + 1) = 0. (11.3)
dr dr

256
Para resolver esta ecuacion haremos la propuesta R(r) = a r , con una
constante, entonces

 
d 2 dr d 2 1  d +1 
r = r r = r = ( + 1)r , (11.4)
dr dr dr dr
sustituyendo este resultado en Eq. (11.3) se encuentra
r (( + 1) l(l + 1)) = 0, (11.5)
es decir
( + 1) l(l + 1) = 2 l2 + l = ( + l)( l) + ( l)
= ( + l + 1)( l) = 0, (11.6)
entonces, las soluciones para R(r) son rl y r(l+1) . En general las soluciones
radiales son
Blm
R(r) = Alm rl + l+1 , Alm , Blm = constante. (11.7)
r
As, las soluciones completas son de la forma
 
l Blm
lm (r, , ) = Alm r + l+1 Ylm (, ) (11.8)
r
y la solucion general a la ecuacion de Laplace en coordenas esfericas es
l  
X X
l Blm
(r, , ) = Alm r + l+1 Ylm (, ). (11.9)
l0 m=l
r

Este resultado tiene varias aplicaciones. Por ejemplo, las leyes de la electrostati-
~ satisface las leyes
ca nos dicen que el campo electrico, E,
~ E(~
~ r) = 4(~r),
~ E(~
~ r) = 0. (11.10)
La primera ley es la llamada ley de Gauss y establece la relacion entre el
campo electrico y la densidad de carga . La segunda ley establece que existe
una funcion tal que E~ = ,
~ por lo que la ley de Gauss toma la forma

2 (~r) = 4(~r), (11.11)


que es la llamada ecuacion de Poisson. Note que (~r) solo es diferente de cero
donde hay carga, fuera de la region donde hay carga se tiene (~r) = 0. Por lo
tanto la ecuacion de Poisson Eq. (11.11) se convierte en la ecuacion de Laplace
2 (~r) = 0, (11.12)
cuya solucion en coordenadas esfericas es Eq. (11.9).

257
11.1.1. Problema de la esfera
Supongamos que tenemos un sistema que consta de una esfera de radio R
que esta al potencial V (, ) en su fronterea y que el potencial es finito en
cualquier punto del espacio. El problema consiste en calcular el potencial en
todo el espacio, tanto dentro como fuera de la esfera.

En el interior de la esfera el potencial Eq. (11.9) debe ser finito, esto implica
que si r < R los coeficientes Blm deber ser nulos, de lo contrario el potencial
diverge en el origen. Si r > R los coeficientes Alm debe ser nulos, de lo contrario
el potencial diverge en infinito. Dividiremos el potencial en dos partes, en el
interior, r < R,
l
X X  r l
int (r, , ) = Alm Ylm (, ),
l0 m=l
R

y en el exterior, r > R,
l  l+1
X X R
ext (r, , ) = Blm Ylm (, ).
l0 m=l
r

En la frontera se debe cumplir que int (R, , ) = ext (R, , ) = V (, ), de


donde
l
X X l
X X
V (, ) = Alm Ylm (, ) = Blm Ylm (, ), (11.13)
l0 m=l l0 m=l

es decir Alm = Blm y


l
X X
V (, ) = Alm Ylm (, ), (11.14)
l0 m=l

258
por lo que
Z

Alm =< Ylm (, )|V (, ) >= dYlm (, )V (, ). (11.15)

As, el potencial del problema es

X X l  r l
int (r, , ) = Alm Ylm (, ) (11.16)
l0 m=l
R
l  l+1
X X R
ext (r, , ) = Alm Ylm (, ). (11.17)
l0 m=l
r

con Alm dado por (11.15).

11.1.2. Formula de Poisson


Por otros metodos se puede mostrar que la solucion de la ecuacion de
Laplace en coordenadas esfericas con la condicion de borde

(r = R, , ) = V (, ), (11.18)

es
R(R2 r2 ) V (0 , 0 )
Z
(r, , ) = d0 3 (11.19)
4 (r2 + R2 2Rr cos ) 2

esta es la llamada formula de Poisson en tres dimensiones. Donde es el angulo


entre los vectores ~r y ~r0 = Rer0 , ademas
Z Z 2 Z
0 0
d = d d0 sin 0 ,
0 0
cos = sin 0 sin cos( 0 ) + cos 0 cos ,

el signo superior () corresponde al caso r > R y el signo (+) corresponde al


caso r < R.

Mostraremos que esta solucion es consistente con las soluciones Eq. (11.16)
y Eq. (11.17).

259
Note que
R(R2 r2 ) V (0 , 0 )
Z
(r, , ) = d0 3
4 (r2 + R2 2Rr cos ) 2
R(R r cos ) r(r R cos )
Z
R
= () d0 V (0 , 0 ) 3
4 (r2 + R2 2Rr cos ) 2
 
R(R r cos ) r(r R cos )
Z
R 0 0 0
= () d V ( , ) 3 3
4 (r2 + R2 2Rr cos ) 2 (r2 + R2 2Rr cos ) 2
Z 
R 0 0 0 1
= () d V ( , )() R
4 R r + R 2Rr cos
2 2

1
r
r r2 + R2 2Rr cos
Z   
R 0 0 0 1
= () d V ( , ) R r
4 R r r2 + R2 2Rr cos
V ( , 0 )
0
 Z
R
= () R r d0 .
4 R r r2 + R2 2Rr cos
Definiendo r> =menor{r, R}, r< =mayor{r, R} y considerando la funcion ge-
neratriz de los polinomios de Legendre, junto con el teorema de adicion de los
armonico esfericos se llega a
V (0 , 0 )
 Z
R
(r, , ) = () R r d0 p
4 R r r< 2 + r 2 2r r cos
> < >
0 0
 Z
R V ( , )
= () R r d0 r
4 R r  2  
r> 1 + rr>< 2 rr<> cos

R


Z X  r< l
0 0 0 1
= () R r d V ( , ) Pl (cos )
4 R r r> l0 r>
 Z
R
= () R r d0 V (0 , 0 )
4 R r
l  l
X X 4 1 r<
Ylm (0 , 0 )Ylm (, )
l0 m=l
2l + 1 r > r >

l    l !
X X ()R 1 r<
= R r Ylm (, )
l0 m=l
2l + 1 R r r> r>
Z
d0 Ylm

(0 , 0 )V (0 , 0 )

260
l    l !
X X ()R 1 r<
= R r Alm Ylm (, ), (11.20)
l0 m=l
2l + 1 R r r> r>

con
Z

Alm = dYlm (, )V (, ).

Ahora, si r < R se debe tomar el signo () en Eq. (11.20), en ese caso


   l !   l 
()R 1 r< ()R r
R r = R r
2l + 1 R r r> r> 2l + 1 R r Rl+1
()R ()(2l + 1)rl  r l
= = ,
2l + 1 Rl+1 R
sustituyendo este resultado en Eq. (11.20) se llega a

X X l  r l
int (r, , ) = Alm Ylm (, )
l0 m=l
R

que coincide con Eq. (11.16).

Para R < r se debe tomar el signo (+) en Eq. (11.20), en cuyo caso
   l !   l 
R 1 r< R R
R r = R r
2l + 1 R r r> r> 2l + 1 R r rl+1
 l+1
R (2l + 1)Rl R
= l+1
= ,
2l + 1 r r

usando este resultado en Eq. (11.20) se obtiene

X X l  r l+1
ext (r, , ) = Alm Ylm (, )
l0 m=l
R

que coincide con Eq. (11.17).

Por lo tanto, la formula de Poisson (11.19) es la solucion de la ecuacion de


Laplace con la condicion de borde (11.18)

261
11.1.3. Esfera partida
Supongamos que tenemos una esfera de radio R cuyo potencial en su fron-
tera es
0 2

V0
V () = (11.21)
V0 2 <

y es finito en todo el espacio. Determinaremos el potencial en todo el espacio.

En este caso los potenciales estan dados por Eq. (11.16) y Eq. (11.17), solo
basta determinar los coeficientes Alm .

Claramente, el sistema es invariantes bajo rotaciones sobre el eje z, por


lo que el potencial no puede depender de . Esto implica que si m 6= 0 los
coeficientes Alm son nulos. Los coeficientes no nulos son
Z
Al0 = Al = < Yl0 (, )|V () >= dYl0 (, )V ()
Z 2 Z 2
= d d sin Yl0 (, )V ()
0 0
Z 2 Z 2 r
2l + 1
= d d sin Pl (cos )V ()
0 0 4
r Z 2
2l + 1
= 2 d sin Pl (cos )V (). (11.22)
4 0

Con el cambio de variable u = cos se tiene



V0 0u1
V (u) = (11.23)
V0 1 < u 0
y
p Z 1
Al = (2l + 1) duPl (u)V (u). (11.24)
1

Como V (u) es impar, A2l = 0. Para el caso impar se tiene


p Z 1
A2l+1 = (2(2l + 1) + 1)2 duP2l+1 (u)V (u)
0
p Z 1
= 2V0 (4l + 3) duP2l+1 (u).
0

262
Considerando la identidad
1 d 
P2l+1 (u) = P2(l+1) (u) P2l (u) (11.25)
4l + 3 du
y los valores de los polinomios de Legendre en 1 y en cero se llega a

 1
Z 1
1
duP2l+1 (u) = P2(l+1) (u) P2l (u)
0 4l + 3 0
1 
= P2(l+1) (0) P2l (0)
4l + 3
()l+1 (2(l + 1))! ()l (2l)!
 
1
= 2l 2
4l + 3 22(l+1) ((l + 1)!)2 2 (l!)
l
 
(1) (2l + 2)(2l + 1) (2l)! (2l)!
= +
4l + 3 22 (l + 1)2 22l (l!)2 22l (l!)2
(1)l (2l)!
 
(2l + 2)(2l + 1)
= +1
4l + 3 22l (l!)2 22 (l + 1)2
(1)l (2l)!
 
2(l + 1)(2l + 1)
= +1
4l + 3 22l (l!)2 22 (l + 1)(l + 1)
(1)l (2l)!
 
4l + 3
=
4l + 3 22l (l!)2 2(l + 1)
(1)l (2l)!
= 2l 2 . (11.26)
2 (l!) 2(l + 1)

Entonces
p
V0 (4l + 3)(1)l (2l)!
A2l+1 = , (11.27)
22l (l!)2 (l + 1)

que implica

X
V () = A2l+1 Y2l+10 (, )
l0
p r
X V0 (4l + 3)(1)l (2l)! (4l + 3)
= Pl (cos )
l0
22l (l!)2 (l + 1) 4
X (1)l (4l + 3)(2l)!
= V0 P2l+1 (cos ), (11.28)
l0
22l+1 (l!)2 (l + 1)

263
de donde
X (1)l (4l + 3)(2l)!  r 2l+1
int (r, ) = V0 P2l+1 (cos ),
l0
22l+1 (l!)2 (l + 1)
R
X (1)l (4l + 3)(2l)!  R 2(l+1)
ext (r, ) = V0 2l+1 (l!)2 (l + 1)
P2l+1 (cos ), (11.29)
l0
2 r

es el potencial en todo el espacio.

11.2. Esfera a potencial cero


Supongamos que tenemos un esfera de radio R cuya superficie esta a po-
tencial cero y queremos calcular el potencial electrico en todo el espacio. Note
que debemos buscar las soluciones de la ecuacion de Laplace que satisfacen
(R, , ) = 0. Por conveniencia tomaremos la solucion general de la forma
l  r l  l+1 !
X X R
(r, , ) = alm + blm Ylm (, ). (11.30)
l0 m=l
R r

Por lo que
l
X X
(R, , ) = (alm + blm ) Ylm (, ) = 0,
l0 m=l

como los armonicos esfericos son un conjunto de funciones ortonormales, se


debe cumplir

alm = blm . (11.31)

Por lo tanto, la solucion general a este problema es


l  r l  l+1 !
X X R
(r, , ) = alm Ylm (, ). (11.32)
l0 m=l
R r

11.2.1. Plano con protuberancia esferica


Como una aplicacion del problema anterior, supongamos que tenemos un
plano infinito que tiene una protuberancia esferica de radio R y que todo el
sistema esta a potencial cero, ademas si r >> R el potencia tiene la forma

264
(r) = E0 z = E0 r cos . Para este sistema queremos encontrar el poten-
cial electrico.

Por simplicidad pondremos el plano en el plano x y de tal forma que el


casquete de la protuberancia este sobre el eje z. Claramente este sistema es
invariante bajo rotaciones del eje z, por lo que el potencial no depende de .
Ademas, como el potencial se debe anular sobre el casquete esferico, este debe
ser de la forma Eq. (11.32) donde lo terminos con m 6= 0 no contribuyen. As el
potencial debe ser de la forma
!
X  r l  R l+1
(r, ) = al Pl (cos ). (11.33)
l0
R r

Ahora, el potencial se debe anular sobre el plano x y para cualquier r. Esto


equivale a pedir que el potencial se anule en = 2 , es decir en cos 2 = 0 para
cualquier r. Entonces,
!
  X  r l  R l+1
r, = = al Pl (0) = 0. (11.34)
2 l0
R r

Considerando que P2l+1 (0) = 0, se encuentra a2l = 0, que implica


!
X  r 2l+1  R 2(l+1)
(r, ) = a2l+1 P2l+1 (cos ). (11.35)
l0
R r

Ademas, para el caso r >> R, se debe cumplir


X  r 2l+1
(r) = E0 r cos = (r >> R, ) = a2l+1 P2l+1 (cos ),
l0
R

como P1 (cos ) = cos , se llega a2l+1 = 0 si l > 0 y


r
E0 r cos = a1 cos , (11.36)
R
es decir

a1 = E0 R. (11.37)

En consecuecia la solucion al problema es


 3 !
R
(r, ) = E0 r 1 cos . (11.38)
r

265
11.3. Problemas con simetra azimutal
La solucion general de la ecuacion de Laplace en coordenadas esfericas de
problemas que tienen simetra rotacional ante el eje z, es decir que no dependen
de , es

X
Al rl + Bl r(l+1) Pl (cos ).

(r, ) = (11.39)
l=0

En principio se deben calcular cada uno de los coeficientes Al y Bl , sin embargo


en algunos casos se pueden ocupar las simetras del problema para obtenerlos.

11.3.1. Esfera con condiciones especiales


Supongamos que tenemos una esfera de radio R cuyo potencial en su su-
perficie es
V () = V0 1 + cos + 2 cos + cos2 ,

V0 = constante (11.40)
y el potencial es finito en todo el espacio. Este problema no depende de , por
lo que debemos buscar soluciones de la ecuacion de Laplace de la forma Eq.
(11.39) que satisfagan la condicion de borde Eq. (11.40). Como el potencial es
finito en todo el espacio, si r < R el potencial debe ser de la forma
X  r l
int (r, ) = al Pl (cos ). (11.41)
l0
R

Por la misma razon, si r > R el potencial debe escribirse como


X  R l+1
ext (r, ) = bl Pl (cos ). (11.42)
l0
r

Antes de continuar escribamos el potencial Eq. (11.40) de una forma mas


sugerente, como cos 2 = cos2 sen2 = 2 cos2 1, entonces
V () = V0 cos + 3 cos2 .

(11.43)
Considerando que
1
P0 (u) = 1, P1 (u) = u, P2 (u) = (3u2 1), (11.44)
2
se encuentra
2 1
u2 = P2 (u) + P1 (u), (11.45)
3 3
266
as,

V () = V0 (P0 (cos ) + P1 (cos ) + 2P2 (cos )) . (11.46)

Entonces, como V () = int (R, ) = ext (R, ) y los polinomios de Legendre


son linealmente independientes, los unicos coeficientes diferentes de cero son

a0 = V 0 , a1 = V0 , a2 = 2V0 . (11.47)

De donde la solucion al problema es


 
r  r 2
int (r, ) = V0 P0 (cos ) + P1 (cos ) + 2 P2 (cos ) ,
R R
 2  3 !
R R R
ext (r, ) = V0 P0 (cos ) + P1 (cos ) + 2 P2 (cos ) .
r r r

11.3.2. Potencial de un anillo circular


Supongamos que tenemos un anillo circular de radio R con densidad de
carga constante , paralelo al plano x y y que esta a una altura h del origen.
Ademas el origen del anillo esta sobre el eje z.

Este sistema es invariante bajo rotaciones del eje z, por lo que no depende
de y su potencial debe ser de la forma Eq. (11.39). Note que los coeficientes
Al y Bl no depende de la posicion, por lo que si los calculamos en un punto o
sobre un eje los habremos calculado para todo el espacio.

Primero calculemos el potencial para un punto que este sobre el eje z, es


decir = 0, note que esto implica que r = z. Ahora, un elemento de carga del
anillo, dq = Rd que esta en la posicion ~rq = (R cos , R sin , h) contribuye
con el potencial
dq Rd Rd
d(r = z, = 0) = =p =
|z k ~rq | R2 + (z h)2 R2 + h2 + z 2 2hz

de donde
2R
(r = z, = 0) = .
R2 + h2 + z 2 2hz
Este potencial se puede poner de forma mas sugerente. En efecto, si es el
angulo que hace el eje z con un vector que une el origen del sistema coordenado

267

y un punto del anillo, entonces R = c sin y h = c cos , con c = R2 + h2 .
Por lo que,
2R
(r = z, = 0) = .
c2 + z 2 2cz cos
Si definimos a r< =menor{r, c} y r> =mayor{r, c} se llega a

2R
(r = z, = 0) = r 2  

r> 1 + r> 2 rr<> cos
r<

 l
2R X r<
= Pl (cos )
r> l0 r>
l
X r<
= 2RPl (cos ) l+1
. (11.48)
l0
r>

Si r < c, se tiene
X rl
int (r = z, = 0) = 2RPl (cos ) , (11.49)
l0
cl+1

para el caso r > c se llega a


X cl
ext (r = z, = 0) = 2RPl (cos ) . (11.50)
l0
rl+1

Para obtener el potencial en todo el espacio consideremos la solucion general


Eq. (11.39). Si r , entonces rl diverge por lo que en ese caso, que corres-
ponde a r > c, se debe cumplir que Al = 0. En particular sobre el eje z, es
decir = 0, como Pl (1) = 1, se tiene
X
ext (r = z, = 0) = Bl r(l+1) . (11.51)
l0

Igualando esta solucion con Eq. (11.50) se llega a Bl = 2Rcl Pl (cos ). Por
lo que, si r > c, la solucion es
X 2Rcl Pl (cos )
ext (r, ) = Pl (cos ). (11.52)
l0
rl+1

268
Para el caso r < c, si r 0, entonces r(l+1) diverge y se debe tomar Bl = 0.
En particular sobre el eje z, es decir = 0, se consigue
X
int (r = z, = 0) = Al rl . (11.53)
l0

2R
Igualando esta solucion con Eq. (11.49) se encuentra Al = P (cos ).
cl+1 l
De
donde, si r > c, la solucion es
X 2RPl (cos )
int (r, ) = rl Pl (cos ). (11.54)
l0
cl+1

Claramente la solucion en todo el espacio es


X rl
<
(r, ) = 2R P (cos )Pl (cos ).
l+1 l
(11.55)
l0
r>

11.3.3. Esfera con hueco


Veamos otro problema que se puede resolver con el metodo empleado en el
ejemplo anterior. Supongamos que tenemos una esfera conductora de radio R
con un hueco definido por el cono = y que tiene densidad superficial de
carga constante . Queremos calcular el potencial electrico del sistema.

Pondremos el origen de coordenadas en el centro de la esfera de tal forma


que el eje del cono coincida con el eje z. Este problema no depende de , por lo
que el potencial es de la forma Eq. (11.39). Como en el caso del anillo, primero
calcularemos el potencial sobre el eje z. Un elemento de carga esta dado por
dq = da = R2 sin 0 d0 d0
y si tiene la posicion ~r0 = Rer0 , entonces contribuye con el potencial
dq R2 sin 0 d0 d0
d(r = z, = 0) = =p
|z k Rer0 | z 2 + R2 2Rz k er0
R2 sin 0 d0 d0 R2 sin 0 d0 d0
= = r ,
z 2 + R2 2Rz cos 0  2  
r< r<
r> 1 + r> r> cos 0

donde r> =mayor{r, R} y r< =menor{r, R}. Por lo que


X rl
d(r = z, = 0) = <
P (cos 0 )R2 sin 0 d0 d0 ,
l+1 l
(11.56)
r
l0 >

269
as el potencial total sobre un punto en el eje z es
Z 2 Z
(r = z, = 0) = d(r = z, = 0)
0
X rl Z 2 Z
0
= R 2 <
l+1
d Pl (cos 0 ) sin 0 d0
r
l0 > 0

X rl Z
= 2R2 <
l+1
Pl (cos 0 ) sin 0 d0 .
l0 >
r

Con el cambio de variable x = cos 0 y considerando que se cumple


1 d
Pl (x) = (Pl+1 (x) Pl1 (x)) , Pl (1) = (1)l , (11.57)
2l + 1 dx
tenemos
Z Z 1
0 0 0
Pl (cos ) sin d = Pl (x)dx
cos
Z cos
1 d
= (Pl+1 (x) Pl1 (x)) dx
1 2l + 1 dx
1
= (Pl+1 (cos ) Pl1 (cos )),
2l + 1
de donde
X 2R2 rl
<
(r = z, = 0) = l+1
(Pl+1 (cos ) Pl1 (cos )) (11.58)
l0
2l + 1 r>

Ahora, tomando en cuenta la solucion general Eq. (11.39), el potencial en todo


el espacio es
X 2R2 rl
<
(r, ) = l+1
(Pl+1 (cos ) Pl1 (cos )) Pl (cos ). (11.59)
l0
2l + 1 r>

11.4. Disco a potencial constante


Supongamos que tenemos un disco de radio R que esta en el plano x y
centrado en el origen y que tiene potencial constante V. Con la informacion de
que en el disco el campo electrico es proporcional a
4
p (11.60)
R2 2

270
calcular el potencial si R < r.

Como el sistema es invariante bajo rotaciones en el eje z, el potencial debe


ser de la forma
X  R l+1
ext (r, ) = Al Pl (cos ). (11.61)
l0
r

Antes de calcular Al note que, como el potencial es constante en el disco,


~ = ,
el campo electrico, E ~ debe ser perpendicular a este. Ahora, si
es una constante de proporcionalidad, ocupando la funcion generatriz de los
polinomios de Legendre se llega a que el campo electrico en el disco es
4 4 4 X l
 2l
E=p = q = () P2l (0). (11.62)
R 2 2 2
 R l0 R
R 1 R
En el borde del disco, se tiene
~ = 4
X
E ()l P2l (0)e , e = (cos , sin , 0), (11.63)
R l0

con e el vector normal al borde del disco.

Ocupando de la funcion generatriz de los polinomios de Legendre Eq.


(10.208) se tiene
1 X
p = ()l 2l P2l (0). (11.64)
1 2 l0

Ademas es claro que con el cambio de variable = cos se encuentra


Z 1 Z
d 2
p = d = , (11.65)
0 1 2 0 2
por lo que
Z 1 Z 1 X X ()l
1
d p = d ()l 2l P2l (0) = P2l (0) = . (11.66)
0 1 2 0 l0 l0
2l + 1 2

Ahora, de Eq. (11.61) se encuentra


X  Al (l + 1)Rl+1
~ ) = (r,
E(r, ~ ) = Pl (cos )er
l0
rl+2
 l+1 
1 R dPl (cos )
+ Al e .
r r d

271
Con el cambio de variable u = cos se tiene
 
dPl (cos ) dPl (u) dPl1 (u)
= sin = sin u + lPl1 (u) , (11.67)
d du du
de donde
X Al  R l+1 
~ ) =
E(r, (l + 1)Pl (cos )er
l0
r r
  
dPl1 (u)
+ sin u + lPl1 (u) e . (11.68)
du

En el plano x y, es decir = 2
se tiene

er | 2 = (cos , sin , 0) = e ,
e | 2 = (0, 0, 1) = k.

Note que el borde del disco se encuentra en = 2 , r = R y en ese caso se


debe cumplir Eq. (11.63). Entonces, evaluado en = 2 , r = R a Eq. (11.68)
e igualando el resultado con Eq. (11.63), se encuentra

~
  X Al h i
E R, = = (l + 1)Pl (0)e lPl1 (0)k
2 l0
R
4 X
= ()l P2l (0)e , (11.69)
R l0

que implica
X Al
lPl1 (0)k = 0, (11.70)
l0
R

de donde

A2l+1 = 0. (11.71)

Entonces la igualdad Eq. (11.69) toma la forma

~
  X A2l 4 X
E R, = = (2l + 1)P2l (0)e = ()l P2l (0)e ,
2 l0
R R l0

que induce
()l 4
A2l = . (11.72)
2l + 1

272
As el potencial exterior tiene la forma

X ()l  R 2l+1
ext (r, ) = 4 P2l (cos ), (11.73)
l0
2l + 1 r

este potencial debe satisfacer la condicion de borde


  X ()l
R, = = 4 P2l (0) = V, (11.74)
2 l0
2l + 1

usando Eq. (11.66) se llega a


V
= . (11.75)
2 2
Por lo tanto, el potencial es
 2l+1
2V X ()l R
ext (r, ) = P2l (cos ). (11.76)
l0 2l + 1 r

11.5. Distribucion de carga continua


Supongamos que se tiene una partcula puntual de carga q en la posicion ~r0 ,
entonces segun las leyes de la electrostatica el potencial electrico en el punto
~r esta dado por
q
(~r) = . (11.77)
|~r ~r0 |
Ahora, si se tiene una densidad de carga (~r) en un volumen, V, cada elemento
de carga dq(~r0 ) = (~r)d~r contribuye al potencial en el punto ~r con
dq(~r0 ) (~r0 )d~r0
d(~r) = = , (11.78)
|~r ~r0 | |~r ~r0 |
por lo tanto, el potencial total en el punto ~r es
(~r0 )
Z
(~r) = d~r0 . (11.79)
|~r ~r0 |
Sea el angulo entre los vectores

~r = r(sin cos , sin sin , cos ), ~r0 = r0 (sin 0 cos 0 , sin 0 sin 0 , cos 0 )

273
tambien definamos r< =menor{r, r0 }, r> =mayor{r, r0 }, entonces
1 1 1
0
= =p
|~r ~r | 2 02 0
r + r 2rr cos 2 2
r> + r< 2r< r> cos
 l
1 1 X r<
= r = Pl (cos )
 2
r<
 
r<
r< l0 r>
r< 1 + r> 2 r> cos
l  l
X X 4 1 r<
= Ylm (0 , 0 )Ylm (, ).
l0 m=l
2l + 1 r< r>

Por lo que
(~r0 )
Z
(~r) = d~r0
|~r ~r0 |
Z l  l !
0 0
X X 4 1 r< 0 0
= d~r (~r ) Ylm ( , )Ylm (, )
l0 m=l
2l + 1 r< r>
l Z  l
X X 4Ylm (, ) 0 1 r<
= d~r Ylm (0 , 0 )(~r0 ). (11.80)
l0 m=l
2l + 1 r < r>

En particular para el potencial exterior, R < r, se tiene


l
X X 4 Qlm
ext (~r) = Y (, ),
l+1 lm
l0 m=l
2l + 1 r

con
Z
Qlm = d~r0 r0l Ylm

(0 , 0 )(~r0 ). (11.81)

Si r < r0 , se llega a
l
X X 4 l
ext (~r) = r qlm Ylm (, ),
l0 m=l
2l + 1

con
Z
1
qlm = d~r0
Ylm (0 , 0 )(~r0 ). (11.82)
r0l+1
Entonces, el potencial de cualquier distribucion de carga continua se puede
expresar en terminos de armonicos esfericos.

274
11.5.1. Esfera cargada
Ahora veamos un problema sencillo que involucre calcular los cofientes Qlm
y qlm .

En cuentre el potencial electrico de una esfera de radio R que en la superficie


tiene la distribucion de carga

() = 0 cos , 0 = constante. (11.83)

Como solo hay carga en el radio R, las distrucion de carga se puede escribir
como

(~r) = (r R)0 cos . (11.84)

Ademas considerando
r r
3 3
Y10 (, ) = P1 (cos ) = cos (11.85)
4 4
se encuentra
r
4
(~r) = (r R)0 Y10 (, ). (11.86)
3
Introduciendo este resultado en Eq. (11.81) y Eq. (11.82), se encuentra
Z r
0 0l 0 0 0 4
Qlm = d~r r Ylm ( , )(r R)0 Y10 (0 , 0 )
3
r Z Z
4
= 0 dr0 r02 r0l (r0 R) d0 Ylm
(0 , 0 )Y10 (, )
3
r r
4 l+2 4 3
= R 0 l1 m0 = R 0 l1 m0 ,
Z 3 3
1
qlm = d~r0 0l+1 Ylm

(0 , 0 )(~r0 )
r
Z Z r
0 02 0 1 0 0 0 4
= dr r d 0l+1 Ylm ( , )(r R)0 Y10 (0 , 0 )
r 3
r r
4 1 4
= l1
0 l1 m0 = 0 l1 m0 .
3 R 3
Es decir, los unicos coeficientes Qlm y qlm diferentes de cero son
r r
4 3 4
Q10 = R 0 , q10 = 0 .
3 3

275
Por lo que los potenciales son

4 Q10 Y10 (, ) 4
ext (r, ) = , int (r, ) = rq10 Y10 (, ),
3 r2 3
es decir
4R3 0 cos
ext (r, ) = ,
3 r2
4 4
int (r, ) = 0 r cos = 0 z. (11.87)
3 3

11.6. Problemas en magnetismo


Las leyes de la magnetostatica nos dicen que si tenemos una densidad de
~ se produce un campo magnetico B
corriente, J, ~ que satisface

~ B
~ = 0, (11.88)
~ B
~ = 4 J.
~ (11.89)
c

La densidad de corrientes se define como J~ = (~r)V~ (~r). Donde (~r) es la den-


sidad de carga y V~ (~r) es la velocidad de las partculas cargadas.

~ B
La ecuacion ~ = 0 implica que existe una funcion A
~ tal que B
~ =~ A.
~
~ esta dada por [1]
Se puede mostrar que en terminos de la corriente A
Z ~ r0 )
~ r) = 1
A(~ d~r0
J(~
. (11.90)
c |~r ~r0 |

En la siguientes secciones veremos dos ejercicios relacionados con este tema.

11.6.1. Esfera rotante


Supongamos que tenemos una esfera de radio R con densidad de carga su-
perficial constante 0 . Si la esfera rota con velocidad constante , encuentre el
potencial vectorial y el campo magnetico.

Como solo hay carga en la superficie de la esfera, la densidad de carga es

(~r) = 0 (r R). (11.91)

276
Supongamos que el eje de rotacion esta en el eje z, entonces la velocidad de
un punto de la esfera es
V~ = R sin e . (11.92)
Ademas, sabemos que cualquier vector en dos dimensiones (x, y) se puede es-
cribir como el numero complejo z = x+iy, en particular e = ( sin , cos , 0)
se puede escribir como
e = sin + i cos = i(cos + i sin ) = iei , (11.93)
entonces
V~ = iR sin ei . (11.94)
Ahora, de la definicion de los armonicos esfericos se tiene
r
3
Y11 (, ) = () sin ei , (11.95)
8
de donde
r
8
V~ = iR Y11 (, ). (11.96)
3
As, la densidad de corriente es
r
8
J~ = V~ = iR0 (r R) Y11 (, ), (11.97)
3
entonces, si r> =mayor{R, r}, r< =menor{R, r}, el potencial vectorial magneti-
co es
~ r0 )
r Z
Y11 (0 , 0 )
Z Z
~ 1 0 J(~ iR 0 8 0 02 0 0
A(~r) = d~r = dr r d (r R)
c |~r ~r0 | c 3 |~r ~r0 |
r Z l l
iR3 0 8 X X 4 r<
= d0 Y11 (0 , 0 ) Y (0 , 0 )Ylm (, )
l+1 lm
c 3 l0 m=l
2l + 1 r>
r l l
iR3 0 8 X X 4 r<
Z
= Y (, ) d0 Ylm
l+1 lm

(0 , 0 )Y11 (0 , 0 )
c 3 l0 m=l 2l + 1 r>
r l l
iR3 0 8 X X 4 r<
= Y (, )l1 m1
l+1 lm
c 3 l0 m=l 2l + 1 r>
r r r
iR3 0 8 4 r< iR3 0 8 4 r< 3
= 2
Y11 (, ) = 2
() sin ei
c 3 3 r> c 3 3 r> 8
3 3
R 0 4 r< 40 R r<
= 2
sin iei = 2
sin e , (11.98)
c 3 r> 3c r>

277
de donde

~ r) = A e , 40 R3 r<
A(~ A = 2
sin . (11.99)
3c r>

Ocupando la expresion del rotacional en coordenadas esfericas Eq. (2.86), se


obtiene el campo magnetico
1
Br = (sin A ) ,
sin
1
B = (rA ) ,
r r
B = 0. (11.100)

Por lo tanto,

80 R3 r<
Br = 2
cos (11.101)
3c r>

Si r < R, se tiene
80 R
B(int) = sin , (11.102)
3c
mientras que si r > R, se llega a

40 R4
B(ext) = sin . (11.103)
3cr3
Note que

~ int = Br(int) er + B(int) e = 80 R k,


B (11.104)
3c
es decir el campo magnetico en el interior de la esfera es constante y apunta
en la direccion del eje de la rotacion de la esfera.

Cabe senalar que el nucleo de la tierra es metalico y tiene cierta carga, por
lo que al girar produce un campo magnetico. En este sentido la esfera cargada
rotante es un modelo simplificado para explicar el campo magnetico terrestre.

278
11.6.2. Anillo de corriente I

R
I

Anillo de corriente

Ahora veamos el problema de un anillo circular de radio R por el cual circula


una corriente constante I. Sin perdida de generalidad podemos suponer que
el anillo esta en el plano x y y que su centro esta en el origen del sistema
coordenado. Para este sistema la densidad de corriente es

~ I  
J(~r) = (r R) e . (11.105)
R 2
Ahora, recordemos que cualquier vector en dos dimensiones, (x, y), se puede es-
cribir como un numero complejo, z = x+iy. En particular e = ( sin , cos , 0)
se puede reprensentar como e = sin + i cos = i(cos + i sin ) = iei ,
por lo que

~ r) = I (r R) iei .
 
J(~ (11.106)
R 2
Definamos r> =mayor{R, r}, r< =menor{R, r}, entonces el potencial vectorial
es
0 0
 i0
(r R) e
Z
~ r) = iI
A(~ 0
2
r02 dr0 d0
cR |~r r |

279
l
Z X X l
iI 4 r<
= Y (0 , 0 )Ylm (, )
l+1 lm
cR l0 m=l
2l + 1 r >

0

0 i0 02 0 0

(r R) e r dr d
2
l l Z
iI X X 4 r< 2 0 0

0  i0 0
= l+1
R Ylm (, ) Ylm ( , ) e d .
cR l0 m=l 2l + 1 r> 2

Ocupando la definicion de elemento de angulo solido y de los armonicos esferi-


cos se tiene
Z Z 2
0 0

0  i0 0   0
Ylm ( , ) e d = d0 Ylm

, 0 ei
2 0 2
s Z 2
(2l + 1)(l m)! m   0 0
= Pl cos d0 eim ei
4(l + m)! 2 0
s
(2l + 1)(l m)! m
= Pl (0) 2m1
4(l + m)!
s
(2l + 1)(l m)! m
= Pl (0) 2m1
4(l + m)!
 

= Ylm , 0 2m1 . (11.107)
2
Como m debe cumplir que m l, entonces l 1. As, ocupando de nuevo
las definiciones de los armonicos esfericos Eq. (10.188) y de los polinomios
asociados de Legendre Eq. (10.180), se encuentra
l
~ 8 2 iIR X 1 r<
 
A(~r) = Y (, )Yl1
l+1 l1
,0
c l1
2l + 1 r> 2

s !2
l
8 2 IR X 1 r< (2l + 1)(l 1)!
= l+1
Pl1 (cos )Pl1 (0)iei
c l=1
2l + 1 r> 4(l + 1)!
l
2IR X (l 1)! r<
= l+1 l
P 1 (cos )Pl1 (0)e
c l1 (l + 1)! r>
2l
2IR X (2l)! r< 21+1 ()l+1 (2l + 1)!
= P
2l+2 l
(cos ) e
c l1 (2l + 2)! r> 22l (l!)2
2l
2IR X ()l+1 (2l)! r<
= 2l+1 2l+2
Pl21+1 (cos )e . (11.108)
c l1 2 (l + 1)!l! r>

280
Por lo tanto, el potencial vectorial solo tiene direccion e , cuya componente es
2l
IR X ()l+1 (2l)! r<
A = 2l 2l+2
Pl21+1 (cos ). (11.109)
c l1 2 (l + 1)!l! r>

Ocupando el rotacional en coordenadas esfericas Eq. (2.86), se encuentra que


el campo magnetico es
1
Br = (sin A ) ,
sin
1
B = (rA ) ,
r r
B = 0. (11.110)

Con el cambio de variable u = cos se tiene


1 A 1
= sin , = ((1 u2 ) 2 A ) (11.111)
u sin u
Ademas, como
 
dPl (u)
1 d 2 dPl (u)
Pl1 (u) = (1 u ) 2 2 , (1 u ) + l(l + 1)Pl (u) = 0,
du du du
se llega a
1
Br = (sin A ) ,
sin
2l
IR X ()l+1 (2l)! r<
= 2l+2
(2l + 1)(2l + 2)P 21+1 (cos )
c l1 22l (l + 1)!l! r>
2l
2IR X ()l (2l + 1)! r<
= 2l 2 2l+2
P 21+1 (cos ). (11.112)
c l1 2 (l!) r>

Para la componente B , tenemos que si R < r,


 2l+2
I X ()l+1 (2l + 1)! R
B(ext) = Pl21+1 (cos ), (11.113)
cr l1 22l (l + 1)!l! r

mientras que si r < R,

2I X ()l (2l)!  r 2l+1 21+1


B(int) = Pl (cos ). (11.114)
cr l1 22l (l!)2 R

281
11.6.3. Anillo de corriente II
Ahora veremos otra forma de resolver el problema de la seccion anterior.

Fuera de la region donde hay corriente electrica, las ecuaciones de la mag-


netostatica son
~ B
~ = 0, ~ B
~ = 0. (11.115)
De la segunda ecuacion se deduce que existe una funcion, que llamaremos
potencial escalar magnetico, m (~r), tal que
~ =
B ~ m (~r). (11.116)
~ B
Al introducir esta ecuacion en ~ = 0 se llega a la ecuacion de Laplace

2 m (~r) = 0, (11.117)
cuya solucion en coordenadas esfericas es Eq. (11.9).

Ademas, se puede mostrar que si la corriente circula por una curva cerrada
el potencial escalar magnetico es [2]
I 0
I n (~r ~r0 ) 0
m (~r) = da . (11.118)
c a |~r ~r0 |3
Donde a es el area de la superficie que encierra la curva de corriente y n la
normal a esta superficie.

En algunos caso es mas conveniente ocupar el potencial escalar magnetico


que el potencial vectorial. Por ejemplo, supongamos que tenemos un anillo de
radio R por el cual circula una corriente constante I.

Para resolver este problema pondremos al anillo en el plano x y y el


centro del anillo en el origen del sistema de referencia coordenado. Claramente
el sistema es invariante bajo rotaciones en el eje z, por lo que el potencial no
depende de , es decir es de la forma
 r l  l+1 !
X R
m (r, ) = Al + Bl Pl (cos ). (11.119)
l0
R r

Adicionalmente, los puntos del disco que encierra el anillo de corriente son de
la forma
~r0 = r0 (cos 0 , sin 0 , 0) (11.120)

282
mientras que el vector normal es n0 = k y el elemento de area es da0 = r0 dr0 d0 .
De donde, para un punto ~r = (x, y, z) = r(sin cos , sin sin , cos ), el po-
tencial escalar magnetico Eq. (11.118) es

I 2 0 R 0 0 k ((x, y, z) r0 (cos 0 , sin , 0))


Z Z
m (~r) = d r dr p 3 ,
c 0 0 2 02 0 0
r + r 2rr sin cos( )
Z 2 Z R
I zr0
= d0 dr0 p 3 .
c 0 0 2 02 0 0
r + r 2rr sin cos( )

Si = 0, es decir, si el punto de observacion esta sobre el eje z, la integral se


simplifica notablemente y se encuentra
I 2 0 R 0 rr0
Z Z
m (0, 0, z = r) = d dr 3
c 0 0 r2 + r02
2Ir R 0 r0 2Ir R 0 d
 
1
Z Z
= dr 3 = dr 0
c 0 r2 + r02 c 0 dr r2 + r02
   
2Ir 1 R 2Ir 1 1
= =
c r2 + r02 0 c r 2 + R2 r
2I 2I r
= + . (11.121)
c c r + R2
2

Ahora, definamos r< =menor{r, R} y r> =mayor{r, R}, entonces ocupando


las propiedades de los polinomios de Legendre, se encuentra
 l  2l
r r 1 r X r< r X r<
= r  2 = r> Pl (0) = P2l (0).
r 2 + R2 r> r> r > r >
1 + r<r>
l0 l0

Por lo tanto,
 2l
2I X 2I r r<
m (0, 0, r) = P2l (0). (11.122)
c l0
c r> r>

Para el caso r < R se tiene


2I X 2I r  r 2l 2I
m(int) (0, 0, r) = P2l (0) +
c l0
c R R c
 
2I X 2I
= + 2l+1 P2l (0) r2l+1 . (11.123)
c l0
cR

283
Mientras que si R < r se tiene
 2l
2I X 2I R
m(ext) (0, 0, r) = P2l (0)
c l0
c r
2IR2l
 
2I 2I X 1
= + P2l (0) 2l
c c l1
c r
X  2IR2l 
1
= P2l (0) 2l . (11.124)
l1
c r

Ahora, segun la solucion general de la ecuacion de Laplace en coordenadas


esfericas, si r < R el potencial debe ser de la forma
X
m(int) (r, ) = Al rl Pl (cos ). (11.125)
l0

Cuando = 0 esta ultima ecuacion debe ser igual a Eq. (11.123), por lo tanto
considerando que Pl (1) = 1, se llega a
X X X
m (r, = 0) = Al rl Pl (1) = A2l r2l P2l (1) + A2l+1 r2l+1 P2l+1 (1)
l0 l0 l0
2I X 2I

= + 2l+1 P2l (0) r2l+1 . (11.126)
c l0
cR

As, los unicos coeficientes diferentes de cero son


2I 2I
A0 = , A2l+1 = 2l+1 P2l (0). (11.127)
c cR
entonces, si r < R se tiene el potencial
2I 2I X  r 2l+1
m(int) (r, ) = P2l (0) P2l+1 (cos ). (11.128)
c c l0 R

Ahora, segun la solucion general de la ecuacion de Laplace en coordenadas


esfericas, si R < r el potencial debe ser de la forma
X Cl
m(ext) (r, ) = P (cos ).
l+1 l
(11.129)
l0
r

Cuando = 0 el potencial Eq. (11.124) debe ser igual a Eq. (11.129), es decir,
X Cl X C2l X C2l1
m(ext) (r, = 0) = P l (1) = +
l0
rl+1 l0
r2l+1 l1
r2l
X  2IR2l 
1
= P2l (0) 2l . (11.130)
l1
c r

284
Por lo tanto,
2IR2l
C2l = 0, C2l1 = P2l (0). (11.131)
c
Entonces, si R < r se tiene el potencial
 2l
2I X R
m(ext) (r, ) = P2l (0) P2l1 (cos )
c l1 r
 2(l+1)
2I X R
= P2(l+1) (0) P2l+1 (cos ). (11.132)
c l0 r

Ademas, el campo magnetico es


 
~ =
~ m (r, ) = m (r, ) 1 m (r, )
B er + e , (11.133)
r r
es decir
m (r, ) 1 m (r, )
Br = , B = , B = 0. (11.134)
r r
De donde, considerando el valor de P2l (0) y rearreglando terminos, se llega a
m(int) (r, ) 2I X  r 2l+1
Br(int) = = P2l (0)(2l + 1) P2l+1 (cos )
r c l0 R
2IR X ()l (2l + 1)! r2l+1
= P2l+1 (cos ),
cr l0 22l (l!)2 R2(l+1)

mientras que
m(ext) (r, ) 2I X R2l+2
Br(ext) = = P2(l+1) (0)()2(l + 1) 2l+3 P2l+1 (cos )
r c l0 r
2IR X ()l+1 (2l + 2)! R2l+1
= P2l+1 (cos )
cr l0 22l+2 (l + 1)!2 r2l+2
2IR X ()l+1 (2l + 2)!()2(l + 1) R2l+1
= P2l+1 (cos )
cr l0 22l+2 (l + 1)!2 r2(l+1)
2IR X ()l (2l + 1)!2(l + 1)2(l + 1) R2l+1
= P2l+1 (cos )
cr l0 22l+2 (l + 1)!2 r2(l+1)
2IR X ()l (2l + 1)! R2l+1
= P2l+1 (cos ).
cr l0 22l (l)!2 r2(l+1)

285
Note que ambas componentes se pueden escribir como
2l+1
2IR X ()l (2l + 1)! r<
Br = P
2(l+1) 2l+1
(cos ),
cr l0 22l (l)!2 r>

que coincide con Eq. (11.112).

Adicionalmente, consideremos el cambio de variable u = cos en la ecua-


cion
dPl (cos ) dPl (u) 1 dPl (u)
= sin = (1 u2 ) 2 = Pl1 (u) = Pl1 (cos ),
d du du
por lo que se encuentra
 2l+1
1 m(int) (r, ) 2I X R 1
B(int) = = P2l (0) P2l+1 (cos )
r cr l0 r
 2l+1
2I X ()l (2l)! R 1
= P2l+1 (cos ) (11.135)
cr l0 22l (l!)2 r

y
 2l+2
1 m(ext) (r, ) 2I X R 1
B(ext) = = P2l+2 (0) P2l+2 (cos )
r cr l0 r
 2(l+1)
2I X ()l+1 (2l + 2)! R 1
= 2l+2 2
P2l+1 (cos )
cr l0 2 (l + 1)! r
 2(l+1)
2I X ()l+1 (2l + 1)!2(l + 1) R 1
= 2l+2
P2l+1 (cos )
cr l0 2 (l + 1)!(l + 1)! r
 2(l+1)
I X ()l+1 (2l + 1)! R 1
= P2l+1 (cos ). (11.136)
cr l0 22l (l + 1)!l! r

Estos resultados coinciden con los obtenidos en la seccion anterior, es decir con
Eqs. (11.113)-(11.114)

286
Captulo 12

Los Polinomio de Laguerre y el


atomo de hidrogeno

En este captulo estudiaremos el atomo de hidrogeno. Para este problema


son importantes los resultados de captulo 10.

12.1. Atomo de hidrogeno


La ecuacion de Schrodinger para una partcula en un campo central es
1 2 ~
H = E, H = P + V (r), P = i~, (12.1)
2m
es decir
~2 2
 
+ V (r) = E. (12.2)
2m

Anteriormente vimos que las soluciones de la ecuacion de Schrodinger con


sentido fsico forman un conjunto ortonormal. Es decir, si

Ha = Ea a , y Hb = Eb b , (12.3)

entonces

< a |b >= ab , (12.4)

esta propiedad es importante para el desarrollo que haremos posteriormente.

287
En coordenadas esfericas el operador Laplaciano es Eq. (10.275)
L2
 
2 1 2
= 2 r 2, (12.5)
r r r r
con
1 2
   
2 1
L = sin + , (12.6)
sin sin2 2
donde se cumple
L2 Ylm (, ) = l(l + 1)Ylm (, ). (12.7)
Por lo que, para resolver Eq. (12.2) propondremos (r, , ) = R(r)Ylm (, ).
Como la funcion R(r) solo depende de r, mientras que L2 y Ylm (, ) solo
dependen de los angulos, se encuentra
L2 Ylm (, )
 
2 Ylm (, ) 2 R(r)
(r, , ) = r R(r)
r2 r r r2
 
Ylm (, ) 2 R(r) R(r)l(l + 1)Ylm (, )
= r
r2 r r r2
   
1 2 R(r) l(l + 1)R(r)
= Ylm (, ) 2 r ,
r r r r2
entonces
~2 2
H(r, , ) = (r, , ) + V (r)(r, , )
2m
~2 1
     
2 R(r) l(l + 1)R(r)
= Ylm (, ) r + V (r)R(r)
2m r2 r r r2
= E(r, , ) = Ylm (, )ER(r).
As, la ecuacion a resolver es
~2
   
1 2 R(r) l(l + 1)R(r)
r + V (r)R(r) = ER(r), (12.8)
2m r2 r r r2
como solo hay dependencia en la variable r tenemos
 
1 d 2 dR(r) l(l + 1) 2m 2mE
2
r 2
R(r) 2 V (r)R(r) + 2 R(r) = 0.
r dr dr r ~ ~
Para facilitar los calculos haremos el cambio de variable
r
d d 2mE
= r, = , =2 , (12.9)
dr ~2

288
de donde
 
1 d 2 dR() l(l + 1) 2m 1
R() 2 2 V () R() R() = 0. (12.10)
2 d d 2 ~ 4
Supongamos que tenemos un potencial que cerca del origen a lo mas diverge
como V () 1 y en infinito tiende a cero. Entonces cerca del origen Eq.
(12.10) tiene la forma asintotica
 
1 d 2 dR() l(l + 1)
2
R() 0. (12.11)
d d 2
Para resolver esta ecuacion proponemos R() = A , con A una constante. Al
sustituir esta propuesta en Eq. (12.11) se encuentra
(( + 1) l(l + 1)) = 0,
lo cual implica
(( + 1) l(l + 1)) = 2 l2 + l = ( + l) ( l) + l
= ( l) ( + l + 1) = 0. (12.12)
As, los posibles valores de son l y (l + 1), es decir
R() Al o R() A(l+1) . (12.13)
La funcion de onda debe ser finita, de lo contrario no puede ser normalizada,
por lo que si r  1, la unica solucion aceptable es
R() Al ,  1. (12.14)
Si V () es tal que V () 0 cuando , en esta caso la ecuacion asintotica
es
d2 R() 2 dR() 1
 
1 d 2 dR() 1
R() = + R()
2 d d 4 d2 d 4
2
d R() 1
R() 0,
d2 4
que tiene las soluciones,

R() Be 2 , R() Ce 2 , B, C = constante.
Debido a que la funcion de onda debe ser normalizada, la unica solucion con
sentido es

R() Be 2 ,  1. (12.15)

289
Entonces propondremos como solucion

R() = l e 2 u(). (12.16)

Note que u() debe ser una funcion tal que R(  1) Al , esto implica que

u(0) = a0 6= 0. Ademas, si debe ocurrir que e 2 u() 0, por lo tanto

en infinito la funcion u() debe ser dominada por e 2 .

Para el caso particular del potencial de Coulomb

e2 Z e2 Z
V (r) = = , (12.17)
r
definiendo
r
2me2 Z e2 Z m
= = (12.18)
~2 ~ 2E
Eq. (12.10) toma la forma

d2 R() 2 dR()
 
l(l + 1) 1
+ + R() = 0. (12.19)
d2 d 2 4

Antes de ocupar la propuesta de solucion Eq. (12.16) notemos que


 
d  l  l1 1 l l l 1
e 2 = l e 2 e 2 = e 2 ,
d 2 2

de donde
d2  l 
  
d l l 1
e 2 = e 2
d2 d 2
    l   
d l 2 1 l 2 l
= e +e 2
d 2
 2  
l 1 l
= l e 2 l e 2
2 2
 2 !
l 2 l 1 l
= e 2
2
 2 
l 2 l l l 1
= e + .
2 4

290
Entonces, considerando que (f g)0 = f 0 g + f g 0 y (f g)00 = f 00 g + 2f 0 g 0 + f g 00 se
llega a
dR() d  l   du() d  l 
= e 2 u() = l e 2 + e 2 u()
d d d d
     
l 2 du() l 2 l 1 l 2 du() l 1
= e +e u() = e + u()
d 2 d 2
y
 
d2 R() d2 l e 2 d l e 2 du() 2
l 2 d u()
= u() + 2 + e
d2 d2 d d d2
 2   
l l l 1 l 2 l 1 du()
= l e 2 2
+ u() + 2 e
4 2 d
2
d u()
+l e 2
d2
 2    2  
l 2 d u() l 1 du() l l l 1
= e +2 + + u() .
d2 2 d 2 4
Introduciendo estos resultados en Eq. (12.19) se obtiene
 2    2  
l 2 d u() l 1 du() l l l 1
e +2 + + u()
d2 2 d 2 4
   
l 2 2 du() l 1
+ e + u()
d 2
 
l 2 l(l + 1) 1
+ e u() = 0,
2 4
por lo que
d2 u()
 
l + 1 1 du()
+2
d2 2 d
 2 
l + l l(l + 1) (l + 1)
+ + u() = 0,
2 2
es decir la ecuacion que debe satisfacer u() es
d2 u()
   
2(l + 1) du() (l + 1)
+ 1 + u() = 0. (12.20)
d2 d
Para resolver esta ecuacion propondremos la serie
X
u() = an n , u(0) = a0 6= 0,
n0

291

que debe cumplir u(0) = a0 6= 0 y si , entonces u()e 2 0.

Para la propuesta de solucion se tiene


u() X du() X
= an n1 , = an nn1 ,
n0
d n0

d2 u() X
= an n(n 1)n2 ,
d2 n0

entonces
d2 u() 2(l + 1) du() X
2
+ = an n (n 1 + 2l + 2) n2
d d n0
X
= an n (n + 2l + 1) n2
n1
X
= an+1 (n + 1) (n + 2l + 2) n1 ,
n0
 
du() (l + 1) X
+ u() = an ( (n + l + 1))n1 .
d n0

Considerando estos resultados en Eq. (12.20) se encuentra


X 
an+1 (n + 1) (n + 2l + 2) + an ( (n + l + 1)) n1 = 0,
n0

as
an+1 (n + 1) (n + 2l + 2) + an ( (n + l + 1)) = 0,
que implica
an+1 n+l+1
= . (12.21)
an (n + 1) (n + 2l + 2)
Si los terminos que contribuyen son los mas grandes, es decir los que
cumplen n  1, en este caso se encuentra
an+1 n 1
= .
an nn n
Note que cuando n es muy grande la serie exponencial
X 1
e = bn n , bn = ,
n0
n!

292
tiene un comportamiento similar
bn+1 1 1
= .
bn n+1 n
Por lo que si , entonces u() e . Este comportamiento no es per-

mitido pues si , entonces u()e 2 . Para que u() no tenga ese
comportamiento, no dejaremos que su serie pueda tomar valores grandes de
n. Esto quiere decir que u() no puede ser una serie, sino un polinomio. As,
despues de cierto numero todos los coeficientes de la serie deben ser nulos. De
la relacion Eq. (12.21) es claro que esto se logra si despues de cierto numero
an+1 = 0, que se cumple solo si

n + l + 1 = 0. (12.22)

Considerando la definicion de dada en Eq. (12.18), se encuentra

Zme2 Ze2
 
Enl = . (12.23)
2~2 (n + l + 1)2

Ademas, introduciendo Eq. (12.22) en Eq. (12.20) se llega a

d2 u()
 
2(l + 1) du() n
+ 1 + u() = 0. (12.24)
d2 d

Definamos = x, = 2l + 1, u(x) = Ln (x), entonces Eq. (12.24) toma la forma

d2 Ln (x)
 
+1 dLn (x) n
2
+ 1 + Ln (x) = 0, (12.25)
dx x dx x
esta es la llamada ecuacion de Laguerre, que tambien se puede escribir como

d2 Ln (x) dLn (x)


x + ( + 1 x) + nLn (x) = 0. (12.26)
dx2 dx
Supongamos que tenemos una solucion, Ln (x), de Eq. (12.25) y definamos la
funcion
dLn (x)
 
1
fn (x) = x + (n + + 1 x) Ln (x) . (12.27)
n+1 dx

Considerando Eq. (12.26) se tiene

dfn (x)
 2
d Ln (x) dLn (x) dLn (x)

1
= x + Ln (x) + (n + + 1 x)
dx n+1 dx2 dx dx

293
 2
dLn (x) dLn (x)

1 d Ln (x)
= x + ( + 1 x) + (n + 1) Ln (x)
n+1 dx2 dx dx
dLn (x) dLn (x)
 
1
= (n + 1) (n + 1)Ln (x) = Ln (x),
n+1 dx dx
d2 fn (x) d2 Ln (x) dLn (x)
= .
dx2 dx2 dx
Por lo que

d2 fn (x) dfn (x)


x + ( + 1 x)
dx2 dx
2
 
d Ln (x) dLn (x) dLn (x)
=x x + ( + 1 x) Ln (x)
dx2 dx dx
d2 Ln (x) dLn (x) dLn (x)
=x + ( + 1 x) x ( + 1 x) Ln (x)
dx2 dx dx
dL (x)
= nLn (x) x n ( + 1 x) Ln (x)
dx
dLn (x)
 

= x + ( + n + 1 x) Ln (x)
dx
= (n + 1)fn (x),

es decir
d2 fn (x) dfn (x)
+ ( + 1 x) + (n + 1)fn (x) = 0.
dx2 dx
Esto nos indica que si Ln (x) es solucion de la ecuacion de Laguerre, entonces
fn (x) tambien es solucion de la ecuacion de Laguerre donde se ha cambiado n
por n + 1. As podemos llamar Ln+1 (x) a fn (x), es decir

dLn (x)
 
1
Ln+1 (x) = x + (n + + 1 x) Ln (x) . (12.28)
n+1 dx

Esta relacion es muy util, pues nos dice que basta resolver un caso para obtener
todos los demas.

Claramente el caso mas sencillo de la ecuacion de Laguerre es cuando n = 0,


donde Eq. (12.25) toma la forma

d2 L0 (x)
 
+1 dL0 (x)
+ 1 = 0. (12.29)
dx2 x dx

294
dL
0 (x)
Definiendo U (x) = dx
se tiene la ecuacion
 
dU (x) +1
+ 1 U (x) = 0, (12.30)
dx x

cuya solucion es
ex
U (x) = A , A = constante. (12.31)
x+1
Si A 6= 0, esta solucion no es un polinomio, por lo que no nos ayuda a resolver
el problema del atomo de Hidrogeno. As el unico caso que podemos tomar es
U (x) = 0, que implica L0 (x) = constante, tomaremos

L0 (x) = 1. (12.32)

En general los polinomios de Laguerre tienen la forma

ex x dn x n+ 
Ln (x) = e x . (12.33)
n! dxn
Probaremos esta afirmacion por induccion, es claro que se cumple la igual-
dad para el caso n = 0. Para el paso inductivo supondremos Eq. (12.33) y
mostraremos que se cumple

ex x dn+1 x (n+1)+ 
e x = Ln+1 (x), (12.34)
(n + 1)! dxn+1
en esta demostracion ocuparemos la igualdad
n
dn
 nk   k 
X
n d A d B n!
n
(AB) = Ck nk k
, Ckn = . (12.35)
dx k=0
dx dx k!(n k)!

Tomando en cuenta Eq. (12.35) y Eq. (12.28) se encuentra

ex x dn+1 x n+1+  ex x dn+1 x n+



e x = xe x
(n + 1)! dxn+1 (n + 1)n! dxn+1
ex x dn+1 x n+  n+1 dn x n+  n+1
 
= x n+1 e x C0 + n e x C1
(n + 1)n! dx dx
ex x d x
dn x n+ 
 
x e x
= x e x e x +
(n + 1) dx n! dxn
1 ex x dn x n+  (n + 1)!
e x
n + 1 n! dxn n!

295
ex x d x 
= x e x Ln (x) + Ln (x)
(n + 1) dx
ex x
 
x 1 x x dLn (x)
= x ()e x Ln (x) + x e Ln (x) + x e
(n + 1) dx

+Ln (x)
dLn (x)
 
1
= x + (n + 1 + x)Ln (x)
n+1 dx
= Ln+1 (x),
en el ultimo paso se uso la igualdad Eq. (12.28). Por lo tanto, Eq. (12.33) se
cumple para cualquier n.

Ahora veamos la forma explcita de los polinomio de Laguerre, para ello


recordemos que, si n < m,
d n xm m!
n
= xmn . (12.36)
dx (m n)!
Ocupando esta igualdad y Eq. (12.35) se llega a
n
ex x dn x n+  ex x X n dnk xn+
   k x 
d e
Ln (x) = n
e x = Ck nk
n! dx n! k=0 dx dxk
n
ex x X n (n + )!
= Ck ()k xn+(nk) ex
n! k=0 [(n + ) (n k)]!
n
X (n + )!
= (x)k , (12.37)
k=0
k!(n k)!(k + )!

es decir,
n
X (n + )!
Ln (x) = (x)k . (12.38)
k=0
k!(n k)!(k + )!

12.2. Funcion de onda


Reuniendo los resultados de la seccion anterior, encontramos que la funcion
de onda del atomo de hidrogeno es

nlm (, , ) = Al L2l+1
n ()e 2 Ylm (, ),
Ze2 2~2
Enl = , a RB = , (12.39)
aRB (n + l + 1)2 Zme2

296
con A una constante de normalizacion. Definiendo N = n + l + 1, la funcion
de onda toma la forma

2
N lm (, , ) = Al L2l+1
N (l+1) ()e Ylm (, ), A = constante,
2
Ze
EN = , N = n + l + 1.
aRB N 2
Note que el valor mnimo que puede tomar l es cero y el maximo valor que
puede tomar es N 1. Ahora, como por cada valor de l hay (2l + 1) valores de
m que dan el mismo valor propio l, el numero de funciones propias que dan el
mismo valor N es
N
X 1
(2l + 1) = N 2 . (12.40)
l=0

Este es el grado de degeneracion del atomo de hidrogeno.

297
Captulo 13

Ecuacion de Helmholtz

En este captulo estudiaremos la ecuacion de Helmholtz y sus soluciones en


coordenadas esfericas.

13.1. El origen de la ecuacion Helmholtz


La ecuacion de Helmholtz es
2 + k 2 (r, , ) = 0,

(13.1)
con k una constante real. Esta ecuacion surge en diferentes contextos, por
ejemplo la ecuacion de Schrodinger libre es
~2 2
(x, y, z) = E(x, y, z), (13.2)
2m
que se puede escribir como
2mE
2 + k 2 (x, y, z) = 0, k2 =

. (13.3)
~2
Ademas, la ecuacion de onda es
1 2
 
2
2 2 (x, y, z, t) = 0, (13.4)
c t
si proponemos soluciones de la forma (x, y, t) = eit (x, y), se obtiene
2
2 + k 2 (x, y, z) = 0, k2 =

. (13.5)
c2
Primero estudiaremos el caso de dos dimensiones en coordenas polares y poste-
riormente estudiaremos el caso en tres dimensiones con coordenadas esfericas.

298
13.2. Ecuacion de Helmholtz en dos dimensio-
nes
La ecuacion de Helmholtz en dos dimensiones en coordenadas polares es

1 2 (r, )
 
2 2 1 (r, )
+ k 2 (r, ) = 0.(13.6)

2D + k (r, ) = r + 2 2
r r r r

Para resolver esta ecuacion supongamos que (r, ) es de la forma

(r, ) = R(r)(),

de donde
R(r) 2 ()
 
() R(r)
22D 2
+ k 2 R(r)() = 0,

+k (r, ) = r +
r r r r2 2

por lo que

r2 (22D + k 2 ) (r, ) r2 1 2 ()
 
R(r)
= r + 2
+ k 2 r2 = 0. (13.7)
R(r)() rR(r) r r ()

As,

r2 (22D + k 2 ) (r, ) 1 2 ()
   

= = 0,
R(r)() () 2

entonces se debe cumplir la ecuacion

1 2 ()
= 2 , = constante, (13.8)
() 2
es decir
2 ()
= 2 (), (13.9)
2
cuya solucion es

() = a ei + b ei . (13.10)

Ahora, sustituyendo Eq. (13.8) en Eq. (13.7) se encuentra

r2
 
R(r)
r 2 + k 2 r2 = 0, (13.11)
rR(r) r r

299
que se puede escribir como
2
   
1 R(r) 2
r + k 2 R(r) = 0. (13.12)
r r r r
Con el cambio de variable = kr se obtiene
2 R() 1 R() 2
 
+ + 1 2 R() = 0, (13.13)
2
que es la ecuacion de Bessel, as,

R(r) = Ak J (kr) + Bk J (kr). (13.14)

Por lo tanto, las soluciones de la ecuacion de Helmholtz en dos dimensiones


son de la forma

(r, ) = (Ak J (kr) + Bk J (kr)) a ei + b ei .



(13.15)

Los coeficientes Ak , Bk , a , b dependen de las condiciones de borde del pro-


blema. Por ejemplo, si (r, ) debe ser finito en el r = 0, se tiene que Bk = 0.
En ese caso las soluciones toman la forma

(r, ) = J (kr) Ck ei + Dk ei .

(13.16)

Para muchos problemas es importante que (r, ) sea una funcion univaluada.
As, como (r, ) y (r, + 2) representan el mismo punto, se debe cumplir

(r, + 2) = (r, ), (13.17)

de donde

( + 2) = A ei(+2) + B ei(+2) = () = A ei + B ei , (13.18)

que induce

ei2 = 1. (13.19)

Por lo tanto, debe ser un numero natural n. Por lo que, en este caso las
soluciones son de la forma

kn (r, ) = Jn (kr) Cnk ein + Dnk ein .



(13.20)

Si el sistema esta restringido a un disco de radio R, se deben poner la condicion


de borde

(R, ) = 0, (13.21)

300
que implica

Jn (k R) = 0. (13.22)

As, k R debe ser una raz de Bessel, nm = k R, es decir,


nm
k= (13.23)
R
y las soluciones son de la forma
 
nm r
Cnm ein + Dnm ein .

nm (r, ) = Jn (13.24)
R
La solucion mas general es
 
XX nm r
Cnm ein + Dnm ein .

(r, ) = Jn (13.25)
n0 m0
R

Note que para la ecuacion de onda en dos dimensiones Eq. (13.5) la restriccion
Eq. (13.23) implica que las unicas frecuencias permitidas son
cnm
nm = . (13.26)
R
Mientras que para la ecuacion de Schrodinger en dos dimensiones Eq. (13.3)
la restriccion Eq. (13.23) implica que las unicas energas permitidas son
2
~2 nm

Enm = . (13.27)
2m R

13.3. Ecuacion de Helmholtz en tres dimen-


siones
Ocupando coordenadas esfericas la ecuacion de Helmholtz Eq. (13.1) toma
la forma
L2 (r, , )
   
1 2 (r, , ) 2
r + k (r, , ) = 0,
r2 r r r2
1 2
   
2 1
L = sin + ,
sin sin2 2
con L2 Ylm (, ) = l(l + 1)Ylm (, ). Por lo que, para resolver Eq. (13.1) pro-
pondremos la funcion (r, , ) = R(r)Ylm (, ). Como la funcion R(r) solo

301
depende de r mientras que L2 y Ylm (, ) solo dependen de los angulos, la
ecuacion de Helmholtz toma la forma
2 + k 2 (r, , )

   
1 2 R(r) l(l + 1)R(r) 2
= Ylm (, ) 2 r + k R(r) = 0,
r r r r2
es decir se debe resolver la ecuacion
   
1 2 R(r) l(l + 1)R(r) 2
r + k R(r) = 0. (13.28)
r2 r r r2

Tomaremos la propuesta R(r) = u(r)


, de donde
r
 
dR(r) d u(r) 1 du(r) 1
= = u(r)
dr dr r r dr 2r r
 
1 du(r) 1
= u(r) ,
r dr 2r
   
2 dR(r) 2 d u(r) 1 2 du(r) r
r = r = r u(r) ,
dr dr r r dr 2
    
d dR(r) d d u(r)
r2 = r2
dr dr dr dr r
 2 
1 2 d u(r) du(r) 1
= r +r u(r) .
r dr2 dr 4
Considerando estos resultados en Eq. (13.28) se llega a
 2 
1 2 d u(r) du(r) 1 1 1 2
r + r u(r) l(l + 1)u(r) + k u(r) = 0,
r2 r dr2 dr 4 r2 r r
que se puede escribir como
2 !
d2 u(r)

du(r) 1
r2 2
+r + k2 r2 l + u(r) = 0
dr dr 2
1
con los cambios de variable z = kr y = l + 2
se tiene
d2 u(z) du(z) 1
z2 2 2

+ z + z u(z) = 0, =l+ (13.29)
dz 2 dz 2
que es la ecuacion de Bessel Eq. (5.2) de orden = l + 12 . Por lo que las
soluciones son combinaciones lineales de las funciones
Jl+ 1 (kr), J(l+ 1 ) (kr). (13.30)
2 2

302
En lugar de J(l+ 1 ) (kr) podemos tomar las funciones de Nuemman Nl+ 1 (kr).
2 2
Ademas, usando la definicion de R(r) y de las funciones esfericas de Bessel
Eqs. (5.46)- (5.47) se tiene
Rl (r) = al jl (kr) + bl nl (kr). (13.31)
Por lo tanto, las soluciones de la ecuacion de Helmholtz son de la forma
lm (r, , ) = (alm jl (kr) + blm nl (kr)) Ylm (, ) (13.32)
y la solucion general es
m=l
X X
(r, , ) = (alm jl (kr) + blm nl (kr)) Ylm (, ). (13.33)
l0 m=l

13.4. Aplicaciones
Una partcula cuantica esta encerrada en una esfera de radio R, encuentre
la funcion de onda del sistema.

En en este caso la funcion de onda es


~2 2
= E, (13.34)
2m
de donde

2mE
2 + k 2 = 0, k2 =

, (13.35)
~2
que es la ecuacion de Helmholtz. Como la probabilidad de encontrar la partcu-
la dentro de la esfera debe ser finita y las funciones de Neumman divergen en
el origen, las soluciones aceptables son de la forma jl (kr). Ademas, la funcion
de onda se debe anular en la frontera, por lo que
jl (kR) = 0, (13.36)
de donde kR = ln , con ln una raz de la funcion esferica de Bessel de orden
l. Considerando la definicion de k, las energas permitidas son
~2 2ln
Eln = , (13.37)
2mR2
mientras que las funciones de onda son
 
ln r
lmn (r, , ) = jl Ylm (, ). (13.38)
R

303
13.5. Desarrollo en ondas parciales
~
Claramente la funcion (~r) = eik~r es solucion a la ecuacion de Helmholtz
Eq. (13.1). Por lo que esta funcion se debe poder expresar en terminos de
las funciones esfericas de Bessel y los armonicos esfericos. Para probar esta
afirmacion el resultado fundamental es la integral
Z 1   12
iz 2
dze Pl (z) = (i)l Jl+ 1 (). (13.39)
1 2

Antes de mostrar esta igualdad es conveniente considerar las identidades


dJ (dz) 1
= (J1 (z) J+1 (z)) , (13.40)
z 2
J (z) 1
= (J1 (z) + J+1 (z)) (13.41)
z 2
las cuales se deducen de Eqs. (5.36)-(5.37). Otro resultado de utilidad es
!
Jl+ 1 () Jl+ 1 ()  
(2l + 1) 2
2
= (l + 1)Jl+ 3 () lJl 1 () , (13.42)
2 2 2

que se obtiene de Eqs. (13.40)-(13.41), en efecto


!
Jl+ 1 () Jl+ 1 ()
(2l + 1) 2
2

2
!
1   1 
= (2l + 1) J 1 () + J
l 2 3 ()
l+ 2 J 1 () J 3 ()
2 2 l + 12 2 l 2 l+ 2

 
(2l + 1) 1   
= J 1 () + Jl+ 3 () Jl 1 () Jl+ 3 ()
2 (2l + 1) l 2 2 2 2

(2l + 1) h   i
= Jl 1 () + Jl+ 3 () (2l + 1) Jl 1 () Jl+ 3 ()
2(2l + 1) 2 2 2 2

1    
= 2(l + 1)Jl+ 3 () 2lJl 1 () = (l + 1)Jl+ 3 () lJl 1 () .
2 2 2 2 2

Primero, mostremos la igualdad Eq. (13.39) para l = 0,


Z 1 Z 1 1
iz iz 1 i ei ei
dze P0 (z) = dze = e =
1 1 i 1 i
  12   1
2 2 2 ei ei
=
2 2i

304
  12   12
2 2
= sin

  12
2
= J 1 (), (13.43)
2

es decir
Z 1   12
iz 2
dze P0 (z) = J 1 (). (13.44)
1 2

Para el caso l = 1 tenemos


Z 1 Z 1 Z 1 
iz iz iz
dze P1 (z) = dze z = (i) dze
1 1 1
  21 !
2
= (i) J 1 ()
2

"   12 #
1 () 2 J 1 ()
2
= (i) (2) 2 3 J 1 () +
2 2 2
  12 " #
2 J 1 () J 1 ()
= (i) 2 + 2
, (13.45)
2

considerando Eqs. (13.40)-(13.41) se tiene


Z 1   12 
iz 2
1 
dze P1 (z) = (i)
J 1 () + J 3 ()
1
2 2 2

1  
+ J 1 () J 3 ()
2 2 2

  12
2
= (i) J 3 () (13.46)
2

Para probar que Eq. (13.39) es valida para cualquier l ocuparemos el principio
de induccion fuerte. Es decir, supondremos que la igualdad Eq. (13.39) es valida
para l y tambien para todos los valores menores que l, entonces probaremos
que se cumple
Z 1   12
iz 2
dze Pl+1 (z) = (i)l+1 Jl+ 3 (). (13.47)
1 2

305
Antes de iniciar la prueba, notemos que la identidad Eq. (10.219) se puede
escribir como
1
Pl+1 (z) = [(2l + 1)zPl (z) lPl1 (z)] . (13.48)
l+1
Entonces, recurriendo a la identidad Eq. (13.42) y tomando en cuenta que
(i)l1 = (i)l+1 , se llega a
Z 1 Z 1
iz 1
dze Pl+1 (z) = dzeiz [(2l + 1)Pl (z) lPll (z)]
1 l + 1 1
Z 1
1
= dzeiz [(2l + 1)zPl (z) lPll (z)]
l + 1 1
 Z 1 Z 1 
1 iz iz
= (2l + 1) dze zPl (z) l dze Pll (z)
l+1 1 1
" Z 1    12 #
1 2
= (2l + 1)(i) dzeiz Pl (z) l (i)l1 Jl 1 ()
l+1 1 2

"   12 !   12 #
1 2 2
= (2l + 1)(i) (i)l Jl+ 1 () + l (i)l+1 Jl 1 ()
l+1 2 2

  12 !
(i)l+1 Jl+ 1 ()

1 () 2 2
= (2l + 1)() (2) 2 3 Jl+ 1 () +
l+1 2 2 2
  12 
2
+l (i)l+1 Jl 1 ()
2

  21   12 !
(i)l+1 Jl+ 1 () Jl+ 1 ()

2 2
= (2l + 1) 2
2

l+1 2
  12 
2
+l Jl 1 ()
2

 1 " ! #
(i)l+1 2 2 Jl+ 1 () Jl+ 1 ()
= (2l + 1) 2
2
+ lJl 1 () ,
l+1 2 2

  21
2
= (i)l+1 Jl+ 3 (), (13.49)
2

que es lo que queriamos demostrar. Por lo tanto, la igualdad Eq. (13.39) es


correcta para cualquier l natural. Considerando la definicion de las funciones
esfericas de Bessel, la ecuacion Eq. (13.39) toma la forma
Z 1
dzeiz Pl (z) = 2(i)l jl (). (13.50)
1

306
Ahora, como los polinomios de Legendre son un conjunto de funciones orto-
gonales en el intervalo (1, 1), cualquier funcion se puede expresar como una
serie de Polinomios de Legendre. En particular la funcion exponencial, eiz , es
decir
X
eiz = am Pm (z), (13.51)
m0

entonces
!
Z 1 Z 1 X
eiz Pl (z) = dzPl (z) am Pm (z)
1 1 m0
X Z 1
= am dzPl (z)Pm (z)
m0 1
X 2lm 2al
= am = . (13.52)
m0
2l + 1 2l + 1

Por lo tanto, tomando en cuenta Eq. (13.50), se encuentra

2l + 1 1 iz
Z
al = e Pl (z) = (i)l (2l + 1)jl (), (13.53)
2 1

que implica
X
eiz = (i)l (2l + 1)jl ()Pl (z). (13.54)
l0

Supongamos que es el angulo que hay entre los vectores


~k = k(sin 0 cos 0 , sin 0 sin 0 , cos 0 ), ~r = r(sin cos , sin sin , cos ).

Entonces, como cos 1, se encuentra


~
X
eik~r = eikr cos = (2l + 1)(i)l jl (kr)Pl (cos ). (13.55)
l0

Ocupando el teorema de adicion de los armonicos esfericos se llega a


l
i~k~
X X

e r
= 4 (i)l jl (kr)Ylm (0 , 0 ) Ylm (, ) . (13.56)
l0 m=l

A esta expresion se le llama desarrollo en ondas parciales y tiene diferentes


aplicaciones en electromagnetismo y optica [1].

307
Captulo 14

Transformada de Fourier

En este captulo estudiaremos la transformada integral de Fourier y veremos


algunas de sus aplicaciones

14.1. Definicion de transforma de Fourier


Dada una funcion f definida en el eje real, definiremos su transformada de
Fourier como
Z
1
f(k) = F [f (x)] = dxeikx f (x). (14.1)
2
Antes de ver algunos ejemplos, recordemos que si > 0 se cumple la integral
Z r
z 2
dze = , (14.2)

note que esta integral implica


Z r
z2
dz e = 1, (14.3)

aun cuando 0 o si .

14.2. Ejemplos
Veamos algunos ejemplos de transformada de Fourier.

308
14.2.1. Funcion Gaussiana
2
Para la funcion Gaussiana, ex , tenemos
Z Z
1 1
dxe(x +ikx) ,
2
x2 ikx x2
F [e ]= dxe e = (14.4)
2 2
como
  2  2 !

ik ik ik
x2 + ikx = x2 + 2 x+
2 2 2
 2
k2

ik
= x+ + , (14.5)
2 4
entonces
k2
e 4
Z 2
ik
x2
F [e ]= dxe(x+( 2 )) . (14.6)
2

ik
Por lo tanto, usando la integral (14.2) y el cambio de variable u = x + 2
se
encuentra
k2
x2 e 4
F [e ]= . (14.7)
2

14.2.2. Funcion e|x|


La transformada de la funcion e|x| es
Z
|x| 1
F [e ] = dxeikx e|x|
2
Z 0 Z 
1 x(ik) x(+ik)
= dxe + dxe ,
2 0
x(ik) 0
!
x(+ik)
1 e e
=
2 ( ik) ( + ik) 0

 
1 1 1
= + ,
2 ( ik) ( + ik)
por lo tanto
r
2
F [e|x| ] = . (14.8)
+ k2
2

309
14.3. Teorema de la convolucion
Definiremos la convolucion entre dos funciones f y g como
Z
1
(f ? g)(x) = df (x )g(). (14.9)
2
La transformada de Fourier de la convolucion de dos funciones es
Z
1
F [(f ? g)(x)] = dxeikx (f ? g)(x)
2
Z Z
1 ikx 1
= dxe df (x )g()
2 2
Z Z
1 ik 1
= de g() dxeik(x) f (x ),
2 2
con el cambio de variable u = x se tiene
Z Z
1 ik 1
F [(f ? g)(x)] = de g() dueiku f (u)
2 2
= g(k)f(k). (14.10)

A este resultado se le llama teorema de la convolucion.

14.4. Transformada inversa de Fourier


En esta seccion estudiaremos la transformada inversa de Fourier de una
funcion f. Primero veamos la funcion
Z
h
z 2
i 1 2
g(k) = F e f (z) = dzeikz ez f(z), (14.11)
2
usando la definicion de transformada de Fourier Eq. (14.1) es claro que
Z
1
f (k) = dteikt f (t), (14.12)
2
de donde
Z Z
1 ikz z 2 1
g(k) = dze e dteizt f (t)
2 2
Z Z
1
dze[z +iz(kt)] .
2
= dtf (t) (14.13)
2

310
Para escribir esta integral de forma mas sugerente notemos que
"    2  2 #
i(k t) i(k t) i(k t)
z 2 + iz(k t) =  z 2 + 2 +
2 2 2
2
(k t)2

i(k t)
=  z+ + , (14.14)
2 4

ademas, con el cambio de variable u = z + i (kt)


2
, se tiene

(k t)2
z 2 + iz(k t) = u2 + . (14.15)
4
As, usando el cambio de variable propuesto y el resultado Eq. (14.2), llegamos
a
Z Z
1 (kt)2
4 2
g(k) = dtf (t)e dueu
2
Z r Z (kt)2
4
1 (kt)2 e
= dt f (t)e 4 = dt f (t). (14.16)
2  4

Se puede observar que tomando = 1/(4) en Eq. (14.3) se consigue


(kt)2

e
Z
4
dt = 1, (14.17)
4
por lo que
(kt)2 (kt)2

e e
Z Z
4 4
g(k) f (k) = dt f (t) f (k) dt
4 4
(kt)2
Z 4
e
= dt (f (t) f (k)) , (14.18)
4
esta igualdad implica
(kt)2
Z
e 4
|g(k) f (k)| = dt (f (t) f (k))


4
Z (kt)2
e 4
dt |f (t) f (k)| .
4

311
Recordemos que, por el teorema del valor intermedio [17], podemos asegurar
la existencia de tal que
f (t) f (k)
= f 0 (), (14.19)
tk
con f 0 la primera derivada de f. Por lo tanto,

f (t) f (k) 0
t k max |f ()| , (14.20)

es decir

|f (t) f (k)| |t k|max |f 0 ()| . (14.21)

De donde
(kt)2

e 4
Z
|g(k) f (k)| dt|t k|max |f 0 ()|
4
0 Z
max |f ()| (kt)2
= dt|t k|e 4 .
4

tk
Usando el cambio de variable w =
4
se tiene
Z Z
r Z
1 (kt)2
4 4 w2 4 2
dt|t k|e = dw|w|e =2 dwwew ,
4 4 0

as
r Z
0 4 2
|g(k) f (k)| max |f ()| 2 dwwew . (14.22)
0

Este resultado induce

lm |g(k) f (k)| = 0. (14.23)


0

Por lo tanto,
Z
h
k2
i h i 1
f (x) = g(x) = lm F e f (k) = F f(k) = dkeikx f(k).
0 2
usando el cambio de variable k 0 = k se encuentra
Z Z
1 ikx 1
f (x) = dke f (k) = dkeikx F [f (x)] . (14.24)
2 2

312
Entonces definiremos la transformada inversa de Fourier como
Z
h
1
i 1
F f (k) = dkeikx f(k), (14.25)
2
esta definicion es consistente pues
h i
1
f (x) = F f (k) = F 1 [F [f (x)]] . (14.26)

14.5. Ejemplos de la transformada inversa de


Fourier
Se puede observar que ocupando la integral Eq. (14.24) y tomando en
cuenta los resultados Eqs. (14.7)-(14.8) y Eq. (14.10), se obtiene
"r # Z

|x| 1 2 1
e = F 2 2
= dkeikx 2 , (14.27)
k + k + 2
" k2 # Z k2
4 4
2 e e
ex = F 1 = dkeikx , (14.28)
2 4
Z
1 h i
(f ? g)(x) = df (x )g() = F 1 f(k)g(k)
2
Z
1
= dkeikx f(k)g(k). (14.29)
2
Tambien note que
Z
1
 y|k|  1
F e = dkeikx ey|k| . (14.30)
2

As, con los cambios de variable k = x0 , x = k 0 y usando Eq. (14.8) se


encuentra
Z r
1 0 0 0 2 y
F 1 ey|k| = dx0 eik x ey|x | =
 
, (14.31)
2 y + k 02
2

es decir
r
1
 y|k|  2 y
F e = . (14.32)
y + x2
2

Posteriormente ocuparemos estos resultados para resolver ecuaciones diferen-


ciales.

313
14.6. Transfomada de Fourier de la derivada
Para funciones tales que f () = 0, se tiene
  Z
df (x) 1 df (x)
F = dxeikx
dx 2 dx
Z  
1 d  ikx  ikx
= dx e f (x) + ike f (x)
2 dx
Z
1
= ik dxeikx f (x)
2
= ikF [f (x)] = ik f(k). (14.33)

Por lo tanto,
 2   
d f (x) df (x)
F = = ikF = (ik)2 F [f (x)] = (ik)2 f(k). (14.34)
dx2 dx
En general se cumple
dn f (x)
 
F n
= (ik)n f(k). (14.35)
dx
Este resultado nos permitira resolver algunas ecuaciones diferenciales emplean-
do la transformada de Fourier.

14.7. Ecuacion de calor y ecuacion de Schrodin-


ger libre
Se quiere resolver la ecuacion de calor
u(x, t) 2 u(x, t)
= , = constante, (14.36)
t x2
con la condicion inicial u(x, 0) = f (x).

De la condicion inicial tenemos F [u(x, 0)] = F [f (x)], es decir u(k, 0) =


f(k). Ahora, al hacer la transformada de Fourier en la variable x a la ecuacion
de calor Eq. (14.36) tenemos
   2 
u(x, t) u(x, t)
F = F , (14.37)
t x2

314
que es equivalente a

u(k, t)
= k 2 u(k, t). (14.38)
t
La solucion de esta ecuacion es
2
u(k, t) = A(k)ek t , (14.39)

considerando la condicion inicial tenemos que A(k) = f(k). As,


2
u(k, t) = f(k)ek t , (14.40)

por lo que, usando la transformada inversa de Fourier y la transformada de


Fourier de la funcion Gaussiana Eq. (14.7), con = 1/(4t), se obtiene
1 2
h 2
i h i
u(x, t) = F 1 [u(k, t)] = F 1 f(k)ek t = F 1 f(k)ek t 2t
Z 2t
1 1 (x)2
= df ()e 4t ,
2t 2
es decir
(x)2

e
Z
4t
u(x, t) = df () . (14.41)
4t
Note que, por la condicion inicial, se tiene
(x)2
!

e 4t
Z
f (x) = lm u(x, t) = df () lm , (14.42)
t0 t0 4t

por lo tanto
(x)2
e 4t
(x ) = lm . (14.43)
t0 4t

14.7.1. Ecuacion de Schrodinger libre


La ecuacion de Schrodinger libre es

(x, t) ~2 2 (x, t)
i~ = , (14.44)
t 2m x2

315
que se puede escribir como la ecuacion de calor Eq. (14.36)

(x, t) 2 (x, t) i~
= , = . (14.45)
t x2 2m
Por lo tanto, si se impone la condicion inicial (x, 0) = (x), la funcion de
onda para cualquier tiempo mayor que cero es
Z
(x, t) = dG (x , t) (), (14.46)

con r
m im(x)2
G (x , t) = e 2~t .
2~t
Debido a que esta ultima funcion nos da informacion de como la partcula pasa
del estado inicial (x, 0) al estado (x, t) se le llama propagador.

14.8. Ecuacion ordinaria de segundo orden


La transformada de Fourier puede ser util para resolver ecuaciones diferen-
ciales ordinarias de segundo orden, por ejemplo

d2 u(x)
+ a2 u(x) = f (x). (14.47)
dx2
Para esta ecuacion tenemos
 2 
d u(x)
F + a2 F [u(x)] = F [f (x)] , (14.48)
dx2

es decir

k 2 u(k) + a2 u(k) = f(k), (14.49)

de donde

f(k)
u(k) = . (14.50)
k 2 + a2
Por lo tanto,
" # " #
f(k)
r r
1 1 2 a
u(x) = F 1 [u(k)] = F 1 = F f (k) ,
k 2 + a2 a 2 k 2 + a2

316
usando Eq. (14.32) y el teorema de la convolucion, se llega a
r Z
1 1
u(x) = df ()ea|x| , (14.51)
a 2 2
es decir

ea|x|
Z
u(x) = df () . (14.52)
2a

14.8.1. Ecuacion de Laplace en dos dimensiones


Ahora resolveremos la ecuacion de Laplace en dos dimensiones
 2
2


+ u(x, y) = 0 (14.53)
x2 y 2
con las condiciones de borde u(x, 0) = f (x) y lmy u(x, y) = 0.

Usando la transformada de Fourier en la variable x se consigue


 2
2 2 u(k, y)
 
2
F + u(x, y) = k u(k, y) + = 0. (14.54)
x2 y 2 y 2
Ademas las condiciones de borde toman la forma

F [u(x, 0)] = F [f (x)] , lm F [u(x, y)] = 0,


y

es decir

u(k, 0) = f(k) y lm u(k, y) = 0. (14.55)


y

La solucion de Eq. (14.54) es



k2 y
u(k, y) = A(k)e , (14.56)

tomando en cuenta las condiciones de borde se obtiene

u(k, y) = f(k)e|k|y . (14.57)

Por lo tanto, usando Eq. (14.32), se llega a


h i
u(x, y) = F 1 [u(k, y)] = F 1 f(k)e|k|y
Z r
1 2 y
= df () , (14.58)
2 y + (x )2
2

317
entonces
Z
1 y
u(x, y) = df () . (14.59)
y + (x )2
2

Note que de la condicion de borde u(x, 0) = f (x) se infiere que


1 y
(x ) = lm . (14.60)
y0 y + (x )2
2

14.9. Ecuacion de Black-Scholes


Uno de los problemas mas interesantes en Finanzas es determinar el precio
de un contrato el cual se desea ejercer a un tiempo T . Si es la volatilidad, r
es la tasa de interes y S el precio de una accion, el precio del contrato C(S, t)
esta determinado por la ecuacion de Black-Scholes [24, 25]

C(S, t) 2 2 C(S, t) C(S, t)


= S2 rS + rC(S, t), (14.61)
t 2 S 2 S
la cual se debe resolver con la condicion

C(S, T ) = (S K)(S K). (14.62)

Note que esta condicion nos indica que el mnimo valor que puede tomar S es
K, de lo contrario no vale la pena ejercer el contrato. Mas detalles sobre esta
ecuacion se puede ver en [26].

La ecuacion de Black-Scholes es equivalente a la ecuacion de Schrodinger


libre en una dimension (14.44). Para probar esta afirmacion primero notemos
que usando el cambio de variable

S = ex (14.63)

se obtiene
2 2 C(x, t) 2
 
C(x, t) C(x, t)
= + r + rC(x, t). (14.64)
t 2 x2 2 x

Entonces, con la propuesta


 2 
2 2
  
1 1
r x+ +r t
2 2 2 2 2
C(x, t) = e (x, t), (14.65)

318
se llega a la ecuacion de onda
(x, t) 2 2 (x, t)
= , (14.66)
t 2 x2
la cual tiene la misma forma que la ecuacion de Schrodinger libre en una di-
mension (14.44). Esta equivalencia ha dado origen una nueva disciplina, las
llamadas finanzas cuanticas [15].

Como el contrato se desea ejercer al tiempo T, para resolver la ecuacion


(14.66) realizaremos el cambio de variable

= T t, (14.67)

de donde la ecuacion (14.66) toma la forma

(x, ) 2 2 (x, )
= . (14.68)
2 x2
Ademas, con la variable el precio (14.65) toma la forma
 2 
2 2
  
1 1
r x+ +r (T )
2 2 2 2 2
C(x, ) = e (x, ). (14.69)

Ahora, como el mnimo valor que puede tomar S es K, entonces el mnimo


valor que puede tomar x es ln K. Por lo tanto, la condicion inicial (14.62)
toma la forma

C(x, 0) = (ex K) (x ln K) . (14.70)

Usando esta condicion inicial y la ecuacion (14.69), se obtiene la condicion


inicial para (x, ):
 2 
2 2
  
1 1
r x+ +r T
2 2 2
(x, 0) = 0 (x) = e 2 2
(ex K) (x ln K) . (14.71)

Por lo tanto, el problema de obtener la solucion de la ecuacion de Black-


Scholes se reduce a resolver la ecuacion diferencial (14.68) con la condicion
inicial (14.71).

De la ecuacion de calor (14.36) se puede observar que, haciendo el cambio


2 /2, se obtienen la solucion
(xx0 )2
Z
0 e
2 2
0
(x, ) = dx 0 (x ) , (14.72)
2 2

319
es decir
2
2 +r

2 T

e
Z  (xx0 )2
2 2
 1 r 0 1 r
dx0 e( 2 + 2 )x Ke( 2 + 2 )x e 22 . (14.73)
0
(x, ) =
2 2 ln K

Antes de obtener (x, ), estudiemos la integral


Z
1 r (xx0 )2
dx0 e( 2 + 2 )x e 22 ,
0
I = (14.74)
ln K

la cual, completando cuadrados, se puede escribir como


2
h
r
1 x+ r 1
2 2
i Z ((xx0 )+2 ( r2 12 ))
I = e ( 2 2 ) 2 ( 2 2 ) dx e0 2 2 . (14.75)
ln K

Ademas con el cambio de variable


(x x0 ) + 2 r 1

2
2
u= (14.76)
2
se obtiene
h
( r 1 2 r 1 2
i
2 2 2 )x+ 2 ( 2 2 )
I = 2 e N (d ) (14.77)

con
z u2
e 2
Z
N (z) = du , (14.78)
2
 
S 2

r 1 ln + (T t) r
2

x ln K + 2
2 K 2
d = = .
T t
Usando la integral I en (14.73) se encuentra
2
2 +r

2 T h 2 2
i
r
+ 1 x+ r + 1
(x, ) = e
2 2 e ( 2 2 ) 2 ( 2 2 ) N (d+ )
2
2 +r

2 T h 2 2
i
r
1 x+ r 1
Ke 2 2 e ( 2 2 ) 2 ( 2 2 ) N (d ) .

Sustituyendo este resultado en (14.69) se llega a

C(s, t) = SN (d+ ) Ker(T t) N (d ). (14.79)

Este resultado es la llamada formula de Black-Scholes, la cual es una de las


expresiones matematicas mas usadas.

320
14.10. Delta de Dirac
Se puede observar que al sustituir la definicion de la transformada de Fou-
rier en Eq. (14.24) se obtiene
Z Z
1 ikx 1 0
f (x) = dke dx0 eikx f (x0 )
2 2
Z Z 0
0 0 eik(xx )
= dx f (x ) dk . (14.80)
2
Por lo tanto, en este caso la delta de Dirac la definiremos como
Z
1
(x) = dkeikx , (14.81)
2
de donde
Z
f (x) = dx0 f (x0 )(x x0 ). (14.82)

La delta de Dirac tiene varias propiedades interesantes. Primero mostraremos


que
(x) = (x). (14.83)
Esta afirmacion es correcta, pues con el cambio de variable k 0 = k se encuen-
tra que
Z
1 0 ik0 x
Z Z
1 ikx 1 0
(x) = dke = dk e = dk 0 eik x = (x),
2 2 2
que es lo que se queria demostrar.

De (14.82) se puede ver que si x = 0, se tiene


Z Z
0 0 0
f (0) = dx f (x )(x ) = dx0 f (x0 )(x0 ). (14.84)

Por lo tanto, usando la funcion constante f (x) = 1 se tiene


Z
dx(x) = 1. (14.85)

Note que la transformada de Fourier de la delta de Dirac es


Z
1 1
F [(x)] = dxeikx (x) = . (14.86)
2 2

321
La delta de Dirac tambien cumple
(x)
(ax) = . (14.87)
|a|
Para probar esta afirmacion primero tomemos el caso a > 0. Con el cambio de
variable k 0 = ak se obtiene
Z Z
1 1 1 0 (x)
(ax) = dkeiakx
= dk 0 eik x = ,
2 a 2 a
por lo que se cumple Eq. (14.87). Para caso a < 0 tambien usaremos el cambio
de variable k 0 = ak, de donde
Z Z Z
1 1 1 0 ik0 x 1 1 0 (x)
(ax) = dke iakx
= dk e = dk 0 eik x = ,
2 a 2 a 2 a
as se cumple Eq. (14.87). Por lo tanto, la identidad Eq. (14.87) es correcta.

En estricto sentido la delta de Dirac solo tiene sentido dentro de una inte-
gral. Sin embargo es conveniente manipularla por si sola. Usando la analoga
de la delta de Kronecker y la propiedad Eq. (14.84), se dice que (x) es cero
si x 6= 0 y, considerando la definicion Eq. (14.101), se toma el valor (0) = .

Sea f (x) una funcion, veamos que significa (f (x)). Note que si no existe
x tal que f (x) = 0, entonces (f (x)) = 0. Supongamos que f (x) tiene un solo
cero, x0 , y que la funcion es creciente o decreciente. Si f (x) es creciente, se
df
tiene que dx >0y
Z Z
g (f 1 (Y ))
dxg(x) (f (x)) = dY df
(Y ) .
dx
df
Si la funcion f (x) es decrenciente, entonces <0y
dx
Z Z
g (f 1 (Y ))
dxg(x) (f (x)) = dY df
(Y )
dx
Z 1
g (f (Y ))
= dY df
(Y ) .
dx
Por lo tanto,

1
Z Z 1
g (f (Y ))
g (f (Y )) Y =0
dxg(x) (f (x)) = dY df (Y ) = df , (14.88)


dx dx Y =0

322
como Y = 0 solo si x = x0 , llega a
Z
g (x0 )
dxg(x) (f (x)) = df . (14.89)


dx x=x0

Ademas, note que



(x x0 )
Z
g (x0 )
dxg(x) df = df , (14.90)


dx dx x=x0

como este resultado es valido para cualquier funcion g(x), podemos tomar
(x x0 )
(f (x)) = df . (14.91)

dx

Ahora, supongamos que f (x) tiene un numero finito de ceros {xi }ni=1 tales que

df (x)
f (xi ) = 0, 6= 0. (14.92)
dx x=xi
Entonces definiremos n vecindades de radio , cada una centrada en un cero
xi . Estas vecindades, Vi (xi ), las tomaremos de tal forma que si x Vi (xi ) y
f (x) = 0, entonces x = xi . Note que debido a que se cumple Eq. (14.92), en
cada cero podemos elejir la vecindad de tal forma que en ella la funcion f solo
sea creciente o decreciente. Sobre estas vecindades definiremos las funciones

f (x) x Vi (xi ),
fi (x) = (14.93)
hi (x) x 6 Vi (xi ),
donde hi (x) es una funcion de tal forma que fi (x) es creciente o decreciente
en todo el eje real. Entonces, como la delta de Dirac solo es diferente de cero
cuando su argumento es cero, se tiene
n n
X X (x xi )
(f (x)) = (fi (x)) = df , (14.94)
i
i=1 i=1 dx

es decir
n
X (x xi )
(f (x)) = df , f (xi ) = 0. (14.95)

i=1 dx

Por ejemplo,
 (x a) + (x + a)
x 2 a2 = . (14.96)
2|a|

323
14.10.1. La funcion de Heaviside
La funcion de Heaviside se define como

1, x 0
(x) = (14.97)
0, x < 0.

Esta funcion se puede ver como la primitiva de la delta de Dirac. En efecto,


supongamos que f es una funcion tal que f () = 0, entonces
Z 0 Z
df (x0 )
 
0 d (x x) 0 0 d 0 0 0
dx f (x ) = dx [ (x x) f (x )] (x x)
dx0 dx0 dx0
Z
df (x0 )
= (x0 x) f (x0 ) dx0 (x0 x)


dx0
Z
df (x0 )
= dx0 = f (x), (14.98)
x dx0
es decir

d (x0 x)
Z
dx0 f (x0 ) = f (x). (14.99)
dx0

Como este resultado es valido para cualquier funcion f, podemos tomar


d (x0 x)
= (x0 x) . (14.100)
dx0
Integrando la definicion de delta de Dirac Eq. (14.101), se puede ver que
Z
1 eikx
(x) = dk . (14.101)
2i k

14.11. Norma de una funcion


Ahora, usando la definicion de la transformada inversa de Fourier podemos
ver que la norma de una funcion es
Z
2
||f (x)|| = dxf (x)f (x)

Z  Z  Z
1 ikx 1 0
= dx dke f (k) dk 0 eik x f(k 0 )
2 2
Z
Z  Z 
0 0 1 i(k0 k)x
= dkdk f (k)f (k ) dxe
2

324
Z Z
= dkdk 0 f (k)f(k 0 ) (k 0 k)
Z

= dk f (k)f(k) = ||f(k)||2 . (14.102)


Por lo tanto, la norma de una funcion f (x) tiene el mismo valor que su trans-
formada de Fourier f(k).

14.12. Transformada de Fourier en d dimen-


siones
Hasta ahora hemos trabajado con funciones de una sola variable. Si f es
una funcion real de d variables, ~x = (x1 , xd ), la transformada de Fourier se
define como
Z
dx dx ~
~
f (k) = F [f (~x)] = 1 d eik~x f (~x), ~k = (k1 , kd ).(14.103)
2 2
De esta definicion es claro que la transformada inversa de Fourier es
h  i Z dk dk ~
F 1 ~
f k = 1 d eik~x f(~k). (14.104)
2 2
La delta de Dirac la denotaremos como
Z Z
(d) dk1 eix1 k1 dkd eixd kd
(~x) = (x1 ) (xd ) =
2 2
Z
1 ~
= p d~keik~x . (14.105)
d
(2)

14.13. Funcion de Green


Supongamos que A(x ) es un operador lineal, con este operador se puede
plantear una ecuacion homogenea

A(x )0 (x) = 0 (14.106)

y una ecuacion inhomogenea

A(x )(x) = 4(x). (14.107)

325
Para resolver la ecuacion inhomogenea es importante la funcion de Green. Se
dice que G (x, x0 ) es una funcion de Green de A(x ) si satisface la ecuacion de
Green

A(x )G (x, x0 ) = 4 (x x0 ) . (14.108)

Empleando una funcion de Green G (x, x0 ) y una solucion a la ecuacion ho-


mogenea, 0 (x) , se puede construir una solucion de la ecuacion inhomogenea.
En efecto, la funcion
Z
(x) = dx0 G (x, x0 ) (x0 ) + 0 (x) , (14.109)

satisface
Z
A(x )(x) = dx0 A(x )G (x, x0 ) (x0 ) + A(x )0 (x)
Z
= 4 dx0 (x x0 ) (x0 ) = 4(x).

Por lo tanto, Eq. (14.109) es solucion de Eq. (14.107). La funcion de Green y la


solucion a la ecuacion de homogenea se elijen dependiendo de las condiciones
de borde de la ecuacion inhomogenea.

14.13.1. Funcion de Green y funciones propias


Las funciones de Green del operador A(x ) estan relacionadas con sus fun-
ciones de propias. En efecto, supongamos que tenemos las funciones propias
de A(x ), es decir

A(x ) (x) = (x). (14.110)

Tambien supongamos que las funciones propias forman un conjunto { (x)}


ortonormal con el producto escalar
Z
< (x)|0 (x) >= dx (x)0 (x) = 0 . (14.111)

Por lo tanto, para cualquier funcion bien portada se puede hacer el desarrollo
de Fourier
X
f (x) = a (x), (14.112)

326
con los coeficientes de Fourier dados por
Z
a =< (x)|f (x) >= dx (x)f (x). (14.113)

Note que substituyendo los coeficientes de Fourier en Eq. (14.112) se llega a


XZ Z X
f (x) = dx (x )f (x ) (x) = dx0 f (x0 )
0 0 0
(x0 ) (x), (14.114)

como este resultado es valido para cualquier funcion, tenemos


X
(x x0 ) = (x0 ) (x). (14.115)

Por lo tanto, para este caso la funcion de Green esta dada por
X (x0 ) (x)
G(x x0 ) = 4
. (14.116)

Esta afirmacion es correcta pues


X (x0 )A(x ) (x) X (x0 ) (x)
A(x )G(x x0 ) = 4
= 4




X
= 4 (x0 ) (x) = 4(x x0 ). (14.117)

De Eq. (14.116) se puede ver que las condiciones de borde que satisface la
funcion de Green son las mismas que satisfacen las funciones propias.

14.14. Ecuacion de Laplace en dos dimensio-


nes
Hora veremos un ejemplo de funcion de Green. Calcularemos la funcion de
Green del Laplaciano en dos dimensiones
 2
2


+ G(~x ~x0 ) = 4 (2) (~x ~x0 ), ~x = (x, y). (14.118)
x2 y 2
Pediremos que la funcion de Green se anule en (x, y) = (0, 0) y en (x, y) =
(L1 , L2 ). Entonces debemos buscar las funciones propias
 2
2


+ (x, y) = (x, y). (14.119)
x2 y 2

327
que se anulen en (x, y) = (0, 0) y en (x, y) = (L1 , L2 ).

Propondremos (x, y) = X(x)Y (y), sustituyendo esta propuesta en (14.119)


se obtiene
2 X(x) 2 Y (y)
Y (y) + X(x) = X(x)Y (y), (14.120)
x2 y 2
de donde
1 2 X(x) 1 2 Y (y)
= + . (14.121)
X(x) x2 Y (y) y 2
Derivando esta ecuacion respecto a x y y se encuentra
1 2 X(x) 1 2 Y (y)
   

= 0, = 0, (14.122)
x X(x) x2 x Y (y) y 2
de donde
1 2 X(x) 1 2 Y (y)
= 2 , = 2 , , = constante. (14.123)
X(x) x2 Y (y) y 2
Note que esto implica que = 2 2 , tambien note que las ecuaciones
(14.123) son equivalentes a
2 X(x) 2 Y (y)
= 2 X(x), = 2 Y (y),
x2 y 2
cuyas soluciones son
X (x) = a cos x + b sin x, Y (x) = A cos + B sin y,
donde a , b , A , B son constantes. Empleando las condiciones de borde se
llega a
"  2 #
r r 2 
2 n 2 m n m
Xn (x) = sin x, Ym (x) = sin y, = +
L1 L1 L2 L1 L2 L2
Por lo tanto, las funciones propias y valores propios son
"  2 #
r r 2 
2 n 2 m n m
nm (x, y) = sin x sin y, nm = +
L1 L1 L2 L2 L1 L2
y la funcion de Green del sistema es
n 0 m 0 n m
0 16 X X sin L1 x sin L2 y sin L1 x sin L2 y
G(~x ~x ) =  2  2 . (14.124)
L1 L2 n1 m1 n m
L1
+ L2

328
14.15. Resultados de variable compleja
Antes de continuar recordemos dos resultados de variable compleja.

Si z0 es un polo de f (z) entonces el residuo de f (z) se define como

Resz0 f (z) = lm (z z0 )f (z) (14.125)


zz0

El teorema de Cauchy nos dice que si C en una curva cerrada en el plano


complejo entonces
I Xn
f (z)dz = 2i Resak f (z). (14.126)
C k=1

Ademas, si g(x) es una funcion de variable real con un polo simple en a y


> 0, entonces el valor principal de Cauchy se define como
Z Z a Z 
P.P g(x) = lm g(x)dx + g(x)dx . (14.127)
0 a+

Otro resultado es que si R(z) es una funcion que no tiene polos en el eje real
ni en el plano complejo superior y que lmz R(z) = 0, entonces si a es un
numero real, se cumple
Z
1 R(x)
Z
1 R(x)
R(a) = P.P = . (14.128)
i x a i x a
En particular

eix
Z
P.P = i, (14.129)
x
que implica
Z
sin x
= . (14.130)
x
Este resultado lo ocuparemos posteriormente.

14.16. Ecuacion de Poisson


Ahora estudiaremos la ecuacion de Poisson

2 (~x) = 4 (~x) , (14.131)

329
que tiene asociada la ecuacion de Green

2 G (~x ~x0 ) = 4 (3) (~x ~x0 ) , (14.132)

Tomando la transformadas de Fourier de esta ecuacion obtenemos

F 2 G (~x ~x0 ) = 4F (3) (~x ~x0 ) ,


   
(14.133)

es decir
  1
~k 2 G ~k 2 = 4 p , (14.134)
(2)3

por lo que
  1 1
G ~k 2 = 4 p , (14.135)
(2)3 ~k 2

de donde,
Z i~k(~ x0 )
x~
4 e
0
G (~x ~x ) = d~k . (14.136)
(2)3 ~k 2

~ = ~x ~x0 , se tiene
Usando coordenadas esfericas y definiendo R
~ ~
eikR
Z
0 1 ~
G (~x ~x ) = dk
2 2 ~2
Z k Z 2 Z
1 2 eikR cos
= dkk d d sin
2 2 0 k2
Z Z 0 0
2
= dk d sin eikR cos , (14.137)
2 2 0 0

ademas con el cambio de variable u = cos se encuentra


Z Z 1 Z 1
ikR cos ikRu ikRu 1 ikRu 1
d sin e = due = due = e
iRk

0 1 1 1
ikR ikR
e e sin kR
= =2 . (14.138)
iRk kR
Por lo que
Z
0 2 sin kR
G (~x ~x ) = dk , (14.139)
0 kR

330
tomamos w = kR y considerando la integral Eq. (14.130) se llega a
Z Z
0 2 sin w 1 sin w 1
G (~x ~x ) = dw = dw = = ,
R 0 w R w R R

es decir
1
G (~x ~x0 ) = . (14.140)
|~x ~x0 |

Que implica
 
1
2
= 4 3 (~x ~x0 ) . (14.141)
|~x ~x0 |

Por lo tanto, una solucion a la ecuacion de Poisson es

(~x0 )
Z
(~x) = d~x0 + 0 (~x), (14.142)
|~x ~x0 |

con 0 (~x) una solucion a la ecuacion de Laplace 2 0 (~x) = 0.

Para muchos sistemas fsicos se puede tomar 0 (~x) = 0, en esos casos la


solucion a la ecuacion de Poisson es
(~x0 )
Z
(~x) = d~x0 . (14.143)
|~x ~x0 |

Ahora, note que


1 1
0
= (14.144)
|~x ~x | x2 2xx0 cos + x02
con el angulo entre ~x y ~x0 . Ahora, si |~x| =
6 |~x0 | definamos r< = min{|~x|, |~x0 |}
y r> = max{|~x|, |~x0 |}, es claro que
 
r<
< 1. (14.145)
r>

Entonces, ocupando estas definiciones y la funcion generatriz de los polinomios


de Legendre Eq. (10.208) con
r<
z= , u = cos , (14.146)
r>

331
se tiene
 l
1 1 1 X r<
=  2 = r> Pl (cos ).
|~x ~x0 |
r 
r<

r< l0
r>
r> 12 r>
cos + r>

As, usando el teorema de adicion de los armonicos esfericos Eq. (10.261),


tenemos
m=l  l 
1 X X 4 r<
0
= l+1
Ylm (0 , 0 )Ylm (, ). (14.147)
|~x ~x | l0 m=l
2l + 1 r>

Fuera de la region donde esta definida la fuente (~x0 ) se tiene r< = |~x0 | y
r> = |~x|. Por lo tanto, en esta region se tiene
m=l
(x0 )
Z Z
0
X X Ylm (, ) 4
(~x) = d~x = l+1
d~x0 r<
l
Ylm (0 , 0 ) (~x0 ) .
|~x ~x0 | l0 m=l
r > 2l + 1

Definiremos los momentos multipolares como


Z
4
qlm = d~x0 r<
l
Ylm (0 , 0 ) (~x0 ) (14.148)
2l + 1
por lo que
m=l
X X qlm
(~x) = Y (, ).
l+1 lm
(14.149)
l0 m=l
r >

~ A
Ademas, usando la norma de Coulomb ~ = 0, las ecuaciones de la
magnetostatica se reducen a
~ x) = 4 J~ (~x) ,
2 A(~ (14.150)

que son tres ecuaciones de Poisson. Por lo tanto,

J~ (~x0 )
Z
~ (~x) =
A d~x0 . (14.151)
|~x ~x0 |

Claramente este potencial tambien se puede escribir en terminos de los armoni-


cos esfericos.

332
14.17. Funcion de Green de la ecuacion Helm-
holtz
La ecuacion de Helmholtz inhomogenea es
2 + k 2 (~x) = 4 (~x) ,

(14.152)
la cual tiene asociada la ecuacion de Green
2 + k 2 G (~x ~x0 ) = 4 3 (~x ~x0 ) .

(14.153)
Para resolver esta ultima ecuacion veamos la funcion
er p
f (r) = , r = x2 + y 2 + z 2 , (14.154)
r
la cual tiene una divergencia en r = 0. Esta divergencia se puede aislar, en
efecto
er 1 + 1 1 er 1
f (r) = = + , (14.155)
r r r
note que
er 1
lm = . (14.156)
r0 r
Por lo tanto, la divergencia de la funcion Eq. (14.154) esta en termino 1/r.
Ahora, observemos
 r 
1 er 1
   r 
2 e 2 21 2 e 1
= + = + , (14.157)
r r r r r
empleando la ecuacion Eq. (14.141) y el Laplaciano en coordenadas esferica
Eqs. (2.77)-(2.78) se llega a
 r 
1 2
 r  r
2 e (3) e (3) 2e
= 4 (~r) + r = 4 (~
r ) + ,
r r r2 r r
es decir
 er
2 2 = 4 (3) (~r) . (14.158)
r
Este resultado lo hemos obtenido con las coordenadas x, y, z. Claramente el
resultado no cambia si se consideran las coordenas x x0 , y y 0 , z z 0 . Por lo
tanto,
 e|~x~x0 |
2
2
= 4 (3) (~x x0 ) . (14.159)
|~x ~x0 |

333
Si tomamos = ik, entonces se obtiene
 eik|~x~x0 |
2
+k 2
0
= 4 (3) (~x x0 ) , (14.160)
|~x ~x |
que es la ecuacion de Green para la ecuacion de Helmholtz inhomogenea. As,
la funcion de Green para la ecuacion de Helmholtz inhomogenea es
0
0 eik|~x~x |
G (~x x ) = . (14.161)
|~x ~x0 |
Entonces una solucion a la ecuacion de Helmholtz inhomogenea es
Z ik|~
x~x0 |
0e
(~x) = 0 (~x) + d~x (~x0 ), (14.162)
|~x ~x0 |
con 0 (~x) una solucion a la ecuacion de Helmholtz libre. Estas soluciones se
ocupan para estudiar radiacion y difraccion de onda electromagneticas, el signo
se elije dependiendo si las ondas que se estudian son ondas entrantes o salientes.

14.17.1. Ecuacion de Lippman-Schwinger


La ecuacion de Schrodinger
~2 2
 
+ V (~x) (~x) = E(~x) (14.163)
2m
se puede escribir como una ecuacion de Helmholtz inhomogenea. En efecto,
definiendo
2mE m
k2 = , (~x) = V (~x)(~x)
~ 2~
y realizando operaciones elementales la ecuacion (14.163) toma la forma

2 + k 2 (~x) = 4(~x).


Por lo tanto,
 m Z ik|~ x0 |
x~
0e
(~x) = 0 (~x) d~x V (~x0 )(~x0 ), (14.164)
2~ |~x ~x0 |
donde 0 (~x) es una solucion a la ecuacion de Helmholtz homogenea. A Eq.
(14.164) se le llama ecuacion de Lippman-Schwinger y es muy util para estudiar
dispersion de partculas en mecanica cuantica.

334
14.18. Funcion de Green de la ecuacion de on-
da
Ahora estudiaremos la ecuacion de onda inhomogenea
1 2
 
2
2 2 (~x, t) = 4(~x, t). (14.165)
c t
la cual tiene asociada la ecuacion de Green
1 2
 
2 2 G (~x ~x0 , t t0 ) = 4 (3) (~x ~x0 ) (t t0 ) .
2
(14.166)
c t
La ecuacion de onda es invariante relativista, para respetar esta invariancia en
el sector temporal tomaremos las definiciones
Z
1
g() = dteit g(t), (14.167)
2
Z
1
g(t) = deit g(), (14.168)
2
Z
1
(t) = deit . (14.169)
2
Por lo que,
Z
1 ~
 
d~kdei((tt )k(~x~x )) G ~k, ,
0 0
0 0
G (~x ~x , t t ) = p
(2)4
Z
1 ~
d~kdei((tt )k(~x~x )) .
0 0
(4) 0 (3) 0 0
(x x ) = (~x ~x ) (t t ) = p
(2)4

Por lo tanto, al hacer la transformada de Fourier de Eq. (14.166) se encuentra

1 2
  
2 2 G (~x ~x , t t ) = 4F (3) (~x ~x0 ) (t t0 ) ,
2 0 0
 
F
c t
es decir
2
    4
~k 2 + 2 G ~k, = p ,
c (2)4
de donde
  4 1
G ~k, = p .
(2)4 ~k 2 2
c2

335
Por lo tanto,
~
ei((tt )k(~x~x ))
Z 0 0
1
0
G (~x ~x , t t ) = 0
d~kd . (14.170)
4 3 ~k 2 22
c

~ = ~x ~x0 y tomaremos
Para hacer esta integral definiremos = t t0 , R
coordenadas esfericas, por lo que

d~k = dkddk 2 sin , ~k (~x ~x0 ) = kR cos . (14.171)

Entonces,
2
ei( kR cos )
Z Z Z Z
~ ) = 1 2
G(R, d dkk d2 d sin
4 3
0 0 0 k 2 c2
Z Z Z
2 2 ikR cos ei
= dkk d sin e d 2 . (14.172)
4 3 0 0 k 2 c2

Ademas, con el cambio de variable u = cos , se tiene


Z Z 1 Z 1
ikR cos iuRk
d sin e = due = dueiuRk
0 1 1
1
1 iuRk 1 iRk iRk
 2
= e = e e = sin kR,
ikR
1 ikR kR

entonces

2
ei
Z Z
~ ) = c
G(R, dkk 21
sin rR d 2 . (14.173)
2 0 kR k 2 c2

Ahora estudiaremos la integral


Z Z
ei ei
I(k) = d 2 = d , (14.174)
k 2 c2 ( kc)( + kc)

para facilitar algunos calculos definiremos

a = c(k i), b = c(k + i), (14.175)

por lo que,

ei ei
Z Z
I(k) = d 2 = lm d . (14.176)
k 2 c2 0 ( a )( b )

336
C

P1 P2

Trayectoria de integracin

Pasaremos esta integral al plano complejo, donde = 1 + i2 , note que

ei = ei1 e2 . (14.177)

Si tomamos > 0, entonces lm ei = 0. Ahora, sea C la trayectoria


semicircular de radio A en el semi plano complejo inferior. Dicha trayecto-
ria inicia en punto A del eje real y termina en el punto A del mismo eje.
Claramente esta trayectoria se recorre en sentido de las manecillas del reloj.
Ocupando la trayectoria C, se tiene
Z
ei ei
Z
I(k) = lm d + d
0 ( a )( b ) C ( a )( b )
Z i
e
d . (14.178)
C ( a )( b )

Note que si A las trayectorias de las dos primeras integrales forman una
trayectoria cerrada, , que se recorre en el sentido de las manecillas del reloj
y que encierra los dos polos a , b , es decir

ei ei
I Z 
I(k) = lm lm d d .
0 A ( a )( b ) C ( a )( b )

337
Podemos ver que si A es muy grande
ei i1 2
e2 A
Z Z
d e e

d A (14.179)

C ( a )( b ) C 2 A2
Por lo tanto,
i
Z
e
lm d = 0, (14.180)
A C ( a )( b )
de donde
ei
Z
lm d = 0. (14.181)
A C ( a )( b )
Entonces,
ei
I
I(k) = lm lm d
0 A ( a )( b )
( a )ei ( b )ei
 
= 2i lm lm + lm
0 a ( a )( b ) b ( a )( b )
 ia ib

e e
= 2i lm +
0 a b b a
2i 2i ick
eia eib = eick
 
= lm e
0 a b 2ck
ick
ick

2 e e sin ck
= = 2 . (14.182)
ck 2i ck
Ocupando este resultado en Eq. (14.173) se obtiene
2 Z
  
~ ) = c 2 1 sin ck
G(R, dk k sin kR 2
2 0 kR ck
Z Z
2c c
= dk sin kR sin ck = dk sin kR sin ck
R 0 R
Z
c 1
= dk (cos k (R c ) cos k (R + c ))
R 2
Z
c
dk eik(Rc ) + eik(Rc ) eik(R+c ) eik(R+c )

=
4R
 Z Z
c 1 ik(Rc ) 1
= dke + dkeik(Rc )
2R 2 2
Z Z 
1 ik(R+c ) 1 ik(R+c )
dke dke
2 2

338
c
= ((R c ) + (R c ) (R + c ) (R + c ))
2R
c
= ((R c ) (R + c )) . (14.183)
R
Ademas, como (R + c ) > 0, se encuentra
 
~ ) = c (R c ) = 1
G(R,
R
, (14.184)
R R c

es decir
    
|~
x~ x0 | 0 0 |~
x~ x0 |
c
(t t ) t t c
G (~x ~x0 , t t0 ) = = . (14.185)
|~x ~x0 | |~x ~x0 |

Definiendo el tiempo de retardo como

|~x ~x0 |
tRet = t , (14.186)
c
la funcion de Green se puede escribir de la forma

0 (t0 tRet )
0
G (~x ~x , t t ) = . (14.187)
|~x ~x0 |

Por lo tanto, si 0 (~x, t) una solucion a la ecuacion de onda homogenea, la


solucion a la ecuacion de onda inhomogenea Eq. (14.165) es

(t0 tRet )
Z
(~x, t) = d~x0 dt0 (~x0 , t0 ) + 0 (~x, t)
|~x ~x0 |
(~x0 , tRet )
Z
= dx0 + 0 (~x, t),
|~x ~x0 |

es decir,
 
|~
x~ x0 |
Z ~x0 , t c
(~x, t) = d~x0 + 0 (~x, t). (14.188)
|~x ~x0 |

339
Referencias

[1] J. D. Jackson, Classical Electrodynamics, Tercera Edicion, John Wiley


and Sons (1999).

[2] L. D. Landau y E. M. Lifshitz, Fsica Teorica Vol. 8, Electrodinamica de


Los Medios Continuos, Editorial Reverte, Madrid (1981).

[3] M. Reed y B. Simon, Methods of Modern Mathematical Physics, Academic


Press Inc, New York (1972).

[4] A. N. Kolmogorov, Elementos de la teora de funciones y del analisis


funcional, Editorial Mir Moscu (1975).

[5] L. D. Landau y E. M. Lifshitz, Quatum Mechanics (Nonrelativistic


Theory), (segunda edicion) Addison-Wesley, E.U (1965).

[6] J. J. Sakurai, Modern Quatum Mechanics , (S. F. Tuan, Editor), Addison-


Wesley, E.U (1994).

[7] L. Debnath y D. Bhatta, Integral Transforms and Their Applications,


Segunda edicion, Chapman y Hall/CRC, Londres (2007).

[8] E. T. Whittaker y G. N. Watson. A Course of Modern Analysis, Cam-


bridge University Press (1996).

[9] P. M. Morse y H. Feshbach, Methods of Theoretical Physics, vol I y II


McGraw-Hill, (1953)

[10] A. N. Tikhonov y A. A. Samarskii, Equations of Mathematical Physics,


Dover, New York (1990).

[11] L. Infeld y T. E. Hull, The Factorization Method, Rev. Mod. Phys. 23, 21
(1951).

[12] O. L. de Lange y R.E. Raab, Operator Methods in Quantum Mechanics,


Clarendo Press, Oxford (1991).

340
[13] N. Vilenkin, Special Functions and the Theory of Group Representations,
American Mathematical Society (1968).

[14] B. G. Adams, Algebraic Approach to Simple Quantum Systems, Springer-


Verlag, Berlin (1994).

[15] B. E. Baaquie, Quantum Finance, Cambridge University Press (2004).

[16] M. Henneaux y C. Teitelboim, Quantization of gauge systems, Princeton


University Press, USA (1992).

[17] R. Courant y F. John, Introduccion al calculo y al analisis matematico,


Volumen I y II, Editorial Limusa (1990).

[18] F. Simmons y J. S. Robertson, Ecuaciones Diferenciales con Aplicaciones


y Notas Historicas, Segunda edicion, McGraw-Hill (1993).

[19] F. J. Dyson, Feynmans proof of the Maxwell equations, Am. J. Phys. 58


No.3 209 (1990).

[20] R. Jackiw, Introducing Scale Symmetry, Phys. Today 25 (1), 23 (1972).

[21] V. de Alfaro, S. Fubini, G. Furlan, Conformal Invariance in Quantum


Mechanics, Nuovo Cimento A 34, 569 (1976).

[22] M. Jacobs, Diffusion Processes, Springer, New York, (1967).

[23] R. P. Feynman y A. R. Hibbs, Quantum Mechanics and Path Integrals,


McGraw-Hill (1965).

[24] F. Black and M. Scholes, The pricing options and corporate liabilities,
Journal of Political Economy 81 (1973), 637-659.

[25] R. C. Merton, Theory of Rational Option Pricing, Bell J. Econ. and Ma-
nagement Sci. 4 (1973) 141-183.

[26] F. Venegas, Riesgos financieros y economicos, Cengage Learling Editores


(2008).

341

También podría gustarte