Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Polinomios2005 PDF
Polinomios2005 PDF
Índice
1. Introducción 3
5. Algunas aplicaciones 55
5.1. Aplicación a la Mecánica Cuántica . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.1.1. El oscilador armónico cuántico . . . . . . . . . . . . . . . . . . . . . . . . 55
5.1.2. La ecuación hipergeométrica generalizada. . . . . . . . . . . . . . . . . . 56
1
5.1.3. Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.2. La teorı́a de representación de grupos . . . . . . . . . . . . . . . . . . . . . . . . 60
5.3. El grupo de rotaciones del espacio O(3). . . . . . . . . . . . . . . . . . . . . . . 62
5.3.1. Las representaciones unitarias Dj de O(3) . . . . . . . . . . . . . . . . . 65
5.3.2. Los coeficientes de Clebsch-Gordan . . . . . . . . . . . . . . . . . . . . . 69
Referencias 73
2
1. Introducción
En estas breves notas vamos a intentar dar una visión de los polinomios ortogonales clásicos
“continuos” y discretos y algunas de sus aplicaciones.
Para mayor claridad lo divideremos en cinco partes. La primera la dedicaremos a dar una
breve introducción histórica de los mismos, incluı́das algunas funciones especiales relacionadas
con ellos. A continuación, en la segunda parte, describiremos uno de los formalismos más senci-
llos desarrollado escencialemente por Nikiforov y Uvarov en los años 60. En el cuarto apartado
veremos como se puede generalizar las ideas expuestas para el caso anterior al caso discreto y
culminaremos, en el quinto y último apartado, describiendo algunas aplicaciones en problemas
de la Mecánica Cuántica ası́ como dando una breve introducción a la teorı́a de representación
de de grupos y mostrando su conexión con la teorı́a de polinomios ortogonales. La mayorı́a de
los temas tratados han sido tomados de [3].
Un inconveniente de la fórmula anterior es que precisamos trabajar con tres funciones. Una
forma de eliminar el problema era introducir la función potencial. De hecho, era bien conocido
en el siglo XVIII que la fuerza de atracción entre dos cuerpos podı́a ser determinada a partir de
la función potencial V (x, y, z). Además, la misma era fácil de calcular conociendo la distribución
de masa —digamos su densidad ρ— en el interior del cuerpo mediante la fórmula:
ZZZ
ρ(ξ1, ξ2 , ξ3 ) ∂V
V (x1, x2 , x3 ) = G dξ1 dξ2dξ3 , =⇒ fxi = (2.2)
r ∂xi
y, por tanto, calculando la integral es posible encontrar la función V . Esto, sin embargo, es
complicado ya que es necesario conocer a priori la distribución de masa de los cuerpos, la cual
es, en general, desconocida y además hay que unirle el hecho de que el cálculo directo de la
integral (2.2) suele ser muy engorroso —se trata de una integral triple que hay que integrar en
un volumen acotado pero con forma arbitraria—. Otra posibilidad era resolver la ecuación del
potencial para puntos exteriores al cuerpo: la ecuación de Laplace
∂ 2V ∂ 2V ∂ 2V
+ + = 0.
∂x2 ∂y 2 ∂z 2
Esta noción del potencial y su relación con las fuerzas fue tratado por distintos matemáticos
de la talla de Daniel Bernoulli, Euler y Lagrange.
3
Vamos a describir una forma de calcular directamente las integrales
(2.1) en un caso especial: la atracción que un cuerpo de revolución ejerce
sobre otros cuerpos. Este problema interesó a Adrien—Marie Legendre
(1752–1833). Éste, en un artı́culo de 1782 titulado Sur l’attraction des
sphéroı̈des (aunque publicado en 1785), probó un teorema muy interesante
que establece que, si se conoce el valor de la fuerza de atracción de un
cuerpo de revolución en un punto exterior situado en su eje, entonces se
conoce en todo punto exterior. Ası́ redujo el problema al estudio de la
Adrien M. Legendre componente radial P (r, θ, 0), cuya expresión es
Z Z Z
(r − r 0) cos γ 02
P (r, θ, 0) = 3 r sin θ 0 dθ 0dφ0 dr 0 ,
2 0
(r − 2rr cos γ + r ) 02 2
Ası́,
∞ Z π
4π X 2n − 3 1 2
P (r, θ, 0) = 2 P2n(cos θ) 2n R2n+3 (θ 0)P2n(cos θ 0) sin θ 0 dθ 0,
r n=0 2n − 1 r 0
Las funciones P2, P4 , ... son funciones racionales enteras —polinomios— de cos γ, que hoy
se conocen como polinomios de Legendre se expresan mediante la fórmula
(2n − 1)!! n n(n − 1) n−2 n(n − 1)(n − 2)(n − 3) n−4
Pn(x) = x − x + x + ···
n! 2(2n − 1) 2 · 4 · (2n − 1)(2n − 3)
Dos años más tarde en su segundo artı́culo escrito en 1784 (publicado en 1787) Legendre dedujo
algunas de las propiedades de las funciones P2n(x). Una es de particular importancia:
Z 1
π(x2 )P2m (x)dx = 0 grado π < m,
0
4
siendo δmn el sı́mbolo de Kronecker. Usando ésta, muestra Legendre que “toda” función f (x 2)
se expresa como
∞
X
f (x2) = cn P2n (x),
n=0
siendo los coeficientes cn determinados unı́vocamente. Habı́a nacido la primera familia de poli-
nomios ortogonales de la historia. En ese mismo trabajo, Legendre probó que los ceros de P n
eran reales, distintos entre sı́, simétricos respecto al origen y menores, en valor absoluto que 1.
En su cuarto artı́culo sobre el tema (escrito en 1790, aunque publicado tres años más tarde)
introdujo los polinomios de grado impar, prueba la ortogonalidad general
Z 1
2
Pn(x)Pm (x)dx = δn,m ,
0 2n + 1
ası́ como la ecuación diferencial lineal que satisfacen dichos polinomios Pn(x):
También introduce ası́ como los hoy llamados polinomios asociados de Legendre P nm (x) que se
(m) m m P (x)
expresan a través de los polinomios Pn de la forma Pn (x) = (1 − x2) 2 d dx n
m , y que son solu-
ciones de la ecuación de Laplace en coordenadas esféricas tras aplicar el método de separación
de variables.
Los polinomios de Legendre fueron considerados también por Pierre—Simon Laplace (1749–
1827) quien en 1782 introdujo las funciones esféricas —que están directamente relacionadas
con los polinomios de Legendre— y demostró varios resultados relativos a ellas. También es
destacable otro resultado publicado en 1826 —Mémoire sur l’attraction des spheroides (Corresp.
sur l’Ecole Royale Polytech. III, 361–385)— por el francés Olinde Rodrigues (1794–1851). Se
trata de una fórmula para expresar los polinomios de Legendre,
1 dn (x2 − 1)n
Pn(x) = n ,
2 n! dxn
conocida hoy dı́a como fórmula de Rodrigues.
F (x) = A0 H0 + A1 H1 + · · · An Hn + · · · H n ∈ Pn
con el objetivo de generalizarlos al caso de varias variables. Curiosamente construye los polino-
mios Hn diciendo que
2
dn e−x 2
n
= e−x Hn ,
dx
5
es decir utiliza una fórmula Rodrigues, obteniendo
n(n − 1) n−2 n!
(−1)nHn = (2x)n − x + ··· + (2x)n−2k + · · · ,
2 (n − 2k)!k!
en particular, deduce las propiedades
La próxima familia, conocida como polinomios de Laguerre Lαn , deben su nombre a Edmond
Nicolás Laguerre (1834–1886). Estos polinomios ya eran parcialmente conocidos por Niels Hen-
rik Abel (1802–1829) y Joseph-Louis Lagrange (1736–1813), aunque es nuevamente Chebyshev
el primero en realizar un estudio detallado de los mismos en 1859 en el trabajo antes citado
y que continuó el matemático ruso Konstantin Aleksandrovich Posse (1847–1928) en 1873. El
caso general para α > −1 fue estudiado por Yulian Vasilevich Sojotkin (1842–1827) en 1873,
y no es hasta
R ∞ 1879 que Laguerre los introduce —caso particular α = 0— cuando estudiaba la
integral x e−x x−1 dx, mediante su desarrollo en fracciones continuas.
R ∞ −x
En particular, Laguerre, en su memoria Sur l’intégrale x e x dx (Bull.
Soc. Math. France, VII, 1879) (ver Œvres, Gauthier-Villars,
R ∞ e−x 1898, 428–437),
prueba, entre otras cosas, la relación entre la integral x x dx, y la fracción
continua:
Z ∞ −x
e e−x φm (x)
dx = = e−x ,
x x 1 Lm (x)
x+1−
x+ 3 − ···
Nicolás Laguerre donde los denominadores L00m (x) son las soluciones polinómicas de la ecuación
diferencial de Laguerre xy + (x + 1)y 0 − my = 0, m = 0, 1, 2, . . ., que no
son más que los hoy conocidos polinomios clásicos de Laguerre. Para ello,
Laguerre parte de la identidad
Z ∞ −t Z ∞ −t
e 1 1 n+1 (n − 1)! n e
dt = − 2 + · · · + (−1) + (−1) dt
x t x x xn x tn+1
de donde deduce, tras diversas consideraciones, que
Z ∞ −t Z ∞ −t
e −x φm (x) n e
dt = e + (−1) dt
x t Lm (x) x tn+1
donde los Ln satisfacen la ecuación diferencial lineal
6
A continuación obtiene muchas propiedades de los Ln : que satisfacen la relación de recurrencia
Ln+1 (x) = (x + 2n + 1)Ln(x) − n2 Ln−1 (x),
la ortogonalidad Z ∞
Γ(n + 1)
Ln(x)Lm (x)e−xdx = δn,m ,
0 n!
que los ceros de los Ln eran reales, no negativos y simples.
Años más tarde, en 1880, otro estudiante de Chebyshev, Nikolai Yakovlevich Sonin (1849–
1915) continúa el estudio comenzado por Sojotkin sobre los polinomios con α > −1, probando,
entre otras cosas una relación de ortogonalidad más general,
Z ∞
Γ(n + α + 1)
Lαn (x)Lαm (x)xαe−x dx = δn,m ,
0 n!
y una ecuación del tipo:
x(Lαn )00 + (α + 1 − x)(Lα)0n + nLαn = 0.
Es quizá por ello que que en algunos sitios a los polinomios Lαn (x) se les denomina polinomios
de Laguerre–Sonin.
Antes de pasar a nuestra última familia clásica debemos hacer una breve incursión en la
teorı́a de las ecuaciones diferenciales de segundo orden. Nuestro protagonista será esta vez una
ecuación diferencial.
Leonhard Euler (1707–1783), en la segunda mitad del siglo XVIII, desa-
rrolló el método de integración de ecuaciones diferenciales ordinarias median-
te series de potencias que usamos hoy. Una de las ecuaciones consideradas
por él fue —ver el Instituciones Calculi Integralis (1769)— la conocida hoy
dı́a como ecuación diferencial hipergeométrica
x(1 − x)y 00 + [γ − (α + β + 1)x]y 0 − αβy = 0
cuya solución es
Leonhard Euler α, β α·β α(α + 1) · β(β + 1) 2
F(α, β; γ|x) ≡ 2 F1 γ x = 1 + x+ x + ··· .
1·γ 1·2 · γ(γ + 1)
(2.3)
No obstante, fue Carl Friederich Gauss (1777–1855) en su famoso ensayo de 1813 Dis-
quisitiones generales circa seriem infinitam ..., (Werke, II (1876), 123-162) sobre funciones
hipergeométricas quien realizó el estudio más completo de la ecuación anterior. En este ensayo
Gauss no hizo uso de la ecuación diferencial que sı́ utilizó más tarde en material inédito —
Disquisitiones generales circa seriem infinitam..., (Werke, III (1876), 207-229)—.
7
También Gauss estableció la convergencia de la serie e introdujo la notación F(a, b ; c|x) que
convive todavı́a con la notación moderna 2F1 a, b x .
c
Otro trabajo importante de Gauss fue su Methodus nova integrali um valores per approxi-
mationen inveniendi, (Werke III, 163–196) donde demuestra una fórmula de cuadraturas para
el cálculo aproximado (y eficiente) de integrales que constituye una de las aplicaciones más
importantes de los polinomios ortogonales. En concreto, Gauss “recuperó” los ceros de los po-
linomios de Legendre cuando buscaba dónde deberı́an estar los del polinomio de interpolación
(de Lagrange) para obtener la mayor precisión posible al integrar entre 0 y 1, aunque no uti-
lizó la ortogonalidad de los polinomios (hecho que probablemente desconocı́a) sino la función
hipergeométrica 2 F1. La construcción de la fórmula de cuadraturas, tal y como la conocemos
hoy usando la ortogonalidad, se debe a nuestro próximo personaje, Karl Gustav Jacob Jaco-
bi —Uever Gauss’ neve Methode die werthe der Integrale näherungsweise zu finden J. Reine
Angew. Math., 1 (1826) 301-308— (1804–1851), otro de los grandes matemáticos del siglo XIX.
Jacobi fue uno de los más grandes matemáticos del siglo XIX y no sólo
por sus aportaciones puramente teóricas, sino por su interés por resolver
dı́ficiles problemas de inmediata aplicación práctica —las famosas ecuacio-
nes de Hamilton y Jacobi de la Mecánica, o sus trabajos en Mecánica de
Fluidos, por ejemplo—. Es notable su célebre frase:
que quizá dió comienzo a esa absurda batalla de hoy dı́a sobre la prioridad de la Matemática
“platónica” basada en la idea de que la Matemática debe ser independiente de toda utilidad
inmediata de la Matemática aplicada de Fourier.
Fiel a esa idea platónica, Jacobi introduce una nueva familia que generaliza los polino-
mios de Legendre a partir de la función hipergeométrica de Gauss, sin importarle sus posibles
aplicaciones —recordemos que las familias anteriores habı́an aparecido de uno u otro modo
relacionadas con aplicaciones fı́sicas o matemáticas—. Ası́, en su artı́culo póstumo de 1859,
Untersunshungen über die Differentialgleichung de hypergeometrischen Reihe (J. Reine Angew.
Math. 56 149–165), definió la familia de polinomios
α,β Γ(n + α + 1) −n, n + α + β + 1 1 − x
Pn (x) = 2 F1 2 ,
Γ(α + 1)n! α+1
para la que demostró, entre otras, una propiedad de ortogonalidad en el intervalo [−1, 1] con
respecto a la función peso ρ(x) = (1 − x)α(1 + x)β , α > −1, β > −1, o sea,
Z 1
2α+β+1 Γ(n + α + 1)Γ(n + β + 1)
Pnα,β (x)Pmα,β (x) ρ(x)dx = δmn ,
−1 (2n + α + β + 1)Γ(n + α + β + 1)n!
donde Γ(x) denota la función Gamma de Euler. Es fácil comprobar (ver, por ejemplo, [6, 15, 17])
que tanto los polinomios de Laguerre como los de Hermite también se pueden escribir como
una función hipergeométrica no de Gauss, sino de las funciones hipergeométricas generalizadas
p Fq .
8
Los polinomios de Jacobi, Laguerre y Hermite constituyen lo que hoy dı́a se conocen como
polinomios ortogonales clásicos. Curiosamente en los ejemplos anteriores descubrimos que al
parecer todos ellos tienen ciertas caracterı́sticas comunes dentro de las que destaca la ecuación
diferencial de segundo orden. Es por ello que para culminar este apartado debemos mencionar
los teoremas de caracterización relacionados con las familias clásicas.
Otra caracterización, la más antigua, se debe a Sonin quien, en 1887, probó que los únicos
polinomios ortogonales que satisfacı́an la propiedad de que sus derivadas P n0 también eran
ortogonales eran los polinomios de Jacobi, Laguerre y Hermite. Esta propiedad fue redescubierta
W. Hahn en 1935 quien también recuperó los polinomios de Bessel no considerados por Sonin
—el caso Bessel también fue estudiado por H.L.Krall [11]—. Dos años más tarde, el mismo
Hahn probó un resultado más general que contenı́a al anterior: si la sucesión de polinomios
(k)
ortogonales (Pn)n era tal que la sucesión de sus k−ésimas derivadas (Pn )n, para cierto k ∈ N,
también era ortogonal, entonces (Pn)n era alguna de las sucesiones de polinomios ortogonales
clásicos.
9
La tercera caracterización fue propuesta por F. Tricomi [18] quien conjeturó y parcialmente
demostró (para más detalle ver [2, 6]) que sólo los polinomios ortogonales clásicos se podı́an
expresar en términos de una fórmula tipo Rodrigues:
B n dn
Pn(x) = [ρ(x)σ n(x)] , n = 0, 1, 2, ... , (2.5)
ρ(x) dxn
donde ρ es una función no negativa en cierto intervalo y σ es un polinomio independiente de
n. La demostración rigurosa de este resultado fue dada por Cryer en 1969 [5], aunque ya E. H.
Hildebrandt en 1931 [9] tenı́a varios resultados en esa dirección. Otra caracterización consiste
en que los únicos polinomios ortogonales respecto a una función peso ρ solución de la ecuación
diferencial de Pearson
eran los clásicos (Jacobi, Laguerre y Hermite), que fue probada por Hildebrandt en 1931 [9].
con la condición ck > 0 (k = 1, 2, ...). Stieltjes probó que haciendo el cambio a20 = 1/c1 , b0 =
−1/(c1 c2 ) y a2n = 1/(c2n−1 c22n c2n+1 ), bn = −1/(c2n c2n+1 ) − 1/(c2n+1 c2n+2 ), n = 1, 2, . . ., esta
fracción se transformaba en una de las fracciones continuas de Jacobi y, además, que si a k = 0,
para todo k ≥ n+1, entonces la expresión anterior se transformaba en una función racional f n(z)
(1)
1 pn−1 (z)
de la forma fn(z) = a1 pn (z)
, donde los polinomios denominadores pn (z) y los numeradores
(1)
pn−1 (z) son soluciones de la relación de recurrencia a tres términos
10
Thomas Stieltjes
lo cual se puede interpretar como una versión primitiva del fa-
moso teorema de Favard demostrado antes por O. Perron (1929),
A. Wintner (1929) y M. H. Stone (1932), J. Sherman (1935)
y I. P. Natanson (1935) indistintamente que asegura lo siguien-
te:
Teorema: (Favard 1935) Supongamos que una sucesión de polinomios (pn)n satisface una re-
lación de recurrencia a tres términos de la forma:
zpn (z) = an+1 pn+1 (z) + bnpn (z) + anpn−1 (z), n≥0,
con ak+1 > 0 y bk ∈ R (k = 0, 1, 2, ...) y las condiciones iniciales p−1 (z) = 0 y p0(z) = 1.
Entonces, dichos polinomios pn son ortonormales en L2 (α), siendo α cierta medida positiva
sobre la recta real, o sea, existe una función real no decreciente α con un número infinito de
puntos de crecimiento efectivo tal que, para todo n, m = 0, 1, 2, ... se tiene que:
Z ∞
pn(x)pm (x)dα(x) = δmn ,
−∞
11
Debemos destacar que Chebyshev obtuvo numerosos resultados sobre los polinomios orto-
gonales. En 1859, desde diferentes consideraciones, estudió otros sistemas de polinomios orto-
gonales como los de Hermite y Laguerre. Sin embargo, él no los introdujo a partir de la relación
de ortogonalidad
R b sino a partir del desarrollo en serie de potencias para las fracciones continuas
de la forma a ρ(x)dx
z−x
. Chebyshev también estudió el problema de momentos y fórmulas de cua-
dratura e introdujo la primera familia de polinomios discretos: los ya mencionados polinomios
discretos de Chebyshev.
Por estas razones, tanto a Stieltjes como a Chebyshev se les considera los padres de la teorı́a
de polinomios ortogonales que estaba por llegar a principios del siglo XX, y que se consolidó en
1939 con la aparición de la monografı́a Orthogonal Polynomials de Gabor Szegő [17]. En esta
excelente monografı́a, aparte de presentar una teorı́a general sobre polinomios ortogonales, se
incluyen gran cantidad de resultados sobre las familias clásicas y se inicia la teorı́a de Szegő de
polinomios sobre la circunferencia unidad.
12
3. Los polinomios clásicos.
3.1. La ecuación diferencial hipergeométrica.
Nuestro objetivo será estudiar los polinomios ortogonales clásicos definidos sobre el eje
real. Vamos a usar el punto de vista desarrollado por Nikiforov y Uvarov en su libro [15], o
sea, vamos a definir los polinomios ortogonales clásicos como las soluciones polinómicas de la
siguiente ecuación diferencial de segundo orden:
σ(x)y 00 + τ (x)y 0 + λy = 0, (3.1)
donde σ y τ son polinomios de grados a lo más 2 y 1, respectivamente. Es decir, diremos que
una familia de polinomios ortogonales (Pn)n es clásica si el grado de cada Pn es exactamente n
y se tiene que Z b
Pn(x)Pm (x)ρ(x)dx = δnm d2n , ∀n, m ≥ 0,
a
o equivalentemente, que para todo n ≥ 0
Z b
xk Pn (x)ρ(x)dx = 0, ∀k ≤ n,
a
y distinto de dero para k = n. Para probar la equivalencia entre las dos fórmulas anteriores
basta usar el hecho de que como el grado de Pn es exactamente n, (Pn)n forma una base del
espacio de los polinomios y por tanto cualquier polinomio, y en particular xk se puede expresar
como una combinación lineal de los mismos.
m−1
X (3.2)
0 m(m−1) 00
τm (x) = τ (x) + mσ (x), µm = λ + τi0(x) 0
= λ + mτ (x) + 2
σ (x) .
i=0
Para probarlo usemos la inducción. Derivando una vez la ecuación (3.1) tenemos
σy100 + [τ (x) + σ 0(x)]y10 + (λ + τ 0)y1 = 0.
Llamando τ1(x) = τ (x) + σ 0 (x) y µ1 = λ + τ 0, obtenemos
σy100 + τ1(x)y10 + µ1y1 = 0,
donde obviamente σ y τ1 son polinomios de grados a lo más 2 y 1, respectivamente. Suponiendo
que las m − 1 derivadas satisfacen entonces la ecuación
00 0
σ(x)ym−1 + τm−1 (x)ym−1 + µm−1 ym−1 = 0, (3.3)
13
y derivando obtenemos
00 0
σ(x)ym + τm (x)ym + µm ym = 0,
(3.4)
0 0
τm (x) = τm−1 (x) + σ (x), µm = µm−1 + τm−1 .
Luego
τm (x) = τm−1 (x) + σ 0(x) = τm−2 (x) + 2σ 0 (x) = · · · τ0 (x) + mσ 0(x), τ0(x) = τ (x).
de donde deducimos m
X
0
µm − µ 0 = τk−1 , µ0 = λ.
k=1
0 0 00
Usando ahora que τk−1 = τ + (k − 1)σ , obtenemos el resultado deseado.
Una propiedad muy importante de la ecuación hipergeométrica es que toda solución de (3.2)
es necesariamente de la forma ym = y (m) siendo y solución de (3.1).
0
y supongamos que yk no se puede expresar como yk−1 , siendo yk−1 solución de la ecuación
k−2
!
X
00
σ(x)yk−1 + [τ (x) + (k − 1)σ 0(x)]yk−1
0
+ λ+ τi0 yk−1 = 0.
i=0
Esta propiedad es muy importante pues nos permite encontrar una fórmula explı́cita para
los polinomios que satisfacen la ecuación (3.1).
1
Esta propiedad fue observada por Nikiforov y Uvarov, ver e.g. [15, Capı́tulo I, §2].
14
3.2. La ecuación en forma autoadjunta y sus consecuencias.
Comenzaremos escribiendo (3.1) y (3.2) en su forma simétrica o autoconjugada:
donde ρ y ρm son funciones de simetrización que satisfacen las ecuaciones diferenciales de primer
orden (conocidas como ecuaciones de Pearson):
Teorema 3.1 Las soluciones polinómicas de la ecuación (3.2) se expresan mediante la fórmula
de Rodrigues
Anm Bn dn−m
Pn(m) (x) = [ρn (x)], (3.7)
ρm (x) dxn−m
donde Bn = Pn(n) /Ann y2
n!
m−1
Y
Anm = Am (λ) = [τ 0 + 21 (n + k − 1)σ 00 ]. (3.8)
λ=λn (n − m)! k=0
Demostración: Para demostrar el teorema vamos a escribir la ecuación autoconjugada para las
derivadas de la siguiente forma
1
ρm (x)ym = − [ρm+1 (x)ym+1 ]0 ,
µm
luego
m−1
Y
Am dn−m
ρm (x)ym = [ρn (x)yn] , Am = (−1)m µk , A0 = 1.
An dxn−m
k=0
(n)
Como estamos buscando soluciones polinómicas, y ≡ Pn, tenemos que Pn es una constante;
(m)
por tanto, para las derivadas de orden m, Pn , obtenemos la expresión
Anm Bn dn−m
Pn(m) (x) = [ρn (x)],
ρm (x) dxn−m
(n)
donde Anm = Am (λ) y Bn = Pn(n)/Ann . Como Pn es una constante, de (3.2) obtenemos
λ=λn
que µn = 0, luego, usando la expresión (3.2) µn = λn + nτ 0(x)+n(n − 1)σ 00 (x)/2 = 0 deducimos
que el valor de λn en (3.1) se expresa mediante la fórmula3
n(n − 1) 00
λ ≡ λn = −nτ 0 − σ . (3.10)
2
Q
2
Usando la expresión (3.10) podemos obtener una expresión alternativa A nm = (−n)m m−1 λn+k
k=0 (n+k) .
3
Esta misma expresión se puede obtener también sustituyendo en (3.1) el polinomio de grado n e igualando
los coeficientes de xn .
15
Sustituyendo (3.10) en (3.2) obtenemos el valor de µnm = µm (λn)
µnm = µm (λn) = −(n − m)[τ 0 + 12 (n + m − 1)σ 00 ], (3.11)
Q m−1
de donde, usando que Anm = Am (λn) = (−1)m k=0 µnk , deducimos el valor de la constante
Anm .
Hasta ahora sólo nos ha interesado encontrar soluciones polinómicas de la ecuación dife-
rencial (3.1). Si también queremos que dichas soluciones sean ortogonales tenemos que exigir
algunas condiciones complementarias. Veamos cómo a partir de las ecuaciones diferenciales si-
metrizadas (3.5) podemos demostrar la ortogonalidad de las soluciones polinómicas respecto a
la función peso ρ.
k
Teorema 3.2 Supongamos que x σ(x)ρ(x) = 0, para todo k ≥ 0. Entonces las soluciones
x=a,b
polinómicas Pn de la ecuación (3.1) constituyen una SPO respecto a la función peso ρ definida
por la ecuación [σ(x)ρ(x)]0 = τ (x)ρ(x), o sea, se cumple que:
Z b
Pn (x)Pm(x)ρ(x)dx = δnm d2n , (3.13)
a
Z b
= [σ(x)ρ(x)Pm0 (x)]0Pn(x) − [σ(x)ρ(x)Pn0 (x)]0Pm (x) dx =
a
P (x) Pm (x)
= σ(x)ρ(x) n0
= σ(x)ρ(x)W [Pn(x), Pm (x)] .
Pn(x) Pm0 (x) x=a,b x=a,b
16
Pero el Wronskiano W (Pn, Pm ) es un polinomio en x; por tanto, si exigimos la condición de
que xk σ(x)ρ(x) se anule en x = a y x = b (para todo k ≥ 0) obtendremos (λn 6= λm ) que los
polinomios Pn y Pm son ortogonales respecto a la función peso ρ. Aquı́ debemos destacar que
a y b se suelen escoger de tal forma que ρ sea positiva en el intervalo [a, b]. Una elección puede
ser tomar a y b como las raı́ces de σ(x) = 0, si éstas existen [15].
(k)
De forma análoga, utilizando la ecuación (3.5) para las derivadas yk ≡ Pn , se puede demos-
trar que las k−ésimas derivadas de los polinomios hipergeométricos también son ortogonales,
es decir, que Z b
Pn(k) (x)Pm(k)(x)ρk (x)dx = δnm d2kn . (3.14)
a
Finalmente, para calcular la norma dn de los polinomios podemos utilizar la fórmula de
Rodrigues que, sustituyéndola en (3.13) e integrando por partes, nos da:
Z b
2 n
dn = Bn (−1) n!an σ n (x)ρ(x)dx. (3.15)
a
Teorema 3.3 Los polinomios ortogonales satisfacen una relación de recurrencia a tres térmi-
nos de la forma
xPn(x) = αn Pn+1 (x) + βn Pn(x) + γn Pn−1 (x), (3.16)
donde
an bn bn+1 cn − αn cn+1 bn an−1 d2n
αn = , βn = − , γn = − βn = , (3.17)
an+1 an an+1 an−1 an−1 an d2n−1
donde an, bn y cn son los coeficientes del desarrollo Pn (x) = an xn + bn xn−1 + cn xn−2 + · · ·, y dn
es la norma de los polinomios.
Demostración: Utilizando que la sucesión (Pn)n es una base del espacio de los polinomios,
tenemos que el polinomio xPn(x) de grado n + 1 se puede desarrollar en serie de Fourier:
n+1 Rb
X xPn(x)Pk(x)ρ(x)dx
xPn(x) = cnk Pk (x), cnk = a 2
.
k=0
d n
Pero cnk = 0 para todo 0 ≤ k < n − 1, de donde se concluye que la SPO satisface una relación
de recurrencia a tres términos de la forma
17
Calculemos una expresión general para los coeficientes αn y βn . Para ello necesitamos co-
nocer los coeficientes principales an y bn del polinomio Pn (Pn(x) = an xn + bn xn−1 + · · ·).
(n)
Para calcular an tenemos que, por un lado Pn (x) = n!an y por el otro, utilizando la fórmula
(n)
de Rodrigues (3.7) Pn (x) = Bn Ann , por tanto,
Y n−1
Bn Ann
an = = Bn [τ 0 + 21 (n + k − 1)σ 00 ]. (3.20)
n!
k=0
0
(3.23)
n(n − 1)[τn−2 (0)τn−1 (0) + σ(0)τn−1 ]
=− 0
an .
τn−1 (λn − λn−2 )
Luego nos resta sustituir la expresión anterior en la fórmula (3.17)
cn − αncn+1 bn
γn = − βn .
an−1 an−1
Como un corolario de (3.16) se obtiene la conocida fórmula de Christoffel-Darboux:
Teorema 3.4 Si (Pn)n es una sucesión de polinomios ortogonales que satisface la relación de
recurrencia a tres términos (3.16). Entonces se cumple que:
Xn
Pm (x)Pm (y) αn Pn+1 (x)Pn(y) − Pn+1 (y)Pn (x)
Kern (x, y) ≡ 2
= 2 , n ≥ 1. (3.24)
m=0
d m d n x − y
4
En muchos casos el cálculo de la norma es algo engorroso.
18
Demostración: La demostración de este resultado es muy sencilla. La idea es la siguiente: escri-
bamos la relación (3.16) para las sucesiones de polinomios (Pn)n y (Pn)n:
donde αk , βk y γk vienen dados por la fórmula (3.19). Multiplicando la primera ecuación por
Pk (y), la segunda por Pk (x) y substrayendo ambas obtenemos:
Pk (x)Pk(y)
(x − y) = Ak − Ak−1 ,
d2k
donde
αk
Ak = [Pk+1 (x)Pk(y) − Pk+1 (y)Pk (x)].
d2k
Sumando esta expresión desde k = 0 hasta k = n y teniendo en cuenta que el segundo miembro
es una suma telescópica obtenemos el resultado deseado.
n
X
Demostración: La demostración es inmediata. Como p(x) ∈ Pn , entonces p(x) = ck Pk (x),
k=0
luego
Z bX
n Xn Xn X n Z Xn
Pm (x)Pm (y) ck Pm (y) b
ck Pk (x) 2
dx = 2
Pk (x)Pm(x)dx = ck Pk (y) = p(y).
a k=0 m=0
d m k=0 m=0
d m a k=0
Los polinomios núcleos son útiles en distintos contextos de la teorı́a de polinomios ortogo-
nales. Además de tener la notable propiedad reproductora (3.26) son la solución del siguiente
problema extremal.
Teorema 3.5 Sea ρ una función no negativa en (a, b). Sea Πn el espacio de los polinomios
p(x) de grado a lo sumo n tales que p(x0) = 1, x ∈ (a, b). Entonces
Z b
1
mı́n p2 (x)ρ(x)dx = ,
p∈Πn a Kern (x0, x0)
Kern(x, x0)
y se alcanza para pmin (x) = , donde Kern denota a los polinomios núcleos de los
Kern (x0, x0 )
correspondientes polinomios ortogonales respecto a ρ.
19
Demostración: Usando que los polinomios ortogonales son una base del espacio de los polinomios
Xn Z b X n
Pk (x) 2
tenemos p(x) = ck , de donde p (x)ρ(x)dx = c2k . Por otro lado, usando la
dk a
k=0 k=0
X n
Pk (x0)
condición p(x0) = 1 tenemos p(x0) = ck . Luego, usando la desigualdad de Cauchy-
k=0
d2k
Bunyakovsky tenemos
n
! n
! n
!
X X P k (x 0 ) 2 X
1≤ c2k 2
=⇒ c2k ≤ (Kern (x0, x0))−1 ,
m=0
dk
k=0 k=0
y la igualdad sólo tiene lugar si ck = λPk (x0), de donde se sigue que λ = (Kern(x0, x0 ))−1 , y por
Z b
1
tanto mı́n p2 (x)ρ(x)dx = mı́n c2k = y se alcanza para ck = Pk (x0) (Kern (x0, x0))−1 .
p∈Πn a p∈Πn Kern (x0, x0 )
Teorema 3.6 Supongamos que ρ(x) es positiva en el interior del intervalo (a, b). Entonces:
1. Todos los ceros de Pn son reales, simples y están localizados en (a, b).
3. Denotemos por xn,j a los ceros del polinomio Pn, (consideraremos en adelante que xn,1 <
xn,2 < · · · < xn,n ). Entonces:
Demostración: Sin pérdida de generalidad consideraremos el caso cuando los P n son mónicos,
es decir, Pn(x) = xn + · · ·. Como
Z b
Pn(x) · 1ρ(x)dx = 0,
a
entonces indica que Pn cambia de signo dentro de (a, b). Denotemos por x1, ..., xk los ceros de
Pn de multiplicidad impar que están dentro del intervalo (a, b) y sea p el polinomio p(x) =
(x − x1) · · · (x − xk ). Es evidente que p(x)Pn(x) > 0, en (a, b). Luego
Z b
p(x)Pn(x)ρ(x)dx > 0,
a
20
Al ser xn+1,j y xn+1,j+1 dos ceros consecutivos del polinomio Pn+1 , por el teorema de Rolle
0
Pn+1 se anula al menos una vez en el interior del intervalo Ij = (xn+1,j , xn+1,j+1 ). Ahora bien,
0 0
al ser los ceros de Pn+1 simples, entonces los signos de Pn+1 (xn+1,j ) y Pn+1 (xn+1,j+1 ) son no
nulos y distintos por lo que de la desigualdad obtenida se deduce que los signos de P n(xn+1,j ) y
Pn(xn+1,j+1 ) también son no nulos y distintos entre sı́. Luego, el teorema de Bolzano nos asegura
que Pn se anula al menos una vez en el intervalo Ij = (xn+1,j , xn+1,j+1 ). Pero hay precisamente
n intervalos Ik y Pn sólo tiene n ceros, entonces existe un único cero de Pn entre dos ceros
consecutivos de Pn+1 .
3. Si escribimos la fórmula (3.7) para el polinomio de grado n+1, utilizando que [σ(x)ρ n(x)]0
= τn (x)ρn(x) concluimos
21
o, equivalentemente, usando las expresiones explı́citas para los coeficientes de la relación
de recurrencia obtenemos
σ 00 λn λn λ n γn
α̃n = n αn , β̃n = 0 0
[τ (0)σ 00 − τ 0σ 0 (0)] = τn(βn ), γ̃n = . (3.31)
2 τnτn−1 nτn0 n
P0 (x)
5. Sea Qn (x) ≡ n+1 n+1
. Entonces los polinomios ortogonales mónicos Pn(x) = xn + · · ·,
soluciones de la ecuación (3.1), satisfacen la siguiente relación de estructura:
donde
Z b
1 0
cnm = Pn (x)Pm+1 (x) σ(x)ρ(x) dx = 0, ∀m ≤ n − 3,
(m + 1)(d0m )2 a | {z }
ρ1 (x)
donde hemos usado la fórmula de estructura (3.29) ası́ como que los polinomios son móni-
cos.
nβ̃n (n − 1)α̃n−1 γn
δn = , n = . (3.33)
λn λn−1
22
3.5. Representación integral y función generatriz.
Supongamos que ρn(z) = ρ(z)σ n(z) es una función analı́tica en el interior y la frontera
del recinto limitado por cierta curva cerrada C del plano complejo que rodea al punto z = x.
Entonces, utilizando la fórmula integral de Cauchy obtenemos:
Z
1 ρn (z)
ρn (x) = dz, (3.34)
2πi C z − x
Como aplicación de la fórmula integral encontremos las funciones generatrices de los polino-
mios clásicos. El objetivo es, dada una sucesión númerica (An)n y una sucesión de polinomios
(Pn)n encontrar una función Φ(x, t) tal que,
∞
X
Φ(x, t) = An Pn (x)tn. (3.36)
n=0
Obviamente la serie anterior puede no converger prefijado un valor cualquiera del parámetro
t, por ello asumiremos que t es lo suficientemente pequeño para que la serie converja en una
región de las x lo suficientemente amplia.
Escojamos Bn de forma que Bn n!An = 1 para todo n. En esas condiciones, usando que para
|σ(z)t| < |z − x| la serie
X∞ n
σ(z)t 1
= ,
z−x σ(z)t
n=0 1−
z−x
tenemos Z
1 ρ(z)
Φ(x, t) = dz.
2πi ρ(x) C z − x − σ(z)t
Ahora bien, σ es un polinomio de grado a lo sumo 2, luego el integrando tiene, en general, dos
ceros. Para t → 0 un cero es obviamente z = x, luego el otro deberá tender a infinito asi que
escogiendo t suficientemente pequeño y el contorno lo suficiente cercano a x tendremos usando
el teorema de los residuos:
1 ρ(ξ)
Φ(x, t) = ,
ρ(x) 1 − σ 0 (ξ)t
donde ξ es e único cero cercano a z de la ecuación z − x − σ(z)t.
23
3.6. Los teoremas de caracterización
En este apartado vamos a profundizar en uno de los aspectos importantes de la teorı́a
clásica de polinomios ortogonales: ortogonales: Los teoremas de caracterización. Comenzaremos
dando la definición de polinomios ortogonales clásicos:
Definición 3.1 Sea la sucesión de polinomios ortogonales (Pn)n. Se dice que (Pn)n es una
sucesión de polinomios ortogonales clásica si la sucesión de sus derivadas (Pn0 )n es ortogonal.
Esta definición se debe a Sonin que fue además el primero en en probar en 1887 que las únicas
familias que satisfacı́an dicha dicha propiedad eran los polinomios de Jacobi, Laguerre y Hermite
(y más adelante, ya en el siglo XX, los polinomios de Bessel) aunque redescubierta por Hahn
en 1935. Nótese que la definición es aparentemente ambigua pues no se dice nada de la medida
de ortogonalidad de los polinomios ni de sus derivadas, no obstante en ella está contenida toda
la informacón necesaria para encontrar a dichas familias. En este apartado sólo consideraremos
el caso cuando la medida es positiva y está soportada en el eje real, es decir excluiremos el caso
Bessel. Además por sencillez vamos a dar una definición equivalente (como probaremos más
adelante).
donde (a, b) es cierto intervalo de la recta real donde ρ > 0. Diremos que una familia de
polinomios ortogonales (Pn)n es clásica si es ortogonal respecto a la función ρ solución de la
ecuación (3.37).
Nuestra nueva definición es ahora más concreta pues nos está diciendo cual es la medida de
ortogonalidad. Ante todo nótemos que hemos impuesto que τ (x) = Ax + B sea de grado uno
(A 6= 0), luego tenemos sólo tres grados de libertad:
b−a a+b
1. σ(x) = (x − a)(b − x), x ∈ [a, b] que haciendo el cambio de variables x = 2
t + 2
podemos escribir en el intervalo [−1, 1], σ(x) = 1 − t2.
3. σ(x) = 1, x ∈ R.
24
Sea α = − A+B
2
− 1 y β = − A−B2
− 1, luego A = −(α + β + 2), B = β − α, por tanto para
nuestra primera familia tendremos
La restrición α, β > − 12 se debe a la imposición de que los momentos de la fución peso ρ son
R1
finitos, es decir que para todo k ≥ 0 µk = −1 xk (1 − x)α(1 + x)β dx < +∞. Nótese además que
σ(x)ρ(x) = 0 para x = a y x = b.
Caso 3. Este caso es el más sencillo y se puede reducir6 al caso σ(x) = 1, τ (x) = −2x
Z Z
τ 2
dx = −2xdx = −x2 + C, =⇒ ρ(x) = e−x .
σ
Luego
2
σ(x) = 1, τ (x) = −2x, ρ(x) = e−x , I = R. (3.40)
Nótese además que σ(0)ρ(0) = 0 lı́m xk σ(x)ρ(x) = 0.
x→±∞
donde hemos derivado el integrando y usado la ecuación de Pearson. Como sabemos que σ(0) =
0 y que los momentos están acotados, tenemos que existe el lı́mite de la última integral y por
tanto el lı́mite lı́mx→b xk σ(x)ρ(x) = Ak , |Ak | < +∞. Ahora bien
5
Nótese que en el caso general τ (x) = Ax + B obtendrı́amos ρ(x) = eAx xB−1 de donde la restricción de que
los momentos sean finitos implica necesariamente A < 0. Lo mismo ocurre en el caso 3 cuando σ = 1.
6
Nuevamente A < 0 viene impuesto por ser los momentos finitos y obviamente B = 0 siempre se puede hacer
considerando el correspondiente cambio de variables.
25
de donde deducimos que Ak = 0.
Los polinomios ortogonales definidos mediante (3.38), (3.39) y (3.40) se denominan polino-
mios de Jacobi, Laguerre y Hermite, respectivamente.
Proposición 3.2 Si (Pn)n es una familia clásica según la definción 3.2 entonces la sucesión
(Pn0 )n es una familia de polinomios ortogonales respecto a σ(x)ρ(x).
donde hemos usado grado τ = 1, la ecuación (3.37) e integrado por partes. Ası́, para todo k < n
Z b Z b
0= Pn0 (x)xk−1[σ(x)ρ(x)]dx + (k − 1) Pn (x)[xk−2σ(x)]ρ(x)dx,
a a
con grado τ1 = 1.
(k)
Corolario 3.2 Si (Pn)n es clásica entonces (Pn )n también es clásica y además es ortogonal
respecto a la función ρk (x) = σ k (x)ρ(x) que es solución de la ecuación de Pearson
Proposición 3.3 Si (Pn)n es una familia clásica entonces (Pn)n es solución de la ecuación
diferencial lineal de segundo orden
00 0 0 σ 00
σ(x)Pn (x) + τ (x)Pn(x) + λnPn(x) = 0, λn = −n τ + (n − 1) . (3.42)
2
26
Demostración: Como (Pn)n es clásica entonces sus derivadas son también clásicas y además
para todo k < n usando (3.41)
Z b Z b
0 k 0
0= Pn(x)(x ) [σ(x)ρ(x)]dx = − xm [Pn0 (x)σ(x)ρ(x)]0dx
Za b a
Luego σ(x)Pn00 (x) + τ (x)Pn0 (x) = −λn Pn, es decir σ(x)Pn00 (x) + τ (x)Pn0 (x) es, salvo constante
multiplicativa, el polinomio Pn(x). Finalmente, para encontrar λn igualamos las potencias xn
en (3.42).
(k)
Corolario 3.3 Si (Pn)n es una familia clásica entonces (Pn )n es solución de la ecuación
diferencial lineal de segundo orden
y por tanto τ es un polinomio de grado exactamente uno. Luego, las soluciones de la ecuación
diferencial (3.42) que se expresan mediante la forma (3.44) son ortogonales respecto a una
función ρ(x) es solución de la ecuación (3.37). Hemos probado la siguiente proposición
Proposición 3.4 Si una familia de polinomios ortogonales (Pn)n se expresa mediante la fórmu-
la de Rodrigues (3.44), entonces (Pn)n es clásica.
El conjunto de todas las proposiciones y corolarios de este apartado se puede resumir en el
siguiente Teorema de caracterización.
Teorema 3.7 Los siguientes enunciados son equivalentes:
1. (Pn)n es una familia clásica según la definición 3.2
27
3.7. Los Polinomios de Hermite, Laguerre y Jacobi.
3.7.1. Parámetros Principales.
Comenzaremos escribiendo los principales parámetros de las sucesiones de polinomios
ortogonales mónicos clásicos (SPOMC). Para más detalles ver [6, 15]. Los polinomios ortogo-
nales en la recta real, que son solución de una ecuación del tipo (3.1), se pueden clasificar en
tres grandes familias en función del grado del polinomio σ (τ siempre es un polinomio de grado
1) [15]. Cuando σ es un polinomio de grado cero los polinomios correspondientes se denomi-
nan Polinomios de Hermite Hn (x), cuando σ es de grado 1, Polinomios de Laguerre Lαn (x) y
cuando σ es de grado 2, Polinomios de Jacobi Pnα,β (x), respectivamente. En las tablas 2 y 3
están representados los principales parámetros de dichas familias, en las cuales (a) n denota al
sı́mbolo de Pochhammer
Para los polinomios σ se han escogido las llamadas formas canónicas. El caso de los polinomios
de Bessel [12, 8] no lo vamos a considerar por no ser éstos un caso definido positivo.
σ(x) 1 x 1 − x2
λn 2n n n(n + α + β + 1)
2
ρ(x) e−x xα e−x (1 − x)α (1 + x)β
α > −1 α, β > −1
2
ρn (x) e−x xn+α e−x (1 − x)n+α (1 + x)n+β
28
(−1)n Γ(n + α + 1) −n
Lαn (x) = 1 F1 x , (3.48)
Γ(α + 1) α+1
2n (α + 1)n −n, n + α + β + 1 1 − x
Pnα,β (x) = 2 F1 2 . (3.49)
(n + α + β + 1)n α+1
∞ ∞ tx
X (−1)n2n X (−1)n e− 1−t
n t2 −2tx
Hn(x)t = e , Lαn (x)tn = , (3.50)
n=0
n! n=0
n! (1 − t)α+1
∞
X (−1)n (α + β + 1)n 2α+β
Pnα,β (x)tn = , (3.51)
n=0
n! R(1 − 2t + R)α (1 + 2t + R)β
p
con R = 1 + 4t(t + x).
Pn (x) Hn (x) Lα
n (x) Pnα,β (x)
(−1)n (−1)n
Bn (−1)n
2n (n + α + β + 1)n
n(α − β)
bn 0 −n(n + α)
2n + α + β
√
n! π 2α+β+2n+1 n!Γ(n + α + 1)Γ(n + β + 1)
d2n Γ(n + α + 1)n!
2n Γ(n + α + β + 1)(2n + α + β + 1)(n + α + β + 1)2n
αn 1 1 1
β2
− α2
βn 0 2n + α + 1
(2n + α + β)(2n + 2 + α + β)
n 4n(n + α)(n + β)(n + α + β)
γn n(n + α)
2 (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1)
α̃n 0 0 −n
2(α − β)n(n + α + β + 1)
β̃n 0 n
(2n + α + β)(2n + 2 + α + β)
4n(n + α)(n + β)(n + α + β)(n + α + β + 1)
γ̃n n n(n + α)
(2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1)
2n(α − β)
δn 0 n
(2n + α + β)(2n + 2 + α + β)
4n(n − 1)(n + α)(n + β)
n 0 0 −
(2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1)
29
Casos particulares.
(0,0)
1. Los polinomios de Legendre Pn(x) = Pn (x).
Debido a que las funciones peso de los polinomios de Hermite y Gegenbauer son funciones
pares, podemos aplicar los resultados obtenidos en el apartado 2.7 que nos permiten obtener
las siguientes relaciones:
−1 1
H2m (x) = Lm 2 (x2), H2m+1 (x) = xLm
2
(x2) ,
30
Además, de la fórmula de Rodrigues se puede encontrar la siguiente propiedad de simetrı́a para
los polinomios de Jacobi:
Pnβ,α (−x) = (−1)nPnα,β (x). (3.57)
Como consecuencia de la representación hipergeométrica para los polinomios de Jacobi se de-
ducen las siguientes expresiones:
(−1)m−1 1 (−1)m 1
KerH
2m−1 (x, 0) = √ Lm−1
2
(x2), KerH
2m (x, 0) = √ Lm
2
(x2), (3.61)
(m − 1)! π (m)! π
2 Γ(m + 21 ) 2 Γ(m + 32 )
KerH
2m−1 (0, 0) = , KerH
2m (0, 0) = . (3.62)
π Γ(m) π Γ(m + 1)
• Núcleos de los polinomios de Laguerre:
(−1)n−1
KerLn−1 (x, 0) = (Lαn )0(x), (3.63)
Γ(α + 1)n!
n−1
X (α + 1)m (α + 1)n
KerLn−1 (0, 0) = = . (3.64)
m=0
Γ(α + 1)m! Γ(α + 2)(n − 1)!
• Núcleos de los polinomios de Jacobi:
KerJ,α,β
n−1 (x, 1) = (−1)
n+1 β,α d α+1,β
ηn dx Pnα,β−1 (x) = n(−1)n+1 ηnβ,α Pn−1 (x), (3.66)
donde por ηnα,β y ηnβ,α denotaremos las cantidades:
31
KerJ,α,β α,β α,β+1
n−1 (−1, −1) = ηn nPn−1 (−1) =
n−1
X Γ(β + m + 1)Γ(α + β + m + 1)(2m + α + β + 1)
= =
2α+β+1 k!Γ(β + 1)2Γ(α + m + 1) (3.68)
m=0
Γ(β + n + 1)Γ(α + β + n + 1)
= ,
2α+β+1 (n − 1)!Γ(β + 1)Γ(β + 2)Γ(α + n)
n−1
X (−1)m Γ(α + β + m + 1)(2m + α + β + 1)
KerJ,α,β
n−1 (−1, 1) = =
m=0
2α+β+1 m!Γ(β + 1)Γ(α + 1)
(3.69)
n−1
(−1) Γ(α + β + n + 1)
= .
2α+β+1 (n − 1)!Γ(β + 1)Γ(α + 1)
KerJ,α,β J,β,α
n−1 (1, 1) = Kern−1 (−1, −1).
Si utilizamos las relaciones (3.58)-(3.59) podemos encontrar para los núcleos otras fórmulas
equivalentes: " #
α,β
dPn (x)
KerJ,α,β α,β
n−1 (x, −1) = η̃n (1 − x) + n Pnα,β (x) , (3.70)
dx
" #
dPnα,β (x)
KerJ,α,β
n−1 (x, 1) = (−1)n+1 η̃nβ,α (1 + x) − n Pnα,β (x) , (3.71)
dx
(−1)nΓ(2n + α + β + 1)
η̃nα,β = − ,
2α+β+n+1 n!Γ(α + n + 1)Γ(β + 1)
(3.72)
(−1)nΓ(2n + α + β + 1)
η̃nβ,α = − α+β+n+1 .
2 n!Γ(α + 1)Γ(β + n + 1)
32
4. Los polinomios ortogonales clásicos de variable dis-
creta
4.1. La ecuación en diferencias de tipo hipergeométrico
En esta sección vamos a estudiar los polinomios ortogonales clásicos de variable discreta
definidos sobre el eje real. En el apartado anterior hemos considerado las soluciones polinómicas
de la ecuación diferencial hipergeométrica:
σ̃(x)y 00 + τ̃ (x)y 0 + λy = 0, (4.1)
donde σ̃ y τ̃ son polinomios de grados a lo más 2 y 1, respectivamente. Supongamos que que-
remos resolver númericamente la ecuación (4.1). La manera más sencilla consiste en discretizar
(4.1) en una red uniforme. Para ello dividimos el intervalo [a, b] donde queremos encontrar la
solución y aproximamos las derivadas primera y segunda mediante las expresiones
0 1 y(x + h) − y(x) y(x) − y(x − h)
y (x) ∼ + ,
2 h h
00 1 y(x + h) − y(x) y(x) − y(x − h)
y (x) ∼ − ,
h h h
Esquemáticamente estamos usando una red equidistante como la que se muestra en la figura 1.
Si sustituimos las expresiones anteriores para las derivadas en (4.1) obtenemos una ecuación en
x x x x x x x
a 6 o
S
S b
x-h x x+h
diferencias de la forma
1 y(x + h) − y(x) y(x) − y(x − h)
σ
e(x) − +
h h h
(4.2)
τe(x) y(x + h) − y(x) y(x) − y(x − h)
+ + + λy(x) = 0.
2 h h
Es sencillo comprobar que (4.2) aproxima la ecuación original (4.1) en una red uniforme con
paso ∆x = h hasta un orden de O(h2 ).
Con un cambio lineal de las variables x → hx, y de las funciones y(hx) → y(x), σ̃(hx)h −2 →
σ̃(x), τ̃ (hx)h−1 → τ̃ (x), la ecuación (4.2) puede ser reescrita en términos de los operadores en
diferencias finitas hacia delante y atrás con paso ∆x = h = 1. O sea,
σ(x)∆∇y(x) + τ (x)∆y(x) + λy(x) = 0, (4.3)
donde σ(x) = σ̃(x) − 12 τ̃ (x), τ (x) = τ̃ (x) y ∆ y ∇ son los operadores lineales definidos por:
∆f (x) = f (x + 1) − f (x), ∇f (x) = f (x) − f (x − 1).
que denominaremos operadores en diferencias finitas hacia delante y hacia atrás, respectiva-
mente.
33
Lema 4.1 Los operadores en diferencias finitas hacia delante y hacia atrás operadores cumplen
las siguientes propiedades:
1. ∆f (x) = ∇f (x + 1).
X n
n n
∆ [f (x)g(x)] = ∆k [f (x + n − k)]∆n−k [g(x)],
k=0
k
n
n n!
siendo k los coeficientes binomiales definidos por = .
k k!(n − k)!
5. Se cumplen las fórmulas
n
X
n n k
∇ [f (x)] = (−1) f (x − k),
k=0
k
y
n
X
n kn
∆ [f (x)] = (−1) f (x + n − k),
k
k=0
b−1
X b−1 Xb−1
f (xi)∇g(xi) = f (xi)g(xi) − g(xi − 1)∇f (xi).
a−1
xi =a xi =a
Para comprobar esta afirmación hacemos actuar el operador ∆, k veces consecutivas sobre
(4.3) encontramos que yk satisface una ecuación de la forma (µ0 = λ):
σ(x)∆∇yk + τk (x)∆yk + µk yk = 0,
(4.4)
τk (x) = τk−1 (x + 1) + ∆σ(x), µk = µk−1 + ∆τk−1 (x).
34
caso anterior y la omitiremos (ver e.g. [15, Capı́tulo II, §2.1]).
σ 00 2
σ(x) = x + σ 0(0)x + σ(0), τ (x) = τ 0x + τ (0), τk (x) = τk0 x + τk (0). (4.7)
2
Usando (4.5), deducimos que
σ 00 2
τk0 = τ 0 + σ 00 k, τk (0) = τ (0) + τ 0k + σ 0 (0)k + k . (4.8)
2
∆[σ(x)ρ(x)∇y] + λρ(x)y = 0,
(4.9)
∆[σ(x)ρk (x)∇yk ] + µk ρk (x)yk = 0,
35
En efecto, la ecuación ∆[σ(x)ρk (x)] = τk (x)ρk (x) la podemos reescribir, usando (4.4), de la
forma:
σ(x + 1)ρk (x + 1)
= τk (x) + σ(x)=τk−1 (x + 1) + σ(x + 1) =
ρk (x)
σ(x + 2)ρk−1 (x + 2)
= .
ρk−1 (x + 1)
ρk (x)
O sea, es una función periódica de perı́odo 1 que, sin pérdida de genera-
σ(x + 1)ρk−1 (x + 1)
lidad, podemos tomar igual a 1. Ello nos lleva a la relación ρk (x) = σ(x + 1)ρk−1 (x + 1), de
donde por inducción se sigue (4.11).
Teorema 4.1 Las soluciones polinómicas de la ecuación (4.4) se expresan mediante la fórmula
de Rodrigues
Ank Bn n−k
∆k Pn(x) = ∇ [ρn (x)], (4.12)
ρk (x)
donde Bn = Pn(n) /Ann y7
k−1
Y
n!
Ank = Ak (λn) = [τ 0 + 21 (n + m − 1)σ 00 ]. (4.13)
(n − k)! m=0
Demostración: Para encontrar una expresión explı́cita de las soluciones de la ecuación (4.3)
vamos a escribir la ecuación autoconjugada para las diferencias finitas de la siguiente forma
1
ρk (x)yk (x) = − ∆[σ(x)ρk (x)∇yk (x)] =
µk
1 1
=− ∇[σ(x + 1)ρk (x + 1)∇yk (x + 1)]= − ∇[ρk+1 (x)yk+1 (x)],
µk µk
Como estamos buscando soluciones polinómicas, y ≡ Pn, tenemos que ∆n Pn (x) es una cons-
tante. Por tanto, para las diferencias finitas de orden k, ∆k Pn (x), obtenemos la expresión
Ank Bn n−k
∆k Pn(x) = ∇ [ρn (x)],
ρk (x)
(n)
donde Ank = Ak (λ) |λ=λn y Bn = ∆n Pn /Ann . Como Pn = n!an es constante, de (4.4) se
deduce que µn = 0, luego λn + n∆τ (x) + n(n − 1)∆2 σ(x)/2 = 0, de donde obtenemos que el
autovalor λn de (4.3) es
n(n − 1) 00
λ ≡ λn = −nτ 0 − σ . (4.15)
2
7
Qm−1 λn+k
Usando la expresión (4.15) podemos obtener la expresión alternativa A nm = (−n)m k=0 (n+k) .
36
Nótese que ∆τ (x) = τ 0 y ∆2 σ(x) = σ 00 . Sustituyendo la expresión anterior (4.15) en (4.6)
obtenemos
Qk−1 el valor de µnk = µk (λn) (4.14). Para obtener Anm utilizamos la fórmula Ank =
(−1)k m=0 µnm , y valores de µnk obtenidos antes.
Aquı́, como en el caso “continuo”, también hemos asumido que µnk 6= 0 para k = 0, 1, . . . , n−
1. De la expresión explı́cita (4.14) deducimos que para que ello ocurra es suficiente que τ 0 +
nσ 00 /2 6= 0 para todo n = 0, 1, 2, . . .. Esto también se traduce en una condición de regularidad
[7].
Hasta ahora, como en el caso continuo, sólo nos ha interesado encontrar soluciones po-
linómicas de la ecuación en diferencias (4.3). Si también queremos que dichas soluciones sean
ortogonales tenemos que exigir algunas condiciones extra. Análogamente, a partir de las ecua-
ciones (4.9) podemos demostrar la ortogonalidad de las soluciones polinómicas respecto a la
función peso ρ.
Entonces las soluciones polinómicas Pn de la ecuación (4.3) son ortogonales, dos a dos, respecto
a la función peso ρ definida por la ecuación ∆[σ(x)ρ(x)] = τ (x)ρ(x), o sea, se cumple que:
b−1
X
Pn(xi)Pm (xi)ρ(xi) = δnm d2n , (4.18)
xi =a
donde, como antes, δnm es el sı́mbolo de Kronecker y dn denota la norma de los polinomios Pn.
Demostración: Sean Pn y Pm dos de las soluciones polinómicas de (4.3). Escribamos las ecua-
ciones simetrizadas para Pn y Pm ,
∆[σ(x)ρ(x)∇Pn(x)] + λnρ(x)Pn(x) = 0,
∆[σ(x)ρ(x)∇Pm(x)] + λm ρ(x)Pm(x) = 0.
37
Multiplicando la primera por Pm y la segunda por Pn, restando ambas, sumando en xi ∈ [a, b]
y utilizando la fórmula de la suma por partes obtenemos:
b−1
X
(λn − λm ) Pn(xi )Pm (xi)ρ(xi) =
xi =a
b−1
X
= ∆[σ(xi)ρ(xi)∇Pm (xi)]Pn(xi) − ∆[σ(xi )ρ(xi)∇Pn(xi)]Pm (xi) =
xi =a
P (x)
Pm (x)
= σ(x)ρ(x) n
= σ(x)ρ(x)WD [Pn(x), Pm (x)] .
∇Pn(x) ∇Pm (x) x=a,b
x=a,b
Teorema 4.3 Sea (Pn)n una familia de polinomios ortogonales en [a, b) (|a| < ∞), o sea, tales
que se cumple (4.18). Entonces, el cuadrado de la norma d2n de los polinomios Pn viene dada
por la fórmula
b−n−1
X
2 n 2
dn = (−1) Ann Bn ρn (s). (4.19)
s=a
El primer sumando, en virtud de (4.12) es proporcional a ρ1 (s) = σ(s + 1)ρ(s + 1) y, por tanto,
utilizando la condición de contorno (4.17), se anula. Reescribamos ahora el segundo sumando
haciendo el cambio de s → s − 1. Ello nos conduce a la expresión
b−2
X
d2n = −Bn [∆Pn(s)]∇n−1 [ρn (s)] .
s=a−1
38
Ahora utilizamos el hecho de que
luego
b−2
X
d2n = −Bn ∆[Pn (s)]∇ ∇n−2 ρn (s) .
s=a−1
Aplicando el proceso antes descrito de suma por partes, y utilizando la condición de contorno
(4.17), obtenemos la igualdad
b−k−1
X
d2n = (−1)k Bn ∆k [Pn (s)] ∇ ∇n−k−1 ρn (s) =
s=a−k
b−k−1
X
= (−1)k Bn ∆k [Pn (s)]∇n−k [ρn (s)].
s=a−k
Debemos destacar que una ligera modificación de la prueba del teorema anterior vale también
para el caso a = −∞ dando en ese caso el resultado correspondiente a tomar el lı́mite a → −∞.
Como conclusión de esta sección queremos destacar que por Polinomios Ortogonales de Va-
riable Discreta se entienden aquellos polinomios que satisfacen una relación de ortogonalidad
discreta, es decir de la forma (4.18), en vez de la integral habitual (3.13). Además son solu-
ción de una ecuación en diferencias (4.3), en vez de una diferencial (3.1). No obstante estos
polinomios están definidos para todos los valores de la variable x, y no sólo en los nodos de la
red xi . Es conocido que algunas soluciones de la ecuación discreta (4.3) satisfacen una ortogo-
nalidad continua. Aquı́ no vamos a considerar ejemplos de dichas familias, para más detalles
recomendamos consultar [14, 15].
Calculemos una expresión general para los coeficientes αn y βn . Para ello necesitamos co-
nocer los coeficientes principales an y bn del polinomio Pn (Pn(x) = an xn + bn xn−1 + · · ·).
8
Recuérdese que estamos interesados en el caso |a| < ∞.
39
Primero, notemos que ∆n [xn] = κn es constante. Por tanto,
κn+1 = ∆n+1 [xn+1 ] = ∆n [(x + 1)n+1 − xn+1 ] = (n + 1)κn.
Como κ1 = 1 obtenemos κn = n!. Luego, ∆n Pn(x) = n!an y coincide, como ya habı́amos
(n)
notado, con Pn . Además, utilizando el análogo discreto de la fórmula de Rodrigues (4.12),
∆n Pn(x) = Bn Ann y, por tanto, utilizando (4.13) obtenemos para an la expresión:
n−1
Y
an = B n [τ 0 + 12 (n + k − 1)σ 00 ], a0 = B 0 . (4.21)
k=0
40
4.5. Las fórmulas de estructura
Recordemos que para τn estamos utilizando el siguiente desarrollo en potencias (4.8)
τn (x) = τn0 x + τn(0), τn0 = ∆τ (x) + n∆2 σ(x) = τ 0 + nσ 00 . (4.24)
Si escribimos ahora (4.12) para el polinomio de grado n+1, utilizando la fórmula ∆[σ(x)ρ n(x)] =
τn (x)ρn(x) obtenemos:
Bn+1 n+1 Bn+1 n
Pn+1 (x) = ∇ [ρn+1 (x)] = ∇ [τn (x)ρn(x)] =
ρ(x) ρ(x)
Bn+1
= τn(x)∇n[ρn (x)] + nτn0 ∇n−1 ρn (x − 1) .
ρ(x)
−λn Bn n−1
Utilizando ahora que ∇Pn (x) = ∆Pn(x − 1) = ∇ [ρn (x − 1)], obtenemos la
σ(x)ρ(x)
fórmula de diferenciación:
λn Bn
σ(x)∇Pn(x) = τn(x)Pn(x) − Pn+1 (x) . (4.25)
nτn0 Bn+1
Si utilizamos la identidad ∆∇ = ∆ − ∇, junto a la ecuación en diferencias (4.3), la fórmula
anterior se puede escribir como
λn 0 Bn
[σ(x) + τ (x)]∆Pn(x) = [τn (x) − nτn ]Pn (x) − Pn+1 (x) .
nτn0 Bn+1
Aquı́, al igual que en el caso continuo, podemos utilizar la relación de recurrencia (3.16) para
despejar Pn+1 y obtener sendas expresiones que relacionan las diferencias ∆Pn y ∇Pn con los
polinomios Pn+1 , Pn y Pn−1 .
Nótese que los coeficientes α̃n , β̃n y γ̃n admiten las expresiones equivalentes
σ 00
α̃n = nαn ,
2
λn λn
β̃n = 0 0
[σ 00 ((n − 1) nσ 00 + 2 τ 0 ) + n (−2σ 0 (0) + (2n − 1) σ 00 ) τ 0] =
τn(βn ).
τnτn−1 nτn0
Al igual que en el caso continuo, los polinomios clásicos discretos satisfacen una tercera
fórmula de estructura.
41
Teorema 4.5 Sea Qn (x) ≡ ∆Pn+1 n+1 (x)
. Entonces los polinomios ortogonales mónicos Pn(x) =
n
x + · · ·, soluciones de la ecuación (3.1), satisfacen la siguiente relación de estructura:
Demostración: Realizaremos una prueba distinta a la del caso continuo que se adaptará muy
fácilmente al caso de las redes no uniformes.
∆σ(x)∆Pn(x) + σ(x)∆∇Pn(x) = α̃n ∆Pn+1 (x) + β̃n ∆Pn (x) + γ̃n ∆Pn−1 (x).
Vamos a transformar el miembro izquierdo eliminando el segundo sumando del mismo usando
la ecuación en diferencias (4.3), lo que nos da
[∆σ(x) − τ (x)]∆Pn(x) − λn Pn(x) = α̃n∆Pn+1 (x) + β̃n ∆Pn(x) + γ̃n ∆Pn−1 (x). (4.29)
ası́ que nos aparece el término x∆Pn(x). Para eliminarlo haremos uso de la relación de recu-
rrencia a la que convenientemente aplicaremos el operador ∆, es decir tenemos
donde hemos usado los valores explı́citos de α̃n , β̃n y γ̃n de los coeficientes de (4.26).
42
4.6. Representación integral y fórmula explı́cita
Supongamos que ρn es una función analı́tica en el interior y la frontera del recinto limitado
por la curva cerrada C del plano complejo que contiene a los puntos z = x, x − 1, . . . , x − n.
Entonces, utilizando nuevamente la fórmula integral de Cauchy obtenemos:
Z
1 ρn (z)
ρn (x) = dz. (4.30)
2πi C z − x
Mediante inducción es sencillo demostrar que
n 1 n!
∇ = ,
z−x (z − x)n+1
donde (x)m es, al igual que antes, el sı́mbolo de Pochhammer (3.45). Luego, de (4.30) obtenemos:
Z
n n! ρn(z)
∇ [ρn (x)] = dz,
2πi C (z − x)n+1
Teorema 4.6 Las soluciones polinómicas de la ecuación (4.3) admiten la siguiente represen-
tación integral Z
n!Bn ρn (z)
Pn(x) = dz, (4.31)
ρ(x) 2πi C (z − x)n+1
donde C es una curva cerrada del plano complejo que contiene a los puntos z = x, x−1, . . . , x−n
y tal que ρn es analı́tica en y dentro de la misma.
A partir de (4.31) podemos encontrar una fórmula explı́cita para calcular polinomios P n
de cualquier orden. Para ello es suficiente calcular los residuos de la función integrando, cuyos
únicos puntos singulares son polos simples, localizados en los puntos z = x − l, l = 0, 1, · · · , n
y cuyo valor es:
ρn (z) (−1)l ρn (x − l)
Res = .
(z − x)n+1 l!(n − l)!
Luego, (4.31) nos conduce a la siguiente expresión para los polinomios Pn [14, 15]:
Xn Xn
n!(−1)m ρn (x − m) n!(−1)n+m ρn (x − n + m)
Pn(x) = Bn = Bn . (4.32)
m=0
m!(n − m)! ρ(x) m=0
m!(n − m)! ρ(x)
n−m−1
Y m−1
Y
= [σ(x − l)] [σ(x + l) + τ (x + l)].
l=0 l=0
43
Luego, la fórmula (4.32) se puede reescribir de la forma:
Xn n−m−1 m−1
n!(−1)n+m Y Y
Pn(x) = Bn [σ(x − l)] [σ(x + l) + τ (x + l)]. (4.33)
m=0
m!(n − m)!
l=0 l=0
−1
Y
En las fórmulas anteriores se adopta el convenio f (l) ≡ 1.
l=0
El caso más general corresponde cuando σ y σ + τ son polinomios de grado dos de la forma
[16, 15]
σ(x) = A(x − x1)(x − x2), σ(x) + τ (x) = A(x − x̄1)(x − x̄2). (4.34)
Nótese que si el grado de σ es 2, entonces el de σ + τ es necesariamente 2 y además en este
caso ambos tienen el mismo coeficiente principal A.
Utilizando (4.33) se puede obtener una expresión para los polinomios como una serie hiper-
geométrica generalizada 3F2 .
Teorema 4.7 Las soluciones polinómicas de la ecuación (4.3) se pueden representar como
funciones hipergeométricas generalizadas (3.46)
−n, x1 + x2 − x̄1 − x̄2 + n − 1, x1 − x
Pn(x) = An B n (x1 − x̄1 )n (x1 − x̄2 )n 3 F2 1 , (4.35)
x1 − x̄1 , x1 − x̄2
donde x1, x2 y x̄1, x̄2 son los ceros de los polinomios σ y σ + τ , respectivamente definidos en
(4.34). Además,
λn = −An(x1 + x2 − x̄1 − x̄2 + n − 1). (4.36)
Demostración: Ante todo sustituimos (4.34) en (4.33). Un simple cálculo nos conduce a la
expresión
−n, x− x̄1 , x− x̄2
n n
Pn(x) = A Bn (−1) (x1 −x)n (x2 −x)n 3 F2 1 . (4.37)
x−x1 −n+1, x−x2 −n+1
Transformemos la expresión anterior en otra más “útil”. Para ello utilizaremos la fórmula de
transformación [14, Eq. (2.7.20), pág. 52]
−n, a , b (c − a)n −n, a , d − b
3 F2 1 = 3 F2 1 . (4.38)
c, d (c)n a−c−n+1 , d
Finalmente, haciendo uso otra vez de (4.38) pero ahora escogiendo los parámetros de la forma
a = x1 + x2 − x̄1 − x̄2 + n − 1, b = x − x̄1 , c = x2 − x̄1, y d = x1 − x̄1, la expresión anterior se
transforma en (4.35). Para obtener λn sustituimos en (4.15) los valores
44
que nos conducen a la expresión (4.36).
Nótese que, tanto (4.37) como (4.36) son invariantes con respecto a las permutaciones de
x1, x2 y x̄1, x̄2, respectivamente.
(n)
donde Sk son los números de Stirling de segunda especie [1].
Antes de estudiar en detalle las cuatro familias “discretas” clásicas debemos hacer dos breves
comentarios.
El primero está relacionado con las funciones generatrices en el caso discreto. A este res-
pecto debemos destacar que, en principio, la misma técnica que usamos en el capı́tulo anterior
es válida aunque su aplicación al caso general se hace bastante complicada y es más sencillo
resolver caso a caso. Por esa razón no incluiremos en este apartado ningún método para la
obtención de funciones generatrices en el caso discreto. De hecho la representación como fun-
ción hipergeométrica de los polinomios clásicos permite de manera “sencilla” obtener distintas
funciones generatrices para cada uno de los casos. Debemos también aclarar que de las cuatro
familias que consideraremos sólo dos, los polinomios de Meixner y Charlier, constituyen fami-
lias infinitas para las cuales tiene sentido la expresión (3.36). En el caso Hahn y Kravchuk las
correspondientes sumas son finitas. Ası́, por ejemplo, para los polinomios de Meixner y Charlier
tenemos, respectivamente, las expresiones
x X∞
t −x−γ (µ − 1)n γ,µ
1− (1 − t) = n
Mn (x)tn, (4.41)
µ n=0
n!µ
45
x ∞
X
t t (−µ)−n
e 1− = Cnµ(x)tn. (4.42)
µ n=0
n!
Para más detalle remitimos al lector a los magnı́ficos trabajos [6, 10].
El segundo comentario tiene que ver con los teoremas de caracterización. Ante todo, una
definición
donde (a, b) es cierto intervalo de la recta real donde ρ > 0. Diremos que una familia de
polinomios ortogonales (Pn)n es ∆-clásica, o clásica discreta, si dicha familia es ortogonal
respecto a la función ρ solución de la ecuación (4.43) anterior.
3. (Pn)n es ortogonal y la sucesión de sus k−ésimas diferencias (∆k Pn)n también es ortogonal
Nótese que prácticamente hemos demostrado el teorema pues hemos visto que de la ecuación
en diferencias se pueden deducir todas las demás implicaciones. Para cerrar el cı́rculo bastarı́a
probar que si se tiene la definición 4.1 entonces la sucesión de derivadas es también ortogonal y
que de ahı́ se deduce la ecuación en diferencias. Su prueba es totalmente análoga a la del caso
continuo y la omitiremos (se recomienda como ejercicio).
Los polinomios ortogonales discretos en la recta real, que son solución de una ecuación del
tipo (4.3), se pueden clasificar en cuatro grandes familias en función del grado del polinomio
σ (τ siempre es un polinomio de grado 1) [15]. Cuando σ es de grado 1 existen tres posibi-
lidades: si grado[σ + τ ] = 1 Polinomios de Meixner Mnγ,µ (x), definidos en el intervalo [0, ∞)
y los Polinomios de Kravchuk Knp (x), definidos en un intervalo [0, N ], respectivamente, y si
46
Cuadro 4: Clasificación de las SPO discretas clásicas.
σ(x) x(N + α − x) x x x
Np − x
τ (x) (β + 1)(N − 1) − (α + β + 2)x (µ − 1)x + µγ µ−x
1−p
p
σ+τ (x + β + 1)(N − 1 − x) µx + γµ − (x − N ) µ
1−p
n
λn n(n + α + β + 1) (1 − µ)n 1−p n
grado[σ + τ ] = 0 los Polinomios de Charlier Cnµ(x), definidos en [0, ∞). Cuando el grado de σ
es 2, se obtienen los Polinomios de Hahn hα,βn (x, N ) definidos en [0, N − 1]. En las tablas 4, 5 y
6 están representados los principales parámetros de dichas familias, donde, al igual que en las
tablas anteriores, (a)k es el sı́mbolo de Pochhammer.
47
(4.39) nos da
(−p)nN ! −n, −x 1
Knp (x) = 2 F1
. (4.46)
(N − n)! −N p
Finalmente, para los polinomios de Charlier obtenemos (ver la tabla 4) x1 = 0, B = −1/µ,
ası́ que usando la fórmula (4.40) obtenemos
µ n −n, −x 1
Cn (x) = (−µ) 2 F0 − µ . (4.47)
−
µn Γ(n + γ) (−p)n N !
Mnγ,µ (0) = , Knp (0) = , Cnµ(0) = (−µ)n , (4.48)
(µ − 1)n Γ(γ) (N − n)!
(−1)nΓ(β + n + 1)(N − 1)!
hα,β
n (0, N ) = , (4.49)
Γ(β + 1)(N − n − 1)!(n + α + β + 1)n
Γ(α + n + 1)(N − 1)!
hα,β
n (N − 1, N ) = . (4.50)
Γ(α + 1)(N − n − 1)!(n + α + β + 1)n
Como consecuencia de (4.23) se obtienen las fórmulas de diferenciación:
γ+1,µ
∆Mnγ,µ (x) = nMn−1 (x) (4.51)
p
∆Knp(x, N ) = nKn−1 (x, N − 1), (4.52)
µ
∆Cnµ (x) = nCn−1 (x), (4.53)
α+1,β+1
∆hα,β
n (x, N ) = nhn−1 (x, N − 1), (4.54)
Los polinomios de Hahn satisfacen una propiedad de simetrı́a que es consecuencia de la
representación hipergeométrica (o bien directamente de (4.16)):
hβ,α n α,β
n (N − 1 − x, N ) = (−1) hn (x, N ). (4.55)
Además, tiene lugar la relación:
n(n + β)(α + β + n)
x∇hα−1,β
n (x, N ) = nhα,β
n (x, N ) + hα,β (x, N ).
(N − n − 1)(α + β + 2n)(α + β + 2n − 1) n−1
48
Cuadro 5: Parámetros de las SPO Mónicas (an = 1).
Hahn Chebyshev
hα,β
n (x; N ) tn (x; N ) = h0,0
n (x; N )
(−1)n (−1)n
Bn
(α + β + n + 1)n (n + 1)n
n 2(β + 1)(N − 1) + (n − 1)(α − β + 2N − 2) n(N − 1)
bn − −
2 α + β + 2n 2
n!Γ(α + n + 1)Γ(β + n + 1)Γ(α + β + N + n + 1) n!2 (N + n)!(n + 1)−2
n
d2n
(α + β + 2n + 1)(N − n − 1)!Γ(α + β + n + 1)(α + β + n + 1)2n (2n + 1)(N − n − 1)!
(β + 1)(N − 1)(α + β) + n(2N + α − β − 2)(α + β + n + 1) N −1
βn
(α + β + 2n)(α + β + 2n + 2) 2
n(N − n)(α + β + n)(α + n)(β + n)(α + β + N + n) n (N − n2 )
2 2
γn
(α + β + 2n − 1)(α + β + 2n)2 (α + β + 2n + 1) 4(2n − 1)(2n + 1)
α̂n −n −n
2 2
n(−α − β − αβ − β − 2n − 2αn − 2βn − 2n + αN − βN ) n(n + 1)
β̂n −
(α + β + n + 1)−1 (α + β + 2n)(α + β + 2n + 2) 2
n(α + β + n)(α + β + n + 1)(α + n)(β + n)(α + β + N + n) n (n + 1)(N 2 − n2 )
2
γ̂n − −
(n − N )−1 (α + β + 2n − 1)(α + β + 2n)2 (α + β + 2n + 1) 4(2n − 1)(2n + 1)
α̃n −n −n
n(α + α2 2
+ β + αβ + 2n + 2αn + 2βn + 2n + αN − βN ) n(n + 1)
β̃n
(α + β + n + 1)−1 (α + β + 2n)(α + β + 2n + 2) 2
n(α + β + n)(α + β + n + 1)(α + n)(β + n)(α + β + N + n) n (n + 1)(N 2 − n2 )
2
γ̃n − −
(n − N )−1 (α + β + 2n − 1)(α + β + 2n)2 (α + β + 2n + 1) 4(2n − 1)(2n + 1)
n(α − β)(2N + α + β) n n
δn − −
2(α + β + 2n)(α + β + 2n + 2) 2 2
n(n − 1)(N − n)(α + n)(β + n)(α + β + N + n) n(n − 1)(N 2 − n2 )
n −
(α + β + 2n − 1)(α + β + 2n)2 (α + β + 2n + 1) 4(2n − 1)(2n + 1)
49
Cuadro 6: Parámetros de las SPO Mónicas (continuación).
50
Utilizando la fórmula de Christoffel-Darboux encontramos:
n−1
X Pk (x)Pk(0) 1 Pn(x)Pn−1(0) − Pn−1 (x), Pn(0)
Kern−1 (x, 0) ≡ = ,
k=0
d2k d2n−1 x
o la expresión equivalente:
" #
−Pn (0) (α̃n βn − β̃n )Pn(x) + (α̃n γn − γ̃n )Pn−1 (x)
Kern−1 (x, 0) = 2 .
dn−1 (α̃nγn − γ̃n ) x
Utilizando el método descrito anteriormente encontramos las siguientes expresiones para los
polinomios núcleos Kern−1 (x, 0) de los polinomios clásicos de variable discreta.
(−1)n−1 (1 − µ)n+γ−1
KerM
n−1 (x, 0) = ∇Mnγ,µ (x), (4.58)
n!
n−1
X (γ)m µm (1 − µ)γ
KerM
n−1 (0, 0) = . (4.59)
m=0
m!
• Núcleos de los polinomios de Kravchuk:
(p − 1)1−n
KerK
n−1 (x, 0) = ∇Knp (x), (4.60)
n!
n−1
X pm N !
KerK
n−1 (0, 0) = . (4.61)
m=0
(1 − p)m m!(N − m)!
• Núcleos de los polinomios de Charlier:
(−1)n−1
KerC
n−1 (x, 0) = ∇Cnµ (x), (4.62)
n!
n−1 m
X µ
KerC
n−1 (0, 0) = . (4.63)
m=0
m!
• Núcleos de los polinomios de Hahn:
KerH,α,β α−1,β
n−1 (x, 0) = κn (α, β)∇hn (x, N ),
(4.64)
KerH,α,β
n−1 (x, N − 1) = κn(β, α)(−1) n+1
∆hα,β−1
n (x, N ),
51
Además,
KerH,α,β
n−1 (0, 0) =
n−1
X (4.66)
Γ(m + β + 1)Γ(m + α + β + 1)(2m + α + β + 1)(N − 1)!2
= ,
m=0
m!Γ(β + 1)2 (N − m − 1)!Γ(α + m + 1)Γ(α + β + N + m + 1)
KerH,α,β
n−1 (0, N − 1) =
n−1
X (4.67)
(−1)m Γ(m + α + β + 1)(2m + α + β + 1)(N − 1)!2
= ,
m=0
m!Γ(β + 1)Γ(α + 1)(N − m − 1)!Γ(α + β + N + m + 1)
(−1)n(N − 1)!Γ(α + β + 2n + 1)
θn(α, β) = ,
n!Γ(α + n + 1)Γ(β + 1)Γ(α + β + N + n + 1)
(4.69)
n
(−1) (N − 1)!Γ(α + β + 2n + 1)
θn(β, α) = ,
n!Γ(α + 1)Γ(β + n + 1)Γ(α + β + N + n + 1)
respectivamente.
n−1
X hα,β α,β
m (x, N )hm (N − 1, N )
KerH,α,β
n−1 (x, N − 1) = =
d2m
m=0
n−1
X hβ,α β,α
m (N − 1 − x, N )hm (0, N )
= = Kerβ,α
n−1 (N − x − 1, 0),
d2m
m=0
donde hemos utilizado la propiedad de simetrı́a donde hemos utilizado la propiedad de simetrı́a (4.55).
Por tanto KerH,α,β
n−1 (x, 0), realizamos el cambio x ←→ N − x − 1 y α ←→ β obtenemos la fórmula para
H,α,β
el Kern−1 (x, N − 1). Finalmente, utilizando la identidad:
∇hβ,α α,β
n (N − x − 1, N ) = −∆hn (x, N ),
52
Hahn
hα,β
n (x, N )
Q
Q
Q
Q
Q
Q
+
? Q
s
Jacobi Meixner Kravchuk
Pnα,β (x) Mnγ,µ (x) Knp,A (x)
J @
J @
J @
J @
J
^ R
@
Laguerre Charlier
Lα
n (x) Cnµ (x)
J
^
J
Hermite
Hn (x)
53
54
5. Algunas aplicaciones
5.1. Aplicación a la Mecánica Cuántica
5.1.1. El oscilador armónico cuántico
Uno de los modelos más utilizados en la fı́sica cuántica es el oscilador armónico. Este
corresponde a la ecuación de Schrödinger
~2 00 1
− Ψ (x) + mω 2 x2Ψ(x) = EΨ(x). (5.1)
2m 2
p
El cambio de variables ξ = x/x0, x0 = ~/mω nos conduce a la ecuación
2E
Ψ00 (ξ) + (ε − ξ 2)Ψ(ξ) = 0, ε= . (5.2)
~ω
¿Cómo resolver esta ecuación?
Existen varias formas, pero nosotros vamos a dar una manera algorı́tmica sencilla para re-
solver este tipo de ecuacuaciones, o mejor, para reducirlas a la ecuación hipergeométrica que
estudiamos en el apartado anterior.
Generalmente, si buscamos en los textos de Mecánica Cuántica se nos dice que debemos
2
realizar el cambio Ψ(ξ) = e−ξ /2 y(ξ) que nos conduce a la ecuación
y 00 (ξ) − 2ξy 0 (ξ) + (ε − 1)y(ξ) = 0.
Un simple vistazo basta para reconocer la ecuación diferencial de los polinomios de Hermite,
aunque allı́ —en los textos— prefieren calcular explı́citamente la solución por el método de los
coeficientes indeterminados de Euler que ya mencionamos. Es decir, se busca la solución en
forma de serie ∞
X
y(ξ) = bk ξ k ,
k=0
y se sustituye en la ecuación diferencial y se igualan coeficientes. Eso lleva a la relación
2k + 1 − ε
bk+1 = bk ,
(k + 1)(k + 2)
luego, si imponemos que la serie sea finita —truncada—, es decir si ponemos ε = 2n + 1, n =
0, 1, 2, . . ., obtenemos los ya mencionados polinomios de Hermite. Finalmente, si consideramos
que ε 6= 2n + 1, es fácil descubrir que bk+2 /b2 ∼ 1/k, por tanto,
∞
X X∞
1 2k 2
bk ξ k ∼ ξ ∼ eξ ,
k=0 k=0
k!
que no es integrable. No obstante, este método, aunque general, es incómodo pues requiere
“adivinar” el cambio inicial y luego tratar cada ecuación por separado. Vamos a describir a
continuación como, usando el apartado anterior, podemos resolver de manera general muchos
de los problemas de la Mecánica Cuántica a partir de una ecuación más general: la ecuación
hipergeométrica generalizada:
τe(z) 0 σ
e(z)
u00 (z) + u (z) + 2 u(z) = 0,
σ(z) σ (z)
siendo τ (z) y τe(z) polinomios de grado a lo más uno y σ(z) y σ
e(z) polinomios de grado a lo
más dos.
55
5.1.2. La ecuación hipergeométrica generalizada.
La ecuación hipergeométrica generalizada en una ecuación lineal de segundo orden de la
forma
τe(z) 0 σ
e(z)
u00 (z) + u (z) + 2 u(z) = 0, (5.3)
σ(z) σ (z)
siendo τ (z) y τe(z) polinomios de grado a lo más uno y σ(z) y σ
e(z) polinomios de grado a lo
más dos.
Como σ es un polinomio de grado dos a lo sumo, impongamos que sea proporcional al propio
σ, es decir que σ(z) = λσ(z). Ello es posible pues σ tiene dos coeficientes indeterminados —los
coeficientes del polinomio π— y λ es una constante a determinar, lo que nos conduce a tres
ecuaciones —al igualar los coeficientes de σ y σ— con tres incógnitas. Hecho ésto, nuestra
ecuación se transforma en la ecuación hipergeométrica del apartado anterior
o, equivalentemente
Supongamos que k = λ − π 0 (z) es conocido, entonces tenemos una ecuación de segundo orden
para π(z), luego
s 2
0
σ (z) − τe(z) σ 0(z) − τe(z)
π(z) = ± −σ
e(z) + kσ(z), (5.7)
2 2
2
σ 0 (z) − τe(z)
pero π(z) ha de ser un polinomio de grado a lo sumo uno, luego el polinomio −
2
σ
e(z) + kσ(z) ha de ser un cuadrado perfecto, es decir su discriminante debe ser cero, lo que nos
12
En el caso de soluciones polinómicas, λ se debe expresar como función de σ y τ como ya hemos visto en el
apartado anterior.
56
conduce a una ecuación para encontrar k. El k encontrado lo sustituimos en (5.7) y obtenemos
π(z), el cual nos conduce directamente a λ = π 0 (z) + k.
Obviamente el método anterior da distintas soluciones en función del k que escojamos y del
convenio de signos en (5.7).
5.1.3. Ejemplos.
El oscilador armónico cuántico.
Como ejemplo apliquemos la técnica anterior al caso del oscilador armónico cuántico.
57
6
x2 R0,0 2
5
4 x2 R3,1 2
3
x2 R3,0 2
2
-4 -2 2 4 6 8
Estado fundamental (negro) y exitados n = 1, 2 (grises) del oscilador armónico.
El átomo de hidrógeno.
La componente radial del átomo de hidrógeno, F (r) = R(r)/r, satisface la ecuación —la
ecuación está en unidades adimensionales—
00 1 l(l + 1)
R (r) + 2 E − − R(r) = 0.
r r2
De las
√ dos posibilidades para el polinomio τ (r) seleccionaremos la que corresponde a k =
2 − −2E(2l + 1) de forma que τ < 0 y τ se anule13 en el interior de (0, ∞), luego —la otra
0
por tanto, √
λ = k + π 0 (r) = 2(1 − (l + 1) −2E).
Usando (5.4) tenemos
√
φ0 (r) l + 1 − −2Er √
= , =⇒ φ(r) = r l+1 e− −2Er
.
φ(r) r
Entonces la solución de nuestra ecuación es del tipo
√
R(r) = r l+1 e− −2Er
y(r),
13
Recordemos que τ (x) = cP1 (x), siendo P1 el correspondiente polinomio ortogonal.
58
siendo y la solución de la ecuación
√
ry 00 (r) + [2(l + 1) − −2Er]y 0 (r) + λy(r) = 0.
√
El cambio lineal x = 2 −2Er nos transforma la ecuación anterior en la ecuación
Ası́, √
R(r) = Nn,l xl+1 e−x/2 L2l+1
n (x), x = 2 −2Er,
con Nn,l tal que
Z ∞ Z ∞
2 n+l+1
R (r)dr = 1, =⇒ R2 (x)dx = 1.
0 2 0
Ahora bien,
Z ∞ Z ∞ Z ∞
2 2 2l+2 −x
R (x)dx = Nn,l x e (L2l+1
n (x))2dx = 2
Nn,l ρ(x)x(L2l+1
n (x))2dx =
0 0 0
2
= Nn,l βn d2n = Nn,l
2
2(n + l + 1)n!(n + 2l + 2)!,
donde hemos usado la relación de recurrencia (3.16) para el producto x L 2l+1
n (x) y luego la
ortogonalidad. Por tanto
s
1
Nn,l = 2
.
(n + l + 1) n!(2n + l + 1)!
0.07
x2 R0,0 2
0.06
0.05 x2 R3,1 2
0.04
0.03 x2 R3,0 2
0.02
0.01
5 10 15 20 25
Estado fundamental (negro) y exitado n = 1, l = 0, 1 (grises) del átomo de Hidrógeno
59
5.2. La teorı́a de representación de grupos
Comenzaremos con algunas definiciones e ideas propias de la teorı́a de grupos. Para una
introducción más rigurosa recomendamos al lector consultar algún texto especı́fico de teorı́a de
grupos —e.g. [4, 19, 20, 21]—.
1. (g1 ∗ g2 ) ∗ g3 = g1 ∗ (g2 ∗ g3) para todos g1 , g2, g3 de G, i.e., * es una operación asociativa,
Dentro de la teorı́a de grupos juegan un papel importante las clases de elementos conjugados.
Dos elementos g y g 0 de G se denominan conjugados si g 0 = g̃gg̃ −1 . Si g̃ recorre todo el grupo,
entonces puede ocurrir que aparezcan elementos iguales. Supongamos que g 1 y g2 son dos
elementos distintos conjugados a g. Entonces g1 y g2 son conjugados uno del otro ya que si
De esta forma se definen las clases de elementos conjugados de un grupo G como los conjuntos
constituidos por todos los elementos mutuamente conjugados.
Un grupo A conmutativo que tiene la “adición” (suma) como operación * se denomina anillo
si en A está definida la “multiplicación” y satisface la propiedad distributiva
Dado un anillo A y un campo K, se dice que A es un álgebra sobre K si, definida la operación
externa “·”, se cumple que para todos a, b de A y α, 1 de K, los elementos α · a, α · b pertenecen
aAy
α · (a + b) = α · a + α · b, 1 · a = a, α · (a ∗ b) = (α · a) ∗ b = a ∗ (α · b).
60
La teorı́a de representación
Definición 5.1 Sea R un espacio lineal cualquiera sobre C, el campo de los números complejos,
y T : R 7→ R un operador lineal sobre dicho espacio. Diremos que T es una representación de
G sobre R si a cada g ∈ G le corresponde un T(g) de forma que14
Cuando los elementos de la matriz asociada a T son funciones continuas de uno o más
parámetros, se dice que la representación T(g) es continua.
∀g ∈ G, ∀r ∈ R0 =⇒ T(g)r ∈ R0.
En otras palabras, T (g) es irreducible si no existe ningún cambio de base en R tal que en la
nueva base la representación matricial de T sea diagonal por bloques. Si denotamos por A la
matriz de cambio de base en R, entonces T es irreducible si y sólo si no existe A tal que
M1 0 · · · 0 0
0 M2 · · · 0 0
∀g ∈ G, AT(g)A−1 = .. .. . . .. .. ,
. . . . .
0 0 · · · 0 Mk
Supongamos ahora que R está dotado de un producto escalar h·, ·i. En general, puesto
que R está definido sobre el campo de los números complejos C, el producto escalar involu-
crará números complejos. Por ejemplo, en el caso del producto P escalar estándar de vectores
r1 = (x1, . . . , xk ) y r2 = (x01, . . . x0k ), tendremos hr1 , r2 i = kj=1 xj x0j .
61
Definición 5.5 Dado un operador T : R 7→ R, se dice que T∗ es el conjugado de T si
Cuando T es una representación matricial unitaria, entonces las matrices T han de ser hermı́ti-
T
cas, es decir T∗ij := Tij = Tji = Tij .
z z z
α
0 0
PSfrag replacements z PSfrag replacements z
0
g replacements z
y0 y0 γ y0
00
y 00 y y 00
β
y y
z 00 y z 00 z 00
x000 α x α x
x x0 x0
β x0 x00 β x00
γ x00 γ x000 x000
Existe una parametrización más sencilla de cualquier giro espacial debida a Euler y que se basa
en tres rotaciones consecutivas alrededor de los ejes coordenados. Imaginemos que hemos hecho
cierta rotación después de la cual los ejes xyz se transforman en x0 y 0 z 0. Para obtener dicho giro
haremos consecutivamente tres giros respecto a los ejes coordenados. El primero será de un
ángulo α respecto al eje 0z (ver figura 3 izquierda) de forma que los ejes 0x y 0y se transforman
en 0x00 y 0y 00 . La magnitud del giro α será tal que podamos, mediante un único giro de magnitud
β respecto al nuevo eje 0y 00 hacer coincidir el eje 0z en el 0z 0 buscado (ver figura 3 central)
—mediante este segundo giro el eje 0x00 se transformará en el 0x000 —, y finalmente, mediante
un giro de magnitud γ hacemos coincidir los ejes 0x000 y 0y 00 con los ejes 0x0 y 0y 0 ver figura 3
derecha).
Ası́ pues, los elementos el grupo O(3) quedan determinados por tres parámetros continuos
α, β y γ que además varı́an en los intervalos α ∈ [0, 2π), β ∈ [0, π] y γ ∈ [0, 2π). Los grupos
62
que dependen de parámetros continuos se suelen denominar grupos continuos 16. Además, como
la región de variación de los parámetros es acotada, el grupo se denomina compacto.
Sea O(3) el grupo de las rotaciones del espacio R3 respecto al origen. Obviamente cualquier
elemento de O(3) quedará completamente determinado por tres parámetros reales que determi-
nen el correspondiente giro. Entonces, la acción de cualquier elemento de O(3) en R 3 se puede
representar mediante una matriz 3 × 3 que actúa sobre cualquier vector ~x = (x, y, z) T de R3 .
Sean gij (φ1 , φ2 , φ3 ) los elementos de dicha matriz.
Definiremos los generadores de O(3) como las matrices Ak cuyos elementos son
∂gij (φ1, φ2 , φ3 )
(Ak )ij = ,
∂φk
φ1 =φ2 =φ3 =0
es decir los generadores definen, en primera aproximación, a los elementos del grupo.
Consideremos, por ejemplo, dos rotaciones consecutivas alrededor de un eje fijo (digamos el
Oz) entonces tenemos
de donde se deduce que g(α, 0, 0) = exp(α A1 ). Para el resto de las rotaciones se procede de
forma análoga. Es decir, en general tenemos
63
de donde
Entonces,
0 0 0
∂g(~nx , φ)
A1 = = 0 0 −1 .
∂φ
φ=0 0 1 0
Análogamente, para los giros g(~ny , φ) y g(~nz , φ) respecto a los ejes Oy y Oz, respectivamente,
tenemos
cos φ 0 sen φ 0 0 1
∂g(~ny , φ)
g(~ny , φ) = 0 1 0 , A2 = = 0 0 0 .
∂φ
− sen φ 0 cos φ φ=0 −1 0 0
cos φ − sen φ 0 0 −1 0
∂g(~nz , φ)
g(~nz , φ) = sen φ cos φ 0 , A3 = = 1 0 0 .
∂φ
0 0 1 φ=0 0 0 0
Un sencillo cálculo nos indica que
A1 A2 − A 2 A1 = A 3 , [A1 , A2 ] = A3
A2 A3 − A 3 A2 = A 1 [A2 , A3 ] = A1
A3 A1 − A 1 A3 = A 2 [A3 , A1 ] = A2 ,
Además,
Jz∗ = Jz , J±∗ = J∓ . (5.11)
Usando lo anterior y los ángulos de Euler tenemos que cualquier rotación del espacio se define
mediante el operador unitario
donde Jz , Jy00 y Jz 0 son los operadores infinitesimales correspondientes a las rotaciones de los
ejes 0z, 0y 00 y 0z 0 respectivamente (ver la figura 3).
Finalmente, usando inducción y las reglas de conmutación (5.10) es fácil comprobar que
64
5.3.1. Las representaciones unitarias Dj de O(3)
Como cualquier representación T del grupo O(3) sobre un espacio lineal R debe respe-
tar la regla de multiplicación del grupo, entonces si denotamos por T(g) a los elementos de
cierta representación de O(3), y sean Jz : R 7→ R, J+ : R 7→ R y J− : R 7→ R, los gene-
radores (las matrices u operadores infinitesimales de la representación), entonces J z y J± han
de satisfacer las mismas relaciones de conmutación (5.10) y relaciones respecto a la operación ∗.
Vamos a construir las representaciones irreducibles (RI) finitas17 de O(3) que denotaremos
por Dj . Ante todo notemos que al ser los operadores (matrices) Jz hermı́ticas, entonces sus
correspondientes autovalores son reales18 y además, los autovectores correspondientes a auto-
valores distintos son ortogonales19.
Sea j el mayor autovalor de Jz y Ψj el correspondiente autovector, es decir Jz Ψj = jΨj .
Impondremos que hΨj , Ψj i = 1. Como la representación es finita y j es el autovector más grande
entonces J+ Ψj = 0. Sea J− Ψj = αj Ψj−1 , donde αj lo escogeremos de forma que hΨj−1 , Ψj−1 i =
1. Además Jz Ψj−1 = (j − 1)Ψj−1 , entonces
con Jz Ψj−2 = (j − 2)Ψj−2 , y ası́ sucesivamente podemos construir los vectores Ψj , Ψj−1 , . . . ,
Ψj−k , es decir
Φm = Nj,m J−j−m Φj .
Ahora bien, como estamos tratando las RI finitas, entonces sólo puede haber un número finito
de autovalores para las correspondientes matrices J± , ası́ que existirá cierto k de forma que
J− Ψj−k = 0, ası́ que αj−k = 0. En general tendremos
Ahora bien,
1 1 2j
J+ Ψj = 0, J+ Ψj−1 = J+ J− Ψj = (J− J+ + 2Jz )Ψj = Ψj ,
αj αj αj
17
Es sabido que las representaciones irreducibles de un grupo compacto son finitas, no siendo ası́ en general.
18
En efecto, puesto que Jz Ψj = jΦj , Jz∗ Ψj = jΦj , entonces
19
Ello es consecuancia de que Jz∗ = Jz , y entoncs para j 6= m,
65
entonces, por inducción tendremos que J+ Ψm = βm Ψm+1 . Ya hemos visto que es cierto para
m = j − 1. Supongamos que lo es para Ψj , . . . , Ψm , entonces
1 1 αm+1 βm + 2m
J+ Ψm−1 = J+ J− Ψ m = (J− J+ + 2Jz )Ψm = Ψm = βm−1 Ψm ,
αm αm αm
es decir, αm+1 βm − αm βm−1 = −2m, βj = 0. Finalmente, como
Ası́ pues
Jz Ψm = mΨm
p p
J+ Ψ m = (j − m)(j + m + 1)Ψm+1 = j(j + 1) − m(m + 1)Ψm+1 (5.14)
p p
J− Ψ m = (j + m)(j − m + 1)Ψm+1 = j(j + 1) − m(m − 1)Ψm−1 .
Como J− Ψ−j = 0, tenemos que el menor autovector es m = −j, entonces, como número total
de autovectores es 2j + 1, j sólo puede ser un número entero o semientero, por tanto en la
fórmula (5.14) tenemos j = 0, 21 , 1, 32 , 2 . . ., m = −j, −j + 1, . . . , j − 1, j. Además, usando las
relaciones generalizadas (5.13) es fácil comprobar que
2
hΨm , Ψm i = Nj,m hJ−j−m Ψj , J−j−m Ψj i = Nj,m
2
hΨj , J+j−m J−j−m Ψj i
2
= Nj,m (j − m)(j + m + 1)hΨj , J+j−m−1 J−j−m−1 Ψj i,
donde j = 0, 12 , 1, 32 , 2, . . . , m = −j, −j + 1, . . . , j − 1, j.
Probemos ahora que las representaciones Dj definidas sobre cualquiera de los espacios li-
neales R generados por los vectores Ψ−j , Ψ−j+1 . . . , Ψj son irreducibles. Para ello supondremos
que en R hay un subespacio invariante R0 respecto a todas las transformaciones T(g), y en
particular a las transformaciones infinitesimales Ak , k = 1, 2, 3, o Jz y J± . Sea Φ un vector
propio correspondiente al mayor autovalor de la matriz de Jz en R0. Dado que Φ ∈ R0 ⊂ R,
entonces podemos desarrollarlo en la base de R,
j
X
Φ= cm Ψ m .
m=−j
20 k k k−1 k−1
Es más fácil verlo de la forma hΨj , J+ J− Ψj i = k(2j − k + 1)hΨj , J+ J− Ψj i.
66
Como Φ corresponde al mayor autovalor de Jz , entonces J+ Φ = 0, luego
j j
X X p
J+ Φ = c m J+ Ψ m = cm (j − m)(j + m + 1)Ψm+1 = 0.
m=−j m=−j
Ahora bien, los vectores Ψ−j , Ψ−j+1 , . . . , Ψj son linealmente independientes, de donde se tiene
que p
cm (j − m)(j + m + 1) = 0, m = −j, −j + 1, . . . j − 1, j,
p
pero como (j − m)(j + m + 1) 6= 0, m = −j, −j + 1, . . . j − 1, entonces deducimos que
cm = 0 para m = −j, −j + 1, . . . j − 1. Ası́ pues, Φ = cj Ψj y por tanto Ψj ∈ R0 . Pero
como R0 es invariante respecto a todas las transformaciones T(g) entonces, los vectores Ψ m ,
m = −j, −j + 1, . . . j − 1, j, pertenecen a R0 , lo que implica que R0 coincide con R, lo que
prueba que las representaciones de dimensión 2j + 1 anteriores son irreducibles.
Es fácil comprobar que las clases de elementos conjugados en O(3) están constituı́das por
las rotaciones de la misma magnitud φ alrededor de cualquier eje ~n. Para ello basta notar que
si tenemos el giro g(~n, φ) y el g 0 (n~0 , φ), entonces
siendo g̃ el giro que lleva el eje n~0 a ~n. Por tanto lo mismo ocurrirá para las correspondientes
representaciones
T g 0 (n~0 , φ) = T (g̃) T (g(~n, φ)) T g̃ −1 ,
ya que T (g̃) en este caso corresponde al giro que transforma el eje Oz en el Oz 0 que es precisa-
mente la rotación mediante el ángulo β alrededor del eje Oy 00 (ver la figura 3). Análogamente
j iαJz
Dmm 0 (α, β, γ) = hΨm , T(g)Ψm0 i = he Ψm , e−iβJy e−iγJz Ψm0 i. (5.18)
67
donde djmm0 (β) = hΨm , e−iβJy Ψm0 i. Las funciones Dmm j
0 (β) se conocen como armónicos esféricos
k=−j
Ello es consecuencia de que las RI Dj son unitarias. Además, como g −1 (α, β, γ) = g(π −
γ, β, −π − α), tenemos,
j T j j
Dmm 0 (α, β, γ) = Dm 0 m (α, β, γ) = Dmm0 (π − γ, β, −π − α).
Es fácil comprobar que si hacemos dos giros consecutivos g1(α1 , β1 , γ1 ) y g2(α2 , β2 , γ2 ), entonces
si g = g1 g2 = g(α, β, γ), entonces
j
j
X j j
Dmm 0 (α, β, γ) = Dmk (α1, β1 , γ1 )Dkm 0 (α2 , β2 , γ2 ).
k=−j
[J 2 , Jz ] = [J 2 , J± ] = 0.
[J 2 , Jz ] = [J− J+ , Jz ] = J− J+ Jz − Jz J− J+ = J− J+ Jz − J− Jz J+ + J− J+
= J− J+ Jz + J− J+ − J− J+ Jz − J− J+ = 0.
El resto es análogo.
Ası́ pues, los elementos de la base de cualquier RI de O(3) quedan determinados por los auto-
valores de los operadores J 2 y Jz que a su vez determinan la dimensión j (2j + 1) y el valor de
m, mediante las fórmulas
68
En la mécanica cuántica estos operadores corresponden al operador momento angular (J) y su
j
proyección sobre el eje Oz (Jz ). Veamos ahora la interpretación de las funciones de Wigner Dmm 0.
Usando la ortogonalidad de las funciones de Wigner y la relación anterior (5.23), que nos
indica que las funciones djmm0 son reales, obtenemos la siguiente ortogonalidad discreta
j
X
djmk (β)djm0 k (β) = δmm0 .
k=−j
No es difı́cil comprobar que ésta corresponde a los polinomios de Kravchuk, ası́ pues
s
ρ(s) p
(−1)m−m djmm0 (β) =
0
k (s, N ), p = cos β,
d2n n
con n = j − m, s = j − m0 y N = 2j. A partir de las conexiones entre las funciones djmm0 y los
polinomios ortogonales se deducen una gran cantidad de propiedades de estos a partir de las
de aquellos.
22
El lector puede remitirse a los textos clásicos de teorı́a de grupos como, por ejemplo [19, 20, 21], y especial-
mente a [14], donde hay una prueba muy sencilla.
69
Dicho espacio se denomina producto tensorial de R1 y R2 y lo denotaremos R = R1 × R2. Una
base de R es obviamente el conjuntoPde todos los pares Ψj1 mP
1 Ψj2 m2 . Obviamente el producto de
cualquier función de R1 y R2 , Ψ1 = m1 cm1 Ψj1 m1 y Ψ2 = m2 cm2 Ψj2 m2 pertenece a R1 × R2 .
Lo anterior nos indica que si J± (k) y Jz (k), k = 1, 2, son los generadores de las represen-
taciones T1 y T2 en R1 y R2 , respectivamente, entonces los generadores de T = T1 × T2 en
R1 × R2 son
J± = J± (1) + J± (2), Jz = Jz (1) + Jz (2),
que cumplen las mismas relaciones de conmutación (5.10) que antes.
70
donde hj1 m1, j2 m2|jmi se denominan coeficientes de Clebsch-Gordan. Además, es conocido que
dados los valores de j1 y j2 de las RI de O(3), j toma los valores desde |j1 − j2 | hasta j1 + j2 ,
lo que simbólicamente se representa por
j1 +j2
X
j1 j2
D ⊗D = ⊕D j .
j=|j1 −j2 |
donde s = j2 − m2, N = j1 + j2 − m + 1, α = m − j1 + j2 , β = m + j1 − j2 , n = j − m.
Ambas relaciones nos permiten traducir todas las propiedades estudiadas para los polinomios
de Hahn en propiedades para los coeficientes de Gordan-Clebsch. Por ejemplo, la ortogonalidad
de los polinomios de Hahn se transforma en la siguiente propiedad de ortogonalidad para los
CCG
X
hj1 m1, j2 m2|jmihj1 m1, j2 m2|j 0 m0i = δjj 0 δmm0 . (5.30)
m1 ,m2
71
La relación de recurrencia a tres términos para los polinomios de Hahn se transforma en la
siguiente relación de recurrencia en j para los CCG
q
[j−m][j+m][j1 +j2 +j+1][j2 −j1 +j][j−j2 +j1 ][j1 +j2 −j+1]
0= hj1 m1, j2 m2|j − 1mi
[2j+1][2j−1][2j]2
j(j+1)+j2 (j2 +1)−j1 (j1 +1)−jj2
+ m2 − 2j(j+1) hj1 m1 , j2 m2 |jmi+
q
[j−m+1][j+m+1][j1 +j2 +j+2][j2 −j1 +j+1][j−j2 +j1 +1][j1 +j2 −j]
+ hj1 m1, j2 m2|j +1mi.
[2j+3][2j][2j+2]2
donde la suma recorre los valores de z para los cuales todos los factoriales tienen argumentos
positivos.
72
Referencias
[1] M. Abramowitz y I. A. Stegun, Handbook of Mathematical Functions. Dover, New York,
1964.
[5] C. W. Cryer, Rodrigues’ formula and the classical orthogonal polynomials. Boll. Un. Mat.
Ital., 25(3) (1970), 1-11.
[6] T. S. Chihara, An Introduction to Orthogonal Polynomials. Gordon and Breach Science
Publishers, Nueva York, 1978
[7] A. G. Garcı́a, F. Marcellán y L. Salto, A distributional study of discrete classical ortho-
gonal polynomials. J. Comput. Appl. Math. 57 (1995), 147-162.
[8] E. Grosswald, Bessel Polynomials. Lecture Notes in Mathematics Vol. 698. Springer-
Verlag, Berlı́n, 1978.
[9] E. H. Hildebrandt, Systems of polynomials connected with the Charlier expansion and
the Pearson differential and difference equation. Ann. Math. Statist. 2 (1931), 379-439.
[10] R. Koekoek y R. F. Swarttouw, The Askey-scheme of hypergeometric orthogonal polyno-
mials and its q-analogue. Reports of the Faculty of Technical Mathematics and Informatics
No. 98-17. Delft University of Technology, Delft, 1998.
[11] H. L. Krall, On the derivatives of orthogonal polynomials II. Bull. Amer. Math. Soc. 47
(1941), 261-264.
[12] H. L. Krall y O. Frink, A new class of orthogonal polynomials: the Bessel polynomials.
Trans. Amer. Math. Soc. 65 (1949), 100-115.
[13] F. Marcellán y J. Petronilho, On the solutions of some distributional differential equations:
existence and characterizations of the classical moment functionals. Integral Transform.
Spec. Funct. 2 (1994), 185-218.
[14] A. F. Nikiforov, S. K. Suslov y V. B. Uvarov, Classical Orthogonal Polynomials of
a Discrete Variable. Springer Series in Computational Physics. Springer-Verlag, Berlı́n,
1991. (Edición en ruso, Nauka, Moscú, 1985)
[15] A. F. Nikiforov y V. B. Uvarov, Special Functions of Mathematical Physics. Birkhäuser
Verlag, Basilea, 1988.
[16] A. F. Nikiforov y V. B. Uvarov, Polynomial Solutions of hypergeometric type difference
Equations and their classification. Integral Transform. Spec. Funct. 1 (1993), 223-249.
[17] G. Szegö, Orthogonal Polynomials. Amer. Math. Soc. Coll. Pub. 23 American Mathe-
matical Society, Providence, Rhode Island, 1975 (cuarta edición).
73
[18] F. Tricomi, Vorlesungen über Orthogonalreihen. Grundlehren der Mathematischen Wis-
senschaften 76, Springer-Verlag, Berlı́n-Gottinga-Heidelberg, 1955.
[19] N. Ja. Vilenkin, Special Functions and the Theory of Group Representations. Trans. of
Math. Monographs. 22. American Mathematical Society, Providence, Rhode Island, 1986.
[20] N. Ja. Vilenkin y A.U. Klimyk, Representations of Lie Groups and Special Functions.
Vol. I,II,III. Kluwer Academic Publishers. Dordrecht, 1992.
[21] E. P. Wigner, Group Theory and its Application to the Quantum Mechanics of Atomic
Spectra. Academic Press, New York, 1959.
74