Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Fundamentos Matemáticos de La Mecánica Cuántica, 2018, (3. Edición) - John Von Neumann PDF
Fundamentos Matemáticos de La Mecánica Cuántica, 2018, (3. Edición) - John Von Neumann PDF
Fundamentos matemáticos
Fundamentos matemáticos
de la mecánica cuántica de la mecánica
cuántica
John von Neumann
Publicado en alemán en 1932, Fundamentos matemáticos de la mecánica cuántica (1932), del po-
John von Neumann
livalente matemático húngaro John von Neumann (1903-1957), uno de los cerebros más pode-
rosos del siglo xx, contiene la presentación matemática más acabada y rigurosa de la mecánica Estudio preliminar de
cuántica, desarrollada en 1925-1926 por Werner Heisenberg, Erwin Schrödinger y Paul Dirac.
Es todo un clásico de la literatura científica. Pero, al contrario de lo que su título puede sugerir, José M. Sánchez Ron
Fundamentos matemáticos
no es solo un magnífico tratado de física matemática, con aportaciones seminales a la teoría de
los espacios de Hilbert, sino que también constituye una de las contribuciones más lúcidas al 3.ª edición
de la mecánica cuántica
problema del significado físico de la mecánica cuántica, en particular al problema de la medida.
Cuestiones como el colapso de la función de ondas, la posibilidad de una versión causal de la
teoría cuántica (variables ocultas) o el papel del observador fueron analizadas en estas páginas por
John von Neumann con una maestría difícilmente superable, independientemente de que en
algún caso (como el de las variables ocultas) sus conclusiones fuesen matizadas más de dos déca-
das después.
ISBN: 978-84-00-10335-4
Consejo Superior de
Investigaciones Científicas
50 © Calamar Edición & Diseño.
Textos Universitarios
50
Fundamentos
matemáticos
de la mecánica cuántica
Estudio preliminar de
José Manuel Sánchez Ron
3.ª edición
© CSIC
© Herederos de Ramón Ortiz Fornaguera y Esteve Terradas
© Del estudio preliminar, José Manuel Sánchez Ron
© De la revisión técnica, José Luis Sánchez Gómez
© De las imágenes, las fuentes mencionadas a pie de figura
ISBN: 978-84-00-10335-4
e-ISBN: 978-84-00-10336-1
NIPO: 059-18-062-3
e-NIPO: 059-18-063-9
FUNDAMENTOS MATEMÁTICOS
DE LA MECÁNICA CUÁNTICA
Introducción................................................................................................................................... 121
Notas................................................................................................................................................. 397
1
H. H. Goldstine, «The scientific work of John von Neumann», Science 125, 683-684 (1957),
reproducido en The Collected Papers of Eugene Paul Wigner, vol. VII, Parte B, Jagdish Mehra, ed.
(Springer-Verlag, Berlín, 2001), pp. 123-126; cita en p. 123. De entre la numerosa bibliografía que
trata de la vida y obra de Von Neumann citaré los siguientes: Steve J. Heims, J. von Neumann y N.
Wiener, 2 vols. (Salvat, Barcelona 1986; originalmente publicado por The MIT Press bajo el título
de John von Neumann and Norbert Wiener. From Mathematics to the Technologies of Life and Death;
John von Neumann 1903-1957); S. Ulam, G. Birkhoff, F. J. Murray, R. V. Kadison, P. R. Halmos,
L. van Hove, H. W. Kuhn, A. W. Tucker y C. E. Shannon, «John von Neumann, 1903-1957», Bu-
lletin of the American Mathematical Society, 64 (mayo de 1958), reproducido también en Donald
Fleming y Bernard Bailyn, eds., The Intelectual Migration. Europa and America, 1930-1960 (Belknap
Press of Harvard University Press, Cambridge, Mass. 1969), pp. 235-269; E. P. Wigner, «John von
Neumann (1903-1957)», The American Philosophical Society. Year Book 1957 (The American Philo-
sophical Society, Filadelfia, 1958), pp. 149-153, reproducido en The Collected Papers of Eugene Paul
Wigner, vol. VII, pp. 127-130; Jean Dieudonné, «von Neumann, Johann (or John)», Complete Dic-
tionary of Scientific Biography, Charles C. Gillispie, ed. (Charles Scribner’s Sons, Detroit, 2008), vol.
14, pp. 88-92; Salomon Bochner, «John von Neumann», National Academy of Sciences (Biographical
Memoirs) 32, 438-457 (1958), Giorgio Israel y Ana Millán Gasca, El mundo como un juego matemá-
tico. John von Neumann, un científico del siglo xx (Nivola, Madrid 2001); P. R. Halmos, «The legend
John von Neumann (1903-1957) (foto de Alan W. Richards, cortesía de AIP Emilio Segrè
Visual Archives).
10
Abandonamos Hungría muy poco después que los comunistas alcanzaran el poder.
El régimen comunista en Hungría duró únicamente 130 días. Esto fue en 1919. Sali-
mos tan pronto como fue posible, lo que ocurrió 30 o 40 días después, y regresamos
alrededor de 2 meses después de que los comunistas hubiesen sido derrotados. Yo
abandoné Hungría después de todo esto, para ser exactos 2 años después para ir a es-
tudiar una carrera.
of John von Neumann», American Mathematical Monthly, 80, 382-394 (1973), existe una versión al
castellano de este artículo («La leyenda de Von Neumann») en John von Neumann, El ordenador y
el cerebro (Antoni Bosch, Barcelona, 1980), pp. 9-26; J. Ildefonso Díaz, «John von Neumann: de la
matemática pura a la matemática aplicada», Boletín de la Sociedad Española de Matemática Aplicada,
n.º 32, 149-169 (2005). Dos perfiles biográficos interesantes son los de Stanislaw Ulam en conver-
saciones con Gian-Carlo Rota, «John von Neumann», en From Cardinal to Chaos, Necia Grant
Cooper, ed. (Cambridge University Press, Cambridge, 1989), pp. 303-306, y Freeman Dyson, «A
walk through Johnny von Neumann’s garden», en Freeman Dyson, Birds and Frogs. Selected Papers,
1990-2014 (World Scientific, Singapur, 2015), pp. 71-84.
2
Al contrario que en otros casos, el hecho de proceder de una familia de origen judío apenas
influyó en el conjunto de la biografía de John Von Neumann.
3
El testimonio de Von Neumann se reproduce, junto a todos los demás, en In the Matter of
J. Robert Oppenheimer. Transcript of Hearing before Personnel Security Board and Texts of Principal
Documents and Letters. United States Energy Commission (The MIT Press, Cambridge, Mass., 1971),
pp. 643-656; cita en p. 654.
11
Foto familiar, junio de 1945 (Von Neumann es el tercero por la izquierda) (AIP Emilio Segrè
Visual Archives).
La conclusión de todo esto es que tanto la historia previa de Hungría como las
experiencias que Von Neumann y su familia tuvieron con el régimen comunista,
que ciertamente no veía con buenos ojos a personas con los medios económicos
de los Von Neumann, ayudan a comprender sus actitudes y decisiones posteriores,
especialmente durante la Segunda Guerra Mundial.
La educación de János (o Jancsi, como le llamaba su familia entonces) comen-
zó en casa, e incluía el alemán, que le enseñaron de niño y que fue, hasta que dejó
paso al inglés, su primera segunda lengua. En 1914 entró en la selecta, y cara,
Escuela Luterana masculina de Budapest, o Minta Gymnasium (Escuela Modelo).
Pronto el profesor de Matemáticas del colegio, László Rátz, advirtió la extraordi-
naria capacidad del nuevo alumno y recomendó a su padre que hiciera que Jancsi
12
4
Michael Fekete y John von Neumann, «Über die Lage der Nullstellen gewisser Minimumpo-
lynome», Jahresbericht der Deutschen Mathematiker Vereinigung 31, 125-138 (1922).
5
The Recollections of Eugene P. Wigner as Told to Andrew Szanton (Plenum Press, Nueva York,
1992), pp. 51, 57-58.
13
6
Theodore von Kármán con Lee Edson, The Wind and Beyond: Theodore von Kármán (Little,
Brown and Co., Boston, 1967), pp. 106-107.
14
[John von Neumann] es mi único estudiante que llegó a intimidarme. Era tan rá-
pido. Existía en Zúrich un seminario para estudiantes avanzados en el que yo enseñaba
y Von Neumann estaba en la clase. Llegué a cierto teorema, y dije que no estaba demos-
trado y que debía de ser difícil. Von Neumann no dijo nada pero después de cinco
minutos levantó su mano. Cuando le llamé fue a la pizarra y procedió a escribir la de-
mostración. Después de aquello, tenía miedo de Von Neumann.
En Berlín siguió cursos de, entre otros, Erhard Schmidt, un antiguo alumno
de David Hilbert que había realizado aportaciones importantes a la teoría de ecua-
ciones integrales, campo cultivado por su maestro. Habida cuenta de la íntima
relación existente entre la mecánica cuántica y las ecuaciones integrales, las ense-
ñanzas que recibió de Schmidt debieron de constituir una magnífica preparación
para las investigaciones que llevó más tarde a cabo en la teoría cuántica.
7
George Pólya, The Pólya Picture Album. Encounters of a Mathematician (Birkhäuser, Boston,
1987), p. 154.
8
John von Neumann, «Zur Einführung der transfiniten Zahlen», Acta Szeged 1, 199-208
(1923). En 1928 publicó otro trabajo sobre estas cuestiones: «Über die Definition durch transfinite
Induktion und verwandte Fragen der allgemeinen Mengenlehre», Mathematische Annalen 99, 373-
15
391 (1928). Jesús Mosterín analizó estos y otros trabajos lógicos de Von Neumann (de algunos de
los cuales trato más adelante) en Los lógicos (Espasa, Madrid, 2000), pp. 181-217.
9
David Hilbert, «Problèmes futures des Mathématiques», en Compte Rendu du Deuxième
Congrès International des Mathématiciens tenu a Paris du 6 au 12 Août 1900 (Gauthier-Villars, Paris,
1902), pp. 58-114; p. 72. En 1899, recordemos, Hilbert había publicado Grundlagen der Geometrie
(Fundamentos de Geometría), en el que axiomatizó la geometría.
16
10
John von Neumann, «Eine Axiomatisierung der Mengenlehre», Journal für reine und an-
gewandte Mathematik 154, 219-240 (1925).
11
John von Neumann, «Zur Hilbertschen Beweistheorie», Mathematische Zeitschrift, 26, 1-46
(1927).
12
No debe pasar desapercibido la expresión «por medios finitos». La matemática intuicionista
hacía hincapié en tales medios, compatibles con la capacidad operacional del ser humano. La incli-
nación de Von Neumann por este elemento intuicionista representó, en cierto sentido, una buena
preparación para sus trabajos con las computadoras, ya que los algoritmos en la base de las compu-
tadoras son finitos por naturaleza. Según Herman Goldstine («The role of John von Neumann in
the computer field», en Springs of Scientific Creativity, R. Aris, H. T. Davis, R. H. Stuewer, eds.,
University of Minnesota Press, Minneapolis, 1983, pp. 308-327; p. 314), Von Neumann solía decir
que las computadoras hicieron que la matemática intuicionista pasase de ser teología a ser realidad.
Sobre la relación de Von Neumann con el intuicionismo, véase Dirk van Dalen, Mystic, Geometer,
and Intuicionist. The Life of L. E. J. Brouwer, vol. 2 («Hope and Desillusion») (Clarendon Press,
Oxford, 2005), especialmente pp. 636-638.
13
David Hilbert, «Probleme der Grundlegung der Mathematik», Atti del Congresso Interna
zionale dei Matematici. Bologna 3-10 Settembre 1928, tome I (Nicola Zanichelli, Bologna, 1929),
pp. 135-141; publicado también en Mathematische Annalen 102, 1-9 (1930); pp. 3, 9.
17
14
Kurt Gödel, «Über formal unentscheidbare Sätze der Principia Mathematica und verwandter
Systeme I», Monantshefter für Mathematik und Physik 38, 173-198 (1931).
15
Esta carta, al igual que la que cito a continuación, se reproducen (en su original alemán y
traducidas al inglés) en Kurt Gödel, Collected Works, vol. V («Correspondence H-Z»), S. Feferman,
J. W. Dawson, jr., W. Goldfarb, Ch. Parsons y W. Sieg, eds. (Clarendon Press, Oxford, 2003), pp. 336-
340. También se hallan en Miklós Rédei, ed., John von Neumann: Selected Letters (London Mathema-
tical Society-American Mathematical Society, 2005), pp. 123-125. La relación entre Gödel y Von
Neumann, que se extendió a cuando ambos vivían en Estados Unidos, se detalla en John W. Dawson,
jr., Logical Dilemmas. The Life and Work of Kurt Gödel (A. K. Peters, Wellesley, Mass., 1997).
18
Por lo que decía en esta carta, no es imposible pensar que Von Neumann tam-
bién había logrado demostrar el segundo teorema de incompletitud, lo que da idea
de su estatura como matemático puro. Lo que está claro es que los resultados ob-
tenidos por Gödel le impresionaron; a Rudolf Carnap, miembro entonces del
Círculo de Viena (en 1935 emigró a Estados Unidos) le escribía unos meses des-
pués, el 7 de junio de 1931:17
He sabido de Gödel (¿al que usted tal vez también conoce?) sobre sus resultados en
Königsberg y después mediante correspondencia. Estos teoremas (que desde entonces
ya se han publicado) demuestran que ciertas afirmaciones lógicas y matemáticas, tales
como, por ejemplo, la consistencia del análisis, no se pueden demostrar en ciertos siste-
mas formales lógicos […] Por consiguiente, hoy mi opinión es que:
Gödel ha demostrado que el programa de Hilbert es irrealizable.18
16
Se debe referir a K. Gödel, «Einige metamathematische Resultate über Entscheidungsdefinitheit
und Widerspruchsfreiheit», Anzeiger der Akademie der Wissenschaften in Wien, 67, 214-215 (1930).
17
Citada en Rédei, ed., John von Neumann: Selected Letters, op. cit., pp. 85-86.
18
Aquí Von Neumann añadía la siguiente nota a pie de página: «Querría hacer hincapié en que
nada es falso en los propósitos de Hilbert. Si se pudiesen llevar adelante, se seguiría de ellos absolu-
tamente lo que sostiene. Pero no pueden llevarse adelante, algo que sólo he sabido desde septiembre
de 1930».
19
No existen más razones para rechazar el intuicionismo (si uno no toma en cuenta
el tema estático, que en la práctica para mí también será el factor decisivo).
Yo también pienso que los resultados de Gödel significan que no existe un sistema
axiomático «completo», ni siquiera en matemáticas, y creo que actualmente no hay nin-
guna otra interpretación consistente de esta compleja cuestión. Desde el punto de vista
de la discusión y evaluación de lo verdaderamente matemático; esto es, de las cuestiones
lógico-matemáticas que hay que discutir y evaluar, considero que las cosas de Carnap son
naifs y débiles. Sencillamente, Carnap no posee el conocimiento mínimamente necesario
para considerar estos asuntos, menos aún para decir algo nuevo. Así, por ejemplo, expre-
sa con un aire de terrible auto-importancia puntos de vista totalmente naifs y simplistas
sobre la cuestión de la «completitud» de la axiomática de la matemática («categoricidad»).
Si las cosas fuesen tan sencillas como él imagina, entonces no se necesitaría la «investiga-
ción en los fundamentos de la matemática» («Grundlagenforschung»), ¡al menos desde el
punto de vista de la matemática! ¿Piensa que Carnap tiene algo nuevo o científicamente
interesante que decir sobre la estructura de los lenguajes; o, más generalmente, que lo que
hace acaso pueda ser considerado como preparando el terreno para trabajos posteriores
más serios? Yo soy totalmente incapaz de juzgar si Carnap merece algún crédito para que
su influyente «escuela» de filósofos pueda abordar con seriedad cuestiones filosóficas en
las ciencias naturales y exactas. Obviamente, muchos aquí piensan que la respuesta es «sí».
De cualquier manera, es una pena que tengamos que informarnos sobre un asunto muy
sólido por una fuente tan confusa. N. b. Me entristece especialmente que mientras que
el nombre de Gödel está constantemente en los labios de Carnap, es obvio que él no
comprende en absoluto el significado real de los resultados de Gödel.
19
Citada en Rédei, ed., John von Neumann: Selected Letters, op. cit., pp. 203-204.
20
John von Neumann, «The mathematician», en R. B. Heywood, ed., The Works of the Mind
(University of Chicago Pres, Chicago, 1947), pp. 180-196; reimpreso en The Neumann Compendium,
F. Bródy y T. Vámos, eds. (World Scientific, Singapur, 1995), pp. 618-626; cita en p. 623.
20
entonces la mayor parte de los matemáticos decidieron utilizar de todas maneras ese
sistema [el «clásico»]. Después de todo, la matemática clásica estaba produciendo resul-
tados que eran tanto elegantes como útiles, e incluso aunque uno no pudiese estar
completamente seguro de su certidumbre, se apoyaba en una base tan razonable al me-
nos como, por ejemplo, la existencia del electrón. En consecuencia, si se está dispuesto
a aceptar las ciencias, se debe aceptar también el sistema clásico de matemáticas. Este
punto de vista fue aceptado incluso para algunos de los protagonistas más originales del
sistema intuicionista. En la actualidad, la controversia sobre los «fundamentos» no está
ciertamente cerrada, pero parece muy improbable que el sistema clásico se abandone
salvo por una pequeña minoría.
Mucho antes, hacia comienzos del siglo, había colaborado con un físico (y si la
memoria no me engaña, se trataba de Rydberg, el espectroscopista), siendo entonces el
21
Ya en 1900, en el citado discurso que pronunció en el Segundo Congreso Internacional de
Matemáticos celebrado en París, Hilbert había seleccionado «El tratamiento matemático de los axio-
mas de la Física», como uno de los 23 problemas más importantes de la matemática de la época. Tal
interés por la física se plasmó de maneras diferentes: por un lado, con aportaciones concretas, como
en 1915, cuando participó activamente en la búsqueda de las ecuaciones del campo de una teoría
relativista de la gravitación, siguiendo el enfoque que Einstein había adoptado y que culminó con
la formulación de la relatividad general. Otra forma fue a través de seminarios y cursos: en los últi-
mos años del siglo xix, ofreció con Felix Klein varios seminarios avanzados dedicados a la mecánica
(en 1905 organizó, junto a Hermann Minkowski, Emil Wiechert y Gustav Herglotz, un seminario
dedicado a la teoría del electrón, y durante la Primera Guerra Mundial fundó con Peter Debye un
seminario sobre la «Estructura de la materia»). Más información en Leo Corry, David Hilbert and
the Axiomatization of Physics (1898-1918) (Kluwer, Dordrecht, 2004).
22
Walter M. Elsasser, «Philosophical dissonances in quantum mechanics», en W. Yourgrau y
A. van der Merwe, eds., Perspectives in Quantum Theory (The MIT Press, Cambridge, Mass., 1971),
pp. 199-218; cita en pp. 200-201.
21
problema encontrar un operador lineal cuyos autovalores representasen las líneas espec-
trales. El proyecto fracasó y fue abandonado por razones muy concretas: Hilbert fue
capaz de demostrar que dado un problema lineal con una sucesión infinita de valores
característicos [autovalores] discretos, E1, E2, …, su punto de convergencia debe ser
necesariamente En → 0, o En → ∞. Si se supone que los En son energías (o funciones
monótonas de la energía), se llega fácilmente a una contradicción con la experiencia lo
que, para Hilbert, era fatal para ese esquema: del teorema precedente se concluye que
en una serie de líneas espectrales no puede darse convergencia hacia un punto dentro
del espectro observado, lo que está en flagrante contradicción con la experiencia, en
donde se observan esos puntos. Sólo algunos años después, Ritz descubrió el hecho de
que la frecuencia de las líneas espectrales y sus correspondientes energías no son propor-
cionales a los niveles de energía de átomos o moléculas, sino que son proporcionales a
la diferencia entre niveles de energía. Esto eliminó inmediatamente la paradoja de Hil-
bert, pero por entonces —señaló Hilbert— hacía mucho que había pasado a ocuparse
de otros problemas, habiendo olvidado todo acerca de la espectroscopía.
23
Hermann Weyl, «David Hilbert 1862-1943», Obituary Notices of Fellows of the Royal Society 4,
547-553; reproducido en K. Chandrasekharan, ed., Hermann Weyl, 1885-1985 (Springer-Verlag,
Berlín, 1968), vol. IV, pp. 121-129; cita en p. 126.
22
En Gotinga estaba Max Born (antiguo asistente de Hilbert), del que Werner
Heisenberg era ayudante cuando formuló en 1925 su mecánica de matrices, la
primera formulación de una mecánica cuántica. No es extraño, por consiguiente,
que Heisenberg presentase pronto sus ideas en Gotinga; lo hizo en una serie de
conferencias dictadas durante el invierno de 1925. A partir de entonces, Hilbert
comenzó a estudiar de manera sistemática los fundamentos matemáticos de la nue-
va mecánica del microcosmos. Sus ayudantes entonces eran Lothar Nordheim, otro
antiguo pupilo de Born, y, como vimos, Von Neumann, que acaba de llegar a Go-
tinga. Durante el semestre de invierno del curso 1926-1927, Hilbert dio un curso
consistente en dos clases semanales de dos horas cada una, titulado «Mathematische
Methoden der Quantentheorie». Fruto de aquel curso fue la primera publicación
de Von Neumann dedicada a la mecánica cuántica: un artículo, firmado conjunta-
mente con Hilbert y Nordheim.24 En este artículo, los autores intentaban resolver
un problema relacionado con la teoría de las transformaciones (que se ocupaba,
básicamente, de la equivalencia entre las formulaciones —«representaciones»— de
la mecánica cuántica producidas por Heisenberg y, en 1926, Erwin Schrödinger),
tal y como la había desarrollado Paul Dirac. El problema era que la presentación
de Dirac dependía de un objeto mal definido matemáticamente —la función d—,
pero a lo más que llegaron es a una teoría de las transformaciones no muy diferen-
te de las de Dirac y Pascual Jordan, en tanto que sus resultados dependían de trans-
formaciones que, de hecho, no podían completarse si no se utilizaba la d de Dirac.
Sin embargo, el mismo año que publicó el artículo con Hilbert y Nordheim, Von
Neumann resolvió el problema.25 En lugar de relacionar las funciones continuas y
discretas que caracterizan a las versiones matricial y ondulatoria de la teoría cuán-
tica, hizo hincapié en los espacios en que estaban definidas tales funciones. Pudo
así recurrir a un teorema producido en 1907 por el matemático húngaro Frigyes
Riesz y el austríaco Ernst Fischer para definir un espacio (de Hilbert) lo suficiente-
mente general como para superar el problema de la d de Dirac.26
Es posible intuir algo del malestar que debía experimentar Von Neumann al
tener que trabajar con semejantes objetos matemáticos, además de conocer la exi-
gencia matemática con que afrontaba los problemas de la física, leyendo el libro
reproducido aquí, Mathematische Grundlagen der Quantenmechanik (1932), en
cuya introducción se afirma:
24
David Hilbert, John von Neumann y Lothar Nordheim, «Über die Grundlagen der Quan-
tenmechanik», Mathematische Annalen 98, 1-30 (1927). Este artículo, como todos los suyos, se re-
produce, en John von Neumann, Collected Works, A. H. Taub, ed., 6 vols. (Pergamon Press, Oxford,
1961-1963).
25
John von Neumann, «Mathematische Begründung der Quantenmechanik», Nachrichten der
Koniglichen Gesellschaft der Wissenschqften zu Gottingen, Math.Phys. Kl., 1-57 (1927). Este trabajo
se analiza en Max Jammer, The Conceptual Development of Quantum Mechanics, segunda edición
(Tomash Publishers-American Institute of Physics, 1989), pp. 329-335.
26
Frigyes Riesz, «Sur les systèmes orthogonaux de fonctions, Comptes rendus de l’Académie des
Sciences 144, 615-619 (1907); Ernst S. Fischer, «Sur le convergence en moyenne», Comptes rendus
de l’Académie des Sciences 144, 1022-1024 (1907).
23
27
John von Neumann, «Allgemeine Eigenwerststheorie Hermitescher Funktionaloperstoren»,
Mathematische Annalen 102, 49-131 (1929); «Zur Algebra der Funktionaloperatoren und Theo-
rie der normalen Operatoren», Mathematische Annalen 102, 370-427 (1929); F. J. Murray y J. von
Neumann, «On rings of operators», Annals of Mathematics 37, 116-229 (1936); «On rings of ope-
rators, II», American Mathematical Society Transactions 41, 108-248 (1937); «On rings of operators,
IV», Annals of Mathematics 44, 716-808 (1943); John von Neumann, «On rings of operators»,
Annals of Mathematics 41, 94-161 (1940). También, por supuesto, Mathematische Grundlagen der
Quantenmechanik (1932). Sobre las contribuciones de Von Neumann a la teoría de operadores,
véase Rédei, ed., John von Neumann: Selected Letters, op. cit., pp. 9-15.
28
Gian-Carlo Rota, Indiscrete Thoughts (Birkhäuser, Boston, 1977), p. 70.
24
Al comentario de Born habría que añadir que, aunque Von Neumann mantu-
vo la esencia de lo que se denominó interpretación de Copenhague, desarrollada
especialmente por Niels Bohr, dio a la mecánica cuántica una formulación que
evitaba las, en general bastantes oscuras y no demasiado precisas, presentaciones
de Bohr, a quien se puede caracterizar como el ideólogo de la mecánica cuántica.
Antes de pasar a tratar de este libro, citaré algo que el matemático Saunders
Mac Lane recogió en su autobiografía sobre su origen:32
Marshall Stone era un estudiante de George Birkhoff [en Harvard], con una tesis
sobre ecuaciones diferenciales; por ejemplo, ay'' - by' - cy - f (x) = 0. En tales ecuaciones,
29
Véase Garret Birkhoff, «Von Neumann and lattice theory», Bulletin of the American Mathe-
matical Society 64, 50-56 (1958).
30
Otra contribución destacada de Von Neumann en aquella época fue la demostración de que
todo grupo topológico dimensional es continuamente isomorfo a un grupo cerrado de matrices
unitarias de un espacio euclidiano de dimensión finita: «Die einführung analytischer parameter in
topologischen gruppen», Annals of Mathematics 34, 170-190 (1933).
31
The Einstein-Born Letters, 1916-1955 (Macmillan, Nueva York, 2005), p. 140.
32
Saunders Mac Lane, A Mathematical Autobiography (A. K. Peters. Wellesley, Mass., 2005),
p. 70.
25
El contenido [del libro] es, en parte, una muy compleja crítica conceptual de
los fundamentos lógicos de varias disciplinas (teoría de probabilidad, termodinámica,
mecánica clásica, mecánica estadística clásica, mecánica cuántica). Esta discusión filosó-
fico-epistemológica tiene que estar ligada continuamente y de forma bastante crítica
sincronizada con la discusión matemático-física paralela. Es, por cierto, una de las jus-
tificaciones esenciales del libro, cuyo contenido no está cubierto por otros tratados sobre
la mecánica cuántica, escritos por físicos o por matemáticos.
33
Finalmente, no fue hasta 1955 cuando se publicó esa traducción. Y no lo hizo Dover, sino
Princeton University Press.
34
Esta carta se reproduce en Rédei, ed., John von Neumann: Selected Letters, op. cit., pp. 91-92.
26
mente matemático, y aun a costa de repetir cosas que ya mencioné, diré que las
principales aportaciones de Von Neumann fueron: la creación de la noción de
espacio de Hilbert tal y como la conocemos en la actualidad, dentro del contexto
del análisis funcional, del que también fue uno de sus creadores; la formulación
de manera general del problema de autovalores para operadores autoadjuntos,
basándose en la teoría espectral y sin recurrir a la noción de la función delta de
Dirac; y el establecimiento de la teoría de operadores no acotados. El mismo año,
1932, en el que se publicó Mathematische Grundlagen der Quantenmechanik, apa-
recieron otros dos libros que, junto con el de Von Neumann, fueron decisivos para
establecer el análisis funcional como uno de los campos más importantes del aná-
lisis moderno: Théorie des opérations linéaires, del polaco Stefan Banach, y Linear
Transformations in Hilbert Space and their Applications to Analysis, del estadouni-
dense Marshall H. Stone.35
El capítulo I es, en realidad, una introducción de ideas muy generales respec-
to a la estructura básica de la mecánica cuántica, mientras que el II se parece más
a un tratado puramente matemático que a un texto dedicado a analizar un tema
de física, aunque esta se va introduciendo en apartados como los que se dedican
a operadores lineales en el espacio de Hilbert E∞ (transformaciones lineales de E∞
sobre sí mismo) y al problema de valores propios (o autovalores).
Es en el capítulo III («La estadística de la mecánica cuántica») donde la mecá-
nica cuántica hace su aparición de manera explícita. Prácticamente de entrada se
introduce (p. 140) un elemento esencial en la interpretación clásica de la mecánica
cuántica: «∣Φ(q1, …, qk)∣2 define la densidad de probabilidad del sistema en los
puntos q1, …, qk del espacio de los estados». Uno de los puntos más importantes
que trataba allí Von Neumann, el que consideraba «el más general enunciado pro-
babilísticamente posible» —denominado a veces en la literatura «postulado de pro-
yección» (P en la terminología de Von Neumann)— era el de la probabilidad de
que las magnitudes de los operadores, R1, …, Ri, asociados a un estado Φ tomen
determinados valores. En un contexto altamente matemático, en la sección 3 Von
Neumann señalaba que cuando los operadores correspondientes a las magnitudes
en cuestión son permutables, P indica las probabilidades de que, en un mismo
estado Φ, varias magnitudes tomen simultáneamente ciertos valores prefijados. Sin
embargo, P no daba ninguna información acerca de la interdependencia estadística
entre las magnitudes cuando los operadores no son permutables, caso en el que solo
se obtiene información relativa a la distribución de probabilidad para cada una de
las magnitudes. «Lo más sencillo», apuntaba Von Neumann (p. 150), «será admitir
que esto no es sino una imperfección de P y que debe haber una fórmula más ge-
neral que abarque también estos casos. Porque aun cuando la mecánica cuántica
35
Para más información sobre la historia de los orígenes del análisis funcional, incluyendo el
papel de estos tres libros, cabe consultar G. Birkhoff y E. Kreyszig, «The establishment of functional
analysis», Historia Mathematica 11, 258-321 (1984), y Reinhard Siegmund-Schultze, «The origins
of functional analysis», en Hans Niels Jahnke, ed., A History of Analysis (American Mathematical
Society/London Mathematical Society, Providence, 2003), pp. 385-407.
27
Cierto es que el «cómo» queda sin aclarar: ese tránsito discontinuo a modo de salto
desde Φ hasta uno de los estados Φ1, Φ2…, con seguridad es de una muy otra índole que
el descrito por la ecuación temporal de Schrödinger: ¡ésta da lugar siempre a un cambio
continuo de Φ, cuyo resultado final está unívocamente determinado y depende de Φ!
Variables ocultas
La idea de si existieran variables, denominadas variables ocultas, aún sin deter-
minar, en mecánica cuántica que pudieran restituir la causalidad ya fue conside-
36
El uso que Von Neumann daba al postulado de proyección en su tratamiento recibió críticas;
véase, por ejemplo, Jeffrey Bub, «The measurement problem of quantum mechanics», en Problems
in the Foundations of Physics (North-Holland, Ámsterdam, 1979), pp. 71-124.
37
El concepto de «colapso de la función de onda» fue introducido por Werner Heisenberg en
1927, en el mismo artículo que presentó su principio de incertidumbre; más concretamente en la
sección 3, titulada «La transición de la micro- a la macromecánica», aunque es cierto que la presen-
tación no es demasiado clara, especialmente si la comparamos con la que terminaría imponiéndose.
Allí nos encontramos con expresiones como: «Creo que se puede formular satisfactoriamente el
origen de la “órbita” clásica de la siguiente manera: la “órbita” se hace realidad solamente cuando la
observamos», y «la segunda determinación de la posición selecciona un determinado q [posición] de
entre todas las posibilidades y limita las opciones para todas las medidas subsiguientes». Werner
Heisenberg, «Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik»,
Zeitschrift für Physik 43, 172-198 (1927); cita en pp. 185-186.
38
Para más información acerca de los contenidos de Mathematische Grundlagen der Quanten-
mechanik, véase Miklós Rédei y Michael Stöltzner, eds., John von Neumann and the Foundations of
Quantum Physics (Kluwer, Dordrecht, 2001); Max Jammer, The Conceptual Development of Quantum
Mechanics, op. cit., pp. 390-397, y Max Jammer, The Philosophy of Quantum Mechanics (John Wiley
& Sons, Nueva York, 1974), pp. 474-482.
28
39
Max Born, «Zur Quantenmechanik der Stossvorgänge. (Vorläufige Mitteiling)», Zeitschrift
für Physik 37, 863-867 (1926); p. 866.
40
Max Born, Natural Philosophy of Cause and Chance (Clarendon Press, Oxford, 1949), p. 109.
29
deduciéndola de unos pocos postulados de carácter muy plausible y general [...] El re-
sultado es que el formalismo de la mecánica cuántica está determinado de manera uní-
voca por estos axiomas; en particular, no se pueden introducir parámetros ocultos que
sirvan para permitir convertir la descripción indeterminista en una determinista. Por
consiguiente, en el caso de que una teoría futura sea determinista, no puede ser una
modificación de la actual, sino que debe ser esencialmente diferente. El cómo puede ser
esto posible sin sacrificar todo un tesoro de resultados bien establecidos es algo que dejo
a los deterministas para que se preocupen de ello.
41
David Bohm, «A suggested interpretation of the quantum theory in terms of “hidden varia-
bles”, I and II», Physical Review 85, 166-193 (1952). Con anterioridad, Bohm había sido un segui-
dor estricto de la interpretación de Copenhague, como se comprueba en el magnífico, y muy exito-
so, texto general que publicó sobre la mecánica cuántica: David Bohm, Quantum Theory (Prentice
Hall, Englewood Cliffs, N. J., 1951), en el que ofrecía una prueba de que la mecánica cuántica era
inconsistente con las variables ocultas.
30
Einstein-Podolsky-Rosen
Es bien sabido que Albert Einstein fue un pertinaz crítico de la mecánica
cuántica, al menos interpretada como una teoría probabilista. Famosas son las
discusiones que mantuvo con Niels Bohr. Una vez instalado en Estados Unidos,
en el Institute for Advanced Study, Einstein dio un paso más en sus críticas a la
teoría cuántica en un artículo publicado en 1935 junto a Boris Podolsky y Nathan
Rosen. Se titulaba: «¿Puede considerarse completa la descripción mecánico-cuán-
tica de la realidad física?».42
El texto de Einstein, Podolsky y Rosen (EPR) se refiere a la relación lógica
entre dos afirmaciones, la de que la descripción de la realidad en mecánica cuán-
tica mediante una función de onda es incompleta, y el que magnitudes incompa-
tibles (dos magnitudes físicas cuyos operadores no conmutan, como la posición y
el momento) no pueden tener un valor real, perfectamente definido, de manera
simultánea. Su conclusión era que solo se puede mantener una de estas dos afir-
maciones, la que sostiene que la descripción mecano-cuántica de la realidad física
mediante la función de onda es incompleta.
Lo que demostraron es que la suposición de que la función de onda contiene
una descripción completa de la realidad física de un sistema, junto con el criterio
de realidad que introdujeron, conduce a una contradicción. Para ello proponían
un experimento mental, con dos sistemas, cuyos estados iniciales son conocidos,
que interaccionan durante un cierto tiempo y luego se separan. Su argumentación
se basaba en que se puede conocer el estado del sistema conjunto en cualquier
instante posterior (resolviendo la ecuación de Schrödinger), pero no el estado de
cada sistema por separado, porque la realización de una medición en uno de los
sistemas produce una «reducción del paquete de onda» que conduce a que el
segundo sistema se deje en un estado con dos funciones de onda distintas, de
donde concluían que la teoría cuántica no era completa. Prosiguiendo con el
experimento mental, demostraban que si la función de onda proporciona una
descripción completa, y si las dos funciones de onda se corresponden a dos mag-
nitudes físicas cuyos operadores no conmutan, el experimento conduce a que las
dos magnitudes se pueden medir en cualquiera de las partículas sin perturbarlas;
esto es, que eran elementos de la realidad física. Para conocer el estado de uno
cualquiera de los dos subsistemas tendría que realizarse una medida de alguna
magnitud física (un observable en la terminología cuántica) en este subsistema,
lo que daría lugar a un estado definido por el colapso de la función de onda. El
punto importante es que, si se mide un observable en el subsistema 1, por ejem-
plo, obteniéndose cierto valor a1, la función de onda (o estado en general) de
42
Albert Einstein, Boris Podolsky y Nathan Rosen, «Can quantum.mechanical description of
physical reality be considered complete?», Physical Review 47, 777-780 (1935).
31
este subsistema queda determinado, lo que a su vez determina el estado del sub-
sistema 2 y el correspondiente valor del observable en este subsistema, a2, sin
necesidad de medir en él y por tanto sin perturbarlo ya que ambos subsistemas están
separados. De acuerdo con la definición de elemento de realidad física, puede
decirse que la cantidad a2 es un elemento de realidad perteneciente al segundo
subsistema. Pero podría haberse medido otro observable B en el subsistema 1 y
aplicar el mismo razonamiento para llegar que habría una cantidad b2 que sería
igualmente un elemento de realidad física del subsistema 2. Ahora bien, eso no
es posible según la mecánica cuántica si los operadores cuánticos correspondien-
tes a los observables A y B no conmutan. De ahí, Einstein, Podolsky y Rosen
concluían que la mecánica cuántica no es una teoría completa, pues sería posible
en principio hallar elementos de realidad que no tendrían contrapartida en esta
teoría.
32
Una posibilidad era que existiesen variables, ocultas, que la formulación canó-
nica de la mecánica cuántica no hubiera considerado. No obstante, Einstein, Po-
dolsky y Rosen finalizaban su artículo con cautela:43 «Mientras que hemos demos-
trado que la función de onda no proporciona una descripción completa de la
realidad física, dejamos abierta la cuestión de si existe o no semejante descripción.
Creemos, sin embargo, que tal teoría es posible».
Se mete un gato en una cámara de acero, junto con el siguiente dispositivo diabó-
lico (que debe asegurarse contra cualquier interferencia directa del gato): en un contador
Geiger existe un pequeño trozo de sustancia radiactiva, tan pequeña que acaso en el
curso de una hora uno de los átomos se desintegrará, pero también, con igual probabi-
lidad, tal vez ninguno lo hará; si sucede esto [que se produzca la desintegración], el tubo
del contador genera una descarga y mediante un relé se pone en acción un martillo que
rompe un pequeño frasco de ácido cianhídrico. Si hemos dejado el sistema completo
durante una hora, sin intervenir en él de ninguna manera, podríamos decir que el gato
todavía vive si en ese intervalo no se ha desintegrado ningún átomo. El primer átomo
que se hubiera desintegrado lo habría envenenado. La función Ψ del sistema completo
expresaría esto al estar compuesta por el gato muerto y el gato vivo (perdón por la ex-
presión) mezclados o esparcidos en partes iguales.
43
Ibidem, p. 780.
44
Erwin Schrödinger, «Die gegenwärtige Situation in der Quantenmechanik», Die Naturwis-
senschaften 23, 807-812, 823-828, 844-849 (1935).
45
Ibidem, p. 812.
33
Con mayor claridad, más adelante (tercera entrega, sección 11) explicaba la
característica del entrelazamiento cuántico:47
46
Ibidem, p. 827.
47
Ibidem, p. 844.
34
48
Erwin Schrödinger, «Probability relations between separated systems», Proceedings of the Cam-
bridge Philosophical Society 32, 446-452 (1936), p. 451.
49
Ibidem, p. 452.
50
Reproducida en Rédei, ed., John von Neumann: Selected Letters, op. cit., pp. 210-213.
35
tipos de medidas que se pueden realizar».51 Aunque señalaba que su teoría condu-
cía a «precisamente a los mismos resultados, para todos los procesos físicos, que la
interpretación habitual», añadía que «sin embargo, la interpretación que se sugie-
re proporciona un marco conceptual más amplio que la interpretación habitual,
porque hace posible una descripción precisa y continua de todos los procesos,
incluso en el nivel cuántico». Nótese lo de «continua», que significa que se trataba
de una teoría local.
El artículo de Bohm no pasó desapercibido, pero no modificó demasiado la
consideración en que se tenía a lo que Von Neumann había mantenido en Mathe-
matische Grundlagen der Quantenmechanik (incluso se llegaron a proponer demos-
traciones más generales). Un buen ejemplo en este sentido es el artículo con el que
Wolfgang Pauli contribuyó a un volumen publicado en 1953 en homenaje a Louis
de Broglie.52 Allí, Pauli mantenía que Von Neumann había «demostrado de ma-
nera general» que no es posible reproducir todos los enunciados estadísticos de la
mecánica cuántica de sistemas cerrados por una teoría determinista, y acusaba al
determinismo introducido por Bohm de verse «substraído por principio a la ob-
servación (es decir, es “metafísico”)».53
En 1957, mientras trabajaba en Haifa, Bohm y Yakir Aharonov desarrollaron
una versión no local (esto es, que tenía muy en cuenta el entrelazamiento) más
51
Bohm, «A suggested interpretation of the quantum theory in terms of “hidden variables”»,
op. cit., p. 166.
52
Wolfgang Pauli, «Remarques sur le problème des paramètres cachés dans la mécanique quan-
tique et sur la théorie de l’onde pilote», en Louis de Broglie, physicien et penseur (Albin Michel, París,
1953), pp. 33-42. En sentido parecido al de Pauli se expresaba Leon Rosenfeld en esta misma obra:
«L’évidence de la complémentarité», pp. 43-65). Otro ejemplo es P. Destouches-Février, «Une nou-
velle preuve du caractère essentiel de l’indéterminisme quantique», Comptes rendus 220, 535-555
(1945).
53
Pauli, «Remarques sur le problème des paramètres cachés dans la mécanique quantique et
sur la théorie de l’onde pilote», op. cit., p. 40.
36
54
David Bohm y Yakir Aharonov, «Discussion of experimental proof for the paradox of Eins-
tein, Rosen, and Podolsky», Physical Review 108, 1070-1076 (1957).
55
Sobre John Bell, ver Andrew Whitaker, John Stuart Bell and Twentieth-Century Physics. Vision
and Integrity (Oxford University Press, Oxford, 2016).
56
John S. Bell, «On the Einstein-Podolsky-Rosen paradox», Physics 1, 195-200 (1964), y «On
the problem of hidden variables in quantum mechanics», Reviews of Modern Physics 38, 447-452
(1966).
57
Bell, «On the problem of hidden variables in quantum mechanics», op. cit. Utilizo la traduc-
ción al castellano incluida en John S. Bell, Lo decible y lo indecible en mecánica cuántica (Alianza
Editorial, Madrid, 1990), pp. 25-26.
37
los que los resultados estarían completamente determinados de modo individual. Estos
hipotéticos estados «sin dispersión» vendrían especificados no sólo por el vector estado
mecano-cuántico sino además por «variables ocultas» adicionales; «ocultas» porque si
pudieran prepararse estados con valores prescritos de esas variables, entonces la mecáni-
ca cuántica sería inadecuada a nivel observacional.
Ha sido objeto de debate si esta cuestión es verdaderamente interesante. El presen-
te artículo no contribuye a ese debate. Está dirigido a los que encuentran interesante
dicha cuestión y más particularmente a aquellos, de entre ellos, que piensan que «la
cuestión concerniente a la existencia de tales variables ocultas recibió una respuesta
pronta y bastante decisiva en base a la prueba de Von Neumann de la imposibilidad
matemática de tales variables en la teoría cuántica». Se intentará clarificar lo que real-
mente demostraron Von Neumann y sus continuadores […] Se hará hincapié en que
esos análisis dejan intacta la cuestión real. Se verá, de hecho, que esas demostraciones
requieren de los hipotéticos estados sin dispersión, no sólo de que conjuntos apropiados
de ellos hayan de tener todas las propiedades medibles de los estados cuánticos, sino
además algunas otras propiedades. Estas exigencias adicionales parecen razonables cuan-
do se identifican vagamente con propiedades de sistemas aislados. Se ve que no lo son
cuando se recuerda con Bohr «la imposibilidad de cualquier distinción neta entre el
comportamiento de los objetos atómicos y la interacción con los instrumentos de me-
dida que sirven para definir las condiciones bajo las cuales aparecen los fenómenos».
La conciencia de que la demostración de Von Neumann es de relevancia limitada
ha ido ganando terreno desde el trabajo de Bohm de 1952. Sin embargo, se halla lejos
de ser universal. Además, quien escribe no ha encontrado en la literatura ningún análi-
sis adecuado de qué era incorrecto en dicha demostración. Como todos los autores de
artículos de revisión no hechos por encargo, él cree poder hacer una nueva exposición
38
del tema con una claridad y simplicidad tales que todas las discusiones previas quedarán
eclipsadas.
Provistos del análisis de Bell, en 1969 John Clauser, Michael Horne, Abner
Shimony y Richard Holt, de las universidades de Columbia, Boston y Harvard,
propusieron un experimento concreto para aplicar en él la prueba de las desigual-
dades de Bell.60 Sin embargo, los resultados experimentales que obtuvieron no
58
Ibidem, p. 29.
59
Bell, «On the Einstein-Podolsky-Rosen paradox», op. cit.; Lo decible y lo indecible en mecáni-
ca cuántica, op. cit., pp. 41-42.
60
John F. Clauser, Michael A. Horne, Abner Shimony y Richard A. Holt, «Proposed experiment
to test local hidden-variable theories», Physical Review Letters 23, 880-884 (1969).
39
61
Alain Aspect, Jean Dalibard y Gérald Dalibard, «Experimental test of Bell’s inequalities using
time-varying analyzers», Physical Review Letters 49, 1804-1807 (1982).
62
David Bohm, «Science as perception-communication», en Frederick Suppe, ed., The Structu-
re of Scientific Theories (University of Illinois Press, Urbana, 1977), pp. 374-391; cita en pp. 383-385.
40
va»; tan pronto como se da una interacción entre observador y suceso, es decir,
al producirse una medición, es el primer tipo de suceso el que rige la realidad
cuántica.
La interacción asociada a la medición, el cómo el aparato o el observador afec-
tan al suceso, es algo que en principio se puede definir; Von Neumann lo hacía
diciendo que es la «inserción durante un cierto lapso de tiempo de un cierto aco-
plamiento energético con el sistema que se considera; esto es, la introducción de
una adecuada dependencia temporal de H [operador de energía] impuesta por el
observador». Ahora bien, el auténtico problema residía en el papel del observador
y en el límite entre este y el sistema observado.
Para ilustrar este problema, consideraba el caso de la medición de una tempe-
ratura. Se puede utilizar el termómetro, pero también se puede ir más allá: la
longitud de la columna de mercurio es vista por el observador. Ahora bien, decía,
«¿qué es ver?». En la reflexión de los cuantos de luz de la columna de mercurio
hacia la retina del observador, es donde se registra la imagen. Y en este punto,
manifestaba: «Y si nuestros conocimientos fisiológicos fuesen más exactos de lo
que son hoy, podríamos ir aún más allá, seguir las reacciones químicas que esta
imagen provoca en la retina, en los nervios y en el cerebro, y sólo al final se podría
decir: el observador percibe estos cambios químicos en las células de su cerebro.
Pero por lejos que llevemos los cálculos, hasta el depósito de mercurio, hasta la
escala del termómetro, hasta la retina o hasta el cerebro, llega un momento en el
que hay que decir: y esto es percibido por el observador. Con otras palabras, siem-
pre hemos de dividir el Universo en dos partes: una es el sistema observado, la otra
el observador».
Como señalaba Bohm en el artículo que mencioné anteriormente, el trata-
miento del problema de la medida dado por Von Neumann en Mathematische
Grundlagen der Quantenmechanik se diferenciaba del ofrecido por Heisenberg y
Bohr. En efecto, estos estudiaban con cuidado y meticulosidad las condiciones
experimentales en las que se producía una medición, proceso en el que intervenía
un aparato que ellos trataban como un objeto sujeto a las leyes de la física clásica.63
De esta manera, el observador con su mente o consciencia, en la que tiene lugar
la reducción de la función de onda, no goza del protagonismo que le concedía
Von Neumann, que, al entender que el aparato de medida debe obedecer también
a las leyes cuánticas, se veía conducido a un círculo vicioso del que podía salir
gracias a un planteamiento basado en unas condiciones experimentales extrema-
damente idealizadas y en el reconocimiento de que siempre se llega a una situación
en la que la mente del observador (clásico) hace las veces de un operador (cuánti-
63
Véase, por ejemplo, Werner Heisenberg, The Physical Principles of the Quantum Theory (The
University of Chicago Press, Chicago, 1930) y Niels Bohr «The quantum postulate and the recent
developments of atomic theory», en Atti del Congresso Internazionale dei Fisici, 11-20 Settembre 1927
Como-Pavia-Roma, 2 vols. (Nicola Zanichelli, Bolonia, 1928), vol. II, pp. 565-588; especialmente
la sección 3 («Measurement in the quantum theory»). Hay que considerar, asimismo, los comenta-
rios que sobre los planteamientos de Bohr y Von Neumann se hacen en Edward M. MacKinnon,
Scientific Explanation and Atomic Physics (The University Press, Chicago, 1982), p. 366.
41
co) con el que en mecánica cuántica se obtienen los resultados de las medidas. En
realidad, el procedimiento de Von Neumann era consistente con su enfoque ma-
temático-axiomático: la mente del observador generaliza, «abstrae», la situación en
la que se produce la medida. Desde su punto de vista, la reducción, el colapso de
la función de onda era una necesidad para completar la estructura formal y con-
ceptual de la mecánica cuántica.64
64
La introducción de la consciencia humana como parte integrante de la formulación de la
mecánica cuántica, propuesta por Von Neumann, fue seguida por otros después de él. Eugene Wigner
ha sido, probablemente, quien con más acierto, frecuencia y claridad se ha ocupado de estas cuestio-
nes: E. P. Wigner, «Remarks on the mind-body question», en I. J. Good, ed., The Scientist Speculates
(Heinemann, Londres, 1961), pp. 284-302, y Symmetries and Reflections (Indiana University Press,
Bloomington, 1967), cap. III. Cabe consultar, asimismo, Fritz London y Edmond Bauer, La théorie
de l’observation en mécanique quantique (Hermann, París, 1939), y John A. Wheeler y Wojciech Hu-
bert Zurek, eds., Quantum Theory and Measurement (Princeton University Press, 1983), sección III.
65
Dyson, «A walk through Johnny von Neumann’s garden», op. cit., pp. 76-77.
42
alemán y la primera traducción al inglés sólo se publicó en 1955. Pero creo que, inclu-
so si el libro hubiese estado disponible en inglés, los físicos de la década de 1940 no lo
habrían encontrado interesante. Aquella era una época en la que la cultura de la física y
la cultura de las matemáticas estaban en general muy separadas. La cultura de la física
estaba dominada por personas como Oppenheimer, que establecía amistad con poetas
e historiadores del arte y no con matemáticos puros. La cultura de los matemáticos es-
taba dominada por los absolutistas de Bourbaki, que trataban de expurgar de la mate-
mática todo lo que no fuese puramente abstracto.
66
En 1991 el Consejo Superior de Investigaciones Científicas reeditó el libro, con un estudio
preliminar («John von Neumann y los Fundamentos matemáticos de la mecánica cuántica», pp. xi-lix)
mío, que he reescrito completamente, muy ampliado, para la presente edición. El texto de Von
Neumann ha sido revisado y corregido por el profesor José Luis Sánchez Gómez.
67
Les fondements mathématiques de la mécanique quantique (París, 1946), Mathematical Foun-
dations of Quantum Mechanics (Princeton, 1955). Al italiano se tradujo mucho más tarde: I fonda-
menti matematici della meccanica quantistica (Padua, 1998).
68
Sobre Ortiz Fornaguera, se puede consultar Pablo Soler Ferrán, «La obra científica de Ramón
Ortiz Fornaguera (1916-1974): un capítulo de la física matemática, teórica y nuclear en la dictadu-
ra franquista», en Actes d’Història de la Ciència i de la Tècnica. Nova època, vol. 8 (2015), pp. 9-55.
Sobre la traducción del libro de Von Neumann, M. Baig, G. Gimeno y M. Xipell, «La introducción
de la mecánica cuántica en España: las primeras lecciones y los primeros textos» y «Von Neumann
traducido por Ortiz: una obra pionera en la enseñanza de la cuántica», en Néstor Herrán y Xavier
Roqué, eds., La física en la dictadura. Físicos, cultura y poder en España (1939-1975) (Universitat
Autònoma de Barcelona, Bellaterra, 2012), pp. 161-176 y 177-192. También Gonzalo Gimeno
Valentín-Gamazo, La matemática de los quanta en España, tesis doctoral, Universidad Autónoma de
Barcelona, mayo de 2015, pp. 202-212.
69
Sobre Otero Navascués, véase Ana Romero de Pablos y José Manuel Sánchez Ron, Energía
nuclear en España. De la JEN al CIEMAT (CIEMAT, Madrid, 2001).
70
Terradas a Julio Rey Pastor, 17 de enero de 1948; reproducida en Eduardo Ortiz, Antonio
Roca i Rosell y José M. Sánchez Ron, «Ciencia y técnica en Argentina y España (1941-1949), a
43
Entre septiembre de 1948 y junio de 1949, esto es, en el periodo en que apareció
la traducción del libro de Von Neumann, Ortiz estuvo en Italia, primero en Roma
y después en Milán, formándose en aspectos teóricos de reactores nucleares bajo la
dirección del físico nuclear Bruno Ferreti. Todo apunta en la dirección de que fue
de Terradas de quien partió la idea de traducir al castellano el libro de Von Neu-
mann.71 En el «Prólogo» que Terradas añadió a aquella edición de 1949 indicaba
que el proyecto de traducir el libro se había iniciado «mucho antes de aparecer la
edición francesa, con el objeto de que nuestros estudiantes dispusieran de una re-
lación matemática de la teoría de los quanta como fundamento lo más riguroso
posible de las aplicaciones de la misma a los diversos problemas de la física atómi-
ca y como necesaria educación del pensamiento para aplicar concienzudamente los
principios generales en que se apoya». La idea era comentar el libro «durante cursos
sucesivos en el Seminario de Física Matemática» que dirigía el propio Terradas.
Parece que inicialmente se pensó en publicar el libro con la editorial Espasa-Calpe
de Argentina. Así, en la carta que Terradas escribió a Julio Rey Pastor, y que ya cité,
se lee: «[La traducción de Ortiz] del Neumann, recomendada a Olarra [editor de
Espasa-Calpe Argentina] es muy cuidada y corrige algunos defectillos del original».
Sin embargo, finalmente fue el Instituto de Matemáticas Jorge Juan del Consejo
Superior de Investigaciones Científicas el que publicó el libro.
En el Dipòsit Digital de Documents de la UAB (Universitat Autònoma de
Barcelona) se pueden consultar una serie de cartas que Ramón Ortiz intercambió
con el propio Von Neumann, Terradas, Otero Navascués, Tomás Rodríguez Ba-
chiller y el Alian Property Custodian, el departamento federal estadounidense que
se ocupaba de los derechos de propiedades alemanas y austriacas que se habían
confiscado en calidad de reparaciones de guerra. El 18 de marzo de 1947, Ortiz
escribía a Von Neumann informándole de que había terminado la traducción del
libro, pero que, naturalmente, era necesaria la autorización del poseedor del co-
pyright. Le pedía, por consiguiente, que le indicara quién poseía los derechos. En
su respuesta, del 31 de marzo, Von Neumann decía a Ortiz que «estaba muy con-
tento de saber que se planea traducir Mathematische Grundlagen der Quantenme-
chanik al español», lo que indica que Ortiz había realizado la traducción sin con-
tar con la autorización de Von Neumann. En cuanto a quién tenía los derechos,
le decía: «En consideración a la parte que pertenece a la firma de Julius Springer
(Berlín), el copyright ha pasado a la U.S. Alien Property Custodian. Como yo soy
un ciudadano americano, no estoy haciendo nada para recuperar los derechos. En
consecuencia, su carta debe dirigirse a Alien Property Custodian, Washington,
D.C. Como ya estoy tratando con esta oficina, puedo ahorrarle algún tiempo ob-
teniendo desde aquí los papeles necesarios y enviándoselos a usted. Lo haré du-
rante la semana que viene y se los enviaré».
través de la correspondencia de Julio Rey Pastor y Esteban Terradas», Llull 12, 33-150 (1989);
pp. 140-141.
71
Sobre Terradas, véase Antoni Roca i Rosell y José Manuel Sánchez Ron, Esteban Terradas,
1883-1950. Ciencia y técnica en España (El Serbal, Barcelona, 1990).
44
Estimado profesor,
Supongo que estará Vd. ya al corriente de que, por lo menos de momento, la pu-
blicación de la versión española del libro de Von Neumann, ha caído en saco roto. El
Consejo, en efecto, se niega en absoluto a autorizarla hasta tanto no se haya conseguido
el permiso de quién pueda concederlo.
Dado que, al parecer, nadie se disponía a gestionarlo, hace algo más de un mes
decidí escribir yo mismo a Von Neumann, el cual me contestó muy atentamente con-
forme podrá Vd. advertir en la copia que de su carta le mando adjunta. Hasta hoy no
he sabido aún nada más de él y he creído que quizás fuera conveniente que Vd. le es-
cribiese interesándose por el asunto. Hace ya tres meses que la traducción está lista para
la imprenta y es una lástima que por una mera cuestión de trámite la cosa lleve camino
de eternizarse. Estoy plenamente convencido que de haber estado Vd. aquí todo hubie-
ra ocurrido muy de otro modo; pero ya que esto no ha sido posible, le ruego que vea
de hacer ahí las gestiones que estime oportunas.
Reciba el testimonio de mi mayor consideración y mis más afectuosos saludos.
Querido amigo: Recibí su carta y me alegra que me haya Vd. informado sobre el
asunto del v. Neumann. Como no se esté encima está visto que nada marcha.
72
Tomás Rodríguez Bachiller estudió en la Facultad de Ciencias de la Universidad de Madrid,
a la que siempre estuvo asociado: ocupó desde octubre de 1932 la cátedra vacante de «Análisis ma-
temático 3.º (Ecuaciones diferenciales)» de la Facultad de Ciencias. En propiedad obtuvo en junio
de 1935 la cátedra de «Análisis matemático 4.º (Teoría de funciones)», que pasó a desempeñar el 29
de agosto, dos días después de haber leído su tesis doctoral (Axiomática de la dimensión), condición
indispensable para ser catedrático. En agosto de 1922 entró a formar parte del Laboratorio Semina-
rio Matemático de la Junta para Ampliación de Estudios e Investigaciones Científicas, posiblemen-
te el centro de investigación matemática más activo en España. Aunque no se distinguió por activi-
dades políticas —como otros muchos era, simplemente, un liberal—, después de la Guerra Civil, el
10 de octubre de 1939, se le abrió un expediente administrativo, pero dos meses más tarde, el 22
de octubre, se le permitió reincorporarse al servicio activo, aunque descalificado para ocupar puestos
administrativos. Hombre y científico cosmopolita, pasó algunas temporadas en Puerto Rico, en 1941
viajó a Roma, al Istituto Nazionale di Alta Matematica; en 1947, el año en el que Ortiz le escribió,
después de obtener una beca, pasó cinco meses en los Estados Unidos, primero en la Universidad
de Illinois (Urbana), trabajando con Oscar Zarinski, y después en Princeton, con Solomon Lefschetz,
Emil Artin y Claude Chevalley. Participó en actividades del Instituto Jorge Juan del Consejo, en una
de cuyas colecciones se publicó Fundamentos matemáticos de la mecánica cuántica. Dio varios cursos
sobre topología a partir de 1942, y sobre lógica y fundamentos de matemática desde 1951. Sobre
Rodríguez Bachiller, véase María Ángeles Martínez García y Luis Español González, «The biography
of the Spanish mathematician Tomás Rodríguez Bachiller (1899-1980)», en A. Roca-Rosell, ed., The
Circulation of Science and Technology: Proceedings of the 4th International Conference on the ESHS
(SCHCT-IEC, Barcelona, 2012), pp. 715-722.
45
Yo estoy ya en relación con la entidad que dice Von Neumann y al mismo tiempo
gestiono, y va por buen camino, otras traducciones. Yo enviaré comunicación oficial de
todo a Albareda [José María Albareda, secretario general del Consejo Superior de Inves-
tigaciones Científicas] para que se metan todas ellas (las que están traducidas ya) en la
imprenta, este verano. Como llevo pocos días aquí, aún no he hablado personalmente
con v. Neumann, pero lo haré un día de estos. He gestionado, de editoriales y entidades
científicas, de aquí, los derechos de varias obras, de modo que pienso regresar con la
cartera bastante provista de publicaciones.
De Urbana salí el 21 de abril, pasé varios días en Chicago y otros tantos en New
York, aprovechando sendas reuniones de la American Math. Society. Después me vine
aquí, pero por la dificultad de alojamientos, después de cambiar 3 veces de Hotel, a cual
más caro, me volví a New York un par de días: entretanto logré acomodo aquí, muy
conveniente y casi al lado del Fine Hall que es el Departamento de Matemáticas.
Recibí carta de [Armando] Durán; hágame el favor de decírselo y que le escribiré
pronto.
Salude a los amigos, y Vd. reciba un cordial apretón de manos.
73
Esta errata, que corresponde al capítulo VI («El proceso de medida»), se analiza en Gimeno
Valentín-Gamazo, La matemática de los quanta en España, op. cit., pp. 297-302.
74
Según Gimeno Valentín-Gamazo, La matemática de los quanta en España, op. cit., p. 207, el
ensayo al que se refería Ortiz en esta carta era la memoria de 197 páginas que presentó a las oposi-
46
Sus preguntas sobre la naturaleza de la física matemática y la física teórica son in-
teresantes, pero en mi opinión un poco difíciles de contestar con precisión. Siempre he
trazado una línea de demarcación algo vaga entre los dos campos, pero realmente era
más una diferencia en la distribución del énfasis. Creo que en la física teórica el énfasis
principal está en la conexión con la física experimental y con aquellos procesos meto-
dológicos que conducen a nuevas teorías y nuevas formulaciones, mientras que la física
matemática trata de la solución y ejecución matemática de una teoría que se supone es
correcta per se, o que se supone que lo es en beneficio de la discusión.
En otras palabras, yo diría que la física teórica se ocupa más bien de la formulación
y la física matemática de la explotación de las teorías físicas. Sin embargo, cuando se
tiene que evaluar una nueva teoría y compararla con la experiencia, ambos aspectos
se mezclan.
ciones a las cátedras de Física Matemática de la Universidad de Madrid (1952) y Barcelona (1955):
Sobre el concepto y los métodos de la Física Matemática.
75
Esta carta también se reproduce en Rédei, ed., John von Neumann: Selected Letters, op. cit.,
pp. 118-119.
76
El libro de Weyl procedía de unas conferencias que dio en los «Cursos Monogràfics d’Alts
Estudis i d’Intercanvi» que el Consejo de Pedagogía de la Mancomunitat de Catalunya fundó en
1914 y que luego desarrolló en Madrid. De hecho, el libro lleva el título de Mathematische Analyse
des Raumproblems. Vorlesungen gehalten in Barcelona und Madrid. Entre 1920 y 1923, y bajo la di-
rección de Terradas, varios científicos extranjeros dieron cursos en Barcelona: el italiano Tullio Levi-
Civita (enero de 1921), el francés Jacques Hadamard (abril de 1921), Hermann Weyl (marzo de
1922), el alemán Arnold Sommerfeld (marzo de 1922), Albert Einstein (febrero-marzo de 1923) y
el húngaro, especialista en topología, Szerkeszti Bèla Kérékjártó (mayo-junio de 1923). Para más
47
una introducción escrita por el profesor Esteban Terradas Illa, a quien tuve el pla-
cer de conocer una vez. Su nombre, por supuesto, es bien conocido por mí». Es-
taba, asimismo, agradecido por el cuidado con que Ortiz había realizado la traduc-
ción y por los errores-erratas que había encontrado, con los que estaba de acuerdo.
En un texto con tantas, y no triviales, expresiones matemáticas, no es sorpren-
dente que el proceso de edición resultase complicado. Una carta que Ramón Or-
tiz dirigió el 14 de mayo de 1948 a la industria gráfica Aleu & Domingo, Ltda.,
encargada de la edición, lo refleja:
información sobre estos cursos, véase Roca i Rosell y Sánchez Ron, Esteban Terradas. Ciencia y téc-
nica en la España contemporánea, op. cit., pp. 148-169.
48
Lógica cuántica
La aparición de Mathematische Grundlagen der Quantenmechanik no significó
que Von Neumann abandonase completamente la física cuántica, aunque sí es
cierto que su actividad decayó en este campo. En 1934, por ejemplo, colaboró con
Jordan y Wigner, inventando una nueva álgebra con la esperanza, manifestada
explícitamente, de que fuese útil para la comprensión de los fenómenos nucleares
y la desintegración β.77 Otro trabajo importante fue el que publicó en colaboración
con Garret Birkhoff sobre la lógica de la mecánica cuántica. El objetivo de este
artículo era descubrir qué estructura lógica puede uno esperar encontrar en teo-
rías que, como la mecánica cuántica, no obedecen a la lógica clásica. En este sen-
tido fue uno de los primeros trabajos en un campo que experimentó posterior-
mente un desarrollo significativo: el de la lógica no distributiva.78 Cito de su
«Introducción»:79
Uno de los aspectos de la teoría cuántica que más ha atraído la atención general es
el de la novedad de las nociones lógicas que presupone. Asume que incluso una descrip-
ción matemática completa de un sistema físico ζ no permite en general predecir con
certidumbre el resultado de un experimento sobre ζ, y, en particular, que nunca se pue-
de predecir con seguridad tanto la posición como el momento de ζ (Principio de incer-
tidumbre de Heisenberg). Afirma, además, que la mayor parte de parejas de observacio-
nes son incompatibles y no pueden efectuarse en ζ simultáneamente (Principio de No
Conmutatividad de Observaciones).
El objeto del presente artículo es descubrir qué estructura lógica se puede esperar
encontrar en teorías físicas que, como la mecánica cuántica, no se ajustan a la lógica
clásica. Nuestra conclusión principal, que admitimos se basa en argumentos heurísticos,
es que se puede esperar razonablemente encontrar un cálculo de proposiciones que for-
malmente es indistinguible del cálculo de subespacios lineales con respecto a productos
77
P. Jordan, J. von Neumann y E. Wigner, «On the algebraic generalization of the quantum
mechanical formalism», Annals of Mathematics 35, 29-64 (1934).
78
Acerca de esta lógica, véase Max Jammer, The Philosophy of Quantum Mechanics. The Inter-
pretations of Quantum Mechanics in Historical Perspective (Wiley-Interscience, Nueva York, 1974),
sección 8.2; Josef-Maria Jauch, «Foundations of quantum mechanics», en Fondamenti di meccanica
quantistica (Academic Press, Nueva York, 1971), pp. 20-55, y Bernard D’Espagnat, Conceptual
Foundations of Quantum Mechanics, 2.ª ed. (Addison-Wesley, Redwood City, 1989).
79
Garrett Birkhoff y John von Neumann, «The logic of quantum mechanics», Annals of Mathe-
matics 37, 823-843 (1936), p. 823.
49
Estoy convencido de que Von Neumann sería un buen candidato al que intentar
atraer. En mi última conversación con Weyl me recomendó fuertemente a Neumann
como su sucesor, de manera que los dos principales hombres, Dirac y Weyl, evidente-
mente tienen buena opinión de él. He estado siguiendo a Von Neumann desde hace tres
años o más, como el mejor joven en Alemania. Me encontré con él el verano pasado en
Bolonia y hablamos de la posibilidad de que viniese aquí con una beca internacional.
Después me escribió diciéndome que no le sería posible por haber aceptado un puesto
especial de algún tipo en Hamburgo. Es privadotzent en Berlín, pero es húngaro de
nacimiento. Personalmente ofrece una muy buena impresión.
80
Su solicitud para adquirir el rango de Privatdozent fue revisada y apoyada por E. Schmidt e
I. Schur, y evaluada por L. G. E. M. Bieberbach, E. Hopf, M. von Laue, R. von Mises, W. Nernst,
M. Planck y W. Schottky.
81
Citada en Steve Batterson, Pursuit of Genius. Flexner, Einstein, and the Early Faculty at the
Institute for Advanced Study (A. K. Peters, Wellesley, Mass., 2006), p. 140.
50
ocuparía la otra mitad del año Eugene Wigner. La idea era que diese durante un
semestre un curso de mecánica cuántica a partir de febrero de 1930, con un salario
de 3.000 dólares más 1.000 para viajes. Al recibir la invitación, Von Neumann
escribió a Veblen desde Berlín señalando que tendría que «resolver algunos asuntos
personales [...] antes de dar una respuesta definitiva».82 Cinco días más tarde volvía
a escribirle, ahora desde Budapest: «Puesto que he podido solucionar satisfactoria-
mente el asunto familiar del que me ocupaba (pretendo casarme en diciembre), me
encuentro en la agradable situación de poder aceptar su muy amable ofrecimiento».
Su situación familiar era, efectivamente, algo complicada: su padre había fallecido
recientemente y su madre y hermanos menores le tomaron en adelante como ca-
beza de familia (una vez instalado en Estados Unidos, terminó llevándose allí a
toda su familia). La boda que anunciaba a Veblen fue con Marietta Kovesi, hija de
un médico de Budapest, viejo amigo de la familia. Fruto de aquella unión fue una
hija, Marina, nacida en Princeton en 1935. Sin embargo, el matrimonio terminó
con un divorcio: en 1937, el mismo año en que adoptó la ciudadanía estadouni-
dense. Pronto, 1938, Von Neumann volvió a casarse, de nuevo con una húngara,
Klara Dan, divorciada como él. Klara, o Klari como la llamaban, se convirtió en
una magnífica programadora de problemas matemáticos en las primeras computa-
doras electrónicas.
Y así, durante los siguientes años Von Neumann pasó la mitad del año en
Princeton y la otra mitad en Berlín (fue en aquella época, recordemos, cuando
escribió Mathematische Grundlagen der Quantenmechanik). De época es un tra-
bajo que se apartaba algo de lo que había hecho hasta entonces, pero que no
obstante pasó a formar parte de la bibliografía básica del campo del que se ocu-
paba: la teoría ergódica. Recordemos que la teoría ergódica tiene sus orígenes en
la sugerencia, debida a Maxwell y Boltzmann, de que una condición suficiente
para que un sistema mecánico esté en equilibrio térmico es que, al evolucionar,
obedeciendo las leyes de la mecánica, pase por todo microestado antes de regresar
a su microestado inicial. En el capítulo sobre «Los fundamentos conceptuales a
la aproximación estadística en mecánica» que Paul y Tatiana Ehrenfest publicaron
en 1912 en la Encyklopädie der mathematischen Wissenschaft dirigida por Felix
Klein, denominaron a esta conjetura la «hipótesis ergódica».83 En 1913, dos ma-
82
Citado en Heims, J. von Neumann y N. Wiener, op. cit., vol. I, p. 155.
83
Paul y Tatiana Ehrenfest, «Begriffliche Grundlagen der statistichen Auffassung in der Mecha-
nik», Encyklopädie der mathematischen Wissenschaft, vol. IV, parte 4. Yo he utilizado la traducción al
inglés: The Conceptual Foundations of the Statistical Approach in Mechanics (Cornell University Press,
Ithaca, 1959). La expresión «hipótesis ergódica» aparece ahí por primera vez en la p. 23. Justo antes,
en la sección 10.ª (p. 22), los Ehrenfest escribían: «La existencia de sistemas ergódicos (esto es, la
consistencia de su definición) es dudosa». Boltzmann había utilizado el término ergoden en 1884:
L. Boltzmann, «Über die Eigenschaften monozyklischer und anderer damit verwandter Systeme»,
Journal für die reine und angewandte Mathematik 98, 68-94 (1884-1885); véanse los comentarios
que sobre este punto realizó Stephen G. Brush en la traducción al inglés de Vorlesungen über Gastheo-
rie, 2 vols. (1896, 1898) de Boltzmann: Lectures on Gas Theory (University of California Press, Ber-
keley, 1964), p. 297, nota a pie de página.
51
84
Véase Stephen G. Brush, «Proof of the Impossibility of Ergodic Systems: The 1913 Papers
of Rosenthal and Plancherel», Transport Theory and Statistical Physics 1, 287-311 (1971).
52
85
John von Neumann, «Proof of the quasi-ergodic hypothesis», Proceedings of the National
Academy of Sciences 18, 70-82 (1932). Véanse también las contribuciones de George D. Birkhoff,
«Proof of the ergodic theorem», Proceedings of the National Academy of Sciences 17, 656-660 (1931);
Bernard O. Koopman, «Hamiltonian Systems and Transformations in Hilbert Space», Proceedings of
the National Academy of Sciences 17, 135; y George D. Birkhoff y Bernard O. Koopman, «Recent
contributions to ergodic theory», Proceedings of the National Academy of Sciences 18, 279-282 (1932).
Sobre los trabajos de Von Neumann en la teoría ergódica, véase Paul Halmos, «Von Neumann on
measure and ergodic theory», Bulletin of the American Mathematical Society 64, 86-94 (1958). Con
Halmos, que fue ayudante suyo en Princeton, escribió otro artículo sobre la teoría ergódica: John
von Neumann y Paul R. Halmos, «Operator methods in classical mechanics, II», Annals of Mathe-
matics 43, 332-350 (1942). En su autobiografía, Halmos comentó este trabajo y su colaboración
con Von Neumann: Paul R. Halmos, I Want to Be a Mathematician (Springer-Verlag, Nueva York,
1985), pp. 100-101.
86
El impulsor del Instituto fue Abraham Flexner, su primer director. Entre 1930 y 1932, Flex-
ner viajó por Europa y Norteamérica discutiendo sus planes con líderes científicos, ayudado sobre
todo por Veblen, entonces catedrático en la Universidad de Princeton. La historia del Instituto y los
detalles de la incorporación a él de Von Neumann se detallan en Batterson, Pursuit of Genius, op.
cit. Véase, asimismo, la autobiografía de Flexner, I Remember (Simon and Schuster, Nueva York, 1940).
53
grupo de Lie?». En 1953, Von Neumann resolvió el problema para el caso de gru-
pos bicompactos.87
Contrariamente a lo que a veces se supone, Von Neumann no abandonó Eu-
ropa por miedo a las persecuciones políticas surgidas del régimen establecido en
Alemania por Adolf Hitler, quien, recordemos, se convirtió en canciller de Alema-
nia el 30 de enero de 1933, cuando Von Neumann ya había establecido su resi-
dencia en Estados Unidos. Él mismo hizo hincapié en este hecho; el 3 de mayo
de 1946 escribió lo siguiente al sociólogo, especialista en temas de emigración de
Yale, Maurice Davie:88 «Llegué por primera vez a Estados Unidos en enero de 1930
y, como las condiciones en Europa entonces eran, en lo principal, normales, yo
no me consideraría un científico refugiado». Aun así, entre las razones por las que
decidió abandonar Europa se encontraban las políticas, como se comprueba en lo
que declaró en una comparecencia en el Congreso estadounidense relacionada con
su nombramiento como miembro de la Comisión de Energía Atómica (lo que
implicaba acceso a todo tipo de documentos clasificados):89 «Las condiciones en
Hungría eran bastante limitadas […] lo que yo estaba haciendo tenía mejores
posibilidades en América […] Estaba mucho más en sintonía con las instituciones
de América […] Esperaba la Segunda Guerra Mundial y tenía miedo de que Hun-
gría estuviese en el lado nazi y no quería quedar atrapado allí».
Aunque lo importante en un científico es lo que piensa, lo que hace y, en me-
nor aunque no despreciable medida, las relaciones que establece, tampoco está mal
ofrecer una imagen de su apariencia física. En el caso de Von Neumann contamos
con una descripción que el matemático polaco Stanislaw Ulam —quien nos vol-
verá a aparecer más adelante— incluyó en sus memorias. Refiriéndose a Von Neu-
mann tal y como era en el otoño de 1935, escribió:90
Por lo que me había dicho Kuratowski, le había imaginado delgado, como, al pare-
cer lo era en 1927. En lugar de eso estaba bastante regordete, aunque todavía no tan
corpulento como luego llegaría a estar. Lo primero que me llamó la atención de él fue-
ron sus ojos, oscuros, grandes, vivaces y expresivos. Su cabeza impresionaba por su gran
tamaño. Se balanceaba al caminar […]
Von Neumann me pareció muy joven, aunque tenía treinta y tantos, unos cinco o
seis mayor que yo (siempre he tenido un sentimiento ambivalente hacia la gente mayor
que yo: por una parte, algo así como respeto; por otra un ligero sentimiento de supe-
rioridad por disponer de más futuro por delante). Congeniamos inmediatamente. Su
87
John von Neumann, «Die Einführung analytischer parameter in topologischen Gruppen»,
Annals of Mathematics 34, 170-190 (1933). En 1934, Lev Pontrjagin lo demostró para el caso de
grupos conmutativos localmente bicompactos; en 1952, tres estadounidenses —Andrew Gleason,
por un lado, y Deane Montgomery y Leo Zippin, por otro— encontraron la demostración para el
caso de todos los grupos localmente bicompactos: A. Gleason, «Groups without small subgroups»,
Annals of Mathematics 56, 193-212 (1952); D. Montgomery y L. Zippin, «Small subgroups of fini-
te-dimensional groups», Proceedings of the National Academy of Sciences 38, 440-442 (1952).
88
Reproducida en Rédei, ed., John von Neumann: Selected Letters, op. cit., p. 94.
89
Ibidem, p. 2.
90
Stanislaw M. Ulam, Aventuras de un matemático (Nivola, Madrid, 2002), p. 94.
54
John von Neumann a mediados de la década de 1930 (foto de Alan W. Richards, cortesía
de AIP Emilio Segrè Visual Archives).
91
Ibidem, p. 104.
92
Ulam et al. en Fleming y Bailyn, eds., The Intellectual Migration, op. cit., p. 238.
55
mente contradictoria con lo que decía Ulam, es la imagen que dio de él Gian
Carlo Rota:93
Von Neumann era un hombre solitario con serios problemas personales. Su prime-
ra mujer se marchó con un estudiante graduado. Tenia dificultades para relacionarse con
otros, salvo en un nivel estrictamente formal. Todo aquel que hablaba con él advertía
un cierto alejamiento, una distancia que nunca se podría superar. Siempre iba vestido
de manera impecable con trajes de hombre de negocios, y nunca se quitaba la chaqueta
(incluso cuando montaba a caballo), como para protegerse del mundo.
Matemáticas aplicadas
Una de las características más destacadas de John von Neumann fue la de su
interés por lo que podríamos denominar matemática aplicada, aunque física mate-
mática, con su énfasis en la física, también sería apropiado en algunas ocasiones.
En una entrevista que le hizo, en húngaro, un tal Louis Halász para el programa
Voice of Free Hungary, publicado posteriormente, traducido al inglés, con el título
de Voice of America, y ante la pregunta de «¿Cómo es que usted, un matemático,
ha llegado a tener un contacto tan estrecho con la investigación atómica?», Von
Neumann respondió:94
Existen dos categorías de matemáticos: los llamados puros y los llamados matemá-
ticos aplicados. Sin embargo, como suele suceder, esta separación no está definida con
demasiada claridad y muchas veces ocurre que la misma persona trabaja en ambos cam-
pos. Supongo que yo podría llamarme a mí mismo un matemático puro, pero también
he tenido mucho que ver con las matemáticas aplicadas, especialmente con la teoría
cuántica o la física atómica, y con la hidrodinámica, que es la teoría del movimiento de
líquidos y gases. La transición entre estos campos es fácil.
Como señalaba aquí Von Neumann, los trabajos que dedicó a la mecánica cuán-
tica de la segunda mitad de la década de los años veinte en adelante constituyen
muestra de su interés por la matemática aplicada, en este caso la física teórica, pero
se podría argumentar que se involucró en ese problema debido a la influencia de
Hilbert y a la atracción que ejerció sobre él el tema de los fundamentos, entonces
en boga en la matemática. No es difícil, sin embargo, ofrecer otros ejemplos que
revelan su genuino interés por la física-matemática aplicada, además de la hidrodi-
námica que mencionaba. El astrofísico Subrahmanyan Chandrasekhar, que mantu-
vo una prolongada relación con él, dejó testimonio de este hecho.95 Von Neumann
93
Rota, Indiscrete Thoughts, op. cit., p. 71. Recuérdese lo que escribió, y ya cité, sobre él Euge-
ne Wigner: «Nunca sentí conocer bien a Von Neumann en la escuela. Acaso, nadie lo hizo; siempre
se mantuvo algo aparte».
94
The Neumann Compendium, op. cit., pp. 695-699; p. 697.
95
«Subrahmanyan Chandrasekhar. Transcript of an interview by Spencer Weart (May 17,
1977)», Sources for History of Modern Astrophysics (American Institute of Physics, Center for History
of Physics, Nueva York).
56
pasó los meses de enero a julio de 1935 en Cambridge (Inglaterra), dando con
ferencias de matemáticas en la Universidad. Allí se encontraba Chandrasekhar, en-
tonces fellow del Trinity College, y al que el ya profesor del Instituto de Princeton
sugirió que colaboraran en problemas de esferas de gases relativistas. Según Chan-
drasekhar, Von Neumann dijo: «Si hay objetos que colapsan, lo deben hacer hacia
dimensiones más pequeñas. Debemos por consiguiente considerar el problema des-
de la perspectiva de la relatividad general». Así lo hicieron, pero sin demasiado
éxito, aunque el problema físico que se plantearon, a instancias de Von Neumann,
tenía un gran interés; fue resuelto varios años más tarde por Robert Oppenheimer
y sus estudiantes George Volkoff y Hartland Snyder, en unos artículos que se con-
sideran como precursores de la actualmente en boga teoría relativista de los agujeros
negros, a la que el propio Chandrasekhar contribuiría muchos años después.96
96
J. Robert Oppenheimer y George Volkoff, «On massive neutron cores», Physical Review 55,
374-381 (1939); J. Robert Oppenheimer y Hartland Snyder, «On continued gravitational contrac-
tion», Physical Review 56, 455-459 (1939).
97
Halmos, «La leyenda de John von Neumann», op. cit., p. 21.
57
Querido Lewis:
Muchas gracias por tu muy amable nota relativa al galardón de la Medalla del Mé-
rito que he recibido.
No necesito decirte que me siento altamente honrado por este reconocimiento,
aunque no puedo dejar de pensar que, al margen del normal conocimiento de mi inca-
pacidad personal, todo lo que hice durante la guerra eran per se muy interesantes y es-
timulantes empresas intelectuales. De hecho, la guerra me introdujo en grandes partes
de la física matemática y aplicada que antes había desatendido y pienso que he recibido
bastante más de lo que he dado.
98
Reproducida en Rédei, ed., John von Neumann: Selected Letters, op. cit., p. 240. Cuando en
enero de 1947 Truman decidió crear una Atomic Energy Commission, que pasó a monopolizar
todos los asuntos relacionados con la energía nuclear una vez desaparecido el Proyecto Manhattan,
nombró a Strauss uno de los cinco comisionados, puesto que mantuvo hasta 1953, momento en
que pasó a ser su chairman (esto es, director), nombrado por el presidente Eisenhower. La historia
de la Atomic Energy Commission se encuentra en Richard G. Hewlett y Oscar E. Anderson, jr., The
New World. A History of the United States Atomic Energy Commission, Volume I: 1939-1946 (Univer-
sity of California Press, Berkeley, 1990) y Richard G. Hewlett y Francis Duncan, Atomic Shield. A
History of the United States Atomic Energy Commission, Volume II: 1947-1952 (University of Califor-
nia Press, Berkeley, 1990).
99
Véanse los informes que preparó en 1942 y 1943 para el National Defense Research Com-
mittee of the Office of Scientific Research and Development (OSRD): «Theory of shock waves»,
Progress Report, Division B National Defense Research Committee of the OSRD (1943), U.S. Dept.
Comm. Off. Tech. Serv. No. PB32719 (reproducido en Von Neumann, Collected Works, vol. 6,
pp. 178-202, y en The Neumann Compendium, op. cit., pp. 378-402); «Theory of detonation waves»,
A Progress Report to April, 1942 Division B National Defense Research Committee of the OSRD Section
B-1 OSRD 549 (reproducido en Collected Works, vol. 6, pp. 203-218).
58
100
Véanse los comentarios que hacía Robert Serber en The Los Alamos Primer, un documento
(en su momento secreto) que recogía las notas de un curso de cinco conferencias que Serber dio en
las dos primeras semanas de abril de 1943 en Los Álamos. Robert Serber, The Los Alamos Primer,
Richard Rhodes, ed. (University of California Press, Berkeley, 1992), pp. 56-63.
101
Citado en Lillian Hoddeson, Paul W. Henriksen, Roger A. Meade y Catherine Westfall,
Critical Assembly. A Technical History of Los Alamos during the Oppenheimer Years, 1943-1945 (Cam-
bridge University Press, Cambridge, 1993), pp. 130-131.
59
Von Neumann dio con la idea de utilizar ondas de choque para impulsar las
piezas de material fisionable, empleando para ello unos explosivos, llamados «len-
tes», a los que se daba la forma necesaria para dirigir, para enfocar, las dos partes
hacia un mismo punto.102 Ahora bien, Von Neumann se encontró con que le era
imposible obtener soluciones numéricas para su modelo matemático de implosión;
los grupos de calculadoras (habitualmente mujeres) con instrumentos de cálculo
manuales no podían manejar las grandes cantidades de operaciones que era preci-
so realizar. Para progresar era necesario mejorar la capacidad de cálculo y Von
Neumann se dedicó a recorrer las instalaciones que en este dominio existían en la
Universidad de Harvard y en los Laboratorios Bell, pero las máquinas que vio no
satisfacían sus necesidades. En agosto de 1944 coincidió en una estación de ferro-
carril con Hermann Goldstine, que más tarde se convertiría en un estrecho cola-
borador suyo; a través de él, se enteró de que en la Escuela Moore de Ingeniería
Electrónica de la Universidad de Pensilvania se estaba construyendo un computa-
dor electrónico, el ENIAC (Electronic Numerical Integrator And Computer), preci-
samente para los Ballistic Research Laboratories. Cuando Von Neumann se puso
en contacto con los miembros de la Moore School ya estaba claro que no existían
serios obstáculos para finalizar la construcción de ENIAC, un instrumento enorme
que contenía 18.000 válvulas (su predecesor, Collossus, construido en Inglaterra,
tenía 1.500); de hecho, ya se estaba pensando en la siguiente máquina de la fami-
lia, EDVAC (Electronic Discrete Variable Arithmetic Computer). Von Neumann se
sumó a este proyecto, dedicándose al estudio de los problemas de su organización
lógica (volveré a este punto en la sección siguiente, cuando trate de la relación
entre él y Turing).103 De hecho, muchas de las cuestiones con las que Von Neu-
mann se encontró durante la guerra (dinámica de medios continuos, electrodiná-
mica clásica, hidrodinámica, elasticidad) eran intratables mediante métodos ana-
líticos. En un informe que preparó en 1946 en colaboración con Hermann
Goldstine, se hacía hincapié en este problema:104
102
Se pueden encontrar más detalles sobre estos problemas y la contribución de Von Neumann
en la autobiografía de Teller: Edward Teller, con Judith Shoolery, Memoirs (Perseus Publishing, Cam-
bridge, Mass., 2001), pp. 174-177. Von Neumann escogió este tema para la conferencia que pro-
nunció en el Congreso Internacional de Matemáticos celebrado en Cambridge, Massachusetts, en
1950. La tituló «Shock interaction and its mathematical aspects». En el siguiente congreso, que tuvo
lugar en Ámsterdam en 1954, pronunció otra conferencia, esta una de las dos plenarias (que no
coincidían con otras actividades), la inaugural: «Unsolved problems in Mathematics» (la otra, la que
cerró el congreso, la dio A. Kolmogorov). Desgraciadamente, no proporcionó el texto de su confe-
rencia en Ámsterdam; véase Proceedings of the International Congress of Mathematicians, vol. I (Erven
P. Noordhoff N. V.-North-Holland Publishing Co., Groningen-Ámsterdam, 1957), donde en la
p. 348 aparece el nombre de Von Neumann y el título de su conferencia junto a la nota: «No ma-
nuscript of this lecture was available».
103
Sobre Von Neumann y las computadoras, véase W. Aspray, John von Neumann and the Ori-
gins of Modern Computing (MIT Press, Cambridge, Mass., 1990).
104
Hermann H. Goldstine y John von Neumann, «On the principles of large scale computing
machines». Este trabajo no se publicó hasta que apareció en Papers of John von Neumann on Com-
puting and Computer Theory, W. Aspray y A. Burks, eds. (MIT Press, Cambridge, Mass., 1986),
60
A finales del verano de 1945, después del final de la guerra en Europa y en Asia,
John von Neumann, un gran matemático de su tiempo y de cualquiera, y Vladimir
Zworykin, un auténtico genio electrónico del equipo de la Radio Corporation of Ame-
rica, vinieron a verme al Departamento de la Marina de Guerra [Navy Department].
Me presentaron una idea que habían desarrollado para la construcción de un dispositi-
vo que, si funcionase, sería el precursor de un aparato para predecir el tiempo a lo
largo de periodos bastante largos con la misma precisión que los dispositivos mecánicos
para predecir mareas. Estos predictores de mareas, me explicó Von Neumann, sólo ne-
cesitaban trabajar con unas pocas variables. Sería posible, continuó, ensamblar tubos
electrónicos de memoria (que habían sido desarrollados por Zworykin y Reichman y
sus asociados) en un circuito de manera que contendría una cantidad enorme de infor-
mación. Esta información consistiría de observaciones de temperatura, humedad, di-
rección y fuerza del viento, presiones barométricas y muchos otros datos meteorológicos
en muchos puntos de la superficie terrestre y en alturas seleccionadas sobre ésta. Tal
información podría almacenarse en las «memorias» de estos tubos. A partir de los re-
sultados observados del tiempo, se podría desarrollar un patrón o sistema armónico que
pudiese en semejante dispositivo de almacenamiento de datos predecir con precisión el
tiempo en un rango extremadamente extenso. Propusieron que el Institute for Advanced
Study, la Radio Corporation of America y la Navy participasen en este desarrollo cons-
truyendo el primero de estos dispositivos, que ahora constituyen la creciente familia de
computadoras.
pp. 317-348. Yo lo he tomado de The Neumann Compendium, op. cit., pp. 494-525; la cita aparece
en las pp. 494-495 de esta obra.
105
Lewis Strauss, Men and Decisions (Doubleday, Nueva York, 1962), pp. 232-234. En aquel
momento Strauss formaba parte de la Oficina del Secretario de la Marina de Guerra.
61
Von Neumann y Robert Oppenheimer, delante de la computadora del Institute for Advanced
Study (foto de Alan W. Richards, cortesía de AIP Emilio Segrè Visual Archives).
Señalaron las ventajas militares de conocer el tiempo con mucha antelación, y esto
parecía justificar el coste de tal aventura, estimado en unos 200.000 dólares. Natural-
mente, había personas que tenían que ser consultadas, que pensaban la guerra que aca-
baba de finalizar sería la última guerra mundial y que era mejor que la petición de se-
mejante dispositivo procediera del Departamento de Agricultura o de la Agencia del
Tiempo [Weather Bureau]. Afortunadamente, su punto de vista no prevaleció.
Se tomó finalmente una decisión, siendo el Ejército [Army] el principal interesado,
y la computadora se construyó al lado del Institute for Advanced Study de Princeton,
del que Von Neumann era miembro. La visión de Herbert Maass, entonces presiden-
te del Instituto, y de Samuel Leidesdorf, su tesorero, fue importante en el lanzamiento
de esta empresa; de igual manera, el apoyo del almirante Harold G. Bowen, director de
la Oficina de Investigación Naval, que vio sus posibilidades en otras áreas. Se convirtió
en el prototipo de instrumentos que demostraron ser útiles en campos muy alejados de
su propósito original, que, incidentalmente, todavía tiene que ser realizado. Los trabajos
comenzaron en 1946, pero los problemas de construir una máquina tan nueva y que
comenzase a funcionar exigieron casi cinco años. Es interesante señalar que el primer
gran problema que se le puso fue para el programa del arma termonuclear [la bomba de
hidrógeno]. Si la decisión de construir la computadora no se hubiese tomado en 1945,
el programa termonuclear podría haberse retrasado lo suficiente como para que los so-
viéticos hubiesen tenido las primeras bombas. Esto estaba fuera del pensamiento de
todos cuando Von Neumann inició el proyecto.
62
Von Neumann, en la inauguración del Institute for Advanced Study, 1952 (© Nicholas A.
Vonneuman).
Freeman Dyson fue testigo directo en el Institute for Advanced Study del in-
terés de Von Neumann por la predicción del tiempo, como recordó en uno de sus
escritos:106
Soy lo bastante viejo como para haber estado presente casi en la creación de la tec-
nología informática. Estaba en Princeton cuando, a finales de los años cuarenta y prin-
cipios de los cincuenta, John von Neumann construía nuestra famosa computadora
JOHNNIAC. Von Neumann era un gran matemático, y en ese momento tenía la repu-
tación de ser el hombre más inteligente del mundo. Era supuestamente la fuerza inte-
lectual que movía todo el desarrollo de los ordenadores. Von Neumann fue un gran
pensador y un gran empresario; a pesar de ello erró completamente en su apreciación
del papel que las computadoras habrían de tener en los negocios humanos.
Recuerdo una charla que dio Von Neumann en Princeton hacia 1950 y que descri-
bía el glorioso futuro que él entonces vislumbraba para sus computadoras. La meteoro-
logía era el gran objeto de su horizonte. Decía que en cuanto tuviéramos buenas com-
putadoras, podríamos dividir los fenómenos de la meteorología claramente en dos
categorías: los estables y los inestables. Los fenómenos inestables son aquellos que sufren
106
Freeman Dyson, «Los sueños de los ingenieros», en El infinito en todas direcciones (Tusquets,
Barcelona, 1991), pp. 175-194; cita en pp. 176-177.
63
desajustes por perturbaciones pequeñas; los fenómenos estables son aquellos que son
elásticos ante las pequeñas perturbaciones. Decía que en cuanto tuviéramos algunas
computadoras grandes trabajando, los problemas de la meteorología se resolverían. Se-
ríamos capaces de predecir todos los procesos estables, y de controlar en el espacio y el
tiempo los puntos en los cuales se originaron, y entonces, unos pocos aeroplanos con
generadores de humo podrían volar hasta esos puntos e introducir las pequeñas pertur-
baciones necesarias para conseguir que los procesos inestables se dirigiesen en la dirección
deseada. Una comisión central de expertos en computadoras y meteorólogos indicaría a
los aeroplanos hacia dónde dirigirse para estar seguros de que el 4 de julio no llovería
durante el «picnic». Este era el sueño de Von Neumann. Este, y la bomba de hidrógeno,
eran los principales beneficios prácticos que él veía originarse del desarrollo de los orde-
nadores.
A continuación, Dyson señalaba que los meteorólogos que trabajaron con Von
Neumann no creían en su sueño, que no pretendían controlar el clima, únicamen-
te entenderlo. Y continuaba:107
¿Por qué el sueño de Von Neumann fue un fracaso total? El sueño se basaba en una
incomprensión fundamental de la naturaleza de los movimientos de los fluidos. No es
cierto que los movimientos de los fluidos puedan dividirse de forma tajante entre aque-
llos que son predecibles y aquellos que son controlables. Generalmente, la naturaleza es
más imaginativa que nosotros. Hay una clase muy grande de sistemas dinámicos clásicos,
incluyendo tanto los circuitos eléctricos no lineales como los fluidos, que caen fácilmen-
te en un comportamiento que se describe con la palabra «caótico». Generalmente, un
movimiento caótico no es ni predecible ni controlable. Es impredecible porque una
pequeña alteración producirá una perturbación del movimiento en forma exponencial-
mente creciente.
107
Ibidem, p. 178.
108
Reproducidas en Rédei, ed., John von Neumann: Selected Letters, op. cit., pp. 234-239.
64
Estoy convencido de que una máquina electrónica del tipo más avanzado que se
pueda imaginar debería ser construida, no para emplearla en problemas específicos de
matemática aplicada, de física y de ingeniería, sino con el propósito de experimentar
109
La frase «combinando y “organizando” adecuadamente los componentes existentes» se debe
entender desde el punto de vista de la arquitectura lógica, de la que me ocupo en la sección siguien-
te, «Von Neumann y Alan Turing».
65
con la propia máquina para así desarrollar nuevos métodos de computación y de apro-
ximación, y para, en general, adquirir formas de pensamiento lógicas y matemáticas que
son necesarias para utilizar de forma realmente eficiente tal máquina [...] No tengo
ninguna duda, por consiguiente, de que nos encontramos en el umbral de desarrollos
muy importantes tanto en matemática pura como en sus aplicaciones, y que un institu-
to dedicado a la investigación pura debería emplear varios años para construir una má-
quina y experimentar con ella. Si dedicamos varios años a experimentar con semejante
máquina, sin necesidad de preocuparnos por aplicaciones inmediatas, estaremos al final
de ese período en una posición mucho mejor en todos los aspectos, incluyendo las apli-
caciones.
110
En una carta fechada el 20 de noviembre de 1945 al decano del MIT, George B. Harrison,
en la que respondía (negativamente) a la oferta de una cátedra de Matemáticas, Von Neumann se-
ñalaba: «Ahora se ha manifestado que existe una muy excelente oportunidad para [acometer nuevos
proyectos en el campo de la computación automática a alta velocidad] en Princeton. El Institute for
Advanced Study y la Radio Corporation of America (cuyo laboratorio de investigación está situa-
do, como sabe, en Princeton), con la ayuda de la Universidad de Princeton, me han ofrecido apo-
yar el desarrollo de este Proyecto. Por lo que sé, están suministrando financiación adecuada y
mano de obra […] En estas circunstancias creo que mi primera responsabilidad es permanecer en
Princeton y dirigir este Proyecto. Debo, por consiguiente, declinar su muy halagadora oferta, aunque
lo hago con gran pesar»; reproducida en M. Rédei, ed., John von Neumann: Selected Letters, op. cit.,
pp. 138-139.
111
John von Neumann, «The general and logical theory of automata», en Cerebral Mechanisms
in Behavior. The Hixon Symposium, L. A. Jeffress, ed. (John Wiley, Nueva York, 1951), pp. 1-31;
reimpreso en Papers of John von Neumann on Computing and Computer Theory, op. cit., pp. 391-431;
66
cita en p. 395. Existe versión castellana: «Teoría general y lógica de los autómatas», en H. Aiken y
otros, Perspectivas de la revolución de los computadores (Alianza, Madrid, 1975), pp. 131-163; en esta
obra también se encuentra reproducido (traducido al castellano) un informe que preparó en 1946
junto con Arthur W. Burks y Herman H. Goldstine para el Ejército estadounidense (U.S. Army
Ord. Dept., contract W-36-034-0RD-7481): «Discusión preliminar del proyecto lógico de un ins-
trumento de cómputo electrónico», pp. 69-80.
112
Alan Turing, «On computable numbers, with an application to the Entscheidungsproblem»
Proceedings of the London Mathematical Society 42, 230-265 (1937), «On computable numbers, with
an application to the Entscheidungsproblem. A correction», Proceedings of the London Mathematical
Society 43, 544-546 (1937). Aunque fue recibido en la redacción de Proceedings of the London Mathe-
matical Society el 28 de mayo de 1936, y leído el 12 de noviembre, se publicó en 1937; este es el
motivo por el que a veces se dice que se publicó en 1936.
67
113
El resultado de Turing había sido obtenido unos meses antes, bajo otros planteamientos, por
Alonzo Church, «An unsolvable problem of elementary number theory», American Journal of Mathe-
matics 58, 345-363 (1936), «A note on the Entscheidungsproblem», Journal of Symbolic Logic 1,
40-41 (1936), «A note on the Entscheidungsproblem, Correction», Journal of Symbolic Logic 1, 101-
102 (1936). Para más detalles, tanto de las diferencias entre las aportaciones de Church y Turing,
como sobre los trabajos de este, véase José Manuel Sánchez Ron, «Alan Turing: Person of the xxth
century», Arbor 189, n.º 764 (noviembre-diciembre 2013), 14 pp. Una referencia notable para la
historia del origen de las computadoras es Martin Davis, The Universal Computer. The Road from
Leibniz to Turing (CRC Press, Boca Raton, Florida, 2011).
68
Señor,
Mr. A. M. Turing me ha informado que está solicitando una Proctor [sic] Visiting
Fellowship para la Universidad de Princeton desde Cambridge [Turing estaba pasando
el verano en Inglaterra] para el año académico 1937-1938. Querría apoyar su solicitud
e informarle que conozco muy bien a Mr. Turing de años anteriores: durante el último
semestre de 1935, cuando yo era profesor visitante en Cambridge, y durante 1936-1937,
que Mr. Turing pasó en Princeton. Tuve la oportunidad de observar su trabajo científi-
co. Ha realizado buen trabajo en ramas de la matemática en las que estoy interesado; a
saber: teoría de funciones casi periódicas, y teoría de grupos continuos.
Creo que es un muy meritorio candidato para la Proctor [sic] Fellowship y me agra-
daría si fuese posible concederle una.
114
Reproducido en The Essential Turing, B. Jack Copeland, ed. (Clarendon Press, Oxford,
2004), p. 127.
115
Citada en Andrew Hodges, Alan Turing: The Enigma (Simon & Schuster, Nueva York, 1983),
p. 131.
116
La tesis de Turing fue publicada con el mismo título en Proceedings of the London Mathema-
tical Society 2, 161-228 (1939). El manuscrito de Princeton se ha publicado: Alan Turing’s System
of Logic. The Princeton Thesis, Andrew W. Appel, ed. (Princeton University Press, Princeton, 2012).
69
Sé que hacia 1943 o 1944, Von Neumann conocía bien la importancia fundamen-
tal del artículo de Turing de 1936 «On computable numbers…», que describe en prin-
cipio la «Computadora Universal» del que todas las modernas computadoras (probable-
mente no ENIAC al ser la primera completada, pero ciertamente todas las posteriores)
son una realización. Von Neumann me introdujo en aquel artículo y a petición suya lo
estudié con cuidado. Muchas personas han aclamado a Von Neumann como el «padre
de la computadora» (en el sentido moderno del termino), pero estoy seguro de que él
nunca habría cometido ese error. Tal vez pueda ser denominado la comadrona, pero
él me hizo hincapié, y estoy seguro que a otros también, que el concepto fundamental
se debía a Turing —en tanto que no fue anticipado por Babbage, Lovelace y otros—.
En mi opinión, el papel esencial de Von Neumann consistió en hacer a todos conscien-
tes de estos conceptos fundamentales introducidos por Turing y del trabajo desarrollado
en la escuela de Moore y en otras partes.
El destino inicial de Turing fue Cambridge, donde aún podía disponer de su fellowship en el King’s
College. Llegó allí en el verano, pero en septiembre de 1939, ya con la Segunda Guerra Mundial en
marcha, se trasladó al cuartel general de la Escuela de Códigos gubernamental (Code and Cypher
School) en Bletchley Park, donde participó en los trabajos de descifrado de los mensajes alemanes
enviados a través de la famosa máquina Enigma. La contribución de Turing en esa tarea, finalmente
exitosa, fue decisiva.
117
Citado en The Essential Turing, Copeland, ed., op. cit., p. 22.
118
Este informe, que se puede encontrar fácilmente en Internet, fue publicado en IEEE Annals
of the History of Computing 15, n.º 4, 27-43 (1993).
70
Querido Stan,
Me alegra que Mr. Hughes «y todo lo que él representa» hayan dado señales de vida.
Les hablé de ti, porque tú me habías escrito varias veces antes que definitivamente que-
rías un trabajo para la guerra y porque ésta es una posibilidad muy real, donde podrías
desarrollar un trabajo muy eficaz y útil.
El proyecto en cuestión es extremadamente importante, probablemente más allá de
todos los adjetivos que podrían añadírsele. Además, es muy interesante, y los físicos
teóricos (y otros) relacionados con él son probablemente el mejor grupo que en este
momento existe en cualquier parte. Requiere algún trabajo computacional, pero no
existe duda de que todos estarán muy contentos y te darán todo el ánimo que puedas
desear para realizar investigación original en el tema, para la que existe una amplia opor-
tunidad. También puedo asegurarte mi cooperación en este aspecto.
Los requisitos de secreto de este proyecto son bastante extremos y probablemente
necesitarán que tú y tu familia permanezcan esencialmente en las instalaciones (excepto
en las vacaciones) mientras que decidas estar asociado con él.
Repitiendo: si quieres trabajo para la guerra, esta es probablemente una oportunidad
excepcional.
Podré darte una idea mejor oralmente y estaría feliz de hacerlo si pudiésemos en-
contrarnos en algún lugar antes de que contestes, pero supongo que no hay tiempo.
(Estaré en Princeton del 13 al 15 y en Washington el 16 y el 17 de este mes.)
¿De manera que cuentas con una guerra bastante corta? Yo lo veo así desde un
punto de vista puramente técnico. Alemania tiene que ser derrotada antes del próximo
otoño. Por supuesto, un colapso puede llegar cualquier día a partir de ahora por razones
morales y políticas, pero no puedo juzgar esto sin saber más sobre el estado actual y
eficiencia de la maquinaria política nazi.
Y después de esto, todavía quedará un año de guerra asiática. De todas manera, qui
vivra verra...
119
Reproducida en Cooper, ed., From Cardinals to Chaos, op. cit., p. 14. La relación de Von
Neumann con Ulam comenzó en 1943; en palabras del propio Ulam: «No fue sino hacia finales de
1934 cuando establecí correspondencia con Von Neumann. Él estaba entonces en Estados Unidos,
donde era uno los profesores más jóvenes del Institute for Advanced Study de Princeton. Yo le había
escrito acerca de unos problemas de la teoría de la medida. Él había oído hablar de mí a [Solomon]
Bochner, y en su respuesta me invitó a pasar unos meses en Princeton y me comunicó que el Insti-
tuto podía ofrecerme una beca de 300 dólares»; Ulam, Aventuras de un matemático, op. cit., p. 93.
Ulam llegó a Princeton en diciembre de 1935.
71
Von Neumann, Richard Feynman y Stan Ulam en Frijoles Canyon, Nuevo México, hacia
1949 (AIP Emilio Segrè Visual Archives, Ulam Collection).
Con sus conocimientos tan excepcionales como amplios, Von Neumann llegó
a ser bastante influyente en el Proyecto Manhattan; participó, por ejemplo, en las
discusiones acerca de cuáles deberían ser los objetivos en Japón para lanzar sobre
ellos las primeras bombas atómicas. En sus memorias, Now It Can Be Told, el ge-
neral Leslie Groves, director del Proyecto Manhattan, explicó la participación de
Von Neumann en este apartado. Cito sus palabras:120
120
Leslie R. Groves, Now It Can Be Told (Harper & Brothers, Nueva York, 1962), pp. 266-268.
En otro lugar de su libro (p. 343), Groves se refería a la importancia que tenía para él la opinión de
Von Neumann: «Como sucede a menudo, se producían constantemente interferencias de varias
personas en asuntos que caían fuera de sus esferas de responsabilidad. A lo largo de la vida del Pro-
yecto, se tomaron decisiones vitales solamente después de la más cuidadosa consideración con los
hombres que yo pensaba que eran capaces de ofrecer el consejo más correcto. En general, para esto,
se trataba de Oppenheimer, Von Neumann, [William G.] Penney, [William S.] Parsons y [Norman
F.] Ramsey». Sobre Groves, véase Robert S. Norris, Racing for the Bomb. General Leslie R. Groves, the
Manhattan Project Indispensable Man (Steerforth Press, South Royalton, Vermont, 2002).
72
todo estaría dispuesto, sugerí que se estaba acercando rápidamente el momento en que
deberíamos hacer planes para la propia operación del bombardeo, incluso aunque todavía
no estuviésemos seguros de que la bomba funcionara. Le pedí que designase a algún ofi-
cial de la División de Planificación de Operaciones con el que yo podría estar en contac-
to de forma que la planificación pudiese comenzar. Después de un momento de duda, el
general Marshall respondió: «No quiero que haya mucha gente en este asunto. ¿Hay al-
guna razón por la que usted no puede encargarse de esto?». Mi «No, señor, lo haré» ter-
minó la conversación, que constituyó la única instrucción que jamás recibí o necesité […]
Inmediatamente, informé al general [Henry H.] Arnold [jefe del Estado Mayor de
las Fuerzas Aéreas de Estados Unidos entre 1938 y 1945] y juntos consideramos los
principales problemas a los que nos enfrentábamos. Nuestra tarea más urgente era se-
leccionar los objetivos de las bombas. Esta sería responsabilidad mía.
Antes de esto, durante muchos meses se habían discutido, una y otra vez, los crite-
rios para los objetivos con y entre los miembros del Comité de Política Militar. Fina-
mente, tales criterios se establecieron solamente después de minuciosas discusiones con
Oppenheimer y sus asesores seniors en Los Álamos, en particular con el Dr. John von
Neumann.
Von Neumann; la hija de Stan Ulam, Claire; y Stan Ulam en Los Álamos (AIP Emilio Segrè
Visual Archives, Ulam Collection).
73
Von Neumann y Manley en Los Álamos (AIP Emilio Segrè Visual Archives, Segre Collection).
74
forma de radiación, la muerte en su seno. Tres días más tarde le tocaba el turno a
una bomba de plutonio: Fat man. Pesaba algo más que Little boy, unos 5.000 ki-
logramos, pero tenía la misma potencia. Su objetivo fue Nagasaki. Las víctimas
fueron 70.000, menos que en Hiroshima debido a errores en el lanzamiento.
Mostrando no sé si ignorancia o un orgullo que nublaba la capacidad crítica,
seguramente la mayoría de los dirigentes estadounidenses pensaron que la Unión
Soviética tardaría mucho tiempo en disponer de armamento nuclear. Sin embargo,
el 3 de septiembre de 1949, en una de las muestras que uno de los aviones B-29
que la Fuerza Aérea estadounidense recogía para analizar el aire sobre Japón, Alas-
ka y el Polo Norte, se encontraron, sobre el Pacífico Norte, cerca de Japón, evi-
dencias de que se había producido la primera explosión nuclear soviética. Había
tenido lugar el 29 de agosto (Joe 1, la denominaron los norteamericanos). La
ciencia, ciertamente, había podido sobrevivir bajo el implacable régimen de Stalin.
La explosión de la primera bomba atómica soviética significó el comienzo real
de la carrera atómica. En Estados Unidos, Ernest Lawrence y Edward Teller defen-
dieron la idea de que había que contraatacar desarrollando una nueva arma que
pudiese contrarrestar la de los soviéticos; fabricar una superbomba, mucho más
poderosa que las de 1945, una bomba de hidrógeno, esto es, de fusión, que utili-
zase procesos similares a las reacciones termonucleares que tienen lugar en el in-
terior de las estrellas, en las que partiendo de elementos ligeros se producen otros
más pesados, emitiendo al mismo tiempo grandes cantidades de energías.121 Aun-
que la idea de tal bomba se remontaba a los primeros tiempos del proyecto ató-
mico durante la guerra, no se había avanzado en su desarrollo al no establecerse
un programa adecuado (sin embargo, los soviéticos ya se habían embarcado en el
proyecto desde 1948).122
Sin embargo, en 1949 la comunidad científica norteamericana no estaba tan
unida como lo había estado diez años antes. Se produjo una clara división de opi-
niones. Oppenheimer se opuso, lo que a la postre terminaría llevando a que la
Atomic Energy Commission (AEC) le declarase un riesgo para la seguridad en
1953-1954, negándole, como veremos enseguida, acceso a secretos atómicos. Por
el contrario, Lawrence desarrolló una intensa campaña en favor de la nueva bom-
ba y visitó personalmente la AEC, el Comité Conjunto de Energía Atómica, el
121
La principal reacción de fusión que tiene lugar en la bomba de hidrógeno es la siguiente
(H3 = deuterio; H3 = tritio; He4 = núcleo de helio-partícula alfa; n = neutrón):
La energía de fusión de 1 kilogramo de deuterio es suficiente para elevar 600 barcos de 50.000
toneladas cada uno, a 1 kilómetro de altura.
122
En un seminario sobre la teoría de la bomba atómica, celebrado en julio de 1942, Teller
aventuró la posibilidad de que se podría utilizar una bomba de fisión como detonante de otra de
fusión. En 1944 defendía la idea de que sería posible fabricar una bomba de implosión que utiliza-
se deuterio y tritio como combustible. Acerca del desarrollo de la superbomba, véase Peter Galison
y Barton Bernstein, «In any light: scientists and the decision to build the Superbomb, 1952-1954»,
Historical Studies in the Physical and Biological Sciences 19, 267-347 (1989).
75
76
Edward Teller y Enrico Fermi en Chicago, 1951 (AIP Emilio Segrè Visual Archives, donada
por Carlo Wick).
123
Edward Teller, «Back to the laboratories», Bulletin of the Atomic Scientists 6, 71-72 (1950).
77
Para entender mejor la situación reinante en aquel momento, además de las re-
laciones de Estados Unidos con la Unión Soviética hay que tener en cuenta también
que en 1949 los comunistas se hacían con el poder en China, bajo el liderazgo de
Mao Tse Tung. Estos acontecimientos llevaron al Consejo de Seguridad Nacional
estadounidense a defender la tesis de que Estados Unidos se enfrentaba a un periodo
de máximo peligro y que para su seguridad debía procederse a un completo rearme,
recomendando al presidente que se aprobase un presupuesto de entre 100 y 200
millones de dólares para la fabricación de la superbomba. El 31 de enero de 1950
Truman aprobaba la propuesta. Dos años y nueve meses después, Estados Unidos
hacía explotar una bomba (Mike) 1.000 veces más potente que las de 1945. Tres años
y pocas semanas después, los soviéticos hacían estallar su Mike, en Asia central.
John von Neumann estuvo desde el principio entre los que apoyaban que se
estableciese un programa para producir, lo más rápidamente posible, una bomba
de hidrógeno; de hecho, junto a Teller y Lawrence fue uno de sus principales de-
fensores.124 En sus memorias, Teller mencionó que «a partir de 1943, nuestro prin-
cipal tema de conversación [entre él y Von Neumann] fue el diseño de explosivos
nucleares. Johnny se dio cuenta rápidamente que una bomba atómica podría in-
ducir una explosión termonuclear de varias formas, y desde el comienzo compartió
mi deseo de que tales investigaciones se investigasen cuidadosamente».125 Detrás de
tal interés estaba el anticomunismo de Von Neumann, como explicaba Ulam:126
124
Más información en Herbert F. Yok, The Advisors. Oppenheimer, Teller and the Superbomb
(Stanford University Press, Stanford, 1976).
125
Teller y Shoolery, Memoirs, op. cit., p. 408.
126
Ulam, Aventuras de un matemático, op. cit., p. 191.
78
127
Para una descripción más detallada véase Ulam, ibidem, capítulo 11. También, Ulam et al.,
en Fleming y Bailyn, eds., The Intellectual Migration, op. cit., pp. 249-254.
128
Ibidem, pp. 197-199. Sobre la historia del método de Monte Carlo, cabe consultar George
Temple, «The beginnings of the Monte Carlo method» y Roger Eckhardt, «Stan Ulam, John von
Neumann and the Monte Carlo method», en Cooper, ed., From Cardinals to Chaos, op. cit., pp. 125-
130 y 131-137.
79
Que Von Neumann entendió perfectamente las posibilidades del nuevo méto-
do, y que se esforzó por publicitarlo, queda claro en una carta que dirigió el 11 de
marzo de 1947 desde Princeton a Robert Richtmyer, entonces director de la Divi-
sión de Física Teórica de Los Álamos, cargo en el que había sucedido a Hans Bethe,
que decidió regresar a la Universidad de Cornell. En ella le decía que había «estado
pensando bastante en la posibilidad de utilizar métodos estadísticos para resolver
problemas de la multiplicación y difusión de neutrones, de acuerdo con el princi-
pio sugerido por Stan Ulam. Cuanto más pienso en esto, más convencido estoy
que la idea tiene gran mérito».129 Y a continuación le resumía las conclusiones a
las que había llegado. Junto a la carta, Von Neumann enviaba una «hoja de com-
putación» (computing sheet) para utilizar en los cálculos: «Todavía no puedo afirmar
esto con seguridad», añadía, «pero me parece probable que las instrucciones que se
dan en esta «hoja de computación» no excede la capacidad lógica de ENIAC. Dudo
que el procesamiento de 100 «neutrones» tome mucho más tiempo que la lectura,
agujerado y (algún) tiempo de salida de 100 tarjetas; esto es, alrededor de 3 minu-
tos. Por consiguiente, tomando 100 «neutrones» a través de 100 de estos pasos
debería tomar unos 300 minutos; esto es, 5 horas». Finalmente, le pedía que le
dijese lo que él y Ulam pensaban sobre todo ello.130 Fue precisamente con Richt-
myer con quien Von Neumann preparó enseguida, 1947, un informe, Statistical
Methods in Neutrón Diffusion, en el que se presentaron por primera vez las ideas
del método de Monte Carlo.131
El método ideado por Ulam demostraría una versatilidad extraordinaria, apli-
cándose a una gran variedad de problemas en muy diversas disciplinas. Un buen
resumen de él es el que dio el historiador de la ciencia Peter Galison en su libro
Image & Logic:132
129
Una transcripción mecanográfica del manuscrito original se reproduce en Cooper, ed., From
Cardinals to Chaos, op. cit., p. 132.
130
En mayo de 1946, Ulam se había reincorporado a Los Álamos, al que estuvo asociado has-
ta 1967.
131
John von Neumann y Robert Richtmyer, Statistical Methods in Neutron Diffusion, Los Ala-
mos Sci. Lab. Rept. LAMS-551, 9 de abril, reproducido en Von Neumann, Collected Works, vol. 5.
132
Peter Galison, Image & Logic (The University of Chicago Press, Chicago, 1997), pp. 690-691.
80
81
133
Citado en G. Herken, Brotherhood of the Bomb. The Tangled Lives and Loyalties of Robert
Oppenheimer, Ernest Lawrence, and Edward Teller (Henry Holt and Co., Nueva York, 2002), p. 141.
134
Este episodio se describe en Ray Monk, Inside the Centre. The Life of J. Robert Oppenheimer
(Jonathan Cape, Londres, 212), pp. 543-551.
82
cuyas antiguas simpatías por causas comunistas le había inmunizado contra más
infecciones».135
No bastó con esto, sin embargo. Ni tampoco con que el 1 de noviembre de
1952 se llevase a cabo con éxito la primera explosión termonuclear estadouniden-
se. La persecución a la que fue sometido tanto por Strauss como por Hoover dio
como fruto que el 3 de diciembre de 1953 el presidente Eisenhower ordenase que
se estableciese una barrera entre Oppenheimer y los secretos atómicos. Ahí podía
haber terminado todo, más aún habida cuenta de que el último vinculo que unía
a Oppenheimer con la Administración en asuntos atómicos expiraba en junio de
1954. Habría bastado con no renovárselo. Sin embargo, esto no parecía suficiente:
era preciso demostrar a otros el riesgo que asumían si se enfrentaban a ellos, a los
que solo podían imaginar un futuro seguro bajo el escudo de miles y miles de
bombas nucleares. Y así fue como Oppenheimer terminó ante una Junta de Segu-
ridad de Personal de la AEC, ante la que fue interrogado, al igual que otros, ami-
gos y enemigos, entre el 12 de abril y el 6 de mayo de 1954 para juzgar sobre su
lealtad. El 27 de mayo una mayoría (2 frente a 1) de esa Junta emitió su recomen-
dación. Merece la pena recordar uno de sus pasajes centrales:136
No creemos que lo que hemos encontrado [...] proporciona una completa y auto-
mática respuesta a la cuestión que se nos planteó [...] Por una parte, no existe evidencia
de deslealtad. De hecho, tenemos delante de nosotros muchas responsables y positivas
evidencias de la lealtad y amor a su país del individuo concernido. Por otra parte, no
creemos que se haya demostrado que el Dr. Oppenheimer esté libre de sospecha en lo
que se refiere a conducta, carácter y asociación. Podemos en conciencia, creemos, concluir
nuestra difícil tarea con una breve, concisa, recomendación: No pueden existir obstáculos
para la seguridad nacional, que en tiempos de peligro debe ser absoluta, y sin concesiones
a razones de admiración, gratitud, recompensa, simpatía o caridad. Cualquier duda que
surja debe resolverse a favor de la seguridad nacional. El material y evidencia presentados
a esta Junta deja dudas razonables con respeto al individuo al que concierne. No podemos,
por consiguiente, recomendar que se le devuelva la autorización de acceder a secretos.
135
Citado en Herken, Brotherhood of the Bomb, op. cit., p. 219.
136
Reproducida, al igual que las transcripciones de todas las declaraciones en el juicio, en In
the Matter of J. Robert Oppenheimer, op. cit., p. 1011. Sobre el juicio a Oppenheimer, véase Barton
Bernstein, «In the matter of J. Robert Oppenheimer», Historical Studies in the Physical Sciences 12,
195-252 (1982).
137
In the Matter of J. Robert Oppenheimer, op. cit., pp. 643-656.
83
84
138
Al mismo tiempo que Von Neumann, fue elegido el químico Willard F. Libby, futuro premio
Nobel de Química por el descubrimiento de las técnicas de datación mediante carbono-14, este
como sustituto de Henry D. Smyth. Sobre Eisenhower y la AEC, véase Richard G. Hewlett y Jack
M. Holl, Atoms for Peace and War, 1953-1961. Eisenhower and the Atomic Energy Commssion (Uni-
versity of California Press, Berkeley, 1989).
139
Ulam, Aventuras de un matemático, op. cit., pp. 230-231.
85
Matemáticas y economía
Además de sus muchas y plurales contribuciones a la ciencia, John von Neu-
mann también es recordado por el papel que desempeñó en llevar la matemática
a la economía, tarea en la que sobresale el libro que escribió en colaboración con
140
Este proyecto, denominado Atlas, comenzó en 1954. Se encuentra más información sobre
el Comité Von Neumann en George B. Kistiakowsky, A Scientist at the White House (Harvard Uni-
versity Press, Cambridge, Mass., 1976), especialmente en el capítulo IV.
86
Para Walras, el conjunto de la economía teórica se apoya sobre dos únicas condi-
ciones: por una parte, que toda unidad económica tiende a maximizar su utilidad, y, por
otra, que la demanda de cada bien debe igualar a su oferta. Todos sus teoremas se de-
ducen de estos dos supuestos. Puede admitirse que su obra ha sido complementada por
141
Relacionado con esto está el hecho de que la influencia de Keynes ha sido sobre todo en la
macroeconomía, mientras que es en la microeconomía donde se aplican sobre todo las técnicas y los
modelos matemáticos, y donde se buscan leyes matemáticas exactas.
142
Joseph Schumpeter, Diez grandes economistas: de Marx a Keynes (Alianza Editorial, Madrid,
1997; edición original en inglés de 1951), pp. 142-143.
87
algunos economistas, como Edgeworth y Barone, y que otros, como Pareto, la han su-
perado en algunos puntos particulares. Pero su significado permanece intacto. Todo
aquel que conozca el mecanismo y los orígenes de las ciencias naturales exactas sabrá
también que, en el método y en la esencia, las grandes realizaciones en el campo de
éstas son del mismo género que la de Walras. Encontrar formas exactas para los fenó-
menos cuya interdependencia nos viene dada experimentalmente, reducir unas a otras,
derivar tales formas unas de otras; esto es lo que los físicos hacen, y esto es lo que hizo
Walras. Pero, además, Walras lo hizo en un campo nuevo de la ciencia en el que no
existían los antecedentes de siglos enteros de trabajo. Y lo hizo en poco tiempo, a pesar
de las dificultades internas y externas, obteniendo resultados muy favorables. Trabajó,
además, sabiendo —o al menos debería haberlo sabido— que no podía esperar que los
economistas y los matemáticos de su generación reconocieran el mérito de su obra. Re-
corrió un camino solitario, sin el apoyo moral que suelen tener tanto el hombre prácti-
co como el científico. Su retrato muestra, pues, todas las características que distinguen
a la mentalidad verdaderamente creadora. Todo esto, en lo que se refiere al hombre. Su
obra, más pronto o más tarde, encontrará el reconocimiento que merece.
143
Robert Loring Allen, Joseph Schumpeter (Alfons El Magnànim, Valencia, 1995; edición ori-
ginal en inglés de 1991), p. 146.
144
El propio Walras no fue ajeno a estos problemas, los de comprender bien las matemáticas
implicadas. Un ejemplo en este sentido es que no fue capaz de entender las cartas que le envió el
matemático francés Hermann Laurent, que le preguntaba acerca de la naturaleza del factor de inte-
gración en las condiciones de equilibrio de la rentabilidad marginal. Incapaz de entender cuáles eran
las objeciones de Laurent, Walras pensó que aquel formaba parte de un complot en su contra.
145
Correspondence of Léon Walras and Related Papers, William Jaffé, ed., vol. II («1884-1897»)
(North-Holland, Ámsterdam, 1965), p. 119.
88
impida absolutamente lograr una teoría exacta, no más que el estado cenagoso o
fangoso de ciertas corrientes de agua impiden desarrollar una hidráulica, o que
la naturaleza compleja de las grasas y de las sustancias proteínicas impiden la
química».146
En lo que se refiere a sus logros, hay que señalar que fue uno de los precurso-
res y líderes de la revolución marginalista, que incluyó a su sucesor en la cátedra de
Economía Política en Lausana, el ingeniero, economista y sociólogo italiano Vil-
fredo Pareto (1848-1923), además de a William Stanley Jevons (1835-1882) y a
Carl Menger (1840-1921), que la desarrollaron de forma independiente ya que
no se conocían entre ellos.147
Con respecto a la visión que Walras tenía del papel de la matemática en la
economía, es instructivo hojear su principal obra, el libro Éléments d’Économie
politique pure ou théorie de la richesse sociale (1874), en el que presentó de manera
precisa su teoría del equilibrio general (desarrollada posteriormente por los premios
Nobel de Economía Maurice Allais, Kenneth Arrow y Gerard Debreu) y el enfo-
que de la utilidad marginal. Ya en la segunda página de esta obra se lee: «[Este
libro] contiene una solución matemática al problema de la determinación de los
precios corrientes, así como una fórmula científica para la ley de la oferta y la de-
manda, en el caso del intercambio de un número arbitrario de mercancías entre
ellas».148 Y más adelante:149
El valor de cambio es, por consiguiente, una magnitud y, como se ve actualmente,
una magnitud apreciable. Y si las matemáticas tienen por objeto, en general, la medida
de magnitudes de este género, es seguro que existe una rama de las matemáticas, olvi-
dada hasta el momento por los matemáticos, y todavía no elaborada, que es la teoría del
valor del cambio.
No digo, lo sabemos suficientemente, que esta ciencia constituya toda la economía
política. Las fuerzas, las velocidades son, también ellas, magnitudes apreciables, y la teo-
ría matemática de las fuerzas y de las velocidades no es toda la mecánica. Es siempre
cierto que esta mecánica pura debe preceder a la mecánica aplicada. De manera análoga,
existe una economía política pura que debe preceder a la economía política aplicada, y esta
economía política pura es una ciencia físico-matemática. Esta afirmación es nueva y pa-
recerá singular; pero acabo de demostrarla, y la demostraré aún mejor en lo que sigue.
146
Ibidem, p. 145.
147
De forma parecida a lo que sucedió con Walras, Pareto no comprendió siempre las críticas
de matemáticos, como las que Vito Volterra hizo a su trabajo (de todas maneras, Volterra no conti-
nuó ocupándose de la matematización de la economía y dejó este campo a otros, uno de ellos el
matemático estadounidense Griffith C. Evans, que estudió con Volterra en Roma entre 1910 y 1912;
en 1930 Griffith publicó una Mathematical Introduction to Economics). Sobre estos puntos, véase
P. Mirowski, More Heat than Light (Cambridge University Press, Cambridge, 1989), Bruna Ingrao
y Giorgio Israel, The Invisible Hand: Economic Theory on the History of Science (MIT Press, Cambrid-
ge, Mass., 1990) y E. Roy Weintraub, How Economics Became a Mathematical Science (Duke Uni-
versity Press, Durham, 2002).
148
Léon Walras, Éléments d’Économie Politique Pure ou Théorie de la Richesse Sociale (Imprime-
rie L. Corbaz, éditeurs, Lausana, 1874), p. vi.
149
Ibidem, p. 31.
89
150
Ibidem, p. 33.
151
Louis Bachelier, «Théorie de la spéculation», Annales Scientifiques de l’École Normale Supé-
rieure 17, 21-86 (1900); p. 21.
90
152
L. Carraro y P. Crépel, «Louis Bachelier, 11 mars 1870-28 avril 1946», Images des Mathé-
matiques, pp. 48-49 (CNRS, 2006); p. 48.
153
Albert Einstein, «Über die von der molekularkinetischen Theorie der Wärme geforderte
Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen», Annalen der Physik 17, 549-560
(1905).
154
El tribunal que juzgó la tesis de Bachelier lo formaba un trío distinguido de científicos: Paul
Appel, Joseph Boussinesq y Henri Poincaré. Se sabe que realizaron comentarios favorables sobre el
contenido del trabajo, pero no debieron mostrarse excesivamente entusiasmados en la medida en que
no le dieron la máxima calificación, «très honorable», sino «honorable», con la consecuencia de que,
aunque continuó publicando, su carrera posterior no fue demasiado distinguida: fue «profesor libre»
en la Sorbona entre 1909 y 1914 (recibiendo un salario solo a partir de 1913), y después de la guerra
profesor ayudante en Besançon (1919-1922), Dijon (1922-1925), profesor adjunto en Rennes (1925-
1927) y finalmente profesor en Besançon, donde se jubiló en 1937. Su tesis, eso sí, se publicó en una
revista importante: los Annales Scientifique de l’École Normale Supérieure, pero su influencia en la
economía tardó en manifestarse con la intensidad que merecía. Como señaló Paul Cootner en la re-
copilación de trabajos sobre el carácter aleatorio del mercado de valores que publicó en 1964, en el
que incluyó una traducción al inglés de la tesis de Bachelier: «Louis Bachelier se adelantó a estos es-
tudios hace 60 años, pero su trabajo […] aparece como un suceso aislado»; Paul H. Cootner, «Origins
and justification of the random walk theory. Introduction», en The Random Character of Stock Market
Prices, Paul H. Cootner, ed. (Risk Publications, Londres, 1964), pp. 1-6; cita en p. 1.
155
Norbert Wiener, «The average of an analytical functional and the Brownian movement»,
Proceedings of the National Academy of Sciences U.S.A. 7, 294-298 (1921); Benoît Mandelbrot, «The
variation of certain speculative prices», Journal of Business 36, 394-419 (1963). Es interesante citar
lo que Wiener escribió en uno de sus ensayos: «Desde el mismo principio de este trabajo [el estudio
del movimiento browniano], me vi influido por la investigación contemporánea de Paul Lévy sobre
funciones aleatorias [random]. Fue Lévy quien llamó mi atención sobre el hecho de que mis funcio-
nes sobre el movimiento browniano ya habían sido algo estudiadas por Bachelier. Sin embargo, el
trabajo de Bachelier, aunque representaba una excelente aproximación, había sido escrito en una
91
la historia a lo largo del siglo xx», escribió Mandelbrot, «iba a ser mucho más
amable con él [Bachelier] que sus contemporáneos», escribió Mandelbrot en uno
de sus libros, «su tesis puso los cimientos de la teoría financiera y, con mucha más
generalidad, de todas las formas de cambio probabilístico en el tiempo continuo.
Formuló las cuestiones básicas sobre el movimiento de los precios y propuso so-
luciones preliminares para algunas. Murió en el anonimato y tuvo que pasar más
de medio siglo para que su tesis fuera redescubierta y traducida al inglés. Sobre
sus ideas, los economistas construyeron una teoría abarcadora y elaborada de los
mercados, la inversión y las finanzas: cómo varían los precios, cómo piensan los in-
versores, cómo administrar el dinero y cómo definir el riesgo, el alma inquieta de
los mercados».156
Y, establecido esta especie de preámbulo, volvamos a Von Neumann.
Teoría de juegos
Si hubiese sido fiel a la secuencia cronológica, debería haber comentado ya un
artículo que Von Neumann publicó en 1928, titulado «Sobre la teoría de los jue-
gos de sociedad», por el que a veces se le denomina «el padre de la teoría de
juegos».157 Estrictamente, sin embargo, esto no es cierto: la teoría de juegos, en-
tendiendo por ella la búsqueda de patrones (leyes) matemáticas que expliquen lo
que sucede en juegos, posee una historia previa. Dejando al margen la, indudable,
conexión de la teoría de juegos con los estudios dedicados a la probabilidad (don-
de aparecen nombres como los de Cardano, Pascal, Huygens, Jacob Bernoulli y
Condorcet), un momento importante en el tratamiento matemático de los juegos
se debe a Ernst Zermelo, en una contribución que hizo en el V Congreso Inter-
nacional de Matemáticos, celebrado en Cambridge (Inglaterra) del 22 al 28 de
época anterior a que se dispusiera de las ideas de integración de Lebesgue para que pudiera ser de-
sarrollado con una técnica adecuada»; Norbert Wiener, «My connection with cybernetics. Its origins
and its future», Cybernetica 1, 1-14 (1958), reproducido en Norbert Wiener: Collected Works, P. Ma-
sani, ed. (The MIT Press, Cambridge, Mass., 1985), vol. IV, pp. 107-120; cita en p. 109. Los tra-
bajos de Wiener en la teoría del movimiento browniano se analizan en P. R. Masani, Norbert Wiener,
1894-1964 (Birkhäuser, Basilea, 1990), pp. 77-86.
156
Benoît Mandelbrot y Richard L. Hudson, Fractales y finanzas (Tusquets, Barcelona, 2010),
p. 67. Véase también, Benoït Mandelbrot, El fractalista (Tusquets, Barcelona, 2014), pp. 239-242.
En este libro, su autobiografía, Mandelbrot titula uno de sus capítulos, el 16, «Princeton: el último
investigador posdoctoral de John von Neumann»; esto se debió a que pasó el año 1953-1954 en el
Institute for Advanced Study «como último posdoc propuesto por Von Neumann» (pp. 178-179).
157
John von Neumann, «Zur Theorie der Gesellschftsspiele», Mathematische Annalen 100, 295-
320 (1928). Sobre las contribuciones de Von Neumann a la economía, véase Manfred J. Holler,
«What John von Neumann did to Economics,» en Gilbert Faccarello y Heinz Kurz, eds., Handbook
on the History of Economic Analysis, vol. I («Great Economists since Petty and Boisguilbert») (Edward
Elgar Publishing, Cheltenham, 2016), pp. 581-586; E. Roy Weintraub, How Economics Became a
Mathematical Science (Duke University Press, Durham, 2002), pp. 94-97; y las reseñas reproducidas
en la edición de Theory of Games and Economic Behavior publicada para conmemorar los sesenta años
de la primera edición: John von Neumann y Oskar Morgenstern, Theory of Games and Economic
Behavior (Princeton University Press, Princeton, 2004).
92
agosto de 1912, y que apareció publicada en las actas del congreso bajo el título
«Sobre una aplicación de la teoría de conjuntos a la teoría del juego de ajedrez».158
Un detalle importante es que Zermelo era un entusiasta del ajedrez, un juego que
en las primeras décadas del siglo xx ocupaba un importante lugar en la vida cul-
tural de muchos países europeos: Alemania, Inglaterra, Francia, Rusia y los que
formaban parte del Imperio Austro-Húngaro. Como sucedía con Zermelo, no es
sorprendente que el juego atrajese la atención de matemáticos. Seguramente nadie
representó mejor semejante relación, aunque con el énfasis en el lado del ajedrez,
que el alemán de origen judío Emanuel Lasker (1868-1941), que mantuvo el tí-
tulo de campeón del mundo durante veinticuatro años, entre 1897 y 1921. Edu-
cado como matemático, Lasker había estudiado con Hilbert y Max Noether y
completado un doctorado en la Universidad de Erlangen en 1902 sobre la teoría
de espacios vectoriales. En algunos de sus escritos, Lasker se hacía preguntas con
evidente dimensión matemática. Así, en 1907 publicó un ensayo de ochenta pá-
ginas, Kampf, en el que se preguntaba: «¿Qué significan lucha y victoria? ¿Obede-
cen leyes que la razón puede capturar y establecer?».159
Von Neumann también era aficionado al ajedrez; de hecho, una de las prime-
ras cosas que hizo cuando llegó a Zúrich en 1925 fue unirse, junto a su amigo
Willy Fellner, al Schachgesellschaft Zürich, uno de los clubs de ajedrez más anti-
guos del mundo y una referencia internacional. Es preciso, asimismo, citar a otros
dos matemáticos húngaros interesados en el ajedrez: Denés König y László Kalmár,
que, como Von Neumann, estaban interesados en la teoría de conjuntos (que des-
empeñaba un papel central en el artículo de Zermelo) y relacionados con Gotinga.
En 1927, König publicó un artículo («Sobre un método de conclusión del finito
al infinito») en el que refinaba las conclusiones de Zermelo, y el año siguiente
158
Ernst Zermelo, «Über eine anwendung der mengenlehre auf die theorie des schaspiels», en
Ernest W. Hobson y A. E. H. Love, eds., Proceedings of the Fifht International Congress of Mathema-
ticians (Cambridge University Press, Cambridge, 1913), vol. II, pp. 501-504. Este artículo significó
una ruptura con los intereses previos de Zermelo. De hecho, en la invitación a participar en el con-
greso que le hizo Bertrand Russell el 16 de marzo de 1912, este le explicaba: «Como representante
de la sección filosófica del próximo congreso matemático le pido urgentemente que venga a Cam-
bridge y nos dé una conferencia. Si pudiese usted hablar, por ejemplo, sobre las razones de su prin-
cipio de elección, esto sería del mayor interés. Además, para mí constituiría un gran placer personal
renovar nuestra amistad»; citado en Heinz-Dieter Ebbinghaus en cooperación con Volker Peckhaus,
Ernst Zermelo. An Approach to His Life and Work (Springer, Berlín, 2015), p. 75. Zermelo aceptó la
invitación de Russell, pero para hablar sobre «la teoría del juego de ajedrez», aunque finalmente
presentó dos comunicaciones: una la que anunciaba sobre el ajedrez y otra titulada «Sobre métodos
algebraicos y genéticos en el fundamento de disciplinas matemáticas». En las actas publicadas úni-
camente apareció el texto del primero. El artículo de Zermelo se analiza en el libro Peckhaus que
acabo de citar pp. 136-139), en Robert Leonard, Von Neumann, Morgenstern and the Creation of
Game Theory (Cambridge University Press, Nueva York, 2010), pp. 16-18, y en Ulrich Schwalbe y
Paul Walker, «Zermelo and the early history of game theory», Games and Economic Behavior 34,
123-137 (2001).
159
Citado en Leonard, Von Neumann, Morgenstern and the Creation of Game Theory, op. cit.,
p. 12. Esta obra analiza la relación del ajedrez con la teoría de juegos, al mismo tiempo que el libro
de Von Neumann y Morgenstern.
93
Zermelo, König y Kalmár estaban tratando con lo que ahora se denominaría juegos
de suma cero de dos personas con información perfecta. El punto de partida común de
sus análisis era el concepto de una posición ganadora, definida de una forma matemá-
ticamente precisa: si un jugador se halla en una posición ganadora, entonces siempre
puede forzar una victoria, no importa la estrategia que el otro jugador siga. Establecido
esto, querían responder a la siguiente pregunta: ¿Dado que un jugador está en una po-
sición ganadora, existe un límite superior al número de movimientos que debe hacer
para ganar? O, ¿si está en una posición perdedora, durante cuánto tiempo [movimientos]
puede retrasar su derrota? En consecuencia, a Zermelo, König y Kalmár no les preocu-
paban los problemas de interacción estratégica y equilibrio. No se hacían la pregunta:
¿Cómo se debe comportar un jugador para obtener un buen resultado? Esta era la prin-
cipal cuestión que se preguntó Von Neumann en su artículo «Zur Theorie der Gesells-
chaftsspiele» (1928). En contraste a los trabajos de Zermelo, König y Kalmár, el interés
principal de Von Neumann era la interacción estratégica entre los jugadores y el con-
cepto de un equilibrio. Estas dos ideas se han convertido en las piedras angulares de la
teoría de juegos no cooperativos.
160
Dénes König, «Uber eine Schlussweise aus dem Endlichen ins Unendliche», Acta Scientiarum
Mathematicorum Szeged 3, 121-130 (1927); László Kalmár, «Zur Theorie der abstrakten Spiele», Acta
Scientiarum Mathematicorum Szeged 4, 65-85 (1928/1929).
161
Citado en Peckhaus, Ernst Zermelo, op. cit., p. 139.
162
Schwalbe y Paul Walker, «Zermelo and the early history of game theory», op. cit., «Conclu-
sions».
94
una serie de artículos que publicó en la década de 1929. En uno de estos trabajos
en particular, Borel consideraba un juego en el que la victoria dependía tanto de
suerte como de la habilidad de los jugadores, al contrario de lo que sucedía en
juegos en los que la habilidad no desempeñaba ningún papel (por ejemplo, la
lotería).163 Definía un «método de juego» como «un código que determina lo que
una persona debería hacer en cualquier situación» y se preguntaba «si era posible
determinar un método de juego mejor que todos los demás posibles». Consideran-
do el caso en el que el número de estrategias era 3, Borel llegaba a la conclusión
de que todos los jugadores podían elegir tácticas que les asegurasen la misma pro-
babilidad de victoria. Aunque sus resultados eran menos generales que los que
obtuvo Von Neumann, se le debe considerar como uno de los fundadores de la
teoría matemática de juegos.
Establecidos esos orígenes, vayamos al artículo de Von Neumann de 1928, en
el que se centraba en un juego con dos participantes, dejando a un lado las reglas
particulares del juego concreto para concentrarse en las estrategias que empleaban
ambos, pero de tal manera que la suma total de las ganancias fuese cero (juegos de
suma cero): lo que uno gana, lo pierde el otro. El resultado principal al que llegó
allí es lo que se denomina teorema de máximo-mínimo (max-min o minimax). Este
teorema establece que, para una amplia gama de juegos, en realidad no tiene in-
terés que dos personas jueguen entre sí. Si cada jugador considera, para cada es-
trategia posible, la pérdida máxima que le puede reportar dicha estrategia y en
consecuencia elige la mejor estrategia, la que minimice la máxima pérdida posible,
entonces estadísticamente puede estar seguro de no tener más pérdidas que este
valor minimax. Además, como este valor es el opuesto (negativo) del que su opo-
nente establece para sí, y que define de la misma manera, el resultado a largo
plazo está determinado completamente por las reglas del juego.164
En la necrológica que publicaron conjuntamente Ulam, Kuhn, Tucker y Shan-
non, se hacía hincapié en lo que significó el artículo de Von Neumann de 1928:165
163
Émile Borel, «La théorie du jeu et les équations integrals à noyau symétrique», Comptes
Rendues Académie des Sciences, 173, 1304-1308.
164
He seguido aquí la descripción de Halmos, «La leyenda de Von Neumann», op. cit., p. 23.
165
Ulam et al. en Fleming y Bailyn, eds., The Intellectual Migration, op. cit., p. 247.
95
Señalaré por último que en la época en que publicó su artículo de 1928, Von
Neumann comenzó la preparación de otro importante trabajo para la economía
que, sin embargo, se publicó una década más tarde, en 1937: «Un modelo de equi-
librio económico general».166
166
John von Neumann, «Über ein ökonomisches Gleichungssystem und eine Verallgemeine-
rung des Brouwerschen Fixpunktsatzes», en K. Menger, ed., Ergebnisse eines Mathematischen Seminars
8, 73-83 (1937). Existe traducción al inglés: «A model of general economic equilibrium», Review of
Economic Studies, 13, 1-9 (1945).
167
Oskar Morgenstern, «Joseph Schumpeter, 1883-1950», Economic Journal 61, 197-202
(1950); citado en Allen, Joseph Schumpeter, op. cit., p. 156.
96
zas del comercio del libro. La obra fue leída ávidamente en Viena, incluso mucho des-
pués de la Primera Guerra Mundial, y su vigor juvenil atrajo a los jóvenes estudiantes.
Yo mismo recuerdo qué revelación significó para mí la primera vez que puse mis manos
en ella, igual que muchos de mi generación, y me decidí a leer todo lo que Schumpeter
había escrito o escribiera.
Después de que se publicase este artículo, el famoso filósofo y líder del denominado
«Círculo de Viena», profesor Moritz Schlick, me invitó a hablar de los problemas trata-
dos en él. Hice esto en una sesión bastante larga y el asunto fue discutido por los pre-
sentes con gran detalle. Al Círculo de Viena pertenecían, de una forma u otra, Carnap,
Feigl, Frank, Gödel, Hahn, Menger, Popper, Waismann, etc. No todos estuvieron pre-
sentes en esa ocasión. Yo asistí frecuentemente a estas reuniones al igual que al Coloquio
de Karl Menger, aunque no era un miembro formal de ninguno de los dos.
168
Oskar Morgenstern, «The collaboration between Oskar Morgenstern and John von Neu-
mann on the theory of games», Journal of Economic Literature 14, 805-816 (1976); cita en p. 806.
Este artículo se reprodujo en uno de los apéndices de la ya citada edición de Theory of Games and
Economic Behavior publicada en 2004: Von Neumann y Morgenstern, Theory of Games and Economic
Behavior, op. cit., pp. 712-726.
169
Morgenstern, «The collaboration between Oskar Morgenstern and John von Neumann on
the theory of games», Journal of Economic Literature, op. cit., p. 807.
97
98
170
Ibidem, pp. 807-808.
99
tos con Von Neumann se intensificaron hasta el punto de que, en el otoño de 1940,
después de que Morgenstern le enseñase un primer manuscrito, que Von Neumann
consideró demasiado breve y poco inteligible, este le propuso que escribiesen algo
conjuntamente. La idea inicial era preparar un artículo de en torno a un centenar
de páginas para publicarlo en los Annals of Mathematic Studies, editado por Mars-
ton Morse, pero en un momento Von Neumann sugirió que Princeton University
Press podría ser otra posibilidad más adecuada. La editorial aceptó la propuesta y
ambos continuaron trabajando, pero terminaron por olvidar que su propuesta era
de un manuscrito de unas cien páginas. Cuando Von Neumann se trasladó en 1942
a Washington D.C., por sus obligaciones relacionadas con la guerra, la colaboración
continuó. Morgenstern viajaba con frecuencia a la capital federal y en los fines de
semana trabajaban «con furia»; otras veces era Von Neumann el que iba a Prince-
ton. Finalmente, en la Navidad de 1942 terminaron el manuscrito (el «Prefacio»
lleva la fecha de enero de 1943). Pero las cien páginas previstas se habían transfor-
mado en 1.200 mecanografiadas, llenas de gráficos y expresiones matemáticas. No
obstante, la editorial lo aceptó, sin que pasase por ningún censor, pero exigió que
se consiguiera alguna ayuda económica, no solo por lo costoso de la edición sino
también porque consideraba que el riesgo económico era grande; es decir, porque
pensaba que se venderían pocos ejemplares. Obtenida la ayuda —4.000 dólares,
de una fuente anónima, pero que se supone fue o la Carnegie Foundation o el
Institute for Advanced Study— el libro apareció el 18 de septiembre de 1944;
tenía 616 páginas. Los temores de Princeton University Press resultaron infunda-
dos. Durante 1945 y 1946 se publicaron reseñas muy favorables y en marzo de
1946 apareció un artículo elogioso sobre él en la primera página de la edición
dominical de The New York Times.171 Una segunda edición, con un amplio apén-
dice, se publicó en 1947, y en 1953 una tercera con un nuevo prefacio.
Citaré algunos párrafos de reseñas que aparecieron:172
Herbert A. Simon (The American Journal of Sociology, mayo de 1945):
Theory of Games es un riguroso desarrollo matemático de una teoría de juegos de
estrategia y una aplicación de esa teoría a ciertos problemas sencillos de economía. Aun-
que no se hacen aplicaciones explícitas a la sociología o a la ciencia política, el esquema
es de tal generalidad y amplitud que sin duda puede realizar contribuciones a estos
campos de naturaleza más fundamental.
171
Las reseñas publicadas se detallan en Harold W. Kuhn, «Introduction» a la edición de 2004
de Theory of Games and Economic Behavior, op. cit., pp. vii-xiv.
172
Cito de las reproducidas en la edición de 2004 de Theory of Games and Economic Behavior,
op. cit.
100
establecer una nueva ciencia: la ciencia de la economía. El fundamento que han estable-
cido es extremadamente prometedor. Como se necesitarán tanto matemáticos como
economistas para desarrollar más la teoría, es conveniente comentar la base necesaria
para leer el libro. La matemática necesaria, más allá del álgebra y geometría analítica, se
desarrolla en el libro. Por otra parte, el lector no formado en matemáticas tendrá que
ejercitar un alto grado de paciencia si quiere comprender la teoría. El lector educado en
matemáticas encontrará el razonamiento estimulante y un reto. En lo que se refiere a la
economía, es suficiente con una base limitada.
Cometeríamos una injusticia con los autores su dijéramos que su libro es únicamen-
te una aportación a la economía. El ámbito del libro es mucho más extenso. Las técni-
cas que aplican los autores al tratar problemas económicos son lo suficientemente gene-
rales como para ser válidas en ciencia política, sociología e incluso en estrategia militar.
La aplicabilidad a los propios juegos (ajedrez y póquer) es evidente de su título.
101
más de quince años. Ahora es la primera vez que se publica la teoría de juegos comple-
ta y esto forma la mayor parte del libro.
La técnica matemática es la de combinatoria y la teoría de conjuntos. Aparentemen-
te, esta técnica parece más difícil que el habitual método del cálculo infinitesimal, pero
probablemente esto se debe solamente a que es poco familiar, no sólo para los econo-
mistas sino también para muchos científicos. Por otra parte, dominar esta técnica no
exige un conocimiento previo de matemáticas superiores; de hecho, el libro explica todos
los conceptos matemáticos que se introducen desde el principio. Existen, por consiguien-
te, razones para desear que pueda ser adoptado por economistas; de otra forma, el pro-
greso mediante este método de análisis será improbable.
Este clásico en la historia del pensamiento intelectual tiene ya 20 años y está dispo-
nible en edición en rústica. Representando la colaboración de un genio matemático y
de un dotado economista, el libro no sólo ha proporcionado placer estético a miles de
lectores y un fértil campo para subsiguientes investigaciones matemáticas sino que tam-
bién ha suministrado un estímulo directo para los campos relacionados de la probabili-
dad subjetiva [personal probability], toma de decisiones en estadística e investigación
operacional, programación lineal y optimización más general. De hecho, el libro ha
conseguido todo excepto lo que pretendía hacer de entrada; a saber, revolucionar la
teoría económica.
Sin embargo, Theory of Games es el trabajo de un genio que, debido a que arroja
alguna luz en un enigma de eras, será recordado dentro de mil años, cualquiera que sea
la vida económica en ese distante futuro. Sus más de 600 páginas están erizadas de sim-
bolismos matemáticos que parecerán lo mismo que griego a la vasta mayoría de personas
educadas hasta que lleguemos al feliz estado de C. P. Snow en el que las personas edu-
cadas conocen más de una cultura.
173
La teoría de juegos (cooperativos o no cooperativos; de estos trataré enseguida) también ha
sido objeto de otros premios Nobel de Economía. Los dos premios Nobel de 2005, el alemán Robert
102
Como hemos visto en los comentarios anteriores, uno de los aspectos más des-
tacables del texto de Von Neumann y Morgenstern es que mostraba que la mate-
mática clásica no era adecuada para la economía. Los propios autores destacaron
este hecho. «No existe ninguna razón fundamental», escribían en el primer capítu-
lo de esta obra («Formulación del problema económico»), «por la que las matemá-
ticas no debieran ser utilizadas en la economía. Los argumentos que se oyen a
menudo de que las matemáticas no se podrán aplicar a la economía debido al ele-
mento humano, o a factores psicológicos, etc., o porque no existen —supuestamen-
te— medidas de factores importantes, se deben descartar como completamente
equivocados. Casi todas estas objeciones se han hecho, o podrían haber sido hechas,
hace muchos siglos en otros campos en los que las matemáticas son ahora el prin-
cipal instrumento de análisis. Con el «podrían haber sido hechas» empleado quere-
mos decir lo siguiente: intentemos imaginarnos a nosotros mismos en el período
que precedió a la fase matemática, o casi matemática, del desarrollo de la física, esto
es, el siglo xvi, o en los correspondientes casos de la química o la biología, esto es,
el siglo xviii. Dando por sentado la actitud escéptica de aquellos que objetan en
principio a la economía matemática, las perspectivas de las ciencias físicas y bioló-
gicas en aquellos períodos tempranos difícilmente podrían haber sido mejores que
aquella en que se encuentra la economía, mutatis mutandis, actualmente».174
Y sus argumentos no se detenían en este punto. También destacaban los efec-
tos positivos que podía producir, por un lado, la aplicación de la matemática a la
economía, así como el recíproco, la búsqueda de construcciones matemáticas que
describieran fenómenos económicos; esto es, era presumible que la matemática
también se beneficiaría de su relación con la economía (otra posibilidad mencio-
nada en las reseñas que recibió el libro). Refiriéndose al primer apartado, escribían:
«Con respecto a la falta de medidas de los factores más importantes, el ejemplo de
la teoría del calor es muy instructivo; antes del desarrollo de la teoría matemática
las posibilidades de mediciones cuantitativas eran menos favorables de lo que son
ahora en economía. Las medidas precisas de la cantidad y calidad de calor (energía
Aumann y el estadounidense Thomas Schelling, fueron premiados, el primero por su teoría sobre
cómo a través de «juegos repetidos» puede mejorarse la cooperación entre partes con intereses en
conflicto explicando desencuentros tales como las guerras de precios o de comercio internacional, y
el segundo por sus análisis sobre cómo la «coordinación estratégica» puede resolver conflictos y evi-
tar guerras entre países. También han sido premiados por sus aportaciones a la teoría de los juegos
los tres premios Nobel de 2007: el ya citado Leonid Hurwicz; Eric Maskin, que desarrolló la teoría
de la aplicación (implementation theory) dentro de la teoría del diseño de mecanismos que resuelve
los problemas potenciales de coexistencia de equilibrios inferiores respecto a los deseados; y Roger
Myerson, que estableció la idea del «principio de revelación» y aplicó la teoría del diseño de meca-
nismos a los juegos con información incompleta, en los que los jugadores no conocen sus objetivos,
acciones y costes con lo que se ha podido comprender mejor las subastas óptimas. Más información
en Leonard, Von Neumann, Morgenstern and the Creation of Game Theory, op. cit., y M. Dore, S.
Chakravarty y R. Goodvin, eds., John von Neumann and Modern Economics (Clarendon Press,
Oxford, 1989).
174
Cito de la tercera edición (1953), la reproducida en la edición conmemorativa de 2004, op.
cit., p. 3.
103
175
Ibidem, pp. 5-7.
176
John Nash, Non-cooperative games, Ph.D. tesis, Princeton University (mayo de 1950). Re-
producida en edición facsímil en The Essential John Nash, Harold W. Kuhn y Sylvia Nasar, eds.
(Princeton University Press, Princeton, 2002), pp. 53-84. Esta tesis dio origen a dos artículos: «Equi-
librium points in n-person games», Proceedings of the National Academy of Sciences 36, 48-49 (1950),
y «Non-cooperative games», Annals of Mathematics 54, 286-295 (1951), que también se producen
en The Essential John Nash.
177
The Essential John Nash, op. cit., p. 8.
104
Hasta el final de la Segunda Guerra Mundial la economía matemática fue casi si-
nónimo de la aplicación del cálculo diferencial a la economía. Fue sobre la base de esta
técnica que Cournot (1838) inició el enfoque matemático en economía y Walras (1874)
y Pareto (1909) crearon la teoría del equilibrio económico general. El libro de Hicks,
Value and Capital (1939), y el de Samuelson, Foundations of Economic Analysis (1947),
representan la culminación de esta era clásica.
Después de la Segunda Guerra Mundial, la teoría del equilibrio general avanzó
gradualmente hacia el centro de la economía, pero un cambio dramático de técnicas
acompañó este proceso: la teoría de la convexidad y la topología reemplazaron casi por
completo al cálculo. En los libros fundamentales de la tradición moderna, como los de
Debreu, Theory of Value (1959), Arrow y Hahn, General Competitive Analysis (1971),
Scarf, Computation and Equilibrium Prices (1982), y Hildenbrand, Core and Equilibria
of a Large Economy (1974), las derivadas o bien están ausentes o como mucho juegan
un papel periférico.
¿Por qué ocurrió este cambio? Sería correcto apelar al impacto combinado del aná-
lisis Imput-Output de Leontief, la programación lineal de Dantzig y Koopman y la
teoría de juegos de Von Neumann y Morgenstern, pero esto da por sentado lo que
queda por probar. Esquematizado algo (o quizás bastante), se podrían mencionar dos
debilidades internas del enfoque tradicional del cálculo que desmerecía su rigor y, lo que
es más importante, impedía el progreso.
La primera debilidad consistía en la costumbre de solucionar el problema de la
existencia de un equilibrio contando el número de ecuaciones e incógnitas y verificando
que el número era el mismo. Con el tiempo resultó obvio, y nunca se les pasó por alto
a los autores más perceptivos, que esta forma de proceder no resolvía el problema. Even-
tualmente, la topología acudió al rescate y en forma de la teoría de punto fijo emergió,
en cuanto a técnica, como una de las piedras angulares del enfoque moderno.
La segunda debilidad consistió en la incapacidad del análisis tradicional para tratar
desigualdades de manera satisfactoria, o incluso de darse cuenta de que había un pro-
blema de esa naturaleza. Es aquí donde la teoría de la convexidad demostró ser una
herramienta decisiva.
En 1970 G. Debreu publicó un trabajo pionero sobre economías con un conjunto
de equilibrio finito. Esta contribución fue la que estuvo en el principio de un interés
renovado por las técnicas de diferenciabilidad. También marcó la introducción en eco-
nomía de los métodos de topología diferencial (en particular el punto de vista de la
genericidad y la teoría de transversalidad de funciones) que se habían desarrollado du-
rante los años cincuenta y principios de los sesenta por matemáticos como R. Thom.
También resulta difícil sobreenfatizar el impacto del pequeño y delicioso libro de Milnor,
178
Andreu Mas-Colell, La teoría del equilibrio económico general. Un enfoque diferenciable (Fun-
dación Argentaria, Madrid, 1992; edición original en inglés de 1985), pp. 21-22. Para un estudio
histórico de la teoría del equilibrio, véase Ingrao e Israel, The Invisible Hand, op. cit.
105
179
La historia de RAND y la participación de Von Neumann se tratan en Leonard, Von Neu-
mann, Morgenstern and the Creation of Game Theory, op. cit., cap. 13, y William Poundstone, El
dilema del prisionero, cap. 5 (Alianza Editorial, Madrid, 1995). Véase, asimismo, Martin J. Collins,
Cold War Laboratory: RAND, the Air Force, and the American State, 1945-1950 (Smithsonian Press,
Washington D.C., 2002).
180
Muestra del interés que Arnold tenía por contar con científicos es lo que escribió en su libro
Global Mission: «[Yo quería] obtener los mejores cerebros disponibles, y hacerles que considerasen
los últimos desarrollos en las Fuerzas Aéreas de los alemanes y los japoneses, así como de la RAF, y
que determinasen los pasos que debería dar Estados Unidos para tener la mejor Fuerza Aérea del
mundo dentro de veinte años […] Les dije a estos científicos que quería que pensasen a veinte años
vista. Tenían que olvidar el pasado; considerar los equipos disponibles en la actualidad solamente
como la base para las predicciones más atrevidas. Quería que pensasen sobre aviones con velocidad
supersónica, aeroplanos que se moviesen y operasen sin tripulaciones; mejora en bombas, de mane-
ra que pudiéramos utilizar bombas más pequeñas para obtener efectos más grandes; defensas contra
la aviación moderna y contra la que estaba por venir; sistemas de comunicación entre aeroplanos y
tierra, y entre los propios aeroplanos en el aire; televisión, tiempo meteorológico, investigación mé-
dica; energía atómica, y cualquier otro apartado de la aviación que pudiese afectar al desarrollo y
utilización del poder aéreo en el futuro»; H. H. Arnold, Global Mission (Harper, Nueva York, 1949),
p. 532. Especialmente importante fue la relación que Arnold mantuvo con Theodore von Kárman;
véase José Manuel Sánchez Ron, El poder de la ciencia (Crítica, Barcelona, 2007), pp. 769-777.
106
107
108
Sin entrar en demasiados detalles, diré que el interés de Wiener en las compu-
tadoras le condujo al estudio del cerebro, sistema nervioso y varios apartados de la
fisiología.187 Hablando en tercera persona, el propio Wiener mencionó algunas de
las raíces de estos intereses y, en particular, cómo se plasmaron en su conocido libro
186
Masani, Norbert Wiener, 1894-1964, op. cit., pp. 240-241.
187
Véanse, en este sentido, los trabajos incluidos en el volumen IV («Cibernetics, Science and
Society; Ethics, Aesthetics, and Literary Criticism; Books Reviews and Obituaries») de Norbert Wie-
ner: Collected Works, op. cit.
109
Cybernetics, or Control and Comunication in the Animal and the Machine (1948),
en una breve nota:188
Este conglomerado de ciencias se desarrolló durante la Segunda Guerra Mundial a
partir de la necesidad de poner a trabajar a talentos matemáticos y de otras ciencias en
problemas prácticos de diseños militares, que hasta entonces no habían sido considera-
dos de naturaleza puramente científica. Esta necesidad estaba estrechamente relacionada
con la de organizar procesos tales como el seguimiento de aeroplanos, que por su misma
rapidez y complejidad eludían los tipos existentes de intervención humana, mediante el
uso de dispositivos automáticos, mecánico o electrónicos auxiliares. De esta manera,
apareció, y fue tratado por Wiener en su libro Cybernetics, or Control and Comunication
in the Animal and the Machine (1948), un campo de investigación que cubría no solo
tales mecanismos, sino también su arquetipo, el cerebro y el sistema nervioso.
Norbert Wiener (1894-1964) (MIT Museum, AIP Emilio Segrè Visual Archives).
John von Neumann estaba al tanto de los trabajos de Wiener en estos campos;
de hecho, en 1949 publicó una reseña de Cybernetics, or Control and Comunication
in the Animal and the Machine en Physics Today, la revista de la American Physical
Society.189 Una muestra temprana de esto es una larga carta que envió a Wiener
188
Norbert Wiener, «Cybernetics», reproducido en Norbert Wiener: Collected Works, op. cit.,
p. 804.
189
John von Neumann, Physics Today 2, n.º 5, 33-34 (1949). «El libro», escribió allí Von Neu-
mann, «trata de las reacciones automáticas o casi automáticas de mecanismos intencionales —arti-
ficiales o vivos— a sus entornos, o más específicamente, trata de los mecanismos regulatorios, la
110
el 29 de noviembre de 1946, que anticipaba una reunión que debían tener los
dos el 4 de diciembre en Cambridge, pero de la que, si se celebró, no ha sobrevi-
vido nada.190 Demasiado extensa para citarla o comentarla en su totalidad, me
limitaré a recuperar algunos pasajes de ella. En uno de estos, casi al principio, Von
Neumann señalaba:
Nuestros pensamientos —quiero decir los suyos y de Pitts, y los míos— estaban
centrados principalmente en el campo de la neurología, y de manera más específica en
el sistema nervioso humano, y allí principalmente en el sistema nervioso central. Así, al
tratar de comprender la función de los autómatas y los principios generales que los go-
biernan, seleccionamos para una primera acción el objeto más complicado que existe
bajo el sol, literalmente. A pesar de su formidable complejidad, este asunto ha proporcio
nado información muy interesante bajo la presión de los esfuerzos de Pitts y McCulloch,
Pitts, Wiener y Rosenblueth. Lo que pensamos —o al menos, lo que pienso yo— acer-
ca de todo el tema de los autómatas sería mucho más confuso de lo que es si estos ex-
tremadamente atrevidos esfuerzos —con los que desearía poner a la par la muy a-neu-
rológica tesis de A. Turing— no se hubieran efectuado. Sin embargo, pienso que estos
éxitos no deberían cegarnos acerca de las dificultades del tema, dificultades que, creo, se
mantienen igual de prohibitivas, sino más, que siempre.
Pienso que tenemos que dedicarnos a sistemas más simples. Es una falacia argumen-
tar que como la neurona es una célula (de hecho, parte de su empaquetado individual
síntesis de los cuales constituye estos autómatas. “Cibernética” es un neologismo, acuñado por el
autor para esa ocasión y —con la esperanza de que muchos lo comparta con él— para muchas oca-
siones futuras. El autor lo deriva de la palabra griega Κυβερνh′της (gobernador); esto es, el “gober-
nador” de la máquina de vapor, del que trató Clerk Maxwell en un artículo de 1868». En lugar de
«gobernador», sería mejor traducir ese término por «timonel».
190
Reproducida en Rédei, ed., John von Neumann: Selected Letters, op. cit., pp. 278-282, y en
Masani, Norbert Wiener, 1894-1964, op. cit., pp. 243-247.
191
Véase, por ejemplo, Norbert Wiener y Arturo Rosenblueth, «The mathematical formulation
of the problem of conduction of impulses in a network of connected excitable elements, specifically
in cardiac muscle», Archivos del Instituto de Cardiología de México 16, 205-265 (1946).
192
Warren McCulloch y Walter Pitts, «A logical calculus of the ideas immanent in nervous
activity», The Bulletin of Mathematical Biophysics 5, 115-133 (1943).
111
193
Los fagos fueron descubiertos en 1915-1917 por Frederick William Twort y Félix d’Hérelle.
Aunque son demasiado pequeños para observarlos con microscopios ordinarios, y estructural y quí-
micamente son muy sencillos (mitad proteínas, mitad ADN), están dotados de una gran capacidad
de autorreproducción. Uno de los primeros en darse cuenta del valor científico de los fagos —que
comenzó a estudiar en 1938— fue el físico Max Delbrück, que dejó la física para pasarse a la bio-
logía. Junto a Emory Ellis, Delbrück demostró que un fago que infecta a una célula puede dar lugar
a cientos de fagos idénticos en media hora, con lo que se convertían en extraordinarios instrumentos
para estudiar la replicación genética. Dos años después, se encontró con Salvador Luria y Alfred
Hershey, dando lugar al conocido como Grupo de los Fagos, cuyos miembros estaban unidos por
un deseo común: resolver el misterio del gen. Es interesante también mencionar que, en 1947, Lu-
ria, entonces profesor en Indiana, tomó como estudiante graduado a un joven biólogo de Chicago
de nombre James Watson, iniciándole como miembro del Grupo de los Fagos. Véanse los diferentes
artículos incluidos en John Cairns, Gunther S. Stent y James D. Watson, eds. (Cold Spring Har-
bor Laboratory Press, Cold Spring, 1992, «expanded edition»), Phage and the Origins of Molecular
Biology.
194
John von Neumann, «The general and logical theory of automata», op. cit., p. 527.
112
195
Aun así, se daba cuenta de que «los procesos que se desarrollan en el sistema nervioso pue-
den cambiar su carácter de digital a analógico, volviendo de nuevo al digital, etc., repetidamente»,
John von Neumann, El cerebro y el ordenador (Antoni Bosch, Barcelona, 1980), p. 78. Se encuentran
comentarios interesantes sobre esta cuestión en Freeman Dyson, «Are brains analog or digital?», en
Dyson, Birds and Frogs, op. cit., pp. 85-98.
196
John von Neumann, «The general and logical theory of automata», op. cit., p. 554.
113
197
Von Neumann, El cerebro y el ordenador, op. cit., pp. 84-85.
198
John von Neumann, «Probabilistic logics and the synthesis of reliable organisms from un-
reliable components», en Claude Shannon y John McCarthy, eds., Automata Studies (Princeton
University Press, Princeton, 1956), pp. 43-98.
199
Más información en Paul J. Nahin, The Logician and the Engineer. How George Boole and
Claude Shannon Created the Information Age (Princeton University Press, Princeton, 2013). Véanse,
en especial las pp. 106-110, donde se trata del artículo de Von Neumann.
200
Von Neumann, El ordenador y el cerebro, op. cit., p. 33.
114
nervioso desde el punto de vista del matemático. Sin embargo, esta frase, apenas enun-
ciada, debe ser matizada en dos puntos esenciales.
En primer lugar, describir lo que voy a intentar hacer aquí como una «aproximación
al entendimiento» es sobrevalorar mi trabajo; lo único que hago es recoger un conjunto
algo sistemático de especulaciones sobre cómo debería hacerse tal aproximación. Es
decir, mi idea es intuir, entre las líneas de acción a las que guía la matemática, cuáles
parecen a priori prometedoras, desde la distancia confusa en que las vemos casi todas, y
cuáles no. Ofreceré también justificaciones de estas hipótesis.
En segundo lugar, la expresión «el punto de vista del matemático», tal como quisie-
ra que se entendiese en este contexto, enfatiza aspectos poco habituales: en vez de insis-
tir sobre las técnicas matemáticas más generales, se quieren resaltar los aspectos lógicos
y estadísticos de la matemática. Además, la lógica y la estadística deben ser consideradas
principal, aunque no exclusivamente, como los instrumentos básicos de la «teoría de la
información». Asimismo, el cuerpo de conocimientos experimentales que se ha desarro-
llado alrededor de la planificación, evaluación y codificación de complicados autómatas
lógicos y matemáticos, será el foco de gran parte de esta teoría de la información. Los
más típicos de esos autómatas, pero no los únicos, siguen siendo sin duda los grandes
calculadores electrónicos.
Avanzar más en este tema nos lleva necesariamente a cuestiones de lenguaje. Como
hemos indicado, el sistema nervioso se basa en dos tipos de comunicaciones: aquellas
que no implican formulaciones aritméticas, y aquellas que sí lo hacen, es decir, comu-
nicaciones de órdenes (de tipo lógico) y comunicaciones de números (de tipo aritméti-
co). El primero puede ser descrito propiamente como un lenguaje, el segundo entra
plenamente en el campo de las matemáticas.
Resulta obligado darse cuenta de que el lenguaje es, en gran medida, un accidente
histórico. Los lenguajes humanos básicos nos son transmitidos tradicionalmente de va-
201
Ibidem, pp. 82-83. Aunque no desarrollaré este punto, es obligado mencionar que el único
nombre propio que citaba Von Neumann en este libro era el de Alan Turing.
202
Ibidem, pp. 86-87.
115
rias maneras, pero su gran variedad prueba que no hay en ellos nada de absoluto y de
necesario. Idiomas como el griego y el sánscrito son realidades históricas y no necesida-
des lógicas. Por ello, es razonable suponer que la lógica y las matemáticas son, tanto una
como otra, formas históricas accidentales de expresión. Pueden tener variantes esenciales,
es decir, pueden existir en formas distintas de aquellas a las que estamos acostumbrados.
Desde luego, la naturaleza del sistema nervioso central y del sistema de mensajes que
éste transmite indica positivamente que así es. Hemos acumulado ya evidencia suficien-
te para darnos cuenta de que cualquiera que sea el lenguaje que el sistema nervioso
central utilice, éste se caracteriza por una profundidad lógica y aritmética menor que la
que nos es habitual […] Así, la lógica y las matemáticas en el sistema nervioso central,
cuando se las considera como lenguajes, deben ser estructuralmente distintas de aquellos
lenguajes a los que se refiere nuestra experiencia corriente.
Final
Aunque su obra fue monumental, tanto en tamaño como en variedad, John
von Neumann no vivió demasiado: poco más de cincuenta y tres años (casi lo
mismo que otro gigante de la ciencia, Enrico Fermi). Su esposa, Klara, dejó testi-
monio de sus últimos meses; es mejor utilizar sus palabras:203
203
Klara von Neumann, «Prefacio», en J. von Neumann, El ordenador y el cerebro, op. cit.,
pp. 27-31.
204
Parece ser, aunque ignoro si se ha confirmado, que el cáncer fue consecuencia de la irradia-
ción que sufrió durante pruebas de bombas atómicas.
205
Poco antes de verse obligado a ingresar en el hospital, Von Neumann pensó en abandonar
el Instituto de Princeton, debido a que las facilidades materiales que encontraba allí para avanzar en
la construcción de computadoras más potentes no eran de su agrado. Evidencia en este sentido es
una carta que envió el 24 de febrero de 1956 a James R. Killian, Jr., presidente del MIT: «La última
vez que tuve el placer de reunirme con usted y el Dr. Stratton en el Cosmos Club y subsiguiente-
mente, con relación al mismo asunto, con Mr. Melvin Kelly en mi despacho, usted me ofreció una
“Institute Professorship” en el Massachusetts Institute of Technology, con un salario anual de 20.000 $
y con lo que entendí que eran privilegios de tal puesto, esto es, obligaciones docentes no fijadas, no
afiliación departamental fija, sino responsabilidad general para el tema que representan mis intereses.
Dejamos nuestras negociaciones completamente abiertas entonces. Ahora querría decirle que estoy
considerando esta oferta muy seriamente. Deseo tomar una decisión sobre mi situación futura y su
oferta figura, por supuesto, de manera muy importante en mis decisiones. Por supuesto, actualmen-
116
te soy un miembro de la U.S. Atomic Energy Commission y cualquier plan que pueda tener de
abandonar el servicio gubernamental debe ser estrictamente confidencial. No obstante, en orden a
clarificar completamente nuestras ideas, quiero decirle —solamente para propósitos de planifica-
ción— que si fuese al Instituto estaría pensando en la fecha del 1 de enero de 1957 para el cambio
de mi estatus». A continuación, establecía una serie de condiciones, relativas a pensión, seguros
médicos, disponibilidades para disponer de lo necesario en el desarrollo de computadoras, así como
si dispondría de permiso para continuar con sus labores de asesoramiento tanto para el Gobierno
como para industrias. Tales planes, que le habrían llevado de Princeton al Cambridge de Massachu-
setts, no se pudieron llevar a cabo debido a su fallecimiento. M. Rédei, ed., John von Neumann:
Selected Letters, op. cit., pp. 165-166.
117
Su viejo amigo y compatriota Eugene Wigner escribió que «cuando Von Neu-
mann se dio cuenta de que estaba incurablemente enfermo, su lógica le forzó a
concluir que él dejaría de existir y por consiguiente de tener pensamientos. Sin
embargo, esta es una conclusión cuyo contenido completo es incomprensible para
el intelecto humano y que, por consiguiente, le horrorizó. Rompía el corazón ver
la frustración de su mente, cuando desapareció toda esperanza, en su lucha con el
destino que se le aparecía como inevitable e inaceptable».206
Falleció el 8 de febrero de 1957. Con él desapareció una de las mentes más
poderosas, originales e interdisciplinares de que tiene constancia la ciencia.
206
Wigner, «John von Neumann (1903-1957)», op. cit., p. 130.
118
121
122
Consideraciones preliminares
123
«teoría de las transformaciones», por Dirac y Jordán, tomando como base la in-
terpretación estadística que dio Born de la descripción de la Naturaleza desde el
punto de vista de la teoría de los quanta. En dicha teoría se unen aquellas dos,
completándose y haciendo posible un dominio de las cuestiones físicas particular-
mente simple desde el punto de vista matemático.
Debemos decir todavía, aunque ello no pertenece ya a nuestro tema, que aho-
ra, después que Goudsmit y Uhlenbeck hubieron descubierto el momento mag-
nético y de rotación del electrón, desaparecieron casi todas las dificultades de la
primitiva teoría cuántica, de modo que hoy nos encontramos en posesión de una
teoría mecánica punto menos que totalmente satisfactoria. Verdad es que la unidad
a que aludíamos con la Electrodinámica y la teoría de la Relatividad no se ha vuel-
to a conseguir; pero por lo menos existe una Mecánica de validez general en la que
se encuadran, con evidente necesidad, las regularidades que se dan en lo cuántico
y encuentran explicación satisfactoria la mayor parte de nuestras experiencias.10
función en general cuadrática respecto de las derivadas q·1, …, q·k. Mediante las
fórmulas
∂L ∂L
p1 = · , …, pk = ·
∂q1 ∂qk
se introducen los «impulsos conjugados», p1, …, pk, de las coordenadas q1, …, qk,
los cuales, en la hipótesis que hemos hecho acerca de L, dependen linealmente de
las q·1, …, q·k. En todo caso podemos eliminar de L las q·1, …, q·k al expresar estas
en función de las p1, …, pk, con lo que queda
124
QmQn QnQm = 0 Pm Pn Pn Pm = 0
0 para m n,
(m, n = 1, …, k)
PmQn Qn Pm = h
1 para m = n,
2 i
y, segundo, tales que la matriz W = H (Q1, …, Qk; P1, …, Pk) sea una matriz dia-
gonal. (No entraremos en pormenores acerca del origen de estas ecuaciones, en
particular del primer grupo, las llamadas «relaciones de permutación», que rigen
todo el cálculo de matrices no-conmutativo de esta teoría. La constante h que
aparece en ellas, es el quantum de acción de Planck. Sobre el particular encontra-
rá el lector una información completa en las obras citadas en la Nota 1.) Los ele-
mentos diagonales de W, w1, w2, …, son entonces los diferentes niveles de energía
del sistema posibles. Los elementos de las matrices Q1, …, Qk —q(1) (k)
mn, …, q mn—
determinan en cierto modo las probabilidades de transición del mismo, desde el
estado m-simo de energía wm, p. e., al n-simo estado de energía wn, (wm > wn) y la
correspondiente radiación emitida.
Hay que hacer notar que la matriz
no queda determinada sin más por Q1, …, Qk, P1, …, Pk y la función de Hamil-
ton de la mecánica clásica H (q l, …, qk, p1, …, pk), pues las Q1 y Pl no son todas
permutables entre sí en la multiplicación, mientras que, desde el punto de vista
de la Mecánica clásica, carecería en absoluto de sentido el distinguir, por ejemplo,
entre un término pl ql y un término ql pl . Por consiguiente, por cima del sentido
clásico de la expresión H, debemos fijar en ella el orden de los factores ql y pl en
cada uno de sus términos. No se ha establecido en toda su generalidad el criterio
a seguir en un caso cualquiera, pero sí se conoce la disposición adecuada en los
más importantes casos particulares. (En el supuesto de que el sistema que se estu-
dia conste de ν partículas y, por lo tanto, para k = 3ν coordenadas q1 …, q3ν —de
modo que q3μ – 2, q3μ – 1, q3μ son las coordenadas cartesianas de la μ-ésima partícu-
125
donde mμ es la masa de la μ-ésima partícula y p3μ – 2, p3μ – 1, p3μ sus impulsos. Está
perfectamente claro lo que significa esta expresión tras haber sustituido las p y las q
por las matrices Q1, …, Q3ν, P1, …, P3ν. En particular, el término V no puede dar
lugar a ninguna dificultad, pues todas las Q1, …, Q3ν son permutables entre sí.) Es
esencial que se introduzcan exclusivamente matrices hermíticas, esto es, matrices
A = {am n} tales que para sus elementos valgan las igualdades am n = a–n m (¡los elemen-
tos am n pueden ser números complejos !). Luego H (Q1, …, Qk, P1, …, Pk) debe
ser hermítica, si todas las matrices Q1, …, Qk, P1, …, Pk lo son. Esto involucra una
cierta limitación en la cuestión a que aludíamos acerca del orden de sucesión de
los factores, aunque no suficientemente restrictiva como para determinar unívoca-
mente H (Q1, …, Qk; P1, …, Pk) a partir de la H (q1, …, qk; p1, …, pk) clásica.14
Frente a lo que precede, la norma que ofrece la Mecánica ondulatoria se expre-
sa como sigue: Se forma primero la función de Hamilton, H (q1, …, qk; p1, …, pk)
y luego se establece la ecuación diferencial
⎛ h ∂ h ∂ ⎞
H ⎜ q1, …, qk , , …, ψ (q1, …, qk ) = λψ (q1, …, qk ),
⎝ 2π i ∂q1 2π i ∂qk ⎟⎠
en la que ψ (q1, …, qk) es una función definida en el espacio de los los estados del
sistema (¡y no en el espacio de las fases!, es decir, entre los argumentos de ψ no
⎛ h ∂ h ∂ ⎞
deben figurar las pi, …, pk). En esta ecuación, H ⎜ q1, …, qk , , …,
⎝ 2π i ∂q1 2π i ∂qk ⎟⎠
se concibe como operación funcional de significado fácilmente comprensible. Por
ejemplo, en el caso antes citado
ν
1
H (q1, …, q3ν , p1 …, p3ν ) = ∑ (p32µ −2 + p32µ −1 + p32µ ) + V (q1, …, q3ν ),
µ =1 2mµ
⎛ h ∂ h ∂ ⎞
la expresión H ⎜ q1, …, q3ν , , …, transforma ψ (q1, …, q3ν) en
⎝ 2π i ∂q1 2π i ∂q3ν ⎟⎠
2
ν
1 h ⎛ ∂2ψ ∂2ψ ∂2ψ ⎞
∑ 2m ⎛⎝ 2π i ⎞⎠ ⎜ ∂q 2 + ∂q 2 + ∂q 2 ⎟ + V ψ .
µ =1 µ ⎝ 3 µ −2 3 µ −1 3µ ⎠
126
3 3
2
e … (q1, …, q3 µ 3, x, y, z, q3 µ +1, …, q3 dq1… dq3 µ 3 dq3 µ +1 … dq3
(Para que resulte la carga total e, ψ debe normalizarse de modo que quede satis-
fecha la condición
3
2
… (q1, …, q3 ) dq1… dq3 = 1
⎛ h ∂ h ∂ ⎞ h ∂ 19
−H ⎜ q1, …, qk , , …, ⎟ ψ (q1, …, qk ; t) = ψ (q1, …, qk ; t)
⎝ 2π i ∂q 1 2π i ∂qk⎠ 2π i ∂t
127
de modo que puede prefijarse arbitrariamente su valor en todo el espacio (q) para
t = t0 y con ello está unívocamente determinada para todo t. En rigor, conforme
muestra la comparación de las dos ecuaciones de Schrödinger, también las ψ
estacionarias son funciones de t, solo que en ellas la dependencia de t toma la
forma
2π i
− λt
ψ (q1, …, qk ; t) = e h ψ (q1, …, qk ; 0).
∞ ∞
Hψ = ∑ an (t)H ψ n = ∑ λn an (t)ψ n,
n =1 n =1
h ∂ψ ∞
h
=∑ a!n (t)ψ n,
2π i ∂t n =1 π i
2
128
es decir,
2π i 2π i
− λn (t −t0) − λn (t −t0)
an (t) = e h an (t0 ) = e h an,
∞ 2π i
− λn (t −t0)
ψ = ψ (q1, …, qk ; t) = ∑ e h anψ n (q1, …, qk ).
n =1
Por consiguiente, cuando ψ; no es estacionaria, esto es, cuando no son nulos todos
los coeficientes an salvo uno, ya no varía ψ con el tiempo simplemente a través de
un factor espacialmente constante (espacio de los estados) de valor absoluto uni-
dad, de donde se sigue que cambiarán con el tiempo, en general, las densidades
de carga antes definidas, o sea, en el espacio x, y, z tendrán lugar verdaderas osci-
laciones eléctricas.22
Como se ve, la estructura conceptual adoptada y las normas prácticas se ex-
presan de modo bastante diferente en la teoría de las matrices y en la ondulatoria-
Sin embargo, ya desde un principio proporcionaron siempre los mismos resulta-
dos, incluso en aquellos puntos donde una y otro hacían patentes detalles que
discrepaban de las primitivas concepciones de la teoría cuántica.23 Este notable
hecho quedó explicado desde luego por la demostración que de su equivalencia
matemática dio Schrödinger, demostración a que se aludió en I, 1.24 Nuestro
objeto va a ser ahora precisamente la demostración de esta equivalencia, a la vez
que expondremos la teoría de las transformaciones general de Dirac-Jordan que
comprende a ambas teorías.
no resultaba ser, por regla general, una matriz diagonal. Acto seguido se disponían
las soluciones correctas en la forma
– – – –
Q1 = S –1Q1 S, …, Qk = S –1Qk S, P1 = S –1P 1 S, …, Pk = S –1P k S,
129
donde S podía ser una matriz cualquiera, sujeta, de todos modos, a poseer una
inversa S –1, tal que– S –1 S =–S S ––1 = 1.–Puesto que de la validez de las relaciones de
permutación para Q1, …, Qk, P1, …, Pk –se sigue –la validez– para – Q1 …,– Qk, P1, …, Pk
(¡cualquiera que sea S !), y puesto que H = H (Q1, …, Qk; P 1, …, P k) se transfor-
ma en
o sea
∑ hμν snρ = wρ · sμρ.
ν
Cada una de las columnas s1ρ, s2ρ, … de la matriz S (ρ = l, 2, …) y los correspon-
dientes elementos diagonales wρ de la matriz H son soluciones, por consiguiente,
del llamado problema de valores propios, que reza así: determinar xμ (μ = 1, 2, …)
y λ, tales que
∑ hμν xν = λ xμ, (μ = 1, 2. …)
ν
130
el vector
– que origina la aplicación de S –1 a x–= {x1, x2, …}, – Transformar y median-
te H es transformar x mediante H S –1 = S –1
H S S –1 = S –1 H, esto es, λx con S –1. El
–
resultado es, pues, λy. Ahora bien, Hy posee las componentes ∑ wμ δμν · yν = wμ yμ
ν
y λy las componentes λyμ. Luego debe ser wμ yμ = λyμ para μ, = 1, 2, …, o sea,
yμ = 0 siempre que wμ ≠ λ. Representemos con η un vector cuya ρ-ésima com-
ρ
ponente sea igual a 1 y todas las demás cero. El resultado anterior puede formu-
larse diciendo que el vector y es una combinación lineal de aquellos η ρ cuyos
superíndices coinciden con los subíndices de las wρ tales que wρ = λ, en particular
nulo cuando esto no ocurre para ningún valor de ρ. Y como x resulta de aplicar
S a y, x es una combinación lineal de los transformados de dichos η ρ mediante S.
La ρ-ésima componente de Sη ρ es ∑ sμν δμρ = sμρ, pues las η ρ son δνρ (ν = 1, 2, …).
ν
Por lo tanto, al concebir la ρ-ésima columna de s1ρ, s2ρ, … de S como vector,
x aparece como combinación lineal de todas las columnas para las que w = λ —en
particular nulo si esto nunca ocurre. Queda así demostrada nuestra afirmación: las
w1, w2, … son los únicos valores propios y xν = sνρ, λ = wρ son las, en esencia,
únicas soluciones— cualquiera otra es combinación lineal de ellas.
Esto es sumamente importante, pues de ello cabe seguir, no solo que el cono-
cimiento de S, H permite determinar todas las soluciones del problema de valores
propios, sino que, recíprocamente, podremos determinar S, H tan pronto hayamos
resuelto dicho problema. Los elementos diagonales de H, por ejemplo (los únicos
no nulos), son simplemente todas las soluciones λ, y cada una de estas λ aparece
en la sucesión w1, w2, … tantas veces cuantas soluciones: x1, x2, … linealmente
independientes le correspondan,28 con lo que quedan fijados los w1, w2, … salvo
el orden de sucesión.29
El problema central de la teoría de las matrices es, pues, la resolución de la
ecuación de valores propios
E1 ∑ hμν xν = λ · xμ (μ = 1, 2, …)
ν
xμ → ∑ hμν xν
ν
131
xμ → ∑ hμν xν o xν → ∑ hνν' xν'
ν ν'
se trueca en
a su vez en
132
⎛ h ∂ h ∂ ⎞
H = H ⎜ q1, …, qk , , …, ,
⎝ 2π i ∂q1 2π i ∂qk ⎟⎠
una función h (q1, …, qk; q'1, …, q'k) tal que para todas las funciones ϕ (q1, …, qk)
fuese
Esta función h (q1, …, qk; q'1, …, q'k), caso de que exista, es el llamado «núcleo
integral» de la operación funcional H que, a su vez, se llama entonces un «opera-
dor integral».
Ahora bien, es el caso que semejante transformación resulta ser imposible: los
operadores diferenciales H no son nunca operadores integrales. Ni tan solo lo es
el más simple de los operadores funcionales, el que transforma cada función ϕ en
sí misma, el operador 1. Cerciorémonos de ello y, para simplificar, supongamos
k = l. Se trata, pues, de determinar h (q; q' ) de modo que
∞
Δ1. ϕ (q) ≡ ∫ −∞
h q, q' )ϕ (q' )dq' ,
cualquiera que sea la función ϕ (q). Sustituyamos la función ϕ (q) por la nueva
función de q ϕ (q0 + q), hagamos luego q = 0 y elijamos como variable de integra-
ción q'' = q' + q0. Se tiene entonces
∞
ϕ (q 0) ≡ ∫
−∞
h(0 q'' − q0 )ϕ (q'' )dq''
y al sustituir q0, q'' por q, q' se ve que h (0, q' - q) es solución de nuestro problema,
si lo es h (q, q' ). Esto nos permite suponer, sin más, que h (q, q' ) depende solo de
q' - q (h (q, q' ) = h (q' - q)), y escribir
∞
Δ2. ϕ (q) ≡ ∫
−∞
h(q' − q)ϕ (q' )dq' .
La sustitución una vez más de j (q) por j (q0 + q) demuestra que basta considerar
el valor q = 0, es decir, que
∞
Δ3. ϕ (0) ≡ ∫−∞
h(q)ϕ (q)dq.
133
Puede admitirse que la función h (q) es función par, ya que, al sustituir en Δ3 j (q)
por j (-q), resulta que h (q) y h (-q) son a la vez solución y, de serlo, con ellos lo
h (q) + h (-q)
es h1(q) = .
2
Que estas condiciones son irrealizables es claro: elijamos j (q) de modo que
j (q) > 0 para q ≠ 0 y j (0) = 0; de D3. se sigue entonces h (q) = 0 para q ≠ 0.31 Si
+∞
elegimos, en cambio, j (q) ≡ l, de D3. resulta ∫− ∞ h(q)dq = 1, mientras que de lo
+∞
que precede se sigue ∫− ∞ h(q)dq = 0.
Sin embargo Dirac finge una función tal que
+∞
Δ4. d (q) = 0 para q ≠ 0, d (q) = d (-q), ∫−∞
δ (q)dq = 1.
+∞ +∞ +∞
∫
−∞
δ (q)ϕ (q)dq = ϕ (0) ∫−∞
δ (q) dq + ∫ −∞
δ (q)[ϕ (q) − ϕ (0)]dq =
+∞
= ϕ (0) ⋅1 + ∫ −∞
0 ⋅ dq = ϕ (0),
y, por lo tanto, también Δ2., Δ1.. Debemos imaginárnosla, por ende, nula en toda
la recta salvo en el origen, pero hasta tal punto infinita en este que en definitiva
la integral de d (q) valga 1.32
Una vez se ha aceptado esta ficción, es ya posible representar los más diversos
operadores diferenciales como operadores integrales —supuesto que junto con
d (q) se introduzcan sus derivadas. Se encuentra así:
dn dn +∞ +∞ ∂n
dq n
ϕ (q) =
dq n ∫ −∞
δ (q − q' )ϕ (q' )dq' = ∫ −∞ ∂q n
δ (q − q' ) ⋅ ϕ (q' )dq' =
+∞
= ∫ −∞
δ (n) (q − q' )ϕ (q) − ϕ (q' )dq' ,
+∞
q n ⋅ ϕ (q) = ∫ −∞
δ (q − q' )q n ⋅ ϕ (q' )dq' ,
d n
es decir, y qn… poseen los núcleos integrales d (n)(q - q' ) y d (q - q' ) qn, res-
dqn
pectivamente. Según el mismo esquema, se pueden buscar los núcleos integrales
de operadores diferenciales tan complicados como se quiera. En el caso de varias
134
∫!
… ∫ d (q1 − q'1)d (q2 − q'2) … d (qk − q'k) ϕ (q'1, …, q'k) dq'1, … dq'k =
Ω
+∞ ⎡ ⎡ +∞
⎡ +∞
⎤ ⎤
= ∫ ∫ ∫
⎢… ⎢ ⎢⎣ ϕ (q'1 , …, q'k )δ (q1 − q'1)dq'1 ⎤⎥ δ (q2 − q' 2 )dq' 2 ⎥…⎥ ⋅
−∞
⎣ ⎣ −∞ −∞ ⎦ ⎦ ⎦
⎡ ⎡ +∞
+∞
⎤ ⎤
⋅ δ (qk − q'k )dq'k = ∫ ∫
⎢… ⎢ − ∞ ϕ (q1, q' 2, …, q'k )δ (q 2 − q' 2 )dq' 2 ⎥…⎥ ⋅
−∞ ⎣ ⎣ ⎦ ⎦
⋅ δ (qk − q'k )dq'k = ϕ (q1, …, qk ).
∫!
… ∫ d' (q1 − q'1)d (q2 − q'2) … d (qk − q'k) ϕ (q'1, …, q'k) dq'1 … dq'k =
Ω
=
∂ …
∂q1
∫ ∫
δ (q1 − q'1)δ (q2 − q' 2 )… δ (qk − q'k )ϕ (q'1,…, q'k )dq' … dq'k =
Ω
∂
= ϕ (q1,…, qk ), etc.
∂q1
135
espacio de las fases, los cuales han pasado a ser números enteros en virtud de las
prohibiciones que entrañan las condiciones de cuantificación.
No queremos aquí seguir adelante en este orden de ideas, moviéndose en el
cual Dirac y Jordán llegaron a constituir una teoría unitaria de los procesos
cuánticos. En esta las formas «impropias» (como d (x), d' (x), …) representan un
papel decisivo —pero tales formas caen fuera del marco de los métodos matemá-
ticos generalmente en uso, v nosotros pretendemos describir la Mecánica cuántica
con ayuda de estos últimos. Pasamos por ellos al otro método para la unificación
de ambas teorías, al método de Schrödinger.
∫!
… ∫ ∙j (q1, …, qk)∙ 2 dq1 … dqk,
Ω
que debe ser = 1 para que j sea aplicable a las relaciones físicas. Frente a ella, en
la teoría de las matrices (cf. el problema E1. en I, 3), el papel principal lo desem-
peña el vector x1, x2, …, y a él se impone siempre la condición de ser finita la
serie ∑ ∙xν∙2 de acuerdo con la teoría de Hilbert de esos problemas de valores pro-
ν
pios (cf. Nota30). Incluso es frecuente introducir la condición de normalización
* Del mismo modo que x1, x2, … se concibe como un todo único (campo de variabilidad de la
variable xν, dependiente del índice n, que para el valor n = n' toma el valor xν' , para n = n'' el valor
xn'' , etc.), así también el conjunto de todos los valores de j (q1, …, qk) (campo de variabilidad de la
variable j, dependiente del sistema de variables (q1, …, qk), que para (q1, …, qk) = (q'1, …, q'k) toma
el valor j (q'1, …, q'k), para (q1, …, qk) = (q''1, …, q''k) el valor j (q''1, …, q''k), etcétera). No se pre-
cisa, pues, en j el proceso funcional, sino el conjunto de sus valores numéricos vinculados a los que
tome (q1, …, qk). La sucesión está definida cuando se da para cada n el valor de xn; la función está
definida cuando se da para cada (q1, …, qk) el valor de j. Y al concepto de una variable numérica
dependiente del conjunto de los valores que integran una sucesión, corresponde el de una variable
numérica dependiente del conjunto de los valores de la función, es decir, el de funcional. (N. del T.)
136
Σν xν y ∫!
… ∫ ϕ (q1, …, qk 2 dq1 … dqk
2
tar x1, x2, … y j (q1, …, qk) como vectores y
Ω
como a sus respectivas longitudes.)
Pero hay más: supongamos que … correspondan x1, x2, … y j (q1, …, qk) de
una parte, y1, y2, … y ψ (q1, …, qk) de otra; en estas condiciones se tiene:
y ambos miembros convergen en valor absoluto. Acerca de este último punto hay
que hacer notar que, bien mirado, fuera quizá de desear que
137
o algo por este estilo, es decir, una completa analogía entre adición de una parte
e integración de otro, pero un examen detenido muestra que la adición ∑ y la
ν
integración ∫ … ∫ … dq1 … dqk se aplican en Mecánica cuántica siempre y tan
!
Ω
solo a expresiones de la forma xν y−n y j (q1, …, qk) ψ (q1, …, qk) respectivamente.
No vamos a estudiar ahora cómo ha de resultar esa correspondencia, ya que
de todos modos tendremos que ocuparnos de ella con todo detalle en el próximo
capítulo. Pero hay que poner de relieve lo que significa el mero existir esta corres-
pondencia: Z y W son muy diferentes; establecer entre ellos una relación debe
conducir a dificultades matemáticas insolubles. En cambio, FZ y FW son isomorfos,
o sea, idénticos en su estructura íntima (realizan en dominios matemáticos distin-
tos las mismas propiedades abstractas), y pues ellos (¡y no Z y W!) son el auténti-
co substrato analítico de la teoría de las matrices y de la ondulatoria, respectiva-
mente, esta isomorfía significa que ambas teorías deben dar los mismos resultados;
es decir, este es el caso si dicho isomorfismo coordina entre sí la matriz
– – – – –
H = H (Q l, …, Q k, P 1, …, P k)
⎛ h ∂ h ∂ ⎞
y el operador H = H ⎜ q1,…, qk ; ,…, . Dado que una y otro
⎝ 2π i ∂q1 2π i ∂qk ⎟⎠
– , P– (l = 1, 2, …, k) y de los operadores funcionales
resultan de las matrices Q i l
h ∂
qi …, … (l = 1, …, k), respectivamente, mediante las mismas operaciones
2pi ∂ql
algébricas, basta demostrar que ql … corresponde a la matriz Q – y h ∂ …a
i
2pi ∂ql
la matriz P . Ahora bien, de Q– , P– (l = 1, …, k) no se exigía sino que satisficieran
l l l
las «relaciones de permutación» (I, 2):
QmQn − QnQm = 0, Pm Pn − Pn Pm = 0⎫
⎪⎪
⎧= 0 para m ≠ n⎬ (m, n = 1, 2,…).
⎪
Qm Pn − PnQm ⎨ h ⎪
⎪⎩= 2π i 1 para m = n⎪⎭
h ∂
Y es claro que las matrices correspondientes a ql …, … lo harán cierta-
2pi ∂ql
h ∂
mente, pues los operadores funcionales ql …, … poseen ya de suyo estas
2pi ∂ql
138
139
1. Caracterización del E. H.
Hemos de llevar a la práctica el programa presentado al final de I, 4: Caracte
rizar el E. H., que proporciona la base matemática para el estudio de la Mecánica
cuántica, de modo tal que no se apliquen otros conceptos que los que luego serán
utilizados en dicha teoría, y en virtud de lo cual poseen exactamente tanto sentido
en el espacio funcional discreto FZ de las sucesiones xv (ν = 1, 2, …) cuanto en el
espacio continuo FΩ de las funciones de onda ϕ (q1, …, qk), (q1, …, qk recorren
el espacio de los estados Ω). Estos conceptos, conforme ya indicamos, son los si
guientes:
α ) La «multiplicación escalar», es decir, la multiplicación de un número a
(complejo) por un elemento f del E. H.: af. En FZ resulta así de xν axν; en FΩ, de
ϕ (q1, …, qk) a ϕ (q1, …, qk).
β ) La adición y substracción de dos elementos f, g del E. H.: f ± g. En FZ
resulta así de xν e yν xν ± yν, respectivamente; en FΩ, de ϕ (q1, …, qk) y ψ (q1, …,
qk), ϕ(q1, …, qk) ± ψ (q1, …, qk).
γ ) La «multiplicación interior» de dos elementos f, g del E. H., que da lugar,
no como α ) y β ) a un elemento del E. H., sino a un número complejo: ( f, g).
En FZ resulta así de xv e yv ∑ x
ν ν ν
y− ; en FΩ, de ϕ (q1, …, qk) y ψ (q1, …, qk), ∫ … ∫
Ω
ϕ (q1, …, qk) ψ (q1, …, qk)· dq1 … dqk. (Hay que completar las definiciones en FZ
y FΩ con las correspondientes demostraciones de la convergencia. Estas se darán
en II.3).
En lo que sigue, los puntos del E. H. se representarán sistemáticamente por
f, g, …, ϕ, ψ, …, los números complejos por a, b, …, x, y, …, y los números
enteros positivos por k, l, m, …, μ, ν, … Donde sea necesario, llamaremos E∞
al E. H., como abreviatura de «espacio euclídeo de infinitas dimensiones», aná
logamente a la expresión habitual ℰn para el «espacio euclídeo de n dimensiones»
(n = 1, 2, …).
Lo notable en las operaciones af, f ± g, ( f, g) reside en que son precisamente
las operaciones fundamentales del cálculo vectorial, aquellas que hacen posible,
por ejemplo, el establecimiento del cálculo de segmentos y de ángulos en la Geo
metría euclídea o del de fuerza y trabajo en la Mecánica del punto. Donde más
clara aparece la semejanza es en FZ cuando en vez de las x1, x2, … del E∞ se con
sideran los puntos en el sentido ordinario (x1, x2, …, xn) de un En, para el cual
justamente son viables las operaciones α), β ), γ ). En particular, el estado de cosas
que resulta para n = 3, es el que se da en el espacio ordinario. A veces es más
141
oportuno interpretar x1, x2, …, xn no como punto, sino como vector (p. e., el de
origen en 0, 0, …, 0 y extremo en x1, x2, …, xn ).
Para caracterizar el E. H. tomaremos como base las relaciones vectoriales fun
damentales af, f ± g, ( f, g) y consideraremos a la vez el E∞ y todos los En, conforme
hará ver la discusión que sigue. De este modo, allí donde no queramos decidir
entre E∞ y los En utilizaremos como término neutral el E para indicar el espacio.
Postulamos primero la validez en E de las propiedades vectoriales típicas:37
f + 0 = 1 · f + 0 · f = (1 + 0) · f = 1 · f = f,
ya que resulta
( f − g ) + g = ( f + (− g )) + g ⎫
= f + ((−1) ⋅ g + 1⋅ g )
= f + ((− g ) + g ),⎪⎪
⎬ = f + ((−1) + 1) ⋅ g )
( f + g ) − g = ( f + g ) + (− g )⎪
= f + 0⋅ g = f + 0 = f ,
= f + ( g + (− g )),⎪⎭
* El símbolo 0 del primer miembro es el número cero, el del segundo el elemento cero del espa
cio. Si se utilizaran símbolos distintos (p. ej., 0 para el número y o para el elemento), la demostración
que sigue en el texto rezaría así: f + o = 1 · f + 0 · f = (1 + 0) f = 1 · f = f (Cf. Nota 38). (N. del T.)
142
No merece la pena seguir adelante con estas cosas, pues es obvio, sin más, que
todas las reglas del cálculo vectorial lineal conservan aquí su validez.
De lo que precede se deduce la posibilidad de definir, como en el caso de los
vectores ordinarios, la independencia lineal de k elementos f1, …, fk de E.
143
1
g (a real y > 0) no altera en nada el primer
La sustitución de f , g por af ,
a
miembro, mientras que el segundo se convierte en
1 2 2 1
(a ∙ f ∙ + 2 ∙ g ∙2).
2 a
1 2 2 1
(a ∙ f ∙ + 2 ∙ g ∙2) ≥ Re ( f, g).
2 a
144
y, por lo tanto,
145
luego
Para que sea ∙ f + g ∙ = ∙ f ∙ + ∙ g ∙ debe ser, pues, Re ( f, g) = ∙ f ∙ · ∙ g ∙, lo que
obliga a que o f o g sean nulos o a que g = a2f = cf (c real y > 0), en virtud de las
consideraciones hechas en el teorema adicional. Que si se dan estas últimas cir
cunstancias vale realmente el signo =, es claro.
Del teor. 2 se sigue desde luego que la distancia ∙ f − g ∙ tiene las propiedades
siguientes: Sólo si f = g, es cero la distancia entre f y g. La distancia entre f y g es
la misma que entre g y f . La distancia entre f y h es siempre ≤ que la suma de
las distancias entre f , g y g, h, y sólo es igual cuando g = af + (1 − a)h (a real,
0 ≤ a ≤ 1).43 La distancia entre af, ag es el producto por ∙a∙ de la distancia entre
f , g.
Son éstas precisamente las propiedades que se precisan en el concepto de dis
tancia y que permiten reducir a esta noción, en Geometría y Topología, los con
ceptos de continuidad, acotación, punto de acumulación, etc.* Tomándolas como
base daremos las definiciones que siguen:
Una función F( f ) definida en E (esto es, definida para los elementos f de E y
cuyos valores o son siempre elementos de E o son siempre números complejos) es
continua en un punto f0 de E, cuando para cada ε > 0 existe un δ > 0 tal qué
∙ f − f 0∙ < δ implica la desigualdad ∙F( f ) − F( f 0)∙ < ε o la ∙F( f ) − F( f 0)∙ < ε, según
que el conjunto de los valores de F( f ) pertenezca a E o al campo de los números
complejos, respectivamente**. Una función F( f ) definida en E es acotada en E o
en una parte de E cuando es posible elegir una constante C tal que en E o en di
cha parte de E sea, sin excepción, ∙F( f )∙ ≤ C o ∙F( f )∙ ≤ C. Definiciones análogas
se dan en el caso de más de una variable.
Una sucesión f1, f2, … de elementos de E converge hacia f o tiene un límite f,
cuando la sucesión numérica ∙ f1 − f ∙, ∙ f2 − f ∙, … tiende a cero. Un punto es
punto de acumulación de un conjunto C (¡parte de E!) cuando es límite de una
* Véase, p. ej., M. Fréchet, «Les espaces abstraits» (París, Gauthier Villars, 1928), especial
mente la Sección II, pp. 61 y ss. (N. del T.)
** Casi huelga, pero de todas forma haremos notar que el concepto de función es aquí el ya
clásico de correspondencia establecida entre dos conjuntos. En nuestro caso, uno está formado por
elementos f de E y constituye el campo de existencia de F( f ) (conjunto que puede no coincidir con
todo E) y el otro, el dominio de los valores de F( f ), está formado o exclusivamente por elementos
de E o exclusivamente por números complejos. (N. del T.)
146
resulta patente la continuidad en los dos primeros casos. Por otra parte, de
∙( f, g) − ( f', g' )∙ = ∙( f, g) − ( f + ϕ, g + ψ)∙ = ∙(ϕ, g) + ( f, ψ) + (ϕ, ψ)∙
≤ ∙(ϕ, g)∙ + ∙( f, ψ)∙ + ∙(ϕ, ψ)∙
≤ ∙ϕ ∙ · ∙ g ∙ + ∙ f ∙ · ∙ψ)∙ + ∙ϕ ∙ · ∙ψ ∙
≤ ε (∙ f ∙ + ∙ g ∙ + ε),
y como para ε → 0 tiende a cero este último producto, podrá éste hacerse menor
que cualquier δ > 0 sin más que tomar ε suficientemente pequeño.
Mucho nos permiten decir acerca de E, como se ve, los axiomas A y B, pero
no lo bastante como para poder diferenciar entre sí los En y todos ellos de E∞. Ni
una palabra se ha dicho aún acerca del número de dimensiones. Es sabido que éste
depende, del número máximo de vectores linealmente independientes. Cuando
existe un tal número máximo n (n = 0, 1, 2, …) vale para él la proposición
147
propiedades del E∞, pero que para ello son esenciales D y E, o sea que D y E no
se siguen de A, B y C(∞). Enunciemos, pues, estas dos proposiciones, aunque de
jemos para más tarde la demostración de que son ciertas en todos los En y en E∞.
D. E es completo,45
es decir, si una sucesión f1, f2, … de elementos de E cumple la condición de con
vergencia de Cauchy (dado ε > 0 existe un N = N(ε) tal que de m, n ≥ N se sigue
∙ fm − fn ∙ < ε), esta sucesión es convergente, esto es, posee un límite f. (Cf. la de
finición de este concepto dada más arriba.)
E. E es separable45,
es decir, existe en E una sucesión f1, f2, … que en E es densa doquiera.
En II.2 desarrollaremos, apoyándonos en estos fundamentos, la «Geometría»
de E y se establecerá su coincidencia con las geometrías de los En o la del E∞.
2. Geometría del E. H.
Comencemos por sentar dos definiciones. La primera encierra de la evaluación
geométrica de los ángulos justamente lo que es necesario para nuestro objeto: el
concepto de ángulo recto, de ortogonalidad.
⎧1, para f = g,
( f , g) = ⎨
⎩0, para f ≠ g;
o sea, cada dos elementos distintos son ortogonales entre sí y el módulo de cada
elemento vale la unidad.46 En particular, un sistema ortonormal, O, es completo,
por definición, cuando no está contenido en ningún otro sistema ortonormal que
contenga algún otro elemento además de los de O.47
Obsérvese que decir de un sistema O que es un sistema ortonormal comple
to, es decir que no existe ningún f que sea de módulo 1 (∙ f ∙ = 1) y a la vez orto
gonal a O (cf. Nota 46). Pero hay más: si existiese un f ≠ 0 ortogonal a O, existiría
1 1
f' = f (∙ f ∙ es > 0) ortogonal asimismo a O y de módulo ∙ f' ∙ = · ∙ f ∙ = 1,
∙ f ∙ ∙ f ∙
lo que no puede ser. Luego, si 0 es un sistema ortonormal completo, cada f orto
gonal a él debe coincidir con el elemento 0.
Sentado esto, pasemos a la segunda definición. Sólo en E∞ desempeña ésta un
papel esencial, pues en los En toda variedad lineal es de la clase de la que en dicha
148
definición se trata (cf. el final de II.3). Por esto no cabe dar de ella una imagen
geométrica intuitiva.
Definición 5. Llamaremos variedad lineal cerrada a una variedad lineal que a
la vez es cerrada. Si C es un conjunto cualquiera de E y añadimos a {C} extensión
lineal de C, todos sus puntos de acumulación, resulta una variedad lineal cerrada
que contiene a C48 y la llamaremos extensión lineal cerrada de C (o variedad lineal
cerrada definida por C y, simbólicamente, [C].
Con todos esos elementos es ya posible abordar el análisis minucioso de E, en
particular de los sistemas ortonormales. Aquellos teoremas que además de la vali
dez de A, B presuponen la de C(n) o la de C(∞), D, E los distinguiremos añadiendo
los índices (n) o (∞), respectivamente, mientras que los que valen en uno y otro caso
no irán afectados de ningún índice.
Teorema 3(n). Todo sistema ortonormal posee un número de elementos no
mayor que n (≤ n) y es completo siempre y sólo cuando tiene precisamente n ele
mentos.
Observación: De la primera parte se sigue que existe un número máximo de
elementos para un sistema ortonormal; aquellos sistemas que lo alcanzan son com
pletos, por definición. Por consiguiente, en el caso C(n) existen sistemas ortonor
males completos y poseen, según lo que precede, n elementos: ϕ1, ϕ2, …, ϕn.
Demostración: Los elementos ϕ1, ϕ2, …, ϕm de un sistema orto- normal finito
son linealmente independientes, pues de
a1ϕ1 + … + amϕm = 0
ψ = f − a1ϕ1 – … – amϕm
es ≠ 0 cualquiera que sean las aμ. Basta determinar las aμ de modo que aμ = ( f, ϕμ)
(μ = 1, 2, …, m), lo que es siempre posible, para que la ψ que así resulta sea or
togonal a todas las ϕμ: (ψ, ϕμ ) = 0 para μ = 1, 2, …, m. Por consiguiente, nuestro
sistema no es completo.
149
( f − g, f − g) = ( f , f ) + (g, g ) − ( f , g) − (g, f ) = 2, f −g = 2
Sea f1, f2, … la sucesión doquier densa en E, sucesión que existe en virtud de E. Para
1
cada f de O existe un fm de esta sucesión tal que f − f m < 2 y a dos f, g de O
2
distintos, corresponden dos fm, fn asimismo distintos, pues si fuese fm = fn, sería
1 1
f − g = ( f − f m ) − (g − f m ) ≤ f − f m + g − f m < 2+ 2 = 2.
2 2
µ, ν =1 ν =1 ν =1 ν =1 ν =1
150
N
es decir, ∑ aν ≤ f . Si el sistema ϕ1, ϕ2, … es finito, de ahí se sigue desde lue
2 2
ν =1
go que ∑ ∙ a
ν ν ∙ ≤ ∙ f ∙ ; si es infinito, basta hacer que N → ∞ para que de la relación
2 2
anterior resulte la convergencia de ∑ ∙ aν ν ∙ como asimismo el que su suma es ≤ ∙ f ∙ .
2 2
Con esto queda demostrada la segunda parte. Pero la primera se deduce de la se
gunda atendiendo a que
( f , ϕν )(g, ϕν ) ≤
1
2
{ 2 2
( f , ϕν ) + (g, ϕν ) . }
El teorema queda, pues, completamente demostrado.
∞
Teorema 5. Sea ϕ1, ϕ2, … un sistema ortonormal infinito. La serie
∞
∑ xνϕν
ν =1
∑ xν
2
es convergente siempre y sólo cuando lo es la serie . (Esta última serie tiene
ν =1
todos sus términos ≥ 0 y es, por lo tanto, convergente o diverge propiamente ha
cia (+ ∞)*.
Demostración: Dado que el caso a que se refiere el enunciado se presenta sólo
en C(∞), podemos aplicar el criterio de convergencia de Cauchy, es decir, echar
∞ N
mano de D. Según éste, ∑ xνϕν converge, esto es, la sucesión de las ∑ xνϕν con
ν =1 ν =1
verge para N → ∞ cuando para cada e > 0 existe N = N(e) tal que cualesquiera
sean L, M > N es
L M
∑ xν ϕν − ∑ xν ϕν < ε.
ν =1 ν =1
L M L
∑ xν ϕν − ∑ xν ϕν = ∑ xνϕν < ε ,
ν =1 ν =1 ν = M +1
2
L
⎛ L L
⎞ L
∑ xν ϕν = ⎜ ∑ xν ϕν , ∑ xν ϕν ⎟ = ∑ xµ xν (ϕ µ , ϕν ) =
M +1 de vista ⎝
* No seν =pierda ν = MNeumann
que +1 = M +1 aquí ⎠el término
ν utiliza µ,ν = M +1convergencia en dos sentidos
∞
esencialmente distintos. ∑ xνϕν =converge,
L L
cuando lo hace,
M
en el 2sentido que se ha dado en II.1. al
∑ ∑ ∑
2 2
ν =1 x = x − x , ν ν ν
término convergencia: sus términos
ν =no son números
M +1 ν =1 ni funciones,
ν =1 son elementos abstractos del E. H.
En el modelo funcional del E. H. (véase más adelante), las ϕν son funciones de cuadrado sumable
en el sentido de Lebesgue y la convergencia, la convergencia en media. En cambio, la convergencia
∞
∑ xν
2
a que se refiere en , es la convergencia ordinaria del Análisis elemental. La misma observación
ν =1
debe hacerse a la demostración que da y al empleo del criterio de convergencia de Cauchy: utiliza en
ella un criterio de Cauchy postulado (postulado D) y otro criterio de Cauchy que es el que se de
muestra en los elementos de Análisis. (N. del T.)
151
y, por consiguiente,
L M
0 ≤ ∑ xν − ∑ xν < ε 2.
2 2
ν =1 ν =1
Teorema adicional. Si f = ∑ x ϕ , se tiene (f, ϕn) = xn, tanto si el sistema or
ν n n
tonormal ϕn es finito como si es infinito —en este último caso, supuesto, claro
está, que la serie sea convergente.
⎛N ⎞
Demostración: Para N ≥ n el producto interior ⎜ ∑ xµϕ µ , ϕν ⎟ es igual a
⎝ µ =1 ⎠
N
∑ xµ (ϕµ , ϕν ) = xν .
µ =1
Si el sistema ϕ1, ϕ2, … es finito, podemos tomar N igual al mayor de los índices
n; si ϕ1, ϕ2, … es un sistema infinito, podemos hacer tender N a ∞ apoyándonos
en la continuidad del producto interior*. En ambos casos resulta ( f, ϕm) = xm
* ⎛∞ ⎞ ⎛ N
⎞ ⎛∞ ⎞
⎜⎝ ∑
µ =1
α µϕ µ , ϕν ⎟ = ⎜ lim ∑ α µϕ µ ⋅ ϕν ⎟ = lim ⎜ ∑ α µϕ µ , ϕν ⎟ = xν .
⎠ ⎝ N →∞ µ =1 ⎠ N →∞ ⎝ µ =1 ⎠
La continuidad implica la validez de la inversión
(lim f n, g) = lim ( f n, g)
n→∞ n→∞
cuando existe lim fn, como puede verse fácilmente. (N. del T.)
152
Teorema 7. Sea ϕ1, ϕ2, … un sistema ortonormal. Para que sea un sistema
ortonormal completo es necesaria y suficiente cada una de las siguientes condi
ciones:
a) La variedad lineal cerrada [ϕ1, ϕ2, …] definida por ϕ1, ϕ2, … coincide
con E.
b ) Cualquiera que sea f es f = ∑ x ϕ , donde xn = ( f, ϕn) (n = 1, 2, …; la
ν n n
convergencia resulta del teorema 6).
γ ) Cualesquiera que sean f y g es
( f , g) = ∑ ( f , ϕν )(g, ϕν )
(La convergencia absoluta del segundo miembro resulta del teorema 4.)
Demostración: Si ϕ1, ϕ2, … es completo, f − ∑ x ϕ (x = ( f , ϕn) · n = l, 2, …)
ν n n n
es igual al elemento 0, pues, según el teorema 6, es ortogonal a ϕ1, ϕ2, … Por ende
queda satisfecha la condición b). Si se cumple la condición b), cada elemento f es
N
el límite de la sucesión asociada ∑ xνϕν para N → ∞ (cuando ϕ1, ϕ2, … es infi
ν =1
nito) y pertenece, por lo tanto, a [ϕ1, ϕ2, …]. Luego, E ≡ [ϕ1, ϕ2, …], es decir, se
verifica a). Finalmente si vale a) y f es ortogonal a todos los ϕ1, ϕ2, …, lo es
también a todas sus combinaciones lineales y, por tazón de continuidad, a todos
los puntos de acumulación de éstas, es decir, f es ortogonal a [ϕ1, ϕ2, …], es decir,
a E y, por consiguiente, f es ortogonal a sí mismo: ( f , f ) = 0 ∴ f = 0. Luego ϕ1,
ϕ2, … es completo.
Tenemos, pues, el siguiente esquema lógico
⎛N N
⎞
( f , g) = lim ⎜ ∑ ( f , ϕν )ϕν , ∑ (g, ϕν )ϕν ⎟
N →∞ ⎝ ⎠
ν =1 ν =1
N
= lim
N →∞
∑ ( f , ϕµ )(g, ϕν )(ϕµ , ϕν )
µ,ν =1
N ∞
= lim ∑ ( f , ϕν )(g, ϕν ) = ∑ ( f , ϕν )(g, ϕν ),
N →∞
ν =1 ν =1
153
(si el sistema ϕ1, ϕ2, … es finito, huelgan los pasos al límite), esto es, de b ) se
sigue g ). Luego, también g ) es necesaria y suficiente.
Teorema 8. Para cada Sucesión f1, f2, … existe un sistema ortonormal g1, g2,
… que define la misma variedad lineal cerrada que ella (ambas sucesiones pueden
ser finitas).
Demostración: En primer lugar, sustituyamos f1, f2, … por una sucesión parcial
g1, g2, … que defina la misma variedad lineal cerrada, pero además tal que sus
elementos sean todos linealmente independientes. La determinación de g1, g2, …
puede efectuarse del siguiente modo: sea g1 el primer fn diferente de 0; g2 el pri
mero fn que es distinto de todos los a1 g1; g3 el primer fn que es distinto de todos
los a1 g1 + a2 g2; etc. (Si para un cierto p no existe ningún fn que sea distinto de
todos los a1 g1 + … + ap gp, interrumpiremos la su cesión de los gn en él término
gp). Los elementos g1, g2, … cumplen nuestro propósito.
Formemos ahora, siguiendo el «método de ortogonalización», de E. Schmidt,
1
γ 1 = g1, ϕ1 = γ 1,
γ1
1
γ 2 = g 2 − (g 2, ϕ1)ϕ1, ϕ2 = γ2
γ2
1
γ 3 = g 3 − (g 3, ϕ1)ϕ1 − (g 3, ϕ2 )ϕ2, ϕ3 = γ 3, *
γ3
.......................................................................... *
* El método consiste, conforme se ve, en restar de cada elemento gp su proyección sobre la va
riedad lineal {ϕ1, …, ϕp − 1}. Además, merece ser puesto de relieve que en la demostración de este
teorema no se utilizan los anteriores (del 3 en adelante), lo que permite apoyar en él parte de la de
mostración de la existencia en el E. H. de un sistema ortonormal completo, existencia que hasta aquí
está en el aire. (N. del T.)
154
sí p y q, resulta que (ϕp, ϕq) = 0 cualesquiera sean p ≠ q. ϕ1, ϕ2, … es, por lo
tanto, un sistema ortonormal.
Teorema 9. Para cada variedad lineal cerrada C existe un sistema ortonormal
cuya extensión lineal cerrada coincide con C.
Demostración: En el caso C(n) el teorema es evidente, porque si en E se cumplen
A, B, C(n), en cada variedad lineal B contenida en E se cumplen A, B, C(m) con
un m ≤ n de modo que la observación relativa al teorema 3(n) es aplicable a B: exis
te un sistema ortonormal ϕ1, …, ϕm que es completo en B, y este solo hecho, en
virtud del teorema 7, a), justifica ya el teorema. (Vemos que en este caso es inclu
so innecesaria la hipótesis de que B sea cerrada, más bien resulta este carácter de
la misma demostración. Cf. lo dicho antes de la definición 5.)
En el caso C(∞) recordemos primero que E es separable (axioma E) y vamos a
demostrar que también C lo es —en general, todo conjunto parcial de E es sepa
rable. Formemos para ello la sucesión f1, f2, … densa dondequiera en E (cf. E en
II.1) y para cada fn y cada m = 1, 2, … la esfera En, m constituida por todos los f
1
tales que ∙ f − fn ∙ < . Para cada En, m que contiene puntos de C, elijamos uno de
m
estos puntos al que llamaremos gn, m. Para ciertos n, m puede, por consiguiente, no
estar definido gn, m, pero los sí definidos forman una sucesión de elementos de C.50
1 e
Sea f un punto cualquiera de C y e > 0. Existe un m tal que < y un fn, tal
1 m 2
que ∙ fn − f ∙ < . Luego, ya que En, m contiene un punto de C (a saber, el f ), gn, m
m
1 2
está definido y ∙ fn − gn, m∙ < es decir, ∙ f − gn, m∙ < < e. El elemento f, que era
m m
cualquiera en C, es, pues, punto de acumulación de los gn, m definidos y, por lo
tanto, la sucesión gn, m es doquier densa en C, es decir, C es separable.
Sentado esto, sea f1, f2, … la sucesión de elementos de C que es densa doquier
en C. Su extensión lineal cerrada [ f1, f2, …] contiene todos los puntos de acumu
lación de f1, f2, … y, por lo tanto, todo C. Pero como C es una variedad li
neal cerrada y f1, f2, … pertenecen a ella, también es [ f1, f2, …] parte de C; luego
C ≡ [f1, f2, …]. Si ahora construimos el sistema ortonormal ϕ1, < ϕ2, … de acuer
do con el teorema 8, de modo que {ϕ1, ϕ2, …} ≡ { f1, f2, …}, basta añadir a los
dos miembros de esta identidad sus puntos de acumulación para que resulte
{ϕ1, ϕ2, …} ≡ { f1, f2, …} ≡ C. Queda así demostrado el teorema.
Si aplicamos el teorema 9 al caso de ser C = E, resulta, en virtud del teorema 7,
a), que el sistema ortonormal ϕ1, ϕ2, … es completo; luego existen sistemas or
tonormales completos.
Con esto estamos ya en condiciones de demostrar que E es un En o E∞, según
que valga en él C(n) o C(∞); es decir, E está determinado en todas sus propiedades.
Para conseguirlo, basta hacer ver que es posible representar E biunívocamente
sobre el conjunto de todos los {x1, …, xn} o de todos los {x1, x2, …} tales que la
∞
∑ xν
2
sea finita de modo que
ν =1
155
⎪⎧ f ↔ {x1, x2,…}⎪⎫
2. de ⎨ ⎬ se siga f + g ↔ {x1 + y1, x2 + y2,…};
⎪⎩ g ↔ { y1, y2,…} ⎪⎭
⎧⎪ f ↔ {x1, x2,…}⎫⎪ n o∞
3. de ⎨ ⎬ se siga ( f ⋅ g) = ∑ xν yν
⎪⎩ g ↔ { y1, y2,…} ⎪⎭ ν =1
∞
Según el teorema 5 esta serie converge incluso en el caso ∞ (pues en E∞ la ∑ xν
2
ν =1
es finita ), es decir, E, con la condición C(n) o la C(∞) agota todos los elementos de
En o E∞, respectivamente. Recíprocamente, sea f elemento cualquiera de E y
n o∞ n o∞
∑ ( f , ϕν )ϕν ∑
2
la serie asociada (teorema 7, b ); la serie f , ϕν es convergente
ν =1 ν =1
(teorema 4) y, por lo tanto, {( f , ϕ1), ( f , ϕ2), …} es elemento de En o E∞. Que a
cada {x1, x2, …} sólo un f le corresponde, es claro ; el recíproco se deduce del
teorema adicional al teorema 5.
1, 2 evidentemente se cumplen y 3 se sigue del teorema 7, g ).
156
∫ ∫ g *
2 2
f e
Ω Ω
∫Ω af ∫Ω f
∫Ω f ± g . (Pues no cabe
2 2 2 2
son finitas, también lo son =a e
2
equívoco ninguno, con esta notación representamos ∫ … ∫ f (q1, … qk) dq1 … dqk ,
!
∫!
… ∫ g(q1, … qk ) dq1 … dqk , etc.).
2
Ω
Ω
Que la primera es finita, es trivial. En cuanto a las segundas, obsérvese que a
causa de ser ∙ f ± g ∙2 = ∙ f ∙2 + ∙g ∙2 ± 2 Re ( f, –g ),53 su finitud quedará demostrada
tan pronto se demuestre la de ∫Ω f , g = ∫Ω f
g . Pero esto último se deduce de la
1
hipótesis sin más que considerar la relación ∙ f ∙∙g ∙ ≤ (∙ f ∙2 + ∙g ∙2).
2
Ad B. El producto interior de dos funciones f, g de FΩ lo definimos mediante
la relación ( f , g) = ∫Ω f g, cuyo segundo miembro es absolutamente convergente
según acabamos de ver. Todas las propiedades postuladas en B. son aquí evidentes,
salvo la última: que ( f, f ) = 0 implique f ≡ 0. En el presente caso, decir que
( f, f ) = 0 es decir ∫Ω f = 0, o sea, que la medida en el sentido de Lebesgue del
2
conjunto de los puntos en que es ∙ f ∙2 > 0, o sea, f (q1, …, qk) ≠ 0 es nula. Pero si
convenimos en considerar como no esencialmente diferentes dos funciones f y g
cuando es nula la medida-L (medida en el sentido de Lebesgue) del conjunto de
los puntos (q1, …, qk) en los que es f (q1, …, qk) ≠ g(q1, …, qk)54 podemos decir
que es f ≡ 0 al ser nula la ∫Ω f **.
2
157
()
1 1
( ) 1
( )
n1 = N ; n2 ≥ n1, N 2 ; n3 ≥ n1, n2, N 3 ; … Las nν crecen con ν (h1 ≤ h2 ≤ …)
( )
8 8 1 8 1
y, además, es nn, nn + 1 ≥ N ν , de modo que ∫Ω fnν +1 − f nν < ν . Sentado esto,
2
8 8 1
consideremos el conjunto P (ν) de todos los puntos en los que ∙ fn − fn ∙ > ν . Si m(ν)
2 ν + 1 ν
m(ν) 1 1
< ν , m(ν) < ν ,
4ν 8 2
1 1
o sea, que ∙ fn − fn ∙ ≤ , salvo en un conjunto, el P (n), de medida-L m(n) < ν .
ν+1
2ν
ν
2
Sea ahora Q(n) el conjunto suma de P (n), P (n + 1), P (n + 2), …; su medida-L es
iguales salvo en los puntos de un conjunto de medida-£ nula y escribimos, pensando en ellas el pun
to de FΩ, f ≡ g. Dentro de este mismo orden de ideas, decimos que entre n funciones existe una re
lación lineal si se pueden determinar n constantes numéricas a1, ..., an tales que a1 f1 + … + an fn sea
en general nula, y escribimos a1 f1 + … + an fn ≡ 0. No es, pues, que el primer miembro sea idéntica
mente nulo, sino que es cero en general y, por lo tanto, define el mismo punto del FΩ que las fun
ciones idénticamente nulas. (N. del T.)
* fl es, pues, la llamada, en Teoría de conjuntos, función característica del conjunto Ol :
fl (P) = 1, si P ∈ Ol,
fl (P) = 0, si P ∈ FΩ − Ol ,
(N. del T.)
158
1 1 1 1
med. Q(n) ≤ m(n) + m(n + 1) + m(n + 2) + … < ν + ν + 1 + ν + 2 + … = ν − 1
2 2 2 2
y fuera de Q(n) se cumple que
1 1 1
∙ fn − fn ∙ ≤ , ∙ fn − fn ∙ ≤ , ∙ fn − fn ∙ ≤ , …,
ν+1 ν
2ν ν+2 ν+1
2ν + 1 ν+3 ν+2
2ν + 2
y, por consiguiente, para n' y n" cualesquiera (n ≤ n' ≤ n" ),
∙ fn − fn ∙ ≤ ∙ fn
ν" ν' ν' + 1
− fn ∙ + ∙ fn
ν' ν' + 2
− fn ∙ + … + ∙ fn − fn ∙
ν' + 1 ν" ν' − 1
1 1 1 1
≤ + + … + ν" − 1 < ν' − 1 .
2ν' 2ν' + 1 2 2
Resulta así que, para n' → ∞, ∙ fn − fn ∙ tiende a cero cualquiera que sea n" > n'
ν" ν'
cuando (q1, …, qk) no pertenece, a Q(n); en otros términos, la sucesión fn1, fn2, …
(que es una sucesión parcial de la primitiva f1, f2, …) satisface la condición de
convergencia de Cauchy (en el sentido del Análisis elemental) salvo en Q(n) y, por
lo tanto, converge uniformemente en FΩ − Q(n).* Sea Q el conjunto de los puntos
(q1, …, qk) en los que fn1, fn2, … no converge. El conjunto Q es parte de cada uno
de los Q(n) (Q(n) ⊃ Q(n + 1) ⊃ Q(n + 2) ⊃ …) y, por consiguiente, med. Q ≤ med. Q(n) <
1
< ν − 1 (n = l, 2, …), es decir, med. Q = 0. Luego la sucesión fn1, fn2, … converge
2
en FΩ, salvo en los puntos del conjunto Q de medida-L nula, y converge unifor
memente en cada F − Q(n), por grande que sea n. Basta modificar la definición de
las fn atribuyéndoles el valor cero en Q para que fn1, fn2, … converja en todo FΩ.
(Cf. Nota5 4.)
Hemos entresacado así de la sucesión funcional f1, f2, … una sucesión parcial
fn1, fn2, … que converge en todo punto (q1, …, qk) y mientras que no hay motivo
alguno para que ello ocurriera con la f1, f2, … Sea f = f (q1, …, qk) el límite de fn1,
fn2, …; nos queda por demostrar: 1. que f pertenece a FΩ, es decir, que la ∫Ω f
2
∞
* De otro modo, en FΩ − Q(n) la serie funcional ∑ f µ +1 − f µ ( f n 0 = 0) f admite como serie
µ =ν ∞
1
mayorante a partir de m = n la serie numérica convergente ∑ 2µ y de ello se deduce desde luego la
µ =ν
convergencia uniforme de fnm (m = 1, 2, …) en FΩ − Q(n). (N. del T.)
** Llamado por otros autores «convergencia fuerte». (N. del T.)
159
1
Sea e > 0, n0 tal. que nn ≥ N(e) (p. e., ≤ e), y n ≥ n0, n ≥ N(e).
0
8ν 0
∫ ∫ ∫
2 2
f − fn 2 = lim f nν − f n = lim f nν − f n ≤ ε
Ω Ω ν →∞ ν →∞ Ω
Cualquiera que sea el punto q1, …, qk, fN (q1, …, qk) → f (q1, …, qk) (e incluso
este límite es accesible, en cada punto, para un cierto valor de N, pues el conjun
to de puntos en que es f (q1, …, qk) = ∞ tiene medida-L nula) y, por lo tanto, en
todo punto de W ∙ f − fN ∙2 → 0. Por otra parte, la diferencia f − fN o es 0 o coinci
de con f, de modo que ∙ f − fN ∙2 ≤ ∙ f ∙2. Las integrales ∫Ω f − f N 2 admiten, pues,
la mayorante fija ∫Ω f 2 (¡ finita !), .o sea ∙ f − fN ∙ existe. Este resultado junto con
el anterior y con la consideración del teorema de convergencia a que antes hemos
aludido, nos permite escribir:
∫ ∫
2 2
lim f − f N = lim f − fN = lim f − f N = 0.
N →∞ N →∞ Ω Ω N →∞
160
Sea e > 0, g elemento de G, C una cota superior de ∙g ∙, M la medida del con
junto de los puntos en que es g ≠ 0. Construyamos una cadena de números racio
nales −C < r1 < r2 < … < rt < C tal que r1 < −C + e, r2 < r1 + e, …, rt < rt − 1 +
+ e, C < rt + e, lo que se consigue fácilmente. Reemplacemos cada uno de los
valores no nulos de Re g(q1, …, qk) por el más próximo de los valores rs(s = 1, 2,
…, t), dejando invariables los valores 0. La función h1(q1, …, qk) así definida di
fiere en todo W de Re g(q1, …, qk) en menos de e. Del mismo modo construyamos
la función h2(q1, …, qk) a partir de Im g (q1, …, qk). En estas condiciones, la fun
ción h = h1 + ih2 es tal que
∫ ∫ ∫
2 2 2
g−h = Re g − h1 + Im g − h2 ≤ M ε 2 + M ε 2 =
Ω Ω Ω
= 2M ε 2, g − h ≤ 2M ε
δ
Dado d > 0, basta hacer ε < para que ∙ g - h ∙ < d.
2M
Llamemos H la clase de todas las funciones h = h(q1, …, qk) que toman sólo
un número finito de valores diferentes y precisamente de la forma r + is (r y s
racionales) y cada uno, salvo el 0, sólo sobre conjuntos de medida-L finita. Las
funciones · h que hemos construido pertenecen a la clase H, de modo que H es
denso doquiera en G, y, por consiguiente, también en FW.
Sea II un conjunto de medida-L finita y fII = fII(q1, …, qk) la función así defi
nida:
⎧1 en II,
f II(q1, …, qk ) = ⎨
⎩0 fuera de II.
161
s =1
correspondiente al conjunto IIs. Se tendrá:
t t 2
t 2 t 2
t t
∑ (ρs + iσ s )( f II − f II s
(ns ) ) ≤ ∑ ρs2 + σ s2 f IIs − f II(ns ) ,
s =1 s =1
y, por lo tanto,
{∫ }
t t t
∑ (ρs + iσ s ) f IIs − ∑ (ρs + iσ s ) f II(ns) ≤ ∑ ρs2 + σ s2
2 2
Ω
f IIs − f II(ns ) =
s =1 s =1 s =1
t 1
= ∑ ρs2 + σ s2 {medida del conjunto diferencia (IIs , II(ns ))}2
s =1
t
< ∑ ε ρs2 + σ s2 .
s =1
δ2
ε= 2
⎧t 2 ⎫
1
⎨∑ ( ρs + σ s )2 ⎬
2
⎩ s=1 ⎭
t t
∑ (ρs + iσ s ) f II − ∑ (ρs + iσ s ) f II
s
(ns ) < δ,
s =1 s =1
162
1 t
∑ (ρs + iσ s )f II(ns),
τ s =1
pues a cada valor atribuido a esta suma de números naturales corresponde un nú
mero finito de dichos sistemas. Ordenando éstos de modo cualquiera dentro de
la clase a que pertenecen, obtenemos una sucesión simple conforme pretendíamos.
Hay que construir ahora la sucesión de conjuntos II(1), II(2), … Para lograrlo
nos apoyaremos en el hecho de que, dado un conjunto cualquiera II de medida-L
finita, M, y un número d > 0, existe un conjunto de puntos abierto, II', que con
tiene a II y cuya medida excede a la de éste en menos de d (cf. loc. cit. en la Nota 52
y en la Nota 45, donde se define también el concepto de «conjunto abierto»). Pero
* Nos hemos permitido modificar ligeramente la demostración que da Neumann y que reza así:
t t 2
t t
≤∑ ∫ (ρs + iσ s )f IIs − (ρs + iσ s ) f II(ns ) = ∑ (ρs2 + σ s2 ) ∫
2 2
f IIs − f II(ns ) =
s =1 Ω s =1 Ω
t t
= ∑ (ρs2 + σ s2 ) ⋅ Med (IIs , II(ns ) ) < ∑ (ρs2 + σ s2 )ε ,
s =1 s =1
δ2
de donde, si ε = t ,
∑ ( ρs2 + σ s2 )
s=1
t t
∑ (ρs + iσ s )f II − ∑ (ρs + iσ s )f II
s
(ns ) < δ . (N. del T.).
s =1 s =1
163
164
165
166
Teorema 10. Sea M una variedad lineal cerrada. Cada elemento f de E pue
de descomponerse de modo único en dos sumandos, f = g + h, uno de los cuales,
el g, pertenece a M y el otro, el h, a E - M.
Observación: Llamaremos a g la proyección de f en M y a h la perpendicular
de f a M. Para indicar a g introduciremos el signo PM f.
Demostración: Sea ϕ1, ϕ2, … el sistema ortonormal cuya extensión lineal ce
rrada es precisamente M, sistema que existe según el teorema 9. La serie ∑ ( f , ϕn )ϕn,
n
que converge según el teorema 6, define un elemento g = ∑ ( f , ϕn )ϕn que perte
n
nece evidentemente a M. Además, h = f - g es ortogonal a todos los elementos
j1, j2, … (teorema 6) y como los vectores ortogonales a h constituyen una varie
dad lineal cerrada, al ser ortogonales a h los vectores j1, j2, … también lo serán
los de [j1, j2, …] = M, es decir, h pertenece a E - M. Sea f = g' ± h' una segun
da descomposición de f en dos sumandos, el g' elemento de M y el h' elemento
de E - M. De la comparación de ambas descomposiciones resulta g + h = g' + h',
de donde g - g' = h' - h = j. El elemento j debe pertenecer, pues, a M y a E - M
y, por lo tanto, ha de ser ortogonal a sí mismo: (j, j) = 0, es decir, j = 0. Luego,
g' = g y h' = h.
PM f es, por consiguiente, una operación que vincula a cada f de E su proyec
ción en M, PM f. En el párrafo próximo definiremos como operador, R, a una
* En efecto: f ∈ N - M y g ∈ N - M implica ( f, x) = 0, ( g, x) = 0, cualquiera que sea x ∈ M.
Luego (af + bg, x) = a( f, x) + b( g, x) = 0, cualesquiera sean a y b y x ∈ M, es decir, af + bg ∈ N - M,
esto es N - M es una variedad lineal. Que es cerrada se sigue de que, si f1, f2, … es una sucesión
convergente de elementos de N - M y, por lo tanto, de N, y es f su límite, éste pertenece a N(N es
cerrado) y en virtud de II.1,
( f , x) = (lim f n, x) = lim ( f n, x) = 0
n→∞ n→∞
cualquiera que sea x ∈ M. Luego, también f ∈ N - M. (N. del T.)
167
f1 = g1 + h1, …, fn = gn + hn
se sigue
a1 f1 + … + an fn = (a1g1 + … + an gn) + (a1h1 + … + anhn),
f = g' + h', g = g" + h" (g', g" elementos de M h', h" de E - M).
Los elementos g', g" son ortogonales a h', h" y, por consiguiente,
( g', g) = (g', g" + h" ) = ( g', g" ) = ( g' + h', g" ) = ( f , g" ),
168
Teorema 12. Un operador E que tiene sentido en todo el espacio (cf. lo dicho
antes del teorema 11) es un operador de proyección, esto es, existe una variedad
lineal cerrada M tal que E = PM, siempre y solamente cuando E posee las siguien
tes propiedades:
169
PE - (E - M) = 1 - PE - M = 1 - (1 - PM) = PM
Pero los dos sumandos del primer miembro son ≥ 0 ; luego ambos son ≤ ∙ f ∙2.
En particular, ∙Ef ∙2 ≤ ∙ f ∙2, ∙Ef ∙ ≤ ∙ f ∙. Que ∙Ef ∙ = 0, de donde Ef = 0, expresa
que f pertenece a E - M, lo sabemos por lo visto en el teorema 11. En cuanto a
170
∙Ef ∙ = ∙ f ∙, esta relación significa que ∙ f - Ef ∙2 = 0, como demuestra lo estable
cido más arriba, es decir, que Ef = f, es decir, que f es elemento de M.
Si R, S son dos operadores, entendemos por R ± S, aR (a, número complejo)
y RS los operadores así definidos:
y, naturalmente, pondremos
R0 = 0R = 0, R1 = 1R = R;
o R m y R n, pues R m · R n = R m + n, independiente, por lo tanto, del orden en que se
den m, n.*
* De ahí se sigue que dos polinomios cualesquiera en R son permutables. (N. del T.)
** Que la intersección P de los dos conjuntos cerrados M y N es un conjunto cerrado resulta sin
más que considerar que si A es punto de acumulación de P, lo es de M y de N y, por lo tanto, per
tenece a M y a N, es decir, a P. (N. del T.)
171
Puesto que (EFf, g) = (Ff, Eg) = ( f, FEg), la primera nos dice que debe ser
Esta última igualdad ha de valer para todo f ; luego (EF - FE )g = 0. Y esto a
su vez ha de valer para todo g ; luego EF - FE = 0, esto es, EF = FE. La permuta
bilidad de E, F es, por lo tanto, necesaria y suficiente para la primera condición ;
pero, además, tiene por consecuencia la segunda:
172
EF = 0 (y por lo dicho, también FE = 0). Cada (E + F )f = Ef + Ff pertenece a
{M, N} y cada g de {M, N} es igual a h + j, donde h es elemento de M y j elemen
to de N, de forma que Eh = h, Fh = FEh = 0, Fj = j. Ej = EFj = 0. Por consiguiente,
173
de donde,
Pero como Em(Em f ) = Em f, cualquiera que sea f, se tendrá El (Em f ) = 0, es decir,
El Em = 0. Finalmente, la segunda condición es necesaria, ya que si E1 + … + Ek es
un operador de proyección, entonces (teorema 13)
Teorema 17. Sea E1, E2, … una sucesión creciente o decreciente de operado
res de proyección: E1 ≤ E2 ≤ … o E1 ≥ E2 ≥ … Tales sucesiones convergen hacia
un operador de proyección E en el sentido de que, para todo f, En f → E f ; además,
todos los En son ≤ E o todos los En ≥ E, respectivamente.
Demostración: Basta examinar el segundo caso, porque a él se reduce el prime
ro sin más que sustituir E1, E2, …, E por 1 - E1, 1 - E2, …, 1 - E. Sea, pues, E1
≥ E2 ≥ … En virtud del teorema 15, se tiene ∙E1 f ∙2 ≥ ∙E2 f ∙2 ≥ … ≥ 0; luego exis
2
te lim Em f y, por consiguiente, existe para cada e > 0 un N = N(e) tal que para
m→ ∞
m, l ≥ N es ∙∙Em f ∙2 - ∙El f ∙2∙ < e. Ahora bien, para m ≤ l es Em ≥ E, y, por lo
tanto, Em - El es operador de proyección, de forma que
174
PM 1 + M2 + … = PM + PM + …
1 2
Con esto damos por terminadas nuestras consideraciones acerca de los opera
dores de proyección.
175
*** Advierta el lector que el concepto de «funcional» no es el mismo aquí que aquél a que nos
referíamos en nuestra Nota de la página 20. Neumann entiende por «funcional» una correspondencia
entre funciones de dos clases, mientras que para Hadamard, al que seguíamos, una funcional es una
correspondencia entre las funciones de una cierta clase, de una parte, y números de otra. He aquí un
ejemplo de cada concepción: Considérese la clase de todas las funciones f (t) integrables en el inter
valo (0, 1) (en el sentido de Riemann, por ejemplo):
∫0
f (t ) dt ∫0
f (t ) dt(0 ≤ x ≤ 1)
Un operador es una funcional en este último sentido. G. Julia (Introduction mathématique awx
théories quantiques; Paris, Gauthier-Villars, 1938) habla, en el primer caso, de funciones escalares, en
el segundo, de funciones vectoriales (volumen II, p. 68). (N. del T.)
*** No se trata, en general, de dominios en sentido estricto (conjunto de puntos todos interiores),
sino de conjuntos que, en Mecánica cuántica, son de ordinario doquiera densos. (N. del T.)
*** El dominio de definición de aR coincide con el de R; el de RS es la parte común al dominio
de definición de R y al dominio de los valores de S (en particular, el de R m es la intersección del
dominio de definición de R y el de los valores de Rm - 1). (N. del T.)
176
(0 · R) f , por el contrario, lo tiene, por definición, solamente cuando tiene sentido
Rf [pero si lo tiene, (0 · R) f y 0f son = 0]. En cambio, 1 · R = R · 1 = R, y asimis
mo R m · R l = R m + l, valen incluso respecto de los dominios de definición.
Cuando R, S poseen inversos, posee también inverso RS y éste es precisa
mente, como con facilidad se reconoce, (RS )-1 = S -1 R -1. Además, para a ≠ 0 es
1
(aR )-1 = R -1, Si R -1 existe, igualmente podemos formar las restantes potencias
a
negativas de R:
2 2
+∞ h d h2 +∞ d
∫ −∞ 2 π i dq
ϕ (q) dq = − 2
4π ∫−∞ dq
ϕ (q) dq
177
[p. e., ∙ q ∙½ e-q o e-q sen (eq )]. Sin embargo, los dominios de definición son densos
2 2
doquier, pues ambos operadores se pueden aplicar, con seguridad, a cada ϕ (q) que
sea diferente de cero sólo en un intervalo finito - c ≤ q ≤ c y continua y derivable
en todo el espacio. Y es el caso que este conjunto de funciones es doquiera denso.59
∫ ∫
2
… ϕ (q1 … qk ) dq1 … dqk
−∞ −∞
h ∂
es finita, los adjuntos de los operadores ql… y … son, respectivamente,
2pi ∂ql
⎛ h ∂ ⎞* h ∂
(ql )* = ql , ⎜ ⎟ = .
⎝ 2π i ∂ql ⎠ 2π i ∂ql
* Recuérdese, y no se pierda de vista a lo largo del libro, que sólo considera operadores cuyo
dominio de definición es doquier denso. (N. del T.)
178
∫ −∞
… ∫ −∞
ql ⋅ ϕ (q1 ,…, qk )φ (q1 ,…, qk ) ⋅ dq1 … dqk =
+∞ +∞
= ∫ −∞
… ∫ −∞
ϕ (q1 ,…, qk )ql φ (q1 ,…, qk ) ⋅ dq1 … dqk .
+∞ +∞ h ∂
∫ −∞
… ∫ −∞ 2π i ∂ql
ϕ (q1,…, qk ) ⋅ φ (q1,…, qk ) ⋅ dq1 … dqk =
+∞ +∞ h ∂
= ∫ −∞
… ∫ −∞
ϕ (q1,…, qk )
2π i ∂ql
φ (q1,…, qk ) ⋅ dq1 … dqk ,
o sea,
+∞ +∞
⎧ ∂ ∂ ⎫
∫ −∞
… ∫ −∞
⎨ ϕ (q1,…, qk )⋅φ (q1,…, qk )+ ϕ (q1,…,qk )
⎩ ∂ql ∂ql
φ (q1,…,qk )⎬dq1 …dqk = 0,
⎭
+∞ +∞
∫ ∫
ql =+ A
lim … ⎡⎣ϕ (q1,…, qk ) ⋅ φ (q1,…, qk )⎤⎦q =− B dq1 … dql − 1 dql + 1 … dqk = 0.
A→+∞ −∞ −∞ l
B→+∞
∫−∞ ∫
…
−∞
… dq1 …dqk
∂ ∂
(pues j, φ, j, φ pertenecen al espacio de Hilbert); sólo se trata así de su
∂ql ∂ql
anulación. Si fuese ≠0, el límite de
+∞ +∞
∫−∞
… ∫ −∞
ϕ (q1 , …, qk )φ (q1 , …, qk ) dq1 … dql −1 dql +1 … dqk
para ql → +∞ ó ql → -∞, límite que con seguridad existe, sería ≠0, lo que es in
compatible con la convergencia absoluta de la integral
+∞ +∞
∫ −∞
… ∫ −∞
ϕ (q1 , …, qk )φ (q1 , …, qk ) dq1 … dql −1 dql dql +1 … dqk
179
K (q'1, …, q'k ; q1 , …, qk ).
µ =1
A{x1, x2, …} = {y1, y2, …},
donde, a causa del carácter lineal de A, las y1, y2, … han de depender linealmente
de las x1, x2, … :
∞
yµ = ∑ aµν xν .60
µ =1
de donde resulta, en particular (para f = g), que ∙Uf ∙ = ∙ f ∙. De esta última pro
piedad se deduce recíprocamente el ser unitario U supuesto que éste tenga sentido
en todo el espacio y que tome cada valor del mismo una vez y sólo una.* (Cf.
Nota 63.) En efecto: por hipótesis,
∙Uf ∙ = ∙ f ∙, es decir, (Uf, Uf ) = ( f, f ), (U*Uf, f ) = ( f, f ).
* Esto equivale a postular la existencia de U -1 y su definición en todo el espacio. (N. del T.)
180
f+g f-g
Sustituyamos f, primero por después por y restemos; resulta así, como
2 2
se calcula fácilmente, Re (Uf, Ug) = Re ( f, g). Si aquí sustituimos f por if, en vez
de Re ( f, g) obtenemos Im ( f, g). Por lo tanto, vale en general
Para un valor fijo de f, esta igualdad es válida cualquiera que sea g, por lo que
podemos afirmar que U*Uf = f, y como a su vez esta relación es cierta para todo
f, debe ser U*U = 1. Nos queda por demostrar que UU * = 1. Por hipótesis, para
cada f existe una g (y sólo una) tal que Ug = f ; luego
Los operadores hermíticos, por el contrario, no hay motivo alguno para que lo
h d
sean y así, por ejemplo, justamente los operadores q … y …, tan importan
2pi dq
tes para la mecánica cuántica, son discontinuos63.
De nuestras normas generales para el cálculo relativas a A*, se deduce inme
diatamente: que si U, V son unitarios, lo son también U-1, U V y, por lo tanto,
todas las potencias de U; que si A, B son hermíticos, lo son también A ± B, mien
tras que aA lo es sólo cuando a es real (excepto para A = 0) y AB sólo si A, B son
permutables, esto es, si AB = BA. Sabemos, además, que todos los operadores de
h ∂
proyección (en particular, 0 y 1) y los operadores ql…, …, de la teoría de
2pi ∂ql
Schrödinger son hermíticos. A la vez que A, son hermíticos todos los operadores
potencias de A (incluso A-1 supuesto que exista) y todos los polinomios en A cuyos
coeficientes sean reales. Es notable que para A hermítico y cualquier X, el operador
XAX* es asimismo hermítico:
por ejemplo todos los XX*(A = 1) y X*X (X* en vez de X). Cuando U es unitario,
UAU -1 es hermítico (porque U -1 = U*).
La continuidad es en los operadores una propiedad de fundamental importan
cia, cual lo es en las funciones numéricas estudiadas en el Análisis. Por este moti
181
∙Rf ∙ ≤ C ⋅ ∙ f ∙
* Es fácil ver que en el origen están definidos todos los operadores lineales. Hemos de advertir,
además, que hemos precisado lo del dominio de definición aunque Neumann dice que «ein linearer
Operator R ist überall stetig, wenn er es im Punkte f = 0 ist» y es patente que este überall sólo puede
referirse a dicho dominio, pues sólo para sus puntos tienen sentidos los Rf que aparecen en el enun
ciado y en la demostración. (N. del T.)
182
½d
vale sin más si f = 0, y si f ≠ 0, por consiguiente ∙ f ∙ > 0, el elemento g = f es
tal que ∙ g ∙ = ½d, y así ∙ f ∙
½d ∙ f ∙
∙Rg ∙ = ⋅ ∙Rf ∙ < 1, de donde, ∙Rf ∙ < = C ⋅ ∙ f ∙.
∙ f ∙ ½d
De la relación ∙Rf ∙ < C ⋅ ∙ f ∙ se sigue ∙(Rf, g)∙ ≤ ∙Rf ∙ ⋅ ∙ g ∙ < C ⋅ ∙ f ∙ ⋅ ∙ g ∙.
Recíprocamente, de ∙(Rf , g)∙ < C ⋅ ∙ f ∙ ⋅ ∙ g ∙ se deduce, al hacer g = Rf , ∙Rf ∙2 <
< C ⋅ ∙ f ∙ ⋅ ∙Rf ∙ y, por lo tanto,
∙Rf ∙ ≤ C ⋅ ∙ f ∙.
f + g f + g⎞ ⎛ f − g f − g⎞
Re(Rf , g) = ⎛ R , − R , ≤
⎝ 2 2 ⎠ ⎝ 2 2 ⎠
2 2
⎛ f+g 2 f−g ⎞
2
f + g 65
≤C⎜ + ⎟⎠ = C .
⎝ 2 2 2
1
Como en la demostración del teorema 1, sustituyamos f y g por af , g(a > 0) y
a
minimicemos el último miembro; resulta así ∙Re(Rf, g)∙ ≤ C ⋅ ∙ f ∙ ⋅ ∙ g ∙. Si en esta
relación sustituimos f por eía f (a real), obtenemos para el máximo del primer
miembro
183
esto es, R y S n son permutables entre sí (n = 1, 2, …). Esta relación vale también
para n = 0, puesto que R1 = 1R = R y S0 = 1. Cuando existe S -1, se tiene S -1 ⋅ SR ⋅
⋅ S -1 = S -1 ⋅ RS ⋅ S -1 y por consiguiente, dado que
S -1 ⋅ SR ⋅ S -1 = S -1S ⋅ RS -1 = RS -1, S -1 ⋅ RS ⋅ S -1 = S -1R ⋅ SS -1 = S -1R.
también es RS -1 = S -1R. Luego en S nR = RS n es lícito hacer n = -1 y, por lo tan
to, n = -2, -3, … Resumiendo: R es permutable con todas las potencias de S. La
aplicación reiterada de este resultado permite demostrar que cada potencia de R
es permutable con cada una de las de S. Si R es permutable con S y T lo es también
con aS, cualquiera que sea a, con S ± T y con ST. De esto y del anterior resultado
se sigue que si R, S son entre sí permutables, lo son asimismo todos los polinomios
en R con todos los polinomios en S. En particular, basta hacer R = S para llegar
a la conclusión de que todos los polinomios en R son permutables entre sí.
E· Hj = lj,
184
(¡estamos en FZ !) se pudiese formar una matriz S = {smn}que posea una inversa S -1
(cf. I.3);
2. En la teoría ondulatoria, cada una de las funciones de onda j (q1, …, qk)
(que no ha de ser necesariamente una solución) pueda desarrollarse en serie de
soluciones
(En verdad, nada se dijo acerca de este punto en I.3; pero esta condición es indis
pensable para el ulterior desarrollo de la teoría ondulatoria, en particular para la
«teoría de las perturbaciones» de Schrödinger.66)
En estas condiciones, 1 viene a ser lo mismo que 2 ; pues la matriz S transfor
ma {1, 0, 0, …}, {0, 1, 0, …}, …, respectivamente en
185
(cf. II.5, Nota 61). En tercer lugar, dos soluciones, j1, y j2, correspondientes a
valores diferentes de l, l1, y l2, son ortogonales entre sí:
luego, dado que l1(j1, j2) = l2(j1, j2) y l1 ≠ l2, se tiene (j1, j2) = 0.
Sean l1, l2, … todos los valores de l distintos entre sí para los cuales E tiene
solución. (Si para cada valor de l para el cual es resoluble Hj = lj, elegimos una
solución jl de módulo unidad, las jl constituyen un sistema ortonormal, según
lo dicho antes. En virtud de II.2, teorema 3(∞) el conjunto de las jl es, por ende,
o finito o infinito numerable, es decir, en ambos casos una sucesión; luego también
podemos disponer las l formando sucesión, eventualmente finita.) Para cada
l = lr, todas las soluciones de Hj = lj componen una variedad lineal, y preci
samente cerrada.68 Según el teorema 9 existe, por este motivo, un sistema ortonor
mal jr, 1, …, jr, n de tales soluciones que define justamente esta misma variedad
r
asociadas a diferentes valores r son también ortogonales entre sí; por lo tanto, en
conjunto, forman asimismo un sistema ortonormal
Se ve que, por razón de su origen, este sistema define la misma variedad lineal
cerrada que el conjunto de todas las soluciones j de E.
Numeremos las jr, n de modo que formen una sucesión única: ψ1, ψ2, …, y
sean l(1), l(2), … las correspondientes lr. La condición antes formulada —que la
extensión lineal cerrada del conjunto de todas las soluciones de E debe coincidir
con E∞ —nos dice, por consiguiente, que lo mismo deben hacer ya y1, ψ2, …
(¡un conjunto parcial de soluciones!), esto es, según el teorema 7 a, que este siste
ma ortonormal ha de ser completo.
Resolver el problema de valores propios en el sentido de la Mecánica cuántica
sería, según esto, hallar tantas soluciones
de E cuantas sean necesarias para poder formar con ellas un sistema ortonormal
completo. Pero esto es en general de todo punto imposible. Así, por ejemplo, en
la teoría ondulatoria se ve que para una parte de las soluciones de E (es decir, E2
en I.3) no es finita la integral del cuadrado de su valor absoluto,69 no pertenecen,
por lo tanto, al espacio de Hilbert* y es el caso que necesitamos de todas para
186
poder desarrollar una función de onda cualquiera en serie de soluciones (cf. más
arriba). En el espacio de Hilbert (¡y sólo él consideramos en E!) no se encuentra,
pues, ningún sistema ortonormal completo de soluciones.
Por otra parte, la teoría de Hilbert relativa al problema de valores propios
muestra que este hecho no representa algo excepcional en el comportamiento de
los operadores (ni tan sólo en el de los continuos).70 Deberemos, pues, analizar las
consecuencias a que da lugar su aparición. (Qué significado físico le corresponde,
lo veremos más adelante, cf. III.3.) Cuando así ocurre, cuando el sistema ortonor
mal entresacado del conjunto de las soluciones de E no es completo, se dice que
existe un «espectro continuo de H» (l1, l2, … constituyen el «espectro discreto de
H»).
Desde el momento que en E no se cumplen las condiciones requeridas, nues
tra misión es ahora hallar una formulación adecuada para el problema de valores
propios relativo a los operadores hermíticos y aplicarla luego a la Mecánica cuán
tica. Por de pronto, siguiendo a Hilbert, hemos de precisar y aclarar esta formu
lación (cf. loc. cit. Nota 70).
7. Continuación
Vamos a someter aquí la ecuación
Hj = lj,
una función que no es de cuadrado sumable? Entiende por solución, en este punto concreto, una
función f, aunque no pertenezca al FΩ, para la que tenga sentido la aplicación a ella de H, y tal, ade
más, que exista una constante l que junto con f satisfaga la ecuación H f = lf. (N. del T.)
187
e inversamente
n n
X 1 = ∑ x1µ xµ , …, X n = ∑ xnµ xµ.
µ =1 µ =1
Con ayuda de las variables X1, …, Xn y otra nueva serie de variables y1, …, yn
(junto con las Y1, …, Yn que a éstas corresponden de acuerdo con las anteriores
n
fórmulas), podemos escribir las condiciones ∑ hµν xρµ = λρ xρµ así:
ν =1
n
⎛ n ⎞ n
∑ ⎜ ∑ hµν xρν ⎟ X ρ yµ = ∑ λρ x ρµ X ρ yµ , (*)
ρ, µ =1 ⎝ ν =1 ⎠ ρ, µ =1
*
o sea
n n
⎛ n ⎞⎛ n ⎞
(D). ∑ hµν xν yµ = ∑ λρ ⎜ ∑ xρµ xµ ⎟ ⎜ ∑ xρµ yµ ⎟ .
µ,ν =1 ρ =1 ⎝µ =1 ⎠ ⎝µ =1 ⎠
* Es claro que el imponer a esta relación la condición de que quede satisfecha cualesquiera que
sean las Xr, yμ, equivale a las n condiciones anteriores. (N. del T.)
188
Por consiguiente, hallar una matriz {xmn} que posea las propiedades D, O, equi
vale en En a la resolución del problema de valores propios. Y es el caso que en esta
forma se malogra el tránsito al E∞. No debe sorprendernos este fracaso, sin embar
go, y ello por el siguiente motivo: las condiciones D, O no determinan completa
mente las incógnitas lr, xmn. A decir verdad, y conforme muestra la teoría de estas
«reducciones a los ejes principales» (cf. loc. cit. en la Nota 71), las lr están unívo
camente determinadas salvo en su orden de sucesión, y mucho peor es lo que
sucede con las xmn. Evidentemente, se puede multiplicar cada fila xr1, …, xrn por
un factor θr de valor absoluto igual a la unidad, y si algunos lr coinciden, ¡inclu
so es lícito efectuar una transformación unitaria cualquiera de las correspondientes
filas xr1, …, xrn entre sí! Intentar el delicado paso al límite n → ∞ con tales can
tidades no unívocamente determinadas, es enteramente inútil, pues ¡cómo va a
resultar convergente el proceso, si durante su desarrollo las lr, xmn pueden sufrir a
capricho grandes variaciones hechas posibles por su incompleta determinación!
Con todo, esto nos indica cómo hay que abordar el asunto: hemos de intentar
sustituir las condiciones D, O y las incógnitas lr, xmn por otras que posean la uni
vocidad que echamos de menos, y se verá entonces que bien pocas dificultades
ofrece ya el paso al límite.
Si l es un valor cualquiera tomado por una o más de una lr la expresión
⎛ n ⎞⎛ n ⎞
∑ ⎜ ∑ xρµ xµ ⎟ ⎜ ∑ xρµ yµ ⎟
λρ = l ⎝ µ = 1 ⎠⎝µ =1 ⎠
⎛ n ⎞⎛ n ⎞
E (l; x, y) = ∑ ⎜ ∑ x ρµ xµ ⎟ ⎜ ∑ x ρµ yµ ⎟
λρ ≤l ⎝ µ = 1 ⎠⎝µ =1 ⎠
es invariante (¡l arbitrario!). Cuando se conocen las E (l; x, y) (es decir, sus coefi
cientes), es fácil a partir de ellas volver a las lr ⋅ xmn. Luego si formulamos el pro
blema de valores propios (esto es, D, O) de modo que en la nueva formulación
intervengan sólo las E (l; x, y), en vez de las lr, xmn, entonces habremos conseguido
la deseada formulación unívoca.
Sea, por lo tanto, E (l ) la matriz de la forma hermítica E (l; x, y).72 ¿Qué nos
dicen D, O acerca del haz de matrices E (l )?
O significa que cuando l es suficientemente grande (a saber, mayor que todas
las lr), es E (l ) = 1 (la matriz unidad). De la naturaleza de E (l ) se sigue que si l es
suficientemente pequeño (a saber, menor que todas las lr), es E (l ) = 0, y que
cuando l crece de -∞ a +∞, E (l ) es siempre constante excepto en un número fi
189
nito de puntos (los ocupados por aquellas de entre las l1 …, ln que son diferentes
entre sí y a los que llamaremos l 1 < l 2 < … < l m, m ≤ n) en los que cambia expe
rimentando un salto. Y es el caso que la discontinuidad se da siempre a la izquier
da del punto en que dicho salto tiene lugar, porque la ∑ , considerada como
λρ ≤l
función de l, es continua a la derecha. (Si hubiésemos elegido ∑ ocurriría al
λρ <l
revés.) Finalmente, vamos a demostrar que, para l' < l", es
∑ X ρY ρ y ∑ X ρY ρ .
λρ ≤l' λρ ≤l"
n m
∑ hµν xν yµ = ∑ lτ {E (lτ ; x, y) − E (lτ −1; x, y)}
µ,ν =1 τ =1
(l0 es un número cualquiera < l1). Pero como E (l ; x, y) es constante en cada uno
de los segmentos
-∞ < l < l 1; l 1 ≤ l < l 2; …; l m-1 ≤ l < l m; l m ≤ l < +∞,
n k
∑ hµν xν yµ = ∑ Λτ {E (Λτ ; x, y) − E (Λτ −1; x, y)}.
µ,ν =1 τ =1
190
n +∞
∑
µ,ν =1
hµν xν yµ =
∫ −∞
λdE(λ ; x, y).
(∫−∞
+∞ b
)
puede sustituirse por cualquier ∫a , con tal que a < l1 y b > lm . Cabe asimis
mo considerar los coeficientes de uno y otro miembros de esta última, y escribir
la ecuación válida para todos ellos como ecuación entre matrices. Se obtiene en
tonces
+∞
H= ∫ −∞
λdE(λ),
donde es H = {hmn}.
Con esto ha resultado el siguiente problema: Dada una matriz hermítica
H = {hmn}, hallar un haz de matrices hermíticas E (l)(-∞ < l < +∞) que posea las
siguientes propiedades:
pequeños 0
S1. Para valores de l suficientemente
grandes { }
es E (l) =
1 {}
. E(l), con
cebida como función de l, es constante, salvo en un número finito de puntos
excepcionales en los que sufre una variación brusca. El salto se produce siempre
precisamente a la izquierda de dichos puntos.
S2. Siempre es E (l' ) E (l'' ) = E [Min (l' , l'' )].74
S3. Es válida la igualdad
+∞
H= ∫ −∞
λdE(λ),
191
enunciaremos de un modo algo distinto. En primer lugar, S2 nos dice que, para
l' = l" = l, E (l)2 = E(l), esto es, que los E (l) deben ser operadores de proyección.
Pero en tal caso, S2 significa que para l' ≤ l" es E (l' ) ≤ E (l" ) (cf. teorema 14 y
el texto que a él sigue en II .4. Nos hemos limitado a l' ≤ l", porque de lo que
ocurre en este supuesto se deduce lo que corresponde a l' ≥ l").
En+∞ lo que concierne a S3, es conveniente andar con una cierta cautela
H = ∫−∞ λdE(λ) carece, en rigor, de sentido, pues la integral de Stieltjes se define
para números y no para operadores. Con todo, es fácil sustituir H y E(l) por nú
meros, de modo que la relación entre operadores pedida resulte de nuevo, pero
ahora con pleno sentido: se trata de que
+∞
(Hf , g) = ∫
−∞
λd[E(λ) f , g]
valga para todos los f, g de E∞, con tal que Hf tenga sentido; hay que ver
+∞
H = ∫−∞ λdE(λ) un símbolo, la cifra de lo que acabamos de decir.
S1, finalmente, es alterado en su esencia por el tránsito a un número infinito
de dimensiones. El punto hasta llegar al cual es E (l) = 0, el punto a partir del
cual es E (l) = 1 y los puntos en los que E (l) efectúa sus saltos discontinuos, son
efectivamente en En los valores propios de H, y los intervalos en los que E(l) se
mantiene constante, aquellos en que no aparecen dichos puntos. Pero ahora, cuan
do n → ∞, las cosas pueden ocurrir de un muy otro modo, a saber: el menor
valor propio puede tender a -∞, el mayor a +∞, y en cuanto a los restantes, dado
que son cada vez más y más numerosos, acaso se distribuyan siempre con mayor
densidad, hasta el extremo que los intervalos en que es constante E (l) se contrai
gan eventualmente y tiendan a reducirse a puntos. (Esto último, en particular, es
el síntoma que, en la teoría de Hilbert, anuncia la aparición del llamado espectro
continuo.75) Luego, en el paso de En a E∞, debemos modificar esencialmente S1.
hay que tener en cuenta la eventual desaparición del carácter discreto, a saltos, de
la variabilidad.
Desde este punto de vista, es muy plausible prescindir de la pretensión de que
los valores 0 y 1 sean accesibles a E (l) e imponer simplemente la convergencia a
0 y a 1 para l → -∞ y l → +∞, respectivamente ; del mismo modo, junto a aquel
comportarse E (l) como constante a lo largo de ciertos segmentos y al carácter
discontinuo en los extremos de los mismos, surge la licitud de un crecimiento
continuo. En cambio, la condición menos radical de que en los posibles puntos
de discontinuidad ésta se presente a la izquierda, podemos conservarla por vía de
ensayo. Por consiguiente, formularemos S1 en los siguientes términos: para l → -∞,
E (l) → 0, para l → +∞, E (l) → 1, para l → l0 y l ≥ l0, E (l) → E (l0).76
Acerca de S3, hay que observar aún algo más. En el En, si Ft es la matriz E (lt) -
m
- E (lt - 1), se tenía H = ∑ lτ Fτ . En virtud de S2, es por otra parte,
τ =1
192
⎧Fτ , para τ = σ ,
Fτ − Fσ = ⎨
⎪⎩0, para τ ≠ σ .
2
⎛m ⎞ m m
H2 = ⎜ ∑ lτ Fτ ⎟ = ∑ lτ lσ Fτ Fσ = ∑ lτ2 Fτ ,
⎝ τ =1 ⎠ τ ,σ =1 τ =1
m
y del mismo modo H p = ∑ lτp Fτ . Por lo tanto, la misma transformación que en el
τ =1
caso de sólo H nos dará
+∞
H2 = ∫−∞
λ 2 dE (λ).
+∞
(H2 ⋅ f , g)= ∫ −∞
λ 2 d[E(λ )f , g],
∫ λ 2 d ⎡⎣ E(λ )f ⎤⎦ .
2 2
Hf =
−∞
Esta fórmula, pero, permite contar con que las E ( l ) no sólo fijen el valor de
Hf cuando éste tiene sentido, sino también cuándo lo tiene, pues el integrando de
193
+∞
la ∫−∞ λ 2 d ⎡⎣ E(λ )f ⎤⎦ es constantemente no negativo (l2 ≥ 0) y la expresión que
2
S1. Para l → -∞, E (l) f → 0; para l → +∞, E (l) f → f ; para l → l0, sien
do l ≥ l0, E (l) f → E (l0) f. Todo ello cualquiera que sea f.
S2. De l' ≤ l" se sigue E (l' ) ≤ E (l" ).
S3. La integral
+∞
∫ λ 2 d ⎡⎣ E(λ )f ⎤⎦,
2
−∞
+∞
(Hf , g) = ∫
−∞
λ d[E(λ )f , g].
194
Af = l0f ?.
Veamos: A f = l0 f significa lo mismo que (A f , g) - l0( f, g) = 0 para todo g, es
decir,
+∞ +∞ +∞
0= ∫
−∞
λ d[E(λ) f , g] − λ0( f , g) = ∫ −∞
λ d[E(λ) f , g] − λ0 ∫ −∞
d[E(λ) f , g] =
+∞
= ∫ −∞
(λ − λ0 )d[E(λ) f , g],
∫ ∫
2
0= (λ − λ0 )d[E(λ) f , E (λ0 )f ] = (λ − λ0 )d[ E (min (λ, λ0 )f ].
−∞ −∞
+∞ λ0 +∞ λ0
La integral ∫−∞ podemos descomponerla en ∫−∞ + ∫λ . En la ∫−∞ podemos sustituir
0
+∞
min (l, l0) por l, en la ∫λ0
, por l0. En esta última integral, por ende, aparece
detrás del signo d una constante, y, por tal razón, es nula. Queda así para la pri
mera, una vez cambiado el signo al integrando,
λ0
∫
2
(λ0 − λ)d[ E (λ)f ] = 0.
−∞
∫ ∫
2
0= (λ − λ0 )d[E(λ) f , f ] = (λ − λ0 )d[ E (λ)f ].
−∞ −∞
195
∫
2
(λ − λ0 )d[ E (λ)f ] = 0.
λ0
λ0 ∞
∫ ∫
2 2
(λ − λ0 )d[ E (λ)f ], (λ − λ0 )d[ E (λ)f ].
−∞ λ0
λ0 λ0 − ε λ0 − ε
∫ ∫ ∫
2 2 2
0= (λ0 − λ)d[ E (λ)f ] ≥ (λ0 − λ)d[ E (λ)f ] ≥ ε d[ E (λ)f ] =
−∞ −∞ −∞
2
= ε E (λ0 − ε )f ,
∞ ∞ ∞
∫ ∫ ∫
2 2 2
0= (λ − λ0 )d[ E (λ)f ] ≥ (λ − λ0 )d[ E (λ)f ] ≥ ε d[ E (λ)f ] =
λ0 λ0 + ε λ0 + ε
2 2 2
= ε[ f − E (λ0 + ε )f ] = ε f − E(λ0 + ε )f .
Los últimos miembros son, pues, ≤0; pero como, de otra parte, son idénticamen
te ≥0, deben ser nulos. Por consiguiente,
⎪⎧ f para λ ≥ λ0,
E (λ) f = ⎨
⎩⎪0 para λ < λ0.
196
Queda así demostrado que Af = lf tiene una solución f ≠ 0 sólo en los pun
tos de discontinuidad l0 de E (l) y las soluciones correspondientes a l0 forman la
variedad lineal cerrada Ml poco ha definida.
0
ya que
E (l0) - E (1)(l0) ≤ E (l0) ≤ E (1)(m0), E (m0) - E (1)(m0) ≤ 1 - E (1)(m0).]
Sin averiguar qué condiciones son las precisas para un tal comportamiento, pode
mos en todo caso fijar el siguiente extremo: la identificación de aquella extensión
lineal cerrada con el E∞ es imposible cuando existe un intervalo m1, m2 en el que
E (l) crece de modo continuo [esto es, m1 < m2, E (l) continuo en m1 ≤ l ≤ m2
y E (m1) ≠ E (m2)]. En efecto: para l ≤ m1 es E (l) - E (1)(l) ≤ E (l) ≤ E (m1); para
m1 < l ≤ m2 es E (l) - E (1)(l) = 0, a causa de la continuidad supuesta; para m2 < l
es E (l) - E (1)(l) ≤ 1 - E (1)(l) ≤ 1 - E (m2). Luego E (l) - E (1)(l) es siempre or
togonal a E (m2) - E (m1). Sea PN = E (m2) - E (m1); entonces todas las Ml son orto
gonales a N. Si fuera posible extraer del conjunto de las Ml un sistema ortonormal
completo, N contendría como único elemento el 0, es decir, sería E (m2) - E (m1) = 0,
contra la hipótesis.
197
E (λ) = ∑ P[ϕρ ]. 80
λρ ≤ λ
∑ = ∑ f , ϕ ρ = Nota 81 = f
2 2 2
P[ϕρ ] f
ρ ρ
∑ P[ϕ ] f
2
(teorema 7), o sea, la ρ
es convergente. Por consiguiente, para cada e > 0
ρ
podemos hallar un número finito de sumandos tal que la ∑ relativa sólo a éstos
ν
198
sea ya >∙ f ∙2 - e y, por lo tanto, que cada extendida ∑' a sumandos de entre los
ν
que faltan en la anterior sea <e. Entonces es también
2
∑' P[ϕ ] f = ∑' P[ϕρ ] f
2
ρ
< ε.
ρ ρ
es decir; S1 se cumple.
Para cerciorarnos de la validez de S3, pongamos f = x1j1 + x2j2 + …, por ende
∞
∑ λρ2 xρ
2
Af = l1x1j1 + l2x2j2 +… Para que Af tenga sentido, debe ser finita la .
Pero ρ =1
∞ ∞ ∞
∫ ∫ λ 2 d ⎛ ∑ xρ ⎞ = Nota83 = ∑ λρ2 xρ ,
2 2 2
λ 2 d E (λ)f =
−∞ −∞
⎝ λρ ≤ λ ⎠ ρ =1
∞ ∞ ∞
∫−∞
λ 2 d[E (λ)f , g]2 =
∫ −∞
λ d ⎛ ∑ xρ yρ ⎞ = Nota83 = ∑ λρ xρ yρ = (Af , g).
⎝λρ ≤λ ⎠ ρ =1
∫ ∫
2
… q1, …, qk dq1 … dqk
−∞ −∞
199
Nótese que Af = lf significa que debe ser (qj - l)f (q1, …, qk) = 0, es decir,
f (q1, …, qk) = 0 en todo el espacio, salvo acaso en el plano de k - 1 dimensiones
qj = l. Sin embargo, lo que en él le suceda a f carece de importancia (según lo
dicho en II.3 al tratar de la condición B), porque la medida −L de dicho plano
(es decir, su volumen) es cero: luego f ≡ 0.84 Nunca existe, pues, en este caso, una
solución de Af = l f que sea ≠0. Pero también se ve (¡inexacto!) dónde hay que
presumir la solución. Una combinación lineal de soluciones correspondientes a
varias l, por ejemplo l = l', l", …, l(s), sería un f que sólo para
es ≠0. Cabe considerar, por consiguiente, como combinación lineal de todas las
soluciones para las que l ≤ l0, un f que sólo para l < l0 es ≠0. Pero en el caso
del espectro discreto puro teníamos que
esto es, Nl se compone de las combinaciones lineales de todas las jr tales que
lr < l0, es decir, de todas las soluciones de Af = lf con l ≤ l0. Luego hay que
esperar —naturalmente esto es inexacto y debe considerarse sólo desde el punto
de vista heurístico —que ahora será E (l0) = PN , donde Nl está constituida por l0 0
aquellos f que sólo para qi < l0 son ≠0. E∞ - Nl consta entonces, evidentemente, 0
Hemos hallado así, aunque por vía no rigurosa, un haz de operadores de pro
yección de los que cabe conjeturar que cumplen S1-S3 respecto de nuestro A. Es
obvio que S1 y S2 quedan satisfechas, y aun que en S1 lo queda la condición re
lativa a l → l0 incluso sin la adicional de haber de ser l ≥ l0, es decir, E (l) es
continuo para cualquier valor de l. Para ver que también se cumple S3, basta
probar que subsisten las ecuaciones allí indicadas:
∞
∫−∞ λ 2d E(λ)f
2 ∞
= ∫−∞ λ 2 d (∫−∞
∞ λ ∞
… ∫−∞…∫−∞ f (q1,…, q j ,…, qk ) dq1 … dq j … dqk =
2
)
= ∫−∞ λ 2
∞
(∫ ∞
−∞
∞ 2
… ∫−∞ f (q1,…, q j −1, λ , q j +1,…, qk ) dq1,…, dq j −1dq j +1 … dqk d λ = )
∞ ∞
= ∫−∞… ∫−∞ q 2j f (q1,…, q j −1, q j , q j +1 ,…, qk ) dq1,…, dq j −1dq j dq j +1 … dqk = Af ,
2 2
200
∫−∞ λ d[E(λ)f , g] = ∫−∞ λ d (∫−∞… ∫−∞…∫−∞ f (q1,…, q j ,…, qk )g(q1,…,q j ,…, qk )dq1 … dq j … dqk ) =
∞ ∞ ∞ λ ∞
∞
= ∫−∞ λ (∫
−∞
∞ ∞
… ∫−∞ f (q1,…, q j −1, λ , q j +1,…, qk )g(q1,…, q j −1, λ, q j +1,… qk ) ⋅
[para A y estos E(l)] y hacer así, por fin, de una conclusión a título heurístico una
conclusión exacta.85
El segundo ejemplo que vamos a considerar se refiere al otro importante ope
h ∂
rador de la Mecánica ondulatoria, . Para evitar complicaciones accidenta
2pi ∂qj
les, sea k = j = 1 (igualmente procederíamos de no ser así). Tenemos, pues, el
operador
h d
A'f (q) = f (q),
2pi dq
h b b h
(A'f , g) − ( f , A'g) =
a 2π i ∫
f ' (q)g(q)dq –
a
f (q) ∫
2π i
g' (q) dq =
h b h h
∫
b
= { f '(q)g(q) + f (q)g'(q)}dq = ⎡⎣ f (q)g(q)⎤⎦a = ⎡ f (b)g(b) − f (a)g(a)⎤⎦ .
2π i a 2π i 2π i ⎣
201
– 1
(q acaso es 0 ó ∞). Más la sustitución de f por g nos da entonces q = , esto es
h d q
∙q ∙ = 1. Luego, para que sea hermítico, hemos de postular una «condi
2pi dq
ción de contorno» de la forma
f (a) : f (b) = q,
que, sin embargo, no podemos aplicar sin más para nuestro objeto, porque
+∞ +∞
∫−∞ ϕ (q) dq = ∫−∞ c dq = +∞ (a menos que c = 0, j ≡ 0). Obsérvese que, en el
2 2
primer ejemplo, encontramos la solución d (q - l), es decir, una función ficticia,
2π i
λq
no existente (cf. Nota 84) ; encontramos ahora e h , por lo tanto una función del
todo ordinaria, la cual, empero, no pertenece a E∞ debido a que la integral del
cuadrado de su valor absoluto es infinita. Desde nuestro punto de vista ambos
casos son equivalentes, pues lo que no pertenece a E∞ no existe para nosotros.86
Como en el primero de ellos, formemos las combinaciones lineales de las so
luciones correspondientes a las l ≤ l0, esto es, las funciones
λ0 2π i
∫
λq
f (q) = c(λ)e h d λ.
−∞
Es de esperar que entre éstas las habrá que pertenezcan a E∞, que, además,
estas últimas formen una variedad lineal cerrada N'l , y, finalmente, que los ope 0
⎪⎧1, para λ ≥ λ1
c(λ) = ⎨ λ1 < λ0,
⎪⎩0, para λ < λ1
pues la función
2π i 2π i
λ0q λ1q
λ0 2π i λ q e h −e h
f (q) = ∫λ1
e h dλ =
2π i
q
,
h
202
1
es dondequiera finita y regular y disminuye como cuando q → +∞± de modo
+∞ q
que ∫−∞ f (q) dq es convergente. Pero es el caso que también las restantes presun
2
la función
1 ∞
Lf (x) = F (y) ≡
2π ∫ −∞
e ixy f (x)dx
∞ ∞
es tal que la ∫−∞ F(y) dy es asimismo convergente y su valor coincide con ∫−∞ f (x) dx .
2 2
2π i
1 ∞
∫
pq
Mf (q) = F(p) ≡ e h f (q)dq,
h −∞
que tiene las mismas propiedades. Por lo tanto, la imagen que del E∞ nos propor
ciona esta transformación coincide con el mismo E∞ [Mf (q) = g (p) tiene solución
para todo g (p) de E∞ : f (q) = Mg (-p)], M deja invariante ∙ f ∙ y es lineal; luego,
según II.5, M es unitario. Dado que M 2f (q) = f (-q), resulta M -1f (q) = M*f (q) =
= Mf (-q) y M es permutable con M 2, es decir, con la transformación f (q) → f (-q).
Todas estas razones justifican la equivalencia de lo que nos proponíamos acer
ca de N'l y el siguiente enunciado: f (q) pertenece a N'l , cuando F (p) = M -1f (q)
0 0
es cero para todo p > l0. (Con la c (l) de antes, es F (p) = √hc(p).) Pero estas F (p),
conforme sabemos, constituyen la variedad lineal cerrada Nl ; luego también N'l 0 0
es una variedad lineal cerrada, en tanto que imagen de Nl dada por M. E'(l0) 0
resulta de E(l0) del mismo modo que N'l resulta de Nl : por transformación de
0 0
todo el E∞, mediante M, así que E' (l0) = ME(l0)M-1. Y pues E(l) tiene las pro
piedades S1, S2, así también E' (l). Sólo queda por demostrar S3, es decir, que la
descomposición de la unidad E' (l) corresponde a A'.
Tocante a este punto, nos limitaremos a demostrar que cuando f (q) y sin pre
2
+∞ h
sentar particulares dificultades de convergencia, es derivable e ∫−∞ f'(q) dq es
2π i
+∞ 2 +∞
finita, la ∫ λ d E'(λ)f es asimismo convergente y (A'f , g) = ∫ λ d (E'(λ)f , g).88
−∞ −∞
h h d h d
En efecto: M f (q) = F(p) y A'f (q) =
-1
f'(q) = [MF(p)] =
2pi 2pi dq 2pi dq
203
⎛ 1
⎜⎝ ∫ F(p)e
2π i
h
pq
dq
⎞
=
h
⎟⎠ 2π i ∫ F(p)
∂ 2hπi pq
e ( dq =
1
∫ )
F(p)pe
2π i
h
pq
dq = M[pF(p)],
h ∂q h
de forma que, para dicha f , es A' = MAM -1 (A es el operador q…, o bien, puesto
que aquí utilizamos la variable p, el operador p…). S3 vale para A, E (l); luego vale
también para A' = MAM -1, E' (l) = ME (l)M -1, que resultan de aquéllos al trans
formar E∞ mediante M.
h d
Muy otras son las circunstancias para en el intervalo a ≤ q ≤ b (a < b,
2pi dq
a y b finitos), caso éste en el que, conforme sabemos, la conservación del carácter
hermítico hace necesaria una «condición de contorno»
De nuevo es
2π i
λq
f (q) = ce h
h d
la solución de f (q) = lf (q), pero ahora la
2pi dq
b b
∫ ∫
2 2 2
f (q) dq = c dq = (b − a) c
a a
es finita, de modo que f (q) siempre pertenece al E∞. En cambio, hay que cumplir
aún con la condición de contorno
2π i
λ (a −b)
f (a) : f (b) = e h = θ,
h ⎛α *
λ= + k⎞ .
b − a ⎝ 2π ⎠
h
* La diferencia entre dos valores propios consecutivos es , tanto menor cuanto mayor es
b-a
la diferencia b - a. En cualquier intervalo de la recta l, aumenta el número de valores propios en él
contenidos a media que crece b - a. Nos acercamos así al espectro continuo que aparece, para este
operador, cuando a = -∞, b = +∞. (N. del T.)
204
b-a
a≤ x ≤ b,
2p
esto es, en un intervalo de longitud 2p, lo que exige, según un conocido teorema,
que esta última función se anule.89 Luego también es f (q) ≡ 0.
Resumiendo: A' presenta en el intervalo finito (a, b) un espectro discreto puro,
caso éste que hemos resuelto en general al principio del presente párrafo. Obsér
vese cuánto influye la «condición de contorno» —es decir, q ó a —en los valores
propios y en las funciones propias.
Finalmente, podemos considerar todavía el caso en que el intervalo está sólo
en parte acotado, por ejemplo 0 ≤ q < +∞. Otra vez hay que examinar en primer
lugar el carácter hermítico del operador. Se tiene:
h +∞ h
∫
+∞
(A' f ⋅ g) − ( f , A' g) = [ f ' (q)g(q) + f (q)g' (q)]dq = ⎡⎣ f (q)g(q)⎤⎦0 .
2π i 0 2π i
Como en II.5, en el caso del intervalo -∞, +∞, se demuestra que, para q → +∞,
f (q) g(q) → 0. Por lo tanto debe ser f (0) g(0) = 0. Basta hacer f = g para ver que
aquí la «condición de contorno» es f (0) = 0.
Graves dificultades se originan en este caso. Las soluciones de A'j = lj son
2π i
λq
las mismas que en el intervalo -∞ < q < +∞, a saber, las ce h —que ni pertene
cen al E∞ ni cumplen la condición de contorno—. Ya esto último es sospechoso.
Pero es aún más singular que, de poderse seguir el procedimiento antes esbozado,
deberíamos llegar a las mismas E (l) que en el intervalo -∞ < q < +∞, pues las
soluciones (impropias, esto es, no pertenecientes al E∞) son las mismas. ¿Cómo
hacer compatible este resultado con el hecho de ser otro el operador? Definamos
+∞
(
en el espacio de Hilbert FΩ, de las funciones f (q) 0 ≤ q < +∞, ∫0 f (q) dq finita
las transformaciones
2
)
205
1 +∞ 2π i pq
Mf (q) = F(p) =
h ∫ 0
h e f (q)dq,
1 +∞ − 2π i pq
M −1F(p) = f (q) =
h ∫−∞
eh F(p)dq [= MF(−p)].
∫
2
0 ≤ q < +∞, f (q) dq finita
0
en otro espacio de Hilbert: el espacio FΩ" de todas las F (p) para las que es
+∞
∫
2
−∞ < p < +∞ y finita la F(p) dp.
−∞
Mientras que, naturalmente, todavía se tiene para cualquier f (q) de FΩ' ∙Mf (q)∙ =
= ∙ f (q)∙ (como se sigue del teorema antes citado cuando se hace f (q) = 0 para
-∞ < q < 0), en modo alguno es, en general, ∙M -1F (p)∙ = ∙F (p)∙. En efecto: En
fuerza del repetidamente citado teorema, cuando definimos f (q) incluso para va
1 ∞ − 2hπi pq
h ∫−∞
lores q < 0 mediante f (q) = e F(p)dq, es
∞ ∞
∫ ∫
2 2 2
F = F(p) dp = f (q) dq,
−∞ −∞
mientras que
∞
∫
2 2 2
M −1F = f = f (q) dq;
0
luego ∙M -1F ∙ < ∙F ∙, a no ser que casualmente fuese nula la f (q), tal como la aca
bamos de definir, para q < 0. El haz de operadores E' (l) = ME (l)M -1 no es, por
lo tanto, una descomposición de la unidad,90 el método no es aplicable.
Pronto veremos (en la Nota 105) que la razón de esta no aplicabilidad descansa
en el propio ser de la cosa, porque a este operador no corresponde ninguna des
composición de la unidad.
Antes de dar fin a estas consideraciones preliminares, indicaremos algunas re
glas formales relativas al cálculo con operadores considerados en su expresión
simbólica
∞
A= ∫ −∞
λ dE(λ),
206
y, por consiguiente, dado que E (l" ), E (l' ), E (l" ) - E (l' ), como también
∞ 2 ∞ 2
Por este motivo es ∫−∞ λ 2d E (λ) f ≥ ∫−∞ λ 2 d E (λ)Ff , es decir, según S3, AFf
tiene sentido si lo tiene Af. Además, se tiene entonces
∞ ∞
AF = ∫ −∞
λ d[E (λ)F ] = ∫
−∞
λ d[FE (λ)] = FA,91
esto es, A y F son entre sí permutables. En particular podemos tomar para F cada
E(l) (a causa de S2), en cuyo caso será
∞ ∞
AE (λ) = ∫ −∞
λ'd[E (λ')E (λ)] = ∫ −∞
λ'd[E (Min(λ , λ'))] =
λ ∞ λ ∞
= ∫ +∫ =∫ λ'dE (λ ') + ∫ λ'dE (λ),
−∞ λ −∞ λ
∞
pues ∫λ = 0, porque detrás del signo d aparece un operador constante,
λ
AE (λ) = E(λ)A = ∫ −∞
λ'dE (λ').
λ
∞ ∞
⎛ ⎞ ∞
A2 = ∫−∞
λd[E(λ)A] = ∫−∞
λd
⎝ ∫ −∞
λ'dE(λ') = Nota 92 =
⎠ ∫
−∞
λ 2 dE(λ),
y en general se tiene
∞
An = ∫−∞
λ n dE(λ),
207
Se tiene entonces
∞
BC = ∫ −∞
r(λ)s(λ)dE(λ) = CB .
∞
* En rigor es CB = ∫−∞ s(λ)d[E(λ)B], pero B y E (l) son permutables. Al mismo resultado final
que en el texto se llega si se parte de CE(l) y se calcula BC. En el fondo ni aun esto es necesario,
dada la simetría del mismo. (N. del T.)
208
No existe, por lo tanto, obstáculo formal ninguno que se oponga a que se es
criba, también para tales funciones r (l), B = r (A).94 Particularmente dignas de
atención son las funciones (¡discontinuas!)
(Al comienzo de este párrafo discutimos el operador A = qi…, cuyo E(l) era la
multiplicación por 1 para qi ≤ l, la multiplicación por 0 para qi > l, es decir, la
multiplicación por el(qi). Se tiene, por tal razón, el(qi…) = el(qi)…, resultado éste
que permite ilustrar esos conceptos).
expresa la continuidad (C arbitrario, pero fijo). Y hay más: vimos en él que existen
aún algunas formas equivalentes a la (Cn), a saber:
209
la última de las cuales, sin embargo, vale sólo para operadores hermíticos.
La condición (Cn1), equivalente a la continuidad, responde al concepto hil
bertiano de «acotación», y el mismo Hilbert ha formulado y resuelto el problema
de valores propios en el caso de los operadores hermíticos acotados, esto es, con
tinuos (cf. Nota 70). Pero antes de abordar tal extremo, debemos introducir un más
amplio concepto:
De un operador hermítico A diremos que es cerrado cuando, dada una sucesión
f 1, f 2, … tal que todos los Af n tengan sentido, el cumplimiento de las condiciones
f n → f y Af n → f * justifica la existencia de Af y su coincidencia con f *. Nótese
que podríamos definir la continuidad de un modo íntimamente ligado con la an
terior definición; cabe decir: el operador A es continuo cuando el que todos los Af n
y Af tengan sentido y el que f n → f trae consigo que exista el límite de la sucesión
Af n y su coincidencia con Af .* La diferencia entre ambas definiciones reside en
que, en un operador cerrado A, de la existencia del límite f * de la sucesión Af n se
deduce la existencia de Af y la relación Af = f * y mientras que, si el operador es
continuo, de la existencia de Af = f * se sigue la del límite de Af n, igual a f *.
He aquí algunos ejemplos: Sea de nuevo E∞. el espacio de todas las f (q) tales
∞
que la ∫−∞ f (q) dq es convergente (-∞ < q < ∞); A, el operador q…, definido para
2
∞ ∞
todas las f (q) que cumplen la condición de ser finitas las dos integrales ∫−∞ f (q) dq , ∫−∞ qf (q) dq
2 2
∞ ∞ h d
∫−∞ f (q) dq , ∫−∞ qf (q) dq ; A', el operador
2 2
, definido para todas las funciones doquiera
2pi dq 2
∞ ∞ h
derivables y tales que las integrales ∫ f (q) 2 dq , ∫ f '(q ) dq sean conver
−∞ −∞ 2π i
Ahora bien, por razón de lo dicho en II.3 al demostrar D, existe una sucesión
parcial fn , fn , …, contenida en f 1, f2, …, doquier convergente, excepción hecha
1 2
de los puntos q de un cierto conjunto de medida-L nula: f n (q) → g (q). Se tiene,
n
∞ ∞
∫−∞ g(q) − f (q) dq = 0, ∫−∞ qg(q) − f *(q) dq = 0, es decir, g (q) =
2 2
por consiguiente,
f (q) y qg(q) = f *(q) salvo en los puntos de un conjunto de medida-L nula; esto es,
qf (q) y f *(q) no son esencialmente distintas. Pero como f *(q) pertenece a E∞, por
hipótesis, también pertenece a él qf (q) y, por lo tanto, tiene sentido Af (q) y coin
{ } {
(1) (1)
Existencia de Afn & convergencia de Afn → f * → existencia de Afn = f *
convergencia de fn → f & (2) (2)
existencia de Af = f * convergencia de Afn = f *
(1) operadores cerrados; (2) operadores continuos (acotados en el sentido de Hilbert). (N. del T.)
210
1
− q2 +
cide con qf (q) = f *(q). A', en cambio, no es cerrado: pongamos f n(q) = e n y
-∙q∙
f (q) = e . Evidentemente tienen sentido todas las A'f n, pero no A'f ( f no es deri
vable en q = 0); y, sin embargo, es fácil comprobar que f n → f, A'f n → f *, siendo
f *(q) = -Sgn(q)e-∙q∙ [Sgn(q) = -1, 0, +1 según que sea q<, =, >0].
En oposición a la continuidad, el que un operador sea cerrado es algo que, sin
grandes dificultades, podemos conseguir siempre en el caso de los operadores her
míticos mediante el llamado proceso de prolongación, proceso que consiste en dejar
invariable la definición del operador en aquellos lugares del E∞ en que está ya
definido, mientras que en otros algunos en los que así no ocurre todavía, se le
define convenientemente.
En efecto: sea A un operador hermítico cualquiera y definamos un operador
A como sigue: Af tiene sentido cuando existe una sucesión f 1, f 2, … tal que todos
los Af n tienen sentido, existe el límite f de f n y existe el límite f * de Afn; entonces
es, por definición Af = f *. Claro está que esta definición es lícita sólo si es uní
voca, esto es, si de f n → f, gn → f, Af n → f *, Agn → g *, se deduce f * = g *. Tal
sucede, en efecto; porque cuando Ag tiene sentido,
por lo tanto (f *, g) = ( g*, g), y pues el conjunto de estos g es doquiera denso, es f *
= g*. La definición de A, por ende, es correcta. El operador A es una prolongación
de A, es decir, cuando Af tiene sentido, lo tiene también Af y es Af = Af (para
verlo, basta hacer todas las fn = f y f * = Af ); además, A es lineal y hermítico, por
que lo es A, finalmente, A es cerrado: en efecto, si tienen sentido todas los Afn y f n
→ f, Af n → f *, y existen sucesiones f n, 1, f n, 2, … tales que lo tienen todos los Af n, m,
que f n, m → fn, que Afn, m → f *n y que Af n = f *n. Para cada n existe entonces un N n
1 1
tal que si m ≥ Nn, se tiene ∙ f n, m - fn∙ ≤ , ∙Af n, m - f *n ∙ ≤ ; luego f n,N - f n → 0,
n n n
Af n, N - f *n → 0, de donde fn, N - f → 0 o sea, en virtud de la definición, Af = f *.
n n
211
∫ ∫
2 2 2 2
0 ≥ Af −C2 f = λ 2 d E(λ)f −C2 d E (λ)f =
−∞ −∞
∞
∫
2
= (λ 2 − C 2 )d E(λ) f .
−∞
En particular, si f = E (-C - e)g, será E (l)f = E {Min [l, (-C - e)]} g, es decir,
−C − ε
una constante para l ≥ -C - e, de modo que basta considerar la ∫−∞ . En este
intervalo, E (l)f = E (l)g y l2 - C 2 ≥ (C + e)2 - C 2 > 2Ce; luego
−C − ε
∫
2 2
0 ≥ 2C ε d E (λ)g = 2C ε E (−C − ε )g ,
−∞
g - E(C + e)g = 0,
∫ ∫ ∫
2 2 2 2
Af = λ 2 d E(λ)f = λ 2 d E(λ)f ≤C2 d E(λ)f =
−∞ −C −C
∞
∫
2 2
= C2 d E(λ)f = C 2 f , de donde Af ≤ C ⋅ f .
−∞
212
Vemos así que con las descomposiciones de la unidad que son variables sólo
en intervalos l finitos, se agotan los operadores hermíticos continuos. ¿Qué pasa,
empero, con los operadores hermíticos discontinuos? Cabe disponer aún de todas
las descomposiciones de la unidad que son variables por grande (y por pequeño)
que sea l. ¿No los agotarán ellas acaso?
Ante todo debemos aquilatar correctamente la circunstancia de que tales ope
radores pueden no estar definidos en todo el espacio.
Es claro de suyo que un operador hermítico acaso no esté definido en puntos
del espacio hilbertiano en los cuales sería posible hacerlo de modo racional: así.
h d
por ejemplo, nuestro operador A' = no está definido para f (q) = e-∙q∙ y ha
2pi dq
h d
bríamos incluso podido limitar al conjunto de las funciones analíticas en
2pi dq
-∞ < q < +∞ (q real). Cierto es que tomamos ya nuestras medidas contra limi
97
∫ ∫
2 2
nen derivables en este intervalo y tales que f (q) dq, f'(q) dq sean finitas.
0 0
Para que A' sea hermítico es preciso imponer todavía una condición de contorno:
f (0): f (1) = e-ia (0 ≤ a < 2p). Sea Aa el conjunto de estas f (q) y A'a el propio
operador A' considerado como transformación en Aa. Consideremos, por otra
parte, la condición de contorno f (0) = f (1) = 0 y sean A° el conjunto de las f (q)
que la cumplen, y A'° el operador A' actuando en A°. Todos los A'a son prolonga
ciones de A'° (que es hermítico y posee un dominio de definición denso doquier)98
y, por lo tanto, también lo son de A'° los operadores cerrados A'a. Ahora bien,
todos los A'a son diferentes entre sí y de A'°. En efecto: la operación evidentemen
hb
te unitaria f (q) → e ibqf (q) transforma A'a en A'a + b - 1, Aa en Aa + b y A° en
2p
hb hb
A°; por consiguiente A'a en A'a - b + 1, A'° en A'° + 1, y por lo tanto, A'a
2p 2p
hb hb
en A'a - b + 1, A'° en A'° + 1; luego, de ser A'a = A'° se seguiría A'a - b = A'°,
2p 2p
es decir, la igualdad entre sí de todos los A'g . Basta demostrar, pues, que A'a ≠ A'g
si a ≠ g ; y éste es el caso cuando A'a, A'g no poseen en común ninguna prolonga
ción hermítica, es decir, cuando A' no es hermítico en la reunión de Aa, Ag . Es
patente que así sucede, porque eiaq pertenece a Aa, eigq pertenece a Ag y
213
hα 1 hγ 1
(A'e iα q ,e iγ q ) − (e iα q , A'e iγ q ) =
2π ∫
0
e i(α − γ )q dq −
2π ∫e
0
i(α − γ )q
dq =
h 1 h i(α − γ )
=
2π i ∫e0
i(α − γ )q
i(α − γ )dq =
2π i
(e − 1) ≠ 0.
214
A - i1 U+1
U= , A = -i ,
A + i1 U-1
215
∫e0
2π iσ
d[E(σ ) f , f ] = (Uf , f ) = ( f , f ),
de donde
1 1
Re ∫0
e 2π iσ d[E(σ ) f , f ] = ( f , f ), ∫ (1 − cos 2πσ )d [E(σ )f , f ] = 0 **
0
y, finalmente,
1
De aquí se sigue, exactamente como en el lugar antes citado (II.8), que E (s)f = 0
para todo s < 1 y > 0 (para s = 0, vale desde luego), es decir, la discontinuidad
* 1 - E' es operador de proyección, porque E' < E(1) = 1. Las soluciones de E'f = 0 son los
elementos de la variedad lineal cerrada que corresponde a 1 - E'. (N. del T.)
** [E(s)f , f ] es esencialmente no negativo: [E(s)f , f ] = ∙E(s)f ∙2 (cf. p. 58). (N. del T.)
216
e2pis + 1 1
l = -i = -cotg ps, s = arc cotg (-l),
e2pis - 1 p
que establece una correspondencia biunívoca y monótona entre los intervalos
0 < s < 1 y -∞ < l < +∞, podemos construir una descomposición de la unidad
F (l) en el sentido de S1, S2 a partir de E(s):
⎛ 1 ⎞
(C). F (λ) = E ⎜ − arc cotg λ⎟ , E = F (−cotg πσ ).
⎝ π ⎠
1 1⎛ 1
⎞ 1 − e 2π iσ
1
f =
2i
(ϕ − U ϕ) =
2i ⎝
ϕ− ∫0
e 2π iσ dE (σ )ϕ =
⎠ ∫0 2i
dE(σ )ϕ ,
1 − e 2π iσ'
1 1 1 − e 2π iσ'
E(σ )f = ∫
0 2i
d[E(σ )E(σ')ϕ ] = ∫ 0 2i
d (E[Min(σ ,σ')]ϕ ) =
σ 1 − e 2π iσ'
=∫ 0 2i
dE(σ')ϕ ,
σ 1 − e 2π iσ'
∫
2
E(σ )f = [E(σ )f , f ] = d[E(σ')ϕ, f ] =
0 2i
217
0
= ∫2i
⋅
−2i
d[E(σ')ϕ, ϕ] =
σ (1 − e 2π iσ' ) ⋅ (1 − e −2π iσ' ) σ
∞ 1
∫ ∫ cotg πσ d E(σ )f
2 2
λ 2 d F(λ)f = 2
−∞ 0
σ
1
⎛ ⎞
= ∫ cotg πσ d ∫ sen πσ'd E(σ')ϕ
2 2 2
0 ⎝ 0 ⎠
1
= ∫ cotg πσ sen πσ d E(σ )ϕ
2 2 2
0
1
= ∫ cos πσ d E(σ )ϕ ,
2 2
1
∫0 d
2 2
integral esta última que admite la mayorante E(σ )ϕ = ϕ y es, por ende,
finita. Además se tiene
1 1⎛ 1
⎞ 1 1 + e 2π iσ
Af = (ϕ + U ϕ) = ϕ + e 2π iσ dE (σ )ϕ =
2 2 ⎝ 0 ⎠ ∫ ∫ 0 2
dE(σ )ϕ =
1 e 2π iσ + 1 1 − e 2π iσ
0 e ∫
= −i 2π iσ
− 1 2i
dE (σ )ϕ
1
⎛ σ 1 − e 2π iσ' ⎞
= ∫
0
−cotg πσ d ⎜
⎝ ∫
0 2i
dE(σ')ϕ ⎟
⎠
σ ∞
= ∫
0
−cotg πσ dE (σ ) f = ∫ −∞
λ dF(λ )f ,
218
∞ 1 1 1 1 − e 2π iσ
1
f = ∫ −∞ λ + i
dF (λ)ϕ = ∫ 0 −cotg πσ + i
dE (σ )ϕ = ∫ 0 2i
dE (σ )ϕ .
1 1 - e2pis
(Todas estas integrales son convergentes, porque y están acotados.)
Se tiene entonces: l+i 2i
1 − e 2π iσ'
1
F(λ)f = E(σ )f = ∫ 0 2i
dE (σ )E (σ')ϕ
11− e 2π iσ' σ 1 − e 2π iσ'
= ∫ 0 2i
dE[Min(σ , σ')]ϕ = ∫0 2i
dE(σ')ϕ ,
∞ 1
Af = ∫ −∞
λ dF (λ) f = ∫ −cotg πσ ⋅ dE(σ )f
0
1 e2π iσ
+1 ⎛ 1 − e 2πiσ'
1
⎞
= ∫ 0
−i
e 2π iσ
d⎜
−1 ⎝ ∫ 0 2i
dE(σ')ϕ ⎟
⎠
1 e 2πiσ + 1 1 − e 2πiσ 1 1 + e 2πiσ
= ∫ 0
−i
e 2πiσ − 1 2i
dE(σ )ϕ = ∫ 0 2
dE(σ )ϕ ;
por lo tanto,
1 1
Af + if = ∫ 0
dE(σ )ϕ = ϕ, Af − if = ∫e 0
2π iσ
dE (σ )ϕ,
1
esto es, Uj existe y coincide con la ∫0 e 2πiσ dE (σ )ϕ . Pero j era arbitrario; luego U
tiene sentido doquier. Basta formar el producto interior (Uj, y), y arbitrario, y
1
tomar el complejo conjugado, para reconocer que U*y es igual a ∫0 e −2πiσ dE (σ )ψ .*
El cálculo con que acaba II.8 demuestra entonces que UU* = U*U = 1, es decir,
U es unitario y pertenece a E(s).
Resumiendo: Que el problema de valores propios a que da lugar A sea resolu
ble, equivale a que el transformado de Cayley U de A sea unitario, y en este su
puesto queda sentada la unicidad de la solución. Sólo nos falta, pues, decidir los
siguientes extremos: ¿Podemos formar siempre el operador U ? ¿Cuándo es U
unitario? Para resolver estas cuestiones, partamos nuevamente de un operador
hermítico cerrado, A.
1 1 1
* (U ϕ, ψ ) = ∫e
0
2π iσ
d[E (σ )ϕ, ψ ] =
1
∫e 0
2π iσ
d[E (σ )ψ , ϕ] = ∫e
0
−2π iσ
d[E (σ )ϕ, ψ ] = (U *ψ , ϕ), de don
de, simbólicamente,
U* = ∫e 0
−2π iσ
dE(σ ). (N. del T.)
219
∙Af ± if ∙2 = (Af ± if , Af ± if ) = (Af , Af ) ± (Af , if ) ± (if , Af ) + (if , if ) =
= ∙Af ∙2 i(Af , f ) ± i(Af , f ) + ∙ f ∙2 = ∙Af ∙2 + ∙ f ∙2
±
de donde
luego efectivamente, de Af + if = 0 se sigue que también f = 0, o sea nuestra de
finición es correcta. Pero es que, además, ha resultado que
es decir,
∙j ∙ = ∙Uj ∙;
y, de otra,
∙ Af m - Af n ∙ = ∙ A( f m - f n )∙ ≤ ∙ A( f m - f n) ± i( f m - fn )∙ = ∙jm - jn ∙;
luego con mayor motivo la cumplen f n y Af n, y, en fuerza de D, resultan ser asi
mismo convergentes tanto f n como Af n : f n → f , Af n → f *. Ahora bien, A es
cerrado; por consiguiente existe Af y coincide con f *. Tenemos, pues, que
220
y como
jn → j,
221
(j, g) = (j, y) - (j, Uy) = (Uj, Uy) - (j, Uy) = (Uj - j, Uy) = 0,
(Af , g) = [i(j + Uj), y - Uy] = i(j, y) + i(Uj, y) - i(j, Uy) - i(Uj, Uy) =
= i[(Uj, y) - (Uy, j)] = i(Uj, y) + i(Uy, j)
V(2ij) = V(Af + if ) = Af - if = i(j + Uj) - i(j - Uj) = 2iUj,
222
mo, es claro que V es una prolongación propia de U. Podemos, pues, afirmar que
D = E∞ o F = E∞ es condición necesaria y suficiente para que A sea máximo.
De lo que acabamos de ver resulta, sin más, que si A no es máximo, las varie
dades lineales cerradas E∞ - D, E∞ - F son ambas ≠0. Sean j1, …, jp y y1, …, yq
los sistemas ortonormales cuyas extensiones lineales cerradas coinciden con E∞ - D
y E∞ - F, respectivamente (cf. teorema 9, II.2; las sucesiones jn y ym pueden ser
finitas o infinitas), y r = Min (p, q). En la variedad lineal cerrada [D, j1, …, jr]
r
definamos un operador V del siguiente modo: para f = ϕ + ∑ aνϕν (j elemento
ν =1
r
de D; a1, …, ar son números complejos) es, por definición, Vf = U ϕ + ∑ aνψ ν . Es
ν =1
fácil reconocer que V es lineal y conserva las longitudes, como también que es
prolongación propia del operador U. Su dominio de definición es [D, j1, …, jr],
el cual, para r = p, coincide con [D, E∞ - D] = E∞; su dominio de los valores es
[F, y1, …, yr] igual, por consiguiente, para r = q, a [F, E∞ - F] = E∞. Luego uno
por lo menos de los dos conjuntos asociados a V se identifica con E∞ y, por lo
tanto, si es B el operador hermítico cuyo transformado de Cayley es precisamen
te V, B es prolongación propia de A y, además, máximo. Obsérvese que los j y
los y pueden elegirse de infinidad de maneras (p. e., y1 puede sustituirse por
cualquier θy1, ∙θ ∙ = 1) y, por lo mismo, también V y B.
Con esto hemos discutido hasta el fin el problema de valores propios y llegado
a la siguiente conclusión: Cuando este problema es resoluble posee una solución
; para los operadores no máximos, es con seguridad insoluble. Los operadores no
máximos pueden siempre ser prolongados hasta hacer de ellos un operador máxi
mo, y esto de infinitas maneras (se trata aquí sin excepción de operadores hermí
ticos cerrados). Sin embargo, la condición para que sea máximo un operador no
es exactamente la misma que para la existencia de la solución del problema de
valores propios: la primera es que D = E∞ o F = E∞; la segunda, que D = E∞ y
F = E∞.
No entraremos en detalles acerca de aquellos operadores en los que se da la
primera circunstancia, pero no la segunda, operadores para los que el problema de
valores propios carece de solución y que, por ser máximos, no admiten ya prolon
gación propia alguna. Se trata de algo que no podemos remediar. Están caracteri
zados por las condiciones D = E∞ y F ≠ E∞ o las D ≠ E∞ y F = E∞. Tales operado
res existen realmente y proceden todos ellos de dos formas normales simples, de
modo que cabe considerarlos como casos de excepción en oposición a los opera
dores máximos cuyo problema de valores propios es resoluble. Tocante a este
punto, el lector encontrará más detalles en la Memoria del autor citada en la
Nota 95. Sea como fuere, tal como están hoy las cosas, esos operadores hay que
excluirlos de las cuestiones de Mecánica cuántica, pues la descomposición de la
unidad correspondiente a un operador hermítico representa en ellas un papel tan
esencial, que no podemos renunciar a la existencia de dicha descomposición, esto
es, a la resolubilidad del problema de valores propios.105 Por este motivo, sólo to
223
10. Operadores permutables
Según la definición dada en II.4, dos operadores R, S son permutables cuando
es RS = SR; además, si alguno de los dos no está definido en todo el espacio, los
dominios de definición del primero v segundo miembros deben coincidir. Nos
limitaremos de momento a los operadores hermíticos, y aun entre éstos a los que
tienen sentido en todo el espacio —es decir, los continuos— con el fin de evitar
las dificultades inherentes a los dominios de definición. A la vez que R v S consi
deremos sus correspondientes descomposiciones de la unidad E (l) y F (l).
La permutabilidad de R y S significa que para todo par f, g es (RSf , g) = (SRf , g),
es decir, (Sf , Rg) = (Rf , Sg). Además, de ella se sigue la de R n y S(n = 0, 1, 2, …)
y, por lo tanto, también la permutabilidad de p(R) y S, donde p(R) es el operador
asociado al polinomio cualquiera p(x) = a0 + a1x + … + anxn.*
* Aun siendo hermítico R, no lo será en general p(R), a menos que los coeficientes ak sean rea
les. (N. del T.)
224
*.
∫−C
r(λ)d[E(λ)f , Sg] = ∫
−C
r(λ)d[Sf , E(λ)g].
La igualdad *. vale también para cualquier función continua r(x), porque cual
quiera que sea ésta podemos aproximarla cuanto queramos (uniformemente en el
intervalo -C ≤ x ≤ C) mediante polinomios. Tomemos en particular
⎧λ0 − x, para x ≤ λ0 ⎫
r(x) = ⎨ ⎬;
⎩λ0 − 0, para x ≥ λ0 ⎭
de *. resulta entonces
λ0 λ0
∫ −C
(λ0 − λ)d[E(λ)f , Sg] = ∫ −C
(λ0 − λ)d[Sf , E(λ)g].
Sustituyamos aquí l0 por l0 + e (e > 0), restemos de la igualdad que así se
obtiene la anterior y dividamos finalmente por e; resulta así
λ0 λ0 + ε − λ λ0 + ε
∫−C
d[E(λ)f , Sg] +
λ0 ε∫ d[E(λ)f , Sf ] =
λ0 λ0 + ε λ + ε − λ
= ∫ d[Sf , E(λ)g] + ∫ d[Sf , E(λ)g],
0
−C λ0 ε
y haciendo que e → 0 (¡téngase en cuenta S1!)*
λ0 λ0
∫−C
d[E(λ)f , Sg] + ∫ −C
d[Sf , E(λ)g],
* Aunque tras el símbolo d- aparece una función en general compleja de la variable real l y las
∫ se entienden en el sentido de Stieltjes, es fácil ver que para cada e existen q1 y q2 (0 ≤ qi ≤ 1, i = 1, 2)
tales que
λ0 + ε λ0 + ε − λ λ0 + ε
∫ λ0 ε
d[Re(E(λ)f , Sg)] = θ1
λ0 ∫
d[Re (E(λ)f , Sg )] =
225
Por consiguiente, todos los E (l0) tales que -C ≤ l0 ≤ C son permutables con
S; y no digamos ya los E (l0) que corresponden a l0 < -C, que son todos nulos,
y los correspondientes a l0 > C, que coinciden con el operador 1.
En resumen: cuando R es permutable con S, lo son también todos los E(l).
Recíprocamente: si todos los E (l) son permutables con S, vale *. para cada función
r(x) y, por lo tanto, todos los r (R ) son permutables con S. De aquí podemos de
ducir, primero, que R es permutable con S siempre y sólo cuando lo son todos los
E (l), y, segundo, que en este caso toda función r (R ) de R, es asimismo permuta
ble con S.
Ahora bien, un E (l) es permutable con S cuando es permutable con todos los
F (m) y sólo entonces (para cerciorarse de ello, basta aplicar nuestro teorema al par
S, E (l) en vez del R, S ); luego, para la permutabilidad de R, S es necesario y bas
ta que todos los E (l) sean permutables con todos los F (m). Además, en virtud de
lo que precede, la permutabilidad de R, S tiene como consecuencia la de r (R) y S,
y de ésta a su vez se deduce, sin más que sustituir R, S por S, r(R), la permutabi
lidad de s (S ) y r (R ).
La situación se presenta más complicada cuando los operadores R y S no están
sujetos a la condición de continuidad, pues las relaciones entre los dominios de
definición de RS y SR acaso sean intrincadas. Así, por ejemplo, R ⋅ 0 tiene siempre
sentido [0f = 0, R ⋅ 0f = R (0f ) = R 0 = 0, cualquiera que sea f ], y en cambio 0 ⋅ R
lo tiene sólo cuando tal ocurre con R (cf. lo dicho acerca de esto en II.5), de modo
que si R no está definido en todo el espacio, es R ⋅ 0 ≠ 0 ⋅ R como consecuencia
de ser diferentes los dominios de definición, es decir, R y 0 no son permutables
en sentido estricto. Un tal estado de cosas resulta muy enojoso para nuestros fines
ulteriores: 0 debiera ser permutable, no ya sólo con los continuos, sino con todos
los operadores hermíticos.107 Es esta la razón por la cual vamos a definir de otra
manera la permutabilidad de dos operadores R, S cuando sean discontinuos, si
bien en la nueva definición nos limitaremos a los operadores hipermáximos que
son, por lo demás, los únicos interesantes conforme dijimos en II.9. En el nuevo
sentido, dos operadores R y S hipermáximos son permutables si lo son en el primer
sentido todos los E (l) con todos los F (m) [E (l) y F (m) son las correspondientes
descomposiciones de la unidad]. Esta definición equivale a la primitiva cuando R
y S son continuos, según sabemos; no así, quizá, si R o S o ambos son disconti
nuos. Ejemplo de esto último lo es el par R, 0: no son permutables en el primer
y análogamente
λ0 + ε λ0 + ε − λ
∫λ0 ε
d[Im(E(λ)f , Sg)] = θ2 lm[(E(λ0 + ε )f , Sg) − (E(λ 0)f , Sg)].
226
227
Ahora bien, puesto que A posee un espectro discreto puro, la extensión lineal
cerrada del conjunto de todas las Ll coincide con E∞. Un f ≠ 0, por lo tanto, no
puede ser ortogonal a todas ellas, es decir, para por lo menos una Ll debe ser no
nula su proyección en Ll: El f ≠ 0. Por el mismo motivo, existe un m tal que
Fm f ≠ 0, un n tal que Gn f ≠ 0, etcétera. Dado, pues, un f ≠ 0, es posible hallar un
l tal que El f ≠ 0 un m tal que Fm(El f ) ≠ 0, un n tal que Gn(FmEl f ) ≠ 0, …, con
lo que, finalmente, … GnFmEl f ≠ 0, ElFmGn … f ≠ 0, K(l, m, n, …)f ≠ 0, es de
cir, f no es ortogonal a K(l, m, n, …). Por lo tanto, un f que sea ortogonal a todas
las variedades K(l, m, n, …) es necesariamente nulo; o lo que es equivalente: las
variedades lineales cerradas K(l, m, n, …), tomadas en conjunto, poseen como
extensión lineal cerrada el E∞.
Sea j (1)
(l, m, n, …), j (l, m, n, …), … un sistema ortonormal cuya extensión lineal cerra
(2)
Elijamos ahora un conjunto cualquiera de números diferentes entre sí c1, c2, c3, …
y formemos un operador hermítico R con el espectro discreto puro c1, c2, c3, … y
las funciones propias asociadas y1, y2, y3, …Es decir, sea
⎛ ∞ ⎞ ∞
R ⎜ ∑ xmψ m ⎟ = ∑ xm χmψ m . 110
⎝ m =1 ⎠ m =1
Sea F(c) una función definida en -∞ < c < +∞ para la cual F(cm) = lm(m = 1, 2,
…; en los demás puntos c, F(c) puede ser cualquiera); del mismo modo, sean
G(c) una función tal que G(cm) = mm, H(c) otra función tal que H(cm) = nm, …
Vamos a demostrar que
228
posee asimismo un espectro discreto puro F (c1), F (c2), … con las mismas funcio
nes propias y1, y2, … Mas como éstas constituyen un sistema ortonormal, basta
la demostración de que F (R )ym = F (cm)ym.
Sea E(λ) = ∑ Pψ m la descomposición de la unidad que según II.8 correspon
χm ≤ λ
de a R. Sabemos que entonces es, simbólicamente,
∫
R = ldE (l)
y, por definición,
∫
F(R ) = F(l)dE (l).
Además,
⎧ψ m, para χm ≤ λ ⎫
E(λ)ψ m = ⎨ ⎬.
⎩ 0, para χm > λ ⎭
∫
[F (R)ym, g] = F(l)d [E (l)ym, g] = F (cm) · (ym, g),
es decir, las representaciones s(q1, q2) = c y F (c) = q1, F (c) = q2, entre sí r ecíprocas,
deberían transformar biunívocamente el cuadrado 0 ≤ qi ≤ 1 (i = 1, 2) en el con
junto numérico lineal c —algo esto que contradice la intuición geométrica.
229
Pero la demostración nuestra antes citada nos enseña que, sin embargo, ello
debe ser posible —y efectivamente, la llamada curva de Peano proporciona una
representación de esa clase.112 Un examen más preciso de la demostración citada
en la Nota 109 muestra que ella conduce en el presente caso a la curva de Peano o
a figuras parecidas.
11. La traza
Definiremos en este párrafo algunos notables invariantes de los operadores. En
n
el En la traza ∑ aµµ una matriz {amn} es un invariante unitario, esto es, su valor
µ =1
no se altera cuando se refiere la matriz {amn} a otro sistema de referencia cartesia
no.113 Sustituyamos la matriz {amn} por el correspondiente operador A:
∞
A{x1 ,…, xn } = { y1 ,…, yn }, yµ = ∑ aµν xν .
ν =1
Esto nos permite expresar los amn mediante A, puesto que los vectores j1 = {1, 0, …, 0},
j2 = {0, 1, 0, …, 0}, …, jn = {0, 0, …, 1}, constituyen un sistema ortonormal
completo, y evidentemente amn = (A jn, jm) (cf. II.5, en particular la Nota 60). La
n
traza, por lo tanto, es igual a ∑ (Aϕµ ⋅ ϕµ ) y su carácter de invariante unitario nos
µ =1
dice que su valor es el mismo para todo sistema ortonormal completo.
El establecimiento de un concepto análogo en el E∞ podemos llevarlo a cabo
del siguiente modo: Sea A un operador lineal j1, j2, … un sistema ortonormal
completo para el que todos los Ajm tengan sentido (lo que siempre se puede con
seguir si el dominio de definición de A es doquiera denso; basta tomar en él una
sucesión f 1, f 2, … densa en él y ortogonalizarla de acuerdo con II.2, teorema 8).
n
Hagamos entonces traza (A)= ∑ (Aϕ µ , ϕ µ ). Hay que demostrar que este número
µ =1
realmente depende sólo de A (¡y no de los jm!).
Para ello introduzcamos primero dos sistemas ortonormales completos j1, j2,
… y y1, y2, … y pongamos
∞
traza (A; ϕ, ψ ) = ∑ (Aϕµ , ψ ν )(ψ ν , ϕµ ).
µ,ν =1
∞
Del teorema 7.γ (II.2) se deduce que esto es igual a ∑ (Aϕµ , ϕµ ), de forma que
µ =1
sólo en apariencia depende de las yn. Además se tiene
∞ ∞ ∞
∑ (Aϕµ , ψ ν )(ψ ν , ϕµ ) = ∑ (ϕµ , A*ψ ν )(ψ ν , ϕµ ) = ∑ (A*ψ ν , ϕµ )(ϕµ , ψ ν ),
µ,ν =1 µ,ν =1 µ,ν =1
230
es decir, traza (A; j, y) = traza (A*; j, y ). Pues el segundo miembro, por lo que
precede, depende de los jm sólo aparentemente, igual sucede con el primero, y
dado que tampoco depende de los yn, es independiente de unos y de otros y sí
tan sólo dependiente de A. Podemos así expresar traza (A; j, y) con la notación
∞
traza (A). Que es invariante unitario, resulta de su misma expresión ∑ (Aϕµ , ϕµ ).
µ =1
No tanto lo es ya que
∞ k
= ∑ (Bϕ µ ,ψ ν )(ψ ν , A* ϕ µ ) = ∑ (Bϕ µ ,ψ ν )(Aψ ν , ϕ µ ),
µ ⋅ν =1 µ ⋅ν =1
donde j1, j2, … y y1, y2, … son dos sistemas ortonormales completos cuales
quiera. Es suficiente permutar en el último miembro A y B y a la vez los j y y
para que quede de manifiesto la simetría del primer miembro respecto del par A,
B. En particular, si los operadores A y B son hermíticos,
traza (AB) = traza [(AB)*] = traza (B*A*) = traza (BA) = traza (AB),
esto es, traza (AB) es real y con mayor motivo traza (A).
Es fácil determinar traza (E) cuando E es el operador de proyección de una
variedad lineal cerrada B: Sea y1, …, yk, un sistema ortonormal cuya extensión
lineal cerrada coincida con B y c1, …, ci, otro sistema ortonormal que se halle en
las mismas condiciones respecto de E∞ - B (claro está que k, o l o ambos pueden
ser infinitos); y1, …, yk, c1, …, ci poseen en conjunto como extensión lineal
cerrada el E∞ y, por consiguiente, forman un sistema ortonormal completo (teore-
ma 7.a. en II.2.). Luego
k l k ι k
traza (E) = ∑ (Eψ µ , ψ µ ) + ∑ (E χ µ , χ µ ) = ∑ (ψ µ ,ψ µ ) + ∑ (0, χ µ ) = ∑ 1 = k,
µ =1 µ =1 µ =1 µ =1 µ =1
231
Si A es definido, todos los productos (Ajm, jm) son ≥ 0, y, por lo tanto, traza
(A) ≥ 0. Si traza (A) = 0, todos los (Ajm, jm) deben anularse y, por ende (teorema 19
en II.5) Ajm = 0. Dado un j cualquiera tal que ∙j ∙ = 1, cabe encontrar un siste
ma ortonormal completo j1, j2, … en el que j1 = j (sea f 1, f 2, … una sucesión
densa doquier y «ortogonalicemos» j, f 1, f 2, … —cf. la demostración del teorema 7
en II.2.—; resulta así un sistema ortonormal completo cuyo primer elemento es
el j dado); luego es Aj = 0. Si ahora es f arbitrario, es claro que Af = 0 si f = 0;
f
y si es f ≠ 0, basta hacer j = para que se obtenga Af = 0. En resumen: si A
∙ f ∙
es definido y diferente de cero, forzosamente es traza (A) > 0; y si A es definido y
traza (A) = 0, necesariamente es A = 0.
Con toda su brevedad y simplicidad, nuestras consideraciones relativas a la
traza de un operador no son matemáticamente correctas. En efecto, hemos susti
tuido una por otra las series
∞ ∞
∑ (Aϕµ , ψ ν ) ⋅ (ψ ν , ϕµ ) y ∑ (Aϕµ , ϕµ )
µ,ν =1 µ =1
* Los pasos que habría que justificar se ven claramente en el siguiente razonamiento, desarro
llado en el texto y aquí detallado:
∞ ∞
⎛∞ ⎞
traza (A; ϕ, ψ ) = ∑ (Aϕ µ , ϕν ) = ∑ ⎜ ∑ (Aϕ µ , ψ ν )(ψ ν ,ϕ µ )⎟ =
µ =1 µ =1 ⎝ ν =1 ⎠
∞
⎛∞ (1) ⎞ ∞ ⎛∞ ⎞
= ∑ ⎜ ∑ (ϕ µ , A*ψ ν )(ψ ν ,ϕ µ )⎟ = ∑ ⎜ ∑ (A*ψ ν , ϕ µ )(ϕ µ , ψ ν )⎟ =
µ =1 ⎝ ν =1 ⎠ µ =1 ⎝ ν =1 ⎠
(2)
∞
⎛∞ ⎞ ∞
= ∑ ⎜ ∑ (A*ψ ν , ϕ µ )(ϕ µ , ψ ν )⎟ = ∑ (A*ψ ν , ψ ν ) = traza (A*; ψ , ϕ).
ν =1 ⎝ µ =1 ⎠ ν =1
∞
Supuesto que ∑ (Aϕµ , ϕµ ) sea convergente, debería admitirse, primero, la existencia de A* (en
µ =1
[1]) y, segundo, la licitud de la inversión de sumas en [2]. (N. del T.)
232
se reunirá todo lo relativo a la traza que sea demostrable con rigor matemático
absoluto.
Consideremos en primer término la traza de A*A [A arbitrario; A*A es hermí
tico (II.4.), y porque (A*Af , f ) = (Af , Af ) ≥ 0, es además definido]. Se tiene
∞ ∞ ∞
traza (A *A) = ∑ (A *Aϕ µ , ϕ µ ) = ∑ (Aϕµ , Aϕµ ) = ∑
2
Aϕ µ ,
µ =1 µ =1 µ =1
serie ésta que por tener todos sus términos ≥0, es convergente o divergente hacia
+∞, es decir, sea como fuere tiene pleno sentido. Independientemente de lo visto
hasta aquí, demostraremos, ahora que su suma no depende de la elección de los
j1, j2, … En la demostración intervendrán solamente series cuyos términos son
≥0, todas las cuales tienen, pues, sentido y admiten la permutación de los símbo
los ∑.
Sean j1, j2, …, y y1, y2, … dos sistemas ortonormales completos y, por de
finición,
∞
∑ (A; ϕµ , ψ ν ) = ∑
2
(Aϕ µ , ψ ν ) .
µ,ν =1
∞
∑
2
Según el teorema 7.g en II.1, esta expresión es igual a Aϕ µ , o sea, que
µ =1
∑(A; jm, yn) sólo en apariencia depende de los yn. Además (supuesto que tengan
sentido los Ajm y A*yn),
∞ ∞
∑ (A; ϕµ , ψ ν ) = ∑ ∑
2 2
(Aϕ µ , ψ ν ) = (ϕ µ , A*ψ ν ) =
µ,ν =1 µ,ν =1
∞
∑ (A*ψ ν , ϕ µ ) = ∑ (A*; ψ ν , ϕ µ ).
2
=
µ,ν =1
y ∑(A) = ∑(A*). A través de ∑(A), y como igual a ella, queda con esto correc
tamente definida la traza (A*A).
Demostremos directamente algunas propiedades de ∑(A), que también se
siguen de las generales de traza (A) ya deducidas.
233
⎛ ∞⎞
y sumando ⎜ ∑⎟ ,
⎝ µ =1⎠
∑(A + B) = ∑(A) + ∑(B).
Esta relación subsiste cuando permutamos entre sí A y B ; luego vale también
para B*A = 0. Además, dado que en ella podemos sustituir A y B por A* y B*, es
claro que AB* = 0 y BA* = 0 son asimismo suficientes. Si A (o B) es hermítico,
podemos escribir, por ende, AB = 0 o BA = 0.
Sean E el operador de proyección de la variedad lineal cerrada B y y1, y2, …,
c1, c2, … sistema ortonormal completo considerado ya al tratar de la determina
ción de traza (E ); se tendrá
k l k l k
∑ (E) = ∑ Eψ µ + ∑ E χµ = ∑ ψµ + ∑ 0 = ∑ 1 = k,
2 2 2 2
µ =1 µ =1 µ =1 µ =1 µ =1
es decir, también ∑(E ) coincide con el número de dimensiones de B (no otra cosa
cabía esperar, pues E*E = EE = E ).
Sentado esto, es fácil reducir la traza (A B) al ente ∑, si A y B son dos opera
dores hermíticos definidos. En estas condiciones, en efecto, existen dos operadores
hermíticos definidos A' y B' tales que A' 2 = A, B' 2 = B,114 operadores que llamare
mos √A y √B . De modo puramente formal podemos escribir
traza (AB) = traza (√A √A √B √B ) = traza (√B √A √A √B )
traza [(√A √B )*(√A √B )] = ∑(√A √B ).
Y es el caso que esta ∑(√A √B ), en virtud de su propia definición y sin acudir
a su conexión con el concepto de traza, tiene todas las propiedades que se esperan
de traza (AB), a saber:
234
∞ ∞
= ∑( A. A Bϕ µ , Bϕ µ ) = ∑ (A Bϕ µ , Bϕ µ ),
µ =1 µ =1
⎜⎝ ∑ ∑ µ µ ν ν ∑ (Aϕµ , ϕν ) = ∑ (A),
2
(Aϕ µ , ϕ )
µ ⎟ = (Aϕ , ϕ )(Aϕ , ϕ ) ≥
µ =1 ⎠ µ,ν =1 µ,ν =1
también 2 (A) es finita, igual a C 2, por ejemplo. Sea y1, y2, … un sistema orto
normal completo cualquiera ; respecto de este sistema es asimismo
∞
∑ (A) = ∑
2 2
Aψ µ = C 2, Aψ 1 ≤ C 2, Aψ 1 ≤ C,
µ =1
y como cada y para el que ∙y ∙ = 1 puede elegirse como y1, de un tal sistema, se
sigue de ∙y ∙ = 1 que ∙Ay ∙ ≤C. Por consiguiente es en general ∙Af ∙ ≤ C. ∙ f ∙: ello
235
f
es evidente para f = 0, y para f ≠ 0 basta hacer y = . Resulta así que el opera
∙ f ∙
dor A cumple la condición Cn de II.9 y, por lo tanto, es continuo. Pero algo hay
aún más importante.
Por razón de la finitud de ∑(A), A pertenece a la clase de los llamados opera
dores completamente continuos, tocante a los cuales demostró Hilbert la exis
tencia de la solución del problema de valores propios en su forma primitiva, esto
es, la de un sistema ortonormal completo de soluciones y1, y2, …, siendo
Aym = lmym (y precisamente lm → 0 para m → ∞).115 Dado el carácter definido
de A, lm = (Aym, ym) es ≥0; además,
∞ ∞
∑ λµ2 = ∑ = ∑ (A) = C 2.
2
Aψ µ
µ =1 µ =1
∞ ∞
⎛∞ ⎞ ∞
⎛∞ ⎞
∑ (Aϕµ , ϕµ ) = ∑ ⎜ ∑ (Aϕµ , ψ ν )(ψ ν , ϕµ )⎟ = ∑ ⎜ ∑ (ϕµ , Aψ ν )(ψ ν , ϕµ )⎟ =
µ =1 µ =1 ⎝ ν =1 ⎠ µ =1 ⎝ ν =1 ⎠
∞
⎛∞ ⎞ ∞ ⎛∞ 2⎞
= ∑ ⎜ ∑ λν (ϕ µ , ψ ν )(ψ ν , ϕ µ )⎟ = ∑ ⎜ ∑ λµ (ϕ µ , ψ ν ) ⎟ ,
µ =1 ⎝ ν =1 ⎠ µ =1 ⎝ ν =1 ⎠
y pues todos los términos son ≥0, podemos permutar las ∑ y escribir
∞ ∞ ∞
⎛∞ ⎞ ∞ ∞
∑ (Aϕµ , ϕµ ) = ∑ λν (ϕµ , ψ ν ) = ∑ λν ⎜ ∑ (ϕµ , ψ ν ) ∑ ∑
2 2 2
=
⎟⎠ ν =1 λν ψ ν = λν.
µ =1 µ,ν =1 ν =1 ⎝ µ =1 ν =1
∞
De nuevo es en este caso ∑ (Aϕµ ,ϕµ ) independiente de j1, j2, … e igual preci
µ =1
samente a la suma de los valores propios. Pero para j1, j2, … la primera serie es
convergente ; luego lo es siempre, es decir, traza (A) tiene una significación intrín
seca como en el caso anterior, pero ahora su valor es finito. El cálculo con la traza,
por ende, queda justificado en ambos casos.
Es fácil comprobar las siguientes acotaciones: Para cualquier A tal que ∑(A)
sea finita es ∙Af ∙ ≤ √∑ A ∙ f ∙; para todo A hermítico y definido cuya traza sea fi
nita es ∙Af ∙ ≤ traza (A) ∙ f ∙. Supongamos ahora que A, además de definido, es tal
que traza (A) = 1 y que para un cierto j, tal que ∙j ∙ = 1, se tiene ∙Aj ∙2 ≥ 1 - e
ó (Aj, j) ≥ 1 - e. Puesto que por ser (Aj, j) ≤ ∙Aj ∙ ⋅ ∙j ∙ = ∙Aj ∙ de la segunda
desigualdad resulta la primera [con (1 - e)2 ≥ l - 2e en vez de 1 - e, o lo que es
lo mismo, 2e en vez de e], basta considerar ésa.
236
De aquí se deduce para un f cualquiera ortogonal a j, ∙ Af ∙ ≤ √2e ⋅ ∙ f ∙ (es claro
f
si f = 0, y si f ≠ 0, haremos y =
∙ f ∙ )
. Atendiendo a que (Af , g) = (f , Ag), pode
mos también decir: cuando f o g son ortogonales a j, es ∙(Af , g)∙ ≤ √2e ⋅ ∙ f ∙ ⋅ ∙ g ∙.
Aunque f , g sean arbitrarios, siempre podremos escribir que
f = aj + f', g = bj + g'
y si hacemos (Aj, j) = c,
∙(Af , g) - cab ∙ ≤ ∙a ∙ ⋅ ∙(Aj, g' )∙ + ∙b ∙ ⋅ ∙(Af', j)∙ + ∙(Af', g' )∙
= 2√2e ∙ f ∙ ∙ g ∙.
luego vale en general que ∙[(A - cP[j]) f , g]∙ ≤ 2√2e ∙ f ∙ ∙ g ∙ o también, por lo vis
to en II.9,
237
Aϕ − cϕ ≤ 2 2ε ,
⎧⎪≤ Aϕ − cϕ + Aϕ ≤ 2 2ε + 1
c = cϕ ⎨
⎪⎩≥ − Aϕ − cϕ + Aϕ ≥ −2 2ε + (1 − ε ),
1 − (ε + 2 2ε ) ≤ c ≤ 1 + 2 2ε
(
En FZ conjunto de todos los {x1, x2, …} con ∑ xµ
µ =1
2
)
finita , A está represen
tado por una matriz {amn}:
∞
A{x1, x2, …} = {y1, y2, …}, yµ = ∑ aµν xν ,
ν =1
ρ =1 ρ =1
de donde se sigue desde luego
∞ ∞
traza (A) = ∑ aµµ , ∑ (A) = ∑
2
aµν .
µ =1 µ,ν =1
Af (P) = ∫ Ω
a(P, P') f (P') dv',
en los cuales a(P, P' ), núcleo integral de A, es una función de las dos variables P,
P' definida en Ω (cf. I.4). Sea j1(P), j2(P), … un sistema ortonormal completo
cualquiera; se tiene entonces
238
∞ ∞
traza (A) = ∑ [Aϕ µ(P ), ϕ µ(P)] = ∑
µ =1 µ =1
∫ ⎡⎣⎢∫
Ω Ω
a(P, P')ϕ µ (P')dv' ⎤ϕ µ (P)dv
⎦⎥
µ µ
µ =1 Ω
resulta
traza (A) = ∫ Ω
a(P, P)dv.
Además
∞ 2
∑ (A) = µ∑=1 ∫Ω ∫Ω a(P, P')ϕµ (P')dv' dv ,
µ = 1 ∫Ω µ = 1 ∫Ω
∑ g(P')ϕµ (P')dv' = ∑ g(P') ϕµ (P')dv' =
∫ ∫
2 2
= g(P') dv' = g(P') dv',
Ω Ω
obtenemos en definitiva
Se ve así que en traza (A) y ∑(A) se lleva a efecto lo que se perseguía en I.4
con la aplicación de artificios matemáticamente muy delicados: en el paso de FZ
∞
a FΩ, la ∑ es sustituida por la ∫Ω … dv.
µ =1
Con esto damos por terminada nuestra exposición matemática relativa a los
operadores hermíticos. El lector que se interese por el aspecto matemático de estas
cuestiones obtendrá más pormenores consultando la literatura especial.116
239
∞ ∞
∫ ∫
2
… ϕ (q1, …, qk dq1, …, dqk = 1,
−∞ −∞
∞ ∞
∫ ∫
2
… f (q1, …, qk dq1, …, dqk
−∞ −∞
241
∫ … ∫ ϕ (q ,…, q ) dv
2
1 k
V
(Este es uno de los primeros y más sencillos ejemplos en los que se recono-
ció el carácter estadístico de la Mecánica cuántica;118 es clara, por lo demás, la
conexión de este enunciado con la hipótesis de Schrödinger relativa a la dis
tribución de la carga, cf. I, 2.) Además, cuando la energía del sistema posee el
operador H y éste a su vez los valores propios λ1, λ2, … y las funciones propias
ϕ1, ϕ2, …, la probabilidad en el estado ϕ del valor de la energía λn es igual a
2
∫ … ∫ ϕ (q1 ,…, qk )ϕn (q1 ,…, qk )dq1 … dqk (cf. las memorias citadas en la Nota 118.)
Veamos de transformar ambos enunciados y reducirlos a una forma común.
Sea V el cubo k-dimensional
{
Ej(l) f (q1, …, qk) = f (q1, …, qk), para qj ≤ l
0 , para qj > l
242
q''1 q''k
∫ …∫ ϕ (q ,… q ) dq … dq =
2
1 k 1 k
q'1 q'k
= ∫ … ∫ E (I )… E (I )ϕ (q ,… q ) dq … dq =
2
1 1 k k 1 k 1 k
2
= E1(I1)… Ek (I k )ϕ .
ya que E1(I1) … Ek(Ik) j (q1, …, qk) es igual a j (q1, …, qk) cuando q1 pertenece a
I1, … y qk a Ik, e igual a 0 en los restantes casos.
Consideremos ahora la probabilidad de que la energía se halle en el intervalo
I = {l' l'' }. La descomposición de la unidad E(l) que corresponde a H es (cf. II.8)
E(l) = ∑ P ⎡⎣ϕn ⎤⎦ y, por consiguiente,
λn ≤ λ
Ahora bien, dado que los únicos valores de la energía que entran en cuenta
son la, l2, …, dicha probabilidad es la suma de las probabilidades de todos los
valores ln tales que l' < ln ≤ l'' y, por ende,
2
∑ ∫ … ∫ ϕ (q1, …, qk )ϕn (q1, …, qk ) dq1 … dqk ∑
2
= (ϕ , ϕn ) =
λ' < λ ≤ λ''
n λ' < λn ≤ λ''
∑ (P[ϕn ]ϕ , ϕ ) = ⎛
{ ∑ }
P[ϕn ] ϕ , ϕ ⎞ = (E (I )ϕ , ϕ ) = E (I )ϕ .
2
=
λ' < λn ≤ λ''
⎜⎝ λ' < λn ≤ λ''
⎟⎠
Tanto en uno como en otro caso hemos obtenido un resultado que puede
formularse en los siguientes términos:
(P). La probabilidad de que en el estado j las magnitudes a las que corres-
ponden los operadores R1, …, Ri119 tomen valores contenidos en los intervalos I1
…, Ii, respectivamente, es
∙∙E1(I1) … Ei(Ii)j ∙∙2,
243
(teorema 12 en II.4).
Antes de proseguir, debemos comprobar si se dan en P ciertas propiedades que
ha de presentar toda teoría estadística plena de sentido:
244
de donde se sigue P = 0.
Hagamos l = 1 y R1 = R, y sea R la magnitud física a la que está coordinado
R (cf. Nota 119). Dada una función F (l) cualquiera, se trata de calcular el valor
medio de F (R).
A este fin, dividamos el intervalo {-∞, +∞} en una sucesión de intervalos par-
ciales {ln, ln + 1}, n = 0, ±1, ±2, … La probabilidad de que R se encuentre en
{ln, ln + 1}* es:
y, por consiguiente,
∞
∑ F (λ'n ){[E (λn +1)ϕ , ϕ ] − [E (λn )ϕ , ϕ]}
n = −∞
∫−∞
F (λ)d[E (λ)ϕ , ϕ],
a la que, por lo tanto, es igual el valor medio buscado. Ahora bien, basándonos en
la definición general de las funciones de operador (II.8), podemos afirmar que esta
integral es igual a [F (R) j, j]. Luego, resumiendo:
* Para abreviar, diremos que una magnitud física está en o se encuentra en un intervalo cuando
toma uno cualquiera de los valores de dicho intervalo. (N. del T.)
245
⎛ 1 ⎞
⎜⎝ para f = 0 es evidente; si f ≠ 0, basta hacer ϕ = f f ⎟⎠ y de aquí que también sea
(Sf , g) = [F (R) f , g]
⎛ f +g f −g
⎜⎝ para demostrarlo, sustitúyase primero f por , después por y réstese:
2 2
resulta así la igualdad de las partes reales; substitúyase en esta última f y g por if y
g, con lo que quedará de manifiesto la igualdad de las partes imaginarias). Luego
S = F(R).
(F). Si la magnitud R tiene como a operador el R, la magnitud F(R) debe
poseer como a tal el operador F(R).
Supuesto cierta (F), evidentemente se sigue V1 de V2, es decir, V1 y V2, en esta
hipótesis, son equivalentes. Pero hay más: V1 y V no sólo son entre sí equivalentes,
2
sino que cada una equivale a P. Dado que ambas se deducen de P, bastará demos-
trar que ésta se sigue de cualquiera de ellas.
En efecto: sean R1, …, Rl operadores permutables que corresponden a las mag-
nitudes R1, …, Rl , respectivamente. Según II.10, todos ellos son funciones de un
mismo operador hermítico R:
R1 = F1(R), …, Rl = Fl (R).
Admitamos que también R pertenece a una magnitud, R (establecemos, por lo
tanto, la hipótesis de que a cada magnitud R corresponde un operador hermítico
hipermáximo R, y recíprocamente. Cf. Nota 119 y IV.2). En virtud de F es entonces
R1 =F1(R), …, Rl = Fl (R).
246
Introduzcamos
H(l) = G1[F1(l)] … Gi[Fi(l)]
y la magnitud
S = H(R)
Cuando Rj está en Ij, es decir, Fj(R) en Ij, Gj[Fj(R)] es igual a 1, y cuando no,
igual a 0. Por lo tanto, S = H(R) es igual a 1 si todas las Rj están en sus respectivos
Ij (j = 1, …, l ), e igual a cero cuando así no ocurre. El valor medio de S, por ende,
es igual a la probabilidad P de que R1, esté en I1 R2 en I2, …, y Ri en Il, esto es,
P = Vm(S, j) = [H(R)j, j] = {G1[F1(R)] … Gi[Fi(R)]j, j }
= [G1(R1) … Gi(Ri)j, j].
Ahora bien, si Ej(l) es la descomposición de la unidad asociada a Rj e Ij es el
intervalo {l'j, l''j} por lo dicho al final de II.8 y con la notación allí usada podre-
mos escribir:
Gj (l) = el'' (l) - el' (l)
j j
luego
P = [E1(I1) … Ei(Ii)j, j]
que es justamente P.
Por la simplicidad de su forma, V2, y F son particularmente apropiadas para
considerarlas como los fundamentos sobre los que se construye toda la teoría.
Hemos visto cómo de ellas se sigue el más general enunciado probabilístico posi-
ble, P, enunciado éste que resulta chocante en dos aspectos:
1. P es de carácter estadístico y no causal, es decir, no se precisa qué valores
poseen R1 …, Ri en el estado j, sino con qué probabilidad toman los diferentes
valores posibles.
2. La cuestión que se plantea en P no puede ser contestada para magnitudes
cualesquiera R1, …, Rl , sino para aquéllas solamente cuyos operadores R1 …, Rl
son permutables entre sí.
Nuestra misión inmediata es, precisamente, discutir el significado de estos dos
hechos.
247
2. La interpretación estadística
La Mecánica clásica es una disciplina causal, esto es, en ella, cuando se conoce
exactamente el estado del sistema —para lo cual, si es k el numero de grados de
libertad, son necesarios 2 k datos numéricos: las k coordenadas q1, …, qk en el
dq dq
espacio de los estados y sus k derivadas temporales 1 …, k , o, en vez de éstas,
dt dt
los k impulsos p1 …, pk— se puede precisar exacta y unívocamente el valor numé-
rico de cada una de las magnitudes físicas (energía, momento cinético, etc.). Cier-
to es que existe una manera de proceder estadística en Mecánica clásica; pero ésta
es, por decirlo así, un lujo, un aderezo: cuando no se conocen los 2 k parámetros
determinantes (q1 …, qk, p1 …, pk), sino tan sólo algunos de entre ellos y aun és-
tos no del todo exactamente, cabe sentar enunciados por lo menos de carácter
estadístico relativos a todas las magnitudes físicas, promediando en cierto modo
sobre los que permanecen desconocidos. Algo por este estilo vale para los estados
del sistema pasados o futuros: si se conocen los valores de q1 …, qk, p1, …, pk co-
rrespondientes al instante t = t0, las ecuaciones del movimiento clásicas permiten
calcular (causalmente) sus valores en cualquier otro instante t; si sólo se conoce
una parte de los mismos, hay que promediar sobre los demás y los únicos enun-
ciados que es posible establecer relativos a otro instante son de carácter estadís
tico.120
Las proposiciones estadísticas que encontramos en la Mecánica cuántica tienen
un muy otro carácter. En ésta (en el caso de k grados de libertad) el estado del
sistema se caracteriza por una función de onda j (q1, …, qk), es decir, por un pun-
to j del E∞ convenientemente construido (∙∙ϕ ∙∙ = 1; un factor numérico en j de
valor absoluto igual a la unidad carece de importancia). Y aunque suponemos que
tras especificar j se conoce ya por completo el estado del sistema, sin embargo j
justifica sólo enunciados estadísticos acerca de los valores de las magnitudes físicas.
Es menester advertir, con todo, que este carácter estadístico está limitado a las
previsiones de valores de magnitudes físicas, pues los estados pretéritos y por venir
ϕt se pueden calcular causalmente a partir de ϕt = j la ecuación temporal de
Schrödinger (Cf. 1.2) lo hace posible en efecto, porque
h ∂
jt = j, j = -Hjt,
0
2πi ∂t t
248
Cuando se quiere explicar el carácter no causal del enlace entre ϕ y los valores
de las magnitudes físicas según el ejemplo de la Mecánica clásica, la interpretación
evidentemente más indicada es la que sigue: En realidad ϕ no determina en modo
alguno el estado exactamente; para conocer éste en su integridad son necesarios
todavía otros datos numéricos. Es decir, junto a ϕ el sistema posee aun otros ele-
mentos determinantes, otras coordenadas; si se conocieran todos, cabría indicar
exactamente y con certeza los valores de todas las magnitudes físicas; con sólo la
ayuda de ϕ, por el contrario, y al igual que sucedía en la Mecánica clásica a base
de una parte de las q1 …, qk, p1, …, pk, únicamente son posibles enunciados esta-
dísticos. Claro está que esta interpretación es meramente hipotética; es una tenta-
tiva cuyo valor depende de si se consigue de hecho dar con las otras coordenadas
asociadas a ϕ y construir con su ayuda una teoría causal que concuerde con la
experiencia y de la que, cuando se parte de ϕ como único dato (y se promedie
sobre las restantes coordenadas), resulten de nuevo las proposiciones estadísticas
de la Mecánica cuántica.
Se suelen llamar «coordenadas ocultas» o «parámetros ocultos» a esas otras
coordenadas hipotéticas, porque deberían desempeñar un papel muy encubierto
al lado de ϕ, la única que ha puesto de manifiesto hasta ahora la investigación. El
acudir a parámetros ocultos, ha permitido en la Física clásica reducir al principio
causal de la Mecánica más de un comportamiento en apariencia estadístico —un
ejemplo típico lo constituye la teoría cinética de los gases— (cf. Nota 120).
Es una cuestión muy debatida la de si viene al caso una tal explicación para la
Mecánica cuántica. La opinión de que día vendrá en que deberá ser contestada en
sentido afirmativo, tiene aun hoy distinguidos mantenedores. De estar justificada,
debiera considerarse como estadio provisional la forma que en la actualidad mues-
tra la teoría, pues la descripción de los estados mediante la función ϕ sería esen-
cialmente incompleta.
Demostraremos más adelante (IV.2) que la introducción de parámetros ocultos
es con seguridad imposible, a menos de alterar en su esencia la teoría actual. De
momento nos limitaremos a indicar que ϕ difiere esencialmente de los sistemas
parciales de las q1, …, qk, p1, …, pk de la Mecánica clásica en que su dependencia
del tiempo es causal y no estadística: jt . determina unívocamente, conforme vi-
0
249
posición P (o también V2) como el más amplio enunciado relativo a los procesos
elementales.
Es precisamente a esta concepción de la Mecánica cuántica, concepción que
reconoce en los enunciados estadísticos de la misma la forma real de las leyes na-
turales y en la que se renuncia a la causalidad, a la que nos referimos cuando ha-
blamos de una interpretación estadística de dicha Mecánica. Esta interpretación,
debida a M. Born,122 de la Mecánica cuántica, es decir, de la suma de nuestras
experiencias relativas a los procesos elementales, es la única hoy susceptible de un
desarrollo consecuente y a ella nos atendremos en lo que sigue hasta tanto no po-
damos emprender la discusión detallada de ese estado de cosas.
250
terminados; sin embargo, después que M1 ha tenido lugar, pero aun no M2, el
resultado de M2 está ya unívoca y causalmente determinado.
Desde un punto de vista sistemático podemos decir que son concebibles tres
grados de causalidad o no-causalidad. Primero: el valor de R pudiera ser del todo
estadístico, es decir, sólo estadísticamente previsible el resultado de una medición;
251
de donde
252
E(l'' )j = j,
E(l' )j = 0
E(l)j = ϕ, para l ≥ l* ,
{ ∣
0, para l < l*
de donde
Rϕ = l*ϕ.
Vemos, pues, que en el caso particular antes tratado debe ser Rϕ = l*ϕ, lo que
tiene por consecuencia, conforme se vio en II.6, el haber de coincidir l* con un
lm (por ser ∙∙j ∙∙ = 1 es ϕ ≠ 0) y ϕ con ajm. El factor a debe ser tal que ∙a∙ = 1,
porque ∙∙j ∙∙ = 1 = ∙∙jm∙∙; luego podemos prescindir de él sin alterar la definición
del estado. Resumiendo: en el caso de un espectro discreto puro, necesariamente
es l* = lm y ϕ = ϕm para un cierto m = 1, 2, … (El resultado relativo a l* pudie-
ra también deducirse directamente de P, pero no el correspondiente a ϕ .)
En la hipótesis anterior acerca de R, una medición de R, por lo tanto, provoca
la transición de cada estado y a uno de los estados j1, j2, …, que se encuentran
vinculados a las medidas posibles l1, l2 … Las probabilidades de estos tránsi-
tos son iguales, por tal razón, a las probabilidades de que de la medición resulten
l1 ó l2, …, y pueden así ser calculadas a partir de P.
La probabilidad de que el valor de R pertenezca a I es, según P, ∙∙E(I )y ∙∙2 y
también
∑ ∑
2 2
P = E (I )ψ = [E (I )ψ , ψ ] = (P[ϕn ]ψ ,ψ ) = (ψ , ϕn ) ,
λn en I λn en I
253
si tenemos en cuenta que, de acuerdo con (II.8), E (I) = ∑ P[ϕn]. Cabe, pues, sos-
λn en I
pechar que la probabilidad del valor ln sea ∙(y, jn)∙2. Siempre que podemos ele
gir I de modo que la única lm que exista en él sea justamente ln, nuestra conje-
tura se trueca en certeza a consecuencia de la fórmula que precede. Cuando así no
ocurre (es decir, cuando ln es un punto de acumulación de valores propios lm)
se procederá, por ejemplo, de la siguiente manera: Sea F(l) = 1 para l = ln e
igual a 0 para l ≠ ln; la probabilidad buscada Pn es el valor medio de F(R), esto
es [F(R)y, y ] (según V2 ó V1). Ahora bien, por definición
∞
∫ F (λ)d ⎡⎣ E (λ)ψ ⎤⎦ ,
2
[F (R)ψ , ψ ] =
−∞
Con esto queda contestada la pregunta acerca de qué acontece cuando se mide
una magnitud R en cuyo operador R se cumplen las hipótesis arriba indicadas.
Cierto es que el «cómo» queda sin aclarar: ese tránsito discontinuo, a modo de
salto desde hasta uno de los estados j1, j2, …, (independientes éstos de y, pues
sólo en las respectivas probabilidades Pn = ∙(y, jn)∙2, n = 1, 2, …, de dichos saltos
figura el estado y), con seguridad es de una muy otra índole que el descrito por
la ecuación temporal de Schrödinger: ¡ésta da lugar siempre a un cambio continuo
de y, cuyo resultado final está unívocamente determinado y depende de y ! (Cf.
lo dicho en III.2). Mucho más adelante, en VI, intentaremos tender un puente
sobre este abismo.125
Admitamos ahora que R, aun poseyendo un espectro discreto puro, acaso pre-
sente en él valores propios múltiples. De nuevo podemos formar j1, j2, … y l1, l2,
…, pero entre los ln puede haberlos iguales entre sí. Tras una medición de R de la
que resultó el valor l*, el estado j del sistema es tal que Rj = l*j y, por lo tanto,
l* coincide con alguno de los ln. Por lo que respecta a j, sólo cabe afirmar que, si
ln1, ln2, … son los ln guales a l* (en número finito o infinito), necesariamente es
ϕ = ∑ aν ϕnν .
ν
ν
tan el mismo estado sólo cuando difieren en un factor numérico, es decir, cuando
254
la razón a1 : a2 : … es la misma. Luego, tan pronto como exista más de un nn, esto
es, cuando l* sea múltiple, no queda unívocamente fijado el estado j subsiguien-
te a la medición por el conocimiento de la medida.
Exactamente igual que antes (aplicando P, o también V1 o V2) se calcula la
probabilidad de l*:
∑ (ψ , ϕn ) = ∑ (ψ , ϕnν )
2 2
P(λ *) =
λn = λ * ν
a esta relación se llega del modo más cómodo aplicando el resultado utilizado más
arriba, que se apoya en V2 (o V1) y en la función
F(l) = 1, para l = l* .
{ ∣
0, para l ≠ l*
∑
2
P= (PMλ *ψ , ψ ) = (PMψ , ψ ) = PMψ ,
λ *en D.
{
F(l) = 1, para l* punto de D .
0, en caso contrario ∙
Ahora bien, cuando medimos R exactamente, inmediatamente después de la
medición debe presentarse un estado ϕ tal que Rj = l*j, es decir, su resultado l*
debe pertenecer al espectro discreto D; luego, la probabilidad de conseguir una
—y ∙∙2. Este número, empero, no siempre es igual
medida exacta es, a lo sumo, ∙∙PM –
a 1, e incluso es 0 para los y que son elementos de N. Con otras palabras: una
medición exacta no siempre es posible.
255
+∞ +∞ λ (n +1)
F (R) = ∫ −∞
F (λ)dE (λ) = ∑
n = −∞
∫ λ (n)
F (λ)dE (λ) =
+∞ λ (n +1) +∞
= ∑ λ'n
n = −∞
∫ λ (n)
dE (λ) = ∑ λ'n E (I (n)).
n = −∞
correspondiente a las soluciones de F(R)g = l'n g; luego PM ≥ E(I (n)) y, por lo tanto, l'n
+∞ +∞ +∞
PM ≥ ∑ PMλ'n ≥ ∑ E (I (n)) = ∑ [E (λ (n +1)) − E (λ (n))] = 1 − 0 = 1,
n = −∞ n = −∞ n = −∞
de donde se deduce
+∞
∑ PMλ'n = PM = 1, PMλ'n = E (I (n)),
n = −∞
es decir, el espectro de F(R) es un espectro discreto puro constituido por los l'n.
La magnitud F(R) es en verdad, por ende, exactamente medible y la probabi-
lidad de que sea l'n su valor, es decir, de que R esté en I (n), es
256
257
te. Sean j1 j2, … y y1, y2, … los correspondientes sistemas ortonormales com-
pletos de funciones propias.
Para empezar con el caso más sencillo, supondremos que todos los valores
propios de uno de los dos operadores, por ejemplo R, son simples, es decir, lm ≠ ln
para m ≠ n.
Cuando medimos R, S simultáneamente, tras la medición nos encontramos
ante un estado y en el que con seguridad, tanto R cuanto S tienen los valores que
de ella han resultado, por ejemplo, lm–, mn– y y debe ser tal que se cumplan las
ecuaciones Ry = lm–y, Sy = mn–y. De la primera se deduce que y = ym– (salvo un
factor numérico constante, del que podemos prescindir) y de la segunda se sigue
que ψ = ∑ aνψ nν si mn , mn , …, son todos los mn iguales a mn–. Si j era el estado
1 2
ν
inicial, la probabilidad de lm–, jm– es ∙(j, jm– )∙2. Por consiguiente, para j = jm la
probabilidad se convierte en certeza si m = m –, de modo que para cada m pode-
mos decir que jm es un estado ∑ aνψ nν , donde todos los mn son iguales, esto es:
n
ν
Sjm = m–jm (con m– = mn = mn = …). Para todo f = ϕm (m = 1, 2, …) vale, por
ende, la relación RSf = SRf (ambos miembros son iguales a l m–j ); luego ésta
1 2
m m
vale también para sus combinaciones lineales y, supuestos continuos R y S, asimis-
mo para sus puntos de acumulación; es decir, para todo f , R y S son, pues, per-
mutables.
Cuando dichos operadores no sean continuos, razonaremos del siguiente
modo: las descomposiciones de la unidad E(l), F(m) correspondientes a R, S están
definidas por
E (λ ) = ∑ P[ϕm] , F ( µ ) = ∑ P[ψ ] ,n
λm ≤ λ µn ≤ µ
de forma que F (m)ϕm es igual a ϕm o a cero, según que m sea ≥ ó < que el valor
m– antes introducido. Por otra parte, E (l)jm = jm ó = 0 en correspondencia con
ser l ≥ ó < que lm. Luego, en todo caso E (l) F (m)jm = F (m) E (l)jm. De aquí se
sigue, como va vimos, la permutabilidad de E (l) y F (m), y por consiguiente (según
II.10), también la de R y S.
Ahora bien, según II.10, existe entonces un sistema ortonormal completo de
funciones propias comunes a R y S, es decir, podemos suponer jm = ym Dado que
para m ≠ n es lm ≠ ln, cabe construir la función
258
2 2 2 2
R + S ⎛ R + S⎞ R − S ⎛ R − S⎞ ⎛ R + S⎞ ⎛ R − S⎞
, , , , − = R ⋅ S,
2 ⎝ 2 ⎠ 2 ⎝ 2 ⎠ ⎝ 2 ⎠ ⎝ 2 ⎠
2 2
R + S ⎛ R + S⎞ R 2 + RS + SR + S 2 R − S ⎛ R − S ⎞ R 2 − SR − RS + S 2
, = , , = ,
2 ⎝ 2 ⎠ 4 2 ⎝ 2 ⎠ 4
2 2
⎛ R + S ⎞ − ⎛ R − S ⎞ = RS + SR ;
⎝ 2 ⎠ ⎝ 2 ⎠ 2
RS + SR
es decir, a R · S le corresponde el operador . Este resultado subsiste para
2
todo par de magnitudes F (R), G(S) (que también son medidas juntamente con R
F (R)G(S ) + G(S )F (R)
y S), de modo que el operador de F (R) · G(S) es .
2
259
EH + HE EH + HE
E + E E 2 H + EHE + EHE + HE 2 EH + HE + 2EHE
2 2 = =
2 4 4
EH + HE
que debe ser igual, por otra parte, a . De esto se sigue que
2
EH + HE = 2 EHE.
y si lo hacemos a la derecha:
260
261
4. Relaciones de indeterminación
En el párrafo que precede hemos logrado esenciales resultados relativos al pro-
ceso de medición cuando se trata de una sola magnitud, o de varias simultánea-
mente medibles. Hay que ver ahora qué comportamiento muestran las magnitudes
no mensurables a la vez cuando nos interesamos por su estadística en el mismo
sistema y en el mismo estado j.
Sean, pues, R, S dos de tales magnitudes y R, S sus operadores (¡no permuta-
bles!). A pesar de esa hipótesis, pueden existir estados en que los valores de una y
de otra sean precisos (dispersión nula) es decir, puede haber funciones propias
comunes, sólo que a partir de éstas no cabe formar un sistema ortonormal com-
pleto, pues de lo contrario, R y S serían permutables. (Cf. la construcción de
las correspondientes descomposiciones de la unidad E (l), F (l) indicada en II.8:
si j1, j2, … es el sistema ortonormal completo común, tanto E (l) como F (l) son
sumas de operadores P[j ] permutables por lo tanto, pues tal son los P[j ].) Es fácil
r r
darse cuenta de lo que esto significa: la extensión lineal cerrada M del conjunto
de esas j debe ser menor que E∞, ya que de coincidir con éste, se podría construir
el sistema ortonormal completo en cuestión, al igual que sucedía en el caso de un
solo operador al principio de II.6.
Para los estados que integran M, R y S son simultáneamente medibles, lo que
se comprueba con la mayor facilidad presentando un modelo de esta mensurabi-
lidad simultánea: Dado que las funciones propias j, comunes a R, S definen a M,
existe en M un sistema ortonormal de tales funciones j cuya extensión lineal
cerrada es igualmente M (sistema que, por lo tanto, es completo en dicha varie-
dad). Este sistema j1, j2, … —que se obtiene también a base de la construcción
antes citada y que se indicó en II.6— lo ampliaremos añadiéndole otro sistema
ortonormal y1, y2 … cuya extensión lineal cerrada sea E∞ - M, y se conseguirá
así un sistema ortonormal completo j1, j2, …, y1, y2, … Sea ahora lr, l2, …,
m1, m2, … un conjunto de números distintos entre sí, T el operador definido por
T
(∑ χ ⋅ ϕ + ∑ y ⋅ψ ) =∑ λ χ ⋅ ϕ +∑ µ y ⋅ ϕ ,
n
n n
n
n n
n
n n n
n
n n n
y T la magnitud asociada a T.
Una medición de T determina la aparición de uno de los estados j1, j2, …
y1, y2, …, conforme sabemos por lo dicho en III.3. Si es un jn el estado que
262
surge (lo que se reconoce en que la medida es un ln), por él sabemos de los valo-
res de R y de S, pues en el estado jn, ambas magnitudes poseen valores precisos,
por hipótesis, y se puede predecir con certeza que en una medición desde luego
subsiguiente de R y S, se encontrarán estos valores y no otros. Por el contrario, si
el estado que se origina es un yn nada semejante podemos afirmar (yn no perte-
nece a M, por lo que no es posible hablar de un valor preciso de R, S en este es-
tado). Ahora bien, la probabilidad de que resulte yn es (P[y ]j, j) y la de encontrar
n
un yn cualquiera (n = 1, 2, …) vale
∑ (P[ψ ]ϕ ,ϕ ) =
2 2
n
PE ∞ −Mϕ ,ϕ = ϕ − PMϕ
n
263
h
PQ - QP = 1,
2pi
PQ - QP = a · 1
2i 2 2
∙∙j ∙∙2 = - Im(Pj, Qj) ≤ ∙(Pj, Qj)∙ ≤ ∙∙Pj ∙∙ ⋅ ∙∙Qj ∙∙;
a ∙a∙ ∙a∙
∙a∙
∙∙Pj ∙∙ ⋅ ∙∙Qj ∙∙ ≤ .
2
∙a∙
∙∙Pj - rj ∙∙ ⋅ ∙∙Qj - sj ∙∙ ≥ ,
2
264
queda en fin
∙a∙
(I.) eh ≥ .
2
Para que valga el signo de igualdad es necesario y basta que en las desigualdades ≤
utilizadas en la deducción (I.) se conserve el signo =. Si P' = P - r · 1, Q' = Q - s · 1
tendremos por lo tanto
i∙a∙
- I (P'j, Q'j) = ∙(P'j, Q'j)∙ = ∙∙P'j ∙∙ ⋅ ∙∙Q'j ∙∙.
a m
Según el teorema I, II.1, lo último significa que P'j y Q'j difieren en un factor
∙a∙
constante c, que debe ser distinto de cero porque ∙∙P'j ∙∙ ⋅ ∙∙Q'j ∙∙ ≥ > 0 implica
2
P'j ≠ 0 y Q'j ≠ 0. Pero lo primero nos dice que (P'j, Q'j) = c∙∙Q'j ∙∙2 es imagi-
∙a∙
nario puro y que su coeficiente de i tiene el mismo signo que - i (¡real!), es
a
decir, el signo opuesto al del coeficiente de i en a; luego c = ig, donde g es real y
> a
< 0 según sea i <> 0. Por lo tanto es
∙a∙
e : h = ∙∙P'j ∙∙ : ∙∙Q'j ∙∙ = ∙c∙ = ∙g ∙, eh =
2
a ⋅γ a
ε= , η= .
2 2γ
265
h
En la Mecánica cuántica es a = y, por consiguiente, (I.) se escribirá
2pi
h
(I.') e⋅h≥
4p
Cabe discutir
…
también (lg.) cuando P y Q son, por ejemplo, los operadores
h ∂
P = , Q = q… de la teoría de Schrödinger. (Cf. I.2; suponemos que se tra-
2pi ∂q
ta de un sistema con un solo grado de libertad y que q es su única coordenada.)
En tal caso (lg.) nos dice que
⎛ h d ⎞
⎜⎝ 2π i dq − ρ⎟⎠ ϕ = iγ ⋅ (q − σ )ϕ ,
h
donde por ser ia = > 0 es g > 0; luego
2p
dϕ
dq
2π
{
= − γ ⋅q +
h
2π
h
γσ +
2π
h
ρ ⋅ i ϕ, }
es decir
ϕ = ε∫
q
{
−
2π
h
2π 2π
γ ⋅q + γ σ + ρ ⋅i dq
h h } =
πγ 2πγ 2πρ πγ 2πρ
− q2 + σq+ iq − (q − σ )2 + iq
= Ce h h h = C'e h h .
+∞
∙∙j ∙∙2 = ∫−∞ ∙j (q)∙2dk es de hecho finito, ya que g > 0, y la condición ∙∙j ∙∙ = 1
determina C':
+∞ +∞ − 2πγ (q − σ )2 h +∞
∫ ∫ ∫
2 2 2 2
ϕ = ϕ (q) dq = C'
2
eh dq = C' e − x dx
−∞ −∞ 2πγ −∞
2 h 2 h
= C' π = C' = 1,
2πγ 2γ
1/4
⎛ 2γ ⎞
C' = ⎜ ⎟ .
⎝ h⎠
266
1/4 πγ 2πρ
⎛ 2γ ⎞ − (q − σ )2 + iq
ϕ = ϕ (q) = ⎜ ⎟ e h h .
⎝ h⎠
hγ h
ε= , η= .
4π 4πγ
h
Dejando aparte la condición eh = , estos valores, por consiguiente, son cuales-
4p h
quiera cuando g varía entre 0 y +∞. Toda cuaterna p, s, e, h tal que eh = se
4p
presenta, por ende, en exactamente una j. Estas j fueron estudiadas primero por
Heisenberg y aplicadas a la dilucidación de las circunstancias que se dan en Me-
cánica cuántica, finalidad para la que se muestran extraordinariamente apropiadas
por cuanto representan el más alto grado de aproximación en ella posible al esta-
do de cosas con que nos encontramos en la Mecánica clásica (en la que ni p ni q
son de carácter disperso), y, además, por ser posible atribuir a e o a h valores pre-
fijados al arbitrio (cf. loc. cit. Nota 131).
Las consideraciones que preceden nos han permitido captar uno de los aspec-
tos de las relaciones de indeterminación, es a saber, el formal. Para llegar a su in-
teligencia completa, es menester considerarlas desde otro punto de vista todavía:
desde el punto de vista de la experiencia física inmediata. Y ello es así, porque los
vínculos que las ligan a ésta son más patentes y de mayor simplicidad que muchos
otros de los hechos sobre los que fue construida la Mecánica cuántica. Una discu-
sión de tipo intuitivo es tanto más necesaria cuanto que, a primera vista, acaso se
tenga la impresión de que aquí se presenta una contradicción con lo que la intui-
ción nos muestra: es un poco fuerte el tener que reconocer, sin más, la imposibi-
lidad de medir simultáneamente y con cuanta exactitud queramos la posición y la
velocidad (esto es, las coordenadas y el impulso) de un cuerpo material, incluso si
se poseen instrumentos de medida suficientemente delicados. Por tal razón con-
viene darse cuenta de que así es en efecto mediante un análisis detenido de los más
delicados procedimientos de medición (quizá tan sólo realizables en el sentido de
un experimento ideal). Veremos que las conocidas leyes de la Óptica ondulatoria,
de la Electrodinámica y de los procesos elementales atómicos, más bien cierran el
camino a una medición exacta con dificultades insuperables y precisamente en
aquellos puntos en que lo exigen las relaciones de indeterminación. Y es el caso
que esto puede ya reconocerse al investigar dichos procesos desde un punto de
vista puramente clásico (¡no cuántico!). Este hecho es de fundamental importancia,
267
pues nos muestra que en el dominio clásico (es decir, donde lo cuántico no deter-
mina corrección alguna al antiguo modo de ver), dominio que está justificado
independientemente de la validez de la Mecánica cuántica —el único propiamen-
te que es accesible a nuestra intuición inmediata132—, no cabe entrar en colisión
con las relaciones de indeterminación en apariencia paradójicas de la nueva Me-
cánica.
Hay, pues, que demostrar lo siguiente: si p, q son dos magnitudes canónica-
mente conjugadas y un sistema se halla en un estado en el cual es posible indicar
el valor de p con una exactitud e (es decir, tras una medición de p con e como
límite de error), en estas condiciones q no puede ser conocido con una precisión
h
mayor que h = : e. En otros términos: una medición de p de exactitud e in-
4p h
troduce en el valor de q una indeterminación h = : e.
4p
Claro es que en estas consideraciones meramente cualitativas no podremos dar
h
cuenta exactamente de cada pormenor; así, en vez de eh = sólo cabrá probar
que en la más precisa medición posible es 4 p
s
s
s
s
β
L
s´ β2
β1
s´
Pn s´ Pn
s´
2 1
Figura 1
eh ~ h (es decir, que eh es del orden de h). Como ejemplo típico, trataremos del
par conjugado posición-impulso de un corpúsculo C.133
Primero, la determinación de la posición: ésta se logra observando a C, es de-
cir, se ilumina la partícula y se absorbe en la retina la luz que aquélla difunde. El
268
–
c – hc E hn h
n= , E = hn = , p– = = = ,
l l c c l
hn
donde c es la velocidad de la luz.134 Se tiene, por esto, p– ∼ . Ahora bien, en el
e
proceso del choque, no exactamente conocido, tiene lugar una transferencia de
h
impulso que evidentemente es del orden de p–, es decir, del orden de , y por este
h e
motivo surge una inseguridad en el impulso de C tal que h ∼ .
e
Con esto estaría demostrado que eh ~ h, si no hubiésemos pasado por alto
una circunstancia, a saber, que el proceso del choque no es tan desconocido como
269
hemos dado en suponer: conocemos las trayectorias de L antes y después del mis-
mo (b y b2), por consiguiente también su impulso; pero de aquí se sigue cuál es
el impulso cedido a C. Por lo tanto p– no es una medida de h, sino más bien lo es
la eventual inseguridad en el conocimiento de los rayos b y b2. Para poder deter-
minar más exactamente los vínculos que ligan el apuntar al pequeño
t t
ε
C
Figura 2
* Es ésta la única componente a considerar, pues es la que corresponde a la dirección del corri-
miento e (normal al eje de la lente). (N. del T.)
270
271
hn mc∆v mc 1
e~ t, h ~ = , eh ~ h.
mc v v t
Si C no es de suyo luminoso, cual lo hemos supuesto, sino que difunde una
luz a él extraña (es decir, cuando se le ilumina), el cálculo se desarrolla de modo
análogo.
272
q1 …, qk (cf. también I.2). La Mecánica clásica concibe todas las magnitudes físi-
cas R que pueden integrarse en el sistema S, como funciones de q1 …, qk y de los
impulsos conjugados p1 …, pk: R = R(q1 …, qk; p1, …, pk) [así, por ejemplo, la
energía, que es la función de Hamilton H(q1, …, qk; p1, …, pk)]. En la Mecáni-
ca cuántica, en cambio, conforme ya indicábamos en III.1, las magnitudes R es-
tán coordinadas unívocamente a los operadoras hermíticos hipermáximos R; en
particular, q1, …, qk corresponden a los operadores Q1 = q1…, …, Qk = qk… y
h ∂ h ∂
p1, …, pk a los operadores P1 = …, …, Pk = … . Que en general
2pi ∂q1 2pi ∂qk
y por razón de la no permutabilidad de Ql, Pl, no es posible definir R = R(Q1, …,
Qk, P1, …, Pk) es algo que dilucidamos ya en I, 2 en el caso de la función de Ha-
milton. Sin poder afirmar algo definitivo tocante a la conexión entre las funciones
R(q1, …, qk, p1, …, pk) y los operadores R, de todos modos quedaron establecidos
en III.1 y III.3 los siguientes extremos:
L. Si los operadores R, S corresponden a las magnitudes observables simul-
táneamente R, S, a la magnitud aR + bS (a, b son números reales) corresponde el
operador aR + bS.
F. Si el operador R corresponde a la magnitud R, a la magnitud F (R) [F (l)
función real arbitraria] corresponde al operador F(R).
L. y F. admiten una cierta generalización. La de F se impone de suyo:
F*. Si a las magnitudes simultáneamente observables R, S, … corresponden
los operadores R, S, … (que son, por lo tanto, entre sí permutables) en número
finito, a la magnitud F (R, S, …) corresponde el operador F(R, S, …).
En efecto: supondremos que F (l, m, …) es un polinomio real en l, m, … con
el fin de que aparezca claro el sentido de F (R, S, …) —R, S, … son permutables—,
aunque pudiera establecerse F* asimismo para una función F cualquiera [por lo
que concierne a la definición del F (R, S, …) general, cf. loc. cit. Nota94]. Ahora
bien, puesto que todo polinomio resulta de la repetición de las tres operaciones
1
al, l + m, lm, basta considerar estas tres, y como lm = [(l + m)2 - (l - m)2],
es decir, 4
1 ⎛ 1⎞
λµ = (λ + µ )2 + ⎜ − ⎟ [λ + (−1)µ] ,
2
4 ⎝ 4 ⎠
podemos sustituirlas por al, l + m, l2. Pero las dos primeras caen bajo L, y bajo
F la última. Luego queda demostrado F*.
L, por el contrario, se hace extensiva en Mecánica cuántica al caso en que R,
S no son simultáneamente medibles. No discutiremos este punto hasta más tarde
(en VI.1) y nos limitaremos por el momento a sentar que no está nada claro que
pueda significar aR + bS cuando R y S no son mensurables simultáneamente.
Junto a las magnitudes físicas R, empero, existe algo más que es objeto de la
Física: las propiedades de los estados del sistema S. Una propiedad es, por ejemplo,
273
que una cierta magnitud R tome el valor l; o que el valor de R sea positivo; o que
los valores de dos magnitudes simultáneamente medibles R, S sean respectivamen-
te l y m; o que la suma de los cuadrados de estos valores sea >1, etc. Así como
designábamos las magnitudes con las letras R, S, … usaremos de los símbolos E,
F, … para representar las propiedades. A las magnitudes correspondían los opera-
dores hermíticos hipermáximos R, S, …; ¿qué corresponde a las propiedades?
A cada una de ellas podemos vincular una magnitud que definiremos del si-
guiente modo: toda medición que decida entre la presencia o la no presencia de
la propiedad E, hay que considerarla como una medición de la magnitud asociada;
el valor de ésta es 1 cuando efectivamente se da E y 0 en el caso opuesto. La mag-
nitud así coordinada a E la representaremos con el mismo símbolo.
La magnitud ligada a una propiedad toma tan sólo los valores 0 y 1*. Recípro-
camente, cada magnitud R susceptible de tomar únicamente los valores 0 y 1 está
asociada evidentemente a la propiedad «el valor de R es ≠ 0». El criterio que pre-
cede permite, por ende, caracterizar las magnitudes vinculadas a las propiedades.
Que E tome sólo los valores 0 y 1 puede también expresarse diciendo que E
anula idénticamente el polinomio F (l) = l - l2. Si E es el operador de E, el ope-
rador de F (E) es F (E) = E - E 2, es decir, la anterior condición se traduce en
E - E 2 = 0, o bien E = E 2. Luego el operador E de E es un operador de proyección.
Resumiendo: a las propiedades E corresponden, por mediación de las magni-
tudes asociadas E antes definidas, los operadores de proyección E. De otro modo:
a cada propiedad va ligada una multiplicidad lineal cerrada M, que es la definida
por E = PM.
Se trata ahora de examinar con alguna detención esos entes E, E y M que
entre sí se corresponden.
Cuando queremos decidir si en el estado ϕ se da o no la propiedad E, es me-
nester medir la magnitud E y determinar si su valor es 1 ó 0, por definición. La
probabilidad de que ocurra lo primero, es decir, de que en ϕ se presente E, es, por
lo tanto, igual al valor medio de E, esto es:
[La suma es, naturalmente, igual a (ϕ, ϕ), es decir, 1]. Por consiguiente, E se pre-
senta en el estado ϕ o no se presenta, según sea cero la segunda o la primera pro-
babilidad, es decir, según sea PMϕ = ϕ o PMϕ = 0, respectivamente. O en otros
términos, cuando ϕ pertenece a M o es ortogonal a M; o bien, cuando j es ele-
mento de M o de E∞ - M.
* Tales magnitudes han recibido el nombre de magnitudes o variables dicotómicas. (N. del T.)
274
La variedad M puede así definirse como conjunto de todos los j que con se-
guridad poseen la propiedad E. [En rigor queda definida de este modo únicamen-
te la parte de M cuyos elementos son de módulo 1; M, en conjunto, resulta de
ella multiplicando por constantes positivas y añadiendo el elemento 0.]
Si convenimos en llamar «non E» la propiedad contradictoria de E (la negación
de E), de lo que precede resulta desde luego que si a E corresponden E y M, a
«non E» pertenecen 1 - E y E∞ - M.
Al igual que para las magnitudes, se plantea para las propiedades la cuestión
de su mensurabilidad simultánea (en sentido estricto, la de poder ser decidida su
presencia o no presencia simultáneamente). Es claro que la condición necesaria y
suficiente para que las disyuntivas que plantean E y F se puedan decidir al mismo
tiempo, es que las correspondientes magnitudes E y F sean simultáneamente me-
dibles, bien sea con precisión arbitrariamente grande o con exactitud absoluta
—lo mismo da, pues dichas magnitudes son susceptibles de tomar sólo los valores
0 y 1. La condición es, por lo tanto, que EF = FE. Lo mismo vale para varias
propiedades E, F, G, …
A partir de dos propiedades E, F simultáneamente demostrables* pueden for-
marse las propiedades «E y F» y «E o F». La magnitud correspondiente a «E y F»
toma el valor 1 cuando toman este valor las asociadas a E y F, y el valor 0 cuando
es cero una por lo menos de estas últimas. Dicha magnitud es, por consiguiente,
el producto de las correspondientes a E y F . Su operador será, pues, en virtud de
F*, el producto de los operadores de E y F, es decir, EF, y la variedad lineal cerra-
da la parte común P a M y N (cf. teorema 14, II.4).
Por lo que atañe a «E o F», obsérvese que esta propiedad puede reducirse a la
forma «… y …», ya que «E o F» equivale a
operador que, por su origen, es un operador de proyección. Ahora bien, dado que
F - EF es asimismo un operador de proyección, la variedad lineal cerrada que
corresponde a E + F - EF es la M + (N - P) (teorema 14, II.4) Esta es parte de
{M, N}, y pues contiene a su vez a M, contendrá también a N por razón de sime-
tría y, por lo tanto, contiene a {M, N}. Luego coincide con {M, N} y su ser cerra-
da conduce a que sea {M, N} = [M, N].
Una propiedad E que se da siempre (es decir, vacía), posee como magnitud
asociada una magnitud igual idénticamente a 1, por lo cual será E = 1 y M = E∞.
Por el contrario, si nunca se da E (es decir, es imposible), su magnitud es igual
275
([E(m' ) - E(l' )]j, j)
y F(R) es igual a (E(m' ) - E(l' ) (cf. II.8 ó III.1). Este operador es el que en III.1
llamábamos E(I ).
Resumiendo: por lo que concierne a la relación entre propiedades E, sus ope-
radores de proyección E y las correspondientes variedades lineales cerradas M,
hemos comprobado los siguientes extremos:
y la de que no se dé vale
276
6. Teoría de la luz
A lo largo de los párrafos que preceden hemos ido hallando de nuevo todas las
proposiciones estadísticas que enunciamos en 1, 2, e incluso dotadas de un alcan-
ce esencialmente mayor y sistemáticamente expuestas, todas con una sola excep-
ción: nos falta aún la expresión dada por Heisenberg de la probabilidad de trán-
sito desde un estado estacionario de un sistema cuantificado a otro estado de igual
índole, a pesar de que justamente ésta representó un papel esencial en la génesis
de la Mecánica cuántica (cf. lo dicho en I.2). En lo que sigue mostraremos, si-
guiendo a Dirac,138 cómo estas probabilidades de transición pueden ser deducidas
de las proposiciones estadísticas ordinarias de la nueva Mecánica, o sea, de la teo-
ría que hemos expuesto. Esto es tanto más importante cuanto que, al hacerlo,
277
h ∂
j (x) = -H0jt(x),
2pi ∂t t
∞
es decir, cuando para t = t0 es ϕt (ξ ) = ϕ (ξ ) = ∑ akϕk (ξ ), en cualquier otro instante
2π i k =1
∞
− Wk (t −t0)
es ϕt (ξ )= ∑ ak e h ϕk (ξ ). Un estado j (x) = jk(x), por lo tanto, se transforma
k =1
2π i
− Wk (t −t0)
en e h ϕ (ξ ) y es decir, en sí mismo, puesto que no es esencial la presencia
k
2π i
− Wk (t −t0)
del factor e . Los estados jk(x) son, pues, estacionarios. Al pronto no en-
h
278
Como se ve, trátase aquí de cuestiones que, en virtud de los principios funda-
mentales de la Mecánica cuántica, deben recibir primero una respuesta en términos
clásicos, para luego traducir en operadores el resultado así obtenido (cf. I.2). Nos
colocamos así, por lo pronto, en un punto de vista netamente clásico tocante a la
naturaleza de la luz: la concebimos como un estado de vibración del campo elec-
tromagnético (en el sentido de la teoría electromagnética de la luz).139
Para evitar superfluas complicaciones (pérdida de la luz en el espacio infinito,
etc.), imaginemos S y L encerrados en un recinto vacío H, muy grande, de vo
lumen V, cuyas paredes sean, por ejemplo, reflectoras. El estado del campo
e!lectromagnético en H está definido,
! como es notorio, por el campo eléctrico
E = {Ex, Ey, Ez} y el magnético H = {Hx, Hy, Hz}. Todas las magnitudes Ex, …, Hz,
son funciones de las coordenadas cartesianas x, y, z de un punto genérico de H y
del tiempo t. Hay que señalar! que, en lo que !sigue, consideraremos repetidas ve-
ces vectores espaciales reales a = {ax, ay, az}, b = {bx, by, zz}, etc. (p. ej., E , H ) y
formas de ellos derivadas, cual el producto interior
! !
a × b = ax bx + a y by + az bz ,
que no hay peligro de que se confunda con el producto interior (j, y) en E∞. El
∂ 2 ∂ 2 ∂ 2
símbolo ∆ designará el operador diferencial 2 + 2 + 2 y div, grad, rot las
∂x ∂y ∂z
conocidas operaciones diferenciales vectoriales. Los vectores E , H , satisfacen las
ecuaciones de Maxwell en el recinto vacío H:
1 ∂H
div H = 0, rot E + = 0,
c ∂t
1 ∂E
div E = 0, rot H − = 0,
c ∂t
!
! La primera ecuación de la primera fila queda satisfecha para H = rot A
( A = {Ax, Ay, Az}, es el llamado potencial vector y también!sus componentes de-
! 1 ∂A
penden de x, y, z, t) y la segunda, entonces, para E = − . Por lo que concier-
c ∂t
ne a las ecuaciones de la segunda fila, éstas implican que
! ! 1 ∂2 !
(A) div A = 0, ΔA − 2 2 A = 0.
c ∂t
279
A ≡ A(x, y,z,t ) ≡ A(x, y,z ) ⋅ q(t).
d2
(A2) = c 2ηq(t),
q(t)
dt 2
donde h depende sólo de x, y, z según (A1) y solamente de t según (A2) y es, por
lo tanto, constante.
(A ), por ende,
1 es un problema de valores propios; h es el parámetro de valo-
res propios y A la función propia más general. La teoría de este problema ha sido
íntegramente desarrollada; de ella indicaremos aquí sólo el resultado:140 (A1) posee
propios h1, h2, … (cuyas correspon-
un espectro discreto puro; todos los valores
dientes funciones propias llamaremos A , A , …) son negativos y tienden a -∞
1 2
que
! ! ⎧4π c 2, para m = n,
∫∫∫ H
Am × An dx dy dz = ⎨
⎩ 0 para m ≠ n,
(Hemos elegido 4pc2, en vez del en otras ocasiones habitual 1, porque más ade-
lante resultará ese valor algo más práctico que el último). Escribamos hn(<0) en la
280
4p 2r 2
forma - 2 n (rn > 0; para n → +∞, también rn → +∞); la sustitución en (A2)
nos da c
! ! ∞ ! ∞ !
A = A(x, y, z, t) ≡ ∑ A(x, y, z) ⋅ q"n (t) = ∑ An (x, y, z) ⋅ γ n cos 2πρn(t − τ n )
n =1 n =1
(g1, g2, …, t1, t1, … constantes reales arbitrarias). La energía de un campo arbi-
! ∞ !
trario A = ∑ A (x, y, z) ⋅ q"n(l ) [ A no se supone solución de (A), es decir, las qn(t)
n =1
son cualesquiera] vale
1 1 ⎛ ∂A ∂A ⎞
E=
8π
H
∫∫∫
(E × E + H × H)dxdydz =
8π
H
⎜⎝ ×
∂t ∂t ∫∫∫ + rot A × rot A⎟ dxdydz =
⎠
1 ∞ ⎛1 d d ⎞
= ∑
8π m,n =1 ∫∫∫
⎜⎝ 2 qm(t) ⋅ qm(t) Am × An + qm (t)qn(t)rot Am × rot An ⎟⎠ dxdydz.
c dt
H
dt
4π 2 ρm2
= ∫∫∫
H
(−ΔAm + grad div Am ) × An dxdydz =
c2 ∫∫∫
H
Am × An dxdydz ,
y, por ende,
1 ∞
⎛1 d d 4π 2 ρm2 ⎞ ! !
E=
8π
∑ ⎜⎝ c 2
m,n =1 dt
q!m(t) ⋅ q!n(t) +
dt c 2
q!m(t) ⋅ q!n(t)⎟
⎠ ∫∫∫ H
Am × An dxdydz =
1 ⎡⎛ d ⎤
∞ 2
⎞
= ∑ ⎢⎝ q!m(t)⎠ + 4π ρm[q!m (t)] ⎥.
2 m −1 ⎣ dt
2 2 2
Ahora bien, podemos considerar q1, q2, … como coordenadas que definen el es-
tado instantáneo del campo, es decir, como coordenadas en el espacio de los esta-
281
dos de L, cuyos impulsos conjugados pn se determinan (¡al igual que en Mecánica
clásica!) a partir de la expresión de la energía
1 ∞ ⎡⎛ d ⎞ ⎤
2
E= ∑ ⎢⎝ q!n ⎠ + 4π ρn q!n ⎥ :
2 n =1 ⎣ dt
2 2 2
⎦
∂ ∂ 1 ∞ 2
p!n =
⎛d !⎞
E = q!n,
∂t
E= ∑ ( p!n + 4π 2 ρn2q!n2),
2 n =1
∂ q
⎝ dt n ⎠
(cf. I.2). De aquí se derivan, siguiendo la pauta de la Mecánica clásica, las ecua-
ciones del movimiento:
d ∂ d ∂
p!n = − E = −4π 2 ρn2 q!n, q!n = E = p!n,
dt ∂q!n dt ∂ p!n
es decir,
d2
qn + 4π 2 ρn2 qn = 0,
dt 2
! ! ∞ !
A ≡ A(x, y, z) ≡ ∑ q"n An(x, y, z),
n =1
1 ∞ 2
E = ∑
2 n =1
( p!n + 4π 2 ρn2 q!n2 ),
282
1 2 d2
( p! + 4π 2 ρ 2 q! 2 ). Su ecuación del movimiento es, por lo tanto, 2 q! + 4π 2 ρ 2 q! = 0,
2 dt
cuya solución general es de la forma q = g cos 2 pr (t - t) (g, t arbitrarios). En
atención a esta su forma de movimiento, este sistema ha recibido el nombre de
«oscilador lineal de frecuencia r». Por consiguiente, hay que considerar L como
reunión de una infinidad numerable de osciladores lineales cuyas frecuencias son
las frecuencias propias del recinto vacío H: r1, r2, …
Esta descripción «mecánica» del campo electromagnético es importante, por-
que puede traducirse desde luego al lenguaje de la Mecánica cuántica en virtud de
los métodos habituales: el espacio de los estados de L se describe mediante las coor-
denadas q1, q2, … y en la expresión de E hay que sustituir pn, qn por los operadores
h ∂… …
, q!n , respectivamente, operadores que llamaremos Pn y Q n. Con esto que-
2π i ∂q!n
dan resueltas las cuestiones I. y 2. b); en particular, el operador por el que se pedía
en esta ultima es
1 ∞ !2
Hl = ∑ (Pn + 4π 2 ρn2Q!n2).
2 n =1
2.a) estaba de antemano resuelta, pues supusimos conocido H0. Por lo tanto,
nos queda por contestar tan sólo 2.g ), lo cual ahora no puede ocasionar ya difi-
cultad ninguna.
Desde el punto de vista de la Electrodinámica clásica, la interacción de S y L
se calcula de la siguiente manera: Supongamos que S consta de l partículas (por
ejemplo, protones y electrones) con cargas e1, …, el y masas m1, …, ml ; sean
x1 = q1, y1 = q2, z1 = q3, …, xl = q3l - 2, yl = q3l - 1 zl = q3l sus coordenadas cartesianas
(resumidas en el símbolo x antes introducido) y p1x, p1y, p1z, …, plx, ply, plz los co-
rrespondientes impulsos. En estas condiciones, el valor de la energía de interacción
es (de modo suficientemente aproximado)
l 142
e
∑ cmν [pνx Ax (xν , yν , zν ) + pνy Ay (xν , yν , zν ) + pνz Az (xν , yν , zν )].
ν =1 ν
h ∂ … h ∂ … h ∂ … … … …
, , , xν , yν , zν ,
2π i ∂xν 2π i ∂ yν 2π i ∂zν
que llamaremos Pvx, Pvy, Pvz, Qvx, Qvy, Qvz… Si, además, tenemos presente que
! ∞ !
A(x, y, z) = ∑ q"n An (x, y, z),
n =1
283
∞ l
eν ! x
Hi = ∑ ∑ Qn {Pν An, x (Qνx , Qνy , Qνz ) +
n =1 ν =1 cmν
+Pν y An, y (Qνx , Qνy , Qνz ) + Pνz An,z (Qνx , Qνy , Qνz )}.
Sin embargo, acerca de esto hay que observar que, en la sustitución de los produc-
–
tos pnx A n, x(xn, yn, zn), … por operadores, hemos fijado arbitrariamente el orden de
–
sucesión Pnx A n, x (Qnx, Qny, Qnz), … —aunque igualmente hubiésemos podido elegir
–
el A n, x (Qn , Qny, Qnz)Pnx, …— y que para asegurar el carácter hermítico del operador
x
resultante sería necesario, en rigor, dar a tales productos una forma simétrica cual
1 – –
la [Pnx A n, x (Qnx, Qny, Qnz) + A n, x (Qnx, Qny, Qnz) Pnx], … Afortunadamente, ello no
2
da lugar a diferencia alguna, pues
[Pνx An, x (Qνx , Qνy , Qνz ) + …] − [ An, x (Qνx , Qνy , Qνz )Pνx + …]
= [Pνx An, x (Qνx , Qνy , Qνz ) − An, x (Qνx , Qνy , Qνz )Pνx ] + … 143
h ∂ h
= An, x (Qνx , Qνy , Qνz ) + … = div An(Qνx , Qνy , Qνz ) = 0.
2π i ∂x 2π i
H = H0 + Hl + Hi
1 N 2 N l
e
H = H0 + ∑
2 n =1
(Pn + 4π 2 ρn2Qn2 ) + ∑ ∑ v Qn {Pνx An, x (Qνx , Qνy , Qνz ) +
n =1 ν =1 cmv
+Pν y An, y (Qνx , Qνy , Qνz ) + Pνz An,z (Qνx , Qνy , Qνz )}.
284
Resulta conveniente introducir en lugar de Pn, Qn el operador Rn y su adjunto Rn*
(¡no hermíticos!) definidos por
1 1
R!n = (2πρnQ!n + iP!n ), R!n* = (2πρnQ!n − iP!n )
2h ρn 2h ρn
1 h ! h
Se tiene entonces Q!n (Rn + R!n*), y pues P!nQ!n − Q!n P!n = 1,
2π 2 ρn 2π i
1 !2 1
R!n R!n* = (Pn + 4π 2 ρn2Q!n2 ) + ⋅1,
2h ρn 2
1 !2 1
R!n* R!n = (Pn + 4π 2 ρn2Q!n2 ) − ⋅1,
2h ρn 2
N N l
ev h !
H = H0 + ∑ h ρn ⋅ R!n* R!n + ∑ ∑ (Rn + R!n*) ⋅
n =1 n =1 ν =1 2π cmν 2 ρν
⋅[P An, x(Q , Q , Qνz ) + Pν y An, y(Qνx , Qνy , Qνz ) + Pνz An,z(Qνx , Qνy , Qνz )] + C,
ν
x
ν
x
ν
y
1 N
donde C es una constante, igual a ∑ h ρn. Y a que una constante aditiva en la
2 n =1
expresión de la energía carece de sentido físico, podemos prescindir de C; y esto
es tanto más indispensable cuanto que C → ∞ para N → +∞, divergencia que
perturbaría la correcta ultimación de la teoría*.
Se demuestra que el operador hermítico Rn*Rn es hipermáximo y que su espec-
tro es un espectro discreto puro constituido por los números 0, 1, 2, … Llamemos
Ψ0n(qn), Ψ1n(qn), Ψ2n(qn)… las correspondientes funciones propias.
* Es un hecho sobradamente conocido que los niveles de energía de un oscilador lineal de fre-
1 1
cuencia r son de la forma (n + ) h r. donde el nivel mínimo h r aparece como energía en el
2 2
cero absoluto en determinadas teorías de la radiación negra. La constante C es precisamente la suma
de estas energías mínimas, correspondientes a las funciones propias del recinto H hasta la N-sima.
No le parece bien a De Broglie ese prescindir de la constante (que en último término daría un
valor infinito a la energía) por aquello de que se trata en la teoría sólo de diferencias de energía,
1
antes se inclina a creer que estos términos h r no existen realmente en el caso de los fotones (Une
2
nouvelle théorie de la lumière, vol. I, París, Hermann, 1940, p. 245). (N. del T.)
285
1 h
[Es preferible escribir q en lugar de las variables qn, con los que
2π ρn
1 ρn 1 h ∂ 1 h 1 ∂
2πρn qn = 2π qn y = se transforman
2h ρn 2h 2h ρn 2π i ∂qn 2π
! 2 ρn i ∂q!n
1 1 1 ∂
en qy y, por lo tanto,
2 2 i ∂q
1 ⎛ ∂⎞ 1 ⎛ ∂⎞
R!n = ⎜ q + ⎟ , R!n* = ⎜ q− ⎟
2⎝ ∂q ⎠ 2⎝ ∂q ⎠
1 ∂2 1 1
R!n R!n* = − + q2 + ,
2 ∂q 2
2 2
1 ∂2 1 1
R!n*R!n = − + q2 − ,
2 ∂q 2
2 2
∞ ∞ ∞
Φ(ξ q1,…, qN ) = ∑ ∑…∑ akM1…MN ΦkM1 …MN (ξ, q1,… , qN ) =
k =1 M1 = 0 MN = 0
∞ ∞ ∞
=∑ ∑… ∑ akM1…MN Ψk (ξ )Ψ1M1(q1)… Ψ NM N (qN ).
k =1 M1 = 0 MN = 0
Carece de importancia el que aquí los elementos del sistema ortonormal comple-
to y los coeficientes del desarrollo aparezcan afectados de N + 1 índices en vez de
uno solo. El caso es que en virtud de las consideraciones hechas en II.2, podemos
afirmar que cabe concebir el espacio hilbertiano de las funciones de onda Φ como
espacio de las sucesiones N + 1 - múltiples akm … M cuyos elementos son tales que
1 N
286
∞ ∞ ∞
∑∑ ∑
2
resulta convergente la serie … akM1…M N . Sentado esto, ¿qué operador
k =1 M1 = 0 M N =1
es H en el espacio de Hilbert así concebido ? Para poder responder a esta pregun-
ta, calculemos primero H ΦkM … M : dado que H0 opera sólo sobre las x y Ψk(x) es
1 N
función propia de H0, con Wk, como valor propio, y dado que Rn*Rn opera sólo
sobre qn y Ψ(n)
M (qn) es función propia de Rn*Rn con Mn como valor propio, tendre-
n
mos
⎛ N
⎞ N l
e h
HΦkM1…M N = ⎜Wk + ∑ Mn ⋅ h ρn ⎟ ΦkM1…M N + ∑ ∑ ⋅
⎝ n =1 ⎠ n =1 ν =1 2π cmν 2 ρn
⋅[Pνx An, x (Qνx , Qνy , Qνz ) + Pν y An, y (Qνx , Qνy , Qνz ) + Pνz An,z (Qνx , Qνy , Qνz )]Ψk (ξ) ⋅
⋅Ψ1M1(q1)…(Rn + Rn* )ΨnMn (qn )… Ψ NM N (qN ).
Para todos los operadores A que, cual la expresión […], sólo afectan a la va-
riable ξ, es válido aplicar el desarrollo
∞ ∞
AΨk (ξ ) = ∑ (A Ψk ,Ψ j )Ψ j (ξ ) = ∑ (A) jk ⋅ Ψ j (ζ ),
j =1 j =1
donde, por lo tanto, (A)jk está definido por (A)jk = (A Ψk, Ψj). Además, conforme
se demuestra en el lugar antes citado,
⎛ 0 1 0 0 …⎞ ⎛ 0 0 0 0 …⎞
⎜ 0 0 2 0 …⎟ ⎜ 1 0 0 0 …⎟
R!n = ⎜ 0 0 0 3 … ⎟ , R!n* = ⎜ 0 2 0 0 … ⎟
⎜ 0 0 0 0 …⎟ ⎜ 0 0 3 …⎟
⎜⎝ .............................⎟⎠ ⎜⎝ .............................⎟⎠
287
∞ N
⎛ N
⎞ h
HΦkM1 …M N = ⎜Wk + ∑ Mn ⋅ h ρn ⎟ ΦkM1…M N + ∑ ∑ ⋅
⎝ n =1 ⎠ j =1 n =1 2 ρn
⎛ l eν ⎞
⎜⎝ ν∑
=1 2π cmν
[Pνx An, x (Qνx , Qνy , Qνz ) + …]jk ⎟ ⋅
⎠
⋅ ( Mn + 1 Φ jM1…Mn +1…M N + Mn Φ jM1…Mn −1…M N ).
Podemos ahora determinar ya la forma de H en cuanto operación sobre las akM … M : 1 N
se tiene
donde
⎛ N
⎞
HakM1…M N = a'kM1…M N = ⎜Wk + ∑ Mn ⋅ h ρn ⎟ akM1…M N +
⎝ n =1 ⎠
∞ N
h ⎛ l eν ⎞
+∑ ∑ ⎜ ∑ [Pνx An, x (Qνx , Qνy , Qνz ) + …]kj ⎟ ⋅
j =1 n =1 2 ρn ⎝ ν =1 2π cmν ⎠
⋅ ( Mn a jM1…Mn −1…MN + Mn + 1 a jM1…Mn +1…M N ). *
lo que era de prever, porque Mn = 0, 1, 2, … son los valores propios de R n* y R n y ψ n(qn) sus fun-
ciones propias. Además es
R n R n' - R n' R n = R n* R n'* - R n'* R n* = 0
y
R n R n'* - R n'* R n = dnn' ,
relación esta última en parte indicada en el texto. (N. del T.)
* Téngase muy en cuenta que con la notación H akM1 … MN designa Neumann la componente
kM1 … MN, ... del vector a' transformado del a mediante el operador H, los elementos hkM1 … MN,
k' M'1 … M'N, de cuya matriz son, más explícitamente,
288
∞ ∞ ∞
∑ ∑ ∑ … akM M …
2
1 2
k =1 M1 = 0 M 2 = 0
∞
⎛ ⎞
HakM1M2 … = a'kM1M2 … = ⎜Wk + ∑ Mn ⋅ h ρn ⎟ akM1M2 … +
⎝ n =1 ⎠
∞ ∞
+ ∑ ∑ wkjn ( Mn + 1 a jM1M2 …Mn +1… + Mn a jM1M2 …Mn −1…),
j =1 n =1
⎛ N
⎞ N
hkM1…M N ,k'M'1…M'N = ⎜Wk' + ∑ M'n ⋅ h ρn ⎟ δ kk' ∏ δ M s , M's +
⎝ n =1 ⎠ s =1
N l
eν h
+∑∑ Pνx An, x (Qνx , Qνy , Qνz ) + …]kk' ⋅
n =1 ν =1 2π cmν 2 ρn
⋅ ( M'n δ Mn, M 'n −1 + M'n + 1 δ Mn −1, M'n) ∏ δ M s , M's .
s ≠n
De aquí se deduce
∞
⎛ N
⎞ N l
e h
= ⎜Wk + ∑ Mn ⋅ h ρn ⎟ akM1…M N + ∑ ∑ ∑ ν [Pνx An, x (Qνx , Qνy , Qνz ) + …]kk' ⋅
⎝ n =1 ⎠ n =1 ν =1 k' =1 2π cmν 2 ρn
resultado que coincide con el del texto. La matriz hkM1 … MN, k'M'1 … M'N aparece así como suma de tres:
las dos primeras son matrices diagonales y corresponden a la energía del sistema S (la 1.ª) y a la
radiación (la 2.ª); la tercera no es una matriz diagonal, y corresponde a la energía de interacción
(matriz de perturbación) (N. del T.)
289
⎛ ∞
⎞ ∞
hkM1M2 …k'M'1M'2 … = ⎜Wk' + ∑ M'n ⋅ h ρn ⎟ δ kk' ∏ δ M s , M's +
⎝ n =1 ⎠ s =1
∞ ∞
+ ∑Wkk'n ( M'n δ Mn, M'n −1 + M' + 1 δ Mn −1, M'n ) ∏ δ M s , M's .
n =1 s ≠n
⎛∞ ⎞ ∞
(L)
hkM1M 2 …,k'M'1M' 2 …
= ⎜ ∑ M'n ⋅ h ρn ⎟ ⋅ δ kk' ∏ δ M s , M's (energía de L ),
⎝ n =1 ⎠ s =1
∞ ∞
(I)
hkM 1M 2 …,k'M'1 M' 2 …
= ∑Wkk'n ( M'n δ Mn, M'n −1 + M'n + 1 δ Mn −1, M'n ) ∏ d M s , M's
n =1 s ≠1
290
Esta energía puede interpretarse como energía Wk del sistema S aumentada en las
energías Mn ⋅ hrn (n = 1, 2, …), donde es natural concebir el número Mn = 0, 1,
2, … como número de partículas de energía hrn. Pero justamente esta energía hrn
es la que hay que atribuir según Einstein, a un quantum de luz de frecuencia rn
(cf. Nota 134). Por lo tanto, la estructura de H1 sugiere la hipótesis de que el campo
electromagnético existente en H (prescindiendo de la parte electrostática), es de-
cir, L, consta en realidad de quanta luminosos de frecuencias r1, r2, … y energías
hr1, hr2, …, y que los números M1, M2, … (= 0, 1, 2, …) representan el núme-
ro de quanta de cada clase. Cabe justificar el que no se consideren otras frecuencias
que precisamente r1, r2, …, ! por el hecho de ser éstas las frecuencias propias de
H: los potenciales vector An(x, y, s). gn cos 2 prn(t - tn) representan, en efecto, las
únicas oscilaciones electromagnéticas estacionarias posibles en H.
De todos modos esas especulaciones e interpretaciones tienen sólo un valor
heurístico. Una respuesta satisfactoria y definitiva a nuestra pregunta no la obten-
dremos hasta tanto no hayamos conseguido llegar a la expresión H de la energía
partiendo de un modelo en que la radiación L aparezca constituida por quanta de
luz. El haber desarrollado en primer lugar el punto de vista clásico, encuentra su
fundamento en que, en realidad, desconocemos la expresión de la energía de in-
teracción quantum luminoso-materia (en este punto no cabe la traducción de la
Electrodinámica clásica al nuevo lenguaje); pero ahora podremos determinarla por
comparación de coeficientes tan pronto el resultado deducido con la energía de
interacción general coincida formalmente con H.
¿Cuál es el espacio de los estados de L (1.ª cuestión) de acuerdo con la hipó-
tesis de los quanta de luz? Un único quantum luminoso (en el recinto vacío H)
puede caracterizarse por ciertas coordenadas, para designar cuyo conjunto usare-
mos del símbolo u.145 Sean Ψ1(u), Ψ2(u) … las funciones de onda correspondien-
tes a sus estados estacionarios (en H), las cuales constituyen un sistema completo,
y E1, E2, … los valores de la energía a ellos vinculados. En el esquema ! ! anterior,
corresponden a aquéllas las oscilaciones electromagnéticas propias A1, A2, … y a
éstos las frecuencias r1, r2, … (En virtud de la hipótesis de Einstein debe ser
En = hrn, lo que también demostraremos.) Es menester hacer observar aquí, que
ya en el estudio electromagnético antes llevado a cabo habíamos normalizado la
energía luminosa de modo que su valor mínimo fuese 0, valor que correspondía
a los índices M1 = M2 = … = 0, con lo que hemos reconocido la no existencia
como uno de los posibles estados de la luz, lo que también justifican los hechos:
los quanta de luz pueden ser efectivamente emitidos y absorbidos, es decir, creados
y aniquilados. Sin embargo, una tal concepción es enteramente extraña a la Me-
cánica cuántica: cada partícula contribuye con sus coordenadas a la estructura del
espacio de los estados del sistema, y forma así parte tan íntimamente de la formal
descripción del sistema total, que es imposible aniquilarla en absoluto. Debemos,
pues, incluso tras su aniquilación, atribuirle una suerte de existencia latente, de
forma que aun entonces pertenezcan sus coordenadas al espacio de los estados. Por
consiguiente, uno de los estados Ψn(u) con una energía En = 0, debe corresponder
291
Ahora bien, los quanta de luz tienen la fundamental propiedad de ser comple-
tamente iguales entre sí, esto es, no existe en el mundo medio alguno para poder
diferenciar entre ellos dos de tales quanta cuyas coordenadas coincidan. De otro
modo: un estado en que para el quantum luminoso n.° m es um = u' y para el n.° n
es un = u'', en nada se distingue de aquel estado en que um = u'' y un = u' (¡este
modo de expresarse es propio de la Mecánica clásica, no de la cuántica, ya que
especificamos el valor de u y no la función de onda ϕ (u)!). En términos de Me-
cánica cuántica, esto nos dice que los estados correspondientes a las funciones de
onda f (ξ, u1, …, um …, un, …, uS) y f (ξ, u1, …, un …, um, …, uS) son indiscer-
nibles, es decir, que cada magnitud física R tiene en ambos el mismo valor medio
(y por consiguiente, pues esto es también cierto para las F(R), también la misma
estadística, cf. la discusión de V1 y V2 en III.1). Designemos con Omn la operación
funcional que permuta entre sí um, un (como se reconoce desde luego, O2mn = 1);
el resultado que precede puede enunciarse diciendo que R tiene el mismo valor
medio en f que en Omn f , esto es,
(Rf, f ) = (ROmn f , Omn f ) = (OmnROmn f , f ),
de donde
R = OmnR Omn, OmnR = ROmn.
Esto significa que, en el presente caso, sólo aquellos operadores R que son permu-
tables con todos los Omn (m, n = 1, …, S; m ≠ n), es decir, atendiendo a la defi-
* Tras algunas vacilaciones, y no sé si traicionando un poco el pensamiento del autor, nos hemos
decidido por traducir das Vorhandensein y das Nichtvorhandensein des Lichtquants por presencia y
no-presencia del quantum luminoso, entre otras razones porque, para él mismo, en ambos estados los
quanta existieren (p. 146, 8.º renglón). Oponemos así la no-presencia, y no la ausencia, a la presen-
cia del fotón, aludiendo con ello a ese espacial estado de energía nula (el état d’annihilation de De
Broglie). (N. del T.)
292
nición de los Omn, sólo aquellos en los cuales todas las coordenadas intervienen
por modo simétrico, correspondan a magnitudes físicas.
Un operador R que se encuentre en este caso transforma una función de onda
f , simétrica respecto de todas las variables u1… uS (es decir, una f tal que Omn f = f ;
m, n = 1, …, S; m ≠ n); en otra de igual naturaleza: OmnR f = ROmn f = R f. Estas
funciones f –constituyen una variedad lineal cerrada, por lo tanto un espacio
hilbertiano E∞(S ), que es parte del espacio
– (S )de Hilbert E∞ de todas las f, y los R dan,
(S )
pleto en E∞(S ). –Se trata ahora de determinar con su ayuda un sistema ortonormal
completo en E∞(S ). Sean M0, M1 … números cualesquiera iguales a 0, 1, 2, …,
aunque sujetos a la condición de M0 + M1 + … = S; distintos de cero, sólo hay,
pues, un número finito. Usemos de la notación [M0, M1 …] para designar la to-
talidad de los sistemas de índices n1, …, ns en los que aparezca M0 veces el 0, M1
S !
veces el 1, … —el número de tales sistemas entre sí diferentes es . Pon-
gamos M0!M1! …
S !
Puesto que ΦM M … es suma de sumandos distintos, cada uno de
0 1
M0!M1! …
los cuales está repetido M0! M1! … veces, sumandos que son ortogonales dos a dos
y de módulo unidad, el cuadrado del módulo de ΦM M … es igual a (M0!, M1!, …)2
0 1
S !
, es decir,
M0!M1! …
Φ M0 M1… = S !, M0! M1 ! …
Dos ΦM M … diferentes son sumas de sumandos ortogonales dos a dos, y por ende
0 1
293
Por consiguiente, si dicha función es ortogonal a todas las jk(ξ) ΨM M … (u1, …, uS) 0 1
es asimismo ortonormal a jk(ξ) Ψn (u1) … Ψn (uS) y, por ende, es 1– (S )≡ 0. Luego las S
En segundo lugar, [2 b)] cada quantum de luz l' posee la energía Hl' Ψn(u) =
= En Ψn (u), y, por lo tanto, el m-simo (m = 1, 2, …, S ), considerado como ele-
mento de S + L, tiene como operador de energía el
∞ ∞
=∑ ∑ δ (n1 − p1) …Vknm / jpm … δ (nS − pS ) ⋅
j =1 p1,… pS = 0
294
Hϕk (ξ )Ψn1 (u1)… ΨnS (uS ) = (Wk + En1 + … + EnS )ϕk (ξ )ΨnS (uS ) +
∞ ∞ S
+∑ ∑ ∑ δ (n1 − p1) …Vkn / jp m m
… δ (nS − pS ) ⋅ ϕ j (ξ )Ψ p1 (u1)… Ψ pS (uS ),
j =1 p1,… pS = 0 m =1
⎛ ∞
⎞
Hϕk (ξ )ΦM0 M1…(u1, … uS ) = ⎜Wk + ∑ Mn En ⎟ ϕk (ξ )ΦM0 M1…(u1, … uS ) +
⎝ n=0 ⎠
∞ ∞
+∑ ∑ MnVkn/ jpϕ j (ξ )ΦM0 M1…Mn −1…M p +1…(u1, … uS )
j =1 n, p = 0
⎛ ∞
⎞
Hϕk (ξ )Ψ M0M1…(u1, … uS ) = ⎜Wk + ∑ Mn En ⎟ ϕk (ξ )Ψ M0 M1…(u1, … uS ) +
⎝ n=0 ⎠
∞ ∞
+∑ ∑ Mn [M p + 1 − δ (n − p)]Vkn/ jpϕ j (ξ )Ψ M0 M1…Mn −1…M p +1…(u1, … uS ).
j =1 n, p = 0
–
Ahora bien, la más general función f (x, u1, …, us) del E∞(S ) puede ser desarro-
llada en serie de funciones ΨM M …: 0 1
∞ ∞
f (ξ ,…, uS ) = ∑ ∑ akM0 M1…ϕk (ξ ) Ψ M0 M1…(u1, … uS )
k =1 M0, M1,…= 0
M0 + M1 + … = S,
–
lo que permite concebir el E∞(S ) como espacio hilbertiano de las sucesiones
akM M … (k = 1, 2, …; M0, M1, … = 0, 1, 2, …; M0 + M1 + … = S ), tales que la
0 1
∑
2
akM0 M1… sea finita. Desde este punto de vista,
k , M0, M1,…
H akM M … = a'kM M …
0 1 0 1
295
∞ ∞
H∑ ∑ akM0 M1…ϕk (ξ ) Ψ M0 M1…(u1, …, uS )
k =1 M0 , M1,…= 0
(M0 + M1 + … = S)
∞ ∞
=∑ ∑ a'kM0 M1…ϕk (ξ ) Ψ M0 M1…(u1, …, uS )
k =1 M0, M1,…= 0
(M0 + M1 + … = S);
luego
∞
⎛ ⎞
HakM0 M1… = a'kM0 M1… = ⎜Wk + ∑ Mn En ⎟ akM0 M1…
⎝ n=0 ⎠
∞ ∞
+∑ ∑ Mn [M p + 1 − δ (n − p)] V kn/ jp a jM0 M1…Mn −1…M p +1
j =1 n, p = 0
∞ ∞
S − M1 − M 2 − … + 1
+ ∑ ∑ Mn V j /kn a jM1M2 …Mn −1…
j =1 n =1 S
∞ ∞
S − M1 − M 2 − …
+ ∑ ∑ Mn + 1 V j /kn a jM1M2 …Mn +1…
j =1 n =1 S
∞ ∞
+∑ ∑ Mn [M p + 1 − δ (n − p)]V kn/ jp a jM1M2 …Mn −1…Mp +1
j =1 n, p =1
296
Finalmente, hagamos que S → +∞: las akM M están definidas entonces para todas
1 2
⎛ ∞
⎞
HakM1M2 … = a'kM1M2 … = ⎜Wk + ∑ Mn En ⎟ akM1M2 …
⎝ n =1 ⎠
∞
+ ∑V k / j a jM1M2 …
j =1
∞ ∞
+ ∑ ∑ (V j /kn Mn a jM1 M2 …Mn −1… + V k / jn Mn + 1a jM1M2 …Mn +1…)
j =1 n =1
∞ ∞
+∑ ∑ Vkn/ jp Mn [M p + 1 − δ (n − p)] a jM1M2 …Mn −1…Mp + 1
j =1 n, p =1
Con esto queda brillantemente resuelta una de las más graves paradojas de las
primeras formas de la teoría de los quanta: la doble naturaleza de la luz (ondas
electromagnéticas, de una parte; corpúsculos discretos, quanta de luz, por otra).148
Realmente es difícil hallar una interpretación directa, intuitiva, de la energía de
interacción entre luz y materia que acabamos de calcular, tanto más cuanto que
los únicos elementos de matriz Vkn/jp distintos de cero (los correspondientes a n = 0,
p ≠ 0 y n ≠ 0, p = 0) dependen del número S de todos los quanta posibles (son
1
proporcionales a ) —aunque al final se debe llevar a cabo el paso al límite
S
S→ +∞. De todos modos, se la puede admitir en atención a que toda descripción
basada en un modelo es siempre sólo algo aproximado, mientras el exacto conte-
nido de la teoría halla su expresión justamente en la del operador H.
297
h d ⎛ ∞
⎞
akM1M2 … = −HakM1M2 … = ⎜Wk − ∑ Mn ⋅ h ρn ⎟ akM1M2 …
2π i dt ⎝ n =1 ⎠
∞ ∞
− ∑ ∑ wkjn ⋅ ( Mn + 1 a jM1M2 …Mn +1 + Mn a jM1M2 …Mn −1…).
j =1 n =1
Dado que los primeros sumandos (los que no contienen las wnkj) constituyen la
parte principal de la variación de akM M , es cómodo separarlos mediante el cambio
1 2
de variables
∞
2π i ⎛ ⎞t
−
h ⎜⎝
∑
⎜ wk + Mn ⋅h ρn ⎟
⎟⎠
akM1M2 … (t) = e n =1
⋅ bkM1M2 … (t),
d
dt
bkM1M2 … = −
2π i ∞ ∞ n − 2hπi (w j − wk + hρn)t
∑ ∑ wkj e
h j =1 n =1
(
Mn + 1b jM1M2 …Mn +1 +
+e
−
2π i
h
(w j − wk − h ρn )t
Mn b jM1M2 …Mn −1… . )
El significado físico de los akM M … y de los bkM M … resulta de su propio origen:
para S = M — +M — +M — + … finita, ϕ –(x), Ψ — — (u , …, u ) era aquel estado
1 2 1 2
0 1 2 k MM … 1 S 0 1
(Únicamente un número finito de factores son ≠1, puesto que siempre, con sólo
—
un número finito de excepciones, es Mn = Mn = 0). A este resultado cabe también
atenerse, naturalmente, después del paso al límite S → ∞. Para un estado arbitra-
rio akM M … de S + L, dicha configuración (en el supuesto de que se lleve a cabo la
1 2
medición; cf. lo dicho en III.3 acerca del espectro discreto puro) tiene la probabi-
lidad
298
2
∑
2 2
akM1M2 …δ (k − k ) δ (M1 − M 1) δ (M 2 − M 2 )… = ak M 1 M 2 … = bk M 1 M 2 … .
kM1M 2 …
–
En particular, la probabilidad total de que S se halle en la k -ésima órbita cuánti-
ca vale
∑
2
θk− = bk M 1 M 2 … .
M 1 M 2…
Todas las demás bkM M … son iguales a 0, en esta aproximación, excepto bk–M— M— …,
1 2 1 2
que, salvo términos del orden de t 2, debe ser igual a su valor inicial 1. No obstan-
d
te, es muy delicado el concluir en este caso que bk–M— M— … = 0, puesto que el se-
dt 1 2
términos del orden de t 2, sino del de t.149 Sin embargo, la determinación directa
de bk–M— M— … no es en modo alguno necesaria, pues de
1 2
2
∑ ∑
2
bkM1M2 … = akM1M2 … = 1,
kM1M 2 … kM1M 2 …
299
∑
2 2
bk M 1 M 2 … = 1 − bkM1M2 … .
kM1M 2 …≠ k M 1 M 2 …
Es aquí claramente reconocible el aspecto cualitativo del proceso: un bk–M— M— … M— + 1 …
, 1 2 n
⎛ W − Wk ⎞
1 − cos 2π ⎜ ρn − k ⎟t
2 2 2 ⎝ h ⎠ , 151
bk M 1 M 2 …M n +1… = 2 (M n + 1) wkkn 2
h ⎛ Wk − Wk ⎞
ρ
⎜⎝ n − ⎟
h ⎠
⎛ W − Wk ⎞
1 − cos 2π ⎜ ρn − k ⎟t
2 2 2 ⎝ h ⎠ , 151
bk M 1 M 2 …M n −1… = M n wkkn 2
h2 ⎛ Wk − Wk ⎞
ρ
⎜⎝ n − ⎟
h ⎠
⎛ W − Wk ⎞
1 − cos 2π ⎜ ρn − k ⎟t
∞
2 ⎝ h ⎠
θk = ∑ 2 (M n + 1) wkkn
2
2
n =1 h ⎛ Wk − Wk ⎞
ρ
⎜⎝ n − ⎟
h ⎠
⎛ W − Wk ⎞
1 − cos 2π ⎜ ρn − k ⎟⎠ t
∞
2 ⎝ h
+ ∑ 2 M n wkk
n 2
2
n =1 h ⎛ Wk − Wk ⎞
⎜⎝ ρn − ⎟
h ⎠
300
∞
(La primera ∑ corresponde a los procesos de emisión, la segunda a los de absor-
n =1
ción.) Para obtener estas 0k en términos finitos deberemos hacer algunas hipótesis
que permitan simplificar la cuestión, admitiendo, de una parte, que H es muy
grande (es decir, que su volumen V → ∞), y, de otra, tratando estadísticamente
las oscilaciones propias del recinto H. Con tal fin, en cada una de las dos sumas
reunamos los términos que corresponden a frecuencias rn comprendidas entre r
y r + dr (dr << r) a la vez que sustituimos wnkk por su valor: la primera suma
nos da
1 ⎡ l
eν x
2
⎤
⎢ ∑ n ∑ [P A (Q
ν n, x ν
x
, Qν
y
, Qν
z
) + …]kk (M n + 1)⎥ ⋅
4π c h ρ ⎢⎣ρ ≤ ρn < ρ + d ρ ν =1 mν
2 2
⎥⎦
⎛ W − Wk ⎞
1 − cos 2π ⎜ ρ − k ⎟t
⎝ h ⎠
⋅
⎛ Wk − Wk ⎞
⎜⎝ ρ − ⎟
h ⎠
— + 1 y Wk– - Wk por M — y
y lo mismo la segunda, salvo la sustitución de M n n
Wk - Wk– h
. Es menester ahora determinar los paréntesis rectangulares […].
h
La manera como se expresan normalmente M1, M2, …, no es indicando sus
valores, sino mucho menos: lo que se da son los valores de las intensidades, esto
es, la energía luminoso I (r) dr correspondiente al intervalo espectral r, r + dr y
a la unidad de volumen, de la que se deduce
∑ M n ⋅ h ρn ≈ hρ ∑ M n = V ⋅ I ( ρ )d ρ ,
ρ ≤ ρn < ρ + d ρ ρ ≤ ρn < ρ + d ρ
VI ( ρ )
∑ Mn =
hρ
d ρ.
ρ ≤ ρn < ρ + d ρ
8pVr2
El número de frecuencias rn comprendidas en el intervalo r ≤ rn + d r es dr,
c3
110
según una fórmula de Weyl (cf. loc. cit. Nota ) válida asintóticamente en gene-
ral*, y en consecuencia
* Para su validez es necesario que el recinto H sea de dimensiones grandes respecto de la lon-
c
gitud de onda l = y que no presente cavidades cuyas dimensiones sean del orden de l. Por lo
r
demás, la forma de H puede ser cualquiera. (Cf. H. Weyl, Math. Ann., t. 71, 1911, p. 441 y M. Von
Laue Ann der Physik, t. 44, 1914, p. 1.197). (N. del T.)
301
⎛ 8π h ρ 3 ⎞
V ⎜ I (ρ) + ⎟
⎝ c3 ⎠ d ρ.
∑ (M n + 1) ≈ hρ
ρ ≤ ρn < ρ + d ρ
l 2
e
Supuesto que ∑ mν [Pνx An, x(Qνx , Qνy , Qνz ) + …]kk oscile con suficiente rapidez
ν =1 ν
⎛ 8π h ρ 3 ⎞
V ⎜ I (ρ) + ⎟
⎝ c3 ⎠ d ρ VI (ρ)
wkk (ρ) y wkk (ρ) d ρ.
hρ hρ
Wk– - Wk Wk - Wk–
Finalmente, si escribimos nk–k , nkk– en lugar de queda, en de-
finitiva, como valor de la suma: h h
V ∞
⎧⎛ 8π h 3 ⎞ 1 − cos 2π (ρ − ν kk )t
θk =
4π 2c 2 h 2 ∫
0
⎨⎜⎝ I (ρ) + 3 ρ ⎟⎠
⎩ c (ρ − ν kk )2
+
Para valores de t pequeños, esta integral es del orden de t 2 (debido a la presencia
del factor 1 - cos 2p (r - n)t), excepto en aquellas partes del intervalo de integra-
ción en las que uno de los dos denominadores (r - nk–k )2, (r - nkk–)2 es pequeño.
Allí pueden aparecer contribuciones al valor total de la integral que sean grandes
respecto de t 2, y cuando así suceda son precisamente estas contribuciones lo que
constituye la expresión asintótica de θk. Se demostrará en lo que sigue que así
ocurre en efecto, pues obtendremos contribuciones a dicho valor del orden de t.
Estas son, en consecuencia, las que hay que determinar.
W – - Wk
Dado que nk–k = -nkk– = k , para Wk– > Wk únicamente es pequeño el
h
denominador del primer término, mientras que el del segundo tan sólo lo es para
Wk– < Wk. Por consiguiente, para Wk– < Wk conservaremos sólo el primero, y
para Wk– < Wk el segundo solamente. Además, los valores de r que no pertenecen
al entorno de nkk– o de nk–k contribuyen a la integral con valores del orden de t 2, por
lo cual está justificado el sustituir el integrando por su valor para
Wk − Wk
ρ = ν kk siendo ν kk = ,
h
302
Iw –(n –) 8ph
es decir, por kk 2 kk , donde I = I (n–kk–) + 3 n–kk–3 en el primer caso e igual a
nkk– c
I (n– –) en el segundo. Resulta así
kk
VIwkk (ν kk ) ∞ 1 − cos 2π ( ρ − ν kk )t
θk
4π 2c 2 h 2vkk2 ∫0 ( ρ − ν kk )2
d ρ.
∞ ∞
Por otra parte, podemos sustituir la ∫0 por la ∫−∞, ya que una tal sustitución
equivale a introducir un valor del orden de t 2. Si llamamos x = 2p (r - n–kk–)t a la
nueva variable de integración, y consideramos que
1 − cos 2π (ρ − ν kk )t
∞ 1 − cos x
∞
∫−∞ (ρ − ν kk )2
d ρ = 2π t ∫−∞ x2
dx = 152 = 2π 2t,
V · I · wkk–(n–kk–)
θk = t,
2 h 2n–kk–2
y, además, queda demostrado que θk es del orden de t.
Para poder determinar las wkk– (n–kk–) debemos encontrar para
l 2
e
∑ mν [Pνx An, x (Qνx , Qνy , Qνz ) + …]kk
ν =1 ν
una expresión en la que no intervengan los An, lo que se consigue sustituyendo A n,
debido a sus rápidas variaciones, por un vector γ n de longitud constante orientado
al azar. Su independencia de las Qnx, Qny, Qnz, trae consigo que este vector sea igual
al producto de un vector numérico por la matriz 1; y el valor constante de su
longitud, gn, hay que determinarlo atendiendo a la condición de normalización
! !
∫∫∫ H
An × An dxdydz = 4π c 2
de la que se sigue
4pc2
Vgn2 = 4pc 2, gn2 = .
V
1 ! !
A la componente A2n,x le corresponde por término medio de An × An = An,2 x + An,2 y + An,z
2
= γ n2,
! ! 1 4pc2 3
An × An = An,2 x + An,2 y + An,z
2
= γ n2, y por ende, es igual a gn2 = valor éste que es co-
–2 –2 3 3V
mún a ella y a las otras dos An, y, A n, z. En consecuencia es
303
l 2
e
wkk (ρ) = promedio de ∑ ν [Pνx An, x (Qνx , Qνy , Qνz ) + …]kk
ν =1 mν
ρ ≤ ρn < ρ + d ρ
4π c 2 ⎡ ⎛ l eν ⎞ 2 ⎤
⋅≈ ⎢⎜∑ Pνx⎟ + …⎥ .
3V ⎢⎣ ⎝ ν =1 mν ⎠ kk ⎥⎦
luego se tiene 153
h 1
H0Qnx - Qnx H0 = ⋅ ⋅ Pnx,
2pi mn
y pues H0 es una matriz diagonal con los elementos no nulos W1, W2, …
[(H0)kj = Wk dkj], resulta de aquí
2pimn 2pimn
(Pnx)kk– = (H0Qnx - QnxH0)kk– = (Wk - Wk–) (Qnx)kk– =
h h
= ± i ⋅ 2pmn n–kk–(Qnx)kk–.
Por consiguiente,
16 π 3c 2 2 ⎛ ⎛ l ⎞
2
x⎞
wkk (ρ) = ν ⎜ ∑
2V h 2 kk ⎝ ⎜⎝ ν =1
eν Q ν ⎟⎠ + …⎟
kk ⎠
8π 3 ⎛ ⎛ l ⎞
2
x⎞
θk = 2 ⎜ ⎜ ∑ eν Qν ⎟ + …⎟ ⋅ It.
3h ⎝ ⎝ ν =1 ⎠ kk ⎠
304
8π 3 ⎛ Wk − Wk ⎞
2. Pasa a un estado más bajo k (Wk < Wk ) w I veces por
3h 2 kk ⎝ h ⎠
segundo, es decir, proporcionalmente a la intensidad del campo de radiación en
W - Wk–
la correspondiente frecuencia de Bohr, k .
h
3
64 π 4 ⎛ Wk − Wk ⎞
3. Pasa a un estado más bajo k (Wk < Wk ) wkk veces por
3hc 3 ⎝ h ⎠
segundo, es decir, con completa independencia del campo de radiación presente.
1. Corresponde a los procesos de absorción a expensas del campo de radiación;
2, a procesos de emisión motivados por dicho campo; 3, en cambio, son procesos
de emisión espontáneos que siempre puede desarrollar el átomo mientras no ha
encontrado un reposo definitivo en el más bajo de sus estados estacionarios (Wk mí-
nima).
Los tres mecanismos de transición 1-3 fueron hallados por Einstein median-
te consideraciones termodinámicas ya antes del descubrimiento de la Mecánica
cuántica 154, y sólo faltaba encontrar el valor de la «probabilidad de transición»
wkk–. El que precede
2 2 2
⎛ l ⎞ ⎛ l ⎞ ⎛ l ⎞
wkk = ⎜ ∑ eν Qνx⎟ + ⎜ ∑ eν Qνy⎟ + ⎜ ∑ eν Qνz⎟
⎝ ν =1 ⎠ kk ⎝ ν =1 ⎠ kk ⎝ ν =1 ⎠ kk
305
Ahora bien, en general (Rϕ, ϕ) = traza (P[ϕ] ⋅ R); porque, elegido un sistema
ortonormal completo Ψ1, Ψ2, … en el que Ψ1 = ϕ (de forma que Ψ2, Ψ3, … son
ortogonales a ϕ), se tendrá
P[ϕ]Ψn = ϕ, para n = 1
{ , ∣
0, en caso contrario
y, por lo tanto,
307
U = ∑ wn P[ϕn ]
n
es definido, por causa de serlo todos los P[ϕ ] y ser todas las wn ≥ 0; su traza es igual
n
Advertido ya que, junto a los estados, debemos dirigir nuestra atención a mez-
clas de ellos, pasemos al estudio general del problema.
Olvidemos por completo toda la Mecánica cuántica y atengámonos a lo que
sigue: Se da un sistema S155, el cual, para el experimentador, está caracterizado por
la indicación de todas las magnitudes en él efectivamente medibles y la de los en-
laces funcionales de unas con otras. Por magnitud hay que entender propiamente
el cómo debe ser medida y cómo hay que leer su valor en las posiciones de los
índicas de los aparatos de medición o calcularlo a partir de ellas.*
Si R es una magnitud y f (x) una función cualquiera, la magnitud f (R) se de-
fine del siguiente modo: para medir f (R), se mide R, y si a es el valor que se en-
cuentra para R, f (R) tiene el valor f (a). Vemos así que junto con R se miden de
una vez todas las magnitudes f (R) (R fijo; f (x), es una función arbitraria), lo que
constituye un primer ejemplo de magnitudes simultáneamente mensurables. De
modo general, de dos magnitudes R, S diremos que son medibles simultáneamen-
te cuando existe un dispositivo que las mide a la vez en el mismo sistema, sólo que
sus respectivos valores hay que calcularlos de modo diferente a partir de las lectu-
ras efectuadas. (En la Mecánica clásica, como es sabido, todas las magnitudes son
* Con esta proposición está íntimamente vinculado uno de los postulados que adopta J. L.
Destouches en su construcción axiomática de la Física teórica. Dice:
«Postulat 4.—a) Il y a plusieurs types de «mesures effectuées par un observateur sur un système
physique observable au moyen d’un appareil de mesure» qu’on peut figurer par des lettres. Nous les
désignerons abréviativement par «grandeurs physiques».
b) Un appareil de mesure suffit pour définir un type, c’est-à-dire une grandeur physique.
Faisons remarquer toutefois qu’éventuellement deux appareils distincts pourront servir à mesu-
rer la même grandeur ce qui revient à dire qu’il est possible que deux appareils distincts définissent
la même grandeur. Un type de mesure n’est donc pas une fonction biunivoque d’un appareil, mais
seulement fonction univoque.» (Jean-Louis Destouches, Principes fondamentaux de Physique théo-
rique, París, Hermann, 1942, p. 20). El cómo se mide es, pues, lo que caracteriza una magnitud.
Ello se echa de ver patentemente, en el texto de Neumann, al definir la magnitud correspondiente
a una propiedad (p. 176) y también en la definición de magnitud igual idénticamente a la unidad
(p. 221). (N. del T.)
308
309
bas mediciones no se perturban entonces entre sí, aunque tengan lugar en la mis-
ma colectividad [S1, …, SN], y se puede conseguir que la alteración que causan
en ésta se limite a una porción arbitrariamente pequeña de la misma, con tal que
2M
sea bastante pequeño —lo que es posible para un N suficientemente grande,
N
incluso para M grande, de acuerdo con lo dicho en 2.
Vemos, pues, que el recurrir a colectividades estadísticas, es decir, a los métodos
propios del cálculo de probabilidades, se nos sugiere por la posibilidad de que la
medición influya sobre el sistema único y por la eventual imposibilidad de medir
simultáneamente varias magnitudes. Una teoría general, claro está, debe tomar en
consideración estas circunstancias, pues desde el primer momento era de presumir
su aparición en los procesos elementales y hoy ésta se halla fuera de duda tras la
minuciosa discusión de los hechos. Las colectividades estadísticas allanan estas
dificultades y hacen de nuevo posible una descripción objetiva, independiente de
los casos fortuitos, como también de que, en un estado dado, se mida una u otra
de dos magnitudes no medibles simultáneamente.
No es extraño que en tales colectividades una magnitud física acaso no posea
un valor preciso, es decir, que la distribución de sus valores no conste de un único
valor a0,160 sino que sean posibles diferentes valores o intervalos de valores y exis-
ta, por lo tanto, una dispersión positiva.160 Cabe siempre concebir dos razones
distintas para este comportamiento:
310
ma que dos objetos iguales S1, S2—es decir, dos ejemplares del sistema S que se
encuentran en el mismo estado—en cualquier operación imaginable se compor-
tarán igualmente, es cierta, porque es trivial. Pues si en una misma intervención
S1 y S2 se comportasen diversamente (p. e., diesen lugar a valores diferentes en la
medición de una misma magnitud R), no los llamaríamos iguales; por consiguien-
te, en una colectividad [S1, …, SN] que presente dispersión relativamente a una
cierta magnitud R, no todos los sistemas S1, …, SN pueden hallarse, por defini-
ción, en el mismo estado. (La aplicación práctica de esto a la Mecánica cuántica
sería la siguiente: Puesto que en la medición de la misma magnitud R en varios
sistemas, todos ellos en el estado al que corresponde la función de onda ϕ, resultan
valores diferentes —cuando j no es función propia del operador R de R161—,
estos sistemas, por ello precisamente, no son iguales entre sí, esto es, la descripción
que procura la función de onda no es completa. Luego debieran existir otros ele-
mentos determinantes todavía, los «parámetros ocultos», citados en III.2. Veremos
acto seguido que no cabe aceptar esto sin más.) De aquí resulta que en una gran
colectividad estadística, en tanto exista aún una magnitud que muestre en ella
dispersión, cabe la posibilidad de descomponerla en partes diversamente consti-
tuidas atendiendo a los diferentes estados de sus elementos. Eso es tanto más
plausible cuanto que parece existir, en efecto, un método simple para realizar una
tal descomposición, a saber: descomponer la colectividad en partes de acuerdo con
los diferentes valores que ha tomado R en ella. Una colectividad verdaderamente
homogénea debiera obtenerse tras haber llevado a cabo esta subdivisión o descom-
posición respecto de todas las magnitudes R, S, T, … Al final, dichas magnitudes
no mostrarían dispersión en ninguna de las colectividades parciales.
En primer lugar, los asertos contenidos en las últimas proposiciones son falsos,
porque no se ha tenido en cuenta que la medición altera el sistema medido. Cuan-
do se mide R (que, para simplificar, supondremos es susceptible de tomar sólo dos
valores a1, a2) y se obtiene a1, por ejemplo, en S'1, …, S'N y a2 en S''1, …, S''N - N ,
1 1
siempre igual a a1, a2, respectivamente). Con todo, esto no es meramente una
descomposición de [S1, …, SN] en dichas dos partes, pues cada sistema Si fue
alterado por la medición de R. Cierto es que se encontró, según 1, un método
para determinar la distribución de valores de R de forma que se alterase en muy
poco la colectividad [S1, …, SN] (efectuando la medición sólo en S1, …, SM,
M
donde M es grande, y pequeño
N ) ; sin embargo, este procedimiento no conduce
a ninguna descomposición, pues no se concreta acerca de la mayor parte de los
sistemas S1, …, SN (a saber, acerca de SM + 1, …, SN) qué valor tiene R en cada
uno de ellos. Y es ahora cuando se echa de ver que falla totalmente el método
arriba indicado para formar colectividades completamente homogéneas. Pues, en
efecto, si se mide una segunda magnitud S (susceptible asimismo de tomar sólo
dos valores, b1, b2) en [S'1, …, S'N ] y en [S''1, …, S''N - N ] y se encuentra el valor
1 1
311
b2, b1, b2). Pero aunque las dos primeras son partes de [S'1, …, S'N1], y las dos
segundas de [S''1, …, S''N - N1], colectividades éstas en las que no la presentaba R,
en cada una de ellas puede R presentar dispersión, ¡porque la medición de S ha
alterado los sistemas de que se compone cada una! Es decir, no se puede progresar,
porque cada paso deshace el resultado de los que lo preceden,162 y ninguna acu-
mulación de sucesivas mediciones es capaz de establecer un orden causal en este
caos; porque justamente en la esfera de lo atómico, nos encontramos en la linde
del mundo físico, donde cada medición representa una perturbación del mismo
orden de magnitud que lo medido, y de ahí que resulte esencial la influencia sobre
éste; no se puede progresar, en esencia, a causa de las relaciones de indeterminación.
No existe, por lo tanto, método alguno que haga posible en cualquier caso el
subdividir (sin alterar sus elementos) una colectividad que muestra dispersión, o
cuando menos que permita avanzar hasta llegar a colectividades homogéneas, colec-
tividades que solemos concebir integradas por objetos iguales entre sí y causalmente
determinados. Sin embargo cabría intentar mantener la ficción de que cada colecti-
vidad que presente dispersión puede ser descompuesta en dos (o más) partes, dife-
rentes de ella y entre sí, y esto sin alteración de sus elementos, o sea, de forma que la
mezcla de las dos colectividades resultantes diese de nuevo la colectividad primitiva.
Vemos, pues, que el intento de fundamentar la causalidad como definición de la
igualdad ha dado lugar a una cuestión de hecho que puede y debe ser contestada, y
tal vez la respuesta sea negativa. La cuestión es ésta: ¿es realmente posible representar
cada colectividad [S1, …, SN], en la que ciertas magnitudes R presentan dispersión,
como mezcla de dos (o más) colectividades, diferentes entre sí y diferentes de ella?
(El caso de ser el número de partes mayor que 2, por ejemplo n = 3, 4, puede redu-
cirse al de n = 2 sin más que considerar la primera y la mezcla de las n - 1 restantes.)
Si [S1, …, SN ] fuese, por ejemplo, la mezcla de [S'1, …, S'p] y [S''1, …, S''Q],
para cada magnitud R podríase expresar su función de probabilidad wR(a) (cf.
Nota 157) mediante las funciones de probabilidad w'R (a), w''R(a) correspondientes
a estas últimas:
(M1) wR(a) = aw'R(a) + bw''R(a), > a > 0, b > 0, a + b = 1,
P Q
fórmula ésta en la que a = y b = , (N = P + Q) son independientes de R. Se
N N
trata, pues, en último término, de resolver el siguiente problema matemático: Si
en una colectividad, a la que están vinculadas las funciones de probabilidad wR
(a), existen magnitudes R que presentan dispersión, ¿es posible hallar otras dos
colectividades con las funciones de probabilidad w'R(a) y w''R(a), de suerte que
valga M1 cualquiera que sea R? Esta cuestión puede ser formulada de modo algo
distinto cuando caracterizamos la colectividad, no por las funciones de probabili-
dad wR(a) de las magnitudes R, sino por los valores medios de éstas:
∞
Vm (R ) = ∫
−∞
adwR (a).
312
El problema, entonces, reza así: Una colectividad está libre de dispersión cuan-
do en ella, para cada R, es nulo el
(R2) = [Vm (R)]2.
(Disp1) Vm
Si no ocurre así, ¿es siempre posible encontrar otras dos colectividades, con los
valores medios V'm (R), V''m (R),
{ ∣
fa(x) = 1, para x ≤ a, ,
0, para x > a
313
Es claro de suyo que toda función Vm (R) sin dispersión es pura, y en breve
quedará demostrado. Pero nuestro problema, reza así: ¿toda función Vm (R) pura
es sin dispersión?
Evidentemente, toda función Vm (R) debe poseer las siguientes propiedades:
Vm (aR) = aVm (R).163
314
implícitamente definida por E y es apenas posible vincular las normas para la me-
dición de R, S, … a una norma para la medición de R + S + …164.
A lo dicho hasta ahora añadiremos todavía que, a partir de este momento,
admitiremos en nuestros razonamientos, no sólo aquellas funciones Vm (R) que
representan valores medios, sino también las que corresponden a valores medios
relativos, es decir, que se prescindirá de la condición de normalización A. Esto
carece de importancia cuando Vm (1) (que de acuerdo con C es ≥ 0) es finito y
Vm (R)
≠ 0, pues para todo ocurre como en el caso anterior. En cambio, Vm (1) = ∞
Vm (1)
corresponde a una posibilidad esencialmente distinta, en gracia a la cual procede-
mos a esta extensión, posibilidad que se patentiza de la mejor manera mediante
un sencillo ejemplo: Hay casos en los que es preferible operar con probabilidades
relativas a hacerlo con las propiamente dichas, en particular con una probabilidad
total infinita [Vm (1) corresponde a la probabilidad total]. Uno de ellos es el de
una partícula móvil a lo largo de una recta, de modo tal que exista equiprobabili-
dad a lo largo de ésta. En estas condiciones es nula la probabilidad de encontrar-
la en cada intervalo finito; pero no es esto lo que traduce la equiprobabilidad de
todos los lugares, sino el hecho de que la razón de las probabilidades correspon-
0
dientes a dos intervalos finitos es igual a la de sus longitudes. Dado que carece
0
de sentido, sólo es posible concebir lo que acabamos de señalar introduciendo las
longitudes de dichos intervalos con el carácter de probabilidades relativas. Se com-
prende que entonces la probabilidad total relativa pasa a ser ∞.
Teniendo en cuenta lo hasta aquí dicho, resulta como forma definitiva de
nuestras condiciones, la siguiente:
A'. Cuando la magnitud R, por virtud de su naturaleza, no es- nunca nega-
tiva (por ejemplo, cuando es el cuadrado de otra magnitud S), también es
Vm(R) ≥ 0.
B'. Si R, S, … son magnitudes cualesquiera y a, b, … números reales, en-
tonces es Vm (aR + bS + …) = aVm (R) + bVm (S) + … (A' corresponde a C, B'
corresponde a B, D, E).
Conviene subrayar que,
1. Puesto que consideramos valores medios relativos, las funciones Vm (R) y
cVm(R) (¡c > 0, constante!) hay que considerarlas como no esencialmente distintas;
2. Vm (R) = 0 (para todo R) no proporciona ningún enunciado y, por lo
tanto, esta función debe excluirse;
3. Los valores medios son absolutos, es decir, están correctamente normali-
zados, cuando es Vm(1) = 1. El Vm (1) es en todo caso ≥ 0, en virtud de A', y en
1
tanto sea finito y ≠ 0, la condición 1, junto con c = , conduce a la norma-
Vm(1)
lización correcta. Demostraremos que Vm (1) = 0 implica Vm (R) ≡ 0; luego de-
bemos excluir este caso. Finalmente, para Vm (1) = ∞ aparece una estadística
esencialmente no normalizada, esto es, relativa.
315
y tocante a Disp1. hay que observar que el cálculo que nos condujo a ella presu-
ponía Vm (1) = 1. Para Vm (1) = ∞, en modo alguno cabe definir la carencia de
dispersión, pues ésta traduce la igualdad
Vm[(R - r)2] = 0,
Vm (R)
donde r es el valor medio absoluto de R, es decir, , que aquí puede ser
∞ Vm (1)
eventualmente , y, por ende, falto de sentido. En consecuencia, a) y b) de-
166
∞
berán formularse en los siguientes términos:
V'm (R) = c'Vm (R). V''m
(R) = c''Vm (R),
donde c', c'' son constantes, c' + c'' = 1 y además c' > 0, c'' > 0 en virtud de A',
1, 2.
Por fin estamos en condiciones de poder decidir de modo concluyente, basán-
donos en A', B', a' ) y b' ), acerca de la cuestión de la causalidad tan luego como se
conozcan las magnitudes físicas R, S, … ligadas a S, al igual que las relaciones
funcionales existentes entre ellas. Abordaremos este punto en el próximo párrafo
para el estado de cosas que se presenta en Mecánica cuántica. Daremos fin al pre-
sente con dos observaciones:
f1(x) + f2(x) + … = x
316
mn =
e(n) {
1, para m = n = n ,
0, en caso contrario ∣
1, para m = m, n = n -i, para m = m, n = n
(mn)
emn
{0, en caso contrario
∣
= 1, para m = n, n = m , gmn
(mn)
{
= -i, para m = n, n = m ;
0, en caso contrario
∣
estos operadores son precisamente, dicho sea de paso,
317
aµν = ∑ anneµν
(n)
+ ∑ Re amn f µν(mn) + ∑ Im amn g µν(mn),
n m <n m <n
y a causa de II y B':
+ ∑ Im amnVm(W(mn)).
m <n
}
unn = Vm(U(n)),
1 i
umn = Vm(V(mn)) + Vm(W(mn)), (m < n)
2 2
1 i
unm = Vm(V(mn)) - Vm(W(mn)),
2 2
resultará
Ahora bien, puesto que unm = u–mn, podemos definir un operador hermítico U
mediante las relaciones umn = (Ujn, jn),166 merced a lo cual el segundo miembro
de la ecuación que precede coincide con traza (UR) (cf. II.11). La fórmula defini-
tiva es, pues,
318
Cualquiera que sea el U que se haya elegido, Tr. satisface B' a causa de II. De
esto resulta que sólo queda aun por fijar qué limitación impone A' a U.
Si es ∙j ∙ = 1 (por lo demás, j es arbitrario) y llamamos P la magnitud aso-
ciada al operador P[j], a causa de ser P [2j] = P[j] y de I se tiene P2 = P y, por lo
tanto, en virtud de A', Vm(P) ≥ 0. Luego traza (UP[j]) = (Uj, j) ≥ 0. Si f es cual-
1 1
quiera, para f ≠ 0 podemos elegir j = f, con lo que (Uj, j) = (Uf, f ), y
∙ f ∙ ∙ f ∙2
de nuevo se obtiene (Uf, f ) > 0; para f = 0 es (Uf, f ) = 0. Resumiendo, U es de-
finido. Pero hay más: que U sea definido no es sólo una condición necesaria para
la validez de A', sino también suficiente.
En efecto: A' nos dice que cada Vm (S2) debe ser ≥ 0, y nada más; puesto que,
si R sólo puede tomar valores no negativos, para f (x) = ∣x∣ es f (R) = R, y dado que
para g(x) = √∣x∣ es idénticamente ( g (x))2 = f (x), tendremos (g (R))2 = f (R) y, por
ende, R = S2, si S = g (R).168 En consecuencia, si S es el operador de S, traza (US 2)
ha de ser ≥ 0. Pero S2 es definido: (S 2f , f ) = (Sf , Sf ) ≥ 0; luego, en último término
de lo que se trata es de demostrar que traza (US 2) ≥ 0), cuando U y S 2 son her-
míticos y definidos, propiedad ésta que fue ya demostrada169 en II.11 mediante la
aplicación de un teorema general relativo a los operadores definidos (cf. Nota 114).
Con esto hemos precisado por completo las características de las funciones
Vm (R): son funciones que corresponden a los operadores hermíticos definidos U,
y la interdependencia de unas y otros está expresada por Tr. Llamaremos a U el
operador estadístico de la correspondiente colectividad.
Es fácil ahora discutir las observaciones 1, 2, 3, de IV.1. Resulta, respectiva-
mente:
319
U=V+W
0 ≤ (Vf, f ) ≤ (Vf, f ) + (Wf, f ) = (Uf, f ) = 0, (Vf, f ) = 0;
320
Nótese que Vm(1) = traza (P[j]) = 1 (o porque P[j] está vinculado a la variedad
unidimensional [j], o en virtud de V2), es decir, la presente forma de U está co-
rrectamente normalizada. Determinemos, finalmente, cuándo P[j] y P[Ψ] tienen la
misma estadística, o lo que es lo mismo, cuándo P[j] = cP[Ψ] (c constante y > 0;
cf. 1). A causa de traza (P[j]) = traza (P[Ψ]) = 1, es entonces c = 1, v, por lo tanto,
P[j] = P[Ψ], es decir, j = aΨ; y como ∙j ∙ = ∙Ψ ∙ = 1, de esto se sigue que ∙a∙ = 1.
Es claro que esta condición es también suficiente.
En consecuencia podemos decir, resumiendo, que: no existen colectividades
sin dispersión; existen colectividades homogéneas, las cuales corresponden a los
U = P[j], ∙j ∙ = 1, y sólo a ellos. Para estos U, Tr. se convierte en V2, la normali-
zación es correcta y U no cambia cuando j se sustituye, por un aj (a constante,
∙a∙ = 1), pero cualquier otro cambio de j altera esencialmente U (cf. 1). Las co-
lectividades homogéneas corresponden, por lo tanto, a los estados de que se trata
en Mecánica cuántica tal cual antes fueron caracterizados: por un j del espacio de
Hilbert y de módulo unidad, en el que un factor constante de valor absoluto ca-
rece de significación (cf. por ejemplo, III.2), y los enunciados estadísticos resultan
de E2.172
Todo eso se ha deducido de las condiciones meramente cualitativas A', B', a')
y b'), I y II.
Así, y dentro del marco de las condiciones indicadas, ha quedado decidida la
alternativa a que aludíamos en el párrafo anterior, y el fallo es opuesto a la causa-
lidad: todas las colectividades están afectadas de dispersión, incluso las homo
géneas.
Debiérase discutir aún la cuestión planteada en III.2 acerca de los parámetros
ocultos, es decir, la cuestión de si las dispersiones de las colectividades homogéneas
caracterizadas por las funciones de onda j (o sea, por V2) no serían acaso debidas
a que ésas no son los verdaderos estados, sino solamente mezclas de varios, mien-
tras que para la caracterización del estado real, junto a la indicación de la función
de onda 9, quizás fuesen menester otros datos (los «parámetros ocultos»), de modo
que aquélla juntamente con éstos todo lo determinen causalmente, esto es, con-
duzcan a colectividades sin dispersión. La estadística de la colectividad homogénea
(U = P[j], ∙j ∙ = 1) resultaría entonces promediando sobre todos los estados reales
de que se compone; o en otros términos, promediando sobre aquel dominio de
321
los valores de los «parámetros ocultos» que se realiza en dichos estados. Pero eso
es imposible por dos motivos: Primero, porque en tal caso la correspondiente co-
lectividad homogénea podría ser concebida como mezcla de dos colectividades
diferentes,173 contra la definición de colectividad homogénea. Segundo, porque las
colectividades sin dispersión, que debieran corresponder a los estados «reales» (es
decir, las constituidas por simples sistemas en el mismo estado «real»), no existen.
Obsérvese que no ha sido necesario entrar en los pormenores del mecanismo de
los «parámetros ocultos»: los resultados de la Mecánica cuántica que se encuentran
fuera de duda no pueden obtenerse de nuevo en ningún caso acudiendo a tales
parámetros. Es más, incluso está excluido que existan las mismas propiedades fí-
sicas con los mismos vínculos (esto es, que valgan I y II) cuando a la función de
onda acompañan otros elementos determinantes («parámetros ocultos»).
Tampoco bastaría la existencia de otras magnitudes físicas aún no descubiertas,
además de las hoy conocidas y representadas en Mecánica cuántica por operadores.
Pues ya respecto de éstas dejarían de cumplirse las relaciones que postula dicha
teoría (es decir, I y II). No se trata, por lo tanto, en modo alguno, de una cuestión
de interpretación de la nueva Mecánica, como se ha supuesto en más de una oca-
sión; más bien debiera ser ésa esencialmente falsa para que fuese posible un com-
portamiento en los procesos elementales distinto del estadístico.
Otra circunstancia hay digna de mención: A primera vista las relaciones de
indeterminación muestran un cierto parecido con los postulados fundamentales
de la teoría de la Relatividad. Se afirma en ésta que es fundamentalmente impo-
sible determinar la simultaneidad de dos sucesos que ocurren en dos puntos sepa-
rados entre sí por la distancia r, con una precisión mayor que el intervalo tempo-
r
ral (c = velocidad de la luz). Las relaciones de indeterminación, por su parte,
c
nos dicen que es fundamentalmente imposible determinar la posición de un pun-
to material en el espacio de las fases con una precisión mayor que un dominio de
3
⎛ h ⎞
volumen ⎜ ⎟ .174 Sin embargo, existe entre ambos casos una diferencia funda-
⎝ 4π ⎠
mental. La teoría de la Relatividad niega ciertamente la posibilidad de una medi-
ción de simultaneidad exacta, objetiva; pero, con todo, es posible, introduciendo
un sistema de ejes de Galileo, establecer en el Universo un sistema de coordenadas
que permita una definición de la simultaneidad que coincide suficientemente con
nuestros conceptos normales que a ella se refieren. No se concede un sentido ob-
jetivo a esta definición de simultaneidad, porque este sistema de coordenadas
puede elegirse de infinidad de maneras distintas, de lo que resultan infinidad de
definiciones de simultaneidad distintas, todas ellas igualmente lícitas. O sea: tras
la imposibilidad de la medición, reside una ambigüedad infinita tocante a las po-
sibles definiciones teóricas. Otra es la cosa en Mecánica cuántica: en ella es com-
pletamente imposible describir un sistema al que va asociada la función de onda
j mediante puntos del espacio de las fases, incluso ni acudiendo a nuevas coorde-
nadas (hipotéticas, inobservadas), a los «parámetros ocultos», pues esto conduciría
a colectividades sin dispersión. O sea: no sólo es imposible la medición, sino in-
322
cluso toda definición teórica racional (es decir, aunque indemostrable empírica-
mente, como en teoría de la Relatividad, por lo menos también empíricamente
irrefutable). La imposibilidad fundamental de la medición descansa, por ende, en
que, en un caso, existen infinitas definiciones del concepto en cuestión que no
contradicen la experiencia inmediata, mientras en el otro no existe ninguna que
no contradiga las hipótesis fundamentales generales de la teoría.
En resumen, podemos caracterizar la posición de la causalidad en la Física de
hoy del siguiente modo: En el dominio de lo macroscópico no cabe experiencia
alguna que la apoye, ni puede haberla, pues la aparente ordenación causal del
Universo en grande (es decir, el de los objetos perceptibles a simple vista) no tie-
ne con seguridad otra causa que la «ley de los grandes números», independiente-
mente de si las leyes naturales que regulan los procesos elementales (las auténticas
leyes reales) son o no de carácter causal.175 Poco tiene que ver con la causalidad el
que objetos macroscópicamente iguales se comporten macroscópicamente de la
misma manera: iguales realmente no lo son, pues las coordenadas que determinan
los estados de sus átomos casi nunca coinciden y el punto de vista macroscópico
se alcanza al promediar sobre éstas (parámetros ocultos). Con todo, el número de
tales coordenadas es muy grande (para 1 gr. de materia, cerca de 1025), y el efectuar
el promedio trae consigo, en virtud de conocidas leyes del cálculo de probabili-
dades, una considerable disminución de todas las dispersiones. (Naturalmente,
esto en general. En algunos casos particulares —movimiento browniano, estados
inestables, etc.— falla esta aparente causalidad macroscópica.) Tan sólo en lo ató-
mico, en los mismos procesos elementales, pudiera realmente comprobarse la
cuestión de la causalidad; pero aquí, y en el estado actual de nuestros conocimien-
tos, todo habla en su contra: la única teoría formal hoy existente que ordena y
compendia nuestras experiencias en forma casi satisfactoria, esto es, la Mecánica
cuántica, se encuentra respecto de ella en irreductible contradicción lógica. Sin
duda, sería una exageración el afirmar que con esto ha quedado suprimida la cau-
salidad: en su forma actual, la Mecánica cuántica es ciertamente incompleta e
incluso puede suceder que sea falsa, si bien esto último es muy improbable en
vista de la asombrosa eficacia que manifiesta para la comprensión de los problemas
generales y el cálculo de los particulares. A pesar de que la nueva Mecánica coin-
cide brillantemente con la experiencia, y nos ha mostrado toda una faz del Uni-
verso cualitativamente nueva, nunca puede decirse de una teoría que está demos-
trada por la experiencia, sino tan sólo, que es el más completo resumen conocido
de la misma. Sin embargo, y con todas estas reservas, podemos afirmar que no
hay actualmente ni excusa ni motivo alguno para hablar de causalidad en la Na-
turaleza, ya que ninguna experiencia apoya su intervención: las experiencias ma-
croscópicas son para ello esencialmente inadecuadas, y la única teoría conocida
compatible con las relativas a los procesos elementales, la Mecánica cuántica, la
contradice.
Se trata, eso sí, de un ancestral modo de ver arraigado en todos los hombres,
pero en modo alguno de una necesidad lógica (como lo prueba el que se haya
podido sentar la teoría estadística), y quien se dirige al objeto, sin prejuicios no
323
tiene ningún fundamento para aferrarse a ella. ¿Está justificado, en estas condicio-
nes, sacrificarle una teoría física racional?
3. Consecuencias de la experimentación
El último párrafo nos ha enseñado que la más general colectividad estadística
compatible con nuestras hipótesis cualitativas está caracterizada, según la ley Tr.,
por un operador definido U. Aquellas colectividades particulares que calificábamos
de homogéneas, lo están por operadores U = P[j], (∙j ∙ = 1). Dado que éstas son
los auténticos estados del sistema S (no son susceptibles de ulterior descomposi-
ción), las llamaremos también estados (estados j la caracterizada por U = P[j]).
Si U posee un espectro discreto puro, por ejemplo con los valores propios w1,
w2, … y las funciones propias j1, j2, … (que constituyen un sistema ortonormal
completo), se tiene (cf. II.8).
U = ∑ wn P[ϕn ],
donde por ser U definido, todos los wn son ≥ 0 [en efecto: Ujn = wnjn y, por lo
tanto, 0 ≤ (Ujn, jn) = wn]; además, ∑ wn = ∑ (U ϕn ,ϕn ) = traza U (cf. también el
n n
comienzo de IV.1), es decir, ∑ wn = 1 si U está correctamente normalizado. Por
n
consiguiente, y en virtud de lo dicho al principio de IV.1, U puede considerarse
como mezcla de los estados j1, j2, … afectados de los pesos relativos w1, w2, …,
pesos que son absolutos si U está normalizado correctamente.
Ahora bien, un U correctamente normalizado, es decir, tal que traza U = 1, es
completamente continuo en virtud de II.11 (cf. en particular Nota 115) y posee,
por ende, un espectro discreto puro. Lo mismo vale cuando traza U es finita. (Una
traza U infinita podemos considerarla como un caso límite, sobre el que aquí no
entraremos en pormenores.) En consecuencia, en el caso verdaderamente intere-
sante cabe representar la colectividad que consideramos como mezcla de estados
que, por otra parte, hemos elegido ortogonales dos a dos. Por tal razón, llamaremos
mezclas a las colectividades generales, en oposición a las homogéneas, los estados.
Cuando todos los valores propios de U son simples, esto es, cuando los w1, w2,
… son diferentes entre sí, las funciones propias j1, j2, … están unívocamente
determinadas, como sabemos, salvo un factor constante de valor absoluto igual a
1; los correspondientes estados y los operadores P[j ], P[j ], … quedan, por lo tan-
1 2
to, completamente fijados. En las mismas condiciones se hallan los pesos w1, w2,
…, aunque, claro está, unívocamente determinados lo están salvo en el orden de
sucesión. En este caso, por lo tanto, se puede indicar de modo unívoco qué estados
(dos a dos ortogonales) integran la mezcla U. Muy otras son las circunstancias
cuando U posee asimismo valores propios múltiples («degeneraciones»). En II.8
discutióse detenidamente cómo cabe elegir las j1, j2, …: la elección puede llevarse
a cabo de infinitas maneras, todas esencialmente distintas, mientras los w1, w2, …,
324
aun en este caso, están determinados unívocamente. Sean w', w'', … aquellos de
entre los w1, w2, …, que son diferentes entre sí y determinemos para cada uno las
variedades lineales cerradas constituida por las funciones propias asociadas (es de-
cir, las soluciones de Uf = wf ); sean ésas Mw', Mw'', … Llegados a este punto, eli-
jamos al arbitrio en cada variedad; Mw', Mw''; … un sistema ortonormal c'1, c'2 …;
c'' 1, c'' 2, …; cuya extensión lineal cerrada coincida con ella. Entonces c'1, c'2, …;
c'' 1, c'' 2, …, son las j1, j2, … y los correspondientes w', w', …, w'', w'', …, son los
w1, w2, … En cuanto un Mw tenga más de una dimensión, es decir, apenas exista un
valor propio múltiple, las correspondientes c1, c2, … no están ya determinadas salvo
un factor constante de valor absoluto igual a 1 (así, por ejemplo, c1 puede ser cual-
quier elemento normalizado de Mw) es decir, ¡incluso en los estados existe ambigüedad!
Este aspecto se puede expresar también del siguiente modo: si los estados c1,
c2, … son ortogonales dos a dos (es decir, c1, c2, … forman un sistema ortonor-
mal, que lo mismo puede ser finito que infinito) y los mezclamos de manera que
a todos les corresponda el mismo peso (por ejemplo, los pesos relativos 1 : 1 : …),
la mezcla que así resulta depende únicamente de la variedad lineal cerrada defini-
da por c1, c2, … y puesto que
U' = … ∫ ∫ K
P[ χ ]dσ
es tal que
∫ ∫
(U'f , g ) = …
K
(P[ χ ] f , g)dσ = … ∫ ∫ K
( f , χ )(g, χ )dσ
⎛ s
⎞⎛ s
⎞
= … ∫ ∫ K
⎜f,
⎝
∑
µ =1
(uµ + ivµ )χ µ ⎟ ⎜ g,
⎠⎝
∑ (u
µ =1
µ + ivµ )χ µ ⎟ dσ
⎠
s
= … ∫ ∫ ∑ ( f , χ )(g, χ )(u
K
µ ,ν =1
µ ν µ − ivµ )(uν + ivν )dσ
325
s
= … ∫ ∫ K
⎜f,
⎝
∑
µ =1
(uµ + ivµ )χ µ ⎟ ⎜ g,
⎠⎝
∑ (u
µ =1
µ + ivµ )χ µ ⎟ dσ
⎠
s
= … ∫ ∫ ∑ ( f , χ )(g, χ )(u
K
µ ,ν =1
µ ν µ − ivµ )(uν + ivν )dσ
y dado que todas las integrales de um vn, un vm son nulas, por razón de simetría,176
lo mismo que las de um un, vm vn, para m ≠ n, y pues para m = n estas últimas valen
C
(C > 0),176 obtenemos en definitiva
2s
s s
C C
(U'f , g) =
s
∑ ( f , χ µ )(g, χ µ ) = s ∑ (P[χ ] f , g) µ
µ =1 µ =1
⎛ ⎧C s
⎫ ⎞
= ⎜⎨ ∑ P[χ ] ⎬ f , g ⎟ .
⎝⎩ s
µ
µ =1 ⎭ ⎠
Luego
s
C C
U' =
s
∑ P[χ ] = µ
s
U,
µ =1
1. Cuando una mezcla se compone de estados ortogonales entre sí, exacta-
mente con los mismos pesos, no es ya posible fijar cuáles eran aquéllos; o de otro
modo: mezclando en proporciones exactamente iguales, es posible obtener la mis-
ma mezcla con diferentes componentes ortogonales entre sí.
2. La mezcla que así resulta, supuesto que se trate de un número finito de
componentes, es idéntica a la mezcla de todos los estados que son combinaciones
lineales de dichas componentes.
El ejemplo más sencillo lo ofrece la mezcla 1 : 1 de j y Ψ (¡ortogonales!): el
ϕ+Ψ ϕ−Ψ
resultado es el mismo que si se mezcla 1 : 1, por ejemplo, , o también
2 2
todos los xj + yΨ(∙x∙2 + ∙ y ∙2 = 1). Si se mezclan dos j, Ψ no ortogonales (la
proporción puede no ser la 1 : 1), es aún mucho menos lo que cabe reconocer
en la mezcla acabada; pues, con seguridad, podemos concebir ésta asimismo como
mezcla de estados ortogonales. Diferimos el tratar más ampliamente de la natu-
raleza de las mezclas hasta que lleguemos a las consideraciones termodinámi-
cas (V.2).
326
La fórmula Tr. de IV.2 indica cómo hay que calcular el valor medio de una
magnitud R asociada al operador R en una mezcla cuyo operador estadístico es el
U: dicho valor medio es traza (UR). La probabilidad de que el valor a de R se
encuentre en el intervalo a' < a ≤ a'' (a', a'' dados, a' ≤ a'' ) se determina al igual
que en III.1, III.5: fórmese primero la función F (x) = 1, para a' < x ≤ a'' ,
{ ∣
0, en caso contrario
el valor medio de la magnitud F(R) es la probabilidad pedida. Ahora bien: el ope-
rador asociado a F(R) es el F(R) (según I, en IV.2), y si E(l) es la descomposición
de la unidad correspondiente a R, se tiene, cual hemos calculado en más de una
ocasión, F(R) = E(a'' ) - E(a' ). La probabilidad buscada es, pues, w (a', a'' ) = tra-
za U [E(a'' ) - E(a' )] y la función de probabilidad que describe la estadística de R,
w(a) = traza UE (a), [Cf. IV.1, Nota 175; para los estados, es decir, U = P[j] es de
nuevo w(a) = traza P[j] E(a) = (E(a)j, j)]. Naturalmente, estas probabilidades son
sólo relativas si U no está correctamente normalizado.
La cuestión de cuándo la magnitud R de operador R toma con certeza el valor
l* en la mezcla caracterizada por el operador estadístico U, se contesta desde lue-
go merced a w(a): para a < l* debe ser w(a) = 0, y para a > l*, w(a) = 1 o bien
= Vm (1) = traza U, si U no está correctamente normalizado. O sea, para a < l*,
traza UE(a) = 0 y para a > l*, traza U. (1 - E(a)) = 0.177 Esto sentado, recordemos
que cuando A, B son operadores definidos, traza (AB) = 0 trae consigo AB = 0
(cf. II.11); luego, para a < l* es UE(a) = 0 y para a > l* es UE(a) = U, o lo que
es lo mismo, E(a)U = 0 o = U, respectivamente, puesto que los factores deben ser
permutables a causa del carácter hermítico del producto. Así, pues, si hacemos
f = Ug (g cualquiera), resulta:
E(a)f = f, para a ≥ l* ,
{ ∣
0, para a < l*
327
Para ello utilizamos el siguiente principio abstraído del resultado del experi-
mento de Compton-Simons:
328
traza (UE )
y la de que no se dé:
(estas probabilidades en general son relativas; son absolutas sólo si traza U = 1).
Supongamos ahora que se trata de investigar varias magnitudes R1, …, Ri a las
que corresponden los operadores R1, …, Ri y cuyas descomposiciones de la unidad
son E1(l), …, Ei(l). Si I1 …, Ii son los intervalos l'1 < l < l''1, y hacemos
329
como también hay que indicar de qué manera puede conducir este conocimiento
a una estadística.
Sea como fuere, la relación con ésta no puede ser otra que la siguiente: si esas
mediciones diesen en varios sistemas S'1, …, S'M (¡simples ejemplares de S !) dichos
resultados, la colectividad [S'1, …, S'M] coincidiría en todas sus propiedades esta-
dísticas con la mezcla que hemos coordinado a las medidas obtenidas. En virtud
de M, podemos imaginar que la causa de que éstas resulten igualmente en todos
los S'1, …, S'M reside en que originariamente se nos dio una gran colectividad [S1,
…, SN] en la que se llevaron a término aquellas mediciones, y que los elementos
en los cuales aparecieron los resultados pedidos se han reunido en una nueva co-
lectividad: esta es precisamente [S'1, …, S'M]. Se comprende que en estas condi-
ciones todo depende de cómo se elija [S1, …, SN]. Esta colectividad inicial da,
por decirlo así, las probabilidades a priori de cada uno de los estados del sistema
S. Todo ese estado de cosas es perfectamente conocido por la teoría general de las
probabilidades: para poder inferir de las medidas los estados, es decir, de las con-
secuencias las causas, o sea, para poder calcular probabilidades a posteriori, hay que
conocer las probabilidades a priori. Podemos elegir éstas, en general, de muchas
maneras diferentes, por lo que la solución a nuestro problema no será única; sin
embargo, veremos que, dadas las circunstancias particulares de la Mecánica cuán-
tica, es sobre todas notable una cierta determinación de la colectividad de partida
[S1, …, SN] (es decir, de las probabilidades a priori).
Muy de otro modo se plantea la cuestión cuando disponemos de medidas en
número suficiente para determinar completamente el estado de S: la respuesta
debe ser entonces única. Al punto veremos cómo se impone esta circunstancia a
las demás.
Finalmente haremos notar que, en vez de decir que se conocen varias medidas
relativas a S, podemos también decir que se ha examinado S respecto de una
cierta propiedad E y comprobado su existencia. En virtud de a)-z) sabemos, en
efecto, cómo están relacionadas entre sí aquéllas y ésta: dadas las medidas simul-
táneamente determinables, según las cuales los valores de las magnitudes R1 …, Ri
están en los intervalos I1, …, Ii, respectivamente, el operador de proyección que
corresponde a E es, usando de los símbolos antes introducidos,
E = E1(I1) … Ei(Ii).
330
de M es el conjunto de todos los f tales que Ef = f, la variedad lineal cerrada aso-
ciada al operador de proyección E.
En vez de EU = U, da lo mismo escribir UE = U, U (1 - E ) = 0, es decir,
Ug = 0 para todo g = (1 - E )f ; en otros términos, podemos decir que Ug = 0 para
todo g de la variedad lineal cerrada correspondiente a 1 - E, o sea para todo g de
E - M. Nada más cabe afirmar de U siguiendo este camino.
Cuando las dimensiones de M son 0 ó 1, y sólo entonces, queda determinado
U en lo esencial, o sea, salvo un factor constante, por las condiciones que preceden.
En efecto: para M = [0] resulta de ellas que U = 0, lo que es imposible según III.2,
observación 1; para M = [j] (j ≠ 0 de modo que podemos suponer ∙j ∙ = 1) se
tiene Uj = cj, de suerte que para todo f de M (que es de la forma aj) es Uf = cf
y, en general, Uf = UEf = cEf, U = cE = cP[j]. Ahora bien, c > 0, pues U es defi-
nido y ≠ 0; luego U coincide, en esencia, con E = P[j]. Si el número de dimensio-
nes de M es ≥ 2, podemos elegir dos elementos j, ψ de esta variedad ortogonales
entre sí y normalizados y los operadores P[j], P[ψ], son entonces dos U diferen-
tes que satisfacen nuestras condiciones. Resumiendo: E = 0 es imposible; para
E = P[j](∙j ∙ = 1), U = E = P[j]; en los demás casos U es indeterminado.
Que para E = 0 no quepa hallar ningún V fuera extraordinariamente enojoso
si existiese un S que pudiera poseer la correspondiente propiedad E. Afortunada-
mente este caso está excluido por h): nunca se da E, su probabilidad es siempre
nula. Si M es unidimensional, es decir, si E = P[j](∙j ∙ = 1), U queda fijado uní-
vocamente, precisamente como estado j. Esta es, por ende, aquella medida que
determina por completo el estado de S cuando da resultado positivo; ése es en-
tonces el estado j.178 Todas las otras mediciones, en cambio, son incompletas, no
bastan para la determinación del estado.
En el caso general procederemos del siguiente modo: llamemos también E la
magnitud asociada a la propiedad E. El operador U resulta de medir E en la co-
lectividad [S1, …, SN] correspondiente a U0 y reunir en una sola colectividad, la
[S'1, …, S'N], aquellos elementos en los que se obtiene el valor 1. Esta última es
la colectividad asociada a U. La medición de E cabe efectuarla de muchas maneras,
por ejemplo midiendo otra magnitud R, de la que E es una función conocida: E
= F(R). Así, ponemos por caso, cuando j1, j2, … es un sistema ortonormal cuya
extensión lineal cerrada es precisamente M, y ψ1, ψ2, … es otro sistema en las
mismas condiciones respecto de E - M, la variedad lineal cerrada definida por j1,
j2, …, ψ1, ψ2, … es la M + (E - M) = E, es decir, este sistema es completo. Sean
l1, l2, …, m1, m2, … números reales diferentes entre sí y R el operador definido
por
R
(∑ x ϕ + ∑ y ϕ ) = ∑ λ x ϕ + ∑ µ y ψ .
n
n n
n
n n
n
n n n
n
n n n
331
…, y todos los valores propios son simples. Si F(x) es una función cualquiera
tal que
F(R) tiene la unidad como valor propio para j1, j2, …, por manera que lo mismo
ocurrirá para todo f de M, y el valor propio 0 para y1, y2 …, es decir, en último
término, para todo f de E - M; luego, E = F(R). Si es R la magnitud a la que
pertenece R, según esto se tendrá E = F(R). Por consiguiente, la medición de R
puede interpretarse como medición de E.
Podemos calcular en este caso cómo están relacionados U0 y U. Tras una me-
dición de R, cada sistema se encuentra en uno de los estados j1, j2, …, y1, y2,
…, según sea l1, l2, …, m1, m2, …, el resultado hallado, respectivamente. Las
correspondientes probabilidades son
(cf. las consideraciones hechas en III.3, cuya validez ha sido ya establecida). Dicho
con otras palabras: éstas son las fracciones de la colectividad ligada a U0 que se
integran en las colectividades asociadas a P[j ], P[j ], …, P[y ], P[y ] … Dado que
1 2 1 2
U = ∑ (U 0ϕn, ϕn )P[ϕn ] .
n
Ahora bien, cada P[j ] es permutable con R ;179 luego también debe serlo U, de
1
lo que se sigue que cuando U no es permutable con todos los R que se pueden
obtener del modo indicado, existen ciertos procesos de medición (los que estriban
en las correspondientes R) que no cabe tener en cuenta para la formación de U a
partir de U0. De U sabemos entonces algo más que su haber resultado de una
medición de E. Pero es el caso que U debe representar justamente este estado de
nuestro conocimiento; de ahí que convenga intentar ceñirnos estrictamente a esta
condición: cuando exista un U tal que no sea necesario excluir a causa de él ningún
proceso de medición de E, a este U debemos darle la preferencia. Veamos, por
consiguiente, si tales U existen y cuáles son.
Sabemos ya que U debería ser permutable con los R construidos cual se ha
indicado. De esto se deduce que RUj = URj = U(lnjn) = lnUjn, es decir, Ujn
n n
332
⎛ ϕ + ψ , ϕ ⎞ = (ϕ, ϕ) = 1 , ⎛ ϕ + ψ , ψ ⎞ = (ψ , ψ ) = 1 ,
⎜⎝ ⎟⎠ ⎜ ⎟⎠
2 2 2 ⎝ 2 2 2
ϕ +ψ
correspondería al mismo valor propio que j y y, resultado que contradice
2
la hipótesis de que hemos partido. Luego Uj = aj donde a es una constante.
Podemos, además, prescindir de la condición ∙j ∙ = 1, con lo que resulta en defi-
nitiva Uf = af, cualquiera que sea el elemento f de M. En consecuencia, para todo
g es UEg = aEg, de donde UE = aE ; y como U = UE, queda en definitiva U = aE.
A causa de ser U, E ambos definidos y ≠0, la constante a es > 0, de manera que
podemos hacer U = E sin alterar esencialmente U.
Pues bien, este U resuelve efectivamente el problema planteado para cada R,
es decir, para cada sistema j1, j2, …, y1, y2, …, supuesto convenientemente
elegido U0. Para U0 = 1 se tiene, en efecto,
n n
333
U0 es necesariamente permutable con P[j ], dado que lo son todos los P[j ];
1 n
es decir, es función propia de U0. De ahí se deduce que U0 = 1 del mismo modo
como antes dedujimos que U = E de la correspondiente relación (con M, E, en
vez de E y 1).
En consecuencia podemos afirmar que en la colectividad U0 = 1 todos los es-
tados posibles se encuentran en el más alto grado dable de equilibrio: nunca lo-
334
335
Consideraciones generales
1. Medición y reversibilidad
Es posible predecir lo que ocurrirá en una mezcla cuando en ella se mida una
magnitud R esto es, cuando se efectúe la medición en cada elemento de la colec
tividad y luego se reúnan nuevamente en una sola todos los sistemas, no bien han
sido sometidos a medida —hasta tanto permite esta cuestión una respuesta uní
voca.
Supongamos primero que R presenta un espectro discreto puro y además sim
ple; sean j1, j2, … el sistema ortonormal completo constituido por sus funciones
propias y l1, l2, … los correspondientes valores propios, todos ellos distintos
entre sí por hipótesis. Después de la medición, la situación es la siguiente: en la
parte (Ujn, jn) de la colectividad inicial, R tiene el valor ln (n = 1, 2, …); esta
fracción, por lo tanto, es a su vez una colectividad en la que R posee con certeza
el valor ln (cf. M en IV.3), es decir, es el estado jn con el operador estadístico
(¡correctamente normalizado!) P[j ]. Por reunión de estas colectividades resulta, por
n
∞
U' = ∑ (U ϕn, ϕn )P[ϕn].
n =1
Admitamos ahora que R tiene un espectro discreto puro (por lo que atribui
remos a j1, j2, …, l1, l2, … el mismo significado que en el caso anterior), pero
no simple, es decir, entre los ln los hay iguales entre sí. En estas condiciones, el
proceso a seguir para la medición de R no está unívocamente definido (lo mismo
ocurría en IV.3 con el de E). En efecto: sean m1, m2, … simples números reales
diferentes entre sí, S el operador que corresponde a j1, j2, …, m1, m2, … y S la
magnitud asociada a S. Si F(x) es una unción tal que
F(mn) = ln (n = 1, 2, …)
337
y aquél será según sea la magnitud S elegida, es decir, según sea el efectivo dispo
sitivo de medida. Es claro que únicamente en ciertos casos particulares será único
el resultado U'.
Para llegar a su determinación, observemos que la unicidad de U' requiere la
de cada uno de los sumandos; es decir, para cada valor propio ∑ (U χn, χn )P[χn]
n
debe ser el mismo cualquiera que sea el sistema ortonormal que se tome para de
finir Ml, siendo Ml el conjunto de todos los f soluciones de Rf = lf. Llamemos
V a ese operador suma; basta repetir literalmente lo dicho en IV.3 (sustitúyase U0,
U, M por U, V, Ml) para llegar a la conclusión de que necesariamente es
V = clPM (cl constante y > 0), lo que equivale a la validez de (Uf, f ) = cl (f, f )
l
para todo f de Ml. Ahora bien, estas f son las mismas que las funciones PM g, en l
esto es,
o sea
PM UPM = clPM
l l l'
338
∂ 2pi
(T1.) j = - Hjt,
∂t t h
donde H es el operador de la energía. De ella se sigue que también el operador
estadístico Ut = P[j ], del estado jt depende del tiempo:
t
⎛∂ ⎞ ∂ ∂ ⎛ ∂ ⎞ ∂
⎜⎝ U t ⎟⎠ f = (U t f ) = [( f , ϕt ) ⋅ ϕt ] = ⎜⎝ f , ϕt ⎟⎠ ⋅ ϕt + ( f , ϕt ) ⋅ ϕt
∂t ∂t ∂t ∂t ∂t
2π i 2π i
= −⎛ f , Hϕt ⎞ ⋅ ϕt − ( f , ϕt ) Hϕt
⎝ h ⎠ h
2π i 2π i
= [(Hf , ϕt ) ⋅ ϕt − ( f , ϕt )Hϕt ] = (U t H − HU t )f ,
h h
de donde
∂ 2π i
(T2.) Ut = (U t H − HU t ).
∂t h
cambiar conforme resulte de las evoluciones de P[j (1)], P[j (2)], …: basta sumar las
t t
2πi t ⋅ H
(T'1.) jt = e - h j, 0
y para T2
(Es fácil verificar que estas expresiones son soluciones de T1, T2, como también
que una se deduce de otra. Es claro además que, para valores iniciales dados j0, U0
339
340
et h,
341
* Cf. W. Pauli, «Die Allgemeinen Prinzipien der Wellenmechanik». (Handb der Physik, Bd.
XXIV, Erster Teil, p. 113). (N. del T.)
342
∞
h ρ
n =1
⋅ M +
∞ ∞
⎡
j =1 n =1
k→ j
( k→ j
) ⎤
∑ n n ∑ ∑ wkjn ⎣⎢ Mn + 1 ⋅ M n → Mn + 1 + Mn M n → Mn − 1 ⎦⎥, ( )
y el operador H que corresponde al ejemplo de los dos puntos materiales
343
∞
U →U' = ∑ (U ϕn, ϕn )P[ϕn]
n =1
no se puede invertir sin más. Pronto hemos de ver que dicha transición es en
esencia irreversible, en el sentido de que en general ni una sola vez se consigue
volver de U' al U de que procede acudiendo a la aplicación reiterada de procesos
cualesquiera 1, 2.
Con esto hemos alcanzado un punto en que hay motivos para acudir al modo
de razonar termodinámico, pues sólo éste posibilita la correcta comprensión de la
diferencia entre 1 y 2, diferencia que evidentemente interviene en las cuestiones
de reversibilidad.
2. Consideraciones termodinámicas
Examinaremos la Termodinámica de las colectividades mecánico-cuánticas des
de dos puntos de vista distintos. Primero supondremos la validez de los dos prin
cipios termodinámicos fundamentales, es decir, la imposibilidad del perpetuum
mobile de primera y segunda especie (principio de la energía y principio de la
entropía),184 y a partir de ellos evaluaremos la entropía para cada colectividad. En
esta deducción usaremos de los medios normalmente utilizados en la Termodiná
mica fenomenológica, mientras la Mecánica cuántica interviene tan sólo por cuan
to nuestras consideraciones termodinámicas se refieren a objetos (nuestras colec
tividades, al igual que sus operadores estadísticos U ) cuyo comportamiento está
regido por sus leyes. En este primer estadio, repetimos, se presupone la verdad de
ambas proposiciones fundamentales, no se demuestra. Una vez desarrollado ese
primer punto de vista, demostraremos la validez de las proposiciones termodiná
micas fundamentales en la Mecánica cuántica, si bien, dado que la relativa a la
energía vale en todo caso, sólo se tratará de la que se refiere a la entropía. En otros
términos, demostraremos que las modificaciones traducidas por 1, 2 nunca dismi
344
nuyen la entropía calculada siguiendo el primer método. Acaso parezca este orden
poco natural, pero reconoce su fundamento en que, mediante la discusión termo
dinámica fenomenológica, conseguiremos aquella visión de conjunto del problema
que es indispensable para los razonamientos de la segunda fase.
Comenzamos, pues, con la consideración fenomenológica que, por otra parte,
nos permitirá resolver una conocida paradoja de la Termodinámica clásica. Ante
todo hemos de llamar la atención sobre el hecho de que el carácter fantástico de
nuestros experimentos ideales, es decir, su calidad de irrealizables prácticamente, no
afecta en nada a su poder de demostración: en el sentido de la Termodinámica
fenomenológica, todo proceso imaginable es concluyente cuando no vulnera las
proposiciones fundamentales.
Nuestra finalidad es la determinación de la entropía de una colectividad [S1,
…, SN] caracterizada por el operador estadístico U, que supondremos correcta
mente normalizado (traza U = 1). Usando de la terminología propia de la Mecá
nica estadística clásica, podemos decir que nos encontramos aquí ante una colec
tividad de Gibbs: la Estadística y la Termodinámica se refieren, no a las partes en
interacción integrantes de un sistema mecánico único, muy complicado, con mu
chos grados de libertad185 (sólo en parte conocidos), sino a una colectividad de
gran número de sistemas mecánicos, cada una de los cuales ya de por sí puede
tener (aunque acaso no los tenga) un número extraordinariamente grande de gra
dos de libertad, sistemas que debemos pensar completamente separados unos de
otros y sin interacción.186 Por razón de la separación completa de los sistemas S1,
…, SN y del hecho de pretender aplicarles en lo que sigue los métodos puramen
te de cómputo del cálculo de probabilidades, es indudable que se puede usar del
cálculo de probabilidades ordinario y que no entran aquí en juego las modalidades
propuestas por Bose-Einstein y Fermi-Dirac, las cuales encuentran lugar ade
cuado en ciertas colectividades de individuos indiscernibles y en interacción (a
saber, los quanta de luz y los electrones y protones, respectivamente. Cf. III.6, en
particular Nota 147).*
El método introducido por Einstein para el tratamiento termodinámico de
las colectividades en cuestión [S1, …, SN] es el siguiente:187 Se encierran los siste
mas S1, …, SN en sendas cajas K1, …, KN cuyas paredes son impenetrables a toda
transferencia de acción, lo que es lícito en virtud de la falta de interacción en estos
sistemas. Además, cada una de las cajas ha de tener una masa muy grande para
que los eventuales cambios de estado (y de energía, por lo tanto de masa) de S1,
…, SN sólo en muy poco alteren las masas de aquéllas. Finalmente, en los experi
mentos ideales que hay que efectuar, las velocidades de dichas cajas serán tan pe
queñas, que podremos llevar a cabo los cálculos no-relativísticamente. – Esto senta
do, coloquemos las cajas K1, …, KN a su vez en una caja K de grandes
dimensiones, es decir, en una caja de volumen U mucho mayor que la suma de
* Recuérdense que es regla general, por hoy admitida, que todas las partículas de spin entero
siguen la estadística de Bose-Einstein (fotón, mesón, deutón (21D), helión (42He), …) y las de spin
semientero la de Fermi-Dirac (neutrino, electrón ±, protón (11H), neutrón, …). (N. del T.)
345
–
los volúmenes de K1, …, KN, y supongamos, – para simplificar, que en K no reina
campo de fuerzas alguno (en particular, K debe estar alejado, por consiguiente, de
todo campo de gravitación y ha de ser tan grande que no den lugar a acción nin
guna las masas de K1, …, KN). En consecuencia, cabe considerar K1, …, KN (que
contienen, respectivamente,
– S1, …, SN) como moléculas de un gas encerrado en
la gran caja K. Si ahora ponemos en contacto ésta – con un termostato, a la tempe
ratura T, de gran capacidad, las paredes de K tomarán esta temperatura y sus
moléculas reales adquirirán el correspondiente movimiento browniano. Estas, por
lo tanto, transmitirán impulso a las cajas K1, …, KN inmediatas, por lo que éstas
entrarán en movimiento y a su vez comunicarán impulso a las restantes K1, …,
KN. Pronto estarán en movimiento todas– las K1, …, K–N e intercambiarán impulso
con las moléculas de las paredes
– de K , en la pared de K, y entre sí, al chocar unas
con otras, en el interior de K. Este movimiento alcanzará el estado de equilibrio
estacionario justamente cuando las K1, …, KN hayan adoptado la distribución de
velocidades que corresponde al equilibrio con el movimiento browniano de las
moléculas de las paredes (a la temperatura T), es decir, cuando hayan adoptado la
distribución de velocidades que la ley de Maxwell atribuye a un gas a la tempe
ratura T cuyas «moléculas» serían K1, …, KN .188 Podemos decir, pues, que el gas
[K1, …, KN] ha tomado la temperatura T. Para abreviar, convendremos en llamar
en lo que sigue colectividad-U a la colectividad [S1, …, SN], cuyo operador esta
dístico es el U, y gas-U al gas [K1, …, KN].
La razón que nos conduce a ocuparnos de un tal gas es que, por definición, la
diferencia de entropías entre la colectividad-U y la colectividad-V (U y V son ope
radores definidos, con traza 1, cuyas colectividades asociadas llamaremos [S1, …,
SN], [S'1, …, S'N]), debe determinarse transformando reversiblemente la primera
en la última,189 y la mejor manera de conseguirlo es pasando por el gas-U y el
gas‑V. Y ello es así, porque la diferencia de entropías de las colectividades U y V
es exactamente la misma que entre las de los gases U y V cuando ambos se consi
deran a la misma temperatura T, que, por lo demás, puede ser cualquiera. Que las
cosas ocurren de este modo con exactitud tan grande cuanto se quiera, es eviden
te cuando la temperatura T es muy próxima a 0, pues la diferencia entre la colec
tividad-U y el gas-U a la temperatura 0 se anula porque las K1, …, KN del último
– de todo movimiento propio y la presencia de las cajas en reposo K1, …,
carecen
KN, K no tiene importancia alguna desde el punto de vista termodinámico (lo
mismo cabe decir de V ). Por lo tanto, habremos conseguido nuestro propósito tan
pronto se demuestre que son iguales las variaciones de entropía del gas-U y del
gas-V correspondientes a una misma variación de la temperatura T. Ahora bien, la
variación de la entropía de un gas cuando se calienta de T1 a T2 depende sólo de
su ecuación de estado calorífica, más exactamente, de su calor específico.190 Claro
está, que no cabe suponer perfecto el gas cuando, como en nuestro caso, ha de
elegirse T1 próximo a 0.191 Pero, en cambio, lo que sí es seguro es que ambos gases,
el U y el V, poseen la misma ecuación de estado y el mismo calor específico, por
cuanto las cajas K1, …, KN prevalecen desde el punto de vista cinético y encubren
por completo los sistemas S1, …, SN o S'1, …, S'N encerrados en ellas. En ese
346
347
tras que la parte 1-∙(j, y)∙2 pasa a otros estados, y ésta es incluso toda la colecti
vidad cuando j y y, son ortogonales. A pesar de todo, un proceso similar
conduce al fin perseguido: mediante la realización sucesiva de mediciones de un
gran numero de magnitudes diferentes transformaremos P[j] en una colectividad
que difiera de la P[y] en tan poco cuanto se quiera. Como vimos más arriba, no
tiene importancia alguna el que estas operaciones sean irreversibles (o lo puedan
ser, por lo menos).
Supondremos en lo que sigue que j y y son ortogonales entre sí, pues, de no
serlo, bastaría elegir un c (∙c∙ = 1) ortogonal a ambos y transformar entonces j
en c y luego c en y. Sea k = 1, 2, … un número —que no fijamos por ahora a
pn pn
fin de poder disponer de él— y y (n) = cos ⋅ j + sen ⋅ y (n = 0, 1, …, k);
2k 2k
evidentemente y (0) = j, y (k) = y, y constantemente ∙y (n)∙ = 1. A partir de cada
y (n) (n = 1 …, k) construyamos un sistema ortonormal completo y 1(n), y 2(n), …,
tal que y 1(n) = y (n) y sea R(n) un operador dotado de espectro discreto puro y sólo
valores propios simples l 1(n), l 2(n), cuyas funciones propias son las y 1(n), y 2(n), …,
y cuya magnitud asociada llamaremos R(n). Observemos además que
π (ν − 1) πν π (ν − 1) πν
(ψ (ν −1), ψ (ν)) = cos cos + sen sen
2k 2k 2k 2k
πν π (ν − 1)⎞ π
= cos ⎛ − = cos .
⎝ 2k 2k ⎠ 2k
* U (n) resulta de medir R(n) en U (n - 1) Inmediatamente después de efectuada la medición, cada
uno de los sistemas está en uno de los estados yn (n) con la frecuencia
348
2k
⎛ π⎞
sucesivas mediciones de R , R , …, R por lo menos la fracción cos
(1) (2) (k)
se
⎝ 2k ⎠
convertirá en y = y (k) partiendo de y (0) = j y pasando por y (1), y (2), …, y (k - 1).
La demostración exacta discurre así: puesto que el proceso 1 no altera la traza, a
causa de traza U (0) = traza P[j] = 1 será traza U (1) = traza U (2) = … = traza U (k) = 1.
Por otra parte
= ∑ (U
2
ψ n(ν), ψ n(ν))(ψ n(ν), f ) ,
(ν −1)
2k
π
(U (k)ψ , ψ ) ≥ ⎛ cos ⎞ .
⎝ 2k ⎠
2k
⎛ π⎞
Ahora bien, dado que traza U (k) = 1 y cos → 1 cuando k → ∞, pode
⎝ 2k ⎠
mos aplicar el resultado obtenido en II.11; luego U (k) converge hacia P[j], como
queríamos demostrar.
La cuestión que debemos discutir en segundo lugar trata de hasta qué punto
podemos servirnos para el estudio de los sistemas de la Mecánica cuántica de uno
de los recursos capitales a que se acude en los «experimentos ideales» de la Termo
dinámica fenomenológica: los llamados tabiques semipermeables.
En la Termodinámica fenomenológica vale el siguiente teorema: si I y II son
dos estados distintos del mismo sistema S, es lícito admitir la existencia de un
349
350
4a b 3
1a b 2
Figura 3
351
352
N B 3N 3B
moléculas en el volumen y el otro con moléculas en el volumen . En
4 4 4 4
N B
el estado final se tienen moléculas de un gas P[j] en el volumen
4 4
3N 1 2 3B
y moléculas de un gas P[j] + P[y] en el volumen . Los cambios provoca
4 3 3 4
N
dos por la totalidad del proceso son, pues, los siguientes: 1) moléculas en el
4
B 1 1 3N
volumen se transformaron de gas P[j] + P[y] en gas, -P[j]; 2) moléculas
4 2 2 4
3B 1 1 1 2
en el volumen se transformaron de gas P[j] + P[y] en gas P[j] + P[y];
4 2 2 3 3
3 4
3) la entropía de W aumentó en Nχ . ln . Dado que el proceso fue reversible,
el incremento de la entropía total debe4ser 0,3 es decir, los cambios en las entropías
de los dos gases han de compensar exactamente el aumento de entropía de W. Es
menester, por lo tanto, que conozcamos aquéllos.
Conforme veremos, un gas -U constituido por M moléculas tiene una entropía
-Mc · traza (U · ln U), cuando la de un gas -P[j] de igual volumen y a la mis
ma temperatura se considera igual a 0 (cf. supra). Por consiguiente, si U presenta
un espectro discreto puro, con los valores propios w1, w2, …, la entropía de dicho
∞
gas - U será −M χ ⋅ ∑ wn ln wn, donde hay que suponer iguales a cero los términos
n =1
de la forma x ln x si es x = 0. Ahora bien, los valores propios de los operadores
1 1 1 2 1+ α 1− α 3 + 1 + 8α 2 3 − 1
P[j], P[j] + P[y], P[j] + P[y] son, como es fácil calcular, 1,0; , , 0; ,
2 2 3 3 2 2 6 6
1+ α 1− α 3 + 1 + 8α 2 3 − 1 + 8α 2
, , 0; , 0, respectivamente (a = ∙(j, y)∙, es decir, 0 ≤ a ≤ 1.
, 0,
2 2 6 6
De entre estos valores propios, el 0 es múltiple de orden infinito en los tres casos;
todos los demás son simples.197 Luego, la entropía de los gases ha aumentado en
N 3N ⎛ 3 + 1 + 8α 2 3 + 1 + 8α 2 3 − 1 + 8α 2 3 − 1 + 8α 2 ⎞
− χ ⋅0 − χ ⋅⎜ ln + ln ⎟⎠
4 4 ⎝ 6 6 6 6
1+ α 1+ α 1− α 1− α ⎞
+ Nχ ⋅⎛ ln + ln .
⎝ 2 2 2 2 ⎠
3 4
Esto, aumentado en el incremento N χ ⋅ ln y de la entropía de W, debe
4 3
Nχ
dar como resultado 0. Si, además, dividimos por , queda en definitiva
4
3 + 1 + 8α 2 3 + 1 + 8α 2 3 − 1 − 8α 2 3 − 1 + 8α 2
− ln − ln
2 6 2 6
1+ α 1− α 4
+ 2 (1 + α ) ln + 2 (1 − α ) ln + 3ln = 0,
2 2 3
353
donde 0 ≤ a ≤ 1.
Se reconoce fácilmente que el primer miembro aumenta constantemente de 0
4
a 3 ln cuando a crece de 0 a 1;198 luego debe ser a = 0, es decir, (j, y) = 0
3
c.q.d. (Para a = 0, el proceso inverso del que acabamos de describir disminuiría
la entropía, en contra del segundo principio.)
Tras estos preliminares, pasemos a la determinación de la entropía de un
gas - U constituido por N moléculas en el volumen B y a la temperatura T; o
dicho más exactamente, pasemos a la determinación del exceso de su entropía
respecto de la de un gas - P[j] sometido a las mismas condiciones. De acuerdo con
las observaciones que hicimos anteriormente y en virtud de la normalización arri
ba indicada, es entonces este exceso lo que debe entenderse por entropía de la
colectividad - U formada por N sistemas sin interacción, ejemplares de un mismo
tipo*. Supondremos, además, traza U igual a la unidad, de conformidad con lo
antes dicho.
Sabemos ya que, en estas condiciones, U tiene un espectro discreto puro w1,
w2, …, siendo w1 ≥ 0. w2 ≥ 0, …, y w1 + w2 + … = 1; sean j1, j2, … sus fun
∞
ciones propias: entonces es U = ∑ wn P[ϕn ] (cf. IV.3). El gas — U aparece así como
n =1
una mezcla de gases P[j ], P[j ], … compuestos de w1N, w2N, … moléculas, res
1 2
pectivamente, todos ellos en el mismo volumen B. T y B sean tales que todos estos
gases se comporten
– como gases perfectos y, además, supongamos rectangular la
sección de K. Para separar unas de otras las diferentes especies de moléculas j1,
j2, … efectuaremos las siguientes operaciones reversibles (cf. fig. 4). Construyamos
al lado de K (23452) una segunda caja rectangular K' (12561) de iguales dimen
siones y sustituyamos la pared común 25 por dos tabiques muy próximos, uno de
los cuales, el (25), sea fijo, semipermeable, deje pasar j1 y refleje j2, j3, …, y el
otro, el (bb), móvil, y por lo demás un tabique ordinario absolutamente imper
meable. Introduzcamos, finalmente, en dd, tocando a 34, otro tabique semiper
meable que se deje atravesar por j2, j3, … y refleje j1. Corramos entonces bb y
dd, manteniendo fija su distancia mutua, hasta bb, dd, respectivamente (es decir,
hasta 16 y 25). La influencia de este proceso sobre las moléculas j2, j3, … es nula;
las moléculas j1 en cambio, se ven constreñidas a mantenerse constantemente
entre los tabiques móviles bb, dd. Dado que la distancia mutua de éstos es cons
tante, no hemos de realizar para ello trabajo alguno contra la presión del gas; por
otra parte, tampoco tiene lugar ningún desarrollo de calor. Sustituyamos, en fin,
los tabiques 25 y cc por una pared fija –absolutamente
– impermeable 25 y alejemos
aa, con lo cual quedan – reconstruidas K y K ', sólo que ahora todas las moléculas
j1 se encuentran en K'. Por lo tanto, hemos «transvasado» dichas moléculas de
* Téngase muy presente la definición de esas colectividades dada en la página 345 y cuídese de
no confundirlas con los sistemas de partículas (o de sistemas) indiscernibles, los cuales obedecen a
otra estadística muy distinta. (N. del T.)
354
– –
K a K' por vía reversible, sin gasto de trabajo, ni desarrollo de calor ni cambio de
temperatura.199
1 2 3
a b c d
a b c d
6 5 4
Figura 4
– «Transvasemos»
– de la misma manera las moléculas j2, j3, … a cajas iguales
K'', K''', … Tendremos, así, finalmente, gases P[j ], P[j ], … constituidos por w1N,
1 2
te elegido). De esta manera tenemos ahora sólo gases P[j] formados por w1N, w2N,
… moléculas en los volúmenes w1B, w2B, …» respectivamente. Dado que todos
son idénticos y de igual densidad (N : B), podemos mezclarlos y también esta
operación es reversible: el resultado de la mezcla es un gas P[j] integrado por N
⎛ ∞
⎞
moléculas en el volumen B ⎜ ya que ∑ wn = 1⎟ .
⎝ n =1 ⎠
Hemos llevado así a término la transición reversible que perseguíamos. En su
∞
curso la entropía aumentó en N χ ∑ wn ln wn y pues en el estado final (de acuerdo
∞
n =1
con nuestra normalización) es cero, en el estado inicial era −N χ ∑ wn ln wn .
n =1
Recordemos que U tiene como funciones propias j1, j2, … y como valores
propios wi, w2, …; luego U ln U posee las mismas funciones propias» pero sus
∞
valores propios son w1 ln w1, w2 ln w2, … y, por ende, traza (U ln U ) = ∑ wn ln wn .
n =1
Nótese que 0 ≤ wn ≤ 1 por lo tanto wn ln wn < 0, y sólo igual a cero para wn = 0
ó 1. Que para wn haya que tomar wn ln wn = 0 se sigue de que en nuestras consi
355
deraciones no cabe tener en cuenta las wn nulas; por lo demás, al mismo resultado
se llega si atendemos a la continuidad de wn ln wn.
Hemos determinado de esa manera la entropía de una colectividad —U cons
tituida por N sistemas iguales y aislados entre sí: su valor es— Nc traza (U ln U ).
Lo dicho antes acerca de wn ln wn indica que esta entropía es siempre ≥ 0 y para
que sea = 0 todos los wn deben ser iguales a 0 ó 1. En tal caso, y a causa de ser tra
za U = 1, hay precisamente un wn = 1, todos los demás son nulos; luego U = P[j ], n
es decir» los U = P[j], los estados, tienen una entropía nula mientras que la entro
pía de las mezclas es > 0.
∞ ∞
U' = ∑ (P[ϕ]ϕn, ϕn ) ⋅ P[ϕn] = ∑ (ϕ, ϕn ) P[ϕn],
2
n =1 n =1
y a menos de ser también U' un estado habrá tenido lugar un aumento de entro
pía (la entropía de U era 0, la de U' es > 0), de suerte que el proceso es irreversi
ble. Ahora bien, para que U’ sea un estado, un P[j] por consiguiente —pues las jn
son las funciones propias de U'—, todos los ∙(j, jn)∙2 deben ser nulos salvo uno,
que es entonces = 1, es decir, j ha de ser ortogonal a todos los jn tales que n ≠ n–;
pero en tal caso se tiene j = cj n, donde ∙c∙ = 1, y por lo tanto P[j] = P[j ], U = U'.
n
356
Los valores propios del operador U' son (U j1, j1), (U j2, j2), …; luego su
∞
entropía es −N χ ∑ (U ϕn, ϕn ) ln (U ϕn, ϕn ). Por lo tanto, la entropía de U será ⪌
n =1
que la de U' según sea
∞ ∞
*
∑ (Uψ n, ψ n ) ln (Uψ n, ψ n ) ≤≥ ∑ (Uϕn, ϕn ) ln (Uϕn, ϕn ).
n =1 n =1
Demostremos primero que en * vale siempre la relación ≧, es decir, que el
proceso U → U' en ningún caso origina una disminución de entropía. Cierto es
que el que así sea está claro desde el punto de vista termodinámico; sin embargo,
importa para nuestros ulteriores fines dar de ello una demostración puramente
matemática.
Mantengamos fijo el operador U, y con él y1, y2, …, y hagamos describir a
j1, j2, … el conjunto de todos los sistemas ortonormales completos. En primer
lugar, por motivos de continuidad podemos limitarnos a aquellos sistemas j1, j2,
… entre cuyos elementos sólo hay un número finito que sean distintos de los co
rrespondientes yn. Supongamos, en consecuencia, que, por ejemplo, para n > M
es siempre jn = yn. En estas condiciones, los jn tales que n ≤ M son combinacio
nes lineales de los M primeros yn(n ≤ M) y recíprocamente; luego
M
ϕm = ∑ xmnψ n (m = 1, …, M)
n =1
M M
⎛M ⎞ ⎛M ⎞
∑ wn lnwn ≥ ∑ ⎜ ∑ xmn wn ⎟ ln ⎜ ∑ xmn wn ⎟ .
2 2
n =1 m =1 ⎝ n =1 ⎠ ⎝ n =1 ⎠
⎛ α β 0…0 ⎞
⎜ – β α 0…0 ⎟ 2 2
⎜ ⎟ , α + β = 1;
⎜ 0 0 1…0 ⎟
⎝ 0 0 0…1 ⎠
357
la matriz producto {x'mn} es asimismo unitaria y, por ende, sus elementos constitu
yen un sistema de xmn adecuado. Tomemos α = 1 − ε 2 b = qe (e real, ∙q∙ = 1) y
supongamos e pequeño, lo que nos permitirá efectuar los cálculos atendiendo sólo
a los términos en 1, e, e 2 y prescindir de los que contengan e3, e4, … Se tiene
1
entonces a ≃ 1 - e2, y en la nueva matriz {x'mn}
2
⎛ 1 ⎞
x'1n ⎜1 − ε 2 ⎟ x1no + θε x2no
,
⎝ 2 ⎠
⎛ 1 ⎞ o
x' 2n − θε x1no + ⎜1 − ε 2 ⎟ x2n ,
⎝ 2 ⎠
x'mn = xmn o
, (m ≥ 3) ;
luego
M M M
∑ wn x'1n ! ∑ wn x1no + ε ∑ 2wn Re(θ x1no x2n
2 2 o
)
n =1 n =1 n =1
M
+ ε 2 ∑ wn (− x1no + x2n
2 2
o
),
n =1
M M M
∑ wn x'2n ! ∑ wn x2no − ε ∑ 2wn Re(θ x1no x2n
2 2 o
)
n =1 n =1 n =1
M
− ε 2 ∑ wn (− x1no + x2n
2 2
o
),
n =1
M M
∑ wn x'mn = ∑ wn xmno
2
2
, (m ≥ 3)
n =1 n =1
1
f'(x) = lnx + 1, f''(x) =
x
y sumemos los resultados obtenidos; la suma es
M
⎛M ⎞ ⎛M 2⎞
M
⎛M o 2⎞ ⎛M o 2⎞
∑ ⎜ ∑ wn x'mn ⎟⎠ ⎜⎝ n =1 n mn ⎟⎠ m =1 ⎜⎝ n =1 n mn ⎟⎠ ⎜⎝ ∑
∑ ∑ ∑
2
ln w x' ! w x ln wn xmn ⎟⎠
m =1 ⎝ n =1 n =1
⎡ ⎛M 2⎞ ⎛M o 2⎞
⎤ M
+ ε ⎢ln ⎜ ∑ wn x1no ⎟ − ln ⎜ ∑ wn x2n ⎥ ⋅ ∑ 2wn Re (θ x1n x2n )
o o
⎟
⎣ ⎝ n =1 ⎠ ⎝ n =1 ⎠ ⎦ n =1
⎡ ⎛ ⎛M 2⎞ ⎛M ⎞ M
o 2⎞ ⎛
M
o 2⎞
+ ε 2 ⎢− ⎜ ln ⎜ ∑ wn x1no ⎟ − ln ⎜ ∑ wn x2n ⎟ ⎟ ⎜ ∑ wn x o 2
1n − ∑ wn x2n ⎟⎠
358 ⎢⎣ ⎝ ⎝ n =1 ⎠ ⎝ n =1 ⎠ ⎠ ⎝ n =1 n =1
1 1 1 ⎞ ⎛ 2w
M
o o ⎞
2
⎤
+ ⎛M + ⎜ ∑ n Re (θ x1n x2n )⎟ ⎥.
2⎜ 2⎟
M
⎜ ∑ n 1n
w x o 2
∑ wn x2no ⎟ ⎝ n =1 ⎠ ⎥
⎥⎦
⎝ n =1 n =1 ⎠
Fund_MAT_05.indd 358 7/5/18 18:20
M
⎛M ⎞ ⎛M 2⎞
M
⎛M o 2⎞ ⎛M o 2⎞
∑ ⎜ ∑ wn x'mn ∑ ∑ ∑ ⎟⎠ ⎜⎝ ∑
2
ln
⎟⎠ ⎜⎝ n =1 wn x' mn !
⎟⎠ m =1 ⎜⎝ n =1 wn x mn ln wn xmn ⎟⎠
m =1 ⎝ n =1 n =1
⎡ ⎛M 2⎞ ⎛M o 2⎞
⎤ M Consideraciones generales
+ ε ⎢ln ⎜ ∑ wn x1no ⎟ − ln ⎜ ∑ wn x2n ⎥ ⋅ ∑ 2wn Re (θ x1n x2n )
o o
⎟
⎣ ⎝ n =1 ⎠ ⎝ n =1 ⎠ ⎦ n =1
⎡ ⎛ ⎛M 2⎞ ⎛M ⎞ M
o 2⎞ ⎛
M
2⎞
+ ε 2 ⎢− ⎜ ln ⎜ ∑ wn x1no ⎟ − ln ⎜ ∑ wn x2n ⎟ ⎟ ⎜ ∑ n 1n ∑ wn x2no ⎟
w x o 2
−
⎢⎣ ⎝ ⎝ n =1 ⎠ ⎝ n =1 ⎠ ⎠ ⎝ n =1 n =1 ⎠
1 1 1 ⎞ ⎛ 2w
M
⎞
2
⎤
+ ⎛M + ⎜ ∑ n Re (θ x1no x2no )⎟ ⎥.
2⎜ M
⎟
⎜ ∑ wn x1n
o 2
∑ wn x2no ⎟ ⎝ n =1 ⎠
2
⎥
⎝ n =1 n =1 ⎠ ⎥⎦
Para que el primer término del secundo miembro sea el valor máximo en cues
tión, el coeficiente de e debe ser nulo y el de e2 ha de ser ≤ 0. El primero de estos
coeficientes es producto de dos factores,
⎛M 2⎞ ⎛M o 2⎞
M
ln ⎜ ∑ wn x1no ⎟ − ln ⎜ ∑ wn x2n ⎟⎠ y ∑ 2wn Re(θ x1no x2no );
⎝ n =1 ⎠ ⎝ n =1 n =1
Puesto que en lugar de 1,2 cabe poner dos números distintos cualesquiera k,
j = 1, …, M. resulta en definitiva que
M
∑ wn xkno x jno = 0 para k ≠ j.
n =1
359
diagonal. Pero como los elementos diagonales son los multiplicadores (o valo
res propios) de la matriz, estos elementos no cambian al efectuar una transfor
mación de coordenadas, a lo sumo pueden aparecer permutados entre sí. Ahora
bien, antes de la transformación dichos elementos eran los wm (m = 1, …,
M
∑ wn xmno
2
M); después de ésta son los (m = 1, …, M); luego las sumas
n =1
M M
⎛M ⎞ ⎛M o 2⎞
∑ wn lnwn, ∑ ⎜ ∑ wn xmno ⎟⎠ ln ⎜⎝ ∑
2
n =1 m =1 ⎝ n =1 n =1
wn xmn ⎟⎠ tienen el mismo valor, es decir, tam
{ }
bién las xmn = 1, para m = n dan lugar a un máximo, conforme afirmábamos.
0, para m ≠ n
Determinemos ahora cuándo en * vale el signo =. Cuando así ocurre, la ex
presión
∞
∑ (U χn, χn ) ln (U χn, χn )
n =1
se tiene entonces
Uwm = umwm, de donde (Uwm, wn) = un, para m = n { ∣
0, para m ≠ n
M
Por consiguiente, para ξm = ∑ xmnwn (m = 1, …, M, {xmn} unitaria), resulta
M n =1
(U ξk , ξ j ) = ∑ υn xkn x jn. A causa de la hipótesis hecha acerca de las j1, …, jM, la
n =1
expresión
M
⎛M ⎞ ⎛M 2⎞
∑ ⎜ ∑ υn xmn ⎟⎠ ln ⎜⎝ ∑
2
υn xmn ⎟
m =1 ⎝ n =1 n =1 ⎠
360
toma su valor máximo para xmn = amn. De aquí se sigue, según hemos demostrado,
M
que ∑ υnα knα jn = 0 para k ≠ j, es decir, (Ujk, jj) = 0 para k ≠ j, k, j = 1, …, M.
n =1
Estas relaciones deben valer para todo M; luego Ujk ha de ser ortogonal a
todas las jj, j ≠ k, e igual, por lo tanto, a w'kjk, donde w'k es una constante. En
resumen, las funciones j1, j2, … son funciones propias del operador U y los co
rrespondientes valores propios son w1, w2, …, los cuales, por ende, constituyen
una permutación de w1, w2, … Pero en estas condiciones,
∞ ∞
U' = ∑ (U ϕn, ϕn )P[ϕn] = ∑ w'n ⋅ P[ϕn] = U.
n =1 n =1
361
inalterado (es decir, si U' = U, o lo que es equivalente, si j1, j2, … son funciones
propias de U, o sea, si U y R son permutables), también ella, claro está, conserva
su valor. Por lo tanto, en una operación compuesta de procesos 1, 2, en número
y orden de sucesión cualesquiera, la magnitud -Nc traza (U ln U ) se conserva
cuando cada proceso 1 es inactivo (no origina cambio alguno); en todos los demás
casos, dicha magnitud aumenta. Luego, cuando sólo se consideran operaciones 1,
2, cada proceso 1 que origine un cambio efectivo es irreversible.
Por otra parte, hay también expresiones más sencillas que traza (U ln U ) que
no crecen en 1 y son constante en 2, por ejemplo el mayor valor propio de U. En
efecto: frente a una transformación 2 es invariable, como todos los valores propios
de U; en un proceso 1, los valores propios de U, w1, w2, …, se transforman en los
∞ ∞
valores propios de U', ∑ wn x1n , ∑ wn x2n
2 2
, … (cf. supra, en este mismo párra
n =1 n =1
fo), y puesto que a causa del carácter unitario de la matriz {xmn} se tiene
∞ ∞
∑ x1n = 1, ∑ x2n = 1, …, todos estos números son ≤ que el mayor de los wn
2 2
n =1 n =1 ∞
(máximo de los wn que existe, porque todo wn ≥ 0 y ∑ wn = 1 implica wn → 0).
n =1
Ahora bien, dado que es posible sin más cambiar U de modo tal que -traza
∞
(U lnU ) = − ∑ wn ln wn no varíe y a la vez aumente el mayor de los wn se echa
n =1
de ver que existen transiciones posibles desde el punto de vista de la Termodiná
mica fenomenológica —las cuales, por consiguiente, son efectivamente realizables
con nuestros gases— que nunca podrán ser llevadas a término por aplicación su
cesiva de 1, 2. Esto indica que la introducción del método de los gases es inevi
table.
En lugar de -traza (U ln U ) cabe también considerar la traza (F(U )) para
funciones F(x) convenientemente elegidas. Puede demostrarse que este valor au
menta en el proceso 1 para U ≠ U (para U = U' y también en 2 es, claro está,
invariante) de la misma manera que se hizo en el caso particular F(x) = x ln x,
supuesto que las únicas propiedades del segundo miembro que se utilizaron más
arriba se den asimismo en F(x). Estas propiedades son: F''(x) < 0, F'(x) monótona
decreciente; pero la última se deduce de la primera. En consecuencia: en lo que
atañe a las cuestiones de irreversibilidad independientes de la Termodinámica,
podemos aplicar toda traza (F(U )) cuando F(x) es una función convexa respecto
del eje OY +, es decir, cuando F''(x) < 0 en el intervalo 0 ≤ x ≤ 1, que es el que
contiene los valores propios de U.
Habría que demostrar, finalmente, que tampoco la mezcla de dos colectivida
des U, V (por ejemplo en la proporción a : b, donde a > 0, b > 0 y a + b = 1)
disminuye la entropía, o sea
362
También este resultado vale incluso para toda función convexa F(x) en vez de
-x ln x. Dejamos la demostración a cargo del lector.
El problema que nos proponemos resolver a continuación es el de hallar la
mezcla de equilibrio estacionaria, esto es, la mezcla de entropía máxima, cuando
se da el valor de la energía. Esto último hay que entenderlo, naturalmente, en el
sentido de que lo prefijado es el valor medio de la energía, porque, en fuerza del
método para la investigación termodinámica de las colectividades estadísticas ci
tado en la Nota 184, sólo dicho valor medio entra en consideración. De acuerdo con
esto, son admisibles solamente aquellas mezclas para cuyos operadores estadísticos
U sea traza U = 1 y traza (U H) = E, igualdad esta última en la que H es el ope
rador de la energía y E el prefijado valor medio de la misma. Bajo estas condicio
nes, hay que hacer máximo -Nχ traza (U ln U ). Para simplificar, supondremos
además que H posee un espectro discreto puro; sean W1, W2, … sus valores propios
(entre los que puede haberlos múltiples) y j1, j2, … sus funciones propias.
Sea R una magnitud cuyo operador R tiene a j1, j2, … como funciones pro
pias, pero con valores propios todos simples. La medición R transforma U, según
∞
1, en U' = ∑ (U ϕn, ϕn )P[ϕn] y en este proceso -Nc traza (U ln U ) aumenta (si no
n =1
es U = U' ) y traza (U) traza (U H ) no varían. La verdad de esto último resulta de
ser las jn funciones propias de H, por lo que (H jm, jn) = 0 para m ≠ n:
∞ ∞
traza (U'H) = ∑ (U ϕn, ϕn ) traza (P[ϕn]H) = ∑ (U ϕn, ϕn )(Hϕn, ϕn )
n =1 n =1
∞
= ∑ (U ϕm, ϕn )(Hϕn, ϕm ) = traza (UH);
m,n =1
363
∂ ⎛ ∞ ⎞ ∂ ⎛ ∞ ⎞ ∂ ⎛ ∞ ⎞
⎜ ∑
∂wn ⎝ m =1
wm lnwm ⎟ + α ⎜ ∑ wm
∂wn ⎝ m =1 ⎠ ⎟ + β ⎜ ∑
∂wn ⎝ m =1
Wmwm ⎟ = 0,
⎠ ⎠
n =1 e −βWn
wn = ∞ ,
∑ e −βWm
m =1
∞
y en virtud de ∑Wnwn = E ha de ser
n =1
∞
∑Wne − βW n
n =1
∞ = E,
∑e − βWn
n =1
Z' (β )
− = E.
Z (β )
364
∞ ∞
(Haremos, además, la hipótesis de que ∑ e −βW y ∑Wne −βW
n n
convergen para todo
n =1 n =1
b > 0, es decir, que Wn → ∞ con suficiente rapidez para n → ∞. Por ejemplo,
W
basta que n → ∞.) De esta manera resulta para el propio U la expresión siguiente:
lnn
∞
e −βH e −βH
U = ∑ ae −βWn P[ϕn] = ae − βH = = .
n =1 traza (e −βH) Z (β )
Los métodos ordinarios de la teoría cinética de los gases permiten ahora deter
minar las propiedades de la colectividad de equilibrio U, la cual queda fijada una
vez dado el valor de E o de b, colectividad que, por lo tanto, depende de un pa
rámetro, como debía suceder.
Su entropía es
⎛ e − βH e − βH ⎞
S = −N χ traza (U lnU ) = −N χ traza ⎜ ⋅ ln
⎝ Z (β ) Z (β )⎟⎠
Nχ
=− traza [e −βH (−β H − ln Z(β ))]
Z (β )
βN χ N χ ln Z(β )
= traza (He −βH) + traza (e −β H)
Z (β ) Z (β )
⎡ β Z' (β ) ⎤
= N χ ⎢− + ln Z (β )⎥ ,
⎣ Z (β ) ⎦
y su energía total
Z'(b)
N E = -N .
Z(b)
(El paralelo debe establecerse entre ésta y S, no entre E y S.) Con esto hemos
determinado U, S y N E como funciones de b. En vez de pretender expresar sim
plemente b en función de E, es más práctico determinar la temperatura T de la
mezcla de equilibrio y reducirlo a ésa, lo que se consigue de la siguiente manera:
pongamos en contacto nuestra colectividad de equilibrio con un termostato de
temperatura T' y tomemos de él la energía Nd E —con ello, en virtud de los dos
principios fundamentales, la energía total debe permanecer inalterada y la entropía
no decrecer. En consecuencia, el termostato pierde la energía Nd E, de suerte que
Nd E
su aumento de entropía es - , y al mismo tiempo ha de ser
T'
Nd E ⎛ d S 1⎞
dS− =⎜ − ⎟ Nd E ≥ 0.
T' ⎝ Nd E T' ⎠
365
Por otra parte, evidentemente es Nd E ⋛ 0 según sea T' ⋛ T, porque el cuer
d S
po más frío toma energía del más caliente. Por lo tanto, T' ⋛ T significa que
dE Nd E
1 Nd E dβ
- ⋛ 0, esto es T' ⋛ =N ; luego
T' dS dS
dβ
es decir,
1
b= ,
χT
relación ésta que permite representar U, S, N E como funciones de la temperatura.
Es sorprendente la analogía de las expresiones que acabamos de obtener para
la entropía, la colectividad de equilibrio, etc., con los correspondientes resultados
de la teoría termodinámica basada en la Mecánica clásica. Consideremos primero
la entropía -Nχ traza (U In U ).
∞
Sea U = ∑ wn P[ϕn] una mezcla de las colectividades P[j ], P[j ], … en las propor
1 2
n =1
ciones w1, w2: …, es decir, Nw1 sistemas j1, Nw2 sistemas j2, … La entropía de
Boltzmann de esta colectividad se obtiene con ayuda del «número de complexio
N!
nes» : es igual al producto del logaritmo de este número por χ201.
(Nw1)! (Nw2)! …
Dado que N es grande, podemos aproximar las factoriales mediante la fórmula de
N!
Stirling x ! ≈ 2π xe − x x x , merced a lo cual χ ln se transforma
∞
(Nw 1 )! (Nw2)! …
∞ Wn
∑ e − xT P[ϕ ] ,
n
n =1
una mezcla, por ende, de los estados P[j ], P[j ], … (es decir, de los estados estacio
1 2
W1 W2
narios de energías W1, W2, …), afectados de los pesos (relativos) e - χT : e - χT : … Si
366
con el peso ne - xT . Pero precisamente así se define la colectividad «canónica» clá
1
sica (prescindiendo de la expresión (P[j ] + … + P[j ]) que es específica de la
n n1 nn
de manera que éstas son asimismo funciones propias de U, y por lo tanto, wj = wk.
En consecuencia, cabe construir una función F (x) tal que F (Wn) = wn (n = 1, 2, …)
y se tendrá F (H) = U. Es claro que esta condición es también suficiente e igual
mente lo es que implica la permutabilidad de H y U.
Por este camino, pues, resulta que U = F (H). pero no se consigue determinar
la forma de F (x) (conforme sabemos, es F (x) =
e-bx
Z(b)
,b=
1
cT )
De traza (U ) = 1 y traza (U H) = E se deduce aún que
∞ ∞
∑ F(Wn ) = 1, ∑Wn F(Wn ) = E,
n =1 n =1
4. La medición macroscópica
Aunque nuestra expresión de la entropía es, como vimos, una forma del todo
análoga a la entropía clásica, no puede dejar de sorprender el que se conserve du
367
rante la evolución temporal del sistema (proceso 2) y aumente sólo como conse
cuencia de una medición (proceso 1). En la Mecánica clásica, en la que las medi
ciones no representaban ningún papel, la entropía aumentaba, por regla general
incluso en la evolución temporal mecánica ordinaria del sistema. Por esto es ne
cesario poner en claro aquel comportamiento en apariencia paradójico.
El razonamiento normal propio de la Termodinámica clásica discurre así: To
memos un recipiente cerrado de volumen B en cuya mitad derecha, de volumen,
B
separada de la otra mitad por un tabique, se encuentran M moléculas de un
2
gas (que para simplificar supondremos perfecto) a la temperatura T. Si expansio
násemos este gas isotérmica y reversiblemente hasta el volumen B (haciendo retro
ceder el tabique a favor de la presión del gas, gastando el trabajo mecánico así
obtenido y manteniendo constante la temperatura por medio de un termostato de
temperatura T), la entropía del sistema exterior (el termostato) disminuiría en Mc
ln 2 y, por consiguiente, en otro tanto aumentaría la del gas. Por el contrario, si
simplemente quitamos el tabique, el gas se difunde en la mitad libre izquierda y
el volumen crece hasta el valor B, es decir, la entropía aumenta en Mc ln 2 sin
que se produzca compensación ninguna. El proceso es, por lo tanto, irreversible,
la entropía ha aumentado en el curso de la evolución temporal simplemente me
cánica del sistema (a saber, en la difusión). ¿Por qué no resulta de nuestra teoría
nada semejante?
Como más claramente se patentizan las circunstancias es haciendo M = 1. Para
un tal gas monomolecular sigue siendo válida la Termodinámica y es correcto de
cir que su entropía aumenta en c ln 2 cuando se duplica el volumen que se le
ofrece. Sin embargo, esta diferencia c ln 2 existe realmente sólo en tanto lo único
B
que verdaderamente se sepa de la molécula es que se encuentra en el volumen
2
o en el B respectivamente. Cuando, por ejemplo, la molécula está en el volumen
B pero además se sabe si se encuentra en la mitad derecha o izquierda del recipien
te, basta introducir en medio de éste un tabique y dejar que la molécula empuje
hasta la pared terminal izquierda o derecha, respectivamente. Con esto se realiza
el trabajo mecánico χT ln 2, es decir, se toma esta energía del termostato. Al final,
pues, la molécula se encuentra de nuevo en el volumen B; sin embargo, ya no
sabemos si se halla en la mitad derecha o izquierda del recipiente, pero en com
pensación existe en el termostato una disminución de entropía χ ln 2. En otros
términos, hemos trocado nuestro conocimiento por la disminución de entropía
χ ln 2.202 O también: la entropía en el volumen B es la misma que en el volumen
B
si se sabe en qué mitad del recipiente se halla la molécula. Por consiguiente, si
2
se conoce exactamente la molécula antes de la difusión (es decir, si se conocen su
posición y su impulso), se puede calcular en cada momento, después de ésta, si se
encuentra en la mitad derecha o izquierda, esto es, la entropía no habrá aumenta
B
do. Tan sólo cuando únicamente disponemos del dato macroscópico de ser el
volumen inicial, aumenta realmente la entropía en la difusión. 2
368
Para un observador clásico, que conoce todas las coordenadas y los impulsos,
la entropía es, por ende, constante y precisamente igual a 0, pues el «número de
complexiones» de Boltzmann es 1 (cf. loc. cit. Nota 201). Igual ocurre en nuestra
teoría con los estados U = P[j], los cuales también aquí corresponden al más alto
nivel de conocimiento del observador acerca del sistema.
En consecuencia, las variaciones temporales de entropía son debidas, en un
caso, a que el observador no lo conoce todo, en el otro, a que no ha determinado
(medido) todo lo por principio medible: sus sentidos sólo le permiten percibir
justamente las llamadas magnitudes macroscópicas. Esta explicación de la aparen
te contradicción de que hablábamos al empezar, nos impone, empero, el deber de
buscar algo que se comporte respecto de las colectividades de la Mecánica cuánti
ca como la entropía macroscópica clásica, es decir, el de estudiar la entropía desde
el punto de vista de un observador que no puede medir todas las magnitudes, sino
solamente algunas privilegiadas, a saber, las magnitudes macroscópicas, y aun éstas,
eventualmente, sólo con una precisión limitada.
Vimos en III.3 que todas las mediciones de precisión acotada se pueden sus
tituir por mediciones absolutamente precisas de otras magnitudes que son funcio
nes de aquéllas y poseen un espectro discreto puro. Sea R una de esas magnitudes,
R su operador y l(1), l(2)… aquellos de entre sus valores propios que son distintos
entre sí. En estas condiciones, la medición de R equivale a contestar a las siguien
tes preguntas: «¿Es R = l(1)?, ¿es R = l(2)?», … Sin duda, cabe asimismo decir di
rectamente: hay que medir la magnitud S cuyo operador es el S, con una precisión
limitada; por ejemplo, hay que decidir en qué intervalo cn - 1 < l ≤ cn se encuen
tra (… < c-2 < c-1 < c0 < c1< c2 ≤ …; cn → ∞ o - ∞ para n → ∞ o - ∞, respec
tivamente); así, de lo que se trata es de contestar a todas las preguntas «¿está en
cn - 1 < l ≤ cn?» (n = 0, ±1, ±2, …).
Según III.5, a tales preguntas corresponden operadores de proyección E cuyas
magnitudes E son, en el fondo, lo que hay que medir. En nuestro primer ejemplo
las E son las funciones Fn(R), n = 1, 2, …, donde Fn(l) = 1, para l = l(n) y el
{ ∣
(n)
0, para l ≠ l
operador E, el Fn(R); en el segundo, lo son las funciones Gn(S), n = 0, ±1, ±2, …,
donde
369
Ahora bien, pertenece a la esencia del medir macroscópico que todo lo que es
macroscópicamente medible lo es también simultáneamente. Es decir, a todas las
preguntas E a las que se puede responder macroscópicamente, cabe responder si
multáneamente; o sea, todos los E son entre sí permutables. Justamente por esto
la no simultánea mensurabilidad de las magnitudes de la Mecánica cuántica ha
causado al principio la impresión de algo paradójico: dicho concepto es extraño
al modo de ver macroscópico. Dada la gran importancia fundamental de este
punto, es conveniente discutirlo algo más detalladamente.
Recordemos el método merced al cual se pueden medir a la vez con una pre
cisión acotada dos magnitudes notoriamente no mensurables simultáneamente,
por ejemplo, la coordenada q y el impulso p (cf. III.4). Sean e, h, respectivamen
te, los errores medios cuadráticos de las dos medidas (según las relaciones de in
determinación, eh ∼ h). La discusión llevada a cabo en III.4 muestra que, si no se
pide más exactitud que ésta, la medición simultánea es efectivamente posible: la
medición de q (de la posición) se efectúa con luz de longitud de onda no dema
siado corta; la medición de p (del impulso), con trenes de ondas luminosas no
excesivamente largos. Cuando todo ha quedado así dispuesto, lo que propiamen
te constituye la medición consiste en poner de manifiesto como sea los dos quan
ta de luz, por ejemplo, fotografiándolos: uno es el desviado por efecto Compton
en la medición de q; el otro es el que en la medición de p se refleja afectado por
el efecto Doppler, viendo así alterada su frecuencia, y que luego es desviado por
un instrumento óptico (prisma, reja de difracción) al determinarla. Al final del
experimento nos encontramos, pues, ante dos quanta luminosos o tal vez dos pla
cas fotográficas, y hay que calcular q y p a partir de las direcciones de aquéllos o
de las posiciones de ennegrecimiento que resultan en éstas. Tocante a esto hay que
destacar que nada nos impide determinar con cuanta exactitud queramos dichas
dos direcciones o dichas dos posiciones, pues tanto las unas como las otras son
magnitudes simultáneamente mensurables, evidentemente (en un caso son impul
sos y en el otro coordenadas de dos objetos diferentes); pero ello de poco serviría
para la medición de q y de p. En efecto, conforme se demostró en III.4, la conexión
de estas magnitudes con q y p es tal que siempre subsisten para éstas las indeter
minaciones e, h (incluso cuando se conocen exactamente las primeras) y que no
cabe disponer las cosas de modo que eh << h.
Introduzcamos, en consecuencia, dichas dos direcciones o posiciones de enne
grecimiento como magnitudes físicas y sean Q', P' sus operadores: Q' y P' son, en
verdad, exactamente permutables, pero los operadores Q, P que corresponden a q,
p no pueden expresarse en función de ellos con una precisión superior a e, h,
respectivamente. Sean q', p' las magnitudes correspondientes a Q, P'; la interpre
tación según la cual las verdaderas magnitudes medibles macroscópicamente son,
no q y p, sino q' y p' es muy natural (¡de hecho lo que realmente se mide es q' y
p' !) y está de acuerdo con nuestro postulado de la mensurabilidad simultánea de
todas las magnitudes físicas.
Es conveniente interpretar el resultado que acabamos de establecer, generali
zándolo, como una característica del punto de vista macroscópico. Según esto, el
370
∞ ∞
Q' = ∑ an P[ϕn], P' = ∑ bn P[ϕn].
n =1 n =1
371
y constituyen las medidas de los cuadrados de las diferencias entre Q' y Q y entre
P' y P respectivamente, de suerte que deben ser iguales, aproximadamente, a e2 en
el primer caso y a h2 en el segundo. Por tal razón imponemos las condiciones
Y he aquí por qué es más conveniente, en vez de hablar de Q' y P\ buscar sim
plemente un sistema ortogonal completo j1, j2, … para el cual valgan las anterio
res desigualdades, si se eligen adecuadamente a1, a2, … y b1, b2, …
En III.4 encontramos ya una j (∙j ∙ = 1) que satisface las igualdades
h hγ h ⎛ ε⎞
donde, en virtud de ser eh = , de nuevo hemos puesto ε = ,η= es decir, γ = ⎟
4p 4π 4πγ ⎜⎝ η⎠
h ⎛ ε⎞
η= ⎜ es decir, γ = ⎟ y donde hay que tomar a = s y b = r. Pero ahora de lo que se
4πγ ⎝ η⎠
trata es de formar un sistema ortonormal completo a partir de esas jr, s, g . Obser
vemos, en primer lugar, que pues r y s son los respectivos valores medios de Q
y P, es plausible hacer recorrer a r y s, independientemente el uno del otro, sen
dos sistemas de números cuyos elementos estén distribuidos en el primer siste
ma con densidad aproximadamente igual a e y en el segundo con una densidad
igual a h aproximadamente. Resulta por esto más práctico elegir como unidades
h h
2 π ⋅ ε = hγ y 2 π ⋅ η = , es decir, ρ = hγ µ y σ = ν (µ , ν = 0, ±1, ±2, …).
γ γ
h
y σ= ν (µ , ν = 0, ±1, ±2, …). Las ψ µ ,ν = ϕ ( µ , ν = 0, ±1, ±2, …) han de corresponder, por
γ h
hγ µ , ν, γ
γ
ende, a las jn(n = 1, 2, …)—evidentemente carece de importancia que en vez de
un solo índice n tengamos ahora dos, m y n.
Sin embargo, estas ym,n no son todavía ortogonales, aunque sí normalizadas y
tales que
h
Qψ µ, ν − hγ µψ µ, ν = ε, Pψ µ, ν − νψ µ, ν = η.
γ
372
particular dificultad demostrar que el sistema ortonormal y'm,n que así resulta es
completo y, además, sentar las acotaciones
h
Qψ' µ, ν − hγ µψ' µ, ν ≤ C ε, Pψ' µ, ν − νψ' µ, ν ≤ C η ,
γ
en las que es C ~ 60, valor éste que es muy probable se pudiera reducir conside
rablemente. La demostración de estos resultados requiere cálculos bastante penosos
que omitimos, si bien, por lo demás, no exige nuevos puntos de vista. Poco im
h
porta la presencia del factor C ~ 60, pues eh = es de una exorbitante pequeñez
-28
4p
(¡cerca de 10 !) cuando se mide en unidades macroscópicas (unidades C. G. S.).
Por lo tanto podemos decir, en resumen, que hay razones para admitir la per
mutabilidad de todos los operadores macroscópicos, en particular también la de
los operadores de proyección macroscópicos E introducidos más arriba.
Estos E corresponden a todas las cuestiones E a las que se puede contestar
macroscópicamente, es decir, a todas las disyuntivas que se refieren al sistema en
estudio y que se pueden resolver macroscópicamente. Conforme vimos, todos los
E macroscópicos son entre sí permutables; además, de acuerdo con III.5, a ellos
pertenecen, junto con E, 1 - E y junto con E y F, EF, E + F - EF, E - EF. Es
muy natural suponer que de ellos haya sólo un número finito: E1, …, En. Intro
duzcamos por un momento la notación E (+) = E, E (-) = 1 - E y consideremos
todos los 2n productos E1(s1) … En(sn) (s1, …, sn = ±). El producto de cada dos de
éstos distintos es nulo: si, en efecto, … E1(s1) … En(sn) y E (t1) … En(tn) están en estas
condiciones, por ejemplo sn ≠ tn, en su producto aparecen los factores En(Sν), En(tν)
es decir, En(+) = E y En(-) = 1 - E cuyo producto es, evidentemente, cero. Cada En
es suma de productos E1(s1)… En(sn), a saber:
∑
(s ) (s )
Eν = E1(s1) … Eν ν−1−1 ⋅ Eν(+) ⋅ Eν ν+1+1 … En(sn).
s1, …, sν −1, sν +1, …, sn = ±
Llamemos E'1, …, E'm aquellos de entre los E1(s1) … En(sn) que sean diferentes de
cero (evidentemente es m ≤ 2n; pero incluso debe ser m ≤ n - 1, pues E'1, …, E'm
son ±0 y han de estar entre los E1, …, En); se tiene entonces: E'm ≠ 0; E'm E'n = 0,
para m ≠ n; cada Em es suma de algunos E'n. (De esto último se sigue n = 2m.)
Obsérvese que nunca puede ser Em + En = E'r, a menos que Em = 0, En = E'r, o bien
Em = E'r, En = 0. En efecto, en caso contrario Em, En, serían sumas de algunos E'p
y, por ende, E'r lo sería de un número ≥ 2 de E'p (eventualmente con repetición).
Según II.4 teoremas 15 y 16, éstos serían todos distintos entre sí, y pues son en
número ≥ 2, también lo serían de E'r; luego su producto por E'r es nulo y cero
también es el de su suma por el mismo E'r, lo que contradice la hipótesis de ser
iguales aquélla y éste.
Las propiedades E'1, …, E'm que corresponden a E'1 …, E'm son, por consi
guiente, propiedades macroscópicas de la siguiente clase: 1, ninguna es absurda;
373
374
∞ ∞
U' = ∑ xn En en un V' = ∑ yn En, de manera que la diferencia de entropía sigue sien
n =1 n =1
do c traza (U' ln U' ) - c traza (V' ln V' ), es decir, la entropía de U' igual a
-c traza (U' ln U' ). Por supuesto que para que existan tales U' con traza U' = 1,
las trazas En, es decir, los números sn, han de ser finitos. Supondremos, pues, que
todos los sn lo son. Sentado esto, U' tendrá por valores propios a x1, x2, … con
los órdenes de multiplicidad s1, s2, …; luego los valores propios de -U' ln U'
serán -x1 ln x2, -x2 ln x2, … múltiples de órdenes s1, s2, …, respectivamente. Por
∞
lo tanto, la condición traza U' = 1 significa que
∞
∑ sn xn = 1 y la entropía vale
n =1
− χ ∑ sn xn ln xn. A causa de ser
n =1
∞
U'Em = ∑ xn En Em = xm Em, traza (U'Em) = xm traza Em = sm xm,
n =1
traza (U'Em )
de donde xm = , la anterior expresión puede escribirse
sm
∞
traza (U'En )
− χ ∑ traza (U'En ) ln .
n =1 sn
porque si hacemos
∞
traza (UEn )
xn = , U' = ∑ xn En,
sn n =1
se tendrá traza (UEn) = traza (U'En), y siendo así indiscernibles U y U' sus entro
pías han de coincidir.
Es necesario observar aún que esta entropía nunca es menor que la ordinaria,
o sea, que
∞
traza (UEn )
− χ ∑ traza (UEn ) ln ≥ − χ traza (U ln U ),
n =1 sn
∞
y que el signo = vale únicamente para U = ∑ xn En. De acuerdo con los resultados
de V.3, con seguridad ocurre así cuando n =1
375
∞
traza (UEn )
U' = ∑ En
n =1 sn
Pongamos luego
sn
1 2π i µν
ψ µ(n) =
sn
∑e s n ϕν(n) (µ = 1, 2,…, sn );
ν =1
las funciones y1(n), …, ys (n) forman un sistema ortonormal que define la misma
n
variedad lineal cerrada que las j1(n), …, js (n): la Bn. En consecuencia, también las
n
⎧0 para m ≠ n
⎪
(P[ϕν(n)]ψ , ψ ) = ⎨ 1
(m)
µ
(m)
µ ,
⎪ sn para m = n
⎩
sn sn
∑ P[ϕν(n)] = ∑ P[ψν(n)] = En .
ν =1 ν =1
∞ sm
⎡ ∞ sn ⎤
= ∑ ∑ ⎢∑ ∑ (U ϕν(n), ϕν(n))(P[ϕν(n)]ψ µ(m), ψ µ(m))⎥P[ψ µ(m)]
m =1 µ =1 ⎣n =1 ν =1 ⎦
∞ sm
⎡ sm (U ϕν(m), ϕν(m)) ⎤
= ∑ ∑ ⎢∑ ⎥P[ψ µ(m)] =
376 m =1 µ =1 ⎣ν =1 sm ⎦
∞ sm ∞
traza (UEm ) traza (UEm )
=∑∑ P[ψ µ(m)] = ∑ Em = U' .
m =1 µ =1 sm m =1 sm
∞ sm
⎡ ∞ sn ⎤ Consideraciones generales
= ∑ ∑ ⎢∑ ∑ (U ϕν(n), ϕν(n))(P[ϕν(n)]ψ µ(m), ψ µ(m))⎥P[ψ µ(m)]
m =1 µ =1 ⎣n =1 ν =1 ⎦
∞ sm
⎡ sm (U ϕν(m), ϕν(m)) ⎤
= ∑ ∑ ⎢∑ ⎥P[ψ µ(m)] =
m =1 µ =1 ⎣ν =1 sm ⎦
∞ sm ∞
traza (UEm ) traza (UEm )
=∑∑ P[ψ µ(m)] = ∑ Em = U' .
m =1 µ =1 sm m =1 sm
Luego bastan dos procesos 1. para cambiar U en U', y esto es todo lo que
necesitábamos para la demostración.
En el caso particular de los estados (U = P[j], traza (UEn) = (Enj, j) = ∙∙Enj ∙∙2)
esta entropía vale
2
∞ Enϕ
−χ∑
2
Enϕ ln
n =1 sn
∙∙Enj ∙∙ ≤ 1 y sn ≥ 1,
377
378
La medición
∂ 2p i
jt = − H jt , (0 ≤ t ≤ t)
∂t h
j0 = j, jt = j' .
es decir,
2π i
− tH
ϕ' = e h ϕ,
de una manera puramente causal por lo tanto. Conforme a esto, una mezcla U se
transforma en
2π i 2π i
− tH tH
U' = e h Ue h
n =1 ∞
en cuestión la transforma en la mezcla U' = ∑ (U ϕn, ϕn )P[ϕn] (proceso 1. en V.1).
n =1
Dado que aquí los estados pasan a mezclas, este proceso no es causal.
379
380
2. Sistemas compuestos
Conforme a lo anunciado al final del párrafo anterior, consideremos dos siste-
mas físicos I, II (cuyo significado no es necesariamente el mismo que el que antes
hemos atribuido a I, II ) y su reunión I + II. Supongamos que I tiene, desde el
punto de vista de la Mecánica clásica, k grados de libertad y sean q1, …, qk sus
coordenadas, en vez de las cuales, para abreviar, usaremos siempre del símbolo q;
análogamente, sean l los grados de libertad de II, r1 … rz sus coordenadas y r el
381
símbolo que representa su conjunto. El sistema I + II, por lo tanto, tiene k + l
grados de libertad y las coordenadas q1 …, qk, r1, …, rz o, abreviadamente, q, r.
En consecuencia, en la Mecánica cuántica las funciones de onda del sistema I son
de la forma j (q), las de II de la forma ξ(r) y las del sistema I + II de la forma
Φ (q, r). En los correspondientes espacios hilbertianos EI, EII, EI + II, los productos
interiores están definidos por ∫ ϕ (q)ψ (q)dk , ∫ ξ (r)η(r)dr , ∫∫ Φ(q, r)Ψ(q, r)dqdr ,
respectivamente. Las magnitudes físicas do I, II y I + II corresponden a los ope-
radores hermíticos (hipermáximos) A, A, A de los espacios EI, EII, EI + II.
Cada magnitud física de I es, naturalmente, una magnitud física de I + II y
su A se deduce de A de la siguiente manera: para determinar A Φ (q, r) considé-
rese r como una constante y aplíquese A a la función de q Φ (q, r).209 Esta norma
de coordinación es en todo caso correcta para los operadores de coordenadas,
⎛ h ∂ h ∂ ⎞
Q1, …, Qk (es decir, q1…, …, qk…), y para los de impulso P1, …, Pk ⎜ esto es, , …,
⎝ 2π i ∂q1 2π i ∂qk ⎟⎠
⎛ h ∂ h ∂ ⎞
⎜⎝ esto es, 2π i ∂q , …, 2π i ∂q ⎟⎠ (cf. I.2), y concuerda con los principios de coordinación I., II. de
1 k
IV.2 210, por lo que la postularemos con carácter general. (Su uso es corriente en
Mecánica cuántica.)
Del mismo modo, cada magnitud física de II lo es de I + II y su A resulta de A
de acuerdo con la regla siguiente: A Φ (q, r) es igual a A F (q, r), donde se conci-
be q constante y F(q, r) como función de r.
Si jm(q) (m = 1, 2, …) es un sistema ortonormal completo en EI y ξn(r) (n = l,
2, …) es un sistema de igual naturaleza en EII, evidentemente Fm/n(q, r) = jm(q)
ξn(r) (m, n = 1, 2, …) es un sistema ortonormal completo en EI + II. Por consiguien-
te, los operadores A, A y A se pueden representar por las matrices
hecho del que haremos uso en más de una ocasión. La significación de cada una
de esas matrices es la siguiente:
∞ ∞
Aϕm(q) = ∑ ϕm' (q) ⋅ am'/m, Aξn (r) = ∑ ϕn' (r) ⋅ an'/n
m' =1 n' =1
y
∞
AΦmn(q, r) = ∑ Φm' n' (q, r)α m'n' /mn,
m',n' =1
es decir,
∞
Aϕm(q)ξn (r) = ∑ ϕm' (q)ξn' (r)α m'n' /mn.
m',n' =1
382
o lo que es lo mismo
⎛ ⎧ 1, para n = n' ⎫⎞
α mn/m'n' = am/m' δ n/n' , ⎜δ n/n' = ⎨ 0, para n = n' ⎬⎟ .
⎝ ⎩ ⎭⎠
∞ ∞ ∞
⎛∞ ⎞
∑ vmn/m'n' am' /m δ n' /n = ∑ vmn/m'n am' /m = ∑ m' /m ⎜ ∑ vmn/m'n ⎟ .
a
m, n, m', n' =1 m, n, m' =1 m, m' =1 ⎝ n =1 ⎠
∞
um/m' = ∑ vmn/m'n.
n =1
383
∞ ∞ ∞
(De ∑ um/m = 1 y ∑ un/n = 1 se sigue, sin más, que ∑ vmn/mn = 1, es decir, la
m =1 n =1 m,n =1
normalización correcta se conserva). El problema tiene siempre solución, pues
vmn/m'n' = um/m' un/n' , por ejemplo, es siempre una solución (es fácil reconocer que
esta matriz es definida); pero de lo que se trata es de saber cuándo es la única.
Vamos a demostrar que ello ocurre siempre y sólo cuando una de las dos ma-
trices {um/m' }, {un/n' } es un estado. Demostremos primero la necesidad de esta con-
dición, es decir, la existencia de infinitas soluciones cuando ambas matrices corres-
ponden a mezclas. Se tiene en tal caso (cf. IV.2)
384
es solución si
p + s = a, p + t = b, p + r = g, s + t = d,
p, r, s, t > 0.
Las constantes p, r, s, t pueden elegirse de infinitas maneras. En efecto, a causa
de ser a + b = g + d, sólo tres de estas cuatro ecuaciones son independientes y así
cabe tomar, por ejemplo, r = g − p, s = a - p, t = (d - a) + p. Para que todos
esos valores sean >0, debe ser a - d = g - b < p < a, g, y sucede para infinitos
valores p. Dos sistemas de valores p, r, s, t diferentes conducen a diferentes
vmn/m'n' , pues los vm/m' vn/n' , …, wm/m' wn/n' son linealmente independientes por cuan-
to lo son vm/m' , wm/m' y asimismo vn/n' , wn/n' .
Demostremos ahora la suficiencia y supongamos, cual podemos hacerlo, que
um/m' , corresponde a un estado (la otra hipótesis se trata exactamente igual). Tene-
mos, por lo tanto, U = P[j], y dado que el sistema ortonormal completo era cual-
quiera, cabe admitir que j1 = j. La matriz de U = P[j ] es, evidentemente,
1
⎧ 1, para m = m' = 1
um/m' = ⎨ ;
⎩ 0, en caso contrario
luego
∞
⎧ 1, para m = m' = 1
∑ vmn/m'n = ⎨ 0, en caso contrario .
n =1 ⎩
∞
En particular, para m ≠ 1 es ∑ vmn/mn = 0; pero como en virtud del carácter defi-
n =1
nido de vmn/m'n' todos los vmn/mn son ≥ 0 —porque vmn/mn = (UΦmn, Φmn)—, en este
caso es vmnlmn = 0; luego (U𝚽mn, Fmn) = 0 y a causa del carácter definido de U
también será (UFmn, Fm'n' ) = 0 (cf. II.5, teorema 19), donde m' y n' son cualesquie-
385
1. Se tiene
vmn/m'n' = vm/m' vn/n'
∞ ∞ ∞
(De traza U = ∑ vmn/mn' = ∑ vm/m ∑ vn/n se deduce que, multiplicando vm/m
m,n =1 m =1 n =1
y vn/n, por dos factores constantes recíprocos, podemos conseguir que sea
∞ ∞
∑ vm/m = ∑ vn/n = 1. Pero entonces se advierte que um/m' = vm/m' , un/n' = vn/n' .)
m =1 n =1
2. O bien es vm/m' = xm x‒m' (*) o bien vn/n' = yn ‒y n' . (En efecto, U = P[j], donde
∞
ϕ= ∑ xmϕm significa que um/m' = xm x‒m' y lo mismo para vm/m' . De mane-
m =1
ra en todo análoga resulta vn/n, para U = P[ξ], ξ = ∑y ξ ).
n n n
* En esta versión hemos procurado mantener constantemente un mismo criterio por lo que a la
notación de los elementos de matriz se refiere, que es el que el autor sigue en la primera parte de la
obra y sienta explícitamente en la Nota 60: amn = (Ajn, jm). Hemos creído preferible hacerlo así y no
seguir al autor en sus cambios de notación, no siempre puestos claramente de manifiesto. (N. del T.)
386
Cabe, pues, sustituirlas por los coeficientes fmn (m, n = 1, 2, …) que están some-
∞
tidos sólo a la condición de que sea finita la ∑ f mn = Φ .
2 2
m,n =1
–
Definamos cuatro operadores, F, F , F * y F' mediante las relaciones
∫ ∫
F ϕ (q) = Φ(q, r)ϕ (q)dq, F ϕ (q) Φ(q, r)ϕ (q)dq
(*)
F *ξ (r) = ∫ Φ(q, r)ξ (r)dr, F' ξ (r)∫ Φ(q, r)ξ (r)dr,
*
operadores que son lineales, pero que tienen la particularidad de estar definidos,
los dos primeros, en EI y, los dos últimos, en EII, mientras que toman sus valores
–
en EII aquéllos y en EI éstos. La relación entre F y F * (e igualmente entre F y F' )
es la existente entre operadores adjuntos dado que, evidentemente (Fj, ξ) = (j, F *ξ)
(¡el producto interior del primer miembro hay que tomarlo en EII, el del segundo
en EI !). Puesto que la diferencia entre EI y EII es de poca monta desde el punto de
vista
– matemático, podemos aplicar los resultados – de II.11: así, por cuanto F y F *,
F y F' son operadores integrales, ∑(F ), ∑(F ), ∑(F *) y ∑(F' ) son iguales a
2
∫∫
2
Φ(q, r) dqdr = Φ = 1(! Φ en E I +II !)
⎧∞ ⎫
⎨∑ f mn f m'n ⎬ .
⎩n =1 ⎭
–
Un cálculo en todo semejante prueba que la matriz de F F' (base ξ) es
⎧∞ ⎫
⎨∑ f mn f mn' ⎬ .
⎩m =1 ⎭
387
y estas relaciones son independientes de la elección de las ϕm, ξn, porque tal son
U, U y F.
Los operadores U y U son completamente continuos y en virtud de II.11 y
IV.3 pueden escribirse en la forma
∞ ∞
U = ∑ w'k P[ψ k ], U = ∑ w"k P[ηk ],
k =1 k =1
Además
Fψ k
en particular, por lo tanto, ∙∙Fyk∙∙2 = w'k. En consecuencia, las constituyen
w'k
un sistema ortonormal en EII y a la vez son funciones propias de U con los mismos
valores propios que las yk respecto de U (esto es, w'k). Con otras palabras: cada
‒
* P[F] = (…, F) F, vmn/m'n' = [(jm' ξn' , F) F, jmξn] = (F, jmξn) (jm' ξn' , F) = fmn f m'n' (N. del T.)
** Son evidentes las igualdades
‒ ‒ ‒
Fj = F‒ · j‒, F‒j = F · j‒, F *ξ = F'ξ, F'ξ = F *ξ.
(N. del T.)
388
1 1
F *ηk = F *Fψ k = ψ k .
wk wk
Luego:
1 1 212
ηk = Fψ k , ψ k = F *ηk .
wk wk
Completemos ahora el sistema ortonormal y1, y2, … hasta formar uno que
sea completo: y1, y2, …, y'1, y'2, … e igualmente el h1, h2, … hasta constituir
el sistema ortonormal completo h1, h2, …, h'1, h'2, … (cada uno de los sistemas
y'1, y'2, …, y h'1, h'2, … puede ser vacío, finito o infinito, y ello independiente-
mente el uno del otro). Puesto que cuanto llevamos dicho no depende de la elec-
ción de los sistemas ortonormales completos j1, j2, … y ξ1, ξ2, …, podemos
hacerlos coincidir con y1, y2, …, y'1, y'2, … y h1, h2, …, h'1, h'2, …, respectiva-
mente. Sea jm el elemento al que corresponde yk y ξn aquel al que corresponde
k k
hk (m1, m2, … son distintos entre sí y lo mismo n1, n2, …). Entonces es
luego
⎧ wk , para m = µk , n = ν k , k = 1, 2, …,
f mn = ⎨
⎩⎪ 0, en los demás casos
o lo que es equivalente
M
Φ(q, r) = ∑ wk ϕ µk (q)ξνk (r).
k =1
389
un elemento diferente de cero (carece de importancia para lo que sigue que éste
sea incluso real y > 0, a saber, el wk ). ¿Cuál es el significado físico de este enun-
ciado formal?
Sea A un operador, j1, j2, … sus funciones propias y supongamos que todos
sus valores propios a1, a2, … son diferentes. Del mismo modo, sea B un operador
con las funciones propias x1, x2, … y los valores propios b1, b2, … (simples). El
operador A corresponde a una magnitud física de I, el B a una de II, y ambas son,
por lo tanto, simultáneamente medibles. Fácilmente se reconoce que los enun
ciados: «A tiene el valor am» y «B tiene el valor bn» determinan, juntos, el es
tado Fmn(q, r) = jm(q)xn(r), y que su probabilidad en el estado F(q, r) es
(P[F ] F, F) = ∙F, Fmn)∙2 = ∙fmn∙2. Por consiguiente, la proposición antes demostrada
mn
⎧ c ≠ 0, para m = µk , n = ν k , k = 1, 2, …
f mn = ⎨ k ,
⎩ 0 en caso contrario
de donde (M finito o ∞)
M
Φ(q, r) = ∑ ck ϕ µk (q)ξνk (r)
k =1
y, por lo tanto,
∞ ⎧ 2
um/n' = ∑ f mn f m'n ⎨ ck , para m = m' = µk , k = 1, 2, … ,
n =1 ⎩ 0 en caso contrario
390
∞ ⎧ ck 2, para n = n' = ν k , k = 1, 2, …
un/n' = ∑ f mn f mn' ⎨ ;
m =1 ⎩ 0 en caso contrario
luego
M M
U = ∑ ck P[ϕµk ], U = ∑ ck P[ξνk ].
2 2
k =1 k =1
y entonces es F (q, r) = c1jm (q) · xn (r). Ahora bien, el coeficiente c1 cabe incluirlo
1 1
391
Si ahora cada F'n(q, r) fuese de la forma yn (q) hn (r), donde las yn son las funcio-
nes propias de A y las hn un sistema ortonomal completo cualquiera fijo, esta
intervención presentaría las características de una medición, pues transforma cada
estado j de I en una mezcla de las funciones propias yn de A. El carácter estadís-
tico procede de que, si bien antes de la medición el sistema I se encontraba en un
estado homogéneo, II era una mezcla y este carácter de II ha «contagiado» I + II
durante la interacción, en particular ha hecho una mezcla de la proyección de
I + II en I. Es decir, el resultado de la medición es indeterminado porque no se
conoce exactamente el estado del observador antes de llevarla a término. Cabría
concebir la realidad de un tal mecanismo, pues el conocimiento del observador
acerca de su propio estado acaso tenga límites dentro de las leyes naturales. Estos
se pondrían de manifiesto en los valores de los wn que debieran estar determinados
por el sólo observador, por lo tanto ¡independientes de j !
Y aquí se estrella ese intento de explicación: la Mecánica cuántica exige, en
efecto, que sea wn = (P[y ]j, j) = ∙(j, yn)∙2, es decir, ¡que los wn dependan de j !
n
392
de esto último en VI.1). Sea A la magnitud que propiamente hay que medir (en I )
y j1(q), j2(q), … sus funciones propias. Supongamos, además, que I se encuentra
en el estado j (q).
Si I es el sistema observado y II + III el observador, hemos de aplicar el pro-
ceso 1 y llegamos así al siguiente resultado: la medición hace pasar el sistema I del
estado j a uno de los estados jn (n = 1, 2, …); las respectivas probabilidades son
∙(j, jn)∙2, (n = 1, 2, …). Ahora bien: ¿Cómo reza la descripción cuando I + II es
el sistema observado y III el observador?
En este caso hay que decir: II es un instrumento de medida que indica sobre
una escala el valor de A (en I ); la posición del índice sobre la misma es una mag-
nitud física B (en II ) que es la propiamente observada por III (si II pertenece ya
al cuerpo del observador, en vez de escala e índice surgen los correspondientes
conceptos fisiológicos: por ej., retina e imagen sobre la retina, etc.); los valores
de B están en correspondencia biunívoca con los de A. Sean a1, a2, … los valores de
A, b1, b2, … los de B y admitamos que la numeración es tal que an está vinculado
con bn.
Inicialmente I se halla en el estado j (q) (desconocido) y II se encuentra en el
estado x (r) (conocido); luego I + II se halla en el estado F(q, r) = j (q) x (r). La
medición (considerada como efectuada por II en I ), es llevada a cabo durante el
tiempo t por medio de un operador de energía H (en I + II ), como en el ejemplo
2π i
− tH
anterior: se trata, pues, del proceso 2, que cambia F en Φ' = e h Φ. Desde el
punto de vista del observador III, sólo cabe hablar de una medición cuando se
cumplen las siguientes condiciones: si el observador III midiera las dos magnitudes
simultáneamente mensurables A y B (en I y en II, respectivamente, o ambas en
I + II ) acudiendo a un proceso 1, los pares de valores am, bn tendrían la probabi-
lidad 0 para m ≠ n, mientras que para m = n resultarían ciertas probabilidades wn.
Es decir, en tal caso basta «mirar» II, y A queda medido en I. La Mecánica cuán-
tica exige, además, que wn = ∙(j, jn)∙2.
Si así acontece, queda teoréticamente «explicada» la medición en cuanto tiene
lugar en II, es decir, el límite de que hablábamos en VI.I se ha corrido de I / II + III
a I + II / III.
El problema matemático es, pues, éste: Dado un sistema ortonormal completo
j1, j2, … en EI, hay que hallar un sistema de igual naturaleza x1, x2, … y un es-
tado x en EII, un operador de energía H en EI + II y, finalmente, un tiempo t, tales
que valga la siguiente proposición: si j es un estado arbitrario en EI y
2π i
− tH
F(q, r) = j (q) x (r) y si hacemos F' (q, r) = e h F(q, r), la función F' (q, r) es
∞
de la forma ∑ cn ϕn(q)ξn(r) (los cn dependen, naturalmente, de j). Además, debe
n =1
tenerse ∙ cn ∙2 = ∙(j, jn)∙2. (Que esto último equivale a la condición física más arri-
ba formulada, lo discutimos ya en VI.2.)
En lo que sigue, junto a j1, j2, …, daremos de antemano x1, x2, … y x y
2π i
− tH
veremos de determinar el operador unitario Δ = e h en vez de H.
393
operador que es unitario, dado que tanto las jm (q) xn (r) cuanto las jm (q) xm + n (r)
forman un sistema ortonormal completo en EI + II. Ahora bien,
∞
ϕ (q) = ∑ (ϕ , ϕm ) ⋅ ϕm (q), ξ (r) = ξ0 (r);
m = −∞
luego
∞
Φ(q, r) = ϕ (q)ξ (r) = ∑ (ϕ , ϕm ) ⋅ ϕm (q)ξ0 (r),
m = −∞
∞
Φ' (q, r) = ΔΦ(q, r) = ∑ (ϕ , ϕm )ϕm (q)ξm (r),
m = −∞
394
h ∂ h ∂
ψ t (q, r) = − q ψ t (q, r),
2π i ∂t 2π i ∂r
⎛∂ ∂⎞
⎜⎝ + q ⎟⎠ ψ t (q, r) = 0
∂t ∂r
es decir,
Si para t = 0 es yt (q, r) = F (q, r), deberá tenerse f (q, r) = F (q, r), de donde
F (q, r) = j (q) x (r)
F' (q, r) = y1(q, r) = j (q) x (r - q).
Vamos a demostrar que este resultado puede utilizarse para una medición de la
posición de I por II, es decir, que las coordenadas q y r están acopladas. (Sólo cabe
conseguirlo aproximadamente, pues q, r tiene espectros continuos y, por ende, son
mensurables sólo con arbitraria precisión, pero no con exactitud absoluta.)
395
∫ ξ (r)
2
ξ = 1, es decir, dr = 1.
q0 + δ r0 + δ ' q0 + δ r0 + δ '
∫ ∫ ∫ ∫
2 2 2
Φ' (q, r) dq dr = ϕ (q) ξ (r − q) dq dr.
q0 − δ r0 − δ ' q0 − δ r0 − δ '
Cuando q0, r0 difieren en más de d + d' + e, esta integral es nula, es decir, q y r
están tan fuertemente acoplados que la diferencia entre ambos nunca puede ser
> d + d' + e. Para r0 = q0 y si elegimos d' ≥ d + e, dicha integral es igual a
q0 + δ
∫
2
ϕ (q) dq en virtud de la hipótesis acerca de x. Pero como podemos elegir d,
q 0 −δ
d' y e arbitrariamente pequeños (¡sólo deben ser > 0!), esto nos dice que q y r están
acoplados con cuanta precisión se quiera y que la densidad de probabilidad tiene
el valor ∙j (q)∙2 que exige la Mecánica cuántica.
Luego las circunstancias de la medición, tal cual las habíamos discutido en
VI.1 y en este párrafo, se dan efectivamente.
La discusión de ejemplos más complicados, cual uno semejante al de cuatro
términos considerado en VI.1, o el contraste, por un segundo observador III, de
la bondad de la medición que II efectúa en I, etc., puede llevarse a cabo análoga-
mente y la dejamos a cargo del lector.
396
(1) Así, por ejemplo, en lengua alemana existen, entre otras, las siguientes obras de síntesis:
Sommerfeld «Ergänzungsband zur 4. Aufl. v. Atombau und Spektrallinien». Braunsclweig, 1928.
Weyl «Gruppentheorie und Quantenmechanik». Leipzig, 1928, segunda edic. Leipzig, 1931.
Fraenkel: «Einführung in die Quantenmechanik». Berlín, 1929. Born y Jordan: «Elementare
Quantenmechanik». Berlín, 1930. Dirac: «Prinzipien der Quantenmechanik». (Trad. de W. Bloch).
Leipzig, 1931.
(2) Cf. Proc. Roy. Soc., London, vol. 109 (1925) y ss., en particular vol. 113 (1926). Indepen-
dientemente de Dirac, P. Jordan: Z. Physik, Bd. 40 (1926), y F. London: Z. Physih, Bd. 40 (1926),
establecieron la teoría sobre bases similares.
(3) Cf. Cap. IV y VI.3.
(4) Cf. Cap. V.
(5) Sus etapas principales fueron: el descubrimiento de las leyes de los quanta por Planck, en
el caso de la radiación «negra» en el vacío (cf., p. e., la exposición de Planck en su libro «Wärmes-
trahlung», Leipzig, 1906); la demostración de la naturaleza corpuscular de la luz (Lichtquantentheo-
rie) por Einstein (Ann. Physik [4], Bd. 17, [1905]), con lo que se daba el primer ejemplo de la
duplicidad ondas-corpúsculos, la cual, conforme hoy sabemos, rige toda la Microfísica); la aplicación
de estos dos grupos de leyes al modelo del átomo por Boiir; Fysisk Tidskr., Bd. 12 (1914); Z. Physik,
Bd. 6 (1920).
(6) Desde Epstein-Sommerfeld eran conocidas las leyes de cuantificación para los movimien-
tos multiperiódicos que había que añadir a las leyes mecánicas (cf., p. e., Sommerfeld: «Atombau
und Spektrallinien», Braunschweig, 1924). Por el contrario, era un hecho indiscutido que un punto
material móvil libremente, o un planeta sobre una órbita hiperbólica (en oposición a los que se
mueven sobre órbitas elípticas) no están «cuantificados». Una exposición completa de estos diversos
grados en el desarrollo de la teoría cuántica la encontrará el lector en los libros de Reiche: «Die
Quantentheorie, ihr Ursprung und ihre Entwicklung», Berlín, 1921, y Landé: «Fortschritte der
Quantentheorie», Dresden, 1922.
(7) Tal demostró Schrödinger: Ann, Physik [4], Bd. 79 (1926).
(8) Z. Physik. Bd. 37 (1926).
(9) Cf., las memorias citadas en Nota 2. Las memorias de Schrödinger han aparecido en for-
ma de libro: «Abhandlungen zur Wellenmechanik», Leipzig, 1928.
(10) El actual estado de cosas puede caracterizarse diciendo que la teoría es completamente
eficaz en tanto se trata de electrones aislados o de las capas electrónicas de los átomos o las molécu-
las, y ello lo mismo cuando se trata de fuerzas electrostáticas que en los procesos electromagnéticos
de emisión, propagación y absorción de la luz. En cambio, al tratar de los núcleos atómicos y en el
intento de sentar una teoría del electromagnetismo, general y relativista, parece conducir, a pesar de
los notables éxitos parciales, a grandes dificultades poco menos que insuperables si no se acude a
ideas esencialmente nuevas.
(11) Es sabido que en la Mecánica clásica el movimiento está totalmente regido por la función
de Hamilton, dado que ésta proporciona las ecuaciones del movimiento
∂H ∂H
q·l = , p·l = - (l = 1, …, k)
∂pl ∂ql
397
Antes del descubrimiento de la Mecánica cuántica se intentó incluir en ellas los fenómenos
cuánticos, aun conservando las ecuaciones del movimiento, mediante la imposición de «condiciones
de cuantificación» suplementarias (cf. Nota 6). Las ecuaciones del movimiento determinaban, . para
cada sistema de valores de las q1, …, qk, p1, …, pk correspondientes al instante t = 0, la ulterior evo-
lución temporal, la «trayectoria» del sistema en el «espacio 2k - dimensional de las fases» (q1 …, qk,
p1, …, pk) luego cada condición suplementaria viene a ser lo mismo que una limitación de todos los
valores iniciales posibles, de todas las órbitas posibles a un cierto conjunto parcial. (En correspon-
dencia con las pocas órbitas permitidas, también son pocos entonces los niveles de energía posibles).
Aunque la Mecánica cuántica ha acabado con ese método, sin embargo es claro de antemano que la
función de Hamilton también en ella ha de representar un gran papel, pues la experiencia toda
muestra la validez del principio de correspondencia de Bohr, según el cual la teoría de los quanta
debe dar resultados que coincidan con los de la Mecánica clásica en el caso límite de grandes núme-
ros cuánticos.
(12) Los tres últimos conceptos se toman del círculo de ideas acerca de la teoría de los quanta,
desarrollado sobre todo por Bohr, anterior a la Mecánica cuántica. Más tarde los analizaremos am-
pliamente desde el punto de vista de ésta (cf., la teoría de la luz de Dirac, expuesta en III.6). Dichos
conceptos se encuentran expuestos, en su conexión histórica, en las memorias de Bohr acerca de la
estructura del átomo, desde el año 1913 hasta 1916 (traducidas al alemán por H. Stintzing, Brauns-
chweig, 1921).
(13) Cual lo muestra un análisis matemático más exacto, se trata necesariamente de matrices
infinitas. No entramos aquí en los pormenores de tales matrices, puesto que más adelante conside-
raremos ampliamente sus propiedades. Basta por el momento que el cálculo algébrico-simbólico con
esas matrices se entienda en el sentido de las conocidas reglas para la adición y multiplicación de
matrices. En particular, entendemos por 0 y 1 la matriz nula y la matriz unidad, respectivamente
(todos los elementos de la primera son ceros, y también lo son los de la segunda salvo los de la dia-
gonal principal que son iguales a la unidad).
(14) Si Q1, P1, son hermíticos, no tienen por qué serlo ni Q1P1 ni P1Q1; pero en cambio sí lo
1 1
es siempre (Q 1P1 + P1Q 1). En el caso del operador Q12P1 y cabe considerar (Q 21P1 + P1Q 21) y
2 2
h
Q1P1Q1 (por casualidad estas dos expresiones son iguales si Q1 y P1 son tales que P1Q1 - Q1P1 = ⋅ 1),
2pi
1
en el de Q 21P 21 podemos utilizar (Q 21P 21 + P 21Q 21), Q1P 21Q1, P1Q 21P1, etc. (estas expresiones no coin-
2
ciden ni aun en el caso particular antes citado). No entramos en detalles tocante a este punto, dado
que el cálculo con operadores que desarrollaremos más tarde permitirá dominar esas circunstancias
mucho más claramente.
(15) Se tiene:
h ∂ h ∂ h
(q1y) = q1 y+ y.
2pi ∂q1 2pi ∂q1 2pi
h ∂ h ∂ h
Por consiguiente, ⋅ q 1 - q1 = ⋅ 1, si 1 es la operación idéntica (que trans-
2pi ∂q1 2pi ∂q1 2pi
h ∂H
forma y en sí misma); luego y q1 cumplen las mismas relaciones de permutación que las
matrices P y Q . 2 pi ∂q1
1 1
(16) Cf. sus dos primeras memorias en el libro citado en la Nota 9 (Ann. Phys. [4], Bd. 79,
1926).
(17) Cf. el primero de los trabajos de Schrödinger citados en la Nota 16. Definiremos rigu
rosamente el espectro y sus elementos en II.6 hasta 9.
(18) En la primitiva forma de la Mecánica matricial (cf., lo dicho más arriba) no se daba este
concepto general de estado, del que es un caso particular el de estado estacionario. El objeto de
dicha teoría eran sólo los estados estacionarios, coordinados a los valores propios de la energía.
398
(19) H = H (q1, …, qk, p1, …, pk) puede contener el tiempo t explícitamente. Claro está que
entonces no existirán, en general, estados estacionarios.
(20) Cuando sólo existe espectro discreto, cf. II.6.
(21) Este desarrollo, al igual que todos los que siguen, converge «en media». Abordaremos este
punto detalladamente en II.2.
(22) Que tales oscilaciones dejan de presentarse en los estados estacionarios y sólo en ellos, era
uno de los más importantes postulados fundamentales de Bohr en 1913. La Electrodinámica clási-
ca está en contradicción con esto.
(23) Cf. el segundo trabajo de Schrödinger citado en la Nota 16.
(24) Cf. Nota 7.
(25) Cf., p. e., los §§ 20, 23 del libro de Born y Jordan citado en la Nota 1.
(26) A causa de ser
S-1 ⋅ 1 ⋅ S = 1, S -1 ⋅ aA ⋅ S = a ⋅ S -1AS,
S -1 ⋅ (A + B) ⋅ S = S -1AS + S -1 BS, S-1 ⋅ AB ⋅ S = S -1 AS ⋅ S -1 BS,
para todo polinomio de matrices P(A, B, …) vale la relación
S -1 ⋅ P(A, B, …) ⋅ S = P(S -1 AS, S -1 BS, …).
Si elegimos para P el primer miembro de las relaciones de permutación,
– de lo que –precede se
sigue la invariancia de dichas relaciones; si elegimos para P la función H, obtenemos S -1H S = H.
(27) dmn = 1 para m = n e = 0 para m ≠ n, es el conocido símbolo de Kronecker-Weierstrass.
(28) Las columnas s1r, s2r, … de la matriz S, cuyos subíndices corresponden a wr = l, forman
un sistema completo de soluciones y deben ser linealmente independientes por cuanto son columnas
de una matriz que posee una inversa.
(29) Dado que una permutación arbitraria de las columnas de S, junto con la correspondiente
permutación de las filas de S -1, permuta del mismo modo los elementos diagonales de H, de hecho
el orden en que se siguen los w1, w2, … ni está definido ni cabe determinarlo.
(30) La teoría de las ecuaciones integrales ha adquirido su forma definitiva en manos de Fre-
dholm y Hilbert. Una detallada exposición, como también bibliografía, se encuentra en el libro
de Courant-Hilbert «Methoden der mathematischen Physik», Berlín, 1931.
(31) Más exactamente: si tomamos por base el concepto de integral de Lebesgue, debe ser
h(q) = 0 para q ≠ 0, salvo en un conjunto de medida—L nula, es decir, salvo en un tal conjunto
es h(q) = 0.
(32) Hay que imaginar el área limitada por d (q) como infinitamente estrecha e infinitamente
a −aq 2
alta. Este es, por ejemplo, el comportamiento límite de la función e para a → + ∞, pero no
por eso es tanto menos imposible. π
(33) Una tal unificación persiguió E. H. Moore, el creador del llamado «Análisis general», por
cierto que mucho antes de la Mecánica cuántica. Cf. acerca de esto el artículo de Hellinger-
Toeplitz en la Math. Enzyklopädie. Vol. II.3.9, Leipzig, 1927.
(34) Es un hecho sobre el que repetidas veces se ha llamado la atención que, en la teoría de
Schrödinger, lo esencial en la función de onda j es que haga finita la integral ∫! … ∫ ϕ (q1, …, qk ) 2
Ω
dq1 … dqk. Así la función j puede, por ejemplo, presentar singularidades, acaso hacerse infinita, con
tal que dicha integral permanezca finita Un ejemplo instructivo de esto lo constituye el átomo de
hidrógeno en la teoría relativista de Dirac, cf. «Proc. Roy, Soc.», Lond. Vol. 117, 1928; además, W.
Gordon: Z. Physih Bd. 48 (1928).
(35) En el curso de nuestras consideraciones acerca del espacio de Hilbert quedará demostra-
do este teorema (cf. II.2.3, en particular teorema 5 en II.2). Es digno de mención que la mitad del
mismo, suficiente para muchos fines y más fácil de demostrar, es la que afirma el isomorfismo de FΩ
y una cierta parte de FZ; se la encuentra por primera vez en Hilbert, Gött. Nachr., 1906. Así Schrö-
dinger se apoyó sólo en ella para su primitiva demostración de la equivalencia (cf. Nota 7).
399
(36) Se tiene
qm ⋅ qn ⋅ ϕ (q1, …, qk ) = qn ⋅ qm ⋅ ϕ (q1, …, qk ),
∂ ∂ ∂ ∂
ϕ (q1, …, qk ) = ϕ (q1, …, qk ),
∂qm ∂qn ∂qn ∂qm
∂ ∂ ⎧ϕ (q1, …, qk ) para m = n,
qn ⋅ ϕ (q1, …, qk ) − qn ⋅ ϕ (q1, …, qk ) = ⎨
∂qm ∂qm ⎩ 0, para m ≠ n,
n
∑ xν
2
(f , f ) = ,
ν =1
400
∙ x + y ∙2 = (x + y) (x– + –y ) = xx– + yy– + (xy– + x–y) = ∙ x ∙2 + ∙ y ∙2 + 2 Re (xy–).
satisface, en efecto, nuestras condiciones de regularidad y constituye una aproximación tan buena
cuanto se quiera para e (> 0) suficientemente pequeño.
(60) Esta consideración no es rigurosa, ya que aplica el carácter lineal a sumas de infinitos su-
mandos. Sin embargo, cabe completarla como sigue: Sean j1, j2, …, un sistema ortonormal com-
∞ ∞
pleto y A, A* operadores adjuntos; sea f = ∑ xνϕν , Af = ∑ yνϕν . Se tiene entonces:
ν =1 ν =1
∞
yµ = (Af , ϕ µ ) = ( f , A * ϕ µ ) = ∑ ( f , ϕν ) (A * ϕ µ , ϕν )
ν =1
∞ ∞
= ∑ xν (ϕ µ , Aϕν ) = ∑ (Aϕν , ϕ µ )xν .
ν =1 ν =1
401
∞
Luego, si hacemos amn = (Ajn, jm) se tiene la fórmula del texto, yµ = ∑ aµν xν y queda demos-
trada, además, la convergencia absoluta. ν =1
En el espacio hilbertiano de las sucesiones x1, x2, …, las sucesiones j1 = {1, 0, 0, …},
j2 = {0, 1, 0, …}, … constituyen un sistema ortonormal completo, como fácilmente se reconoce.
∞ ∞
Para f = {x1, xot …} es f = ∑ xνϕν , para Af = {y1, y2, …}, Af = ∑ yνϕν , con lo que se consigue
ν =1 ν =1
totalmente el enlace con el texto.
Al formar a m*n para A*, se ve que
(62) Por consiguiente, U y U * deben tener sentido doquier. Además, son inversos entre sí y,
por ende, ambos toman todo valor, y cada valor lo toman una sola vez.
∞ ∞
∫−∞ ϕ (q)
2
∫−∞ q 2 ϕ (q)
2
(63) Para una dq dada, tanto dq como
2
∞ d
∫−∞ dq
ϕ (q) dq
pueden hacerse tan grandes cuanto se quiera. Por ejemplo: j (q) = a e-bq2; las tres integrales son fini-
1 3 1
− −
tas (¡b > 0!), pero proporcionales, respectivamente, a a 2b 2 , a 2b 2 , a 2b 2 , de manera que el valor de
dos de ellas puede ser prefijado arbitrariamente.
(64) Gött. Nachr., 1906.
(65) Ello resulta del carácter hermítico de R en la transformación
⎛ R f + g , f + g ⎞ − ⎛ R f − g , f − g ⎞ = (Rf , g) + (Rg, f ) =
⎝ 2 2 ⎠ ⎝ 2 2 ⎠ 2
(Rf , g) + ( f , Rg) (Rf , g) + (Rf , g)
= = = Re(Rf , g)
2 2
402
(73) Para el concepto de integral de Stieltjes, cf. Perron: «Die Lehre von den Kettenbrüchen»,
Leipzig, 1913; además, en atención a las necesidades de la teoría de los operadores, Carleman:
«Équations intégrales singulières», Uppsala, 1923. A los lectores menos interesados en esas cuestiones
les basta con la definición: Para cada división Λ0, Λ1, Λk del intervalo (a, b)
Cuando para divisiones cada vez más y más tupidas esta suma converge, se dice que la integral
b
∫a f (x) dg(x) tiene sentido y es igual a dicho límite. (Para g(x) = x, la integral de Stieltjes se trans-
forma en la conocida integral de Riemann.) ∞
En nuestro caso, por lo tanto, la ecuación deducida nos dice que
∞ ∫−∞ λ dE(λ ; x, y) existe y es
igual a ∑ hµν xν yµ .
µ, ν =1
f = ∑ ( f , ϕ ρ ) ⋅ ϕ ρ = ∑ P[ϕρ ] f ,
ρ ρ
403
∞ k
∫ λ 2 d ⎛ ∑ xρ ⎞ = lim ∑ Λ2τ ∑ xρ .
2 2
−∞
⎝ λρ ≤ λ ⎠ τ =1 Λτ −1 < λρ ≤Λτ
Cuando sin excepción es Λt2 - Λ2t - 1 < e (es decir, para una división Λ0, …, Λk suficientemente
∞
∑ xρ
2 2
tupida), la suma anterior varía en menos de e ⋅ =ε f cuando la sustituimos por
ρ =1
k
∑ ∑ ∑
2 2
λρ2 xρ = λρ2 xρ
τ =1 Λτ −1< λρ ≤ Λτ Λ0 < λρ ≤ Λk
∞
∑ λρ2 xρ
2
y ésta, a su vez, difiere de en tan poco cuanto se quiera para Λ0 suficientemente pequeño
ρ =1
y Λk suficientemente grande. Esta última suma es, pues, el límite buscado, es decir, el valor de la
integral.
Igual exactamente se demuestra la fórmula integral que sigue
(84) En este punto se separa el método que seguimos, matemáticamente correcto, de la técni-
ca simbólica de Dirac (cf., p. e., su libro citado en la Nota 1). En ella se consideran efectivamente
como soluciones las f tales que (q - l )f (q) = 0 (para mayor sencillez hacemos l = j = 1, qj = q); pero
como cada ( f, g) = ∫f (q)g(q)dq = 0 y ha de ser f ≠ 0, es necesario imaginar que f (q) es infinito en el
punto q = l (¡el único en que es ≠ 0!) y en grado tal que (f, g) ≠ 0. Ahora bien, dado que para q ≠ l
es f (q) = 0, la ∫f (q)g(q)dq sólo puede depender de g (l), y es claro que, en virtud de la propiedad
aditiva de la integral, aquélla debe ser proporcional a g(l), es decir, = cg(l), donde c ≠ 0. Sustitu-
1
yendo f (q) por f (q) se consigue que el factor de proporcionalidad sea la unidad. En consecuencia,
c
tenemos una función ficticia f (q) tal que ∫f (q)g(q)dq = g(l).
Basta, naturalmente, considerar el caso l = 0. Llamemos entonces d(q) a f(q); la función d(q)
está definida por
∆. ∫
qd(q) ≡ 0, d (q)f (q)dq = f (0).
La solución para l cualquiera es d(q - l). Aunque un a función d que goce de la propiedad ∆
no existe, existen sí sucesiones de funciones cuyo comportamiento tiende al de la función d (el lí-
mite, claro está, no existe), por ejemplo:
{ }
1
, para ∙ x ∙ < e
fe(q) = 2e para e → 0,
0, para ∙ x ∙ ≥ e
o bien
a − ax 2
f a (q) = e , para a → +∞
π
404
(87) Plancherel: Circ. Math. di Pal. Vol. 30 (1910); Titchmarsh: London Math. Soc. Proc.
Vol. 22 (1924).
h d
(88) Es decir, E'(l) corresponde no al propio A' = , sino a un operador cuyo dominio
2pi dq
de definición abarca el de A' y que en éste coincide con A'. Cf. para esto II.9.
(89) Se anulan todos los coeficientes de Fourier y, por lo tanto, también la función. Cf., p. e.,
Courant-Hilbert (loc. cit. Nota 30).
(90) Es decir, M-1M f (q) = f (q) (basta definir f (q) como igual a 0 para q < 0 y aplicar los an-
teriores teoremas); pero no siempre es MM-1F( p) = F( p), porque en general ∙M -1F ∙ < ∙F ∙ y, por
ende, ∙MM -1F ∙ < ∙F ∙. Luego M -1M = 1 y MM -1 ≠ 1, esto es, M-1 no es realmente el inverso de M.
(No puede haber tampoco ningún otro, pues de haberlo éste debiera ser tal que M -1M = 1, es decir,
debería coincidir con M-1.) En consecuencia, cabe concluir de E'(l) = ME(l)M-1 por ejemplo,
que E' 2(l) = E'(l) (pues en ello sólo interviene M -1M), pero en cambio, E'(l) → MM -1 ≠ 1
(para l → + ∞).
(91) Esto debiera demostrarse, propiamente, de modo no simbólico, acudiendo a la ecuación
rigurosa
∫
(Af , g) = λ d [E(λ) f , g].
∫ ∫
(AFf , g) = λ d[E(λ)Ff . g] = λ d [FE(λ) f , g] =
∫
= λ d [E(λ) f , Fg] = (Af , Fg) ≡ (FAf , g).
(93) Es decir,
∞ ∞
(Bf , g) = ∫
−∞
r(λ)d[E(λ)f , g], (Cf , g) = ∫−∞
s(λ)d [E (λ) f , g].
(94) El autor estableció rigurosamente este concepto de función en Annals. of Math., vol. 32
(1931). F. Riesz fue el primero que definió, mediante el paso al límite partiendo de polinomios, las
funciones de operadores más generales.
(95) La teoría de los operadores hermíticos no acotados a la que, junto con la teoría de Hilbert
de los operadores acotados, deberemos referirnos particularmente en lo que sigue, fue establecida
por el autor (loc. cit. Nota 78). M. Stone obtuvo independientemente resultados semejantes (Proc.
Nat. Ac., 1929 y 1930).
(96) Math. Ann., Bd. 69 (1911).
(97) También el conjunto de las funciones f (q) analíticas en -∞ < q < +∞ (con integrales
∞ ∞
∫−∞ f (g) dq, ∫−∞ f ' (q) dq, … finitas) es denso doquier en el E∞. En efecto, según II.3, D, el con-
2 2
405
{
junto de las combinaciones lineales fa, b(q) = 1, para a < q < b
0, en caso contrario }
es donde quiera denso; luego
basta demostrar que éstas pueden aproximarse cuanto se quiera mediante aquéllas f (q). Efectivamente
1 1 (x − a)(x − b) 1
f a(,bε) (q) = − th = (x − a)(x −b)
2 2 ε 2
e ε +1
1 1 ⎡ 1 (x − a − ε )(x − b + ε ) ⎤
f a(,bε) (q) = − th ⎥,
2 2 ⎢⎣ ε x(1 − x) ⎦
donde e → + 0.
(99) Dado que podemos imaginar aproximada la función f (l) mediante polinomios, basta
considerar éstos y, por lo tanto, sus elementos, las potencias: f (l) = ls (s = 0, 1, 2, …). Además,
podemos suponer que A es una matriz diagonal, puesto que nada altera aquí la introducción de una
transformación unitaria. Ahora bien, los elementos diagonales de A son sus valores propios; luego
esos elementos son precisamente l1, …, ln. Por consiguiente, sólo hay que demostrar que As es
también una matriz diagonal y que tiene por elementos diagonales l1s, …, lns; pero esto es evidente.
(100) Que estas propiedades determinan el carácter hermítico o unitario de un operador,
nuevamente basta comprobarlo en las matrices diagonales. La matriz diagonal A* con los elementos
diagonales l1, …, ln es la conjugada transpuesta de la matriz diagonal A, cuyos elementos diagona-
les son l1, …, ln; luego A = A* nos dice que l1 = l1 …, ln = ln, es decir, que l1,…ln son reales.
Y, a su vez, AA* = A*A = 1 nos dice que l1l1 = 1, …, lnln = 1 esto es, que
∙l1∙ = … = ∙ln∙ = 1.
(101) Para la demostración de este hecho, cf. el trabajo del autor, loc cit., Nota 78; además,
A. Wintner: Math. Z., Bd. 30 (1929). —La convergencia absoluta de todas las integrales
1
∫ 0
f (σ )d[E (σ )f , g] en las que f (s)es acotada, se reconoce como sigue: basta considerar Re(E(s)f , g),
puesto que la sustitución de f , g por i f , g cambia ésta en Im(E(s) f , g). A causa de
f + g f + g⎞ ⎛ f − g f − g⎞
Re[E (σ ) f , g] = ⎛ E (σ ) , − E (σ ) , ,
⎝ 2 2 ⎠ ⎝ 2 2 ⎠
1
hay que estudiar solamente los (E (s) f, f ). Pero en ∫0 f (σ )d[E (σ )f , f ] el integrando es acotado y
la función de s que sigue al símbolo d es monótona; luego es obvia nuestra afirmación.
(102) Es decir, aplicamos las integrales de Stieltjes a los elementos del E∞ en vez de aplicarlas
a los números. Todas nuestras relaciones deben entenderse en el sentido de que valen cuando se
elige un elemento fijo g del E∞ y se sustituye cada uno de los elementos del E∞ que en ellas figuran por
su producto interior por g, y ello cualquiera que sea g. En comparación con la integral de Stieltjes
aplicada a operadores en II.7, el método aquí seguido podría calificarse de semisimbólico: en vez
de elegir arbitrariamente un solo g del E∞, en II.7 cabía elegir dos f, g, y en vez de (…, g) formar
(… f, g) (donde están los …, se coloca el operador).
(103) Se supone aquí tácitamente que existe realmente un tal operador ∞
para cada descomposi-
2
ción de la unidad F(l). En otros términos, se admite que para cada ∫−∞ λ 2 d F(λ)f finita cabe
406
∞
hallar un f * tal que, para todo g, (f *, g) = ∫ λ d[F(λ)f , g], y que el conjunto de esos f es doquie-
−∞ –
ra denso. (El carácter hermítico del operador así definido se deduce entonces de S 3: se permutan
entre sí f y g en la última ecuación y se forman los complejos conjugados). Estas dos aserciones se
encuentran demostradas en loc. cit. Nota 78.
(104) Para que el problema de valores propios relativo a A fuese siempre resoluble, debiera
poder seguirse de aquí el carácter unitario de U, es decir, D = F = En o E∞, respectivamente. No se
da este caso en el E∞, conforme demostraremos a partir de la existencia de operadores A no-máximos.
En el En, por el contrario, debe presentarse dicha circunstancia, lo que, por lo demás, es fácil ver
directamente: toda variedad lineal del En es cerrada; luego también lo es la de los j - Uj, y dado
que es doquier densa ha de coincidir con En. El conjunto D de los j no tiene menos dimensiones
que su imagen lineal, el conjunto de los j - Uj; por lo tanto, el número de dimensiones de D es
el mayor posible, es decir, n. El mismo debe ser el del conjunto F, por cuanto es imagen lineal uní-
voca de D. Si n es finito, de aquí se sigue que D = F = En.
(105) De todos modos, como demostró el autor (loc. cit. Nota 78), el siguiente operador es
máximo, pero no hipermáximo: Sea E∞ el espacio de todas las f (q) definidas en 0 ≤ q < +∞ y tales
∞ d
que ∫0 f (q) dq es finita; R el operador i que, por ejemplo, está definido para todas las f (q)
2
∞
dq
continuas y derivables tales que ∫0 f ' (q) dq es finita y f (0) = 0 y que se prolonga luego hasta hacer
2
2p
de él un operador cerrado. Este operador es igual a - A', si A' es el operador introducido en II.8,
h
para el intervalo 0, ∞; luego es hermítico. Este operador, el R, es máximo, pero no hipermáximo, lo
que se puede verificar mediante el cálculo efectivo de D, F.
h
Este caso es particularmente notable, porque A' = R suele interpretarse físicamente como
2p
operador de impulso en el semiespacio limitado por la pared q = 0.
(106) Este concepto se debe a Erhard Schmidt, cf. loc. cit. Nota 78.
(107) Puesto que R · 1, 1 · R tienen sentido siempre y sólo cuando lo tiene R (cf. II.5), lo
mismo vale para R · a1 y a1 · R si a ≠ 0. Luego estos dos productos son iguales, es decir, R y a · 1
son permutables. La permutabilidad de R y a1 vale, pues, con una sola excepción: a = 0, R no de-
finido en todo el espacio. Esta circunstancia es muy enojosa y justifica que se cambie la definición
de permutabilidad.
(108) A a · 1 corresponde la siguiente descomposición de la unidad:
{ }
f (m) = 1, para m ≥ a . La verificación es fácil.
0, para m < a
(109) Para dos operadores hermíticos A, B pertenecientes a una clase particular (los llamados
«completamente continuos», cf. loc. cit. Nota 70) demostró Toeplitz (cf., p. e., loc. cit. Nota 33) un
teorema del que se sigue el que precede (a saber, la existencia de un sistema ortonormal completo de
funciones propias comunes a A, B). El teorema general para A, B, cualesquiera, o para A, B, C, …,
lo demostró el autor, loc. cit. Nota 94.
1
(110) Hay que elegir acotado el conjunto c1, c2, …, p.e., cm = para que R sea continuo. En
m
efecto, de la continuidad de R, es decir, de ∙ R f ∙ ≤ C ∙ f ∙ se sigue desde luego que ∙ Rym ∙ = ∙ cmym ∙ =
= ∙ cm ∙ ≤ C ∙ ym ∙ = C, ∙ cm ∙ ≤ C. Recíprocamente, si ∙ cm ∙ ≤ C (m = 1, 2, …),
2 2
⎛ ∞ ⎞ ∞ ∞
= R ⎜ ∑ xmψ m ⎟ = ∑ xm χmψ m = ∑ xm χ m ,
2 2 2
Rf
⎝ m =1 ⎠ m =1 m =1
∞ 2 ∞
∑ xmψ m ∑ xm
2 2
f = = ,
m =1 m =1
407
n n
xµ = ∑ xµν X ν , yµ = ∑ xµνYν (µ = 1, …, n);
ν =1 ν =1
n
de aquí se sigue Yµ = ∑ Aµν X ν (µ = 1,…, n), donde
ν =1
n n n
⎛ n ⎞ n
∑ Aµµ = ∑ xρµ aρσ xσµ = ∑ aρσ ⎜ ∑ xρµ xρµ ⎟ = ∑ aρρ ,
µ =1 µ , ρ ,σ =1 ρ ,σ =1 ⎝ ν =1 ⎠ µ =1
⎧ f , para λ ≥ λ2⎫
E(λ)f = ⎨ ⎬ y, por ende,
⎩0, para λ ≤ λ1 ⎭
∞ λ2 λ2
(Af , f ) = ∫
−∞
λ d[E (λ)f , f ] = ∫λ1
λ d[E (λ)f , f ] ≤ ∫ λ1
λ2 d[E (λ)f , f ]
En consecuencia es
∞ ∞ ∞
A= ∫ −∞
λ dE (λ) = ∫ 0
λ dE (λ) = ∫0
µ 2 dE (µ 2 ),
∞
y A' = ∫
0
µ dE (µ 2 ) satisface la ecuación A' 2 = A.
Obsérvese que del carácter definido de A hemos concluido que E(l) = 0 para l < 0; pero como,
a su vez, de E(l) = 0 para l < 0 se sigue evidentemente dicho carácter, esto, es decir, el hecho de
ser todo el espectro ≥ 0, caracteriza el operador como definido.
408
(115) Cf. loc. cit. Nota 64. Se consigue una demostración directa de la siguiente manera: Sean
l0 < l1 < l2 < … < ln todos ≥ e o todos ≤ e y E(l0) ≠ E(l1) ≠ E(l2) ≠ … ≠ E(ln). En estas con-
diciones, E(ln) - E(ln - 1) ≠ 0 y, por lo tanto, existe jn ≠ 0 tal que (E(ln) - E(ln - 1)) jn = jn, de
donde se sigue
{
E (l)jn = jn, para l ≥ ln ;
0 para l ≤ ln - 1 }
además, siempre podemos lograr que ∙jn ∙ = 1. De lo que precede se deduce que (jm, jn) = 0 para
m ≠ n. Los j1, …, jn forman, por ende, un sistema ortonormal que es posible ampliar hasta cons-
tituir un sistema completo: j1, j2, …, jn, jn + 1,…
Se tiene (n = 1, …, n)
∞ λν λν
∫ ∫ ∫
2 2 2 2
Aϕν = λ 2 d E (λ)ϕν = λ 2 d E (Λ)ϕν ≥ ε 2 d E (λ)ϕν =
−∞ λν −1 λν −1
luego
⎧ n
⎪ ≥ ∑ Aϕ µ ≥ nε 2
2
∞
∑
2
Aϕ µ ⎨ µ =1
µ =1 ⎪ = ∑ (A) = C 2,
⎩
C 2 C 2
es decir, n ≤ . Por consiguiente, para ∙ l ∙ ≥ e, E(l) únicamente puede tomar ≤ 2 ⋅ valores
e2 e2
diferentes y varía así sólo en un número finito de saltos, de los cuales cada dos consecutivos deter-
minan un intervalo en el que es E(l) constante. Dicho de otro modo, para ∙l ∙ > e existe sólo espec-
tro discreto. Ahora bien, esto debe valer para todo e > 0; luego el espectro es un espectro discreto
puro.
(116) Aparte las memorias originales citadas en el curso de la discusión hay que tomar en con-
sideración el artículo enciclopédico de Hellinger y Toeplitz (cf. Nota 33).
(117) Por analogía geométrica, la esfera en el E∞ de centro en j0 y radio r debe ser el conjunto
de los puntos tales que ∙ f - j0 ∙ ≤ r; su interior, el conjunto de los ∙ f - j0 ∙ < r; su superficie, el
conjunto ∙ f - j0 ∙ = r. Para la esfera unidad es j0 = 0 y r = 1.
(118) Los primeros enunciados estadísticos acerca del comportamiento de un sistema en el
estado j se deben a M. Born; más detallados se encuentran en Dirac y Jordan. Cf., las citas en las
Notas 8 y 2.
(119) De esta coordinación, en la que se hace corresponder a cada magnitud física un operador
hermítico, hablaremos extensamente en IV.1. Por de pronto solo sabemos, por lo dicho en I.2, que
h
a las coordenadas corresponden los operadores q1 …, …, qk …; a los impulsos, los operadores
∂ … h ∂ … 2 pi
,… ; a la energía, el «operador de la energía» H.
∂q1 2pi ∂qk
(120) Un excelente ejemplo ilustrativo de este estado de cosas lo proporciona la teoría cinética
de los gases.
Un mol (16 gr.) de oxígeno contiene 6 · 1023 moléculas de O2 y constituye así un sistema me-
cánico de 2 ⋅ 3 ⋅ 6 ⋅ 1023 = 36 ⋅ 1023 = k grados de libertad cuando se tiene en cuenta que cada
molécula de O2 consta de dos átomos O (de cuya estructura interna prescindiremos, de modo que
se tratarán como puntos materiales con 3 grados de libertad). Con ayuda de 2k parámetros se podría,
por lo tanto, abarcar su comportamiento causalmente, pero la teoría de los gases aplica sólo dos: la
presión y la temperatura, que son ciertas complicadas funciones de esos 2k parámetros.
409
(
e )
∂ − 2hπi (t −t0)H
=−
2π i −
H⋅e h
2π i
(t −t0)H
∂t h
e igualmente para h2
410
(131) Z. Physik, Bd. 43 (1927). Bohr profundizó en estas consideraciones, Naturwiss., Bd. 16
(1928). El método analítico que aplicaremos en lo que sigue fue llevado a la práctica por Kennard,
Z. Physik, Bd. 44 (1926), y su forma actual se debe a Roberston.
(132) Bohr realzó la significación fundamental de esta circunstancia, loc. cit. Nota 131. Hay que
advertir, además, que la descripción que de ese proceso se hace más adelante, no es del todo clásica
en un punto: se apoya en la existencia de quanta de luz, es decir, en el hecho de no aparecer jamás
la luz de frecuencia v en cantidades de energía menores que hv.
(133) Cf. en loc. cit. Nota 131 la subsiguiente discusión, según Heisenberg y Bohr.
(134) Cf., p. e., la memoria original de Einstein, Ann. Physik, Bd. 14 (1905), o cualquier
tratado moderno.
(135) Para la teoría del microscopio, cf., p. e., Handbuch der Physik, Berlín, 1927, Bd. 18, cap.
2 G. En mediciones muy precisas e, y por lo tanto también A, es muy pequeño, es decir, debe usar-
se de rayos g o de luz de longitud de onda aún más corta. Una lente normal no sirve en estas con-
diciones; sólo cabría emplear una lente cuyas moléculas ni fuesen destruidas ni arrancadas de su
posición por los rayos g. Dado que la existencia de tales moléculas o partículas no vulnera ninguna
ley natural conocida, es legítima su aplicación para los fines del experimento ideal.
mc∆n h∆n mc2 –
(136) grande respecto de significa que n es pequeño frente a esto es, E = hv
n c h
pequeño comparado con mc 2. En otros términos, la energía del quantum luminoso L es pequeña
relativamente a la masa en reposo de T —hipótesis ésta que, de todos modos, es inevitable en un
cálculo no-relativista.
(137) Sea, por ejemplo, F(x) un tren de ondas monocromático, limitado, de frecuencia n0 y
que se extiende de a hasta t:
{
F (x) = a sen 2pn0x, para 0 ≤ x ≤ t
0, en caso contrario }
n
(En fuerza del enlace continuo debe ser sen 2pn0t = 0, es decir, n0 = , n = 1, 2, 3, …). En estas
2t
condiciones y en virtud de las conocidas fórmulas de inversión de la integral de Fourier (cf. loc. cit.
Nota 87) (a2n = b2n + c2n)
bν
cν { =2 ∫
−∞
∞
cos 2πν x ⋅ dx = 2a
F (x) sen ∫
0
τ
cos 2πν x ⋅ dx =
sen 2πν 0 x ⋅ sen
∫ ( sen
cos π (ν + ν )x − cos π (ν − ν )x ) ⋅ dx =
τ
=±a sen
0 0
−∞
τ
⎡ cos π (ν + ν 0 )x cos π (ν − ν )x ⎤
= − a ⎢ sen − sen
0
⎥ =
⎢⎣ π (ν + ν 0 ) π (ν − ν 0 ) ⎥⎦0
⎧ ⎡(−1)n cos πντ − 1 (−1)n cos πντ − 1⎤ 2aν 0 (1 − (−1)n cos πντ )
⎪ −a ⎢ − ⎥ =− ,
⎪ π (ν + ν 0 ) π (ν − ν 0 ) ⎦ π (ν 2 − ν 02 )
⎨ ⎣
⎪ −a ⎡(−1) sen πντ − (−1) sen πντ ⎤ = − 2aν 0 (−1) sen πντ ;
n n n
⎢
⎪⎩ ⎣ π (ν + ν 0 ) ⎥
π (ν − ν 0 ) ⎦ π (ν − ν 02 )
2
luego
aν = =
sen 1
2aν0 2 − 2(−1)n cos πντ 4aν 0 cos 2 πντ
=
{ }
4aν 0 sen π (ν − ν 0 )τ
.
π (ν − v0 )
2 2
π (ν − v0 )
2 2
π (ν 2 − v02 )
411
Vemos, pues, que lo que predomina es el entorno de la frecuencia n = n0 y que la mayor parte
de la energía del tren de ondas corresponde a aquel dominio de frecuencias en el que p (n - n0)t
tiene un valor moderado. Por consiguiente, la dispersión de n - n0 (o, lo que es lo mismo, la de n)
1
es del orden de .
t
Al mismo resultado conduce el cálculo exacto de la expresión normal
∫
0
aν2 (ν − ν 0 )2 d ν
∞ .
∫ 0
aν2 d ν
(138) Proc. Roy Soc., London, vol. 114 (1927). Cf. también la exposición de Weyl en: «Grup-
pentheorie und Quantenmechanik», 2.a edición, pp. 91 y ss., Leipzig, 1931.
(139) El lector interesado en estas cuestiones encontrará expuesta la teoría electromagnética de
la luz en cualquier tratado de Electrodinámica, p. e., Abraham-Becker: «Theorie der Elektrizitát»,
Berlín, 1930. Cf. también el estudio que sigue, dentro del marco de la teoría de Maxwell.
(140) Cf. R. Courant y D. Hilbert: «Methoden der mathematischen Physik», I, pp. 358-363,
Berlín, 1924.
(141) Se tiene, en efecto,
! ! ! !
∫ ∫ ∫ a × rot b dx dy dz = ∫ ∫ ∫ rot a × b dx dy dz,
H H
a causa de
! ! ! ! ! !
a × rot b − rot a × b = grad (a ∧ b )
(a ∧ b es el producto vectorial o exterior de a , b ), supuesto que la componente normal de a ∧ b se
anule en la frontera de H. Tal ocurre
con seguridad cuando a o bes perpendicular
a dicha
frontera,
pues a ∧ b es ortogonal a a y a b . En nuestro caso, a = rot Am ⋅ b = An, de modo que b cumple tal
condición.
(142) Cf., p. e., loc. cit. Nota 138.
(143) Dado que P nx es permutable con Q yn, Q zn, y sólo no lo es con Q xn, para justificar la trans-
formación que sigue hemos de demostrar
la siguiente relación (en la que suprimimos los subíndices,
aquí superfluos, y sustituimos A por F ):
h
PF (Q) - F (Q)P = F' (Q),
2pi
h ∂… …
si P = , Q = q . Esta relación, de gran importancia para la teoría matricial, puede com-
2pi ∂q
probarse fácilmente mediante un cálculo directo.
(144) Que los sistemas de índices k, M1, M2, … definidos de esta manera constituyen efecti-
vamente una sucesión, se reconoce con la mayor facilidad así: sea p1, p2, p3, … la sucesión de los
números primos 2, 3, 5, … Los productos p1k - 1p2M1p3M2 … son finitos ya que, prescindiendo de un
número finito de excepciones, todos los Mn son = 0, es decir, iguales a 1 los factores p Mn + 1
n . Cuando
k, M1, M2, … recorre todos nuestros sistemas de índices, p1k - 1 p2M1 p3M2 …, recorre la sucesión de los
números naturales 1, 2, 3, … y coincide con cada uno una sola vez. Por consiguiente, es posible
aplicar p1k - 1 p2M1 p3M2 … para conseguir una enumeración simple de los akM, kM2 …
412
(145) Como coordenadas del quantum de luz cabe tomar sus impulsos px, py, pz y una coorde-
nada p que describa su estado de polarización. px, py, pz determinan la dirección de dicho quantum,
es decir, sus cosenos directores ax, ay, az(ax2 + ay2 + az2 = 1) como también la frecuencia n, la longi-
hn
tud de onda l y la energía, puesto que, según Einstein, el módulo del vector de impulso es
134
(cf. Nota ) y, por lo tanto, c
hn hn hn
px = a , py = a , pz = a,
c x c y c z
es decir,
c c
ν= px2 + py2 + pz2 , λ = , energía = hν,
h ν
cp cpy cp
ax = x , a y = , az = z .
hν hν hν
!
Ahora bien, las oscilaciones propias An (x, y, z) ⋅ γ cos 2πρn(t − τ ) son, por desgracia, ondas lu-
minosas estacionarias, cual no podía dejar de suceder en el recinto vacío H a causa de que sus pare-
des se comportan como un espejo, con lo que no es posible establecer una relación entre An y una
«dirección del rayo» ax, ay, az. Se reconoce desde luego que junto a ax, ay, a2, existe por lo menos la
dirección opuesta -ax, -ay, -az y lo mismo vale para el impulso. Por lo tanto, en H debemos emplear
otras coordenadas distintas de px, py, pz, p.
Cabe superar este obstáculo acudiendo a nuevas representaciones en las que se supone H para-
lelepipédico:
pero de manera que las superficies límite x = ± a, y = ± b, z = ± c no sean paredes, antes bien se
identifique x = a con x = -a, y = b con y = -b y z = c con z = -c. Es decir, la luz que alcanza el
plano x = a en (a, y, z) prosigue su camino en (-a, y, z) (de nuevo hacia el interior de H) cual si
nada hubiera ocurrido, etc.
(Cf., p. e., una memoria de L. Landau y R. Peierls: Z. Physik, Bd. 62, 1930). En otros términos:
se supone periódico el espacio en las direcciones x, y, z con los períodos 2a, 2b, 2c, respectivamente.
El método analítico sigue siendo el mismo, salvo
las condiciones
de contorno, que son ahora
A(a, y, z) = A(-a, y, z), A(x, b, y) = A(x, -b, y) y A(x, y, c) = A(x, y, -c), en vez de (A) norm. = 0.
Las «soluciones elementales», en serie de las cuales se desarrolla la solución general, son en el pre-
cos
sente caso [2p(t - c(axx + ayy + azz))], en lugar de A(x, y, z) p(t). Las n = rn y ax = an,x , ay = an,y ,
sen
az = an,z (n = 1, 2, …) que corresponden a las soluciones propias se determinan fácilmente, y el ul-
terior desarrollo de la teoría coincide con el indicado en el texto.
(146) ¡Este paso al límite, S → +∞, es diferente del N → +∞ efectuado en la teoría electro-
magnética! Porque, aun cuando también en ésta interpretábamos M1, M2, …, como números de
quanta, N era un límite para el número de quanta incoherentes (es decir, tales que no coinciden en
frecuencia, dirección y polarización —las dos primeras determinan el impulso cf. Nota 145), mientras
que S lo es para el número de quanta,
– sin más.
(147) Esta introducción de E ∞(S) en lugar de E∞(S) equivale a sustituir la estadística ordinaria por
la llamada estadística de Bose-Einstein, en tanto no se consideren las consecuencias de esta sustitución
como aplicación de la Mecánica cuántica. Cf., acerca de esto, p. e., Dirac, loc. cit. Nota 136.
(148) Discusiones más detalladas tocante a cómo se concebía esa «duplicidad de naturaleza» y
a cómo era sentida en ella la paradoja, las encontrará el lector en la literatura de aquel tiempo. Cf.,
p. e., las obras citadas en la Nota 6.
Se ha dicho en más de una ocasión que la Mecánica cuántica atribuye a la materia la misma
duplicidad de naturaleza, puesto que las partículas discretas (electrones, protones) se describen me-
413
diante funciones de onda y muestran propiedades típicamente ondulatorias, por ejemplo, la difrac-
ción en rejas, etcétera. (Cf., los experimentos de Davison-Germer: Physic. Rev., vol. 30, 1927; Proc.
Nac. Acad. Sci. U. S. A., vol. 14, 1928; además, C. P. Thompson: Proc. Roy. Soc. Lond., vol. 117,
1928, y Rupp: Ann. Physik, Bd. 85, 1928). En contra de esta opinión hay que recalcar que la Me-
cánica cuántica deduce ambas «naturalezas» de una única teoría unificada de los fenómenos elemen-
tales. La paradoja de la primitiva teoría de los quanta consistía en que debía recurrir alternativamen-
te a dos teorías entre sí contradictorias (la electromagnética de la luz, de Maxwell-Hertz, y la de
los quanta luminosos, de Einstein) para lograr la explicación de los hechos experimentales.
(149) Weisskopf y Wigner (Z. Physik, Bd. 63, 1930) dieron la solución exacta de estas ecua-
ciones diferenciales, a partir de la cual se reconoce la verdad de estos enunciados.
(150) N. Bohr, como es notorio, sentó en 1913 la hipótesis (cf. loc. cit. Nota 5) de que el
átomo, al pasar de un estado estacionario de energía W (1) a otro estado estacionario de energía W (2)
W (1) - W (2) W – - W k
(W (1) > W (2)), emite luz de frecuencia . En nuestro caso corresponde a esto k
(151) Se tiene: h h
2
e ix − 1 = (e ix − 1)(e ix − 1) = (e ix − 1) (e −ix − 1) =
= 2 − e ix − e −ix = 2 − 2 cos x = 2(1 − cos x)
1 − cos x
∞ ∞ 1 − cos x ∞ 1 − cos 2y ∞ sen2 y
∫−∞ x2
dx = 2 ∫ 0 x2
dx = ∫0 y2
dy = 2 ∫
0 y2
dy = π .
(153) P xn es permutable con todos los Q xm, Q ym, Q zm, P xm, P ym, P zm, excepto con (Q zn) y en este caso
vale la relación
h
PνxQνx − Qνx Pνx = ⋅1.
2π i
Por lo tanto, es
1 1 h 1 x
H 0Qνx − Qνx H 0 = (Pνx )2 Qνx − Qνx (Pνx )2 = Pν ,
2mν 2mν 2π i mν
(cf. Nota 143).
(154) Physik. Z., Bd. 18, 1917.
(155) Es necesario insistir en la diferencia que existe entre el concepto de sistema, sin más, y
el de sistema en un cierto estado. Por ejemplo, un átomo de hidrógeno, es decir, un electrón y un
protón y las fuerzas que ejercen entre sí, es un sistema —descrito formalmente en cuanto se indica
que el espacio de los estados es de 6 dimensiones, que llamamos q1, …, q6 a las coordenadas y
p1, …, p6 a los impulsos, y que la función de Hamilton es:
414
En cambio, para fijar un estado son menester aún otros datos: así, en la Mecánica clásica, hay
que atribuir valores numéricos q10, …, q60, …, p10, …, p60 a las coordenadas y a los impulsos q1 …,
q6, p1,…, p6; en la Mecánica cuántica, debemos dar la función de onda j(q1, …, q6). Más datos no
son ya necesarios: conocido el complejo sistema-estado, la teoría da normas unívocas para contestar,
mediante el cálculo, a todas las cuestiones.
(156) Esas colectividades son absolutamente necesarias para poder establecer el cálculo de pro-
babilidades como teoría de las frecuencias. Su introducción es debida a R. v. Mises, quien reconoció
su significado para dicho cálculo y llevó a término una construcción consecuente del mismo (cf.,
p. e., su libro: «Wahrscheinlichkeit, Statistik und ihre Wahrheit», Berlín, 1928).
(157) w(a' ) es la probabilidad de a ≤ a', es decir, corresponde al intervalo -∞, a'. Es preferible
usar de la notación wR(a) para designar a w(a), porque de esta manera se pone de manifiesto su depen
dencia de R. Así, pues, la función wR(a) goza de las siguientes propiedades: Para a → -∞, wR(a) → 0;
para a → + ∞, wR(a) → 1; para a ≥ a0 y a → a0, wR(a) → wR(a0); para a'< a'' es wR(a' ) ≤ wR (a'' ).
(En Mecánica cuántica, si E(l) es la descomposición de la unidad que corresponde a R, se tiene
wR(a) = ∙E(a)j ∙2 = (E(a) j, j).).
d
Si wR(a) es derivable, cabe introducir en su lugar la conocida «densidad de probabilidad»
da
wR(a); si wR(a) es discontinua en el punto a = a0 (a la izquierda, naturalmente), el punto a = a0 po-
see la «probabilidad discreta» wR(a0) - wR(a0 - 0). El más amplio concepto utilizable en general es,
pues, el de wR(a). Cf. loc. cit. Nota 156.
(158) Esto se sigue de la llamada ley de los grandes números, del teorema de Bernoulli.
(159) Así, por ejemplo, se consideraba como uno de los inconvenientes fundamentales de la
definición de campo eléctrico el que el «cuerpo de prueba» eléctricamente cargado que se debe uti-
lizar para ello, no puede ser menor que un electrón.
(160) Al valor preciso a0 corresponde la función de probabilidad
{
wR(a) = 1, para a ≥ a0 ;
0, para a < a0 }
En éste y sólo en este caso la dispersión e2 es nula. En el caso general, el valor medio r y la
dispersión e2 se calculan de la siguiente manera (¡integrales de Stieltjes!):
∞
ρ= ∫
−∞
a ⋅ dwR (a),
∞
ε2 = ∫
−∞
(a − ρ )2 ⋅ dwR (a)
∞ ∞ ∞
= ∫
−∞
a 2 dwR (a) − 2 ρ ∫ −∞
a ⋅ dwR (a) + ρ 2 = ∫
−∞
a 2 dwR (a) − ρ 2
∞ ∞ 2
⎛ ⎞
= ∫
−∞
a 2 dwR (a) −
⎝ ∫
−∞
a 2 ⋅ dwR (a) .
⎠
415
(163) a R, S2, R + S + … significan, en virtud de la definición dada más arriba, que hemos de
sustituir las magnitudes R o S, o R, S, … en las funciones f (x) = ax, f (x) = x2, f (x, y, …)= x + y + …,
respectivamente.
(164) Por ejemplo, en la teoría de Heisenberg el operador de la energía correspondiente a un
electrón que se mueve en un campo de fuerzas conservativo V(x, y, z):
(P x )2 + (P y )2 + (P z )2
H0 = + V (Q x , Q y , Q z )
2m
(P x )2 + (P y )2 + (P z )2
R= , S = V (Q x , Q y , Q z ).
2m
Vm (R + S) = Vm (R) + Vm (S).
(165) En el caso de colectividades libres de dispersión, no hay, empero, motivo alguno para no
introducir los valores medios correctos.
(166) Es decir,
Uϕn = ∑ ϕm ⋅ umn,
m
∞
∑ umn
2
para lo cual, por supuesto, es necesario que sea finita (m = 1, 2, …) Cabe establecer esto
m =1
∑ xn = 1 y hacemos ϕ = ∑ϕm ⋅ xm, la matriz de R = P[j] es la {xm, xn};
2
de la siguiente manera. Si
n m
luego el valor medio de R será Vm(R) = ∑ umn xn xm. A causa de ser P[j] = P2[j] y 1 - P[j] = (1 - P[j])2,
m,n
esta suma será ≥ 0 y ≤ Vm(1); luego, por lo menos para Vm(R), normalizado, es 0 ≤ Vm (R) ≤ 1. Si
xN + 1 = xN + 2 = … = 0, esto nos dice que la forma hermítica de N dimensiones
N
∑ umn xn xm toma va-
m, n
∑ xn
2
lores ≥ 0 y ≤ 1 para = 1, es decir, los valores propios de la matriz umn(m, n = 1, 2, … N ) son
n =1 N
≥ 0 y ≤ 1. Por consiguiente, la longitud del vector ym = ∑ umn xn es siempre ≤ que la del vector xm.
Para n =1
luego
N N N
∑ xm ≥ ∑ ym , 1 ≥ ∑ umm' .
2 2 2
m =1 m =1 m =1
∞
∑ umm'
2
Dado que esta relación vale para todo N, necesariamente es ≤ 1.
m =1
416
(167) En rigor, todo este razonamiento sólo es válido cuando todos los j1, j2, … pertenecen
al dominio de definición de R. Cierto es que para cada R es posible hallar un sistema ortonormal
completo que esté en estas condiciones (cf. II.11); pero cuando R no tiene sentido dondequiera,
dicho sistema depende de R. Propiamente, pues, para cada sistema ortonormal completo j1, j2, …
tenemos un U que de él depende y tal que la relación
sólo vale necesariamente para aquellos R a cuyo dominio de definición pertenecen j1, j2, …
Sin embargo, todos esos U son iguales entre sí, porque si U', U'', son dos de ellos, la fórmula
anterior vale para ambos cuando R tiene sentido en todo el espacio, es decir, entonces se tiene traza
(U'R) = traza (U''R). Para R = P[j], por lo tanto, será (U' j, j) = (U'' j, j), [(U' - U'' ) j, j] = 0
y como esta última igualdad vale para todo j de módulo unidad, o sea, en último término, para
todo elemento del espacio hilbertiano, forzosamente ha de ser U' - U'' = 0; luego U' = U'' .
(168) No es posible escribir directamente S = R , es decir, S = g (R), g (x) = x , por cuanto
consideramos solamente funciones reales definidas para todo g(x) = x valor real de x y x no se
encuentran en este caso, pues para x < 0 toma valores imaginarios.
(169) Es también posible llevar a cabo una sencilla demostración directa: Sea j1, j2, … un
N
sistema ortonormal completo, amn = (A jn, jm) bmn = (Bjn, jm), traza (AB) = ∑ aµν bνµ . Esta es ≥ 0
µ, ν =1
N N N N
cuando todas las sumas ∑ aµν bνµ son ≥ 0. Si f = ∑ xµϕ µ , se tendrá: (Af , f ) = ∑ aµν xν ⋅ xµ ≥ 0, (Bf , f ) = ∑ bµν xν xµ ≥ 0;
µ,ν =1 µ,ν =1 µ ,ν =t µ,ν =1
N N
(Af , f ) = ∑ aµν xν ⋅ xµ ≥ 0, (Bf , f ) = ∑ bµν xν xµ ≥ 0; luego también las dos matrices finitas amn, bmn (m, n = 1, …, N ) son de-
µ ,ν =t µ,ν =1 N
finidas. Ahora bien, tanto el carácter de definido como el valor de la suma ∑ aµν bνµ son invarian-
µ,ν =1
tes ortogonales en el espacio de N dimensiones. Por otra parte, bmn es hermítico y, por consiguiente,
en el espacio de N-dimensiones puede ser reducido a la forma diagonal, de suerte que podemos
N N
suponer bmn = 0 para m ≠ n. En estas condiciones, ∑ aµν bνµ = ∑ aµµbµµ ; pero como por ser defini-
µ,ν =1 µ =1
das amn y bmn es amm ≥ 0 y bmm ≥ 0 (basta hacer xm = 0, para n ≠ m' la suma anterior es, efectivamen-
{ )
te, ≥ 0. 1, para n = m'
(170) Para j' = j'' es claro. Supongamos, pues, j' ≠ j'' . La «ortogonalización» del par j' , j''
(cf. II.2) conduce a un j1 (∙j1∙ = 1), que es ortogonal a j' y tal, además, que j'' es combinación
lineal de j' , j1 : j'' = a j' + b j1, ∙j'' ∙2 = ∙a ∙2 +∙b ∙2 = 1. Sea, por ejemplo, ∙a ∙ = cos θ, ∙b ∙ = sen θ,
de donde a = eia cos θ, b = e1b sen θ. Si hacemos a(x) = eixa cos xθ, b(x) = eixb sen xθ, será también
∙a(x)∙2 + ∙b(x)∙2 = 1; luego j(x) = a(x) j' + b(x)j1, varía de modo continuo desde j' (x = 0) hasta j'' (x = 1)
y es de módulo unidad, ∙j(x) ∙ = 1.
(171) A decir verdad, en virtud de 2. debiéramos imponer las condiciones V ≠ 0, W ≠ 0. Sin
embargo, los casos V = 0 ó W = 0 van implícitos con c' = 0, c'' = 1 ó c' = 1, c'' = 0.
(172) El proceso deductivo que muestran los dos últimos párrafos, proceso que conduce a las
colectividades homogéneas, fue indicado por el autor, Gött. Nachr., 1927. La existencia de tales co-
lectividades, como también su relación con las colectividades generales, fue descubierta independien-
temente por H. Weyl: Z. Physik, Bd. 46, 1927, y por el autor (loc. cit.). Un caso particular de
colectividades generales (dos sistemas acoplados, cf., la discusión en VI.2) se encuentra ya antes en
J. Landau: Z. Physik, Bd. 45, 1927.
(173) Si los «parámetros ocultos», que en conjunto designamos con la letra p, sólo toman va-
lores discretos p1, p2 …, pn (n > 1), las dos colectividades cuya mezcla es la primitiva se obtienen
reuniendo en una los sistemas en los que p = p1, y en la otra aquellos en los cuales p ≠ p1. Si p
varía de modo continuo en un dominio II, sea II' un dominio parte de II: una colectividad contie-
ne aquellos sistemas en que p pertenece a II' ; la otra, aquellos cuya p no pertenece a II' .
417
(174) El espacio de las fases tiene 6 dimensiones, y las 6 coordenadas de uno de sus puntos son
las 3 coordenadas cartesianas del punto material q1, q2, q3 y los tres correspondientes impulsos p1,
p2, p3. Según III.4, para las respectivas dispersiones e1, e2, e3, h1, h2, h3, valen las desigualdades
h h h
ε1η1 ≥ , ε 2η2 ≥ , ε 3η3 = ,
4π 4π 4π
es decir,
3
⎛ h⎞
ε1ε 2ε 3η1η2η3 ≥
⎝ 4π ⎠
y en cualquier caso la posición en el espacio de las fases de la Mecánica clásica está indeterminada
en un volumen de este orden.
(175) Cf., la disertación de Schrödinger, de una claridad sin par, tocante a este punto: Na-
turrwiss., Bd. 17 (1929), Heft 37.
(176) um → -um (o um → -un, o bien vn → -vm) es una operación de simetría que deja inva-
riante a K y cambia los signos de los primeros integrandos; sus integrales son, pues, nulas. Por otra
parte, um → vm, vm → um o um → un, un → um, son operaciones de simetría de K que transforman
entre sí los últimos integrandos; luego sus integrales son iguales todas ellas entre sí, y, por lo tanto,
1
iguales a su suma multiplicada por :
2s
∫ ∫ … ∫ ∫ (u + v
K
2
1
2
1 + … + uS2 + vS2 )d σ = ∫ ∫ …∫ ∫ d σ = superficie de K = C.
K
(177) La validez de la fórmula obtenida por substracción acaso parezca discutible si traza U es
infinita. Sin embargo, es posible establecerla también de la siguiente manera: Que R tenga el valor l*
significa que w(a', a'' ) = 0, es decir, traza U[E(a'' ) - E(a' )] = 0, para a'' < l* ó a' > l*. Esta traza es
siempre ≥ 0, no decreciente con a'' y no creciente con a' . Basta, pues, considerar’ su lím. para a'' < l*
a' → -∞
y su lím. para a' > l*. Resulta así: traza UE(a'' ) = 0 para a'' < l* y traza U[1 - E(a' )] = 0 para a' ≥ l*.
a'' → +∞
(178) Es decir, si la propiedad E se da, el estado es el j. Cuando así no ocurre, se da la propie-
dad «non –E», de suerte que en lugar de E = P[j] y M = [j] aparecen 1 - E = 1 - P[j] y E - M = E
- [j], lo cual no determina unívocamente a U. (E corresponde justamente a la cuestión: «¿es j el
estado?»). Una medición que, cualquiera que sea el punto de partida, fija unívocamente el estado,
es una medición de una magnitud R cuyo operador R tiene un espectro discreto puro y valores pro-
pios todos ellos simples (cf. III.3). Después de la medición, el sistema S se encuentra en uno de los
estados j1, j2, … (las funciones propias de R), o sea, la medición altera en general el estado de S.
De un modo semejante, también la medición de E altera el estado; porque, tras ella, si el resultado
es positivo, U = P[j], y si es negativo, U(1 - P[j]) = U, de donde UP[j] = 0, es decir, Uj = 0, mien-
tras que antes no tenía por qué ocurrir ninguno de los dos casos. Esta «determinación» mecánico-
cuántica del estado lo altera, por consiguiente, cual era de esperar.
(179) Por ejemplo, porque
RP[jn] f = R[(f , jn) ⋅ jn] = ( f , jn) · Rjn = ln( f , jn) · jn,
P[jn] R f = (R f , jn)jn = ( f , Rjn)jn = ln( f , jn) · jn.
(180) En todos los tratados de Mecánica clásica (hamiltoniana) se habla de estas relaciones.
(181) Las relaciones de indeterminación para el par tiempo-energía se han discutido repetidas
veces. Cf., la síntesis de ello en Heisenberg: «Die physikalischen Prinzipien der Quantentheorie»,
§ II.2, Leipzig, 1930.
(182) Todos los demás pormenores del dispositivo de medición persiguen solamente el aco
plamiento de la magnitud que propiamente interesa, de su operador R, con Mn o P x, P y, P z, o
Q x, Q y, Q z. Este es, justamente, el lado prácticamente más importante de la técnica de la medición.
418
(183) Cf., p. e., Nernst: «Theoretische Chemie», Stuttgart (numerosas ediciones desde 1893),
libro IV, discusión de la demostración termodinámica de la «ley de acción de las masas».
(184) El sistema fenomenológico de la Termodinámica construido sobre estos principios, lo
encontrará el lector en numerosos tratados, p. e., Planck: «Vorlesungen über Thermodynamik»,
Berlín, 1930. Para lo que sigue es sobre todo conveniente la concepción estadística de los dos prin-
cipios, cual se expone, p. e., en las siguientes memorias: Einstein: Verh. d. dtsch. physik. Ges., Bd.
12, 1914; L. Szilárd: Z. Physik, Bd. 32, 1925).
(185) Este es el método de Maxwell-Boltzmann en Mecánica estadística (cf. el resumen en
el artículo de P. y T. Ehrenfest: Enzykl. d. Math. Wiss. Bd. II.4. D. Leipzig, 1907). En la teoría de
los gases, por ejemplo, el sistema «muy complicado» es el gas, que consta de muchas moléculas en
interacción, y las moléculas se estudian estadísticamente.
(186) Este es el método de Gibbs (cf. loc. cit. Nota 185). Aquí el sistema único es todo el gas, lo
que se observa es la suerte que siguen muchos ejemplares del mismo y las propiedades se aprecian
estadísticamente.
(187) Cf. loc. cit. Nota 184. El mismo punto fue ampliamente desarrollado por L. Szilárd.
(188) Es sabido que así es cómo la teoría cinética de los gases describe el proceso en el cual las
paredes transfieren su temperatura al gas que limitan. Cf. loc. cit. Notas 184 y 185.
(189) Cuando en esta transformación se consumen las cantidades de calor Q1, .., Qi, a las
Q1 Q
temperaturas T1, …, Ti, respectivamente, la diferencia de entropías es igual a + … + i . Cf. loc.
T1 Ti
cit. Nota 184.
(190) Si c ( T ) es el calor específico del gas cuántico en cuestión a la temperatura T, la cantidad
de calor que toma al aumentar su temperatura de T a T + d T es c ( T )d T. Según la Nota 189, la dife-
rencia de entropías es, por lo tanto,
T2 c(T)d T
∫ T1 T
.
(191) Para un gas perfecto es c ( T ) = constante, lo que, con seguridad, deja de ser cierto para
valores muy pequeños de T. Cf., p. e., loc. cit. Nota 6. –
(192) Para esto es indispensable que el volumen B de K sea grande con relación al volumen
total de K1, …, KN y, además, que la «energía por grado de libertad» kT (k = constante de Boltz-
h2
mann) sea grande respecto de 2 y (h = constante de Planck m = masa de una molécula; esta
µB 3
magnitud tiene las dimensiones de una energía). Cf., p. e., Fermi: Z. Physik, Bd. 36, 1926.
(193) Cf., p. e., loc. cit. Nota 184.
(194) Cf. loc. cit. Nota 185. Una discusión detallada de las dificultades vinculadas con el concep-
to del «demonio de Maxwell» la encontrará el lector en L. Szilárd: Z. Physik, Bd. 53, 1929.
MxT
(195) Si un gas perfecto consta de M moléculas, su presión es . Al comprimirlo desde el
volumen B al B se efectúa el trabajo mecánico B
1 2
B2 B2 dB B
− ∫
B1
p d ν = − MxT ∫B1 B
= MxT ln 1 .
B2
N B
En nuestro caso es M = , B = B, B2 = .
2 1 2
(196) Es sabido que la energía de un gas perfecto depende sólo de su temperatura.
(197) Determinemos los valores propios de aP[j] + bP[y]. Ha de tenerse
419
o sea,
a ⋅ x + a(ϕ, ψ ) ⋅ y = λ ⋅ x, b(ϕ, ψ ) ⋅ x + b ⋅ y = λ ⋅ y.
a − λ a(ϕ, ψ ) 2
= 0, (a − λ)(b − λ) − ab (ϕ, ψ ) = 0,
b(ϕ, ψ ) b − λ
λ 2 − (a + b)λ + ab(1 − α 2 ) = 0,
a + b ± (a + b)2 − 4ab(1 − α 2 ) a + b ± (a − b)2 + 4α 2 ab
λ= =
2 2
1 1 1 2
Hagamos a = 1, b = 0, o bien a = , b = , o a = , b = : resultan así las fórmulas del texto.
2 2 3 3
(198) Dado que (x ln x)' = ln x + 1, y, por lo tanto,
⎛ 1 + y ln 1 + y + 1 − y ln 1 − y ⎞' = 1 ⎛ ln 1 + y + 1⎞ − 1 ⎛ ln 1 − y + 1⎞ = 1 ln 1 + y ,
⎝ 2 2 2 2 ⎠ 2⎝ 2 ⎠ 2⎝ 2 ⎠ 2 1− y
1 3 + 1 + 8α 2 1 8α 1 1+ α
−3 ⋅ ln ⋅ + 4 ⋅ ln =
2 3 − 1 + 8α 2 3 1 + 8α 2 2 1− α
⎛ 1+ α 2α 3 + 1 + 8α 2 ⎞
= 2 ⎜ ln − ln ⎟.
⎝ 1− α 1 + 8α 2 3 − 1 + 8α 2 ⎠
1+ α 2α 3 + 1 + 8α 2
ln > ln ,
1− α 1 + 8α 2
3 − 1 + 8α 2
es decir,
1 1+ α 2 1 1+β 1 + 8α 2
ln > ⋅ ln , β= ,
2α 1 − α 3 2β 1 − β 3
420
y es evidente que esta relación quedará demostrada si se demuestra que su primer miembro es mayor
2 8
que el resultado de sustituir en el segundo el factor por el factor . Y, en efecto, a causa de ser
8 3 9
1 - b2 = (1 - a2) y a < b (lo que se sigue de la igualdad que precede y de ser a < 1), la nueva
9
desigualdad puede escribirse:
1 − α2 1 + α 1 − β2 1 + β
ln > ln
2α 1− α 2β 1− β
1 − x2 1 + x
y quedará justificada en cuanto se pruebe que ln es monótona decreciente en el inter-
2x 1− x
valo 0 < x < 1. Pero esto se puede ver, por ejemplo, en su desarrollo en serie de potencias:
1 − x2 1 + x ⎛ x2 x4 ⎞ 1 1 1
ln = (1 − x 2 ) ⎜1 + + + …⎟ = 1 − ⎛⎜1 − ⎞⎟ x 2 − ⎛⎜ − ⎞⎟ x 4 − …
2x 1− x ⎝ 3 5 ⎠ ⎝ 3⎠ ⎝ 3 5⎠
Pero no todos los En, es decir, no todas las magnitudes macroscópicamente observables son
permutables con H: muchos, p. e., el centro de gravedad de un gas en la difusión, cambian aprecia-
blemente con el tiempo, es decir, traza (UEn) no es constante. Ahora bien, dado que todas las mag-
nitudes macroscópicas son permutables, de ahí se sigue que H no es una magnitud macroscópica, o
sea, que la energía no se puede medir macroscópicamente con precisión absoluta. Esto, por lo demás,
es plausible.
(205) Para el teorema H de Boltzmann, cf.: «Vorlesungen über Gastheorie», Leipzig, 1896,
como también la en extremo instructiva discusión por P. y T. Ehrenfest, loc. cit. Nota 185. W. Pau-
li (Sómmerfeld-Festschrift, 1928) formuló la ((hipótesis de desorden» que en Mecánica cuántica
puede ocupar el lugar de la de Boltzmann, y con su ayuda demostró el teorema H Recientemente,
el autor consiguió demostrar también el principio ergódico de la Mecánica clásica (cf. Proc. Nat. Ac.,
enero y marzo de 1930), al igual que la forma más restrictiva que le dio G. D. Birkhoff: Proc. Nati.
Ac., diciembre de 1929 y marzo de 1930.
(206) Z. Physik, Bd. 57 (1929).
(207) N. Bohr (Naturwiss., Bd. 17, 1929) llamó la atención el primero sobre el hecho que la
duplicidad que la Mecánica cuántica hace inevitable en sentido formal, en la descripción de la Na-
turaleza, está también justificada objetivamente, y sobre la conexión con el principio del paralelismo
psicofísico.
421
(208) La discusión que se desarrolla en lo que sigue y en VI.3, encierra elementos esenciales
que el autor debe a sus conversaciones con el Sr. L. Szilárd. Cf. también consideraciones parecidas
en Heisenberg, loc. cit. Nota 181.
(209) Se demuestra fácilmente que A es hermítico o hipermáximo a la vez que A.
(210) Esto es claro para I, y para II lo es igualmente en tanto se trate sólo de polinomios. En
el caso de funciones cualesquiera se reconoce que así ocurre en el hecho de que la correspondencia
entre una descomposición de la unidad y su operador hermítico no se destruye al pasar de A a A.
(211) A causa del gran número y de la diversidad de índices, usaremos de esta notación para
las matrices, algo diferente de la seguida hasta aquí.
(212) Las proyecciones de un estado I + II son en general mezclas en I y II (cf. más adelante).
Esta circunstancia fue descubierta por L. Landau: Z. Physik, Bd, 45, 1927.
(213) La discusión matemática se apoya en una memoria de E. Schmidt: Math. Ann., Bd. 63,
1907.
(214) Esta hipótesis es susceptible de algunas variaciones, que no deben ser tenidas en cuenta
por motivos análogos.
(215) El cálculo correspondiente, para el caso discutido en III.4, de medición de la posición,
está contenido en una memoria de Weizsäcker: Z. Physik, Bd. 70, 1931.
422
Fundamentos matemáticos
Fundamentos matemáticos
de la mecánica cuántica de la mecánica
cuántica
John von Neumann
Publicado en alemán en 1932, Fundamentos matemáticos de la mecánica cuántica (1932), del po-
John von Neumann
livalente matemático húngaro John von Neumann (1903-1957), uno de los cerebros más pode-
rosos del siglo xx, contiene la presentación matemática más acabada y rigurosa de la mecánica Estudio preliminar de
cuántica, desarrollada en 1925-1926 por Werner Heisenberg, Erwin Schrödinger y Paul Dirac.
Es todo un clásico de la literatura científica. Pero, al contrario de lo que su título puede sugerir, José M. Sánchez Ron
Fundamentos matemáticos
no es solo un magnífico tratado de física matemática, con aportaciones seminales a la teoría de
los espacios de Hilbert, sino que también constituye una de las contribuciones más lúcidas al 3.ª edición
de la mecánica cuántica
problema del significado físico de la mecánica cuántica, en particular al problema de la medida.
Cuestiones como el colapso de la función de ondas, la posibilidad de una versión causal de la
teoría cuántica (variables ocultas) o el papel del observador fueron analizadas en estas páginas por
John von Neumann con una maestría difícilmente superable, independientemente de que en
algún caso (como el de las variables ocultas) sus conclusiones fuesen matizadas más de dos déca-
das después.
ISBN: 978-84-00-10335-4
Consejo Superior de
Investigaciones Científicas
50 © Calamar Edición & Diseño.