Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Peñafiel
Cero absoluto
Cuestiones en filosofía de la física
VMP
Cuestiones intratables en la
filosofía de la física.
por
LA PAZ
(Publicado en la neobarbarie)
VMP
Depósito legal Número 5-31-666-22
La Paz, 31 de mayo de 2022
Copyright © 2022 V. Miguel Peñafiel N.
Reservados todos los derechos
Bajo licencia de la Carrera de Física, FCPN (UMSA), sobre la base de “como está”, sin
garantías o condiciones de clase alguna, implicada o expresa. El uso de este archivo está
permitido estrictamente para fines no comerciales. Su distribución debe ser gratuita citando y
poniendo de manifiesto los respectivos créditos.
Edición digital, mayo de 2022
Prefacio
iv
Como para toda la ciencia, el problema fundamental de la física es aprender de la experiencia.
La búsqueda de soluciones a problemas antiguos y nuevos es, desde luego, el trabajo y el placer
de quienes se dedican a esta disciplina. La filosofía de la misma, de un modo u otro, está siempre
presente y practicada -a veces involuntariamente- en las variadas escaramuzas que se debe lidiar
frente a un mundo no siempre proclive a revelar sus enigmas.
V. M. Peñafiel
0. La física 1
0.1. El conocimiento humano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2. La filosofía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.3. La ciencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.4. La matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
0.5. La física . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1. Métodos 12
1.1. Física fundamental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2. Norma científica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3. Certificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4. Cantidad y cualidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3. Sistemas 33
3.1. Temperatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2. Fluctuaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3. El tiempo, otra vez . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.4. El noúmeno del fenómeno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4. Macrosistemas 41
4.1. Relatividad especial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2. Relatividad general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3. Cosmología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
vi
5. Microsistemas 48
5.1. Mecánica cuántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.2. Más mecánica cuántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.3. Mediciones y colapsos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.4. Exégesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.5. Relatividad cuántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
A. Notas 66
A.1. Método científico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
A.2. Matemáticos y físicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
Bibliografía 70
Cero
La física
Hay evidencia más que suficiente mostrando que los animales, en progresión evolutiva, son
capaces de procesar pensamientos, de aprender rudimentariamente y de inferir para reaccionar
en sus prácticas vitales. Por eso, conviene especificar que el “conocimiento humano” tiene las
características de las cuales se ocupan, no únicamente la rama filosófica llamada epistemología,
sino, el conjunto de las ciencias y artes. Porque la división del saber en áreas separadas es un
recurso conveniente pero artificial; siempre tenemos en cuenta las influencias mutuas y -al final- la
indivisibilidad entre conocimiento y actividad en la vida humana individual y social. Por otra parte,
la naturaleza estimula las funciones que son vitales para los organismos; por eso, conocemos por
placer para sobrevivir.
Conocimiento es el contenido activo de la memoria. Ese contenido cognitivo, como se sabe,
es dinámico, ordenado, acumulativo y cronológico. Se va construyendo a lo largo de la existencia
individual. Análogamente, el conocimiento colectivo o conocimiento humano es el conjunto total
de registros que lo documentan, matienen y preservan; también de manera ordenada y acumulativa.
Ambos, en sus procesos, aumentan y se perfeccionan; se hacen más exactos y más precisos, selec-
tivamente. El conocimiento no es “creencia verdadera”, según a veces se lo define. Las creencias
son más o menos probables, ¿cuánta verificación puede hacer “verdadera” a una creencia? Precisa-
mente, el resultado de acumular experiencias durante siglos ha llevado a comprender, con razonable
confianza, el funcionamiento cerebral que recibe las señales físico químicas de los sentidos, las
procesa, las interpreta y las almacena en registros complejos, parecidos a aquellos que los informá-
ticos llaman “bases de datos”. Conocer es, entonces, la operación de comparar nueva información
con la ya disponible, y actualizar los registros memorísticos en consecuencia. Los datos que los
sentidos entregan no tiene efectos neutros; el cerebro los detecta agregando indicadores calificativos,
etiquetas como bello, peligroso, conveniente (= bueno), etc. En los animales primitivos la reacción
1
2 La física Cap. 0
—ooOoo—
0.2 La filosofía
La filosofía no es -o no debiera ser- una colección de opiniones. Filosofar es, ciertamente, muy
natural en el hombre. Cualquiera puede -y debe- filosofar, pero atendiendo siempre a la objetividad
en las premisas y al rigor lógico en las conclusiones. La historia del pensamiento es enormemente
rica en ideas, muchas de ellas válidas por siempre. Pero, igualmente, rica en equivocaciones y pautas
engañosas. Repetirla una y otra vez, por supuesto, no la hace más correcta. Es mejor tomar de ella
los descubrimientos que contribuyen radicalmente a la solución de problemas epistemológicos y
a la comprensión de asuntos en metafísica, ontología y otras áreas de interés. Por ejemplo, ahora
parece muy obvio que la existencia exterior se nos revela por la voluntad y no por la razón. Sabemos
que el mundo existe porque se opone a nuestros impulsos y nos obliga a adaptarnos a él. Tal punto
de vista fue expuesto con gran énfasis por Arthur Schopenhauer y da una explicación definitiva al
hecho de que la existencia del universo no está considerada como un problema de la ciencia, pues
ésta se ocupa -más bien- de descubrir el modo en que el universo existe.
Para ello, se empieza con las definiciones ostensivas (señalando el objeto y pronunciando
su nombre) y más tarde se aprende a definir con palabras. Definición es la declaración que
establece el significado de una expresión (símbolo, palabra o frase). Se trata de una operación
extralógica o prelógica pues, en cualquier expresión (como “p->q”), los términos (“p” y “q”) deben
ser previamente declarados. En consecuencia, una definición no puede ser verdadera o falsa. Los
valores de falso o verdadero no se aplican a las definiciones; una “buena” definición es útil, precisa
o adecuada sólo dentro de un contexto, una teoría o una argumentación. No constituye proposición
§ 0.2 La filosofía 3
alguna, es una simple (¡y arbitraria!) declaración. En física no existe una teoría especial acerca de las
definiciones. Éstas se validan intrínsecamente con la formulación completa de las teorías a las que
pertenecen sea como conceptos ostensivos (experiencia directa), equivalencias matemáticas (v. g.,
~ o definiciones verbales posteriormente concretadas en relaciones cuantitativas
“trabajo W ≡ F~ · d”)
(v. g., “fuerza F~ ≡ agente que tiende a cambiar el estado de movimiento de un sistema”). Un intento
anecdótico de una teoría al efecto fue la introducción de la “definición operacional”. Propuesta en
1927 por el físico Percy Bridgman en sentido de que se debe abandonar la creencia de que los
conceptos fundamentales de una ciencia se referieren, respectivamente, a una sola y única cualidad
de las cosas en el mundo. Más bien -arguyó- se debe concebir que hay tantas propiedades únicas
y diferentes como hay técnicas para medirlas. Como, obviamente, la enorme complejidad de la
ciencia y su habilidad para generalizar requieren, más bien, de conceptos tan universales como sea
posible, la propuesta de Bridgman no tuvo acogida en física y fue abandonada por su propio autor
quién, en 1953, escribió: “...he creado un Frankenstein”; confundiendo -además- al monstruo con
su hacedor.
Una definición puede ser calificada de “mala” cuando no es lo suficientemente precisa, no es útil
o no se adecúa al propósito y al contexto para los cuales es formulada. Por ejemplo, ciertos textos de
física definen “masa” como “cantidad de materia”. Pero como “materia” no es una magnitud física,
tal definición es inútil para el uso posterior de su definiendum, aparte de que su aceptación implicaría
¡la inmaterialidad del fotón! (porque éste carece de masa). El análisis racional se entorpece, sin
duda, cuando las definiciones adecuadas están ausentes pero, por otra parte, las argumentaciones se
distraen con la búsqueda de definiciones demasiado puntillosas. Así, Para la importante definición
de verdad, dice Kant:
“¿Qué es la verdad? Con esta tan antigua como célebre pregunta se creía poner en
grandísimo aprieto a los lógicos, obligándoles a caer en la logomaquia más deplorable
o a confesar su ignorancia y asimismo, por consiguiente, toda la vanidad de su arte.
La definición del término verdad, de que es la conformidad del conocimiento con su
objeto, ya está admitida y supuesta en esta obra pero lo que se desea saber es el criterio
general y cierto de todo conocimiento. Saber lo que racionalmente puede pedirse, es por
sí sólo prueba harto evidente de cordura y de talento; porque si la pregunta es absurda
en sí y requiere respuestas ociosas, no sólo deshonra al que la hace, sino que a veces
produce el inconveniente de precipitar en el absurdo al que sin pensar responde y dar de
esta suerte el triste espectáculo de dos personas que, como decían los antiguos, ordeña
la una el chivo mientras la otra pone debajo la criba.”
En efecto, no se trata, necesariamente, de constuir fórmulas compactas para describir términos que
sean o parezcan importantes; de todos modos, ésto es rara vez posible. Se trata, más bien, de aislar
los conceptos con precisión razonable, de modo que su uso no admita confusiones. Está bastante
4 La física Cap. 0
claro que la verdad (o falsedad) es un atributo del juicio: éste es verdadero cuando sus enunciado y
referente coinciden.
Por supuesto que todos los filósofos aspiraron y aspiran a que sus doctrinas, discursos y
aforismos sean verdaderos. Pues la filosofía es la actividad que busca entender la esencia,
propiedades, causas y efectos de las cosas y fenómenos del universo. Esa generalidad es necesaria
aún ahora, cuando gran parte de las aspiraciones filosóficas han sido denominadas “ciencia”. No
importa, el saber es recursivo y siempre enfrentará la necesidad de estudiar a la ciencia también.
Asi como el conocimiento “general” es posible sin una preocupación científica, el conocimiento
científico es posible aun sin comprenderlo filosóficamente; pero la relación de incompletez es la
misma. Entender requiere de preguntar, analizar, argumentar y reconocer. Entonces, el estudio de
los fundamentos de la realidad y la existencia presupone el estudio de las bases del conocimiento.
La verificación de un juicio, sin embargo, excepto en el ámbito de las matemáticas, contiene lo
que Bertrand Russell muy apropiadamente llama “dudosidad intrínseca”, o bien, cierto “grado de
credibilidad”. Es, pues, la contingencia de los juicios inductivos (“Si A1 es B, A2 es B,..., entonces
todo A es B”) la que introduce a la teoría de probabilidades de modo sustancial en la epistemología.
Si el conocimiento del mundo exterior es sólo probable, ¿cómo se logra un esquema confiable a
cerca de las esencias y procesos?
—ooOoo—
0.3 La ciencia
“Ciencia” es una palabra que se usa con varios propósitos: se habla de la ciencia como
una actividad, el trabajo característico del científico, como una institución, etc. Sin embargo, la
acepción que aquí interesa es, claro, la epistemológica. Ciencia es, sobre todo, un tipo muy especial
de conocimiento cuyo particular desarrollo permite ubicar sus características.
Pero, además, las mismas premisas epistemológicas de la ciencia no son científicas. Por ejem-
plo, la física -al igual que todo el conocimiento- parte de dos premisas profundamente filosóficas:
El universo existe
El universo es cognoscible.
Pues, si el universo no fuera objetivo (como pretendían, por ejemplo, los solipsistas) o no
estuviera al alcance del conocimiento humano, la ciencia sería una actividad imposible o inútil.
Ahora, puesto que el universo existe y es conocible, el propósito de la ciencia es el de describirlo,
§ 0.3 La ciencia 5
el de determinar cómo existe. Entonces, ¿qué clase de conocimiento es? Si hubiera un urticante
interés por una definición breve, diríamos que
Ciencia es un conocimiento objetivo, racional, metódico, sistemático y crítico.
Es objetivo porque no pone en duda la existencia del mundo exterior y considera solamente
eventos observables, hechos. No es posible erigir teorías científicas sobre la base de experiencias
subjetivas (sueños, imaginaciones, intuiciones) o hipótesis no verificables empíricamente. Las
verdades de la ciencia son siempre intersubjetivas (criterio débil de objetividad) y se extrapolan
como válidas aún en ausencia de observadores (criterio fuerte de objetividad).
Es racional porque es accesible a la inferencia deductiva y a todos los procesos lógicos
propios de la inteligencia. Es el tipo de conocimiento que permite inferir (derivar nueva información),
explicar (generalizar y exhibir información implícita) y entender (aprehender información). Ciencia
es el conocimiento razonado de las cosas. No todo conocimiento es racional; por ejemplo, la relación
cotidiana con otra persona da un conocimiento intuitivo de su carácter; el conocimiento que lleva
al dominio del equilibrio corporal para caminar o montar una bicicleta, es instintivo, como lo es el
conocimiento básico de algunas fuentes de dolor y placer; etc.
Es metódico porque los datos (resultados de observaciones) no se extraen y verifican en forma
desordenada e inconexa. Aprender del mundo objetivo requiere de procedimientos definidos, repe-
tibles y confiables, de muchos métodos de observación y de los procedimientos propios de la teoría
de la inferencia inductiva (probabilidades y estadística). Tampoco son considerados aisladamente,
sino agrupados en cuerpos de conocimiento, o relacionados con ellos.
Es sistemático porque tampoco es una simple suma de conocimientos dispersos. Entendien-
do por “sistema” un conjunto de partes organizadas de acuerdo a una función común es, entonces,
un conocimiento sistemático. En su forma más amplia, una ciencia es un conjunto de teorías enla-
zadas de modo consistente. Así, la teoría del movimiento y sus causas (Mecánica), la teoría de las
fuerzas electromagnéticas (Electromagnetismo), la de las fuerzas nucleares (Física Nuclear), etc.,
etc., son construcciones del tipo descrito que se complementan unas a otras y conforman, en total,
el estudio de todas las interacciones existentes en el universo o la ciencia conocida como física. “La
ciencia” se refiere, entonces, al sistema conformado por todas las ciencias particulares las cuales,
obviamente, son compatibles unas con otras.
Es crítica porque el adquirir conocimiento a cerca del mundo real es un proceso aproximativo
(adaptativo). El trabajo científico posee una componente heurística intrínseca e inevitable que
compromete al juicio humano. El estado actual de la ciencia, o de una ciencia, es el efecto no
solamente de la calidad y poder de nuestros medios observacionales, sino también, y al fin de
6 La física Cap. 0
cuentas, del esfuerzo crítico común: de nuestra habilidad de juzgar la diferencia entre lo verdadero
y lo falso, entre lo fino y lo basto o entre lo pertinente y lo inapropiado. Las teorías científicas, pues,
son construcciones sometidas a revisión y corrección permanentes.
Hay ciertas propiedades importantes relativas a estos cuerpos lógicos o “teorías científicas”.
Sus predicciones van más allá de los hechos que le sirvieron como puntos de partida; las leyes
establecidas explican no sólo las experiencias iniciales, sino todas las posteriores experiencias
que le son pertinentes. También, hay compatibilidad específica con los hechos. Esto es, que si los
hechos fueran diferentes a los que se observaron, la teoría elaborada para explicarlos se invalidaría de
inmediato; e inversamente, cualquier cambio arbitrario sustancial en la teoría la tornará incompatible
con los fenómenos basales. Es esta consistencia recíproca entre los datos y su explicación teórica
la que diferencia al conocimiento científico de una simple especulación ideológica. Por ejemplo,
uno podría intentar una teoría según la cual todos los hechos y fenómenos actualmente observados
son tales como resultado de la voluntad divina; pero, claro, esta “explicación” nada explica, pues
sería compatible con cualquier otro conjunto diferente de hechos y fenómenos, o sea, la creencia
religiosa permanece aplicable a cualquier universo, observable o no.
Finalmente, ¿se reduce la química a la física o la biología a las otras dos? Claro que no. El
desarrollo eficiente de cada ciencia tiene particularidades y procedimientos propios y específicos.
Mas, las ciencias armonizan unas con otras todo el tiempo. Los descubrimientos de una, pueden ser
confiablemente útiles a las demás. Las conclusiones generales, por otra parte, enriquecen la tenue
estructura teórica que envuelve a la ciencia para constituir el saber humano total: la filosofía. Si el
conocimiento es todo lo que el cerebro registra, y como se sabe, su extensión y calidad depende
de la experiencia y procede desde el nacimiento hasta la muerte, la ciencia es un conocimiento
colectivo cuyo desarrollo en exactitud y precisión se puede apreciar continuamente; y se perpetuará,
seguramente, hasta el fin de la humanidad.
§ 0.4 La matemática 7
Vale la pena anotar también que, por tanto, la ciencia como emprendimiento colectivo es una
tarea y -a la vez- un patrimonio social. La ciencia es el mejor conocimiento humano; su enorme
potencial y -simultáneamente- la prueba final de su validez, se manifiesta en esa notable capacidad
predictiva que permite las aplicaciones utilitarias que, conjuntamente, se denominan tecnología.
El progreso científico se traduce en progreso tecnológico y éste en más y mejores medios de obser-
vación los cuales, a su vez, implican refinamientos o correcciones importantes al conocimiento.
—ooOoo—
0.4 La matemática
Se ha dicho que el criterio de verdad es que el contenido de un juicio coincida con su referente.
Por supuesto, siempre dentro de cierto margen de confiabilidad, el referente de cualquier idea en
física es algo real. Esas ideas pueden ser palabras o símbolos (matemáticos). Así, para mantener
el grado de verdad más allá de de las experiencias iniciales, toda teoría física tiene un formalismo
matemático abstracto y un conjunto de postulados físicos los cuales, explícita o implícitamente,
establecen la correspondencia entre objetos matemáticos y las magnitudes que son accesibles a la
medición.
La matemática es la ciencia deductiva que analiza propiedades de entes abstractos; especial-
mente los de cantidad, forma, posición, estructura, relaciones y cambio.
Ciertamente, hay una parte epistemológica -la norma científica- que es compartida con la que
se refiere a toda la ciencia. No es un conocimiento sintético a priori, según afirmaba Kant. Es,
más bien y más evidente, que el cerebro humano (también el de los animales) tiene la capacidad
intrínseca de, a partir de la observación, abstraer y procesar algunas propiedades específicas. La
mente puede, posteriormente, desarrollar por deducción las estructuras simbólicas. No ocurre lo
mismo con otras abstracciones (como la de sustancia) para cuyo tratamiento es necesaria nueva y
repetida observación.
La confirmación de ese proceso se encuentra en el notable desarrollo paralelo de la matemática y
la física; en esta última, la matemática es incorporada siendo más un lenguaje que una “herramienta”.
Por una parte, hay una aplicación de esquemas simbólicos, creados independientemente, en la
sistematización de datos empíricos; pero, por otra, muchos desarrollos matemáticos provienen de
requerimientos descriptivos y se construyeron simultáneamente a las teorías físicas, como aquellas
estructuras sobre las que se basan las mecánicas clásica, relativista y cuántica. Algunas teorías
8 La física Cap. 0
F = 0 ⇒ p = constante .
§ 0.5 La física 9
“La filosofía está escrita en ese grandísimo libro que tenemos abierto ante los ojos,
quiero decir, el universo, pero no se puede entender si antes no se aprende a entender
la lengua, a conocer los caracteres en los que está escrito. Está escrito en lenguaje
matemático y sus caracteres son triángulos, círculos y otras figuras geométricas, sin las
cuales es imposible entender ni una palabra; sin ellos es como vagar vanamente en un
oscuro laberinto.”
Es como si la matemática fuera el armazón del mundo real; el esqueleto del universo. Sobre ella
aparecen los otros aspectos generales del conocimiento. La mente es muy proclive a desarrollar
estructuras matemáticas de innegable efectividad, de extrapolar indefinidamente sus elementos hasta
el sorprendente manejo de conceptos como el infinito. ¿Cómo explicar la posibilidad de procesos
semejantes?
Existen suficientes indicios de que los componentes cuantitativos del mundo -o una parte de
ellos- coincide con la realidad física accesible a fragmentos formales. En cierto modo, el formalismo
usual de las teorías de la física, una vez establecidas mediante definiciones, postulados (axiomas)
teoremas implícitos y explícitos, modelos abstractos, etcétera, es equivalente a establecer una com-
pleta teoría matemática destinada a garantizar que lo obtenido por inducción tendrá consecuencias
confiables por deducción. Basta recordar que, antiguamente en algunas universidades, la “mecánica
analítica” se enseñaba en las “facultades” de matemática.
En muchos casos, el procedimiento de introducir conjuntos de variables, establecer correspon-
dencia con objetos físicos, proceder operativamente con esas variables y regresar posteriormente al
sistema físico para interpretar los resultados, permite descubrir hechos que no serían revelados de
otro modo. Sin embargo, lo mismo que en el trabajo puramente matemático, desde luego que hay
inevitables criterios heurísticos. La pertinencia de un modelo teórico, incluidas las idealizaciones
que se suele introducir, está siempre sujeto a la adecuación con la realidad, lo cual se juzga por la
exactitud de las magnitudes buscadas. Es la forma en que la matemática interactúa con la física,
bastante como el lenguaje lo hace con el discurso.
—ooOoo—
0.5 La física
La física es una ciencia experimental que estudia las propiedades y efectos de las interac-
ciones (fuerzas) existentes en la naturaleza.
10 La física Cap. 0
es totalmente errónea).
Otras interacciones, todavía no bien entendidas, son objeto de estudio en la física de altas
energías. El resultado es una interesante asociación entre entes con características corpusculares
(cuantos) y campos de interacción (fuerzas). Como toda la existencia ocurre en lugar y tiempo
determinados, la elucidación de la esencia epistemológica acerca de la composición de la materia,
la naturaleza del espacio y tiempo, la posibilidad del determinismo y el significado del azar tienen
repercusiones directas o diferidas sobre todo el conocimiento científico y ello ocurre también con
los detalles sobre estructura última de los objetos materiales. Esto explica el importante esfuer-
zo científico y recursos volcados sobre la investigación de esos problemas aparentemente poco
prácticos.
RR
Uno
Métodos
12
§ 1.2 Norma científica 13
entropía, etc.; pero de ninguna manera pueden sustituir sus efectos macroscópicos.
Bien, pero ¿existe la “redución”? Lingüísticamente, sí. Por ejemplo, las “leyes” de Kepler sobre
las órbitas planetarias ahora son simples corolarios que se desprenden de la solución dinámica para
la fuerza gravitatoria newtoniana. ¿Se ha “reducido” el esquema de Kepler a una solución de las
leyes de Newton? Sí, en sentido de que ahora se desprenden, se “deducen” de un formalismo más
general. La operación de reducir, entonces, nada tiene que ver con el reduccionismo, es únicamente
una consecuencia colateral del progreso científico.
Ahora, la fundamentalidad es transitiva. No es difícil constatar que las teorías “derivadas”,
son “fundamentales” respecto de otras. Así, la física del estado sólido es una fuente de muchas
innovaciones, tiene innumerables aplicaciones y bien pudiera ser considerada fundamental para
otras prácticas, ciencias y tecnologías. ¿Qué diferencia haría? El empleo de unos conceptos para
explicar otros continuará mientras el modelo que tenemos del universo esté incompleto. A la física
fundamental (en el sentido que se usa en esta ciencia) todavía le queda ver que la teoría de la gra-
vitación de Einstein se compatibilice con las de otras fuerzas y con otras observaciones (agujeros
negros, materia oscura, energía oscura) y modelos cosmológicos; también, entidades e interacciones
a otra escala no completamente entendidas, observaciones e inconsistencias apuntan a potenciales
descubrimientos y nuevas teorías, igualmente fundamentales.
—ooOoo—
Una hipótesis es una conjetura basada sobre el conocimiento disponible como premisa hacia la
solución de un problema. La hipótesis puede ser muy específica o muy amplia y, usualmente, no se
mantiene más allá del trabajo en curso. Una hipótesis “probada” se convierte en un postulado o una
ley. Todos hacemos esas conjeturas. “Seguramente mi socio cobró el importe”. También deducimos
y predecimos: “si es así, debemos tener dinero en el banco”; finalmente, empleamos medios de
comprobación, “consultaré para ver si tal es el caso”. Análogamente, el fiscal hipotetizará la culpa
del acusado sobre la posible coincidencia de las huellas digitales de éste con las halladas en el
arma homicida, deducirá que el acusado, entonces, se hallaba en el sitio del crimen; y comprobará
esta conclusión con el testimonio de una persona y las imágenes de las cámaras de seguridad. O,
finalmente, ver un relámpago, hipotetizar que habrá un trueno y verificar si éste se produce.
En la práctica, lo único que distingue a la ciencia del conocimiento obtenido diariamente por
14 Métodos Cap. 1
En los hechos, esa norma o disciplina científica (objetividad y rigor) se extiende a todas las
operaciones necesarias, aplicables según su pertinencia. Por ejemplo, al análisis de los datos para,
eventualmente, la formulación de hipótesis; al desarrollo de éstas mediante inferencia deductiva
para, quizá, la formulación de principios, postulados y leyes; a la construcción de teorías o mode-
§ 1.3 Certificación 15
—ooOoo—
1.3 Certificación
La física es un emprendimiento social, y el trabajo científico debe ser aceptado por la comu-
nidad científica cuando ha sido evaluado y confirmado. Los resultados experimentales y teóricos
deben ser reproducibles (por otros miembros de esa comunidad o por cualquier persona). Ahora,
la ciencia es menos una construcción por individuos resolviendo acertijos en privado y más el
rendimiento de profesionales trabajando en equipos o hasta en redes. Por eso, la comunicación de
resultados es muy importante. Ahora, no es extraordinario que la práctica consuetudinaria constru-
ya, con el tiempo, instituciones sociales muy estables. Así, los artículos científicos se aprueban para
publicación mediante un proceso llamado “revisión por pares” en revistas especializadas. General-
mente, los manuscritos se envían a dos o tres colegas científicos (árbitros anónimos) familiarizados
con la especialidad evaluada. La función del árbitro es recomendar la publicación siempre que no se
detecten errores obvios, plagio, o sólo sean necesarias algunas modificaciones menores. El propó-
sito -en principio- es juzgar el nivel del trabajo, no el contenido o los procedimientos empleados; a
veces, también recomendar el envío a otra revista. Este recurso es ya de larga práctica y, aunque no
libre de críticas, parece inexorablemente vigente y rigurosamente aplicado. La evaluación por pares
no garantiza la certeza de los manuscritos presentados; sólo está destinado a verificar que, sobre la
base del tratamiento de los autores, el trabajo es adecuado para los niveles de calidad de la revista.
Es la forma en que cada proyecto se certifica; difícilmente un físico aceptará otro juicio sobre
sus procedimientos. Tiene sentido, pues el destino de los artículos científicos es la superviviencia
del epistemológicamente más sólido e importante. De paso, es significativo el que la redacción
de las publicaciones científicas se organizan según cierto “interés epistemológico” (con su propia
secuencia “introducción - nudo - desenlace”): tendrán una introducción, para exponer la importancia
y el objetivo del asunto; unas secciones de antecedentes, mostrando brevemente lo que ya se sabe
del problema; las secciones del trabajo original y, al final, las conclusiones que resumirán los logros
y evaluarán el grado en que los objetivos señalados en la parte introductoria fueron alcanzados.
¿Cómo se distingue lo científico de lo que no lo es? En filosofía de la ciencia, se hace mención
16 Métodos Cap. 1
-a veces- al argumento de Karl Popper acerca de “falsar” las teorías como criterio de cientificidad
(“racionalismo crítico”). Se dice que una propiedad central de la ciencia es su “falsabilidad”, esto es,
que toda declaración genuinamente científica, al menos en principio, debe se capaz de ser probada
falsa. Aunque usualmente se buscan y prueban los puntos que parecen más dudosos, se asegura que
un gran número de confirmaciones exitosas no son convincentes, pues surgen de experimentos que
evitan riesgos. Una hipótesis científica es falsable si es posible identificar un posible resultado de
experimento u observación que conflictúe con predicciones deducidas desde la hipótesis. Contrastar
una teoría significa intentar refutarla mediante un contraejemplo; si no es posible refutarla, dicha
teoría queda «corroborada», pudiendo ser aceptada provisionalmente, pero no verificada; es decir,
ninguna teoría es absolutamente verdadera, sino a lo sumo «no refutada». El falsacionismo y el
método científico, al parecer, son más populares entre los filósofos que entre los científicos. A
este respecto, es inevitable el recordar la famosa anécdota de los “Cien autores contra Einstein”
publicado en 1931 en la Alemania nazi. Preguntado acerca del ese libro, Einstein replicó: “¿Por qué
100 autores? ¡Si yo estuviera equivocado, entonces uno hubiera sido suficiente!” Las falsaciones son
tan dudosas, pues, como las verificaciones. Si no se es capaz de verificar la certeza de una hipótesis,
entonces, por el mismo argumento, tampoco la prueba de falsedad es enteramente confiable y
necesitará confirmación repetida. Entonces, el racionalismo crítico de Popper ¡no es falsable! y,
bueno, tampoco es científico.
—ooOoo—
§ 1.4 Cantidad y cualidad 17
No es cierto que la ciencia tenga que ver con “paradigmas” (cualquiera sea el significado
de los tantos que ahora tiene esa palabra) reemplazando a otros “paradigmas”. La ciencia, aun la
matemática, es una evolución continua y falible, donde es la comunidad de investigadores la que
revisa el progreso y corrige los errores cuando los encuentra. La mecánica clásica, la cuántica y la
relativista fueron presentadas como tres paradigmas independientes, indicando explícitamente que
no era posible recuperar los conceptos clásicos a partir de la relatividad, por ejemplo. En los hechos,
la física clásica es el límite de la cuántica para masas “grandes” y de la relativista para velocidades
“pequeñas“, eso y el que la transición es gradual se encuentra demostrado en más de un libro de
texto. No, en física los paradigmas no tienen lugar.
Aunque hay una actividad interpretativa de la física, ésta es una práctica, no un método que
se aprende y se aplica mecánicamente. Además, siempre tiene también esa otra parte mundana,
destinada a maximizar los recursos disponibles en tiempo, dinero y energía en el momento de decidir
en qué trabajar, cómo expresar los resultados o dónde aplicarlos. Al final, los fundamentos lógicos
y conceptuales de la física implican la mejor descripción actual del mundo, la metafísica, ontología
y -en gran parte- la epistemología que los antiguos buscaron. El uso exagerado de la clasificación
del pensamiento filosófico en “escuelas” (principalmente derivado del afán de encontrar un único
principio para la explicación ontológica) es ya totalmente inapropiado, abusivo e innecesario; denota,
por lo demás, la presencia de teorías mal construidas y, por lo tanto, con grados de credibilidad
demasiado bajos. En física (tomada como modelo comparativo de ciencia), los “ismos” denotan
campos de ocupación o especialidad (nuclearista, clasista, etc.) o efectos técnicos (magnetismo,
astigmatismo,...) pero nunca apego o parcialidad por tendencias o puntos de vista. Los productos de
esa actividad son las teorías y modelos que trascienden los fenómenos y representan a la realidad,
no hay sitio para perspectivas indemostrables: “realismos”, “instrumentalismos”, “nominalismos” o
“idealismos”, porque los análisis realizados solamente sobre la base de esas clasificaciones deberían
ser considerados (y los son, a veces) poco serios, o una clara señal de que determinados conceptos
no poseen todavía el respaldo objetivo requerido. Para los aficionados a esas terminaciones, si
hay algún “ismo” aplicable, la física es muy positivista. Sólo trata con propiedades accesibles a la
observación directa, esto es, a la medición. En física, lo que no es mensurable no tiene sentido, no
existe, y nada hay que se pueda hacer al respecto.
Como ya se insinuó, la disciplina científica en las ciencias básicas es inculcada en el investiga-
dor, desde sus primeros cursos de estudiante, como una norma de procedimiento. El uso adecuado
18 Métodos Cap. 1
de instrumentos, el tratamiento de los datos y el rigor racional del análisis son hábitos permanen-
temente evaluados sobre la base de los resultados o conclusiones. Pues, gran parte de la práctica
filosófica y científica está destinada a reducir el grado de imprecisión en las definiciones de los
conceptos. Sin embargo, ellos contienen también un grado de imprecisión “intrínseca”. Bertrand
Russell dice:
“Todo conocimiento es en cierto grado dudoso, y no podemos decir qué grado de
dudosidad le hace dejar de ser conocimiento, como tampoco podemos decir cuánta
caída de cabello hace calvo a un hombre.”
2.1 Espacio
Si el “espacio” fuera algo independiente de la conciencia humana, e independiente de la
materia, ¿qué podría ser? Isaac Newton escribió:
“El espacio absoluto, en su propia naturaleza, sin relación con algo externo, permanece
siempre similar e inmóvil.”
Sin embargo, el espacio absoluto de Newton no es la única forma de concebir el espacio; la idea
de que el espacio podría ser una abstracción a partir de las relaciones entre las cosas materiales ya
estaba presente en el siglo XVII, según Gottfried Leibniz,
Un siglo después, Immanuel Kant, para explicar la capacidad geométrica humana, introdujo el
espacio “a priori” embebido en la mente desde el nacimiento y permitiendo, así, la estructuración
de las sensaciones captadas desde el exterior.
La mecánica clásica o newtoniana presupone el espacio absoluto [1]. Esto es, que existe
independientemente del observador, de la materia, es tridimensional, homogéneo e infinito y,
además, euclídeo. Esa concepción parece estar inmediatamente de acuerdo con la intuición que
se obtiene de la experiencia repetida: los objetos parecen encontrarse en sitios donde pueden ser
reemplazados unos por otros, esos sitios parecen ser parte de un contenedor, de un “espacio vacío”
donde las masas ocupan esos “lugares”. El término “masa” deriva del latín “massa” que significa
montón de pasta o mezcla de panadería. Fue frecuentemente confundido con el “peso” en el pasado.
En física fue introducido al parecer por Newton, con una definición ya obsoleta pero que explica la
elección de esa palabra:
20
§ 2.1 Espacio 21
Newton mismo usó los términos “pondus” y “gravitas” en el sentido de “peso” (más peso, más
materia) pero es muy evidente que no confundía cantidad de materia con fuerza gravitacional [8]:
“... entiendo esta cantidad siempre que uso el término “cuerpo” o “masa” en las si-
guientes páginas. Puedo siempre conocerla del peso de un cuerpo, porque –haciendo
muy precisos experimentos con péndulos– he encontrado que es proporcional al peso,
como se mostrará más abajo...”
La noción de “inercia” ya estaba presente en Galileo. Newton la introduce como una fuerza resistiva
interna [9]:
“Hay una fuerza implantada [“vis insita”] en la materia que tiene el poder de resistir,
por la cual cada cuerpo, mientras por sí mismo, permanece en sus estado de reposo o
de movimiento uniforme rectilíneo.”
Y también le es atribuible la masa como fuente del campo gravitacional :
“PROPOSICIÓN VI. TEOREMA VI Que todos los cuerpos gravitan hacia cada planeta,
y que los pesos de los cuerpos hacia cualquier planeta, a iguales distancias del centro del
planeta, son proporcionales a la cantidad de materia que ellos separadamente contienen.”
Aun así, la “acción a distancia” no fue una idea cómoda para Newton, ni para sus contemporáneos.
Los conceptos nítidos de masa inercial y masa gravitacional cristalizaron posteriormente.
Por otra parte, se suele sugerir que la primera ley de Newton (“en ausencia de fuerza, el
movimiento es uniforme y lineal”) sería derivable de la segunda (“la aceleración es proporcional a
la fuerza ejercida”) pues, anulando la fuerza, la aceleración se anula y eso implica que la velocidad
es constante. Obviamente no es así. La “ley de inercia” es necesaria para garantizar la existencia
de al menos un sistema inercial, que para Newton era el espacio entero; es respecto de éste que los
sistemas no inerciales (acelerados) -como el cubo rotante con agua- presentan fuerzas adicionales
(las actuales “fuerzas inerciales”) que impiden el movimiento uniforme y rectilíneo. Entonces, un
“sistema inercial” puede ser definido como el sistema de referencia en el cual la primera ley
se satisface. Son estos sistemas de referencia los que están conectados mediante transformaciones
del grupo de Galileo y que garantizan el completo desarrollo de la mecánica, la cual se adapta
completamente a un formalismo matemático que es el análisis vectorial y a una geometría que
es una abstracción de las propiedades del los objetos materiales. Esa mecánica es compatible
también, por supuesto, con una interpretación no newtoniana del espacio o casi con cualquier otra
interpretación porque su dominio es siempre local. Su aplicación exige la definición de “sistema de
referencia” general -el que se usa para describir la dinámica-; es un “sistema físico” (una colección
de partículas) al cual se le asocia un “sistema de coordenadas” (una variedad diferencial abstracta).
Cuando uno de estos sistemas de referencia acelera, su geometría deja de ser euclídea y es posible,
más bien, expresarla como localmente riemmaniana.
22 Espacio, tiempo y materia Cap. 2
Desde luego, los conceptos geométricos también se forman desde las percepciones; por eso,
nuestro espacio local se conforma a la geometría euclídea, pero en cosmología se evidencian
desviaciones importantes. Kant estaba, pues, equivocado; el espacio no puede ser a priori. El
espacio es una propiedad intrínseca de los objetos que la mente generaliza “a posteriori”; los
objetos son intrascendentes, extensos y tridimensionales. La tridimensionalidad puede ser abstraída
y generalizada para construir espacios simbólicos de mayor dimensionalidad (v.g., el espacio de
fases de la mecánica analítica). Mas, no es posible saber por qué el espacio físico es tridimensional,
como no es posible saber por qué el universo está compuesto de materia y no de antimateria. Kant
arguyó que la tridimensionalidad se debe a que las fuerzas, por ejemplo la de atracción gravitacional,
varían con el cuadrado de la distancia. Pero esa variación sólo muestra la compatibilidad entre las
propiedades materiales, no de que una se deba a la otra. Hay alguna referencia a que, quizá, la
tridimensionalidad es la mínima que permite la evolución causal del universo y que, junto al resto
de los otros atributos materiales, apareció en el origen del mismo, o siempre estuvo ahí.
En cuanto a la naturaleza misma del espacio, se dice que el debate que enfrentó a Leibniz y
Newton sobre la filosofía del espacio y del tiempo sigue vigente entre “relacionistas” (seguidores de
Leibniz) y “sustancialistas” (seguidores de Newton). ¿Cómo es posible? Ni Leibniz -con su abstracto
sistema de relaciones-, ni Newton -más interesado en asentar su dinámica- tenían la información y
base experimental sobre la cual ahora es posible definir con claridad el concepto físico de espacio.
Actualmente no es raro que se logre 10−13 atmósferas en laboratorio, mientras las estimaciones
en el espacio exterior van hasta 10−18 atmósferas. Pero lograr un vacío absoluto es, desde luego,
imposible, como lo es el cero absoluto de temperatura. Ahora, regiones sin objetos (átomos, mo-
léculas), ¿pueden ser consideradas completamente vacías? No. El concepto de “objeto” que tenían
Leibniz y Newton ya no es válido. Ahora sabemos que los objetos emanan campos de fuerzas a su
alrededor. Así, una sonda probando una región supuestamente vacía tendrá asociado -por su masa-
al menos su campo gravitacional, si está cargada tendrá un campo eléctrico superpuesto y si se
mueve, se añadirá un campo magnético; el resultado será que -aún en ausencia de otros objetos-
será imposible concluir que hay un espacio vacío. Para colmo, fenómenos experimentales como el
desplazamiento de Lamb, fuerzas de van der Waals y efectos Casimir [2] apuntan a que el estado más
bajo de energía -según la mecánica cuántica- no es cero; entonces el “espacio vacío” consistiría en
algo llamado “vacío cuántico”, un mar de partículas virtuales inestables cuyas fluctuaciones crearían
y destruirían pares de partículas reales con observables consecuencias; en el corrimiento de Lamb,
por ejemplo, las propiedades espectrales del hidrógeno son influenciadas por esas fluctuaciones del
vacío [10]. No, el espacio no en un contenedor absoluto; ni es una abstracción resultante de las
§ 2.2 Tiempo 23
relaciones entre los cuerpos. El espacio es una propiedad de la materia y es, a su vez, ¡un objeto
material! Macroscópicamente, es una superposición de campos que dependen de la distribución de
materia, se extienden infinitamente y su geometría está definida por el campo gravitacional total. Y,
como corolario filosófico final, ¡“la nada” es imposible!
—ooOoo—
2.2 Tiempo
No es difícil imaginar las situaciones en las que no había humanos y en las que no los habrá.
En ellas, el universo en movimiento existía y existirá sin duda. Pero no existía ni existirá un registro
temporal. ¿Dónde estaba y estará el tiempo? ¿Tiene la palabra “tiempo” un referente [11]?
También hubo épocas en que la humanidad no tenía relojes. Para varias culturas antiguas, la
primera forma de registrar el paso de los días fue el calendario lunar, ajustado al ritmo solar con
la añadidura periódica de un mes; y servía sólo para regular las labores agrícolas y celebrar días
festivos. Se tiene y usa el tiempo que es necesario; aun hoy hay personas cuyo uso y registro de
tiempos es mínimo. Sólo la complejidad creciente de la vida social y la necesidad de ciencia llevaron
al refinamiento del calendario y la invención de los relojes. El tiempo, para empezar, parece algo
muy humano.
Al igual que para el espacio, Isaac Newton formalizó su dinámica sobre la base de un tiempo
absoluto:
“El tiempo absoluto, verdadero y matemático, en sí y por su propia naturaleza fluye
uniformemente sin relación a nada externo, y por otro nombre se llama duración: tiempo
relativo, aparente y común, es una medida sensible y exterior (precisa o imprecisa), de la
duración mediante el movimiento, usada comúnmente en lugar del verdadero tiempo...”
“Todas las cosas están colocadas en el tiempo según orden de sucesión, y en el espacio
según orden de situación.”
Para su contemporáneo Leibniz, el tiempo era algo ideal, relativo y local. No hay un flujo universal
de tiempo; relacionado con la materia, el tiempo es sólo una serie de sucesos. Análogamente al
concepto de espacio, Kant describe al tiempo como una “intuición a priori”, una estructura mental,
categoría pura, que permite secuenciar eventos y estimar duraciones. El punto crucial aristotélico
en la cuestión del tiempo es que el tiempo no existe independientemente del movimiento, implica
que no hay tiempo vacío. Si nada deviene, el tiempo no transcurre y es inútil tratar de imaginar
24 Espacio, tiempo y materia Cap. 2
un intervalo de tiempo donde nada acaece. En efecto, Aristóteles fue seguramente el primero en
formular la duda de si el “tiempo” es una entidad ideal o si existe independientemente de la mente;
y lo definió como “la medida del movimiento respecto del antes y el después”. Para Descartes y
Spinoza el tiempo era sólo “un modo de pensar” pues la distinción entre éste y el movimiento es
puramente racional. Leibniz decía que el tiempo era una entidad ideal “el orden de los eventos no
contemporáneos”. La posición de Newton, se puede decir, es muy radical; es de los primeros en
considerar al tiempo como una entidad concreta, “una cosa”, a diferencia de las construcciones
matemáticas. El éxito de su mecánica acalló la polémica hasta el advenimiento de la teoría de
la relatividad y llevó a varios filósofos a ver al tiempo como sinónimo de “flujo” o de cambio.
Contrariamente, los físicos prefieren considerar al tiempo sólo como una magnitud accesible a la
medición. En respuesta a Bergson (quien argüía que el tiempo no era sólo un asunto de los físicos),
Einstein afirmó que “no hay tal cosa como el tiempo de los filósofos”, para él -como para Newton-
hay un tiempo físico y objetivo; pero, también, hay un tiempo subjetivo, sicológico. Bueno, ¿objetivo
o subjetivo?
Veamos. Un criterio débil de objetividad se refiere a aquello en lo que todos podemos ponernos
de acuerdo, como la hora oficial. El criterio fuerte de la objetividad es el que se refiere a algo que
existe aún si nadie lo observa, como el átomo. El conocimiento científico emplea ambos criterios y
no se ocupa, por tanto, del conocimiento subjetivo (que no puede ser compartido). Más formalmente:
(i) Intersubjetividad. Objetividad atribuible a través de juicios que pueden ser consecuencia
de acuerdo público (“La unidad de tiempo es el segundo”).
(ii) Asubjetividad. Objetividad atribuible a través de juicios que afirman hechos absolutamente
independientes de la naturaleza, subjetividad, percepción y presencia humanas (“La Tierra
orbita alrededor del Sol”).
Entes como el dinero, la economía, el lenguaje o la temperatura, al igual que el tiempo, poseen
la objetividad (i) pero no la (ii). En cambio, los objetos materiales, sus movimientos y procesos
poseen ambos tipos de objetividad (son verdaderamente existentes o estrictamente objetivos). En
las teorías físicas, los formalismos matemáticos no siempre hacen precisiones al momento de las
definiciones de variables. Por ejemplo, la temperatura es un parámetro que indica la intensidad de
los movimientos microscópicos (traslación, rotación, vibración) moleculares que son los fenómenos
objetivos en el sentido de (ii) y que se representan con los conceptos de energía interna y calor.
Los termómetros son dispositivos que usan alguna propiedad que varía más o menos en proporción
lineal con la energía interna, como la longitud del mercurio dentro de un tubo capilar. Ahora, en lo
que concierne al tiempo, Kenneth Denbigh [12] lo expresa muy bien:
§ 2.2 Tiempo 25
La conclusión sigue de inmediato, si uno no se asusta de ella: el tiempo, siendo una construcción
sólo puede poseer la objetividad (i) y no es -por tanto- un existente. ¿Es posible probar ésto?
El tiempo es una de las magnitudes mecánicas fundamentales y necesita, como la distancia y
la masa, de un específico procedimiento de medición. En el caso de las últimas, tal procedimiento
es directo pues basta definir una unidad patrón y la medida deviene por comparación con ella;
distancias con distancias, masas con masas. En el caso del tiempo, sin embargo, la definición de la
unidad requiere -necesariamente- de
(a) la ubicación de un movimiento periódico (porque los cambios periódicos son previsibles).
(b) un sistema de registro (escalas o contadores).
Esta es la “definición operativa” de un reloj. Entonces la medida deviene por comparación de
cualquier otro cambio con el movimiento adoptado en (a) y usando el registro (b). Por tanto, no
se comparan tiempos con tiempos, sino ¡cambios con cambios! El tiempo es, así, dado mediante
una cantidad indirecta: un ángulo, como en relojes clásicos, o una serie numérica, como en relojes
digitales. En otros términos, el tiempo es un parámetro (una variable numérica auxiliar) asociado
a la variedad de relojes. La “cosa” que posee objetividad (ii) a este respecto es, evidentemente, el
movimiento o, más generalmente, el cambio; por ser accesible a la observación directa, aunque no
fácilmente a la medición.
Y, no hay manera de evitarlo, la conclusión final es que el tiempo no existe. Es sólo un
parámetro convencional que determina simultaneidades y, en lo que sigue, será usado -y
referido- como tal.
Es fácil ilustrar lo dicho con las usuales experiencias de fenómenos periódicos que empezaron
con la sucesión de días y noches (somos seres nictémeros), luego -cuando fue útil- se tomó la
sucesión de estaciones y, después -ya técnicamente- la rotación y traslación terrestres, el péndulo
gravitacional, el péndulo elástico (el mecanismo de escape de los relojes mecánicos), las vibracio-
nes de un cristal de cuarzo (resonancia a una frecuencia estable mediante el efecto piezoeléctrico,
en los relojes digitales), o los relojes atómicos, los más precisos en existencia, basados sobre las
transiciones entre dos niveles de energía en los átomos de iterbio, provocadas por un rayo láser
pulsante; son estables dentro de dos partes en un trillón (2 × 10−18 ). No importa el dispositivo,
importa que pueda ser usado para determinar lapsos (duración de procesos, como en las competen-
cias deportivas) o sincronías (simultaneidad de eventos, como en los calendarios). La regularidad
26 Espacio, tiempo y materia Cap. 2
resulta y se precisa mediante una sistemática comparación entre los diversos fenómenos periódicos
(¡relojes!) disponibles.
Las construcciones paramétricas (v. g., la temperatura) en las ciencias son comunes y se
introducen para simplificar formalismos que describen conjuntos de fenómenos. El caso del tiempo
es, de todos modos, particularmente importante porque se impone de inmediato como una necesidad
experimental primaria. Si bien una formulación “atemporal” de la mecánica es imaginable, ésta
conduciría a complicaciones extremas e intratables. No obstante, el concepto de tiempo como
construcción paramétrica tiene consecuencias filosóficas de evidente interés. Un hecho sicológico
accesible a la experiencia es el de que la noción de tiempo no podría formarse en una mente
sometida a un ambiente inmutable, en el que absolutamente nada cambiara; tampoco en una mente
sometida a un ambiente totalmente caótico -sin regularidades perceptibles-. El tiempo sicológico
es, por tanto, una estimación imprecisa del tiempo físico, como lo comprueba el hecho de que las
personas de habitos muy regulares, las cotidianamente rutinarias, son las más capaces de estimar
lapsos con razonable aproximación. Por otra parte, expresiones como “me pareció una eternidad”,
caen tanto dentro de las impresiones subjetivas como “estaba tan cansado que cada escalón parecía
un muro”. Las distinciones que se hacen entre tiempos sicológico, biológico, físico, etc., sólo tiene
validez formal y anecdótica. Todos esos tiempos tienen la misma procedencia, a saber, la necesidad
de sincronizar sistemas, entre ellos la conciencia humana, con un mundo en permanente cambio.
Así, cuando uno trata de imaginar cómo se podría experimentar una “duración” sin experimentar
“cambios”, se concluye rápidamente que los tres aspectos que, según Kant, caracterizan al tiempo
-duración, sucesión y coexistencia- en realidad caracterizan al movimiento.
Naturalmente, las respuestas a interrogantes como la direccionalidad del tiempo o si éste po-
see un origen absoluto (t=0), son ahora inmediatas. Como parámetro comparativo entre tipos de
movimiento o cambio, el tiempo es una cantidad escalar (un número real) con origen arbitrario;
su dirección (signo) es, en consecuencia, también convencional y está referida a ese origen. Por
ejemplo, si alguien sostuviera que el universo comenzó en t=0, bastaría sustituir “t” por un nuevo
parámetro temporal logarítmico t’ = log(t) y el universo resultaría no tener origen en el tiempo
pues t0 = log(0) → −∞ (infinito en el pasado). El corolario final es que lo único que existe inde-
pendientemente de la consciencia humana es el universo en movimiento. Todas sus descripciones,
aún las más científicas, desaparecerán al desaparecer la humanidad. Pero entre los términos usados,
los hay que son convencionales, sólo tienen la objetividad débil del tipo (i) y otros, positivos con
objetividad del tipo (ii). A la pregunta de si la física podría valerse sin la ayuda del tiempo, puesto
que éste no es una magnitud física en el sentido en que lo son la distancia y la masa, se responde que
§ 2.3 Materia 27
sí, pero la formulación resultante sería inútilmente complicada [13]. El tiempo, como parámetro,
puede ser siempre reemplazado por otro parámetro. En astronomía hay una equivalencia natural
entre ángulos (ángulos horarios) y lapsos. En dinámica, es conocido el ejemplo sencillo de que la
ecuación unidimensional: F = mdv/dt se puede transformar fácilmente, haciendo d/dt = (ds/dt)(d/ds)
= v(d/ds), en
2
dv m dv 2 d( mv2 )
F = mv = =
ds 2 ds ds
y considerar a la velocidad como función de la longitud de arco en el lugar del tiempo (como
también se hace en relatividad). La cantidad entre paréntesis es la energía cinética y v(s) podría ser
medida, por ejemplo, tomando la velocidad de la luz, c, como unidad. El carácter auxiliar del tiempo
se hace, así, evidente y los problemas concomitantes a su naturaleza, los significados de “presente”,
“duración” o el sentido o dirección del tiempo se clarifican definitivamente desde esta perspectiva.
Lo importante es no confundir el tiempo con el movimiento (que es el caso en muchos autores). El
cambio general, la sucesión de estados del universo, no tiene retorno, el parámetro tiempo nos da
la simultaneidad de los estados de un sistema físico con las marcas del reloj, definido según (a) y
(b). Por ejemplo, en vez de recurrir al calendario, uno podría referir acontecimientos midiendo las
revoluciones terrestres en ángulo continuo. Esto es, en los hechos, el tiempo es determinado directa-
mente por referencia a los eventos que ocurren simultáneamente a un movimiento o cambio regular.
—ooOoo—
2.3 Materia
Como en toda la ciencia, en física no hay una magnitud, variable o parámetro asociado al
término “materia” (tal vez porque no necesita separarla de la “forma” o del “espíritu”), y es usado
-igual que en filosofía- para referirse a la “la sustancia del universo”. Es un concepto que se ha ido
detallando con el mayor conocimiento acerca de la “sustancia”, pasando de “lo que es accesible a los
sentidos” a “algo que tiene masa y volumen”, “lo que está compuesto de átomos”, “todo aquello que
ocupa una región del espaciotiempo y es perceptible o detectable con instrumentos de medición”,
y “cualquier cosa compuesta de quarks y leptones”; según las escalas de longitud y masa que se
considere.
Para la filosofía es importante también, desde luego, afinar las respuestas para saber en qué
consiste esa sustancia de la que el universo está compuesto. Al parecer el monismo filosófico tuvo
28 Espacio, tiempo y materia Cap. 2
que ser tempranamente abandonado y se aceptó una “química” rudimentaria de cuatro “elementos”
(agua, fuego, tierra y aire). El propio atomismo moderno descubrió, más tarde, que el átomo
era divisible y hecho de partículas eléctricamente cargadas, activando una secuencia de otros
descubrimientos mostrando que la sustancia material admitía estructuras internas con gránulos que
varían en tamaño y cualidad; quarks, leptones, átomos, moléculas, materiales, estrellas, galaxias y
así siguiendo. En cierto modo, al terminar la era de los modelos mecánicos, las otras escalas de la
realidad deben ser descritas mediante modelos matemáticos.
Las cosas no “consisten de materia”, son de alguna clase de materia. “Materia” es la abstracción
para la substancia de todo lo que existe. Entonces, sólo se ve formas de materia. En física se usa
en expresiones como “materia condensada”, “materia elemental”, “materia bariónica”, “materia
oscura”, o -cómo no- “antimateria”; siempre en el sentido de “algo compuesto de”. Para dar cuenta
de la “sustancia”, se hace referencia al “modelo estándar” (quarks, leptones y bosones); los quarks
y leptones interaccionan mediante cuatro fuerzas fundamentales (gravedad, electromagnetismo,
interacciones débil y fuerte). Es la mejor explicación que hasta ahora se haya logrado en física y
es momentáneamente suficiente para entender la subestructura atómica, pero es ontológicamente
insuficiente. Así, a baja energía, cuando un electrón encuentra a su antipartícula, e− + e+ → 2γ, su
carga eléctrica y su masa desaparecen o se esconden en forma de ¡movimiento! La reacción inversa
es γ → e− + e+ , mostrando que es el fotón el que tiene una estructura a pesar de carecer de masa.
Como sea, el filósofo siempre puede tomar al electrón como ejemplo y, en conocimiento de
que es una partícula muy estable y sin estructura interna, preguntar: ¿pues de qué está hecho el
electrón? La recurrencia de partículas hechas de otras partículas debe tener un límite; en algún
momento esa incómoda pregunta la cual, desde luego es aún incontestable, apunta a una duda muy
válida y auténtica. ¿Es la materia -muy al final- una sustancia continua?
—ooOoo—
2.4 Espaciotiempo
La materia y el movimiento son conceptos empíricos, en el sentido en que no pueden ser defi-
nidos via otros conceptos. Son adquiridos ostensivamente y, en física, se traducen en las magnitudes
fundamentales de masa, longitud y tiempo. La experiencia diaria indica que todo lo que sucede lo
hace en el espacio y el tiempo; mucho antes de la aparición de la teoría de la relatividad la gente
llamaba, a tales ocurrencias, eventos. “Evento”, en todos sus usos, tiene una connotación temporal
§ 2.4 Espaciotiempo 29
que implica “ocurrencia” de algún tipo, es “acaecimiento”. Lo que ocurre entre dos eventos es, por
supuesto, un estado. O, al revés, un evento es el cambio de estado (de un sistema). Ahora, los
eventos están ordenados en cierta sucesión y la mente los percibe y organiza en forma de series
temporales.
¿Es toda la existencia una serie de colecciones de eventos? Sí, esa es una forma de describir
al universo en movimiento y cambio. Desde luego, también todos los procesos dinámicos ocurren
en lugares y tiempos determinados. Por eso, entre las áreas de estudio de la física, la mecánica es
la primera teoría que se estudia. Y, en ella, las definiciones de espacio y tiempo son las primarias,
pues el resto de la descripción dinámica de los sistemas físicos depende de ellas. Para Galileo, y
ciertamente para Newton, el espacio y el tiempo eran muy reales; el movimiento de los objetos
ocurría, entonces, en un contenedor absoluto independiente de ellos al cual, sin dudar, se le asignó
la geometría euclídea. La visión clásica fue la de que el tiempo era el mismo para todos. La
simultaneidad absoluta se refiere a la ocurrencia simultánea de todos los eventos sin importar el
lugar y el sistema de referencia que los describe.
A partir de la teoría de la relatividad especial, los conceptos de espacio y tiempo fueron
formalmente conectados para conformar una variedad de cuatro dimensiones a la que se denomina
espaciotiempo; inicialmente, con métrica de Minkowski, llamada también seudoeuclídea ds2 =
cdt2 − dx2 − dy 2 − dz 2 = δµν dxµ dxν y, posteriormente en relatividad general, con la de Riemman
ds2 = gµν (x)dxµ dxν .
La idea central en esta perspectiva es que el módulo de la velocidad de la luz en el “espacio
vacío” es finito e insuperable. Provino desde el final del siglo xix, cuando James Clerk Maxwell,
habiendo sentado las bases del comportamiento de los campos eléctrico y magnético, dedujo que
la luz es radiación ondulatoria electromagnética propagándose en el espacio con una velocidad
√
dada por la ecuación c = 1/ µ0 0 . Por otra parte, varios métodos para medir esa cantidad, antes
y después (Roemer, Bradley, Fizeau, Foucault entre otros) rindieron el mismo resultado, dentro de
un aceptable error experimental, no obstante y además de que se hicieron en diferentes marcos
de referencia. Como la electrodinámica en su conjunto no es invariante bajo transformaciones de
Galileo, la dificultad fue temporalmente superada, como se sabe, sugiriendo que, a semejanza del
sonido que viaja en el aire, la luz tenía que propagarse en un medio inerte y omnipresente al que
llamaron “éter lumifero”. Después de la correcta interpretación del famoso experimento de Albert
Abrahan Michelson y Edward Williams Morley -por Albert Einstein- muchas de las ideas relativas
al tiempo, espacio y movimiento, debieron cambiar inevitable y sustancialmente.
El espaciotiempo está ahora completamente ligado a las consecuencias de la teorías relativistas.
30 Espacio, tiempo y materia Cap. 2
En la nueva concepción, la simultaneidad de los eventos depende del estado de movimiento del
sistema de referencia. En tal espaciotiempo, los ritmos de los cambios o movimientos son diferentes
en diferentes marcos de referencia y hay pruebas empíricas confirmando que la geometría del
espacio es definitivamente no euclídea a gran escala. El movimiento del sistema de referencia, aun
si es inercial, hora tiene consecuencias sobre las mediciones. Así, cuanto más rápidamente se mueva
un organismo, tanto más lentamente envejecerá respecto del sistema observador. La simultaneidad
resulta también relativizada; para el filósofo, esto implica la relatividad del “presente”, lo que en
este preciso instante ocurre, para cierto observador es algo en el ya inexistente pasado y para
otro, algo en el todavía no existente futuro. Entonces, ¡el “ahora” es real pero no simultáneo!
Si la “actualidad” no es única, el conjunto de eventos que definen un estado del universo -su
instantánea tridimensional- ya no es estrictamente intersubjetiva. Ahora hay eventos que, en algún
sistema de referencia, pueden ser consecuencia uno de otro (“separación temporaloide”: ds2 > 0 ⇒
“separación temporal” >“separación espacial”), los que pueden ser, en cierto sistema de referencia,
simultáneos (“separación espacialoide”: ds2 < 0 ⇒ “separación temporal” <“separación espacial”)
y los que están separados por eventos que sólo pueden ser conectados mediante haces de luz
(“separación luminoide”: ds2 = 0 “separación temporal” = “separación espacial”) que define
el llamado “cono de luz” en cada punto del espaciotiempo; a diferencia del espacio euclídeo
tridimensional, donde un intervalo nulo sólo indica que dos eventos ocurren en el mismo lugar.
El espacio (y el tiempo) newtoniano podría pensarse sin la presencia de ningún objeto material.
Removida la materia éste conservaba toda su estructura. Ese, definitivamente, no es el caso en el
espaciotiempo einsteniano. Por lo dicho en la sec. 1, no hay significado espaciotemporal sin la
presencia del campo gravitacional, esto es, sin la materia. Ya no es posible —ni siquiera teórica-
mente— postular una estructura espaciotemporal independiente. La geometría del espacio físico, lo
sabemos gracias a ciertas consecuencias experimentales de la teoría de la relatividad general, está
definida por la distribución de materia. Filosóficamente esto implica, desde luego, que el espacio
es una característica necesaria de la materia, esto es, que no existe el espacio “puro”. La “nada”
es contraria a las leyes físicas. La dinámica del universo queda modelada mediante una variedad
“tetradimensional” donde la particular métrica de Riemman es hallada -en principio- a partir de las
ecuaciones de campo. Esto es, el momento y la energía son las fuentes del campo gravitacional y
éste -considerando todavía muchos detalles- define la geometría del espacio.
Como en todas la áreas de la física, uno debe ser muy cuidadoso con la interpretación física
de las posibilidades y resultados matemáticos. En ausencia de materia, ¿es “plana” la geometría?
Tal vez, esa es una de las soluciones de las ecuaciones de Einstein sin fuentes Gµν = 0. Pero
§ 2.4 Espaciotiempo 31
estas ecuaciones son muy complicadas; usualmente las soluciones son sugeridas proponiendo una
métrica con ciertas características deseables y ajustándola con las ecuaciones de campo. Así, la
solución de Schwarzschild podría requerir que Gµν se anule en todo el espacio excepto en el origen
r = 0 y lo mismo valdría para el tensor de Ricci. Como en el caso del campo electrostático de
una carga puntual, la fuente de la métrica de Schwarzschild es una masa puntual en r=0 (descrita
por una función delta). Sin embargo, el tensor de Riemann que contiene la información completa
de la curvatura, tiene componentes no nulas para esta métrica. Ahora, en principio, una solución
de vacío no implica espaciotiempo plano. Obviamente, es posible obtener soluciones “no planas”
para Gµν = 0 (soluciones de vacío) e interpretarlas -no muy seriamente- como si describieran
la geometría de todo el espaciotiempo, omitiendo las fuentes materiales (u ocultándolas en otros
parámetros). En ausencia de respaldo experimental, desde luego, esos ejercicios teóricos corren
el riesgo de devenir, al final, sólo en complicadas especulaciones. Otras soluciones se adaptan a
casos particulares, sobre todo en cosmología, así, se tiene mucha evidencia experimental en favor
de la existencia de una constante cosmológica positiva. Las fuentes del tensor de energía momento
contribuyen a más que sólo a la curvatura del espaciotiempo, lo hacen de modo lineal a la métrica.
De manera simplificada, se dice que corresponde a una “expansión del universo”. La evidencia
observacional sugirió, en los noventas del siglo pasado, que esa expansión era acelerada. Para
incorporar tal información en el modelo relativista, se reintrodujo la constante cosmológica. El
modelo Einstein - de Sitter en un artículo conjunto de 1932, es una particularmente simple solución
de las ecuaciones de campo para un universo en expansión; ellos arguyeron que podría haber
grandes cantidades de materia que no emiten luz y, por tanto, no han sido detectadas. Actualmente
esa es precisamente la llamada “materia oscura”, cuyos efectos gravitacionales han sido observados
aunque su naturaleza es todavía desconocida y es objeto de intensa investigación actual.
RR
Tres
Sistemas
3.1 Temperatura
Científicamente -por supuesto- pero también filosóficamente, fue muy importante saber, gra-
cias al descubrimiento de James P. Joule, de que el calor era energía y no cierta clase de fluido
invisible. Para entonces, el desarrollo de la termodinámica ya era vigoroso, paralelamente al de
los motores -los aparatos que convierten energía en trabajo- que fueron los primeros sistemas
térmicos bajo estudio detallado y la preocupación por su eficiencia remató en el ajuste del concep-
to de entropía para representar la indisponibilidad, en el sistema, de energía térmica convertible
en trabajo mecánico. Los trabajos de Nicholas Leonard Sadi Carnot, Rudolf Clausius, Lord Kelvin
y otros, formalizaron la teoría estableciendo esa segunda ley, que tanto ha dado que teorizar.
El principio de conservación de la energía implica la intercambiabilidad de todas las “formas
de energía” y debía incluir también a la calorífica. El origen de la perplejidad estaba en que no
es posible recuperar todo el trabajo hecho sobre un sistema donde la “energía mecánica” se ha
convertido en calor. “El principio de degradación de la energía” decía Kelvin, como si el calor
fuera una energía de menor calidad o “grado”. Para evaluar la incidencia de este efecto en las
transformaciones termodinámicas, tan ligado a la estimación de la eficiencia, se introdujo, ya como
una variable (la entropía), calculada según la variación del calor faltante por unidad de temperatura.
Se observó que en pocos casos las transiciones dentro de sistemas aislados son reversibles, dejando
el valor de la entropía invariante; más bien, el trabajo experimental verificó que el incremento
de la entropía indicaba la irreversibilidad del proceso siendo esa la tendencia más frecuente.
¿Qué clase de energía es, pues, el calor? “Energía térmica” es sólo un nombre y se usó para
distinguirlo de la energías de “grado alto” que, en última instancia, se referían -como todas- a las
energías cinética y potencial. Los físicos, aprendiendo a lidiar con los hechos, tomaron a las leyes
de la “termodinámica fenomenológica” como meros decretos; hasta que la intuición de la nueva
generación -Ludwig Boltzmann, Josiah W. Gibbs y varios otros- permitió ver los mismos fenómenos
33
34 Sistemas Cap. 3
Todo sistema físico es una colección de partículas (puntos con masa). Es muy curioso, pero un
sistema de tres partículas carece ya de solución analítica y, de ahí en adelante, las soluciones, si son
requeridas, deben ser numéricas (computacionales). Hay también otras estrategias de solución para
sistemas con muchas partículas; en casos especiales como los cuerpos rígidos, las distancias entre
puntos son fijas, dejando sólo seis “grados de libertad” para las ecuaciones de movimiento, solubles
en principio. Otros sistemas interesantes son los que pueden ser considerados como continuos: un
cuerpo elástico o un fluido con características propias y ecuaciones de movimiento que permiten
sorprendentes soluciones. Para sistemas de muchas partículas libres o semilibres, por otra parte, no
únicamente la complejidad alcanza a la obvia inutilidad de un tratamiento mecánico individualizado
sino a la manera en que la energía es distribuida en el sistema. La importante hipótesis de que las
peculiaridades del calor y la temperatura estaban relacionadas de algún modo con el movimiento
atómico y molecular resultó exitosa, al punto de explicar elegantemente la naturaleza del calor y
erigir a la “mecánica estadística” como la teoría explicativa de la “termodinámica fenomenológica”,
cuyas leyes se derivan de la primera, deviniendo ahora como teoremas. Entonces, después de todo,
¿son los sistemas térmicos, en realidad, sólo sistemas mecánicos?
Sí, para un sistema de n partículas, el conjunto de todas las posiciones y momentos, conforman
un espacio 2n dimensional llamado espacio de fases. Un punto en este espacio representa, claro,
a un estado del sistema. Ahora, en vez de perseguir individualmente a cada partícula, se divide
el espacio en celdas, cada una de ellas contendrá cierto número de estados vecinos y el recuento
estadístico de las todas las celdas, según las condiciones del modelo, proporcionará una distribución
de probabilidades, la cual se usará para calcular las magnitudes físicas accesibles a la medición.
Esto es, los estados térmicos devienen macroestados, mientras que la descripción dinámica de
todas la moléculas (posiciones y momentos) constituye un microestado. Los macroestados son
accesibles a los instrumentos de medición; los microestados son accesibles al cálculo probabilístico
y estadístico. Una vez que estas tareas han sido completadas, la hipótesis ergódica supone
que, en un sistema aislado, todos los microestados permitidos serán eventualmente ocupados en el
tiempo.
El comportamiento energético de estos sistemas tardó en ser explicado pero ahí estaba. Si
se lanza un millón de dólares por la ventana de un edificio, seguramente será luego muy difícil
recuperarlo, por la cantidad de posibles “sumideros”. Análogamente, el tratamiento probabilístico
concluye que el calor resultó ser “energía mecánica” que se transmite en forma desordenada y su
recuperación, por tanto, sólo es parcialmente posible. Es esa “energía térmica” faltante la que está
§ 3.1 Temperatura 35
señalada por el valor de la entropía. Por otra parte, la probabilidad de un estado varía directamente
con el número de microestados que le pertenecen. Pero, también, el cálculo indica que cuanto más
probable es un estado, mayor es su entropía. Siendo que los estados de mayor probabilidad son los
estados de equilibrio; una vez fuera del equilibrio, el estado evolucionará naturalmente hacia sus
estado de máxima entropía, en la versión estadística de la segunda ley. El criterio es que ningún
cambio, en tales condiciones, puede resultar en una disminución de entropía. Ahora, para que este
concepto estadístico de entropía coincida con su definición fenomenológica -y también las de otras
magnitudes-, es necesaria la introducción del parámetro T, coincidente con la temperatura absoluta.
Es interesante que la energía interna en los sistemas térmicos tiene propiedades que, dentro
de intervalos razonables, pueden considerarse muy lineales (variaciones de presión, volumen o
dilataciones dimensionales) y ser usadas, entonces, para medir su magnitud. La palabra latina
“temperatura” que significa “templanza, moderación”, fue introducida por Robert Boyle, y usada
desde entonces, como el parámetro que indica -proporcionalmente- el grado de calor; en el sentido
de interpolaciones entre lo frío y lo caliente, puntos fijos de referencia. Siguiendo a Ole Rømer, Gay-
Lussac y otros que estudiaron el efecto de la temperatura en el gas “ideal” a presión constante, se
observa el incremento de volumen en fracciones fijas de 1/267 por grado Celsius; la extrapolación
de la recta corregida condujo, posteriormente, al importante concepto de cero absoluto. Es,
obviamente, la temperatura más baja posible y un punto que no se puede alcanzar; por acuerdo
internacional, corresponde a la temperatura de - 273.15 °C y es el origen de la escala de Kelvin (T
= 0 K). Heike Kamerlingh Onnes consiguió licuar helio en 1908, en 1911 descubrió el fenómeno de
la superconductividad mostrando que el mercurio pierde su resistencia aléctrica a 4.12 K. Una de
las temperatura más cercanas al cero absoluto, obtenidas en laboratorio, es de 100 pK, producida en
2001 enfriando cerca de un gramo de rodio metálico. Ahora, físicamente, en el cero absoluto todas
las sustancias se solidificarían, excepto el helio; dentro del sistema, los átomos o moléculas perderían
todo desplazamiento, rotación y vibración, implicando que la energía interna habría alcanzado su
nivel más bajo posible.
Finalmente, la temperatura es sólo una etiqueta asociada a una propiedad de la materia; sin
materia no hay temperatura; por tanto, el vacío no tendría temperatura. Sin embargo, la energía
térmica es la energía debida al movimiento desordenado de los átomos o moléculas; mientras haya
ese movimiento, el sistema no llegará al cero absoluto. Esto significa que en una región donde
hubiera un vacío completo (absolutamente sin partículas u ondas), no habría energía detectable y
el medidor marcaría cero. Como experimentalmente esos puntos -cero absoluto, vacío absoluto y
energía térmica nula- son imposibles de lograr, en la teoría sólo tienen valor como puntos asin-
36 Sistemas Cap. 3
tóticamente aproximables. También, la prueba estadística del teorema de Nernst concluirá que la
entropía en el cero absoluto tiene algún valor pequeño y constante que, convenientemente, puede
ser tomado como cero.
—ooOoo—
3.2 Fluctuaciones
—ooOoo—
Es muy extraño, pero si lo que se observa son cambios y movimientos en sucesión, ¿por qué
se piensa que es el tiempo el que fluye del pasado al futuro y se define ese hecho como anisotropía?
38 Sistemas Cap. 3
¿Y que la segunda ley de la termodinámica puede ser adecuada para marcar tal dirección temporal?
Según algunos, el universo habría empezado en un estado poco probable y haría una larga evolución
hacia su estado de máxima probabilidad mediante una serie de estados con alta entropía, definiendo
la “flecha del tiempo”. Sin embargo, la secuencia de estados, la compleja evolución del universo,
denotaría mejor -si las flechas fueran desesperadamente necesarias- una “flecha del movimiento” o
“flecha del cambio” pues el tiempo es sólo algo que etiqueta la secuencia.
Procesos como la disolución del azúcar en el té son, desde luego, irreversibles como muchos
otros. La reversibilidad de la dinámica particular es eliminada por la descripción estadística y el
resultado es un sistema en equilibrio donde el movimiento microscópico de las partículas depende
del tiempo pero no el estado macroscópico. Dado que el tratamiento mecánico es irrelevante, el
tratamiento probabilístico explicará el proceso como el paso de un estado inicial de baja entropía
a un estado final de alta entropía. Si este último es el más probable, el sistema habrá llegado a su
estado de equilibrio y, a partir de ese instante, los estados sucesivos serán indistinguibles.
Los sistemas en equilibrio son atemporales, esto es, ninguna ecuación que los describa contiene
el parámetro tiempo. Ludwig Boltzmann, interpretó ese hecho atribuyéndo a que, en el equilibrio,
las dos direcciones del tiempo son indistinguibles, es decir que el tiempo sería isótropo como el es-
pacio. Según él, el universo ya estaría en su muerte térmica y la anisotropía temporal que se observa
sería atribuible a una perturbación, una notoria fluctuación local, entre otras que ocurrirían aquí y
allá en el espacio. Pero el argumento de partida es insuficiente: el tiempo surge de la comparación y
registro entre los cambios o movimientos arbitrarios y un movimiento periódico (un reloj); si todos
los movimientos son aleatorios, no hay relojes, no hay registro y, simplemente, no hay tiempo. Es
claro, por tanto, que relacionar al tiempo -o su inexistente “flecha”- con el comportamiento entró-
pico es un recurso especulativo inútil pues la física estadística admite la posibilidad de transiciones
con decrecimiento de entropía. Por supuesto, en el transcurso de las vidas humanas, se observará
preferentemente los fenómenos más probables. Y es así cómo el universo evoluciona. Nótese que
el pasado es relevante sólo para algunos seres vivos, con propósitos de supervivencia -sin duda- y
son ellos los que lo registran más o menos con cierta fidelidad y significación, seguramente para
predecir situaciones de ventaja o peligro futuros (para aprender). Esos residuos indirectos son todo
lo que dejan los estados pasados del universo local. ¿Cómo podría, toda la complejidad universal,
revertirse exactamente? El tiempo no es isotrópico ni anisotrópico; el tiempo es un simple parámetro
que marca simultaneidades locales. No es algo real.
—ooOoo—
§ 3.4 El noúmeno del fenómeno 39
RR
Cuatro
Macrosistemas
41
42 Macrosistemas Cap. 4
—ooOoo—
principio hace que las ecuaciones de movimiento sólo dependan del espaciotiempo, esto es, que las
trayectorias son curvas geométricas en lugar de resultantes dinámicas de la acción de un campo de
fuerzas. También, el formalismo matemático se desprende de un análisis detallado del paso desde
un sistema inercial a uno acelerado. El conjunto complementario, las ecuaciones de campo, fue
postulado también por Einstein, completando la imagen macroscópica de un espaciotiempo cuya
estructura geométrica está generada por la distribución del momento y la energía. Las soluciones,
en general, implicarán que las trayectorias de los cuerpos materiales, “libres de fuerzas”, son
geodésicas (rectas sólo en ausencia de gravitación). Los rayos de luz se desvían en presencia
de un campo gravitatorio porque, igualmente, trazan geodésicas en la topología resultante. El
cálculo cuidadoso de este efecto se confirmó con la observación de Arthur Eddington hecha durante
el eclipse solar de 1919 [4], otros eclipses y, por otra parte, la dinámica de púlsares binarios
observados en radiofrecuencias. Más aún, se produjo ya la detección de ondas gravitacionales
predichas en soluciones específicas de las ecuaciones de campo [16].
Para la filosofía, es el final definitivo del esquema kantiano. Ni el espacio ni el tiempo son
intuiciones a priori. No únicamente la noción de espacio es abstraído de la experiencia, también
los detalles de su geometría deben ser verificados -al final- experimentalmente. El enigma de la
“verdadera geometría del universo”, que ya ciertamente no es euclídea, es un problema físico a ser
tratado con métodos pertinentes. Pues, como la pretensión de Galileo de medir la velocidad de la
luz con un par de linternas, el intento empírico de Gauss para determinar la estructura geométrica
del espacio triangulando las cimas de ciertas montañas y el teórico de Poincaré por demostrar
la inutilidad de cualquier ensayo por descubrir cuál geometría se aplica al espacio mediante un
experimento muestran, más bien, la facilidad con que la intuición sobre magnitudes y escalas se
puede extraviar y, eventualmente, acabar en concepciones erróneas sobre la realidad.
En la cosmología actual, aún no se entiende bien cómo se formó nuestro universo. No es posible
estimar la probabilidad de que un universo como éste ocurra. No se tiene datos observacionales
acerca de otros universos y, por supuesto, no hay el menor indicio que sugiera la existencia de
uno o más universos aparte del nuestro. Todavía no existe una teoría aceptable para describir
conclusivamente las características de sólo un universo; menos, desde luego, se puede considerar
extrapolaciones caprichosas como los multiversos. Jamás se sabrá con seguridad si las propiedades
cósmicas ocurren al azar o son necesarias y si, con otras configuraciones y estructuras, planetas
como la Tierra se haría más o menos posibles y los “seres inteligentes” más o menos probables.
La idea (que se conoce como principio antrópico) de que el universo actual es sólo uno entre una
multitud, y que sus características son las que son, precisamente porque, de otro modo los humanos
44 Macrosistemas Cap. 4
no existirían para observarlo, no se adecúa a la filosofía de la física (ni a ninguna otra) porque
toda la evidencia apunta a que los humanos somos sólo una especie pasajera, exactamente como
las demás, en un ambiente casi infinito en tamaño y posibilidades. La extrapolación correcta, si
se ha de hacer alguna, sería más bien algo como un principio ergódico generalizado (sec. 3.2):
de que todo lo que es posible en el universo, ocurrirá dado un tiempo suficientemente largo. La
cosmología actual involucra a todos los procesos físicos conocidos y a elaborados sistemas de
observación; también está todavía llena de misterios y descubrimientos sorprendentes. Hace mucho
se esperaba un universo con densidad esférica de masa expandiéndose con ritmo decreciente; en
cambio, el principio cosmológico afirma que la distribución espacial de la materia en el universo
es homogénea e isotrópica a gran escala y está todavía bajo indagación científica. Se supone que
las fuerzas actúan uniformemente por todo el espacio y no producen irregularidades notables; no
obstante, hay evidencia clara de discrepancias como el “Huge-LQG” (Huge Large Quasar Group,
también llamado U1.27).
Quedan, desde luego, una serie de interrogantes válidas pero imposibles de responder. ¿Es el
universo actualmente visible todo el universo? Nunca lo sabremos; no importa cuán sensibles sean
nuestros instrumentos, siempre habrá un límite a su poder de detección. El espaciotiempo no es un
escenario estático donde se representa la dinámica universal; no es, tampoco, la mera relación entre
cuerpos materiales. Es, más bien, un componente activo, objeto (campo) entre los demás objetos
(masas), relacionados por las ecuaciones de Einstein con muchas soluciones posibles. Universos
con sólo una partícula, universos giratorios, “cerrados” (ilimitados pero finitos) en el espacio y el
tiempo. Soluciones con métrica experimentalmente cotejable y otras, seguramente espurias, útiles
únicamente para la especulación matemática. Actualmente, la teoría de la relatividad general es
el recurso teórico para tratar esas cuestiones cosmológicas, siempre complementada con observa-
ciones objetivas y adecuadas. Nada hay a este respecto que sea epistemológicamente ajeno a los
procedimientos de la física.
—ooOoo—
4.3 Cosmología
Para Copérnico y Tolomeo, igual que para Platón, las estrellas estaban fijas en ciertas esferas
celestes. Recién en el siglo xvi Thomas Digges describió a las estrellas como distribuidas unifor-
memente en todo el espacio, con sus brillos dependiendo de la distancia. Como un siglo después,
§ 4.3 Cosmología 45
Thomas Wright sugirió que la Vía Láctea era un conglomerado de estrellas en forma de disco e
Immanuel Kant mencionó un universo infinito conteniendo muchos discos “mundos islas” como
el nuestro. Pero, sin duda, el universo es un lugar más complicado. Un poderoso telescopio de 48
pulgadas le permitió a William Herschel haber localizado unas 2500 nebulosas antes de la mitad
del siglo xix. Edwin Hubble, en 1925, usó el telescopio de 100 pulgadas del monte Wilson para
resolver imágenes estelares en varias nebulosas y, en 1929, halló su famosa ley, la de que todas las
galaxias se alejan con velocidades proporcionales a su distancia desde la tierra. Ese, podría decirse,
es el comienzo de la cosmología moderna que ha mantenido todavía algo de sabor filosófico. Los
telescopios de 100 y 200 pulgadas fueron responsables aún por otros 20 años de enriquecimiento
observacional hasta que el desarrollo del radar condujo a la radio astronomía y, con ella, a otro
aumento de importantes descubrimientos: cuásares in 1962, la radiación térmica de fondo en 1965
y los púlsares en 1967. Actualmente, los progresos en la obtención de datos con medios como
globos, cohetes y satélites, astronomía de rayos X, rayos gama y, más recientemente, los telescopios
espaciales Hubble y James Webb -aparte de la nueva generación de telescopios terrestres de 10
metros- son los proveedores de espectaculares imágenes y datos.
la cosmología, que estudia las propiedades del universo a gran escala, ha progresado enorme-
mente en las últimas décadas. El origen y la evolución de grandes cantidades de masa y energía es la
aplicación ideal para los modelos de la relatividad general, especialmente a los tan necesitados “no
estáticos”. Así, la curvatura del espaciotiempo aparece muy relacionada a su contenido material,
como debe ser si el universo se expande de acuerdo a las predicciones relativistas. El conocimiento
del cosmos ha sido lento, acumulativo y autocorregido. Como resultado, se tiene abundante evi-
dencia de que el universo se expande y se enfría; la luz de las galaxias está desplazada hacia el
rojo y éstas se alejan unas de otras. La radiación térmica que permea todo el espacio y las grandes
cantidades de helio y deuterio que contiene indican que el universo era más denso y caliente; esa es
la esencia teóríca alrededor de un “big bang” inicial -matemáticamente, una singularidad espacio
temporal-. Además, las galaxias de hace miles de millones de años (muy lejanas), se ven claramente
más jóvenes, señal de estaban más próximas al tiempo en el que no había galaxias. Detalles más
o menos, esas fuertes evidencias inclinan las explicaciones hacia un comienzo repentino con un
estado actual compuesto de más o menos 5 % de materia ordinaria, 27 % materia oscura y 68 %
de energía oscura. Es el llamado “modelo estándar”, “modelo concordante” o “modelo ΛCDM”
(Lambda Cold Dark Matter).
Actualmente la cosmología es una disciplina muy empírica y los filósofos no pueden contribuir
con respuestas sustanciales a las grandes cuestiones. Pero pueden analizar y cuestionar; la estructura
46 Macrosistemas Cap. 4
general del conocimiento cosmológico requiere claridad y adecuación en sus conceptos básicos.
Así, aparte de proposiciones especulativas (como la de que el universo es sólo parte de un inmenso
multiverso), están los nuevos límites de la explicación científica y los diferentes tipos de subde-
terminación (insuficiente evidencia disponible para sostener una sola hipótesis) y la naturaleza de
las leyes físicas (si la extrapolación de leyes locales esperando que sean universalmente válidas es
justificable). Y todavía están pendientes las viejas y legítimas preocupaciones: ¿porqué el universo
es como es?, ¿tuvo un comienzo?, ¿es finito en extensión?
¿Incluye el universo vastas cantidades de materia y energía oscuras? Tal inferencia se obtiene
extrapolando la relatividad general. Si se fracasara en la detección de materia oscura, entonces esa
teoría necesitaría cierta reconsideración, porque todos los modelos que involucran esas masas no
§ 4.3 Cosmología 47
vistas están basados sobre ella. ¿Quién sabe? las observaciones podrían revelar más la necesidad
de una nueva teoría de la gravedad antes que nuevos tipos de materia. Pero la idea del big bang es
cada vez menos seriamente cuestionada; al parecer, encaja bastante bien como núcleo del modelo;
las diferencias de enfoque tratan cada vez más sólo con detalles alrededor de esa parte principal.
El universo temprano es interesante porque es uno de los pocos lugares de prueba para la gravedad
cuántica; debe proporcionar el estado inicial que permita inferir las primeras etapas de la evolución
universal, usando las observaciones. Los cosmólogos deberán descubrir, si tal fuera posible, qué
hacía el universo antes de expandirse. Si la teoría inflacionaria debe añadirse al gran esquema
o no, dependiendo de si las mediciones futuras concuerdan con sus señales. Si la evidencia de
materia oscura acumulada alrededor de las partes externas de las galaxias, para dar cuenta de los
movimientos estelares y del gas interior, es convincente. Si, al final, la mayoría estará de acuerdo en
aceptar la desagradable constante cosmológica -o algo equivalente- como agentes de la expansión
acelerada. En efecto, hay todavía mucha tarea pendiente, la cosmología no difiere del resto de la
física: los conceptos se deben ajustar según las observaciones progresan.
Por supuesto que hay escepticismo acerca de la posibilidad de conocer todo el universo.
El modelo concordante lo describe empezando desde un estado temprano con una temperatura
extremadamente alta y luego expandiéndose, enfriándose y desarrollando estructuras (estrellas, ga-
laxias, etc.). Hay notables desafíos evidenciales, las observaciones locales podrían no ser suficientes
para garantizar la extrapolación hacia propiedades globales. Principios generales, como el princi-
pio cosmológico, tampoco tienen sólido soporte. La investigación actual, sin embargo, no parece
compatible con el agnosticismo respecto a las propiedades globales. ¿Cómo es nuestro universo?
Enorme, tal vez infinito; muy viejo, tal vez eterno. Contingente, muy aleatorio y ferozmente violento.
RR
Cinco
Microsistemas
48
§ 5.1 Mecánica cuántica 49
Born-, un número complejo cuyo módulo al cuadrado es una probabilidad o una densidad de
probabilidad.
Una forma del principio de complementariedad (pares complementarias de magnitudes que
no pueden ser simultáneamente medidas) adquirió su forma más definida con la demostración del
teorema que generaliza la relación de incertidumbre en la forma: (∆a)2 (∆b)2 ≥ − 41 h[A, B]i2 ;
donde A y B son dos operadores (observables) y a y b sus correspondientes magnitudes clásicas.
Análogamente, el principio de correspondencia (la relación última con la mecánica clásica), podría
decirse, está formulado en el postulado (iii). La constante fundamental de Planck describe la relación
entre la frecuencia y la energía de una onda (E = ~ω) y conforma la base en la cuantificación del
momento angular (spin) y aparece también en la ecuación de Schroedinger, que es la representación
del postulado (iv) en el espacio de funciones:
∂ ∂
Ĥ(−i} , x)ψ(x, t) = i} ψ(x, t) .
∂x ∂t
Con la sustitución ψ(r, t) = R(r, t)eiS(r,t)/} (la forma de De Moivre para números complejos),
es descompuesta en dos ecuaciones reales,
(∇S)2 }2 ∇2 R ∂S
+V − =−
2m 2m R ∂t
∂ρ ∇S
+ ∇(ρ )=0 .
∂t m
La primera es claramente análoga a la ecuación de Hamilton y Jacobi con un término adicional lla-
mado “potencial cuántico” o “potencial de Bohm” U = −}2 ∇2 R/2mR. Se aprecia claramente que
según la masa crece, U se hace despreciablemente pequeño y la ecuación remanente coincide con
la ecuación HJ clásica; es el modo más nítido de apreciar la aproximación gradual de la mecánica
cuántica a la clásica cuando la masa se hace “grande”. La segunda es la ecuación de continuidad
con densidad de probabilidad ρ = R2 y corriente de probabilidad j = ρ∇S/m = ρv. Es ésta la
base sobre la cual se expone la llamada teoría de la onda piloto (o de de Broglie – Bohm) que
considera a la función de onda, dada por la ecuación de Schrödinger, una guía para la partícula
en una trayectoria recorrida con velocidad v = ∇S/m. Se trata, más bien y estrictamente, de una
interpretación “determinista” de variables ocultas pero no invalidada por el teorema de Bell por ser
“no local”. Como no introduce nuevo formalismo matemático, sino que recompone el “ortodoxo”,
no sorprende que sea empíricamente equivalente a la “teoría probabilística”; tampoco parece haber
impedimento para su posible extensión a la mecánica cuántica relativista o los campos cuánticos.
En la vida cotidiana, los resultados van perfectamente bien si se pretende que no es que la partícula
§ 5.2 Más mecánica cuántica 51
posea una función de onda sino, más bien, que su comportamiento físico se ajusta a un cálculo
teórico representado por esa función.
—ooOoo—
Algunos sostienen, como Feynman, que el experimento de la doble rendija contiene “el único
misterio” en la mecánica cuántica. Es el ejemplo más conspicuo de interferencia ondulatoria que
se da entre las amplitudes cuyo valor absoluto elevado al cuadrado es la probabilidad de encontrar
a la partícula en las varias regiones de una pantalla colocada detrás de la que tiene las dos ranuras.
Un experimento similar, realizado en 1802 por Thomas Young, demostró la naturaleza ondulatoria
de la luz (a expensas de la teoría corpuscular de Newton). El patrón de interferencia –común
en demostraciones que usan una cubeta de agua- con bandas alternadas claras y oscuras, fue la
característica tranquilizante hasta el descubrimiento de que la luz estaba constituida por fotones, y
que la interferencia se producía también con “partículas materiales”. Ése es el origen de la frase
“dualidad onda - partícula”. Ahora, la tecnología moderna permite ejecutar estos experimentos de
modo que sólo partículas individuales dejan la fuente, viajan hasta la pantalla y dejan un solo punto
o destello en la posición donde son detectadas; se usa una muy tenue fuente de luz que emite un fotón
a la vez. Con un pequeño número de eventos detectados, los puntos parecen algo desordenados; sin
embargo, después de muchas repeticiones, el resultado es el mismo al que se obtiene de una sola vez
con haces de partículas. Esto es, los eventos individuales, con el tiempo, van formando el viejo y
clásico patrón de interferencia aunque no hay ondas “físicas” para interferir y rinde, discretamente,
al final una escena casi continua. Lo impactos de millones de partículas muestran obviamente,
por otra parte, la imagen pictórica de la inmaterial distribución de probabilidades obtenida de la
abstracta teoría; por ejemplo, ninguna partícula impacta en los lugares donde la solución es nula.
Los mismos resultados se obtienen usando electrones y otras partículas más pesadas (moléculas
orgánicas e inorgánicas hasta un millar de átomos). Así ejecutado, este experimento demuestra que
todas las micropartículas tienen similar comportamiento ondulatorio estadístico (Se dice que este
efecto pudiera ser útil para combinar -en computadora cuántica- operaciones múltiples hacia un
único resultado).
Los experimentos llamados “de opción diferida” (John Wheeler, Richard Feynman) en los que
el detector es colocado después de que la partícula ha pasado por las rendijas para saber cuál de
52 Microsistemas Cap. 5
ellas fue usada, no hacen que la partícula se comporte como tal y no como onda por efecto de ser
observada; lo que ocurre es que el experimento, y su curso, ha sido cambiado, alterando el espacio
muestral. Pero, ¿por qué la insistencia en dos ranuras? Se conoce de sobra que la luz -y también los
electrones- forman patrones de difracción en experimentos con una sola ranura. En todos los casos,
la situación no es diferente del experimento con dados; se los puede lanzar todos a la vez o uno
por uno. Si son idénticos -o casi- se obtendrá el mismo resultado (el promedio temporal igual al
promedio espacial, por el principio ergódico) siguiendo a la distribución teórica de probabilidades.
Objetivamente, por tanto, la conclusión filosófica es que las partículas son sólo partículas, es su
comportamiento colectivo el responsable de las propiedades ondulatorias.
El intento de Albert Einstein, Boris Podolsky y Nathan Rosen (EPR) por mostrar la incompletez
del formalismo cuántico puso de manifiesto -según ellos- un inquietante efecto que aparece cuando
dos sistemas cuánticos se entrelazan: las mediciones de un observador afectan instantáneamente a
las del otro. La conclusión afirmaba que se había demostrado que la función de onda no provee
una descripción completa de la realidad física, dejando abierta la cuestión de si tal descripción
pudiera existir, pero sugiriendo que una teoría con “variables ocultas” sería posible. El experimento
pensado en el artículo EPR ha sido objeto de mucho interés. Aún después de que en 1964 John
Bell probó que cualquier teoría de variables ocultas local sería incapaz de reproducir el intervalo
completo de resultados estadísticos predichos por la teoría cuántica, pues una hipótesis local de
variables ocultas debilitaría las correlaciones entre las medidas, violando las “desigualdades de
Bell” ya experimentalmente probadas [17]. El misterio de la causalidad cuántica no local, por tanto,
no desaparece. La “no localidad” consiste en la capacidad de los objetos de detectar el estado del
otro independientemente de la magnitud de su separación. La no localidad y el entrelazamiento son
conceptos afines, se refieren a las partículas que, luego de interactuar, resultan permanentemente
correlacionadas, con sus estados en dependencia estadística. Pero ese “direccionamiento” -como
Schrödinger lo denominó- ocurre sin envío ni detección de señales; no involucra conflictos con la
relatividad ni puede ser usada para enviar instantáneos mensajes entre observadores. Es, más bien,
una no localidad estadística en la cual se predicen probabilidades conjuntas para estados entrelazados
con diferentes suposiciones y se verifican experimentalmente. Desde luego, el entrelazamiento
ocurre sólo en el nivel atómico y distancias que preservan la coherencia de la función de onda de
las dos partículas aislando al sistema respecto de interacciones con el ambiente.
En el artículo de 1935, EPR plantearon el problema de dos electrones disparados, desde cierta
distancia, en direcciones opuestas y velocidades iguales hacia un punto central, aproximándose e
interactuando por un corto tiempo y alejándose después. A partir de ese momento, están descritos
§ 5.2 Más mecánica cuántica 53
mediante una sola función de onda que no es separable como el producto de dos funciones de onda,
una para cada partícula. Fue Schrödinger quien describió a las dos partículas como “entrelazadas”
(“verschränkt”). Pero los electrones son partículas indistinguibles, no es posible especificar cada
partícula ni su trayectoria y cualquiera de ellas puede estar en cualquier lugar. Einstein indicó
correctamente que la medición de la posición de uno de los electrones establecería de inmediato la
posición del otro sin medirla explícitamente. Pero se usó la conservación del momento lineal para
calcular la posición del segundo electrón. Análogamente, si el sistema de dos electrones está prepa-
rado con spin total cero, posteriormente las correlaciones se mantendrán para combinaciones de un
spin hacia arriba y el otro hacia abajo. No es frecuente que se recurra a leyes de conservación para
explicar el entrelazamiento, pero siempre están presentes detrás de los resultados correlacionados.
Si no fuera ese el caso, esos experimentos mostrarían algo aún más inquietante: ¡la violación a la
ley de conservación involucrada!
Ahora, la palabra “correlación” indica que se trata de resultados estadísticos, datos de muchas
repeticiones experimentales. Las correlaciones se refieren, simplemente, a que si una partícula tiene
spin hacia arriba en un extremo, entonces la otra lo tendrá hacia abajo en el otro extremo, en la
mayoría de los casos, sin importar cómo se orienten los magnetos. A medida que las pruebas y sus
medidas se acumulen, si no hubiera correlaciones, se esperaría que la distribución de probabilidades
conjunta se separaría en el producto de dos distribuciones independientes, una para cada variable
empírica y el cálculo del coeficiente de correlación entre ellas daría cero. Los estados entrelazados
de algún observable son característicos de sistemas compuestos, con autovalores no separables; su
vector de estado o su función de onda y su distribución probabilística caracteriza al comportamiento
conjunto de sus elementos o factores una vez que la interacción entre ellos ha terminado. Este
clásicamente incómodo comportamiento, donde la misma teoría predice que un sistema puede ser
54 Microsistemas Cap. 5
guiado hacia cierto estado por las acciones del experimentador -para quien el sistema mismo es
inaccesible- es ya tan familiar, que los físicos aplicados y otros científicos e ingenieros ven un
amplio panorama de usos interesantes para él, un recurso más para la tecnología.
Finalmente, es curioso que no se haya brindado mayor atención filosófica al aún más enigmá-
tico principio de exclusión de Pauli, según el cual los fermiones (partículas con spin semientero)
con el mismo conjunto de números cuánticos, no pueden ocupar simultáneamente el mismo estado.
No se deduce de la teoría ni tiene justificativo más básico; es empleado, entonces, (por ejemplo en
la determinación de las órbitas electrónicas de los átomos) “por decreto”.
—ooOoo—
Muy bien, pero toda la teoría y sus éxitos descansan -como es usual en física- sobre procesos
de medición involucrando aparatos especiales y sistemas que, en principio, estarían descritos por
una función de onda que representa a un estado compuesto o “enlazado” en el momento de la
interacción. Entonces, ¿cómo es que el instrumento de medición marca un resultado definido y
no una superposición? Según parece, fue sugerencia de John von Neumann el que el proceso de
medición implica un “colapso” del mecanismo hacia un determinado estado, como una proyección
del estado general a una de sus dimensiones, provocado por el acto sicológico de observar. Otros han
adelantado ideas sobre que el universo es esencialmente cuántico al estar compuesto de partículas
subatómicas y debe ser descrito mediante una función de onda compleja y colapsable. Mas, sólo
parece intuitivamente obvio que, cuando una posibilidad deviene actual, las otras se “aniquilan”.
Si se conceptúa a la función de onda como real, por supuesto, muchas divertidas interpretaciones
y paradojas pueden surgir. Si las otras posibilidades están extremadamente distantes del punto de
mensura, su instantánea desaparición parecería violar la relatividad. A ese efecto (¡estadístico!)
Einstein llamó -desde luego con picardía- “espeluznante acción a distancia” (“spukhafte fernwer-
kungen”), y es el que ya se describió como “no localidad”. Erwin Schrödinger, quien consideró que
la función de onda representa al electrón y su carga como “untado” en el espacio, intentó, mediante
su experimento pensado del gato, mostrar los problemas de interpretación (la de Copenhagen) e
introdujo también la noción de “entrelazamiento cuántico” (“verschränkung”). Finalmente, está la
interrogante de si se trata de un asunto “óntico” o “epistémico”, esto es, si la incertidumbre es real,
objetiva o sólo está en el conocimiento.
§ 5.3 Mediciones y colapsos 55
Análogamente al famoso “Don Quijote”, ideado para ridiculizar a las novelas de caballería, el
gato de Schrödinger, ideado para desacreditar ciertas poco evidentes implicaciones acerca de las
manifestaciones cuánticas, terminaría con una fama capaz de generar las más peregrinas elucubra-
ciones acerca del, igualmente artificial, “problema de medición”. La sustancia radiactiva, acoplada
al gas venenoso, y el gato están dentro de una caja cerrada; si la sustancia decae, el gato perecerá;
si no decae, vivirá. La idea central es que, cuando el sistema no esté sometido a medición, entrará
en una superposición de estados; en este caso es la sustancia radiactiva la que tendrá la superpo-
sición |decae>+ |no decae>. La superposición asociada para el veneno será |liberado>+ |retenido>;
56 Microsistemas Cap. 5
Pero, ¡vamos!, la experiencia (clásica) de abrir la caja revelará un evento individual, uno de los
componentes de la “superposición”, que, por lo demás puede ser simulada mediante el lanzamiento
de una moneda. No existe un estado real compuesto de “gato vivo” y “gato muerto”; la función de
onda contiene sólo información teórica sobre los posibles resultados que se obtendrán una vez que
se observe el sistema; la misma situación que es aplicable a todos los análisis cuánticos, incluso esos
con infinitos posibles valores accesibles a la medición. Es importante advertir que, en toda la física,
los formalismos matemáticos establecen únicamente maneras de predecir cantidades relevantes;
las inferencias cualitativas que se desprenden posteriormente no forman parte, necesariamente, de
la teoría. La superposición no es observable. Nunca se ve o mide sistemas (microscópicos o ma-
croscópicos) en dos estados diferentes. La mecánica cuántica predice únicamente una probabilidad
significativa de encontrar al sistema en cada uno de tales estados. Y tales predicciones probabilísti-
cas se comprueban mediante estadísticas sobre gran número de experimentos. Así, las funciones de
onda predicen, con mucha precisión, la proporción de eventos (como decaimientos radiactivos) que
ocurrirán durante un intervalo de tiempo. Las “amplitudes de probabilidad” permiten la superposi-
ción ¡teórica! de estados cuánticos posibles, pero nada tienen que ver con estados macroscópicos.
La mecánica cuántica proporciona la acertada predicción de que si el experimento se repite muchas
veces, la mitad de las observaciones, desde luego, mostrarán gatos muertos.
complejas. Por eso, tampoco hay tal problema de medición. La esencia de una medida es la
interacción con otro sistema (clásico o cuántico) que crea información para que (quizá más tarde)
sea vista por un observador, es ese dato el que se compara con el resultado teórico. El cálculo de
probabilidades permite estimar las de los posibles autovalores. Son probabilidades, no amplitudes
de probabilidad, no se interfieren ni se superponen, siempre se tiene un dato concreto. Ni antes
ni después de la interacción hay una superposición de estados. Así, siempre se observa un fotón
completo -después de una medición con polarizadores- y no una superposición de estados fotónicos.
La respuesta a ese “problema de medición” está en la correcta lectura del postulado (ii) que se
refiere estrictamente al sistema cuántico. En efecto, la observación objetiva es, en física como
en toda la ciencia, absolutamente decisiva; pero -como se sabe- no es y no puede ser totalmente
exacta y precisa. La exactitud y precisión de los instrumentos disponibles a veces definen la teoría
aplicable. Al hacerse menos masivos, los microsistemas se hacen también demasiado vulnerables a
la interacción y, por tanto, más inciertos al resultado. Los aparatos con los que se observa no sólo se
hacen menos exactos, ellos dejan de ser imparciales, influyen activamente en el objeto. Es más bien
notable que se haya logrado una teoría que admite ese efecto estocástico. Por eso, el conocimiento
del estado actual del sistema no implica que ese será, necesariamente, el estado que se detecte. El
postulado (ii) proporciona la probabilidad condicional de observar un estado posible dado el estado
actual. Y eso es lo mejor que se puede pedir. La dinámica de la partícula sigue a una distribución
de probabilidad, pero la probabilidad misma se construye de acuerdo con leyes causales [5] [6].
Se ha mantenido en alguna literatura, no obstante, ese lenguaje llamativo que describe una
medición como un sistema cuántico “proyectado”, “colapsado” o “reducido” a sólo uno de sus
estados permitidos, o que si el sistema fue “preparado” en uno de esos “autovalores”, entonces la
medición lo encontrará en ese estado con probabilidad uno (la certidumbre). Algunos afirman que
la mecánica ondulatoria de Schrödinger es matemáticamente continua e indeterminista mientras
que la mecánica matricial de Heisenberg es discontínua y determinista. Por supuesto que tal no es
el caso, los dos formalismos son completamente equivalentes, intercambiables (ψ(x) = hψ|xi) y
conducen a los mismos resultados.
Lev Landau y Evgeny Lifshitz dejaron muy claramente lo que, en física, se entiende por
“medición” a este respecto [18]:
“...En mecánica cuántica se entiende por medición cualquier proceso de interacción en-
tre objetos clásicos y cuánticos que ocurre aparte y con independencia de un observador
cualquiera...”
—ooOoo—
§ 5.4 Exégesis 59
5.4 Exégesis
Einstein dijo que la mecánica cuántica es “incompleta” porque la partícula no tiene posición
definida antes de una medición y adelantó la “interpretación de ensamble” donde las probabilidades,
una vez calculadas, no se refieren a un sistema en particular sino a una posible distribución de muchos
sistemas del mismo tipo. Es la probabilidad, figurativamente, no la partícula la que está distribuida
en el espacio. Las ondas no son sino las soluciones matemáticas de la ecuación de Schrödinger (que
no es, exactamente, una ecuación de onda; pero se la refiere como tal porque sus soluciones tienen
características ondulatorias) con sus condiciones de frontera. Cuando una de las ranuras se cierra, el
problema matemático es muy diferente al de dos ranuras y la función de onda se compondrá de otras
probabilidades. La partícula no está “alerta” a la apertura o clausura de las ranuras, no hay misterio
cuando los problemas son correctamente resueltos e interpretados. Es comprensible entonces que,
para la mirada filosófica, no sea la teoría -ni su puesta en práctica- sino las “interpretaciones” las
que merezcan atención.
Ahora, ¿es verdaderamente necesaria una interpretación? En términos de la mecánica cuántica
“estándar”, la función de onda no es energía o materia, sino sólo información sobre las probabilidades
de los posibles resultados, que, cuando se efectúa una medición y se obtiene una medida, la función
de onda no “colapsa”, sigue estando intacta en el papel; igual que cuando se lanza un dado y obtiene
6, ni los otro números, ni sus probabilidades “colapsan”. Ocurre solamente que el experimento
aleatorio ha terminado. Esto implica, desde luego, el fin de esos problemas filosóficos como el de
la decoherencia, el de la medición y el del colapso discontinuo de la función de onda. Además, la
pregunta acerca de si las probabilidades aparecen porque el mundo es aleatorio o porque nuestro
conocimiento de él es aleatorio no difiere, planteada en mecánica cuántica o clásica, y es -en verdad-
necia. Si se afirma que la incertidumbre es una medida de nuestra ignorancia más bien que una
característica del mundo real, bastaría inquirir acerca de cómo se ha llegado a ella. Cuando se lanza
un dado, nadie -¡el mundo tampoco!- sabe cómo aterrizará. Es justamente por eso que la teoría de
probabilidades ha desarrollado hasta su actual utilidad. La afirmación de que el universo es aleatorio
es positivamente equivalente a la de que nuestro conocimiento es aleatorio; ningún razonamiento
o experimento puede distinguirlas. Por eso, las relaciones de incertidumbre en mecánica cuántica
son una directa conclusión de su estructura, esencialmente probabilística la cual, a su vez, es una
consecuencia de la impredecible interacción entre el observador y el objeto. La física no admite
entidades no mensurables (ahí, lo que no se puede medir no existe). Mas, ¿cómo evitarlo?, el proceso
de medición altera irremediablemente el sistema observado; poco en mecánica clásica, mucho en
60 Microsistemas Cap. 5
mecánica cuántica.
Las aparentes paradojas surgen cuando se aplica la teoría cuántica a ciertas situaciones para las
cuales no está formulada. La distribución probabilística que proviene de la función de onda, como
§ 5.5 Exégesis 61
Aún así, teniendo un estado entrelazado (como un par en spines opuestos), ¿se podría intentar
la transmisión de un mensaje midiendo en un extremo y así “controlando” las mediciones en el otro,
aprovechando las restricciones de la correlación? No, no funcionará porque no es posible controlar
los resultados de las mediciones en el primer extremo -no se puede saber su medida de antemano- y,
por tanto, no es posible controlar lo que se verá en el segundo extremo; esto es, no hay un modo de
escribir un mensaje, para empezar. Aún si se pudiera usar el entrelazamiento para la comunicación,
ésta estaría limitada, como todas las otras, por la velocidad de la luz porque sería necesario el cotejar
(a la velocidad de la luz o más lentamente) las medidas en los dos extremos. Finalmente, ¿en qué
momento debe cada observador efectuar su medición? El receptor no puede estar seguro de si es
él el que arriesga “el colapso de la función de onda”, arruinando el experimento al no tener una
clara señal del emisor, quién lo arruinará, de todos modos, porque debe comunicar su resultado por
otro medio más lento. En la realidad práctica, se usa el canal clásico en la teleportación de estados
cuánticos. Se transfiere la información necesaria para preparar un sistema final microscópico, en el
mismo estado cuántico que el de la fuente o emisor (que quizá ignora el estado transferido), situado
a cierta distancia, superando también las rápidas fluctuaciones aleatorias térmicas.
62 Microsistemas Cap. 5
—ooOoo—
Esta inestabilidad gravitacional de 1916 lo llevó a buscar una teoría unificada de campos.
Años después, en 1929, Wolfgang Pauli y Werner Heisenberg aplicaron exitosamente los
principios cuánticos a la electrodinámica y sugirieron que podría hacerse lo mismo con la gravedad;
aunque Lev Landau objetó que un principio de incertidumbre relativista imposibilitaría incluso la
medición del campo en un punto. En 1933, Niels Bohr y Leon Rosenfeld adujeron que, en vez
de en un punto, el campo podría ser medido promediando sobre una región extensa del espacio.
Fue el físico soviético Matvei Bronstein quien, en 1934, sugirió la posibilidad de medir un campo
electromagnético con cualquier precisión haciendo el aparato de medición arbitrariamente masivo.
Por otra parte, en 1936, Bronstein, consciente de que un aparato masivo afectaría más al campo
gravitatorio que se trataría de medir, mostró que el límite cuántico de mensurabilidad se evidenciaría
para una masa muy característica (actualmente conocida como masa de Planck). Pero
Es al primer análisis en la teoría que hoy se conoce como gravedad cuántica. Se percató de que
la mecánica cuántica debía comportar cambios en la estructura del espaciotiempo a muy pequeña
escala. Bronstein pudiera haber indagado esos “conceptos más profundos” que reemplazarían al
§ 5.5 Relatividad cuántica 63
vez, es el ambiente donde las partículas existen. En la teoría cuántica de campos, el “contenedor”
es considerado inerte y fijo; pero la relatividad general implica que el contenedor está animado
también, se conforma bajo la influencia de la dinámica particular y, al mismo tiempo, influye en esa
dinámica. Así, en el caso de la interacción electromagnética en presencia de la gravedad, se debe
considerar no únicamente todas las combinaciones posibles interacciones entre electrones y fotones,
sino también todas las posibles configuraciones subyacentes del espaciotiempo. Los infinitos son
muy difíciles de tratar y los modelos matemáticos se quiebran y pierden su poder predictivo. Las
ideas “revolucionarias” no son convincentes desde la teoría y carecen de predicciones comprobables.
Las evidencias, a las escalas requeridas, son muy insuficientes. Tal vez por eso es que los agujeros
negros y el universo temprano son tan atractivos para los teóricos; son lugares donde la gravedad
es muy fuerte o muy débil, estudiarlos podría orientar el modo de tratar correctamente ese campo.
Atrás ha quedado el tiempo en el que “vacío” significaba una completa “nada”, puro espacio
sin materia, energía, partículas ni campos. La división entre espacio y materia, que parecía tan
obvia, desapareció al final, ante los hechos, la relatividad general y la teoría cuántica de campos.
Ahora hay ondulaciones en el espaciotiempo y el vacío es ya no es un estado con energía cero.
Y el campo, entonces, consistiría de una superposición de muchos estados base de oscilaciones
armónicas, uno en cada punto del espacio con energía del punto cero; de modo que la densidad
total de energía del vacío cuántico debiera ser infinito. En relatividad, eso implicaría una curvatura
infinita, la cual, obviamente, no es aceptable. Tampoco es posible cambiar la escala como en los
campos clásicos. La constante cosmológica, o la energía del vacío, es la medida de la densidad
de energía del espacio. Para determinar experimentalmente su valor correcto, es posible usar el
nexo entre la distribución de masa y energía y la curvatura espacial. La densidad de energía que se
observa mediante mediciones de curvatura es menor a 30 g/cm3 ; más bien pequeña y contraria a
lo predicho por la teoría cuántica.
Los conflictos entre las dos mejores teorías físicas se originan en la forma en que el espacio
y el tiempo son considerados en cada una. La cuántica de campos los trata como estructuras fijas,
adecuadas para establecer el formalismo matemático y extraer las consecuencias de la interpretación
probabilística; para la relatividad general, en cambio, el espaciotiempo es una entidad dinámica.
Todo intento de calcular amplitudes de probabilidad para el intercambio de gravitones, u otras
partículas, remata en resultados con infinitos. En teoría cuántica de campos, los infinitos pueden
ser neutralizados con el procedimiento de “renormalización”, similar al reescalamiento del punto
cero de energía. No obstante, cuando las integrales se toman sobre distancias extremadamente
cortas, donde las intensidades de las interacciones crecen sin límite, las divergencias empeoran.
§ .0 Relatividad cuántica 65
Los desarrollos en serie, que resuelven otros casos, fallan en éste porque los primeros términos
no aproximan adecuadamente a la serie completa. La relatividad general, que a escalas grandes es
eficazmente aplicable, presenta singularidades y diverge a distancias cortas dejando la impresión de
el modelo usual de espaciotiempo suave y continuo fallaría a ciertas energías (la escala de Planck).
Sólo para una longitud, área y volumen más pequeños, y la suposición de que la continuidad se
quiebra a tales magnitudes espaciales, las divergencias podrían desaparecer.
La teoría cuántica de campos es local en el sentido de que las interacciones del campo ocurren
en puntos individuales para preservar la causalidad. Pero esta localidad implica el almacenamiento
de acciones en un mismo punto y produce singularidades y divergencias. El programa de renor-
malización condujo a una versión finita para la interacción electromagnética (la electrodinámica
cuántica renormalizada). Esto se logra introduciendo una frecuencia de corte, de modo que todas
las frecuencias superiores a ésta se ignoran para que los términos divergentes se hagan finitos. Así,
dependiendo del valor de corte, se obtienen los valores predichos para ciertas magnitudes físicas. La
renormalización es un reajuste sistemático para no depender de tales valores de corte arbitrarios. Los
valores de los parámetros de la teoría modificada se introducen desde los registros experimentales,
partículas “vestidas” por el enjambre virtual producido por la relaciones de incertidumbre energía -
tiempo. La teoría y los parámetros en esta etapa dependen del arbitrario valor de corte. Si se toma el
límite continuo con la energía al infinito, se obtiene la electrodinámica cuántica renormalizada que
es independiente del corte. Es suficiente redefinir sólo un número finito de parámetros para eliminar
los infinitos en una teoría renormalizable. En otros casos, la teoría puede depender de cambios
en los dominios de energía y se conoce como “teoría de campo efectivo” que se adecuará sólo en
cierto rango de energías (a distancias cortas). Es posible que la gravedad cuántica sea una teoría de
campo efectivo precisamente en este sentido. ¿Cuál es la solución final? Sabemos que vivimos en
un mundo cuántico y relativista, pero somos incapaces de concebir una descripción microscópica
de la gravedad. ¿No es infinitamente frustrante?
RR
Apéndice
Notas
66
Apéndice Método científico 67
hipótesis adecuadas a esas observaciones, la formulación de teorías mediante deducciones desde las
hipótesis y las verificaciones experimentales de las conclusiones alcanzadas, coincidiría -por partes-
con la del “método” que se emplea rutinariamente para lidiar con los problemas cotidianos. En otros
casos, se dice que el ejercicio rutinario muestra al procedimiento como iterativo; que no todos los
pasos son necesarios y que, en cualquiera de ellos, es posible refinar la exactitud y precisión; que
es posible repetir cualquier paso anterior del “proceso”, etc. Como sea, semejantes descripciones
tienen poca relación con el modo en que la ciencia verdaderamente se practica.
No debe sorprender, entonces, el que difícilmente se hallará un capítulo, una sección o alguna
referencia a tal método en planes de estudio o textos de las carreras de física. En los hechos, se-
guramente la descripción de la serie observación ->hipótesis ->teoría ->comprobación,
una estructura subrepticia que sólo aparece después de escarbar en las teorías ya bien establecidas,
fue extraída de ellas “a posteriori”. Ahora, los físicos ciertamente deben enfrentar muchas y muy
diferentes clases de problemas: mediciones difíciles de cantidades importantes, soluciones matemá-
ticas no practicadas antes; probablemente, buscarán financiamiento, materiales, equipos adecuados
o literatura especial. Mas, no es probable que sean sorprendidos siguiendo diligentemente las etapas
del “método”.
Así, aunque son muchos los autores que opinaron sobre el asunto, no únicamente no se ha
68 Notas Apéndice
—ooOoo—
Muchas ideas de la matemática surgen del estudio de su propia estructura conceptual; mas,
como sus fundamentos se originan en el procesamiento de la información que proviene de la
realidad, claro, también gran parte de ellas acompañan al tratamiento de cuestiones relativas a la
física; basta recordar el cálculo de fluxiones como origen del análisis. El resto viene del trabajo de los
matemáticos sobre tales ideas; de precisarlas, refinarlas y generalizarlas; de definir cada concepto,
formular los consiguientes teoremas, etc. Todo hecho con el mayor rigor lógico. En física, más
bien, se usa la matemática como un lenguaje simbólico para analizar datos. El propósito es lograr
conclusiones significativas, para lo cual el estricto rigor matemático tiene menor importancia pues
siempre se espera que los matemáticos hayan hecho su trabajo. Por eso, seguramente muchos pasos
del razonamiento físico pueden ser cuestionables para un matemático puro; en general, algunos
tratamientos de la física teórica, aun los más prolijos y elegantes, pueden ser inaceptables para él si
intenta leerlos como si fuera un texto de matemática.
Como en otras actividades, en física se usa la matemática con propósito computacional. Pero no
Apéndice Matemáticos y físicos 69
es el principal; también permite construir modelos y teorías completas, como es obvio. La relatividad
¿cómo negarlo? trajo vida al análisis tensorial; el tratamiento riguroso vino después, con impulsos
significativos en geometría diferencial y geometrías no euclídeas. Así, el formalismo que empezó
con el trabajo de un matemático (Hermann Minkowski), muy desarrollado por físicos, regresó a
manos de matemáticos para ser enriquecido con topología, variedades y formas diferenciales; con
algunos resultados que Einstein -quizá- ya no podría reconocer. Lo mismo, la mecánica cuántica, que
nació con relaciones dispersas y elementales, completamente destinadas a racionalizar los nuevos
fenómenos empíricos, pronto requirió de más matemáticas. El trabajo de varios físicos, al final, y
sin búsqueda explícita, terminó en una teoría fuertemente matemática. Schröedinger introdujo la
mecánica ondulatoria y Heisenberg la mecánica matricial, no quedó en evidencia que se trataba
de la misma teoría hasta la introducción de los espacios de Hilbert y la teoría de grupos. Pero,
además, la mecánica cuántica requiere de soluciones específicas en teoría de funciones, ecuaciones
diferenciales, espacios vectoriales, espinoriales, etc. Existen artículos en tales temas tanto por físicos
como por matemáticos interesados.
La matemática y la física son disciplinas interconectadas. Casi siempre ha sido posible li-
mar asperezas mediante el trabajo conjunto. Muchos científicos fueron matemáticos y físicos y
contribuyeron significativamente en ambas disciplinas. Las derivadas fueron primero sólo veloci-
dades y aceleraciones, la integrales nacieron como “cuadraturas”. El tratamiento riguroso también
-paralelamente- tuvo una gran evolución. Las urgencias conceptuales, frecuentemente, no son
clasificables. La introducción de la famosa “función delta”, por Dirac, causó cierta incomodidad
matemática hasta la creación de la teoría de distribuciones. La cuestionable teoría de perturbaciones,
análogamente, tiende a ser cada vez mejor estructurada por su amplio espectro de aplicaciones.
Como sea, quizá nada refleja más las diferencias de enfoque profesional que los cursos ofrecidos
por los departamentos de física y matemática. Seguramente varias universidades enfrentaron esas
situaciones críticas en las que los departamentos de física e ingeniería resistieron muy enfáticamente
el empleo de textos de álgebra y cálculo “demasiado abstractos”, diseñados con apego al estricto rigor
y notación consecuente. En física, las expresiones no son frías representaciones de conceptos lógicos;
son personajes con historia que, si pudieran, la relatarían diciendo que nacieron en una pequeña
casita al borde de un río... Cuando van a ser usadas en problemas de mecánica, electromagnetismo
o termodinámica deben tener significados, serán tangentes a curvas, áreas, volúmenes o ritmos de
cambio. Como consecuencia, aparecieron los textos de “matemáticas para físicos e ingenieros” y
cursos de “métodos matemáticos” en los departamentos de física. Por supuesto, no es el medio,
es el objetivo el que está en juego en tales casos. Símbolos con reglas. Los de las matemáticas
70 Notas Apéndice
se usan para expresar -con precisión- ideas, conjuntos de ideas y declaraciones que contienen
relaciones lógicas entre ideas; también ayudan en la ejecución rápida de cómputos complicados.
Las mismas expresiones, con los mismos símbolos, adquieren más libertad en física y deben
“materializarse”, eventualmente, siguiendo ciertas normas establecidas. También esas normas, para
físicos y matemáticos, cambian con el tiempo. Con seguridad, muchos textos importantes, escritos
por los antiguos, no reunirían los requisitos para ser admitidos en la actualidad. Desde luego, las
exigencias para la precisión de los conceptos también se han incrementado.
Es ocioso decirlo, la física no puede ser reducida a matemática y nadie intentaría sugerirlo.
Las dos disciplinas están estrechamente relacionadas en ciertos lugares, pero son epistemológica-
mente distintas. Las pruebas matemáticas están destinadas a mostrar la consistencia lógica de una
estructura simbólica; las pruebas en física se introducen principalmente para garantizar la veracidad
de las conclusiones posteriores. El pensamiento y las herramientas se parecen, pero los fines son
radicalmente diferentes. Sin embargo, reflejando la coherencia de la actividad científica, hay una
línea continua -puede ser dicho- desde el más aplicado de los físicos experimentales, pasando por
los físicos teóricos, hasta el más abstracto de los matemáticos.
RR
Bibliografía
Artículos
[1] J. Earman, “Who’s afraid of absolute space?”, Australasian Journal of Philosophy 48 (3), 287
(1970)
[3] G.E. Crooks, “Entropy production fluctuation theorem and the nonequilibrium work relation
for free energy differences”, Physical Review E, Vol. 60, No. 3, p. 2725 (1999)
[4] D. Kennefick, “Not Only Because of Theory: Dyson, Eddington and the Competing Myths of
the 1919 Eclipse Expedition”, arXiv:0709.0685 [physics.hist-ph] (2007)
[5] A. Grinbaum, “Reconstruction of Quantum Theory”, British Journal for the Philosophy of
Science 58(3), 387 (2007)
Libros
[8] I. Newton, “Mathematical Principles of Natural Philosophy I The Motion of Bodies”, Univer-
sity of California Press (1729)
[9] I. Newton, “Mathematical Principles of Natural Philosophy II The System of the World”,
University of California Press (1729)
[10] J. O. Weatherall, “Void: The Strange Physics of Nothing” Yale University Press (2016)
71
72 BIBLIOGRAFÍA Bibliografía
[11] J. T. Fraser, N. Lawrense y D. Park, “The Study of Time”, Springer Verlag (1975-1981)
[13] J. Barbour,“The End of Time: The Next Revolution in our Understanding of the Universe”,
Oxford Univ. Press (1999)
[14] S. Carroll, “From Eternity to Here: The Quest for the Ultimate Theory of Time”, Dutton(2010)
[16] V. Fock “The Theory of Space, Time and Gravitation”, Pergamon Press (1964)
[17] J. S. Bell, “Speakable and Unspeakable in Quantum Mechanics(2nd ed.)”, Cambridge Uni-
versity Press (2004)
[18] L. Landau y E. Lifshitz “Mecánica cuántica (teoría no relativista)”, Editorial Reverté (1967)
[20] R. Feynman, “The Character of Physical Law”, Cambridge: M.I.T. Press (1965)
Cero absoluto
ISBN 978-80-85494-35-8
9 788085 494358