Está en la página 1de 81

V. M.

Peñafiel

Cero absoluto
Cuestiones en filosofía de la física

VMP

IIF, CF, FCPN (UMSA)


Cero absoluto

Cuestiones intratables en la
filosofía de la física.

por

V. Miguel Peñafiel N., Ph.D.


AUTOR DE “Introducción al tratamiento de datos
experimentales”, “Para vivir más o menos...”,
“Mecánica sin aplicaciones prácticas” y “Caos y cosmos”.

LA PAZ

(Publicado en la neobarbarie)

VMP
Depósito legal Número 5-31-666-22
La Paz, 31 de mayo de 2022
Copyright © 2022 V. Miguel Peñafiel N.
Reservados todos los derechos

Publicación de la Carrera de Física, FCPN (UMSA)


www.fiumsa.edu.bo
RR

Bajo licencia de la Carrera de Física, FCPN (UMSA), sobre la base de “como está”, sin
garantías o condiciones de clase alguna, implicada o expresa. El uso de este archivo está
permitido estrictamente para fines no comerciales. Su distribución debe ser gratuita citando y
poniendo de manifiesto los respectivos créditos.
Edición digital, mayo de 2022
Prefacio

Es obvio que se divide el conocimiento en muchas disciplinas principalmente porque la


capacidad individual es muy limitada para el enorme contenido de la información disponible.
Ciertos asuntos empiezan siendo párrafos y, luego de ser secciones y capítulos, terminan siendo
libros. De ese modo es que las ciencias se independizaron de la filosofía; no obstante, no se pierde
de vista el que los desgajes son sólo tácticos. En los hechos, no es posible separar por completo
la ciencia de la filosofía. Aun a nivel puramente individual, el científico tiene cierto conjunto
de antecedentes ideológicos, estrategias investigativas y hasta prejuicios con los cuales acomete
sus estudios. También, la evaluación global de resultados requiere de juicios no estrictamente
pertenecientes a la disciplina científica sino, más bien, a la envoltura filosófica de la misma.
En particular, el nexo entre la filosofía y la física jamás se rompió. El conocimiento humano sur-
ge también en los momentos de diseño experimental, de planificación de programas de investigación
y en las etapas interpretativas respecto del significado, importancia y alcance de los descubrimien-
tos. Esas cuestiones conceptuales e interpretativas que “envuelven” a las teorías físicas, no siempre
son parte del cuerpo científico sino del de su filosofía.
Los resultados finales de la física, por otra parte, corroboran bastante de lo que concierne a la
metafísica (teoría del “ser”) y a la ontología (el estudio de lo que el ser contiene). ¿Qué existe? El
universo en movimiento. ¿Qué hay en el universo? Un conjunto de partículas que forman muchos
otros objetos: núcleos, átomos, cuerpos inorgánicos, orgánicos, planetas, estrellas, galaxias, agujeros
negros, etcétera, etcétera. Entonces, ¿el ser es material? Sí, lo es; pero esa respuesta es filosófica no
física. En física no existe una magnitud llamada “materia” (porque no es mensurable). Materia es
lo que Lenín definía como “todo lo que es independiente de la consciencia” o, equivalentemente,
“la sustancia de la que el universo está compuesto”.
Además, pensar y hablar sobre la actividad que uno realiza es también filosofar si se mantienen
los requeridos objetividad y rigor. Se tiene la filosofía del arte, filosofía de la historia, de la ciencia,
-¿por qué no?- filosofía de la filosofía... y, por supuesto, de la física. Siendo una empresa que pudiera
extenderse indefinidamente, sólo se puede aspirar a la presentación de ciertos asuntos considerados
-con fundamento o sin él- de particular interés; así, casi a modo de ejemplos, surgen las cuestiones de
método, de fundamentalidad, de interpretaciones del espacio, del tiempo y de los desafíos cuánticos.

iv
Como para toda la ciencia, el problema fundamental de la física es aprender de la experiencia.
La búsqueda de soluciones a problemas antiguos y nuevos es, desde luego, el trabajo y el placer
de quienes se dedican a esta disciplina. La filosofía de la misma, de un modo u otro, está siempre
presente y practicada -a veces involuntariamente- en las variadas escaramuzas que se debe lidiar
frente a un mundo no siempre proclive a revelar sus enigmas.

V. M. Peñafiel

La Paz, mayo de 2022.


Contenido

0. La física 1
0.1. El conocimiento humano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2. La filosofía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.3. La ciencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.4. La matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
0.5. La física . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1. Métodos 12
1.1. Física fundamental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2. Norma científica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3. Certificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4. Cantidad y cualidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2. Espacio, tiempo y materia 20


2.1. Espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2. Tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3. Materia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4. Espaciotiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3. Sistemas 33
3.1. Temperatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2. Fluctuaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3. El tiempo, otra vez . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.4. El noúmeno del fenómeno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

4. Macrosistemas 41
4.1. Relatividad especial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2. Relatividad general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3. Cosmología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

vi
5. Microsistemas 48
5.1. Mecánica cuántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.2. Más mecánica cuántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.3. Mediciones y colapsos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.4. Exégesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.5. Relatividad cuántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

A. Notas 66
A.1. Método científico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
A.2. Matemáticos y físicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

Bibliografía 70
Cero
La física

0.1 El conocimiento humano

Hay evidencia más que suficiente mostrando que los animales, en progresión evolutiva, son
capaces de procesar pensamientos, de aprender rudimentariamente y de inferir para reaccionar
en sus prácticas vitales. Por eso, conviene especificar que el “conocimiento humano” tiene las
características de las cuales se ocupan, no únicamente la rama filosófica llamada epistemología,
sino, el conjunto de las ciencias y artes. Porque la división del saber en áreas separadas es un
recurso conveniente pero artificial; siempre tenemos en cuenta las influencias mutuas y -al final- la
indivisibilidad entre conocimiento y actividad en la vida humana individual y social. Por otra parte,
la naturaleza estimula las funciones que son vitales para los organismos; por eso, conocemos por
placer para sobrevivir.
Conocimiento es el contenido activo de la memoria. Ese contenido cognitivo, como se sabe,
es dinámico, ordenado, acumulativo y cronológico. Se va construyendo a lo largo de la existencia
individual. Análogamente, el conocimiento colectivo o conocimiento humano es el conjunto total
de registros que lo documentan, matienen y preservan; también de manera ordenada y acumulativa.
Ambos, en sus procesos, aumentan y se perfeccionan; se hacen más exactos y más precisos, selec-
tivamente. El conocimiento no es “creencia verdadera”, según a veces se lo define. Las creencias
son más o menos probables, ¿cuánta verificación puede hacer “verdadera” a una creencia? Precisa-
mente, el resultado de acumular experiencias durante siglos ha llevado a comprender, con razonable
confianza, el funcionamiento cerebral que recibe las señales físico químicas de los sentidos, las
procesa, las interpreta y las almacena en registros complejos, parecidos a aquellos que los informá-
ticos llaman “bases de datos”. Conocer es, entonces, la operación de comparar nueva información
con la ya disponible, y actualizar los registros memorísticos en consecuencia. Los datos que los
sentidos entregan no tiene efectos neutros; el cerebro los detecta agregando indicadores calificativos,
etiquetas como bello, peligroso, conveniente (= bueno), etc. En los animales primitivos la reacción

1
2 La física Cap. 0

que sigue a una sensación es inmediata, sea de aprovechamiento o de amenaza. El conocimiento


es, así, un beneficio colateral de la lucha por la supervivencia. Los primates pueden, gracias a él,
diferir sus reacciones y planificar sus estrategias.
Finalmente, ahora es más fácil constatar que todo el conocimiento tiene origen, inmediato
o mediato, en la experiencia. El cerebro es capaz de abstraer colores, olores, sabores, sonidos y
texturas; además, formas, cantidades y cambios. Esos son los datos con los que se forman lo que
algunos filósofos llaman “universales” (blancura, dureza; forma, número, mutación, movimiento...).
Además, la vida en sociedad induce, básicamente con similar mecanismo, otra clase de universales
(libertad, justicia, elegancia, bondad...) relacionados con valores éticos y estéticos.

—ooOoo—

0.2 La filosofía

La filosofía no es -o no debiera ser- una colección de opiniones. Filosofar es, ciertamente, muy
natural en el hombre. Cualquiera puede -y debe- filosofar, pero atendiendo siempre a la objetividad
en las premisas y al rigor lógico en las conclusiones. La historia del pensamiento es enormemente
rica en ideas, muchas de ellas válidas por siempre. Pero, igualmente, rica en equivocaciones y pautas
engañosas. Repetirla una y otra vez, por supuesto, no la hace más correcta. Es mejor tomar de ella
los descubrimientos que contribuyen radicalmente a la solución de problemas epistemológicos y
a la comprensión de asuntos en metafísica, ontología y otras áreas de interés. Por ejemplo, ahora
parece muy obvio que la existencia exterior se nos revela por la voluntad y no por la razón. Sabemos
que el mundo existe porque se opone a nuestros impulsos y nos obliga a adaptarnos a él. Tal punto
de vista fue expuesto con gran énfasis por Arthur Schopenhauer y da una explicación definitiva al
hecho de que la existencia del universo no está considerada como un problema de la ciencia, pues
ésta se ocupa -más bien- de descubrir el modo en que el universo existe.
Para ello, se empieza con las definiciones ostensivas (señalando el objeto y pronunciando
su nombre) y más tarde se aprende a definir con palabras. Definición es la declaración que
establece el significado de una expresión (símbolo, palabra o frase). Se trata de una operación
extralógica o prelógica pues, en cualquier expresión (como “p->q”), los términos (“p” y “q”) deben
ser previamente declarados. En consecuencia, una definición no puede ser verdadera o falsa. Los
valores de falso o verdadero no se aplican a las definiciones; una “buena” definición es útil, precisa
o adecuada sólo dentro de un contexto, una teoría o una argumentación. No constituye proposición
§ 0.2 La filosofía 3

alguna, es una simple (¡y arbitraria!) declaración. En física no existe una teoría especial acerca de las
definiciones. Éstas se validan intrínsecamente con la formulación completa de las teorías a las que
pertenecen sea como conceptos ostensivos (experiencia directa), equivalencias matemáticas (v. g.,
~ o definiciones verbales posteriormente concretadas en relaciones cuantitativas
“trabajo W ≡ F~ · d”)
(v. g., “fuerza F~ ≡ agente que tiende a cambiar el estado de movimiento de un sistema”). Un intento
anecdótico de una teoría al efecto fue la introducción de la “definición operacional”. Propuesta en
1927 por el físico Percy Bridgman en sentido de que se debe abandonar la creencia de que los
conceptos fundamentales de una ciencia se referieren, respectivamente, a una sola y única cualidad
de las cosas en el mundo. Más bien -arguyó- se debe concebir que hay tantas propiedades únicas
y diferentes como hay técnicas para medirlas. Como, obviamente, la enorme complejidad de la
ciencia y su habilidad para generalizar requieren, más bien, de conceptos tan universales como sea
posible, la propuesta de Bridgman no tuvo acogida en física y fue abandonada por su propio autor
quién, en 1953, escribió: “...he creado un Frankenstein”; confundiendo -además- al monstruo con
su hacedor.
Una definición puede ser calificada de “mala” cuando no es lo suficientemente precisa, no es útil
o no se adecúa al propósito y al contexto para los cuales es formulada. Por ejemplo, ciertos textos de
física definen “masa” como “cantidad de materia”. Pero como “materia” no es una magnitud física,
tal definición es inútil para el uso posterior de su definiendum, aparte de que su aceptación implicaría
¡la inmaterialidad del fotón! (porque éste carece de masa). El análisis racional se entorpece, sin
duda, cuando las definiciones adecuadas están ausentes pero, por otra parte, las argumentaciones se
distraen con la búsqueda de definiciones demasiado puntillosas. Así, Para la importante definición
de verdad, dice Kant:

“¿Qué es la verdad? Con esta tan antigua como célebre pregunta se creía poner en
grandísimo aprieto a los lógicos, obligándoles a caer en la logomaquia más deplorable
o a confesar su ignorancia y asimismo, por consiguiente, toda la vanidad de su arte.
La definición del término verdad, de que es la conformidad del conocimiento con su
objeto, ya está admitida y supuesta en esta obra pero lo que se desea saber es el criterio
general y cierto de todo conocimiento. Saber lo que racionalmente puede pedirse, es por
sí sólo prueba harto evidente de cordura y de talento; porque si la pregunta es absurda
en sí y requiere respuestas ociosas, no sólo deshonra al que la hace, sino que a veces
produce el inconveniente de precipitar en el absurdo al que sin pensar responde y dar de
esta suerte el triste espectáculo de dos personas que, como decían los antiguos, ordeña
la una el chivo mientras la otra pone debajo la criba.”

En efecto, no se trata, necesariamente, de constuir fórmulas compactas para describir términos que
sean o parezcan importantes; de todos modos, ésto es rara vez posible. Se trata, más bien, de aislar
los conceptos con precisión razonable, de modo que su uso no admita confusiones. Está bastante
4 La física Cap. 0

claro que la verdad (o falsedad) es un atributo del juicio: éste es verdadero cuando sus enunciado y
referente coinciden.
Por supuesto que todos los filósofos aspiraron y aspiran a que sus doctrinas, discursos y
aforismos sean verdaderos. Pues la filosofía es la actividad que busca entender la esencia,
propiedades, causas y efectos de las cosas y fenómenos del universo. Esa generalidad es necesaria
aún ahora, cuando gran parte de las aspiraciones filosóficas han sido denominadas “ciencia”. No
importa, el saber es recursivo y siempre enfrentará la necesidad de estudiar a la ciencia también.
Asi como el conocimiento “general” es posible sin una preocupación científica, el conocimiento
científico es posible aun sin comprenderlo filosóficamente; pero la relación de incompletez es la
misma. Entender requiere de preguntar, analizar, argumentar y reconocer. Entonces, el estudio de
los fundamentos de la realidad y la existencia presupone el estudio de las bases del conocimiento.
La verificación de un juicio, sin embargo, excepto en el ámbito de las matemáticas, contiene lo
que Bertrand Russell muy apropiadamente llama “dudosidad intrínseca”, o bien, cierto “grado de
credibilidad”. Es, pues, la contingencia de los juicios inductivos (“Si A1 es B, A2 es B,..., entonces
todo A es B”) la que introduce a la teoría de probabilidades de modo sustancial en la epistemología.
Si el conocimiento del mundo exterior es sólo probable, ¿cómo se logra un esquema confiable a
cerca de las esencias y procesos?

—ooOoo—

0.3 La ciencia
“Ciencia” es una palabra que se usa con varios propósitos: se habla de la ciencia como
una actividad, el trabajo característico del científico, como una institución, etc. Sin embargo, la
acepción que aquí interesa es, claro, la epistemológica. Ciencia es, sobre todo, un tipo muy especial
de conocimiento cuyo particular desarrollo permite ubicar sus características.
Pero, además, las mismas premisas epistemológicas de la ciencia no son científicas. Por ejem-
plo, la física -al igual que todo el conocimiento- parte de dos premisas profundamente filosóficas:
El universo existe
El universo es cognoscible.
Pues, si el universo no fuera objetivo (como pretendían, por ejemplo, los solipsistas) o no
estuviera al alcance del conocimiento humano, la ciencia sería una actividad imposible o inútil.
Ahora, puesto que el universo existe y es conocible, el propósito de la ciencia es el de describirlo,
§ 0.3 La ciencia 5

el de determinar cómo existe. Entonces, ¿qué clase de conocimiento es? Si hubiera un urticante
interés por una definición breve, diríamos que
Ciencia es un conocimiento objetivo, racional, metódico, sistemático y crítico.
Es objetivo porque no pone en duda la existencia del mundo exterior y considera solamente
eventos observables, hechos. No es posible erigir teorías científicas sobre la base de experiencias
subjetivas (sueños, imaginaciones, intuiciones) o hipótesis no verificables empíricamente. Las
verdades de la ciencia son siempre intersubjetivas (criterio débil de objetividad) y se extrapolan
como válidas aún en ausencia de observadores (criterio fuerte de objetividad).
Es racional porque es accesible a la inferencia deductiva y a todos los procesos lógicos
propios de la inteligencia. Es el tipo de conocimiento que permite inferir (derivar nueva información),
explicar (generalizar y exhibir información implícita) y entender (aprehender información). Ciencia
es el conocimiento razonado de las cosas. No todo conocimiento es racional; por ejemplo, la relación
cotidiana con otra persona da un conocimiento intuitivo de su carácter; el conocimiento que lleva
al dominio del equilibrio corporal para caminar o montar una bicicleta, es instintivo, como lo es el
conocimiento básico de algunas fuentes de dolor y placer; etc.
Es metódico porque los datos (resultados de observaciones) no se extraen y verifican en forma
desordenada e inconexa. Aprender del mundo objetivo requiere de procedimientos definidos, repe-
tibles y confiables, de muchos métodos de observación y de los procedimientos propios de la teoría
de la inferencia inductiva (probabilidades y estadística). Tampoco son considerados aisladamente,
sino agrupados en cuerpos de conocimiento, o relacionados con ellos.
Es sistemático porque tampoco es una simple suma de conocimientos dispersos. Entendien-
do por “sistema” un conjunto de partes organizadas de acuerdo a una función común es, entonces,
un conocimiento sistemático. En su forma más amplia, una ciencia es un conjunto de teorías enla-
zadas de modo consistente. Así, la teoría del movimiento y sus causas (Mecánica), la teoría de las
fuerzas electromagnéticas (Electromagnetismo), la de las fuerzas nucleares (Física Nuclear), etc.,
etc., son construcciones del tipo descrito que se complementan unas a otras y conforman, en total,
el estudio de todas las interacciones existentes en el universo o la ciencia conocida como física. “La
ciencia” se refiere, entonces, al sistema conformado por todas las ciencias particulares las cuales,
obviamente, son compatibles unas con otras.
Es crítica porque el adquirir conocimiento a cerca del mundo real es un proceso aproximativo
(adaptativo). El trabajo científico posee una componente heurística intrínseca e inevitable que
compromete al juicio humano. El estado actual de la ciencia, o de una ciencia, es el efecto no
solamente de la calidad y poder de nuestros medios observacionales, sino también, y al fin de
6 La física Cap. 0

cuentas, del esfuerzo crítico común: de nuestra habilidad de juzgar la diferencia entre lo verdadero
y lo falso, entre lo fino y lo basto o entre lo pertinente y lo inapropiado. Las teorías científicas, pues,
son construcciones sometidas a revisión y corrección permanentes.

Hay ciertas propiedades importantes relativas a estos cuerpos lógicos o “teorías científicas”.
Sus predicciones van más allá de los hechos que le sirvieron como puntos de partida; las leyes
establecidas explican no sólo las experiencias iniciales, sino todas las posteriores experiencias
que le son pertinentes. También, hay compatibilidad específica con los hechos. Esto es, que si los
hechos fueran diferentes a los que se observaron, la teoría elaborada para explicarlos se invalidaría de
inmediato; e inversamente, cualquier cambio arbitrario sustancial en la teoría la tornará incompatible
con los fenómenos basales. Es esta consistencia recíproca entre los datos y su explicación teórica
la que diferencia al conocimiento científico de una simple especulación ideológica. Por ejemplo,
uno podría intentar una teoría según la cual todos los hechos y fenómenos actualmente observados
son tales como resultado de la voluntad divina; pero, claro, esta “explicación” nada explica, pues
sería compatible con cualquier otro conjunto diferente de hechos y fenómenos, o sea, la creencia
religiosa permanece aplicable a cualquier universo, observable o no.

Ahora, si la ciencia es el procedimiento epistemológico más confiable para indagar en el


universo, el conocimiento científico debe ser la fuente idónea para el enriquecimiento ontológico.
Así, el concepto de partículas microscópicas como constituyentes materiales -pero invisibles- tiene
una larga trayectoria desde la intuición de Demócrito, las primeras observaciones y estimaciones
acerca de sus dimensiones, estructura, efectos y, por fin, la evidencia contundente no únicamente
de la realidad atómica, sino de la complejidad subatómica. Actualmente ni aun es concebible una
concepción ontológica del mundo sin ese microuniverso lleno de minúsculos objetos, algunos de
tan corta vida (llamados “virtuales”) que -se puede decir- están en el borde de la existencia. Y que,
al final, implica que aun el mejor conocimiento sólo puede aspirar a ser muy probable.

Finalmente, ¿se reduce la química a la física o la biología a las otras dos? Claro que no. El
desarrollo eficiente de cada ciencia tiene particularidades y procedimientos propios y específicos.
Mas, las ciencias armonizan unas con otras todo el tiempo. Los descubrimientos de una, pueden ser
confiablemente útiles a las demás. Las conclusiones generales, por otra parte, enriquecen la tenue
estructura teórica que envuelve a la ciencia para constituir el saber humano total: la filosofía. Si el
conocimiento es todo lo que el cerebro registra, y como se sabe, su extensión y calidad depende
de la experiencia y procede desde el nacimiento hasta la muerte, la ciencia es un conocimiento
colectivo cuyo desarrollo en exactitud y precisión se puede apreciar continuamente; y se perpetuará,
seguramente, hasta el fin de la humanidad.
§ 0.4 La matemática 7

Vale la pena anotar también que, por tanto, la ciencia como emprendimiento colectivo es una
tarea y -a la vez- un patrimonio social. La ciencia es el mejor conocimiento humano; su enorme
potencial y -simultáneamente- la prueba final de su validez, se manifiesta en esa notable capacidad
predictiva que permite las aplicaciones utilitarias que, conjuntamente, se denominan tecnología.
El progreso científico se traduce en progreso tecnológico y éste en más y mejores medios de obser-
vación los cuales, a su vez, implican refinamientos o correcciones importantes al conocimiento.

—ooOoo—

0.4 La matemática

Se ha dicho que el criterio de verdad es que el contenido de un juicio coincida con su referente.
Por supuesto, siempre dentro de cierto margen de confiabilidad, el referente de cualquier idea en
física es algo real. Esas ideas pueden ser palabras o símbolos (matemáticos). Así, para mantener
el grado de verdad más allá de de las experiencias iniciales, toda teoría física tiene un formalismo
matemático abstracto y un conjunto de postulados físicos los cuales, explícita o implícitamente,
establecen la correspondencia entre objetos matemáticos y las magnitudes que son accesibles a la
medición.
La matemática es la ciencia deductiva que analiza propiedades de entes abstractos; especial-
mente los de cantidad, forma, posición, estructura, relaciones y cambio.
Ciertamente, hay una parte epistemológica -la norma científica- que es compartida con la que
se refiere a toda la ciencia. No es un conocimiento sintético a priori, según afirmaba Kant. Es,
más bien y más evidente, que el cerebro humano (también el de los animales) tiene la capacidad
intrínseca de, a partir de la observación, abstraer y procesar algunas propiedades específicas. La
mente puede, posteriormente, desarrollar por deducción las estructuras simbólicas. No ocurre lo
mismo con otras abstracciones (como la de sustancia) para cuyo tratamiento es necesaria nueva y
repetida observación.
La confirmación de ese proceso se encuentra en el notable desarrollo paralelo de la matemática y
la física; en esta última, la matemática es incorporada siendo más un lenguaje que una “herramienta”.
Por una parte, hay una aplicación de esquemas simbólicos, creados independientemente, en la
sistematización de datos empíricos; pero, por otra, muchos desarrollos matemáticos provienen de
requerimientos descriptivos y se construyeron simultáneamente a las teorías físicas, como aquellas
estructuras sobre las que se basan las mecánicas clásica, relativista y cuántica. Algunas teorías
8 La física Cap. 0

son altamente deductivas, asemejando ensambles completamente matemáticos. En otros casos,


la pertenencia parece indiferente; por ejemplo, fuera de los casos de alta simetría (probabilidad
matemática), la fuente más rica en distribuciones probabilísticas es la física, al punto en que bien
pudiera ser considerada una teoría relacionada con el proceso de inducción, teoría de la medición,
procesos termodinámicos, cuánticos y otros. Finalmente, desde luego, hay construcciones sólo
formales, de las que no se esperaría sean aplicables fuera de la matemática misma (como el campo
de Galois). Pero, nunca se sabe; hace mucho se pensaba que áreas como la teoría de números o la
lógica matemática eran muy “puras”, ahora resulta que la primera es central para la criptografía y la
segunda lo es para la ciencia de la computación. Nikolai Lobachevsky era bastante menos escéptico
al respecto:
“No hay rama de las matemáticas, no importa cuán abstractas, que no vaya a ser aplicada
algún día a los fenómenos del mundo real.”

Entonces, la matemática es un desarrollo de la mente humana con origen en la información


sensible, pues la capacidad de abstracción se muestra instintiva. Hay propiedades de los objetos
físicos que son susceptibles de ser aislados y desarrollados independientemente tanto por la intui-
ción animal (rudimentariamente) cuanto por el proceso consciente humano. Los sentidos recogen
información compleja del mundo exterior; imágenes, sonidos, texturas, olores, sabores, cantidades,
siluetas, etc. De ahí, la mente forma esos conceptos generales como blancura, dureza, número,
posición o forma. Obviamente, algunos de éstos son más propensos a conformar esquemas lógicos.
En ciencias, la mayoría de las predicciones útiles son cuantitativas, y es la matemática subyacente
su principal respaldo. Así ocurre con las órbitas planetarias, niveles de energía atómicos, efectos de
bajas temperaturas, trayectorias de vehículos espaciales, etc. Eso es posible por que las teorías de la
física son esencialmente cuantitativas (sus elementos y objetos principales son, en última instancia,
números).
No es extraño, por tanto, que en física, la matemática sea la forma de expresión imprescindible.
Muchas relaciones pueden ser enunciadas verbalmente, pero su traducción en símbolos las hace más
efectivas y facilita su procesamiento. El aumento de complejidad, entonces, hace que el formalismo
sea definitivamente necesario. Así, Isaac Newton expresa su primera ley diciendo:
“Cada cuerpo continúa en su estado de reposo, o de movimiento uniforme en línea
recta, a menos que sea compelida a cambiar su estado por fuerzas impartidas sobre
él.”
Su traducción es sorprendentemente más corta y versátil:

F = 0 ⇒ p = constante .
§ 0.5 La física 9

A eso se refería, sin duda, Galileo Galilei en “El ensayador” [7]:

“La filosofía está escrita en ese grandísimo libro que tenemos abierto ante los ojos,
quiero decir, el universo, pero no se puede entender si antes no se aprende a entender
la lengua, a conocer los caracteres en los que está escrito. Está escrito en lenguaje
matemático y sus caracteres son triángulos, círculos y otras figuras geométricas, sin las
cuales es imposible entender ni una palabra; sin ellos es como vagar vanamente en un
oscuro laberinto.”

Es como si la matemática fuera el armazón del mundo real; el esqueleto del universo. Sobre ella
aparecen los otros aspectos generales del conocimiento. La mente es muy proclive a desarrollar
estructuras matemáticas de innegable efectividad, de extrapolar indefinidamente sus elementos hasta
el sorprendente manejo de conceptos como el infinito. ¿Cómo explicar la posibilidad de procesos
semejantes?
Existen suficientes indicios de que los componentes cuantitativos del mundo -o una parte de
ellos- coincide con la realidad física accesible a fragmentos formales. En cierto modo, el formalismo
usual de las teorías de la física, una vez establecidas mediante definiciones, postulados (axiomas)
teoremas implícitos y explícitos, modelos abstractos, etcétera, es equivalente a establecer una com-
pleta teoría matemática destinada a garantizar que lo obtenido por inducción tendrá consecuencias
confiables por deducción. Basta recordar que, antiguamente en algunas universidades, la “mecánica
analítica” se enseñaba en las “facultades” de matemática.
En muchos casos, el procedimiento de introducir conjuntos de variables, establecer correspon-
dencia con objetos físicos, proceder operativamente con esas variables y regresar posteriormente al
sistema físico para interpretar los resultados, permite descubrir hechos que no serían revelados de
otro modo. Sin embargo, lo mismo que en el trabajo puramente matemático, desde luego que hay
inevitables criterios heurísticos. La pertinencia de un modelo teórico, incluidas las idealizaciones
que se suele introducir, está siempre sujeto a la adecuación con la realidad, lo cual se juzga por la
exactitud de las magnitudes buscadas. Es la forma en que la matemática interactúa con la física,
bastante como el lenguaje lo hace con el discurso.

—ooOoo—

0.5 La física
La física es una ciencia experimental que estudia las propiedades y efectos de las interac-
ciones (fuerzas) existentes en la naturaleza.
10 La física Cap. 0

La física, análogamente al sentido común, construye modelos dinámicos para representar a la


realidad. Pero los verifica y ajusta cuando llega nueva información; procura la mejor correspondencia
con su referente y extrae de esos modelos las conclusiones que garantizan el éxito conceptual cuando
es necesario predecir eventos o aplicar conceptos. La objetividad y el rigor son, al final, los criterios
que brindan la confianza necesaria en la potencial coincidencia de lo aprendido con el propósito de
las indagaciones.
Es una ciencia teórico experimental cuantitativa. Por una parte, entonces, los resultados de las
observaciones son cantidades calificadas, mediciones; esto es, los análisis se realizan siempre, en
última instancia, sobre entes matemáticos de la forma
magnitud física = valor ± error [unidades].
Por otra parte, el cuerpo de conocimientos de la física está organizado en teorías; unas fundamentales,
asociadas con una determinada interacción (el electromagnetismo con las fuerzas electromagnéticas,
la física nuclear con la interacción fuerte o fuerza nuclear, etc.); otras muchas, como la cosmología
o la física del estado sólido, son aplicaciones complejas de las teorías básicas.
Las teorías físicas comprenden, a su vez, un formalismo matemático, un conjunto de reglas de
correspondencia entre magnitudes físicas y objetos matemáticos y un formalismo físico (postula-
dos). Esta asociación es tan estrecha que algunas construcciones asemejan esquemas enteramente
deductivos; pero, claro, los desarrollos por teoremas y corolarios -implícitos o explícitos- no hacen
sino expandir el contenido inductivo de los postulados iniciales.
Algo que no muy frecuentemente se menciona es que la aplicación de una teoría en vez de otra,
o de un modelo en vez de otro, a veces depende de la exactitud y precisión con que las magnitudes
físicas involucradas se pueden medir. El movimiento del péndulo simple, por ejemplo, es armónico
simple sólo para ángulos “pequeños”; la solución “exacta” es una integral elíptica sin primitiva.
Hay aproximaciones “semicuánticas”, “cuasirelativistas” y un sinnúmero de interesantes resultados
a los que se llega sólo mediante desarrollos en serie, por perturbaciones o cálculo numérico iterado.
Es siempre esa observación directa -e imprecisa- la que guía y determina, en última instancia, al
entendimiento.
La teoría de las interacciones en general -que involucra también, necesariamente, a la estructura
conceptual del espacio y el tiempo- se conoce como mecánica. Aunque la mecánica cuántica y la
relatividad son tratadas como teorías independientes, en realidad son extensiones de la más básica
mecánica clásica al tratamiento de masas muy pequeñas y velocidades muy altas, respectivamente,
por cuanto es fácilmente demostrable que la transición entre tales formalismos es completamente
gradual (ésta es la demostración de que la interpretación del desarrollo científico por “paradigmas”
§ 0.5 La física 11

es totalmente errónea).
Otras interacciones, todavía no bien entendidas, son objeto de estudio en la física de altas
energías. El resultado es una interesante asociación entre entes con características corpusculares
(cuantos) y campos de interacción (fuerzas). Como toda la existencia ocurre en lugar y tiempo
determinados, la elucidación de la esencia epistemológica acerca de la composición de la materia,
la naturaleza del espacio y tiempo, la posibilidad del determinismo y el significado del azar tienen
repercusiones directas o diferidas sobre todo el conocimiento científico y ello ocurre también con
los detalles sobre estructura última de los objetos materiales. Esto explica el importante esfuer-
zo científico y recursos volcados sobre la investigación de esos problemas aparentemente poco
prácticos.


RR
Uno
Métodos

1.1 Física fundamental

Para cada físico, seguramente su campo de investigación es el más fundamental. Pero, en


otro sentido y en general, por física fundamental uno entendería la parte que estudia el espacio, el
tiempo, la energía y los constituyentes de la materia; esto es, la teoría de la relatividad general y el
modelo estándar de la física de partículas. Ésta es sólo una manera de referirse a tales teorías; de
ninguna manera se considera que una es “más primaria o importante” que las demás o que unas “se
reducen” a otras.
La manía “reduccionista”, la de que propiedades, conceptos, explicaciones o métodos de una
disciplina pueden ser subsumidos en los de otra, considerada más fundamental, ha merecido mu-
cha atención filosófica en referencia a varias ciencias, de la naturaleza y de la sociedad. Así, ¿es
la biología sólo química y física? ¿es la química sólo física? Si ese fuera el caso, las ciencias
“derivadas” o “secundarias” ya hubieran dejado de existir por economía epistemológica. Análoga-
mente, los físicos prefieren mantener la termodinámica fenomenológica y la mecánica estadística,
tanto como áreas de investigación cuanto como partes en los libros de texto, no obstante el deseo
reduccionista de ver la termodinámica reducida a mecánica estadística o, por lo mismo, la física
del estado sólido y la física de materia condensada reducidas a ciertas amalgamas de química y
física. Si semejantes reducciones fueran posibles o practicables, las publicaciones científicas ya lo
hubieran demostrado hace mucho tiempo. En los hechos, más bien, cada disciplina posee objetivos,
estrategias, procedimientos y técnicas muy propias -y muy irreducibles- para lograr el conocimiento
buscado.
En particular, la persecución de la temperatura más baja hacia el cero absoluto, implica tantos y
tan sorprendentes montajes experimentales que pasmarían hasta al más recalcitrante reduccionista.
No, la termodinámica no se reduce a la mecánica estadística; explicar no es reducir, los tratamientos
estadísticos permiten dilucidar el origen microscópico y la esencia de conceptos como el calor, la

12
§ 1.2 Norma científica 13

entropía, etc.; pero de ninguna manera pueden sustituir sus efectos macroscópicos.
Bien, pero ¿existe la “redución”? Lingüísticamente, sí. Por ejemplo, las “leyes” de Kepler sobre
las órbitas planetarias ahora son simples corolarios que se desprenden de la solución dinámica para
la fuerza gravitatoria newtoniana. ¿Se ha “reducido” el esquema de Kepler a una solución de las
leyes de Newton? Sí, en sentido de que ahora se desprenden, se “deducen” de un formalismo más
general. La operación de reducir, entonces, nada tiene que ver con el reduccionismo, es únicamente
una consecuencia colateral del progreso científico.
Ahora, la fundamentalidad es transitiva. No es difícil constatar que las teorías “derivadas”,
son “fundamentales” respecto de otras. Así, la física del estado sólido es una fuente de muchas
innovaciones, tiene innumerables aplicaciones y bien pudiera ser considerada fundamental para
otras prácticas, ciencias y tecnologías. ¿Qué diferencia haría? El empleo de unos conceptos para
explicar otros continuará mientras el modelo que tenemos del universo esté incompleto. A la física
fundamental (en el sentido que se usa en esta ciencia) todavía le queda ver que la teoría de la gra-
vitación de Einstein se compatibilice con las de otras fuerzas y con otras observaciones (agujeros
negros, materia oscura, energía oscura) y modelos cosmológicos; también, entidades e interacciones
a otra escala no completamente entendidas, observaciones e inconsistencias apuntan a potenciales
descubrimientos y nuevas teorías, igualmente fundamentales.

—ooOoo—

1.2 Norma científica

Una hipótesis es una conjetura basada sobre el conocimiento disponible como premisa hacia la
solución de un problema. La hipótesis puede ser muy específica o muy amplia y, usualmente, no se
mantiene más allá del trabajo en curso. Una hipótesis “probada” se convierte en un postulado o una
ley. Todos hacemos esas conjeturas. “Seguramente mi socio cobró el importe”. También deducimos
y predecimos: “si es así, debemos tener dinero en el banco”; finalmente, empleamos medios de
comprobación, “consultaré para ver si tal es el caso”. Análogamente, el fiscal hipotetizará la culpa
del acusado sobre la posible coincidencia de las huellas digitales de éste con las halladas en el
arma homicida, deducirá que el acusado, entonces, se hallaba en el sitio del crimen; y comprobará
esta conclusión con el testimonio de una persona y las imágenes de las cámaras de seguridad. O,
finalmente, ver un relámpago, hipotetizar que habrá un trueno y verificar si éste se produce.
En la práctica, lo único que distingue a la ciencia del conocimiento obtenido diariamente por
14 Métodos Cap. 1

“sentido común”, es el mayor cuidado de la primera en la etapa de observación y el mayor rigor en la


del razonamiento. En las ciencias, todos los métodos deben seguir la norma científica de observar
con objetividad y razonar con rigor . Es así como se hacen avances sistemáticos y descu-
brimientos notables; el del planeta Neptuno, predicho sobre la base de cálculos derivados de las
irregularidades en la órbita de Urano, es un buen ejemplo. Son pues los métodos particulares de
observación y razonamiento los que califican a los datos con los que la teoría trabaja, inclusive,
quienes hacen las observaciones y quienes elaboran las teorías son personas tan diferentes que
hasta su denominación profesional subraya la distinción de sus actividades (físicos experimentales
y físicos teóricos). Por lo demás, se entiende que -como en toda actividad humana- la práctica
científica involucra un insalvable ejercicio de buen criterio: hay buenos y malos experimentos y
hay buenas y malas teorías. Otra vez, descartar las últimas y conservar las primeras es una evolu-
ción selectiva realizada colectivamente. Las corroboraciones, las refutaciones (contraejemplos), las
contrastaciones, las predicciones y las aplicaciones son sólo partes de tal proceso.

La actividad inquisitiva no es predecible ni está preprogramada; no todas las observaciones


conducen a hipótesis o a teorías y muchas de las hipótesis son “de trabajo”, sólo sirven para avanzar
en determinados problemas. Al final, las soluciones, descubrimientos y progresos en física son el
producto del trabajo de muchas personas; teóricos, experimentales, diseñadores de instrumentos,
metrologistas, etcétera. Ni siquiera existe una “última autoridad” para dar fe de que las nuevas
conclusiones satisfacen requisitos de veracidad e importancia; la “comunidad científica” simple-
mente las aceptará -o no- juzgando desde las publicaciones especializadas. Por otra parte, las leyes
científicas son generalizaciones referentes a grupos de fenómenos, “explicar”, al fin de cuentas,
significa “generalizar” (Reichenbach); sin embargo, es una empresa que implica dedicación y efi-
ciencia pues no toda generalización es una ley; entonces, la disciplina científica -inclusive en sus
disposiciones más crudas- constituye la forma definitiva para hallar el conocimiento más confiable
el cual, al ser aplicado, conduce a la tecnología. El conocimiento verdaderamente científico no es
ignorable o soslayable (no es materia de simple opinión). Hay registros históricos de casos en que
los prejuicios anticientíficos condujeron a desastres. La certidumbre apunta siempre al control del
mundo objetivo; el dominio de los fenómenos con fines prefijados es la prueba final de ella. El
progreso de la ciencia misma se basa, pues, sobre su predictibilidad.

En los hechos, esa norma o disciplina científica (objetividad y rigor) se extiende a todas las
operaciones necesarias, aplicables según su pertinencia. Por ejemplo, al análisis de los datos para,
eventualmente, la formulación de hipótesis; al desarrollo de éstas mediante inferencia deductiva
para, quizá, la formulación de principios, postulados y leyes; a la construcción de teorías o mode-
§ 1.3 Certificación 15

los adecuados; o a la confirmación empírica de las consecuencias de la teoría, sus predicciones o


aplicaciones. Semejante actividad implica, ciertamente, una gran cantidad de métodos. Científicos
todos ellos.

—ooOoo—

1.3 Certificación

La física es un emprendimiento social, y el trabajo científico debe ser aceptado por la comu-
nidad científica cuando ha sido evaluado y confirmado. Los resultados experimentales y teóricos
deben ser reproducibles (por otros miembros de esa comunidad o por cualquier persona). Ahora,
la ciencia es menos una construcción por individuos resolviendo acertijos en privado y más el
rendimiento de profesionales trabajando en equipos o hasta en redes. Por eso, la comunicación de
resultados es muy importante. Ahora, no es extraordinario que la práctica consuetudinaria constru-
ya, con el tiempo, instituciones sociales muy estables. Así, los artículos científicos se aprueban para
publicación mediante un proceso llamado “revisión por pares” en revistas especializadas. General-
mente, los manuscritos se envían a dos o tres colegas científicos (árbitros anónimos) familiarizados
con la especialidad evaluada. La función del árbitro es recomendar la publicación siempre que no se
detecten errores obvios, plagio, o sólo sean necesarias algunas modificaciones menores. El propó-
sito -en principio- es juzgar el nivel del trabajo, no el contenido o los procedimientos empleados; a
veces, también recomendar el envío a otra revista. Este recurso es ya de larga práctica y, aunque no
libre de críticas, parece inexorablemente vigente y rigurosamente aplicado. La evaluación por pares
no garantiza la certeza de los manuscritos presentados; sólo está destinado a verificar que, sobre la
base del tratamiento de los autores, el trabajo es adecuado para los niveles de calidad de la revista.
Es la forma en que cada proyecto se certifica; difícilmente un físico aceptará otro juicio sobre
sus procedimientos. Tiene sentido, pues el destino de los artículos científicos es la superviviencia
del epistemológicamente más sólido e importante. De paso, es significativo el que la redacción
de las publicaciones científicas se organizan según cierto “interés epistemológico” (con su propia
secuencia “introducción - nudo - desenlace”): tendrán una introducción, para exponer la importancia
y el objetivo del asunto; unas secciones de antecedentes, mostrando brevemente lo que ya se sabe
del problema; las secciones del trabajo original y, al final, las conclusiones que resumirán los logros
y evaluarán el grado en que los objetivos señalados en la parte introductoria fueron alcanzados.
¿Cómo se distingue lo científico de lo que no lo es? En filosofía de la ciencia, se hace mención
16 Métodos Cap. 1

-a veces- al argumento de Karl Popper acerca de “falsar” las teorías como criterio de cientificidad
(“racionalismo crítico”). Se dice que una propiedad central de la ciencia es su “falsabilidad”, esto es,
que toda declaración genuinamente científica, al menos en principio, debe se capaz de ser probada
falsa. Aunque usualmente se buscan y prueban los puntos que parecen más dudosos, se asegura que
un gran número de confirmaciones exitosas no son convincentes, pues surgen de experimentos que
evitan riesgos. Una hipótesis científica es falsable si es posible identificar un posible resultado de
experimento u observación que conflictúe con predicciones deducidas desde la hipótesis. Contrastar
una teoría significa intentar refutarla mediante un contraejemplo; si no es posible refutarla, dicha
teoría queda «corroborada», pudiendo ser aceptada provisionalmente, pero no verificada; es decir,
ninguna teoría es absolutamente verdadera, sino a lo sumo «no refutada». El falsacionismo y el
método científico, al parecer, son más populares entre los filósofos que entre los científicos. A
este respecto, es inevitable el recordar la famosa anécdota de los “Cien autores contra Einstein”
publicado en 1931 en la Alemania nazi. Preguntado acerca del ese libro, Einstein replicó: “¿Por qué
100 autores? ¡Si yo estuviera equivocado, entonces uno hubiera sido suficiente!” Las falsaciones son
tan dudosas, pues, como las verificaciones. Si no se es capaz de verificar la certeza de una hipótesis,
entonces, por el mismo argumento, tampoco la prueba de falsedad es enteramente confiable y
necesitará confirmación repetida. Entonces, el racionalismo crítico de Popper ¡no es falsable! y,
bueno, tampoco es científico.

El conocimiento, en general, no es necesariamente verdadero, es sólo probable. Las prediccio-


nes son, igualmente, siempre estadísticas; sujetas a mayor o menor “ruido aleatorio”. De ninguna
manera esa realidad es soluble o ignorable. Nuestros sentidos, igual que nuestros instrumentos,
tienen inexactitudes e imprecisiones. La predisposición heurística es, por tanto, inevitable; es un
proceso lento, indefinido y contingente que requiere inteligencia, criterio, imaginación, creatividad,
inventiva, sagacidad e ingenio. A eso se refería, quizá, Louis Pasteur diciendo “La suerte favorece a
la mente preparada”. Y aquí pertenece también la sugerencia, adelantada por William de Ockham,
de dar precedencia a la simplicidad: “pluralitas non est ponenda sine necessitate” (“la pluralidad
no debe ser puesta sin necesidad”); también citada como un principio (“en iguales condiciones, la
explicación más sencilla debe ser la más probable”) y que todo físico sabe -con pesar- que no se
cumple justo en el caso que más le preocupa.

—ooOoo—
§ 1.4 Cantidad y cualidad 17

1.4 Cantidad y cualidad

No es cierto que la ciencia tenga que ver con “paradigmas” (cualquiera sea el significado
de los tantos que ahora tiene esa palabra) reemplazando a otros “paradigmas”. La ciencia, aun la
matemática, es una evolución continua y falible, donde es la comunidad de investigadores la que
revisa el progreso y corrige los errores cuando los encuentra. La mecánica clásica, la cuántica y la
relativista fueron presentadas como tres paradigmas independientes, indicando explícitamente que
no era posible recuperar los conceptos clásicos a partir de la relatividad, por ejemplo. En los hechos,
la física clásica es el límite de la cuántica para masas “grandes” y de la relativista para velocidades
“pequeñas“, eso y el que la transición es gradual se encuentra demostrado en más de un libro de
texto. No, en física los paradigmas no tienen lugar.
Aunque hay una actividad interpretativa de la física, ésta es una práctica, no un método que
se aprende y se aplica mecánicamente. Además, siempre tiene también esa otra parte mundana,
destinada a maximizar los recursos disponibles en tiempo, dinero y energía en el momento de decidir
en qué trabajar, cómo expresar los resultados o dónde aplicarlos. Al final, los fundamentos lógicos
y conceptuales de la física implican la mejor descripción actual del mundo, la metafísica, ontología
y -en gran parte- la epistemología que los antiguos buscaron. El uso exagerado de la clasificación
del pensamiento filosófico en “escuelas” (principalmente derivado del afán de encontrar un único
principio para la explicación ontológica) es ya totalmente inapropiado, abusivo e innecesario; denota,
por lo demás, la presencia de teorías mal construidas y, por lo tanto, con grados de credibilidad
demasiado bajos. En física (tomada como modelo comparativo de ciencia), los “ismos” denotan
campos de ocupación o especialidad (nuclearista, clasista, etc.) o efectos técnicos (magnetismo,
astigmatismo,...) pero nunca apego o parcialidad por tendencias o puntos de vista. Los productos de
esa actividad son las teorías y modelos que trascienden los fenómenos y representan a la realidad,
no hay sitio para perspectivas indemostrables: “realismos”, “instrumentalismos”, “nominalismos” o
“idealismos”, porque los análisis realizados solamente sobre la base de esas clasificaciones deberían
ser considerados (y los son, a veces) poco serios, o una clara señal de que determinados conceptos
no poseen todavía el respaldo objetivo requerido. Para los aficionados a esas terminaciones, si
hay algún “ismo” aplicable, la física es muy positivista. Sólo trata con propiedades accesibles a la
observación directa, esto es, a la medición. En física, lo que no es mensurable no tiene sentido, no
existe, y nada hay que se pueda hacer al respecto.
Como ya se insinuó, la disciplina científica en las ciencias básicas es inculcada en el investiga-
dor, desde sus primeros cursos de estudiante, como una norma de procedimiento. El uso adecuado
18 Métodos Cap. 1

de instrumentos, el tratamiento de los datos y el rigor racional del análisis son hábitos permanen-
temente evaluados sobre la base de los resultados o conclusiones. Pues, gran parte de la práctica
filosófica y científica está destinada a reducir el grado de imprecisión en las definiciones de los
conceptos. Sin embargo, ellos contienen también un grado de imprecisión “intrínseca”. Bertrand
Russell dice:
“Todo conocimiento es en cierto grado dudoso, y no podemos decir qué grado de
dudosidad le hace dejar de ser conocimiento, como tampoco podemos decir cuánta
caída de cabello hace calvo a un hombre.”

Los adelantos de la ciencia moderna no hubieran sido posibles si no hubiéramos aprendido a


convivir -y de varias maneras- con la contingencia propia de nuestros medios de información y su
resultado: una percepción puede ser tan tenue que exista la duda de si fue real o imaginada; un
recuerdo tan vago que se dude de su autenticidad; un hecho puede o no ser necesariamente seguido
de otro hecho, etc. Por tanto, los juicios sintéticos heredan una insalvable contingencia que debe
ser reducida sólo en el marco de la autoconsistencia del saber global. Nunca estaremos seguros de
si todos los cuervos son negros -no importa cuántos cuervos observados tengan ese color- a menos
que se encuentre una explicación necesaria para ello. Usualmente la explicación sólo será probable,
por lo que, en el mejor de los casos, sólo habremos reducido en mayor o menor medida nuestra
incertidumbre acerca del color de los cuervos.
La introducción de un concepto de probabilidad inteligible y -a veces- cuantificable es, claro,
el avance epistemológico más notable, especialmente en la parte que concierne a las ciencias de la
naturaleza. La física es el ejemplo más conspicuo y, tal vez, terminal de ello. La física es una ciencia
privilegiada por un motivo muy importante: su carácter fundamentalmente cuantitativo. Ningún
concepto no mensurable puede ser introducido en su cuerpo de conocimientos, esto garantiza su ob-
jetividad (lo cuantitativo es siempre más objetivo que lo cualitativo) y la predispone a la racionalidad
de inmediato. Si no entra uno en demasiadas precisiones, se podría decir que su “método general”es
completamente aristotélico (inductivo, deductivo). En los hechos, excepto por regiones periféricas y
muy especiales de su área de estudio, la física involucra un problema epistemológico. Los sistemas
conceptuales de la física son teorías que, confirmadas o no, siempre tienen un grado de “dudosidad
intrínseca” evaluable, en principio, a través de la teoría de probabilidades (aplicada casi como otra
teoría física más). Cuestiones como la contrastación y “demarcación” se dan automáticamente por
la práctica colectiva, donde los resultados de un investigador son permanentemente verificados por
cientos de otros investigadores, desde el momento de su comunicación. Se tiene, así, un sistema
autoconsistente de conocimientos, en todos los sentidos, alcances y consecuencias. La búsqueda de
esta coherencia interna ha sido, de hecho, motivo de algunos descubrimientos importantes.
§ 1.4 Cantidad y cualidad 19

Finalmente, la aplicación del conocimiento científico a la satisfacción de las necesidades


humanas, conocida como tecnología, es seguramente uno de los factores más determinantes en los
procesos de cambio social. Asociada como está a la economía, estilo de vida e influencia general de
los países, obviamente no es materia opcional para el análisis sociológico ni para la práctica política.
Las tesis marxistas referentes a las contradicciones entre los modos de producción (la manera en se
organiza la división del trabajo) y el desarrollo de los medios de producción (la tecnología) como
motor de cambio social, por ejemplo, muestran razonablemente que no es posible eludir a la ciencia
en un análisis fino de los temas sociales.
Un conjunto de elementos, conceptual o funcionalmente conectados, que contribuyen a un
objetivo común, constituye un sistema. En un cuerpo de conocimientos, los “elementos” pueden
ser, a su vez, subsistemas (teorías) orgánicamente estructurados. Por ejemplo, las diferentes teorías
de la física no sólo no se contradicen una a la otra, sino que siempre deben complementarse cuando
son empleadas para analizar un sistema físico real (como un átomo o una estrella). Uno no puede
realizar este análisis afirmando que “según fulano (un físico), de acuerdo a tal cita, este sistema
debería comportarse de cierta manera, pero siguiendo a zutano (otro físico) en la página 26 de su
afamado libro, el mismo sistema debería, más bien, comportarse de esta otra manera por lo que,
quizá, lo más razonable es tomar un punto intermedio, ...” Cuando un fenómeno es descubierto o una
teoría es formulada y aceptada por la comunidad científica, usualmente el nombre del descubridor
o autor, según el caso, se mantiene asociado al efecto o la teoría, pero nunca se valora el uno o la
otra por el peso de la autoridad académica de aquél.

RR
Dos
Espacio, tiempo y materia

2.1 Espacio
Si el “espacio” fuera algo independiente de la conciencia humana, e independiente de la
materia, ¿qué podría ser? Isaac Newton escribió:

“El espacio absoluto, en su propia naturaleza, sin relación con algo externo, permanece
siempre similar e inmóvil.”

Sin embargo, el espacio absoluto de Newton no es la única forma de concebir el espacio; la idea
de que el espacio podría ser una abstracción a partir de las relaciones entre las cosas materiales ya
estaba presente en el siglo XVII, según Gottfried Leibniz,

“espacio es lo que resulta de lugares tomados juntos.”

Un siglo después, Immanuel Kant, para explicar la capacidad geométrica humana, introdujo el
espacio “a priori” embebido en la mente desde el nacimiento y permitiendo, así, la estructuración
de las sensaciones captadas desde el exterior.
La mecánica clásica o newtoniana presupone el espacio absoluto [1]. Esto es, que existe
independientemente del observador, de la materia, es tridimensional, homogéneo e infinito y,
además, euclídeo. Esa concepción parece estar inmediatamente de acuerdo con la intuición que
se obtiene de la experiencia repetida: los objetos parecen encontrarse en sitios donde pueden ser
reemplazados unos por otros, esos sitios parecen ser parte de un contenedor, de un “espacio vacío”
donde las masas ocupan esos “lugares”. El término “masa” deriva del latín “massa” que significa
montón de pasta o mezcla de panadería. Fue frecuentemente confundido con el “peso” en el pasado.
En física fue introducido al parecer por Newton, con una definición ya obsoleta pero que explica la
elección de esa palabra:

“La cantidad de materia es la medida de la misma, apareciendo desde su densidad y


volumen conjuntamente.”

20
§ 2.1 Espacio 21

Newton mismo usó los términos “pondus” y “gravitas” en el sentido de “peso” (más peso, más
materia) pero es muy evidente que no confundía cantidad de materia con fuerza gravitacional [8]:
“... entiendo esta cantidad siempre que uso el término “cuerpo” o “masa” en las si-
guientes páginas. Puedo siempre conocerla del peso de un cuerpo, porque –haciendo
muy precisos experimentos con péndulos– he encontrado que es proporcional al peso,
como se mostrará más abajo...”

La noción de “inercia” ya estaba presente en Galileo. Newton la introduce como una fuerza resistiva
interna [9]:
“Hay una fuerza implantada [“vis insita”] en la materia que tiene el poder de resistir,
por la cual cada cuerpo, mientras por sí mismo, permanece en sus estado de reposo o
de movimiento uniforme rectilíneo.”
Y también le es atribuible la masa como fuente del campo gravitacional :

“PROPOSICIÓN VI. TEOREMA VI Que todos los cuerpos gravitan hacia cada planeta,
y que los pesos de los cuerpos hacia cualquier planeta, a iguales distancias del centro del
planeta, son proporcionales a la cantidad de materia que ellos separadamente contienen.”

Aun así, la “acción a distancia” no fue una idea cómoda para Newton, ni para sus contemporáneos.
Los conceptos nítidos de masa inercial y masa gravitacional cristalizaron posteriormente.
Por otra parte, se suele sugerir que la primera ley de Newton (“en ausencia de fuerza, el
movimiento es uniforme y lineal”) sería derivable de la segunda (“la aceleración es proporcional a
la fuerza ejercida”) pues, anulando la fuerza, la aceleración se anula y eso implica que la velocidad
es constante. Obviamente no es así. La “ley de inercia” es necesaria para garantizar la existencia
de al menos un sistema inercial, que para Newton era el espacio entero; es respecto de éste que los
sistemas no inerciales (acelerados) -como el cubo rotante con agua- presentan fuerzas adicionales
(las actuales “fuerzas inerciales”) que impiden el movimiento uniforme y rectilíneo. Entonces, un
“sistema inercial” puede ser definido como el sistema de referencia en el cual la primera ley
se satisface. Son estos sistemas de referencia los que están conectados mediante transformaciones
del grupo de Galileo y que garantizan el completo desarrollo de la mecánica, la cual se adapta
completamente a un formalismo matemático que es el análisis vectorial y a una geometría que
es una abstracción de las propiedades del los objetos materiales. Esa mecánica es compatible
también, por supuesto, con una interpretación no newtoniana del espacio o casi con cualquier otra
interpretación porque su dominio es siempre local. Su aplicación exige la definición de “sistema de
referencia” general -el que se usa para describir la dinámica-; es un “sistema físico” (una colección
de partículas) al cual se le asocia un “sistema de coordenadas” (una variedad diferencial abstracta).
Cuando uno de estos sistemas de referencia acelera, su geometría deja de ser euclídea y es posible,
más bien, expresarla como localmente riemmaniana.
22 Espacio, tiempo y materia Cap. 2

Desde luego, los conceptos geométricos también se forman desde las percepciones; por eso,
nuestro espacio local se conforma a la geometría euclídea, pero en cosmología se evidencian
desviaciones importantes. Kant estaba, pues, equivocado; el espacio no puede ser a priori. El
espacio es una propiedad intrínseca de los objetos que la mente generaliza “a posteriori”; los
objetos son intrascendentes, extensos y tridimensionales. La tridimensionalidad puede ser abstraída
y generalizada para construir espacios simbólicos de mayor dimensionalidad (v.g., el espacio de
fases de la mecánica analítica). Mas, no es posible saber por qué el espacio físico es tridimensional,
como no es posible saber por qué el universo está compuesto de materia y no de antimateria. Kant
arguyó que la tridimensionalidad se debe a que las fuerzas, por ejemplo la de atracción gravitacional,
varían con el cuadrado de la distancia. Pero esa variación sólo muestra la compatibilidad entre las
propiedades materiales, no de que una se deba a la otra. Hay alguna referencia a que, quizá, la
tridimensionalidad es la mínima que permite la evolución causal del universo y que, junto al resto
de los otros atributos materiales, apareció en el origen del mismo, o siempre estuvo ahí.

En cuanto a la naturaleza misma del espacio, se dice que el debate que enfrentó a Leibniz y
Newton sobre la filosofía del espacio y del tiempo sigue vigente entre “relacionistas” (seguidores de
Leibniz) y “sustancialistas” (seguidores de Newton). ¿Cómo es posible? Ni Leibniz -con su abstracto
sistema de relaciones-, ni Newton -más interesado en asentar su dinámica- tenían la información y
base experimental sobre la cual ahora es posible definir con claridad el concepto físico de espacio.

Actualmente no es raro que se logre 10−13 atmósferas en laboratorio, mientras las estimaciones
en el espacio exterior van hasta 10−18 atmósferas. Pero lograr un vacío absoluto es, desde luego,
imposible, como lo es el cero absoluto de temperatura. Ahora, regiones sin objetos (átomos, mo-
léculas), ¿pueden ser consideradas completamente vacías? No. El concepto de “objeto” que tenían
Leibniz y Newton ya no es válido. Ahora sabemos que los objetos emanan campos de fuerzas a su
alrededor. Así, una sonda probando una región supuestamente vacía tendrá asociado -por su masa-
al menos su campo gravitacional, si está cargada tendrá un campo eléctrico superpuesto y si se
mueve, se añadirá un campo magnético; el resultado será que -aún en ausencia de otros objetos-
será imposible concluir que hay un espacio vacío. Para colmo, fenómenos experimentales como el
desplazamiento de Lamb, fuerzas de van der Waals y efectos Casimir [2] apuntan a que el estado más
bajo de energía -según la mecánica cuántica- no es cero; entonces el “espacio vacío” consistiría en
algo llamado “vacío cuántico”, un mar de partículas virtuales inestables cuyas fluctuaciones crearían
y destruirían pares de partículas reales con observables consecuencias; en el corrimiento de Lamb,
por ejemplo, las propiedades espectrales del hidrógeno son influenciadas por esas fluctuaciones del
vacío [10]. No, el espacio no en un contenedor absoluto; ni es una abstracción resultante de las
§ 2.2 Tiempo 23

relaciones entre los cuerpos. El espacio es una propiedad de la materia y es, a su vez, ¡un objeto
material! Macroscópicamente, es una superposición de campos que dependen de la distribución de
materia, se extienden infinitamente y su geometría está definida por el campo gravitacional total. Y,
como corolario filosófico final, ¡“la nada” es imposible!

—ooOoo—

2.2 Tiempo
No es difícil imaginar las situaciones en las que no había humanos y en las que no los habrá.
En ellas, el universo en movimiento existía y existirá sin duda. Pero no existía ni existirá un registro
temporal. ¿Dónde estaba y estará el tiempo? ¿Tiene la palabra “tiempo” un referente [11]?
También hubo épocas en que la humanidad no tenía relojes. Para varias culturas antiguas, la
primera forma de registrar el paso de los días fue el calendario lunar, ajustado al ritmo solar con
la añadidura periódica de un mes; y servía sólo para regular las labores agrícolas y celebrar días
festivos. Se tiene y usa el tiempo que es necesario; aun hoy hay personas cuyo uso y registro de
tiempos es mínimo. Sólo la complejidad creciente de la vida social y la necesidad de ciencia llevaron
al refinamiento del calendario y la invención de los relojes. El tiempo, para empezar, parece algo
muy humano.
Al igual que para el espacio, Isaac Newton formalizó su dinámica sobre la base de un tiempo
absoluto:
“El tiempo absoluto, verdadero y matemático, en sí y por su propia naturaleza fluye
uniformemente sin relación a nada externo, y por otro nombre se llama duración: tiempo
relativo, aparente y común, es una medida sensible y exterior (precisa o imprecisa), de la
duración mediante el movimiento, usada comúnmente en lugar del verdadero tiempo...”

También, para que no quepa duda:

“Todas las cosas están colocadas en el tiempo según orden de sucesión, y en el espacio
según orden de situación.”

Para su contemporáneo Leibniz, el tiempo era algo ideal, relativo y local. No hay un flujo universal
de tiempo; relacionado con la materia, el tiempo es sólo una serie de sucesos. Análogamente al
concepto de espacio, Kant describe al tiempo como una “intuición a priori”, una estructura mental,
categoría pura, que permite secuenciar eventos y estimar duraciones. El punto crucial aristotélico
en la cuestión del tiempo es que el tiempo no existe independientemente del movimiento, implica
que no hay tiempo vacío. Si nada deviene, el tiempo no transcurre y es inútil tratar de imaginar
24 Espacio, tiempo y materia Cap. 2

un intervalo de tiempo donde nada acaece. En efecto, Aristóteles fue seguramente el primero en
formular la duda de si el “tiempo” es una entidad ideal o si existe independientemente de la mente;
y lo definió como “la medida del movimiento respecto del antes y el después”. Para Descartes y
Spinoza el tiempo era sólo “un modo de pensar” pues la distinción entre éste y el movimiento es
puramente racional. Leibniz decía que el tiempo era una entidad ideal “el orden de los eventos no
contemporáneos”. La posición de Newton, se puede decir, es muy radical; es de los primeros en
considerar al tiempo como una entidad concreta, “una cosa”, a diferencia de las construcciones
matemáticas. El éxito de su mecánica acalló la polémica hasta el advenimiento de la teoría de
la relatividad y llevó a varios filósofos a ver al tiempo como sinónimo de “flujo” o de cambio.
Contrariamente, los físicos prefieren considerar al tiempo sólo como una magnitud accesible a la
medición. En respuesta a Bergson (quien argüía que el tiempo no era sólo un asunto de los físicos),
Einstein afirmó que “no hay tal cosa como el tiempo de los filósofos”, para él -como para Newton-
hay un tiempo físico y objetivo; pero, también, hay un tiempo subjetivo, sicológico. Bueno, ¿objetivo
o subjetivo?

Veamos. Un criterio débil de objetividad se refiere a aquello en lo que todos podemos ponernos
de acuerdo, como la hora oficial. El criterio fuerte de la objetividad es el que se refiere a algo que
existe aún si nadie lo observa, como el átomo. El conocimiento científico emplea ambos criterios y
no se ocupa, por tanto, del conocimiento subjetivo (que no puede ser compartido). Más formalmente:

(i) Intersubjetividad. Objetividad atribuible a través de juicios que pueden ser consecuencia
de acuerdo público (“La unidad de tiempo es el segundo”).
(ii) Asubjetividad. Objetividad atribuible a través de juicios que afirman hechos absolutamente
independientes de la naturaleza, subjetividad, percepción y presencia humanas (“La Tierra
orbita alrededor del Sol”).

Entes como el dinero, la economía, el lenguaje o la temperatura, al igual que el tiempo, poseen
la objetividad (i) pero no la (ii). En cambio, los objetos materiales, sus movimientos y procesos
poseen ambos tipos de objetividad (son verdaderamente existentes o estrictamente objetivos). En
las teorías físicas, los formalismos matemáticos no siempre hacen precisiones al momento de las
definiciones de variables. Por ejemplo, la temperatura es un parámetro que indica la intensidad de
los movimientos microscópicos (traslación, rotación, vibración) moleculares que son los fenómenos
objetivos en el sentido de (ii) y que se representan con los conceptos de energía interna y calor.
Los termómetros son dispositivos que usan alguna propiedad que varía más o menos en proporción
lineal con la energía interna, como la longitud del mercurio dentro de un tubo capilar. Ahora, en lo
que concierne al tiempo, Kenneth Denbigh [12] lo expresa muy bien:
§ 2.2 Tiempo 25

“... el tiempo es a menudo equivocadamente pensado como si fuera algún tipo de


existente...esta reificación del tiempo necesita ser evitada. El tiempo no está ‘ahí afuera’
como una cosa sustancial, como un río en flujo; es más bien una entidad abstracta,
una construcción. Las cosas que están ‘ahí afuera’, sobre las cuales la construcción del
tiempo se basa, son los objetos materiales y sus eventos y procesos...”

La conclusión sigue de inmediato, si uno no se asusta de ella: el tiempo, siendo una construcción
sólo puede poseer la objetividad (i) y no es -por tanto- un existente. ¿Es posible probar ésto?
El tiempo es una de las magnitudes mecánicas fundamentales y necesita, como la distancia y
la masa, de un específico procedimiento de medición. En el caso de las últimas, tal procedimiento
es directo pues basta definir una unidad patrón y la medida deviene por comparación con ella;
distancias con distancias, masas con masas. En el caso del tiempo, sin embargo, la definición de la
unidad requiere -necesariamente- de
(a) la ubicación de un movimiento periódico (porque los cambios periódicos son previsibles).
(b) un sistema de registro (escalas o contadores).
Esta es la “definición operativa” de un reloj. Entonces la medida deviene por comparación de
cualquier otro cambio con el movimiento adoptado en (a) y usando el registro (b). Por tanto, no
se comparan tiempos con tiempos, sino ¡cambios con cambios! El tiempo es, así, dado mediante
una cantidad indirecta: un ángulo, como en relojes clásicos, o una serie numérica, como en relojes
digitales. En otros términos, el tiempo es un parámetro (una variable numérica auxiliar) asociado
a la variedad de relojes. La “cosa” que posee objetividad (ii) a este respecto es, evidentemente, el
movimiento o, más generalmente, el cambio; por ser accesible a la observación directa, aunque no
fácilmente a la medición.
Y, no hay manera de evitarlo, la conclusión final es que el tiempo no existe. Es sólo un
parámetro convencional que determina simultaneidades y, en lo que sigue, será usado -y
referido- como tal.
Es fácil ilustrar lo dicho con las usuales experiencias de fenómenos periódicos que empezaron
con la sucesión de días y noches (somos seres nictémeros), luego -cuando fue útil- se tomó la
sucesión de estaciones y, después -ya técnicamente- la rotación y traslación terrestres, el péndulo
gravitacional, el péndulo elástico (el mecanismo de escape de los relojes mecánicos), las vibracio-
nes de un cristal de cuarzo (resonancia a una frecuencia estable mediante el efecto piezoeléctrico,
en los relojes digitales), o los relojes atómicos, los más precisos en existencia, basados sobre las
transiciones entre dos niveles de energía en los átomos de iterbio, provocadas por un rayo láser
pulsante; son estables dentro de dos partes en un trillón (2 × 10−18 ). No importa el dispositivo,
importa que pueda ser usado para determinar lapsos (duración de procesos, como en las competen-
cias deportivas) o sincronías (simultaneidad de eventos, como en los calendarios). La regularidad
26 Espacio, tiempo y materia Cap. 2

resulta y se precisa mediante una sistemática comparación entre los diversos fenómenos periódicos
(¡relojes!) disponibles.

Las construcciones paramétricas (v. g., la temperatura) en las ciencias son comunes y se
introducen para simplificar formalismos que describen conjuntos de fenómenos. El caso del tiempo
es, de todos modos, particularmente importante porque se impone de inmediato como una necesidad
experimental primaria. Si bien una formulación “atemporal” de la mecánica es imaginable, ésta
conduciría a complicaciones extremas e intratables. No obstante, el concepto de tiempo como
construcción paramétrica tiene consecuencias filosóficas de evidente interés. Un hecho sicológico
accesible a la experiencia es el de que la noción de tiempo no podría formarse en una mente
sometida a un ambiente inmutable, en el que absolutamente nada cambiara; tampoco en una mente
sometida a un ambiente totalmente caótico -sin regularidades perceptibles-. El tiempo sicológico
es, por tanto, una estimación imprecisa del tiempo físico, como lo comprueba el hecho de que las
personas de habitos muy regulares, las cotidianamente rutinarias, son las más capaces de estimar
lapsos con razonable aproximación. Por otra parte, expresiones como “me pareció una eternidad”,
caen tanto dentro de las impresiones subjetivas como “estaba tan cansado que cada escalón parecía
un muro”. Las distinciones que se hacen entre tiempos sicológico, biológico, físico, etc., sólo tiene
validez formal y anecdótica. Todos esos tiempos tienen la misma procedencia, a saber, la necesidad
de sincronizar sistemas, entre ellos la conciencia humana, con un mundo en permanente cambio.
Así, cuando uno trata de imaginar cómo se podría experimentar una “duración” sin experimentar
“cambios”, se concluye rápidamente que los tres aspectos que, según Kant, caracterizan al tiempo
-duración, sucesión y coexistencia- en realidad caracterizan al movimiento.

Naturalmente, las respuestas a interrogantes como la direccionalidad del tiempo o si éste po-
see un origen absoluto (t=0), son ahora inmediatas. Como parámetro comparativo entre tipos de
movimiento o cambio, el tiempo es una cantidad escalar (un número real) con origen arbitrario;
su dirección (signo) es, en consecuencia, también convencional y está referida a ese origen. Por
ejemplo, si alguien sostuviera que el universo comenzó en t=0, bastaría sustituir “t” por un nuevo
parámetro temporal logarítmico t’ = log(t) y el universo resultaría no tener origen en el tiempo
pues t0 = log(0) → −∞ (infinito en el pasado). El corolario final es que lo único que existe inde-
pendientemente de la consciencia humana es el universo en movimiento. Todas sus descripciones,
aún las más científicas, desaparecerán al desaparecer la humanidad. Pero entre los términos usados,
los hay que son convencionales, sólo tienen la objetividad débil del tipo (i) y otros, positivos con
objetividad del tipo (ii). A la pregunta de si la física podría valerse sin la ayuda del tiempo, puesto
que éste no es una magnitud física en el sentido en que lo son la distancia y la masa, se responde que
§ 2.3 Materia 27

sí, pero la formulación resultante sería inútilmente complicada [13]. El tiempo, como parámetro,
puede ser siempre reemplazado por otro parámetro. En astronomía hay una equivalencia natural
entre ángulos (ángulos horarios) y lapsos. En dinámica, es conocido el ejemplo sencillo de que la
ecuación unidimensional: F = mdv/dt se puede transformar fácilmente, haciendo d/dt = (ds/dt)(d/ds)
= v(d/ds), en

2
dv m dv 2 d( mv2 )
F = mv = =
ds 2 ds ds
y considerar a la velocidad como función de la longitud de arco en el lugar del tiempo (como
también se hace en relatividad). La cantidad entre paréntesis es la energía cinética y v(s) podría ser
medida, por ejemplo, tomando la velocidad de la luz, c, como unidad. El carácter auxiliar del tiempo
se hace, así, evidente y los problemas concomitantes a su naturaleza, los significados de “presente”,
“duración” o el sentido o dirección del tiempo se clarifican definitivamente desde esta perspectiva.
Lo importante es no confundir el tiempo con el movimiento (que es el caso en muchos autores). El
cambio general, la sucesión de estados del universo, no tiene retorno, el parámetro tiempo nos da
la simultaneidad de los estados de un sistema físico con las marcas del reloj, definido según (a) y
(b). Por ejemplo, en vez de recurrir al calendario, uno podría referir acontecimientos midiendo las
revoluciones terrestres en ángulo continuo. Esto es, en los hechos, el tiempo es determinado directa-
mente por referencia a los eventos que ocurren simultáneamente a un movimiento o cambio regular.

—ooOoo—

2.3 Materia
Como en toda la ciencia, en física no hay una magnitud, variable o parámetro asociado al
término “materia” (tal vez porque no necesita separarla de la “forma” o del “espíritu”), y es usado
-igual que en filosofía- para referirse a la “la sustancia del universo”. Es un concepto que se ha ido
detallando con el mayor conocimiento acerca de la “sustancia”, pasando de “lo que es accesible a los
sentidos” a “algo que tiene masa y volumen”, “lo que está compuesto de átomos”, “todo aquello que
ocupa una región del espaciotiempo y es perceptible o detectable con instrumentos de medición”,
y “cualquier cosa compuesta de quarks y leptones”; según las escalas de longitud y masa que se
considere.
Para la filosofía es importante también, desde luego, afinar las respuestas para saber en qué
consiste esa sustancia de la que el universo está compuesto. Al parecer el monismo filosófico tuvo
28 Espacio, tiempo y materia Cap. 2

que ser tempranamente abandonado y se aceptó una “química” rudimentaria de cuatro “elementos”
(agua, fuego, tierra y aire). El propio atomismo moderno descubrió, más tarde, que el átomo
era divisible y hecho de partículas eléctricamente cargadas, activando una secuencia de otros
descubrimientos mostrando que la sustancia material admitía estructuras internas con gránulos que
varían en tamaño y cualidad; quarks, leptones, átomos, moléculas, materiales, estrellas, galaxias y
así siguiendo. En cierto modo, al terminar la era de los modelos mecánicos, las otras escalas de la
realidad deben ser descritas mediante modelos matemáticos.
Las cosas no “consisten de materia”, son de alguna clase de materia. “Materia” es la abstracción
para la substancia de todo lo que existe. Entonces, sólo se ve formas de materia. En física se usa
en expresiones como “materia condensada”, “materia elemental”, “materia bariónica”, “materia
oscura”, o -cómo no- “antimateria”; siempre en el sentido de “algo compuesto de”. Para dar cuenta
de la “sustancia”, se hace referencia al “modelo estándar” (quarks, leptones y bosones); los quarks
y leptones interaccionan mediante cuatro fuerzas fundamentales (gravedad, electromagnetismo,
interacciones débil y fuerte). Es la mejor explicación que hasta ahora se haya logrado en física y
es momentáneamente suficiente para entender la subestructura atómica, pero es ontológicamente
insuficiente. Así, a baja energía, cuando un electrón encuentra a su antipartícula, e− + e+ → 2γ, su
carga eléctrica y su masa desaparecen o se esconden en forma de ¡movimiento! La reacción inversa
es γ → e− + e+ , mostrando que es el fotón el que tiene una estructura a pesar de carecer de masa.
Como sea, el filósofo siempre puede tomar al electrón como ejemplo y, en conocimiento de
que es una partícula muy estable y sin estructura interna, preguntar: ¿pues de qué está hecho el
electrón? La recurrencia de partículas hechas de otras partículas debe tener un límite; en algún
momento esa incómoda pregunta la cual, desde luego es aún incontestable, apunta a una duda muy
válida y auténtica. ¿Es la materia -muy al final- una sustancia continua?

—ooOoo—

2.4 Espaciotiempo

La materia y el movimiento son conceptos empíricos, en el sentido en que no pueden ser defi-
nidos via otros conceptos. Son adquiridos ostensivamente y, en física, se traducen en las magnitudes
fundamentales de masa, longitud y tiempo. La experiencia diaria indica que todo lo que sucede lo
hace en el espacio y el tiempo; mucho antes de la aparición de la teoría de la relatividad la gente
llamaba, a tales ocurrencias, eventos. “Evento”, en todos sus usos, tiene una connotación temporal
§ 2.4 Espaciotiempo 29

que implica “ocurrencia” de algún tipo, es “acaecimiento”. Lo que ocurre entre dos eventos es, por
supuesto, un estado. O, al revés, un evento es el cambio de estado (de un sistema). Ahora, los
eventos están ordenados en cierta sucesión y la mente los percibe y organiza en forma de series
temporales.
¿Es toda la existencia una serie de colecciones de eventos? Sí, esa es una forma de describir
al universo en movimiento y cambio. Desde luego, también todos los procesos dinámicos ocurren
en lugares y tiempos determinados. Por eso, entre las áreas de estudio de la física, la mecánica es
la primera teoría que se estudia. Y, en ella, las definiciones de espacio y tiempo son las primarias,
pues el resto de la descripción dinámica de los sistemas físicos depende de ellas. Para Galileo, y
ciertamente para Newton, el espacio y el tiempo eran muy reales; el movimiento de los objetos
ocurría, entonces, en un contenedor absoluto independiente de ellos al cual, sin dudar, se le asignó
la geometría euclídea. La visión clásica fue la de que el tiempo era el mismo para todos. La
simultaneidad absoluta se refiere a la ocurrencia simultánea de todos los eventos sin importar el
lugar y el sistema de referencia que los describe.
A partir de la teoría de la relatividad especial, los conceptos de espacio y tiempo fueron
formalmente conectados para conformar una variedad de cuatro dimensiones a la que se denomina
espaciotiempo; inicialmente, con métrica de Minkowski, llamada también seudoeuclídea ds2 =
cdt2 − dx2 − dy 2 − dz 2 = δµν dxµ dxν y, posteriormente en relatividad general, con la de Riemman
ds2 = gµν (x)dxµ dxν .
La idea central en esta perspectiva es que el módulo de la velocidad de la luz en el “espacio
vacío” es finito e insuperable. Provino desde el final del siglo xix, cuando James Clerk Maxwell,
habiendo sentado las bases del comportamiento de los campos eléctrico y magnético, dedujo que
la luz es radiación ondulatoria electromagnética propagándose en el espacio con una velocidad

dada por la ecuación c = 1/ µ0 0 . Por otra parte, varios métodos para medir esa cantidad, antes
y después (Roemer, Bradley, Fizeau, Foucault entre otros) rindieron el mismo resultado, dentro de
un aceptable error experimental, no obstante y además de que se hicieron en diferentes marcos
de referencia. Como la electrodinámica en su conjunto no es invariante bajo transformaciones de
Galileo, la dificultad fue temporalmente superada, como se sabe, sugiriendo que, a semejanza del
sonido que viaja en el aire, la luz tenía que propagarse en un medio inerte y omnipresente al que
llamaron “éter lumifero”. Después de la correcta interpretación del famoso experimento de Albert
Abrahan Michelson y Edward Williams Morley -por Albert Einstein- muchas de las ideas relativas
al tiempo, espacio y movimiento, debieron cambiar inevitable y sustancialmente.
El espaciotiempo está ahora completamente ligado a las consecuencias de la teorías relativistas.
30 Espacio, tiempo y materia Cap. 2

En la nueva concepción, la simultaneidad de los eventos depende del estado de movimiento del
sistema de referencia. En tal espaciotiempo, los ritmos de los cambios o movimientos son diferentes
en diferentes marcos de referencia y hay pruebas empíricas confirmando que la geometría del
espacio es definitivamente no euclídea a gran escala. El movimiento del sistema de referencia, aun
si es inercial, hora tiene consecuencias sobre las mediciones. Así, cuanto más rápidamente se mueva
un organismo, tanto más lentamente envejecerá respecto del sistema observador. La simultaneidad
resulta también relativizada; para el filósofo, esto implica la relatividad del “presente”, lo que en
este preciso instante ocurre, para cierto observador es algo en el ya inexistente pasado y para
otro, algo en el todavía no existente futuro. Entonces, ¡el “ahora” es real pero no simultáneo!
Si la “actualidad” no es única, el conjunto de eventos que definen un estado del universo -su
instantánea tridimensional- ya no es estrictamente intersubjetiva. Ahora hay eventos que, en algún
sistema de referencia, pueden ser consecuencia uno de otro (“separación temporaloide”: ds2 > 0 ⇒
“separación temporal” >“separación espacial”), los que pueden ser, en cierto sistema de referencia,
simultáneos (“separación espacialoide”: ds2 < 0 ⇒ “separación temporal” <“separación espacial”)
y los que están separados por eventos que sólo pueden ser conectados mediante haces de luz
(“separación luminoide”: ds2 = 0 “separación temporal” = “separación espacial”) que define
el llamado “cono de luz” en cada punto del espaciotiempo; a diferencia del espacio euclídeo
tridimensional, donde un intervalo nulo sólo indica que dos eventos ocurren en el mismo lugar.

El espacio (y el tiempo) newtoniano podría pensarse sin la presencia de ningún objeto material.
Removida la materia éste conservaba toda su estructura. Ese, definitivamente, no es el caso en el
espaciotiempo einsteniano. Por lo dicho en la sec. 1, no hay significado espaciotemporal sin la
presencia del campo gravitacional, esto es, sin la materia. Ya no es posible —ni siquiera teórica-
mente— postular una estructura espaciotemporal independiente. La geometría del espacio físico, lo
sabemos gracias a ciertas consecuencias experimentales de la teoría de la relatividad general, está
definida por la distribución de materia. Filosóficamente esto implica, desde luego, que el espacio
es una característica necesaria de la materia, esto es, que no existe el espacio “puro”. La “nada”
es contraria a las leyes físicas. La dinámica del universo queda modelada mediante una variedad
“tetradimensional” donde la particular métrica de Riemman es hallada -en principio- a partir de las
ecuaciones de campo. Esto es, el momento y la energía son las fuentes del campo gravitacional y
éste -considerando todavía muchos detalles- define la geometría del espacio.

Como en todas la áreas de la física, uno debe ser muy cuidadoso con la interpretación física
de las posibilidades y resultados matemáticos. En ausencia de materia, ¿es “plana” la geometría?
Tal vez, esa es una de las soluciones de las ecuaciones de Einstein sin fuentes Gµν = 0. Pero
§ 2.4 Espaciotiempo 31

estas ecuaciones son muy complicadas; usualmente las soluciones son sugeridas proponiendo una
métrica con ciertas características deseables y ajustándola con las ecuaciones de campo. Así, la
solución de Schwarzschild podría requerir que Gµν se anule en todo el espacio excepto en el origen
r = 0 y lo mismo valdría para el tensor de Ricci. Como en el caso del campo electrostático de
una carga puntual, la fuente de la métrica de Schwarzschild es una masa puntual en r=0 (descrita
por una función delta). Sin embargo, el tensor de Riemann que contiene la información completa
de la curvatura, tiene componentes no nulas para esta métrica. Ahora, en principio, una solución
de vacío no implica espaciotiempo plano. Obviamente, es posible obtener soluciones “no planas”
para Gµν = 0 (soluciones de vacío) e interpretarlas -no muy seriamente- como si describieran
la geometría de todo el espaciotiempo, omitiendo las fuentes materiales (u ocultándolas en otros
parámetros). En ausencia de respaldo experimental, desde luego, esos ejercicios teóricos corren
el riesgo de devenir, al final, sólo en complicadas especulaciones. Otras soluciones se adaptan a
casos particulares, sobre todo en cosmología, así, se tiene mucha evidencia experimental en favor
de la existencia de una constante cosmológica positiva. Las fuentes del tensor de energía momento
contribuyen a más que sólo a la curvatura del espaciotiempo, lo hacen de modo lineal a la métrica.
De manera simplificada, se dice que corresponde a una “expansión del universo”. La evidencia
observacional sugirió, en los noventas del siglo pasado, que esa expansión era acelerada. Para
incorporar tal información en el modelo relativista, se reintrodujo la constante cosmológica. El
modelo Einstein - de Sitter en un artículo conjunto de 1932, es una particularmente simple solución
de las ecuaciones de campo para un universo en expansión; ellos arguyeron que podría haber
grandes cantidades de materia que no emiten luz y, por tanto, no han sido detectadas. Actualmente
esa es precisamente la llamada “materia oscura”, cuyos efectos gravitacionales han sido observados
aunque su naturaleza es todavía desconocida y es objeto de intensa investigación actual.

En el espaciotiempo, que es una construcción formal, homogénea e isotrópica, el tiempo y el


espacio conservan las propiedades descritas en las secciones 1 y 2. En particular, cuestiones enga-
ñosas como “dirección temporal”, “flecha del tiempo” o “flujo del tiempo” dejan de tener sentido;
las relaciones de antes y después, pasado y futuro, etc., mantienen su uso normal en el sistema
de referencia local. Pero es el lienzo donde se retratan las facciones de una teoría poco cotidiana.
Es comprensible que los lugares donde esa teoría lo permite, aparecerán interpretaciones, formula-
ciones y especulaciones sobre fenómenos no corroborados o no corroborables empíricamente. Ahí
están la “paradoja de los gemelos” y la “paradoja del abuelo”, relacionadas con el comportamiento
de los lapsos relativistas. Esta última, particularmente, alimentada por la persistente idea de que
los viajes en el tiempo se harían posibles superando la velocidad de la luz (relatividad especial) o
32 Espacio, tiempo y materia Cap. 2

atravesando ciertos túneles espacio - temporales (relatividad general).


El efecto de dilatación temporal consiste en que, para un observador estacionario, el tiempo
parece transcurrir más lentamente para sistemas moviéndose con gran rapidez. Como ya se demostró,
físicamente, el tiempo es sólo un parámetro que marca simultaneidades; lo que ocurre es que el
reloj móvil tendrá un transcurso más lento, hasta casi detenerse según su velocidad se aproxima a la
de la luz. Esto es experimentalmente observable pero, ¿correrá inversamente si la velocidad supera
la de la luz? Bueno, nunca lo sabremos. Simplemente, el movimiento superluminoso es imposible.
Finalmente, el tensor métrico de la relatividad general tiene 10 componentes independientes,
por lo que es posible determinar matemáticamente algunas geometrías teóricas apropiadas a la espe-
culación espaciotemporal. Kurt Gödel, por ejemplo, mostró que algunas soluciones a las ecuaciones
de campo contienen rizos temporaloides. Otros encontraron hipersuperficies cilíndricas, agujeros
de gusano transitables y demás estructuras que harían posibles -en el papel- los viajes al pasado y al
futuro, principalmente porque incluyen “curvas temporales” cerradas. Pues no. No todas las geome-
trías en el espaciotiempo son físicamente significativas. Ahora, para que haya viajes en el tiempo, es
inevitable aceptar una cronorealidad (un tiempo real); pero, si el tiempo fuera un existente, la pre-
gunta de si el tiempo del viajero existe en el tiempo transitado es perfectamente válida y conduce a
una absurda regresión de tiempos existiendo dentro de tiempos. No. Jamás habrá viajes en el tiempo.


RR
Tres
Sistemas

3.1 Temperatura

Científicamente -por supuesto- pero también filosóficamente, fue muy importante saber, gra-
cias al descubrimiento de James P. Joule, de que el calor era energía y no cierta clase de fluido
invisible. Para entonces, el desarrollo de la termodinámica ya era vigoroso, paralelamente al de
los motores -los aparatos que convierten energía en trabajo- que fueron los primeros sistemas
térmicos bajo estudio detallado y la preocupación por su eficiencia remató en el ajuste del concep-
to de entropía para representar la indisponibilidad, en el sistema, de energía térmica convertible
en trabajo mecánico. Los trabajos de Nicholas Leonard Sadi Carnot, Rudolf Clausius, Lord Kelvin
y otros, formalizaron la teoría estableciendo esa segunda ley, que tanto ha dado que teorizar.
El principio de conservación de la energía implica la intercambiabilidad de todas las “formas
de energía” y debía incluir también a la calorífica. El origen de la perplejidad estaba en que no
es posible recuperar todo el trabajo hecho sobre un sistema donde la “energía mecánica” se ha
convertido en calor. “El principio de degradación de la energía” decía Kelvin, como si el calor
fuera una energía de menor calidad o “grado”. Para evaluar la incidencia de este efecto en las
transformaciones termodinámicas, tan ligado a la estimación de la eficiencia, se introdujo, ya como
una variable (la entropía), calculada según la variación del calor faltante por unidad de temperatura.
Se observó que en pocos casos las transiciones dentro de sistemas aislados son reversibles, dejando
el valor de la entropía invariante; más bien, el trabajo experimental verificó que el incremento
de la entropía indicaba la irreversibilidad del proceso siendo esa la tendencia más frecuente.
¿Qué clase de energía es, pues, el calor? “Energía térmica” es sólo un nombre y se usó para
distinguirlo de la energías de “grado alto” que, en última instancia, se referían -como todas- a las
energías cinética y potencial. Los físicos, aprendiendo a lidiar con los hechos, tomaron a las leyes
de la “termodinámica fenomenológica” como meros decretos; hasta que la intuición de la nueva
generación -Ludwig Boltzmann, Josiah W. Gibbs y varios otros- permitió ver los mismos fenómenos

33
34 Sistemas Cap. 3

desde una perspectiva diferente.

Todo sistema físico es una colección de partículas (puntos con masa). Es muy curioso, pero un
sistema de tres partículas carece ya de solución analítica y, de ahí en adelante, las soluciones, si son
requeridas, deben ser numéricas (computacionales). Hay también otras estrategias de solución para
sistemas con muchas partículas; en casos especiales como los cuerpos rígidos, las distancias entre
puntos son fijas, dejando sólo seis “grados de libertad” para las ecuaciones de movimiento, solubles
en principio. Otros sistemas interesantes son los que pueden ser considerados como continuos: un
cuerpo elástico o un fluido con características propias y ecuaciones de movimiento que permiten
sorprendentes soluciones. Para sistemas de muchas partículas libres o semilibres, por otra parte, no
únicamente la complejidad alcanza a la obvia inutilidad de un tratamiento mecánico individualizado
sino a la manera en que la energía es distribuida en el sistema. La importante hipótesis de que las
peculiaridades del calor y la temperatura estaban relacionadas de algún modo con el movimiento
atómico y molecular resultó exitosa, al punto de explicar elegantemente la naturaleza del calor y
erigir a la “mecánica estadística” como la teoría explicativa de la “termodinámica fenomenológica”,
cuyas leyes se derivan de la primera, deviniendo ahora como teoremas. Entonces, después de todo,
¿son los sistemas térmicos, en realidad, sólo sistemas mecánicos?

Sí, para un sistema de n partículas, el conjunto de todas las posiciones y momentos, conforman
un espacio 2n dimensional llamado espacio de fases. Un punto en este espacio representa, claro,
a un estado del sistema. Ahora, en vez de perseguir individualmente a cada partícula, se divide
el espacio en celdas, cada una de ellas contendrá cierto número de estados vecinos y el recuento
estadístico de las todas las celdas, según las condiciones del modelo, proporcionará una distribución
de probabilidades, la cual se usará para calcular las magnitudes físicas accesibles a la medición.
Esto es, los estados térmicos devienen macroestados, mientras que la descripción dinámica de
todas la moléculas (posiciones y momentos) constituye un microestado. Los macroestados son
accesibles a los instrumentos de medición; los microestados son accesibles al cálculo probabilístico
y estadístico. Una vez que estas tareas han sido completadas, la hipótesis ergódica supone
que, en un sistema aislado, todos los microestados permitidos serán eventualmente ocupados en el
tiempo.

El comportamiento energético de estos sistemas tardó en ser explicado pero ahí estaba. Si
se lanza un millón de dólares por la ventana de un edificio, seguramente será luego muy difícil
recuperarlo, por la cantidad de posibles “sumideros”. Análogamente, el tratamiento probabilístico
concluye que el calor resultó ser “energía mecánica” que se transmite en forma desordenada y su
recuperación, por tanto, sólo es parcialmente posible. Es esa “energía térmica” faltante la que está
§ 3.1 Temperatura 35

señalada por el valor de la entropía. Por otra parte, la probabilidad de un estado varía directamente
con el número de microestados que le pertenecen. Pero, también, el cálculo indica que cuanto más
probable es un estado, mayor es su entropía. Siendo que los estados de mayor probabilidad son los
estados de equilibrio; una vez fuera del equilibrio, el estado evolucionará naturalmente hacia sus
estado de máxima entropía, en la versión estadística de la segunda ley. El criterio es que ningún
cambio, en tales condiciones, puede resultar en una disminución de entropía. Ahora, para que este
concepto estadístico de entropía coincida con su definición fenomenológica -y también las de otras
magnitudes-, es necesaria la introducción del parámetro T, coincidente con la temperatura absoluta.

Es interesante que la energía interna en los sistemas térmicos tiene propiedades que, dentro
de intervalos razonables, pueden considerarse muy lineales (variaciones de presión, volumen o
dilataciones dimensionales) y ser usadas, entonces, para medir su magnitud. La palabra latina
“temperatura” que significa “templanza, moderación”, fue introducida por Robert Boyle, y usada
desde entonces, como el parámetro que indica -proporcionalmente- el grado de calor; en el sentido
de interpolaciones entre lo frío y lo caliente, puntos fijos de referencia. Siguiendo a Ole Rømer, Gay-
Lussac y otros que estudiaron el efecto de la temperatura en el gas “ideal” a presión constante, se
observa el incremento de volumen en fracciones fijas de 1/267 por grado Celsius; la extrapolación
de la recta corregida condujo, posteriormente, al importante concepto de cero absoluto. Es,
obviamente, la temperatura más baja posible y un punto que no se puede alcanzar; por acuerdo
internacional, corresponde a la temperatura de - 273.15 °C y es el origen de la escala de Kelvin (T
= 0 K). Heike Kamerlingh Onnes consiguió licuar helio en 1908, en 1911 descubrió el fenómeno de
la superconductividad mostrando que el mercurio pierde su resistencia aléctrica a 4.12 K. Una de
las temperatura más cercanas al cero absoluto, obtenidas en laboratorio, es de 100 pK, producida en
2001 enfriando cerca de un gramo de rodio metálico. Ahora, físicamente, en el cero absoluto todas
las sustancias se solidificarían, excepto el helio; dentro del sistema, los átomos o moléculas perderían
todo desplazamiento, rotación y vibración, implicando que la energía interna habría alcanzado su
nivel más bajo posible.

Finalmente, la temperatura es sólo una etiqueta asociada a una propiedad de la materia; sin
materia no hay temperatura; por tanto, el vacío no tendría temperatura. Sin embargo, la energía
térmica es la energía debida al movimiento desordenado de los átomos o moléculas; mientras haya
ese movimiento, el sistema no llegará al cero absoluto. Esto significa que en una región donde
hubiera un vacío completo (absolutamente sin partículas u ondas), no habría energía detectable y
el medidor marcaría cero. Como experimentalmente esos puntos -cero absoluto, vacío absoluto y
energía térmica nula- son imposibles de lograr, en la teoría sólo tienen valor como puntos asin-
36 Sistemas Cap. 3

tóticamente aproximables. También, la prueba estadística del teorema de Nernst concluirá que la
entropía en el cero absoluto tiene algún valor pequeño y constante que, convenientemente, puede
ser tomado como cero.

—ooOoo—

3.2 Fluctuaciones

En términos fenomenológicos, si la tendencia al incremento permanente de la entropía es


correcta, la conclusión debe ser la de que el universo debe estar muriendo lentamente con todas sus
formas de energía convirtiéndose en calor y arribando, finalmente, a un equilibrio térmico del cual
estaría condenado a jamás emerger. De esta “muerte térmica del universo” se desprendió también
la curiosa idea de que el tiempo es anisotrópico; que su “flecha” está orientada siempre hacia el
futuro y nunca al revés [14].
La teoría de probabilidades y los métodos estadísticos se usaron, en física, principalmente en
metrología; la distribución gaussiana -conocida como curva normal de errores- proviene de esas
prácticas y el determinismo para el universo no estaba amenazado por esas pequeñas fluctuaciones
en las medidas que, no obstante, ya implican la imposibilidad de conocer los verdaderos valores
de las magnitudes físicas. La teoría probabilística de la termodinámica, en cambio, tiene por
principal consecuencia la aleatoriedad intrínseca del conocimiento. ¿Es estocástico el universo?
Sí, lo es. Sólo se puede saber lo que se observa y razona, y ambas actividades reflejarán, al final,
únicamente promedios sobre enormes cantidades de microestados. Análogamente, lo que parecía
definitivo se tornará dudoso. Un ejemplo importante es el contenido de la segunda ley en sentido de
que los cambios dentro de sistemas aislados implican siempre un valor igual o mayor de entropía.
En cambio, como teorema, su demostración probará que esos cambios sólo “muy probablemente”
conducirán a un estado con igual o mayor entropía.
Ahora que la entropía es un concepto estadístico, “probablemente” significa que las excepcio-
nes son posibles, especialmente en lapsos grandes; que el principio ergódico se aplicará también a
las fluctuaciones estadísticas, esto es, que con suficiente tiempo, aun las configuraciones infinitesi-
malmente probables pueden ocurrir; es así cómo un planeta tan improbable como la Tierra existe.
La probabilidad de que un recipiente con agua hirviendo se congele sorpresivamente en el acto es
muy, muy pequeña; pero existe. También es imaginable que, luego de una muerte térmica, una muy
poco probable fluctuación estadística concentre el todo en una especie de punto cero -de un “big
§ 3.3 El tiempo, otra vez 37

bang”- iniciando un nuevo universo.


Ya entre los estudiantes de física, la teoría de probabilidades, especialmente su empleo implí-
cito, conlleva cierto nivel de dificultad. No es extraño, entonces, que la asociación de la entropía con
el desorden haya resultado muy problemática al comienzo. Se mencionaba el que nuestro universo
no parecía tan caótico después de todo; Ludwig Boltzmann en 1896, adelantó que el universo, aun
si estuviera completamente al azar, esto es, en equilibrio térmico, puede fluctuar espontáneamente
hacia estados locales de más baja entropía (más ordenados). Ernst Zermelo adujo, sobre la base del
“teorema de recurrencia” de Poincaré (para sistemas dinámicos descritos por una ecuación diferen-
cial ordinaria, sus estados regresarán, después de un tiempo suficientemente largo pero finito, a un
estado igual o cercano al inicial), que, dado un tiempo infinito, existiría un perpetuo reciclaje sobre
todos los posibles estados del sistema, provocando transiciones periódicas en vez de una situación
estacionaria. Pero, ya en términos clásicos, el universo -como sistema- no cumpliría las premisas
de Poincaré. Además, Zermelo subestimó el peso de los macroestados resultantes de la distribución
maxwelliana. En realidad, por su naturaleza estadística, esa distribución se encuadra también en
los teoremas de recurrencia. Las recurrencias, una vez evaluadas, resultan tan poco probables que
bien pudieran ser consideradas como inobservables dentro de lapsos razonables. Más bien, para
los físicos, el conocimiento actual de los sistemas complejos permite respaldar el argumento de
Boltzmann. Para los filósofos, precisamente el estado actual de las cosas, que requeriría una ex-
plicación acerca de por qué nuestro universo es más ordenado de lo que debiera, el razonamiento
probabilístico es el único que puede sugerir respuestas razonables. Se trata de procesos estocásticos,
de propiedades físicas “deterministas” a las que la probabilidad se subsume o se superpone. Para la
información actualmente disponible, entonces, o el universo es todavía joven o ¿qué hacer? indica
que es el resultado de una improbable fluctuación hacia menor entropía en medio de un baño térmico
que existe desde un tiempo increíblemente largo. La entropía es básicamente desorden, el desorden
es más probable que el orden, por tanto la entropía fue más baja en el pasado y ahora es más baja
de lo que lo será en el futuro. Salvo fluctuaciones estadísticas [3].

—ooOoo—

3.3 El tiempo, otra vez

Es muy extraño, pero si lo que se observa son cambios y movimientos en sucesión, ¿por qué
se piensa que es el tiempo el que fluye del pasado al futuro y se define ese hecho como anisotropía?
38 Sistemas Cap. 3

¿Y que la segunda ley de la termodinámica puede ser adecuada para marcar tal dirección temporal?
Según algunos, el universo habría empezado en un estado poco probable y haría una larga evolución
hacia su estado de máxima probabilidad mediante una serie de estados con alta entropía, definiendo
la “flecha del tiempo”. Sin embargo, la secuencia de estados, la compleja evolución del universo,
denotaría mejor -si las flechas fueran desesperadamente necesarias- una “flecha del movimiento” o
“flecha del cambio” pues el tiempo es sólo algo que etiqueta la secuencia.
Procesos como la disolución del azúcar en el té son, desde luego, irreversibles como muchos
otros. La reversibilidad de la dinámica particular es eliminada por la descripción estadística y el
resultado es un sistema en equilibrio donde el movimiento microscópico de las partículas depende
del tiempo pero no el estado macroscópico. Dado que el tratamiento mecánico es irrelevante, el
tratamiento probabilístico explicará el proceso como el paso de un estado inicial de baja entropía
a un estado final de alta entropía. Si este último es el más probable, el sistema habrá llegado a su
estado de equilibrio y, a partir de ese instante, los estados sucesivos serán indistinguibles.
Los sistemas en equilibrio son atemporales, esto es, ninguna ecuación que los describa contiene
el parámetro tiempo. Ludwig Boltzmann, interpretó ese hecho atribuyéndo a que, en el equilibrio,
las dos direcciones del tiempo son indistinguibles, es decir que el tiempo sería isótropo como el es-
pacio. Según él, el universo ya estaría en su muerte térmica y la anisotropía temporal que se observa
sería atribuible a una perturbación, una notoria fluctuación local, entre otras que ocurrirían aquí y
allá en el espacio. Pero el argumento de partida es insuficiente: el tiempo surge de la comparación y
registro entre los cambios o movimientos arbitrarios y un movimiento periódico (un reloj); si todos
los movimientos son aleatorios, no hay relojes, no hay registro y, simplemente, no hay tiempo. Es
claro, por tanto, que relacionar al tiempo -o su inexistente “flecha”- con el comportamiento entró-
pico es un recurso especulativo inútil pues la física estadística admite la posibilidad de transiciones
con decrecimiento de entropía. Por supuesto, en el transcurso de las vidas humanas, se observará
preferentemente los fenómenos más probables. Y es así cómo el universo evoluciona. Nótese que
el pasado es relevante sólo para algunos seres vivos, con propósitos de supervivencia -sin duda- y
son ellos los que lo registran más o menos con cierta fidelidad y significación, seguramente para
predecir situaciones de ventaja o peligro futuros (para aprender). Esos residuos indirectos son todo
lo que dejan los estados pasados del universo local. ¿Cómo podría, toda la complejidad universal,
revertirse exactamente? El tiempo no es isotrópico ni anisotrópico; el tiempo es un simple parámetro
que marca simultaneidades locales. No es algo real.

—ooOoo—
§ 3.4 El noúmeno del fenómeno 39

3.4 El noúmeno del fenómeno

¿Se ha reducido la termodinámica a la mecánica estadística? No. Muchos métodos de in-


vestigación y aplicación siguen aún la línea clásica pero con mayor enriquecimiento en la parte
explicativa e interpretativa, haciendo de los logros de la física experimental notables y caras joyas
del conocimiento. La criofísica es un ejemplo.
El propósito principal de la termodinámica fenomenológica es encontrar las relaciones útiles
entre las variables macroscópicas involucradas en los procesos de intercambio energético, en gran
parte con miras a obtener mayor trabajo con menor energía. La explicación microscópica, la teoría
del calor, muy relacionada con la física de sistemas complejos, no modifica los métodos fenome-
nológicos. Más bien, extiende los alcances de la teoría a varios fenómenos antes no contemplados.
Desde luego, éste no es un proceso de reducción epistemológica, ¿cómo una teoría específica podría
ser reducida a otra más amplia? Los libros de texto y los cursos universitarios siguen exponiendo
las dos disciplinas, a veces independientemente, pero dejando siempre establecido de que una es
parte especial de la otra. Inclusión, no reducción.
Entonces, el objetivo de la mecánica estadística es la deducción de propiedades macroscópicas
a partir de las leyes establecidas para los microsistemas. El éxito de sus aplicaciones radica en
que, trabajando con grandes cantidades de elementos, aún los efectos poco probables ocurren con
frecuencia (la estadística se comporta según lo esperado y los teoremas adquieren certidumbre en
promedio). La inquietud acerca del comportamiento aleatorio radica en la aparición relativamente
tardía de la teoría de probabilidades y sus implicaciones en ciencia y más aún en filosofía. A
muchos les fue difícil el abandono de un universo completamente determinado por los valores
iniciales de posiciones y momentos de sus partículas y por las leyes de la mecánica, aunque sólo
fuera en principio. Es, quizá, la inevitable dificultad -o inutilidad- computacional para integrar las
ecuaciones de movimiento en enormes sistemas la que indujo a la idea de recurrir a la estadística.
Ésta permite promediar sobre valores posibles, dado el desconocimiento de los valores instantáneos,
un procedimiento característico en sistemas complejos, colecciones de componentes en interacción
donde, a pesar de que éstos puedan considerarse determinísticos, el conjunto tendrá características
aleatorias.
Filosóficamente, la primera ley de la termodinámica no ha merecido especial atención pues
todo el mundo espera que, en un sistema cerrado, la energía total se conserve. Es la segunda ley la
que suscita todavía largas exposiciones sobre cierta misteriosa unidirectionalidad de los procesos.
¿Sería más tranquilizador si los procesos se pudieran revertir? ¿Si, por ejemplo, los muchos pedazos
40 Sistemas Cap. 3

de un vaso roto se juntaran espontáneamente y se soldaran reconstruyendo el objeto? ¿Si el calor


fluyera de la región fría a la caliente? ¿Si la entropía -que es el núcleo del problema- tuviera siempre
un valor constante? Definitivamente no. La Tierra con todos su detalles, incluyendo a los filósofos
de la física, es el resultado de procesos muy complejos y muy unidireccionales, donde la energía
de baja entropía es permanentemente transformada en trabajo y energía de alta entropía, pero con
evidentes excepciones locales. El cálculo moderno de la entropía es, básicamente, el de Ludwig
Boltzmann; contando todos los posibles microestados -representados en el espacio de fases- del
sistema y, entre ellos, los más probables. Una entropía mayor significa que hay muchas maneras en
que un estado significativo puede ocurrir. Si P es la probabilidad de que el sistema se encuentre en
cierto estado, entonces S = klnP (donde k es la constante de Boltzmann) y S será máxima en el
estado (de equilibrio) para el cual P es máxima.
La mecánica estadística es, sin duda, uno de los mayores avances científicos fundamentales,
junto con las mecánicas clásica, relativista y cuántica y el electromagnetismo. Al contener una
exhaustiva explicación de los fenómenos térmicos, sus alcances teóricos efectivos en otras áreas
como la física de materiales o la cosmología están más que comprobados. Filosóficamente, deja
allanada una visión metafísica y ontológica bastante menos acomodada a la costumbre clásica, con
un universo abrumadoramente aleatorio, si se ha de juzgar por digresiones como “flechas en el
tiempo”, “hipótesis del pasado”, “cerebros de Boltzmann” y otras.


RR
Cuatro
Macrosistemas

4.1 Relatividad especial

El principio de relatividad (las leyes de la física son invariantes bajo transformaciones


que conectan sistemas inerciales), aunque no es usual enfatizarlo, es válida para la mecánica clásica
y se usa para demostrar que sus leyes son invariantes bajo el grupo de Galileo, transformaciones
lineales entre sistemas donde se satisface la primera ley de Newton. Pero, para cuando Albert Mi-
chelson y Edward Morley dieron a conocer el resultado negativo de su experimento (la detección del
viento etéreo), el que las leyes del electromagnetismo no eran invariantes bajo esas transformaciones
ya era un problema en varias reconocidas mentes. El trabajo de Einstein consistió en examinar las
consecuencias de dos postulados:
(i) Principio de relatividad.
(ii) Postulado de Einstein: La velocidad de la luz (c) es una constante universal.
Es fácil ver que, siendo la propagación de la luz un fenómeno electromagnético, bastará buscar el
grupo de transformaciones que dejan invariante la ecuación de onda (las ecuaciones de Maxwell
la implican de varias maneras). El resultado es, ahora, el grupo de Lorentz siempre que se permita
al tiempo, en la forma x0 = ct, participar de la transformación. En la nueva teoría, por sistema
inercial se entiende, precisamente, un sistema de referencia donde la velocidad de la luz es constante.
Las consecuencias posteriores se dan de manera muy directa trabajando en el espaciotiempo de
Minkowski (x0 , x1 , x2 , x3 ) con métrica seudoeuclídea, ahora las distancias espacio temporales como
el elemento de arco ds2 = (x0 )2 − (x1 )2 − (x2 )2 − (x3 )2 son invariantes bajo transformaciones
de Lorentz. Algo que ocurre en un lugar y a un instante, en este espacio se denomina un evento.
El hecho de que matemáticamente el tiempo sea afectado por el cambio de observador implica,
físicamente, que el movimiento es afectado. Las consecuencias son las mencionadas en la sección
2.3: en un sistema en movimiento relativo respecto de uno “en reposo”, todo cambio transcurrirá más
lentamente, incluyendo, por supuesto, a los relojes (“dilatación temporal”); los objetos reducirán su

41
42 Macrosistemas Cap. 4

dimensión el sentido de su desplazamiento (“contracción espacial”) y, lo que es más sorprendente,


los eventos simultáneos para un observador no lo serán para el otro. El desarrollo posterior de la
teoría proporcionó también la ya muy verificada (en las reacciones nucleares) mutación equivalente
entre la masa y la energía (E = mc2 ) [15].
Desde luego, los efectos relativistas no ocurren en la familiaridad cotidiana. Sus manifestacio-
nes y aplicaciones se dan en el manejo de partículas muy energéticas (las que, por su masa pequeña,
pueden ser aceleradas hasta velocidades muy altas). Por ejemplo, la dilatación temporal es inmedia-
tamente constatada en los muones que provienen de los rayos cósmicos, cuya vida media (2.197 µs)
apenas les permitiría recorrer cerca de medio kilómetro y no los más de diez kilómetros de atmósfera
terrestre; también, las correcciones relativistas por contracción longitudinal son necesarias para el
correcto funcionamiento de ciertos aparatos (como los ciclotrones), etc. Hay, desde luego, algunos
detalles conceptuales filosóficamente interesantes, pero que deben ser tratados con cautela. El par
de gemelos, uno de los cuales hace un viaje de ida y vuelta a grandes velocidades; ambos, cuando
se encuentren, deberían haber envejecido menos respecto del otro. La aparente paradoja radica en
que no pueden ser más jóvenes y más viejos al mismo tiempo. Pero la aceleración no es relativa.
El viajero que cambió la velocidad de su sistema para regresar tiene que haber sufrido un punto de
retorno mediante -por ejemplo- una vuelta semicircular, dejando que sistema terrestre (digamos)
sea considerado “en reposo”. Un intento de evitar la aceleración de retorno ha sido el de idear una
serie de universos cerrados de modo que un viaje en una dirección termine en el mismo punto de
partida; no hay salida, para comparar relojes el viajero tendrá que frenar (como los muones en la
superficie terrestre).

—ooOoo—

4.2 Relatividad general

La teoría relativista de la gravedad se desarrolla, en su mayor parte, basada sobre el principio


de equivalencia: Las propiedades del movimiento en un sistema inercial cuando existe un campo
gravitatorio son localmente equivalentes a las propiedades de movimiento del sistema considerado
como no inercial.
Esto es, la equivalencia entre las masas inercial y gravitacional, algo que a pesar de su aparente
obviedad fue motivo de muchas consideraciones; por ejemplo, es el motivo por el cual las masas
diferentes en el experimento de Galileo caen siempre al mismo tiempo. La aplicación directa del
§ 4.2 Relatividad general 43

principio hace que las ecuaciones de movimiento sólo dependan del espaciotiempo, esto es, que las
trayectorias son curvas geométricas en lugar de resultantes dinámicas de la acción de un campo de
fuerzas. También, el formalismo matemático se desprende de un análisis detallado del paso desde
un sistema inercial a uno acelerado. El conjunto complementario, las ecuaciones de campo, fue
postulado también por Einstein, completando la imagen macroscópica de un espaciotiempo cuya
estructura geométrica está generada por la distribución del momento y la energía. Las soluciones,
en general, implicarán que las trayectorias de los cuerpos materiales, “libres de fuerzas”, son
geodésicas (rectas sólo en ausencia de gravitación). Los rayos de luz se desvían en presencia
de un campo gravitatorio porque, igualmente, trazan geodésicas en la topología resultante. El
cálculo cuidadoso de este efecto se confirmó con la observación de Arthur Eddington hecha durante
el eclipse solar de 1919 [4], otros eclipses y, por otra parte, la dinámica de púlsares binarios
observados en radiofrecuencias. Más aún, se produjo ya la detección de ondas gravitacionales
predichas en soluciones específicas de las ecuaciones de campo [16].

Para la filosofía, es el final definitivo del esquema kantiano. Ni el espacio ni el tiempo son
intuiciones a priori. No únicamente la noción de espacio es abstraído de la experiencia, también
los detalles de su geometría deben ser verificados -al final- experimentalmente. El enigma de la
“verdadera geometría del universo”, que ya ciertamente no es euclídea, es un problema físico a ser
tratado con métodos pertinentes. Pues, como la pretensión de Galileo de medir la velocidad de la
luz con un par de linternas, el intento empírico de Gauss para determinar la estructura geométrica
del espacio triangulando las cimas de ciertas montañas y el teórico de Poincaré por demostrar
la inutilidad de cualquier ensayo por descubrir cuál geometría se aplica al espacio mediante un
experimento muestran, más bien, la facilidad con que la intuición sobre magnitudes y escalas se
puede extraviar y, eventualmente, acabar en concepciones erróneas sobre la realidad.

En la cosmología actual, aún no se entiende bien cómo se formó nuestro universo. No es posible
estimar la probabilidad de que un universo como éste ocurra. No se tiene datos observacionales
acerca de otros universos y, por supuesto, no hay el menor indicio que sugiera la existencia de
uno o más universos aparte del nuestro. Todavía no existe una teoría aceptable para describir
conclusivamente las características de sólo un universo; menos, desde luego, se puede considerar
extrapolaciones caprichosas como los multiversos. Jamás se sabrá con seguridad si las propiedades
cósmicas ocurren al azar o son necesarias y si, con otras configuraciones y estructuras, planetas
como la Tierra se haría más o menos posibles y los “seres inteligentes” más o menos probables.
La idea (que se conoce como principio antrópico) de que el universo actual es sólo uno entre una
multitud, y que sus características son las que son, precisamente porque, de otro modo los humanos
44 Macrosistemas Cap. 4

no existirían para observarlo, no se adecúa a la filosofía de la física (ni a ninguna otra) porque
toda la evidencia apunta a que los humanos somos sólo una especie pasajera, exactamente como
las demás, en un ambiente casi infinito en tamaño y posibilidades. La extrapolación correcta, si
se ha de hacer alguna, sería más bien algo como un principio ergódico generalizado (sec. 3.2):
de que todo lo que es posible en el universo, ocurrirá dado un tiempo suficientemente largo. La
cosmología actual involucra a todos los procesos físicos conocidos y a elaborados sistemas de
observación; también está todavía llena de misterios y descubrimientos sorprendentes. Hace mucho
se esperaba un universo con densidad esférica de masa expandiéndose con ritmo decreciente; en
cambio, el principio cosmológico afirma que la distribución espacial de la materia en el universo
es homogénea e isotrópica a gran escala y está todavía bajo indagación científica. Se supone que
las fuerzas actúan uniformemente por todo el espacio y no producen irregularidades notables; no
obstante, hay evidencia clara de discrepancias como el “Huge-LQG” (Huge Large Quasar Group,
también llamado U1.27).
Quedan, desde luego, una serie de interrogantes válidas pero imposibles de responder. ¿Es el
universo actualmente visible todo el universo? Nunca lo sabremos; no importa cuán sensibles sean
nuestros instrumentos, siempre habrá un límite a su poder de detección. El espaciotiempo no es un
escenario estático donde se representa la dinámica universal; no es, tampoco, la mera relación entre
cuerpos materiales. Es, más bien, un componente activo, objeto (campo) entre los demás objetos
(masas), relacionados por las ecuaciones de Einstein con muchas soluciones posibles. Universos
con sólo una partícula, universos giratorios, “cerrados” (ilimitados pero finitos) en el espacio y el
tiempo. Soluciones con métrica experimentalmente cotejable y otras, seguramente espurias, útiles
únicamente para la especulación matemática. Actualmente, la teoría de la relatividad general es
el recurso teórico para tratar esas cuestiones cosmológicas, siempre complementada con observa-
ciones objetivas y adecuadas. Nada hay a este respecto que sea epistemológicamente ajeno a los
procedimientos de la física.

—ooOoo—

4.3 Cosmología

Para Copérnico y Tolomeo, igual que para Platón, las estrellas estaban fijas en ciertas esferas
celestes. Recién en el siglo xvi Thomas Digges describió a las estrellas como distribuidas unifor-
memente en todo el espacio, con sus brillos dependiendo de la distancia. Como un siglo después,
§ 4.3 Cosmología 45

Thomas Wright sugirió que la Vía Láctea era un conglomerado de estrellas en forma de disco e
Immanuel Kant mencionó un universo infinito conteniendo muchos discos “mundos islas” como
el nuestro. Pero, sin duda, el universo es un lugar más complicado. Un poderoso telescopio de 48
pulgadas le permitió a William Herschel haber localizado unas 2500 nebulosas antes de la mitad
del siglo xix. Edwin Hubble, en 1925, usó el telescopio de 100 pulgadas del monte Wilson para
resolver imágenes estelares en varias nebulosas y, en 1929, halló su famosa ley, la de que todas las
galaxias se alejan con velocidades proporcionales a su distancia desde la tierra. Ese, podría decirse,
es el comienzo de la cosmología moderna que ha mantenido todavía algo de sabor filosófico. Los
telescopios de 100 y 200 pulgadas fueron responsables aún por otros 20 años de enriquecimiento
observacional hasta que el desarrollo del radar condujo a la radio astronomía y, con ella, a otro
aumento de importantes descubrimientos: cuásares in 1962, la radiación térmica de fondo en 1965
y los púlsares en 1967. Actualmente, los progresos en la obtención de datos con medios como
globos, cohetes y satélites, astronomía de rayos X, rayos gama y, más recientemente, los telescopios
espaciales Hubble y James Webb -aparte de la nueva generación de telescopios terrestres de 10
metros- son los proveedores de espectaculares imágenes y datos.

la cosmología, que estudia las propiedades del universo a gran escala, ha progresado enorme-
mente en las últimas décadas. El origen y la evolución de grandes cantidades de masa y energía es la
aplicación ideal para los modelos de la relatividad general, especialmente a los tan necesitados “no
estáticos”. Así, la curvatura del espaciotiempo aparece muy relacionada a su contenido material,
como debe ser si el universo se expande de acuerdo a las predicciones relativistas. El conocimiento
del cosmos ha sido lento, acumulativo y autocorregido. Como resultado, se tiene abundante evi-
dencia de que el universo se expande y se enfría; la luz de las galaxias está desplazada hacia el
rojo y éstas se alejan unas de otras. La radiación térmica que permea todo el espacio y las grandes
cantidades de helio y deuterio que contiene indican que el universo era más denso y caliente; esa es
la esencia teóríca alrededor de un “big bang” inicial -matemáticamente, una singularidad espacio
temporal-. Además, las galaxias de hace miles de millones de años (muy lejanas), se ven claramente
más jóvenes, señal de estaban más próximas al tiempo en el que no había galaxias. Detalles más
o menos, esas fuertes evidencias inclinan las explicaciones hacia un comienzo repentino con un
estado actual compuesto de más o menos 5 % de materia ordinaria, 27 % materia oscura y 68 %
de energía oscura. Es el llamado “modelo estándar”, “modelo concordante” o “modelo ΛCDM”
(Lambda Cold Dark Matter).

Actualmente la cosmología es una disciplina muy empírica y los filósofos no pueden contribuir
con respuestas sustanciales a las grandes cuestiones. Pero pueden analizar y cuestionar; la estructura
46 Macrosistemas Cap. 4

general del conocimiento cosmológico requiere claridad y adecuación en sus conceptos básicos.
Así, aparte de proposiciones especulativas (como la de que el universo es sólo parte de un inmenso
multiverso), están los nuevos límites de la explicación científica y los diferentes tipos de subde-
terminación (insuficiente evidencia disponible para sostener una sola hipótesis) y la naturaleza de
las leyes físicas (si la extrapolación de leyes locales esperando que sean universalmente válidas es
justificable). Y todavía están pendientes las viejas y legítimas preocupaciones: ¿porqué el universo
es como es?, ¿tuvo un comienzo?, ¿es finito en extensión?

Los multiversos y razonamientos antrópicos sólo introducen maneras de encajar teorías en


lugares donde la evidencia es escasa; pero, a su vez, no tienen consecuencias comprobables y su
soporte empírico seguramente no mejorará. Más bien, todos los resultados inductivos conducen a
la conclusión de que el universo es contingente, no ofrece motivos para existir y ser como es. Las
respuestas a los otros porqués no pueden ser definitivas; según el modelo concordante (del cual
se afirma que es el modelo más simple en concordancia con las observaciones sobre supernovas
Ia, el fondo de microondas y la estructura global del universo visible), el espacio es plano pero en
expansión; como consecuencia, debe tener una edad finita que es calculada en alrededor de 13.8
miles de millones de años. Por otra parte, que el espacio sea plano no implica que sea infinito y
euclídeo. Una topología podría revelar un universo ilimitado pero finito. Siendo que las ecuaciones
de campo ni el modelo fijan la topología del espaciotiempo, se debe esperar a que esa sea identificada
mediante observaciones futuras. Sin embargo, todos los intentos de resolver las dudas acerca de
tal extensión espacial y de tal pasado conducen, finalmente, hasta los límites del conocimiento
científico actual. La finitud de la velocidad de la luz impide la observación directa y el “horizonte
de partículas” (la distancia máxima desde la cual la luz de las partículas pudieron haber viajado
hasta el observador durante la edad del universo) pone una restricción en las observaciones y es
también una restricción a lo que es posible saber. En el problema de subdeterminación, varios
modelos que difieren en la extensión espacial del universo son compatibles con las mejores teorías
y con las observaciones que es posible hacer. El máximo poder de observación, a medida de que se
acerca, permite delimitar también los alcances del conocimiento y de la ciencia. ¿Es posible inferir
algo acerca de esas partes que están más allá del horizonte? Sólo si las explicaciones acerca de los
rasgos característicos del universo observable lo permitieran, pues la elucidación, sin especulación,
es también un objetivo primario de la ciencia.

¿Incluye el universo vastas cantidades de materia y energía oscuras? Tal inferencia se obtiene
extrapolando la relatividad general. Si se fracasara en la detección de materia oscura, entonces esa
teoría necesitaría cierta reconsideración, porque todos los modelos que involucran esas masas no
§ 4.3 Cosmología 47

vistas están basados sobre ella. ¿Quién sabe? las observaciones podrían revelar más la necesidad
de una nueva teoría de la gravedad antes que nuevos tipos de materia. Pero la idea del big bang es
cada vez menos seriamente cuestionada; al parecer, encaja bastante bien como núcleo del modelo;
las diferencias de enfoque tratan cada vez más sólo con detalles alrededor de esa parte principal.
El universo temprano es interesante porque es uno de los pocos lugares de prueba para la gravedad
cuántica; debe proporcionar el estado inicial que permita inferir las primeras etapas de la evolución
universal, usando las observaciones. Los cosmólogos deberán descubrir, si tal fuera posible, qué
hacía el universo antes de expandirse. Si la teoría inflacionaria debe añadirse al gran esquema
o no, dependiendo de si las mediciones futuras concuerdan con sus señales. Si la evidencia de
materia oscura acumulada alrededor de las partes externas de las galaxias, para dar cuenta de los
movimientos estelares y del gas interior, es convincente. Si, al final, la mayoría estará de acuerdo en
aceptar la desagradable constante cosmológica -o algo equivalente- como agentes de la expansión
acelerada. En efecto, hay todavía mucha tarea pendiente, la cosmología no difiere del resto de la
física: los conceptos se deben ajustar según las observaciones progresan.
Por supuesto que hay escepticismo acerca de la posibilidad de conocer todo el universo.
El modelo concordante lo describe empezando desde un estado temprano con una temperatura
extremadamente alta y luego expandiéndose, enfriándose y desarrollando estructuras (estrellas, ga-
laxias, etc.). Hay notables desafíos evidenciales, las observaciones locales podrían no ser suficientes
para garantizar la extrapolación hacia propiedades globales. Principios generales, como el princi-
pio cosmológico, tampoco tienen sólido soporte. La investigación actual, sin embargo, no parece
compatible con el agnosticismo respecto a las propiedades globales. ¿Cómo es nuestro universo?
Enorme, tal vez infinito; muy viejo, tal vez eterno. Contingente, muy aleatorio y ferozmente violento.


RR
Cinco
Microsistemas

5.1 Mecánica cuántica

En física, determinismo significa que, dado el estado inicial, la ecuaciones de movimiento


y las condiciones de frontera, sólo hay un posible estado final resultante. Ligado como está a los
conceptos de causalidad y predictibilidad, ha sido la preocupación de los filósofos principalmente.
La práctica científica, sobre todo la más moderna, da por sentado que el universo no es determinista
en absoluto. Así, la causalidad es, estrictamente y al final, una asociación estadística, lo mismo que
las predicciones basadas en datos actuales o pasados. El que un fenómeno pueda ser considerado el
efecto de otro es un asunto de altas o bajas probabilidades o de asociaciones que dependen de ellas.
Es frecuente la aserción de que la mecánica clásica es determinista, mientras la mecánica
cuántica no lo es. Obviamente no es el caso. La física es una ciencia experimental; aún en los
ejemplos más sencillos, las mediciones no son precisas como la teoría lo supone y las aplicaciones
concretas deben siempre considerar no únicamente márgenes de tolerancia, sino, a veces, efectos
genuinamente impredecibles como los caóticos. En otros términos, en la realidad, dado un estado
inicial, las ecuaciones de movimiento y las condiciones de frontera, sólo hay alguna probabilidad en
la predicción del estado final. Además, las incertidumbres se superponen: los sistemas “clásicos” la
tienen en los procesos de medición; los sistemas complejos, además, en su espacio de fases y para
los sistemas cuánticos, compuesta con las anteriores, la aleatoriedad en su espacio de soluciones.
Tal “espacio de soluciones” es siempre un espacio de Hilbert | vin (básicamente, un espacio
vectorial de dimensión (n) arbitraria sobre el cuerpo de los números complejos) donde se aplican
las “reglas de correspondencia” que relacionan los objetos matemáticos con los objetos físicos; los
estados cuánticos representados por vectores radiales y las magnitudes dinámicas por operadores
(llamados “observables”), de manera que la información específica contenida en cada estado se
obtiene mediante la ecuación de autovalores. Ahora, entendido eso, los postulados físicos son:
(i) El resultado de una observación puede ser solamente uno de los autovalores del operador

48
§ 5.1 Mecánica cuántica 49

correspondiente. Como resultado de la medición se dice que el sistema se encuentra en el


estado descrito por el correspondiente autovector.
(ii) Si se sabe que el sistema se encuentra en el estado |ai, entonces la probabilidad de que una
medición para un observable B sobre el estado |ai proporcione el valor b está dado por
P (b/a) = w(a, b) = |hb|ai|2 (espectro discreto)
dP (b/a) = dw(a, b) = ρ(a, b)db = |hb|ai|2 db (espectro continuo) .
(iii) Dos operadores observables A y B satisfacen las relaciones de conmutación
[A, B] = i}{a, b}I ,
donde } es la constante de Planck dividida entre 2π y {a, b} el corchete de Poisson de las
magnitudes físicas (clásicas) correspondientes.
(iv) El operador hamiltoniano es igual al de energía H = E.

Esta formulación probabilística cuántica no es una “interpretación”. Se origina en el hecho


objetivo de que no es posible observar microsistemas sin perturbarlos. No únicamente es una
teoría axiomática consistente, es también posible desprender de ella -ya como teorema general- el
“principio de incertidumbre”, la forma explícita de los operadores que conforman la famosa ecuación
de Schrödinger (contenida en el último postulado) y acomoda, igualmente bien, propiedades muy
específicas de los microsistemas como el “spin”. Especialmente para la física atómica, es una teoría
extremadamente exitosa pero, a diferencia de los problemas clásicos, donde la intuición es útil en la
búsqueda de soluciones, los problemas cuánticos conducen a resultados cuya confiabilidad depende
enteramente del tratamiento matemático. No obstante, su validez necesita -como en toda la física-
de la comprobación experimental, de las predicciones y de las aplicaciones.

Ahora, interpretación es la explicación de una teoría en términos conocidos. No es difícil


comprender la razón por la cual la “interpretación de Copenhagen” es la más aceptada entre
muchos filósofos de la ciencia, una vez convenientemente parchada. Es la que, dicen, se desprende
naturalmente del formalismo general y agrupa ideas aisladas, cambiantes -contrapuestas a veces-
de Niels Bohr y Werner Heisenber, los fundadores. Además, está asociada a conceptos interesantes
e imprecisos como “dualidad onda - partícula”, “principio de correspondencia” y “principio de
complementariedad”; también, con referencias al “colapso” de la función de onda como resultado
del proceso de medición. En los hechos, sin embargo, independientemente de las justificaciones, es
esencialmente la interpretación de los libros de texto. Está asociada al obvio carácter indeterminista
de la mecánica cuántica y a la independencia de las subjetividades del observador; a la identificación
de la función de onda ψ(x) = hx|ψi con una “amplitud de probabilidad” -introducida por Max
50 Microsistemas Cap. 5

Born-, un número complejo cuyo módulo al cuadrado es una probabilidad o una densidad de
probabilidad.
Una forma del principio de complementariedad (pares complementarias de magnitudes que
no pueden ser simultáneamente medidas) adquirió su forma más definida con la demostración del
teorema que generaliza la relación de incertidumbre en la forma: (∆a)2 (∆b)2 ≥ − 41 h[A, B]i2 ;
donde A y B son dos operadores (observables) y a y b sus correspondientes magnitudes clásicas.
Análogamente, el principio de correspondencia (la relación última con la mecánica clásica), podría
decirse, está formulado en el postulado (iii). La constante fundamental de Planck describe la relación
entre la frecuencia y la energía de una onda (E = ~ω) y conforma la base en la cuantificación del
momento angular (spin) y aparece también en la ecuación de Schroedinger, que es la representación
del postulado (iv) en el espacio de funciones:

∂ ∂
Ĥ(−i} , x)ψ(x, t) = i} ψ(x, t) .
∂x ∂t
Con la sustitución ψ(r, t) = R(r, t)eiS(r,t)/} (la forma de De Moivre para números complejos),
es descompuesta en dos ecuaciones reales,

(∇S)2 }2 ∇2 R ∂S
+V − =−
2m 2m R ∂t
∂ρ ∇S
+ ∇(ρ )=0 .
∂t m
La primera es claramente análoga a la ecuación de Hamilton y Jacobi con un término adicional lla-
mado “potencial cuántico” o “potencial de Bohm” U = −}2 ∇2 R/2mR. Se aprecia claramente que
según la masa crece, U se hace despreciablemente pequeño y la ecuación remanente coincide con
la ecuación HJ clásica; es el modo más nítido de apreciar la aproximación gradual de la mecánica
cuántica a la clásica cuando la masa se hace “grande”. La segunda es la ecuación de continuidad
con densidad de probabilidad ρ = R2 y corriente de probabilidad j = ρ∇S/m = ρv. Es ésta la
base sobre la cual se expone la llamada teoría de la onda piloto (o de de Broglie – Bohm) que
considera a la función de onda, dada por la ecuación de Schrödinger, una guía para la partícula
en una trayectoria recorrida con velocidad v = ∇S/m. Se trata, más bien y estrictamente, de una
interpretación “determinista” de variables ocultas pero no invalidada por el teorema de Bell por ser
“no local”. Como no introduce nuevo formalismo matemático, sino que recompone el “ortodoxo”,
no sorprende que sea empíricamente equivalente a la “teoría probabilística”; tampoco parece haber
impedimento para su posible extensión a la mecánica cuántica relativista o los campos cuánticos.
En la vida cotidiana, los resultados van perfectamente bien si se pretende que no es que la partícula
§ 5.2 Más mecánica cuántica 51

posea una función de onda sino, más bien, que su comportamiento físico se ajusta a un cálculo
teórico representado por esa función.

—ooOoo—

5.2 Más mecánica cuántica

Algunos sostienen, como Feynman, que el experimento de la doble rendija contiene “el único
misterio” en la mecánica cuántica. Es el ejemplo más conspicuo de interferencia ondulatoria que
se da entre las amplitudes cuyo valor absoluto elevado al cuadrado es la probabilidad de encontrar
a la partícula en las varias regiones de una pantalla colocada detrás de la que tiene las dos ranuras.
Un experimento similar, realizado en 1802 por Thomas Young, demostró la naturaleza ondulatoria
de la luz (a expensas de la teoría corpuscular de Newton). El patrón de interferencia –común
en demostraciones que usan una cubeta de agua- con bandas alternadas claras y oscuras, fue la
característica tranquilizante hasta el descubrimiento de que la luz estaba constituida por fotones, y
que la interferencia se producía también con “partículas materiales”. Ése es el origen de la frase
“dualidad onda - partícula”. Ahora, la tecnología moderna permite ejecutar estos experimentos de
modo que sólo partículas individuales dejan la fuente, viajan hasta la pantalla y dejan un solo punto
o destello en la posición donde son detectadas; se usa una muy tenue fuente de luz que emite un fotón
a la vez. Con un pequeño número de eventos detectados, los puntos parecen algo desordenados; sin
embargo, después de muchas repeticiones, el resultado es el mismo al que se obtiene de una sola vez
con haces de partículas. Esto es, los eventos individuales, con el tiempo, van formando el viejo y
clásico patrón de interferencia aunque no hay ondas “físicas” para interferir y rinde, discretamente,
al final una escena casi continua. Lo impactos de millones de partículas muestran obviamente,
por otra parte, la imagen pictórica de la inmaterial distribución de probabilidades obtenida de la
abstracta teoría; por ejemplo, ninguna partícula impacta en los lugares donde la solución es nula.
Los mismos resultados se obtienen usando electrones y otras partículas más pesadas (moléculas
orgánicas e inorgánicas hasta un millar de átomos). Así ejecutado, este experimento demuestra que
todas las micropartículas tienen similar comportamiento ondulatorio estadístico (Se dice que este
efecto pudiera ser útil para combinar -en computadora cuántica- operaciones múltiples hacia un
único resultado).
Los experimentos llamados “de opción diferida” (John Wheeler, Richard Feynman) en los que
el detector es colocado después de que la partícula ha pasado por las rendijas para saber cuál de
52 Microsistemas Cap. 5

ellas fue usada, no hacen que la partícula se comporte como tal y no como onda por efecto de ser
observada; lo que ocurre es que el experimento, y su curso, ha sido cambiado, alterando el espacio
muestral. Pero, ¿por qué la insistencia en dos ranuras? Se conoce de sobra que la luz -y también los
electrones- forman patrones de difracción en experimentos con una sola ranura. En todos los casos,
la situación no es diferente del experimento con dados; se los puede lanzar todos a la vez o uno
por uno. Si son idénticos -o casi- se obtendrá el mismo resultado (el promedio temporal igual al
promedio espacial, por el principio ergódico) siguiendo a la distribución teórica de probabilidades.
Objetivamente, por tanto, la conclusión filosófica es que las partículas son sólo partículas, es su
comportamiento colectivo el responsable de las propiedades ondulatorias.

El intento de Albert Einstein, Boris Podolsky y Nathan Rosen (EPR) por mostrar la incompletez
del formalismo cuántico puso de manifiesto -según ellos- un inquietante efecto que aparece cuando
dos sistemas cuánticos se entrelazan: las mediciones de un observador afectan instantáneamente a
las del otro. La conclusión afirmaba que se había demostrado que la función de onda no provee
una descripción completa de la realidad física, dejando abierta la cuestión de si tal descripción
pudiera existir, pero sugiriendo que una teoría con “variables ocultas” sería posible. El experimento
pensado en el artículo EPR ha sido objeto de mucho interés. Aún después de que en 1964 John
Bell probó que cualquier teoría de variables ocultas local sería incapaz de reproducir el intervalo
completo de resultados estadísticos predichos por la teoría cuántica, pues una hipótesis local de
variables ocultas debilitaría las correlaciones entre las medidas, violando las “desigualdades de
Bell” ya experimentalmente probadas [17]. El misterio de la causalidad cuántica no local, por tanto,
no desaparece. La “no localidad” consiste en la capacidad de los objetos de detectar el estado del
otro independientemente de la magnitud de su separación. La no localidad y el entrelazamiento son
conceptos afines, se refieren a las partículas que, luego de interactuar, resultan permanentemente
correlacionadas, con sus estados en dependencia estadística. Pero ese “direccionamiento” -como
Schrödinger lo denominó- ocurre sin envío ni detección de señales; no involucra conflictos con la
relatividad ni puede ser usada para enviar instantáneos mensajes entre observadores. Es, más bien,
una no localidad estadística en la cual se predicen probabilidades conjuntas para estados entrelazados
con diferentes suposiciones y se verifican experimentalmente. Desde luego, el entrelazamiento
ocurre sólo en el nivel atómico y distancias que preservan la coherencia de la función de onda de
las dos partículas aislando al sistema respecto de interacciones con el ambiente.

En el artículo de 1935, EPR plantearon el problema de dos electrones disparados, desde cierta
distancia, en direcciones opuestas y velocidades iguales hacia un punto central, aproximándose e
interactuando por un corto tiempo y alejándose después. A partir de ese momento, están descritos
§ 5.2 Más mecánica cuántica 53

mediante una sola función de onda que no es separable como el producto de dos funciones de onda,
una para cada partícula. Fue Schrödinger quien describió a las dos partículas como “entrelazadas”
(“verschränkt”). Pero los electrones son partículas indistinguibles, no es posible especificar cada
partícula ni su trayectoria y cualquiera de ellas puede estar en cualquier lugar. Einstein indicó
correctamente que la medición de la posición de uno de los electrones establecería de inmediato la
posición del otro sin medirla explícitamente. Pero se usó la conservación del momento lineal para
calcular la posición del segundo electrón. Análogamente, si el sistema de dos electrones está prepa-
rado con spin total cero, posteriormente las correlaciones se mantendrán para combinaciones de un
spin hacia arriba y el otro hacia abajo. No es frecuente que se recurra a leyes de conservación para
explicar el entrelazamiento, pero siempre están presentes detrás de los resultados correlacionados.
Si no fuera ese el caso, esos experimentos mostrarían algo aún más inquietante: ¡la violación a la
ley de conservación involucrada!

La importancia de las leyes de conservación en el entrelazamiento son una consecuencia de


simples consideraciones de simetría, según el teorema de Noether. Las leyes físicas no dependen
del lugar o el tiempo de los experimentos, ni de las direcciones en el espacio. La información inicial
está establecida por la preparación del estado compuesto, esto es, por una medición preliminar.
Hasta que un observador conozca el resultado obtenido por el otro no sabrá qué esperar. Se adquiere
información útil en el momento en que se sabe el valor de la medida, no en el momento en que se
produce. Pero el mensaje que revela el dato debe ser transmitido en alguna forma tradicional, en
el mejor de los casos, a la velocidad de la luz. El fenómeno del entrelazamiento cuántico, hallado
en el experimento EPR y considerado paradójico, resulta ser -antes bien- una consecuencia lógica
forzosa de los postulados.

Ahora, la palabra “correlación” indica que se trata de resultados estadísticos, datos de muchas
repeticiones experimentales. Las correlaciones se refieren, simplemente, a que si una partícula tiene
spin hacia arriba en un extremo, entonces la otra lo tendrá hacia abajo en el otro extremo, en la
mayoría de los casos, sin importar cómo se orienten los magnetos. A medida que las pruebas y sus
medidas se acumulen, si no hubiera correlaciones, se esperaría que la distribución de probabilidades
conjunta se separaría en el producto de dos distribuciones independientes, una para cada variable
empírica y el cálculo del coeficiente de correlación entre ellas daría cero. Los estados entrelazados
de algún observable son característicos de sistemas compuestos, con autovalores no separables; su
vector de estado o su función de onda y su distribución probabilística caracteriza al comportamiento
conjunto de sus elementos o factores una vez que la interacción entre ellos ha terminado. Este
clásicamente incómodo comportamiento, donde la misma teoría predice que un sistema puede ser
54 Microsistemas Cap. 5

guiado hacia cierto estado por las acciones del experimentador -para quien el sistema mismo es
inaccesible- es ya tan familiar, que los físicos aplicados y otros científicos e ingenieros ven un
amplio panorama de usos interesantes para él, un recurso más para la tecnología.
Finalmente, es curioso que no se haya brindado mayor atención filosófica al aún más enigmá-
tico principio de exclusión de Pauli, según el cual los fermiones (partículas con spin semientero)
con el mismo conjunto de números cuánticos, no pueden ocupar simultáneamente el mismo estado.
No se deduce de la teoría ni tiene justificativo más básico; es empleado, entonces, (por ejemplo en
la determinación de las órbitas electrónicas de los átomos) “por decreto”.

—ooOoo—

5.3 Mediciones y colapsos

Muy bien, pero toda la teoría y sus éxitos descansan -como es usual en física- sobre procesos
de medición involucrando aparatos especiales y sistemas que, en principio, estarían descritos por
una función de onda que representa a un estado compuesto o “enlazado” en el momento de la
interacción. Entonces, ¿cómo es que el instrumento de medición marca un resultado definido y
no una superposición? Según parece, fue sugerencia de John von Neumann el que el proceso de
medición implica un “colapso” del mecanismo hacia un determinado estado, como una proyección
del estado general a una de sus dimensiones, provocado por el acto sicológico de observar. Otros han
adelantado ideas sobre que el universo es esencialmente cuántico al estar compuesto de partículas
subatómicas y debe ser descrito mediante una función de onda compleja y colapsable. Mas, sólo
parece intuitivamente obvio que, cuando una posibilidad deviene actual, las otras se “aniquilan”.
Si se conceptúa a la función de onda como real, por supuesto, muchas divertidas interpretaciones
y paradojas pueden surgir. Si las otras posibilidades están extremadamente distantes del punto de
mensura, su instantánea desaparición parecería violar la relatividad. A ese efecto (¡estadístico!)
Einstein llamó -desde luego con picardía- “espeluznante acción a distancia” (“spukhafte fernwer-
kungen”), y es el que ya se describió como “no localidad”. Erwin Schrödinger, quien consideró que
la función de onda representa al electrón y su carga como “untado” en el espacio, intentó, mediante
su experimento pensado del gato, mostrar los problemas de interpretación (la de Copenhagen) e
introdujo también la noción de “entrelazamiento cuántico” (“verschränkung”). Finalmente, está la
interrogante de si se trata de un asunto “óntico” o “epistémico”, esto es, si la incertidumbre es real,
objetiva o sólo está en el conocimiento.
§ 5.3 Mediciones y colapsos 55

El “problema de medición” fue planteado consecuentemente a esa primera, muy mentada,


interpretación de Copenhagen requiriendo explicación de cómo los instrumentos de medición, que
son objetos macroscópicos tratables con la mecánica clásica, dan información acerca del mundo
microscópico de partículas atómicas y subatómicas. El fracaso en la observación de superposiciones
macroscópicas, se dijo, implica que el proceso de medición mismo no está claramente definido;
¿es la “reducción” del paquete de ondas?, ¿es un “salto cuántico” entre estados o el “colapso de
la función de onda” que crea y destruye información? Para alguien que piensa, por ejemplo, que
cuando la función de probabilidad colapsa a la unidad en un lugar y cero en los demás aunque nada
físico se mueve entre un lugar y otro, el hecho de que no se ve superposiciones de estados en objetos
macroscópicos debe plantear, ciertamente, un problema.

Análogamente, si la micromecánica parece admitir la amplificación de las superposiciones


hasta el nivel macroscópico, pero esas superposiciones no se ven, alguna muy buena explicación
debe estar escondida. Desde el punto de vista puramente formal, una característica propia de los
sistemas cuánticos es la aparición de efectos de interferencia ondulatorios. Aunque tales efectos se
muestran en grandes números o en la repetición de muchos experimentos idénticos donde se mide
el efecto de partículas aisladas cada vez. La interferencia nunca se “observa” directamente en un
solo experimento. Quienes introdujeron estos términos, y quienes los adoptan, dicen que cuando
la interferencia está presente en un sistema, éste se llama “coherente”. Y “decoherencia” es,
entonces, la pérdida o supresión de tal interferencia. Este es el “efecto” al que atribuyen la ausencia
de interferencia macroscópica y es experimentalmente correlacionado con la pérdida de aislamiento.
Pero, estrictamente, no existe tal cosa como un “sistema cerrado”; la interacción ambiental siempre
estará presente; la transición de los sistemas cuánticos a los clásicos es la consecuencia de la ley de
grandes números; el “mundo clásico” es la apariencia del “mundo cuántico” cuando hay un enorme
número de partículas. No importa, el verdadero problema es que la “decoherencia” no se observa,
y parece no ser observable por principio.

Análogamente al famoso “Don Quijote”, ideado para ridiculizar a las novelas de caballería, el
gato de Schrödinger, ideado para desacreditar ciertas poco evidentes implicaciones acerca de las
manifestaciones cuánticas, terminaría con una fama capaz de generar las más peregrinas elucubra-
ciones acerca del, igualmente artificial, “problema de medición”. La sustancia radiactiva, acoplada
al gas venenoso, y el gato están dentro de una caja cerrada; si la sustancia decae, el gato perecerá;
si no decae, vivirá. La idea central es que, cuando el sistema no esté sometido a medición, entrará
en una superposición de estados; en este caso es la sustancia radiactiva la que tendrá la superpo-
sición |decae>+ |no decae>. La superposición asociada para el veneno será |liberado>+ |retenido>;
56 Microsistemas Cap. 5

y, finalmente, el gato entrará en una superposición |vivo>+ |muerto>. La superposición a nivel


microscópico (no observable) se amplifica para dar una superposición macroscópica. ¿Porqué el
estado compuesto de gato vivo y muerto no es directamente observable? Bueno, hay “colapsos”
producidos por la consciencia (John von Neumann) y otros “colapsos objetivos”, que prescinden del
testigo. A esto se añaden los “muchos mundos” ¡reales pero indetectables! (Hugh Everett), uno de
los cuales se entrelaza con el observador quien inmediatamente pierde de vista al resto de mundos
paralelos. O, peor, si se prefiere el colmo de la superposición, ¡la de ondas del pasado y del futuro!
(John Cramer).

Pero, ¡vamos!, la experiencia (clásica) de abrir la caja revelará un evento individual, uno de los
componentes de la “superposición”, que, por lo demás puede ser simulada mediante el lanzamiento
de una moneda. No existe un estado real compuesto de “gato vivo” y “gato muerto”; la función de
onda contiene sólo información teórica sobre los posibles resultados que se obtendrán una vez que
se observe el sistema; la misma situación que es aplicable a todos los análisis cuánticos, incluso esos
con infinitos posibles valores accesibles a la medición. Es importante advertir que, en toda la física,
los formalismos matemáticos establecen únicamente maneras de predecir cantidades relevantes;
las inferencias cualitativas que se desprenden posteriormente no forman parte, necesariamente, de
la teoría. La superposición no es observable. Nunca se ve o mide sistemas (microscópicos o ma-
croscópicos) en dos estados diferentes. La mecánica cuántica predice únicamente una probabilidad
significativa de encontrar al sistema en cada uno de tales estados. Y tales predicciones probabilísti-
cas se comprueban mediante estadísticas sobre gran número de experimentos. Así, las funciones de
onda predicen, con mucha precisión, la proporción de eventos (como decaimientos radiactivos) que
ocurrirán durante un intervalo de tiempo. Las “amplitudes de probabilidad” permiten la superposi-
ción ¡teórica! de estados cuánticos posibles, pero nada tienen que ver con estados macroscópicos.
La mecánica cuántica proporciona la acertada predicción de que si el experimento se repite muchas
veces, la mitad de las observaciones, desde luego, mostrarán gatos muertos.

Cuando la partícula interactúa con el aparato de medición su huella es siempre la de una


partícula entera. Un electrón “salta” desde una órbita a otra, absorbiendo o emitiendo una cantidad
discreta de energía (un fotón). Cuando un fotón o electrón es disparado hacia las dos rendijas, su
aparición en la placa fotográfica es repentina y discontinua. La onda de probabilidad, ¿deviene
instantáneamente concentrada en la posición de la partícula? ¡No! Para que el colapso sea una
“medición”, la nueva información acerca del estado al cual el sistema ha colapsado debe ser
registrado de algún modo para ser “observable” por un científico u “observador consciente”. Por
eso, John Bell preguntaba si ninguna función de onda podría colapsar hasta que un científico con
§ 5.3 Mediciones y colapsos 57

Ph.D. esté allá para observarla.

El punto de partida de la práctica científica indica que lo no observable -aún indirectamente-


simplemente no puede ser un elemento de análisis. Si alguien asegura que todos los caballos tienen
alas pero que sólo las ven los que creen en ellas, no se podrá apostar a la reacción de un filósofo; pero
un físico bien entrenado concluirá de inmediato que lo más seguro es actuar como si los caballos
no tuvieran alas. ¿Las superposiciones macroscópicas son predichas por la mecánica cuántica?
¡Claro que no! Se trata, más bien, de una lamentable confusión en la que se considera la función
de onda, erróneamente, como una propiedad física del objeto en vez de mantener el correcto y
consecuente punto de vista de Born de que se trata de una amplitud de probabilidad, en el sentido en
que su módulo permite el cálculo de la distribución de probabilidad para el problema considerado.
Una superposición de posibles resultados teóricos no es igual a una superposición de estados (la
confusión se originó, quizá, por que a veces se denomina “estado” al vector que lo representa). No
hay paradoja de medición; hay una terca actitud de calumniar a la mecánica cuántica, sacándola
fuera del contexto en el que -hasta ahora con mucho éxito- se aplica. No hay un choque entre teoría y
experiencia; no hay problemas “epistémicos” de medición. La información objetiva es que, cuando
un experimento de mecánica cuántica se repite muchas veces, lo que se obtendrá es una distribución
de frecuencia en total concordancia con la distribución de probabilidades teórica. El acto de medir
es siempre un experimento aleatorio.

Respecto de otros colapsos, el que eventos distantes estén correlacionados no es paradójico


cuánticamente; una interacción física inicial muy cercana entre las partículas puede crear un estado
entrelazado el cual, desde luego, eventualmente sobrevivirá a la separación y mostrará mejor
correlación de la que clásicamente se esperaría. Las mediciones sobre cada uno de sus componentes
revelará una de las posibilidades superpuestas que antes existían solamente en el papel o en la
mesa de trabajo. Lo que “colapsa” es, pues, esa superposición teórica. Un típico “par cuántico”, por
ejemplo, con spin total cero, una vez separado tendrá 1/2 de probabilidad de que el resultado de una
medición sea, digamos, “spin arriba” o “spin abajo” en cada uno de los extremos en los cuales los
observadores son ignorantes del resultado “real”. Si ellos hacen una serie de mediciones del spin
y comparan sus resultados, los hallarán en excelente correlación con spin total cero, comprobando,
de paso, la conservación del momento angular. Otros entrelazamientos involucrarán, análogamente,
otras leyes de conservación.

La ocurrencia de objetos cuánticos macroscópicos es improbable pero no imposible (v. g.


superconductividad, superfluidez). El formalismo usual provee la demostración de que la descripción
clásica se recupera de modo gradual para masas grandes, pero deja lugar para las aplicaciones
58 Microsistemas Cap. 5

complejas. Por eso, tampoco hay tal problema de medición. La esencia de una medida es la
interacción con otro sistema (clásico o cuántico) que crea información para que (quizá más tarde)
sea vista por un observador, es ese dato el que se compara con el resultado teórico. El cálculo de
probabilidades permite estimar las de los posibles autovalores. Son probabilidades, no amplitudes
de probabilidad, no se interfieren ni se superponen, siempre se tiene un dato concreto. Ni antes
ni después de la interacción hay una superposición de estados. Así, siempre se observa un fotón
completo -después de una medición con polarizadores- y no una superposición de estados fotónicos.
La respuesta a ese “problema de medición” está en la correcta lectura del postulado (ii) que se
refiere estrictamente al sistema cuántico. En efecto, la observación objetiva es, en física como
en toda la ciencia, absolutamente decisiva; pero -como se sabe- no es y no puede ser totalmente
exacta y precisa. La exactitud y precisión de los instrumentos disponibles a veces definen la teoría
aplicable. Al hacerse menos masivos, los microsistemas se hacen también demasiado vulnerables a
la interacción y, por tanto, más inciertos al resultado. Los aparatos con los que se observa no sólo se
hacen menos exactos, ellos dejan de ser imparciales, influyen activamente en el objeto. Es más bien
notable que se haya logrado una teoría que admite ese efecto estocástico. Por eso, el conocimiento
del estado actual del sistema no implica que ese será, necesariamente, el estado que se detecte. El
postulado (ii) proporciona la probabilidad condicional de observar un estado posible dado el estado
actual. Y eso es lo mejor que se puede pedir. La dinámica de la partícula sigue a una distribución
de probabilidad, pero la probabilidad misma se construye de acuerdo con leyes causales [5] [6].
Se ha mantenido en alguna literatura, no obstante, ese lenguaje llamativo que describe una
medición como un sistema cuántico “proyectado”, “colapsado” o “reducido” a sólo uno de sus
estados permitidos, o que si el sistema fue “preparado” en uno de esos “autovalores”, entonces la
medición lo encontrará en ese estado con probabilidad uno (la certidumbre). Algunos afirman que
la mecánica ondulatoria de Schrödinger es matemáticamente continua e indeterminista mientras
que la mecánica matricial de Heisenberg es discontínua y determinista. Por supuesto que tal no es
el caso, los dos formalismos son completamente equivalentes, intercambiables (ψ(x) = hψ|xi) y
conducen a los mismos resultados.
Lev Landau y Evgeny Lifshitz dejaron muy claramente lo que, en física, se entiende por
“medición” a este respecto [18]:

“...En mecánica cuántica se entiende por medición cualquier proceso de interacción en-
tre objetos clásicos y cuánticos que ocurre aparte y con independencia de un observador
cualquiera...”

—ooOoo—
§ 5.4 Exégesis 59

5.4 Exégesis

Einstein dijo que la mecánica cuántica es “incompleta” porque la partícula no tiene posición
definida antes de una medición y adelantó la “interpretación de ensamble” donde las probabilidades,
una vez calculadas, no se refieren a un sistema en particular sino a una posible distribución de muchos
sistemas del mismo tipo. Es la probabilidad, figurativamente, no la partícula la que está distribuida
en el espacio. Las ondas no son sino las soluciones matemáticas de la ecuación de Schrödinger (que
no es, exactamente, una ecuación de onda; pero se la refiere como tal porque sus soluciones tienen
características ondulatorias) con sus condiciones de frontera. Cuando una de las ranuras se cierra, el
problema matemático es muy diferente al de dos ranuras y la función de onda se compondrá de otras
probabilidades. La partícula no está “alerta” a la apertura o clausura de las ranuras, no hay misterio
cuando los problemas son correctamente resueltos e interpretados. Es comprensible entonces que,
para la mirada filosófica, no sea la teoría -ni su puesta en práctica- sino las “interpretaciones” las
que merezcan atención.
Ahora, ¿es verdaderamente necesaria una interpretación? En términos de la mecánica cuántica
“estándar”, la función de onda no es energía o materia, sino sólo información sobre las probabilidades
de los posibles resultados, que, cuando se efectúa una medición y se obtiene una medida, la función
de onda no “colapsa”, sigue estando intacta en el papel; igual que cuando se lanza un dado y obtiene
6, ni los otro números, ni sus probabilidades “colapsan”. Ocurre solamente que el experimento
aleatorio ha terminado. Esto implica, desde luego, el fin de esos problemas filosóficos como el de
la decoherencia, el de la medición y el del colapso discontinuo de la función de onda. Además, la
pregunta acerca de si las probabilidades aparecen porque el mundo es aleatorio o porque nuestro
conocimiento de él es aleatorio no difiere, planteada en mecánica cuántica o clásica, y es -en verdad-
necia. Si se afirma que la incertidumbre es una medida de nuestra ignorancia más bien que una
característica del mundo real, bastaría inquirir acerca de cómo se ha llegado a ella. Cuando se lanza
un dado, nadie -¡el mundo tampoco!- sabe cómo aterrizará. Es justamente por eso que la teoría de
probabilidades ha desarrollado hasta su actual utilidad. La afirmación de que el universo es aleatorio
es positivamente equivalente a la de que nuestro conocimiento es aleatorio; ningún razonamiento
o experimento puede distinguirlas. Por eso, las relaciones de incertidumbre en mecánica cuántica
son una directa conclusión de su estructura, esencialmente probabilística la cual, a su vez, es una
consecuencia de la impredecible interacción entre el observador y el objeto. La física no admite
entidades no mensurables (ahí, lo que no se puede medir no existe). Mas, ¿cómo evitarlo?, el proceso
de medición altera irremediablemente el sistema observado; poco en mecánica clásica, mucho en
60 Microsistemas Cap. 5

mecánica cuántica.

La interpretación de muchos mundos sostiene que la función de onda es una superposición


real de estados que son mundos (o universos) diferentes, coexistentes y que, por tanto, no colapsa.
Es completamente determinista; la probabilidad de los eventos es calculable según la regla de
Born pero, finalmente, sería sólo una ilusión. Tales mundos coincidirían con sus contrapartes
matemáticos y tampoco habría alguna diferencia entre las experiencias en un mundo dado y las que
se dan en un universo con un único mundo y multiplicidad de medidas. Es pues imposible diferenciar
experimentalmente entre una “decoherencia” en varios mundos y una con sólo un resultado real.
Volviendo al lanzamiento del dado, entonces, ¿hay un universo diferente con el dado mostrando
cada una de sus caras? ¡Que tontería!

Es comprensible que un interpretador de la mecánica cuántica se pregunte “¿cuál es el valor


de una teoría exitosa si no sabemos lo que nos dice acerca del mundo?” Bueno, si en todas las
interpretaciones el formalismo y los datos experimentales son los mismos, no hay cuestionamiento
a los resultados y únicamente parece haber diferencias en lo que debe ser considerado real y lo
que debe ser considerado conocimiento; entonces, el catálogo completo de hermenéutica cuántica
se generaría con una pregunta del tipo ¿cómo ve el realista, antirealista, inmaterialista, positivista
lógico o instrumentalista, empiricista, experimentalista, operacionalista o -peor aún- el “positivista
ingénuo” las predicciones de esta teoría? La filosofía de la ciencia no puede ser un simple análisis de
“ismos”; hay críticas acusando a los positivistas lógicos por representar al punto de vista empiricista
porque “creen” que la interpretación de cualquier teoría científica tiene que estar arraigada en
observaciones empíricas. Que, según ellos, ninguna teoría es cognitivamente significativa a menos
que sus elementos puedan ser conectados con términos que sean capaces de expresar resultados
verificables. Sin duda es posible aceptar semejante crítica añadiendo que los términos teóricos
deben ser explícitamente definidos mediante reglas de correspondencia que las conecten con los
términos observacionales; entonces, ahí estará exactamente la manera en que se procede para
formular teorías exitosas [19]. En el caso de la mecánica cuántica, no hay que perder de vista que su
producto neto es lo que los matemáticos llaman un “experimento aleatorio” con una distribución de
probabilidades definida. Sí, otra vez, como un juego de dados. Siendo que la teoría es consistente
con los hechos mediante comprobaciones experimentales, no hay evidencia alguna de la necesidad
de una interpretación. En fin, como las interpretaciones no hacen predicciones comprobables ni
simplifican los cálculos, al final son sólo maneras de hablar sobre la mecánica cuántica.

Las aparentes paradojas surgen cuando se aplica la teoría cuántica a ciertas situaciones para las
cuales no está formulada. La distribución probabilística que proviene de la función de onda, como
§ 5.5 Exégesis 61

todas las distribuciones de probabilidad, no se aplica a un sistema individual directamente. Es una


cantidad abstracta que representa el comportamiento de una colección de sistemas análogamente
preparados. Los sistemas físicos tienen ciertas características independientemente de que sean
observados o no; y los sistemas que están espacialmente separados (uno de ellos estando fuera
del cono de luz del otro) no pueden mantener influencias causales inmediatas; las mediciones
sobre uno no pueden afectar a las del segundo. Pero entonces, ¿cómo es que los estados cuyas
representaciones matemáticas no son separables? Cuando esas expresiones no se factorizan, la
función de onda no puede ser expresada en forma de productos tensoriales de los estados de las
partes. Experimentalmente, dos partículas preparadas de modo que el spin total sea cero, una vez en
separación espacialoide, tendrán sus spines siempre en anticorrelación (el momento angular total
se conservará, por supuesto). Si la elección sobre la orientación del primer detector se hace cuando
las partículas están suficientemente separadas, las partículas no pueden haber conspirado para tener
correlacionados sus spines; la conclusión correcta es que el estado de correlación se mantendrá
si las partículas se separan sin otras influencias externas. Una vez que la idea de incompletez -la
necesidad de variables ocultas- fue definitivamente desechada luego de que John Bell lograra su
famoso teorema y que éste fuera corroborado experimentalmente por Alain Aspect, las cuestiones
referentes a la localidad debieran considerarse resueltas.

Aún así, teniendo un estado entrelazado (como un par en spines opuestos), ¿se podría intentar
la transmisión de un mensaje midiendo en un extremo y así “controlando” las mediciones en el otro,
aprovechando las restricciones de la correlación? No, no funcionará porque no es posible controlar
los resultados de las mediciones en el primer extremo -no se puede saber su medida de antemano- y,
por tanto, no es posible controlar lo que se verá en el segundo extremo; esto es, no hay un modo de
escribir un mensaje, para empezar. Aún si se pudiera usar el entrelazamiento para la comunicación,
ésta estaría limitada, como todas las otras, por la velocidad de la luz porque sería necesario el cotejar
(a la velocidad de la luz o más lentamente) las medidas en los dos extremos. Finalmente, ¿en qué
momento debe cada observador efectuar su medición? El receptor no puede estar seguro de si es
él el que arriesga “el colapso de la función de onda”, arruinando el experimento al no tener una
clara señal del emisor, quién lo arruinará, de todos modos, porque debe comunicar su resultado por
otro medio más lento. En la realidad práctica, se usa el canal clásico en la teleportación de estados
cuánticos. Se transfiere la información necesaria para preparar un sistema final microscópico, en el
mismo estado cuántico que el de la fuente o emisor (que quizá ignora el estado transferido), situado
a cierta distancia, superando también las rápidas fluctuaciones aleatorias térmicas.
62 Microsistemas Cap. 5

—ooOoo—

5.5 Relatividad cuántica


La mecánica cuántica es una de las mejores teorías acerca del mundo material; aplicada con
éxito a tres de las cuatro interacciones conocidas (electromagnética, fuerte y débil), pero hay alguna
dificultad al extenderla a la gravitación. Es esa dificultad la que ha dado lugar a teorías como la de
cuerdas, con espacios multidimensionales y universos paralelos y, es innecesario decirlo, muy poco
material revelador y verificable.
Según Einstein, los efectos gravitacionales harían que los electrones cayeran en espiral hacia
el núcleo atómico porque radiarían

“... no solo energía electromagnética sino también gravitacional, aunque en ínfimas


cantidades. Puesto que ésto es difícilmente verdadero en la naturaleza, parece que la
teoría cuántica tendría que modificar no sólo la electrodinámica maxwelliana, sino
también la nueva teoría de la gravitación.”

Esta inestabilidad gravitacional de 1916 lo llevó a buscar una teoría unificada de campos.
Años después, en 1929, Wolfgang Pauli y Werner Heisenberg aplicaron exitosamente los
principios cuánticos a la electrodinámica y sugirieron que podría hacerse lo mismo con la gravedad;
aunque Lev Landau objetó que un principio de incertidumbre relativista imposibilitaría incluso la
medición del campo en un punto. En 1933, Niels Bohr y Leon Rosenfeld adujeron que, en vez
de en un punto, el campo podría ser medido promediando sobre una región extensa del espacio.
Fue el físico soviético Matvei Bronstein quien, en 1934, sugirió la posibilidad de medir un campo
electromagnético con cualquier precisión haciendo el aparato de medición arbitrariamente masivo.
Por otra parte, en 1936, Bronstein, consciente de que un aparato masivo afectaría más al campo
gravitatorio que se trataría de medir, mostró que el límite cuántico de mensurabilidad se evidenciaría
para una masa muy característica (actualmente conocida como masa de Planck). Pero

“La eliminación de las inconsistencias lógicas ... requiere una reconstrucción de la


teoría y, en particular, el rechazo de una geometría de Riemannian tratando, como lo
hemos visto, con cantidades que son inobservables en principio, y tal vez también el
rechazo de nuestros conceptos ordinarios de espacio y tiempo, ... reemplazándolos por
ciertos conceptos más profundos y no evidentes ...”

Es al primer análisis en la teoría que hoy se conoce como gravedad cuántica. Se percató de que
la mecánica cuántica debía comportar cambios en la estructura del espaciotiempo a muy pequeña
escala. Bronstein pudiera haber indagado esos “conceptos más profundos” que reemplazarían al
§ 5.5 Relatividad cuántica 63

espacio y al tiempo, hubiera, quizá, profundizado en los problemas de cuantificar la gravedad, en


comparación con otras fuerzas, los de la mensurabilidad del campo, la “diferencia esencial entre la
electrodinámica cuántica y la teoría cuántica del campo gravitacional” y la dificultad fundamental en
la unificación de las teorías cuántica y relativista. Pero, desgraciadamente, Bronstein fue arrestado
en 1937 y, en febrero del siguiente año, juzgado, condenado y ejecutado el mismo día, víctima
-junto a otras cientos de miles- de la “gran purga” stalinista.

El descubrimiento de la creación de pares de partícula y antipartícula llevó a la comprensión de


que, a escalas muy pequeñas del orden de la longitud de Planck, el espaciotiempo tendría que diferir
notablemente del modelo de variedad diferenciable usado en la teoría de la relatividad general. Por
ejemplo, según el “argumento del agujero” que Einstein adelantó, la consecuencia de la covarianza
general es que sólo cuando existe materia o campos materiales el espaciotiempo tiene sentido. Para
que la distribución de materia determine una solución única a las ecuaciones de campo, es necesario
especificar, adicionalmente, las condiciones iniciales. El objetivo fue siempre que las características
del espaciotiempo estuvieran unívocamente determinadas por la distribución de materia y energía.
Actualmente no se dispone de ninguna teoría exacta y completa de gravedad cuántica, esto es, de una
teoría cuántica del campo gravitatorio, aunque (sec. 2.1), a muy pequeña escala, el espaciotiempo
podría ser un “hervidero” de partículas y antipartículas virtuales, asemejando a una espuma cuántica
aleatoria, altamente irregular y cambiante.

La teoría cuántica de campos describe la interacción de partículas mediante las fuerzas de la


naturaleza. Los campos continuos que originan tres de esas fuerzas, la electromagnética, débil y
fuerte, admiten un modelo de portadores discretos (fotones, gluones y bosones); así, los fotones
son los mediadores de la interacción electromagnética entre partículas cargadas (electrodinámica
cuántica). Ahora, parecería obvio el intentar el mismo esquema para el campo gravitatorio donde,
naturalmente, el portador sería el “gravitón”, una partícula sin masa y spin 2. Este concepto, que
surge de empujar la gravedad dentro de un molde electromagnético cuántico, simplemente aún no se
muestra adecuado, y no hay algo objetivo que corresponda a esa partícula. La otra opción, en la cual
la noción de “campo” es la básica, presenta problemas de aplicación. La idea de “partícula” puede
ser asociada directamente con objetos en la realidad, los campos en teoría cuántica, en cambio, son
mediados por operadores y son de aplicación indirecta. En la mayoría de las aplicaciones prácticas
(colisiones, dispersión, etc.) es el modelo de partícula el más recurrido. Sin embargo, sostener el
modelo de partícula en el contexto de espacios curvos tampoco parece adecuado pues los operadores
típicos, como el operador de número (de partículas), parecen ser específicos del espacio plano. Pero
la gravedad, a diferencia de las otras interacciones, es inseparable del espaciotiempo, éste, a su
64 Microsistemas Cap. 5

vez, es el ambiente donde las partículas existen. En la teoría cuántica de campos, el “contenedor”
es considerado inerte y fijo; pero la relatividad general implica que el contenedor está animado
también, se conforma bajo la influencia de la dinámica particular y, al mismo tiempo, influye en esa
dinámica. Así, en el caso de la interacción electromagnética en presencia de la gravedad, se debe
considerar no únicamente todas las combinaciones posibles interacciones entre electrones y fotones,
sino también todas las posibles configuraciones subyacentes del espaciotiempo. Los infinitos son
muy difíciles de tratar y los modelos matemáticos se quiebran y pierden su poder predictivo. Las
ideas “revolucionarias” no son convincentes desde la teoría y carecen de predicciones comprobables.
Las evidencias, a las escalas requeridas, son muy insuficientes. Tal vez por eso es que los agujeros
negros y el universo temprano son tan atractivos para los teóricos; son lugares donde la gravedad
es muy fuerte o muy débil, estudiarlos podría orientar el modo de tratar correctamente ese campo.

Atrás ha quedado el tiempo en el que “vacío” significaba una completa “nada”, puro espacio
sin materia, energía, partículas ni campos. La división entre espacio y materia, que parecía tan
obvia, desapareció al final, ante los hechos, la relatividad general y la teoría cuántica de campos.
Ahora hay ondulaciones en el espaciotiempo y el vacío es ya no es un estado con energía cero.
Y el campo, entonces, consistiría de una superposición de muchos estados base de oscilaciones
armónicas, uno en cada punto del espacio con energía del punto cero; de modo que la densidad
total de energía del vacío cuántico debiera ser infinito. En relatividad, eso implicaría una curvatura
infinita, la cual, obviamente, no es aceptable. Tampoco es posible cambiar la escala como en los
campos clásicos. La constante cosmológica, o la energía del vacío, es la medida de la densidad
de energía del espacio. Para determinar experimentalmente su valor correcto, es posible usar el
nexo entre la distribución de masa y energía y la curvatura espacial. La densidad de energía que se
observa mediante mediciones de curvatura es menor a 30 g/cm3 ; más bien pequeña y contraria a
lo predicho por la teoría cuántica.

Los conflictos entre las dos mejores teorías físicas se originan en la forma en que el espacio
y el tiempo son considerados en cada una. La cuántica de campos los trata como estructuras fijas,
adecuadas para establecer el formalismo matemático y extraer las consecuencias de la interpretación
probabilística; para la relatividad general, en cambio, el espaciotiempo es una entidad dinámica.
Todo intento de calcular amplitudes de probabilidad para el intercambio de gravitones, u otras
partículas, remata en resultados con infinitos. En teoría cuántica de campos, los infinitos pueden
ser neutralizados con el procedimiento de “renormalización”, similar al reescalamiento del punto
cero de energía. No obstante, cuando las integrales se toman sobre distancias extremadamente
cortas, donde las intensidades de las interacciones crecen sin límite, las divergencias empeoran.
§ .0 Relatividad cuántica 65

Los desarrollos en serie, que resuelven otros casos, fallan en éste porque los primeros términos
no aproximan adecuadamente a la serie completa. La relatividad general, que a escalas grandes es
eficazmente aplicable, presenta singularidades y diverge a distancias cortas dejando la impresión de
el modelo usual de espaciotiempo suave y continuo fallaría a ciertas energías (la escala de Planck).
Sólo para una longitud, área y volumen más pequeños, y la suposición de que la continuidad se
quiebra a tales magnitudes espaciales, las divergencias podrían desaparecer.
La teoría cuántica de campos es local en el sentido de que las interacciones del campo ocurren
en puntos individuales para preservar la causalidad. Pero esta localidad implica el almacenamiento
de acciones en un mismo punto y produce singularidades y divergencias. El programa de renor-
malización condujo a una versión finita para la interacción electromagnética (la electrodinámica
cuántica renormalizada). Esto se logra introduciendo una frecuencia de corte, de modo que todas
las frecuencias superiores a ésta se ignoran para que los términos divergentes se hagan finitos. Así,
dependiendo del valor de corte, se obtienen los valores predichos para ciertas magnitudes físicas. La
renormalización es un reajuste sistemático para no depender de tales valores de corte arbitrarios. Los
valores de los parámetros de la teoría modificada se introducen desde los registros experimentales,
partículas “vestidas” por el enjambre virtual producido por la relaciones de incertidumbre energía -
tiempo. La teoría y los parámetros en esta etapa dependen del arbitrario valor de corte. Si se toma el
límite continuo con la energía al infinito, se obtiene la electrodinámica cuántica renormalizada que
es independiente del corte. Es suficiente redefinir sólo un número finito de parámetros para eliminar
los infinitos en una teoría renormalizable. En otros casos, la teoría puede depender de cambios
en los dominios de energía y se conoce como “teoría de campo efectivo” que se adecuará sólo en
cierto rango de energías (a distancias cortas). Es posible que la gravedad cuántica sea una teoría de
campo efectivo precisamente en este sentido. ¿Cuál es la solución final? Sabemos que vivimos en
un mundo cuántico y relativista, pero somos incapaces de concebir una descripción microscópica
de la gravedad. ¿No es infinitamente frustrante?

RR
Apéndice
Notas

A.1 Método científico


Las referencias a cierto “método científico” son comunes y abundantes, ya sea para ilustrar
el trabajo de algunas personas o para indicar que cierto resultado es muy creíble, pues se arguye
que éste es el método que proporciona la vía a la verdad. Los principios de la indagación científica
preocuparon a muchos a lo largo de la historia pero, al final, no hay acuerdo general sobre su conte-
nido y naturaleza. Se dice que la astronomía babilónica ya era científica, lo mismo que la medicina
egipcia y la biología aristotélica, con razonamiento inductivo y deductivo o generalizaciones hechas
a partir de la observación. Gran parte del pensamiento racional de los griegos antiguos, considerado
fundamentalmente filosófico, tiene claros elementos científicos al igual que innegables adelantos y
descubrimientos. ¿Todo eso sin método científico?
Muchos autores dedicados a la “metodología del descubrimiento científico” o a las “reglas del
razonamiento científico” podrían dar cuenta del racionalismo de René Descartes, del inductivismo
de Isaac Newton y del hipotético deductivismo de Christian Huygens y así siguiendo. Tanto en
el mundo islámico como en Europa de la edad media, donde se reconoce el término “ciencia” se
encuentra el énfasis en la teoría y la práctica en grados diversos. Los científicos experimentales
fueron adquiriendo lentamente relevancia por sus descubrimientos. Robert Grosseteste y Roger
Bacon, se dice, resumieron las experiencias griegas e islámicas sobre la naturaleza dual de la
actividad científica, induciendo, desde observaciones particulares una ley universal y, desde ella
la predicción de particulares y describieron el ciclo observación, hipótesis, experimentation y la
necesidad de verificación continua e independiente. Francis Bacon añadió el procedimiento de usar
la inducción para llegar a los “axiomas”. Galileo Galilei enfatizó el empleo de experimentos como
medio de investigación y, aunque las “reglas del razonamiento” de Newton son poco citadas, su
práctica de trabajo devino una especie de modelo para los intentos de sistematizar esos diferentes
métodos científicos [20]. La descripción de los “pasos” observar, hipotetizar, derivar predicciones
lógicas y, luego, verificar tales predicciones, o también, la observación empírica, la formulación de

66
Apéndice Método científico 67

hipótesis adecuadas a esas observaciones, la formulación de teorías mediante deducciones desde las
hipótesis y las verificaciones experimentales de las conclusiones alcanzadas, coincidiría -por partes-
con la del “método” que se emplea rutinariamente para lidiar con los problemas cotidianos. En otros
casos, se dice que el ejercicio rutinario muestra al procedimiento como iterativo; que no todos los
pasos son necesarios y que, en cualquiera de ellos, es posible refinar la exactitud y precisión; que
es posible repetir cualquier paso anterior del “proceso”, etc. Como sea, semejantes descripciones
tienen poca relación con el modo en que la ciencia verdaderamente se practica.

Además, el otro detalle molestoso para el método en cuestión es su divergencia respecto


de la matemática. Unos propusieron que había un método matemático paralelo al científico; eso
promovió la iniciativa de que debe existir también un método científico para las ciencias sociales.
Otros aseguraron que la matemática no es una ciencia sino un arte, o un instrumento que la ciencia
emplea. Por supuesto, aún es posible empujar la matemática dentro del molde metódico asegurando
que las conjeturas pueden ser consideradas como teoremas no probados -o una especie de hipótesis
huérfanas-. Gauss decía que llegaba a formular sus importantes teoremas “... mediante sistemática
y palpable experimentación...”; los matemáticos -en general- usan la contradicción, la crítica y la
revisión; recurren a contraejemplos para ajustar los teoremas, restringiéndolos o, quizá, extendiendo
el dominio de su validez; o, recurren a ciertos “experimentos pensados” gaussianos para descubrir
conjeturas y pruebas. Pero es inútil; lo cierto es que la matemática no incluye nada semejante al
método descrito como científico; se construye sobre la base del razonamiento deductivo. Si se da un
conjunto de axiomas, se crea un sistema lógico y todo teorema que se desprenda puede considerarse
-teóricamente- implícito en él, no obstante que puede haber discusión acerca del origen de tales
axiomas. Más bien, una teoría física podría ser vista como una construcción matemática con sólo
tomar los postulados -olvidando su origen inductivo- como si fueran axiomas.

No debe sorprender, entonces, el que difícilmente se hallará un capítulo, una sección o alguna
referencia a tal método en planes de estudio o textos de las carreras de física. En los hechos, se-
guramente la descripción de la serie observación ->hipótesis ->teoría ->comprobación,
una estructura subrepticia que sólo aparece después de escarbar en las teorías ya bien establecidas,
fue extraída de ellas “a posteriori”. Ahora, los físicos ciertamente deben enfrentar muchas y muy
diferentes clases de problemas: mediciones difíciles de cantidades importantes, soluciones matemá-
ticas no practicadas antes; probablemente, buscarán financiamiento, materiales, equipos adecuados
o literatura especial. Mas, no es probable que sean sorprendidos siguiendo diligentemente las etapas
del “método”.

Así, aunque son muchos los autores que opinaron sobre el asunto, no únicamente no se ha
68 Notas Apéndice

logrado un esquema definitivo, ni se ha explicado porqué la matemática no se conforma a él.


Contrariamente, la proliferación de enfoques divergentes pareciera haber diluido la cuestión. Una
de las primeras versiones de esos “pasos” -observación, hipótesis, deducción y experimentación-
viene de Hans Christian Oersted y, detalles más o menos, se ha mantenido, se diría por inercia, sin
reparar en que no toda actividad científica es correctamente descrita mediante tales prescripciones.
Por otra parte, ese esquema aparece -con otro propósito- en un libro de 1885 llamado ¡“Teísmo
científico”! por Francis Ellingwood Abbot, para quien el método científico consistía de
(1) observación y experimento,
(2) hipótesis,
(3) verificación, repitiendo (1) otra vez.
Planteamientos como esos, entonces, motivaron la aparición de un nuevo problema filosófico:
el de cómo distinguir ciencia de “seudociencia”. Lo usual es tomar los análisis para detectar desvia-
ciones respecto de la práctica científica aceptada como un medio para juzgar (ver sec. 1.2). Puesto
que la teoría de la “falsación” no es falsable y no puede ser aceptada como científica, todo criterio
será tan vano como las recetas para el método científico.

—ooOoo—

A.2 Matemáticos y físicos

Muchas ideas de la matemática surgen del estudio de su propia estructura conceptual; mas,
como sus fundamentos se originan en el procesamiento de la información que proviene de la
realidad, claro, también gran parte de ellas acompañan al tratamiento de cuestiones relativas a la
física; basta recordar el cálculo de fluxiones como origen del análisis. El resto viene del trabajo de los
matemáticos sobre tales ideas; de precisarlas, refinarlas y generalizarlas; de definir cada concepto,
formular los consiguientes teoremas, etc. Todo hecho con el mayor rigor lógico. En física, más
bien, se usa la matemática como un lenguaje simbólico para analizar datos. El propósito es lograr
conclusiones significativas, para lo cual el estricto rigor matemático tiene menor importancia pues
siempre se espera que los matemáticos hayan hecho su trabajo. Por eso, seguramente muchos pasos
del razonamiento físico pueden ser cuestionables para un matemático puro; en general, algunos
tratamientos de la física teórica, aun los más prolijos y elegantes, pueden ser inaceptables para él si
intenta leerlos como si fuera un texto de matemática.
Como en otras actividades, en física se usa la matemática con propósito computacional. Pero no
Apéndice Matemáticos y físicos 69

es el principal; también permite construir modelos y teorías completas, como es obvio. La relatividad
¿cómo negarlo? trajo vida al análisis tensorial; el tratamiento riguroso vino después, con impulsos
significativos en geometría diferencial y geometrías no euclídeas. Así, el formalismo que empezó
con el trabajo de un matemático (Hermann Minkowski), muy desarrollado por físicos, regresó a
manos de matemáticos para ser enriquecido con topología, variedades y formas diferenciales; con
algunos resultados que Einstein -quizá- ya no podría reconocer. Lo mismo, la mecánica cuántica, que
nació con relaciones dispersas y elementales, completamente destinadas a racionalizar los nuevos
fenómenos empíricos, pronto requirió de más matemáticas. El trabajo de varios físicos, al final, y
sin búsqueda explícita, terminó en una teoría fuertemente matemática. Schröedinger introdujo la
mecánica ondulatoria y Heisenberg la mecánica matricial, no quedó en evidencia que se trataba
de la misma teoría hasta la introducción de los espacios de Hilbert y la teoría de grupos. Pero,
además, la mecánica cuántica requiere de soluciones específicas en teoría de funciones, ecuaciones
diferenciales, espacios vectoriales, espinoriales, etc. Existen artículos en tales temas tanto por físicos
como por matemáticos interesados.

La matemática y la física son disciplinas interconectadas. Casi siempre ha sido posible li-
mar asperezas mediante el trabajo conjunto. Muchos científicos fueron matemáticos y físicos y
contribuyeron significativamente en ambas disciplinas. Las derivadas fueron primero sólo veloci-
dades y aceleraciones, la integrales nacieron como “cuadraturas”. El tratamiento riguroso también
-paralelamente- tuvo una gran evolución. Las urgencias conceptuales, frecuentemente, no son
clasificables. La introducción de la famosa “función delta”, por Dirac, causó cierta incomodidad
matemática hasta la creación de la teoría de distribuciones. La cuestionable teoría de perturbaciones,
análogamente, tiende a ser cada vez mejor estructurada por su amplio espectro de aplicaciones.

Como sea, quizá nada refleja más las diferencias de enfoque profesional que los cursos ofrecidos
por los departamentos de física y matemática. Seguramente varias universidades enfrentaron esas
situaciones críticas en las que los departamentos de física e ingeniería resistieron muy enfáticamente
el empleo de textos de álgebra y cálculo “demasiado abstractos”, diseñados con apego al estricto rigor
y notación consecuente. En física, las expresiones no son frías representaciones de conceptos lógicos;
son personajes con historia que, si pudieran, la relatarían diciendo que nacieron en una pequeña
casita al borde de un río... Cuando van a ser usadas en problemas de mecánica, electromagnetismo
o termodinámica deben tener significados, serán tangentes a curvas, áreas, volúmenes o ritmos de
cambio. Como consecuencia, aparecieron los textos de “matemáticas para físicos e ingenieros” y
cursos de “métodos matemáticos” en los departamentos de física. Por supuesto, no es el medio,
es el objetivo el que está en juego en tales casos. Símbolos con reglas. Los de las matemáticas
70 Notas Apéndice

se usan para expresar -con precisión- ideas, conjuntos de ideas y declaraciones que contienen
relaciones lógicas entre ideas; también ayudan en la ejecución rápida de cómputos complicados.
Las mismas expresiones, con los mismos símbolos, adquieren más libertad en física y deben
“materializarse”, eventualmente, siguiendo ciertas normas establecidas. También esas normas, para
físicos y matemáticos, cambian con el tiempo. Con seguridad, muchos textos importantes, escritos
por los antiguos, no reunirían los requisitos para ser admitidos en la actualidad. Desde luego, las
exigencias para la precisión de los conceptos también se han incrementado.
Es ocioso decirlo, la física no puede ser reducida a matemática y nadie intentaría sugerirlo.
Las dos disciplinas están estrechamente relacionadas en ciertos lugares, pero son epistemológica-
mente distintas. Las pruebas matemáticas están destinadas a mostrar la consistencia lógica de una
estructura simbólica; las pruebas en física se introducen principalmente para garantizar la veracidad
de las conclusiones posteriores. El pensamiento y las herramientas se parecen, pero los fines son
radicalmente diferentes. Sin embargo, reflejando la coherencia de la actividad científica, hay una
línea continua -puede ser dicho- desde el más aplicado de los físicos experimentales, pasando por
los físicos teóricos, hasta el más abstracto de los matemáticos.

RR
Bibliografía

Artículos
[1] J. Earman, “Who’s afraid of absolute space?”, Australasian Journal of Philosophy 48 (3), 287
(1970)

[2] C. Genet, F. Intravaia, A. Lambrecht, S. Reynaud, “Electromagnetic vacuum fluctuations,


Casimir and Van der Waals forces”, Ann. Fond. L. de Broglie 29 (2004) 311-328.

[3] G.E. Crooks, “Entropy production fluctuation theorem and the nonequilibrium work relation
for free energy differences”, Physical Review E, Vol. 60, No. 3, p. 2725 (1999)

[4] D. Kennefick, “Not Only Because of Theory: Dyson, Eddington and the Competing Myths of
the 1919 Eclipse Expedition”, arXiv:0709.0685 [physics.hist-ph] (2007)

[5] A. Grinbaum, “Reconstruction of Quantum Theory”, British Journal for the Philosophy of
Science 58(3), 387 (2007)

[6] L. A. Rozema et al, “Violation of Heisenberg’s Measurement-Disturbance Relationship by


Weak Measurements”, Phys. Rev. Lett. 109(10), 100404 (2012)

Libros

[7] G. Galilei, “Il Saggiatore”, CreateSpace Independent Publishing Platform (2017)

[8] I. Newton, “Mathematical Principles of Natural Philosophy I The Motion of Bodies”, Univer-
sity of California Press (1729)

[9] I. Newton, “Mathematical Principles of Natural Philosophy II The System of the World”,
University of California Press (1729)

[10] J. O. Weatherall, “Void: The Strange Physics of Nothing” Yale University Press (2016)

71
72 BIBLIOGRAFÍA Bibliografía

[11] J. T. Fraser, N. Lawrense y D. Park, “The Study of Time”, Springer Verlag (1975-1981)

[12] K. G. Denbigh, “Three Concepts of Time”, Springer Verlag (1981)

[13] J. Barbour,“The End of Time: The Next Revolution in our Understanding of the Universe”,
Oxford Univ. Press (1999)

[14] S. Carroll, “From Eternity to Here: The Quest for the Ultimate Theory of Time”, Dutton(2010)

[15] A. Einstein, “The Meaning of Relativity”, Routledge Classics (2003)

[16] V. Fock “The Theory of Space, Time and Gravitation”, Pergamon Press (1964)

[17] J. S. Bell, “Speakable and Unspeakable in Quantum Mechanics(2nd ed.)”, Cambridge Uni-
versity Press (2004)

[18] L. Landau y E. Lifshitz “Mecánica cuántica (teoría no relativista)”, Editorial Reverté (1967)

[19] H. Reichenbach, “La Filosofía Científica”, F.C.E., México (1967)

[20] R. Feynman, “The Character of Physical Law”, Cambridge: M.I.T. Press (1965)
Cero absoluto

Desde la perspectiva epistemológica, la filosofía y la física nunca llega-


ron a separarse por completo. Existen presupuestos filosóficos, análisis
metafísicos, evaluaciones y -sobre todo- inferencias teóricas referidas
al conocimiento físico del universo, conocimiento que no puede ser
suficiente, completo ni definitivo.

—oo (απóλυτ o µδη´


ν ) oo—

Victor Miguel Peñafiel Nava es físico teórico, jubilado de la docencia


universitaria, actualmente investigador asociado en el Instituto de In-
vestigaciones Físicas dependiente de la Carrera de Física, Universidad
Mayor de San Andrés. Estudió física en la UMSA (T.S.), UNAM (M.C.)
y CUNY (M.A., M.Ph. y Ph.D.). Ha ejercido cátedras y ha realizado
investigación en el Queen College (CUNY), Saint John University (New
York), la UATF y la UMSA. Premio de Ciencias TWAS-ANCB (1995).

ISBN 978-80-85494-35-8

9 788085 494358

Área de Física Teórica • vmiguel@fiumsa.edu.bo


Carrera de Física, FCPN (UMSA) • http://www.fiumsa.edu.bo

Libro digital por V. M. Peñafiel

También podría gustarte