Está en la página 1de 20

s

Benemérita Universidad Autónoma de Puebla


Preparatoria Regional “Simón Bolívar”
TEMAS SELECTOS DE FÍSICA

Alumno: José Martín Flores Temol


Docente: Óscar Rodolfo Vargas Rangel

RESUMEN/REPORTE DE LECTURA “LA HISTORIA DEL


TIEMPO” (STEPHEN HAWKING)
Fecha de entrega: 25 de septiembre de 2019
Ciclo Escolar: 2019-2020
Introducción

El presente texto, tiene el objetivo de recopilar los aspectos más relevantes obtenidos de la
lectura de las primeras cincuenta páginas (equivalentes a los primeros cinco capítulos), del
aclamado libro “La Historia del Tiempo”, del físico británico Stephen William Hawking, así
como el de realizar un análisis personal y conciso en base a la comprensión que me han
generado las ideas tratadas a lo largo de cada sección.

Desarrollo

 Capítulo 1 “Nuestra Imagen del Universo”


Da inicio con un relato, un científico, que aparentemente era el filósofo y matemático
británico Bertrand Russell, tras una conferencia acerca del movimiento de los planetas
alrededor del Sol, fue contrariado por una anciana con un antiquísimo argumento. No
obstante, Hawking hace hincapié en que, a pesar de que la idea de la mujer resultaba
increíblemente errónea, ninguno de nosotros posee un conocimiento exacto acerca del
funcionamiento de nuestro Universo, los cuestionamientos antiguos sobre el
comportamiento del mismo nos resultan fáciles de responder hoy en día, y es muy
probable que lo mismo ocurra con las incógnitas actuales en un futuro, con ayuda de los
constantes avances científicos y tecnológicos.
Posteriormente, se hace mención de los modelos relacionados con la forma y
movimiento de la Tierra y otros cuerpos celestes a través de la historia:
1. Aristóteles. – En el año 340 a.C. estableció en su libro “De los Cielos”, un par de
argumentos que apoyaban la idea de que la Tierra era una esfera redonda: primero, que
la sombra de nuestro planeta reflejada en la Luna durante los eclipses lunares, era
siempre redonda, y no elíptica, señalando que el planeta no era un disco plano. Por otro
lado, se basó en los conocimientos de los griegos acerca de la estrella Polar, que aparecía
más baja en el cielo si se le veía desde el sur, y más alta si se avanzaba hacia el norte. En
base a la diferencia posicional de la estrella entre Grecia y Egipto calculó la distancia
alrededor del planeta: cuatrocientos mil estadios de 200 metros, el doble de la longitud
aceptada en la actualidad.
A estas ideas se les adjuntó el hecho de que las velas de un barco son las primeras
en verse en el horizonte al arribar éste a una costa, y luego su casco.
Creía que la Tierra era el centro del Universo, y que los demás cuerpos giraban a su
alrededor en ocho esferas pequeñas, en un movimiento que consideraba el más perfecto.
2. Ptolomeo. - Proporcionó dos siglos después de Cristo, un sistema para predecir
posiciones de cuerpos celestes en el firmamento; sin embargo, para hacerlo
correctamente, suponía que la Luna debía recorrer una ruta que en ocasiones la situaba
el doble de cerca de lo normal de la Tierra, inconsistencia que reconoció.
Su modelo fue reconocido por la Iglesia cristiana, mas no de forma universal.
3. Nicolás Copérnico. – En 1514, este cura polaco ideó un modelo en que el Sol tenía
una posición fija, y que los demás cuerpos celestes giraban a su alrededor en órbitas
circulares. Mantuvo su trabajo inicialmente en anonimato por temor a ser considerado
hereje.
4. Johannes Kepler. – Retomó la teoría copernicana y la modificó, indicando que las
órbitas de los cuerpos eran elípticas, pues constituían una mejor hipótesis, ajustándose
bien a las observaciones, aunque resultando algo desagradable ante la disminución de
perfección de la forma. No pudo conciliar esas ideas con la idea de que los planetas
eran atraídos por fuerzas magnéticas.
5. Galileo Galilei. – Contemporáneo de Kepler, en 1609 observó mediante un telescopio
de su invención, que múltiples satélites o lunas giraban alrededor de Júpiter,
indicando que no todo giraba alrededor de la Tierra.
6. Isaac Newton. – En 1687, presentó en su obra “Philosophiae Naturalis Principia
Mathematica”, una teoría del movimiento de los cuerpos celestes en espacio y tiempo,
así como el conjunto de conocimientos matemáticos para analizarles. Postuló una ley
de gravitación universal en la que afirmó que los cuerpos de menor masa son atraídos
por las de mayor, entre más cercanos estén, mediante una fuerza, llamada gravedad,
mostrando que la Luna se mueva elípticamente alrededor de la Tierra, y que los
planetas tengan un movimiento de forma igual alrededor del Sol.
Con ello, fueron descartadas las ideas del movimiento de las estrellas, que no
cambiaban de posición, así como la idea de una frontera universal natural. Además,
tuvo que dar solución a cuestionamientos como el de una posible atracción de
estrellas, hecho en el que presentó dos casos: posible, en un espacio y cantidad finita
de estrellas, o no probable, en caso de una cantidad infinita de ellas.
Anterior al siglo XX, no se había considerado la probabilidad de una expansión o contracción
universal, hasta que el filósofo alemán Heinrich Olbers, en 1823, suponiendo que la luz de
estrellas lejanas era oscurecida por materia intermedia, que era calentada con el paso del
tiempo, hasta el punto de iluminarse como una estrella. No obstante, se abrió una suposición,
no toda la luz de las estrellas había alcanzado el cielo nocturno, las estrellas no nos habían
iluminado desde siempre, tuvieron un punto de encendido.

Por otro lado, las discusiones acerca del origen universal databan desde la Antigüedad,
Aristóteles y demás filósofos, no eran partidarios de una creación, pues resultaba muy divina,
según ellos, la existencia siempre había estado presente.

San Agustín, postulaba en su libro “La Ciudad de Dios”, que, así como se le recuerda al
hombre una hazaña arquitectónica, la creación universal databa de un lapso temporal no muy
lejano (5000 a.C. no muy distanciada de la edad glaciar, en 10000 a.C.). Asimismo, afirmaba
que el tiempo era una propiedad del universo creada por Dios a partir de la creación.

En 1781, los temas de limitación del espacio universal e inicio del tiempo, fueron tratados
por el filósofo Immanuel Kant, en su obra “Crítica de la Razón Pura”, llamándoles
contradicciones de la razón pura, la tesis de un inicio universal y la antítesis de la siempre
existencia, ambas con pros y contras, ambas basadas en que el tiempo continúa hacia atrás
indefinidamente.

En 1929, Edwin Hubble, afirmó que, sin importar el punto de observación, galaxias
distantes se alejan, es decir, el universo se halla en un proceso de expansión, sugiriendo un
tiempo pasado llamado Big Bang, en que el universo era infinitesimalmente pequeño e
infinitamente denso, descartando la posibilidad del inicio temporal. Un universo en
expansión no desecha la idea de un creador, pero establece un punto temporal en el que éste
la llevó a cabo.

Una teoría es buena siempre y cuando: 1) Describa una agrupación de observaciones en


base a un modelo de pocos parámetros arbitrarios. 2) Predice de forma positivas los
resultados de observaciones futuras.

Toda teoría física es una hipótesis, nunca sabremos si los resultados de sus experimentos
sean equivalentes a la teoría, en caso de serlos, ésta sobrevive y gana mayor credibilidad en
la ciencia, pero no una ciega confianza; en cambio, si hay una diferencia o fallo en las
predicciones, la teoría debe ser inmediatamente desechada o editada, según Karl Popper.

En la ciencia, se construye una extensión de la teoría original, las ideas de Einstein acerca
del movimiento de Mercurio, eran precisas según las observaciones, a contrario de las ideas
de Newton; sin embargo, siguen siendo utilizadas por su practicidad y la mínima diferencia
entre los resultados de la relatividad general de Einstein.

La finalidad final de la ciencia es la de formular una única teoría acerca del


comportamiento universal; no obstante, el alto grado de complejidad que esto representa, ha
dirigido a los científicos a dividir la problemática en dos secciones, la primera, las leyes que
den explicación al cambio del universo a través del tiempo, y segunda, el origen del universo
mismo.

Hoy en día, el universo es descrito mediante un par de teorías parciales: 1) La teoría de la


relatividad general, enfocada en la descripción de la fuerza gravitatoria y la estructura
universal a gran escala. 2) La mecánica cuántica, fenómenos a mínima escala.

Sin embargo, las dos anteriores son incompatibles, hecho que ha generado la búsqueda de
una teoría que logre acoplarlas.

En fin, a pesar de poseer hoy en día conocimientos que expliquen múltiples fenómenos
naturales, la humanidad, nunca ha sido caracterizada por la incógnita y la falta de
conocimiento, lo que es suficiente para mantener activa la búsqueda de una teoría absoluta,
aun cuando ésta no sea controversialmente aplicable en nuestro estilo de vida.

 Capítulo 2 “Espacio y Tiempo”


Aristóteles afirmaba que el estado natural de los cuerpos era el reposo, del cual eran
movidos al ser una fuerza aplicada. Además, mencionaba que la inducción de las fuerzas
universales podía ser obtenida por el simple pensamiento puro, descartando la
observación.
Galileo contrariaba lo anterior, cierta ocasión dejó caer por un plano inclinado bolas de
distintos pesos, obteniendo que cada cuerpo aumentaba su velocidad al mismo ritmo, sin ser
de importancia su peso, demostrando que el efecto real de una fuerza, era el cambiar la
velocidad.
Asimismo, Newton mencionó en 1867, dentro de sus obras “Principia Mathematica”, que
un cuerpo siempre se mantendría en movimiento en línea recta a una misma velocidad,
siempre y cuando no le fuese aplicada fuerza alguna, aquella idea se considera la primera ley
de Newton.
Como segunda ley, postuló que el cuerpo acelerará o incrementará su velocidad
proporcionalmente a su fuerza, además, la aceleración disminuirá cuando aumente la masa.
Además, descubrió una ley que describía la fuerza de gravedad: todo cuerpo atrae a todos
los demás con una fuerza proporcional a la masa de cada uno, la fuerza entre un par de
cuerpos se duplicará si uno de ellos duplica su masa, viéndose el motivo del que los cuerpos
caigan con la misma rapidez, un cuerpo con doble peso y masa, aumentará su fuerza dos
veces, acorde a la segunda ley, este par de efectos habrán de cancelarse exactamente y la
aceleración será la misma.
También señala una relación inversamente proporcional entre la fuerza de gravedad y la
distancia entre los cuerpos a tratar.
Aristóteles creía en un estado de reposo que sólo sería interrumpido ante la aplicación de
fuerza, Newton contradice la idea de un estándar único de reposo, lo que volvía
indeterminable si dos eventos en tiempos diferentes ocurrían en lugares diferentes.
La cuestión de una falta de posición afligió a Newton, pues no se acoplaba a su idea de
una deidad única, de hecho, negó la primera idea a pesar de ser contradicho por sus propias
ideas, lo que lo convirtió en objeto de críticas y refutaciones de parte de hombres como el
obispo Berkeley.
Newton y Aristóteles creían en el tiempo absoluto, es decir, que un intervalo temporal
podía ser delimitado por un par de eventos.
En 1676, el astrónomo danés Ole Christensen Roemer descubrió que la velocidad de la
luz es finita, en base a sus observaciones en los eclipses lunares de Júpiter, la luz expedida
por ellas tardaba más en llegar al planeta, entre más distante estuviese éste de ellas. A pesar
de que el valor de velocidad que le otorgó a la luz (225,000 kilómetros por segundo), está
lejos de la cifra actual (300,000 kilómetros por segundo), su trabajo se realizó once años antes
de la publicación de los Principia Mathematica de Newton.
En 1865, el físico británico James Clerk Maxwell consiguió unificar las teorías parciales
para definir electricidad y magnetismo, sus ecuaciones predecían la posible existencia de
perturbaciones ondulatorias del campo magnético combinado, que viajan a velocidad
constante, si éstas poseen una longitud de onda superior a un metro, son ondas de radio, las
de menor, son microondas (de pocos centímetros) o infrarrojas (más de una diezmilésima
parte de un centímetro). La luz visible posee una longitud de onda entre cuarenta y ochenta
millonésimas partes de centímetro, las menores a éstas, se conocen como radiación
ultravioleta, rayos X y rayos gamma.
La teoría de Maxwell predecía que luminosas y ondas de radio debían viajar a una
velocidad fija, pero se debía especificar el sistema de referencia respecto al que se medía la
velocidad. Por lo tanto, se sugiere la existencia de una sustancia llamada “éter”, presente en
todo sitio, incluido el espacio vacío, por la susodicha debían viajar las ondas luminosas con
velocidad relativa al éter.
En 1887, Albert Michelson y Edward Morley, realizaron un experimento, comparando la
velocidad de la luz en dirección del movimiento de la Tierra con la velocidad de la luz en
dirección perpendicular al movimiento ya dicho, encontrando que ambas eran iguales.
Entre 1887 y 1905, el holandés Hendrik Lorentz intentó dar explicación al resultado
anterior; no obstante, hasta 1905, Albert Einstein tomó la idea del éter como innecesaria,
siempre y cuando se tuviera disposición a abandonar la idea de tiempo absoluto. Una
afirmación similar fue realizada por el matemático francés Henri Poncairé. Einstein es
reconocido como creador de esta nueva teoría.
El postulado fundamental de la teoría de la relatividad era que las leyes de la ciencia
debían ser iguales para todos los observadores en movimiento libre, independientemente de
la velocidad, en conjunto con las ideas de Maxwell sobre la velocidad de la luz, trayendo
consecuencias sociales como:
E=mc2
Donde E es la energía, m la masa y c, la velocidad de la luz, ante la equivalencia entre
energía y masa, la energía que un cuerpo adquiera debido a su movimiento, se añadirá a su
masa, incrementándola.
Al aproximarse a la velocidad de la luz, la velocidad de un objeto, su masa aumentará
rápidamente, lo que hará que la energía necesaria para acelerar el objeto será mayor, haciendo
imposible que un objeto alcance la velocidad de la luz, pues su masa y energía se tornarían
infinitas.
La relatividad significó un cambio impresionante en nuestra concepción del tiempo y el
espacio, acorde a Newton, si un pulso de luz es enviado de un sitio a otro, varios observadores
coincidirían en el lapso temporal invertido, mas no en la distancia, observadores diferentes
medirán diferentes magnitudes de velocidad.
En cambio, la relatividad indica que los observadores concuerdan en la velocidad de la
luz, sin estar de acuerdo en la distancia, discrepando en el tiempo empleado. La relatividad
acabó con el tiempo absoluto. Cada observador podría usar un radar para saber cuándo y
dónde ocurrió cualquier suceso, mediante el envío de un pulso de luz o de ondas de radio. El
tiempo es el tiempo medio entre la emisión del pulso y el recibimiento del eco, la distancia
es la mitad del tiempo redondo, multiplicado por la velocidad de la luz.
El anterior es un método empleado para conseguir distancias precisas, gracias a él sabemos
que el metro se define como la distancia recorrida por la luz en 0,000000003335640952
segundos. Consiguiendo una nueva unidad de longitud llamada segundo-luz (la distancia
recorrida por la luz en un segundo). Con ello, debemos aceptar que el tiempo es combinado
con el espacio, no está separado de él.
Uno es libre de usar cualquier conjunto válido de coordenadas, aunque su utilidad sea
limitada, un evento es algo que ocurre en un punto del espacio y un instante específico de
tiempo, por lo que se puede describir mediante cuatro números o coordenadas. En relatividad,
no existen distinciones entre coordenadas espaciales o temporales.
Acorde a las ecuaciones de Maxwell, predecían que la velocidad de la luz, sería la misma
sin importar la velocidad de la fuente, si un pulso de luz se emite en un punto, se irá
extendiendo en forma de esfera de luz cuyo tamaño y posición serán independientes a su
velocidad.
La luz, al expandirse forma un cono tridimensional en el espacio-tiempo
cuatridimensional. Los conos de luz futuro y pasado de un suceso P, divide al espacio-tiempo
en tres regiones. El futuro absoluto de un suceso es la región interior del cono de luz futuro
de P. Es el conjunto de todos los sucesos que pueden en principio ser afectados por lo que
sucede en P.
Asimismo, no sabemos lo que esté ocurriendo en regiones lejanas del Universo, la luz
emitida por las galaxias emitió de ellas hace millones de años. Si se ignoran los efectos
gravitatorios, como Einstein y Poncairé hicieron en 1905, uno tiene lo que se llama teoría de
relatividad especial. Para cada evento se puede asignar un cono, y, en base a que la velocidad
de la luz es la misma para todo suceso y dirección, el cono será igual.
No obstante, la teoría presentaba insistencias con la teoría de Newton, que afirmaba que
los objetos se atraían con una fuerza dependiente a la distancia de ellos. Los efectos
gravitatorios deberían viajar con velocidad infinita, en vez de una velocidad igual o menor
que la de la luz, como la teoría de relatividad requería. Einstein experimentó entre 1908 y
1914 hasta que, en 1915, propuso la teoría de relatividad general.
Planteaba que la gravedad era una fuerza consecuencia de que el espacio-tiempo no fuese
plano, sino deformado o curvo, debido a la distribución de energía y masa, no siendo los
cuerpos obligados a girar en elipses, sino en líneas rectas en el espacio-tiempo
cuatridimensional, sobre un espacio curvo (geodésica). Los rayos de luz, también debían
seguirlas, siendo desviada por los campos gravitatorios.
Las predicciones de Einstein sobre las desviaciones lumínicas fueron comprobadas hasta
1919, a causa de la Primera Guerra Mundial, demostrando, a raíz de un eclipse visto desde
África oriental, que la luz era desviada por el Sol.
Al viajar la luz hacia arriba en el campo gravitatorio terrestre, pierde energía, y su
frecuencia disminuye, a alguien situado arriba, le parecería que el evento durara más de lo
que en realidad lo hace.
Lo anterior, comprobado en 1962, mediante el uso de un par de relojes instalados en la
parte superior e inferior de un depósito de agua, se halló que el de abajo iba más lento acorde
a la relatividad general.
Las leyes de Newton dieron fin a la idea de posición absoluta en el espacio. La teoría de
la relatividad elimina el concepto de tiempo absoluto.
Anterior a 1915, se veía al espacio y el tiempo como marcos en los que los eventos tenían
lugar, mas no influencia; en cambio acorde a la relatividad general, el espacio-tiempo son
cantidades dinámicas, al moverse un cuerpo o actuar una fuerza, la curvatura del espacio y
el tiempo es afectada por, y afecta a todo lo que sucede en el universo.
Con el paso de las décadas, nuevos conceptos de espacio-tiempo, revolucionarían nuestra
concepción acerca del universo que nos rodea, así como su comportamiento, ante la nueva
imagen de un universo en expansión, que había dado inicio en un tiempo finito atrás y podría
finalizar en el futuro.
 Capítulo 3 “El Universo en Expansión”
Las estrellas fijas, son similares al Sol, encontradas a una distancia mucho mayor, y van
cambiando ligeramente sus posiciones con respecto a otras estrellas, cuando la Tierra gira
alrededor del Sol, pero no están en su totalidad.
Próxima Centauri, la estrella más cercana, se halla a cuatro años luz o a unos treinta y
siete billones de kilómetros, el resto de las estrellas observables se hallan a pocos cientos
de años luz. Nuestro Sol está a sólo ocho minutos luz de nuestro planeta.
En 1750, surgieron suposiciones acerca de la formación de la Vía Láctea, en base a la
agrupación en forma de disco (galaxia espiral) de las estrellas visibles. William Herschel
confirmó la idea tras catalogar distancias y posiciones de estrellas, no causando mucha
controversia.
En 1924, Edwin Hubble, probó que nuestra galaxia no era la única.
El brillo aparente de una estrella depende de: 1) La cantidad de luz que irradia. 2) Su
lejanía de nosotros. Hubble notó que ciertas estrellas, de las cuales era posible medir su
luminosidad, tenían siempre la misma. Si halláramos tales tipos de estrellas en otra
galaxia, podríamos suponer que tendrían la misma luminosidad y, calcular la distancia de
esa galaxia. Hubble usó este método para calcular las distancias a nueve galaxias
diferentes.
Para clasificar las estrellas en diferentes tipos, sólo podemos medir el color de su luz.
Newton descubrió que cuando la luz atraviesa un trozo de vidrio triangular, conocido
como un prisma, la luz se divide en los colores que la componen (su espectro).
Estrellas diferentes tienen diferentes espectros, mas el brillo relativo de los distintos
colores es siempre igual al esperado de objeto en roja incandescencia, la luz emitida por
un objeto opaco incandescente depende de su temperatura, lo que se conoce como espectro
térmico. Podemos hallar la T de una estrella según su espectro luminoso.
Ciertos colores están ausentes de los espectros de las estrellas, cada elemento químico
absorbe un conjunto específico de colores.
La luz visible, consiste en ondas o fluctuaciones del campo electromagnético, su
frecuencia (no. de ondas por segundo), es de 400 a 600 millones de ondas por segundo.
La diferencia de frecuencia luminosa es lo que el ojo ve como diferentes colores, el color
rojo correspondiente a frecuencias más bajas, el azul a las más altas.
Si la fuente comienza a moverse hacia nosotros, disminuirá el tiempo de llegada, y
aumentará el número de ondas que llegan, adquiriendo su brillo en tonalidad azul, si se
alejara, las ondas disminuirías, el tiempo aumentaría y la tonalidad se tornaría roja, en un
efecto Doppler.
La fuerte teoría de un universo estático prevaleció hasta el siglo XX, incluso Einstein
estaba seguro de ello al redactar la teoría de la relatividad. Él sostenía que el espacio-
tiempo tenía una tendencia intrínseca a expandirse, y que ésta tendría un valor que
equilibraría exactamente la atracción de toda la materia en el universo, de modo que sería
posible la existencia de un universo estático.
Sin embargo; el matemático ruso, Alexander Friedmann, demostró que no se debería
creer en un universo estático, mediante dos suposiciones: 1) El universo parece el mismo
desde cualquier dirección desde la que se observe. 2) Ello también era cierto si se le
observaba desde cualquier lugar. Lo anterior, con tal de que se le analice a gran escala.
En 1965, dos norteamericanos, Arno Penzias y Robert Wilson, estaban probando un
detector de microondas muy sensible. Penzias y Wilson se sorprendieron al encontrar que
su detector captaba más ruido del que esperaban. El ruido no parecía provenir de ninguna
dirección en particular, se indujo que provenía de más allá de la atmósfera, desconocían
qué era.
Bob Dicke y Jim Peebles, también estaban interesados en las microondas. Estudiaban
una sugerencia hecha por George Gamow (que había sido alumno de Alexander
Friedmann) relativa a que el universo en sus primeros instantes debería haber sido muy
caliente y denso, para acabar blanco incandescente. Dicke y Peebles argumentaron que
aún deberíamos ser capaces de ver el resplandor de los inicios del universo, porque la luz
proveniente de lugares muy distantes estaría alcanzándonos ahora. Sin embargo, la
expansión del universo implicaría que esta luz debería estar tan tremendamente
desplazada hacia el rojo que nos llegaría hoy en día como radiación de microondas.
Cuando Dicke y Peebles estaban estudiando cómo buscar esta radiación, Penzias y Wilson
se enteraron del objetivo de ese trabajo y comprendieron que ellos ya habían encontrado
dicha radiación. Gracias a este trabajo, Penzias y Wilson recibieron el premio Nóbel en
1978.
Acorde a Friedmann, la velocidad con la que un par de galaxias se separan es
proporcional a la distancia entre ellas, siendo antecedente del conocimiento sobre el
corrimiento al rojo de una estrella directamente proporcional a la distancia, por Hubble.
En 1935, Howard Robertson y Arthur Walker crearon modelos similares a los de
Friedmann, que sólo halló uno: 1) El universo está en expansión lo suficientemente lenta
para que la atracción gravitatoria entre galaxias sea capaz de frenar y detener el proceso
de expansión, contrayéndose el universo.
Según los nuevos modelos: 2) El universo está en una expansión tan rápida, que la
atracción gravitatoria no la detiene, pero sí la frena un poco.
3) El universo está en una velocidad de expansión sólo lo suficiente para no colapsarse.
presente.
Si la densidad es menor que un cierto valor crítico, determinado por el ritmo de
expansión, la atracción gravitatoria será demasiado débil para poder detener la expansión.
Si la densidad es mayor que el valor crítico, la gravedad parará la expansión en algún
tiempo futuro y hará que el universo vuelva a colapsarse. Podemos determinar el ritmo
actual de expansión, midiendo a través del efecto Doppler las velocidades a las que las
otras galaxias se alejan de nosotros; sin embargo, hay que considerar que las medidas que
se poseen son sólo aproximaciones.
Por otro lado, la incógnita acerca de la densidad media es más fuerte, si se suman las
masas de estrellas halladas en nuestra galaxia y las otras observadas, el total es menor a la
centésima parte necesaria para detener la expansión universal; si se agrega la materia
oscura, obtenemos un a décima parte, aunque no puede descartarse la idea de una sustancia
desconocida que podría superar el valor necesario para detener la expansión.
De una forma u otra, es muy probable que el universo siempre se expanda, y la
probabilidad de un nuevo colapso ocurriría dentro de diez mil millones de años.
Las soluciones anteriores coinciden en que, en cierto punto, las galaxias se hallaban a
una distancia 0 entre sí (Big Bang), predice un punto en el que la teoría colapsa, lo que se
conoce como singularidad.
En 1951, la Iglesia tomó la teoría del Big Bang indicando que coincidía con los
postulados bíblicos.
En 1948, un par de refugiados austriacos, Hermann Bond y Thomas Gold, junto a Fred
Hoyle, crearon la teoría del estado estacionario: “Conforme las galaxias se encontraban
alejándose, nuevas galaxias eran formadas”, requiriendo una modificación en la
relatividad para permitir la generación continua de materia, pero el ritmo de creación
involucrado era muy bajo, que no entraba en conflicto con experimentos.
Al final de los 50 e inicios de los 60, Martin Ryle dirigió a científicos en un estudio
sobre fuentes de ondas de radio en el espacio exterior, demostrando que la mayoría de
fuentes deben ser ajenas a nuestra galaxia.
Penzias y Wilson indicaron en 1965 que el universo debió ser mucho más denso en el
pasado, por lo que la teoría del estado estacionario debía abandonarse.
Dos científicos rusos, Evgenii Lifshitz e Isaac Khalatnikov, en 1963, sugirieron que el
Big Bang podría ser, únicamente, una peculiaridad de los modelos de Friedmann, que
después de todo no eran más que aproximaciones al universo real. Argumentando que los
modelos de tipo Friedmann no poseían singularidades como las del Big Bang, por lo cual,
no debió existir. Retiraron su afirmación en 1970. Aún así, demostraron que el Big Bang
pudo haberse presentado si la teoría de la relatividad general era correcta.
En 1965, Roger Penrose, usando el comportamiento de los conos luminosos en la
relatividad general, demostró que una estrella colapsada bajo su propia gravedad atrapada
en una zona cuya zona se reduce a tamaño cero. Toda la materia estará comprimida en
volumen nulo, haciéndose la densidad de materia y la curvatura espacio-tiempo infinitas.
Se obtiene una singularidad dentro de un agujero negro.
Hawking menciona las ideas de Penrose en las que se inspiró para obtener su doctorado,
lo que derivaría en un artículo con el mismo en 1970, probando que el Big Bang debió
ocurrir, con la condicionante de que la teoría de relatividad general fuese correcta y que
la materia del universo fuese tanta como observamos.
De una forma u otra, la relatividad general sólo pretende ser una teoría parcial, de forma
que lo que el teorema de la singularidad realmente muestra es que debió haber habido un
tiempo, muy al principio del universo, en que éste era tan pequeño que ya no se pueden
ignorar los efectos de pequeña escala de la otra gran teoría parcial del siglo XX, la
mecánica cuántica.
 Capítulo 4 “El Principio de Incertidumbre”
A inicios del siglo XIX, el marqués de Laplace argumentó que el universo era
totalmente determinista, apoyando la idea de que debía existir una agrupación de
leyes que nos permitiera predecir todo lo que sucedería en el universo, incluyendo el
comportamiento humano.
Sus ideas fueron refutadas por lord Rayleigh y sir James Jeans, sugiriendo que un
cuerpo caliente, debí emitir energía infinita, emitiendo ondas electromagnéticas con
igual intensidad a todas las frecuencias.
Dado que el número de ciclos por segundo es limitado, esto significa que la energía
total irradiada sería infinita. Para dar evasión a lo anterior, Max Planck sugirió en
1900 que la luz, los rayos X y los tipos de ondas no podían ser emitidos en cantidades
arbitrarias, sino en paquetes llamados “cuantos”.
Cada uno poseía energía un tanto mayor cuando la frecuencia también
incrementaba, así, la radiación de altas frecuencias reduciría, y el ritmo de pérdida de
enrgía sería finito.
En 1926, Werner Heisenberg formuló su principio de incertidumbre. Para poder
predecir la posición y la velocidad futuras de una partícula, hay que ser capaz de
medir con precisión su posición y velocidad actuales.
El modo obvio de hacerlo es iluminando con luz la partícula. Algunas de las ondas
luminosas serán dispersadas por la partícula, lo que indicará su posición. Sin
embargo, uno no podrá ser capaz de determinar la posición de la partícula con mayor
precisión que la distancia entre dos crestas consecutivas de la onda luminosa, por lo
que se necesita utilizar luz de muy corta longitud de onda para poder medir la posición
de la partícula con precisión. Pero, según la hipótesis de Planck, no se puede usar una
cantidad arbitrariamente pequeña de luz; se tiene que usar como mínimo un cuanto
de luz. Este cuanto perturbará la partícula, cambiando su velocidad en una cantidad
que no puede ser predicha. Además, cuanto con mayor precisión se mida la posición,
menor habrá de ser la longitud de onda de la luz que se necesite y, por lo tanto, mayor
será la energía del cuanto que se haya de usar. Así la velocidad de la partícula resultará
fuertemente perturbada. En otras palabras, cuanto con mayor precisión se trate de
medir la posición de la partícula, con menor exactitud se podrá medir su velocidad, y
viceversa. Heisenberg demostró que la incertidumbre en la posición de la partícula,
multiplicada por la incertidumbre en su velocidad y por la masa de la partícula, nunca
puede ser más pequeña que una cierta cantidad, que se conoce como constante de
Planck. Con esto, derrumbaba el objetivo de Laplace.
1920, Heisenberg, Erwin Schrijdinger y Paul Dirac a reformular la mecánica con
una nueva teoría llamada mecánica cuántica, basada en el principio de incertidumbre.
En esta teoría las partículas ya no poseen posiciones y velocidades definidas por
separado, pues éstas no podrían ser observadas. En vez de ello, las partículas tienen
un estado cuántico, que es una combinación de posición y velocidad.
La mecánica cuántica otorga un intervalo de soluciones y las probabilidades de
cada una de ellas. A pesar de que Einstein ganó el Nobel por su contribución a lo
cuántico, siempre descartó que el universo se rigiera por azar.
Casi toda la ciencia y tecnología actual se basa en la mecánica cuántica, el principio
de incertidumbre de Heisenberg implica que las partículas se comportan en algunos
aspectos como ondas: no tienen una posición bien definida, sino que están
“esparcidas” con una cierta distribución de probabilidad. La teoría de la mecánica
cuántica está basada en una descripción matemática completamente nueva, que ya no
describe al mundo real en términos de partículas y ondas; sólo las observaciones del
mundo pueden ser descritas en esos términos.
Por tanto, hay una dualidad entre ondas y partículas en la mecánica cuántica: para
algunos fines es útil pensar en las partículas como ondas, mientras que para otros es
mejor pensar en las ondas como partículas.
Aún no tenemos una teoría consistente completa que unifique la relatividad general
y la mecánica cuántica, pero sí que conocemos algunas de las características que debe
poseer.
 Capítulo 5 “Las Partículas Elementales y las Fuerzas de la Naturaleza”
Aristóteles creía que toda la materia del universo estaba compuesta por cuatro
elementos básicos: tierra, aire, fuego y agua. También creía que la materia era
continua, (que un pedazo de materia se podía dividir sin límite en partes cada vez más
pequeñas).
Demócrito, sostenía que la materia era inherentemente granular y que todas las
cosas estaban constituidas por un gran número de diversos tipos diferentes de átomos.
En 1803, el químico y físico británico John Dalton señaló que el hecho que los
compuestos químicos siempre se combinaran en ciertas proporciones podía ser
explicado mediante el agrupamiento de átomos para formar otras unidades llamadas
moléculas.
En 1905, Einstein señaló que el fenómeno conocido como movimiento browniano,
el movimiento irregular, aleatorio de pequeñas partículas de polvo suspendidas en un
líquido, podía ser explicado por el efecto de las colisiones de los átomos del líquido
con las partículas de polvo.
J. J. Thomson, había demostrado la existencia de una partícula material, llamada
electrón, que tenía una masa menor que la milésima parte de la masa del átomo más
ligero.
En 1911, el físico británico Ernest Rutherford mostró, finalmente, que los átomos
de la materia tienen verdaderamente una estructura interna: están formados por un
núcleo extremadamente pequeño y con carga positiva, alrededor del cual gira un
cierto número de electrones.
En 1932, James Chadwick, descubrió que el núcleo contenía otras partículas,
llamadas neutrones, que tenían casi la misma masa que el protón, pero que no poseían
carga eléctrica, recibió el premio Nóbel por este descubrimiento
Hace veinte años, se creía que los protones y los neutrones eran partículas
“elementales”, pero experimentos en los que colisionaban protones con otros
protones o con electrones a alta velocidad indicaron que, en realidad, estaban
formados por partículas más pequeñas. Estas partículas fueron llamadas quarks por
el físico de Caltech, Murray Gell-Mann, que ganó el premio Nóbel en 1969.
Los quarks son mucho más pequeños que la longitud de onda de la luz visible y,
por lo tanto, no poseen ningún color. Un protón o un neutrón están constituidos por
tres quarks, uno de cada color. Un protón contiene dos quarks up y un quark down;
un neutrón contiene dos down y uno up. Se pueden crear partículas constituidas por
los otros quarks (strange, charmed, bottom y top), pero todas ellas poseen una masa
mucho mayor y decaen muy rápidamente en protones y neutrones.
La mecánica cuántica nos dice que todas las partículas son en realidad ondas, y
que cuanto mayor es la energía de una partícula, tanto menor es la longitud de onda
de su onda correspondiente.
Estas energías de las partículas se miden normalmente en una unidad llamada
electrón-voltio. En el siglo XIX, se creía que los átomos eran la unidad más pequeña.
En el experimento de Rutherford, las partículas alfa tenían energías de millones de
electrón-voltios. las partículas que se creían “elementales” hace veinte años, están, de
hecho, constituidas por partículas más pequeñas.
Estas partículas tienen una propiedad llamada espín. Un modo de imaginarse el
espín es representando a las partículas como pequeñas peonzas girando sobre su eje.
Lo que nos dice realmente el espín de una partícula es cómo se muestra la partícula
desde distintas direcciones. Una partícula de espín 0 es como un punto: parece la
misma desde todas las direcciones.

Por el contrario, una partícula de espín 1 es como una flecha: parece diferente desde
direcciones distintas. Sólo si uno la gira una vuelta completa (360 grados) la partícula parece
la misma.

Una partícula de espín 2 es como una flecha con dos cabezas: parece la misma si se gira
media vuelta (180 grados). De forma similar, partículas de espines más altos parecen las
mismas si son giradas una fracción más pequeña de una vuelta completa. Todo esto parece
bastante simple, pero el hecho notable es que existen partículas que no parecen las mismas
si uno las gira justo una vuelta: hay que girarlas dos vueltas. Se dice que tales partículas
poseen espín 1/2.

Todas las partículas conocidas del universo se pueden dividir en dos grupos: partículas de
espín 1/2, las cuales forman la materia del universo, y partículas de espín 0, 1 y 2, las cuales,
como veremos, dan lugar a las fuerzas entre las partículas materiales.

Wolfgang Poli, en 1925 establece el principio de exclusión de Pauli, dice que dos
partículas similares no pueden existir en el mismo estado, es decir, que no pueden tener
ambas la misma posición y la misma velocidad, dentro de los límites fijados por el principio
de incertidumbre.
Un entendimiento adecuado del electrón y de las otras partículas de espín 1/2 no llegó
hasta 1928, a por Paul Dirac, explicó matemáticamente por qué el electrón tenía espín 1/2,
es decir, por qué no parecía lo mismo si se giraba sólo una vuelta completa, pero sí que lo
hacía si se giraba dos vueltas. También predijo que el electrón debería tener una pareja: el
antielectrón o positrón. El descubrimiento del positrón en 1932 confirmó la teoría de Dirac;
hoy en día sabemos que cada partícula tiene su antipartícula, con la que puede aniquilarse.

En mecánica cuántica, las fuerzas o interacciones entre partículas materiales, se supone


que son todas transmitidas por partículas de espín entero, 0, 1 o 2. Lo que sucede es que una
partícula material, tal como un electrón o un quark, emite una partícula portadora de fuerza.
El retroceso producido por esta emisión cambia la velocidad de la partícula material. La
partícula portadora de fuerza colisiona después con otra partícula material y es absorbida.

Una propiedad importante de las partículas portadoras de fuerza es que no obedecen el


principio de exclusión. Esto significa que no existe un límite al número de partículas que se
pueden intercambiar.

Las partículas de espín 0, 1 o 2 también existen en algunas circunstancias como partículas


reales, y entonces pueden ser detectadas directamente. En este caso se nos muestran como lo
que un físico clásico llamaría ondas, emitidas cuando las partículas materiales interactúan
entre sí, por medio de un intercambio de partículas virtuales portadoras de fuerza.

Las partículas portadoras de fuerza se pueden agrupar en cuatro categorías, de acuerdo


con la intensidad de la fuerza que trasmiten y con el tipo de partículas con las que interactúan.
Esta división en cuatro clases es una creación artificiosa del hombre:

La primera categoría es la fuerza gravitatoria. Esta fuerza es universal, en el sentido que


toda partícula la experimenta, de acuerdo con su masa o energía. La gravedad es la más débil,
con diferencia, de las cuatro fuerzas.

La siguiente categoría es la fuerza electromagnética, que interactúa con las partículas


cargadas eléctricamente, como los electrones y los quarks, pero no con las partículas sin
carga, como los gravitones. Es mucho más intensa que la fuerza gravitatoria, hay dos tipos
de carga eléctrica, positiva y negativa. La fuerza entre dos cargas positivas es repulsiva, al
igual que la fuerza entre dos cargas negativas, pero la fuerza es atractiva entre una carga
positiva y una negativa.

La tercera categoría es la llamada fuerza nuclear débil, que es la responsable de la


radioactividad y que actúa sobre todas las partículas materiales de espín 1/2, pero no sobre
las partículas de espín 0, 1 o 2, tales como fotones y gravitones. En 1967, Abdus Salam y
Steven Weinberg, propusieron una teoría que unificaba esta interacción con la fuerza
electromagnética.

La cuarta categoría de fuerza es la interacción nuclear fuerte, que mantiene a los quarks
unidos en el protón y el neutrón, y a los protones y neutrones juntos en los núcleos de los
átomos. Se cree que esta fuerza es trasmitida por otra partícula de espín 1, llamada gluón,
que sólo interactúa consigo misma y con los quarks.

El éxito de la unificación de las fuerzas electromagnéticas y nucleares débiles produjo un


cierto número de intentos de combinar estas dos fuerzas con la interacción nuclear fuerte, en
lo que se han llamado teorías de gran unificación (o TGU). Dicho nombre es bastante
ampuloso: las teorías resultantes ni son tan grandes, ni están totalmente unificadas, pues no
incluyen la gravedad.

Conclusión

Resulta difícil encontrar un punto de partida para desarrollar el impacto que ha tenido la
lectura parcial de esta obra, en primera, es de resaltarse el logro del señor Hawking para
adaptar el lenguaje físico-matemático a uno un poco más comprensible para el público en
general. “La Historia del Tiempo”, es un libro que aborda las grandes incógnitas que el ser
humano ha generado conforme su capacidad de raciocinio y reflexión sobre los fenómenos
naturales que rigen a su entorno se van desarrollando.

Asimismo, pienso que la lectura de este ejemplar, podría despertar la empatía y el interés
de la comunidad estudiantil sobre las temáticas tratadas, que resultan indispensables para el
área de conocimiento que deseamos desempeñar.

Si algo resulta cierto, es lo mencionado a fines del primer par de capítulos, la naturaleza
del hombre es la de hallar respuestas, comprender a fondo los motivos y el funcionamiento
del universo, cualidad que nos ha llevado a un desarrollo potencial del conocimiento y
aplicación de la ciencia y la tecnología. Es muy probable que las cuestiones que hoy en día
afligen al mundo científico, serán respondidas de manera sencilla en un futuro, y aun cuando
éstas no traigan repercusiones muy significativas en el contexto histórico-social, serán
motivo de orgullo para los hombres y mujeres encargados de la búsqueda de respuestas.

También podría gustarte