Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Descubriendo La Fisica PDF
Descubriendo La Fisica PDF
Presentación
El nacimiento de la astronomía es también el nacimiento de la ciencia, y por eso resulta de gran
interés examinar detalladamente las circunstancias que condujeron a la humanidad a la observa-
ción sistemática del movimiento de los astros y a establecer una correlación entre las regularidades
de tal movimiento y la periodicidad de fenómenos como los ciclos estacionales. El resultado más
tangible de este primitivo interés por la búsqueda de relaciones entre los sucesos terrestres y los
acontecimientos de los cielos fue el calendario, que habría de convertirse en la referencia obliga-
da para realizar las actividades más importantes de la sociedad. Sin embargo, las imprecisiones
acumuladas a lo largo de los años demandaban revisiones continuas y la elaboración de modelos
capaces de predecir los eventos astronómicos con más exactitud, lo cual condujo al planteamiento
de problemas cuya solución sirvió de estímulo al estudio y desarrollo de disciplinas como las mate-
máticas y la geometría.
La primera regularidad que nos brinda el movimiento astronómico es la sucesión del día y la
noche. Aunque dos días sucesivos son casi iguales, la observación prolongada nos permite
apreciar una diferencia que se va haciendo cada vez mayor: el día dura cada vez más y la
noche dura menos, hasta llegar a un día que es el más largo del año, lo cual marca el inicio
del verano. A partir de este día la diferencia en duración con la noche se va haciendo menor
hasta que se igualan en el día del equinoccio, que señala el inicio del otoño; a continuación
la noche empieza a alargarse y el día a reducirse hasta llegar a la noche más larga del
año, que determina el inicio del invierno; finalmente, el día empieza a alargarse y la noche
a reducirse hasta llegar a un nuevo equinoccio que marca el inicio de la primavera, que se
habrá de prolongar hasta que de nuevo llegue al día más largo del año. El ciclo completo,
que comprende las cuatro estaciones, tiene una duración aproximada de 365 días.
La diferencia entre el día y la noche es muy apreciable en las zonas situadas en las latitudes
medias y altas del planeta, donde en el verano, por ejemplo, se puede tener luz del Sol has-
ta altas horas de la noche, y en el invierno se invierte completamente la situación; pero en
las zonas tropicales tales diferencias no son tan evidentes, aunque pueden ser observadas
si se presta atención a algunos fenómenos como el comportamiento de la sombra que pro-
yecta el Sol en un patio lleno de materas con flores delicadas, que deben ser cambiadas de
lugar periódicamente para evitar que se resequen por el exceso de luz solar. Por otra parte,
quienes deben madrugar para empezar a estudiar o a trabajar a las seis de la mañana en-
cuentran familiar el hecho de que en unas épocas del año amanece más temprano que en
otras, y lo propio ocurre con el atardecer.
La variación periódica en la duración del día y la noche está acompañada de una variación
sistemática del punto por donde sale y se pone el Sol sobre el horizonte cada día, obser-
vado siempre desde un mismo lugar; pero también es posible hacer una observación del
movimiento del Sol que no depende del lugar de la Tierra desde donde se realice, y es su
desplazamiento respecto a las estrellas fijas.
A lo largo del periodo de 365 días que hemos denominado un año, el Sol se va desplazando
respecto a las estrellas fijas y recorre una trayectoria que se denomina eclíptica, o línea de
los eclipses, por ser a lo largo de esta línea que se producen estos fenómenos. El Sol apa-
rece todos los días con cinco minutos de retraso respecto a las estrellas que lo precedieron
el día anterior, como si se desplazara hacia el este (figura 1.1).
1.3 Planetas
Además de las estrellas fijas en el firmamento, es posible apreciar cinco astros que se
desplazan respecto a ellas sin la regularidad del movimiento del Sol, de la Luna o de las
mismas estrellas, razón por la que se les dio el nombre de planetas, que significa errantes o
24 vagabundos, los cuales fueron denominados con los nombres de algunos de los dioses del
Olimpo: Mercurio, Venus, Marte, Júpiter y Saturno. Posiblemente el aspecto más notable
del movimiento planetario es la denominada retrogradación, que consiste en que, en un mo-
mento dado, el planeta invierte la dirección de su desplazamiento y retrocede, para luego
detenerse, e invertir nuevamente su dirección y continuar en su trayectoria original (figura
1.2). Este comportamiento de los planetas constituyó uno de los más difíciles retos para
los astrónomos que pretendían elaborar modelos que tuvieran la capacidad de describir y
predecir el movimiento de todos los astros.
El hecho de que el periodo del ciclo solar no dure un número exacto de días obligó a los
astrónomos a elaborar modelos que fueran capaces de dar cuenta precisa de los eventos
astronómicos y a recurrir a métodos de ajuste periódico de las fechas, como la introducción
de un día adicional cada cuatro años, en los llamados años bisiestos, excepto en los cen-
tenarios.
Es evidente que los sistemas numéricos elaborados por los asirios y los babilonios, como
el sistema sexagesimal, los sistemas de medición del tiempo en periodos de 12 y 24 horas
y las correspondientes subdivisiones de las horas en sesenta minutos y los minutos en
sesenta segundos, están directamente relacionados con la duración del año de 365 días y
la división de la circunferencia en 360 grados, de los grados en 60 minutos y de estos en
60 segundos. También tiene un origen astronómico la división del Zodiaco en doce cons-
telaciones, que corresponde de manera gruesa al número de ciclos lunares de treinta días
que tiene un año. De igual forma, la duración del mes, de alrededor de treinta días, está
relacionada con la duración del ciclo de las fases de la Luna. Finalmente, los siete días
de la semana tienen que ver con los siete cuerpos celestes que se mueven respecto a las
estrellas fijas: el Sol, la Luna y los cinco planetas que se pueden ver con el ojo desnudo.
un barco sobre el horizonte, permitieron corroborar la idea. Una vez establecido el hecho
de que la Tierra tiene forma esférica es necesario disponer de un sistema de coordenadas
para ubicar la posición de cualquier lugar sobre ella, lo que da lugar a la definición de los
conceptos de latitud y longitud, con la ayuda de la observación astronómica y del uso del
calendario.
26 La aparente rotación de los astros define un eje que determina los polos norte y sur sobre
la bóveda celeste, los cuales se proyectan sobre la Tierra para definir los correspondientes
polos geográficos. De igual manera, se puede definir el ecuador celeste como el lugar de
todas las estrellas que describen la trayectoria de máxima circunferencia alrededor de la
Tierra. El ecuador terrestre resulta de la proyección del ecuador celeste sobre ella (figura
1.3).
También es posible definir el ecuador terrestre como el lugar de la Tierra de todos los pun-
tos donde el día y la noche siempre tienen la misma duración. Adicionalmente, el ecuador
terrestre corresponde al lugar de todos los puntos sobre la Tierra donde el Sol cae perpen-
dicularmente durante los equinoccios.
1.5.1 Latitud
Todos los puntos que tienen la misma latitud definen un paralelo, llamado así porque resulta
de la intersección de la Tierra con un plano que es paralelo al plano que define el ecuador.
La observación de la posición del Sol y la proyección de su sombra a mediodía permite
definir otros lugares notables sobre la Tierra. El día del solsticio de verano en el hemisferio
norte el Sol alcanza su máximo desplazamiento hacia el norte respecto al ecuador. Ese día
el Sol cae perpendicularmente sobre el lugar que define el trópico de Cáncer. Seis meses
más tarde alcanza su máximo desplazamiento hacia el sur y cae perpendicularmente sobre
27
un lugar denominado trópico de Capricornio. Los trópicos de Cáncer y Capricornio definen
planos paralelos al ecuador que cortan la Tierra a 23o 27’ de latitud norte y sur, respecti-
vamente.
Durante el solsticio de verano el Sol es visible durante 24 horas dentro de un casquete al-
rededor del polo norte que está limitado por un paralelo denominado círculo polar ártico. El
mismo día, de manera correspondiente, alrededor del polo sur se define un casquete donde
el Sol está oculto las 24 horas del día, limitado por un paralelo denominado círculo polar
antártico. Seis meses más tarde, durante el solsticio de invierno en el hemisferio norte, la
situación se invierte. Por esta razón se dice que los días y las noches polares duran seis
meses, aunque lo correcto sería decir que durante seis meses los días polares duran 24
horas, y durante los siguientes seis meses las noches duran 24 horas (figura 1.4).
1.5.2 Longitud
recibe el nombre de Greenwich, debido a la localidad inglesa cerca a Londres por la que
atraviesa. De igual manera, cualquier punto sobre la Tierra es atravesado por un meridiano
que define la longitud del lugar. La longitud se mide entre 0 y 180 grados hacia el este o el
oeste del meridiano 0 (figura 1.5).
La longitud de un lugar se puede medir comparando la hora local con la hora de Greenwich,
28 lo cual solo se podía hacer mediante observaciones astronómicas antes del siglo dieciocho,
cuando fue posible disponer de relojes que permitían transportar la hora de referencia para
compararla con la hora local. Antes de que esto sucediera, la determinación de la longitud
constituyó uno de los problemas prácticos más importantes que debía resolver la astrono-
mía para la orientación en alta mar y en los viajes a través de estepas y desiertos.
El meridiano 180 define la línea del cambio de fecha, un curioso lugar donde dos puntos
tan cercanos como se quiera, cada uno en diferente lado de la línea, tienen una diferencia
horaria de 24 horas.
Los primeros modelos del universo reflejan una visión bastante directa e ingenua de la natu-
raleza. Los babilonios suponían que el universo era como una especie de cajón que tenía la
Tierra por piso, mientras que el cielo, que era sostenido por las montañas, servía de techo.
Alrededor de la Tierra había un foso que era recorrido diariamente por el Sol. Los egipcios,
siguiendo la influencia babilonia, situaron a El Cairo en la mitad de la Tierra, que se hallaba
rodeada por el río Nilo. Pero en el siglo IV a. C., los griegos empezaron a elaborar modelos
menos simplistas. Tales de Mileto consideró que la Tierra era un disco que flotaba en el
29
agua. Por su parte, Anaximandro asumió que las estrellas estaban fijas a una gran bóveda
que rotaba alrededor de la Tierra, mientras que esta se mantenía suspendida en el centro.
Gracias a este modelo se podía explicar la sucesión del día y la noche por el paso del Sol
debajo de la Tierra, aunque Anaximandro supuso un mecanismo un poco más complicado
para tal fenómeno.
También se atribuye a los pitagóricos la idea de que los cuerpos celestes deben estar
dispuestos en órbitas que satisfacen relaciones numéricas sencillas, tal y como lo hacen
las cuerdas de una lira para poder emitir sus sonidos armónicos, y que, por tanto, el uni-
verso en su conjunto debía producir una música celeste, “la armonía de las esferas”, que
algún día habría de servir de inspiración a Johannes Kepler para realizar algunos de sus
descubrimientos astronómicos. Los pitagóricos tuvieron conocimiento de que una cuerda
tensa produce sonidos armónicos cuando es pulsada y su longitud corresponde a fraccio-
nes sencillas de la longitud fundamental; así, la nota fundamental corresponde a la cuerda
al aire, y la octava, a la mitad de la cuerda. Si se asigna la longitud de 1 a la cuerda, y la
nota fundamental corresponde a la nota do, entonces una longitud de 8/9 corresponde a
re, una longitud de 3/4 a fa, una longitud de 2/3 a sol y una longitud de 16/27 a la. Estas
cinco notas corresponden a la escala pentatónica, o sin semitonos, que fue característica
de la cultura griega y de muchos pueblos primitivos. La relación entre la música y las ma-
temáticas sugirió a los pitagóricos la idea de que la estructura del universo corresponde a
un plan matemático, y que quien lo descifre estará en poder del conocimiento del mundo,
de ahí su gran interés por las proporciones matemáticas y geométricas, lo que, de alguna
manera, constituye el origen más remoto de la idea, base para la ciencia moderna, de que
los fenómenos naturales están regidos por leyes matemáticas que se pueden conocer.
30
El primer modelo del universo que pretendía dar una descripción y una explicación mecá-
nica del movimiento astronómico se atribuye a un pitagórico, Eudoxio de Cnido, en el siglo
IV a. C. Se trata de un modelo mecánico que parte de la suposición de que la Tierra se
encuentra suspendida e inmóvil en el centro del universo. Alrededor de la Tierra, adosados
a esferas cristalinas, giran los planetas, el Sol y la Luna, y más allá de todos ellos gira la
esfera de las estrellas fijas (figura 1.7). La característica más sobresaliente de este modelo
es que todas las esferas se encuentran engranadas entre sí, de modo que el movimiento
de cada una depende del movimiento de las demás. Por otra parte, los ejes de rotación
de cada esfera apuntan en diferente dirección, lo que puede explicar, entre otras cosas, el
cambio en la posición del Sol respecto a la Tierra a lo largo del año, que es responsable del
ciclo de las estaciones. La combinación del movimiento simultáneo de varias esferas podía
reproducir con cierto grado de aproximación el movimiento retrógrado de los planetas, aun-
que para poder lograrlo era necesario introducir esferas adicionales.
31
El modelo de Eudoxio, que llegó a tener hasta 55 esferas, no tuvo una larga vida en la
práctica de la astronomía debido a su imprecisión y a la dificultad de utilizarlo como instru-
mento de cálculo, pero introdujo un elemento clave que habría de definir la forma de trabajo
astronómico durante los siguientes dos mil años: la idea de reproducir cualquier tipo de
movimiento astronómico a partir de la superposición de movimientos circulares.
ria que describen los cuerpos celestes corresponde al movimiento circular alrededor de un
punto que, a su vez, gira alrededor de un centro que puede ser la Tierra, y de ahí el nombre
de epiciclo (figura 1.8).
32
La trayectoria circular que describe el centro del epiciclo alrededor de la Tierra se deno-
mina deferente. Mediante los epiciclos fue posible hacer una descripción del movimiento
retrógrado de los planetas y explicar los cambios en los tamaños relativos del Sol y la Luna
situando a estos últimos en órbitas excéntricas respecto a la Tierra, lo cual explicaba el
hecho observado de que el Sol recorre más de la mitad de su trayectoria en tan solo medio
año. El modelo de epiciclos (figura 1.9) fue adoptado en el siglo II por Ptolomeo, el más
notable astrónomo de la antigüedad, quien en su Almagesto compendió el conocimiento
astronómico de su tiempo y sentó las bases para la práctica de la astronomía durante casi
mil quinientos años.
33
diferente a la de la Tierra, por lo que no tenían ninguna dificultad para girar alrededor de ella
aunque fueran mucho más grandes. De la obra de Aristarco se tiene noticia por las referen-
cias que hace de ella Arquímedes. Según este, Aristarco determinó la posición del Sol en
el momento en que la Luna se encontraba en cuarto creciente, es decir que desde la Tierra
se apreciaba como media Luna, de modo que la relación entre la distancia de la Tierra a la
Luna, TL, y la distancia de la Tierra al Sol, TS, es el coseno del ángulo α formado por las
34 líneas TL y TS (figura 1.10).
De acuerdo con las mediciones hechas por Aristarco, TL/TS = 1/20, siendo un valor más
aproximado 1/400. Si bien el error es de apreciable magnitud, pues la determinación pre-
cisa del ángulo en cuestión implica tener en cuenta la refracción de la luz por la atmósfera
terrestre, algo imposible para la época, se rescata el ingenio de la medición y el resultado
puramente cualitativo de que el Sol está mucho más lejos de la Tierra que la Luna. También
se atribuye a Aristarco el haber determinado la relación entre el radio de la Tierra y el radio
de la Luna durante un eclipse lunar. Aristarco estimó que el radio terrestre era unas dos
veces el de la Luna, aunque un valor más aproximado es de unas cuatro veces. A partir
de esta medición y teniendo en cuenta el hecho de que el Sol y la Luna se ven aproxima-
damente del mismo tamaño, es decir que sus diámetros subtienden el mismo ángulo, se
puede concluir que, de acuerdo con las mediciones de Aristarco, el radio del Sol es unas
veinte veces mayor que el de la Luna y unas diez veces mayor que el de la Tierra. De nuevo
tenemos un error de medida considerable, pero sigue siendo importante el hecho de haber
podido determinar que el Sol es mucho más grande que la Tierra, lo que, aparentemente,
llevó a Aristarco a proponer que era esta la que giraba alrededor de aquel, y no lo contrario,
como predicaban los modelos de la época.
R∝ =800 km
No hay un acuerdo bien establecido entre los historiadores respecto al valor que obtuvo,
pues lo expresó en estadios, pero no especificó si eran estadios griegos o romanos, que
tienen diferente longitud, además del hecho de que Asuán y Alejandría no se encuentran
exactamente sobre el mismo meridiano, lo que introduce un factor de error considerable.
En el mejor de los casos se podría estimar el valor obtenido para el radio de la Tierra por
Eratóstenes en 6840 kilómetros, mientras que el valor real es de 6370, lo que constituye
una excelente aproximación teniendo en cuenta el método de medición utilizado. Indepen-
dientemente del valor obtenido, lo importante es saber que casi mil ochocientos años antes
de Colón se tenía conocimiento de que la Tierra era redonda y se disponía de un método,
con errores, pero susceptible de ser perfeccionado, para determinar sus dimensiones.
Resumen
Gracias a la observación astronómica, ingenua y a ojo desnudo, el hombre pri-
mitivo empezó a descubrir regularidades y a establecer una correlación con pro-
36 cesos cíclicos que afectaban su vida cotidiana y mejoraban sus posibilidades de
supervivencia. En primer lugar, el movimiento concertado de las estrellas fijas,
como si giraran alrededor de un eje, permitió definir los polos celestes y disponer
de un valioso recurso para la orientación; y, en segundo lugar, la agrupación de
estrellas de acuerdo a su brillo y a las figuras que suscitaban en la imaginación del
observador, así como el comportamiento aparentemente errático de los planetas,
permitió hacer una primera clasificación de los objetos celestes. Posteriormente
se definió el año a partir de la observación de la regularidad y de la periodicidad
del movimiento del Sol respecto a las estrellas a lo largo de la eclíptica para
completar un ciclo en 365 días, que corresponde, aproximadamente, a unos doce
ciclos lunares, y se establecieron las bases para la elaboración del calendario,
que habría de constituirse en la guía de los eventos comunitarios de mayor im-
portancia. Adicionalmente, la necesidad de predecir eventos astronómicos como
los eclipses y las conjunciones planetarias condujo a la elaboración de modelos
astronómicos, a partir de la idea de que el circular era el único movimiento posible
para los astros.
Cuestionario
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Bernal, J. (1975). Historia de la física clásica. Siglo Veintiuno.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
38 Jeans, J. (1968). Historia de la física. FCE.
Sepúlveda, A. (2003). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
El desfase que se presentaba entre las fechas del calendario y la ocurrencia de los fenómenos
astronómicos que le sirven de referencia se debía a que el calendario juliano se basaba en años de
365.25 días, pero el verdadero valor del año solar es de 365 días 5 horas 48 minutos y 46 segundos,
o sea 365.2425 días, lo que causa un retraso de casi un día por siglo. A diferencia del calendario
juliano, el gregoriano está concebido para que haya una adecuada correspondencia entre las fechas
y los eventos astronómicos durante 20.000 años debido a que elimina los años bisiestos en todos
los finales de siglo, excepto si son divisibles por 400 o por 4000.
La necesidad de reformar el calendario conllevó una revisión a fondo de las tablas astronómicas y
del modelo y los artificios de cálculo astronómicos vigentes para la época, lo que permitió evidenciar,
una vez más, lo extraordinariamente complicado que resultaba la realización de un cálculo al tener
que manipular de manera simultánea un gran número de epiciclos, dificultad que se veía agravada
cuando, como sucedía con frecuencia, los cálculos y las observaciones no concordaban y se hacía
necesario introducir correcciones. Los astrónomos clamaban por modelos más sencillos que simpli-
ficaran e hicieran más fácil su trabajo, y se empezó a contemplar la idea de que un modelo diferente
al de Ptolomeo podría satisfacer estas aspiraciones, lo cual encontró condiciones favorables en el
ambiente intelectual del Renacimiento.
El renovado interés por la cultura griega, que se generalizó en Europa a finales de la Edad Media,
puso en contacto a los estudiosos de la época con los grandes desarrollos científicos, matemáticos
y astronómicos que habían hecho los griegos, particularmente en Alejandría, lo cual fomentó una
actitud crítica a la filosofía de Aristóteles, que era el soporte de la doctrina de la Iglesia católica, y,
por el contrario, a la exaltación de la filosofía de Platón y de las doctrinas pitagóricas referentes a
la perfección matemática del universo y la posibilidad de descubrir sus leyes a partir del estudio
Capítulo 2 : La revolución copernicana
de las matemáticas y la geometría, disciplinas que en la época tenían muy bajo estatus
intelectual frente a otras como la teología, la retórica o la filosofía, que gozaban del máximo
reconocimiento.
Fue en este ambiente intelectual que la obra del astrónomo polaco Nicolás Copérnico
(1473-1543) surgió como una alternativa esperanzadora. Copérnico estudió astronomía en
Italia con el famoso astrónomo Francisco María Novaro, y se familiarizó con el Almagesto,
la monumental obra astronómica de Ptolomeo, base fundamental de la astronomía oficial.
Pero Copérnico también conoció la dura crítica que hizo Pico de la Mirandola a la astrono-
mía de la época en su obra Crítica a la astrología adivinatoria, en la que descalificaba la
pretensión de los astrólogos de adivinar el futuro a partir de la interpretación de los astros,
cuando ni siquiera podían ponerse de acuerdo en la posición de los planetas. En efecto, el
modelo de Ptolomeo afirmaba que Venus estaba más cerca del Sol que Mercurio, y este
más cerca de la Luna, y que los dos recorrían órbitas en epiciclos entre la Tierra y el Sol,
por lo cual se denominaban planetas interiores; no obstante, otros afirmaban que los dos
planetas se hallaban más allá de la órbita del Sol, lo que daba cuenta de la incertidumbre
en la que se encontraba la astronomía de la época, y esto imponía, por tanto, la necesidad
de hacer reformas, tales como la que Copérnico estaba a punto de proponer. Es importante
tener en cuenta que en la época de Copérnico las profesiones de astrónomo, astrólogo y
matemático se confundían entre sí.
La obra magna de Copérnico, Sobre las revoluciones de las esferas celestes, se publicó en
1543 (el mismo año de la muerte de su autor) gracias al empeño del astrónomo protestante
Cornelio Rético, quien alentó a Copérnico a que publicara el texto y realizó gran parte de
los trámites necesarios para su impresión. Sin embargo, antes de salir a la luz pública, la
Iglesia protestante condenó el libro al considerar que defender el movimiento de la Tierra
y la inmovilidad del Sol era ponerse en contra de las Sagradas Escrituras, donde se afirma
explícitamente lo contrario. Por esta razón el impresor Andreas Ossiander, con el fin de
no perder la cuantiosa inversión que ya se había hecho, decidió publicarlo añadiendo un 41
prólogo apócrifo en el que, supuestamente, el autor afirmaba que las ideas expuestas en el
texto se debían tomar como meras hipótesis cuya única finalidad era facilitar la realización
de cálculos astronómicos, sin ninguna pretensión de verdad. Por su parte, la Iglesia católica
puso a la obra de Copérnico en el Índice de libros prohibidos en 1616, hasta 1822 cuando
se permitió a los fieles estudiar lo que para entonces ya era el modelo oficial de la astrono-
mía en la mayor parte del mundo civilizado (figura 2.1).
5. Todos los movimientos que parece hacer el firmamento no provienen del firma-
mento mismo sino del movimiento de la Tierra, que, junto con todo lo que la rodea,
realiza una rotación completa sobre sí misma diariamente, mientras el firmamento
permanece inmóvil.
6. Lo que se nos presenta como movimiento del Sol no proviene de su movimiento
42 sino del movimiento de la Tierra y de su esfera, con la que gira alrededor del Sol
como cualquier planeta; por tanto, la Tierra tiene más de un movimiento.
7. Los movimientos retrógrados y directos de los planetas no provienen de sus mo-
vimientos sino del de la Tierra. El movimiento de la Tierra por sí solo es suficiente
para explicar los movimientos de los cielos.
Copérnico asigna a la Tierra tres tipos de movimientos: el de rotación sobre su eje con una
duración de 24 horas, que explica la sucesión del día y la noche; uno de traslación alrededor
del Sol a lo largo de una órbita excéntrica, que dura un año sideral; y un movimiento de
declinación del eje de rotación, que explica la precesión de los equinoccios, que había sido
descubierta por Hiparco de Nicea en la época de oro de la astronomía en Alejandría. Fiel
a la tradición, Copérnico preserva la circularidad del movimiento astronómico y continúa
utilizando los epiciclos como artificio para reproducir las órbitas planetarias y para construir
órbitas excéntricas como la de la Tierra alrededor del Sol, o la de la Luna alrededor de la
Tierra, de tal forma que se puedan explicar las variaciones en las distancias relativas de
los astros, que se manifiestan en los cambios de brillo de los planetas o en la ocurrencia
de eclipses parciales o totales de sol. Pero a diferencia de Ptolomeo, Copérnico prescinde
del uso del ecuante, una construcción introducida por Ptolomeo con el fin de recuperar la
regularidad del movimiento astronómico mediante la definición de un punto desde el que el
planeta parece describir un movimiento angular uniforme. El punto ecuante fue introducido
por Ptolomeo para subsanar la aparente irregularidad del movimiento de los planetas que
cambian continuamente de velocidad a lo largo de su trayectoria cuando son vistos desde
la Tierra.
43
Copérnico pretende responder a estas objeciones dentro del mismo esquema conceptual,
al afirmar que la Tierra es el centro de la gravedad, es decir, de la caída de los cuerpos, y
del movimiento de la Luna, y que todas las cosas que hay en la Tierra y alrededor de ella la
acompañan solidariamente en su viaje. Explica el movimiento de rotación y de traslación en
una órbita circular por ser lo más apropiado para un cuerpo que, como la Tierra, tiene forma
esférica. Además replica al argumento de que la Tierra se debería despedazar al rotar sobre
sí misma diciendo que, al ser mucho más grande que la Tierra, la esfera de las estrellas
fijas tendría una mayor razón para despedazarse, cosa que no sucede. En el caso de este
último contraargumento, Copérnico incurre en una omisión, pues aparentemente no tiene
en cuenta que los cuerpos celestes se suponían compuestos por un material de diferente
naturaleza al que compone la Tierra, y, por tanto, sujeto a diferentes condiciones.
Algunos historiadores, como Thomas Kuhn, afirman que, más que un revolucionario de la
astronomía, Copérnico fue el último astrónomo clásico, y que su modelo fue el último intento
por salvar la astronomía y sus conceptos de base tal y como se habían mantenido durante
más de dos mil años. Las radicales innovaciones que habrían de realizar los sucesores de
Copérnico para poner a punto su sistema y lograr su aceptación demostrando su sencillez
y eficacia respaldan esta posición.
por las autoridades de la época. Sin embargo, las ideas de Copérnico se fueron abriendo
paso y paulatinamente fue creciendo el número de sus defensores, entre los que se encon-
traba quien llegaría a ser el astrónomo más importante de su época, el alemán Johannes
Kepler (1571-1630). Formado en la tradición pitagórica, lo que muy probablemente lo llevó
a adoptar la causa de Copérnico, pues los pitagóricos rendían culto al Sol como la máxima
46 deidad, Kepler se dio a la tarea de encontrar en el universo, a través del modelo de Copér-
nico, las armonías matemáticas y geométricas que, supuestamente, regían sus movimien-
tos. Dotado de una imaginación tan grande como sus capacidades de matemático, Kepler
creyó haber descubierto en los cinco sólidos perfectos la razón de que solo hubiera los seis
planetas que se conocían en su época. Buscando relaciones geométricas entre las órbitas
planetarias, Kepler inscribió los cinco sólidos regulares en las seis esferas planetarias, pero
como no pudo conseguir el acuerdo perfecto entre el cálculo matemático, el modelo geomé-
trico y los valores entonces conocidos de los radios de las órbitas, decidió que las esferas
planetarias debían tener un cierto espesor, de tal manera que forzando un poco los datos
pudo llegar a lo que para él fue un gran descubrimiento, aunque el resultado obtenido no
fue exactamente como se esperaba, pues en lugar de una única armonía celeste o música
celestial emitida por las esferas planetarias en su movimiento, se obtenía una melodía
que alternaba de tonalidad en notas altas y bajas. Al igual que en el caso de las órbitas y
los sólidos regulares, Kepler “descubrió” otras supuestas regularidades matemáticas en el
universo, que no resistieron la prueba del tiempo, como aquella que pretendía explicar por
qué Júpiter tenía cuatro satélites y la Tierra solo uno, pero en medio de la confusa maraña
de seudodescubrimientos y supuestas regularidades matemáticas, también encontró las
tres primeras leyes universales del movimiento astronómico, gracias, en gran parte, a las
tablas de observaciones astronómicas del astrónomo danés Tycho Brahe (1546-1601), cu-
yos datos tenían la mejor precisión que se podía lograr con los instrumentos de la época.
no se veía afectado por la dirección en la que disparaban sus balas. Si la Tierra rota hacia
el este, argumentaba Tycho, una bala de cañón debería avanzar más cuando es disparada
hacia el oeste, pues el blanco se mueve hacia el lugar desde donde disparó el cañón, que
cuando es disparada hacia el este, pues en el último caso el blanco se aleja de donde fue
disparada la bala. Aunque no hay indicios de que Tycho hubiera realizado ningún tipo de ex-
perimento con cañones, los de su época no le habrían permitido llegar a ninguna conclusión 47
definitiva en vista del muy corto alcance que poseían, de tan solo unos cientos de metros.
No deja de ser paradójico que cuando a principios del siglo XX los barcos dispusieron de
cañones con un alcance de hasta veinte kilómetros, los artilleros se vieron en la necesidad
de tener en cuenta la rotación de la Tierra para acertar en el blanco.
Una notable observación que realizó Tycho fue la de una estrella nova. Anotando su posi-
ción con mucho cuidado durante varios días consecutivos en los que la estrella iba cam-
biando de brillo, Tycho pudo determinar que se trataba de un cuerpo celeste y no de un
cometa o de otro supuesto fenómeno sublunar, pues no cambiaba de posición respeto a
las estrellas fijas. Esta observación contradecía claramente la doctrina aristotélica de la
perfección e inmutabilidad del mundo celeste.
Las relaciones entre Tycho y Kepler fueron tormentosas debido a que el primero era un cor-
tesano amante de los placeres mundanos, mientras que el alemán era un individuo retraído
y poco sociable, y no fue sino hasta después de la muerte de Tycho que tuvo Kepler pleno
acceso a los datos astronómicos de gran precisión con los que trató de demostrar la validez
del modelo copernicano.
48
“Todos los planetas describen órbitas elípticas con el Sol situado en uno de los focos”.
49
La primera ley de Kepler supone un sacrificio conceptual de igual o mayor valor que el
realizado por Copérnico al ceder el privilegiado centro del universo a un cuerpo diferente
a la Tierra, puesto que el axioma de circularidad, íntimamente asociado a la perfección del
mundo celeste, era la más antigua y venerada de las ideas de la astronomía; sin embargo,
Kepler renunció a él ante la evidencia de los datos astronómicos de Tycho. Se puede decir
que este es uno de los más importantes aportes metodológicos que Kepler hizo a la cons-
trucción de la ciencia moderna.
50
celestes. Aunque Copérnico eliminó el punto ecuante de su modelo, Kepler lo utilizó repeti-
damente tratando de llegar a la mejor concordancia posible entre el modelo que pretendía
verificar y los datos astronómicos de los que disponía, y de esta manera descubrió que “el
radio que va del Sol al planeta barre áreas iguales en tiempos iguales”, lo que constituye su
segunda ley del movimiento planetario (figura 2.8). Tal como sucedía con el punto ecuante,
esta ley permite recuperar la regularidad donde aparentemente hay una falta de uniformi- 51
dad. De acuerdo con esta ley, cuando un planeta está más alejado del Sol y su radio vector
es mayor, barre un área determinada en un lapso de tiempo T. Posteriormente, cuando el
planeta se encuentra en la posición opuesta, su radio vector es menor y en el mismo lapso
de tiempo T debe recorrer una distancia mayor para barrer la misma área, como consecuen-
cia de lo cual resulta que cuando el planeta se encuentra más cerca al Sol su velocidad
es mayor. La ley de áreas permite conocer la velocidad de desplazamiento del planeta en
cualquier punto de su órbita.
Kepler interpretó el hecho de que la velocidad del planeta aumentara cuando estaba más
cerca al Sol suponiendo que el Sol era responsable del movimiento planetario y trabajó
arduamente tratando de encontrar la forma matemática de la ley de fuerzas que gobierna
este movimiento. Aunque no logró su objetivo dejó planteado el problema que, al ser re-
suelto por Newton, habría de poner a la astronomía sobre sólidas bases físico-matemáticas.
También anticipó que dos cuerpos suspendidos en el espacio e inicialmente en reposo se
debían atraer hasta chocar en un punto tal que la distancia recorrida por cada cuerpo debía
ser inversamente proporcional a su masa. Actualmente este punto se denomina centro de
masas del sistema.
T2 α R3 (2.1)
Aunque las órbitas planetarias son elípticas, su excentricidad es muy pequeña, y en algu-
nos casos, como en este, se pueden considerar aproximadamente circulares, con un radio
igual a su radio promedio. Si se miden las distancias astronómicas en términos del radio
medio de la órbita de la Tierra, RT, y los periodos orbitales en años, lo que constituye las de-
nominadas unidades astronómicas, UA, la tercera ley de Kepler se puede expresar como:
T2 = R3 (2.2)
Valiéndose de la tercera ley de Kepler es posible determinar los radios de las órbitas plane-
tarias a partir de sus periodos. También es posible calcular la velocidad orbital
V = 2πR/T (2.3)
de modo que
V2 = 4πR2/T2 (2.4)
V2 = 4π2/R en UA (2.5)
hacía que los planetas se movieran en sus órbitas, como si se tratara de un inmenso carru-
sel. Sin embargo, la rotación del Sol, descubierta por Galileo al observar el desplazamiento
de las manchas solares mediante el telescopio, no tiene relación directa con la suposición
de Kepler.
Aunque Kepler no hizo ningún avance positivo en la solución del problema del movimien- 53
to astronómico, dado que seguía aferrado a la concepción aristotélica del movimiento, al
sugerir la posible existencia de una ley matemática que describe las fuerzas que rigen el
movimiento de los astros contribuyó a plantear con más precisión el problema que habría
de ser resuelto con base en la dinámica elaborada por Galileo y Newton.
54
55
Es importante notar que si bien la observación de las fases de Venus no constituye de por
sí una verificación del modelo de Copérnico, puesto que el de Tycho también puede prede-
cirlas, sí es un poderoso argumento en contra del modelo de Ptolomeo, lo que contribuyó
poderosamente a que Galileo se convirtiera en un ardiente defensor del heliocentrismo.
Pero el argumento definitivo que inclinó a Galileo hacia el modelo de Copérnico fue el
descubrimiento de los satélites de Júpiter. El hecho de que Júpiter poseyera cuatro cuerpos
celestes que giraban a su alrededor en órbitas definidas y en periodos bien establecidos,
conformando un sistema copernicano en miniatura, demostraba que la Tierra no era el
único centro de los movimientos celestes, al tiempo que sugería la posibilidad de que girara
alrededor del Sol sin perder su propia luna.
Aunque Galileo también observó los anillos de Saturno, la poca resolución de su telescopio
lo hizo pensar que se trataba de un par de satélites que siempre aparecían a su lado. Gali-
leo publicó sus descubrimientos en una obra titulada Sidereus nuntius, o El enviado de los
cielos, en 1610, un año después de la aparición de la obra de Kepler Astronomia nova, y en
1613 publicó Cartas sobre las manchas solares, donde no solo anuncia el descubrimiento
de la existencia de manchas sobre la superficie del Sol, una nueva refutación de la supuesta
perfección de los cuerpos celestes, sino que permite determinar la rotación del Sol sobre
su propio eje a partir del seguimiento de las manchas a lo largo de varios días consecutivos
(figura 2.12).
56
Esta última publicación tuvo unos efectos indeseados desde el punto de vista de la acepta-
ción del modelo de Copérnico, pues dio lugar a una agria disputa respecto a la paternidad
del descubrimiento con el padre Christoph Scheiner, el astrónomo principal de la Compañía
de Jesús. La disputa, que llegó a alcanzar gran virulencia, fue particularmente desafortu-
nada pues los jesuitas, la avanzada intelectual de la Iglesia católica, se habían mostrado
inicialmente favorables al modelo de Copérnico, pero después del enfrentamiento de Gali-
leo con el Sagrado Colegio se inclinaron por el modelo de Tycho y pronto llegaron a ser los
grandes contradictores de aquel.
En 1616 Galileo fue denunciado ante la Santa Inquisición por la supuesta herejía de pre-
dicar el movimiento de la Tierra, y llamado a dar explicaciones, con el grave riesgo de ser
amonestado públicamente, e incluso procesado, en caso de sostenerse en su afirmación.
Pero esto no sucedió, pues Galileo, sabiamente aconsejado, adoptó una actitud diplomática
y declaró que sus consideraciones copernicanas no constituían una declaración de fe sino
que tenían un carácter puramente hipotético, lo que lo salvó, en esa ocasión, de una amo-
nestación que conllevaba serias consecuencias penales, y el expediente fue archivado sin
mayores consecuencias, luego de lo cual Galileo asumió una posición discreta respecto a
sus convicciones copernicanas. La situación habría de cambiar cuando el cardenal Maffeo
Barberini fue elegido papa, con el nombre de Urbano VIII, en 1623. Barberini, un intelectual
florentino de reconocido prestigio, e importante figura de la corte vaticana, había desem- 57
peñado un papel importante en su defensa cuando Galileo fue llamado a la Inquisición en
1616.
Luego de una visita al Vaticano, en la que sostuvo una larga conversación con el nuevo
papa sobre sus trabajos en astronomía, Galileo se sintió alentado para hacer públicas sus
convicciones copernicanas y los avances que había hecho al respecto, y en 1632 publicó,
con el beneplácito de la Inquisición de Florencia y la aprobación del Vaticano, su obra mag-
na, Diálogos sobre los dos máximos sistemas del mundo: el de Copérnico y el de Ptolomeo.
Pero tan pronto salió a la luz pública, el texto fue recogido por orden de la Inquisición y su
autor fue llamado a rendir cuentas.
Los Diálogos, como es conocida la obra de Galileo, se plantean como una cordial discusión
entre dos personajes. Simplicio y Salviati, que representan, respectivamente, el pensamien-
to escolástico de corte aristotélico, que se identificaba con el de la Iglesia, y el pensamiento
de Galileo, que se identificaba con los planteamientos de Copérnico. Un tercer personaje,
supuestamente imparcial, llamado Sagredo, escuchaba los argumentos de uno y otro y
terminaba siempre por darle la razón a Galileo en la persona de Salviati. Si bien la obra su-
puestamente cumplía con el formalismo de discutir en tono hipotético las dos teorías rivales
sobre el mundo, su sesgo copernicano era evidente para cualquier lector medianamente
informado. Pero la piedra de escándalo que permitió a los jesuitas acudir al Papa y acusar
a Galileo de ridiculizarlo fue que la teoría sobre la influencia de la Luna en las mareas, que
era defendida por el Papa, aparecía en la obra en boca de Simplicio. Por el contrario, el muy
brillante Salviati exponía la teoría de Galileo, en la que se explicaban las mareas como un
efecto del movimiento combinado de la traslación y la rotación de la Tierra, algo que hoy en
día se considera como el mayor fiasco intelectual del astrónomo italiano. El Papa se sintió
asaltado en su buena fe y traicionado por quien había considerado su amigo, y de inme-
diato ordenó a la Inquisición que procediera contra Galileo, quien fue convocado a Roma a
responder por el cargo de desobedecer la admonición de 1616 de no defender ni enseñar
la teoría copernicana, a pesar de que esta nunca se había concretado.
Desoyendo el consejo de algunos de sus amigos de escapar de Italia lejos del alcance del
Vaticano y la Inquisición, Galileo se presentó a Roma en pleno invierno a pesar de su preca-
rio estado de salud, seguro de convencer a sus contradictores con poderosos argumentos
de la veracidad de sus proposiciones y la bondad de sus intenciones, pero no tenía idea de
que su causa era perdida y la condena ya había sido sentenciada.
Tanto la obra de Galileo como la de Copérnico ingresaron al Índice, que era el nombre con
el que se conocía la lista de libros prohibidos para el catolicismo.
La identificación entre el pensamiento católico y el aristotélico llegó a ser tan estrecha que
se consideraba que cuestionar al uno era como cuestionar a los dos. Sin embargo, Gali-
leo, consciente de las grandes debilidades que presentaba la concepción aristotélica del
movimiento, ideó una serie de ingeniosas refutaciones lógicas y prácticas de las premisas
fundamentales de esta doctrina, y de paso estableció las bases metodológicas de la ex-
perimentación como instrumento de investigación científica, y de verificación de teorías y
postulados.
Resumen
La elaboración de modelos astronómicos geocéntricos que usaban en forma
sistemática ecuantes y epiciclos permitió salvar hasta cierto punto las apa-
riencias de los eventos astronómicos, a costa de una considerable dificultad 59
para la elaboración de los cálculos; sin embargo, la limitada precisión de los
modelos y la inexactitud de sus predicciones, que se reflejaba en el desfase
de más de diez días que tenía el calendario a finales de la Edad Media,
demandaba una permanente revisión de los cálculos y la introducción rei-
terada de ajustes y modificaciones, lo que hizo de la práctica astronómica
una actividad extraordinariamente complicada. La importancia creciente de
la astronomía como auxiliar de la navegación en alta mar después del des-
cubrimiento de América, y la determinación papal de actualizar el calendario,
contribuyeron a la revisión de los fundamentos de la astronomía y a la ela-
boración de modelos revolucionarios como el propuesto por Copérnico, que
suscitó todo tipo de polémicas debido a las fuertes implicaciones que tenía su
aceptación respecto a las creencias ancestrales sobre la posición del hombre
y de la Tierra en el universo.
Cuestionario
1. ¿Qué circunstancia determinó la necesidad de reformar el calendario a
mediados del siglo XVI?
60 2. ¿Por qué no es suficiente con añadir un día al calendario cada cuatro
años para que las efemérides concuerden con los solsticios y los equi-
noccios?
3. ¿Cómo se puede explicar el movimiento retrógrado de los planetas a
partir de un modelo heliocéntrico con epiciclos?
4. ¿Qué ventajas, y qué inconvenientes, se le pueden reconocer al modelo
astronómico de Copérnico frente al de Ptolomeo?
5. Compare las fases de Venus tal como son predichas por los modelos de
Ptolomeo y Copérnico.
6. Explique cuál es la diferencia más notable entre el modelo astronómico
propuesto inicialmente por Copérnico y el modelo de Kepler.
7. Demuestre que dados un cono y un plano secante, solo hay un ángulo
entre los dos que permite obtener una circunferencia o una parábola, en
tanto que hay una cantidad infinita de posibilidades de obtener elipses o
hipérbolas.
8. ¿Cómo se puede explicar que los eclipses de sol y de luna no se pro-
duzcan de manera regular por lo menos una vez al mes, sino con una
frecuencia mucho menor y una regularidad difícil de apreciar?
9. Calcule la velocidad a la que se desplaza un planeta en cualquier punto
de su órbita, suponiendo que se conoce su velocidad en el perihelio.
10. Calcule la distancia de la Tierra a un planeta cuyo periodo orbital es de
doce años, aproximadamente.
11. Calcule el periodo orbital de un cuerpo astronómico que ha sido obser-
vado orbitando el Sol a una distancia de unas treinta veces el radio de la
órbita terrestre.
12. ¿Cómo se puede calcular la altura de una montaña de la Luna vista
desde la Tierra?
13. ¿Cómo se puede utilizar la observación de las fases de Venus para veri-
ficar o descartar el modelo astronómico de Ptolomeo o el de Copérnico?
14. ¿Cómo se podía saber que las manchas solares son fenómenos que
ocurren en la superficie del Sol, y no el tránsito de algún satélite o plane-
ta, con la única ayuda del telescopio de Galileo?
15. ¿Por qué se puede decir que la existencia de los satélites de Júpiter
favorece la aceptación del modelo copernicano?
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Bernal, J. (1975). Historia de la física clásica. Siglo Veintiuno.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press. 61
De Santillana, G. (1976). El crimen de Galileo. Universidad de Chicago.
Drake, S. (1983). Galileo. Alianza Editorial.
Galilei, G. (1967). Diálogos sobre los dos máximos sistemas del mundo. Universidad de
California.
Geymonat, L. (1998). Historia de la filosofía y de la ciencia. Grijalbo.
Jeans, J. (1968). Historia de la física. FCE.
Koyré, A. (1973). Estudios de historia del pensamiento científico. Siglo Veintiuno.
Kunh, T. (1978). La revolución copernicana. Ariel.
Sepúlveda, A. (2003). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
Galileo obtuvo la primera clave sobre el movimiento de caída de los cuerpos del movimiento
pendular luego de observar que dos péndulos idénticos tienen el mismo periodo de oscila-
ción independientemente de la amplitud del movimiento, por lo menos hasta donde se pue-
de verificar con el primitivo reloj utilizado por Galileo, que no era otro que su propio pulso.
Pero la clave que lo condujo a establecer la ley de caída de los cuerpos resulta de observar
que el periodo de oscilación de los péndulos es independiente del peso, y que péndulos de
igual longitud y diferentes pesos realizan sus oscilaciones con la misma frecuencia.
l1 / l2 = (T1/T2)2 (3.1)
En razón de lo anterior, Galileo estableció que “todos los cuerpos caen en el mismo tiempo
desde la misma altura, independientemente de su peso”.
Esta afirmación contradice el sentido común, según el cual la velocidad a la que caen los
cuerpos debería ser proporcional a su peso. En términos aristotélicos se podría decir que
el efecto es proporcional a la causa, y puesto que la causa de la caída es la pesantez, el
cuerpo más pesado tiende a caer con mayor rapidez hacia el centro de la Tierra. Pero el
ingenioso Galileo demostró que este razonamiento conduce a una contradicción, mediante
la reducción al absurdo.
Supongamos que de manera simultánea y desde la misma altura se dejan caer dos cuerpos
cuyos pesos se encuentran en relación 10/1. De acuerdo con Aristóteles, cuando el cuerpo
más pesado llegue al suelo el cuerpo más liviano solo habrá recorrido la décima parte de la
trayectoria total, y cuando llegue al suelo habrá tardado diez veces más que el cuerpo de
mayor peso. Pero ¿qué pasa si los dos cuerpos se unen y se dejan caer? Es de esperarse
que el cuerpo más pesado arrastre al más liviano y este caiga con una mayor velocidad que
la que tendría en el caso de caer solo. Recíprocamente, el cuerpo más liviano frena al más
pesado, por lo que este habrá de caer con una velocidad menor que la que tendría si cayera
solo, de modo que el sistema combinado cae con una velocidad mayor que la del más livia-
no, pero menor que la del más pesado, cuando cada uno cae por separado. De esta manera
se contradice el principio de que la velocidad es proporcional al peso del cuerpo, pues el 65
sistema en su conjunto pesa más que el más pesado considerado de manera individual.
Esta contradicción deja como única opción la ley de caída de Galileo.
Galileo fue célebre por plantear experimentos mentales en los que partiendo de situaciones
reales se descubre una tendencia que permite llegar a la ley, una vez establecidas las con-
diciones ideales. Veamos cómo se da esta situación en el caso de la caída de los cuerpos.
Consideremos dos esferas macizas de igual diámetro, la una de hierro y la otra de madera,
y dejémoslas caer en diferentes medios para estudiar el efecto de la viscosidad sobre la
velocidad de caída. Si las esferas se dejan caer de manera simultánea en aceite, se podrá
apreciar que la bola de hierro cae más rápidamente que la de madera. Si se repite la expe-
riencia en agua, se podrá observar que la bola de hierro todavía cae más rápido que la de
madera, pero la diferencia se ha reducido. Luego se realiza la experiencia en el aire y se
podrá constatar que, aunque persiste una diferencia, es casi imperceptible.
Finalmente se plantea el experimento que, aunque Galileo no podía realizar por limitaciones
prácticas, es el que conduce a la ley deseada: la caída de los cuerpos en el vacío. Es de es-
perarse que, si la tendencia se mantiene, a medida que disminuye la viscosidad del medio
disminuye la diferencia entre los tiempos de caída asociada al peso del cuerpo, de tal modo
que en el vacío, donde la resistencia del medio es nula, la diferencia entre los tiempos de
caída también lo sea, de modo que se puede establecer, nuevamente, la ley de caída de
los cuerpos de Galileo en su forma cualitativa: “En el vacío todos los cuerpos caen con la
misma velocidad, independientemente de su peso” (figura 3.1).
3.2 Inercia
El estudio del péndulo provee de importantes claves sobre el movimiento de caída y de
ascenso de los cuerpos, que posteriormente Galileo habría de estudiar detalladamente uti-
lizando planos inclinados para establecer relaciones cuantitativas, algo que en el péndulo
66 estaba más allá de sus posibilidades.
R1 = R0+ P1O
P2 R2 = R0+ P2O
R2
P1 R1
P0
O
h h h
R ∞
Figura 3.2. Péndulo con obstáculo.
pueden formular dos preguntas: ¿con qué velocidad se desplaza la masa del péndulo? y
¿qué mueve al péndulo a lo largo de su trayectoria?
Consideremos la primera pregunta. El péndulo parte del reposo y alcanza su máxima ve-
locidad en el punto más bajo de su trayectoria; a partir de este punto el péndulo empieza
a ascender y su velocidad disminuye gradualmente hasta que la masa alcanza la altura h 67
y se detiene, antes de reiniciar el ciclo. Galileo hace la siguiente consideración: cuando el
péndulo desciende, su velocidad aumenta; cuando asciende, su velocidad disminuye; pero
cuando la masa del péndulo ni asciende ni desciende, su velocidad permanece constante.
En consecuencia, Galileo propone que la velocidad de un cuerpo que se desplaza horizon-
talmente sin ningún tipo de fricción permanece constante.
Ahora consideremos la segunda pregunta: ¿qué mueve al cuerpo sobre la trayectoria ho-
rizontal? Si bien podemos considerar que hay un agente, al que le damos el nombre de
gravedad, responsable de que la velocidad del cuerpo aumente durante la caída y de que
disminuya durante la subida, no hay ningún agente responsable del movimiento horizontal;
se puede decir que el cuerpo se mueve sin que ningún agente actúe sobre él, o que:
sobre una cuña rectangular. Esto permitió a Galileo estudiar la caída de un cuerpo como
caso límite del movimiento sobre el plano inclinado. La ventaja de trabajar en el plano incli-
nado consistía en poder aumentar el tiempo de descenso del cuerpo a lo largo de un plano
de varios metros con poca inclinación. Para medir el tiempo, Galileo utilizó un dispositivo
llamado clepsidra, que dejaba caer agua en un recipiente durante el recorrido del cuerpo.
68
La clepsidra está conformada por un recipiente esférico con pequeños agujeros en la base,
rematado por un tubo que se puede tapar o abrir para que salga el agua contenida en su
interior. El agua vertida durante el recorrido del móvil era pesada y se estimaba que su peso
era proporcional al tiempo transcurrido. En resumen, podemos decir que Galileo pesaba el
tiempo (figura 3.3).
69
Figura 3.4. Cuña rectangular y cadena.
Si consideramos una cuña rectangular que reposa sobre uno de los catetos (figura 3.5) se
puede determinar que la relación entre el peso P de la sección que cuelga perpendicular-
mente y el peso P de la sección que descansa sobre el lado h es
F = Psen α
Pa h
a
De esta manera se puede establecer que el peso necesario para equilibrar a un cuerpo de
peso P sobre un plano inclinado en un ángulo α es
F = P sen a (3.3)
Esta relación garantiza que a partir del análisis del movimiento en el plano inclinado se
puede establecer el comportamiento de un cuerpo en caída libre, teniendo en cuenta que
sen 90° = 1. De igual manera se puede determinar la aceleración de caída libre g a partir de
la aceleración a del móvil sobre el plano inclinado, a partir de la relación
a = g sen a (3.4)
Para determinar a qué tipo de movimiento acelerado corresponde la caída de los cuerpos,
Galileo utilizó la regla de Oresme, que discutiremos en detalle más adelante, para el mo-
vimiento uniformemente acelerado. Aunque no había manera de saber “a priori” a qué tipo
de movimiento correspondía el de caída, Galileo apeló a un principio de sencillez e hizo la
suposición de que se trataba del más simple de los movimientos acelerados posible. La
experimentación con el plano inclinado y la paciente recolección de datos, tomados del nú-
70 mero de veces necesario para reducir el margen de error, le permitió verificar que efectiva-
mente la caída libre de un cuerpo corresponde a un movimiento uniformemente acelerado.
3.5 Cinemática
El aporte metodológico de Galileo a la construcción de la ciencia como una actividad teórica
se puede verificar experimentalmente a partir de la cuidadosa preparación de sus montajes,
la selección de las variables que se quieren determinar y la definición clara de las magnitu-
des que intervienen en el modelo teórico.
Si ∆x = x - x0 y ∆t = t - t0, entonces
v = ∆x/∆t (3.5)
x = x0 + vt (3.6)
Si ∆v = v - v0, entonces
a = ∆v/∆t (3.7)
v = v0 + at (3.8)
Si se hace una gráfica de v contra t se puede demostrar la regla de Oresme, que establece
que el espacio recorrido en un movimiento acelerado que se inicia con la velocidad v0 y 71
aumenta hasta la velocidad v en el tiempo t es igual al espacio que se habría recorrido en
el mismo tiempo con una velocidad igual al promedio de las velocidades entre v y v0 (figura
3.6):
x = (v + v0 )t/2 (3.9)
v
v
vo
t
0 t
De (3.9) se puede concluir que el promedio de las velocidades inicial y final es igual a la
velocidad media, vM, que es igual al espacio total sobre el tiempo total del recorrido:
vM = (v + v0)/2 (3.10)
A partir de (3.10) es posible conocer la velocidad final de un cuerpo que parte del reposo
en un movimiento uniformemente acelerado, en función del espacio total y el tiempo total
de recorrido:
v = 2x/t (3.11)
72
3.6 El plano inclinado
Con el fin de comprobar sus hipótesis sobre la caída de los cuerpos, y apoyándose en las
consideraciones de Stevin sobre la composición de fuerzas en una cuña rectangular, Gali-
leo dispuso de un listón de madera acanalado, muy bien pulido y forrado en papel encerado
para reducir la fricción sobre los cuerpos que se dejaban rodar sobre él. Posiblemente haya
utilizado la clepsidra para medir los tiempos que tardaban los móviles en recorrer determi-
nada distancia sobre el plano.
También es posible que, como afirma el historiador Stillmann Drake, Galileo haya aprove-
chado sus dotes musicales para medir el tiempo cantando, pues cualquier persona con el
oído musicalmente educado es capaz de medir con las notas de una canción intervalos de
tiempo del orden de décimas de segundo. Pero independientemente del método que haya
utilizado, obtuvo la suficiente cantidad de datos como para poder concluir que el movimiento
de caída de los cuerpos es un movimiento uniformemente acelerado, viéndose obligado
a descartar su hipótesis inicial de que la velocidad de caída era proporcional al espacio
recorrido, pues los datos indicaban que la velocidad era proporcional al tiempo de recorri-
do, que es lo que caracteriza al movimiento uniformemente acelerado. Para llegar a esta
conclusión, Galileo determinó las distancias recorridas por el móvil en intervalos sucesivos
de tiempo y al analizarlas encontró que si el tiempo aumentaba según la secuencia de los
números naturales 1, 2, 3..., los correspondientes espacios aumentaban como los números
impares 1, 3, 5, 7…, así:
Tabla 3.1
Tiempo Distancia recorrida Recorrido total
1 1 1
2 3 4
3 5 9
4 7 16
5 9 25
n 2n + 1 n2
El análisis de los datos indica que el espacio total recorrido es proporcional al cuadrado del
sat2 (3.13)
“En el vacío todos los cuerpos caen con la misma aceleración, independientemente
de su peso”.
Consideremos inicialmente dos planos enfrentados con la misma inclinación. Si desde uno
de ellos se deja descender un cuerpo se podrá observar que asciende por el plano opuesto
hasta una altura aproximadamente igual a aquella desde la que descendió. Si se pudiera
eliminar por completo la fricción se podría esperar que la altura que alcanza el móvil en el
plano opuesto sea exactamente igual a la altura desde la que descendió.
h h
Consideremos nuevamente los dos planos enfrentados, pero ahora disminuyamos la in-
clinación del segundo de ellos (figura 3.8). Se puede observar que, siempre que se pueda
despreciar la fricción, el cuerpo alcanza la misma altura desde la que descendió, aunque
ahora su recorrido es mayor. Podemos continuar en el proceso de disminuir la inclinación
del segundo plano y se podrá observar que se mantiene la tendencia del cuerpo a subir
hasta la misma altura desde la que descendió, siempre que se desprecie el efecto de la
fricción. Puesto que el cuerpo alcanza su máxima velocidad cuando llega a la parte inferior
74 del plano, esto quiere decir que siempre tiene la misma velocidad inicial antes de ascender
por el plano opuesto para alcanzar la altura h desde la que descendió.
Se puede concluir que la altura que alcanza un cuerpo impulsado hacia arriba sobre un
plano inclinado solo depende de la velocidad inicial.
Si se deja descender el cuerpo desde el segundo plano, siempre desde la misma altura h,
para varias inclinaciones posibles, se podrá observar que alcanza la altura h en el plano
inicial. De lo anterior se puede llegar a una importante conclusión: la velocidad que alcanza
un cuerpo que desciende sin fricción por un plano inclinado depende exclusivamente de la
altura inicial.
Ahora podemos plantearnos la siguiente pregunta: ¿Qué sucede con el cuerpo después de
descender del primer plano si el plano opuesto está en posición horizontal y se prolonga
indefinidamente? (figura 3.9).
v = cte
h
3.8 Proyectiles
Consideremos el movimiento de un cuerpo que es lanzado horizontalmente. Supongamos
que el cuerpo en cuestión inicialmente desciende por un plano inclinado hasta alcanzar
una velocidad v sobre la horizontal y que luego cae al vacío. Si en lugar de caer al vacío el
cuerpo hubiera continuado su trayectoria horizontal sobre un plano su movimiento habría
sido uniforme, de tal modo que en iguales intervalos de tiempo habría efectuado iguales
desplazamientos, que vamos a registrar como puntos igualmente espaciados sobre una
línea horizontal.
Ahora consideremos el movimiento de un cuerpo que se deja caer desde el punto donde
termina el plano horizontal. De acuerdo con la ley de caída de Galileo, el cuerpo recorre en
intervalos consecutivos de tiempo espacios proporcionales a los números impares.
x = vt (3.14)
y = (1/2)gt2 (3.15)
y = (g/2v2)x2 (3.16)
De nuevo una de las cónicas desempeña un papel clave en la descripción del movimiento
de los cuerpos. Antes de Galileo, y de acuerdo con la concepción aristotélica del movimien-
to, se creía que la trayectoria de un proyectil era inicialmente rectilínea, correspondiente al
movimiento violento sustentado por el aire, y posteriormente, una vez el aire se “cansaba”
de impulsar al proyectil, este caía verticalmente hacia el centro de la Tierra, lo que no resul-
76 taba de mucha ayuda para los artilleros de la época a la hora de acertar a un blanco que se
encontraba a considerable distancia.
A partir del principio de relatividad galileana y del estudio del movimiento de los proyectiles
se puede analizar un viejo problema directamente relacionado con la posibilidad de detectar
el movimiento de la Tierra que se había planteado mucho antes de que Galileo publicara
sus trabajos. Se trataba de determinar dónde caería una bala de cañón soltada desde lo
alto del mástil de un barco que se desliza suavemente con la corriente del río (figura 3.10).
77
De acuerdo con los aristotélicos, al soltar la bala cesa la acción violenta que la mantenía
en un movimiento horizontal solidario con el barco y, siguiendo su naturaleza, caería hacia
el centro de la Tierra de manera vertical, mientras el barco continúa su desplazamiento
horizontal. En consecuencia, la bala debería caer alejada del pie del mástil. Si el barco
estuviera envuelto en una densa capa de niebla, supuestamente se podría utilizar la caída
de balas desde lo alto del mástil para saber si se encuentra en reposo o en movimiento, e,
incluso, se podría saber qué tan rápido se desplaza.
Como alternativa a la percepción aristotélica se plantea de que el barco y todos los ele-
mentos que hay en su interior hacen parte de un mismo sistema de referencia y comparten
de manera solidaria el desplazamiento, por lo cual es imposible detectar el movimiento
mediante observaciones internas. Probablemente este haya sido el origen del concepto de
sistema de referencia y está asociado al pensamiento de Giordano Bruno.
Al analizar el mismo problema desde la perspectiva del movimiento de los proyectiles ela-
borada por Galileo, se concluye que mientras el barco se desliza suavemente por el río a
velocidad uniforme es imposible detectar su estado de movimiento mediante la observación
de la caída de balas desde lo alto del mástil, puesto que en el momento de ser soltada la
bala adquiere un movimiento vertical acelerado, pero conserva su estado de movimiento
horizontal, solidario con el barco, y caería al pie del mástil. Para un observador en tierra la
bala habría descrito un movimiento parabólico, en tanto que para un observador dentro del
barco el movimiento habría sido vertical y rectilíneo.
De esta manera es posible entender que al establecer el movimiento inercial como la ley
fundamental de la mecánica, Galileo estaba pensando en una inercia de tipo circular, apro-
piada para describir el movimiento de la Tierra y de los demás planetas como un movimiento
exento de fuerzas y de manifestaciones internas, tal como proponía el sistema copernicano
y exigían las objeciones de sus detractores. La prolongación del plano horizontal opuesto
al plano inclinado desde donde se deja rodar un cuerpo corresponde a la circunferencia
terrestre, y el movimiento inercial del cuerpo que se desplaza sin ningún obstáculo con
velocidad uniforme es un movimiento circular.
Se especula que el compromiso de Galileo con el movimiento circular podría haber sido la
razón por la que nunca manifestó demasiado interés o reconocimiento por la obra de Kepler
y sus órbitas elípticas; aunque también es igualmente probable que la oscuridad de los
escritos del alemán y su innumerable cantidad de seudodescubrimientos le hayan ocultado
el verdadero valor de su obra.
La primera persona que estableció con toda claridad el movimiento inercial como una ley
de movimiento rectilíneo y uniforme fue René Descartes, como parte fundamental de su
sistema del mundo, cuya idea central era que el universo estaba completamente lleno de
materia que giraba en vórtices o remolinos, de tal modo que la Tierra giraba en el remolino
del Sol, y la Luna en el de la Tierra. Descartes consideraba que de no ser por la fuerza que
el medio ejercía sobre los cuerpos al girar, estos se moverían rectilínea y uniformemente.
El modelo de Descartes pretendía dar una explicación mecánica a la fuerza de gravedad y
reprochaba a Galileo que al estudiar la caída de los cuerpos solo llegara a una descripción
matemática del fenómeno, sin explicar su causa.
Resumen
Con el fin de determinar a qué tipo de movimiento corresponde la caída
de los cuerpos, Galileo concibió los experimentos en el plano inclinado,
lo que le permitió eliminar la influencia de la fricción en el movimiento de 79
los cuerpos que se deslizan, prolongar el tiempo del desplazamiento para
poder medirlo con sus métodos rudimentarios, y obtener resultados que
le permitieron concluir que el movimiento de caída es uniformemente ace-
lerado, y establecer que todos los cuerpos caen en el vacío con la misma
aceleración, independientemente de su peso. Posteriores consideracio-
nes sobre las causas de la aceleración lo llevaron a afirmar que un cuerpo
sobre el que no actúa ninguna fuerza conserva su estado de movimiento,
lo que constituye un primer enunciado del principio de inercia, aunque
restringido a trayectorias circulares, tales como las que él suponía que
describe la Tierra en su órbita alrededor del Sol.
Cuestionario
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Drake, S. (1983). Galileo. Alianza Editorial.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada. 81
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Sepúlveda, A. (2003.) Los conceptos de la física. Evolución histórica. Universidad de An-
tioquia.
Newton publicó su obra luego de que los astrónomos Edmund Halley y Chistopher Wren solicitaran
su ayuda para resolver el problema de calcular la trayectoria de un cuerpo sujeto a una fuerza cen-
tral, como la que supuestamente ejerce el Sol sobre los planetas, y, de manera particular, sobre el
cometa que hoy lleva el nombre de Halley.
Es importante destacar que cuando Newton apareció en la escena científica, la rotación de la Tierra
sobre su eje y su desplazamiento alrededor del Sol ya no eran objeto de discusión, sino que se da-
ban por hecho, excepto en los países que se encontraban bajo la influencia de la Santa Inquisición,
de modo que el trabajo de Newton consistió en resolver un problema de física matemática, lo cual
hizo con precisión y elegancia.
Newton desarrolló un nuevo campo de las matemáticas, que denominó “cálculo de fluxio-
nes” y que hoy en día conocemos como cálculo infinitesimal, para expresar sus conceptos
sobre la mecánica y encontrar soluciones a los problemas del movimiento de los cuerpos,
aunque las demostraciones que desarrolló en los Principia se realizaron en términos de
geometría. De manera independiente, el filósofo alemán Wilhelm Leibniz desarrolló y publi-
84 có un método matemático equivalente al cálculo infinitesimal, el cálculo diferencial, lo cual
fue motivo de una agria polémica con Newton por cuestiones de prioridad.
Respecto al tiempo absoluto, Newton afirma que fluye de manera uniforme, independien-
temente de los fenómenos, tal como lo ha hecho desde siempre y lo hará por siempre. El
tiempo relativo, que también se llama duración, son las medidas sensibles de tiempo que
hacemos entre dos fenómenos.
Los conceptos de espacio y tiempo que Newton establece son necesarios para instituir las
leyes del movimiento que se plantearán a continuación, aparte del profundo significado
filosófico y teológico que les asignaba su autor.
La ley del movimiento de los cuerpos que adopta Newton es equivalente a la que había pro-
puesto Descartes, y se distingue de la que había propuesto Galileo por el carácter rectilíneo
del movimiento y por la posibilidad de que este se prolongue de una manera indefinida.
4.3 Momentum
Del planteamiento de la ley de inercia se concluye que la fuerza es lo que cambia el esta-
do del movimiento, y, por tanto, se precisa una definición de estado de movimiento y una
magnitud física que lo describa. A dicha magnitud se le dará el nombre de “momentum”, o
momento lineal, que se designa por la letra p.
p = mv (4.1)
M = ∑i mi (4.2)
MRcm = ∑i mi ri (4.4)
m1 m2
2
r
r 1
Mi
Ri
m3
r 3
r 4 m4
x
Si cada una de las partículas realiza un desplazamiento Δri en un tiempo ∆t, el centro de
masa del sistema habrá realizado un desplazamiento ∆Rcm dado por la expresión
MVcm = ∑i mi vi (4.6)
Puesto que el momentum de cada una de las partículas está dado por la expresión pi = mvi,
el momento total está dado por
P = ∑i pi (4.7)
A partir de esta expresión se puede concluir que un sistema de partículas se comporta como
una sola partícula cuya masa es igual a la masa total del sistema localizada en el centro
de masa.
Al igual que la cantidad de movimiento de una partícula individual sobre la cual no actúa
ninguna fuerza se conserva, el sistema en su conjunto debe cumplir la misma condición en
tanto se pueda considerar aislado, esto es, que no hay fuerzas externas actuando sobre él
y que las únicas fuerzas presentes son las que ejercen las partículas entre sí.
F = ∆P/∆t (4.8)
F = m∆v/∆t (4.9)
Puesto que ∆v/∆t es la aceleración a que experimenta el cuerpo sujeto a la fuerza F, esta
se puede expresar como
F = ma (4.10)
88
Puesto que
F1 = m1 a1, F2 = m2 a2 y F1 = F2
tenemos que
m1 a1= m2 a2 (4.11)
donde se puede ver que la aceleración experimentada por un cuerpo bajo la acción de una
fuerza es inversamente proporcional a su masa. Resulta evidente que el concepto de masa
está directamente relacionado con el de inercia, pues mientras mayor es la masa de un
cuerpo, mayor es la fuerza que se debe aplicar para que su velocidad varíe en una cantidad
determinada.
Es importante tener en cuenta que la inercia es una propiedad de todos los cuerpos, mien-
tras que la masa es una magnitud física propia de cada cuerpo, que se puede determinar a
partir de sus propiedades inerciales.
Después de una colisión las velocidades de los cuerpos serán v1 y v2, respectivamente, y la
cantidad de movimiento del sistema será
P = m1 v1 + m2 v2 (4.14)
m1 u1 + m2 u2 - m1 v1 + m2 v2 (4.15)
Si dividimos ambos miembros de esta expresión por ∆t, el tiempo que duró la colisión, la
ecuación se puede escribir como
F1 = - F2 (4.19)
que a toda acción corresponde una reacción igual y de sentido contrario. Esta ley es una
consecuencia directa de la conservación de la cantidad de movimiento de un sistema ais-
lado, para lo cual se debe cumplir que las fuerzas internas del sistema se anulen entre sí.
Es importante anotar que en toda interacción por contacto entre dos cuerpos se genera un
90 par de fuerzas de acción y reacción, de igual magnitud y sentido contrario, y que cada una
de ellas actúa sobre un cuerpo diferente.
ma = ms as (4.20)
En la relación anterior solo nos interesa la magnitud de las aceleraciones, de modo que
podemos prescindir del signo menos que indica que tienen sentidos opuestos. Si decidi-
mos, de manera arbitraria y conveniente, que la masa ms sea el patrón de referencia para
la medición de la masa, entonces la masa desconocida m se puede determinar en términos
de ms, as y a, así:
m = ms as/a (4.21)
Resumen
La mecánica de Newton se construye a partir del concepto de inercia. Una
vez establecida la inercia como la condición fundamental del movimiento, 91
se define el concepto de fuerza, a partir de la cual se pueden medir las
magnitudes físicas involucradas en la mecánica. La conservación de la
cantidad de movimiento especifica los criterios para establecer cuándo un
sistema físico se puede considerar aislado. El concepto de masa adquiere
pleno significado físico como medida de la inercia de los cuerpos a partir
del concepto de fuerza y de la tercera ley de Newton.
Unidades
De acuerdo con el Sistema Internacional de Unidades, SI, las unidades
correspondientes a las magnitudes fundamentales longitud, tiempo y masa
son el metro, m, el segundo, s, y el kilogramo, kg. La unidad correspondien-
te a la fuerza es el newton, N, y se define como la magnitud de una fuerza
que al ser aplicada a una masa de 1 kg le produce una aceleración de 1 m/
s2: 1 N = 1 kgm/s2.
Cuestionario
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson. 93
Sepúlveda, A. (2003). Los conceptos de la física. Evolución histórica. Universidad de An-
tioquia.
F = Ft + Fp (5.1)
Y
FT
m
Fc
F
V1 V2
96 FT :
m m
V1 V2
:
FT
m m
Figura 5.2. Acción de una fuerza paralela a la dirección del movimiento.
Por su parte, la componente de la fuerza perpendicular a la trayectoria del móvil, Fp, cambia
la dirección del movimiento pero no afecta la magnitud de la velocidad (figura 5.3).
Fc
v v
Fc Fc
Fc
v = constante
v
Consideremos ahora dos puntos A y B de una trayectoria circular, muy próximos entre sí,
que definen el arco ∆s que es recorrido por el móvil en el tiempo ∆t (figura 5.4), de modo
que la magnitud de la velocidad es
v = ∆s/∆t (5.2)
A
VA
B
97
RA
VB
RB
v
C
A VA
VA
R α
B
α V
VB
O
VA =
VB
Observemos que los dos vectores velocidad, va y vb, subtienden un ángulo α igual al ángulo
entre los radios Ra y Rb. Si el intervalo de tiempo ∆t se hace tan corto como se quiera,
llamado infinitesimal, el arco AB se aproxima a una línea recta y el sector circular ABO
corresponde a un triángulo semejante al triángulo formado por las velocidades va y vb, y su
98 diferencia ∆v.
Fc = mv2/R (5.7)
Galileo. Pero si la velocidad aumenta de una manera considerable, de modo que el proyectil
avance varios kilómetros antes de caer a tierra, la trayectoria será una especie de espiral.
Si la velocidad continúa aumentando, el alcance del proyectil aumentará de manera corres-
pondiente hasta llegar el momento en que el proyectil regresará al punto de partida sin caer
a tierra. Puesto que la fuerza que actuó sobre el proyectil siempre fue perpendicular a su
trayectoria, la magnitud de la velocidad no habrá cambiado y el proyectil podrá continuar 99
orbitando a la Tierra en círculos, en tanto no sea detenido por la fricción de la atmósfera o
por la acción de alguna otra fuerza. Una consideración adicional que desempeñó un papel
muy importante en la deducción de la forma de la ley de gravitación universal fue la demos-
tración que realizó Newton de que dos cuerpos extensos como la Tierra y la Luna se atraen
como si sus masas estuvieran concentradas en sus respectivos centros de masa.
100
Sol
Tierra
v = 2πR/T (5.8)
En la ecuación (5.9) podemos ver que la fuerza depende del inverso del cuadrado del pe-
riodo, pero si tenemos en cuenta la tercera ley de Kepler, que en unidades astronómicas
se expresa como
T2= R3 (5.10)
Puesto que la fuerza con la que el Sol atrae a la Tierra es igual y de sentido contrario a la
fuerza con la que la Tierra atrae al Sol, esta última tiene que ser proporcional a la masa del
Sol mS, así como la primera es proporcional a la masa de la Tierra mT, y, por tanto, la fuerza
debe ser proporcional al producto de las masas del Sol y de la Tierra, por lo que la ley de
fuerza se debe poder escribir así:
F α mT mS/R2 (5.13)
La proporción (5.13) se puede escribir como una ecuación introduciendo una constante de
proporcionalidad llamada constante de gravitación universal G:
a = d2 r /dt2 (5.15)
Para escribir la ecuación (5.16) se ha partido del supuesto de que la masa m se encuentra
en el origen del sistema de coordenadas y que es mucho mayor que la masa m' (figura 5.8).
102
m’>m
m’
m
103
Hipérbola
Circunferencia
vm
Parábola
Elipse
vm vc vp vh vc
Figura 5.9. Trayectorias cónicas bajo fuerzas gravitacionales.
El primer caso de interés resulta cuando la velocidad inicial tiene el valor mínimo vc nece-
sario para que el cuerpo describa una trayectoria cerrada y regrese al punto de partida; en
este caso la trayectoria es una circunferencia.
El segundo caso a considerar corresponde al lanzamiento del proyectil con la mínima velo-
cidad necesaria vp para escapar del centro de fuerza y alejarse indefinidamente; la trayec-
toria que resulta es una parábola ve.
En el tercer caso consideremos un proyectil que parte con una velocidad ve mayor que vc y
menor que vp; la trayectoria resultante es una elipse.
Por último consideremos el caso en el que la velocidad inicial es mayor que vh; la trayectoria
que resulta es una hipérbola.
Es importante observar que para una posición inicial dada solo hay un modo de obtener una
circunferencia o una parábola, en tanto que existe un número infinito de posibles elipses
o de hipérbolas para cada una de las velocidades que se encuentren en los rangos asig-
nados, lo que explica por qué es tan poco frecuente encontrar en el movimiento planetario
trayectorias perfectamente circulares y en cambio son tan comunes las elípticas y las hi-
perbólicas.
F = GMm/R2 (5.17)
mg = GmM/R2 (5.18)
Dividiendo a ambos lados de la ecuación (5.18) por m se obtiene la expresión para la ace-
leración que experimenta el cuerpo que cae sobre la superficie de la Tierra:
g = GM/R2 (5.19)
Observemos que la magnitud g no depende de la masa del cuerpo que cae, lo cual con-
cuerda con el resultado obtenido por Galileo según el cual la aceleración de caída de los
cuerpos es independiente de la masa. Para llegar a este resultado se hizo la suposición
implícita de que la masa gravitatoria de un cuerpo es igual a su masa inercial, consideración
que inicialmente pasa casi desapercibida pero que posteriormente va a cobrar un importan-
te significado físico.
Pero Galileo también afirmó que la aceleración de caída de los cuerpos no depende de la
altura desde la que se dejen caer. Sin embargo, la ecuación (5.19) nos dice que la ace-
leración depende de la distancia al centro de la Tierra, dato que fue clave para comparar
la aceleración centrípeta de la Luna con la aceleración de caída de los cuerpos sobre la
superficie terrestre. El resultado de Galileo es aceptable si se tiene en cuenta que el radio
terrestre mide unos 6369 kilómetros y que variaciones de altura de unos cientos de metros
no producen variaciones perceptibles en el valor de la aceleración de caída, de donde
resulta que la ley de la caída de los cuerpos de Galileo es una aproximación compatible
con la ley de gravitación de Newton. Mediciones realizadas con instrumentos de suficiente
precisión permiten comprobar que la aceleración de caída en los polos es mayor que en el
ecuador debido al achatamiento de la Tierra.
Otro de los grandes descubrimientos de Galileo fue que el periodo de oscilación de un 105
péndulo no depende del peso ni de la amplitud. La independencia respecto al peso está di-
rectamente relacionada con la ley de caída libre y todas las consideraciones que se hicieron
se aplican en este caso. Pero la independencia del periodo respecto a la amplitud resulta
ser una aproximación válida solo para el caso de pequeñas amplitudes de oscilación, en las
que sea válida la aproximación de que el ángulo α que hace la cuerda del péndulo con la
vertical cumpla la relación sen α, cuando α se expresa en radianes.
Resumen
A partir de las leyes del movimiento y de las características conocidas del
movimiento planetario, Newton encontró la expresión matemática de la
fuerza de gravitación y estableció la ley de gravitación universal, con lo
que pudo plantear, y resolver, la ecuación de movimiento para un cuerpo
sujeto a este tipo de fuerza. La solución más general a la ecuación de mo-
vimiento de un cuerpo sujeto a la fuerza gravitacional es una trayectoria
cónica, que toma una forma específica según los valores de la posición
inicial y la velocidad inicial. Los descubrimientos de Galileo sobre la caída
libre y el movimiento pendular son casos particulares de la ley de gravita-
ción universal.
Cuestionario
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Arons. Trillas.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson. 107
Sepúlveda, A. (2003). Los conceptos de la física. Evolución histórica. Universidad de An-
tioquia.
Al igual que con otros conceptos de la física, el de trabajo ha sido bautizado con un nombre que tie-
ne diversas acepciones en el lenguaje cotidiano, y casi ninguna de ellas da cuenta de su significado
y utilidad en el contexto de la física. Por esta razón, es necesario precisar su significado y definir
su relación con otras magnitudes más fundamentales de la física mediante el establecimiento de
procedimientos que permitan determinar de manera cuantitativa el valor que se le debe asignar a
los procesos físicos descritos por esta función.
W = F∆x (6.1)
Puesto que una fuerza F que actúa sobre un cuerpo de masa m produce una aceleración a, pode-
mos expresar el trabajo W como
W = ma∆x (6.2)
De acuerdo con la cinemática del movimiento uniformemente acelerado, la expresión a∆x se puede
expresar en términos de la velocidad inicial y de la velocidad final del móvil, así:
Por tanto, el trabajo realizado por la fuerza que actúa sobre un cuerpo a lo largo del desplazamiento
se puede expresar como
Dado que la expresión ½mv2 aparece de manera recurrente en los cálculos relacionados
con los sistemas dinámicos, se consideró apropiado darle el nombre de energía cinética,
o Ek. Por esta razón, el trabajo realizado sobe un sistema físico se puede definir como el
cambio de la energía cinética del sistema:
110
W = ∆Ek (6.5)
m h,v
F=-mg
m h0 v0
Notemos que los términos del lado izquierdo de la ecuación solo dependen de h1 y de v1, y
que los términos del lado derecho solo dependen de h2, y de v2, de donde se concluye que
la cantidad
Es conveniente notar que el trabajo realizado por la gravedad sobre un cuerpo que descien-
de desde la altura h1 hasta la altura h2 se puede expresar en términos de la variación de la
energía potencial, así:
W = - ∆Ep (6.13)
y, por tanto,
Con el fin de lograr una mejor comprensión de lo que significa el concepto físico de trabajo
resulta esclarecedor reflexionar sobre la definición dada por Josiah Willard Gibbs, uno de
los padres de la física estadística, de acuerdo con la cual “trabajo es cualquier interacción
entre un sistema y su entorno cuyo único efecto sea, o pueda ser, la elevación de un peso,
112 dentro del sistema o en el entorno”.
6.3 Equilibrio
Consideremos la situación de un cuerpo de masa m suspendido por una cuerda. Para que
el cuerpo se encuentre en equilibrio es necesario que la tensión de la cuerda sea igual a la
fuerza que ejerce la gravedad, que se denomina peso, o mg. En tanto la suma de fuerzas
que actúan sobre el peso sea nula, el cuerpo se podrá desplazar inercialmente en cualquier
dirección. De acuerdo con lo anterior, para subir un cuerpo de masa m hasta una altura h
solo se necesita equilibrar las fuerzas y darle un leve impulso para que se desplace por
inercia. En tanto el desplazamiento del cuerpo se realice a velocidad constante, su energía
cinética no varía y, por consiguiente, el trabajo neto realizado por las fuerzas que actúan
sobre el cuerpo es nulo. Sin embargo, es importante notar que tanto la fuerza de gravedad
como la tensión de la cuerda realizan trabajo sobre el cuerpo, pero puesto que las fuerzas
son iguales pero de sentido contrario, y el desplazamiento es el mismo para las dos, la
suma de los trabajos realizados es nula.
Un sencillo ejemplo del trabajo realizado por fuerzas balanceadas sobre un sistema en
equilibrio es la máquina de Atwood (figura 6.2), un dispositivo en el que dos cuerpos de igual
peso cuelgan de los extremos de una cuerda. Luego de un leve impulso cada uno de los
cuerpos se puede desplazar con velocidad constante, en un movimiento inercial.
113
La condición del equilibrio de un sistema físico permite determinar la masa de los cuerpos
mediante un proceso de comparación gracias a la balanza. En una balanza de brazos igua-
les el sistema se encuentra balanceado cuando los pesos de los cuerpos que reposan en
los platos de ambos brazos son iguales (figura 6.3). De acuerdo con esto, es posible deter-
minar el peso de un cuerpo desconocido que se coloca en uno de los platos de la balanza
depositando un determinado número de elementos de peso mucho menor en el otro plato
hasta alcanzar el equilibrio. De esta manera el pesaje de un cuerpo, como todo proceso de
medición, es, en último término, un proceso de conteo.
Luego:
Una notable ventaja de la balanza romana sobre la balanza de brazos iguales es la posi-
bilidad de determinar la masa de cuerpos mucho más grandes y pesados que las pesas
calibradas de la balanza.
Las fuerzas centrípetas que actúan sobre los cuerpos forman un par de acción y reacción;
por tanto, tienen la misma magnitud y opuesta dirección y se pueden expresar en términos
del radio de giro y de la velocidad angular, así:
m = ms r/rs (6.21)
L = r × p (6.22)
ux u
v
0
u
r P
L = mr2 ω (6.24)
que se puede escribir como
L = Iω (6.25)
117
donde la cantidad I, que se denomina momento de inercia, es una magnitud que depende
de la distribución de masa del cuerpo rotante y juega un papel análogo al de la masa en la
expresión para el momento lineal.
Ek = (1/2)Iω2 (6.26)
Al igual que para un cuerpo que se desplaza inercialmente, donde la cantidad de movi-
miento y la energía total se conservan, se puede establecer que cuando un sistema físico
rota libremente su energía total se conserva y su momento angular permanece invariante,
debido a la inercia rotacional. El concepto de inercia rotacional es una consecuencia directa
del principio de inercia, y, por tanto, es compatible con la afirmación de que todo sistema en
el que las fuerzas actuantes se encuentren balanceadas conserva su estado de movimiento
lineal y rotacional.
6.5 Trompos
Un ejemplo ilustrativo del caso de un sistema rotante en el cual todas las fuerzas que actúan
se encuentran balanceadas es el de un trompo que no se desplaza del punto de apoyo y
rota con su eje de simetría perpendicular al plano horizontal, en tanto se puedan considerar
despreciables las fuerzas de fricción, lo cual puede ser válido si la observación se hace
durante un breve periodo (figura 6.9).
Otro ejemplo notable es la Tierra, cuyo eje de rotación apunta siempre en la misma direc-
ción mientras se desplaza a lo largo de su órbita alrededor del Sol. Como en el caso del
trompo, la Tierra parece conservar su estado de movimiento rotacional, siempre que la
observación se realice durante un periodo suficientemente corto, que, en este caso, puede
118 ser de cientos de años antes de que sea posible apreciar un desplazamiento notable de la
estrella Polar respecto al polo norte astronómico (figura 6.10).
Figura 6.10. Giro aparente de las estrellas alrededor del eje polar.
Tomado de: http://bit.ly/2tNGBZE
Resumen
La acción de una fuerza sobre un sistema físico no solo se puede caracteri-
zar por la aceleración, sino por las variaciones de una nueva magnitud físi-
ca que se deriva de la definición de trabajo, llamada energía, que se define
en términos de la velocidad, lo cual corresponde a la energía cinética, y la
configuración del sistema, que corresponde a la energía potencial.
Cuestionario
1. Elabore por lo menos cinco frases en las que la palabra trabajo tenga
diferentes significados.
2. ¿En cuál de las frases que elaboró el significado de la palabra trabajo se
acerca más al significado que este concepto tiene en la física?
119
3. Defina el concepto de trabajo en términos cuantitativos, de tal forma que
no dé lugar a interpretaciones equívocas.
4. ¿Con qué criterios se puede definir un patrón para determinar el peso de
los cuerpos?
5. ¿En qué principio se fundamenta el funcionamiento de la balanza roma-
na?
6. ¿Qué ventaja tiene el uso de la balanza romana respecto a la balanza de
brazos iguales?
7. ¿Qué papel desempeña el sistema de contrapesos de un ascensor?
8. Explique por qué los dos brazos de una grúa de construcción no son igua-
les, e indique qué caracteriza a cada uno de ellos.
9. Utilice el principio de conservación de la energía mecánica bajo fuerzas
gravitacionales para demostrar la ley de caída de los cuerpos de Galileo.
10. ¿Qué conclusión se puede sacar de la aplicación del principio de conser-
vación de la energía mecánica al estudio del movimiento pendular respec-
to a la caída de los cuerpos?
11. ¿Qué conclusión se puede sacar de la aplicación del principio de conser-
vación de la energía mecánica respecto a un cuerpo que luego de des-
cender por un plano inclinado se desplaza por un plano horizontal que se
prolonga indefinidamente?
12. ¿A qué componente de la energía total de un sistema físico contribuye la
energía rotacional?
13. ¿A qué conclusión respecto a la rotación de un sistema libre de fuerzas
externas se puede llegar mediante la aplicación del principio de conserva-
ción de la energía mecánica?
14. ¿En qué se diferencia la rotación de un trompo en caída libre con la rota-
ción de un trompo que se apoya en el piso?
15. ¿A cuál de los dos casos anteriores pertenece la Tierra?
16. ¿Qué tipo de observación pudo haber conducido al hombre prehistórico a
la invención de la rueda?
17. ¿Qué tiene que ver una rueda con un canto rodado?
18. ¿Qué ventaja posee un vehículo que se desplaza sobre ruedas en compa-
ración con uno que se desliza sobre una superficie?
19. ¿En qué sentido se puede decir que la rotación de una rueda es un caso
representativo de movimiento inercial?
20. Cuando un cuerpo rota alrededor de un eje cada uno de los puntos del
cuerpo debe estar sujeto a una fuerza dirigida hacia el eje. ¿Por qué es
posible hablar de movimiento inercial en el caso de una rueda que rota
alrededor de su eje a una frecuencia constante?
21. ¿Por qué se dice que las fuerzas centrípetas que aparecen sobre cada
120 uno de los puntos de un cuerpo rotante no realizan trabajo?
22. Demuestre que la suma de fuerzas que actúan sobre un trompo que rota
con frecuencia constante es cero.
23. Compare las definiciones de momento lineal y momento angular e in-
terprete el factor que acompaña a la velocidad angular en el momento
angular en términos del factor que acompaña a la velocidad lineal en el
momento lineal.
24. Demuestre que la fuerza de gravedad que actúa sobre un trompo y la fuer-
za que la superficie en la que se apoya ejerce sobre la punta del trompo no
son una pareja de acción y reacción.
25. Considere una rueda y un disco del mismo radio y de la misma masa y
muestre, sin acudir al cálculo diferencial, que sus momentos de inercia
son diferentes. ¿Qué se podría decir de una esfera maciza y de una esfera
hueca que tienen la misma masa y el mismo radio?
26. ¿En qué se fundamenta el funcionamiento de un giróscopo, y cuál sería su
ventaja sobre una brújula magnética?
27. ¿Cómo se puede explicar que el movimiento aparente de los astros tenga
un eje de rotación que pasa a través de los polos terrestres, y qué tiene de
particular la estrella Polar respecto a las demás estrellas?
28. ¿Qué tan confiable es la tierra como auxiliar de navegación?
29. ¿Por qué se utilizan volantes como sistemas de almacenamiento de ener-
gía cinética en lugar de utilizar esferas que con la misma masa ocuparían
un espacio más reducido?
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Drake, S. (1983). Galileo. Alianza Editorial.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Sepúlveda, A. (2003). Los conceptos de la física. Evolución histórica. Universidad de An-
tioquia.
Con el fin de facilitar el proceso de extracción del agua de las minas, en 1698 el ingeniero inglés
Thomas Savery diseñó y patentó un aparato que utilizaba la potencia motriz del vapor generado
por la ebullición del agua, por una parte, y la acción de presión atmosférica, por la otra, para sacar
el agua del pozo de las minas. El aparato, bautizado por Savery “el amigo del minero”, constaba
de un recipiente con agua que se mantenía a alta temperatura, en el cual se generaba vapor por
ebullición (figura 7.2). El vapor era conducido a un segundo recipiente hasta expulsar el aire que
se encontraba en él. A continuación se cerraba la válvula de paso, y el recipiente a alta presión era
Capítulo 7: Potencia motriz
A pesar de que la operación de “el amigo del minero” era en extremo compleja debido a la
necesidad de abrir y cerrar diferentes válvulas, tanto para permitir el paso del vapor como
para la refrigeración del recipiente presurizado, al comparar la cantidad de alimento que
consumía un caballo, la cantidad de agua que sacaba del pozo y el tiempo que necesitaba
para hacerlo, con el costo del carbón requerido por el ingenio térmico para realizar el mismo
trabajo, este último resultó ganador, y en poco tiempo el uso de este tipo de dispositivos se
generalizó en toda Inglaterra.
7.1 Potencia
Con el fin de disponer de un criterio objetivo con el cual comparar la capacidad de trabajo de
la fuerza muscular y la potencia motriz del calor, fue necesario definir una unidad de medida
que permitiera establecer un rasero común, y de allí resultaron el caballo de vapor, CV, y
el caballo de fuerza, o horsepower, HP, que, a pesar de lo que sugieren sus nombres, son
unidades de potencia y no de fuerza. Mientras que el CV corresponde al Sistema Interna-
cional de Unidades, el HP corresponde al sistema británico de unidades. La potencia, P, es
una magnitud asociada a la capacidad de transferir energía o realizar un trabajo sobre un
sistema, por unidad de tiempo, y se define como:
P = ∆E/∆t (7.1)
P = mgv (7.2)
Torricelli observó que la columna de mercurio descendía hasta una altura de 0.76 m, y que
la relación entre las alturas de la columna de agua y de mercurio era 13.6, que es la misma
que hay entre las densidades del mercurio y del agua. En consecuencia, una columna de
agua de 10.33 m y una columna de mercurio de 0.76 m, del mismo diámetro, tienen el mis-
mo peso. Por todo lo anterior, Torricelli concluyó que el peso de la atmósfera ejerce presión
sobre la superficie de la Tierra, y que tanto la columna de agua como la de mercurio son
equilibradas por una columna de aire del mismo peso que las anteriores.
124
La presión es la fuerza por unidad de área que actúa sobre una superficie. La unidad de
presión, el pascal, Pa, se define como 1 Pa = N/m2 = J/m3. A la presión atmosférica a nivel
del mar se le asigna el valor de una atmósfera, 1 atm, que equivale a 101325 Pa. La atmós-
fera también se puede expresar en términos de la altura de la columna de mercurio como
1 atm = 76 mmHg.
Una aplicación directa del experimento de Torricelli es el barómetro, que permite determinar
la presión atmosférica en diferentes lugares y situaciones como función de la altura de una
columna de mercurio (figura 7.4).
Dado que el espesor de la capa atmosférica disminuye con la altura respecto al nivel del
mar, con la consiguiente reducción en el valor de la presión, el barómetro puede ser utiliza-
do como altímetro.
Una notable aplicación del principio de los vasos comunicantes se puede apreciar en el
funcionamiento de los sistemas de exclusas en las vías de navegación que deben sortear
cambios de nivel (figura 7.6).
Los albañiles aprovechan el principio de los vasos comunicantes para determinar con gran
precisión que diferentes puntos de un terreno se encuentren a la misma altura utilizando
una manguera transparente llena de agua.
pV = NkT (7.4)
PV = constante
P1
P2
V2
P1V1=P2V2
Figura 7.7. Cilindro con pistón (F 12.1 p 131)
p0 V0 = pV (7.5)
Si se hace una gráfica con diferentes valores de volumen y temperatura, el resultado es una
línea recta que se puede extrapolar hasta el valor cero del volumen, que corresponde al
valor cero de temperatura en la escala absoluta cuya unidad es el kelvin, K, que se define
como 1/273.16 de la temperatura de congelación del agua, a una atmósfera de presión.
En la vida cotidiana se utiliza la escala Celsius de temperatura, cuya unidad es el grado
Celsius, °C. Esta escala se define a partir de los puntos de congelación y de ebullición del
agua, a una atmósfera de presión, que corresponden a 0 °C y 100 °C, respectivamente. La
escala Celsius se conocía como escala centígrada, por ser una escala decimal.
7.5 Temperatura
Hasta ahora hemos utilizado la noción de temperatura de una manera intuitiva, pero la com-
presión de este concepto amerita una discusión más detallada. El concepto temperatura
tiene su origen en el sentido del tacto y se asocia de manera empírica a las nociones de
frío y caliente, debido a lo cual adolece de subjetividad, pues diferentes personas pueden
asignar diferentes grados de “frigidez” o “calidez”, es decir, de temperatura, al mismo ob-
jeto, dependiendo de su percepción particular. Incluso, una misma persona puede asignar
diferentes grados de temperatura al mismo objeto, tal como se puede comprobar con un
sencillo experimento, que consiste en disponer tres recipientes en el primero de los cuales
se vierte agua helada, en el tercero agua caliente y en el intermedio una mezcla de las dos
(figura 7.8). Si una persona introduce la mano izquierda en el agua fría, y la mano derecha
en el agua caliente durante un minuto, y luego introduce ambas manos en el agua tibia, en
la mano izquierda percibe una sensación de calor, mientras que en la mano derecha percibe
una sensación de frío.
Antes
128
Frío Tibio Caliente
Después
T1 T2
T1 > T2
T T
T1 >T> T2
T= Temperatura de equilibrio
Figura 7.10. Equilibrio térmico.
En términos más técnicos, se establece la ley cero de la termodinámica según la cual dos
cuerpos que se encuentren en equilibrio térmico con un tercero, están en equilibrio térmico
entre sí.
No es mucho lo que podemos decir sobre el concepto temperatura en sí, excepto que es
una función que permite especificar el estado termodinámico de un sistema físico, y se
determina mediante la utilización de un termómetro. Con frecuencia, en el estudio y descrip-
ción de los fenómenos físicos se utilizan conceptos cuya relevancia depende de un proto-
colo o convención de medida, más que de una definición verbal explícita, tal como sucede
con el concepto temperatura. Por otra parte, expresiones coloquiales como “la temperatura
es una medida del grado de calor de un cuerpo”, carecen de sentido físico, pues no están
sujetas a ninguna forma de verificación experimental ya que “el grado de calor” no es un
concepto bien definido.
7.7 Calor
Durante las primeras etapas del desarrollo de la termodinámica se consideraba que los
cambios de temperatura de los cuerpos se debían a la pérdida o absorción de un fluido
130 imponderable que recibió el nombre de calórico por parte de Antoine de Lavoisier. Si bien la
idea del calórico ha sido revaluada luego de la introducción del modelo cinético corpuscular,
su utilización como modelo heurístico hizo posibles considerables avances en el campo
de la termodinámica, que después habrían de ser reconceptualizados en el marco de la
teoría cinética. Luego de descartar el calórico como supuesto agente responsable de los
cambios de temperatura de los cuerpos, se estableció el concepto calor, entendido como
la interacción mediante la cual dos sistemas que se ponen en contacto experimentan una
transferencia de energía que depende de la diferencia de temperatura.
Mediante técnicas calorimétricas, Joseph Black encontró una expresión para la cantidad
de calor, Q, necesario para cambiar en ∆T la temperatura de un cuerpo de masa m. Esta
expresión, conocida como ley de Black, establece que
Q = mC∆T
131
Uno de los brazos del balancín está unido a una bomba aspirante, en tanto que el otro es
accionado por la presión del vapor que se genera en una caldera. En la primera fase de la
operación de la máquina el pistón es desplazado a lo largo del cilindro por la presión del
vapor que ingresa en la cámara. Una vez completada la expansión, el vapor se condensa
mediante la inyección de agua fría, y el pistón regresa a la posición original gracias a la
presión atmosférica. A continuación se inicia un nuevo ciclo.
Por convención, se estableció que el calor específico del agua es 1 cal/g°C, y a partir de
este valor se define la unidad de medida del calor, la caloría, cal, como la cantidad de calor
necesaria para elevar la temperatura de un gramo de agua de 14.5 °C a 15.5 °C.
El alto valor del calor específico del agua, comparado con el de otras sustancias, es la ra-
zón por la cual se utiliza este líquido de manera generalizada en las máquinas que realizan
trabajo a partir de la fuerza motriz del calor. De igual manera, el poder refrigerante de la
evaporación del agua se debe a su alto calor específico. Por otra parte, la relativa estabili-
dad de la temperatura global de nuestro planeta, sin la cual sería imposible la biodiversidad
existente, se debe, en gran parte, a la extensa cantidad de agua que cubre una gran porción
de su superficie.
Resumen
La posibilidad de hacer trabajo reemplazando el esfuerzo muscular por
máquinas cuyo funcionamiento depende de la presión generada por el va-
132 por demandó el estudio exhaustivo de los principios que rigen este tipo de
procesos, y la definición de magnitudes como energía, trabajo y potencia
para mejorar su diseño, optimizar su aprovechamiento y establecer pará-
metros objetivos de comparación entre diferentes alternativas a partir de
mediciones cuantitativas.
Cuestionario
1. ¿Qué sentido tiene la expresión “la fuerza del vacío”?
2. ¿Cuál es la fuerza responsable de realizar trabajo en la máquina de
Savery?
3. ¿Por qué se llamaba “filosóficas” a las primeras máquinas térmicas, a
pesar de que su función era reemplazar el trabajo de los caballos?
4. ¿Cuál es la mayor objeción del sentido común respecto a la posible exis-
tencia del vacío?
5. ¿Qué tienen en común la columna de mercurio de 76 cm en el tubo de
Torricelli y la limitación que encontró Galileo para elevar el agua a más de
10 metros mediante bombas de succión?
6. ¿Cómo se relacionan y en qué se diferencias los conceptos de peso y
cantidad de materia?
7. ¿Cuál de los dos conceptos anteriores es más afín al concepto físico de
masa?
8. ¿Qué altura debe tener una columna de aire para balancear una columna
de mercurio como la del experimento de Torricelli? Nota: busque las res-
pectivas densidades del mercurio y del aire.
9. Averigüe hasta qué altura se extiende la atmósfera terrestre y explique la
respuesta de la pregunta anterior.
10. ¿Cómo se podía conocer la densidad del aire antes de la existencia de
Google?
11. ¿Por qué se puede utilizar el barómetro para determinar la altura a la que
se encuentra un lugar de la Tierra respecto al nivel del mar?
12. ¿A qué presión, en promedio, se encuentra la ciudad de Medellín?
13. ¿A qué temperatura hierve el agua en la ciudad de Medellín?
Bibliografía
Alder, K. (2010). Engineering the revolution. Kindle eBook.
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Bloonfied, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Rosen, W. (2012). The most powerful idea in the world. University of Chicago Press.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de An-
tioquia.
Introducción
El funcionamiento de las bombas de succión y de las máquinas de vapor suscitó desde el inicio de
su historia grandes inquietudes sobre los principios que hacían posible su funcionamiento. En parti-
cular, la posibilidad del vacío fue objeto de grandes discusiones entre quienes afirmaban y negaban
la posibilidad de su existencia. Para algunos, el funcionamiento de las bombas de succión se fun-
damentaba en la doctrina aristotélica del horror al vacío, y el ascenso del agua se debía al rechazo
de la naturaleza a permitir la existencia de espacios desprovistos de materia. Por el contrario, los
defensores del atomismo no veían ningún inconveniente para la existencia del vacío, que constituía
una parte esencial de su teoría sobre la constitución de la materia. Por todo lo anterior, las máquinas
de vapor fueron llamadas, en ocasiones, máquinas filosóficas.
De no menor importancia y magnitud fueron las discusiones en torno a la naturaleza del calor.
Mediante mediciones de gran precisión, Joseph Black estableció que cuando dos cuerpos que ini-
cialmente se encuentran a diferentes temperaturas alcanzan el equilibrio térmico el calor cedido por
uno de ellos es igual al calor absorbido por el otro, y llegó a la conclusión de que el calor es una
entidad que se conserva, lo cual constituye una de las bases fundamentales de la teoría del calórico,
de acuerdo con la cual el aumento de temperatura se debía a la incorporación del fluido. Por otra
parte, una serie de evidencias prácticas llevaron a algunos personajes, como Benjamin Thompson,
conde de Rumford, a relacionar el calor con el movimiento. Como director de una fábrica dedicada a
la construcción de cañones, observó que mucho tiempo después de que un taladro hubiera perdido
su filo y su capacidad de arañar el metal del alma de un cañón, seguía generando una gran cantidad
de calor, que no se podía explicar por la supuesta pérdida de calórico del material que estaba sujeto
a la acción del taladro. Rumford trató de establecer una relación entre el aumento de temperatura de
un depósito de agua que se calentaba por la fricción de dos piedras de molino y el trabajo realizado
por el caballo que las hacía mover, pero el deficiente diseño del montaje experimental no le permitió
llegar a conclusiones definitivas.
Otro notable experimento que contribuyó a desacreditar la teoría del calórico fue realizado a princi-
pios del siglo XIX por Humphry Davy, consistente en derretir un par de trozos de hielo sometidos a
fricción mutua.
Capítulo 8 : La mecánica el calor
mg
T1
h
T2
mg
T T
1 2
El experimento de Joule mostró de manera concluyente que los motores de vapor de la épo-
ca eran más eficientes que los motores eléctricos. Pero el resultado verdaderamente impor-
tante para la ciencia fue la determinación, con un alto grado de precisión, del equivalente
mecánico del calor. Luego de utilizar diferentes sustancias como agua, mercurio y aceite
de ballena, para realizar sus mediciones Joule estableció que el trabajo efectuado por una
pesa que desciende a velocidad constante, agitando el líquido contenido en un recipiente,
se manifiesta en un aumento de la temperatura, que conduce a una estimación precisa
de la equivalencia de una unidad de calor y cierta cantidad de trabajo. El valor aceptado
actualmente para esta equivalencia es 1 cal = 4.18 J. El valor encontrado por Joule difiere
del actual en menos del 5%, lo cual se puede considerar un excelente resultado dadas las
limitaciones de los equipos de los que se disponía en su época.
Por otra parte, y de no menor importancia para la ciencia, el establecimiento del equivalente
mecánico del calor contribuyó al establecimiento de la ley de conservación de la energía
como el principio fundamental de la termodinámica. De acuerdo con este principio, la ener-
gía total de un sistema aislado permanece constante.
∆E = Q - W (8.1)
mv
-mv
∆t = 2l/vx (8.3)
Puesto que hay N corpúsculos chocando contra las paredes, y teniendo en cuenta que la
presión es la fuerza aplicada sobre una superficie, que en este caso es l2, la presión será
p = Nmvx2/l3 (8.5)
Si tenemos en cuenta que v2 = vx2 + vy2 + vz2, pero que vx2 = vy2 = vz2, entonces v2 = 3vx2.
Además, puesto que el volumen del recipiente es V = l3, tenemos que
pV = (1/3)Nmv2 (8.6)
pV = (2/3)N[(1/2)mv2] (8.7)
Puesto que (1/2)mv2 es la energía cinética promedio de los corpúsculos, Ek, la energía total
del sistema será NEk, que es constante, de acuerdo con la primera ley de la termodinámica
que establece que la energía total de un sistema aislado no varía. En conclusión, hemos
llegado a la ecuación de estado de los gases ideales para el caso en que la temperatura
es constante:
pV = constante (8.8)
Resulta de mucho interés comparar los segundos miembros de la ecuación que acabamos
de encontrar con la ecuación de estado de los gases ideales, pV = NkT, de donde resulta
que:
Ek = (3/2)kT (8.9)
De acuerdo con esta expresión, la temperatura es una medida de la energía cinética media
de los corpúsculos que componen un gas. Esta expresión destaca el carácter estadístico
de la temperatura y aclara su significado más allá que la afirmación original, según la cual
temperatura es aquello que miden los termómetros. Esta forma de concebir la temperatura
se puede extender a otros sistemas termodinámicos diferentes a los gases, teniendo en
cuenta que la energía cinética de un corpúsculo que hace parte de un líquido o de un sólido
también depende de sus grados de movimientos vibracionales y rotacionales. Fenómenos
como el calentamiento y la dilatación de los materiales sólidos se pueden describir con
claridad y sencillez al considerar el aumento del grado de movimiento vibracional de sus
componentes moleculares.
140
La interpretación de los conceptos de la termodinámica en el marco del modelo cinético
corpuscular contribuyó de manera significativa a consolidar la teoría atómica y molecular
de la materia y a establecer relaciones entre la termodinámica y la electrodinámica para
la comprensión de los fenómenos de transferencia de energía y de equilibrio térmico. El
modelo cinético corpuscular hace parte de una nueva área de la ciencia, denominada física
estadística, que se desarrolló en la segunda mitad del siglo XIX, y que encuentra su campo
de aplicación en el estudio de sistemas conformados por un número de elementos tan
grande que hace imposible en la práctica su descripción a partir de la determinación de las
condiciones iniciales de cada uno de sus elementos. El orden de magnitud del número de
elementos que caracterizan a este tipo de sistemas es comparable al número de Avogadro,
N0, que es igual a 6.02 × 1023, y corresponde al número de corpúsculos de un gas que ocu-
pan un volumen de 22.4 litros en condiciones estándar de laboratorio.
Resumen
Gracias a la introducción del modelo cinético corpuscular, los fenómenos
termodinámicos se pueden describir en el marco de la mecánica newto-
niana prescindiendo de entidades físicas como el calórico cuya existencia
había sido imposible de comprobar. Por primera vez se puede definir el
concepto de temperatura en términos de magnitudes físicas concretas. El
estudio de sistemas físicos compuestos por un gran número de elemen-
tos, y la imposibilidad práctica de establecer ecuaciones de movimiento
individuales para cada uno de ellos, condujo al tratamiento estadístico
de las funciones de estado como la energía, la presión y la temperatura.
Cuestionario
Bibliografía
Alder, K. (2010). Engineering the revolution. Kindle eBook.
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Bloonfied, L. A. (2015). How things work. Wiley.
142 Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Rosen, W. (2012). The most powerful idea in the world. University of Chicago Press.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
Introducción
De acuerdo con la ley cero de la termodinámica, cuando dos cuerpos que inicialmente se encuen-
tran a diferentes temperaturas se ponen en contacto durante un tiempo suficientemente prolongado,
alcanzan el equilibrio térmico. Pero lo contrario nunca ocurre de manera espontánea, lo cual da
cuenta de la irreversibilidad de los procesos termodinámicos relacionados con transferencia de
energía entre sistemas que se encuentran a diferentes temperaturas, y constituye uno de los as-
pectos más característicos de la termodinámica. La existencia de procesos irreversibles plantea un
problema teórico de gran complejidad y no menor interés, puesto que si se analiza hasta las últimas
consecuencias, toda interacción entre sistemas conformados por un gran número de elementos es
una suma de procesos reversibles descritos por las leyes de la mecánica. La pregunta que surge
de inmediato es: ¿a qué se debe la irreversibilidad de procesos como nacer, crecer y morir, entre
muchos otros, que parecen estar signados por una cierta dirección del tiempo?
T1 T 2 T T
1 2
T T T T T
1 2
T= Temperatura de equilibrio
Si T1 > T > T2, se dice que la disminución de la temperatura del cuerpo 1 es debida a la pérdida de
una cantidad de energía Q1, y, de manera recíproca, que el aumento de temperatura del cuerpo 2
es debido a una transferencia de energía Q2. Asumiendo que la energía que perdió el cuerpo 1 es
la misma que ganó el cuerpo 2, Q2 = Q = - Q1, e introduciendo la expresión ∆S = Q/T, se llega a la
siguiente relación:
Capítulo 9: Entropía
Esta ecuación nos dice que en una interacción térmica espontánea, la variación de la fun-
ción S siempre es mayor o igual que cero. La función S fue introducida por Rudolf Clausius,
144 quien la denominó entropía. Al igual que las funciones p, V y T, la entropía S es una función
de estado de los sistemas termodinámicos y permite establecer el carácter irreversible o
reversible de los procesos termodinámicos cuando su variación sea mayor o igual que cero,
respectivamente.
El estudio de los procesos irreversibles permite establecer una nueva ley, que se denomina
segunda ley de la termodinámica, la cual establece que los sistemas termodinámicos evo-
lucionan hacia un estado de máxima entropía.
La segunda ley de la termodinámica había sido anticipada por el ingeniero francés Sadí
Carnot en las primeras décadas del siglo XIX cuando descubrió que la eficiencia de los
motores de vapor depende de la diferencia entre la temperatura T1 de la fuente que sumi-
nistra el calor Q1 necesario para la operación del motor, y la temperatura T2 del entorno al
que se transfiere el calor que no fue utilizado para la realización del trabajo. El problema de
optimizar los procesos termodinámicos consiste en producir la máxima cantidad de trabajo
invirtiendo la mínima cantidad de combustible, que será directamente proporcional a la
cantidad de calor suministrado al sistema. Luego de la invención de la máquina de Savery,
y a lo largo de la Revolución Industrial, la historia de las máquinas de potencia es la historia
del mejoramiento de la eficiencia mediante la introducción de ingeniosas innovaciones. En
primer lugar, la máquina de Newcomen sobrepasó con mucho la eficiencia de la máquina de
Savery al introducir las bielas y los pistones para la realización del trabajo, de una manera
cíclica y mecanizada. La siguiente gran innovación fue llevada a cabo por James Watt,
cuando introdujo el condensador, que evitaba el paso de enfriamiento del pistón, en el cual
se perdía una considerable cantidad de agua y de calor con el consecuente aumento de la
eficiencia del ingenio termodinámico (figura 9.2).
Pero aún la máquina de Watt, dotada de sistemas de control inercial y pistón de doble impul-
so, seguía siendo un dispositivo aparatoso que consumía una gran cantidad de combustible
debido a su tamaño y a las altas pérdidas de calor que generaba su operación. La siguiente
gran innovación fue la introducción de las máquinas de vapor que funcionaban a alta pre-
sión, gracias a lo cual fue posible disminuir su volumen sin sacrificar la potencia y disponer
de motores de vapor que se podían acoplar a un vehículo para construir una locomotora
(figura 9.3), o a un barco para navegar en grandes ríos.
145
9.2 Eficiencia
Se define la eficiencia de un motor como la relación entre el trabajo realizado, W, y el calor
suministrado, Q1. Sadí Carnot demostró que no puede existir ningún motor cuya eficiencia
sea mayor que
Es importante anotar que la validez de esta relación es independiente del tipo de material
del que esté construido el motor, lo cual le confiere universalidad. El razonamiento que
condujo a Carnot a establecer esta relación parte de la suposición de que no existe ningún
proceso termodinámico espontáneo cuyo único resultado sea transferir calor de una fuente
de menor a una fuente de mayor temperatura. Esta última aseveración también constituye
una expresión de la segunda ley de la termodinámica.
cuya solución r(t) depende de las condiciones iniciales del sistema y especifica la posición
del cuerpo en cualquier instante del tiempo. Puesto que la ecuación de movimiento depen-
de del término t2, si se cambia t por -t la ecuación permanece inalterada, lo cual indica que
el movimiento del cuerpo es físicamente posible en cualquier dirección del tiempo, que es
una forma de decir que el proceso es reversible. Puesto que, como ya ha sido dicho, cual-
quier interacción entre dos sistemas complejos es la suma de las interacciones elementales
entre los componentes del sistema, descritas por las ecuaciones de movimiento de Newton,
no hay cómo justificar a partir de las leyes de la mecánica el carácter irreversible de las
interacciones termodinámicas. Una forma de superar esta aparente contradicción fue plan-
teada por Ludwig Boltzmann, luego de expresar la entropía como una función estadística
en el marco del modelo cinético corpuscular.
S = k ln Ω (9.4)
Con el fin de aclarar este concepto consideremos la situación de un gas compuesto por N
partículas confinadas en un recipiente de volumen V1, que a su vez se encuentra dentro de
un recipiente de volumen V2, mucho mayor que V1 (figura 9.4).
147
V1 V2
Pi = V1/V2 (9.5)
PT = (V1/V2)N (9.6)
Puesto que la relación V1/V2 es menor que cero, y considerando que el número N es del
orden de magnitud del número de Avogadro, la probabilidad PT es prácticamente igual a
cero, pero no es cero.
148
De acuerdo con lo anterior concluimos que la afirmación de que los sistemas físicos evolu-
cionan de manera espontánea hacia los estados de máxima entropía es una reiteración del
carácter probabilístico de esta magnitud física, y la aceptación del hecho empírico de que
cuando se examina un sistema que dispone de un gran número de estados accesibles, el
sistema se encontrará con mayor frecuencia en alguno de los estados de mayor probabili-
dad.
Pero también es frecuente encontrar frases como “la entropía es una medida del desorden”.
El problema con esta expresión es que carece de significado, puesto que orden no está
definido en el contexto de la física. Sin embargo, si se interpreta la idea de orden como el
grado de información que se tiene del estado del sistema físico, la frase cobra sentido. En
este caso se podría decir que el aumento de la entropía es una medida de la pérdida de
información de un sistema, y la segunda ley de la termodinámica se podría expresar dicien-
do que cuando los sistemas termodinámicos evolucionan se pierde información detallada
sobre el estado de sus componentes. El análisis de un sistema como el del gas contenido
en un recipiente que a su vez se encuentra dentro de otro, que nos sirvió como ejemplo de
la evolución de un sistema termodinámico típico, ilustra esta última afirmación.
Resumen
La evidencia empírica de que los procesos termodinámicos espontáneos
son esencialmente irreversibles adquiere estatus físico con la segunda ley
150 de la termodinámica y la definición de entropía, como aquella magnitud
cuya variación determina el carácter reversible o irreversible de los proce-
sos físicos.
Cuestionario
1. ¿Por qué no es necesario introducir un concepto físico, como el calórico,
adicional a los de masa, espacio y tiempo, para el tratamiento de los
fenómenos termodinámicos?
2. ¿Qué condiciones se cumplen, de manera inexorable, en toda interacción
entre sistemas físicos, ya sean corpúsculos, partículas elementales o es-
tructuras complejas?
3. ¿Por qué resulta paradójico que los sistemas termodinámicos evolucio-
nen en el tiempo de manera irreversible, si, en último término, sus interac-
ciones a nivel microscópico son choques entre corpúsculos, que tienen
carácter reversible?
4. ¿Cuál es la diferencia entre causalidad y casualidad, y qué relevancia
tiene en la descripción de los procesos físicos?
5. Demuestre que de acuerdo con la ley de conservación de la energía es
imposible construir máquinas que trabajen de manera indefinida sin con-
sumir ningún tipo de combustible.
6. ¿Qué condición debe cumplir un buen termómetro para realizar una me-
dida confiable de la temperatura de un cuerpo?
7. ¿Qué suposición se hace de manera implícita cuando se dice que el calor
que pierde un cuerpo cuando se pone en contacto con otro cuerpo, que
se encuentra a menor temperatura, es igual al calor que gana este últi-
mo?
8. ¿Qué validez tiene utilizar en el análisis de los procesos termodinámicos
una magnitud física, como la entropía, que no ha sido definida literalmen-
te de manera precisa?
21. Demuestre que en el ejemplo del caso anterior se cumple la segunda ley
de la termodinámica, luego de que haya transcurrido cierto tiempo des-
pués de que las partículas que se encontraban en el recipiente de menor
volumen hayan tenido la posibilidad de ocupar el recipiente mayor.
152
Bibliografía
Alder, K. (2010). Engineering the revolution. Kindle eBook.
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Bloonfied, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Rosen, W. (2012). The most powerful idea in the world. University of Chicago Press.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
10.1 Elektron
Además de la gravedad, los fenómenos electromagnéticos son omnipresentes en la cotidianidad,
aunque no siempre seamos conscientes de su existencia, tal como sucede con la persistente ten-
dencia que exhiben las motas de lana y pequeños trozos de cabello de adherirse a un vidrio cuando
se lo quiere dejar inmaculadamente limpio; o los molestos choques que se producen luego de des-
cender de un vehículo y hacer contacto con otra persona o con un elemento de metal.
La electricidad recibe su nombre de la palabra griega ἤλεκτρον, o elektron, que quiere decir ámbar,
una resina fosilizada que en la antigüedad era considerada como una piedra semipreciosa y que
en épocas recientes ha adquirido protagonismo gracias a una película de ciencia ficción cuya trama
gira alrededor de la reproducción de dinosaurios a partir del ADN contenido en la sangre de mosqui-
tos prehistóricos conservados en ámbar. Una característica muy notable de objetos fabricados con
esta resina es que luego de ser frotados con un paño adquieren la propiedad de atraer polvo, lana
y pequeños objetos, al igual que sucede con los objetos de vidrio. En nuestro entorno encontramos
una gran cantidad de objetos fabricados de resinas sintéticas, para las más variadas aplicaciones,
que nos brindan la oportunidad de experimentar diversos tipos de fenómenos electrostáticos, desde
el erizamiento de los cabellos, hasta el chisporroteo de una prenda de vestir que se saca por la
cabeza rozando el cabello. Las descargas que se experimentan de manera ocasional al descender
de un automóvil luego de tocar un objeto en el exterior son debidas a la electrificación que produce
el rozamiento de la ropa con la tapicería de los asientos del vehículo.
Capítulo 10: Electricidad
Con el fin de observar los fenómenos electrostáticos más elementales se puede tomar
una hoja de papel, rasgándola en trozos pequeños que se esparcen sobre una mesa, y a
continuación se toma un objeto de plástico, como un peine, y se lo pasa repetidamente por
el cabello, para luego acercarlo a los trozos de papel. Se podrá observar cómo aquellos
154 saltan y quedan adheridos al peine cuando este se acerca a suficiente distancia. No menos
espectacular resulta la experiencia de introducir la mano en una bolsa plástica llena de pe-
queñas esferas de espuma de polietileno, para luego retirarla con un gran número de ellas
adheridas a la piel (figura 10.1).
10.2 Polarización
Si bien la atracción electrostática era un fenómeno conocido de vieja data, solo hasta el
siglo XVIII se estudió de manera sistemática el fenómeno de repulsión electrostática, que
habría de conducir a la estructuración de una teoría más completa de la electricidad. Si
se suspenden dos esferas de vidrio con hilos y se las coloca muy cerca la una de la otra,
después de frotar ambas esferas con una pieza de lana experimentarán una fuerza de re-
pulsión. Si en lugar de las esferas de vidrio se utilizan esferas de ámbar, el resultado será
idéntico. Pero si se ponen una esfera de vidrio y otra de ámbar, ambas experimentan una
fuerza de atracción. También se puede apreciar la repulsión entre una varilla de plástico
previamente electrizada con una esfera metálica suspendida de un hilo después de que
entran en contacto (figura 10.2).
155
La atracción que un cuerpo cargado ejerce sobre un cuerpo neutro se puede explicar como
un fenómeno de polarización de las cargas del cuerpo neutro: el cuerpo cargado atrae hacia
sí las cargas del signo contrario del cuerpo neutro, mientras que repele las de su propio
signo. Aunque el cuerpo neutro no ha experimentado variación en la cantidad neta de carga
eléctrica que posee, esta se ha redistribuido de tal forma que aparecen dos polos claramen-
te definidos (figura 10.3). Puesto que el polo de signo contrario al cuerpo cargado está más
cerca que el de su propio signo, y debido a que la intensidad de la fuerza disminuye con la
distancia, prima la fuerza de atracción sobre la fuerza de repulsión.
156
Al dividir por la mitad un cuerpo que está eléctricamente polarizado, cada una de las dos
partes quedará cargada con la misma cantidad de electricidad pero de signo contrario. Es
importante anotar que la carga total de un sistema cerrado es una cantidad conservada, es
decir, la carga no se genera ni se destruye de manera espontánea.
minado, y las laminillas queden cargadas con electricidad del mismo tipo, por lo cual expe-
rimentan repulsión. El grado de separación de las laminillas es una medida de la carga del
cuerpo externo.
A mediados del siglo XVIII se construyeron artefactos capaces de generar electricidad está-
tica por fricción. Uno de ellos consistía en una esfera de azufre que se hacía rotar mediante
una manivela y al contacto con la palma de la mano generaba electricidad, lo que permitía
realizar una variedad de experiencias sencillas. Otros generadores más elaborados, como
el de Van de Graaff, almacenan carga eléctrica en una esfera metálica gracias al roce con
una banda accionada por un motor (figura 10.5).
8
9
4 5
cidad del mismo tipo que se produce en el laboratorio con una botella de Leyden (figura
10.6). Franklin elevó una cometa hasta una nube tormentosa y colgó una llave metálica a
poca distancia del extremo seco del cordel con el cual sostenía la cometa. Luego utilizó un
electroscopio para comprobar que la llave metálica se había cargado eléctricamente. Algu-
nos quisieron repetir la experiencia sin tomar la precaución de sostener la cometa desde un
158 extremo seco del cordel, pero no sobrevivieron para contar la experiencia.
F = k (qq')/r2 (10.1)
Aunque la ley de Coulomb tiene una forma muy similar a la ley de gravitación de Newton, es
importante destacar dos diferencias muy notables. En primer lugar, la fuerza de gravitación
siempre es atractiva, en tanto que la fuerza electrostática puede ser atractiva o repulsiva,
dependiendo del signo de las cargas: si las dos cargas tienen el mismo signo, sea positivo
o negativo, el signo de la fuerza es positivo, lo que corresponde a una fuerza de repulsión;
pero si las cargas son de signo contrario, el signo de la fuerza es negativo, lo que corres-
ponde a una fuerza de atracción. Por otra parte, la aceleración que experimenta un cuerpo
de masa m por la atracción gravitatoria que ejerce otro cuerpo de masa m' es independiente
de la masa m del cuerpo atraído, en tanto que la aceleración que experimenta un cuerpo 159
cargado depende de su masa.
I = ∆q/∆t (10.2)
Gracias a las corrientes continuas generadas por las baterías fue posible realizar progresos
notables tanto en el estudio de las propiedades químicas y la composición de la materia,
como en la naturaleza y en las propiedades de la electricidad y el magnetismo.
Cu
Al
Cu
Al
Cu
Al
Cu
Al
160 Cu
Al
Cu
Al
Cu
Al
Cu
Al
La experiencia nos muestra que la circulación de una corriente eléctrica a través de un con-
ductor genera un aumento de su temperatura, dando cuenta de una disipación de energía;
por tanto, para sostener la corriente eléctrica en un circuito es necesario suministrar energía
de manera continua, mediante alguna fuente donde la energía haya sido previamente alma-
cenada, o sea suministrada de manera continua. La energía necesaria para mantener una
corriente eléctrica se puede almacenar mediante la acumulación de carga en un dispositivo
como la botella de Leyden, la acción de un generador eléctrico, o a partir de una reacción
química.
Los estudios realizados por Joule sobre los efectos térmicos de las corrientes eléctricas
permitieron establecer que la energía disipada en los fenómenos eléctricos debe ser tenida
en cuenta en el balance total de la energía de un sistema, tal como exige el principio de
conservación de la energía.
v
Figura 10.8. Circuito eléctrico.
V = RI (10.3)
la carga q en el punto donde se halla localizada, resulta de gran utilidad definir el concepto
de campo eléctrico E, como:
F = qE (10.4)
162 De acuerdo con esta expresión, se puede interpretar la fuerza electrostática como la inte-
racción de una carga eléctrica con el campo eléctrico definido en la posición de la carga.
Una ventaja adicional que ofrece la definición de campo, que se podrá apreciar más ade-
lante cuando se considere estudie el modo de propagación de sus perturbaciones, es que
se substituye la idea de un par de cargas que interactúan mediante una fuerza invisible, a
distancia y de manera instantánea, por una interacción que es igualmente instantánea pero
local.
De igual manera, se puede decir que una carga eléctrica en reposo genera una condición
del espacio E(r), tal que una carga de prueba localizada a un distancia r experimenta una
fuerza F(r) = qp E(r). El conjunto de todas las posibles direcciones en las que apunta la
fuerza que experimenta la carga de prueba qp en cada punto del espacio constituye una
representación gráfica del campo eléctrico en términos de líneas de fuerza. En la figura
10.9 se pueden apreciar las líneas de campo de una carga positiva y una carga negativa,
respectivamente.
Q Q
Dado su carácter vectorial, el campo eléctrico debido a una distribución de carga correspon-
de a la suma vectorial de los campos generados por cada una de las cargas. En la figura
10.10 se puede apreciar el campo eléctrico generado por un dipolo eléctrico.
163
Resumen
La explicación de los fenómenos eléctricos hace necesario introducir una
nueva magnitud física, la carga eléctrica. El estudio de la electricidad
aporta claves para el conocimiento de la estructura y composición de la
materia. A pesar la semejanza con la ley de gravitación universal, la ley
de Coulomb permite fuerzas de atracción y de repulsión. El hecho de que
los fenómenos eléctricos estén sujetos a la ley de conservación de la
energía nos muestra que las teorías sobre la electricidad hacen parte de
una descripción integral de la naturaleza, conjuntamente con las demás
teorías y leyes de la física.
Cuestionario
1. Describa algunos fenómenos de la cotidianidad en los que se manifieste
la electricidad estática.
2. ¿Qué observación sobre los fenómenos electrostáticos conduce a postu-
164 lar la existencia de dos tipos de carga eléctrica?
3. ¿A qué se atribuye el fenómeno de “erizamiento” del cabello posterior al
lavado y cepillado del mismo?
4. ¿A qué se atribuye que una aguja que flota en el agua –gracias a la ten-
sión superficial– señale una determinada dirección geográfica?
5. A pesar del concluyente experimento de Franklin sobre la naturaleza eléc-
trica de los rayos, resulta que el agua no es buena conductora de la elec-
tricidad. ¿Cómo se puede explicar que un hilo húmedo sí lo sea?
6. Si un peine se carga eléctricamente luego de cepillar el cabello de una
persona, ¿con qué tipo de electricidad quedará cargado el cabello en
cuestión?
7. ¿Qué ventaja podría haber significado que se hubiera designado positiva
a la electricidad del ámbar y negativa a la electricidad del vidrio?
8. ¿Qué conclusión se puede sacar del experimento de separación de car-
gas eléctricas, respecto a la naturaleza de la electricidad y la constitución
de la materia?
9. ¿En qué se asemejan y en qué se diferencian las leyes de gravitación
universal y de Coulomb?
10. ¿Cómo se podría explicar que algunos materiales sean buenos conducto-
res de la electricidad y otros, por el contrario, se comporten como aislan-
tes?
11. Si en condiciones normales la materia es neutra desde el punto de vista
de la electricidad, ¿cómo se puede explicar que se pueda cargar mediante
frotación?
12. ¿A qué tipo de fricción se podría atribuir la carga eléctrica de una nube que
se suele manifestar como un rayo?
13. Los materiales que son buenos conductores, o aisladores, de la electrici-
dad, también son buenos conductores, o aisladores, del calor. Teniendo
en cuenta que la conducción de la electricidad depende en alto grado de la
movilidad de los electrones, ¿qué se podría decir respecto a la conducción
del calor?
14. ¿Qué relación existe entre el equilibrio térmico y el equilibrio eléctrico?
15. ¿Por qué se puede afirmar que la electricidad es una propiedad funda-
mental de la materia, independiente de sus otras propiedades como la
inercia o la gravedad?
33. Compare la cantidad total de carga eléctrica de una batería antes y des-
pués de agotar su energía sosteniendo la corriente en un circuito.
34. De acuerdo con lo anterior, explique a qué se refiere la especificación
“2000 mAh” que se puede leer en la etiqueta de algunas baterías.
35. Aplique la ley de conservación de la energía para explicar el calentamiento
166 de una resistencia eléctrica luego del paso de una corriente.
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Berkson, W. (1981). Las teorías de los campos de fuerza. Alianza Editorial.
Bloonfied, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
11.1 Imanes
El fenómeno del magnetismo se manifiesta tanto en la atracción y repulsión entre imanes, como en
la magnetización que experimentan objetos de material ferroso en presencia de imanes naturales o
de cuerpos magnetizados. La característica más notable de un imán es que se orienta en presencia
de otro imán y exhibe dos polos magnéticos bien definidos, que se denominan norte, o polo positivo,
y sur, o polo negativo, en analogía al comportamiento magnético de la Tierra, puesto que en las
cercanías de sus polos geográficos se detecta la presencia de polos magnéticos (figura 11.1).
Capítulo 11: Electromagnetismo
168
De manera similar a los fenómenos de atracción y repulsión electrostática, los polos mag-
néticos se repelen o se atraen según sus signos sean iguales o contrarios, pero a diferencia
de las cargas eléctricas, es imposible aislar los polos magnéticos e identificar supuestas
cargas magnéticas puesto que los imanes siempre se presentan como dipolos, no importa
qué tan finamente hayan sido divididos. Un dipolo magnético se representa por una flecha
cuya punta corresponde al polo norte (figura 11.2).
N S
La imposibilidad de separar los polos magnéticos permite pensar que un imán grande se
compone de un gran número de imanes más pequeños, que, a su vez, se pueden dividir
en otros más pequeños, hasta llegar a un imán atómico. A partir de esta idea se puede
construir un modelo para explicar la magnetización y la desmagnetización de los objetos
ferrosos. Supongamos que un material ferroso está compuesto por una gran cantidad de
imanes microscópicos orientados de manera aleatoria, de tal modo que el efecto magnético
de cada uno se anula debido a la influencia de sus vecinos (figura 11.3). Cuando se acerca
un imán de suficiente potencia se produce una alineación de cada uno de los imanes mi-
croscópicos, y el magnetismo de cada uno se suma haciendo que el objeto macroscópico
se comporte como un imán de características similares al que produjo la magnetización.
169
La eficacia de este modelo se puede corroborar observando cómo un trozo de hierro pre-
viamente magnetizado pierde su magnetismo al ser expuesto al calor o al ser golpeado. En
uno y otro caso es de suponer que al suministrar energía al sistema, bien sea como calor o
como vibraciones mecánicas, los imanes microscópicos pierden su orientación al aumentar
su energía cinética vibracional y rotacional, y el sistema pasa a una configuración aleatoria
(figura 11.4). Esta descripción es consistente con el aumento de la entropía del sistema y
la correspondiente pérdida de información sobre la orientación de cada uno de los imanes
microscópicos que lo componen.
concepto de líneas de fuerza dio lugar al concepto de campo, entendido como una modifi-
cación del espacio que se manifiesta en cada punto de acuerdo con las características del
cuerpo que se localice en el lugar.
Las líneas de fuerza magnética corresponden al conjunto de todas las posibles direcciones
170 en las que se puede orientar un imán microscópico, o imán de prueba, en presencia de un
imán de mayor tamaño. Al igual que todo instrumento de medición, un imán de prueba debe
ser suficientemente pequeño en comparación con el objeto que va a medir, con el fin de
que su influencia no perturbe la medida que se pretende realizar. Una manera práctica de
visualizar las líneas de fuerza del campo magnético es colocar una hoja de papel sobre un
imán y esparcir limadura de hierro muy fina sobre ella. Las diminutas partículas de hierro
adoptan una postura característica que delinea el contorno de las líneas de fuerza. Se pue-
de apreciar que las líneas se dirigen desde un polo hacia el otro y que la densidad de líneas
tiende al máximo en la proximidad de cada polo (figura 11.5). El conjunto de líneas de fuerza
constituye una representación del campo magnético del objeto, y la densidad de las líneas
de fuerza en una región del espacio es una medida de la intensidad del campo magnético.
Rowland demostró que la rotación de un disco electrizado genera un campo magnético, si-
milar al de un dipolo magnético colocado en el centro del disco, orientado en la dirección del
eje de rotación. En consecuencia, se puede decir que el magnetismo es una manifestación
del desplazamiento de cargas eléctricas (figura 11.6).
171
I
R
B
Las líneas del campo magnético generadas por una corriente que circula en un alambre rec-
tilíneo se distribuyen circularmente a su alrededor, en planos perpendiculares a la dirección
de la corriente, y se orientan según la regla de la mano derecha, de acuerdo con la cual si
el dedo pulgar indica la dirección de la corriente, los dedos cerrados indican la dirección del
campo, tal como se muestra en la figura 11.7.
La intensidad del campo magnético generado por un alambre rectilíneo, por el que circula
una corriente I, a una distancia r del alambre, está dada por la expresión
B = μ0 I/2πr (11.1)
172
11.4 Fuerza entre corrientes
Gracias a los estudios sobre la generación de efectos magnéticos por corrientes eléctricas,
y sobre la fuerza que experimentan las corrientes eléctricas entre sí, realizados respecti-
vamente por Hans Christian Oersted y de André-Marie Ampère, es posible definir el campo
magnético B como la condición del espacio responsable de que una partícula cargada
en movimiento experimente una fuerza perpendicular a su trayectoria, de acuerdo con la
relación
F = qv × B (11.2)
A partir de la observación de que una corriente eléctrica ejerce una fuerza magnética sobre
una brújula, Oersted llegó a la conclusión de que un imán debe ejercer una fuerza sobre una
corriente eléctrica, en correspondencia con el principio de acción y reacción que se deriva
de la tercera ley de Newton.
Por su parte, Ampère observó que dos conductores paralelos por los que circulan corrientes
eléctricas en la misma dirección experimentan una fuerza de atracción proporcional al pro-
ducto de las intensidades de las corrientes, y que en el caso de que las corrientes circulen
en sentidos contrarios, la fuerza tiene la misma intensidad pero la fuerza es de repulsión
(figura 11.8). Ampère interpretó estas fuerzas como la interacción de una corriente con el
campo magnético generado por la otra.
I1 I2 I1 I2
Puesto que una corriente eléctrica corresponde al desplazamiento colectivo de cargas indi-
viduales, la fuerza que experimenta el conductor por acción del campo magnético generado
por la otra corriente es la suma de las fuerzas que experimenta cada una de las cargas en
movimiento, de acuerdo con la relación (11.2).
F 173
Es importante notar que el vector resultante del producto indicado es perpendicular al plano
que definen los vectores v y B. La operación se denomina producto vectorial (figura 11.9),
y el resultado no solo depende de la magnitud de los vectores involucrados, sino de su
dirección, de acuerdo con la relación
Los vectores v, B y F conforman una tripleta de mano derecha (figura 11.10), lo cual quiere
decir que si el dedo índice señala en la dirección de la velocidad, y el dedo del corazón en
la del campo magnético, el dedo pulgar indica la dirección de la fuerza resultante.
axb
De la expresión (11.3) se puede deducir que la fuerza magnética se anula cuando la direc-
ción del campo es paralela a la trayectoria de la carga.
B B
175
B
I
La fuerza magnética que experimenta una corriente eléctrica se puede aprovechar para
generar movimiento de manera continua, disponiendo un embobinado toroidal en presencia
del campo magnético generado por un imán permanente, o un segundo embobinado dis-
puesto de la manera adecuada.
176
El mismo principio que hace posible el funcionamiento del motor eléctrico (figura 11.14)
permite construir un dispositivo denominado amperímetro, que se utiliza para medir la in-
tensidad de una corriente eléctrica. Un amperímetro consiste básicamente de un embobi-
nado que dispone de un eje de giro, sujeto por un resorte en espiral, y un par de imanes
permanentes dispuestos de tal forma que sus campos magnéticos son perpendiculares a
partes opuestas de los lados de la bobina. Cuando circula una corriente eléctrica se genera
una fuerza que produce una rotación y desvía una aguja que se mueve sobre una escala
graduada indicando la intensidad de la corriente, como se ilustra en la figura 11.15.
B B
Las fuerzas magnéticas sobre las cargas eléctricas en movimiento permiten que el campo
magnético de la Tierra se comporte como un escudo contra las partículas cargadas de la
radiación cósmica. Debido a la disposición del campo magnético terrestre, las partículas
que inciden perpendicularmente sobre las zonas tropicales y subtropicales experimentan
fuerzas de máxima intensidad puesto que el valor de θ, el ángulo entre el campo magnético
y la velocidad, tiene un valor cercano a los 90 grados y las partículas quedan atrapadas en
el campo magnético describiendo trayectorias en espiral hasta que pierden su energía o se
alejan de la Tierra. Por el contrario, las partículas que inciden sobre la región circumpolar
experimentan fuerzas de poca intensidad puesto que los valores de θ están alrededor de
cero y debido a su alta energía producen una intensa ionización de la atmósfera, lo que
genera el fenómeno conocido como aurora boreal (figura 11.16).
177
A
Interruptor V
178 De igual manera que se definió el potencial eléctrico en términos de la energía que se debe
suministrar a una carga para que recorra un circuito, en el caso de la inducción eléctrica se
define la fuerza electromotriz, Vem, como una medida de la energía que se suministra a una
espira conductora para generar una corriente eléctrica. Es necesario aclarar que el apela-
tivo de “fuerza” que se le da a la fuerza electromotriz se debe a circunstancias históricas,
puesto que como magnitud física tiene dimensiones de potencial eléctrico, y no de fuerza.
Si se define el flujo del campo magnético ϕB como el campo magnético que atraviesa la
unidad de área, la Vem se puede expresar en términos de la variación ϕB como
El signo menos de esta expresión refleja el hecho de que las corrientes inducidas sobre una
espira tienen una dirección tal que la dirección del campo magnético que generan se opone
a la variación del campo magnético total sobre la espira. Este fenómeno es conocido como
ley de Lenz (figura 11.18).
Si el polo norte magnético de un imán se acerca al plano de una espira la corriente inducida
genera un campo magnético que apunta hacia el polo sur del imán. Por el contrario, si el
polo norte de un imán se aleja del plano de la espira el campo inducido tiene la misma di-
rección que el campo magnético del imán. La dirección de las corrientes inducidas se puede
determinar por la regla de la mano derecha, tal como se ilustra en la figura.
I I
Bi Bi
B v B v
B 0 B 0
Si tenemos en cuenta que para establecer una corriente eléctrica en un conductor es ne-
cesario que haya un campo eléctrico en la dirección de la corriente en cada punto del con-
ductor, podemos decir que la variación del campo magnético genera un campo eléctrico.
La generación de campos eléctricos a partir de campos magnéticos se complementa con el
hecho de que los campos magnéticos se pueden generar a partir de corrientes eléctricas,
que, a su vez, son generadas por campos eléctricos. De manera más general se puede
decir que a la variación en el tiempo de un campo magnético se asocia una variación del
campo eléctrico, y que a la variación en el tiempo de un campo eléctrico se asocia una va-
riación del campo magnético. Un análisis cuidadoso muestra que los campos eléctricos que
se generan son perpendiculares a los campos magnéticos que los generan, y viceversa.
Podemos concluir que la electricidad y el magnetismo son aspectos complementarios de un
fenómeno más general que denominamos electromagnetismo.
Resumen
Los fenómenos magnéticos presentan características similares a las de los
fenómenos eléctricos, tales como la repulsión entre polos del mismo tipo y
180 la atracción entre contrarios, a la vez que se diferencian en aspectos muy
específicos, como en la posibilidad de aislar cargas eléctricas y la imposi-
bilidad de aislar un polo magnético. La posibilidad de explicar los fenóme-
nos magnéticos como el efecto del desplazamiento de las cargas eléctricas
hace que sea innecesaria la introducción del concepto de carga magnética.
La inducción electromagnética pone de presente el hecho de que los fenó-
menos eléctricos y magnéticos corresponden a aspectos complementarios
de un fenómeno más funda- mental.
Cuestionario
1. ¿En qué contribuye el conocimiento de que un imán está constituido de
una inmensa colección de imanes microscópicos, para la comprensión de
la naturaleza del magnetismo?
2. ¿Cómo se podría estimar la entropía de un trozo de hierro magnetizado y
la del mismo trozo de hierro desmagnetizado?
3. ¿Por qué no es necesario suponer la existencia de cargas magnéticas
para dar cuenta de los fenómenos magnéticos?
4. Explique cómo es posible visualizar las líneas de campo magnético de un
imán mediante la aspersión de limadura de hierro.
5. De acuerdo con lo anterior, ¿cómo se podrían visualizar las líneas de
campo magnético que genera una corriente rectilínea?
6. ¿Cómo se puede cuantificar la potencia magnética de un imán a partir de
las líneas de campo?
7. ¿Por qué razón las especificaciones de la red eléctrica de nuestra ciudad
son de 110 V CA?
8. Considere la situación de un par de corrientes eléctricas paralelas. Anali-
ce la dirección de la fuerza que actúa sobre una de ellas y la dirección del
campo magnético generado por la otra corriente.
9. Explique cómo se puede utilizar el magnetismo para detener la rotación
de una rueda metálica, de material no magnetizable, como el aluminio.
10. Explique cómo se puede hacer rotar una rueda de aluminio mediante la
acción de la electricidad y el magnetismo.
11. ¿Qué posibles efectos sobre la vida tendría la supresión del campo mag-
nético terrestre? Nota: esta situación se ha presentado varias veces en la
historia de nuestro planeta.
12. ¿Qué relación hay entre las tormentas solares y las auroras polares?
13. Explique el funcionamiento de un motor eléctrico que no utiliza imanes
permanentes. 181
14. Explique cómo se podría utilizar un motor eléctrico para generar electrici-
dad.
15. Discuta la posibilidad de generar electricidad con motores que no cuentan
con imanes permanentes.
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Berkson, W. (1981). Las teorías de los campos de fuerza. Alianza Editorial.
Bloonfied, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
E = E0 sen ϕ (12.1)
B = B0 sen ϕ (12.2)
Las ondas electromagnéticas, cuya existencia predice la teoría de Maxwell, corresponden a la pro-
pagación de perturbaciones de los campos eléctricos y magnéticos a la velocidad de la luz. Maxwell
calculó la velocidad de propagación de las ondas electromagnéticas en términos de las constantes
Capítulo 12: Campos y ondas
ε0 y μ0, que expresan las propiedades eléctricas y magnéticas del vacío, y encontró que el
resultado coincidía con la velocidad de la luz que había sido determinada de manera expe-
rimental por Fizeau y Fresnel.
184
S N
B
siglo XVII. Gracias a una serie de ingeniosos experimentos llevados a cabo entre 1885 y
1889 por el físico alemán Heinrich Hertz fue posible comprobar la existencia de las ondas
electromagnéticas, y se verificó que poseían las mismas características de propagación,
polarización, reflexión y refracción que la radiación térmica y la luz.
186
Hertz dispuso un par de esferas metálicas muy cercanas entre sí, conectadas a las termi-
nales de un dispositivo que producía diferencias de potencial alterno con una frecuencia de
cien millones de oscilaciones por segundo, lo que en la actualidad se denomina 100 MHz
(figura 12.4). A continuación se desplazó por el laboratorio con un detector consistente en
una espira rota rematada por un par de esferas, y encontró que a ciertas distancias del
generador se producían descargas eléctricas en el detector. Luego de medir las distancias
involucradas y de realizar los cálculos pertinentes, Hertz llegó a la conclusión de que la
longitud de onda generada era de tres metros. De acuerdo con este resultado, y teniendo en
cuenta que la velocidad de propagación de una onda es igual al producto de la frecuencia f
por la longitud de onda, λf, la velocidad resultante es de 300 000 km/s:
v = λf (12.3)
A las ondas generadas por el dispositivo de Hertz se les dice ondas de radio por la gran
aplicación que tuvieron en la tecnología de las telecomunicaciones, posterior a su descubri-
miento. Por su parte, la radiación luminosa ocupa un rango de longitudes de onda entre 350
nm y 700 nm (1 nm = 10−9 m) (figura 12.5).
187
Los trabajos de Young y Fresnel permitieron establecer que la luz es un fenómeno ondula-
torio, y rebatir la teoría corpuscular sugerida por Newton, quien, con el fin de explicar que
la luz blanca se descompone en los colores del arcoiris, y que luego, al recombinar todos
los colores, se obtiene de nuevo luz blanca, planteó la hipótesis de que a cada uno de los
siete colores básicos que él consideraba primarios −rojo, naranja, amarillo, verde, azul,
188 violeta e índigo– correspondían partículas microscópicas de un solo color. La teoría corpus-
cular de Newton podía explicar algunos fenómenos como la propagación de la luz en línea
recta, asociando el rayo de luz a la trayectoria de los corpúsculos. También podía explicar
la reflexión en una superficie como el resultado de choques elásticos de las partículas de
luz con una superficie plana, pero conducía a falsas conclusiones sobre la variación de la
velocidad de la luz al pasar de un medio a otro de diferente índice de refracción, y resultaba
completamente inútil para explicar fenómenos como la difracción y la birrefringencia. Sin
embargo, amparada en la autoridad de Newton, la teoría corpuscular gozó de amplia acep-
tación y credibilidad entre la comunidad científica hasta que las técnicas experimentales
desarrolladas por físicos como Dominique François Arago e Hippolyte Fizeau, además de
los ya mencionados Thomas Young y Agustín Fresnel, permitieron medir la velocidad de la
luz en diferentes medios y caracterizar otros fenómenos como la polarización y la difracción,
que solo se pueden explicar a partir de una teoría ondulatoria. Finalmente, gracias al aporte
de Maxwell, se pudo completar la teoría ondulatoria al establecer que la luz no solo es un
fenómeno ondulatorio sino que es una onda electromagnética.
Pero, a la vez que la cuestión de la naturaleza de la luz parecía haber sido esclarecida gra-
cias a los aportes realizados desde diferentes áreas de la física, quedó planteado un nuevo
y fundamental problema: si la luz es una onda, ¿qué es lo que ondula? En realidad no se
trataba de un nuevo problema, sino de la suposición inherente al modelo mecanicista que
prevalecía en la mentalidad de los físicos de la época de que debía existir un medio mecá-
nico que soportara las ondulaciones electromagnéticas, en atención al origen del concepto
de onda, que se elaboró a partir de la observaciones de las oscilaciones periódicas de los
medios elásticos. Como suele suceder en la historia de las ideas cuando se da por sentada
la existencia de algo pero no hay manera de verificarlo, lo primero que se hace es darle
un nombre, que en este caso fue el de éter lumínico, que, luego de la síntesis de Maxwell,
tomaría el nombre de éter electromagnético, el cual fue objeto de profundas indagaciones
teóricas y de una exhaustiva búsqueda experimental, mediante la cual se esperaba poder
detectar los efectos asociados al desplazamiento de la Tierra a través del éter, para lo cual
se elaboraron algunos de los más sofisticados y precisos montajes experimentales, que de
manera invariable y sistemática arrojaron resultados negativos, sumiendo a los físicos en
un estado de gran confusión.
190
12.7 Rayo y frente de onda
El conjunto continuo de todos los puntos de un medio que exhiben el mismo grado de
perturbación se denomina frente de onda. Los frentes de onda de una perturbación que se
produce en un punto de la superficie de un estanque son círculos concéntricos al foco de la
perturbación. De manera similar, los frentes de onda que se generan por una perturbación
en un punto del espacio se propagan como superficies esféricas concéntricas al foco de la
perturbación.
Frente de onda
Rayo
Los rayos correspondientes a frentes de onda planos son paralelos entre sí (figura 12.10).
Frente de onda
Rayo
191
v = λf (12.3)
La velocidad con la que se propaga una perturbación mecánica depende de las característi-
cas del medio en el que se propaga, como su rigidez, si es un medio sólido, o de su tensión,
si es un medio elástico.
En una dimensión, todo par de puntos consecutivos que tengan el mismo grado de pertur-
bación estarán separados por una distancia igual a la longitud de onda.
A = A0 sen ϕ (12.4)
Senφ
+1
π 2π φ
12.12 Interferencia
Se puede describir el pulso constitutivo de una onda como la propagación de una infor-
mación, que le indica a cada punto del medio por el que atraviesa que debe realizar una
oscilación completa antes de retornar al punto de reposo.
Un tren de pulsos, es decir, una onda, hace que, mientras pasa la onda, cada punto del
medio por el que atraviesa oscile con la misma frecuencia de la fuente que generó la onda.
A1
A
A= A1+ A2
A2
A1
Cuando interfieren dos perturbaciones que están en la misma fase, se suman sus amplitu-
des, y el fenómeno se denomina interferencia constructiva (figura 12.16).
194
Cuando dos perturbaciones que están en contrafase interfieren, se restan sus amplitudes,
y el fenómeno se denomina interferencia destructiva (figura 12.17).
Cuando dos o más fuentes separadas y sincronizadas generan ondas con la misma fre-
cuencia se produce un patrón caracterizado por regiones donde las ondas siempre inter-
fieren en contrafase, y se denominan líneas nodales. De manera correspondiente, existen
regiones donde las ondas siempre interfieren en fase, y generan regiones denominadas
líneas antinodales.
195
12.13 Difracción
Cuando un frente de onda incide sobre un obstáculo de estructura periódica, como una
rejilla, cada abertura de la rejilla se comporta como el foco de una nueva onda. La superpo-
sición de todas las ondas generadas de esta manera produce un patrón característico de
líneas nodales, y antinodales, que se denomina patrón de difracción (figura 12.19).
Cuando se ilumina con una fuente de luz monocromática un par de rendijas perforadas en
una placa, de ancho y separación conocidas, se produce un patrón de difracción que se
puede proyectar en una pantalla, y en el cual se relacionan de manera muy precisa el ancho
y la separación de las rendijas con la longitud de onda, y la separación entre la placa y la
pantalla de proyección (figura 12.20).
Gracias a esta notable propiedad de la luz es posible obtener información sobre las ca-
racterísticas microscópicas de algunas estructuras, como las alas de las mariposas, o la
densidad de los puntos de información grabados en un disco compacto (figura 12.21).
197
Resumen
Unos veinte años después de que Maxwell predijera que las perturbaciones del
campo electromagnético se propagan como ondas transversales a la velocidad
de la luz, Heinrich Hertz verificó experimentalmente su existencia luego de detec-
tar los puntos nodales que se producían entre unos reflectores de aluminio con-
venientemente dispuestos en su laboratorio, como consecuencia de la reflexión e
interferencia de las ondas generadas por un oscilador eléctrico.
Cuestionario
1. Describa un procedimiento para detectar el campo eléctrico en un punto
del espacio.
198 2. Describa un procedimiento para detectar el campo magnético en un pun-
to del espacio.
3. ¿Qué consideración sobre la generación de campos magnéticos puede
hacer suponer que se puedan generar campos eléctricos a partir del mag-
netismo?
4. Compare las dos primeras ecuaciones de Maxwell y explique su significa-
do.
5. ¿Qué característica tienen las líneas de un campo que es generado por
cargas?
6. ¿Qué característica tienen las líneas de un campo que no es generado
por cargas?
7. Considere las líneas de un campo magnético generado por una corriente
eléctrica y compruebe que dicho campo varía punto a punto en el espa-
cio.
8. Considere las líneas de un campo eléctrico generado en una espira de
alambre por la variación de un campo magnético y compruebe que dicho
campo varía punto a punto en el espacio.
9. ¿Qué consideraciones llevaron a Maxwell a proponer que la luz es una
onda electromagnética?
10. ¿Qué analogía se puede establecer entre las ondas que se producen al
pulsar una cuerda tensa y las ondas estacionarias que detectó Hertz en
su laboratorio?
11. Calcule la frecuencia del generador de ondas de Hertz, teniendo en cuen-
ta que la longitud de onda de las ondas detectadas fue del orden de 3
metros.
12. Compare la eficiencia de transmisión de las señales telegráficas con la de
ondas electromagnéticas.
13. ¿Qué ventajas y desventajas tienen las unas y las otras?
14. Explique qué es un pulso y dé algunos ejemplos que se puedan apreciar
en el entorno.
15. ¿Qué relación existe entre los pulsos y las ondas?
16. Explique cómo se puede producir una onda.
17. ¿Qué papel juega el concepto de frecuencia en la construcción de las
ondas?
18. Dé tres posibles definiciones del concepto de longitud de onda.
22. ¿Qué relación existe entre la frecuencia del sonido que emite la onda y la
longitud de onda de las pulsaciones?
23. ¿Qué se puede decir respecto a la velocidad a la que se propaga la onda
en la cuerda tensa?
24. Indique en qué consisten las ondas estacionarias, y explique por qué no
se produce este tipo de ondas en una cuerda con un extremo libre.
25. Considere una fuente de perturbación periódica que actúa sobre la super-
ficie de un cuerpo de agua y describa su forma de propagación.
26. Explique cómo se aplican los conceptos de frente de onda y rayo a la
perturbación descrita en la pregunta anterior.
27. Considere dos fuentes que generan pulsos de manera periódica y sincro-
nizada, que perturban la superficie de un espejo de agua, y explique la
aparición de líneas nodales.
28. Discuta por qué razón la descripción matemática de los fenómenos on-
dulatorios se puede hacer en términos de las funciones trigonométricas
seno y coseno.
29. Explique si es posible describir un pulso individual mediante las funciones
seno y coseno.
30. Explique por qué razón el experimento de Young de la doble rendija per-
mitió resolver la polémica entre los partidarios de la teoría ondulatoria de
la luz y los defensores de la teoría corpuscular.
31. ¿Qué consideraciones llevaron a plantear la hipótesis de la naturaleza
electromagnética de la luz?
32. ¿Qué consideraciones llevaron a plantear la existencia del éter electro-
magnético?
33. ¿Qué características debe exhibir el éter para dar cuenta de la velocidad
de la luz y de su inapreciable interferencia con el movimiento de los pla-
netas?
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Berkson, W. (1981). Las teorías de los campos de fuerza. Alianza Editorial.
Bloonfied, L. A. (2015). How things work. Wiley.
200 Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, una aventura del pensamiento. Losada.
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Jeans, J. (1968). La historia de la física. FCE.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de An-
tioquia.
Se puede decir que la existencia de materia y energía, como dos entidades independientes y bien
diferenciadas, constituye la base de la concepción clásica del mundo físico, siendo la materia el
sujeto de las interacciones físicas y la energía una medida del movimiento, actual o potencial, de la
materia. Por su parte, las ondas son una forma de transporte de energía, que no implica desplaza-
miento neto de materia.
Capítulo 13: Teoría de la relatividad
Para la física del siglo XIX, una onda era la expresión de la perturbación periódica de un
medio elástico continuo, o el movimiento colectivo de un conjunto de corpúsculos, que se
caracterizaba por su frecuencia, su intensidad y la velocidad de su propagación. Esta últi-
ma dependía de propiedades del medio, como la densidad y la rigidez. Así, en los medios
rígidos las ondas se propagan a velocidades mucho mayores que en los medios elásticos,
202 debido a lo cual la velocidad de la luz, que es la mayor velocidad que se puede asignar a
cualquier fenómeno físico, planteaba un serio problema respecto a la constitución del éter,
que tendría que tener una rigidez mucho mayor que la del acero, y una densidad menor que
la del aire, so pena de frenar el movimiento de los astros.
Ante la imposibilidad de detectar el éter de manera directa, los físicos idearon una serie de
ingeniosas experiencias que habrían de dar cuenta de la existencia del éter mediante la
detección de efectos generados por el desplazamiento de fuentes y detectores de señales
electromagnéticas en este medio. Entre los múltiples experimentos que se diseñaron para
comprobar la existencia del éter sobresale el montaje interferométrico realizado por Albert
Michelson (figura 13.2), y, posteriormente, por Michael Morley, a finales del siglo XIX, me-
diante el cual se esperaba poder detectar minúsculas variaciones en la velocidad de la luz
asociadas a los cambios de dirección del movimiento de la Tierra respecto al éter (figura
13.3). A pesar de la extraordinaria precisión del interferómetro de Michelson y del sinnúmero
de veces que se repitieron los experimentos y las mediciones, en diferentes momentos y
locaciones, el resultado siempre fue negativo. Aparentemente la velocidad de la luz no es
afectada por el movimiento relativo de la fuente y el observador, lo cual constituía un de-
safío a la ley de adición de velocidades que satisface la relatividad galileana. De acuerdo
con esta ley, si un observador alcanza la velocidad de un proyectil disparado desde tierra,
este aparecerá en reposo para el observador en movimiento y a una velocidad diferente
respecto al lanzador.
203
´ ´
F=ma
204
F=ma
Las transformaciones de Galileo (figura 13.5) son el conjunto de reglas que permiten que
dos observadores en movimiento relativo uniforme comparen sus mediciones y que verifi-
quen las leyes de la mecánica, de tal manera que si un observador O, que consideramos
en reposo, después de analizar el comportamiento que un cuerpo sujeto a la acción de
una fuerza experimenta una aceleración, afirma que la segunda ley de Newton se debe
expresar como F = ma, y un segundo observador, al que llamaremos O', que se despla-
za a velocidad constante respecto al primero, afirmará que, de acuerdo con sus propias
observaciones, la segunda ley de Newton se debe expresar como F' = ma'. De acuerdo a
lo anterior, se puede afirmar que el movimiento inercial es relativo pero la aceleración es
absoluta, puesto que a = a'.
1
Z Z
VX
1
1 V X
O
O
X X
1
y y1
De acuerdo con lo anterior, no tiene sentido físico hablar de movimiento o reposo absoluto.
Tampoco corresponde a la experiencia observable que los fenómenos electromagnéticos
sean diferentes en los sistemas que se encuentren en movimiento. Como consecuencia,
el principio de relatividad especial establece que “las leyes de la física son las mismas en
todos los sistemas inerciales de referencia”.
De acuerdo con el anterior postulado, los resultados negativos de los experimentos que pre-
tendían detectar el movimiento de la Tierra respecto al éter son compatibles con el nuevo
planteamiento de los principios fundamentales de la física. Por su parte, el debate sobre la
existencia del éter se torna irrelevante puesto que este concepto resulta innecesario para la
206 descripción de los fenómenos físicos y para la construcción de las leyes y teorías que dan
cuenta de ellos.
Directas Inversas
x - vt 1
x - vt
1
x= 1
x=
1- vc
2
1- vc
2
2
2
y=y 1
y=y 1
z=z 1
z=z 1
t-
v x v x 1 1
c t-
c
2 2
t=
1
t=
1- vc
2
1- vc
2
2 2
El anterior ejemplo ilustra el hecho de que en todo proceso de medición que se utilice para
determinar la duración de un proceso es necesario establecer una comparación, por medio
de un conteo, con procesos idénticos de menor duración. Por ejemplo, para medir lo que
tarda una pequeña esfera en descender por un plano inclinado se pueden contar las pulsa-
ciones del corazón o las notas de una melodía de ritmo bien acentuado. De acuerdo con lo
anterior, un reloj (figura 13.7) es un sistema que realiza procesos periódicos, cuya duración
debe ser menor que la del proceso cuya duración se quiere medir. Así, la duración de un
año terrestre se puede medir en términos del día solar, que es un proceso periódico de me-
nor duración que el año. Para determinar la duración de procesos de muy corta duración,
como la caída de un cuerpo desde unos cuantos metros de altura, acudimos a procesos de
más corta duración, como, por ejemplo, las oscilaciones de un cristal de cuarzo.
Teniendo presente que todo sistema periódico puede ser utilizado como reloj, consideremos
un reloj conformado por dos espejos paralelos entre los cuales rebota un rayo de luz. Con
el fin de que nuestro reloj de luz tenga un periodo de un segundo, los espejos deben estar
separados una distancia de 150 000 km, aproximadamente (figura 13.8).
208
del tiempo. La conclusión a la que llegamos es que los relojes en movimiento se atrasan,
y que el único reloj que marca el tiempo correctamente es el que se encuentra en reposo
respecto al observador. De acuerdo con lo anterior, el menor tiempo posible que transcurre
entre dos sucesos es el medido por un observador para el cual los sucesos ocurren en el
mismo punto del espacio.
209
Se puede demostrar que la dilatación del tiempo para un reloj que se encuentra en movi-
miento respecto a un reloj que se considera en reposo está dada por la siguiente expresión:
En esta expresión, ∆t' es el tiempo medido en el reloj del observador que se encuentra en
movimiento, ∆t es el tiempo medido por el observador en reposo, v es la velocidad relativa
entre los dos observadores y c es la velocidad de la luz. Es importante anotar que los su-
cesos que determinan la duración ∆t' ocurren en el mismo punto del espacio para el obser-
vador en movimiento, y en diferentes puntos para el observador en reposo. ∆t' es el menor
tiempo posible que puede medir cualquier observador entre los sucesos que determinan el
intervalo en cuestión. Una importante consecuencia de las anteriores consideraciones es la
imposibilidad de sincronizar relojes que se encuentren en movimiento relativo.
Los efectos asociados a la dilatación del tiempo en los sistemas en movimiento han sido
verificados, con alto grado de precisión, en procesos como el decaimiento de partículas ele-
mentales que viajan a velocidades cercanas a la velocidad de la luz, y en el funcionamiento
de los sistemas de posicionamiento global, o GPS (figura 13.10).
Sin embargo, un observador que se encuentra al lado de la vía, para quien el vagón se des-
plaza con velocidad V, dirá que, de acuerdo con sus propios relojes, primero llegó un rayo
a la parte posterior del vagón y luego llegó el otro rayo a la parte anterior, y que, por tanto,
contrario a lo que afirma el observador interno, la llegada de los dos rayos a los extremos
del vagón no fue simultánea (figura 13.12).
211
A continuación consideremos la situación en la que los dos rayos son reflejados por espejos
en los extremos del vagón y retornan al punto de partida (figura 13.13). En este caso, tanto
para el observador que se encuentra dentro del vagón, como para el que se encuentra
afuera y en movimiento relativo respecto al primero, la llegada de ambos rayos al sitio de
partida es simultánea. Llegamos a la conclusión de que la simultaneidad de sucesos que
se producen en diferentes puntos del espacio es relativa, pero la simultaneidad de sucesos
que se producen en el mismo punto del espacio es absoluta.
Figura 13.13. Pulsos reflejados en los extremos del vagón para los observadores interno y externo.
212
Supongamos que el observador que viaja dentro de un vagón que se desplaza a velocidad
V quiere medir la longitud del mismo, utilizando como referencia el tiempo ∆t que tarda
el vagón en pasar al lado del observador que se encuentra parado en la vía. De manera
recíproca, el observador externo realiza sus propias mediciones de tiempo para calcular la
longitud del vagón, registrando el tiempo ∆t' que tarda el vagón en pasar al lado suyo (figura
13.15).
Puesto que los intervalos de tiempo que registran los observadores dentro del vagón y en la
vía fueron ∆t y ∆t', respectivamente, las correspondientes longitudes serán:
Puesto que ∆t' y ∆t se relacionan mediante la expresión para la dilatación del tiempo,
(13.1), y teniendo en cuenta que ∆t' fue medido en el mismo punto y que ∆t corresponde a
tiempos medidos en diferentes puntos del espacio, se concluye que:
L' ≤ L (13.4)
CT Luz
y
XE
214
E(x, y, z, ct)
De igual manera que en el espacio euclidiano, la rotación de los ejes coordenados deja
invariante la distancia d entre dos puntos (figura 13.17), de acuerdo con la expresión:
y 1
y
Px
2
x 1
A
P
x
Resumen
La imposibilidad de detectar el movimiento de un sistema de referencia
inercial desde su interior, o de detectar variaciones en la velocidad de la
luz, asociadas al movimiento relativo de la fuente y el observador, hizo
necesario el replanteamiento de la física a partir del principio de relatividad
especial y la constancia de la velocidad de la luz. La consecuencia inme-
diata fue la relativización de la simultaneidad y la imposibilidad de realizar
mediciones de longitud o de duración de manera independiente.
Cuestionario
1. Establezca la diferencia entre el desplazamiento de una onda que se pro-
paga en un medio elástico y el de una partícula que viaja en el vacío, en
términos de las magnitudes físicas que se pueden asociar a una y a otra.
2. Establezca la diferencia entre el desplazamiento de un fotón y el de una
partícula que viajan en el vacío, en términos de las magnitudes físicas
que se pueden asociar a uno y a otro.
3. ¿Qué permite esperar, desde el punto de vista de la física newtoniana,
que la velocidad de la luz varíe dependiendo de la dirección de su propa-
gación en un laboratorio situado en la Tierra?
4. ¿Qué requisitos debe cumplir un sistema de referencia para que se pue-
da considerar inercial?
5. ¿Qué tipo de sistema de referencia es la Tierra?
6. ¿Por qué es posible considerar a la Tierra como un sistema inercial du-
rante la observación de fenómenos de muy corta duración?
7. Teniendo en cuenta que en observaciones de tiempo extendido se mani-
fiesta el carácter no inercial de la Tierra como sistema de referencia, ¿a
qué referencia nos podemos remitir como sistema inercial de referencia?
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Canales, J. (2015). The physicist and the philosopher. Kindle eBook.
Davies, P. (1982). El espacio y el tiempo en el universo contemporáneo. FCE.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada. 217
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
eans, J. (1968). La historia de la física. FCE.
Holton, G. (1982). Ensayos sobre el pensamiento científico en la época de Einstein. Alian-
za Universidad.
Russell, B. (1978). ABC de la relatividad. Ariel.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
De acuerdo con un observador en el interior del móvil, los rayos de luz emitidos tienen la misma
energía y la misma frecuencia y se desplazan con la misma velocidad en direcciones opuestas. Sin
embargo, los observadores externos detectan señales luminosas de mayor y menor frecuencia que
la emitida originalmente debido al efecto Doppler, que consiste en la variación de la frecuencia de
una onda debido al movimiento relativo entre la fuente y el observador, de tal forma que cuando la
fuente y el observador se acercan la frecuencia de la onda aumenta, y en el caso contrario disminu-
ye. Es fácil apreciar el efecto Doppler en la variación del timbre del sonido del motor de un vehículo,
Capítulo 14: Materia y geometría
que parece ser más agudo cuando se acerca y más grave cuando se aleja.
Puesto que la radiación electromagnética no solo transporta energía sino, también, momen-
tum, resulta que la emisión de radiación tiene un efecto sobre la fuente emisora equivalente
al disparo de proyectiles. Por esta razón, un haz de luz ejerce presión sobre la superficie
220 de los objetos que ilumina, tal como lo haría un chorro de agua o de gas. La cantidad de
movimiento, p, asociada a la radiación electromagnética está dada por la expresión
p = E/c (14.1)
De acuerdo con el observador en reposo respecto al cuerpo que emite las señales lumino-
sas, este no experimenta cambio en su estado de movimiento porque la suma de la cantidad
de movimiento de los dos rayos que viajan en direcciones opuestas se anula (figura 14.2).
P =- E P= E
C C
2 1
Sin embargo, los observadores externos detectan una situación diferente. De acuerdo con
el observador hacia el cual se acerca la fuente de radiación, la frecuencia f1 de la radiación
emitida es mayor que la que declara el emisor, debido al efecto Doppler (figura 14.3). Por
su parte, el observador del cual se aleja la fuente de radiación detecta una onda de menor
frecuencia, f2.
221
Con el fin de dar cuenta del efecto fotoeléctrico, por el cual ciertos metales generan corrien-
tes eléctricas al recibir radiación electromagnética, Einstein asumió que la energía de una
onda electromagnética es proporcional a la frecuencia, f, de acuerdo con la relación
E = hf (14.2)
p = hf/c (14.3)
p = h/λ (14.4)
Cuando se realiza el balance de la cantidad de movimiento por parte del observador externo
se encuentra que la diferencia entre la cantidad de movimiento de los dos rayos arroja un
resultado positivo en la dirección de desplazamiento del cuerpo:
Puesto que la velocidad del cuerpo no ha cambiado, y teniendo en cuenta que la cantidad
de movimiento de un sistema aislado permanece constante, tenemos que:
Se concluye que, luego de la pérdida de energía por emisión de radiación, la masa del
cuerpo radiante disminuye una cantidad Δm, con
Las consecuencias para la física que se derivan de la anterior relación son de primordial im-
portancia. La clara distinción que existe en la física clásica entre materia y energía empieza
a difuminarse. La inercia, propiedad por excelencia de los cuerpos materiales, resulta ser,
también, una propiedad del campo electromagnético, que se puede apreciar en la emisión
y absorción de radiación electromagnética.
Dos leyes, que hasta entonces se habían erigido como los soportes fundamentales de la
investigación científica, la ley de la conservación de la materia y la ley de la conservación
de la energía, se convierten en una sola ley, que podríamos llamar ley de conservación de
la masa-energía, de acuerdo con la cual, al hacer el balance de la transferencia de energía
en un proceso físico, es necesario tener en cuenta la variación de la masa, y viceversa.
14.2 El fotón
La suposición hecha por Einstein en 1905 −con el fin de dar cuenta del efecto fotoeléctri-
co− de que una onda electromagnética posee una cantidad de energía proporcional a su
frecuencia, y que, por tanto, la materia absorbe luz en paquetes de energía cuantizados, le
confiere a la radiación electromagnética un carácter corpuscular, reviviendo el viejo debate
sobre la naturaleza de la luz. El éxito de la explicación de Einstein del efecto fotoeléctrico, y
su aceptación por parte de la comunidad científica, condujo a la introducción del concepto
de fotón, o partícula de luz. Es importante recordar que antes de que se enunciara esta
teoría, el carácter de corpúsculo solo se atribuía a los llamados cuerpos materiales, en tanto
Electrón
rebotado
Electrón en
Fotón su posición
incidente inicial
Fotón
dispersado
224 + +
- -
225
226
Ahora consideremos la trayectoria de un rayo de luz emitido por un láser orientado per-
pendicularmente respecto a las paredes del laboratorio cohete. Como es de esperarse, el
haz de luz se desvía hacia el piso debido a la aceleración constante que experimenta el
laboratorio (figura 14.9).
227
Las predicciones de la teoría general de la relatividad han sido confirmadas con gran preci-
sión por una gran variedad de experimentos y observaciones realizados en los últimos cien
años, entre los cuales podemos destacar la desviación que exhibe la luz proveniente de
una estrella lejana al pasar por la cercanía de cuerpos celestes de gran masa, dando lugar
a efectos como el denominado lente gravitacional (figura 14.11).
B C
E
Sin embargo, al comparar la hora en sus respectivos relojes, los observadores B y C, que
se encuentran sobre la plataforma, detectan falta de sincronización. Puesto que ambos se
encuentran en reposo entre sí, no pueden atribuir el desfase de sus relojes al movimiento
relativo. Sin embargo, hay un elemento físico que establece una diferencia entre los dos
observadores, puesto que el observador B, que se encuentra en el borde, experimenta
la acción de una fuerza que apunta hacia el centro de la plataforma, en tanto que C no
experimenta fuerza alguna. Puesto que esta es la única diferencia que hay entre los dos
observadores que se encuentran sobre la plataforma, se debe atribuir a ella la diferencia de
las mediciones temporales (figura 14.14).
229
B
C
E
Figura 14.13. Dilatación del tiempo para relojes en movimiento relativo y en reposo.
Figura 14.14. Dilatación del tiempo para relojes sometidos a fuerzas de diferente magnitud.
230
Figura 14.16. Recreación de ondas gravitacionales generadas por la colisión de dos agujeros negros.
Tomado de: http://bit.ly/2seCztG
Resumen
La equivalencia de inercia y gravitación, junto con la equivalencia de masa
y energía, constituyen los más grandes aportes que la teoría de Einstein
hizo a la física. Luego del establecimiento de estas equivalencias la física 231
se hizo más sencilla, con mejor capacidad para predecir fenómenos físicos
inobservados hasta entonces, pero, en opinión de algunos, cada vez me-
nos comprensible.
Cuestionario
1. Verifique que si un sistema inercial en movimiento uniforme no expe-
rimenta un cambio de velocidad luego de disparar sendos proyectiles
idénticos en direcciones contrarias, su velocidad permanece invariante
en todos los demás sistemas inerciales de referencia.
2. Verifique que la cantidad de movimiento de un proyectil disparado desde
un sistema en movimiento depende de la dirección en la que se dispara.
3. La expresión relativista para el efecto Doppler es:
f = f0 √[(c ± v)/(c ± v)]
donde v es la velocidad relativa y c es la velocidad de la luz, y los signos
+ o − dependen de si la fuente y el observador se acercan o se alejan.
Verifique que en el primer caso f es mayor que f0, y en el segundo es lo
contrario.
4. ¿A qué se puede atribuir el corrimiento al rojo que exhibe el espectro
luminoso de las galaxias distantes?
5. Calcule el corrimiento de la frecuencia de un láser de longitud de onda de
633 nm que viaja a una velocidad de 0.1 c, dependiendo de si se acerca
o se aleja del observador.
6. Compare el momentum de un fotón del láser del problema anterior de-
pendiendo de si se acerca o se aleja del observador.
7. Calcule la velocidad a la que se aleja de la Tierra una galaxia cuyo corri-
miento al rojo es del 90% (f = 0.1f0).
8. Suponga que v es mayor que c, y calcule el corrimiento Doppler de la
frecuencia, según que la fuente y el observador se acerquen o se alejen.
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Canales, J. (2015). The physicist and the philosopher. Kindle eBook
Davies, P. (1982). El espacio y el tiempo en el universo contemporáneo. FCE.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Holton, G. (1982). Ensayos sobre el pensamiento científico en la época de Einstein. Alian-
za Universidad.
Jeans, J. (1968). La historia de la física. FCE.
Russell, B. (1978). ABC de la relatividad. Ariel.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
El comportamiento del universo a gran escala es asimilable, hasta cierto punto, al de un gas que
inicialmente se encuentra confinado en un pequeño recipiente, cuyas paredes desaparecen de ma-
nera súbita. Supongamos que el gas está comprimido a la máxima densidad y a la máxima tem-
peratura posible, y que en el interior del recipiente no queda ningún espacio vacío. A continuación
supongamos que, por alguna misteriosa razón, las dimensiones del recipiente empiezan a crecer
gradualmente y las partículas del gas disponen cada vez de mayor movilidad (figura 15.1). Trece mil
setecientos millones de años más tarde el volumen del recipiente se ha expandido de tal manera
que el número de partículas de gas por metro cúbico ha descendido a una, y la temperatura del
sistema es de unos 2.7 K, muy cercana al cero absoluto, aunque, todavía, no lo suficiente.
Capítulo 15: Cosmología: el origen y el fin
234
235
Puesto que los procesos termodinámicos requieren una diferencia de temperatura entre la
fuente térmica y el ambiente, una vez que el sistema haya alcanzado el equilibrio térmico
y todas sus partes se encuentren a la misma temperatura, será imposible realizar ningún
tipo de trabajo. No obstante, la energía total permanece constante. Esta situación pone en
236 evidencia la imprecisión en la que se incurre cuando se define la energía como capacidad
de hacer trabajo.
Si consideramos el universo como un sistema cerrado, tal y como era concebido a media-
dos del siglo XIX, en algún momento alcanzará el equilibrio térmico y todo estará a la misma
temperatura como consecuencia inevitable de la segunda ley de la termodinámica. Bajo tal
condición la energía aprovechable se habrá agotado, y la vida, que es, ante todo, un perma-
nente intercambio de energía con el entorno, habrá dejado de ser viable.
Esta conclusión de la termodinámica se conoce como la muerte térmica del universo, y fue
la primera predicción apocalíptica que se formuló respecto al futuro de la vida a partir de
las leyes de la física. Un importante corolario que se deriva de la anterior conclusión es que
si el universo fuera infinito en el tiempo y no hubiera tenido un origen, la vida ya se habría
extinguido.
237
disciplina que recibió el nombre de física estadística. Boltzmann definió la entropía, función
que permite predecir la evolución en el tiempo de los sistemas termodinámicos, como una
cantidad proporcional al número W con los parámetros termodinámicos del sistema, tales
como la presión, el volumen y la temperatura, de acuerdo con la expresión
S = k ln W (15.2) 239
La definición de entropía en términos de los posibles estados en los que se podría encontrar
un sistema termodinámico permite expresar la segunda ley de la termodinámica en térmi-
nos de probabilidad (figura 15.8). Si se define la probabilidad Pi de que el sistema se en-
cuentre en el estado i como la relación entre el número de modos ni compatibles con dicho
estado y el número total de modos N en los que se puede encontrar el sistema, entonces
Pi será igual a
Pi = ni/N (15.3)
240
Figura 15.8. Dados y probabilidad.
A medida que continúa el proceso de expansión la entropía aumenta hacia su máximo valor
posible, el infinito (figura 15.9). Pero a medida que el volumen aumenta, la densidad de la
materia tiende a cero, y en el estado final solo quedará un recipiente vacío, que ha alcanza-
do el máximo valor de la entropía.
Resumen
Para algunos podría ser un consuelo pensar que todavía deben transcurrir
muchos miles de millones de años antes de que la temperatura del uni-
verso descienda hasta el cero absoluto, o, a lo que podríamos llamar, el 241
estado final, denominación tan arbitraria y convencional como la de origen
que le asignamos al Big Bang. En comparación con nuestros insignificantes
periodos vitales, y el de la mayoría de las especies que han habitado este
planeta y ya se han extinguido, podemos considerar que el universo, tal
como luce en la actualidad, es, prácticamente, eterno.
Cuestionario
1. Suponga que en un aula donde hay 50 sillas numeradas y debidamente
asignadas se sientan 50 estudiantes, cada uno en la silla que le corres-
ponde. Suponga que este es un sistema termodinámico y asigne un valor
de su entropía.
2. Luego de seis meses de recibir clase en el mismo salón, los estudiantes
del caso anterior toman la silla que está disponible y a su gusto. Calcule la
probabilidad de que los estudiantes ocupen las sillas que se les asignaron
al inicio del semestre.
3. Estime la entropía del sistema en el caso más probable de la pregunta
anterior.
4. ¿Cómo se manifiesta la segunda ley de la termodinámica en la evolución
del sistema descrito en la anterior pregunta?
5. ¿Qué relación existe entre la segunda ley de la termodinámica y la direc-
ción del tiempo?
6. Considerando que todos los fenómenos físicos son, en último término,
una inmensa colección de fenómenos reversibles, ¿qué sentido tiene ha-
blar de la irreversibilidad de los fenómenos termodinámicos?
7. Considere un sistema conformado por una gran cantidad de subsis-
temas, cada uno de los cuales se encuentra a diferente temperatura.
Luego de transcurrir un tiempo considerable se alcanza el equilibrio
térmico. ¿Qué se puede decir sobre la entropía del sistema?
8. ¿Qué se puede decir sobre la energía total del sistema del punto ante-
rior?
9. ¿Cuál es la capacidad de realizar trabajo a partir de la energía almacena-
da en el sistema al que se refiere la pregunta anterior?
10. Considere un sistema conformado por una caja cúbica de paredes rígidas
242 que contiene N partículas indeformables de masa m, en movimiento alea-
torio, y encuentre una expresión que relacione la presión, el volumen y la
energía del sistema.
11. Compare la expresión encontrada en la pregunta anterior con la ecuación
de los gases ideales y elabore una interpretación estadística del concepto
temperatura.
12. ¿Cómo se modificaría la interpretación del concepto temperatura de la
pregunta anterior si los corpúsculos tuvieran estructura y elasticidad?
13. Suponga que el número de corpúsculos en la caja del problema anterior
es tal que la caja está llena. ¿Cuál sería la entropía del sistema?
14. ¿Cómo se puede interpretar en este caso un aumento de la temperatura
del sistema?
15. Si las paredes de la caja en cuestión tienen algún grado de elasticidad,
¿qué sucederá si se produce un aumento significativo de la temperatura?
16. Suponga que las paredes de la caja inician un proceso de dilatación inde-
finido y explique cuál será el máximo valor que puede alcanzar la entropía
del sistema, y bajo qué condiciones.
Bibliografía
Davies, P. (1982). El espacio y el tiempo en el universo contemporáneo. FCE.
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Ferreira, P. (2014). The perfect theory. Kindle Edition.
Sagan, C. (1992). Cosmos. Planeta.
Singh, J. (1979). Teorías de la cosmología moderna. Alianza Editorial.
Weinberg, S. (1978). Los tres primeros minutos del universo. Alianza Universidad.
Durante siglos la práctica de la química fue una actividad empírica más cercana al esoterismo que
a las ciencias naturales, y tan solo asumió el carácter de ciencia moderna luego de que a finales
del siglo XVIII Antoine de Lavoisier (figura 16.1), uno de los padres del sistema métrico decimal,
estableciera el principio de conservación de la materia como guía certera para el estudio de las
transformaciones de los materiales e impusiera el uso de la balanza de precisión para controlar
los procesos, y de que John Dalton propusiera el modelo atómico fundamentado en la ley de las
proporciones múltiples.
De acuerdo con la ley establecida por Lavoisier, en toda reacción química la cantidad de materia
permanece constante a lo largo del proceso. En consecuencia, se puede decir que la materia ni se
crea ni se destruye sino que se transforma, tal como afirma una de las expresiones más conocidas
de la ley de conservación de la materia.
Capítulo 16 : Materia y radiación
Por su parte, la ley de Dalton estableció que cuando una cantidad fija de un elemento re-
acciona con diferentes cantidades de otro elemento para formar diversos compuestos, los
pesos del segundo elemento se relacionan entre sí en proporciones sencillas de números
enteros. Así, por ejemplo, una determinada cantidad de hidrógeno puede reaccionar con
cierta cantidad de oxígeno para formar agua común, o con el doble de la misma cantidad de
244 oxígeno para formar agua oxigenada.
A partir de esta ley se puede inferir que la mínima cantidad de un material capaz de producir
determinada reacción corresponde a un número entero de átomos de dicho material. La
adopción de este presupuesto contribuyó al rápido avance de la química en el siglo XIX,
cuyos significativos logros se vieron reflejados en la elaboración de la tabla periódica para
la clasificación de los elementos, cuyo número superaba, por mucho, los cuatro elementos
de la antigüedad, que, a la luz de los nuevos descubrimientos, ya no se podían considerar
elementales.
La invención de la batería por Volta en 1800 fue el resultado de una serie de experimentos 245
y deducciones que se iniciaron con la observación hecha por Luigi Galvani de que una pata
de rana que descansaba sobre una plancha metálica experimentaba una súbita contracción
al ser pinchada con un cuchillo. Galvani creyó haber descubierto la fuerza vital con la que
soñaban muchos de los investigadores de la época, pero fue Volta quien dedujo, correc-
tamente, que el comportamiento del músculo del animal se debía al paso de una corriente
eléctrica.
Volta demostró que si en lugar de una pata de rana se utiliza un pedazo de cartón empapa-
do en solución salina para poner en contacto dos metales diferentes, también se generaba
una corriente eléctrica. Entonces quedó claro que los fluidos presentes en la pata de la
rana, al igual que la solución salina, se comportan como un medio conductor que se deno-
mina electrolito.
Puesto que las corrientes generadas de esta manera son de muy baja intensidad, Volta
apiló una sucesión alternada de cartones empapados en una solución de ácido sulfúrico
entre placas metálicas de cobre y zinc para obtener corrientes apreciables cuya intensidad
dependía del número total de láminas apiladas. De la peculiar disposición de los elementos
que conforman el dispositivo se deriva el nombre de pila (figura 16.3).
+
+
16.2 Electrólisis
Cuando en un medio líquido se introducen un par de electrodos conectados a los polos de
una pila voltaica, los elementos de un compuesto disuelto en el medio se separan gracias a
un proceso que recibe el nombre de electrólisis (figura 16.4). La electrólisis es una poderosa
246 herramienta para el estudio de la composición de los materiales y constituye un método
menos destructivo que la calcinación de las sustancias, o el ataque con ácidos y álcalis,
que eran anteriormente utilizados para separar e identificar los elementos de un compuesto.
El uso sistemático de la electrólisis para descomponer y analizar las soluciones condujo
al descubrimiento de un importante número de nuevos elementos a lo largo del siglo XIX.
Hidrógeno
Oxígeno
De acuerdo con lo anterior, los metales se clasifican como conductores, y ciertos materiales
como las resinas, las cerámicas y las maderas se denominan dieléctricos o aislantes. Pero
dado que no todos los metales son igualmente buenos conductores, ni todos los dieléctricos
son igualmente buenos aislantes, la determinación precisa de su conductividad permite
caracterizar diferentes materiales y diferenciarlos con precisión.
Queda claro, entonces, que el estudio del comportamiento eléctrico de cuerpos sólidos y de
soluciones líquidas mediante la electricidad permite determinar, en buena medida, la com- 247
posición química y las propiedades eléctricas de los mismos. De igual manera, esta técnica
aplicada al estudio de los gases revela importante información no solo sobre la estructura y
las características de estos sino sobre la propia electricidad.
Con el fin de determinar las características eléctricas de los gases es necesario introducir
en un recipiente sellado una muestra de la sustancia que se quiere analizar y someterla a
una fuente de potencia eléctrica hasta lograr que circule una corriente, para lo cual el reci-
piente, que por lo general es un tubo o una ampolla de vidrio alargada, debe contar con un
par de electrodos en sus extremos. Un dispositivo con estas características fue diseñado
en el siglo XIX por William Crookes y para su operación es necesario aplicar diferencias de
potencial de varios miles de voltios.
Una de los fenómenos más notables que se observan cuando circula la corriente a través
del tubo es un resplandor característico en uno de los extremos del tubo, conocido como
fluorescencia. A pesar de que la fluorescencia era un fenómeno bien conocido en materiales
sólidos, nunca había sido observado en gases, o, al menos, identificado como tal, puesto
que las auroras boreales y australes también son manifestaciones del mismo fenómeno.
Pero aún más interesantes que la fluorescencia inducida por la corriente eléctrica en el gas
encerrado en un tubo de vidrio, resultaron los trazos dejados por la corriente eléctrica al
pasar por un gas enrarecido, es decir, un gas a muy baja presión. Luego de determinar que
la corriente responsable de las trazas en el gas provenía del cátodo, o electrodo negativo,
el agente responsable del fenómeno recibió el nombre de “rayos catódicos” (figura 16.5).
Cátodo
Ánodo
Alto voltaje
Fuente de alimentación
16.4 Electrones
En su momento la naturaleza de los rayos catódicos fue objeto de un agitado debate. Algu-
nos físicos, como el alemán Philip Lenard, concluyeron que esta radiación era de carácter
ondulatorio, luego de observar que los rayos catódicos podían atravesar una delgada ven-
tana de aluminio colocada en el extremo cercano al ánodo en el tubo de descarga; otros,
como el inglés J. J. Thomson, asumían que se trataba de un haz de corpúsculos, puesto
que experimentaban una deflexión al ser sometidos a la influencia de campos eléctricos y
magnéticos. Finalmente, el asunto se resolvió a favor de los defensores del modelo cor-
puscular, gracias a los cuidadosos experimentos realizados por Thomson en el Laboratorio
Cavendish de la universidad de Cambridge. Sin embargo, un par de décadas más tarde la
cuestión volvería a ser objeto de un intenso debate con el advenimiento de la mecánica
cuántica.
Desde la época de Galileo la discusión sobre la posible existencia del vacío había sido
objeto de fuertes controversias, sobre todo por el rechazo que suscitaba esta idea entre los
filósofos escolásticos afectos a la doctrina aristotélica del horror al vacío y a la supuesta
existencia de un medio continuo que todo lo llenaba. Sin embargo, los experimentos rela-
cionados con la presión atmosférica realizados por Evangelista Torricelli, un discípulo de
Galileo, confrontaban al experimentador con situaciones cuyas posibles explicaciones se
inclinaban por la hipótesis del vacío. En efecto, si se introduce el extremo abierto de un tubo
de cristal de un metro de longitud, lleno de mercurio, en un recipiente que contiene el mismo
material, y se sostiene el tubo en posición vertical, la columna desciende hasta alcanzar una
altura de unos 76 cm, dejando en la parte superior un espacio en el cual aparentemente no
hay nada.
Los métodos utilizados por Torricelli constituyeron un importante aporte a las técnicas de
generación de vacío por bombeo mediante la utilización de mercurio. Doscientos años más
tarde, el refinamiento de las prácticas de Torricelli permitió construir los tubos de vacío y, en
particular, el tubo de Crookes, que le sirvió a J. J. Thomson (figura 16,6) para demostrar la
existencia de los electrones en 1897.
249
Thomson demostró el carácter corpuscular de los rayos catódicos luego de medir la relación
entre la carga y la masa de los supuestos corpúsculos mediante la deflexión del haz sobre
el cual se aplicaron campos eléctricos y magnéticos en el vacío (figura 16.7). Una década
más tarde Robert Millikan midió con precisión la carga del electrón gracias a lo cual fue
posible establecer que la masa de esta partícula es unas dos mil veces más pequeña que
la de un átomo de hidrógeno, el más liviano de todos los elementos.
Por una paradoja de la historia, antes de que la existencia de los átomos −supuestos últi-
mos componentes de la materia− fuera un hecho comprobado y aceptado por la comunidad
científica, fue descubierto el electrón, que es una partícula subatómica.
Cuando unos años después del descubrimiento del electrón se pudo establecer el modelo
atómico, gracias a los trabajos de Einstein sobre el movimiento browniano y a los cálculos
y mediciones que realizó Jean Perrin sobre el tamaño de los átomos y el número de Avo-
gadro, ya se sabía que estos no son los constituyentes más elementales de la materia. En
estricto sentido, los componentes últimos de los elementos químicos no son los átomos
porque son divisibles.
250
Pero en contra de lo que se podría pensar, el descubrimiento del electrón no trajo aparejado
el del protón. Pasaron más de veinte años, luego de que Thomson descubriera el electrón,
antes de que Rutherford diera cuenta de la existencia del protón como resultado de investi-
gaciones subsecuentes al descubrimiento del núcleo atómico.
En 1928 Paul Dirac propuso la célebre ecuación que lleva su nombre, y dio cuenta del
comportamiento de los electrones sujetos a las restricciones que impone la teoría de la re-
latividad y a los postulados de la mecánica cuántica. Un sorprendente resultado que arroja
el examen de esta ecuación es la existencia de una partícula idéntica al electrón, pero de
carga eléctrica positiva. Cuatro años más tarde, el físico Carl Anderson descubrió eviden-
cias experimentales de la existencia de la partícula predicha por la ecuación de Dirac, luego
de estudiar trazos de trayectorias de partículas provenientes de la radiación cósmica. La
nueva partícula, denominada positrón, es la manifestación de una simetría fundamental de
la naturaleza por la cual a toda partícula elemental le corresponde otra partícula idéntica
pero de carga contraria que, por razones puramente técnicas, se denomina antipartícula
(figura 16.8).
16.5 Radiación
Resulta sorprendente comprobar que los procedimientos que utiliza la física para estudiar
la estructura de la materia son, en el fondo, de una gran sencillez. En esencia, consisten
en introducir una sonda lo suficientemente fina en el interior de los cuerpos para dar cuenta 251
de su estructura. Los descubrimientos de los rayos X y de la radiactividad, ocurridos con
poca diferencia de tiempo a finales del siglo XIX, proveyeron a los investigadores con herra-
mientas de las características adecuadas para examinar el interior de átomos y moléculas.
Es muy notable que ambos descubrimientos, el primero realizado por Wilhelm Roentgen
en 1895 y el segundo por Henri Becquerel en 1896, hayan sido realizados en el marco de
investigaciones sobre la fluorescencia, fenómeno que, como ya ha sido mencionado, se
manifiesta de manera notable en tubos de rayos catódicos, como los que hicieron posible
el descubrimiento del electrón.
En primer lugar, Roentgen descubrió que cuando se produce una descarga eléctrica de alto
voltaje en un tubo de rayos catódicos se emite una radiación capaz de atravesar objetos
opacos y de producir la fluorescencia en materiales dispuestos a varios metros de distancia
de la fuente de emisión. Para verificar su descubrimiento, Roentgen expuso la mano de su
esposa a la recién descubierta radiación y registró en una placa fotográfica la imagen de
sus huesos. Se había tomado la primera radiografía (figura 16.9).
Dado el desconocimiento que se tenía del origen de esta misteriosa radiación, se le dio el
nombre de rayos X. Posteriores investigaciones demostraron que se trataba de radiación
electromagnética de una longitud de onda del orden de una diezmillonésima de milímetro,
que corresponde a las dimensiones estimadas para los átomos. Por su descubrimiento,
Roentgen recibió en 1901 el primer Premio Nobel de Física.
Por su parte, Henri Becquerel (figura 16.10) descubrió la radiactividad mientras trataba
de determinar si la exposición de cierto tipo de material de uranio al Sol era la causa de
252 su posterior luminiscencia. Becquerel observó que una muestra de mineral de uranio, que
había sido guardada en un cajón sobre una placa fotográfica, había impresionado la placa
a pesar de que esta estaba debidamente protegida. Subsecuentes investigaciones en torno
al descubrimiento de Becquerel permitieron identificar tres tipos de radiación con carga
eléctrica positiva, negativa o neutra, que recibieron el nombre de alfa, beta y gamma, res-
pectivamente.
La radiación alfa está compuesta por partículas con el doble de la carga eléctrica que un ion
de hidrógeno y unas cuatro veces su masa. Posteriormente se descubrió que se trataba de
átomos de helio doblemente ionizados. La radiación beta, por su parte, demostró tener el
mismo carácter de los electrones que Thomson había descubierto en los rayos catódicos.
Por último, la radiación gamma es radiación electromagnética de una longitud de onda aún
menor que la de los rayos X y, en consecuencia, con mayor capacidad de penetración en
los medios materiales.
Resumen
El establecimiento de la química como una ciencia moderna, más allá de
la práctica empírica que la había caracterizado en ápocas anteriores, fue
posible gracias a la suma de los aportes de personajes como Lavoisier, 253
Avogadro y Dalton, pero fue la pila de Volta lo que brindó la capacidad ope-
rativa para comprender las reacciones químicas como combinación y diso-
ciación de los diferentes elementos mediante la acción de la electricidad.
El posterior descubrimiento del electrón, que es una partícula subatómica,
dio paso a la elaboración de modelos cada vez más comprensivos de la
estructura de la materia, que se fue refinando de manera gradual tan pronto
fue posible disponer de los rayos X, gamma y beta para sondear el interior
más recóndito de los átomos.
Cuestionario
1. ¿Por qué tardó más de un siglo la aceptación del modelo atómico por
parte de la comunidad científica después de que Dalton realizara su pro-
puesta?
2. ¿Por qué se puede decir que la antimateria es materia?
3. Discuta por qué la aceptación del modelo cinético corpuscular implica la
aceptación de la supuesta existencia de corpúsculos microscópicos e invi-
sibles que componen la materia.
4. ¿Acaso pierde autoridad la física al renunciar a construir sus teorías exclu-
sivamente con objetos que se puedan ver?
5. ¿Qué significa, en último término, ver?
6. ¿Por qué son útiles como herramientas para conocer la estructura de la
materia los rayos X y las radiaciones emitidas por materiales como el ra-
dio, el uranio o el polonio?
7. ¿A qué se debe que los rayos X puedan atravesar la materia ordinaria, y
la luz visible no?
8. ¿Qué característica de la radiación alfa permite, al igual que los rayos X,
estudiar la estructura de la materia?
9. ¿A partir de qué resultado experimental planteó Rutherford la existencia
de un núcleo atómico?
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Bloomfield, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
17.1 El núcleo
Durante la realización de una serie de experimentos propuestos por Ernest Rutherford (figura 17.1)
en los que una lámina de oro muy delgada era bombardeada con partículas alfa, se observó, con
gran sorpresa, que algunas pocas partículas experimentaban una fuerte desviación, y que otras,
todavía más pocas, llegaban incluso a rebotar. Luego de analizar la situación, Rutherford llegó a la
conclusión de que casi toda la masa del átomo se encuentra concentrada en una esfera de carga
eléctrica positiva, de dimensiones muy pequeñas comparadas con las del átomo, localizada en su
centro y rodeada por un enjambre de electrones.
El radio del núcleo resultó ser unas cien mil veces menor que el radio atómico, debido a lo cual el
átomo es una estructura prácticamente vacía puesto que casi toda su masa se concentra en una
milmillonésima de millonésima parte del volumen que delimitan las órbitas de sus electrones, que
son las que determinan el tamaño del átomo.
Tomando en cuenta lo anterior, habría que matizar el aforismo de los atomistas griegos
según el cual somos átomos y vacío, advirtiendo que somos más vacío que cualquier otra
cosa.
El protón debe su nombre a la idea propuesta por William Prout a principios del siglo XIX
según la cual todos los átomos serían agregados de átomos de hidrógeno, de modo que
este debería ser el elemento proteico o primordial. La propuesta de Prout se sustentaba en
que las relaciones de peso de algunos átomos respecto al hidrógeno eran números enteros,
hasta donde permitía establecer el error experimental de los datos disponibles en la época.
De este modo, si se asigna la unidad a la masa al hidrógeno, la masa del helio sería 4, la
del carbono 12 y la del oxígeno 16. Pero mediciones más detalladas, como la de la masa del
cloro, que resultó ser 35.5, dieron al traste con la idea. La cuestión no habría de resolverse
hasta principios del siglo XX luego del descubrimiento de los isótopos.
Sin embargo, el modelo de átomo nuclear (figura 17.2) adolecía de serias inconsistencias
teóricas respecto a la estabilidad de los electrones, que no se podía resolver en el marco
de la física clásica. De acuerdo con la electrodinámica de Maxwell, toda carga sujeta a una
fuerza, y que experimente una aceleración, debe radiar energía en forma de ondas electro-
magnéticas, en un proceso denominado radiación de sincrotrón. De hecho, el mecanismo
que se utiliza para emitir una señal de radio desde la antena de una emisora consiste en
someter la antena a una diferencia de potencial oscilante, que genera corrientes eléctricas
que alternan su dirección con la misma frecuencia que el potencial, emitiendo ondas elec-
tromagnéticas. De igual forma, un electrón que gira alrededor de un núcleo bajo la influencia
de la fuerza de Coulomb debería perder su energía cinética y caer al núcleo, cosa que no
sucede, para fortuna nuestra.
L = nh/2π (17.1)
Energía de órbita
n=3 en aumento
n=2
n=1
Mediante este sencillo modelo, conformado por un único protón en el núcleo y un electrón
orbitando a su alrededor, Bohr pudo dar cuenta teóricamente del espectro del hidrógeno
con un buen grado de aproximación, basado en el supuesto de que la emisión de radiación
por parte de un átomo es el resultado de la transición de un electrón de una órbita de mayor
energía asociada al número ni a una de menor energía asociada al número nf. Gracias a
esto le fue posible reproducir la expresión matemática que describe la longitud de onda, λ
de la radiación espectral del átomo de hidrógeno (ecuación 17.2), que había sido estableci-
da de manera empírica por Johan Balmer en el siglo XIX:
El conjunto de todos los fotones que puede emitir un átomo como consecuencia de las
transiciones de los electrones entre órbitas permitidas constituye su espectro, que, por ser
individual y característico de cada átomo, lo identifica de manera inequívoca (figura 17.4).
Durante el siglo XIX la espectroscopía empírica fue un valioso auxiliar de la química analíti-
ca. Luego de contar con el fundamento teórico de la mecánica cuántica, la espectroscopía
hizo aportes todavía mayores para el desarrollo de la química y de todas las ramas de la
física atómica.
410nm 434nm 486nm 656nm
17.3 El neutrón
En vista de que el tamaño y las propiedades químicas del átomo dependen de sus electro-
nes orbitales, pero que el número de estos es menor que el número de supuestos protones
necesarios para dar cuenta de la masa atómica, y puesto que en su estado normal el átomo
es eléctricamente neutro, durante algún tiempo se pensó que en el núcleo se encontraba un
cierto número de electrones; sin embargo, una serie de inconsistencias relacionadas con el
momento angular nuclear de algunos átomos, y con la imposibilidad teórica de que los elec-
trones permanecieran en un espacio de dimensiones nucleares, condujo a postular la exis-
tencia de una nueva partícula, de masa semejante a la del protón pero sin carga eléctrica,
que diera cuenta de la masa y la estructura nuclear. Finalmente, en 1932, James Chadwick
descubrió una partícula con las características mencionadas y le dio el nombre de neutrón.
Gracias al neutrón, junto con el protón y el electrón, fue posible reconstruir toda la tabla
periódica en términos de las estructuras que, sujetas a ciertas condiciones de estabilidad,
se pueden conformar con tan solo estos tres tipos de partículas. En consecuencia, resulta
válido suponer que el núcleo está compuesto por un cierto número de protones, que definen
el número atómico y la identidad del átomo, y un cierto número de neutrones, que comple-
tan la masa del átomo, en tanto que la reactividad química depende de los electrones.
Gracias al neutrón fue posible resolver la incógnita del aparente valor fraccional de las ma-
sas atómicas de algunos elementos, que no se podía expresar como un número entero de 259
veces la masa del protón debido a la existencia de los isótopos. El nombre isótopo alude al
hecho de que un mismo elemento, cuya posición en la tabla periódica depende del número
de protones que alberga en el núcleo, puede presentarse con diferentes pesos atómicos
como resultado del diferente número de neutrones que posee, sin que esta situación altere
sus propiedades químicas. Así, el peso atómico del cloro que se encuentra en la naturaleza
es 35.5 unidades de masa atómica, u, que resultan de la presencia de un 75% de cloro de
35 u, 35Cl, y un 25% de cloro de 37 u, 37Cl.
La unidad de masa atómica, u, ha sido definida de tal manera que al isótopo más liviano del
carbono, el 12C, le corresponde una masa de 12 u.
17.4 Moléculas
Cuando dos átomos se acercan lo suficiente entre sí pueden intercambiar o compartir los
electrones más externos, estableciendo ligaduras que forman estructuras compuestas de-
nominadas moléculas (figura 17.5). Las ligaduras interatómicas que dan lugar a la forma-
ción de moléculas se caracterizan por la cantidad de energía necesaria para que se reali-
cen, o por la cantidad de energía necesaria para que se rompan, lo cual está directamente
asociado a la estabilidad de las estructuras que se forman.
260
Los agregados de moléculas pueden formar tejidos, y estos, a su vez, órganos, que com-
ponen los organismos en los que se manifiesta ese peculiar estado de la materia que se
denomina vida. La precariedad de las estructuras vivientes está directamente relacionada
con su alto grado de complejidad y con la fragilidad de los enlaces que participan en la
constitución de las moléculas que almacenan el código genético, que son los más débiles
entre todos los que se pueden constituir (figura 17.6).
G T A C
C A T G
ADN
Somos, pues, un agregado precario de protones, neutrones y electrones, pero con con-
ciencia.
La pregunta que surge es: ¿qué determina la estabilidad de un sistema físico, cualquiera
sea su dimensión y manifestación? Sin duda, se trata de una pregunta ambiciosa que no
admite una respuesta sencilla, pero gracias al estudio de las interacciones fundamentales
se pueden obtener claves para elaborar una respuesta coherente.
En términos estructurales, los seres vivos somos agregados de átomos que conforman 261
moléculas, de las cuales se forman tejidos y órganos, que dan lugar a sistemas relativa-
mente estables que interaccionan con el entorno y participan en ciclos permanentes de
crecimiento, reproducción y decadencia. Una de las características más notables de estos
ciclos es el cambio de las formas y la persistencia de la materia. Pero no es la cantidad de
materia lo único que permanece constante a través de los cambios. Un examen minucioso
de los procesos físicos revela la existencia de magnitudes como la carga, el momentum y la
energía que, además de la materia, satisfacen leyes de conservación de validez universal,
en las cuales se fundamentan los modelos y las teorías que hacen posible el análisis de los
fenómenos naturales.
En su inmensa mayoría, los fenómenos que se aprecian a nuestro alrededor son manifes-
taciones de la interacción electromagnética, en los que la extraordinaria movilidad e inter-
cambiabilidad de dos partículas elementales, el electrón y el fotón, dan cuenta de casi todos
los procesos. La vida es una manifestación de una continua reconversión molecular, que
se sustenta en la estabilidad de los átomos y en su capacidad de realizar un permanente
intercambio de electrones, a la vez que absorben y liberan energía en forma de fotones.
En algún momento, cuando solo se conocían el electrón y el protón, se pensó que los elec-
trones podrían servir de ligadura entre los protones, de manera similar al enlace que existe
entre los dos átomos que forman la molécula de hidrógeno ionizado, H2+, pero diversas
consideraciones teóricas y evidencias experimentales coincidieron en descartar la presen-
cia de electrones en el núcleo.
Una vez descartado el electrón como supuesto pegamento de los protones nucleares, fue
necesario proponer la existencia de algún tipo de fuerza de mayor intensidad que la fuerza
de Coulomb, que, además, pudiera actuar sobre una partícula sin carga eléctrica como el
neutrón, y fue así como apareció en escena la denominada fuerza nuclear fuerte, por ser
de mayor intensidad que la fuerza electromagnética, y para distinguirla de la otra interac-
ción nuclear que se denomina fuerza, o interacción, débil, responsable de los decaimientos
radiactivos.
Resumen
Gracias a la posibilidad de disponer de las sondas finas que aportó el
descubrimiento de la radiactividad para el estudio de la estructura de la
materia se fue configurando una nueva visión del mundo atómico y de sus
componentes subatómicos mediante la introducción de sorprendentes y
novedosas propuestas respecto al comportamiento de los sistemas físicos
más elementales, lo cual condujo a nuevos descubrimientos y a la pos-
tulación de interacciones hasta entonces desconocidas, que dan cuenta
de la estabilidad y de la inestabilidad de la materia y de sus estructuras
fundamentales.
Cuestionario
1. ¿Por qué fracasó la propuesta de Prout de considerar que todos los áto-
mos son agregados del hidrógeno, que es el átomo más liviano?
2. El descubrimiento del núcleo atómico fue un gran avance en el conoci-
miento de la estructura del átomo, pero también supuso renunciar a la
263
teoría electromagnética para explicar la estabilidad del sistema. ¿Signifi-
ca lo anterior que la teoría de Maxwell es incorrecta?
3. ¿Qué porcentaje de la masa de un átomo corresponde a sus partículas
de carga negativa?
4. ¿Por qué fue necesario suponer ad hoc la existencia de las supuestas
órbitas permitidas? (¿qué quiere decir ad hoc?).
5. ¿Por qué resulta novedosa, e, incluso, ilógica la propuesta de Bohr de la
existencia de “órbitas permitidas” en el átomo de hidrógeno?
6. ¿Qué relación existe entre la existencia de órbitas permitidas y el carácter
discreto de los espectros que emiten los diferentes materiales?
7. ¿Qué es espectroscopía empírica?
8. ¿Por qué se puede estar seguro de que no hay dos átomos de elementos
diferentes que tengan el mismo espectro?
9. ¿Cuántas partículas elementales son necesarias para conformar un ser
humano?
10. ¿Cuál es el mínimo número de átomos que se necesitan para conformar
una estructura molecular que se pueda considerar viva?
11. ¿Cuál es la interacción física que juega un papel más preponderante en
la existencia de la vida?
12. ¿Qué papel juegan las demás interacciones en la existencia de la vida?
13. ¿Por qué no es posible que un electrón permanezca en el núcleo de un
átomo durante suficiente tiempo como para hacer parte de su estructura?
14. ¿Por qué fue necesario postular la interacción nuclear fuerte?
15. Compare la energía de interacción de un núcleo con un electrón, y del
mismo núcleo con un protón, para hacerse a una idea de la magnitud de
la energía de la interacción fuerte.
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Bloomfield, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
264 Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
Pero el análisis riguroso del decaimiento beta reveló una aparente violación de la conserva-
ción de la energía y del momento angular, lo que llevó a Wolfgang Pauli en 1930 a plantear
la existencia de una partícula inobservada hasta entonces, que diera cuenta de las diferen-
cias de masa, energía y momento angular observadas en el proceso. La partícula hipotética
debía tener una masa mucho menor que la masa del protón y carga eléctrica nula, por cuya
razón interactúa muy débilmente con la materia. Inicialmente Pauli la llamó neutrón, pero en
vista de que un par de años más tarde Chadwick le asignó el nombre de neutrón al nucleón
que junto con el protón participa en la conformación del núcleo, Enrico Fermi bautizó a la
nueva partícula con el nombre de neutrino, aunque, en estricto sentido, la partícula hipotéti-
ca que participa en el decaimiento beta no es un neutrino sino un antineutrino. Sin embargo,
existe otro decaimiento radiactivo denominado beta positivo en el que el núcleo emite un
positrón, la antipartícula del electrón predicha por la ecuación de Dirac, acompañado por la
emisión de un neutrino.
La aniquilación de los positrones emitidos por el decaimiento beta positivo con los electro-
nes que rodean el núcleo radiactivo tiene una aplicación práctica de gran valor en medicina
nuclear que se denomina tomografía por aniquilación de positrones y electrones, o PET, por
su sigla en inglés (figura 18.2).
FDG
OH 267
O
HO
HO
18
F
OH
18.3 Mesones
El estudio de la interacción electromagnética en el marco de la mecánica cuántica dio lugar
a la teoría cuántica de los campos. En el marco de esta teoría la interacción entre dos par-
tículas eléctricamente cargadas se concibe como un intercambio de fotones, que cumplen
el papel de mediadores de la interacción. De manera análoga, el análisis cuántico de la
fuerza nuclear sugiere la existencia de algún tipo de partícula mediadora en la interacción
fuerte entre los nucleones. Acorde con esta línea de pensamiento, en 1935 el físico japonés
Hideki Yukawa predijo la existencia de una partícula de carga eléctrica nula, mediadora de
la interacción fuerte, y estimó que debía tener una masa unas 200 veces mayor que la del
electrón.
La radiación cósmica está compuesta por partículas, principalmente protones, que viajan
a velocidades cercanas a la de la luz. Aunque su origen es incierto, es muy probable que
esta radiación se genere en eventos astronómicos cataclísmicos, como la explosión de las
supernovas. Eventos menos dramáticos como las tormentas solares también generan cho-
rros de partículas que al llegar a la Tierra se manifiestan en fenómenos tan espectaculares
como las auroras boreales y australes (figura 18.3).
Cuando una partícula de alta energía, como las que componen la radiación cósmica, choca
con el núcleo de un átomo su energía se manifiesta en la aparición de un sinnúmero de
nuevas partículas cuya presencia puede ser detectada gracias a los trazos que dejan sus
trayectorias en sistemas especialmente diseñados para este fin, como el material de los
balones meteorológicos, las cámaras de niebla y las cámaras de burbujas (figura 18.4).
269
El resultado a corto plazo del uso de los aceleradores fue el descubrimiento de un des-
proporcionado número de nuevas partículas, supuestamente elementales, cuya cantidad
amenazaba con agotar el alfabeto griego para su denominación, hasta el punto en que
alguien comentó, jocosamente, que si en el pasado se le otorgaba el Premio Nobel a quien
descubriera una nueva partícula elemental, ahora se le debería poner una multa.
18.5 Quarks
La proliferación de partículas elementales (figura 18.5) va en contravía con el ideal de sen-
cillez y simplicidad que sirve de guía a la física para la elaboración de teorías y modelos
270 que den cuenta de los fenómenos de la naturaleza. Por fortuna, un nuevo descubrimiento,
esta vez debido al bombardeo de núcleos atómicos con electrones de alta energía, en un
proceso denominado dispersión inelástica profunda, dejó entrever la posibilidad de que los
nucleones, es decir, protones y neutrones, no fueran partículas elementales y que, por el
contrario, estuvieran constituidos por unas partículas aún más fundamentales que recibie-
ron el pintoresco nombre de quarks.
Según la teoría de los quarks, propuesta inicialmente por Murray Gell-Mann y George
Zweig en 1964, los nucleones están compuestos por dos tipos de partículas elementales,
los quarks U y D. A diferencia de las partículas conocidas hasta entonces, cuyas cargas
eléctricas eran nula, igual o contraria a –e, la carga eléctrica del electrón, las nuevas partí-
culas poseen carga eléctrica (2/3)e para el quark U y –(1/3)e para el quark D. De acuerdo
con este esquema el protón estaría compuesto por dos quarks U y un D, y el neutrón por un
U y dos D. De manera correspondiente, el antiprotón está compuesto por dos anti-U y un
anti-D, y el antineutrón por un anti-U y dos anti-D. Por su parte, los piones, mediadores de
la interacción entre nucleones, se componen de parejas quark-antiquark de U y D.
Muy pronto se vio la necesidad de introducir un tercer quark, el S, para dar cuenta de la
estructura y del extraño comportamiento del tiempo de vida media de los mesones k, o kao-
nes. Adicionalmente, Sheldon Glashow propuso un cuarto quark, el C, con el fin de resolver
conflictos internos en la estructura matemática de la teoría. En 1974 dos equipos indepen-
dientes liderados por Samuel Ting y Burton Richter descubrieron una nueva partícula, com-
puesta por una pareja de quarks S y anti-S, que recibió el nombre de J/y El descubrimiento
de J/y constituye una evidencia de gran peso a favor del modelo de quarks, tal como en su
momento lo fue para el modelo atómico el cálculo de Perrin del número de Avogadro y del 271
tamaño de los átomos.
18.6 Gluones
La pareja de quarks U y D, junto con el electrón, e, y el neutrino electrónico, n0, pertenecen
a una generación de partículas que dan cuenta de la materia de la que estamos formados,
y de la mayor parte de los procesos que percibimos a nuestro alrededor. Esto respondería,
en alguna medida, la pregunta respecto a qué somos.
Con el fin de explicar la interacción entre quarks que hace posible la existencia de estruc-
turas relativamente estables como protones, neutrones y mesones, es necesario introducir
una nueva fuerza que recibe el nombre de color. Como es de esperarse, el color de los
quarks no tiene nada que ver con la acepción corriente de la palabra, excepto porque la
272 combinación de tres colores, rojo, verde y azul, produce una tonalidad neutra que se deno-
mina blanco. Por una peculiaridad del modelo, todas las estructuras compuestas de quarks
deben ser blancas, es decir, no manifiestan un color dominante, lo cual se logra haciendo
que cada uno de los tres quarks que componen un nucleón tenga un color diferente al de
los otros dos. En el caso de las partículas formadas por dos quarks, como los mesones, el
color de cada quark es el complementario del color del otro. En la jerga de las partículas
elementales se dice que la suma de un color y su respectivo anticolor da blanco.
Una notable característica del modelo de quarks es que la fuerza que los une, a diferencia
de las demás fuerzas de la naturaleza, aumenta con la distancia, lo que explica la imposibi-
lidad de observar quarks aislados.
No debe sorprendernos, entonces, que el área de la física que estudia las interacciones
entre los quarks reciba el colorido nombre de cromodinámica cuántica.
El cuadro de partículas que hacen parte del modelo estándar se completa con una última
Sin importar cuál sea el número, su desmesurada magnitud es una buena razón para su-
poner que, a pesar de lo eficaz que pueda ser el modelo estándar de las partículas ele-
mentales, no es más que una propuesta provisional en espera de un modelo más sencillo,
elegante y comprensivo, en el que, además, la interacción gravitacional, la gran ausente del
esquema, tenga la representación que corresponde a su importancia cosmológica.
De igual manera, asignarle volumen y forma esférica a una partícula, para dar cuenta de
magnitudes como el espín como un efecto debido a la rotación de la partícula, conduce a
contradicciones con los presupuestos básicos de la teoría de la relatividad y de la mecánica
cuántica.
En conclusión, el modelo de bolitas que chocan con bolitas o que giran alrededor de otras
bolitas de mayor tamaño no es más que un rezago de nuestra primera aproximación, clási-
ca, macroscópica y gráfica, al mundo que nos rodea.
De acuerdo con la mecánica de Newton, la acción de una fuerza sobre un cuerpo se ma-
nifiesta en la aceleración que experimenta el cuerpo sobre el cual actúa. La masa queda
determinada por la relación entre la fuerza aplicada y la aceleración resultante. En con-
secuencia, el concepto de masa se aplica, de manera exclusiva, a cuerpos que pueden
estar sujetos a fuerzas y, por tanto, experimentar aceleraciones, por lo que los fotones y los
gluones quedan excluidos de esta caracterización.
Según lo anterior, podemos decir que la masa de un electrón es la mitad de la energía nece-
saria para crear una pareja electrón-positrón, dividida por la velocidad de la luz al cuadrado.
Algo similar se puede decir de todas partículas consideradas elementales, e, incluso, de
algunas estructuras más complejas como el protón y el neutrón.
Una característica esencial de las partículas y, en general, de los cuerpos con masa, es que
existe por lo menos un sistema de referencia en el que el cuerpo se encuentra en reposo.
De nuevo, fotones y gluones, que siempre están viajando a la velocidad de la luz, quedan
excluidos.
Pero, independientemente de si se les puede, o no, asignar masa, todas las partículas
contribuyen a la inercia del sistema al que pertenecen por el hecho de tener momento y
energía.
De acuerdo con lo anterior, la inercia, el concepto más fundamental de la física, intuido por
Galileo y formulado con precisión por Newton, es la característica más universal que com-
parten las partículas elementales. 275
Resumen
Las sorprendentes predicciones que surgen de las teorías que aspiran a
dar cuenta del comportamiento de la materia al nivel más fundamental se
ven, con frecuencia, refrendadas por la experimentación, una vez que la
tecnología alcanza los parámetros de potencia y precisión exigidos por la
situación. De esta manera, la insuperable hazaña de reducir los más de
cien elementos de la tabla periódica a diversas configuraciones de tan solo
tres partículas elementales, lograda por la física teórica a principios del
siglo XX, busaca ser repetida en el caso de las más de sesenta partículas
que, hasta el momento, hacen parte del Modelo Estándar.
Cuestionario
1. ¿Dónde se encontraban antes del impacto las partículas que surgen lue-
go de la colisión de una partícula de alta energía con núcleos de átomos
de la atmósfera terrestre?
2. Se entiende que los rayos X pueden atravesar la materia debido a su cor-
ta longitud de onda, pero ¿por qué la luz, que tiene una longitud de onda
mucho mayor, puede atravesar un cristal?
3. ¿Por qué resulta inconveniente la aparición de un alto número de partícu-
las elementales?
4. ¿Por qué se puede comparar el descubrimiento de la partícula J/Psi con
el cálculo de Perrin del número de Avogadro?
5. Compare la masa de un protón con las de sus quarks componentes.
¿Cómo se puede explicar la diferencia de los valores encontrados?
Bibliografía
Baggot, J. Quantum story (2011). Kindle eBook.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Feynman, R. (2002). Seis piezas fáciles. Biblioteca de bolsillo.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Jayawardanha, R. (2013). The neutrino hunters. Kindle Edition.
Jeans, J. (1968). Historia de la física. FCE.
Lederman, L. (2004). Symmetry. Prometheus Books.
Randall, L. (2012). Higgs discovery. Kindle eBook.
El elemento central del telégrafo (figura 19.1) es el electroimán, consistente en un núcleo de hierro
rodeado por un embobinado de alambre, que se convierte en un imán cuando circula una corriente
eléctrica, dando la posibilidad de activar algún tipo de dispositivo mecánico, como un yunque que
genera una señal audible al golpear una campana. El timbre que anuncia la presencia de una per-
sona en la puerta de la casa es un ejemplo práctico del uso del telégrafo. Pero, para tener verdadera
utilidad como medio de comunicación, un telégrafo necesita algo más que dar golpes en una cam-
pana, pues es preciso que el golpeteo que indica la presencia de un emisor al otro extremo de la
línea posea una determinada secuencia en la cual sea posible leer un mensaje, es decir, un código.
De los muchos que se ensayaron en los inicios de la telegrafía, el de Samuel Morse resultó ser el de
mayor aceptación por sus características de sencillez y eficiencia. El código Morse consiste en una
secuencia de pulsos de diferente duración denominados puntos y rayas, (. , _), que permite asignar
a cada letra del alfabeto una única representación, de tal manera que cualquier palabra se puede
Capítulo 19: Comunicaciones
representar por la secuencia ordenada de las series de puntos y rayas asignadas a las
letras que la componen. Como un ejemplo de lo anterior se puede mencionar que la señal
internacional de auxilio, S. O. S., en código Morse es (… _ _ _ …).
278
Una vez reconocido el gran potencial del telégrafo como medio de comunicación, fue nece-
sario asumir el reto de extender tanto como fuera posible el alcance de sus señales, lo cual
significó superar una serie de dificultades técnicas que demandaron y propiciaron nuevos
desarrollos tecnológicos y un mayor conocimiento de los fenómenos electromagnéticos.
Con el fin de extender su alcance más allá y de manera más eficiente que el de los medios
convencionales de transmisión de información, tales como el correo a caballos, o los men-
sajes enviados mediante semáforos de banderas, el telégrafo debió resolver el problema
de la caída de la intensidad de la señal asociada al aumento de la resistencia eléctrica del
medio de transmisión, que depende de la longitud y del calibre del cable por el que circula la
señal, llegando al punto en que más allá de cierta distancia el sistema resultaba inoperante.
Uno de los recursos a los que se acudió de manera inicial fue al uso de fuentes de energía
de mayor potencia, lo cual, en muchos casos, generaba el recalentamiento y la posterior
ruptura del cable, tal como sucedió con el primer cable submarino que se instaló en el fondo
del océano Atlántico a mediados del siglo XIX para conectar a Inglaterra con Norteamérica,
uno de los más ambiciosos y costosos proyectos de innovación tecnológica de su época.
Los comerciantes que arriesgaron grandes sumas de dinero en la realización de esta em-
presa esperaban recuperar rápidamente su inversión gracias a las ventajas comerciales
que significaba tener información del arribo de sus barcos y mercancías a puerto seguro en
cuestión de horas, y no de semanas o de meses. Por esta razón, luego del fracaso inicial,
la empresa se reinició contando con la colaboración de algunos de los científicos más des-
tacados de la época, como William Thomson, quien más tarde sería conocido como Lord
Kelvin.
279
19.2 El relé
En vista de que el aumento de la potencia de la fuente de alimentación del circuito a través
del cual se envía la señal telegráfica no siempre es una solución adecuada al problema del
decaimiento de la intensidad de la señal, se diseñó un ingenioso mecanismo de amplifica-
ción cuyo elemento central estaba constituido por un interruptor electromecánico llamado
relé (relay), o relevo, consistente en un obturador accionado por un electroimán, que per-
mite, o impide, el paso de una corriente eléctrica de mucha mayor intensidad que aquella
que determina su funcionamiento (figura 19.2). De esta manera la señal que llega al relay
es amplificada y puede continuar su camino a través de una serie de amplificadores hasta
llegar a su destino.
280
Como anécdota curiosa, se puede anotar que la famosa torre Eiffel, imagen de París y sím-
bolo de Francia, debe su existencia, en buena parte, a la telegrafía inalámbrica. Construida
en 1889 para la Exposición Mundial de París, en el centenario de la Revolución francesa,
debería ser desmontada veinte años más tarde al vencer la concesión que habían recibido
sus constructores para su explotación comercial. Sin embargo, gracias al uso que hicieron
de ella los ingenieros militares que lograron comunicarse con una localidad distante unos
treinta kilómetros de París, se determinó que, debido a su importancia estratégica, debía
continuar en pie, para disgusto de los artistas e intelectuales que habían firmado un mani-
fiesto pidiendo la demolición de lo que consideraban un adefesio arquitectónico que ofendía
la estética de la Ciudad Luz. Los grandes servicios que prestó la estación de radio situada
en lo alto de la torre durante la Primera Guerra Mundial confirmaron la previsión de los inge-
nieros militares. De no menor importancia, la torre Eiffel jugó un papel destacado en el des-
cubrimiento de la radiación cósmica en 1909, en el transcurso de una investigación sobre
la ionización del aire a diferentes alturas, gracias a la cual fue posible establecer que la rata
de ionización del aire aumenta con la altitud, a pesar de que inicialmente se pensaba que
era producto de la radiactividad natural de fuentes terrestres, lo cual es un indicio de que la
radiación ionizante proviene del espacio exterior. Posteriores mediciones mediante el uso
de globos a gran altura habrían de corroborar los indicios iniciales detectados en París, y a
partir de ese momento la radiación cósmica entró a formar parte del bagaje fenomenológico
del conocimiento científico. A mediados de los años sesenta, en el transcurso de un proyec-
to de construcción de radiotelescopios de microondas, se descubrió una componente de la
radiación cósmica de fondo que constituye una evidencia del momento en que se inició la
actual expansión del universo, conocido como el Big Bang, que según estimativos teóricos
ocurrió hace unos catorce mil millones de años.
que gracias a la invención de las válvulas termoiónicas, o tubos de vacío (figura 19.5), que
constituyen el núcleo de los amplificadores electrónicos, fue posible radiar una señal elec-
tromagnética a cualquier lugar del mundo, dando inicio a la era de las telecomunicaciones.
282
Además de cumplir con la función de amplificar señales, y debido a que por sus caracte-
rísticas estructurales los tubos de vacío solo permiten el paso de la corriente eléctrica en
una dirección, estos elementos se comportan como diodos, que son los equivalentes elec-
trónicos de las válvulas de seguridad que solo permiten la circulación de las corrientes de
agua en una dirección para impedir que, por ejemplo, se devuelva el flujo de suministro de
agua a un lugar elevado. Por esta razón los tubos de vacío también reciben el nombre de
válvulas de vacío. Gracias a esta característica, los tubos de vacío se pueden utilizar como
compuertas lógicas, esto es, como elementos de un circuito diseñado de tal manera que las
entradas y salidas de una señal, dependiendo de si se permite o se impide la circulación de
una corriente, corresponden a una operación matemática o a una expresión lógica, lo cual
constituye el elemento fundamental de los sistemas informáticos, que, junto con las tecno-
logías de las comunicaciones, son el soporte operativo de innumerables y vitales procesos
de la sociedad actual.
283
19.5 CRT
Otra notable aplicación del efecto de emisión termoiónica corresponde a los tubos de rayos
catódicos, o CRT por sus siglas en inglés, que hasta hace muy poco tiempo constituían el
elemento central de los voluminosos reproductores de televisión, que fueron reemplazados
por los monitores de pantalla plana que ahora constituyen el nuevo estándar. Los CRT son
una variación del tubo de rayos catódicos que le permitió a Thomson descubrir la existencia
de los electrones. Unos y otro están constituidos por un filamento que emite electrones por
calentamiento, correspondiente al cátodo, los cuales son acelerados por una diferencia de
potencial y proyectados a una pantalla fluorescente, que permite advertir su llegada. La
conveniente aplicación de campos magnéticos deflecta el haz de electrones y lo proyecta
en diferentes puntos de la pantalla. Una adecuada manipulación de los campos de deflexión
permite barrer la pantalla con el haz de electrones generando patrones gráficos que inicial-
mente se utilizaron como medida de los potenciales aplicados, constituyendo un valioso
instrumento de medición denominado osciloscopio (figura 19.6).
19.6 Semiconductores
Gracias a la utilización de materiales semiconductores a mediados del siglo XX, fue posible
construir dispositivos de mucho menor tamaño y gasto de energía que reemplazan en una
gran variedad de funciones a los tubos de vacío, lo cual se tradujo en la miniaturización de
los dispositivos electrónicos luego de la invención del transistor, lo que les brindó un mayor
Una notable aplicación de los materiales semiconductores son los diodos emisores de luz,
o LED por sus siglas en inglés, que en la actualidad constituyen el elemento fundamental
de las pantallas de televisores, teléfonos y computadores. Otro dispositivo tecnológico que
se construye a partir de diodos emisores de luz es el láser de estado sólido, que juega un
papel de gran importancia en los sistemas de registro y lectura de información, además de
un sinnúmero de otras aplicaciones.
Resumen
Una de las más notables consecuencias de la Revolución Industrial, que
vino de la mano con la expansión global de la actividad comercial, fue la
necesidad de disponer de sistemas prácticos, rápidos y eficientes para
285
compartir información entre los diferentes puntos del planeta, lo cual ge-
neró un significativo impulso a la investigación y a la innovación en la tec-
nología de las telecomunicaciones, que a la vez que sacaba provecho de
los avances en la teoría electromagnética, planteaba nuevos problemas
y ambiciosos retos, cuya solución fue posible gracias al avance en el co-
nocimiento de las estructuras y las propiedades de los semiconductores.
Cuestionario
1. Analice en qué consiste la comunicación y demuestre que tal proceso es
imposible sin el consumo de alguna cantidad de energía.
2. La velocidad de arrastre de los electrones que se desplazan en un con-
ductor metálico como el cobre es del orden de centímetros por segundo.
¿Cómo es posible que una señal de telégrafo llegue a miles de kilómetros
de distancia en muy poco tiempo?
3. ¿Por qué razón no es una buena idea utilizar baterías de alto voltaje y alta
potencia para enviar una señal telegráfica a gran distancia mediante un
cable eléctrico?
4. ¿Qué alternativa se puede considerar para resolver el problema plantea-
do en la pregunta anterior?
5. Demuestre que la intensidad de una onda electromagnética decae como
1/r2.
6. Teniendo en cuenta el resultado del problema anterior, explique por qué
razón se utilizan con tanta frecuencia antenas parabólicas en los sistemas
de comunicaciones.
7. ¿Cómo, y por qué, la electricidad estática afecta la transmisión de señales
eléctricas?
8. ¿Cuáles son las fuentes de ruido más frecuentes en la transmisión de
señales de radio?
9. Describa el principio de funcionamiento común a todo tipo de amplificador
de señales.
10. ¿Qué tienen en común un relé, un tubo de vacío y un transistor?
11. ¿Por qué se puede decir que un tubo de rayos catódicos es un diodo?
12. ¿Qué consideraciones se deben tener en cuenta para decidir si en un
equipo electrónico se deben utilizar relés, tubos de vacío o transistores?
Bibliografía
Baggot, J. (2011). Quantum story. Kindle eBook.
286 Feynman, R. (2002). Seis piezas fáciles. Biblioteca de bolsillo.
Gleick, J. (2012). La información: historia y realidad. Crítica.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Rovelli, C. (2016). Siete breves lecciones de física. Anagrama Editores.
20.1 Comunicaciones
Uno de los efectos más notorios de la Revolución Industrial en la segunda mitad del siglo XIX fue la
rápida interconexión del planeta mediante líneas telegráficas, que facilitaban el envío y la recepción
de información, así como el tendido de vías ferroviarias y el establecimiento de rutas marítimas y
fluviales, recorridas por trenes y barcos movidos por motores de vapor, que permitían movilizar con
inusitada rapidez personas y carga a grandes distancias, hechos que favorecieron la consolidación
de grandes imperios, entre los que sobresale el Británico, y la colonización de las grandes planicies
de Norteamérica, África y Asia, que hasta entonces permanecían casi deshabitadas puesto que
apenas contaban con la presencia de algunas tribus nómadas, integradas por un número muy re-
ducido de aborígenes que se vieron al borde de la extinción después de establecida la dominación
europea, particularmente en América.
El sistema de gobierno de las colonias de ultramar, como eran conocidas en Europa las tierras con-
quistadas, demandaba sistemas muy eficientes de transporte y comunicaciones, lo que incentivó la
realización de importantes desarrollos tecnológicos, fundamentados en la investigación científica, lo
cual resultó ser particularmente productivo en Inglaterra, donde el sistema de propiedad intelectual
permitía que quien tuviera una idea innovadora se beneficiara económicamente de su realización
mediante derechos exclusivos de explotación comercial. La máquina de Watt es un ejemplo notable
de la anterior afirmación, al igual que el telégrafo de Morse, y, posteriormente, el telégrafo sin hilos
de Marconi.
Capítulo 20: Información
20.2 Ruido
Tal como ya se ha mencionado, uno de los problemas inherentes a la transmisión de in-
formación mediante señales electromagnéticas, ya sea que viajen por cable o por el aire,
es la necesidad de compensar la pérdida de intensidad de la señal mediante sistemas de
288 amplificación o de estaciones repetidoras, lo cual, con frecuencia, ocasiona la aparición de
señales espurias generadas por el amplificador o por fuentes externas que interfieren con la
señal original, como en el caso de las ondas electromagnéticas. De manera adicional, todo
aparato que funcione a base de electricidad tiende a cargarse electrostáticamente, lo cual
genera descargas que pueden generar serias perturbaciones y distorsión de las señales
portadoras de la información. Todo lo anterior es conocido como ruido, y su presencia afecta
la fidelidad de la información transmitida, por lo que se han dedicado grandes esfuerzos
para diseñar sistemas de comunicaciones y de reproducción de la información lo más fieles
y libres de ruido que sea posible. Por esta razón, los equipos que reproducen, transmiten
y recepcionan información han terminado teniendo una arquitectura de gran complejidad,
aunque los principios físicos en los que se basa su funcionamiento sean relativamente
sencillos.
20.3 Criptología
Si bien la fidelidad es una característica muy deseable en un sistema para transmitir infor-
mación, en muchas ocasiones prima la necesidad de que esta no solo sea confiable sino
confidencial, para lo cual es necesario acudir a estrategias que restrinjan el acceso a ella
mediante métodos de encriptación, o, sencillamente, por medio de claves que transformen
un texto en algo ininteligible para quien no posea el recurso necesario para descifrar el
texto encriptado. En este caso se puede hablar de un “ruido bueno” que puede ser añadido
y eliminado a conveniencia de la información que se quiere proteger.
Uno de los rasgos más característicos de la Segunda Guerra Mundial fue el impresionante
despliegue de ciencia y tecnología que se dio en su transcurso, en el que se destaca la apa-
0 11 11 1 000 0
0 11 10 0 000 0
0 00 00 0 000 0
Figura 20.2. La máquina de Turing.
Con el fin de que el proceso de cómputo sea lo más sencillo posible, la información se
registra mediante un código binario, es decir, un conjunto de unos y ceros, que se pueden
representar de manera adecuada mediante el estado de abierto y cerrado de un relé, o
de un tubo de vacío. Es importante anotar que el uso de un código binario para el registro
y lectura de información se remonta a 1801 con las tarjetas perforadas de los telares de
Jacquard, con los que se producían telas de diseños muy elaborados. Este sistema sirvió
de inspiración a Charles Babbage en el diseño de los primeros computadores mecánicos,
antecesores de nuestros modernos computadores digitales, que, al igual que la máquina de
Turing, utilizan códigos binarios, en los que el estado de prendido o apagado, uno o cero,
corresponde al estado de un transistor que, actuando como interruptor, permite o impide el
paso de una corriente eléctrica.
291
Uno de los problemas más relevantes que surgen en el diseño de sistemas de comuni-
caciones tiene que ver con la cantidad de mensajes que sea posible enviar de manera
simultánea a través de un dispositivo y la cantidad de información que puede contener cada
mensaje, para lo cual es necesario definir parámetros cuantificables. Con este fin, Claude
Shannon definió el concepto de entropía, H, como una medida de la información contenida
en un mensaje. Es necesario aclarar que la entropía H definida por Shannon es diferente
a la entropía S definida por Boltzmann en términos del número de estados accesibles de
un sistema, puesto que la importancia de esta última se manifiesta en la variación de su
magnitud, dependiendo de si los procesos que se examinan son reversibles o irreversibles.
Por el contrario, la relevancia de la entropía H de Shannon está directamente relacionada
con su valor absoluto. Sin embargo, la similitud entre las formulaciones matemáticas y el
carácter estadístico de ambas teorías condujo a Shannon a utilizar la palabra entropía para
designar la función que permite cuantificar la información.
292
ARN Polimerasa
G T A C
ADN
C A T G
ADN
293
Figura 20.5. ARN mensajero.
20.6 El bit
A partir de la definición de entropía de Shannon es posible definir la unidad de información
como aquella asociada a un sistema que solo tiene dos posibles estados, que se pueden
representar en código binario como uno o cero, razón por la cual se le dio el nombre de
bit, que es el acrónimo de las palabras inglesas binary digit. La entropía de un sistema que
contiene un bit de información es uno.
Por otra parte, cuando dos o más partículas hacen parte del mismo sistema físico, los valo-
res de las magnitudes físicas que describen sus respectivos estados están correlacionados,
independientemente de qué tan alejadas se puedan encontrar las partículas entre sí, de tal
manera que si sobre una de ellas se efectúa la medición de una variable, el valor de la mis-
ma variable queda determinado para la otra partícula. Einstein utilizó el análisis del fenóme-
no de entrelazamiento para demostrar que la mecánica cuántica era una teoría incompleta
Resumen
De acuerdo con el físico John Wheeler, quien acuñó la expresión “it fron
bit”, el bit, es decir, la mínima unidad de información, es también la partí-
cula más elemental que se puede concebir. Si llevamos esta afirmación
hasta sus últimas consecuencias se podría decir que todo es información.
En consecuencia con lo anterior, yendo más allá del modelo abstracto de
la máquina de Turing, y teniendo en cuenta que todo proceso informático
demanda un consumo de energía para borrar la información ya recibida y
quedar en capacidad de recibir nueva información −razón por la cual se
dice que “olvidar cuesta trabajo”−, se puede decir que la información es,
ante todo, un fenómeno físico y cuántico, puesto que en todas sus interac-
ciones, excepto en la gravitación, la naturaleza es un fenómeno cuántico.
Cuestionario
1. ¿Qué diferencia una señal sonora de un simple ruido en cuanto a la infor-
mación se refiere?
2. ¿De qué manera se puede utilizar el ruido para proteger la privacidad de
296 la información? Dé un ejemplo.
3. Discuta algunos casos en los que sea evidente la ventaja de disponer de
información suficiente, oportuna y confiable.
4. Investigue el origen de la palabra encriptación y dé un ejemplo del uso de
este tipo de práctica en la tecnología actual.
5. Compare los sistemas de almacenamiento de información que ofrecen un
disco de acetato, un disco magnético y un disco óptico, desde el punto de
vista de los mecanismos asociados a cada tecnología y de la capacidad
de almacenamiento de datos de cada uno de ellos.
6. Escriba la fecha de su nacimiento en código binario.
7. Investigue cómo funciona una proteína y establezca una analogía con la
cinta que alimenta una máquina de Turing.
8. Si la información se puede relacionar con la entropía, ¿con qué concepto
asociado a la informática se puede relacionar la energía?
9. Demuestre que todo proceso informático genera un aumento de la entro-
pía termodinámica.
10. Explique en qué consiste la ley de Moore, e indique si hay algún tipo de
restricción física que limite su validez.
11. ¿Cuál es la diferencia entre un bit y un byte de información?
12. Si la entropía asociada a un bit es uno, ¿cuánto vale la entropía asociada
a un byte?
13. Discuta la posibilidad de que cualquier tipo de información se pueda ex-
presar por medio de un código binario, y señale cuáles son las posibles
aplicaciones que se derivan de esta situación.
14. ¿En qué se diferencian dos fotografías de la misma escena tomadas con
cámaras de 1 Mb y 20 Mb?
15. A partir de la respuesta que dio a la pregunta anterior establezca una
relación entre información y energía.
16. ¿Cómo se podría fundamentar la idea de que el bit es la partícula más
elemental que existe?
17. La nave espacial Voyager, lanzada en 1977, lleva un mensaje grabado en
un disco de oro que, según se espera, podría ser leído por una civilización
más allá del sistema solar dentro de unos 40.000 años. ¿Tiene usted idea
de cuál es el contenido del mensaje y en qué código está escrito?
Bibliografía
Aczel, A. (2002). Entrelazamiento. Editorial Crítica.
Baggot, J. (2011). Quantum story. Kindle eBook.
Berkson, W. (1981). Las teorías de los campos de fuerza. Alianza Editorial. 297
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Feynman, R. (2002). Seis piezas fáciles. Biblioteca de bolsillo.
Gleick, J. (2012). Chaos. Kindle Edition.
Gleick, J. (2012). La información: historia y realidad. Crítica.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Musser, J. (2015). Spooky action at a distance. Kindle eBook.
Rovelli, C. (2016). Siete breves lecciones de física. Anagrama Editores.
Sagan, C. (1992). Cosmos. Planeta.
Stewart, I. (2011). The mathematics of life. Kindle eBook.