Está en la página 1de 34

Año 2007.

2007. Septiembre. Reserva. 2PP

1.-
1.- ¿Cuáles eran los problemas de la física que vino a resolver la teoría de la relatividad?

Se trata de problemas derivados de las explicaciones del electromagnetismo. Hasta principios del s. XIX, la teoría de la
electricidad seguía la analogía newtoniana de fuerzas a distancia que varían en razón inversa al cuadrado de la
distancia, como la gravedad.

Faraday introduce el concepto de campo, desarrollado por Clerk Maxwell. El electromagnetismo se transmite a través
del éter. Hertz corrobora la teoría del campo que se propaga mediante ondas continuas en un medio continuo. El
éter, aunque no detectado, se asienta como sustrato de las ondas electromagnéticas. Pero nuevos fenómenos
cambian el panorama.

A- Se empieza a investigar la electrodinámica de los cuerpos en movimiento. El experimento de Michelson-Morley es


clave al respecto. Desde la teoría de Maxwell, debería haber ciertos efectos del movimiento detectables por medio del
éter. La Tierra está en movimiento, por lo que la luz (un campo electromagnético) debería estar afectada por el
movimiento relativo de esta y el éter, la velocidad de la luz no debería ser la misma en dirección. Sin embargo, no hay
variación: la velocidad es constante: no hay viento del éter.

Se propusieron ciertos ajustes: El campo de una carga es radial si está en reposo, pero si está en movimiento se
achata en la dirección correspondiente al movimiento. Lorentz propone sus transformaciones para el espacio y
tiempo de un sistema en movimiento respecto del éter, que se supone en reposo absoluto.

B- La teoría de Maxwell describe muy bien el campo pero no la interacción de este con la materia. El descubrimiento
de la estructura atómica de la materia mostró que la electricidad solo se encuentra en forma de cargas, se descubre el
electrón con los rayos catódicos (tubo de vacío con placas de carga eléctrica que desvían el chorro). Se observan
además una serie de fenómenos cuánticos de la radicación electromagnética: que se muestran discontinuos.

La teoría del electrón abre una crisis en la física, porque la mecánica newtoniana no puede explicar los fenómenos
electromagnéticos. Por ejemplo, se viola el principio de acción-reacción: el éter influye sobre la materia, pero está no
influye en el éter. Se pensó entonces en basar la mecánica sobre la teoría electromagnética. La masa tendría un
carácter electromagnético, lo que explicaba el hecho observado de que un cuerpo en movimiento acelerado (por
ejemplo un electrón) parece incrementar su masa. Se trataría de un fenómeno de autoinducción, el cuerpo cargado
en movimiento atraviesa su propio campo.

2.-
2.- ¿En qué principios se basa la teoría de la relatividad especial? Enúncielos.

– Primer principio: De relatividad – Las leyes de la física son las mismas en todos los sistemas de referencia inerciales
(los que se mueven a velocidades lineales constantes). En otras palabras, no existe un sistema inercial de referencia
privilegiado, que se pueda considerar como absoluto. Las distancias y los intervalos de tiempo son relativos a cada
observador, esto contradice la existencia de un espacio y tiempos universales o absolutos.

– Segundo Principio: Invariancia de c – La velocidad de la luz en el vacío es una constante universal, c, que es
independiente del movimiento de la fuente de luz. Esto contradice el principio de composición de velocidades.

Están relacionados, ya que si no hay composición de velocidades la instantaneidad es relativa al tiempo local. Las
trasformaciones de Lorentz quedan así explicadas trivialmente, sin recorrer a acortamientos reales de las
dimensiones. Las dimensiones medidas serán diferentes dependiendo de las velocidades relativas entre medidor y
objeto en movimiento.

Aclaración: Un sistema de referencia inercial es un sistema con conservación del momento lineal, es decir, sin
aceleración. En mecánica newtoniana los sistemas inerciales son aquellos en los que se cumplen las leyes de Newton

1
usando sólo las fuerzas reales que se ejercen unas partículas a otras. En un sistema inercial no aparecen fuerzas
ficticias para describir el movimiento de las partículas observadas, y toda variación de la trayectoria tiene que tener
una fuerza real que la provoca.

Dado a un sistema inercial, cualquier sistema que se mueva a velocidad lineal y constante de él, sigue siendo inercial.
Dado un sistema de referencia inercial, cualquier otro que se mueva con aceleración lineal respecto al primero, o
cuyos ejes roten con velocidad de rotación constante o variable, no es inercial.

3.-
3.- ¿En qué se distingue la teoría de la Relatividad
Relatividad especial de la teoría de la relatividad general?

La relatividad especial tiene como objetivo explicar los fenómenos electromagnéticos de los sistemas en movimiento
inercial (que se mueven a velocidad constante, sin aceleración), aunque puede extenderse a sistemas en movimiento
acelerado.

La relatividad general es la teoría geométrica de la gravitación propuesta por Einstein. Esta teoría permite integrar el
fenómeno de la gravitación (que pasa a ser considerada una fuerza ficticia explicada como la modificación del espacio
por la masa).

Parte de la intuición que tuvo de que un sistema en caída libre puede considerarse un sistema sin gravitación
(respecto de sí mismo). Por lo mismo, un sistema sometido a un campo gravitatorio es indiscernible (desde dentro del
propio sistema) de uno sometido a una aceleración fija. Las leyes del movimiento de un sistema acelerado han de
aplicarse a un sistema gravitatorio. Esto lleva a dos corolarios: Primero, la luz presentará un corrimiento hacia el rojo
en un campo gravitatorio; segundo, la trayectoria de la luz se curvará en presencia de un campo gravitatorio. Entre
otras cosas lleva a la eliminación de la geometría euclídea como descripción apropiada del espacio real.

Con esto se acaba con la gravedad como fuerza a distancia. La gravedad se propaga a la velocidad de la luz. Si una
estrella lejana desaparece en una nova, el efecto gravitatorio (según Newton) sería instantáneo, por lo que superaría a
la velocidad de la luz. Einstein niega eso.

Un satélite orbitando la tierra es inercial, y la tierra respecto del sol. Pero no lo es una mesa de billar en la tierra.

4.-
4.- Suponga una esfera de hierro de 10 centímetros de radio que se acelera constantemente ¿Qué le sucederá al
aproximarse a la velocidad de la luz? ¿Qué le sucederá
sucederá si la alcanzase? ¿Y si la esfera fuese se hierro?
hierro? ¿Y si la esfera fuese
se hierro?

Aumentaría su masa muchísimo (la masa inercial, en reposo, sería la misma, pero la masa relativista crece con la
velocidad). A la vez su dimensión en el sentido del desplazamiento se contraería, y el tiempo se ralentizaría.

Al alcanzar la velocidad de la luz se trasformaría en un agujero negro por la distorsión del espacio tiempo de una masa
tan grande en un espacio tan pequeño.

5.-
5.- ¿Cómo mediría la velocidad de la luz
luz en un trayecto entre dos puntos A y B separados entre sí? La velocidad de un
rayo de luz que va de A a B, ¿sería la misma que la de otro rayo de luz que fuese de B a A?

Habría que conocer primero la distancia entre A y B y la velocidad relativa entre uno y otro. Se pone un espejo en b y
se manda un rayo de luz desde A, donde estamos situados. Si están parados, se mide el tiempo y se divide por dos
veces el espacio. Si se mueven se hacen los cálculos teniendo en cuenta ese movimiento. Además hay que tener en
cuenta el campo gravitatorio –es decir, la curvatura del espacio por la acción de la gravedad-. Por ejemplo, si se
manda un rayo desde la Tierra a Júpiter, a este le costará salir de la Tierra, después se acelerará al caer a Júpiter, y en
el rebote sucederá al contrario. Si está Marte de por medio hay que tenerlo también en cuenta.

Lo mejor sería tener un sistema en situación de ingravidez. Los elementos de este sistema están, respecto de sí
mismos, en un espacio euclídeo, no curvado.

2
2007. Septiembre. Reserva. 1PP

1.-
1.- ¿Qué era una especie en la época? Relacione este concepto con los sistemas de clasificación en ese momento

Las especies eran entonces no simplemente agrupaciones de individuos interfértiles y con un conjunto de
características comunes sino que eran ontológicamente anteriores a los individuos y habían sido creadas por Dios (o
existían desde inicio del mundo) como tales y con todas sus características, que no habían variado desde entonces. Se
trata de un concepto de raigambre aristotélica. Hay que tener en cuenta que aunque en la Física el aristotelismo había
sido apartado en biología el concepto de especie era muy productivo.

El concepto de especie se relaciona directamente con el de clase de animales. Mientras el concepto de especie apunta
a los aspectos intensivos, el de clase apunta a los aspectos extensivos. Se puede decir que son dos caras de la misma
moneda. La clasificación es la agrupación de individuos en clases, que se supone que se solapan con las especies.

Hay dos tipos básicos de sistemas clasificatorios de los animales, los naturales y los artificiales, según que pretendan
tener en cuenta todas las características del animal, lo que llevaría a conocer su esencia, o un conjunto más o menos
arbitrario (aunque operacionalmente efectivo) de ellas. La clasificación en naturales y artificiales no me parece muy
afortunada. En particular la encuentro arbitraria. En todo caso, los sistemas artificiales proponen la clasificación de los
animales según un conjunto de propiedades, como pueden ser la estructura de locomoción (vertebrados-
invertebrados), la forma de reproducción (no sexual, sexual, dentro de esta, ovíparos, vivíparos, dentro de esta última:
placentarios, no placentarios…). Las clasificaciones naturales pretenden tener en cuenta todas las características.

En concreto la clasificación que se impuso fue la de Linneo (arbitraria pero bastante efectiva). Buffon propone una
clasificación natural basada en la filiación de la especie. Esta clasificación presupone una biología evolucionista, frente
a las fixistas.

2.-
2.- Enuncie y explique la ley de los caracteres adquiridos.

La ley de los caracteres adquiridos es la primera teoría general de la evolución, por Jean Baptiste Lamarck. Parte de la
continuidad fundamental en las distintas clases de animales (Buffon) y propone que había existido un desarrollo
progresivo de formas y estructuras. Explica la evolución (transformación) porque los hijos heredan de los padres los
caracteres adquiridos de estos.

Tradicionalmente se consideraba que la especie tiene una serie de caracteres comunes a sus individuos y bastante
estables a lo largo del tiempo, en particular dentro de los intervalos de observación humanos. Las especies eran
estables y que las particularidades de los individuos se debían a accidentes debidos a la recepción de la forma por la
materia. Sin embargo, las teorías evolucionistas en sentido amplio (transformistas en el caso de Lamarck) debían
explicar la forma en que se generan unas especies procedentes de las otras.

Para Lamarck, el ambiente influye en la forma y la organización de los animales; el uso continuo o frecuente desarrolla
y aumenta el tamaño de cualquier órgano, mientras que el desuso permanente lo debilita hasta que finalmente
desaparece; todas las adquisiciones y pérdidas son debidas a la influencia del ambiente, ya que mediante el uso y el
desuso son conservadas por la reproducción.

En el caso de Lamarck, los individuos transfieren a su descendencia no solo las características de la especie que recibió
de sus padres, sino también las características adquiridas, por ejemplo para enfrentarse a los cambios de las
circunstancias en que viven.

3.-
3.- ¿Qué era la Gran Cadena del Ser y cómo la interpretaba Lamarck? ¿Qué sucedía con los fósiles?

La Gran Cadena del Ser. Es un principio ontológico según el cual el mundo, por su perfección, se compone de todos los
seres posibles. No hay vacíos ontológicos. Además es posible organizar a los seres según una escala de perfección,
empezando por la materia inanimada, siguiendo por los vegetales, los animales, el hombre los seres espirituales

3
(ángeles) y acabando en Dios. Además dentro de los animales los hay menos perfectos (perfecto significa acabado,
consumado) a más perfectos según su complejidad.

La gran cadena del ser se puede representar en vertical, con forma de pirámide, o de árbol (desde el que es muy fácil
concebir un sistema de filiación más o menos evolucionista de las especies). Si se proyecta sobre el plano el árbol o se
hacen cortes horizontales aparecen mapas de especies agrupados en géneros, que a su vez se agrupan en familias,
órdenes… hasta integrar el Reino animal.

Lamarck rechaza la representación en mapa del mundo animal porque creía en la escala vertical de criaturas y se
negaba a creer que fuese discontinua. Lamarck inicia su clasificación por los organismos más simples. La
autodeterminación de las criaturas es un factor progresivo en la escala evolutiva, de tal forma que los organismos
inferiores se hallan totalmente determinados por la naturaleza, mientras que los superiores (el hombre) generan sus
propias fuerzas rectoras. Lamarck propone además que hay una tendencia creciente al aumento de la complejidad en
el mundo animal. Los animales primitivos eran muy simples y al extenderse por el planeta se van ajustando y
adaptando a los distintos hábitat.

Lamarck lleva al mundo biológico la idea de progreso y el dilema de la relación hombre/medio natural. Se le ha
descrito como el último de los philosophes, por su pensar especulativo, aunque era notablemente más empírico que
aquellos.

4.-
4.-Distinga con cuidados ente las ideas de Lamarck y las de St. Hillaire

St. Hilaire propone que la naturaleza forma todas las criaturas sobre la base de una estructura simple: los órganos son
homólogos (misma estructura, distinta función: mano-pezuña); frente a análogos (alas aves e insectos) en muchos
animales, aunque con grado distinto de desarrollo. Probablemente inspirado en las ideas de Buffon.

En su Filosofía Anatómica (181 investiga las partes homólogas de diversos animales y concluye que todos los animales
están formados por el mismo número de partes (unidades de construcción): el plan es único para todas las
estructuras: existe un arquetipo.

Para el establecimiento de homologías, St. Hilaire sigue el desarrollo embrionario, que llevaría posteriormente a la
“ley de recapitulación embriológica”, según la cual el desarrollo de los embriones (ortogénesis) muestra el desarrollo
de la especie a que pertenecen. Así el embrión humano mostraría las etapas por las que ha pasado la especie
(filogénesis).

St. Hilaire se enfrenta al problema del origen de las diversas formas que explica mediante la ley de compensación: la
atrofia de unas partes beneficia el desarrollo de otras. Suponiendo además que el medio físico (Lamarck) había
conducido a dicha diferenciación.

St. Hilaire intenta superar la división de Cuvier en cuatro planes orgánicos (vertebrados, artrópodos, moluscos y
radiados). En el estudio del desarrollo de embriones comprueba que una acción más o menos violenta sobre el
embrión puede dar lugar a malformaciones; una acción moderada podría dar lugar a una transformación de la
especie. En esto recoge la idea de Lamarck (influencia del medio), pero descarta la existencia de una tendencia
interior, o de la transmisión de hábitos e instintos. Pero frente a Lamarck, para St. Hilare los cambios son bastante
bruscos, no graduales, hay discontinuidades, aunque los animales procedan unos de otros.

5.-
5.- ¿Estaba Cuvier de acuerdo con Lamarck? Explique su posición

Cuvier recusó las opiniones de Lamarck y Hilaire afirmando la teoría tradicional de que las especies animales habían
sido fijadas en sus formas actuales desde el inicio, con la Creación. En los animales hay un orden racional de funciones
y órganos que las realizan.

Todos los órganos de un animal forman un conjunto, actuando y reaccionando unos con otros; no puede modificarse
uno de ellos sin afectar al todo. Así los carnívoros son rápidos, tienen dientes para desgarrar…

4
Por eso se opone a la cadena lineal de seres derivados unos de otros. No creía posible la existencia de seres
intermedios, de transición, entre las especies actuales, porque no sería posible una integración coordinada de sus
miembros en un individuo funcionalmente posible. Cada una de las especies, conjunto de funciones, era estable y
autónoma, no era integrable en una cadena del ser gradualista. Las alteraciones solo podía afectar a los órganos
secundarios.

Este análisis funcional lo extendió a los huesos fósiles (se le considera creador de la paleontología) reconstruyendo
especies extinguidas tomando de Bonnet la teoría de las catástrofes que habían asolado la tierra acabando con las
especies de aquel momento.

Cuvier sugería que la clasificación de los animales debería basarse en los órganos que realizan funciones principales
(principio de la subordinación de caracteres, Jussieu). Con esta base estableció (1817) cuatro grupos fundamentales:
vertebrados (mamíferos, aves, reptiles y peces), moluscos (pulpo, caracol, ostra, etc.), artrópodos (langostas, arañas,
insectos, etc.) y radiados (estrella de mar).

Lamarck, Hilaire y Cuvier tenían considerables diferencias de opinión.

Las especies animales forman una escala lineal evolutiva Lsi Hsi Cno

Las especies animales son modificaciones divergentes de cuatro tipos estructurales Lno Hno Csi

La evolución es gradual y continua por adaptación al medio Lsi Hno Cno

La evolución es mutante sin referencia al medio Lno Hsi Cno

Las adaptaciones estructurales de los órganos están provocadas por el medio Lsi

Las adaptaciones estructurales de los órganos son mutuas dependiendo del todo Hsi

II. Comente el texto.

El texto de Lamarck presenta en forma sintética su teoría transformista frente a las teorías tradicionales de entonces,
fixistas.

El primer párrafo presenta los fenómenos, los hechos a explicar. Este hecho consiste básicamente en las especies
tiene una morfología (organización de sus órganos, valga la redundancia) y unos comportamientos (formas de
relacionarse con el medio, incluyendo en este medio animales de las propia especie de de las otras especies)
características.

Ese es el hecho a explicar la diversidad de la vida animal y vegetal, la proliferación de las especies. Hay dos teorías al
respecto. La primera es la tradicional, la comúnmente aceptada por la comunidad científica, el paradigma de la época
en términos kuhnianos.

Lamarck

Para Lamarck, la vida es un fenómeno natural consistente en un modo peculiar de organización de la materia. En este
sentido, considera que los organismos vivos están formados por los mismos elementos y las mismas fuerzas físicas
que componen la materia inanimada; los reinos animal y vegetal sólo difieren, por tanto, del reino mineral por el
modo de organización interna de los mismos elementos.

El movimiento de la materia provocado por la acción de las fuerzas de la naturaleza es capaz de generar de manera
espontánea a los organismos vivos más sencillos. A partir de ellos, la naturaleza continúa su tendencia al progresivo
incremento de complejidad a medida que cada organismo va siendo sustituido por otros dotados de más órganos y
facultades.

5
El transformismo

Lamarck postula dos fuerzas evolutivas cuya combinación habría conformado un árbol filogenético ramificado:

Por un lado, la tendencia intrínseca de la naturaleza hacia el aumento de la complejidad daría cuenta del tronco
ascendente que puede trazarse desde los organismos más sencillos hasta los más complejos

Por otro, la acomodación de los organismos a las circunstancias externas y la herencia de tales adaptaciones explicaría
las desviaciones que ramifican esa gradación regular.

El transformismo de Lamarck se basa en dos leyes básicas: la ley del uso y desuso de los órganos y la ley de la herencia
de los caracteres adquiridos. En una primera fase, el comportamiento de los seres vivos provocaría el sobredesarrollo
o la atrofia de los órganos (ley del uso y desuso de los órganos); en una segunda fase, tales modificaciones se
transmitirían a los descendientes por gemación (ley de la herencia de los caracteres adquiridos).

2007. Septiembre. 2P. Plan Nuevo.

1.-
1.- Distinga entre la llamada “química mecanicista” y la doctrina Stahl ¿Cómo explicaba este la combustión?

(p. 714 y siguientes)

La química mecanicista reducía toda la materia a la misma sustancia, homogénea y universal, con distintas formas y
tamaños, y que interactuaba mecánicamente. Las partículas de los ácidos eran puntiagudas, , los álcalis porosas. La
reacción consistía en el acoplamiento de los poros y las puntas de los ácidos.

Stahl propone que hay distintos tipos de materia, distintos elementos, por así decirlo. Estos elementos interaccionan
unos con otros siguiendo un modelo químico que no es estrictamente mecánico.

2.-
2.- ¿En qué consistía la teoría de
de la afinidad química en el siglo XVIII?

Las afinidades eran la racionalización de las fuerza simpáticas entre la materia. Frente a las interacciones simplemente
mecánicas, los elementos de la materia se atraían o repelían debido a fuerzas químicas de corto alcance distintas de
las mecánicas.

3.-
3.- Explique los experimentos de Joseph Black con magnesia alba y lo que concluyó de ellos.

Estos son los experimentos:

Magnesia alba (MgCO3)+ calor > magnesia usta (MgO)+ aire fijo

Magnesia alba + ácido > sal de magnesia + agua + aire fijo

Magnesia usta + ácido > sal de magnesia + agua

Comprobó que tratadas con ácidos, las magnesias usta y alba daban las mismas sales, pero la usta no producía
efervescencia (gas que se desprende)

Pero además vio que ese gas (CO2) era diferente del aire normal: no permitía la combustión. Ni la respiración y
pesaba más.

Posteriormente se descubrirían (separarían) otros gases. De ello se concluye que el aire no es un elemento.

6
4.-
4.- Describa las cosas que suceden en la calcinación de un metal, y explíquelo desde las concepciones de Stahl y de
Lavoisier ¿Cuál sería la interpretación actual de este proceso?

La calcinación de un metal es su oxidación acelerada por el calor. Para Stahl, en la calcinación el metal perdía el
flogisto. Esto traía consigo un problema. El óxido pesa más que el metal, por lo que el flogisto tendría peso negativo.

Para Lavoisier, la calcinación era la oxidación, la fijación del oxígeno en el metal. Esto explicaba la ganancia de peso.

5.-
5.- ¿Cuál es la postura de Lavoisier
Lavoisier respecto de la idea de elemento químico?

El elemento era el final de un proceso de análisis (separación) químico: cunado una sustancia no se podía separar en
otros componentes, se llegaba la elemento químico.

2007. Septiembre. 2PP

1.-
1.- Explique cuál es el mecanismo de la selección natural en la teoría de la evolución de Darwin. ¿Qué tenía que ver con
esto la biogeografía?

Los individuos de las especies no son exactamente iguales, presentan pequeñas diferencias. Por eso, ante un cambio
en las condiciones ambientales unos tendrán mayor posibilidades de sobrevivir y por tanto de criar más hijos, estos a
su vez mantienen y multiplican esa ventaja, por eso un porcentaje creciente de esa población tendrá esa ventaja, la
especie se trasformará de esa forma, o si hay una separación de esa población respecto del resto de la especie se
producirá una divergencia. Si ese proceso continúa, la población que ha evolucionado puede pasar a no ser interfértil
con el resto. Aparecerá entonces una nueva especie.

La geografía puede poner en algunos casos restricciones al entrecruzamiento de poblaciones, por ejemplo, la
población de una especie situada en una isla evolucionará de forma diferente que el resto de la especie. Típicamente
eso ha pasado en Australia, Nueva Zelanda… el aislamiento geográfico y (por ejemplo) la ausencia de un depredador
hace que se mantengan formas antiguas como los marsupiales.

Darwin observó estos efectos en las Galápagos, donde vio que había variaciones de las especies en las distintas islas y
al desplazarse por la costa este de Sudamérica, donde vio que unas especies eran reemplazadas por otras al
desplazarse de norte a sur. La transición era gradual, mostrando que el ajuste nunca es perfecto (acabado,
consumado) sino que está en un equilibrio dinámico.

2.-
2.- ¿Cómo influyo la obra de Malthus en la concepción de la teoría de la evolución?.

Malthus mostró Darwin (y a Wallace) cuál era el mecanismo de la evolución. Todas las especies tienen un potencial
reproductivo alto, por lo que tienden naturalmente a agotar los recursos alimenticios correspondientes. Se establece
por esta razón una competición por estos. De esta competición son eliminados los individuos menos adaptados. Esta
menor adaptación es siempre relativa a las circunstancias correspondientes.

Como se ve, se trataba de proponer un mecanismo que eliminara la causa final, la teleología que permeó el
pensamiento biológico desde Aristóteles.

3.-
3.- Explica las ideas geológicas de Lyell y su influencia en la formulación de la teoría de la evolución de Darwin.
Darwin.

Las ideas neptunistas de Werner y Cuvier fueron bien aceptadas en Inglaterra (porque conciliaban mejor la teología
con la geología), sin embargo las investigaciones en las rocas primarias (silúricas) hicieron patente que éstas se habían
formado por solidificación de rocas fundidas, lo que proporciona argumentos a la teoría vulcanista de Hutton. Otro de
los problemas del neptunismo es explicar los plegamientos de los estratos y el relieve (altura de las montañas).

7
El estudio de los estratos y su clasificación pasa a estar basado en los fósiles que se encuentran en ellos. Nace la
paleontología estratigráfica. Esto es clave porque se encuentran cada vez mayor cantidad de especies intermedias
desaparecidas. Además, hay una correlación entre la antigüedad del estrato y la simplicidad de los animales
encontrados en ellos. Esa decir, la escala lineal de los seres y la progresión temporal encuentran un punto de apoyo.
La explicación solo es posible desde el transformismo.

Lyell cambia el panorama neptunista, retomando y aplicando las ideas de Hutton. En su trabajo de campo por toda
Europa recoge cantidad de pruebas de las tesis de Hutton. Parte de los supuestos uniformistas: mismas fuerzas en el
pasado que el presente, operando durante períodos largos. En vez de partir de un océano primitivo y argumentar
hacia delante, argumentará hacia atrás en el tiempo, partiendo de las fuerzas geológicas actuales (uniformismo). La
clave está en proponer períodos de tiempo muy largos, de millones de años. En los años cuarenta, la vinculación de
registro folsil y edad de los estratos estaba ya bien asentada: mamíferos en estratos terciarios, reptiles en
secundarios… hasta rocas volcánicas, sin fósiles.

Darwin confiesa en su autobiografía que el estudio de la geología de Lyell le condujo al evolucionismo. De hecho, leyó
el libro de Lyell cuando embarcó en el Beagle hacia América y las Galápagos. La clave estaba en explicar qué es lo que
hace que las especies cambien, el mecanismo que las lleva a evolucionar en un sentido determinado (aumento de la
complejidad). Este mecanismo biológico se lo sugiere la obra de Malthus.

Lyell aceptará las teorías evolucionistas de Hutton hasta el punto de aceptar el evolucionismo darviniano cuando se
publique El origen de las especies en 1859. Sin embargo, trata de refutar a Lamarck, ya que su uniformismo le lleva a
negar la direccionalidad en el mundo orgánico, la direccionalidad de las especies animales, el desarrollo progresivo. Su
idea es la de equilibrio dinámico, cambio continuo pero no direccional. La variación es limitada, debida a la adaptación
a las distintas circunstancias, que también cambian.

4.-
4.- Caracterice el neolamarckismo. ¿Puede mencionar otros mecanismos alternativos al propuesto por Darwin?

La selección natural como único mecanismo de cambio de las especies que propone el darwinismo encuentra algunos
problemas. En particular, el darwinismo se dogmatizó excluyendo el cambio por influencia ambiental. Surgen diversas
teorías alternativas:

Neolamarckismo: Esta basado en las ideas básicas de Lamarck (influencia del medio y la transmisión de caracteres
adquiridos) adaptadas a los descubrimientos evolucionistas del s. XIX.

Frente a las teorías de la herencia dura o “blindada”, proponían una herencia blanda, influida por el ambiente y el
mayor o menor uso de los órganos a consecuencias de los cambios ambientales. Por ejemplo, las plantas se
adaptarían a la mayor sequedad o humedad del ambiente.

En particular, consideraban que los propios organismos tenían un papel activo en la adaptación a los cambios del
medio, frente a la idea de selección natural, en la que tiene un papel meramente pasivo: los individuos mejor
adaptados tienen más hijos, simplemente.

Para los neolamarckianos los caracteres adquiridos como consecuencia del desarrollo del individuo y de su capacidad
de adaptabilidad al medio eran posibles por su incorporación en la edad adulta al plasma germinal, especie de célula
madre en la que se depositaban los caracteres hereditarios. El neolamarckismo encontraba, por tanto, posibles
puntos de contacto con la ortogénesis en su combate contra el darwinismo.

El problema del lamackismo es que sus explicaciones sobre la transmisión de caracteres y evolución no son mejores
que las del darwinismo, que no tienen cuenta esa tendencia de la vida a progresar. Este hecho motivaría su abandono.

Ortogénesis: Que propone que la evolución está guiada por una fuerza interior de los seres vivos que se despliega en
una creciente complejidad.

8
La ortogénesis compartía con el neolamarckismo la teoría de la recapitulación (el desarrollo del embrión muestra el
desarrollo de la especie), pero excluía la influencia del medio ambiente (que el neolamarckismo incorpora a través del
uso-herencia explicativo de los caracteres adquiridos).

La ortogénesis es una teoría que propone una evolución lineal no adaptativa. La variación de las especies era debida a
la existencia de una predisposición interna del organismo en sentido unidireccional, al postular que la naturaleza del
organismo debía predisponerle a variar exclusivamente en una dirección determinada sin la intervención del medio
ambiente. En algunos casos se proponía que las especies internalizaban un plan divino.

Para los ortogenistas cada una de las especies se regía por un patrón regular de desarrollo, por lo que la transmisión
de caracteres podría llevar también a la decadencia, cuando el aumento de complejidad resulta excesivo. La
desaparición de una especie venía explicada por la senilidad de la misma, debido a un exceso de complejidad.

La argumentación de la ortogénesis respondía a un movimiento de más amplio alcance que engarzaba con la
percepción de determinados círculos ilustrados europeos sobre la decadencia de la civilización occidental, que tras la
hecatombe de la primera guerra mundial se abrió paso en amplios círculos de la opinión ilustrada. El éxito de La
Decadencia de Occidente de Spengler es una clara manifestación de esta percepción.

La teoría de la mutación de Hugo de Vries, que propone que la evolución sucede a saltos, por mutaciones.
Experimentando con una planta un tanto extraña obtuvo por cruce tres especies distintas, por lo que propuso que las
especies podían aparecer de golpe, en vez de por acumulación sucesiva de pequeñas variaciones, como propone del
darwinismo.

Esto podría explicar que no quedaran el registro fósil las especie intermedias, simplemente no existían. La linealidad
de la escala evolutiva era la consecuencia de la acumulación de mutaciones adaptativas. Las mutaciones no
adaptativas desaparecen.

5.-
5.- Explique cuál fue la oposición inicial entre genética mendeliana y teoría evolutiva, y cual fue su síntesis final.

En principio, las leyes de la transmisión hereditaria de los caracteres del individuo parecen desmentir la posibilidad de
surgimiento de nuevas especies, porque muestran que las características de los hijos están en los progenitores.
También parece refutar las teorías de Lamarck, según las cuales los padres trasmiten los caracteres adquiridos a los
hijos.

Se hicieron experimentos al respecto, pero resultaron infructuosos. Por ejemplo, Galton mostró que los caracteres de
los individuos de una especie siguen una distribución normal; por ejemplo en el caso de la altura de las personas. Hay
además una regresión a la media: los hijos de padre asaltos son más altos que la media, pero menos que los padres…
Esto parece llevar a la estabilidad de las especies.

Mendel fue redescubierto en 1900. Se empieza a estudiar la distribución y desarrollo de genes en las poblaciones con
métodos estadísticos y se llega a la conclusión de que un gen que introdujese cierta ventaja adaptativa se distribuiría
muy rápidamente, aunque esta fuera pequeña.

De esta forma acaban siendo compatibles la evolución por pequeños cambios graduales frente a la evolución por
grandes cambios mutacionales de De Vries. Caso de las mariposas negras-grises.

La genética de poblaciones se fusionó posteriormente con el darwinismo en la “teoría sintética”, que explica así la
especiación:

En los organismos de producen mutaciones y cambios de su dotación cromosómica, que son la fuente de la
variabilidad

Los cambios se producen con una frecuencia determinada y pasan al acerbo genético de la población

9
La deriva genética y la selección natural actúa teniendo en cuenta la separación de poblaciones y las barreras
geográficas, produciendo la diversidad en las especies.

La diversidad queda fijada por aislamiento geográfico y por el sexual, dando lugar a nuevas especies.

2007. Septiembre. 1PP.

2.-
2.- Caracterice las teorías sobre la generación que se sostuvieron a lo largo del siglo 18. Describa el descubrimiento de la
partenogénesis de los pulgones y la regeneración de las hidras o “pólipos de agua dulce”, y exponga los problemas que
esto planteo a dichas teorías.

La concepción tradicional más extendida sobre la generación era la epigénesis, procedente de Aristóteles. Según ella,
en la generación se producen novedades inexistentes en los padres. Frente a ella, está el preformacionismo, según la
cual en el huevo ya existen las estructuras del animal adulto, la generación es solo engorde, aumento en cantidad.

El epigenismo aristotélico o mecánico (Descartes) no ofrecía buenas explicaciones, por lo que los descubrimientos
microscópicos inclinaron la balanza hacia el preformacionismo, más “piadoso”: en las gónadas preexistirían todos los
organismos vivos desde el principio de la creación.

El estudio de los embriones hará surgir nuevos conceptos y teorías. La embriología moderna nace con la obra de
Harvey “De la generación de los animales” (1651), que propone que todos los animales proceden de huevos.

En 1677, van Leuwenhoek descubre los espermatozoides de los machos. A partir de ahí se reconsideran las funciones
de huevos y espermatozoides y se inician dos escuelas de preformacionismo: materno (ovista) y paterno
(animaculista), hasta final del s. XIX no se comprobaría la fusión de óvulos y espermatozoides.

A principios de siglo XVIII, el preformacionismo era dominante; además triunfó el ovista frente al animaculista.

En lo años cuarenta se descubrió la partenogénesis (del griego: parthenos (virgen) y génesis (generación)). Se trata de
una forma de reproducción basada en el desarrollo de células sexuales femeninas no fecundadas. Fue descubierta por
Charles Bonnet. Puede interpretarse tanto como reproducción asexual o como sexual monogamética, puesto que
interviene en ella una célula sexual o gameto. Consiste en la segmentación del óvulo sin fecundar, puesta en marcha
por factores ambientales, químicos, descargas eléctricas, etc. Bonnet descubrió la de los pulgones.

También se estudió la regeneración de las partes de algunos animales. Como se reproducción por gemación se las
consideró plantas, pero después se vio que se movían y comían presas, por lo que se vio que eran animales. Los
experimentos con ellos fueron sorprendentes: se les podía dar la vuelta Si se les partía en trozos cada parte se
convertía en un nuevo animal. Por ellos parecía como si los gérmenes preformadores estuvieran por todo el cuerpo,
no solo en los óvulos.

A mediados de siglo resurgió la teoría epigenética. Maupertius extiende el modelo químico del mundo con sus
afinidades y sus relaciones de aversión y atracción entre los elementos.

3.-
3.- ¿Qué tipo de estudios sobre la herencia se llevaron a cabo en la época?

¿? No podría decir. Pero estarán relacionados con el preformacionismo y las teorías sobre óvulos y espermatozoides
del ovismo y animaculismo.

10
4.-
4.- Relacione la filosofía de la naturaleza en Alemania (Naturphilosophie) con la idea de arquetipo, y explique la teoría
del francés Geoffroy St. Hilaire sobre el mismo.

El romanticismo alemán influyó sobre la biología, es decir sobre las ciencias del mundo orgánico. Se consideraba que
en él se unían el espíritu y la materia, superando el dualismo cartesiano.

Esta influencia se dejó sentir sobre todo en la morfología y en la embriología. En la morfología se propone la existencia
de formas arquetípicas. El concepto de homología (no con ese nombre) fue propuesto primero por Goethe, que
propuso, por ejemplo, que todos los huesos son modificaciones de un prototipo: la vértebra.

En la embriología se introduce la idea de un desarrollo sucesivo, que es una tendencia de la naturaleza que culmina en
el hombre. Ambas están relacionadas: las etapas del desarrollo del organismo son análogas a las del desarrollo de la
especie. Esto se llamaría “ley de recapitulación embriológica”.

La idea de un arquetipo de las formas vivas fue propuesta también por St. Hillaire, quien propone que la naturaleza
forma todas las criaturas sobre la base de una estructura simple: los órganos son homólogos (misma estructura,
distinta función: mano-pezuña); frente a análogos (alas aves e insectos) en muchos animales, aunque con grado
distinto de desarrollo. Probablemente inspirado en las ideas de Buffon.

En su Filosofía Anatómica (181 investiga las partes homólogas de diversos animales y concluye que todos los
animales están formados por el mismo número de partes (unidades de construcción): el plan es único para todas las
estructuras: existe un arquetipo.

Hilaire se enfrenta al problema del origen de las diversas formas que explica mediante la ley de compensación: la
atrofia de unas partes beneficia el desarrollo de otras. Suponiendo además que el medio físico (Lamarck) había
conducido a dicha diferenciación.

2007. Junio. Segunda Semana. Plan Nuevo.

1.-
1.- ¿En que se distinguía la teoría “Atómica” química del siglo XIX de la química atomística que formuló Newton? (en
otras palabras, ¿en que se distinguía el atomismo “químico” del físico”?

Básicamente en que hay un átomo distinto para cada elemento, en vez de un solo tipo de átomos. El atomismo físico
propone que hay un solo tipo de átomos. Los distintos elementos son combinaciones distintas del mismo tipo de
átomos.

Es la propuesta de Dalton que lleva a asignar un tipo de átomos a los elementos de Lavoisier, que son unidades
mínimas de combinación.

La vieja teoría atómica fue modificada por Dalton al observar la atmósfera. Llegó a la conclusión de que los átomos de
los distintos elementos que la componen se repelen entre sí, pero no con los de los demás elementos. Con ello
formuló la ley de las presiones parciales (cada gas es un vacío para los demás gases) y la ley de las proporciones
múltiples y elaborando la primera tabla de pesos relativos al hidrógeno.

2.-
2.- ¿De qué modo imagino Maxwell que un cuerpo caliente podría tomar calor de otro mas frió sin que se realizase un
trabajo externo sobre el sistema? (Ayuda: acuérdese del diablillo)

De la Wikipedia.

Según la Segunda Ley de la Termodinámica no es posible que se pueda transmitir calor de un cuerpo frío a otro
cuerpo caliente: “En un sistema aislado la entropía nunca decrece”.

11
En la primera formulación el demonio de Maxwell sería una criatura capaz de actuar a nivel molecular seleccionando
moléculas calientes y moléculas frías separándolas. Partimos inicialmente de la premisa de que el demonio es capaz
de diferenciar entre moléculas de gas a diferente temperatura, y separarlas en función de dicho factor.

El diseño sería el siguiente: Imaginemos un gas contenido en un recipiente ideal en el que tenemos una pared
intermedia que separa el recipiente en dos mitades, unida a un émbolo que sale del recipiente; y dotada de una
“puerta” controlada por nuestro demonio.

El demonio se pondrá a trabajar, separando las moléculas más rápidas (por el simple método de abrir selectivamente
la puerta a las moléculas más rápidas para que pasen al otro lado del recipiente) los dos gases; “violando” la segunda
ley de la termodinámica -ha habido disminución de la entropía del sistema-.

Resolución de la paradoja

Leo Szilard resolvió en 1929 la paradoja de Maxwell al formular los aspectos relativos a la información y energía
necesaria para la interacción entre el demonio y el sistema. Szilard se percató de que nuestro “Demonio” no es un
trabajador desinteresado. El mero hecho de poder distinguir entre A y B requiere de un aporte de energía y de una
interacción con el sistema. La energía invertida en “capacidad de decisión” es la que se utiliza para separar ambos
gases. En otras palabras, la Segunda ley de la termodinámica no puede violarse por sistemas microscópicos con
información.

La paradoja de Maxwell ha dado lugar a una amplia investigación en los aspectos fundamentales de la termodinámica
y la teoría de la información.

Léon Brillouin, inspirado en el trabajo de Szilard enunció el teorema por el cual se relaciona la información con la
entropía negativa. Enunciado sencillamente este teorema dice que toda medida, adquisición de información, requiere
del gasto energético.

En el emergente campo de la nanotecnología también se estudian mecanismos capaces de disminuir localmente la


entropía y de comportarse en cierta forma como un demonio de Maxwell. En todos los casos la Segunda ley de la
termodinámica se preserva si se tiene en cuenta la energía utilizada en la adquisición y utilización de la información.

3.-
3.- ¿Qué significaba
significaba la anterior discusión de Maxwell en relación al status de la segunda ley de la termodinámica? (De
paso, enuncie esa ley)

Significa que, para Maxwell, no era una ley esencial de la mecánica, sino que era una consecuencia estadística de la ley
de los grandes números.

La segunda ley de la termodinámica o segundo principio de la termodinámica expresa, en una forma concisa, que “La
cantidad de entropía de cualquier sistema aislado termodinámicamente tiende a incrementarse con el tiempo, hasta
alcanzar un valor máximo”. Más sencillamente, cuando una parte de un sistema cerrado interacciona con otra parte,
la energía tiende a dividirse por igual, hasta que el sistema alcanza un equilibrio térmico.

La segunda ley de la termodinámica ha sido expresada de muchas maneras diferentes. Sucintamente, se puede
expresar así:

• Es imposible un proceso cuyo único resultado sea la transferencia de energía en forma de calor de un cuerpo de
menor temperatura a otro de mayor temperatura. Enunciado de Clausius.

• Es imposible todo proceso cíclico cuyo único resultado sea la absorción de energía en forma de calor procedente de
un foco térmico (o reservorio o depósito) y la conversión de toda ésta energía en forma de calor en trabajo.
Enunciado de Kelvin-Planck.

12
Una interpretación común pero incorrecta: es que la segunda ley indica que la entropía de un sistema jamás decrece.
Realmente, indica sólo una tendencia, esto es, sólo indica que es extremadamente improbable que la entropía de un
sistema cerrado decrezca en un instante dado.

4.-
4.- Explique que es la “entropía”.

En termodinámica, la entropía (simbolizada como S) es la magnitud física que mide la parte de la energía que no
puede utilizarse para producir trabajo en un sistema. Es una función de estado de carácter extensivo y su valor, en un
sistema aislado, crece en el transcurso de un proceso que se dé de forma natural.

También se dice que es el grado de desorganización de un sistema.

El universo tiende a distribuir la energía uniformemente, es decir, maximizar la entropía. Si se ponen en contacto dos
trozos de metal con distinta temperatura, se anticipa que eventualmente el trozo caliente se enfriará, y el trozo frío se
calentará, logrando al final una temperatura uniforme. Sin embargo, el proceso inverso, un trozo calentándose y el
otro enfriándose es muy improbable a pesar de conservar la energía.

La entropía puede interpretarse como una medida de la distribución aleatoria de un sistema. Se dice que un sistema
altamente distribuido al azar tiene alta entropía. Puesto que un sistema en una situación improbable tendrá una
tendencia natural a deslizarse a un estado más probable (similar a una distribución al azar), esta reorganización
resultará en un aumento de la entropía. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio,
alcanzándose la configuración de mayor probabilidad.

La entropía puede considerarse como el grado de desorden de un sistema, es decir, cuán homogéneo está el sistema.
Por ejemplo, si tenemos dos gases diferentes en un recipiente separados por una pared (a igual presión y
temperatura) tendremos un sistema de menor entropía que al retirar la pared, donde los dos gases se mezclarán de
forma uniforme, consiguiendo dentro del recipiente una mayor homogeneidad que antes de retirar la pared y un
aumento de la entropía.

5.-
5.- Distinga entre procesos reversibles e irreversibles. ¿Por qué el incremento irreversible de la entropía no se podía
derivar de las leyes de la mecánica?

La entropía global del sistema es la entropía del sistema considerado más la entropía del entorno.

En los procesos reversibles, la variación de la entropía (ΔS) global es cero, pues el calor que el sistema absorbe o
desprende es igual al trabajo realizado. Pero esto es una situación ideal, ya que para que esto ocurra los procesos han
de ser extraordinariamente lentos y esta circunstancia no se da en la naturaleza.

Por ejemplo, en la expansión isotérmica (proceso isotérmico) de un gas, considerando el proceso como reversible,
todo el calor absorbido del medio se transforma en trabajo y Q=W. Pero en la práctica real el trabajo es menor ya que
hay pérdidas por rozamientos, por lo tanto, los procesos son irreversibles.

Para llevar al sistema, de nuevo, a su estado original hay que aplicarle un trabajo mayor que el producido por el gas,
dando como resultado una transferencia de calor hacia el entorno, con un aumento de la entropía global.

Como los procesos reales son siempre irreversibles, siempre aumentará la entropía. Así como “la energía no puede
crearse ni destruirse”, la entropía puede crearse pero no destruirse. Podemos decir entonces que “como el Universo
es un sistema aislado, su entropía crece constantemente con el tiempo”. Esto marca un sentido a la evolución del
mundo físico, que llamamos “Principio de evolución”.

Cuando la entropía sea máxima en el universo, esto es, exista un equilibrio entre todas las temperaturas y presiones,
llegará la muerte térmica del Universo (enunciado por Clausius). Toda la energía se encontrará en forma de calor y no
podrán darse transformaciones energéticas.

13
No se puede derivar de las leyes de la mecánica porque cabe pensar en el estado S1 si todas las partículas cambiaran
la dirección de su velocidad a la opuesta se reproducirían los estados anteriores, pero no, porque la entropía seguiría
actuando haciendo imposible que el sistema se remontara a los estados anteriores

2007. Junio. Segunda Semana.

1 ¿Qué es un “cuerpo negro”? ¿Qué hipótesis formuló Plank para explicar la composición de la radiación de un cuerpo
de este tipo?

Es un cuerpo ideal, capaz de absorber todas la radiaciones (por eso es negro) y también de emitirlas si no se calentaría
indefinidamente. Las radiaciones son electromagnéticas, de todas las frecuencias. La radiación es más intensa cuando
más elevada es la temperatura del emisor, en este caso el cuerpo negro.

En la práctica se puede aproximar por una cavidad de paredes negras. Dependiendo de la temperatura del cuerpo, la
radiación de la cavidad presentará una distribución determinada de las distintas frecuencias. Se puede representar
por un gráfico con frecuencia en abscisas e intensidad en ordenadas.

La energía radiante emitida por un cuerpo a temperatura ambiente es escasa y corresponde a frecuencias inferiores a
las de la luz visible. Al elevar la temperatura no sólo aumenta la energía emitida sino que lo hace a longitudes de onda
más cortas; a esto se debe el cambio de color de un cuerpo cuando se calienta.

De acuerdo con las predicciones del electromagnetismo clásico, un cuerpo negro ideal en equilibrio térmico debía
emitir energía en todos los rangos de frecuencia; de manera que a mayor frecuencia, mayor energía.

Sin embargo, los cuerpos no emiten con igual intensidad a todas las frecuencias o longitudes de onda, sino que siguen
la ley de Planck.

Este fue uno de los primeros indicios de que existen problemas irresolubles en el marco de la física clásica. La solución
a este problema fue planteada por Max Planck en 1900, con lo que se conoce ahora como Ley de Planck. Ese
momento, se considera como el principio de la Mecánica cuántica.

Plank propuso que el cuerpo negro está compuesto de muchos micro-osciladores de frecuencia fija, que emite quanta
de luz, de longitud de onda fija.

2. Usando el experimento de “las dos rendijas”, explique la dualidad onda corpúsculo.

Al hacer pasar un chorro de electrones por dos rendijas se producen interferencias que se pueden detectar en una
pantalla. Es decir, los electrones se comportan como una onda.

De Wikipedia:

De acuerdo con la física clásica existen diferencias entre onda y partícula. Una partícula ocupa un lugar en el espacio y
tiene masa mientras que una onda se extiende en el espacio caracterizándose por tener una velocidad definida y masa
nula.

Actualmente se considera que la dualidad onda – partícula es un “concepto de la mecánica cuántica según el cual no
hay diferencias fundamentales entre partículas y ondas: las partículas pueden comportarse como ondas y viceversa.”
(Stephen Hawking, 2001)

Éste es un hecho comprobado experimentalmente en múltiples ocasiones. Fue introducido por Louis-Victor de
Broglie, físico francés de principios del siglo XX. En 1924 en su tesis doctoral propuso la existencia de ondas de
materia, es decir que toda materia tenía una onda asociada a ella. Esta idea revolucionaria, fundada en la analogía con

14
que la radiación tenía una partícula asociada, propiedad ya demostrada entonces, no despertó gran interés, pese a lo
acertado de sus planteamientos, ya que no tenía evidencias de producirse. Sin embargo Einstein reconoció su
importancia y cinco años después, en 1929, recibió el Nobel en física por su trabajo.

El experimento de la difracción está descrito en la wiki.

3. ¿Cuál fue la aportación de Louis de Broglie al desarrollo de la física


física cuántica?

De Broglie elaboró una teoría sintética de la materia y de la radiación. Propuso el concepto de ondas de materia.
Según esta teoría, toda partícula de materia, con masa m, tiene una energía mc2 (como indica la teoría de la
relatividad) y una onda asociada: hv, un cuanto de radicación. Es decir, asoció a toda partícula una onda con esa
frecuencia.

De Broglie mostró que en el caso del modelo de Bohr, las órbitas estacionarias eran las que presentaban ondas
estacionarias. Es decir, la onda cabía un número entero de veces en la órbita estable. La longitud de onda de la
partícula resulta de dividir h por su momento (lamdda = h/p).

Schrödinger desarrollo el tratamiento mediante ecuaciones diferenciales de la teoría ondulatoria de las partículas de
De Broglie.

4.-
4.- Enuncie y explique el principio de indeterminación de Heisenberg.

Es imposible conocer a la vez la posición de una partícula y su momento (velocidad x masa). Igualmente no es posible
conocer la energía que tiene una partícula en un tiempo dado. Cuanta mayor precisión se consigue en la posición en
un determinado momento, menor precisión se consigue en el momento o velocidad.

Hay dos interpretaciones: Indeterminación ontológica: es consecuencia de la dualidad onda corpúsculo de la materia
en el ámbito de las partículas (como proponen quienes consideran el principio como expresión de la constitución
ontológica de la materia). Indeterminación por las limitaciones de la medición, que implican una actuación del
instrumento de medida sobre las cualidades a medir.

Desde punto de vista, es consecuencia de la dualidad onda-corpúsculo. Cuanto más precisamente se caracteriza una
partícula como corpúsculo, menos se puede decir de ella como onda, y al revés. Son dos formas complementarias de
analizar la realidad materia-radiación. La propia radiación, al disminuir su longitud de onda, se presenta como
corpúsculo (rayos gamma).

Desde el punto de vista que considera que esta indeterminación es consecuencia de las limitaciones derivadas de la
intromisión del sistema de medida en lo medido (y no una expresión de la constitución dual de la materia) se puede
mostrar el ejemplo de la determinación de la posición de una partícula, por ejemplo un electrón. En la materia
macroscópica la posición de algo se determina detectándolo con la luz que refleja el cuerpo (o el reflejo de la onda
enviada por un radar). Los cuerpos macroscópicos son suficientemente masivos para que su posición y velocidad no
sea afectada por la luz o la onda del radar, pero en los cuerpos pequeños sí lo estará. Por ejemplo para conocer un
electrón hay que iluminarlo. Pero esa iluminación ha de ser con una partícula que tenga una longitud de onda menor
que el propio electrón, por lo que será mucho más energética que el propio electrón y lo desviará de su trayectoria.

5.-
5.- Describa el pensamiento de la llamada “escuela de Copenhague” (es decir, su “filosofía” de la mecánica cuántica).

Es el conjunto de teorías y conceptos de la mecánica cuántica que incluyen el principio de indeterminación, la


dualidad onda-corpúsculo, la imposibilidad de separar objeto y sujeto en la experimentación y análisis de la mecánica
subatómica.

Uno de las consecuencias más llamativas de esto fue el abandono del principio de causalidad determinista en ese
ámbito.

15
El principal oponente de esta interpretación fue Einstein, para el que “Dios no juega a los dados”. Propuso una serie
de experimentos mentales para refutar las consecuencias de la indeterminación. Uno de ellos fue el de la rendija.

Otro de los experimentos mentales fue el de una molécula que se descompone en dos átomos con momentos
angulares opuestos. Conociendo el momento de uno es posible conocer el momento del otro automáticamente. Esto
implicaría que es posible el conocimiento instantáneo de otro (violando la superación de la velocidad de la luz).

También famoso es el del “gato de Schrödinger”. Se cierra un gato en una caja que tiene un dispositivo con un
material radiactivo que se desintegra según una probabilidad p y que libera un veneno en ese caso. Sin abrir la caja, y
considerando solo la función de ondas se puede decir que el gato está tanto vivo como muerto… Pone de manifiesto
el carácter “incompleto” de la mecánica cuántica y la imposibilidad de aplicarla al ámbito macroscópico.

Comentario.

El texto presenta una anécdota del carácter irreconciliable de las teorías cuánticas y la mecánica macroscópica, que
sigue leyes deterministas. Frente a la escuela de Copenhague Einstein sigue considerando que la mecánica cuántica
solo muestra la imposibilidad de penetrar experimentalmente los mecanismos físicos del mundo subatómico, pero no
una estructura ontológica de la materia que no sigue leyes deterministas ni las reglas de la causalidad.

El “indeterminismo” del nivel subatómico no sería ontológico sino comparable con nuestra incapacidad para estudiar
los gases a través de las interacciones mecánicas de cada una de las moléculas. Estas siguen interactuando entre ellas
siguiendo los principios de la mecánica clásica. El tratamiento estadístico reflejaría esa misma imposibilidad, agudizada
con problemas específicos de la menor escala y del funcionamiento de unas partículas más elusivas aún al tratamiento
tradicional, pero que siguen estando sujetas a las leyes aunque “se escapen de las manos” en ese caso.

Habría algunas variables ocultas y por tanto desconocidas en el funcionamiento de esas partículas.

Bell propuso un “experimento crucial” para decidir entre ambas interpretaciones, este experimento fue llevado a cabo
por Aspect y resultó favorable a la mecánica cuántica. Sin embargo, el debate continua, ya que se pone en cuestión el
sentido de la noción de localidad en estos experimentos.

2007. Junio. Primera Semana.

4. Describa el modelo de universo que propuso Einstein, basado en la teoría general de la relatividad.

Con la teoría de la Relatividad General el espacio deja de ser euclídeo. Einstein elimina la gravedad como fuerza, por
considerarla una fuerza ficticia, consecuencia de la curvatura del espacio por las masas y la ralentización del tiempo.
La línea recta pasa a ser curva. La gravedad afecta a la trayectoria de la luz, curvándola y reduciendo su frecuencia

El universo de la relatividad general está curvado sobre sí mismo y es finito. La curvatura depende de la cantidad de
materia. Para que este universo finito no colapsara por la gravitación, Einstein introduce la “constante cosmológica”.
Propone así un Universo estacionario, en equilibrio.

Esta nueva constante fue introducida exclusivamente con el fin de obtener el resultado que en la época se pensaba
era el apropiado. Cuando se presentó la evidencia de la expansión de universo, Einstein llegó a declarar que la
introducción de dicha constante fue el «peor error de su carrera».

Hay otras posibilidades: universo pulsante, cíclico, y universo abierto, hiperbólico, en continua expansión. En el límite
entre los dos está el euclídeo.

(p. 1106)

16
6.-
6.- Suponga que tiene una vara de 1 metro, un espejo y dos relojes. ¿Cómo mediría la velocidad de la luz entre dos
puntos A y B separados entre sí una distancia de 10 metros en el pasillo de su casa? Si hiciese la misma medida sobre un
autobús que se mueve con velocidad uniforme por la calle, en la dirección el sentido de A a B, la velocidad del rayo de la
luz que va de A a B ¿sería la misma que en la de otro rayo de luz fuese de B a A? Justifique
Justifique la respuesta.

En el pasillo de casa: Desde a se manda un rayo a B donde se habrá puesto un espejo, y se mide el tiempo de ida y
vuelta. La velocidad será 20 metros partido por x segundos.

En el autobús. La velocidad del rayo, una vez emitido, y estando en una línea isopotenciales será la misma en ambos
casos, por la teoría de la relatividad. Pero los tiempos de A a B y de B a A serán distintos. En un caso el espejo en el
que rebota el rayo se está alejando, pero a la vuelta se está acercando, así que lo que pierde por un sitio lo gana por
otro.

2007. Junio. Primera Semana Plan Antiguo + Primera semana Plan Nuevo.

1.-
1.- ¿En qué se diferencian la electricidad y el magnetismo?

Son dos fenómenos muy relacionados pero distintos, de hecho hasta el experimento de Oersted no se vio la relación
entre uno y otro. De hecho, esta pregunta no tendría sentido antes de ese experimento.

El magnetismo es un fenómeno de atracción o repulsión entre materiales. Si los electrones de un material están
orientados aleatoriamente en diferentes direcciones, no presentará magnetismo. En los materiales magnéticos los
electrones pueden a orientarse en la misma dirección, creando una fuerza magnética grande o pequeña que depende
del número de electrones orientados.

Cuando la electricidad se reduce a cargas estáticas (que no se mueven) la electricidad y el magnetismo se pueden
estudiar por separado, “no tienen nada que ver”, no interactúan. Por el contrario, una carga eléctrica en movimiento
(es decir, la corriente eléctrica) produce un campo magnético que afecta y es afectado por otros campos magnéticos.

El magnetismo es un fenómeno que presenta siempre una polaridad. Todo imán tiene dos polos y si se rompe en dos
partes las piezas siguen reproduciendo esa polaridad.

2.-
2.- ¿Qué progresos se realizaron en la investigación de la electricidad y del magnetismo en el s. XVIII?

Los imanes se empezaron a estudiar ya en el s. XVI (De magnete), pero los fenómenos eléctricos solo se empezaron a
estudiar en el s. XVIII. Hay que tener en cuenta que las propiedades magnéticas de los cuerpos que las presentan son
estables -el imán mantiene sus propiedades magnéticas salvo que se le someta a un proceso suficientemente intenso
de calentamiento por ejemplo. Pero para estudiar los fenómenos eléctricos hubo que “producir la electricidad”.
Producir electricidad entonces no era producir una corriente, sino cargar de electricidad a un cuerpo. Es decir, los
fenómenos eléctricos estudiados en el s. XVIII eran electrostáticos.

La primera máquina para producir electricidad fue creada por von Guerike. De trataba de una rueda que hacía girar
una bola de azufre que roza con dos paños de lana, con el rozamiento la bola se carga de electricidad y puede
electrizar a otros cuerpos por contacto. Se había comprobado que en una bola de cristal vacía se producían chispas al
frotar la superficie.

Esta máquina permite comprobar un conjunto de efectos curiosos, como la electrización de los cabellos, de una
persona suspendida en el aire. Estos se ponen de punta porque se cargan todos con carga del mismo signo, por lo que
se repelen. La electricidad se explicaba como “efluvios” de materia, que se podían sentir al aproximar la mano, ya que
se erizaban los pelos.

17
Posteriormente Gray, comprobó que había materiales que se cargaban o otros que no. Son los que actualmente
llamamos conductores y no conductores o aislantes. Gray también descubrió que una esfera hueca presentaba las
mismas propiedades eléctricas que una maciza.

Dufay vio además que había dos tipos posibles de carga (vítrea y resinosa) y que los que presentaban el mismo tipo se
repelían entre sí, y los de distinto tipo se atraían. Además descubre que si dos cuerpos con distinta carga se tocan se
produce una chispa, una descarga eléctrica. Esto pone en relación los fenómenos luminosos y los eléctricos, y con el
calor, ya que la fricción que electrizaba en cuerpo producía calor.

Otro de los descubrimientos esenciales fue la botella de Leiden (el condensador), que permitía almacenar la carga. Es
una simple botella de vidrio con agua y un conductor que atravesaba el tapón. Al aplicarla a la máquina de Guerike la
botella se carga si el exterior está “conectado a masa”.

La botella de Leiden permitió muchos experimentos (algunos más bien circenses) pero su funcionamiento fue difícil de
explicar. Franklin propuso que existía un solo fluido eléctrico, presente en todos los cuerpos y que este se manifestaba
solo cuando había un desequilibrio. Podía ser negativo o positivo (tenía más o menos de su capacidad), de ahí los dos
tipos de carga.

Esto permitía explicar la carga de la botella: solo se cargaba cuando el cristal estaba conectado a masa a través de un
conductor. Inspirado en este inventó el pararrayos, para controlar la descarga de la electricidad de las nubes.

A finales del siglo empiezan a estudiarse cuantitativamente los fenómenos eléctricos. Los primeros electrómetros
consistían en dos hilos suspendidos de un conductor que se separan al ponerlos en contacto con una carga.

Los experimentos llevarían a la primera ley cuantitativa, la de Coulomb, similar a la ley de Gravitación universal de
Newton: Dos cargas eléctricas se repelen (o atraen si son del mismo signo) con una fuerza proporcional a las cargas e
inversamente proporcional a su distancia.

Coulomb parte de la idea de fuerzas inversamente proporcionales a la distancia. Se había demostrado que en el
interior de una esfera hueca cargada no hay fuerzas de atracción, lo mismo había previsto Newton que sucedería con
la atracción gravitatoria en el interior de una masa hueca.

Coulomb trata de comprobar que se cumple una ley análoga. Para ello diseña una balanza de torsión, muy sensible.

El último de los descubrimientos del siglo fue el de la “electricidad animal” de Galvani: al poner unas ancas de rana
sobre una plancha metálica y aplicar a los nervios un hilo de cobre conectado a la plancha, las ancas se mueven con
espasmos, como saltando. Volta propone que la electricidad se crea por el contacto entre dos metales distintos. Esto
llevaría a su pila de Volta, que consiste en una sucesión de planchas alternas de dos metales en contacto.

3.-
3.- Describa el descubrimiento de Oersted al que se refiere el texto.

Oersted se dio cuenta al dar una conferencia que al aproximar una aguja imantada a una corriente eléctrica. La brújula
se situaba en perpendicular con la dirección del conductor y que cambiaba de orientación según la situara por encima
o por debajo.

4.-
4.- El descubrimiento de Oersted inspiró una serie de investigaciones, entre ellas la
lass llevadas a cabo por Michael
Faraday. En el transcurso de las mismas descubrió la inducción electromagnética. ¿En qué consiste este fenómeno, y
cómo lo explicó Faraday?

Faraday pensó que si una corriente creaba un efecto magnético, un imán podría crear una corriente y un conductor
“inducir” corriente en otro.

Faraday empezó investigando la inducción de una corriente por otra. Esta se daba no con corrientes estacionarias,
sino cuando estas variaban. Es decir, es la variación del campo magnético y eléctrico la que induce la corriente.

18
Faraday supuso que al iniciarse la corriente en el conductor primario, el conductor secundario adquiere un estado de
tensión que dura hasta que esta se estabiliza. Cualquier variación de la corriente primaria produce una variación de la
tensión del otro y una corriente inducida.

Esta explicación no era suficiente sin embargo para la inducción magnética. Esta consiste en que un imán que se
desplaza en las proximidades de un conductor induce una corriente en este (o un conductor que se desplaza en las
proximidades de un imán).

Faraday propone que le imán crea un campo magnético cuya dirección de puede poner de manifiesto con una aguja
imantada, o con limaduras de hierro. Se puede representar por líneas de fuerza que salen del polo norte y van al sur.
La intensidad de estas se representa por la proximidad de las líneas, que están más juntas cerca del imán.

Faraday propone que la corriente inducida en el imán es proporcional a las líneas de fuerza que este corta en su
movimiento.

(p. 808 y 813)

5.-
5.- A su vez, Maxwell basó sus investigaciones en la teoría de Faraday. Explique en qué consistieron esas investigaciones.

Maxwell matematizó las ideas de Faraday. Emplea el concepto de líneas de fuerza de Faraday como una
representación geométrica de la estructura del campo con fuentes, sumideros, superficies equipotenciales.

Introdujo los conceptos de fuerza y flujo. El flujo (magnético y eléctrico) corresponde a las líneas de fuerza que
atraviesan una superficie. La fuerza se calcula integrando a lo largo de las líneas de fuerza, como diferencia de
potencial. Maxwell propuso cuatro ecuaciones diferenciales que relacionan estas magnitudes vectoriales.

Para explicar la intensidad de la fuerza imaginaba un fluido incompresible que se movía en tubos formados por líneas
de fuerza. Denominaba el modelo geométrico del flujo de fluido una “analogía física” que presentaba “a la mente las
ideas matemáticas en una forma tangible”. El modelo geométrico de líneas, superficies y tubos ofrecía una
representación visual de las líneas de fuerza, de manera que el fenómeno a explicar permanecía claramente a la vista.

El modelo geométrico del campo, que representaba a éste mediante líneas de fuerza, presuponía que se asumiese el
espacio absoluto. Para Maxwell el concepto de espacio absoluto era el fundamento de la geometría de las relaciones
entre los entes materiales. El campo, tal y como se representaba geométricamente mediante líneas de fuerza, estaba
en el espacio, y el espacio era una categoría ontológica fundamental, la condición de la existencia del campo. Para
Maxwell una representación física del campo requería la formulación de una teoría del éter, sustrato del campo.

Sugería una analogía mecánica para explicar la rotación de los vórtices alrededor de ejes paralelos en la misma
dirección: la de una máquina en la que una “rueda de engranaje” se colocaba entre dos ruedas que se quería girasen
en la misma dirección.

Maxwell representaba el “medio magneto-eléctrico” como un éter celular, descrito como una colmena. Cada célula
consistía en un vórtice molecular circundado por una capa de partículas del tipo “rueda de engranaje”, que sufrirían
un movimiento de traslación si los vórtices adyacentes tuviesen velocidades angulares diferentes, correspondiendo el
movimiento de esas partículas al flujo de una corriente eléctrica en un campo magnético no homogéneo. La teoría era
una teoría “física” de las “líneas de fuerza”, porque el campo de fuerza se representaba mecánicamente mediante una
teoría de la transmisión de fuerza entre las partículas del éter.

Posteriormente propone que esta estructura es elástica, por lo que se deforma cuando está sometida a tensión. Las
propiedades del medio, permitividad eléctrica y permeabilidad magnética explican así los fenómenos
electromagnéticos de inducción….

Nuevas reflexiones sobre este problema dieron lugar a una inesperada unificación de la óptica y el
electromagnetismo. Maxwell calculó la velocidad de las ondas elásticas transversales, que correspondían a la

19
propagación de un desplazamiento eléctrico en el medio magnético-eléctrico, y halló que las ondas elásticas
transversales se transmitían con la misma velocidad que las ondas de luz.

La identificación de los medios electromagnético y lumínico fue un gran desarrollo de la teoría del éter. La unificación
de la óptica y del electromagnetismo mediante la teoría mecánica del éter fue completada con un tratamiento de la
rotación magneto-óptica basado en la teoría de los vórtices moleculares.

Año 2006.

2006. Septiembre. Reserva. 1PP. Plan


Plan nuevo

1.-
1.- Las manipulaciones de Joseph Black con la magnesia alba se pueden compendiar así:

Magnesia alba + calor – magnesia usta + aire fijo

Magnesia alba + ácido – sal de magnesia + agua + aire fijo

Magnesia alba + ácido – sal de magnesia + agua

Explique qué concluyó de esto y la importancia de dicha conclusión para el desarrollo de la química de la época.

Ver: 2007. Septiembre. 2P. Plan Nuevo.

3.-
3.- Cuando los metales reaccionaban con soluciones de ácidos en agua, ¿qué encontró H. Cavendish que resultaba?
resultaba?
¿Cuál era, por otra parte, el producto de tratar con ácido las cales metálicas? ¿Cómo se explicaba esto desde la teoría
del flogisto?

(p. 724-5) Cavendish obtuvo así el “aire inflamable”, el hidrógeno.

Al tratar con ácido las cales metálicas se obtiene el oxígeno. Se vio que aceleraba la combustión, dando lugar al aire
viciado (CO2). Se consideraba que tomaba con avidez el flogisto de otros componentes (en la combustión), por lo que
se le llamó aire desflogistizado. Al “flogistizarse” el oxígeno se obtenía el CO2.

4.-
4.- El descubrimiento de la naturaleza compuesta del agua tuvo gran importancia para la teoría que estaba
desarrollando Lavoisier. ¿Por qué? O, más concretamente, cómo puedo explicar Lavoisier gracias a estos las reacciones
por la vía húmeda entre
entre metales y ácidos?

(p. 731) Permitió el enterramiento de la teoría del flogisto.

Los hechos de las reacciones de ácidos y metales:

ácido + metal > sal + gas inflamable (que se consideraba flogisto suelto).

ácido + cal > sal, sin gas inflamable.

¿Por qué en uno hay gas y en el otro no?

Desde la teoría del flogisto es inmediata (Metal = Cal + flogisto), lo que se desprende es el flogisto.

Para Lavoisier la solución estuvo al saber que el agua era hidrógeno (gas inflamable) y oxígeno (gas desflogistizado).
Antes el agua se consideraba como un medio, Lavoisiser propone que el gas inflamable que se desprende al aplicar un

20
ácido al mental procede del agua. Por su parte el oxígeno que convierte al metal en una cal se combina con el ácido
para dar la sal.

5.-
5.- Explique
Explique cómo caracterizó Lavoisier al calórico y la función que desempeñaba este éste en su nueva química.

(p. 667)

Tras Lavoisier queda patente que los antiguos elementos (tierra, aire, agua) no son tales sino compuestos. Sin
embargo para el antiguo fuego propone el calórico. Para Lavoisier, el calórico era uno de esos fluidos sutiles. Era
elástico y perneaba los cuerpos y tendíaa repartirse por ellos. Podía hallarse libre, “en el aire” o dentro de los cuerpos.
El estado de una sustancia dependía de la cantidad de calórico que hubiera absorbido.

En resumen, el calórico era una sustancia material, química, aunque sin peso.

2006. Septiembre. Reserva. 1PP

¿Qué pruebas de la teoría de la gravitación de Newton se hallaron durante la Ilustración?

Las pruebas de la gravitación (fuerzas a distancia) hay que entenderlas como pruebas contra la alternativa cartesiana
de los vórtices.

– La tierra achatada en los polos, por la rotación de la tierra. Para los franceses estaba achatada en el ecuador. Se
había observado que en el ecuador hay que reducir la longitud del péndulo, porque va más lento. La teoría de Newton
lo explica porque la gravedad depende de la distancia al centro de la tierra. En el ecuador, más lejano si está achatada,
es menos intensa. Al comprobarse tras enviar una expedición que era así, queda corroborada la teoría de Newton.

– Los movimientos de la Luna y los planetas. El mayor problema de contrastación de la ley de gravitación universal
venía dado por el hecho de que en cuanto hay más de dos cuerpos las soluciones solo pueden ser aproximadas, no
exactas, porque las orbitas ya no son elípticas. Para ello hubo que afinar los instrumentos (telescopios con miras
graduadas, etc.). La teoría de Newton pudo explicar diversas “anomalías” de las órbitas del Sistema Solar:

– El giro de la línea de ápsides de la Luna (la que va del apogeo al perigeo de la órbita). Al haberse despreciado algunos
términos del desarrollo de la aproximación a la trayectoria, las cosas no cuadraban. Todo se aclaró cuando se tuvieron
en cuenta.

– El retorno del cometa Halley. Tras estudiar los registros de su aparición (entre 75 y 76 años) Halley concluyó que era
el mismo cuerpo y predijo su aparición. Explicó la variación del período por la posición de Júpiter, planeta masivo cuya
gravedad afecta al comenta.

(p. 691)

¿Qué fluctuaciones periódicas encontró James Bradley en la posición de las estrellas fijas? Explíquelas.

Bradley descubrió la aberración de la luz y la nutación del eje terrestre.

– Al tratar de observar la paralaje estelar de una estrella comprobó que describía una elipse pequeña (40’’) a lo largo
del año. No podía tratarse de la paralaje, por lo que concluyó que era consecuencia del movimiento de la Tierra.
Explicación.

– Al tratar de explicar los datos, vio que aparte de esta aberración hay un movimiento aparente con un período de 18
años de duración. También se lo aplicó a la tierra. El eje de la Tierra tiene un movimiento de precesión y uno de

21
nutación, como una peonza. La causa Explicación. Se debe a las diferencias de la fuerza de atracción del sol y sobre
todo la luna sobre el abultamiento ecuatorial de la Tierra.

Describa la labor astatronómica de William Herschel.

Construye un telescopio reflector, con el que descubre Urano.

Vía Láctea y Estructura el universo. Herschel estudió cómo variaba el número de estrellas en los distintos lugares del
cielo mediante un muestreo. Comprobó que su número aumentaba continuamente en dirección a la Vía Láctea, con
máximo en el plano de ésta y mínimo en dirección perpendicular al plano. No hay razón que explique este hecho, por
lo que propuso que las estrellas estaban concentradas en un volumen espacial no esférico, sino en forma de lente o
de piedra de afilar, con el Sol cerca del centro. Para Herschel el “sistema sidéreo” era finito con una forma bien
definida.

Tamaño de la Galaxia: Asumiendo una separación interestelar uniforme, trató de hacer una estimación del tamaño: el
diámetro máximo de esta Galaxia en forma de lente es de 800 veces la distancia media entre dos estrellas. Para esta
distancia tomó la del Sol a Sirio. El diámetro mínimo lo estimó en 150 veces.

Supuso que el Sol estaba centrado, ya que la Vía Láctea da la sensación de rodear el cielo por completo y de que su
brillo parecía uniforme en todo punto. 12

Las observaciones de Herschel y el razonamiento de Olbers lograron enterrar durante un siglo entero la noción de un
Universo infinito.

Estudió los movimientos propios de las estrellas. Comprobó que las estrellas no giran alrededor del Sol sino que son
aleatorios. Se preguntó entonces por el Sol. Si el Sol se mueve, las estrellas situadas delante de él y en la dirección del
movimiento parecerían aproximarse al Sol y, por consiguiente, que divergen. Y las situadas detrás del Sol y en
dirección opuesta a la de su avance parecerían alejarse de él y que convergen.

Con estos supuestos, Herschel consiguió establecer que el Sol se mueve y hacia la constelación de Hércules. En
realidad, constelación de Lira, vecina de Hércules. A unos 19 kilómetros por segundo.

Estrellas dobles: Comprobó que estaban distribuidas por todo el universo: La ley de la gravitación es universal.

Estudia también las nebulosas y localiza más de 2500. Pero creyó que eran nubes que se condensarían en estrellas, no
conjuntos grandes de estrellas.

¿Qué similitudes y que diferencias se daban en el siglo XVIII entre la astronomía y la física experimental?

Ni idea. A qué se refiere. ¿Diferencias y similitudes formales, metodológicas? Entre las similitudes veo que apenas hay
nuevas teorías, sino observación y experimentación.

¿En qué consistían los “fluidos sutiles”? ¿Puede contarse entre ellos el éter que llenaba los espacios interplanetarios e
interestelares? ¿Qué papel jugaron estos fluidos sutiles en el desarrollo de la física experimental?

urgen por una especie de compromiso entre el mecanicismo de Descartes (según el cual el mundo es un plenum) y la
acción a distancia en el vacío de Newton. Además, Newton presenta dos concepciones de la materia. En una primera
etapa la considera compuesta de átomos combinados de forma diversa y dispersos en un gran vacío, por lo que las
interacciones de contacto son bastante escasas. Toda la materia del universo cabría en una cáscara de nuez.
Posteriormente introdujo un éter muy sutil, imponderables (no pesan), que unificaría todas las interacciones a
distancia de la materia.

22
En otras ocasiones se proponen distintos fluidos, que sirven para explicaciones ad hoc de algunos fenómenos difíciles
como la electricidad, el magnetismo, la luz, el fuego o el calor. Por ejemplo el calórico. Las propiedades eléctricas, etc.
de los cuerpos se explican por la cantidad de ese fluido que contienen.

Digamos que sí, aunque no es fluido, sino un sólido elástico (para que no pierda energía en la interacción entre sus
partes). Debía además permear la materia. Además, hay que tener en cuenta que se propusieron distintos tipos de
éter para explicar la transmisión de la luz como onda transversal.

Se puede considerar que jugaron un papel intermedio, instrumental, ya que sirvieron para cuantificar algunos
fenómenos y proporcionar modelos teóricos para explicarlos. Por ejemplo el calórico (…)

2006. Septiembre. Reserva. 2PP

¿Qué es el cuerpo negro? ¿Qué anomalías presentaba la distribución de radiación que emite un cuerpo de este tipo al
ser calentado?

En examen más reciente.

¿Qué es un “cuanto”? ¿Por qué se formulo este concepto, y a que se aplico?

La radicación no se emite en cualquier cantidad, sino en paquetes de intensidad mínima y longitud de onda
determinada; es decir, en fotones. Se introdujo para explicar fenómenos como la radiación del cuerpo negro y el
hecho de que el electrón no caiga sobre el núcleo al perder energía, ya que es una carga que se mueve en un campo
eléctrico. Si los niveles de energía están cuantificados, habrá órbitas estables.

Describa el modelo de átomo


átomo de Rutherford y por qué fue formulado.

En un átomo que concentra la masa en un punto cargado positivamente y con electrones alrededor, muy separados.
Tenía un problema: no explicaba por qué los electrones no se caían al núcleo, que los atraería con mucha fuerza.

Con la desintegración del núcleos de Uranio se descubrieron tres partículas, los rayos alfa (después se vió que eran
núcleos de helio) los beta (electrones) y los gamma (similares a los R-X). Se comprobó que los electrones tenían poca
masa y carga negativa. La materia debería tener entonces también cargas positivas para neutralizar la carga total.

Se propusieron distintos modelos: saturnino, como los anillos de saturno, o “pasas en pastel”, desperdigados.
Thompson propone otro modelo, con algunos átomos en la superficie (los responsables de los enlaces químicos) pero
la mayoría en un núcleo positivo de tamaño grande.

Rutherford al bombardear una lámina metálica fina con partículas alfa vio que algunas pocas se desviaban, incluso
rebotaban, y propuso un núcleo con carga positiva, muy pequeño, el resto hueco, con una nube de electrones
alrededor: el modelo planetario.

2006. Septiembre. 2PP

¿Qué funciones desempeñaba el éter en la física prerrelativista?

El éter era el soporte del campo electromagnético de la luz. Las teorías sobre luz de los siglos XVII al XIX se debatían
entre el carácter corpuscular y el carácter de onda. En el siglo XIX, tras las investigaciones de Fresnell y Yong se pasó a
considerar que consistía en una onda. Pero una onda necesita un soporte material para propagarse. En el caso de la
luz y del campo magnético, se propone que el éter es el asiento de la propagación de las ondas.

23
Enuncie el principio de relatividad de Einstein y explique en que se diferencia del de Galileo.

Está aquí perfectamente explicado.

Los dos postulados de Einstein son:

1- La luz se mueve siempre a una velocidad constante de 300000 Kilómetros por segundo en el vacío, independiente
de la velocidad de la fuente que la emita.

2- No existe ningún experimento posible en un vehículo que nos permita saber si nos estamos moviendo a velocidad
constante y en línea recta.

El segundo principio se puede enunciar más formalmente de esta forma: “los efectos de las leyes físicas deben
resultar iguales para cualquier observador que viaja a velocidad constante y en línea recta”

El principio de la relatividad de Galileo establece que:

“Dos sistemas de referencia en movimiento relativo de traslación rectilínea uniforme son equivalentes desde el punto
de vista mecánico; es decir, los experimentos mecánicos se desarrollan de igual manera en ambos, y las leyes de la
mecánica son las mismas.”

Parece, en un primer vistazo, que no dice nada que no hubiera ya explicado Galileo, sin embargo, donde Galileo
hablaba de mecánica, Einstein habla de todas las leyes físicas. De hecho, en tiempos de Galileo no había teoría sobre
gravitación ni sobre electromagnetismo.

Las consecuencias de estos principios para los conceptos de tiempo, velocidad y espacio son espectaculares, ya que
cambian. Deja de haber espacio de referencia absoluto y reposo. El tiempo se ralentiza y las dimensiones de los
cuerpos en movimiento se acortan cuando son observados desde cuerpos en reposo relativo en relación con los otros.

Describa el experimento de Michelson-


Michelson-Morley y explique como confirma la teoría especial de la relatividad.

De la Wikipedia:

El experimento de Michelson-Morley fue uno de los más importantes y famosos de la historia de la física. Se realizó en
1887 y está considerado como la primera prueba contra la teoría del éter. El resultado negativo del experimento
constituiría posteriormente la base experimental de la teoría de la relatividad especial de Einstein.

Motivación del experimento

La teoría física del final del siglo XIX postulaba que, al igual que las olas y el sonido necesitan un medio para
transportarse (agua y aire), la luz también necesitaría un medio, llamado “éter”. Como la velocidad de la luz es tan
grande, diseñar un experimento para detectar la presencia del éter era muy difícil.

El propósito de Michelson y Morley era medir la velocidad relativa a la que se mueve la Tierra con respecto al éter.
Razonaron que, si el éter era real, la Tierra se movería por él como un avión por el aire, produciendo un “viento del
éter” detectable. Cada año, la Tierra recorre una distancia enorme en su órbita alrededor del Sol, a una velocidad de
30 km/s, más de 100.000 km/h. Se creía que la dirección del “viento del éter” con respecto a la posición de la estrella
variaría al medirse desde la Tierra, y así podría ser detectado. Por esta razón, y para evitar los efectos que podría
provocar el Sol en el “viento” al moverse por el espacio, el experimento debería llevarse a cabo en varios momentos
del año.

El efecto del viento del éter sobre las ondas de luz sería como el de una corriente de un río en un nadador que se
mueve constantemente a favor o en contra de la corriente. En algunos momentos el nadador sería frenado y en otros

24
impulsado. Esto es lo que se creía que pasaría con la luz al llegar a la Tierra con diferentes posiciones con respecto al
éter, llegaría con diferentes velocidades.

Descripción del experimento

En la base de un edificio cercano al nivel del mar, Michelson y Morley construyeron lo que se conoce como el
interferómetro de Michelson. Se compone de una lente semiplateada, que divide la luz monocromática en dos haces
de luz que viajan en un determinado ángulo el uno respecto al otro. Al abandonar la división, cada haz se refleja varias
veces entre unos determinados espejos (para que tengan más recorrido o camino óptico). Finalmente se vuelven a
unir, creando un patrón de interferencia que depende de la velocidad de la luz en los dos brazos del interferómetro.
Cualquier diferencia en esta velocidad (provocada por la diferente dirección de movimiento de la luz con respecto al
movimiento del éter) sería detectada.

Confirma la teoría de la Relatividad porque muestra que la velocidad de la luz es constante, y que los movimientos son
solo relativos al sistema, sin que haya un sistema de referencia absoluto, como ese supuesto eter en reposo.

¿Cómo se concibe actualmente la naturaleza de la luz?

Como onda y como corpúsculo a la vez. Tiene una naturaleza dual. Como onda porque es un fenómeno de
propagación, vibratorio, periódico, con fenómenos como la interferencia, la difracción, etc. Como corpúsculo, porque
la luz no es un fenómeno continuo infinitamente divisible sustentado en otro material (como es el caso de otras ondas
como las olas, el sonido), sino que se presenta en cantidades mínimas discretas.

Dentro del espectro de la luz, las altas frecuencias (rayos gamma, R-X) se presentan y se pueden tratar como
corpúsculos, mientras que las bajas frecuencias (ondas de radio) se presentan como ondas.

¿Cómo sincronizaría dos relojes situados en puntos alejados entre si? ¿Le parece convencional este procedimiento de
sincronización? ¿Qué
¿Qué tiene que ver esto con el segundo postulado de la relatividad especial?

Hay que tener en cuenta qué significa sincronizar en uno y otro caso, porque el tiempo es local.

Pensando desde el tiempo absoluto, habría que mandar la hora de uno a otro y el que la recibiera debería tener en
cuenta que el reloj que la mandó muestra en el momento de recibirla esa hora más el cociente de dividir la distancia
por la velocidad de la luz. De esta manera se sabe en uno la hora que es en otro.

Sí, es convencional. El tiempo es un fenómeno local de cada punto del espacio. Tan buena es la hora en uno como en
otro.

El segundo postulado indica que la velocidad de trasmisión de la luz es constante. Esto permite hacer las
trasformaciones correspondientes de los tiempos locales, que dependen de la distancias de los distintos puntos del
espacio.

2006. Junio.
Junio. 2 Semana

¿Cuál pensaba Darwin que era la fuente de al variabilidad entre individuos de una misma especie, variabilidad sobre la
que actuaba el mecanismo de la evolución?

Darwin clasificó las variaciones en:

Espontáneas, sin causa conocidas. Apenas trató de ellas.

25
Provocadas por el medio: Son de dos tipos, adaptativas (apenas las trata) y aleatorias, más numerosas, y sobre las que
actúa la selección.

Provocadas por el uso o desuso de órganos. Es una idea semejante a la de Lamarck, pero su papel es reducido;
además no consideró que existiera una fuerza interior que llevara al desarrollo.

Su teoría sobre la herencia, es la pangénesis típica de su época. Las células del organismo tienen los caracteres del
individuo en unas partículas llamadas gémulas, que se distribuyen por la sangre y se fijan en los gametos,
transmitiéndose así a los hijos, por mezcla de las de los padres. Las gémulas reciben la influencia del ambiente, que
puede provocar cambios, además permiten la transmisión de los caracteres adquiridos por los padres.

(p. 942)

Describa las repercusiones de la teoría de Darwin en el campo de la filosofía social.

El darwinismo y la selección natural sirvieron de inspiración al llamado darwinismo social. Que extiende el mecanismo
evolutivo propuesto por Darwin a las sociedades humanas, a su desarrollo y al de sus instituciones.

El principal autor del darwinismo social fue Herbert Spencer contemporáneo de Darwin y muy popular en su época.
Spencer interpretó la selección natural en términos de la “Supervivencia del más apto”. Los instintos sociales o los
sentimientos morales habrían evolucionado a través de la selección natural aunque nunca llegó a explicar cómo la
presión evolutiva sobre diferentes individuos podía afectar al colectivo de una sociedad.

Fue popular desde finales del siglo XIX hasta el final de la Segunda Guerra Mundial. Los proponentes del darwinismo
social utilizaban esta teoría para justificar diferentes esquemas sociales imperantes durante este periodo de tiempo
desde el capitalismo a la justificación de la desigualdad social. Entre sus influencias más extremas se citan el comienzo
de la eugenesia y de las doctrinas raciales Nazis. Se ha utilizado la teoría para justificar desde la inevitabilidad del
progreso a las doctrinas raciales. Darwin pensaba que la distancia entre el hombre y el mono aumentaría con la
desaparición de los negros.

Describa las ideas de Nageli y Weismann en el campo de la genética y la herencia y relaciónelas con la teoría de la
evolución.

Nageli y Weismann estudiaron el mecanismo celular de la herencia a finales del s. XIX.

Nageli propone que solo una pequeña parte de la célula, el idioplasma es el portador de la herencia. Había igual
cantidad en esperma y en óvulo. Las células tenían unas unidades, las micelas, que se unían en cadenas, formando el
idioplasma. Este idioplasma podría sufrir variaciones, sobre las que actuaría la selección natural. La evolución se
produciría a saltos en este caso.

Weismann propone “un plasma germinal”, responsable de la transmisión de los caracteres, frente al plasma somático,
propio del cuerpo. En los seres sexuados, el plasma germinal reside en los gametos, independientes del resto de las
células del cuerpo. Posteriormente Weismann relacionó el plasma germinal con los cromosomas. La meiosis sería la
forma de trasmitir los caracteres de los padres a los hijos a través de los gametos.

La transmisión sigue un modelo de “herencia blindada”, la evolución solo es posible por las recombinaciones de este
germoplasma, que está sometido a las presiones del medio. En este caso, los cambios de las especies se deben solo a
la selección natural del material genético de las especies. Se llamó neodarwinismo a esta teoría.

2006. Junio. 1 Semana

¿Qué pensaba Darwin sobre el origen de la variabilidad y la herencia?


26
Darwin clasificó las variaciones en:

Espontáneas, sin causa conocidas. Apenas trató de ellas.

Provocadas por el medio: Son de dos tipos, adaptativas (apenas las trata) y aleatorias, más numerosas, y sobre las que
actúa la selección.

Provocadas por el uso o desuso de órganos. Es una idea semejante a la de Lamarck, pero su papel es reducido;
además no consideró que existiera una fuerza interior que llevara al desarrollo.

Su teoría sobre la herencia, es la pangénesis típica de su época. Las células del organismo tienen los caracteres del
individuo en unas partículas llamadas gémulas, que se distribuyen por la sangre y se fijan en los gametos,
transmitiéndose así a los hijos, por mezcla de las de los padres. Las gémulas reciben la influencia del ambiente, que
puede provocar cambios, además permiten la transmisión de los caracteres adquiridos por los padres.

(p. 942)

¿Qué fue lo que posteriormente descubrió Mendel?

Las reglas estadísticas de transmisión de los caracteres de los padres a los hijos, mediante un experimento.

Trabajó con guisantes, con líneas genéticas puras, guisantes que habían mantenido sus caracteres durante los dos
años anteriores al menos. Tomó siete caracteres (color, forma, vaina) y los puso a hibridar.

En el primer año, lo híbridos exhibían uno solo de los caracteres contrapuestos. Esto permite dividirlos en dominantes
y recesivos. Posteriormente se llamará a este resultado “primera ley de Mendel”.

En la segunda generación aparecían los caracteres recesivos, en una proporción 1:3. Explicación… Es la segunda ley de
Mendel. AA, Aa, aA, aa.

En la tercera generación, las plantas que solo tienen caracteres recesivos dan lugar a recesivos exclusivamente.

(p. 957)

2006. Febrero. 2 Semana

Describa las principales cosmogonías escritas hacia finales del siglo XVII, sin olvidarse de sus contenidos.

Entiendo que se refieren a las explicaciones sobre la formación de la superficie de la Tierra, es decir, a los inicios de la
geología. Podrían referirse al surgimiento de la Tierra como planeta.

En el s. XVII se empezó a considerar la idea de que la Tierra tenía una historia, un desarrollo propio. Según
estimaciones basadas en los textos literales de la Biblia la edad de la tierra sería de unos seis mil años. Esta edad
empezará a ampliarse sucesivamente, para explicar diversos fenómenos, básicamente, la orografía, los estratos
geológicos y los fósiles. Esta perspectiva histórica en las ciencias de la tierra generará una nueva disciplina: la geología.

Uno de los fenómenos clave a explicar es la presencia de fósiles marinos en las montañas. En el s. XVII se empezaron a
coleccionar sistemáticamente fósiles. Salvo excepciones, se rechazó el origen orgánico de los fósiles. Se les consideró
caprichos de la naturaleza.

Una de esas excepciones fue Fabio Colonna que publicó a principios del XVII un libro en que clasificaba estos fósiles
siguiendo criterios biológicos en vez de mineralógicos, y emparentándolos con seres vivos. Hay que tener en cuenta
27
que los fósiles italianos eran relativamente recientes, por lo que era más fácil encontrar similitudes con animales vivos
que los de Inglaterra, de edad más antigua.

En todo caso, el origen biológico hacía necesario explicar tres asuntos: 1) Transporte hasta la localización actual, 2)
Mecanismo de mineralización, 3) Tiempo que estos procesos necesitarían.

Estas son las teorías que surgen:

– Woodward: Primera teoría sobre los fósiles, basada en la sedimentación por gravedad producida después del Diluvio
Universal que fue bien aceptada. John Ray sin embargo, notó que no era cierto que los animales más densos se
hubieran depositado primero, pues no estaban en los estratos más profundos.

– Sten/Steno. Estudia los fósiles de Italia. Notó la semejanza de algunos fósiles con los dientes del tiburón, y estableció
su origen animal (no adaptados al estrato como raíces, sino incrustados; no cristales: de fuera a dentro).

Explicó los estratos por sedimentación sucesiva, los más antiguos son los más profundos. Su posición original
horizontal, alteraciones posteriores. Descripción estratigráfica de un valle italiano, formado en seis etapas.

Hooke. Parte de la obra se Steno, traducida por la Royal Society. Estudió madera petrificada y concluyó que era de
origen orgánico. Cristalización – Petrificación. Los fósiles no podían ser de origen mineral. Partes duras, no blandas.

Mayor novedad: fenómenos de elevación orográfica, no solo erosión. Cambios de presiones por fuegos subterráneos
empujarían corteza.

– John Ray: Las montañas se habían elevado por calor volcánico.

Inicio polémica entre neptunistas y vulcanistas, finales de siglo hasta 1830. Antes y después fueron complementarias,
pero durante la polémica se asoció el neptunismo al catastrofismo y el vulcanismo al uniformismo.

Describa las ideas de Bufón sobre el origen y desarrollo de nuestro planeta. ¿Qué pensaba acerca de las posibles
modificaciones de las especies que
que lo habitan?

Buffon lanza una teoría sobre la evolución del planeta basado en causas físicas. Presenta una secuencia evolutiva
uniformista (frente al “catastrofismo”). Las fuerzas que operan en la actualidad han operado siempre.

Desde una masa informe primigenia que constituía el Sol, un cometa desencadena la formación del Sistema solar.

La Tierra incandescente entra en un proceso de enfriamiento que va configurando la estructura interna de la Tierra: se
van distinguiendo, a la par que se consolidan, los materiales que la constituyen en diversas fases, correspondientes
con los diversos estados globales de temperatura en orden descendente.

Todos los componentes internos de la Tierra (incluyendo a los seres vivos) se forman en el proceso de enfriamiento.
Los materiales van tomando sus formas específicas consolidándose de modo diverso y, en este proceso según las
densidades específicas y el tiempo en que los materiales tardan en enfriarse.

Las transformaciones ocurren en diversos estados sucesivos, «épocas de la naturaleza», producidas por el
enfriamiento, principio que se convierte en el gran hacedor.

Al solidificarse la tierra se arruga, produciendo las montañas. Al condensarse el agua aparece la erosión, y con ella los
estratos. Los estratos se hunden en unas zonas y aparecen en otras en un proceso continuo. Terremotos y volcanes
tienen una contribución adicional

28
En la Tercera Época, el enfriamiento permite la habitación de los seres orgánicos. Antes no podrían vivir, se
abrasarían. La combinación de las moléculas orgánicas que componen cualquier organismo, sólo pudo darse a partir
de dicho estado.

Pero el enfriamiento sigue, con un desplazamiento de animales y plantas al sur. Se han producido así diversas
generaciones de animales. La primera habría desaparecido. La segunda estaría en las zonas tropicales, y la tercera en
las templadas.

La teoría de Buffon, implica extender el tiempo geológico mucho más allá del bíblico comúnmente aceptado (de 6000
a 80000 años).

(p. 749)

Caracterice el neptunismo y el plutonismo.


plutonismo.

Son las dos posturas básicas sobre el cambio geológico y sus agentes:

El neptunismo (Werner), catastrofista, pone el acento en los fenómenos de precipitación y cristalización.

El vulcanismo (Hutton), uniformista, pone el acento en la acción del calor interior del globo.

Werner (Friburgo), fundará una escuela puramente neptuniana, versión secularizada y ampliada de la teoría de
Woodward. Su teoría prácticamente barrió a las evolucionistas. El proceso de formación de los estratos es, a partir de
un océano primitivo, por cristalización, precipitación y sedimentación. Con ello clasifica las rocas en cuatro clases
fundamentales: primarias (como el granito, por cristalización), estratificadas, sedimentarias y volcánicas recientes (por
fuegos internos de carbón). El calor de la tierra apenas tiene importancia (incendios de carbón). Su mayor problema
era dar cuenta de la desaparición del océano primitivo.

Hutton (Escocia), frente a Werner, hace hincapié en la actividad geológica del calor interno de la Tierra. Sostenía que
el interior de la tierra era de lava fundida y que escapaba a través de la corteza sólida que le servía de envase. Había
pues un ciclo continuo de solidificación-erosión-fundición-solidificación. Las montañas surgían por elevación de los
fondos oceánicos por la presión del interior. Bajo esta concepción no existía ni principio ni final sino que se trataba de
un proceso permanente. Explicaba los buzamientos por fuerzas del calor interno. Sus discípulos Playfair y Hall
extendieron la teoría e hicieron algunos experimentos que la corroboraban (fundiendo lava, y dejándola enfriar
lentamente vieron que cristalizaba; hirviendo arena y agua de mar se formaba arenisca, calentado carbonatos en
ambiente cerrado, mármol). Su teoría, continuista, no se extendió con facilidad por considerarse atea.

2005. Septiembre. Reserva. 1PP.

Explique que era la Gran Cadena del Ser y como estaba relacionada con los sistemas de clasificación imperantes en el
siglo XVIII (De paso, diga cuales eran estos sistemas).

Exámenes anteriores.

¿Qué influencia tuvo la idea de progreso en la concepción de la Cadena del Ser? ¿Cual fue, en este sentido, el
pensamiento de Jean Baptiste Robinet y de Charles Bonnet?

Darle un sentido cronológico (de menos complejidad a mayor complejidad) y hacer proceder unas especies de otras.
La Gran Cadena del Ser, de origen neoplatónico no implicaba procedencia de los seres unos de otros.

29
2005. Septiembre. 2PP [Astronomía s. XX]

1. ¿Cómo se lograron medir las distancias de las galaxias? ¿Qué es una Cefeida?
Cefeida?

Mediante las estrellas variables. En 1912, una astrónoma empezó a estudiar sistemáticamente las variables de la Nube
Pequeña de Magallanes. Muy tenues, por su enorme distancia. Están tan lejos que se puede decir que están todas a la
misma distancia de la Tierra. Por ello, si una Cefeida de la Nube Pequeña de Magallanes tiene mayor brillo, se puede
atribuir a que es más luminosa.

Leavitt observó que cuanto más brillante era una variable Cefeida, mayor era también su período: luminosidad y el
período guardan una relación regular. Esta relación debía ser válida también para las cefeidas de nuestro sistema
solar. Por lo que se atribuyó la diferencia entre la luminosidad del modelo y la observada a la distancia. A partir del
brillo aparente de una estrella es posible por tanto deducir la distancia de las estrellas.

En 1912 no se conocía la distancia de ninguna Cefeida, porque solo se disponía del método de paralajes (hasta 150
años-luz), y la cefeida más próxima está a 400 años-luz. Por eso La distancia deducida era relativa. Faltaba saber las
distancias reales, para ello se usó el efecto Doppler.

_____________

Las Cefeidas son uno de los tipos más importantes de estrellas variables: gigantes amarillas que experimentan
pulsaciones con períodos muy regulares. Su nombre proviene de la estrella δ Cephei, la primera en ser descubierta.
Sus períodos van de un día a varias semanas.

Cuanto más largo sea el período de pulsación, más luminosa será la estrella. Una vez esta relación período-
luminosidad es calibrada, puede determinarse la luminosidad de una Cefeida cuyo período sea conocido. La distancia
a la que se encuentra también puede ser fácilmente conocida a partir de su brillo aparente. Por ello, la observación de
las variables Cefeidas es muy importante para determinar la distancia de las galaxias del Grupo Local e incluso más
allá.

2. ¿A qué conclusión llegó Hubble sobre la causa del corrimiento hacia el rojo?

Hacia 1917 se midió la velocidad radial de un total de quince nebulosas espirales. Las velocidades radiales eran muy
grandes. Las nebulosas que se alejaban de nuestra Galaxia lo hacían a una velocidad media de 640 kilómetros por
segundo.

Hacia mediados de la década de 1920-29, Hubble demostró que se trataba de galaxias muy lejanas: los objetos que
exhibían velocidades poco usuales se hallaban también a distancias poco usuales. Es posible que existiera alguna
conexión entre ambas y que una ayude a explicar la otra. Siempre se trataba de movimientos de recesión (desvío
hacia el rojo).

Hubble demostró q ue la velocidad de recesión de una galaxia es proporcional a la distancia que la separa de nosotros.

La característica más desconcertante de la ley de Hubble se puede expresar con una pregunta muy sencilla: ¿Por qué
precisamente de nosotros? La explicación fue sugerida por la nueva concepción del Universo presentada por Einstein:
el universo está en expansión.

3.-
3.- Describa el modelo de universo de Sitter y compárelo con el que previamente había propuesto Einstein

El astrónomo holandés Willem de Sitter (1872-1934), que había sido uno de los primeros en aceptar la teoría de la
relatividad, sugirió en 1917 un diseño del Universo que también se ajustaba a las ecuaciones de campo de Einstein. Se
trataba de un Universo en continua expansión, lo cual venía a significar que la curvatura del espacio se hacía cada vez
menos marcada. El Universo era riemanniano, pero cada día se aproximaba más a uno de tipo euclidiano (límite que
alcanzaría cuando la expansión se hiciese infinita).

30
En el modelo del Universo de de Sitter, un rayo luminoso no seguiría una circunferencia, sino una espiral en continua
expansión. Por otra parte, supongamos que introdujésemos (mentalmente) dos partículas en el Universo en
expansión de de Sitter. Las dos partículas se alejarían al instante y seguirían separándose a medida que el espacio que
media entre ellas se fuese expandiendo más y más. Si en vez de dos partículas dispersáramos un gran número de ellas
a lo largo y a lo ancho de este Universo, la expansión general se traduciría en un aumento de la distancia entre
cualesquiera dos partículas.

Todas las partículas que ve el observador en una dirección particular se estarán alejando de él y además a una
velocidad proporcional a su distancia. Naturalmente, esto es cierto cualquiera que sea la dirección en que se mire.
¿Quiere decir esto que la partícula del observador sea una partícula especial? En absoluto, pues lo mismo ocurriría
con cualquier otra. El efecto sería idéntico. Todas y cada una de las partículas de un universo de esta especie se
estarán alejando de todas y cada una de las demás partículas con una velocidad proporcional a la distancia que separa
a ambas.

Más tarde, en el año 1930, Eddington consiguió demostrar que aun en el caso de que fuese lícito suponer que el
Universo estático de Einstein existe, tal Universo sería inestable, igual que un cono colocado sobre su vértice. Si por
cualquier razón se empezara a expandir, aunque fuese muy ligeramente, seguiría expandiéndose indefinidamente; del
mismo modo que si comenzara a contraerse, continuaría haciéndolo indefinidamente.

Einstein abordó las implicaciones cosmológicas de su teoría y propuso un modelo de universo finito y cerrado, y
además estático. Para ello tuvo que introducir la llamada “constante cosmológica”, porque si no colapsaría por la
gravedad. Se trataba de una fuerza de repulsión que afectaba a las galaxias y que contrarresta la gravedad.
Posteriormente lo consideraría el mayor error de su carrera.

De Sitter mostró que la solución de Einstein era una de las posibles. Posteriormente, Friedman mostró que podía
haber varias posibilidades: universo pulsante o cíclico y universo hiperbólico, con expansión indefinida.

En 1932 Einstein y Setter propusieron un universo “crítico” en el límite de los anteriores. Euclídeo, con expansión
indefinidida. Gráfico.

(p. 1106)

4. Describa la paradoja de Olbers ¿Cómo puede resolverse?

Hacia 1840 los astrónomos consiguieron por fin resolver el problema de la distancia de las estrellas, o al menos de las
más cercanas, hallando que se encontraban a algo más de un pársec (1 años-luz). La siguiente cuestión, en cierto
modo inevitable, era: ¿Dónde acaban las estrellas? En la región que nos circunda, la distancia media entre dos
estrellas cualesquiera es de unos 3 pársec.

En 1800 ya se había pasado de un Universo de 6.000 estrellas y un diámetro de 100 pársec a otro con un número
infinito de estrellas y carente por completo de fronteras. Pero la idea del infinito repelía a la mente humana. El ataque
contra la hipótesis de un posible universo infinito se llevó a cabo en dos frentes: uno teórico, el otro basado en la
observación.

Razones teóricas: el astrónomo alemán Olbers (1758-1840) sugirió en 1826 lo que más tarde se llegó a conocer por la
“paradoja de Olbers”. Para exponerla partamos de los siguientes supuestos:

1. El Universo tiene una extensión infinita.

2. Las estrellas son infinitas en número y están distribuidas uniformemente a través del Universo.

3. Las estrellas tienen una luminosidad media uniforme a lo largo y a lo ancho de todo el Universo.

31
Dividimos el universo en finas capas concéntricas, cuyo volumen aumentaría proporcionalmente al cuadrado de la
distancia. La luz de una estrella cualquiera disminuiría con el cuadrado de la distancia. Al integrar, dado que el
universo es infinito, la cantidad de luz que llegaría hasta nosotros sería infinita. Las nubes de polvo no solucionan
nada.

Esta conclusión, basada en el razonamiento de Olbers, concordaba perfectamente con las cuidadosas observaciones
astronómicas que por aquel tiempo estaba realizando William Herschel.

Se puede refutar considerando una edad finita del universo, que impediría integrar hasta infinito, ya que no toda la luz
habría llegado. Si además se está expandiendo, llega menos potencia lumínica.

5. Teoría del Big Bang. ¿Alguna prueba?

Si el universo se está expandiendo estuvo concentrado en el pasado. Mirando hacia atrás en el tiempo, tiene que
llegar un momento en que las galaxias se encuentren: tuvo que existir un momento en el pasado en el que toda la
materia y energía del Universo se hallasen concentradas en un gran bloque. El tiempo cero del Universo se puede
calcular a partir de las distancias que separan hoy día a las galaxias y de la velocidad con que se expande en la
actualidad el Universo. Fue hace 13 evos (miles de millones de años).

En el tiempo cero toda la materia y energía del Universo se hallaban efectiva y literalmente comprimidas en una
gigantesca masa de diámetro quizá no superior a unos cuantos años-luz. Lemaître llamó a esta masa el “huevo
cósmico”, pues a partir de él se formó el “cosmos” (sinónimo de Universo). El huevo cósmico era inestable y estalló en
lo que cabe imaginar como la más fantástica y catastrófica explosión de todos los tiempos, pues los fragmentos de
dicha explosión resultaron ser luego las galaxias, que fueron despedidas violentamente en todas direcciones. Los
efectos de la explosión los tenemos todavía bien visibles en el alejamiento mutuo de las galaxias y cúmulos de
galaxias.

El modelo del Universo propuesto por Lemaître es el análogo físico del modelo teórico de de Sitter. El Universo de de
Sitter se expandía simplemente porque de este modo cuadraba bien con una serie de ecuaciones planteadas por
Einstein. La expansión del modelo de Lemaître se debía, por el contrario, a un suceso físico: una explosión. Eddington
lo adoptó y divulgo, y desde entonces el astrofísico ruso-americano George Gamow (1904-1968) lo ha defendido de
un modo entusiástico. Haciendo referencia a esa inmensa explosión inicial del huevo cósmico, Gamow bautizó el
modelo del Universo de Lemaître con el nombre de “teoría del big bang”, aunque cabría llamarlo, de una forma
menos espectacular, “teoría del Universo en expansión”.

Actualidad: 90% hidrógeno, un 9 % helio y 1 % átomos complejos > Todo Helio > masa de neutrones comprimidos
(”neutronio”).

Pruebas:

La radiación de fondo. Se detecta en todas las direcciones. Corresponde a 3º K

La presencia de más He del que las estrellas producen, lo que apunta a que se formó en gran parte en épocas
primitivas del universo.

6.-
6.- ¿Por qué se dice que la expresión “constante de Hubble es impropia”?

Porque no es constante, la velocidad de separación de las galaxias cambia con el tiempo.

2005. Junio. 1

Solo la 2 es nueva: ¿Qué son las transformaciones de Lorentz y para qué fueron introducidas?

32
Las transformaciones de Lorentz son un conjunto de ecuaciones que dan cuenta de cómo se relacionan las medidas
de una magnitud física obtenidas por dos observadores diferentes. Estas relaciones establecieron la base matemática
de la teoría de la relatividad especial de Einstein, ya que las transformaciones de Lorentz precisan el tipo de geometría
del espacio-tiempo requeridas por la teoría de Einstein.

Las transformaciones de Lorentz fueron introducidas por Antoon Lorentz (1853 – 1928) para resolver ciertas
inconsistencias entre el electromagnetismo y la mecánica clásica. Lorentz había descubierto en el año 1900 que las
ecuaciones de Maxwell resultaban invariantes bajo este conjunto de transformaciones, ahora denominadas
transformaciones de Lorentz. Al igual que los demás físicos, antes del desarrollo de la teoría de la relatividad, asumía
que la velocidad invariante para la transmisión de las ondas electromagnéticas se refería a la transmisión a través de
un sistema de referencia privilegiado, hecho que se conoce con el nombre de hipótesis del éter. Sin embargo, la
interpretación por parte de Albert Einstein de dichas relaciones como transformaciones de coordenadas genuinas en
un espacio-tiempo tridimensional la hipótesis del éter fue puesta en dificultades.

Las transformaciones de Lorentz relacionan las medidas de una magnitud física realizadas por dos observadores
inerciales diferentes, siendo el equivalente relativista de la transformación de Galileo utilizada en física hasta aquel
entonces.

La transformación de Lorentz permite preservar el valor de la velocidad de la luz constante para todos los
observadores inerciales.

Las coordenadas de tiempo y espacio medidas por dos observadores inerciales difieren entre sí. Sin embargo, debido
a la objetividad de la realidad física las medidas de unos y otros observadores son relacionables por reglas fijas: las
transformaciones de Lorentz para las coordenadas.

2005. Febrero. 2

1.-
1.- Describa la teoría cinética de los gases y a qué otra teoría
teoría sustituyó.

Newton tenía una concepción estática de los gases: sus partículas se mantenían quietas por una fuerza
intercorpuscular repulsiva. Dicha teoría se mantiene hasta que Clausius expone una teoría cinética basada en las
fuerzas intermoleculares (atractivas a grandes distancias y repulsivas en la cercanía) con argumentos probabilísticos.
Parte de una teoría cinética del calor. En los gases las moléculas estarían libres; además supuso que en la práctica el
volumen de las partículas en relación con el total es despreciable, como en el gas perfecto.

Clausius considera que todas las partículas del gas acaban con la velocidad media. Maxwell sin embargo concluye que
las velocidades siguen una distribución normal.

Si no todas las moléculas del gas están a la misma energía, un “diablillo” permitiría violar la segunda ley de la
termodinámica. Por ello, para Maxwell esta no es de carácter absoluto, sino simplemente estadística. Ello implica el
abandono del método mecánico estricto.

Boltzmann acaba defendiendo la base estadística de la entropía y calcula que el aumento de entropía se debe a la
tendencia de los sistemas a alcanzar su distribución molecular más probable.

En todo, caso la búsqueda de una explicación mecánica del aumento de la entropía y de la irreversibilidad se extiende
hasta hoy.

2.-
2.- Explique la relación entre calor y trabajo mecánico que mostró J.P. Joule en la década de los 1840.

Joule establece que dondequiera que se gaste fuerza mecánica se obtiene siempre un equivalente exacto de calor.
Esta convertibilidad se asentaba en la concepción del calor como movimiento de las partículas de la materia.

33
Para mostrarlo hizo un experimento en el que un peso al caer mueve unas aspas situadas dentro de un recipiente con
agua. Joule mide el incremento de calor, encontrando la equivalencia.

4.-
4.- Teorema de la equipartición de Maxwell

En mecánica estadística, clásica, el teorema de equipartición es una fórmula general que relaciona la temperatura de
un sistema con su energía media. El teorema de equipartición es también conocido como la ley de equipartición,
equipartición de la energía, o simplemente equipartición. La idea central de la equipartición es que, en equilibrio
térmico, la energía se reparte en partes iguales entre sus varias formas; por ejemplo, la energía cinética promedio en
un movimiento de traslación de una molécula debe ser igual a la energía cinética promedio en su movimiento de
rotación.

En forma más general, puede ser aplicado a cualquier sistema clásico en equilibrio térmico, no importa cuán complejo
sea el mismo. El teorema de equipartición puede ser utilizado para derivar la ley de los gases ideales clásica, y la Ley
de Dulong-Petit para los calores específicos de los sólidos. También puede ser utilizado para predecir las propiedades
de las estrellas, aún las enanas blancas y estrellas de neutrones, dado que su validez se extiende a situaciones en las
que existan efectos relativistas.

A pesar de que el teorema de equipartición realiza predicciones muy precisas en ciertas circunstancias, esto no es así
cuando los efectos cuánticos son relevantes. La equipartición es válida solo cuando la energía térmica kBT es mucho
mayor que el espaciamiento entre los niveles de energía cuánticos. La falla de la equipartición en el campo de la
radiación electromagnética — también conocido como catástrofe ultravioleta — indujo a Albert Einstein a sugerir que
la luz estaba cuantizada en fotones, una hipótesis revolucionaria que impulsó el desarrollo de la mecánica cuántica y
la teoría cuántica de campos.

2005. Febrero. 1

Nebulosa de Laplace. Problemas

El Sol se formó de la condensación de una nube giratoria de polvo y gas (una nebulosa). La nebulosa primitiva se
contrajo y se enfrío bajo el efecto de las fuerzas de gravitación, formando un disco plano y dotado de una rotación
rápida. El núcleo central se hizo cada vez más grande. Luego, debido al aumento de la velocidad de rotación
aparecieron fuerzas centrífugas que formaron los planetas a partir del material desprendido por el sol.

El centro se convierte en el Sol, mientras que los planetas se forman a partir de la nube que rota más rápidamente. Al
aumentar la velocidad de rotación de la nube, ésta comienza a eyectar un anillo de materia a partir de su ecuador,
que se encuentra en más rápida rotación. Esto disminuye en cierto grado el momento angular, de tal modo que se
reduce la velocidad de giro de la nube restante; pero al seguir contrayéndose, alcanza de nuevo una velocidad que le
permitía proyectar otro anillo de materia. Así, el Sol fue dejando tras sí una serie de anillos (nubes de materia, en
forma de rosquillas), que se fueron condensando lentamente, para formar los planetas, con el tiempo, y aplicando el
mismo fenómeno en menor escala, éstos expelieron, a su vez, pequeños anillos, que dieron origen a sus satélites.

Problemas:

No explica el mecanismo de disgregación de la nebulosa en anillos concéntricos, que posteriormente constituirían los
planetas. Ni el mecanismo de condensación de los planetas. Cada anillo al separarse, continuaría girando en torno al
astro central.

No puede explicar la distribución del momento angular en el Sistema Solar, que está sobre todo en los planetas en vez
del sol.

34

También podría gustarte