Está en la página 1de 31

La Teoría Cuántica, una aproximación al universo probable

Es un conjunto de nuevas ideas que explican procesos incomprensibles para la física de los objetos

La Teoría Cuántica es uno de los pilares fundamentales de la Física actual. Recoge un conjunto de nuevas
ideas introducidas a lo largo del primer tercio del siglo XX para dar explicación a procesos cuya
comprensión se hallaba en conflicto con las concepciones físicas vigentes. Su marco de aplicación se limita,
casi exclusivamente, a los niveles atómico, subatómico y nuclear, donde resulta totalmente imprescindible.
Pero también lo es en otros ámbitos, como la electrónica, en la física de nuevos materiales, en la física de
altas energías, en el diseño de instrumentación médica, en la criptografía y la computación cuánticas, y en
la Cosmología teórica del Universo temprano. La Teoría Cuántica es una teoría netamente probabilista:
describe la probabilidad de que un suceso dado acontezca en un momento determinado, sin especificar
cuándo ocurrirá. A diferencia de lo que ocurre en la Física Clásica, en la Teoría Cuántica la probabilidad
posee un valor objetivo esencial, y no se halla supeditada al estado de conocimiento del sujeto, sino que,
en cierto modo, lo determina. Por Mario Toboso.

La Teoría Cuántica es uno de los pilares fundamentales de la Física actual. Se trata de una teoría que reúne
un formalismo matemático y conceptual, y recoge un conjunto de nuevas ideas introducidas a lo largo del
primer tercio del siglo XX, para dar explicación a procesos cuya comprensión se hallaba en conflicto con las
concepciones físicas vigentes.

Las ideas que sustentan la Teoría Cuántica surgieron, pues, como alternativa al tratar de explicar el
comportamiento de sistemas en los que el aparato conceptual de la Física Clásica se mostraba insuficiente.
Es decir, una serie de observaciones empíricas cuya explicación no era abordable a través de los métodos
existentes, propició la aparición de las nuevas ideas.

Hay que destacar el fuerte enfrentamiento que surgió entre las ideas de la Física Cuántica, y aquéllas
válidas hasta entonces, digamos de la Física Clásica. Lo cual se agudiza aún más si se tiene en cuenta el
notable éxito experimental que éstas habían mostrado a lo largo del siglo XIX, apoyándose básicamente en
la mecánica de Newton y la teoría electromagnética de Maxwell (1865).

“Dos nubecillas”

Era tal el grado de satisfacción de la comunidad científica que algunos físicos, entre ellos uno de los más
ilustres del siglo XIX, William Thompson (Lord Kelvin), llegó a afirmar:

Hoy día la Física forma, esencialmente, un conjunto perfectamente armonioso, ¡un conjunto prácticamente
acabado! ... Aun quedan “dos nubecillas” que oscurecen el esplendor de este conjunto. La primera es el
resultado negativo del experimento de Michelson-Morley. La segunda, las profundas discrepancias entre la
experiencia y la Ley de Rayleigh-Jeans.

La disipación de la primera de esas “dos nubecillas” condujo a la creación de la Teoría Especial de la


Relatividad por Einstein (1905), es decir, al hundimiento de los conceptos absolutos de espacio y tiempo,
propios de la mecánica de Newton, y a la introducción del “relativismo” en la descripción física de la
realidad. La segunda “nubecilla” descargó la tormenta de las primeras ideas cuánticas, debidas al físico
alemán Max Planck (1900).

El origen de la Teoría Cuántica

¿Qué pretendía explicar, de manera tan poco afortunada, la Ley de Rayleigh-Jeans (1899)? Un fenómeno
físico denominado radiación del cuerpo negro, es decir, el proceso que describe la interacción entre la
materia y la radiación, el modo en que la materia intercambia energía, emitiéndola o absorbiéndola, con
una fuente de radiación. Pero además de la Ley de Rayleigh-Jeans había otra ley, la Ley de Wien (1893), que
pretendía también explicar el mismo fenómeno.

La Ley de Wien daba una explicación experimental correcta si la frecuencia de la radiación es alta, pero
fallaba para frecuencias bajas. Por su parte, la Ley de Rayleigh-Jeans daba una explicación experimental
correcta si la frecuencia de la radiación es baja, pero fallaba para frecuencias altas.

La frecuencia es una de las características que definen la radiación, y en general cualquier fenómeno en el
que intervengan ondas. Puede interpretarse la frecuencia como el número de oscilaciones por unidad de
tiempo. Toda la gama de posibles frecuencias para una radiación en la Naturaleza se hallan contenidas en el
espectro electromagnético, el cual, según el valor de la frecuencia elegida determina un tipo u otro de
radiación.

En 1900, Max Planck puso la primera piedra del edificio de la Teoría Cuántica. Postuló una ley (la Ley de
Planck) que explicaba de manera unificada la radiación del cuerpo negro, a través de todo el espectro de
frecuencias.

La hipótesis de Planck

¿Qué aportaba la ley de Planck que no se hallase ya implícito en las leyes de Wien y de Rayleigh-Jeans? Un
ingrediente tan importante como novedoso. Tanto que es el responsable de la primera gran crisis
provocada por la Teoría Cuántica sobre el marco conceptual de la Física Clásica. Ésta suponía que el
intercambio de energía entre la radiación y la materia ocurría a través de un proceso continuo, es decir, una
radiación de frecuencia f podía ceder cualquier cantidad de energía al ser absorbida por la materia.

Lo que postuló Planck al introducir su ley es que la única manera de obtener una fórmula
experimentalmente correcta exigía la novedosa y atrevida suposición de que dicho intercambio de energía
debía suceder de una manera discontinua, es decir, a través de la emisión y absorción de cantidades
discretas de energía, que hoy denominamos “quantums” de radiación. La cantidad de energía E propia de
un quantum de radiación de frecuencia f se obtiene mediante la relación de Planck: E = h x f, siendo h la
constante universal de Planck = 6’62 x 10 (expo-34) (unidades de “acción”).
Puede entenderse la relación de Planck diciendo que cualquier radiación de frecuencia f se comporta como
una corriente de partículas, los quantums, cada una de ellas transportando una energía E = h x f, que
pueden ser emitidas o absorbidas por la materia.

La hipótesis de Planck otorga un carácter corpuscular, material, a un fenómeno tradicionalmente


ondulatorio, como la radiación. Pero lo que será más importante, supone el paso de una concepción
continuista de la Naturaleza a una discontinuista, que se pone especialmente de manifiesto en el estudio de
la estructura de los átomos, en los que los electrones sólo pueden tener un conjunto discreto y discontinuo
de valores de energía.

La hipótesis de Planck quedó confirmada experimentalmente, no sólo en el proceso de radiación del cuerpo
negro, a raíz de cuya explicación surgió, sino también en las explicaciones del efecto fotoeléctrico, debida a
Einstein (1905), y del efecto Compton, debida a Arthur Compton (1923).

Marco de aplicación de la Teoría Cuántica

El marco de aplicación de la Teoría Cuántica se limita, casi exclusivamente, a los niveles atómico,
subatómico y nuclear, donde resulta totalmente imprescindible. Pero también lo es en otros ámbitos, como
la electrónica (en el diseño de transistores, microprocesadores y todo tipo de componentes electrónicos),
en la física de nuevos materiales, (semiconductores y superconductores), en la física de altas energías, en el
diseño de instrumentación médica (láseres, tomógrafos, etc.), en la criptografía y la computación cuánticas,
y en la Cosmología teórica del Universo temprano. De manera que la Teoría Cuántica se extiende con éxito
a contextos muy diferentes, lo que refuerza su validez.

Pero, ¿por qué falla la teoría clásica en su intento de explicar los fenómenos del micromundo? ¿No se trata
al fin y al cabo de una simple diferencia de escalas entre lo grande y lo pequeño, relativa al tamaño de los
sistemas? La respuesta es negativa. Pensemos que no siempre resulta posible modelar un mismo sistema a
diferentes escalas para estudiar sus propiedades.

Para ver que la variación de escalas es un proceso con ciertas limitaciones intrínsecas, supongamos que
queremos realizar estudios hidrodinámicos relativos al movimiento de corrientes marinas. En determinadas
condiciones, podríamos realizar un modelo a escala lo suficientemente completo, que no dejase fuera
factores esenciales del fenómeno. A efectos prácticos una reducción de escala puede resultar lo
suficientemente descriptiva.

Pero si reducimos la escala de manera reiterada pasaremos sucesivamente por situaciones que se
corresponderán en menor medida con el caso real. Hasta llegar finalmente a la propia esencia de la materia
sometida a estudio, la molécula de agua, que obviamente no admite un tratamiento hidrodinámico, y
habremos de acudir a otro tipo de teoría, una teoría de tipo molecular. Es decir, en las sucesivas
reducciones de escala se han ido perdiendo efectos y procesos generados por el aglutinamiento de las
moléculas.
De manera similar, puede pensarse que una de las razones por las que la Física Clásica no es aplicable a los
fenómenos atómicos, es que hemos reducido la escala hasta llegar a un ámbito de la realidad “demasiado
esencial” y se hace necesario, al igual que en el ejemplo anterior, un cambio de teoría. Y de hecho, así
sucede: la Teoría Cuántica estudia los aspectos últimos de la substancia, los constituyentes más esenciales
de la materia (las denominadas “partículas elementales”) y la propia naturaleza de la radiación.

Albert Einstein

Albert Einstein

Cuándo entra en juego la Teoría Cuántica

Debemos asumir, pues, el carácter absoluto de la pequeñez de los sistemas a los que se aplica la Teoría
Cuántica. Es decir, la cualidad “pequeño” o “cuántico” deja de ser relativa al tamaño del sistema, y adquiere
un carácter absoluto. Y ¿qué nos indica si un sistema debe ser considerado “pequeño”, y estudiado por
medio de la Teoría Cuántica? Hay una “regla”, un “patrón de medida” que se encarga de esto, pero no se
trata de una regla calibrada en unidades de longitud, sino en unidades de otra magnitud física importante
denominada “acción”.

La acción es una magnitud física, al igual que lo son la longitud, el tiempo, la velocidad, la energía, la
temperatura, la potencia, la corriente eléctrica, la fuerza, etc., aunque menos conocida. Y al igual que la
temperatura indica la cualidad de frío o caliente del sistema, y la velocidad su cualidad de reposo o
movimiento, la acción indica la cualidad de pequeño (cuántico) o grande (clásico) del sistema. Como la
energía, o una longitud, todo sistema posee también una acción que lo caracteriza.

Esta acción característica, A, se obtiene de la siguiente multiplicación de magnitudes: A = P x L, donde P


representa la cantidad de movimiento característica del sistema (el producto de su masa por su velocidad)
y L su “longitud” característica. La unidad de esa “regla” que mencionábamos, con la que medimos la
acción de los sistemas, es la constante de Planck, h. Si el valor de la acción característica del sistema es del
orden de la constante de Planck deberemos utilizar necesariamente la Teoría Cuántica a la hora de
estudiarlo.

Al contrario, si h es muy pequeña comparada con la acción típica del sistema podremos estudiarlo a través
de los métodos de la teoría clásica. Es decir: Si A es del orden de h debemos estudiar el sistema según la
Teoría Cuántica. Si A es mucho mayor que h, podemos estudiarlo por medio de la Física Clásica.

Dos ejemplos: partículas y planetas

Veamos dos ejemplos de acción característica en dos sistemas diferentes, aunque análogos:

1. El electrón orbitando en torno al núcleo en el nivel más bajo de energía del átomo de hidrógeno.
Vamos a calcular el orden de magnitud del producto P x L. P representa el producto de la masa del electrón
por su velocidad orbital, esto es P = 10 (exp-31) (masa) x 10 (exp 6) (velocidad) = 10 (exp-25) (cantidad de
movimiento). El valor característico de L corresponde al radio de la órbita, esto es, L = 10 (expo-10)
(longitud). Realizamos ahora el producto P x L para hallar la magnitud de la “acción” característica asociada
a este proceso: A1 = Px L = 10 (expo-25) x 10 (expo-10) = 10 (expo-35) (acción).

2. El planeta Júpiter orbitando en torno al Sol (consideramos la órbita circular, para simplificar).

Para este segundo ejemplo, realizamos cálculos análogos a los anteriores. Primeramente la cantidad de
movimiento P, multiplicando la masa de Júpiter por su velocidad orbital: P = 10 (expo 26) (masa) x 10 (expo
4) (velocidad) = 10 (expo 30) (cantidad de movimiento). Igualmente, la longitud característica será la
distancia orbital media: L = 10 (expo 11) (longitud). La magnitud de la acción característica en este segundo
caso será: A2 = 10 (expo 30) x 10 (expo 11) = 10 (expo 41) (acción).

Si comparamos estos dos resultados con el orden de magnitud de la constante de Planck tenemos:

h = 10 (expo-34)

A1 = 10 (expo -35)

A2 = 10 (expo 41)

Vemos que para el caso 1 (electrón orbitando en un átomo de hidrógeno) la proximidad en los órdenes de
magnitud sugiere un tratamiento cuántico del sistema, que debe estimarse como “pequeño” en el sentido
que indicábamos anteriormente, en términos de la constante de Planck, considerada como “patrón” de
medida. Al contrario, entre el caso 2 (Júpiter en órbita en torno al Sol) y la constante de Planck hay una
diferencia de 75 órdenes de magnitud, lo que indica que el sistema es manifiestamente “grande”, medido
en unidades de h, y no requiere un estudio basado en la Teoría Cuántica.

La constante de Planck tiene un valor muy, muy pequeño. Veámoslo explícitamente:

h = 0’ 000000000000000000000000000000000662 (unidades de acción)

El primer dígito diferente de cero aparece en la trigésimo cuarta cifra decimal. La pequeñez extrema de h
provoca que no resulte fácil descubrir los aspectos cuánticos de la realidad, que permanecieron ocultos a la
Física hasta el siglo XX. Allá donde no sea necesaria la Teoría Cuántica, la teoría clásica ofrece descripciones
suficientemente exactas de los procesos, como en el caso del movimiento de los planetas, según acabamos
de ver.

Breve cronología de la Teoría Cuántica

1900. “Hipótesis cuántica de Planck” (Premio Nobel de Física, 1918). Carácter corpuscular de la radiación.
1905. Einstein (Premio Nobel de Física, 1921) explica el “efecto fotoeléctrico” aplicando la hipótesis de
Planck.

1911. Experimentos de Rutherford, que establecen el modelo planetario átomo, con núcleo (protones) y
órbitas externas (electrones).

1913. Modelo atómico de Niels Bohr (Premio Nobel de Física, 1922). Tiene en cuenta los resultados de
Rutherford, pero añade además la hipótesis cuántica de Planck. Una característica esencial del modelo de
Bohr es que los electrones pueden ocupar sólo un conjunto discontinuo de órbitas y niveles de energía.

1923. Arthrur Comptom (Premio Nobel de Física, 1927) presenta una nueva verificación de la hipótesis de
Planck, a través de la explicación del efecto que lleva su nombre.

1924. Hipótesis de De Broglie (Premio Nobel de Física, 1929). Asocia a cada partícula material una onda, de
manera complementaria a cómo la hipótesis de Planck dota de propiedades corpusculares a la radiación.

1925. Werner Heisenberg (Premio Nobel de Física, 1932) plantea un formalismo matemático que permite
calcular las magnitudes experimentales asociadas a los estados cuánticos.

1926. Erwin Schrödinger (Premio Nobel de Física, 1933) plantea la ecuación ondulatoria cuyas soluciones
son las ondas postuladas teóricamente por De Broglie en 1924.

1927. V Congreso Solvay de Física, dedicado al tema “Electrones y fotones”. En él se produce el debate
entre Einstein y Bohr, como defensores de posturas antagónicas, sobre los problemas interpretativos que
plantea la Teoría Cuántica.

1928. Experimentos de difracción de partículas (electrones) que confirman la hipótesis de de Broglie,


referente a las propiedades ondulatorias asociadas a las partículas. El fenómeno de difracción es propio de
las ondas.

1932. Aparición del trabajo de fundamentación de la Teoría Cuántica elaborado por el matemático Jon von
Neumann.

Aspectos esencialmente novedosos de la Teoría Cuántica

Los aspectos esencialmente novedosos (no clásicos) que se derivan de la Teoría Cuántica son:
a) Carácter corpuscular de la radiación (Hipótesis de Planck).

b) Aspecto ondulatorio de las partículas (Hipótesis de Broglie).

c) Existencia de magnitudes físicas cuyo espectro de valores es discontinuo. Por ejemplo los niveles de
energía del átomo de hidrógeno (Modelo atómico de Bohr).

Implicaciones de a): carácter corpuscular de la radiación.

Tradicionalmente se había venido considerando la radiación como un fenómeno ondulatorio. Pero la


hipótesis de Planck la considera como una corriente de partículas, “quantums”. ¿Qué naturaleza tiene,
entonces, la radiación: ondulatoria o corpuscular? Las dos. Manifiesta un carácter marcadamente “dual”. Se
trata de aspectos que dentro del formalismo cuántico no se excluyen, y se integran en el concepto de
“quantum”.

El quantum de radiación puede manifestar propiedades tanto corpusculares como ondulatorias, según el
valor de la frecuencia de la radiación. Para valores altos de la frecuencia (en la región gamma del espectro)
predomina el carácter corpuscular. En tanto que para frecuencias bajas (en la región del espectro que
describe las ondas de radio) predomina el aspecto ondulatorio.

Implicaciones de b): carácter ondulatorio de las partículas.

Se comprobó en experimentos de difracción de electrones y neutrones. Lo que ponen de manifiesto estos


experimentos es que una clase de onda acompaña el movimiento de las partículas como responsable del
fenómeno de difracción. De manera que nuevamente tenemos un ejemplo de dualidad entre las
propiedades corpusculares y ondulatorias, asociadas en este caso a las partículas.

Pero la aparición del fenómeno ondulatorio no se produce únicamente a nivel microscópico, también se
manifiesta para objetos macroscópicos, aunque en este caso la onda asociada tiene una longitud de onda
tan pequeña que en la práctica es inapreciable y resulta imposible la realización de un experimento de
difracción que la ponga de manifiesto.

Implicaciones de c): existencia de magnitudes físicas discontinuas.

Pone de manifiesto el carácter intrínsecamente discontinuo de la Naturaleza, lo que se evidencia, como


ejemplo más notable, en el espectro de energía de los átomos. A partir de la existencia de estas
discontinuidades energéticas se explica la estabilidad de la materia.

Dios no juega a los dados...

Dios no juega a los dados...


Un ejemplo concreto

Analicemos para el caso del átomo de hidrógeno, según el modelo de Bohr, cómo se conjugan estos tres
supuestos cuánticos anteriores, a), b) y c). El átomo de hidrógeno se entiende como un sistema estable
formado por un electrón y un protón. El electrón puede hallarse en un conjunto infinito, pero discontinuo
de niveles de energía [supuesto c)].

Para pasar de un nivel a otro, el electrón debe absorber o emitir un quantum discreto de radiación
[supuesto a)] cuya energía sea igual a la diferencia de energía entre esos niveles. Los niveles posibles de
energía de los electrones se representan matemáticamente por funciones ondulatorias [supuesto b)],
denominadas “funciones de estado”, que caracterizan el estado físico del electrón en el nivel de energía
correspondiente.

Para conocer el valor experimental de cualquier propiedad referente a la partícula debe “preguntarse” a su
función de estado asociada. Es decir, dicha función constituye un tipo de representación del estado físico,
tal que el estado del electrón en el n-ésimo nivel de energía es descrito por la n-ésima función de estado.

La función de onda

La descripción más general del estado del electrón del átomo de hidrógeno viene dada por la
“superposición” de diferentes funciones de estado. Tal superposición es conocida como “función de onda”.
La superposición de estados posibles es típica de la Teoría Cuántica, y no se presenta en las descripciones
basadas en la Física Clásica.

En esta última, los estados posibles nunca se superponen, sino que se muestran directamente como
propiedades reales atribuibles al estado del sistema. Al contrario, especificar el estado del sistema en la
Teoría Cuántica implica tomar en consideración la superposición de todos sus estados posibles. Las
funciones de onda no son ondas asociadas a la propagación de ningún campo físico (eléctrico, magnético,
etc.), sino representaciones que permiten caracterizar matemáticamente los estados de las partículas a que
se asocian.

El físico alemán Max Born ofreció la primera interpretación física de las funciones de onda, según la cual el
cuadrado de su amplitud es una medida de la probabilidad de hallar la partícula asociada en un
determinado punto del espacio en un cierto instante. Aquí se manifiesta un hecho que se repetirá a lo largo
del desarrollo de la Teoría Cuántica, y es la aparición de la probabilidad como componente esencial de la
gran mayoría de los análisis.

La probabilidad en la Teoría Cuántica

La Teoría Cuántica es una teoría netamente probabilista. Nos habla de la probabilidad de que un suceso
dado acontezca en un momento determinado, no de cuándo ocurrirá ciertamente el suceso en cuestión. La
importancia de la probabilidad dentro de su formalismo supuso el punto principal de conflicto entre
Einstein y Bohr en el V Congreso Solvay de Física de 1927.

Einstein argumentaba que la fuerte presencia de la probabilidad en la Teoría Cuántica hacía de ella una
teoría incompleta reemplazable por una hipotética teoría mejor, carente de predicciones probabilistas, y
por lo tanto determinista. Acuñó esta opinión en su ya famosa frase, “Dios no juega a los dados con el
Universo”.

La postura de Einstein se basa en que el papel asignado a la probabilidad en la Teoría Cuántica es muy
distinto del que desempeña en la Física Clásica. En ésta, la probabilidad se considera como una medida de
la ignorancia del sujeto, por falta de información, sobre algunas propiedades del sistema sometido a
estudio. Podríamos hablar, entonces, de un valor subjetivo de la probabilidad. Pero en la Teoría Cuántica la
probabilidad posee un valor objetivo esencial, y no se halla supeditada al estado de conocimiento del
sujeto, sino que, en cierto modo, lo determina.

En opinión de Einstein, habría que completar la Teoría Cuántica introduciendo en su formalismo un


conjunto adicional de elementos de realidad (a los que se denominó “variables ocultas”), supuestamente
obviados por la teoría, que al ser tenidos en cuenta aportarían la información faltante que convertiría sus
predicciones probabilistas en predicciones deterministas.

Mario Toboso es Doctor en Ciencias Físicas por la Universidad de Salamanca y miembro de la Cátedra
Ciencia, Tecnología y Religión de la Universidad Pontificia Comillas. Editor del Blog Tempus de Tendencias21
y miembro del Consejo Editorial de nuestra revista. Este artículo es la primera entrega de una serie de dos
sobre Teoría Cuántica. Ver el siguiente: La Teoría Cuántica cuestiona la naturaleza de la realidad.

Concepto de física cuántica


Física cuántica, rama de la física que estudia el comportamiento de las partículas teniendo en cuenta su
dualidad onda-corpúsculo. Esta dualidad es el principio fundamental de la teoría cuántica; el físico alemán
Max Planck fue quien estableció las bases de esta teoría física al postular que la materia sólo puede emitir o
absorber energía en pequeñas unidades discretas llamadas cuantos.

Estado cuántico

Estado cuántico es la condición en la que existe un sistema cuántico, representado por el objeto
matemático que describe el sistema cuántico.

Observable
Un observable es una propiedad de un estado del sistema que puede ser determinada por una secuencia
de operaciones físicas. Algunos ejemplos de los observables incluyen la energía, posición, momento y
momento angular.

Medición

Medición de un estado cuántico se describe generalmente por una distribución de probabilidad,


determinada por el estado cuántico y los observables que describe la medición.

Cuantificación

La cuantificación es un procedimiento para la construcción de una teoría de la física cuántica de una teoría
de la física clásica de la fundación mediante la restricción de una cantidad variable de valores discretos en
lugar de una serie continua de valores. Sin embargo, la física cuántica no asigna valores definidos a los
observables del sistema, sino que más bien hace que las predicciones sobre la obtención de cada uno de los
posibles resultados de la medición de los observables.

La función de onda

Una función de onda es una ecuación de la teoría cuántica que describe matemáticamente la densidad de
probabilidad de un objeto en el espacio y el tiempo. Se utiliza para describir la propagación de la onda
asociada a una partícula o grupo de partículas.

Superposición

Superposición es el fenómeno en el que un sistema cuántico existe en todos los estados posibles al mismo
tiempo, durante el tiempo que permanece sin ser medido u observado.

Entrelazado

El entrelazamiento cuántico describe un estado que no es completamente independiente de otros Estados,


estén o no los objetos individuales separados espacialmente. Como resultado, las mediciones realizadas en
un sistema parecen influir de forma instantánea en el otro sistema (s), de modo que ninguno de los estados
entrelazados pueden considerarse aislados unas de otros.

No localidad

No localidad describe la capacidad de objetos creados a partir del mismo estado definido,de permanecer
interrelacionados y con capacidad de comunicarse incluso estando separados por grandes distancias. La
No-Localidad postula un principio holístico de inter-conexión que funciona a nivel Cuántico, contradiciendo
o al menos cuestionando las afirmaciones localistas Cuánticas de la Física Newtoniana.

Decoherencia

Decoherencia es el mecanismo por el cual el aparente colapso del estado de superposición (todos los
estados posibles) en un estado definido solo se produce, a través de la propiedad del entrelazamiento.
Eigenestado

Un eigenstate es uno de muchos estados posibles que pueden existir antes de la decoherencia cuántica.
Según la mecánica cuántica, una partícula como un fotón, apuntado a un espejo en un ángulo de 45 grados,
no toma el camino que es descrito por la física clásica. Realmente , la partícula toma cada camino posible
del espejo. Cada uno de aquellos caminos potenciales es un eigenstate. Una vez que un observador
consciente mira a este sistema, la partícula “decide” que camino va a tomar, y ese eigenstate termina
siendo el percibido..

El principio de incertidumbre

El principio de incertidumbre establece que no se pueden medir con total precisión la velocidad y la
posición de una partícula al mismo tiempo. Cuanto más precisa es la medición de su posición,menos precisa
es la posibilidad de medir su velocidad(o momentum). Este principio tiene unas muy profundas
implicaciones,tanto para el concepto Causa-Efecto clásico,como para la determinación de eventos en el
pasado y en el futuro.

Dualidad onda-partícula

Una partícula es un componente irreductible de la materia en el espacio / tiempo. Puede presentar


propiedades, como la masa, la carga eléctrica, y el momento magnético que determinan la forma en que
interactúa en el universo. Una partícula se mueve a lo largo de una trayectoria lineal. Una onda es una
perturbación en el espacio-tiempo, que puede transferir energía de un punto a otro. A diferencia de una
partícula, una onda puede viajar a través del vacío (sin soporte). En lugar de limitarse a seguir una
trayectoria lineal como una partícula, una onda se extiende a medida que viaja. En la física cuántica, la
dualidad onda-partícula consolida la partícula basado en las teorías de la física clásica con el
comportamiento observado de la luz (aparentemente dualista). Se refiere al concepto de que toda la
materia muestra características onda -partícula. Desafíos de la dualidad onda-partícula incluyen las teorías
sobre la dispersión de partículas”, metaparticles”, y la Teoría WSM (Onda Estructura de la Materia).

Complementariedad

La complementariedad es el concepto de que las propiedades fundamentales de algunas entidades pueden


manifestarse en forma contradictoria en diferentes momentos, dependiendo de las condiciones de
observación. Indica que un objeto cuántico puede comportarse como una partícula o como onda, pero
nunca simultáneamente como las dos ; o lo que es lo mismo.

Una fuerte manifestación de la naturaleza de las partículas (naturaleza ondulatoria) conduce a una menor
manifestación de la naturaleza de onda (la naturaleza de las partículas).

Ecuación de Schrödinger

La ecuación de Schrödinger es la ecuación fundamental de la física cuántica para describir el


comportamiento mecánico. Se utiliza para encontrar los niveles permitidos de energía de un sistema
cuántico y nos permite predecir con precisión analítica el comportamiento de una función de onda. Hay un
tiempo-de forma dependiente de esta ecuación (utilizada para describir las ondas progresivas aplicables al
libre movimiento de las partículas), así como el tiempo de forma independiente de esta ecuación (utilizada
para describir las ondas estacionarias). La ecuación tiene una importancia central en la Mecánica Cuántica
similar a la de las ecuaciones de Hamilton del movimiento en la mecánica clásica.
Fisica
La palabra física proviene del vocablo griego fisis que significa “naturaleza”. Es la ciencia que estudia las
propiedades de los cuerpos y las leyes que rigen las transformaciones que afectan a su estado y a su
movimiento, sin alterar su naturaleza. Es decir, la ciencia encargada de analizar las transformaciones o
fenómenos físicos; por ejemplo, la caída de un cuerpo o la fusión de un hielo. La física es la ciencia más
fundamental, está estrechamente relacionada con las demás ciencias naturales, y en cierto modo las
engloba a todas. La química, por ejemplo, se ocupa de la interacción de los átomos para formar moléculas;
gran parte de la geología moderna es en esencia un estudio de la física de la Tierra y se conoce como
geofísica; y la astronomía trata de la física de las estrellas y del espacio exterior.

Los físicos orientan todos sus esfuerzos hacia el descubrimiento de las leyes que rigen el comportamiento
de los objetos en el universo y para ello se sirven de toda una serie de símbolos, sistemas de unidades,
ecuaciones, principios y definiciones. Todos los medios que se emplean en el proceso de elaboración de
una ley física, siempre fundada en la relación entre un determinado fenómeno y su causa, son ideados y
regidos por la llamada física teórica. La física experimental, por el contrario, centra sus premisas en la
observación, el estudio racional y la comprobación de una serie de hechos y datos referidos a un fenómeno
concreto.

Aunque las ideas sobre el mundo físico se remontan a la antigüedad, el estudio sistemático de la física
puede situarse en la segunda mitad del siglo XVI, con los primeros experimentos de Galileo. En aquellos
años y durante los dos siglos siguientes se crearon los métodos básicos de estudio, que dieron lugar al
desarrollo de las que más tarde sería conocida como física clásica, basada esencialmente en los conceptos
intuitivos de tiempo y espacio y válida solamente en el ámbito macroscópico (movimiento, fluidos, calor,
sonido, luz, electricidad y magnetismo).

La física moderna, en cambio, agrupa ciertas facetas de la ciencia no determinables en el tiempo y en el


espacio y válida en el ámbito microscópico, tales como la teoría de la relatividad de Einstein o los
postulados de la mecánica cuántica de Planck. La física por lo general presenta muchas áreas de
investigación como lo son acústica, electromagnética, mecánica, óptica, termodinámica, atómica, nuclear,
mecánica cuántica, materia condensada, biofísica, cosmología y astrofísica.

Leyes de Fisica
INTRODUCCIÓN

El presente trabajo esta basado en una recopilación de los diferentes principios y leyes que enuncian las
distintas ramas de la física tratando de mostrar los más importantes de cada una de ellas, con la finalidad
de condensar los principios que en esencia describen a la física como ciencia y su rol en el ámbito del
estudio científico.

OBJETIVO GENERAL:

En el presente trabajo nos proponemos enunciar los principios o leyes fundamentales que constituyen las
diferentes ramas de la física y que la constituyen como una de las ciencias más hermosas del saber y del
conocimiento humano.

CONCEPTOS PREELIMINARES:
Con el fin de comprender y conocer los principios físicos es menester dominar algunos conceptos
preeliminares como:

¿Qué es la física?

La física (del griego φύσις physis, que significa «naturaleza») es la ciencia de la naturaleza en el sentido más
amplio. Estudia las propiedades de la materia, la energía, el tiempo, el espacio y sus interacciones. La física
estudia por lo tanto un amplio rango de campos y fenómenos naturales, desde las partículas subatómicas
hasta la formación y evolución del Universo así como multitud de fenómenos naturales cotidianos.

Clasificación de la física

PRINCIPIOS Y LEYES FUNDAMENTALES DE LA FÍSICA

1. Primera ley de Newton o ley de inercia

La primera ley de Newton, conocida también como Ley de inercia, nos dice que si sobre un cuerpo no actúa
ningún otro, este permanecerá indefinidamente moviéndose en línea recta con velocidad constante
(incluido el estado de reposo, que equivale a velocidad cero).

Ejemplos:

Si disponemos de una partícula parada al inicio, a no ser que se le empuje (por ejemplo), ésta no se moverá
nunca.

Si a una partícula (por ejemplo un patinador sobre el hielo -modelo de un sistema sin rozamiento-) con
velocidad inicial distinta de cero, no se le obliga a frenar con fuerzas de fricción o con un tope, ésta
conservará la velocidad que llevaba de forma constante por tiempo infinito.

2 Segunda ley de Newton o principio fundamental de la dinámica

La Primera ley de Newton nos dice que para que un cuerpo altere su movimiento es necesario que exista
algo que provoque dicho cambio. Ese algo es lo que conocemos como fuerzas. Estas son el resultado de la
acción de unos cuerpos sobre otros.

La Segunda ley de Newton se encarga de cuantificar el concepto de fuerza. Nos dice que la fuerza neta
aplicada sobre un cuerpo es proporcional a la aceleración que adquiere dicho cuerpo. La constante de
proporcionalidad es la masa del cuerpo, de manera que podemos expresar la relación de la siguiente
manera:

F = m.a

Tanto la fuerza como la aceleración son magnitudes vectoriales, es decir, tienen, además de un valor, una
dirección y un sentido. De esta manera, la Segunda ley de Newton debe expresarse como:

F = m.a

Ejemplo:

¿Qué fuerza neta se necesita para desacelerar uniformemente a un automóvil de 1500 Kg. de masa desde
una velocidad de 100 Km. /h. hasta el reposo, en una distancia de 55 m?
Usamos F = m.a primero debemos calcular la aceleración a. Suponemos que el movimiento es a lo largo del
eje +x. La velocidad inicial es v0 = 100 Km. /h = 28m/s, la velocidad final v0 = 0, y la distancia recorrida x =
55 m.

De la ecuación cinemática v2 = v02 + 2ax, despejamos a:

a = (v2 - v02)/2x = [0 - (28m/s)2]/ (2x55m) = - 7.1 m/s2.

Luego, la fuerza neta necesaria es entonces

F = ma = (1500 Kg.) (-7.1m/s2) - 1.1x104 N, que obra en sentido -x

3. Tercera ley de Newton o principio de acción-reacción

La tercera ley, también conocida como Principio de acción y reacción nos dice que si un cuerpo A ejerce una
acción sobre otro cuerpo B, éste realiza sobre A otra acción igual y de sentido contrario.

Esto es algo que podemos comprobar a diario en numerosas ocasiones. Por ejemplo, cuando queremos dar
un salto hacia arriba, empujamos el suelo para impulsarnos. La reacción del suelo es la que nos hace saltar
hacia arriba.

Cuando estamos en una piscina y empujamos a alguien, nosotros también nos movemos en sentido
contrario. Esto se debe a la reacción que la otra persona hace sobre nosotros, aunque no haga el intento de
empujarnos a nosotros.

Hay que destacar que, aunque los pares de acción y reacción tenga el mismo valor y sentidos contrarios, no
se anulan entre si, puesto que actúan sobre cuerpos distintos.

Ejemplos:

Cuando se dispara un arma de fuego, la fuerza del gas producido debido a la quema de la pólvora, hace que
la bala salga. De acuerdo a la ley de Newton, el arma en sí retrocede.

La punta de una gran manguera contra incendios tiene asa, la cual los bomberos deben sostener con
firmeza, debido a que al salir el chorro de agua, la manguera es enviada en sentido contrario de manera
visiblemente.

Los rociadores rotativos de un jardín trabajan con el mismo principio. De manera similar, el movimiento
hacia adelante de un cohete viene de la reacción del rápido chorro de gases calientes que salen de su parte
trasera.

4. Ley del trabajo:

En mecánica, el trabajo efectuado por una fuerza aplicada sobre una partícula durante un cierto
desplazamiento se define como la integral del producto escalar del vector fuerza por el vector
desplazamiento. El trabajo es una magnitud física escalar, y se representa con la letra (del inglés Work) para
distinguirlo de la magnitud temperatura, normalmente representada con la letra .

Se denomina trabajo infinitesimal, al producto escalar del vector fuerza por el vector desplazamiento.

Ejemplos:

Calcular el trabajo de una fuerza constante de 12 N, cuyo punto de aplicación se traslada 7 m, si el ángulo
entre las direcciones de la fuerza y del desplazamiento son 0º, 60º, 90º, 135º, 180º.

Si la fuerza y el desplazamiento tienen el mismo sentido, el trabajo es positivo

Si la fuerza y el desplazamiento tienen sentidos contrarios, el trabajo es negativo

Si la fuerza es perpendicular al desplazamiento, el trabajo es nulo

5. Ley cero de la termodinámica


El equilibrio termodinámico de un sistema se define como la condición del mismo en el cual las variables
empíricas usadas para definir un estado del sistema (presión, volumen, campo eléctrico, polarización,
magnetización, tensión lineal, tensión superficial, entre otras) no son dependientes del tiempo. A dichas
variables empíricas (experimentales) de un sistema se les conoce como coordenadas termodinámicas del
sistema.

A este principio se le llama del equilibrio termodinámico.

Ejemplo:

Si dos sistemas A y B están en equilibrio termodinámico, y B está en equilibrio termodinámico con un tercer
sistema C, entonces A y C están a su vez en equilibrio termodinámico. Este principio es fundamental, aun
siendo ampliamente aceptado, no fue formulado formalmente hasta después de haberse enunciado las
otras tres leyes. De ahí que recibe la posición 0.

También conocido como principio de la conservación de la energía, establece que si se realiza trabajo sobre
un sistema, la energía interna del sistema variará. La diferencia entre la energía interna del sistema y la
cantidad de energía es denominada calor. Fue propuesto por Antoine Lavoisier.

La ecuación general de la conservación de la energía es la siguiente:

Eentra − Esale = ΔEsistema

En otras palabras: La energía no se crea ni se destruye sólo se transforma. (Conservación de la energía).


Asimismo, cabe destacar que el primer principio, el de conservación de la energía, es la más sólida y
universal de las leyes de la naturaleza descubiertas hasta ahora por la ciencia.

Ejemplo:

Un ejemplo conceptual que ayuda ala entendimiento de esta ley es un gas encerrado en un cilindro, una de
cuyas tapas es un émbolo móvil y que mediante un mechero podemos agregarle calor. El cambio en la
energía interna del gas estará dado por la diferencia entre el calor agregado y el trabajo que el gas hace al
levantar el émbolo contra la presión atmosférica.

6. Primera ley de la termodinámica

Esta ley indica la dirección en que se llevan a cabo las transformaciones energéticas. En un sistema aislado,
es decir, que no intercambia materia ni energía con su entorno, la entropía (fracción de energía de un
sistema que no es posible convertir en trabajo) siempre aumenta con el tiempo.

En otras palabras: El flujo espontáneo de calor siempre es unidireccional, desde los cuerpos a temperatura
más alta a aquellos de temperatura más baja.

Ejemplo:

Gráficamente se puede expresar imaginando una caldera de un barco de vapor. Ésta no podría producir
trabajo si no fuese porque el vapor se encuentra a temperaturas y presión elevadas comparadas con el
medio que la rodea.

Matemáticamente, se expresa así:

Donde S es la entropía y el símbolo de igualdad sólo existe cuando la entropía se encuentra en su valor
máximo (en equilibrio).

Una malinterpretación común es que la segunda ley indica que la entropía de un sistema jamás
decrementa. Realmente, indica sólo una tendencia, esto es, sólo indica que es extremadamente
improbable que la entropía de un sistema cerrado decrezca en un instante dado.

7. Segunda ley de la termodinámica


Segunda ley de la termodinámica: No es posible que el calor fluya desde un cuerpo frío hacia un cuerpo
mas caliente, sin necesidad de producir ningún trabajo que genere este flujo. La energía no fluye
espontáneamente desde un objeto a baja temperatura, hacia otro objeto a mas alta temperatura.

8. Tercera ley de la termodinámica

La Tercera de las leyes de la termodinámica, propuesto por Walther Nernst, afirma que es imposible
alcanzar una temperatura igual al cero absoluto mediante un número finito de procesos físicos. Puede
formularse también como que a medida que un sistema dado se aproxima al cero absoluto, su entropía
tiende a un valor constante específico. La entropía de los sólidos cristalinos puros puede considerarse cero
bajo temperaturas iguales al cero absoluto. No es una noción exigida por la Termodinámica clásica, así que
es probablemente inapropiado tratarlo de "ley".

Ejemplo:

La entropía de los sólidos cristalinos puros puede considerarse cero bajo temperaturas iguales al cero
absoluto. No es una noción exigida por la Termodinámica clásica, así que es probablemente inapropiado
tratarlo de "ley".

9. Ley de Coulomb

La magnitud de cada una de las fuerzas eléctricas con que interactúan dos cargas puntuales es
directamente proporcional al producto de las cargas e inversamente proporcional al cuadrado de la
distancia que las separa.

Esta ley es válida sólo en condiciones estacionarias, es decir, cuando no hay movimiento de las cargas o,
como aproximación, el movimiento se realiza a velocidades bajas y trayectorias rectilíneas uniformes. Se le
llama a esta Fuerza Electrostática. La parte Electro proviene de qué se trata de fuerzas eléctricas y estática
debido a la ausencia de movimiento de las cargas.

En términos matemáticos, la magnitud de la fuerza que cada una de las dos cargas puntuales y ejerce
sobre la otra separadas por una distancia se expresa como:

(Ley de Coulomb)

Ejemplo:

Ley de Coulomb, Ejemplo de su Aplicación

Suponga que se tiene tres cargas puntuales localizadas en los vértices de un triángulo recto, como se
muestra en la figura, donde q1 = -80 C, q2 = 50 C y q3 = 70 C, distancia AC = 30 cm, distancia AB = 40 cm.
Calcular la fuerza sobre la carga q3 debida a las cargas q1 y q2.

Las direcciones de las fuerzas sabemos coinciden con las líneas que unen a cada par de cargas puntuales. La
fuerza que q1 ejerce sobre q3, F31, es de atracción. La fuerza que q2 ejerce sobre q3, F32, es de repulsión.
Así, las fuerzas F31 y F32 tienen las direcciones que se indican. La separación entre q3 y q1 se obtiene de
(CB)2 = (AC)2 + (AB)2 = (0.3 m)2 + (0.4 m)2, de donde CB = 0.5 m.

Las magnitudes de tales fuerzas son:

F31 = [(9x109 Nm2 /C2) (80x10-6 C) (70x10-6 C)]/ (0.5 m)2 = 201.6 N

F32 = [(9x109 Nm2 /C2) (5 0x10-6 C) (70x10-6 C)]/ (0.3 m)2 = 350 N

Conviene disponer ejes coordenados xy tal como se indica en la figura, con el origen en la carga donde
deseamos calcular la fuerza resultante, en este caso en q3.

Llamando F3 a la fuerza resultante sobre q3, entonces F3= F31 + F32. Luego, en términos de componentes x
ey:

F3x = F31x + F32x


F3y = F31y + F32y

F31x = F31cos = (201.6 N)x(40/50) = 161.3 N ; F31y

= - F31sen = -201.6x30/50 = -121 N

F32x = 0 ; F32y = F32 = 350 N

F3x = 161.3 N + 0 = 161.3 N ; F3y = -121 N + 350 N = 229 N

La magnitud de la fuerza neta F3 se obtiene de (F3)2= (F3x)2 + (F3y>)2, resultando F3 = 280 N. El ángulo de
esta fuerza se obtiene de tg = F3y/ F3x= 229/161.3= 1.42 ==> = 54.8º.

10. Ley de Gauss

La ley de Gauss afirma que el flujo del campo eléctrico a través de una superficie cerrada es igual al
cociente entre la carga que hay en el interior de dicha superficie dividido entre 0.

Ejemplo:

Por ejemplo, si queremos encontrar el campo eléctrico de una esfera cargada, de carga Q, tendremos que
considerar una cuerpo imaginario que tenga la misma superficie que el cuerpo original, en este caso de una
esfera de radio r, arbitrario.

Vemos que:

Donde QT es la carga total contenida dentro de la superficie Gaussiana, es decir, la de la esfera cargada. Por
lo que tenemos la expresión:

Vemos que es conveniente manejar el elemento diferencial de superficie en coordenadas esféricas.


Tomemos el elemento de superficie:

Con lo que:

Como el campo es radial, por lo que E puede salir de la integral:

Recordemos que:

Entonces tendremos:

Finalmente despejando el campo tendremos:

La fuerza total ejercida sobre una carga eléctrica q por un conjunto de cargas será igual a la suma vectorial
de cada una de las fuerzas ejercidas por cada carga sobre la carga ."

Ejemplo:

(Grafica del principio de superposición)

12. Cantidad de movimiento

La cantidad de movimiento, momento lineal o ímpetu o momentum es una magnitud vectorial, unidad SI:
(kg m/s) que, en mecánica clásica, se define como el producto de la masa del cuerpo multiplicada por su
velocidad en un instante determinado. En cuanto al nombre Galileo Galilei en su Discursos sobre dos
nuevas ciencias usa el término italiano impeto, mientras que Isaac Newton usa en Principia Mathematica el
término latino motus y vis.

(Cantidad de movimiento)

Ejemplo:
1.- Una bala de 8 gr se dispara horizontalmente sobre un bloque de madera de 9 kg. Sabiendo que la
velocidad del bloque y de la bala después del choque es de 0,4 m/sg, calcular la velocidad inicial de la bala.
(450,4 m/s)

13. Principio de inducción electromagnética de Faraday (o simplemente Ley de Faraday)

Se basa en los experimentos que Michael Faraday realizó en 1831 y establece que el voltaje inducido en un
circuito cerrado es directamente proporcional a la rapidez con que cambia en el tiempo el flujo magnético
que atraviesa una superficie cualquiera con el circuito como borde:

donde es el campo eléctrico, es el elemento infinitesimal del contorno C, es la densidad de campo


magnético y S es una superficie arbitraria, cuyo borde es C. Las direcciones del contorno C y de están dadas
por la regla de la mano derecha.

La permutación de la integral de superficie y la derivada temporal se puede hacer siempre y cuando la


superficie de integración no cambie con el tiempo.

Por medio del teorema de Stokes puede obtenerse una forma diferencial de esta ley:

Ésta es una de las ecuaciones de Maxwell, las cuales conforman las ecuaciones fundamentales del
electromagnetismo. La ley de Faraday, junto con las otras leyes del electromagnetismo, fue incorporada en
las ecuaciones de Maxwell, unificando así al electromagnetismo.

En el caso de un inductor con N vueltas de alambre, la fórmula anterior se transforma en:

Donde e es la fuerza electromotriz inducida y dΦ/dt es la tasa de variación temporal del flujo magnético Φ.
La dirección de la fuerza electromotriz (el signo negativo en la fórmula) se debe a la ley de Lenz.

Ejemplo:

Con una bobina, un amperímetro y un imán tenemos:

Un imán podemos considerarlo como un sistema de dos cargas magnéticas iguales y opuestas separadas
una distancia L.

El campo magnético en las proximidades de un polo magnético tiene una expresión similar a la del campo
eléctrico de una carga puntual.

Donde K=m 0q/4p. m 0 es la permitividad magnética en el vacío, y q es la carga magnética de un polo del
imán. El campo es radial y su módulo disminuye con la inversa del cuadrado de la distancia a la carga
magnética

El flujo del campo magnético de dicho campo a través de una espira situada a una distancia x del polo
magnético q es

El flujo total es la suma de los flujos debidos a los campos creados por las dos polos magnéticos

Ahora calculamos el flujo total a través de todas las espiras del solenoide. Se supone que el solenoide tiene
muchas espiras apretadas de modo que el número de espiras entre las posiciones x y x+dx vale

Donde N es el número total de espiras, y H es la longitud del solenoide

Para calcular la fem derivamos el flujo respecto del tiempo y lo cambiamos de signo

Donde la derivada de la posición z del imán respecto del tiempo t es la velocidad v del imán.

14. Principio de la Fuerza Lorentz

Para una partícula sometida a un campo eléctrico combinado con un campo magnético, la fuerza
electromagnética total o fuerza de Lorentz sobre esa partícula viene dada por:
Donde es la velocidad de la carga, es la intensidad del campo eléctrico y la intensidad del campo magnético.
La expresión anterior está relacionada con la fuerza de Laplace o fuerza sobre un hilo conductor por el que
circula corriente:

Donde es la longitud del conductor, es la intensidad de corriente y la intensidad de campo magnético.


Curiosamente esta última expresión históricamente se encontró antes que la anterior, a pesar de ser una
consecuencia directa de la anterior.

Trayectoria bajo la fuerza de Lorentz de una partícula cargada en un campo magnético constante según el
signo de la carga eléctrica

Ejemplo:

11. Principio de superposición

Fuerza sobre un conductor rectilíneo.

Analizando la expresión:

En la figura, se muestra la dirección y sentido de la fuerza que ejerce el campo magnético B sobre un
portador de carga positivo q, que se mueve hacia la izquierda con velocidad v.

En un elemento de longitud dl la fuerza será:

Si el conductor es rectilíneo F = i ut x B L

15. Principio de Arquímedes

Principio de Arquímedes afirma que todo cuerpo sumergido en un fluido experimenta un empuje vertical y
hacia arriba igual al peso de fluido desalojado.

La explicación del principio de Arquímedes consta de dos partes como se indica en la figura:

El estudio de las fuerzas sobre una porción de fluido en equilibrio con el resto del fluido.

La sustitución de dicha porción de fluido por un cuerpo sólido de la misma forma y dimensiones.

Empuje=peso=ρf·gV

Ejemplo:

Supongamos un cuerpo sumergido de densidad ρ rodeado por un fluido de densidad ρf. El área de la base
del cuerpo es A y su altura h.

La presión debida al fluido sobre la base superior es p1= ρfgx, y la presión debida al fluido en la base
inferior es p2= ρfg(x+h). La presión sobre la superficie lateral es variable y depende de la altura, está
comprendida entre p1 y p2.

Las fuerzas debidas a la presión del fluido sobre la superficie lateral se anulan. Las otras fuerzas sobre el
cuerpo son las siguientes:

Peso del cuerpo, mg

Fuerza debida a la presión sobre la base superior, p1·A

Fuerza debida a la presión sobre la base inferior, p2·A

En el equilibrio tendremos que

mg+p1·A= p2·A

mg+ρfgx·A= ρfg(x+h)·A

O bien,
mg=ρfh·Ag

16. Principio de Bernoulli o ley de la hidrodinámica

También denominado ecuación de Bernoulli, describe el comportamiento de un fluido moviéndose a lo


largo de una línea de corriente. Fue expuesto por Daniel Bernoulli en su obra Hidrodinámica (1738) y
expresa que en un fluido perfecto (sin viscosidad ni rozamiento) en régimen de circulación por un conducto
cerrado, la energía que posee el fluido permanece constante a lo largo de su recorrido. La energía de un
fluido en cualquier momento consta de tres componentes:

Retama: Es la energía debida a la velocidad que posea el fluido.

Potencial gravitacional: Es la energía debido a la altitud que un fluido posea.

Potencial Presión: Es la energía que un fluido contiene debido a la presión que posee.

Esquema del principio de Bernoulli

La ecuación de Bernoulli describe el comportamiento de un fluido bajo condiciones variantes y tiene la


forma siguiente:

Ejemplo:

Consideremos un depósito ancho con un tubo de desagote angosto como el de la figura. Si destapamos el
caño, el agua circula. ¿Con qué velocidad? ¿Cuál será el caudal? En A y en B la presión es la atmosférica
PA=PB=Patm. Como el diámetro del depósito es muy grande respecto del diámetro del caño, la velocidad
con que desciende la superficie libre del agua del depósito es muy lenta comparada con la velocidad de
salida, por lo tanto podemos considerarla igual a cero, VA = 0

La ecuación de Bernoulli queda entonces:

D. g. hA + pA= 1/2. D. hB + pB

Entonces es:

g . hA = 1/2. vB² + g. hB de donde VB²= 2. .g. (hA-hB)

De donde se deduce que:

VB² = 2. g(hA - hB)

17. La ley de Graham (ley de la difusión)

La difusión es el proceso por el cual una substancia se distribuye uniformemente en el espacio que la
encierra o en el medio en que se encuentra. Por ejemplo: si se conectan dos tanques conteniendo el mismo
gas a diferentes presiones, en corto tiempo la presión es igual en ambos tanques. También si se introduce
una pequeña cantidad de gas A en un extremo de un tanque cerrado que contiene otro gas B, rápidamente
el gas A se distribuirá uniformemente por todo el tanque. La difusión es una consecuencia del movimiento
continuo y elástico de las moléculas gaseosas. Gases diferentes tienen distintas velocidades de difusión.
Para obtener información cuantitativa sobre las velocidades de difusión se han hecho muchas
determinaciones. En una técnica el gas se deja pasar por orificios pequeños a un espacio totalmente vacío;
la distribución en estas condiciones se llama efusión y la velocidad de las moléculas es igual que en la
difusión. Los resultados son expresados por la ley de Graham. "La velocidad de difusión de un gas es
inversamente proporcional a la raíz cuadrada de su densidad."

En donde v1 y v2 son las velocidades de difusión de los gases que se comparan y d1 y d2 son las
densidades. Las densidades se pueden relacionar con la masa y el volumen porque d = m/v; cuando M sea
igual a la masa (peso) molecular y V al volumen molecular, podemos establecer la siguiente relación entre
las velocidades de difusión de dos gases y su peso molecular.
Y como los volúmenes moleculares de los gases en condiciones iguales de temperatura y presión son
idénticos, es decir V1 = V2, en la ecuación anterior sus raíces cuadradas se cancelan, quedando:

Es decir: la velocidad de difusión de un gas es inversamente proporcional a la raíz cuadrada de su peso


molecular.

Ejemplo:

¿Qué gas tiene mayor velocidad de difusión, el neón o el nitrógeno?

Primero se necesita conocer las densidades de los gases que intervienen. Como una mol de gas ocupa 22.4
litros a T.P.E., sus densidades serán (peso molecular/volumen).

Neón = 20/22.4 = 0.88 g/lt

Nitrógeno = 28/22.4 = 1.25 g/lt

Sea v1 = velocidad de difusión del nitrógeno y v2 = velocidad de difusión del neón.

Es decir, el nitrógeno tiene una velocidad de difusión 0.84 veces menor que la del neón.

18. Ley de nodos de Kirchoff

"La suma de las corrientes que llegan a un nodo (o unión) es igual a la suma de las corrientes que salen del
nudo". Si se le asigna signos (+ y -) a las corriente del circuito (positivo las corrientes que entran y negativo
las corrientes que salen), entonces, "El sumatorio de las corrientes que convergen en un nodo es igual a
cero". Matemáticamente:

19. Ley de mallas de Kirchoff

"La suma algebraica de las caídas y elevaciones de voltaje en una malla es igual a la suma de las caídas de
potencial a lo largo de ella". Esta es una expansión de la Ley de Ohm. Si se toma en consideración que
cualquier elemento resistivo posee una caída (perdida) de tensión, entonces podemos decir que "El
sumatorio de las tensiones en un lazo cerrado es igual a cero". Matemáticamente:

Ejemplo de las leyes de Kirchoff:

Las flechas representan la dirección del flujo de la corriente en el nudo. I1 entra a la unión, considerando
que I2 e I3 salen. Si I1 fuera 20 A e I3 fuera 5 A, I2 tendría 15 A, según la ley de voltaje de I1=I2 + I3. La ley
de Kirchoff para los voltajes es, la suma de voltajes alrededor de un circuito cerrado es igual a cero.

20. Ley de Ohm

George Simón Ohm, descubrió en 1827 que la corriente en un circuito de corriente continua varía
directamente proporcional con la diferencia de potencial, e inversamente proporcional con la resistencia
del circuito. La ley de Ohm, establece que la corriente eléctrica (I) en un conductor o circuito, es igual a la
diferencia de potencial (V) sobre el conductor (o circuito), dividido por la resistencia (R) que opone al paso,
él mismo. La ley de Ohm se aplica a la totalidad de un circuito o a una parte o conductor del mismo.

I = V / R;

V=IxR

Ejemplo:

Se tiene una fuente de voltaje de 24 voltios corriente directa (24 V DC) conectada a los terminales de una
resistencia. Mediante un amperímetro conectado en serie en el circuito se mide la corriente y se obtiene
una lectura de 2 Amperios. ¿Cuál es la resistencia que existe en el circuito?

Aplicando la ley de Ohm tenemos que:

T/I=R
Entonces reemplazamos:

24 / 2 = 12 R (ohmios)

21. Ley de elasticidad de Hooke

Originalmente formulada para casos de estiramiento longitudinal, establece que la deformación ε de un


material elástico es directamente proporcional a la fuerza aplicada F:

Donde ΔL: alargamiento longitudinal, L: Longitud original, E: módulo de Young o módulo de elasticidad, A
sección transversal de la pieza estirada. La ley se aplica a materiales elásticos hasta un límite denominado
límite de elasticidad.

Esquema de la ley de Hooke

22. Ley de la inversa del cuadrado o ley cuadrática inversa

Refiere a algunos fenómenos físicos cuya intensidad disminuye con el cuadrado de la distancia al centro
donde se originan. En particular, se refiere a fenómenos ondulatorios (sonido y luz) y campos centrales.

Ilustración de la ley de la inversa del cuadrado. Las líneas representan el flujo que emana de una fuente
puntual. La densidad de líneas de flujo disminuye a medida que aumenta la distancia.

Ejemplo:

La ley de la inversa del cuadrado para la intensidad de una onda sonora lumínica o de otro tipo puede ser
deducida rigurosamente a partir de la ecuación de onda (1) y la definición de intensidad (2), tal como sigue.
Se parte de las siguientes ecuaciones:

Para una onda esférica emitida por una fuente puntual, Ψ sσlo depende de la distancia r al centro de
emisión y por tanto escribiendo el operador laplaciano que aparece en la ecuación de onda (1) en
coordenadas esféricas para Ψ = Ψ(r,t) se tiene:

La solución de la ecuación de onda anterior, con c = ω/k, es:

Se puede aplicar la ecuación (1) para la intensidad o promedio cuadrático temporal <Ψ2>t es igual a:

Es decir, este último resultado muestra que la intensidad decrece con el cuadrado de la distancia al centro
emisor, que es lo que se pretendía probar.

Deducción de la ley inversa para ondas

La onda reflejada (y también la refractada) está formada por la envolvente de las ondas elementales
producidas al mismo tiempo en puntos distintos de la superficie. El rayo reflejado es perpendicular a la
onda reflejada, como el rayo incidente respecto a la onda incidente.

23. Principio de Huygens-Fresnel

El principio de Huygens es un método de análisis aplicado a los problemas de propagación de ondas. Puede
enunciarse así: ... La interferencia de la luz de áreas con distancias variables del frente de onda móvil
explica los máximos y los mínimos observables como franjas de difracción.

24. Principio de Fermat

El rayo incidente se divide en dos partes, de manera que satisface las condiciones para las cuales el
recorrido entre dos puntos a través de la superficie de separación, se realiza en un tiempo mínimo.

25. Principio de equivalencia

Es el principio físico fundamental de la relatividad general y, en general, de cualquier teoría métrica de la


gravedad.
Afirma que puntualmente es indistinguible un sistema campo gravitatorio de un sistema de referencia no
inercial acelerado. Así fijado un determinado acontecimiento instantáneo de naturaleza puntual p (un
evento o suceso) en el seno de un campo gravitatorio puede ser descrito por un observador acelerado
situado en ese punto, como moviéndose libremente. Es decir, existe cierto observador acelerado que no
tiene forma de distinguir si las partículas se mueven o no dentro de un campo gravitario.

26. Principio de Maxwell

Consiste en asignar al circuito eléctrico en estudio unas corrientes circulares ficticias que sirven únicamente
para el planteo de las ecuaciones fundamentales. Cada corriente circular determina una malla, y las
ecuaciones de malla son planteadas según la segunda ley de Kirchhoff:

Es decir que la suma de las fuerzas electromotrices es igual a la suma de las caídas de potencial.

27. Principio de Pascal

Es una ley enunciada por el físico y matemático francés Blaise Pascal (1623-1662) que se resume en la frase:
«el incremento de presión aplicado a una superficie de un fluido incompresible, contenido en un recipiente
indeformable, se transmite con el mismo valor a cada una de las partes del mismo».

El principio de Pascal puede comprobarse utilizando una esfera hueca, perforada en diferentes lugares y
provista de un émbolo. Al llenar la esfera con agua y ejercer presión sobre ella mediante el embolo, se
observa que el agua sale por todos los agujeros con la misma presión.

Donde:

: presión total a la profundidad .

: Presión sobre la superficie libre del fluido.

Si se aumenta la presión sobre la superficie libre, por ejemplo, la presión total en el fondo ha de aumentar
en la misma medida, ya que el término ρgh no varía al no hacerlo la presión total (obviamente si el fluido
fuera compresible, la densidad del fluido respondería a los cambios de presión y el principio de Pascal no
podría cumplirse).

Ejemplo:

(La Presa Hidráulica)

El principio de Pascal fundamenta el funcionamiento de las genéricamente llamadas máquinas hidráulicas:


la prensa, el gato, el freno, el ascensor y la grúa, entre otras.

Este dispositivo, llamado prensa hidráulica, nos permite prensar, levantar pesos o estampar metales
ejerciendo fuerzas muy pequeñas. Veamos cómo lo hace.

28. Principio de Cavalieri

Es una ley geométrica que enuncia que la similitud de volumen en dos cuerpos. El enunciado podría ser: "Si
dos cuerpos poseen la misma altura y además tienen la misma área en sus secciones planas realizadas a
una misma altura, poseen entonces: igual volumen". Hoy en día en la moderna teoría de geometría
analítica el principio de Cavalieri es tomado como un caso especial del Principio de Fubini. Cavalieri no hizo
un uso extensivo del principio, empleándolo sólo en su Método de las indivisibles que expone en el año
1635 con la publicación de su obra Geometría indivisibilibus y también aparece en 1647 en su
Exercitationes Geometricae. Antes del principio siglo XVII sólo se podría calcular el volumen de algunos
cuerpos especiales ya tratados geométricamente por los resultados obtenidos por el griego Arquímedes y
Kepler. La idea del cálculo de volúmenes mediante la comparación de secciones dió paso al desarrollo de
los primeros pasos del cálculo infinitesimal así como de las integrales.

Ejemplo:
La sección de un cilindro proporciona un círculo si éste se hace perpendicular al eje de rotación principal del
mismo, el área de dicha sección es πr2, cuando r es el radio de la superficie (o de la parte interior el
cilindro). Por el principio de Cavalieri el volumen del cilindro es igual al de un paralepípedo cuando éste
posee la misma altura h, siempre que la sección del paralepípedo tenga el mismo área y por lo tanto ambos
poseen un volumes de .

(Semiesfera)

Sección vertical (superior) y horizontal (inferior) a través de una semiesfera

La sección a lo largo de una semi-esfera de radio r muestra una superficie circular que si se realiza a una
altura h paralela al horizonte, mediante el teorema de Pitágoras se obtiene un círculo de radio

Donde la superficie de la sección es por lo tanto

29. Principio de acoplamiento mínimo

Es una prescripción que indica cómo hacer que una ley o fórmula física sea invariante frente a alguna
transformación (transformación general de coordenadas, transformación gauge).

30. Principio de correspondencia

Es la única herramienta que los físicos poseen para seleccionar teorías cuánticas correspondientes a la
relatividad. Los principios de la mecánica cuántica son completamente abiertos - por ejemplo, estos
establecen que los estados de un sistema físico ocupa un espacio de Hilbert, pero no aclara que tipo de
espacio de Hilbert. El principio de correspondencia limita las opciones a esas que reproducen a la mecánica
clásica en el límite de correspondencia. Por esta razón, Bohm ha discutido que la física clásica no emerge de
la física cuántica del mismo modo en que la mecánica clásica emerge de la aproximación de la relatividad
especial en velocidades pequeñas; pero, física clásica existe independientemente de la teoría cuántica y no
puede ser derivada de ella.

31. Principio de mínima o menor acción o principio de Hamilton

Es un presupuesto básico de la mecánica clásica y la mecánica relativista para describir la evolución a lo


largo del tiempo del estado de movimiento de una partícula como de un campo físico. (También en
mecánica cuántica Feynman y Kac intentaron formulaciones inspiradas en el principio).

32. Ley de Planck

La intensidad de la radiación emitida por un cuerpo negro con una temperatura T viene dada por la ley de
Planck:

Donde:

es la cantidad de energía por unidad de área, unidad de tiempo y unidad de ángulo sólido emitida en el
rango de frecuencias entre y .

h es una constante que se conoce como constante de Planck

c es la velocidad de la luz

k es la constante de Boltzmann.

La longitud de onda en la que se produce el máximo de emisión viene dada por la ley de Wien y la potencia
total emitida por unidad de área viene dada por la ley de Stefan-Boltzmann. Por lo tanto, a medida que la
temperatura aumenta el brillo de un cuerpo cambia del rojo al amarillo y al azul.

33. ley de las presiones parciales

Fue formulada por el físico, químico y matemático británico John Dalton. Establece que la presión de una
mezcla de gases, que no reaccionan químicamente, es igual a la suma de las presiones parciales que
ejercería cada uno de ello si él solo ocupase todo el volumen de la mezcla, sin cambiar la temperatura.
Cuando Dalton formuló por primera vez su teoría atómica poco había elaborado la teoría acerca de la
vaporización del agua y del comportamiento de las mezclas gaseosas. A partir de sus mediciones dedujo
que dos gases son una mezcla y que actuaban de una manera mutuamente independiente.

34. ley de Stefan-Boltzman.

Establece que toda materia que no se encuentra a una temperatura infinita emite dos radiaciones térmicas.
Estas radiaciones se originan a partir de la energía térmica de la materia ilimitada por la superficie mas baja
por la que fluyen, la velocidad a la que libera energía por unidad de área (W/m2) se denomina la potencia
emisiva superficial E. Hay un límite superior para la potencia emisiva, que es establecida por esta ley:

Donde Te es la temperatura efectiva o sea la temperatura absoluta de la superficie y sigma es la constante


de Stefan Boltzmann:

Dicha superficie se llama radiador ideal o cuerpo negro.

Ejemplos:

Primera determinación de la temperatura del Sol

Utilizando su ley Stefan determinó la temperatura de la superficie del Sol. Tomó los datos de Charles Soret
(1854–1904) que determinó que la densidad del flujo de energía del Sol es 29 veces mayor que la densidad
del flujo de energía de una fina placa de metal caliente. Puso la placa de metal a una distancia del
dispositivo de la medición que permitía verla con el mismo ángulo que se vería el Sol desde la Tierra. Soret
estimó la temperatura del placa era aproximadamente 1900 °C a 2000 °C. Stefan pensó que el flujo de
energía del Sol es absorbido en parte por la atmósfera terrestre, y tomó para el flujo de energía del Sol un
valor 3/2 veces mayor, a saber .

Las medidas precisas de la absorción atmosférica no se realizaron hasta 1888 y 1904. La temperatura que
Stefan obtuvo era un valor intermedio de los anteriores, 1950 °C (2223 K). Como 2,57 4 = 43,5, la ley de
Stephan nos dice que la temperatura del Sol es 2,57 veces mayor que la temperatura de un placa de metal,
así que Stefan consiguió un valor para la temperatura de la superficie del Sol de 5713 K (el valor moderno
es 5780 K). Éste fue el primer valor sensato por la temperatura del Sol. Antes de esto, se obtuvieron valores
tan pequeños como 1800 °C o tan altos como 13.000.000 °C. El valor de 1800 °C fue hallado por Claude
Servais Mathias Pouillet (1790-1868) en 1838. Si nosotros concentramos la luz del Sol con una lente,
podemos calentar un sólido hasta los 1800 °C.

Las temperaturas y radios de las estrellas

La temperatura de las estrellas puede obtenerse suponiendo que emiten radiación como un cuerpo negro
de manera similar que nuestro Sol.

La Luminosidad L de la estrella vale:

Donde σ es la constante de Stefan-Boltzmann , R es el radio estelar y T es la temperatura de la estrella.

Esta misma fórmula puede usarse para computar el radio aproximado de una estrella de la secuencia
principal y por tanto similar al Sol:

Donde , es el radio solar.

Con la ley de Stefan-Boltzmann, los astrónomos puede inferir los radios de las estrellas fácilmente. La ley
también se usa en la termodinámica de un agujero negro en la llamada radiación de Hawking.

34. ley de Wien

Es una ley de la física. Específica que hay una relación inversa entre la longitud de onda en la que se
produce el pico de emisión de un cuerpo negro y su temperatura.
Donde T es la temperatura del cuerpo negro en Kelvin (K) y λmax es la longitud de onda del pico de emisión
en metros.

Ejemplo:

El volframio es el metal que tiene a la vez la temperatura más alta de fusión 3680 K y el menor grado de
evaporación. El carbono soporta temperaturas más elevadas antes de fundirse pero se evapora
rápidamente.

En la práctica, la temperatura más alta que soporta una lámpara incandescente ordinaria fabricada con
filamento de volframio es de 2900 K. A estas temperaturas solamente, una pequeña fracción de de la
energía emitida está en la región visible, menos del 11%, la mayor parte es radiación infrarroja. Por lo que
las lámparas incandescentes son poco eficientes en la emisión de luz visible.

35. Principio De Objetividad Material

Afirma que para un medio continuo cualquiera el estado tensional es independiente del sistema de
coordenadas elegido para medirlo. Un material para el cual se cumple la última igualdad de invariancia se
llama material objetivo.

El principio puede expresare matemáticamente para cualquier sólido deformable: si llamamos t(x,n) a la
tensión en un punto x, medida según la normal n al plano π, entonces si R es cualquier matriz de una
rotación alrededor del punto x debe cumplirse que:

Todos los materiales físicamente realistas deben cumplir el principio de objetividad material. Esta condición
de objetividad material interviene como una de las premisas del teorema de Rivlin-Ericksen sobre
ecuaciones constitutivas de materiales isótropos.

36. Principio de superposición o teorema de superposición

Es una proposición que afirma que cuando las ecuaciones de comportamiento que rigen un problema físico
son lineales entonces el resultado de una medida o la solución de un problema práctico relacionado con
una magnitud extensiva asociada al fenómeno, cuando están presentes los conjuntos de factores causantes
A y B puede obtenerse como la suma de los efectos de A más los efectos de B.

37. ley de Fick

Es una ley cuantitativa en forma de ecuación diferencial que describe diversos casos de difusión de materia
o energía en un medio en el que inicialmente no existe equilibrio químico o térmico. Recibe su nombre
Adolf Fick, que las derivó en 1855.

En situaciones en las que existen gradientes de concentración de una sustancia, o de temperatura, se


produce un flujo de partículas o de calor que tiende a homogeneizar la disolución y uniformizar la
concentración o la temperatura. El flujo homogeneizador es una consecuencia estadística del movimiento
azaroso de las partículas que da lugar al segundo principio de la termodinámica, conocido también como
movimiento térmico casual de las partículas. Así los procesos físicos de difusión pueden ser vistos como
procesos físicos o termodinámicos irreversibles.

La ley de Fick afirma que la densidad de corriente de partículas es proporcional al gradiente de


concentración

Ejemplo:

El siguiente ejemplo, explica las características esenciales de la mezcla en un estuario, del agua salada
procedente del mar con el agua de un río. El agua del río menos densa fluye sobre el agua de mar. Hay por
tanto, una discontinuidad en la densidad con la profundidad, debido a las diferencias de salinidad.

Consideremos la siguiente distribución unidimensional de la concentración

c=c0 para x<0


c=0, para x>0

En el instante t=0.

La solución de la ecuación de la difusión es

La función error se define

D=1.484·10-9 m2/s es el coeficiente de difusión de la sal en agua pura.

38. Ley de Lenz

La Ley de Lenz nos dice que las fuerzas electromotrices o las corrientes inducidas serán de un sentido tal
que se opongan a la variación del flujo magnético que las produjeron. Esta ley es una consecuencia del
principio de conservación de la energía.

La polaridad de una FEM inducida es tal, que tiende a producir una corriente, cuyo campo magnético se
opone siempre a las variaciones del campo existente producido por la corriente original.

El flujo de un campo magnético uniforme a través de un circuito plano viene dado por:

donde:

Φ = Flujo magnético. La unidad en el S.I. es el weber (Wb).

B = Inducción magnética. La unidad en el S.I. es el tesla (T).

S = Superficie del conductor.

α = Ángulo que forman el conductor y la dirección del campo.

Si el conductor está en movimiento el valor del flujo será:

En este caso la Ley de Faraday afirma que la FEM inducida en cada instante tiene por valor:

El signo (-) de la expresión anterior indica que la FEM inducida se opone a la variación del flujo que la
produce. Este signo corresponde a la ley de Lenz.

Esta ley se llama así en honor del físico germano-báltico Heinrich Lenz, quien la formuló en el año 1834.

La formulación débil se puede enunciar de la siguiente manera: "El movimiento de cualquier partícula de
prueba en caída libre es independiente de su composición y estructura". Este principio se remonta al libro
de Galileo Galilei Diálogos Sobre las Dos Nuevas Ciencias, en el cual Galileo narra que después de realizar
varios experimentos con diferentes tipos de materiales, llega a la conclusión de que en un medio sin
resistencia todos los cuerpos caen con la misma aceleración.

39. Principio de equivalencia débil

La formulación de Einstein se obtiene al incorporar la Relatividad Especial al Principio de Equivalencia de


Galileo. Formalmente puede enunciarse de la manera siguiente:

El resultado de cualquier experimento no gravitacional en un laboratorio desplazándose en un sistema de


referencia inercial es indepediente de la velocidad del laboratorio o de su localización en el espacio-tiempo.

Esta es la forma más usual del principio de equivalencia. Otra forma de formular el principio de
equivalencia fuerte es que en una vecindad lo suficientemente pequeña del espacio-tiempo, las leyes de la
física no gravitacionales obedecen las leyes de la relatividad especial en un marco de referencia en caída
libre o marco geodésico, es decir un marco de referencia cuyo origen de coordenadas se mueve a lo largo
de una línea geodésica.

40. Principio de equivalencia de Einstein


Principio de equivalencia. El principio de equivalencia es el principio físico de la relatividad general y de
varias otras teorías métricas de la gravedad. ... Es decir, existe cierto observador acelerado que no tiene
forma de distinguir si las partículas se mueven o no dentro de un campo gravitatorio.

41. Principio de equivalencia fuerte

El principio de equivalencia fuerte se formula de la siguiente manera:

El movimiento gravitacional de un cuerpo test depende únicamente de su posición inicial en el espacio


tiempo y no de su constitución y el resultado de cualquier experimento local, gravitacional o no, en un
laboratorio moviéndose en un sistema de referencia inercial es independiente de la velocidad del
laboratorio y de su localización en el espacio-tiempo.

Es decir, en un marco de referencia en caída libre, y en una vecindad lo suficientemente pequeña del
espacio-tiempo, todas las leyes de la física obedecen las leyes de Relatividad Especial.

El principio de equivalencia fuerte sugiere que la gravedad es de naturaleza puramente geométrica (esto
es, la métrica determina los efectos de la gravedad) y no contiene ningún campo adicional asociado con
ella.

42. Ley del efecto joule

Este efecto fue definido de la siguiente manera: "La cantidad de energía calorífica producida por una
corriente eléctrica, depende directamente del cuadrado de la intensidad de la corriente, del tiempo que
ésta circula por el conductor y de la resistencia que opone el mismo al paso de la corriente".
Matemáticamente se expresa como

Donde:

Q = Energía calorífica producida por la corriente

I = Intensidad de la corriente que circula

R = Resistencia eléctrica del conductor

t = Tiempo

Así, la potencia disipada por efecto Joule será:

Donde V es la diferencia de potencial entre los extremos del conductor.

Microscópicamente el efecto Joule se calcula a través de la integral de volumen del campo eléctrico por la
densidad de corriente :

43. Principio de refracción

Cuando la velocidad de propagación v1 en el primer medio es superior la v2 del segundo, el ángulo r que la
onda refractada forma con la normal a la superficie es menor respecto al de incidencia i, según la ley:

Cuando el primer medio es vacío se dice que el índice es absoluto.

En la siguiente tabla, se proporcionan datos acerca de los índices de refracción de diversas sustancias

Sustancia

Índice de refracción (línea sodio D)

Azúcar

1.56

Diamante
2.417

Mica

1.56-1.60

Benceno

1.504

Glicerina

1.47

Agua

1.333

Alcohol etílico

1.362

Aceite de oliva

1.46

44. Principio de reflexión

Ocurre cuando una onda luminosa incide sobre una superficie lisa que separa dos medios y es reemitida
hacia la fuente. Pero si la velocidad de propagación luminosa es distinta en cada medio, el rayo es desviado
y se produce la refracción.

La relación entre la energía de la luz reflejada y la incidente se llama factor de reflexión.

45. Ley del péndulo

Consideremos un péndulo cuyo brazo mide l, en el campo gravitacional de intensidad g (usualmente: 9,81
m.s-2), y sujeto a pequeñas oscilaciones.

El período T de oscilación del péndulo es dado por la fórmula:

Ejemplo:

A manera de ejemplo colocamos la demostración:

Sea θ el αngulo en radianes que hace el brazo con la vertical y m la masa del péndulo, al extremo de su
brazo, que se mueve con la velocidad: v = l·θ'.

La energía cinética del péndulo es: Ec = m·v2/2 = ml2θ'2/2.Se puede tomar su energía potencial igual a: Ep
= - m·g·l·cos θ

Este sistema no pierde energía, por lo tanto Ec + Ep es constante (1).

Al derivar (1) se obtiene: m·l2·θ'·θ" + m·g·l·θ'·sen θ = 0 (2).

Se puede simplificar (2) por m·l (no nulos) y por θ' (no idιnticamente nulo), lo que da:

l·θ" + g·sen θ = 0 (3).

Como se supone que θ es siempre pequeρo, se puede remplazar sen θ por θ cometiendo un error del orden
de θ3 (porque sin θ = θ + O (θ3)).

Entonces (3) equivale a:

l·θ" + g·θ = 0 o sea θ" = -(g/l)·θ (4)


Un movimiento oscilatorio sigue la ley θ = θM·sen (ω·t + φ) lo que implica que:

θ" = - ω2·θ. (5) (ω es la velociad angular de la ley y θM el ángulo máximo)

Identificando (4) y (5) se obtiene ω2 = g/l, es decir ω= √ (g/l).

Concluimos recordando que T = 2π/ω.

46. Primera Ley de Kepler

Todos los planetas se desplazan alrededor del Sol describiendo órbitas elípticas, estando el Sol situado en
uno de los focos.

47. Segunda ley de Kepler

El radio vector que une el planeta y el Sol barre áreas iguales en tiempos iguales.

El vector posición de cualquier planeta respecto del Sol, barre áreas iguales de la elipse en tiempos iguales.

La ley de las áreas es equivalente a la constancia del momento angular, es decir, cuando el planeta está más
alejado del Sol (afelio) su velocidad es menor que cuando está más cercano al Sol (perihelio). En el afelio y
en el perihelio, el momento angular L es el producto de la masa del planeta, por su velocidad y por su
distancia al centro del Sol.

48. tercera ley de Kepler

Para cualquier planeta, el cuadrado de su período orbital (tiempo que tarda en dar una vuelta alrededor del
Sol) es directamente proporcional al cubo de la distancia media con el Sol.

Donde, P es el periodo orbital, r la distancia media del planeta con el Sol y K la constante de
proporcionalidad.

Estas leyes se aplican a otros cuerpos astronómicos que se encuentran en mutua influencia gravitatoria
como el sistema formado por la Tierra y la Luna.

49. Ley de Bragg

La interferencia es constructiva cuando la diferencia de fase entre la radiación emitida por diferentes
átomos es proporcional a 2π. Esta condición se expresa en la ley de Bragg:}

Donde

n es un número entero,

λ es la longitud de onda de los rayos X,

d es la distancia entre los planos de la red cristalina y,

θ es el αngulo entre los rayos incidentes y los planos de dispersión.

50. Ley de la gravitación universal de Newton

La Ley de la Gravitación Universal de Newton establece que la fuerza que ejerce una partícula puntual con
masa m1 sobre otra con masa m2 es directamente proporcional al producto de las masas, e inversamente
proporcional al cuadrado de la distancia que las separa:

donde es el vector unitario que va de la partícula 1 a la 2, y donde es la constante de gravitación universal,


siendo su valor 6,67 × 10–11 Nm2/kg2.

A pesar de los siglos, hoy día sigue utilizándose cotidianamente esta ley en el ámbito del movimiento de
cuerpos incluso a la escala del sistema solar, aunque esté desfasada teóricamente. Para estudiar el
fenómeno en su completitud hay que recurrir a la Relatividad general.
Ejemplo:

Newton comparó la aceleración centrípeta de la Luna con la aceleración de la gravedad g=9.8 m/s2. La
aceleración centrípeta de la Luna es ac=v2/r=4p 2r/P2, con r=3.84·108 m y P=28 días=2.36·106 s, se obtiene
ac=2.72·10-3 m/s2. Por consiguiente,

Como el radio de la Tierra es 6.37·106 m, y el radio de la órbita de la Luna es 3.84·108 m, tenemos que

Por tanto,

Las aceleraciones de ambos cuerpos están en razón inversa del cuadrado de las distancias medidas desde el
centro de la Tierra.

CONCLUSIONES

El presente trabajo nos condujo por los principales fundamentos de la física así como las principales leyes
que estructuran y definen la física como una ciencia, además pudimos constatar como cada principio de la
física guarda una profunda relación con el entorno que la rodea como las subramas de la misma se
configuran como un todo un sistema.

También podría gustarte