Documentos de Académico
Documentos de Profesional
Documentos de Cultura
INVESTIGACIÓN
TEMAS DE FÍSICA
ÍNDICE:
FUNCIONAMIENTO DE UN 4
REFRIGERADOR
CÓDIGO DE COLORES 7
RESISTENCIAS
Y CAPACITORES
10
TEORÍA DE LA RELATIVIDAD
FÍSICA NUCLEAR 25
30
FÍSICA ATÓMICA
Sabemos que por el principio de cocción utilizado en este sistema, por distintas causas pueden
ocurrir fugas de microondas, y que ello constituye un riesgo de daños para el usuario.
Cualquier cuerpo que recibe las microondas, tiende a calentarse por frotamiento de sus partículas;
de manera que si éstas llegan a fugarse de la cavidad y alcanzan alguna parte de nuestro cuerpo,
podemos sufrir quemaduras que van desde las muy leves hasta las de tercer grado.
Por eso es importante que siempre que reparemos un horno de microondas, estemos seguros de
que no tenga ninguna fuga; de lo contrario, exponemos la integridad del usuario.
Es absolutamente necesario realizar esta verificación, cada vez que se brinde servicio a estos
equipos. Hay que tener especial cuidado en caso de que la puerta esté caída o tenga un movimiento
de vaivén muy notorio, y especialmente cuando descubra que en la cavidad existen puntos que se
han despintado (dentro, ninguna parte de la lámina debe estar sin su recubrimiento de pintura
especial, pues ésta evita que las microondas reboten hacia sitios no predesignados). Si esto
El pequeño enrejado o malla que está en la cara interna de la puerta de cualquier horno de
microondas, permite que la luz entre y evita que las radiaciones salgan de la cavidad; es decir,
trabaja como “atrapa ondas”. La incidencia de luz no representa ningún problema, pues su longitud
de onda es muy pequeña; mas como la de las microondas es mayor, éstas tienen que ser retenidas
de alguna manera; de ahí que se haya incorporado el “atrapa ondas” metálico.
Recomendamos a los usuarios que NUNCA destapen el aparato para revisar sus partes internas.
Sólo personal calificado puede efectuar su reparación.
Por último, conviene recordar que en el horno de microondas los alimentos se cuecen de adentro
hacia afuera. Si usted se expone a las microondas, es posible que no sienta dolor debido a que los
nervios se encuentran en la parte externa de la piel; mas cuando éstos detecten calentamiento, es
porque quizá ya esté quemada la parte interna de su cuerpo. En una palabra, TENGA USTED
MUCHO CUIDADO en este aspecto.
FUNCIONAMIENTO DE UN REFRIGERADOR
Pensar que hoy en dia nos parece tan comun guardar nuestros alimentos en un
refrigerador para que se concerven, y en realidad no me habia puesto pensar de
la gran utilidad que presta a la vida familiar y cotidiana,y es tan increible que
en genereciones anteriore, me contaba mi abuelo que ellos conservaban sus
alimentos guardandolos en el pozo o enterrandolos......bueno aca va un breve
Las relaciones de tensión, corriente y potencia según Ohm son útiles en todos lados, no sólo
para cursos introductorios de electricidad o redes, en cursos de sistemas eléctricos o
electrónica de potencia las leyes siguen invariantes (me refiero a que no pierden valor, son
fundamentales, lógicamente en cursos avanzados como los anteriores estas fórmulas ya
deberían estar en el ADN de uno…).
Para los condensadores, existe un código de colores para capacitores del tipo cerámicos
(distinto al código de resistencias), a la vez que existe el “código 101” (foto 2), el cual
señala la capacidad de un condensador a partir de los dígitos que posee. Como se muestra,
los dos primeros dígitos son significativos y el tercer dígito corresponde a la cantidad de
ceros que posee la cifra final, en pF (pico Faradios = 10^-12 Farad).
Adjunto en pdf un curso elemental de electricidad con más detalles de todo, gracias a
“Radio Club de Costa Rica” (…esto del mundo globalizado!): —> curso.
Igual buen aporte de Globalelectrónica para los electrónicos. (¿Cómo será un aporte para
eléctricos de altas potencias?)
Teoría de la Relatividad
Con el nombre de Teoría de la Relatividad se engloban generalmente dos cuerpos de
investigación en ciencias físicas, usualmente conectadas con las investigaciones del físico
Albert Einstein: su Teoría de la Relatividad Especial y su Teoría de la Relatividad General.
La primera, publicada en 1905, trata de la física del movimiento de los cuerpos en ausencia
de fuerzas gravitatorias. La segunda, de 1915, es una teoría de la gravedad que reemplaza a
la gravedad newtoniana pero se aproxima a ella en campos gravitatorios débiles. La teoría
especial se reduce a la general en ausencia de campos gravitatorios.
E = mc2
Contenido
1 Conceptos principales
o 1.1 Relatividad especial
o 1.2 Relatividad general
2 Formalismo de la Teoría de la Relatividad
o 2.1 Partículas
o 2.2 Campos
o 2.3 Magnitudes físicas
o 2.4 El intervalo relativista
o 2.5 Cuadrivelocidad, aceleración y cuadrimomentum
o 2.6 El tensor de energía-impulso (Tab)
o 2.7 El tensor electromagnético (Fab)
3 Véase también
4 Referencias
o 4.1 Bibliografía
5 Enlaces externos
Conceptos principales
La idea esencial de ambas teorías es que dos observadores que se mueven relativamente
uno al lado de otro con una gran velocidad, del orden de la de la luz, a menudo obtendrán
diferentes medidas del tiempo (intervalos de tiempo) y el espacio (distancias) para
describir las mismas series de eventos. Es decir, la percepción del espacio y el tiempo
depende del estado de movimiento del observador o es relativa al observador. Sin embargo,
a pesar de esta relatividad del espacio y el tiempo existe una forma más sutil de invariancia
física, ya que el contenido de las leyes físicas será el mismo para ambos observadores. Esto
último significa, que a pesar de que los observadores difieran en el resultado de medidas
concretas de magnitudes espaciales y temporales, encontrarán que las ecuaciones que
relacionan las magnitudes físicas tienen la misma forma con independencia de su estado de
movimiento. Este último hecho se conoce como principio de covariancia.
Relatividad especial
Tras la publicación del artículo de Einstein, la nueva Teoría de la relatividad especial fue
aceptada en unos pocos años por la practica totalidad de los físicos y los matemáticos, de
hecho personas como Poincaré o Lorentz habían estado muy cerca de llegar al mismo
resultado que Einstein. La forma geométrica definitiva de la teoría se debe a Hermann
Minkowski, antiguo profesor de Einstein en la Politécnica de Zürich, acuñó el término
"espacio-tiempo" (Raumzeit) y le dio la forma matemática adecuada2 El espacio-tiempo de
Minkowski es una variedad tetradimensional en la que se entrelazaban de una manera
insoluble las tres dimensiones espaciales y el tiempo. En este espacio-tiempo de
Minkowski, el movimiento de una partícula se representa mediante su línea de universo
(Weltlinie), una curva cuyos puntos vienen determinados por cuatro variables distintas: Las
tres dimensiones espaciales ( , , ) y el tiempo ( ). El nuevo esquema de Minkowski
obligó a reinterpretar los conceptos de la métrica existentes hasta entonces. El concepto
Relatividad general
Esquema de la curvatura del espacio-tiempo alrededor de una masa con simetría esférica.
La relatividad general fue publicada por Einstein en 1915, y fue presentada como
conferencia en la Academia de Ciencias prusiana el 25 de noviembre. La teoría generaliza
el principio de relatividad de Einstein para un observador arbitrario. Esto implica que las
ecuaciones de la teoría deben tener una forma de covariancia más general que la
covariancia de Lorentz usada en la teoría de la relatividad especial. Además de esto, la
teoría de la relatividad general propone que la propia geometría del espacio-tiempo se ve
afectada por la presencia de materia, de lo cual resulta una teoría relativista del campo
gravitatorio. De hecho la teoría de la relatividad general predice que el espacio-tiempo no
será plano en presencia de materia y que la curvatura del espacio-tiempo será percibida
como un campo gravitatorio.
Debe notarse que el matemático alemán David Hilbert escribió e hizo públicas las
ecuaciones de la covarianza antes que Einstein. Ello resultó en no pocas acusaciones de
plagio contra Einstein, pero probablemente sea más, porque es una teoría (o perspectiva)
geométrica. La misma postula que la presencia de masa o energía «curva» al espacio-
tiempo, y esta curvatura afecta la trayectoria de los cuerpos móviles e incluso la trayectoria
de la luz.
Partículas
Campos
Magnitudes físicas
Punto Evento
Distancia Intervalo
Velocidad Tetravelocidad
Momentum Tetramomentum
El intervalo relativista
El intervalo relativista puede definirse en cualquier espacio-tiempo sea este plano como en
la relatividad especial o curvo como en relatividad general. Sin embargo por simplicidad
discutiremos inicialmente el concepto de intervalo par el caso de un espacio-tiempo plano.
El tensor métrico del espacio-tiempo plano de Minkowski se designa con la letra y en
coordenadas galileanas o inerciales toma la siguiente forma:5
Los intervalos pueden ser clasificados en tres categorías: Intervalos espaciales (cuando ds2
es negativo), temporales (si ds2 es positivo) y nulos (cuando ds2 = 0). Como el lector habrá
podido comprobar, los intervalos nulos son aquellos que corresponden a partículas que se
mueven a la velocidad de la luz, como los fotones: La distancia dl2 recorrida por el fotón es
igual a su velocidad (c) multiplicada por el tiempo dt y por lo tanto el intervalo ds2 = c2dt2 −
dl2 se hace nulo.
Los intervalos nulos pueden ser representados en forma de cono de luz, popularizados por
el celebérrimo libro de Stephen Hawking, Historia del Tiempo. Sea un observador situado
en el origen, el futuro absoluto (los sucesos que serán percibidos por el individuo) se
despliega en la parte superior del eje de ordenadas, el pasado absoluto (los sucesos que ya
han sido percibidos por el individuo) en la parte inferior, y el presente percibido por el
observador en el punto 0. Los sucesos que están fuera del cono de luz no nos afectan, y por
lo tanto se dice de ellos que están situados en zonas del espacio-tiempo que no tienen
relación de causalidad con la nuestra.
Imagen de la galaxia Andrómeda tomada por el telescopio Spitzer. ¿Pueden llegar hasta nosotros
sucesos acaecidos tan sólo 100.000 años atrás? Evidentemente no. Se dice por tanto que entre
tales eventos y nosotros existe un intervalo espacial.
Podemos escoger otro episodio histórico todavía más ilustrativo: El de la estrella de Belén,
tal y como fue interpretada por Johannes Kepler. Este astrónomo alemán consideraba que
dicha estrella se identificaba con una supernova que tuvo lugar el año 5 a. C., cuya luz fue
observada por los astrónomos chinos contemporáneos, y que vino precedida en los años
anteriores por varias conjunciones planetarias en la constelación de Piscis. Esa supernova
probablemente estalló hace miles de años atrás, pero su luz no llegó a la tierra hasta el año
5 a. C. De ahí que el intervalo existente entre dicho evento y las observaciones de los
astrónomos egipcios y megalíticos (que tuvieron lugar varios siglos antes de Cristo) sea un
intervalo espacial, pues la radiación de la supernova nunca pudo llegarles. Por el contrario,
la explosión de la supernova por un lado, y las observaciones realizadas por los tres magos
en Babilonia y por los astrónomos chinos en el año 5 a. C. por el otro, están unidas entre sí
por un intervalo temporal, ya que la luz sí pudo alcanzar a dichos observadores.
Componentes
Magnitud
La física newtoniana distinguía entre sistemas en reposo (cuya velocidad era nula) y
sistemas en movimiento, ya fuera este uniforme o acelerado. Sin embargo, la Teoría de la
Relatividad abandonó dicha clasificación por una nueva en la que distingue entre sistemas
inerciales (aquellos cuya velocidad es constante, incluidos los que están en reposo relativo)
y sistemas no inerciales, cuyo movimiento no es constante, sino acelerado. La aceleración
puede ser definida como la derivada temporal de la cuadrivelocidad (ai = dui / dτ). Su
magnitud es igual a cero en los sistemas inerciales, cuyas líneas del mundo son geodésicas,
rectas en el espacio-tiempo llano de Minkowski. Por el contrario, las líneas del mundo
curvadas corresponden a partículas con aceleración diferente de cero, a sistemas no
inerciales.
Junto con los principios de invarianza del intervalo y la cuadrivelocidad, juega un papel
fundamental la ley de conservación del cuadrimomentum. Es aplicable aquí la definición
newtoniana del momentum ( ) como la masa (en este caso conservada, μ)
multiplicada por la velocidad (en este caso, la cuadrivelocidad), y por lo tanto sus
componentes son los siguientes: , teniendo en cuenta que . La
cantidad de momentum conservado es definida como la raíz cuadrada de la norma del
vector de cuadrimomentum. El momentum conservado, al igual que el intervalo y la
cuadrivelocidad propia, permanece invariante ante las transformaciones de coordenadas,
aunque también aquí hay que distinguir entre los cuerpos con masa y los fotones. En los
primeros, la magnitud del cuadriomentum es igual a la masa multiplicada por la velocidad
de la luz ( | p | = μc). Por el contrario, el cuadrimomentum conservado de los fotones es
igual a la magnitud de su momentum tridimensional ( | p | = p).
Componentes
Energía
Partículas
Concepto Componentes Expresión algebraica Fotones
con masa
Intervalo
Cuadrivelocidad
Cuadrivelocidad
no definida
(sistemas
inerciales)
Aceleración
Aceleración
no definida
(sistemas
no
inerciales)
Cuadrimomentum
Tensor de tensión-energía
Tres son las ecuaciones fundamentales que en física newtoniana describen el fenómeno de
la gravitación universal: La primera, afirma que la fuerza gravitatoria entre dos cuerpos es
proporcional al producto de sus masas e inversamente proporcional al cuadrado de su
Sin embargo, estas ecuaciones no son compatibles con la Relatividad Especial por dos
razones:
En primer lugar la masa no es una magnitud absoluta, sino que su medición deriva en
resultados diferentes dependiendo de la velocidad relativa del observador. De ahí que la
densidad de masa no puede servir de parámetro de interacción gravitatoria entre dos
cuerpos.
En segundo lugar, si el concepto de espacio es relativo, también lo es la noción de
densidad. Es evidente que la contracción del espacio producida por el incremento de la
velocidad de un observador, impide la existencia de densidades que permanezcan
invariables ante las transformaciones de Lorentz.
Por todo ello, resulta necesario prescindir del término , situado en el lado derecho de
la fórmula de Poisson y sustituirlo por un objeto geométrico-matemático que
permanezca invariante ante las transformaciones de Lorentz: Dicho objeto fue definido
por Einstein en sus ecuaciones de universo y recibe el nombre de tensor de energía-
momentum ( ). Sus coeficientes describen la cantidad de tetramomentum que
atraviesa una hipersuperficie , normal al vector unitario .
En un fluido ideal, del que están ausentes tanto la viscosidad como la conducción de calor,
los componentes del tetramomentum se calculan de la siguiente forma:
Además, si los componentes del tensor se miden por un observador en reposo relativo
respecto al fluido, entonces, el tensor métrico viene constituido simplemente por la métrica
de Minkowski:
Puesto que además la tetravelocidad del fluido respecto al observador en reposo es:
como consecuencia de ello, los coeficientes del tensor de tensión-energía son los siguientes:
Parte de la materia que cae en el disco de acreción de un agujero negro es expulsada a gran
velocidad en forma de chorros. En supuestos como éste, los efectos gravitomagnéticos pueden
llegar a alcanzar cierta importancia.
Del mismo modo, es posible deducir matemáticamente a partir del tensor de tensión-
energía la definición newtoniana de presión, introduciendo en la mentada ecuación
cualquier par de índices que sean diferentes de cero:
La hipersuperficie es aquella región del espacio-tiempo definida por los tres vectores
unitarios normales a (se trata de los dos vectores espaciales, y , correspondientes
a los ejes y y z; y del vector temporal —o , como se prefiera—). Esta definición nos
permite descomponer la integral de hipersuperficie en una integral temporal (cuyo
integrando viene definido por ) y otra de superficie (esta vez bidimensional, ):
Que contiene la definición newtoniana de la presión como fuerza ejercida por unidad de
superficie.
Las ecuaciones deducidas por el físico escocés James Clerk Maxwell demostraron que
electricidad y magnetismo no son más que dos manifestaciones de un mismo fenómeno
físico: el campo electromagnético. Ahora bien, para describir las propiedades de este campo
los físicos de finales del siglo XIX debían utilizar dos vectores diferentes, los
correspondientes los campos eléctrico y magnético.
Fue la llegada de la Relatividad Especial la que permitió describir las propiedades del
electromagnetismo con un sólo objeto geométrico, el vector cuadripotencial, cuyo
componente temporal se correspondía con el potencial eléctrico, mientras que sus
componentes espaciales eran los mismos que los del potencial magnético.
De este modo, el campo eléctrico puede ser entendido como la suma del gradiente del
potencial eléctrico más la derivada temporal del potencial magnético:
FÍSICA NUCLEAR
La física nuclear es una rama de la física moderna que estudia las propiedades y el
comportamiento de los núcleos atómicos. La física nuclear es conocida mayoritariamente
por la sociedad en su papel en la energía nuclear en centrales nucleares y en el desarrollo de
armas nucleares, tanto de fisión como de fusión nuclear. En un contexto más amplio, se
define la física nuclear y física de partículas como la rama de la física que estudia la
estructura fundamental de la materia y las interacciones entre las partículas subatómicas.
Contenido
1 Primeros experimentos
2 Reacciones nucleares
o 2.1 Colisión inelástica
o 2.2 Colisión elástica
o 2.3 Desintegración nuclear
o 2.4 Fisión
o 2.5 Fusión
3 Detección
o 3.1 Análisis radioquímico como apoyo a la detección
o 3.2 Análisis mediante activación neutrónica
4 Científicos relevantes en la física nuclear
5 Véase también
Primeros experimentos
La radiactividad fue descubierta en las sales de uranio por el físico francés Henri Becquerel
en 1896.
En 1898, los científicos Marie y Pierre Curie descubrieron dos elementos radiactivos
existentes en la naturaleza, el polonio (84Po) y el radio (88Ra).
Durante la década de 1930, Irène y Jean Frédéric Joliot-Curie obtuvieron los primeros
nucleidos radiactivos artificiales bombardeando boro (5B) y aluminio (13Al) con partículas
α para formar isótopos radiactivos de nitrógeno (7N) y fósforo (15P). Algunos isótopos de
estos elementos presentes en la naturaleza son estables. Los isótopos inestables se
encuentran en proporciones muy bajas.
En 1932 James Chadwick realizó una serie de experimentos con una radiactividad especial
que definió en términos de corpúsculos, o partículas que formaban esa radiación. Esta
nueva radiación no tenía carga eléctrica y poseía una masa casi idéntica a la del protón.
Inicialmente se postuló que fuera resultado de la unión de un protón y un electrón formando
una especie de dipolo eléctrico. Posteriores experimentos descartaron esta idea llegando a
la conclusión de que era una nueva partícula procedente del núcleo a la que se llamó
neutrones.
Los científicos alemanes Otto Hahn y Fritz Strassmann descubrieron la fisión nuclear en
1938. Cuando se irradia uranio con neutrones, algunos núcleos se dividen en dos núcleos
con números atómicos. La fisión libera una cantidad enorme de energía y se utiliza en
armas y reactores de fisión nuclear.
Reacciones nucleares
Colisión inelástica
Estas reacciones se estudian colocando muestras dentro de los reactores nucleares para
producir un flujo alto de neutrones (número elevado de neutrones por unidad de área).
Los núcleos también pueden reaccionar entre ellos pero, si están cargados positivamente, se
repelen entre sí con gran fuerza. Los núcleos proyectiles deben tener una energía lo
bastante alta como para superar la repulsión y reaccionar con los núcleos blanco. Los
núcleos de alta energía se obtienen en los ciclotrones, en los generadores de Van de Graaff
y en otros aceleradores de partículas.
Una reacción nuclear típica es la que se utilizó para producir artificialmente el elemento
siguiente al uranio (238U), que es el elemento más pesado existente en la naturaleza. El
neptunio (Np) se obtuvo bombardeando uranio con deuterones (núcleos del isótopo
hidrógeno pesado, 2H) según la reacción:
Colisión elástica
Desintegración nuclear
Los núcleos atómicos consisten en protones, cargados positivamente y neutrones sin carga.
El número de protones de un núcleo es su número atómico, que define al elemento químico.
Todos los núcleos con 11 protones, por ejemplo, son núcleos de átomos de sodio (Na). Un
elemento puede tener varios isótopos, cuyos núcleos tienen un número distinto de
neutrones. Por ejemplo, el núcleo de sodio estable contiene 12 neutrones, mientras que los
que contienen 13 neutrones son radiactivos. Esos isótopos se anotan como y ,
donde el subíndice indica el número atómico, y el superíndice representa el número total de
nucleones, es decir, de neutrones y protones. A cualquier especie de núcleo designada por
un cierto número atómico y de neutrones se le llama nucleido.
Fisión
Los conceptos de fisión y fusión nuclear difieren en las características de formación de cada
uno. De esta forma se encuentra que la fisión (utilizada en las bombas y reactores
nucleares) consiste en el "bombardeo" de partículas subatómicas al uranio (o a cualquier
elemento transuránico, siempre y cuando sus características lo permitan), trayendo como
consecuencia la fisión (de allí su nombre) del átomo y con esto la de los demás átomos
adyacentes al bombardeado en reacción en cadena. Mientras que, la fusión es la unión bajo
ciertas condiciones (altas presiones, altas temperaturas, altas cargas, etc.) de dos o más
átomos y genera mucha más energía que la fisión.
Fusión
La fusión representa diversos problemas, ya que a nivel atómico las cargas de los átomos se
repelen entre sí impidiendo la unión de estos, por esto se recurre generalmente a la utilización de
isotópos ligeros, con menor carga eléctrica (como el hidrógeno y sus isótopos deuterio y tritio). En
ciertas condiciones, definidas por los criterios de Lawson, se lograría la fusión de dichos átomos.
Para ello primero se les debe convertir al estado de plasma, ionizándolos, favoreciendo a la unión.
Esto se consigue mediante dos métodos básicos: el confinamiento magnético y el confinamiento
inercial. Existen varias posibilidades para producir la fusión a partir de los isótopos del hidrógeno.
2. Las condiciones necesarias son tan extremas que solo se dan en el centro de las estrellas,
por lo que son muy difíciles de alcanzar y controlar.
Las técnicas conocidas de alcanzar las condiciones impuestas por los criterios de Lawson
son dos:
Detección
Las partículas alfa, que son emitidas normalmente por elementos con números atómicos
superiores a 83, tienen la energía discreta característica de los nucleidos emisores. Así, los
emisores α pueden ser identificados midiendo la energía de las partículas α. Las muestras a
medir deben ser muy delgadas porque estas partículas pierden rápidamente energía al
atravesar el material. Los rayos gamma también tienen la energía discreta característica del
nucleido que se desintegra, por lo que la energía de estos rayos también puede usarse para
identificar nucleidos. Puesto que los rayos gamma pueden atravesar una cantidad
considerable de material sin perder energía, la muestra no tiene que ser delgada. Los
espectros de energía de las partículas beta (y los positrones) no son útiles para identificar
nucleidos porque se extienden sobre todas las energías hasta un máximo para cada emisor
β.
Con frecuencia, las técnicas de física nuclear se emplean para analizar materiales
rastreando elementos presentes en cantidades muy pequeñas. La técnica utilizada se llama
análisis de activación. Se irradia una muestra con proyectiles nucleares (normalmente
neutrones) para convertir nucleidos estables en nucleidos radiactivos, que luego se miden
con detectores de radiación nuclear. Por ejemplo, el sodio de una muestra puede ser
detectado irradiando la muestra con neutrones, y convirtiendo así parte de los núcleos
estables ®Na en núcleos radiactivos ²Na; a continuación se mide la cantidad de estos
últimos contando las partículas β y los rayos g emitidos.
El análisis de activación puede medir (sin separación química) cantidades tan pequeñas
como 1 nanogramo (10-9 g) de unos 35 elementos en materiales como el suelo, las rocas,
los meteoritos y las muestras lunares. También puede utilizarse para analizar muestras
biológicas, como la sangre y el tejido humano; sin embargo, en los materiales biológicos se
pueden observar pocos elementos sin separaciones químicas.
Henri Becquerel
Niels Bohr
Marie Curie
Pierre Curie
Irène Joliot-Curie
Jean Frédéric Joliot-Curie
Isidor Isaac Rabi
Robert Oppenheimer
Wolfgang Paul
John von Neumann
Albert Einstein
Enrico Fermi
FÍSICA ATÓMICA
Contenido
1 Historia
2 Bibliografía
3 Véase también
4 Referencias externas
Historia
En los inicios su estudió se dedicó a las capas electrónicas exteriores de los átomos y a los
procesos que se deducián en cambios de esa capa. John Dalton (1766-1844), generalmente
reconocido como el fundador de la teoría atómica de la materia, pese a que el atomismo
tuvo continuados exponentes desde el tiempo de Demócrito. Dalton dio a la teoría
contenido científico sólido y la transformó así en la base de la física y de la química. Los
átomos de un elemento, dijo, son iguales pero el átomo de un elemento difiere del átomo de
otro. Creyó que los átomos eran indivisibles.
Existen diversas teorías científicas acerca del origen del universo. Las más aceptadas son la
del Big Bang y la teoría Inflacionaria, que se complementan.
Contenido
1 Inflación
2 Formación de materia
3 Formación de núcleos y átomos
4 Materia oscura
5 Otras teorías científicas sobre su origen
6 Enlaces externos
7 Véase también
Inflación
En la comunidad científica tiene una gran aceptación la teoría inflacionaria, propuesta por
Alan Guth en los años setenta, que intenta explicar los primeros instantes del universo. Se
basa en estudios sobre campos gravitatorios fortísimos, como los que hay cerca de un
agujero negro. Supuestamente nada existía antes del instante en que nuestro universo era de
la dimensión de un punto con densidad infinita, conocida como una singularidad. En este
punto se concentraban toda la materia, la energía, el espacio y el tiempo. Según esta teoría,
lo que desencadenó el primer impulso del Big Bang es una "fuerza inflacionaria" ejercida
en una cantidad de tiempo prácticamente inapreciable. Se supone que de esta fuerza
inflacionaria se dividieron las actuales fuerzas fundamentales.
Este impulso, en un tiempo tan inimaginablemente pequeño, fue tan violento que el
universo continúa expandiéndose en la actualidad. Hecho que fue corroborado por Edwin
Hubble. Se estima que en solo 15 x 10-33 segundos ese universo primigenio multiplicó sus
medidas por 100.
Formación de materia
El universo después del Big Bang comenzó a enfriarse y a expandirse, este enfriamiento
produjo que tanta energía comenzara a estabilizarse. Los protones y los neutrones se
“crearon'” y se estabilizaron cuando el universo tenía una temperatura de 100.000 millones
de grados, aproximadamente una centésima de segundo después del inicio. Los electrones
tenían una gran energía e interactuaban con los neutrones, que inicialmente tenían la misma
proporción que los protones, pero debido a esos choques los neutrones se convirtieron mas
en protones que viceversa. La proporción continuó bajando mientras el universo se seguía
enfriando, así cuando se tenía 30.000 millones de grados (una décima de segundo) habían
38 neutrones por cada 62 protones y 24 a 76 cuando tenía 10.000 millones de grados (un
segundo).
Lo primero en aparecer fue el núcleo del deuterio, casi a 14 segundos después, cuando la
temperatura de 3.000 millones de grados permitía a los neutrones y protones permanecer
juntos. Para cuando estos núcleos podían ser estables, el universo necesitó de algo más de
tres minutos, cuando esa bola incandescente se había enfriado a 1.000 millones de grados
Algo más de cuatro minutos bastaron para que los núcleos de hidrógeno (protones) y los
núcleos de deuterio pudieran fusionarse en un núcleo de helio. Las altas temperaturas no
permitían que éstos núcleos pudieran capturar aún electrones. Cuando el universo tenía algo
más de 30 minutos (a una temperatura de 300 millones de grados), la materia estaba en
estado de plasma, o sea, ambos núcleos podían coexistir con electrones libres. Éste estado
podemos encontrarlo en el interior del Sol.
A pesar que tantos hechos ocurrieron en un tiempo relativamente corto, éstos continuaron
así hasta que la temperatura bajó lo suficiente para que núcleos atómicos puedan capturar
electrones, casi 300 mil años después a una temperatura de unos 6 mil grados parecida a la
superficie actual del Sol. Junto con esto los primeros fotones pudieron atravesar átomos de
materia sin tener perturbaciones, hecho que produjo que el universo sea transparente. La
materia y esta radiación necesitaban dejar de ser uno solo para poder formar lo que hoy
conocemos como estrellas y galaxias, para esto se necesitaron no menos de un millón de
años a partir de ese gran inicio.
Materia oscura
Formalmente para que todo lo expuesto aquí pueda ser válido, los científicos necesitan de
una materia adicional a la conocida (o más propiamente vista) por el hombre. Varios
cálculos han demostrado que toda la materia y la energía que conocemos es muy poca en
relación a la que debería existir para que el Big Bang sea correcto. Por lo que se postuló la
existencia de una materia hipotética para llenar ese vacío, a la cual se la llamo materia
oscura ya que no interactúa con ninguna de las fuerzas nucleares (fuerza débil y fuerte) y ni
el electromagnetismo, solo con la fuerza gravitacional. En el gráfico de la derecha se puede
ver las proporciones calculadas.