Está en la página 1de 29

TECNOLOGICO NACIONAL DE MEXICO

INTITUTO TECNOLOGICO DE OAXACA

INGENIERIA ELECTRONICA

QUIMICA

TEORIA CUANTICA Y ESTRUCTURA ATOMICA

ACEVEDO RAMIREZ DIEGO

GRUPO E1B
1A1 EL ÁTOMO Y SUS PARTÍCULAS SUBATÓMICAS
Materia:
La materia se define como cualquier cosa que ocupa un lugar en el espacio y tiene masa. La
composición de la materia está determinada por el tipo de elementos que contiene. Su
estructura se establece por la forma en que se encuentran dispuestos los átomos de los
elementos que la constituyen. Los átomos forman moléculas que son entidades formadas por
dos o más átomos unidos entre sí. La materia se encuentra en la naturaleza en tres estados de
agregación o estados físicos: sólido, líquido y gas. Algunos autores reconocen un cuarto estado
llamado plasma. Para facilitar su estudio, la materia puede clasificarse de diferentes maneras
según las propiedades a considerar.
Una sustancia es una forma de materia que tiene una composición constante o definida y
propiedades características. Las sustancias (algunos autores las nombran como sustancias
puras) comprenden a los elementos y a los compuestos. Un elemento es una sustancia que no
puede descomponerse en sustancias más simples y está formado por una sola clase de átomos.
Se representa por símbolos, que son combinaciones de letras. Ejemplos: plata (Ag), oro (Au),
cobre (Cu), hierro (Fe). Los compuestos están formados por dos o más tipos de átomos unidos
químicamente en proporciones constantes y definidas. Sus elementos sólo pueden ser
separados por métodos químicos. Ejemplos: sulfato de cobre (II) (CuSO4), hidróxido de sodio
(NaOH), agua oxigenada (H2O2).
La mayor parte de la materia se encuentra como mezclas. Las mezclas son combinaciones de
dos o más sustancias en las que éstas mantienen su identidad química. Ejemplos: mármol,
minerales de cobre, asfalto. Las mezclas pueden separarse por métodos físicos como,
destilación, sublimación, centrifugación. Las mezclas homogéneas son uniformes en su
composición y propiedades; también se les conoce como soluciones. Ejemplos: colirios, sueros
medicinales, soluciones inyectables, petróleo. Las mezclas heterogéneas no son uniformes en
su composición ni en sus propiedades, presentan dos o más fases físicamente distintas y con
distribución irregular.

Otra definición:
De manera tradicional se acostumbra definir a la materia como todo aquello que tiene masa y
ocupa un lugar en el espacio. En esta sencilla descripción se destacan dos aspectos importantes:
la materia posee masa y, además, ocupa un lugar en el espacio. Los aspectos mencionados
implicaban considerar a la energía como una entidad enteramente distinta y, a la vez,
complementaria de la materia. A la luz de la mecánica cuántica, la materia se define en la
actualidad de una manera muy simple, pero cargada de sentido: la materia es todo cuanto existe
en el universo. ¿Qué implica esta afirmación? Que tanto la masa como la energía son las dos
formas en las que puede existir la materia. La masa se concibe, entonces, como la existencia de
materia en forma de partículas y, la energía se define como la capacidad para realizar un trabajo.

Energía:
La energía es la capacidad que poseen los cuerpos para poder efectuar un trabajo a causa de su
constitución (energía interna), de su posición (energía potencial) o de su movimiento (energía
cinética). Es una magnitud homogénea con el trabajo, por lo que se mide en las mismas
unidades, es decir en julios en el Sistema Internacional. Según la forma o el sistema físico en que
se manifiesta, se consideran diferentes formas de energía: térmica, mecánica, eléctrica,
química, electromagnética, nuclear, luminosa, etc.
Aunque la energía puede cambiar de forma en los procesos de conversión energética, la
cantidad de energía se mantiene constante conforme con el principio de conservación de la
energía que establece que la energía ni se crea ni se destruye, sólo se transforma". Por
consiguiente, la energía total de un sistema aislado se mantiene constante y en el universo no
puede existir creación o desaparición de energía, sino transferencia de un sistema a otro o
transformación de energía de una forma a otra.
La energía es la consecuencia de la actuación mediante interacciones o intercambios de los
cuatro tipos de fuerzas fundamentales de la naturaleza: gravitatoria, electromagnética, nuclear
fuerte y nuclear débil.

Radioactividad:
La radiactividad es una desintegración espontánea del núcleo que conduce a un gran
desprendimiento de energía. No hay ningún método que permita comenzarla, detenerla,
acelerarla o ralentizarla. La vida media de un radio nucleído (sustancia radiactiva o radioisótopo)
es la mitad del tiempo que una masa tarda en desintegrarse. No todos los radionúclidos tienen
la misma vida media. Así, por ejemplo, la del U238 es de 4 500 millones de años, mientras que
la del Na24 es de 15 horas. Los principales radio nucleídos pertenecen a los elementos de
número atómico mayor de 83. El 0.7 por 100 del uranio natural está formado por átomos de
número másico 235. Si el núcleo de este radio nucleído es impactado por un neutrón sufre una
fisión, es decir, se divide en dos fragmentos con escasa diferencia de masa y da lugar al
desprendimiento de tres neutrones más. Estos neutrones secundarios pueden causar, a su vez,
la fisión de más átomos de uranio. Una serie sucesiva de reacciones en cadena como ésta tienen
un efecto explosivo.
1A2 BASE EXPERIMENTAL DE LA TEORÍA CUÁNTICA.
TEORIA CUANTICA:
Cuando se habla de teoría cuántica se suele relacionar siempre con la física cuántica que no es
otra cosa que la teoría que describe el comportamiento de la materia, la radiación y todas sus
interacciones a nivel microscópico. También se menciona el término de materia cuántica o física
cuántica y se corresponde con la teoría física que describe el comportamiento de la materia, de
la radiación y las interacciones recíprocas, en particular con respecto a los fenómenos
característicos de escala de longitud o energía atómica y subatómica.
La teoría cuántica, formulada por Max Planck a principios del siglo XX, nació de una investigación
realizada sobre la radiación emitida por un cuerpo negro. Este cuerpo tiene la capacidad de
absorber todas las radiaciones incidentes y de irradiarlas a su vez de una manera dependiente
de la temperatura, pero independiente de la naturaleza del material. La teoría cuántica y los
estudios posteriores de Albert Einstein sobre el efecto fotoeléctrico conducen al descubrimiento
de la naturaleza corpuscular de la luz. La teoría cuántica se basa en el criterio de cuantificación:
cantidades físicas como la energía no se pueden intercambiar continuamente sino a través de
«paquetes» (cuantos); Por tanto, un sistema puede poseer valores de energía específicos, y no
ilimitados como afirman las leyes de la física clásica.
Con referencia al cuerpo negro, plantea la hipótesis de que la radiación emitida no era continua
sino «cuantificada», es decir, emitida en una cantidad limitada de energía (cuantos de energía).
El cuanto de energía es una cantidad mínima por debajo de la cual no pueden tener lugar
intercambios. La hipótesis de Planck se confirmó unos años después con el análisis de Einstein
del efecto fotoeléctrico, el fenómeno que ocurre cuando un cuerpo expuesto a ondas de luz o
radiación electromagnética de varias frecuencias emite partículas cargadas eléctricamente.
En este caso, los electrones se emiten desde una superficie metálica, o incluso desde un gas,
tras la absorción de la energía transportada en la misma superficie por radiaciones de alta
frecuencia como las radiaciones ultravioletas. Según la teoría electromagnética clásica, la
energía cinética de los electrones emitidos depende de la intensidad de la radiación incidente;
por otro lado, según los datos experimentales, la energía de los electrones es independiente de
la intensidad y depende de la frecuencia de la radiación incidente. Dado que la naturaleza de la
luz, según la teoría clásica, era exclusivamente ondulatoria, la teoría de Einstein era inexplicable
y no fue aceptada inicialmente. La teoría clásica, según la cual la luz consistía en ondas, continuó
aplicándose en otros campos con cierto éxito.
Sin embargo, la hipótesis de la naturaleza corpuscular de la luz se confirma 17 años después,
con el descubrimiento del efecto Compton.
TEORIA ONDULATORIA DE LA LUZ:
La colaboración de Auguste Fresnel para el rescate de la teoría ondulatoria de la luz estuvo dada
por el aporte matemático que les dio rigor a las ideas propuestas por Young y la explicación que
presentó sobre el fenómeno de la polarización al transformar el movimiento ondulatorio
longitudinal, supuesto por Huygens y ratificado por Young, quien creía que las vibraciones
luminosas se efectuaban en dirección paralela a la propagación de la onda luminosa, en
transversales. Pero aquí, y pese a las sagaces explicaciones que incluso rayan en las adivinanzas
dadas por Fresnel, inmediatamente queda presentada una gran contradicción a esta doctrina,
ya que no es posible que se pueda propagar en el éter la luz por medio de ondas transversales,
debido a que éstas sólo se propagan en medios sólidos.
En su trabajo, Fresnel explica una multiplicidad de fenómenos manifestados por la luz
polarizada. Observa que dos rayos polarizados ubicados en un mismo plano se interfieren, pero
no lo hacen si están polarizados entre sí cuando se encuentran perpendicularmente. Este
descubrimiento lo invita a pensar que en un rayo polarizado debe ocurrir algo
perpendicularmente en dirección a la propagación y establece que ese algo no puede ser más
que la propia vibración luminosa. La conclusión se impone: las vibraciones en la luz no pueden
ser longitudinales, como Young lo propusiera, sino perpendiculares a la dirección de
propagación, transversales. Las distintas investigaciones y estudios que se realizaron sobre la
naturaleza de la luz, en la época en que nos encontramos de lo que va transcurrido del relato,
engendraron aspiraciones de mayores conocimientos sobre la luz. Entre ellas, se encuentra la
de lograr medir la velocidad de la luz con mayor exactitud que la permitida por las observaciones
astronómicas. Hippolyte Fizeau (1819- 1896) concretó el proyecto en 1849 con un clásico
experimento. Al hacer pasar la luz reflejada por dos espejos entre los intersticios de una rueda
girando rápidamente, determinó la velocidad que podría tener la luz en su trayectoria, que
estimó aproximadamente en 300.000 km./s. Después de Fizeau, lo siguió León Foucault (1819 –
1868) al medir la velocidad de propagación de la luz a través del agua. Ello fue de gran interés,
ya que iba a servir de criterio entre la teoría corpuscular y la ondulatoria. La primera, como
señalamos, requería que la velocidad fuese mayor en el agua que en el aire; lo contrario exigía,
pues, la segunda. En sus experimentos, Foucault logró comprobar, en 1851, que la velocidad de
la luz cuando transcurre por el agua es inferior a la que desarrolla cuando transita por el aire.
Con ello, la teoría ondulatoria adquiere cierta preeminencia sobre la corpuscular, y pavimenta
el camino hacia la gran síntesis realizada por Maxwell.
La energía luminosa no está concentrada en cada partícula, como en la teoría corpuscular, sino
que está repartida por todo el frente de onda. El frente de onda es perpendicular a las
direcciones de propagación. La teoría ondulatoria explica perfectamente los fenómenos
luminosos mediante una construcción geométrica llamada principio de Huygens. Además, según
esta teoría, la luz se propaga con mayor velocidad en los medios menos densos. a pesar de esto,
la teoría de Huygens fue olvidada durante un siglo debido a la gran autoridad de Newton. En
1801 el inglés T. Young dio un gran impulso a la teoría ondulatoria explicando el fenómeno de
las interferencias y midiendo las longitudes de onda correspondientes a los distintos colores del
espectro.

RADIACION DE CUERPO NEGRO:


El término radiación se refiere a la emisión continua de energía desde la superficie de cualquier
cuerpo.
Esta energía se denomina radiante y es transportada por las ondas electromagnéticas que viajan
en el vacío a la velocidad de la luz. Las ondas de radio, las radiaciones infrarrojas, la luz visible,
la luz ultravioleta, los rayos x y los rayos γ, constituyen distintas regiones del espectro
electromagnético. Sobre la superficie de un cuerpo incide constantemente energía radiante,
una parte de la cual se refleja y la otra se transmite. Si la superficie del cuerpo es lisa y
pulimentada, como la de un espejo, la mayor parte de la energía incidente se refleja, el resto
atraviesa la superficie del cuerpo y es absorbida por sus átomos o moléculas. La superficie de
un cuerpo negro (el nombre cuerpo negro fue introducido por Gustav Kirchhoff en 1862) es un
caso límite, en el que se considera que toda la energía que incide sobre él es absorbida. Sin
embargo, no existe en la naturaleza un cuerpo negro ideal, ya que incluso el negro de humo
refleja, aproximadamente, el 1% de la energía incidente. El término emisividad se refiere a la
fracción de radiación de un cuerpo negro que un cuerpo real es capaz de emitir. La emisividad
puede ser distinta para cada longitud de onda, y depende de factores tales como la temperatura,
la condición de la superficie (pulida, oxidada, limpia, etc.) y del ángulo de emisión. Un cuerpo
negro se puede visualizar, con gran aproximación, por una cavidad con una pequeña abertura.
La energía radiante que pasa a través de la abertura incide sobre la pared más alejada, donde
parte de la radiación es absorbida y parte es reflejada. Ésta a su vez, cuando interacciona
nuevamente con la pared, es parte absorbida y parte reflejada, etc., es así que, después de
múltiples reflexiones, se considera que prácticamente toda la energía que incidió sobre el
cuerpo negro ha sido absorbida, excepto aquella diminuta cantidad de energía que logra escapar
a través del orificio. La luz emitida por un cuerpo negro se denomina radiación de cuerpo negro,
y constituye un modelo físico ideal para el estudio de la emisión de la radiación
electromagnética. Todo cuerpo emite energía en forma de ondas electromagnéticas, siendo
esta radiación, que se emite incluso en el vacío, tanto más intensa cuanto más elevada es la
temperatura del emisor. Esto fue establecido en el año de 1879 por el físico austriaco Josef
Stefan (1835-1893), quien encontró experimentalmente que la potencia total emitida por
unidad de área por un cuerpo sólido a todas las frecuencias, etotal, era proporcional a la cuarta
potencia de su temperatura absoluta.
etotal=σT4
en la que σ representa la constante de Stefan-Boltzmann (5.67 x 10-8Wm-2 K-4).
La longitud de onda a la que se tiene la potencia de emisión máxima, λmáx, se desplaza hacia
longitudes de onda más cortas a medida que el cuerpo negro se calienta más. Este hallazgo
coincide con la observación general de Thomas Wedgwood, pariente de Charles Darwin y
conocido fabricante de porcelana, quien, en 1792, observó que todos los objetos en sus
hornos, sin importar su naturaleza química, tamaño o forma, se vuelven rojos a la misma
temperatura. En 1893, Wilhelm Wien propuso una fórmula general para la ley de la
distribución de cuerpo negro, que explicaba el comportamiento experimental correcto de
λmáx con la temperatura. Esta ley se denomina ley de desplazamiento de Wien: λmáx T =
2.898 x10-3 (m K).

EFECTO FOCOELECTRICO:
El efecto fotoeléctrico es el fenómeno en el que las partículas de luz llamadas fotón, impactan
con los electrones de un metal arrancando sus átomos. El electrón se mueve durante el proceso,
dado origen a una corriente eléctrica. Este fenómeno es aprovechado en las plantas que utilizan
paneles solares, los cuales reciben la energía lumínica del sol transformándola en electricidad.
Albert Einstein publicó en 1905 varios artículos entre los cuales uno trataba del efecto
fotoeléctrico y por el cual recibió el premio Nobel de Física en 1922. Mucho antes, en 1900, Max
Plank había explicado el fenómeno de la radiación del cuerpo negro sugiriendo que la energía
estaba cuantizada, pero Einstein llegó aún más lejos explicando -de acuerdo a los cuantos de
Plank- que no solo la energía sino también la materia es discontinua.
ELECTRICIDAD PRODUCIDA POR EL EFECTO FOTOELECTRICO
Sabemos que la corriente eléctrica es el movimiento de electrones, siendo éstos portadores de
cargas eléctricas negativas. Cuando los electrones se mueven, se origina una corriente eléctrica.
La corriente es igual al número de cargas en movimiento entre un intervalo de tiempo.
i= d(Q)/dt
i: Es la corriente eléctrica
Q: Es la carga eléctrica que atraviesa el área transversal de un conductor.
d/dt: Es un operador que indica la variación de cargas eléctricas respecto del tiempo.
Cuando una lámina de metal está expuesta a la luz a una sola frecuencia, digamos la luz solar,
se produce electricidad en su interior de esta manera: la luz cuando viaja se comporta como una
onda, pero al intercambiar su energía con cualquier objeto lo hace como una partícula que es
llamada fotón. Cuando el fotón choca con un electrón de un átomo de la lámina metálica,
desaparece y cede toda su energía al electrón, expulsándolo hacia otro átomo. Esta expulsión
electrónica es precisamente la corriente eléctrica.
Como el fotón desaparece durante la colisión, se hace fácil comprender que la energía de
movimiento absorbida por el electrón depende de un solo fotón. Esto nos indica que la
electricidad resultante no depende de la intensidad de la luz, sino más bien de la energía que
porta el fotón.
E = hF
'E' Es la energía que porta el fotón; 'h' es la constante de Planck, y 'F' es la frecuencia del fotón
de luz.
Tomando en cuenta que la lámina metálica contiene una cantidad enorme de átomos, debe
contener una cantidad mayor de electrones y como la frecuencia de la onda lumínica es la
misma, su intensidad será la misma; así cada electrón expulsado absorbe la misma cantidad de
energía.
CANTIAD MINIMA DE ENERGIA PARA EXPULSAR UN ELECTON
Si '&' es la cantidad mínima de energía que necesita el fotón para expulsar un electrón del
átomo, entonces la máxima cantidad de energía que necesita el electrón para abandonar su
átomo y salir hacia otro, está dada por la ecuación:
E = hF-&
En este caso 'E' será la energía necesaria para producir la corriente eléctrica y '&' será el trabajo
que realiza el fotón.

ESPECTRO DE EMISION:
Un espectro de emisión, es un espectro continuo o de líneas de radiación emitida por las
sustancias. Es posible observar un espectro de emisión de una sustancia al energizar una
muestra del material mediante energía térmica o bien, con alguna otra forma de energía (una
descarga eléctrica de alto voltaje si la sustancia es gaseosa).
Así, una barra de hierro calentada hasta el “rojo” o el “blanco” incandescentes, emite un
resplandor característico recién sacado de la fuente de calentamiento. Este resplandor es la
parte del espectro visible para el ojo humano. El calor de esta misma barra representa otra parte
de su espectro de emisión: la región infrarroja.
Espectros de emisión
Los espectros de emisión de los sólidos calentados son continuos (al igual que el espectro de
emisión del sol); esto es, todas las longitudes de onda de la luz visible están representadas en
estos espectros. Por su parte, los espectros de emisión de los átomos es fase gaseosa, no
muestran una distribución continua de longitudes de onda, si no que emiten líneas brillantes en
distintas partes del espectro visible. Estos espectros de líneas corresponden a la emisión de la
luz sólo a ciertas longitudes de onda.
Cada elemento tiene un espectro de emisión único. Las líneas características de un espectro
atómico se emplean en el análisis químico para identificar átomos desconocidos, de la misma
forma en que las huellas digitales sirven para identificar a una persona. Cuando las líneas del
espectro de emisión de un elemento conocido coinciden con las líneas del espectro de emisión
de una muestra desconocida, es posible establecer la identidad de una muestra.
Espectros continuos
Los espectros continuos son los emitidos por sólidos, líquidos o gases densos que se encuentran
a temperaturas elevadas, y están relacionados con la radiación del cuerpo negro. El aspecto
cualitativo general de estos espectros es el mismo si las sustancias se encuentran a la misma
temperatura, y sólo difieren en su intensidad relativa. Los espectros continuos casi no aportan
información sobre la composición química de las sustancias.
Espectros de líneas
Los espectros de líneas son característicos de la radiación emitida por los átomos de un gas
rarificado, cuando se le excita por algún medio. Consisten de líneas brillantes sobre un fondo
oscuro. Todos los espectros de líneas son distintos y en ese sentido son como “huellas digitales”
atómicas. Si el gas es una combinación de varios tipos de átomos, entonces el espectro
contendrá líneas características de cada elemento o tipo de átomo presente. Así el espectro de
emisión es de gran importancia en la determinación de la composición química del gas
analizado. Para hacer que un elemento cuya temperatura de evaporación es muy elevada se
ponga en estado incandescente, generalmente se requiere colocarlo en una flama de alta
temperatura (puede ser un mechero de Bunsen) o en la región donde se esté produciendo una
descarga eléctrica. Los espectros obtenidos de esta manera tienen el aspecto de líneas
superpuestas sobre un fondo brillante.
Espectros de bandas
Los espectros de banda consisten en grupos de un gran número de líneas espectrales, las cuales
están muy cercanas entre sí. Estos espectros en general están asociados con moléculas.
Espectros de absorción
En contraposición a los espectros de emisión recién descritos, si la luz de una fuente que
presenta un espectro continuo pasa a través de un gas que esté a menor temperatura que la
fuente del espectro continuo, se produce un espectro de absorción, el cual consta de líneas
oscuras sobre un fondo brillante coloreado. Se ha encontrado que el patrón (la disposición) de
estas líneas corresponde exactamente al de las líneas de emisión del mismo gas. Así, para la
identificación de la composición del gas, estas líneas de absorción son tan útiles como las líneas
de emisión. En particular, parte de la luz proveniente del “interior” de una estrella puede ser
absorbida por los átomos presentes en su atmósfera, como descubrió Franhoffer en el espectro
de la luz solar. Los resultados experimentales asociados con la espectroscopia resultaban ser
misteriosos, pues sin tener una idea clara de cuál era la constitución de la materia resultaba
difícil explicarlos. La única idea subyacente disponible era la predicción de J. C. Maxwell, en
1856, de que la luz era una onda electromagnética generada por cargas eléctricas aceleradas, lo
cual implicaría que en el interior de la materia deberían existir tales cargas, a pesar de la
neutralidad eléctrica macroscópica observada para ella. Esto no impidió el estudio de los
espectros, principalmente generados por las sustancias elementales conocidas. De hecho,
Johann Jakob Balmer encontró, en 1885, una expresión empírica cuyos valores numéricos
coincidían con los valores observados en el espectro visible del hidrógeno (que ahora se conoce
como la serie de Balmer). En 1888, la expresión de Balmer fue generalizada por Johannes Robert
Rydberg con la cual se podían predecir las longitudes de onda emitidas por algunos elementos,
principalmente metales alcalinos. La expresión encontrada por Rydberg es en donde λ es la
longitud de onda de la radiación emitida, R es una constate y n1 y n2 son dos números enteros;
para el caso de los espectros de emisión n1 > n2. Este resultado no resolvía el misterio.

SERIES ESPECTRALES:
Las series espectrales consisten en un conjunto de líneas de colores sobre fondo oscuro, o bien
de franjas brillantes separadas por zonas oscuras que emite la luz proveniente de todo tipo de
sustancias.

Dichos conjuntos de líneas reciben el nombre de espectro y cada sustancia tiene un espectro
característico, una especie de huella digital que sirve para identificar su presencia en la luz que
proviene de algún objeto. Ello se debe a que cada átomo tiene su propia configuración de
electrones y niveles de energía permitidos.
Por eso encontrar las líneas espectrales es una técnica muy empleada por los astrónomos para
averiguar la composición de las estrellas a a través de la luz que emiten. De hecho, todo lo que
los astrónomos conocen acerca de las estrellas proviene de sus espectros, ya sea de emisión o
absorción.
El origen de los espectros
La presencia de los espectros se debe a la configuración atómica. En efecto, los electrones se
mantienen alrededor del núcleo en regiones llamadas orbitales, localizados a determinadas
distancias discretas de él. Por ejemplo, en el hidrógeno, el elemento más sencillo, los radios
orbitales vienen dados por 0.053∙n2 nanómetros, donde n = 1, 2, 3, 4, … No se permiten valores
intermedios entre estos, por eso se dice que los orbitales están cuantizados. También el estado
energético de cada orbital está cuantizado. Tal restricción hace que los electrones se comporten
al mismo tiempo como partículas y también como ondas, al igual que la luz. Sin embargo, los
electrones pueden ir de un orbital a otro, cambiando el estado energético del átomo.

1A3 TEORÍA ATÓMICA DE BOHR.


TEORIA ATOMICA DE BOHR:
En 1913 el físico danés Niels Bohr (1885-1962), tomando como base, el conocimiento que se
tenía hasta entonces sobre espectros electromagnéticos, la teoría cuántica y el efecto
fotoeléctrico, elaboró un conjunto de postulados que explican el comportamiento de los
electrones dentro de un átomo, dando origen a un nuevo modelo atómico que podía explicar,
entre otras cosas, por qué los electrones no se proyectaban hacia el núcleo, por qué el átomo
de hidrógeno solo emite o absorbe ciertas ondas electromagnéticas, por qué se presenta el
efecto fotoeléctrico, a qué se debe la estabilidad de los átomos, así también explicaba algunas
propiedades físicas de los átomos como el tamaño, energía de ionización, etc. Los postulados
de Bohr se pueden enunciar en la forma siguiente:
1.- Los electrones se mueven alrededor del núcleo en órbitas circulares estables. Con este
postulado, se concibe al átomo como un sistema planetario, donde el núcleo y los electrones,
hacen las veces del sol y los planetas respectivamente; de ello, se deduce que mientras más
grande sea la órbita, mayor es la energía que posee el electrón. Esta situación presenta un
inconveniente, de acuerdo a la física clásica, si los electrones se movieran en órbitas circulares,
se acelerarían irradiando constantemente energía (perderían energía), describiendo una espiral
hasta colapsar finalmente con el núcleo; en otras palabras, el momento angular del electrón
sería cada vez más pequeño. Sin embargo, para que esto no suceda, y como condición para
mantener la energía del electrón, Bohr estableció el postulado siguiente:
2.- Sólo son permitidas aquellas órbitas en las cuales el momento angular del electrón es un
múltiplo entero de h/2π, donde h es la constante de Planck; así, se tendría que mvr=(nh)/2π ,
donde n es un número entero que indica la órbita o nivel energético en el que se encuentra el
electrón. Esto implicaría que un electrón, en una órbita, n, tendría un momento angular
constante; es decir, su energía sería constante, por lo cual no existiría pérdida de energía;
además, también implicaría que el momento angular estaría cuantizado, ya que los valores de
n, solo pueden ser números enteros (sería incorrecto suponer que existe la órbita 1.5); así,
considerando lo anterior, Bohr propone el postulado siguiente:
3.- Cuando un electrón pasa de una órbita a otra, dicha transición va acompañada de la
absorción o emisión de una cantidad definida de energía (en forma de onda electromagnética),
cuya magnitud es igual a la diferencia de energía entre las dos órbitas. Teniendo en cuenta lo
anterior, si en un átomo estable, un electrón se encuentra inicialmente en la primera órbita,
puede saltar a la segunda órbita; sin embargo, para que ello suceda, necesita ganar energía y
esto lo hace absorbiendo una onda electromagnética que lleve asociada la cantidad de energía
correspondiente a la diferencia de energía entre las dos órbitas.
Cuando el electrón salta a una órbita superior, como en el caso anterior, deja un espacio vacío
que hace inestable al átomo, para recuperar la estabilidad, el electrón debe regresar a la primera
órbita liberando la energía que absorbió y lo hace emitiendo una onda electromagnética igual a
la que absorbió. De este modo, la teoría de Bohr explica el origen del espectro de líneas, ya que
un electrón solo puede absorber o emitir las ondas electromagnéticas que llevan asociadas las
energías necesarias para realizar los saltos de una órbita a otra; además, dicha teoría también
permite explicar el efecto fotoeléctrico, la energía de ionización y la constante de Rydberg para
el átomo de hidrógeno. La teoría de Bohr tiene sus limitaciones, porque no explica totalmente
los espectros de los átomos que poseen más de un electrón, es decir, la teoría sólo se aplica
para los átomos con un solo electrón (átomos hidrogenoides); ya que, si el átomo tiene más de
un electrón, se tendría que contemplar la fuerza de repulsión que existiría entre los electrones.
No obstante, las limitaciones de la teoría, en 1922, Bohr obtuvo el Premio Nobel de Física por
dicha teoría.
TEORIA ATOMICA DE BOHR – SOMMERFELD:
El físico alemán Arnold Sommerfeld, crea en 1916, el modelo atómico que lleva su nombre, para
dar algunas mejoras al modelo atómico de Bohr, ayudándose de la relatividad de Albert Einstein,
teoría que había conocido al entrar como profesor en la Universidad de Munich, cuando aún la
teoría de la relatividad no estaba aceptada. Sommerfeld, es más conocido en el mundo científico
por su aportación a la ciencia con la constante de la estructura fina en 1919, que es la constante
física fundamental en la interacción electromagnética.
El modelo atómico de Bohr, tenía algunas insuficiencias, ya que, aunque funcionaba
perfectamente para el átomo de hidrógeno, no funcionaba de igual manera para dar explicación
a los espectros realizados para otros átomos de otros elementos, donde se veía claramente que
los electrones de un mismo nivel energético poseían diferentes energías. Lo cual hacía evidente,
que algo faltaba en ese modelo.
Sommerfeld, llegó a la conclusión, de que este comportamiento de los electrones se podía
explicar, diciendo que dentro de un mismo nivel de energía existían distintos subniveles
energéticos, lo que hacía que hubiese diversas variaciones de energía, dentro de un mismo nivel
teóricamente, Sommerfeld había encontrado que, en algunos átomos, las velocidades que
experimentaban los electrones llegaban a ser cercanas a la de la luz, así que se dedicó a estudiar
los electrones como relativistas.
Fue en 1916 cuando Sommerfeld perfeccionó el modelo atómico de Bohr, intentando solucionar
los dos defectos principales de ese modelo. De este modo, hizo dos básicas modificaciones:
Los electrones describían órbitas cuasi- elípticas.
Velocidades relativistas.
Según Bohr, los electrones giraban exclusivamente en modo circular. Una órbita céntrica dio
lugar a un nuevo número cuántico, que se denominaría como número cuántico Azimutal, que
definiría la forma de los orbitales, y se representaría con la letra l, tomando valores variables
desde 0 hasta n-1. Así, las órbitas con:
l=0 serían los posteriormente conocidos como orbitales S.
l=1 se llamaría orbital 2p u orbital principal.
l=2 se conocería como d, u orbital difusa.
L=3 sería el orbital llamado f o fundamental.
Sommerfeld defendió, que el núcleo de los átomos no es permanece quieto, sino que ya sea
electrón o núcleo, ambos realizan un movimiento entorno al centro de masas del sistema, que
se encontrará cercano al núcleo debido a que posee una masa miles de veces mayor que la masa
del electrón. Esto hacía coincidir las frecuencias calculadas con las experimentadas.
Las líneas espectrales se desdoblaban y para explicar este punto, Sommerfeld, usando buenos
espectroscopios, supuso que los electrones podían tener orbitas tanto elípticas como circulares.
Añade el número cuántico secundario (l) e indica en la órbita del electrón, el momento angular
de éste como, hallando los subniveles de energía para cada nivel cuántico.
El modelo atómico de Sommerfeld, es una adaptación mejorada y generalizada del modelo
atómico de Bohr, dándole a éste, un punto de vista relativista, pero, aun así, no pudo explicar
los modos de emisión que tenían las órbitas elípticas, pudiendo sólo descartar las órbitas
circulares.
1A4. TEORÍA CUÁNTICA.
TEORIA CUANTICA:
Es una teoría física basada en la utilización del concepto de unidad cuántica para describir las
propiedades dinámicas de las partículas subatómicas y las interacciones entre la materia y la
radiación. Las bases de la teoría fueron sentadas por el físico alemán Max Planck, que en 1900
postuló que la materia sólo puede emitir o absorber energía en pequeñas unidades discretas
llamadas cuantos. Otra contribución fundamental al desarrollo de la teoría fue el principio de
incertidumbre, formulado por el físico alemán Werner Heidelberg en 1927, y que afirma que no
es posible especificar con exactitud simultáneamente la posición y el momento lineal de una
partícula subatómica.
Los números cuánticos son valores numéricos que nos indican las características de los
electrones de los átomos. Están basados, desde luego, en la teoría atómica de Niels Bohr que es
el modelo atómico más aceptado y utilizado en los últimos tiempos. Pero, además, la propuesta
de Schrödinger, considerado como el 5° modelo atómico, radica en describir las características
de todos los electrones de un átomo, y esto es lo que conocemos como número cuánticos.
Los números cuánticos más importantes son 4:
Número Cuántico Principal
El número cuántico principal nos indica en qué nivel se encuentra el electrón y por lo tanto
también el nivel de energía. Este número cuántico toma valores enteros 1, 2, 3, 4, 5, 6, ó 7.
Número Cuántico Secundario
Este número cuántico nos indica en que subnivel se encuentra el electrón. Este número cuántico
toma valores desde 0 hasta (n - 1).
Número Cuántico Magnético
El número cuántico magnético nos indica las orientaciones de los orbitales magnéticos en el
espacio. Los orbitales magnéticos son las regiones de la nube electrónica donde se encuentran
los electrones.
Número Cuántico de Spin
El número cuántico de spin nos indica el sentido de rotación en el propio eje de los electrones
en un orbital. Ya sea si se mueve al igual que las manecillas del reloj, o en sentido contrario, este
número cuántico toma los valores de -1/2 y de +1/2.
En física, el término cuanto o cuantió denotaba en la física cuántica primitiva tanto el valor
mínimo que puede tomar una determinada magnitud en un sistema físico, como la mínima
variación posible de este parámetro al pasar de un estado discreto a otro.1 Se hablaba de que
una determinada magnitud estaba cuan tizada según el valor de cuánto. Es decir, cuanto es una
proporción hecha por la magnitud dada.
Un ejemplo del modo en que algunas cantidades relevantes de un sistema físico están
cuantiadas lo encontramos en el caso de la carga eléctrica de un cuerpo, que sólo puede tomar
un valor que sea un múltiplo entero de la carga del electrón. En la moderna teoría cuántica,
aunque se sigue hablando de cuantización el término cuanto ha caído en desuso. El hecho de
que las magnitudes estén cuantizadas se considera ahora un hecho secundario y menos
definitorio de las características esenciales de la teoría.
En informática, un cuanto de tiempo es un pequeño intervalo de tiempo que se asigna a un
proceso para que ejecute sus instrucciones. El cuanto es determinado por el planificador de
procesos utilizando algún algoritmo de planificación. El ejemplo clásico de un cuanto procede
de la descripción de la naturaleza de la luz, como la energía de la luz está cuantizada, la mínima
cantidad posible de energía que puede transportar la luz sería la que proporciona una partícula
subatómica.

OTRA DEFINICION:
“La Teoría Cuántica es uno de los pilares fundamentales de la Física actual. Recoge un conjunto
de nuevas ideas introducidas a lo largo del primer tercio del siglo XX para dar explicación a
procesos cuya comprensión se hallaba en conflicto con las concepciones físicas vigentes. Su
marco de aplicación se limita, casi exclusivamente, a los niveles atómico, subatómico y nuclear,
donde resulta totalmente imprescindible. Pero también lo es en otros ámbitos, como la
electrónica, en la física de nuevos materiales, en la física de altas energías, en el diseño de
instrumentación médica, en la criptografía y la computación cuánticas, y en la Cosmología
teórica del Universo temprano.”

PRINCIPIO DE DUALIDAD POSTULADO DE BROGLIE:


Louis de Broglie, era un aristócrata francés que ganó el premio Nobel de Física de 1929 por una
tesis doctoral que elucidaba las propiedades ondulatorias de los orbitales electrones. Se trató
de un trabajo que ayudó a resolver una antigua paradoja al mostrar que los electrones pueden
ser descritos ya sea como partículas o como ondas, según las circunstancias.
El punto de partida que tuvo de Broglie para desarrollar su tesis fue la inquietante dualidad en
el comportamiento de la luz, que en ciertos fenómenos se manifiesta como onda, en otros como
partícula. Este desconcertante aspecto doble de la luz, estrechamente vinculado con la
existencia.
El principio de la dualidad descansa sobre el efecto fotoeléctrico, el cual plantea que la luz puede
comportarse de dos maneras según las circunstancias y el tema a estudiar, y son
1.- Luz como una Onda: esta es usada en la física clásica, sobre todo en óptica, donde los lentes
y los espectros visibles requieres de su estudio a través de las propiedades de las ondas.
2.- Luz como Partícula: Usada sobre todo en física cuántica, según los estudios de Planck sobre
la radiación del cuerpo negro, la materia absorbe energía electromagnética y luego la libera en
forma de pequeños paquetes llamados fotones, estos cuantos, de luz, tienen de igual manera
una frecuencia, pero gracias a éstos, se pueden estudiar las propiedades del átomo.
Planck realizó varios experimentos para probar su teoría, con los cuales logro estableces que la
energía de estos cuantos o fotones es directamente proporcional a la frecuencia de la radiación
que los emite, estableciendo así la fórmula que decía que la energía(E) es igual a la constante
de Planck(h) por la frecuencia de la radiación(f).
E=h.f
Por último, dio el valor para dicha constante que quedo establecido con el siguiente valor:
h = 6.63 x 10 a la (−34) J.s

PRINCIPIO DE LA INCERTIDUMBRE DE HEISENBERG:


En mecánica cuántica el principio de indeterminación de Heisenberg o principio de
incertidumbre de Heisenberg afirma que no se puede determinar, simultáneamente y con
precisión arbitraria, ciertos pares de variables físicas, como son, por ejemplo, la posición y el
momento lineal de un objeto dado.
Se puede entender mejor este principio si pensamos en lo que sería la medida de la posición y
velocidad de un electrón: para realizar la medida es necesario que un fotón de luz choque con
el electrón, con lo cual está modificando su posición y velocidad; es decir, por el mismo hecho
de realizar la medida, el experimentador modifica los datos de algún modo, introduciendo un
error que es imposible de reducir a cero, por muy perfectos que sean nuestros instrumentos.
No obstante, hay que recordar que el principio de incertidumbre es inherente al universo, no al
experimento ni a la sensibilidad del instrumento de medida. Surge como necesidad al desarrollar
la teoría cuántica y se corrobora experimentalmente. No perdamos de vista que lo dicho en el
párrafo anterior es un símil, pero no se puede tomar como explicación del principio de
incertidumbre.
Este Principio supone un cambio básico en nuestra forma de estudiar la Naturaleza, ya que se
pasa de un conocimiento teóricamente exacto (o al menos, que en teoría podría llegar a ser
exacto con el tiempo) a un conocimiento basado sólo en probabilidades y en la imposibilidad
teórica de superar nunca un cierto nivel de error. El principio de indeterminación es un resultado
teórico entre magnitudes conjugadas (posición – momento, energía-tiempo, etcétera).
Un error muy común es decir que el principio de incertidumbre impide conocer con infinita
precisión la posición de una partícula o su cantidad de movimiento. Esto es falso. El principio de
incertidumbre nos dice que no podemos medir simultáneamente y con infinita precisión un par
de magnitudes conjugadas.
Es decir, nada impide que midamos con precisión infinita la posición de una partícula, pero al
hacerlo tenemos infinita incertidumbre sobre su momento. Por ejemplo, podemos hacer un
montaje como el del experimento de Young y justo a la salida de las rendijas colocamos una
pantalla fosforescente de modo que al impactar la partícula se marca su posición con un puntito.
Esto se puede hacer, pero hemos perdido toda la información relativa a la velocidad de dicha
partícula.
Por otra parte, las partículas en física cuántica no siguen trayectorias bien definidas. No es
posible conocer el valor de las magnitudes físicas que describen a la partícula antes de ser
medidas. Por lo tanto, es falso asignarle una trayectoria a una partícula. Todo lo más que
podemos es decir que hay una determinada probabilidad de que la partícula se encuentre en
una posición más o menos determinada.

ECUACION DE ONDA DE SCHRODINGER:

La ecuación de Schrödinger fue desarrollada por el físico austríaco Erwin Schrödinger en 1925.
Describe la evolución temporal de una partícula masiva no relativista. Es de importancia central
en la teoría de la mecánica cuántica, donde representa para las partículas microscópicas un
papel análogo a la segunda ley de Newton en la mecánica clásica. Las partículas microscópicas
incluyen a las partículas elementales, tales como electrones, así como sistemas de partículas,
tales como núcleos atómicos.
Al comienzo del siglo XX se había comprobado que la luz presentaba una dualidad onda
corpúsculo, es decir, la luz se podía manifestar (según las circunstancias) como partícula (fotón
en el efecto fotoeléctrico), o como onda electromagnética en la interferencia luminosa. En 1923
Louis-Víctor de Broglie propuso generalizar esta dualidad a todas las partículas conocidas.
Propuso la hipótesis, paradójica en su momento, de que a toda partícula clásica microscópica se
le puede asignar una onda, lo cual se comprobó experimentalmente en 1927 cuando se observó
la difracción de electrones. Por analogía con los fotones, De Broglie asocia a cada partícula libre
con energía y cantidad de movimiento una frecuencia y una longitud de onda.
La comprobación experimental hecha por Clinton Davisson y Lester Germer mostró que la
longitud de onda asociada a los electrones medida en la difracción según la fórmula de Bragg se
correspondía con la longitud de onda predicha por la fórmula de De Broglie. Esa predicción llevó
a Schrödinger a tratar de escribir una ecuación para la onda asociada de De Broglie que para
escalas macroscópicas se redujera a la ecuación de la mecánica clásica de la partícula. La energía
mecánica total clásica es:
El éxito de la ecuación, deducida de esta expresión utilizando el principio de correspondencia,
fue inmediato por la evaluación de los niveles cuantificados de energía del electrón en el átomo
de hidrógeno, pues ello permitía explicar el espectro de emisión del hidrógeno: series de Lyman,
Balmer, Bracket, Paschen, Pfund, etc.
La interpretación física correcta de la función de onda de Schrödinger fue dada en 1926 por Max
Born. En razón del carácter probabilista que se introducía, la mecánica ondulatoria de
Schrödinger suscitó inicialmente la desconfianza de algunos físicos de renombre como Albert
Einstein, para quien y del propio Schrödinger.
El esquema conceptual utilizado por Schrödinger para derivar su ecuación reposa sobre una
analogía formal entre la óptica y la mecánica: En la óptica ondulatoria, la ecuación de
propagación en un medio transparente de índice real n variando lentamente a la escala de la
longitud de onda conduce — mientras se busca una solución monocromática donde la amplitud
varía muy lentamente ante la fase— a una ecuación aproximada denominada eikonal. Es la
aproximación de la óptica geométrica, a la cual está asociada el principio variacional de Fermat.
En la formulación hamiltoniana de la mecánica clásica, existe una ecuación de Hamilton-Jacobi
(que en última instancia es equivalente a las leyes de Newton). Para una partícula masiva no
relativista sometida a una fuerza que deriva de una energía potencial, la energía mecánica total
es constante y la ecuación de Hamilton-Jacobi para la” función característica de Hamilton” se
parece formalmente a la ecuación de la eikonal (el principio variacional asociado es el principio
de mínima acción.)
Este paralelismo lo había notado ya Hamilton en 1834, pero él no tenía una razón para dudar de
la validez de mecánica clásica. Después de la hipótesis de De Broglie de 1923, Schrödinger dice:
1.- La ecuación de la eikonal siendo una aproximación a la ecuación de onda de la óptica
ondulatoria, buscamos la ecuación de onda de la "mecánica ondulatoria" (a realizar) donde la
aproximación será la ecuación de Hamilton-Jacobi. Lo que falta, primero para una onda
estacionaria (E = cte), después para una onda de cualquier tipo.
2.- Schrödinger había en efecto comenzado por tratar el caso de una partícula relativista —como
de Broglie antes que él—
3.- Entonces había obtenido la ecuación conocida hoy día con el nombre de Klein Gordon, pero
su aplicación al caso del potencial eléctrico del átomo de hidrógeno daba unos niveles de
energía incompatibles con los resultados experimentales.
4.- Ello hará que se concentre sobre el caso no-relativista, con el éxito conocido.

1A5. DISTRIBUCIÓN ELECTRÓNICA EN SISTEMAS POLIELECTRÓNICOS


EL PRINCIPIO DE AUFBAU:
Los átomos estables tienen tantos electrones como protones en el núcleo. Los electrones se
reúnen alrededor del núcleo en orbitales cuánticos siguiendo cuatro reglas básicas llamadas
principio de Aufbau. No hay dos electrones en el átomo que compartan los mismos cuatro
números cuánticos n, l, m y s.
Los electrones primero ocuparán los orbitales del nivel de energía más bajo.
Los electrones llenarán un orbital con el mismo número de giro hasta que el orbital se llene
antes de que comience a llenarse con el número de giro opuesto.
Los electrones llenarán los orbitales por la suma de los números cuánticos n y l. Los orbitales
con valores iguales de ( n + l ) se llenarán primero con los valores n más bajos.
Las reglas segunda y cuarta son básicamente las mismas. El gráfico muestra los niveles de
energía relativos de los diferentes orbitales. Un ejemplo de la regla cuatro serían los orbitales
2p y 3s. Un orbital 2p es n = 2 y l = 2 y un orbital 3s es n = 3 y l = 1; (n + l) = 4 en ambos casos,
pero el orbital 2p tiene la energía más baja o el valor n más bajo y se llenará antes que la capa
3s.
Probablemente, la peor forma de usar el principio de Aufbau para calcular el orden de llenado
de los orbitales de un átomo es intentar memorizar el orden mediante la fuerza bruta:
1s 2s 2p 3s 3p 4s 3d 4p 5s 4d 5p 6s 4f 5d 6p 7s 5f 6d 7p 8s
Afortunadamente, existe un método mucho más simple para obtener este orden:
Escribe una columna de orbitales s del 1 al 8.
Escribe una segunda columna para los orbitales p comenzando en n = 2. (1p no es una
combinación orbital permitida por la mecánica cuántica).
Escribe una columna para los orbitales d comenzando en n = 3. Escribe una columna final para
4f y 5f. No hay elementos que necesiten un shell 6f o 7f para llenar.
Lea la tabla ejecutando las diagonales a partir de 1.
El gráfico muestra esta tabla y las flechas muestran el camino a seguir. Ahora que sabe el orden
de los orbitales a llenar, solo necesita memorizar el tamaño de cada orbital.
Los orbitales S tienen un valor posible de m para contener dos electrones.
Los orbitales P tienen tres valores posibles de m para contener seis electrones.
Los orbitales D tienen cinco valores posibles de m para contener 10 electrones.
Los orbitales F tienen siete valores posibles de m para contener 14 electrones.
Esto es todo lo que necesita para determinar la configuración electrónica de un átomo estable
de un elemento.
Por ejemplo, tomemos el elemento nitrógeno, que tiene siete protones y, por lo tanto, siete
electrones. El primer orbital que se llena es el orbital 1s. Un orbital s contiene dos electrones,
por lo que quedan cinco electrones. El siguiente orbital es el orbital 2s y contiene los dos
siguientes. Los últimos tres electrones irán al orbital 2p, que puede contener hasta seis
electrones.

PRINCIPIO DE EXCLUSION DE PAULLII:


El principio de exclusión de Pauli es un principio cuántico enunciado por Wolfgang Ernst Pauli
en 1925 que establece que no puede haber dos fermiones con todos sus números cuánticos
idénticos (esto es, en el mismo estado cuántico de partícula individual). Hoy en día no tiene el
estatus de principio, ya que es derivable de supuestos más generales (de hecho, es una
consecuencia del Teorema de la estadística del spin).
El principio de exclusión de Pauli sólo se aplica a fermiones, esto es, partículas que forman
estados cuánticos anti simétricos y que tienen espín simétrico. Son fermiones, por ejemplo, los
protones, los neutrones, y los electrones, los tres tipos de partículas subatómicas que
constituyen la materia ordinaria. El principio de exclusión de Pauli rige, así pues, muchas de las
características distintivas de la materia. En cambio, partículas como el fotón y el (hipotético)
gravitón no obedecen a este principio, ya que son bosones, esto es, forman estados cuánticos
simétricos y tienen espín entero. Como consecuencia, una multitud de fotones puede estar en
un mismo estado cuántico de partícula, como en los láseres.
"Un átomo no existe con los mismos números cuánticos".
Es sencillo derivar el principio de Pauli, basándonos en el artículo de partículas idénticas. Los
fermiones de la misma especie forman estados totalmente anti simétricos, lo que para el caso
de dos partículas significa que:
(ψψ´) = (ψ´ψ)
La permutación de una partícula por otra invierte el signo de la función que describe al sistema).
Si las dos partículas ocupan el mismo estado cuántico |ψ>, el estado del sistema completo es
|ψψ>. Entonces,
(ψψ´) = (ψ´ψ) = 0 (ket nulo)
así que el estado no puede darse. Esto se puede generalizar al caso de más de dos partículas.
Consecuencias
El principio de exclusión de Pauli interpreta un papel importante en un vasto número de
fenómenos físicos. Uno de los más importantes es la configuración electrónica de los átomos.
Un átomo eléctricamente neutro aloja a un número de electrones igual al número de protones
en su núcleo. Como los electrones son fermiones, el principio de exclusión les prohíbe ocupar el
mismo estado cuántico, así que tienen que ir ocupando sucesivas capas electrónicas.
Como ejemplo, es ilustrativo considerar un átomo neutro de helio, que tiene dos electrones
ligados. Estos dos electrones pueden ocupar los estados de mínima energía (1s), si presentan
diferente espín. Esto no viola el principio de Pauli, porque el espín es parte del estado cuántico
del electrón, así que los dos electrones están ocupando diferentes estados cuánticos (espín
orbital). Sin embargo, el espín sólo puede tomar dos valores propios diferentes (o, dicho de otra
forma, la función que describe al sistema sólo puede tener dos estados diferentes que sean
propios del operador espín S’. En un átomo de litio, que contiene tres electrones ligados, el
tercer electrón no puede entrar en un estado 1s, y tiene que ocupar uno de los estados 2s (de
energía superior). De forma análoga, elementos sucesivos producen capas de energías más y
más altas. Las propiedades químicas de un elemento dependen decisivamente del número de
electrones en su capa externa, lo que lleva a la tabla periódica de los elementos.
El principio de Pauli también es responsable de la estabilidad a gran escala de la materia. Las
moléculas no pueden aproximarse arbitrariamente entre sí, porque los electrones ligados a cada
molécula no pueden entrar en el mismo estado que los electrones de las moléculas vecinas. Este
es el principio que hay tras el término de repulsión r-12 en el Potencial de Lennard-Jones.
Enunciado en palabras llanas, pero didácticas:
En la astronomía se encuentran algunas de las demostraciones más espectaculares de este
efecto, en la forma de enanas blancas y estrellas de neutrones. En ambos objetos, las estructuras
atómicas usuales han sido destruidas por la acción de fuerzas gravitacionales muy intensas. Sus
constituyentes sólo se sustentan por la "presión de degeneración" (que les prohíbe estar en un
mismo estado cuántico). Este estado exótico de la materia se conoce como materia degenerada.
En las enanas blancas, los átomos se mantienen apartados por la presión de degeneración de
los electrones. En las estrellas de neutrones, que presentan fuerzas gravitacionales aún
mayores, los electrones se han fusionado con los protones para producir neutrones, que tienen
una presión de degeneración mayor.
Otro fenómeno físico del que es responsable el principio de Pauli es el ferromagnetismo, en el
que el principio de exclusión implica una energía de intercambio que induce al alineamiento
paralelo de electrones vecinos (que clásicamente se alinearían antiparalela mente).

PRINCIPIO DE MAXIMA MULTIPLICIDAD DE HUND:


La regla de Hund es una regla empírica obtenida por Friedrich Hund en el estudio de los
espectros atómicos que enuncia lo siguiente: Al llenar orbitales de igual energía (los tres
orbitales p, los cinco d, o los siete f) los electrones se distribuyen, siempre que sea posible, con
sus espines paralelos, es decir, que no se cruzan. La partícula mini atómica es más estable (tiene
menos energía) cuando tiene electrones desapareados (espines paralelos) que cuando esos
electrones están apareados (espines opuestos o antiparalelos). También se denomina así a la
regla de máxima multiplicidad de Hund. Cuando varios electrones están descritos por orbitales
degenerados, la mayor estabilidad energética es aquella en donde los espines electrónicos están
desapareados (correlación de espines).
UN POCO MAS DEFINIDO:
Si dos o más electrones de un mismo átomo tienen los mismos valores en sus números cuánticos
principales ( n ) y en sus números cuánticos secundarios ( l ) , entonces tendrán iguales valores
de spin ( s ) siempre y cuando no se trasgreda el principio de exclusión (de Pauli). Para aquellos
que no pueden entender tanta palabrería pueden tomarlo así: El principio del microbús (guagua,
micro, bus o algún otro nombre que tenga el transporte colectivo en tu país) Las personas
(electrones) que se suban a un microbús (nº cuántico principal) tienden a sentarse en los
asientos desocupados (nº cuántico magnético) de la fila más cercana a la puerta (nº cuántico
secundario) antes que sentarse más al final, compartir un asiento (nº cuántico spin = +1/2), o
subirse a otro microbús.
DESARROLLO DE CONFIGURACIONES ELECTRONICAS DE LOS ELEMENTOS
UBICADOS EN LA TABLA PERIODICA:
Hacia los años 1920, el físico danés Niels Bohr comenzó a relacionar la tabla periódica con la
configuración electrónica de los elementos. Evidentemente, los elementos pertenecientes al
mismo grupo, poseen configuraciones electrónicas diferentes. Atendiendo a este hecho los
elementos de los diferentes átomos se han clasificado en 4 diferentes bloques. De esta forma
será mucho más fácil recordar la configuración electrónica de todos los elementos.
ELEMENTOS DEL BLOQUE S:
A este bloque de elementos pertenecen todos los átomos de los grupos 1 (metales alcalinos) y
2 (alcalinotérreos) con la excepción del Helio que no se encuentra en esos dos grupos, pero
pertenece también al bloque y el hidrógeno que, aunque forma parte del grupo 1 y del bloque
s no se considera alcalino.

Nótese que, en este bloque de elementos, los átomos del grupo 1 poseen valencia 1, es decir
tienen un electrón en su capa más externa y será el involucrado en el enlace atómico. Si
denominamos el nivel correspondiente al período como n, todos poseen la configuración ns1.
ELEMENTOS DEL BLOQUE P:
Los elementos de este bloque serán aquellos en los que los orbitales p con el nivel más alto de
energía están ocupados, A este conjunto pertenecen los elementos de los grupos 13 (térreos),14
(carbonoideos), 15 (nitrogenoideos) (pnictogenos), 16 (calcógenos) (anfígenos), 17 (halógenos)
y 18 (gases nobles) con excepción del Helio que pertenece al bloque s. En negrita se señalan los
electrones de la última capa o capa más externa (valencia).

ELEMENTOS DEL BLOQUE D:


A este bloque pertenecen los metales de transición, es decir, todos los elementos de los grupos
3, 4, 5, 6, 7, 8, 9, 10, 11 y 12.

Los grupos 6 y 11 presentan excepciones de llenado en su configuración electrónica debido a


que los orbitales llenos y semillenos son más estables y hacen al segundo electrón del orbital s
promocionar al d.
ELEMENTOS DEL BLOQUE F:
A este bloque de elementos pertenecen los Lantánidos y Actínidos, su configuración electrónica
no es tan fácil de recordar ya que hay numerosas excepciones, aunque para describirlas se
deben seguir las mismas normas de llenado que se han visto hasta ahora

EL PRICIPIO DE RADIOACTIVIDAD:
Es el resultado de un cambio natural de un isotopo de un elemento hacia un isotopo de un
elemento diferente. Las reacciones nucleares incluyen cambios en las partículas del núcleo de
un átomo y por consiguiente causan un cambio en el átomo mismo. Todos los elementos más
pesados que el bismuto (Bi) (y algunos más livianos) exhiben una radioactividad natural y por
consiguiente pueden decaer en hacía elementos más livianos. Al contrario que las reacciones
químicas normales que forman moléculas, las reacciones nucleares resultan en la transmutación
de un elemento en un isotopo diferente o en un elemento diferente (recuerde que el número
de protones de un átomo define el elemento, por lo tanto, un cambio de un protón resulta en
un cambio de un átomo). Hay tres tipos comunes de radiación y cambios nucleares:
La Radiación Alpha (α) es la emisión de una partícula alpha del núcleo de un átomo. Una
partícula α contiene 2 protones y 2 neutrones (y es similar a un núcleo He:) Cuando un átomo
emite una partícula, la masa atómica del átomo disminuirá cuatro unidades (ya que 2 protones
y 2 neutrones están perdidos) y el número atómico (z) disminuirá 2 unidades. Se dice que el
elemento se 'transmuta' en otro elemento que es 2 z unidades más pequeño. La Radiación Beta
(β) es la transmutación de un neutrón (seguido de la emisión de un electrón del núcleo del
átomo:).
La Radiación Gamma (g) incluye la emisión de energía electromagnética (similar a la energía
proveniente de la luz) de un núcleo de un átomo. Ninguna partícula es emitida durante la
radiación gamma, y por consiguiente la radiación gamma no causa en sí misma la transmutación
de los átomos. Sin embargo, la radiación (g) es emitida generalmente durante, y
simultáneamente, a la disminución radioactiva α o β Los rayos X, emitidos durante la
disminución beta del cobalto-60, son un ejemplo común de la radiación gamma:
La radiactividad es un fenómeno completamente natural que ha existido en la Naturaleza desde
siempre, sin la necesidad de la aparición del hombre. Surge como consecuencia de la existencia
de numerosos núcleos que son inestables, los cuales, para evitar esa situación y pasar a un
estado de estabilidad, se transforman en otro tipo de núcleos con la emisión de determinadas
partículas (alfa, que son núcleos de Helio, y beta que son electrones) o de fotones gamma
(radiación electromagnética). Esta transformación se llama radiactividad y el proceso se
denomina desintegración radiactiva. Tal es el caso del Radio-226 (Ra226) que tras la emisión de
una partícula alfa se transforma en Radón-222 (Rn222).
El átomo formado por un núcleo con protones y neutrones, y de electrones que orbitan
alrededor del núcleo, es la " imagen gráfica" que tenemos de la constitución de la materia. Pero
también existen las ondas, formando un conjunto conocido como espectro electromagnético:
rayos X con los que se realizan radiografías, la radiación ultravioleta que nos pone "morenos",
la infrarroja, radiación gamma u ondas de radio y de televisión.
La radiación de origen natural es responsable de la mayor parte de la dosis de radiación recibida
por el ser humano y procede de fuentes externas, como los rayos cósmicos o los radioelementos
presentes en el suelo y en los materiales de construcción, y de fuentes internas derivadas de la
inhalación e ingestión de elementos radiactivos naturales presentes en el aire, en el agua y en
nuestra dieta diaria. De todas ellas la inhalación es la fuente de radiación más importante,
siendo el Radón, responsable de la mayor parte de la dosis recibida por esta causa.
La dosis recibida por la población por exposición a la radiación natural depende, entonces, de
factores tales como el lugar de residencia, el tipo de vivienda que se habita, la altitud sobre el
nivel del mar, el régimen alimentario y en general los hábitos de vida de las personas. Por esta
razón el rango en que varían las dosis individuales recibidas como consecuencia de la exposición
a las fuentes de radiación es muy amplia, pudiendo estar algunas personas expuestas a dosis de
radiación muy superiores al promedio mundial.
Se podría definir como una desintegración espontánea de núcleos atómicos mediante la emisión
de partículas subatómicas llamadas partículas alfa y partículas beta, y de radiaciones
electromagnéticas denominadas rayos X y rayos gamma. El fenómeno fue descubierto en 1896
por el físico francés Antoine Henri Becquerel al observar que las sales de uranio podían
ennegrecer una placa fotográfica, aunque estuvieran separadas de la misma por una lámina de
vidrio o un papel negro.
También comprobó que los rayos que producían el oscurecimiento podían descargar un
electroscopio, lo que indicaba que poseían carga eléctrica. En 1898, los químicos franceses
Marie y Pierre Curie dedujeron que la radiactividad es un fenómeno asociado a los átomos e
independiente de su estado físico o químico.
También llegaron a la conclusión de que la pechblenda, un mineral de uranio, tenía que contener
otros elementos radiactivos ya que presentaba una radiactividad más intensa que las sales de
uranio empleadas por Becquerel. El matrimonio Curie llevó a cabo una serie de tratamientos
químicos de la pechblenda que condujeron al descubrimiento de dos nuevos elementos
radiactivos, el polonio y el radio. Marie Curie también descubrió que el torio es radiactivo.
En 1899, el químico francés André Louis Debierne descubrió otro elemento radiactivo, el actinio.
Ese mismo año, los físicos británicos Ernest Rutherford y Frederick Soddy descubrieron el gas
radiactivo radón, observado en asociación con el torio, el actinio y el radio. Pronto se reconoció
que la radiactividad era una fuente de energía más potente que ninguna de las conocidas. Los
Curie midieron el calor asociado con la desintegración del radio y establecieron que 1 gramo de
radio desprende aproximadamente unos 420 julios (100 calorías) de energía cada hora. Este
efecto de calentamiento continúa hora tras hora y año tras año, mientras que la combustión
completa de un gramo de carbón produce un total de 34.000 julios (unas 8.000 calorías) de
energía. Tras estos primeros descubrimientos, la radiactividad atrajo la atención de científicos
de todo el mundo. En las décadas siguientes se investigaron a fondo muchos aspectos del
fenómeno.

1A6. APLICACIONES TECNOLÓGICAS DE LA EMISIÓN ELECTRÓNICA DE


LOS ÁTOMOS
APLICACIONES TECNOLOGICAS DE LA EMISION ELECTRONICA DE LOS ATOMOS:
El átomo es la expresión más pequeña de la materia y a partir de ella se han logrado hacer
diversas investigaciones y de esa manera se han hecho grandes descubrimientos acerca de este,
utilizándolos se han logrado grandes avances en la ciencia y la tecnología. En el desarrollo
tecnológico la emisión electrónica de los átomos puede ser de verdadera utilidad como
podremos comprobar a lo largo de este ensayo tiene muy diversas utilidades y, sabiendo
utilizarlas correctamente podemos obtener diversos beneficios.
Para poder realizar estos adelantos fue necesario realizar las investigaciones adecuadas, por lo
tanto, hay que recordar que la base de todos estos fue planteada por científicos y
posteriormente desarrollada en caso de no haber sido concluidos.
El trazado isotópico en biología y en medicina. Los diferentes isotopos de un elemento tienen
las mismas propiedades químicas. El reemplazo de uno por otro en una molécula no modifica,
por consiguiente, la función de la misma. Sin embargo, la radiación emitida permite detectarla,
localizarla, seguir su movimiento e, incluso, dosificarla a distancia. El trazado isotópico ha
permitido estudiar así, sin perturbarlo, el funcionamiento de todo lo que tiene vida, de la célula
al organismo entero. En biología, numerosos adelantos realizados en el transcurso de la segunda
mitad del siglo XX están vinculados a la utilización de la radioactividad: funcionamiento del
genoma (soporte de la herencia), metabolismo de la célula, fotosíntesis, transmisión de
mensajes químicos (hormonas, neurotransmisores) en el organismo. Los isótopos radioactivos
se utilizan en la medicina nuclear, principalmente en las imágenes médicas, para estudiar el
modo de acción de los medicamentos, entender el funcionamiento del cerebro, detectar una
anomalía cardíaca, descubrir las metástasis cancerosas. Las radiaciones y la radioterapia.
Las radiaciones ionizantes pueden destruir preferentemente las células tumorales y constituyen
una terapéutica eficaz contra el cáncer, la radioterapia, que fue una de las primeras aplicaciones
del descubrimiento de la radioactividad. En Francia, entre el 40 y el 50% de los cánceres se tratan
por radioterapia, a menudo asociada a la quimioterapia. La radioactividad permite curar un gran
número de personas cada año. La protección de las obras de arte. El tratamiento mediante rayos
gamma permite eliminar los hongos, larvas, insectos o bacterias alojados en el interior de los
objetos a fin de protegerlos de la degradación. Esta técnica se utiliza en el tratamiento de
conservación y de restauración de objetos de arte, de etnología, de arqueología. La elaboración
de materiales. La irradiación provoca, en determinadas condiciones, reacciones químicas que
permiten la elaboración de materiales más ligeros y más resistentes, como aislantes, cables
eléctricos, envolventes termo-retractables, prótesis, etc. Los detectores de incendio. Una
pequeña fuente radioactiva ioniza los átomos de oxígeno y de nitrógeno contenidos en un
volumen reducido de aire. La llegada de partículas de humo modifica esta ionización Por esta
razón se realizan y se utilizan en los comercios, fábricas, despachos…detectores radioactivos
sensibles a cantidades de humo muy pequeñas.
La alimentación de energía de los satélites. Las baterías eléctricas funcionan gracias a pequeñas
fuentes radioactivas con plutonio 239, cobalto 60 o estroncio 90. Estas baterías se montan en
los satélites para su alimentación energética. Son de tamaño muy reducido y pueden funcionar
sin ninguna operación de mantenimiento durante años. La producción de electricidad. Las
reacciones en cadena de fisión del uranio se utilizan en las centrales nucleares que, en Francia,
producen más del 75% de la electricidad.
REFERENCIAS BIBLOGRAFICAS
Figueroa, M. (2010). Química. Miami, FL, United States of America: Firmas Press. Recuperado de
https://elibro.net/es/lc/itoaxaca/titulos/36341.

González Muradás, R. M. y Montagut Bosque, P. (2015). Química. México D.F, Mexico: Grupo Editorial Patria. Recuperado
de https://elibro.net/es/lc/itoaxaca/titulos/39463.

Doña Rodríguez, J. M. y Eiroa Martínez, J. L. A. (2015). Química. Las Palmas de Gran Canaria, Spain: Universidad de Las
Palmas de Gran Canaria. Servicio de Publicaciones y Difusión Científica. Recuperado de
https://elibro.net/es/lc/itoaxaca/titulos/57204.

Martínez Márquez, E. (2009). Química I. México, D.F, Mexico: Cengage Learning. Recuperado de
https://elibro.net/es/lc/itoaxaca/titulos/39917.

Martínez Márquez, E. (2012). Química II. México, D.F, Mexico: Cengage Learning. Recuperado de
https://elibro.net/es/lc/itoaxaca/titulos/39932.

Martínez Márquez, E. (2016). Química I. México, Mexico: Cengage Learning. Recuperado de


https://elibro.net/es/lc/itoaxaca/titulos/40041.

Ramírez Regalado, V. M. (2015). Química general. México D.F, Mexico: Grupo Editorial Patria. Recuperado de
https://elibro.net/es/lc/itoaxaca/titulos/40367.

Ramírez Regalado, V. M. (2016). Química 1. México, Mexico: Grupo Editorial Patria. Recuperado de
https://elibro.net/es/lc/itoaxaca/titulos/40435

También podría gustarte