Está en la página 1de 27

OPTICA Y FISICA MODERNA

1.
Microscopio Electronico
ESPINOZA MEJIA JORGE DAVID
david.espinoza284@gmail.com
RESUMEN
Comenzamos diciendo que el microscopio electrónico es aquél que utiliza electrones
en lugar de fotones o luz visible para formar imágenes de objetos diminutos. Los
microscopios electrónicos permiten alcanzar ampliaciones hasta 5000 veces más
potentes que los mejores microscopios ópticos, debido a que la longitud de onda de
los electrones es mucho menor que la de los fotones "visibles".
El primer microscopio electrónico fue diseñado por Ernst Ruska y Max Knoll entre 1925
y 1930, hay dos tipos microscopio electrónico de transmisión que su principal
característica es que emite un haz de electrones dirigido hacia el objeto cuya imagen
se desea aumentar. El otro tipo de microscopio electrónico es el de barrido funciona
con capa recubierta de metal delgado que es barrida con electrones enviados desde
un cañón.
Como todo aparato electrónico no es perfecto y tiene limitaciones como por ejemplo el
diámetro de la apertura no permite que la información detallada alcance la imagen, el
contraste de amplitud, el contraste de fase además existen distintas aberraciones
producidas por las lentes: astigmática, esférica y cromática.
Dejando esas limitaciones los microscopios electrónicos tienen muchas aplicaciones
en la rutina diaria de cualquier profesional hasta de una persona codiana.
Uno de ellos es en el estudio de los circuitos integrados se suele utilizar el microscopio
electrónico debido a una curiosa propiedad: Como el campo eléctrico modifica la
trayectoria de los electrones, en un circuito integrado en funcionamiento, visto bajo el
microscopio electrónico, se puede apreciar el potencial al que está cada elemento del
circuito.

Palabras clave:MICROSCOPIO,ELECTRONES,ÓPTICO

Introducción
Comenzamos hablando de la microscopia es un punto importante y se define como el conjunto
de técnicas y métodos destinados a hacer visibles los objetos de estudio que, por su pequeñez,
no son accesibles para el ojo humano. Para ello, se usa el microscopio. He ahí el porque se
invento y comenzamos hablando del primero y este caso el microscopio óptico que contiene dos
o más lentes y que permiten obtener una imagen aumentada del objeto, el cual funciona por
refracción. Sin embargo, presenta la limitación de que no se puede obtener una magnificación
más allá de mil aumentos. Por eso, en el siglo XX, se inventó el microscopio electrónico, mucho
más potente. Una vez que ya sabemos como paso todo enfatizamos en el microscopio
electrónico este por el contrario utiliza electrones con alta energía para realizar observaciones a
diferencia del óptico, que se sirve de la luz (fotones). La energía que se maneja en estos
sistemas está representada por una unidad denominada electronvoltio.

Marco teórico
: El principio de funcionamiento de un microscopio electrónico se basa en utilizar electrones en
lugar de luz visible. La longitud de onda con la que se mueve un electrón es inversamente
proporcional a su velocidad. Esto significa que si los electrones son acelerados a altas
velocidades pueden obtenerse longitudes de onda muy cortas. Un microscopio electrónico utiliza
esta idea para observar las muestras. A un nivel muy básico consiste en una fuente de electrones
que son acelerados a gran velocidad. Estos electrones impactan con la muestra de modo
equivalente a como la luz podría iluminarla. Algunos de estos electrones son reflejados por la
muestra y otros la atraviesan. Mediante la detección estos electrones es posible reconstruir una
imagen de la muestra.
Es muy importante mencionar en este punto las partes del microscopio electrónico:esto es un
poco obvio ya aquellos elemento son los que utilizamos para generar electrones y dirigirlos hacia
la muestra:
Fuente de electrones, lentes electromagnéticas, cámara de vacío y el detector(pantalla
fluorescente).

Discusiones
La principal discusión seria la diferencia entre el microscopio electrónico y óptico. Está claro que
ambos se utilizan para hacer más grande una imagen y poder apreciarla mejor, pero es en la
forma en la que hacen esto donde se separan, ya que con el óptico se ven los objetos con lentes
de aumento iluminados por una luz, mientras que en el electrónico se usa un rayo de electrones,
el cual ofrece una vista muy detallada de lo que se observa.
otra discusión seria si en la actualidad hay otro microscopio mejor que el electrónico la respuesta
es no solo varia en la marca entre ellas estan:
Nikon.
Zeiss.
Leica.
Olympus.
Meiji Techno.
Motic.
Bresser.
AmScope. .

Conclusiones
•Gracias a los microscopios tanto el óptico como el electrónico nos ha servido para comprender
mejor el mundo que nos rodea.
•Los principales avances son en la micro biología y la histología.
•El microscopio electrónico de barrido se utiliza para visualizar la forma tridimensional o
topografía de una muestra.

Referencias
- «Tipos de Microscopios - Información y Características»
-A. Klug 1978-1979 . Análisis de imágenes y la reconstrucción en la microscopia electrónica de
macromoléculas biológicas. ' Chemical Scripta ' ' ' 14 ' ' ' . 245 a 256
-ttps://www.fei.com/introduction-to-electron-microscopy/types/
-http://www.newworldencyclopedia.org/entry/Electron_microscope
-http://www.keyence.com/ss/products/microscope/bz---x700/study/principle/002/index.jsp
-https://www.sciencelearn.org.nz/resources/502-types-of-electron-microscope
OPTICA Y FISICA MODERNA
2.
Barrera De Potencial Y Tunelamiento
Miguel Angel Alegre Zegarra
miguelangel_al16@hotmail.com
RESUMEN
El estudio de las barreras de potencial en la mecánica cuántica nos permite demostrar
lo que se da en las partículas incidentes al estar frente a una barrera de potencial y el
efecto de tunelamiento que se da en las barreras la cual alejándonos del pensamiento
clásico de que si la energía de las partículas es menor respecto a la barrera estas se
reflejaran y si es mayor estas pasaran por una probabilidad de que estas puedan
atravesar la barrera a pesar de que la energía de las partículas sea menor que la de la
barrera, la cual estaría determinada por su coeficiente de transmisión, para este
análisis se hace uso de la Ecuación de Schrödinger independiente del tiempo es decir
la que describe los estados estacionarios en el tiempo y desarrollándola en las 3
regiones y teniendo en cuenta las condiciones de continuidad en los punto de la
barrera antes, entre y después de la barrera de los cuales se pueden hacer 2 análisis,
cuando el caso en el que la energía de las partículas E es menor que la del escalón V0
de lo cual se obtuvo que el coeficiente de transmisión disminuye rápidamente a
medida que se incrementa la anchura de la barrera de potencial y cuando la energía
de las partículas E es mayor que la del escalo V0 del cual se obtuvo que los valores de
la energía E, o mejor del cociente E/V0, para los cuales hay un máximo del coeficiente
de transmisión se denominan resonancias.
Finamente se hace un análisis para n barreras de potencial al igual que en análisis de
1 barrera de potencial se desarrolla la Ecuación de Schrödinger y se obtiene un
cociente el relaciona el coeficiente de transmisión y las partículas incidentes que se
transmiten.

Palabras clave:Barreras de potencial, Tunelamiento, Mecánica Cuántica, Ecuación de


Schrödinger, Coeficiente de Transmisión

Introducción
Este informe de investigación tiene como objetivo principal ayudarnos a comprender un poco más
lo que son las barreras de potencial y tunelamiento por lo que comenzaremos con una breve
definición de lo que son las barreras de potencial en la mecánica cuántica, así como el efecto de
tunelamiento que se da en las partículas frente a una barrera de potencial y las características de
movimiento que tienen estas, otro aspecto a evaluar en este reporte será Ecuación de
Schrödinger tanto dependiente del tiempo como independiente del tiempo haciendo énfasis en la
independiente del tiempo la cual será una ecuación fundamental para el analizar el efecto de
tunelamiento que se da en las partículas frente a una barrera de potenciales posteriormente se
procederá a realizar el análisis para una barrera de potencial resolviendo la Ecuación de
Schrödinger primero para el caso que la energía de las partículas E es menor que el Vo y luego
para el caso en que E es mayor que Vo tanto antes entre y después de atravesar la barrera de
potencia y luego de definir lo que es el Coeficiente de Transmisión obtener las expresiones
finales para cada uno de los casos

Marco teórico
Barrera de potencial y tunelamiento:
La barrera de potencial en la mecánica cuántica es un problema mono dimensional que tiene
como objetivo demostrar el fenómeno del efecto túnel. Para ello se resuelve la ecuación de
Schrödinger independiente del tiempo para una partícula que incide sobre una barrera de
potencial.
En la mecánica cuántica el desarrollo de este problema nos describe un fenómeno particular que
ocurre en relación con las barreras de potencial la cual nos dice que una partícula que se
encuentra con esta barrera no necesariamente es regresada; hay cierta probabilidad de que
salga por el otro lado, aun cuando no tenga la energía cinética suficiente para remontar la
barrera, según la mecánica newtoniana. A esta penetración de barrera se le llama tunelamiento o
filtración cuántica.
Características del movimiento de las partículas:
Desde el punto de vista clásico, si la energía de la partícula es menor que la barrera siempre será
reflejada y si es mayor que la barrera siempre pasara, pero en el comportamiento cuántico se da
de manera diferente porque cuánticamente hay siempre una probabilidad finita de que la partícula
"penetre" la barrera y continúe viajando hacia el otro lado, incluso cuando la energía de la
partícula es menor que la de la barrera esta probabilidad está determinada por el coeficiente de
trasmisión mientras que su efecto contrario por el coeficiente de reflexión.
Ecuación de Schrödinger:
La ecuación de Schrödinger, desarrollada por el físico austríaco Erwin Schrödinger en 1925,
describe la evolución temporal de una partícula subatómica masiva de naturaleza ondulatoria y
no relativista. Es de importancia central en la teoría de la mecánica cuántica, donde representa
para las partículas microscópicas un papel análogo a la segunda ley de Newton en la mecánica
clásica. Las partículas microscópicas incluyen a las partículas elementales, tales como
electrones, así como sistemas de partículas, tales como núcleos atómicos.
Esta ecuación es posee dos formas ya sea dependiente del tiempo o independiente del tiempo
como lo podremos presenciar a continuación:
Ecuación dependiente del tiempo:
La forma de la ecuación de Schrödinger depende de la situación física. La forma más general es
la ecuación dependiente del tiempo, la cual describe un sistema que evoluciona con el paso del
tiempo:
Ecuación general:
La ecuación general se usa en toda la mecánica cuántica, desde la ecuación de Dirac hasta la
teoría de campos cuánticos, mediante la utilización de expresiones complicadas para el
Hamiltoniano.
ih*∂(Ψ(r,t)) /∂t =Ĥ*Ψ(r,t)
Donde i es la unidad imaginaria, ħ es la “constante de Planck reducida” o “constante de Dirac”
(constante de Planck dividida por 2π), el símbolo ∂/∂t indica una derivada parcial con respecto al
tiempo t, Ψ (la letra griega psi) es la función de onda del sistema cuántico, y Ĥ es el operador
Hamiltoniano (el cual caracteriza la energía total de cualquier función de onda dada y tiene
diferentes formas que dependen de la situación).
Ecuación para una partícula simple no relativista:
La versión no relativista de la Ecuación de Schrödinger específica es una aproximación
simplificada a la realidad, la cual tiene bastante precisión en muchas situaciones, pero muy
imprecisa en muchas otras.
El ejemplo más famoso es la ecuación de Schrödinger no relativista para una partícula simple
moviéndose en un campo eléctrico (pero no en un campo magnético) el cual se verá a
continuación:
ih* ∂(Ψ(r,t)) /∂t =[(-h^2)/2μ *∇^2+V(r,t)]*Ψ(r,t)
Donde μ es la "masa reducida" de la partícula, V es su energía potencial, ∇^2 es el Laplaciano
(un operador diferencial), y Ψ es la función de onda (más precisamente, en este contexto, se la
denomina "función de onda posición-espacio"). Es decir, significa que la "energía total es igual a
la energía cinética más la energía potencial".
Ecuación no dependiente del tiempo:
La ecuación de Schrödinger independiente del tiempo predice que las funciones de onda pueden
tener la forma de ondas estacionarias, denominados estados estacionarios. Estos estados son
importantes, y si los estados estacionarios se clasifican y se pueden comprender, entonces es
más fácil de resolver la ecuación de Schrödinger dependiente del tiempo para cualquier estado.
La ecuación de Schrödinger independiente del tiempo es la ecuación que describe los estados
estacionarios. (Solo se utiliza cuando el Hamiltoniano no es dependiente del tiempo. Sin
embargo, en cada uno de estos casos la función de onda total seguirá dependiente del tiempo.)
Ecuación general:
La ecuación general nos dice que:
EΨ=ĤΨ
Esto quiere decir que cuando el operador Hamiltoniano actúa sobre cierta función de onda Ψ, y el
resultado es proporcional a la misma función de onda Ψ, entonces Ψ es un estado estacionario, y
la constante de proporcionalidad, E, es la energía del estado Ψ.
Ecuación para una partícula simple no relativista:
Una conocida aplicación, es la ecuación de Schrödinger no relativista para una partícula simple
moviéndose en un campo eléctrico (pero no en uno magnético):
EΨ(r)= [(-h^2) /2μ* ∇^2+V(r)]*Ψ(r)
Análisis para una barrera de potencial:
Para hacer este tipo de análisis debemos evaluar este problema desde el punto de vista de la
Mecánica Cuántica, resolviendo la ecuación de Schrödinger en las tres regiones y aplicando las
condiciones de continuidad de la función de onda y de su derivada primera en los puntos x=0,
límite en donde está la región donde partículas aun no pasan por la barrera de potencial y donde
está la región donde las partículas dentro de la barrera de potencial, y x=a límite esta está la
región donde las partículas dentro de la barrera de potencial y donde está la región donde las
partículas lograron atravesar la barrera de potencial
Resolveremos primero, el caso en el que la energía de las partículas E es menor que la del
escalón V0, el caso más interesante desde el punto de vista físico. Posteriormente, estudiamos el
caso en el que la energía de la partícula E es mayor que la del escalón V0.
Para E<V_o:
En la región x<0
Tenemos:
((d^2) *Ψ1) / (dx^2) +[(2mE) /h^2]*Ψ1=0
Ψ1 (x)=Ar*e^(ikoX)+Al e^(-ikoX) con (ko)^2=(2mE) /h^2
En la región 0<x<a, donde E<V0
((d^2) *Ψ2) / (dx^2) +[(2m*(E-V0)) /h^2] *Ψ2=0
Ψ2 (x)=Br*e^(-k1X) +Bl e^(k1X) con (k1) ^2=(2m(V0-E)) /h^2
En la región x>a
((d^2) *Ψ3) /(dx^2) +[(2mE) /h^2]*Ψ3=0
Ψ3 (x)=Cr *e^(ikoX) con (ko)^2=(2mE) /h^2
La función de onda Ψ1(x) contiene las partículas incidentes y reflejadas, Ψ2(x) decrece
exponencialmente, la exponencial positiva no está excluida ya que la región clásicamente
prohibida no es indefinida como en el caso del escalón de potencial. Debido a que Ψ2(x) no ha
alcanzado el valor cero en x=a, la función de onda continúa a la derecha de dicho punto, con
amplitud Cr. La función de onda Ψ3(x) representa las partículas transmitidas.
Desde el punto de vista de la Mecánica Cuántica, es posible que una partícula atraviese la
barrera de potencial aun cuando su energía cinética sea menor que la altura de la barrera.
Aplicando las condiciones de continuidad de la función de onda y de su derivada primera en los
puntos x=0, y x=a, obtenemos las siguientes ecuaciones que relacionan los coeficientes Al, Br,
Bl, y Cr en función de Ar.
Primero para x=0:
Ψ1(0) =Ψ2(0) y [(dΨ1) /dx] |_(x=0) = [(dΨ2) /dx] |_(x=0)
De esto se obtiene que:
Ar+Al=Br+Bl
(iko*Ar) - (iko*k*Al) =(k1*Br) - (k1*Bl)
Luego para x=a:
Ψ2(a)=Ψ3(a) y [(dΨ2) /dx] |_(x=a) = [(dΨ3) /dx] |_(x=a)
De esto se obtiene que:
Br*e^(k1*a) +Bl*e^(-k1*a) = Cr*e^(iko*a)
αBr*e^(k1*a) – αBl*e^(-k1*a) = ik*Cr*e^(iko*a)
Para finalizar nuestro análisis debemos tener conocimiento de lo que es el coeficiente de
transmisión para llegar a la expresión final de nuestro análisis:
Coeficiente de transmisión:
El coeficiente de transmisión se define como la relación entre el flujo o densidad de corriente de
la onda transmitida y el flujo de la onda incidente. Se utiliza habitualmente para obtener la
probabilidad de que una partícula pase a través de una barrera por efecto túnel.
Este coeficiente se halla de la siguiente manera:
T=|j(transmitida) |/|j(incidente) |
En donde el j(incidente) es la densidad de corriente en la onda que incide antes de alcanzar la
barrera y j(transmitida) la densidad de corriente en la onda transmitida al otro lado de la barrera.
La densidad de corriente asociada con la onda plana incidente es:
j(incidente)=|Ar|^2 *[(hko)/m]
mientras que la asociada con la onda plana transmitida
j(Transmitida)=|Cr|^2*[(hko)/m]
De esta forma, el coeficiente de transmisión se obtiene de la relación entre los cuadrados de las
amplitudes de las ondas incidente y transmitida
T= (|Cr |^2) / (|Ar |^2)
Luego de haber definido lo anterior se procede a hallar el coeficiente de transmisión el cual como
ya habíamos definido es la proporción de partículas incidentes que son transmitidas:
T=|j(transmitida) |/|j(incidente) |
En este caso: (k1) ^2= (2m(V0-E)) /h^2
T= (|Cr |^2) / (|Ar |^2)
T= [(4(ko)^2) *(k1) ^2)]/[4(k0) ^2*(k1) ^2+((ko^2+k1^2)) *(senh)^2*(k1*a)]
T= [4E*(Vo-E)]/[4E*(Vo-E) +(Vo) ^2*((senh)^2)*(k1*a)]
El coeficiente de transmisión disminuye rápidamente a medida que se incrementa la anchura de
la barrera de potencial.
Para E>V_0:
Para E<V0, T es menor que la unidad. Sin embargo, para E>V0, T alcanza el valor máximo, para
valores concretos del cociente E/V0.
Resolviendo de nuevo, la ecuación de Schrödinger en las tres regiones:
En la región x<0
(d^2*(Ψ1)) / (dx^2) +[(2mE) /h^2]*Ψ1=0
Ψ1 (x)=Ar*e^(ikoX)+Al*e^(-ikoX) con (k0) ^2=(2mE) /h^2
En la región 0<x<a, ahora E>Vo
(d^2*(Ψ2)) / (dx^2) +[(2m*(E-V0)) /h^2]*Ψ2=0
Ψ2 (x)=Br*e^(-k1’X) +Bl*e^(k1’X) con (k1’) ^2=(2m(E-V0)) /h^2
En la región x>a
(d^2*(Ψ3)) / (dx^2) +[(2mE) /h^2]*Ψ3=0
Ψ3(x)=Cr*e^(ikoX) con (ko) ^2=(2mE) /h^2
Las ecuaciones de continuidad de la función de onda y de su derivada primera en x=a, relacionan
B_r y B_l con C_r, y en x=0, relacionan A_r y A_l con B_r y B_l, y, por tanto, con C_r.
Luego de haber evaluado los valores de “x” de la misma manera que en el caso anterior y ya
habiendo definido el coeficiente de transmisión se procede a hallarlo para este caso:
En este caso : k1’^2=(2m(E-V0))/h^2
T= (|Cr |^2) / (|Ar |^2)
T= [4(ko)^2* (k1’) ^2]/[4(ko)^2*(k1’) ^2+(ko^2+k1’^2) *(senh)^2*(k1’*a)]
T=[4E*(Vo-E)]/[4E*(Vo-E) +(Vo) ^2* ((senh)^2) *(k1’*a)]
Como podemos apreciar T toma el valor máximo 1, cuando k1’*a=nπ, siendo n un número entero.
Como k1’ es el número de onda, k1’=2π/λ’, se obtiene que:
λ’=2a/n Donde n=1,2,3,4….
que relaciona la longitud de onda λ’ de la partícula en la barrera de potencial con la anchura “a”
de la misma, para que se obtenga el máximo en el coeficiente de transmisión. Los valores de la
energía E, o mejor del cociente E/V0, para los cuales hay un máximo del coeficiente de
transmisión se denominan resonancias.
Análisis para N barreras de potencial:
Estudiaremos ahora el caso en el que hay N barreras de potencial de la misma anchura a y
separadas unas de otras la misma cantidad b. Observaremos que se producen picos de
resonancia adicionales, dando lugar a un comportamiento complejo del coeficiente de
transmisión.
Resolvemos la ecuación de Schrödinger para cada una de las distintas regiones:
Ψj (x)=Aj*e^(i*qjX) +Bj e^(-i*qjX) con (qj)^2=(2m(E-Vj) /h^2 j=0,1, 2,…. N
Donde q_j es un número complejo real o imaginario dependiendo de qué E> Vj o E<Vj.
En las fronteras entre las regiones, aplicamos las condiciones de continuidad. Sea la frontera
entre las regiones j-1 y j, cuya abscisa es xj.
A(j-1) *e^(i*q(j-1) Xj) +B(j-1) *e^(-iq(j-1) Xj) =A(j)*e^ (i*qjXj) +B(j)*e^ (-i*qjXj)
q(j-1)*(A(j-1) *e^(i*q(j-1) Xj)-B(j-1) *e^(-i*q(j-1) Xj)) =qj (A (j)*e^(iqjXj)-B(j)*e^(iqjXj))
que relaciona los coeficientes Aj y Bj con A(j-1 ) y B(j-1)
Teniendo en cuenta que solamente hay partículas trasmitidas en la región 2N, resulta que B(2N)
=0. Obtenemos los valores de todos los coeficientes Aj y Bj en términos de A2N que actúa como
factor de escala.
El coeficiente de transmisión se define como la proporción de partículas incidentes que se
trasmiten y se obtiene mediante el cociente.
Tr=|A(2N) |^2/|Ao |^2

Discusiones
- Del estudio hecho el cual fue sobre las barreras de potencial y tunelamiento algo que se
puede restar de este análisis es que es necesario que las partículas sean descritas como ondas
ψ para que pueda hacer el análisis mediante la ecuación de Schrödinger y obtener la expresión
final mediante el coeficiente de transmisión
- Otra cosa a tomar en cuenta es que en la transición de las partículas a través de una
barrera de potencial vemos como la amplitud de la onda disminuye y que la parte transmitida
tiene una amplitud menor. La amplitud está relacionada con el cuadrado de la función de onda. Y
eso es la probabilidad de encontrar la partícula en una determinada posición.
- El estudio hecho está íntimamente relacionado con la mecánica cuántica la cual considera
la posibilidad que se dé el efecto de tunelamiento para partículas co una energía menor a la de la
barrera de potencial caso que no toma en cuenta la mecánica clásica.
- Otra característica menos evidente pero igual de fundamental analizar es que la masa de la
partícula que estemos describiendo. A mayor masa menor probabilidad de traspasar la barrera.

Conclusiones
-Es evidente que la anchura de la barrera de potencial es muy importante, a mayor anchura más
tiempo para de crecer en amplitud la onda transmitida y menor probabilidad de estar al otro lado.
-El coeficiente de transmisión disminuye rápidamente a medida que se incrementa la anchura de
la barrera de potencial cuando E<Vo y el cociente entre E/Vo para E>Vo cuando es máximo el
coeficiente de transmisión se denomina resonancia.
-En las ondas incidentes al exterior de la barrera, tenemos funciones de onda de tipo senoidal,
mientras que en el interior de la barrera tenemos un decaimiento exponencial que generará una
onda de menor amplitud que la onda que incidió desde el lado izquierdo de la barrera.
-Que el estudio de las barreras de potencial y tunelamiento tienen muchas aplicaciones en
distintas disciplinas como en la electrónica por ejemplo en los diodos túnel y los dispositivos
generadores de onda, en la medicina en las terapias de radiación, en la Antropología como
mediante el uso del carbono 14 y en la ciencia de los materiales en la caracterización de las
superficies mediante escaneo por tunelamiento microscópico
-La explicación mecánico-cuántica de la penetración a través de una barrera de potencial en
donde clásicamente no puede haber transmisión alguna de partículas sólidas abre la puerta a la
posibilidad de que una partícula que esté atrapada dentro de un pozo de potencial pueda tener
una cierta probabilidad de escapar del pozo no escalando hasta la altura máxima de la barrera
mediante algún suministro de energía para después caer hacia una región de menor potencial,
sino atravesando la barrera en forma espontánea, lo cual dependerá fundamentalmente de la
anchura de la barrera a ser atravesada, y esto es algo que sirve para explicar muchas reacciones
químicas y nucleares

Referencias
Referencia Bibliográfica:
-Sears y Zemansky (2013) Física Universitaria volumen II. Ed. Pearson
-Serway R. y Jewett J.W. (2015) Física para ciencias e ingeniería. volumen II. Ed. Thomson
-Claude Cohen-Tannoudji; Bernard Diu et Frank Laloë (1977). Mecánica Cuántica, vol. I y II.
-Ajoy Ghatak y S. Lokanathan, Mecánica cuántica: teoría y aplicaciones, Springer Science
Business Media, B, V, p 436.
-Ignacio Martın Bragado (2003) Física General volumen II
Referencias Web:
-http://www.uco.es/hbarra/index.php/fc/apuntesfc/330-fc0302
-https://es.slideshare.net/juandavidpc/ecuacion-de-schrodinger-en-una-barrera-de-potencial
-https://cuentos-cuanticos.com/2013/05/16/el-efecto-tunel/
-https://www.nucleares.unam.mx/~vieyra/node37.html
-http://la-mecanica-cuantica.blogspot.com/2010/07/transmision-y-reflexion-de-particulas.html
OPTICA Y FISICA MODERNA
3.
El Oscilador Armónico
Hendenmann Sulca Diego Armando
Screen_armando1999@hotmail.com
RESUMEN
Los sistemas se oscilaciones son todos aquellos fenómenos físicos en el cual se
genera un desplazamiento sinusoidal con respecto a un punto de equilibrio. Los
sistemas de osciladores armónicos mecánicos-cuánticos, se basan en las vibraciones
de las partículas subatómicas. Estas se pueden vibraciones se pueden resolver con
las ecuación de Schrӧdinger y esta nos permite entender que la naturaleza de los
elementos subatómicos es oscilante. La solución de dicha ecuación nos permite
determinar los niveles de energía donde se encuentran los electrones y el
desplazamiento entre dos niveles adyacentes cualesquiera.
La ubicación y la cantidad de movimiento son desconocidas en este campo de la
física, por el principio de incertidumbre de Heisenberg; esto no nos quiere decir que es
imposible determinar una probabilidad ubicación del electrón. Porque como
conocemos en nuestro curso de Química básica, existe una región de mayor
probabilidad donde se ubique el electrón denominada REEMPE.
Esta teoría de la mecánica-cuántica no era aceptada por varios científicos conocidos y
de renombre, como Albert Einsten el cual no podría aceptar que la física subatómica
se describa mediante probabilidades; ya que para él la física se basaba en hechos
calculables y en probabilidades alzar. Fue así que Albert Einsten dedico varios
experimentos para tratar de comprobar la invalides del principio de incertidumbre de
Heisenberg, pero después de varias hipótesis y experimentos determino que dicho
principio si describía la parte cuántica de la física, por más inexacta que fuera. Lo
único inconveniente de esta teoría es que no se puede unificar con las demás teorías
físicas ya establecidas, es como si fuese totalmente distintas la una de la otra.

Palabras clave:subátomicas, niveles de energía, REEMPE, principio de incertidumbre de


Heisenberg.

Introducción
Los sistemas que oscilan son de gran importancia en el mundo físico, desde las oscilaciones de
sus tímpanos en respuesta a una onda de sonido hasta las vibraciones de la Tierra generadas
por un terremoto. Las oscilaciones son igualmente importantes a escala microscópica, donde
dominan los efectos cuánticos. Las moléculas del aire alrededor de usted vibran cuando chocan
entres sí, los protones y los neutrones en un núcleo atómico excitado pueden oscilar en dirección
opuesta, y un horno de microondas transfiere energía a los alimentos haciendo vibrar las
moléculas de agua que hay en ellos, hacia atrás y hacia adelante. Nosotros ya conocemos la
solución de varias ecuaciones osciladoras armónicas, como por ejemplo la ecuación de onda
mecánica y onda electromagnética; pero en este caso nos centraremos en la solución de
ecuación de Schrӧdinger para el tipo más sencillos de sistemas vibración: el oscilador armónico
cuántico-mecánico.

Marco teórico
1. Oscilador armónico:
Las oscilaciones armónicas son fenómenos físicos en el cual el sistema (mecánico, eléctrico, etc.)
comienza a oscilar sinusoidalmente con respecto a un punto de equilibrio, esta idea es un tanto
ideal porque como sabemos la resistencia del medio hacen que la amplitud con el que comenzó
dicho movimiento se valla atenuando con el tiempo, a este fenómeno se le conoce como
oscilaciones armónicas amortiguadas; como su nombre lo dice, se va amortiguando con el pasar
de su desplazamiento.
Existen varios sistemas de osciladores armónicos, pero en el presente trabajo detallaremos al
oscilador mecánico cuántico.
1.1. Oscilador armónico cuántico-mecánico:
Este sistema de oscilador armónico se basa en las vibraciones de los elementos subatómicos los
cuales se resuelve con la ecuación de Schrӧdinger -h^2/2m ((d^2 Ф(x))/(dx^2 ))+1/2 kx^2
Ф(x)=EФ(x). Dicha ecuación nos permite entender las vibraciones a nivel microscópico que
realizan las partículas subatómicas según su nivel que se encuentren. La solución de esta
ecuación es: En=(n+1/2)hw y esta nos permite entender que los niveles de energía donde se
ubican los electrones están separados por un intervalo constante de hw=hf, como Plank lo
propuso en 1900. Hay una cantidad infinita de niveles ya que estamos tratando con un pozo de
potencial infinitamente profundo.
Las funciones de onda para los niveles n=0,1,2,… del oscilador armónico se denominan
funciones de Hermite. Cada función de Hermite es una función exponencial multiplicada por un
polinomio en x. La función de onda del oscilador armónico correspondiente a n=0 y E=E_0 es
Ф(x)=Ce^((-√mk x^2) 2h).
En el análisis newtoniano del oscilador armónico, la energía mínima es cero y la partícula está en
reposo en su posición de equilibrio. Esto no es posible en la mecánica-cuántica; ninguna solución
de la ecuación de Schrӧdinger tiene energía igual a cero y satisface la condición de frontera.
Además, si hubiera un estado así, contravendría el principio de incertidumbre de Heisenberg,
porque no habría incertidumbre con la posición ni con la cantidad de movimiento. La energía
debe ser cuando menos de 1/2 hw para el sistema, para concordar con el principio de
incertidumbre.

Discusiones
La teoría de la mecánica cuántica desmoronaba la idea de una realidad objetiva y está idea le
disgustaba enormemente al ilustre científica Albert Einsten; ya que para él, debía existir una
realidad objetiva que la mecánica cuántica no podía describir por limitaciones de la propia teoría,
y no por la naturaleza del universo.
Einsten para demostrar que la mecánica cuántica es incompleta, comenzó a atacar el principio de
incertidumbre de Heisenberg, con un experimento hipotético donde ponía una caja con varios
fotones y un reloj en ella, con el objetivo de abrir la caja para que solo saliera un fotón. Con ello
podríamos apreciar la variación de la masa en el sistema de fotones que se encuentran aún en la
caja y con la ecuación de la teoría de la relatividad especial hallar la energía con la que el protón
sale en un instante dado. Pero este experimento hipotético tenía varias restricciones, con las cual
era imposible darle la razón a Einsten, como por ejemplo: que no es posible calcular la variación
de la masa por el sistema de fotones, ya que la masa medida sería una incertidumbre es por ello
que dicha teoría cuántica es válida pero no exacta.
En un intento más para desacreditar la teoría cuántica, Einsten con colaboración de otros
científicos publicaron un artículo donde demostraban que la teoría cuántica debe ser no local, es
decir, todo está relacionado instantáneamente. El argumento nos proponía la idea que di
tenemos dos fotones entrelazados y los llevamos a lugares diferentes, medir el estado del
primero necesariamente determina cual es el estado del segundo. Con ello Einsten explica que
los estados de los fotones son fijos solo que no sean determinados, porque de no ser así existiría
una acción fantasmal a distancia que conecta a estos dos fotones en cualquier parte del universo
haciéndolos cambiar de estado a la vez. Luego se demostró que dicha acción fantasmal si
existía, consolidando la teoría de mecánica cuántica.

Conclusiones
La naturaleza del universo es oscilante, porque hasta su más pequeña composición de la materia
oscila. Está definición de la naturaleza nos permite plantearnos una teoría que unifica todas las
teorías anteriores mediante la innovadora teoría de cuerdas, la cual propone que todas las
partículas subatómicas están cuestan por cuerdas de energía pura el cual según su vibración
genera una partícula diferente.
Está teoría no esta comprobada por la dificultad de las matemáticas de dicha teoría, pero la idea
de es muy valida y es posible de entender así el universo, con solo un fenómeno físico que
parecía muy sencillo.

Referencias
Física Universario, Sears y Zemansky
Física Cuántica, Sánchez del río
Física Cuántica, Universidad de Murcia
Introducción a la mecánica cuántica, Julio Gratton
Mecánica Cuántica, Jose A. Oller
OPTICA Y FISICA MODERNA
4.
Exploracion Del Rutherford Del Atomo
Ivan fernando mayorga hilario 1713220193
ifmayorgah@unac.edu.pe
RESUMEN
Una vez descubierta la existencia de los electrones, Thomson propuso uno
de los primeros modelos atómicos: el modelo del pudín de pasas. Este
modelo suponía que la carga negativa estaba concentrada en los dichosos
electrones (las pasas del pudín), mientras que la carga positiva debía estar
repartida por todo el espacio que ocupaba el átomo. Hasta ese momento
no había ninguna razón para aceptar o rechazar de manera tajante este
modelo. De hecho en esa época ya se tenía una idea de cuáles debían
El experimento de la hoja de oro / CIENCIORAMA 8
ser las dimensiones atómicas, y el modelo explicaba de manera burda la
neutralidad eléctrica del átomo.
En 1909, Hans Geiger y Ernst Marsden, un par de físicos, el primero
alemán y el segundo británico, decidieron hacer un experimento en
colaboración con Rutherford para tratar de discernir si el modelo de
Thomson era correcto.
Este experimento consistía en poner una fuente de radiación alfa dirigida
directamente hacia una hoja delgada de oro (en realidad, el hecho de que
el material utilizado fuera oro no es crucial para el experimento, pero el
oro tiene la ventaja de que tiene poca oxidación, de modo que no
incorpora otros átomos; por otra parte, la caja de plomo que se ve en la
ilustración sirve para hacer que la radiación salga en una sola dirección).
Si la teoría de Thomson era cierta, lo que cabía esperar era que la mayor
parte de las partículas alfa atravesarían la hoja y sólo se verían
ligeramente afectadas sus trayectorias, de modo que lo que se observaría
sería a las partículas alfa atravesando la susodicha hoja de oro, y el haz
de partículas se haría más ancho, como si pasáramos la luz de una
lámpara por un vidrio un poco corrugado.
Sin embargo, siguiendo su intuición, Rutherford les pidió a Geiger y
Mardsen que estuvieran muy atentos y reportaran si había partículas alfa
que siguieran trayectorias inesperadas. Las sospechas de Rutherford se
vieron confirmadas, ya que una pequeña cantidad de partículas alfa se
desviaron como si se hubieran estrellado contra algo muy masivo, y de
hecho algunas parecían chocar tan violentamente contra la hoja que
cambiaban por completo su trayectoria y regresaban hacia atrás.
Por último, modeló la desviación de una partícula al pasar por la
vecindad de esta esfera y calculó los efectos que sufriría a medida que se
variaba el radio de esta esfera positiva. Para sorpresa de Rutherford,
mientras más pequeño era el radio de su esfera sus predicciones se
acercaban más y más a los datos experimentales, y de hecho ¡predecían
los resultados de manera perfecta en el límite cuando el radio tendía a
cero!
Rutherford reconoció al momento lo que esto quería decir: toda la
masa --o casi toda-- junto con toda la carga positiva se encuentran
concentradas en una región diminuta del átomo --comparado con sus
dimensiones totales--, mientras que los electrones se encontraban alejados
de esta región, llenando todo el demás espacio del átomo. Rutherford
había descubierto el núcleo atómico.

Palabras clave:ATOMO , ELECTRONES ,NUCLEO ATOMICO, CARGA ELECTRICA, SISTEMA


Introducción
Antes de la propuesta de fisico Rutherford, los fisicos aceptaban que las cargas eléctricas en el
átomo tenían una distribución mas o menos uniforme. El trato de ver como era la dispersion de
las particulas alfa por parte de los atomos de una lamina de oro muy delgada. Los angulos
resultantes de la desviación de las partículas supuestamente aportarían informacion sobre como
era la distribucion de carga en los atomos. Era de esperar, si las cargas estaban distribuidas
uniformemente según el modelo atomico de Thomson, la mayoria de las particulas atravesarian la
delgada lamina sufriendo solo ligerisimas deflexiones, siguiendo una trayectoria
aproximadamente recta. Aunque esto era cierto para la mayoria de las particulas alfa, un numero
importante de estas sufrian deflexiones de cerca de 180o, es decir, practicamente salian
rebotadas en direccion opuesta a la incidente.
Rutherford penso que esta fraccion de particulas rebotadas en direccion opuesta podia ser
explicada si se suponia la existencia de fuertes concentraciones de carga positiva en el atomo. La
mecanica newtoniana en conjuncion con la ley de Coulomb predice que el angulo de deflexion de
una particula alfa relativamente liviana por parte de un atomo
de oro mas pesado, depende del "parametro de impacto" o distancia entre la trayectoria de la
particula y el nucleo.

Marco teórico
BIOGRAFIA
En 1911, el físico británico nacido en Nueva Zelanda Ernest Rutherford estableció la existencia
del núcleo atómico. A partir de los datos experimentales de la dispersión de partículas alfa por
núcleos de átomos de oro, las partículas alfa empleadas por Rutherford, muy rápidas y con carga
positiva, se desviaban con claridad al atravesar una capa muy fina de materia.
Para explicar este efecto era necesario un modelo atómico con un núcleo central pesado y
cargado positivamente que provocara la dispersión de las partículas alfa. Demostrando que el
anterior modelo atómico de Thomson, con partículas positivas y negativas uniformemente
distribuidas, era insostenible.
ANTECEDENTES
A _finales del siglo XVIII se conocían la Ley de la Conservación de la Masa (la masa total en una
reacción química permanece constante: Antoine Lavoisier, 1789), la Ley de las Proporciones
Definidas (los elementos se combinan en proporciones de masa definidas y características para
cada compuesto: Joseph Louis Proust, 1799) y la Ley de las Proporciones Multiples (cuando dos
elementos A y B forman mas de un compuesto, las cantidades de A que se combinan en estos
compuestos, con una cantidad fija de B, están en relación de números pequeños enteros: John
Dalton, 1803). El químico y profesor de escuela John Dalton realizo diversos experimentos con
diferentes sustancias, cuyos resultados dieron lugar a la teoría atómica que Dalton público en
1803. En ella se afirmaba que toda la materia se podía dividir en dos grandes grupos: los
elementos y los compuestos. Los elementos a su vez estarían constituidos por unidades
fundamentales, los cuales Dalton denomino átomos en honor a Democrito, partículas que no
podían ser creadas, divididas ni destruidas. Además, los átomos de un mismo elemento son
idénticos en todas sus propiedades (tamaño, masa y propiedades químicas), mientras que estas
difieren entre átomos de elementos diferentes. Estas partículas se unen con otras para formar
nuevas sustancias en relaciones numéricas simples (por ejemplo, 1 : 1; 3 : 2) por medio de
reacciones químicas. En estas reacciones ningún átomo de un elemento se convierte en un
átomo de otro elemento
Muchos científicos se resistieron durante años a reconocer la existencia de dichas partículas. Sin
embargo, la teoría atómica fue definitivamente validada a partir de la observación experimental
de Robert Brown de que las partículas de polvo que flotaban en el agua se movían al azar, el
denominado movimiento browniano: Albert Einstein propuso una teoría en 1905 según la cual
este movimiento browniano lo causaban las moléculas de agua al chocar constantemente con el
polvo, siendo demostrada por el físico francés Jean Baptiste Perrin en 1911.
En 1897 Sir Joseph Thomson descubrió el electrón mediante su experimento con el tubo de
rayos catódicos. Este tubo era un recipiente cerrado de vidrio, en el cual los dos electrodos
estaban separados por un vacío. Al aplicar una diferencia de potencial entre los dos electrodos, el
cátodo (electrodo negativo) se iluminaba con un resplandor fosforescente, mientras que en la
pared opuesta del tuvo aparecía un punto brillante verde. Algo estaba viajando en línea recta a
través del tubo, a partir del cátodo, que fue llamado rayo catódico. Thompson observo que los
rayos eran desviados de su trayectoria al atravesar un campo magnético o un campo eléctrico.
Por tanto estos rayos no podían ser ondas electromagnéticas (puesto que las ondas no llevaban
carga eléctrica), sino que tenían que ser partículas.
Llego a la conclusión de que los rayos catódicos eran haces de partículas cargadas
negativamente a las que denomino corpúsculos, que posteriormente fueron rebautizados como
electrones. Thomson creía que los corpúsculos surgían de los átomos del electrodo. Tal
descubrimiento modifico el modelo atómico de Dalton, que consideraba al átomo como indivisible.
A partir de estos resultados, y para dar cuenta de la carga neutra del átomo, propuso su modelo
atómico, en el que el átomo sería una esfera solida cargada positivamente con un tamaño del
orden de magnitud del tamaño del átomo (el cual se puede obtener conociendo la densidad de un
sólido típico, su peso atómico y el número de Avogadro). Dentro de esta esfera los electrones
estarán incrustados en la superficie a
modo de pudin de pasas (nombre por el cual se conoce a este modelo) en número suficiente para
contrarrestar la carga positiva, y de manera uniforme para evitar la repulsión electrostática. Este
modelo estático (los electrones se encuentran en reposo) permite explicar la existencia de los
rayos catódicos, ya que si se aplica la suficiente energía dichos electrones salen del átomo como
rayos catódicos, así como la formación de iones, puesto que si un átomo perdiera un electrón la
carga del sistema sería positiva, mientras que si lo ganara la carga final sería negativa.
A principios del siglo veinte, extrayendo electrones de ciertas especies atómicas, se pudo concluir
que el número de electrones en un átomo era aproximadamente la mitad de la masa del átomo.
Este número es característico de la especie atómica y se denomina Z. Como en condiciones
normales los átomos son neutros, la carga positiva debe ser igual en magnitud a la que posee el
conjunto de los electrones. Por ello se pensaba que la mayor parte de la masa atómica se debía
a la masa asociada con la carga positiva. Existían también varios datos experimentales sobre los
espectros de radiación de diferentes sustancias que, según la teoría electromagnética de
Maxwell, se producen por la vibración de los electrones en torno a su posición de equilibrio bajo
ciertas perturbaciones.
Sin embargo, aunque cualitativamente la descripción atómica de Thompson si permita justificar la
existencia de estos espectros, no se podía explicar la diversidad de frecuencias que aparecen en
un espectro. Seguía siendo necesario un modelo que describiera la distribución de las cargas en
el interior del átomo y que a su vez diera cuenta de los datos espectrales.
El modelo de Thompson fue modificado por Perrin, según el cual las cargas negativas serian
externas al “\pudin". Siguiendo en esta línea, Hantaro Nagaoka propuso otro modelo atómico en
1903, el denominado modelo saturniano, según el cual los electrones giraban en orbitas
circulares con la misma velocidad angular alrededor de un cuerpo central cargado positivamente.
Con este modelo pretendía explicar el fenómeno de la radiactividad y los espectros observados.
Sin embargo, este modelo no fue suficientemente apreciado en la comunidad científica hasta
1909, año en que Hans Geiger y Ernest Marsden, bajo la supervisión de Ernest Rutherford
(antiguo alumno de Thompson) realizaron diversos experimentos cuyos resultados no se podían
justificar con el modelo de Thompson.
MODELO ATOMICO DE RUTHERFORD
Para Ernest Rutherford, el átomo era un sistema planetario de electrones girando alrededor de un
núcleo atómico pesado y con carga eléctrica positiva.El módelo atómico de Rutherford puede
resumirse de la siguiente manera:
•El átomo posee un núcleo central pequeño, con carga eléctrica positiva, que contiene casi toda
la masa del átomo.Los electrones giran a grandes distancias alrededor del núcleo en órbitas
circulares.La suma de las cargas eléctricas negativas de los electrones debe ser igual a la carga
positiva del núcleo, ya que el átomo es eléctricamente neutro.
Rutherford no solo dio una idea de cómo estaba organizado un átomo, sino que también calculó
cuidadosamente su tamaño (un diámetro del orden de 10-10 m) y el de su núcleo (un diámetro
del orden de 10-14m). El hecho de que el núcleo tenga un diámetro unas diez mil veces menor
que el átomo supone una gran cantidad de espacio vacío en la organización atómica de la
materia.
IMPORTANCIAS Y LIMITACIONES
La importancia del modelo de Rutherford residió en proponer por primera vez la existencia de un
núcleo en el átomo (termino que, paradójicamente, no aparece en sus escritos). Lo que
Rutherford considero esencial, para explicar los resultados experimentales, fue "una
concentración de carga" en el centro del átomo, ya que sin ella, no podía explicarse que algunas
partículas fueran rebotadas en dirección casi opuesta a la incidente. Este fue un paso crucial en
la comprensión de la materia, ya que implicaba la existencia de un núcleo atómico donde se
concentraba toda la carga positiva y más del 99,9% de la masa. Las estimaciones del núcleo
revelaban que el átomo en su mayor parte estaba vacío.
Rutherford propuso que los electrones orbitarían en ese espacio vacío alrededor de un minúsculo
núcleo atómico, situado en el centro del átomo. Además se abrían varios problemas nuevos que
llevarían al descubrimiento de nuevos hechos y teorías al tratar de explicarlos:
• Por un lado se planteó el problema de como un conjunto de cargas positivas podían mantenerse
unidas en un volumen tan pequeño, hecho que llevo posteriormente a la postulación y
descubrimiento de la fuerza nuclear fuerte, que es una de las cuatro interacciones
fundamentales.
• Por otro lado existía otra dificultad proveniente de la electrodinámica clásica que predice que
una partícula cargada y acelerada, como seria el caso de los electrones orbitando alrededor del
núcleo, produciría radiación electromagnética, perdiendo energía y finalmente cayendo sobre el
núcleo. Las leyes de Newton, junto con las ecuaciones de Maxwell del electromagnetismo
aplicadas al átomo de Rutherford llevan a que en un tiempo del
orden de s, toda la energía del átomo se habría radiado, con la consiguiente caída de los
electrones sobre el núcleo. Se trata, por tanto de un modelo físicamente inestable, desde el punto
de vista de la física clásica.

Discusiones
Este modelo de sistema solar propuesto por Rutherford no puede ser estable según la teoría de
Maxwell ya que, al girar, los electrones son acelerados y deberían emitir radiación
electromagnética, perder energía y como consecuencia caer en el núcleo en un tiempo muy
breve.
La explicación de cómo los electrones pueden tener órbitas estables alrededor del núcleo y por
qué los átomos presentaban espectros de emisión característicos y discretos son dos problemas
que no se explican satisfactoriamente por este modelo.

Conclusiones
Según Rutherford, las orbitas de los electrones no están muy bien definidas y forman una
estructura compleja alrededor del núcleo, dándole un tamaño y forma algo indefinidas. Los
resultados de su experimento le permitieron calcular que el radio atómico era diez mil veces
mayor que el núcleo mismo, y en consecuencia, que el interior de un átomo esta prácticamente
vacío.
Los electrones giran a grandes distancias alrededor del núcleo en órbitas circulares.La suma de
las cargas eléctricas negativas de los electrones debe ser igual a la carga positiva del núcleo, ya
que el átomo es eléctricamente neutro

Referencias
•[Wikipedia(2010a)] Wikipedia. Experimento de rutherford. En l__nea, Noviembre 2010a. URL
http://es.wikipedia.org/wiki/Experimento de Rutherford.
•Microsoft Encarta 2008. 1993-2007.
•[S_anchez-Ron(1992)] Jos_e Manuel S_anchez-Ron. Espacio-tiempo y _atomos. Relatividad y
mecanica cuantica. Ediciones AKAL, 1992. ISBN 9788446001522.
•Particles. John Wiley & Sons, Inc, 1985 edition, 1974. ISBN 0-471-87373-X.
•[Resnick(1974)] R. Eisberg R. Resnick. Quantum Physics of Atoms, Molecules, Solids, Nuclei,
and
•[Bryson(2003)] Bill Bryson. A Short History of Nearly Everything. Broadway Books, May
2003.ISBN 0767908171.
TEORIA DE CAMPOS ELECTROMAGNETICOS
5.
Efecto Doppler
Hendenmann Sulca Diego Armando
screen_armando1999@hotmail.com
RESUMEN
El efecto Doppler es el cambio aparente de la frecuencia de una onda producida por el
movimiento relativo de la fuente respecto a un observador.
Este fenómeno físico se realiza diariamente en nuestras vidas cotidianas sin que nos
percatemos de ello; como por ejemplo cuando un auto se acerca al paradero sonando
el claxon, el sonido del claxon se va haciendo más agudo, lo cual se interpreta como el
aumento de la frecuencia de la onda sonora emitida por el claxon. Este efecto nos dice
que cuando la fuente se va acercando, las ondas emitidas por dicha fuente se van
juntando por acción del movimiento que se está produciendo al ir acercando la fuente
hacia un espectador.
Este fenómeno físico posee muchas aplicaciones, como por ejemplo: Radar,
comunicación por satélites, astronomía, medición de vibraciones, imágenes médicas y
medición de flujo sanguíneo.
• Radar:
El efecto Doppler se utiliza en algunos tipos de radar, para medir la velocidad de los
objetos detectados. Un haz de radar se dispara a un blanco móvil (por ejemplo, un
automóvil, como en el uso que hace la policía del radar para detectar la velocidad de
los vehículos) a medida que se acerca o se aleja de la fuente de radar. Cada onda
sucesiva de radar tiene que viajar más lejos para alcanzar el coche, antes de ser
reflejada y detectada de nuevo cerca de la fuente. Como cada onda tiene que moverse
más lejos, la distancia entre cada onda aumenta, produciendo un aumento de la
longitud de onda. En algunas situaciones, el haz del radar se utiliza con el coche en
movimiento y, si se acerca al vehículo observado, entonces cada onda sucesiva
recorre una distancia menor, produciendo una disminución de la longitud de onda. En
cualquiera de estas situaciones, los cálculos del efecto Doppler permiten determinar
con precisión la velocidad del vehículo observado por el radar.
• Astronomía:
En la astronomía las ondas electromagnéticas como la luz son de gran importancia a
la hora de calcular de las estrellas y de las galaxias que se acercando o alejando de la
tierra. Nos percatamos de la a lejanía o proximidad de un astro a la Tierra cuando la
luz manifiesta un corrimiento al rojo o corrimiento al azul.
El uso del efecto Doppler depende del conocimiento que nosotros penemos de los
espectros de las estrellas. Exhiben líneas de absorción definidas de las frecuencias
que están en correspondencia con las energías requeridas para excitar los electrones
de varios elementos de un nivel a otro. El efecto Doppler es reconocible en el hecho de
que los patrones conocidos de las líneas de absorción no aparecen siempre
coincidiendo con las frecuencias que se obtienen a partir del espectro de una fuente de
luz estacionaria. Dado que la luz azul tiene una frecuencia más alta que la luz roja, las
líneas espectrales de una fuente de luz astronómica que se acerca exhiben un
corrimiento al azul, y las de uno que se aleja experimentan un corrimiento hacia el rojo.
• Comunicaciones por satélite:
Los satélites se mueven muy rápidamente y pueden tener un desplazamiento Doppler
de decenas de kilohercios respecto a una estación terrestre. La velocidad de los
satélites, de la que depende la magnitud del efecto Doppler, sufre cambios debido a la
curvatura de la Tierra. Para evitar este problema se ha ideado la compensación
Doppler dinámica, mediante la que se modifica la frecuencia de la señal varias veces
durante la transmisión, de forma que el satélite reciba una señal de frecuencia
constante.
• Medición de vibraciones:
Un vibrómetro láser Dopper (LDV) es un método por el cual se puede obtener la
medición de vibraciones sin tener la necesidad del contacto. El haz láser se dirige a la
superficie a examinar desde LDV, y la amplitud de la vibración y su frecuencia se
expresan a partir del desplazamiento Doopler de la frecuencia del haz de láser debido
al movimiento de la superficie.
Palabras clave:1)Corrimiento al rojo: Cuando las ondas electromagnéticas de la luz se van
alejando de un observador (Tierra).
2)Corrimiento al azul: Cuando las ondas electromagnéticas de la luz se van acercando de un
observador (Tierra).
3)Subsónicas: Se dice al efecto Doppler realizado con una velocidad menor a la de la luz.
4)Sónicas: Se dice al efecto Doppler realizado con una velocidad igual a la de la luz.
5)Supersónicas: Se dice al efecto Doppler realizado con una velocidad mayor a la de la luz.

Introducción
Durante mucho tiempo los científicos se preguntaban porque los sonidos se agudizaban cuando
la fuente de sonido se acercaba a un observador o en caso contrario se despreciaba cuando se
alejaba de dicho observador. Caso similar sucedía en la astronomía, se observaba en los
telescopios que algunas estrellas y galaxias poseían cierto color rojizo, mientras que otras un
color azulejo. En su momento no se sabía contestar está interrogante de la física; pero fue hasta
en 1842 en un tratado de Über das farbige Licht der Doppelsterne und einige andere Gestirne des
Himmels publicado por Christian Andreas Dooppler, el cual hablaba de dicho fenómeno
astronómico que se daba en las estrellas. En 1845 el científico neerlandés confirmo dicha
hipótesis para el caso de ondas sonoras y confirmó que el tono de sonido emitido por una fuente
que se aproxima es más agudo que si la fuente se aleja. Está hipótesis fue denominada efecto
Doppler en reconocimiento al científico Christian Andreas Doppler.

Marco teórico
1. Fenómenos Ondulatorios:
Uno de los movimientos oscilatorios más conocidos, es el que se observa la masa de agua (lago,
mar, etc.), producido por alguna perturbación, como por ejemplo: cuando arrojamos una piedra a
un estanque con agua observamos ondas circulares que salen hacia afuera, o las que se forman
a mar abierto por la perturbación del viento.
Las características de las ondas producidas dependen de la fuente perturbadora y el medio del
como los casos anteriores.
Las ondas del agua se mueven con determinada velocidad, pero cada partícula de agua oscila en
un punto de equilibrio. Esto se observa con las hojas o con un corcho en el agua, no son
impulsadas hacia adelante por las olas, sino que oscilan en un punto de equilibrio, que es el
movimiento del agua misma. Es una característica general de las ondas: las ondas pueden
moverse a granes distancias, pero el medio solo tiene movimiento limitado. Una onda consiste de
movimiento sin arrastrar materia y se transportan energía.
1.1 El sonido:
Es un fenómeno que involucra la propagación de cualquier onda elástica, generalmente a través
de un medio elástico que propague dicha onda.
El sonido humanamente audible consiste en ondas sonoras que oscilan en la presión del aire,
que son convertidas en ondas mecánicas en el oído humano y percibidas por el cerebro. La
propagación del sonido en los fluidos es bastante similar, la diferencia es que en los fluidos se
generan fluctuaciones de presión y en los sólidos la variación de los sonidos involucra
variaciones del estado de tensión del medio.
1.2 Ondas electromagnéticas:
Las ondas electromagnéticas están conformadas por ondas eléctricas y magnéticas, estas ondas
tienen la peculiaridad de poder transferir energía a través del vacío; esto quiere decir que no
necesita un medio para poder viajar y poder transferir energía.
Un ejemplo de esta onda es la luz, la cual viaja a través del vacío transportando energía luminosa
proveniente del sol.
2. Efecto Doppler:
Es el cambio aparente de la frecuencia de una onda producida por el movimiento relativo entre la
fuente y el receptor.
Existen varios ejemplos de dicho fenómeno físico, tanto audible como visibles, por ejemplo la
luminiscencia de los astros, la agudeza del claxon de un automóvil al acercarse, etc.

Discusiones
Con la hipótesis del efecto Doppler se afirmaba la teoría del big bang y contradecía la teoría de
universo estacionario, este efecto logro acabar con dicha disputa entre estas dos grandes teorías;
ya que era innegable que dichoso efecto era cierto y que demostraba que el universo se estaba
alejando. Dando mayor fundamento a la teoría del big bang y desacreditando la del universo
estacionario. Los científicos que apoyaban el universo estacionario trataron de demostrar otra
explicación para dicho fenómeno pero no se logro encontrar nada que contra dijera dicho efecto y
es así que se confirmó el ahora famoso y muy útil efecto Doppler.

Conclusiones
Es un efecto sumamente útil, no solo en el capo científico; sino que también tuvo un gran impacto
en nuestras vidas diarias, como por ejemplo para poder saber a qué velocidad está yendo un
automóvil en las carreteras. También en la rama de le biología con las imágenes medicas,
medidores de flujo sanguíneos, etc. Este efecto nos ayuda a entender mejor el universo y poder
saber las velocidades de los astros a pesar de la enorme distancia que nos separa sin duda
alguna fue una de las más geniales ideas que se le pudo haber ocurrido a la humanidad.

Referencias
Elementos electromagnéticos, Matthew N. O. Sadiku
Fundamentos electromagnéticos para ingenieros, David K. Cheng
Física Universitaria, Sears Zemansky
Física III, Hugo Medina
Electricidad y Magnetismo, Purcell Edward M.
Fundamentos de electricidad y magnetismo, Kip Arthur F.
TEORIA DE CAMPOS ELECTROMAGNETICOS
6.
Campos Eléctricos Estáticos En La Salud
ESPINOZA MEJIA JORGE DAVID
david.espinoza284@gmail.com
RESUMEN
comenzamos este breve ensayo definiendo los campos tanto eléctricos como
magnéticos en si los dos son líneas de fuerza invencibles generadas por fenómenos
como el magnético terrestre, las tormentas eléctricas y el uso de la electricidad.
Hay varios ejemplos más, pero este es un breve resumen del ensayo completo, ahora
vemos que los campos tanto eléctricos como magnéticos tienen una base científica y
aunque no parezca esta muy ligada a la salud humana he ahí su importancia en ella.
Ahora, la naturaleza de la interacción entre una emisión electromagnética y el material
biológico depende de la frecuencia de la emisión, la mayoría de estos campos son
producidos por la frecuencia industrial. Lo relacionado con la salud humana viene
cuando hay muy altas frecuencias producidas por estos campos estacionarios tienen
suficiente energía para romper los enlaces químicos. Esta ruptura en los enlaces
conocida como “ionización”.
Es muy importante enfatizar en que las emisiones electromagnéticas estáticas no
producen radiaciones. En generales, las emisiones electromagnéticas producen tanto
energía radiante como no radiante .la energía radiad existe independientemente de su
fuente, viaja lejos de su fuente y continúa existiendo aun cuando la fuente se apa. Los
campos no se proyectan al espacio y cesan cuando la fuente se apaga. Los campos
electromagnéticos estáticos no tienen componente radiactiva.
Como vemos en este pequeño resumen que se presento es enfatizar la relación
campos-salud tanto el marco teórico como las posibles preguntas serán explicadas en
los siguientes puntos de este presente ensayo.

Palabras clave:CAMPOS,ELÉCTRICOS,MAGNÉTICOS,SALUD,ESTÁTICO

Introducción
Comenzamos preguntándonos: ¿Cuáles son las fuentes de los campos eléctricos estáticos?
Los campos eléctricos estáticos se producen de forma natural en la atmósfera, especialmente
bajo las nubes de tormenta, y pueden provocar la caída de rayos. La fricción, por ejemplo la
producida al caminar sobre una alfombra, puede generar intensos campos eléctricos estáticos y
provocar chispas. El empleo de corriente continua (CC), por ejemplo en determinados sistemas
ferroviarios, puede generar también campos eléctricos estáticos.
Una vez respondida la primera pregunta seguimos con los magnéticos y es que aunque parezca
algo sin mucha importancia Algunos animales perciben el campo magnético terrestre y lo utilizan
para orientarse. Los campos magnéticos estáticos artificiales aparecen cuando se utiliza corriente
directa, por ejemplo en los trenes eléctricos o en procesos industriales como la producción de
aluminio. Estos campos pueden llegar a ser más de 1.000 veces superiores al campo magnético
terrestre.
Ahora entramos a la principal relación campos-salud, esto puede suceder de tres formas :
-Generar campos eléctricos y corrientes alrededor del corazón, así como dificultar ligeramente la
circulación de la sangre.
-Tener efectos sobre implantes metálicos, y eventualmente sobre moléculas biológicas y
estructuras celulares del cuerpo.

Marco teórico
primero vemos lo que es en si un campo eléctrico estático como ya sabemos es el espacio que
rodea a una una carga Q se ejerce una cierta influencia de modo que, cuando en un punto
próximo se sitúa otra carga q, carga testigo o de prueba, pequeña frente a Q, aparecerá sobre
ella una fuerza de interacción debido a que se encuentra en el campo eléctrico generado por Q.
Este concepto lo podemos observar en cualquier libro de física es necesario también saber que
es la intensidad del campo y en breves palabras la llamaremos intensidad de campo
electrostático o simplemente campo electrostático E creado por una carga puntual Q en un punto
del espacio a la fuerza electrostática que dicha carga Q ejercería sobre la unidad de carga
positiva colocada dicho punto.
E = F/q = k. Q/ r2
La unidad de intensidad de campo eléctrico en el S. I. es el N/C.
Un concepto básico es si tenemos una distribución de cargas puntuales, la intensidad de campo
electrostático en un punto P se calcula mediante el principio de superposición.
Como nosotros sabemos el tema de campos eléctricos estáticos es muy abundante y esto solo es
un ensayo que se basa más en la relación campos-salud.
Abundar mas en estos conceptos esta por demás ahora veremos el marco teórico relacionado a
la salud:
En el organismo se producen corrientes eléctricas minúsculas debidas a las reacciones químicas
de las funciones corporales normales, incluso en ausencia de campos eléctricos externos. Por
ejemplo, los nervios emiten señales mediante la transmisión de impulsos eléctricos. En la
mayoría de las reacciones bioquímicas, desde la digestión a las actividades cerebrales, se
produce una reorganización de partículas cargadas. Incluso el corazón presenta actividad
eléctrica, que los médicos pueden detectar mediante los electrocardiogramas.
Tanto los campos eléctricos como los magnéticos inducen tensiones eléctricas y corrientes en el
organismo, pero incluso justo debajo de una línea de transmisión de electricidad de alta tensión
las corrientes inducidas son muy pequeñas comparadas con los umbrales para la producción de
sacudidas eléctricas u otros efectos eléctricos.

Discusiones
•Bueno ya expuesto los conceptos y la información brindada podemos decir que la principal
discusión que hacía en forma macro y micro al nivel de personal era si los campos eléctricos
estáticos eran dañinos para salud ,luego vienen las secundarias como las causas que podría
suceder .

Conclusiones
•Las fuentes de campos electromagnéticos generadas por el hombre que constituyen una parte
fundamental de las sociedades industriales están en el extremo del espectro electromagnético
correspondiente a longitudes de onda relativamente largas y frecuencias bajas y sus cuantos no
son capaces de romper enlaces químicos.
•Los aparatos eléctricos son un ejemplo de campos de frecuencia extremadamente baja.
•Los efectos de los campos electromagnéticos sobre el organismo no sólo dependen de su
intensidad sino también de su frecuencia y energía.
•Los campos en si depende mucho de su amplitud y frecuencia para producir diversos efectos
como calentamiento y sacudidas eléctricas.

Referencias
J.E. Moulder y K.R. Foster: Biological effects of power-frequency fields as they relate to
carcinogenesis. Proc Soc Exp Med Biol 209:309-324, 1995.
- J.E. Moulder: Biological studies of power-frequency fields and carcinogenesis. IEEE Eng Med
Biol 15 (Jul/Aug):31-49, 1996.
- K.R. Foster, L.S. Erdreich y J.E. Moulder: Weak electromagnetic fields and cancer in the context
of risk assessment. Proc IEEE 85:733-746, 1997.
- J.E. Moulder: Power-frequency fields and cancer. Crit Rev Biomed Engineering 26:1-116, 1998.
-OMS - Organización Mundial de la Salud. Extremely low frequency fields. Serie Criterios de
Salud Ambiental, Vol. 238. Ginebra, Organización Mundial de la Salud, 2007
TEORIA DE CAMPOS ELECTROMAGNETICOS
7.
Ley De Faraday De La Inducción Magnética
Miguel Angel Alegre Zegarra
miguelangel_al16@hotmail.com
RESUMEN

El estudio de la inducción magnética nos permite demostrar que un campo magnético


variable o estático es capaz de generar fem inducida expresando Faraday que la
magnitud del voltaje inducido es proporcional a la variación del flujo magnético, a su
vez este efecto de generar fem inducida depende de cómo varia el flujo magnético a
través del tiempo al atravesar una superficie, esta expresión matemáticamente
expresada depende de 2 integrales en cada extremo una de superficie y una de
longitud, esta expresión se pueden simplificar mediante la aplicación de la ley de Stoke
y las ecuaciones de Maxwell aplicadas al electromagnetismo obteniendo una
expresión matemática y simplificada para la obtención de la fem inducida mediante la
variación del flujo respecto al tiempo y la cantidad de estiras a su vez este análisis se
puede hacer para una espira móvil obteniendo una expresión para la fem inducida
dependiente de campo magnético, el área y la velocidad, para una espira estacionaria
obteniendo una expresión dependiente de la diferencia de dos expresiones, por un
lado la derivada respecto al tiempo de la integral de superficie del campo magnético y
por el otro lado la integral de superficie de la variación del campo magnético respecto
al tiempo.
Una consecuencia del análisis de la inducción magnética es la ley de Lenz que hace
referencia al sentido que tiene la corriente inducida al producirse una variación del flujo
de campo aplicado dándonos a entender que el sentido del campo inducido no
depende solo del sentido del campo aplicado, sino de la variación de éste, siendo esta
una ley muy útil como regla para intuir el sentido de la corriente inducida, sin
necesidad de hacer cálculos.
Finamente damos a conocer algunas aplicaciones que se dan por medio de la
inducción magnética como el motor eléctrico, el transformador, el freno magnético y las
cocinas por inducción.

Palabras clave:Inducción Magnética, Flujo magnético, Ley de Faraday, Ley de Lenz

Introducción
Este informe de investigación tiene como objetivo principal ayudarnos a comprender un poco más
acerca de la inducción magnética por lo que comenzamos con una breve definición de los que es
la inducción magnética y su relación con la fem inducida, luego para continuar con este análisis
se procedió a definir lo que es el flujo magnético ya que está íntimamente relacionado con la
inducción magnética y la generación de fem inducida, luego de ello antes de describir la ley de
Faraday se procedido a mencionar de manera breve lo que consistió el experimento de Faraday
para llegar a esta ley. Seguidamente se procedió a definir lo que era la ley de Faraday y
seguidamente se comenzó analizar matemáticamente la definición para llegar a obtener las
expresiones para la generación de fem inducida ya sea la expresión clásica para N° espiras, para
el caso de una espira, para el caso de una espira móvil como para el caso de una espira
estacionaria, luego de ello se definió lo correspondiente a la ley de ley consecuencia de la
inducción magnética en el sentido de la corriente inducida y finamente culminamos con algunas
aplicaciones que tiene la inducción magnética.

Marco teórico
Ley de Faraday de la inducción magnética
Inducción magnética:
La inducción magnética es un fenómeno que origina la producción de una fuerza electromotriz
(f.e.m. o voltaje) en un medio o cuerpo expuesto a un campo magnético variable, o bien en un
medio móvil respecto a un campo magnético estático. Es así que, cuando dicho cuerpo es un
conductor, se produce una corriente inducida. Este fenómeno fue descubierto por Michael
Faraday quién lo expresó indicando que la magnitud del voltaje inducido es proporcional a la
variación del flujo magnético.
Para poder dar una descripción cuantitativa de la fem inducida, resulta necesario entender
primero aquellos factores que afectan el fenómeno. Uno de los más importantes es el flujo
magnético que se definirá a continuación ya que más adelante veremos que en realidad la fem
inducida se produce por cambios en una magnitud denominada flujo magnético, y no
simplemente cambiando el campo magnético.
Flujo magnético:
Es la cantidad o el conjunto de líneas de fuerza que atraviesa la superficie de un cuerpo sometido
a la acción de un campo magnético.
Se denomina flujo al producto escalar del vector campo magnético por el vector superficie:
ϕ=B∙S=B.S.cosθ
Tomando el flujo su valor máximo si θ = 0 (ϕ=B∙S) y su valor mínimo si θ = 90º (ϕ=0).
Si el campo no es constante o la superficie no es plana, se calcula el flujo a través de cada
elemento dS de superficie, se halla de la siguiente manera:
El flujo a través de la superficie S, es:
ϕ=∫sB∙dS
Como la unidad de B es T (tesla) o Wb/m2 (weber por metro cuadrado), la unidad de flujo
magnético será entonces T/m2 o Wb.
Experimento de Faraday:
En 1831 Michael Faraday realizó importantes descubrimientos que probaban que efectivamente
un campo magnético puede producir una corriente eléctrica, pero siempre que algo estuviera
variando en el tiempo. Así descubrió:
-Si se mueve un imán en las proximidades de una espira, aparece una corriente en ésta,
circulando la corriente en un sentido cuando el imán se acerca y en el opuesto cuando se aleja.
-El mismo resultado se obtiene si se deja el imán quieto y lo que se mueve es la espira.
-En lugar de un imán pueden usarse dos bobinas y se obtiene el mismo resultado. Como no es
imprescindible que haya movimiento. Faraday mostró que, si arrollan dos bobinas alrededor de
un núcleo de hierro, si por una de ellas (el “primario”) circula una corriente continua, en la otra (el
“secundario”) no hay corriente alguna. Sin embargo, justo tras el cierre del interruptor, cuando la
corriente del primario cambia en el tiempo, se induce una corriente en el secundario. Asimismo,
tras la apertura del interruptor también aparece una corriente en el secundario, pero de sentido
contrario a la anterior.
Ley de la inducción magnética de Faraday:
Luego de los resultados obtenidos en experimento de Faraday se enuncia la siguiente ley la cual
sostiene que: “La tensión inducida en un circuito cerrado es directamente proporcional a la
rapidez con que cambia en el tiempo el flujo electromagnético que atraviesa una superficie
cualquiera con el circuito mismo como borde”.
Esto se define matemáticamente como:
∫c(E)∙dl=-d(∫sB∙dS)/dt
donde:
-E: Es el campo eléctrico,
-dl: Es el elemento infinitesimal de longitud del circuito representado por el contorno C,
-B: Es el campo magnético,
-S: Es una superficie arbitraria, cuyo borde es C. Las direcciones del contorno C y de dS están
dadas por la regla de la mano derecha.
De la formula anterior podemos intercambiar el orden de la integral de superficie y la derivada
temporal siempre y cuando la superficie de integración no cambie con el tiempo. Por medio del
teorema de Stokes puede obtenerse una forma diferencial de esta ley:
∇xE=-∂B/∂t
Ésta es una de las ecuaciones de Maxwell, las cuales conforman las ecuaciones fundamentales
del electromagnetismo. La ley de Faraday, junto con las otras leyes del electromagnetismo, fue
incorporada en las ecuaciones de Maxwell, unificando así al electromagnetismo.
En el caso de un inductor con N vueltas de alambre, la fórmula anterior se transforma en:
ℇ=-N(dϕ/dt)
donde:
-ℇ: es la tensión inducida o fuerza electromotriz inducida
-dϕ/dt: es la tasa de variación temporal del flujo magnético Φ. El sentido de la tensión inducida (el
signo negativo en la fórmula) se debe a la ley de Lenz.
En el caso de una espira en un campo magnético uniforme:
Considerando un sentido anti horario de recorrido de la espira, el vector a normal perpendicular a
la superficie. El flujo magnético es igual al valor del campo por el área donde se halla por lo que
se obtiene lo siguiente:
ϕ=∫BdS=∫(Bo.k)∙(dS.k)=BoAx
La fuerza electromotriz inducida por este flujo variable es:
ℇ=-d(BoAx )/dt=-BoA*(dx/dt)= -BoAv
Si la espira tiene resistencia eléctrica R, la corriente que circula por ella es:
I=ℇ/R=(-BoAv)/R
En el caso de que la espira esté penetrando en el campo (v > 0), la corriente inducida es
negativa, es decir, va en sentido horario (el opuesto al supuesto). Si está saliendo, es positiva,
esto es, anti horaria (el mismo que el supuesto).
En el caso de una espira móvil:
Consideremos en primer lugar el caso de una barra conductora que se mueve con velocidad v= v
i en el interior de un campo uniforme B=Bo k.
Sobre cada carga aparece una fuerza magnética
Fm=q(vxB)=-qvBo j
El campo magnético provoca una separación de cargas y funciona como un campo efectivo E’.
La separación de cargas no es ilimitada. Una vez que las cargas se acumulan en los extremos se
crea un campo eléctrico que se opone a la fuerza magnética. La separación se detiene cuando la
fuerza sobre cada carga se anula:
0 = q(E+vxB) → E=-vxB=vBo j
Este campo eléctrico dentro de la barra lleva asociada una diferencia de potencial entre el
extremo superior y el inferior:
Va-Vb=∫E∙dr=∫ (vBo j) ∙ (dy j) = -vaBo
Describiendo un generador en circuito abierto, en el que los extremos de la barra funcionan como
polos del generador y el signo negativo porque se recorre la barra de polo positivo a negativo. No
hay corriente circulando por la barra ya que la fuerza magnética y la eléctrica se anulan
mutuamente.
Para una espira estacionaria:
Supongamos ahora el caso de que tengamos una espira quieta y un imán en movimiento, que de
las experiencias de Faraday sabemos que es equivalente al caso inverso. Sabemos que la fuerza
magnética es igual a:
Fm=q (E + vxB), al ser v=0 se tiene que:
Fm=qE
Y al ser un campo eléctrico inducido por la variación del campo magnético, se cumple la siguiente
relación:
ℇ=∫c E∙dr = -d(∫s B.dS)/dt - ∫s (∂B/∂t)*dS
Si el campo magnético es constante o no existe, como ocurre en electrostática, el segundo
miembro se anula y recuperamos el resultado de que un campo electrostático no puede
conseguir que las cargas recorran un circuito cerrado.
Una de las consecuencias del análisis de la inducción magnética es la ley de Lenz de que se
hablara a continuación:
Ley de Lenz:
El signo que aparece en la ley de Faraday tiene consecuencias muy importantes.
Consideremos el caso de un imán que se acerca por su polo norte a una espira conductora. A
través de la espira, el flujo magnético está aumentando. De acuerdo con la ley de Faraday, la
f.e.m. inducida es negativa, y la corriente que se induce en la espira es tal que el campo que ella
misma produce se opone al campo aplicado.
Supongamos ahora que el imán se está alejando de la espira (pero ofreciendo también su polo
norte). En este caso el flujo magnético está disminuyendo y la corriente inducida es tal que el
campo magnético inducido refuerza al inductor.
Vemos entonces que el sentido del campo inducido no depende solo del sentido del campo
aplicado, sino de la variación de éste. Esto se expresa mediante la ley de Lenz:
“El sentido de la corriente inducida es tal que el campo que produce se opone a la variación del
flujo del campo aplicado”.
Si el campo está disminuyendo, tiende a aumentarlo; si está aumentando tiende a disminuirlo.
Esta ley es muy útil como regla para intuir el sentido de la corriente inducida, sin necesidad de
hacer cálculos.
Aplicaciones de la inducción magnética:
Motor eléctrico: Un motor eléctrico sirve para transformar electricidad en movimiento. Consta de
dos partes básicas: un rotor y un estator. El rotor es la parte móvil y esta formado por varias
bobinas. El estator es un imán fijo entre cuyos polos se ubica la bobina. Su funcionamiento se
basa en que, al pasar la corriente por las bobinas, ubicadas entre los polos del imán, se produce
un movimiento de giro que se mantiene constante, mediante un conmutador, generándose una
corriente alterna.
Transformador: Es un dispositivo que permite aumentar o disminuir el voltaje de una corriente
alterna. Está formado por dos bobinas enrolladas en torno a un núcleo o marco de hierro. Por la
bobina llamada primario circula la corriente cuyo voltaje se desea transformar, produciendo un
campo magnético variable en el núcleo del hierro. Esto induce una corriente alterna en la otra
bobina, llamada secundario, desde donde la corriente sale transformada. Si el número de espiras
del primario es menor que el del secundario, el voltaje de la corriente aumenta, mientras que, si
es superior, el voltaje disminuye.
Freno magnético: consiste en un electroimán que rodea a un disco metálico, unido rígidamente a
la rueda que se desea frenar. Cuando se aprieta el pedal, se hace circular corriente por el
electroimán, creando un campo magnético sobre el disco. Por la ley de Faraday se inducen
corrientes en el material conductor. Estas corrientes en el interior del material se denominan
corrientes de Foucault. Al existir corrientes se disipa energía por efecto Joule. Esta energía
procede de la energía cinética de la rueda, que por tanto se ve frenada.
Cocinas de inducción: El mismo principio de los frenos magnéticos se plica si lo que queremos es
producir calor. Una cocina de inducción consiste en un imán en espiral situado debajo de la placa
vitro cerámica, que produce un campo magnético alterno (que varía como el coseno de ωt). Al
colocar sobre la cocina un recipiente metálico se inducen corrientes de Foucault en el propio
recipiente y en el agua y alimentos que contiene. El calor liberado por estas corrientes es el que
se emplea para cocinar los alimentos.

Discusiones
-La inducción ocurre solamente cuando el conductor se mueve en ángulo recto con respecto a la
dirección del campo magnético. Este movimiento es necesario para que se produzca la
inducción, pero es un movimiento relativo entre el conductor y el campo magnético. Dado que la
corriente del electroimán aumenta y se reduce, su campo magnético se expande y se comprime,
este campo en movimiento puede inducir una corriente en un hilo fijo cercano.
-La Ley de Faraday predice cómo interaccionarán los campos magnéticos con los circuitos
eléctricos para producir fuerzas electromagnéticas o inducción electromagnética. Un principio
fundamental operando en los transformadores, inductores y otros motores eléctricos o
generadores.
-La ley de Lenz proviene de la aplicación del principio de conservación de la energía al campo
electromagnético, para así obtener la conclusión de que las tensiones o voltajes que se aplican a
un conductor producen una FEM que se opone a toda variación de la corriente original que la
produjo.
-Para lo que conlleva a la conservación de la energía en la ley de Faraday, cuanto más rápido
sea el movimiento del imán, mayor es la potencia disipada, y el trabajo realizado sobre la barra
por unidad de tiempo debe ser mayor.

Conclusiones
-Para producir un flujo de corriente en cualquier circuito eléctrico es necesaria una fuente de
fuerza electromotriz, a su vez cuando se hace oscilar un conductor en un campo magnético, el
flujo de corriente en el conductor cambia de sentido tantas veces como lo hace el movimiento
físico del conductor.
-Una corriente producida por una fem inducida circula en una dirección de manera que, el campo
magnético generado por esa corriente, se opone a la variación de flujo.
-La fem en los extremos de un conductor localizado en el interior de un campo magnético es
debida a la variación del flujo del campo en el intervalo de tiempo en que se presenta dicha
variación.
-Este fenómeno de inducción electromagnética se rige por dos leyes, una de tipo cuantitativo
conocida con el nombre de ley de Faraday y otra de tipo cualitativo o ley de Lenz.
-De la ley de Faraday podemos concluir que fue Faraday fue el primero en demostrar la relación
entre campos magnéticos y campos eléctricos. Posteriormente, la ecuación de la Ley de Faraday
se convirtió en parte de los enunciados de Maxwell.
-Tanto aparatos eléctricos como aparatos electrónicos en la actualidad funcionan gracias a este
fenómeno de la inducción magnética y que cada vez se presentan nuevos avances en la
tecnología, en las comunicaciones gracias al electromagnetismo.

Referencias
Referencia Bibliográfica:
-Tipler-Mosca. Fisica para la ciencia y la tecnología, volumen II 6ta ed.
-David K Cheng. Fundamentos del electromagnetismo para la ingeniería Ed. Pearson
- Serway R. y Jewett J.W. (2015) Física para ciencias e ingeniería. volumen II. Ed. Thomson
-Ignacio Martın Bragado (2003) Física General volumen II
-L. D. Landau y E. M. Lifshitz. Teoría clásica de campos. Vol. II, 2da ed. Ed. Reverté.
Referencias Web:
-http://www.academico.cecyt7.ipn.mx/FisicaIV/unidad1/generadores.htm
-http://www.cursosinea.conevyt.org.mx/cursos/pcn/antologia/cnant_2_19.html
-https://espaciociencia.com/ley-de-faraday-induccion-electromagnetica/
-https://www.monografias.com/trabajos70/induccion-electromagnetica/induccion-
electromagnetica2.shtml
-http://www.sabelotodo.org/fisica/leydefaraday.html
-http://www.sc.ehu.es/sbweb/fisica/elecmagnet/induccion/variable/variable.htm
palabra
Apellidos y curs Resume introducció marco discusione conclusione referencia Tota CALiFi
s %
nombres o n n teorico s s s l c
clave
Hendenmann
Sulca Diego
Armando OFM 0.3 0 0.1 0.5 0.1 0 0.8 1.8 26% 5.14
ESPINOZA
MEJIA JORGE
DAVID OFM 0.5 1 0.5 0.1 0.1 0.1 0.8 3.1 44% 8.86
Alegre Zegarra
Miguel Angel OFM 0.6 1 0.5 0.8 0.1 0.1 0.8 3.9 56% 11.14
Mayorga Hilario
Ivan Fernando OFM 0.4 1 0.5 0.9 0.2 0.2 1 4.2 60% 12
Hendenmann
Sulca Diego
Armando TCE 0.4 0 0 0.8 0.3 0.1 0.9 2.5 36% 7.14
ESPINOZA
MEDIA JORGE TCE 0.6 1 0.6 0.5 0 0.1 0.8 3.6 51% 10.29
Alegre Zegarra
Miguel Angel tce 0.5 1 0.2 0.6 0.4 0.5 1 4.2 60% 12

También podría gustarte