Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Breve Historia de La Electronic A
Breve Historia de La Electronic A
En 1838, Samuel Morse patenta el primer telégrafo, palabra que significa ³gráfico a lo
lejos´. La interrupción de un circuito eléctrico permite codificar puntos y rayas para ser
transmitidas a cierta distancia. Desde lejos se puede controlar un electroimán que desplaza
un lápiz, o un dispositivo, que hace marcas sobre una cinta de papel que se mueve a una
velocidad constante.
Para superar los inconvenientes que presenta este primitivo sistema, utilizó sucesivos
circuitos eléctricos, cada uno con su propia fuente de energía y su propio relevador (o relé).
Morse se ganaba la vida pintando retratos, en épocas anteriores a la aparición de la
fotografía. También se atribuye esta invención a los ingleses Cooke y Wheatstone, mientras
que los alemanes Carl Gauss y W.E. Weber se comunicaban entre sus casas con un
primitivo telégrafo.
!"#c
Alexander Graham Bell obtiene la primera patente del teléfono en EEUU, si bien se
atribuye su invención al italiano Antonio Meucci. De todas formas, es posible que varios
inventores trabajen en forma simultánea sin que exista plagio. La palabra ³teléfono´
significa ³sonido a lo lejos´. Bell era un profesor de sordomudos, nacido en Inglaterra,
quien trataba de perfeccionar su trabajo docente.
El primer teléfono de Bell estaba constituido por dos imanes permanentes, cada uno con un
bobinado. Los entrehierros de los imanes en forma de ³U´, incluían membranas metálicas
muy delgadas. Al hablar sobre la membrana del primero, se modificaba el campo
magnético del imán, por lo que se inducía una tensión eléctrica en la bobina respectiva.
Este es el emisor o micrófono.
La bobina del primer imán estaba conectada, a través de dos conductores, con la otra
bobina, que recibía una corriente enviada por la primera. Dicha corriente modificaba el
campo magnético del segundo imán (receptor o parlante) haciendo que la segunda
membrana se moviera siguiendo las variaciones de corriente. El movimiento de la segunda
membrana implicaba una reproducción del sonido original, que produjo la secuencia
descripta.
$!%
#&
&
#
Marconi modifica el chispero de Hertz conectando una antena al electrodo superior y
estableciendo una conexión a tierra a través del electrodo inferior. Además, ubica un
bobinado sintonizado con su propia capacitancia distribuida, permitiéndole seleccionar una
frecuencia de emisión, facilitando la posible transmisión simultánea de varias emisoras.
Otra innovación consistió en girar 90º los electrodos y la antena, para hacer que el campo
eléctrico oscilara verticalmente y fuera poco absorbido por el suelo, logrando transmitir a
mayores distancias que lo logrado por Hertz. El receptor también puede sintonizarse,
mientras que con unos auriculares podía recibir los puntos y rayas que constituían al código
de Morse.
Si se aplica la señal recibida directamente a los auriculares, no se escucha nada. Ello se
debe a la inercia mecánica de tal dispositivo, que no puede seguir las rápidas variaciones de
la corriente eléctrica. El auricular responde al promedio de la corriente recibida, y no al
valor instantáneo de la misma. No se escucha nada porque el valor promedio de una señal
alterna es nulo.
Con un rectificador, o detector, se dispone de un valor promedio distinto de cero. El
detector estaba constituido por una piedra galena (mineral de plomo y azufre) que permite
establecer una corriente unidireccional. Para mejorar aún más la recepción, se coloca un
capacitor que disminuye las variaciones de la tensión, elevando aún más el promedio de la
corriente y la calidad del sonido recibido.
'(
# )
((
#+,
Las líneas telefónicas tenían mucha capacidad distribuida, por lo que las señales se
debilitaban con la distancia. Había que agregar inductancia de manera de lograr un filtro
pasabajos. Esto se conoce como la ³pupinización´ de la línea telefónica. La AT&T le
encarga este trabajo a Campbell y a Pupin, siendo el primero un empleado de dicha
empresa. Ambos investigaron los trabajos realizados por el inglés Oliver Heaviside, quien
había hecho un estudio al respecto. De esos trabajos surge la teoría de los filtros eléctricos,
realizada por Campbell, y la obtención de una patente a nombre de Pupin. La empresa
AT&T tuvo que pagar, en esa época, unos quinientos mil dólares por hacer uso de un
invento patentado, que sólo era una mejora insignificante del trabajo original de Heaviside.
Cuando le ofrecieron a Heaviside algo de dinero en retribución por sus trabajos, dijo que
debería ser al ³todo o nada´, por lo que siguió en la extrema pobreza y en una soledad
favorecida por su sordera.
El matemático Norbert Wiener alguna vez quiso escribir una novela basada en este triste
caso. Wiener escribió: Pupin había envuelto su alma dentro de un contrato comercial.
Cuando un alma es comprada por alguien, el diablo es el consumidor último. Hasta la
penitencia pública le fue denegada. Aunque era incapaz de reprimirse en silencio, las
mentiras y las exageraciones a las que se vio forzado a recurrir deben de haber resonado
sepulcralmente en el espacio vacío donde su alma se había alojado. (De ³Inventar´).
- c
Una de las empresas que promovió grandes avances de la electrónica fue la AT&T
(American Telegraph and Telephone Company), sucesora de la Bell Telephone Company, a
través de los Laboratorios Bell. En la década de los cuarenta tiene cinco mil setecientos
empleados, mientras que en los sesenta tenían diecisiete mil empleados, que generaban
unas setecientas patentes de invención anuales.
Uno de sus empleados, George A. Campbell, establece en 1915 la descripción matemática
de los filtros de ondas. Un filtro de onda es un circuito que presenta una diferente respuesta
ante las distintas frecuencias que se le aplican. De ahí que transmitirá algunas de ellas y
rechazará a otras. La oposición al paso de la corriente alterna, que presentan bobinas y
capacitores, depende de la frecuencia de la misma, por lo que los filtros pasivos están
constituidos principalmente por esos elementos circuitales. Posteriormente aparecen los
filtros activos, que proveen una amplificación selectiva.
También en 1915, John R. Carson establece la transmisión por banda lateral única (BLU).
Si se analiza el espectro de las frecuencias que componen una señal modulada en amplitud,
se verá que consiste en una onda portadora de radiofrecuencia con dos bandas laterales,
asociadas a la información a transmitir. Carson advierte que la información viene por
³duplicado´ en ambas bandas, por lo que podría suprimirse a una de ellas, e incluso a la
portadora, necesitando mucha menos potencia para transmitir la misma información a la
misma distancia; eso sí, a costa de emplear un receptor bastante más complejo.
La transmisión de información requiere, en varias de sus etapas, de una adecuada
amplificación. Ello implica, entre otros aspectos, que el amplificador debe tener una
respuesta lineal, es decir, la salida debe ser una réplica aumentada de la señal de entrada.
De lo contrario, aparecerán frecuencias indeseables en el propio proceso de la
amplificación. Para conseguir una compensación automática de la alinealidad propia de las
válvulas y, posteriormente, de los transistores, Harold S. Black introduce el amplificador
con realimentación negativa.
Black recuerda el momento preciso en que la idea surge de su mente: el 2 de Agosto de
1927, a las 8 y 15 horas, cuando se dirigía a su trabajo, los Laboratorios Bell. La
realimentación consiste en inyectar a la entrada del amplificador parte de la señal de salida
(como cuando una víbora muerde su propia cola). La realimentación positiva, por otra
parte, produce oscilaciones, ya que la señal realimentada se vuelve a amplificar en forma
aditiva, mientras que la negativa implica una reducción de la ganancia del amplificador,
pero con la ventaja mencionada antes.
La realimentación negativa también estabiliza la ganancia del amplificador. Quienes logran
una teoría matemática adecuada, son Harry Nyquist, quien establece un criterio para el
estudio de la estabilidad de los amplificadores, y Hendrik W. Bode, quien describe la
relación entre fase y frecuencia, complementando el trabajo de Nyquist.
En 1924, Clinton J. Davisson y Lester Germen, estudiando el comportamiento de las
válvulas termoiónicas, logran verificar experimentalmente la hipótesis de Louis De Broglie,
respecto de las ondas asociadas a las partículas atómicas. De esa forma, la mecánica
ondulatoria pasa a ser una ley básica del mundo atómico.
Karl G. Jansky, tratando de encontrar la fuente de ruido detectado por su antena, descubre
que tales señales provienen de nuestra galaxia. De esa forma, sin proponérselo, da inicio a
la radioastronomía, que complementa a la astronomía óptica.
En 1928, J. B. Johnson describe matemáticamente al ruido térmico asociado al movimiento
de electrones. Estos, al moverse por efecto de la temperatura y, al poseer carga eléctrica,
generan variaciones aleatorias de la tensión eléctrica. El ruido de Johnson está asociado a la
temperatura, mientras que las frecuencias de las tensiones de ruido admiten un gran ancho
de banda.
El 23 de Diciembre de 1947 se realiza la primera prueba exitosa del transistor. Son sus
inventores los físicos J. Bardeen, W. Brattain y W. Shockley. El primero y el tercero eran
físicos teóricos, mientras que Brattain era un físico experimental. Muchos lo consideran
como el ³mayor invento del siglo´.
Claude Shannon establece la teoría de la información, que consiste, esencialmente, en
establecer una medida de la capacidad que posee un canal de comunicaciones para permitir
su transmisión. La formulación de Shannon establece que dicha capacidad aumenta con el
ancho de banda disponible, siendo proporcional, además, al logaritmo de (1 + S/N), siendo
S la potencia de la señal y N la potencia asociada al ruido térmico.
Arno Penzias y Robert Wilson repiten la historia de Jansky, ya que, trabajando con antenas
de microondas, detectan un ruido de fondo que proviene de todas partes, descubriendo la
³radiación cósmica de fondo´, un fenómeno predicho por los físicos teóricos, que confirma
la teoría de la expansión de las galaxias.
Varios son los investigadores de los Laboratorios Bell que reciben el Premio Nobel de
Física, tales los casos de Davisson, de Brattain, Bardeen y Shockley, de Penzias y Wilson,
y del físico P. Anderson.
% ,,
(
c01#
* %#0+#
La palabra televisión significa ³visión a lo lejos´ y ha sido uno de los grandes logros de la
inventiva humana. Muchos son los inventores y científicos que hicieron aportes para su
realización. En el siglo XIX se idea un sistema mecánico en el cual dos cilindros, uno en el
transmisor y otro en el receptor, giran a la misma velocidad. Una aguja tocaba una lámina
metálica ubicada en el primer cilindro, donde estaba la imagen a transmitir, enviando una
señal eléctrica que actuaba químicamente sobre un papel ubicado en el segundo cilindro.
Luego del método electroquímico aparece el fotoeléctrico, hasta que, finalmente, se
establece una exploración, tanto en el transmisor como en el receptor, con un delgado haz
de electrones. El tubo de rayos catódicos de Crookes fue perfeccionado por Ferdinand
Braun. Los rayos catódicos eran electrones que chocaban contra una pantalla fluorescente
emitiendo luz en el lugar de impacto. A partir de este dispositivo, el problema consistía en
controlar, desde el transmisor, los movimientos que habrían de describir los electrones para
reproducir la imagen original.
El explorador de imagen fue el iconoscopio de Vladimir Zworykin, mientras que los
aportes de Philo Farnsworth ayudaron a establecer la televisión en blanco y negro.
Los progresos de la electrónica, durante el siglo XX, fueron establecidos, algunas veces,
por experimentadores carentes de formación universitaria. Incluso se afirma que Edison no
conocía la ley de Ohm, es decir, posiblemente nunca realizó cálculo alguno con ella,
aunque intuitivamente conocía muy bien el comportamiento de los circuitos eléctricos.
Luego aparecen los aportes de inventores con formación universitaria, como Braun, De
Forest, Marconi, etc.
La electrónica contó también con el aporte de físicos y matemáticos quienes, sin saberlo,
establecieron bases teóricas de gran generalidad. Así, George Boole, tratando de
matematizar la lógica, inicia el ³álgebra de Boole´, cuyas leyes no sólo describen los
razonamientos del tipo verdadero-falso, sino también el comportamiento de los circuitos
eléctricos con interruptores en serie y paralelo.
La electrónica digital nace verdaderamente en 1935, cuando Claude Shannon publica un
artículo en el que describe la dualidad entre la lógica simbólica y el álgebra de los
interruptores eléctricos, algo que no fue previsto por Boole, De Morgan, Schröder y otros
creadores del álgebra de Boole.
El matemático y físico Jean B. Fourier, en un trabajo de investigación sobre la propagación
del calor, establece el ³análisis armónico´. Utilizando la serie de Fourier, puede
considerarse toda señal periódica como la suma de componentes senoidales de distinta
amplitud y frecuencia. Incluso un pulso único también admite un espectro característico de
frecuencias componentes. Esto da origen al estudio de los circuitos mediante la respuesta en
la frecuencia, ya que puede conocerse el comportamiento de un circuito a partir del
conocimiento de la respuesta ante funciones senoidales. Fourier, en su época, ignoraba esta
aplicación de su teoría matemática.
Oliver Heaviside establece el cálculo operacional. Asocia un operador D a la derivada
matemática, mientras que a la integral le asocia el operador 1 / D. De esa forma logra
reducir una ecuación diferencial lineal a una ecuación algebraica, de fácil resolución. Con
el tiempo se le da el fundamento matemático correspondiente. Heaviside trabaja hasta los
veinticuatro años de edad para dedicarse por completo a la investigación.
En la búsqueda de una respuesta característica única, que sirva para predecir el
comportamiento de un circuito ante cualquier tipo de función excitadora, se utilizó la
³función senoidal amortiguada exponencialmente´, que generaliza a la función constante, a
la senoidal y a la exponencial. Ello conduce al concepto de frecuencia compleja y a la
utilización de la ³transformada de Laplace´, descubierta por el matemático, físico y
astrónomo Pierre S. de Laplace. Al respecto, William H. Hayt y Jack E. Kemmerly
escriben: El análisis de circuitos resistivos, el análisis de régimen permanente sinusoidal, el
análisis transitorio, la respuesta forzada, la respuesta compleja y el análisis de circuitos
excitados por funciones excitatrices exponenciales, y sinusoidales amortiguadas
exponencialmente, se convertirán todos en casos especiales de las técnicas generales
asociadas con el concepto de frecuencia compleja. (De ³Análisis de circuitos en
Ingeniería´).
El Silicon Valley es una zona cercana a San Francisco, EEUU. Allí se instalan varias
fábricas de componentes y de dispositivos electrónicos, bajo la influencia de la Universidad
de Stanford, en donde se destaca la figura de Frederick Terman, quien fuera autor del
exitoso libro ³Ingeniería de Radio´ y considerado como el ³padre del Silicon Valley´.
Dos de sus alumnos, David Packard y William Hewlett, fundan la empresa Hewlett-
Packard (luego de arrojar una moneda para determinar el orden de los apellidos).Hewlett
expresó posteriormente: Nuestra idea original era aceptar lo que viniera, en términos de
órdenes de trabajo. (Citado en ³Los Silicon Boys´).
Una de las primeras realizaciones de HP fue el oscilador de audio Modelo 200 A, cuyo
nombre daba la idea de que ya venían realizando trabajos anteriores. El éxito de la empresa
se debió, entre otros factores, a la complementación entre las aptitudes de uno y otro socio
fundador. Hewlett dijo respecto de Packard: El era el emprendedor y yo el que trabajaba.
William Shockley, al dejar los Laboratorios Bell, intenta establecer una fábrica de
transistores. Entre sus empleados figuran Robert Noyce y Gordon Moore. Debido al trato
poco amable y a su incapacidad empresarial, en el primer año no logran fabricar ni un solo
transistor. Shockley tomaba exámenes psicológicos a sus futuros empleados, publicaba lo
que ganaba cada uno y hasta utilizó un detector de mentiras cuando investigaba el origen de
cierto incidente que ocurrió.
Un empresario que fabricaba artículos de aviación, Sherman Fairchild, crea una empresa
que contrata a los ex-empleados de Shockley, quien los denomina desde entonces como
³los ocho traidores´. Durante la década de los sesenta, varios se independizan, hasta que los
dos últimos en irse, Noyce y Moore, fundan su propia empresa.
Esta vez no hubo tirada de moneda, porque podría haberse dado el orden ³Moore-Noyce´
que suena como ³more noise´ (más ruido), sino que a la empresa la designan como Intel,
que deriva de Integrated Electronics. Comienzan fabricando memorias con
semiconductores para ser utilizadas en computadoras.
,
)
Una de las metas que tienen los fabricantes de circuitos integrados, en la década de los
sesenta, es construir con un solo chip una calculadora digital. En 1969, la empresa japonesa
Busicom solicita a Intel la realización de un chip con esa característica. Asignan el trabajo
de diseño a Marcian E. Hoff, quien introduce una innovación interesante.
En electrónica digital, un objetivo se logra mediante dos caminos posibles: realizando un
circuito de cierta complejidad, con poca, o ninguna programación (mucho hardware, poco
software), o bien realizando un circuito muy simple con bastante programación (poco
hardware, mucho software). La idea de Hoff consistió en tomar en cuenta la segunda
alternativa, haciendo un circuito secuencial programable, con funciones similares a las de
una computadora.
El 15 de noviembre de 1971 aparece el primer microprocesador, el 4004, de Intel. En un
comienzo se lo denominó ³ordenador microprogramable de un chip´. En 1972 se lo
comienza a denominar en la forma actual.
Entre los factores que favorecieron la aparición del microprocesador, aparecen (según E.
Braun y S. Macdonald):
I) El éxito de la calculadora ya había llevado a la industria a tomar el camino de lo digital.
II) La tecnología MOS (Metal óxido semiconductor) había avanzado muchísimo, con
densidades crecientes y bajo consumo de potencia. Este factor fue de importancia decisiva,
pues sin la posibilidad de poder poner al menos 2.000 componentes en un chip, toda la idea
del microprocesador hubiera sido absurda.
Amplificador operacional
Así como el circuito integrado posibilita el rápido desarrollo de la electrónica digital,
también favorece el desarrollo de la electrónica lineal. La primera procesa información
codificada mediante dos estados eléctricos posibles, mientras que la segunda lo hace con
magnitudes eléctricas que aceptan un cambio continuo.
El amplificador operacional, que ya se había realizado con válvulas termoiónicas, es un
amplificador de elevada ganancia. Si a este tipo de amplificador se lo realimenta
negativamente, se observa que su ganancia depende enteramente del lazo de
realimentación. Como este lazo se puede lograr con resistencias, se puede controlar la
ganancia en un forma muy simple.
El nombre ³operacional´ deriva de su utilización en computadoras analógicas, siendo en la
actualidad la célula básica de los circuitos lineales. Además, la computadora digital,
mediante aproximaciones numéricas, permite realizar simulaciones de sistemas regidos por
ecuaciones diferenciales lineales en forma más eficaz en que lo hacen las computadoras
analógicas.
'
% 2#%%
Los trabajos teóricos de Albert Einstein, complementados por los de Paul Dirac, previeron
la existencia de una tercera forma en que un átomo puede intercambiar energía luminosa.
a) Un átomo, al recibir energía, permite que un electrón cambie a una órbita superior. Al
volver a su nivel original, emite un fotón (Emisión espontánea).
b) Un átomo puede recibir la energía de un fotón, por lo que éste desaparece (Absorción).
c) La tercera posibilidad implica que un fotón llega hasta un átomo previamente activado,
induciéndolo a emitir un fotón, por lo que llega uno y salen dos de ellos (Emisión
estimulada).
En la Enciclopedia Salvat de Ciencia y Técnica aparece: La emisión estimulada se produce
cuando un átomo, en un estado excitado, es bombardeado con fotones de frecuencia
exactamente igual que la del fotón que emitiría el átomo si cayera desde el estado excitado
a un nivel de energía más bajo. Cuando esos fotones alcanzan el átomo, éste emite su
propio fotón que naturalmente es idéntico al que lo ha alcanzado, y se produce la emisión
estimulada. Además, los dos fotones viajan en la misma dirección y están totalmente en
fase.
Cuando uno de esos dos fotones choca contra otro átomo excitado, se emite un tercer fotón.
Esta reacción en cadena se produciría mientras haya átomos del tipo necesario en estado
excitado, y emitirá mucha luz, toda de la misma frecuencia y fase.
La palabra ³laser´ proviene de ³Light Amplification by Stimulated Emisión of Radiation´,
es decir, ³amplificación de luz por emisión estimulada de radiación´.