P. 1
Automatización industrial

Automatización industrial

|Views: 3.247|Likes:
Publicado porrocksodia22

More info:

Published by: rocksodia22 on Feb 20, 2010
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

05/12/2013

pdf

text

original

Automatización industrial

De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda Automatización Industrial (automatización; del griego antiguo auto: guiado por uno mismo) es el uso de sistemas o elementos computerizados para controlar maquinarias y/o procesos industriales sustituyendo a operadores humanos. El alcance va más allá que la simple mecanización de los procesos ya que ésta provee a operadores humanos mecanismos para asistirlos en los esfuerzos físicos del trabajo, la automatización reduce ampliamente la necesidad sensorial y mental del humano. La automatización como una disciplina de la ingeniería es más amplia que un mero sistema de control, abarca la instrumentación industrial, que incluye los sensores y transmisores de campo, los sistemas de control y supervisión, los sistema de transmisión y recolección de datos y las aplicaciones de software en tiempo real para supervisar y controlar las operaciones de plantas o procesos industriales. Las primeras máquinas simples sustituían una forma de esfuerzo en otra forma que fueran manejadas por el ser humano, tal como levantar un peso pesado con sistema de poleas o con una palanca. Posteriormente las máquinas fueron capaces de sustituir formas naturales de energía renovable, tales como el viento, mareas, o un flujo de agua por energía humana. Los botes a vela sustituyeron a los botes de remos. Todavía después, algunas formas de automatización fueron controlados por mecanismos de relojería o dispositivos similares utilizando algunas formas de fuentes de poder artificiales -algún resorte, un flujo canalizado de agua o vapor para producir acciones simples y repetitivas, tal como figuras en movimiento, creación de música, o juegos. Dichos dispositivos caracterizaban a figuras humanas, fueron conocidos como autómatas y datan posiblemente desde 300 AC. En 1801, la patente de un telar automático utilizando tarjetas perforadas fue dada a Joseph Marie Jacquard, quien revolucionó la industria del textil. La parte más visible de la automatización actual puede ser la robótica industrial. Algunas ventajas son repetitividad, control de calidad más estrecho, mayor eficiencia, integración con sistemas empresariales, incremento de productividad y reducción de trabajo. Algunas desventajas son requerimientos de un gran capital, decremento severo en la flexibilidad, y un incremento en la dependencia del mantenimiento y reparación. Por ejemplo, Japón ha tenido necesidad de retirar muchos de sus robots industriales cuando encontraron que eran incapaces de adaptarse a los cambios dramáticos de los requerimientos de producción y no eran capaces de justificar sus altos costos iniciales. Para mediados del siglo 20, la automatización había existido por muchos años en una escala pequeña, utilizando mecanismos simples para automatizar tareas sencillas de manufactura. Sin embargo el concepto solamente llego a ser realmente práctico con la adición (y evolución) de las computadoras digitales, cuya flexibilidad permitió manejar cualquier clase de tarea. Las computadoras digitales con la combinación requerida de velocidad, poder de computo, precio y tamaño empezaron a aparecer en la década de 1960s. Antes de ese tiempo, las computadoras industriales era exclusivamente computadoras analógicas y computadoras híbridas. Desde entonces las computadoras digitales tomaron el control de la mayoría de las tareas simples, repetitivas, tareas semiespecializadas y especializadas, con

algunas excepciones notables en la producción e inspección de alimentos. Como un famoso dicho anonimo dice, "para muchas y muy cambiantes tareas, es difícil remplazar al ser humano, quienes son fácilmente vueltos a entrenar dentro de un amplio rango de tareas, más aún, son producidos a bajo costo por personal sin entrenamiento." Existen muchos trabajos donde no existe riesgo inmediato de la automatización. Ningún dispositivo ha sido inventado que pueda competir contra el ojo humano para la precisión y certeza en muchas tareas; tampoco el oído humano. El más inútil de los seres humanos puede identificar y distinguir mayor cantidad de esencias que cualquier dispositivo automático. Las habilidades para el patrón de reconocimiento humano, reconocimiento de lenguaje y producción de lenguaje se encuentran más allá de cualquier expectativa de los ingenieros de automatización. Computadoras especializadas, son utilizadas para leer entradas de campo a través de sensores y en base a su programa, generar salidas hacia el campo a través de actuadores. Esto conduce para controlar acciones precisas que permitan un control estrecho de cualquier proceso industrial. (Se temía que estos dispositivos fueran vulnerables al error del año 2000, con consecuencias catastróficas, ya que son tan comunes dentro del mundo de la industria). Existen dos tipos distintos: DCS o Sistema de Control Distribuído, y PLC o Controlador Lógico Programable. El primero era antiguamente orientado a procesos de tipo análogos, mientras que el segundo se utilizaba en procesos de tipo discreto (ceros y unos). Actualmente ambos equipos se parecen cada vez más, y cualquiera de los dos puede ser utilizado en todo tipo de procesos. Las interfaces Hombre-Máquina (HMI) o interfaces Hombre-Computadora (CHI), formalmente conocidas como interfaces Hombre-Máquina, son comúnmente empleadas para comunicarse con los PLCs y otras computadoras, para labores tales como introducir y monitorear temperaturas o presiones para controles automáticos o respuesta a mensajes de alarma. El personal de servicio que monitorea y controla estas interfaces son conocidos como ingenieros de estación. Otra forma de automatización que involucra computadoras es la prueba de automatización, donde las computadoras controlan un equipo de prueba automático que es programado para simular seres humanos que prueban manualmente una aplicación. Esto es acompañado por lo general de herramientas automáticas para generar instrucciones especiales (escritas como programas de computadora) que direccionan al equipo automático en prueba en la dirección exacta para terminar las pruebas.

Mecatrónica
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

Ramas de la Ingeniería que constituyen a la mecatrónica.

La mecatrónica surge de la combinación sinérgica de distintas ramas de la ingeniería, entre las que destacan: la mecánica de precisión, la electrónica, la informática y los sistemas de control. Su principal propósito es el análisis y diseño de productos y de procesos de manufactura automatizados.

Contenido
[ocultar] • • • • • 1 Descripción 2 Antecedentes 3 Sistema Mecatrónico 4 Líneas de investigación 5 Componentes ○ ○ ○ ○ • • • 5.1 Mecanismos 5.2 Actuadores 5.3 Controles 5.4 Sensores

6 Análisis y modelado 7 Aplicaciones 8 Véase también

Descripción [editar]
El término "Mecatrónica" un principio se definió como la integración de la mecánica y la electrónica en una máquina o producto, pero luego se consolidó como una especialidad de la ingeniería e incorporó otros elementos como los sistemas de computación, los desarrollos de la microelectrónica, la inteligencia artificial, la teoría de control y otros relacionados con

la informática, estabilidad y alcanzabilidad. Teniendo como objetivo la optimización de los elementos industriales a través de la optimización de cada uno de sus subprocesos con nuevas herramientas sinérgicas.

Antecedentes [editar]
La Mecatrónica tiene como antecedentes inmediatos a la investigación en el área de Cibernética realizada en 1936 por Turing y en 1948 por Wiener y Morthy, las máquinas de control numérico, desarrolladas inicialmente en 1946 por Devol, los manipuladores, ya sean teleoperados, en 1951 por Goertz, o robotizados, en 1954 por Devol, y los autómatas programables, desarrollados por Bedford Associates en 1968. En 1969 la empresa japonesa Yaskawa Electric Co. acuña el término Mecatrónica, recibiendo en 1971 el derecho de marca. En 1982 Yaskawa permite el libre uso del término. Actualmente existen diversas definiciones de Mecatrónica, dependiendo del área de interés del proponente. En particular, la UNESCO define a la Mecatrónica como:
"La integración sinérgica de la ingeniería mecánica con la electrónica y el control inteligente por computadora en el diseño y manufactura de productos y procesos".

Sin embargo, una manera más interesante de definir la Mecatrónica es posible por:
"Diseño y construcción de sistemas mecánicos inteligentes".

Un sistema mecatrónico se compone principalmente de mecanismos, actuadores, control (inteligente) y sensores. Tradicionalmente la Mecánica se ha ocupado solo de los mecanismos y los actuadores, y opcionalmente puede incorporar control. La Mecatrónica integra obligatoriamente el control en lazo cerrado y por lo tanto también a los sensores.

Sistema Mecatrónico [editar]
Un sistema mecatrónico es aquel sistema digital que recoge señales, las procesa y emite una respuesta por medio de actuadores, generando movimientos o acciones sobre el sistema en el que se va a actuar: Los sistemas mecánicos están integrados por sensores, microprocesadores y controladores. Los robots, las máquinas controladas digitalmente, los vehículos guiados automáticamente, etc. se deben considerar como sistemas mecatrónicos

Líneas de investigación [editar]
La investigación en el área de Mecatrónica es muy variada y una división que se propone es: análisis, detectar los problemas de los componentes analógicos y digitales , encontrar una solución al mismo, comportamiento de los sistemas.

Componentes [editar]

Mecanismos [editar]
En el área de mecanismos, los principales problemas son reducción de complejidad, eliminación de mecanismos y síntesis de mecanismos mecatrónicos.

La reducción de la complejidad se refiere a reducir el número de elementos del mecanismo, mediante el uso de control inteligente. La eliminación del mecanismo implica el uso directo de actuadores y de controles más sofisticados. La síntesis de mecanismos mecatrónicos consiste en utilizar actuadores directamente en el mecanismo para mejorar su movimiento; un ejemplo de síntesis es el desarrollo de rodamientos con actuación magnética para eliminar la fricción. Se caracteriza por una mejor caracterización del mecanismo y el diseño por computadora.

Actuadores [editar]
Todo mecanismo requiere de una fuente de potencia para operar. Inicialmente esta fuente de potencia fue de origen animal, posteriormente se aprovechó la fuerza generada por el flujo de aire o agua, pasando luego a la generación de potencia con vapor, por combustión interna y actualmente con electricidad. Si esta fuente de potencia es modulable o controlable, se tiene un actuador. Los principales desarrollos de los actuadores en la Mecatrónica son: manejo directo, eliminando mecanismos, utilizando actuadores electromagnéticos, piezoeléctricos y ultrasónicos.También deben considerarse los actuadores neumáticos u oleo-hidráulicos. Un tipo de actuadores muy utilizados son los motores eléctricos; se han desarrollado investigaciones en nuevos modelos matemáticos, nuevos tipos de manejadores y en nuevos tipos de control. Un tipo de actuador que se ha utilizado mucho en nanomaquinaria son los actuadores electrostáticos.

Controles [editar]
Un área muy desarrollada en la Mecatrónica es el control. Se tienen dos tendencias importantes: el uso de las técnicas más modernas de la teoría de control automático y el desarrollo de controles inteligentes, que busca mejorar la percepción del medio ambiente y obtener una mejor autonomía. Algunos de los avances más importantes en la rama del control automático son: redes neuronales, modos deslizantes, control de sistemas a eventos discretos, control adaptable, lógica difusa y control robusto.

Sensores [editar]
Los sensores son dispositivos que permiten medir el estado del mecanismo o del medio ambiente. La incorporación de sensores a los mecanismos es el resultado de utilizar controles de lazo cerrado. Un ejemplo muy desarrollado es el uso de la visión artificial, la cual se usa para determinar la posición y la orientación del mecanismo, del ambiente o de las herramientas, sin embargo, no siempre es posible medir directamente alguna variable se estima su valor por medio de observadores del estado y filtros. Por otro lado, se tiene la fusión de sensores. Un problema que se ha manejado recientemente es el desarrollo de referenciales \emph{fijos} para determinar la posición y orientación en problemas de navegación, siendo resuelto por medio de sistemas de posicionamiento global (GPS, por sus siglas en inglés).

Análisis y modelado [editar]
Por análisis se entiende la obtención de una descripción o modelo de los sistemas por métodos matemáticos y gráficos. El principal problema radica en que muchos sistemas de control no se describen con modelos continuos, ya sea en el estado o en el tiempo; mientras los sistemas mecánicos son modelos continuos. Este problema ha provocado el uso de nuevas técnicas de modelado, tales como: redes neuronales, redes de Petri, lógica difusa,

onduletas, memorias asociativas, agentes cooperativos, modelos algorítmicos y modelos lingüísticos. Los modelos son necesarios para poder realizar síntesis de dispositivos mecatrónicos y optimización de procesos.

Aplicaciones [editar]
En cuanto a aplicaciones, los rubros más importantes son robótica, sistemas de transporte, sistemas de manufactura, máquinas de control numérico, nanomáquinas y biomecatrónica. La robótica es la parte de la técnica de diseño y construcción de autómatas flexibles y reprogramables, capaces de realizar diversas funciones. Es el nivel de automatización más flexible y en mucho indica las tendencias futuras del resto de la mecatrónica. Las líneas de investigación más desarrolladas son: síntesis de manipuladores y herramientas, manipuladores de cadena cinemática cerradas, robots autónomos, robots cooperativos, control y teleoperación asincrónicas (por medio de conexiones TCP/IP), estimación del ambiente, comportamiento inteligente, interfaces hápticas, navegación y locomoción. La aplicación de la Mecatrónica en el transporte se desarrolla en el diseño de mecanismos activos (ejemplo: suspensiones activas), control de vibraciones, estabilización de mecanismos y navegación autónoma. En la manufactura, la Mecatrónica se ha servido de los modelos de sistemas a eventos discretos, y los ha aplicado para el diseño óptimo de líneas de producción así como la optimización de procesos ya existente. También ha ayudado a automatizar las líneas de producción y generar el concepto de manufactura flexible. Antecedentes de la Mecatrónica son las máquinas de control numérico. En este tema los desarrollos más recientes son: análisis, detección y control de vibraciones, y temperatura, en las herramientas de corte, diagnóstico de las herramientas de corte y prototipaje rápido, electroerosionado y síntesis por láser. Las nanomáquinas son un área que se han beneficiado de los desarrollos de la Mecatrónica. Un ejemplo muy evidente es el desarrollo del disco duro. Las líneas de investigación más manejadas son: micromanejo, microactuadores y micromaquinado. La biomecatrónica es la aplicación de la mecatrónica para resolver problemas de sistemas biológicos, en particular el desarrollo de nuevos tipos de prótesis, simuladores quirúrgicos, control de posición de instrumental médico (por ejemplo catéteres), sillas de ruedas y teleoperación quirúrgica.

Tecnología
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda La exactitud de la información de este artículo o sección está discutida.
En la página de discusión puedes consultar el debate al respecto.

Los desarrollos tecnológicos logrados por la humanidad le permitieron abandonar por primera vez la superficie terrestre en la década de 1960, iniciando así la exploración del espacio exterior.

Tecnología es el conjunto de conocimientos, ordenados científicamente, que permiten construir objetos y máquinas para adaptar el medio y satisfacer nuestras necesidades. Es una palabra de origen griego, τεχνολογία, formada por téchnē (τέχνη, "arte, técnica u oficio") y logía (λογία), el estudio de algo. Aunque hay muchas tecnologías muy diferentes entre sí, es frecuente usar el término en singular para referirse a una de ellas o al conjunto de todas. Cuando se lo escribe con mayúscula, tecnología puede referirse tanto a la disciplina teórica que estudia los saberes comunes a todas las tecnologías, como a educación tecnológica, la disciplina escolar abocada a la familiarización con las tecnologías más importantes. La actividad tecnológica influye en el progreso social y económico, pero también ha producido el deterioro de nuestro entorno (biosfera). Las tecnologías pueden ser usadas para proteger el medio ambiente y para evitar que las crecientes necesidades provoquen un agotamiento o degradación de los recursos materiales y energéticos de nuestro planeta. Evitar estos males es tarea no sólo de los gobiernos, sino de todos. Se requiere para ello una buena enseñanza-aprendizaje de la tecnología en los estudios de enseñanza media o secundaria y buena difusión de los problemas, diagnósticos y propuestas de solución en los medios de comunicación social.

Contenido
[ocultar] • 1 Definición

• • •

2 Funciones de las tecnologías 3 Diferencias entre tecnologías, técnicas, ciencias, y artes 4 Métodos de las tecnologías ○ ○ 4.1 Herramientas e instrumentos 4.2 Invención de artefactos 5.1 Algunos hitos tecnológicos prehistóricos 5.2 Algunos hitos tecnológicos históricos 6.1 Teoría económica 6.2 Industria 6.3 Servicios 6.4 Comercio 6.5 Recursos naturales 6.6 Trabajo     ○ 6.6.1 Taylorismo 6.6.2 Fordismo 6.6.3 Toyotismo 6.6.4 La desaparición y creación de puestos de trabajo

5 Hitos del desarrollo tecnológico ○ ○

6 Economía y tecnologías ○ ○ ○ ○ ○ ○

6.7 Publicidad

• •

7 Impactos de la tecnología 8 Funciones no técnicas de los productos tecnológicos ○ ○ 8.1 Función estética de los objetos tecnológicos 8.2 Función simbólica de los objetos tecnológicos[41]

• • • • • • • • • •

9 Cultura y tecnologías 10 Medio ambiente y tecnologías 11 Ética y tecnologías 12 Tecnologías apropiadas ○ 12.1 Ejemplos de tecnologías apropiadas 13 Ludismo 14 Oficios técnicos y profesiones tecnológicas 15 Referencias 16 Bibliografía 17 Véase también 18 Enlaces externos

[editar] Definición
La versión 1992 del Diccionario de la Real Academia daba las siguientes acepciones de tecnología:
• 1. Conjunto de los conocimientos propios de un oficio mecánico o arte industrial. Esta acepción era incompleta porque hay tecnologías que no corresponden a oficios mecánicos, como las informáticas. Era ambigua porque sugería una inexistente relación entre tecnologías y artes. Era tautológica porque las que antiguamente se denominaban artes industriales hoy se denominan técnicas, concepto que en el habla cotidiana es sinónimo de tecnología. 2. Tratado de los términos técnicos. Esta acepción se refiere sólo a la terminología técnica, la parte verbalmente expresable de los saberes tecnológicos. 3. Lenguaje propio de una ciencia o de un arte. Esta acepción es similar a la anterior. 4. Conjunto de los instrumentos y procedimientos industriales de un determinado sector o producto. Esta acepción es sólo aplicable a las tecnologías industriales.

• •

La versión 2006 del Diccionario de la Real Academia ha reemplazado la primera acepción por la siguiente:
• 1. Conjunto de teorías y de técnicas que permiten el aprovechamiento práctico del conocimiento científico. Esta acepción asimila la tecnología a ciencia aplicada o tecno-ciencia, lo que sólo es válido para algunas tecnologías, las basadas en saberes científicos.

Es un error común en muchas páginas Web denominar tecnología, a secas, a la tecnología informática, la tecnología de procesamiento de información por medios artificiales, entre los que se incluye, pero no de modo excluyente, a las computadoras/ordenadores. En primera aproximación, una tecnología es el conjunto de saberes, destrezas y medios necesarios para llegar a un fin predeterminado mediante el uso de objetos artificiales o artefactos. Esta definición es todavía insuficiente porque no permite diferenciarlas de las artes y las ciencias, para lo cual hay que analizar las funciones y finalidades de las tecnologías.

[editar] Funciones de las tecnologías
Históricamente las tecnologías han sido usadas para satisfacer necesidades esenciales (alimentación, vestimenta, vivienda, protección personal, relación social, comprensión del mundo natural y social), para obtener placeres corporales y estéticos (deportes, música, hedonismo en todas sus formas) y como medios para satisfacer deseos (simbolización de estatus, fabricación de armas y toda la gama de medios artificiales usados para persuadir y dominar a las personas). A pesar de lo que afirmaban los luditas, y como el propio Marx señalara refiriéndose específicamente a las maquinarias industriales,[1] las tecnologías no son ni buenas ni malas. Los juicios éticos no son aplicables a las tecnologías, sino al uso que hacemos de ellas: un arma puede usarse para matar a una persona y apropiarse de sus bienes o para salvar la vida matando un animal salvaje que quiere convertirnos en su presa.

[editar] Diferencias entre tecnologías, técnicas, ciencias, y artes
Ni el habla cotidiana ni los tratados técnicos establecen claramente la diferencia entre tecnologías y técnicas. Las tecnologías simples tienden a ser llamadas técnicas (por ejemplo, la técnica de colocación de clavos). Las tecnologías complejas usan muchas tecnologías previas simples estableciendo una amplia gradación de complejidad en uno de cuyos extremos están las tecnologías más complejas, como las electrónicas y las médicas, y en el otro las técnicas, generalmente manuales y artesanales, más cercanas a la experiencia directa de las personas como hizo notar Claude Lévi-Strauss.[2] En algún punto intermedio desaparece o se hace borrosa la distinción entre tecnologías y técnicas. En el lenguaje técnico es frecuente denominar tecnologías a los saberes prácticos más racionales y transmisibles con mayor precisión (generalmente a través de textos, gráficos, tablas y representaciones varias y complejas), mientras que a las técnicas se les asigna un carácter más empírico que racional. Algunas de las tecnologías actuales más importantes, como la Electrónica, consisten en la aplicación práctica de las ciencias (en ese caso el Electromagnetismo y la Física del estado sólido). Sin embargo, no todas las tecnologías son ciencias aplicadas. Tecnologías como la agricultura y la ganadería precedieron a las ciencias biológicas en miles de años, y se desarrollaron de modo empírico, por ensayo y error (y por ello con lentitud y dificultad), sin necesidad de saberes científicos.[3] La función central de las ciencias es caracterizar bien la realidad, aunque no sea visible o vaya contra el "sentido común": describir y categorizar los fenómenos, explicarlos con leyes o principios lo más simples posibles y tal vez (no siempre) predecirlos. Las artes, por su parte, requieren de técnicas para su realización (por ejemplo: preparación de pigmentos y su modo de aplicación en la pintura; fabricación de cinceles y martillos y modo de fundir el bronce o tallar el mármol, en la escultura). Una diferencia central es que las técnicas son transmisibles, es decir, pueden ser enseñadas por un maestro y aprendidas por un aprendiz. Los aspectos más originales de las artes en general no lo son. Decimos, justa y precisamente, que algo es un art cuando su realización requiere dotes especiales que no podemos especificar con precisión y parecen ser innatas o propias sólo de una persona en particular. Una diferencia importante entre artes, ciencias y tecnologías o técnicas, es su finalidad. La ciencia busca la verdad (buena correspondencia entre la realidad y las ideas que nos hacemos de ella). Las artes buscan el placer que da la expresión y evocación de los sentimientos humanos, la belleza de la formas, los sonidos y los conceptos; el placer intelectual. Las tecnologías son medios para satisfacer las necesidades y deseos humanos. Son funcionales, permiten resolver problemas prácticos y en el proceso de hacerlo, transforman el mundo que nos rodea haciéndolo más previsible, crecientemente artificial y provocando al mismo tiempo grandes consecuencias sociales y ambientales, en general no igualmente deseables para todos los afectados.[4]

[editar] Métodos de las tecnologías
Las tecnologías usan, en general, métodos diferentes del científico, aunque la experimentación es también usado por las ciencias. Los métodos difieren según se trate de tecnologías de producción artesanal o industrial de artefactos, de prestación de servicios, de realización u organización de tareas de cualquier tipo.

Un método común a todas las tecnologías de fabricación es el uso de herramientas e instrumentos para la construcción de artefactos. Las tecnologías de prestación de servicios, como el sistema de suministro eléctrico hacen uso de instalaciones complejas a cargo de personal especializado.

[editar] Herramientas e instrumentos
Los principales medios para la fabricación de artefactos son la energía y la información. La energía permite dar a los materiales la forma, ubicación y composición que están descriptas por la información. Las primeras herramientas, como los martillos de piedra y las agujas de hueso, sólo facilitaban la aplicación de fuerza por las personas aplicando los principios de las máquinas simples.[5] El uso del fuego, que modifica la composición de los alimentos haciéndolos más fácilmente digeribles, proporciona iluminación haciendo posible la sociabilidad más allá de los horarios diurnos, proporciona calefacción y mantiene a raya a los animales feroces, modificó tanto la apariencia como los hábitos humanos. Las herramientas más elaboradas incorporan información en su funcionamiento, como las pinzas pelacables que permiten cortar la vaina a la profundidad apropiada para arrancarla con facilidad sin dañar el alma metálica. El término instrumentos, en cambio, está más directamente asociado a las tareas de precisión, como en instrumental quirúrgico, y de recolección de información, como en instrumentación electrónica y en instrumentos de medición, de navegación náutica y de navegación aérea. Las máquinas herramientas son combinaciones complejas de varias herramientas gobernadas (actualmente mediante computadoras/ordenadores) por información obtenida por instrumentos también incorporados en ellas.

[editar] Invención de artefactos
Aunque con grandes variantes de detalle según el objeto, su principio de funcionamiento y los materiales usados en su construcción, las siguientes son etapas usuales en la invención de un artefacto novedoso:
• Identificación del problema práctico a resolver: En esta etapa deben quedar bien acotados tanto las características intrínsecas del problema, como los factores externos que lo determinan o condicionan. El resultado debe expresarse como una función técnica cuya expresión mínima es la transición, llevada a cabo por el artefacto, de un estado inicial a un estado final. Por ejemplo, en la tecnología de desalinización del agua, el estado inicial es agua en su estado natural, el final es esa agua ya potabilizada, y el artefacto es un desalinizador indefinido. Una de las características críticas es la concentración de sal del agua, muy diferente en el agua oceánica que en mares interiores como el Mar Muerto. Los factores externos son, por ejemplo, las temperaturas máxima y mínima del agua en las diferentes estaciones y las fuentes de energía disponibles para la operación del desalinizador. Establecimiento de los requisitos que debe cumplir la solución: Materiales admisibles; cantidad y calidad de mano de obra a usar y su disponibilidad; costos máximos de fabricación, operación y mantenimiento; duración mínima requerida del artefacto... Principio de funcionamiento: Frecuentemente hay varias maneras diferentes de resolver un mismo problema, más o menos apropiados al entorno natural o social. En el caso de la desalinización, el procedimiento

de congelación es especialmente apto para las regiones árticas, mientras que el de ósmosis inversa lo es para ciudades de regiones tropicales con amplia disponibilidad de energía eléctrica. La invención de un nuevo principio de funcionamiento es una de las características cruciales de la innovación tecnológica. La elección del principio de funcionamiento, sea ya conocido o especialmente inventado, es el requisito indispensable para la siguiente etapa, el diseño que precede a la construcción. • Diseño del artefacto: Mientras que en la fabricación artesanal lo usual es omitir esta etapa y pasar directamente a la etapa siguiente de construcción de un prototipo (método de ensayo y error), el diseño es requisito obligatorio de todos los procesos de fabricación industrial. Este diseño se efectúa típícamente usando saberes formalizados como los de alguna rama de la ingeniería, efectuando cálculos matemáticos, trazando planos de diverso tipo, eligiendo materiales de propiedades apropiadas o haciendo ensayos cuando se las desconoce, compatibilizando la forma de los materiales con la función a cumplir, descomponiendo el artefacto en partes que faciliten tanto el cumplimiento de la función como la fabricación y ensamblado... Simulación o construcción de un prototipo: Si el costo de fabricación de un prototipo no es excesivamente alto (donde el tope sea probablemente el caso de un nuevo modelo de automóvil) su fabricación permite detectar y resolver problemas no previstos en la etapa de diseño. Cuando el costo no lo permite, caso del desarrollo de un nuevo tipo de avión, se usan complejos programas de simulación por ordenador/computadora, donde un ejemplo simple es la determinación de las características aerodinámicas usando un modelo a escala en un túnel de viento.

Según el divulgador científico Asimov:[6]
Inventar exigía trabajar duro y pensar firme. Edison sacaba inventos por encargo y enseñó a la gente que no eran cuestión de fortuna ni de conciliábulo de cerebros. Porque -aunque es cierto que hoy disfrutamos del fonógrafo, del cine, de la luz eléctrica, del teléfono y de mil cosas más que él hizo posibles o a las que dio un valor práctico- hay que admitir que, de no haberlas inventado él, otro lo hubiera hecho tarde o temprano: eran cosas que «flotaban en el aire». Quizás no sean los inventos en sí lo que hay que destacar entre los aportes de Edison a nuestras vidas. La gente creía antes que los inventos eran golpes de suerte. El genio, decía Edison, es un uno por ciento de inspiración y un noventa y nueve por ciento de transpiración. No, Edison hizo algo más que inventar, y fue dar al proceso de invención un carácter de producción en masa.

Guilford, destacado estudioso de la psicología de la inteligencia,[7] identifica como las principales destrezas de un inventor las incluidas en lo que denomina aptitudes de producción divergente. La creatividad, facultad intelectual asociada a todas las producciones originales, ha sido discutida por de Bono, quien la denomina pensamiento lateral.[8] Aunque más orientado a las producciones intelectuales, el más profundo estudio

sobre la resolución de problemas cognitivos es hecho por Newell y Simon, en el celebérrimo libro Human problem solving.[9]
Véase también: Creatividad

[editar] Hitos del desarrollo tecnológico
Artículo principal: Historia de la tecnología

[editar] Algunos hitos tecnológicos prehistóricos

Herramientas de piedra inuit.

Muchas tecnologías han sido inventadas de modo independiente en diferentes lugares y épocas; se cita a continuación sólo la más antigua invención conocida.
• Armas y herramientas de piedra: Hechas de piedras toscamente fracturadas, fueron usadas por los primeros homínidos hace más de 1.000.000 de años en África. Las armas permitieron el auge de la caza de animales salvajes, ventajosa para la alimentación por su mayor contenido en proteínas. Las herramientas facilitaron el troceado de los animales, el trabajo del cuero, el hueso y la madera produciendo los primeros cambios sustanciales de la forma de vida.[10]

Trilla del trigo en el Antiguo Egipto. • Encendido de fuego: Aunque el fuego fue usado desde tiempos muy remotos, no hay evidencias de su encendido artificial, seguramente por fricción, hasta alrededor de 200.000 a. C. El uso del fuego permitió: protegerse mejor de los animales salvajes, que invariablemente le temen; prolongar las horas de trabajo útil, con el consiguiente incremento de relación social; migrar a climas más fríos, usándolo como calefacción para las moradas; cocinar los alimentos, haciéndolos más

fáciles de digerir y masticar. A esta última característica atribuyen algunos antropólogos la modificación de la forma de la mandíbula humana, menos prominente que la de los restantes primates.[11] • Cestería: No se sabe con certeza cuando se inició, por ser un material de fácil descomposición. Se presume que fue anterior a la alfarería y la base de ésta cuando los canastos de fibras o varillas se recubrieron con arcilla para impermeabilizarlos. Las cestas fueron probablemente los primeros recipientes y medios de transporte de alimentos y otros objetos pequeños.

Tejedora aymara del imperio incaico, según Guaman Poma. • Alfarería: Alrededor del 8.000 a. C. (comienzos del Neolítico) en Europa. Los hornos de alfarero fueron la base de los posteriores hornos de fundición de metales, es decir, de la metalurgia. Cultivo del trigo: Alrededor del 8.500 a. C., en el Creciente Fértil. La gran productividad de la agricultura disminuyó el tiempo empleado en las tareas de alimentación y facilitó el almacenamiento de reservas, permitiendo un gran aumento de la población humana. Las prácticas agrícolas desalentaron el nomadismo, dando así origen a las ciudades, lugar donde se produjo la división social del trabajo y el consiguiente florecimiento de las tecnologías.[12] Metalurgia del cobre: Alrededor del 7.000 a. C., en Turquía.[13] El cobre fue, en casi todas partes, el primer metal usado por encontrarse naturalmente en estado puro. Aunque es demasiado blando para hacer herramientas durables, las técnicas desarrolladas dieron las bases para el uso del bronce, primero, y del hierro, después. Domesticación de cabras y ovejas: Alrededor del 7.000 a. C. en Anatolia y Persia. La tecnología de domesticación de animales permitió, por selección artificial, obtener las características más convenientes para el uso humano (carne, grasa, leche, fibras, cerdas, cuero, cornamentas, huesos...).[14]

Tableta con escritura cuneiforme de la colección Kirkor Minassian. • Tejidos de fibras animales y vegetales: Hechos con telares rudimentarios hace aproximadamente unos 5.000 años, en Anatolia, el Levante mediterráneo y Egipto. El enorme tiempo necesario para el hilado y tejido manual de fibras fue el gran problema que resolvió la Revolución industrial con la invención de los telares mecánicos. Los materiales difíciles de conseguir, como la seda, las elaboradas técnicas de teñido y de decoración de vestimentas, hicieron de éstas símbolos de estatus social. Este fue probablemente, junto con la disponibilidad de armas de metal, uno de los primeros usos simbólicos de las tecnologías (riqueza e indestructibilidad, respectivamente). Carro con ruedas: La más antigua representación de un carro con ruedas es la del cuenco de Bronocice. Data de alrededor del 3.500 a. C., en la región del Cáucaso. No se sabe con certeza si su función como arma de guerra precedió a la de medio de transporte. Escritura:Alrededor del 3.300 a. C., en Sumer, la escritura cuneiforme sobre tabletas de arcilla se usaba para llevar inventarios y controlar el pago de impuestos.[15]

Con la invención de la escritura se inician el período histórico y los procesos sistemáticos de transmisión de información y de análisis racional de las tecnologías, procesos cuya muy posterior culminación sería el surgimiento de las ciencias.

[editar] Algunos hitos tecnológicos históricos
La siguiente es una breve selección de algunas tecnologías que han tenido un fuerte impacto, muy brevemente descripto, sobre las actividades humanas.

El cuenco de Bronocice (Museo Arqueológico de Cracovia). • Domesticación del caballo: Alrededor del 3.000 a. C., en las estepas del sur de Eurasia. La ampliación del radio de acción y de la capacidad de transporte, así como su eficacia como arma de guerra, produjeron enormes modificaciones sociales en las culturas que incorporaron el caballo (denominadas culturas ecuestres), produciendo su transición de la vida pastorial a la guerrera.[16] Fabricación del vidrio: Alrededor del 3.000 a. C., en Egipto.[17] A pesar de la sencillez de su fabricación fue inicialmente usado sólo para fabricar vajilla, en especial copas o vasos, y objetos para el culto religioso. Su uso en ventanas es muy posterior y fue hecho inicialmente sólo por los ricos. Metalurgia del bronce: Alrededor del 4.500 a. C. en Bang Chieng (Tailandia). Esta dura aleación de cobre y estaño proporcionó las primeras armas y herramientas muy duras y poco frágiles.[18]

Ábaco chino tradicional. • Ábaco: Primera calculadora mecánica, inventado con el nombre suanpan' en la corte del Emperador de China Hsi Ling-shi, alrededor del año

2650 a. C. El invento, contemporáneo del primer libro conocido de aritmética, el Kieuo-chang, se atribuye al Primer Ministro Cheo'u-ly.[19] • Metalurgia del hierro: Hay trabajos de forjado del hierro de meteoros, pero su primera obtención por fusión de minerales fue sistemáticamente hecha recién alrededor del 2.300 a. C. en India, Mesopotamia y Asia Menor. Las armas y herramientas de hierro tienen resistencia y duración muy superiores a las de piedra. Su seguramente accidental aleación con el carbono dio origen al acero, actualmente el material de construcción por excelencia.[20] Brújula: En el año 1160 se inventa en China, bajo el gobierno de los príncipes Chou, el dispositivo fse-nan (indicador del Sur). Estaba basado en las propiedades magnéticas del imán natural o magnetita, material también familiar a los antiguos griegos. Fue el instrumento que permitió la navegación fuera de la vista de las costas, es decir, de altura.[21]

Caja moderna de tipos móviles, heredera de la de Gutenberg. • Imprenta de Gutenberg: La técnica de impresión con bloques de madera ya era conocida por los chinos en el siglo III a. C.[22] El método era práctico sólo para la impresión de pocos ejemplares de impresos de gran valor, como láminas artísticas. Johannes Gensfleisch zur Laden, más conocido como Johannes Gutenberg, desarrolló entre 1437 y 1447 un método más durable y económico, capaz de grandes tiradas, basado en tipos de metal fácilmente reemplazables. En la imprenta de Gutenberg se imprimió por primera vez la Biblia, que antes debía ser trabajosamente copiada a mano.[23] La generalización de la imprenta abrió el camino de la Reforma Protestante, divulgó saberes antes reservados sólo para grupos selectos y sentó las bases de la sociedad de la información en la que hoy vivimos.

Los "huesos" de Napier. • Regla de cálculo: Año 1594, Escocia (Gran Bretaña). John Napier o Neper inventa reglillas calibradas de modo logarítmico para reducir las multiplicaciones y divisiones a sumas y restas. La regla de cálculo y el ábaco (que la precedió en varios siglos) fueron los primeros dispositivos mecánicos de cálculo numérico.]].[24] Telar automático: En 1725 el francés Basile Bouchon construye el primer telar donde se controlan los hilos de la urdimbre con cintas de papel perforadas, permitiendo repetir complejos diseños sin errores. En 1728, en Lyon, el tejedor de seda francés Falcon perfecciona el telar de Bouchon reemplazando las frágiles cintas de papel por tarjetas perforadas de cartón. El hábil ingeniero francés Jacques Vaucanson perfecciona poco después el dispositivo, pero es aún demasiado complejo para ser práctico. En 1807 el francés Joseph-Marie Jacquard construye un telar práctico totalmente automático. Nació así el primer dispositivo mecánico completamente programable, remoto antecesor de las modernas computadoras.[25]

Máquina de vapor de Watt en la Escuela Técnica Superior de Ingenieros Industriales de la Universidad Politécnica de Madrid. • Máquina de vapor: Entre 1765 y 1784 el ingeniero escocés James Watt perfeccionó la máquina de vapor inventada por Thomas Newcomen para

el desagote de las minas de carbón.[26] La potencia y eficiencia de sus máquinas permitieron su uso por George Stephenson para propulsar la primera locomotora de vapor.[27] La máquina a vapor permitió la instalación de grandes telares mecánicos en lugares donde no se disponía de energía hidráulica; también disminuyó drásticamente los tiempos de navegación de los barcos movidos por ruedas de paletas y hélices. • Vacuna contra la viruela. En 1796 Edward Jenner inventó la primera vacuna al inyectar a un niño de ocho años una variante benigna de la viruela humana, la viruela vacuna. Sus investigaciones iniciaron el método inmunológico de protección contra enfermedades infecciosas que luego continuaría Louis Pasteur. Junto con el descubrimiento de los microorganismos y los medicamentos, es uno de los hitos de las tecnologías médicas.[28] Celuloide: En 1860 el químico estadounidense John Wesley Hyatt inventó el primer plástico artificial (la madera, el cuero y el caucho, por ejemplo, son plásticos naturales), un nitrato de celulosa denominado celuloide. A partir de ese momento se multiplicó la invención de materiales plásticos, los más usados hoy junto con los metales. La facilidad con que se les puede dar las formas, colores y texturas más variadas, los hace materiales irremplazable en la fabricación de artefactos de todo tipo.[29] Dínamo: Werner von Siemens pone a punto en 1867 (Alemania), el primer dispositivo capaz de generar industrialmente corrientes eléctricas (alternas) a partir de trabajo mecánico. La invención de las dínamos permitió la construcción de usinas eléctricas con la consiguiente generalización del uso de la electricidad como fuente de luz y potencia domiciliaria.[22]

Versión moderna del motor de cuatro tiempos de Otto. • Motor de combustión interna: Nikolaus August Otto estableció en 1861 el principio de funcionamiento de los motores de cuatro tiempos. En 1876 su invento fue patentado por la fábrica Deutz donde trabajaba, luego revocada por existir un invento similar anterior deAlphonse Beau de

Rochas, desarrollado independientemente del de Otto.[30] ,[31] La generalización de los motores de combustión interna alimentados con destilados del petróleo revolucionó el transporte de pasajeros y de cargas por tierra, agua y aire, la industria y las construcciones de todo tipo. Es, al mismo tiempo, el principal responsable de la contaminación del aire de las grandes ciudades. • Transistor. Los estudios teóricos de Julius Lilienfeld sentaron las bases de la comprensión del comportamiento eléctrico de los materiales semiconductores.[32] En 1939 Walter Schottky describió el efecto de las uniones PN de semiconductores deliberadamente impurificadas, terminando de sentar las bases teóricas para la invención del transistor. En 1948, tras 20 años de investigaciones, John Bardeen, Walter House Brattain y William Shockley construyeron el primer prototipo operativo del transistor en los laboratorios de la empresa Bell. El dispositivo reemplazó pronto a al tríodo, hasta entonces usado para modular y amplificar corrientes eléctricas, debido a su pequeño tamaño y consumo, y al bajo costo de su fabricación en masa. El transistor y otros componentes derivados de él, como los fototransistores, revolucionaron la electrónica, miniaturizándola y haciéndola portátil, es decir, utilizable en cualquier lugar.[33]

[editar] Economía y tecnologías
Las tecnologías, aunque no son objeto específico de estudio de la Economía, han sido a lo largo de toda la historia y son actualmente parte imprescindible de los procesos económicos, es decir, de la producción e intercambio de cualquier tipo de bienes y servicios. Desde el punto de vista de los productores de bienes y de los prestadores de servicios, las tecnologías son el medio indispensable para obtener renta. Desde el punto de vista de los consumidores, las tecnologías les permiten obtener mejores bienes y servicios, usualmente (pero no siempre) más baratos que los equivalentes del pasado. Desde el punto de vista de los trabajadores, las tecnologías disminuyen los puestos de trabajo al reemplazarlos crecientemente con máquinas. Estas complejas y conflictivas características de las tecnologías requieren estudios y diagnósticos, pero fundamentalmente soluciones políticas mediante la adecuada regulación de la distribución de las ganancias que generan.
Archivo:Joseph Alois Schumpeter.jpg Joseph Alois Schumpeter.

[editar] Teoría económica
Artículo principal: Microeconomía

La mayoría de las teorías económicas da por sentada la disponibilidad de las tecnologías. Schumpeter es uno de los pocos economistas que asignó a las tecnologías un rol central en los fenómenos económicos. En sus obras señala que los modelos clásicos de la economía no pueden explicar los ciclos periódicos de expansión y depresión, como los de Kondratiev, que son la regla más que la excepción. El origen de estos ciclos, según Schumpeter, es la aparición de innovaciones tecnológicas significativas (como la introducción de la iluminación eléctrica domiciliaria por Edison o la del automóvil económico por Ford) que generan una fase de expansión económica. La posterior saturación del mercado y la

aparición de empresarios competidores cuando desaparece el monopolio temporario que da la innovación, conducen a la siguiente fase de depresión. El término empresario schumpeteriano es hoy corrientemente usado para designar a los empresarios innovadores que hacen crecer su industria gracias a su creatividad, capacidad organizativa y mejoras de eficiencia.[34]

[editar] Industria
Artículo principal: Industria

Brazo robot soldador

La producción de bienes requiere la recolección, fabricación o generación de todos sus insumos. La obtención de la materia prima inorgánica requiere las tecnologías mineras La materia prima orgánica (alimentos, fibras textiles...) requiere de tecnologías agrícolas y ganaderas. Para obtener los productos finales la materia prima debe ser procesada en instalaciones industriales de muy variado tamaño y tipo, donde se ponen en juego toda clase de tecnologías, incluida la imprescindible generación de energía.
Véase también: Industria agroalimentaria y industria automotriz

[editar] Servicios
Artículo principal: Servicio

Hasta los servicios personales requieren de las tecnologías para su buena prestación. Las ropas de trabajo, los útiles, los edificios donde se trabaja, los medios de comunicación y registro de información son productos tecnológicos. Servicios esenciales como la provisión de agua potable, tecnologías sanitarias, electricidad, eliminación de residuos, barrido y limpieza de calles, mantenimiento de carreteras, teléfonos, gas natural, radio, televisión... no podrían brindarse sin el uso intensivo de múltiples tecnologías. Las tecnologías de las telecomunicaciones, en particular, han experimentado enormes progresos a partir de la instalación en órbita de los primeros satélites de comunicaciones, del aumento de velocidad, memoria y disminución de tamaño de las/los computadoras/ordenadores, de la miniaturización de circuitos electrónicos (circuitos integrados, de la invención de los teléfonos celulares. Esto permite comunicaciones casi

instantáneas entre dos puntos cualesquiera del planeta, pero la mayor parte de la población todavía no tiene acceso a ellas.

[editar] Comercio
Artículo principal: Comercio

El comercio moderno, medio principal de intercambio de mercancías (productos tecnológicos), no podría llevarse a cabo sin las tecnologías del transporte fluvial, marítimo, terrestre y aéreo. Estas tecnologías incluyen tanto los medios de transporte (barcos, automotores, aviones...), como también las vías de transporte y todas las instalaciones y servicios necesarios para su eficaz realización: puertos, grúas de carga y descarga, carreteras, puentes, aeródromos, radares, combustibles... El valor de los fletes, consecuencia directa de la eficiencia de las tecnologías de transporte usadas, ha sido desde tiempos remotos y sigue siendo hoy uno de los principales condicionantes del comercio.

[editar] Recursos naturales
Artículo principal: Recurso natural

Un país con grandes recursos naturales será pobre si no tiene las tecnologías necesarias para su ventajosa explotación, lo que requiere una enorme gama de tecnologías de infraestructura y servicios esenciales. Asimismo, un país con grandes recursos naturales bien explotados tendrá una población pobre si la distribución de ingresos no permite a ésta un acceso adecuado a las tecnologías imprescindibles para la satisfacción de sus necesidades básicas. En la actual economía capitalista, el único bien de cambio que tiene la mayoría de las personas para la adquisición de los productos y servicios necesarios para su supervivencia es su trabajo. La disponibilidad de trabajo, condicionada por las tecnologías, es hoy una necesidad humana esencial.

[editar] Trabajo
Si bien las técnicas y tecnologías también son parte esencial del trabajo artesanal, el trabajo fabril introdujo variantes tanto desde el punto de vista del tipo y propiedad de los medios de producción, como de la organización y realización del trabajo de producción. El alto costo de las máquinas usadas en los procesos de fabricación masiva, origen del capitalismo, tuvo como consecuencia que el trabajador perdiera la propiedad, y por ende el control, de los medios de producción de los productos que fabricaba.[35] Perdió también el control de su modo de trabajar, de lo que es máximo exponente el taylorismo. [editar] Taylorismo
Artículo principal: Taylorismo

Según Frederick W. Taylor, la organización del trabajo fabril debía eliminar tanto los movimientos inútiles de los trabajadores —por ser consumo innecesario de energía y de tiempo— como los tiempos muertos —aquellos en que el obrero estaba ocioso. Esta "organización científica del trabajo", como se la llamó en su época, disminuía la incidencia de la mano de obra en el costo de las manufacturas industriales, aumentando su productividad. Aunque la idea parecía razonable , no tenía en cuenta las necesidades de los obreros y fue llevada a límites extremos por los empresarios industriales. La reducción de las tareas a movimientos lo más sencillos posibles se usó para disminuir las destrezas necesarias para el trabajo, transferidas a máquinas, reduciendo en consecuencia los salarios

y aumentando la inversión de capital y lo que Karl Marx denominó la plusvalía. Este exceso de especialización hizo que el obrero perdiera la satisfacción de su trabajo, ya que la mayoría de ellos nunca veía el producto terminado. Asimismo, llevada al extremo, la repetición monótona de movimientos generaba distracción, accidentes, mayor ausentismo laboral y pérdida de calidad del trabajo.[36] Las tendencias contemporáneas, una de cuyas expresiones es el toyotismo, son de favorecer la iniciativa personal y la participación en etapas variadas del proceso productivo (flexibilización laboral), con el consiguiente aumento de satisfacción, rendimiento y compromiso personal en la tarea. [editar] Fordismo
Artículo principal: Fordismo

Henry Ford, el primer fabricante de automóviles que puso sus precios al alcance de un obrero calificado, logró reducir sus costos de producción gracias a una rigurosa organización del trabajo industrial. Su herramienta principal fue la cadena de montaje que reemplazó el desplazamiento del obrero en busca de las piezas al desplazamiento de éstas hasta el puesto fijo del obrero. La disminución del costo del producto se hizo a costa de la transformación del trabajo industrial en una sencilla tarea repetitiva, que resultaba agotadora por su ritmo indeclinable y su monotonía. La metodología fue satirizado por el actor y director inglés Charles Chaplin en su clásico film Tiempos modernos y hoy estas tareas son hechas por robots industriales. La técnica de producción en serie de grandes cantidades de productos idénticos para disminuir su precio está perdiendo gradualmente validez a medida que las maquinarias industriales son crecientemente controladas por computadoras que permiten variar con bajo costo las características de los productos. Éste es, por ejemplo, el caso del corte de prendas de vestir, aunque siguen siendo mayoritariamente cosidas por costureras con la ayuda de máquinas de coser individuales en puestos fijos de trabajo.[36] [editar] Toyotismo
Artículo principal: Toyotismo

El toyotismo, cuyo nombre proviene de la fábrica de automóviles Toyota, su creadora, modifica las características negativas del fordismo. Se basa en la flexibilidad laboral, el fomento del trabajo en equipo y la participación del obrero en las decisiones productivas. Desde el punto de vista de los insumos, disminuye el costo de mantenimiento de inventarios ociosos mediante el sistema just in time, donde los componentes son provistos en el momento en que se necesitan para la fabricación. Aunque mantiene la producción en cadena, reemplaza las tareas repetitivas más agobiantes, como la soldadura de chasis, con robots industriales.[37] [editar] La desaparición y creación de puestos de trabajo Uno de los instrumentos de que dispone la Economía para la detección de los puestos de trabajos eliminados o generados por las innovaciones tecnológicas es la matriz insumoproducto (en inglés, input-output matrix) desarrollada por el economista Wassily Leontief, cuyo uso por los gobiernos recién empieza a difundirse.[38] La tendencia histórica es la disminución de los puestos de trabajo en los sectores económicos primarios ( agricultura, ganadería, pesca, silvicultura) y secundarios (minería, industria, energía y construcción) y su aumento en los terciarios (transporte, comunicaciones, servicios, comercio, turismo, educación, finanzas, administración, sanidad). Esto plantea la necesidad de medidas rápidas

de los gobiernos en reubicación de mano de obra, con la previa e indispensable capacitación laboral.

[editar] Publicidad
La mayoría de los productos tecnológicos se hacen con fines de lucro y su publicidad es crucial para su exitosa comercialización. La publicidad -que usa recursos tecnológicos como la imprenta, la radio y la televisión- es el principal medio por el que los fabricantes de bienes y los proveedores de servicios dan a conocer sus productos a los consumidores potenciales. Idealmente la función técnica de la publicidad es la descripción de las propiedades del producto, para que los interesados puedan conocer cuan bien satisfará sus necesidades prácticas y si su costo está o no a su alcance. Esta función práctica se pone claramente de manifiesto sólo en la publicidad de productos innovadores cuyas características es imprescindible dar a conocer para poder venderlos. Sin embargo, usualmente no se informa al usuario de la duración estimada de los artefactos o el tiempo de mantenimiento y los costos secundarios del uso de los servicios, factores cruciales para una elección racional entre alternativas similares. Son particularmente engañosas las publicidades de sustancias que proporcionan alguna forma de placer, como los cigarrillos y el vino. En algunos países, el alto costo que causan en servicios de salud o de atención de accidentes, hizo que se obligara a advertir en sus envases los riesgos que acarrea su consumo. Sus abundantes publicidades, aunque lleven la advertencia en letra chica, nunca mencionan la función técnica de estos productos de cambiar la percepción de la realidad; centran en cambio sus mensajes en asociar su consumo con el placer, el éxito y el prestigio.

[editar] Impactos de la tecnología

¿Somos lo que producimos? (óleo de Giuseppe Arcimboldo, circa 1563).

La elección, desarrollo y uso de tecnologías puede tener impactos muy variados en todos los órdenes del quehacer humano y sobre la naturaleza. Uno de los primeros investigadores

del tema fue McLuhan, quien planteó las siguientes cuatro preguntas a contestar sobre cada tecnología particular:[39]
• • • • ¿Qué genera, crea o posibilita? ¿Qué preserva o aumenta? ¿Qué recupera o revaloriza? ¿Qué reemplaza o deja obsoleto?

Este cuestionario puede ampliarse para ayudar a identificar mejor los impactos, positivos o negativos, de cada actividad tecnológica tanto sobre las personas como sobre su cultura, su sociedad y el medio ambiente:[40]
• • • Impacto práctico: ¿Para qué sirve? ¿Qué permite hacer que sin ella sería imposible? ¿Qué facilita? Impacto simbólico: ¿Qué simboliza o representa? ¿Qué connota? Impacto tecnológico: ¿Qué objetos o saberes técnicos preexistentes lo hacen posible? ¿Qué reemplaza o deja obsoleto? ¿Qué disminuye o hace menos probable? ¿Qué recupera o revaloriza? ¿Qué obstáculos al desarrollo de otras tecnologías elimina? Impacto ambiental: ¿El uso de qué recursos aumenta, disminuye o reemplaza? ¿Qué residuos o emanaciones produce? ¿Qué efectos tiene sobre la vida animal y vegetal? Impacto ético: ¿Qué necesidad humana básica permite satisfacer mejor? ¿Qué deseos genera o potencia? ¿Qué daños reversibles o irreversibles causa? ¿Qué alternativas más beneficiosas existen? Impacto epistemológico: ¿Qué conocimientos previos cuestiona? ¿Qué nuevos campos de conocimiento abre o potencia?

[editar] Funciones no técnicas de los productos tecnológicos
Después de un tiempo, las características novedosas de los productos tecnológicos son copiadas por otras marcas y dejan de ser un buen argumento de venta. Toman entonces gran importancia las creencias del consumidor sobre otras características independientes de su función principal, como las estéticas y simbólicas.

[editar] Función estética de los objetos tecnológicos
Más allá de la indispensable adecuación entre forma y función técnica, se busca la belleza a través de las formas, colores y texturas. Entre dos productos de iguales prestaciones técnicas y precios, cualquier usuario elegirá seguramente al que encuentre más bello. A veces, caso de las prendas de vestir, la belleza puede primar sobre las consideraciones prácticas. Frecuentemente compramos ropa bonita aunque sepamos que sus ocultos detalles de confección no son óptimos, o que su duración será breve debido a los materiales usados. Las ropas son el rubro tecnólogico de máxima venta en el planeta porque son la cara que mostramos a las demás personas y condicionan la manera en que nos relacionamos con ellas.

[editar] Función simbólica de los objetos tecnológicos[41]

Cuando la función principal de los objetos tecnológicos es la simbólica, no satisfacen las necesidades básicas de las personas y se convierten en medios para establecer estatus social y relaciones de poder. Las joyas hechas de metales y piedras preciosas no impactan tanto por su belleza (muchas veces comparable al de una imitación barata) como por ser claros indicadores de la riqueza de sus dueños. Las ropas costosas de primera marca han sido tradicionalmente indicadores del estatus social de sus portadores. En la América colonial, por ejemplo, se castigaba con azotes al esclavo o liberto africano que usaba ropas españolas por pretender ser lo que no es. El caso más destacado y frecuente de objetos tecnológicos fabricados por su función simbólica es el de los grandes edificios: catedrales, palacios, rascacielos gigantes. Están diseñados para empequeñecer a los que están en su interior (caso de los amplios atrios y altísimos techos de las catedrales), deslumbrar con exhibiciones de lujo (caso de los palacios), infundir asombro y humildad (caso de los grandes rascacielos). No es casual que los terroristas del 11 de septiembre de 2001 eligieran como blanco principal de sus ataques a las Torres Gemelas de Nueva York, sede de la Organización Mundial de Comercio y símbolo del principal centro del poderío económico estadounidense. El Proyecto Apolo fue lanzado por el Presidente John F. Kennedy en el clímax de la Guerra Fría, cuando EEUU estaba aparentemente perdiendo la carrera espacial frente a los rusos, para demostrar al mundo la inteligencia, riqueza, poderío y capacidad tecnológica de los EEUU. Con las pirámides de Egipto, es el más costoso ejemplo del uso simbólico de las tecnologías.

[editar] Cultura y tecnologías

Preguntas de McLuhan sobre el impacto cultural de una tecnología.

Cada cultura distribuye de modo diferente la realización de las funciones y el usufructo de sus beneficios. Como la introducción de nuevas tecnologías modifica y reemplaza funciones humanas, cuando los cambios son suficientemente generalizados puede modificar también las relaciones humanas, generando un nuevo orden social. Las tecnologías no son independientes de la cultura, integran con ella un sistema socio-técnico inseparable. Las tecnologías disponibles en una cultura condicionan su forma de organización, así como la cosmovisión de una cultura condiciona las tecnologías que está dispuesta a usar.

En su libro Los orígenes de la civilización el historiado Vere Gordon Childe ha desarrollado detalladamente la estrecha vinculación entre la evolución tecnológica y la social de las culturas occidentales, desde sus orígenes prehistóricos. Marshall McLuhan ha hecho lo propio para la época contemporánea en el campo más restringido de las tecnologías de las telecomunicaciones.[42]

[editar] Medio ambiente y tecnologías
La principal finalidad de las tecnologías es transformar el entorno humano (natural y social), para adaptarlo mejor a las necesidades y deseos humanos. En ese proceso se usan recursos naturales (terreno, aire, agua, materiales, fuentes de energía...) y personas que proveen la información, mano de obra y mercado para las actividades tecnológicas. El principal ejemplo de transformación del medio ambiente natural son las ciudades, construcciones completamente artificiales por donde circulan productos naturales como aire y agua, que son contaminados durante su uso. La tendencia, aparentemente irreversible, es la urbanización total del planeta. Se estima que en el transcurso de 2008 la población mundial urbana superará a la rural por primera vez en la historia.[43] [44] Esto ya ha sucedido en el siglo XX para los países más industrializados. En casi todos los países la cantidad de ciudades está en continuo crecimiento y la población de la gran mayoría de ellas está en continuo aumento. La razón es que las ciudades proveen mayor cantidad de servicios esenciales, puestos de trabajo, comercios, seguridad personal, diversiones y acceso a los servicios de salud y educación. Además del creciente reemplazo de los ambientes naturales (cuya preservación en casos particularmente deseables ha obligado a la creación de parques y reservas naturales), la extracción de ellos de materiales o su contaminación por el uso humano, está generando problemas de difícil reversión. Cuando esta extracción o contaminación excede la capacidad natural de reposición o regeneración, las consecuencias pueden ser muy graves. Son ejemplos:
• • • • • • • La deforestación. La contaminación de los suelos, las aguas y la atmósfera. El calentamiento global. La reducción de la capa de ozono. Las lluvias ácidas. La extinción de especies animales y vegetales. La desertificación por el uso de malas prácticas agrícolas y ganaderas.

Se pueden mitigar los efectos que las tecnologías producen sobre el medio ambiente estudiando los impactos ambientales que tendrá una obra antes de su ejecución, sea ésta la construcción de un caminito en la ladera de una montaña o la instalación de una gran fábrica de papel a la vera de un río. En muchos países estos estudios son obligatorios y deben tomarse recaudos para minimizar los impactos negativos (rara vez pueden eliminarse por completo) sobre el ambiente natural y maximizar (si existen) los impactos positivos (caso de obras para la prevención de aludes o inundaciones). Para eliminar completamente los impactos ambientales negativos no debe tomarse de la naturaleza o incorporar a ella más de los que es capaz de reponer, o eliminar por sí misma. Por ejemplo, si se tala un árbol se debe plantar al menos uno; si se arrojan residuos

orgánicos a un río, la cantidad no debe exceder su capacidad natural de degradación. Esto implica un costo adicional que debe ser provisto por la sociedad, transformando los que actualmente son costos externos de las actividades humanas (es decir, costos que no paga el causante, por ejemplo los industriales, sino otras personas) en costos internos de las actividades responsables del impacto negativo. De lo contrario se generan problemas que deberán ser resueltos por nuestros descendientes, con el grave riesgo de que en el transcurso del tiempo se transformen en problemas insolubles. El concepto de desarrollo sustentable o sostenible tiene metas más modestas que el probablemente inalcanzable impacto ambiental nulo. Su expectativa es permitir satisfacer las necesidades básicas, no suntuarias, de las generaciones presentes sin afectar de manera irreversible la capacidad de las generaciones futuras de hacer lo propio. Además del uso moderado y racional de los recursos naturales, esto requiere el uso de tecnologías específicamente diseñadas para la conservación y protección del medio ambiente.

[editar] Ética y tecnologías
Cuando el lucro es la finalidad principal de las actividades tecnológicas, caso ampliamente mayoritario, el resultado inevitable es considerar a las personas como mercaderías. Cuando hay seres vivos involucrados (animales de laboratorio y personas), caso de las tecnologías médicas, la experimentación tecnológica tiene restricciones éticas inexistentes para la materia inanimada. Las consideraciones morales rara vez entran en juego para las tecnologías militares, y aunque existen acuerdos internacionales limitadores de las acciones admisibles para la guerra, como la Convención de Ginebra, estos acuerdos son frecuentemente violados por los países con argumentos de supervivencia y hasta de mera seguridad.

[editar] Tecnologías apropiadas
Se considera que una tecnología es apropiada cuando tiene efectos beneficiosos sobre las personas y el medio ambiente. Aunque el tema es hoy (y probablemente seguirá siéndolo por mucho tiempo) objeto de intenso debate, hay acuerdo bastante amplio sobre las principales características que una tecnología debe tener para ser social y ambientalmente apropiada:[45]
• • • • • • No causar daño previsible a las personas ni daño innecesario a las restantes formas de vida (animales y plantas). No comprometer de modo irrecuperable el patrimonio natural de las futuras generaciones. Mejorar las condiciones básicas de vida de todas las personas, independientemente de su poder adquisitivo. No ser coercitiva y respetar los derechos y posibilidades de elección de sus usuarios voluntarios y de sus sujetos involuntarios. No tener efectos generalizados irreversibles, aunque estos parezcan a primera vista ser beneficiosos o neutros. La inversión de los gobiernos en tecnologías apropiadas debe priorizar de modo absoluto la satisfacción de las necesidades humanas básicas de alimentación, vestimenta, vivienda, salud, educación, seguridad personal, participación social, trabajo y transporte.

Los conceptos tecnologías apropiadas y tecnologías de punta son completamente diferentes. Las tecnologías de punta, término publicitario que enfatiza la innovación, son usualmente tecnologías complejas que hacen uso de muchas otras tecnologías más simples. Las tecnologías apropiadas frecuentemente, aunque no siempre, usan saberes propios de la cultura (generalmente artesanales) y materias primas fácilmente obtenibles en el ambiente natural donde se aplican.[46] Algunos autores acuñaron el término tecnologías intermedias para designar a las tecnologías que comparten características de las apropiadas y de las industriales.

[editar] Ejemplos de tecnologías apropiadas
• La bioconstrucción o construcción de viviendas con materiales locales, como el adobe, con diseños sencillos pero que garanticen la estabilidad de la construcción, la higiene de las instalaciones, la protección contra las variaciones normales del clima y un bajo costo de mantenimiento, actividad tecnológica frecuentemente descuidada.[47] La letrina abonera seca es una manera higiénica de disponer de los excrementos humanos y transformarlos en abono sin uso de agua. Es una tecnología apropiada para ambientes donde el agua es escasa o no se puede depurar su carga orgánica con facilidad y seguridad.[48]

[editar] Ludismo
El ludismo o luddismo, denominado así por un no se sabe si real o imaginario personaje destructor de máquinas en la Inglaterra de la Revolución industrial, Ned Ludd, es la ideología que atribuye a los dispositivos tecnológicos ser la causa de muchos males de la sociedad moderna. Los luditas consideran que las máquinas quitan puestos de trabajo a las personas, las alejan de la sana vida natural y destruyen el medio ambiente. Uno de los más notorios luditas contemporáneos fue Theodore John Kaczynski, el Unabomber, quien mató e hirió a muchos tecnólogos usando cartas bomba. Los luditas no diferencian entre las tecnologías y las finalidades para las que son usadas, englobándolas a todas en la misma categoría. Consideran así, tal vez sin expresarlo verbalmente, que las tecnologías médicas, que salvan anualmente centenares de millones de vidas, no tienen diferencias esenciales con las tecnologías de la guerra, que matan a centenares de miles de personas en el mismo lapso. Este sincretismo elude u oscurece la necesaria discusión de la concordancia ética entre medios y fines que es la base de los imperativos categóricos kantianos.
Las elecciones a steward de la Fundación Wikimedia para el 2010 han comenzado. Vota por favor.
[Contraer] [Ayúdanos traduciendo.]

Historia de la electricidad
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

Un fragmento de ámbar como el que pudo utilizar Tales de Mileto en su experimentación del efecto triboeléctrico. El nombre en griego de este material (ελεκτρον, elektron) se utilizó para nombrar al fenómeno y la ciencia que lo estudia, a partir del libro De Magnete, Magneticisque Corporibus, et de Magno Magnete Tellure, de William Gilbert (1600).

Grabado mostrando la teoría del galvanismo según los experimentos de Luigi Galvani. De viribus electricitatis in motu musculari commentarius, 1792.

La historia de la electricidad se refiere al estudio y uso humano de la electricidad, al descubrimiento de sus leyes como fenómeno físico y a la invención de artefactos para su uso práctico. El fenómeno en sí, fuera de su relación con el observador humano, no tiene historia; y si se la considerase como parte de la historia natural, tendría tanta como el tiempo, el espacio, la materia y la energía. Como también se denomina electricidad a la rama de la ciencia que estudia el fenómeno y a la rama de la tecnología que lo aplica, la historia de la electricidad es la rama de la historia de la ciencia y de la historia de la tecnología que se ocupa de su surgimiento y evolución. Uno de sus hitos iniciales puede situarse hacia el año 600 a. C., cuando el filósofo griego Tales de Mileto observó que frotando una varilla de ámbar con una piel o con lana, se obtenían pequeñas cargas (efecto triboeléctrico) que atraían pequeños objetos, y frotando mucho tiempo podía causar la aparición de una chispa. Cerca de la antigua ciudad griega de

Magnesia se encontraban las denominadas piedras de Magnesia, que incluían magnetita. Los antiguos griegos observaron que los trozos de este material se atraían entre sí, y también a pequeños objetos de hierro. Las palabras magneto (equivalente en español a imán) y magnetismo derivan de ese topónimo. La electricidad evolucionó históricamente desde la simple percepción del fenómeno, a su tratamiento científico, que no se haría sistemático hasta el siglo XVIII. Se registraron a lo largo de la Edad Antigua y Media otras observaciones aisladas y simples especulaciones, así como intuiciones médicas (uso de peces eléctricos en enfermedades como la gota y el dolor de cabeza) referidas por autores como Plinio el Viejo y Escribonio Largo,[1] u objetos arqueológicos de interpretación discutible, como la Batería de Bagdad,[2] un objeto encontrado en Iraq en 1938, fechado alrededor de 250 a. C., que se asemeja a una celda electroquímica. No se han encontrado documentos que evidencien su utilización, aunque hay otras descripciones anacrónicas de dispositivos eléctricos en muros egipcios y escritos antiguos. Esas especulaciones y registros fragmentarios son el tratamiento casi exclusivo (con la notable excepción del uso del magnetismo para la brújula) que hay desde la Antigüedad hasta la Revolución científica del siglo XVII; aunque todavía entonces pasa a ser poco más que un espectáculo para exhibir en los salones. Las primeras aportaciones que pueden entenderse como aproximaciones sucesivas al fenómeno eléctrico fueron realizadas por investigadores sistemáticos como William Gilbert, Otto von Guericke, Du Fay, Pieter van Musschenbroek (botella de Leyden) o William Watson. Las observaciones sometidas a método científico empiezan a dar sus frutos con Luigi Galvani, Alessandro Volta, CharlesAugustin de Coulomb o Benjamin Franklin, proseguidas a comienzos del siglo XIX por André-Marie Ampère, Michael Faraday o Georg Ohm. Los nombres de estos pioneros terminaron bautizando las unidades hoy utilizadas en la medida de las distintas magnitudes del fenómeno. La comprensión final de la electricidad se logró recién con su unificación con el magnetismo en un único fenómeno electromagnético descrito por las ecuaciones de Maxwell (1861-1865). El telégrafo eléctrico (Samuel Morse, 1833, precedido por Gauss y Weber, 1822) puede considerarse como la primera gran aplicación en el campo de las telecomunicaciones, pero no será en la primera revolución industrial, sino a partir del cuarto final del siglo XIX cuando las aplicaciones económicas de la electricidad la convertirán en una de las fuerzas motrices de la segunda revolución industrial. Más que de grandes teóricos como Lord Kelvin, fue el momento de ingenieros, como Zénobe Gramme, Nikola Tesla, Frank Sprague, George Westinghouse, Ernst Werner von Siemens, Alexander Graham Bell y sobre todo Thomas Alva Edison y su revolucionaria manera de entender la relación entre investigación científico-técnica y mercado capitalista. Los sucesivos cambios de paradigma de la primera mitad del siglo XX (relativista y cuántico) estudiarán la función de la electricidad en una nueva dimensión: atómica y subatómica.

Multiplicador de tensión Cockcroft-Walton utilizado en un acelerador de partículas de 1937, que alcanzaba un millón de voltios.

La electrificación no sólo fue un proceso técnico, sino un verdadero cambio social de implicaciones extraordinarias, comenzando por el alumbrado y siguiendo por todo tipo de procesos industriales (motor eléctrico, metalurgia, refrigeración...) y de comunicaciones (telefonía, radio). Lenin, durante la Revolución bolchevique, definió el socialismo como la suma de la electrificación y el poder de los soviets,[3] pero fue sobre todo la sociedad de consumo que nació en los países capitalistas, la que dependió en mayor medida de la utilización doméstica de la electricidad en los electrodomésticos, y fue en estos países donde la retroalimentación entre ciencia, tecnología y sociedad desarrolló las complejas estructuras que permitieron los actuales sistemas de I+D e I+D+I, en que la iniciativa pública y privada se interpenetran, y las figuras individuales se difuminan en los equipos de investigación. La energía eléctrica es esencial para la sociedad de la información de la tercera revolución industrial que se viene produciendo desde la segunda mitad del siglo XX (transistor, televisión, computación, robótica, internet...). Únicamente puede comparársele en importancia la motorización dependiente del petróleo (que también es ampliamente utilizado, como los demás combustibles fósiles, en la generación de electricidad). Ambos procesos exigieron cantidades cada vez mayores de energía, lo que está en el origen de la crisis energética y medioambiental y de la búsqueda de nuevas fuentes de energía, la mayoría con inmediata utilización eléctrica (energía nuclear y energías alternativas, dadas las limitaciones de la tradicional hidroelectricidad). Los problemas que tiene la electricidad para su almacenamiento y transporte a largas distancias, y para la autonomía de los aparatos móviles, son retos técnicos aún no resueltos de forma suficientemente eficaz. El impacto cultural de lo que Marshall McLuhan denominó Edad de la Electricidad, que seguiría a la Edad de la Mecanización (por comparación a cómo la Edad de los Metales siguió a la Edad de Piedra), radica en la altísima velocidad de propagación de la radiación electromagnética (300.000 km/s) que hace que se perciba de forma casi instantánea. Este

hecho conlleva posibilidades antes inimaginables, como la simultaneidad y la división de cada proceso en una secuencia. Se impuso un cambio cultural que provenía del enfoque en "segmentos especializados de atención" (la adopción de una perspectiva particular) y la idea de la "conciencia sensitiva instantánea de la totalidad", una atención al "campo total", un "sentido de la estructura total". Se hizo evidente y prevalente el sentido de "forma y función como una unidad", una "idea integral de la estructura y configuración". Estas nuevas concepciones mentales tuvieron gran impacto en todo tipo de ámbitos científicos, educativos e incluso artísticos (por ejemplo, el cubismo). En el ámbito de lo espacial y político, "la electricidad no centraliza, sino que descentraliza... mientras que el ferrocarril requiere un espacio político uniforme, el avión y la radio permiten la mayor discontinuidad y diversidad en la organización espacial".[4]

Contenido
[ocultar] • 1 Siglo XVII ○ ○ • ○ ○ ○ ○ ○ ○ ○ ○ • ○ ○ ○ ○ ○ ○ ○ ○ 1.1 William Gilbert: materiales eléctricos y materiales aneléctricos (1600) 1.2 Otto von Guericke: las cargas eléctricas (1660) 2.1 Stephen Gray: los efluvios (1729) 2.2 Charles François de Cisternay Du Fay: carga vítrea y carga resinosa (1733) 2.3 Pieter van Musschenbroek: la botella de Leyden (1745) 2.4 William Watson: la corriente eléctrica (1747) 2.5 Benjamin Franklin: el pararrayos (1752) 2.6 Charles-Augustin de Coulomb: fuerza entre dos cargas (1777) 2.7 Luigi Galvani: el impulso nervioso (1780) 2.8 Alessandro Volta: la pila de Volta (1800) 3.1 Humphry Davy: la electrólisis (1807) y el arco eléctrico (1808) 3.2 Hans Christian Ørsted: el electromagnetismo (1819) 3.3 Thomas Johann Seebeck: la termoelectricidad (1821) 3.4 André-Marie Ampère: el solenoide (1822) 3.5 William Sturgeon: el electroimán (1825), el conmutador (1832) y el galvanómetro (1836) 3.6 Georg Simon Ohm: la ley de Ohm (1827) 3.7 Joseph Henry: inducción electromagnética (1830) 3.8 Johann Carl Friedrich Gauss: Teorema de Gauss de la electrostática

2 Siglo XVIII: la Revolución industrial

3 Principios del siglo XIX: el tiempo de los teóricos

○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○ •

3.9 Michael Faraday: inducción (1831), generador (1831-1832), leyes y jaula de Faraday 3.10 Heinrich Friedrich Lenz: ley de Lenz (1834) 3.11 Jean Peltier: efecto Peltier (1834), inducción electrostática (1840) 3.12 Samuel Morse: telégrafo (1833-1837) 3.13 Ernst Werner M. von Siemens: Locomotora eléctrica (1879) 3.14 Charles Wheatstone: puente de Wheatstone (1843) 3.15 James Prescott Joule: relaciones entre electricidad, calor y trabajo (1840-1843) 3.16 Gustav Robert Kirchhoff: leyes de Kirchhoff (1845) 3.17 William Thomson (Lord Kelvin): relación entre los efectos Seebeck y Peltier (1851), cable flexible (1858) 3.18 Heinrich Daniel Ruhmkorff: la bobina de Ruhmkorff genera chispas de alto voltaje (1851) 3.19 Léon Foucault: corrientes de Foucault (1851) 3.20 Zénobe-Théophile Gramme: la primera dinamo (1870) 3.21 Johann Wilhelm Hittorf: el primer tubo de rayos catódicos (1872) 3.22 James Clerk Maxwell: las cuatro ecuaciones de Maxwell (1875) 4.1 Alexander Graham Bell: el teléfono (1876) 4.2 Thomas Alva Edison: desarrollo de la lámpara incandescente (1879), Menlo Park y comercialización 4.3 John Hopkinson: el sistema trifásico (1882) 4.4 Heinrich Rudolf Hertz: demostración de las ecuaciones de Maxwell y la teoría electromagnética de la luz (1887) 4.5 George Westinghouse: el suministro de corriente alterna (1886) 4.6 Nikola Tesla: desarrollo de máquinas eléctricas, la bobina de Tesla (1884-1891) y el radiotransmisor (1893) 4.7 Charles Proteus Steinmetz: la histéresis magnética (1892) 4.8 Wilhelm Conrad Röntgen: los rayos X (1895) 4.9 Michael Idvorsky Pupin: la bobina de Pupin (1894) y las imágenes de rayos X (1896) 4.10 Joseph John Thomson: los rayos catódicos (1897) 4.11 Hermanos Lumière: el inicio del cine (1895)

4 Finales del siglo XIX: el tiempo de los ingenieros ○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○

○ ○ ○ •

4.12 Guglielmo Marconi: la telegrafía inalámbrica (1899) 4.13 Peter Cooper Hewitt: la lámpara de vapor de mercurio (19011912) 4.14 Gottlob Honold: la magneto de alta tensión, la bujía (1902) y los faros parabólicos (1913) 5.1 Hendrik Antoon Lorentz: Las transformaciones de Lorentz (1900) y el efecto Zeeman (1902) 5.2 Albert Einstein: El efecto fotoeléctrico (1905) 5.3 Robert Andrews Millikan: El experimento de Millikan (1909) 5.4 Heike Kamerlingh Onnes: Superconductividad (1911) 5.5 Vladimir Zworykin: La televisión (1923) 5.6 Edwin Howard Armstrong: Frecuencia modulada (FM) (1935) 5.7 Robert Watson-Watt: El radar (1935) 6.1 Televisión 6.2 Ordenadores 6.3 Transistor, Electrónica digital y Superconductividad 6.4 El reto de la generación de electricidad   6.4.1 Centrales nucleares 6.4.2 Combustibles fósiles y fuentes renovables

5 Los cambios de paradigma del siglo XX ○ ○ ○ ○ ○ ○ ○

6 La segunda mitad del siglo XX: Era Espacial o Edad de la Electricidad ○ ○ ○ ○

○ ○ ○ ○ ○ • • • •

6.5 Robótica y máquinas CNC 6.6 Láser 6.7 Electrificación de los ferrocarriles 6.8 Electromedicina 6.9 Telecomunicaciones e Internet

7 Véase también 8 Bibliografía 9 Referencias 10 Enlaces externos ○ 10.1 Vídeos

[editar] Siglo XVII
La Revolución científica que se venía produciendo desde Copérnico en la astronomía y Galileo en la física no va a encontrar aplicaciones muy tempranas al campo de la electricidad, limitándose la actividad de los pocos autores que tratan sobre ella a la

recopilación baconiana de datos experimentales, que por el momento no alcanzan a inducir modelos explicativos.

[editar] William Gilbert: materiales eléctricos y materiales aneléctricos (1600)
Artículo principal: De Magnete

William Gilbert

El científico inglés William Gilbert (1544-1603) publicó su libro De Magnete, en donde utiliza la palabra latina electricus, derivada del griego elektron, que significa ámbar, para describir los fenómenos descubiertos por los griegos.[5] Previamente, el italiano Gerolamo Cardano había ya distinguido, quizá por primera vez, entre las fuerzas magnéticas y las eléctricas (De Subtilitate 1550). Gilbert estableció las diferencias entre ambos fenómenos a raíz de que la reina Isabel I de Inglaterra le ordenara estudiar los imanes para mejorar la exactitud de las brújulas usadas en la navegación, consiguiendo con este trabajo la base principal para la definición de los fundamentos de la electrostática y magnetismo. A través de sus experiencias clasificó los materiales en eléctricos (aislantes) y aneléctricos (conductores) e ideó el primer electroscopio. Descubrió la imantación por influencia, y observó que la imantación del hierro se pierde cuando se calienta al rojo. Estudió la inclinación de una aguja magnética concluyendo que la Tierra se comporta como un gran imán. El Gilbert es la unidad de medida de la fuerza magnetomotriz.[6]
Véase también: William Gilbert

[editar] Otto von Guericke: las cargas eléctricas (1660)
Artículo principal: Electrostática

Otto von Guericke

Las investigaciones de Gilbert fueron continuadas por el físico alemán Otto von Guericke (1602-1686). En las investigaciones que realizó sobre electrostática observó que se producía una repulsión entre cuerpos electrizados luego de haber sido atraídos. Ideó la primera máquina electrostática y sacó chispas de un globo hecho de azufre, lo cual le llevó a especular sobre la naturaleza eléctrica de los relámpagos. Fue la primera persona que estudió la luminiscencia.[7]
Véase también: Otto von Guericke

[editar] Siglo XVIII: la Revolución industrial
La crisis de la conciencia europea renueva el panorama intelectual de finales del siglo XVII a principios del siglo XVIII y abre las puertas al llamado Siglo de las luces o de la Ilustración. Instituciones científicas de nuevo cuño, como la Royal Academy inglesa, y el espíritu crítico que los enciclopedistas franceses extienden por todo el continente, conviven con el inicio de la Revolución industrial. No obstante, la retroalimentación entre ciencia, tecnología y sociedad, aún no se había producido. Aparte del pararrayos, ninguna de las innovaciones técnicas del siglo tuvo que ver con las investigaciones científicas sobre la electricidad, hecho que no es exclusivo de este campo: la mismísima máquina de vapor precedió en cien años a la definición de la termodinámica por Sadi Carnot.[8]

[editar] Stephen Gray: los efluvios (1729)
Artículo principal: Conductividad eléctrica

El físico inglés Stephen Gray (1666-1736) estudió principalmente la conductividad eléctrica de los cuerpos y, después de muchos experimentos, fue el primero en 1729 en transmitir electricidad a través de un conductor. En sus experimentos descubrió que para que la electricidad, o los "efluvios" o "virtud eléctrica", como él la llamó, pudiera circular por el conductor, éste tenia que estar aislado de tierra. Posteriormente estudió otras formas de transmisión y, junto con los científicos G. Wheler y J. Godfrey, clasificó los materiales en conductores y aislantes de la electricidad. Inventó una lámpara eléctrica e ideó enchufes, interruptores y sistemas de instalaciones eléctricas.[9]
Véase también: Stephen Gray

[editar] Charles François de Cisternay Du Fay: carga vítrea y carga resinosa (1733)
Artículo principal: Carga eléctrica

Charles François du Fay

El científico francés Charles François de Cisternay Du Fay (1698-1739) al enterarse de los trabajos de Stephen Gray, dedicó su vida al estudio de los fenómenos eléctricos. Du Fay, entre otros muchos experimentos, observó que una lámina de oro siempre era repelida por una barra de vidrio electrificada. Publicó sus trabajos en 1733 siendo el primero en identificar la existencia de dos tipos de cargas eléctricas (denominadas hoy en día positiva y negativa), que él denominó carga vítrea y carga resinosa, debido a que ambas se manifestaban de una forma al frotar, con un paño de seda, el vidrio (carga positiva) y de forma distinta al frotar, con una piel, algunas substancias resinosas como el ámbar o la goma (carga negativa).
Véase también: C.F.Du Fay

[editar] Pieter van Musschenbroek: la botella de Leyden (1745)
Artículo principal: Botella de Leyden

Pieter van Musschenbroek

El físico holandés Pieter van Musschenbroek (1692-1761), que trabajaba en la Universidad de Leiden, efectuó una experiencia para comprobar si una botella llena de agua podía conservar cargas eléctricas. Esta botella consistía en un recipiente con un tapón al cual se le atraviesa una varilla metálica sumergida en el líquido. La varilla tiene una forma de gancho en la parte superior al cual se le acerca un conductor cargado eléctricamente. Durante la experiencia un asistente separó el conductor y recibió una fuerte descarga al aproximar su mano a la varilla, debida a la electricidad estática que se había almacenado en la botella. De esta manera fue descubierta la botella de Leyden y la base de los actuales capacitores o condensadores eléctricos.[10]

Véase también: Pieter van Musschenbroek

[editar] William Watson: la corriente eléctrica (1747)
Artículo principal: Corriente eléctrica

William Watson

Sir William Watson (1715-1787), médico y físico inglés, estudió los fenómenos eléctricos. Realizó reformas en la botella de Leyden agregándole una cobertura de metal, descubriendo que de esta forma se incrementaba la descarga eléctrica. En 1747 demostró que una descarga de electricidad estática es una corriente eléctrica. Fue el primero en estudiar la propagación de corrientes en gases enrarecidos.[11]
Véase también: William Watson

[editar] Benjamin Franklin: el pararrayos (1752)
Artículo principal: Pararrayos

Retrato de Benjamin Franklin

1752 El polifacético estadounidense Benjamin Franklin (1706-1790) investigó los fenómenos eléctricos naturales. Es particularmente famoso su experimento en el que, haciendo volar una cometa durante una tormenta, demostró que los rayos eran descargas eléctricas de tipo electrostático. Como consecuencia de estas experimentaciones inventó el pararrayos. También formuló una teoría según la cual la electricidad era un fluido único

existente en toda materia y calificó a las substancias en eléctricamente positivas y eléctricamente negativas, de acuerdo con el exceso o defecto de ese fluido.[12]
Véase también: Benjamin Franklin

[editar] Charles-Augustin de Coulomb: fuerza entre dos cargas (1777)
Artículo principal: Ley de Coulomb

Charles-Augustin de Coulomb

El físico e ingeniero francés Charles-Augustin de Coulomb (1736 - 1806) fue el primero en establecer las leyes cuantitativas de la electrostática, además de realizar muchas investigaciones sobre magnetismo, rozamiento y electricidad. Sus investigaciones científicas están recogidas en siete memorias, en las que expone teóricamente los fundamentos del magnetismo y de la electrostática. En 1777 inventó la balanza de torsión para medir la fuerza de atracción o repulsión que ejercen entre sí dos cargas eléctricas y estableció la función que liga esta fuerza con la distancia. Con este invento, culminado en 1785, Coulomb pudo establecer la expresión de la fuerza entre dos cargas eléctricas q y Q en función de la distancia d que las separa, actualmente conocida como Ley de Coulomb: F = k (q Q) / d2. Coulomb también estudió la electrización por frotamiento y la polarización e introdujo el concepto de momento magnético. El Coulomb (símbolo C), castellanizado a Culombio, es la unidad del SI para la medida de la cantidad de carga eléctrica.[13]
Véase también: Charles-Augustin de Coulomb

[editar] Luigi Galvani: el impulso nervioso (1780)
Artículos principales: Impulso nervioso y Galvanismo

Luigi Galvani.

El médico y físico italiano Luigi Galvani (1737-1798) se hizo famoso por sus investigaciones sobre los efectos de la electricidad en los músculos de los animales. Mientras disecaba una rana halló accidentalmente que sus patas se contraían al tocarlas con un objeto cargado de electricidad. Por ello se le considera el iniciador de los estudios del papel que desempeña la electricidad en el funcionamiento de los organismos animales. De sus discusiones con otro gran científico italiano de su época, Alessandro Volta, sobre la naturaleza de los fenómenos observados, surgió la construcción de la primera pila, o aparato para producir corriente eléctrica continua, llamado pila de Volta. El nombre de Luigi Galvani sigue hoy asociado con la electricidad a través de términos como galvanismo y galvanización. Sus estudios preludiaron una ciencia que surgiría mucho después: la neurofisiología, estudio del funcionamiento del sistema nervioso en la que se basa la neurología.[14]
Véase también: Luigi Galvani

[editar] Alessandro Volta: la pila de Volta (1800)
Artículo principal: Pila de Volta

Alessandro Volta

El físico italiano Alessandro Volta (1745-1827) inventa la pila, precursora de la batería eléctrica. Con un apilamiento de discos de cinc y cobre, separados por discos de cartón humedecidos con un electrólito, y unidos en sus extremos por un circuito exterior, Volta logró, por primera vez, producir corriente eléctrica continua a voluntad.[15] Dedicó la mayor parte de su vida al estudio de los fenómenos eléctricos, inventó el electrómetro y el eudiómetro y escribió numerosos tratados científicos. Por su trabajo en el campo de la electricidad, Napoleón le nombró conde en 1801. La unidad de tensión eléctrica o fuerza electromotriz, el Volt (símbolo V), castellanizado como Voltio, recibió ese nombre en su honor.[15]
Véase también: Alessandro Volta

[editar] Principios del siglo XIX: el tiempo de los teóricos
El propósito de la ciencia optimista surgida de la Ilustración era la comprensión total de la realidad. En el ámbito de la electricidad la clave sería describir estas fuerzas a distancia como en las ecuaciones de la mecánica newtoniana. Pero la realidad era mucho más

compleja como para dar fácil cumplimiento a este programa. La capacidad de desviar agujas imantadas, descubierta por Oersted (1820), y la inducción electromagnética descubierta por Faraday (1821), acabaron por interrelacionar la electricidad con el magnetismo y los movimientos mecánicos. La teoría completa del campo electromagnético tuvo que esperar a Maxwell, e incluso entonces (1864), al comprobarse que una de las constantes que aparecían en su teoría tenía el mismo valor que la velocidad de la luz, se apuntó la necesidad de englobar también la óptica en el electromagnetismo.[16] El romanticismo, con su gusto por lo tétrico y su desconfianza en la razón, añadió un lado oscuro a la consideración de la electricidad, que excitaba la imaginación de la forma más morbosa: ¿el dominio humano de tal fuerza de la naturaleza le pondría al nivel creador que hasta entonces sólo se imaginaba al alcance de seres divinos? Con cadáveres y electricidad Mary Wollstonecraft Shelley compuso la trama de Frankenstein o el moderno Prometeo (1818), novela precursora tanto del género de terror como de la ciencia ficción.

[editar] Humphry Davy: la electrólisis (1807) y el arco eléctrico (1808)
Artículo principal: Electroquímica

Humphry Davy

1807 Sir Humphry Davy (1778-1829). Químico británico. Se le considera el fundador de la electroquímica, junto con Volta y Faraday. Davy contribuyó a identificar experimentalmente por primera vez varios elementos químicos mediante la electrólisis y estudió la energía involucrada en el proceso. Entre 1806 y 1808 publica el resultado de sus investigaciones sobre la electrólisis, donde logra la separación del magnesio, bario, estroncio, calcio, sodio, potasio y boro. En 1807 fabrica una pila con más de 2.000 placas dobles con la que descubre el cloro y demuestra que se trata de un elemento químico, dándole ese nombre debido a su color amarillo verdoso. Junto a W.T. Brande consigue aislar al litio de sus sales mediante electrólisis del óxido de litio (1818). Fue jefe y mentor de Michael Faraday. Creó además una lámpara de seguridad para las minas que lleva su nombre (1815) y fue pionero en el control de la corrosión mediante la protección catódica. En 1805 le fue concedida la Medalla Copley.[17]
Véase también: Humphry Davy

[editar] Hans Christian Ørsted: el electromagnetismo (1819)

Hans Christian Oersted
Artículo principal: Electromagnetismo

El físico y químico danés Hans Christian Ørsted (1777-1851) fue un gran estudioso del electromagnetismo. En 1813 predijo la existencia de los fenómenos electromagnéticos y en 1819 logró demostrar su teoría empíricamente al descubrir, junto con Ampère, que una aguja imantada se desvía al ser colocada en dirección perpendicular a un conductor por el que circula una corriente eléctrica. Este descubrimiento fue crucial en el desarrollo de la electricidad, ya que puso en evidencia la relación existente entre la electricidad y el magnetismo. En homenaje a sus contribuciones se denominó Oersted (símbolo Oe) a la unidad de intensidad de campo magnético en el sistema Gauss. Se cree que también fue el primero en aislar el aluminio, por electrólisis, en 1825. En 1844 publicó su Manual de Física Mecánica.[18]
Véase también: Hans Christian Ørsted

[editar] Thomas Johann Seebeck: la termoelectricidad (1821)
Artículo principal: Efecto Peltier-Seebeck

Thomas Johann Seebeck

El médico e investigador físico natural de Estonia, Thomas Johann Seebeck (1770-1831) descubrió el efecto termoeléctrico. En 1806 descubrió también los efectos de radiación visible e invisible sobre sustancias químicas como el cloruro de plata. En 1808, obtuvo la primera combinación química de amoníaco con óxido mercúrico. A principios de 1820, Seebeck realizó variados experimentos en la búsqueda de una relación entre la electricidad

y calor. En 1821, soldando dos alambres de metales diferentes (cobre y bismuto) en un lazo, descubrió accidentalmente que al calentar uno a alta temperatura y mientras el otro se mantenía a baja temperatura, se producía un campo magnético. Seebeck no creyó, o no divulgó que una corriente eléctrica era generada cuando el calor se aplicaba a la soldadura de los dos metales. En cambio, utilizó el término termomagnetismo para referirse a su descubrimiento. Actualmente se lo conoce como efecto Peltier-Seebeck o efecto termoeléctrico y es la base del funcionamiento de los termopares.[19]
Véase también: Thomas Johann Seebeck

[editar] André-Marie Ampère: el solenoide (1822)
Artículo principal: Corriente eléctrica

André-Marie Ampère

El físico y matemático francés André-Marie Ampère (1775-1836) está considerado como uno de los descubridores del electromagnetismo. Es conocido por sus importantes aportaciones al estudio de la corriente eléctrica y el magnetismo que constituyeron, junto con los trabajos del danés Hans Chistian Oesterd, el desarrollo del electromagnetismo. Sus teorías e interpretaciones sobre la relación entre electricidad y magnetismo se publicaron en 1822, en su Colección de observaciones sobre electrodinámica y en 1826, en su Teoría de los fenómenos electrodinámicos. Ampère descubrió las leyes que determinan el desvío de una aguja magnética por una corriente eléctrica, lo que hizo posible el funcionamiento de los actuales aparatos de medida. Descubrió las acciones mutuas entre corrientes eléctricas, al demostrar que dos conductores paralelos por los que circula una corriente en el mismo sentido, se atraen, mientras que si los sentidos de la corriente son opuestos, se repelen. La unidad de intensidad de corriente eléctrica, el Ampère (símbolo A), castellanizada como Amperio, recibe este nombre en su honor.[20]
Véase también: André-Marie Ampère

[editar] William Sturgeon: el electroimán (1825), el conmutador (1832) y el galvanómetro (1836)
Artículo principal: Electroimán

El físico británico William Sturgeon (1783-1850) inventó en 1825 el primer electroimán. Era un trozo de hierro con forma de herradura envuelto por una bobina enrollada sobre él mismo. Sturgeon demostró su potencia levantando 4 kg con un trozo de hierro de 200 g envuelto en cables por los que hizo circular la corriente de una batería. Sturgeon podía

regular su electroimán, lo que supuso el principio del uso de la energía eléctrica en máquinas útiles y controlables, estableciendo los cimientos para las comunicaciones electrónicas a gran escala. Este dispositivo condujo a la invención del telégrafo, el motor eléctrico y muchos otros dispositivos que fueron base de la tecnología moderna. En 1832 inventó el conmutador para motores eléctricos y en 1836 inventó el primer galvanómetro de bobina giratoria.[21]
Véase también: William Sturgeon

[editar] Georg Simon Ohm: la ley de Ohm (1827)
Artículo principal: Ley de Ohm

Georg Simon Ohm

Georg Simon Ohm (1789-1854) fue un físico y matemático alemán que estudió la relación entre el voltaje V aplicado a una resistencia R y la intensidad de corriente I que circula por ella. En 1827 formuló la ley que lleva su nombre (la ley de Ohm), cuya expresión matemática es V = I · R. También se interesó por la acústica, la polarización de las pilas y las interferencias luminosas. En su honor se ha bautizado a la unidad de resistencia eléctrica con el nombre de Ohm (símbolo Ω), castellanizado a Ohmio.[22]
Véase también: Georg Simon Ohm

[editar] Joseph Henry: inducción electromagnética (1830)

Joseph Henry

Artículo principal: Electroimán

El estadounidense Joseph Henry (1797-1878) fue un físico que investigó el electromagnetismo y sus aplicaciones en electroimanes y relés. Descubrió la inducción electromagnética, simultánea e independientemente de Faraday, cuando observó que un campo magnético variable puede inducir una fuerza electromotriz en un circuito cerrado. En su versión más simple, el experimento de Henry consiste en desplazar un segmento de conductor perpendicularmente a un campo magnético, lo que produce una diferencia de potencial entre sus extremos. Esta fuerza electromotriz inducida se explica por la fuerza de Lorentz que ejerce el campo magnético sobre los electrones libres del conductor. En su honor se denominó Henry (símbolo H) a la unidad de inductancia, castellanizada como Henrio.[23]
Véase también: Joseph Henry

[editar] Johann Carl Friedrich Gauss: Teorema de Gauss de la electrostática
Artículo principal: Ley de Gauss

Carl Friedrich Gauss

1832-1835. El matemático, astrónomo y físico alemán Johann Carl Friedrich Gauss (17771855), hizo importantes contribuciones en campos como la teoría de números, el análisis matemático, la geometría diferencial, la geodesia, la electricidad, el magnetismo y la óptica. Considerado uno de los matemáticos de mayor y más duradera influencia, se contó entre los primeros en extender el concepto de divisibilidad a conjuntos diferentes de los numéricos. En 1831 se asoció al físico Wilhelm Weber durante seis fructíferos años durante los cuales investigaron importantes problemas como las Leyes de Kirchhoff y del magnetismo, construyendo un primitivo telégrafo eléctrico. Su contribución más importante a la electricidad es la denominada Ley de Gauss, que relaciona la carga eléctrica q contenida en un volumen V con el flujo del campo eléctrico el volumen V, cuya expresión matemática es: sobre la cerrada superficie S que encierra

.

En su honor se dio el nombre de Gauss (símbolo G) a la unidad de intensidad de campo magnético del Sistema Cegesimal de Unidades (CGS). Su relación con la correspondiente unidad del Sistema Internacional de Unidades (SI), el Tesla (símbolo T), es 1 G = 10-4 T.[24]
Véase también: Johann Carl Friedrich Gauss

[editar] Michael Faraday: inducción (1831), generador (1831-1832), leyes y jaula de Faraday

Michael Faraday
Artículo principal: Ley de Faraday

El físico y químico inglés Michael Faraday (1791-1867), discípulo de Humphry Davy, es conocido principalmente por su descubrimiento de la inducción electromagnética, que ha permitido la construcción de generadores y motores eléctricos, y de las leyes de la electrólisis por lo que es considerado como el verdadero fundador del electromagnetismo y de la electroquímica. En 1831 trazó el campo magnético alrededor de un conductor por el que circula una corriente eléctrica, ya descubierto por Oersted, y ese mismo año descubrió la inducción electromagnética, demostró la inducción de una corriente eléctrica por otra, e introdujo el concepto de líneas de fuerza para representar los campos magnéticos. Durante este mismo periodo, investigó sobre la electrólisis y descubrió las dos leyes fundamentales que llevan su nombre: 1ª). La masa de sustancia liberada en una electrólisis es directamente proporcional a la cantidad de electricidad que ha pasado a través del electrólito [masa = equivalente electroquímico, por la intensidad y por el tiempo (m = c I t)]; 2ª) Las masas de distintas sustancia liberadas por la misma cantidad de electricidad son directamente proporcionales a sus pesos equivalentes. Con sus investigaciones se dio un paso fundamental en el desarrollo de la electricidad al establecer que el magnetismo produce electricidad a través del movimiento. En su honor se denominó Farad (símbolo F), castellanizado como Faradio, a la unidad de capacidad eléctrica del SI de unidades. El Faradio se define como la capacidad de un condensador tal que cuando su carga es un Culombio, adquiere una diferencia de potencial electrostático de un voltio.[25]
Véase también: Michael Faraday

[editar] Heinrich Friedrich Lenz: ley de Lenz (1834)
Artículo principal: Ley de Lenz

Heinrich Lenz

El físico estonio Heinrich Friedrich Lenz (1804-1865) formuló en 1834 la ley de la oposición de las corrientes inducidas, conocida como Ley de Lenz, cuyo enunciado es el siguiente: El sentido de las corrientes, o fuerza electromotriz inducida, es tal que siempre se opone a la variación del flujo que la produce. También realizó investigaciones significativas sobre la conductividad de los cuerpos, en relación con su temperatura, descubriendo en 1843 la relación entre ambas; lo que luego fue ampliado y desarrollado por James Prescott Joule, por lo que pasaría a llamarse Ley de Joule.[26]

[editar] Jean Peltier: efecto Peltier (1834), inducción electrostática (1840)
Artículo principal: Efecto Peltier

Jean Peltier

El físico francés y relojero de profesión Jean Peltier (1785-1845) descubrió en 1834 que cuando circula una corriente eléctrica por un conductor formado por dos metales distintos, unidos por una soldadura, ésta se calienta o enfría según el sentido de la corriente (efecto Peltier). Dicho efecto ha revestido gran importancia en el desarrollo reciente de mecanismos de refrigeración no contaminantes. A Peltier se le debe también la introducción del concepto de inducción electrostática en 1840, referido a la modificación de la distribución de la carga eléctrica en un material, bajo la influencia de un segundo objeto próximo a él y que tenga una carga eléctrica.[27]

[editar] Samuel Morse: telégrafo (1833-1837)
Artículo principal: Telégrafo

Morse con un prototipo de su invención

El inventor estadounidense Samuel Finley Breese Morse (1791-1872) es principalmente conocido por la invención del telégrafo eléctrico y la invención del código Morse. Su interés por los asuntos de la electricidad se concretó durante el regreso de un viaje por Europa. Cuando estudiaba en Yale aprendió que si se interrumpía un circuito se veía un fulgor y se le ocurrió que esas interrupciones podían llegar a usarse como un medio de comunicación. Al desembarcar de aquel viaje en 1832, ya había diseñado un incipiente telégrafo y comenzaba a desarrollar la idea de un sistema telegráfico de alambres con un electromagneto incorporado. El 6 de enero de 1833, Morse realizó su primera demostración pública con su telégrafo mecánico óptico y efectuó con éxito las primeras pruebas en febrero de 1837 en un concurso convocado por el Congreso de los Estados Unidos. También inventó un alfabeto, que representa las letras y números por una serie de puntos y rayas, conocido actualmente como código Morse, para poder utilizar su telégrafo. En el año 1843, el Congreso de los Estados Unidos le asignó 30.000 dólares para que construyera la primera línea de telégrafo entre Washington y Baltimore, en colaboración con Joseph Henry. El 24 de mayo de 1844 Morse envió su famoso primer mensaje: «¿Que nos ha traído Dios?». Fue objeto de muchos honores y en sus últimos años se dedicó a experimentar con la telegrafía submarina por cable.[28]
Véase también: Samuel Finley Breese Morse

[editar] Ernst Werner M. von Siemens: Locomotora eléctrica (1879)
Artículo principal: Siemens AG

Werner von Siemens

El ingeniero alemán, Ernst Werner von Siemens (1816-1892) construyó en 1847 un nuevo tipo de telégrafo, poniendo así la primera piedra en la construcción de la empresa Siemens AG junto a Johann Georg Halske. En 1841 desarrolló un proceso de galvanización, en 1846 un telégrafo de aguja y presión y un sistema de aislamiento de cables eléctricos mediante gutapercha, lo que permitió, en la práctica, la construcción y tendido de cables submarinos. Fue uno de los pioneros de las grandes líneas telegráficas transoceánicas, responsable de la línea Irlanda-EE.UU (comenzada en 1874 a bordo del buque Faraday) y Gran Bretaña-India (1870). Aunque probablemente no fue el inventor de la dínamo, la perfeccionó hasta hacerla confiable y la base de la generación de la corriente alterna en las primeras grandes usinas. Fue pionero en otras invenciones, como el telégrafo con puntero/teclado para hacer transparente al usuario el código Morse o la primera locomotora eléctrica, presentada por su empresa en 1879. Dentro de sus muchos inventos y descubrimientos eléctricos se destacan la dinamo y el uso de la gutapercha, sustancia plástica extraída del látex, usada como aislador eléctrico en el recubrimiento de cables conductores. En homenaje a sus contribuciones en el SI se denomina siemens (símbolo S) a la unidad de conductancia eléctrica (inversa de la resistencia), previamente llamada mho.[29]
Véase también: Ernst Werner von Siemens

[editar] Charles Wheatstone: puente de Wheatstone (1843)
Artículo principal: Puente de Wheatstone

Charles Wheatstone

El físico e inventor inglés Charles Wheatstone (1802-1875) es especialmente conocido por ser el primero en aplicar el circuito eléctrico que lleva su nombre (puente de Wheatstone) para medir resistencias eléctricas. En realidad había sido diseñado previamente por Samuel Hunter Christie en 1832, con lo que el papel de Wheatstone fue la mejora y popularización, a partir de 1843. Se utiliza para medir resistencia resistencias desconocidas mediante el equilibrio de los brazos de un puente en H formado por cuatro resistencias, una de las cuales es la resistencia a medir. Wheatstone fue un autodidacta que llegó a convertirse en profesor de filosofía experimental de la Universidad de Londres, en 1834. En colaboración con el ingeniero William Fothergill Cooke, patentó en 1837 el primer telégrafo eléctrico británico, simultáneamente con el inventado por Morse. Charles Wheatstone inventó también un instrumento óptico para la fotografía en tres dimensiones (estereoscopio), un telégrafo automático y un péndulo electromagnético.[30]
Véase también: Charles Wheatstone

[editar] James Prescott Joule: relaciones entre electricidad, calor y trabajo (1840-1843)

James Prescott Joule
Artículo principal: Efecto Joule

James Prescott Joule (1818-1889), físico inglés, es conocido por sus estudios sobre la energía y sus aplicaciones técnicas. Su principal contribución a la electricidad es la cuantificación de la generación de calor producido por una corriente eléctrica que atraviesa una resistencia, ley que lleva su nombre (Ley de Joule): Todo cuerpo conductor recorrido por una corriente eléctrica, desprende una cantidad de calor equivalente al trabajo realizado por el campo eléctrico para transportar las cargas de un extremo a otro del conductor durante ese tiempo, formulada como: . También descubrió la equivalencia entre el trabajo mecánico y la cantidad de calor (cuya unidad histórica es la caloría). Junto con su compatriota, el físico William Thomson (conocido posteriormente como lord Kelvin), Joule descubrió que la temperatura de un gas desciende cuando se expande sin realizar trabajo. Este fenómeno, que se conoce como efecto JouleThomson, es el principio constructivo de los refrigeradores. Alrededor de 1841, junto con el científico alemán Hermann von Helmholtz, demostró que la electricidad es una forma de energía y que los circuitos eléctricos cumplen la ley de la conservación de la energía. El Joule (símbolo J), castellanizado a Julio, es la unidad del Sistema Internacional para la energía y el trabajo mecánico. Se define como el trabajo realizado por una fuerza de 1 Newton cuando se desplaza paralelamente a sí misma en un 1 metro.[31]
Véase también: James Prescott Joule

[editar] Gustav Robert Kirchhoff: leyes de Kirchhoff (1845)

Gustav Robert Kirchhoff
Artículo principal: Leyes de Kirchhoff

Las principales contribuciones a la ciencia del físico alemán Gustav Robert Kirchhoff (1824-1887), estuvieron en el campo de los circuitos eléctricos, la teoría de placas, la óptica, la espectroscopía y la emisión de radiación de cuerpo negro. Kirchhoff propuso el nombre de radiación de cuerpo negro en 1862. Es responsable de dos conjuntos de leyes fundamentales en la teoría clásica de circuitos eléctricos y en la emisión térmica. Aunque ambas se denominan Leyes de Kirchhoff, probablemente esta denominación es más común en el caso de las Leyes de Kirchhoff de la ingeniería eléctrica. Estas leyes permiten calcular la distribución de corrientes y tensiones en las redes eléctricas con derivaciones y establecen lo siguiente: 1ª) La suma algebraica de las intensidades que concurren en un punto es igual a cero. 2ª) La suma algebraica de los productos parciales de intensidad por resistencia, en una malla, es igual a la suma algebraica de las fuerzas electromotrices en ella existentes, cuando la intensidad de corriente es constante. Junto con los químicos alemanes Robert Wilhelm Bunsen y Joseph von Fraunhofer, fue de los primeros en desarrollar las bases teóricas y experimentales de la espectroscopia, desarrollando el espectroscopio moderno para el análisis químico. En 1860 Kirchhoff y Bunsen descubrieron el cesio y el rubidio mediante la espectroscopia. Kirchhoff también estudio el espectro solar y realizó importantes investigaciones sobre la transferencia de calor.[32]
Véase también: Gustav Robert Kirchhoff

[editar] William Thomson (Lord Kelvin): relación entre los efectos Seebeck y Peltier (1851), cable flexible (1858)

William Thomson (Lord Kelvin)
Artículo principal: Efecto Thomson

El matemático inglés William Thomson (Lord Kelvin) (1824-1907), realizó muchos trabajos de investigación física, por ejemplo, el análisis teórico sobre transmisión por cable, que hizo posible el desarrollo del cable transatlántico. En 1851 definió la Segunda Ley de la Termodinámica. En 1858 inventó el cable flexible. Kelvin destacó por sus importantes

trabajos en el campo de la termodinámica y la electrónica gracias a sus profundos conocimientos de análisis matemático. Es uno de los científicos que más hizo por llevar a la física a su forma moderna. Es especialmente famoso por haber desarrollado la escala de temperatura Kelvin. También descubrió en 1851 el llamado efecto Thomson, por el que logró demostrar que el efecto Seebeck y el efecto Peltier están relacionados. Así, un material sometido a un gradiente térmico y recorrido por una intensidad intercambia calor con el medio exterior. Recíprocamente, una corriente eléctrica es generada por el material sometido a un gradiente térmico y recorrido por un flujo de calor. La diferencia fundamental entre los efectos Seebeck y Peltier con respecto al efecto Thomson es que éste último existe para un solo material y no necesita la existencia de una soldadura. Recibió el título de barón Kelvin en honor a los logros alcanzados a lo largo de su carrera. El Kelvin es la unidad de medida de temperatura absoluta.[33]
Véase también: Lord Kelvin

[editar] Heinrich Daniel Ruhmkorff: la bobina de Ruhmkorff genera chispas de alto voltaje (1851)
El físico alemán Heinrich Daniel Ruhmkorff o Rühmkorff (1803-1877) se dedicó principalmente a la construcción de aparatos e instrumentos eléctricos de gran calidad y precisión. Ideó en 1851 la bobina de inducción o bobina de Ruhmkorff, popular instrumento del siglo XIX. De invención anterior a la de los transformadores de corriente alterna, es un verdadero transformador polimorfo y elevador en el que se obtiene, a partir de una corriente primaria continua y de poca fuerza electromotriz suministrada por una pila o batería, otra de alta tensión y alterna. Las elevadas diferentes de potencial producidas podían ser aplicadas sobre los extremos de un tubo de Crookes para provocar la emisión de unos rayos que, por su carácter desconocido, fueron denominados rayos X y que empezaron a ser empleados para realizar fotografías a través de los cuerpos opacos. Estas bobinas fueron las precursoras de las que se instalan en los automóviles para elevar la tensión en la bujía de los motores de gasolina para realizar el encendido de la mezcla de combustible.[34]
Véase también: Heinrich Daniel Ruhmkorff

[editar] Léon Foucault: corrientes de Foucault (1851)
Artículo principal: Corriente de Foucault

Jean Bernard Léon Foucault

El físico francés Léon Foucault (1819-1868) inventó el giroscopio, demostró la rotación de la tierra mediante un péndulo que creó al efecto y midió la velocidad de la luz mediante espejos giratorios. En el campo de la electricidad, se dedicó al estudio del electromagnetismo y descubrió las corrientes que llevan su nombre. En septiembre de 1855 descubrió que la fuerza requerida para la rotación de un disco de cobre aumenta cuando se lo hace rotar entre los polos de un imán. Al mismo tiempo el disco comienza a calentarse por las corrientes (llamadas "de Foucault") inducidas en el metal.[35]
Véase también: Jean Bernard Léon Foucault

[editar] Zénobe-Théophile Gramme: la primera dinamo (1870)
Artículo principal: Dinamo

Estatua de Zenobe Gramme en París

El científico belga Zénobe-Théophile Gramme (1826-1901) construyó la primera máquina de corriente continua denominada dinamo que fue un punto de partida de la nueva industria eléctrica. Una dinamo es una máquina destinada a la transformación de energía mecánica en eléctrica mediante el fenómeno de la inducción electromagnética. La corriente generada es producida cuando el campo magnético creado por un imán o un electroimán fijo (inductor) atraviesa una bobina rotatoria (inducido) colocada en su seno. La corriente inducida en esta bobina giratoria, en principio alterna es transformada en continua mediante la acción de un conmutador giratorio, solidario con el inducido, denominado colector, constituido por unos electrodos denominados delgas. De aquí es conducida al exterior mediante otros contactos fijos llamados escobillas que hacen contacto por frotamiento con las delgas del colector. La dinamo fue el primer generador eléctrico apto para uso industrial. Zénobe Gramme perfeccionó los inventos de dinamos que existían y reinventó el diseño al proyectar los primeros generadores comerciales a gran escala, que operaban en París en torno a 1870. Su diseño se conoce como la dinamo de Gramme.[36]
Véase también: Zénobe Gramme

[editar] Johann Wilhelm Hittorf: el primer tubo de rayos catódicos (1872)
Artículo principal: Tubo de Crookes

Johann Wilhelm Hittorf

El catedrático de física y química alemán Johann Wilhelm Hittorf (1824-1914) contribuyó poderosamente al desarrollo de la electroquímica con innumerables inventos. Por uno de sus trabajos (tubo de Hittorf, 1872) es considerado precursor del tubo de Crookes con el que William Crookes dedujo la existencia de los rayos catódicos (1878). Estudió también las variaciones del espectro al variar la atmósfera. Determinó la íntima dependencia entre la conductividad eléctrica y la acción química y la división de las sales complejas por la vía de la corriente. Estudió la alotropía del selenio y del fósforo, describió el comportamiento electroquímico del cromo y registró la velocidad de emigración de los iones sometidos a la acción de la corriente eléctrica. Es autor de Über die Wanderung der Ionen während der Elektrolyse.[37]
Véase también: Johann Wilhelm Hittorf

[editar] James Clerk Maxwell: las cuatro ecuaciones de Maxwell (1875)
Artículo principal: Ecuaciones de Maxwell

James Clerk Maxwell en su juventud

El físico y matemático escocés James Clerk Maxwell (1831-1879) es conocido principalmente por haber desarrollado un conjunto de ecuaciones que expresan las leyes fundamentales de la electricidad y el magnetismo así como por la estadística de MaxwellBoltzmann en la teoría cinética de gases. También se dedicó a la investigación de la visión de los colores y los principios de la termodinámica y formuló, teóricamente, que los anillos de Saturno estaban formados por materia disgregada. Maxwell amplió las investigaciones que Michael Faraday había realizado sobre los campos electromagnéticos, formulando la relación matemática entre los campos eléctricos y magnéticos por medio de cuatro ecuaciones diferenciales (llamadas hoy "las ecuaciones de Maxwell") que relacionan el

campo eléctrico y el magnético para una distribución espacial de cargas y corrientes. También demostró que la naturaleza de los fenómenos luminosos y electromagnéticos era la misma y que ambos se propagan a la velocidad de la luz. Su obra más importante es el Treatise on Electricity and Magnetism (Tratado de electricidad y magnetismo, 1873), en el que publicó sus famosas ecuaciones. También escribió: Matter and motion (Materia y movimiento, 1876) y Theory of Heat (Teoría del calor, 1877). La teoría de Maxwell obtuvo su comprobación definitiva cuando Heinrich Rudolf Hertz obtuvo en 1888 las ondas electromagnéticas de radio. Sus investigaciones posibilitaron la invención del telégrafo sin cables y la radio. La unidad de flujo magnético en el sistema cegesimal, el maxwell, recibe este nombre en su honor.[38]
Véase también: James Clerk Maxwell

[editar] Finales del siglo XIX: el tiempo de los ingenieros
Los años centrales del siglo XIX habían presenciado extraordinarios avances en la aplicación de la electricidad a las comunicaciones y en 1881 se organizó en París una Exposición Internacional de Electricidad y un Congrès international des électriciens (Congreso internacional de electricistas).[39] Aunque para todo ello el conocimiento científico de la electricidad y el magnetismo había sido imprescindible, los técnicos o inventores adquirieron un sentimiento de superioridad, e incluso de reticencia hacia los científicos puros. Incluso la teoría de Maxwell era ignorada por la mayoría de los ingenieros eléctricos, que en su práctica tecnológica no la necesitaban. Esto no pudo mantenerse a partir de la demostración experimental de la radiación electromagnética (Heinrich Hertz, 1888), y en la década de los noventa las nuevas generaciones de ingenieros incorporaron con mayor confianza las aportaciones teóricas y estuvieron mejor preparados para las nuevas tecnologías eléctricas que aplicaban los efectos del campo electromagnético, como la corriente alterna.[16] Dos invenciones que aplicaban el motor eléctrico a la tracción de vehículos revolucionaron particularmente la vida urbana, permitiendo una movilidad en el espacio que se convirtió en movilidad social: el ascensor eléctrico y el tranvía eléctrico (ambas con participación de Frank J. Sprague). Hasta entonces era habitual que pobres y ricos compartieran la misma casa en los ensanches burgueses (unos en la planta principal y otros en las buhardillas), con alturas que no solían superar las cinco o seis plantas. El urbanismo del siglo XX permitió el crecimiento de megaciudades, con nítidas diferencias entre barrios de ricos y pobres, y con desplazamientos horizontales kilométricos y de decenas de plantas en vertical (los rascacielos). El Metro de Londres, que funcionaba con locomotoras de vapor desde 1863, aplicó la tracción eléctrica para permitir líneas a más profundidad sin tantos requisitos de ventilación (llamadas deep-level) desde 1890, y el sistema se difundió por otras ciudades europeas y americanas (Budapest y Glasgow, 1886; Boston, 1897; subte de Buenos Aires, 1913; metro de Madrid, 1919). La electrificación de los ferrocarriles fue posterior (véase sección Electrificación de los ferrocarriles).

[editar] Alexander Graham Bell: el teléfono (1876)

Alexander Graham Bell
Artículo principal: Teléfono

El escocés-estadounidense Alexander Graham Bell, científico, inventor y logopeda (18471922), se disputó con otros investigadores la invención del teléfono y consiguió la patente oficial en los Estados Unidos en 1876.[40] Previamente habían sido desarrollados dispositivos similares por otros investigadores, entre quienes destacó Antonio Meucci (1871), que entabló pleitos fallidos con Bell hasta su muerte, y a quien suele reconocerse actualmente la prelación en el invento. Bell contribuyó de un modo decisivo al desarrollo de las telecomunicaciones a través de su empresa comercial (Bell Telephone Company, 1877, posteriormente AT&T). También fundó en la ciudad de Washington el Laboratorio Volta, donde, junto con sus socios, inventó un aparato que transmitía sonidos mediante rayos de luz (el fotófono, 1880); y desarrolló el primer cilindro de cera para grabar (1886), lo que sentó las bases del gramófono. Participó en la fundación de la National Geographic Society y de la revista Science.[41]
Véase también: Alexander Graham Bell

[editar] Thomas Alva Edison: desarrollo de la lámpara incandescente (1879), Menlo Park y comercialización

Thomas Alva Edison

Artículo principal: Lámpara incandescente

El inventor norteamericano Thomas Alva Edison (1847-1931) ha sido considerado como el mayor inventor de todos los tiempos. Aunque se le atribuye la invención de la lámpara incandescente, su intervención es más bien el perfeccionamiento de modelos anteriores (Heinrich Göbel, relojero alemán, había fabricado lámparas funcionales tres décadas antes). Edison logró, tras muchos intentos, un filamento que alcanzaba la incandescencia sin fundirse: no era de metal, sino de bambú carbonizado. El 21 de octubre de 1879 consiguió que su primera bombilla luciera durante 48 horas ininterrumpidas, con 1,7 lúmenes por vatio. La primera lámpara incandescente con un filamento de algodón carbonizado construida por Edison fue presentada, con mucho éxito, en la Primera Exposición de Electricidad de Paris (1881) como una instalación completa de iluminación eléctrica de corriente continua; sistema que inmediatamente fue adoptado tanto en Europa como en Estados Unidos. En 1882 desarrolló e instaló la primera gran central eléctrica del mundo en Nueva York. Sin embargo, más tarde, su uso de la corriente continua se vio desplazado por el sistema de corriente alterna desarrollado por Nikola Tesla y George Westinghouse. Su visión comercial de la investigación científico-técnica le llevó a fundar el laboratorio de Menlo Park, donde consiguió un eficaz trabajo en equipo de un gran número de colaboradores. Gracias a ello llegó a registrar 1093 patentes de inventos desarrollados por él y sus ayudantes, inventos cuyo desarrollo y mejora posterior han marcado profundamente la evolución de la sociedad moderna, entre ellos: el fonógrafo, un sistema generador de electricidad, un aparato para grabar sonidos y un proyector de películas (el kinetoscopio), uno de los primeros ferrocarriles eléctricos, unas máquinas que hacían posible la transmisión simultánea de diversos mensajes telegráficos por una misma línea (lo que aumentó enormemente la utilidad de las líneas telegráficas existentes), el emisor telefónico de carbón (muy importante para el desarrollo del teléfono, que había sido inventado recientemente por Alexander Graham Bell), etc. Al sincronizar el fonógrafo con el kinetoscopio, produjo en 1913 la primera película sonora. En el ámbito científico descubrió el efecto Edison, patentado en 1883, que consistía en el paso de electricidad desde un filamento a una placa metálica dentro de un globo de lámpara incandescente. Aunque ni él ni los científicos de su época le dieron importancia, este efecto sería uno de los fundamentos de la válvula de la radio y de la electrónica. En 1880 se asoció con el empresario J. P. Morgan para fundar la General Electric.[42]
Véase también: Thomas Alva Edison

[editar] John Hopkinson: el sistema trifásico (1882)
Artículo principal: Corriente trifásica

El ingeniero y físico inglés John Hopkinson (1849-1898) contribuyó al desarrollo de la electricidad con el descubrimiento del sistema trifásico para la generación y distribución de la corriente eléctrica, sistema que patentó en 1882. Un sistema de corrientes trifásicas es el conjunto de tres corrientes alternas monofásicas de igual frecuencia y amplitud (y por consiguiente, valor eficaz) que presentan un desfase entre ellas de 120° (un tercio de ciclo). Cada una de las corrientes monofásicas que forman el sistema se designa con el nombre de fase. También trabajó en muchas áreas del electromagnetismo y la electrostática. De sus investigaciones estableció que "el flujo de inducción magnética es directamente proporcional a la fuerza magnetomotriz e inversamente proporcional a la reluctancia",

expresión muy parecida a la establecida en la Ley de Ohm para la electricidad, y que se conoce con el nombre de Ley de Hopkinson[43] También se dedicó al estudio de los sistemas de iluminación, mejorando su eficiencia, así como al estudio de los condensadores. Profundizó en los problemas de la teoría electromagnética, propuestos por James Clerk Maxwell. En 1883 dio a conocer el principio de los motores síncronos.[44]
Véase también: John Hopkinson

[editar] Heinrich Rudolf Hertz: demostración de las ecuaciones de Maxwell y la teoría electromagnética de la luz (1887)

Heinrich Rudolf Hertz
Artículo principal: Efecto fotoeléctrico

El físico alemán Heinrich Rudolf Hertz (1857-1894) demostró la existencia de las ondas electromagnéticas predichas por las ecuaciones de Maxwell. Fue el primer investigador que creó dispositivos que emitían ondas radioelectricas y también dispositivos que permitía detectarlas. Hizo numerosos experimentos sobre su modo y velocidad de propagación (hoy conocida como velocidad de la luz), en los que se fundamentan la radio y la telegrafía sin hilos, que él mismo descubrió. En 1887 descubrió el efecto fotoeléctrico. La unidad de medida de la frecuencia fue llamada Hertz (símbolo Hz) en su honor, castellanizada como Hercio.[45]
Véase también: Heinrich Rudolf Hertz

[editar] George Westinghouse: el suministro de corriente alterna (1886)
Artículo principal: Corriente alterna

George Westinghouse

El inventor e industrial norteamericano George Westinghouse (1846-1914) se interesó inicialmente por los ferrocarriles (freno automático de aire, sistema de señales ferroviarias, aguja de cruce). Posteriormente dedicó sus investigaciones hacia la electricidad, siendo el principal responsable de la adopción de la corriente alterna para el suministro de energía eléctrica en Estados Unidos. En ese empeño tecnológico y comercial hubo de vencer la oposición del popular inventor Thomas Alva Edison, que basaba sus investigaciones y expansión comercial en la corriente continua y llegaría a sugerir la invención de la silla eléctrica de corriente alterna como estrategia en esa competencia. Westinghouse compró al científico croata Nikola Tesla su patente para la producción y transporte de corriente alterna, que impulsó y desarrolló. Posteriormente perfeccionó el transformador, desarrolló un alternador y adaptó para su utilización práctica el motor de corriente alterna inventado por Tesla. En 1886 fundó la compañía eléctrica Westinghouse Electric & Manufacturing Company, que contó en los primeros años con la decisiva colaboración de Tesla, con quien logró desarrollar la tecnología necesaria para desarrollar un sistema de suministro de corriente alterna. Westinghouse también desarrolló un sistema para transportar gas natural, y a lo largo de su vida obtuvo más de 400 patentes, muchas de ellas de maquinaria de corriente alterna.[46]
Véase también: George Westinghouse y Guerra de las corrientes

[editar] Nikola Tesla: desarrollo de máquinas eléctricas, la bobina de Tesla (1884-1891) y el radiotransmisor (1893)

Estatua de Nikola Tesla en las cataratas del Niágara
Artículos principales: Máquina eléctrica y bobina de Tesla

El ingeniero e inventor de origen croata Nikola Tesla (1856-1943) emigró en 1884 a los Estados Unidos. Es reconocido como uno de los investigadores más destacados en el campo de la energía eléctrica. El Gobierno de Estados Unidos lo consideró una amenaza por sus opiniones pacifistas y sufrió el maltrato de otros investigadores mejor reconocidos como Marconi o Edison.[47]

Desarrolló la teoría de campos rotantes, base de los generadores y motores polifásicos de corriente alterna. En 1887 logra construir el motor de inducción de corriente alterna y trabaja en los laboratorios Westinghouse, donde concibe el sistema polifásico para trasladar la electricidad a largas distancias. En 1893 consigue transmitir energía electromagnética sin cables, construyendo el primer radiotransmisor (adelantándose a Guglielmo Marconi). Ese mismo año en Chicago hizo una exhibición pública de la corriente alterna, demostrando su superioridad sobre la corriente continua de Edison. Los derechos de estos inventos le fueron comprados por George Westinghouse, que mostró el sistema de generación y transmisión por primera vez en la World's Columbian Exposition de Chicago de 1893. Dos años más tarde los generadores de corriente alterna de Tesla se instalaron en la central experimental de energía eléctrica de las cataratas del Niágara. Entre los muchos inventos de Tesla se encuentran los circuitos resonantes de condensador más inductancia, los generadores de alta frecuencia y la llamada bobina de Tesla, utilizada en el campo de las comunicaciones por radio. La unidad de inducción magnética del sistema MKS recibe el nombre de Tesla en su honor.
[48]

Véase también: Nikola Tesla

[editar] Charles Proteus Steinmetz: la histéresis magnética (1892)

Charles Proteus Steinmetz
Artículo principal: Histéresis magnética

El ingeniero e inventor de origen alemán Charles Proteus Steinmetz (1865-1923) es conocido principalmente por sus investigaciones sobre la corriente alterna y por el desarrollo del sistema trifásico de corrientes alternas. También inventó la lámpara de arco con electrodo metálico. En 1892 descubrió la histéresis magnética, un fenómeno en virtud del cual los electroimanes cuyo núcleo es un material ferromagnético (como el hierro) no se magnetizan al mismo ritmo que la corriente variable que pasa por sus espiras, sino que existe un retardo. En 1893 desarrolló una teoría matemática aplicable al cálculo de circuitos en corriente alterna (para lo que introdujo el uso de números complejos) lo que facilitó el cambio de las nuevas líneas de energía eléctrica, que inicialmente eran de corriente continua. Sus trabajos contribuyeron en gran medida al impulso y utilización de la electricidad como fuente de energía en la industria. En 1902 fue designado profesor de la Universidad de Schenectady, Nueva York, donde permaneció hasta su muerte. Trabajó para la empresa General Electric.[49]
Véase también: Charles Proteus Steinmetz

[editar] Wilhelm Conrad Röntgen: los rayos X (1895)

Wilhelm Conrad Röntgen
Artículo principal: Rayos X

El físico alemán Wilhelm Conrad Röntgen (1845-1923). Utilizando un tubo de Crookes, fue quien produjo en 1895 la primera radiación electromagnética en las longitudes de onda correspondientes a los actualmente llamados Rayos X. Gracias a su descubrimiento fue galardonado con el primer Premio Nobel de Física en 1901. El premio se concedió oficialmente: "en reconocimiento de los extraordinarios servicios que ha brindado para el descubrimiento de los notables rayos que llevan su nombre." Sin embargo, Röntgen no quiso que los rayos llevaran su nombre aunque en Alemania el procedimiento de la radiografía se llama "röntgen" debido al hecho de que los verbos alemanes tienen la desinencia "en". Los rayos X se comienzan a aplicar en todos los campos de la medicina entre ellos el urológico. Posteriormente otros investigadores utilizaron la radiología para el diagnóstico de la enfermedad litiásica. Es uno de los puntos culminantes de la medicina de finales del siglo XIX, sobre el cual se basaron numerosos diagnósticos de entidades nosológicas, hasta ese momento difíciles de diagnosticar, y siguieron dándose desarrollos posteriores en el siglo XX y hasta nuestros días (Véase la sección Electromedicina). En su honor recibe su nombre la unidad de medida de la exposición a la radiación, establecida en 1928: Roentgen (unidad).[50]
Véase también: Wilhelm Conrad Röntgen

[editar] Michael Idvorsky Pupin: la bobina de Pupin (1894) y las imágenes de rayos X (1896)

Michael Pupin
Artículos principales: Bobina de Pupin y Radiografía

El físico y electrotécnico serbio Michael Idvorsky Pupin (1854-1935) desarrolló en 1896 un procedimiento para obtener la fotografía rápida de una imagen obtenida mediante rayos X, que solamente requería una exposición de una fracción de segundo en lugar de una hora o más que se empleaba anteriormente. Entre sus numerosos inventos destaca la pantalla fluorescente que facilitaba la exploración y registro de las imágenes radiológicas obtenidas con los rayos X. También desarrolló en 1894 un sistema para aumentar en gran medida el alcance de las comunicaciones telefónicas a través de líneas de hilo de cobre, mediante la inserción a intervalos regulares a lo largo de la línea de transmisión de unas denominadas bobinas de carga. Estas bobinas reciben en su honor el nombre de bobina de Pupin y el método también se denomina pupinización.[51]
Véase también: Michael Pupin

[editar] Joseph John Thomson: los rayos catódicos (1897)
Artículo principal: Electrón

Joseph John Thomson

El físico inglés Joseph John Thomson (1856-1940) descubrió que los rayos catódicos podían desviarse aplicando un campo magnético perpendicular a su dirección de propagación y calculó las leyes de dicha desviación. Demostró que estos rayos estaban constituidos por partículas atómicas de carga negativa que llamó corpúsculos y hoy en día conocemos como electrones. Demostró que la nueva partícula que había descubierto era aproximadamente mil veces más ligera que el hidrógeno. Esta fue la primera identificación de partículas subatómicas, con las grandes consecuencias que esto tuvo en el consiguiente desarrollo de la ciencia y de la técnica. Posteriormente, midiendo la desviación en campos magnéticos, obtuvo la relación entre la carga y la masa del electrón. También examinó los rayos positivos y, en 1912, descubrió la manera de utilizarlos para separar átomos de diferente masa. El objetivo se consiguió desviando los rayos positivos con campos electromagnéticos (espectrometría de masa). Así descubrió que el neón tiene dos isótopos (el neón-20 y el neón-22). Todos estos trabajos sirvieron a Thomson para proponer una estructura del átomo, que más tarde se demostró incorrecta, ya que suponía que las partículas positivas estaban mezcladas homogéneamente con las negativas. Thomson

también estudió y experimentó sobre las propiedades eléctricas de los gases y la conducción eléctrica a través de los mismos, y fue justamente por esa investigación que recibió el Premio Nobel de Física en 1906.[52]
Véase también: Joseph John Thomson

[editar] Hermanos Lumière: el inicio del cine (1895)
Artículo principal: Historia del cine

Los Hermanos Lumière

A finales del siglo XIX varios inventores estuvieron trabajando en varios sistemas que tenían un objetivo común: el visionado y proyección de imágenes en movimiento. Entre 1890 y 1895, son numerosas las patentes que se registran con el fin de ofrecer al público las primeras "tomas de vistas" animadas. Entre los pioneros se encuentran los alemanes Max y Emil Skladanowski, los estadounidenses Charles F. Jenkins, Thomas Armat y Thomas Alva Edison (kinetoscopio), y los franceses hermanos Lumière (cinematógrafo). Sin embargo, aunque ya existían películas no era posible proyectarlas en una sala cinematográfica. El cine fue oficialmente inaugurado con la primera exhibición pública, en París, el 28 de diciembre de 1895. La conexión del nuevo invento con la electricidad no fue inmediata, porque los movimientos mecánicos se producían manualmente (lo que producía problemas de variación de la velocidad, pero también era utilizado como parte de los efectos especiales); mientras que la luz de las primeras linternas provenía de una llama generada por la combustión de éter y oxígeno. Pero usar una llama junto al celuloide (que era empleado como soporte para las películas, y que es muy inflamable) constituía una fuente constante de graves peligros para proyeccionistas y espectadores, por lo que se buscaron sustitutos a la fuente luminosa. Al extenderse las redes eléctricas se empleó el arco eléctrico incandescente. Inicialmente se usaban dos electrodos de carbón alimentados con una corriente continua, uno con carga positiva y otra con carga negativa. En la actualidad se realiza el paso de la corriente continua a través de dos conductores, encerrados en una cápsula de gas, normalmente xenón. Estas lámparas de xenón llevan en su interior dos electrodos entre los que salta el arco voltaico que produce la luz. En cuanto a la motorización eléctrica del funcionamiento de la cámara y del proyector se hizo ineludible con el tiempo, sobre todo tras el paso al cine sonoro (primera proyección experimental en París, 1900, y de un modo eficaz en Nueva York, 1923, siendo la primera película El cantante de jazz, 1927), lo que implicaba también a las tecnologías del registro y reproducción del sonido, inicialmente obtenido a partir de una banda lateral de opacidad

variable detectada por una celda fotoeléctrica (la banda sonora). A partir de entonces surgió el concepto de medio audiovisual. La tecnología del cine ha evolucionado mucho hasta el cine digital del siglo XXI y simultáneamente ha evolucionado el lenguaje cinematográfico, incluyendo las convenciones del género y los géneros cinematográficos. Más trascendente aún ha sido la evolución conjunta de cine y sociedad, y el surgimiento de distintos movimientos cinematográficos, cinematografías nacionales, etc. En Estados Unidos, Edison fue el máximo impulsor del cine, consolidando una industria en la que deseaba ser el protagonista indiscutible al considerarse como el único inventor y propietario del nuevo espectáculo. En España, la primera proyección la ofreció un enviado de los Lumière a Madrid, el 15 de mayo de 1896.[53]
Véase también: Hermanos Lumière

[editar] Guglielmo Marconi: la telegrafía inalámbrica (1899)

Guglielmo Marconi
Artículo principal: radio

El ingeniero y físico italiano Guglielmo Marconi (1874-1937), es conocido, principalmente, como el inventor del primer sistema práctico de señales telegráficas sin hilos, que dio origen a la radio actual. En 1899 logró establecer comunicación telegráfica sin hilos a través del canal de la Mancha entre Inglaterra y Francia, y en 1903 a través del océano Atlántico entre Cornualles, y Saint John's en Terranova, Canadá. En 1903 estableció en los Estados Unidos la estación WCC, en cuya inauguración cruzaron mensajes de salutación el presidente Theodore Roosevelt y el rey Eduardo VIII de Inglaterra. En 1904 llegó a un acuerdo con el Servicio de Correos británico para la transmisión comercial de mensajes por radio. Las marinas italiana y británica pronto adoptaron su sistema y hacia 1907 había alcanzado tal perfeccionamiento que se estableció un servicio trasatlántico de telegrafía sin hilos para uso público. Para la telegrafía fue un gran impulso el poder usar el código Morse sin necesidad de cables conductores. Aunque se le atribuyó la invención de la radio, la patente regresó al verdadero inventor, el austro-húngaro Nikola Tesla, en 1943. También inventó la antena Marconi. En 1909 Marconi recibió, junto con el físico alemán Karl Ferdinand Braun, el Premio Nóbel de Física por su trabajo.[54]
Véase también: Guglielmo Marconi

[editar] Peter Cooper Hewitt: la lámpara de vapor de mercurio (1901-1912)
Artículo principal: Lámpara de vapor de mercurio

El ingeniero eléctrico e inventor estadounidense Peter Cooper Hewitt (1861-1921) se hizo célebre por la introducción de la lámpara de vapor de mercurio, uno de los más importantes avances en iluminación eléctrica. En la década de 1890 trabajó sobre las experimentaciones realizadas por los alemanes Julius Plücker y Heinrich Geissler sobre el fenómeno fluorescente, es decir, las radiaciones visibles producidas por una corriente eléctrica que pasa a través de un tubo de cristal relleno de gas. Los esfuerzos de Hewitt se encaminaron a hallar el gas que resultase más apropiado para la producción de luz, y lo encontró en el mercurio. La luz obtenida, por este método, no era apta para uso doméstico, pero encontró aplicación en otros campos de la industria, como en medicina, en la esterilización de agua potable y en el revelado de películas. En 1901 inventó el primer modelo de lámpara de mercurio (aunque no registró la patente hasta 1912). En 1903 fabricó un modelo mejorado que emitía una luz de mejor calidad y que encontró mayor utilidad en el mercado. El desarrollo de las lámparas incandescentes de filamento de tungsteno, a partir de la década de 1910, supuso una dura competencia para la lámpara de Hewitt, ya que, a pesar de ser ocho veces menos eficientes que esta, poseían una luminosidad mucho más atractiva.[55]
Véase también: Peter Cooper Hewitt y Temperatura de color

[editar] Gottlob Honold: la magneto de alta tensión, la bujía (1902) y los faros parabólicos (1913)

Gottlob Honold
Artículos principales: Magneto y Bujía

El ingeniero alemán Gottlob Honold (1876-1923), que trabajaba en la empresa Robert Bosch, fue el primero que fabricó una bujía económicamente viable que, conectada a una magneto de alta tensión, hizo posible el desarrollo de los motores de combustión interna de ciclo Otto con velocidades de giro de varios miles de revoluciones por minuto y potencias específicas. Una bujía es el elemento donde se produce una chispa provocando el encendido de la mezcla de combustible y aire en los cilindros de un motor de ciclo Otto. Las primeras patentes para la bujía datan de Nikola Tesla (Patente USPTO nº 609,250 en el que se diseña un sistema temporizado de ignición repetida, en el año 1898), casi al mismo tiempo que Frederik Richard Simms (GB 24859/1898, 1898) y Robert Bosch (GB 26907/1898). Karl Benz también inventó su propia versión de bujía. Sin embargo, la bujía de Honold de 1902

era comercialmente viable, de alta tensión y podía realizar un mayor número de chispas por minuto, razón por la que Daimler. La bujía tiene dos funciones primarias: producir la ignición de la mezcla de aire y combustible y disipar parte del calor de la cámara de combustión hacia el bloque motor por conducción térmica. Las bujías se clasifican por lo que se conoce como rango térmico en función de su conductancia térmica. Las bujías transmiten energía eléctrica que convierten al combustible en un sistema de energía. Una cantidad suficiente de voltaje se debe de proveer al sistema de ignición para que pueda generar la chispa a través de la calibración de la bujía.[56] En 1913, Honold participó en el desarrollo de los faros parabólicos. Aunque se habían utilizado anteriormente algunos sistemas de alumbrado para la conducción nocturna, los primeros faros apenas alumbraban y servían poco más que como sistema de señalización. Honold concibió la idea de colocar espejos parabólicos detrás de las lámparas para concentrar el haz luminoso, lo que mejoraba la iluminación del camino sin necesidad de usar un sistema eléctrico más potente.
Véase también: Gottlob Honold

[editar] Los cambios de paradigma del siglo XX
El efecto fotoeléctrico ya había sido descubierto y descrito por Heinrich Hertz en 1887. No obstante, carecía de explicación teórica y parecía ser incompatible con las concepciones de la física clásica. Esa explicación teórica solo fue posible con la obra de Albert Einstein (entre los famosos artículos de 1905) quien basó su formulación de la fotoelectricidad en una extensión del trabajo sobre los cuantos de Max Planck. Más tarde Robert Andrews Millikan pasó diez años experimentando para demostrar que la teoría de Einstein no era correcta pero terminó demostrando que sí lo era. Eso permitió que tanto Einstein como Millikan recibiesen el premio Nobel en 1921 y 1923 respectivamente. En 1893 Wilhelm Weber logró combinar la formulación de Maxwell con las leyes de la termodinámica para tratar de explicar la emisividad del llamado cuerpo negro, un modelo de estudio de la radiación electromagnética que tendrá importantes aplicaciones en astronomía y cosmología. En 1911 se prueba experimentalmente el modelo atómico de Ernest Rutherford (núcleo con masa y carga positiva y corona de carga negativa), aunque tal configuración había sido predicha en 1904 por el japonés Hantaro Nagaoka, cuya contribución había pasado desapercibida.[57] La llamada Gran Ciencia ligada a la investigación atómica necesitó superar retos tecnológicos cuantitativamente impresionantes, pues era necesario hacer chocar partículas con el núcleo atómico con cada vez mayor energía. Esta fue una de las primeras carreras tecnológicas del siglo XX y que, independientemente del origen nacional de las ideas o procesos puestos en práctica (muchos de ellos europeos: alemanes, austrohúngaros, italianos, franceses , belgas o británicos), fueron ganadas por el eficaz e inquietante complejo científico-técnico-productivo-militar de los Estados Unidos. En 1928 Merle Tuve utilizó un transformador Tesla para alcanzar los tres millones de voltios. En 1932 John Cockcroft y Ernest Walton observaron la desintegración de átomos de litio con un multiplicador voltaico que alcanzaba los 125.000 voltios. En 1937 Robert van de Graaff construyó generadores de cinco metros de altura para generar corrientes de 5 millones de voltios. Ernest Lawrence, inspirado por el noruego Rolf Wideröe, construyó entre 1932 y 1940 sucesivos y cada vez mayores ciclotrones, confinadores magnéticos circulares, para

averiguar la estructura de las partículas elementales a base de someterlas a choques a enormes velocidades.[58] Los quarks (bautizados así en 1963 y descubiertos sucesivamente en los años 1970 y hasta fechas tan próximas como 1996), así como las particularidades de su carga eléctrica aún son una incógnita de la física de hoy en día. La industria eléctrica crece con la sociedad de consumo de masas y pasa a la fase del capitalismo monopolista de las grandes corporaciones multinacionales de tipo holding, como las norteamericanas General Electric (derivada de la compañía de Edison) y Westinghouse Electric (derivada de la de Westinghouse y Tesla), la Marconi Company (más puramente multinacional que italiana), las alemanas AEG, Telefunken, Siemens AG y Braun (esta última, más tardía, debe su nombre a Max Braun, no al físico Carl Ferdinand Braun) o las japonesas Mitsubishi, Matsushita (Panasonic) Sanyo o Sony (éstas últimas posteriores a la segunda guerra mundial). Incluso en países pequeños, pero desarrollados, el sector eléctrico y la electrónica de consumo tuvo presencia temprana y destacada en los procesos de concentración industrial, como son los casos de la holandesa Philips y la finlandesa Nokia.

[editar] Hendrik Antoon Lorentz: Las transformaciones de Lorentz (1900) y el efecto Zeeman (1902)

Lorentz con Einstein en 1921
Artículo principal: Efecto Zeeman

El físico holandés Hendrik Antoon Lorentz (1853-1928) realizó un gran número de investigaciones en los campos de la termodinámica, la radiación, el magnetismo, la electricidad y la refracción de la luz, entre las que destaca el estudio de la expresión de las ecuaciones de Maxwell en sistemas inerciales y sus consecuencias sobre la propagación de las ondas electromagnéticas. Formuló, conjuntamente con George Francis FitzGerald, una explicación del experimento de Michelson y Morley sobre la constancia de la velocidad de la luz, atribuyéndola a la contracción de los cuerpos en la dirección de su movimiento. Este efecto, conocido como contracción de Lorentz-FitzGerald, sería luego expresado como las transformaciones de Lorentz, las que dejan invariantes las ecuaciones de Maxwell, posterior base del desarrollo de la teoría de la relatividad. Nombró a Pieter Zeeman su asistente personal, estimulándolo a investigar el efecto de los campos magnéticos sobre las transiciones de spin, lo que lo llevó a descubrir lo que hoy en día se conoce con el nombre de efecto Zeeman, base de la tomografía por resonancia magnética nuclear. Por este

descubrimiento y su explicación, Lorentz compartió en 1902 el Premio Nobel de Física con Pieter Zeeman[59]
Véase también: Hendrik Antoon Lorentz

[editar] Albert Einstein: El efecto fotoeléctrico (1905)
Artículo principal: Efecto fotoeléctrico

Albert Einstein Parque de las Ciencias de Granada

Al alemán nacionalizado norteamericano Albert Einstein (1879 – 1955) se le considera el científico más conocido e importante del siglo XX. El resultado de sus investigaciones sobre la electricidad llegó en 1905 (fecha trascendental que se conmemoró en el Año mundial de la física 2005), cuando escribió cuatro artículos fundamentales sobre la física de pequeña y gran escala. En ellos explicaba el movimiento browniano, el efecto fotoeléctrico y desarrollaba la relatividad especial y la equivalencia entre masa y energía. El efecto fotoeléctrico consiste en la emisión de electrones por un material cuando se le ilumina con radiación electromagnética (luz visible o ultravioleta, en general). Ya había sido descubierto y descrito por Heinrich Hertz en 1887, pero la explicación teórica no llegó hasta que Albert Einstein le aplicó una extensión del trabajo sobre los cuantos de Max Planck. En el artículo dedicado a explicar el efecto fotoeléctrico, Einstein exponía un punto de vista heurístico sobre la producción y transformación de luz, donde proponía la idea de quanto de radiación (ahora llamados fotones) y mostraba cómo se podía utilizar este concepto para explicar el efecto fotoeléctrico. Una explicación completa del efecto fotoeléctrico solamente pudo ser elaborada cuando la teoría cuántica estuvo más avanzada. A Albert Einstein se le concedió el Premio Nobel de Física en 1921.[60] El efecto fotoeléctrico es la base de la producción de energía eléctrica por radiación solar y de su aprovechamiento energético. Se aplica también para la fabricación de células utilizadas en los detectores de llama de las calderas de las grandes usinas termoeléctricas. También se utiliza en diodos fotosensibles tales como los que se utilizan en las células fotovoltaicas y en electroscopios o electrómetros. En la actualidad (2008) los materiales fotosensibles más utilizados son, aparte de los derivados del cobre (ahora en menor uso), el silicio, que produce corrientes eléctricas mayores.
Véase también: Albert Einstein

[editar] Robert Andrews Millikan: El experimento de Millikan (1909)

Artículo principal: Experimento de Millikan

Robert Andrews Millikan

El físico estadounidense Robert Andrews Millikan (1868-1953) es conocido principalmente por haber medido la carga del electrón, ya descubierta por J. J. Thomson. Estudió en un principio la radioactividad de los minerales de uranio y la descarga en los gases. Luego realizó investigaciones sobre radiaciones ultravioletas. Mediante su experimento de la gota de aceite, también conocido como experimento de Millikan, determinó la carga del electrón: 1,602 × 10-19 coulomb. La carga del electrón es la unidad básica de cantidad de electricidad y se considera la carga elemental porque todos los cuerpos cargados contienen un múltiplo entero de la misma. El electrón y el protón tienen la misma carga absoluta, pero de signos opuestos. Convencionalmente, la carga del protón se considera positiva y la del electrón negativa. Entre sus otras aportaciones a la ciencia destacan su importante investigación sobre los rayos cósmicos, como él los denominó, y sobre los rayos X, así como la determinación experimental de la constante de Planck, midiendo la frecuencia de la luz y la energía de los electrones liberados en el efecto fotoeléctrico. En 1923 fue galardonado con el Premio Nobel de Física por sus trabajos para determinar el valor de carga del electrón y el efecto fotoeléctrico.[61]
Véase también: Robert Andrews Millikan

[editar] Heike Kamerlingh Onnes: Superconductividad (1911)

Heike Kamerlingh Onnes

Artículo principal: Superconductividad

El físico holandés Heike Kamerlingh Onnes (1853-1926) se dedicó principalmente al estudio de la física a bajas temperaturas, realizando importantes descubrimientos en el campo de la superconductividad eléctrica, fenómeno que sucede cuando algunos materiales están a temperaturas cercanas al cero absoluto. Ya en el siglo XIX se llevaron a cabo diversos experimentos para medir la resistencia eléctrica a bajas temperaturas, siendo James Dewar el primer pionero en este campo. Sin embargo, la superconductividad como tal no se descubriría hasta 1911, año en que Onnes observó que la resistencia eléctrica del mercurio desaparecía bruscamente al enfriarse a 4K (-269°C), cuando lo que se esperaba era que disminuyera gradualmente. En 1913 fue galardonado con el Premio Nobel de Física por, en palabras del comité, "sus investigaciones en las características de la materia a bajas temperaturas que permitieron la producción del helio líquido".[62]
Véase también: Heike Kamerlingh Onnes

[editar] Vladimir Zworykin: La televisión (1923)
Artículo principal: Televisión

Vladimir Zworykin

El ingeniero ruso Vladimir Zworykin (1889-1982) dedicó su vida al desarrollo de la televisión, la electrónica y la óptica. Desde muy joven estaba persuadido de que la solución práctica de la televisión no sería aportada por un sistema mecánico, sino por la puesta a punto de un procedimiento que utilizara los tubos de rayos catódicos. Emigró a Estados Unidos y empezó a trabajar en los laboratorios de la Westinghouse Electric and Manufacturing Company, en Pittsburg. En la Westinghouse tuvo libertad para continuar con sus proyectos personales, es decir, sus trabajos sobre la televisión, especialmente sobre el iconoscopio (1923), un dispositivo que convertía imágenes ópticas en señales eléctricas. Otro de sus inventos, que posibilitó una televisión enteramente electrónica, fue el kinescopio que transformaba las señales eléctricas del iconoscopio en imágenes visibles, aunque de baja resolución. Los trabajos de investigación de Zworykin y de su grupo de colaboradores no se limitaron sólo a la televisión, abarcaron muchos otros aspectos de la electrónica, sobre todo los relacionados con la óptica. Su actividad en este campo permitió el desarrollo de dispositivos tan importantes como los tubos de imágenes y multiplicadores secundarios de emisión de distintos tipos. Un gran número de aparatos electrónicos militares utilizados en la segunda guerra mundial son resultado directo de las investigaciones de Zworykin y de sus colaboradores, quien también participó en la invención del microscopio electrónico.[63]

Véase también: Vladimir Zworykin

[editar] Edwin Howard Armstrong: Frecuencia modulada (FM) (1935)
Artículo principal: Frecuencia modulada

Edwin Howard Armstrong

El ingeniero eléctrico estadounidense Edwin Howard Armstrong (1890-1954) fue uno de los inventores más prolíficos de la era de la radio, al desarrollar una serie de circuitos y sistemas fundamentales para el avance de este sistema de comunicaciones. En 1912 desarrolló el circuito regenerativo, que permitía la amplificación de las débiles señales de radio con poca distorsión, mejorando mucho la eficiencia de los circuitos empleados hasta el momento. En 1918 desarrolló el circuito superheterodino, que dio un gran impulso a los receptores de amplitud modulada (AM). En 1920 desarrolló el circuito super-regenerador, muy importante en las comunicaciones con dos canales. En 1935 desarrolló el sistema de radiodifusión de frecuencia modulada (FM) que, además de mejorar la calidad de sonido, disminuyó el efecto de las interferencias externas sobre las emisiones de radio, haciéndolo muy inferior al del sistema de amplitud modulada (AM). El sistema de frecuencia modulada (FM), que es hoy el más empleado en radio y televisión, no se empezó a emplear comercialmente hasta después de su muerte. Muchas invenciones de Armstrong fueron reclamadas por otros en pleitos de patente.[64]
Véase también: Edwin Howard Armstrong

[editar] Robert Watson-Watt: El radar (1935)
Artículo principal: Radar

Robert Watson-Watt

El radar (acrónimo de radio detection and ranging, detección y medición de distancias por radio) fue creado en 1935 y desarrollado principalmente en Inglaterra durante la Segunda Guerra Mundial. Su mayor impulsor fue el físico Robert Watson-Watt (1892-1973), director del Laboratorio de Investigación de Radio. Ya en 1932, la Oficina Postal Británica publicó un informe en el que sus científicos documentaron fenómenos naturales que afectaban la intensidad de la señal electromagnética recibida: tormentas eléctricas, vientos, lluvia y el paso de un aeroplano en la vecindad del laboratorio. Arnold Wilkins (19071985), físico ayudante de Watson-Watts, conoció este informe de manera accidental, conversando con la gente de la Oficina Postal, que se quejaba por la interferencia. Cuando Wilkins sugirió la posibilidad de utilizar el fenómeno de interferencia de ondas de radio para detectar aviones enemigos, Watson-Watt lo comisionó inmediatamente para trabajar en el cálculo de los aspectos cuantitativos. El radar dio a la aviación británica una notable ventaja táctica sobre la alemana durante la Batalla de Inglaterra, cuando aún era denominado RDF (Radio Direction Finding). En la actualidad es una de las principales ayudas a la navegación con que cuenta el control de tráfico aéreo de todo tipo, militar y civil.[65]
Véase también: Robert Watson-Watt

[editar] La segunda mitad del siglo XX: Era Espacial o Edad de la Electricidad
Artículo principal: Era espacial

Después de la segunda guerra mundial, el mundo bipolar enfrentado a la guerra fría entre los Estados Unidos y la Unión Soviética presenció la frenética carrera de armamentos y la carrera espacial que impulsó de modo extraordinario la competencia científica y tecnológica entre ambos países- En la sociedad de consumo capitalista, orientada al mercado, algunos de estos logros encontraron aplicación a la vida cotidiana como retorno tecnológico de lo invertido en las áreas de investigación puntera; caso de algunos rubros de la industria ligera y los servicios (terciarización), mientras que en el bloque soviético la planificación estatal privilegiaba la industria pesada. La reconstrucción de Europa Occidental y Japón permitió que en ambos espacios se pudiera continuar a la vanguardia de la ciencia y la tecnología, además de contribuir con la fuga de cerebros a los espacios centrales. Al científico y el inventor individual, ahora reemplazados en prestigio por el empresario schumpeteriano, le sucedieron los equipos científicos vinculados a instituciones públicas o privadas, cada vez más interconectadas y retroalimentadas en lo que se denomina investigación y desarrollo (I+D) o incluso I+D+I (investigación, desarrollo e innovación). Los programas de investigación se han hecho tan costosos, con tantas implicaciones y a tan largo plazo que las decisiones que les afectan han de ser tomadas por instancias políticas y empresariales de alto nivel, y su publicidad o su mantenimiento en secreto (con fines estratégicos o económicos) constituyen un problema serio de control social (con principios democráticos o sin ellos). La segunda mitad del siglo XX se caracterizó, entre otras cosas, por la denominada Revolución científico-técnica de la tercera revolución industrial, con avances de las tecnologías (especialmente la electrónica y la medicina) y las ciencias, que ha dado lugar al desarrollo de una numerosísima serie de inventos -dependientes de la electricidad y la electrónica en su diseño y funcionamiento- que transformaron la vida social, primero en las

clases medias de los países desarrollados, y posteriormente en todo el mundo con el proceso de globalización. El desarrollo de las telecomunicaciones e internet permite hablar de una sociedad de la información en la que, en los países industrialmente más desarrollados las decisiones económicas (como consumir, producir y distribuir), sociales (como el establecimiento de todo tipo de relaciones personales, redes sociales y redes ciudadanas) y políticas (como informarse y opinar, aunque la democracia electrónica sólo está esbozada) se transmiten instantáneamente, lo que permitió a Marshall McLuhan hablar de la Edad de la Electricidad. La automatización (en estadios más avanzados la robótica, que aún no se ha desarrollado plenamente) transformó radicalmente los procesos de trabajo industrial. Es posible hablar ya no de una sociedad industrial opuesta a la sociedad preindustrial, sino incluso una sociedad postindustrial basada en parámetros completamente nuevos. Entre los inventos que han contribuido a la base material de esa nueva forma de vida caben destacar: electrodomésticos, electrónica digital, ordenadores, robótica, satélites artificiales de comunicación, energía nuclear, trenes eléctricos, refrigeración y congelación de alimentos, electromedicina,etc.

[editar] Televisión
Artículo principal: Televisión

Diseño de la patente del iconoscopio de Vladimir Zworykin.

1923: El tubo de rayos catódicos era conocido desde finales del siglo XIX, pero su uso debía esperar al diseño de un emisor eficaz, que se logró con el iconoscopio de Vladimir Zworykin, un ingeniero ruso que venía diseñando tubos perfeccionados desde 1923. Se basaba en miles de pequeñas células fotoeléctricas independientes cada una con tres capas: una intermedia muy fina de mica, otra de una sustancia conductora (grafito en polvo impalpable o plata) y otra fotosensible compuesta de millares de pequeños globulitos de plata y óxido de cesio. Este mosaico, conocido con el nombre de mosaico electrónico de Zworykin, se colocaba dentro de un tubo de vacío y sobre el mismo se proyectaba, mediante un sistema de lentes, la imagen a captar. La parte relativa a la recepción y reproducción fueron tubos catódicos derivados del disector de imagen de Philo Farnsworth (1927). La primera imagen sobre un tubo de rayos catódicos se había formado en 1911 en el Instituto Tecnológico de San Petersburgo y consistió en unas rayas blancas sobre fondo negro, obtenidas por Boris Rosing en colaboración con Zworykin. La captación se realizó mediante dos tambores de espejos (sistema Weiller) y generaba una exploración entrelazada de 30 líneas y 12,5 cuadros por segundo. Las señales de sincronismo eran generadas por potenciómetros unidos a los tambores de espejos que se aplicaban a las

bobinas deflexoras del TRC, cuya intensidad de haz era proporcional a la iluminación que recibía la célula fotoeléctrica. Hay muchos países (Alemania, Inglaterra, Francia, Estados Unidos) que se disputan la primacía en las primeras emisiones públicas de televisión, con un procedimiento u otro. Desde finales de los años veinte se hicieron por procedimientos mecánicos anteriores al iconoscopio, a cargo de empresas públicas (BBC en Inglaterra) o privadas (CBS o NBC en Estados Unidos). En los primeros años treinta ya utilizaban el iconoscopio, como las que tuvieron lugar en París en 1932 con una definición de 60 líneas. La precariedad de las células empleadas para la captación hacía que se debiera iluminar muy intensamente las escenas, produciendo tanto calor que sólo era posible el desarrollo del trabajo en los platós por tiempos breves. Tres años después se emitía con 180 líneas. Desde finales de los años treinta, culminando en la Feria Mundial de Nueva York de 1939, se emitían programaciones regulares de televisión que fueron interrumpidas durante la segunda guerra mundial. Para 1948, la naturaleza futura del invento todavía permitía imaginaciones ucrónicas como la de George Orwell (1984 (novela)), en que aparece encarnando la omnipresencia totalitaria del Big Brother (Gran Hermano). A finales de los años cincuenta se desarrollaron los primeros magnetoscopios y las cámaras con ópticas intercambiables que giraban en una torreta delante del tubo de imagen. Estos avances, junto con los desarrollos de las máquinas necesarias para la mezcla y generación electrónica de otras fuentes, permitieron un desarrollo muy alto de la producción. En los años setenta se implementaron las ópticas Zoom y se empezaron a desarrollar magnetoscopios más pequeños que permitían la grabación de las noticias en el lugar donde se producían, con lo que nace el periodismo electrónico o ENG. La implantación de sucesivas mejoras como la televisión en color y la televisión digital se ve frenado no tanto por el desarrollo científico-tecnológico, sino por factores comerciales y por la dispersión y el coste de sustitución de los equipos.[66]

[editar] Ordenadores
Artículo principal: Historia de la informática Véase también: Microprocesador

ENIAC

1941 La primera computadora electrónica funcional de que se tiene noticia fue la alemana Z3 de Konrad Zuse, construida en 1941 y destruida en los bombardeos aliados de 1943. La utilización comercial de este tipo de aparatos, que revolucionaron la gestión de la

información y toda la vida social, económica y científica, tuvo que esperar a los años cincuenta, tras su desarrollo en Estados Unidos. La británica Colossus (diseñada por Tommy Flowers en la Estación de Investigación de la Oficina Postal) y la estadounidense Harvard Mark I (construida por Howard H. Aiken en la Universidad de Harvard con subvención de IBM entre 1939 y 1943), llegaron a tiempo de usarse en la fase final de la segunda guerra mundial (1944-1945), la primera en el descifrado de mensajes alemanes y la segunda para el cálculo de tablas de balística . Inmediatamente después de la guerra, el Electronic Numerical Integrator And Computer (Computador e Integrador Numérico Electrónico, ENIAC)[67] utilizado por el Laboratorio de Investigación Balística del Ejército de los Estados Unidos fue construido en 1946 en la Universidad de Pennsylvania por John Presper Eckert y John William Mauchly. Consumía una potencia eléctrica suficiente para abastecer una pequeña ciudad, ocupaba una superficie de 167 m² y operaba con un total de 17.468 válvulas electrónicas o tubos de vacío, 7.200 diodos de cristal, 1.500 relés, 70.000 resistencias, 10.000 condensadores y 5 millones de soldaduras. Pesaba 27 tn, medía 2,4 m x 0,9 m x 30 m; utilizaba 1.500 conmutadores electromagnéticos y relés; requería la operación manual de unos 6.000 interruptores, y su programa o software, cuando requería modificaciones, tardaba semanas de instalación manual. La ENIAC podía resolver 5.000 sumas y 360 multiplicaciones en 1 segundo. Se desactivó en 1955. Le sustituyó en la misma institución la Electronic Discrete Variable Automatic Computer (EDVAC),[68] en 1949. A diferencia de la ENIAC, no era decimal, sino binaria y tuvo el primer programa diseñado para ser almacenado. Este diseño se convirtió en el estándar de arquitectura para la mayoría de las computadoras modernas y un hito en la historia de la informática. A los diseñadores anteriores se les había unido el gran matemático John von Neumann. La EDVAC recibió varias actualizaciones, incluyendo un dispositivo de entrada/salida de tarjetas perforadas en 1953, memoria adicional en un tambor magnético en 1954 y una unidad de aritmética de punto flotante en 1958. Dejó de estar en activo en 1961. La UNIVAC I (UNIVersal Automatic Computer I, computadora automática universal I), también debida a J. Presper Eckert y John William Mauchly, fue la primera computadora comercial y la primera diseñada desde el principio para su uso en administración y negocios. El primer UNIVAC fue entregado a la Oficina de Censos de los Estados Unidos (United States Census Bureau) en 1951 y fue puesto en servicio ese mismo año. Competía directamente con las máquinas de tarjeta perforada hechas principalmente por IBM. Para facilitar la compatibilidad de ambos tipos de máquina se construyó un equipo de procesamiento de tarjetas fuera de línea, el convertidor UNIVAC de tarjeta a cinta y el convertidor UNIVAC de cinta a tarjeta, para la transferencia de datos entre las tarjetas y las cintas magnéticas que empleaba alternativamente. IBM anunció en 1953 la primera producción a gran escala de una computadora, el IBM 650: 2000 unidades desde 1954 hasta 1962. Era un diseño orientado hacia los usuarios de máquinas contables anteriores, como las tabuladoras electromecánicas (con tarjetas perforadas) o el modelo IBM 604. Pesaba alrededor de 900 kg, y su unidad de alimentación unos 1350. Cada unidad estaba en un armario separado, de 1,5 x 0,9 x 1,8 metros. Costaba 500.000 dólares, pero podía alquilarse por 3.500 al mes. La tercera generación de este tipo de máquinas se inició con IBM 360, la primera en la historia en ser atacada con un virus informático. Comercializada a partir de 1964, fue la

primera que usaba el término byte para referirse a 8 bits (con cuatro bytes creaba una palabra de 32-bits). Su arquitectura de computación fue la que a partir de este modelo siguieron todos los ordenadores de IBM. El sistema también hizo popular la computación remota, con terminales conectadas a un servidor, por medio de una línea telefónica. Fue una de las primeras computadoras comerciales que usó circuitos integrados, y podía realizar tanto análisis numéricos como administración o procesamiento de archivos. El Intel 4004 (i4004, primero de Intel), un CPU de 4bits, fue lanzado en un paquete de 16 pines CERDIP en 1971, siendo el primer microprocesador en un simple chip, así como el primero disponible comercialmente. Daría paso a la construcción de los ordenadores personales. El circuito 4004 fue construido con 2.300 transistores, y fue seguido el año siguiente por el primer microprocesador de 8 bits, el 8008, que contenía 3.300 transistores, y el 4040, versión revisada del 4004. El CPU que comenzó la revolución del microcomputador, sería el 8080, usado en el Altair 880. El microprocesador es un circuito integrado que contiene todos los elementos necesarios para conformar una "unidad central de procesamiento" (UCP o CPU: Central Process Unit). En la actualidad este tipo de componente electrónico se compone de millones de transistores, integrados en una misma placa de silicio.

[editar] Transistor, Electrónica digital y Superconductividad
Artículo principal: Transistor Artículo principal: Circuito integrado Artículo principal: Superconductividad

Detalle de un circuito integrado

1948 La electrónica, que estudia y emplea sistemas cuyo funcionamiento se basa en la conducción y el control del flujo microscópico de los electrones u otras partículas cargadas eléctricamente, comenzó con el diodo de vacío inventado por John Ambrose Fleming en 1904, dispositivo basado en el efecto Edison. Con el tiempo las válvulas de vacío se fueron perfeccionando y mejorando, apareciendo otros tipos y miniaturizándose. El paso esencial lo dio el físico estadounidense Walter Houser Brattain (1902-1987), incorporado en 1929 a los laboratorios Bell, donde fue partícipe junto con John Bardeen (1908-1991) -incorporado en 1945- y William Bradford Shockley del invento de un pequeño dispositivo electrónico semiconductor que cumplía funciones de amplificador, oscilador, conmutador o rectificador: el transistor. La palabra elegida para denominarlo es la contracción en inglés

de transfer resistor ("resistencia de transferencia"). Sustituto de la válvula termoiónica de tres electrodos o triodo, el primer transistor de puntas de contacto funcionó en diciembre de 1947; se anunció por primera vez en 1948 pero no se terminó de fabricar hasta 1952, tras lograr construir un dispositivo con germanio el 4 de julio de 1951, culminando así su desarrollo. El transistor de unión bipolar apareció algo más tarde, en 1949, y es el dispositivo utilizado actualmente para la mayoría de las aplicaciones electrónicas. Sus ventajas respecto a las válvulas son entre otras menor tamaño y fragilidad, mayor rendimiento energético, menores tensiones de alimentación y consumo de energía. El transistor no funciona en vacío como las válvulas, sino en un estado sólido semiconductor (silicio), razón por la que no necesitan centenares de voltios de tensión para funcionar. El transistor ha contribuido, como ninguna otra invención, al gran desarrollo actual de la electrónica y la informática, empleándose comercialmente en todo tipo de aparatos electrónicos, tanto domésticos como industriales. La primera aplicación de estos dispositivos se hizo en los audífonos. Por su trabajo con los semiconductores y por el descubrimiento del transistor, Walter Houser Brattain compartió con Shockley y Bardeen en 1956 el Premio Nóbel de Física.[69] La construcción de circuitos electrónicos permitió resolver muchos problemas prácticos (control, procesado y distribución de información, conversión y distribución de la energía eléctrica, etc.). En 1958 se desarrolló el primer circuito integrado, que integraba seis transistores en un único chip, y en 1970 se desarrolló el primer microprocesador (Intel 4004). En la actualidad, los campos de desarrollo de la electrónica son tan vastos que se ha dividido en varias ciencias especializadas, partiendo de la distinción entre electrónica analógica y electrónica digital; y en los campos de la ingeniería electrónica, la electromecánica, la informática (diseño de software para su control), la electrónica de control, las telecomunicaciones y la electrónica de potencia.[70] En 1951 Bardeen, uno de los diseñadores del transistor, ingresó en la Universidad de Illinois, nombrando asistente personal al físico Nick Holonyak, el cual posteriormente diseñaría el primer Diodo LED en 1962. Trabajó junto a Leon N. Cooper y John Robert Schrieffer para crear la teoría estándar de la superconductividad, es decir, la desaparición de la resistencia eléctrica en ciertos metales y aleaciones a temperaturas cercanas al cero absoluto. Por estos trabajos compartió nuevamente, en 1972, el Premio Nobel de Física con los físicos estadounidenses Leon N. Cooper y John R. Schrieffer. Esto hizo que él fuera el primer científico que ganó dos premios Nobel en la misma disciplina.[71] Las aplicaciones de la superconductividad están todavía en las primeras fases de su desarrollo, pero ya han permitido los electroimanes más poderosos (que se usan en los trenes maglev, resonancia magnética nuclear y aceleradores de partículas); circuitos digitales y filtros de radiofrecuencia y microondas para estaciones base de telefonía móvil; o los magnetómetros más sensibles (uniones Josephson, de los SQUIDs -dispositivos superconductores de interferencia cuántica-).

[editar] El reto de la generación de electricidad
[editar] Centrales nucleares

Torres de refrigeración de la central nuclear de Cofrentes, España
Artículo principal: Energía nuclear

1951 Una central nuclear es una instalación industrial empleada para la generación de energía eléctrica a partir de energía nuclear, que se caracteriza por el empleo de materiales fisionables que mediante reacciones nucleares proporcionan calor. Este calor es empleado por un ciclo termodinámico convencional para mover un alternador y producir energía eléctrica. Las centrales nucleares constan de uno o varios reactores. Se llama energía nuclear a aquella que se obtiene al aprovechar las reacciones nucleares espontáneas o provocadas por el hombre. Estas reacciones se dan en algunos isótopos de ciertos elementos químicos, siendo el más conocido de este tipo de energía la fisión del uranio-235 (235U), con la que funcionan los reactores nucleares. Sin embargo, para producir este tipo de energía aprovechando reacciones nucleares pueden ser utilizados muchos otros isótopos de varios elementos químicos, como el torio, el plutonio, el estroncio o el polonio. Los dos sistemas con los que puede obtenerse energía nuclear de forma masiva son la fisión nuclear y la fusión nuclear. El 2 de diciembre de 1942, como parte del proyecto Manhattan dirigido por J. Robert Oppenheimer, se construyó el Chicago Pile-1 (CP-1), primer reactor nuclear hecho por el hombre (existió un reactor natural en Oklo). El Departamento de Defensa de los Estados Unidos propuso el diseño y construcción de un reactor nuclear utilizable para la generación eléctrica y propulsión en los submarinos a dos empresas distintas norteamericanas: General Electric y Westinghouse. Estas empresas desarrollaron los reactores de agua ligera tipo BWR y PWR respectivamente. Los mismos diseños de reactores de fisión se trasladaron a diseños comerciales para la generación de electricidad. Los únicos cambios producidos en el diseño con el transcurso del tiempo fueron un aumento de las medidas de seguridad, una mayor eficiencia termodinámica, un aumento de potencia y el uso de las nuevas tecnologías que fueron apareciendo. El 20 de diciembre de 1951 fue el primer día que se consiguió generar electricidad con un reactor nuclear (en el reactor americano EBR-I, con una potencia de unos 100 kW), pero no fue hasta 1954 cuando se conectó a la red eléctrica una central nuclear (fue la central nuclear rusa de Obninsk, generando 5 MW con solo un 17% de rendimiento térmico). La primera central nuclear con un rendimiento comercial fue la británica de Calder Hall, en Sellafield, abierta en 1956 con una capacidad de 50 MW (ampliada posteriormente a 200 MW).[72] El desarrollo de la energía nuclear en todo el mundo experimentó a partir de ese momento un gran crecimiento, de forma muy particular en Francia y Japón, donde la crisis del petróleo de 1973 influyó definitivamente, ya que su dependencia en el petróleo para la generación eléctrica era muy marcada. En 1986 el accidente de Chernóbil, en un reactor RBMK de diseño ruso que no cumplía los requisitos de seguridad que se exigían en

occidente, acabó radicalmente con ese crecimiento. A partir de entonces, con la caída del bloque del este desde 1989, el movimiento antinuclear, que se opone por un lado al arma nuclear y por otra parte a la utilización de la energía nuclear, se ha visto desplazado de la vanguardia del movimiento ecologista por otras cuestiones, como el cambio climático. En octubre de 2007 existían 439 centrales nucleares en todo el mundo que generaron 2,7 millones de MWh en 2006. La potencia instalada en 2007 era de 370.721 MWe. Aunque solo 30 países en el mundo poseen centrales nucleares, aproximadamente el 15% de la energía eléctrica generada en el mundo se produce a partir de energía nuclear, aunque el porcentaje está actualmente en disminución.[73] La mayoría de los países con centrales nucleares han suspendido nuevas construcciones debido a los problemas de disposición final de los combustibles nucleares, cuya actividad (y riesgos para la vida humana) perdura durante muchos miles de años. Algunos científicos, como el galardonado físico Freeman Dyson, sostienen que la exageración de los beneficios de la energía nuclear provienen de una combinación de factores económicos y del sentido de culpa por los bombardeos atómicos sobre Hiroshima y Nagasaki.
Véase también: Controversia sobre la energía nuclear

[editar] Combustibles fósiles y fuentes renovables El primer uso industrial de la energía hidráulica para la generación de electricidad alimentaba mediante una turbina dieciséis lámparas de arco de la fábrica Wolverine en Grand Rapids (Estados Unidos, 1880).[74] La primera central hidroeléctrica entró en funcionamiento ese mismo año en Northumberland, Gran Bretaña,[75] y la primera ciudad en tener un suministro eléctrico fue Godalming, en Surrey (Inglaterra), ese mismo año, a corriente alterna con un alternador Siemens y una dinamo conectada a una rueda hidráulica, que funcionó sólo tres años.[76] Dos años más tarde se abrió la primera central hidráulica estadounidense (río Fox, Appleton, Wisconsin). El mismo año (1882), Edison abría la primera central eléctrica urbana comercial. No utilizaba fuentes renovables, sino la generación térmica a petróleo (con tres veces mayor eficiencia que los modelos anteriores, no comerciales), en Pearl Street (Nueva York), de 30 kW de potencia a 220-110 V de corriente continua. En 1895, su competidor, Westinghouse, abre la primera central de corriente alterna en el Niágara.[77] La desconfianza de Edison hacia la corriente alterna se mantuvo hasta 1892 y hasta finales del siglo XIX se usaba principalmente corriente continua para la iluminación.[78] El desarrollo del generador eléctrico y el perfeccionamiento de la turbina hidráulica respondieron al aumento de la demanda de electricidad del siglo XX, de modo que desde 1920 el porcentaje la hidroelectricidad en la producción total de electricidad era ya muy significativo. Desde entonces la tecnología de las principales instalaciones no ha variado sustancialmente. Una central hidroeléctrica es aquella que se utiliza para la generación de energía eléctrica mediante el aprovechamiento de la energía potencial del agua embalsada en una presa situada a más alto nivel que la central. El agua se lleva por una tubería de descarga a la sala de máquinas de la central, donde mediante enormes turbinas hidráulicas se produce la generación de energía eléctrica en alternadores. Las dos características principales de una central hidroeléctrica, desde el punto de vista de su capacidad de generación de electricidad son:
1. La potencia, que es función del desnivel existente entre el nivel medio del embalse y el nivel medio de las aguas debajo de la central, y del

caudal máximo turbinable, además de las características de la turbina y del generador. 2. La energía garantizada en un lapso de tiempo determinado, generalmente un año, que está en función del volumen útil del embalse, de la pluviometría anual y de la potencia instalada.

Esta forma de obtener energía eléctrica no está libre problemas medioambientales al necesitar la construcción de grandes embalses en los que acumular el agua, modificando el paisaje y los anteriores usos, tanto naturales como humanos, del agua y el entorno afectado. Proyectos gigantescos (presa de Asuán en Egipto, de Itaipú entre Brasil y Paraguay, o de las Tres Gargantas en China) tienen repercusiones de todo tipo, e incluso su viabilidad a largo plazo es cuestionada. Las minicentrales hidráulicas suelen ser mejor consideradas desde ese punto de vista, aunque su capacidad de generación es mucho más limitada.

Capacidad eólica mundial total instalada y previsiones 1997-2010. Fuente: WWEA e.V.

Actualmente se encuentra en desarrollo la explotación comercial de la conversión en electricidad del potencial energético que tiene el oleaje del mar, en las llamadas Centrales mareomotrices. Estas utilizan el flujo y reflujo de las mareas. En general pueden ser útiles en zonas costeras donde la amplitud de la marea sea amplia, y las condiciones morfológicas de la costa permitan la construcción de una presa que corte la entrada y salida de la marea en una bahía. Se genera energía tanto en el momento del llenado como en el momento del vaciado de la bahía. Otras energías renovables, como la energía solar;[79] tienen una historia muy anterior a su utilización como generadoras de electricidad, e incluso en este campo surgieron tecnologías ya en el siglo XIX: solar con Edmund Becquerel en 1839 y Augustin Mouchet en 1861; eólica desde 1881, aunque el desarrollo de rotores verticales eficaces llegó con Klemin, Savoius y Darrieus, diseñados en 1925, 1929 y 1931). El impulso actual de las energías renovables proviene de las necesidades energéticas de la crisis del petróleo de 1973 y, más recientemente, del hecho de que no emitan gases causantes de efecto invernadero, contrariamente a los combustibles fósiles (carbón, petróleo o gas natural). La producción de electricidad solar y, sobre todo, eólica está en fuerte auge aunque aún no ha desarrollado todo su potencial. Las tecnologías utilizadas en las centrales termoeléctricas que utilizan combustibles fósiles se han perfeccionado, tanto para obtener una mayor eficiencia energética (ciclo combinado)

como para reducir su impacto contaminante (lluvia ácida), lo que incluye las emisiones de gases de efecto invernadero (captura y almacenamiento de carbono). La pila de combustible[80] ligada a las tecnologías del hidrógeno es uno de las últimos diseños propuestos para la sustitución de las energías tradicionales.

[editar] Robótica y máquinas CNC
Artículos principales: Robot y Control numérico por computadora

1952 Una de las innovaciones más importantes y trascendentales en la producción de todo tipo de objetos en la segunda mitad del siglo XX ha sido la incorporación de robots, autómatas programables[81] y máquinas guiadas por control numérico por computadora (CNC) en las cadenas y máquinas de producción, principalmente en tareas relacionadas con la manipulación, trasiego de objetos, procesos de mecanizado y soldadura. Estas innovaciones tecnológicas han sido viables entre otras cosas por el diseño y construcción de nuevas generaciones de motores eléctricos de corriente continua controlados mediante señales electrónicas de entrada y salida, y el giro que pueden tener en ambos sentidos, así como la variación de su velocidad de acuerdo con las instrucciones contenidas en el programa de ordenador que los controla. En estas máquinas se utilizan tres tipos de motores eléctricos: motores paso a paso, servomotores o motores encoder y motores lineales. El primer desarrollo en el área del control numérico por computadora (CNC) lo realizó el inventor norteamericano John T. Parsons (Detroit 1913-2007)[82] junto con su empleado Frank L. Stulen, en la década de 1940, realizando la primera demostración práctica de herramienta con movimiento programado en 1952. La robótica es una rama de la tecnología (y que integra el álgebra, los autómatas programables, las máquinas de estados, la mecánica, la electrónica y la informática), que estudia el diseño y construcción de máquinas capaces de desempeñar tareas repetitivas, tareas en las que se necesita una alta precisión, tareas peligrosas para el ser humano o tareas irrealizables sin intervención de una máquina. Esas máquinas, los robots mantienen la conexión de retroalimentación inteligente entre el sentido y la acción directa bajo el control de un ordenador previamente programado con las tareas que tiene que realizar. Las acciones de este tipo de robots son generalmente llevadas a cabo por motores o actuadores que mueven extremidades o impulsan al robot. Hacia 1942, Isaac Asimov[83] da una versión humanizada a través de su conocida serie de relatos, en los que introduce por primera vez el término robótica con el sentido de disciplina científica encargada de construir y programar robots. Además, este autor plantea que las acciones que desarrolla un robot deben ser dirigidas por una serie de reglas morales, llamadas las Tres leyes de la robótica. Los robots son usados hoy en día (2008) para llevar a cabo tareas sucias, peligrosas, difíciles, repetitivas o embotadas para los humanos. Esto usualmente toma la forma de un robot industrial usado en las líneas de producción. Otras aplicaciones incluyen la limpieza de residuos tóxicos, exploración espacial, minería, búsqueda y rescate de personas y localización de minas terrestres. La manufactura continúa siendo el principal mercado donde los robots son utilizados. En particular, robots articulados (similares en capacidad de movimiento a un brazo humano) son los más usados comúnmente. Las aplicaciones incluyen soldado, pintado y carga de maquinaria. La industria automotriz ha tomado gran ventaja de esta nueva tecnología donde los robots han sido programados para reemplazar el trabajo de los humanos en muchas tareas repetitivas. Recientemente, se ha logrado un gran

avance en los robots dedicados a la medicina que utiliza robots de última generación en procedimientos de cirugía invasiva mínima. La automatización de laboratorios también es un área en crecimiento. Los robots parecen estar abaratándose y empequeñeciéndose en tamaño, todo relacionado con la miniaturización de los componentes electrónicos que se utilizan para controlarlos. También, muchos robots son diseñados en simuladores mucho antes de que sean construidos e interactúen con ambientes físicos reales.[84]

[editar] Láser
Artículo principal: Láser

En 1960 el físico norteamericano Charles Townes (1915 -) realizó en la Universidad de Columbia el descubrimiento que le proporcionaría su salto a la fama científica: fue descrito como Microwave Amplification by Stimulated Emission of Radiation (máser). Sin embargo fue el físico norteamericano Gordon Gould (1920-2005) quien patentó los primeros láseres para usos industriales y militares, a pesar de que hubo muchos pleitos porque varios científicos estaban estudiando la posibilidad de tecnologías similares a partir de las teorías desarrolladas por Einstein sobre la emisión estimulada de radiación. Ello fue así porque Gould fue el científico que primero lo fabricó y le puso el nombre: Light Amplification by Stimulated Emission of Radiation (Amplificación de Luz por Emisión Estimulada de Radiación, LASER)[85] No obstante, fue a Charles Townes a quien le fue concedido el premio Nobel de Física en 1964. Un láser es un dispositivo que utiliza un efecto de la mecánica cuántica, la emisión inducida o estimulada, para generar un haz de luz coherente de un medio adecuado y con el tamaño, la forma y la pureza controlados. El tamaño de los láseres varía ampliamente, desde diodos láser microscópicos con numerosas aplicaciones, al láser de cristales dopados con neodimio con un tamaño similar al de un campo de fútbol, usado para la fusión de confinamiento inercial, la investigación sobre armamento nuclear u otros experimentos físicos en los que se presenten altas densidades de energía. Desde su invención en 1960 se han vuelto omnipresentes y se pueden encontrar en miles de variadas aplicaciones en cualquier sector de la sociedad actual, incluyendo campos tan dispares como la electrónica de consumo y las tecnologías de la información (sistemas de lectura digital de los discos duros, los CD y los DVD y del código de barras), hasta análisis científicos y métodos de diagnóstico en medicina, así como el mecanizado, soldadura o sistemas de corte en sectores industriales y militares.[86]

[editar] Electrificación de los ferrocarriles
Artículo principal: Locomotoras

Train à Grande Vitesse

Una de las aplicaciones más significativas de la electricidad fue la casi total electrificación de los ferrocarriles en los países más industrializados. La primera fase de este proceso, más generalizada que la segunda, fue la sustitución de las locomotoras que utilizaban carbón, por las locomotoras llamadas diésel que usan combustible obtenido del petróleo. Las locomotoras diésel-eléctricas consisten básicamente en dos componentes: un motor diésel que mueve un generador eléctrico y varios motores eléctricos (conocidos como motores de tracción) que comunican a las ruedas (pares) la fuerza tractiva que mueve a la locomotora. Generalmente hay un motor de tracción por cada eje, siendo generalmente 4 o 6 en una locomotora típica. Los motores de tracción se alimentan con corriente eléctrica y luego, por medio de engranajes , mueven las ruedas. En el caso de las locomotoras diésel no hace falta que las vías estén electrificadas, y ya se usan en casi todas las vías del mundo estén las vías electrificadas o no. El siguiente avance tecnológico fue la puesta en servicio de locomotoras eléctricas directas, las que usan como fuente de energía la energía eléctrica proveniente de una fuente externa, para aplicarla directamente a motores de tracción eléctricos. Las locomotoras eléctricas requieren la instalación de cables eléctricos de alimentación a lo largo de todo el recorrido, que se sitúan a una altura por encima de los trenes a fin de evitar accidentes. Esta instalación se conoce como catenaria. Las locomotoras toman la electricidad por un trole, que la mayoría de las veces tiene forma de pantógrafo y como tal se conoce. El coste de la instalación de alimentación hace que la tracción eléctrica solamente sea rentable en líneas de gran tráfico, o bien en vías con gran parte del recorrido en túnel bajo montañas o por debajo del mar, con dificultades para la toma de aire para la combustión de los otros tipos de motor. En los años 1980 se integraron como propulsores de vehículos eléctricos ferroviarios los motores asíncronos, y aparecieron los sistemas electrónicos de regulación de potencia que dieron el espaldarazo definitivo a la elección de este tipo de tracción por las compañías ferroviarias. Las dificultades de aplicar la tracción eléctrica en zonas con climatología extrema hacen que en esos casos, se siga utilizando la tracción diésel, ya que la nieve intensa y su filtración por ventiladores a las cámaras de alta tensión originan derivaciones de circuitos eléctricos que dejan inservibles estas locomotoras mientras dure el temporal. Las bajas temperaturas también afectan de diferente manera al cable de contacto de la catenaria que pierde la conductividad durante intervalos de tiempo. El hito de los trenes eléctricos lo constituyen los llamados trenes de alta velocidad cuyo desarrollo ha sido el siguiente: 1964 El Shinkansen o tren bala japonés fue el primer tren de alta velocidad en utilizar un trazado propio, y se inauguró para los Juegos Olímpicos de Tokio 1964. 1979 Un tren de levitación magnética se instaló por primera vez en Hamburgo para la Exhibición Internacional del Transporte (IVA 79), desarrollando patentes anteriores. Hubo pruebas posteriores de trenes similares en Inglaterra y actualmente operan comercialmente líneas en Japón y China. Se combinan con el sistema de monorraíl. 1981 El Tren de Gran Velocidad (en francés: Train à Grande Vitesse), conocido como TGV, es un tipo de tren eléctrico de alta velocidad desarrollado por la empresa francesa Alstom para hacer inicialmente el recorrido entre París y Lyon. El TGV es uno de los trenes más veloces del mundo, operando en algunos tramos a velocidades de hasta 320 km/h teniendo el récord de mayor velocidad media en un servicio de pasajeros y el de mayor velocidad en condiciones

especiales de prueba. En 1990 alcanzó la velocidad de 515,3 km/h, y en el 2007 superó su propio registro al llegar a los 574,8 km/h en la línea París-Estrasburgo.[87]

[editar] Electromedicina
Artículo principal: Electromedicina Artículo principal: Radiología

Imagen radiológica en 3D

1895. Los rayos X fueron descubiertos en 1895 por el físico alemán Wilhelm Röntgen, quien descubrió que el bombardeo de átomos metálicos con electrones de alta velocidad produce la emisión de radiaciones de gran energía. Combinados con las tecnologías de la fotografía, los rayos X permitieron obtener imágenes de partes interiores del cuerpo humano antes inaccesibles sin mediar cirugía. A partir de ese momento se convirtieron en imprescindibles medios de diagnóstico, formando parte esencial del campo denominado electromedicina. Su uso principal en diagnóstico médico, por ser las más fáciles de visualizar, fue la observación de las estructuras óseas. A partir de la generalización de esta práctica se desarrolló la radiología como especialidad médica que emplea la radiografía como medio de diagnóstico, que sigue siendo el uso más extendido de los rayos X. En desarrollos posteriores se añadieron la tomografía axial computarizada (TAC, en 1967, por un equipo dirigido por los ingenieros Godfrey Newbold Hounsfield y Allan M. Cormack, premios Nobel de Medicina en 1979), la resonancia magnética (descubierta como principio en 1938 y aplicada a la imagen de diagnóstico por Paul Lauterbur y Peter Mansfield, premios Nóbel de 2003) y la angiografía (utilizada desde 1927 por el portugués Egas Moniz, ganador del premio Nobel en 1949, y desarrollada de forma más segura por la técnica Seldinger desde 1953); así como la utilización terapéutica de la radioterapia. Los ultrasonidos fueron utilizados por primera vez en medicina por el estadounidense George Ludwig, a finales de los años 1940, mientras que la ecografía fue desarrollada en Suecia por los cardiólogos Inge Edler y Carl Hellmuth Hertz (hijo y sobrino nieto de los famosos físicos), y en el Reino Unido por Ian Donald y el equipo de ginecología del hospital de Glasgow. Se aplican otras tecnologías electromédicas en la cardiología, tanto en diagnóstico (electrocardiograma, utilizado desde 1911, que valió el premio Nobel de 1924 a Augustus

Waller) como en tratamientos (desfibrilador) y prótesis: (los marcapasos y el corazón artificial). También en áreas como los problemas de audición (mediante los audífonos) o el diagnóstico y tratamiento de problemas neurológicos y neurofisiológicos. Se han equipado los quirófanos y unidades de rehabilitación y cuidados intensivos (UVI) o (UCI) con equipos electrónicos e informáticos de alta tecnología. Se han mejorado los equipamientos que realizan análisis clínicos y se han desarrollado microscopios electrónicos de gran resolución.
Véase también: resonancia magnética, electroterapia, neurología y rayos X

[editar] Telecomunicaciones e Internet
Artículo principal: Telecomunicación Artículo principal: Internet

Satélite de comunicaciones

1969 El auge de las telecomunicaciones empieza cuando se sitúan en el espacio exterior los primeros satélites de comunicaciones, satélites artificiales situados en órbita alrededor de la Tierra que transmiten ondas electromagnéticas; pero este punto culminante tuvo su prehistoria: El término telecomunicación fue definido oficialmente por primera vez en 1932 durante una conferencia internacional que tuvo lugar en Madrid ("toda transmisión, emisión o recepción, de signos, señales, escritos, imágenes, sonidos o informaciones de cualquier naturaleza por hilo, radioelectricidad, medios ópticos u otros sistemas electromagnéticos").[88] La base matemática sobre la que se desarrollan las telecomunicaciones dependientes de la electricidad es muy anterior: fue desarrollada por Maxwell, quien ya predijo que era posible propagar ondas por el espacio libre utilizando descargas eléctricas (prefacio de Treatise on Electricity and Magnetism, 1873), hecho que corroboró Heinrich Hertz con el primer transmisor de radio generando radiofrecuencias entre 31 MHz y 1.25 GHz (1887). No obstante, el inicio de la era de la comunicación rápida a distancia ya había comenzado en la primera mitad del siglo XIX con el telégrafo eléctrico, al que se añadieron más tarde el teléfono y la revolución de la comunicación inalámbrica con las ondas de radio. A principios del siglo XX apareció el teletipo que, utilizando el código Baudot, permitía enviar y recibir texto en algo parecido a una máquina de escribir. En 1921 la wirephoto o telefoto permitió transmitir imágenes por teléfono (ya se había hecho telegráficamente desde la Exposición Universal de Londres de 1851 y comercialmente desde 1863), y a partir de entonces se comercializó el fax por AT&T. Esta misma compañía norteamericana desarrolló desde 1958 distintos tipos de aparatos digitales precedentes del módem para las comunicaciones telefónicas, que más tarde se aplicaron a la

transmisión de datos entre computadoras y otros dispositivos. En los años 1960 comienza a ser utilizada la telecomunicación en el campo de la informática con el uso de satélites de comunicación y las redes de conmutación de paquetes. Un satélite actúa básicamente como un repetidor situado en el espacio: recibe las señales enviadas desde la estación terrestre y las reemite a otro satélite o de vuelta a los receptores terrestres. Los satélites son puestos en órbita mediante cohetes espaciales que los sitúan circundando la Tierra a distancias relativamente cercanas fuera de la atmósfera. Las antenas utilizadas preferentemente en las comunicaciones vía satélites son las antenas parabólicas, cada vez más frecuentes en las terrazas y tejados de nuestras ciudades. Tienen forma de parábola y la particularidad de que las señales que inciden sobre su superficie se reflejan e inciden sobre el foco de la parábola, donde se encuentra el elemento receptor. Con la puesta en marcha de los satélites de comunicaciones ha sido posible disponer de muchos canales de televisión, el impresionante desarrollo de la telefonía móvil y de Internet. Internet es un método de interconexión descentralizada de redes de computadoras implementado en un conjunto de protocolos denominado TCP/IP y garantiza que redes físicas heterogéneas funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, EE. UU.. El siglo XXI está viviendo los comienzos de la interconexión total a la que convergen las telecomunicaciones, a través de todo tipo de dispositivos cada vez más rápidos, más compactos, más poderosos y multifuncionales. Ya no es necesario establecer enlaces físicos entre dos puntos para transmitir la información de un punto a otro. Debido a la gran velocidad de propagación de las ondas electromagnéticas, los mensajes enviados desde cualquier punto de la superficie terrestre o de su atmósfera se reciben casi simultáneamente en cualquier otro.

[editar] Véase también
• • • Electricidad Historia de la electricidad en España Electromecánica

[editar] Bibliografía
• • Varios autores (1984). Enciclopedia de Ciencia y Técnica. Tomo V Electricidad. Salvat Editores S.A. ISBN 84-345-4490-3. Miguel Ángel Quintanilla y José Manuel Sánchez Ron (1998) Ciencia, Tecnología y Sociedad, Madrid : Santillana, ISBN 84-294-4976-0

[editar] Referencias
1. ↑ Bullock, Theodore H. (2005), Electroreception, Springer, pp. 5–7, ISBN 0387231927

Morris, Simon C. (2003), Life's Solution: Inevitable Humans in a Lonely Universe, Cambridge University Press, pp. 182–185, ISBN 0521827043
2. ↑ Frood, Arran (27 de febrero de 2003), Riddle of 'Baghdad's batteries', BBC, http://news.bbc.co.uk/1/hi/sci/tech/2804257.stm, consultado el 2008-02-16

3. ↑ Frase muy citada, aquí glosada por Slavoj Žižek Lenin ciberespacial: ¿por qué no? International Socialism N° 95, 2002. 4. ↑ Marshall McLuhan (1964) Understanding Media, p.13; Reversal of the Overheated Medium, pg. 36 [1] 5. ↑ El primer uso en inglés se debe a Sir Thomas Browne , en Pseudodoxia Epidemica, 1646. 6. ↑ Biografía de William GilbertInglés [14-5-2008] 7. ↑ Biografía de Otto von Guericke (en inglés) [14-5-2008] 8. ↑ Quintanilla y Sánchez Ron, op. cit, especialmente Ilustración y Revolución Industrial, pg. 26. 9. ↑ Biografía de Stephen Gray Inglés [15-4-2008] 10.↑ Biografía de Pieter van Musschenbroek Física.net [14-5-2008] 11.↑ Biografía de William Watson Inglés [14-5-2008] 12.↑ Biografía de Benjamin Franklin usembassy-mexico.gov.[14-5-2008] 13.↑ Biografía de Charles-Augustin de Coulomb.www.geocities.com [14-52008] 14.↑ Biografía de Luigi Galvani Epónimos médicos. Historia de la medicina. [14-5-2008] 15.↑
a b

Biografía de Alessandro Volta Astrocosmo Chile. [15-5-2008]

16.↑ a b Quintanilla y Sánchez Ron, op. cit., especialmente Electromagnetismo y sociedad, pgs.38-46 17.↑ Biografía de Humpry Davy Inglés. Chemical heritage.org. [15-5-2008] 18.↑ Biografía de Hans Christian Ørsted Museo virtual de ciencia. csic.[15-52008] 19.↑ Biografía de Thomas Johann Seebeck Fisicanet [15-5-2008] 20.↑ Biografía de André-Marie Ampére Astrocosmo Chile. [15-5-2008] 21.↑ Biografía de William Sturgeon Inglés. [15-5-2008] 22.↑ Biografía de Georg Simon Ohm Asifunciona.com [15-5-2008] 23.↑ Biografía de Joseph Henry Fisica.net [31-5-2008] 24.↑ Biografía de Johann Carl Friedrich Gauss (en nglés) [31-5-2008] 25.↑ Biografía de Michael Faraday Astrocosmo.cl. [15-5-2008] 26.↑ Biografía de Heinrich Friederich Lenz geocities.com [17-5-2008] 27.↑ Módulos termoeléctricos Peltier Monografías.com [15-5-2008] 28.↑ Biografía de Samuel Finley Breese Morse Bluesilver.rog [16-5-2008] 29.↑ Biografía de Ernst Werner von Siemens Biografíasy vidas.com [10-52008] 30.↑ Biografía de Charles Wheatstone Buscabiografías.com [16-5-2008] 31.↑ Biografía de James Prescott Joule (en inglès) Geocities.com[16-5-2008] 32.↑ Biografía de Gustav Robert Kirchhoff física.net [17-5-2008]

33.↑ Biografía de William Thomson (Lord Kelvin) Biografías y vida.com [175-2008] 34.↑ Biografía de Heinrich Daniel Ruhmkorff (en inglés) people.clarkson.edu [19-5-2008] 35.↑ Biografía de León Foucault Biografica.info [17-5-2008] 36.↑ Biografía de Zenobe Gramme (en inglés), chem.ch [17-5-2008] 37.↑ Biografía de Johann Wilhelm Hittorf Biografíasyvidas.com [30-5-2008] 38.↑ Biografía de James Clerk Maxwell Astrocosmo.cl [17-5-2008] 39.↑ Entre el 1 de agosto y el 15 de noviembre y el segundo del 15 de septiembre al 19 de octubre. (en francés) Exposition internationale d'électricité 40.↑ Alejandro Graham Bell. Cabezas, José Antonio. Susaeta Ediciones S.A Vidas Ilustres Barcelona, España ISBN 84-305-1109-1 pg,20. "El Comité de Recompensas de la Exposición (Exposición Conmemorativa del Primer Centenario de la Independencia Norteamericana) estudia detenidamente el aparato, que ya había sido patentado por Bell en 1876 con el número 174.465." 41.↑ «Historia de la National Geographic Society ¿Qué es NG?» (en español). Consultado el 2008-03-26. Martínez Domínguez FernandoBiografía de Alexander Graham Bell geocities.com [17-5-2008] 42.↑ Biografía de Thomas Alva Edison asifunciona.com [23-5-2008] 43.↑ Ley de Hopkinsonmembers.fotunecity.es. Magnetismo [19-5-2008] 44.↑ Biografía de John Hopkinson (en inglés) [19-5-2008] 45.↑ Biografía de Heinrich Rudolf Hertz Histel.com [19-5-2008] 46.↑ Biografía de George Westinghouse biográfica info [4-6-2008] 47.↑ Gonzalo Ugidos Tesla, un genio tomado por loco, El Mundo, 25 de mayo de 2008. 48.↑ Biografía de Nicola Tesla Microsiervos.com [18-5-2008] 49.↑ Biografía de Charles Proteus Steinmetz 100ciaquimica.net [19-5-2008] 50.↑ Biografía de Wilhelm Conrad Röntgen historiadelamedicina.org [20-52008] 51.↑ Biografía de Michael Idvorsky Pupin Biografíasy vidas.com [21-5-2008] 52.↑ Biografía de Joseph John Thomson (en inglés) nobelprize.org [19-52008] 53.↑ Historia del cine Ministerio de Educación y Ciencia España. [22-52008] 54.↑ Biografía de Guglielmo Marconi histel.com [21-5-2008] 55.↑ Biografía de Peter Cooper Hewitt (en inglés) ringwoodmanor.com [205-2008] 56.↑ Biografía de Gottlob Honold (en inglés) Breve historia de Bosch. bosch.com [20-5-2008]

57.↑ Bryson, Bill (2003-05-06). A Short History of Nearly Everything. Broadway Books. ISBN 0767908171. 58.↑ Quintanilla y Sánchez Ron, op. cit., especialmente Los antecedentes de la "Gran Ciencia", pg 76. 59.↑ Biografía de Hendrik Antoon Lorentz astrocosmo.cl [20-5-2008] 60.↑ Biografía de Albert Einstein Astrocosmo.cl [22-5-2008] 61.↑ Biografía de Robert Andrews Millikan (en inglés) nobelprize.org [20-52008] 62.↑ Biofrafía de Heike Kamerlingh Oanes (en inglés) nobelprize.org [20-52008] 63.↑ Biografía de Vladimir Zwirykin Orellana.free.fr.[10-6-2008] 64.↑ Donna HalperBiografía de Edwin Howard Armstrong olradio.com[21-52008] 65.↑ Bill Penley (2002):Early Radar History - an Introduction. 66.↑ Albert Abramson, The History of Television, 1942 to 2000, Jefferson, NC, and London, McFarland, 2003, ISBN 0786412208; Albert Abramson: "Zworykin, Pioneer of Television", University of Illinois Press, Champaign, 1995; Biblioteca Luis Arango. 67.↑ Historia de la computción sipan.inictel.gob.pe [30-5-2008] 68.↑ Rolón González, Oscarh[ttp://www.monografias.com/trabajos46/lainformatica/la-informatica3.shtml EDVAC Artículo técnico] Monografías.com [31-5-2008] 69.↑ Biografía de Walter Houser Brattain (en inglés).nobelprize.org [21-52008] 70.↑ González Gómez, JuanCircuitos y sistemas digitales Universidad Pontificia de Salamanca Madrid. [24-5-2008] 71.↑ Martinez Domínguez. FernandoBiografía de Jonh Bardeen Historia de la electricidad. [21-5-2008] 72.↑ «On This Day: 17 October». BBC News. Consultado el 2006-11-09. 73.↑ IAEA (2007). ENERGY, ELECTRICITY AND NUCLEAR POWER: DEVELOPMENTS AND PROJECTIONS — 25 YEARS PAST AND FUTURE. IAEA. ISBN 978-92-0-107407-2. (en inglés) 74.↑ Lester Allan Pelton - Water Turbines and the Beginnings of Hydroelectricity inventors,about.com [5-6-2008] 75.↑ Rafael Alejo García-Mauricio Centrales hidroeléctricas.thales.coca.es [5-6-2008] 76.↑ Godalming - Electricity Transcripción de documentos del museo de Goldaming. [5-6-2008] 77.↑ Historia de la electricidad. Pioneros en acenor.cl [5-6-2008] 78.↑ Edison's Power Plant lowermanhattan,info [5-6-2008] 79.↑ Historia de la tecnología fotovoltaica ceit.es [5-6-2008]

80.↑ Pilas de combustible de hidrógeno Artículo técnico fecyt.es [30-52008] 81.↑ Información general sobre autómatas programables Automátas.org [30-5-2008] 82.↑ National Inventors Hall of Fame Foundation (2007), John T. Parsons (en inglés), en invent.org. [19-4-2008] 83.↑ Biografía de Isaac Asimov biografíasyvidas.com [30-5-2008] 84.↑ Pérez Cordero, Víctor HugoLa robótica Geocities.com [26-5-2008] 85.↑ Alboites, VicenteArtículo técnico sobre el LASER omega.ilce.edu.mex [30-5-2008] 86.↑ Biografía de Charles hard Townes Inglés nobelprize.org[22-5-2008] 87.↑ Historia de la tracción eléctrica gitel unizar.es [1-6-2008] 88.↑ Reunión conjunta en Madrid de la XIII Conferencia de la UTI (Unión Telegráfica Internacional) y la III de la URI (Unión Radiotelegráfica Internacional) que a partir de entonces se fusionario en la Unión Internacional de Telecomunicaciones (ITU), 3 de septiembre de 1932.

[editar] Enlaces externos
• • • • Wikimedia Commons alberga contenido multimedia sobre Historia de la electricidad.Commons Historia de la electricidad Electricidad y magnetismo Historia de la electricidad YouTube

[editar] Vídeos

Obtenido de "http://es.wikipedia.org/wiki/Historia_de_la_electricidad" Categorías: Electricidad | Historia de la ciencia | Historia de la tecnología | Personas relacionadas con la electricidad Categoría oculta: Wikipedia:Artículos destacados
Vistas

• • • • • •

Artículo Discusión Editar Historial Probar Beta

Herramientas personales

Registrarse/Entrar
Principio del formulario

Buscar

Ir

Buscar

Final del formulario

Navegación

• • • • • • • • • • • • • • • • • • • • • • • • •

Portada Portal de la comunidad Actualidad Cambios recientes Página aleatoria Ayuda Donaciones Crear un libro Descargar como PDF Versión para imprimir Lo que enlaza aquí Cambios en enlazadas Subir archivo Páginas especiales Enlace permanente Citar este artículo Català English ‫فارسی‬ Suomi Français Italiano Português Svenska தமிழ்

Imprimir/exportar

Herramientas

En otros idiomas

• •

Esta página fue modificada por última vez el 12:39, 27 ene 2010. El texto está disponible bajo la Licencia Creative Commons Reconocimiento Compartir Igual 3.0; podrían ser aplicables cláusulas adicionales. Lee los términos de uso para más información. Política de privacidad Acerca de Wikipedia Descargo de responsabilidad

• • •

La diferencia del circuito eléctrico con un circuito electrónico, radica en que en éste se ejerce un control sobre el flujo de la corriente de alguna manera. Hasta aquí no se ha dicho nada nuevo, pues basta poner un apagador o interruptor, para dejar pasar o no la corriente por un bombillo o foco. (de ésta manera estaríamos "controlando" flujo de corriente que atraviesa el bombillo) La diferencia más importante radica en el "como" se logra controlar este flujo de corriente. Un circuito electrónico es aquel, donde se controla un flujo de corriente eléctrica mediante otra señal eléctrica, pudiendo ser ésta otro flujo de corriente eléctrica o una voltaje fijo. En otras palabras: En un circuito electrónico...

La electricidad es capaz de controlar electricidad.
Históricamente la era electrónica se inicia con el tubo Audion. Este dispositivo controlaba el flujo de un rayo de electrones, que viajaba en el vacío, entre dos electrodos (estructuras metálicas dentro del tubo entre las cuales había una diferencia de voltaje). En el año 1948 se inventó el transistor. Un pequeño dispositivo por todos conocido, con efectos muy parecidos a los del tubo Audion, pero de dimensiones mucho más pequeñas. El transistor controla el flujo de los electrones a través de un material semiconductor en vez de hacerlo en el vacío. A este tipo de electrónica también de le llama Electrónica de estado sólido. Un transistor controla el flujo de la corriente por medio de corriente o voltaje, en cambio un tubo al vacío, controla el flujo de la corriente por medio solamente de voltaje.

Electrónica y electricidad
¿Cuál es la diferencia?, Te lo preguntaste alguna vez?, he aquí la respuesta: Electrónica: Utiliza los fenómenos eléctricos para trasladar información audible, visual, etc., esta se canaliza a través de una corriente eléctrica a base de cambios en sus características los cuales se codifican, estos pueden ser amperaje, voltaje, frecuencia, fase, etc. Cuando el amperaje o el voltaje se alteran de forma controlada para conducir en forma codificada cierta información reciben el nombre de señales. Electricidad : Esta aprovecha los fenómenos eléctricos para obtener energía o potencia con las cuales podemos "mover" cualquier aparato eléctrico. El hecho de pertenecer a este mundo nos compromete a conocer lo que en el sucede. La electrónica es base fundamental en los avances que se han establecido y no se detienen; por lo mismo debemos estar al tanto y saber un poco más cada día. Este

sitio no pretende ser el mejor, pero si contribuir en algo con los amantes de esta ciencia. El contenido esta dedicado especialmente a los estudiantes de electrónica, a los que la practican como hobby y porque no, a los colegas técnicos que algo interesante pueden encontrar en el. Se incluyen diagramas de circuitos electrónicos, desde el más simple hasta unos más complejos no dejando por un lado, las instrucciones para su ensamble. Además incluyo temas relacionados, como por ejemplo, sobre como está constituido un transistor, tiristores, fet, ujt, etc. Y se podrán trasladar a sitios de interés, ya sea relacionados con la electrónica o bien, otros temas. Les agradeceria que toda consulta se haga a través del foro, ya que en ocasiones me es imposible atenderlas con prontitud, y en el foro, alguien puede hacerlo antes que yo. De antemano, gracias.

Las elecciones a steward de la Fundación Wikimedia para el 2010 han comenzado. Vota por favor.

[Contraer] [Ayúdanos traduciendo.]

Red de distribución de energía eléctrica
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

La Red de Distribución de la Energía Eléctrica o Sistema de Distribución de Energía Eléctrica es un subsistema del Sistema Eléctrico de Potencia cuya función es el suministro de energía desde la subestación de distribución hasta los usuarios finales (medidor del cliente). Los elementos que conforman la red o sistema de distribución son los siguientes: Subestación de Distribución de casitas: conjunto de elementos (transformadores, interruptores, seccionadores, etc.) cuya función es reducir los niveles de alta tensión de las líneas de transmisión (o subtransmisión) hasta niveles de media tensión para su ramificación en múltiples salidas.
• • Circuito Primario: Circuito Secundario:

La distribución de la energía eléctrica desde las subestaciones de transformación de la red de transporte se realiza en dos etapas. La primera está constituida por la red de reparto, que, partiendo de las subestaciones de transformación, reparte la energía, normalmente mediante anillos que rodean los grandes centros de consumo, hasta llegar a las estaciones transformadoras de distribución. Las tensiones utilizadas están comprendidas entre 25 y 132 kV. Intercaladas en estos anillos están las estaciones transformadoras de distribución, encargadas de reducir la tensión desde el nivel de reparto al de distribución en media tensión.

La segunda etapa la constituye la red de distribución propiamente dicha, con tensiones de funcionamiento de 3 a 30 kV y con una característica muy radial. Esta red cubre la superficie de los grandes centros de consumo (población, gran industria, etc.), uniendo las estaciones transformadoras de distribución con los centros de transformación, que son la última etapa del suministro en media tensión, ya que las tensiones a la salida de estos centros es de baja tensión (125/220 ó 220/380 V[1] ). La líneas que forman la red de distribución se operan de forma radial, sin que formen mallas, al contrario que las redes de transporte y de reparto. Cuando existe una avería, un dispositivo de protección situado al principio de cada red lo detecta y abre el interruptor que alimenta esta red. La localización de averías se hace por el método de "prueba y error", dividiendo la red que tiene la avería en dos mitades y energizando una de ellas; a medida que se acota la zona con avería, se devuelve el suministro al resto de la red. Esto ocasiona que en el transcurso de localización se pueden producir varias interrupciones a un mismo usuario de la red.

Contenido
[ocultar] • 1 Topologías típicas de redes de distribución ○ 1.1 Red radial o redes en antena   ○   ○ •  ○ ○ ○ • • • 1.1.1 Ventajas 1.1.2 Desventajas 1.2.1 Ventajas 1.2.2 Desventajas 1.3.1 Ventajas

1.2 Red en bucle abierto

1.3 Red en anillo o en bucle cerrado

2 Criterios para diseño de redes de distribución 2.1 Regulación 2.2 Criterio económico 2.3 Corrientes de cortocircuito

3 Sistema de protecciones 4 Equipos utilizados en redes de distribución 5 Requerimientos regulados para distribución en algunos países ○ 5.1 Colombia 6 Notas 7 Véase también

• •

Topologías típicas de redes de distribución [editar]
La topologia de una red de distribucion se refiere al esquema o arreglo de la distribucion, esto es la forma en que se distribuye la energia por medio de la disposicion de los segmentos de los circuitos de distribucion. En este sentido se enfoca a la forma como se distribuye la energia a partir de la fuente de suministro.

Red radial o redes en antena [editar]
Se caracteriza por la alimentación por uno solo de sus extremos transmitiendo la energía en forma radial a los receptores y el emisor. Ventajas [editar] resaltan su simplicidad y la facilidad que presentan para ser equipadas de protecciones selectivas. Desventajas [editar] Su falta de garantía de servicio. Estas desventajas pueden ser compensadas en la actualidad con los dispositivos modernos de desconexión automática de la zona en falla llamados "Organos de Corte de Red" o la utilización de los dispositivos llamados "Reconectadores" que desconectan y cierran la zona en falla, procurando de esa manera despejar la zona en falla y volver el servicio sobre la línea completa

Red en bucle abierto [editar]
Esto significa que cualquier punto de consumo, en esta estructura, puede ser alimentado por dos posibles caminos eléctricos, dado que uno solo de estos dos caminos es efectivo, la emergencia se realiza mediante esta posibilidad de bucle. Ventajas [editar] Todas las ventajas de la distribución en redes radiales y además la posibilidad de alimentar alternativamente de una fuente u otra, con lo que ante situaciones de falta y utilizando los OCR y Reconectadores, quedaría siempre fuera de servicio la zona en falta más pequeña posible y el resto de la línea en servicio Desventajas [editar] si la estructura esta alejada del pararrayos la electricidad seria dirigida a las puntas de la tierra lo cual afectaría a las estructuras cercanas

Red en anillo o en bucle cerrado [editar]
se caracteriza por tener dos de sus extremos alimentados, quedando estos puntos intercalados en el anillo o bucle. Ventajas [editar] Como ventaja fundamental podemos citar su seguridad de servicio y facilidad de mantenimiento

Criterios para diseño de redes de distribución [editar]

Regulación [editar]

La regulación se relaciona con la caída de tensión en los conductores de una red determinada, en generadores y transformadores eléctricos. No resulta conveniente que haya una caída de tensión excesiva en el conductor por que el usuario final o transformador de MT a BT tensión estaría alimentado por un valor reducido de tensión muy distinto al valor asignado. Existen básicamente dos definiciones de regulación, dependiendo del país donde se haga la instalación:
• Normativa estadounidense: la regulación se define como sigue:

V2n es la tensión en bornes de la carga o transformador
• Normativa europea (IEC): la regulación es definida como:

donde: V1n es la tensión aguas arriba de la carga o transformador, es decir en el alimentador La regulación dada por IEC es mayor que la normativa americana.

Criterio económico [editar] Corrientes de cortocircuito [editar]
Las corrientes de cortocircuito para faltas fase a fase estarán limitadas únicamente por las impedancias de la fuente, de la línea, y de la propia falta, así aque en la medida que la fuente disponga de más potencia de cortocircuito circulará por la línea mayor corriente. Las corrientes de cortocircuito fase a tierra, están limitadas por todas las razones anteriores pero además por el sistema de puesta a tierra del neutro de la Red. Existen varias formas de hacerlo. Aislado. Que producen las mínimas corrientes y máximas sobretensiones, quizá recomendable para distribuciones no muy extensas y que la necesidad de continuar con la línea en falta en servicio sea imperiosa. La detección de la falta de una forma selectiva tiene cierta complicación. No obstante, se recomienda que se haga la transferencia a una línea sana en el menor tiempo posible. Puesto directamente a tierra. Que producen las máximas corrientes y mínimas sobretensiones, quizá recomendable para distribuciones extensas y que puedan ser seccionadas mediante dispositivos semiautomáticos o automáticos. La detección selectiva de la falta resulta fácil, con lo que unido al uso de dispositivos automáticos "Reconectadores", se dejaría fuera de servicio la zona en falta. Otras formas intermedias de tratamiento del neutro, "PaT resistivo", "PaT inductivo", "Corriente muy limitada a unos pocos amperios" "Corriente menos limitada a unos cientos de amperios", "Corriente muy limitada a unos pocos amperios y conectándola casi directamente a tierra durante pequeño espacio de tiempo", etc.,etc. todos ellos se pueden acercar más al sistema aislado o al sistema puesto a tierra y cada diseñador de la Red debe sopesar detenidamente las desventajas y ventajas de cada sistema en su caso particular.

Hay que tener en cuenta que la correcta elección es muy importante ya que pasados unos años seá muy difícil reestructurar la Red para cambiar el sistema de puesta a tierra

Sistema de protecciones [editar]
Conductores preaislados, Fusibles, Seccionadores en carga, Seccionalizadores, Organos de Corte de Red, Reconectadores, Interuptores, Pararrayos antena, Pararrayos autovávulas. Protecciones secundarias asociadas a tranformadores de medida, como son Relés de Protección

Equipos utilizados en redes de distribución [editar] Requerimientos regulados para distribución en algunos países [editar]

Colombia [editar]
En Colombia los sistemas de distribución, como todo lo relacionado con los sistemas de potencia, esta regulado por la Comisión de Energía y Gas (CREG). En resolución 70 del 28 de mayo de 1998 se establecen los siguientes niveles de tensión, en los cuales se realizan las instalaciones de distribución y transmisión:
• • • • Nivel de tensión I: tensiones inferiores a 1 kV Nivel de tensión II: tensiones comprendidas entre 1 a 30 kV Nivel de tensión III: tensiones comprendidas entre 30 kV y 62 kV Nivel de tensión IV: tensiones de valor mayor a 62 kV

Notas [editar]
1. ↑ El nuevo Reglamento Electrotécnico de Baja Tensión exige tensiones de distribución en baja tensión de 230/400 V.

Véase también [editar]
• Electricidad Obtenido de "http://es.wikipedia.org/wiki/Red_de_distribuci%C3%B3n_de_energ %C3%ADa_el%C3%A9ctrica" Categoría: Red eléctrica
Vistas

• • • • • •

Artículo Discusión Editar Historial Probar Beta

Herramientas personales

Registrarse/Entrar

Buscar
Principio del formulario

Ir

Buscar

Final del formulario

Navegación

• • • • • • • • • • • • • • • • •

Portada Portal de la comunidad Actualidad Cambios recientes Página aleatoria Ayuda Donaciones Crear un libro Descargar como PDF Versión para imprimir Lo que enlaza aquí Cambios en enlazadas Subir archivo Páginas especiales Enlace permanente Citar este artículo English

Imprimir/exportar

Herramientas

En otros idiomas

• •

Esta página fue modificada por última vez el 08:16, 30 ene 2010. El texto está disponible bajo la Licencia Creative Commons Reconocimiento Compartir Igual 3.0; podrían ser aplicables cláusulas adicionales. Lee los términos de uso para más información.

• • •

Política de privacidad Acerca de Wikipedia Descargo de responsabilidad

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->