Documentos de Académico
Documentos de Profesional
Documentos de Cultura
INTRODUCCIÓN
A LA INGENIERIA ELÉCTRICA
Asignatura: Introducción a la Ingeniería Eléctrica
PRESENTACIÓN
Este manual está destinado a todos aquellos que emprenden el estudio sistemático del
curso de Introducción a la Ingeniería Eléctrica y sus aplicaciones en las carreras que
ofrece la Universidad.
La necesidad de atender las demandas de una sociedad en constante cambio e
innovación, así como el reconocimiento de la creciente contribución de las matemáticas a
la cultura del mundo moderno, requiere de los maestros una cuidadosa selección de los
contenidos de matemática fundamental que deben ser desarrollados en el período de
formación básica del estudiante universitario del primer nivel de los estudios generales y
sobre todo para los estudiantes que tienen experiencia laboral.
Una educación adecuada a nuestro tiempo implica tanto contenidos, como una
presentación y desarrollo apropiados, que permitan al estudiante alcanzar una
comprensión y visión más cabal de la ingeniería eléctrica, y apreciar su importancia como
parte esencial de la educación humanística y científica.
Por todo ello, la presente consta de un curso teórico-práctico, aplicados a los cursos
generales de las carreras de la Universidad Continental, que estoy seguro, servirá a
los estudiantes para coronar sus conocimientos.
Los problemas y los ejercicios han sido especialmente escogidos para cada parte del
curso. Suficientemente numerosos, contribuyen a la asimilación del material teórico y
convierten en útil, en buena parte, la utilización de una colección de ejercicios. Esto
contribuye a reforzar el carácter práctico de este manual para el estudio autodidáctico.
Toda la materia es presentada en trece capítulos. Sin embargo, podemos decir que todos
son de suma importancia que permite tomar decisiones sobre aplicaciones en la sociedad
y la ingeniería eléctrica.
Para terminar, creo, que es el mejor modo de aporte al avance científico en la época
actual, así como el enfoque seguido para su desarrollo, sirvan de estímulo para idear
nuevos caminos hacia una enseñanza más inspirada, creativa y significativa.
Espero haber cumplido con las expectativas personales cifradas en la presente obra, no
sin antes reconocer el importante aporte de los señores autores de los textos que figuran
en la bibliografía y las sugerencias y críticas de los estudiantes y profesionales a quienes
tuve el honor de enseñar.
El autor.
ÍNDICE
Pág.
PRESENTACIÓN 3
ÍNDICE 4
PRIMERA UNIDAD
Capítulo 1
Generalidades 6
Capítulo 2
Historia de la Ingeniería 11
Capítulo 3
Ciencia – tecnología 27
Capítulo 4
Cualidades del Ingeniero Competente 34
Capítulo 5
Métodos de Resolución de Problemas 40
Capítulo 6
Proceso de Diseño en la Ingeniería 60
Capítulo 7
El Informe Técnico 64
SEGUNDA UNIDAD
Capítulo 8
Circuitos Eléctricos 67
Capítulo 9
Fuentes de Generación 97
Capítulo 10
Líneas de Transmisión 105
Capítulo 11
Planeamiento de los Sistemas de Distribución 126
UNIDAD I
INICIACIÓN AL ESTUDIO
INTRODUCCIÓN A LA INGENIERÍA
ELÉCTRICA
¿QUÉ OPINAS?
Capítulo 1
Generalidades
La ingeniería es el conjunto de conocimientos y técnicas científicas aplicadas, que se dedica a la
resolución u optimización de los problemas que afectan directamente a la humanidad.
En ella, el conocimiento, manejo y dominio de las matemáticas y física, obtenido mediante estudio,
experiencia y práctica, se aplica con juicio para desarrollar formas eficientes de utilizar los
materiales y las fuerzas de la naturaleza para beneficio de la humanidad y del ambiente.
Pese a que la ingeniería como tal (transformación de la idea en realidad) está intrínsecamente
ligada al ser humano, su nacimiento como campo de conocimiento específico viene ligado al
comienzo de la revolución industrial, constituyendo uno de los actuales pilares en el desarrollo de
las sociedades modernas.
Otro concepto que define a la ingeniería es el saber aplicar los conocimientos científicos a la
invención, perfeccionamiento o utilización de la técnica en todas sus determinaciones. Esta
aplicación se caracteriza por utilizar principalmente el ingenio de una manera más pragmática y
ágil que el método científico, puesto que una actividad de ingeniería, por lo general, está limitada a
un tiempo y recursos dados por proyectos. El ingenio implica tener una combinación de sabiduría
e inspiración para modelar cualquier sistema en la práctica.
1.1 ETIMOLOGÍA
1.2 EL INGENIERO
En general, los ingenieros intentan probar si sus diseños logran sus objetivos antes de proceder a
la producción en cadena. Para ello, emplean entre otras cosas prototipos, modelos a escala,
simulaciones, pruebas destructivas y pruebas de fuerza. Las pruebas aseguran que los artefactos
funcionarán como se había previsto.
Para hacer diseños estándar y fáciles, las computadoras tienen un papel importante. Utilizando los
programas de diseño asistido por ordenador (DAO, más conocido por CAD, Computer-Aided
Design), los ingenieros pueden obtener más información sobre sus diseños. El ordenador puede
traducir automáticamente algunos modelos en instrucciones aptas para fabricar un diseño. La
computadora también permite una reutilización mayor de diseños desarrollados anteriormente,
mostrándole al ingeniero una biblioteca de partes predefinidas para ser utilizadas en sus propios
diseños.
Los ingenieros deben tomar muy seriamente su responsabilidad profesional para producir diseños
que se desarrollen como estaba previsto y no causen un daño inesperado a la gente en general.
Normalmente, los ingenieros incluyen un factor de seguridad en sus diseños para reducir el riesgo
de fallos inesperados.
La ciencia intenta explicar los fenómenos recientes y sin explicación, creando modelos
matemáticos que correspondan con los resultados experimentales. Tecnología e ingeniería
constituyen la aplicación del conocimiento obtenido a través de la ciencia, produciendo resultados
prácticos. Los científicos trabajan con la ciencia y los ingenieros con la tecnología. Sin embargo,
puede haber puntos de contacto entre la ciencia y la ingeniería. No es raro que los científicos se
vean implicados en las aplicaciones prácticas de sus descubrimientos. De modo análogo, durante
el proceso de desarrollo de la tecnología, los ingenieros se encuentran a veces explorando nuevos
fenómenos.
También puede haber conexiones entre el funcionamiento de los ingenieros y los artistas,
principalmente en los campos de la arquitectura y del diseño industrial.
Existe asimismo alguna otra creencia en la forma de entender al ingeniero del siglo XXI, ya que las
raíces de este término no quedan claras, porque el termino ingeniero es un anglicismo proveniente
de "engineer", que proviene de engine, es decir máquina.
En algunos países, como España, existen técnicos que se dedican a labores de ingeniería: los
ingenieros técnicos. Esa división de las profesiones liberales de construcción se aplica también a
la arquitectura, existiendo arquitectos, de nivel de grado universitario y su versión terciaria o
técnica, el arquitecto Técnico.
A inicios del siglo XXI la ingeniería en sus muy diversos campos ha logrado explorar los planetas
del Sistema Solar con alto grado de detalle, destacan los exploradores que se introducen hasta la
superficie planetaria; también ha creado un equipo capaz de derrotar al campeón mundial de
ajedrez; ha logrado comunicar al planeta en fracciones de segundo; ha generado el internet y la
capacidad de que una persona se conecte a esta red desde cualquier lugar de la superficie del
planeta mediante una computadora portátil y teléfono satelital; ha apoyado y permitido
Pese a los avances de la ingeniería, la humanidad no ha logrado eliminar el hambre del planeta, ni
mucho menos la pobreza, siendo evitable la muerte de un niño de cada tres en el año 2005. Sin
embargo, además de ser este un problema de ingeniería, es principalmente un problema de índole
social, político y económico.
Un aspecto negativo que ha generado la ingeniería y compete en gran parte resolver a la misma
es el impacto ambiental que muchos procesos y productos emanados de éstas disciplinas han
generado y es deber y tarea de la ingeniería contribuir a resolver el problema.
Dicha área de la ingeniería es reconocida como carrera profesional en todo el mundo y constituye
una de las áreas fundamentales de la ingeniería desde el siglo XIX con la comercialización del
telégrafo eléctrico y la generación industrial de energía eléctrica. El campo, ahora, abarca una
serie de disciplinas que incluyen la electrotecnia, la electrónica, los sistemas de control, el
procesamiento de señales y las telecomunicaciones.
Dependiendo del lugar y del contexto en que se use, el término ingeniería eléctrica puede o no
incluir a la ingeniería electrónica. Cuando se hace una distinción, generalmente se considera la
ingeniería eléctrica para hacer frente a los problemas asociados sistemas eléctricos de gran
escala, como los sistemas eléctricos de transmisión de energía y de control de motores, mientras
que la ingeniería electrónica trata del estudio de sistemas eléctricos a pequeña escala, incluidos
los sistemas electrónicos con semiconductores y circuitos integrados.
LABORATORIO N° 01
I. COMPETENCIA
Los empalmes eléctricos es la unión de dos o más conductores, con propósito de prolongar o
derivar y deben de cumplir dos requisitos fundamentales:
Eficacia mecánica. Debe soportar las tensiones mecánicas sin deteriorarse; elegir un tipo
de empalme apropiado. Para elegir un tipo de empalme, se debe tomar en cuenta: La
sección del conductor, lugar de instalación, finalidad del empalme (prolongación,
derivación o accesorio) y condiciones de trabajo. Se aplica en instalaciones domiciliarias,
conexión de aparatos o accesorios, instalaciones aéreas, etc., pueden ser soldadas y no
soldadas.
Una vez realizado el empalme se debe proceder a encintar, colocando hasta tres capas,
con cinta aislante (PVC), en lo posible debe quedar ajustado.
Capítulo 2
Historia de la Ingeniería
La historia de la civilización es en cierto modo, la de la ingeniería: largo y arduo esfuerzo para
hacer que las fuerzas de la naturaleza trabajen en bien del hombre.
Los primeros ingenieros fueron arquitectos, que construyeron muros para proteger las ciudades, y
construyeron los primeros edificios para lo cual utilizaron algunas habilidades de ingeniería.
En los últimos tres siglos la ciencia y la ingeniería han avanzado a grandes pasos, en tanto que
antes del siglo XVIII era muy lento su avance.
Los campos más importantes de la ingeniería aparecieron así: militar, civil, mecánica, eléctrica,
química, industrial, producción y de sistemas, siendo las ingeniería de sistemas uno de los
campos más nuevo.
Fue la necesidad quien hizo a los primeros ingenieros. La primera disciplina de ingeniería fue: la
ingeniería militar se desarrolló para ayudar a satisfacer una necesidad básica de supervivencia.
Cada periodo de la historia ha tenido distintos climas sociales y económicos, así como presiones
que han influido grandemente tanto el sentido como el progreso de la ciencia y de la ingeniería. Es
preciso recordar que durante nuestro crecimiento aprendemos a considerar normal quizá no sea
más que una moda pasajera social o económica que representa un punto en el tiempo.
Los egipcios han realizaron algunas de las obras más grandiosas de la ingeniería de todos los
tiempos, como el muro de la ciudad de Menfis. Esta antigua capital estaba aproximadamente a 19
Km. al norte de donde está El Cairo en la
actualidad. Tiempo después de construir el
muro, Kanofer, arquitecto real de Menfis, tuvo
un hijo a quien llamó Imhotep, a quien los
historiadores consideran como el primer
ingeniero conocido. Fue su fama más como
arquitecto que como ingeniero, aunque en sus
realizaciones entran elementos de la
ingeniería.
3 La actitud paciente de quienes controlaban los recursos de entonces. El reinado del Rey Joser
fue propicio para el invento de Imhotep: la pirámide. Las habilidades técnicas requeridas para el
diseño, organización y control de un proyecto de esta magnitud lo distinguen como una de las
proezas más grandes y antiguas de todos los tiempos.
De todas las pirámides, la del faraón Keops fue la mayor. La Gran Pirámide, como se le conoce
ahora, tenía 230.4 m por lado en la base cuadrada y originalmente medía 146.3 m de altura.
Contenía unos 2 300 000 bloques de piedra, de cerca de 1.1 toneladas en promedio.. Teniendo en
cuenta el conocimiento limitado de la geometría y la falta de instrumentos de ese tiempo, fue una
proeza notable. Al día siguiente de su muerte, se honró a Imhotep por su obra, inscribiendo su
nombre en la lista de dioses egipcios. Es interesante que la construcción de pirámides, que
comenzó alrededor de 3000 a. de J.C., duró solamente unos cien años. Sin embargo, estas
estructuras masivas de ingeniería sólo son superadas por la Gran Muralla China, entre las obras
de la antigüedad.
La exactitud con que se orientó la base con respecto a la alineación norte sur, este oeste fue de
aproximadamente 6 minutos de arco como error máximo, en tanto que la base distaba de ser un
cuadrado perfecto por menos de 17.78 cm.
También construyeron diques y canales, y contaban con sistemas complejos de irrigación. Cuando
la tierra de regadío era más alta que el nivel del río, utilizaban un dispositivo denominado cigueñal
“shaduf" para elevar el agua hasta un nivel desde el cual se dirigía hacia la tierra. El aparato
consiste en una cubeta unida mediante una cuerda al extremo largo de un palo apoyado, con un
contrapeso en su extremo corto. El operador hacía fuerza en el contrapeso para levantar la cubeta
y balancear el palo sobre su fulcro. Lo que parece sorprendente hoy día es que muchos de esos
antiguos dispositivos sigan en uso cotidiano en Egipto.
Otra gran cultura que floreció junto al agua se desarrolló en el norte de Irán, entre el río Tigris y el
Eufrates. Los griegos llamaron a esta tierra Mesopotamia “la tierra entre los ríos”. Aunque los
egipcios destacaron en el arte de construir con piedra, gran parte de la ciencia, ingeniería, religión
y comercio actuales provienen tanto de Irán como de Egipto.
Al inicio de la historia, un pueblo de origen
desconocido, los sumerios, construyó
murallas para ciudades y templos y excavó
acequias que pueden haber sido los primeros
logros de ingeniería del mundo. Los sumerios
fueron gradualmente superados por
considerable inmigración de nómadas árabes,
que pasaron a ser campesinos y moradores
de la dudad. La ciudad de Babilonia, que así
se formó, fue la sede de una cantidad de
imperits de poca duración, hasta ser
conquistada posteriormente por los asirios.
Los historiadores indican que en Mesopotámia se inició la tradición de que un político inaugure la
construcción de un edificio público con una palada de tierra.
Los asirios eran un pueblo guerrero, y entonces como ahora, la guerra pareció ser un catalizador
de las invenciones. Los asirios fueron los primeros en emplear armas de hierro. Ya se conocía la
manufactura del hierro desde siete u ocho siglos antes, pues la había descubierto la tribu de los
chalibas en Asia Menor. Los asirios también inventaron la torre de asalto, que se convirtió en una
pieza estándar del equipo militar durante los dos mil años siguientes, hasta que la invención del
cañón la hizo obsoleta. En distintas épocas también se llamó “castillete” o “helépolis” el dispositivo.
Una mejora asiria fue agregarle el ariete.
Hacia 1400 a de J C., el centro del saber pasó, primero a la isla de Creta y luego a la antigua
ciudad de Micenas, Grecia. Sus sistemas de distribución de agua e irrigación siguieron el patrón
de los egipcios, pero mejoraron materiales y labor.
Los ingenieros de este periodo se conocían mejor por el uso y desarrollo de ideas ajenas que por
su creatividad e inventiva.
La historia griega comienza hacia el año 700 a. de J.C., y al periodo desde aproximadamente 500
hasta 400 a. de J.C., se le llama “Edad de Oro de Grecia”. Una cantidad sorprendente de logros
significativos en las áreas del arte, filosofía, ciencia, literatura y gobierno fue la razón para que
esta pequeña porción del tiempo en la historia humana ameritara nombre propio.
Aproximadamente en 440 a. de J.C., Pendes contrató arquitectos para que construyeran templos
en la Acrópolis, monte rocoso que miraba a la ciudad de Atenas. Un sendero por la ladera
occidental llevaba a través de un inmenso portal conocido como Los Propóleos, hasta la cima. Las
vigas de mármol del cielo raso de esta estructura estaban reforzadas con hierro forjado, lo que
constituye el primer uso conocido del metal como componente en el diseño de un edificio.
Las escalinatas de acceso al Partenón, otro de los edificios clásicos de la antigua Grecia, no son
horizontales. Los escalones se curvan hacia arriba, al centro, para dar la ilusión óptica de ser
horizontales. En la construcción actual de puentes se toma en cuenta generalmente el hecho de
que los que se curvan hacia arriba dan impresión de seguridad, en tanto que los horizontales
parecen pandearse por el centro.
Quienes dirigieron la construcción de esas antiguas estructuras no tenían un título que se pudiera
traducir como “ingeniero”. Se les llamaba “arquitekton”, que quiere decir el que había cumplido un
periodo como aprendiz en los métodos estándar de construcción de edificios públicos. Los
arquitectos recibían aproximadamente un tercio más de remuneración que los albañiles. No se
adiestraban en el salón de clases, de manera que su aprendizaje lo hacían en la práctica. Era
íntegramente un adiestramiento “práctico”, como se llama ahora a este proceso de aprendizaje.
Hay poca duda de que Aristóteles de Estagira fue uno de los grandes genios de la historia de la
humanidad. Sus contribuciones han sido algunas de las más significativas en la historia de la
ciencia. Entre los historiadores hay cierta discrepancia acerca de quién fue el autor de un breve
artículo intitulado “Mecánica”; aunque la mayoría de los historiadores dan el crédito a Estratón de
Lámpsakos, otros lo acreditan a Aristóteles. Esta incertidumbre acerca de quién fue el autor es
desafortunada, debido a que por lo general se acepta que la Mecánica fue el primer texto conocido
de ingeniería. En este artículo se estudiaban conceptos tan fundamentales de la ingeniería como
la teoría de la palanca. También contiene un diagrama que ilustra un tren de tres engranes
mostrados como círculos, lo que constituye la primera descripción conocida de engranajes. Es
más que probable que éstos no tuvieran dientes, por lo que tuvo que ocurrir mucho deslizamiento
antes de que se conociera la ventaja de los dientes y la manera de producirlos.
Se puede imaginar un poco las dificultades bajo las que trabajarían los ingenieros, debido a su
ignorancia técnica, por el esquema fundamental del reloj de agua de Ctesibio, en Alejandría,
aproximadamente en 270 a. de J.C. Se suponía que el tiempo entre el amanecer y el ocaso era de
12 h, por lo que una hora era variable, en función de la época del año: más larga a medio verano y
más corta a medio invierno.
que hay un orden congruente en la naturaleza que se puede conocer. Para la existencia dé la
ciencia es necesario creer en un orden consistente, repetible en la naturaleza, en forma de las
leyes naturales. Probablemente
Aristóteles el físico más grande de este
periodo de la historia; su obra constituyó
cimiento de la ciencia durante los 2000 años
últimos. Es probable que no se haya
superado desde entonces el razonamiento
abstracto de Platón, Aristóteles y
Arquímedes.
Sin embargo, es necesario establecer una
distinción entre sus ideas en la filosofía de la
ciencia y la innovación en la ingeniería. En
tanto que destacan en el razonamiento
abstracto, se puede decir que sus
aportaciones a la ingeniería fueron
modestas. La búsqueda filosófica por la
verdad, especialmente en Platón y
Aristóteles, se efectuaba con un desdén
olímpico para la experimentación o
invención, que por su mera esencia
comprendían el trabajo manual. Aristóteles
creía que ese tipo de trabajo debían de
hacerlo los esclavos o mecánicos básicos, a
los que no se les debería otorgar la
ciudadanía. A juzgar por algunos profesores
de ingeniería de los Estados Unidos, esta
actitud esnobista parece existir también en las facultades de matemáticas. Sin embargo, realmente
tienen distintas metas, que no se pueden ignorar. Los matemáticos continuamente están
demostrando de nuevo verdades antiguas y buscando nuevas verdades, en tanto que los
ingenieros están ansiosos por aprender las matemáticas que existen, de manera que las puedan
aplicar al mundo habitual. Este doble papel de la ciencia e ingeniería aparece ya en Grecia.
Los griegos, específicamente el tirano Dionisio, fueron los primeros que se sepa que contrataron
personas para que les inventaran Máquinas bélicas. Esta práctica se ha transmitido a través del
tiempo hasta la actualidad, hasta países como Estados Unidos, en que buena parte del
presupuesto federal se asigna anualmente a la defensa. Todavía no se ha visto, desde el tiempo
de Dionisio, una nación pueda desentenderse de los desembolsos para la defensa.
Otra razón por la que Grecia no pudo producir estructuras de ingeniería cuyas magnitudes fueran
comparables a las de las sociedades de las cuencas hidrográficas fue la disminución en el uso de
la fuerza laboral de esclavos para lograr tales hazañas. Los griegos desarrollaron un estudio
llamado “hybris” (orgullo), que era una creencia en la necesidad de leyes morales y físicas
restrictivas en la aplicación de una técnica dominada. Llegaron a creer que forzar a humanos y
bestias más allá del límite para reunir y transportar monolitos de varias toneladas era inhumano e
innecesario. Esos ejercicios deshumanizasteis habían llegado al máximo en Egipto, y aparecen en
diversas fechas más adelante en la historia, por ejemplo en Stonehenge en Inglaterra, mil años
después. Sin embargo, lo que los griegos no tuvieron en realizaciones de ingeniería lo
compensaron con creces en los campos del arte, literatura, filosofía, lógica y política. Es
interesante notar que la topografía, como la desarrollaron los griegos y luego los romanos, se
considera como la primera ciencia aplicada en la ingeniería, y será prácticamente la única como
ciencia aplicada durante los veinte siglos siguientes.
Los griegos intentaron emplear el orden disciplinado en las empresas militares. Sus ejércitos
marchaban a la guerra con todas sus tropas debidamente uniformadas y llevando el paso marcado
por flautas. Estaban convencidos de que un frente sólido de lanzas y escudos era superior a la
precipitación de una turba. En la actualidad es difícil juzgar si fue el orden disciplinado o el
armamento de acero de sus soldados, por primera vez, lo que los hizo superiores en las batallas.
Obviamente, en comparación con las armas de entonces de hierro forjado o de bronce, las armas
de acero ofrecían una ventaja considerable.
En 305 a. de J.C.,
Demetrio había producido
la máquina de guerra más
temible de la época: el
castillete, diseñado por el
ingeniero Eplmaco, de
nueve pisos, con una
base cuadrada que medía
entre 15 y 22.5 m por lado
y una altura total entre los
30 y los 45 m. Todo el
equipo pesaba cerca de
82 toneladas, tenía ocho
inmensas ruedas con aros
de hierro y lo empujaban y
jalaban 3 400 soldados
(acarreadores del castillete). Cada uno de los nueve pisos contenía un tanque de agua y cubetas
para apagar los fuegos que lo incendiaran. Una de las defensas en contra de esa torre parece
ahora haber sido bastante perspicaz, consistente en prever la trayectoria que seguiría la máquina
y reunir aguas negras y de lavar, e incluso la escasa agua de beber si era necesario, para vaciarla
durante la noche frente al camino. Estos castilletes eran monstruos muy poco maniobrables, de tal
manera que si se arrojaba suficiente líquido a la tierra y se daba tiempo para que penetrara el
agua, la torre se atascaba inevitablemente. Este es un ejemplo antiguo de la creencia común en
los círculos militares contemporáneos de que para cada arma ofensiva hay al menos un arma
defensiva potencialmente efectiva. El castillete fue un arma ofensiva muy usada durante años,
hasta que la invención del cañón hizo que las murallas perdieran su efectividad como una línea de
defensa.
Aunque a Arquímedes se le conoce mejor por lo que ahora se llama el “principio de Arquímedes”,
también era un matemático y hábil ingeniero. Realizó muchos descubrimientos importantes en las
áreas de la geometría plana y sólida, tal como una estimación más exacta de y leyes para
encontrar los centros de gravedad de las figuras planas. También determiné la ley de las palancas
y la demostró matemáticamente. Mientras estuvo en Egipto, inventó lo que se conoce como «el
tomillo de Arquímedes», que consiste en una hélice encerrada dentro de un tubo y que se hace
girar para levantar agua. Este dispositivo se usó extensamente siglos después en los sistemas
hidráulicos y en la minería. Arquímedes también fue constructor de barcos y astrónomo. Típica de
su inventiva fue una grúa que instaló en uno de sus mayores barcos, con un gancho para levantar
la proa de pequeños barcos de ataque hasta vaciarlos de su contenido, para después echarlos al
agua de popa. Arquímedes fue una de las grandes mentes de todos los tiempos.
Los ingenieros romanos tenían más en común con sus colegas de las antiguas sociedades de las
cuencas hidrográficas de Egipto y Mesopotámia, que con los ingenieros griegos, sus
predecesores. Los romanos utilizaron principios simples, el trabajo de los esclavos y tiempo para
producir extensas mejoras prácticas para el beneficio del Imperio Romano. En comparación con
las de los griegos, las contribuciones romanas a la ciencia fueron limitadas; sin embargo, sí
abundaron en soldados, dirigentes, administradores y juristas notables. Los romanos aplicaron
mucho de lo que les había precedido, y quizá se les puede juzgar como los mejores ingenieros de
la antigüedad. Lo que les faltaba en originalidad lo compensaron en la vasta aplicación en todo un
imperio en expansión.
Una innovación interesante de los arquitectos de esa época fue la reinvención de la calefacción
doméstica central indirecta, que se había usado originalmente cerca de 1200 a. de J.C., en
Uno de los grandes triunfos de la construcción pública durante este periodo fue el Coliseo, que fue
el mayor lugar de reunión pública hasta la construcción del Yale Bowl en 1914.
En Roma había tráfico pesado por aquellas fechas. En una ocasión, Julio César ordenó que
ningún vehículo de cuatro ruedas circulara por las calles de la ciudad, con la esperanza de
proporcionar una solución parcial a-los problemas del tránsito. En los mejores tiempos del Imperio
Romano, el sistema de carreteras tenía aproximadamente 29 000 Km., entre el Valle del Eufrates
y la Gran Bretaña. En comparación con los anteriores, los acueductos romanos eran mayores y
más numerosos. Casi todo lo que se sabe actualmente del sistema romano de distribución de
aguas proviene del libro De Aquis Urb’is Romae de Sexto Julio Frontino, quien fue Autor Aquarum
de Roma, de 97 a 104 a. de J.C., Frontino llevaba registros de la utilización del agua, que indican
que el emperador usaba el 17%, el 39% se usaba en forma privada, y el 44% en forma pública. Se
calcula que en Roma diariamente se consumían entre 380 y 1 100 millones de litros de agua. La
fracción del 44% para uso público estaba subdividida adicionalmente en 3% para los cuarteles, el
24% para los edificios públicos, incluidos once baños públicos, 4% para los teatros, y 13% para las
fuentes. Había 856 baños privados a la fecha del informe. En todo caso, la administración del agua
en Roma era una tarea considerable e importante. Gran parte del agua que supuestamente
debería .entrar a la ciudad jamás lo hizo, debido a las derivaciones que tenían escondidas los
usuarios privados. Ya desde los tiempos de los romanos, las tomas de agua eran un problema.
Los acueductos romanos se construyeron siguiendo esencialmente el mismo diseño, que usaba
arcos semicirculares de piedra montados sobre una hilera de pilares. Cuando un acueducto
cruzaba una cañada, con frecuencia requería niveles múltiples de arcos. Uno de los mejor
conservados de la actualidad es el Pont du Gard en Nimes, Francia, que tiene tres niveles. El nivel
inferior también tenía una carretera.
Los romanos usaron tubería de plomo y luego comenzaron a sospechar que no eran salubre. Sin
embargo, el envenenamiento por plomo no se diagnosticó específicamente sino hasta que
Benjamín Franklin escribió una carta en 1768 relativa a su uso.
El emperador Claudio hizo que sus ingenieros intentaran en 40 d. de J.C., drenar el lago Facino a
través de un túnel, usando el desagüe para irrigación. En el segundo intento por vaciar el lago, el
flujo de salida fue mucho mayor que lo esperado, con el resultado de que se perdieran unas
cuantas mesas de picnic con sus comensales correspondientes, lo que hizo enojar mucho a la
esposa del emperador. Más tarde, pensando en que el emperador podría castigarla por su
arranque de enojo, decidió envenenarlo con excremento de sapo.
Se cree que una de las primeras alquimistas de la era, ‘una mujer conocida como Maria la Judía,
fue quien inventó el filtro. En todo caso, ofreció la primera descripción registrada del brebaje.
Un libro de Atenaios, intitulado Mecánikos, estudia las máquinas de asedio, puentes colgantes,
arietes, testudos, torres y otros dispositivos semejantes. Eran mejoras en el arsenal militar de su
tiempo. Hacia 100 d. de J.C., uno de los mejores autores técnicos de todos los tiempos, Herón de
Alejandría, produjo manuscritos de ingeniería intitulados Mecánica, Neumática, Arte del asedio,
Fabricación de autómatas, El tránsito del topógrafo, y Medición y espejos. Fue un escritor técnico
prolifico. También desarrolló una máquina de vapor, o «eolipila”, que funcionaba en base al
principio de la reacción, semejante al de un rociador giratorio de jardín.
Aproximadamente en 200 d. de J.C., se inventó un ariete llamado “ingenium” para atacar las
murallas. Muchos años después se llamó al operador del ingenium, “ingeniator”, que muchos
historiadores creen que fue el origen de la palabra ingeniero.
La ingeniería romana declinó después de 100 d. de J.C., y sus avances fueron modestos. Un
factor que se cree que contribuyó a la caída del Imperio Romano, aproximadamente en 476 d. de
J.C., fue que en tanto que la ciencia e
ingeniería romanas se habían
estancado durante este periodo, no
sucedía igual con los bárbaros del
norte. Otro factor que retrasó el
crecimiento en la ciencia e ingeniería
fueron unas leyes puestas en vigor
cerca de 301 d. de J.C., y que
Diocleciano pretendía que fueran
reformas al control de precios y
salarios, y leyes que obligaban a todo
hombre del imperio a seguir el oficio
de su padre. Esto se hizo, al menos
en parte, con la esperanza de
proporcionar estabilidad económica.
Una innovación durante este periodo fue la invención del alumbrado público en la ciudad de
Antioquía, aproximadamente hacia el año 3~0 d. de J.C.
La caída de Roma es sinónimo del fin de los tiempos antiguos. En el tiempo que siguió, el periodo
medieval, la legislación de castas y la influencia religiosa retardaron considerablemente el
desarrollo de la ingeniería. Muchos historiadores llaman “El Oscurantismo» al periodo de 600 a
100 d. de J.C. Durante este lapso dejaron de existir la ingeniería y arquitectura como profesiones.
En el siglo XIII, Santo Tomás de Aquino argumentó que ciencia y religión eran compatibles.
Ghazzali, erudito en ciencia y filosofía griegas, llegó a la conclusión de que la ciencia alejaba a las
personas de Dios, por lo que era mala. Los europeos siguieron a Santo Tomás, en tanto que el
Islam siguió a Ghazzali. En medida, esta diferencia en filosofía es la que subyace al tan distinto
desarrollo técnico en estas dos culturas. En la actualidad no se acepta universalmente que
ninguno de esos grandes estudiosos tuviera la razón. Sin embargo, es indudable que durante
siglos Europa ha disfrutado de superioridad técnica en el mundo, con las ventajas que ello supone,
en tanto que el desarrollo técnico en la cultura del Islam ha sido limitado.
En los años que siguieron de inmediato a la caída del Imperio Romano, el liderazgo técnico pasó a
la capital bizantina de Estambul. Durante los diez siglos siguientes fue con elevadas murallas
hasta de 13 metros de altura en algunos lugares como se mantuvo a raya a los bárbaros.
Después de la caída del Imperio Romano, el desarrollo ingenieril se trasladó a India y China. Los
antiguos hindúes eran diestros en el manejo del hierro y poseían el secreto para fabricar buen
acero desde antes de los tiempos de los romanos. Austria e India fueron los dos centros
siderúrgicos principales cuando estaba en su apogeo el Imperio Romano. Más tarde, los forjadores
sirios usaron lingotes de acero indio en Damasco para forjar las hojas de espadas damasquinas.
Era uno de los pocos aceros verdaderamente superiores de entonces. Durante unos dos siglos, la
capital mundial de la ciencia fue Jundishapur, India.
Una de las más grandes realizaciones de todos los tiempos fue la Gran Muralla de China. La
distancia de un extremo a otro del muro es de aproximadamente 2 240 Km.; sin embargo, hay más
de 4 080 Km. de muro en total. Casi toda la muralla tiene aproximadamente 10 m de altura, 8 m de
espesor en la base, y se reduce
hasta aproximadamente 5 m en la
parte superior. A lo largo de esta
parte corre un camino
pavimentado.
Los chinos fueron de los primeros constructores de puentes, con características únicas. Algunos
de sus puentes más antiguos fueron de suspensión, con cables hechos de fibra de bambú;
lograron uno de los inventos más importante de todos los tiempos, el papel. Aproximadamente en
105 d. de J.C., Tsai Lun escribió un informe a su emperador sobre un procedimiento para hacer
papel, y se le reconoció el mérito. El bloque de grabado se usó posteriormente en el siglo X, en el
reinado de Shu, para producir el primer papel moneda del mundo.
Se cree que los chinos inventaron la pólvora. Es irónico que esta invención china, junto con el
cañón, eliminara las murallas.
Los chinos desarrollaron maquinaria de engranaje desde fechas muy antiguas. Algunos
historiadores creen que hacia el año 400 a. de J.C., había engranajes en China. Los chinos fueron
los primeros en inventar mecanismos de escape para los relojes. Hacia 1500 d. de J.C., Peter
Henlein de Nuremberg, Alemania, inventó el reloj de cuerda. Maximiliano I de Baviera bromeaba
hacia 1800: “Si queréis pasar apuros, comprad un reloj.” Los primeros relojes pequeños medían
aproximadamente lo que un despertador actual, colgaban de una cadena y sólo tenían una
manecilla.
Otro descubrimiento importante de los chinos fue la brújula, que rápidamente se extendió, para ser
de uso común alrededor de 1200 d. de J.C.
Luego los árabes aprendieron de los chinos el método de fabricación del papel, y lo produjeron en
grandes cantidades. A partir de entonces aumentó notablemente la comunicación de las ideas. La
química progresó mucho como ciencia en Arabia y también se aprendió y extendió con rapidez el
proceso para hacer pólvora. El invento de Gutenberg del tipo móvil en Alemania fue otro paso
gigantesco en las mejores comunicaciones. A partir de entonces, fue posible diseminar el
conocimiento sin tener que hacer la copia a mano. La extensión de la diseminación del
conocimiento permitida por la imprenta fue una condición necesaria preliminar para los múltiples
avances que han seguido.
La Edad Media, a la que a veces se le conoce como el periodo medieval, abarcó desde
aproximadamente 500 hasta 1500 d. de J.C., pero por lo general se denomina Oscurantismo al
periodo que media entre el año 600 y el 1000 d. de J.C. Durante este periodo no existieron las
profesiones de ingeniero o arquitecto, de manera que esas actividades quedaron en manos de los
artesanos, tales como los albañiles maestros. La literatura del Oscurantismo era
predominantemente de naturaleza religiosa, y quienes tenían el poder no daban importancia a la
ciencia e ingeniería. Los gobernantes feudales eran conservadores, y sobre todo trataban de
mantener el estado de las cosas.
La mayoría de las personas debía tener el mismo oficio de sus padres. Sin embargo, en la década
de 1500 ocurrió una serie de descubrimientos científicos importantes en la ingeniería y
matemáticas, lo que sugiere que
aunque se había restado
importancia a la ciencia, estaba
ocurriendo una revolución en el
razonamiento con relación a la
naturaleza y actividad de la
materia. El movimiento, fuerza y
gravedad recibieron considerable
atención en plena Edad Media y
más adelante.
El Renacimiento, que literalmente significa “volver a nacer", comenzó en Italia durante el siglo XV.
El redescubrirniento de los clásicos y el resurgimiento en el aprendizaje llevan a una reevaluación
de los conceptos científicos de la antigüedad.
Uno de los límites obvios del desarrollo de la ingeniería ha sido la facilidad con que se podían
comunicar y comparar los pensamientos.
La República de Venecia estableció en 1474 la primera ley de patentes, y en 1594 se dio a Galileo
una patente sobre un dispositivo para elevar agua. Aunque la antigua ley de patentes promulgada
en Venecia necesitaba muchas mejoras antes de que pudiera ofrecer protección efectiva, fue el
primer intento por estimular las invenciones al proteger la comercialización de los inventos. Sin
embargo, el costo actual de adquirir una patente y las demoras en el funcionamiento del sistema
de patentes ciertamente limita su efectividad como incentivo para el ciudadano promedio.
En 1514, el Papa Paulo III tuvo que
resolver el problema de sustituir al
arquitecto Bramante después de su muerte,
ocurrida durante la reconstrucción de la
Basílica de San Pedro. Se eligió a un
artista e ingeniero llamado Miguel Ángel
Buonarroti, al que se le conoce
simplemente como Miguel Angel, para
concluir el proyecto. Es bien conocida su
obra en la terminación de dicha basílica.
Sin embargo, es menos conocido que se le
llamó en Florencia, y nuevamente en
Roma, para que diseñara fortificaciones
para esas ciudades. Después de
construirlas, se convenció de que éstas no
resistirían, debido a la incompetencia de los
defensores, individualista testarudo al
grado de que un colega escultor le rompió
la nariz en una riña.
En 1483, de Vinci se trasladó a Milán y presentó el siguiente resumen al Duque Ludovico Sforza,
esperando conseguir empleo:
"Después de ver, Mi Muy Ilustre Señor, y habiendo considerado ahora suficientemente las pruebas
de quienes se tienen por maestros y diseñadores de instrumentos de guerra y de que el diseño y
operación de los mismos instrumentos no es distinto de los que se usan comúnmente, trataré sin
perjuicio de nadie de hacerme comprender con Vuestra Excelencia, revelando mis propios
secretos y ofreciendo después a su placer, y en el momento apropiado, poner en efecto todas las
cosas que por brevedad se anotan parcialmente en seguida, y muchas más, de acuerdo con la
exigencias de los distintos casos.
Puedo construir puentes muy ligeros y fuertes, que se pueden transportar fácilmente, y con ellos
perseguir, o de ser necesario, huir del enemigo, y otros más, seguros y capaces de resistir al
fuego y ataque, y fáciles y prácticos para utilizar y quitar; y tengo métodos de quemar y destruir los
del enemigo.
En un sitio bajo asedio, sé cómo quitar el agua de los fosos y cómo hacer infinitos puentes,
espalderas, escaleras y otros instrumentos adecuados a dichos propósitos.
Además, si en el asedio es imposible usar el bombardeo por causa de la profundidad de las
zanjas, o de la fortaleza de la posición y de la situación, puedo destruir toda fortaleza u obra de
cualquier otro tipo si no está hecha de piedra.
También tengo los medios de hacer fácil y conveniente la transportación de cañones, y con ellos
arrojar piedras semejantes a una tempestad; y con el humo de ellos provocar gran temor al
enemigo, causándole grandes daños y confusión.
También tengo los medios, con túneles y pasajes secretos y tortuosos, hechos sin ruido, de llegar
a determinado punto, incluso aunque sea necesario pasar bajo zanjas o algún rio.
También haré vagones cubiertos, seguros e indestructibles, que al penetrar con su artillería entre
el enemigo, romperán el mayor cuerpo de hombres armados. Y detrás de éstos puede seguir la
infantería sin sufrir daños y sin encontrar oposición.
Si también hay necesidad, haré cañones, morteros y piezas de campo de formas hermosas y
útiles, distintas de las de uso común.
Cuando se pueda usar el cañón, puedo fabricar catapultas lanzactaros y máqlliII.9S para arrojar
fuego, Y otros instrumentos de eficiencia admirable, que no se usa comúnmente y en breve, de
acuerdo como sea el caso, imaginaré diversos aparatos infinitos para el ataque y defensa.
En tiempo de paz, creo que puedo dar satisfacción igual a la de cualquier Otro en arquitecturas en
el diseño de edificios públicos y privados y en la conducclémdB agua de un lugar a otro.
También puedo realizar esculturas en mármol, bronce o terracota; igual sucede con la pintura, la
que puedo hacer tan bien como cualquier otro, quienquiera que sea.
Más aún, será posible comenzar a trabajar en el caballo de bronce, que servirá para recordar la
gloria inmortal y honor eterno de la feliz memoria de vuestro padre, Mi Señor, y de la ilustre Casa
de los Sforza. y si hay alguien a quien parezcan imposibles o irrealizables cualquiera de las cosas
antes mencionadas, me ofrezco para hacer una prueba de ellas en su parque o en el lugar que
plazca a Vuestra Excelencia; a quien me encomiendo lo más humildemente que puedo."
Leonardo de Vinci fue uno de los grandes genios de todos los tiempos. Anticipó muchos adelantos
del futuro; por nombrar algunos: la máquina de vapor, la ametralladora, cámara oscura, el
submarino y el helicóptero. Pero, es probable que tuvieran poca influencia en el pensamiento de la
ingeniería de su tiempo. Sus investigaciones eran una mezcolanza no publicada de pensamientos
e ilustraciones. Era un investigador impulsivo, y jamás resumía su investigación para beneficio de
otros a través de la publicación. En sus cuadernos hacía la anotación de sus investigaciones de
derecha a izquierda, posiblemente por comodidad, debido a que era zurdo.
Otro gran genio de ese tiempo fue Galileo, quien a la edad de 25 años fue nombrado profesor de
matemáticas en la Universidad de Pisa. Estudió mecánica, descubrió la ley fundamental de la
caída de los cuerpos y estudió el comportamiento del movimiento armónico del péndulo. Dictó
conferencias sobre astronomía en Padua y Florencia, y posteriormente fue acusado ante la
Inquisición, en 1633, debido a su creencia de que el Sol y no la Tierra, era el centro de nuestro
universo. En 1638 publicó su máxima obra matemática, que poco después fue colocada en el
mdcx Expurgatorius, quedando prohibida su lectura en todos los países católicos. En las
postrimerías de su vida, bajo arresto domiciliario, se concentró en el tema menos controvertido de
la mecánica.
En el periodo medieval se empleaban armaduras para soportar los techos, pero eran burdas y con
frecuencia aumentaban el peso del edificio, sin contribuir a su resistencia. En ese tiempo no se
comprendía bien el diseño de las armaduras. Debido al uso de métodos empíricos en el diseño de
miembros estructurales, los edificios públicos, especialmente las iglesias, tenían fama de
desplomarse sobre los confiados visitantes. El techo de la Catedral de Beauvais se desplomó dos
veces en el siglo XIII, y en el siglo XVI se agregó un campanario que poco después caía al suelo.
Desde luego, las catedrales eran y siguen siendo obras monumentales con grandes vanos que
siempre han exigido alarde de ingenio de arquitectos e ingenieros. Se cree que fue Andrea
Palladio el primer ingeniero que comprendió realmente las fuerzas en las armaduras. En 1570
diseñó puentes para Venecia, en que todos los miembros del puente tenían un propósito útil. En
1560, Giovanni Battista della Porta inició una sociedad en Nápoles llamada la Academia de los
Secretos de la Naturaleza. Era semejante a otras anteriores como la Academia de Platón, el Liceo
de Aristóteles y el Museo de Alejandría. Durante este tiempo había mucha comunicación entre los
científicos europeos. Sin embargo, esa academia se cerró debido a sospechas del clero. En 1603
se fundó la Academia Lincea que existe hasta la fecha. Galileo fue uno de sus miembros. Estos
pretendían fundar monasterios laicos en distintas partes del mundo. La Real Sociedad de Londres
fue hecha legalmente pública en 1662, después de una serie de reuniones secretas. Boyle, Hooke
y Newton estuvieron entre sus miembros. En 1666 se formó la Academia Francesa, y en 1700 se
inició la existencia de la Academia de Berlín.
Por el mismo tiempo tuvo lugar una diversidad de descubrimientos matemáticos de consideración.
Alrededor de 1640, Fermat y Descartes descubrieron independientemente la geometría analítica.
Un sacerdote inglés llamado William Oughtred, aproximadamente en 1622, diseñó la primera regla
de cálculo basada en la suma de logaritmos para obtener el producto de dos números.
Jean Baptiste Colbert fue ministro bajo Luis XIV y estableció la primera escuela formal de
ingeniería en 1675. El Corps du Génie, como eran conocidos, eran ingenieros militares entrenados
por Sébastien le Prestre de Vauban, ingeniero militar francés muy conocido.
En 1771 un pequeño grupo de ingenieros, a los que se llamaba frecuentemente para dar su
testimonio sobre proyectos de puertos y canales, formó la Sociedad de Ingenieros. John Smeaton,
director del grupo, fue el primero en darse el título de ingeniero “civil" para señalar que su
incumbencia no era militar. Esta sociedad se constituyó en la Institution of Civil Engineering en
1828, iniciando con ello una especialización dentro de la ingeniería.
Durante el periodo medieval, las principales fuentes de energía eran el agua, viento y animales. La
cola de abanico se inventó basta el siglo XVIII. Mediante engranajes mantenía orientadas las palas
principales de los molinos de viento siendo uno de los primeros dispositivos autorregulados
conocidos de la historia de la ingeniería.
Thomas Savery tuvo el gran mérito de idear la máquina de vapor, aunque otros anteriores a él
aportaron ciertos adelantos menores en ese campo. En 1698 recibió una patente por un
dispositivo operado por vapor para drenar minas; lo anunció en un libro que escribió más tarde, y
que intituló Tire Mines Friend. En 1712, Thomas Newcomen mejoró mucho la máquina de vapor, la
que también se usaba para bombear agua de una mina. Estas primeras máquinas eran muy
deficientes, aunque representaban el desarrollo inicial de la energía a partir de máquinas térmicas.
Es difícil imaginar el punto en que estaría nuestra civilización en la actualidad sin esas máquinas.
Antes de la máquina de vapor hubo toda una serie de adelantos científicos en el siglo XVII. Robert
Boyle estudió la elasticidad del aire y descubrió la ley que relaciona la temperatura, presión y
volumen, que hoy día lleva su nombre. Robert Hooke experimentó con la elasticidad de los
metales y descubrió la ley de la elasticidad que también lleva su nombre. Christian Huygens
determinó las relaciones de la fuerza centrípeta y Sir Isaac Newton estableció las tres leyes
básicas del movimiento.
Siguiendo a Newcomen, James Watt hizo tales mejoras significativas a la máquina de vapor, que
con frecuencia se le atribuye parcialmente la invención inicial, junto con Savery y Newcomen.
Durante un experimento en 1782, encontró que un “caballo de cervecería” desarrollaba 33 000
pies libra (unos 44 700 joules) por minuto, iguales a 1 caballo de fuerza. A la fecha todavía se usa
esta equivalencia.
En 1804, Richard Trevithick fue el primero en lograr que una locomotora de vapor corriera sobre
rieles. Más tarde demostró que las ruedas lisas podían correr sobre rieles lisos si las pendientes
no eran demasiado excesivas. Una de las locomotoras de Trevithick se exhibió en una vía circular
en Londres en 1808, pero descarriló y volcó. Se habían pagado tan pocos chelines por verla, que
no se volvió a colocar sobre la vía.
George Stephenson, después de ser empleado como vaquero, sirvió como fogonero de una
máquina de vapor y luego como cuidador de una máquina de bomba. A los treinta y dos años,
construyó su primera locomotora de vapor, y luego abogó insistentemente por la enmienda a un
acta, aprobada en 1821, para que se empleara la locomoción a vapor en vez de caballos en un
ferrocarril que correría desde Stockton hasta la mina de carbón de Willow Park. Utilizó el riel de
1.42 m que se había usado anteriormente para vagones tirados por caballos. Todavía, este calibre
de vía es el de uso más común en todo el mundo.
Como sabemos, después del desarrollo de los sistemas ferroviarios en Europa y América, los
adelantos ingenieria se sucedieron a una tasa cada vez más creciente. La primera mitad del siglo
xx produjo un número casi increíble de avances en ingeniería, al grado de que queda poca duda
sobre que las dos guerras mundiales fueron catalizadores de gran parte de ese progreso.
La invención de los automóviles y aeroplanos en los Estados Unidos fueron factores significativos
en el desarrollo ingenierill del siglo XX. Los inventos de Tomás Edison, que iniciaron la industria de
la energía, y el invento de Lee De Forest de la “válvula electrónica" (tubo al vacío), que dieron
considerable ímpetu a la industria de las comunicaciones también fueron acontecimientos muy
significativos.
Hasta 1880, la ingeniería fue civil o militar, mientras que hasta esa fecha había sido ambas cosas
simultáneamente. En 1880 se fundó la American Society of Mechanical Engineers, seguida de la
American Society of Electrícal Engineers en 1884 y el American Institute of Chemical Engineers en
1908. El American Institute of Industrial Engineers se fundó en 1948 y fue el último campo
importante de la ingeniería en organizarse.
LABORATORIO N° 02
LA RESISTENCIA
I. OBJETIVO
II. INTRODUCCIÓN
L
R
S
Donde es la resistividad del material, cuyas unidades pueden ser expresadas de
varias formas, aquí asumiremos: (ohm.mm2 ) / m .
III. MATERIALES
Aparatos de medición V y A
Cables de conexión
Resistencias (10)
Protoboard
IV. PROCEDIMIENTO
Para medir las resistencias de un alambre, proceder de acuerdo con lo indicado
por el docente a cargo.
Halle el valor de la resistencia R para cada alambre y obtenga la resistividad “ ”
para cada material usando la ecuación anterior; los valores de la longitud L y la
sección S para cada alambre los obtiene de la tabla No. 1.
Obteniendo el valor la temperatura del alambre significativamente, ¿variarán
también sus resultados?
V. PREGUNTAS
Si al realizar el experimento varía la temperatura del alambre significativamente,
¿variarán también sus resultados?
VI. DESCRIPCIÓN
El equipo está compuesto de una placa de metal, alambres de conexión y
alambres de resistencias de distintos materiales.
Algunas referencias de los alambres.
TABLA No. 01
o Cortocircuite las puntas de prueba para obtener cero ohmios, tal como se
muestra en la figura A).
o Haga girar la “perilla de ajuste a cero” hasta que la aguja indique cero ohmios,
en la escala de los ohmios.
Conecte las puntas de prueba al resistor, tal como se muestra en la figura B).
Lea los valores en la escala de ohmios.
Cada vez que cambie la escala debe poner a cero el ohmímetro.
Observaciones:
A) B)
TABLA No. 01
Ejemplo: Suponga que una resistencia tiene las siguientes cuatro bandas de
color:
TABLA No. 02
TABLA No. 03
MEDICIÓN DE RESISTENCIAS
%
VALOR TEÓRICO R R
R
DIGITAL ANALÓGICO
DIGITAL ANALOGICO
R1
R2
R3
R4
R5
Capítulo 3
Ciencia - Tecnología
3.1 INTRODUCCIÓN
Y, sin embargo, ante estos progresos que no podían ni siquiera imaginar las autopistas del
pasado, empiezan a surgir preguntas cada vez más serias sobre el lugar que incumbe la ciencia y
la tecnología en nuestra sociedad; y además con una constancia tal que no se pueden ignoras
tales problemas. Leí una frase escrita por Albert Camus, la cual me llamó mucho la atención, decía
lo siguiente:
"El siglo XVII fue de las matemáticas, el siglo XVIII el de las ciencias físicas, el siglo XIX el de la
biología y nuestro siglo XX es el siglo del miedo".
¿Es cierto esto?, Podríamos decir que sí; ya que la ciencia y la tecnología han tenido tanto auge,
tanto desarrollo que hoy en día muchos temen que la ciencia y la tecnología lleguen a destruir el
mundo. Muchas personas lo ven de la siguiente manera, ¿Cuántas personas han muerto en
accidentes automovilísticos?, Si la ciencia y la tecnología no los hubiesen creado no hubiesen
ocurrido. Pero dejan atrás la otra cara de la moneda, ¿Cuántas personas se han salvado gracias
al transporte automovilístico? ¿Cuánto tardaríamos en trasladarnos de un lugar a otro?, Si no se
hubiesen desarrollados estos inventos. Lo que une a la ciencia y la tecnología con la sociedad son
las necesidades y los deseos de la sociedad.
Son muchos los que consideran la ciencia como una amenaza y no solo en nuestros tiempos, sino
desde hace muchos años, es el típico caso de Galileo quien fue condenado por el Papa, ya que
este consideraba que su nuevo método de considerar la verdad constituía un gran desafío a la
autoridad tradicional. Aunque muchos consideran que esto se debe a que la sociedad no tolera
aquello sobre lo que no dispone información o simplemente que no lo puede comprender.
Hoy en día, la tecnología es parte del sistema de vida de todas las sociedades. La ciencia y la
tecnología se están sumando a la voluntad social y política de las sociedades de controlar sus
propios destinos, sus medios y el poder de hacerlo. La ciencia y la tecnología están
proporcionando a la sociedad una amplia variedad de opciones en cuanto a lo que podría ser el
destino de la humanidad.
3.2 IMPACTO DE LA TECNOLOGÍA EN LA SOCIEDAD
Tradicionalmente la tecnología ha
progresado por el método empírico
del tanteo. La tecnología ha estado
a la vanguardia en muchos campos
que posteriormente adquirieron una
sólida base científica. Se dice que los efectos la tecnología constituyen un "impacto". La tecnología
derrama sobre la sociedad sus efectos ramaficadores sobre las prácticas sociales de la
humanidad, así como sobre las nuevas cualidades del conocimiento humano.
Desde los primeros tiempos de la agricultura o desde fines de la Edad del Hierro, la cultura
humana ha tenido una tecnología, es decir, la capacidad de modificar la naturaleza en un grado u
otro. Se considera que la tecnología proporciona estimables beneficios a corto plazo, aunque a
largo plazo han engendrado graves problemas sociales. Algunos autores consideran que los
problemas que ha generado la tecnología son indirectamente provocados por la ciencia, ya que si
no contáramos con los avanzados conocimientos científicos, no tendríamos una tecnología tan
adelantada.
Los beneficios que trae consigo la tecnología moderna son muy numerosos y ampliamente
conocidos. Una mayor productividad proporciona a la sociedad unos excedentes que permiten
disponer de más tiempo libre, dispensar la educación y, de hecho, proseguir la propia labor
científica. Todos nosotros necesitamos alimentos, vivienda, ropa, etc. Cuando quedan satisfechas
esas necesidades básicas y la tecnología empieza a proporcionar beneficios cada vez más
triviales, es cuando surgen esencialmente los problemas.
Si consideramos la situación actual de los países desarrollados, vemos que la gente o parece más
feliz que en el pasado, y a menudo tampoco tiene mejor salud. Los desechos ambientales que
produce la tecnología han creado nuevas formas de enfermedades y fomentado otras. El propio
trabajo es hoy más monótono y decepcionante. El ser humano necesita realizar algo que estimule
su cerebro, su capacidad manual y también necesita variedad.
La industria de base tecnológica ha dislocado la familia. Por ejemplo, el hecho de tener que
dedicar mucho tiempo al transporte separa a menudo a un padre de sus hijos. La sociedad
tecnológica tiende también a separar a la madre del niño pequeño. La facilidad de las
comunicaciones incita a los hijos a irse muy lejos, y la familia ampliada a dispersarse más.
Además de todo esto, a consecuencia de todo esto, se debilita la transmisión cultural de las
técnicas (por ejemplo, la cocina, la educación de los niños, etc.) y los pedagogos tienen que
intentar colmar esta laguna.
Normalmente, las sociedades están integradas por grupos coherentes en las cuales se reconoce
la identidad personal y se ejercen presiones para coartar los actos antisociales. Si están
demasiado aislados, estos grupos se vuelven opresivos. En un primer momento, los efectos de la
facilidad de las comunicaciones parecen beneficiosos, porque liberan a la gente de las presiones
locales, pero al persistir esta tendencia, se quedan a menudo aislados.
Es indudable que la tecnología ha servido para que las guerras sean mucho más calamitosas
todavía, ya que afectan a todo el mundo, y no solamente a los civiles sino también a los neutrales
y a los pueblos primitivos. La violencia y la delincuencia también se deben simplemente a la
tecnología; por lo que podríamos considerar la tecnología como uno de los problemas más
grandes de la sociedad actual, ya que la delincuencia es uno de los problemas más abrumadores
y que más afecta a la sociedad actual.
La ciencia trata de establecer verdades universales, un conocimiento común sobre el que exista
un consenso y que se base en ideas e información cuya validez sea independiente de los
individuos. Hay algo que pienso que es de gran importancia resaltar y es que el papel de la ciencia
en la sociedad es inseparable del papel de la tecnología.
El objeto de esta introducción es mostrarte los pasos que siguen los físicos y los químicos para
estudiar la naturaleza y darte la información necesaria para que puedas contestar a las preguntas
anteriores.
Los científicos deben recorrer un largo camino, llamado método científico, que es preciso dividir en
etapas.
Observación
Formulación de hipótesis
Experimentación
Análisis de resultados
Conclusiones y formulación de leyes
A. OBSERVACIÓN
Observar consiste en plantearse preguntas sobre los fenómenos que percibimos por
medio de nuestros sentidos. La observación implica curiosidad
B. FORMULACIÓN DE HIPÓTESIS
C. EXPERIMENTACIÓN
D. ANALISIS DE RESULTADOS
Los dos primeros nos muestran directamente los datos obtenidos y las relaciones que
existen entre ellos.
Si una hipótesis logra explicar un gran número de hechos naturales, tiene la categoría
de Ley. El conjunto de leyes que tratan de explicar un fenómeno se engloban en una
estructura más general, que recibe el nombre de teoría.
LABORATORIO N° 03
I. Descripción
El protoboard es una tabla que permite interconectar componentes electrónicos sin necesidad
de soldarlos. Así, se puede experimentar de manera fácil y ágil a través del rápido armado y
desarmado de circuitos eléctricos. La lógica de operación del protoboard es muy sencilla,
básicamente, ésta es una tabla con orificios los cuales están conectados entre sí en un orden
coherente. Un protoboard tiene el siguiente aspecto:
Una vez que el circuito bajo experimentación está funcionando correctamente sobre el
protoboard puede procederse a su construcción en forma definitiva sobre un circuito impreso
utilizando soldaduras para fijar e interconectar los componentes.
III. Esquema
Los contactos están separados entre sí por una distancia de 0,1”, distancia que corresponde a
la separación entre pines o terminales de los circuitos integrados, principales componentes de
los circuitos electrónicos actuales. El contacto eléctrico se realiza a través de laminillas en las
que se insertan los terminales de los componentes. Estás no están visibles, ya que se
encuentran por debajo de la cubierta plástica aislante.
Las secciones uno (1) y cuatro (4) están formadas por dos líneas o nodos. Esta normalmente
son utilizados para conectar la alimentación del circuito, y así energizarlo. Por otro lado en las
secciones dos (2) y tres (3) se encuentran conectados cinco orificios verticalmente, formando
pequeños nodos independientes unos de otros. Recuerde que la figura muestra como están
conectados internamente los orificios, por lo que no es necesario rehacer estas conexiones.
Esta disposición también permite instalar fácilmente los demás componentes electrónicos tales
como los transistores, resistencias y capacitores, entre otros. Para hacer las uniones entre
puntos distantes de los circuitos, se utiliza alambre calibre 22 (tipo telefónico).
Como se observa en las figuras, las filas de orificios tienen cinco perforaciones que se
conectan entre sí en forma vertical. Sin embargo entre cada fila no existe contacto.
Además, existe un canal central separador cuya distancia es igual a la que existe entre las
filas de terminales de los circuitos integrados. Esto es con el fin de poder ubicar sobre dicha
separación, todos los circuitos integrados que posea el circuito.
Las líneas verticales a cada lado del canal central no están unidas, lo que establece dos áreas
de conexiones para el circuito.
Los contactos de las filas externas se unen entre sí pero en forma horizontal y reciben el
nombre de buses. Las mayorías de las protoboard traen dos buses a cada lado y se utilizan
generalmente para manejar en ellos las alimentaciones, tanto positiva s como negativa.
Un buen consejo es hacer conexión de las mitades de las secciones uno y cuatro, tal
como lo muestra la figura así, se mantendrá una configuración clara y entendible.
La conexión entre nodos se hace mediante alambres, los cuales deben de ser lo mas
corto posible, a fin de evitar problemas de ruido en el circuito. En lo posible deben de estar
aislados, para evitar cortocircuitos por contactos con otros cables.
Al montar las componentes fíjese muy bien en las polaridades, por ejemplo de
condensadores, y valores de pines de los integrados, así como rangos de operación. Trate
de ser ordenado en el armado, doblando correctamente pines y conectores, tal como lo
muestra la figura.
Finalmente recuerde que esta herramienta es para ensamblado temporal. Si Ud. desea
mantener el circuito llévelo a placa -PCB-, replicándolo, tratando en lo posible de usar
otras componentes, a fin de poder identificar posibles problemas en la placa
Tener a la mano todos los componentes para armar el circuito según la lista de materiales.
Deje suficiente separación, aunque no demasiada, entre los elementos para que el
ensamble de los demás componentes pueda realizarse sin tropiezos. Muchos
componentes en un espacio reducido dificultan el proceso de ensamble, y si es necesario
sustituir algún componente, puede verse obligado a desarmar parte del circuito.
Utilice en lo posible un extractor de circuitos integrados para retirar o colocar los circuitos
integrados para evitar daños en sus terminales.
No instale sobre la protoboard componentes que generen una gran cantidad de calor,
pues pueden ocurrir derretimientos del plástico dañando permanentemente a la placa. Tal
es el caso de resistencias de potencia o de semiconductores que disipen mucho calor.
En lo posible, no utilice el protoboard para circuitos de corriente alterna por encima de los
110, ya que el aislamiento no es suficiente y pueden generarse corto circuitos o
presentarse posibles situaciones de riesgo personal.
El armado de los circuitos debe ser tan nítido como sea posible. Esto no solamente
obedece a consideraciones de tipo estético, sino a que un circuito ordenado es más fácil
de ser diagnosticado en caso de mal funcionamiento, o de ser modificado de ser
necesario. En lo posible el cableado debe ser lo más corto que se pueda.
V. Ejemplos
I1 I2
I
V CC
R1 R2
El circuito presenta sólo dos nodos. Esta configuración se puede conectar en la práctica
de la siguiente forma.
a. Divisor de voltaje
R1 V1
V CC
R2 V2
Capítulo 4
Cualidades del Ingeniero Competente
4.1 CONOCIMIENTO BASADO EN HECHOS
Una parte muy importante de la educación formal de un estudiante es la relativa a las ciencias
físicas, principalmente física y química, como lo indica el número de cursos sobre estas materias
que figuran en los planes de estudio de Ingeniería.
Es difícil imaginar una obra de ingeniería que esté basada por completo en los principios
científicos. La mayor parte de los diseños se basan, en parte, en los conocimientos científicos y,
necesariamente, en la experiencia y en la inventiva.
Como resultado, un ingeniero debe trabajar con frecuencia en estrecha colaboración con otros
ingenieros de especialidad diferente a la suya, y él mismo tiene que emplear conocimientos de
otras ramas de la ingeniería. Por lo tanto suele darse cuenta que en el trabajo real su
conocimiento debe traspasar las fronteras tradicionales de su especialidad.
Debe abarcar materias tales como economía, teoría del Gobierno, Psicología, Sociología y
Humanidades. Esta aptitud de conocimientos es importante por diversas razones:
• Se deben conocer los "hechos económicos de la vida". Para que un ingeniero sea apreciado
debidamente por quien lo emplee y sea de provecho para la sociedad, tiene que darse cuenta de
la importancia y los aspectos intrincados de las utilidades o ganancias, costos, relaciones entre
precio y demanda, rédito a la inversión, depreciación, cargos por interés sobre el capital y otros
asuntos económicos. Constantemente se verá envuelto en decisiones económicas.
• Debe darse cuenta de las contribuciones que pueden hacer personas de otras disciplinas y
campos, además, tiene que ser capaz de hablar con ellos inteligentemente; de trabajar con ellos y
de entender sus problemas.
• Una educación superior es una preparación para algo más que tener un medio de vivir; es una
preparación para vivir. En consecuencia, los estudios de un ingeniero no deben concentrarse
enteramente en la ciencia y la ingeniería.
• La educación amplia, prepara y motiva para mostrar un verdadero interés por la sociedad en la
que influirá mediante las obras realizadas; no hay argumento más poderoso para extender la
educación de un ingeniero a las humanidades y las ciencias sociales.
El proceso llamado diseño, es el procedimiento general por el que se convierte el enunciado vago
de lo que se desea, en el conjunto de especificaciones de un sistema que sirva para el propósito
deseado. El diseño es la parte medular de la ingeniería; todo lo que se efectúa para resolver un
problema se hace mediante ese procedimiento.
Un método para predecir el funcionamiento de las soluciones alternativas es el uso del criterio
personal, otro son las matemáticas y otro más la simulación, es decir la experimentación en que se
utiliza un substituto del objeto real.
Se tiene que experimentar, lo que significa que hay que saber cómo preparar un experimento con
el fin de obtener una cantidad máxima de información confiable con un mínimo de tiempo y costo.
En la experimentación y en muchas otras fases del trabajo habrá que utilizar la destreza o
habilidad de medición.
Muy relacionada con la medición y la experimentación está la aptitud para deducir conclusiones
inteligentes a partir de observaciones. Aun cuando las mediciones son de naturaleza simple, la
acertada interpretación de ella no es tan directa como podría creerse. La tendencia poco sana a
deducir conclusiones incorrectas que se tiene por naturaleza, es probable que persista hasta la
práctica de la profesión, a menos que se adiestre a la mente para combatirla. Para ello, es muy
importante aprender a conocer las diversas fuentes potenciales de error que intervienen en el
proceso de deducir conclusiones, las limitaciones de las muestras pequeñas, el papel que juegan
el azar, la incertidumbre y los prejuicios, y la importancia de evaluar cuidadosamente la
confiabilidad de la evidencia disponible.
Una computadora digital es una poderosa herramienta práctica. La habilidad para utilizarla, para
manejar la regla de cálculo y otros medios auxiliares semejantes, constituyen la habilidad en la
computación o cálculo. Siempre se busca la solución óptima. La optimización es un término que se
aplica al proceso de alcanzar la solución óptima; la destreza o habilidad a este respecto es
ciertamente importante.
Cultivar una actitud interrogante y una curiosidad del cómo y el por qué de las cosas permitirá a
los ingenieros obtener mucha información útil y numerosas ideas aprovechables. El dudar de
diversos hechos, requisitos, características etc. Para hacer que se prueben por sí mismos,
especialmente cuando son asuntos o conceptos muy arraigados, realmente puede resultar muy
provechoso.
Además habrá que afrontar muchas situaciones que deben su existencia a la costumbre más que
a la razón. Al hacer frente a prejuicios, presiones y tradiciones, hay que esforzarse en tener
objetividad al realizar evaluaciones y tomar decisiones.
Se espera que un ingeniero asuma una verdadera actitud profesional hacia su trabajo, hacia la
gente a la que sirve, hacia sus colegas etc., en la manera tradicional de las profesiones. El
verdadero profesionista sirve a la sociedad como un experto en relación con un cierto tipo de
problema relativamente complicado.
La obligación profesional comprende algo más que limitarse a vivir de acuerdo con la confianza
depositada por aquellos a quienes sirve y que resultan afectados por las obras realizadas. Incluye
también:
• Insistencia en considerar a fondo un proyecto hasta tener una solución bien fundamentada.
• El deseo de sostenerse en esa solución, con el objeto de aprovechar la experiencia que tuvo con
ella.
• Mantener en estricta reserva las ideas no patentadas, los procesos secretos, los métodos de
características únicas o especiales etc.
Para determinar el valor que se pueda tener como ingeniero, será de mucha importancia poseer
una mente abierta hacia lo nuevo y diferente. Una mente flexible es una gran ventaja. Hay que ser
receptivo a las nuevas teorías, a las nuevas ideas y a las innovaciones en la técnica.
El recibir el título de ingeniero marca solo el fin del principio. La educación formal recibida
proporciona un sólido comienzo en un proceso de desarrollo a largo plazo.
A medida que el conocimiento sigue acumulándose con rapidez creciente y los problemas técnicos
son cada vez más complejos, la aptitud y la inclinación a acrecentar continuamente lo aprendido
en la escuela se vuelven más importantes.
La necesidad de mantenerse al día uno mismo es cada vez más imperiosa, porque la rapidez con
que cambian los conocimientos y las técnicas crece constantemente.
1. Impartir una parte significativa del conocimiento de hechos reales que se requerirán.
La familiarización de un Ingeniero con las ciencias puede concentrarse en las ciencias físicas y
matemáticas, pero ciertamente no debe limitarse a ellas. Tal familiarización se debe extender a las
ciencias sociales y puede comprender aún las ciencias biológicas. Así pues, la educación formal
de un ingeniero, usualmente debe abarcar las ciencias sociales y naturales, la tecnología y las
humanidades, y tiene que ser, por cierto, una educación muy amplia. Esto es importante, pues la
amplitud de conocimientos es deseable, y en la actualidad no puede considerarse amplia una
educación si no comprende la tecnología.
Las habilidades y las actitudes no pueden adquirirse de la misma manera que los hechos. Para
adquirirlas, se requiere una disciplina mental ejercitada durante un largo tiempo. Aunque las
habilidades y actitudes requieren un poco más de tiempo y esfuerzo para adquirirlas que el
conocimiento de hechos reales, son igualmente difíciles de perder. Además, el conocimiento
técnico y científico especializado es susceptible de volverse anticuado a medida que se hacen
nuevos descubrimientos.
Las habilidades y aptitudes que se adquieren de una educación en ingeniería serán de valor en
casi cualquier campo. Estos son los beneficios de "uso general".
LABORATORIO N° 04
I. OBJETIVOS
II. INTRODUCCIÓN
UNIDADES SI
Las unidades también tienen las siguientes definiciones prácticas, empleadas para calibrar
instrumentos: el amperio es la cantidad de electricidad que deposita 0,001118 gramos de plata
por segundo en uno de los electrodos si se hace pasar a través de una solución de nitrato de
plata; el voltio es la fuerza electromotriz necesaria para producir una corriente de 1 amperio a
través de una resistencia de 1 ohmio, que a su vez se define como la resistencia eléctrica de
una columna de mercurio de 106,3 cm de altura y 1 mm2 de sección transversal a una
temperatura de 0 ºC. El voltio también se define a partir de una pila voltaica patrón, la
denominada pila de Weston, con polos de amalgama de cadmio y sulfato de mercurio (I) y un
electrólito de sulfato de cadmio. El voltio se define como 0,98203 veces el potencial de esta
pila patrón a 20 ºC.
En todas las unidades eléctricas prácticas se emplean los prefijos convencionales del sistema
métrico para indicar fracciones y múltiplos de las unidades básicas. Por ejemplo, un
microamperio es una millonésima de amperio, un milivoltio es una milésima de voltio y 1
megaohmio es un millón de ohmios.
Todos los componentes de un circuito eléctrico exhiben en mayor o menor medida una cierta
resistencia, capacidad e inductancia. La unidad de resistencia comúnmente usada es el
ohmio, que es la resistencia de un conductor en el que una diferencia de potencial de 1 voltio
produce una corriente de 1 amperio. La capacidad de un condensador se mide en faradios: un
condensador de 1 faradio tiene una diferencia de potencial entre sus placas de 1 voltio cuando
éstas presentan una carga de 1 culombio. La unidad de inductancia es el henrio. Una bobina
tiene una autoinductancia de 1 henrio cuando un cambio de 1 amperio/segundo en la corriente
eléctrica que fluye a través de ella provoca una fuerza electromotriz opuesta de 1 voltio. Un
transformador, o dos circuitos cualesquiera magnéticamente acoplados, tienen una
inductancia mutua de 1 henrio cuando un cambio de 1 amperio por segundo en la corriente del
circuito primario induce una tensión de 1 voltio en el circuito secundario.
Dado que todas las formas de la materia presentan una o más características eléctricas es
posible tomar mediciones eléctricas de un número ilimitado de fuentes.
Por su propia naturaleza, los valores eléctricos no pueden medirse por observación directa.
Por ello se utiliza alguna propiedad de la electricidad para producir una fuerza física
susceptible de ser detectada y medida. Por ejemplo, en el galvanómetro, el instrumento de
medida inventado hace más tiempo, la fuerza que se produce entre un campo magnético y
una bobina inclinada por la que pasa una corriente produce una desviación de la bobina. Dado
que la desviación es proporcional a la intensidad de la corriente se utiliza una escala calibrada
para medir la corriente eléctrica. La acción electromagnética entre corrientes, la fuerza entre
cargas eléctricas y el calentamiento causado por una resistencia conductora son algunos de
los métodos utilizados para obtener mediciones eléctricas analógicas.
Los patrones principales del ohmio y el amperio de basan en definiciones de estas unidades
aceptadas en el ámbito internacional y basadas en la masa, el tamaño del conductor y el
tiempo.
Las técnicas de medición que utilizan estas unidades básicas son precisas y reproducibles.
Por ejemplo, las medidas absolutas de amperios implican la utilización de una especie de
balanza que mide la fuerza que se produce entre un conjunto de bobinas fijas y una bobina
móvil. Estas mediciones absolutas de intensidad de corriente y diferencia de potencial tienen
su aplicación principal en el laboratorio, mientras que en la mayoría de los casos se utilizan
medidas relativas. Todos los medidores que se describen en los párrafos siguientes permiten
hacer lecturas relativas.
MEDIDORES DE CORRIENTE
GALVANÓMETROS
Sólo puede pasar una cantidad pequeña de corriente por el fino hilo de la bobina de un
galvanómetro. Si hay que medir corrientes mayores, se acopla una derivación de baja
resistencia a los terminales del medidor. La mayoría de la corriente pasa por la resistencia de
la derivación, pero la pequeña cantidad que fluye por el medidor sigue siendo proporcional a la
corriente total. Al utilizar esta proporcionalidad el galvanómetro se emplea para medir
corrientes de varios cientos de amperios.
MICROAMPERÍMETROS
Los galvanómetros convencionales no pueden utilizarse para medir corrientes alternas, porque
las oscilaciones de la corriente producirían una inclinación en las dos direcciones.
ELECTRODINAMÓMETROS
Sin embargo, una variante del galvanómetro, llamado electrodinamómetro, puede utilizarse
para medir corrientes alternas mediante una inclinación electromagnética. Este medidor
contiene una bobina fija situada en serie con una bobina móvil, que se utiliza en lugar del imán
permanente del galvanómetro. Dado que la corriente de la bobina fija y la móvil se invierten en
el mismo momento, la inclinación de la bobina móvil tiene lugar siempre en el mismo sentido,
produciéndose una medición constante de la corriente. Los medidores de este tipo sirven
también para medir corrientes continuas.
Otro tipo de medidor electromagnético es el medidor de aleta de hierro o de hierro dulce. Este
dispositivo utiliza dos aletas de hierro dulce, una fija y otra móvil, colocadas entre los polos de
una bobina cilíndrica y larga por la que pasa la corriente que se quiere medir. La corriente
induce una fuerza magnética en las dos aletas, provocando la misma inclinación, con
independencia de la dirección de la corriente. La cantidad de corriente se determina midiendo
el grado de inclinación de la aleta móvil.
MEDIDORES DE TERMOPAR
Para medir corrientes alternas de alta frecuencia se utilizan medidores que dependen del
efecto calorífico de la corriente. En los medidores de termopar se hace pasar la corriente por
un hilo fino que calienta la unión de termopar. La electricidad generada por el termopar se
mide con un galvanómetro convencional. En los medidores de hilo incandescente la corriente
pasa por un hilo fino que se calienta y se estira. El hilo está unido mecánicamente a un
puntero móvil que se desplaza por una escala calibrada con valores de corriente.
Para medir voltajes de corriente alterna se utilizan medidores de alterna con alta resistencia
interior, o medidores similares con una fuerte resistencia en serie.
PUENTE DE WHEATSTONE
Las mediciones más precisas de la resistencia se obtienen con un circuito llamado puente de
Wheatstone, en honor del físico británico Charles Wheatstone. Este circuito consiste en tres
resistencias conocidas y una resistencia desconocida, conectadas entre sí en forma de
diamante. Se aplica una corriente continua a través de dos puntos opuestos del diamante y se
conecta un galvanómetro a los otros dos puntos. Cuando todas las resistencias se nivelan, las
corrientes que fluyen por los dos brazos del circuito se igualan, lo que elimina el flujo de
corriente por el galvanómetro. Variando el valor de una de las resistencias conocidas, el
puente puede ajustarse a cualquier valor de la resistencia desconocida, que se calcula a partir
los valores de las otras resistencias. Se utilizan puentes de este tipo para medir la inductancia
y la capacitancia de los componentes de circuitos. Para ello se sustituyen las resistencias por
inductancias y capacitancias conocidas. Los puentes de este tipo suelen denominarse puentes
de corriente alterna, porque se utilizan fuentes de corriente alterna en lugar de corriente
continua. A menudo los puentes se nivelan con un timbre en lugar de un galvanómetro, que
cuando el puente no está nivelado, emite un sonido que corresponde a la frecuencia de la
fuente de corriente alterna; cuando se ha nivelado no se escucha ningún tono.
VATÍMETROS
CONTADORES DE SERVICIO
El medidor de vatios por hora, también llamado contador de servicio, es un dispositivo que
mide la energía total consumida en un circuito eléctrico doméstico. Es parecido al vatímetro,
pero se diferencia de éste en que la bobina móvil se reemplaza por un rotor. El rotor,
controlado por un regulador magnético, gira a una velocidad proporcional a la cantidad de
potencia consumida. El eje del rotor está conectado con engranajes a un conjunto de
indicadores que registran el consumo total.
III. PROCEDIMIENTOS
I I
R
V CC V CC
CIRCUITO
ABIERTO A
A) B)
R
V CC
C)
I I
R R +
V CC V CC
V
-
+ +
A A
- -
D) E)
TABLA No. 01
A)
o Conecte el otro Terminal (+) a la batería, tal como se muestra en la figura A).
o Lea el valor de la escala del voltímetro análogo o de la pantalla del multímetro digital.
MEDICIÓN DE LA TENSIÓN
I I
R1 R1 +
V CC V CC
V
-
B) C)
o Encienda la fuente de tensión y gire la perilla que controla la tensión de salida hasta
que el multímetro analógico indique el máximo valor de tensión.
o Retire el multímetro analógico y en su lugar inserte el multímetro digital. Mida y anote
el valor en la tabla No. 02.
o Repita los dos pasos anteriores hasta llegar a la tensión mínima. Llenando la tabla
No.02.
o Reduzca la tensión a cero y, luego, apague la fuente de tensión.
R1 – V1
R2 – V2
R3 – V3
R4 – V4
R5 – V5
R6 – V6
Rx R1
+ G
V
0 V
Rv R2
Capítulo 5
Métodos de Resolución de Problemas
Diferentes son las técnicas de resolución de problemas que se pueden utilizar para las tareas que
debe realizar un SBC. Existen ciertas técnicas generales que se pueden aplicar a diferentes tipos
de dominios y tareas. De ellas destacaremos las tres más utilizadas:
En dominios simples, el disponer de las características esenciales de cada una de las categorías
es suficiente para establecer la clase del problema y su solución. Esto no ocurre así cuando la
complejidad del problema aumenta, pues las características esenciales son cada vez más difíciles
de identificar. El objetivo de la técnica de clasificación heurística será obtener y representar el
conocimiento necesario para que la asociación problema-solución se pueda realizar.
Se define como clasificación heurística a toda asociación no jerárquica entre datos y categorías
que requiere de inferencias intermedias. Es decir, el establecer la clase de un problema requiere
realizar inferencias y transformaciones sobre éste, para poder asociarlo con la descripción de la
clase. El esquema de razonamiento para hacer estas inferencias se ha de adquirir del experto.
Por lo general, se hace una abstracción del caso concreto para acercarlo a las soluciones
que se poseen.
2. Asociación heurística
Se busca la mayor coincidencia entre el caso abstraído y las soluciones. Esta asociación
es de naturaleza heurística, es decir, depende de conocimiento basado en la experiencia,
y, por lo general, la correspondencia entre caso y soluciones no será uno a uno, existirán
excepciones, y las coincidencias no serán exactas.
La solución corresponderá con la que mejor coincida con la abstracción de los datos.
3. Refinamiento de la solución
Dentro de este proceso, un punto importante es la abstracción de los datos. Tres son las más
utilizadas:
Abstracción definicional
Se deben extraer las características definitorias del problema y focalizar la búsqueda con
éstas. Le corresponde al experto decidir cuáles son esas características.
Cualitativa
Generalización
Se puede ver que esta metodología de resolución de problemas capta una gran cantidad de
dominios, siendo adecuada para cualquier problema en el que se pueda hacer una enumeración
del espacio de soluciones. Es válida para todas las tareas de análisis.
El proceso de refinamiento del sistema ha de hacerse paso a paso, añadiendo nuevas reglas que
cubran nuevos casos y vigilando las interacciones. La metodología que se suele seguir es la
siguiente:
Esta labor iterativa se puede dividir para cada uno de los módulos que componen el sistema,
reduciendo de esta manera las interacciones entre diferentes partes del conocimiento.
Diferenciación
Frecuencia de condicionalización
Buscar condiciones de base que hagan a una hipótesis más o menos probable.
Distinción de síntomas
Condicionalización de síntomas
Buscar las condiciones bajo las cuales se espera que aparezcan ciertos síntomas dada
una hipótesis.
División de caminos
Descubrir los sucesos intermedios entre hipótesis y síntomas que son más probables.
Diferenciación de caminos
Buscar los eventos intermedios que pueden diferenciar hipótesis con similares evidencias.
Diferenciación de condiciones
Condicionalización de condiciones
La conjunción de todas estas fases permite construir la base de conocimiento necesaria para la
resolución del problema.
Como ejemplo de la técnica de clasificación heurística, vamos a plantear un pequeño SBC para la
concesión de créditos bancarios para creación de empresas. El propósito de este sistema será
examinar las solicitudes de créditos de clientes con pretensiones de crear una empresa para
determinar si se les debe conceder y qué cuantía es la recomendable respecto a la que solicitan.
El problema que se nos plantea tiene por lo tanto una labor de análisis que nos ha de predecir la
fiabilidad de si cierta persona, en ciertas condiciones, será capaz de devolver un crédito si se lo
concedemos. El número de soluciones a las que podemos llegar es evidentemente finito: el crédito
se concede, o no se concede, y en el caso de que se conceda, se decidirá si la cuantía solicitada
es adecuada o si sólo se puede llegar hasta cierto límite.
Todas estas características indican que la metodología de resolución que mejor encaja es la
clasificación heurística, por lo tanto dirigiremos el planteamiento con las fases que necesita.
Deberemos plantear cuatro tipos de elementos y los mecanismos para transformar unos en otros.
El primero será cómo se plantearán los problemas al sistema, es decir, qué elementos se
corresponderán con los datos específicos, las solicitudes de crédito.
Esta información ha de definir el estado financiero del solicitante, el motivo por el que pide el
crédito, cuánto dinero solicita, etc. Supongamos que una solicitud contiene la siguiente
información:
Supondremos que estos cinco atributos pueden tomar valores cualitativos que estarán dentro de
este conjunto: muy bueno, bueno, normal, regular, malo, muy malo.
Para realizar la abstracción de datos se podrían dar un conjunto de reglas que harían la
transformación, como por ejemplo:
El conjunto de soluciones abstractas a las que podría dar el análisis de las solicitudes podría ser el
siguiente:
Ahora nos faltan las reglas que nos harán la asociación heurística entre los problemas abstractos y
las soluciones abstractas. Un conjunto de reglas que cubre una pequeña parte del espacio de
soluciones podría ser:
Por último, nos hacen falta reglas para poder generar soluciones concretas en los casos que son
necesarias; algunas reglas podrían ser:
si aceptación con rebaja y petición > 5 millones y bienes = 5 millones entonces rebaja a 5
millones
si aceptación con interés preferente y petición > 10 millones y bienes > 10 millones
entonces rebaja de un 1% de interés
si aceptación con interés preferente y hermano del director entonces rebaja de un 2% de
interés.....
En contraste con la clasificación heurística, hay dominios en los que las soluciones no se pueden
enumerar a priori, sino que la solución ha de construirse. Por ejemplo, en problemas de diseño, o
de planificación, y por lo general, todos los sistemas que incluyen tareas de síntesis.
Este tipo de problemas se pueden atacar mediante métodos no guiados por conocimiento, pero
obtener una solución satisfactoria es computacionalmente prohibitivo.
Construir una solución necesita que exista un modelo de la estructura y el comportamiento del
objeto que se desea construir, modelo que debe contener conocimiento acerca de las restricciones
que se deben satisfacer. Este conocimiento debe incluir:
Dos son las estrategias generales que se siguen para la resolución de este tipo de problemas:
En principio, el experto debe tener una idea clara de la descomposición en tareas del problema y
de las relaciones espacio-temporales entre éstas, para de esta manera plantear las restricciones
que se tienen que cumplir. Se han de definir también las operaciones que se pueden efectuar en
cada estado de la resolución, cuándo se pueden aplicar y cuáles son sus efectos. Los pasos que
se siguen en esta metodología son los siguientes, para cada tarea a realizar para alcanzar la
solución:
Partir de una solución inicial no óptima, pero que satisfaga las restricciones.
Hacer una modificación sobre la solución. Esta modificación ha de hacerse de acuerdo
con la heurística de mínimo compromiso, es decir, escoger la acción que menos
restricciones imponga sobre la solución y, por lo tanto, menos restricciones imponga sobre
el próximo paso.
Si la modificación viola alguna de las restricciones, se intenta deshacer alguno de los
pasos anteriores, procurando que las modificaciones sean las mínimas. Esta modificación
no tiene por qué ser precisamente deshacer el último paso que se realizó.
Parte de la idea de que el espacio de soluciones está organizado jerárquicamente, de manera que
en niveles más altos se encuentran soluciones más generales, que se deben refinar mediante el
conocimiento que guiará a través del árbol de soluciones a soluciones más concretas.
Obtenido de:
"http://es.wikibooks.org/wiki/Ingenier%C3%ADa_del_conocimiento/M%C3%A9todos_de_resoluci%
C3%B3n_de_problemas".
Se define, de manera general, como una formulación o una ecuación que expresa las
características esenciales de un sistema físico o de un proceso en términos matemáticos. La
variable dependiente refleja el comportamiento o estado de un sistema; las variables
independientes son por lo común, dimensiones tales como tiempo y espacio, a través de los
cuales se determina; los parámetros son el reflejo de las propiedades o la composición del
sistema, las funciones de fuerzas son influencias externas que actúan sobre el sistema.
Newton formulo su segunda ley del movimiento, la cual establece que la razón del cambio del
momentum con respecto al tiempo de un cuerpo, es igual a la fuerza resultante que actúa sobre él.
F=MA
d. Métodos numéricos
Son aquellos en los que se reformula el problema matemático para lograr resolverlo mediante
operaciones aritméticas.
Las aplicaciones en la ingeniería se proponen para ilustrar como se emplean actualmente los
métodos numéricos en la solución de problemas en ingeniería. Estas aplicaciones nos permitirán
examinar la solución a los problemas prácticos que surgen en el mundo real. Establecer la relación
entre las técnicas matemáticas como los métodos numéricos y la práctica de la ingeniería es un
paso decisivo para mostrar su verdadero potencial.
Exactitud y Precisión
La exactitud se refiere a que tan cercano está el valor calculado o medido del verdadero valor. La
precisión se refiere a que tan cercanos se encuentran, unos de otros, diversos valores calculados
o medidos.
La inexactitud se define como una desviación sistemática del valor verdadero. La imprecisión
por otro lado se refiere a la magnitud en la dispersión de los disparos.
Definiciones de Error
Los errores numéricos surgen del uso de aproximaciones para representar operaciones y
cantidades matemáticas exactas. Estas incluyen los errores de truncamiento que resultan del
empleo de aproximaciones como un procedimiento matemáticos exactos, y los errores de
redondeo que se producen cuando se usan números que tienen un límite de cifras significativas
para representar números exactos.
Para ambos tipos de errores, la relación entre el resultado exacto, o verdadero y el aproximado
está dado por:
Tipos de errores
E = pnueva – p
Error absoluto
EA = │pnueva - p│
Error relativo
E R P = E R * 100
A menudo, cuando se realizan cálculos, no importa mucho el signo del error, sino más bien que su
valor absoluto porcentual sea menor que una tolerancia porcentual prefijada Es. Por lo tanto, es
útil emplear el valor absoluto de las ecuaciones en tales casos las ecuaciones se repiten hasta
que:
Si se cumple la relación anterior, entonces se considera que el resultado obtenido está dentro del
nivel aceptable fijado previamente Es.
Algunos métodos iterativos numéricos usan un método iterativo para calcular los resultados. En
tales métodos se hace una aproximación del error considerado la aproximación anterior. Este
proceso se lleva a cabo varias veces para calcular en forma sucesiva, esperando cada vez
mejores aproximaciones. En tales casos el error se calcula como la diferencia entre la
aproximación previa y la actual.
Es importante que cuando se calcule el ERPa este sea menor que una tolerancia porcentual
prefija esta seria: Es
Es.- Tolerancia porcentual prefijada. Los cálculos se repiten hasta que ERPa sea menor que Es
Si se cumple la condición anterior entonces se considera que el resultado obtenido está dentro del
nivel aceptable fijado previamente.
Este trabajo proporciona al docente joven herramientas para aprender cómo enseñar ingeniería,
ayudándole efectiva y eficientemente en su actividad docente y en su desarrollo académico. La
educación en ingeniería se orienta fuertemente a la solución de problemas; pero muchos docentes
sólo enseñan contenidos y esperan que los estudiantes resuelvan problemas automáticamente.
Muchas Escuelas de Ingeniería enseñan rutinas y diagnósticos solamente descuidan la enseñanza
de estrategias, generación de alternativas e interpretación. En este artículo se discute aplicación
de dichos aspectos, incluyendo creatividad. Constituye parte de estudios más amplios que el autor
desarrolla sobre el tema.
a. INTRODUCCIÓN
1. Rutinas: Son operaciones o algoritmos que se pueden ejecutar sin necesidad de tomar
decisiones, como la resolución de expresiones matemáticas. Se consideran como problemas de
un nivel de aplicación directa (plug and chug).
2. Diagnosis: Es la selección del procedimiento correcto para usar una rutina, tal como la
escogencia de una fórmula entre varias disponibles para determinar la solución a un determinado
problema.
Análisis y Síntesis forman parte de la taxonomía de Bloom, mientras que Generalización rara vez
se incluye como componente de la taxonomía de la solución de problemas. Simplificación se usa
cuando se desea llegar a una solución rápida. Creatividad es un elemento muy estudiado pero
poco entendido. Torna de decisiones es parte integrante del proceso de solución de problemas.
Un experto puede almacenar en el cerebro durante un período de 10 años una masa de más de
50 mil patrones de conocimiento especializado fácilmente accesible, conectados de algún modo.
Raras veces almacena hechos aislados. Por ello, los estudiantes necesitan ejercitar para
desarrollar árboles o redes de interconexión del conocimiento. No puede pretenderse que durante
su formación académica de unos cinco años el estudiante de ingeniería se convierta en un
experto. Sin embargo, es razonable formar profesionales capaces de resolver problemas desde el
inicio de su actividad profesional, capaces de convertirse en expertos con unos cuantos años de
experiencia. Hay diferencias en el modo de cómo resuelven los problemas los expertos y los
novatos. En la Tabla 1 se dan esas diferencias. Observando esas diferencias los educadores de
ingeniería pueden encontrar áreas en las cuales deberían centrar su atención para mejorar la
habilidad de sus estudiantes. En la categoría de prerrequisitos, debería motivarse a los
estudiantes para aprender los aspectos fundamentales y desarrollar procedimientos detallados. El
conocimiento debe estructurarse de modo tal de agruparlos en patrones en vez de hechos
aislados. Al trabajar con problemas los estudiantes deben practicar definiciones, formulación,
gráficas de diagramas, interpretación, análisis (descomposición del, problema en sus
componentes) y exploración. Luego que conocen una estrategia, deben monitorear su proceso;
conocer procedimientos para salir de las trabas. Deben comprobar sus resultados y evaluarlos
sobre la base de criterios internos y externos. Si han cometido errores deben aprender de ellos y
permanecer activos y precisos.
Cualquiera que sea la estrategia seleccionada, debe usarse en forma consistente. Algunos
expertos recomiendan usar estrategias de 4 a 15 etapas. Menos de 4 probablemente resulta muy
corta con deficiencia en los detalles; más de 15, resulta muy larga, engorrosa y difícil de recordar y
usar. Aquí se recomienda usar una estrategia de un paso inicial centrado en la motivación y 6
pasos operacionales: O) Motivación; I) Definición; 2) Exploración; 3) Plan; 4) Desarrollo; S)
Verificación; y 6) Generalización. En la industria el proceso de solución de problemas también se
lleva a cabo en seis pasos: Identificación, Análisis, Generación de Alternativas, Selección de
Alternativas, Implementación y Control. A continuación vamos a describir brevemente en qué
consiste cada etapa:
1. Definición. Listar las variables conocidas / desconocidas; dibujar un diagrama mostrando las
relaciones fundamentales; definir claramente los criterios y restricciones.
2. Exploración. Es la fase de pensar acerca del problema o ponderar. El experto hace preguntas
exploratorias a la audiencia sobre todas las dimensiones del problema. Si se trata de un problema
rutina, su solución será directa e inmediata; si no lo es, analizará el problema descomponiéndolo
en partes, muchas de las cuales podrán ser rutinas. Buscará la solución alterna para las otras
partes.
3. Plan. Se usa la lógica formal para establecer las fases del problema. En problemas de muchas
fases podría usarse un diagrama de flujo. Las ecuaciones pueden escribirse y resolverse
literalmente.
f. ARRANQUE Y DESENTRABAMIENTO
Una estrategia se torna inútil si no muestra cómo arrancar y cómo salir de los atolladeros. Los
novatos tienden a abandonar o a realizar estimaciones groseras; mientras que los expertos
reinician la fase de definición y utilizan heurismos. El docente debe usar eslogans motivadores
(ganadores nunca abandonan, los que abandonan nunca ganan); animar a sus estudiantes para
que reinicien su estrategia (releer la formulación y verificar los números); y sugerir la identificación
de sus dificultades con el problema. Luego de ubicar los obstáculos, es más fácil bordearlos; y si
aún hay dificultades se pueden usar los heurismos. A continuación se lista una variedad de
heurismos, de entre los cuales se puede escoger los que mejor se adapten a cada situación:
- Relacionar el problema con otros similares cuya solución se conoce. Usar analogías
- Generalizar el problema
- Preguntarse sobre las acepciones ocultas o aquellas que no se han tomado en cuenta
Antes de concluir esta sección vamos a considerar las seis categorías de bloques usados por
Adams (1978): 1) Perceptual: dificultades en la percepción del problema; 2) Cultural: tendencia
cultural versus pensamiento convergente versus pensamiento lateral creativo divergente; 3)
Ambiental; 4) Emocional; 5) Intelectual: falta de conocimiento; y 6) Expresivo.
Hay muchas investigaciones orientadas al modo de cómo mejorar la habilidad de los estudiantes
para la solución de problemas. Algunos investigadores recomiendan la adopción de cursos
separados sobre la materia. Sin embargo, dado que se requiere conocimiento específico sobre el
problema por resolver es más conveniente incluir el tema en los programas de los cursos
existentes. En los niveles bajos de los estudios de ingeniería la solución de problemas requiere de
habilidades relacionadas con manipulaciones algebraicas. Luego es un requisito fundamental un
dominio de esa asignatura. Pero las técnicas de solución de problemas deben enseñarse a lo
largo de toda la carrera universitaria, incluyendo heurismos y trucos claves. Lo ideal es utilizar la
misma estrategia en todas las clases de ciencias e ingeniería y en los libros de texto. Cuando se
resuelve un problema, ya sea en clase o en las notas de clase, debe ilustrarse la estrategia. Luego
instruir al estudiante para que utilice la misma estrategia en los trabajos encargados, en los
proyectos y en las pruebas presénciales. Los ejemplos ilustrativos constituyen importantes
instrumentos de aprendizaje.
De acuerdo con la técnica de aprender haciendo, los estudiantes necesitan resolver problemas,
más complejos que simples rutinas, para saber cómo hacerlo. Con los principian se debe usar una
estructura más regular que se inicie con trabajos encargados y continúe con las pruebas
presencial motivándoles para que elaboren sus propias notas laterales diagramas de flujo. Antes
de trabajar con cantidades numéricas debe usarse soluciones algebraicas simbólicas, cuidando
escribir todo el procedimiento de los cálculos. Es recomendable, utilizar una combinación de
análisis, síntesis y evaluación problemas. Los problemas encargados deben ser de mayor grado
de dificultad que las pruebas presénciales. Los problemas tipo abierto requieren de una síntesis.
Hay que tener en cuenta que con frecuencia, los estudiantes que son buenos en la solución de
problemas no lo son en la solución de rutinas (principio de Peter).
Cubrir separadamente todas las fases de la estrategia seleccionada. Revisar si hay errores
cuando se busca precisión; en dado caso, haga repetir el proceso. Trate de presentar algunos
problemas ambiguos en las prácticas de interpretación. Exija estimación de algunas constantes
físicas y esté preparado para una variedad de soluciones. Presente casos reales donde no una
definición clara del problema.
Haga verbalizar el problema en clase utilizando dinámica de grupos; divida la clase en pares.
Designe a une de los miembros de cada par para que resuelva el problema verbalizando su
procedimiento, mientras que el otro registra todo lo que hace su compañero. Si el procedimiento
no está claro, el registrador inquirirá sobre las razones del proceder puede llamar la atención sobre
errores algebraicos y numéricos pero no debe resolver el problema ni conducir a su pareja hacia la
solución. Explique el rol que deben jugar los pares y entre la formulación escrita del problema
animándoles que lean voz alta. Visite a los grupos mientras resuelven el problema. Una vez
concluida la solución (correcta o incorrecta), instruya a los pares que discutan lo que han hecho
recordándoles que propósito es aprender a resolver problemas y no la resolución en sí misma.
Para que el procedimiento expuesto sea efectivo debe usarse varias veces durante el semestre.
Es aplicable en clases relativamente numerosas. El método mantiene a los participan activos y
simultáneamente les enseña, tanto contenido, como el modo de resolver problemas. Constituye
una buena forma descanso dentro de sesiones excesivas de clases teóricas. Docente también
aprende mediante este método verbalización.
Otra forma de enseñar resolución de problemas, tanto al nivel individual, como en grupos, es
mediante el uso métodos instruccionales, como simulación, estudio de casos diseño dirigido y
discusión, que confronten al estudiante con problemas de ingeniería del mundo real (o por lo
menos realistas). Los estudiantes deben ayudar a definir el problema luego trabajar en el
desarrollo de una solución. Presione por evaluación de la solución y por la búsqueda de otra
mejor. Una vez concluido el desarrollo, ayude a describir el proceso de modo que los propios
estudiantes descubran el método que han utilizado.
A través de la verbalización se logra una buena retroalimentación. Los grupos constituyen una
excelente herramienta para la interpretación del problema y para la exploración mediante una
tormenta de ideas. Para el docente es más fácil trabajar con grupos de 3 a 5 estudiantes en vez de
Ya sea que se trabaje en grupos o individualmente, la meta no es lo que los estudiantes desean
en primera línea (la solución), sino enseñarles para que encuentren una solución y que mejoren
sus habilidades en el proceso de solución de problemas. Para ello requieren de un estímulo para
que verbalicen los problemas y rehúsen abandonar prematuramente. El docente debe evaluar la
base de conocimientos y su estructura jerárquica y centrar su actividad en métodos de resolución
de problemas. Así, si los estudiantes llegan a un estancamiento, se puede interrogar sobre los
heurismos usados o que pueden usar. Si la traba se debe al uso de un procedimiento incorrecto,
haga ver dónde está el error, pero no muestre el procedimiento correcto, deje que lo descubra por
sí mismos. El diseño guiado requiere que la solución se desarrolle a priori, de tal modo que los
estudiantes puedan ser conducidos a lo largo de todas las fases del proceso. Normalmente el
docente no dispone de mucho tiempo para describir detalladamente el proceso, pero vale la pena
hacer ese esfuerzo en bien de la mejora del nivel general de la clase.
h. CREATIVIDAD
Las habilidades creativas nacen con el individuo, se incrementan en la escuela elemental en los
primeros ocho años de edad y luego decrecen gradualmente con la formación de segunda y
tercera enseñanza (Hueter, 1990). Así, los ingenieros se encuentran en una situación paradójica;
la educación que le brinda la capacidad de análisis para resolver problemas complejos, es la
misma que le quita parte de su creatividad. Sin embargo, con actitudes positivas y ejercitación
adecuada en las clases, los estudiantes pueden incrementar su nivel de creatividad. La labor
docente consiste en naturalizar la habilidad creativa latente que se encuentra en cada estudiante y
evitar su declinación. Para ello considere los siguientes aspectos:
1. Estimule a los estudiantes a ser creativos. El individuo es más creativo cuando se le pide
que lo sea; luego un primer paso consiste en requerir la producción de múltiples
soluciones a través de enunciados como desarrolle alguna solución creativa para este
problema; proporcione diferentes modos de interpretar la formulación de este problema;
dé una lista de 20 o más posibles soluciones al problema, etc. De la extensa lista de
soluciones se pueden desarrollar dos o tres solamente. Otro ejemplo, aplicable a cualquier
clase, es requerir que el estudiante escriba un trabajo encargado o pruebe con preguntas
y respuestas. El nivel de creatividad aumenta cuando la calificación se basa en lo
novedoso de las preguntas y respuestas.
- Tormenta de ideas: Es una técnica fácil de usar. Consiste en registrar todas las
ideas, aunque se repitan, sin cuestionar su validez; se pueden construir ideas
sobre la base de otras dadas por el grupo. Se establece una lista de posibles
soluciones; se seleccionan y evalúan las más prominentes.
REFERENCIAS
1. Adams, J. L. (1978): Conceptual Blockbusting, Norton, York.
3. Florman, S.G. (1987): The Civilized Engineer. St Mar t Press. New York.
5. Mayer, R. E. (1992): Thinking, Problem Solving Co nil WH. Freeman, New York.
6. Plants H.L. (1989): Teaching Models for Teaching Models for Teaching Problem Solving.
Proceeding ASEE. Annual Conference AS] Washington DC.
7. Scarl, D (1990): How to Solve Problems for Success in Fresman Physics. Engineering, and
Beyond. 2n Ed. Desoris Press Glen Cove, New York.
8. Hueter, J.M. (1990): Innovation and Creativity: A critical Linkage. Proceedings ASEE, Annual
Conference AS Washington D.C.
LABORATORIO N° 05
EL CAPACITOR
I. OBJETIVO
Investigar la relación entre el flujo de carga y tiempo que tarda en cargarse un capacitor.
q
La capacitancia, C, se encuentra por medio de la siguiente relación C donde C es la
V
capacitancia en farads, q es la carga en coulombs y V es la diferencia de potencial en volts.
Siga con cuidado el diagrama del circuito cuando efectúe las conexiones + y -.
III. MATERIALES
capacitor de C en F (1000 F)
resistencia de R1 en k (10 k )
resistencia de R2 en k (27 k )
voltímetro
fuente de 0 a 15 Vcc (fuente de poder)
amperímetro CD, 0-1,0 mA
interruptor de palanca
cables de conexión
cronómetro (o reloj con segundero).
IV. PROCEDIMIENTOS
4.1 Arregle el circuito como muestra la figura. El amperímetro, el capacitor y la batería deben
conectarse en el orden adecuado. Vea las marcas + y – en los componentes del circuito.
La placa positiva del capacitor debe conectarse a la terminal positiva de la batería. Si las
conexiones se invierten, el capacitor puede dañarse. Las resistencias no tienen extremo +
y -. Registre en la tabla N0. 01 el voltaje de la batería y el valor del capacitor.
4.2 Con un compañero de práctica tomando el tiempo y otro leyendo y registrando los valores
de corriente, cierre el interruptor de palanca y empiece a tomar las lecturas. En el instante
que se cierre el interruptor, circulará una gran corriente. Tome lectura de la corriente cada
cinco segundos hasta que sea demasiado pequeña para medirla. Estime sus lecturas del
amperímetro con la mayor precisión posible. Registre las lecturas en la tabla No. 02.
4.3 Abra el interruptor de palanca. Empleando una pieza de cable conecte ambos extremos
del capacitor para descargarlo.
4.5 Repite los pasos 1 al 3 con el resistor de R2 k . Registre las lecturas en la tabla No. 02.
4.6 Después de que se han tomado todas las lecturas, desmantele el circuito. Asegúrese de
desconectar todos los cables de la batería (o fuente de poder).
V. OBSERVACIONES Y DATOS
TABLA No. 01
VOLTAJE DE LA BATERIA
CAPACITANCIA
TABLA No. 02
R1 - k R2 - k
Tiempo (s) Corriente (mA) Corriente (mA)
0
5
10
15
20
25
30
35
40
45
50
55
60
65
70
75
75
80
85
90
VI. ANÁLISIS
6.1 ¿Por qué la corriente inició en un valor máximo y descendió hasta cero mientras el
capacitor se estaba cargando?
------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
6.2 Analice los datos obtenidos con las dos resistencias. Explique la función de la resistencia
en el circuito.
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
-----------------------------------------------------------------------------------------------------------------------
6.3 Empleando los datos de la tabla 1, dibuje dos gráficas para la corriente eléctrica como una
función del tiempo. Trace una curva continua.
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------- -----------------------------
------------------------------------------------------------------------------------------------------------- ------------
6.4 El área entre la curva y el eje del tiempo representa la carga almacenada en el capacitor.
Estime el área bajo la curva mediante el dibujo de dos o más triángulos que aproxime el
área.
Note que la corriente está en mA, por lo que éstos deben convertirse a amperes utilizando
1 mA = 1.10-3 A. ¿Cuál es la carga eléctrica estimada para el capacitor con el resistor de
R1 k y con el de R2 k ?
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
-----------------------------------------------------------------------------------------------------------------------
6.5 Calcule la capacitancia del capacitor, C = q / V, empleando el valor para la carga eléctrica
de la pregunta 4 y la diferencia de potencial medida de la fuente de poder.
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------
6.6 Compare el valor determinado en la pregunta 5 con el valor indicado por el fabricante que
usted anotó en la tabla 1. Los capacitores electrolíticos tienen grandes tolerancias, con
frecuencia del orden del 50%, por lo que es posible que exista una considerable
diferencia. Encuentre el error relativo entre los dos valores.
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------
----------------------------------------------------------------------------------------------------------------------
----------------------------------------------------------------------------------------- --------------------------------
-------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------ -------------------
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------- -----
6.8 ¿Cuáles fueron las variables que se manejaron y cuáles permanecieron constantes
durante el experimento? Describa la curva de corriente eléctrica contra tiempo.
------------------------------------------------------------------------------------- ------------------------------------
-------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------- -----------------------
-------------------------------------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------------------------- -------
VII. APLICACIÓN
Describa cómo a un circuito RC (un circuito que incluye una resistencia y un capacitor),
capaz de cargarse y descargarse a una rapidez específica y constante, podría dársele algún
uso en el hogar, automóvil o centro de diversión.
--------------------------------------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------------------------------------
--------------------------------------------------------------------------------------------- ------------------------------
VIII. ANEXO
Repita el experimento con otro capacitor que le proporcione su maestro o conecte varios
capacitores en paralelo. Los capacitores conectados en paralelo tienen un valor efectivo
igual a la suma de los capacitores individuales. La cantidad RC es la constante de tiempo
para el circuito y sus unidades son los segundos, ya que R se mide en ohms y C se mide en
Faradays. La constante de tiempo es el tiempo requerido por la corriente eléctrica para
descender hasta el 37% de su valor original. Antes de que usted empiece, verifique que el
valor de RC puede medirse con facilidad. Siga el mismo procedimiento y compare los
resultados de la gráfica con sus resultados previos.
-------------------------------------------------------------------------------------------------------------------------- -
--------------------------------------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------------------------------------
--------------------------------------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------------------------------------
Capítulo 6
Proceso de Diseño en la Ingeniería
6.1 DEFINICIÓN
El diseño de ingeniería puede describirse como el proceso de aplicar diversas técnicas y principios
científicos, con el objeto de definir un dispositivo, un proceso o un sistema con suficiente detalle
para permitir su realización. Es importante destacar el hecho de que es un proceso, que debe ir
encaminado a cubrir cierta necesidad.
El proceso de diseño, también se puede definir como una guía general de los pasos que pueden
seguirse para dar al Ingeniero, cierto grado de dirección para la solución de problemas. Los
diseñadores emplean un gran número de combinaciones de pasos y procedimientos de diseño. El
seguir las reglas estrictas del diseño, no asegura el éxito del proyecto y, aún, puede inhibir al
diseñador hasta el punto de restringir su libre imaginación. A pesar de esto, se cree que el proceso
de diseño es un medio efectivo para proporcionar resultados organizados y útiles.
Definir es establecer los límites; es delimitar el problema y el alcance de la solución que está
buscándose. Es indicar lo que se quiere hacer y a dónde no se quiere llegar. Definir un problema
es la parte más complicada en el proceso de diseño; una equivocación a esta altura representa un
enorme error al final
Ideas preliminares. Una vez que se ha definido y establecido el problema, en forma clara, es
necesario recopilar ideas preliminares, a partir de las cuales se pueden asimilar los conceptos del
diseño. Esta es probablemente la parte más creativa en el proceso de diseño, puesto que en la
etapa de identificación del problema, solamente se han establecido limitaciones generales, el
diseñador puede dejar que su imaginación considere libremente cualquier idea que se le ocurra.
Estas ideas no deben evaluarse en cuanto a factibilidad, puesto que se las trata con la esperanza,
de que una actitud positiva estimule otras ideas, asociadas como una reacción en cadena. El
medio más útil para el desarrollo de ideas preliminares es el dibujo a mano alzada.
Los bosquejos son más útiles cuando se dibujan a escala, pues a partir de ellos se pueden
determinar tamaños relativos y tolerancias y, mediante la aplicación de geometría descriptiva y
dibujos analíticos, se pueden encontrar longitudes, pesos, ángulos y formas. Estas características
físicas deben determinarse en las etapas preliminares del diseño, puesto que pueden afectar al
diseño final.
Análisis. El análisis es la parte del proceso de diseño, que mejor se comprende en el sentido
general. El análisis implica el repaso y evaluación de un diseño, en cuanto se refiere a factores
humanos, apariencia comercial, resistencia, operación, cantidades físicas y economía, dirigidos a
satisfacer requisitos del diseño. Gran parte del entrenamiento formal del ingeniero, se concentra
en estas áreas de estudio.
A cada una de las soluciones generadas, se le aplica diversos tamices para confirmar si cumplen
las restricciones impuestas a la solución, así como otros criterios de solución. Aquellas que no
pasan estos controles son rechazadas, y solamente se dejan las que, de alguna manera, podrían
llegar a ser soluciones viables al problema planteado.
Decisión. Es la etapa del proceso de diseño, en la cual el proyecto debe aceptarse o rechazarse,
en todo o en parte. Es posible desarrollar, perfeccionar y analizar varias ideas y cada una puede
ofrecer ventajas sobre las otras, pero ningún proyecto es ampliamente superior a los demás.
La decisión acerca de cuál diseño será el óptimo para una necesidad específica, debe
determinarse mediante experiencia técnica e información real. Siempre existe el riesgo de error en
cualquier decisión, pero un diseño bien elaborado estudia el problema a tal profundidad, que
minimiza la posibilidad de pasar por alto una consideración importante, tal como ocurriría en una
solución improvisada.
Realización. El último paso del diseñador, consiste en preparar y supervisar los planos y
especificaciones finales, con los cuales se va a construir el diseño. En algunos casos, el diseñador
también supervisa e inspecciona la realización de su diseño. Al presentar su diseño para
realización, debe tener en cuenta los detalles de fabricación, métodos de ensamblaje, materiales
utilizados y otras especificaciones.
Durante esta etapa, el diseñador puede hacer modificaciones de poca importancia que mejoren el
diseño; sin embargo, estos cambios deben ser insignificantes, a menos que aparezca un concepto
enteramente nuevo. En este caso, el proceso de diseño debe retornar a sus etapas iniciales, para
que el nuevo concepto sea desarrollado, aprobado y presentado.
Siguiendo un esquema similar, Mason, Burton y Stacey definieron las fases de abordaje, ataque y
revisión. Una evolución algo más detallada, aunque manteniendo la misma estructura; su
subdivisión se muestra en el cuadro siguiente.
Debe tomarse en cuenta, en la etapa del pre-diseño, que el diseño en ingeniería involucra
problemas de solución abierta (no única), en los que la información disponible no es suficiente. En
tal situación, se tiende a perder la necesaria visión global del problema y se manifiesta poca
capacidad para integrar los conocimientos adquiridos en otras áreas. Es decir, se reduce la
capacidad de abordar una tarea multidisciplinaria, a causa del tipo de información recolectada.
Los conocimientos necesarios para el proceso de diseño, se pueden agrupar en los siguientes
grupos:
6.3 BIBLIOGRAFÍA
Ertas, A. y Jones, J. 1993. The engineering design process. Editorial McGraw Hill. Nueva York.
Sampieri, R., Collado, C. y Lucio, Pilar Baptista. 2000. Metodología de la investigación. Editorial
McGraw Hill. México Distrito Federal.
LABORATORIO N° 06
Datos de entrada
Dimensiones del local y la altura del plano de trabajo (la altura del suelo a la superficie de
la mesa de trabajo), normalmente de 0.85 m.
Determinar el nivel de iluminancia media (Em). Este valor depende del tipo de actividad a
realizar en el local y podemos encontrarlos tabulados en las normas y recomendaciones
que aparecen en la bibliografía.
Óptimo:
Calcular el índice del local (k) a partir de la geometría de este. En el caso del método
europeo se calcula como:
* Iluminación directa, *
Semidirecta,
* Directa-indirecta * General
difusa
* Iluminación indirecta
* Semiindirecta
Factor de
Color
reflexión ( )
Blanco o muy
0.7
claro
Techo
claro 0.5
medio 0.3
claro 0.5
Paredes medio 0.3
oscuro 0.1
claro 0.3
Suelo
oscuro 0.1
En su defecto podemos tomar 05 para el techo, 0.3 para las paredes y 0.1 para el suelo.
Determinar el factor de utilización ( ,CU) a partir del índice del local y los factores de
reflexión. Estos valores se encuentran tabulados y los suministran los fabricantes. En las
tablas encontramos para cada tipo de luminaria los factores de iluminación en función de
los coeficientes de reflexión y el índice del local. Si no se pueden obtener los factores por
lectura directa será necesario interpolar.
Factor de mantenimiento
Ambiente
(fm)
Limpio 0.8
Sucio 0.6
Cálculos
Cálculo del flujo luminoso total necesario. Para ello aplicaremos la fórmula
Donde:
Donde:
N es el número de luminarias
es el flujo luminoso total
es el flujo luminoso de una lámpara
n es el número de lámparas por luminaria
donde N es el número de
luminarias
La distancia máxima de separación entre las luminarias dependerá del ángulo de apertura del haz
de luz y de la altura de las luminarias sobre el plano de trabajo. Veámoslo mejor con un dibujo:
Como puede verse fácilmente, mientras más abierto sea el haz y mayor la altura de la luminaria
más superficie iluminará aunque será menor el nivel de iluminancia que llegará al plano de trabajo
tal y como dice la ley inversa de los cuadrados. De la misma manera, vemos que las luminarias
próximas a la pared necesitan estar más cerca para iluminarla (normalmente la mitad de la
distancia). Las conclusiones sobre la separación entre las luminarias las podemos resumir como
sigue:
Distancia máxima
Tipo de luminaria Altura del local
entre luminarias
intensiva > 10 m e 1.2 h
extensiva 6 - 10 m
e 1.5 h
semiextensiva 4-6m
extensiva 4m e 1.6 h
distancia pared-luminaria: e/2
Por último, nos queda comprobar la validez de los resultados mirando si la iluminancia media
obtenida en la instalación diseñada es igual o superior a la recomendada en las tablas.
APLICACIONES
1. Queremos diseñar una instalación de alumbrado para una oficina con las siguientes
dimensiones: 12 m de largo por 6 m de ancho y 3.75 m de alto. La altura del plano de
trabajo es de 0.75 m sobre el suelo. Para ello se utilizarán lámparas del tipo fluorescentes
de 110 W y un flujo de 9000 lm. Nos planteamos escoger entre los siguientes tipos de
luminarias; cuyas tablas nos ha suministrado el fabricante (E=200 lux y 400 lux).
2. Queremos diseñar una instalación de alumbrado para una oficina con las siguientes
dimensiones: 6 m de largo por 4 m de ancho y 3.5 m de alto. La altura del plano de
trabajo es de 0.76 m sobre el suelo. Para ello se utilizarán lámparas del tipo fluorescentes
de 40 W y un flujo de 2500 lm. Nos planteamos escoger entre los siguientes tipos de
luminarias; cuyas tablas nos ha suministrado el fabricante (E=450 lux).
3. Queremos diseñar una instalación de alumbrado para una oficina con las siguientes
dimensiones: 12 m de largo por 4 m de ancho y 3 m de alto. La altura del plano de
trabajo es de 0.95 m sobre el suelo. Para ello se utilizarán lámparas del tipo fluorescentes
de 60 W y un flujo de 4600 lm. Nos planteamos escoger entre los siguientes tipos de
luminarias; cuyas tablas nos ha suministrado el fabricante (E=300 lux).
4. Queremos diseñar una instalación de alumbrado para una oficina con las siguientes
dimensiones: 30 m de largo por 12 m de ancho y 3.5 m de alto. La altura del plano de
trabajo es de 0.76 m sobre el suelo. Para ello se utilizarán lámparas del tipo fluorescentes
de 40 W y un flujo de 2520 lm. Nos planteamos escoger entre los siguientes tipos de
luminarias; cuyas tablas nos ha suministrado el fabricante (E=150 lux).
Capítulo 7
El Informe Técnico
El informe técnico es el documento donde se refleja todo el proceso para la elaborar el trabajo y la
descripción de este y debe constar al menos de los siguientes apartados:
7.1 PORTADA
En la portada deben aparecer los datos del centro, de los componentes de grupo, título del trabajo
y también se puede incluir una imagen alusiva al trabajo
7.2 ÍNDICE
En el índice deben aparecer los apartados u sub apartados indicando el número de página donde
empieza cada uno.
En esta tabla se recogerá todo el proceso seguido para montar cada una de las piezas
hasta tener completamente terminado el objeto, se elabora una única tabla.
El análisis anatómico consiste en la elaboración de una serie de planos sobre el conjunto y las
piezas que componen el trabajo:
Para la elaboración de este material tendremos que usar el formato normalizado para lo que se
puede usar papel normalizado o papel en blanco.
7.5 PRESUPUESTO
En esta parte del documento tendremos que calcular el coste total de los materiales empleados en
la construcción del objeto para lo que nos ayudaremos de dos nuevos documentos el cálculo de
materiales y la valoración de estos
Este apartado pretende recoger la información que el alumno ha ido recopilando sobre el objeto de
estudio en forma de redacción esquema o el método que estime más oportuno
A continuación presentamos tres archivos para elaborar el informe técnico uno para imprimir en
pdf y los otros dos editables en writer y en word:
Curso y grupo:
Nº Nombre
Índice
1. Análisis histórico
1.1. Necesidad que cubre ...................................................................
1.2. Antecedentes históricos ..............................................................
1.3. Relación con el medio ambiente ..................................................
2. Análisis técnico
2.1. Materiales...................................................................................
2.2. Herramientas ..............................................................................
2.3. Hojas de fabricación ....................................................................
2.4. Hoja de montaje ..........................................................................
3. Análisis anatómico
3.1. Croquis de conjunto ....................................................................
3.2. Lista de despiece .........................................................................
3.3. Croquis de las piezas....................................................................
4. Presupuesto
4.1. Cálculo de materiales ..................................................................
4.2. Valoración de materiales .............................................................
5. Normas de seguridad e higiene ...........................................................
6. Bibliografía .........................................................................................
UNIDAD II
CALCULOS EN LA INGENIERÍA
ELÉCTRICA
Capítulo 8
Circuitos Eléctricos
8.1 INTRODUCCIÓN
Hemos visto con algún detalle los fenómenos eléctricos estáticos. Es natural preguntarse ahora
por los efectos producidos por el movimiento de cargas eléctricas. En términos muy generales, el
movimiento de cargas eléctricas constituye una corriente eléctrica. En mayor o menor grado, todos
los materiales son capaces de “conducir” una corriente eléctrica. Las características del fenómeno
de conducción dependen del material considerado. Se puede clasificar los materiales de acuerdo a
si conducen corriente eléctrica con facilidad o no (conductores y aisladores), o bien en forma más
cuantitativa, como lo haremos más adelante. La siguiente tabla nos da algunos ejemplos de
materiales conductores de diversos tipos.
También podemos decir que la corriente eléctrica es, simplemente, el movimiento de cargas
eléctricas. Definimos la corriente eléctrica I, como la carga eléctrica dq que pasa a través de
dq
una sección de área A de conductor, por unidad de tiempo dt , I . La corriente eléctrica
dt
1C
I se mide entonces en Coulomb por segundo (ampere) 1A . Notemos que, de acuerdo
1s
a nuestra definición, tanto los portadores de carga positiva como negativa contribuyen a la
corriente en el mismo sentido (del mismo signo).
q , densidad volumétrica n, y se
Dada una corriente eléctrica en la que los portadores tienen carga
r
mueven con velocidad promedio v (también llamada velocidad de arrastre), la densidad de
corriente eléctrica es el vector (definido en cada punto de la corriente).
r r
j qnv
q , densidad volumétrica n , y
Dada una corriente eléctrica en la que los portadores tienen carga
r
se mueven que velocidad promedio v , la intensidad de corriente eléctrica a través de una
r ur r ur
superficie S viene dada por I j.d S qnv.d S , tal como muestra la figura y representa la
S S
r
En el caso de que S sea una superficie plana de vector S , y de que j sea uniforme en
r ur
S , I j.d S .
Si S es la sección de un conductor metálico, I es la intensidad que circula por el circuito.
r ur
j.d S representa la carga neta que abandona el
Si S es una superficie cerrada, I Ñ
S
En un conductor, con electrones como portadores, por el que circula una corriente eléctrica con
r ur r ur ne2 ur
densidad de corriente j bajo la acción de un campo eléctrico E , se cumple j E E
2me
donde es la conductividad, n es la densidad volumétrica de portadores, e es la carga del
electrón, es el tiempo de relajación (tiempo medio entre colisiones) y me es la masa del
electrón.
ne 2
Si la conductividad es
2me
ur
independiente de E ,r el conductor
ur es óhmico
(relación lineal entre j y E ).
ne 2
Si la conductividad es dependiente
2me
ur
de E , el conductor
r ur es no óhmico (relación no
lineal entre j y E ).
8.5.2 Resistividad
1 2me
La resistividad eléctrica es la inversa de la conductividad, .
ne2
La constante se denomina conductividad, y es una propiedad del material. La siguiente tabla
1
muestra algunos valores típicos de la resistividad .
1 1
Material Material
l m
R m. 2
S m
R Ro (1 T )
Ro : resistencia del alambre frío.
R : resistencia del alambre caliente.
T : variación de la temperatura.
: coeficiente térmico de la resistividad.
T o R
T o R
V
I
R
a. Bobinadas
Aquí vemos el aspecto exterior y estructura constructiva de las resistencias de alta disipación
(gran potencia). Pueden soportar corrientes relativamente elevadas y están protegidas con una
capa de esmalte.
Aquí vemos otros tipos de resistencias bobinadas, de diferentes tamaños y potencias, con su valor
impreso en el cuerpo.
b. Resistencia de Carbón
Las resistencias normalmente utilizadas en electrónica son las denominadas de carbón, debido a
que su valor resistivo se obtiene por medio de polvo de carbón mezclado con un aglomerante. Son
resistencias de pequeñas dimensiones y baja potencia, y de bajo precio. Se construyen
normalmente con tolerancias de 5% y 10% (tolerancia es el margen de variación de su valor
nominal).
Son las normalmente utilizadas en la electrónica, excepto en las aplicaciones que se requiere
cierta precisión, en que se usan otras de más calidad.
c. Resistencia de Película
Son resistencias de mayor precisión que las de carbón, y se suelen utilizar en circuitos
electrónicos como instrumentación, electromedicina, etc., y, en general, en aquellas aplicaciones
en las que se requiere una cierta precisión. En estas resistencias se obtienen tolerancias de un 1%
(y menos), y con un bajo coeficiente de temperatura (variación del valor con la temperatura). Son,
al igual, que las de carbón, de baja potencia.
Ejemplo: Suponga que una resistencia tiene las siguientes cuatro bandas de color:
1 0 4 5%
Consideremos un elemento resistivo; esto es, un conductor con conductividad finita (un
conductor perfecto tiene conductividad infinita). Si, por esta resistencia, pasa una corriente I, y la
resistencia entre sus extremos a y b es Rab , entonces la diferencia de potencial Vab entre los
extremos es Vab Rab .I .
a. Conexión en Serie
b. Conexión en Paralelo
R1 .R3 ra rb ra rc rb rc
ra R1
R1 R2 R3 rc
R1 .R2 ra rb ra rc rb rc
rb R2
R1 R2 R3 ra
R2 .R3 ra rb ra rc rb rc
rc R3
R1 R2 R3 rb
VA VB
La energía que “se va” del sistema se disipa en forma de calor. Esto constituye el llamado efecto
Joule. La presencia de un elemento resistivo va siempre acompañada de calentamiento en el
circuito (esto es, a veces, deseable - calefactores eléctricos, etc.- y otras veces indeseable - parte
de la energía disponible “se malgasta”).
Volvemos al ejemplo de la batería con una carga R y resistencia interna ri . La potencia disipada
R 2
en la resistencia (carga) es P, P RI 2
R ri
2
2
La máxima potencia que se puede obtener de la batería es Pmax .
4ri
dP dP 2 2R
Esto se obtiene de la condición de extremo 0 , ya que 2
1 ; el
dR
dR R ri R ri
2
resultado es que P Pmax , como función de R, cuando R = ri , además Pmax .
4ri
Las aplicaciones que tiene la energía eléctrica son múltiples y variables (luz, fuerza mecánica,
electromedicina, comunicaciones, etc.). En cualquier caso, todo se basa en hacer pasar un flujo
electrónico ordenado a través de una determinada carga.
Como consecuencia del trabajo realizado en el transporte de las cargas eléctricas, la circulación
de corriente a través de los conductores produce calor. Este fenómeno (llamado efecto Joule)
tiene sus aplicaciones y defectos (“La circulación de una intensidad de corriente en un conductor
de resistencia R produce un efecto de calentamiento, que es proporcional al valor de resistencia (
R ), al cuadrado del valor de la intensidad ( I 2 ) y al tiempo ( t )) ”, 1 Joule = 0,24 calorías.
Basándose en este efecto, aparecen los transformadores, motores, relés electroimanes, etc.
Precisamente, mediante este principio, se puede detectar y medir la intensidad eléctrica a través
de los conductores sin necesidad de actuar sobre ellos; es una medida a distancia, por medio de
un instrumento denominado pinza amperimétrica, con el cual se detecta y visualiza la magnitud de
fuerza magnética y, en consecuencia, también la magnitud de la intensidad eléctrica que circula.
Al líquido se le denomina electrólito y a los elementos sumergidos a los cuales se les aplica la
corriente electrodos. Al electrodo conectado al polo positivo se le llama ánodo y al conectado al
polo negativo cátodo.
a. Divisores de Corriente
I .R2
I1
R1 R2
I .R1
I2
R1 R2
b. Divisores de Tensión
V .R1
V1
R1 R2
V .R2
V2
R1 R2
Primera Ley
i t 0
Gráficamente se puede ver en la figura:
donde: I1 I 2 I3 0 .
Segunda Ley
t v t 0
i j
donde: 1 v1 v2 0 .
EJEMPLO DE APLICACIÓN
Corriente alterna es aquella que varía de valor y de sentido, de forma aleatoria o periódica, siendo
en este caso corrientes aleatorias periódicas.
Es aquella que se induce en una espira o conjunto de espiras (bobina) cuando gira en el seno de
un campo magnético, o la que nos proporciona un oscilador electrónico, y responde a la ecuación
m Sent , siendo la corriente que circula por ella I I m Sen t .
Esta función es periódica, es decir, toma valores iguales a espacios iguales de tiempo,
llamados periodo ( T ).
Periodo
Se designa con la letra T , y es el tiempo que tarda en repetirse un mismo valor instantáneo.
También es el tiempo que tarda un fasor, en dar una vuelta completa.
Frecuencia
1
T segundos
f
f Hercios ciclo / seg
Valor Instantáneo
Valor Máximo
Valor Medio
El valor medio variará dependiendo de la forma de onda, siendo las más comunes:
Vo Io
a. Vmed 2 , I med 2
Vo Io
b. Vmed , I med
c. Vmed 0 , I med 0
Considerando la onda como dos semiciclos, el valor medio será igual al apartado a.
Su valor depende igualmente de la forma de onda, siendo los más comunes de uso general, los
siguientes.
Vo I
a. Vef , I ef o
2 2
Vo I
b. Vef , I ef o
2 2
Vo I
c. Vef , I ef o
2 2
8.22 FASE
Al tomar t sucesivos valores distintos, la función m Sent toma distintos valores, o pasa por
diferentes fases.
2
Los valores del ángulo de fase vienen determinados por la expresión t 2 f .t .t .
T
Podemos asimilar el concepto de una función senoidal tal que m Sent , a la de un vector con
origen en el centro de coordenadas y módulo el valor máximo de la función m , que gire en el
sentido contrario a las agujas del reloj con una velocidad uniforme ; ya que en todo momento el
valor instantáneo de la función v , será la proyección de este vector sobre el eje de coordenadas "y".
La senoide resultante es el lugar geométrico de las proyecciones sobre el eje "Y" del vector
tensión en su giro en el tiempo. Un vector queda definido por un módulo y un argumento.
Módulo
Argumento
Hemos dicho anteriormente que una función senoidal queda definida por su velocidad y su valor
máximo m , es decir se puede representar la función senoidal a escala, por un vector de módulo
igual al valor eficaz y de fase t que gira en sentido contrario a las agujas del reloj.
Por otra parte podemos considerar el plano de representación, como el plano complejo, y establecer
una correspondencia biunívoca entre los números complejos y los vectores del plano, es decir, a cada
punto del plano definido por un número complejo le corresponde un vector y solo uno y
recíprocamente a cada vector de origen en o corresponde un punto en el plano y solo uno.
V VCost jVSent .
1 j j
X L j L , X C , Z R X L XC
2 2
jC jjC C
Hemos visto que en un circuito de C.A. hay desfase entre la tensión y la intensidad, si la carga no
es resistiva pura. En los circuitos industriales, y en concreto en las máquinas eléctricas, se
presentan resistencias R, inductancias L, y capacidades C, aunque a veces en cantidades
despreciables.
La potencia activa da lugar a la potencia que un motor nos ofrece en su eje. Si nosotros medimos
la tensión en bornes del motor, y la corriente que absorbe, multiplicamos ambas medidas y nos
dará una cantidad mayor que la potencia activa; estaremos hallando la potencia aparente, y
ambas están relacionadas por el Cos .
P
Luego el coseno de " " será Cos
Pa
Por tanto un interés particular nos inclina a que Cos sea lo más próximo a la unidad, es decir
que la potencia activa se acerque en valor a la potencia aparente.
La diferencia cuadrática será la potencia reactiva, que si bien es necesaria para establecer
campos magnéticos que necesitan algunas máquinas como los motores o los transformadores, no
produce potencia útil alguna.
La potencia activa vimos que era siempre positiva, mientras que la potencia reactiva es una onda
de doble frecuencia que la red y alternándose de positiva a negativa, es decir, circulando
alternativamente del generador al receptor y viceversa.
Al Cos se le llama factor de potencia, y es la relación como dijimos, entre la potencia activa y
la aparente.
En el caso de que el Cos sea pequeño, debemos de modificar la instalación para corregirlo y
acercarlo a la unidad, de ahí la importancia de conocer el Cos .
La corriente reactiva produce caídas de tensión y pérdidas por calor, pero el mayor inconveniente
es el mal aprovechamiento de la instalación existente.
Suponiendo que tengamos una instalación industrial alimentada por un transformador de 500 KVA,
y con un factor de potencia global Cos 0,5 ; resulta que la potencia útil activa que suministra el
transformador será:
PW PaCos
PW 500.(0,5) 250 kw
Pero si el factor de potencia fuese la unidad (reactiva totalmente compensada) Cos sería uno, y
la potencia activa que podría suministrar el transformador sería 500KW, justo el doble que en el
caso anterior; además las compañías suministradoras, cobran a alto precio la energía reactiva
consumida.
CONSUMOS
58030
Deducimos que Tan1 1, 23866 y que por tanto en la instalación hay un
46849
Cos1 0,6281 .
Tan2 0, 48432 y un FP
Cos1 Cos2 0, 76405 .
2
Si el consumo total de activa ha sido de 46849 kwh, y se suponen 8 horas diarias de trabajo
durante 25 días de un mes, corresponden cada día una potencia media de:
46849 kwh
Pa 234kw
8 x 25 h
Una vez que se conoce el total de kwh consumidos, y el precio del kwh; el coste total será el
producto de ambos.
EJERCICIO DE APLICACIÓN
Una estufa eléctrica tiene una potencia de 2000 w. Determinar cuánto se deberá de pagar a final
de mes (30 días) si está encendida 6 horas diarias, y el precio del kwh es de S/. 0,3877 (>100
kwh).
07 IGV 27.950
08 Total 0.000
10 Redondeo 0.000
11 175.110
Total Recibo de Julio
EJERCICIO DE APLICACIÓN
SOLUCION:
Pr 4200
Ta n 1, 75
Pa 2400
OPCIONES TARIFARIAS
MT2 Tarifa con doble medición de Cargo por energía activa en horas
energía activa y contratación o punta.
medición de dos potencias. Cargo por energía activa en horas fuera
2E2P Cargo fijo mensual. de punta.
Cargo por potencia en horas punta.
Cargo por exceso de potencia en horas
fuera de punta.
Cargo por energía reactiva.
Fuente: http://www.distriluz.com.pe/electrocentro/04_cliente/info02.html
V Vo Sent
Que la intensidad que pasa por todos los elementos es la misma, que la suma (vectorial) de las
diferencias de potencial entre los extremos de los tres elementos nos da la diferencia de potencial
en el generador de corriente alterna.
de modo que se cumpla una relación análoga a la de los circuitos de corriente continua Vo I o Z .
El ángulo que forma el vector resultante de longitud Vo con el vector que representa la intensidad
Io .
V Vo Sen t ,
I I 0 Sen t
EJERCICIO DE APLICACIÓN
a. La impedancia
b. El desfase entre v e i.
c. El valor instantáneo y eficaz de la corriente del circuito.
d. Valores eficaces de VR, VC, VL.
e. Diagrama de tensiones.
SOLUCIONES
a. Impedancia
X L 2 fL 6, 28.60.80.103 30,144
1 1
XC 12, 063
2 fC 6, 28.60.220.106
X 18,080
b. arcTan arcTan 61,053o
R 10
V 220
ief 10, 648 Amp
Z 20, 66
d. Valores eficaces
VC i. X C 10,648.12,063 128.44 v
VL i. X L 10,648.30,144 320.97 v
e. Diagrama fasorial
Definimos circuito eléctrico como el conjunto de elementos generadores y cargas unidos por
conductores, de forma que cuando se produce un estímulo, se origina una respuesta en forma de
corriente eléctrica.
Son elementos activos los que transforman una energía cualquiera en energía eléctrica, mediante
un proceso que puede ser reversible o no. Nos referimos a los generadores de tensión y de
corriente.
Son elementos pasivos cuando almacenan, ceden o disipan la energía que reciben. Nos referimos
a las resistencias, bobinas y condensadores.
Para la resolución de estos circuitos bastará normalmente con aplicar la ley de OHM y las leyes
de Kirchhoff, bajo las funciones que nos relacionan la corriente y la tensión llamadas inmitancias;
palabra compuesta de otras dos, que representan a su vez a funciones como la impedancia (Z) y
la admitancia (Y).
en el que I t I1 I 2 I3
Siendo
V V V
I1 , I 2 , I3
Z1 Z2 Z3
V V V V
IT
ZT Z1 Z 2 Z3
1 1 1 1
IT V V
ZT Z1 Z 2 Z3
Z1.Z 2
En el caso particular de dos impedancias en paralelo ZT .
Z 2 Z1
Admitancia
Es el inverso de la Impedancia
1
Y Y t Y1 Y2 Y3
Z
1
G Conductancia es el inverso de la Resistencia
R
1
C Subsceptancia Capacitiva - Inversa de X C .
XC
1
L Subsceptancia Inductiva - Inversa de X L .
XL
Unidades de Medida
1
Y mho ) y SIEMENS (inverso de OHMIO)
Z
1
G mho ó siemens
R
1
mho mho
X
1 R jX R jX
Y 2
R jX R jX . R jX R X 2
R X
Y 2
R X
2 2
R X2
es decir:
R
G Parte real
R X2
2
X
Parte imaginaria
R X2
2
Resultado Y G j
En cualquier caso el signo será contrario al que presenta la impedancia en ese mismo circuito.
X
Z R jX ; Tan y
R
Y G j ; Tan
G
LABORATORIO N° 07
I. OBJETIVOS
II. MATERIALES
Fuente de tensión DC
Multímetros
Multímetro digital
Módulo de resistencias
Cables para conexiones
Protoboard
III. PROCEDIMIENTOS
RESISITOR R1 R2 R3 R4 R5
VALOR
NOMINAL
VALOR
MEDIDO
Conecte las resistencias, R1, R2, R3, R4 y R5 tal como muestra el grafico, resuelva
el ejercicio con valores nominales y después experimentalmente y compruebe sus
resultados con el ohmímetro, amperímetro y voltímetro.
Tabla No. 2
cir , si queremos hallar la tangente con la admitancia hay que cambiar de signo la parte
imaginaria.
Capítulo 9
Fuentes de Generación
Las fuentes de energía se pueden clasificar en: Renovables y No Renovables.
Energía Hidráulica.- Es un tipo de energía mecánica. Por ejemplo, la energía obtenida de los
movimientos de las aguas de un río. El agua tiene una importante cantidad de energía potencial, el
agua cae a través de ductos, transformando la energía potencial en energía cinética. Este
movimiento se aprovecha para accionar turbinas generadoras de electricidad (Centrales
Hidroeléctricas).
Energía Solar.- Llega a la Tierra proveniente de la estrella más cercana a nuestro planeta: El Sol.
Esta energía abarca un amplio espectro de Radiación Electromagnética, donde la luz solar es la
parte visible de tal espectro.
La energía solar es generada por la llamada Fusión Nuclear que es la fuente de vida de todas las
estrellas del Universo. Podemos transformar la energía solar en energía térmica o eléctrica. La
energía solar es aprovechada para elevar la temperatura de un fluido, como por ejemplo el agua, y
en el segundo caso la energía luminosa del sol transportada por sus fotones de luz, incide sobre la
superficie de un material semiconductor (ejemplo: el silicio), produciendo el movimiento de ciertos
electrones que componen la estructura atómica del material. Un movimiento de electrones produce
una corriente eléctrica que se puede utilizar como fuente de energía de componentes eléctricos o
bien electrónicos.
Se puede transformar en energía eléctrica mediante el uso de turbinas eólicas que basan su
funcionamiento en el giro de aspas accionadas por los vientos. Bajo el mismo principio se puede
utilizar como mecanismo de extracción de aguas subterráneas o de ciertos tipos de molinos para
la agricultura.
Energía Mareomotriz.- Es energía mecánica producto del movimiento de las mareas y las olas del
mar. El Movimiento de mareas es generado por la interacción gravitatoria entre la Tierra y la Luna.
Tal movimiento se utiliza para traspasar energía cinética a generadores de electricidad.
Son fuentes de energía no renovables aquellas que se encuentran en forma limitada en nuestro
planeta y se agotan a medida que se les consume.
El Carbón
El Petróleo
El Gas Natural
La Energía Geotérmica
La Energía Nuclear
Petróleo.- Es un aceite natural de origen mineral constituido por una mezcla de hidrocarburos.
Estos hidrocarburos se producen por antiguos restos de organismos vegetales, organismos
Gas Natural.- Es una mezcla de gases combustibles depositados en forma natural en el subsuelo
de la Tierra y que poseen un gran poder calorífico. En ocasiones los yacimientos de gas natural
están acompañados por yacimientos de petróleo. El principal componente del gas natural es el
metano y en menor proporción los gases de etano, propano y butano.
En las reacciones nucleares se libera una gran cantidad de energía, debido a que parte de la
masa de las partículas involucradas en el proceso, se transforma directamente en energía. Lo
anterior se puede explicar en base a la relación Masa-Energía, producto de la genialidad del gran
físico Albert Einstein.
En relación a la liberación de energía, una reacción nuclear es un millar de veces más energética
que una reacción química, por ejemplo, la generada por la combustión del combustible fósil del
metano.
Fisión Nuclear.- Es una reacción nuclear que tiene lugar por la rotura de un núcleo pesado al ser
bombardeado por neutrones de cierta velocidad. A raíz de esta división el núcleo se separa en dos
fragmentos acompañado de una emisión de radiación, liberación de 2 ó 3 nuevos neutrones y de
una gran cantidad de energía que se transforma finalmente en calor.
Los neutrones que se producen por fisión, al disminuir su energía, alcanzan las condiciones para
fisionar otros núcleos pesados, generando una Reacción Nuclear en Cadena. Cabe señalar, que
los núcleos atómicos utilizados son de Uranio - 235. El proceso de la fisión permite el
funcionamiento de los Reactores Nucleares que actualmente operan en el mundo.
Fusión Nuclear.- La fusión nuclear ocurre cuando dos núcleos atómicos muy livianos se unen,
formando un núcleo atómico más pesado con mayor estabilidad. Estas reacciones liberan
energías tan elevadas que en la actualidad se estudian formas adecuadas para mantener la
estabilidad y confinamiento de las reacciones.
Los consumidores esperan que la electricidad esté siempre a su disposición cuando conectan un
aparato electrodoméstico, encienden
una luz, abren un refrigerador, etc.
Para satisfacer sus necesidades
necesita de un flujo de electricidad.
Dispositivo que convierte la energía química en eléctrica. Todas las pilas consisten en un
electrolito (que puede ser líquido, sólido o en pasta), un electrodo positivo y un electrodo negativo.
El electrolito es un conductor iónico; uno de los electrodos produce electrones y el otro electrodo
los recibe. Al conectar los electrodos al circuito que hay que alimentar, se produce una corriente
eléctrica.
Centrales fotovoltaicas
Su producción se basa en el hecho de que, al mover un conductor (material con gran movilidad de
electrones) en presencia de un imán (campo magnético), en el conductor se produce un
movimiento ordenado de electrones, como consecuencia de las fuerzas de atracción y repulsión
originadas por el campo magnético.
El sol también es la causa del movimiento de grandes masas de aire desde zonas de alta presión
a zonas de baja presión. Este viento se puede recoger por grandes hélices o molinos, conectados
a un rotor.
La energía que procede del sol es fuente directa o indirecta de casi toda la energía que usamos.
Los combustibles fósiles existen gracias a la fotosíntesis que convirtió la radiación solar en las
plantas y animales de las que se formaron el carbón, gas y petróleo. El ciclo del agua que nos
permite obtener energía hidroeléctrica es movido por la energía solar que evapora el agua, forma
nubes y las lleva tierra adentro donde caerá en forma de lluvia o nieve.
Este concepto, combinado con la teoría de Langevin, sirvió para explicar las propiedades de los
materiales fuertemente magnéticos como la piedra imán.
La presión que ejerce las corrientes de agua subterráneas, las mismas que accionan las turbinas
que posteriormente generan la energía eléctrica, este mismo proceso lo utilizan en los barcos y
grandes buques como energía alterna al sistema principal.
En las presas se genera electricidad liberando un flujo controlado de agua a alta presión a través
de un conducto forzado. El agua impulsa unas turbinas que mueven los generadores y producen
así una corriente eléctrica. A continuación, esta corriente elevada de baja tensión pasa por un
elevador de tensión que la transforma
Capítulo 10
Líneas de Transmisión (Armando Pacheco Vega )
10.1 INTRODUCCIÓN
Las líneas de transmisión también son circuitos. En frecuencias muy altas donde las longitudes de
onda son cortas, las líneas de transmisión actúan como circuitos resonantes y aun como
componentes reactivos en VHF y UHF, y frecuencias de microondas, la mayor parte de los
circuitos sintonizados y filtros se utilizan con líneas de transmisión.
10.2 ANTECEDENTES DE LAS LÍNEAS DE TRANSMISIÓN
En 1854 Thomson había aplicado el método de Fourier - quien había resuelto el problema de la
transmisión del calor a la propagación de los impulsos eléctricos en un cable largo. El modelo de
Thomson era equivalente al que hemos propuesto para una línea con pérdidas, pero sin
considerar los efectos inductivos (L = 0) ni pérdidas dieléctricas (G = 0). Llegaba así a ecuaciones
del tipo:
que es una ecuación de difusión del tipo de la transmisión del calor. No existe para una
perturbación que siga esta ecuación diferencial una velocidad definida. Ante un estímulo en forma
de escalón la respuesta es una función error:
Esta es la famosa "ley de cuadrados" que encontró Thomson. Significa que, si se aplica un pulso
telegráfico a la entrada de la línea, el tiempo que tarda en llegar al otro extremo es proporcional al
cuadrado de la longitud de la línea. La tarea de colocar el cable se dividió entre dos barcos, la
fragata norteamericana Niagara y el buque de guerra británico Agamemnon.
El plan era navegar hasta el punto medio del tendido y desde allí el Niagara colocaría el cable
hacia Norteamérica y el Agamemnon colocaría el cable hacia Inglaterra. El tendido comenzó el 30
de julio de 1857. Luego de muchas rupturas, la colocación se completó finalmente en el quinto
intento más de un año después, el 5 de agosto de 1858. Los dos puntos extremos del tendido eran
Valentia Harbour, en Irlanda, y Trinity Bay en Newfoundland. El 16 de agosto se estableció la
primera comunicación, con el mensaje: "Glory to God in the highest, and on earth, peace, good will
to men". Sin embargo, el cable dejó de funcionar tres semanas después. El "electricista" a cargo,
un aficionado llamado O. E. W. Whitehouse, era en realidad un médico retirado que se había
dedicado a la electricidad y la telegrafía y no tenía una comprensión acabada de los fenómenos
involucrados. Por ejemplo, dijo sobre el modelo teórico de Thomson y su ley de cuadrados:
"Con toda honestidad, estoy obligado a responder que creo que la naturaleza no conoce tal
aplicación de esa ley, y la puedo solamente considerar como una ficción de las escuelas, una
forzada y violenta adaptación de un principio en Física, bueno y verdadero bajo otras
circunstancias, pero mal aplicado aquí."
Para lograr detectar la muy débil señal telegráfica, en lugar de usar instrumentos más sensibles
Whitehouse optó por aumentar la
tensión aplicada al cable, lo que causó
que el cable se cortocircuitara en
puntos débiles del aislante de
gutapercha. Luego de un estudio de
las causas de la salida de
funcionamiento del cable
transatlántico, Whitehouse fue
despedido.
fortaleza y mejorar el aislamiento para evitar la acción del aguade mar, así como disminuir las
tensiones de trabajo, para lo cual desarrolló un nuevo instrumento, el galvanómetro de espejo, que
podía medir corrientes muy pequeñas. El segundo intento de colocar el cable submarino, realizado
entre el 14 de julio de 1865 y el 28 de julio de 1866, fue exitoso y se pudieron establecer
comunicaciones transatlánticas permanentes. En la figura se muestra la estación de recepción del
telégrafo trasatlántico en Valentia, Irlanda4.
El primer mensaje enviado fue:
"A treaty of peace has been signed between Austria and Prussia". Relatos de la época hablan de
la fascinación de los operadores porque los mensajes se recibían horas antes de que fueran
enviados, debido a la diferencia de huso horario entre los extremos del cable). Casi
inmediatamente, el uso del cable fue abierto comercialmente pero sólo los muy ricos podían
utilizarlo: las tarifas iniciales eran desde u$s 1 por carta, pagables en oro, en una época en que el
salario mensual de un trabajador era del orden de u$s 20. El cable original colocado en 1866 dejó
de operar en 1872, pero ya había otros cuatro cables transatlánticos en uso para esa fecha. Para
valorar la importancia de este desarrollo de la ingeniería, debe señalarse que para 1890 había ya
más de 150 mil kilómetros de cables submarinos comunicando todo el mundo, y que recién en la
década de 1960 el lanzamiento de los primeros satélites de comunicaciones presentaron una
alternativa a los cables submarinos.
En noviembre de 1866 Thomson fue elevado a la categoría de par del reino británico bajo el título
de Lord Kelvin of Largs por sus logros en relación al cable submarino.
El Kelvin es el río que atraviesa el terreno de la Universidad de Glasgow y Largs es el pueblo
sobre la costa escocesa donde Thomson construyó su residencia. Dentro de la investigación en el
electromagnetismo, Thomson introdujo en 1850 las nociones de susceptibilidad y permeabilidad
magnética, junto con los conceptos de B, H y M, en 1853 usó la teoría magnética de Poisson para
encontrar las ecuaciones de la energía magnética en términos de los campos, por una parte, y de
la corriente circulante y la inductancia, por otra. Ese mismo año halló la ecuación del circuito RLC,
lo que dio una descripción matemática a observaciones experimentales de Henry y Savery. Ya
hemos hablado de su modelo mecánico del electromagnetismo que inspiró los primeros modelos
de Maxwell.
En 1857 Gustav Kirchhoff (izquierda) encontró las ecuaciones del telegrafista para una línea
coaxial. También halló que, si la resistencia del cable es pequeña, estas ecuaciones llevan a la
ecuación de ondas con una velocidad que para un cable coaxial da un valor
muy cercano a la velocidad de la luz. Kirchhoff se da cuenta de esta coincidencia y es así el
primero en hallar que las señales electromagnéticas viajan a la velocidad de la luz.
Las ideas de la propagación de ondas en cables fueron retomadas y completadas, usando el
método operacional que él mismo inventó, por Oliver Heaviside (foto).
Heaviside también se dedicó a la propagación de ondas en las líneas telegráficas. Redescubrió las
ecuaciones del telegrafista que ya había hallado Kirchhoff. Heaviside se dio cuenta que el efecto
de la inductancia de la línea puede llevar a la condición de propagación sin distorsión por lo que
sugirió aumentar la inductancia agregando inductores a lo largo de la línea.
En 1883 comienza a analizar la propagación de ondas electromagnéticas en conductores. En
forma independiente en 1885 Heaviside y el físico Horace Lamb describieron por primera vez el
efecto pelicular en conductores, que hace que la distribución de corriente a altas frecuencias no
sea uniforme y haya una concentración de corriente sobre la periferia del conductor, modificando
así su resistencia.
En 1902 y en forma casi simultánea Heaviside y el ingeniero norteamericano Arthur Kennelly
anunciaron la probable existencia de una capa atmosférica de gas ionizado que afectaría la
propagación de las ondas electromagnéticas. La capa de Heaviside-Kennelly es una de las capas
de la ionosfera, cuya existencia fue corroborada experimentalmente en 1923.
Oliver Heaviside
Hay dos requerimientos principales en una línea de transmisión: 1) la líneas deberá introducir la
mínima atenuación y distorsión a la señal y 2) la línea no deberá radiar señal alguna como energía
radiada. Todas las líneas de transmisión y sus conectores se diseñan con estos requerimientos.
Líneas de transmisión de conductor paralelo Línea de transmisión de cable abierto. Una línea
de transmisión de cable abierto es un conductor paralelo de dos cables, y se muestra en la figura
8-6a. Consiste simplemente de dos cables paralelos, espaciados muy cerca y solo separados por
aire. Los espaciadores no conductivos se colocan a intervalos periódicos para apoyarse y
mantener se a la distancia, entre la constante de los conductores. La distancia entre los dos
conductores generalmente está entre 2 y 6 pulgadas.
Estas son las desventajas principales de una línea de transmisión de cable abierto. Por lo tanto,
las líneas de transmisión de cable abierto normalmente operan en el modo balanceado.
.- Secciones transversales
Cables gemelos (doble terminal). Los cables gemelos son otra forma de línea de transmisión para
un conductor paralelo de dos cables, y se muestra en la figura 8-6b. Los cables gemelos
frecuentemente son llamados cable de cinta.
Los cables gemelos esencialmente son igual que una línea de transmisión de cable abierto,
excepto que los espaciadores que están entre los dos conductores se reemplazan con un
dieléctrico sólido continuo. Esto asegura los espacios uniformes a lo largo de todo el cable, que es
una característica deseable por razones que se explicarán posteriormente en este capítulo.
Típicamente, la distancia entre los dos conductores es de 5/16 de pulgada, para el cable de
transmisión de televisión. Los materiales dieléctricos más comunes son el teflón y el polietileno.
Cable de par trenzado. Un cable de par trenzado se forma doblando ("trenzando") dos
conductores aislados juntos. Los pares se trenzan frecuentemente en unidades y las unidades, a
su vez, están cableadas en el núcleo. Estas se cubren con varios tipos de fundas, dependiendo
del uso que se les vaya a dar. Los pares vecinos se trenzan Con diferente inclinación (el largo de
la trenza) para poder reducir la interferencia entre los pares debido a la inducción mutua. Las
constantes primarias del cable de par trenzado son sus parámetros eléctricos (resistencia,
inductancia, capacitancia y conductancia). Que están sujetas a variaciones con el ambiente físico
como temperatura, humedad y tensión mecánica, y que dependen de las variaciones en la
fabricación. En la figura 8 se muestra un cable de par trenzado.
Par de cables protegido con armadura. Para reducir las pérdidas por radiación e interferencia,
frecuentemente se encierran las líneas de transmisión de dos cables paralelos en una malla
metálica conductiva. La malla se conecta a tierra y actúa como una protección. La malla también
evita que las señales se difundan más allá de sus límites y evita que la interferencia
electromagnética llegue a los conductores de señales. En la figura 8-6d Se muestra un par de
cables paralelos protegido. Consiste de dos conductores de cable paralelos separados por un
material dieléctrico sólido. Toda la estructura está encerrada en un tubo trenzado conductivo y
luego cubierto con una capa protectora de plástico.
Las líneas de transmisión de conductores paralelos son apropiadas para las aplicaciones de baja
frecuencia. Sin embargo, en las frecuencias altas, sus pérdidas por radiación y pérdidas
dieléctricas, así como su susceptibilidad a la interferencia externa son excesivas. Por lo tanto, los
conductores coaxiales se utilizan extensamente, para aplicaciones de alta frecuencia, para reducir
las pérdidas y para aislar las trayectorias de transmisión. El cable coaxial básico consiste de un
conductor central rodeado por un conductor exterior concéntrico (distancia uniforme del centro). A
frecuencias de operación relativamente altas, el conductor coaxial externo proporciona una
excelente protección contra la interferencia externa. Sin embargo, a frecuencias de operación más
bajas, el uso de la protección no es coestable. Además, el conductor externo de un cable coaxial
general mente está unido a tierra, lo que limita su uso a las aplicaciones desbalanceadas.
Esencialmente, hay dos tipos de cables coaxiales: líneas rígidas llenas de aire Y líneas sólidas
flexibles. El material aislante es un material de polietileno sólido no conductivo que proporciona
soporte, así como aislamiento eléctrico entre el conductor interno y el externo. El conductor interno
es un cable de cobre flexible que puede ser sólido o hueco.
Los cables coaxiales rígidos llenos de aire son relativamente caros de fabricar, y el aislante de aire
tiene que estar relativamente libre de humedad para minimizar las pérdidas Los cables coaxiales
sólidos tiene pérdidas menores y son más fáciles de construir, de instalar, y de dar mantenimiento.
Ambos tipos de cables coaxiales son relativamente inmunes a la radiación externa, ellos en si
irradian muy poca, y pueden operar a frecuencias más altas que sus contrapartes de cables
paralelos. Las desventajas básicas de las líneas de transmisión coaxial es que son caras y tienen
que utilizarse en el modo desbalanceado.
Balunes. Un dispositivo de circuitos que se utiliza para conectar una línea de transmisión
balanceada a una carga desbalanceada se llama balun (balanceado a desbalanceado). 0 más
comúnmente, una línea de transmisión desbalanceada, como un cable coaxial, se puede conectar
a una carga balanceada, como una antena, utilizando Un transformador especial con un primario
desbalanceado y un bobinado secundario con conexión central.
El tipo más común es un balun de banda angosta, llamados a veces balun choque, camisa o balun
de bazuca, como se muestra en ha figura 88b. Se coloca alrededor una camisa de un cuarto de
longitud de onda y se conecta al conductor externo de un cable coaxial. En consecuencia, la
impedancia que se ye, desde la línea de transmisión, está formada por una camisa y el conductor
externo y es igual a infinito (o sea, que el conductor externo ya no tiene una impedancia de cero a
tierra). Así que, uno de los cables del par balanceado se puede conectar a la camisa sin hacer un
cortocircuito a la señal. El segundo conductor se conecta al conductor interno del cable coaxial.
Cada autor maneja su definición de línea de transmisión, en esencia es lo mismo así que yo lo
defino como:
"ES UN MEDIO O DISPOSITIVO POR DONDE SE PROPAGA O TRANSMITE INFORMACIÓN
(ONDAS ELECTROMAGNÉTICAS) A ALTAS FRECUENCIAS."
CIRCUITO EQUIVALENTE DE UNA LÍNEA DE TRANSMISIÓN
R.- Resistencia total en Serie de la línea por unidad de longitud, incluyendo ambos conductores.
Unidades: Ohms/metro.
L.- Inductancia total en Serie de la línea por unidad de longitud, incluyendo la inductancia debida al
flujo magnético interno y externo a los conductores de la línea. Henrios/metro.
G.- Conductancia en paralelo de la línea por unidad de longitud. Es una representación de las
pérdidas que son proporcionales al cuadrado de la tensión entre los conductores o al cuadrado del
campo eléctrico en el medio. Generalmente G representa una pérdida interna molecular de los
materiales aislantes dieléctricos. Siemens/metro.
C.- Capacidad en paralelo de la línea por unidad de longitud. Farads/metro.
Nota.- Los símbolos definidos tienen diferentes significados y dimensiones que los empleados en
el análisis de circuitos eléctricos. En el caso de las líneas de tx, tratadas como redes de dos
puertos con longitudes no despreciables, dichos símbolos representan resistencia, inductancia,
etc., por unidad de longitud.
Nota. Las formulas siguientes llevan todo un proceso que no describiré, me limitare solo a su
forma general y simplificación. Solo manejare para altas frecuencias, ya que considero más
práctico y comprensible.
Puede verse de la ecuación anterior que para frecuencias altas, la impedancia característica en
una línea de transmisión se acerca a una constante, es independiente de la frecuencia y longitud,
y se determina solo por la inductancia y capacitancia. También puede verse que el ángulo de fase
es de 0°. Por lo tanto, Z, es totalmente resistiva y toda la energía incidente se absorberá por la
línea.
Desde un enfoque puramente resistivo, puede deducirse fácilmente que la impedancia vista,
desde la línea de transmisión, hecha de un número infinito de secciones se acerca a la impedancia
característica.
Ya que un desplazamiento de fase de 2 rad ocurre sobre una distancia de una longitud de onda
La velocidad a la que viaja una onda electromagnética, en una línea de transmisión, depende de la
constante dieléctrica del material aislante que separa los dos conductores. El factor de velocidad
se puede obtener, aproximadamente, con la formula
La constante dieléctrica depende del tipo de material que se utilice. Los inductores almacenan
energía magnética y los capacitadores almacenan energía eléctrica. Se necesita una cantidad
finita de tiempo para que un inductor o capacitor tome o dé energía. Por lo tanto, la velocidad a la
cual una onda electromagnética se propaga a lo largo de una línea de transmisión varia con la
inductancia y la capacitancia del cable. Se puede mostrar que el tiempo T= vL Por lo tanto, la
inductancia, la capacitancia, y la velocidad de propagación están relacionadas matemáticamente
por la formula.
Por lo tanto,
Si la distancia se normaliza a 1 m, la velocidad de propagación para una línea sin perdidas es:
La longitud de una línea de transmisión relativa a la longitud de onda que se propaga hacia abajo
es una consideración importante, cuando se analiza el comportamiento de una línea de
transmisión. A frecuencias bajas (longitudes de onda grandes), el voltaje a lo largo de la línea
permanece relativamente constante. Sin embargo, para frecuencias altas varias longitudes de
onda de la señal pueden estar presentes en la línea al mismo tiempo Por lo tanto, el voltaje a lo
largo de la línea puede variar de manera apreciable. En consecuencia, la longitud de una línea de
transmisión frecuentemente se da en longitudes de onda, en lugar de dimensiones lineales.
Los fenómenos de las líneas de transmisión se aplican a las líneas largas. Generalmente, una
línea de transmisión se define como larga si su longitud excede una dieciseisava parte de una
longitud de onda; de no ser así, se considera corta. Una longitud determinada, de línea de
transmisión, puede aparecer corta en una frecuencia y larga en otra frecuencia.
Para propósitos de análisis se consideran las líneas sin perdidas o ideales, como todo en la
electrónica se considera ideal, pero no lo son. En las líneas existen ciertos tipos de pérdidas a
continuación haré una breve descripción de ellas.
PÉRDIDA DEL CONDUCTOR:
Como todos los materiales semiconductores tienen cierta resistencia finita, hay una pérdida de
potencia inherente e inevitable.
PÉRDIDA POR RADIACIÓN:
Si la separación, entre los conductores en una línea de transmisión, es una fracción apreciable de
una longitud de onda, los campos electroestáticos y electromagnéticos que rodean al conductor
hacen que la línea actúe como antena y transfiera energía a cualquier material conductor cercano.
PÉRDIDA POR CALENTAMIENTO DEL DIELÉCTRICO:
Una diferencia de potencial, entre dos conductores de una línea de transmisión causa la pérdida
por calentamiento del dieléctrico. El calor es una forma de energía y tiene que tomarse de la
energía que se propaga a lo largo de la línea. Para líneas dieléctricas de aire, la pérdida de calor
es despreciable. Sin embargo, para líneas sólidas, se incrementa la pérdida por calentamiento del
dieléctrico con la frecuencia.
PÉRDIDA POR ACOPLAMIENTO:
La pérdida por acoplamiento ocurre cada vez que una conexión se hace de o hacia una línea de
transmisión o cuando se conectan dos partes separadas de una línea de transmisión. Las
conexiones mecánicas son discontinuas (lugares donde se encuentran materiales diferentes). Las
discontinuidades tienden a calentarse, a radiar energía, y a disipar potencia
CORONA (DESCARGAS LUMINOSAS)
La corona es una descarga luminosa que ocurre entre los dos conductores de una ‘línea de
transmisión, cuando la diferencia de potencial, entre ellos, excede el voltaje de ruptura del aislante
dieléctrico. Generalmente, una vez que ocurre una corona, se puede destruir la línea de
transmisión.
10.13 ONDAS INCIDENTES Y REFLEJADAS
o también:
La relación de onda estacionaria (SWR), se define como la relación del voltaje máximo con el
voltaje mínimo, o de la corriente máxima con la corriente mínima de una onda.
La relación de onda estacionaria (SWR), se define como la relación del voltaje máximo con el
voltaje mínimo, o de la corriente máxima con la corriente mínima de una onda. A ello también se
llama relación de voltajes de onda estacionaria. (VSWR). En esencia es una medida de la falta de
compensación entre la impedancia de carga y la impedancia característica de la línea de
transmisión.
(Adimensional)
Los máximos de voltaje (Vmax) se presentan cuando las ondas incidentes y reflejadas están en
fase ( es decir, sus máximos pasan por el mismo punto de la línea, con la misma polaridad) y los
mínimos de voltaje(Vmin) se presentan cuando las ondas incidentes y reflejadas están desfasadas
180º. La ecuación queda:
3. La suma de las formas de ondas de corriente reflejada e incidente es mínima a circuito abierto.
4. La suma de las formas de ondas de corriente reflejada e incidente es máxima a circuito abierto.
Así como en una línea de circuito abierto nada de la potencia incidente será adsorbida por la
carga, cuando una línea de transmisión se termina en un cortocircuito. Sin embargo, con una línea
en corto, el voltaje incidente y las ondas de
corriente se reflejan, nuevamente de la manera
opuesta La onda de voltaje se refleja 1800
invertidos de cómo habría continuado, a lo largo
de una línea infinitamente larga, y la onda de
corriente se refleja exactamente de la misma
manera como si no hubiera corto.
Constantes secundarias
Así se le llaman a las características de la línea de transmisión.
(Z0, y la cte. de propagación).
Impedancia Característica
Coeficiente de reflexión
Es una cantidad vectorial que representa la relación del voltaje reflejado entre el voltaje incidente,
o la corriente reflejada entre la corriente incidente.
Longitud de Onda
Se le llama así cuando las constantes primarias están distribuidas uniformemente en toda la
longitud de la línea.
Constantes primarias
Resistencia de cd en serie.
Inductancia en serie.
Capacitancia en paralelo.
Conductancia en paralelo.
10.17 CONCLUSIONES
Con el presente trabajo realizado sobre líneas de transmisión, primero que nada, comprendí lo que
es construir tu propio conocimiento, ya que al estar leyendo de varias fuentes el tema, formas tu
propio concepto para así, comprender mejor; ya sea una palabra o una fórmula que sería desde mi
punto de vista, lo más óptimo.
En los antecedentes de las líneas de transmisión, me di una idea de donde provienen éstas. La
inquietud de los hombres para comunicarse, lo que se pensaba en esa época, como se iban
mejorando las técnicas, así como la comercialización. Un dato importante que me llamó la
atención, fue que Heaviside dejó la escuela a los 16 años, y aprendió el código Morse, redujo las
ecuaciones de Maxwell a solo 2. Algo que me inquieta, más que la forma en que realizó esta
hazaña es lo que motivó a que hiciera todo lo que hizo. A veces lo importante no es saber si no
querer.
Para finalizar el capítulo en el trabajo, traté de abarcar desde mi perspectiva lo más importante y
reafirmar lo visto en clase. Cuando estudias es cuando se dan las dudas, y te da la posibilidad de
expandir tu conocimiento.
Bibliografía
Fundamentos de electromagnetismo
Capítulo 11
Planeamiento de los Sistemas de
Distribución
11.1 GENERALIDADES
Veamos una red eléctrica, incluye un sistema de generación, con sus plantas generadoras y
transformadores elevadores, un sistema de transmisión con sus líneas de transporte y
transformadores, y un sistema de distribución, también líneas y transformadores.
El sistema de distribución puede considerarse que inicia en una estación eléctrica de potencia con
transformadores, y líneas de su transmisión, que llegan a subestaciones de distribución con otra
transformación (a media tensión) circuitos primarios, derivaciones, transformadores de
distribución, y red secundaria que llega a los usuarios.
Es necesario resolver los distintos niveles de esta red logrando optimizar las soluciones en cada
caso adoptadas. Considerando que en la búsqueda de optimizaciones parciales no se debe olvidar
la optimización global del proyecto, tanto inicial como en el tiempo considerando el futuro
crecimiento de la red, que deberá adaptarse siempre a un futuro lejano e incierto.
Aunque la nomenclatura que se usa es muy dependiente de la jerga local se indicaran en la
siguiente tabla algunas definiciones para identificar componentes del sistema de distribución.
Tabla - Clasificación funcional de los componentes del sistema de distribución
Transformador de estación Recibe potencia del sistema de transmisión la transforma y la
de potencia (principal). entrega a la tensión de sub transmisión.
Sistema de subtransmisión. Circuitos que salen de la estación principal y alimentan las
subestaciones de distribución.
Subestación de distribución. Recibe potencia del sistema de subtransmisión la transforma
y la entrega a la tensión de los alimentadores primarios
Alimentador primario Circuitos que salen de las subestaciones de distribución y
alimentan los transformadores de distribución
Transformador de Transforma a la tensión de utilización
distribución
Red secundaria y servicios Distribuye potencia a los consumidores
Aunque los valores que siguen solo deben tomarse en modo indicativo, sirven para caracterizar
áreas de distribución de energía eléctrica
Tabla – densidades de carga KVA / km2
La vida del hombre se desarrolla mirando adelante, se responden preguntas, que hacer mañana,
en un mes, en un año, o más allá, los 10 años son una esperanza, un sueño.
La vida de un país pujante piensa en un año, en 10 en 100 y mas, ya que los hombres se suceden
y el país permanece.
Si bien el futuro es incierto, es necesario plantear un futuro posible, y este pondrá a la vista
necesidades cuya satisfacción requiere a veces algún año de preparación, pensemos en el
antiguo Egipto, sus años de vacas gordas y de vacas flacas obligaron a planear, construir para
guardar…
Se planean las obras del futuro, una mezcla de sueño para el futuro lejano y urgencia para el
futuro próximo. Indudablemente los sueños del futuro ayudan a construir el futuro, así se plantean
obras, se comienzan a construir, se terminan (o no!), se utilizan (o no!), se aprovechan (o no!), se
saturan (o no!), se deben replantear.
Concretemos en nuestro tema, frente a una red que debe planearse se presentan distintos
estados iniciales:
Se puede tratar de un área que ha crecido sin planes, sin control, y para ella se desea una red
nueva bien planteada y que prevea la expansión futura, siendo un área con servicio eléctrico su
densidad de carga es conocida, la nueva red provocara un incremento inmediato de cargas
inhibidas por el mal servicio que daba la vieja red, por otra parte la red deberá ser satisfactoria por
muchos años en los que crecerá la carga individual y aparecerán nuevos usuarios, el proyecto
debe tener un estado final que permita alimentar las cargas futuras, e inicialmente se harán parte
de las obras para que en el estado inicial se tenga optimo servicio, y se dejaran las previsiones
para acompañar el desarrollo a medida que el consumo lo exija.
Aunque parezca que no vale la pena, también en áreas que fueron bien planeadas y se
desarrollaron correctamente, puede ser útil plantear un estudio como arriba sugerido, quizás de
este estudio se llegue a concluir que conviene ir haciendo cambios importantes, tratando de
aprovechar más los adelantos tecnológicos, u otras acciones, como por ejemplo cambiar de
tensión.
Necesitamos anticiparnos al futuro, antes de la crisis aparezca y colapse lo que hay. El
crecimiento. el desarrollo libre de obstáculos, genera necesidades y nos obliga a anticipar el
futuro. Al soñar lo que se necesita nos basamos en cómo crece la carga, como aumenta la
superficie que nuestra obra debe cubrir., son ideas que hacen tomar forma (si se realizan las
obras) a nuestra realidad de mañana.
El crecimiento que se plantea debe tener una opción optimista y una opción pesimista, en base a
la que hoy puede preverse. Las condiciones inmediatas se pueden prever con la tasa de
crecimiento actual, pero las condiciones del futuro deben considerar tasas de crecimiento basadas
en periodos representativos, largos, el futuro lejano puede ser víctima de la saturación, o de la
aparición de otras opciones que compiten.
Fijadas las cargas se debe buscar la red que las satisface, sin bajar a detalles menores, estos
serán objeto de trabajos al momento de construir.
Podemos clasificar las redes en dos tipos, aquellas para las cuales las cargas pueden suponerse
puntuales, de valor y ubicación definidas, y aquellas en las cuales la carga sigue una ley de
distribución continua en la superficie del plano en el cual debe realizarse la distribución de energía.
Las redes del primer tipo son concretamente las que corresponden a industrias, mientras que las
del segundo tipo corresponden a distribución urbana.
Hemos descripto el planeamiento como un sueño futuro, quien debe soñar?, ha habido distintos
soñadores, ya en el estado, ya en la actividad privada, la abundancia de recursos ha hecho soñar
obras faraónicas, sin un cuidadoso análisis de cual podía ser su rendimiento, cuanto podían rendir,
cuanto podían funcionar, cuanto iban a costar, la consecuencia es que los recursos se orientaron
mal, y otras obras que podían rendir mas no se pudieron hacer.
El mal planeamiento con sus frutos hizo que el planeamiento se desacreditara, se descalifico
(cuando lo que había que haber descalificado eran algunos planificadores), y apareció un forma de
planeamiento que justifica decisiones que se basan en lo inmediato, pero afectan el futuro, esto se
llama mercado, las leyes del mercado.
Sin embargo aun con las leyes de mercado se plantea la necesidad de planear, la justificación
económica de lo que se planea se analiza a la luz de las leyes del mercado, pero las hipótesis que
Planteamos finalmente un estado futuro, hipótesis, y encaramos una solución técnica para ese
futuro (con lo que sabemos hoy), retrocediendo tenemos que lograr unir lo que hoy tenemos con
ese futuro (hipotético), así se hace el plan.
Mientras la realidad se sigue desarrollando, y algunas obras indispensables a las que se les ha
dado prioridad, se construyen y se integran al servicio, obras superadas (obsoletas) se retiran del
servicio y se demuelen.
Si la realidad que avanza, no tiende al futuro planeado, es necesaria una nueva proyección de
futuro, y una nueva búsqueda de soluciones óptimas en el largo plazo, no se debe creer que el
planeamiento no sirve, se lo debe rehacer, tratando de orientarse mejor hacia el futuro.
Como se trabaja frente una realidad cambiante, se inicia con un planteo de cómo la realidad puede
evolucionar, se hacen hipótesis de crecimiento partiendo de lo actual, dos años, 5, 10, 20... Se
trata de resolver el problema final en forma general, buscar la solución de 10 que mejor se adapte,
la solución de 5 que queda incluida en la de 10, y que si se tarda en construir un par de años...
siempre se debe considerar que desde que se decide una construcción hasta que está terminada
puede pasar un periodo importante, años...
Quizás necesitemos una solución a dos años, esta debe ser inmediata, pero es importante que lo
que hacemos así, sea aprovechado en la solución de 5 años, de lo contrario podemos estar
despilfarrando recursos.
Para la solución de 20 años que quizás corresponde a 4 veces la carga, no tiene sentido pensar
en conservar obras actuales, esa solución debe ser totalmente libre, aunque los espacios que es
cada vez más dificultoso obtener, quizás la condicionen en demasía.
A medida que nos acercamos a la solución de más breve plazo notamos la mayor dependencia de
la realidad actual, no siendo posible una renovación total, que implica una inversión excesiva.
La solución de 20 años debe ser grosera, no debe bajar a detalles que la técnica en ese largo
tiempo seguramente cambiará, la solución de breve plazo en cambio debe resolver los problemas
al detalle, el paso siguiente es su construcción.
Al trabajar en esta forma se da la correcta prioridad y envergadura a las obras que se requieren de
vez en vez, pasada la etapa constructiva inmediata, pasados un par de años, los cambios
aparecidos al azar, pueden distorsionar las esperanzas, y se observa conveniente el desarrollo de
un nuevo plan ajustado para los siguientes 2 y 5 años.
El inconveniente de esta modalidad es el gran trabajo de planeamiento que se repite, y el secreto
está en minimizar el trabajo indispensable, solo debe hacerse lo que ayuda a la correcta
evaluación de los pasos que se han de dar.
El trabajo de detalle solo debe hacerse para el futuro inmediato. A veces se presentan cambios
tecnológicos importantes que obligan a replantear el plan, a veces la crisis obliga a frenar el
desarrollo. Las situaciones de crisis pueden afectar decisiones del futuro inmediato, invitando a
demorar las obras, pero si la crisis se resuelve se hace imposible recuperar el tiempo perdido para
la obra.
El trabajo de planeamiento es un trabajo de escritorio... los tiempos de crisis, cuando no se hace
nada, son ideales para desarrollar esta actividad, quizás por la crisis los 20 años del planeamiento
se alejen... pero llegaran a los 40, o quizás superada la crisis se anticipen, lleguen a los 15 o a los
10.
El planteo se debe hacer para una situación futura razonable, en distribución se debe mirar a 10 o
20 años adelante, esto significa, pensando que la carga crece con cierta tasa anual, un incremento
de carga que puede llegar al doble o más.
Supóngase conocer un área en la que se conoce la distribución de carga por unidad de superficie.
En el área se distribuyen centros de suministro, cada uno cubre cierta superficie, tiene cierto radio
de acción, las áreas no se superponen, entre un área y otra se tiene una frontera, los círculos que
corresponden a cada centro se deforman y convierten en polígonos. El trazado de calles, los
límites de propiedad tienen relación con esas fronteras.
Otro problema que se presenta es que planeamos para una carga mayor (quizás doble o más)
entonces la potencia efectivamente necesaria en cada centro debe ser menor, y se incrementara
con el crecimiento de la carga. Otra posibilidad es asociar las áreas de a dos, instalar un solo
centro, al tiempo se instalara el segundo, quizás el tercero. Quien planifica debe adivinar cuál es la
mejor solución.
En general se tiende a reducir la primera inversión, pero este criterio no debe representar
encarecimiento futuro, por esto es muy importante planear para la situación final, y luego identificar
la necesidad presente.
Una vez que hemos identificado la distribución de centros de carga, aparecen dos problemas, la
red que debe llegar a todos los usuarios y la red que desde la fuente de energía debe llegar a
todos los centros.
También este problema merece un análisis, se proyecta la red final, se busca lo que inicialmente
más conviene, teniendo presentes las reservas que se deben hacer para el futuro.
El fruto de este trabajo de planeamiento debe quedar bien documentado, para que cuando se
presenta la necesidad de construir las obras y desarrollar la ingeniería de detalle no quede dudas
de lo que se debe hacer.
El planeamiento no debe entrar en las soluciones de detalle que seguramente en el transcurso del
tiempo perderán vigencia victimas del progreso tecnológico (tanto en componentes como en
materiales).
El producto del planeamiento es un mapa geográfico (topográfico) donde pueden identificarse los
recorridos de la red de las líneas eléctricas y los centros de carga. Otro producto es un plano
esquemático que muestra las posibles conectividades, y los caminos que sigue la energía de
fuentes a consumos.
Podríamos pensar en ver esto como una imagen de la realidad actual, lo que significa un gran
trabajo de relevamiento (el fruto es un documento imagen de la realidad) y sobre esta realidad se
hacen agregados que deben satisfacer las necesidades futuras que se van previendo.
Disponer de esta documentación permite encarar el problema en muchas formas, con objetivo de
mejorar la distribución, se dispone de una excelente base de información para desarrollar distintas
simulaciones, variar conductores, variar centros de carga, variar conectividad, manteniendo las
cargas y las fuentes se pueden hacer variantes en busca de optimizaciones.
Si se dispone de la red imagen, y aparecen incrementos de carga, o nuevas cargas, se pueden
simular sus efectos, calculando variaciones de perdidas, de caídas de tensión, de costos que
corresponden por la nueva situación planteada.
En una red así concebida, se requiere de una cuadrilla volante que recorra la red, encuentre las
faltas, reponga el servicio, repare la falla, todo esto con urgencia que exige el usuario de energía.
En esta red, los dispositivos de protección que están concentrados en los centros, y distribuidos en
la red son el primer automatismo que se ha integrado, cuando actúa un dispositivo y queda una
rama sin alimentación, si la falla está ubicada es posible algún sistema automático que alimente
desde otro punto de la red parte de lo que ha salido de servicio.
Las acciones automáticas permiten que menos usuarios queden desconectados, quizás ninguno, y
entonces él la reparación no debe ser inmediata, el tiempo de reparación puede ser mayor.
Con este concepto se han desarrollado en el pasado algunos sistemas de distribución que todavía
se utilizan.
La red telefónica transmitiendo las quejas y protestas del usuario brinda información de las faltas
de la red, adelantarse a estas requiere un sistema de comunicaciones asociado a la red eléctrica,
que transmita al menos las alarmas que corresponden a fallas, y sus consecuencias.
Una automoción mayor que la descripta también requiere un sistema de comunicaciones, en un
centro (no necesariamente eléctrico) se concentra información de toda la red, se sabe en qué
puntos la red está abierta, en qué puntos puede cerrarse, que áreas pueden tener una
alimentación alternativa, y si esta puede habilitarse o no.
Este tipo de decisiones se pueden tomar por acción de un operador o por un autómata que tiene
inteligencia suficiente para maniobrar la red con el objetivo de minimizar las faltas de energía para
los usuarios.
La inteligencia puede distribuirse de manera de que pequeños centros distribuidos tengan
posibilidad de desempeñarse autónomamente, el centro principal sigue siendo necesario para
concentrar en él el estado de la red, y conocer sus condiciones de funcionamiento generales, pero
los centros distribuidos pueden tomar decisiones autónomas frente a un evento, es importante que
estas decisiones sean acertadas en todas las circunstancias que se presentan... lograr esto último
es el desafío importante.
Las pérdidas dependen del cuadrado de la corriente y supuesto que la tensión se mantiene
constante dependen del cuadrado de la potencia aparente.
Fde pérdidas = Perd / Perd max
Perd = (1/T) integral entre 0 y T de (P(t)^2 * dt)
El tiempo de utilización es el tiempo en el cual la máquina funcionando a plena carga entrega la
energía que en condiciones normales entrega en el lapso T.
T de utilización = (1/Pmax) integral entre 0 y T de (P(t) * dt) = T * F de carga
El tiempo equivalente (de pérdidas) es el tiempo en el cual el elemento funcionando a plena carga
produce la misma pérdida de energía que en condiciones normales en el lapso T.
T equivalente = T * Perd / Perd max = T * F de perdidas
El factor de pérdidas no puede ser determinado directamente del factor de carga, la relación entre
ambos valores es una ecuación.
Factor de pérdidas = 0.3 F de carga + 0.7 (F de carga)^2
Comprendida entre los casos extremos.
F de pérdidas = F de carga
F de pérdidas = (F de carga)^2
El factor de potencia de la carga en general se obtiene como cociente de mediciones de energía.
Cos(fi) = cos(arco(tg(kVArh / kWh)))
Se dice que una carga polifásica es balanceada cuando absorbe corrientes equilibradas al
alimentarla con una terna de tensiones todas iguales e igualmente desfasadas una de otra.
Las tensiones pueden ser desbalanceadas debido a asimetría del circuito.
El factor de desbalanceo de tensiones se define en los sistemas trifásicos en base a las tensiones
compuestas de secuencia inversa y de secuencia directa.
Fdesbalanceo = V2(inversa) / V1(directa)
Hay cargas que aumentan con el tiempo siguiendo determinadas leyes; se definen entonces
factores de aumento de la carga.
Faumento = Pn / Po
Siendo: Pn la carga después de n períodos; Po la carga en el primer período.
13.7 Estructura de costos
Analizamos exclusivamente el nivel de distribución, y tratamos de enumerar los costos que
deberemos tener en cuenta en un análisis:
- la energía que ingresa que tiene cierto costo unitario (quizás variable en el tiempo, costo
horario)
- las pérdidas que presenta la red
- conservación, y el mantenimiento
- amortización de obras, instalaciones y equipos
- personal técnico y administrativo
De estos costos parte son costos fijos (por ejemplo lectura del medidor), parte son proporcionales
a la potencia que usa el usuario (por ejemplo amortización del transformador y cable), parte son
proporcionales a la energía que consume el usuario (también por ejemplo las perdidas).
REFERENCIAS BIBLIOGRÁFICAS
ANEXO 1
La mayoría de las veces, los reportes que usted escriba de las prácticas de laboratorio serán
simples resúmenes de su trabajo. En el futuro, tal vez se le pida escribir reportes más formales
en otros cursos de ciencias. Hay un procedimiento aceptado para escribirlos. El procedimiento
se describe a continuación.
I. INTRODUCCIÓN
A. Encabezado
B. Diagramas
II. DATOS
III. RESULTADOS/ANÁLISIS
IV. GRÁFICAS
V. CÁLCULOS DE MUESTRAS
VI. DISCUSIÓN
En algunos casos, las conclusiones de un experimento son tan obvias que la sección de
discusión puede omitirse. Sin embargo, en estos casos se incluye un breve enunciado en
forma apropiada. Con mayor frecuencia cierta discusión de los resultados se requerirá
para aclarar su importancia. Tal vez usted desee también comentar acerca de las posibles
fuentes de error y sugerir mejoras en el procedimiento o el equipo.
VII. CONCLUSIONES
La conclusión es una parte importante de todo reporte. Las conclusiones deben ser el
trabajo individual del estudiante que escribe el reporte y terminarse sin la ayuda de nadie,
excepto del maestro.
La conclusión consiste en uno o más párrafos bien escritos que resumen e integran sólo
los resultados principales e indican su importancia en relación con los datos observados.
ANEXO 2
SEGURIDAD EN EL LABORATORIO
Si usted sigue exactamente las instrucciones y entiende los peligros potenciales del equipo y
del procedimiento empleado en un experimento, el laboratorio de física es un lugar seguro
para aprender y aplicar su conocimiento. Usted debe asumir la responsabilidad de su propia
seguridad, la de sus compañeros y la de su maestro. He aquí algunas reglas de seguridad
para guiarlo en su propia protección y en la de los otros contra lesiones, y en el mantenimiento
de un ambiente seguro para el aprendizaje.
Materia extraña en los ojos Lave con bastante agua; utilice un lavaojos.
ANEXO 3
TW
NORMAS DE FABRICACIÓN
:ITINTEC 370.048(Calibre mm²)
:UL-83 (Calibres AWG)
:VDE 0250 (Calibres AWG)
Tensión del servicio :600 voltios
Temperatura de operación :60°C
DESCRIPCIÓN
ALAMBRES
0,75 1 1,0 1,0 0,75 2,5 12 9 7
1 1 1,1 1,1 0,75 2,6 15 11 9
1,5 1 1,4 1,4 0,75 2,9 20 16 13
2,5 1 1,8 1,8 0,75 3,3 31 27 22
4 1 2,3 2,3 0,75 3,8 45 32 28
6 1 2,8 2,8 0,75 4,3 65 45 35
10 1 3,6 3,6 1,15 5,9 113 67 46
CABLES
2,5 7 0,67 2,0 0,75 3,5 32 27 22
4 7 0,85 2,6 0,75 4,1 48 32 28
6 7 1,04 3,1 0,75 4,6 69 45 35
10 7 1,35 4,1 1,50 6,4 121 67 46
16 7 1,70 5,1 1,50 7,1 193 90 62
25 7 2,14 6,4 1,50 8,4 290 120 80
35 7 2,52 7,6 1,50 9,6 390 150 100
50 19 1,78 8,9 1,50 12,9 535 185 125
70 19 2,14 10,7 2,00 14,7 745 230 150
95 19 2,52 12,6 2,00 16,6 1005 275 180
120 37 2,03 14,2 2,40 19,0 1280 320 210
150 37 2,25 15,8 2,40 20,6 1546 375 240
185 37 2,52 17,6 2,40 22,4 1911 430 275
240 61 2,25 20,3 2,40 25,1 2464 480 320
300 61 2,52 22,7 2,80 28,3 3106 575 355
400 61 2,85 25,7 2,80 31,3 3922 670 410
500 61 3,20 28,8 2,80 34,4 4891 780 460
(*) - NO MAS DE TRES CONDUCTORES POR DUCTO
- TEMPERATURA AMBIENTE 30°C
ALAMBRES
18 0,8 1 1,0 1,0 0,6 2,2 12 10 8
16 1,3 1 1,3 1,3 0,6 2,5 17 15 12
14 2,1 1 1,6 1,6 0,7 3,0 25 25 20
12 3,3 1 2,1 2,1 0,8 3,7 39 30 25
10 5,3 1 2,6 2,6 0,8 4,2 58 40 30
CABLES
14 2,1 7 0,61 1,8 0,7 3,2 27 25 20
12 3,3 7 0,78 2,3 0,8 3,9 41 30 25
10 5,3 7 0,98 2,9 0,8 4,5 62 40 30
8 8,4 7 1,23 3,7 1,0 5,7 97 60 40
6 13,3 7 1,55 4,7 1,0 6,7 147 80 55
4 21,1 7 1,96 5,9 1,2 8,3 232 105 70
2 33,6 7 2,47 7,4 1,2 9,8 356 140 95
1 42,4 19 1,69 8,4 1,4 11,2 450 165 110
1/0 53,4 19 1,90 9,5 1,4 12,3 555 195 125
2/0 67,4 19 2,13 10,6 1,4 13,4 690 225 145
3/0 85,1 19 2,39 11,9 1,6 15,1 873 260 165
4/0 107,2 19 2,68 13,4 1,6 16,6 1086 300 195
250 126,7 37 2,09 14,6 1,8 18,2 1288 340 215
300 151,9 37 2,29 16,0 2,0 20,0 1530 375 240
350 177,5 37 2,47 17,3 2,0 21,3 1795 420 260
400 202,8 37 2,64 18,5 2,2 22,9 2055 455 280
500 253,1 37 2,95 20,7 2,4 25,5 2561 515 320
(*) - NO MAS DE TRES CONDUCTORES POR DUCTO
- TEMPERATURA AMBIENTE 30°C
NORMAS DE FABRICACIÓN
:ITINTEC 370.048(Calibre mm²)
:UL-83 (Calibres AWG)
:VDE 0250 (Calibres AWG)
Tensión del servicio :600Voltios(en AWG), :750Voltios(en mm²)
Temperatura de operación :75°C
DESCRIPCIÓN
ANEXO 4
TABLA DE LUMINARIAS
Luminaria 2
Luminaria 10 (Semi-indirecta)
Luminaria 12 (Semi-indirecta)
ANEXO 5
ANEXO 6
CURVAS ISOLUX
ANEXO 7
CONDUCTORES ESPECIALES
N2XSY UNIPOLAR
NORMAS DE FABRICACIÓN
:ITINTEC 370.050, IEC 502
Tensión de Servicio : 10 Kv, 15Kv, 20Kv, 30Kv
Temperatura de operación 90°C
DESCRIPCIÓN
Conductores de cobre electrolítico recocido, cableado comprimido o
compactado.Cinta semiconductora o compuesto semiconductor extruído
sobre el conductor. Aislamiento de Polietileno Reticulado (XLPE) Cinta
semiconductora o compuesto semiconductor extruído y cinta o alambres de
cobre electrolítico sobre el conductor aislado. Barrera térmica de poliester.
Chaqueta exterior de PVC rojo
USOS
Distribución y subtransmisión de energía aérea y subterranea. Como
alimentadores de transformadores en sub-estaciones. En centrales
eléctricas, instalaciones industriales y de maniobra, en urbanizaciones e
instalaciones mineras en lugares secos o húmedos.
CARACTERÍSTICAS
Temperatura del conductor de 90°C para operación normal, 130°C para
sobrecarga de emergencia y 250°C para condiciones de corto circuito.
Buena resistencia a la tracción. Excelentes propiedades contra el
envejecimiento por calor Alta resistencia al impacto y a la abrasión.
Excelente resistencia a la luz solar e intemperie. Altísima resistencia a la
humedad. Excelente resistencia al ozono, ácidos, álcalis y otras sustancias
químicas a temperaturas normales. No propaga la llama
EMBALAJE
En carretes de madera, en longitudes requeridas
COLORES
Aislamiento :Natural
Cubierta :Rojo
CALIBRE
: 10 - 500 mm²
PARAMATROS FISICOS
PARAMATROS ELECTRICOS
REACTANCIA
RESISTENCIA RESISTENCIA AMPACIDAD AMPACIDAD
INDUCTIVA
SECCION
NOMINAL DC a AC ENTERRADO AIRE
(A) (B)
20°C (A) (B) 20°C 30°C
mm² mmOhm/Km Ohm/Km Ohm/Km Ohm/Km Ohm/Km (A) (B) (A) (B)
35 0,524 0,668 0,668 0,2865 0,1689 215 190 235 200
50 0,387 0,494 0,494 0,2720 0,1572 250 225 270 240
70 0,268 0,342 0,342 0,2598 0,1492 305 275 350 300
95 0,193 0,247 0,247 0,2489 0,1416 365 325 420 360
120 0,153 0,196 0,196 0,2400 0,1353 410 370 485 415
150 0,124 0,159 0,160 0,2336 0,1319 445 410 540 470
185 0,0991 0,127 0,128 0,2264 0,1274 500 465 615 535
240 0,0754 0,098 0,099 0,2174 0,1217 570 535 720 630
300 0,0601 0,078 0,080 0,2108 0,1185 635 605 815 715
400 0,047 0,062 0,064 0,2034 0,1143 690 675 905 820
500 0,0366 0,050 0,052 0,1970 0,1113 760 750 1015 930
(A) = 3 cables unipolares en formación tripolar, tendidos paralelos con una separación mayor o igual a 7 cm
(B)=3 cables unipolares en formación tripolar, tendidos, agrupados en triángulo, en contacto
BAJO LAS SIGUIENTES CONDICIONES:
-TEMPERATURA DEL SUELO = 20°C
-TEMPERATURA DEL AIRE = 30°C
-RESISTIVIDADDELSUELO = 1k.m/W
- PROFUNDIDAD DE INSTALAC. = 700 mm.
N2YSY UNIPOLAR
NORMAS DE FABRICACIÓN
:ITINTEC 370.050, IEC 502
Tensión de Servicio : 6Kv, 10 Kv, 15Kv
Temperatura de operación : 75°C
DESCRIPCIÓN
Conductores de cobre electrolítico recocido, cableado concéntrico comprimido o
compactado. Semiconductor de cintas o extruido sobre el
conductor. Aislamiento de polietileno termoplástico. Pantalla:
semiconductora de cintas o extruida y cinta de cobre. Barrera
térmica de poliester. Cubierta exterior de PVC color rojo
USOS
En distribución y subtransmisión. Como alimentadores de
transformadores en subestaciones. En centrales eléctricas,
instalaciones industriales y de maniobra, en urbanizaciones e
instalaciones mineras Puede instalarse en charolas, en ductos
subterráneos o directamente enterrados y en instalaciones de
difícil tendido, en desniveles muy pronunciados o
instalaciones verticales
CARACTERÍSTICAS
Inmejorables características dieléctricas. Resistente a ácidos,
grasas. aceites y a la abrasión. No propaga la llama. Fácil de
instalar con uniones y terminales sencillos.
EMBALAJE
En carretes de madera en longitudes requeridas
COLORES
Aislamiento : Natural
Cubierta . Rojo
CALIBRE
: 10 - 500 mm²
PARAMATROS FISICOS
PARAMATROS ELECTRICOS
RESISTENCIA RESISTENCIA REACT. INDUCTIVA AMPACIDAD AMPACIDAD
AC ENTERRADO AIRE
SECCION NOMINAL
D.C. a 20° (A) (B) 20°C 30°C
(A) (B)
(A) (B) (A) (B)
mm² Ohm/Km Ohm/Km Ohm/Km Ohm/Km Ohm/Km A B A B
10 1,83 2,19 2,19 0,3257 0,1806 95 87 90 80
16 1,15 1,376 1,376 0,3092 0,168 125 112 115 95
25 0,727 0,87 0,87 0,293 0,1562 160 145 150 135
35 0,524 0,627 0,627 0,2816 0,1484 190 175 180 160
50 0,387 0,463 0,464 0,2672 0,1378 225 210 235 190
70 0,268 0,321 0,321 0,2547 0,1301 275 250 285 240
95 0,193 0,232 0,232 0,2439 0,1239 325 300 340 285
120 0,153 0,184 0,185 0,2351 0,1186 365 340 390 330
150 0,124 0,149 0,15 0,2288 0,1162 405 380 440 375
185 0,0991 0,12 0,121 0,2217 0,1125 450 430 500 430
240 0,0754 0,092 0,094 0,213 0,1085 510 490 585 505
300 0,0601 0,074 0,076 0,2067 0,107 570 550 660 575
400 0,047 0,059 0,062 0,1998 0,1045 615 620 730 660
500 0,0366 0,047 0,051 0,1937 0,1029 680 685 810 750
(A) = 3 cables unipolares en formación tripolar, tendidos paralelos con una separación mayor o igual a 7 cm
(B)=3 cables unipolares en formación tripolar, tendidos, agrupados en triángulo, en contacto
BAJO LAS SIGUIENTES CONDICIONES:
-TEMPERATURA DEL SUELO = 20°C
-TEMPERATURA DEL AIRE = 30°C
-RESISTIVIDADDELSUELO = 1k.m/W
- PROFUNDIDAD DE INSTALAC. = 700 mm.
PARAMATROS FISICOS
PARAMATROS ELECTRICOS
RESISTENCIA RESISTENCIA REACT. INDUCTIVA AMPACIDAD AMPACIDAD
AC ENTERRADO AIRE
SECCION NOMINAL
D.C. a 20° (A) (B) 20°C 30°C
(A) (B)
(A) (B) (A) (B)
mm² Ohm/Km Ohm/Km Ohm/Km Ohm/Km Ohm/Km A B A B
16 1,15 1,376 1,376 0,3108 0,1757 130 115 110 100
25 0,727 0,87 0,87 0,2945 01634 165 145 155 130
35 0,524 0,627 0,627 0,2831 0,1552 195 175 190 160
50 0,387 0,463 0,464 0,2687 0,1442 230 205 225 190
70 0,268 0,321 0,321 0,2562 0,1360 280 250 285 240
95 0,193 0,232 0,232 0,2453 0,1293 335 300 345 290
120 0,153 0,184 0,185 0,2368 0,1248 375 340 400 335
150 0,124 0,149 0,15 0,2302 0,1210 405 380 445 380
185 0,0991 0,12 0,121 0,2231 0,1170 455 425 505 430
240 0,0754 0,092 0,094 0,2144 0,1130 520 490 590 510
300 0,0601 0,074 0,076 0,2076 0,1095 580 550 670 580
400 0,047 0,059 0,062 0,2006 0,1068 615 615 740 665
500 0,0366 0,047 0,051 0,1940 0,1036 710 685 820 750
(A) = 3 cables unipolares en formación tripolar, tendidos paralelos con una separación mayor o igual a 7 cm
(B)=3 cables unipolares en formación tripolar, tendidos, agrupados en triángulo, en contacto
BAJO LAS SIGUIENTES CONDICIONES:
-TEMPERATURA DEL SUELO = 20°C
-TEMPERATURA DEL AIRE = 30°C
-RESISTIVIDADDELSUELO = 1k.m/W
- PROFUNDIDAD DE INSTALAC. = 700 mm.
PARAMATROS FISICOS
PARAMATROS ELECTRICOS