Está en la página 1de 5

DEPARTAMENTO DE CIENCIA ELECTRICA Y ELECTRONICA

PLC y Redes Industriales.

TEMA
Investigación # 3
DOCENTE:
ING. TATIANA ACOSTA

NOMBRES:

• Asqui Juan Diego


• Mora Tayron
• Santamaria Oscar

NRC: 9505

FECHA DE ENTREGA:

08 DE DICIEMBRE DE 2021

SEMESTRE
OCTUBRE 2021 – ABRIL 2022
Sistemas Centralizados

La computación centralizada es aquel proceso de cómputo realizado en una localización


central, usando terminales conectados a una computadora central. La computadora en sí
misma puede controlar todos los periféricos directamente (si están físicamente conectados
con la computadora central), o pueden ser conectados vía un servidor de terminal.
Alternativamente, si los terminales tienen la capacidad, pueden ser conectados con la
computadora central sobre la red. Los terminales pueden ser terminales de texto o clientes
ligeros, por ejemplo.

Ofrece mayor seguridad sobre los sistemas descentralizados porque todo el


procesamiento es controlado en una localización central. Además, si un terminal se daña,
el usuario simplemente puede ir a otro terminal y logearse de nuevo, y todos sus archivos
seguirán siendo accesibles. Dependiendo del sistema, puede incluso reanudar su sesión
desde el punto en que estaba antes como si no hubiera sucedido nada.

Este tipo de arreglo tiene algunas desventajas. La computadora central realiza las
funciones de computación y controla los terminales remotos. Este tipo de sistema confía
totalmente en la computadora central. Si la computadora central se estrella, el sistema
entero se "irá abajo" (es decir será inasequible).

Historia

Los primeros computadores no tenían terminales separados como tales, sus primitivos
dispositivos de entrada-salida fueron incorporados en ellos. Sin embargo, por razones de
costo, pronto se encontró que era extremadamente útil que múltiples personas pudieran
usar un mismo computador simultáneamente tiempo compartido. Los primeros
computadores eran muy costosos, tanto para la producción como para el mantenimiento,
y ocupaban grandes cantidades de espacio. La idea de la computación centralizada nació.
Los primeros terminales de texto usaron teletipos electromecánicos, pero estos fueron
substituidos por pantallas de tubos de rayos catódicos (como los que se encontraban en
los televisores y computadores del siglo XX). El modelo de terminal de texto dominó la
computación desde los años 1960 hasta el auge y la dominación de los computadores
caseros y los computadores personales en los años 1980.
Estado actual
Desde 2007, la computación centralizada está regresando a estar de moda - hasta cierto
punto. Por muchos años, los clientes livianos han sido usados en los negocios para reducir
el costo total de propiedad (TCO), mientras que las aplicaciones web están llegando a ser
más populares porque potencialmente pueden ser utilizadas en muchos tipos de
dispositivos computacionales sin ninguna necesidad de instalación de software. Sin
embargo, hay muestras de que el péndulo está pivotando hacia atrás otra vez, lejos de la
centralización pura, mientras que los dispositivos de cliente ligero se convierten más bien
en clientes híbridos (estaciones de trabajo sin disco) debido al creciente poder de
computación, y a que las aplicaciones web comienzan a hacer más procesamiento en el
lado del cliente, con tecnologías como AJAX y los clientes ricos.
Adicionalmente, los mainframes todavía están siendo usados para algunas aplicaciones
de misión crítica, como pago de nómina, o para procesar transacciones día a día de cuentas
en los bancos. Estos mainframes serán típicamente accesados tanto con emuladores de
terminales (los dispositivos terminales reales ya no son muy usados) o vía modernos
frontales (front-ends) tales como aplicaciones web, o en el caso de acceso automatizado,
protocolos como los de servicios web.
Ventajas:
• Un punto de control. Mayor control de seguridad y protección de la información
en un solo punto.
• Fácil de mantener. Empresa con muchos cambios de requerimientos. Fácil
despliegue de los cambios. Soporte en un solo punto.
• Tomas de decisiones. Esta arquitectura es primordial en las tomas de decisiones
centralizadas, en otro punto llamado de lógica de negocio de la empresa
centralizada
Desventajas:
• Interfaz de usuario poco llamativo. Por el uso de la red amplia, se evita tener
pantalla con imágenes. Debe controlar el uso de ancho de banda de la red.
• Velocidad de repuestas lenta, dependiendo la conexión de la red a la central.
• Debe haber mecanismo de respaldo o copia del sistema centralizada en caso de
contingencia muy estricta, muere el sistema central, muere el sistema a nivel
general.
• Crecimiento depende de los equipos que lo soporta. Si la empresa crece en forma
exponencial por ejemplo, el equipo debe ser cambiado al no tener estos estudios
de crecimiento o la actualización de equipo debe ser constante.

Sistemas Distribuidos

Desde el inicio de la era de la computadora moderna (1945), hasta cerca de 1985, solo se
conocía la computación centralizada. A partir de la mitad de la década de los ochenta
aparecen dos avances tecnológicos fundamentales:
• Desarrollo de microprocesadores poderosos y económicos con arquitecturas de 8,
16, 32 y 64 bits.
• Desarrollo de redes de área local (LAN) de alta velocidad, con posibilidad de
conectar cientos de máquinas a velocidades de transferencia de millones de bits
por segundo (mb/seg).
Aparecen los sistemas distribuidos, en contraste con los sistemas centralizados.
Un sistema distribuido es un sistema en el que los componentes hardware o software se
encuentran en computadores unidos mediante una red.
Los S. O. para sistemas distribuidos han tenido importantes desarrollos, pero todavía
existe un largo camino por recorrer. Los usuarios pueden acceder a una gran variedad de
recursos computacionales:
• De hardware y de software.
• Distribuidos entre un gran número de sistemas computacionales conectados.
Características de un sistema distribuido:
• Concurrencia. En una red de computadores, la ejecución concurrente de un
programa es la norma.
• Inexistencia de un reloj global. Necesidad de temporalidad para
coordinación/sincronización.
• Fallos independientes:
o Por aislamiento de la red (red)
o Por parada de un computador (hardware)
o Por terminación anormal de un programa (software)
Evolución Histórica
El concepto de transmisión de mensajes se originó a finales de la década de los 60. A
pesar de que el multiprocesador de propósito general y las redes de computadoras no
existían en ese momento, surgió la idea de organizar un sistema operativo como una
colección de procesos de comunicación donde cada proceso tiene una función específica,
en la cual, no pueden interferir otros (variables no compartidas). De esta forma, en los
años 70 nacieron los primeros sistemas distribuidos generalizados, las redes de área local
(LAN) como Ethernet.
Este suceso generó inmediatamente una gran cantidad de lenguajes, algoritmos y
aplicaciones, pero no fue hasta que los precios de las LANs bajaron, cuando se desarrolló
la computación cliente-servidor. A finales de la década de 1960 se creó ‘Advanced
Research Projects Agency Network’ (ARPANET). Esta agencia fue la espina dorsal de
Internet hasta 1990, tras finalizar la transición al protocolo TCP/IP, iniciada en 1983. En
los primeros años de 1970, nace el correo electrónico ARPANET, el que es considerado
como la primera aplicación distribuida a gran escala.
Durante las dos últimas décadas se han realizado investigaciones en materia de algoritmos
distribuidos y se ha avanzado considerablemente en la madurez del campo, especialmente
durante los años ochenta. Originalmente la investigación estaba muy orientada hacia
aplicaciones de los algoritmos en redes de área amplia (WAN), pero hoy en día se han
desarrollado modelos matemáticos que permiten la aplicación de los resultados y métodos
a clases más amplias de entornos distribuidos.
Existen varias revistas y conferencias anuales que se especializan en los resultados
relativos a los algoritmos distribuidos y la computación distribuida. La primera
conferencia sobre la materia fue el simposio ‘Principles of Distributed Computing’
(PoDC) en 1982, cuyos procedimientos son publicados por ‘Association for Computing
Machinery, Inc’. ‘International Workshops on Distributed Algorithms’ (WDAG) se
celebró por primera vez en Ottawa en 1985 y después en Ámsterdam (1987) y Niza
(1989). Desde entonces, sus actas son publicadas por Springer-Verlag en la serie ‘Lecture
Notes on Computer Science’. En 1998, el nombre de esta conferencia cambió a
Distributed Computing (DISC). Los simposios anuales sobre teoría de computación
(‘SToC’) y fundamentos de informática (FoCS) cubren toda las áreas fundamentales de
la informática, llevando a menudo documentos sobre computación distribuida. Las actas
de ‘SToC’ son publicadas por ‘Association for Computing Machinery, Inc.’ y los de FoCS
por el IEEE. ‘The Journal of Parallel and Distributed Computing (JPDC), ‘Distributed
Computing’ e ‘Information Processing Letters’ (IPL) publican algoritmos distribuidos
regularmente.
Ventajas:
• Aumenta la confiabilidad al sistema. Esta arquitectura tiene redundancia, al fallar
uno de los sistemas, las demás siguen funcionando.
• Crecimiento de la empresa es soportable. Se realiza tantas copias del sistema en
diferentes nuevos lugares geográficos.
• Tomas de decisiones locales. La lógica de negocio y las tomas de decisiones en
cada lugar es independiente uno del otro.
• Distribución de datos. No está centralizada los datos de la empresa. Si la lógica
de negocio en tener datos locales en las tomas de decisiones es factible, si no, irse
a un sistema centralizado.
• Uso de ancho de banda local. Permite tener interfaz muy amigable o vistosa. Solo
se consume el ancho de la banda de una red local.
• Velocidad de respuesta rápida, si los datos están en la red local.
Desventajas:
• Soporte local de la tecnología. Cada lugar geográfico debe tener su personal que
soporte tecnológicamente esta arquitectura.
• Una mala distribución de los datos, es peor que un sistema centralizado, uso en
exceso de la red amplia.
• Costo y complejidad del SW.
• Costo en llevar los cambios del SW a cada lugar, en caso de mantenimiento.
• Integridad de los datos es más difícil de controlar.
• Uso de otra área de la tecnología, SW de seguridad, protección y de redes.

BIBLIOGRAFÍA
• Andrews, Gregory R. (2000), Foundations of Multithreaded, Parallel, and
Distributed Programming, Addison–Wesley, ISBN 978-0-201-35752-3..
• Core Desktop Solutions, Inc. – Archivado el 28 de septiembre de 2007 en
Wayback Machine.. Retrieved on 5 September 2007.

También podría gustarte