Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Infraestructura de TI
La infraestructura de TI consiste en un conjunto de dispositivos físicos y aplicaciones de
software requeridas para operar toda la empresa. Sin embargo, esta infraestructura también
es un conjunto de servicios a nivel empresarial presupuestado por la gerencia, que
abarca las capacidades tanto humanas como técnicas.
Los servicios que una empresa es capaz de brindar a sus clientes, proveedores y empleados
son una función directa de su infraestructura de TI, y lo ideal es que apoye la estrategia
de negocios y sistemas de información de la empresa. Las nuevas tecnologías de la
información tienen un poderoso impacto sobre las estrategias de negocios y de TI, así
como en los servicios que se pueden proveer a los clientes.
Evolución de la infraestructura de TI
1. Era de las mainframes y minicomputadoras (1960)
2. Era de la computadora personal (1980)
3. Era cliente/servidor (1985)
4. Era de la computación empresarial (1995)
5. Era de la computación en la nube y móvil (2000)
Impulsores tecnológicos
1. Ley de Moore
2. Ley del almacenamiento digital masivo
3. Ley de Metcalfe y la economía de red
4. Reducción de los costos de las telecomunicaciones
5. Estándares en las telecomunicaciones
Ley de Moore
Relacionada con la capacidad de procesamiento. Moore actualizó su predicción en 1975 para
señalar que el número de transistores en un chip se duplica cada dos años y esto se sigue
cumpliendo hoy. A medida que los componentes y los ingredientes de las plataformas con base
de silicio crecen en desempeño se vuelven exponencialmente más económicos de producir, y
por lo tanto más abundantes, poderosos y transparentemente integrados en nuestras vidas
diarias. Los microprocesadores de hoy se encuentran en todas partes, desde juguetes hasta
semáforos para el tránsito.
Características
– Concurrencia de componentes
– Ausencia de reloj o tiempo global
– Fallas independientes
Retos
– Heterogeneidad
– Extensibilidad
– Seguridad
– Escalabilidad
– Manejo de fallas
– Concurrencia
– Transparencia
Computación en malla
La computación en malla se refiere al proceso de conectar computadoras separadas por
límites geográficos en una sola red para crear una supercomputadora virtual.
Permite:
– Explotar recursos subutilizados
– Procesamiento en paralelo
– Aplicaciones
– Acceso a recursos adicionales
– Balanceo de recursos
– Administración
– Confiabilidad
Virtualización
La virtualización es el proceso de presentar un conjunto de recursos de cómputo de modo
que se pueda acceder a todos ellos en formas que no estén restringidas por la
configuración física o la ubicación geográfica. La virtualización permite a un solo recurso
físico (como un servidor o un dispositivo de almacenamiento) aparecer ante el usuario
como varios recursos lógicos. La virtualización también permite que varios recursos físicos
(como dispositivos de almacenamiento o servidores) aparezcan como un solo recurso lógico,
como sería el caso con las redes de área de almacenamiento o la computación en malla.
Computación en la nube
Las empresas y los individuos obtienen procesamiento computacional, almacenamiento,
software y otros servicios como una reserva de recursos (a demanda) virtualizados a través
de una red, principalmente Internet; sin importar su ubicación física ni la de los recursos.
Características
– Autoservicio bajo demanda: el cliente accede a los servicios que requiere.
– Acceso ubicuo a la red: se accede con los dispositivos estándar.
– Agrupamiento de recursos independiente de la ubicación: los recursos se agrupan para
dar servicio a varios usuarios asignándose en forma dinámica de acuerdo con la
demanda.
– Elasticidad rápida: los recursos se pueden aumentar o disminuir con rapidez.
– Servicio medido: los cargos por los recursos en la nube se basan en la cantidad
de recursos utilizados.
Servicios
- Infraestructura como un servicio (IaaS): los clientes utilizan el procesamiento, el
almacenamiento, la conexión en red y otros recursos de cómputo de los proveedores
de servicio en la nube para operar sus sistemas de información. Los usuarios pagan
sólo por la cantidad de cómputo y capacidad de almacenamiento que utilizan.
- Plataforma como un servicio (PaaS): los clientes usan la infraestructura y las
herramientas de programación hospedadas por el proveedor de servicios para
desarrollar sus propias aplicaciones.
- Software como un servicio (SaaS): los clientes usan el software que el distribuidor aloja
en su hardware y ofrece a través de una red. Los usuarios acceden a estas
aplicaciones desde un navegador Web; los datos y el software se mantienen en los
servidores remotos de los proveedores.
Arquitectura orientada a servicios (SOA)
Es un conjunto de servicios autocontenidos que se comunican entre sí para crear una
aplicación de software funcional. Las tareas de negocios se realizan mediante la ejecución
de una serie de estos servicios. Los desarrolladores de software reutilizan estos servicios en
otras combinaciones para ensamblar otras aplicaciones, según sea necesario.
Servicio Web
Conjunto de componentes de software con acoplamiento débil, que intercambian información
entre sí mediante el uso de estándares y lenguajes de comunicación WEB universales.
Aspectos gerenciales
1. Gerenciar el cambio
2. Gerencia y gobernanza
3. Inversiones en infraestructura que aporten valor –
Costo total de propiedad de los activos de TI
4. Fuerzas competitivas para las inversiones en TI
Gerenciar el cambio
- Flexibilidad
- Escalabilidad
- Administrarla infraestructura
- Inventarios
- Contratos
- Seguridad
- Calidad de servicio
Gerencia y gobernanza
- Modelos de toma de decisión
- Asignación de responsabilidades
- Costos
- Capital humano
- Arquitectura de TI
Inversiones en infraestructura que aporten valor – Costo total de propiedad de los activos de TI
- Adquisición de HW
- Adquisición de SW
- Instalación
- Capacitación
- Soporte
- Mantenimiento
- Infraestructura
- Tiempo inactivo (costo de no servicio)
- Espacio y energía
Red de computadoras
Una red es un conjunto de máquinas IP que se pueden
comunicar sin la intervención de un enrutador (mediante
bridges ), y que por tanto tienen prefijos de red distintos.
Componentes
- Tarjeta de interfaz de red (NIC)
- Sistema operativo de red (NOS)
- Hub
- Switch
- Router
- Bridge
Tecnologías de Redes
1. Arquitectura Cliente-Servidor
2. Conmutación de paquetes
3. Protocolo TCP/IP y conectividad
Arquitectura Cliente-Servidor
En esta arquitectura cada uno de los clientes, produce una demanda de información a
alguno de los servidores estos responden a la demanda del cliente que la produjo.
Pueden estar conectados a una red local , a una red amplia o a una red mundial como lo es la
Internet. Bajo este modelo cada usuario tiene la libertad de obtener la información que
requiera en un momento dado proveniente de una o varias fuentes locales o distantes y
de procesarla como según le convenga. Los distintos servidores también pueden intercambiar
información dentro de esta arquitectura.
Características
- Combinación de un cliente que interactúa con el usuario, y un servidor que interactúa
con los recursos a compartir.
- Las tareas del cliente y del servidor tienen diferentes requerimientos en cuanto a
recursos de cómputo como velocidad del procesador, memoria, velocidad, capacidades
del disco, etc.
- Se establece una relación entre procesos distintos, los cuales pueden ser ejecutados
en la misma máquina o en máquinas diferentes distribuidas a lo largo de la red.
- Existe una clara distinción de funciones basadas en el concepto de ”servicio”, que se
establece entre clientes y servidores.
- No existe otra relación entre clientes y servidores que no sea la que se establece a
través del intercambio de mensajes entre ambos. El mensaje es el mecanismo
para la petición y entrega de solicitudes de servicios.
- El ambiente es heterogéneo. La plataforma de hardware y el sistema operativo del
cliente y del servidor no son siempre los mismos.
- El concepto de escalabilidad tanto horizontal como vertical es aplicable a cualquier
sistema Cliente-Servidor. La escalabilidad horizontal permite agregar más estaciones
de trabajo activas sin afectar significativamente el rendimiento. La escalabilidad vertical
permite mejorar las características del servidor o agregar múltiples servidores.
Ventajas
- Existencia de plataformas de hardware cada vez más baratas.
- Facilita la integración entre sistemas diferentes y comparte información, permitiendo
que máquinas ya existentes puedan ser utilizadas con interfaces más amigables el
usuario.
- Al favorecer el uso de interfaces gráficas interactivas, los sistemas construidos bajo
este esquema tienen una mayor y más intuitiva con el usuario.
- La estructura inherentemente modular facilita además la integración de nuevas
tecnologías y el crecimiento de la infraestructura computacional, favoreciendo así la
escalabilidad de las soluciones.
- Contribuye además a proporcionar a los diferentes departamentos de una
organización, soluciones locales, pero permitiendo la integración de la información.
Desventajas
- El mantenimiento de los sistemas es más difícil pues implica la interacción de
diferentes partes de hardware y de software, distribuidas por distintos proveedores, lo
cual dificulta el diagnóstico de fallas.
- Hay que tener estrategias para el manejo de errores y para mantener la consistencia
de los datos.
- El desempeño (performance), problemas de este estilo pueden presentarse por
congestión en la red, dificultad de tráfico de datos, etc.
Conmutación en paquetes
En los sistemas basados en conmutación de paquetes, la información/datos a ser
transmitida previamente es ensamblada en paquetes. Cada paquete es entonces
transmitido individualmente y éste puede seguir diferentes rutas hacia su destino. Una vez
que los paquetes llegan a su destino, los paquetes son otra vez reensamblados
- No hay ninguna ruta fija establecida. Los paquetes se enrutan según la mejor ruta
disponible en ese momento.
- Cada paquete cuenta con una dirección de origen, dirección de destino y numero de
secuencia.
- Antes de la transmisión, cada comunicación se divide en paquetes que se direccionan
y numeran. En el destino, los paquetes pueden ordenarse según su número de
secuencia.
Protocolo TCP/IP
Un protocolo es un conjunto de reglas y procedimientos que gobiernan la transmisión de
información entre dos puntos en una red. El modelo TCP/IP se utiliza para describir un
conjunto de guías generales de diseño e implementación de protocoles de red (conjunto
de reglas y normas que permiten que dos o más equipos se comuniquen entre ellos), de
esta manera permite que un equipo se conecte y comunique en la red. TCP/IP utiliza una
suite de protocolos; TCP e IP son los principales. TCP se refiere al Protocolo de Control de
Transmisión (TCP), el cual se encarga del movimiento de datos entre computadoras. TCP
establece una conexión entre las computadoras, secuencia la transferencia de paquetes y
confirma la recepción de los paquetes enviados. IP se refiere al Protocolo de Internet (IP), el
cual es responsable de la entrega de paquetes y comprende los procesos de desensamblar
y reensamblar los paquetes durante la transmisión.
Dos computadoras que utilizan TCP/IP se pueden comunicar, aunque estén basadas en
distintas plataformas de hardware y software. Los datos que se envían de una computadora
a la otra descienden por todas las cuatro capas, empezando por la capa de aplicación de
la computadora emisora y pasando por la capa de Interfaz de red. Una vez que los datos
llegan a la computadora huésped receptora, suben por las capas y se vuelven a ensamblar en
un formato que la computadora receptora pueda utilizar. Si la computadora receptora encuentra
un paquete dañado, pide a la computadora emisora que lo retransmita. Este proceso se invierte
cuando la computadora receptora responde.
Topologías de Red
Cable coaxial
Un cable coaxial consta de un núcleo de hilo de cobre rodeado por un aislante, un blindaje de
meta trenzado y una cubierta externa. El núcleo transporta señales electrónicas (información),
rodeando al núcleo existe una capa aislante dieléctrica que la separa de la malla de hilo
trenzada que actúa como masa y protege al núcleo del ruido eléctrico. El núcleo y la malla
deben estar separados uno del otro para evitar un cortocircuito
Fibra óptica
El cable de fibra óptica consiste en filamentos de vidrio de alta pureza. Los datos se
transforman en pulsos de luz, los cuales se envían a través de la fibra dispositivo láser
(monocromático).
Características
- Elevado ancho de banda
- Bajas perdidas
- Peso, flexibilidad y tamaño: Un cable conteniendo 8 o 10 fibras tiene un diámetro
exterior, incluyendo las protecciones de alrededor, de 15 mm, un peso de 50 Kg/Km y
un radio de curvatura del orden de 150 mm, lo cual contribuye a la facilidad de su
tendido.
- Interferencia electromagnética nula.
- Seguridad de la información transmitida por la fibra : Por sus propias características,
sería un trabajo sumamente dificultoso intervenir una fibra óptica.
Internet
Es un conjunto descentralizado de redes (red de redes) de comunicación
interconectadas que utilizan la familia de protocolos TCP/IP, lo cual garantiza que las redes
físicas heterogéneas que la componen formen una red lógica única de alcance mundial.
Transmisiones inalámbricas
Todas las redes inalámbricas se basan en la transmisión de datos mediante ondas
electromagnéticas (microondas), se diferencian según la capacidad de la red y del tipo de onda
utilizada.
1. Microondas
2. Celular
3. Wi-Fi
Microondas
Las microondas siguen una trayectoria recta por lo que la distancia máxima entre antenas es
de 37 millas (59,54 km). Requieren de estaciones repetidoras y amplificadoras o de satélites
para alcanzar cobertura global.
Celular
Existe una red de comunicaciones compuesta de antenas distribuidas y de terminales que
permiten el acceso a dicha red. Tanto las antenas como los terminales son emisores-
receptores de ondas electromagnéticas con frecuencias entre 900 y 2000 MHz. La operadora
divide el área geográfica en varias células, normalmente hexagonales, creando una inmensa
red de hexágonos. En cada célula hay una estación base que será una antena que tiene una
amplitud para emitir y recibir en esa célula, en decenas de canales (frecuencias) diferentes
para evitar interferencias entre comunicaciones simultáneas. Cuando se hace una llamada la
central de conmutación de la estación base permite la conexión entre dos terminales concretos.
Wi-Fi
Es un mecanismo de conexión de dispositivos electrónicos de forma inalámbrica.
RFID (Identificación por radio frecuencia)
Usan diminutas etiquetas con microchips incrustados que contienen datos sobre un artículo y
su ubicación para transmitir señales de radio a través de una distancia corta. La unidad lectora
consiste en una antena y un transmisor de radio con una capacidad de decodificación, unidos a
un dispositivo fijo o portátil. El lector emite ondas de radio en rangos que varían desde 1
pulgada hasta 100 pies, dependiendo de su salida de potencia, la frecuencia de radio empleada
y las condiciones ambientales circundantes. Cuando una etiqueta RFID entra al rango del
lector, se activa y empieza a enviar datos. El lector captura estos datos, los decodifica y los
envía de vuelta a través de una red fija o inalámbrica a una computadora host para que los
procese.
Etiqueta
Un microchip contiene datos que incluyen un número de identificación. El resto de la etiqueta
es una antena que transmite los datos a un lector.
Lector RFID
Tiene una antena que transmite de manera constante. Al detectar una etiqueta, la activa, la
interroga y decodifica los datos. Después los transmite a un sistema host a través de
conexiones fijas o inalámbricas.
Computador
Procesa los datos de la etiqueta que transmitió el lector.
Seguridad
La seguridad se refiere a las políticas,
procedimientos y medidas técnicas que se utilizan para evitar el acceso sin autorización,
la alteración, el robo o el daño físico a los sistemas de información.
Los controles son métodos, políticas y procedimientos organizacionales que refuerzan la seguridad de
los activos de la organización; la precisión y confiabilidad de sus registros, y la adherencia
operacional a los estándares gerenciales.
Un
control y
seguridad
inadecuados pueden provocar una responsabilidad legal
grave.
Seguridad y control
Esta ley se diseñó para proteger a los inversionistas después de los escándalos
financieros en Enron, WorldCom y otras compañías que cotizan en la bolsa. Impone
una responsabilidad sobre las compañías y su gerencia para salvaguardar la precisión
e integridad de la información financiera que se utiliza de manera interna y se libera
en forma externa.
Ley Sarbanes-Oxley (Ley de Reforma de Contabilidad Pública de Compañías y
Protección al Inversionista, 2002) . Fue propuesta por los senadores Paul Sarbanes y
Michael Oxley
En esencia, Sarbanes-Oxley trata sobre asegurar que se implementen controles internos
para gobernar la creación y documentación de la información en los estados financieros.
Como se utilizan sistemas de información para generar, almacenar y transportar dichos datos, la legislación requiere
que las firmas consideren la seguridad de los sistemas
de información y otros controles requeridos para asegurar la integridad, confidencialidad
y precisión de sus datos. Cada aplicación de sistemas que trata con los datos
críticos de los informes financieros requiere controles para asegurar que estos datos
sean precisos. También son esenciales los controles para asegurar la red corporativa,
para evitar el acceso sin autorización a los sistemas y datos, y para asegurar tanto la
integridad como la disponibilidad de los datos en caso de desastre u otro tipo de interrupción
del servicio.
Gobierno corporativo
Los principios del buen Gobierno corporativo de la OCDE (Organización para la cooperación y
el desarrollo económico) son:
Garantizar la base de un marco eficaz para el Gobierno Corporativo.
Los derechos de los accionistas y funciones clave en el ámbito de la propiedad.
Tratamiento equitativo de los accionistas.
El papel de las partes interesadas en el gobierno corporativo.
Revelación de datos y transparencia.
Las responsabilidades del consejo.
Controles
Controles de software:
Monitorean el uso del software de sistemas y evitan el acceso no autorizado de los programas
de software, el software de sistemas y los programas de computadora.
Controles de hardware:
Aseguran que el hardware de computadora sea físicamente seguro y verifican las fallas del
equipo. Las organizaciones que dependen mucho de sus computadoras también deben hacer
provisiones para respaldos o una operación continua, de modo que puedan mantener un
servicio constante.