Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Grado: 5to
Colegio Valverde
Introducción
La historia de Internet se remonta al desarrollo de las redes de comunicación. La idea de una red
de ordenadores creada para permitir la comunicación general entre usuarios de
varias computadoras sea tanto desarrollos tecnológicos como la fusión de la infraestructura de la
red ya existente y los sistemas de telecomunicaciones. La primera descripción documentada
acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo
en red) está contenida en una serie de memorandos escritos por J. C. R. Licklider, del Instituto
Tecnológico de Massachusetts, en agosto de 1962, en los cuales Licklider discute sobre su
concepto de Galactic Network (Red Galáctica). Las versiones más antiguas de estas ideas
aparecieron a finales de los años cincuenta. Implementaciones prácticas de estos conceptos
empezaron a finales de los ochenta y a lo largo de los noventa. En la década de 1990, tecnologías
que reconoceríamos como las bases de la moderna Internet, empezaron a expandirse por todo el
mundo. En los noventa se introdujo la World Wide Web (WWW), que se hizo común.
En 1984 América empezó a avanzar hacia un uso más general del TCP/IP, y se convenció
al CERNET para que hiciera lo mismo. El CERNET, ya convertido, permaneció aislado del resto de
Internet, formando una pequeña Internet interna.
En 1988 Daniel Karrenberg, del Instituto Nacional de Investigación sobre Matemáticas e
Informática de Ámsterdam, visitó a Ben Senegal, coordinador TCP/IP dentro del CERN; buscando
consejo sobre la transición del lado europeo de la UUCP Usenet network, de la cual la mayor parte
funcionaba sobre reexpedir una carta a Cisco para el hardware apropiado. Esto expandió la
porción asiática de Internet sobre las redes UUCP existentes, y en 1989 CERN abrió su primera
conexión TCP/IP externa. Esto coincidió con la creación de Réseaux IP Européens (RIPE),
inicialmente un grupo de administradores de redes IP que se veían regularmente para llevar a
cabo un trabajo coordinado. Más tarde, en 1992, RIPE estaba formalmente registrada como
una cooperativa en Ámsterdam.
El panel de conexiones y el switch tienen un aspecto similar desde el punto de vista físico, ya que
ambos cuentan con hileras de tomas en un bastidor. Un panel de conexiones es un dispositivo
pasivo que tiene una hilera de puertos. En éste se gestionan los cables y se agrupan varios puertos
de red para conectar los cables de entrada y de salida. Una de las carácteristicas más funcionales
de los páneles de conexiones es la opción de etiquetado de tramos de cables individuales. Con ello
se puede identificar de forma clara y sistemática el flujo de señales y solucionar los problemas
técnicos. Un switch de red, por el contrario, es un dispositivo activo que aloja un gran número de
puertos Ethernet y permite conectar los dispositivos entre sí en una red informática, mediante la
conmutación de paquetes. Lo anterior permite recibir, procesar y reenviar datos al dispositivo de
destino. La conexión entre los puertos de conmutación y los puertos del panel de conexiones, se
logra a través de un sistema de cableado estructurado que proporciona conexión a todos los
dispositivos Ethernet.
Se compone de dos elementos básicos: rutas y espacios horizontales que se encargan de, además
de distribuir y soportar el cableado horizontal, conectar el hardware entre la salida del área de
trabajo y el cuarto de telecomunicaciones según se define en la norma EIA/TIA 568.
El mantenimiento preventivo consiste en intervenciones que previenen las averías y disminuyen la
probabilidad de que un activo falle. Es decir, se trata de un tipo de mantenimiento planificado que
se realiza incluso cuando un equipo mantiene su capacidad operativa.
Índice
1. DEFINICIÓN DE
a. Mantenimiento preventivo
b. Mantenimiento Correctivo
2. HARDWARE
a. Tipos de hardware
b. Evolución histórico hardware
c. Componentes hardware
c.1. Almacenamiento
c.2. Memoria
c.3. Procesador
c.4. Motherboard
c.5.1. Clasificación
c.6.1. Clasificación
d. Componentes software
d.1.1. Sistema
d.1.2. Aplicación
d.1.3. Controlador
e.1. Causas
e.2. Soluciones
f.1. Causas
f.2. Soluciones
h. Redes
i. Costos
i.1. Directos
i.2. Indirectos
j. Factores humanos
Hay quienes consideran que hay otros dos tipos de mantenimiento – mantenimiento
predictivo y mantenimiento prescriptivo – como mantenimiento preventivo. Aun así, aunque
comparten el objetivo de evitar las averías y el colapso de los activos, existen diferencias
sustanciales entre estos tres tipos de mantenimiento:
el mantenimiento predictivo se centra en prever cuándo ocurrirá una avería para poder
prevenirla. A diferencia del mantenimiento preventivo, que es programado y sigue marcos
de tiempo o de uso predefinidos, se basa en la condición del equipo. Ve aquí
más diferencias entre el mantenimiento predictivo y el mantenimiento preventivo.
el mantenimiento prescriptivo usa la Inteligencia Artificial para prescribir acciones de
mantenimiento basadas en los datos e indicadores recogidos sobre cada equipo. Por lo
tanto, requiere un alto nivel de informatización y está asociado a la Industria 4.0.
Dicho esto, el mantenimiento planificado nos permite: 1) aumentar la vida útil del activo en
cuestión y 2) mantener la productividad a lo largo del tiempo.
Llegamos, pues, a la conclusión de que el mantenimiento preventivo debe aplicarse a los activos
que son esenciales para mantener el funcionamiento normal de la empresa, bien como a los
activos de mayor valor, cuya reparación o sustitución es más costosa que las actividades
preventivas regulares.
El mantenimiento preventivo excesivo (que es posible, dado que puede generar acciones de
mantenimiento innecesarias) y su aplicación a activos de bajo valor o prioridad puede generar
costes que son demasiado altos en relación con el tiempo de inactividad evitado.
En el caso de la industria, estos activos son las máquinas esenciales para la producción. En los
edificios públicos, la limpieza de los tanques de agua para prevenir los brotes de legionela es un
buen ejemplo de mantenimiento preventivo.
Cualquier empresa, tanto del sector secundario como del terciario, necesita garantizar la
operatividad de sus instalaciones. Un hotel, por ejemplo, solo puede aceptar reservas con varios
meses de antelación si puede predecir cuántas habitaciones estarán realmente disponibles.
Más seguridad
El mantenimiento preventivo y las revisiones periódicas detectan el desgaste de las piezas y
mantienen el equipo en condiciones óptimas. Esto ofrece más seguridad a todas las personas que
están en contacto con el activo, tanto trabajadores como clientes. Un ejemplo claro es el
mantenimiento preventivo de los ascensores, que evita que alguien quede atrapado y ofrece
mucho más seguridad a cualquier persona en el edificio.
Más comodidad
Siempre que hablamos de un edificio utilizado por un gran número de personas, el mantenimiento
preventivo contribuye también a ofrecer más comodidad a sus clientes. El mantenimiento asegura
que todos los equipos están en pleno funcionamiento, sin tener que apagar todo el sistema para
hacer una reparación.
¿Te has preguntado alguna vez cómo sería quedarte sin aire acondicionado en mitad del verano
para hacer mantenimiento? Hay cosas que ni siquiera le deseamos a nuestro peor enemigo.
Por ejemplo, los equipos de aire acondicionado deberían agruparse en la familia de equipos de
calefacción, ventilación y aire acondicionado, con la ubicación respectiva de cada aparato y los
manuales de uso, bien como las normas ISO (si se aplican) que deben cumplirse.
3. Establecer prioridades.
Tanto el tiempo como los recursos son limitados. Lamentablemente, es poco probable que puedas
realizar todo el mantenimiento preventivo que te gustaría, por lo que debes dar prioridad a los
activos más críticos. Selecciona los activos que son esenciales para el funcionamiento normal de la
empresa, los que pueden causar grandes pérdidas y los que plantean el mayor riesgo en caso de
quiebra.
Sobre este último punto, es importante establecer prioridades de acuerdo con las condiciones
actuales del equipo. Una evaluación del riesgo es sumamente útil para clasificar el nivel de
prioridad de cada activo. La inspección de las fugas de gas, por ejemplo, siempre .es prioritaria
porque pone en peligro la seguridad de todos los que utilizan las instalaciones.
Este problema, que no se confirme la avería, conlleva una considerable pérdida de tiempo con un
coste importante.
2. Una vez confirmada la falla, el equipo o instalación se prepara para el mantenimiento y
se completa el informe de fallo.
3. La localización y el aislamiento de una pieza o maquina que falla en la planta de
producción o en las instalaciones de tu empresa es el siguiente paso natural en el
mantenimiento correctivo.
4. La pieza averiada se retira para su eliminación o reparación. Si se desecha, se instala
una pieza nueva en su lugar. Algunos ejemplos de piezas y conexiones reparables son las
conexiones rotas, un circuito defectuoso en una placa de electrónica, una pieza que llega
al final de su vida útil o una soldadura deficiente.
5. La pieza reparada se vuelve a montar después de la reparación. Y se hacen las
comprobaciones oportunas antes de volver a su funcionamiento la máquina, equipo o
instalación.
Puede ocurrir en la maquinaria industrial, parte del equipo, circuito eléctrico, etc. Un solo técnico
de mantenimiento no puede ser capaz de manejar cualquier tipo de fallo.
Los diferentes miembros del equipo técnico están altamente cualificados y formados en sus
diferentes campos particulares.
Por lo tanto, dependiendo de la naturaleza de la avería, los jefes de mantenimiento deben asignar
la avería de un activo concreto al técnico apropiado que pueda gestionar el problema concreto de
forma mejor y más eficaz sin ningún problema.
7. Mejorar la accesibilidad
La accesibilidad se define como la facilidad con la que se puede llegar a los componentes o piezas
del equipo a reparar. La mayoría de los trabajadores de mantenimiento saben que llegar a las
partes rotas de un equipo puede llevar mucho tiempo.
Las estrategias para mejorar la accesibilidad se ejecutan mejor durante el proceso de diseño de la
instalación.
También se pueden realizar modificaciones en la disposición de los activos después de identificar
una oportunidad para mejorar la accesibilidad.
HRDWARE
Tipos de Hardware
Hardware representa los componentes físicos y tangibles de una computadora es decir, los
componentes que pueden ser vistos y tocados.
Ejemplos de Hardware están siguiendo:
A estos efectos, nos centraremos en la historia del hardware de la rama más computacional, ya
que el hardware que se conoce como tal, es el relacionado con el de los dispositivos que poseen
un componente digital.
El hardware más primitivo del que se tiene constancia si nos referimos a un conjunto de piezas
físicas que poseen una utilidad objetivo es el ‘palo tallado’ y el ábaco. El origen del primero data
de la época paleolítica. Por su parte, el segundo se cree que es de procedencia asiática en torno al
350 a. C. y tienen una función de conteo y cálculo respectivamente.
Posteriormente se dieron otros tipos de hardware que marcaron el camino del propio hardware
moderno, como pueden ser la imprenta, el reloj de bolsillo o la máquina de escribir. Estos
artefactos están compuestos de piezas sólidas como pueden ser engranajes, tornillos, botones, o
muelles entre otros, que posibilitan en su conjunto el funcionamiento de la máquina.
Actualmente se entiende como hardware a las piezas físicas que componen un smartphone, PC, TV
o cualquier tipo de dispositivo con un componen te digital y por ende, electrónico.
Generación base: Esta etapa se ubica a comienzos del siglo XX y se dan las primeras
computadoras analógicas de alto nivel. La que más repercusión tuvo en su momento fue el
integrador hidráulico de Lukiánov, que durante cierto tiempo fue el único recurso de la época para
resolver ecuaciones diferenciales.
Primera generación: Ubicada en plena Segunda Guerra Mundial, es cuando ya se empiezan a
perfeccionar ciertos aspectos de las primeras computadoras digitales. El nivel de investigación y
desarrollo era de tal magnitud, que no siguió una evolución temporal normal, sino que esta fue
prácticamente meteórica. La principal baza de esta generación proviene de la creación de la
máquina de Turing. Esta máquina tenía como función la determinación de si un problema
matemático se podía resolver mediante un proceso definido.
Segunda generación: Esta época está marcada por el uso del transistor en detrimento de los
tubos de vacío que se utilizaban en las generaciones anteriores. La invención de este dispositivo
electrónico que permite en esencia las entradas y salidas de datos, valió para que concedieran a
sus inventores el premio Nobel de Física a mediados el siglo XX.
Tercera generación: Como en la generación anterior, se da un paso mas allá en la forma de
funcionar de las computadoras, ya que se crea el denominado ‘circuito integrado’, el cual vuelve a
sustituir a su homónimo, el transistor. El circuito integrado es la forma precursora de los
actuales microprocesadores o CPU que están presentes en todos los dispositivos digitales. Cabe
destacar que la creación del transistor si bien fue un avance que ha marcado la tecnología, no es
una invención como la de por ejemplo, el propio transistor. El circuito integrado proviene en
origen de un conjunto de pequeños transistores apilados en un espacio reducido, dando así un
carácter más portátil. Fue desarrollado y perfeccionado entre mediados y finales del siglo XX.
Generación actual. El uso del microprocesador es la base de cualquier dispositivo que podamos
imaginarnos. Este proviene del ‘microchip’ el cual fue concebido gracias al desarrollo del circuito
integrado.
Componentes Hardware
Una de las formas de clasificar el soporte físico es en dos categorías: por un lado,
el hardware principal, que abarca el conjunto de componentes indispensables necesarios para
otorgar la funcionalidad mínima a una computadora; y por otro lado,
el hardware complementario, que, como su nombre indica, es el utilizado para realizar funciones
específicas (más allá de las básicas), no estrictamente necesarias para el funcionamiento del
ordenador.
El hardware principal está básicamente constituido por: un medio de entrada de datos, la unidad
central de procesamiento, la memoria RAM, un medio de salida de datos y un medio de
almacenamiento de datos.
Los medios de entrada y salida de datos estrictamente indispensables dependen de la aplicación:
desde el punto de vista de un usuario común, se debería disponer, al menos, de un teclado y
un monitor para entrada y salida de información, respectivamente; pero ello no implica que no
pueda haber una computadora (por ejemplo controlando un proceso) en la que no sea necesario
teclado y/o monitor; bien puede ingresar información y sacar sus datos procesados, por ejemplo, a
través de una placa de adquisición/salida de datos.
Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar instrucciones
programadas y almacenadas en su memoria; consisten básicamente en operaciones aritmético-
lógicas y de entrada/salida. Se reciben las entradas (datos), se las procesa y almacena
(procesamiento), y finalmente se producen las salidas (resultados del procesamiento). Por ello
todo sistema informático tiene, al menos, componentes y dispositivos hardware dedicados a
alguna de las funciones antedichas, a saber:
La Unidad Central de Procesamiento, conocida por las siglas en inglés CPU, es el componente
fundamental de la computadora, encargado de interpretar y ejecutar instrucciones y de procesar
datos. En computadores modernos, la función de la CPU la realiza uno o más microprocesadores.
Se conoce como microprocesador a una CPU que es manufacturada como un único circuito
integrado.
Un servidor de red o una máquina de cálculo de alto rendimiento (supercomputación), puede
tener varios, incluso miles de microprocesadores trabajando simultáneamente o en paralelo
(multiprocesamiento); en este caso, todo ese conjunto conforma la CPU de la máquina.
La placa base —también conocida como placa madre o principal— es un gran circuito
impreso sobre el que se suelda el chipset, las ranuras de expansión (slots), los zócalos, conectores,
diversos circuitos integrados, etc. Es el soporte fundamental que aloja y comunica a todos los
demás componentes: microprocesador, módulos de memoria RAM, tarjetas gráficas, tarjetas de
expansión, periféricos de entrada y salida. Para comunicar esos componentes, la placa base posee
una serie de buses mediante los cuales se transmiten los datos hacia dentro y fuera del sistema.
La tendencia de integración ha hecho que la placa base se convierta en un elemento que incluye a
la mayoría de las funciones básicas (vídeo, audio, red, puertos de varios tipos), funciones que
antes se realizaban con tarjetas de expansión. Aunque ello no excluye la capacidad de instalar
otras tarjetas adicionales específicas, tales como capturadoras de vídeo, tarjetas de adquisición de
datos, etc.
También, la tendencia en los últimos años es eliminar elementos separados en la placa base e
integrarlos al microprocesador. En ese sentido actualmente se encuentran sistemas
denominados System on a Chip que consiste en un único circuito integrado que integra varios
módulos electrónicos en su interior, tales como un procesador, un controlador de memoria,
una GPU, Wi-Fi, Bluetooth, etc. La mejora más notable en esto está en la reducción de tamaño
frente a igual funcionalidad con módulos electrónicos separados. Las figuras muestran
aplicaciones típicas, placa principal de una computadora y la de un teléfono móvil.
Las principales funciones que presenta una placa base son:
Conexión física
Administración, control y distribución de energía eléctrica
Comunicación de datos
Temporización
Sincronismo
Control y monitoreo
Memoria RAM
Entre las tecnologías recientes para integrados de memoria DRAM usados en los módulos RAM se
encuentran:
SDR SDRAM: memoria de un ciclo sencillo de acceso por ciclo de reloj. Actualmente en
desuso, fue popular en los equipos basados en el Pentium III y los primeros Pentium 4.
DDR SDRAM: se caracterizan por ser capaces de llevar a cabo dos operaciones en cada ciclo de
reloj (ciclo doble), es decir un acceso anticipado a dos posiciones de memoria consecutivas.
Fue popular en equipos basados en los procesadores Pentium 4 y Athlon 64.
DDR2 SDRAM: Memoria con un ciclo doble y acceso anticipado a cuatro posiciones de
memoria consecutivas, está en desuso.
DDR3 SDRAM: memoria con un ciclo doble y acceso anticipado a ocho posiciones de
memoria consecutivas. Es un tipo de memoria aún actual, reemplazó a su predecesora, la
DDR2.
DDR4 SDRAM: es la evolución del estándar DDR3 y, por tanto, los módulos de memoria
compatibles con esta tecnología son capaces de trabajar a una frecuencia de reloj más
alta. Los módulos DDR4 SDRAM tienen un total de 288 pines DIMM. La velocidad de datos
por pin, va de un mínimo de 1,6 GT/s hasta un objetivo máximo inicial de 3,2 GT/s. Las
memorias DDR4 SDRAM tienen un mayor rendimiento y menor consumo energético que
las memorias DDR3 predecesoras. Tienen una tasa de transferencia y capacidad mucho
más elevada en comparación con sus versiones anteriores.
Los estándares JEDEC, establecen las características eléctricas y las físicas de los módulos,
incluyendo las dimensiones del circuito impreso.
Los estándares usados son:
DIMM: tiene presentaciones de 168 pines (usadas con SDR y otras tecnologías antiguas),
184 pines (usadas con DDR y el obsoleto SIMM), 240 (para las tecnologías de memoria
DDR2 y DDR3) y 288 pines para las actuales DDR4.
SO-DIMM: es formato para computadores portátiles, es una miniaturización de la versión
DIMM en cada tecnología. Existen de 144 pines, usadas con SDR, de 200 pines, usadas con
DDR y DDR2, de 240 pines para DDR3 y de 260 pines para DDR4.
Memorias RAM especiales
Hay memorias RAM con características que las hacen particulares, y que normalmente no se
utilizan como memoria central de la computadora; entre ellas se puede mencionar:
SRAM: Siglas de Static Random Access Memory. Es un tipo de memoria más rápida
que la DRAM (Dynamic RAM). El término «estática» deriva del hecho que no necesita el
refresco para mantener sus datos. Si bien esta RAM no requiere circuito de refresco,
ocupa más espacio y utiliza más energía que la DRAM. Este tipo de memoria, debido
a su alta velocidad, es usada como memoria caché.
NVRAM: Siglas de Non-Volatile Random Access Memory. Memoria RAM no volátil
(mantiene la información en ausencia de alimentación eléctrica). Hoy en día, la mayoría de
memorias NVRAM son memorias flash, muy usadas para teléfonos móviles, reproductores
portátiles de MP3, pendrives, etc.
VRAM: Siglas de Video Random Access Memory. Es un tipo de memoria RAM que se utiliza
en las tarjetas gráficas del computador. La característica particular de esta clase de
memoria es que es accesible de forma simultánea por dos dispositivos. Así, es posible que
la CPU grabe información en ella, al tiempo que se leen los datos que serán visualizados en
el Monitor de computadora.
De las anteriores a su vez, hay otros subtipos más.
Periféricos
Artículo principal: Periféricos
Se entiende por periférico a las unidades o dispositivos que permiten a
la computadora comunicarse con el exterior, esto es, tanto ingresar como exteriorizar información
y datos. Los periféricos son los que permiten realizar las operaciones conocidas como
de entrada/salida (E/S).
Aunque son estrictamente considerados «accesorios», muchos de ellos son fundamentales para el
funcionamiento y operación adecuados de la computadora moderna; por ejemplo, el teclado,
el ratón, el disco duro y el monitor son elementos actualmente imprescindibles; pero no lo son,
por ejemplo, un escáner o un plóter. Para ilustrar este punto: en los años 80, muchas las
computadoras personales no utilizaban disco duro ni ratón, eran normalmente operativas con solo
una o dos disqueteras, el teclado y el monitor como únicos periféricos (incluso sin disquetera).
Dispositivos de entrada de información (E)
De esta categoría son aquellos que permiten el ingreso de información, en general desde alguna
fuente externa o por parte del usuario. Los dispositivos de entrada proveen el medio fundamental
para transferir hacia la computadora (más propiamente al procesador) información desde alguna
fuente, sea local o remota. También permiten cumplir la esencial tarea de leer y cargar en
memoria el sistema operativo y las aplicaciones o programas informáticos, los que a su vez ponen
operativa la computadora y hacen posible realizar las más diversas tareas.
Entre los periféricos de entrada se puede mencionar:12 teclado, mouse o
ratón, escáner, micrófono, cámara web, lectores ópticos de código de barras, Joystick,
lectora de CD, DVD o BluRay (solo lectoras), placas de adquisición/conversión de datos, etc.
Pueden considerarse como «imprescindibles» para el funcionamiento, (de manera como hoy
se concibe la informática) al teclado, al ratón y algún dispositivo lector de discos; ya que tan
solo con ellos el equipo (informático) puede ponerse operativo para un usuario. Los otros son
más bien accesorios, aunque en la actualidad pueden resultar de tanta necesidad que son
considerados parte esencial de todo el sistema.
Son aquellos dispositivos que pueden operar de ambas formas: tanto de entrada como de salida.
Típicamente, se puede mencionar como periféricos mixtos o de entrada/salida a: discos
rígidos, disquetes, unidades de cinta magnética, lecto-grabadoras de CD/DVD, discos ZIP, etc.
También entran en este rango, con sutil diferencia, otras unidades, tales como: Tarjetas
de Memoria flash o unidad de estado sólido, tarjetas de red, módems, tarjetas de captura/salida
de vídeo, etc.
Si bien se puede clasificar al pendrive (lápiz de memoria), memoria flash o memoria USB o a
las unidades de estado sólido (SSD) en la categoría de memorias, normalmente se los utiliza
como dispositivos de almacenamiento masivo; siendo todos de categoría Entrada/Salida.17
Los dispositivos de almacenamiento masivo también son conocidos como «memorias secundarias
o auxiliares». Entre ellos, sin duda, el disco duro ocupa un lugar especial, ya que es el de mayor
importancia en la actualidad, en el que se aloja el sistema operativo, todas las aplicaciones,
utilitarios, etc. que utiliza el usuario; además de tener la suficiente capacidad para albergar
información y datos en grandes volúmenes por tiempo prácticamente indefinido. Los
servidores Web, de correo electrónico y de redes con bases de datos, utilizan discos rígidos de
grandes capacidades y con una tecnología que les permite trabajar a altas velocidades
como SCSI incluyendo también, normalmente, capacidad de redundancia de datos, RAID; incluso
se utilizan tecnologías híbridas: disco rígido con unidad de estado sólido, lo que incrementa
notablemente su eficiencia. Las interfaces actuales más usadas en discos duros
son: IDE, SATA, SCSI y SAS; y en las unidades de estado sólido son SATA y PCI-Express ya que
necesitan grandes anchos de banda.
La pantalla táctil (no el monitor clásico) es un dispositivo que se considera mixto, ya que
además de mostrar información y datos (salida) puede actuar como un dispositivo de entrada,
reemplazando, por ejemplo, a algunas funciones del ratón o del teclado.
Hardware gráfico
Dentro de esta categoría no se deben omitir los sistemas gráficos integrados (IGP), presentes
mayoritariamente en equipos portátiles o en equipos prefabricados (OEM), los cuales
generalmente, a diferencia de las tarjetas gráficas, no disponen de una memoria dedicada,
utilizando para su función la memoria principal del sistema. La tendencia en los últimos años es
integrar los sistemas gráficos dentro del propio procesador central. Los procesadores gráficos
integrados (IGP) generalmente son de un rendimiento y consumo notablemente más bajo que las
GPU de las tarjetas gráficas dedicadas, no obstante, son más que suficiente para cubrir las
necesidades de la mayoría de los usuarios de un PC.
Actualmente se están empezando a utilizar las tarjetas gráficas con propósitos no exclusivamente
gráficos, ya que en potencia de cálculo la GPU es superior, más rápida y eficiente que el
procesador para operaciones en coma flotante, por ello se está tratando de aprovecharla para
propósitos generales, al concepto, relativamente reciente, se le denomina GPGPU (General-
Purpose Computing on Graphics Processing Units).
La ley de Moore establece que cada 18 a 24 meses la cantidad de transistores que puede contener
un circuito integrado se logra duplicar; en el caso de los GPU esta tendencia es bastante más
notable, duplicando, o aún más, lo indicado en la ley de Moore.
ALMACENAMIENTO
Tipos de Almacenamiento
Toda la tecnología que usamos hoy en día funciona a partir de la constante transmisión de
información, para la cual es esencial el almacenamiento de datos. En el contexto de un negocio,
los datos que tiene de sus clientes son una herramienta valiosa para usarla a su favor en el tiempo
y lugar adecuados.
Con el aumento del comercio electrónico, el análisis de datos se ha vuelto parte clave de las
estrategias de negocio de una empresa. Por ello, contar con los medios adecuados para el
resguardo de su información privada (como la de clientes, empleados, proveedores) debe ser una
de sus prioridades.
El almacenamiento de datos es posible gracias a diferentes sistemas informáticos que utilizan el
sistema binario para registrar los datos en discos giratorios u otros dispositivos. Principalmente
encontramos la tecnología magnética, eléctrica, óptica y de transmisión de datos por red.
Existen dos tipos de dispositivos de almacenamiento de datos que funcionan de forma similar al
cerebro humano:
Los primarios, que se encargan de recabar los datos de forma temporal mientras haya
electricidad, de la misma forma que lo hace nuestra memoria a corto plazo; un ejemplo es
la memoria de acceso aleatorio (RAM) de una computadora.
Los secundarios, los cuales tienen la capacidad de grabar datos de manera permanente y
sin perderlos, aun cuando no haya electricidad. De forma similar a nuestra memoria a
largo plazo; un ejemplo es el disco duro (HDD) de la computadora.
Por su parte, un disco de estado sólido externo (SSD) tiene una memoria NAND que registra los
flash o cargas eléctricas de diferentes voltajes, los cuales son datos en lenguaje binario que se
guardan en sus celdas microscópicas. Las memorias USB se valen de esta tecnología.
De igual manera, el almacenamiento de datos óptico utiliza el lenguaje binario. En su caso registra
con rayos láser surcos microscópicos sobre la superficie del disco para ir grabando la información.
Como ejemplos tenemos el disco compacto (CD), el disco versátil digital (DVD) y el disco Blue-
Ray.
Para qué es el almacenamiento de datos
El almacenamiento de datos sirve para recabar los datos a lo largo del tiempo. Una vez clasificados
ordenadamente, es posible acceder a la información que necesites de forma inmediata y sencilla.
En los negocios se usa para realizar consultas que faciliten encontrar soluciones, tomar decisiones
y crear estrategias.
Una de sus funciones más importantes es permitir a los negocios generar y recabar bases de
contactos; información de clientes para analizar sus tendencias de compra; reportes de ventas;
descripciones de productos y servicios; estructura de recursos humanos; archivos de la
administración, sistemas y procesos de la empresa; contratos con socios e inversionistas. La lista
de posibilidades es interminable.
El almacenamiento de datos para las empresas que brindan servicios o venden productos
representa una herramienta poderosa que les permite realizar un análisis continuo para identificar
nuevas oportunidades de negocio, que a su vez resultarán en mejores experiencias para los
clientes.
Otro aspecto primordial es el de la gestión de los datos que se almacenan, ya que este procedimiento
permite recaudar, acceder, transportar y distribuir la información de forma inmediata y
segura. Basta con tener acceso a los dispositivos o a la red que los contiene.
Cada empresa fija la clasificación de su información por áreas; esto le permite tener una mejor
organización. De nada sirve tener un cúmulo de datos sin ninguna estructura que los respalde. A
grandes rasgos, es posible agrupar los datos en tres grandes áreas:
Información de la empresa. Abarca todas las operaciones que hace diariamente una
empresa durante su funcionamiento de forma interna y externa. Es decir, ventas,
campañas, pagos, contratos, datos fiscales, contrataciones, etc.
Información financiera. Esta incluye todos los movimientos financieros que realiza la
compañía a lo largo del tiempo. Guardar esta información sirve para una administración
oportuna de los recursos de tu negocio.
Información de los clientes. Incluye las bases de datos de los clientes que contienen su
nombre, correo electrónico, número telefónico, entre otros. Recordemos la relevancia de
las medidas de protección de datos.
A esto se suman las estadísticas que arrojan las aplicaciones de análisis de datos.
1. Almacenamiento de datos en la nube
El almacenamiento de datos en la nube está en pleno auge. Su sistema consiste en resguardar
datos en los servidores de un proveedor de servicios, gracias a la transmisión de datos por
internet. Es decir, tus datos estarán en un lugar externo a tu equipo, por lo que no ocuparán
espacio en él, pero podrás acceder a ellos cuando y desde donde tú quieras.
2. Almacenamiento de datos en red
Este tipo de almacenamiento cuenta con una gran velocidad de transmisión de datos en una red.
Existen tres tipos:
Storage Area Network (SAN). Consiste en un almacenamiento de la red usando varios
dispositivos conectados a internet y a una unidad de control, que a su vez transmite los
datos a una cabina de almacenamiento.
Network Attached Storage (NAS). También conocida como almacenamiento conectado
en red, tiene un sistema operativo propio y permite el acceso a usuarios privados.
Direct Attached Storage (DAS). Su almacenamiento se conecta con los dispositivos de
forma directa para la transmisión de datos en una red privada.
3. Almacenamiento de datos de objeto
Este método de almacenamiento resguarda datos sin ningún tipo de jerarquía o clasificación por
carpetas. Se encarga de procesar los datos como unidades diferenciadas u objetos en un solo nivel
de agrupación. Este tipo de almacenamiento es probablemente el más económico, pero no es
conveniente para datos que se están editando continuamente.
4. Almacenamiento de datos de archivo
Opuesto al caso anterior, este tipo de almacenamiento de datos se basa en una jerarquía de árbol,
que dentro de una primera carpeta (el identificador único) incluye más carpetas. Funciona como el
explorador de archivos de una computadora. Para este modelo es necesario que tengas una
organización y clasificación rigurosa para encontrar los datos con facilidad.
5. Almacenamiento de datos por bloque
Consiste en dividir tus datos en grupos y cada grupo contará con un identificador único. Se usa
para organizar los datos, apartados unos de otros; pero al ser solicitados por el usuario se
ensamblan de nuevo sin ningún problema. Frecuentemente el almacenamiento por bloque se usa
para datos que están en constante edición, aunque este es el método más costoso de todos.
6. Almacenamiento de datos definido por software
Se encarga de desvincular el software de almacenamiento de los dispositivos (SDS), lo que a su vez
permite una mayor flexibilidad y escalabilidad. Así es posible acceder a los datos con un único
centro para administrarlos y automatizarlos. De esta forma ya no tienes que lidiar con la
incompatibilidad de sistemas operativos.
Concentrar tus datos es una forma eficaz de tener todos la información tus clientes en un sola
plataforma. Una excelente opción es la sincronización de datos de HubSpot, la cual coordina las
herramientas que utilizas para atender a tus clientes o crear estrategias de marketing. Es
compatible con Intercom, Dynamics 360, Aircall, entre otras aplicaciones.
Esta función es parte del software de operaciones del CRM HubSpot que te permite coordinar
diferentes áreas de tu empresa, tales como contactos, conversaciones, campañas de marketing,
ventas, servicio al cliente e informes de tu negocio. Así tus colaboradores podrán acceder a esta
base para brindar una mejor atención al cliente y lograr más conversiones.
Ahora ya conoces con más detalle en qué consiste el almacenamiento de datos, su importancia en
el entorno digital, cómo favorece a tu empresa y cómo es posible disfrutar de sus beneficios.
MEMORIA
Clasificación de memoria
Cuando hablamos de los tipos de memoria de un PC u ordenador, todo son siglas y tecnicismos. En
este post intentamos aclarar ideas sobre estos componentes que muchas veces están escondidos
en las ‘tripas’ del ordenador. Destacamos las más importantes y qué función tiene cada una.
.
Memoria RAM
La llamada memoria RAM o Random Access Memory almacena datos e instrucciones de los
programas que se requieren en un momento determinado. Esta información es usada en tiempo
real por la CPU o unidad de procesamiento del equipo. Se puede decir que en la RAM están los
datos de los que el ordenador va a echar mano para facilitar que el usuario, en un momento muy
concreto, navegue, escriba un texto o vea un vídeo en YouTube, por ejemplo.
La RAM es fundamental porque es la que permite que los programas se inicien, se carguen y se
ejecuten. De su capacidad dependerá en gran parte la velocidad en que se van a desplegar esos
programas y van a responder a las demandas del usuario. Por ejemplo, si usamos un
navegador, la RAM va a guardar los datos de las webs que visitamos para evitar cargarlas cada
vez que accedemos a ellas. Y lo mismo pasará con las aplicaciones abiertas.
Es, por tanto, una unidad que no almacena permanentemente los datos, sino que tiene un
carácter volátil. Es decir, la información que se guarda en un momento dado se pierde cuando el
ordenador se apaga. O cuando se produce un fallo de energía. Por eso, es una memoria con una
capacidad de almacenamiento mucho menor a otras, como la de los discos duros y las unidades
SSD, que son el verdadero ‘trastero’ al que van a parar todos los archivos que generamos, desde
documentos ofimáticos a fotos o vídeos.
La RAM ha tenido muchas variantes. Desde la histórica DRAM, que se utilizó hasta los años
noventa, hasta las modernas DDR5 SDRAM, y la GDDR SDRAM, que se utiliza para el renderizado
de vídeo, una tarea muy exigente y que consume muchos recursos del ordenador.
Memoria caché
Es una memoria que se sitúa entre la RAM y el procesador del ordenador, y que acelera el
intercambio de datos. Este tipo de memoria, que suele pasar desapercibida para el usuario
corriente, hace que los procesos en el ordenador se ejecuten más rápido. De esta forma evita, por
ejemplo, que el procesador tenga que esperar. El tamaño de la memoria caché, que está
organizada por niveles, es mucho menor que el de la RAM.
Memoria ROM
Las siglas responden a Read Only Memory. Es decir, que es una memoria solo de lectura. Donde
los datos se leen y usan, pero no se modifican. En el módulo de memoria ROM de un ordenador la
información permanece, incluso cuando se apaga el equipo o se queda momentáneamente sin
energía eléctrica.
Así, en la ROM residen datos clave para el equipo. Se trata de todas las instrucciones que el
ordenador necesita para empezar a funcionar. Lo que se conoce como la BIOS o instrucciones de
inicio. Y también está ahí el firmware del equipo, es decir, todas las instrucciones que controlan
los circuitos electrónicos incluidos en la máquina. La introducción de datos en la memoria ROM la
hace la marca del ordenador en fábrica. Y por eso es muy difícil cambiar la información
almacenada en ella.
El disco duro es el dispositivo principal donde se almacena toda la información que genera el
usuario: los programas instalados, los archivos de música, imagen o vídeo, etcétera.
Tradicionalmente ha consistido en discos giratorios provistos de un brazo móvil (hard disk drive o
HDD) que buscaban la información.
Esta tecnología está siendo reemplazada por las unidades de almacenamiento de estado sólido
(SSD), que no tienen partes móviles y que están hechas a base de circuitos electrónicos (chips de
memoria NAND Flash). Como ventaja, los discos SSD son mucho más pequeños, ligeros y
transfieren de forma más rápida la información. Por eso se han convertido en la opción a la que
recurren todos los fabricantes de portátiles, por ejemplo. Eso sí, son más caros que los discos
tradicionales.
Memoria ‘swap’
Los ordenadores con sistema operativo Windows o Linux disponen de esta clase de memoria, que
es virtual. Swap se puede traducir por “espacio de intercambio”. Es bastante parecida a la
memoria caché, pero a ella recurre exclusivamente el sistema operativo, y no el resto de los
componentes del ordenador. En Windows, por ejemplo, es un archivo que está en el interior del
sistema operativo. En esencia, la memoria swap permite disponer de memoria adicional a la que
reporta el módulo RAM, que suele tener problemas de rendimiento cuando abrimos demasiadas
aplicaciones.
Memoria USB
Es lo que en el argot popular se suele llamar lápiz USB, ‘pincho’ o pendrive. Estos
dispositivos, que utilizan circuitos de estado sólido, permiten hoy transportar cantidades
ingentes de ficheros y documentos en el espacio que ocupa un mechero. Los hay incluso de
128 o 256 GB de capacidad. Es decir, permiten almacenar más información que muchos
discos duros de sobremesa o de portátil.
Discos duros y SSD externos
La tecnología flash también ha llegado al mundo de los discos duros portátiles o externos,
que hasta hace poco solo se vendían con el sistema clásico de discos móviles (HDD).
Un SSD externo es una opción mucho más cara, pero es recomendable si lo vamos a
conectar muy frecuentemente al ordenador porque es mucho más veloz que la tecnología
analógica. En cambio, si se trata de almacenar documentos que se van a ver o consultar
muy de vez en cuando, o si se quiere hacer una copia de seguridad, la mejor opción sigue
siendo el disco duro de toda la vida.
PROCESADOR
Tipos de Procesador
Tanto Intel como AMD fabrican procesadores para una variedad de sistemas. Intel fabrica las
familias de procesadores Core, Pentium, Atom y Celeron para ordenadores de sobremesa,
mientras que del otro lado encontramos los procesadores Athlon, Sempron y Ryzen de AMD, entre
otros.
Cada procesador fabricado por Intel o AMD tiene funciones específicas y abastece a sistemas
específicos, como PCs o estaciones de trabajo en una oficina. Cada procesador se adapta a un
ordenador específico, ya sea ensamblado, construido desde cero o actualizado.
La CPU más comúnmente utilizada en PCs está hecha por Intel. Desde que IBM eligió el chip Intel
8088 para el PC IBM original, la mayoría de los clones de PC han utilizado alguna de las CPU de la
serie Intel.
El microprocesador 8085 fue diseñado por Intel en el año 1977 con la ayuda de la tecnología
NMOS.
Las configuraciones de este microprocesador son el bus de datos de 8 bits, el bus de direcciones
de 16 bits, que puede direccionar hasta 64 kb, contador de 16 bits y puntero de pila (SP). Los
registros de seis bits están dispuestos en el par de BC, DE y HL. El microprocesador 8085 requiere
una fuente de alimentación de 5 voltios.
Microprocesador 8086
Este microprocesador también fue diseñado por Intel. Es un procesador de 16 bits con 20 líneas de
bus de direcciones y 16 líneas de datos con almacenamiento de 1 MB. El microprocesador 8086
consiste en un potente conjunto de instrucciones, que permite realizar las operaciones como
multiplicaciones y divisiones fácilmente.
El microprocesador 8086 tiene dos modos de operación, que son el modo máximo y el modo
mínimo de operación. El modo de funcionamiento máximo se utiliza para el sistema que tiene
varios procesadores. El modo de funcionamiento mínimo se utiliza para el sistema que tiene un
único procesador. Las características de este microprocesador se explican a continuación.
Para poder trabajar, el procesador hace la división de una tarea en varias etapas.
Típicamente, los procesadores Intel ejecutan más cantidad de etapas y, por lo tanto,
hacen más trabajo y demoran más tiempo que los procesadores AMD para finalizar las
tareas.
Los chips digitales de una placa base se mantienen sincronizados entre sí por la señal
de reloj (una secuencia de pulsos) de la placa base.
Puedes pensar en ello como un «latido del corazón» del ordenador. Cuanto más rápidos sean los
pulsos del reloj, más rápido correrá el equipo; pero el reloj no puede correr más rápido que la
velocidad de los chips, ya que en este caso fallarán.
A medida que la tecnología de los chips mejoró, la velocidad a la que los chips pueden correr se ha
acelerado. La CPU funciona más rápido que el resto de la placa base (que se sincroniza a una
fracción de la velocidad de la CPU).
Velocidad de boost
Sin embargo, cuando estás buscando en el mercado un procesador, hay una lista de cosas que
debes considerar. Tradicionalmente, lo único que ven la mayoría de los consumidores es su poder
total de Gigahertz.
Muchas de esas personas probablemente ni siquiera saben lo que significa (es el número de ciclos
de reloj que un procesador completa en un segundo, en miles de millones), pero es una cosa fácil
de comparar.
Los últimos años han traído una característica adicional: la velocidad de boost. La mayoría de las
unidades de procesamiento y gráficas, ahora tienen una velocidad de reloj y una «velocidad de
boost». Intel llama a esto Turbo Boost; AMD lo llama Boost Clock.
Esta nueva tecnología de los microprocesadores hace que mejore el desempeño de manera
automática, aumentando la velocidad de los núcleos, logrando con esto una mejor eficiencia.
Clasificación de los microprocesadores
Este procesador está diseñado para minimizar el número de instrucciones por programa e ignorar
el número de ciclos por instrucciones. El compilador se utiliza para traducir un lenguaje de alto
nivel al lenguaje de nivel ensamblador, porque la longitud del código es relativamente corta y se
utiliza una memoria RAM adicional para almacenar las instrucciones.
Arquitectura del procesador CISC
Está diseñado para reducir el costo de la memoria, porque se requiere más almacenamiento
en programas grandes, lo que resulta en un mayor costo de memoria. Para superar este número
de instrucciones por programa, se puede reducir el número de instrucciones utilizando la
integración de las operaciones en una sola instrucción.
Características del procesador CISC
Este procesador consta de diferentes modos de direccionamiento:
Tiene un gran número de instrucciones
Para ejecutar una instrucción se necesitan varios ciclos
La lógica de codificación de la instrucción es compleja
Múltiples modos de direccionamiento cuando se requiere una instrucción
RISC
RISC son las siglas de Reduced Instruction Set Computer y está diseñado para reducir el tiempo de
ejecución mediante la simplificación del conjunto de instrucciones del ordenador.
Estos tipos de chips se fabrican según la función en la que el microprocesador puede realizar
pequeñas tareas dentro de un comando en particular. De esta manera, completa más comandos a
un ritmo más rápido.
En el microprocesador, cada conjunto de instrucciones requiere solo un ciclo de reloj para
implementar el resultado en un tiempo de ejecución uniforme. Por lo tanto, reduce la eficiencia
para más líneas de código, por lo que requiere una RAM adicional para almacenar las
instrucciones. El compilador se utiliza para convertir el conjunto de instrucciones de lenguaje de
alto nivel en un idioma informático.
Arquitectura del procesador RISC
Este tipo de procesador se utiliza para el conjunto de instrucciones altamente
optimizado, y las aplicaciones del procesador RISC son para los dispositivos portátiles,
debido a su eficiencia energética. Las características de este procesador se explican a
continuación.
Características del procesador RISC
Algunas de las principales e importantes características del procesador RISC son las siguientes:
En el procesador RISC hay instrucciones sencillas
Consiste en el número de registros y en menor cantidad de transistores
Para acceder a la ubicación de memoria se utilizan las instrucciones load & store
Este procesador tiene un tiempo de ejecución de ciclo
Superscalar
Este es un procesador que copia el hardware en el microprocesador para realizar numerosas
tareas a la vez. Pueden ser utilizados para aritmética y como multiplicadores. Disponen de varias
unidades operativas y, por lo tanto, llevan a cabo más de un comando, emitiendo de manera
constante muchas instrucciones a las unidades operativas superfluas dentro del procesador.
ASIC
Se utiliza para propósitos específicos en vez de objetivos generales. Al principio, los ASIC hacían
uso de la tecnología de matriz de puertas. Los ASIC modernos, con frecuencia cuentan con
procesadores de 32-bit, Flash, bloques de memoria RAM, ROM, EEPROM, así como otros tipos de
módulos.
DSP (Procesador Digital de Señales)
Son usados para codificar y decodificar videos o para convertir los videos digitales a analógicos y
analógicos a digitales. Necesitan un microprocesador que sea excelente en cálculos matemáticos.
Los chips de este procesador se emplean en sonares, radares, equipos de audio para cine en casa,
teléfonos móviles y televisores.
Te recomendamos la lectura Como elegir un procesador de forma rápida y sencilla
Los componentes requeridos para este procesador son una memoria programada, memoria de
datos, entrada/salida, y un motor informático. Este procesador está diseñado para procesar la
señal analógica en forma digital. Este proceso se realiza a intervalos regulares y convierte la
tensión en forma digital.
Las aplicaciones de este procesador son la producción de sonido y música, el procesamiento de
señales de vídeo y la aceleración de gráficos 2D y 3D. El ejemplo de este procesador es el
TMS320C40.
Procesadores Especiales
Los procesadores especiales están diseñados para algunos procesadores especiales y algunos de
ellos se explican a continuación.
Coprocesador
Puede manejar la función práctica muchas veces más rápido que los microprocesadores normales.
El ejemplo del coprocesador es el coprocesador matemático, y algunos de ellos son el 8087, que se
usa con 8086; el 80287, que se usa con 80286; y el 80387, que se usa con 80386.
Procesador de entrada/salida
Este procesador tendrá su propia memoria local. Se utiliza para controlar dispositivos de E/S con la
participación de la CPU. Los ejemplos del procesador de entrada/salida son control DMA, control
de teclado y ratón, control de pantalla gráfica y control de puerto SCSI.
Transputer
Este procesador también tiene su propia memoria local y también tiene enlaces para conectar
un transputer a otro para la comunicación entre procesadores.
El transputer se utiliza para el sistema de un solo procesador o se puede conectar a enlaces
externos para reducir los costes de construcción y aumentar el rendimiento. Algunos ejemplos de
este procesador son el punto flotante de procesadores como T800, T805 y T9000.
¿La velocidad es importante?
Todo factor es importante y la velocidad no iba hacer menos. Pero no podemos comparar la
velocidad (GHz o MHz) entre diferentes arquitecturas. Es un error equiparar un Pentium 4 a 2.8
GHz con un Pentium de estos últimos años a la misma frecuencia. El salto evolutivo en el IPC
(instructions per cycle) es abismal.
Lo más correcto sería clasificar cada procesador por su categoría. También, podemos encontrarnos
casos que por tener un «presupuesto ajustado» equipe a su PC con un procesador de gama baja y
vaya tirando con él hasta que actualice a uno de gama superior.
Intel Pentium & Celeron / AMD Ryzen 3 / APU
Los procesadores con esta velocidad son ideales para actividades básicas del día a día, por
ejemplo: correo electrónico, navegación web, paquete de ofimática e incluso dar un gran
rendimiento como centros multimedia / HTPC. En el caso de los Pentium, Ryzen 3 y APU pueden
dar un gran rendimiento jugando en resolución 720p o 1080 si se le equipa con una tarjeta gráfica
decente.
Intel Core i3 / AMD Ryzen 5 de cuatro núcleos
Esta gama de velocidades se adapta perfectamente a la navegación web, el trabajo con correos
electrónicos, la ejecución de programas empresariales como los sistemas de gestión de pacientes y
la multitarea en general. Esta categoría funciona bien para el ordenador de oficina medio o
usuarios que no quieren gastarse mucho dinero en su PC Gaming pero quieren actualizar su
ordenador en un futuro.
Actualmente los Intel Core i3 de octava generación tienen 4 núcleos que nos dan un plus de
rendimiento (respecto a la séptima generación) y puede darnos muchas alegrías con una Nvidia
GTX 1050 Ti o GTX 1060 de 3 ó 6 GB. También es interesante el AMD Ryzen 5 1400 de cuatro
núcleos que trabaja muy bien como procesador 4×4. Mientras que el AMD Ryzen 5 1600 /
1600X son perfectos para gaming y hacer streaming, ya que no es muy dificil hacerles overclock a
3.9 ó 4 GHz.
Intel Core i5 / Intel Core i7 y AMD Ryzen 7
Dentro de la plataforma mainstream son los topes de gama. Si necesitas un equipo super potente,
ideal para jugar a máxima exigencia, trabajar con base de datos super potentes y edición
multimedia entonces necesitarás tener un ordenador de alto rendimiento. Personalmente,
los Intel Core i7 de octava generación y la serie AMD Ryzen 7 (con overclock a 3.8 ó 4 GHz) dan un
rendimiento brutal para jugar y trabajar.
MOTHERBOARD
¿Cómo funciona una motherboard?
Como sucede con toda la tecnología, las motherboards eventualmente se volverán obsoletas. Hay
muchos síntomas de una motherboard defectuosa, algunos son:
Estos comportamientos también pueden ser síntoma de otros problemas más comunes, por lo que
lo mejor es que resuelvas los problemas uno a uno antes de asumir que se trata de tu
motherboard. Incluso si creés que has descartado todo, lo que puede ser un proceso largo,
deberías ver si la BIOS es la culpable. Podés intentar resolver el problema llevando a cabo una
actualización de BIOS, siguiendo el proceso conocido en inglés como "Flashing the BIOS", el cual
consiste en borrar por completo el software, que se encuentra en un chip de la motherboard, y
actualizarlo en una memoria flash. Esto podría resolver el problema y ahorrarte un costoso
reemplazo.
Pro tip: una conexión débil o un fallo en la fuente de alimentación es más común que uno en la
motherboard. Igualmente, son soluciones más costeables, así que probalas primero antes de
asumir lo peor.
Si decidís sustituir la motherboard tú mismo, necesitás conocer el modelo exacto, junto con los
modelos de sustitución compatibles antes de comenzar. Las motherboard pueden ser
extremadamente difíciles de sustituir en notebooks, porque no son fáciles de abrir o desmontar.
Además, el espacio es estrecho y un mal movimiento podría dañar algo más.
También tendrás que estar preparado para sustituir otros componentes. La mayoría de la gente se
da cuenta de que hay que cambiar el CPU, la tarjeta gráfica e incluso la fuente de alimentación
cuando se adquiere una nueva motherboard. No es una reparación barata. Asegurate de que has
descartado las demás posibilidades y, a continuación, ahorrá para lo que podría ser una reparación
cara.
Este reemplazo es generalmente más fácil de hacer en las computadoras de escritorio, pero si no
estás seguro de las instrucciones exactas de sustitución para tu modelo en particular, se
recomienda realizar este trabajo con un profesional.
En cualquier caso, saber cómo encontrar la información del modelo de motherboard puede ser útil
para vos y el profesional de tu computadora. Podés obtener esta información consultando la
documentación de tu computadora o, si aún podés acceder a tu PC, ejecutá “cmd” o Símbolo del
sistema para encontrarla.
La mayoría de las tarjetas madre duran más que el resto de los componentes de la computadora,
siempre y cuando se mantengan bien. No deberías tener que hacer nada para cuidarla
activamente, pero ser consciente de sus asesinos comunes puede ser útil. Las cosas que las
destruyen prematuramente incluyen:
alta temperatura, normalmente debido a sistemas de refrigeración y ventiladores
inadecuados;
daños por impacto, como la caída de tu notebook;
daños eléctricos, por derrames o por el uso de accesorios de alimentación incorrectos;
conexiones o tipos de conectores defectuosos.
TIPOS DE MOTTHERBOARD
Basándonos en estas tres tipologías, ahora podemos hablar de cuántos tipos de placas existen. La
nomenclatura que diferencia tal o cual tarjeta se denomina factor de forma. Y aunque nuestro
listado es incompleto (existen placas de diseños inusuales para montar en vehículos como tanques
o para pequeños electrodomésticos como robots de cocina), a continuación agrupamos las cinco
grandes tipologías:
Placas XT: estas son placas del tamaño de un A4, amplias y ya en desuso. Las siglas hacen
referencia a su ‘eXtended Technology’, por aquello de ampliar el formato de las primeras
microcomputadoras. Existen desde 1983 y es inusual que encuentres alguna hoy en día.
Placas AT: las más populares durante la década de los ochenta. Las siglas ‘Advanced
Techonology’ solo responden a su funcionalidad, con ampliaciones y módulos extra.
Placas ATX: una de las primeras versiones con bahías para conexiones exteriores y un
conector de alimentación de 24 pines. De esta familia debemos escindir las Mini
ATX y Micro-ATX. Mientras las primeras cuentan con unas dimensiones de 30,5 cm x 24,4
cm, las segundas encogen hasta los 28,4 cm x 20,8 cm y las terceras hasta los 24,4 cm x
24,4 cm. No hay una mejor que otra, ya que son elegidas en función de la necesidad (por
ejemplo, las últimas mencionadas son ideales para micro ordenadores de emulación). Y si
invertimos la escala, aún podemos hablar de las E-ATX, las más abultadas, cuadradas (30
cm x 33 cm) y usadas en ordenadores convencionales, ya que permiten instalar tarjetas
gráficas de varios ventiladores y otorgan más posibilidades de expansión.
Placas ITX: las siglas significan ‘Integrated Technology eXtended’, lo que ya anuncia su
especialización: integran más componentes. Las populares Asus ROG STRIX B550-I o la
Gigabyte X570 I Aorus son buenos ejemplos de esta tipología
Placas DTX: otro tipo de placas pequeñas orientadas a miniordenadores, como los MIS
Cubi, Asus Vivo, las WintelBox o los Lenovo ThinkCentre.
La placa base es, a día de hoy, un elemento cotidiano -y ya no solo en ordenadores- al que nos
referimos constantemente, al menos en el mundo del hardware.
El primer equipo considerado PC fue el IBM modelo 5150 (que montaba lo que llamaron
“breadboard”, presentado el 12 de Agosto de 1981, aunque fue la quinta generación de
computadoras de la marca. Fue creado por un equipo de ingenieros de IBM dirigidos por Don
Estridge y William C. Lowe. Hasta la creación de la placa base, la integración del resto de
componentes en el ordenador personal se realizaba mediante placas con múltiples bahías de
conexión o directamente con cables que hacían de puente entre componentes.
De cara al usuario, esto complicaba bastante las cosas puesto que si necesitaba cambiar una pieza
de hardware determinada, como decíamos antes habría que reescribir el firmware con las
instrucciones necesarias para que el nuevo componente pudiera funcionar con el resto del
hardware.
Con éstos problemas entra en escena Patty McHugh, considerada madre de la placa base (mother
of the motherboard), una ingeniera de IBM que a finales de los 80 creó el concepto de placa base
modular que conocemos hoy en día (si bien es cierto que lógicamente algo más tosco). La creación
de la placa base simplificó muchísimo la manera en la que los componentes de hardware
interactuaban los unos con los otros, pues desde ese momento solo era necesario cargar los
drivers del nuevo componente que queríamos instalar para que todo funcionara.
Esto fue el inicio de todo. La invención de la placa base supuso que ya no hacía falta un grupo de
ingenieros de hardware y software trabajando en conjunto para crear un ordenador, sino que
cualquiera con unos conocimientos mínimos podía comprar un nuevo componente e instalarlo él
mismo. A partir de ese momento los fabricantes vieron las puertas abiertas a la fabricación y
comercialización de componentes de hardware, así como de equipos clónicos al PC de IBM.
Está claro que en estos más de 35 años las cosas han evolucionado mucho, pero también está
claro que el diseño de placa base modular que IBM creó a finales de los años 80 es, en esencia,
exactamente igual que el que utilizamos en las placas base modernas. Se han ido añadiendo cada
vez más cosas a éstas, especialmente controladores y demás, descargando así de trabajo al
procesador, con el añadido de que a día de hoy las placas base son casi universales mientras se
respete el formato (es decir, una placa de socket 1151 no admite un procesador AMD, pero sí
cualquier procesador de socket 1151 generalmente, y por ejemplo cualquier tarjeta gráfica PCI-
Express o disco duro SATA es compatible).
DISITIVOS DE ENTRADA
Los distintos dispositivos de entrada traducen los datos en impulsos eléctricos, que luego son
transmitidos a la computadora para su procesamiento y almacenamiento en la memoria central o
interna. Estos dispositivos son fundamentales porque permiten que el usuario pueda hacer uso de
la computadora e interactuar con ella.
Los dispositivos de entrada se distinguen de los dispositivos de salida, que son aquellos aparatos
que se conectan a una computadora y extraen información.
Además, algunos dispositivos de entrada lo son también de salida (dispositivos de E/S o mixtos)
porque introducen y extraen información del sistema. Por ejemplo: un monitor táctil.
Son indispensables para que el usuario pueda hacer uso de la computadora y son fáciles
de usar.
CLASIFICACIÓN
¿Cómo es la clasificación?
La clasificación es una función lógica que forma grupos, o series o clases de objetos similares o
afines. Los objetos que pertenecen a una clase son afines en el sentido que poseen características
esenciales comunes a todos ellos.
Dispositivos de salida
Para que el usuario pueda hacer uso de la computadora necesita tanto de los dispositivos de
entrada como de los de salida. Los dispositivos de salida son aquellos que traducen los datos
provenientes de la computadora en información que pueda ser comprendida por el usuario.
En la mayoría de los casos, esta información se presenta en forma de imagen, sonido, texto, entre
otras. Los dispositivos de salida más importantes son: la pantalla o monitor, los parlantes y la
impresora.
Además, existen algunos dispositivos que funcionan tanto como dispositivos de entrada (porque
introducen información al sistema) como de salida (porque extraen información de la
computadora). Estos dispositivos son llamados de entrada/salida o mixtos y entre los más
destacados están:
COMPONENTES SOFTWARE
Comencemos por definir qué es el software y sus componentes básicos. El software también
conocido como logicial es toda la parte digital, es decir las instrucciones y comandos que son
procesados por la computadora y se les conoce como sistema operativo.
Comprende un conjunto de componentes lógicos necesarios que hacen posibles tareas específicas
de un sistema informático. Por su parte los dos componentes principales del software son el
sistema operativo y los programas.
Además del software se necesita del hardware para hacer operativo un ordenador. El primero
envía las instrucciones y el segundo las ejecuta, algunos ejemplos de software son Windows,
Ubuntu, Fedora, Solari.
Por su parte, para ejemplificar los elementos del hardware hay que aclarar que se divide en dos,
el hardware básico que son las piezas imprescindibles como la pantalla, el teclado y el hardware
complementario que son los elementos no esenciales como el escáner o la webcam.
La categoría del software es muy amplia e incluye una amplia variedad de productos informáticos,
desde sistemas operativos hasta las partes intangibles de cualquier dispositivo electrónico o los
programas que permiten el funcionamiento de un avión.
Las características deseables en un producto de software son:
No todos los productos de software cumplen esta lista de requisitos, ya que siempre prevalece
uno por encima de otro lo cual depende del uso que se le dará. Por ejemplo: la cafetera no
amerita un software de seguridad, no tiene sentido, puesto que no resguarda ningún tipo de
información de importancia.
CLASIFICACIÓN DE SOFTWARE
Se dividen en:
o Software de aplicación: son los programas que utilizas para realizar tarea específica,
como, por ejemplo, los procesadores de texto o las aplicaciones.
o Software de sistema: incluye, los controladores de dispositivo, los utilitarios de sistema y
el sistema operativo.
o Software de programación: son las herramientas digitales que sirven para la creación de
nuevos programas, o para el desarrollo de los ya existentes.
SISTEMA
Los sistemas informáticos son los sistemas encargados de recibir, guardar y procesar información
para posteriormente entregar resultados a partir de ello.
Son sistemas complejos y presentes en diversos ámbitos, ya que engloba a todo aquello que
contiene una división física (hardware) y otra lógica (software).
Pantalla.
Placa base, también llamada tarjeta madre o placa principal.
Procesador, también llamado microprocesador.
Tarjetas de expansión.
Módulos de ram.
Fuente de alimentación, también llamada fuente de potencia o fuente de poder.
Unidad de disco duro (HDD), también llamada unidad de disco rígido. O unidad de
estado sólido (SSD).
Teclado.
Ratón, también llamado mouse.
Así mismo, otros dispositivos como relojes inteligentes, móviles, tablets, portátiles y cámaras de
seguridad también poseen sus propios hardwares.
Software
El software comprende las partes lógicas de un sistema informático. Es decir, todo aquello que
no se puede tocar.
Este segmento es el responsable de enviar instrucciones al hardware para ejecutar una diversidad
de tareas. En pocas palabras, esta sección es la que interactúa con la parte la física de un
sistema para que su funcionamiento sea posible.
El software contiene los siguientes elementos:
Software del sistema: Es todo aquello que es indispensable para el manejo de un
sistema, por lo tanto, son elementos que un dispositivo o máquina debe poseer para
poder funcionar: sistema operativo, controladores del sistema, BIOS, línea de comandos,
cargador de arranque (bootloader), hipervisor, interfaz gráfica de usuario (GUI), utilidades
y herramientas de programación.
Software de aplicación: Se refiere a las diversas aplicaciones o programas que un
sistema puede utilizar: navegador web, juegos, editor de imágenes, reproductor de videos,
antivirus, procesador de texto, calculadoras.
Personal informático
Son las personas que utilizan los sistemas informáticos. Incluye a los creadores de software, los que
mantienen dichos programas y las personas que lo utilizan (el público en general).
APLICACIÓN
Una aplicación es un programa informático diseñado como una herramienta para realizar
operaciones o funciones específicas. Generalmente, son diseñadas para facilitar ciertas tareas
complejas y hacer más sencilla la experiencia informática de las personas.
Las aplicaciones son programas totalmente distintos a los sistemas operativos o lenguajes de
programación, ya que estas cumplen una función puntual y es pensada para que sea de uso común
como por ejemplo manejar finanzas o contabilidad desde hojas de cálculo.
Los equipos tecnológicos (celular, computador, tableta, relojes inteligentes, entre otros) tienen la
facilidad de traer ya aplicaciones o la posibilidad de instalarlas. Una de las formas de conseguir una
aplicación es por medio de las tiendas de aplicaciones. Según el dispositivo que tengas encontrarás
una tienda para descargarlas e instalarlas. Por ejemplo, existe la Tienda Microsoft, para equipos
con sistema operativo de esa compañía; la AppStore para equipos con sistema operativo diseñado
por Apple; o PlayStore, si el dispositivo usa el sistema operativo Android, entre otros.
Además, existen cientos de empresas dedicadas a crear aplicaciones y venderlas en forma de
paquete, también conocido como suites, como por ejemplo Microsoft Office o Adobe CS.
Con el avance de la tecnología, es común que ahora escuches el término aplicaciones móviles.
Estas hacen referencia a las aplicaciones diseñadas para dispositivos como el celular o la tableta. A
las aplicaciones de tu computador se les conoce como aplicaciones de escritorio.
CONTROLADOR
¿Qué es un controlador?
Un controlador de dispositivo (a veces simplemente conocido como controlador ) es un programa
de software que indica al sistema operativo de su computadora cómo comunicarse con una
determinada pieza de hardware. Algunos ejemplos de hardware que requieren controladores son
tarjetas de gráficos, Wi-Fi y adaptadores de red.
¿Qué es un controlador genérico de Intel® en comparación con un controlador
personalizado por un fabricante de equipos?
Un controlador genérico proporcionado por Intel® es una versión del controlador que no está
personalizada para variantes específicas de hardware que venden diferentes fabricantes de
equipos. Cuando esté disponible, Intel recomienda que se utilicen los controladores
proporcionados por el fabricante del equipo.
Intel ofrece versiones genéricas de controladores, mientras que los fabricantes de equipos:
El software comercial es el software, libre o no, que es comercializado, es decir, que las compañías
que lo producen, cobran dinero por el producto, su distribución o soporte (este dinero casi
siempre se emplea para pagar licencias de ciertos programas no libres o para darle un salario a las
personas que contribuyeron a crear ese software). Ejemplo de Software comercial, tenemos:
*Todas las distintas versiones de Microsoft Windows* Algunas distribuciones de Linux como
Lindows, Kandros, RXART, Belisoft, Libranet.
SOFTWARE NO REMUNERADO
«Software libre» significa que el software respeta la libertad de los usuarios y la comunidad. En
términos generales, los usuarios tienen la libertad de copiar, distribuir, estudiar, modificar y
mejorar el software. Con estas libertades, los usuarios (tanto individualmente como en forma
colectiva) controlan el programa y lo que hace.
Cuando los usuarios no controlan el programa, el programa controla a los usuarios. El
programador controla el programa y, a través del programa, controla a los usuarios. Un programa
que no es libre, llamado «privativo», es por lo tanto un instrumento de poder injusto.
Por tanto, el «software libre» es una cuestión de libertad, no de precio. Para entender el concepto,
debe pensarse en «libre» como «libre expresión», no como «grátis».
Un programa es software libre si los usuarios tienen las cuatro libertades esenciales :
Libertad 1: la libertad de usar el programa para lo que quieran: El usuario puede utilizar el
programa para el fin que desee, sin tener que pedir permiso al programador del software.
Libertad 2: la libertad de estudiar el funcionamiento del programa, y de modificarlo: Para poder
disfrutar de esta libertad, es necesario el acceso al código fuente del programa. Si el código fuente
no es claro y en la práctica no se puede estudiar, a los efectos de esta libertad no se considera
código fuente.
Libertad 3: la libertad de redistribuir copias: El usuario puede redistribuir copias de los programas
tanto en su versión ejecutable como su código fuente.
Libertad 4: la libertad de redistribuir copias de sus versiones modificadas: El usuario dispone de la
libertad de redistribuir copias del programa modificado, ya sea bajo una licencia libre, o privativa
(no libre), a elección del usuario. Si la licencia de un programa requiere que las versiones
redistribuidas sean privativas, entonces el programa no es libre.
Para poder disfrutar de esta libertad, es necesario el acceso al código fuente del programa.
La licencia (debe ser una licencia libre, que garantice las cuatro libertades, de forma nítida e
irrevocable. No se consideran libres las licencias que permiten su revocación total o parcial.)
La distribución (debe poder obtenerse el código fuente, debe poder modificarse
efectivamente)
Libre, no abierto
Hay quien denomina al Software Libre como "código abierto" o "software de fuentes abiertas"
("open source" software). Aunque se puedan referir a programas similares, la idea que proyecta el
término "abierto" no incluye los valores y derechos relacionados con la libertad. La palabra "Libre"
se refiere a esa libertad y por lo tanto es un término más adecuado. En la práctica, "Software
Libre" y "código abierto" significan, expresan, cosas diferentes.
Que el software que se utilice sea libre, tiene consecuencias de gran importancia para las
instituciones educativas.
Independencia Tecnológica: Mediante el uso de Software Libre, las instituciones dejan
de tener sus sistemas controlados por una entidad externa específica,reduciendo así la
posibilidad de quedar sujetas a proveedores únicos y pudiendo elegir entre múltiples
posibilidades de desarrollo y adaptación.
Control de la Información: Esto es una consecuencia directa de las libertades
del software libre. Al tener la libertad de inspeccionar su mecanismo de funcionamiento,
la manera en que almacena los datos y finalmente la posibilidad de modificar estos
aspectos, queda en manos de la institución la llave de acceso a la información. Es decir,
cómo ésta fue codificada y cómo decodificarla en el futuro.
Confiabilidad y Estabilidad: El software libre, al ser accesible su código fuente, está
sometido a la inspección de una multitud de personas, que pueden obtener solución a los
problemas y compartir dicha solución con los demás usuarios. Esto le hace potencialmente
más confiable y estable, para cualquier usuario final.
Seguridad: Este es uno de los puntos clave para un organismo público. Es crítico poder
fiscalizar que el software no tenga “puertas traseras", voluntarias o accidentales, y que
puedan corregirse en caso de encontrarlas. Tal proceso de corrección sólo es posible por
parte del usuario con el software libre. El software libre facilita: las auditorías
informáticas, controles y medidas que corroboran que el programa realice sus funciones,
cumpliendo con los requisitos de seguridad.
Economía: Se obtiene entre otros, un ahorro directo en licencias posibilitando la inversión
del dinero en otros rubros.
COMPILADORES E INTERPRETES
Cada programa es un conjunto de instrucciones, ya sea sumar dos números o enviar una petición a
través de internet. Los compiladores e intérpretes toman código legible por los humanos y lo
convierten en código máquina legible por computadoras.
En un lenguaje compilado, la máquina de destino traduce directamente el programa. En un
lenguaje interpretado, el código fuente no es directamente traducido por la máquina de destino.
En cambio, un distinto programa, mejor conocido como intérprete, lee el código y lo ejecuta.
Okay… ¿Pero qué significa eso realmente?
Imagina que tienes una receta de hummus y la quieres preparar, pero está escrita en griego
antiguo. Hay dos maneras en que tú, alguien que no habla griego antiguo, podrías seguir dichas
instrucciones.
La primera es si alguien ya lo ha traducido al español para ti. Tú (y cualquiera que hable el idioma)
podrías leer la versión en español de la receta y hacer el hummus. Piensa en esta receta traducida
como la versión compilada.
La segunda manera es si tienes un amigo que sabe griego antiguo. Cuando estés listo para hacer
hummus, tu amigo se sienta junto a ti y traduce la receta al español mientras avanzas, línea por
línea. En este caso, tu amigo es el intérprete de la versión interpretada de la receta.
Lenguajes compilados
Los lenguajes compilados son convertidos directamente a código máquina que el procesador
puede ejecutar. Como resultado, suelen ser más rápidos y más eficientes al ejecutarse en
comparación con los lenguajes interpretados. También le dan al desarrollador más control sobre
aspectos del hardware, como la gestión de memoria y el uso del CPU.
Los lenguajes compilados necesitan un paso de compilación (build) - primero necesitan compilarse
manualmente. Necesitas "recompilar" el programa cada vez que necesites hacer un cambio. En
nuestro ejemplo del hummus, la traducción completa está escrita antes de que la tengas. Si el
autor original decide que quiere usar un distinto aceite de oliva, toda la receta necesitaría ser
traducida de nuevo y reenviada a ti.
Algunos ejemplos de lenguajes compilados puros son C, C++, Erlang, Haskell, Rust y Go.
Lenguajes interpretados
Estos lenguajes ejecutan línea por línea el programa y a la vez ejecutan cada comando. Aquí, si el
autor decide que quiere usar un distinto aceite de oliva, podría borrar el anterior y agregar el
nuevo. Tu amigo traductor puede decirte ese cambio a medida que sucede.
Los lenguajes interpretados alguna vez fueron significativamente más lentos que los lenguajes
compilados. Pero, con el desarrollo de la compilación justo a tiempo, esa diferencia se está
reduciendo.
Ejemplos comunes de lenguajes interpretados son PHP, Ruby, Python y JavaScript.
Una pequeña advertencia
Los lenguajes interpretados suelen ser más flexibles, y a menudo ofrecen características como
escritura dinámica y tamaño de programa más pequeño. Además, ya que los intérpretes ejecutan
el código fuente del programa ellos mismos, el código en sí es independiente de la plataforma.
La desventaja más notable es la velocidad de ejecución típica comparada con los lenguajes
compilados.
El software en general nos permite acceder a aplicaciones distintas, el objetivo es que este tenga
una función concreta y que cumpla los requisitos demandados previo a su desarrollo. Por ello este
tiene varias aplicaciones, las que veremos a continuación.
1. Tarjeta gráfica
Los errores habituales asociados a la tarjeta gráfica son la distorsión de las imágenes en la
pantalla, fallos de drivers y pantalla en negro. Generalmente, estos fallos son por
sobrecalentamiento de la tarjeta. Por lo tanto, es necesaria su correcta ventilación.
2. Memoria RAM
Los errores más frecuentes de la memoria son la ralentización del sistema, cierres o reinicios
inesperados, corrupción de archivos o, si realizaste una instalación manual, no la reconozca. Para
una detección de fallas en hardware, deberás utilizar un software especializado.
3. Placa Madre
Como componente central del ordenador, un error en la placa madre puede generar problemas en
las tarjetas gráficas, de sonido, de red, entre otras. Los problemas suelen ser en los
condensadores, pistas dañadas o cortocircuitos. En caso de fallos, generalmente, hay que acoplar
una placa PCI (Interconexión de Componentes Periféricos).
4. Disco Duro
Los fallos en el disco duro son los más delicados, debido a la información que almacena en el
computador. Su principal problema es que puede ocasionar pérdida, parcial o total, de
información. Por lo tanto, es necesario contar con copias de seguridad. El error de hardware más
común, es el deterioro de la superficie magnética.
5. CPU o Microprocesador
Si bien, los errores de CPU ya no son tan usuales, igualmente pueden existir problemas que
afectan el hardware. Los errores más habituales son el sobrecalentamiento de este y disipadores
de calor sucios.
Si tienes algún problema con alguno de los elementos, hacer una correcta detección de fallas en
hardware nos permitirá extender la vida útil de nuestro computador. En caso contrario, si alguno
de estos dispositivos internos se avería, podría llegar a significar un deterioro total del
computador.
SOLUCIONES
Una solución es una mezcla homogénea cuyos componentes, llamados soluto y solvente, no
pueden ser separados por métodos mecánicos simples (filtración, decantación y centrifugación).
Las soluciones verdaderas constan de un solvente y uno o varios solutos cuyas proporciones varían
de una solución a otra.
Si al preguntar lo anterior, alguno de estos puntos no estuvo presente durante el proceso, puede
ser un indicio de que tu proyecto tiene un alto riesgo de sufrir cambios durante su ejecución, estos
cambios van relacionados directamente a tiempo y costo. Aún si con lo anterior no quedas
convencido, estás en todo tu derecho de preguntar qué técnica de estimación utilizó para realizar
tu cotización, algunas de ellas son:
Puntos por fusión
Casos de uso
Delphi
Juicio Experto
La combinación de algunas de las anteriores
1. Riesgos asociados con los usuarios. Incluyen la falta de compromiso de la alta gerencia de
la organización y la insuficiente participación de los usuarios. Estos factores no siempre están al
alcance del líder del proyecto.
2. Factores de riesgo asociados al líder del proyecto. La incapacidad para juzgar el alcance
del sistema y con la pobre identificación de la funcionalidad requerida. Estos factores si deben ser
controlados por el lider del proyecto.
3. Factores asociados a la ejecución del proyecto, tales como personal inadecuado,
metodología de desarrollo inapropiada, fallas en la definición de roles y responsabilidades, pobre
planeación y control del proyecto. Estos factores generalmente si son considerados y controlados
por el líder del proyecto.
4.Factores de riesgo asociados al entorno, que se enfoca principalmente en los cambios en la
gerencia organizacional y que podrían afectar al proyecto.
6. Motivación débil
Cuando de equipos de trabajo se trata, la motivación es un aspecto crucial a tener en cuenta y
cuidar en los miembros de un equipo.
Cuando el personal está totalmente motivado garantiza en gran medida el éxito del proyecto, pues
las tareas a realizar se ejecutan con total plenitud, hacen “suyo” el labor y por consecuencia dan lo
mejor de sí, obteniendo un producto estable y de calidad.
Uno como líder de proyecto se puede dar cuenta fácilmente de la motivación de su equipo, si y
sólo si conoce bien la personalidad de cada uno, pues es importante aprender a leer todas las
señales, incluso el lenguaje corporal, que también habla y mucho.
Aquí, tú como cliente no tienes mucha inferencia, lo único de lo que sí te puedes asegurar es
preguntar a tu proveedor sobre los mecanismos que usarán en el equipo de trabajo asignado para
lograr la motivación suficiente, qué harán para hacer ver el proyecto lo suficientemente retador y
que valga la pena realizarlo de la mejor manera, de tal forma que puedan aprender algo nuevo o
bien aplicar conocimientos nunca practicados.
Tal vez no se dé mucho el caso, pero incluso la motivación por parte de los involucrados por parte
del cliente es lago crucial, pues son las personas más interesadas en sacar adelante el producto, en
definitiva si desde el lado del cliente no hay la motivación suficiente no se puede pedir motivación
del otro lado, recordemos que los “cuerpos no mienten” y será totalmente incongruente pedir
motivación y ánimo en el equipo de trabajo que está para apoyarnos y crear el mejor producto,
pero todo en base a lo que el cliente refiera y exprese. Pregunta a tu proveedor cuanto tiempo
tiene en la organización el equipo de trabajo que será designado en tu software, de ser posible
que te proporcione el CV de los integrantes y los puedas conocer.
7. Añadir más personal a un proyecto atrasado
Conocer quién es el equipo de trabajo asignado a tu proyecto debería de ser un requisito que todo
cliente debería de pedir a su proveedor, pues si bien no estarás todo el tiempo en contacto con
ellos, sí son las personas sobre las cuales recae directamente el desarrollo de tu proyecto, ellos
son quienes reportan el avance y hacer crecer el proyecto.
Cuando uno de los elementos tiene que salir o simplemente es necesario incluir a otros miembros,
ya sea por cuestiones de atraso o de complejidad, definitivamente le agrega una dinámica un
tanto peculiar al resto de equipo, así como al aseguramiento del éxito del proyecto.
Es recomendable que la persona que se agregue llegue a realizar actividades en particular que
puedan ser directas y no tan dependientes de las del resto del equipo, pues se debe de considerar
la curva de aprendizaje de la lógica de negocio, posterior a esta curva de aprendizaje se le puede
entonces incluir al mismo ritmo y dinamismo que ya tiene el equipo entero; Desde luego las
habilidades y conocimientos técnicos es algo que no de debe de obviar al momento de la elección
de dicha persona.
Es muy importante que a ti como cliente se te informe de este tipo de eventos que desde luego sí
llegan a pasar por “n” tipo de situaciones y que muchas de las veces el proveedor absorbe el costo
que esto representa por ser una tema ajeno al cliente pero que sí le atañe 100% a su proyecto.
Como podrás notar, son solo algunos criterios importantes que si los tomas en cuenta podrás
tener éxito en tu proyecto sin tantos tropiesos por el camino, si tienes dudas o requieres de una
asesoría completa sobre como Northware puede ayudarte como un socio de negocios que ayude a
cumplir tus expectativas, contáctanos, estaremos encantados de platicar contigo.
CAUSAS
A pesar de que las causas que afectan la calidad de software siempre están presentes, la mala
calidad no es un atributo inevitable de todo software.
El software de mala calidad siempre representa riesgos.
Las causas que afectan la calidad de software son resultado de malas prácticas que aparecen
desde la concepción del sistema.
En tal situación te hacemos una amplia recomendación para que conozcas más acerca del tema y
revises nuestro Curso de gestión de proyectos en TICS. El capacitarte en gestión de proyectos te
servirá después para comenzar la preparación para la Certificación PMP del PMI, que es la
certificación en gestión de proyectos más valiosa a nivel internacional.
Sin embargo estas pueden ser predichas y controladas.
El no contar con sistemas de software con factores de calidad como alta disponibilidad,
desempeño y la facilidad de adaptarse a cambios deriva en un sin número de problemas.
Si sospechas que tu sistema de software puede estar en riesgo por una mala calidad. Te invitamos
a que bajes el siguiente test de evaluación.
Un problema principal del software de mala calidad son los costos que se derivan después de su
implementación.
Muchas veces estos costos son subestimados y se desconoce el impacto que pueden llegar a
generar.
La analogía es un iceberg en donde en la superficie aparecen los costos visibles a corto plazo, sin
embargo los que terminar causando más daño son los ocultos.
Decimos que las actividades, recursos y personas requeridas para mantener la operación del
software una vez implementado, son designadas al proceso conocido como mantenimiento de
Software.
Las 5 principales causas que conllevan a una mala calidad de software y que serán recurrentes año
tras año, son:
Una solución es introducir a expertos del negocio al inicio del proyecto, que den orientación a
analistas y desarrolladores.
Los analistas deberán trabajar en documentar el entendimiento a través de metodologías,
diagramas y notaciones estándares que faliciten su validación con los usuarios de negocio.
Ejemplos de estos diagramas y notación son UML y BPMN.
Posteriormente se recomienda conducir revisiones con los expertos de negocio para verificar que
la documentación generada es correcta.
2. Desconocimiento de la tecnología
Estos niveles incluyen la interfaz de usuario, la lógica empresarial y la gestión de datos, y pueden
interactuar a través de middleware con sistemas de recursos empresariales y aplicaciones
heredadas escritas en lenguajes arcaicos.
Esto llega a ser la fuente principal de los defectos no funcionales que causan interrupciones
dañinas, corrupción de datos y fallas de seguridad durante la operación.
SOLUCIONES
1. Reinicia el dispositivo
Reiniciar el dispositivo es a menudo el primer paso para resolver problemas tanto de software
como de hardware. Un reinicio puede liberar la memoria y resolver problemas temporales o
bloqueos. Asegúrate de guardar cualquier trabajo en curso antes de reiniciar.
2. Comprueba las conexiones
Verifica que todos los cables estén conectados correctamente y firmemente en su lugar, tanto en
la parte trasera del dispositivo como en la fuente de alimentación y en los periféricos. Un cable
suelto o dañado puede ser la causa de muchos problemas de hardware.
3. Actualiza tus controladores y software
Si no puedes encontrar la causa del problema, busca en línea para ver si otros usuarios
han experimentado problemas similares y cómo los han solucionado. Foros, blogs y sitios
web de soporte técnico, como TechRepublic y Super User, pueden ser valiosos recursos de
información y soluciones.
6. Realiza una copia de seguridad de tus datos
Si has agotado tus opciones y aún no has resuelto el problema, es posible que necesites la ayuda
de un profesional. Lleva tu dispositivo a un técnico de reparación de confianza o comunícate con el
soporte técnico del fabricante para obtener ayuda adicional. Algunos fabricantes ofrecen soporte
en línea o por teléfono, mientras que otros pueden tener centros de servicio autorizados a los que
puedes llevar tu dispositivo.
En resumen, enfrentarse a problemas de software y hardware puede ser desafiante, pero con un
enfoque metódico y utilizando los recursos disponibles, es posible solucionar muchos de estos
problemas por sí mismo. Siempre es útil contar con un conjunto de herramientas y estrategias
para diagnosticar y resolver problemas antes de buscar la ayuda de un profesional.
Papelera de reciclaje:
La papelera de reciclaje no es más que una carpeta más, creada por Windows para almacenar los
archivos que el usuario desea eliminar del computador, solo que el usuario en ciertas veces
cambia de parecer con respecto a borrar dicha información, entonces ahí esta otra función de la
papelera de reciclaje. Es recomendable mantenerla limpia para evitar una acumulacion de archivos
que no se esten utilizando.
Los programas de tu ordenador pueden sufrir daños y en consecuencia es importante que cuentes
con una buena empresa informática, pues al momento en que se graban o ingresan registros en
las bases de datos y se consultan, los archivos de ciertas aplicaciones pueden degradarse y he allí
en el momento en que debe realizarse el mantenimiento.
Es básico llevar a cabo la limpieza de los registros inválidos, la compactación de las tablas y la
eliminación de los archivos temporales, ya que con ello se mejora notablemente la velocidad de
carga de las aplicaciones.
PROCEDIMIENTO DE CABLEADO ESTRUCTURADO
A la hora de realizar una instalación de cableado estructurado se debe de tener en cuenta los
elementos a conectar, las características y el diseño del lugar en el que se va a instalar y el
crecimiento futuro de dicha instalación, por lo que la cantidad de cables a colocar ha de satisfacer
necesidades de ampliación futuras.
Los principales elementos del cableado estructurado son
Cableado horinzontal
Se refiere al cableado o sistema de distribución que corre horizontalmete entre el techo y el suelo,
de ahí su nombre.
Se compone de dos elementos básicos: rutas y espacios horizontales que se
encargan de, además de distribuir y soportar el cableado horizontal, conectar el hardware entre la
salida del área de trabajo y el cuarto de telecomunicaciones según se define en la norma EIA/TIA
568 .
Este cableado contiene el mayor número de cables individuales de toda la instalación.
Cableado vertical
También conocido como backbone o cableado troncal, proporciona las interconexiones entre de
entrada y servicios del edificio, cuartos de equipos y cuartos de telecomunicaciones.
Este cableado es el encargad de realizar la conexión vertical entre los diferentes pisos de un
edificio, estableciendo los medios de transmisión, puntos principales e intermedios de conexión
cruzada y terminaciones mecánicas necesarias.
La norma EIA/TIA 568 prevé la necesidad de ubicar la transmisión de cableado vertical a
horizontal, en habitaciones independientes, llamadas armarios de telecomunicaciones, al menos
una por piso.
Cuarto de comunicaciones
Se conoce así a la sala en la que se alojan y centralizan todos los elementos que componen el
sistema de telecomunicaciones: los cables, accesorios de conexión, dispositivos de protección…y
demás equipos necesarios para conectar el edificio a los servicios externos.
Estos cuartos se deben diseñar de acuerdo a la norma EIA/TIA-569.
Los paneles de conexiones y los switches Ethernet establecen la conexión en todos los dispositivos
de los centros de datos y por lo general, se montan sobre el bastidor del servidor con el fin de
ejecutar las funciones correspondientes. Sin embargo, a muchas personas les incomoda tener que
instalarlos en sus salones de telecomunicaciones y les genera angustia la marañas de cables que se
van formando entre el uno y el otro. Los centros de datos que incorporan sistemas óptimos de
gestión de cables resuelven estos inconvenientes de forma efectiva. Como respuesta a estas
necesidades, hemos consolidado una serie de aclaraciones y de pasos que le permitirán
implementar un sistema de cableado estructurado organizado en su centro de datos.
El sistema de gestión vertical del cableado ha sido diseñado para responder a las demandas
actuales de enrutamiento de cables. Tanto el organizador de cables vertical de 3 pulgadas con
anillo en D como el organizador de cables vertical de plástico de 3 pulgadas de ancho con dedos de
control de radio de curvatura son los organizadores que más se utilizan entre el panel de conexión
y el switch. Éstos proporcionan el soporte de radio de curvatura apropiado para los cables.
Además, incluyen bridas de cable, garantizando un sistema de cableado organizado.
Puede configurar el enrutador para que cree VLAN dinámicamente cuando un cliente accede a una
interfaz y solicita un ID de VLAN que aún no existe. Cuando un cliente accede a una interfaz de
VLAN, el enrutador crea una instancia de un perfil dinámico de VLAN que haya asociado con la
interfaz. Mediante la configuración del perfil dinámico, el enrutador extrae información del cliente
del paquete entrante (por ejemplo, los valores de interfaz y unidad), guarda esta información en la
tabla de enrutamiento y crea una VLAN o un ID de VLAN apilado para el cliente desde un rango de
ID de VLAN que configure para la interfaz.
La configuración dinámica de VLAN o VLAN apiladas requiere los siguientes pasos generales:
1. Configure un perfil dinámico para la creación de VLAN dinámica o Apilada dinámica.
2. Asocie la VLAN o el perfil dinámico de VLAN apilado con la interfaz.
3. Especifique el tipo de paquete Ethernet que acepta el perfil dinámico de VLAN.
4. Defina los rangos de VLAN para que los use el perfil dinámico al crear identificadores de
VLAN.
Para obtener procedimientos sobre cómo configurar VLAN dinámicas y VLAN apiladas dinámicas
para el acceso del cliente, consulte la biblioteca de servicios y administración de suscriptores de
Junos OS .
Este artículo presentará el procedimiento utilizado para agregar una dirección IP a una VLAN en un
conmutador que ejecuta Campus NOS. Para agregar una dirección IP, el enrutamiento de VLAN
debe estar habilitado en la VLAN. Si no se ha habilitado el enrutamiento de VLAN, consulte el
siguiente artículo para obtener más información:
Cómo configurar el enrutamiento VLAN en un conmutador Lenovo que ejecuta Campus
NOS.
Procedimiento
(PILA-1)>ena
(PILA-1)#
(PILA-1)#configure
(PILA-1)(Configuración)#
Hay muchas razones por las cuales se puede necesitar cambiar y establecer una dirección IP
estática para su dispositivo IP, como un switch gestionado, router wirelesso unpunto de
acceso exterior. Una de las razones es un escenario de instalación que no tiene una red activa con
servicios DHCP. Otras razones por las que puede necesitar establecer una IP estática son porque se
utiliza un servidor web dedicado, un servidor de host, una VPN o servicios de VoIP.
Configurar direcciones IP estáticas puede ayudar a evitar conflictos de red que podrían hacer que
ciertos dispositivos dejaran de funcionar correctamente. Sin embargo, en la mayoría de los
escenarios de instalación, los usuarios utilizarán una red normal y no necesitarán utilizar una IP
estática. La configuración de una dirección IP estática es una función de red avanzada, y se
necesita un conocimiento básico y fundamental de TCP/IP.
En general, una dirección estática se usa para los dispositivos fuera del rango de su grupo DHCP,
que en la mayoría de las redes domésticas es su router. Como referencia, el rango del grupo DHCP
para los productos de TRENDnet es normalmente (pero no siempre) 192.168.10.101 a 199.
3. Seleccione Propiedades
6. Guardar la configuración
Haga clic en el botón OK en la ventana "Propiedades del protocolo de Internet versión 4
(TCP/IPv4)", y también en el botón OK en la ventana "Propiedades de Ethernet".
Nota: Los botones de OK deben ser pulsados en ambas instancias o sus ajustes no se guardarán.
7. Revertir al DHCP
Para revertir su ordenador al DHCP, por favor vuelva a seguir los pasos 1-4. Cuando llegue a la
ventana "Propiedades del Protocolo de Internet versión 4 (TCP/IPv4)", haga clic en “Obtain an IP
address automatically” (Obtener una dirección IP automáticamente). Esto le permitirá a su PC
recibir una dirección IP aleatoria en su red.
Glosario
Sistema operativo
El sistema operativo (a menudo abreviado como OS, Operating System en ingles) es el software
que su ordenador o dispositivo móvil utiliza para realizar funciones básicas. Microsoft Windows,
Apple Mac OS y Linux son los sistemas operativos más populares para ordenadores y portátiles,
con Android e iOS para los dispositivos móviles.
Navegador
Un navegador (abreviatura de navegador web) es una aplicación de software que permite acceder
a Internet. Algunos de los navegadores más populares son Chrome, Safari, Edge, Internet Explorer
y Firefox.
Adaptadores de red
Un adaptador de red permite a un dispositivo comunicarse y conectarse a una red de área local
(LAN), a Internet o a otros ordenadores. Los adaptadores de red pueden
ser cableados o wirelessy pueden estar visibles u ocultos a simple vista.
Dirección IP
Una dirección IP es un identificador único para los dispositivos que acceden a Internet o los
dispositivos de una red de área local. Utiliza una cadena de números y/o letras con puntos o dos
puntos (:). Para identificar su dirección IP, escriba "cuál es mi IP" en un motor de búsqueda, como
Google o Bing. También puede visitar whatismyipaddress.com o whatismyip.com.
Dirección IP dinámica
Una dirección IP dinámica es una dirección IP que puede cambiar con el tiempo. Su dirección IP
puede cambiar cada vez que se conecte. La mayoría de las direcciones IP asignadas por su
proveedor de servicios de Internet serán direcciones IP dinámicas.
Dirección IP estática
Una dirección IP estática (también denominada dirección IP manual o configuración IP estática) es
una dirección IP que no cambia con el tiempo. Su dirección IP sigue siendo la misma (o estática)
cada vez que se conecta (desde el mismo lugar). Su dirección IP puede cambiar si se conecta a una
red diferente en una ubicación distinta.
REDES
Las redes cuentan con procesos de emisión y recepción de mensajes, así como de una serie de
códigos y estándares que garantizan su comprensión por los computadores conectados a la red (y
no por cualquier otro). A dichos estándares de comunicación se los conoce como protocolos, y el
más común de ellos actualmente es el TCP/IP.
La construcción de una red permite administrar una comunicación interna, compartir la ejecución
de programas o el acceso a Internet, e incluso la administración de periféricos como impresoras,
escáneres, etc. Este tipo de sistemas de enjambre sostienen actualmente muchos de los procesos
de administración y procesamiento de información en nuestros días, como son las redes de
telecomunicaciones, la Internet o las diversas Intranet empresariales o de organizaciones varias.
La aparición de las redes revolucionó el modo de comprender la informática y abrió un nuevo
campo dentro de esta disciplina para atender las necesidades de mejoría, seguridad y
operatividad de la comunicación informática.
TIPOS DE REDES
Las redes WAN tienen mayor tamaño y alcance, como las redes globales o Internet.
Las redes también se pueden clasificar según el método físico que emplean para la conexión, de la
siguiente manera:
Medios guiados. Redes que enlazan las máquinas mediante sistemas físicos de
cables: par trenzado, coaxiales o fibra óptica. Tiene la ventaja de ser más veloz, al no tener
tanto ruido, pero ser menos cómodas y prácticas.
Redes de medios no guiados. Redes que establecen la conexión mediante
sistemas dispersos y de alcance de área: ondas de radio, señal infrarroja o microondas,
como los sistemas satelitales y el Wifi. Son un poco más lentas pero mucho más cómodas
y prácticas.
TOPOLOGIA DE REDES
A continuación señalamos todos los pasos a seguir para realizar este procedimiento, que es mucho
más sencillo de lo que podría parecer. Obviamente, es importante seguir todos ellos en estricto
orden para que la configuración de la red LAN se realice de manera correcta.
Capas del medio: la capa de red, la capa de enlace de datos y la capa física.
Capa de aplicación | 7
La capa de aplicación, también conocida como la «capa de escritorio», se encarga de comunicarse
con las aplicaciones, tanto las basadas en un host como las dirigidas al usuario. Esta es la capa más
cercana al usuario.
Habilita los servicios de aplicación y permite que los usuarios reciban información. Además,
especifica los protocolos de comunicación compartidos y los métodos de interfaz que
los hosts utilizan en las redes de comunicación.
Esta capa del modelo OSI se comunica e interactúa con: la capa de presentación.
El ataque contra la seguridad más común en la capa de aplicación es: un exploit.
Capa de presentación | 6
La capa de presentación, también conocida como la «capa de sintaxis», se encarga de
formatear y traducir los datos al formato especificado por la capa de aplicación. Es decir, actúa
como un traductor de datos de la red para garantizar que la capa de aplicación del sistema
receptor es capaz de leer la información enviada por la capa de aplicación del sistema emisor.
Esta capa del modelo OSI se comunica e interactúa con: la capa de aplicación y la capa de sesión.
El ataque contra la seguridad más común en la capa de presentación es: un ataque de phishing.
Capa de sesión | 5
La capa de sesión se encarga de abrir, gestionar y cerrar sesiones entre procesos de aplicación
del usuario final. Establece, gestiona y finaliza las conexiones entre aplicaciones locales y remotas.
Esta capa del host crea la configuración, controla la conexión, termina el
desacoplamiento entre ordenadores, y comprueba y recupera las sesiones.
Esta capa del modelo OSI se comunica e interactúa con: la capa de presentación y la capa
de transporte.
El ataque contra la seguridad más común en la capa de sesión es: un ataque de hijacking.
Capa de transporte | 4
La capa de transporte se encarga de proporcionar los medios para transferir secuencias de datos
de longitud variable desde un host de origen a otro de destino. Los protocolos en esta capa
del host proporcionan servicios de comunicación de extremo a extremo para aplicaciones.
Admite dos modos, con conexión y sin conexión, para proporcionar una transmisión fiable entre
puntos dentro de una red.
Esta capa del modelo OSI se comunica e interactúa con: la capa de sesión y la capa de red.
El ataque contra la seguridad más común en la capa de transporte es: ataque
de reconnaissance o reconocimiento y ataque DoS.
Capa de red | 3
La capa de red se encarga de proporcionar medios para transferir paquetes entre nodos
conectados, a través de una o varias redes. Estructura y gestiona redes multinodo, usando rúters
y switches para gestionar su tráfico.
Esta capa del modelo OSI se comunica e interactúa con: la capa de transporte y la capa de enlace
de datos.
El ataque contra la seguridad más común en la capa de red es : ataque de intermediario.
Capa física | 1
La capa física se encarga de transmitir y recibir datos no estructurados sin procesar entre
dispositivos y medios de transmisión físicos. Se puede implementar mediante diversas tecnologías
de hardware.
Esta capa del modelo OSI se comunica e interactúa con: la capa de enlace de datos. Traduce
peticiones de comunicación lógicas desde la capa de enlace de datos hacia las operaciones
específicas de hardware para transmitir y recibir señales.
El ataque contra la seguridad más común en la capa física es: un ataque de interceptación.
HISTORIA Y DESARROLLO DE LAS REDES DE
INFORMACIÓN
Se puede decir que las redes informáticas tal y como las conocemos hoy en día empezaron con el
desarrollo de ARPANET a finales de la década de los 60’s. Algo con lo que ya se había teorizado
desde muchos años antes, pero que culminó en 1969 con la primera transferencia de datos entre
dos ordenadores situados a más de 600km de distancia.
Antes de ese momento, existían redes de proveedores de ordenadores diseñadas principalmente
para conectar terminales o estaciones de trabajo remotas a un ordenador central.
Vamos a ver algunas de las fechas más importantes en la historia y evolución de las redes
informáticas. Se trata de hitos tecnológicos y momentos muy importantes que sirven para
entender su actual relevancia y el potencial de cambio que tendrán en el futuro las redes.
1961. La idea de ARPANET, una de las primeras redes de ordenadores, fue propuesta por
Leonard Kleinrock en un artículo titulado: “Information Flow in Large Communication
Nets.”
1969. Internet nació oficialmente, con la primera transmisión de datos enviada entre
UCLA (Universidad de California) y el SRI (Instituto de Investigación de Standford)
1973. La primera conexión de red internacional, llamada SATNET, fue implementada en
1973 por ARPA.
1978. Bob Kahn inventó el protocolo TCP / IP para redes.
1981. El protocolo de Internet versión 4, o IPv4, se definió oficialmente en 1981. IPv4 fue
la primera versión importante del protocolo de Internet.
1981. BITNET se creó en 1981 como una red entre los sistemas de IBM en los Estados
Unidos.
1983. ARPANET finalizó la transición al uso de TCP / IP en 1983.
1984. Se funda CISCO, que se convertiría en una de las mayores empresas de instalación y
mantenimiento de redes.
1988. La tecnología de red WaveLAN, precursora oficial de Wi-Fi, fue introducida al
mercado por AT & T, Lucent y NCR en 1988.
1988. Los detalles sobre la tecnología de cortafuegos de red se publicaron en un artículo
que analizaba el primer cortafuegos, llamado cortafuegos de filtro de paquetes.
1990. Kalpana, una empresa de hardware de red estadounidense, desarrolló e introdujo el
primer conmutador de red en 1990.
1996. IPv6 se introdujo en 1996 como una mejora sobre IPv4, incluida una gama más
amplia de direcciones IP, enrutamiento mejorado y cifrado integrado.
1999. El estándar 802.11a para Wi-Fi se hizo oficial en 1999, diseñado para usar la banda
de 5 GHz y proporcionar velocidades de transmisión de hasta 25 Mbps.
2003. El protocolo de encriptación WPA2 se introduce como una mejora y reemplazo de
WPA.
La importancia de Cisco
Estas son algunas de las fechas más importantes en la historia y evolución de las redes informáticas.
Una historia de la que Cisco forma parte como una de las empresas más grandes e importantes.
Funciones:
Habilidades:
Formación:
Salario:
Junior: $30,000
Medio: $40,000
Senior: $70,000
CONCLUCIONES
El panel de conexiones y el switch facilitan la expansión de los puntos de acceso trazables; y por lo
tanto, la adecuada instalación de los mismos juega un papel decisivo en la gestión de todo el
cableado. Es necesatio utilizar una línea de herramientas de gestión de cables completa que vaya
desde el panel de conexiones hasta el switch para proteger y soportar los cables.
El modelo OSI se puede ver como un lenguaje universal para la conexión de las redes de equipos.
Se basa en el concepto de dividir un sistema de comunicación en siete capas abstractas, cada una
apilada sobre la anterior.