Está en la página 1de 42

TEMA

01: Cuerpo General


Administrativo de la
Administración del Estado

Informática básica: Conceptos


fundamentales sobre el Hardware y el
Software.
Sistemas de almacenamiento de datos.
Sistemas operativos.
Nociones básicas de seguridad
Informática.

Bloque VI. Ofimática.

Página 1 de 42
ÍNDICE:

I. INFORMÁTICA BÁSICA: CONCEPTOS FUNDAMENTALES SOBRE EL HARDWARE


Y EL SOFTWARE. .................................................................................................. 3
A. Software....................................................................................................... 11
B. Hardware..................................................................................................... 12
II. SISTEMAS DE ALMACENAMIENTO DE DATOS. ................................................. 18
A. Tipos de memorias. (Almacenamiento primario): ................................... 18
B. Tipologías. (Almacenamiento secundario): ............................................. 19
III. SISTEMAS OPERATIVOS. ................................................................................... 24
IV. NOCIONES BÁSICAS DE SEGURIDAD INFORMÁTICA. .................................... 26
A. Introducción. ............................................................................................... 26
B. Términos relacionados con la seguridad informática. ............................ 26
C. Objetivos...................................................................................................... 27
D. Análisis de riesgos. ...................................................................................... 27
E. Puesta en marcha de una política de seguridad. .................................. 28
F. Las amenazas. ............................................................................................ 29
G. Funciones de la seguridad......................................................................... 30
H. Métodos criptográficos. ............................................................................. 31
I. Firma digital. ................................................................................................ 33
J. Certificados digitales. ................................................................................. 35
K. Cortafuegos. ............................................................................................... 37
L. Sistema de detección de intrusos. ............................................................ 38
M. Antivirus. ....................................................................................................... 39
N. Las mayores amenazas para la seguridad. ............................................. 40

Página 2 de 42
1. INFORMÁTICA BÁSICA: CONCEPTOS FUNDAMENTALES
SOBRE EL HARDWARE Y EL SOFTWARE.

En la actualidad no se puede pensar en casi ninguna actividad en la cual no


intervengan de alguna manera los procesos de cómputo. Las computadoras
han invadido la mayoría de las labores del ser humano.

El mundo está cambiando y usted deberá aprender todas esas, antes


complicadas, hoy comunes tecnologías modernas que le permitirán conseguir
un empleo mejor retribuido y quizás, en poco tiempo, realizar trabajos desde la
comodidad de su hogar (teletrabajo), reduciendo el tráfico en las calles y por
ende la contaminación de las grandes ciudades. La mayoría de los gobiernos
de los países en desarrollo han tomado muy en serio los programas de
educación para crear en sus poblaciones una "cultura informática".

Definitivamente, las computadoras están cambiando nuestras vidas. Ahora


hemos de aprenderla para no quedar inmersos en una nueva forma de
analfabetismo. Lo anterior contribuye a la creación de nuevos esquemas
sociales que incluyen: novedosas maneras de comercialización aprovechando
las facilidades para comunicarse con todo el mundo a través de Internet; la
necesidad de crear leyes adecuadas a la realidad cibernética actual y, sobre
todo; la concepción de una nueva manera de relacionarse con nuestros
semejantes, que contemple una serie de normas éticas que regulen la
convivencia pacífica y cordial entre los millones de personas que tienen que
utilizar estas avanzadas tecnologías para realizar su trabajo, estudio, descanso
y esparcimiento diarios.

Hoy día todos los habitantes del mundo somos dependientes directos o
indirectos del uso de las computadoras, como en oficinas bancarias, grandes y
medianos comercios, centros de enseñanza, oficinas de ventas y reservaciones
para viajes, clínicas médicas u hospitales, fábricas y almacenes industriales,
organismos de gobierno y oficinas administrativas, laboratorios, y centros de
investigación.

Estas máquinas maravillosas inventadas por el hombre, tal como ahora las
concebimos, son el resultado de una secuencia de eventos que el transcurso
de esta investigación conoceremos.

Para saber más acerca de estos eventos en esta investigación mostraremos las
diferentes generaciones por las que ha pasado el mundo de la computación,
esta larga historia es necesario mencionar las épocas y los personajes gracias a
cuyos valiosos aportes a través del tiempo, hicieron posible la gestación de la
hoy llamada Era de la Computación, la cual sin lugar a dudas es el resultado
de un largo proceso evolutivo que jamás cesará.

Primera generación. (1951 - 1958):

Las computadoras de la primera Generación emplearon bulbos para


procesar información. Los operadores ingresaban los datos y
programas en código especial por medio de tarjetas perforadas.

Página 3 de 42
El almacenamiento interno se lograba con un tambor que giraba
rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba
marcas magnéticas. Esas computadoras de bulbos eran mucho más
grandes y generaban más calor que los modelos contemporáneos.

Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era


Generación formando una compañía privada y construyendo UNIVAC I,
que el Comité del censo utilizó para evaluar el censo de 1950. La IBM
tenía el monopolio de los equipos de procesamiento de datos a base de
tarjetas perforadas y estaba teniendo un gran auge en productos como
rebanadores de carne, básculas para comestibles, relojes y otros
artículos; sin embargo, no había logrado el contrato para el Censo de
1950.

Comenzó entonces a construir computadoras electrónicas y su primera


entrada fue con la IBM 701 en 1953. Después de un lento pero excitante
comienzo la IBM 701 se convirtió en un producto comercialmente viable.
Sin embargo, en 1954 fue introducido el modelo IBM 650, el cual es la
razón por la que IBM disfruta hoy de una gran parte del mercado de las
computadoras. La administración de la IBM asumió un gran riesgo y
estimó una venta de 50 computadoras.

Este número era mayor que la cantidad de computadoras instaladas en


esa época en EE.UU. De hecho, la IBM instaló 1000 computadoras. El resto
es historia. Aunque caras y de uso limitado las computadoras fueron
aceptadas rápidamente por las Compañías privadas y de Gobierno. A la
mitad de los años 50 IBM y Remington Rand se consolidaban como líderes
en la fabricación de computadoras.

Segunda generación. (1959 - 1964):

Transistor compatibilidad limitada:

El invento del transistor hizo posible una nueva Generación de


computadoras, más rápidas, más pequeñas y con menores
necesidades de ventilación. Sin embargo, el costo seguía siendo una
porción significativa del presupuesto de una Compañía.

Las computadoras de la segunda generación también utilizaban


redes de núcleos magnéticos en lugar de tambores giratorios para el
almacenamiento primario. Estos núcleos contenían pequeños anillos
de material magnético, enlazados entre sí, en los cuales podían
almacenarse datos e instrucciones.

Los programas de computadoras también mejoraron. El COBOL


(Common Busines Oriented Languaje) desarrollado durante la 1era
generación estaba ya disponible comercialmente, este representa
uno de os más grandes avances en cuanto a portabilidad de
programas entre diferentes computadoras; es decir, es uno de los
primeros programas que se pueden ejecutar en diversos equipos de
cómputo después de un sencillo procesamiento de compilación.

Página 4 de 42
Los programas escritos para una computadora podían transferirse a
otra con un mínimo esfuerzo. Grace Murria Hooper (1906-1992), quien
en 1952 había inventado el primer compilador fue una de las
principales figuras de CODASYL (Comité on Data Systems Languages),
que se encargó de desarrollar el proyecto COBOL.

El escribir un programa ya no requería entender plenamente el


hardware de la computación. Las computadoras de la 2da
Generación eran sustancialmente más pequeñas y rápidas que las de
bulbos, y se usaban para nuevas aplicaciones, como en los sistemas
para reservación en líneas aéreas, control de tráfico aéreo y
simulaciones para uso general. Las empresas comenzaron a aplicar
las computadoras a tareas de almacenamiento de registros, como
manejo de inventarios, nómina y contabilidad.

La marina de EE.UU. utilizó las computadoras de la Segunda


Generación para crear el primer simulador de vuelo. (Whirlwind I).
HoneyWell se colocó como el primer competidor durante la segunda
generación de computadoras. Burroughs, Univac, NCR, CDC,
HoneyWell, los más grandes competidores de IBM durante los 60s se
conocieron como el grupo BUNCH.

Algunas de las computadoras que se construyeron ya con transistores


fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las
IBM 7090 y 7094, NCR 315, las RCA 501 y 601, Control Data Corporation
con su conocido modelo CDC16O4, y muchas otras, que constituían
un mercado de gran competencia, en rápido crecimiento. En esta
generación se construyen las supercomputadoras Remington Rand
UNIVAC LARC, e IBM Stretch (1961).

Tercera generación. (1964 - 1971):

Circuitos Integrados, Compatibilidad con Equipo Mayor,


Multiprogramación, Minicomputadora:

Las computadoras de la tercera generación emergieron con el


desarrollo de los circuitos integrados (pastillas de silicio) en las cuales
se colocan miles de componentes electrónicos, en una integración
en miniatura.

Las computadoras nuevamente se hicieron más pequeñas, más


rápidas, desprendían menos calor y eran energéticamente más
eficientes.

El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el


ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así
como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de
Fairchild Semicon ductors, acerca de los circuitos integrados, dieron
origen a la tercera generación de computadoras.

Antes del advenimiento de los circuitos integrados, las computadoras


estaban diseñadas para aplicaciones matemáticas o de negocios,
pero no para las dos cosas.

Página 5 de 42
Los circuitos integrados permitieron a los fabricantes de
computadoras incrementar la flexibilidad de los programas, y
estandarizar sus modelos.

La IBM 360 una de las primeras computadoras comerciales que usó


circuitos integrados, podía realizar tanto análisis numéricos como
administración o procesamiento de archivos.

IBM marca el inicio de esta generación, cuando el 7 de abril de 1964


presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic
Technology). Esta máquina causó tal impacto en el mundo de la
computación que se fabricaron más de 30000, al grado que IBM llegó
a conocerse como sinónimo de computación.

También en ese año, Control Data Corporation presenta la


supercomputadora CDC 6600, que se consideró como la más
poderosa de las computadoras de la época, ya que tenía la
capacidad de ejecutar unos 3 000 000 de instrucciones por segundo
(mips).

Se empiezan a utilizar los medios magnéticos de almacenamiento,


como cintas magnéticas de 9 canales, enormes discos rígidos, etc.
Algunos sistemas todavía usan las tarjetas perforadas para la entrada
de datos, pero las lectoras de tarjetas ya alcanzan velocidades
respetables.

Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor
tamaño y podían todavía correr sus programas actuales. Las
computadoras trabajaban a tal velocidad que proporcionaban la
capacidad de correr más de un programa de manera simultánea
(multiprogramación). Por ejemplo, la computadora podía estar
calculando la nómina y aceptando pedidos al mismo tiempo.
Minicomputadoras,

Con la introducción del modelo 360 IBM acaparó el 70% del


mercado, para evitar competir directamente con IBM la empresa
Digital Equipment Corporation DEC redirigió sus esfuerzos hacia
computadoras pequeñas.

Mucho menos costosas de comprar y de operar que las


computadoras grandes, las minicomputadoras se desarrollaron
durante la segunda generación, pero alcanzaron sumador auge
entre 1960 y 70.

Cuarta generación. (1971 - 1981):

Microprocesador, Chips de memoria, Microminiaturización:

Dos mejoras en la tecnología de las computadoras marcan el inicio


de la cuarta generación: el reemplazo de las memorias con núcleos
magnéticos, por las de chips de silicio y la colocación de muchos más
componentes en un Chip: producto de la microminiaturización de los
circuitos electrónicos.

Página 6 de 42
El tamaño reducido del microprocesador y de chips hizo posible la
creación de las computadoras personales (PC).

En 1971, Intel Corporation, que era una pequeña compañía


fabricante de semiconductores ubicada en Silicon Valley, presenta el
primer microprocesador o Chip de 4 bits, que en un espacio de
aproximadamente 4 x 5 mm contenía 2250 transistores.

Este primer microprocesador que se muestra en la figura 1.14, fue


bautizado como el 4004.

Silicon Valley (Valle del Silicio) era una región agrícola al sur de la
bahía de San Francisco, que, por su gran producción de silicio, a
partir de 1960 se convierte en una zona totalmente industrializada
donde se asienta una gran cantidad de empresas fabricantes de
semiconductores y microprocesadores.

Actualmente es conocida en todo el mundo como la región más


importante para las industrias relativas a la computación: creación de
programas y fabricación de componentes.

Actualmente ha surgido una enorme cantidad de fabricantes de


microcomputadoras o computadoras personales, que utilizando
diferentes estructuras o arquitecturas se pelean literalmente por el
mercado de la computación, el cual ha llegado a crecer tanto que
es uno de los más grandes a nivel mundial; sobre todo, a partir de
1990, cuando se logran sorprendentes avances en Internet.

Esta generación de computadoras se caracterizó por grandes


avances tecnológicos realizados en un tiempo muy corto.

En 1977 aparecen las primeras microcomputadoras, entre las cuales,


las más famosas fueron las fabricadas por Apple Computer, Radio
Shack y Commodore Busíness Machines. IBM se integra al mercado
de las microcomputadoras con su Personal Computer (figura 1.15), de
donde les ha quedado como sinónimo el nombre de PC, y lo más
importante; se incluye un sistema operativo estandarizado, el MS- DOS
(MicroSoft Disk Operating System).

Las principales tecnologías que dominan este mercado son:

IBM y sus compatibles llamadas clones, fabricadas por infinidad de


compañías con base en los procesadores 8088, 8086, 80286, 80386,
80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en
segundo término Apple Computer, con sus Macintosh y las Power
Macintosh, que tienen gran capacidad de generación de gráficos y
sonidos gracias a sus poderosos procesadores Motorola serie 68000 y
PowerPC, respectivamente.

Este último microprocesador ha sido fabricado utilizando la


tecnología RISC (Reduced Instruction Set Computing), por Apple
Computer Inc., Motorola Inc. e IBM Corporation, conjuntamente.

Página 7 de 42
Los sistemas operativos han alcanzado un notable desarrollo, sobre
todo por la posibilidad de generar gráficos a grandes velocidades, lo
cual permite utilizar las interfaces gráficas de usuario (Graphic User
Interface, GUI), que son pantallas con ventanas, iconos (figuras) y
menús desplegables que facilitan las tareas de comunicación entre el
usuario y la computadora, tales como la selección de comandos del
sistema operativo para realizar operaciones de copiado o formato
con una simple pulsación de cualquier botón del ratón (mouse) sobre
uno de los iconos o menús.

Quinta generación y la inteligencia artificial. (1982 - 1989):

Cada vez se hace más difícil la identificación de las generaciones de


computadoras, porque los grandes avances y nuevos descubrimientos
ya no nos sorprenden como sucedió a mediados del siglo XX.

Hay quienes consideran que la cuarta y quinta generación han


terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-
1990 la quinta. Ellos consideran que la sexta generación está en
desarrollo desde 1990 hasta la fecha.

Siguiendo la pista a los acontecimientos tecnológicos en materia de


computación e informática, podemos puntualizar algunas fechas y
características de lo que podría ser la quinta generación de
computadoras.

Con base en los grandes acontecimientos tecnológicos en materia de


microelectrónica y computación (software) como CADI CAM, CAE,
CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría
del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc.,
a de la década de los años ochenta se establecieron las bases de lo
que se puede conocer como quinta generación de computadoras.

Hay que mencionar dos grandes avances tecnológicos, que sirvan


como parámetro para el inicio de dicha generación: la creación en
1982 de la primera supercomputadora con capacidad de proceso
paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde
1968 con supercomputadoras, y que funda en 1976 la Cray Research
Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta
generación", que según se estableció en el acuerdo con seis de las más
grandes empresas japonesas de computación, debería terminar en
1992.

El proceso paralelo es aquél que se lleva a cabo en computadoras que


tienen la capacidad de trabajar simultáneamente con varios
microprocesadores.

Aunque en teoría el trabajo con varios microprocesadores debería ser


mucho más rápido, es necesario llevar a cabo una programación
especial que permita asignar diferentes tareas de un mismo proceso a
los diversos microprocesadores que intervienen.

Página 8 de 42
También se debe adecuar la memoria para que pueda atender los
requerimientos de los procesadores al mismo tiempo. Para solucionar
este problema se tuvieron que diseñar módulos de memoria compartida
capaces de asignar áreas de caché para cada procesador.

Según este proyecto, al que se sumaron los países tecnológicamente


más avanzados para no quedar atrás de Japón, la característica
principal sería la aplicación de la inteligencia artificial (Al, Artificial
Intelligence). Las computadoras de esta generación contienen una gran
cantidad de microprocesadores trabajando en paralelo y pueden
reconocer voz e imágenes. También tienen la capacidad de
comunicarse con un lenguaje natural e irán adquiriendo la habilidad
para tomar decisiones con base en procesos de aprendizaje
fundamentados en sistemas expertos e inteligencia artificial.

El almacenamiento de información se realiza en dispositivos magneto


ópticos con capacidades de decenas de Gigabytes; se establece el
DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el
almacenamiento de video y sonido; la capacidad de almacenamiento
de datos crece de manera exponencial posibilitando guardar más
información en una de estas unidades, que toda la que había en la
Biblioteca de Alejandría. Los componentes de los microprocesadores
actuales utilizan tecnologías de alta y ultra integración, denominadas
VLSI (Very Large Sca/e Integration) y ULSI (Ultra Large Scale Integration).

Sin embargo, independientemente de estos "milagros" de la tecnología


moderna, no se distingue la brecha donde finaliza la quinta y comienza
la sexta generación. Personalmente, no hemos visto la realización cabal
de lo expuesto en el proyecto japonés debido al fracaso, quizás
momentáneo, de la inteligencia artificial.

El único pronóstico que se ha venido realizando sin interrupciones en el


transcurso de esta generación, es la conectividad entre computadoras,
que, a partir de 1994, con el advenimiento de la red Internet y del World
Wide Web, ha adquirido una importancia vital en las grandes, medianas
y pequeñas empresas y, entre los usuarios particulares de
computadoras.

El propósito de la Inteligencia Artificial es equipar a las Computadoras


con "Inteligencia Humana" y con la capacidad de razonar para
encontrar soluciones.

Otro factor fundamental del diseño, la capacidad de la Computadora


para reconocer patrones y secuencias de procesamiento que haya
encontrado previamente, (programación Heurística) que permita a la
Computadora recordar resultados previos e incluirlos en el
procesamiento, en esencia, la Computadora aprenderá a partir de sus
propias experiencias usará sus Datos originales para obtener la respuesta
por medio del razonamiento y conservará esos resultados para
posteriores tareas de procesamiento y toma de decisiones.

Página 9 de 42
Sexta generación. (1990 hasta la fecha):

Como supuestamente la sexta generación de computadoras está en


marcha desde principios de los años noventa, debemos por lo menos,
esbozar las características que deben tener las computadoras de esta
generación. También se mencionan algunos de los avances
tecnológicos de la última década del siglo XX y lo que se espera lograr
en el siglo XXI.

Las computadoras de esta generación cuentan con arquitecturas


combinadas Paralelo / Vectorial, con cientos de microprocesadores
vectoriales trabajando al mismo tiempo; se han creado computadoras
capaces de realizar más de un millón de millones de operaciones
aritméticas de punto flotante por segundo (teraflops); las redes de
área mundial (Wide Area Network, WAN) seguirán creciendo
desorbitadamente utilizando medios de comunicación a través de
fibras ópticas y satélites, con anchos de banda impresionantes.

Las tecnologías de esta generación ya han sido desarrolla das o están


en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida;
teoría del caos, sistemas difusos, holografía, transistores ópticos,
etcétera.

Concepto de informática:

El concepto de informática se refiere a una técnica para el tratamiento


automático de la información, es decir, a una técnica que permite
transformaciones de la información por medio de máquinas.

Una computadora, también denominada como ordenador o computador,


es un aparato que recibe y procesa datos para convertirlos en información
útil. Una computadora es una colección de circuitos integrados y otros
componentes relacionados que puede ejecutar con exactitud,
sorprendente rapidez, y de acuerdo a lo indicado por un usuario o
automáticamente por otro programa, una múltiple variedad de secuencias
o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas
en función a una amplia gama de aplicaciones prácticas y precisamente
determinadas, proceso al cual se le ha denominado con el nombre de
programación y al que lo realiza se le llama programador.

La computadora u ordenador, además de la rutina o programa informático,


necesita de datos específicos (a estos datos, en conjunto, se les conoce
como "Input" en inglés) que deben ser suministrados, y que son requeridos al
momento de la ejecución, para proporcionar el producto final del
procesamiento de datos, que recibe el nombre de "output".

La información puede ser entonces utilizada, reinterpretada, copiada,


transferida, o retransmitida a otra(s) persona(s), computadora(s) o
componente(s) electrónico(s) local o remotamente usando diferentes
sistemas de telecomunicación, pudiendo ser grabada, salvada o
almacenada en algún tipo de dispositivo o unidad de almacenamiento

Página 10 de 42
La característica principal que la distingue de otros dispositivos similares,
como una calculadora no programable, es que puede realizar tareas muy
diversas cargando distintos programas en la memoria para que el
microprocesador los ejecute.

A. Software.

Se denomina software, programa, equipamiento lógico o soporte lógico a


todos los componentes intangibles de una computadora, es decir, al
conjunto de programas y procedimientos necesarios para hacer posible la
realización de una tarea específica, en contraposición a los componentes
físicos del sistema (hardware). Esto incluye aplicaciones informáticas tales
como un procesador de textos, que permite al usuario realizar una tarea, y
software de sistema como un sistema operativo, que permite al resto de
programas funcionar adecuadamente, facilitando la interacción con los
componentes físicos y el resto de aplicaciones.

Aplicaciones:

En informática, una aplicación es un programa informático diseñado


para facilitar al usuario la realización de un determinado tipo de trabajo.
Posee ciertas características que lo diferencian de un sistema operativo
(que hace funcionar al ordenador), de una utilidad (informática) (que
realiza tareas de mantenimiento o de uso general) y de un lenguaje (con
el cual se crean los programas informáticos).

Los programas de aplicación se dividen en muchos tipos, entre los cuales


se pueden nombrar:

• De procesadores de texto: OpenOffice, Lotus Word Pro, Microsoft


Word, Corel Word-Perfect, OpenOffice.org Writer.
• De hojas electrónicas o de cálculo: Quattro Pro, Lotus 1-2-3,
OpenOffice.org Calc, Microsoft Excel.
• De manejo de Base de datos: MySQL, Microsoft Access, Visual
FoxPro, dBase.

• Comunicación de datos: Internet Explorer, Netscape Navigator,


Kazaa, MSN Messenger.

Página 11 de 42
• Multimedia: Windows Media Player, Winamp, RealPlayer.

• De presentaciones: Microsoft Power Point, OpenOffice.org


Impress, Corel Presentations.

• De diseño gráfico: Corel Draw, Corel PHOTO-PAINT, AutoCAD.

• De edición: Adobe Acrobat.

• De cálculo: Maple.

• De finanzas: Imprimir Cheques, Microsoft Money.

• De correo electrónico: Kmail, Outlook Express, Mozilla Thunderbird.

• De compresión de archivos: WinZip, WinRar.

Algunas compañías como Microsoft, Lotus, Sun Microsystems o Corel,


entre otras, agrupan varios programas de distinta naturaleza para que
formen un paquete (llamados suites o suite ofimática) que sean
satisfactorios para las necesidades más apremiantes del usuario.

B. Hardware.

Podemos definir como hardware, al conjunto físico de elementos integrantes


del ordenador, a sus componentes, la parte material. Corresponde a todas
las partes físicas y tangibles de una computadora: sus componentes
eléctricos, electrónicos, electromecánicos y mecánicos; sus cables,
gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico
involucrado.

Las fases que se diferencian en el procesamiento son:

• Entrada: introducir en el ordenador los datos necesarios para realizar


la tarea.

• Proceso: aquí se lleva a cabo el trabajo (cálculos y solución que


realiza el ordenador).

• Salida: se muestran los resultados al que planteó el problema.

Los elementos de hardware básicos son los siguientes:

• Entrada: periféricos de entrada de datos al ordenador (ratón,


escáner, etc.).

• Procesamiento: CPU (Unidad de Procesamiento Central).

• Salida: periféricos de salida de datos del ordenador (impresoras,


altavoces, etc.).

Página 12 de 42
Un PC es un ordenador personal, diferente a los macroordenadores de los
centros de procesamiento (Host). Estos PC han evolucionado de tal
manera que su capacidad y posibilidades son enormes, superando a
muchos grandes procesadores.

Existen varios tipos de ordenadores:

1. Portátiles o notebooks: integran todos los elementos en una unidad.

2. PDA: aún más pequeños y transportables PDA, del inglés Personal


Digital Assistant, es una computadora de mano originalmente
diseñada.

3. Una Tableta, tablet o tablet computer: es un tipo de computadora


portátil, de mayor tamaño que un smartphone o una PDA,
integrado en una pantalla táctil (sencilla o multitáctil) con la que se
interactúa primariamente con los dedos, sin necesidad de teclado
físico ni ratón.

4. Smartphones: capaces de conectarse a Internet y de tener


aplicaciones para diferentes tareas, actualmente con su propio
sistema operativo (Android, IOS,).

La Placa Base es el “corazón” del ordenador. En ella están el procesador,


la memoria, los controladores de disco, puertos, tarjetas de audio, etc. Su
función es la de transformar una información de entrada en una
información de salida.

El procesador o microprocesador está colocado en la Unidad Central del


Sistema. La velocidad de éste se mide en Gigahercios.

Está compuesto básicamente por: una Unidad de control y una Unidad


aritmético-lógica, que realiza cálculos y comparaciones y toma de
decisiones lógicas. Ejecuta instrucciones almacenadas como números
binarios organizados secuencialmente en la memoria principal.

La memoria es donde se almacena la información y principalmente


podemos destacar dos tipos de memoria: RAM y ROM.

• La primera (RAM) podemos decir que es la “Memoria Principal” y es


la más importante.

Es una memoria de trabajo, de acceso aleatorio y que, al apagar


el ordenador, pierde toda la información. Esta memoria es la que
permite que podamos tener varios programas abiertos.

• La segunda (ROM) es la memoria de lectura que conserva la


información, aunque cese la electricidad.

La unidad mínima de memoria es el BIT (tiene dos valores: 0 y 1).

Página 13 de 42
La unidad básica de información es el BYTE. Un bit es muy pequeño para
un uso normal, por lo que se usa un conjunto de ellos, es decir 8 bits, que
forman un byte. Como un byte sigue siendo pequeño para manejar textos
o datos, usamos un múltiplo suyo, el Kilobyte (1 KB = 1024 bytes).

Como actualmente manejamos datos cada vez más extensos, del Kilobyte
pasamos a un múltiplo suyo, el Megabyte (1 MB = 1024 KB) o al Gigabyte (1
GB = 1024 MB).

Los Gigabytes se usan normalmente para los discos duros o memorias RAM.
Últimamente también se está manejando ya información que ocupa
muchísimos GB, con lo cual pasamos a su otro múltiplo que es el Terabyte
(1 TB = 1024 GB).

1 byte 8 bits
1 kilobyte 1024 byte
1 megabyte 1024 kilobyte
1 gigabyte 1024 megabyte
1 terabyte 1024 gigabyte

Partes internas de una computadora:

A continuación, te enumeramos todas las partes de la “caja” del


ordenador, que se suele llamarse Placa Base (En otros países puede
significar procesador o Central Unit Processor). Digamos que es la parte
más importante de cualquier computadora, ahí es donde se guardan los
datos, donde se realizan los cálculos y es donde se conecta todo lo
demás.

Microprocesador:

El procesador junto a la motherboard y la


memoria RAM es una de las piezas
imprescindibles para una computadora.
Generalmente es un pequeño cuadrado de
silicio con muchos pines recubiertos de oro
que recibe instrucciones, las procesa y manda
órdenes. Cada procesador dispone de unas instrucciones
predefinidas como suma, resta, multiplicación, desplazamiento… etc.
Dispone de una pequeña memoria cache, que tiene muy poca
capacidad, pero es ultra rápida. Quizás se podría comparar un
procesador con una fábrica, recibe materia prima y devuelve
producto terminado.

Motherboard, Placa madre o placa base:

Este componente, a veces menospreciado,


es tan importante como el procesador. La
motherboard sincroniza el funcionamiento
de TODOS las partes de una computadora,
el 99% de los dispositivos están conectados
ahí.

Página 14 de 42
Si comparamos el procesador con una fábrica, la placa madre
podríamos comparar con la red de carreteras que la rodean. Es un
componente que se fabrica pensando en determinada familia de
procesadores y con unos estándares en mente.

De hecho, lo primero que debemos elegir al montar un ordenador es


la motherboard y después ir mirando si soporta determinados
dispositivos o estándares. Por ejemplo, cuantas tarjetas de vídeo
podemos conectar, si tiene 2 o 1 tarjetas de red, si soporta memoria
RAM ECC (memoria especial para servidores) … etc.

Memoria RAM:

La memoria RAM es una memoria Intermedia


que guarda los datos e instrucciones
intermedias. Guarda por ejemplo un documento
Word mientras lo editamos en el Office.

Es la segunda memoria más rápida de la computadora, después de


la memoria cache. Todos los datos que se guardan ahí se borran
cuando apagamos el equipo a diferencia por ejemplo del disco duro.

En los últimos años esta memoria se ha incrementado a 16Gb. En los


servidores incluso puedes encontrar 64GB o 128GB de memoria RAM
DDR4 ECC.

Disco duro:

El disco duro es otro de los componentes


esenciales de nuestro sistema informático.

Generalmente es una parte interna de cualquier computadora,


aunque en los últimos años se ha popularizado el formato externo, en
el fondo la tecnología es la misma.

El “Hard Drive” por prestaciones es mucho más lento que la memoria


RAM, sin embargo, tiene mucha más capacidad. Actualmente
puedes encontrar fácilmente unidades de 4Tb-6Tb, lo más común y
económico es tener 1-2Tb.

Además, es el componente que cambia radicalmente de


tecnología. La tecnología magnética poco a poco da paso a la
“solida” o “química” de los discos SSD o Solid State Drive muchísimo
más rápidos, se están convirtiendo en el estándar.

Lectores ópticos:

Los lectores ópticos eran muy populares en el


pasado. Básicamente son los que leen todos
estos discos DVD, CD o Blu-ray. Ahora mismo con Internet muy
desarrollado en muchos países está casi en desuso el lector de discos.

Página 15 de 42
Cualquier información ahora la puedes descargar de Internet o te la
puedes llevar en una memoria USB.

Tarjeta de vídeo o tarjeta gráfica:

La tarjeta de vídeo o tarjeta gráfica es la parte de


nuestro ordenador que manda la señal de vídeo
hacia nuestro monitor o televisor. Por si sola
prácticamente es un pequeño ordenador ya que en la placa tiene un
procesador, memoria RAM, BIOS, entradas de alimentación… etc. Son
imprescindibles para la gente que busca sobre todo jugar o editar
vídeo o 3D.

Periféricos, o dispositivos auxiliares de una computadora:

Seguramente se nos viene a la cabeza el teclado. Sin embargo, hay


unos cuantos dispositivos de entrada a describir. Por lo general aquí
clasificaremos dispositivos que sirven para mandar órdenes a nuestra
CPU, que serán procesados y almacenados o mostrados mediante
unidades de salida de información. Por ejemplo, el ratón, tabletas
gráficas, lectores de códigos de barras, el track pad en un portátil o
lector de huellas.

Mouse o ratón:

El mouse o el ratón es una parte esencial


de cualquier computadora. Actualmente
está en proceso de una gran
transformación tecnológica y quizás es uno de los componentes
que desaparecerá en el futuro. Las pantallas táctiles de calidad
vistas por primera vez en iPhone (Realmente han sido inventadas
hace tiempo, pero nunca con tanta calidad) han supuesto una
revolución en el manejo no solo de los ordenadores si no de móviles,
tablet PC, navegadores GPS, relojes, Mp3, eBook… etc.

Monitor:

El monitor es donde visualizamos el diálogo con el ordenador y el


teclado se utiliza para escribir las instrucciones que se desea dar
al ordenador y para introducir los datos a procesar.

Página 16 de 42
Los periféricos son los dispositivos físicos capaces de comunicar
información entre el usuario y el ordenador. Éstos pueden ser de
Entrada, de Salida o de Entrada y Salida (E/S).

• Impresoras: láser, térmicas, margarita, matriciales, inyección.

• Lectores ópticos: scanner.

• Lápices luminosos.

• Puertos: conectores que se encuentran en la unidad del


sistema (conectan el teclado, monitor…)

• Mouse o ratón: permite desplazarnos por la pantalla y dialogar


a clics.

• Las unidades de disco, canales, y controladoras: mover


información.

• Plotter: impresora gran.

Página 17 de 42
2. SISTEMAS DE ALMACENAMIENTO DE DATOS.

Un dispositivo de almacenamiento de datos es un conjunto de componentes


utilizados para leer o grabar datos en el soporte de almacenamiento de datos,
en forma temporal o permanente.

La unidad de disco junto con los discos que graba, conforma un dispositivo de
almacenamiento (device drive) o unidad de almacenamiento.

Una computadora tiene almacenamiento primario o principal (RAM y ROM) y


secundario o auxiliar.

A. Tipos de memorias. (Almacenamiento primario):

• La memoria de acceso aleatorio (Random Access Memory, RAM) se


utiliza como memoria de trabajo de computadoras para el sistema
operativo, los programas y la mayor parte del software.

En la RAM se cargan todas las instrucciones que ejecuta la unidad


central de procesamiento (procesador) y otras unidades del
computador.

Se denominan «de acceso aleatorio» porque se puede leer o escribir


en una posición de memoria con un tiempo de espera igual para
cualquier posición, no siendo necesario seguir un orden para acceder
(acceso secuencial) a la información de la manera más rápida
posible.

Durante el encendido de la computadora, la rutina POST verifica que


los módulos de RAM estén conectados de manera correcta. En el caso
que no existan o no se detecten los módulos, la mayoría de tarjetas
madres emiten una serie de sonidos que indican la ausencia de
memoria principal. Terminado ese proceso, la memoria BIOS puede
realizar un test básico sobre la memoria RAM indicando fallos en la
misma, los sistemas operativos más utilizados como por ejemplo
Windows, también tienen una aplicación para encontrar errores en
memoria.

• La memoria de sólo lectura, conocida también como ROM (acrónimo


en inglés de read-only memory), es un medio de almacenamiento
utilizado en ordenadores y dispositivos electrónicos, que permite sólo la
lectura de la información y no su escritura, independientemente de la
presencia o no de una fuente de energía.

Los datos almacenados en la ROM no se pueden modificar, o al


menos no de manera rápida o fácil. Se utiliza principalmente en su
sentido más estricto, se refiere solo a máscara ROM -en inglés, MROM-
(el más antiguo tipo de estado sólido ROM), que se fabrica con los
datos almacenados de forma permanente y, por lo tanto, su
contenido no puede ser modificado de ninguna forma.

Página 18 de 42
Sin embargo, las ROM más modernas, como EPROM y Flash EEPROM,
efectivamente se pueden borrar y volver a programar varias veces,
aun siendo descritos como "memoria de sólo lectura" (ROM).

La razón de que se las continúe llamando así es que el proceso de


reprogramación en general es poco frecuente, relativamente lento y,
a menudo, no se permite la escritura en lugares aleatorios de la
memoria.

A pesar de la simplicidad de la ROM, los


dispositivos reprogramables son más
flexibles y económicos, por lo cual las
antiguas máscaras ROM no se suelen
encontrar en hardware producido a partir
de 2007.

B. Tipologías. (Almacenamiento secundario):

Atendiendo a la tecnología utilizada podemos distinguir:

• Tecnologías simples. Se refieren a soportes de papel en los que la


información se representa a través de perforaciones en
determinados lugares; es el caso de tarjetas perforadas o las cintas
de papel perforado ambos en desuso y obsoletos.

• Tecnologías magnéticas. Representan la información en bits.


Consiste en la aplicación de campos magnéticos a ciertos
materiales cuyas partículas reaccionan a esa influencia,
generalmente orientándose en unas determinadas posiciones que
conservan tras dejar de aplicarse el campo magnético.

Esas posiciones representan los datos. Dispositivos magnéticos


existen infinidad; desde las casetes o las antiguas cintas de música
hasta los modernos Zip y Jazz, pasando por disqueteras, discos duros
y otros similares.

Todos ellos son dispositivos grabadores a la vez que lectores y son


bastante delicados, ya que les afectan las altas y bajas
temperaturas, la humedad, los golpes y sobre todo los campos
magnéticos.

a) Cintas magnéticas. La cinta se va desenrollando del carrete


de alimentación y se va enrollando en el de la bobina,
pasando por una cabeza de grabación. Son dispositivos de
acceso secuencial. Si la cinta está situada al principio, para
leer un registro habrá que leer todos los anteriores.

b) Discos magnéticos. Es el elemento más habitual de


almacenamiento.

Página 19 de 42
Está compuesto por numerosos
discos de aluminio recubiertos por un
material sensible a alteraciones
magnéticas, uno sobre el otro,
atravesados y unidos por un eje.
Cada disco posee dos pequeños
cabezales, uno en cada cara, que
puede moverse acercándose o
retirándose del centro del mismo flotando sobre el disco sin
llegar a tocarlo. La información se graba en cierto número
de círculos concéntricos llamados pistas, que a su vez se
dividen en sectores.

c) Disquetera:

La disquetera, unidad
de disco flexible o
unidad de disquete
(floppy disk drive, FDD)
de 3½ pulgadas
permite intercambiar
información utilizando
disquetes magnéticos de 1,44 MB de capacidad. La
transferencia de información es bastante lenta si la
comparamos con otros soportes, como el disco duro o un
CD-ROM. Actualmente ha caído completamente en
desuso.

d) Tecnologías ópticas:

La unidad de discos magneto-ópticos permiten el proceso


de lectura y escritura de dichos discos con tecnología
híbrida de los disquetes y los discos ópticos, aunque en
entornos domésticos fueron menos usadas que las
disqueteras y las unidades de CD- ROM, pero tienen algunas
ventajas en cuanto a los disquetes.

Por una parte, admiten discos de gran capacidad: 230 MB,


640 MB o 1,3 GB. Además, son discos reescribibles, por lo que
es interesante emplearlos, por ejemplo, para realizar copias
de seguridad.

Unidad de CD-ROM:

La unidad de CD-ROM, lectora de CD o "compactera"


permite utilizar discos ópticos de una mayor capacidad
que los disquetes de 3,5 pulgadas: hasta 900 MB. Ésta es
su principal ventaja, pues los CD-ROM se convirtieron en
el estándar para distribuir sistemas operativos,
aplicaciones, etc.

Página 20 de 42
El uso de estas unidades está muy extendido, ya que
también permiten leer los discos compactos de audio.

Una característica básica de las unidades de CD-ROM


es la velocidad de lectura, que normalmente se expresa
como un número seguido de una «x» (40x, 52x,).

Este número indica la velocidad de lectura en múltiplos


de 128 kB/s. Así, una unidad de 52x lee información de
128 kB/s × 52 = 6,656 kB/s, es decir, a 6,5 MB/s.
Actualmente ha caído en desuso y su utilización
comienza a ser casi anecdótica.

Unidad de DVD-ROM:

Las unidades de DVD-ROM son aparentemente iguales


que las de CD-ROM, pueden leer tanto discos DVD-ROM
como CD-ROM.

Se diferencian de las unidades lectoras de CD-ROM en


que el soporte empleado tiene hasta 17 GB de
capacidad, y en la velocidad de lectura de los datos.

La velocidad se expresa con otro número de la «x»: 12x,


16x... Pero ahora la x hace referencia a 1,32 MB/s. Así:
16x = 21,12 MB/s. Actualmente se utiliza muchísimo
menos debido a las memorias USB.

Unidad de Blu-Ray:

El disco Blu-ray, conocido como Blu-ray o simplemente


BD (en inglés: Blu-ray Disc), es un formato de disco óptico
de nueva generación, desarrollado por la Blu-ray Disc
Association (BDA), empleado para vídeo de alta
definición (HD), 3D y UltraHD y con mayor capacidad de
almacenamiento de datos de alta densidad que la del
DVD, llegando a capacidades de hasta 54GB y
transferencias de hasta 54MB/s.

Actualmente se utiliza en mayor parte para grabar


contenidos multimedia en alta calidad 1080p, es decir,
películas…

e) Tecnologías flash:

Unidad de disco rígido o disco duro:

Las unidades de discos sólidos, (SDD) tienen una gran


capacidad de almacenamiento de información y
velocidad.

Página 21 de 42
Además, una sola placa puede tener varios dispositivos
conectados. Pueden ser externos y permiten almacenar
grandes cantidades de información. Son muy útiles para
intercambiar información entre equipos. Normalmente se
conectan al PC mediante un conector USB.

Lector de tarjetas:

El lector de tarjetas de
memoria es un periférico
que lee o escribe en
soportes de memoria flash.
Memorias SD, Micro SD,
Compact Flash…

Actualmente, se encuentran instalados en algunos


ordenadores (incluidos en una placa), sin embargo, en
muchos casos este dispositivo es conectado de forma
externa (mediante puerto USB).

Memoria USB:

La memoria USB (Universal Serial Bus) denominado


también lápiz de memoria, lápiz USB, memoria externa,
pen drive o pendrive es un tipo de dispositivo de
almacenamiento de datos que utiliza memoria flash
para guardar datos e información.

Los sistemas operativos actuales pueden leer y escribir


en las memorias sin más que enchufarlas a un conector
USB del equipo encendido, recibiendo la tensión de
alimentación a través del propio conector.

Estas memorias se han convertido en el sistema de


almacenamiento y transporte personal de datos más
utilizado, desplazando en este uso a los tradicionales
disquetes y a los CD. Se pueden encontrar en el
mercado fácilmente memorias de 1, 2, 4, 8, 16, 32, 64,
128, 256, 512 GB, y hasta 1 TB.

Existen diferentes generaciones donde los cambios


principales son en las mejoras en las tasas de
transferencia.

USB 3.1, el más actual, preparado para 10Gbps. En


pruebas reales, y debido al sistema de codificación de
la información, se ha llegado a 7Gbps reales.

USB3.0, preparado para 5Gbps. En pruebas reales, se ha


llegado a 3.2Gbps, eso son unos 400 Megabytes por
segundos reales. Una cifra bastante asombrosa.

Página 22 de 42
USB2.0 estaba preparado para los 480Mbits, aunque en
los mejores casos solo se llegaba a los 280Mbits. Una cifra
equivalente a los 35Mbytes/segundo.

USB1.1 estaba preparado para los 12Mbits, algo cercano


a 1Mbyte por segundo en condiciones reales.

Página 23 de 42
3. SISTEMAS OPERATIVOS.

Un sistema operativo es un programa o conjunto de programas de


computadora destinado a permitir una administración eficaz de sus recursos.

Comienza a trabajar cuando se enciende el computador, y gestiona el


hardware de la máquina desde los niveles más básicos, permitiendo también
la interacción con el usuario.

Funciones básicas:

Los sistemas operativos, en su condición de capa software que posibilitan y


simplifica el manejo de la computadora, desempeñan una serie de
funciones básicas esenciales para la gestión del equipo.

Entre las más destacables, cada una ejercida por un componente interno,
podemos reseñar las siguientes:

• Suministro de interfaz al usuario. Es la parte del sistema operativo que


permite comunicarse con él de tal manera que se puedan cargar
programas, acceder archivos y realizar otras tareas. Existen tres tipos
básicos de interfaces: las que se basan en comandos, las que utilizan
menús y las interfaces gráficas de usuario.

• Administración de recursos. Sirven para administrar los recursos de


hardware y de redes de un sistema informativo, como el CPU,
memoria, dispositivos de almacenamiento secundario y periféricos de
entrada y de salida.

• Administración de archivos. Un sistema de información contiene


programas de administración de archivos que controlan la creación,
borrado y acceso de archivos de datos y de programas. También
implica mantener el registro de la ubicación física de los archivos en los
discos magnéticos y en otros dispositivos de almacenamiento
secundarios.

• Administración de tareas. Los programas de administración de tareas


de un sistema operativo administran la realización de las tareas
informáticas de los usuarios finales. Los programas controlan que áreas
tiene acceso al CPU y por cuánto tiempo. Las funciones de
administración de tareas pueden distribuir una parte específica del
tiempo del CPU para una tarea en particular, e interrumpir al CPU en
cualquier momento para sustituirla con una tarea de mayor prioridad.

• Servicio de soporte y utilidades. Los servicios de soporte de cada


sistema operativo dependerán de la implementación particular de
éste con la que estemos trabajando. Estos servicios de soporte suelen
consistir en:

Página 24 de 42
- Actualización de versiones.

- Mejoras de seguridad.

- Inclusión de alguna nueva utilidad (un nuevo entorno gráfico,


un asistente para administrar alguna determinada función, ...).

- Controladores para manejar nuevos periféricos (este servicio


debe coordinarse a veces con el fabricante del hardware).

- Corrección de errores de software, Otros.

Página 25 de 42
4. NOCIONES BÁSICAS DE SEGURIDAD INFORMÁTICA.

La seguridad informática consiste en asegurar que los recursos del sistema de


información (material informático o programas) de una organización sean
utilizados de la manera que se decidió y que el acceso a la información allí
contenida así como su modificación sólo sea posible a las personas que se
encuentren acreditadas y dentro de los límites de su autorización.

A. Introducción.

Podemos entender como seguridad un estado de cualquier sistema


(informático o no) que nos indica que ese sistema está libre de peligro,
daño o riesgo. Se entiende como peligro o daño todo aquello que
pueda afectar su funcionamiento directo o los resultados que se obtienen
del mismo. Para la mayoría de los expertos el concepto de seguridad en
la informática es utópico porque no existe un sistema 100% seguro. Para
que un sistema se pueda definir como seguro debe tener estas cuatro
características:

• Integridad. La información sólo puede ser modificada por quien


está autorizado.

• Confidencialidad. La información sólo debe ser legible para los


autorizados.

• Disponibilidad. Debe estar disponible cuando se necesita.

• Irrefutabilidad. (No-Rechazo o No Repudio) Que no se pueda


negar la autoría.

Dependiendo de las fuentes de amenaza, la seguridad puede dividirse


en seguridad lógica y seguridad física.

B. Términos relacionados con la seguridad informática.

• Activo: recurso del sistema de información o relacionado con


éste, necesario para que la organización funcione
correctamente y alcance los objetivos propuestos.

• Amenaza: es un evento que pueden desencadenar un incidente


en la organización, produciendo daños materiales o pérdidas
inmateriales en sus activos.

• Impacto: medir la consecuencia al materializarse una amenaza.

• Riesgo: posibilidad de que se produzca un impacto determinado


en un Activo, en un Dominio o en toda la Organización.

• Vulnerabilidad: posibilidad de ocurrencia de la materialización de


una amenaza sobre un Activo.

Página 26 de 42
• Ataque: evento, exitoso o no, que atenta sobre el buen
funcionamiento del sistema.

• Desastre o contingencia: interrupción de la capacidad de


acceso a información y procesamiento de la misma a través de
computadoras necesarias para la operación normal de un
negocio.

Aunque a simple vista se puede entender que un Riesgo y una


Vulnerabilidad se podrían englobar un mismo concepto, una definición
más informal denota la diferencia entre riesgo y vulnerabilidad, de modo
que se debe la Vulnerabilidad está ligada a una Amenaza y el Riesgo a
un Impacto.

C. Objetivos.

Los activos son los elementos que la seguridad informática tiene como
objetivo proteger. Son tres elementos que conforman los activos:

• Información. Es el objeto de mayor valor para una organización,


el objetivo es el resguardo de la información,
independientemente del lugar en donde se encuentre registrada,
en algún medio electrónico o físico.

• Equipos que la soportan. Software, hardware y organización.

• Usuarios. Individuos que utilizan la estructura tecnológica y de


comunicaciones que manejan la información.

D. Análisis de riesgos.

El activo más importante que se posee es la información y, por lo tanto,


deben existir técnicas que la aseguren, más allá de la seguridad física
que se establezca sobre los equipos en los cuales se almacena.

Estas técnicas las brinda la seguridad lógica que consiste en la aplicación


de barreras y procedimientos que resguardan el acceso a los datos y sólo
permiten acceder a ellos a las personas autorizadas para hacerlo.

Existe un viejo dicho en la seguridad informática que dicta: "lo que no


está permitido debe estar prohibido" y ésta debe ser la meta perseguida.

Los medios para conseguirlo son:

• Restringir el acceso (de personas de la organización y de las que


no lo son) a los programas y archivos.

• Asegurar que los operadores puedan trabajar pero que no


puedan modificar los programas ni los archivos que no
correspondan (sin una supervisión minuciosa).

Página 27 de 42
• Asegurar que se utilicen los datos, archivos y programas correctos
en/y/por el procedimiento elegido.

• Asegurar que la información transmitida sea la misma que reciba


el destinatario al cual se ha enviado y que no le llegue a otro.

• Asegurar que existan sistemas y pasos de emergencia alternativos


de transmisión entre diferentes puntos.

• Organizar a cada uno de los empleados por jerarquía


informática, con claves distintas y permisos bien establecidos, en
todos y cada uno de los sistemas o aplicaciones empleadas.

• Actualizar constantemente las contraseñas de accesos a los


sistemas de cómputo.

E. Puesta en marcha de una política de seguridad.

Generalmente se ocupa exclusivamente a asegurar los derechos de


acceso a los datos y recursos con las herramientas de control y
mecanismos de identificación.

Estos mecanismos permiten saber que los operadores tienen sólo los
permisos que se les dio.

La seguridad informática debe ser estudiada para que no impida el


trabajo de los operadores en lo que les es necesario y que puedan utilizar
el sistema informático con toda confianza.

Por eso en lo referente a elaborar una política de seguridad, conviene:

• Elaborar reglas y procedimientos para cada servicio de la


organización.

• Definir las acciones a emprender y elegir las personas a contactar


en caso de detectar una posible intrusión.

• Sensibilizar a los operadores con los problemas ligados con la


seguridad de los sistemas informáticos.

Los derechos de acceso de los operadores deben ser definidos por los
responsables jerárquicos y no por los administradores informáticos, los
cuales tienen que conseguir que los recursos y derechos de acceso sean
coherentes con la política de seguridad definida.

Además, como el administrador suele ser el único en conocer


perfectamente el sistema, tiene que derivar a la directiva cualquier
problema e información relevante sobre la seguridad, y eventualmente
aconsejar estrategias a poner en marcha, así como ser el punto de
entrada de la comunicación a los trabajadores sobre problemas y
recomendaciones en término de seguridad.

Página 28 de 42
F. Las amenazas.

Una vez que la programación y el funcionamiento de un dispositivo de


almacenamiento (o transmisión) de la información se consideran seguras,
todavía deben ser tenidos en cuenta las circunstancias "no informáticas"
que pueden afectar a los datos, las cuales son a menudo imprevisibles o
inevitables, de modo que la única protección posible es la redundancia
(en el caso de los datos) y la descentralización - por ejemplo mediante
estructura de redes- (en el caso de las comunicaciones).

Estos fenómenos pueden ser causados por:

• El usuario: causa del mayor problema ligado a la seguridad de un


sistema informático (porque no le importa, no se da cuenta o a
propósito).

• Programas maliciosos: programas destinados a perjudicar o a


hacer un uso ilícito de los recursos del sistema. Es instalado (por
inatención o maldad) en el ordenador abriendo una puerta a
intrusos o bien modificando los datos. Estos programas pueden ser
un virus informático, un gusano informático, un troyano, una
bomba lógica o un programa espía o Spyware.

• Un intruso: persona que consigue acceder a los datos o


programas de los cuales no tiene acceso permitido (cracker,
defacer, script kiddie o Script boy, viruxer, etc.).

• Un siniestro (robo, incendio, por agua): una mala manipulación o


una malintención derivan a la pérdida del material o de los
archivos.

• El personal interno de sistemas. Las pujas de poder que llevan a


disociaciones entre los sectores y soluciones incompatibles para
la seguridad informática.

f1) Técnicas de aseguramiento del sistema:

Las técnicas utilizadas para asegurar un sistema informático


son:

- Codificar la información: Cristología, Criptografía y


Criptociencia, contraseñas difíciles de averiguar a
partir de datos personales del individuo.

- Vigilancia de red.

- Tecnologías repelentes o protectoras: cortafuegos,


sistema de detección de intrusos (anti-spyware),
antivirus, llaves para protección de software, etc.
Mantener los sistemas de información con las
actualizaciones que más impacten en la seguridad.

Página 29 de 42
f2) Consideraciones de software:

Tener instalado en la máquina únicamente el software


necesario reduce riesgos. Así mismo tener controlado el
software asegura la calidad de la procedencia del mismo (el
software pirata o sin garantías aumenta los riesgos).

En todo caso un inventario de software proporciona un


método correcto de asegurar la reinstalación en caso de
desastre. El software con métodos de instalación rápidos
facilita también la reinstalación en caso de contingencia.

Existe software que es conocido por la cantidad de agujeros


de seguridad que introduce. Se pueden buscar alternativas
que proporcionen iguales funcionalidades pero permitiendo
una seguridad extra.

G. Funciones de la seguridad.

Para que una comunicación se considere segura se deben cumplir los 4


requisitos o servicios de seguridad siguientes:

• Autenticidad. Todos los participantes en la comunicación deben


estar adecuadamente identificados. La autenticidad garantiza
que cada parte es quien dice ser, evitando suplantaciones. Se
puede dividir en:

- Autenticidad de entidad. Asegura la identidad de las


entidades participantes en la comunicación mediante
biométrica (huellas dactilares, identificación de iris, de la
palma de la mano, reconocimiento de voz, etc.), tarjetas
de banda magnética, contraseñas o procedimientos
similares.

- Autenticidad de origen de información. Asegura que una


unidad de información proviene de cierta entidad. Se
garantiza mediante firmas digitales y certificados.

• Confidencialidad. Los datos enviados durante la comunicación


no deben ser leídos por terceras personas, aunque viajen a través
de un canal inseguro. La confidencialidad asegura que si los
datos caen en manos de una persona distinta al destinatario no
pueda entenderlos porque están codificados. Se garantiza
mediante el uso de criptografía. Su mayor desventaja es que el
uso de la criptografía aumenta el volumen de los datos enviados
y hace más lentas las comunicaciones.

• Integridad. Los datos enviados deben llegar sin modificaciones al


destino. Evita que una comunicación sea interceptada y
alterada antes de que llegue a su destino. Se asegura mediante
funciones hash y firmas digitales.

Página 30 de 42
• No repudio. Asegura que una vez enviado un mensaje desde el
emisor al receptor, ninguna de las partes pueda negar haber
participado en la comunicación. Se consigue mediante
certificados y firmas digitales.

Según la parte protegida se divide en:

- No repudio en origen. Protege al receptor de que el


emisor niegue haber enviado el mensaje.

- No repudio en destino. Protege al emisor de que el


receptor niegue haber recibido el mensaje.

H. Métodos criptográficos.

Introducción a la criptografía:

La criptografía es la ciencia que se ocupa del cifrado seguro de


mensajes.

Existen dos tipos principales de Criptografía de uso común hoy día.


La más antigua (usada hasta los años 70) y simple se conoce como
Criptografía de clave sencilla o de clave secreta (Criptografía
simétrica), que resulta útil en muchos casos, aunque tiene
limitaciones significativas.

Los algoritmos simétricos, o de clave secreta, se caracterizan por ser


altamente eficientes (en relación al tamaño de su clave) y robustos.
Se les llama así porque se emplea la misma clave para cifrar y para
descifrar. Se basan en el uso de claves secretas que previamente
hay que intercambiar mediante canales seguros, con los riesgos que
ello supone.

Todas las partes deben conocerse y confiar totalmente la una en la


otra. Cada una de ellas debe poseer una copia de la clave que
haya sido protegida y mantenida fuera del alcance de las demás.

Además, dichas claves no se deben utilizar para varios mensajes, ya


que, si se interceptaran algunos de ellos, se podrían encontrar
métodos para descodificarlos. Por sí solo, este tipo de encriptación
no es suficiente para desarrollar el pleno potencial del comercio
electrónico, el cual debe vincular a un número ilimitado de
compradores y vendedores de todas partes del mundo. De un lado,
resulta poco práctico que una gran corporación intercambie claves
con miles o incluso millones de clientes o, peor todavía, con posibles
clientes con los que nunca ha tratado.

La solución a la seguridad en toda red abierta es una forma de


codificación más novedosa y sofisticada, desarrollada por los
matemáticos de MIT en los años setenta, y conocida como clave
pública o Criptografía asimétrica.

Página 31 de 42
Al contrario que los anteriores, los algoritmos asimétricos tienen
claves distintas para cifrado y descifrado. Por ello, también se les
llama algoritmos de clave pública. Permiten eliminar el gran
inconveniente de cómo hacer llegar al remitente la clave de
cifrado.

En el caso de los algoritmos asimétricos se usa una clave pública


(para cifrar) y una secreta (para descifrar). La primera se publica en
un tipo de directorio al que el público en general tiene acceso (una
especie de guía telefónica), mientras que la privada se mantiene en
secreto.

Las dos claves funcionan conjuntamente como un curioso dúo. De


esa manera, una intercepción de la clave pública es inútil para
descifrar un mensaje, puesto que para ello se requiere la clave
secreta. Cualquier tipo de datos o información que una de las
claves cierre, sólo podrá abrirse con la otra.

De forma que, por ejemplo, si queremos enviar a un amigo un


mensaje sin que ningún intruso lo lea buscamos la clave pública del
amigo y la utilizamos para realizar la encriptación del texto.

Luego, cuando él lo recibe, utilizamos su clave privada para revertir


la encriptación del mensaje en la pantalla de su computadora y
aparece el mensaje en forma de texto normal y corriente. Si un
extraño interceptara este mensaje, no podría descifrarlo porque no
tendría la clave privada de ese amigo nuestro.

En un algoritmo asimétrico, el emisor puede utilizar su clave privada


o la clave pública del destinatario para encriptar su mensaje. Cada
caso garantiza funciones de seguridad diferentes:

• Cifrado con clave privada y descifrado con clave pública.


Asegura la autenticidad, integridad y el no repudio del
mensaje. Cualquiera puede leer el mensaje, es el método
utilizado en las firmas digitales.

• Cifrado con clave pública y descifrado con clave privada.


Asegura la confidencialidad del mensaje. Sólo puede leerlo
el destinatario, aunque no tiene garantías de la persona que
le envía el mensaje o de la exactitud de su contenido.

Como desventaja, las claves han de ser de mayor tamaño para


ofrecer una seguridad comparable a la de los algoritmos simétricos.
También resultan más lentos y producen mensajes cifrados de
mayor tamaño.

Para que existan sistemas de clave pública es necesario encontrar


funciones de dirección única, es decir, funciones fáciles de calcular
(que se utilizarán para cifrar), pero cuya inversa (que se usa para
descifrar) es prácticamente imposible de calcular a no ser que se
conozca la clave secreta.

Página 32 de 42
Además, los algoritmos simétricos se pueden dividir en los de cifrado
en flujo y los de cifrado en bloque. Los primeros cifran el mensaje
original bit a bit, mientras que los segundos toman un número de bits
(típicamente, 64 bits en los algoritmos modernos) y los cifran como si
se tratara de una sola unidad.

Generalmente, los algoritmos simétricos ejecutados en ordenadores


son más rápidos que los asimétricos. En la práctica se suelen usar
juntos, de modo que el algoritmo de clave pública se emplea para
cifrar una clave generada, y ésta se emplea para cifrar el mensaje
usando un algoritmo simétrico. Esto es lo que se conoce como
cifrado híbrido.

Las claves consisten en una serie de señales electrónicas guardadas


en las unidades de disco de los PCs o transmitidas como datos a
través de las líneas telefónicas siguiendo lo especificado en los
estándares de la industria. El complejo proceso matemático de
encriptación del texto y su opuesto lo realiza el propio ordenador,
de modo que nosotros no debemos preocuparnos de nada más.

I. Firma digital.

Los mensajes enviados en una comunicación pueden firmarse


digitalmente para que el receptor tenga la garantía de que ha sido
enviado por la persona correcta y que no ha sufrido modificaciones en el
camino. El proceso de firma digital consta de dos partes bien
diferenciadas:

• Proceso de firma. En el que el emisor encripta el documento con


su llave privada, enviando al destinatario tanto el documento en
claro como el encriptado.

• Proceso de verificación de la firma. El receptor desencripta el


documento cifrado con la clave pública del emisor (A) y
comprueba que coincide con el documento original, lo que
atestigua de forma total que el emisor del mismo ha sido
efectivamente A.

El método de firma digital no sólo proporciona autenticidad al mensaje


enviado por A, sino que también asegura el no repudio, ya que sólo el
dueño de una llave privada puede encriptar un documento de tal forma
que se pueda desencriptar con su llave pública, lo que garantiza que ha
sido A y no otro el que ha enviado dicho documento. Asimismo
proporciona integridad de datos, ya que si el documento fuera accedido
y modificado en el camino, el resumen del documento cambiaría
también.

La firma digital suele usarse en comunicaciones en las que no existe una


confianza inicial total entre los comunicantes. Se usan para autentificar
mensajes, para validar compras por Internet, para realizar transferencias
de fondos bancarios y para otras transacciones de negocios.

Página 33 de 42
Tanta es la fuerza que posee este sistema que a nivel legal la firma
electrónica constituye en la mayoría de los casos una prueba indudable
de autoría del envío de un documento electrónico, semejante a la firma
tradicional de puño y letra.

Si imaginamos el envío de un documento extenso que queremos firmal


digitalmente, nos daremos cuenta de que cifrar el documento entero es
une pérdida de tiempo, ya que los medios de encriptación de llave
pública son lentos, pues precisan de gran proceso de cómputo.

Para solventar este aspecto aparecen las funciones hash, que son unas
funciones matemáticas que realizan un resumen del documento a firmar.
Su forma de operar es comprimir el documento en un único bloque de
longitud fija, bloque cuyo contenido es ilegible y no tiene ningún sentido
real.

Tanto es así que por definición las funciones hash son irreversibles, es
decir, que a partir de un bloque comprimido no se puede obtener el
bloque sin comprimir, y si no es así no es una función hash. Estas funciones
son además de dominio público.

A un mensaje resumido mediante una función hash y encriptado con una


llave privada es lo que en la vida real se denomina firma digital.

Su mecanismo es el siguiente:

1. El emisor aplica una función hash conocida al documento, con lo


que obtiene un resumen hash del mismo.

2. Encripta dicho resumen con su clave privada.

3. Envía al receptor el documento original plano y el resumen hash


encriptado.

4. El receptor B aplica la función hash al resumen sin encriptar y


desencripta el resumen encriptado con la llave pública de A.

5. Si ambos coinciden está seguro de que ha sido A es que le ha


enviado el documento. Si no coinciden, está seguro de que no
ha sido A o de que el envío ha sido interceptado en el medio de
envió y modificado.

Las funciones hash y la firma digital son elementos indispensables para el


establecimiento de canales seguros de comunicación, basados en los
Certificados Digitales.

Para que una función pueda considerarse como función hash debe
cumplir:

• Debe transforma un texto de longitud variable en un bloque de


longitud fija, que generalmente es pequeño (algunos son de 16
bits).

Página 34 de 42
• Debe ser cómoda de usar e implementar.

• Debe ser irreversible, es decir, no se puede obtener el texto


original del resumen hash.

• Debe ser imposible encontrar dos mensajes diferentes cuya firma


digital mediante la función hash sea la misma (no-colisión).

• Si se desea además mantener un intercambio de información


con confidencialidad, basta con cifrar el documento a enviar
con la clave pública el receptor.

J. Certificados digitales.

Un certificado es un documento de identidad electrónica que identifica


a su propietario, con lo que resuelve el problema de la autenticidad de
las comunicaciones.

Están basados en la criptografía de clave pública y en las firmas digitales,


su misión es asociar una clave pública con la identidad de su propietario.
De esta forma tenemos la garantía de que la clave pública que estamos
utilizando para leer un mensaje pertenece realmente al emisor del
mensaje y no a un suplantador suyo. El certificado del emisor nos está
garantizando su autenticidad.

Los certificados son emitidos por una autoridad de certificación (CA,


Certificate Authority) y su credibilidad depende de la seguridad y
credibilidad que nos merezca el organismo que los ha emitido. La
autoridad de certificación se hace responsable de la exactitud y
veracidad de los datos contenidos en el certificado, en especial, de la
clave pública de su propietario.

Las autoridades de certificación son terceras partes de confianza (TPC o


TTP, Trusted Third Party). Este término se utiliza para indicar que dos
usuarios pueden confiar entre sí siempre que ambos tengan relación con
una tercera parte que avale a los dos. Entre las principales autoridades
de certificación podemos citar:

VeriSign (www.verisign.com), ACE (Agencia de Certificación Electrónica,


www.ace.es) y CERES (Autoridad pública de certificación española,
www.cert.fnmt.es). Esta última es el resultado de un proyecto puesto en
marcha por la Administración y liderado por la Fábrica Nacional de
Moneda y Timbre para aportar seguridad a las comunicaciones con la
Administración.

Para la emisión de un certificado, las autoridades de certificación


solicitan una serie de datos de la persona o entidad que estará vinculada
al certificado. El solicitante debe preparar un documento denominado
requerimiento de certificación en el que conste toda la información.
Según la cantidad de comprobaciones que se realicen, los certificados
se dividen en 4 clases:

Página 35 de 42
• Certificados de clase 1. Son los certificados más fáciles de
obtener, únicamente se requiere el nombre y la dirección de
correo electrónico del titular.

• Certificados de clase 2. En estos certificados la autoridad de


certificación comprueba además el permiso de conducir, el
número de la Seguridad Social y la fecha de nacimiento.

• Certificados de clase 3. A las verificaciones anteriores se añade la


verificación de crédito de la persona o empresa mediante un
servicio como Equifax.

• Certificados de clase 4. Además realiza una comprobación del


cargo o la posición de una persona dentro de una organización.

Una vez generados, los certificados contienen habitualmente los


siguientes datos:

• Versión del estándar X.509, habitualmente la 3 que es la más


reciente.

• Número de serie. Es un identificador único para cada certificado


emitido por una autoridad de certificación.

• Algoritmo de firma. Algoritmo criptográfico utilizado para la firma


digital (ejemplos: MD5 o SHA-1).

• Autoridad de certificación. Información sobre la autoridad que


emite el certificado.

• Fechas de inicio y fin de validez del certificado. Definen el


período de validez del mismo, que generalmente es de un año.
Como veremos más adelante un certificado puede ser revocado
de forma prematura en situaciones concretas.

• Propietario. Persona o entidad vinculada al certificado.

• Clave pública. Representación en hexadecimal de la clave


pública del propietario del certificado junto con el algoritmo
criptográfico para el que es aplicable.

• Algoritmo de firma usado por la autoridad de certificación.

• Firma de la autoridad de certificación. Asegura la autenticidad


del certificado.

• Información adicional del certificado.

Los certificados, como hemos comentado anteriormente, tienen una


validez habitualmente de 1 año.

Página 36 de 42
Su renovación reduce el riesgo de que las claves puedan ser obtenidas
por posibles atacantes. Sin embargo, un certificado puede ser anulado
antes de su fecha de expiración si se sospecha que las claves han sido
comprometidas o se ha usado de forma fraudulenta. La revocación del
certificado puede llevarla a cabo el propietario del mismo, la autoridad
de certificación o las autoridades judiciales.

Los usuarios conocen que un certificado ha revocado consultando


previamente la última lista de certificados revocados (CRL, Certificate
Revocation List) de la autoridad de certificación correspondiente. Un CRL
es un archivo público, firmado para la autoridad de certificación, que
contiene la fecha de emisión del mismo y una lista de certificados
revocados.

Para cada uno de ellos figura su número de identificación y la fecha en


que ha sido revocado. Para agilizar la consulta sobre la validez de un
certificado existen servicios de directorio o servicios de consulta de
certificados ofrecidos por entidades de confianza que indican al
momento si un certificado es válido o, en cambio, ha sido revocado.

K. Cortafuegos.

Un cortafuegos (o firewall), es un elemento de hardware o software


utilizado en una red de computadoras para controlar las
comunicaciones, permitiéndolas o prohibiéndolas según las políticas de
red que haya definido la organización responsable de la red. La
ubicación habitual de un cortafuegos es el punto de conexión de la red
interna de la organización con la red exterior, que normalmente es
Internet; de este modo se protege la red interna de intentos de acceso
no autorizados desde Internet, que puedan aprovechar vulnerabilidades
de los sistemas de la red interna.

También es frecuente conectar al cortafuegos una tercera red, llamada


zona desmilitarizada o DMZ, en la que se ubican los servidores de la
organización que deben permanecer accesibles desde la red exterior.

Un cortafuegos correctamente configurado añade protección a una


instalación informática, pero en ningún caso debe considerarse como
suficiente.

Las ventajas de un cortafuegos son:

• Protege de intrusiones. El acceso a ciertos segmentos de la red de


una organización, sólo se permite desde máquinas autorizadas
de otros segmentos de la organización o de Internet.

• Protección de información privada. Permite definir distintos niveles


de acceso a la información de manera que en una organización
cada grupo de usuarios definido tendrá acceso sólo a los
servicios y la información que le son estrictamente necesarios.

Página 37 de 42
• Optimización de acceso. Identifica los elementos de la red
internos y optimiza que la comunicación entre ellos sea más
directa. Esto ayuda a reconfigurar los parámetros de seguridad.

Limitaciones de un cortafuegos:

• No puede proteger contra aquellos ataques cuyo tráfico no pase


a través suyo.

• No puede proteger de las amenazas a que está sometido por


traidores o usuarios inconscientes. El cortafuegos no puede
prohibir que los traidores o espías corporativos copien datos
sensibles en medios físicos de almacenamiento (diskettes,
memorias, etc.) y sustraigan éstas del edificio. No puede proteger
contra los ataques posibles a la red interna por virus informáticos
a través de archivos y software. La solución real está en que la
organización debe ser consciente en instalar software antivirus en
cada máquina para protegerse de los virus que llegan por
cualquier medio de almacenamiento u otra fuente.

• No protege de los fallos de seguridad de los servicios y protocolos


de los cuales se permita el tráfico. Hay que configurar
correctamente y cuidar la seguridad de los servicios que se
publiquen a Internet.

L. Sistema de detección de intrusos.

Un Sistema de Detección de Intrusos (o IDS de sus siglas Intrusion


Detection System) es un programa usado para detectar accesos
desautorizados a un computador o a una red. Estos accesos pueden ser
ataques de habilidosos hackers, o de Script Kiddies que usan
herramientas automáticas. El IDS suele tener sensores virtuales con los
que el núcleo del IDS puede obtener datos externos (generalmente
sobre el tráfico de red). El IDS detecta, gracias a dichos sensores,
anomalías que pueden ser indicio de la presencia de ataques o falsas
alarmas.

El funcionamiento de estas herramientas se basa en el análisis


pormenorizado del tráfico de red, el cual al entrar al analizador es
comparado con firmas de ataques conocidos, o comportamientos
sospechosos, como puede ser el escaneo de puertos, paquetes
malformados, etc. El IDS no sólo analiza qué tipo de tráfico es, sino que
también revisa el contenido y su comportamiento.

Normalmente esta herramienta se integra con un firewall. El detector de


intrusos es incapaz de detener los ataques por sí solo, excepto los que
trabajan conjuntamente en un dispositivo de puerta de enlace con
funcionalidad de firewall, convirtiéndose en una herramienta muy
poderosa ya que se une la inteligencia del IDS y el poder de bloqueo
del firewall, al ser el punto donde forzosamente deben pasar los
paquetes y pueden ser bloqueados antes de penetrar en la red.

Página 38 de 42
Los IDS suelen disponer de una base de datos de “firmas” de ataques
conocidos. Dichas firmas permiten al IDS distinguir entre el uso normal
del PC y el uso fraudulento, y/o entre el tráfico normal de la red y el
tráfico que puede ser resultado de un ataque o intento del mismo.

M. Antivirus.

Los antivirus son programas cuya función es detectar y eliminar Virus


informáticos y otros programas maliciosos (a veces denominados
malware).

Básicamente, un antivirus compara el código de cada archivo con una


base de datos de los códigos (también conocidos como firmas o
vacunas) de los virus conocidos, por lo que es importante actualizarla
periódicamente a fin de evitar que un virus nuevo no sea detectado.

También se les ha agregado funciones avanzadas, como la búsqueda de


comportamientos típicos de virus (técnica conocida como Heurística) o
la verificación contra virus en redes de computadoras.

Normalmente un antivirus tiene un componente que se carga en


memoria y permanece en ella para verificar todos los archivos abiertos,
creados, modificados y ejecutados en tiempo real.

Es muy común que tengan componentes que revisen los adjuntos de los
correos electrónicos salientes y entrantes, así como los scripts y programas
que pueden ejecutarse en un navegador web.

Los virus, gusanos, spyware... son programas informáticos que se ejecutan


normalmente sin el consentimiento del legítimo propietario y que tienen la
característica de ejecutar recursos, consumir memoria e incluso eliminar o
destrozar la información.

Una característica adicional es la capacidad que tienen de propagarse.


Otras características son el robo de información, la pérdida de esta, la
capacidad de suplantación, que hacen que reviertan en pérdidas
económicas y de imagen.

Daños y perjuicios:

Dado que una característica de los virus es el consumo de recursos,


los virus ocasionan problemas tales como pérdida de productividad,
baja en el rendimiento del equipo, cortes en los sistemas de
información o daños a nivel de datos.

Otra de las características es la posibilidad que tienen de ir


replicándose en otras partes del sistema de información. Las redes
en la actualidad ayudan a dicha propagación.

Los daños que los virus dan a los sistemas informáticos son:

Página 39 de 42
• Pérdida de información (evaluable según el caso).

• Horas de contención (Técnicos de SI, Horas de paradas


productivas, tiempos de contención o reinstalación,
cuantificables según el caso + horas de asesoría externa).

• Pérdida de imagen (Valor no cuantificable).

Hay que tener en cuenta que cada virus es una situación nueva por
lo que es difícil cuantificar a prioridad, lo que puede costar una
intervención. Tenemos que encontrar métodos de realizar
planificación en caso de que se produzcan estas contingencias.

Métodos de contagio:

Existen dos grandes grupos de contaminaciones, los virus donde el


usuario en un momento dado ejecuta o acepta de forma
inadvertida la instalación del virus, o los gusanos donde el programa
malicioso actúa replicándose a través de las redes.

En cualquiera de los dos casos, el sistema operativo infectado


comienza a sufrir una serie de comportamientos anómalos o no
previstos. Dichos comportamientos son los que nos dan la traza del
problema y tienen que permitir la recuperación del mismo.

Dentro de las contaminaciones más frecuentes por interacción del


usuario están las siguientes:

• Mensajes que ejecutan automáticamente programas


(como el programa de correo que abre directamente un
archivo adjunto).

• Ingeniería social, mensajes como ejecute este programa y


gane un premio.

• Entrada de información en discos de otros usuarios


infectados.

• Instalación de software pirata o de baja calidad.

N. Las mayores amenazas para la seguridad.

SPAM:

Correo no solicitado con fines comerciales o publicitarios enviados por


internet (correo basura).

BOTNETS O ZOMBIES:

Cuando un atacante logra entrar en una máquina ajena, prefiere


mantenerse oculto y controlar el PC infectado desde el anonimato. Los
ordenadores zombies pueden ser controlados de forma remota.

Página 40 de 42
PHISHING:

El "phishing" consiste en el envío de correos electrónicos que,


aparentando provenir de fuentes fiables (por ejemplo, entidades
bancarias), intentan obtener datos confidenciales del usuario, que
posteriormente son utilizados para la realización de algún tipo de
fraude, en otras palabras intentar adquirir información confidencial de
forma fraudulenta.

MALWARE:

También llamado badware, código maligno, software malicioso o


software malintencionado, es un tipo de software que tiene como
objetivo infiltrarse o dañar una computadora sin el consentimiento de
su propietario. El término malware incluye virus, gusanos, troyanos, la
mayor parte de los rootkits, spyware, crimeware y otros softwares
maliciosos e indeseables.

VIRUS:

Un virus es un malware que tiene por objetivo alterar el funcionamiento


normal del ordenador, sin el permiso o el conocimiento del usuario. Los
virus, habitualmente, reemplazan archivos ejecutables por otros
infectados con el código de este.

GUSANOS:

Es un malware que tiene la propiedad de duplicarse a sí mismo.

TROYANO:

Un software malicioso que se presenta al usuario como un programa


aparentemente legítimo e inofensivo, pero que, al ejecutarlo, le brinda
a un atacante acceso remoto al equipo infectado.

ROOTKITS:

Permite un acceso de privilegio continuo a una computadora pero


que mantiene su presencia activamente oculta al control de los
administradores al corromper el funcionamiento normal del sistema
operativo o de otras aplicaciones.

SPYWARE:

Programa que recopila información sobre el usuario de un ordenador y


después transmite esta información a una entidad externa sin el
conocimiento o el consentimiento del propietario del ordenador.

CRIMEWARE:

Software que ha sido específicamente diseñado para la ejecución de


delitos financieros en entornos en línea.

Página 41 de 42
Queda prohibida la reproducción total o parcial por cualquier medio de
nuestras ediciones, incluido el escaneo a soporte digital, así como la
indexación temática del texto mediante sistemas de reconocimiento óptico de
caracteres para uso individual, en redes informáticas o bases de datos,
públicas o privadas, independientemente de su fin, salvo autorización por
escrito de la editorial.

Página 42 de 42

También podría gustarte