Está en la página 1de 159

Universidad Nacional de

Guinea Ecuatorial
Facultad de Economía

MANUAL DE INTRODUCCION A LA INFORMATICA Y LAS


TECNOLOGIAS DE INFORMACION

Autor:

Master Bernardo Ndjomo Nzo Miseng


Profesor coordinador del plan académico de la
especialidad de Informática de Gestión
Semestre I: septiembre – Febrero 2017.

(REV3)
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014

INTRODUCCION

El presente trabajo se prepara con la finalidad de satisfacer las necesidades de nivel


básico en sistemas de información del Grado de Informática de Gestión de la
Facultad de Economía de la UNGE, para darles a conocer en forma práctica los
conocimientos básicos que se requieren en la Informática como una herramienta
de trabajo y de la Investigación Científica.

En estos apuntes se desarrolla el contenido programático de la asignatura:


Introducción a la Informática, que se imparte a los Estudiantes que cursan el primer
semestre.

Además tienen por objeto proporcionar a los Estudiantes un material de apoyo


que presente la Informática del primer semestre de la manera más clara y
sencilla posible.

Al recopilar estas notas y organizarlas, se ha hecho siempre pensando en los


Estudiantes, con el fin de vencer las dificultades que con frecuencia se
enfrentan.

Ha sido elaborado tomando como guía, para el desarrollo de sus capítulos, el


programa de estudio de la materia establecido actualmente, y puede tratarse
durante el total de sesiones dedicadas en el semestre a la materia, distribuidas en
clases por semana. También puede ser útil para toda aquella persona que necesita
entender y aplicar la Información automatizada.

En cada capítulo hay ejercicios adicionales para que el alumno pueda practicar en
casa y de esta manera no se dependa exclusivamente del ejemplo dado.

2
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014

3
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014

CAPÍTULO 1

CONCEPTOS BASICOS

4
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014

1.1 CONCEPTOS BASICOS


La definición a la informática varía de acuerdo a percepción de cada autor de tal forma que
algunos opinan que es una ciencia, para otros es una serie de técnicas y procedimientos. Lo
cierto es que en los últimos años, se ha desarrollado tanto que hoy en día está presente en
todas las actividades del hombre, sin embargo definir cada uno de estos conceptos resulta
importante para que cada uno forme su propio criterio.

1.1.1 CIENCIA.
En su definición más amplia, es el conocimiento ordenado que se utiliza para organizar
experiencias y confirmarlas de manera objetiva. Se puede dividir en dos partes: una es la
ciencia pura, que es la búsqueda del conocimiento, la otra es la ciencia aplicada, que es la
búsqueda de usos útiles para los conocimientos adquiridos.

1.1.2. TECNOLOGÍA.
Es el proceso que le permite a los seres humanos diseñar herramientas y máquinas para
controlar su ambiente material y aumentar la comprensión de este.
El termino proviene de dos palabras griegas: tecné, que significa “arte” u “oficio”, y logos,
que significa “conocimiento” o “tratado”.
En conclusión, la tecnología es el conocimiento de los oficios.

1.1.3. INFORMACIÓN.
El matemático estadounidense Claude E. Shannon es el creador de la “teoría moderna de la
información”. De acuerdo con él, la información es todo lo que reduce la incertidumbre entre
varias alternativas posibles. Son los datos que necesitamos conocer para tomar decisiones de
manera más efectiva.

1.1.4 Tecnología de la Información (TI). Es el conjunto de métodos empleados para


recabar, retener, manipular y distribuir la información

1.1.5. INFORMÁTICA.
Es la ciencia de la información. El término se forma de la combinación de las palabras
información y automática. Por tanto, es el conjunto de conocimientos que permiten el
tratamiento automático de la información y se utiliza para abarcar a todo lo relacionado con el
manejo de datos mediante equipos de procesamiento automático como las computadoras.

5
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014

La informática tiene que ver con la programación, la arquitectura de las computadoras, la


inteligencia y la robótica, entre otros temas.

1.1.6. COMPUTADORA.
Máquina o dispositivo electrónico capaz de recibir datos, procesarlos y entregar los resultados
en la forma deseada, ya sea en el monitor o impresos. Los datos son procesados por
instrucciones en forma de programas.

1.1.7. DATOS.
Conjunto de símbolos que representan la información de manera que se permita su
procesamiento.

6
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014

1.2. SISTEMA INFORMÁTICO.


Un sistema informático (SI) es un sistema que permite almacenar y procesar información; es el
conjunto de partes interrelacionadas: hardware, software y personal informático (Wikipedia).

Equipos (hardware). Es el conjunto de piezas físicas que integran una computadora: unidad
central de proceso, las memorias, periféricos, los equipos de redes, etc (cap. 3).

Procesador placa-madre periféricos

10
10
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014

Software (cap. 4) Se conoce como software, al equipo lógico o soporte lógico de un sistema
informático, que comprende el conjunto de las instrucciones que le permiten al equipo físico
realizar tareas específicas. Están integrados por varios archivos que realizan diversas
funciones. Hay tres tipos de software: los sistemas operativos, Software de programación
y las aplicaciones informáticas (Wikipedia).
Sistemas operativos. Son el software básico que controla los recursos de hardware de la
computadora. Sirven de enlace entre la computadora, las aplicaciones informáticas y los
lenguajes. Realizan tres funciones principales
 Coordinan y manejan el hardware de la computadora.
 Organizan los archivos en varios dispositivos de almacenamiento.
 Solucionan los errores de hardware y la pérdida de datos.
Ejemplo: Linux, Windows, Android, OS, etc.

Instrucción. Es el conjunto de símbolos que representan una orden, operación o un tratamiento


para el computador.
Ejemplos: lanzar desde Windows la calculadora, realizar la suma de dos números, etc.
Un Programa.es un conjunto de instrucciones ordenadas que se dan al computador indicándole
las tareas o las operaciones que desea que realice.
Ejemplo de un programa en el lenguaje C
#include <stdio.h>
#include <conio.h>
int main(void) {
printf("Hola Mundo!\n");
getch();
return 0;
}

Lenguajes de programación. Son lenguajes artificiales, Se utilizan para definir una serie de
instrucciones, que representan las tareas que procesará una computadora. Al conjunto de
instrucciones agrupadas en un archivo ejecutable se le conoce como programa.
Ejemplo: java, c, c++,phyton, etc.

A las Aplicaciones informáticas, también se les conoce como interfaz de usuario, han sido
diseñadas para realizar una tarea específica, como el procesamiento de textos.

11
11
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014

Firmware. Es el software de sistema que reside en la memoria permanente de la computadora.

Personal informático. Son aquel conjunto de personas que desempeñan las distintas
funciones relacionadas con la utilización y explotación de las computadoras en una determinada
empresa u organización. También es una parte esencial en cualquier sistema informático,
incluye a los operadores, analistas programadores, desarrolladores, soporte, redes, en fin todos
aquellos que de una u otra manera se encargan de operar y mantener los sistemas servicios y
sistemas informáticos de una institución.
Según la relación que tengan las personas con la computadora las podemos clasificar en:
Usuarios: todas las personas que usamos las computadoras para distintos propósitos, por
ejemplo realizar dibujos, texto, cálculos, etc.
Programadores: son personas especializadas que desarrollan los programas informáticos.
Técnicos: es el personal que se encarga del funcionamiento de las computadoras y las redes.

12
12
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014

13
13
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014

EJERCICIOS

Relacionar los elementod de la izquierda con la derecha


Objetico Telefonista,cocinero,repartidores,

14
14
.

ANTECEDENTES
HISTÓRICOS
1.3 ANTECEDENTES HISTÓRICOS
1.3.1. GENERACIONES DE COMPUTADORAS
En comparación con otras tecnologías, la computadora personal ha evolucionado en un
periodo muy corto. Los desarrollos han sido impresionantes y no han cesado de ocurrir. En el
lapso de tan solo dos décadas, la PC ha pasado de ser un pasatiempo novedoso para
convertirse en una herramienta de flexibilidad y capacidades inmensas que se encuentran en
millones de hogares y negocios.

Para diferenciar las computadoras por su arquitectura, capacidad de cómputo y tipo de


componentes, se habla de generaciones de computadoras. Es difícil señalar con exactitud el
final de una generación de computadoras y el inicio de otra; sin embargo los grandes cambios
tecnológicos que tuvieron lugar en la segunda mitad del siglo XX, especial mente en los
campos de la microelectrónica y las telecomunicaciones, son los que marcan el inicio y el fin
de cada una de ellas.

Otro elemento que permite distingue entre una generación y otra son los avances en la
programación y el desarrollo de los sistemas operativos. También se pueden considerar los
dispositivos de almacenamiento masivo de información.

A continuación se enumeran las características principales de las cinco generaciones de


computadoras aceptadas:

1.3.2. PRIMERA GENERACIÓN


(Finales de los años 40’s a mediados de los 50’s)
Las computadoras de esta generación se construyeron con relevadores electromecánicos
(Mark1), o tubos de vacío (ENIAC).
 Grandes y costosas
 Generaban mucho calor
 Los datos se introducían mediante cintas o tarjetas perforadas
 La programación se realizaba en lenguaje máquina.
La computadora ENIAC es una clásica representante de la primera
generación. Estaba construida con tubos de vacío

Tarjeta perforada
1.3.3. SEGUNDA GENERACIÓN
(Mediados de los 50’s a mediados de los 60’s)

Su característica principal es la incorporación del transistor.


En 1954, John Bardee, Walter Brattain y William Shockley, de los laboratorios Bell,
construyeron la primera computadora transistor izada.
En 1957 Jonh Bakus crea el primer lenguaje de alto nivel: fortran (formula translator), que se
utiliza en la investigación Científica, las matemáticas y la ingeniería.
En 1960 Grace Murry y un equipo de programadores crean el lenguaje cobol (common
bussiness oriented lenguage, lenguaje común orientado a negocios)

1.3.4. TERCERA GENERACIÓN


(Segunda mitad de los años 60’s hasta 1971)

La iniciación de gran número de transistores en circuitos integrados. Jack S. Kilby-Texas


Instruments.
El circuito consta de muchos elementos electrónicos, como resistencias, condensadores,
diodos y transistores, que se colocan sobre una pastilla de silicio y se diseñan con un propósito
definido.
Las aportaciones de Robert Noyce, su trabajo se encuentra en el campo de los
semiconductores.
 Se crean los lenguajes Basic y Pascal
 Se incorporan los sistemas operativos
 Se inicia el teleproceso
 La comunicación es mediante tarjetas perforadas.
 Surgen los teclados
 Los datos se almacenan en cintas y discos magnéticos
 Se introducen las memorias intermedias ultra rápidas
(caché). Comienza la miniaturización y baja el consumo de
energía eléctrica
El primer circuito El circuito integrado marca el principio
integrado de la miniaturización en la computación
1.3.5. CUARTA GENERACIÓN
(1971-1984)
Está marcada por la aparición, en 1971, del primer microprocesador fabricado por la empresa
Intel Corporation, ubicada en Silicon Valley, en el estado de California en los estados unidos.
El microprocesador (chip) de 4 bits se conoce como “4004”
En 1977 surgen las primeras microcomputadoras (apple computer, radio shack, commodore,
sinclair, etc.)
IBM se incorpora a este mercado en 1981, con la computadora IBM-PC con procesador 8088
de Intel y 16 kb en la memoria principal. (sistema operativo MS-DOS)
En 1984 aparece la IBM AT, con procesador Intel 80286 y reloj interno a 16 mhz.

El 4004 de Intel, es el componente que marca


el inicio de la cuarta generación de
computadoras.

Desde su fundación la empresa Apple ha marcado el rumbo en el desarrollo de las


computadoras de escritorio de interfaz gráfica. (En 1983 presenta a lisa y un año después
produce la Macintosh. con Sistema Operativo de ambiente grafico y ratón o mouse).
Los de memoria masiva adquieren gran capacidad.
Se crean las redes de transmisión de datos (telemática)

20
20
Los lenguajes de alto nivel se vuelven más complejos.
El sistema operativo ms-dos de Microsoft se instala en la mayor parte de las pc´s.
Se crean las memorias virtuales, aparecen los paquetes integrados de software, surgen los
videojuegos.
En esta etapa la computadora se vuelve muy popular.

La IBM PC es la primera computadora que


utilizó el sistema operativo MS-DOS de
Microsoft.

1.3.6. QUINTA GENERACIÓN. (1984 a la actualidad)


Aparece la microelectrónica
El software para actividades profesionales asistidas por computadora.
La estructura cliente-servidor,
Los lenguajes que integran objetos
Sistemas expertos
Surgen las redes neurales, la teoría del caos, las curvas fractales, las fibras ópticas, las
telecomunicaciones y los satélites.

21
21
En 1982 Seymour Cray crea la primera supercomputadora con capacidad de procesamiento en
paralelo
En el mismo año el gobierno japonés anuncia el proyecto de “inteligencia artificial” para que
las computadoras puedan reconocer voz e imagen y se comuniquen en lenguaje natural.
El desarrollo de la red mundial de computadoras Internet y de la Word Wide Web, ha
proporcionado grandes beneficios a las empresas de todos los tamaños.

1.3.7. SEXTA GENERACIÓN. A partir de los 90’s


Las computadoras de esta época tienen cientos de microprocesadores vectoriales, que les
permiten realizar más de un billón de operaciones aritméticas de punto flotante por segundo
(teraflops)
Las redes del área mundial (wan) seguirán creciendo y tendrán acceso a los medios de
comunicación a través de fibra óptica y satélites.
Las tecnologías en desarrollo, se concentran en la inteligencia artificial, la holografía, la teoría
de caos y los transistores ópticos entre otros.

22
22
1.4. SISTEMA DE NUMERACIÓN Y CONVERSIONES

Los sistemas de numeración son las distintas formas de representar la información numérica. Se
nombran haciendo referencia a la base, que representa el número de dígitos diferentes para
representar todos los números.
El sistema habitual de numeración para las personas es el Decimal, cuya base es diez y
corresponde a los distintos dedos de la mano, mientras que el método habitualmente por los
sistemas electrónicos digitales es el Binario que utiliza únicamente dos cifras para representar la
información, el 0 y el 1.
Otros sistemas como el Octal (base 8) y el Hexadecimal (base 16) son utilizados en las
computadoras.
Asi pues cuelquier numero de cualquier base se puede representar mediante la siguiente ecuación
polinomica:

Siendo
b la base del sistema de nuemracion b > 1 y di, un numero perteneciente al sistema que cumple
0≤di<b
Ej:23(10=3x100+2x101

23
23
Sistema Binario
Los circuitos digitales internos que componen las computadoras Utilizan el sistema de
Numeración Binario para la interpretación de la información.
. Como mencionamos anteriormente este sistema utiliza dos cifras (el 0 y el 1) en dónde cada una
de ellas se denomina bit (contracción de binary digit).

De acuerdo al principio del sistema de numeración, el numero binario 1101(2 seria exactamente
igual 1x20+0x21+1x22+1x23=1x1001x101=11
Conversión de binario a decimal
El proceso para convertir un número del sistema binario al decimal es aún más sencillo; basta con
desarrollar el número, teniendo en cuenta el valor de cada dígito en su posición, que es el de una
potencia de 2, cuyo exponente es 0 en el bit situado más a la derecha, y se incrementa en una unidad
según vamos avanzando posiciones hacia la izquierda.
Por ejemplo, para convertir el número binario 10100112 a decimal, lo desarrollamos teniendo en cuenta
el valor de cada bit:
1x26 + 0x25 + 1x24 + 0x2 3+ 0x22 + 1x21 + 1x20 = 83
10100112(2 = 8310
Ejercicio 1:
Expresa, en el sistema decimal, los siguientes números binarios:
110111, 111000, 010101, 101010, 1111110

Conversión entre números decimales y binarios


Convertir un número decimal al sistema binario es muy sencillo: basta con realizar divisiones sucesivas
por 2 y escribir los restos obtenidos en cada división en orden inverso al que han sido obtenidos.
Por ejemplo, para convertir al sistema binario el número 7710 haremos una serie de divisiones que
arrojarán los restos siguientes:
77 : 2 = 38 Resto: 1
38 : 2 = 19 Resto: 0
19 : 2 = 9 Resto: 1
9 : 2 = 4 Resto: 1
4 : 2 = 2 Resto: 0
2 : 2 = 1 Resto: 0
1 : 2 = 0 Resto: 1

y, tomando los restos en orden inverso obtenemos la cifra binaria:


7710 = 10011012(2

Ejercicio 2:
24siguientes:  191, 25, 67, 99, 135, 276
Expresa, en código binario, los números decimales
24
Sistema de numeración octal
El inconveniente de la codificación binaria es que la representación de algunos números resulta muy
larga. Por este motivo se utilizan otros sistemas de numeración que resulten más cómodos de escribir: el
sistema octal y el sistema hexadecimal. Afortunadamente, resulta muy fácil convertir un número binario
a octal o a hexadecimal.
En el sistema de numeración octal, los números se representan mediante ocho dígitos diferentes: 0, 1, 2,
3, 4, 5, 6 y 7. Cada dígito tiene, naturalmente, un valor distinto dependiendo del lugar que ocupen. El
valor de cada una de las posiciones viene determinado por las potencias de base 8.
Por ejemplo, el número octal 273(8 tiene un valor que se calcula así:

2*82 + 7*81 + 3*80 = 2*64+ 7*8 + 3*1 = 187

2738 = 187
Conversión de un número decimal a octal
La conversión de un número decimal a octal se hace con la misma técnica que ya hemos utilizado en la
conversión a binario, mediante divisiones sucesivas por 8 y colocando los restos obtenidos en orden
inverso. Por ejemplo, para escribir en octal el número decimal 12210 tendremos que hacer las
siguientes divisiones:
122 : 8 = 15     Resto: 2
15 : 8 = 1           Resto: 7
1 : 8 = 0               Resto: 1

Tomando los restos obtenidos en orden inverso tendremos la cifra octal:

122 = 1728

Ejercicio 3:
Convierte los siguientes números decimales en octales:  6310,   51310,  
11910

Conversión octal a decimal


La conversión de un número octal a decimal es igualmente sencilla, conociendo el peso de cada
posición en una cifra octal. Por ejemplo, para convertir el número 237 8 a decimal basta con desarrollar
el valor de cada dígito:

Ejercicio 4:
Convierte al sistema decimal los siguientes números octales: 458,   1258,   6258

Sistema de numeración hexadecimal


En el sistema hexadecimal los números se representan con dieciséis símbolos: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9,
A, B, C, D, E y F. Se utilizan los caracteres A, B, C, D, E y F representando las cantidades decimales
10, 11, 12, 13, 14 y 15 respectivamente, porque no hay dígitos mayores que 9 en el sistema decimal. El
valor de cada uno de estos símbolos depende, como es lógico, de su posición, que se calcula mediante
potencias de base 16.
Calculemos, a modo de ejemplo, el valor del número hexadecimal 1A3F16:
25
1A3F16 = 1x165 + Ax164 + 3x163 +25 Fx162+1x161+6x160=1x1048576+
10x65536+3x4096+15x256+1x16+6x1=1048576+656360+12288+3840
+16+6=1721086

Ejercicio 5:
Expresa en el sistema decimal las siguientes cifras hexadecimales: 2BC516, 
10016,  1FF16

Ensayemos, utilizando la técnica habitual de divisiones sucesivas, la conversión de un número decimal


a hexadecimal. Por ejemplo, para convertir a hexadecimal del número 173510 será necesario hacer las
siguientes divisiones:
1735 : 16 = 108    Resto: 7
108 : 16 = 6           Resto: C es decir, 1210
6 : 16 = 0                Resto: 6

De ahí que, tomando los restos en orden inverso, resolvemos el número en hexadecimal:
173510 = 6C716

Ejercicio 6:
Convierte al sistema hexadecimal los siguientes números decimales: 3519,
1024, 4095

 Conversión de números binarios a octales y viceversa


Observa la tabla siguiente, con los siete primeros números expresados en los sistemas decimal,
binario y octal:
DECIMAL BINARIO OCTAL
0 000 0
1 001 1
2 010 2
3 011 3
4 100 4
5 101 5
6 110 6
7 111 7

Cada dígito de un número octal se representa con tres dígitos en el sistema binario. Por tanto, el modo
de convertir un número entre estos sistemas de numeración equivale a "expandir" cada dígito octal a
26caracteres binarios a su correspondiente dígito octal.
tres dígitos binarios, o en "contraer" grupos de tres
26
Por ejemplo, para convertir el número binario 1010010112 a octal tomaremos grupos de tres bits y los
sustituiremos por su equivalente octal:
1012 = 58
0012 = 18
0112 = 38
y, de ese modo: 1010010112 = 5138

Ejercicio 7:
Convierte los siguientes números binarios en octales: 11011012, 1011102,
110110112, 1011010112

La conversión de números octales a binarios se hace, siguiendo el mismo método, reemplazando cada
dígito octal por los tres bits equivalentes. Por ejemplo, para convertir el número octal 7508 a binario,
tomaremos el equivalente binario de cada uno de sus dígitos:
78 = 1112
58 = 1012
08 = 0002
y, por tanto: 7508 = 1111010002

Ejercicio 8:
Convierte los siguientes números octales en binarios: 258, 3728, 27538

Conversión de números binarios a hexadecimales y viceversa


Del mismo modo que hallamos la correspondencia entre números octales y binarios, podemos
establecer una equivalencia directa entre cada dígito hexadecimal y cuatro dígitos binarios,
como se ve en la siguiente tabla:

DECIMAL BINARIO HEXADECIMAL


0 0000 0
1 0001 1
2 0010 2
3 0011 3
4 0100 4
5 0101 5
6 0110 6
7 0111 7
8 1000 8
9 1001 9
10 1010 A
11 1011 B
12 1100 C
13 1101 D
14 1110 E
15 1111 F

La conversión entre números hexadecimales 27 y binarios se realiza "expandiendo" o "con-


trayendo" cada dígito hexadecimal a cuatro27
dígitos binarios. Por ejemplo, para expresar en
hexadecimal el número binario 1010011100112 bastará con tomar grupos de cuatro bits,
empezando por la derecha, y reemplazarlos por su equivalente hexadecimal: 
10102 = A16
01112 = 716
00112 = 316
y, por tanto: 1010011100112 = A7316

En caso de que los dígitos binarios no formen grupos completos de cuatro dígitos, se deben
añadir ceros a la izquierda hasta completar el último grupo. Por ejemplo:
1011102 = 001011102 = 2E16

Ejercicio 9:
Convierte a hexadecimales los siguientes números binarios:
1010100101011101010, 111000011110000, 1010000111010111

La conversión de números hexadecimales a binarios se hace del mismo modo, reemplazando


cada dígito hexadecimal por los cuatro bits equivalentes de la tabla. Para convertir a binario, por
ejemplo, el número hexadecimal 1F616 hallaremos en la tabla las siguientes equivalencias:

116 = 00012
F16 = 11112
616 = 01102
y, por tanto: 1F616 = 0001111101102

Ejercicio 10:
Convierte a binario los números hexadecimales siguientes: 7A5D16,
101016, 8F8F16

Representación de la Información
Para medir la cantidad de Información representada en binario se utilizan múltiplos,que a

28
28
diferencia de otras magnitudes físicas utilizan el factor multiplicador debido1 a que es el múltiplo de 2
más cercano a este último (210=1024) en lugar de 1000,

Multiplo Bits Equivalencia

Nibble Conjunto de 4 bits 1001

Byte Conjunto de 8 bits 10101010

Kilobyte (Kb) Conjunto de 1024 bytes 1024 * 8 bits


2
Megabyte (Mb) Conjunto de 1024 Kb 1024 * 8 bits
3
Gigabyte (Gb) Conjunto de 1024 Mb 1024 * 8 bits
4
Terabyte (Tb) Conjunto de 1024 Gb 1024 * 8 bits

La cantidad de dígitos necesarios para representar un número en el sistema binario es mayor que en el
sistema decimal. En el ejemplo del párrafo anterior, para representar el número 77, que en el sistema
decimal está compuesto tan sólo por dos dígitos, han hecho falta siete dígitos en binario.

Para representar números grandes harán falta muchos más dígitos. Por ejemplo, para representar
números mayores de 255 se necesitarán más de ocho dígitos, porque 2 8 = 256 y podemos afirmar, por
tanto, que 255 es el número más grande que puede representarse con ocho dígitos.

Como regla general, con n dígitos binarios pueden representarse un máximo de 2 n, números. El número
más grande que puede escribirse con n dígitos es una unidad menos, es decir, 2n – 1. Con cuatro bits,
por ejemplo, pueden representarse un total de 16 números, porque 24 = 16 y el mayor de dichos
números es el 15, porque 24-1 = 15.
Ejercicio 11:
Averigua cuántos números pueden representarse con 8, 10, 16 y 32 bits y cuál es el número más grande
que puede escribirse en cada caso.

Ejercicio 12:
Dados dos números binarios: 01001000 y 01000100 ¿Cuál de ellos es el mayor? ¿Podrías compararlos
sin necesidad de convertirlos al sistema decimal?
CAPÍTULO 2

INTRODUCCION AL HARDWARE
2.1. HARDWARE
El término hardware, se refiere a todas las partes tangibles de un sistema informático; sus
componentes son: eléctricos, electrónicos, electromecánicos y mecánicos. Son cables, gabinetes o
cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado. El término es propio
del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un
significado acorde, por tal motivo se la ha adoptado tal y como suena; la Real Academia
Española lo define como «Conjunto de los componentes que integran la parte material de una
computadora». El término, aunque sea lo más común, no solamente se aplica a las computadoras;
del mismo modo, también un robot, un teléfono móvil, una cámara fotográfica o un reproductor
multimedia poseen hardware. La historia del hardware de computador se puede clasificar en
cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Una
primera delimitación podría hacerse entre hardware básico, el estrictamente necesario para el
funcionamiento normal del equipo, y complementario, el que realiza funciones específicas.

2.1.1 clasificación del hardware

Una de las formas de clasificar el hardware es en dos categorías: por un lado, el básico, que
abarca el conjunto de componentes indispensables necesarios para otorgar la funcionalidad
mínima a una computadora; y por otro lado, el hardware complementario, que, como su nombre
indica, es el utilizado para realizar funciones específicas (más allá de las básicas), no
estrictamente necesarias para el funcionamiento de la computadora.
Cualquier actividad de computación se vale de dos funciones fundamentales:

 Una función de control que interpreta las instrucciones y vela para que realicen el orden
adecuado

 Una función de ejecución que realiza cálculos concretos tales como sumas
multiplicaciones etc.
En consecuencia los elementos principales de un computador que realizan las funciones
anteriores según el modelo de Von Neuman son:
1. La unidad de memoria UM, efectúa las operaciones de almacenamiento de
instrucciones y los datos
2. La unidad de control UCP (Unidad central de proceso) o procesador es la
encargada de interpretar, secuenciar las instrucciones y realizar los cálculos
3. Las Unidades de entrada y salida que transfiere las instrucciones a la UCP

32
32
Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar instrucciones
programadas y almacenadas en su memoria; consisten básicamente en operaciones aritmético-
lógicas y de entrada/salida. Se reciben las entradas (datos), se las procesa y almacena
(procesamiento), y finalmente se producen las salidas (resultados del procesamiento). Por ende
todo sistema informático tiene, al menos, componentes y dispositivos hardware dedicados a
alguna de las funciones antedichas;a saber:
1. Procesamiento: unidad central de procesamiento

2. Almacenamiento: Memorias

3. Entrada: Periféricos de entrada (E)

4. Salida: Periféricos de salida (S)

5. Entrada/Salida: Periféricos mixtos (E/S)

Desde un punto de vista básico y general, un dispositivo de entrada es el que provee el medio
para permitir el ingreso de información, datos y programas (lectura); un dispositivo de salida
brinda el medio para registrar la información y datos de salida (escritura); la memoria otorga la
capacidad de almacenamiento, temporal o permanente (almacenamiento); y la CPU provee la
capacidad de cálculo y procesamiento de la información ingresada (transformación).
Un periférico mixto es aquél que puede cumplir funciones tanto de entrada como de salida; el
ejemplo más típico es el disco rígido (ya que en él se lee y se graba información y datos).

2.1.2. Unidad central de proceso.


Conocida como CPU o simplemente procesador. Es el elemento que controla y ejecuta las
operaciones del sistema. Algunas de las partes que los integran son:
Unidad de control. Tiene tres funciones: coordina todas las actividades, se comunica con
todos los elementos del sistema y ejecuta las instrucciones del programa que se está utilizando
en el momento.
Unidad aritmética y lógica. Realiza dos clases de funciones: las operaciones (suma, resta,
multiplicaciones, división y funciones avanzadas) y las funciones de tipo lógico, (como las
comparaciones de mayor que (>), menor que (<), igual que (=), o los operadores lógicos (Y),
(O), y (NO) del álgebra de Boole.

33
33
Un servidor de red o una máquina de cálculo de alto rendimiento (supercomputación), puede tener
varios, incluso miles de microprocesadores trabajando simultáneamente o en paralelo
multiprocesamiento ); en este caso, todo ese conjunto conforma la CPU de la máquina.

Las unidades centrales de proceso (CPU) en la forma de un único microprocesador no sólo están
presentes en las computadoras personales (PC), sino también en otros tipos de dispositivos que
incorporan una cierta capacidad de proceso o "inteligencia electrónica", como pueden ser:
controladores de procesos industriales, televisores, automóviles, calculadores, aviones, teléfonos
móviles, electrodomésticos, juguetes y muchos más. Actualmente los diseñadores y fabricantes más
populares de microprocesadores de PC son Intel y AMD; y para el mercado de dispositivos móviles
y de bajo consumo, los principales son Samsung, Qualcomm y Texas Instruments

2.1.3 Placa principal, placa madre o placa base


La placa base, también conocida como placa madre o principal o con los anglicismos motherboard o
mainboard,es un gran circuito impreso sobre el que se suelda el chipset, las ranuras de expansión
(slots), los zócalos, conectores, diversos integrados, etc. Es el soporte fundamental que aloja y
comunica a todos los demás componentes: Procesador, módulos de memoria RAM, tarjetas gráficas,
tarjetas de expansión , periféricos de entrada y salida. Para comunicar esos componentes, la placa
base posee una serie de buses mediante los cuales se trasmiten los datos dentro y hacia afuera del
sistema.

La tendencia de integración ha hecho que la placa base se convierta en un elemento que incluye a la
mayoría de las funciones básicas (vídeo, audio, red, puertos de varios tipos), funciones que antes se
realizaban con tarjetas de expansión. Aunque ello no excluye la capacidad de instalar otras tarjetas
adicionales específicas, tales como captadoras de vídeo, tarjetas de adquisición de datos , etc.

También, la tendencia en los últimos años es eliminar elementos separados en la placa base e
integrarlos al microprocesador. En ese sentido actualmente se encuentran sistemas denominados
System on a Chip que consiste en un único circuito integrado que integra varios módulos
electrónicos en su interior, tales como un procesador, un controlador de memoria, una GPU, Wi-
Fi, Bluetooth, etc. La mejora más notable en esto está en la reducción de tamaño frente a igual

34
34
funcionalidad con módulos electrónicos separados. Las principales funciones que presenta una
placa base son:
 Conexión física
 Administración, control y distribución de energía eléctrica
 Comunicación de datos
 Temporización
 Sincronismo
 Control y monitoreo

Placa base de un Samsung galaxy

Placa base de una computadora

2.1.4.1 Unidad de memoria principal (RAM)


Su función es almacenar los programas y los datos mientras la computadora se encuentra en
funcionamiento. La información que se encuentra en ella se borra en el momento en que se

35
35
apaga la computadora. Por eso se le conoce como memoria temporal o volátil.

2.1.4.2 Read Only Memory (ROM) (memoria de solo lectura). Es permanente no puede ser
alterada y se utiliza para guardar el firmware del ordenador ejemplo la BIOS(Basic input output
System)

2.1.5. Periféricos

Se entiende por periférico a las unidades o dispositivos que permiten a la computadora comunicarse
con el exterior, esto es, tanto ingresar como exteriorizar información y datos. Los periféricos son los
que permiten realizar las operaciones conocidas como de entrada/salida (E/S).

Aunque son estrictamente considerados “accesorios” o no esenciales, muchos de ellos son


fundamentales para el funcionamiento adecuado de la computadora moderna; por ejemplo, el
teclado, el disco duro y el monitor son elementos actualmente imprescindibles; pero no lo son un
escáner o un plóter. Para ilustrar este punto: en los años 80, muchas de las primeras computadoras
personales no utilizaban disco duro ni mouse (o ratón), tenían sólo una o dos disqueteras, el teclado
y el monitor como únicos periféricos.

2.1.5.1 Dispositivos de entrada de información (E)

De esta categoría son aquellos que permiten el ingreso de información, en general desde alguna
fuente externa o por parte del usuario. Los dispositivos de entrada proveen el medio fundamental
para transferir hacia la computadora (más propiamente al procesador) información desde alguna
fuente, sea local o remota. También permiten cumplir la esencial tarea de leer y cargar en memoria
el sistema operativo y las aplicaciones o programas informáticos , los que a su vez ponen operativa la
computadora y hacen posible realizar las más diversas tareas.

Entre los periféricos de entrada se puede mencionar: teclado, mouse o ratón, escáner, micrófono,
cámara web, lectores ópticos de código de barras, Joystick, lectora de CD, DVD o BluRay (solo
lectoras), placas de adquisición/conversión de datos, etc.

Pueden considerarse como imprescindibles para el funcionamiento, (de manera cómo hoy se concibe
la informática) al teclado, al ratón y algún dispositivo lector de discos; ya que tan sólo con ellos el
hardware puede ponerse operativo para un usuario. Los otros son más bien accesorios, aunque en la
actualidad pueden resultar de tanta necesidad que son considerados parte esencial de todo el sistema.

36
36
2.1.5.2 Dispositivos de salida de información (S)

Son aquellos que permiten emitir o dar salida a la información resultante de las operaciones
realizadas por la CPU (procesamiento).

Los dispositivos de salida aportan el medio fundamental para exteriorizar y comunicar la


información y datos procesados; ya sea al usuario o bien a otra fuente externa, local o remota.

Los dispositivos más comunes de este grupo son los monitores clásicos (no de pantalla táctil), las
impresoras, y los altavoces.

Entre los periféricos de salida puede considerarse como imprescindible para el funcionamiento del
sistema, al monitor. Otros, aunque accesorios, son sumamente necesarios para un usuario que opere
un computador modern

2.1.5.3 Dispositivos mixtos (E/S de información)


Son aquellos dispositivos que pueden operar de ambas formas: tanto de entrada como de salida.
Típicamente, se puede mencionar como periféricos mixtos o de entrada/salida a: discos rígidos,
disquetes, unidades de cinta magnética, lector-grabadoras de CD/DVD, discos ZIP, etc. También
entran en este rango, con sutil diferencia, otras unidades, tales como: Tarjetas de Memoria flash o
unidad de estado sólido , tarjetas de red, módems, tarjetas de captura/salida de vídeo, etc.

Si bien se puede clasificar al pendrive (lápiz de memoria), memoria flash o memoria USB o
unidades de estado sólido en la categoría de memorias, normalmente se los utiliza como dispositivos
de almacenamiento masivo; siendo todos de categoría Entrada/Salida.15

Los dispositivos de almacenamiento masivo también son conocidos como "Memorias Secundarias o
Auxiliare. Entre ellos, sin duda, el disco duro ocupa un lugar especial, ya que es el de mayor
importancia en la actualidad, en el que se aloja el sistema operativo, todas las aplicaciones,
utilitarios, etc. que utiliza el usuario; además de tener la suficiente capacidad para albergar
información y datos en grandes volúmenes por tiempo prácticamente indefinido. Los servidores
Web, de correo electrónico y de redes con bases de datos, utilizan discos rígidos de grandes

37
37
capacidades y con una tecnología que les permite trabajar a altas velocidades como SCSI incluyendo
también, normalmente, capacidad de redundancia de datos RAID; incluso utilizan tecnologías
híbridas: disco rígido y unidad de estado sólido, lo que incrementa notablemente su eficiencia. Las
interfaces actuales más usadas en discos duros son: IDE, SATA, SCSI y SAS; y en las unidades de
estado sólido son SATA y PCI-Express ya que necesitan grandes anchos de banda.

La pantalla táctil (no el monitor clásico) es un dispositivo que se considera mixto, ya que además de
mostrar información y datos (salida) puede actuar como un dispositivo de entrada, reemplazando,
por ejemplo, a algunas funciones del ratón o del teclado.

ESTRUCTURA FUNCIONAL DE UNA COMPUTADORA

COMPUTA
UTADOR
A CENTRAL

CPU

38
38
UNIDAD UNIDAD
DE UNIDAD
DE
ENTRAD DE
MEMORIA
SALID
A PRINCIPA A
L

UNIDADES DE
MEMORIAS MASIVAS
u
N
I
D
A
D
E
S

D
E

M
E
M
O
R
I
A

M
A
S
I
V
A

39
39
Hardware gráfico

El hardware gráfico lo constituyen básicamente las tarjetas gráficas. Dichos componentes


disponen de su propia memoria y unidad de procesamiento, esta última llamada unidad de
procesamiento gráfico (o GPU, siglas en inglés de Graphics Processing Unit). El objetivo básico
de la GPU es realizar los cálculos asociados a operaciones gráficas, fundamentalmente en coma
flotante,liberando así al procesador principal (CPU) de esa costosa tarea (en tiempo) para que
éste pueda efectuar otras funciones en forma más eficiente. Antes de esas tarjetas de vídeo con
aceleradores por hardware, era el procesador principal el encargado de construir la imagen
mientras la sección de vídeo (sea tarjeta o de la placa base) era simplemente un traductor de las
señales binarias a las señales requeridas por el monitor; y buena parte de la memoria principal
(RAM) de la computadora también era utilizada para estos fines.
Dentro de ésta categoría no se deben omitir los sistemas gráficos integrados (IGP), presentes
mayoritariamente en equipos portátiles o en equipos prefabricados (OEM), los cuales
generalmente, a diferencia de las tarjetas gráficas, no disponen de una memoria dedicada,
utilizando para su función la memoria principal del sistema. La tendencia en los últimos años es
integrar los sistemas gráficos dentro del propio procesador central. Los procesadores gráficos
integrados (IGP) generalmente son de un rendimiento y consumo notablemente más bajo que las
GPU de las tarjetas gráficas dedicadas, no obstante, son más que suficiente para cubrir las
necesidades de la mayoría de los usuarios de un PC.
Actualmente se están empezando a utilizar las tarjetas gráficas con propósitos no exclusivamente
gráficos, ya que en potencia de cálculo la GPU es superior, más rápida y eficiente que el
procesador para operaciones en coma flotante, por ello se está tratando de aprovecharla para
propósitos generales, al concepto, relativamente reciente, se le denomina GPGPU (General-
Purpose Computing on Graphics Processing Units).
La Ley de Moore establece que cada 18 a 24 meses la cantidad de transistores que puede
contener un circuito integrado se logra duplicar; en el caso de los GPU esta tendencia es bastante
más notable, duplicando, o aún más, lo indicado en la ley de Moore.

40
40
2.2. CLASIFICACIÓN DE LAS COMPUTADORAS
Las computadoras, como las conocemos en la actualidad, pertenecen al grupo de sistemas
digitales, se pueden clasificar por su capacidad de proceso en:

2.2.1. Tipos de computadoras


Supercomputadoras
Macrocomputadoras (mainframe)
Minicomputadoras
Microcomputadoras
Computadoras de Mano

Supercomputadoras: Son las más potentes y son utilizadas por UNAM, NASA, etc., su
precio es de varios millones de dólares y tienen la capacidad de proceso de Billones de
operaciones por segundo.

Macrocomputadoras: (mainframe): Son más comunes y se utilizan para base de datos


extensas y las utilizan Bancos entre otros, su precio es desde 250,000.00 hasta 5 millones de
Dólares, y procesan millones de operaciones por segundo.

Minicomputadoras: Tienen arquitectura parecidas a las Macrocomputadoras, se utilizan para


medianas empresas y su velocidad es menor que de las anteriores.

Microcomputadoras: Son las computadoras personales (PC) y son las más populares,
estas se utilizan en las escuelas, oficinas, etc.

Computadoras de Mano: Estas se conocen como agendas electrónicas, la más conocida es


la Palm, esta tiene la característica de ejecutar programas como las PC de escritorio.

41
41
42
42
CAPÍTULO 3

SOFTWARE DE APLICACIÓN
Y SISTEMA OPERATIVO

43
43
Concepto general

Se conoce como software al equipo lógico o soporte lógico de un sistema informático, que


comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de
tareas específicas, en contraposición a los componentes físicos que son llamados hardware.

Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como
el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de
textos; el llamado software de sistema, tal como el sistema operativo, que básicamente permite al
resto de los programas funcionar adecuadamente, facilitando también la interacción entre los
componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario.

Existen varias definiciones similares aceptadas para software, pero probablemente la más formal
sea la siguiente:

Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados, que
forman parte de las operaciones de un sistema de computación (estándar 729 del IEEE5).

La tarea del programador es convertir el algoritmo en un programa, añadiendo detalles, superando


los puntos difíciles, probando los procedimientos y corrigiendo los errores y eliminando la
ambigüedad, que es una de las principales fuentes de errores en las computadoras.

CLASIFICACION DEL SOFTWARE


Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines prácticos se puede
clasificar al software en tres grandes tipos:

Software de sistema: Su objetivo es desvincular adecuadamente al usuario y al programador de los


detalles del sistema informático en particular que se use, aislándolo especialmente del procesamiento
referido a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones,
impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador
adecuadas interfaces de alto nivel, controladores, herramientas y utilidades de apoyo que permiten
el mantenimiento del sistema global. Incluye entre otros:

 Sistemas operativos

 Controladores de dispositivos

 Interfaz grafica

44
44
Software de programación: Es el conjunto de herramientas que permiten al programador desarrollar
programas informáticos, usando diferentes alternativas y lenguajes de programación, de una manera
práctica. Incluyen básicamente:

 Editores de texto

 Compiladores

 Intérpretes

 Enlazadores

 Depuradores

 Entornos de Desarrollo Integrados (IDE):

Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias tareas
específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial
énfasis en los negocios. Incluye entre muchos otros:

 Aplicaciones para Control de sistemas y automatización industrial

 Aplicaciones ofimáticas

 Software educativo

 Software empresarial

 Bases de datos

 Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)

 Videojuegos

 Software médico

 Software de cálculo numérico y simbólico.

 Software de diseño asistido (CAD)

 Software de control numérico (CAM)

FUENTES DEL SOFTWARE

Elaboración propia: Diseño y programado realizado por personal de la organización. Para


determinar si esta estrategia es la mejor se deben evaluar los siguientes factores:

¿Tiene la organización suficiente personal capacitado para desarrollar programas


propios?
¿Permite el programa de desarrollo terminar el proyecto en un plazo aceptable?
¿Es el costo de esta alternativa una buena inversión comparada con otras alternativas?

¿Se podría adquirir de otras maneras el programa necesario?

45
45
Paquetes comprados: Programa o conjunto de programas ya escritos, diseñados para ejecutar
tareas específicas. Las preguntas clave son:
¿Tiene el paquete las características adecuadas a un costo razonable?
Es aceptable el costo en relación con el costo de desarrollo convencional o propio?
¿Es suficiente el número de usuarios de ese programa para garantizar que quienes lo
elaboran respaldaran el paquete después de comprado?

Elaboración por contrato: Es una alternativa conveniente en las siguientes condiciones:


La organización carece de personal técnico para producir el programa deseado.
No hay paquetes generalizados que sea adecuado para el trabajo.
El costo de esta alternativa no es prohibitivo.
Se pueden hacer arreglos convenientes para el mantenimiento (cambios, correcciones y
mejoras) del software después de que haya sido entregado.

46
46
EL Sistema Operativo:

Definición: Programa básico que utiliza un ordenador. Se encarga de controlar y gestionar


eficazmente todos los dispositivos y recursos de hardware:
• Teclado: pulsaciones del teclado
• Pantalla: refresco de la imagen
• Memoria principal y secundaria: lectura y escritura de ficheros
• Impresoras: gestión del buffer de impresión
• Carga y Ejecución de Aplicaciones
•... y demás tareas rutinarias

Es el primer programa que se carga en el ordenador y el de mayor prioridad

Intérprete:

El S.O. actúa como intérprete entre las Aplicaciones o Programas y el Hardware. Las aplicaciones no
interactúan directamente sobre el hardware sino que se apoyan en el sistema operativo.

Las Aplicaciones, dependen totalmente del sistema operativo que se esté utilizando. Es necesario obtener
una versión de la aplicación para cada Sistema Operativo que queramos usar.

Tareas del S.O.:


• Los componentes básicos de un sistema operativo son los siguientes:
1. Gestión de procesos
Un proceso es, sencillamente, un programa en ejecución que necesita una serie de recursos para realizar
su tarea: tiempo de CPU (Central Process Unit o Unidad de Proceso Central, es decir, el procesador
principal del ordenador), memoria, archivos y dispositivos de E/S (entrada/salida).

Es función del sistema operativo:


 Planificación de procesos: decide qué proceso emplea el procesador en cada instante de tiempo.

 Mecanismos de comunicación entre procesos: permiten comunicar a dos procesos del sistema
operativo.

 Mecanismos de sincronización: permiten coordinar a procesos que realizan accesos concurrentes


a un cierto recurso.

47
47
2. Administración de memoria principal
La memoria es como un gran almacén con casillas (bytes)) a los que se accede mediante una dirección
única. Este almacén de datos es compartido por la CPU y los dispositivos de E/S.

El Sistema operativo se encarga de gestionar este espacio como responsable de:


 Conocer qué partes de la memoria están siendo utilizadas y por quién.

 Decidir qué procesos se cargarán en memoria cuando haya espacio disponible

 Asignar y reclamar espacio de memoria cuando sea necesario

3. Administración de ficheros
Gestiona la manera en que la información se almacena en dispositivos de entrada/salida que
permiten el almacenamiento estable.
4. Gestión de los dispositivos de entrada/salida (driver)
Parte del sistema operativo que conoce los detalles específicos de cada dispositivo, lo que permite
poder operar con él.
Además, el sistema operativo ofrece:
 Lanzador de aplicaciones: permite el lanzamiento de un programa. Esto incluye los intérpretes de
órdenes textuales y los basados en gestores de ventanas.

 Llamadas al sistema: conjunto de servicios que los procesos pueden solicitar al sistema operativo.

Llamadas al sistema operativo

Definición breve: llamadas que ejecutan los programas de aplicación para pedir algún servicio al SO.

Cada SO implementa un conjunto propio de llamadas al sistema. Ese conjunto de llamadas es la


interfaz del SO frente a las aplicaciones. Constituyen el lenguaje que deben usar las aplicaciones para
comunicarse con el SO. Por ello si cambiamos de SO, y abrimos un programa diseñado para trabajar
sobre el anterior, en general el programa no funcionará, a no ser que el nuevo SO tenga la misma
interfaz. Para ello:

 Las llamadas correspondientes deben tener el mismo formato.

 Cada llamada al nuevo SO tiene que dar los mismos resultados que la correspondiente del
anterior.

48
Llamadas al sistema 48
Una aplicación, normalmente no sabe dónde está situada la rutina de servicio de la llamada. Por lo
que si ésta se codifica como una llamada de función, cualquier cambio en el S.O. haría que hubiera
que reconstruir la aplicación.

Pero lo más importante es que una llamada de función no cambia el modo de ejecución de la CPU.
Con lo que hay que conseguir llamar a la rutina de servicio, sin tener que conocer su ubicación, y
hacer que se fuerce un cambio de modo de operación de la CPU en la llamada (y la recuperación del
modo anterior en el retorno).

Esto se hace utilizando instrucciones máquina diseñadas específicamente para este cometido,
distintas de las que se usan para las llamadas de función.

Bibliotecas de interfaz de llamadas al sistema


Las llamadas al sistema no siempre tienen una expresión sencilla en los lenguajes de alto nivel, por
ello se crean las bibliotecas de interfaz (API) que son bibliotecas de funciones que pueden usarse
para efectuar llamadas al sistema. Las hay para distintos lenguajes de programación.

La aplicación llama a una función de la biblioteca de interfaz (mediante una llamada normal) y esa
función es la que realmente hace la llamada al sistema.

Interrupciones y excepciones

El SO ocupa una posición intermedia entre los programas de aplicación y el hardware. No se limita a
utilizar el hardware a petición de las aplicaciones ya que hay situaciones en las que es el hardware el
que necesita que se ejecute código del SO. En tales situaciones el hardware debe poder llamar al
sistema, pudiendo deberse estas llamadas a dos condiciones:

 Algún dispositivo de E/S necesita atención.

 Se ha producido una situación de error al intentar ejecutar una instrucción del programa
(normalmente de la aplicación).

En ambos casos, la acción realizada no está ordenada por el programa de aplicación, es decir, no
figura en el programa.

Según los dos casos anteriores tenemos las interrupciones y las excepciones:

 Interrupción: señal que envía un dispositivo de E/S a la CPU para indicar que la operación de
la que se estaba ocupando, ya ha terminado.

 Excepción: una situación de error detectada por la CPU mientras ejecutaba una instrucción,
que requiere tratamiento por parte del SO.

49
49

Tratamiento de las interrupciones


Una interrupción se trata en todo caso, después de terminar la ejecución de la instrucción en curso.

El tratamiento depende de cuál sea el dispositivo de E/S que ha causado la interrupción, ante la cual
debe poder identificar el dispositivo que la ha causado.

La ventaja de este procedimiento es que no se tiene que perder tiempo ejecutando continuamente
rutinas para consultar el estado del periférico. El inconveniente es que el dispositivo debe tener los
circuitos electrónicos necesarios para acceder al sistema de interrupciones del computador.

Excepciones
Cuando la CPU intenta ejecutar una instrucción incorrectamente construida, la unidad de control lanza
una excepción para permitir al SO ejecutar el tratamiento adecuado. Al contrario que en una
interrupción, la instrucción en curso es abortada. Las excepciones al igual que las interrupciones
deben estar identificadas.

Clases de excepciones

Las instrucciones de un programa pueden estar mal construidas por diversas razones:

 El código de operación puede ser incorrecto.

 Se intenta realizar alguna operación no definida, como dividir por cero.

 La instrucción puede no estar permitida en el modo de ejecución actual.

 La dirección de algún operando puede ser incorrecta o se intenta violar alguno de sus
permisos de uso.

Importancia de las excepciones

El mecanismo de tratamiento de las excepciones es esencial para impedir, junto a los modos de
ejecución de la CPU y los mecanismos de protección de la memoria, que las aplicaciones realicen
operaciones que no les están permitidas. En cualquier caso, el tratamiento específico de una
excepción lo realiza el SO.

Como en el caso de las interrupciones, el hardware se limita a dejar el control al SO, y éste es el que
trata la situación como convenga.

Es bastante frecuente que el tratamiento de una excepción no retorne al programa que se estaba
ejecutando cuando se produjo la excepción, sino que el SO aborte la ejecución de ese programa. Este
factor depende de la pericia del programador para controlar la excepción adecuadamente.

50
50
Evolución de los Sistemas Operativos

Primera generación (1945-1955)


• No existen Sistemas Operativos.
• Un grupo reducido de gente diseñaba, construía, programaba, mantenía
cada máquina.
• Las instrucciones se codificaban a mano.
• El programador insertaba su trabajo y esperaba su turno.
• Existía un desaprovechamiento inadecuado del computador
("tiempos muertos de la CPU").
 Disparidad de tiempos de ejecución entre la CPU y los dispositivos de
E/S.
• En 1950 aparecen las tarjetas perforadas.
Segunda generación (1955-1965)
• Aparición de los transistores.
• Se especializa el personal (diseñadores, analistas, ...).
• Se desarrollan los primeros sistemas operativos.
• Se procesan los trabajos por lotes ("batch").
• El S.O. se entiende como un programa de control que planifica los
trabajos.
Tercera generación (1965-1980)
• Aparecen los circuitos integrados y la multiprogramación.
• Existen muchas computadoras diferentes con S.O. muy diferentes.
• Se suministran una gran cantidad de programas de utilidad.
• Los S.O. son complejos.
• Se utilizan dispositivos virtuales como las técnicas de SPOOL.
• Multiprocesamiento (sistemas compuestos de varios procesadores).
• Surgimiento de la Ingeniería del Software.
• Separación entre la venta de hardware y software.

Cuarta generación (1980-2000)


• Circuitos LSI (alta escala de integración) y, posteriormente, VLSI.
• Relanzamiento de los ordenadores personales.
• Crecimiento del software para las computadoras personales.
• Crecimiento de las redes de computadoras que ejecutan S.O. en red y
distribuidos.

51
51
Quinta generación (2000-...)
• Aparición de las computadoras de bolsillo (PDA, Personal Digital
Assistant) como ampliación de las agendas electrónicas.
• Los S.O. se adaptan a estas nuevas computadoras y teléfonos móviles
(mucho más pequeños que una computadora).

52
52
Tipos de Sistemas Operativos

CLASIFICACIÓN DE LOS SISTEMAS OPERATIVOS


Los sistemas operativos se pueden clasificar atendiendo a:
 ADMINISTRACIÓN DE TAREAS:

o MONOTAREA: los que permiten sólo ejecutar un programa a la vez

o MULTITAREA: los que permiten ejecutar varias tareas o programas al mismo tiempo

 ADMINISTRACIÓN DE USUARIOS

o MONOUSUARIO: aquellos que sólo permiten trabajar a un usuario, como es el caso de los
ordenadores personales

o MULTIUSUARIO: los que permiten que varios usuarios ejecuten sus programas a la vez.

 ORGANIZACIÓN INTERNA O ESTRUCTURA

Monolítico Es la estructura de los primeros sistemas operativos constituidos fundamentalmente por


un solo programa compuesto de un conjunto de rutinas entrelazadas de tal forma que cada una
puede llamar a cualquier otra. Las características:
 Construcción del programa final a base de módulos compilados separadamente que se unen
a través del ligador.
 Buena definición de parámetros de enlace entre las distintas rutinas existentes, que puede
provocar mucho acoplamiento.
 Carecen de protecciones y privilegios al entrar a rutinas que manejan diferentes aspectos de
los recursos de la computadora, como memoria, disco, etc.
Es decir, ese sistema nos permite entender cualqier concepto adicional referente a las normas y
modificaciones de la misma.
Jerárquico, A medida que fueron creciendo las necesidades de los usuarios y se perfeccionaron los
sistemas. Se hizo necesaria una mayor organización del software, del sistema operativo, donde una parte
del sistema contenía subpartes y esto organizado en forma de niveles. Ejemplos: Multics y Unix.

Máquina Virtual
Se trata de un tipo de sistemas operativos que presentan una interface a cada proceso, mostrando
una máquina que parece idéntica a la máquina real subyacente. Estos sistemas operativos separan
dos conceptos que suelen estar unidos en el resto de sistemas: la multiprogramación y la máquina
extendida. El objetivo de los sistemas operativos de máquina virtual es el de integrar distintos
sistemas operativos dando la sensación de ser varias máquinas diferentes. Es un software.
La estructura de este sistema operativo maquina virtuales parte principalmente de un Kernel que se
le denomina como monitor de la máquina virtual lo cual este se ejecuta sobre el hardware
generando así varias máquinas virtuales formando lo que se llama la multiprogramación

53
53
 MANEJO DE RECURSOS O ACCESO A SERVICIOS

o CENTRALIZADOS (cliente-Servidor): si permite utilizar los recursos de un solo ordenador


(Servidor) que permite el acceso a otros ordenadores o sistemas(clientes)

o DISTRIBUIDOS: si permite utilizar los recursos (CPU, memoria, periféricos...) de más de un


ordenador al mismo tiempo

Por número de procesadores


Sistema operativo monoprocesador
Los sistemas uniprocesador solo pueden trabajar con un solo procesador si tuviera dos seria
multiprocesador Ejemplo: DOS.

Sistema operativo multiprocesador


Los sistemas multiproceso pueden utilizar varios procesadores para distribuir el trabajo de cada
uno. Generalmente estos trabajan o pueden ser de dos tipos:
 Asimétrica: es donde el sistema operativo selecciona un procesador maestro y los demás
funcionan como esclavos.

 Simétrica: en este tipo se envía información o se trabaja con el procesador con menos carga y así
se distribuye mejor el trabajo, los procesos son enviados indistintamente a cualquiera de los
procesadores disponibles.

Componentes básicos de un Sistema operativo

Principales sistemas operativos para ordenadores


El actual mercado global de sistemas operativos para ordenadores personales es cuasi un
monopolio de un sistema opertivo, el Windows de Microsoft en sus diversas versiones, más dos
jugadores secundarios: el pujante Mac OS X de Apple, que sube poco a poco aprovechándose del
tirón de los dispositivos móviles de la compañía de la manzana, y las diversas distribuciones de un
Linux que no termina de despegar.

54
54
En este gráfico de StatCounter, que comprende el periodo desde el 01.01.13 a 15.09.13 [Operating
System,"Market Share Perc. (W01 to W38 2013)"] y que incluye tanto sistemas operativos de
escritorio como móviles, vemos que los datos a favor de Microsoft son demoledores:
 MS Windows: 85'61% (Win7:52.77 + WinXP: 22 + WinVista: 5.81 + Win8: 5.03)

 Apple Mac OSX: 7.31%

 Apple iOS: 4%

 Google Android: 1.3%

 GNU/Linux: 1.15

Microsoft copa más de un 85% del mercado global de sistemas operativos; el MacOS X de Apple
no llega al 8% y GNU/Linux se hunde a poco más de un uno por ciento.
En cuanto a su filosofía de construcción, el único sistema operativo 100% libre es GNU/Linux;
pues Android, aunque basado en linux sobre una licencia libreGPLv2, tiene varias partes del
sistema propiedad de distintas compañías.
Tanto Windows como OSX e iOS son software propietario, aunque los sistemas operativos de
Apple estén basados en una distribución de GNU/Linux llamada BSD (Berkley Sofwtare
Distribution)

55
55
Microsoft Windows

Microsoft Windows es el nombre que recibe la familia de sistemas operativos desarrollada por
Microsoft, basada (obviamente) en ventanas. Ostenta el liderazgo absoluto en el mercado de
sistemas operativos para ordenadores (sobremesa y portátiles), y su último lanzamiento lo ha
constituido Windows 8, listo para su disponibilidad general en octubre de 2012.
En su versión 1.0 de noviembre de 1985 Windows fue, más que un sistema operativo, una
extensión gráfica de MS-DOS. No fue hasta la versión 3.0 de 1990 en que Windows alcanzó un
mínimo grado de estabilidad y funcionalidad, y en la versión 3.11 de 1992 se mejoraron algunos
problemas.
Windows 95 supuso un gran paso adelante en la evolución del sistema, que aún así seguía siendo
relativamente inestable.
No fue sino hasta el lanzamiento de Windows XP en octubre de 2001, construido sobre el kernel
de Windows NT, que Windows alcanzó su madurez como sistema operativo.
Sin embargo, en enero de 2007 Microsoft volvió a las andadas con el gran fiasco de Windows
Vista, una versión inestable, lenta y que exigía de grandes recursos para su funcionamiento. Aún
en equipos potentes, Vista no acababa de ir fluido, y su versión básica, que según las
especificaciónes requería 512MB de RAM para ser funcional, terminó por necesitar en realidad
4GB, ocho veces más de lo inicialmente previsto. Windows Vista fue un fracaso comercial, con
Microsoft teniendo que autorizar los downgrades (regresar a XP desde Vista) de usuarios
corporativos descontentos del rendimiento de sus equipos con Vista.

Windows 7 supuso un gran éxito en comparación con Vista: el sistema se diseñó como una mejora
incremental, sin añadir un excesivo número de nuevas funcionalidades, y tanto el desempeño
general como la estabilidad fueron bastante buenas.
Finalmente, en octubre de 2012 Microsoft lanzó su gran apuesta de futuro para enfrentarse a su
gran rival de siempre, Apple: Windows 8 y su renovada interfaz Metro (Modern UI), un
completo y arriesgado rediseño del paradigma de usabilidad que ha desconcertado a los
tradicionales usuarios de Windows. Por vez primera desde Win95, el botón de inicio ya no está
en la barra de tareas.
56
56
El rediseño de la interfaz obedece a la necesidad de Microsoft de enfrentarse a su bestia negra
Apple, que con el lanzamiento del iPad logró una novedad disruptiva que abrió todo un nuevo
segmento de mercado, el de las tablets, e inaguró una nueva era: la era post-PC. Malas noticias
para Microsoft, cuyo principal bastión se encuentra precisamente en los ordenadores personales
(Sistemas operativos y el paquete ofimático Office) y que en absoluto estaba posicionado ni en el
nuevo mercado de las tablets ni en el pujante de los smartphones, donde Android e iOS se reparten
el pastel.
Windows 10, plantea una unificación de la interfaz de usuario para todos los dispositivos:
ordenadores personales, tablets y smartphones.

OS X

OS X, antes conocido como Mac OS X, es el nombre de la familia de sistemas operativos basados


en UNIX, desarrollados por Apple y vendidos exclusivamente con su gama de ordenadores
Macintosh desde 2002.

57
57
La 'X' hace referencia al número 10 en números romanos y es parte fundamental de la identidad
corporativa de la marca.
OS X es el sistema operativo de uso general más avanzado que existe: desde la versión 10.5 es,
además, un sistema certificado UNIX 03

OS X está basado en BSD (Berkley Software Distribution, o Distribución de Software de Berkley),


un sistema operativo derivado de Unix y desarrollado en la californiana universidad de Berkley,
construido sobre un conjunto de tecnologías que se desarrollaron en NeXT, una empresa
californiana fundada por Steve Jobs (co-fundador de Apple) cuando fue forzado a renunciar a sus
tareas en Apple.
Aunque NeXT tuvo ventas relativamente bajas, su sistema operativo NeXTStep constituyó un
importante avance en el desarrollo de los sistemas operativos, y fue la base sobre la que se
construyó el magnífico Mac OS X.

58
58
Tim Berners-Lee, el fundador de la web tal como la conocemos hoy en día, usó un NeXT
Computer para sus investigaciones en el CERN (Organización Europea para la Investigación
Nuclear, del francés Conseil Européen pour la Recherche Nucléaire), y un NeXT fue precisamente
el primer servidor web del mundo, en el citado CERN.

GNU/Linux

Corría abril de 1991 cuando un joven estudiante finlandés de 21 años, Linus Torvalds, comenzó a
trabajar en la tarea de crear el kernel de un sistema operativo (SO) gratuito, similar a Unix, al estar
disconforme con las características de Minix, un SO usado por aquel entonces en entornos
educativos.
Fue el 26 de agosto de 1991 cuando Linus publicó aquel histórico mensaje en el grupo de noticias
(newsgroups, una aplicación similar a los actuales foros, pero en la red Usenet) comp.os.minix:
"Estoy haciendo un sistema operativo (gratuito, sólo un hobby, no será nada grande ni
profesional como GNU) para clones AT 386(486). Llevo en ello desde abril y está empezando a
estar listo. Me gustaría saber su opinión sobre
59las cosas que les gustan o disgustan en minix, ya
que mi SO tiene algún parecido con él.[...] 59Actualmente he portado bash(1.08) y gcc(1.40), y
parece que las cosas funcionan. Esto implica que tendré algo práctico dentro de unos meses..."
Comenzaba la historia de lo que, pasado el tiempo, acabaría convirtiéndose en Linux (combinación
de Linus + UNIX) o, mejor dicho, GNU/Linux.

GNU/Linux es un sistema operativo que se desarrolla bajo los principios del


software libre y de código abierto, y está licenciado bajo la GPL v2 (del inglés
General Public License o Licencia Pública General).
 Linux es el núcleo del sistema (basado en los principios constructivos del robusto UNIX.

 GNU, por su parte, aporta un conjunto de herramientas básicas indispensable para el


funcionamiento del Sistema Operativo.

De ahí la confusión y controversia entre ambas denominaciones.


La forma correcta de denominar al sistema operativo es GNU/Linux, tal y como promueve la
Fundación de Software Libre (FSF, del inglés Free Software Foundation).
GNU/Linux, al estar basado en un sistema operativo como UNIX, es tremendamente robusto,
modular y adaptable. Puede funcionar en entorno gráfico o en modo consola (sólo texto), y se
adapta tanto a potentes servidores como a dar una nueva vida a ordenadores obsoletos para otros
sistemas operativos. Incluso es el corazón del sistema operativo líder en dispositivos móviles
inteligentes, el Android de Google.
GNU/Linux cuenta con varios entornos de escritorio (conjunto de programas compuesto por
ventanas, iconos y otras aplicaciones), los más populares de los cuales son Gnome, KDE, LXDE
y Xfce, entre otros muchos.
Para los usuarios domésticos, GNU/Linux se organiza o distribuye en lo que se denominan
distribuciones.

Una distribución Linux (o distro) es el conjunto formado por el sistema operativo y


una selección determinada de aplicaciones, ya compilado y configurado para su
correcto funcionamiento.
Existen multitud de estas distribuciones, y cualquier institución o persona física puede crear la
suya, al ser software libre. Es práctica habitual que algunos centros educativos desarrollen su
propia distribución de GNU/Linux, para incorporar algunas características o funcionalidades que
consideren interesantes.

60
60
Algunas de las distribuciones tienen soporte comercial (hay empresas que se dedican a ofrecer
soluciones basadas en ellas), como Fedora (Red Hat), Ubuntu (la sudafricana Canonical),
openSUSE (Novell) o Mandriva (de la compañía gala de idéntico nombre), mientras que otras
distribuciones están mantenidas por la comunidad de usuarios y desarrolladores, que contribuyen
libremente y de forma altruista (Debian o Gentoo).
En España, las administraciones autonómicas han fomentado la creación de sus propias
distribuciones de GNU/Linux para aprovechar mejor los recursos públicos en el terreno educativo,
y no malgastarlos en el pago de licencias para sistemas y aplicaciones propietarias.
Extremadura con su gnuLinEx se ha situado como región pionera en el apoyo y desarrollo de
software libre; la Comunitat Valenciana, por su parte, ha desarrollado Lliurex para facilitar el
acceso a las TIC (Tecnologías de la Información y las Comunicaciones) al conjunto de la
comunidad educativa valenciana.

61
61
En la actualidad, las distros más extendidas son Ubuntu (basada en Debian) y Linux Mint, a su vez
basada en Ubuntu y muy centrada en la usabilidad y en la facilidad de instalación. Es ideal para los
usuarios sin experiencia previa en Linux.
Te animamos a que pruebes e instales una distribución de GNU/Linux. Como te hemos comentado,
Linux Mint o Ubuntu son ideales para comenzar. Además del sistema operativo en sí, tienes a tu
disposición aplicaciones equivalentes a las que más usas en Window u OSX: navegadores
(Chromium o Firefox), paquetes ofimáticos (Open Office o Libre Office, totalmente compatibles
con MS Office), editores gráficos (GIMP), visualizadores y editores de imágenes (XnView,
Gwenview), reproductores para mp3's (XMMS, Banshee, RhytmBox) o vídeo (VLC, xine,
MPlayer).

62
62
CAPÍTULO 4

LENGUAJES DE PROGRAMACION

63
63
Lenguajes
Los lenguajes naturales son aquellos con los cuales hablamos y escribimos en nuestras actividades
cotidianas. Los lenguajes de programación ocupan una posición intermedia entre los lenguajes
naturales humanos y los precisos lenguajes de máquina.

Gracias a la progresiva complejidad de los lenguajes traductores que permiten convertir las
instrucciones de un lenguaje de programación al lenguaje de máquina, la programación puede usar
lenguajes de computación que se parecen cada vez más a los lenguajes naturales.

También se habla de lenguajes naturales para referirse al software que permite que los sistemas de
computación acepten, interpreten y ejecuten instrucciones en el lenguaje materno o "natural" que habla
el usuario final, por lo general el inglés. La mayor parte de los lenguajes naturales comerciales están
diseñados para ofrecer a los usuarios un medio de comunicarse con una base de datos corporativa o
con un sistema experto.

Lenguajes de programación
Un lenguaje de programación consiste en un conjunto de órdenes o comandos que describen el proceso
deseado. Cada lenguaje tiene sus instrucciones y enunciados verbales propios, que se combinan para
formar los programas de cómputo.

Los lenguajes de programación no son aplicaciones, sino herramientas que permiten construir y
adecuar aplicaciones.

Características de la programación

Un programa útil tiene 5 atributos:

1. Exactitud y precisión: Un programa debe aceptar datos, procesarlos y generar resultados sin
errores de sintaxis o de lógica; de ahí la necesidad de exactitud y precisión.
2. Integridad o completitud: U n programa es completo sólo si ejecuta todas las operaciones
que el usuario espera al procesar un conjunto de datos.
3. Generalidad: La generalidad se entiende en dos sentidos:

Un programa bien diseñado se puede generalizar; es decir puede procesar conjuntos de


datos que varían en el número de transacciones y en la naturaleza de los
datos mismos. Las instrucciones se deben elaborar para que no se limiten a un número
específico de transacciones en el conjunto de datos. No debe suponerse que una
parte específica de datos siempre sea de igual tamaño.

El programa contiene diferentes opciones que pueden o no ser aplicadas durante una
corrida. Los usuarios pueden seleccionar la opción adecuada cada vez.

64
64
4. Eficiencia: Debe asegurarse que las instrucciones para procesar datos se selecciones tan rápida
y fácilmente como sea posible. La rapidez y la eficiencia del procesamiento de datos puede variar
debido a:

Modo como se introducen los datos, orden en que se


procesan los datos,
Instrucciones particulares que se empleen para controlar el
Proceso,

5. Documentación: Consiste en la inclusión de auxiliares que explican con claridad como ocurre el
procesamiento de los datos en un programa. La documentación incluida en un programa es de dos
tipos:

Externa: No está incluida en el programa mismo sino que va por separado. Comprende:
o diagrama de flujo que muestre los pasos y los procedimientos y el
orden en el cual tienen lugar;
o explicación que describa en el lenguaje común cómo es el procesamiento de los
datos;
o descripción de los datos que van a introducirse y procesarse, incluyendo
su tipo y tamaño.
Interna: Consiste en comentarios y descripciones que se insertan entre los enunciados
ejecutables de un programa. Explica la sucesión de los pasos del procesamiento y los
objetivos de los diferentes grupo de enunciados del programa

Generaciones de lenguajes de programación


Los lenguajes de programación se dividen en 2 categorías fundamentales:

bajo nivel: Son dependientes de la máquina, están diseñados para ejecutarse en una determinada
computadora. A esta categoría pertenecen las 2 primeras generaciones.
Alto Nivel: Son independientes de la máquina y se pueden utilizar en una variedad de
computadoras. Pertenecen a esta categoría la tercera y la cuarta generación. Los lenguajes de más
alto nivel no ofrecen necesariamente mayores capacidades de programación, pero si ofrecen una
interacción programador/computadora más avanzada. Cuanto más alto es el nivel del lenguaje,
más sencillo es comprenderlo y utilizarlo.

Cada generación de lenguajes es más fácil de usar y más parecida a un lenguaje natural que su
predecesores. Los lenguajes posteriores a la cuarta generación se conocen como lenguajes de muy alto
nivel. Son lenguajes de muy alto nivel los generadores de aplicaciones y los naturales.

En cada nuevo nivel se requieren menos instrucciones para indicar a la computadora que
efectúe una tarea particular. Pero los lenguajes de alto nivel son sólo una ayuda para el
programador. Un mayor nivel significa que son necesarios menos comandos, debido a que cada
comando o mandato de alto nivel reemplaza muchas instrucciones de nivel inferior.

65
65
1. Primera - Lenguaje de máquina : Empieza en los años 1940-1950.
Consistía en sucesiones de dígitos binarios. Todas las instrucciones y mandatos se escribían
valiéndose de cadenas de estos dígitos. Aún en la actualidad, es el único lenguaje interno que
entiende la computadora; los programas se escriben en lenguajes de mayor nivel y se traducen a
lenguaje de máquina.

2. Segunda – Lenguajes ensambladores: Fines de los ’50. Se diferencian de los lenguajes de máquina
en que en lugar de usar códigos binarios, las instrucciones se representan con símbolos fáciles de
reconocer, conocidos como mnemotécnicos ,. Aún se utilizan estos lenguajes cuando interesa un
nivel máximo de eficiencia en la ejecución o cuando se requieren manipulaciones intrincadas. Al igual que
los lenguajes de la máquina, los lenguajes ensambladores son únicos para una
computadora particular. Esta dependencia de la computadora los hace ser lenguajes de bajo nivel.

3. Tercera: años ’60. Los lenguajes de esta generación se dividen en tres categorías, según se orienten
a:

Procedimientos: Requieren que la codificación de las instrucciones se haga en la secuencia en


que se deben ejecutar para solucionar el problema. A su vez se clasifican en científicos (p.ej.:
FORTRAN), empresariales (v.g.: COBOL), y de uso general o múltiple (p.ej.: BASIC). Todos
estos lenguajes permiten señalar cómo se debe efectuar una tarea a un nivel mayor que
en los lenguajes ensambladores. Hacen énfasis los procedimientos o las
matemáticas implícitas, es decir en lo que se hace (la acción).
problemas: Están diseñados para resolver un conjunto particular de problemas y no requieren el
detalle de la programación que los lenguajes orientados a procedimientos. Hacen hincapié
en la entrada y la salida deseadas.
objetos: El énfasis se hace en el objeto de la acción. Los beneficios que aportan estos
lenguajes incluyen una mayor productividad del programador y claridad de la lógica, además de
ofrecer la flexibilidad necesaria para manejar problemas abstractos de programación.

4. Cuarta: su característica distintiva es el énfasis en especificar qué es lo que se debe hacer, en


vez de cómo ejecutar una tarea. Las especificaciones de los programas se desarrollan a un
más alto nivel que en los lenguajes de la generación anterior. La característica distintiva es
ajena a los procedimientos, el programador no tiene que especificar cada paso para terminar una tarea o
procesamiento. Las características generales de los lenguajes de cuarta generación son:
Uso de frases y oraciones parecidas al inglés para emitir instrucciones;
no operan por procedimientos, por lo que permiten a los usuarios centrarse en lo que hay
que hacer no en cómo hacerlo;
Al hacerse cargo de muchos de los detalles de cómo hacer las cosas, incrementan la
productividad.

Hay dos tipos de lenguajes de cuarta generación, según se orienten:

a la producción: Diseñados sobre todo para profesionales en la computación.


al usuario: Diseñados sobre todo para los usuarios finales, que pueden escribir programas para
hacer consultas en una base de datos y para crear sistemas de información. También se llama
lenguaje de consultas (SQL, Structured Query Language: lenguaje estructurado para
consultas ).

66
66
Pasos en el desarrollo de programas
1. Descripción del problema: Identificación precisa de las necesidades a satisfacer.
2. Análisis del problema: D i v i s i ó n del problema en sus componentes básicos. Para la
mayoría de los programas estos componentes son:

Salida entrada procesamiento


Interacción de archivos

3. Diseño de la lógica general del programa: Luego del análisis corresponde unir
todas las piezas. Un programa se diseña jerárquicamente, yendo de los aspectos
generales a los aspectos específicos. El diseño general se orienta a las principales actividades de
procesamiento y a las relaciones entre éstas. Al completar primero un diseño general se
pueden investigar distintas alternativas de diseño; luego de elegida la mejor se avanza a un diseño
más detallado.
4. Diseño de la lógica detallada del programa: Se produce una representación gráfica
de la lógica del programa que incluye todas las actividades de procesamiento y sus
relaciones, cálculos, manejos de datos, operaciones lógicas y todas las operaciones de
entrada/salida.
5. Codificación: Se traduce el diseño gráfico y narrativo de los pasos anteriores a instrucciones
o programas que la máquina puede leer.
6. Prueba y depuración: Búsqueda y eliminación de errores de sintaxis y de lógica.
7. Documentación: Para responder a las necesidades a pesar los cambios los programas deben
actualizarse periódicamente o mantenerse. El mantenimiento se dificulta si la documentación no está
completa y actualizada. La documentación forma parte del proceso de
programación. No es algo que se lleve a cabo cuando el programa está escrito. Como mínimo la
documentación de cada programa debe incluir:

Descripción del programa; gráfica estructural; diagrama de flujo;


Enlistado del programa (con comentarios internos) una sesión interactiva (entrada/salida
cuando se ejecuta el programa)

Errores en la programación

de sintaxis: Violaciones de las reglas "gramaticales" del lenguaje de programación para la escritura
de instrucciones. Ejemplos:
Inclusión de símbolos o caracteres que no están permitidos. Omisión de la referencia de los
datos por leer o escribir (se tiene
que indicar a la CPU qué debe leer o escribir). Escritura errónea de una orden.
de lógica : Consisten en el uso inadecuado de instrucciones que son correctas en sintaxis; son
errores en la estructura lógica que ocasionan diferencian entre lo que se quiere que haga el
programa y lo que hace en realidad.

67
67
PROGRAMAS
Los programas de computación son conjuntos o estructuras de instrucciones u órdenes codificados
que hacen que la computadora efectúe una serie de operaciones para alcanzar un propósito
específico.

Se llama programado a los conjuntos o series de instrucciones, lenguaje y métodos que hacen
posible que una persona utilice una computadora. En sentido general el programado es un conjunto
de órdenes o mandatos puestos para controlar la operación de un sistema de cómputo para efectuar el
cálculo y el procesamiento de datos. El objetivo primario es controlar todas las actividades de
procesamiento de datos y cerciorarse que los recursos y la capacidad de la computadora sean
aprovechados de la manera más eficaz.

Programa almacenado, fuente y objeto


Fuente: Es el programa de cómputo escrito en un lenguaje de programación. Todos
los programas fuente deben compilarse o traducirse antes que el sistema los pueda
ejecutar.
objeto: Se llama programa o código objeto al programa de cómputo luego que ha sido
traducido al lenguaje de máquina. El programa objeto es la salida del proceso de compilación.
Almacenado: Es un concepto que se debe a John von Neumann que afirmaba la necesidad de
que las instrucciones de los programas deben almacenarse junto con los datos en la memoria

Programación estructurada o Modular

En esta programación se maneja en forma jerárquica la lógica del programa en módulos lógicos. Al final
se traduce la lógica de cada módulo a una secuencia de instrucciones del programa que se pueden ejecutar
de manera independiente. El planteamiento estructurado reduce la complejidad de la tarea de programación.

La programación estructurada es una técnica para hacer más simple y productiva la


programación. Un programa estructurado no depende de enunciados GoTo (enunciado utilizado
para transferir el control a otras partes del programa) para controlar el flujo lógico, sino que se construye
a partir de programas más pequeños llamados módulos o subprogramas, que a su vez se componen de
módulos más pequeños. Lo que se hace es combinar los módulos usando las 3 estructuras de control
básicas: secuencia, repetición y selección.

Un programa está bien estructurado si:

Está formado por módulos lógicamente coherentes; los módulos están dispuestos en una jerarquía;
y es directo y legible.

68
68
La programación orientada a objetos o POO
Es un paradigma de programación que usa los objetos en sus interacciones, para diseñar aplicaciones y
programas informáticos. Está basado en varias técnicas, incluyendo herencia, cohesión, abstracción, polimorfismo,
acoplamiento y encapsulamiento. Su uso se popularizó a principios de la década de los años 1990

Conceptos fundamentales de la POO


La programación orientada a objetos es una forma de programar que trata de encontrar una
solución a los problemas. Introduce nuevos conceptos, que superan y amplían conceptos antiguos
ya conocidos. Entre ellos destacan los siguientes:
Clase

Definiciones de las propiedades y comportamiento de un tipo de objeto concreto. La instanciación


es la lectura de estas definiciones y la creación de un objeto a partir de ella.

Herencia

es la facilidad mediante la cual la clase D hereda en ella cada uno de los atributos y operaciones de
C, como si esos atributos y operaciones hubiesen sido definidos por la misma D. Por lo tanto,
puede usar los mismos métodos y variables públicas declaradas en C. Los componentes
registrados como "privados" (private) también se heredan, pero como no pertenecen a la clase, se
mantienen escondidos al programador y sólo pueden ser accedidos a través de otros métodos
públicos. Esto es así para mantener hegemónico el ideal de POO.

Objeto

Instancia de una clase. Entidad provista de un conjunto de propiedades o atributos (datos) y de


comportamiento o funcionalidad (métodos), los mismos que consecuentemente reaccionan a
eventos. Se corresponden con los objetos reales del mundo que nos rodea, o con objetos internos
del sistema (del programa). Es una instancia a una clase.

Método

ES el comportamiento de una clase, es lo que el objeto de la clase puede hacer. Un método puede
producir un cambio en las propiedades del objeto, o la generación de un "evento" con un nuevo
mensaje para otro objeto del sistema.

Evento

Es un suceso en el sistema (tal como una interacción del usuario con la máquina, o un mensaje
enviado por un objeto). El sistema maneja el evento enviando el mensaje adecuado al objeto
pertinente. También se puede definir como evento la reacción que puede desencadenar un
objeto; es decir, la acción que genera.

69
69
Atributos

Características que tiene la clase.

Propiedad o atributo

Contenedor de un tipo de datos asociados a un objeto (o a una clase de objetos), que hace los
datos visibles desde fuera del objeto y esto se define como sus características predeterminadas, y
cuyo valor puede ser alterado por la ejecución de algún método.

Características de la POO
Existe un acuerdo acerca de qué características contempla la "orientación a objetos". Las
características siguientes son las más importantes:
Abstracción

Cada objeto en el sistema sirve como modelo de un "agente" abstracto que puede realizar
trabajo, informar y cambiar su estado, y "comunicarse" con otros objetos en el sistema sin revelar
cómo se implementan estas características.

Encapsulamiento

Significa reunir todos los elementos que pueden considerarse pertenecientes a una misma
entidad, al mismo nivel de abstracción. Esto permite aumentar la cohesión de los componentes
del sistema..

Modularidad

Se denomina modularidad a la propiedad que permite subdividir una aplicación en partes más
pequeñas (llamadas módulos), cada una de las cuales debe ser tan independiente como sea
posible de la aplicación en sí y de las restantes partes.

Polimorfismo

Comportamientos diferentes, asociados a objetos distintos, pueden compartir el mismo nombre;


al llamarlos por ese nombre se utilizará el comportamiento correspondiente al objeto que se esté
usando. O, dicho de otro modo, las referencias y las colecciones de objetos pueden contener
objetos de diferentes tipos.

Herencia

Las clases no se encuentran aisladas, sino que se relacionan entre sí, formando una jerarquía de
clasificación. Los objetos heredan las propiedades y el comportamiento de todas las clases a las
que pertenecen. La herencia organiza y facilita el polimorfismo y el encapsulamiento, permitiendo
a los objetos ser definidos y creados como tipos especializados de objetos preexistentes

70
70
Recolección de basura

La recolección de basura o garbage collection es la técnica por la cual el entorno de objetos se


encarga de destruir automáticamente, y por tanto desvincular la memoria asociada, los objetos
que hayan quedado sin ninguna referencia a ellos. Esto significa que el programador no debe
preocuparse por la asignación o liberación de memoria, ya que el entorno la asignará al crear un
nuevo objeto y la liberará cuando nadie lo esté usando.

Traductores, compiladores e intérpretes

Los traductores son programas elaborados que convierten los programas escritos en un lenguaje de
programación en pulsos eléctricos que el sistema de cómputo puede entender, es decir los transforman en
lenguaje de máquina. Los programas de traducción pueden ser:

1. Compiladores: El programa compilador traduce las instrucciones en un lenguaje de alto nivel


a instrucciones que la computadora puede interpretar y ejecutar. Para cada lenguaje de
programación se requiere un compilador separado. El compilador traduce todo el programa antes
de ejecutarlo.
Los compiladores son, pues, programas de traducción insertada en la memoria por el
sistema operativo para convertir programas de cómputo en pulsaciones electrónicas ejecutables (lenguaje de
máquina). Los compiladores pueden ser de:

una sola pasada: examina el código fuente una vez, generando el código o programa
objeto.
pasadas múltiples : requieren pasos intermedios para producir un código en otro
lenguaje, y una pasada final para producir y optimizar el código producido durante los
pasos anteriores.

También hay compiladores incrementales que generan un código objeto instrucción por
instrucción (en vez de hacerlo para todo el programa) cuando el usuario teclea cada orden
individual. El otro tipo de compiladores requiere que todos los enunciados o instrucciones
se compilen conjuntamente.

El proceso de compilación puede requerir tiempo, sobre todo para los programas grandes,
pero los programas compilados tienden a ejecutarse con mayor rapidez que los programas
interpretados. La recopilación sólo es necesaria cuando se modifica el programa.

2. Intérpretes: Es un programa que desempeña la misma función que un compilador, pero en


forma diferente. En lugar de traducir todo el programa fuente en un solo paso, traduce y
ejecuta cada instrucción del programa fuente antes de traducir y ejecutar la siguiente.

La ventaja es que un error en la sintaxis "salta" inmediatamente a la vista del programador.

La desventaja es que no produce un programa objeto, por lo que debe realizar el proceso de
traducción cada vez que se ejecuta un programa.

71
71
CLASIFICACION DE LAS PRINCIPALES LENGUAJES DE PROGRAMACION (Alto
Nivel)

Algunos de los lenguajes de alto nivel más conocidos son:

Java es un lenguaje de programación de propósito general, concurrente, orientado a objetos y


basado en clases que fue diseñado específicamente para tener tan pocas dependencias de
implementación como fuera posible. Su intención es permitir que los desarrolladores de
aplicaciones escriban el programa una vez y lo ejecuten en cualquier dispositivo (conocido en inglés
como WORA, o "write once, run anywhere"), lo que quiere decir que el código que es ejecutado en
una plataforma no tiene que ser recompilado para correr en otra. Java es, a partir de 2012, uno de
los lenguajes de programación más populares en uso

Fortran, que quiere decir FORmula TRANslator (traductor de fórmulas) y se diseñó


específicamente para problemas de matemáticas u de ingeniería, se introdujo en 1957.

Cobol. Que quiere decir COmmon Business Oriented Lenguaje (lenguaje orientado a
negocios comunes) fue desarrollado en 1960. este antiguo lenguaje de alto nivel posee algunas
de las declaraciones más parecidas al idioma inglés, en comparación con cualquier otro
lenguaje de computo. Lo que facilito su lectura pero no la escritura debido a la gran variedad
de verbosidad extra.

Basic. Que quiere decir Baginners All purpose Symbolic Instruction Code (código de
instrucción simbólica para todo propósito, dirigido a principiantes. Fue desarrollado en 1964,
es un lenguaje con mucho un lenguaje sencillo para que los estudiantes aprendan.

Pascal. Se introdujo en 1971, nombrado así en honor del inventor francés Blaise Pascal, es
un leguaje excelente para aprender a cerca de la programación estructurada.

C. es considerado como el pura sangre de los lenguajes de programación, fue desarrollado a


principios de los años 70´ por los laboratorios Bell, es un lenguaje muy poderoso, es muy
popular, y es el más utilizado, pero es muy tedioso para las personas que comienzan a
programar computadoras.

C++. Es el sucesor de C, introduce la orientación a objetos en C. los objetos proporcionan una


forma completamente nueva de ver a los programas. Este es un programa aun mas difícil de
aprender que C.

72
72
73
73
74
74
Ingeniería de software es la aplicación de un enfoque sistemático, disciplinado y cuantificable
al desarrollo, operación y mantenimiento de software,1 y el estudio de estos enfoques, es decir, la
aplicación de la ingeniería al software.2 Integra matemáticas, ciencias de la computación y
prácticas cuyos orígenes se encuentran en la ingeniería.3
Se citan las definiciones más reconocidas, formuladas por prestigiosos autores:
 Ingeniería de software es el estudio de los principios y metodologías para el desarrollo y
mantenimiento de sistemas software (Zelkovitz, 1978).

 Ingeniería de software es la aplicación práctica del conocimiento científico al diseño y


construcción de programas de computadora y a la documentación asociada requerida para
desarrollar, operar y mantenerlos. Se conoce también como desarrollo de software o producción
de software (Bohem, 1976).

 La ingeniería de software trata del establecimiento de los principios y métodos de la ingeniería a


fin de obtener software de modo rentable, que sea fiable y trabaje en máquinas reales (Bauer,
1972).

 La ingeniería de software es la aplicación de un enfoque sistemático, disciplinado y cuantificable


al desarrollo, operación, y mantenimiento del software. 1

En 2004, la U. S. Bureau of Labor Statistics (Oficina de Estadísticas del Trabajo de Estados


Unidos) contó 760 840 ingenieros de software de computadora.4 El término "ingeniero de
software", sin embargo, se utiliza de manera genérica en el ambiente empresarial, y no todos los
que se desempeñan en el puesto de ingeniero de software poseen realmente títulos de ingeniería
de universidades reconocidas.
Algunos autores consideran que "desarrollo de software" es un término más apropiado que
"ingeniería de software" para el proceso de crear software. Personas como Pete McBreen (autor
de "Software Craftmanship") cree que el término IS implica niveles de rigor y prueba de
procesos que no son apropiados para todo tipo de desarrollo de software.
Indistintamente se utilizan los términos "ingeniería de software" o "ingeniería del software";
aunque menos común también se suele referenciar como "ingeniería en software".5 6 7 En
Hispanoamérica los términos más comúnmente usados son los dos primeros.
La creación del software es un proceso intrínsecamente creativo y la ingeniería del software trata
de sistematizar este proceso con el fin de acotar el riesgo del fracaso en la consecución del
objetivo, por medio de diversas técnicas que se han demostrado adecuadas sobre la base de la
experiencia previa.
La IS se puede considerar como la ingeniería aplicada al software, esto es, por medios
sistematizados y con herramientas preestablecidas, la aplicación de ellos de la manera más
eficiente para la obtención de resultados óptimos; objetivos que siempre busca la ingeniería. No
es sólo de la resolución de problemas, sino más bien teniendo en cuenta las diferentes soluciones,
elegir la más apropiada.

Historia
Artículo principal: Historia de la ingeniería del software
Cuando aparecieron las primeras computadoras digitales en la década de 1940, 8 el desarrollo de
software era algo tan nuevo que era casi imposible hacer predicciones de las fechas estimadas de
finalización del proyecto y muchos de ellos sobrepasaban los presupuestos y tiempo estimados.. Los
desarrolladores tenían que volver a escribir todos sus programas para correr en máquinas nuevas que
salían cada uno o dos años, haciendo obsoletas las ya existentes.

El término Ingeniería del software apareció por primera vez a finales de la década de 1950. La
Ingeniería de software fue estimulada por la crisis del software de las décadas de entre 1960 y
1980. La Ingeniería del software viene a ayudar a identificar y corregir mediante principios y
metodologías los procesos de desarrollo y mantenimiento de sistemas de software.
Aparte de la crisis del software de las décadas de entre 1960 y 1980, la ingeniería de software se
ve afectada por accidentes que conllevaron a la muerte de tres personas; esto sucedió cuando la
máquina de radioterapia Therac-25 emite una sobredosis masiva de radiación y afecto contra la
vida de estas personas.9 Esto remarca los riesgos de control por software,10 afectando
directamente al nombre de la ingeniería de software.
A principios de los 1980,11 la ingeniería del software ya había surgido como una genuina
profesión, para estar al lado de las ciencias de la computación y la ingeniería tradicional. Antes
de esto, las tareas eran corridas poniendo tarjetas perforadas como entrada en el lector de tarjetas
de la máquina y se esperaban los resultados devueltos por la impresora.
Debido a la necesidad de traducir frecuentemente el software viejo para atender las necesidades
de las nuevas máquinas, se desarrollaron lenguajes de orden superior. A medida que apareció el
software libre, las organizaciones de usuarios comúnmente lo liberaban.
Durante mucho tiempo, solucionar la crisis del software fue de suma importancia para
investigadores y empresas que se dedicaban a producir herramientas de software.
Para la década de 1980, el costo de propiedad y mantenimiento del software fue dos veces más
caro que el propio desarrollo del software, y durante la década de 1990, el costo de propiedad y
mantenimiento aumentó 30 % con respecto a la década anterior. En 1995, muchos de los
proyectos de desarrollo estaban operacionales, pero no eran considerados exitosos. El proyecto
de software medio sobrepasaba en un 50 % la estimación de tiempo previamente realizada,
además, el 75 % de todos los grandes productos de software que eran entregados al cliente tenían
fallas tan graves, que no eran usados en lo absoluto o simplemente no cumplían con los
requerimientos del cliente.10
Algunos expertos argumentaron que la crisis del software era debido a la falta de disciplina de los
programadores.
Cada nueva tecnología y práctica de la década de 1970 a la de 1990 fue pregonada como la única
solución a todos los problemas y el caos que llevó a la crisis del software. Lo cierto es que la
búsqueda de una única clave para el éxito nunca funcionó. El campo de la ingeniería de software
parece un campo demasiado complejo y amplio para una única solución que sirva para mejorar la
mayoría de los problemas, y cada problema representa sólo una pequeña porción de todos los
problemas de software.
El auge del uso del Internet llevó a un vertiginoso crecimiento en la demanda de sistemas
internacionales de despliegue de información en la World Wide Web. Los desarrolladores se
vieron en la tarea de manejar ilustraciones, mapas, fotografías y animaciones, a un ritmo nunca
antes visto, con casi ningún método para optimizar la visualización y almacenamiento de
imágenes. También fueron necesarios sistemas para traducir el flujo de información en múltiples
idiomas extranjeros a lenguaje natural humano, con muchos sistemas de software diseñados para
uso multilenguaje, basado en traductores humanos.
La ingeniería de software contribuyo alrededor de 90,000 millones de dólares por año ya que
entra en juego el Internet; esto hace que los desarrolladores tuviesen que manejar imágenes
mapas y animaciones para optimizar la visualización/almacenamiento de imágenes (como el uso
de imágenes en miniatura). El uso de los navegadores y utilización de lenguaje HTML cambia
drásticamente la visión y recepción de la información.
Las amplias conexiones de red crea la proliferación de virus informáticos y la basura en los
correos electrónicos (E-mail) esto pone en una carrera contra el tiempo los desarrolladores para
crear nuevos sistemas de bloqueo o seguridad de estas anomalías en la informática ya que se
volvían sumamente tediosas y difíciles de arreglar10
Después de una fuerte y creciente demanda surge la necesidad de crear soluciones de software a bajo
costo, esto conlleva al uso de metodologías más simples y rápidas que desarrollan software funcional.
Cabe señalar que los sistemas más pequeños tenían un enfoque más simple y rápido para poder
administrar el desarrollo de cálculos y algoritmos de software.

Objetivos
La ingeniería de software aplica diferentes normas y métodos que permiten obtener mejores
resultados, en cuanto al desarrollo y uso del software, mediante la aplicación correcta de estos
procedimientos se puede llegar a cumplir de manera satisfactoria con los objetivos fundamentales
de la ingeniería de software.
Entre los objetivos de la ingeniería de software están:
 Mejorar el diseño de aplicaciones o software de tal modo que se adapten de mejor manera a las
necesidades de las organizaciones o finalidades para las cuales fueron creadas.

 Promover mayor calidad al desarrollar aplicaciones complejas.

 Brindar mayor exactitud en los costos de proyectos y tiempo de desarrollo de los mismos.

 Aumentar la eficiencia de los sistemas al introducir procesos que permitan medir mediante
normas específicas, la calidad del software desarrollado, buscando siempre la mejor calidad
posible según las necesidades y resultados que se quieren generar.

 Una mejor organización de equipos de trabajo, en el área de desarrollo y mantenimiento de


software.

 Detectar a través de pruebas, posibles mejoras para un mejor funcionamiento del software
desarrollado.12
Recursos
Recurso humano
Son todas aquellas personas que intervienen en la planificación de cualquier instancias de
software (por ejemplo: gestor, ingeniero de software experimentado, etc.), El número de personas
requerido para un proyecto de software sólo puede ser determinado después de hacer una
estimación del esfuerzo de desarrollo...

Recursos de software reutilizables


Son aquellos componentes de un software que son usados en otras aplicaciones de la misma
índole, ya sea para reducir costos o tiempo.

Recursos de entorno
Es el entorno de las aplicaciones (software y hardware) el hardware proporciona el medio físico
para desarrollar las aplicaciones (software), este recurso es indispensable.13

Implicaciones socioeconómicas
Económicamente
En los Estados Unidos, el software contribuyó a una octava parte de todo el incremento del PIB
durante la década de 1990 (alrededor de 90,000 millones de dólares por año), y un noveno de
todo el crecimiento de productividad durante los últimos años de la década (alrededor de 33.000
millones de dólares estadounidenses por año). La ingeniería de software contribuyó a US$ 1
billón de crecimiento económico y productividad en esa década. Alrededor del globo, el software
contribuye al crecimiento económico de maneras similares, aunque es difícil de encontrar
estadísticas fiables. [cita  requerida]
Además, con la industria del lenguaje está hallando cada vez más campos de aplicación a escala
global.

Socialmente
La ingeniería de software cambia la cultura del mundo debido al extendido uso de la
computadora. El correo electrónico (e-mail), la WWW y la mensajería instantánea permiten a la
gente interactuar de nuevas maneras. El software baja el costo y mejora la calidad de los
servicios de salud, los departamentos de bomberos, las dependencias gubernamentales y otros
servicios sociales. Los proyectos exitosos donde se han usado métodos de ingeniería de software
incluyen a GNU/Linux, el software del transbordador espacial, los cajeros automáticos y muchos
otros.

Notaciones
LUM (lenguaje unificado de modelado) o UML
Es un lenguaje de modelado muy reconocido y utilizado actualmente que se utiliza para describir
o especificar métodos. También es aplicable en el desarrollo de software.
Las siglas UML significan lenguaje unificado de modelado esto quiere decir que no pretende
definir un modelo estándar de desarrollo, sino únicamente un lenguaje de modelado.14
Un lenguaje de modelado consiste de vistas, elementos de modelo y un conjunto de reglas:
sintácticas, semánticas y pragmáticas que indican cómo utilizar los elementos.

BPMN (notación para el modelado de procesos de negocios)


El objetivo de la notación para el modelado de procesos de negocios es proporcionar de una
manera fácil de definir y analizar los procesos de negocios públicos y privados simulando un
diagrama de flujo. La notación ha sido diseñada específicamente para coordinar la secuencia de
los procesos y los mensajes que fluyen entre los participantes del mismo, con un conjunto de
actividades relacionadas. Características básicas de los elementos de BPMN
 Objetos de flujo: eventos, actividades, rombos de control de flujo (gateways).

 Objetos de conexión: flujo de secuencia, flujo de mensaje, asociación.

 Swimlanes (carriles de piscina): pool, lane.

 Artefactos: objetos de datos, grupo, anotación. 14

Diagrama de flujo de datos (DFD)


Un diagrama de flujo de datos permite representar el movimiento de datos a través de un sistema
por medio de modelos que describen los flujos de datos, los procesos que tranforman o cambian
los datos, los destinos de datos y los almacenamientos de datos a la cual tiene acceso el sistema.
Su inventor fue Larry Constantine, basado en el modelo de computación de Martin y Estrin: flujo
gráfico de datos. Con los diagramas de flujo de datos determina la manera en que cualquier
sistema puede desarrollarse, ayuda en la identificación de los datos de la transacción en el
modelo de datos y proporciona al usuario una idea física de cómo resultarán los datos a última
instancia.14

Herramienta CASE
Las Herramienta CASE son herramientas computacionales (software) que están destinadas a
asistir en los procesos de ciclo de vida de un software, facilitan la producción del software, varias
se basan principalmente en la idea de un modelo gráfico.15

Metodología
Un objetivo de décadas ha sido el encontrar procesos y metodologías, que sean sistemáticas,
predecibles y repetibles, a fin de mejorar la productividad en el desarrollo y la calidad del
producto software, en pocas palabras, determina los pasos a seguir y como realizarlos para
finalizar una tarea.

Etapas del proceso


La ingeniería de software requiere llevar a cabo numerosas tareas agrupadas en etapas, al
conjunto de estas etapas se le denomina ciclo de vida. Las etapas comunes a casi todos los
modelos de ciclo de vida son las siguientes:

Obtención de los requisitos


Se debe identificar sobre que se está trabajando, es decir, el tema principal que motiva el inicio
del estudio y creación del nuevo software o modificación de uno ya existente. A su vez
identificar los recursos que se tienen, en esto entra el conocer los recursos humanos y materiales
que participan en el desarrollo de las actividades. Es importante entender el contexto del negocio
para identificar adecuadamente los requisitos.
Se tiene que tener dominio de la información de un problema, lo cual incluye los datos fuera del
software(usuarios finales, otros sistemas o dispositivos externos), los datos que salen del sistema
(por la interfaz de usuario, interfaces de red, reportes, gráficas y otros medios) y los
almacenamientos de datos que recaban y organizan objetos persistentes de datos (por ejemplo,
aquellos que se conservan de manera permanente).
También hay que ver los puntos críticos, lo que significa tener de una manera clara los aspectos
que entorpecen y limitan el buen funcionamiento de los procedimientos actuales, los problemas
más comunes y relevantes que se presentan, los motivos que crean insatisfacción y aquellos que
deben ser cubiertos a plenitud. Por ejemplo: ¿El contenido de los reportes generados, satisface
realmente las necesidades del usuario? ¿Los tiempos de respuesta ofrecidos, son oportunos?, etc.
Hay que definir las funciones que realizara el software ya que estas ayudan al usuario final y al
funcionamiento del mismo programa.
Se tiene que tener en cuenta como será el comportamiento del software ante situaciones
inesperadas como lo son por ejemplo una gran cantidad de usuarios usando el software o una
gran cantidad de datos entre otros.

Análisis de requisitos
Extraer los requisitos de un producto software es la primera etapa para crearlo. Durante la fase de
análisis, el cliente plantea las necesidades que se presenta e intenta explicar lo que debería hacer
el software o producto final para satisfacer dicha necesidad mientras que el desarrollador actúa
como interrogador, como la persona que resuelve problemas. Con este análisis, el ingeniero de
sistemas puede elegir la función que debe realizar el software y establecer o indicar cual es la
interfaz más adecuada para el mismo.16
El análisis de requisitos puede parecer una tarea sencilla, pero no lo es debido a que muchas
veces los clientes piensan que saben todo lo que el software necesita para su buen
funcionamiento, sin embargo se requiere la habilidad y experiencia de algún especialista para
reconocer requisitos incompletos, ambiguos o contradictorios. Estos requisitos se determinan
tomando en cuenta las necesidades del usuario final, introduciendo técnicas que nos permitan
mejorar la calidad de los sistemas sobre los que se trabaja.17
El resultado del análisis de requisitos con el cliente se plasma en el documento ERS
(especificación de requisitos del sistema), cuya estructura puede venir definida por varios
estándares, tales como CMMI. Asimismo, se define un diagrama de entidad/relación, en el que se
plasman las principales entidades que participarán en el desarrollo del software.
La captura, análisis y especificación de requisitos (incluso pruebas de ellos), es una parte crucial;
de esta etapa depende en gran medida el logro de los objetivos finales. Se han ideado modelos y
diversos procesos metódicos de trabajo para estos fines. Aunque aún no está formalizada, ya se
habla de la ingeniería de requisitos.
La IEEE Std. 830-1998 normaliza la creación de las especificaciones de requisitos de software
(Software Requirements Specification).
Finalidades del análisis de requisitos:
 Brindar al usuario todo lo necesario para que pueda trabajar en conjunto con el software
desarrollado obteniendo los mejores resultados posibles.

 Tener un control más completo en la etapa creación del software, en cuanto a tiempo de
desarrollo y costos.

 Utilización de métodos más eficientes que permitan el mejor aprovechamiento del software
según sea la finalidad de uso del mismo.

 Aumentar la calidad del software desarrollado al disminuir los riesgos de mal funcionamiento. 18

No siempre en la etapa de "análisis de requisitos" las distintas metodologías de desarrollo llevan


asociado un estudio de viabilidad y/o estimación de costes. El más conocido de los modelos de
estimación de coste del software es el modelo COCOMO

Limitaciones14
Los software tienen la capacidad de emular inteligencia creando un modelo de ciertas
características de la inteligencia humana pero sólo posee funciones predefinidas que abarcan un
conjunto de soluciones que en algunos campos llega a ser limitado. Aun cuando tiene la
capacidad de imitar ciertos comportamientos humanos no es capaz de emular el pensamiento
humano porque actúa bajo condiciones.
Otro aspecto limitante de los software proviene del proceso totalmente mecánico que requiere de
un mayor esfuerzo y tiempos elevados de ejecución lo que lleva a tener que implementar el
software en una máquina de mayor capacidad.

Especificación
La especificación de requisitos describe el comportamiento esperado en el software una vez
desarrollado. Gran parte del éxito de un proyecto de software radicará en la identificación de las
necesidades del negocio (definidas por la alta dirección), así como la interacción con los usuarios
funcionales para la recolección, clasificación, identificación, priorización y especificación de los
requisitos del software.
Entre las técnicas utilizadas para la especificación de requisitos se encuentran:
 Caso de uso
 Historias de usuario

Siendo los primeros más rigurosas y formales, los segundas más ágiles e informales.

Arquitectura
La integración de infraestructura, desarrollo de aplicaciones, bases de datos y herramientas
gerenciales, requieren de capacidad y liderazgo para poder ser conceptualizados y proyectados a
futuro, solucionando los problemas de hoy. El rol en el cual se delegan todas estas actividades es
el del Arquitecto.
El arquitecto de software es la persona que añade valor a los procesos de negocios gracias a su
valioso aporte de soluciones tecnológicas.
La arquitectura de sistemas en general, es una actividad de planeación, ya sea a nivel de
infraestructura de red y hardware, o de software.
Lo principal en este punto es poner en claro los aspectos lógicos y físicos de las salidas, modelos
de organización y representación de datos, entradas y procesos que componen el sistema,
considerando las bondades y limitaciones de los recursos disponibles en la satisfacción de las
pacificaciones brindadas para el análisis.
Hay que tener en consideración la arquitectura del sistema en la cual se va a trabajar, elaborar un
plan de trabajo viendo la prioridad de tiempo y recursos disponibles. En los diseños de salidas
entra los que es la interpretación de requerimientos lo cual es el dominio de información del
problema, las funciones visibles para el usuario, el comportamiento del sistema y un conjunto de
clases de requerimientos que agrupa los objetos del negocio con los métodos que les dan servicio.
La arquitectura de software consiste en el diseño de componentes de una aplicación (entidades
del negocio), generalmente utilizando patrones de arquitectura. El diseño arquitectónico debe
permitir visualizar la interacción entre las entidades del negocio y además poder ser validado, por
ejemplo por medio de diagramas de secuencia. Un diseño arquitectónico describe en general el
cómo se construirá una aplicación de software. Para ello se documenta utilizando diagramas, por
ejemplo:
 Diagramas de clases

 Diagramas de base de datos

 Diagrama de despliegue

 Diagrama de secuencia

Siendo los dos primeros los mínimos necesarios para describir la arquitectura de un proyecto que
iniciará a ser codificado. Dependiendo del alcance del proyecto, complejidad y necesidades, el
arquitecto elegirá cuales de los diagramas se requiere elaborar.
Las herramientas para el diseño y modelado de software se denominan CASE (Computer Aided
Software Engineering) entre las cuales se encuentran:
 Enterprise Architect
 Microsoft Visio for Enterprise Architects

Programación
Implementar un diseño en código puede ser la parte más obvia del trabajo de ingeniería de
software, pero no necesariamente es la que demanda mayor trabajo y ni la más complicada. La
complejidad y la duración de esta etapa está íntimamente relacionada al o a los lenguajes de
programación utilizados, así como al diseño previamente realizado.

Desarrollo de la aplicación
Para el desarrollo de la aplicación es necesario considerar cinco fases para tener una aplicación o
programa eficiente, estas son:
 Desarrollo de la infraestructura: Esta fase permite el desarrollo y la organización de los
elementos que formaran la infraestructura de la aplicación, con el propósito de finalizar la
aplicación eficientemente.

 Adaptación del paquete: El objetivo principal de esta fase es entender de una manera detallada
el funcionamiento del paquete, esto tiene como finalidad garantizar que el paquete pueda ser
utilizado en su máximo rendimiento, tanto para negocios o recursos. Todos los elementos que
componen el paquete son inspeccionados de manera detallada para evitar errores y entender
mejor todas las características del paquete.

 Desarrollo de unidades de diseño de interactivas: En esta fase se realizan los procedimientos


que se ejecutan por un diálogo usuario-sistema. Los procedimientos de esta fase tienen como
objetivo principal:

1. Establecer específicamente las acciones que debe efectuar la unidad de diseño.

2. La creación de componentes para sus procedimientos.

3. Ejecutar pruebas unitarias y de integración en la unidad de diseño.

 Desarrollo de unidades de diseño batch: En esta fase se utilizan una serie de combinación de
técnicas, como diagrama de flujo, diagramas de estructuras, tablas de decisiones, etc. Cualquiera
a utilizar será beneficioso para plasmar de manera clara y objetiva las especificaciones y que así
el programador tenga mayor comprensión a la hora de programar y probar los programas que le
corresponden.

 Desarrollo de unidades de diseño manuales: En esta fase el objetivo central es proyectar todos
los procedimientos administrativos que desarrollarán en torno a la utilización de los
componentes computarizados.19

Pruebas de software
Consiste en comprobar que el software realice correctamente las tareas indicadas en la
especificación del problema. Una técnica es probar por separado cada módulo del software, y
luego probarlo de manera integral, para así llegar al objetivo. Se considera una buena práctica el
que las pruebas sean efectuadas por alguien distinto al desarrollador que la programó, idealmente
un área de pruebas; sin perjuicio de lo anterior el programador debe hacer sus propias pruebas.
En general hay dos grandes maneras de organizar un área de pruebas, la primera es que esté
compuesta por personal inexperto y que desconozca el tema de pruebas, de esta manera se evalúa
que la documentación entregada sea de calidad, que los procesos descritos son tan claros que
cualquiera puede entenderlos y el software hace las cosas tal y como están descritas. El segundo
enfoque es tener un área de pruebas conformada por programadores con experiencia, personas
que saben sin mayores indicaciones en qué condiciones puede fallar una aplicación y que pueden
poner atención en detalles que personal inexperto no consideraría.
De acuerdo con Roger S. Pressman, el proceso de pruebas se centra en los procesos lógicos
internos del software, asegurando que todas las sentencias se han comprobado, y en los procesos
externos funcionales, es decir, la realización de pruebas para la detección de errores. Se requiere
poder probar el software con sujetos reales que puedan evaluar el comportamiento del software
con el fin de proporcionar realimentación a los desarrolladores. Es importante que durante el
proceso de desarrollo del software no se pierda contacto con los interesados o solicitantes del
desarrollo de Software, de esta manera los objetivos del proyecto se mantendrán vigentes y se
tendrá una idea clara de los aspectos que tienen que probarse durante el período de pruebas.20

Implementación
Una Implementación es la realización de una especificación técnica o algoritmos con un
programa, componente software, u otro sistema de cómputo. Muchas especificaciones son dadas
según a su especificación o un estándar. Las especificaciones recomendadas según el ´World
Wide Web Consortium, y las herramientas de desarrollo del software contienen
implementaciones de lenguajes de programación. El modelo de implementación es una colección
de componentes y los subsitemas que contienen. Componentes tales como: ficheros ejecutables,
ficheros de código fuente y todo otro tipo de ficheros que sean necesarios para la implementación
y despliegue del sistema.

Documentación
Es todo lo concerniente a la documentación del propio desarrollo del software y de la gestión del
proyecto, pasando por modelaciones (UML), diagramas de casos de uso, pruebas, manuales de
usuario, manuales técnicos, etc; todo con el propósito de eventuales correcciones, usabilidad,
mantenimiento futuro y ampliaciones al sistema.

Mantenimiento
Fase dedicada a mantener y mejorar el software para corregir errores descubiertos e incorporar
nuevos requisitos. Esto puede llevar más tiempo incluso que el desarrollo del software inicial.
Alrededor de 2/3 del tiempo de ciclo de vida de un proyecto21 está dedicado a su mantenimiento.
Una pequeña parte de este trabajo consiste eliminar errores (bugs); siendo que la mayor parte
reside en extender el sistema para incorporarle nuevas funcionalidades y hacer frente a su
evolución.

Ventajas22
Desde el punto de vista de gestión
 Facilitar la tarea de seguimiento del proyecto

 Optimizar el uso de recursos

 Facilitar la comunicación entre usuarios y desarrolladores

 Facilitar la evaluación de resultados y cumplimiento de objetivos

Desde el punto de vista de los ingenieros de Software


 Ayudar a comprender el problema

 Permitir la reutilización

 Facilitar el mantenimiento del producto final

 Optimizar el conjunto y cada una de las fases del proceso de desarrollo

Desde el punto de vista de cliente o usuario final


 Garantizar el nivel de calidad del producto final

 Obtener el ciclo de vida adecuado para el proyecto

 Confianza en los plazos del tiempo mostrados en la definición del proyecto

Modelos y Ciclos de Vida del Desarrollo de Software


La ingeniería de software, con el fin de ordenar el caos que era anteriormente el desarrollo de
software, dispone de varios modelos, paradigmas y filosofías de desarrollo, estos los conocemos
principalmente como modelos o ciclos de vida del desarrollo de software, esto incluye el proceso
que se sigue para construir, entregar y hacer evolucionar el software, desde la concepción de una
idea hasta la entrega y el retiro del sistema y representa todas las actividades y artefactos
(productos intermedios) necesarios para desarrollar una aplicación,23 entre ellos se puede citar:

Modelo en cascada o clásico


Artículo principal: Desarrollo en cascada

En ingeniería de software el modelo en cascada ―también llamado desarrollo en cascada o ciclo


de vida clásico― se basa en un enfoque metodológico que ordena rigurosamente las etapas del
ciclo de vida del software, esto sugiere una aproximación sistemática secuencial hacia el proceso
de desarrollo del software, que se inicia con la especificación de requisitos del cliente y continúa
con la planificación, el modelado, la construcción y el despliegue para culminar en el soporte del
software terminado.24

Modelo de prototipos
Artículo principal: Modelo de prototipos
En ingeniería de software, el modelo de prototipos pertenece a los modelos de desarrollo
evolutivo. Este permite que todo el sistema, o algunos de sus partes, se construyan rápidamente
para comprender con facilidad y aclarar ciertos aspectos en los que se aseguren que el
desarrollador, el usuario, el cliente estén de acuerdo en lo que se necesita así como también la
solución que se propone para dicha necesidad y de esta manera minimizar el riesgo y la
incertidumbre en el desarrollo, este modelo se encarga del desarrollo de diseños para que estos
sean analizados y prescindir de ellos a medida que se adhieran nuevas especificaciones, es ideal
para medir el alcance del producto, pero no se asegura su uso real.
Este modelo principalmente se aplica cuando un cliente define un conjunto de objetivos
generales para el software a desarrollarse sin delimitar detalladamente los requisitos de entrada
procesamiento y salida, es decir cuando el responsable no está seguro de la eficacia de un
algoritmo, de la adaptabilidad del sistema o de la manera en que interactúa el hombre y la
máquina.
Este modelo se encarga principalmente de ayudar al ingeniero de sistemas y al cliente a entender
de mejor manera cuál será el resultado de la construcción cuando los requisitos estén
satisfechos.25

Modelo en espiral
Artículo principal: Desarrollo en espiral

El modelo en espiral, que Barry Boehm propuso originalmente en 1986, es un modelo de proceso
de software evolutivo que conjuga la naturaleza iterativa de la construcción de prototipos con los
aspectos controlados y sistemáticos del modelo en cascada, es decir, cuando se aplica este
modelo, el software se desarrolla en una serie de entregas evolutivas (ciclos o iteraciones), cada
una de estas entregando prototipos más completas que el anterior, todo esto en función del
análisis de riesgo y las necesidades del cliente. Aunque el modelo espiral representa ventajas por
sobre el desarrollo lineal, el cálculo de los riesgos puede ser muy complicado y por lo cual su uso
en el ámbito real es muy escaso.26

Modelo de desarrollo por etapas


Artículo principal: Desarrollo por etapas

Es un modelo en el que el software se muestra al cliente en etapas refinadas sucesivamente. Con


esta metodología se desarrollan las capacidades más importantes reduciendo el tiempo necesario
para la construcción de un producto; el modelo de entrega por etapas es útil para el desarrollo de
la herramienta debido a que su uso se recomienda para problemas que pueden ser tratados
descomponiéndolos en problemas más pequeños y se caracteriza principalmente en que las
especificaciones no son conocidas en detalle al inicio del proyecto y por tanto se van
desarrollando simultáneamente con las diferentes versiones del código.
En este modelo pueden distinguirse las siguientes fases:
 Especificación conceptual.

 Análisis de requisitos.

 Diseño inicial.
 Diseño detallado (codificación, depuración, prueba y liberación).

Cuando es por etapas, en el diseño global estas fases pueden repetirse según la cantidad de etapas
que sean requeridas.
Entre sus ventajas tenemos:
 Detección de problemas antes y no hasta la única entrega final del proyecto.

 Eliminación del tiempo en informes debido a que cada versión es un avance.

 Estimación de tiempo por versión, evitando errores en la estimación del proyecto general.

 Cumplimiento a la fecha por los desarrolladores.

Modelo Incremental o Iterativo


Artículo principal: Desarrollo iterativo y creciente

Desarrollo iterativo y creciente (o incremental) es un proceso de desarrollo de software, creado


en respuesta a las debilidades del modelo tradicional de cascada, es decir, este modelo aplica
secuencias lineales como el modelo en cascada, pero de una manera iterativa o escalada según
como avance el proceso de desarrollo y con cada una de estas secuencias lineales se producen
incrementos (mejoras) del software.27
Se debe tener en cuenta que el flujo del proceso de cualquier incremento puede incorporar el
paradigma de construcción de prototipos, ya que como se mencionó anteriormente, este tipo de
modelo es iterativo por naturaleza, sin embargo se diferencia en que este busca la entrega de un
producto operacional con cada incremento que se le realice al software.
Este desarrollo incremental es útil principalmente cuando el personal necesario para una
implementación completa no está disponible.

Modelo estructurado
Este modelo ―como su nombre lo indica― utiliza las técnicas del diseño estructurado o de la
programación estructurada para su desarrollo, también se utiliza en la creación de los algoritmos
del programa. Este formato facilita la comprensión de la estructura de datos y su control.28 Entre
las principales características de este modelo se encuentan las siguientes:
 Generalmente se puede diferenciar de una manera más clara los procesos y las estructuras de
datos.

 Existen métodos que se enfocan principalmente en ciertos datos.

 La abstracción del programa es de un nivel mucho mayor.

 Los procesos y estructuras de datos son representados jerárquicamente. 28

Este modelo también presenta sus desventajas entre las cuales podemos mencionar algunas:
 Se podía encontrar datos repetidos en diferentes partes del programa. 28
 Cuando el código se hace muy extenso o grande su manejo se complica demasiado. 29

En el modelo estructurado las técnicas que comúnmente se utilizan son:


 El modelo entidad-relación, esta técnica se relaciona principalmente con los datos.

 El diagrama de flujo de datos, esta es utilizada principalmente para los procesos. 30

Modelo orientado a objetos


Estos modelos tienen sus raíces en la programación orientada a objetos y como consecuencia de
ella gira entorno al concepto de clase, también lo hacen el análisis de requisitos y el diseño. Esto
además de introducir nuevas técnicas, también aprovecha las técnicas y conceptos del desarrollo
estructurado, como diagramas de estado y transiciones. El modelo orientado a objetos tiene dos
características principales, las cuales ha favorecido su expansión:
 Permite la reutilización de software en un grado significativo.

 Su simplicidad facilita el desarrollo de herramientas informáticas de ayuda al desarrollo, el cual


es fácilmente implementada en una notación orientada a objetos llamado UML.31

Modelo RAD (rapid application development)


Artículo principal: Desarrollo rápido de aplicaciones

El RAD (rapid application development: ‘desarrollo rápido de aplicaciones’), es un modelo de


proceso de software incremental, desarrollado inicialmente por James Maslow en 1980, que
resalta principalmente un ciclo corto de desarrollo.
Esta es una metodología que posibilita la construcción de sistemas computacionales que
combinen técnicas y utilidades CASE (Computer Aided Software Engineering), la construcción
de prototipos centrados en el usuario y el seguimiento lineal y sistemático de objetivos,
incrementando la rapidez con la que se producen los sistemas mediante la utilización de un
enfoque de desarrollo basado en componentes.32
Si se entienden bien los requisitos y se limita el ámbito del proyecto, el proceso RAD permite
que un equipo de desarrollo cree un producto completamente funcional dentro de un periodo muy
limitado de tiempo sin reducir en lo más mínimo la calidad del mismo.33

Modelo de desarrollo concurrente


El modelo de desarrollo concurrente es un modelo de tipo de red donde todas las personas actúan
simultáneamente o al mismo tiempo. Este tipo de modelo se puede representar a manera de
esquema como una serie de actividades técnicas importantes, tareas y estados asociados a ellas.
El modelo de proceso concurrente define una serie de acontecimientos que dispararan
transiciones de estado a estado para cada una de las actividades de la ingeniería del software. Por
ejemplo, durante las primeras etapas del diseño, no se contempla una inconsistencia del modelo
de análisis. Esto genera la corrección del modelo de análisis de sucesos, que disparara la
actividad de análisis del estado hecho al estado cambios en espera. Este modelo de desarrollo se
utiliza a menudo como el paradigma de desarrollo de aplicaciones cliente/servidor. Un sistema
cliente/servidor se compone de un conjunto de componentes funcionales. Cuando se aplica a
cliente/servidor, el modelo de proceso concurrente define actividades en dos dimensiones: una
división de sistemas y una división de componentes. Los aspectos del nivel de sistemas se
afrontan mediante dos actividades: diseño y realización.
La concurrencia se logra de dos maneras:
 Las actividades del sistema y de componente ocurren simultáneamente y pueden modelarse con
el enfoque orientado a objetos descrito anteriormente;

 Una aplicación cliente/servidor típica se implementa con muchos componentes, cada uno de los
cuales se pueden diseñar y realizar concurrentemente.

En realidad, el modelo de desarrollo concurrente es aplicable a todo tipo de desarrollo de


software y proporciona una imagen exacta del estado actual de un proyecto. En vez de confinar
actividades de ingeniería de software a una secuencia de sucesos, define una red de actividades,
todas las actividades de la red existen simultáneamente con otras. Los sucesos generados dentro
de una actividad dada o algún otro lado de la red de actividad inicia las transiciones entre los
estados de una actividad.

Proceso unificado del desarrollo de software


Artículos principales: Proceso Unificado y Rational Unified Process.

El proceso unificado es un proceso de software genérico que puede ser utilizado para una gran
cantidad de tipos de sistemas de software, para diferentes áreas de aplicación, diferentes tipos de
organizaciones, diferentes niveles de competencia y diferentes tamaños de proyectos.
Provee un enfoque disciplinado en la asignación de tareas y responsabilidades dentro de una
organización de desarrollo. Su meta es asegurar la producción de software de muy alta calidad
que satisfaga las necesidades de los usuarios finales, dentro de un calendario y presupuesto
predecible.34
El proceso unificado tiene dos dimensiones:
 Un eje horizontal que representa el tiempo y muestra los aspectos del ciclo de vida del proceso a
lo largo de su desenvolvimiento

 Un eje vertical que representa las disciplinas, las cuales agrupan actividades de una manera
lógica de acuerdo a su naturaleza.

La primera dimensión representa el aspecto dinámico del proceso conforme se va desarrollando,


se expresa en términos de fases, iteraciones e hitos (milestones).
La segunda dimensión representa el aspecto estático del proceso: cómo es descrito en términos de
componentes del proceso, disciplinas, actividades, flujos de trabajo, artefactos y roles.
El refinamiento más conocido y documentado del proceso unificado es el RUP (proceso
unificado racional).
El proceso unificado no es simplemente un proceso, sino un marco de trabajo extensible que
puede ser adaptado a organizaciones o proyectos específicos. De la misma manera, el proceso
unificado de rational, también es un marco de trabajo extensible, por lo que muchas veces resulta
imposible decir si un refinamiento particular del proceso ha sido derivado del proceso unificado o
del RUP. Por dicho motivo, los dos nombres suelen utilizarse para referirse a un mismo
concepto.35

Producto
El software se ha convertido en algo muy necesario en nuestra sociedad actual, es la máquina que
conduce a la toma de decisiones comerciales, sirve para la investigación científica moderna, es
un factor clave que diferencia productos y servicios modernos, etc. Esto se da porque el software
está inmerso en sistemas de todo tipo alrededor de nosotros.
El software de computadora es el producto que diseñan y construyen los ingenieros de software.
Esto abarca programas que se ejecutan dentro de una computadora de cualquier tamaño y
arquitectura, después de estar construido casi cualquier persona en el mundo industrializado, ya
sea directa o indirectamente.
Los productos se pueden clasificar en:
 Productos genéricos: Son los producidos por una organización para ser vendidos al mercado.

 Productos hechos a medida: Sistemas que son desarrollados bajo pedido a un desarrollador
específico.

Estos productos deben cumplir varias características al ser entregados, estas son:
 Mantenibles: El software debe poder evolucionar mientras cumple con sus funciones.

 Confiabilidad: No debe producir daños en caso de errores.

 Eficiencia: El software no debe desperdiciar los recursos.

 Utilización adecuada: Debe contar con una interfaz de usuario adecuada y su documentación.

Lo que constituye el producto final es diferente para el ingeniero y los usuarios, para el ingeniero
son los programas, datos y documentos que configuran el software pero para el usuario el
producto final es la información que de cierto modo soluciona el problema planteado por el
usuario.

Naturaleza de la Ingeniería de Software


La ingeniería de software es una disciplina que está orientada a aplicar conceptos y métodos de
ingeniería al desarrollo de software de calidad.

Matemáticas
Los programas tienen muchas propiedades matemáticas. Por ejemplo la corrección y la
complejidad de muchos algoritmos son conceptos matemáticos que pueden ser rigurosamente
probados. El uso de matemáticas en la IS es llamado métodos formales.
Creación
Los programas son construidos en una secuencia de pasos. El hecho de definir propiamente y
llevar a cabo estos pasos, como en una línea de ensamblaje, es necesario para mejorar la
productividad de los desarrolladores y la calidad final de los programas. Este punto de vista
inspira los diferentes procesos y metodologías que se encuentran en la IS.

Gestión de Proyecto
El desarrollo de software de gran porte requiere una adecuada gestión del proyecto. Hay
presupuestos, establecimiento de tiempos de entrega, un equipo de profesionales que liderar.
Recursos (espacio de oficina, insumos, equipamiento) por adquirir. Para su administración se
debe tener una clara visión y capacitación en gestión de proyectos.

Participantes y papeles
Para el desarrollo de un sistema de software es necesaria la colaboración de muchas personas con
diversas competencias, capacidades e intereses. Al conjunto de personas involucradas en el
proyecto se les conoce como participantes.
Al conjunto de funciones y responsabilidades que hay dentro del proyecto o sistema se le conoce
como roles o papeles. Los roles están asociados a las tareas que son asignadas a los participantes,
en consecuencia, una persona puede desempeñar uno o múltiples roles, así también un mismo rol
puede ser representado por un equipo.36

Cliente
Es frecuente el uso de los términos "usuarios", "usuarios finales" y "clientes" como sinónimos, lo
cual puede provocar confusión; estrictamente, el cliente (persona, empresa u organización) es
quién especifica los requisitos del sistema,37 en tanto que el usuario es quien utiliza u opera
finalmente el producto software, pudiendo ser o no el cliente.

Desarrolladores
Esta clase de participantes están relacionados con todas las facetas del proceso de desarrollo del
software. Su trabajo incluye la investigación, diseño, implementación, pruebas y depuración del
software.38

Gestores
En el contexto de ingeniería de software, el gestor de desarrollo de software es un participante,
que reporta al director ejecutivo de la empresa que presta el servicio de desarrollo. Es
responsable del manejo y coordinación de los recursos y procesos para la correcta entrega de
productos de software, mientras participa en la definición de la estrategia para el equipo de
desarrolladores, dando iniciativas que promuevan la visión de la empresa.39

Usuarios finales
El usuario final es quien interactúa con el producto de software una vez es entregado.40
Generalmente son los usuarios los que conocen el problema, ya que día a día operan los sistemas.

Código ético de un ingeniero de software


Un ingeniero de software debe tener un código donde asegura, en la medida posible, que los
esfuerzos realizados se utilizarán para realizar el bien y deben comprometerse para que la
ingeniería de software sea una profesión benéfica y respetada. Para el cumplimiento de esta
norma, se toman en cuenta ocho principios relacionados con la conducta y las decisiones tomadas
por el ingeniero; donde estos principios identifican las relaciones éticamente responsables de los
individuos, grupos y organizaciones donde participen. Los principios a los que deben sujetarse
son sobre la sociedad, cliente y empresario, producto, juicio, administración, profesión, colegas y
por último el personal.
 Sociedad: Los ingenieros de software deben actuar de manera congruente con el interés social,
aceptando la responsabilidad total de su trabajo, moderando los intereses con el bienestar
social, aprobando el software solamente si se tiene una creencia bien fundamentada,
cooperando en los esfuerzos para solucionar asuntos importantes de interés social, ser justo y
veraz en todas las afirmaciones relativas al software o documentos asociados.

 Cliente y empresario: Se debe actuar de manera tal que se llegue a conciliar los mejores
intereses de los clientes y empresarios, congruentemente con el interés social. Estos deberán
prestar servicios en sus áreas de competencia, siendo honestos y francos sobre las limitaciones,
no utilizar un software que se obtenga ilegalmente o sin ética, usar la propiedad de los clientes o
empresarios de manera autorizada, mantener secreto cualquier documento de información
confidencial.

 Producto: Hay que asegurarse que los productos y sus modificaciones cumplan con los
estándares profesionales más altos posibles, procurando la alta calidad, costos aceptables y una
agenda razonable asegurando que los costos y beneficios sean claros y aceptados por el
empresario y el cliente. Asegurar que las metas y objetivos de cualquier proyecto sean
adecuados y alcanzables.

 Juicio: Se debe mantener una integridad e independencia en el juicio profesional, moderando


todo juicio técnico por la necesidad de apoyar y mantener los valores humanos, mantener la
objetividad profesional con respecto a cualquier software o documento relacionado, no
involucrarse en prácticas financieras fraudulentas.

 Administración: Se deberá asegurar una buena administración para cualquier proyecto en el cual
se trabaje, utilizando procedimientos efectivos para promover la calidad y reducir riesgos,
asegurándose también que se conozcan las políticas y procedimientos del empresario para
proteger contraseñas, archivos e información confidencial.

 Profesión: Se debe incrementar la integridad y reputación de la profesión en conjunto con el


interés social, ayudando al desarrollo de un ambiente organizacional favorable para actuar,
promoviendo el conocimiento público de la ingeniería de software, extendiendo el conocimiento
de la ingeniería de software por medio de participaciones en organizaciones, reuniones y
publicaciones profesionales.

 Colegas: Cada ingeniero deberá apoyar y ser justos con los colegas, motivando a sus colegas
sujetándose al código, ayudando también a su desarrollo profesional, reconocer los trabajos de
otros y abstenerse a atribuirse de méritos indebidos, revisar los trabajos de manera objetiva,
sincera y propiamente documentada.

 Personal: Los ingenieros de software participaran toda su vida en el aprendizaje con la práctica y
promoverán un enfoque ético de la profesión, mejorando su conocimiento de los avances en el
análisis, especificación, diseño, desarrollo, mantenimiento, pruebas del software y documentos
relacionados en conjunto con administración del proceso de desarrollo. 41

Educación ética
Organizaciones
 IEEE Computer Society

 Association for Computing Machinery (ACM).

 Software Engineering Institute (SEI).

 British Computer Society (BCS).

 RUSSOFT Association

 Society of Software Engineers

Se le llama base de datos a los bancos de información que contienen datos relativos a diversas
temáticas y categorizados de distinta manera, pero que comparten entre sí algún tipo de vínculo o
relación que busca ordenarlos y clasificarlos en conjunto.
Una base de datos o banco de datos es un conjunto de datos pertenecientes a un mismo
contexto y almacenados sistemáticamente para su posterior uso. En este sentido; una biblioteca
puede considerarse una base de datos compuesta en su mayoría por documentos y textos
impresos en papel e indexados para su consulta. Actualmente, y debido al desarrollo tecnológico
de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato
digital, siendo este un componente electrónico, por tanto se ha desarrollado y se ofrece un amplio
rango de soluciones al problema del almacenamiento de datos.
Existen programas denominados sistemas gestores de bases de datos, abreviado SGBD (del
inglés Database Management System o DBMS), que permiten almacenar y posteriormente
acceder a los datos de forma rápida y estructurada. Las propiedades de estos DBMS, así como su
utilización y administración, se estudian dentro del ámbito de la informática.
Las aplicaciones más usuales son para la gestión de empresas e instituciones públicas; También
son ampliamente utilizadas en entornos científicos con el objeto de almacenar la información
experimental.
Aunque las bases de datos pueden contener muchos tipos de datos, algunos de ellos se encuentran
mutuamente protegidos por las leyes de varios países. Por ejemplo en España, los datos
personales se encuentran protegidos por la Ley Orgánica de Protección de Datos de Carácter
Personal (LOPD), en México por la Ley Federal de Transparencia y Acceso a la Información
Pública Gubernamental y en Argentina la Ley de Protección de Datos Personales.1

Índice
 1 Clasificación de bases de datos

o 1.1 Según la variabilidad de la base de datos

 1.1.1 Bases de datos estáticas

 1.1.2 Bases de datos dinámicas

o 1.2 Según el contenido

 1.2.1 Bases de datos bibliográficas

 1.2.2 Bases de datos de texto completo

 1.2.3 Directorios

 1.2.4 Bases de datos o "bibliotecas" de información química o biológica

 2 Modelos de bases de datos

o 2.1 Bases de datos jerárquicas

o 2.2 Base de datos de red

o 2.3 Bases de datos transaccionales

o 2.4 Bases de datos relacionales

o 2.5 Bases de datos multidimensionales

o 2.6 Bases de datos orientadas a objetos

o 2.7 Bases de datos documentales

o 2.8 Bases de datos deductivas


 2.8.1 Lenguaje

 2.8.2 Ventajas

 2.8.3 Fases

 2.8.4 Interpretación

 2.8.5 Mecanismos

o 2.9 Sistema de Gestión de bases de datos distribuida (SGBD)

 3 Consulta a base de datos

 4 Véase también

 5 Referencias

 6 Enlaces externos

Clasificación de bases de datos


Las bases de datos pueden clasificarse de varias maneras, de acuerdo al contexto que se esté
manejando, la utilidad de las mismas o las necesidades que satisfagan.

Según la variabilidad de la base de datos

Bases de datos estáticas


Son bases de datos únicamente de lectura, utilizadas primordialmente para almacenar datos
históricos que posteriormente se pueden utilizar para estudiar el comportamiento de un conjunto
de datos a través del tiempo, realizar proyecciones, tomar decisiones y realizar análisis de datos
para inteligencia empresarial.

Bases de datos dinámicas


Son bases de datos donde la información almacenada se modifica con el tiempo, permitiendo
operaciones como actualización, borrado y edición de datos, además de las operaciones
fundamentales de consulta. Un ejemplo, puede ser la base de datos utilizada en un sistema de
información de un supermercado.

Según el contenido

Bases de datos bibliográficas


Sólo contienen un subrogante (representante) de la fuente primaria, que permite localizarla. Un
registro típico de una base de datos bibliográfica contiene información sobre el autor, fecha de
publicación, editorial, título, edición, de una determinada publicación, etc. Puede contener un
resumen o extracto de la publicación original, pero nunca el texto completo, porque si no,
estaríamos en presencia de una base de datos a texto completo (o de fuentes primarias —ver más
abajo). Como su nombre lo indica, el contenido son cifras o números. Por ejemplo, una colección
de resultados de análisis de laboratorio, entre otras.

Bases de datos de texto completo


Almacenan las fuentes primarias, como por ejemplo, todo el contenido de todas las ediciones de
una colección de revistas científicas.

Directorios
Un ejemplo son las guías telefónicas en formato electrónico.
Estos directorios se pueden clasificar en dos grandes tipos dependiendo de si son personales o
empresariales (llamadas páginas blancas o amarillas respectivamente)
Los directorios empresariales hay de tres tipos
1. Tienen nombre de la empresa y dirección Ejemplo

2. Contienen teléfono y los más avanzado contienen correo electrónico Ejemplo

3. Contienen datos como facturación o número de empleados además de códigos nacionales que
ayudan a su distinción Ejemplo

Los directorios personales solo hay de un tipo, ya que leyes como la LOPD en España protege la
privacidad de los usuarios pertenecientes al directorio
La búsqueda inversa está prohibida en los directorios personales (a partir de un número de
teléfono saber el titular de la línea)

Bases de datos o "bibliotecas" de información química o biológica


Son bases de datos que almacenan diferentes tipos de información proveniente de la química, las
ciencias de la vida o médicas. Se pueden considerar en varios subtipos:
 Las que almacenan secuencias de nucleótidos o proteínas.

 Las bases de datos de rutas metabólicas.

 Bases de datos de estructura, comprende los registros de datos experimentales sobre


estructuras 3D de biomoléculas-

 Bases de datos clínicas.

 Bases de datos bibliográficas (biológicas, químicas, médicas y de otros campos): PubChem,


Medline, EBSCOhost.
Modelos de bases de datos
Además de la clasificación por la función de las bases de datos, éstas también se pueden
clasificar de acuerdo a su modelo de administración de datos.
Un modelo de datos es básicamente una "descripción" de algo conocido como contenedor de
datos (algo en donde se guarda la información), así como de los métodos para almacenar y
recuperar información de esos contenedores. Los modelos de datos no son cosas físicas: son
abstracciones que permiten la implementación de un sistema eficiente de base de datos; por lo
general se refieren a algoritmos, y conceptos matemáticos.
Algunos modelos con frecuencia utilizados en las bases de datos:

Bases de datos jerárquicas


Artículo principal: Base de datos jerárquica

En este modelo los datos se organizan en forma de árbol invertido (algunos dicen raíz), en donde
un nodo padre de información puede tener varios hijos. El nodo que no tiene padres es llamado
raíz, y a los nodos que no tienen hijos se los conoce como hojas.
Las bases de datos jerárquicas son especialmente útiles en el caso de aplicaciones que manejan
un gran volumen de información y datos muy compartidos permitiendo crear estructuras estables
y de gran rendimiento.
Una de las principales limitaciones de este modelo es su incapacidad de representar
eficientemente la redundancia de datos.

Base de datos de red


Artículo principal: Base de datos de red

Éste es un modelo ligeramente distinto del jerárquico; su diferencia fundamental es la


modificación del concepto de nodo: se permite que un mismo nodo tenga varios padres
(posibilidad no permitida en el modelo jerárquico).
Fue una gran mejora con respecto al modelo jerárquico, ya que ofrecía una solución eficiente al
problema de redundancia de datos; pero, aun así, la dificultad que significa administrar la
información en una base de datos de red ha significado que sea un modelo utilizado en su
mayoría por programadores más que por usuarios finales.

Bases de datos transaccionales


Son bases de datos cuyo único fin es el envío y recepción de datos a grandes velocidades, estas
bases son muy poco comunes y están dirigidas por lo general al entorno de análisis de calidad,
datos de producción e industrial, es importante entender que su fin único es recolectar y recuperar
los datos a la mayor velocidad posible, por lo tanto la redundancia y duplicación de información
no es un problema como con las demás bases de datos, por lo general para poderlas aprovechar al
máximo permiten algún tipo de conectividad a bases de datos relacionales.
Un ejemplo habitual de transacción es el traspaso de una cantidad de dinero entre cuentas
bancarias. Normalmente se realiza mediante dos operaciones distintas, una en la que se debita el
saldo de la cuenta origen y otra en la que acreditamos el saldo de la cuenta destino. Para
garantizar la atomicidad del sistema (es decir, para que no aparezca o desaparezca dinero), las
dos operaciones deben ser atómicas, es decir, el sistema debe garantizar que, bajo cualquier
circunstancia (incluso una caída del sistema), el resultado final es que, o bien se han realizado las
dos operaciones, o bien no se ha realizado ninguna,

Bases de datos relacionales


Artículo principal: Modelo relacional

Artículo principal: Base de datos relacional

Éste es el modelo utilizado en la actualidad para representar problemas reales y administrar datos
dinámicamente. Tras ser postulados sus fundamentos en 1970 por Edgar Frank Codd, de los
laboratorios IBM en San José (California), no tardó en consolidarse como un nuevo paradigma
en los modelos de base de datos. Su idea fundamental es el uso de "relaciones". Estas relaciones
podrían considerarse en forma lógica como conjuntos de datos llamados "tuplas". Pese a que ésta
es la teoría de las bases de datos relacionales creadas por Codd, la mayoría de las veces se
conceptualiza de una manera más fácil de imaginar. Esto es pensando en cada relación como si
fuese una tabla que está compuesta por registros (las filas de una tabla), que representarían las
tuplas, y campos (las columnas de una tabla).
En este modelo, el lugar y la forma en que se almacenen los datos no tienen relevancia (a
diferencia de otros modelos como el jerárquico y el de red). Esto tiene la considerable ventaja de
que es más fácil de entender y de utilizar para un usuario esporádico de la base de datos. La
información puede ser recuperada o almacenada mediante "consultas" que ofrecen una amplia
flexibilidad y poder para administrar la información.
El lenguaje más habitual para construir las consultas a bases de datos relacionales es SQL,
Structured Query Language o Lenguaje Estructurado de Consultas, un estándar implementado
por los principales motores o sistemas de gestión de bases de datos relacionales.
Durante su diseño, una base de datos relacional pasa por un proceso al que se le conoce como
normalización de una base de datos.

Bases de datos multidimensionales


Artículo principal: Base de datos multidimensional

Son bases de datos ideadas para desarrollar aplicaciones muy concretas, como creación de Cubos
OLAP. Básicamente no se diferencian demasiado de las bases de datos relacionales (una tabla en
una base de datos relacional podría serlo también en una base de datos multidimensional), la
diferencia está más bien a nivel conceptual; en las bases de datos multidimensionales los campos
o atributos de una tabla pueden ser de dos tipos, o bien representan dimensiones de la tabla, o
bien representan métricas que se desean aprender.

Bases de datos orientadas a objetos


Artículo principal: Base de datos orientada a objetos
Este modelo, bastante reciente, y propio de los modelos informáticos orientados a objetos, trata
de almacenar en la base de datos los objetos completos (estado y comportamiento).
Una base de datos orientada a objetos es una base de datos que incorpora todos los conceptos
importantes del paradigma de objetos:
 Encapsulación - Propiedad que permite ocultar la información al resto de los objetos, impidiendo
así accesos incorrectos o conflictos.

 Herencia - Propiedad a través de la cual los objetos heredan comportamiento dentro de una
jerarquía de clases.

 Polimorfismo - Propiedad de una operación mediante la cual puede ser aplicada a distintos tipos
de objetos.

En bases de datos orientadas a objetos, los usuarios pueden definir operaciones sobre los datos
como parte de la definición de la base de datos. Una operación (llamada función) se especifica en
dos partes. La interfaz (o signatura) de una operación incluye el nombre de la operación y los
tipos de datos de sus argumentos (o parámetros). La implementación (o método) de la operación
se especifica separadamente y puede modificarse sin afectar la interfaz. Los programas de
aplicación de los usuarios pueden operar sobre los datos invocando a dichas operaciones a través
de sus nombres y argumentos, sea cual sea la forma en la que se han implementado. Esto podría
denominarse independencia entre programas y operaciones.
SQL:2003, es el estándar de SQL92 ampliado, soporta los conceptos orientados a objetos y
mantiene la compatibilidad con SQL92.

Bases de datos documentales


Artículo principal: Base de datos documental

Permiten la indexación a texto completo, y en líneas generales realizar búsquedas más potentes,
sirven para almacenar grandes volumenes de informacion de antecedenes historicos. Tesaurus es
un sistema de índices optimizado para este tipo de bases de datos.

Bases de datos deductivas


Un sistema de base de datos deductiva, es un sistema de base de datos pero con la diferencia de
que permite hacer deducciones a través de inferencias. Se basa principalmente en reglas y hechos
que son almacenados en la base de datos. Las bases de datos deductivas son también llamadas
bases de datos lógicas, a raíz de que se basa en lógica matemática. Este tipo de base de datos
surge debido a las limitaciones de la Base de Datos Relacional de responder a consultas
recursivas y de deducir relaciones indirectas de los datos almacenados en la base de datos.

Lenguaje
Utiliza un subconjunto del lenguaje Prolog llamado Datalog el cual es declarativo y permite al
ordenador hacer deducciones para contestar a consultas basándose en los hechos y reglas
almacenados.
Ventajas
 Uso de reglas lógicas para expresar las consultas.

 Permite responder consultas recursivas.

 Cuenta con negaciones estratificadas

 Capacidad de obtener nueva información a través de la ya almacenada en la base de datos


mediante inferencia.

 Uso de algoritmos que optimizan las consultas.

 Soporta objetos y conjuntos complejos.

Fases
 Fase de Interrogación: se encarga de buscar en la base de datos informaciones deducibles
implícitas. Las reglas de esta fase se denominan reglas de derivación.

 Fase de Modificación: se encarga de añadir a la base de datos nuevas informaciones deducibles.


Las reglas de esta fase se denominan reglas de generación.

Interpretación
Encontramos dos teorías de interpretación de las bases de datos deductiva por lo cual
consideramos las reglas y los hechos como axiomas. Los hechos son axiomas base que se
consideran como verdaderos y no contienen variables. Las reglas son axiomas deductivos ya que
se utilizan para deducir nuevos hechos.
 Teoría de Modelos: una interpretación es llamada modelo cuando para un conjunto específico
de reglas, éstas se cumplen siempre para esa interpretación. Consiste en asignar a un predicado
todas las combinaciones de valores y argumentos de un dominio de valores constantes dado. A
continuación se debe verificar si ese predicado es verdadero o falso.

Mecanismos
Existen dos mecanismos de inferencia:
 Ascendente: donde se parte de los hechos y se obtiene nuevos aplicando reglas de inferencia.

 Descendente: donde se parte del predicado (objetivo de la consulta realizada) e intenta


encontrar similitudes entre las variables que nos lleven a hechos correctos almacenados en la
base de datos.

Sistema de Gestión de bases de datos distribuida (SGBD)


La base de datos y el software SGBD pueden estar distribuidos en múltiples sitios conectados por
una red. Hay de dos tipos:
1. Distribuidos homogéneos: utilizan el mismo SGBD en múltiples sitios.
2. Distribuidos heterogéneos: Da lugar a los SGBD federados o sistemas multibase de datos en
los que los SGBD participantes tienen cierto grado de autonomía local y tienen acceso a varias
bases de datos autónomas preexistentes almacenados en los SGBD, muchos de estos emplean una
arquitectura cliente-servidor.
Estas surgen debido a la existencia física de organismos descentralizados. Esto les da la
capacidad de unir las bases de datos de cada localidad y acceder así a distintas universidades,
sucursales de tiendas, etc .

Consulta a base de datos


Una consulta es el método para acceder a los datos en las bases de datos. Con las consultas se
puede modificar, borrar, mostrar y agregar datos en una base de datos, también pueden utilizarse
como origen de registro para formularios. Para esto se utiliza un Lenguaje de consulta.
Las consultas a la base de datos se realizan a través de un Lenguaje de manipulación de datos, el
lenguaje de consultas a base de datos más utilizado es SQL.

Una red de computadoras, también llamada red de ordenadores, red de comunicaciones de


datos o red informática, es un conjunto de equipos informáticos y software conectados entre sí
por medio de dispositivos físicos que envían y reciben impulsos eléctricos, ondas
electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de
compartir información, recursos y ofrecer servicios.1
Como en todo proceso de comunicación se requiere de un emisor, un mensaje, un medio y un
receptor. La finalidad principal para la creación de una red de computadoras es compartir los
recursos y la información en la distancia, asegurar la confiabilidad y la disponibilidad de la
información, aumentar la velocidad de transmisión de los datos y reducir el costo. Un ejemplo es
Internet, la cual es una gran red de millones de computadoras ubicadas en distintos puntos del
planeta interconectadas básicamente para compartir información y recursos.
La estructura y el modo de funcionamiento de las redes informáticas actuales están definidos en
varios estándares, siendo el más importante y extendido de todos ellos el modelo TCP/IP basado
en el modelo de referencia OSI. Este último, estructura cada red en siete capas con funciones
concretas pero relacionadas entre sí; en TCP/IP se reducen a cuatro capas. Existen multitud de
protocolos repartidos por cada capa, los cuales también están regidos por sus respectivos
estándares.2

Índice
 1 Historia

 2 Descripción básica

 3 Componentes básicos de las redes

o 3.1 Software

o 3.2 Hardware

o 3.3 Dispositivos de usuario final

 3.3.1 Servidores

 3.3.2 Almacenamiento en red

o 3.4 Dispositivos de red

o 3.5 Protocolos de redes

 3.5.1 Modelo OSI

 3.5.2 Modelo TCP/IP

 3.5.3 Otros estándares

 4 Clasificación de las redes

o 4.1 Por alcance

o 4.2 Por tipo de conexión

 4.2.1 Medios guiados

 4.2.2 Medios no guiados

o 4.3 Por relación funcional

o 4.4 Por tecnología

o 4.5 Por topología física

o 4.6 Por la direccionalidad de los datos

o 4.7 Por grado de autentificación

o 4.8 Por grado de difusión


o 4.9 Por servicio o función

 5 Véase también

 6 Referencias

o 6.1 Bibliografía

 7 Enlaces externos

Historia
El primer indicio de redes de comunicación fue de tecnología telefónica y telegráfica. En 1940 se
transmitieron datos desde la Universidad de Darmouth, en Nuevo Hampshire, a Nueva York. A
finales de la década de 1960 y en los posteriores 70 fueron creadas las minicomputadoras. En
1976, Apple introduce el Apple I, uno de los primeros ordenadores personales. En 1981, IBM
introduce su primer PC. A mitad de la década de 1980 los PC comienzan a usar los módems para
compartir archivos con otros ordenadores, en un rango de velocidades que comenzó en 1200 bps
y llegó a los 56 kbps (comunicación punto a punto o dial-up), cuando empezaron a ser sustituidos
por sistema de mayor velocidad, especialmente ADSL.

Descripción básica
La comunicación por medio de una red se lleva a cabo en dos diferentes categorías: la capa
física y la capa lógica.
La capa física incluye todos los elementos de los que hace uso un equipo para comunicarse con
otros equipos dentro de la red, como, por ejemplo, las tarjetas de red, los cables, las antenas, etc.
La comunicación a través de la capa física se rige por normas muy rudimentarias que por sí
mismas resultan de escasa utilidad. Sin embargo, haciendo uso de dichas normas es posible
construir los denominados protocolos, que son normas de comunicación más complejas (mejor
conocidas como de alto nivel), capaces de proporcionar servicios que resultan útiles.
Los protocolos son un concepto muy similar al de los idiomas de las personas. Si dos personas
hablan el mismo idioma, es posible comunicarse y transmitir ideas.
La razón más importante (quizá la única) sobre por qué existe diferenciación entre la capa física
y la lógica es sencilla: cuando existe una división entre ambas, es posible utilizar un número casi
infinito de protocolos distintos, lo que facilita la actualización y migración entre distintas
tecnologías.

Componentes básicos de las redes


Para poder formar una red se requieren elementos: hardware, software y protocolos. Los
elementos físicos se clasifican en dos grandes grupos: dispositivos de usuario final (hosts) y
dispositivos de red. Los dispositivos de usuario final incluyen los computadores, impresoras,
escáneres, y demás elementos que brindan servicios directamente al usuario y los segundos son
todos aquellos que conectan entre sí a los dispositivos de usuario final, posibilitando su
intercomunicación.
El fin de una red es la de interconectar los componentes hardware de una red , y por tanto,
principalmente, las computadoras individuales, también denominados hosts, a los equipos que
ponen los servicios en la red, los servidores, utilizando el cableado o tecnología inalámbrica
soportada por la electrónica de red y unidos por cableado o radiofrecuencia. En todos los casos la
tarjeta de red se puede considerar el elemento primordial, sea ésta parte de un ordenador, de un
conmutador, de una impresora, etc. y sea de la tecnología que sea (ethernet, Wi-Fi, Bluetooth,
etc.)

Software
 Sistema operativo de red: permite la interconexión de ordenadores para poder acceder a los
servicios y recursos. Al igual que un equipo no puede trabajar sin un sistema operativo, una red
de equipos no puede funcionar sin un sistema operativo de red. En muchos casos el sistema
operativo de red es parte del sistema operativo de los servidores y de los clientes.

 Software de aplicación: en última instancia, todos los elementos se utilizan para que el usuario
de cada estación, pueda utilizar sus programas y archivos específicos. Este software puede ser
tan amplio como se necesite ya que puede incluir procesadores de texto, paquetes integrados,
sistemas administrativos de contabilidad y áreas afines, sistemas especializados, correos
electrónico, etc. El software adecuado en el sistema operativo de red elegido y con los
protocolos necesarios permiten crear servidores para aquellos servicios que se necesiten.

Hardware
Para lograr el enlace entre las computadoras y los medios de transmisión (cables de red o medios
físicos para redes alámbricas e infrarrojos o radiofrecuencias para redes inalámbricas), es
necesaria la intervención de una tarjeta de red (NIC, Network Card Interface), con la cual se
puedan enviar y recibir paquetes de datos desde y hacia otras computadoras, empleando un
protocolo para su comunicación y convirtiendo a esos datos a un formato que pueda ser
transmitido por el medio (bits, ceros y unos). Cabe señalar que a cada tarjeta de red le es
asignado un identificador único por su fabricante, conocido como dirección MAC (Media Access
Control), que consta de 48 bits (6 bytes). Dicho identificador permite direccionar el tráfico de
datos de la red del emisor al receptor adecuado.
El trabajo del adaptador de red es el de convertir las señales eléctricas que viajan por el cable
(p.e.: red Ethernet) o las ondas de radio (p.e.: red Wi-Fi) en una señal que pueda interpretar el
ordenador.
Estos adaptadores son unas tarjetas PCI que se conectan en las ranuras de expansión del
ordenador. En el caso de ordenadores portátiles, estas tarjetas vienen en formato PCMCIA o
similares. En los ordenadores del siglo XXI, tanto de sobremesa como portátiles, estas tarjetas ya
vienen integradas en la placa base.
Adaptador de red es el nombre genérico que reciben los dispositivos encargados de realizar dicha
conversión. Esto significa que estos adaptadores pueden ser tanto Ethernet, como wireless, así
como de otros tipos como fibra óptica, coaxial, etc. También las velocidades disponibles varían
según el tipo de adaptador; éstas pueden ser, en Ethernet, de 10, 100, 1000 Mbps o 10000, y en
los inalámbricos, principalmente, de 11, 54, 300 Mbps.

Dispositivos de usuario final


 Computadoras personales: son los puestos de trabajo habituales de las redes. Dentro de la
categoría de computadoras, y más concretamente computadoras personales, se engloban todos
los que se utilizan para distintas funciones, según el trabajo que realizan. Se incluyen desde las
potentes estaciones de trabajo para la edición de vídeo, por ejemplo, hasta los ligeros equipos
portátiles, conocidos como netbooks, cuya función principal es la de navegar por Internet. Las
tabletas se popularizaron al final de la primera década del siglo XXI, especialmente por el éxito
del iPad de Apple.

 Terminal: muchas redes utilizan este tipo de equipo en lugar de puestos de trabajo para la
entrada de datos. En estos sólo se exhiben datos o se introducen. Este tipo de terminales,
trabajan unido a un servidor, que es quien realmente procesa los datos y envía pantallas de
datos a los terminales.

 Electrónica del hogar: las tarjetas de red empezaron a integrarse, de forma habitual, desde la
primera década del siglo XXI, en muchos elementos habituales de los hogares: televisores,
equipos multimedia, proyectores, videoconsolas, teléfonos celulares, libros electrónicos, etc. e
incluso en electrodomésticos, como frigoríficos, convirtiéndolos en partes de las redes junto a
los tradicionales ordenadores.

 Impresoras: muchos de estos dispositivos son capaces de actuar como parte de una red de
ordenadores sin ningún otro elemento, tal como un print server, actuando como intermediario
entre la impresora y el dispositivo que está solicitando un trabajo de impresión de ser
terminado. Los medios de conectividad de estos dispositivos pueden ser alambricos o
inalámbricos, dentro de este último puede ser mediante: ethernet, Wi-Fi, infrarrojo o bluetooth.
En algunos casos se integran dentro de la impresora y en otros por medio de convertidores
externos.

 Otros elementos: escáneres, lectores de CD-ROM.

Servidores
Artículo principal: Servidor

Son los equipos que ponen a disposición de los clientes los distintos servicios. En la siguiente
lista hay algunos tipos comunes de servidores y sus propósitos:
 Servidor de archivos: almacena varios tipos de archivo y los distribuye a otros clientes en la red.
Pueden ser servidos en distinto formato según el servicio que presten y el medio: FTP, HTTP, etc.

 Servidor de impresión: controla una o más impresoras y acepta trabajos de impresión de otros
clientes de la red, poniendo en cola los trabajos de impresión (aunque también puede cambiar la
prioridad de las diferentes impresiones), y realizando la mayoría o todas las otras funciones que
en un sitio de trabajo se realizaría para lograr una tarea de impresión si la impresora fuera
conectada directamente con el puerto de impresora del sitio de trabajo.

 Servidor de correo: almacena, envía, recibe, enruta y realiza otras operaciones relacionadas con
el correo-e (e-mail) para los clientes de la red.

 Servidor de fax: almacena, envía, recibe, enruta y realiza otras funciones necesarias para la
transmisión, la recepción y la distribución apropiadas de los fax, con origen y/o destino una
computadora o un dispositivo físico de telefax.
 Servidor de telefonía: realiza funciones relacionadas con la telefonía, como es la de contestador
automático, realizando las funciones de un sistema interactivo para la respuesta de la voz,
almacenando los mensajes de voz, encaminando las llamadas y controlando también la red o
Internet, etc. Pueden operan con telefonía IP o analógica.

 Servidor proxy: realiza un cierto tipo de funciones en nombre de otros clientes en la red para
aumentar el funcionamiento de ciertas operaciones (p. ej., prefetching y depositar documentos
u otros datos que se soliciten muy frecuentemente). También «sirve» seguridad; esto es, tiene
un firewall (cortafuegos). Permite administrar el acceso a Internet en una red de computadoras
permitiendo o negando el acceso a diferentes sitios web, basándose en contenidos,
origen/destino, usuario, horario, etc.

 Servidor de acceso remoto (Remote Access Service, RAS): controla las líneas de módems u otros
canales de comunicación de la red para que las peticiones conecten una posición remota con la
red, responden las llamadas telefónicas entrantes o reconocen la petición de la red y realizan los
chequeos necesarios de seguridad y otros procedimientos necesarios para registrar a un usuario
en la red. Gestionan las entradas para establecer la redes virtuales privadas (VPN).

 Servidor web: almacena documentos HTML, imágenes, archivos de texto, escrituras, y demás
material web compuesto por datos (conocidos normalmente como contenido), y distribuye este
contenido a clientes que la piden en la red.

 Servidor de streaming: servidores que distribuyen multimedia de forma continua evitando al


usuario esperar a la descarga completa del fichero. De esta forma se pueden distribuir
contenidos tipo radio, vídeo, etc. en tiempo real y sin demoras.

 Servidor de reserva (standby server): tiene el software de reserva de la red instalado y tiene
cantidades grandes de almacenamiento de la red en discos duros u otras formas del
almacenamiento disponibles para que se utilice con el fin de asegurarse de que la pérdida de un
servidor principal no afecte a la red. El servidor de reserva lo puede ser de cualquiera de los
otros tipos de servidor, siendo muy habituales en los servidores de aplicaciones y bases de
datos.

 Servidor de autenticación: es el encargado de verificar que un usuario pueda conectarse a la red


en cualquier punto de acceso, ya sea inalámbrico o por cable, basándose en el estándar 802.1x y
puede ser un servidor de tipo RADIUS.

 Servidores para los servicios de red: estos equipos gestionan aquellos servicios necesarios
propios de la red y sin los cuales no se podrían interconectar, al menos de forma sencilla.
Algunos de esos servicios son: servicio de directorio para la gestión d elos usuarios y los recursos
compartidos, Dynamic Host Configuration Protocol (DHCP) para la asignación de las direcciones
IP en redes TCP/IP, Domain Name System (DNS) para poder nombrar los equipos sin tener que
recurrir a su dirección IP numérica, etc.

 Servidor de base de datos: permite almacenar la información que utilizan las aplicaciones de
todo tipo, guardándola ordenada y clasificada y que puede ser recuperada en cualquier
momento y sobre la base de una consulta concreta. Estos servidores suelen utilizar lenguajes
estandarízados para hacer más fácil y reutilizable la programación de aplicaciones, uno de los
más populares es SQL.
 Servidor de aplicaciones: ejecuta ciertas aplicaciones. Usualmente se trata de un dispositivo de
software que proporciona servicios de aplicación a las computadoras cliente. Un servidor de
aplicaciones gestiona la mayor parte (o la totalidad) de las funciones de lógica de negocio y de
acceso a los datos de la aplicación. Los principales beneficios de la aplicación de la tecnología de
servidores de aplicación son la centralización y la disminución de la complejidad en el desarrollo
de aplicaciones.

 Servidores de monitorización y gestión: ayudan a simplificar las tareas de control,


monitorización, búsqueda de averías, resolución de incidencias, etc. Permiten, por ejemplo,
centralizar la recepción de mensajes de aviso, alarma e información que emiten los distintos
elementos de red (no solo los propios servidores). El SNMP es un de los protocolos más
difundidos y que permite comunicar elementos de distintos fabricantes y de distinta naturaleza.

 Y otros muchos dedicados a múltiples tareas, desde muy generales a aquellos de una especifidad
enorme.

Almacenamiento en red
En las redes medianas y grandes el almacenamiento de datos principal no se produce en los
propios servidores sino que se utilizan dispositivos externos, conocidos como disk arrays
(matrices de discos) interconectados, normalmente por redes tipo SAN o Network-Attached
Storage (NAS). Estos medios permiten centralizar la información, una mejor gestión del espacio,
sistemas redundantes y de alta disponibilidad.
Los medios de copia de seguridad suelen incluirse en la misma red donde se alojan los medios de
almacenamiento mencionados más arriba, de esta forma el traslado de datos entre ambos, tanto al
hacer la copia como las posibles restauraciones, se producen dentro de esta red sin afectar al
tráfico de los clientes con los servidores o entre ellos.

Dispositivos de red
Véase también: Dispositivo electrónico de interconexión

Los equipos informáticos descritos necesitan de una determinada tecnología que forme la red en
cuestión. Según las necesidades se deben seleccionar los elementos adecuados para poder
completar el sistema. Por ejemplo, si queremos unir los equipos de una oficina entre ellos
debemos conectarlos por medio de un conmutador o un concentrador, si además hay un varios
portátiles con tarjetas de red Wi-Fi debemos conectar un punto de acceso inalámbrico para que
recoja sus señales y pueda enviarles las que les correspondan, a su vez el punto de acceso estará
conectado al conmutador por un cable. Si todos ellos deben disponer de acceso a Internet, se
interconectaran por medio de un router, que podría ser ADSL, ethernet sobre fibra óptica,
broadband, etc.
Los elementos de la electrónica de red más habituales son:
 Conmutador de red (switch),

 Enrutador (router),

 Puente de red (bridge),


 Puente de red y enrutador (brouter),

 Punto de acceso inalámbrico (Wireless Access Point, WAP).

Protocolos de redes
Artículo principal: Protocolo de red

Existen diversos protocolos, estándares y modelos que determinan el funcionamiento general de


las redes. Destacan el modelo OSI y el TCP/IP. Cada modelo estructura el funcionamiento de una
red de manera distinta. El modelo OSI cuenta con siete capas muy definidas y con funciones
diferenciadas y el TCP/IP con cuatro capas diferenciadas pero que combinan las funciones
existentes en las siete capas del modelo OSI.3 Los protocolos están repartidos por las diferentes
capas pero no están definidos como parte del modelo en sí sino como entidades diferentes de
normativas internacionales, de modo que el modelo OSI no puede ser considerado una
arquitectura de red.4

Modelo OSI
Artículo principal: Modelo OSI

El modelo OSI (Open Systems Interconnection) fue creado por la ISO y se encarga de la
conexión entre sistemas abiertos, esto es, sistemas abiertos a la comunicación con otros sistemas.
Los principios en los que basó su creación eran: una mayor definición de las funciones de cada
capa, evitar agrupar funciones diferentes en la misma capa y una mayor simplificación en el
funcionamiento del modelo en general.3
Este modelo divide las funciones de red en siete capas diferenciadas:
# Capas Unidad de intercambio

7. Capa de aplicación APDU

6. Capa de presentación PPDU

5. Capa de sesión SPDU

4. Capa de transporte TPDU

3. Capa de red Paquete de red

2. Capa de enlace de datos Trama de red (Marco / Trama)

1. Capa física Bit

Modelo TCP/IP
Artículo principal: TCP/IP

Este modelo es el implantado actualmente a nivel mundial: fue utilizado primeramente en


ARPANET y es utilizado actualmente a nivel global en Internet y redes locales. Su nombre
deriva de la unión de los nombres de los dos principales protocolos que lo conforman: TCP en la
capa de transporte e IP en la capa de red.5 Se compone de cuatro capas:
# Capas Unidad de intercambio

4. Capa de aplicación no definido

3. Capa de transporte Paquete de red

2. Capa de red (red / interred) no definido (Datagrama)

1. Capa de enlace de datos (enlace / nodo a red) ??

Otros estándares
Existen otros estándares, más concretos, que definen el modo de funcionamiento de diversas
tecnologías de transmisión de datos. La siguiente lista no es completa, sólo muestra algunos
ejemplos:
Tecnología Estándar Año de primera publicación Otros detalles

Ethernet IEEE 802.3 1983 -

Token Ring IEEE 802.5 19706 -

WLAN IEEE 802.11 19977 -

Bluetooth IEEE 802.15 20028 -

FDDI ISO 9314-x 1987 Reúne un conjunto de estándares.

PPP RFC 1661 19949 -

Clasificación de las redes


Una red puede recibir distintos calificativos de clasificación sobre la base de distintas
taxonomías: alcance, tipo de conexión, tecnología, etc.

Por alcance
 Red de área personal (Personal Area Network, PAN) es una red de computadoras usada para la
comunicación entre los dispositivos de la computadora cerca de una persona.

 Red inalámbrica de área personal (Wireless Personal Area Network, WPAN), es una red de
computadoras inalámbrica para la comunicación entre distintos dispositivos (tanto
computadoras, puntos de acceso a internet, teléfonos celulares, PDA, dispositivos de audio,
impresoras) cercanos al punto de acceso. Estas redes normalmente son de unos pocos metros y
para uso personal, así como fuera de ella. El medio de transporte puede ser cualquiera de los
habituales en las redes inalámbricas pero las que reciben esta denominación son habituales en
Bluetooth.

 Red de área local (Local Area Network, LAN), es una red que se limita a un área especial
relativamente pequeña tal como un cuarto, un solo edificio, una nave, o un avión. Las redes de
área local a veces se llaman una sola red de localización. No utilizan medios o redes de
interconexión públicos.

 Red de área local inalámbrica (Wireless Local Area Network, WLAN), es un sistema de
comunicación de datos inalámbrico flexible, muy utilizado como alternativa a las redes de área
local cableadas o como extensión de estas.

 Red de área de campus (Campus Area Network, CAN), es una red de computadoras de alta
velocidad que conecta redes de área local a través de un área geográfica limitada, como un
campus universitario, una base militar, hospital, etc. Tampoco utiliza medios públicos para la
interconexión.

 Red de área metropolitana (Metropolitan Area Network, MAN) es una red de alta velocidad
(banda ancha) que da cobertura en un área geográfica más extensa que un campus, pero aun así
limitado. Por ejemplo, un red que interconecte los edificios públicos de un municipio dentro de
la localidad por medio de fibra óptica.

 Red de área amplia (Wide Area Network, WAN), son redes informáticas que se extienden sobre
un área geográfica extensa utilizando medios como: satélites, cables interoceánicos, Internet,
fibras ópticas públicas, etc.

 Red de área de almacenamiento (Storage Area Network, SAN), es una red concebida para
conectar servidores, matrices (arrays) de discos y librerías de soporte, permitiendo el tránsito de
datos sin afectar a las redes por las que acceden los usuarios.

 Red de área local virtual (Virtual LAN, VLAN), es un grupo de computadoras con un conjunto
común de recursos a compartir y de requerimientos, que se comunican como si estuvieran
adjuntos a una división lógica de redes de computadoras en la cual todos los nodos pueden
alcanzar a los otros por medio de broadcast (dominio de broadcast) en la capa de enlace de
datos, a pesar de su diversa localización física. Este tipo surgió como respuesta a la necesidad de
poder estructurar las conexiones de equipos de un edificio por medio de software, 10 permitiendo
dividir un conmutador en varios virtuales.

Por tipo de conexión


Artículo principal: Medio de transmisión

Medios guiados
Véase también: Cableado estructurado

 Cable de par trenzado: es una forma de conexión en la que dos conductores eléctricos aislados
son entrelazados para tener menores interferencias y aumentar la potencia y disminuir la
diafonía de los cables adyacentes. Dependiendo de la red se pueden utilizar, uno, dos, cuatro o
más pares trenzados.

 Cable coaxial: se utiliza para transportar señales electromagnéticas de alta frecuencia, el cual
posee un núcleo sólido (generalmente de cobre) o de hilos, recubierto por un material
dieléctrico y una malla o blindaje, que sirven para aislar o proteger la señal de información
contra las interferencias o ruido exterior.
 Fibra óptica: es un medio de transmisión empleado habitualmente en redes de datos; un hilo
muy fino de material transparente, vidrio o materiales plásticos, por el que se envían pulsos de
luz que representan los datos a transmitir.

Medios no guiados
Véanse también: Red inalámbrica, Radiofrecuencia, Microondas, Radiación infrarroja e Infrared Data
Association.

 Red por radio es aquella que emplea la radiofrecuencia como medio de unión de las diversas
estaciones de la red.

 Red por infrarrojos (Infrared Data Association, IrDA), permiten la comunicación entre dos
nodos, usando una serie de ledes infrarrojos para ello. Se trata de emisores/receptores de ondas
infrarrojas entre ambos dispositivos, cada dispositivo necesita al otro para realizar la
comunicación por ello es escasa su utilización a gran escala. No disponen de gran alcance y
necesitan de visibilidad entre los dispositivos.

 Red por microondas, es un tipo de red inalámbrica que utiliza microondas como medio de
transmisión. Los protocolos más frecuentes son: el IEEE 802.11b y transmite a 2,4 GHz,
alcanzando velocidades de 11 Mbps (Megabits por segundo); el rango de 5,4 a 5,7 GHz para el
protocolo IEEE 802.11a; el IEEE 802.11n que permite velocidades de hasta 600 Mbps; etc.

Por relación funcional


 Cliente-servidor es la arquitectura que consiste básicamente en un cliente que realiza peticiones
a otro programa (el servidor) que le da respuesta.

 Peer-to-peer, o red entre iguales, es aquella red de computadoras en la que todos o algunos
aspectos funcionan sin clientes ni servidores fijos, sino una serie de nodos que se comportan
como iguales entre sí.

Por tecnología
Véanse también: Point-to-Point Protocol, Peer-to-Peer y P2P.

 Red punto a punto (point to point, PtP) es aquella en la que existe multitud de conexiones entre
parejas individuales de máquinas. Este tipo de red requiere, en algunos casos, máquinas
intermedias que establezcan rutas para que puedan transmitirse paquetes de datos. El medio
electrónico habitual para la interconexión es el conmutador, o switch.

 Red de Difusión (broadcast) se caracteriza por transmitir datos por un sólo canal de
comunicación que comparten todas las máquinas de la red. En este caso, el paquete enviado es
recibido por todas las máquinas de la red pero únicamente la destinataria puede procesarlo. Los
equipos unidos por un concentrador (hub), forman redes de este tipo.

 Red multipunto, dispone de una línea o medio de comunicación cuyo uso está compartido por
todas las terminales en la red. La información fluye de forma bidireccional. Los terminales
pueden estar separados geográficamente.

Por topología física


Topologías físicas de red.

Véase también: Topología de red

 Red en bus (bus o “conductor común”) o Red lineal (line): se caracteriza por tener un único
canal de comunicaciones (denominado bus, troncal o backbone) al cual se conectan los
diferentes dispositivos.

 Red en anillo' (ring) o Red circular: cada estación está conectada a la siguiente y la última está
conectada a la primera. Además, puede compararse con la Red en cadena margarita (dDaisy
chain).

 Red en estrella (star): las estaciones están conectadas directamente a un punto central y todas
las comunicaciones se han de hacer necesariamente a través de éste.

 Red en malla (mesh): cada nodo está conectado a todos los otros.

 Red en árbol (tree) o Red jerárquica: los nodos están colocados en forma de árbol. Desde una
visión topológica, la conexión en árbol es parecida a una serie de redes en estrella
interconectadas salvo en que no tiene un nodo central.

 Red híbrida o Red mixta: se da cualquier combinación de las anteriores. Por ejemplo, circular de
estrella, bus de estrella, etc.

Por la direccionalidad de los datos


 Simplex o unidireccional: un equipo terminal de datos transmite y otro recibe.

 Half-duplex o semidúplex: el método o protocolo de envío de información es bidireccional pero


no simultáneo bidireccional, sólo un equipo transmite a la vez.

 Full-duplex o dúplex: los dos equipos involucrados en la comunicación lo pueden hacer de forma
simultánea, transmitir y recibir.

Por grado de autentificación


 Red privada: es una red que solo puede ser usada por algunas personas y que está configurada
con clave de acceso personal.[cita  requerida]
 Red de acceso público: una red pública se define como una red que puede usar cualquier
persona y no como las redes que están configuradas con clave de acceso personal. Es una red de
computadoras interconectados, capaz de compartir información y que permite comunicar a
usuarios sin importar su ubicación geográfica. [cita  requerida]

Por grado de difusión


Véase también: Extranet

 Una intranet es una red privada de computadoras que utiliza tecnología de Internet para
compartir dentro de una organización parte de sus sistemas de información y sistemas
operacionales.

 La Internet es un conjunto descentralizado de redes de comunicación interconectadas que


utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la
componen funcionen como una red lógica única, de alcance mundial.

Por servicio o función


 Red comercial proporciona soporte e información para una empresa u organización con ánimo
de lucro.

 Red educativa proporciona soporte e información para una organización educativa dentro del
ámbito del aprendizaje.

 Red para el proceso de datos proporciona una interfaz para intercomunicar equipos que vayan a
realizar una función de cómputo conjunta. [cita  requerida]

Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la


familia de protocolos TCP/IP, lo cual garantiza que las redes físicas heterogéneas que la
componen funciones como una red lógica única de alcance mundial. Sus orígenes se remontan a
1969, cuando se estableció la primera conexión de computadoras, conocida como Arpanet, entre
tres universidades en California (Estados Unidos). El género de la palabra internet es ambiguo
según el Diccionario de la Real Academia Española.3 4
Uno de los servicios que más éxito ha tenido en internet ha sido la World Wide Web (WWW o la
Web), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un
conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de
hipertexto. Esta fue un desarrollo posterior (1990) y utiliza internet como medio de transmisión.5
Existen, por tanto, muchos otros servicios y protocolos en internet, aparte de la Web: el envío de
correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea
(IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación
multimedia —telefonía (VoIP), televisión (IPTV)—, los boletines electrónicos (NNTP), el
acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.5 6 7
Índice
 1 Origen

 2 Tecnología de internet

o 2.1 Enrutamiento y capas de servicio

o 2.2 Acceso a internet

o 2.3 Nombres de dominio

 3 Usos modernos

 4 Impacto social

o 4.1 Filantropía

o 4.2 Ocio

o 4.3 Internet y su evolución

o 4.4 Efectos de internet en el cerebro

o 4.5 Fuente de información

o 4.6 Buscadores

 4.6.1 Índices o directorios temáticos

 4.6.2 Motores de búsqueda

 4.6.3 Metabuscadores

o 4.7 Trabajo

o 4.8 Publicidad

o 4.9 Censura

o 4.10 Internet en obras de ficción

 5 Tamaño

 6 Usuarios

 7 Véase también

 8 Referencias

 9 Bibliografía

 10 Enlaces externos
Origen
Artículo principal: Historia de Internet

Esquema lógico de ARPANet.

Sus orígenes se remontan a la década de 1960, dentro de ARPA (hoy DARPA, las siglas en
inglés de la Defense Advanced Research Projects Agency), como respuesta a la necesidad de esta
organización de buscar mejores maneras de usar los computadores de ese entonces, pero
enfrentados al problema de que los principales investigadores y laboratorios deseaban tener sus
propios computadores, lo que no solo era más costoso, sino que provocaba una duplicación de
esfuerzos y recursos. El verdadero origen de Internet microsiervos (2005)</ref> Así nace
ARPANet (Advanced Research Projects Agency Network o Red de la Agencia para los
Proyectos de Investigación Avanzada de los Estados Unidos), que nos legó el trazado de una red
inicial de comunicaciones de alta velocidad a la cual fueron integrándose otras instituciones
gubernamentales y redes académicas durante los años 70.8 9 10
Investigadores, científicos, profesores y estudiantes se beneficiaron de la comunicación con otras
instituciones y colegas en su rama, así como de la posibilidad de consultar la información
disponible en otros centros académicos y de investigación. De igual manera, disfrutaron de la
nueva habilidad para publicar y hacer disponible a otros la información generada en sus
actividades.11 12
En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre
la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad
teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran
avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer
dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una
computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica
conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de
área amplia jamás construida.13 14 15
 1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer
enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y
gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959
(ver: Arpanet). El mito de que ARPANET, la primera red, se construyó simplemente para
sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único
motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la
verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se
atestigua en la siguiente cita:

A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para
resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado
con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de
voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de
grandes porciones de las redes subyacentes. (Internet Society, A Brief History of the Internet)
 1972: Se realizó la Primera demostración pública de ARPANET, una nueva red de
comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red
telefónica conmutada. El éxito de esta nueva arquitectura sirvió para que, en 1973, la DARPA
iniciara un programa de investigación sobre posibles técnicas para interconectar redes
(orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos
protocolos de comunicaciones que permitiesen este intercambio de información de forma
"transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre
de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e
IP.16

 1983: El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el
IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a
Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que,
más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona
servicios a los DNS.17 18

 1986: La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de
Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos.
Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las
americanas formaban el esqueleto básico ("backbone") de Internet. 19 20

 1989: Con la integración de los protocolos OSI en la arquitectura de Internet, se inició la


tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino
también la de facilitar el uso de distintos protocolos de comunicaciones. 21
En 1990 el CERN crea el código HTML y con él el primer cliente World Wide Web. En la imagen el código
HTML con sintaxis coloreada.

En el CERN de Ginebra, un grupo de físicos encabezado por Tim Berners-Lee creó el lenguaje
HTML, basado en el SGML. En 1990 el mismo equipo construyó el primer cliente Web, llamado
WorldWideWeb (WWW), y el primer servidor web.22
A inicios de la década de 1990, con la introducción de nuevas facilidades de interconexión y
herramientas gráficas simples para el uso de la red, se inició el auge que actualmente le
conocemos al Internet. Este crecimiento masivo trajo consigo el surgimiento de un nuevo perfil
de usuarios, en su mayoría de personas comunes no ligadas a los sectores académicos, científicos
y gubernamentales.17
Esto ponía en cuestionamiento la subvención del gobierno estadounidense al sostenimiento y la
administración de la red, así como la prohibición existente al uso comercial del Internet. Los
hechos se sucedieron rápidamente y para 1993 ya se había levantado la prohibición al uso
comercial del Internet y definido la transición hacia un modelo de administración no
gubernamental que permitiese, a su vez, la integración de redes y proveedores de acceso
privados.23 El 30 de abril de 1993 la Web entró al dominio público, ya que el CERN entregó las
tecnologías de forma gratuita para que cualquiera pudiera utilizarlas.24 25
 2006: El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez
años, la cantidad de navegantes de la Red aumentará a 2000 millones. 26

El primer dato que nos llama la atención es el incremento en el número de usuarios que utilizan
Internet. En estos diez años se ha pasado de 559 millones a 2.270 millones de personas que
navegan en todo mundo, lo que equivale al 33% total de la población, una cifra muy superior al
9,1% en el 2002.
El resultado de todo esto es lo que experimentamos hoy en día: la transformación de lo que fue
una enorme red de comunicaciones para uso gubernamental, planificada y construida con fondos
estatales, que ha evolucionado en una miríada de redes privadas interconectadas entre sí.
Actualmente la red experimenta cada día la integración de nuevas redes y usuarios, extendiendo
su amplitud y dominio, al tiempo que surgen nuevos mercados, tecnologías, instituciones y
empresas que aprovechan este nuevo medio, cuyo potencial apenas comenzamos a descubrir.27 Al
final descubrieron que se podían ver cosas de adultos. Internet va evolucionando día a día, es un
mecanismo de avance. En español la palabra 'Internet' está considerada como un nombre propio.
La RAE acepta su escritura con mayúscula inicial. Este término se utiliza preferentemente sin
artículo, aunque si se emplea, se recomienda el uso femenino (la, una, esta...). Hoy en día Internet
es necesario en nuestra vida ya que la sociedad está envuelta en un mundo cibernético, sobre todo
en los adolescentes.

Tecnología de internet
Enrutamiento y capas de servicio
Gráfica del encapsulamiento en paquetes de datos.

Paquetes de Internet de varios provedores.

Los Proveedores de Servicios de Internet (ISP) conectan a clientes, quienes representan la parte
más baja en la jerarquía de enrutamiento, con otros clientes de otros ISP a través de capas de red
más altas o del mismo nivel. En lo alto de la jerarquía de enrutamiento están las redes de capa 1,
grandes compañías de telecomunicaciones que intercambian tráfico directamente con otras a
través de acuerdos de interconexión. Redes de capa 2 y de más bajo nivel compran tráfico de
Internet de otros proveedores para alcanzar al menos algunas partes del Internet mundial, aunque
también pueden participar en la interconexión. Un ISP puede usar un único proveedor para la
conectividad o implementar multihoming para conseguir redundancia y balanceo de carga. Los
puntos neutros tienen las cargas más importantes de tráfico y tienen conexiones físicas a
múltiples ISP.
Los ordenadores y routers utilizan las tablas de enrutamiento para dirigir los paquetes IP entre las
máquinas conectadas localmente. Las tablas pueden ser construidas de forma manual o
automáticamente a través de DHCP para un equipo individual o un protocolo de enrutamiento
para los routers de sí mismos. En un solo homed situaciones, una ruta por defecto por lo general
apunta hacia "arriba" hacia un ISP proporciona el transporte. De más alto nivel de los ISP
utilizan el Border Gateway Protocol para solucionar rutas de acceso a un determinado rango de
direcciones IP a través de las complejas conexiones de la Internet global. [cita  requerida]
Las instituciones académicas, las grandes empresas, gobiernos y otras organizaciones pueden
realizar el mismo papel que los ISP, con la participación en el intercambio de tráfico y tránsito de
la compra en nombre de sus redes internas de las computadoras individuales. Las redes de
investigación tienden a interconectarse en subredes grandes como GEANT, GLORIAD,
Internet2, y de investigación nacional del Reino Unido y la red de la educación, Janet. Estos a su
vez se construyen alrededor de las redes más pequeñas (véase la lista de organizaciones
académicas de redes informáticas).[cita  requerida]
No todas las redes de ordenadores están conectados a Internet. Por ejemplo, algunos clasificados
los sitios web de los Estados sólo son accesibles desde redes seguras independientes.[cita  requerida]

Acceso a internet
Artículo principal: Conexión a Internet

Esquema con las tecnologías relacionadas al Internet actual.

Los métodos comunes de acceso a Internet en los hogares incluyen dial-up, banda ancha fija (a
través de cable coaxial, cables de fibra óptica o cobre),21 Wi-Fi, televisión vía satélite y teléfonos
celulares con tecnología 3G/4G. Los lugares públicos de uso del Internet incluyen bibliotecas y
cafés de internet, donde los ordenadores con conexión a Internet están disponibles. También hay
puntos de acceso a Internet en muchos lugares públicos, como salas de los aeropuertos y
cafeterías, en algunos casos sólo para usos de corta duración. Se utilizan varios términos, como
"kiosco de Internet", "terminal de acceso público", y "teléfonos públicos Web". Muchos hoteles
ahora también tienen terminales de uso público, las cuales por lo general basados en honorarios.
Estos terminales son muy visitada para el uso de varios clientes, como reserva de entradas,
depósito bancario, pago en línea, etc. Wi-Fi ofrece acceso inalámbrico a las redes informáticas, y
por lo tanto, puede hacerlo a la propia Internet. Hotspots les reconocen ese derecho incluye Wi-Fi
de los cafés, donde los aspirantes a ser los usuarios necesitan para llevar a sus propios
dispositivos inalámbricos, tales como un ordenador portátil o PDA. Estos servicios pueden ser
gratis para todos, gratuita para los clientes solamente, o de pago. Un punto de acceso no tiene por
qué estar limitado a un lugar confinado. Un campus entero o parque, o incluso una ciudad entera
puede ser activado.28 29
Los esfuerzos de base han dado lugar a redes inalámbricas comunitarias. Los servicios
comerciales de Wi-Fi cubren grandes áreas de la ciudad están en su lugar en Londres, Viena,
Toronto, San Francisco, Filadelfia, Chicago y Pittsburgh. El Internet se puede acceder desde
lugares tales como un banco del parque. Aparte de Wi-Fi, se han realizado experimentos con
propiedad de las redes móviles inalámbricas como Ricochet, varios servicios de alta velocidad de
datos a través de redes de telefonía celular, y servicios inalámbricos fijos. De gama alta los
teléfonos móviles como teléfonos inteligentes en general, cuentan con acceso a Internet a través
de la red telefónica. Navegadores web como Opera están disponibles en estos teléfonos
avanzados, que también puede ejecutar una amplia variedad de software de Internet. Más
teléfonos móviles con acceso a Internet que los PC, aunque esto no es tan ampliamente utilizado.
El proveedor de acceso a Internet y la matriz del protocolo se diferencia de los métodos
utilizados para obtener en línea.
Un apagón de Internet o interrupción puede ser causado por interrupciones locales de
señalización. Las interrupciones de cables de comunicaciones submarinos pueden causar
apagones o desaceleraciones a grandes áreas, tales como en la interrupción submarino 2008 por
cable. Los países menos desarrollados son más vulnerables debido a un pequeño número de
enlaces de alta capacidad. Cables de tierra también son vulnerables, como en 2011, cuando una
mujer cavando en busca de chatarra de metal cortó la mayor parte de conectividad para el país de
Armenia.[cita  requerida] Internet apagones que afectan a los países casi todo se puede lograr por los
gobiernos como una forma de censura en Internet, como en el bloqueo de Internet en Egipto, en
el que aproximadamente el 93 % de las redes no tenían acceso en 2011 en un intento por detener
la movilización de protestas contra el gobierno.
En un estudio norteamericano en el año 2005, el porcentaje de hombres que utilizan Internet era
muy ligeramente por encima del porcentaje de las mujeres, aunque esta diferencia se invierte en
los menores de 30. Los hombres se conectan más a menudo, pasan más tiempo en línea, y son
más propensos a ser usuarios de banda ancha, mientras que las mujeres tienden a hacer mayor
uso de las oportunidades de comunicación (como el correo electrónico). Los hombres eran más
propensos a utilizar el Internet para pagar sus cuentas, participar en las subastas, y para la
recreación, tales como la descarga de música y vídeos. Hombres y mujeres tenían las mismas
probabilidades de utilizar Internet para hacer compras y la banca. Los estudios más recientes
indican que en 2008, las mujeres superaban en número a los hombres de manera significativa en
la mayoría de los sitios de redes sociales, como Facebook y Myspace, aunque las relaciones
variaban con la edad. Además, las mujeres vieron más contenido de streaming, mientras que los
hombres descargaron más En cuanto a los blogs, los hombres eran más propensos al blog en el
primer lugar; entre los que el blog, los hombres eran más propensos a tener un blog profesional,
mientras que las mujeres eran más propensas a tener un blog personal.
Es de gran importancia resaltar que existe una diferencia entre WEB y el INTERNET ya que el
internet es una red masiva de redes, una infraestructura de red que conecta a millones de
computadores en todo el mundo, formando una red en la que cualquier computadora se pueda
comunicar con cualquier otro equipo, siempre y cuando ambos están conectados a internet. En
cambio la web es una forma de acceder a la información sobre el medio de la internet, la web
utiliza el protocolo http el cual es sólo uno de los idiomas que se hablan a través de internet para
transmitir datos.

Nombres de dominio
Artículo principal: Dominio de Internet

La Corporación de Internet para los Nombres y los Números Asignados (ICANN) es la autoridad
que coordina la asignación de identificadores únicos en Internet, incluyendo nombres de
dominio, direcciones de Protocolos de Internet, números del puerto del protocolo y de
parámetros. Un nombre global unificado (es decir, un sistema de nombres exclusivos para
sostener cada dominio) es esencial para que Internet funcione.
El ICANN tiene su sede en California, supervisado por una Junta Directiva Internacional con
comunidades técnicas, comerciales, académicas y ONG. El gobierno de los Estados Unidos
continúa teniendo un papel privilegiado en cambios aprobados en el Domain Name System.
Como Internet es una red distribuida que abarca muchas redes voluntariamente interconectadas,
Internet, como tal, no tiene ningún cuerpo que lo gobierne.

Usos modernos
El Internet moderno permite una mayor flexibilidad en las horas de trabajo y la ubicación. Con el
Internet se puede acceder a casi cualquier lugar, a través de dispositivos móviles de Internet. Los
teléfonos móviles, tarjetas de datos, consolas de juegos portátiles y routers celulares permiten a
los usuarios conectarse a Internet de forma inalámbrica. Dentro de las limitaciones impuestas por
las pantallas pequeñas y otras instalaciones limitadas de estos dispositivos de bolsillo, los
servicios de Internet, incluyendo correo electrónico y la web, pueden estar disponibles al público
en general. Los proveedores de internet puede restringir los servicios que ofrece y las cargas de
datos móviles puede ser significativamente mayor que otros métodos de acceso.
Se puede encontrar material didáctico a todos los niveles, desde preescolar hasta post-doctoral
está disponible en sitios web. Los ejemplos van desde CBeebies, a través de la escuela y
secundaria guías de revisión, universidades virtuales, al acceso a la gama alta de literatura
académica a través de la talla de Google Académico. Para la educación a distancia, ayuda con las
tareas y otras asignaciones, el auto-aprendizaje guiado, entreteniendo el tiempo libre, o
simplemente buscar más información sobre un hecho interesante, nunca ha sido más fácil para la
gente a acceder a la información educativa en cualquier nivel, desde cualquier lugar. El Internet
en general es un importante facilitador de la educación tanto formal como informal.
El bajo costo y el intercambio casi instantáneo de las ideas, conocimientos y habilidades han
hecho el trabajo colaborativo dramáticamente más fácil, con la ayuda del software de
colaboración. De chat, ya sea en forma de una sala de chat IRC o del canal, a través de un
sistema de mensajería instantánea, o un sitio web de redes sociales, permite a los colegas a
mantenerse en contacto de una manera muy conveniente cuando se trabaja en sus computadoras
durante el día. Los mensajes pueden ser intercambiados de forma más rápida y cómodamente a
través del correo electrónico. Estos sistemas pueden permitir que los archivos que se
intercambian, dibujos e imágenes para ser compartidas, o el contacto de voz y vídeo entre los
miembros del equipo.
Sistemas de gestión de contenido permiten la colaboración a los equipos trabajar en conjuntos de
documentos compartidos al mismo tiempo, sin destruir accidentalmente el trabajo del otro. Los
equipos de negocio y el proyecto pueden compartir calendarios, así como documentos y otra
información. Esta colaboración se produce en una amplia variedad de áreas, incluyendo la
investigación científica, desarrollo de software, planificación de la conferencia, el activismo
político y la escritura creativa. La colaboración social y político es cada vez más generalizada,
como acceso a Internet y difusión conocimientos de informática.
La Internet permite a los usuarios de computadoras acceder remotamente a otros equipos y
almacenes de información fácilmente, donde quiera que estén. Pueden hacer esto con o sin la
seguridad informática, es decir, la autenticación y de cifrado, dependiendo de los requerimientos.
Esto es alentador, nuevas formas de trabajo, la colaboración y la información en muchas
industrias. Un contador sentado en su casa puede auditar los libros de una empresa con sede en
otro país. Estas cuentas podrían haber sido creado por trabajo desde casa tenedores de libros, en
otros lugares remotos, con base en la información enviada por correo electrónico a las oficinas de
todo el mundo. Algunas de estas cosas eran posibles antes del uso generalizado de Internet, pero
el costo de líneas privadas arrendadas se han hecho muchos de ellos no factibles en la práctica.
Un empleado de oficina lejos de su escritorio, tal vez al otro lado del mundo en un viaje de
negocios o de placer, pueden acceder a sus correos electrónicos, acceder a sus datos usando la
computación en nube, o abrir una sesión de escritorio remoto a su PC de la oficina usando un
seguro virtual Private Network (VPN) en Internet. Esto puede dar al trabajador el acceso
completo a todos sus archivos normales y datos, incluyendo aplicaciones de correo electrónico y
otros, mientras que fuera de la oficina. Este concepto ha sido remitido a los administradores del
sistema como la pesadilla privada virtual, [36], ya que amplía el perímetro de seguridad de una
red corporativa en lugares remotos y las casas de sus empleados.

Impacto social

Sitios de Internet por países.

Internet tiene un impacto profundo en el mundo laboral, el ocio y el conocimiento a nivel


mundial. Gracias a la web, millones de personas tienen acceso fácil e inmediato a una cantidad
extensa y diversa de información en línea. Este nuevo medio de comunicación logró romper las
barreras físicas entre regiones remotas, sin embargo el idioma continúa siendo una dificultad
importante. Si bien en un principio nació como un medio de comunicación unilateral destinado a
las masas, su evolución en la llamada Web 2.0 permitió la participación de los ahora emisores-
receptores, creándose así variadas y grandes plazas públicas como puntos de encuentro en el
espacio digital.
Comparado a las enciclopedias y a las bibliotecas tradicionales, la web ha permitido una
descentralización repentina y extrema de la información y de los datos. Algunas compañías e
individuos han adoptado el uso de los weblogs, que se utilizan en gran parte como diarios
actualizables, ya en decadencia tras la llegada de las plataformas sociales. La automatización de
las bases de datos y la posibilidad de convertir cualquier computador en una terminal para
acceder a ellas, ha traído como consecuencia la digitalización de diversos trámites, transacciones
bancarias o consultas de cualquier tipo, ahorrando costos administrativos y tiempo del usuario.
Algunas organizaciones comerciales animan a su personal para incorporar sus áreas de
especialización en sus sitios, con la esperanza de que impresionen a los visitantes con
conocimiento experto e información libre.30
Esto también ha permitido la creación de proyectos de colaboración mundial en la creación de
software libre y de código abierto (FOSS), por ejemplo: la Free Software Foundation con sus
herramientas GNU y licencia de contenido libre, el núcleo de sistema operativo Linux, la
Fundación Mozilla con su navegador web Firefox y su lector de correos Thunderbird, la suite
ofimática Apache OpenOffice y la propia Fundación Wikimedia.31 32
Internet se extendió globalmente, no obstante, de manera desigual. Floreció en gran parte de los
hogares y empresas de países ricos, mientras que países y sectores desfavorecidos cuentan con
baja penetración y velocidad promedio de Internet. La inequidad del acceso a esta nueva
tecnología se le conoce como brecha digital, lo que repercute menores oportunidades de
conocimiento, comunicación y cultura. No obstante a lo largo de las décadas se observa un
crecimiento sostenido tanto en la penetración y velocidad de Internet, como en su volumen de
datos almacenados y el ancho de banda total usado en el intercambio de información por día,
implementándose gradualmente en todas las naciones.

Filantropía
El voluntariado en línea es la modalidad de voluntariado que se lleva a cabo a través de Internet.
Esta modalidad de voluntariado remoto aumenta la capacidad de las organizaciones en materia de
desarrollo al tiempo que ofrece un espacio para que mucha gente participe en el desarrollo, algo
de lo que, de otro modo, no disfrutarían33 Uno de los aspectos clave del voluntariado en línea es
su poder de inclusión. Dado que el voluntariado en línea no implica gastos ni viajes, cualquier
persona desde cualquier parte del mundo puede colaborar por la paz y el desarrollo34 .

Ocio
Muchos utilizan Internet para descargar música, películas y otros trabajos. Hay fuentes que
cobran por su uso y otras gratuitas, usando los servidores centralizados y distribuidos, las
tecnologías de P2P. Otros utilizan la red para tener acceso a las noticias y el estado del tiempo.
La mensajería instantánea o chat y el correo electrónico son algunos de los servicios de uso más
extendido. En muchas ocasiones los proveedores de dichos servicios brindan a sus afiliados
servicios adicionales como la creación de espacios y perfiles públicos en donde los internautas
tienen la posibilidad de colocar en la red fotografías y comentarios personales. Se especula
actualmente si tales sistemas de comunicación fomentan o restringen el contacto de persona a
persona entre los seres humanos.35
En tiempos más recientes han cobrado auge portales sociales, a veces con amplias discusiones36 ,
como YouTube, Twitter o Facebook entre otros, en donde los usuarios pueden tener acceso a una
gran variedad de vídeos sobre prácticamente cualquier tema.
La pornografía representa buena parte del tráfico en Internet, siendo a menudo un aspecto
controvertido de la red por las implicaciones morales que le acompañan. Proporciona a menudo
una fuente significativa del rédito de publicidad para otros sitios. Muchos gobiernos han
procurado sin éxito poner restricciones en el uso de ambas industrias en Internet.
El sistema multijugador constituye también buena parte del ocio en Internet.

Internet y su evolución
Inicialmente Internet tenía un objetivo claro. Se navegaba en Internet para algo muy concreto:
búsquedas de información, generalmente.
Ahora quizás también, pero sin duda alguna hoy es más probable perderse en la red, debido al
inmenso abanico de posibilidades que brinda. Hoy en día, la sensación que produce Internet es un
ruido, una serie de interferencias, una explosión de ideas distintas, de personas diferentes, de
pensamientos distintos de tantas posibilidades que, en ocasiones, puede resultar excesivo.
El crecimiento o, más bien, la incorporación de tantas personas a la red hace que las calles de lo
que en principio era una pequeña ciudad llamada Internet se conviertan en todo un planeta
extremadamente conectado entre sí, entre todos sus miembros.
El hecho de que Internet haya aumentado tanto implica una mayor cantidad de relaciones
virtuales entre personas. Es posible concluir que cuando una persona tenga una necesidad de
conocimiento no escrito en libros, puede recurrir a una fuente más acorde a su necesidad, ahora
esta fuente es posible en Internet.
Como toda gran revolución, Internet augura una nueva era de diferentes métodos de resolución
de problemas creados a partir de soluciones anteriores.
Internet produce algo que todos han sentido alguna vez; produce la esperanza que es necesaria
cuando se quiere conseguir algo. Es un despertar de intenciones que jamás antes la tecnología
había logrado en la población mundial.
Para algunos usuarios, Internet genera una sensación de cercanía, empatía, comprensión y, a la
vez, de confusión, discusión, lucha y conflictos que los mismos usuarios pueden considerar como
la vida misma.
La evolución del internet radica en la migración de la versión y uso del IPv4 a IPv6.
IP es un protocolo que no está orientado a la conexión y no es completamente seguro en la
transmisión de los datos, lo anterior permite que las conexiones inalámbricas tengan siempre
movilidad. Por otro lado, para mejorar la confiabilidad se usa el protocolo TCP. El protocolo IP,
es la forma en la que se enrutan los paquetes entre las redes. Cada nodo en cada una de las redes
tiene una dirección IP diferente. Para garantizar un enrutamiento correcto, IP agrega su propio
encabezado a los paquetes. Este proceso se apoya en tablas de enrutamiento que son actualizadas
permanentemente. En caso de que el paquete de datos sea demasiado grande, el protocolo IP lo
fragmenta para poderlo transportar. La versión que se está ocupando de este protocolo es la 4,
donde se tiene conectividad, pero también ciertas restricciones de espacio. Es por eso que las
grandes empresas proveedoras del servicio de internet migraran a la versión IPv6.
La nueva versión del protocolo IP Internet Protocol recibe el nombre de IPv6, aunque es también
conocido comúnmente como IPng Internet Protocol Next Generation. IPv6 ha sido diseñado
como un paso evolutivo desde IPv4, por lo que no representa un cambio radical respecto IPv4.
Las características de IPv4 que trabajan correctamente se han mantenido en el nuevo protocolo,
mientras que se han suprimido aquéllas que no funcionaban bien. De todos modos, los cambios
que se introducen en esta nueva versión son muchos y de gran importancia debido a las bondades
que ofrecen. A principios de 2010, quedaban menos del 10% de IPs sin asignar. En la semana del
3 de febrero del 2011, la IANA (Agencia Internacional de Asignación de Números de Internet,
por sus siglas en inglés) entregó el último bloque de direcciones disponibles (33 millones) a la
organización encargada de asignar IPs en Asia, un mercado que está en auge y no tardará en
consumirlas todas. IPv4 posibilita 4,294,967,296 (232) direcciones de red diferentes, un número
inadecuado para dar una dirección a cada persona del planeta, y mucho menos a cada vehículo,
teléfono, PDA, etcétera. En cambio, IPv6 admite
340.282.366.920.938.463.463.374.607.431.768.211.456 (2128 o 340 sextillones de direcciones)
—cerca de 6,7 × 1017 (670 milbillones) de direcciones por cada milímetro cuadrado de la
superficie de La Tierra. Otra vía para la popularización del protocolo es la adopción de este por
parte de instituciones. El Gobierno de los Estados Unidos ordenó el despliegue de IPv6 por todas
sus agencias federales en el año 2008.[cita  requerida]

Efectos de internet en el cerebro


En 2008 el tecnólogo americano Nicholas Carr publicó un artículo en el que afirmaba que
Internet estaba erosionando nuestra capacidad de concentración y de pensamiento crítico, e
incluso aseguraba que la Red cambiaría la estructura de nuestro cerebro y forma de pensar.
Expertos de diversos ámbitos comenzaron a realizar estudios y a reflexionar sobre la relación
entre la Red y nuestras capacidades cognitivas. Algunos coincidían con Carr, pero otros como
Clive Thompson descartaban esos argumentos asegurando que siempre que surgía una nueva
tecnología se producía el mismo debate. Estos «tecnooptimistas» afirman que la Red no solo
potencia nuestra agilidad cerebral, sino que además nos permite aprender más y más rápido, en
definitiva, nos está haciendo más inteligentes.Universo internet: ¿Más superficiales o más listos?

Fuente de información
En 2009, un estudio realizado en Estados Unidos indicó que un 56 % de los 3.030 adultos
estadounidenses entrevistados en una encuesta en línea manifestó que si tuviera que escoger una
sola fuente de información, elegiría Internet, mientras que un 21 % preferiría la televisión y tanto
los periódicos como la radio sería la opción de un 10 % de los encuestados. Dicho estudio
posiciona a los medios digitales en una posición privilegiada en cuanto a la búsqueda de
información y refleja un aumento de la credibilidad en dichos medios.37 38

Buscadores
Un buscador se define como el sistema informático que indexa archivos almacenados en
servidores web cuando se solicita información sobre algún tema. Por medio de palabras clave, se
realiza la exploración y el buscador muestra una lista de direcciones con los temas relacionados.
Existen diferentes formas de clasificar los buscadores según el proceso de sondeo que realizan.
La clasificación más frecuente los divide en: índices o directorios temáticos, motores de
búsqueda y metabuscadores.
Índices o directorios temáticos
Los índices o buscadores temáticos son sistemas creados con la finalidad de diseñar un catálogo
por temas, definiendo la clasificación por lo que se puede considerar que los contenidos ofrecidos
en estas páginas tienes ya cierto orden y calidad.
La función de este tipo de sistemas es presentar algunos de los datos de las páginas más
importantes, desde el punto de vista del tema y no de lo que se contiene. Los resultados de la
búsqueda de esta de estos índices pueden ser muy limitados ya que los directorios temáticos, las
bases de datos de direcciones son muy pequeñas, además de que puede ser posible que el
contenido de las páginas no esté completamente al día.

Motores de búsqueda
Artículo principal: Motor de búsqueda

Este tipo de buscadores son los de uso más común, basados en aplicaciones llamadas spiders
("arañas") o robots, que buscan la información con base en las palabras escritas, haciendo una
recopilación sobre el contenido de las páginas y mostrando como resultado aquéllas que
contengan la palabra o frase en alguna parte del texto.

Metabuscadores
Los metabuscadores son sistemas que localizan información en los motores de búsqueda más
utilizados, realizan un análisis y seleccionan sus propios resultados. No tienen una base de datos,
por lo que no almacenan páginas web y realizan una búsqueda automática en las bases de datos
de otros buscadores, de los cuales toma un determinado rango de registros con los resultados más
relevantes y así poder tener la información necesaria.
La función de este tipo de sistemas es presentar algunos de los datos de las páginas más
importantes, desde el punto de vista del tema y no de lo que se contiene. Los resultados de la
búsqueda de esta de estos índices pueden ser muy limitados ya que los directorios temáticos, las
bases de datos de direcciones son muy pequeñas, además de que puede ser posible que el
contenido de las páginas no esté completamente al día.

Trabajo
Con la aparición de Internet y de las conexiones de alta velocidad disponibles al público, Internet
ha alterado de manera significativa la manera de trabajar de algunas personas al poder hacerlo
desde sus respectivos hogares. Internet ha permitido a estas personas mayor flexibilidad en
términos de horarios y de localización, contrariamente a la jornada laboral tradicional, que suele
ocupar la mañana y parte de la tarde, en la cual los empleados se desplazan al lugar de trabajo.
Un experto contable asentado en un país puede revisar los libros de una compañía en otro país, en
un servidor situado en un tercer país que sea mantenido remotamente por los especialistas en un
cuarto.
Internet y sobre todo los blogs han dado a los trabajadores un foro en el cual expresar sus
opiniones sobre sus empleos, jefes y compañeros, creando una cantidad masiva de información y
de datos sobre el trabajo que está siendo recogido actualmente por el colegio de abogados de
Harvard.
Internet ha impulsado el fenómeno de la Globalización y junto con la llamada desmaterialización
de la economía ha dado lugar al nacimiento de una Nueva Economía caracterizada por la
utilización de la red en todos los procesos de incremento de valor de la empresa.

Publicidad
Artículo principal: Publicidad en Internet

Internet se ha convertido en el medio más fácilmente medible y de más alto crecimiento en la


historia. Actualmente existen muchas empresas que obtienen dinero de la publicidad en Internet.
Además, existen muchas ventajas que la publicidad interactiva ofrece tanto para el usuario como
para los anunciantes.

Censura
Es extremadamente difícil, si no imposible, establecer control centralizado y global de Internet.
Algunos gobiernos, de naciones tales como Irán, Arabia Saudita, Corea del Norte, la República
Popular de China y Estados Unidos restringen el que personas de sus países puedan ver ciertos
contenidos de Internet, políticos y religiosos, considerados contrarios a sus criterios. La censura
se hace, a veces, mediante filtros controlados por el gobierno, apoyados en leyes o motivos
culturales, castigando la propagación de estos contenidos. Sin embargo, muchos usuarios de
Internet pueden burlar estos filtros, pues la mayoría del contenido de Internet está disponible en
todo el mundo, sin importar donde se esté, siempre y cuando se tengan la habilidad y los medios
técnicos necesarios.39
Otra posibilidad, como en el caso de China, es que este tipo de medidas se combine con la
autocensura de las propias empresas proveedoras de servicios de Internet, serían las empresas
equivalentes a Telefónicas (proveedores de servicios de Internet), para así ajustarse a las
demandas del gobierno del país receptor.40
Sin embargo algunos buscadores como Google, han tomado la decisión de amenazar al gobierno
de China con la retirada de sus servicios en dicho país si no se abole la censura en Internet.
Aunque posteriormente haya negado que tomará dichas medidas.41
Para saltarse cualquier tipo de censura o coerción en el uso de internet, se han desarrollado
múltiples tecnologías y herrramientas. Entre ellas cabe resaltar por un lado las técnicas y
herramientas criptológicas y por otro lado las tecnologías encuadradas en la llamada Darknet. La
Darknet es una colección de redes y tecnologías que persiguen la consecución de un anonimato
total de los comunicantes, creando de esta forma una zona de total libertad. Aunque actualmente
no se suele considerar que consigan un anonimato total, sin embargo, sí consiguen una mejora
sustancial en la privacidad de los usuarios. Este tipo de redes se han usado intensamente, por
ejemplo, en los sucesos de la Primavera Árabe y en todo el entramado de wikileaks para la
publicación de información confidencial. Las tecnologías de la Darknet están en fase de
perfeccionamiento y mejora de sus prestaciones.42
Para luchar contra la censura en Internet, RSF ha decidido desbloquear nueve sitios web
informativos censurados en once países, es decir, permitirá que se pueda acceder a ellos desde el
territorio en el que actualmente se encuentran prohibidos: Grani.ru, bloqueado en Rusia;
Fregananews, censurado en Kazajistán, Uzbekistán y Turkmenistán; The Tibet Post y Mingjing
News, prohibidos en China; Dan Lam Bao, bloqueado en Vietnam; Hablemos Press, censurado
en Cuba; Gooya News, bloqueado en Irán; el Gulf Center for Human Rights, censurado en los
Emiratos Árabes Unidos y en Arabia Saudita, y Bahrain Mirror, prohibido en Bahréin y en
Arabia Saudita.
Leer más: http://www.rsf-es.org/grandes-citas/dia-contra-censura-en-internet/

Internet en obras de ficción


Artículo principal: Internet en la ciencia ficción

Internet aparece muchas veces en obras de ficción. Puede ser un elemento más de la trama, algo
que se usa de forma habitual tal y como se hace en la vida real.
También hay obras donde Internet se presenta como un medio maligno que permite a hackers
sembrar el caos, alterar registros, como por ejemplo, las películas La Red, Live Free or Die Hard,
etc. Hay otras obras donde aparece como una gran oportunidad para la libertad de expresión (por
ejemplo, la película FAQ: Frequently Asked Questions).

Tamaño
Un estudio del año 2005 usando distintos motores de búsqueda (Google, MSN, Yahoo! y Ask
Jeeves) estimaba que existían 11 500 millones de páginas Web.43 Otro estudio del año 2008
estimaba que la cantidad había ascendido a 63 000 millones de páginas web.44
Sin embargo es difícil establecer el tamaño exacto de Internet, ya que este crece continuamente y
no existe una manera fiable de acceder a todo su contenido y, por consiguiente, de determinar su
tamaño. Para estimar esta cantidad se usan las webs indexadas por los distintos motores de
búsqueda, pero este método no abarca todas las páginas en línea. Utilizando este criterio Internet
se puede dividir en:
 Internet superficial: Incluye los servicios indexados por los motores de búsqueda.

 Internet profunda: Incluye el resto de servicios no indexados como páginas en Flash, páginas
protegidas por contraseña, inaccesibles para las arañas, etc. Se estima que el tamaño de la
Internet profunda es varios órdenes de magnitud mayor que el de Internet superficial.
Usuarios

Gráfica que representa el número de usuarios de Internet. 45 46

Idiomas usados en internet.1

En general el uso de Internet ha experimentado un tremendo crecimiento. De 2000 a 2009, el


número de usuarios de Internet a nivel mundial aumentó 394 millones a 1858 millones. En 2010,
el 22 por ciento de la población mundial tenía acceso a las computadoras con mil millones de
búsquedas en Google cada día, 300 millones de usuarios de Internet leen blogs, y 2 mil millones
de vídeos vistos al día en YouTube.47 48
El idioma predominante de la comunicación en internet ha sido inglés. Este puede ser el resultado
del origen de la internet, así como el papel de la lengua como lengua franca. Los primeros
sistemas informáticos se limitaban a los personajes en el Código Estándar Americano para
Intercambio de Información (ASCII), un subconjunto del alfabeto latino.49
Después de inglés (27 %), los idiomas más solicitados en la World Wide Web son el chino
(23 %), español (8 %), japonés (5 %), portugués y alemán (4 % cada uno), árabe, francés y ruso
(3 % cada uno) y coreano (2 %). Por regiones, el 42 % de los usuarios de Internet en el mundo
están en Asia, 24 % en Europa, el 14 % en América del Norte, el 10 % en Latinoamérica y el
Caribe, adoptado en conjunto, un 6 % en África, 3 % en el Oriente Medio y un 1 % en Oceanía.
Las tecnologías del internet se han desarrollado lo suficiente en los últimos años, especialmente
en el uso de Unicode, que con buenas instalaciones están disponibles para el desarrollo y la
comunicación en los idiomas más utilizados del mundo. Sin embargo, algunos problemas, tales
como la visualización incorrecta de caracteres de algunos idiomas, aún permanecen.50
En un estudio norteamericano en el año 2005, el porcentaje de varones que utilizan internet
estaba muy ligeramente por encima del porcentaje de las mujeres, aunque esta diferencia estaba
invertida en los menores de 30 años. Los hombres se conectaron más a menudo, pasan más
tiempo en línea, y eran más propensos a ser usuarios de banda ancha, mientras que las mujeres
tienden a hacer mayor uso de las oportunidades de comunicación, como el correo electrónico.
Los hombres eran más propensos a utilizar el internet para pagar sus cuentas, participar en las
subastas, y para la recreación, tales como la descarga de música y vídeos. Ambos sexos tenían las
mismas probabilidades de utilizar internet para hacer compras y la banca. Los estudios más
recientes indican que en 2008, las mujeres superaban en número a los hombres de manera
significativa en la mayoría de los sitios de redes sociales, como Facebook y Myspace, aunque las
relaciones variaban con la edad. Además, las mujeres vieron más contenido de streaming,
mientras que los hombres descargaron más. En cuanto a los blogs, los varones eran más
propensos a tener uno profesional, mientras que las mujere

La seguridad informática o seguridad de tecnologías de la información es el área de la


informática que se enfoca en la protección de la infraestructura computacional y todo lo
relacionado con esta y, especialmente, la información contenida o circulante. Para ello existen
una serie de estándares, protocolos, métodos, reglas, herramientas y leyes concebidas para
minimizar los posibles riesgos a la infraestructura o a la información. La seguridad informática
comprende software (bases de datos, metadatos, archivos), hardware y todo lo que la
organización valore y signifique un riesgo si esta información confidencial llega a manos de otras
personas, convirtiéndose, por ejemplo, en información privilegiada.
La definición de seguridad de la información no debe ser confundida con la de «seguridad
informática», ya que esta última sólo se encarga de la seguridad en el medio informático, pero la
información puede encontrarse en diferentes medios o formas, y no solo en medios informáticos.
La seguridad informática es la disciplina que se ocupa de diseñar las normas, procedimientos,
métodos y técnicas destinados a conseguir un sistema de información seguro y confiable.
Puesto simple, la seguridad en un ambiente de red es la habilidad de identificar y eliminar
vulnerabilidades. Una definición general de seguridad debe también poner atención a la
necesidad de salvaguardar la ventaja organizacional, incluyendo información y equipos físicos,
tales como los mismos computadores. Nadie a cargo de seguridad debe determinar quien y
cuando se puede tomar acciones apropiadas sobre un ítem en específico. Cuando se trata de la
seguridad de una compañía, lo que es apropiado varía de organización a organización.
Independientemente, cualquier compañía con una red debe de tener una política de seguridad que
se dirija a conveniencia y coordinación.

Índice
 1 Objetivos

 2 Amenazas

o 2.1 Ingeniería Social

o 2.2 Tipos de amenaza

o 2.3 Amenaza informática del futuro

 3 Análisis de riesgos

o 3.1 Elementos de un análisis de riesgo

 4 Análisis de impacto al negocio

 5 Puesta en marcha de una política de seguridad

 6 Técnicas para asegurar el sistema

o 6.1 Respaldo de información

o 6.2 Protección contra virus

 6.2.1 Control del software instalado

 6.2.2 Control de la red

o 6.3 Protección física de acceso a las redes


 6.3.1 Redes cableadas

 6.3.2 Redes inalámbricas

o 6.4 Sanitización

 7 Algunas afirmaciones erróneas comunes acerca de la seguridad

 8 Organismos oficiales de seguridad informática

o 8.1 España

o 8.2 Unión Europea

o 8.3 Alemania

o 8.4 Estados Unidos

 9 Véase también

 10 Notas y referencias

 11 Enlaces externos

Objetivos
La seguridad informática debe establecer normas que minimicen los riesgos a la información o
infraestructura informática. Estas normas incluyen horarios de funcionamiento, restricciones a
ciertos lugares, autorizaciones, denegaciones, perfiles de usuario, planes de emergencia,
protocolos y todo lo necesario que permita un buen nivel de seguridad informática minimizando
el impacto en el desempeño de los trabajadores y de la organización en general y como principal
contribuyente al uso de programas realizados por programadores.
La seguridad informática está concebida para proteger los activos informáticos, entre los que se
encuentran los siguientes:
 La infraestructura computacional: Es una parte fundamental para el almacenamiento y gestión
de la información, así como para el funcionamiento mismo de la organización. La función de la
seguridad informática en esta área es velar que los equipos funcionen adecuadamente y
anticiparse en caso de fallas, robos, incendios, boicot, desastres naturales, fallas en el suministro
eléctrico y cualquier otro factor que atente contra la infraestructura informática.

 Los usuarios: Son las personas que utilizan la estructura tecnológica, zona de comunicaciones y
que gestionan la información. Debe protegerse el sistema en general para que el uso por parte
de ellos no pueda poner en entredicho la seguridad de la información y tampoco que la
información que manejan o almacenan sea vulnerable.

 La información: Ésta es el principal activo. Utiliza y reside en la infraestructura computacional y


es utilizada por los usuarios.
Amenazas
No sólo las amenazas que surgen de la programación y el funcionamiento de un dispositivo de
almacenamiento, transmisión o proceso deben ser consideradas, también hay otras circunstancias
que deben ser tomadas en cuenta e incluso «no informáticas». Muchas son a menudo
imprevisibles o inevitables, de modo que las únicas protecciones posibles son las redundancias y
la descentralización, por ejemplo mediante determinadas estructuras de redes en el caso de las
comunicaciones o servidores en clúster para la disponibilidad.
Las amenazas pueden ser causadas por:
 Usuarios: causa del mayor problema ligado a la seguridad de un sistema informático. En algunos
casos sus acciones causan problemas de seguridad, si bien en la mayoría de los casos es porque
tienen permisos sobre dimensionados, no se les han restringido acciones innecesarias, etc.

 Programas maliciosos: programas destinados a perjudicar o a hacer un uso ilícito de los recursos
del sistema. Es instalado (por inatención o maldad) en el ordenador, abriendo una puerta a
intrusos o bien modificando los datos. Estos programas pueden ser un virus informático, un
gusano informático, un troyano, una bomba lógica, un programa espía o spyware, en general
conocidos como malware.

 Errores de programación: La mayoría de los errores de programación que se pueden considerar


como una amenaza informática es por su condición de poder ser usados como exploits por los
crackers, aunque se dan casos donde el mal desarrollo es, en sí mismo, una amenaza. La
actualización de parches de los sistemas operativos y aplicaciones permite evitar este tipo de
amenazas.

 Intrusos: personas que consiguen acceder a los datos o programas a los cuales no están
autorizados (crackers, defacers, hackers, script kiddie o script boy, viruxers, etc.).

 Un siniestro (robo, incendio, inundación): una mala manipulación o una mala intención derivan
a la pérdida del material o de los archivos.

 Personal técnico interno: técnicos de sistemas, administradores de bases de datos, técnicos de


desarrollo, etc. Los motivos que se encuentran entre los habituales son: disputas internas,
problemas laborales, despidos, fines lucrativos, espionaje, etc.

 Fallos electrónicos o lógicos de los sistemas informáticos en general.

 Catástrofes naturales: rayos, terremotos, inundaciones, rayos cósmicos, etc.

Ingeniería Social
Existen diferentes tipos de ataques en Internet como virus, troyanos u otros, dichos ataques
pueden ser contrarrestados o eliminados pero hay un tipo de ataque, que no afecta directamente a
los ordenadores, sino a sus usuarios, conocidos como “el eslabón más débil”. Dicho ataque es
capaz de almacenar conseguir resultados similares a un ataque a través de la red, saltándose toda
la infraestructura creada para combatir programas maliciosos. Además, es un ataque más
eficiente, debido a que es más complejo de calcular y prever. Se pueden utilizar infinidad de
influencias psicológicas para lograr que los ataques a un servidor sean lo más sencillo posible, ya
que el usuario estaría inconscientemente dando autorización para que dicha inducción se vea
finiquitada hasta el punto de accesos de administrador.1

Tipos de amenaza
Existen infinidad de modos de clasificar un ataque y cada ataque puede recibir más de una
clasificación. Por ejemplo, un caso de phishing puede llegar a robar la contraseña de un usuario
de una red social y con ella realizar una suplantación de la identidad para un posterior acoso, o el
robo de la contraseña puede usarse simplemente para cambiar la foto del perfil y dejarlo todo en
una broma (sin que deje de ser delito en ambos casos, al menos en países con legislación para el
caso, como lo es España).
Amenazas por el origen

El hecho de conectar una red a un entorno externo nos da la posibilidad de que algún atacante
pueda entrar en ella,y con esto, se puede hacer robo de información o alterar el funcionamiento
de la red. Sin embargo el hecho de que la red no esté conectada a un entorno externo, como
Internet, no nos garantiza la seguridad de la misma. De acuerdo con el Computer Security
Institute (CSI) de San Francisco aproximadamente entre el 60 y 80 por ciento de los incidentes de
red son causados desde dentro de la misma. Basado en el origen del ataque podemos decir que
existen dos tipos de amenazas:
 Amenazas internas: Generalmente estas amenazas pueden ser más serias que las externas por
varias razones como son:

 Si es por usuarios o personal técnico, conocen la red y saben cómo es su


funcionamiento, ubicación de la información, datos de interés, etc. Además tienen algún
nivel de acceso a la red por las mismas necesidades de su trabajo, lo que les permite
unos mínimos de movimientos.

 Los sistemas de prevención de intrusos o IPS, y firewalls son mecanismos no efectivos en


amenazas internas por, habitualmente, no estar orientados al tráfico interno. Que el
ataque sea interno no tiene que ser exclusivamente por personas ajenas a la red, podría
ser por vulnerabilidades que permiten acceder a la red directamente: rosetas accesibles,
redes inalámbricas desprotegidas, equipos sin vigilancia, etc.

 Amenazas externas: Son aquellas amenazas que se originan fuera de la red. Al no tener
información certera de la red, un atacante tiene que realizar ciertos pasos para poder conocer
qué es lo que hay en ella y buscar la manera de atacarla. La ventaja que se tiene en este caso es
que el administrador de la red puede prevenir una buena parte de los ataques externos.
Amenazas por el efecto
El tipo de amenazas por el efecto que causan a quien recibe los ataques podría clasificarse en:
 Robo de información.

 Destrucción de información.

 Anulación del funcionamiento de los sistemas o efectos que tiendan a ello.

 Suplantación de la identidad, publicidad de datos personales o confidenciales, cambio de


información, venta de datos personales, etc.
 Robo de dinero, estafas,...
Amenazas por el medio utilizado
Se pueden clasificar por el modus operandi del atacante, si bien el efecto puede ser distinto para
un mismo tipo de ataque:
 Virus informático: malware que tiene por objeto alterar el normal funcionamiento de la
computadora, sin el permiso o el conocimiento del usuario. Los virus, habitualmente,
reemplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden
destruir, de manera intencionada, los datos almacenados en un computadora, aunque también
existen otros más inofensivos, que solo se caracterizan por ser molestos.

 Phishing.

 Ingeniería social.

 Denegación de servicio.

 Spoofing: de DNS, de IP, de DHCP, etc.

Amenaza informática del futuro


Si en un momento el objetivo de los ataques fue cambiar las plataformas tecnológicas ahora las
tendencias cibercriminales indican que la nueva modalidad es manipular los certificados que
contienen la información digital. El área semántica, era reservada para los humanos, se convirtió
ahora en el núcleo de los ataques debido a la evolución de la Web 2.0 y las redes sociales,
factores que llevaron al nacimiento de la generación 3.0.
 Se puede afirmar que “la Web 3.0 otorga contenidos y significados de manera tal que pueden
ser comprendidos por las computadoras, las cuales -por medio de técnicas de inteligencia
artificial- son capaces de emular y mejorar la obtención de conocimiento, hasta el momento
reservada a las personas”.

 Es decir, se trata de dotar de significado a las páginas Web, y de ahí el nombre de Web
semántica o Sociedad del Conocimiento, como evolución de la ya pasada Sociedad de la
Información

En este sentido, las amenazas informáticas que viene en el futuro ya no son con la inclusión de
troyanos en los sistemas o softwares espías, sino con el hecho de que los ataques se han
profesionalizado y manipulan el significado del contenido virtual.
 “La Web 3.0, basada en conceptos como elaborar, compartir y significar, está representando un
desafío para los hackers que ya no utilizan las plataformas convencionales de ataque, sino que
optan por modificar los significados del contenido digital, provocando así la confusión lógica del
usuario y permitiendo de este modo la intrusión en los sistemas”, La amenaza ya no solicita la
clave de homebanking del desprevenido usuario, sino que directamente modifica el balance de
la cuenta, asustando al internauta y, a partir de allí, sí efectuar el robo del capital”.

 Obtención de perfiles de los usuarios por medios, en un principio, lícitos: seguimiento de las
búsquedas realizadas, históricos de navegación, seguimiento con geoposicionamiento de los
móviles, análisis de las imágenes digitales subidas a Internet, etc.
Para no ser presa de esta nueva ola de ataques más sutiles, se recomienda:
 Mantener las soluciones activadas y actualizadas.

 Evitar realizar operaciones comerciales en computadoras de uso público o en redes abiertas.

 Verificar los archivos adjuntos de mensajes sospechosos y evitar su descarga en caso de duda.

 DMS en el Data Center

Análisis de riesgos
Artículo principal: Análisis de riesgo informático

El análisis de riesgos informáticos es un proceso que comprende la identificación de activos


informáticos, sus vulnerabilidades y amenazas a los que se encuentran expuestos así como su
probabilidad de ocurrencia y el impacto de las mismas, a fin de determinar los controles
adecuados para aceptar, disminuir, transferir o evitar la ocurrencia del riesgo.
Teniendo en cuenta que la explotación de un riesgo causaría daños o pérdidas financieras o
administrativas a una empresa u organización, se tiene la necesidad de poder estimar la magnitud
del impacto del riesgo a que se encuentra expuesta mediante la aplicación de controles. Dichos
controles, para que sean efectivos, deben ser implementados en conjunto formando una
arquitectura de seguridad con la finalidad de preservar las propiedades de confidencialidad,
integridad y disponibilidad de los recursos objetos de riesgo.

Elementos de un análisis de riesgo


El proceso de análisis de riesgo genera habitualmente un documento al cual se le conoce como
matriz de riesgo. En este documento se muestran los elementos identificados, la manera en que se
relacionan y los cálculos realizados. Este análisis de riesgo es indispensable para lograr una
correcta administración del riesgo. La administración del riesgo hace referencia a la gestión de
los recursos de la organización. Existen diferentes tipos de riesgos como el riesgo residual y
riesgo total así como también el tratamiento del riesgo, evaluación del riesgo y gestión del riesgo
entre otras. La fórmula para determinar el riesgo total es:
RT (Riesgo Total) = Probabilidad x Impacto Promedio

A partir de esta fórmula determinaremos su tratamiento y después de aplicar los controles


podremos obtener el riesgo residual.

Análisis de impacto al negocio


Véase también: Economía de seguridad informática

El reto es asignar estratégicamente los recursos para cada equipo de seguridad y bienes que
intervengan, basándose en el impacto potencial para el negocio, respecto a los diversos incidentes
que se deben resolver.
Para determinar el establecimiento de prioridades, el sistema de gestión de incidentes necesita
saber el valor de los sistemas de información que pueden ser potencialmente afectados por
incidentes de seguridad. Esto puede implicar que alguien dentro de la organización asigne un
valor monetario a cada equipo y un archivo en la red o asignar un valor relativo a cada sistema y
la información sobre ella. Dentro de los valores para el sistema se pueden distinguir:
confidencialidad de la información, la integridad (aplicaciones e información) y finalmente la
disponibilidad del sistema. Cada uno de estos valores es un sistema independiente del negocio,
supongamos el siguiente ejemplo, un servidor web público pueden poseer la característica de
confidencialidad baja (ya que toda la información es pública) pero necesita alta disponibilidad e
integridad, para poder ser confiable. En contraste, un sistema de planificación de recursos
empresariales (ERP) es, habitualmente, un sistema que posee alto puntaje en las tres variables.
Los incidentes individuales pueden variar ampliamente en términos de alcance e importancia.

Puesta en marcha de una política de seguridad


Véanse también: Plan de contingencias y Plan de continuidad del negocio.

Actualmente las legislaciones nacionales de los Estados, obligan a las empresas, instituciones
públicas a implantar una política de seguridad. Por ejemplo, en España, la Ley Orgánica de
Protección de Datos de carácter personal o también llamada LOPD y su normativa de desarrollo,
protege ese tipo de datos estipulando medidas básicas y necesidades que impidan la pérdida de
calidad de la información o su robo. También en ese país, el Esquema Nacional de Seguridad
establece medidas tecnológicas para permitir que los sistemas informáticos que prestan servicios
a los ciudadanos cumplan con unos requerimientos de seguridad acordes al tipo de disponibilidad
de los servicios que se prestan.
Generalmente se ocupa exclusivamente a asegurar los derechos de acceso a los datos y recursos
con las herramientas de control y mecanismos de identificación. Estos mecanismos permiten
saber que los operadores tienen sólo los permisos que se les dio.
La seguridad informática debe ser estudiada para que no impida el trabajo de los operadores en lo
que les es necesario y que puedan utilizar el sistema informático con toda confianza. Por eso en
lo referente a elaborar una política de seguridad, conviene:
 Elaborar reglas y procedimientos para cada servicio de la organización.

 Definir las acciones a emprender y elegir las personas a contactar en caso de detectar una
posible intrusión

 Sensibilizar a los operadores con los problemas ligados con la seguridad de los sistemas
informáticos.

Los derechos de acceso de los operadores deben ser definidos por los responsables jerárquicos y
no por los administradores informáticos, los cuales tienen que conseguir que los recursos y
derechos de acceso sean coherentes con la política de seguridad definida. Además, como el
administrador suele ser el único en conocer perfectamente el sistema, tiene que derivar a la
directiva cualquier problema e información relevante sobre la seguridad, y eventualmente
aconsejar estrategias a poner en marcha, así como ser el punto de entrada de la comunicación a
los trabajadores sobre problemas y recomendaciones en término de seguridad informática.
Técnicas para asegurar el sistema

Dos firewalls permiten crear una Zona_desmilitarizada_(informática) donde alojar los principales
servidores que dan servicio a la empresa y la relacionan con Internet. Por ejemplo, los servidores web,
los servidores de correo electrónico,... El router es el elemento expuesto directamente a Internet y, por
tanto, el más vulnerable.

El activo más importante que se posee es la información y, por lo tanto, deben existir técnicas
que la aseguren, más allá de la seguridad física que se establezca sobre los equipos en los cuales
se almacena. Estas técnicas las brinda la seguridad lógica que consiste en la aplicación de
barreras y procedimientos que resguardan el acceso a los datos y solo permiten acceder a ellos a
las personas autorizadas para hacerlo.
Cada tipo de ataque y cada sistema requiere de un medio de protección o más (en la mayoría de
los casos es una combinación de varios de ellos)
A continuación se enumeran una serie de medidas que se consideran básicas para asegurar un
sistema tipo, si bien para necesidades específicas se requieren medidas extraordinarias y de
mayor profundidad:
 Utilizar técnicas de desarrollo que cumplan con los criterios de seguridad al uso para todo el
software que se implante en los sistemas, partiendo de estándares y de personal
suficientemente formado y concienciado con la seguridad.

 Implantar medidas de seguridad físicas: sistemas anti incendios, vigilancia de los centros de
proceso de datos, sistemas de protección contra inundaciones, protecciones eléctricas contra
apagones y sobretensiones, sistemas de control de accesos, etc.

 Codificar la información: criptología, criptografía y criptociencia. Esto se debe realizar en todos


aquellos trayectos por los que circule la información que se quiere proteger, no solo en aquellos
más vulnerables. Por ejemplo, si los datos de una base muy confidencial se han protegido con
dos niveles de firewall, se ha cifrado todo el trayecto entre los clientes y los servidores y entre
los propios servidores, se utilizan certificados y sin embargo se dejan sin cifrar las impresiones
enviadas a la impresora de red, tendríamos un punto de vulnerabilidad.

 Contraseñas difíciles de averiguar que, por ejemplo, no puedan ser deducidas a partir de los
datos personales del individuo o por comparación con un diccionario, y que se cambien con la
suficiente periodicidad. Las contraseñas, además, deben tener la suficiente complejidad como
para que un atacante no pueda deducirla por medio de programas informáticos. El uso de
certificados digitales mejora la seguridad frente al simple uso de contraseñas.
 Vigilancia de red. Las redes transportan toda la información, por lo que además de ser el medio
habitual de acceso de los atacantes, también son un buen lugar para obtener la información sin
tener que acceder a las fuentes de la misma. Por la red no solo circula la información de ficheros
informáticos como tal, también se transportan por ella: correo electrónico, conversaciones
telefónica (VoIP), mensajería instantánea, navegación Internet, lecturas y escrituras a bases de
datos, etc. Por todo ello, proteger la red es una de las principales tareas para evitar robo de
información. Existen medidas que abarcan desde la seguridad física de los puntos de entrada
hasta el control de equipos conectados, por ejemplo 802.1x. En el caso de redes inalámbricas la
posibilidad de vulnerar la seguridad es mayor y deben adoptarse medidas adicionales.

 Redes perimetrales de seguridad, o DMZ, permiten generar reglas de acceso fuertes entre los
usuarios y servidores no públicos y los equipos publicados. De esta forma, las reglas más débiles
solo permiten el acceso a ciertos equipos y nunca a los datos, que quedarán tras dos niveles de
seguridad.

 Tecnologías repelentes o protectoras: cortafuegos, sistema de detección de intrusos -


antispyware, antivirus, llaves para protección de software, etc.

 Mantener los sistemas de información con las actualizaciones que más impacten en la seguridad.

 Copias de seguridad e, incluso, sistemas de respaldo remoto que permiten mantener la


información en dos ubicaciones de forma asíncrona.

 Controlar el acceso a la información por medio de permisos centralizados y mantenidos (tipo


Active Directory, LDAP, listas de control de acceso, etc.). Los medios para conseguirlo son:

 Restringir el acceso (de personas de la organización y de las que no lo son) a los programas y
archivos.

 Asegurar que los operadores puedan trabajar pero que no puedan modificar los
programas ni los archivos que no correspondan (sin una supervisión minuciosa).

 Asegurar que se utilicen los datos, archivos y programas correctos en/y/por el


procedimiento elegido.

 Asegurar que la información transmitida sea la misma que reciba el destinatario al cual
se ha enviado y que no le llegue a otro y que existan sistemas y pasos de emergencia
alternativos de transmisión entre diferentes puntos.

 Organizar a cada uno de los empleados por jerarquía informática, con claves distintas y
permisos bien establecidos, en todos y cada uno de los sistemas o aplicaciones
empleadas.

 Actualizar constantemente las contraseñas de accesos a los sistemas de cómputo, como


se ha indicado más arriba, e incluso utilizando programa que ayuden a los usuarios a la
gestión de la gran cantidad de contraseñas que tienen gestionar en los entornos
actuales, conocidos habitualmente como gestores de identidad.

 Redundancia y descentralización.

Respaldo de información
Artículo principal: Copia de seguridad
La información constituye el activo más importante de las empresas, pudiendo verse afectada por
muchos factores tales como robos, incendios, fallas de disco, virus u otros. Desde el punto de
vista de la empresa, uno de los problemas más importantes que debe resolver es la protección
permanente de su información crítica.
La medida más eficiente para la protección de los datos es determinar una buena política de
copias de seguridad o backups. Este debe incluir copias de seguridad completa (los datos son
almacenados en su totalidad la primera vez) y copias de seguridad incrementales (solo se copian
los ficheros creados o modificados desde el último backup). Es vital para las empresas elaborar
un plan de backup en función del volumen de información generada y la cantidad de equipos
críticos.
Un buen sistema de respaldo debe contar con ciertas características indispensables:
 Continuo
El respaldo de datos debe ser completamente automático y continuo. Debe funcionar de forma
transparente, sin intervenir en las tareas que se encuentra realizando el usuario.
 Seguro
Muchos softwares de respaldo incluyen cifrado de datos, lo cual debe ser hecho localmente en
el equipo antes del envío de la información.
 Remoto
Los datos deben quedar alojados en dependencias alejadas de la empresa.
 Mantenimiento de versiones anteriores de los datos
Se debe contar con un sistema que permita la recuperación de, por ejemplo, versiones diarias,
semanales y mensuales de los datos.
Hoy en día los sistemas de respaldo de información online, servicio de backup remoto, están
ganando terreno en las empresas y organismos gubernamentales. La mayoría de los sistemas
modernos de respaldo de información online cuentan con las máximas medidas de seguridad y
disponibilidad de datos. Estos sistemas permiten a las empresas crecer en volumen de
información derivando la necesidad del crecimiento de la copia de respaldo a proveedor del
servicio.

Protección contra virus


Los virus son uno de los medios más tradicionales de ataque a los sistemas y a la información
que sostienen. Para poder evitar su contagio se deben vigilar los equipos y los medios de acceso a
ellos, principalmente la red.

Control del software instalado


Tener instalado en la máquina únicamente el software necesario reduce riesgos. Así mismo tener
controlado el software asegura la calidad de la procedencia del mismo (el software obtenido de
forma ilegal o sin garantías aumenta los riesgos). En todo caso un inventario de software
proporciona un método correcto de asegurar la reinstalación en caso de desastre. El software con
métodos de instalación rápidos facilita también la reinstalación en caso de contingencia.
Control de la red
Los puntos de entrada en la red son generalmente el correo, las páginas web y la entrada de
ficheros desde discos, o de ordenadores ajenos, como portátiles.
Mantener al máximo el número de recursos de red solo en modo lectura, impide que ordenadores
infectados propaguen virus. En el mismo sentido se pueden reducir los permisos de los usuarios
al mínimo.
Se pueden centralizar los datos de forma que detectores de virus en modo batch puedan trabajar
durante el tiempo inactivo de las máquinas.
Controlar y monitorizar el acceso a Internet puede detectar, en fases de recuperación, cómo se ha
introducido el virus.

Protección física de acceso a las redes


Independientemente de las medidas que se adopten para proteger los equipos de una red de área
local y el software que reside en ellos, se deben tomar medidas que impidan que usuarios no
autorizados puedan acceder. Las medidas habituales dependen del medio físico a proteger.
A continuación se enumeran algunos de los métodos, sin entrar al tema de la protección de la red
frente a ataques o intentos de intrusión desde redes externas, tales como Internet.

Redes cableadas
Las rosetas de conexión de los edificios deben estar protegidas y vigiladas. Una medida básica es
evitar tener puntos de red conectados a los switches. Aun así siempre puede ser sustituido un
equipo por otro no autorizado con lo que hacen falta medidas adicionales: norma de acceso
802.1x, listas de control de acceso por MAC addresses, servidores de DHCP por asignación
reservada, etc.

Redes inalámbricas
En este caso el control físico se hace más difícil, si bien se pueden tomar medidas de contención
de la emisión electromagnética para circunscribirla a aquellos lugares que consideremos
apropiados y seguros. Además se consideran medidas de calidad el uso del cifrado ( WPA, WPA
v.2, uso de certificados digitales, etc.), contraseñas compartidas y, también en este caso, los
filtros de direcciones MAC, son varias de las medidas habituales que cuando se aplican
conjuntamente aumentan la seguridad de forma considerable frente al uso de un único método.

Sanitización
Artículo principal: Sanitización

Proceso lógico y/o físico mediante el cual se elimina información considerada sensible o
confidencial de un medio ya sea físico o magnético, ya sea con el objeto de desclasificarlo,
reutilizar el medio o destruir el medio en el cual se encuentra.
Algunas afirmaciones erróneas comunes acerca de la seguridad
 «Mi sistema no es importante para un hacker»

Esta afirmación se basa en la idea de que no introducir contraseñas seguras en una empresa no
entraña riesgos pues « ¿quién va a querer obtener información mía?». Sin embargo, dado que los
métodos de contagio se realizan por medio de programas automáticos, desde unas máquinas a
otras, estos no distinguen buenos de malos, interesantes de no interesantes, etc. Por tanto abrir
sistemas y dejarlos sin claves es facilitar la vida a los virus y de posibles atacantes. Otra
consideración respecto a esta afirmación que la llevan a ser falsa es que muchos ataques no
tienen otro fin que el destruir por destruir sin evaluar la importancia.
 «Estoy protegido pues no abro archivos que no conozco»

Esto es falso, pues existen múltiples formas de contagio, además los programas realizan acciones
sin la supervisión del usuario poniendo en riesgo los sistemas, si bien la medida es en sí acertada
y recomendable.
 «Como tengo antivirus estoy protegido»

En general los programas antivirus no son capaces de detectar todas las posibles formas de
contagio existentes, ni las nuevas que pudieran aparecer conforme los ordenadores aumenten las
capacidades de comunicación, además los antivirus son vulnerables a desbordamientos de búfer
que hacen que la seguridad del sistema operativo se vea más afectada aún, aunque se considera
como una de las medidas preventivas indispensable.
 «Como dispongo de un cortafuegos (firewall) no me contagio»

Esto únicamente proporciona una limitada capacidad de respuesta. Las formas de infectarse en
una red son múltiples. Unas provienen directamente de accesos al sistema (de lo que protege un
firewall) y otras de conexiones que se realizan (de las que no me protege). Emplear usuarios con
altos privilegios para realizar conexiones puede entrañar riesgos, además los firewalls de
aplicación (los más usados) no brindan protección suficiente contra técnicas de suplantación de
identidad (spoofing). En todo caso, el uso de cortafuegos del equipo y de la red se consideran
altamente recomendables.
 «Tengo un servidor web cuyo sistema operativo es un Unix actualizado a la fecha y por tanto
seguro»

Puede que esté protegido contra ataques directamente hacia el núcleo, pero si alguna de las
aplicaciones web (PHP, Perl, Cpanel, etc.) está desactualizada, un ataque sobre algún script de
dicha aplicación puede permitir que el atacante abra una shell y por ende ejecutar comandos en el
unix. También hay que recordar que un sistema actualizado no está libre de vulnerabilidades sino
que no se tiene ninguna de las descubiertas hasta el momento.

Organismos oficiales de seguridad informática


Existen organismos oficiales encargados de asegurar servicios de prevención de riesgos y
asistencia a los tratamientos de incidencias, tales como el Computer Emergency Response Team
Coordination Center2 del Software Engineering Institute3 de la Carnegie Mellon University el
cual es un centro de alerta y reacción frente a los ataques informáticos, destinados a las empresas
o administradores, pero generalmente estas informaciones son accesibles a todo el mundo.

España
El Instituto Nacional de Ciberseguridad (INCIBE) es un organismo dependiente de Red.es y del
Ministerio de Industria, Energía y Turismo de España.

Unión Europea
La Comisión Europea ha decidido crear el Centro Europeo de Ciberdelincuencia el EC3 abrió
efectivamente el 1 de enero de 2013 y será el punto central de la lucha de la UE contra la
delincuencia cibernética , contribuyendo a una reacción más rápida a los delitos en línea. Se
prestará apoyo a los Estados miembros y las instituciones de la UE en la construcción de una
capacidad operacional y analítico para la investigación , así como la cooperación con los socios
internacionales .

Alemania
El 16 de junio de 2011, el ministro alemán del Interior, inauguró oficialmente el nuevo Centro
Nacional de Defensa Cibernética (NCAZ, o Nationales Cyber- Abwehrzentrum) que se encuentra
en Bonn. El NCAZ coopera estrechamente con la Oficina Federal para la Seguridad de la
Información (Bundesamt für Sicherheit in der Informationstechnik, o BSI); la Oficina Federal de
Investigación Criminal (Bundeskriminalamt, BKA); el Servicio Federal de Inteligencia
(Bundesnachrichtendienst, o BND); el Servicio de Inteligencia Militar (Amt für den
Militärischen Abschirmdienst, o MAD) y otras organizaciones nacionales en Alemania. Según el
Ministro la tarea primordial de la nueva organización fundada el 23 de febrero de 2011, es
detectar y prevenir los ataques contra la infraestructura nacional.

Estados Unidos
El 1 de julio de 2009, el senador Jay Rockefeller ( D -WV ) introdujo la "Ley de Seguridad
Cibernética de 2009 - S. 773 " (texto completo ) en el Senado , el proyecto de ley, co - escrito
con los senadores Evan Bayh (D- IL), Barbara Mikulski (D -MD) , Bill Nelson (D -FL ) y
Olympia Snowe (R -ME ) , se remitió a la Comisión de Comercio, Ciencia y Transporte , que
aprobó una versión revisada del mismo proyecto de ley (el " Ley de ciberseguridad de 2010 ") el
24 de marzo de 2010. el proyecto de ley busca aumentar la colaboración entre el sector público y
el sector privado en temas de ciberseguridad , en especial las entidades privadas que poseen las
infraestructuras que son fundamentales para los intereses de seguridad nacionales ( las comillas
cuenta John Brennan, el Asistente del Presidente para la seguridad Nacional y Contraterrorismo :
" la seguridad de nuestra nación y la prosperidad económica depende de la seguridad, la
estabilidad y la integridad de las comunicaciones y la infraestructura de información que son en
gran parte privados que operan a nivel mundial " y habla de la respuesta del país a un "ciber -
Katrina " .) , aumentar la conciencia pública sobre las cuestiones de seguridad cibernética , y
fomentar la investigación y la ciberseguridad fondo. Algunos de los puntos más controvertidos
del proyecto de ley incluyen el párrafo 315 , que otorga al Presidente el derecho a " solicitar la
limitación o el cierre del tráfico de Internet hacia y desde el Gobierno Federal comprometido o
sistema de información de Estados Unidos o de las infraestructuras críticas de la red ". la
Electronic Frontier Foundation , una defensa de los derechos digitales sin fines de lucro y la
organización legal con sede en los Estados Unidos , que se caracteriza el proyecto de ley como la
promoción de un " enfoque potencialmente peligrosa que favorece la dramática sobre la respuesta
sobria " .
Guía de informática saludable

Introducción
Esta guía está diseñada para ayudarle a utilizar el equipo con mayor comodidad y productividad.
También puede ayudarle a reducir el riesgo de sufrir dolorosas lesiones o trastornos que puedan
producir discapacidad, tal como se indica en la siguiente Advertencia para la salud.
Solo se tarda un momento en leerla, pero las ventajas pueden ser duraderas.

ADVERTENCIA PARA LA SALUD


El uso de un teclado o ratón puede provocar lesiones o trastornos graves.
Al igual que en otras actividades, puede que en ciertas ocasiones experimente cierta incomodidad
en las manos, los brazos, los hombros, el cuello o en otras partes del cuerpo cuando use el
equipo. No obstante, si padece de manera persistente o periódica síntomas como molestias, dolor,
punzadas, cosquilleo, adormecimiento, quemazón o agarrotamiento, NO PASE POR ALTO
ESTAS SEÑALES DE ADVERTENCIA. CONSULTE CUANTO ANTES CON UN
PROFESIONAL MÉDICO COMPETENTE, aunque los síntomas aparezcan cuando no
trabaje con el equipo. Los síntomas de este tipo pueden estar relacionados con lesiones
discapacitantes dolorosas o permanentes, o con trastornos de los nervios, músculos, tendones u
otras partes del cuerpo. Entre estos trastornos musculoesqueléticos (MSD) se incluyen el
síndrome del túnel carpiano, la tendinitis, la tenosinovitis y otros trastornos de la salud.
A pesar de que los investigadores aún no pueden dar respuesta a muchas de las preguntas sobre
las causas de los trastornos musculoesqueléticos denominados MSD, existe un acuerdo general
acerca de los muchos factores que pueden estar ligados a su aparición, entre los que se incluyen:
el estado de salud general, el estrés y la manera de sobrellevarlo, las condiciones médicas y
físicas, y la posición del cuerpo durante el trabajo y otras actividades (incluido el uso de un
teclado o un ratón). Además, también puede influir el tiempo que una persona dedica a una
actividad determinada.
En esta "Guía de informática saludable" puede consultar algunas directrices que le ayudarán a
trabajar más cómodamente con el equipo y a reducir el riesgo de sufrir trastornos MSD. Puede
solicitar la versión en CD de esta guía sin cargo adicional llamando al 1 (800) 360-7561 (sólo en
Estados Unidos).
Para obtener información sobre la organización de la estación de trabajo y el desarrollo de los
hábitos que pueden ayudarle a reducir el riesgo de MSD, lea esta "Guía de informática
saludable". Puesto que existen varios factores que pueden contribuir a la aparición de trastornos
MSD, esta guía no puede proporcionar todo lo necesario para prevenir un trastorno MSD o
reducir el riesgo de que aparezca. En el caso de algunas personas, las sugerencias que se
presentan aquí pueden reducir el riesgo de padecer un trastorno MSD. Para otras, quizás no. No
obstante, muchas personas experimentan una mayor comodidad y productividad si ponen en
práctica estas sugerencias. Tenga en cuenta que esta guía no puede en ningún caso sustituir el
consejo de un médico competente o de un programa o política de salud laboral. Si tiene dudas
sobre el riesgo de padecer trastornos osteomusculares relacionados con sus hábitos de vida, las
actividades que realiza, o su estado físico o de salud, consulte con un profesional médico
competente.

Mantenga una postura correcta


Independientemente de que trabaje o juegue, es importante que la posición del cuerpo sea
cómoda y que no adopte posturas forzadas. Ello no solo permite mejorar la productividad
general, sino también ayudarle a prevenir trastornos MSD. Tenga en cuenta que los cambios de
postura al realizar actividades prolongadas también pueden contribuir a prevenir la incomodidad
y el cansancio.
Al trabajar o jugar en el equipo, adapte el entorno y disponga el equipo informático para
favorecer una postura corporal cómoda y relajada. El acondicionamiento de la estación de trabajo
para evitar incomodidades depende del entorno donde se trabaje y el tamaño corporal exclusivos
de cada persona. No obstante, las siguientes sugerencias pueden ayudarle a obtener un entorno
más cómodo.

Para apoyar la espalda, pruebe lo siguiente:


 Utilice una silla que proporcione apoyo para la zona lumbar (vea el detalle 1).

 Ajuste la altura de la superficie de trabajo y de la silla para adoptar una postura corporal cómoda
y natural (vea el detalle 2).

Para adoptar posturas que resulten cómodas para las piernas, pruebe lo
siguiente:
 Quite los objetos situados bajo el escritorio para permitir una postura cómoda y facilitar la
movilidad de las piernas.

 Si los pies no descansan de manera cómoda en el suelo, utilice un reposapiés.


Para hacer que las distancias que impiden trabajar de manera relajada sean
mínimas y facilitar posturas cómodas de brazos y hombros, pruebe lo siguiente:
 Coloque el teclado y el ratón o la bola de seguimiento a la misma altura; deben estar a la altura
de los codos. La parte superior de los brazos debe caer a los lados de manera relajada (vea el
detalle 3).

 Al escribir, centre el teclado con respecto al cuerpo y coloque el ratón o la bola de seguimiento
cerca de él (vea el detalle 4).

 Coloque los elementos que use con más frecuencia al alcance del brazo (vea el detalle 5).

Para adoptar posturas correctas de dedos y muñecas, pruebe lo siguiente:


 Mantenga las muñecas rectas al escribir y al utilizar el ratón o la bola de seguimiento. Evite
doblar las muñecas hacia arriba, hacia abajo o lateralmente. Utilice las patas del teclado si le
ayudan a mantener una posición recta y cómoda de las muñecas.

 Escriba con las manos y las muñecas flotando sobre el teclado, de modo que pueda utilizar todo
el brazo para alcanzar las teclas distantes en lugar de estirar los dedos.

Para reducir la inclinación y el arqueamiento del cuello, pruebe lo siguiente:


 Coloque la parte superior de la pantalla más o menos al nivel de los ojos (vea el detalle 6). Es
posible que los usuarios que utilicen lentes bifocales tengan que bajar la altura de la pantalla o
consultar con un profesional médico competente sobre gafas personalizadas para trabajar con el
equipo.
 Coloque el monitor en una posición centrada con respecto al cuerpo. Si consulta los documentos
con más frecuencia que el monitor, tal vez deba colocar los documentos justo enfrente y el
monitor ligeramente hacia un lado.

 Tal vez deba utilizar un atril para colocar los documentos a la altura de los ojos.

Para evitar en lo posible la vista cansada, pruebe lo siguiente:


 Coloque el monitor de modo que quede a una distancia equivalente a la longitud del brazo una
vez sentado cómodamente frente al mismo.

 Evite los reflejos. Coloque el monitor lejos de las fuentes de luz que produzcan reflejos o utilice
persianas para controlar los niveles de luz.

 Recuerde limpiar la pantalla. Si lleva gafas, límpielas también.

 Ajuste el brillo y el contraste del monitor.

 Ajuste los tamaños de fuente de la pantalla para que pueda ver con mayor comodidad si el
programa del equipo cuenta con esta característica.

Relájese
Las fuerzas físicas interactúan continuamente con nuestro cuerpo. A veces se considera que sólo
las fuerzas provocadas por grandes impactos, como los accidentes automovilísticos, pueden
ocasionar lesiones a nuestro cuerpo. No obstante, las fuerzas de impactos leves también pueden
producir lesiones, incomodidad y cansancio, si se producen de forma repetida o durante períodos
prolongados.

Entre los tipos de fuerzas leves se incluyen:


Fuerza dinámica: fuerza que se ejerce mediante el movimiento como, por ejemplo, presionar las
teclas al escribir o hacer clic con los botones del ratón.
Fuerza estática: fuerza que se mantiene durante un período de tiempo como, por ejemplo, al
sujetar el ratón o sostener el teléfono con el hombro.
Fuerza de contacto: presión que se produce al descansar sobre un borde o una superficie dura
como, por ejemplo, al descansar las muñecas en el borde de la mesa.
Para reducir los efectos de fuerzas de impactos leves en el cuerpo, pruebe lo
siguiente:
 Escriba suavemente, con las manos y los dedos relajados, ya que se necesita un esfuerzo mínimo
para activar las teclas del teclado.

 Asimismo, utilice movimientos suaves al hacer clic con el botón del ratón o al utilizar un joystick
u otro mando para jugar.

 Sujete el ratón con la mano relajada, no es necesario que lo sujete con fuerza.

 No apoye las palmas de las manos o las muñecas sobre ninguna superficie al escribir (vea el
detalle 7). Si dispone de un reposamuñecas, sólo debe utilizarlo durante las pausas de escritura.

 Relaje los brazos y las manos cuando no escriba ni utilice el ratón. No apoye los brazos y las
manos en los bordes como, por ejemplo, en los del escritorio.

 Ajuste la silla para que el asiento no ejerza presión sobre la parte posterior de las rodillas (vea el
detalle 8).

Tome descansos
Los descansos pueden ayudar a que su cuerpo se recupere de una actividad y a evitar la aparición
de trastornos MSD. La duración y frecuencia adecuadas de los descansos dependen del tipo de
trabajo que se realice. Detener la actividad y relajarse es una forma de descansar, pero hay otros
modos de realizar pausas. Por ejemplo, cambiar de tareas (quizás, de estar sentado escribiendo a
estar de pie hablando por teléfono) puede ayudarle a relajar algunos músculos mientras otros
permanecen en acción.

Para variar las actividades diarias y trabajar de forma productiva, pruebe lo


siguiente:
 Planifique el trabajo de modo que ninguna actividad se prolongue durante largos períodos de
tiempo, como, por ejemplo, realizar la misma actividad o utilizar la misma parte del cuerpo.

 Utilice distintos dispositivos de entrada, como el ratón y el teclado para realizar la misma tarea.
Por ejemplo, para realizar una tarea de desplazamiento, puede utilizar la rueda del ratón y las
teclas de dirección del teclado.

 Puede trabajar con mayor eficacia si utiliza las características del software y el hardware para
reducir el esfuerzo y aumentar la productividad. Por ejemplo, puede presionar la tecla del
logotipo de Windows para abrir el menú Inicio de Windows.

 Para aprender las características del software y el hardware, lea la información que se incluye
con los productos. Por ejemplo, si resalta texto con frecuencia, asigne un botón del ratón a
Bloqueo de clic.
Cuide su salud
Un estilo de vida saludable puede ayudarle a realizar las actividades cotidianas y disfrutar de
ellas, incluido el tiempo que pasa frente al equipo. Asimismo, un mayor aprendizaje sobre la
salud constituye un paso importante para mantener la comodidad y la productividad al utilizar el
equipo.

Para mantener un buen estado de salud, pruebe lo siguiente:


 Mantenga una dieta equilibrada y tómese el descanso adecuado.

 Haga ejercicio para estar en forma y proporcionar resistencia y flexibilidad al cuerpo. Consulte
con un profesional médico competente para determinar los estiramientos y ejercicios
adecuados.

 Aprenda a controlar el estrés. Una manera de reducir el estrés en el trabajo es planear la


programación y organizar el área de trabajo para reducir al mínimo el ruido y las distracciones.

 Si tiene alguna pregunta sobre la posible relación de los estados médicos y físicos con los
trastornos musculo esqueléticos, consulte con un profesional médico cualificado. A pesar de que
los investigadores aún no pueden dar respuesta a muchas de las preguntas sobre las causas de
los trastornos musculo esqueléticos denominados MSD, existe un acuerdo general acerca de los
muchos factores que pueden estar ligados a su aparición, entre los que se incluyen los cambios
hormonales (como los producidos por el embarazo), las lesiones pasadas, la diabetes y la artritis
reumatoide.

Conclusión
Es importante conocer mejor el modo de trabajar cómodamente y de manera productiva, así
como el estado de salud general ya que, con ello, disfrutará en mayor medida su experiencia
informática.

Ergonomía y salud

Las computadoras están presentes en la


actualidad en el trabajo, la escuela y el hogar.
Sin lugar a dudas que pueden aportan grandes
beneficios, pero también existe otro aspecto
en el cual pueden influir y lamentablemente
no de manera muy positiva. Existen algunas
lesiones y síntomas asociados a ciertos
excesos que pueden pasar desapercibidos
cuando se trabaja frente a una computadora.
Entre las dolencias y lesiones que puede causar el trabajo prolongado con la computadora se
encuentran el lumbago, tendinitis y dolores de cabeza, que pueden desencadenar las largas
horas de trabajo frente a la computadora. Con algunas sencillas sugerencias y cambios de
hábito, se permite prevenir serios problemas y disminuir los efectos negativos en la salud
debido al uso de las computadoras.
Ergonomía
A pesar que las computadoras pueden hacer más
efectivo el trabajo de las personas, también
pueden causarles algunos problemas. Todas las
personas cuya ocupación suponga un uso
excesivo de las computadoras, como empleados
de oficina, operadores de sistemas, transcriptores
de texto, estudiantes y otros, están expuestos por
la naturaleza de su trabajo pues deben
mantenerse por largo tiempo adoptando una
misma postura. Un campo de estudio conocido
como ergonomía puede ser bastante útil para
enfrentar estos problemas y tratar de hacer más
Silla ergonómica cómodo el trabajo con las computadoras.

La ergonomía es el estudio de las capacidades físicas y mentales del ser humano y la aplicación
de sus investigaciones en la interacción de las personas con productos, equipos y entornos
artificiales. Por un lado, puede indicar principios para obtener productos más seguros o más
fáciles de usar; por otro, la ergonomía puede también generar mejores procedimientos para
llevar a cabo una determinada tarea. Debido al incremento del uso de la computación en todo
tipo de organizaciones y en el hogar, surge un interés por hacer uso de la ergonomía con la
finalidad de ajustar el trabajo a la medida de las personas, mejorando el modo de realizar las
tareas y dando pautas para que los equipos de computación sean lo más cómodos posibles,
evitando esfuerzos para adaptarse al trabajo. Se idean pautas para que el diseño y uso de las
computadoras incremente la productividad evitando los posibles riesgos a la salud.

Adecuar el centro de trabajo


Para cualquier persona resulta incomodo
tener que estar sentado varias horas del día
frente a la computadora. Es probable que
presente dolor en el cuerpo al usar una silla
por demasiado tiempo, que además presente
lesiones en sus muñecas o cansancio en sus
ojos por mirar fijamente la computadora. Con
el surgimiento de estos inconvenientes en el
devenir de los años, las personas y las
organizaciones de las que forman parte, han
tomado conciencia de la importancia de
contar con un mobiliario diseñado bajo
Recomendaciones para un centro ideal de
pautas ergonómicas y el uso de técnicas
trabajo con computadora
adecuadas para el uso de las computadoras.
La industria se ha percatado de esta nueva necesidad y hace esfuerzos por generar hardware y
mobiliario más fácil de usar, seguro y cómodo. Es allí donde los ergonomitas proporcionan
información, que ayuda a diseñadores e ingenieros a mejorar los productos a desarrollar.

Los usuarios pueden evitar los inconvenientes de fatiga y tensión adquiriendo ciertos hábitos
sanos al momento de trabajar. Es importante tomar en cuenta algunas recomendaciones, entre
las que se encuentran, tomar descansos frecuentes y la dotación de nuestro centro de trabajo del
mobiliario de cómputo, adecuado y diseñado bajo pautas ergonómicas. La elección de una
buena silla, que sea confortable, ajuste de altura, soporte para la toda la espalda, y con soporte
para los brazos es una adecuada inversión.

Síndrome de la computadora
Es una dolencia o grupo de trastornos, que están asociados al uso prolongado e indiscriminado
del computador sin prevención alguna. Los síntomas característicos son:

     • problemas de visión y resequedad ocular,


     • dolores de cabeza y de espalda, y
     • tendinitis.

Ya la comunidad médica mundial ha venido destacando que bastan unos cinco años para que
los usuarios padezcan patologías que pueden atentar contra la salud, en especial aquellos que
no se despegan ni un minuto de su trabajo. Este es uno de los aspectos de la computadora de
los cuales poco se habla y que va en contra de sus ya bien destacados beneficios.

Las investigaciones han comprobado que los operarios tecnológicos son susceptibles a padecer
de dolores de espalda, brazos, muñecas, manos y cuello. Estos padecimientos tienen sus
precedentes en los trabajadores textiles y automotrices desde hace tiempo, pero se vio
incrementado entre los usuarios de las computadoras. Este tipo de lesiones son conocidas como
lesiones de tensión repetitiva, lesión de movimiento repetitivo o trastorno de lesiones
acumuladas, que describen los padecimientos consecuencia de labores rápidas y repetitivas,
como las desarrolladas por usuarios intensivos de teclado. Si son desatendidas, tales lesiones
pueden convertirse en trastornos severos y atroces. Pero existen alternativas para
contrarrestarlas y poder disfrutar de los beneficios del computador. La adopción de posturas
saludables, la relajación muscular y el uso de equipos ergonómicos son algunas de estas
recomendaciones.

Efectos en la salud física


A continuación se presentan los efectos sobre el cuerpo (si no se tienen las condiciones
adecuadas) de permanecer frente a la computadora por más de seis horas diarias, bien sea en
actividades laborales, disfrutando del video juego favorito, navegando en Internet, chateando
con los amigos o escribiendo la tesis de grado. Entre las zonas más susceptibles destacan la
columna vertebral, espalda, ojos y manos.
1.- Columna, cuello y espalda
Efectos:

• Si se trabaja con monitores y teclados en


posiciones impropias, puede causar dolores de
espalda.
• Al permanecer sentado en una posición
inadecuada, con el tiempo, causa modificaciones
en la columna vertebral.
• Las malas posturas producen tensiones
musculares.
• Si el monitor está demasiado bajo la persona
tendera a encorvarse. Las posiciones forzadas y
prolongadas producen dolores de espalada y
cefaleas sobretodo en la parte frontal de la
cabeza.

Se recomienda mantener una postura


recta y relajada

Prevención:
     • La silla debe ser ajustable, en lo posible en cuanto a altura y ángulo y contar con un
respaldo        adecuado que cubra toda la espalda.

     • Si es posible se recomienda invertir en una buena silla ergonómica, pues son adaptables a
los        movimientos del cuerpo.

     • La mesa para el monitor debería ser ajustable, porque éste debe quedar a la altura de los
ojos o        ligeramente debajo de éstos, evitando curvaturas forzadas de la espalda. El teclado
debe ser        móvil.

     • Cambiar las posturas frecuentemente (cada 15 minutos aproximadamente).

     • Realizar estiramientos cada dos horas y relajarse usando técnicas respiratorias.

     • Mantener la columna recta, hombros erguidos y cabeza relajada.

2.- Ojos
Efectos:
     • El uso de monitores obliga a usar la
vista, a        una distancia reducida por
períodos largos,        provocando dolor de
cabeza, fatiga visual y        vista doble o
borrosa.
     • Dolor, Resequedad e irritación ocular.
     • Sensibilidad a la luz. Fatiga visual o
espasmos en el sistema visual.
Uso de pantalla antireflejos

Prevención:
     • Tomar descansos de 15 minutos cada hora. Mientras se trabaja, desplazar la vista del
monitor en        forma sistemática.
     • Parpadear periódicamente para humectar la vista. Utilizar lágrimas artificiales para
prevenir la        resequedad del ojo.

     • Fijar la mirada en un objeto distante al monitor cada media hora para ejercitar los ojos y
mejorar el enfoque.

     • Evitar uso de monitores parpadeantes o en mal estado.

     • Colocar la pantalla del computador de manera que no reflejen fuentes de luz
resplandecientes        (como las de ventanas). Con tal fin es recomendable el uso de filtros
antireflejos para bloquear        además la radiación de la pantalla y reducir así la fatiga visual.

     • Disminuir la intensidad de la luz de la pantalla.

     • Mantener aproximadamente a la misma distancia todo aquello en lo que se fija la vista
mientras        se trabaja. Por ejemplo, el monitor, el teclado y el atril que sostiene documentos
deberían tener        una distancia de 50 centímetros del usuario

     • La distancia del usuario al monitor debe ser de un mínimo de 40 centímetros y un máximo
de 70        centímetros

     • Limpiar la pantalla periódicamente.

3.- Manos y muñecas


Efectos:
     • Dolores en las coyunturas de los dedos.

     • El uso intensivo del ratón puede ocasionar el síndrome del túnel carpiano: una inflamación
en los        nervios de la muñeca por los movimientos inapropiados en forma repetida, que
causa molestia y        dolor en la palma de la mano, la muñeca y los dedos de la mano. En
muchos casos se hace        necesario una cirugía correctiva.
Prevención:
• Para evitar el entumecimiento, retirar las manos
del teclado para relajarlas y estirar los   músculos.
• Utilizar el ratón con una almohadilla especial
para descansar la muñeca.
• En lo posible, se sugiere el uso de un ratón
ergonómico que se adapte a la mano.
• El teclado debe estar a la altura de los codos.
• Es aconsejable el uso de teclados ergonómicos
porque se adaptan a la curvatura de la mano y
evitan los dolores producidos por el tipeo
sistemático.
Teclados ergonómicos • Escribir con las manos elevadas del teclado
para   extender la muñeca.
4.- Campos electromagnéticos
Efectos:
Al igual que muchos electrodomésticos, los equipos de computación producen emisiones de
campos electromagnéticos que pueden atravesar el cuerpo humano. Estos campos se crean
durante la generación, transmisión y uso de energía eléctrica de baja frecuencia. Aunque no se
ha determinado claramente el efecto de estas emisiones en los humanos, se cree que podrían
estar relacionados con abortos e incluso cáncer. Aún sin aceptar que estas emisiones puedan ser
dañinas, la industria ha venido desarrollando monitores con una más baja emisión para ofrecer
a los usuarios.

Prevención:
Se debe adoptar una práctica de prevención que reduzca en lo posible la exposición a las
emisiones de campos electromagnéticos. Dado que éstos pierden fuerza con la distancia,
algunas opciones para reducir el riesgo son:
     • Situarse a una distancia de al menos
unos
       60 centímetros de distancia del monitor.
     • Opcionalmente pueden usarse los
monitores        de cristal líquido (LCD) que
no irradian        campos electromagnéticos.
     • Sentarse alejado de la computadora al
menos a un brazo de longitud. Los costados
       y las partes traseras son los puntos de
emisión más intensos.
     • Tomar frecuentes descansos lejos de la
computadora. Monitor LCD

Efectos en la salud mental


La computación puede causar también contraproducentes situaciones en lo que se refiere a la
salud mental o el comportamiento. A continuación se exponen algunas de ellas que merezcan
atención.

1.- Evitar ruidos


Los equipos asociados a la computación pueden generar una variedad de ruidos que pueden
causar molestia. La entrada y salida de voz puede causar distracción a los compañeros de
trabajo. De igual manera, los usuarios pueden sufrir de dolores de cabeza, tensiones o falta de
concentración motivada a la exposición continua al ruido producido por monitores y
ventiladores dentro de las unidades de computación (ruido de alta frecuencia, apenas
perceptible). Aunque es difícil de evitar, una aproximación a la solución, al menos intentar
reducir el ruido y evitar su propagación en diferentes ambientes, debido a compañeros y por
equipos como impresoras. Esta reducción puede lograrse diseñando instalaciones que tomen en
cuenta este problema, usando materiales y recubrimientos que eviten la propagación del ruido y
recubrimientos que amortigüen los sonidos.

2.- Saturación de información


Un efecto de las nuevas tecnologías de la
información y de la comunicación, es la
aceleración del ritmo de vida, la velocidad de las
transmisiones y las posibilidades de compartir
información. Pero para el ser humano no es
posible absorber el bombardeo creciente de
información que generan los medios electrónicos
adicionados, al producido por medios
tradicionales. La Internet es un ejemplo de este
fenómeno que se hace presente en la realidad
cotidiana, donde la información parece crecer a
ritmo desmesurado, sin un control ni lógica
La computación puede agregar factores aparente.
que incrementen el estrés laboral
La saturación o sobreabundancia de datos puede causar estrés y ansiedad. Para evitarla se debe
distinguir entre las informaciones que aportan utilidad y provecho, y desestimar los datos que
no son realmente de importancia.

Específicamente en lo que al uso de Internet se refiere, es conveniente hacer las búsquedas más
provechosas y agradables, de modo que no conduzca al colapso recorriendo páginas sin sentido
hasta perderse en el caos. Se debe definir si la consulta se hace por trabajo o diversión,
evaluando cuánto tiempo merece la búsqueda, respetando el tiempo previsto, determinando si
el tiempo invertido vale la pena, planificando la búsqueda previamente y ajustándose en lo
posible a dicho plan.

3.- Comunicación excesiva


Las nuevas tecnologías han roto esquemas de distancia, acercando a las personas que pueden
estar físicamente distantes. Gracias a la Internet es posible que los mensajes vuelen de lado a
lado, llevando incluso fotos, música y otros documentos como anexos. Pero crea una nueva
situación, la velocidad de los mensajes ha causado que éstos se multipliquen. Al convertirse
este medio de comunicación en algo habitual, las personas suelen comentar cuestiones que en
otro tipo de correspondencia, no lo harían, como por ejemplo: a) Se agrava la situación con los
mensajes no esperados (“correo basura”) que llenan el buzón congestionándolo. b) Las
personas, que en estos casos siguen una lógica de inmediatez, se sienten obligados a responder
lo más pronto posible incluso sin mucha reflexión. La habilidad de las personas para
comprender, asimilar, elaborar y responder mensajes tiene su propio ritmo. El periodo entre la
recepción del correo y la elaboración de la respuesta no tiene por qué disminuirse al punto que
conlleve despojar la comunicación de la calidad que merece. Más aún si esto va acompañado
de invertir tiempo productivo que debe ser empleado en actividades más importantes.

4.- Adicción al computador


Muchas personas llegan a convertir el uso de la computadora, sus tecnologías y otros medios
de comunicación vía Internet en una adicción que les permite olvidarse de si mismas,
abstrayéndose de la realidad, de manera similar a como las personas usan el alcohol o el
cigarrillo. Se puede diferenciar entre dos modelos de una posible adicción al computador. Por
un lado se encuentran sujetos aficionados de sus computadores que utilizan la red para recoger
información, obtener programas, información diversa o jugar en solitario, sin llegar a establecer
contactos interpersonales. En segundo lugar, se encuentran los sujetos que les gusta frecuentar
los chats y listas de correo. Estos últimos, andan en la búsqueda de estimulación social, una
necesidad de filiación, de ser reconocidos, poderosos o amados haciendo uso de la Internet. En
oposición, los sujetos del primer grupo necesitan de control y predictibilidad, evitando el
“desorden” interpersonal que genera cualquier canal de comunicación interpersonal.

Se es víctima de esta adicción cuando no se hace fácil escoger libremente entre las actividades
que se pueden realizar y estar ocupado con el uso de la computadora, lleva a la persona a
ocultarse, convirtiendo esta ocupación en algo mecánico y repetitivo, en algo obsesivo. Cuando
el uso de la computadora comienza a interferir de manera significativa en las actividades
habituales de una persona, entonces puede ser considerado patológico. La interferencia en los
hábitos de vida no es un criterio muy claro porque varía entre las diferentes personas
dependiendo de aspectos propios de personalidad, tiempo libre, dinero y otras circunstancias
familiares y personales. Criterios que delaten esta adicción son la necesidad de incrementar la
cantidad de tiempo de uso de la computadora, estados de ansiedad, pensamientos recurrentes u
obsesivos acerca de lo que pueda estar ocurriendo en Internet. Aún cuando la computación
brinda muchas ventajas en cuanto a educación comunicación o entretenimiento, también puede
causar en algunos, adicción; y el problema puede llegar a ser tan grave que requiere de la
consulta a especialistas.

5.- Estrés por uso de tecnología


La vida en general tiende a tornarse cada vez
más vertiginosa, más acelerada. La
tecnología ofrece una manera más efectiva y
productiva de realizar las actividades, pero no
es la respuesta por si sola para asegurar la
productividad en la organización. El
problema del estrés que puede afectar el
desempeño de los trabajadores, es algo que
ya se viene discutiendo desde hace varios
años en los ambientes laborales. Si bien, la
tecnología puede facilitar las labores y
potenciar las posibilidades de los empleados, La tecnología puede inducir nuevas exigencias
también puede afectarle negativamente que pueden causar tensión
incrementando las condiciones que generan
estrés.

La tecnología puede influir en las relaciones sociales tornándolas más impersonales al


disminuir la comunicación directa por el uso de medios digitales. Como consecuencia las
personas pueden sentirse más aisladas y disminuye la ayuda y el apoyo que puedan brindar
compañeros y supervisores. La tecnología también puede influir en la aparición de situaciones
de descansos infrecuente, trabajos frenéticos y de rutina con poco significado inherente. La
disponibilidad de herramientas poderosas establece nuevas exigencias a los empleados creando
angustia y mayor competitividad. La tensión puede ser acrecentada por expectativas mal
definidas o imposibles de lograr, demasiada responsabilidad o funciones asignadas si la
gerencia toma como referencia únicamente la disponibilidad de la tecnología, exagerando sus
beneficios. Las condiciones ambientales adversas por problemas ergonómicos pueden causar
molestias que se incrementen el estrés.
La Prevención del estrés según los especialistas requiere de un enfoque extenso para crear un
lugar sano de trabajo. En este enfoque se requiere la participación de empresa e individuos para
poder alcanzar el ambiente laboral deseado que de la talla en el mundo exigente actual. La
organización debe evaluar el entorno organizativo y generar cambios y adaptaciones que
incluyen políticas que consideren a sus trabajadores como individuos pensantes y creativos. A
nivel individual es pertinente el manejo del estrés, desarrollando la habilidad para sobrellevar
las situaciones difíciles de trabajo, así como conocer las fuentes y naturaleza del estrés.

Por fortuna existe una serie de precauciones ya identificadas que deben tomarse en cuenta para
el trabajo en la computadora no sea extenuante. Estas recomendaciones tienen que ver con la
formación e incorporación de hábitos y procedimientos de trabajo más sanos, permiten
disminuir la posibilidad de crear problemas de salud. El daño debido a una mala postura, por
ejemplo, es algo acumulativo, su percepción no es inmediata. Es por esto que evaluar
continuamente los hábitos y la manera como se hacen las cosas permitirán finalmente
aprovechar las bondades del uso de la computadora, conservando la salud.

Guía para una computación saludable


Todos los años gran cantidad de personas sufren lesiones por el uso de la computadora que
puede parecer no tan serios, pero pueden llegar a ser complicaciones de cuidado e incluso
incapacitantes. Si se hace uso de la computadora con frecuencia o por períodos prolongados es
adecuado tomar las siguientes precauciones:

• Descansos frecuentes en la jornada:


Pararse y alejarse de la computadora a intervalos frecuentes durante la sesión de
trabajo ayuda a disminuir los riesgos.
• Organizarse:
Procure organizar las diversas actividades diarias para satisfacer sus necesidades
diarias de descanso, trabajo, alimentación y relaciones sociales. Esto le permitirá
tener un equilibrio mental, físico y emocional.
• Descansar los ojos:
La vista se cansa por mirar fijamente a una distancia igual durante mucho tiempo.
Aun si no es posible levantarse, mirar alrededor y enfocar diferentes objetos a
diferentes distancias puede ayudar. Cerrar los ojos por aproximadamente un minuto
permite relajarlos.
• Ponerse en movimiento:
Durante los lapsos de descanso, hacer ejercicios suaves, como girar el torso o rotar el
cuello para estimular la circulación y relajar la espalda. También es recomendable
mover los pies con giros en la articulación del tobillo y la rodilla.
• Ejercitarse:
El sedentarismo acentúa las lesiones o la propensión a las mismas, así como los
trastornos circulatorios y respiratorios. Se recomienda realizar ejercicios al menos
tres veces a la semana.
• Cuidar la postura:
Debe adoptarse posiciones saludables, sin forzarse ni tensarse, esto hace más
cómodo el trabajo y evita daños y lesiones que se evidencian con el tiempo. Se deben
mantener los pies planos en el piso al frente. Las piernas no deben estar cruzadas, ni
en frente ni por debajo del usuario, por largos periodos.
• Sea delicado al teclear:
Evite golpear las teclas o apretar el ratón en forma muy rígida. No se requiere
imprimir mucha presión para trabajar.
• Asegurarse de que el centro de trabajo es adecuado ergonómicamente:
Adecuar los muebles, equipos y elementos de trabajo a las necesidades del cuerpo.
La silla y el escritorio deberían ser ajustables. La silla debe ofrecer soporte a la
espalda baja y descansos para los brazos.
• Mantener las muñecas derechas:
Las manos deben estar en línea con los brazos al teclear. Si se mantienen las
muñecas inclinadas en alguna dirección, puede ocasionar fatiga en los músculos e
incrementar el riesgo de lesiones de túnel carpiano o tendón.
• Mantener las muñecas levantadas:
Descansar las muñecas al teclear impide el movimiento de los antebrazos para
posicionar las manos e impone tensión en manos y dedos. El soporte para las
muñecas se usa cuando se descansan las manos, no mientras se escribe.

Domesticando la computadora
El uso de la computadora en las actividades diarias nos vuelve más productivos. Pero trabajar
sin las condiciones adecuadas, sin tomar en cuenta ciertos consejos, puede ser incómodo y
causar lesiones debido a sesiones de trabajo prolongadas e ininterrumpidas.

Existen algunas lesiones asociadas a la era digital


que van desde un grado leve, hasta algunas más
serias. El uso de la computadora además de
causar incomodidades en la salud a nivel físico,
también puede afectar a nivel mental. Puede
causar tensión mental o estrés por el uso de los
equipos al tener que trabajar en condiciones
forzadas, no naturales. Lo ideal es que la
computadora como herramienta se adapte a los
usuarios y no lo contrario. Es en este punto
donde la ergonomía y sus conocimientos pueden
Es necesario formar hábitos adecuados para servir para mejorar los ambientes de trabajo y las
disfrutar los beneficios de la computación condiciones en que se debe enfrentar las labores.

También podría gustarte