Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Guinea Ecuatorial
Facultad de Economía
Autor:
(REV3)
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014
INTRODUCCION
En cada capítulo hay ejercicios adicionales para que el alumno pueda practicar en
casa y de esta manera no se dependa exclusivamente del ejemplo dado.
2
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014
3
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014
CAPÍTULO 1
CONCEPTOS BASICOS
4
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014
1.1.1 CIENCIA.
En su definición más amplia, es el conocimiento ordenado que se utiliza para organizar
experiencias y confirmarlas de manera objetiva. Se puede dividir en dos partes: una es la
ciencia pura, que es la búsqueda del conocimiento, la otra es la ciencia aplicada, que es la
búsqueda de usos útiles para los conocimientos adquiridos.
1.1.2. TECNOLOGÍA.
Es el proceso que le permite a los seres humanos diseñar herramientas y máquinas para
controlar su ambiente material y aumentar la comprensión de este.
El termino proviene de dos palabras griegas: tecné, que significa “arte” u “oficio”, y logos,
que significa “conocimiento” o “tratado”.
En conclusión, la tecnología es el conocimiento de los oficios.
1.1.3. INFORMACIÓN.
El matemático estadounidense Claude E. Shannon es el creador de la “teoría moderna de la
información”. De acuerdo con él, la información es todo lo que reduce la incertidumbre entre
varias alternativas posibles. Son los datos que necesitamos conocer para tomar decisiones de
manera más efectiva.
1.1.5. INFORMÁTICA.
Es la ciencia de la información. El término se forma de la combinación de las palabras
información y automática. Por tanto, es el conjunto de conocimientos que permiten el
tratamiento automático de la información y se utiliza para abarcar a todo lo relacionado con el
manejo de datos mediante equipos de procesamiento automático como las computadoras.
5
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014
1.1.6. COMPUTADORA.
Máquina o dispositivo electrónico capaz de recibir datos, procesarlos y entregar los resultados
en la forma deseada, ya sea en el monitor o impresos. Los datos son procesados por
instrucciones en forma de programas.
1.1.7. DATOS.
Conjunto de símbolos que representan la información de manera que se permita su
procesamiento.
6
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014
Equipos (hardware). Es el conjunto de piezas físicas que integran una computadora: unidad
central de proceso, las memorias, periféricos, los equipos de redes, etc (cap. 3).
10
10
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014
Software (cap. 4) Se conoce como software, al equipo lógico o soporte lógico de un sistema
informático, que comprende el conjunto de las instrucciones que le permiten al equipo físico
realizar tareas específicas. Están integrados por varios archivos que realizan diversas
funciones. Hay tres tipos de software: los sistemas operativos, Software de programación
y las aplicaciones informáticas (Wikipedia).
Sistemas operativos. Son el software básico que controla los recursos de hardware de la
computadora. Sirven de enlace entre la computadora, las aplicaciones informáticas y los
lenguajes. Realizan tres funciones principales
Coordinan y manejan el hardware de la computadora.
Organizan los archivos en varios dispositivos de almacenamiento.
Solucionan los errores de hardware y la pérdida de datos.
Ejemplo: Linux, Windows, Android, OS, etc.
Lenguajes de programación. Son lenguajes artificiales, Se utilizan para definir una serie de
instrucciones, que representan las tareas que procesará una computadora. Al conjunto de
instrucciones agrupadas en un archivo ejecutable se le conoce como programa.
Ejemplo: java, c, c++,phyton, etc.
A las Aplicaciones informáticas, también se les conoce como interfaz de usuario, han sido
diseñadas para realizar una tarea específica, como el procesamiento de textos.
11
11
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014
Personal informático. Son aquel conjunto de personas que desempeñan las distintas
funciones relacionadas con la utilización y explotación de las computadoras en una determinada
empresa u organización. También es una parte esencial en cualquier sistema informático,
incluye a los operadores, analistas programadores, desarrolladores, soporte, redes, en fin todos
aquellos que de una u otra manera se encargan de operar y mantener los sistemas servicios y
sistemas informáticos de una institución.
Según la relación que tengan las personas con la computadora las podemos clasificar en:
Usuarios: todas las personas que usamos las computadoras para distintos propósitos, por
ejemplo realizar dibujos, texto, cálculos, etc.
Programadores: son personas especializadas que desarrollan los programas informáticos.
Técnicos: es el personal que se encarga del funcionamiento de las computadoras y las redes.
12
12
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014
13
13
UNGE-FE-DIG INTRODUCCION A LA INFORMATCA
2014
EJERCICIOS
14
14
.
ANTECEDENTES
HISTÓRICOS
1.3 ANTECEDENTES HISTÓRICOS
1.3.1. GENERACIONES DE COMPUTADORAS
En comparación con otras tecnologías, la computadora personal ha evolucionado en un
periodo muy corto. Los desarrollos han sido impresionantes y no han cesado de ocurrir. En el
lapso de tan solo dos décadas, la PC ha pasado de ser un pasatiempo novedoso para
convertirse en una herramienta de flexibilidad y capacidades inmensas que se encuentran en
millones de hogares y negocios.
Otro elemento que permite distingue entre una generación y otra son los avances en la
programación y el desarrollo de los sistemas operativos. También se pueden considerar los
dispositivos de almacenamiento masivo de información.
Tarjeta perforada
1.3.3. SEGUNDA GENERACIÓN
(Mediados de los 50’s a mediados de los 60’s)
20
20
Los lenguajes de alto nivel se vuelven más complejos.
El sistema operativo ms-dos de Microsoft se instala en la mayor parte de las pc´s.
Se crean las memorias virtuales, aparecen los paquetes integrados de software, surgen los
videojuegos.
En esta etapa la computadora se vuelve muy popular.
21
21
En 1982 Seymour Cray crea la primera supercomputadora con capacidad de procesamiento en
paralelo
En el mismo año el gobierno japonés anuncia el proyecto de “inteligencia artificial” para que
las computadoras puedan reconocer voz e imagen y se comuniquen en lenguaje natural.
El desarrollo de la red mundial de computadoras Internet y de la Word Wide Web, ha
proporcionado grandes beneficios a las empresas de todos los tamaños.
22
22
1.4. SISTEMA DE NUMERACIÓN Y CONVERSIONES
Los sistemas de numeración son las distintas formas de representar la información numérica. Se
nombran haciendo referencia a la base, que representa el número de dígitos diferentes para
representar todos los números.
El sistema habitual de numeración para las personas es el Decimal, cuya base es diez y
corresponde a los distintos dedos de la mano, mientras que el método habitualmente por los
sistemas electrónicos digitales es el Binario que utiliza únicamente dos cifras para representar la
información, el 0 y el 1.
Otros sistemas como el Octal (base 8) y el Hexadecimal (base 16) son utilizados en las
computadoras.
Asi pues cuelquier numero de cualquier base se puede representar mediante la siguiente ecuación
polinomica:
Siendo
b la base del sistema de nuemracion b > 1 y di, un numero perteneciente al sistema que cumple
0≤di<b
Ej:23(10=3x100+2x101
23
23
Sistema Binario
Los circuitos digitales internos que componen las computadoras Utilizan el sistema de
Numeración Binario para la interpretación de la información.
. Como mencionamos anteriormente este sistema utiliza dos cifras (el 0 y el 1) en dónde cada una
de ellas se denomina bit (contracción de binary digit).
De acuerdo al principio del sistema de numeración, el numero binario 1101(2 seria exactamente
igual 1x20+0x21+1x22+1x23=1x1001x101=11
Conversión de binario a decimal
El proceso para convertir un número del sistema binario al decimal es aún más sencillo; basta con
desarrollar el número, teniendo en cuenta el valor de cada dígito en su posición, que es el de una
potencia de 2, cuyo exponente es 0 en el bit situado más a la derecha, y se incrementa en una unidad
según vamos avanzando posiciones hacia la izquierda.
Por ejemplo, para convertir el número binario 10100112 a decimal, lo desarrollamos teniendo en cuenta
el valor de cada bit:
1x26 + 0x25 + 1x24 + 0x2 3+ 0x22 + 1x21 + 1x20 = 83
10100112(2 = 8310
Ejercicio 1:
Expresa, en el sistema decimal, los siguientes números binarios:
110111, 111000, 010101, 101010, 1111110
Ejercicio 2:
24siguientes: 191, 25, 67, 99, 135, 276
Expresa, en código binario, los números decimales
24
Sistema de numeración octal
El inconveniente de la codificación binaria es que la representación de algunos números resulta muy
larga. Por este motivo se utilizan otros sistemas de numeración que resulten más cómodos de escribir: el
sistema octal y el sistema hexadecimal. Afortunadamente, resulta muy fácil convertir un número binario
a octal o a hexadecimal.
En el sistema de numeración octal, los números se representan mediante ocho dígitos diferentes: 0, 1, 2,
3, 4, 5, 6 y 7. Cada dígito tiene, naturalmente, un valor distinto dependiendo del lugar que ocupen. El
valor de cada una de las posiciones viene determinado por las potencias de base 8.
Por ejemplo, el número octal 273(8 tiene un valor que se calcula así:
2738 = 187
Conversión de un número decimal a octal
La conversión de un número decimal a octal se hace con la misma técnica que ya hemos utilizado en la
conversión a binario, mediante divisiones sucesivas por 8 y colocando los restos obtenidos en orden
inverso. Por ejemplo, para escribir en octal el número decimal 12210 tendremos que hacer las
siguientes divisiones:
122 : 8 = 15 Resto: 2
15 : 8 = 1 Resto: 7
1 : 8 = 0 Resto: 1
122 = 1728
Ejercicio 3:
Convierte los siguientes números decimales en octales: 6310, 51310,
11910
Ejercicio 4:
Convierte al sistema decimal los siguientes números octales: 458, 1258, 6258
Ejercicio 5:
Expresa en el sistema decimal las siguientes cifras hexadecimales: 2BC516,
10016, 1FF16
De ahí que, tomando los restos en orden inverso, resolvemos el número en hexadecimal:
173510 = 6C716
Ejercicio 6:
Convierte al sistema hexadecimal los siguientes números decimales: 3519,
1024, 4095
Cada dígito de un número octal se representa con tres dígitos en el sistema binario. Por tanto, el modo
de convertir un número entre estos sistemas de numeración equivale a "expandir" cada dígito octal a
26caracteres binarios a su correspondiente dígito octal.
tres dígitos binarios, o en "contraer" grupos de tres
26
Por ejemplo, para convertir el número binario 1010010112 a octal tomaremos grupos de tres bits y los
sustituiremos por su equivalente octal:
1012 = 58
0012 = 18
0112 = 38
y, de ese modo: 1010010112 = 5138
Ejercicio 7:
Convierte los siguientes números binarios en octales: 11011012, 1011102,
110110112, 1011010112
La conversión de números octales a binarios se hace, siguiendo el mismo método, reemplazando cada
dígito octal por los tres bits equivalentes. Por ejemplo, para convertir el número octal 7508 a binario,
tomaremos el equivalente binario de cada uno de sus dígitos:
78 = 1112
58 = 1012
08 = 0002
y, por tanto: 7508 = 1111010002
Ejercicio 8:
Convierte los siguientes números octales en binarios: 258, 3728, 27538
En caso de que los dígitos binarios no formen grupos completos de cuatro dígitos, se deben
añadir ceros a la izquierda hasta completar el último grupo. Por ejemplo:
1011102 = 001011102 = 2E16
Ejercicio 9:
Convierte a hexadecimales los siguientes números binarios:
1010100101011101010, 111000011110000, 1010000111010111
116 = 00012
F16 = 11112
616 = 01102
y, por tanto: 1F616 = 0001111101102
Ejercicio 10:
Convierte a binario los números hexadecimales siguientes: 7A5D16,
101016, 8F8F16
Representación de la Información
Para medir la cantidad de Información representada en binario se utilizan múltiplos,que a
28
28
diferencia de otras magnitudes físicas utilizan el factor multiplicador debido1 a que es el múltiplo de 2
más cercano a este último (210=1024) en lugar de 1000,
La cantidad de dígitos necesarios para representar un número en el sistema binario es mayor que en el
sistema decimal. En el ejemplo del párrafo anterior, para representar el número 77, que en el sistema
decimal está compuesto tan sólo por dos dígitos, han hecho falta siete dígitos en binario.
Para representar números grandes harán falta muchos más dígitos. Por ejemplo, para representar
números mayores de 255 se necesitarán más de ocho dígitos, porque 2 8 = 256 y podemos afirmar, por
tanto, que 255 es el número más grande que puede representarse con ocho dígitos.
Como regla general, con n dígitos binarios pueden representarse un máximo de 2 n, números. El número
más grande que puede escribirse con n dígitos es una unidad menos, es decir, 2n – 1. Con cuatro bits,
por ejemplo, pueden representarse un total de 16 números, porque 24 = 16 y el mayor de dichos
números es el 15, porque 24-1 = 15.
Ejercicio 11:
Averigua cuántos números pueden representarse con 8, 10, 16 y 32 bits y cuál es el número más grande
que puede escribirse en cada caso.
Ejercicio 12:
Dados dos números binarios: 01001000 y 01000100 ¿Cuál de ellos es el mayor? ¿Podrías compararlos
sin necesidad de convertirlos al sistema decimal?
CAPÍTULO 2
INTRODUCCION AL HARDWARE
2.1. HARDWARE
El término hardware, se refiere a todas las partes tangibles de un sistema informático; sus
componentes son: eléctricos, electrónicos, electromecánicos y mecánicos. Son cables, gabinetes o
cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado. El término es propio
del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un
significado acorde, por tal motivo se la ha adoptado tal y como suena; la Real Academia
Española lo define como «Conjunto de los componentes que integran la parte material de una
computadora». El término, aunque sea lo más común, no solamente se aplica a las computadoras;
del mismo modo, también un robot, un teléfono móvil, una cámara fotográfica o un reproductor
multimedia poseen hardware. La historia del hardware de computador se puede clasificar en
cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Una
primera delimitación podría hacerse entre hardware básico, el estrictamente necesario para el
funcionamiento normal del equipo, y complementario, el que realiza funciones específicas.
Una de las formas de clasificar el hardware es en dos categorías: por un lado, el básico, que
abarca el conjunto de componentes indispensables necesarios para otorgar la funcionalidad
mínima a una computadora; y por otro lado, el hardware complementario, que, como su nombre
indica, es el utilizado para realizar funciones específicas (más allá de las básicas), no
estrictamente necesarias para el funcionamiento de la computadora.
Cualquier actividad de computación se vale de dos funciones fundamentales:
Una función de control que interpreta las instrucciones y vela para que realicen el orden
adecuado
Una función de ejecución que realiza cálculos concretos tales como sumas
multiplicaciones etc.
En consecuencia los elementos principales de un computador que realizan las funciones
anteriores según el modelo de Von Neuman son:
1. La unidad de memoria UM, efectúa las operaciones de almacenamiento de
instrucciones y los datos
2. La unidad de control UCP (Unidad central de proceso) o procesador es la
encargada de interpretar, secuenciar las instrucciones y realizar los cálculos
3. Las Unidades de entrada y salida que transfiere las instrucciones a la UCP
32
32
Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar instrucciones
programadas y almacenadas en su memoria; consisten básicamente en operaciones aritmético-
lógicas y de entrada/salida. Se reciben las entradas (datos), se las procesa y almacena
(procesamiento), y finalmente se producen las salidas (resultados del procesamiento). Por ende
todo sistema informático tiene, al menos, componentes y dispositivos hardware dedicados a
alguna de las funciones antedichas;a saber:
1. Procesamiento: unidad central de procesamiento
2. Almacenamiento: Memorias
Desde un punto de vista básico y general, un dispositivo de entrada es el que provee el medio
para permitir el ingreso de información, datos y programas (lectura); un dispositivo de salida
brinda el medio para registrar la información y datos de salida (escritura); la memoria otorga la
capacidad de almacenamiento, temporal o permanente (almacenamiento); y la CPU provee la
capacidad de cálculo y procesamiento de la información ingresada (transformación).
Un periférico mixto es aquél que puede cumplir funciones tanto de entrada como de salida; el
ejemplo más típico es el disco rígido (ya que en él se lee y se graba información y datos).
33
33
Un servidor de red o una máquina de cálculo de alto rendimiento (supercomputación), puede tener
varios, incluso miles de microprocesadores trabajando simultáneamente o en paralelo
multiprocesamiento ); en este caso, todo ese conjunto conforma la CPU de la máquina.
Las unidades centrales de proceso (CPU) en la forma de un único microprocesador no sólo están
presentes en las computadoras personales (PC), sino también en otros tipos de dispositivos que
incorporan una cierta capacidad de proceso o "inteligencia electrónica", como pueden ser:
controladores de procesos industriales, televisores, automóviles, calculadores, aviones, teléfonos
móviles, electrodomésticos, juguetes y muchos más. Actualmente los diseñadores y fabricantes más
populares de microprocesadores de PC son Intel y AMD; y para el mercado de dispositivos móviles
y de bajo consumo, los principales son Samsung, Qualcomm y Texas Instruments
La tendencia de integración ha hecho que la placa base se convierta en un elemento que incluye a la
mayoría de las funciones básicas (vídeo, audio, red, puertos de varios tipos), funciones que antes se
realizaban con tarjetas de expansión. Aunque ello no excluye la capacidad de instalar otras tarjetas
adicionales específicas, tales como captadoras de vídeo, tarjetas de adquisición de datos , etc.
También, la tendencia en los últimos años es eliminar elementos separados en la placa base e
integrarlos al microprocesador. En ese sentido actualmente se encuentran sistemas denominados
System on a Chip que consiste en un único circuito integrado que integra varios módulos
electrónicos en su interior, tales como un procesador, un controlador de memoria, una GPU, Wi-
Fi, Bluetooth, etc. La mejora más notable en esto está en la reducción de tamaño frente a igual
34
34
funcionalidad con módulos electrónicos separados. Las principales funciones que presenta una
placa base son:
Conexión física
Administración, control y distribución de energía eléctrica
Comunicación de datos
Temporización
Sincronismo
Control y monitoreo
35
35
apaga la computadora. Por eso se le conoce como memoria temporal o volátil.
2.1.4.2 Read Only Memory (ROM) (memoria de solo lectura). Es permanente no puede ser
alterada y se utiliza para guardar el firmware del ordenador ejemplo la BIOS(Basic input output
System)
2.1.5. Periféricos
Se entiende por periférico a las unidades o dispositivos que permiten a la computadora comunicarse
con el exterior, esto es, tanto ingresar como exteriorizar información y datos. Los periféricos son los
que permiten realizar las operaciones conocidas como de entrada/salida (E/S).
De esta categoría son aquellos que permiten el ingreso de información, en general desde alguna
fuente externa o por parte del usuario. Los dispositivos de entrada proveen el medio fundamental
para transferir hacia la computadora (más propiamente al procesador) información desde alguna
fuente, sea local o remota. También permiten cumplir la esencial tarea de leer y cargar en memoria
el sistema operativo y las aplicaciones o programas informáticos , los que a su vez ponen operativa la
computadora y hacen posible realizar las más diversas tareas.
Entre los periféricos de entrada se puede mencionar: teclado, mouse o ratón, escáner, micrófono,
cámara web, lectores ópticos de código de barras, Joystick, lectora de CD, DVD o BluRay (solo
lectoras), placas de adquisición/conversión de datos, etc.
Pueden considerarse como imprescindibles para el funcionamiento, (de manera cómo hoy se concibe
la informática) al teclado, al ratón y algún dispositivo lector de discos; ya que tan sólo con ellos el
hardware puede ponerse operativo para un usuario. Los otros son más bien accesorios, aunque en la
actualidad pueden resultar de tanta necesidad que son considerados parte esencial de todo el sistema.
36
36
2.1.5.2 Dispositivos de salida de información (S)
Son aquellos que permiten emitir o dar salida a la información resultante de las operaciones
realizadas por la CPU (procesamiento).
Los dispositivos más comunes de este grupo son los monitores clásicos (no de pantalla táctil), las
impresoras, y los altavoces.
Entre los periféricos de salida puede considerarse como imprescindible para el funcionamiento del
sistema, al monitor. Otros, aunque accesorios, son sumamente necesarios para un usuario que opere
un computador modern
Si bien se puede clasificar al pendrive (lápiz de memoria), memoria flash o memoria USB o
unidades de estado sólido en la categoría de memorias, normalmente se los utiliza como dispositivos
de almacenamiento masivo; siendo todos de categoría Entrada/Salida.15
Los dispositivos de almacenamiento masivo también son conocidos como "Memorias Secundarias o
Auxiliare. Entre ellos, sin duda, el disco duro ocupa un lugar especial, ya que es el de mayor
importancia en la actualidad, en el que se aloja el sistema operativo, todas las aplicaciones,
utilitarios, etc. que utiliza el usuario; además de tener la suficiente capacidad para albergar
información y datos en grandes volúmenes por tiempo prácticamente indefinido. Los servidores
Web, de correo electrónico y de redes con bases de datos, utilizan discos rígidos de grandes
37
37
capacidades y con una tecnología que les permite trabajar a altas velocidades como SCSI incluyendo
también, normalmente, capacidad de redundancia de datos RAID; incluso utilizan tecnologías
híbridas: disco rígido y unidad de estado sólido, lo que incrementa notablemente su eficiencia. Las
interfaces actuales más usadas en discos duros son: IDE, SATA, SCSI y SAS; y en las unidades de
estado sólido son SATA y PCI-Express ya que necesitan grandes anchos de banda.
La pantalla táctil (no el monitor clásico) es un dispositivo que se considera mixto, ya que además de
mostrar información y datos (salida) puede actuar como un dispositivo de entrada, reemplazando,
por ejemplo, a algunas funciones del ratón o del teclado.
COMPUTA
UTADOR
A CENTRAL
CPU
38
38
UNIDAD UNIDAD
DE UNIDAD
DE
ENTRAD DE
MEMORIA
SALID
A PRINCIPA A
L
UNIDADES DE
MEMORIAS MASIVAS
u
N
I
D
A
D
E
S
D
E
M
E
M
O
R
I
A
M
A
S
I
V
A
39
39
Hardware gráfico
40
40
2.2. CLASIFICACIÓN DE LAS COMPUTADORAS
Las computadoras, como las conocemos en la actualidad, pertenecen al grupo de sistemas
digitales, se pueden clasificar por su capacidad de proceso en:
Supercomputadoras: Son las más potentes y son utilizadas por UNAM, NASA, etc., su
precio es de varios millones de dólares y tienen la capacidad de proceso de Billones de
operaciones por segundo.
Microcomputadoras: Son las computadoras personales (PC) y son las más populares,
estas se utilizan en las escuelas, oficinas, etc.
41
41
42
42
CAPÍTULO 3
SOFTWARE DE APLICACIÓN
Y SISTEMA OPERATIVO
43
43
Concepto general
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como
el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de
textos; el llamado software de sistema, tal como el sistema operativo, que básicamente permite al
resto de los programas funcionar adecuadamente, facilitando también la interacción entre los
componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario.
Existen varias definiciones similares aceptadas para software, pero probablemente la más formal
sea la siguiente:
Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados, que
forman parte de las operaciones de un sistema de computación (estándar 729 del IEEE5).
Sistemas operativos
Controladores de dispositivos
Interfaz grafica
44
44
Software de programación: Es el conjunto de herramientas que permiten al programador desarrollar
programas informáticos, usando diferentes alternativas y lenguajes de programación, de una manera
práctica. Incluyen básicamente:
Editores de texto
Compiladores
Intérpretes
Enlazadores
Depuradores
Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias tareas
específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial
énfasis en los negocios. Incluye entre muchos otros:
Aplicaciones ofimáticas
Software educativo
Software empresarial
Bases de datos
Videojuegos
Software médico
45
45
Paquetes comprados: Programa o conjunto de programas ya escritos, diseñados para ejecutar
tareas específicas. Las preguntas clave son:
¿Tiene el paquete las características adecuadas a un costo razonable?
Es aceptable el costo en relación con el costo de desarrollo convencional o propio?
¿Es suficiente el número de usuarios de ese programa para garantizar que quienes lo
elaboran respaldaran el paquete después de comprado?
46
46
EL Sistema Operativo:
Intérprete:
El S.O. actúa como intérprete entre las Aplicaciones o Programas y el Hardware. Las aplicaciones no
interactúan directamente sobre el hardware sino que se apoyan en el sistema operativo.
Las Aplicaciones, dependen totalmente del sistema operativo que se esté utilizando. Es necesario obtener
una versión de la aplicación para cada Sistema Operativo que queramos usar.
Mecanismos de comunicación entre procesos: permiten comunicar a dos procesos del sistema
operativo.
47
47
2. Administración de memoria principal
La memoria es como un gran almacén con casillas (bytes)) a los que se accede mediante una dirección
única. Este almacén de datos es compartido por la CPU y los dispositivos de E/S.
3. Administración de ficheros
Gestiona la manera en que la información se almacena en dispositivos de entrada/salida que
permiten el almacenamiento estable.
4. Gestión de los dispositivos de entrada/salida (driver)
Parte del sistema operativo que conoce los detalles específicos de cada dispositivo, lo que permite
poder operar con él.
Además, el sistema operativo ofrece:
Lanzador de aplicaciones: permite el lanzamiento de un programa. Esto incluye los intérpretes de
órdenes textuales y los basados en gestores de ventanas.
Llamadas al sistema: conjunto de servicios que los procesos pueden solicitar al sistema operativo.
Definición breve: llamadas que ejecutan los programas de aplicación para pedir algún servicio al SO.
Cada llamada al nuevo SO tiene que dar los mismos resultados que la correspondiente del
anterior.
48
Llamadas al sistema 48
Una aplicación, normalmente no sabe dónde está situada la rutina de servicio de la llamada. Por lo
que si ésta se codifica como una llamada de función, cualquier cambio en el S.O. haría que hubiera
que reconstruir la aplicación.
Pero lo más importante es que una llamada de función no cambia el modo de ejecución de la CPU.
Con lo que hay que conseguir llamar a la rutina de servicio, sin tener que conocer su ubicación, y
hacer que se fuerce un cambio de modo de operación de la CPU en la llamada (y la recuperación del
modo anterior en el retorno).
Esto se hace utilizando instrucciones máquina diseñadas específicamente para este cometido,
distintas de las que se usan para las llamadas de función.
La aplicación llama a una función de la biblioteca de interfaz (mediante una llamada normal) y esa
función es la que realmente hace la llamada al sistema.
Interrupciones y excepciones
El SO ocupa una posición intermedia entre los programas de aplicación y el hardware. No se limita a
utilizar el hardware a petición de las aplicaciones ya que hay situaciones en las que es el hardware el
que necesita que se ejecute código del SO. En tales situaciones el hardware debe poder llamar al
sistema, pudiendo deberse estas llamadas a dos condiciones:
Se ha producido una situación de error al intentar ejecutar una instrucción del programa
(normalmente de la aplicación).
En ambos casos, la acción realizada no está ordenada por el programa de aplicación, es decir, no
figura en el programa.
Interrupción: señal que envía un dispositivo de E/S a la CPU para indicar que la operación de
la que se estaba ocupando, ya ha terminado.
Excepción: una situación de error detectada por la CPU mientras ejecutaba una instrucción,
que requiere tratamiento por parte del SO.
49
49
El tratamiento depende de cuál sea el dispositivo de E/S que ha causado la interrupción, ante la cual
debe poder identificar el dispositivo que la ha causado.
La ventaja de este procedimiento es que no se tiene que perder tiempo ejecutando continuamente
rutinas para consultar el estado del periférico. El inconveniente es que el dispositivo debe tener los
circuitos electrónicos necesarios para acceder al sistema de interrupciones del computador.
Excepciones
Cuando la CPU intenta ejecutar una instrucción incorrectamente construida, la unidad de control lanza
una excepción para permitir al SO ejecutar el tratamiento adecuado. Al contrario que en una
interrupción, la instrucción en curso es abortada. Las excepciones al igual que las interrupciones
deben estar identificadas.
Clases de excepciones
Las instrucciones de un programa pueden estar mal construidas por diversas razones:
La dirección de algún operando puede ser incorrecta o se intenta violar alguno de sus
permisos de uso.
El mecanismo de tratamiento de las excepciones es esencial para impedir, junto a los modos de
ejecución de la CPU y los mecanismos de protección de la memoria, que las aplicaciones realicen
operaciones que no les están permitidas. En cualquier caso, el tratamiento específico de una
excepción lo realiza el SO.
Como en el caso de las interrupciones, el hardware se limita a dejar el control al SO, y éste es el que
trata la situación como convenga.
Es bastante frecuente que el tratamiento de una excepción no retorne al programa que se estaba
ejecutando cuando se produjo la excepción, sino que el SO aborte la ejecución de ese programa. Este
factor depende de la pericia del programador para controlar la excepción adecuadamente.
50
50
Evolución de los Sistemas Operativos
51
51
Quinta generación (2000-...)
• Aparición de las computadoras de bolsillo (PDA, Personal Digital
Assistant) como ampliación de las agendas electrónicas.
• Los S.O. se adaptan a estas nuevas computadoras y teléfonos móviles
(mucho más pequeños que una computadora).
52
52
Tipos de Sistemas Operativos
o MULTITAREA: los que permiten ejecutar varias tareas o programas al mismo tiempo
ADMINISTRACIÓN DE USUARIOS
o MONOUSUARIO: aquellos que sólo permiten trabajar a un usuario, como es el caso de los
ordenadores personales
o MULTIUSUARIO: los que permiten que varios usuarios ejecuten sus programas a la vez.
Máquina Virtual
Se trata de un tipo de sistemas operativos que presentan una interface a cada proceso, mostrando
una máquina que parece idéntica a la máquina real subyacente. Estos sistemas operativos separan
dos conceptos que suelen estar unidos en el resto de sistemas: la multiprogramación y la máquina
extendida. El objetivo de los sistemas operativos de máquina virtual es el de integrar distintos
sistemas operativos dando la sensación de ser varias máquinas diferentes. Es un software.
La estructura de este sistema operativo maquina virtuales parte principalmente de un Kernel que se
le denomina como monitor de la máquina virtual lo cual este se ejecuta sobre el hardware
generando así varias máquinas virtuales formando lo que se llama la multiprogramación
53
53
MANEJO DE RECURSOS O ACCESO A SERVICIOS
Simétrica: en este tipo se envía información o se trabaja con el procesador con menos carga y así
se distribuye mejor el trabajo, los procesos son enviados indistintamente a cualquiera de los
procesadores disponibles.
54
54
En este gráfico de StatCounter, que comprende el periodo desde el 01.01.13 a 15.09.13 [Operating
System,"Market Share Perc. (W01 to W38 2013)"] y que incluye tanto sistemas operativos de
escritorio como móviles, vemos que los datos a favor de Microsoft son demoledores:
MS Windows: 85'61% (Win7:52.77 + WinXP: 22 + WinVista: 5.81 + Win8: 5.03)
Apple iOS: 4%
GNU/Linux: 1.15
Microsoft copa más de un 85% del mercado global de sistemas operativos; el MacOS X de Apple
no llega al 8% y GNU/Linux se hunde a poco más de un uno por ciento.
En cuanto a su filosofía de construcción, el único sistema operativo 100% libre es GNU/Linux;
pues Android, aunque basado en linux sobre una licencia libreGPLv2, tiene varias partes del
sistema propiedad de distintas compañías.
Tanto Windows como OSX e iOS son software propietario, aunque los sistemas operativos de
Apple estén basados en una distribución de GNU/Linux llamada BSD (Berkley Sofwtare
Distribution)
55
55
Microsoft Windows
Microsoft Windows es el nombre que recibe la familia de sistemas operativos desarrollada por
Microsoft, basada (obviamente) en ventanas. Ostenta el liderazgo absoluto en el mercado de
sistemas operativos para ordenadores (sobremesa y portátiles), y su último lanzamiento lo ha
constituido Windows 8, listo para su disponibilidad general en octubre de 2012.
En su versión 1.0 de noviembre de 1985 Windows fue, más que un sistema operativo, una
extensión gráfica de MS-DOS. No fue hasta la versión 3.0 de 1990 en que Windows alcanzó un
mínimo grado de estabilidad y funcionalidad, y en la versión 3.11 de 1992 se mejoraron algunos
problemas.
Windows 95 supuso un gran paso adelante en la evolución del sistema, que aún así seguía siendo
relativamente inestable.
No fue sino hasta el lanzamiento de Windows XP en octubre de 2001, construido sobre el kernel
de Windows NT, que Windows alcanzó su madurez como sistema operativo.
Sin embargo, en enero de 2007 Microsoft volvió a las andadas con el gran fiasco de Windows
Vista, una versión inestable, lenta y que exigía de grandes recursos para su funcionamiento. Aún
en equipos potentes, Vista no acababa de ir fluido, y su versión básica, que según las
especificaciónes requería 512MB de RAM para ser funcional, terminó por necesitar en realidad
4GB, ocho veces más de lo inicialmente previsto. Windows Vista fue un fracaso comercial, con
Microsoft teniendo que autorizar los downgrades (regresar a XP desde Vista) de usuarios
corporativos descontentos del rendimiento de sus equipos con Vista.
Windows 7 supuso un gran éxito en comparación con Vista: el sistema se diseñó como una mejora
incremental, sin añadir un excesivo número de nuevas funcionalidades, y tanto el desempeño
general como la estabilidad fueron bastante buenas.
Finalmente, en octubre de 2012 Microsoft lanzó su gran apuesta de futuro para enfrentarse a su
gran rival de siempre, Apple: Windows 8 y su renovada interfaz Metro (Modern UI), un
completo y arriesgado rediseño del paradigma de usabilidad que ha desconcertado a los
tradicionales usuarios de Windows. Por vez primera desde Win95, el botón de inicio ya no está
en la barra de tareas.
56
56
El rediseño de la interfaz obedece a la necesidad de Microsoft de enfrentarse a su bestia negra
Apple, que con el lanzamiento del iPad logró una novedad disruptiva que abrió todo un nuevo
segmento de mercado, el de las tablets, e inaguró una nueva era: la era post-PC. Malas noticias
para Microsoft, cuyo principal bastión se encuentra precisamente en los ordenadores personales
(Sistemas operativos y el paquete ofimático Office) y que en absoluto estaba posicionado ni en el
nuevo mercado de las tablets ni en el pujante de los smartphones, donde Android e iOS se reparten
el pastel.
Windows 10, plantea una unificación de la interfaz de usuario para todos los dispositivos:
ordenadores personales, tablets y smartphones.
OS X
57
57
La 'X' hace referencia al número 10 en números romanos y es parte fundamental de la identidad
corporativa de la marca.
OS X es el sistema operativo de uso general más avanzado que existe: desde la versión 10.5 es,
además, un sistema certificado UNIX 03
58
58
Tim Berners-Lee, el fundador de la web tal como la conocemos hoy en día, usó un NeXT
Computer para sus investigaciones en el CERN (Organización Europea para la Investigación
Nuclear, del francés Conseil Européen pour la Recherche Nucléaire), y un NeXT fue precisamente
el primer servidor web del mundo, en el citado CERN.
GNU/Linux
Corría abril de 1991 cuando un joven estudiante finlandés de 21 años, Linus Torvalds, comenzó a
trabajar en la tarea de crear el kernel de un sistema operativo (SO) gratuito, similar a Unix, al estar
disconforme con las características de Minix, un SO usado por aquel entonces en entornos
educativos.
Fue el 26 de agosto de 1991 cuando Linus publicó aquel histórico mensaje en el grupo de noticias
(newsgroups, una aplicación similar a los actuales foros, pero en la red Usenet) comp.os.minix:
"Estoy haciendo un sistema operativo (gratuito, sólo un hobby, no será nada grande ni
profesional como GNU) para clones AT 386(486). Llevo en ello desde abril y está empezando a
estar listo. Me gustaría saber su opinión sobre
59las cosas que les gustan o disgustan en minix, ya
que mi SO tiene algún parecido con él.[...] 59Actualmente he portado bash(1.08) y gcc(1.40), y
parece que las cosas funcionan. Esto implica que tendré algo práctico dentro de unos meses..."
Comenzaba la historia de lo que, pasado el tiempo, acabaría convirtiéndose en Linux (combinación
de Linus + UNIX) o, mejor dicho, GNU/Linux.
60
60
Algunas de las distribuciones tienen soporte comercial (hay empresas que se dedican a ofrecer
soluciones basadas en ellas), como Fedora (Red Hat), Ubuntu (la sudafricana Canonical),
openSUSE (Novell) o Mandriva (de la compañía gala de idéntico nombre), mientras que otras
distribuciones están mantenidas por la comunidad de usuarios y desarrolladores, que contribuyen
libremente y de forma altruista (Debian o Gentoo).
En España, las administraciones autonómicas han fomentado la creación de sus propias
distribuciones de GNU/Linux para aprovechar mejor los recursos públicos en el terreno educativo,
y no malgastarlos en el pago de licencias para sistemas y aplicaciones propietarias.
Extremadura con su gnuLinEx se ha situado como región pionera en el apoyo y desarrollo de
software libre; la Comunitat Valenciana, por su parte, ha desarrollado Lliurex para facilitar el
acceso a las TIC (Tecnologías de la Información y las Comunicaciones) al conjunto de la
comunidad educativa valenciana.
61
61
En la actualidad, las distros más extendidas son Ubuntu (basada en Debian) y Linux Mint, a su vez
basada en Ubuntu y muy centrada en la usabilidad y en la facilidad de instalación. Es ideal para los
usuarios sin experiencia previa en Linux.
Te animamos a que pruebes e instales una distribución de GNU/Linux. Como te hemos comentado,
Linux Mint o Ubuntu son ideales para comenzar. Además del sistema operativo en sí, tienes a tu
disposición aplicaciones equivalentes a las que más usas en Window u OSX: navegadores
(Chromium o Firefox), paquetes ofimáticos (Open Office o Libre Office, totalmente compatibles
con MS Office), editores gráficos (GIMP), visualizadores y editores de imágenes (XnView,
Gwenview), reproductores para mp3's (XMMS, Banshee, RhytmBox) o vídeo (VLC, xine,
MPlayer).
62
62
CAPÍTULO 4
LENGUAJES DE PROGRAMACION
63
63
Lenguajes
Los lenguajes naturales son aquellos con los cuales hablamos y escribimos en nuestras actividades
cotidianas. Los lenguajes de programación ocupan una posición intermedia entre los lenguajes
naturales humanos y los precisos lenguajes de máquina.
Gracias a la progresiva complejidad de los lenguajes traductores que permiten convertir las
instrucciones de un lenguaje de programación al lenguaje de máquina, la programación puede usar
lenguajes de computación que se parecen cada vez más a los lenguajes naturales.
También se habla de lenguajes naturales para referirse al software que permite que los sistemas de
computación acepten, interpreten y ejecuten instrucciones en el lenguaje materno o "natural" que habla
el usuario final, por lo general el inglés. La mayor parte de los lenguajes naturales comerciales están
diseñados para ofrecer a los usuarios un medio de comunicarse con una base de datos corporativa o
con un sistema experto.
Lenguajes de programación
Un lenguaje de programación consiste en un conjunto de órdenes o comandos que describen el proceso
deseado. Cada lenguaje tiene sus instrucciones y enunciados verbales propios, que se combinan para
formar los programas de cómputo.
Los lenguajes de programación no son aplicaciones, sino herramientas que permiten construir y
adecuar aplicaciones.
Características de la programación
1. Exactitud y precisión: Un programa debe aceptar datos, procesarlos y generar resultados sin
errores de sintaxis o de lógica; de ahí la necesidad de exactitud y precisión.
2. Integridad o completitud: U n programa es completo sólo si ejecuta todas las operaciones
que el usuario espera al procesar un conjunto de datos.
3. Generalidad: La generalidad se entiende en dos sentidos:
El programa contiene diferentes opciones que pueden o no ser aplicadas durante una
corrida. Los usuarios pueden seleccionar la opción adecuada cada vez.
64
64
4. Eficiencia: Debe asegurarse que las instrucciones para procesar datos se selecciones tan rápida
y fácilmente como sea posible. La rapidez y la eficiencia del procesamiento de datos puede variar
debido a:
5. Documentación: Consiste en la inclusión de auxiliares que explican con claridad como ocurre el
procesamiento de los datos en un programa. La documentación incluida en un programa es de dos
tipos:
Externa: No está incluida en el programa mismo sino que va por separado. Comprende:
o diagrama de flujo que muestre los pasos y los procedimientos y el
orden en el cual tienen lugar;
o explicación que describa en el lenguaje común cómo es el procesamiento de los
datos;
o descripción de los datos que van a introducirse y procesarse, incluyendo
su tipo y tamaño.
Interna: Consiste en comentarios y descripciones que se insertan entre los enunciados
ejecutables de un programa. Explica la sucesión de los pasos del procesamiento y los
objetivos de los diferentes grupo de enunciados del programa
bajo nivel: Son dependientes de la máquina, están diseñados para ejecutarse en una determinada
computadora. A esta categoría pertenecen las 2 primeras generaciones.
Alto Nivel: Son independientes de la máquina y se pueden utilizar en una variedad de
computadoras. Pertenecen a esta categoría la tercera y la cuarta generación. Los lenguajes de más
alto nivel no ofrecen necesariamente mayores capacidades de programación, pero si ofrecen una
interacción programador/computadora más avanzada. Cuanto más alto es el nivel del lenguaje,
más sencillo es comprenderlo y utilizarlo.
Cada generación de lenguajes es más fácil de usar y más parecida a un lenguaje natural que su
predecesores. Los lenguajes posteriores a la cuarta generación se conocen como lenguajes de muy alto
nivel. Son lenguajes de muy alto nivel los generadores de aplicaciones y los naturales.
En cada nuevo nivel se requieren menos instrucciones para indicar a la computadora que
efectúe una tarea particular. Pero los lenguajes de alto nivel son sólo una ayuda para el
programador. Un mayor nivel significa que son necesarios menos comandos, debido a que cada
comando o mandato de alto nivel reemplaza muchas instrucciones de nivel inferior.
65
65
1. Primera - Lenguaje de máquina : Empieza en los años 1940-1950.
Consistía en sucesiones de dígitos binarios. Todas las instrucciones y mandatos se escribían
valiéndose de cadenas de estos dígitos. Aún en la actualidad, es el único lenguaje interno que
entiende la computadora; los programas se escriben en lenguajes de mayor nivel y se traducen a
lenguaje de máquina.
2. Segunda – Lenguajes ensambladores: Fines de los ’50. Se diferencian de los lenguajes de máquina
en que en lugar de usar códigos binarios, las instrucciones se representan con símbolos fáciles de
reconocer, conocidos como mnemotécnicos ,. Aún se utilizan estos lenguajes cuando interesa un
nivel máximo de eficiencia en la ejecución o cuando se requieren manipulaciones intrincadas. Al igual que
los lenguajes de la máquina, los lenguajes ensambladores son únicos para una
computadora particular. Esta dependencia de la computadora los hace ser lenguajes de bajo nivel.
3. Tercera: años ’60. Los lenguajes de esta generación se dividen en tres categorías, según se orienten
a:
66
66
Pasos en el desarrollo de programas
1. Descripción del problema: Identificación precisa de las necesidades a satisfacer.
2. Análisis del problema: D i v i s i ó n del problema en sus componentes básicos. Para la
mayoría de los programas estos componentes son:
3. Diseño de la lógica general del programa: Luego del análisis corresponde unir
todas las piezas. Un programa se diseña jerárquicamente, yendo de los aspectos
generales a los aspectos específicos. El diseño general se orienta a las principales actividades de
procesamiento y a las relaciones entre éstas. Al completar primero un diseño general se
pueden investigar distintas alternativas de diseño; luego de elegida la mejor se avanza a un diseño
más detallado.
4. Diseño de la lógica detallada del programa: Se produce una representación gráfica
de la lógica del programa que incluye todas las actividades de procesamiento y sus
relaciones, cálculos, manejos de datos, operaciones lógicas y todas las operaciones de
entrada/salida.
5. Codificación: Se traduce el diseño gráfico y narrativo de los pasos anteriores a instrucciones
o programas que la máquina puede leer.
6. Prueba y depuración: Búsqueda y eliminación de errores de sintaxis y de lógica.
7. Documentación: Para responder a las necesidades a pesar los cambios los programas deben
actualizarse periódicamente o mantenerse. El mantenimiento se dificulta si la documentación no está
completa y actualizada. La documentación forma parte del proceso de
programación. No es algo que se lleve a cabo cuando el programa está escrito. Como mínimo la
documentación de cada programa debe incluir:
Errores en la programación
de sintaxis: Violaciones de las reglas "gramaticales" del lenguaje de programación para la escritura
de instrucciones. Ejemplos:
Inclusión de símbolos o caracteres que no están permitidos. Omisión de la referencia de los
datos por leer o escribir (se tiene
que indicar a la CPU qué debe leer o escribir). Escritura errónea de una orden.
de lógica : Consisten en el uso inadecuado de instrucciones que son correctas en sintaxis; son
errores en la estructura lógica que ocasionan diferencian entre lo que se quiere que haga el
programa y lo que hace en realidad.
67
67
PROGRAMAS
Los programas de computación son conjuntos o estructuras de instrucciones u órdenes codificados
que hacen que la computadora efectúe una serie de operaciones para alcanzar un propósito
específico.
Se llama programado a los conjuntos o series de instrucciones, lenguaje y métodos que hacen
posible que una persona utilice una computadora. En sentido general el programado es un conjunto
de órdenes o mandatos puestos para controlar la operación de un sistema de cómputo para efectuar el
cálculo y el procesamiento de datos. El objetivo primario es controlar todas las actividades de
procesamiento de datos y cerciorarse que los recursos y la capacidad de la computadora sean
aprovechados de la manera más eficaz.
En esta programación se maneja en forma jerárquica la lógica del programa en módulos lógicos. Al final
se traduce la lógica de cada módulo a una secuencia de instrucciones del programa que se pueden ejecutar
de manera independiente. El planteamiento estructurado reduce la complejidad de la tarea de programación.
Está formado por módulos lógicamente coherentes; los módulos están dispuestos en una jerarquía;
y es directo y legible.
68
68
La programación orientada a objetos o POO
Es un paradigma de programación que usa los objetos en sus interacciones, para diseñar aplicaciones y
programas informáticos. Está basado en varias técnicas, incluyendo herencia, cohesión, abstracción, polimorfismo,
acoplamiento y encapsulamiento. Su uso se popularizó a principios de la década de los años 1990
Herencia
es la facilidad mediante la cual la clase D hereda en ella cada uno de los atributos y operaciones de
C, como si esos atributos y operaciones hubiesen sido definidos por la misma D. Por lo tanto,
puede usar los mismos métodos y variables públicas declaradas en C. Los componentes
registrados como "privados" (private) también se heredan, pero como no pertenecen a la clase, se
mantienen escondidos al programador y sólo pueden ser accedidos a través de otros métodos
públicos. Esto es así para mantener hegemónico el ideal de POO.
Objeto
Método
ES el comportamiento de una clase, es lo que el objeto de la clase puede hacer. Un método puede
producir un cambio en las propiedades del objeto, o la generación de un "evento" con un nuevo
mensaje para otro objeto del sistema.
Evento
Es un suceso en el sistema (tal como una interacción del usuario con la máquina, o un mensaje
enviado por un objeto). El sistema maneja el evento enviando el mensaje adecuado al objeto
pertinente. También se puede definir como evento la reacción que puede desencadenar un
objeto; es decir, la acción que genera.
69
69
Atributos
Propiedad o atributo
Contenedor de un tipo de datos asociados a un objeto (o a una clase de objetos), que hace los
datos visibles desde fuera del objeto y esto se define como sus características predeterminadas, y
cuyo valor puede ser alterado por la ejecución de algún método.
Características de la POO
Existe un acuerdo acerca de qué características contempla la "orientación a objetos". Las
características siguientes son las más importantes:
Abstracción
Cada objeto en el sistema sirve como modelo de un "agente" abstracto que puede realizar
trabajo, informar y cambiar su estado, y "comunicarse" con otros objetos en el sistema sin revelar
cómo se implementan estas características.
Encapsulamiento
Significa reunir todos los elementos que pueden considerarse pertenecientes a una misma
entidad, al mismo nivel de abstracción. Esto permite aumentar la cohesión de los componentes
del sistema..
Modularidad
Se denomina modularidad a la propiedad que permite subdividir una aplicación en partes más
pequeñas (llamadas módulos), cada una de las cuales debe ser tan independiente como sea
posible de la aplicación en sí y de las restantes partes.
Polimorfismo
Herencia
Las clases no se encuentran aisladas, sino que se relacionan entre sí, formando una jerarquía de
clasificación. Los objetos heredan las propiedades y el comportamiento de todas las clases a las
que pertenecen. La herencia organiza y facilita el polimorfismo y el encapsulamiento, permitiendo
a los objetos ser definidos y creados como tipos especializados de objetos preexistentes
70
70
Recolección de basura
Los traductores son programas elaborados que convierten los programas escritos en un lenguaje de
programación en pulsos eléctricos que el sistema de cómputo puede entender, es decir los transforman en
lenguaje de máquina. Los programas de traducción pueden ser:
una sola pasada: examina el código fuente una vez, generando el código o programa
objeto.
pasadas múltiples : requieren pasos intermedios para producir un código en otro
lenguaje, y una pasada final para producir y optimizar el código producido durante los
pasos anteriores.
También hay compiladores incrementales que generan un código objeto instrucción por
instrucción (en vez de hacerlo para todo el programa) cuando el usuario teclea cada orden
individual. El otro tipo de compiladores requiere que todos los enunciados o instrucciones
se compilen conjuntamente.
El proceso de compilación puede requerir tiempo, sobre todo para los programas grandes,
pero los programas compilados tienden a ejecutarse con mayor rapidez que los programas
interpretados. La recopilación sólo es necesaria cuando se modifica el programa.
La desventaja es que no produce un programa objeto, por lo que debe realizar el proceso de
traducción cada vez que se ejecuta un programa.
71
71
CLASIFICACION DE LAS PRINCIPALES LENGUAJES DE PROGRAMACION (Alto
Nivel)
Cobol. Que quiere decir COmmon Business Oriented Lenguaje (lenguaje orientado a
negocios comunes) fue desarrollado en 1960. este antiguo lenguaje de alto nivel posee algunas
de las declaraciones más parecidas al idioma inglés, en comparación con cualquier otro
lenguaje de computo. Lo que facilito su lectura pero no la escritura debido a la gran variedad
de verbosidad extra.
Basic. Que quiere decir Baginners All purpose Symbolic Instruction Code (código de
instrucción simbólica para todo propósito, dirigido a principiantes. Fue desarrollado en 1964,
es un lenguaje con mucho un lenguaje sencillo para que los estudiantes aprendan.
Pascal. Se introdujo en 1971, nombrado así en honor del inventor francés Blaise Pascal, es
un leguaje excelente para aprender a cerca de la programación estructurada.
72
72
73
73
74
74
Ingeniería de software es la aplicación de un enfoque sistemático, disciplinado y cuantificable
al desarrollo, operación y mantenimiento de software,1 y el estudio de estos enfoques, es decir, la
aplicación de la ingeniería al software.2 Integra matemáticas, ciencias de la computación y
prácticas cuyos orígenes se encuentran en la ingeniería.3
Se citan las definiciones más reconocidas, formuladas por prestigiosos autores:
Ingeniería de software es el estudio de los principios y metodologías para el desarrollo y
mantenimiento de sistemas software (Zelkovitz, 1978).
Historia
Artículo principal: Historia de la ingeniería del software
Cuando aparecieron las primeras computadoras digitales en la década de 1940, 8 el desarrollo de
software era algo tan nuevo que era casi imposible hacer predicciones de las fechas estimadas de
finalización del proyecto y muchos de ellos sobrepasaban los presupuestos y tiempo estimados.. Los
desarrolladores tenían que volver a escribir todos sus programas para correr en máquinas nuevas que
salían cada uno o dos años, haciendo obsoletas las ya existentes.
El término Ingeniería del software apareció por primera vez a finales de la década de 1950. La
Ingeniería de software fue estimulada por la crisis del software de las décadas de entre 1960 y
1980. La Ingeniería del software viene a ayudar a identificar y corregir mediante principios y
metodologías los procesos de desarrollo y mantenimiento de sistemas de software.
Aparte de la crisis del software de las décadas de entre 1960 y 1980, la ingeniería de software se
ve afectada por accidentes que conllevaron a la muerte de tres personas; esto sucedió cuando la
máquina de radioterapia Therac-25 emite una sobredosis masiva de radiación y afecto contra la
vida de estas personas.9 Esto remarca los riesgos de control por software,10 afectando
directamente al nombre de la ingeniería de software.
A principios de los 1980,11 la ingeniería del software ya había surgido como una genuina
profesión, para estar al lado de las ciencias de la computación y la ingeniería tradicional. Antes
de esto, las tareas eran corridas poniendo tarjetas perforadas como entrada en el lector de tarjetas
de la máquina y se esperaban los resultados devueltos por la impresora.
Debido a la necesidad de traducir frecuentemente el software viejo para atender las necesidades
de las nuevas máquinas, se desarrollaron lenguajes de orden superior. A medida que apareció el
software libre, las organizaciones de usuarios comúnmente lo liberaban.
Durante mucho tiempo, solucionar la crisis del software fue de suma importancia para
investigadores y empresas que se dedicaban a producir herramientas de software.
Para la década de 1980, el costo de propiedad y mantenimiento del software fue dos veces más
caro que el propio desarrollo del software, y durante la década de 1990, el costo de propiedad y
mantenimiento aumentó 30 % con respecto a la década anterior. En 1995, muchos de los
proyectos de desarrollo estaban operacionales, pero no eran considerados exitosos. El proyecto
de software medio sobrepasaba en un 50 % la estimación de tiempo previamente realizada,
además, el 75 % de todos los grandes productos de software que eran entregados al cliente tenían
fallas tan graves, que no eran usados en lo absoluto o simplemente no cumplían con los
requerimientos del cliente.10
Algunos expertos argumentaron que la crisis del software era debido a la falta de disciplina de los
programadores.
Cada nueva tecnología y práctica de la década de 1970 a la de 1990 fue pregonada como la única
solución a todos los problemas y el caos que llevó a la crisis del software. Lo cierto es que la
búsqueda de una única clave para el éxito nunca funcionó. El campo de la ingeniería de software
parece un campo demasiado complejo y amplio para una única solución que sirva para mejorar la
mayoría de los problemas, y cada problema representa sólo una pequeña porción de todos los
problemas de software.
El auge del uso del Internet llevó a un vertiginoso crecimiento en la demanda de sistemas
internacionales de despliegue de información en la World Wide Web. Los desarrolladores se
vieron en la tarea de manejar ilustraciones, mapas, fotografías y animaciones, a un ritmo nunca
antes visto, con casi ningún método para optimizar la visualización y almacenamiento de
imágenes. También fueron necesarios sistemas para traducir el flujo de información en múltiples
idiomas extranjeros a lenguaje natural humano, con muchos sistemas de software diseñados para
uso multilenguaje, basado en traductores humanos.
La ingeniería de software contribuyo alrededor de 90,000 millones de dólares por año ya que
entra en juego el Internet; esto hace que los desarrolladores tuviesen que manejar imágenes
mapas y animaciones para optimizar la visualización/almacenamiento de imágenes (como el uso
de imágenes en miniatura). El uso de los navegadores y utilización de lenguaje HTML cambia
drásticamente la visión y recepción de la información.
Las amplias conexiones de red crea la proliferación de virus informáticos y la basura en los
correos electrónicos (E-mail) esto pone en una carrera contra el tiempo los desarrolladores para
crear nuevos sistemas de bloqueo o seguridad de estas anomalías en la informática ya que se
volvían sumamente tediosas y difíciles de arreglar10
Después de una fuerte y creciente demanda surge la necesidad de crear soluciones de software a bajo
costo, esto conlleva al uso de metodologías más simples y rápidas que desarrollan software funcional.
Cabe señalar que los sistemas más pequeños tenían un enfoque más simple y rápido para poder
administrar el desarrollo de cálculos y algoritmos de software.
Objetivos
La ingeniería de software aplica diferentes normas y métodos que permiten obtener mejores
resultados, en cuanto al desarrollo y uso del software, mediante la aplicación correcta de estos
procedimientos se puede llegar a cumplir de manera satisfactoria con los objetivos fundamentales
de la ingeniería de software.
Entre los objetivos de la ingeniería de software están:
Mejorar el diseño de aplicaciones o software de tal modo que se adapten de mejor manera a las
necesidades de las organizaciones o finalidades para las cuales fueron creadas.
Brindar mayor exactitud en los costos de proyectos y tiempo de desarrollo de los mismos.
Aumentar la eficiencia de los sistemas al introducir procesos que permitan medir mediante
normas específicas, la calidad del software desarrollado, buscando siempre la mejor calidad
posible según las necesidades y resultados que se quieren generar.
Detectar a través de pruebas, posibles mejoras para un mejor funcionamiento del software
desarrollado.12
Recursos
Recurso humano
Son todas aquellas personas que intervienen en la planificación de cualquier instancias de
software (por ejemplo: gestor, ingeniero de software experimentado, etc.), El número de personas
requerido para un proyecto de software sólo puede ser determinado después de hacer una
estimación del esfuerzo de desarrollo...
Recursos de entorno
Es el entorno de las aplicaciones (software y hardware) el hardware proporciona el medio físico
para desarrollar las aplicaciones (software), este recurso es indispensable.13
Implicaciones socioeconómicas
Económicamente
En los Estados Unidos, el software contribuyó a una octava parte de todo el incremento del PIB
durante la década de 1990 (alrededor de 90,000 millones de dólares por año), y un noveno de
todo el crecimiento de productividad durante los últimos años de la década (alrededor de 33.000
millones de dólares estadounidenses por año). La ingeniería de software contribuyó a US$ 1
billón de crecimiento económico y productividad en esa década. Alrededor del globo, el software
contribuye al crecimiento económico de maneras similares, aunque es difícil de encontrar
estadísticas fiables. [cita requerida]
Además, con la industria del lenguaje está hallando cada vez más campos de aplicación a escala
global.
Socialmente
La ingeniería de software cambia la cultura del mundo debido al extendido uso de la
computadora. El correo electrónico (e-mail), la WWW y la mensajería instantánea permiten a la
gente interactuar de nuevas maneras. El software baja el costo y mejora la calidad de los
servicios de salud, los departamentos de bomberos, las dependencias gubernamentales y otros
servicios sociales. Los proyectos exitosos donde se han usado métodos de ingeniería de software
incluyen a GNU/Linux, el software del transbordador espacial, los cajeros automáticos y muchos
otros.
Notaciones
LUM (lenguaje unificado de modelado) o UML
Es un lenguaje de modelado muy reconocido y utilizado actualmente que se utiliza para describir
o especificar métodos. También es aplicable en el desarrollo de software.
Las siglas UML significan lenguaje unificado de modelado esto quiere decir que no pretende
definir un modelo estándar de desarrollo, sino únicamente un lenguaje de modelado.14
Un lenguaje de modelado consiste de vistas, elementos de modelo y un conjunto de reglas:
sintácticas, semánticas y pragmáticas que indican cómo utilizar los elementos.
Herramienta CASE
Las Herramienta CASE son herramientas computacionales (software) que están destinadas a
asistir en los procesos de ciclo de vida de un software, facilitan la producción del software, varias
se basan principalmente en la idea de un modelo gráfico.15
Metodología
Un objetivo de décadas ha sido el encontrar procesos y metodologías, que sean sistemáticas,
predecibles y repetibles, a fin de mejorar la productividad en el desarrollo y la calidad del
producto software, en pocas palabras, determina los pasos a seguir y como realizarlos para
finalizar una tarea.
Análisis de requisitos
Extraer los requisitos de un producto software es la primera etapa para crearlo. Durante la fase de
análisis, el cliente plantea las necesidades que se presenta e intenta explicar lo que debería hacer
el software o producto final para satisfacer dicha necesidad mientras que el desarrollador actúa
como interrogador, como la persona que resuelve problemas. Con este análisis, el ingeniero de
sistemas puede elegir la función que debe realizar el software y establecer o indicar cual es la
interfaz más adecuada para el mismo.16
El análisis de requisitos puede parecer una tarea sencilla, pero no lo es debido a que muchas
veces los clientes piensan que saben todo lo que el software necesita para su buen
funcionamiento, sin embargo se requiere la habilidad y experiencia de algún especialista para
reconocer requisitos incompletos, ambiguos o contradictorios. Estos requisitos se determinan
tomando en cuenta las necesidades del usuario final, introduciendo técnicas que nos permitan
mejorar la calidad de los sistemas sobre los que se trabaja.17
El resultado del análisis de requisitos con el cliente se plasma en el documento ERS
(especificación de requisitos del sistema), cuya estructura puede venir definida por varios
estándares, tales como CMMI. Asimismo, se define un diagrama de entidad/relación, en el que se
plasman las principales entidades que participarán en el desarrollo del software.
La captura, análisis y especificación de requisitos (incluso pruebas de ellos), es una parte crucial;
de esta etapa depende en gran medida el logro de los objetivos finales. Se han ideado modelos y
diversos procesos metódicos de trabajo para estos fines. Aunque aún no está formalizada, ya se
habla de la ingeniería de requisitos.
La IEEE Std. 830-1998 normaliza la creación de las especificaciones de requisitos de software
(Software Requirements Specification).
Finalidades del análisis de requisitos:
Brindar al usuario todo lo necesario para que pueda trabajar en conjunto con el software
desarrollado obteniendo los mejores resultados posibles.
Tener un control más completo en la etapa creación del software, en cuanto a tiempo de
desarrollo y costos.
Utilización de métodos más eficientes que permitan el mejor aprovechamiento del software
según sea la finalidad de uso del mismo.
Aumentar la calidad del software desarrollado al disminuir los riesgos de mal funcionamiento. 18
Limitaciones14
Los software tienen la capacidad de emular inteligencia creando un modelo de ciertas
características de la inteligencia humana pero sólo posee funciones predefinidas que abarcan un
conjunto de soluciones que en algunos campos llega a ser limitado. Aun cuando tiene la
capacidad de imitar ciertos comportamientos humanos no es capaz de emular el pensamiento
humano porque actúa bajo condiciones.
Otro aspecto limitante de los software proviene del proceso totalmente mecánico que requiere de
un mayor esfuerzo y tiempos elevados de ejecución lo que lleva a tener que implementar el
software en una máquina de mayor capacidad.
Especificación
La especificación de requisitos describe el comportamiento esperado en el software una vez
desarrollado. Gran parte del éxito de un proyecto de software radicará en la identificación de las
necesidades del negocio (definidas por la alta dirección), así como la interacción con los usuarios
funcionales para la recolección, clasificación, identificación, priorización y especificación de los
requisitos del software.
Entre las técnicas utilizadas para la especificación de requisitos se encuentran:
Caso de uso
Historias de usuario
Siendo los primeros más rigurosas y formales, los segundas más ágiles e informales.
Arquitectura
La integración de infraestructura, desarrollo de aplicaciones, bases de datos y herramientas
gerenciales, requieren de capacidad y liderazgo para poder ser conceptualizados y proyectados a
futuro, solucionando los problemas de hoy. El rol en el cual se delegan todas estas actividades es
el del Arquitecto.
El arquitecto de software es la persona que añade valor a los procesos de negocios gracias a su
valioso aporte de soluciones tecnológicas.
La arquitectura de sistemas en general, es una actividad de planeación, ya sea a nivel de
infraestructura de red y hardware, o de software.
Lo principal en este punto es poner en claro los aspectos lógicos y físicos de las salidas, modelos
de organización y representación de datos, entradas y procesos que componen el sistema,
considerando las bondades y limitaciones de los recursos disponibles en la satisfacción de las
pacificaciones brindadas para el análisis.
Hay que tener en consideración la arquitectura del sistema en la cual se va a trabajar, elaborar un
plan de trabajo viendo la prioridad de tiempo y recursos disponibles. En los diseños de salidas
entra los que es la interpretación de requerimientos lo cual es el dominio de información del
problema, las funciones visibles para el usuario, el comportamiento del sistema y un conjunto de
clases de requerimientos que agrupa los objetos del negocio con los métodos que les dan servicio.
La arquitectura de software consiste en el diseño de componentes de una aplicación (entidades
del negocio), generalmente utilizando patrones de arquitectura. El diseño arquitectónico debe
permitir visualizar la interacción entre las entidades del negocio y además poder ser validado, por
ejemplo por medio de diagramas de secuencia. Un diseño arquitectónico describe en general el
cómo se construirá una aplicación de software. Para ello se documenta utilizando diagramas, por
ejemplo:
Diagramas de clases
Diagrama de despliegue
Diagrama de secuencia
Siendo los dos primeros los mínimos necesarios para describir la arquitectura de un proyecto que
iniciará a ser codificado. Dependiendo del alcance del proyecto, complejidad y necesidades, el
arquitecto elegirá cuales de los diagramas se requiere elaborar.
Las herramientas para el diseño y modelado de software se denominan CASE (Computer Aided
Software Engineering) entre las cuales se encuentran:
Enterprise Architect
Microsoft Visio for Enterprise Architects
Programación
Implementar un diseño en código puede ser la parte más obvia del trabajo de ingeniería de
software, pero no necesariamente es la que demanda mayor trabajo y ni la más complicada. La
complejidad y la duración de esta etapa está íntimamente relacionada al o a los lenguajes de
programación utilizados, así como al diseño previamente realizado.
Desarrollo de la aplicación
Para el desarrollo de la aplicación es necesario considerar cinco fases para tener una aplicación o
programa eficiente, estas son:
Desarrollo de la infraestructura: Esta fase permite el desarrollo y la organización de los
elementos que formaran la infraestructura de la aplicación, con el propósito de finalizar la
aplicación eficientemente.
Adaptación del paquete: El objetivo principal de esta fase es entender de una manera detallada
el funcionamiento del paquete, esto tiene como finalidad garantizar que el paquete pueda ser
utilizado en su máximo rendimiento, tanto para negocios o recursos. Todos los elementos que
componen el paquete son inspeccionados de manera detallada para evitar errores y entender
mejor todas las características del paquete.
Desarrollo de unidades de diseño batch: En esta fase se utilizan una serie de combinación de
técnicas, como diagrama de flujo, diagramas de estructuras, tablas de decisiones, etc. Cualquiera
a utilizar será beneficioso para plasmar de manera clara y objetiva las especificaciones y que así
el programador tenga mayor comprensión a la hora de programar y probar los programas que le
corresponden.
Desarrollo de unidades de diseño manuales: En esta fase el objetivo central es proyectar todos
los procedimientos administrativos que desarrollarán en torno a la utilización de los
componentes computarizados.19
Pruebas de software
Consiste en comprobar que el software realice correctamente las tareas indicadas en la
especificación del problema. Una técnica es probar por separado cada módulo del software, y
luego probarlo de manera integral, para así llegar al objetivo. Se considera una buena práctica el
que las pruebas sean efectuadas por alguien distinto al desarrollador que la programó, idealmente
un área de pruebas; sin perjuicio de lo anterior el programador debe hacer sus propias pruebas.
En general hay dos grandes maneras de organizar un área de pruebas, la primera es que esté
compuesta por personal inexperto y que desconozca el tema de pruebas, de esta manera se evalúa
que la documentación entregada sea de calidad, que los procesos descritos son tan claros que
cualquiera puede entenderlos y el software hace las cosas tal y como están descritas. El segundo
enfoque es tener un área de pruebas conformada por programadores con experiencia, personas
que saben sin mayores indicaciones en qué condiciones puede fallar una aplicación y que pueden
poner atención en detalles que personal inexperto no consideraría.
De acuerdo con Roger S. Pressman, el proceso de pruebas se centra en los procesos lógicos
internos del software, asegurando que todas las sentencias se han comprobado, y en los procesos
externos funcionales, es decir, la realización de pruebas para la detección de errores. Se requiere
poder probar el software con sujetos reales que puedan evaluar el comportamiento del software
con el fin de proporcionar realimentación a los desarrolladores. Es importante que durante el
proceso de desarrollo del software no se pierda contacto con los interesados o solicitantes del
desarrollo de Software, de esta manera los objetivos del proyecto se mantendrán vigentes y se
tendrá una idea clara de los aspectos que tienen que probarse durante el período de pruebas.20
Implementación
Una Implementación es la realización de una especificación técnica o algoritmos con un
programa, componente software, u otro sistema de cómputo. Muchas especificaciones son dadas
según a su especificación o un estándar. Las especificaciones recomendadas según el ´World
Wide Web Consortium, y las herramientas de desarrollo del software contienen
implementaciones de lenguajes de programación. El modelo de implementación es una colección
de componentes y los subsitemas que contienen. Componentes tales como: ficheros ejecutables,
ficheros de código fuente y todo otro tipo de ficheros que sean necesarios para la implementación
y despliegue del sistema.
Documentación
Es todo lo concerniente a la documentación del propio desarrollo del software y de la gestión del
proyecto, pasando por modelaciones (UML), diagramas de casos de uso, pruebas, manuales de
usuario, manuales técnicos, etc; todo con el propósito de eventuales correcciones, usabilidad,
mantenimiento futuro y ampliaciones al sistema.
Mantenimiento
Fase dedicada a mantener y mejorar el software para corregir errores descubiertos e incorporar
nuevos requisitos. Esto puede llevar más tiempo incluso que el desarrollo del software inicial.
Alrededor de 2/3 del tiempo de ciclo de vida de un proyecto21 está dedicado a su mantenimiento.
Una pequeña parte de este trabajo consiste eliminar errores (bugs); siendo que la mayor parte
reside en extender el sistema para incorporarle nuevas funcionalidades y hacer frente a su
evolución.
Ventajas22
Desde el punto de vista de gestión
Facilitar la tarea de seguimiento del proyecto
Permitir la reutilización
Modelo de prototipos
Artículo principal: Modelo de prototipos
En ingeniería de software, el modelo de prototipos pertenece a los modelos de desarrollo
evolutivo. Este permite que todo el sistema, o algunos de sus partes, se construyan rápidamente
para comprender con facilidad y aclarar ciertos aspectos en los que se aseguren que el
desarrollador, el usuario, el cliente estén de acuerdo en lo que se necesita así como también la
solución que se propone para dicha necesidad y de esta manera minimizar el riesgo y la
incertidumbre en el desarrollo, este modelo se encarga del desarrollo de diseños para que estos
sean analizados y prescindir de ellos a medida que se adhieran nuevas especificaciones, es ideal
para medir el alcance del producto, pero no se asegura su uso real.
Este modelo principalmente se aplica cuando un cliente define un conjunto de objetivos
generales para el software a desarrollarse sin delimitar detalladamente los requisitos de entrada
procesamiento y salida, es decir cuando el responsable no está seguro de la eficacia de un
algoritmo, de la adaptabilidad del sistema o de la manera en que interactúa el hombre y la
máquina.
Este modelo se encarga principalmente de ayudar al ingeniero de sistemas y al cliente a entender
de mejor manera cuál será el resultado de la construcción cuando los requisitos estén
satisfechos.25
Modelo en espiral
Artículo principal: Desarrollo en espiral
El modelo en espiral, que Barry Boehm propuso originalmente en 1986, es un modelo de proceso
de software evolutivo que conjuga la naturaleza iterativa de la construcción de prototipos con los
aspectos controlados y sistemáticos del modelo en cascada, es decir, cuando se aplica este
modelo, el software se desarrolla en una serie de entregas evolutivas (ciclos o iteraciones), cada
una de estas entregando prototipos más completas que el anterior, todo esto en función del
análisis de riesgo y las necesidades del cliente. Aunque el modelo espiral representa ventajas por
sobre el desarrollo lineal, el cálculo de los riesgos puede ser muy complicado y por lo cual su uso
en el ámbito real es muy escaso.26
Análisis de requisitos.
Diseño inicial.
Diseño detallado (codificación, depuración, prueba y liberación).
Cuando es por etapas, en el diseño global estas fases pueden repetirse según la cantidad de etapas
que sean requeridas.
Entre sus ventajas tenemos:
Detección de problemas antes y no hasta la única entrega final del proyecto.
Estimación de tiempo por versión, evitando errores en la estimación del proyecto general.
Modelo estructurado
Este modelo ―como su nombre lo indica― utiliza las técnicas del diseño estructurado o de la
programación estructurada para su desarrollo, también se utiliza en la creación de los algoritmos
del programa. Este formato facilita la comprensión de la estructura de datos y su control.28 Entre
las principales características de este modelo se encuentan las siguientes:
Generalmente se puede diferenciar de una manera más clara los procesos y las estructuras de
datos.
Este modelo también presenta sus desventajas entre las cuales podemos mencionar algunas:
Se podía encontrar datos repetidos en diferentes partes del programa. 28
Cuando el código se hace muy extenso o grande su manejo se complica demasiado. 29
Una aplicación cliente/servidor típica se implementa con muchos componentes, cada uno de los
cuales se pueden diseñar y realizar concurrentemente.
El proceso unificado es un proceso de software genérico que puede ser utilizado para una gran
cantidad de tipos de sistemas de software, para diferentes áreas de aplicación, diferentes tipos de
organizaciones, diferentes niveles de competencia y diferentes tamaños de proyectos.
Provee un enfoque disciplinado en la asignación de tareas y responsabilidades dentro de una
organización de desarrollo. Su meta es asegurar la producción de software de muy alta calidad
que satisfaga las necesidades de los usuarios finales, dentro de un calendario y presupuesto
predecible.34
El proceso unificado tiene dos dimensiones:
Un eje horizontal que representa el tiempo y muestra los aspectos del ciclo de vida del proceso a
lo largo de su desenvolvimiento
Un eje vertical que representa las disciplinas, las cuales agrupan actividades de una manera
lógica de acuerdo a su naturaleza.
Producto
El software se ha convertido en algo muy necesario en nuestra sociedad actual, es la máquina que
conduce a la toma de decisiones comerciales, sirve para la investigación científica moderna, es
un factor clave que diferencia productos y servicios modernos, etc. Esto se da porque el software
está inmerso en sistemas de todo tipo alrededor de nosotros.
El software de computadora es el producto que diseñan y construyen los ingenieros de software.
Esto abarca programas que se ejecutan dentro de una computadora de cualquier tamaño y
arquitectura, después de estar construido casi cualquier persona en el mundo industrializado, ya
sea directa o indirectamente.
Los productos se pueden clasificar en:
Productos genéricos: Son los producidos por una organización para ser vendidos al mercado.
Productos hechos a medida: Sistemas que son desarrollados bajo pedido a un desarrollador
específico.
Estos productos deben cumplir varias características al ser entregados, estas son:
Mantenibles: El software debe poder evolucionar mientras cumple con sus funciones.
Utilización adecuada: Debe contar con una interfaz de usuario adecuada y su documentación.
Lo que constituye el producto final es diferente para el ingeniero y los usuarios, para el ingeniero
son los programas, datos y documentos que configuran el software pero para el usuario el
producto final es la información que de cierto modo soluciona el problema planteado por el
usuario.
Matemáticas
Los programas tienen muchas propiedades matemáticas. Por ejemplo la corrección y la
complejidad de muchos algoritmos son conceptos matemáticos que pueden ser rigurosamente
probados. El uso de matemáticas en la IS es llamado métodos formales.
Creación
Los programas son construidos en una secuencia de pasos. El hecho de definir propiamente y
llevar a cabo estos pasos, como en una línea de ensamblaje, es necesario para mejorar la
productividad de los desarrolladores y la calidad final de los programas. Este punto de vista
inspira los diferentes procesos y metodologías que se encuentran en la IS.
Gestión de Proyecto
El desarrollo de software de gran porte requiere una adecuada gestión del proyecto. Hay
presupuestos, establecimiento de tiempos de entrega, un equipo de profesionales que liderar.
Recursos (espacio de oficina, insumos, equipamiento) por adquirir. Para su administración se
debe tener una clara visión y capacitación en gestión de proyectos.
Participantes y papeles
Para el desarrollo de un sistema de software es necesaria la colaboración de muchas personas con
diversas competencias, capacidades e intereses. Al conjunto de personas involucradas en el
proyecto se les conoce como participantes.
Al conjunto de funciones y responsabilidades que hay dentro del proyecto o sistema se le conoce
como roles o papeles. Los roles están asociados a las tareas que son asignadas a los participantes,
en consecuencia, una persona puede desempeñar uno o múltiples roles, así también un mismo rol
puede ser representado por un equipo.36
Cliente
Es frecuente el uso de los términos "usuarios", "usuarios finales" y "clientes" como sinónimos, lo
cual puede provocar confusión; estrictamente, el cliente (persona, empresa u organización) es
quién especifica los requisitos del sistema,37 en tanto que el usuario es quien utiliza u opera
finalmente el producto software, pudiendo ser o no el cliente.
Desarrolladores
Esta clase de participantes están relacionados con todas las facetas del proceso de desarrollo del
software. Su trabajo incluye la investigación, diseño, implementación, pruebas y depuración del
software.38
Gestores
En el contexto de ingeniería de software, el gestor de desarrollo de software es un participante,
que reporta al director ejecutivo de la empresa que presta el servicio de desarrollo. Es
responsable del manejo y coordinación de los recursos y procesos para la correcta entrega de
productos de software, mientras participa en la definición de la estrategia para el equipo de
desarrolladores, dando iniciativas que promuevan la visión de la empresa.39
Usuarios finales
El usuario final es quien interactúa con el producto de software una vez es entregado.40
Generalmente son los usuarios los que conocen el problema, ya que día a día operan los sistemas.
Cliente y empresario: Se debe actuar de manera tal que se llegue a conciliar los mejores
intereses de los clientes y empresarios, congruentemente con el interés social. Estos deberán
prestar servicios en sus áreas de competencia, siendo honestos y francos sobre las limitaciones,
no utilizar un software que se obtenga ilegalmente o sin ética, usar la propiedad de los clientes o
empresarios de manera autorizada, mantener secreto cualquier documento de información
confidencial.
Producto: Hay que asegurarse que los productos y sus modificaciones cumplan con los
estándares profesionales más altos posibles, procurando la alta calidad, costos aceptables y una
agenda razonable asegurando que los costos y beneficios sean claros y aceptados por el
empresario y el cliente. Asegurar que las metas y objetivos de cualquier proyecto sean
adecuados y alcanzables.
Administración: Se deberá asegurar una buena administración para cualquier proyecto en el cual
se trabaje, utilizando procedimientos efectivos para promover la calidad y reducir riesgos,
asegurándose también que se conozcan las políticas y procedimientos del empresario para
proteger contraseñas, archivos e información confidencial.
Colegas: Cada ingeniero deberá apoyar y ser justos con los colegas, motivando a sus colegas
sujetándose al código, ayudando también a su desarrollo profesional, reconocer los trabajos de
otros y abstenerse a atribuirse de méritos indebidos, revisar los trabajos de manera objetiva,
sincera y propiamente documentada.
Personal: Los ingenieros de software participaran toda su vida en el aprendizaje con la práctica y
promoverán un enfoque ético de la profesión, mejorando su conocimiento de los avances en el
análisis, especificación, diseño, desarrollo, mantenimiento, pruebas del software y documentos
relacionados en conjunto con administración del proceso de desarrollo. 41
Educación ética
Organizaciones
IEEE Computer Society
RUSSOFT Association
Se le llama base de datos a los bancos de información que contienen datos relativos a diversas
temáticas y categorizados de distinta manera, pero que comparten entre sí algún tipo de vínculo o
relación que busca ordenarlos y clasificarlos en conjunto.
Una base de datos o banco de datos es un conjunto de datos pertenecientes a un mismo
contexto y almacenados sistemáticamente para su posterior uso. En este sentido; una biblioteca
puede considerarse una base de datos compuesta en su mayoría por documentos y textos
impresos en papel e indexados para su consulta. Actualmente, y debido al desarrollo tecnológico
de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato
digital, siendo este un componente electrónico, por tanto se ha desarrollado y se ofrece un amplio
rango de soluciones al problema del almacenamiento de datos.
Existen programas denominados sistemas gestores de bases de datos, abreviado SGBD (del
inglés Database Management System o DBMS), que permiten almacenar y posteriormente
acceder a los datos de forma rápida y estructurada. Las propiedades de estos DBMS, así como su
utilización y administración, se estudian dentro del ámbito de la informática.
Las aplicaciones más usuales son para la gestión de empresas e instituciones públicas; También
son ampliamente utilizadas en entornos científicos con el objeto de almacenar la información
experimental.
Aunque las bases de datos pueden contener muchos tipos de datos, algunos de ellos se encuentran
mutuamente protegidos por las leyes de varios países. Por ejemplo en España, los datos
personales se encuentran protegidos por la Ley Orgánica de Protección de Datos de Carácter
Personal (LOPD), en México por la Ley Federal de Transparencia y Acceso a la Información
Pública Gubernamental y en Argentina la Ley de Protección de Datos Personales.1
Índice
1 Clasificación de bases de datos
1.2.3 Directorios
2.8.2 Ventajas
2.8.3 Fases
2.8.4 Interpretación
2.8.5 Mecanismos
4 Véase también
5 Referencias
6 Enlaces externos
Según el contenido
Directorios
Un ejemplo son las guías telefónicas en formato electrónico.
Estos directorios se pueden clasificar en dos grandes tipos dependiendo de si son personales o
empresariales (llamadas páginas blancas o amarillas respectivamente)
Los directorios empresariales hay de tres tipos
1. Tienen nombre de la empresa y dirección Ejemplo
3. Contienen datos como facturación o número de empleados además de códigos nacionales que
ayudan a su distinción Ejemplo
Los directorios personales solo hay de un tipo, ya que leyes como la LOPD en España protege la
privacidad de los usuarios pertenecientes al directorio
La búsqueda inversa está prohibida en los directorios personales (a partir de un número de
teléfono saber el titular de la línea)
En este modelo los datos se organizan en forma de árbol invertido (algunos dicen raíz), en donde
un nodo padre de información puede tener varios hijos. El nodo que no tiene padres es llamado
raíz, y a los nodos que no tienen hijos se los conoce como hojas.
Las bases de datos jerárquicas son especialmente útiles en el caso de aplicaciones que manejan
un gran volumen de información y datos muy compartidos permitiendo crear estructuras estables
y de gran rendimiento.
Una de las principales limitaciones de este modelo es su incapacidad de representar
eficientemente la redundancia de datos.
Éste es el modelo utilizado en la actualidad para representar problemas reales y administrar datos
dinámicamente. Tras ser postulados sus fundamentos en 1970 por Edgar Frank Codd, de los
laboratorios IBM en San José (California), no tardó en consolidarse como un nuevo paradigma
en los modelos de base de datos. Su idea fundamental es el uso de "relaciones". Estas relaciones
podrían considerarse en forma lógica como conjuntos de datos llamados "tuplas". Pese a que ésta
es la teoría de las bases de datos relacionales creadas por Codd, la mayoría de las veces se
conceptualiza de una manera más fácil de imaginar. Esto es pensando en cada relación como si
fuese una tabla que está compuesta por registros (las filas de una tabla), que representarían las
tuplas, y campos (las columnas de una tabla).
En este modelo, el lugar y la forma en que se almacenen los datos no tienen relevancia (a
diferencia de otros modelos como el jerárquico y el de red). Esto tiene la considerable ventaja de
que es más fácil de entender y de utilizar para un usuario esporádico de la base de datos. La
información puede ser recuperada o almacenada mediante "consultas" que ofrecen una amplia
flexibilidad y poder para administrar la información.
El lenguaje más habitual para construir las consultas a bases de datos relacionales es SQL,
Structured Query Language o Lenguaje Estructurado de Consultas, un estándar implementado
por los principales motores o sistemas de gestión de bases de datos relacionales.
Durante su diseño, una base de datos relacional pasa por un proceso al que se le conoce como
normalización de una base de datos.
Son bases de datos ideadas para desarrollar aplicaciones muy concretas, como creación de Cubos
OLAP. Básicamente no se diferencian demasiado de las bases de datos relacionales (una tabla en
una base de datos relacional podría serlo también en una base de datos multidimensional), la
diferencia está más bien a nivel conceptual; en las bases de datos multidimensionales los campos
o atributos de una tabla pueden ser de dos tipos, o bien representan dimensiones de la tabla, o
bien representan métricas que se desean aprender.
Herencia - Propiedad a través de la cual los objetos heredan comportamiento dentro de una
jerarquía de clases.
Polimorfismo - Propiedad de una operación mediante la cual puede ser aplicada a distintos tipos
de objetos.
En bases de datos orientadas a objetos, los usuarios pueden definir operaciones sobre los datos
como parte de la definición de la base de datos. Una operación (llamada función) se especifica en
dos partes. La interfaz (o signatura) de una operación incluye el nombre de la operación y los
tipos de datos de sus argumentos (o parámetros). La implementación (o método) de la operación
se especifica separadamente y puede modificarse sin afectar la interfaz. Los programas de
aplicación de los usuarios pueden operar sobre los datos invocando a dichas operaciones a través
de sus nombres y argumentos, sea cual sea la forma en la que se han implementado. Esto podría
denominarse independencia entre programas y operaciones.
SQL:2003, es el estándar de SQL92 ampliado, soporta los conceptos orientados a objetos y
mantiene la compatibilidad con SQL92.
Permiten la indexación a texto completo, y en líneas generales realizar búsquedas más potentes,
sirven para almacenar grandes volumenes de informacion de antecedenes historicos. Tesaurus es
un sistema de índices optimizado para este tipo de bases de datos.
Lenguaje
Utiliza un subconjunto del lenguaje Prolog llamado Datalog el cual es declarativo y permite al
ordenador hacer deducciones para contestar a consultas basándose en los hechos y reglas
almacenados.
Ventajas
Uso de reglas lógicas para expresar las consultas.
Fases
Fase de Interrogación: se encarga de buscar en la base de datos informaciones deducibles
implícitas. Las reglas de esta fase se denominan reglas de derivación.
Interpretación
Encontramos dos teorías de interpretación de las bases de datos deductiva por lo cual
consideramos las reglas y los hechos como axiomas. Los hechos son axiomas base que se
consideran como verdaderos y no contienen variables. Las reglas son axiomas deductivos ya que
se utilizan para deducir nuevos hechos.
Teoría de Modelos: una interpretación es llamada modelo cuando para un conjunto específico
de reglas, éstas se cumplen siempre para esa interpretación. Consiste en asignar a un predicado
todas las combinaciones de valores y argumentos de un dominio de valores constantes dado. A
continuación se debe verificar si ese predicado es verdadero o falso.
Mecanismos
Existen dos mecanismos de inferencia:
Ascendente: donde se parte de los hechos y se obtiene nuevos aplicando reglas de inferencia.
Índice
1 Historia
2 Descripción básica
o 3.1 Software
o 3.2 Hardware
3.3.1 Servidores
5 Véase también
6 Referencias
o 6.1 Bibliografía
7 Enlaces externos
Historia
El primer indicio de redes de comunicación fue de tecnología telefónica y telegráfica. En 1940 se
transmitieron datos desde la Universidad de Darmouth, en Nuevo Hampshire, a Nueva York. A
finales de la década de 1960 y en los posteriores 70 fueron creadas las minicomputadoras. En
1976, Apple introduce el Apple I, uno de los primeros ordenadores personales. En 1981, IBM
introduce su primer PC. A mitad de la década de 1980 los PC comienzan a usar los módems para
compartir archivos con otros ordenadores, en un rango de velocidades que comenzó en 1200 bps
y llegó a los 56 kbps (comunicación punto a punto o dial-up), cuando empezaron a ser sustituidos
por sistema de mayor velocidad, especialmente ADSL.
Descripción básica
La comunicación por medio de una red se lleva a cabo en dos diferentes categorías: la capa
física y la capa lógica.
La capa física incluye todos los elementos de los que hace uso un equipo para comunicarse con
otros equipos dentro de la red, como, por ejemplo, las tarjetas de red, los cables, las antenas, etc.
La comunicación a través de la capa física se rige por normas muy rudimentarias que por sí
mismas resultan de escasa utilidad. Sin embargo, haciendo uso de dichas normas es posible
construir los denominados protocolos, que son normas de comunicación más complejas (mejor
conocidas como de alto nivel), capaces de proporcionar servicios que resultan útiles.
Los protocolos son un concepto muy similar al de los idiomas de las personas. Si dos personas
hablan el mismo idioma, es posible comunicarse y transmitir ideas.
La razón más importante (quizá la única) sobre por qué existe diferenciación entre la capa física
y la lógica es sencilla: cuando existe una división entre ambas, es posible utilizar un número casi
infinito de protocolos distintos, lo que facilita la actualización y migración entre distintas
tecnologías.
Software
Sistema operativo de red: permite la interconexión de ordenadores para poder acceder a los
servicios y recursos. Al igual que un equipo no puede trabajar sin un sistema operativo, una red
de equipos no puede funcionar sin un sistema operativo de red. En muchos casos el sistema
operativo de red es parte del sistema operativo de los servidores y de los clientes.
Software de aplicación: en última instancia, todos los elementos se utilizan para que el usuario
de cada estación, pueda utilizar sus programas y archivos específicos. Este software puede ser
tan amplio como se necesite ya que puede incluir procesadores de texto, paquetes integrados,
sistemas administrativos de contabilidad y áreas afines, sistemas especializados, correos
electrónico, etc. El software adecuado en el sistema operativo de red elegido y con los
protocolos necesarios permiten crear servidores para aquellos servicios que se necesiten.
Hardware
Para lograr el enlace entre las computadoras y los medios de transmisión (cables de red o medios
físicos para redes alámbricas e infrarrojos o radiofrecuencias para redes inalámbricas), es
necesaria la intervención de una tarjeta de red (NIC, Network Card Interface), con la cual se
puedan enviar y recibir paquetes de datos desde y hacia otras computadoras, empleando un
protocolo para su comunicación y convirtiendo a esos datos a un formato que pueda ser
transmitido por el medio (bits, ceros y unos). Cabe señalar que a cada tarjeta de red le es
asignado un identificador único por su fabricante, conocido como dirección MAC (Media Access
Control), que consta de 48 bits (6 bytes). Dicho identificador permite direccionar el tráfico de
datos de la red del emisor al receptor adecuado.
El trabajo del adaptador de red es el de convertir las señales eléctricas que viajan por el cable
(p.e.: red Ethernet) o las ondas de radio (p.e.: red Wi-Fi) en una señal que pueda interpretar el
ordenador.
Estos adaptadores son unas tarjetas PCI que se conectan en las ranuras de expansión del
ordenador. En el caso de ordenadores portátiles, estas tarjetas vienen en formato PCMCIA o
similares. En los ordenadores del siglo XXI, tanto de sobremesa como portátiles, estas tarjetas ya
vienen integradas en la placa base.
Adaptador de red es el nombre genérico que reciben los dispositivos encargados de realizar dicha
conversión. Esto significa que estos adaptadores pueden ser tanto Ethernet, como wireless, así
como de otros tipos como fibra óptica, coaxial, etc. También las velocidades disponibles varían
según el tipo de adaptador; éstas pueden ser, en Ethernet, de 10, 100, 1000 Mbps o 10000, y en
los inalámbricos, principalmente, de 11, 54, 300 Mbps.
Terminal: muchas redes utilizan este tipo de equipo en lugar de puestos de trabajo para la
entrada de datos. En estos sólo se exhiben datos o se introducen. Este tipo de terminales,
trabajan unido a un servidor, que es quien realmente procesa los datos y envía pantallas de
datos a los terminales.
Electrónica del hogar: las tarjetas de red empezaron a integrarse, de forma habitual, desde la
primera década del siglo XXI, en muchos elementos habituales de los hogares: televisores,
equipos multimedia, proyectores, videoconsolas, teléfonos celulares, libros electrónicos, etc. e
incluso en electrodomésticos, como frigoríficos, convirtiéndolos en partes de las redes junto a
los tradicionales ordenadores.
Impresoras: muchos de estos dispositivos son capaces de actuar como parte de una red de
ordenadores sin ningún otro elemento, tal como un print server, actuando como intermediario
entre la impresora y el dispositivo que está solicitando un trabajo de impresión de ser
terminado. Los medios de conectividad de estos dispositivos pueden ser alambricos o
inalámbricos, dentro de este último puede ser mediante: ethernet, Wi-Fi, infrarrojo o bluetooth.
En algunos casos se integran dentro de la impresora y en otros por medio de convertidores
externos.
Servidores
Artículo principal: Servidor
Son los equipos que ponen a disposición de los clientes los distintos servicios. En la siguiente
lista hay algunos tipos comunes de servidores y sus propósitos:
Servidor de archivos: almacena varios tipos de archivo y los distribuye a otros clientes en la red.
Pueden ser servidos en distinto formato según el servicio que presten y el medio: FTP, HTTP, etc.
Servidor de impresión: controla una o más impresoras y acepta trabajos de impresión de otros
clientes de la red, poniendo en cola los trabajos de impresión (aunque también puede cambiar la
prioridad de las diferentes impresiones), y realizando la mayoría o todas las otras funciones que
en un sitio de trabajo se realizaría para lograr una tarea de impresión si la impresora fuera
conectada directamente con el puerto de impresora del sitio de trabajo.
Servidor de correo: almacena, envía, recibe, enruta y realiza otras operaciones relacionadas con
el correo-e (e-mail) para los clientes de la red.
Servidor de fax: almacena, envía, recibe, enruta y realiza otras funciones necesarias para la
transmisión, la recepción y la distribución apropiadas de los fax, con origen y/o destino una
computadora o un dispositivo físico de telefax.
Servidor de telefonía: realiza funciones relacionadas con la telefonía, como es la de contestador
automático, realizando las funciones de un sistema interactivo para la respuesta de la voz,
almacenando los mensajes de voz, encaminando las llamadas y controlando también la red o
Internet, etc. Pueden operan con telefonía IP o analógica.
Servidor proxy: realiza un cierto tipo de funciones en nombre de otros clientes en la red para
aumentar el funcionamiento de ciertas operaciones (p. ej., prefetching y depositar documentos
u otros datos que se soliciten muy frecuentemente). También «sirve» seguridad; esto es, tiene
un firewall (cortafuegos). Permite administrar el acceso a Internet en una red de computadoras
permitiendo o negando el acceso a diferentes sitios web, basándose en contenidos,
origen/destino, usuario, horario, etc.
Servidor de acceso remoto (Remote Access Service, RAS): controla las líneas de módems u otros
canales de comunicación de la red para que las peticiones conecten una posición remota con la
red, responden las llamadas telefónicas entrantes o reconocen la petición de la red y realizan los
chequeos necesarios de seguridad y otros procedimientos necesarios para registrar a un usuario
en la red. Gestionan las entradas para establecer la redes virtuales privadas (VPN).
Servidor web: almacena documentos HTML, imágenes, archivos de texto, escrituras, y demás
material web compuesto por datos (conocidos normalmente como contenido), y distribuye este
contenido a clientes que la piden en la red.
Servidor de reserva (standby server): tiene el software de reserva de la red instalado y tiene
cantidades grandes de almacenamiento de la red en discos duros u otras formas del
almacenamiento disponibles para que se utilice con el fin de asegurarse de que la pérdida de un
servidor principal no afecte a la red. El servidor de reserva lo puede ser de cualquiera de los
otros tipos de servidor, siendo muy habituales en los servidores de aplicaciones y bases de
datos.
Servidores para los servicios de red: estos equipos gestionan aquellos servicios necesarios
propios de la red y sin los cuales no se podrían interconectar, al menos de forma sencilla.
Algunos de esos servicios son: servicio de directorio para la gestión d elos usuarios y los recursos
compartidos, Dynamic Host Configuration Protocol (DHCP) para la asignación de las direcciones
IP en redes TCP/IP, Domain Name System (DNS) para poder nombrar los equipos sin tener que
recurrir a su dirección IP numérica, etc.
Servidor de base de datos: permite almacenar la información que utilizan las aplicaciones de
todo tipo, guardándola ordenada y clasificada y que puede ser recuperada en cualquier
momento y sobre la base de una consulta concreta. Estos servidores suelen utilizar lenguajes
estandarízados para hacer más fácil y reutilizable la programación de aplicaciones, uno de los
más populares es SQL.
Servidor de aplicaciones: ejecuta ciertas aplicaciones. Usualmente se trata de un dispositivo de
software que proporciona servicios de aplicación a las computadoras cliente. Un servidor de
aplicaciones gestiona la mayor parte (o la totalidad) de las funciones de lógica de negocio y de
acceso a los datos de la aplicación. Los principales beneficios de la aplicación de la tecnología de
servidores de aplicación son la centralización y la disminución de la complejidad en el desarrollo
de aplicaciones.
Y otros muchos dedicados a múltiples tareas, desde muy generales a aquellos de una especifidad
enorme.
Almacenamiento en red
En las redes medianas y grandes el almacenamiento de datos principal no se produce en los
propios servidores sino que se utilizan dispositivos externos, conocidos como disk arrays
(matrices de discos) interconectados, normalmente por redes tipo SAN o Network-Attached
Storage (NAS). Estos medios permiten centralizar la información, una mejor gestión del espacio,
sistemas redundantes y de alta disponibilidad.
Los medios de copia de seguridad suelen incluirse en la misma red donde se alojan los medios de
almacenamiento mencionados más arriba, de esta forma el traslado de datos entre ambos, tanto al
hacer la copia como las posibles restauraciones, se producen dentro de esta red sin afectar al
tráfico de los clientes con los servidores o entre ellos.
Dispositivos de red
Véase también: Dispositivo electrónico de interconexión
Los equipos informáticos descritos necesitan de una determinada tecnología que forme la red en
cuestión. Según las necesidades se deben seleccionar los elementos adecuados para poder
completar el sistema. Por ejemplo, si queremos unir los equipos de una oficina entre ellos
debemos conectarlos por medio de un conmutador o un concentrador, si además hay un varios
portátiles con tarjetas de red Wi-Fi debemos conectar un punto de acceso inalámbrico para que
recoja sus señales y pueda enviarles las que les correspondan, a su vez el punto de acceso estará
conectado al conmutador por un cable. Si todos ellos deben disponer de acceso a Internet, se
interconectaran por medio de un router, que podría ser ADSL, ethernet sobre fibra óptica,
broadband, etc.
Los elementos de la electrónica de red más habituales son:
Conmutador de red (switch),
Enrutador (router),
Protocolos de redes
Artículo principal: Protocolo de red
Modelo OSI
Artículo principal: Modelo OSI
El modelo OSI (Open Systems Interconnection) fue creado por la ISO y se encarga de la
conexión entre sistemas abiertos, esto es, sistemas abiertos a la comunicación con otros sistemas.
Los principios en los que basó su creación eran: una mayor definición de las funciones de cada
capa, evitar agrupar funciones diferentes en la misma capa y una mayor simplificación en el
funcionamiento del modelo en general.3
Este modelo divide las funciones de red en siete capas diferenciadas:
# Capas Unidad de intercambio
Modelo TCP/IP
Artículo principal: TCP/IP
Otros estándares
Existen otros estándares, más concretos, que definen el modo de funcionamiento de diversas
tecnologías de transmisión de datos. La siguiente lista no es completa, sólo muestra algunos
ejemplos:
Tecnología Estándar Año de primera publicación Otros detalles
Por alcance
Red de área personal (Personal Area Network, PAN) es una red de computadoras usada para la
comunicación entre los dispositivos de la computadora cerca de una persona.
Red inalámbrica de área personal (Wireless Personal Area Network, WPAN), es una red de
computadoras inalámbrica para la comunicación entre distintos dispositivos (tanto
computadoras, puntos de acceso a internet, teléfonos celulares, PDA, dispositivos de audio,
impresoras) cercanos al punto de acceso. Estas redes normalmente son de unos pocos metros y
para uso personal, así como fuera de ella. El medio de transporte puede ser cualquiera de los
habituales en las redes inalámbricas pero las que reciben esta denominación son habituales en
Bluetooth.
Red de área local (Local Area Network, LAN), es una red que se limita a un área especial
relativamente pequeña tal como un cuarto, un solo edificio, una nave, o un avión. Las redes de
área local a veces se llaman una sola red de localización. No utilizan medios o redes de
interconexión públicos.
Red de área local inalámbrica (Wireless Local Area Network, WLAN), es un sistema de
comunicación de datos inalámbrico flexible, muy utilizado como alternativa a las redes de área
local cableadas o como extensión de estas.
Red de área de campus (Campus Area Network, CAN), es una red de computadoras de alta
velocidad que conecta redes de área local a través de un área geográfica limitada, como un
campus universitario, una base militar, hospital, etc. Tampoco utiliza medios públicos para la
interconexión.
Red de área metropolitana (Metropolitan Area Network, MAN) es una red de alta velocidad
(banda ancha) que da cobertura en un área geográfica más extensa que un campus, pero aun así
limitado. Por ejemplo, un red que interconecte los edificios públicos de un municipio dentro de
la localidad por medio de fibra óptica.
Red de área amplia (Wide Area Network, WAN), son redes informáticas que se extienden sobre
un área geográfica extensa utilizando medios como: satélites, cables interoceánicos, Internet,
fibras ópticas públicas, etc.
Red de área de almacenamiento (Storage Area Network, SAN), es una red concebida para
conectar servidores, matrices (arrays) de discos y librerías de soporte, permitiendo el tránsito de
datos sin afectar a las redes por las que acceden los usuarios.
Red de área local virtual (Virtual LAN, VLAN), es un grupo de computadoras con un conjunto
común de recursos a compartir y de requerimientos, que se comunican como si estuvieran
adjuntos a una división lógica de redes de computadoras en la cual todos los nodos pueden
alcanzar a los otros por medio de broadcast (dominio de broadcast) en la capa de enlace de
datos, a pesar de su diversa localización física. Este tipo surgió como respuesta a la necesidad de
poder estructurar las conexiones de equipos de un edificio por medio de software, 10 permitiendo
dividir un conmutador en varios virtuales.
Medios guiados
Véase también: Cableado estructurado
Cable de par trenzado: es una forma de conexión en la que dos conductores eléctricos aislados
son entrelazados para tener menores interferencias y aumentar la potencia y disminuir la
diafonía de los cables adyacentes. Dependiendo de la red se pueden utilizar, uno, dos, cuatro o
más pares trenzados.
Cable coaxial: se utiliza para transportar señales electromagnéticas de alta frecuencia, el cual
posee un núcleo sólido (generalmente de cobre) o de hilos, recubierto por un material
dieléctrico y una malla o blindaje, que sirven para aislar o proteger la señal de información
contra las interferencias o ruido exterior.
Fibra óptica: es un medio de transmisión empleado habitualmente en redes de datos; un hilo
muy fino de material transparente, vidrio o materiales plásticos, por el que se envían pulsos de
luz que representan los datos a transmitir.
Medios no guiados
Véanse también: Red inalámbrica, Radiofrecuencia, Microondas, Radiación infrarroja e Infrared Data
Association.
Red por radio es aquella que emplea la radiofrecuencia como medio de unión de las diversas
estaciones de la red.
Red por infrarrojos (Infrared Data Association, IrDA), permiten la comunicación entre dos
nodos, usando una serie de ledes infrarrojos para ello. Se trata de emisores/receptores de ondas
infrarrojas entre ambos dispositivos, cada dispositivo necesita al otro para realizar la
comunicación por ello es escasa su utilización a gran escala. No disponen de gran alcance y
necesitan de visibilidad entre los dispositivos.
Red por microondas, es un tipo de red inalámbrica que utiliza microondas como medio de
transmisión. Los protocolos más frecuentes son: el IEEE 802.11b y transmite a 2,4 GHz,
alcanzando velocidades de 11 Mbps (Megabits por segundo); el rango de 5,4 a 5,7 GHz para el
protocolo IEEE 802.11a; el IEEE 802.11n que permite velocidades de hasta 600 Mbps; etc.
Peer-to-peer, o red entre iguales, es aquella red de computadoras en la que todos o algunos
aspectos funcionan sin clientes ni servidores fijos, sino una serie de nodos que se comportan
como iguales entre sí.
Por tecnología
Véanse también: Point-to-Point Protocol, Peer-to-Peer y P2P.
Red punto a punto (point to point, PtP) es aquella en la que existe multitud de conexiones entre
parejas individuales de máquinas. Este tipo de red requiere, en algunos casos, máquinas
intermedias que establezcan rutas para que puedan transmitirse paquetes de datos. El medio
electrónico habitual para la interconexión es el conmutador, o switch.
Red de Difusión (broadcast) se caracteriza por transmitir datos por un sólo canal de
comunicación que comparten todas las máquinas de la red. En este caso, el paquete enviado es
recibido por todas las máquinas de la red pero únicamente la destinataria puede procesarlo. Los
equipos unidos por un concentrador (hub), forman redes de este tipo.
Red multipunto, dispone de una línea o medio de comunicación cuyo uso está compartido por
todas las terminales en la red. La información fluye de forma bidireccional. Los terminales
pueden estar separados geográficamente.
Red en bus (bus o “conductor común”) o Red lineal (line): se caracteriza por tener un único
canal de comunicaciones (denominado bus, troncal o backbone) al cual se conectan los
diferentes dispositivos.
Red en anillo' (ring) o Red circular: cada estación está conectada a la siguiente y la última está
conectada a la primera. Además, puede compararse con la Red en cadena margarita (dDaisy
chain).
Red en estrella (star): las estaciones están conectadas directamente a un punto central y todas
las comunicaciones se han de hacer necesariamente a través de éste.
Red en malla (mesh): cada nodo está conectado a todos los otros.
Red en árbol (tree) o Red jerárquica: los nodos están colocados en forma de árbol. Desde una
visión topológica, la conexión en árbol es parecida a una serie de redes en estrella
interconectadas salvo en que no tiene un nodo central.
Red híbrida o Red mixta: se da cualquier combinación de las anteriores. Por ejemplo, circular de
estrella, bus de estrella, etc.
Full-duplex o dúplex: los dos equipos involucrados en la comunicación lo pueden hacer de forma
simultánea, transmitir y recibir.
Una intranet es una red privada de computadoras que utiliza tecnología de Internet para
compartir dentro de una organización parte de sus sistemas de información y sistemas
operacionales.
Red educativa proporciona soporte e información para una organización educativa dentro del
ámbito del aprendizaje.
Red para el proceso de datos proporciona una interfaz para intercomunicar equipos que vayan a
realizar una función de cómputo conjunta. [cita requerida]
2 Tecnología de internet
3 Usos modernos
4 Impacto social
o 4.1 Filantropía
o 4.2 Ocio
o 4.6 Buscadores
4.6.3 Metabuscadores
o 4.7 Trabajo
o 4.8 Publicidad
o 4.9 Censura
5 Tamaño
6 Usuarios
7 Véase también
8 Referencias
9 Bibliografía
10 Enlaces externos
Origen
Artículo principal: Historia de Internet
Sus orígenes se remontan a la década de 1960, dentro de ARPA (hoy DARPA, las siglas en
inglés de la Defense Advanced Research Projects Agency), como respuesta a la necesidad de esta
organización de buscar mejores maneras de usar los computadores de ese entonces, pero
enfrentados al problema de que los principales investigadores y laboratorios deseaban tener sus
propios computadores, lo que no solo era más costoso, sino que provocaba una duplicación de
esfuerzos y recursos. El verdadero origen de Internet microsiervos (2005)</ref> Así nace
ARPANet (Advanced Research Projects Agency Network o Red de la Agencia para los
Proyectos de Investigación Avanzada de los Estados Unidos), que nos legó el trazado de una red
inicial de comunicaciones de alta velocidad a la cual fueron integrándose otras instituciones
gubernamentales y redes académicas durante los años 70.8 9 10
Investigadores, científicos, profesores y estudiantes se beneficiaron de la comunicación con otras
instituciones y colegas en su rama, así como de la posibilidad de consultar la información
disponible en otros centros académicos y de investigación. De igual manera, disfrutaron de la
nueva habilidad para publicar y hacer disponible a otros la información generada en sus
actividades.11 12
En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre
la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad
teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran
avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer
dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una
computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica
conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de
área amplia jamás construida.13 14 15
1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer
enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y
gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959
(ver: Arpanet). El mito de que ARPANET, la primera red, se construyó simplemente para
sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único
motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la
verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se
atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para
resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado
con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de
voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de
grandes porciones de las redes subyacentes. (Internet Society, A Brief History of the Internet)
1972: Se realizó la Primera demostración pública de ARPANET, una nueva red de
comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red
telefónica conmutada. El éxito de esta nueva arquitectura sirvió para que, en 1973, la DARPA
iniciara un programa de investigación sobre posibles técnicas para interconectar redes
(orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos
protocolos de comunicaciones que permitiesen este intercambio de información de forma
"transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre
de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e
IP.16
1983: El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el
IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a
Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que,
más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona
servicios a los DNS.17 18
1986: La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de
Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos.
Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las
americanas formaban el esqueleto básico ("backbone") de Internet. 19 20
En el CERN de Ginebra, un grupo de físicos encabezado por Tim Berners-Lee creó el lenguaje
HTML, basado en el SGML. En 1990 el mismo equipo construyó el primer cliente Web, llamado
WorldWideWeb (WWW), y el primer servidor web.22
A inicios de la década de 1990, con la introducción de nuevas facilidades de interconexión y
herramientas gráficas simples para el uso de la red, se inició el auge que actualmente le
conocemos al Internet. Este crecimiento masivo trajo consigo el surgimiento de un nuevo perfil
de usuarios, en su mayoría de personas comunes no ligadas a los sectores académicos, científicos
y gubernamentales.17
Esto ponía en cuestionamiento la subvención del gobierno estadounidense al sostenimiento y la
administración de la red, así como la prohibición existente al uso comercial del Internet. Los
hechos se sucedieron rápidamente y para 1993 ya se había levantado la prohibición al uso
comercial del Internet y definido la transición hacia un modelo de administración no
gubernamental que permitiese, a su vez, la integración de redes y proveedores de acceso
privados.23 El 30 de abril de 1993 la Web entró al dominio público, ya que el CERN entregó las
tecnologías de forma gratuita para que cualquiera pudiera utilizarlas.24 25
2006: El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez
años, la cantidad de navegantes de la Red aumentará a 2000 millones. 26
El primer dato que nos llama la atención es el incremento en el número de usuarios que utilizan
Internet. En estos diez años se ha pasado de 559 millones a 2.270 millones de personas que
navegan en todo mundo, lo que equivale al 33% total de la población, una cifra muy superior al
9,1% en el 2002.
El resultado de todo esto es lo que experimentamos hoy en día: la transformación de lo que fue
una enorme red de comunicaciones para uso gubernamental, planificada y construida con fondos
estatales, que ha evolucionado en una miríada de redes privadas interconectadas entre sí.
Actualmente la red experimenta cada día la integración de nuevas redes y usuarios, extendiendo
su amplitud y dominio, al tiempo que surgen nuevos mercados, tecnologías, instituciones y
empresas que aprovechan este nuevo medio, cuyo potencial apenas comenzamos a descubrir.27 Al
final descubrieron que se podían ver cosas de adultos. Internet va evolucionando día a día, es un
mecanismo de avance. En español la palabra 'Internet' está considerada como un nombre propio.
La RAE acepta su escritura con mayúscula inicial. Este término se utiliza preferentemente sin
artículo, aunque si se emplea, se recomienda el uso femenino (la, una, esta...). Hoy en día Internet
es necesario en nuestra vida ya que la sociedad está envuelta en un mundo cibernético, sobre todo
en los adolescentes.
Tecnología de internet
Enrutamiento y capas de servicio
Gráfica del encapsulamiento en paquetes de datos.
Los Proveedores de Servicios de Internet (ISP) conectan a clientes, quienes representan la parte
más baja en la jerarquía de enrutamiento, con otros clientes de otros ISP a través de capas de red
más altas o del mismo nivel. En lo alto de la jerarquía de enrutamiento están las redes de capa 1,
grandes compañías de telecomunicaciones que intercambian tráfico directamente con otras a
través de acuerdos de interconexión. Redes de capa 2 y de más bajo nivel compran tráfico de
Internet de otros proveedores para alcanzar al menos algunas partes del Internet mundial, aunque
también pueden participar en la interconexión. Un ISP puede usar un único proveedor para la
conectividad o implementar multihoming para conseguir redundancia y balanceo de carga. Los
puntos neutros tienen las cargas más importantes de tráfico y tienen conexiones físicas a
múltiples ISP.
Los ordenadores y routers utilizan las tablas de enrutamiento para dirigir los paquetes IP entre las
máquinas conectadas localmente. Las tablas pueden ser construidas de forma manual o
automáticamente a través de DHCP para un equipo individual o un protocolo de enrutamiento
para los routers de sí mismos. En un solo homed situaciones, una ruta por defecto por lo general
apunta hacia "arriba" hacia un ISP proporciona el transporte. De más alto nivel de los ISP
utilizan el Border Gateway Protocol para solucionar rutas de acceso a un determinado rango de
direcciones IP a través de las complejas conexiones de la Internet global. [cita requerida]
Las instituciones académicas, las grandes empresas, gobiernos y otras organizaciones pueden
realizar el mismo papel que los ISP, con la participación en el intercambio de tráfico y tránsito de
la compra en nombre de sus redes internas de las computadoras individuales. Las redes de
investigación tienden a interconectarse en subredes grandes como GEANT, GLORIAD,
Internet2, y de investigación nacional del Reino Unido y la red de la educación, Janet. Estos a su
vez se construyen alrededor de las redes más pequeñas (véase la lista de organizaciones
académicas de redes informáticas).[cita requerida]
No todas las redes de ordenadores están conectados a Internet. Por ejemplo, algunos clasificados
los sitios web de los Estados sólo son accesibles desde redes seguras independientes.[cita requerida]
Acceso a internet
Artículo principal: Conexión a Internet
Los métodos comunes de acceso a Internet en los hogares incluyen dial-up, banda ancha fija (a
través de cable coaxial, cables de fibra óptica o cobre),21 Wi-Fi, televisión vía satélite y teléfonos
celulares con tecnología 3G/4G. Los lugares públicos de uso del Internet incluyen bibliotecas y
cafés de internet, donde los ordenadores con conexión a Internet están disponibles. También hay
puntos de acceso a Internet en muchos lugares públicos, como salas de los aeropuertos y
cafeterías, en algunos casos sólo para usos de corta duración. Se utilizan varios términos, como
"kiosco de Internet", "terminal de acceso público", y "teléfonos públicos Web". Muchos hoteles
ahora también tienen terminales de uso público, las cuales por lo general basados en honorarios.
Estos terminales son muy visitada para el uso de varios clientes, como reserva de entradas,
depósito bancario, pago en línea, etc. Wi-Fi ofrece acceso inalámbrico a las redes informáticas, y
por lo tanto, puede hacerlo a la propia Internet. Hotspots les reconocen ese derecho incluye Wi-Fi
de los cafés, donde los aspirantes a ser los usuarios necesitan para llevar a sus propios
dispositivos inalámbricos, tales como un ordenador portátil o PDA. Estos servicios pueden ser
gratis para todos, gratuita para los clientes solamente, o de pago. Un punto de acceso no tiene por
qué estar limitado a un lugar confinado. Un campus entero o parque, o incluso una ciudad entera
puede ser activado.28 29
Los esfuerzos de base han dado lugar a redes inalámbricas comunitarias. Los servicios
comerciales de Wi-Fi cubren grandes áreas de la ciudad están en su lugar en Londres, Viena,
Toronto, San Francisco, Filadelfia, Chicago y Pittsburgh. El Internet se puede acceder desde
lugares tales como un banco del parque. Aparte de Wi-Fi, se han realizado experimentos con
propiedad de las redes móviles inalámbricas como Ricochet, varios servicios de alta velocidad de
datos a través de redes de telefonía celular, y servicios inalámbricos fijos. De gama alta los
teléfonos móviles como teléfonos inteligentes en general, cuentan con acceso a Internet a través
de la red telefónica. Navegadores web como Opera están disponibles en estos teléfonos
avanzados, que también puede ejecutar una amplia variedad de software de Internet. Más
teléfonos móviles con acceso a Internet que los PC, aunque esto no es tan ampliamente utilizado.
El proveedor de acceso a Internet y la matriz del protocolo se diferencia de los métodos
utilizados para obtener en línea.
Un apagón de Internet o interrupción puede ser causado por interrupciones locales de
señalización. Las interrupciones de cables de comunicaciones submarinos pueden causar
apagones o desaceleraciones a grandes áreas, tales como en la interrupción submarino 2008 por
cable. Los países menos desarrollados son más vulnerables debido a un pequeño número de
enlaces de alta capacidad. Cables de tierra también son vulnerables, como en 2011, cuando una
mujer cavando en busca de chatarra de metal cortó la mayor parte de conectividad para el país de
Armenia.[cita requerida] Internet apagones que afectan a los países casi todo se puede lograr por los
gobiernos como una forma de censura en Internet, como en el bloqueo de Internet en Egipto, en
el que aproximadamente el 93 % de las redes no tenían acceso en 2011 en un intento por detener
la movilización de protestas contra el gobierno.
En un estudio norteamericano en el año 2005, el porcentaje de hombres que utilizan Internet era
muy ligeramente por encima del porcentaje de las mujeres, aunque esta diferencia se invierte en
los menores de 30. Los hombres se conectan más a menudo, pasan más tiempo en línea, y son
más propensos a ser usuarios de banda ancha, mientras que las mujeres tienden a hacer mayor
uso de las oportunidades de comunicación (como el correo electrónico). Los hombres eran más
propensos a utilizar el Internet para pagar sus cuentas, participar en las subastas, y para la
recreación, tales como la descarga de música y vídeos. Hombres y mujeres tenían las mismas
probabilidades de utilizar Internet para hacer compras y la banca. Los estudios más recientes
indican que en 2008, las mujeres superaban en número a los hombres de manera significativa en
la mayoría de los sitios de redes sociales, como Facebook y Myspace, aunque las relaciones
variaban con la edad. Además, las mujeres vieron más contenido de streaming, mientras que los
hombres descargaron más En cuanto a los blogs, los hombres eran más propensos al blog en el
primer lugar; entre los que el blog, los hombres eran más propensos a tener un blog profesional,
mientras que las mujeres eran más propensas a tener un blog personal.
Es de gran importancia resaltar que existe una diferencia entre WEB y el INTERNET ya que el
internet es una red masiva de redes, una infraestructura de red que conecta a millones de
computadores en todo el mundo, formando una red en la que cualquier computadora se pueda
comunicar con cualquier otro equipo, siempre y cuando ambos están conectados a internet. En
cambio la web es una forma de acceder a la información sobre el medio de la internet, la web
utiliza el protocolo http el cual es sólo uno de los idiomas que se hablan a través de internet para
transmitir datos.
Nombres de dominio
Artículo principal: Dominio de Internet
La Corporación de Internet para los Nombres y los Números Asignados (ICANN) es la autoridad
que coordina la asignación de identificadores únicos en Internet, incluyendo nombres de
dominio, direcciones de Protocolos de Internet, números del puerto del protocolo y de
parámetros. Un nombre global unificado (es decir, un sistema de nombres exclusivos para
sostener cada dominio) es esencial para que Internet funcione.
El ICANN tiene su sede en California, supervisado por una Junta Directiva Internacional con
comunidades técnicas, comerciales, académicas y ONG. El gobierno de los Estados Unidos
continúa teniendo un papel privilegiado en cambios aprobados en el Domain Name System.
Como Internet es una red distribuida que abarca muchas redes voluntariamente interconectadas,
Internet, como tal, no tiene ningún cuerpo que lo gobierne.
Usos modernos
El Internet moderno permite una mayor flexibilidad en las horas de trabajo y la ubicación. Con el
Internet se puede acceder a casi cualquier lugar, a través de dispositivos móviles de Internet. Los
teléfonos móviles, tarjetas de datos, consolas de juegos portátiles y routers celulares permiten a
los usuarios conectarse a Internet de forma inalámbrica. Dentro de las limitaciones impuestas por
las pantallas pequeñas y otras instalaciones limitadas de estos dispositivos de bolsillo, los
servicios de Internet, incluyendo correo electrónico y la web, pueden estar disponibles al público
en general. Los proveedores de internet puede restringir los servicios que ofrece y las cargas de
datos móviles puede ser significativamente mayor que otros métodos de acceso.
Se puede encontrar material didáctico a todos los niveles, desde preescolar hasta post-doctoral
está disponible en sitios web. Los ejemplos van desde CBeebies, a través de la escuela y
secundaria guías de revisión, universidades virtuales, al acceso a la gama alta de literatura
académica a través de la talla de Google Académico. Para la educación a distancia, ayuda con las
tareas y otras asignaciones, el auto-aprendizaje guiado, entreteniendo el tiempo libre, o
simplemente buscar más información sobre un hecho interesante, nunca ha sido más fácil para la
gente a acceder a la información educativa en cualquier nivel, desde cualquier lugar. El Internet
en general es un importante facilitador de la educación tanto formal como informal.
El bajo costo y el intercambio casi instantáneo de las ideas, conocimientos y habilidades han
hecho el trabajo colaborativo dramáticamente más fácil, con la ayuda del software de
colaboración. De chat, ya sea en forma de una sala de chat IRC o del canal, a través de un
sistema de mensajería instantánea, o un sitio web de redes sociales, permite a los colegas a
mantenerse en contacto de una manera muy conveniente cuando se trabaja en sus computadoras
durante el día. Los mensajes pueden ser intercambiados de forma más rápida y cómodamente a
través del correo electrónico. Estos sistemas pueden permitir que los archivos que se
intercambian, dibujos e imágenes para ser compartidas, o el contacto de voz y vídeo entre los
miembros del equipo.
Sistemas de gestión de contenido permiten la colaboración a los equipos trabajar en conjuntos de
documentos compartidos al mismo tiempo, sin destruir accidentalmente el trabajo del otro. Los
equipos de negocio y el proyecto pueden compartir calendarios, así como documentos y otra
información. Esta colaboración se produce en una amplia variedad de áreas, incluyendo la
investigación científica, desarrollo de software, planificación de la conferencia, el activismo
político y la escritura creativa. La colaboración social y político es cada vez más generalizada,
como acceso a Internet y difusión conocimientos de informática.
La Internet permite a los usuarios de computadoras acceder remotamente a otros equipos y
almacenes de información fácilmente, donde quiera que estén. Pueden hacer esto con o sin la
seguridad informática, es decir, la autenticación y de cifrado, dependiendo de los requerimientos.
Esto es alentador, nuevas formas de trabajo, la colaboración y la información en muchas
industrias. Un contador sentado en su casa puede auditar los libros de una empresa con sede en
otro país. Estas cuentas podrían haber sido creado por trabajo desde casa tenedores de libros, en
otros lugares remotos, con base en la información enviada por correo electrónico a las oficinas de
todo el mundo. Algunas de estas cosas eran posibles antes del uso generalizado de Internet, pero
el costo de líneas privadas arrendadas se han hecho muchos de ellos no factibles en la práctica.
Un empleado de oficina lejos de su escritorio, tal vez al otro lado del mundo en un viaje de
negocios o de placer, pueden acceder a sus correos electrónicos, acceder a sus datos usando la
computación en nube, o abrir una sesión de escritorio remoto a su PC de la oficina usando un
seguro virtual Private Network (VPN) en Internet. Esto puede dar al trabajador el acceso
completo a todos sus archivos normales y datos, incluyendo aplicaciones de correo electrónico y
otros, mientras que fuera de la oficina. Este concepto ha sido remitido a los administradores del
sistema como la pesadilla privada virtual, [36], ya que amplía el perímetro de seguridad de una
red corporativa en lugares remotos y las casas de sus empleados.
Impacto social
Filantropía
El voluntariado en línea es la modalidad de voluntariado que se lleva a cabo a través de Internet.
Esta modalidad de voluntariado remoto aumenta la capacidad de las organizaciones en materia de
desarrollo al tiempo que ofrece un espacio para que mucha gente participe en el desarrollo, algo
de lo que, de otro modo, no disfrutarían33 Uno de los aspectos clave del voluntariado en línea es
su poder de inclusión. Dado que el voluntariado en línea no implica gastos ni viajes, cualquier
persona desde cualquier parte del mundo puede colaborar por la paz y el desarrollo34 .
Ocio
Muchos utilizan Internet para descargar música, películas y otros trabajos. Hay fuentes que
cobran por su uso y otras gratuitas, usando los servidores centralizados y distribuidos, las
tecnologías de P2P. Otros utilizan la red para tener acceso a las noticias y el estado del tiempo.
La mensajería instantánea o chat y el correo electrónico son algunos de los servicios de uso más
extendido. En muchas ocasiones los proveedores de dichos servicios brindan a sus afiliados
servicios adicionales como la creación de espacios y perfiles públicos en donde los internautas
tienen la posibilidad de colocar en la red fotografías y comentarios personales. Se especula
actualmente si tales sistemas de comunicación fomentan o restringen el contacto de persona a
persona entre los seres humanos.35
En tiempos más recientes han cobrado auge portales sociales, a veces con amplias discusiones36 ,
como YouTube, Twitter o Facebook entre otros, en donde los usuarios pueden tener acceso a una
gran variedad de vídeos sobre prácticamente cualquier tema.
La pornografía representa buena parte del tráfico en Internet, siendo a menudo un aspecto
controvertido de la red por las implicaciones morales que le acompañan. Proporciona a menudo
una fuente significativa del rédito de publicidad para otros sitios. Muchos gobiernos han
procurado sin éxito poner restricciones en el uso de ambas industrias en Internet.
El sistema multijugador constituye también buena parte del ocio en Internet.
Internet y su evolución
Inicialmente Internet tenía un objetivo claro. Se navegaba en Internet para algo muy concreto:
búsquedas de información, generalmente.
Ahora quizás también, pero sin duda alguna hoy es más probable perderse en la red, debido al
inmenso abanico de posibilidades que brinda. Hoy en día, la sensación que produce Internet es un
ruido, una serie de interferencias, una explosión de ideas distintas, de personas diferentes, de
pensamientos distintos de tantas posibilidades que, en ocasiones, puede resultar excesivo.
El crecimiento o, más bien, la incorporación de tantas personas a la red hace que las calles de lo
que en principio era una pequeña ciudad llamada Internet se conviertan en todo un planeta
extremadamente conectado entre sí, entre todos sus miembros.
El hecho de que Internet haya aumentado tanto implica una mayor cantidad de relaciones
virtuales entre personas. Es posible concluir que cuando una persona tenga una necesidad de
conocimiento no escrito en libros, puede recurrir a una fuente más acorde a su necesidad, ahora
esta fuente es posible en Internet.
Como toda gran revolución, Internet augura una nueva era de diferentes métodos de resolución
de problemas creados a partir de soluciones anteriores.
Internet produce algo que todos han sentido alguna vez; produce la esperanza que es necesaria
cuando se quiere conseguir algo. Es un despertar de intenciones que jamás antes la tecnología
había logrado en la población mundial.
Para algunos usuarios, Internet genera una sensación de cercanía, empatía, comprensión y, a la
vez, de confusión, discusión, lucha y conflictos que los mismos usuarios pueden considerar como
la vida misma.
La evolución del internet radica en la migración de la versión y uso del IPv4 a IPv6.
IP es un protocolo que no está orientado a la conexión y no es completamente seguro en la
transmisión de los datos, lo anterior permite que las conexiones inalámbricas tengan siempre
movilidad. Por otro lado, para mejorar la confiabilidad se usa el protocolo TCP. El protocolo IP,
es la forma en la que se enrutan los paquetes entre las redes. Cada nodo en cada una de las redes
tiene una dirección IP diferente. Para garantizar un enrutamiento correcto, IP agrega su propio
encabezado a los paquetes. Este proceso se apoya en tablas de enrutamiento que son actualizadas
permanentemente. En caso de que el paquete de datos sea demasiado grande, el protocolo IP lo
fragmenta para poderlo transportar. La versión que se está ocupando de este protocolo es la 4,
donde se tiene conectividad, pero también ciertas restricciones de espacio. Es por eso que las
grandes empresas proveedoras del servicio de internet migraran a la versión IPv6.
La nueva versión del protocolo IP Internet Protocol recibe el nombre de IPv6, aunque es también
conocido comúnmente como IPng Internet Protocol Next Generation. IPv6 ha sido diseñado
como un paso evolutivo desde IPv4, por lo que no representa un cambio radical respecto IPv4.
Las características de IPv4 que trabajan correctamente se han mantenido en el nuevo protocolo,
mientras que se han suprimido aquéllas que no funcionaban bien. De todos modos, los cambios
que se introducen en esta nueva versión son muchos y de gran importancia debido a las bondades
que ofrecen. A principios de 2010, quedaban menos del 10% de IPs sin asignar. En la semana del
3 de febrero del 2011, la IANA (Agencia Internacional de Asignación de Números de Internet,
por sus siglas en inglés) entregó el último bloque de direcciones disponibles (33 millones) a la
organización encargada de asignar IPs en Asia, un mercado que está en auge y no tardará en
consumirlas todas. IPv4 posibilita 4,294,967,296 (232) direcciones de red diferentes, un número
inadecuado para dar una dirección a cada persona del planeta, y mucho menos a cada vehículo,
teléfono, PDA, etcétera. En cambio, IPv6 admite
340.282.366.920.938.463.463.374.607.431.768.211.456 (2128 o 340 sextillones de direcciones)
—cerca de 6,7 × 1017 (670 milbillones) de direcciones por cada milímetro cuadrado de la
superficie de La Tierra. Otra vía para la popularización del protocolo es la adopción de este por
parte de instituciones. El Gobierno de los Estados Unidos ordenó el despliegue de IPv6 por todas
sus agencias federales en el año 2008.[cita requerida]
Fuente de información
En 2009, un estudio realizado en Estados Unidos indicó que un 56 % de los 3.030 adultos
estadounidenses entrevistados en una encuesta en línea manifestó que si tuviera que escoger una
sola fuente de información, elegiría Internet, mientras que un 21 % preferiría la televisión y tanto
los periódicos como la radio sería la opción de un 10 % de los encuestados. Dicho estudio
posiciona a los medios digitales en una posición privilegiada en cuanto a la búsqueda de
información y refleja un aumento de la credibilidad en dichos medios.37 38
Buscadores
Un buscador se define como el sistema informático que indexa archivos almacenados en
servidores web cuando se solicita información sobre algún tema. Por medio de palabras clave, se
realiza la exploración y el buscador muestra una lista de direcciones con los temas relacionados.
Existen diferentes formas de clasificar los buscadores según el proceso de sondeo que realizan.
La clasificación más frecuente los divide en: índices o directorios temáticos, motores de
búsqueda y metabuscadores.
Índices o directorios temáticos
Los índices o buscadores temáticos son sistemas creados con la finalidad de diseñar un catálogo
por temas, definiendo la clasificación por lo que se puede considerar que los contenidos ofrecidos
en estas páginas tienes ya cierto orden y calidad.
La función de este tipo de sistemas es presentar algunos de los datos de las páginas más
importantes, desde el punto de vista del tema y no de lo que se contiene. Los resultados de la
búsqueda de esta de estos índices pueden ser muy limitados ya que los directorios temáticos, las
bases de datos de direcciones son muy pequeñas, además de que puede ser posible que el
contenido de las páginas no esté completamente al día.
Motores de búsqueda
Artículo principal: Motor de búsqueda
Este tipo de buscadores son los de uso más común, basados en aplicaciones llamadas spiders
("arañas") o robots, que buscan la información con base en las palabras escritas, haciendo una
recopilación sobre el contenido de las páginas y mostrando como resultado aquéllas que
contengan la palabra o frase en alguna parte del texto.
Metabuscadores
Los metabuscadores son sistemas que localizan información en los motores de búsqueda más
utilizados, realizan un análisis y seleccionan sus propios resultados. No tienen una base de datos,
por lo que no almacenan páginas web y realizan una búsqueda automática en las bases de datos
de otros buscadores, de los cuales toma un determinado rango de registros con los resultados más
relevantes y así poder tener la información necesaria.
La función de este tipo de sistemas es presentar algunos de los datos de las páginas más
importantes, desde el punto de vista del tema y no de lo que se contiene. Los resultados de la
búsqueda de esta de estos índices pueden ser muy limitados ya que los directorios temáticos, las
bases de datos de direcciones son muy pequeñas, además de que puede ser posible que el
contenido de las páginas no esté completamente al día.
Trabajo
Con la aparición de Internet y de las conexiones de alta velocidad disponibles al público, Internet
ha alterado de manera significativa la manera de trabajar de algunas personas al poder hacerlo
desde sus respectivos hogares. Internet ha permitido a estas personas mayor flexibilidad en
términos de horarios y de localización, contrariamente a la jornada laboral tradicional, que suele
ocupar la mañana y parte de la tarde, en la cual los empleados se desplazan al lugar de trabajo.
Un experto contable asentado en un país puede revisar los libros de una compañía en otro país, en
un servidor situado en un tercer país que sea mantenido remotamente por los especialistas en un
cuarto.
Internet y sobre todo los blogs han dado a los trabajadores un foro en el cual expresar sus
opiniones sobre sus empleos, jefes y compañeros, creando una cantidad masiva de información y
de datos sobre el trabajo que está siendo recogido actualmente por el colegio de abogados de
Harvard.
Internet ha impulsado el fenómeno de la Globalización y junto con la llamada desmaterialización
de la economía ha dado lugar al nacimiento de una Nueva Economía caracterizada por la
utilización de la red en todos los procesos de incremento de valor de la empresa.
Publicidad
Artículo principal: Publicidad en Internet
Censura
Es extremadamente difícil, si no imposible, establecer control centralizado y global de Internet.
Algunos gobiernos, de naciones tales como Irán, Arabia Saudita, Corea del Norte, la República
Popular de China y Estados Unidos restringen el que personas de sus países puedan ver ciertos
contenidos de Internet, políticos y religiosos, considerados contrarios a sus criterios. La censura
se hace, a veces, mediante filtros controlados por el gobierno, apoyados en leyes o motivos
culturales, castigando la propagación de estos contenidos. Sin embargo, muchos usuarios de
Internet pueden burlar estos filtros, pues la mayoría del contenido de Internet está disponible en
todo el mundo, sin importar donde se esté, siempre y cuando se tengan la habilidad y los medios
técnicos necesarios.39
Otra posibilidad, como en el caso de China, es que este tipo de medidas se combine con la
autocensura de las propias empresas proveedoras de servicios de Internet, serían las empresas
equivalentes a Telefónicas (proveedores de servicios de Internet), para así ajustarse a las
demandas del gobierno del país receptor.40
Sin embargo algunos buscadores como Google, han tomado la decisión de amenazar al gobierno
de China con la retirada de sus servicios en dicho país si no se abole la censura en Internet.
Aunque posteriormente haya negado que tomará dichas medidas.41
Para saltarse cualquier tipo de censura o coerción en el uso de internet, se han desarrollado
múltiples tecnologías y herrramientas. Entre ellas cabe resaltar por un lado las técnicas y
herramientas criptológicas y por otro lado las tecnologías encuadradas en la llamada Darknet. La
Darknet es una colección de redes y tecnologías que persiguen la consecución de un anonimato
total de los comunicantes, creando de esta forma una zona de total libertad. Aunque actualmente
no se suele considerar que consigan un anonimato total, sin embargo, sí consiguen una mejora
sustancial en la privacidad de los usuarios. Este tipo de redes se han usado intensamente, por
ejemplo, en los sucesos de la Primavera Árabe y en todo el entramado de wikileaks para la
publicación de información confidencial. Las tecnologías de la Darknet están en fase de
perfeccionamiento y mejora de sus prestaciones.42
Para luchar contra la censura en Internet, RSF ha decidido desbloquear nueve sitios web
informativos censurados en once países, es decir, permitirá que se pueda acceder a ellos desde el
territorio en el que actualmente se encuentran prohibidos: Grani.ru, bloqueado en Rusia;
Fregananews, censurado en Kazajistán, Uzbekistán y Turkmenistán; The Tibet Post y Mingjing
News, prohibidos en China; Dan Lam Bao, bloqueado en Vietnam; Hablemos Press, censurado
en Cuba; Gooya News, bloqueado en Irán; el Gulf Center for Human Rights, censurado en los
Emiratos Árabes Unidos y en Arabia Saudita, y Bahrain Mirror, prohibido en Bahréin y en
Arabia Saudita.
Leer más: http://www.rsf-es.org/grandes-citas/dia-contra-censura-en-internet/
Internet aparece muchas veces en obras de ficción. Puede ser un elemento más de la trama, algo
que se usa de forma habitual tal y como se hace en la vida real.
También hay obras donde Internet se presenta como un medio maligno que permite a hackers
sembrar el caos, alterar registros, como por ejemplo, las películas La Red, Live Free or Die Hard,
etc. Hay otras obras donde aparece como una gran oportunidad para la libertad de expresión (por
ejemplo, la película FAQ: Frequently Asked Questions).
Tamaño
Un estudio del año 2005 usando distintos motores de búsqueda (Google, MSN, Yahoo! y Ask
Jeeves) estimaba que existían 11 500 millones de páginas Web.43 Otro estudio del año 2008
estimaba que la cantidad había ascendido a 63 000 millones de páginas web.44
Sin embargo es difícil establecer el tamaño exacto de Internet, ya que este crece continuamente y
no existe una manera fiable de acceder a todo su contenido y, por consiguiente, de determinar su
tamaño. Para estimar esta cantidad se usan las webs indexadas por los distintos motores de
búsqueda, pero este método no abarca todas las páginas en línea. Utilizando este criterio Internet
se puede dividir en:
Internet superficial: Incluye los servicios indexados por los motores de búsqueda.
Internet profunda: Incluye el resto de servicios no indexados como páginas en Flash, páginas
protegidas por contraseña, inaccesibles para las arañas, etc. Se estima que el tamaño de la
Internet profunda es varios órdenes de magnitud mayor que el de Internet superficial.
Usuarios
Índice
1 Objetivos
2 Amenazas
3 Análisis de riesgos
o 6.4 Sanitización
o 8.1 España
o 8.3 Alemania
9 Véase también
10 Notas y referencias
11 Enlaces externos
Objetivos
La seguridad informática debe establecer normas que minimicen los riesgos a la información o
infraestructura informática. Estas normas incluyen horarios de funcionamiento, restricciones a
ciertos lugares, autorizaciones, denegaciones, perfiles de usuario, planes de emergencia,
protocolos y todo lo necesario que permita un buen nivel de seguridad informática minimizando
el impacto en el desempeño de los trabajadores y de la organización en general y como principal
contribuyente al uso de programas realizados por programadores.
La seguridad informática está concebida para proteger los activos informáticos, entre los que se
encuentran los siguientes:
La infraestructura computacional: Es una parte fundamental para el almacenamiento y gestión
de la información, así como para el funcionamiento mismo de la organización. La función de la
seguridad informática en esta área es velar que los equipos funcionen adecuadamente y
anticiparse en caso de fallas, robos, incendios, boicot, desastres naturales, fallas en el suministro
eléctrico y cualquier otro factor que atente contra la infraestructura informática.
Los usuarios: Son las personas que utilizan la estructura tecnológica, zona de comunicaciones y
que gestionan la información. Debe protegerse el sistema en general para que el uso por parte
de ellos no pueda poner en entredicho la seguridad de la información y tampoco que la
información que manejan o almacenan sea vulnerable.
Programas maliciosos: programas destinados a perjudicar o a hacer un uso ilícito de los recursos
del sistema. Es instalado (por inatención o maldad) en el ordenador, abriendo una puerta a
intrusos o bien modificando los datos. Estos programas pueden ser un virus informático, un
gusano informático, un troyano, una bomba lógica, un programa espía o spyware, en general
conocidos como malware.
Intrusos: personas que consiguen acceder a los datos o programas a los cuales no están
autorizados (crackers, defacers, hackers, script kiddie o script boy, viruxers, etc.).
Un siniestro (robo, incendio, inundación): una mala manipulación o una mala intención derivan
a la pérdida del material o de los archivos.
Ingeniería Social
Existen diferentes tipos de ataques en Internet como virus, troyanos u otros, dichos ataques
pueden ser contrarrestados o eliminados pero hay un tipo de ataque, que no afecta directamente a
los ordenadores, sino a sus usuarios, conocidos como “el eslabón más débil”. Dicho ataque es
capaz de almacenar conseguir resultados similares a un ataque a través de la red, saltándose toda
la infraestructura creada para combatir programas maliciosos. Además, es un ataque más
eficiente, debido a que es más complejo de calcular y prever. Se pueden utilizar infinidad de
influencias psicológicas para lograr que los ataques a un servidor sean lo más sencillo posible, ya
que el usuario estaría inconscientemente dando autorización para que dicha inducción se vea
finiquitada hasta el punto de accesos de administrador.1
Tipos de amenaza
Existen infinidad de modos de clasificar un ataque y cada ataque puede recibir más de una
clasificación. Por ejemplo, un caso de phishing puede llegar a robar la contraseña de un usuario
de una red social y con ella realizar una suplantación de la identidad para un posterior acoso, o el
robo de la contraseña puede usarse simplemente para cambiar la foto del perfil y dejarlo todo en
una broma (sin que deje de ser delito en ambos casos, al menos en países con legislación para el
caso, como lo es España).
Amenazas por el origen
El hecho de conectar una red a un entorno externo nos da la posibilidad de que algún atacante
pueda entrar en ella,y con esto, se puede hacer robo de información o alterar el funcionamiento
de la red. Sin embargo el hecho de que la red no esté conectada a un entorno externo, como
Internet, no nos garantiza la seguridad de la misma. De acuerdo con el Computer Security
Institute (CSI) de San Francisco aproximadamente entre el 60 y 80 por ciento de los incidentes de
red son causados desde dentro de la misma. Basado en el origen del ataque podemos decir que
existen dos tipos de amenazas:
Amenazas internas: Generalmente estas amenazas pueden ser más serias que las externas por
varias razones como son:
Amenazas externas: Son aquellas amenazas que se originan fuera de la red. Al no tener
información certera de la red, un atacante tiene que realizar ciertos pasos para poder conocer
qué es lo que hay en ella y buscar la manera de atacarla. La ventaja que se tiene en este caso es
que el administrador de la red puede prevenir una buena parte de los ataques externos.
Amenazas por el efecto
El tipo de amenazas por el efecto que causan a quien recibe los ataques podría clasificarse en:
Robo de información.
Destrucción de información.
Phishing.
Ingeniería social.
Denegación de servicio.
Es decir, se trata de dotar de significado a las páginas Web, y de ahí el nombre de Web
semántica o Sociedad del Conocimiento, como evolución de la ya pasada Sociedad de la
Información
En este sentido, las amenazas informáticas que viene en el futuro ya no son con la inclusión de
troyanos en los sistemas o softwares espías, sino con el hecho de que los ataques se han
profesionalizado y manipulan el significado del contenido virtual.
“La Web 3.0, basada en conceptos como elaborar, compartir y significar, está representando un
desafío para los hackers que ya no utilizan las plataformas convencionales de ataque, sino que
optan por modificar los significados del contenido digital, provocando así la confusión lógica del
usuario y permitiendo de este modo la intrusión en los sistemas”, La amenaza ya no solicita la
clave de homebanking del desprevenido usuario, sino que directamente modifica el balance de
la cuenta, asustando al internauta y, a partir de allí, sí efectuar el robo del capital”.
Obtención de perfiles de los usuarios por medios, en un principio, lícitos: seguimiento de las
búsquedas realizadas, históricos de navegación, seguimiento con geoposicionamiento de los
móviles, análisis de las imágenes digitales subidas a Internet, etc.
Para no ser presa de esta nueva ola de ataques más sutiles, se recomienda:
Mantener las soluciones activadas y actualizadas.
Verificar los archivos adjuntos de mensajes sospechosos y evitar su descarga en caso de duda.
Análisis de riesgos
Artículo principal: Análisis de riesgo informático
El reto es asignar estratégicamente los recursos para cada equipo de seguridad y bienes que
intervengan, basándose en el impacto potencial para el negocio, respecto a los diversos incidentes
que se deben resolver.
Para determinar el establecimiento de prioridades, el sistema de gestión de incidentes necesita
saber el valor de los sistemas de información que pueden ser potencialmente afectados por
incidentes de seguridad. Esto puede implicar que alguien dentro de la organización asigne un
valor monetario a cada equipo y un archivo en la red o asignar un valor relativo a cada sistema y
la información sobre ella. Dentro de los valores para el sistema se pueden distinguir:
confidencialidad de la información, la integridad (aplicaciones e información) y finalmente la
disponibilidad del sistema. Cada uno de estos valores es un sistema independiente del negocio,
supongamos el siguiente ejemplo, un servidor web público pueden poseer la característica de
confidencialidad baja (ya que toda la información es pública) pero necesita alta disponibilidad e
integridad, para poder ser confiable. En contraste, un sistema de planificación de recursos
empresariales (ERP) es, habitualmente, un sistema que posee alto puntaje en las tres variables.
Los incidentes individuales pueden variar ampliamente en términos de alcance e importancia.
Actualmente las legislaciones nacionales de los Estados, obligan a las empresas, instituciones
públicas a implantar una política de seguridad. Por ejemplo, en España, la Ley Orgánica de
Protección de Datos de carácter personal o también llamada LOPD y su normativa de desarrollo,
protege ese tipo de datos estipulando medidas básicas y necesidades que impidan la pérdida de
calidad de la información o su robo. También en ese país, el Esquema Nacional de Seguridad
establece medidas tecnológicas para permitir que los sistemas informáticos que prestan servicios
a los ciudadanos cumplan con unos requerimientos de seguridad acordes al tipo de disponibilidad
de los servicios que se prestan.
Generalmente se ocupa exclusivamente a asegurar los derechos de acceso a los datos y recursos
con las herramientas de control y mecanismos de identificación. Estos mecanismos permiten
saber que los operadores tienen sólo los permisos que se les dio.
La seguridad informática debe ser estudiada para que no impida el trabajo de los operadores en lo
que les es necesario y que puedan utilizar el sistema informático con toda confianza. Por eso en
lo referente a elaborar una política de seguridad, conviene:
Elaborar reglas y procedimientos para cada servicio de la organización.
Definir las acciones a emprender y elegir las personas a contactar en caso de detectar una
posible intrusión
Sensibilizar a los operadores con los problemas ligados con la seguridad de los sistemas
informáticos.
Los derechos de acceso de los operadores deben ser definidos por los responsables jerárquicos y
no por los administradores informáticos, los cuales tienen que conseguir que los recursos y
derechos de acceso sean coherentes con la política de seguridad definida. Además, como el
administrador suele ser el único en conocer perfectamente el sistema, tiene que derivar a la
directiva cualquier problema e información relevante sobre la seguridad, y eventualmente
aconsejar estrategias a poner en marcha, así como ser el punto de entrada de la comunicación a
los trabajadores sobre problemas y recomendaciones en término de seguridad informática.
Técnicas para asegurar el sistema
Dos firewalls permiten crear una Zona_desmilitarizada_(informática) donde alojar los principales
servidores que dan servicio a la empresa y la relacionan con Internet. Por ejemplo, los servidores web,
los servidores de correo electrónico,... El router es el elemento expuesto directamente a Internet y, por
tanto, el más vulnerable.
El activo más importante que se posee es la información y, por lo tanto, deben existir técnicas
que la aseguren, más allá de la seguridad física que se establezca sobre los equipos en los cuales
se almacena. Estas técnicas las brinda la seguridad lógica que consiste en la aplicación de
barreras y procedimientos que resguardan el acceso a los datos y solo permiten acceder a ellos a
las personas autorizadas para hacerlo.
Cada tipo de ataque y cada sistema requiere de un medio de protección o más (en la mayoría de
los casos es una combinación de varios de ellos)
A continuación se enumeran una serie de medidas que se consideran básicas para asegurar un
sistema tipo, si bien para necesidades específicas se requieren medidas extraordinarias y de
mayor profundidad:
Utilizar técnicas de desarrollo que cumplan con los criterios de seguridad al uso para todo el
software que se implante en los sistemas, partiendo de estándares y de personal
suficientemente formado y concienciado con la seguridad.
Implantar medidas de seguridad físicas: sistemas anti incendios, vigilancia de los centros de
proceso de datos, sistemas de protección contra inundaciones, protecciones eléctricas contra
apagones y sobretensiones, sistemas de control de accesos, etc.
Contraseñas difíciles de averiguar que, por ejemplo, no puedan ser deducidas a partir de los
datos personales del individuo o por comparación con un diccionario, y que se cambien con la
suficiente periodicidad. Las contraseñas, además, deben tener la suficiente complejidad como
para que un atacante no pueda deducirla por medio de programas informáticos. El uso de
certificados digitales mejora la seguridad frente al simple uso de contraseñas.
Vigilancia de red. Las redes transportan toda la información, por lo que además de ser el medio
habitual de acceso de los atacantes, también son un buen lugar para obtener la información sin
tener que acceder a las fuentes de la misma. Por la red no solo circula la información de ficheros
informáticos como tal, también se transportan por ella: correo electrónico, conversaciones
telefónica (VoIP), mensajería instantánea, navegación Internet, lecturas y escrituras a bases de
datos, etc. Por todo ello, proteger la red es una de las principales tareas para evitar robo de
información. Existen medidas que abarcan desde la seguridad física de los puntos de entrada
hasta el control de equipos conectados, por ejemplo 802.1x. En el caso de redes inalámbricas la
posibilidad de vulnerar la seguridad es mayor y deben adoptarse medidas adicionales.
Redes perimetrales de seguridad, o DMZ, permiten generar reglas de acceso fuertes entre los
usuarios y servidores no públicos y los equipos publicados. De esta forma, las reglas más débiles
solo permiten el acceso a ciertos equipos y nunca a los datos, que quedarán tras dos niveles de
seguridad.
Mantener los sistemas de información con las actualizaciones que más impacten en la seguridad.
Restringir el acceso (de personas de la organización y de las que no lo son) a los programas y
archivos.
Asegurar que los operadores puedan trabajar pero que no puedan modificar los
programas ni los archivos que no correspondan (sin una supervisión minuciosa).
Asegurar que la información transmitida sea la misma que reciba el destinatario al cual
se ha enviado y que no le llegue a otro y que existan sistemas y pasos de emergencia
alternativos de transmisión entre diferentes puntos.
Organizar a cada uno de los empleados por jerarquía informática, con claves distintas y
permisos bien establecidos, en todos y cada uno de los sistemas o aplicaciones
empleadas.
Redundancia y descentralización.
Respaldo de información
Artículo principal: Copia de seguridad
La información constituye el activo más importante de las empresas, pudiendo verse afectada por
muchos factores tales como robos, incendios, fallas de disco, virus u otros. Desde el punto de
vista de la empresa, uno de los problemas más importantes que debe resolver es la protección
permanente de su información crítica.
La medida más eficiente para la protección de los datos es determinar una buena política de
copias de seguridad o backups. Este debe incluir copias de seguridad completa (los datos son
almacenados en su totalidad la primera vez) y copias de seguridad incrementales (solo se copian
los ficheros creados o modificados desde el último backup). Es vital para las empresas elaborar
un plan de backup en función del volumen de información generada y la cantidad de equipos
críticos.
Un buen sistema de respaldo debe contar con ciertas características indispensables:
Continuo
El respaldo de datos debe ser completamente automático y continuo. Debe funcionar de forma
transparente, sin intervenir en las tareas que se encuentra realizando el usuario.
Seguro
Muchos softwares de respaldo incluyen cifrado de datos, lo cual debe ser hecho localmente en
el equipo antes del envío de la información.
Remoto
Los datos deben quedar alojados en dependencias alejadas de la empresa.
Mantenimiento de versiones anteriores de los datos
Se debe contar con un sistema que permita la recuperación de, por ejemplo, versiones diarias,
semanales y mensuales de los datos.
Hoy en día los sistemas de respaldo de información online, servicio de backup remoto, están
ganando terreno en las empresas y organismos gubernamentales. La mayoría de los sistemas
modernos de respaldo de información online cuentan con las máximas medidas de seguridad y
disponibilidad de datos. Estos sistemas permiten a las empresas crecer en volumen de
información derivando la necesidad del crecimiento de la copia de respaldo a proveedor del
servicio.
Redes cableadas
Las rosetas de conexión de los edificios deben estar protegidas y vigiladas. Una medida básica es
evitar tener puntos de red conectados a los switches. Aun así siempre puede ser sustituido un
equipo por otro no autorizado con lo que hacen falta medidas adicionales: norma de acceso
802.1x, listas de control de acceso por MAC addresses, servidores de DHCP por asignación
reservada, etc.
Redes inalámbricas
En este caso el control físico se hace más difícil, si bien se pueden tomar medidas de contención
de la emisión electromagnética para circunscribirla a aquellos lugares que consideremos
apropiados y seguros. Además se consideran medidas de calidad el uso del cifrado ( WPA, WPA
v.2, uso de certificados digitales, etc.), contraseñas compartidas y, también en este caso, los
filtros de direcciones MAC, son varias de las medidas habituales que cuando se aplican
conjuntamente aumentan la seguridad de forma considerable frente al uso de un único método.
Sanitización
Artículo principal: Sanitización
Proceso lógico y/o físico mediante el cual se elimina información considerada sensible o
confidencial de un medio ya sea físico o magnético, ya sea con el objeto de desclasificarlo,
reutilizar el medio o destruir el medio en el cual se encuentra.
Algunas afirmaciones erróneas comunes acerca de la seguridad
«Mi sistema no es importante para un hacker»
Esta afirmación se basa en la idea de que no introducir contraseñas seguras en una empresa no
entraña riesgos pues « ¿quién va a querer obtener información mía?». Sin embargo, dado que los
métodos de contagio se realizan por medio de programas automáticos, desde unas máquinas a
otras, estos no distinguen buenos de malos, interesantes de no interesantes, etc. Por tanto abrir
sistemas y dejarlos sin claves es facilitar la vida a los virus y de posibles atacantes. Otra
consideración respecto a esta afirmación que la llevan a ser falsa es que muchos ataques no
tienen otro fin que el destruir por destruir sin evaluar la importancia.
«Estoy protegido pues no abro archivos que no conozco»
Esto es falso, pues existen múltiples formas de contagio, además los programas realizan acciones
sin la supervisión del usuario poniendo en riesgo los sistemas, si bien la medida es en sí acertada
y recomendable.
«Como tengo antivirus estoy protegido»
En general los programas antivirus no son capaces de detectar todas las posibles formas de
contagio existentes, ni las nuevas que pudieran aparecer conforme los ordenadores aumenten las
capacidades de comunicación, además los antivirus son vulnerables a desbordamientos de búfer
que hacen que la seguridad del sistema operativo se vea más afectada aún, aunque se considera
como una de las medidas preventivas indispensable.
«Como dispongo de un cortafuegos (firewall) no me contagio»
Esto únicamente proporciona una limitada capacidad de respuesta. Las formas de infectarse en
una red son múltiples. Unas provienen directamente de accesos al sistema (de lo que protege un
firewall) y otras de conexiones que se realizan (de las que no me protege). Emplear usuarios con
altos privilegios para realizar conexiones puede entrañar riesgos, además los firewalls de
aplicación (los más usados) no brindan protección suficiente contra técnicas de suplantación de
identidad (spoofing). En todo caso, el uso de cortafuegos del equipo y de la red se consideran
altamente recomendables.
«Tengo un servidor web cuyo sistema operativo es un Unix actualizado a la fecha y por tanto
seguro»
Puede que esté protegido contra ataques directamente hacia el núcleo, pero si alguna de las
aplicaciones web (PHP, Perl, Cpanel, etc.) está desactualizada, un ataque sobre algún script de
dicha aplicación puede permitir que el atacante abra una shell y por ende ejecutar comandos en el
unix. También hay que recordar que un sistema actualizado no está libre de vulnerabilidades sino
que no se tiene ninguna de las descubiertas hasta el momento.
España
El Instituto Nacional de Ciberseguridad (INCIBE) es un organismo dependiente de Red.es y del
Ministerio de Industria, Energía y Turismo de España.
Unión Europea
La Comisión Europea ha decidido crear el Centro Europeo de Ciberdelincuencia el EC3 abrió
efectivamente el 1 de enero de 2013 y será el punto central de la lucha de la UE contra la
delincuencia cibernética , contribuyendo a una reacción más rápida a los delitos en línea. Se
prestará apoyo a los Estados miembros y las instituciones de la UE en la construcción de una
capacidad operacional y analítico para la investigación , así como la cooperación con los socios
internacionales .
Alemania
El 16 de junio de 2011, el ministro alemán del Interior, inauguró oficialmente el nuevo Centro
Nacional de Defensa Cibernética (NCAZ, o Nationales Cyber- Abwehrzentrum) que se encuentra
en Bonn. El NCAZ coopera estrechamente con la Oficina Federal para la Seguridad de la
Información (Bundesamt für Sicherheit in der Informationstechnik, o BSI); la Oficina Federal de
Investigación Criminal (Bundeskriminalamt, BKA); el Servicio Federal de Inteligencia
(Bundesnachrichtendienst, o BND); el Servicio de Inteligencia Militar (Amt für den
Militärischen Abschirmdienst, o MAD) y otras organizaciones nacionales en Alemania. Según el
Ministro la tarea primordial de la nueva organización fundada el 23 de febrero de 2011, es
detectar y prevenir los ataques contra la infraestructura nacional.
Estados Unidos
El 1 de julio de 2009, el senador Jay Rockefeller ( D -WV ) introdujo la "Ley de Seguridad
Cibernética de 2009 - S. 773 " (texto completo ) en el Senado , el proyecto de ley, co - escrito
con los senadores Evan Bayh (D- IL), Barbara Mikulski (D -MD) , Bill Nelson (D -FL ) y
Olympia Snowe (R -ME ) , se remitió a la Comisión de Comercio, Ciencia y Transporte , que
aprobó una versión revisada del mismo proyecto de ley (el " Ley de ciberseguridad de 2010 ") el
24 de marzo de 2010. el proyecto de ley busca aumentar la colaboración entre el sector público y
el sector privado en temas de ciberseguridad , en especial las entidades privadas que poseen las
infraestructuras que son fundamentales para los intereses de seguridad nacionales ( las comillas
cuenta John Brennan, el Asistente del Presidente para la seguridad Nacional y Contraterrorismo :
" la seguridad de nuestra nación y la prosperidad económica depende de la seguridad, la
estabilidad y la integridad de las comunicaciones y la infraestructura de información que son en
gran parte privados que operan a nivel mundial " y habla de la respuesta del país a un "ciber -
Katrina " .) , aumentar la conciencia pública sobre las cuestiones de seguridad cibernética , y
fomentar la investigación y la ciberseguridad fondo. Algunos de los puntos más controvertidos
del proyecto de ley incluyen el párrafo 315 , que otorga al Presidente el derecho a " solicitar la
limitación o el cierre del tráfico de Internet hacia y desde el Gobierno Federal comprometido o
sistema de información de Estados Unidos o de las infraestructuras críticas de la red ". la
Electronic Frontier Foundation , una defensa de los derechos digitales sin fines de lucro y la
organización legal con sede en los Estados Unidos , que se caracteriza el proyecto de ley como la
promoción de un " enfoque potencialmente peligrosa que favorece la dramática sobre la respuesta
sobria " .
Guía de informática saludable
Introducción
Esta guía está diseñada para ayudarle a utilizar el equipo con mayor comodidad y productividad.
También puede ayudarle a reducir el riesgo de sufrir dolorosas lesiones o trastornos que puedan
producir discapacidad, tal como se indica en la siguiente Advertencia para la salud.
Solo se tarda un momento en leerla, pero las ventajas pueden ser duraderas.
Ajuste la altura de la superficie de trabajo y de la silla para adoptar una postura corporal cómoda
y natural (vea el detalle 2).
Para adoptar posturas que resulten cómodas para las piernas, pruebe lo
siguiente:
Quite los objetos situados bajo el escritorio para permitir una postura cómoda y facilitar la
movilidad de las piernas.
Al escribir, centre el teclado con respecto al cuerpo y coloque el ratón o la bola de seguimiento
cerca de él (vea el detalle 4).
Coloque los elementos que use con más frecuencia al alcance del brazo (vea el detalle 5).
Escriba con las manos y las muñecas flotando sobre el teclado, de modo que pueda utilizar todo
el brazo para alcanzar las teclas distantes en lugar de estirar los dedos.
Tal vez deba utilizar un atril para colocar los documentos a la altura de los ojos.
Evite los reflejos. Coloque el monitor lejos de las fuentes de luz que produzcan reflejos o utilice
persianas para controlar los niveles de luz.
Ajuste los tamaños de fuente de la pantalla para que pueda ver con mayor comodidad si el
programa del equipo cuenta con esta característica.
Relájese
Las fuerzas físicas interactúan continuamente con nuestro cuerpo. A veces se considera que sólo
las fuerzas provocadas por grandes impactos, como los accidentes automovilísticos, pueden
ocasionar lesiones a nuestro cuerpo. No obstante, las fuerzas de impactos leves también pueden
producir lesiones, incomodidad y cansancio, si se producen de forma repetida o durante períodos
prolongados.
Asimismo, utilice movimientos suaves al hacer clic con el botón del ratón o al utilizar un joystick
u otro mando para jugar.
Sujete el ratón con la mano relajada, no es necesario que lo sujete con fuerza.
No apoye las palmas de las manos o las muñecas sobre ninguna superficie al escribir (vea el
detalle 7). Si dispone de un reposamuñecas, sólo debe utilizarlo durante las pausas de escritura.
Relaje los brazos y las manos cuando no escriba ni utilice el ratón. No apoye los brazos y las
manos en los bordes como, por ejemplo, en los del escritorio.
Ajuste la silla para que el asiento no ejerza presión sobre la parte posterior de las rodillas (vea el
detalle 8).
Tome descansos
Los descansos pueden ayudar a que su cuerpo se recupere de una actividad y a evitar la aparición
de trastornos MSD. La duración y frecuencia adecuadas de los descansos dependen del tipo de
trabajo que se realice. Detener la actividad y relajarse es una forma de descansar, pero hay otros
modos de realizar pausas. Por ejemplo, cambiar de tareas (quizás, de estar sentado escribiendo a
estar de pie hablando por teléfono) puede ayudarle a relajar algunos músculos mientras otros
permanecen en acción.
Utilice distintos dispositivos de entrada, como el ratón y el teclado para realizar la misma tarea.
Por ejemplo, para realizar una tarea de desplazamiento, puede utilizar la rueda del ratón y las
teclas de dirección del teclado.
Puede trabajar con mayor eficacia si utiliza las características del software y el hardware para
reducir el esfuerzo y aumentar la productividad. Por ejemplo, puede presionar la tecla del
logotipo de Windows para abrir el menú Inicio de Windows.
Para aprender las características del software y el hardware, lea la información que se incluye
con los productos. Por ejemplo, si resalta texto con frecuencia, asigne un botón del ratón a
Bloqueo de clic.
Cuide su salud
Un estilo de vida saludable puede ayudarle a realizar las actividades cotidianas y disfrutar de
ellas, incluido el tiempo que pasa frente al equipo. Asimismo, un mayor aprendizaje sobre la
salud constituye un paso importante para mantener la comodidad y la productividad al utilizar el
equipo.
Haga ejercicio para estar en forma y proporcionar resistencia y flexibilidad al cuerpo. Consulte
con un profesional médico competente para determinar los estiramientos y ejercicios
adecuados.
Si tiene alguna pregunta sobre la posible relación de los estados médicos y físicos con los
trastornos musculo esqueléticos, consulte con un profesional médico cualificado. A pesar de que
los investigadores aún no pueden dar respuesta a muchas de las preguntas sobre las causas de
los trastornos musculo esqueléticos denominados MSD, existe un acuerdo general acerca de los
muchos factores que pueden estar ligados a su aparición, entre los que se incluyen los cambios
hormonales (como los producidos por el embarazo), las lesiones pasadas, la diabetes y la artritis
reumatoide.
Conclusión
Es importante conocer mejor el modo de trabajar cómodamente y de manera productiva, así
como el estado de salud general ya que, con ello, disfrutará en mayor medida su experiencia
informática.
Ergonomía y salud
La ergonomía es el estudio de las capacidades físicas y mentales del ser humano y la aplicación
de sus investigaciones en la interacción de las personas con productos, equipos y entornos
artificiales. Por un lado, puede indicar principios para obtener productos más seguros o más
fáciles de usar; por otro, la ergonomía puede también generar mejores procedimientos para
llevar a cabo una determinada tarea. Debido al incremento del uso de la computación en todo
tipo de organizaciones y en el hogar, surge un interés por hacer uso de la ergonomía con la
finalidad de ajustar el trabajo a la medida de las personas, mejorando el modo de realizar las
tareas y dando pautas para que los equipos de computación sean lo más cómodos posibles,
evitando esfuerzos para adaptarse al trabajo. Se idean pautas para que el diseño y uso de las
computadoras incremente la productividad evitando los posibles riesgos a la salud.
Los usuarios pueden evitar los inconvenientes de fatiga y tensión adquiriendo ciertos hábitos
sanos al momento de trabajar. Es importante tomar en cuenta algunas recomendaciones, entre
las que se encuentran, tomar descansos frecuentes y la dotación de nuestro centro de trabajo del
mobiliario de cómputo, adecuado y diseñado bajo pautas ergonómicas. La elección de una
buena silla, que sea confortable, ajuste de altura, soporte para la toda la espalda, y con soporte
para los brazos es una adecuada inversión.
Síndrome de la computadora
Es una dolencia o grupo de trastornos, que están asociados al uso prolongado e indiscriminado
del computador sin prevención alguna. Los síntomas característicos son:
Ya la comunidad médica mundial ha venido destacando que bastan unos cinco años para que
los usuarios padezcan patologías que pueden atentar contra la salud, en especial aquellos que
no se despegan ni un minuto de su trabajo. Este es uno de los aspectos de la computadora de
los cuales poco se habla y que va en contra de sus ya bien destacados beneficios.
Las investigaciones han comprobado que los operarios tecnológicos son susceptibles a padecer
de dolores de espalda, brazos, muñecas, manos y cuello. Estos padecimientos tienen sus
precedentes en los trabajadores textiles y automotrices desde hace tiempo, pero se vio
incrementado entre los usuarios de las computadoras. Este tipo de lesiones son conocidas como
lesiones de tensión repetitiva, lesión de movimiento repetitivo o trastorno de lesiones
acumuladas, que describen los padecimientos consecuencia de labores rápidas y repetitivas,
como las desarrolladas por usuarios intensivos de teclado. Si son desatendidas, tales lesiones
pueden convertirse en trastornos severos y atroces. Pero existen alternativas para
contrarrestarlas y poder disfrutar de los beneficios del computador. La adopción de posturas
saludables, la relajación muscular y el uso de equipos ergonómicos son algunas de estas
recomendaciones.
Prevención:
• La silla debe ser ajustable, en lo posible en cuanto a altura y ángulo y contar con un
respaldo adecuado que cubra toda la espalda.
• Si es posible se recomienda invertir en una buena silla ergonómica, pues son adaptables a
los movimientos del cuerpo.
• La mesa para el monitor debería ser ajustable, porque éste debe quedar a la altura de los
ojos o ligeramente debajo de éstos, evitando curvaturas forzadas de la espalda. El teclado
debe ser móvil.
• Realizar estiramientos cada dos horas y relajarse usando técnicas respiratorias.
2.- Ojos
Efectos:
• El uso de monitores obliga a usar la
vista, a una distancia reducida por
períodos largos, provocando dolor de
cabeza, fatiga visual y vista doble o
borrosa.
• Dolor, Resequedad e irritación ocular.
• Sensibilidad a la luz. Fatiga visual o
espasmos en el sistema visual.
Uso de pantalla antireflejos
Prevención:
• Tomar descansos de 15 minutos cada hora. Mientras se trabaja, desplazar la vista del
monitor en forma sistemática.
• Parpadear periódicamente para humectar la vista. Utilizar lágrimas artificiales para
prevenir la resequedad del ojo.
• Fijar la mirada en un objeto distante al monitor cada media hora para ejercitar los ojos y
mejorar el enfoque.
• Colocar la pantalla del computador de manera que no reflejen fuentes de luz
resplandecientes (como las de ventanas). Con tal fin es recomendable el uso de filtros
antireflejos para bloquear además la radiación de la pantalla y reducir así la fatiga visual.
• Mantener aproximadamente a la misma distancia todo aquello en lo que se fija la vista
mientras se trabaja. Por ejemplo, el monitor, el teclado y el atril que sostiene documentos
deberían tener una distancia de 50 centímetros del usuario
• La distancia del usuario al monitor debe ser de un mínimo de 40 centímetros y un máximo
de 70 centímetros
• El uso intensivo del ratón puede ocasionar el síndrome del túnel carpiano: una inflamación
en los nervios de la muñeca por los movimientos inapropiados en forma repetida, que
causa molestia y dolor en la palma de la mano, la muñeca y los dedos de la mano. En
muchos casos se hace necesario una cirugía correctiva.
Prevención:
• Para evitar el entumecimiento, retirar las manos
del teclado para relajarlas y estirar los músculos.
• Utilizar el ratón con una almohadilla especial
para descansar la muñeca.
• En lo posible, se sugiere el uso de un ratón
ergonómico que se adapte a la mano.
• El teclado debe estar a la altura de los codos.
• Es aconsejable el uso de teclados ergonómicos
porque se adaptan a la curvatura de la mano y
evitan los dolores producidos por el tipeo
sistemático.
Teclados ergonómicos • Escribir con las manos elevadas del teclado
para extender la muñeca.
4.- Campos electromagnéticos
Efectos:
Al igual que muchos electrodomésticos, los equipos de computación producen emisiones de
campos electromagnéticos que pueden atravesar el cuerpo humano. Estos campos se crean
durante la generación, transmisión y uso de energía eléctrica de baja frecuencia. Aunque no se
ha determinado claramente el efecto de estas emisiones en los humanos, se cree que podrían
estar relacionados con abortos e incluso cáncer. Aún sin aceptar que estas emisiones puedan ser
dañinas, la industria ha venido desarrollando monitores con una más baja emisión para ofrecer
a los usuarios.
Prevención:
Se debe adoptar una práctica de prevención que reduzca en lo posible la exposición a las
emisiones de campos electromagnéticos. Dado que éstos pierden fuerza con la distancia,
algunas opciones para reducir el riesgo son:
• Situarse a una distancia de al menos
unos
60 centímetros de distancia del monitor.
• Opcionalmente pueden usarse los
monitores de cristal líquido (LCD) que
no irradian campos electromagnéticos.
• Sentarse alejado de la computadora al
menos a un brazo de longitud. Los costados
y las partes traseras son los puntos de
emisión más intensos.
• Tomar frecuentes descansos lejos de la
computadora. Monitor LCD
Específicamente en lo que al uso de Internet se refiere, es conveniente hacer las búsquedas más
provechosas y agradables, de modo que no conduzca al colapso recorriendo páginas sin sentido
hasta perderse en el caos. Se debe definir si la consulta se hace por trabajo o diversión,
evaluando cuánto tiempo merece la búsqueda, respetando el tiempo previsto, determinando si
el tiempo invertido vale la pena, planificando la búsqueda previamente y ajustándose en lo
posible a dicho plan.
Se es víctima de esta adicción cuando no se hace fácil escoger libremente entre las actividades
que se pueden realizar y estar ocupado con el uso de la computadora, lleva a la persona a
ocultarse, convirtiendo esta ocupación en algo mecánico y repetitivo, en algo obsesivo. Cuando
el uso de la computadora comienza a interferir de manera significativa en las actividades
habituales de una persona, entonces puede ser considerado patológico. La interferencia en los
hábitos de vida no es un criterio muy claro porque varía entre las diferentes personas
dependiendo de aspectos propios de personalidad, tiempo libre, dinero y otras circunstancias
familiares y personales. Criterios que delaten esta adicción son la necesidad de incrementar la
cantidad de tiempo de uso de la computadora, estados de ansiedad, pensamientos recurrentes u
obsesivos acerca de lo que pueda estar ocurriendo en Internet. Aún cuando la computación
brinda muchas ventajas en cuanto a educación comunicación o entretenimiento, también puede
causar en algunos, adicción; y el problema puede llegar a ser tan grave que requiere de la
consulta a especialistas.
Por fortuna existe una serie de precauciones ya identificadas que deben tomarse en cuenta para
el trabajo en la computadora no sea extenuante. Estas recomendaciones tienen que ver con la
formación e incorporación de hábitos y procedimientos de trabajo más sanos, permiten
disminuir la posibilidad de crear problemas de salud. El daño debido a una mala postura, por
ejemplo, es algo acumulativo, su percepción no es inmediata. Es por esto que evaluar
continuamente los hábitos y la manera como se hacen las cosas permitirán finalmente
aprovechar las bondades del uso de la computadora, conservando la salud.
Domesticando la computadora
El uso de la computadora en las actividades diarias nos vuelve más productivos. Pero trabajar
sin las condiciones adecuadas, sin tomar en cuenta ciertos consejos, puede ser incómodo y
causar lesiones debido a sesiones de trabajo prolongadas e ininterrumpidas.