Está en la página 1de 29

Universidad de Carabobo.

Facultad de Ciencias de la Educación.

Departamento de Informática.

Campus Bárbula.

Naguanagua - Edo. Carabobo.

Prof.: Yelmin Perez Autor: Eduardo Caricote

C.I: V-24994587

Sección: 11

Plataforma Comptacional.

Junio de 2018
¿Qué es internet?

Se puede definir a Internet como una red de redes, es decir, una red que no
sólo interconecta computadoras, sino que interconecta redes de computadoras
entre sí.
Una red de computadoras es un conjunto de máquinas que se comunican a través
de algún medio (cable coaxial, fibra óptica, radiofrecuencia, líneas telefónicas,
etc.) con el objeto de compartir recursos.

De esta manera, Internet sirve de enlace entre redes más pequeñas y


permite ampliar su cobertura al hacerlas parte de una red global. Esta red global
tiene la característica de que utiliza un lenguaje común que garantiza la
intercomunicación de los diferentes participantes; este lenguaje común
o protocolo (un protocolo es el lenguaje que utilizan las computadoras al
compartir recursos) se conoce como TCP/IP.

Es importante destacar que, internet se inició en torno al año 1969, cuando


el Departamento de Defensa de los EE.UU desarrolló ARPANET, una red de
ordenadores creada durante la Guerra Fría cuyo objetivo era eliminar la
dependencia de un Ordenador Central, y así hacer mucho menos vulnerables las
comunicaciones militares norteamericanas. Tanto el protocolo de Internet como el
de Control de Transmisión fueron desarrollados a partir de 1973, también por el
departamento de Defensa norteamericano.

Cuando en los años 1980 la red dejó de tener interés militar, pasó a otras
agencias que ven en ella interés científico. En Europa las redes aparecieron en los
años 1980, vinculadas siempre a entornos académicos, universitarios. En 1989 se
desarrolló el World Wide Web (www) para el Consejo Europeo de Investigación
Nuclear. En España no fue hasta 1985 cuando el Ministerio de Educación y
Ciencia elaboró el proyecto IRIS para conectar entre sí todas las universidades
españolas.
Las principales características positivas de Internet es que ofrece
información actualizada, inmediatez a la hora de publicar información, una
información personalizada, información interactiva e información donde no hay
límites ni de espacio ni de tiempo.

Pero para navegar por la red de redes, por internet, hay que tener en cuenta
también otras muchas cosas, o estar al menos al tanto de ellas para no caer en las
muchas trampas que están tendidas por la red. Por ejemplo:

 La autoría de la información: siempre hay que desconfiar de la


información que no tiene autor. En este sentido, a la hora de utilizar
información, optemos por las que estén avaladas por el prestigio y
reconocimiento tanto del medio como de los autores que en él intervienen.
 La caducidad de la información: La fecha de la fuente es esencial, pues así
sabemos su actualidad. Hay que desconfiar de toda información ofrecida
por internet que no disponga de fecha.
 Internet profunda: desconocemos todo lo que ofrece internet. Es lo que se
llama Internet oculta, profunda o infranet. Hay que optar por buscadores
que busquen el valor cualitativo y no cuantitativo. En este sentido hay
algunos ejemplos de buscadores como Luxmark, About, Aks Gits, que
permiten hacer preguntas.
 Información/conocimiento: Toda información sin análisis, sin gestionar...,
puede incluso causar desinformación. Nunca hay que confundir
información con conocimiento. El conocimiento permite desbrozar la
información que se nos ofrece, navegar con seguridad y dirección por
entre los océanos de información que realmente inunda la red, muchísimas
veces con datos erróneos o irrelevantes
 El ruido documental o informativo: Al iniciar una búsqueda en internet se
nos ofrece una cantidad de páginas imposibles de asimilar. A eso se le
llama ruido, es decir, al exceso de información no jerarquizada
habitualmente por la calidad de los contenidos, sino tan sólo por el número
de consultas realizadas. La única fiabilidad a la que podemos agarrarnos
con seguridad para no naufragar en el exceso de información, es el
conocimiento, el propio conocimiento o el ajeno, fiándonos en este caso
del prestigio de la fuente de información.

¿Qué es una red?

El término red se utiliza para definir a una estructura que cuenta con
un patrón característico. Existen múltiples tipos de red, como la red informática,
la red eléctrica y la red social.

La red informática nombra al conjunto de computadoras y otros equipos


interconectados, que comparten información, recursos y servicios. Puede a su vez
dividirse en diversas categorías, según su alcance (red de área local o LAN, red de
área metropolitana o MAN, red de área amplia o WAN, etc.), su método de
conexión (por cable coaxial, fibra óptica, radio, microondas, infrarrojos) o
su relación funcional (cliente-servidor, persona a persona), entre otras.

La red eléctrica, por su parte, es aquella conformada por generadores


eléctricos, transformadores, líneas de transmisión y líneas de distribución, que se
encargan de llevar la electricidad a los usuarios residenciales. El sistema utiliza
diferentes tensiones, donde las más altas se utilizan en las distancias más largas,
mientras que las tensiones se van reduciendo a medida que la energía se acerca a
las instalaciones del usuario.

En cuanto a la red social, el concepto se refiere a aquella estructura


donde diversos individuos mantienen distintos tipos de relaciones (de amistad,
comerciales, sexuales, etc.).

La red social ha actualizado su significado en los últimos años, ya que


comenzó a utilizarse el término para definir a los sitios de Internet que promueven
las comunidades virtuales de acuerdo a intereses. MySpace y Facebook son dos de
estas redes sociales que reúnen a millones de usuarios, quienes pueden
intercambiar mensajes y archivos con otros miembros de la red.
¿Qué es un nodo?

Es un punto de intersección, conexión o unión de varios elementos que


confluyen en el mismo lugar. Ahora bien, dentro de la informática la palabra nodo
puede referirse a conceptos diferentes según el ámbito en el que nos movamos:

En redes de computadoras cada una de las máquinas es un nodo, y si la red


es Internet, cada servidor constituye también un nodo. El concepto de red puede
definirse como: Conjunto de nodos interconectados. Un nodo es el punto en el que
una curva se interseca consigo mismo. Lo que un nodo es concretamente, depende
del tipo de redes a que nos refiramos.

En estructuras de datos dinámicas un nodo es un registro que contiene un


dato de interés y al menos un puntero para referenciar (apuntar) a otro nodo. Si la
estructura tiene sólo un puntero, la única estructura que se puede construir con él
es una lista, si el nodo tiene más de un puntero ya se pueden construir estructuras
más complejas como árboles o grafos.

¿Qué es un computador?

Es una máquina electrónica que puede resolver diferentes problemas,


procesar, almacenar y recuperar datos, y realizar cálculos de forma más rápida y
eficiente que los humanos. La palabra computadora se deriva de la palabra
latina computare que significa calcular, contar, resumir o pensar juntos. Entonces,
exactamente la palabra computadora significa dispositivo que realiza cálculos.

La computadora no nació para entretener o para usar correo electrónico,


sino por la necesidad de resolver una grave crisis en el procesamiento de números.
En 1880, la población de los Estados Unidos había crecido tanto que tardaron más
de siete años en tabular los resultados del censo de los EE.UU. El gobierno
buscaba una manera más rápida de hacer el trabajo, dando lugar a computadoras
basadas en tarjetas perforadas que ocupaban salas enteras.
¿Qué es datos?

Son la representación simbólica, bien sea mediante números o letras de


una recopilación de información la cual puede ser cualitativa o cuantitativa, que
facilitan la deducción de una investigación o un hecho. Los datos indican
condiciones o situaciones que por sí solos no aportan ninguna información
importante, es en conjunto de la observación y la experiencia que un dato puede
tomar cierto valor instruccional. También se dice que los datos son atributos
pertenecientes a cualquier ente, pues una utilidad muy significativa de los datos es
que se pueden emplear en estudios comparativos.

En la informática es muy usado y valorado este término, debido a que la


información que se introduce en las computadoras es recibida en forma de datos y
los mismos son manipulados para que se pueda desarrollar distintas soluciones a
los diferentes problemas, por ejemplo, en programación informática un dato es en
general una expresión que indica las cualidades de los diferentes comandos sobre
los que un algoritmo puede trabajar.

¿Qué es informática?

Es la técnica vinculada al desarrollo de la computadora; es un conjunto de


conocimientos, tantos teóricos como prácticos, sobre cómo se construye, como
funciona y como se emplea ésta. De manera más sencilla se puede definir como la
ciencia que estudia la información, y los medios de automatización y transmisión
para poder tratarla y procesarla. Se podría decir que la materia prima de la
informática es la información, mientras que su objetivo formal es el tratamiento
de la misma.
Evolución del internet

Año Característica
1958 La compañía BELL crea el prime modem que permitía transmitir datos
binarios sobre una línea telefónica simple.
1961 Leonard K. del Massachusetts Institute of Technology publica una
primera teoría sobre la utilización de la conmutación de paquetes para
transferir datos.
1962 Inicios de investigaciones por parte de ARPA, una empresa del
ministerio estadounidense de defensa J.C.R. Linkinder defiende
exitosamente sus ideas relativas a una red global de computadoras.
1964 Leonard K. del MIT, publica un libro sobre la comunicación de
paquetes para implementar una red.
1967 Primera conferencia sobre ARPANET.
1969 Conexión de las primeras computadoras entre cuatro universidades
estadounidenses a través de la Interface Message Processor de Leonard
K.
1971 23 computadoras son conectadas a ARPANET. Envío del primer
correo por Ray Tomlinson.
1972 Nacimiento de InterNetworking Working Group, organización
encargada de administrar internet.
1973 Inglaterra y Noruega se Adhieren a internet, cada una con una
computadora.
1979 Creación de los NewGroups (Foros de discusión) por estudiantes
americanos.
1982 Definición del protocolo TCP/IP y de la palabra internet.
1983 Primer servidor de nombres de sitios.
1984 Aproximadamente 1000 computadoras conectadas.
1987 Aproximadamente 10000 computadoras conectadas.
1989 Aproximadamente 100000 computadoras conectadas.
1990 Desaparición de ARPANET.
1991 Se anuncia públicamente la Word Wide Web (WWW).
1992 Aproximadamente 1000000 de computadoras conectadas.
1993 Aparición del navegador web NCSA Mosaic1 primer buscador de la
historia, Wandex servía como un índice de páginas web.
1996 Aproximadamente 10000000 de computadoras conectadas.
2000 Explosión de la burbuja.com
2009 Primer sitio web que permitió la interacción táctil.

Evolución de los sistemas operativos

El Sistema Operativo es el software que permite controlar el hardware de


una manera eficiente para que se puedan realizar las tareas de forma cómoda. El
sistema operativo presenta al usuario un entorno en el que se pueden ejecutar
aplicaciones para llevar a cabo diversas tareas, gestionando los recursos
disponibles (Cpu, memoria, disco, comunicaciones en red, dispositivos
periféricos...). De este modo un usuario puede realizar tareas como abrir un
fichero y acceder a la información que contiene sin preocuparse de aspectos de
bajo nivel como: mover los cabezales del disco, la velocidad de giro del motor del
disco, la posición que ocupan los bits en la superficie del disco, etc...

A principios de los años 50 con el objeto de facilitar la interacción entre


persona y computadora, los sistemas operativos hacen una aparición discreta y
bastante simple, con conceptos tales como el monitor residente, el proceso por
lotes y el almacenamiento temporal.

Monitor residente, Su funcionamiento era bastante simple, se limitaba a


cargar programas a la memoria, leyéndolos de una cinta o de tarjetas perforadas, y
ejecutarlos. El problema era encontrar una forma de optimizar el tiempo entre la
retirada de un trabajo y el montaje del siguiente. El primer Sistema Operativo de
la historia fue creado en 1956 para un ordenador IBM 704, y básicamente lo único
que hacía era comenzar la ejecución de un programa cuando el anterior terminaba.
Almacenamiento temporal, su objetivo era disminuir el tiempo de carga de
los programas, haciendo simultánea la carga del programa o la salida de datos con
la ejecución de la siguiente tarea. Para ello se utilizaban dos técnicas,
el buffering y el spooling.

En los años 60 se produjeron cambios notorios en varios campos de


la informática, con la aparición del circuito integrado la mayoría orientados a
seguir incrementando el potencial de los ordenadores. Para ello se utilizaban
técnicas de lo más diversas.

Multiprogramación, en un sistema multiprogramado la memoria


principal alberga a más de un programa de usuario. La CPU ejecuta instrucciones
de un programa, cuando el que se encuentra en ejecución realiza una operación de
E/S; en lugar de esperar a que termine la operación de E/S, se pasa a ejecutar otro
programa. Si éste realiza, a su vez, otra operación de E/S, se mandan las órdenes
oportunas al controlador, y pasa a ejecutarse otro. De esta forma es posible,
teniendo almacenado un conjunto adecuado de tareas en cada momento, utilizar
de manera óptima los recursos disponibles.

Tiempo compartido, En este punto tenemos un sistema que hace buen uso
de la electrónica disponible, pero adolece la falta de interactividad; para
conseguirla debe convertirse en un sistema multiusuario, en el cual existen varios
usuarios con un terminal en línea, utilizando el modo de operación de tiempo
compartido. En estos sistemas igual que en la multiprogramación. Pero, a
diferencia de ésta, cuando un programa lleva cierto tiempo ejecutándose el
sistema operativo lo detiene para que se ejecute otra aplicación.

Tiempo real, Estos sistemas se usan en entornos donde se deben aceptar y


procesar en tiempos muy breves un gran número de sucesos, en su mayoría
externos al ordenador. Si el sistema no respeta las restricciones de tiempo en las
que las operaciones deben entregar su resultado se dice que ha fallado. El tiempo
de respuesta a su vez debe servir para resolver el problema o hecho planteado. El
procesamiento de archivos se hace de una forma continua, pues se procesa el
archivo antes de que entre el siguiente, sus primeros usos fueron y siguen siendo
en telecomunicaciones.

Multiprocesador, Diseño que no se encuentran en ordenadores


monoprocesador. Estos problemas derivan del hecho de que dos programas
pueden ejecutarse simultáneamente y, potencialmente, pueden interferirse entre sí.
Concretamente, en lo que se refiere a las lecturas y escrituras en memoria. Existen
dos arquitecturas que resuelven estos problemas:

La arquitectura NUMA, donde cada procesador tiene acceso y control


exclusivo a una parte de la memoria. La arquitectura SMP, donde todos los
procesadores comparten toda la memoria. Esta última debe lidiar con el problema
de la coherencia de caché. Cada microprocesador cuenta con su propia memoria
caché local. De manera que cuando un microprocesador escribe en una dirección
de memoria, lo hace únicamente sobre su copia local en caché. Si otro
microprocesador tiene almacenada la misma dirección de memoria en su caché,
resultará que trabaja con una copia obsoleta del dato almacenado.

Para que un multiprocesador opere correctamente necesita un sistema


operativo especialmente diseñado para ello. La mayoría de los sistemas operativos
actuales poseen esta capacidad.

Sistemas operativos desarrollados

Además del Atlas Supervisor y el OS/360, los años 1970 marcaron el


inicio de UNIX, a mediados de los 60 aparece Multics, sistema operativo
multiusuario - multitarea desarrollado por los laboratorios Bell de AT&T y Unix,
convirtiéndolo en uno de los pocos SO escritos en un lenguaje de alto nivel. En el
campo de la programación lógica se dio a luz la primera implementación
de Prolog, y en la revolucionaria orientación a objetos, Smalltalk.
Inconvenientes de los Sistemas operativos

Se trataba de sistemas grandes, complejos y costosos, pues antes no se


había construido nada similar y muchos de los proyectos desarrollados terminaron
con costos muy por encima del presupuesto y mucho después de lo que se
marcaba como fecha de la finalización. Además, aunque formaban una capa entre
el hardware y el usuario, éste debía conocer un complejo lenguaje de control para
realizar sus trabajos. Otro de los inconvenientes es el gran consumo de recursos
que ocasionaban, debido a los grandes espacios de memoria principal y secundaria
ocupados, así como el tiempo de procesador consumido. Es por esto que se
intentó hacer hincapié en mejorar las técnicas ya existentes de multiprogramación
y tiempo compartidos .

Sistemas operativos desarrollados

 MULTICS (Multiplexed Information and Computing Service)

 BDOS (Basic Disk Operating System): Traductor de las instrucciones en


llamadas a la BIOS.

 CP/M: (Control Program for Microcomputers) fue un sistema operativo


desarrollado por Gary Kildall para el microprocesador Intel 8080 (los Intel
8085 y Zilog Z80 podían ejecutar directamente el código del 8080, aunque
lo normal era que se entregara el código recompilado para el
microprocesador de la máquina). Se trataba del sistema operativo más
popular entre las computadoras personales en los años 70. Aunque fue
modificado para ejecutarse en un IBM PC, el hecho que IBM eligiera MS-
DOS, al fracasar las negociaciones con Digital Research, hizo que el uso
de CP/M disminuyera hasta hacerlo desaparecer. CP/M originalmente
significaba Control Program/Monitor. Más tarde fue renombrado a Control
Program for Microcomputers. En la época, la barra inclinada (/) tenía el
significado de "diseñado para". No obstante, Gary Kildall redefinió el
significado del acrónimo poco después. CP/M se convirtió en un estándar
de industria para los primeros micro-ordenadores.
Con la creación de los circuitos LSI (integración a gran escala), chips que
contenían miles de transistores en un centímetro cuadrado de silicio, empezó el
auge de los ordenadores personales. En éstos se dejó un poco de lado el
rendimiento y se buscó más que el sistema operativo fuera amigable, surgiendo
menús, e interfaces gráficas. Esto reducía la rapidez de las aplicaciones, pero se
volvían más prácticos y simples para los usuarios. En esta época, siguieron
utilizándose lenguajes ya existentes, como Smalltalk o C, y nacieron otros nuevos,
de los cuales se podrían destacar: C++ y Eiffel dentro del paradigma de la
orientación a objetos, y Haskell y Miranda en el campo de la programación
declarativa.

Un avance importante que se estableció a mediados de la década


de 1980 fue el desarrollo de redes de computadoras personales que corrían
sistemas operativos en red y sistemas operativos distribuidos. En esta escena, dos
sistemas operativos eran los mayoritarios: MS-DOS (Micro Soft Disk Operating
System), escrito por Microsoft para IBM PC y otras computadoras que utilizaban
la CPU Intel 8088 y sus sucesores, y UNIX, que dominaba en los ordenadores
personales que hacían uso del Motorola 68000.

SunOS fue la versión del sistema operativo derivado de Unix y BSD


desarrollado por Sun Microsystems para sus estaciones de trabajo y servidores
hasta el principio de los años 1990. Ésta estaba basada en los UNIX BSD con
algunos añadidos de los System V UNIX en versiones posteriores.

En 1981 Microsoft compró un sistema operativo llamado QDOS que, tras


realizar unas pocas modificaciones, se convirtió en la primera versión de MS-
DOS (Micro Soft Disk Operating System). A partir de aquí se sucedieron una
serie de cambios hasta llegar a la versión 7.1, versión 8 en Windows Milenium, a
partir de la cual MS-DOS dejó de existir como un componente del Sistema
Operativo.
En 1983, con la aparición de los ordenadores MSX, se realizó una
adaptación para este sistema que utilizaba el procesador Z-80 llamada MSX-DOS.
Era un cruce entre la versión MS-DOS 1.25 y CP/M. En 1988, una vez
que Microsoft se desvinculó de proyecto, ASCII Corporation publicó la versión
MSX-DOS 2.0 que añadió, entre otras cosas, soporte para el uso de directorios.

Macintosh, el lanzamiento oficial del ordenador Macintosh en enero


de 1984, al precio de US $1,995 (después cambiado a $2,495 dólares). Incluía su
sistema operativo Mac OS cuya características novedosas era una GUI (Graphic
User Interface), Multitareas y Mouse. Provocó diferentes reacciones entre los
usuarios acostumbrados a la línea de comandos y algunos tachando el uso
del Mouse como juguete.

AmigaOS, es el nombre que recibe el conjunto de la familia de gestores de


ventanas y ROMs que incluían por defecto los ordenadores personales
Commodore Amiga como sistema operativo. Fue desarrollado originalmente por
Commodore International, e inicialmente presentado en 1985 junto con el Amiga
1000.

OS/2 es un sistema operativo de IBM que intentó suceder a DOS como


sistema operativo de las computadoras personales. Se desarrolló inicialmente de
manera conjunta entre Microsoft e IBM, hasta que la primera decidió seguir su
camino con su Windows e IBM se ocupó en solitario de OS/2.

OS/2 ya no es comercializado por IBM, y el soporte estándar de IBM para


OS / 2 se suspendió el 31 de diciembre de 2006. Se ha mantenido desde entonces
con relativamente pocas nuevas características bajo el nombre eComStation.

BeOS es un sistema operativo para PC desarrollado por Be Incorporated


en 1990, orientado principalmente a proveer alto rendimiento en aplicaciones
multimedia. A pesar de la creencia común fomentada por la inclusión de la
interfaz de comandos Bash en el sistema operativo, el diseño de BeOS no estaba
basado en UNIX.
Originalmente (1995-1996) el sistema operativo se corría sobre su propio
hardware, conocido como BeBox. Más tarde (1997) fue extendido a la plataforma
PowerPC y finalmente (1998) se añadió compatibilidad con procesadores x86.

GNU/Linux, este sistema al parecer es una versión mejorada de Unix,


basado en el estándar POSIX, un sistema que en principio trabajaba en modo
comandos. Hoy en día dispone de Ventanas, gracias a un servidor gráfico y a
gestores de ventanas como KDE, GNOME entre muchos.

Recientemente GNU/Linux dispone de un aplicativo que convierte las


ventanas en un entorno 3D como por ejemplo Beryl o Compiz. Lo que permite
utilizar Linux de una forma visual atractiva.

Existen muchas distribuciones actuales de Gnu/Linux (Debian, Fedora,


Ubuntu, Slackware, etc.) donde todas ellas tienen en común que ocupan el mismo
núcleo Linux. Dentro de las cualidades de Gnu/Linux se puede caracterizar el
hecho de que la navegación a través de la web es sin riegos de ser afectada por
virus, esto debido al sistema de permisos implementado, el cual no deja correr
ninguna aplicación sin los permisos necesarios, permisos que son otorgados por el
usuario. A todo esto se suma que los virus que vienen en dispositivos
desmontables tampoco afectan al sistema, debido al mismo sistema de permisos.

Solaris es un sistema operativo de tipo Unix desarrollado desde 1992


inicialmente por Sun Microsystems y actualmente por Oracle Corporation como
sucesor de SunOS. Es un sistema certificado oficialmente como versión de Unix.
Funciona en arquitecturas SPARC y x86 para servidores y estaciones de trabajo.

Windows NT es una familia de sistemas operativos producidos


por Microsoft, de la cual la primera versión fue publicada en julio de 1993.

Previamente a la aparición del famoso Windows 95 la


empresa Microsoft concibió una nueva línea de sistemas operativos orientados a
estaciones de trabajo y servidor de red. Un sistema operativo con interfaz gráfica
propia, estable y con características similares a los sistemas de red UNIX. Las
letras NT provienen de la designación del producto como "Tecnología Nueva"
(New Technology).

Las versiones publicadas de este sistema son: 3.1, 3.5, 3.51 y 4.0. Además,
Windows NT se distribuía en dos versiones, dependiendo de la utilidad que se le
fuera a dar: Workstation para ser utilizado como estación de trabajo y Server para
ser utilizado como servidor.

FreeBSD es un sistema operativo multiusuario, capaz de


efectuar multitarea con apropiación y multiproceso en plataformas compatibles
con múltiples procesadores; el funcionamiento de FreeBSD está inspirado en la
variante 4.4 BSD-Lite de UNIX. Aunque FreeBSD no puede ser propiamente
llamado UNIX, al no haber adquirido la debida licencia de The Open Group,
FreeBSD sí está hecho para ser compatible con la norma POSIX, al igual que
varios otros sistemas "clones de UNIX".

El sistema FreeBSD incluye el núcleo, la estructura de ficheros del


sistema, bibliotecas de la API de C, y algunas utilidades básicas. La versión 6.1
trajo importantes mejoras como mayor apoyo para dispositivos Bluetooth y
controladores para tarjetas de sonido y red.

La versión 7.0, lanzada el 27 de febrero de 2008, incluye compatibilidad


con el sistema de archivos ZFS de Sun y a la arquitectura ARM, entre otras
novedades.

Windows es el nombre de una familia de sistemas operativos desarrollados


y vendidos por Microsoft basado en MS-DOS. Windows nunca fue realmente un
Sistema Operativo con verdadero entorno gráfico hasta Windows 95. Hasta la
versión 3.11 Windows fue un entorno de escritorio para MS-DOS.

Windows 95 es un sistema operativo con interfaz gráfica de usuario


híbrido de entre 16 y 32 bits. Fue lanzado al mercado el 24 de agosto de 1995 por
la empresa de software Microsoft con notable éxito de ventas. Durante su
desarrollo se conoció como Windows 4 o por el nombre clave Chicago. Esta serie
de Windows terminó con Windows 10.

ReactOS (React Operating System) es un sistema operativo de código


abierto destinado a lograr la compatibilidad binaria con aplicaciones de software y
controladores de dispositivos hechos para Microsoft Windows NT versiones 5.x
en adelante (Windows XP y sus sucesores).

En 1996 un grupo de programadores y desarrolladores de software libre


comenzaron un proyecto llamado FreeWin95 el cual consistía en implementar un
clon de Windows 95. El proyecto estuvo bajo discusión por el diseño del sistema
ya habiendo desarrollado la capa compatible con MS-DOS, pero lamentablemente
esta fue una situación que no se completó. Para 1997 el proyecto no había lanzado
ninguna versión, por lo que los miembros de éste, coordinados por Jason Filby,
pudieron revivirlo. Se decidió cambiar el núcleo del sistema compatible con MS-
DOS y de ahora en adelante basarlo en uno compatible con Windows NT, y así el
proyecto pudo seguir adelante con el nombre actual de ReactOS, que comenzó en
febrero de 1998, desarrollando las bases del kernel y algunos drivers básicos.

FreeDOS es un proyecto que aspira a crear un sistema operativo libre que


sea totalmente compatible con las aplicaciones y los controladores de MS-DOS.

El programa ya ha alcanzado un alto grado de madurez y tiene algunas


características que no existían en MS-DOS. Algunos comandos de FreeDOS son
idénticos o mejores que sus equivalentes de MS-DOS, pero aún faltan algunos del
sistema operativo original.

SymbOS es un sistema operativo desarrollado originalmente en 2001 para


los ordenadores Amstrad CPC. Se trata de un sistema operativo gráfico con una
estética e interfaz similar a Windows 95. A pesar de la baja potencia que
desarrollan estos ordenadores, alrededor de 4MHz, está minuciosamente
optimizado para el hardware en el cual funciona, por lo que el rendimiento es más
que aceptable.
Debido a su cuidada programación modular, ha sido migrado
posteriormente a los ordenadores MSX, Amstrad PCW y Enterprise 128 que, con
versiones adaptadas y recompiladas en cada caso, son capaces de ejecutar las
mismas aplicaciones sin modificación alguna.

Aunque parezca un sistema obsoleto, existe una extensa comunidad


implicada en el proyecto. Los programadores originales continúan actualizando y
dando soporte al sistema en la actualidad.

SymbOS es un claro ejemplo de software optimizado, de tal manera que


con un mínimo hardware se obtienen prestaciones similares a otros grandes
sistemas operativos actuales. Esto lo convierte en el antagonista de los modernos
sistemas operativos, que derrochan la mayor parte de los recursos apoyándose en
la alta potencia del hardware actual.

MorphOS es un sistema operativo, en parte propietario y en parte de


código abierto, producido para ordenadores basados en los
procesadores PowerPC (PPC). El sistema operativo en sí es propietario, pero
muchas de sus bibliotecas y otros componentes son de código abierto, como
Ambiente (la interfaz del escritorio). La mariposa azul es el logo característico de
este sistema operativo. Está basado en el Micronúcleo de Quark.

Darwin es el sistema que subyace en Mac OS X, cuya primera versión


final salió en el año 2001 para funcionar en computadoras Macintosh.

Integra el micronúcleo XNU y servicios de sistema operativo de


tipo UNIX basados en BSD 4.4 (en particular FreeBSD) que proporcionan una
estabilidad y un rendimiento mayor que el de versiones anteriores de Mac OS. Se
trata de una evolución del sistema operativo NEXTSTEP (basado en Mach 2.5 y
código BSD 4.3) desarrollado por NeXT en 1989 comprado por Apple
Computer en diciembre de 1996.
Darwin proporciona al Mac OS X prestaciones modernas, como
la memoria protegida, la multitarea por desalojo o expulsiva, la gestión avanzada
de memoria y el multiproceso simétrico.

Mac OS, antes llamado Mac OS X, es un sistema operativo basado en


Unix, desarrollado, comercializado y vendido por Apple Inc.

La primera versión del sistema fue Mac OS X Server 1.0 en 1999, y en


cuanto al escritorio, fue Mac OS X v10.0 Cheetah (publicada el 24 de marzo de
2001).

La variante para servidores, Mac OS X Server, es arquitectónicamente


idéntica a su contraparte para escritorio, además de incluir herramientas para
administrar grupos de trabajo y proveer acceso a los servicios de red. Estas
herramientas incluyen un servidor de correo, un servidor Samba, un servidor
LDAP y un servidor de dominio entre otros.

Haiku es un sistema operativo de código abierto actualmente en desarrollo


que se centra específicamente en la informática personal y multimedia. Inspirado
por BeOS (Be Operating System), Haiku aspira a convertirse en un sistema
rápido, eficiente, fácil de usar y fácil de aprender, sin descuidar su potencia para
los usuarios de todos los niveles.

OpenSolaris, fue un sistema operativo libre publicado en 2005 a partir de


la versión privativa de Solaris de Sun Microsystems, ahora parte de Oracle
Corporation. OpenSolaris es también el nombre de un proyecto iniciado en 2005
por Sun para construir y desarrollar una comunidad de usuarios alrededor de las
tecnologías del sistema operativo del mismo nombre. Después de la adquisición
de Sun Microsystems, en agosto de 2010, Oracle decidió interrumpir la
publicación y distribución de OpenSolaris, así como su modelo de desarrollo,
basado en la disponibilidad de versiones de desarrollo compiladas cada dos
semanas y versiones estables cada seis meses. Sin embargo, los términos de su
licencia libre no han sido modificados, por lo que el código fuente afectado por
ella será publicado cuando Oracle publique nuevas versiones de Solaris.
Illumos es un proyecto de software libre derivado de OpenSolaris. Fue
anunciado por conferencia web desde Nueva York el 3 de agosto de 2010. El
nombre del proyecto es un neologismo procedente del latín "Illum" (la luz) y de
"OS" (operating system, sistema operativo).

Se trata del código base a partir del cual cualquiera podrá crear su propia
distribución de software basada en el sistema operativo OpenSolaris. Pero Illumos
no es una distribución, ni una bifurcación (fork), al menos por el momento, en la
medida que no pretende separarse del tronco principal, sino un derivado de la
"consolidación" OS/Net (más conocida como ON), que consiste básicamente en el
código fuente del kernel (SunOS), los drivers, los servicios de red, las bibliotecas
del sistema y los comandos básicos del sistema operativo.

OpenIndiana es un sistema operativo tipo Unix liberado como software


libre y de código abierto. Es una bifurcación de OpenSolaris concebida después
de la compra de Sun Microsystems por parte de Oracle y tiene como objetivo
continuar con el desarrollo y la distribución del código base de OpenSolaris. El
proyecto opera bajo el patrocinio de la Illumos Foundation (Fundación Illumos).
El objetivo declarado del proyecto es convertirse en la distribución de
OpenSolaris de facto instalada en servidores de producción donde se requieren
soluciones de seguridad y errores de forma gratuita.

¿Qué es Software libre?

Es el software que respeta la libertad de los usuarios y la comunidad. A


grandes rasgos, significa que los usuarios tienen la libertad de ejecutar, copiar,
distribuir, estudiar, modificar y mejorar el software. Es decir, el software libre es
una cuestión de libertad, no de precio. Para entender el concepto, piense en libre
como en libre expresión, no como en barra libre. En inglés, a veces en lugar de
«free software» decimos «libre software», empleando ese adjetivo francés o
español, derivado de libertad, para mostrar que no queremos decir que el software
es gratuito.
Un programa es software libre si los usuarios tienen las cuatro libertades
esenciales:

 La libertad de ejecutar el programa como se desee, con cualquier


propósito.

 La libertad de estudiar cómo funciona el programa, y cambiarlo para que


haga lo que usted quiera. El acceso al código fuente es una condición
necesaria para ello.

 La libertad de redistribuir copias para ayudar a otros.

 La libertad de distribuir copias de sus versiones modificadas a terceros.


Esto le permite ofrecer a toda la comunidad la oportunidad de beneficiarse
de las modificaciones. El acceso al código fuente es una condición
necesaria para ello.

¿Qué es software propietario?

Se denomina software propietario a aquel que pertenece a una empresa


privada que mantiene derechos de uso, modificación o redistribución sobre el
mismo. En general el desarrollo del software propietario se lleva a cabo por
corporaciones de enormes recursos económicos. Esto conlleva un conocimiento
preciso de las necesidades del mercado en lo que respecta a sistemas, hecho que
conlleva que sus desarrollos cubran más eficientemente las expectativas del
usuario. No obstante, como contrapartida, tienen u costo económicos que no
pocos preferirían evitar.
Semejanza y diferencia entre Software libre y propietario

Software libre Software propietario


Hace referencia a la libertad de los Es todo programa informático en el que
usuarios para ejecutar, copiar, el usuario tiene limitaciones para
distribuir, estudiar, modificar el usarlo, modificarlo o redistribuirlo
software y distribuirlo modificado. (esto último con o sin modificaciones).
En general, se debe cumplir con cuatro Si una o varias libertades de un
tipos de libertades para que un programa cualesquiera son restringidas
programa pueda ser considerado en por algún motivo, dicho programa
este campo. deberá ser considerado en este grupo.
Hay más seguridad y fiabilidad. Generalmente son menos seguras.
La interfaz gráfica suele ser muy La interfaz gráfica es más completa por
sencilla y por tanto poco amigable. lo que es considerada de avanzada.
Su costo es muy bajo y mayormente Las aplicaciones de este tipo pueden
gratuito. tener un costo mayor.
Existen aplicaciones para todas las No existen aplicaciones para todas las
plataformas. plataformas.
El usuario no depende del creador del El usuario depende del creador del
software. software.
La figura más representativa es Richard Destaca Bill Gates como pionero en
Stallman. este software.

¿Qué es la Web 2.0?

La Web 2.0 no es más que la evolución en la que los usuarios dejan de ser
usuarios pasivos para convertirse en usuarios activos que participan y contribuyen
en el contenido de la red siendo capaces de crear, dar soporte y formar parte de
sociedades y comunidades tanto a nivel local como global; que se informan,
comunican y generan conocimiento y contenido.
La Web 2.0 es un concepto que se creó en 2003 y se refiere al fenómeno
social surgido a partir del desarrollo de diversas aplicaciones en Internet. El
término establece una distinción entre la primera época de la Web (donde el
usuario era básicamente un sujeto pasivo que recibía la información o la
publicaba, sin que existieran demasiadas posibilidades para que se generara la
interacción) y la revolución que supuso el auge de los blogs, las redes sociales y
otras herramientas relacionadas.

Es decir, según Tim O’Reilly (2005) 4 Web 2.0 es la red como plataforma,
extendiéndose a todos los dispositivos conectados: las aplicaciones Web 2.0 son
aquellas que utilizan lo mejor de las ventajas intrínsecas de dicha plataforma:
distribuyendo software como un servicio constantemente actualizado que es mejor
cuanto más gente lo utiliza, consumiendo y remezclando datos de múltiples
fuentes incluyendo usuarios individuales, mientras proporcionan sus propios datos
y servicios de manera que permiten a otros remezclarlos, creando efectos de red a
través de una arquitectura de participación

La Web 2.0, más que una tecnología es una actitud de los usuarios, tanto
productores como consumidores, frente a la circulación, manejo y jerarquización
de la información. Esta democratización de la producción y acceso a la
información en diversos formatos e idiomas hace de la Web 2.0 un punto de
encuentro para los ciudadanos del mundo.

Herramientas y recursos de la Web 2.0

• Fotografía: Plataformas para almacenar, publicar, compartir y editar


fotografías digitales. Estas aplicaciones son generalmente de uso libre y permiten
clasificar, a través de tags u otras taxonomías, las fotografías del usuario,
facilitando su búsqueda.

• Blog: (Weblog) En español se le conoce también como bitácora, es un


sitio Web periódicamente actualizado que recopila cronológicamente textos o
artículos de uno o varios autores, apareciendo primero el más reciente, donde el
autor conserva siempre la libertad de dejar publicado lo que crea pertinente.
• Blogging: Herramienta para mejorar el uso de los blogs en cuanto a los
siguientes aspectos: lectores, organizadores, recursos para convertir códigos
HTML e PDF, respaldar, etiquetar, buscar, difundir, optimizar, indexar
dinámicamente y demás aplicaciones que enriquezcan el uso de los blogs.

• Blogger: (Bloguero) persona que mantiene un Weblog.

• Video: Recurso que permite subir videos para hacerlos públicos, estos
servicios ofrecen simplificar el acceso, edición, organización y búsqueda de
materiales multimedia (audio y video). El usuario además de encontrar diversos
espacios donde publicar sus archivos encontrará algunos recursos para compartir y
distribuir sus videos en otras aplicaciones de Internet. Estas plataformas han
hecho del video una nueva forma de interactuar en la Red.

• Calendario: Herramienta para organizar la agenda de actividades. Puede


ser usada individual o colectivamente. Estas aplicaciones desarrolladas en torno a
la idea de calendarios/agendas virtuales simplifican la planificación de actividades
de una persona o una comunidad (empresa, grupo de trabajo, equipo de
investigadores, etc.).

• Presentación de diapositivas: Estas herramientas ayudan a simplificar la


elaboración, publicación y distribución de las presentaciones estilo Power Point.
Son fáciles de usar y en su gran mayoría gratuitas. Se convierten en un recurso de
gran utilidad para el entorno educativo y laboral.

• Buscadores: Existe un amplio listado de buscadores y meta-buscadores


en la red, algunos de ellos son genéricos y otros especializados. Si bien algunos
motores de búsqueda caen en la clasificación de la Web 1.0 hay muchos servicios
que integran otros tipos de sistemas de rastreo u organización de la información
(RSS o tags). En algunos casos, se incluyen aplicaciones híbridas capaces de
consultar a varios motores de búsqueda de manera simultánea.
• Lector de RSS y Agregadores Feeds: Son aplicaciones para sindicar los
contenidos de diferentes sitios Web en forma de feeds29 (RSS30, Atom31 y otros
formatos derivados de XML32/RDF33). Estas aplicaciones permiten al usuario
recoger los feeds de blogs o sitios Web que cuenten con este sistema de
sindicación y exhibir de manera dinámica cada renovación de contenido, es decir,
le indican al usuario cada vez que se producen novedades de información en
alguno de los portales sindicados. Su uso es gratuito, sencillo y resulta muy
eficiente para ahorrar tiempo de navegación.

• Marcadores Sociales de Favoritos: (Social Bookmark) y Nubes de Tags.


Son administradores de favoritos creados para almacenar, etiquetar, organizar y
compartir, colectivamente, los links más relevantes de la Red (sitios web, blogs,
documentos, música, libros, imágenes, podcasts, videos, entre otros). Su acceso es
ubicuo y gratuito. Su arquitectura está diseñada bajo la idea de la colectivización
del conocimiento y permite recoger las opiniones de todos los que participan,
atribuyendo mayor relevancia a los contenidos más populares.

• Almacenamiento en la Web: Existe una serie de servicios que ofrecen


almacenamiento remoto, tanto gratis (hasta 25 GB) como de pago. Estas
plataformas ofrecen la posibilidad de guardar o respaldar en la Web documentos u
otros archivos, protegidos bajo diversos mecanismos de seguridad, según se
requiera. Este tipo de servicios resultan especialmente útiles ya sea para facilitar la
distribución de archivos como para contar con un portafolios virtual que permita
su acceso desde cualquier lugar. Este tipo de aplicaciones también facilita el
compartir documentos con otras personas. Aquí el usuario puede agrupar,
clasificar, almacenar y recuperar sus archivos de una manera gratuita y muy
sencilla.

• Reproductores y agregadores de Música: Herramientas y sitios Web


desarrollados para facilitar la creación, edición, organización (tags o feeds),
distribución, publicación, reproducción y búsqueda de audio (podcasts). Además
de ofrecer la posibilidad de almacenamiento o descarga de música, estas
aplicaciones pueden integrarse con blogs, lectores y otras fuentes disponibles en la
Red.

• BBS: (Bulletin Board System). Tablero de Boletines Electrónicos.


Servicio de comunicaciones que permite tener e-mail, transferir ficheros, etc. y
puede ser accedido desde Internet.

• Foros de discusión: Es el servicio online que permite el debate y


discusión de diversos temas en la World Wide Web, por intermedio de mensajes.
Tienen una función similar a los BBS y los grupos de noticias. Suelen ser
dependientes de un sitio web en particular, lo que significa que los usuarios que
poseen una cuenta en un foro de discusión de un sitio web específico, no pueden
acceder con la misma cuenta a otros foros de discusión de otros sitios Web. En la
mayoría de los foros de discusión el usuario debe registrarse y obtener una cuenta
para poder participar (Si solo necesita leer no suele ser necesario registrarse). El
proceso de registrarse antes de participar disminuye considerablemente el
spamming.

• Correo electrónico y grupos de correo electrónico: Es un servicio de red


que permite a los usuarios enviar y recibir mensajes rápidamente (también
denominados mensajes electrónicos o cartas electrónicas) mediante sistemas de
comunicación electrónicos. Principalmente se usa este nombre para denominar al
sistema que provee este servicio en Internet, mediante el protocolo SMTP.

Por medio de mensajes de correo electrónico se puede enviar, no


solamente texto, sino todo tipo de documentos digitales. Su eficiencia,
conveniencia y bajo coste (con frecuencia nulo) están logrando que el correo
electrónico desplace al correo ordinario para muchos usos habituales. Una
dirección de e-mail tiene la forma: nombredecliente@nombredeproveedor.com.
Podemos siempre identificar una dirección de correo electrónico por el uso del
símbolo arroba “@” entre el nombre de usuario y el nombre del proveedor del
servicio.
• Grupo de noticias o noticias sobre temas específicos: (Newsgroups).
Forma de comunicación dentro del sistema Usenet con el cual sus usuarios pueden
enviar mensajes a diversos grupos de diversas temáticas para que sean leídos y
respondidos por otros usuarios interesados. El hecho de enviar un mensaje a un
grupo de noticias se denomina postear (o post en inglés). Los mensajes son
almacenados por distintos períodos de tiempo dependiendo de los distintos
servidores que pueden ser gratuitos o de pago. El sistema es técnicamente distinto,
pero funciona de forma similar a los grupos de discusión de la World Wide Web.
Hay programas cliente para leer y escribir a grupos de noticias, generalmente
integrados con un programa cliente de correo electrónico. Los mensajes suelen ser
temáticos y el tráfico es enorme, por lo que solo aparecen los mensajes más
recientes. Algunos grupos de noticias son moderados.

• Chat: Es un anglicismo que usualmente se refiere a una comunicación


escrita realizada de manera instantánea a través de Internet entre dos o más
personas, desde y hasta cualquier parte del mundo.

• Dimensión de Usuario Múltiple: Sistema que permite a sus usuarios


convertirse en el personaje que deseen y visitar mundos imaginarios en los que
participar junto a otros individuos en juegos u otro tipo de actividad.

• CMS: También conocidos como gestores de contenido web (Web


Content Management) los cuales permiten modificar la información rapidamente
desde cualquier computadora conectada a Internet, simplificando las tareas de
creación, distribución, presentación y mantenimiento de contenidos en la red.

• Procesador de Textos en Línea: Se trata de herramientas de


procesamiento de texto, cuya plataforma está en línea y por tanto se puede acceder
desde cualquier computadora conectada. Esta aplicación permite acceder, editar,
reformatear y compartir documentos. Una de sus cualidades es posibilitar la
creación de contenidos de manera colectiva y colaborativa. Múltiples usuarios
pueden editar texto de manera simultánea, quedando un registro histórico de sus
modificaciones. Aunque se pueden importar/exportar documentos desde y para
Microsoft Word (DOC), también se cuenta con la posibilidad de trabajar con otros
formatos como PDF, ODT, SXW, RTF,HTML, TXT, entre otros.

• Hojas de cálculo en línea: Existen servicios para elaborar hojas de


cálculo para realizar bases de datos, planillas, operaciones matemáticas, gráficos y
otras tareas similares a las que ofrece el programa Excel de Microsoft Office.

• Sistema Peer to Peer: (P2P). De par a par o de punto a punto. Es una red
informática entre iguales, red descentralizada que no tiene clientes ni servidores
fijos, sino que tiene una serie de nodos que se comportan simultáneamente como
clientes y servidores de los demás nodos de la red. Esta red P2P en su estado más
puro funciona en tres etapas:

– Entrada: Un nuevo nodo se conecta a otro de la red. Un nodo cualquiera


puede conectarse a múltiples nodos, así como también recibir nuevas conexiones
formando una malla aleatoria no estructurada.

– Búsquedas: Para buscar archivos, un nodo envía un mensaje a los nodos


con los cuales está conectado. Estos nodos buscan si los archivos están
disponibles de forma local y reenvían el mensaje de búsqueda a los nodos a los
que ellos están conectados. Si un nodo posee el archivo, inmediatamente contesta
al nodo original que lo solicitó. Este es un método de difusión del mensajes
llamado inundación de red.

– Descarga: La descarga de archivos se hace directamente desde los nodos


que contestaron. Si son múltiples nodos, suele partirse el archivo en diferentes
trozos y cada nodo envía uno de estos, aumentando la velocidad d total de
descarga.

Evolución de la Web 2.0

La Web 2.0, un giro importantísimo para Internet, una gran revolución en


el mundo online. Las aplicaciones y sitios web de este nuevo formato convirtieron
hace 10 años al usuario en el gran protagonista de las páginas. Ya no eran las
empresas y organismos los únicos que generaban contenidos en Internet. Ahora
cualquier usuario puede hacerlo con unos conocimientos sencillos. El propósito
principal de los programadores y diseñadores empezó a centrarse en crear
herramientas de fácil manejo e intuitivas, que les resultaran atractivas a los
usuarios y de esta forma crear una web dinámica en la que todos tuviéramos
nuestro espacio.

Esta Web 2.0 fue diseñada para permanecer en contacto constantemente,


transformándose y perfeccionando día a día, aumentando su variedad y riqueza.
Hoy en día, tras más de 10 años, estos espacios poseen gran capacidad para
almacenar información, hacer visibles los contenidos y permitir al usuario un fácil
acceso a ellos.

Pese a los grandes cambios sufridos en pocos años y la gran aceptación


que ha conseguido esta herramienta, los especialistas siguen trabajando en generar
una red mejorada, la Web 3.0, o web semática, con nuevas y superiores
propuestas para ofrecer un servicio más completo, que avanza a paso veloz hacia
la comprensión semántica del contenido de las webs por parte de las máquinas.
Este cambio se debe a la necesidad de completar el servicio ofrecido por la
antigua Web 2.0.

Los grandes modelos que han llevado a cabo esta evolución han sido los
contenidos multimedia, servicios comunicativos, como el chat, canales RSS,
correo electrónico, la comunicación horizontal y sobre todo la posibilidad de
interacción de los usuarios.
Bibliografía.

Bonilla Marcelo (2001), Internet y sociedad latino americana en el Caribe,


Quito, Ecuador Editorial RisperGraf, Pagina 40.

Free Software Foundation (2018), El sistema operativo GNU, Documento


en línea disponible en: https://www.gnu.org/philosophy/free-sw.es.html

Hernandez Omar (2012), ¿Qué es una red? Documento en línea, disponible


en: http://www.monografias.com/trabajos22/que-es-red/que-es-red.shtml

Martinez David (2015), Sistemas Operativo, Documento en línea,


disponible en: http://sistop.gwolf.org/html/biblio/Sistemas_Operativos_-
_Luis_La_Red_Martinez.pdf

Ruiz Francisco (2017), Web 2.0 Un nuevo Entorno de Aprendizaje en la


Web, Documento en línea, disponible en:
http://dim.pangea.org/revistaDM3/Articulos/pacoruiz.pdf

También podría gustarte