Está en la página 1de 49

MONO GRAFIA

Internet nació de un proyecto militar y hoy es parte esencial de la


vida diaria
Nació como un proyecto militar para asegurar las
comunicaciones en caso de ataque nuclear, pero por fortuna
nunca se empleó en esa situación y acabó siendo una
herramienta imprescindible en la vida de cientos de millones
de personas. Este sábado, su Día Mundial.
Agencia EFE
Se trata, naturalmente, de Internet, ese servicio que llegó a nuestras vidas hace poco más de
quince años y del que dependemos para realizar tareas tan simples como mantener el
contacto con los amigos, encontrar un apartamento para comprar o rentar o decidir dónde
salir a cenar, y cuyo día se celebra mañana.

Los historiadores han logrado ponerse de acuerdo en que Internet -o su predecesor- nació
en 1969, cuando en plena Guerra Fría el Departamento de Defensa de EE.UU. decidió crear
un sistema de comunicaciones capaz de resistir un ataque nuclear.

El Departamento de Defensa encargó este cometido a la Agencia de Investigación


Avanzada de Proyectos de Defensa, que creó un sistema de intercambio de archivos y
mensajes llamado Arpanet.

En 1978 los miembros de esta rudimentaria red tuvieron el dudoso honor de recibir el
primer mensaje publicitario no deseado, una invitación de la firma DEC para la
demostración de un nuevo producto: había nacido el correo basura o “spam”.
 
Pero hasta 1983 y la creación del protocolo TCP/IP por Vint Cerf y Robert Kahn esta red
no pudo dar el salto al gran público y empezar a tener aplicaciones comerciales.

Este protocolo -algo así como “lengua franca” en la que las computadoras se comunican
entre sí- permitía integrar muchos más ordenadores en la red, que entonces tenía sólo unos
1.000 usuarios.

El siguiente gran hito en la historia de la red llegó en noviembre de 1990 con la puesta en
marcha del vínculo conceptual creado por el científico británico Tim Berners-Lee.

Nació así la World Wide Web, Internet como la conocemos. El 30 de abril de 1993 el
Centro Europeo para la Investigación Nuclear abrió el uso de la red a todo el mundo y en
noviembre de aquel año el National Center for Supercomputing Applications de EE.UU.
lanzó el primer navegador que permitió el acceso del gran público.

Internet experimentó después un imparable crecimiento y vivió sus primeros años de gloria
al final de los noventa con el “boom” de las firmas “puntocom”.

 
En el año 2000 un 98 por ciento del diccionario inglés estaba registrado como dominio en Internet
y el resto eran palabras que ninguna empresa querría tener como su dirección en la red. Poco
después llegó el derrumbe, porque la mayor parte de estas compañías eran meros portales sin un
plan de negocio detrás. Cientos de empresas cerraron y el Nasdaq llegó a desplomarse hasta los
1.300 puntos, su valor de 1996, por la caída en bolsa de estas firmas.

Muchos pensaron que Internet nunca volvería a ser lo que fue, pero la red renació pocos
años después con lo que se conoce como segunda generación de la web o Web 2.0.

Este término, acuñado por primera vez en 2004 por Tim O'Reilly, describe una red basada
en comunidades de usuarios y en servicios como redes sociales, blogs o wikis, en los que es
el internauta y no la compañía detrás del portal el que suministra los contenidos.

El 3 de enero de 2006 Internet alcanzó el récord de 100 millones de usuarios conectados.

A muchos de los nacidos a partir de 1985 les cuesta imaginar un mundo en el que la gente
escribía cartas y no correos electrónicos, telefoneaba en lugar de conectarse al Messenger o
echaba mano de las páginas amarillas (de papel) o el periódico si necesitaba un fontanero o
quería ir al cine.

Algunos expertos opinan que la dependencia de la red es excesiva y reduce nuestra


capacidad de comunicarnos en persona. Algunas empresas de EE.UU. han introducido,
incluso, días sin correo electrónico para fomentar la comunicación humana entre sus
empleados.

El grupo Intel, por ejemplo, anima a sus empleados a prescindir los viernes del correo
electrónico y volver a aquella práctica de levantarse de la silla -¿recuerdan?- para decirle
algo a un compañero en lugar de mandarle un correo digital.

Sin embargo, para cientos de millones de personas Internet es aún un gran desconocido o
un invento más cercano a la ciencia ficción que a la vida cotidiana.

La llamada brecha tecnológica no se da sólo entre el Primer y el Tercer Mundo, sino


también dentro de algunos de los países más desarrollados.

Según una encuesta de la consultora Park Associates publicada esta semana, 20 millones de
hogares de EE.UU., un 18 por ciento del total, no tienen acceso a Internet y un 21 por
ciento de los cabeza de familia no ha buscado nunca información en la red ni recibido un
correo electrónico.

Se trata, naturalmente, de Internet, ese servicio que llegó a


nuestras vidas hace poco más de quince años y del que
dependemos para realizar tareas tan simples como mantener
el contacto con los amigos, encontrar un apartamento para
comprar o rentar o decidir dónde salir a cenar, y cuyo día se
celebra mañana.
Los historiadores han logrado ponerse de acuerdo en que
Internet -o su predecesor- nació en 1969, cuando en plena
Guerra Fría el Departamento de Defensa de EE.UU. decidió
crear un sistema de comunicaciones capaz de resistir un
ataque nuclear.
El Departamento de Defensa encargó este cometido a la
Agencia de Investigación Avanzada de Proyectos de
Defensa, que creó un sistema de intercambio de archivos y
mensajes llamado Arpanet.
En 1978 los miembros de esta rudimentaria red tuvieron el
dudoso honor de recibir el primer mensaje publicitario no
deseado, una invitación de la firma DEC para la
demostración de un nuevo producto: había nacido el correo
basura o “spam”.
 
Pero hasta 1983 y la creación del protocolo TCP/IP por Vint
Cerf y Robert Kahn esta red no pudo dar el salto al gran
público y empezar a tener aplicaciones comerciales.
Este protocolo -algo así como “lengua franca” en la que las
computadoras se comunican entre sí- permitía integrar
muchos más ordenadores en la red, que entonces tenía sólo
unos 1.000 usuarios.
El siguiente gran hito en la historia de la red llegó en
noviembre de 1990 con la puesta en marcha del vínculo
conceptual creado por el científico británico Tim Berners-
Lee.
Nació así la World Wide Web, Internet como la conocemos.
El 30 de abril de 1993 el Centro Europeo para la
Investigación Nuclear abrió el uso de la red a todo el mundo
y en noviembre de aquel año el National Center for
Supercomputing Applications de EE.UU. lanzó el primer
navegador que permitió el acceso del gran público.
Internet experimentó después un imparable crecimiento y
vivió sus primeros años de gloria al final de los noventa con
el “boom” de las firmas “puntocom”.

 
En el año 2000 un 98 por ciento del diccionario inglés estaba registrado como dominio en Internet
y el resto eran palabras que ninguna empresa querría tener como su dirección en la red. Poco
después llegó el derrumbe, porque la mayor parte de estas compañías eran meros portales sin un
plan de negocio detrás. Cientos de empresas cerraron y el Nasdaq llegó a desplomarse hasta los
1.300 puntos, su valor de 1996, por la caída en bolsa de estas firmas.
Internet (el internet o, también, la internet)[3] es un conjunto descentralizado
de redes de comunicaciones interconectadas, que utilizan la familia
de protocolos TCP/IP, lo cual garantiza que las redes físicas heterogéneas que la
componen constituyen una red lógica única de alcance mundial. Sus orígenes se
remontan a 1969, cuando se estableció la primera conexión de computadoras,
conocida como ARPANET, entre tres universidades en California (Estados Unidos).
Uno de los servicios que más éxito ha tenido en internet ha sido la World Wide
Web (WWW o la Web), hasta tal punto que es habitual la confusión entre ambos
términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la
consulta remota de archivos de hipertexto. Esta fue un desarrollo posterior (1990) y
utiliza internet como medio de transmisión.[4]
Existen, por tanto, muchos otros servicios y protocolos en internet, aparte de la
Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P),
las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión
de contenido y comunicación multimedia —telefonía (VoIP), televisión (IPTV)—,
los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet)
o los juegos en línea.[4][5][6]
El uso de internet creció rápidamente en el hemisferio occidental desde la mitad de
la década de 1990; desde la década de 2000 en el resto del mundo. [7] En los 20
años desde 1995, el uso de internet se ha multiplicado por 100, cubriendo en 2015
a la tercera parte de la población mundial.[8][9]
La mayoría de las industrias de comunicación,
incluyendo telefonía, radio, televisión, correo postal y periódicos tradicionales están
siendo transformadas o redefinidas por Internet, y permitió el nacimiento de
nuevos servicios como correo electrónico (e-mail), telefonía por internet, televisión por
Internet, música digital, y vídeo digital. Las industrias de publicación de periódicos,
libros y otros medios impresos se están adaptando a la tecnología de los sitios web, o
están siendo reconvertidos en blogs, web feeds o agregadores de noticias. Internet
también ha permitido o acelerado nuevas formas de interacción personal por
medio de mensajería instantánea, foros de Internet, y redes sociales. El comercio
electrónico ha crecido exponencialmente tanto por grandes cadenas como pequeñas
y medianas empresas o emprendedores, ya que ahora pueden vender por internet
productos o servicios hacia todo el mundo.[10] Los servicios
interempresariales y financieros en Internet afectan las cadenas de suministro en todas
las industrias.
Internet no tiene una gobernanza centralizada única ni en la implementación
tecnológica ni en las políticas de acceso y uso; cada red constituyente establece sus
propias políticas.[11] Las definiciones excesivas de los dos espacios de nombres
principales en Internet, el Protocolo de Internet (dirección IP) y el Sistema de nombres
de dominio (DNS), están dirigidos por una organización mantenedora, la Corporación
de Internet para la Asignación de Nombres y Números (ICANN).[12] La base técnica y la
estandarización de los protocolos centrales es una actividad del Grupo de Trabajo de
Ingeniería de Internet (IETF), una organización internacional sin fines de lucro.[13]
… ………

. ¿Qué es Internet?

Internet es una red de computadoras interconectadas a nivel mundial en forma de


tela de araña. Consiste de servidores (o "nodos") que proveen información a
aproximadamente 100 millones de personas que están conectadas entre ellas a
través de las redes de telefonía y cable.

2. Algunas características de Internet

 La información está disponible las 24 horas del día en cualquier sitio del mundo
 Aunque su uso inicial fue para fines educativos, hoy en día se usa para cualquier
propósito - negocios, entretenimiento, educación, etc.
 Internet no pertenece a nadie y no existe una "primera página"
 Cualquier persona puede poner información en Internet
 (Casi) no existen regulaciones para limitar el uso de Internet
 Internet brinda oportunidades novedosas y económicas para comunicarse
 

3. Internet debe ser vista bajo los siguientes lentes

 Como una red (la madre de todas las redes públicas y privadas)
 Un medio (TV, radio, etc)
 Un mercado
 Una plataforma para transacciones(~$600 billones en el 2000)
 Una plataforma para desarrollo de aplicaciones

4. ¿y qué es Internet 2?

Es la nueva versión de Internet que permite la transmisión de datos a alta


velocidad, mayor seguridad y mayor confiabilidad.

Internet 2 permitirá:

 Enseñanza a distancia
 Investigación científica sin fronteras
 Telemedicina
 Explotar a otros niveles de interacción la musica y las artes
 Trabajo colaborativo en tiempo real
 Realidad virtual

 
IMPORTANCIA DEL INTERNET
Internet se ha convertido, sin duda, en una parte muy importante de nuestras
vidas.

PUERTA JAIME 08-0931-001322


10 de diciembre de 2020
INTRODUCCIÓN
Internet es una red que conecta a otras redes y dispositivos para compartir
información. Esto lo hace por medio de páginas, sitios o softwares. Su popularidad
se ha hecho cada vez mayor por su capacidad de almacenar, en un mismo lugar,
información de todo tipo y para diferente público. En Internet podemos encontrar
información de música, arte, cultura, medicina, literatura, política, ingeniería y
mucho más. Por medio de texto, audio, video, música, e imágenes, Internet nos
permite informarnos, aprender y divertirnos.
ACTIVIDADES QUE PODEMOS REALIZAR CON EL INTERNET

 Investigar y aprender: bibliotecas, museos y libros gratuitos a través de la red.


 Comunicarnos y mantenernos en contacto con amigos y familiares que viven lejos
usando chats, videollamadas, correos electrónicos y redes sociales. 
 Opinar libremente en blogs, páginas y redes sociales y saber lo que otros opinan.
 Compartir nuestros gustos e intereses con otras personas.
 Informarnos, en tiempo real, sobre lo que sucede en el país y el mundo.
 Realizar gestiones burocráticas y financieras desde la casa u oficina.
 Tomar cursos en instituciones y universidades virtuales.
 Escuchar música, ver videos y películas.
 Descargar libros, artículos, películas y música.
 Comprar en distintos almacenes, sin importar en qué lugar del mundo se
encuentren.
NAVEGADORES WEB

· Chrome. Perteneciente al gigante Google y creado en el año 2008; es uno de los


más rápidos y seguros ofrecidos en el mercado hoy en día. Se trata de uno de
los programas de navegación de mejor calidad de la actualidad, que además
ofrece su descarga en forma absolutamente gratuita.
· Internet Explorer. Es un servicio de mayor antigüedad, ya discontinuado, pero
que fue en su momento el líder del mercado. Su creación data aproximadamente
del año 1995, y es el lanzado al mercado por la empresa líder Microsoft. Durante
su primera década de existencia fue el más utilizado, presentando la mayor
modernidad, pero hoy en día se ha convertido en uno de los más lentos a pesar de
sus actualizaciones; razón por la cual, ha perdido gran cantidad de usuarios.
· Mozilla Firefox. Se presenta como la alternativa lanzada por la compañía
Mozilla, que causó furor en su inclusión al mercado dada la compatibilidad
existente con sistemas operativos tanto de Apple, como de Microsoft. Además, se
trata de un servicio rápido dado que utiliza poca memoria (menos requerimientos
de hardware) al momento de realizar cada búsqueda; pero presenta la mejor
seguridad ofrecida en el mercado hasta el momento.
· Safari. Creado por Apple. Quizás uno de los más rápidos, absolutamente
compatible con el sistema operativo de esta marca, mientras la versión compatible
con Microsoft ya no recibe actualizaciones; y, por lo tanto, tampoco se obtiene
igual rendimiento.
PROVEEDORES DE INTERNET EN PANAMÁ

Cable & Wireless

Cable Onda
MAPA DE LUGARES EN PANAMÁ CON VARIABILIDAD EN SU CALIDAD DE
INTERNET
Powered by Esri
ENCUESTAS DE CALIDAD DE INTERNET

CONCLUSIÓN
En total el Internet es una forma de comunicación que esta cambiando al mundo,
tiene sus pro y sus contra como todo en esta vida, solo hay que estar seguro de
que uso se le dará y quedara satisfecho.
Por un lado en el orden informativo es muy efectivo, aunque la televisión y la
radio que son cosas más comunes aun. Es muy útil en el ámbito educativo aunque
en el comercio se destaca mas, cosa que en mi opinión debería ser lo contrario.
Una de las mejores ventajas es la de las actualizaciones, permitiéndote mantener
tus softwares siempre modernizados y preparados para todo lo nuevo.
Y no esta demás mencionar el correo electrónico que gracias a él recibes y
mandas tu correspondencia gratis a cualquier parte del mundo y a cualquier hora.
Realmente es complicado imaginarnos nuestra vida sin Internet en la actualidad. Sin lugar
a dudas, fue uno de los inventos más revolucionarios del siglo XX y está en constante
evolución. Ahora bien, no fue un invento de una sola persona, sino que numerosas personas
contribuyeron a su desarrollo.
Origen y evolución de Internet
Podemos situar el origen de Internet en los años 30 del siglo XX de la mano de Paul Otlet,
un informático belga. Escribió cómo se imaginaba él que sería una librería radial que
conectara a televidentes de todo el mundo a través de señales telefónicas y ondas de radio.
De esta manera, las personas podrían enviarse mensajes y compartir información a grandes
distancias. Aunque fue un gran visionario, Paul Otlet nunca materializó su idea.

Kleinrock, ingeniero, científico en computación y profesor de Ciencias de la


Computación en la UCLA, mencionó la idea de Internet tal y como lo conocemos en la
actualidad en su estudio «Flujo de información en grandes redes de comunicación», que
publicó en mayo del año 1961. Solo un año más tarde, J.C.R. Licklider,
un informático estadounidense, habló de una posible red galáctica. Ambos expertos, junto
con el informático  Robert W. Taylor, formularon la primera idea de lo que más adelante se
convirtió en ARPANET.

En 1968 se publicó el ‘Estudio de los parámetros de diseño de la red de ordenadores’, en el


que participaron grandes expertos como Jeff Rulifson y Steve Carr, entre muchos otros. Al
mismo tiempo, Lawrence Roberts y Barry Wessler consiguieron crear la versión de la
Interfaz de Procesador de Mensajes (IMP), que BBN Technologies se encargó de construir.

Tras una serie de investigaciones por parte de científicos del Departamento de Defensa de
Estados Unidos, finalmente se desarrolló la ARPANET. Empezó a funcionar el 21 de
noviembre de 1969 entre las universidades de Standford y de UCLA. En 1970 ya cruzaba
todo Estados Unidos, y en 1971 había conectados 23 ordenadores de distintos centros de
investigación y universidades.

Durante décadas la red se fue mejorando, y, aunque Internet es un invento en el que


participaron muchas personas, los nombres más relevantes son los siguientes: Leonard
Kleinrock, que inventó la tecnología básica de Internet, Ray Tomlinson, que introdujo la
mensajería electrónica,y Tim Berners-Lee, desarrolló el lenguaje HTML y el sistema
WWW en 1990.

En estos momentos el 57% de la población mundial tiene acceso a Internet, y no para de


crecer el número de usuarios que se conectan a la red a través de un dispositivo móvil.
5' 

Tipos de conexión a Internet: un vistazo a las


alternativas inalámbricas y cableadas más
importantes del mundo
Publicado el 8 agosto, 2020

Isidro Ros

Si te preguntara qué tipos de conexión a Internet existen estoy seguro de que tu


primera respuesta sería «inalámbricas y cableadas». Es correcto, has acertado,
pero bajo esa sencilla división podemos encontrar una gran variedad de subtipos
de conexión a Internet que juegan, en su mayoría, un papel muy importante,
aunque algunas sean consideradas como «opciones de nicho».

En este artículo os invitamos a que nos acompañéis a descubrir los tipos de


conexión a Internet más populares y más utilizados que existen a día de hoy.
No solo descubriréis esos subtipos a los que hicimos referencia, sino que además
tendréis un poco más claro qué ventajas y qué desventajas ofrece cada uno, y qué
particularidades presentan.

Sin más preámbulos, entramos en materia. Os recuerdo que si tenéis cualquier


duda podéis dejarla en los comentarios.
Tipos de conexión a Internet: subtipos inalámbricos
Conexión vía satélite
Estamos ante un tipo de conexión a Internet que podemos considerar como de
nicho, y que en muchas ocasiones es el último recurso para llevar Internet a
aquellas zonas en las que no es posible llevar Internet de una manera más
convencional. Para conectarnos a Internet por satélite es necesaria una gran
cantidad de equipamiento (antena, módem específico, conversor de reducción de
ruido) y se necesita un software específico. Se utiliza mucho a nivel militar, y
también en barcos y aviones.
Estándar Wi-Fi
De un tipo de conexión a Internet poco común saltamos a otro que es, de hecho,
el más utilizado actualmente. Como sabrán muchos de nuestros lectores este tipo
de conexión utiliza ondas de radio con forma de dónut, trabaja en las frecuencias
de 2,4 GHz y 5 GHz y es muy versátil y fácil de utilizar y de mantener.
Actualmente imperan tres grandes estándares: Wi-Fi 4 y Wi-Fi 5, que ya están
asentados, y Wi-Fi 6, que se está empezando a establecer.

Conexiones de datos móviles


Creo que no necesita presentación, ya que se han convertido en algo
imprescindible debido al auge de smartphones y tablets. Podemos encontrar
varios subtipos diferenciados por el rendimiento que ofrecen y por los avances
tecnológicos que incorporan. Así, la más antigua es la conexión GSM, que fue la
primera en ofrecer datos móviles, y la más actual es el 5G. Utiliza ondas de radio
para su transmisión, y en su primera versión alcanzaba velocidades de hasta 10
Kbps, mientras que el 5G promete llegar a los 20 Gbps.

Estándar WiMAX
Nos encontramos con un tipo de conexión a Internet inalámbrica que destaca por
utilizar ondas de radio en las frecuencias de 2,5 a 5,8 GHz y porque puede tener
una cobertura hasta de 70 km. Está pensado para llegar a zonas de difícil acceso y
cobertura complicada, y es capaz de ofrecer además un excelente nivel de
rendimiento, ya que en condiciones óptimas alcanza velocidades de hasta 1 Gbps.

Sistema LMDS (Local Multipoint Distribution System)


No hay sorpresas, es otro tipo de conexión a Internet basado en ondas de radio,
pero en este caso son de alta frecuencia (28 GHz-40 GHz). Su alcance es mejor,
ya que ronda máximos de 35 kilómetros, y se establecen de forma celular, es
decir mediante una red de antenas fijas ubicadas en determinadas zonas para dar
cobertura a sectores concretos.
Tipos de conexión a Internet: subtipos cableados
Fibra óptica
Es uno de los tipos de conexión a Internet más populares y mejor valorados que
existen a día de hoy, gracias a su excelente rendimiento. La fibra óptica permite
ofrecer una conexión a Internet de alta velocidad y de una gran calidad, aunque
algunos proveedores utilizan una mezcla de fibra óptica y cable coaxial, siendo
esta última inferior en rendimiento y calidad. Una conexión de fibra óptica
doméstica puede alcanzar, sin problemas, velocidades de 1 Gbps simétricos. ¿No
sabes qué velocidad de conexión a Internet necesitas? Pues echa un ojo a este
artículo.
Conexión ADSL
Sin duda una de las más populares y extendidas que existen a día de hoy. Este
tipo de conexión a Internet se identifica como «Asymmetric Digital Subscriber
Line», y representa una evolución que une las bases de la red telefónica
conmutada y la red digital RDSI. Utiliza la línea telefónica (el clásico par de
cobre), lo que facilita y abarata enormemente su implementación, y permite
alcanzar velocidades bastante buenas, aunque no llega al nivel de la fibra óptica.

Red Telefónica Conmutada


Es un estándar que está obsoleto y que ha caído en desuso, pero fue uno de los
pilares básicos de la primera etapa del despegue de Internet, así que merece
estar en esta lista debido a ese papel de «pionero» que jugó en su momento.
Como sabrán muchos de nuestros lectores utilizaba la red de telefonía para
transmitir de forma analógica, permitiría un ancho de banda de 56 Kbps y no
podría trabajar con voz y datos de forma simultánea. Ya sabes, si llamaban por
teléfono y alguien descolgaba se caía la conexión a Internet.

Red digital RDSI


Al igual que la anterior, se encuentra en desuso, aunque gozó de una época de
gran popularidad, y lo cierto es que todavía se encuentra presente a nivel
profesional. En general mantiene las bases de la red telefónica conmutada,
pero transmite en digital en lugar de en analógico. En una red digital RDSI no
se utiliza un módem, sino un adaptador de red específico, y se necesita una
infraestructura concreta, con el coste que ello supone….
Qué tipos de aplicaciones web existen?

5/04/2017
Desarrollo de aplicaciones web





Internet es el gran espacio donde podemos encontrar información,
entretenimiento, herramientas, formación… Las aplicaciones web
son el lugar por excelencia donde encontramos todo esto.
Después del boom de principios del siglo XXI de las páginas web,
ahora estamos en una fase de optimización de éstas.
Actualmente, se busca no solo tener una web con información o
entretenimiento, sino crear aplicaciones web que ayuden a
generar más tráfico, a compartir los contenidos, a aumentar las
ventas, a mejorar la relación del cliente con la marca, a mejorar la
reputación, el SEO (Search Engine Optimization)… En definitiva,
a mejorar la UX (User Experience) y el valor de la empresa,
marca o institución.

En este post exploraremos los diferentes tipos de Aplicaciones


Web. De esta manera será más fácil conocer qué tipo de
aplicación puede necesitar un negocio en concreto. Se entiende
por aplicación web aquellas herramientas que los usuarios
pueden utilizar accediendo a un servidor web a través de
Internet o de una intranet mediante un navegador.
Clasificaremos las aplicaciones en 6 tipos, de la mano de Yeeply,
en función de cómo se muestra la web a los usuarios y cómo es la
gestión de los contenidos de ésta.

1. – Aplicación web estática. Es un tipo de aplicación que


muestra muy poca información y está pensada para no
generar e incluir nuevos contenidos. Suelen estar
desarrolladas en HTML y CSS. No obstante, pueden incluir
videos, banners y GIFS. Modificar el contenido de una web
estática no es sencillo, ya que requiere que se descargue el
código, modificarlo y volverlo a subir: no es práctico. El
webmaster o un desarrollador profesional tendrá que ser el
que lleve cabo estos cambios. Este tipo de aplicación es
práctico para proyectos que no requieran actualizar la
información o que quieren dar un primer paso en el mundo
de internet. Algunos ejemplos podrían ser portfolios de
profesionales, un curriculum digital o una página de
presentación de empresa.
2. – Aplicación web dinámica. Son mucho más complejas a
nivel técnico que las anteriores. Utilizan bases de datos para
cargar la información y los contenidos se van actualizando
cada vez que el usuario accede a la web app. Suelen contar
con un panel de administración (llamado CMS) desde el que
se administra y se crean y publican los contenidos (noticias,
posts, imágenes, banners, videos…) Existen muchos
lenguajes de programación para aplicaciones web dinámicas
como por ejemplo PHP y ASP, que son los más populares
porque permiten una buena estructuración del contenido. Es
muy sencillo actualizar los contenidos y se pueden añadir
foros, o bases de datos. También el diseño de la web se
puede cambiar y retocar.
3. – E-commerce. Es el tipo de aplicación web pensado para
tiendas online. El desarrollo es más complejo al tener que
crearse unas pasarelas de pago para tarjetas de crédito,
PayPal, etc. Además de sincronizarse con la gestión de
stocks y logística. Habrá que crear un panel de gestión
donde se subirán los productos y se irán actualizando o
eliminándose, y donde se gestionaran los pedidos y pagos.
Podemos encontrar miles de ejemplos, desde Amazon hasta
El Corte Inglés.
4. – Portal web app. Con el término portal, nos referimos a un
tipo de aplicación en el que la página principal permite el
acceso a diversos apartados, categorías o secciones. Puede
haber de todo: foros, chats, correo electrónico, un buscador,
zona de acceso con registro, contenido más reciente, etc.
5. – Aplicación web animada. Son aplicaciones web creadas
con la tecnología Flash. Esta tipología de programación
permite crear y presentar contenidos con efectos animados.
Es una tecnología muy atractiva para desarrolladores y
diseñadores. El problema que tienen las webs animadas es
que no son útiles para mejorar el posicionamiento ni para
optimizar el SEO; los buscadores no pueden leer
correctamente las informaciones.
6. – Aplicación web con “Gestor de Contenidos”. Perfecta
para proyectos que necesitan actualizar su contenido
constantemente. Tienen un gestor de contenidos (CMS) a
través del cual el administrador y los editores pueden ir
añadiendo los contenidos, realizando los cambios y
actualizaciones, etc. Muchas empresas han optado por este
tipo de aplicaciones web, por la facilidad de publicar
contenidos. Es muy popular su uso en diarios digitales,
blogs (personales o corporativos), medios de comunicación
y webs de Pymes. Dada su popularidad ponemos algunos
ejemplos de CMS:
I. · WordPress. El más extendido y popular. Es sencillo y
gratuito y hay mucha información disponible para
optimizar su uso.
II. · Joomla. El segundo en el ranking de CMS. Tiene una
comunidad fuerte de usuarios fieles.
III. · Drupal. Es un CMS de software libre. Es muy
personalizable, adaptable, y se recomienda para
generar comunidades.
En FP UOC-Jesuitas queremos prepararte para que tengas una
visión amplia de los entornos web, es por eso que en
nuestro Ciclo Formativo de Grado Superior de Desarrollo de
Aplicaciones Web, aprenderás a desarrollar, implantar y
mantener aplicaciones web, con independencia del modelo
empleado y utilizando tecnologías específicas del lado cliente o
servidor. Todo ello garantizando el acceso a los datos de forma
segura y cumpliendo los criterios de accesibilidad, usabilidad y
calidad exigidas por los estándares oficiales. Matricúlate ahora.
Las 10 ‘apps’ que más datos consumen en segundo
plano
Se ejecutan al encender el dispositivo, sin necesidad de que el
usuario las abra
Un hombre comprueba su móvil.OSWALDO RIVASUNDEFINED

JOSÉ ÁNGEL PLAZA LÓPEZ


10 OCT 2017 - 04:09 BOT
3

Algunas aplicaciones móviles siguen consumiendo datos incluso cuando el usuario no las está
utilizando. Basta con tenerlas instaladas para que automáticamente se ejecuten nada más encender
el dispositivo y continúen actuando en segundo plano con el fin de comprobar si hay novedades
para ofrecer notificaciones o cualquier otra actualización. Para aquellos que pasan mucho tiempo en
entornos donde no están conectados a redes wifi, resulta interesante conocer cuáles son estas apps,
para decidir si merece la pena mantenerlas o cambiarlas por otras similares para no agotar antes de
tiempo los megas mensuales contratados.

Después de analizar los datos de más de tres millones de dispositivos Android de todo el mundo
entre enero y marzo de 2017, Avast ha dado a conocer la clasificación de las aplicaciones móviles
que más datos consumen en segundo plano. Esta es la lista de las diez más voraces, entre las que
encontramos cuatro pertenecientes a Facebook y dos que son propiedad de Google.

1. Facebook

Con más de 2.000 millones de usuarios mensuales activos, la red social por antonomasia se hace
con el número uno de este ranking debido a las veces que rastrea las novedades de los contactos y
de los intereses marcados por el usuario para enviar las correspondientes alertas en forma de
notificaciones.

2. Instagram

La medalla de plata de esta clasificación también es para una aplicación propiedad de la compañía
de Mark Zuckerberg: Instagram, que fue comprada por Facebook en 2012 por 765 millones de
euros y ya cuenta con 800 millones de usuarios mensuales activos

3. Yahoo! JAPAN

La filial nipona de uno de los primigenios buscadores de Internet es una compañía formada por la
propia Yahoo! y la firma japonesa SoftBank. La app oficial de Yahoo! Japan es una herramienta
con multitud de servicios (correo, calendario, agenda, previsión meteorológica…) que deben
mantenerse siempre actualizados. De ahí que consuma bastantes datos en segundo plano.

4. Firefox

El navegador que más datos consume en formato app sin que se esté utilizando es Firefox. Mozilla
ya ha anunciado que en noviembre estará disponible Quantum (que ya cuenta con beta
para iOS y Android), una nueva versión de Firefox que promete revolucionar la velocidad de
navegación sin consumir más recursos de los dispositivos.

5. The Weather Channel

The Weather Channel suele encontrarse entre las aplicaciones que más datos consumen debido a
que se basa en pantallas dinámicas que deben alimentarse continuamente para ofrecer información
meteorológica que varía en función de la ubicación actual, el estado del tiempo y la hora del día.

6. WhatsApp

Cada día, más de 1.000 millones de personas usan WhatsApp para comunicarse a través de


mensajes de texto, llamadas y videollamadas. Pero, aunque no se esté utilizando, esta app propiedad
de Facebook sigue consumiendo datos en segundo plano.

7. Google Chrome

El segundo de los navegadores que aparece en esta clasificación es Chrome. Consciente de ello,
Google proporciona una serie de recomendaciones que ayudan a reducir el consumo de datos de
esta aplicación en dispositivos Android. En cuanto a iPhones y iPads, la compañía señala lo
siguiente: “Esta función no está disponible en este momento debido a restricciones de la plataforma.
Si Apple realiza cambios en [el motor de renderizado] WKWebView para permitir ‘Reducir datos’,
volveremos a incluir esta función”.

8. DU Battery Saver

Aunque se trata de una aplicación que ayuda a aumentar la duración de la batería, lo cierto es que
DU Battery Saver puede salir cara por otro lado, ya que es otra de las aplicaciones que comienza a
consumir datos nada más encender el dispositivo móvil, según el informe de Avast.

9. Facebook Lite

Con esta versión “ligera” de Facebook ocurre algo parecido a con DU Battery Saver, es decir, lo
que el usuario ahorra por un lado (en este caso en espacio de almacenamiento, sobre todo) lo acaba
pagando, incluso sin abrir esta app, con datos de su tarifa. Eso sí, la edición Lite siempre será mejor
opción que la aplicación tradicional de Facebook para los que no quieran renunciar a tener esta red
social en el móvil.

10. Google Play Store


Cierra esta clasificación de las apps más voraces que actúan como parásitos una que resulta
imprescindible para los dispositivos Android, ya que es la propia tienda de aplicaciones de Google:
Play Store.

La clasificación es muy distinta si nos centramos en las aplicaciones que consumen más datos
mientras son ejecutadas por los usuarios. De hecho, ninguna de las anteriores aparece en este otro
ranking de Avast, ordenadas de más a menos voraces:

1. Netflix

2. Spotify Music

3. Snapchat

4. BBC News

5. LINE: Free Calls & Messages

6. Microsoft Outlook

7. Clean Master

8. Samsung WatchON

9. Amazon for tablets

10. PicsArt Photo Studio & Collage

Internet: su evolución y sus desafíos

Janet Abbate

Universidad Politécnica de Virginia, Virginia, EE.UU.

Internet, una red global de redes, es un sistema notablemente complejo


desde el punto de vista técnico, construido a partir de las contribuciones
creativas de científicos de todo el mundo a partir de la década de 1950 y
hasta el presente. A lo largo de su evolución, Internet y otras redes han sido
impulsadas por gobiernos, investigadores, educadores e individuos en
general como herramientas para satisfacer un gran número de necesidades
de la población. La combinación de políticas estatales e improvisaciones de
base (a escala local) ha dado lugar a beneficios sociales que incluyen el
acceso generalizado a ordenadores y a información, una colaboración más
estrecha entre científicos, crecimiento económico, formación de
comunidades virtuales y una mayor capacidad para mantener lazos sociales
a larga distancia; también a la democratización de los contenidos creativos y
al activismo político y social en línea. El rápido crecimiento de Internet
también ha generado crisis técnicas, tales como la congestión y la escasez
de dominios, así como dilemas sociales, incluidas actividades ilegales o
malintencionadas, y continuas discriminaciones digitales basadas en
diferencias de ingresos, procedencia, edad, sexo y educación. Estos
problemas siguen requiriendo soluciones creativas por parte de científicos,
legisladores y ciudadanos.

Del desarrollo técnico de Internet hay varios aspectos a destacar. En primer


lugar, desde 1950 hasta el presente se ha producido un aumento
continuado en el volumen de las redes de datos y en la variedad de
servicios que éstas ofrecen. El rápido crecimiento y la diversidad han
obligado a los diseñadores de redes a superar incompatibilidades entre
sistemas y componentes informáticos, a gestionar el tráfico de datos para
prevenir la congestión y el caos y a llegar a acuerdos internaciones sobre
estándares técnicos. Estos desafíos han cristalizado en logros
fundamentales en áreas de investigación tales como sistemas operativos y
la teoría de colas (modelo matemático para el estudio de fenómenos de
espera). Una segunda tendencia ha sido el diseño de funciones de las redes
en forma de capas de enlace, cada una de las cuales se comporta según un
protocolo estándar (una serie de normas para interacción implementada en
software o en hardware). Este diseño por capas reduce la complejidad del
sistema de redes y minimiza el grado de estandarización necesario para su
funcionamiento, lo que facilita que las redes puedan unirse a Internet. Un
tercer e importante rasgo del desarrollo técnico de Internet ha sido un
proceso de diseño inusualmente descentralizado y participativo. Ello ha
abierto el sistema a innovaciones procedentes de una variedad de fuentes y
ha fomentado la colaboración informal desde todas las zonas de planeta. En
los siguientes apartados se describen algunos de los hitos principales en la
evolución de Internet y sus predecesoras.

Los inicios: primeros terminales en redes


Las primeras computadoras electrónicas digitales, inventadas durante la
Segunda Guerra Mundial y comercializadas inmediatamente después, eran
máquinas solitarias; no estaban diseñadas para interactuar con sus usuarios
ni con otras computadoras. Al cabo de unos pocos años, sin embargo, los
ingenieros informáticos comenzaron a experimentar con maneras de
acceder a distancia a los ordenadores o de transmitir datos de una máquina
a otra. Las redes de datos de la década de 1950 y principios de la de 1960
eran sistemas concebidos para conectar terminales a ordenadores, antes
que ordenadores entre sí. Los experimentos realizados con terminales en
red resultaron ser un área de investigación llena de desafíos para los
científicos, pero también una respuesta a la realidad política y económica
del momento, marcada por la Guerra Fría y por el crecimiento global de la
economía, los transportes y las comunicaciones.

La ciencia informática en Estados Unidos fue en gran parte una creación del
ejército y reflejaba la rivalidad del país con la URSS. Así por ejemplo, un
importante avance estadounidense en la década de 1950 fue el proyecto
SAGE (un sistema informatizado de alerta temprana de detección de misiles
enemigos). Cada centro SAGE tenía un ordenador IBM que recibía datos
por medio de líneas telefónicas conectadas a instalaciones de radar y bases
militares. Una de las tecnologías clave desarrolladas por los laboratorios
Bell AT&T para SAGE fue el módem, que sirve para convertir datos
informáticos digitales en señales analógicas que pueden enviarse por la red
telefónica. AT&T empezó a comercializar los módems en 1958 y durante
varias décadas éstos fueron el principal acceso en red para el usuario
común.

La demanda de terminales en red se vio impulsada por otro hito tecnológico


de principios de la década de 1960: los sistemas operativos de tiempo
compartido. Inventados de forma independiente en 1959 por Christopher
Stratchey en Gran Bretaña y por John McCarthy en Estados Unidos, los
sistemas operativos de tiempo compartido permitían que múltiples usuarios
operaran con programas distintos en un solo ordenador y de forma
simultánea. Debido a que el coste del ordenador podía repartirse entre
varios usuarios, el sistema de tiempo compartido permitía a individuos usar
un ordenador de forma interactiva durante largos periodos de tiempo, en
lugar de estar limitados a operar con un solo programa, y también a recibir
los resultados de forma inmediata. Los servicios comerciales de tiempo
compartido se aprovecharon de este ahorro para proporcionar acceso
informático a precios asequibles a gran cantidad de clientes del mundo
académico y de los negocios. A mediados de la década de 1960 los
servicios comerciales de tiempo compartido ya estaban desarrollando sus
propias redes de datos con objeto de ofrecer a sus clientes acceso a bajo
coste a sus ordenadores.

El capitalismo global y el crecimiento de los sistemas de transporte y


comunicaciones dieron impulso a la creación de terminales de redes
comerciales y de gran escala. A principios de la década de 1960 las
industrias que manejan gran cantidad de datos, tales como la aviación o las
compañías financieras, empezaron a desarrollar redes conjuntas que
permitieran a distintas empresas compartir información. Por ejemplo, a
principios de los sesenta American Airlines e IBM crearon SABRE, un
sistema de reservas en línea (basado en el proyecto de IBM para SAGE), el
cual conectaba 2.000 terminales de Estados Unidos a un ordenador central.
De manera similar, el NASDAQ o Asociación Nacional de Cotización
Automatizada de Operadores de Valores de Estados Unidos, creó una red
para cotizaciones de acciones en 1970. En un ejemplo temprano de la
colaboración internacional en redes informáticas, una cooperativa de líneas
aéreas llamada SITA (Société Internationale de Télécommunications
Aéronautiques) construyó una red en 1969 empleando la técnica de
conmutación de paquetes o packet switching (véase más adelante). La red
de SITA gestionaba el tráfico aéreo de 175 compañías a través de centros
informáticos situados en Ámsterdam, Bruselas, Fráncfort, Hong Kong,
Londres, Madrid, Nueva York, París y Roma (SITA 2006). Dichas redes
comerciales y financieras contribuyeron a acelerar la globalización de la
economía.

Redes de investigación
Las redes de terminales se basaban en un modelo radial (hub-and-spoke)
relativamente simple que conectaba a numerosos usuarios a un solo
ordenador central. Entre finales de la década de 1960 y finales de la de
1970 ingenieros informáticos desarrollaron nuevas redes más complejas
que conectaban múltiples ordenadores entre sí. Al experimentar con nuevas
tecnologías, los investigadores buscaban romper las barreras que
entrañaba compartir datos entre ordenadores con sistemas operativos
distintos. Los científicos y sus patrocinadores —los gobiernos— vieron una
triple promesa en la creación de redes informáticas: la capacidad de
compartir ordenadores escasos y costosos, lo que aumentaría el acceso al
tiempo que reducía los gastos; la posibilidad de compartir datos y trabajar
en colaboración con colegas de otros lugares y la oportunidad de progresar
en la teoría y la práctica del uso de los aparatos.

Tres de las primeras redes de investigación más importantes fueron


ARPANET (Estados Unidos, 1969), la NPL Mark I (Gran Bretaña, 1969) y
CYCLADES (Francia, 1972). Una de las innovaciones clave de estas redes
experimentales fue una técnica de comunicación llamada packet switching o
conmutación de o por paquetes. Hasta entonces los sistemas de
comunicación existentes, como el teléfono o las terminales de redes, tenían
circuitos establecidos entre las dos terminales de la conexión. Por el
contrario, una red de conmutación por paquetes divide los datos de manera
que puedan ser transmitidos en pequeñas unidades llamadas «paquetes»
que son enviadas de forma individual, compartiendo los circuitos en red con
otras conexiones. La conmutación por paquetes permite utilizar los nexos de
comunicación de manera más eficaz, con el consiguiente ahorro económico.
Además, los paquetes de una misma conexión pueden enviarse a su
destino por rutas diferentes, haciendo posible distribuir el tráfico en múltiples
vías o reaccionar a una interrupción en el funcionamiento de parte de una
red redirigiendo el tráfico a otra. El concepto de conmutación por paquetes
fue inventado de forma independiente a principios de la década de 1960 por
Paul Baran en Estados Unidos y Donald Davies en Gran Bretaña. Davies
puso la técnica en práctica en la red de un nodo Mark I en el National
Physical Laboratory. En Estados Unidos, la agencia DARPA (siglas de
Defense Advanced Research Projects Agency, Agencia para proyectos de
investigación de defensa avanzados) patrocinó la primera gran red de
conmutación por paquetes: ARPANET. Uno de los teóricos que participó en
este proyecto fue Leonard Kleinrock, responsable del desarrollo de algunos
de los primeros métodos de análisis del comportamiento de las redes de
conmutación por paquetes. En Francia, Louis Pouzin fue pionero de la red
sin conexiones o en la red de conmutación de paquetes con datagramas
CYCLADES. Las redes de datagramas eran más sencillas que las que
funcionaban por conexiones, como ARPANET, y esta sencillez hacía más
factible interconectar redes diferentes, lo que supuso un importante paso en
el desarrollo de una Internet global. Tal y como lo explica Pouzin: «Cuanto
más sofisticada es una red, menos probable es que sea compatible con
otra» (Pouzin 1975). Experimentos realizados con internetworking (conexión
de múltiples redes) ya se estaban llevando a cabo a principios de la década
de 1970. Por ejemplo, la red NPL se conectó a CYCLADES en 1974, y en
1976 ambas se conectaron a la nueva Red Informática Europea o EIN,
desarrollada a partir de un grupo de estudio de ciencia y tecnología de la
entonces Comunidad Económica Europea, el cual recomendaba la creación
de una red multinacional que ayudara a los países miembros a compartir
recursos informáticos y promover la investigación en la ciencia informática.
En 1976 EIN proporcionaba servicios de red a diez países, con nodos en
Italia, Francia, Suiza y Gran Bretaña (Laws y Hathaway 1978). La
convergencia de los sistemas de redes reflejaba así la convergencia entre
Estados cooperantes.

Además de la conmutación por paquetes, ARPANET puso en marcha una


serie de técnicas experimentales. Dicha red conectaba a investigadores de
Estados Unidos que trabajaban en campos tales como tiempo compartido,
inteligencia artificial y gráficos. Gracias a lo generoso de las ayudas
estatales y a la abundancia de talentos implicados en el proyecto, los
diseñadores de ARPANET pudieron experimentar con técnicas
prometedoras aunque extraordinariamente complejas. Por ejemplo, en lugar
de limitar la red a una sola clase de ordenador, ARPANET incluía variedad
de computadoras muy diversas entre sí. Esto impulsó a un equipo de
especialistas en informática, estudiantes de posgrado e ingenieros
industriales a buscar nuevas maneras de resolver las incompatibilidades
entre ordenadores, y su esfuerzo facilitó en gran medida la creación de la
nueva generación de redes informáticas. ARPANET también estaba dotada
de una topología distribuida, es decir, que constaba de numerosos nodos
con múltiples interconexiones, en lugar de un único nodo central. Las
comunicaciones distribuidas, descritas por primera vez por Baran en 1964,
permitían expandir la carga de información e incrementar potencialmente la
fiabilidad, creando múltiples caminos entre dos ordenadores cualesquiera.
Sin embargo, la adopción de esta técnica experimental incrementó en gran
medida la complejidad del sistema de enrutamiento y forzó a los creadores
de ARPANET a analizar y gestionar tipos de comportamiento en red hasta
entonces desconocidos. En lo que resultó ser otro paso arriesgado, el
diseño en red requería que las operaciones de enrutamiento se
descentralizaran y volvieran adaptativas: es decir, cada nodo tomaría sus
decisiones de enrutamiento de forma independiente y modificaría su
comportamiento dependiendo de las condiciones de tráfico de información o
de la configuración de la red (por ejemplo, si un nodo adyacente se volvía
inoperativo). El diseño descentralizado de ARPANET y su enrutamiento
autónomo hacían más difícil analizar el comportamiento en red; al mismo
tiempo, estas técnicas contribuirían al futuro éxito de Internet porque
permitían que la red creciera sin las limitaciones inherentes a un cuello de
botella central. Una de las características más novedosas del proyecto
ARPANET no era de tipo técnico, sino organizacional: un proceso de toma
de decisiones descentralizado e informal. El desarrollo del software para
esta red se debió a un equipo de investigadores y estudiantes llamado
Network Working Group (Grupo de trabajo para la red). Cualquier miembro
del grupo era libre de sugerir una nueva técnica haciendo circular un boletín
de sugerencias; después de un periodo de debate y experimentación, la
sugerencia era modificada, abandonada o adoptada por consenso como un
nuevo estándar para la red. Este modelo colaborativo sigue empleándose
en Internet (Bradner 1996) y ha ayudado al sistema a crecer y adaptarse, al
fomentar el debate de ideas y la participación libre en su desarrollo técnico.

La aplicación de más éxito de las primeras redes experimentales fue con


mucho el correo electrónico, cuyo uso se implementó a principios de la
década de 1970. La popularidad del mismo fue una sorpresa para los
creadores de ARPANET, que habían esperado que las redes dedicadas a la
investigación se centraran en aplicaciones más sofisticadas y dedicadas a la
computación pura y dura, tales como las matemáticas o el diseño de
gráficos. Aunque el e-mail se adoptó en parte por su facilidad de uso, su
popularidad también ponía de manifiesto la admisión de que la investigación
científica dependía de la colaboración humana tanto como del acceso a las
máquinas. El correo electrónico resultó ser una oportunidad sin precedentes
para la interacción continuada entre colegas geográficamente distantes
entre sí.

Aunque no eran accesibles al público en general, las primeras redes de


investigación fueron más allá de proporcionar acceso informático a un
reducido número de científicos. También aportaron soluciones a los
formidables obstáculos técnicos y establecieron herramientas cruciales para
innovaciones futuras, incluidas técnicas estandarizadas y una comunidad de
investigadores e ingenieros con experiencia en el trabajo en red
(Quarterman 1990). Asimismo, los esfuerzos tempranos por construir redes
multinacionales y redes de redes sentaron los cimientos para la cooperación
global, sin la cual no existiría Internet tal y como lo conocemos hoy.

Expansión creciente: redes patentadas, públicas


y de base
Mediada la década de 1970, la aparición de redes de investigación coincidió
con otras tres tendencias: los sistemas de redes patentados que ofrecían
los fabricantes de ordenadores; las redes de datos públicos desarrolladas
por las empresas de telecomunicaciones o PTT y las redes de base,
desarrolladas por individuos y a bajo coste. Compañías como IBM habían
proporcionado infraestructuras limitadas de redes informáticas desde la
década de 1960, pero una vez que la investigación demostró la viabilidad de
la conmutación por paquetes, las empresas informáticas empezaron a
ofrecer sus propias tecnologías de packet switching. Los sistemas más
utilizados incluían el Systems Network Architecture de IBM (SNA),
Arquitectura de Red de Sistemas, (lanzado en 1974), el Xerox Network
Services (1975) y el Digital Equipment Corporation o DECNET (1975). A
diferencia de las redes de investigación, estos sistemas patentados tenían
múltiples aplicaciones corporativas. Permitían la diversificación geográfica
de las áreas de negocio —ya que las operaciones realizadas en las
sucursales tenían acceso a los datos necesarios para operar de forma
independiente— y una mayor centralización, porque los datos procedentes
de operaciones lejanas podían ser supervisados desde las oficinas
centrales. De este modo el uso de redes informáticas reflejaba e
intensificaba la tendencia hacia una economía globalizadora que se aceleró
a partir de 1980.

Aunque los sistemas patentados proporcionaban un servicio fundamental a


organizaciones que trabajaban con muchos ordenadores de un solo
fabricante, por lo general no eran compatibles con los de otros fabricantes.
Ello podía suponer un problema dentro de una única organización y
ciertamente un obstáculo para la creación de una red nacional o
internacional. Además, estos sistemas patentados estaban controlados por
corporaciones privadas y no se adherían a los estándares técnicos
públicamente establecidos. Esto era una importante fuente de preocupación
fuera de Estados Unidos, donde se concentraban los grandes fabricantes de
ordenadores. Para proporcionar una alternativa, en 1974-1975 los
operadores de comunicaciones nacionales de Europa, Canadá y Japón
anunciaron planes para construir redes de datos que estuvieran al alcance
de cualquier usuario independientemente de la marca de su ordenador.

Las PTT, inspiradas en el modelo del teléfono, ofrecían no sólo acceso


universal sino también conexiones internacionales. Al darse cuenta de que
ello requeriría llegar a un acuerdo en cuanto al protocolo de red a utilizar, en
1975-1976 el Comité Consultor sobre Telegrafía y Telefonía Internacional
del Sindicato Internacional de Telecomunicaciones desarrolló un protocolo
estándar de conmutación de paquetes llamado X.25, que proporcionaba una
conexión fiable, conocida como circuito virtual, entre dos puntos de una red,
permitiendo a los usuarios de las distintas terminales acceder a recursos en
línea sin necesidad de instalar un complejo software específico. Entre los
primeros en adoptar este nuevo protocolo figuran la red Datapac de Canadá
(1977), Transpac en Francia (1978), DDX de Japón (1979), el PSS de la
compañía de correos estatal británica (1980) y la multinacional Euronet
(1979). Aunque el X.25 fue más tarde reemplazado por otras tecnologías
tales como la transmisión de tramas o frame relay, proporcionó la base para
el rápido desarrollo de redes públicas en todo el mundo y solucionó el caos
que suponía el empleo de estándares incompatibles entre sí. Otro influyente
esfuerzo de estandarización ocurrido a finales de la década de 1970 fue el
modelo de Interconexión de sistemas abiertos (Open Systems
Interconnection) creado por la OSI (Organización Internacional de
Estándares). Dicho modelo definía las funciones de siete modelos de
proceso, desde conexiones básicas entre hardware a aplicaciones de alto
nivel e interfaces de usuario. Aunque estos estándares fueron muy
debatidos (Abbate 1999), la adopción de un modelo común ayudó a
ingenieros informáticos y a fabricantes a dar un paso más en la dirección del
desarrollo de sistemas de red totalmente compatibles.

Las redes públicas de datos supusieron el primer acceso online para gran
parte de la población mundial. También patrocinaron nuevos tipos de
contenido y servicios que hacían las redes útiles para los usuarios en
general, no sólo técnicos. Por ejemplo, a principios de la década de 1980
France Telecom difundió ampliamente el uso de su red Transpac al ofrecer
el innovador servicio Minitel: una terminal gratuita que se daba a los
usuarios en lugar de un directorio de teléfonos con acceso también gratuito
a una guía de teléfonos online y una variedad de servicios de pago. Minitel
permaneció en uso durante casi tres décadas y dio servicio a casi la mitad
de la población francesa. Al gestionarse los pagos mediante la compañía
telefónica, fue uno de los primeros gestores de comercio electrónico,
incluyendo reservas de avión y tren, compra al pormenor, gestiones
bancarias y de bolsa, servicios de información y tablones de anuncios
(McGrath 2004).

El desarrollo de redes públicas de datos puso de manifiesto una conciencia


emergente —tanto por parte de usuarios individuales como a nivel estatal—
de que el acceso a las comunicaciones informáticas era un bien de interés
común, un recurso necesario para el ciudadano del siglo xxi. En el
cumplimiento de esta misión las redes públicas de datos se vieron
complementadas por la tercera tendencia que se dio en este periodo: las
redes de base improvisadas. Estas redes de bajo coste utilizaban software
existente para intercambiar correos y listas de debate entre una comunidad
informal de usuarios. Las más conocidas eran USENET, establecida en
1979 y que empleaba protocolos UNIX, y BITNET, creada en 1981 con
protocolos IBM. Dichas redes desempeñaron un papel importante a la hora
de comunicar entre sí a personas sin acceso a la infraestructura formal de
redes.

Diseñando Internet
¿Cómo fue que estos sistemas tan dispares de comunicación de datos se
unieron en la red global que hoy llamamos Internet? Aunque en los años
setenta del siglo pasado ya se establecieron algunas conexiones entre
redes, las incompatibilidades de diseño limitaban sus servicios al
intercambio de correos y noticias. Las tecnologías que permiten que un
amplio abanico de servicios en red sea compartido por sistemas distintos
surgieron del deseo de conectar ARPANET con dos nuevas redes que ésta
había construido y que extendían la conmutación de paquetes a las
comunicaciones por radio y satélite. Puesto que estos medios de
comunicación no tenían las mismas características técnicas que las líneas
telefónicas —las conexiones por radio no eran fiables; los satélites
introducían el elemento retardo— las técnicas existentes tales como los
protocolos X.25 o el original de ARPANET no servían. Por tanto, a principios
de 1970 DARPA puso en marcha un Programa de Internet para desarrollar
una solución exhaustiva a estos problemas de comunicación.

Otro avance técnico que ayudó a encauzar la demanda para comunicación


entre redes fueron las LAN o redes locales de área. Ethernet, la más
influyente de todas, la inventó en 1973 Robert Metcalfe a partir de una
existente llamada Alohanet, creada a su vez por Norman Abramson, Frank
Kuo y Richard Binder (Metcalfe 1996; Abramson 1970). Ethernet y Alohanet
fueron pioneras de una técnica denominada random access o acceso
aleatorio, que permitía a múltiples usuarios compartir un canal de
comunicación sin necesidad de emplear complejos sistemas de
enrutamiento (1). La sencillez del diseño de acceso aleatorio acercó las
redes de área local a un gran número de usuarios. Ethernet se estandarizó
y comercializó a principios de los ochenta y pronto se adoptó en
universidades, negocios y otras organizaciones. Otros sistemas populares
LAN fueron las redes token ring, con topología de anillo, inventadas por
investigadores de IBM en Zúrich y comercializadas en 1985. La popularidad
de las LAN promovió la creación de muchas redes nuevas que podían, en
principio, conectarse entre sí; pero, al igual que las redes por conmutación
de paquetes, estos sistemas de acceso aleatorio no garantizaban una
conexión fiable y por tanto no funcionaban bien con los protocolos
existentes. Era necesario desarrollar un nuevo sistema.

El proyecto Internet estuvo dirigido por Vinton Cerf y Robert Kahn con la
colaboración de ingenieros informáticos de todo el mundo. Además de
investigadores estadounidenses del DARPA, Stanford, la Universidad del
Sur de California, la Universidad de Hawai, BBN y el PARC de Xerox, Cerf y
Kahn contaron con el asesoramiento de expertos en redes del University
College London, los grupos NPL y CYLADES y el International Network
Working Group o INWG (Cerf 1990). Este último se había fundado en 1972
e incluía representantes de muchas PTT nacionales que trabajaban en el
desarrollo de redes de conmutación por paquetes. Al compartir
preocupaciones e ideas, este equipo fue capaz de diseñar un sistema que
respondería a las necesidades de usuarios con infraestructuras y
necesidades diversas.

La arquitectura de Internet constaba de dos elementos principales. El


primero era un conjunto de protocolos llamado TCP/IP (siglas de
Transmision Control Protocol, Protocolo de control de transmisiones y de
Internet Protocol, Protocolo para Internet, respectivamente) (Cerf y Kahn
1974).2 El TCP era un ejemplo de protocolo anfitrión, cuya función es
establecer y mantener la conexión entre dos ordenadores (anfitriones)
dentro de una red. La idea detrás de TCP era que el protocolo anfitrión
garantizara una conexión fiable entre anfitriones incluso si éstos estaban
conectados por una red no fiable, por ejemplo de radiopaquete o el sistema
Ethernet. Al reducir los requerimientos de fiabilidad de la red, el uso del
protocolo TCP abrió Internet a muchas más redes. Con el fin de asegurar
conexiones de confianza, TCP estaba diseñado para verificar la llegada en
perfectas condiciones de los paquetes, empleando mensajes de
confirmación llamados asentimientos (aknowledgedments); para compensar
errores retransmitiendo paquetes perdidos o dañados y para controlar el
flujo de datos entre anfitriones limitando el número de paquetes en tránsito.
Por el contrario, el Internet Protocol realizaba un conjunto de tareas mucho
más sencillas que permitían a los paquetes pasar de una máquina a otra
conforme circulaban por la red. IP se convirtió en el lenguaje común de
Internet, el único protocolo requerido para cualquier red que quisiera unirse
a ella: las redes miembro tenían libertad para escoger entre múltiples
protocolos para otras capas del sistema (aunque en la práctica la mayoría
terminó por adoptar TCP como protocolo anfitrión). En tanto reflejo de la
diversidad de necesidades y preferencias de los expertos que participaron
en su diseño, la arquitectura de Internet favorecía la variedad y la
autonomía entre sus redes miembro.

El segundo elemento creativo fue el uso de ordenadores especiales


llamados puertas de acceso o gateways a modo de interfaz entre redes
diferentes (Cerf 1979). En la actualidad se conocen como router y, tal y
como su nombre indica, su función es determinar la ruta que los paquetes
deben seguir para pasar de una red a otra. Una red dirige paquetes no
locales a una puerta de acceso cercana, la cual a su vez los envía a su red
de destino. Al repartir la tarea de enrutamiento entre distintas redes y
gateways, esta arquitectura hacía más fácil el crecimiento de Internet: las
redes individuales ya no necesitaban conocer la topología de toda la red,
tan sólo saber cómo llegar a la puerta de acceso más cercana; a su vez, las
puertas de acceso no precisaban ser capaces de llegar a todas las redes
dentro de Internet, únicamente a los anfitriones individuales dentro de una
red.

Otro invento notable que contribuyó a hacer más manejable el crecimiento a


escala global de Internet fue el Sistema de nombres por dominio o Domain
Name System, creado en 1985 por Paul Mockapetris (Cerf 993; Leiner et al.
1997). Uno de los retos de la comunicación en una red de gran tamaño es
que por lo general pasa por conocer la dirección del ordenador de destino.
Mientras que los seres humanos suelen referirse a los ordenadores con
nombres (como «Darpa»), los ordenadores que forman parte de la red se
identifican unos a otros mediante direcciones numéricas. En la ARPANET
originaria los nombres y direcciones de todos los ordenadores, excepto los
anfitriones, se guardaban en un gran archivo que tenía que ser
constantemente actualizado y distribuido a todos los anfitriones. Claramente
este mecanismo no estaba a la altura de una red de miles e incluso millones
de ordenadores. El Sistema de nombres por dominio descentralizó la tarea
de localizar direcciones creando grupos de nombres conocidos como
dominios (tales como .com o .org) y ordenadores especiales llamados
servidores de nombres, encargados de mantener bases de datos con las
direcciones correspondientes a cada nombre de dominio. Para encontrar
una dirección el anfitrión únicamente debía introducir sus términos de
búsqueda en el servidor apropiado. El nuevo sistema también permitía
descentralizar la autoridad para asignar nombres de manera que, por
ejemplo, cada país pudiera controlar su propio dominio.

La World Wide Web y otras aplicaciones


La arquitectura de Internet hizo posible construir una infraestructura mundial
de datos, pero no se ocupaba directamente del asunto de los contenidos.
En la década de 1980 casi todos los contenidos de Internet eran puro texto.
Era relativamente difícil para los usuarios localizar la información deseada;
para ello debían conocer de antemano la dirección del sitio que contenía los
datos, puesto que no existían motores de búsqueda ni vínculos entre
distintos sitios. La gran innovación que vino a transformar la manera en que
los contenidos de Internet son creados, presentados y encontrados fue la
World Wide Web.

La World Wide Web fue la creación de Tim Berners-Lee, un investigador


británico del CERN, el laboratorio internacional de Física de Ginebra. Éste
imaginó el futuro de Internet como un espacio colaborativo en el que las
personas pudieran compartir información de todo tipo. En el modelo que
propuso, los usuarios podían crear páginas de contenidos en ordenadores
llamados servidores web, y las páginas web podían verse mediante un
programa llamado browser. La Web tendría capacidad para manejar
información multimedia además de texto y las páginas web podrían
conectarse entre sí mediante hipervínculos, de forma que los usuarios
pudieran navegar entre sitios basándose en contenidos relacionados entre
ideas de diferentes páginas. Esto crearía una red de conexiones basadas
en contenidos en lugar de en infraes

tructura. Berners-Lee formuló sus ideas en 1989 y en 1990 creó, junto a su


colaborador Robert Cailliau, la primera versión operativa de la Web. Los
soportes técnicos del nuevo sistema incluían html (lenguaje de marcas de
hipertexto, empleado para crear páginas web), http (protocolo de
transferencia de hipertexto, para transmitir datos de las páginas web) y el url
(localizador uniforme de recursos, una forma de indicar la dirección de una
página web determinada).

El uso de la Web se popularizó entre los físicos del CERN, quienes lo


extendieron a otros sitios de investigación. En uno de ellos, el US National
Center for Supercomputer Applications (NCSA), Marc Andreessen capitaneó
el desarrollo de un buscador mejorado llamado Mosaic en 1993. El Mosaic
funcionaba tanto en ordenadores personales como en aparatos más
grandes y el NCSA lo cargó de forma gratuita en Internet, lo que provocó un
interés creciente en la Web. En 1994 se calculaba que había al menos un
millón de copias de Mosaic en uso (Schatz y Hardin 1994).

Los hipervínculos de la Web se diseñaron para resolver un persistente


problema para los usuarios de Internet: cómo encontrar información dentro
de un sistema tan grande. Con el fin de resolverlo, en la década de 1990 se
desarrollaron varias herramientas de búsqueda. Una de las primeras fue
Archie (1990), el cual enviaba preguntas a ordenadores conectados a
Internet y reunía listados a partir de ficheros de libre acceso. Gopher (1991)
era un sistema de listado específico para la Web, mientras que Yahoo
(1994) era un directorio de páginas web organizadas por temas. El personal
de Yahoo categorizaba dichas páginas de forma manual; sin embargo, dado
el gran volumen de información que se iba acumulando en la Web,
surgieron una serie de servicios que tenían por objeto automatizar las
búsquedas. El más exitoso de estos motores de búsqueda fue Google
(1998). Estas herramientas transformaron la forma en que los usuarios
localizaban información en la Web, al permitirles buscar información sobre
un tema en particular en un gran número de fuentes, en lugar de tener que
conocer de antemano cuáles de éstas podrían contener información
relevante.

Al igual que Internet, la Web se diseñó para ser flexible, expandible y


descentralizada, de forma que invitara al público a desarrollar nuevas
maneras de usarla. La generalización del uso de la World Wide Web
coincidió con el traspaso, en 1995, de la gestión de Internet del gobierno al
sector privado. Ello hizo desaparecer numerosas barreras para el uso
comercial de Internet y trajo consigo el auge de las empresas «punto com»
en la década de 1990, cuando se invirtieron grandes sumas de capital en
proyectos de comercio electrónico. Aunque la burbuja de las «punto com»
estalló en el año 2000, el fenómeno sirvió para fomentar un conocimiento de
Internet como motor económico y no una mera innovación tecnológica a
nivel popular. La llegada del siglo xxi también trajo consigo la proliferación
de los medios de comunicación sociales, que proporcionaban nuevas
formas de relacionarse y compartir información en línea. Éstos incluían
weblogs (1997), wikis (1995), file sharing (compartir archivos, 1999),
podcasting (2004) y sitios de redes sociales, así como una gran variedad de
juegos multijugador.
Internet y la sociedad: éxitos y desafíos a futuro
Después de un siglo y medio de investigación e innovaciones, Internet
quedó firmemente establecido como un recurso accesible para muchas
personas y que ofrecía una amplia variedad de beneficios potenciales. Los
usuarios tenían mayor acceso a todo tipo de información y los gobiernos y
negocios disponían de una nueva plataforma para proporcionar información
y servicios. El comercio electrónico trajo consigo crecimiento económico,
mayor amplitud de oferta para los consumidores y oportunidades para
productores, que trabajaban en las áreas más desfavorecidas, de llegar a
nuevos mercados. Una variedad de opciones de comunicación, desde el
correo electrónico a elaboradas redes sociales, hacían más fácil a amigos y
familias separados geográficamente estar en contacto, y a extraños formar
«comunidades virtuales» en torno a intereses comunes. Los organizadores
de base adoptaron Internet como plataforma de activismo político y social y
empezaron a emplearlo para movilizar respuestas masivas a desastres
naturales y violaciones de derechos humanos. Usuarios de todas las
edades saludaron a Internet como un medio de expresión personal y las
nuevas aplicaciones ayudaron a democratizar la tecnología, posibilitando
que el ciudadano de a pie generara y difundiera noticias, información,
opinión y entretenimiento.

Sin embargo, llegado el siglo xxi son todavía muchos los desafíos a los que
se enfrenta Internet. Los usuarios eran víctimas de prácticas abusivas como
el spam (correo comercial no deseado), virus, usurpación de identidad y
pirateo. Los expertos técnicos responden con soluciones que intentan
minimizar estos peligros continuos diseñando sistemas anti virus, filtros,
transacciones seguras y otras medidas. Pero hay otras cuestiones
demasiado controvertidas para que una solución técnica satisfaga una
opinión pública dividida, especialmente cuando se trata de actividades que
traspasan las fronteras nacionales. Algunos gobiernos optaron por limitar de
forma estricta y supervisar las actividades en línea de sus ciudadanos.
Cuando las asociaciones pro derechos humanos protestaron calificando
dichas medidas de censura y represión, los gobiernos en cuestión
defendieron su derecho a proteger la seguridad y la moral públicas. Otros
grupos se quejaron de que Internet estaba demasiado abierta a contenidos
objetables o ilegales, tales como pornografía infantil o la piratería de
películas, canciones y software. Los mecanismos de filtrado y protección
han proporcionado medios para restringir el flujo de esta clase de
información, pero son en sí controvertidos. La gestión de Internet también
ha resultado ser un asunto espinoso, con muchas naciones exigiendo un
funcionamiento más internacional y con menor intervención estadounidense
a la hora de gestionar el sistema de direcciones y nombres en Internet (3).
Otra cuestión técnica pero con ramificaciones políticas fue la propuesta de
transición del antiguo Protocolo de Internet, llamado IPv4 a uno nuevo de
nombre IPv6, que proporcionaría un número mucho mayor de direcciones
disponibles (Bradner y Mankin 1996); esto fue en parte una respuesta al
hecho de que Estados Unidos poseía una porción totalmente
desproporcionada de las direcciones del IPv4. El IPv6 se propuso como
nuevo estándar de Internet en 1994, pero debido a desavenencias políticas
y técnicas, quince años más tarde sólo era usado para una proporción
minúscula del tráfico total de la red (DeNardis 2009). A pesar de todos estos
obstáculos, el proceso de desarrollo descentralizado y basado en el
consenso de Internet continúa funcionando lo suficientemente bien como
para mantenerse próspero y en crecimiento y cambio constantes.

Tal vez lo más preocupante sea la persistencia de la desigualdad en acceso


a Internet y a las oportunidades que éste conlleva de mejora económica,
participación política, transparencia gubernamental y desarrollo científico y
tecnológico. Aún existen diferencias significativas entre regiones pobres y
ricas, rurales y urbanas, mayores y jóvenes. Naciones Unidas publicó en
2007 un informe según el cual las desigualdades en cuanto a acceso digital
eran todavía enormes: «Más de la mitad de la población de las regiones
desarrolladas usaba Internet en 2005, comparado con un 9% en las
regiones en vías desarrollo y un 1% en los países menos desarrollados»
(Naciones Unidas 2007, 32). Para ayudar a paliar estas diferencias,
Naciones Unidas y el Sindicato Internacional de Comunicaciones
patrocinaron dos cumbres mundiales: en la Information Society de Ginebra
en 2003 y en Túnez, en 2005, con el fin de diseñar un plan de acción que
proporcione acceso a las tecnologías de la información y la comunicación a
todas las gentes del mundo (WSIS 2008). Ingenieros informáticos también
dedican sus esfuerzos a hacer Internet más accesible a los desfavorecidos
del mundo. Por ejemplo, en 2001 un grupo de ingenieros informáticos indios
revirtieron el paradigma de ordenadores personales costosos y de alto
consumo de energía creando el Simputer: un ordenador sencillo, de bajo
coste y consumo dotado de un interfaz en varias lenguas y que podía ser
compartido por todos los habitantes de un pueblo (Sterling 2001) (4). De
forma similar, Nicholas Negroponte puso en marcha el proyecto «Un
ordenador personal por niño» en 2005 para cubrir necesidades educativas
en países en vías de desarrollo. Para ayudar a adaptar la tecnología a las
necesidades de cada lugar, la famosa diseñadora Mary Lou Jensen inventó
una pantalla muy práctica y económica legible a la luz del sol, y el diseñador
de software Walter Brender hizo lo mismo con una interfaz de usuario
intuitiva (One Laptop Per Child 2008; Roush 2008). El Desafío de
Estocolmo, un evento que se celebra anualmente desde 1995, sirve de
escaparate a cientos de iniciativas innovadoras procedentes de todo el
mundo que utilizan tecnologías de la comunicación e información para
promover el desarrollo (Desafío de Estocolmo 2008).

Expandir las fronteras de Internet ya no es patrimonio exclusivo de los


ingenieros informáticos y científicos, sino que implica cada vez en mayor
grado la colaboración entre organizaciones civiles, gobiernos y ciudadanos.
Los valores que guían el desarrollo técnico y social de Internet han sido
complementarios: mayor acceso, apertura a la diversidad, descentralización,
toma de decisiones por consenso entre un número elevado de participantes
y la posibilidad de que los usuarios contribuyan de forma activa. Desde el
punto de vista técnico estos objetivos se han alcanzado por medio de una
arquitectura de capas, protocolos abiertos y un proceso colaborativo a la
hora de aprobar y diseñar cambios, mientras que las metas sociales han
requerido del liderazgo de gobiernos y de la inspiración de personas que
fueron capaces de ver el potencial de Internet para la comunicación, la
cooperación y la expresión individual.

Bibliografía
Abbate, J. Inventing the Internet. Cambridge: MIT Press, 1999.

Abramson, N. «The ALOHA System-Another Alternative for Computer


Communications». Proceedings, AFIPS Fall Joint Computer Conference.
Montvale, Nueva Jersey: AFIPS Press, 1970: 281-285.

Baran, P. On Distributed Communications. Santa Monica, CA: RAND


Corporation, 1964.

Berners-Lee, T. Weaving the Web. Nueva York: Harper Collins, 1999.

Bradner, S. «The Internet Standards Process-Revision 3». Network Working


Group Request for Comments 2026, octubre 1996. Disponible en Internet
en: http://www.rfc-editor.org/

—, y A. Mankin. «The Recommendation for the IP Next Generation


Protocol». Network Working Group Request for Comments 1752, enero
1995. Disponible en Internet en: http://www.rfc-editor.org/

Campbell-Kelly, M. y W. Aspray. Computer: A History of the Information


Machine. Nueva York: Basic Books, 1996.

Cerf, V. G. «DARPA Activities in Packet Network Interconnection». En K. G.


Beauchamp, ed. Interlinking of Computer Networks. Dordrecht, Holland: D.
Reidel, 1979.
—, «Oral history interview» por Judy O’Neill (Reston, VA, April 24, 1990),
OH 191. Minneapolis, Minnesota: The Charles Babbage Institute, University
of Minnesota, 1990. Disponible en

Internet en: http://www.cbi.umn.edu/oh/display.

phtml?id=118.

—. «How the Internet Came to Be». En B. Aboba, ed. The Online User’s
Encyclopedia. Addison-Wesley, 1993.

—, y R. E. Kahn. «A Protocol for Packet Network Intercommunication».


IEEE Transactions on Communications COM-22 (mayo 1974): 637-648.

Cumbre mundial sobre la sociedad de la información. http://www.itu.int/wsis/


(consultado el 5 de septiembre de 2008).

DeNardis, L. Protocol Politics: The Globalization of Internet Governance.


Cambridge: MIT Press, 2009.

Desafío de Estocolmo. www.challenge.stockholm.se/ (consultado el 5 de


septiembre de 2008).

Laws, J. y V. Hathway. «Experience From Two Forms of Inter-Network


Connection». En K. G. Beauchamp, ed. Interlinking of Computer Networks.
OTAN, 1978: 273-284.

Leiner, B. M., V. G. Cerf, D. D. Clark, R. E. Kahn, L. Kleinrock, D. C. Lynch,


J. Postel, L. G. Roberts y S. Wolff. «A Brief History of the Internet». 1997.
Disponible en Internet en: http://www.isoc.org/internet-history. Revisado en
febrero de 1997.

McGrath, D. «Minitel: The Old New Thing». Wired, 18 de enero de 2004.


Disponible en Internet en:
http://www.wired.com/science/discoveries/news/2001/04/42943.

Metcalfe, R. M. Packet Communication. San José: Peer-to-Peer


Communications, 1996.

Naciones Unidas. The Millennium Development Goals Report 2007. Nueva


York: Naciones Unidas, 2007.

One Laptop Per Child. http://www.laptop.org/ (consultado el 5 de septiembre


de 2008).
Pouzin, L. «Presentation and Major Design Aspects of the CYCLADES
Computer Network». En R. L. Grimsdale y F. F. Kuo, eds. Computer
Communication Networks. Leyden: Noordhoff, 1975.

Quarterman, J. S. The Matrix: Computer Networks and Conferencing


Systems Worldwide. Burlington, Massachusetts: Digital Press, 1990.

Roush, W. «One Laptop Per Child Foundation No Longer a Disruptive


Force, Bender Fears». Xconomy, 24 de abril de 2008. Disponible en Internet
en: http://www.xconomy.com/boston/

2008/04/24/

Schatz, B. R. y J. B. Hardin. «NCSA Mosaic and the World Wide Web:


Global Hypermedia Protocols for the Internet». Science 265 (1994):

895–901.

SITA. «SITA’s history and milestones».


http://www.sita.aero/News_Centre/Corporate_profile/History/ (actualizado el
21 de julio de 2006, consultado el 5 de septiembre de 2008).

Sterling, B. «The Year in Ideas: A to Z; Simputer». The New York Times, 9


de diciembre de 2001.

Notas
1.  La versión mejorada de Metcalfe del sistema de acceso aleatorio
recibió el nombre de Carrier Sense Access with Collision Detection
(CSMA/CD, Acceso múltiple con escucha de portadora y detección
de colisiones).
2. Originariamente había un solo protocolo, TCP, que más tarde se
escindió en dos: TCP e IP, en 1980.
3.  La «internacionalización» de la gestión de Internet fue el tema
central de la Cumbre Mundial sobre la Sociedad de la Información
patrocinada por Estados Unidos en 2005.
4. Los creadores y administradores del proyecto Simputer fueron Vijay
Chandru, Swami Manohar, Ramesh Hariharan, V. Vinay, Vinay
Deshpande, Shashank Garg y Mark Mathias
(http://www.simputer.org/simputer/people/trustees.php).

Causas de la Adicción a Internet


Tiempo de lectura: 2 min
No existe una única causa que explique la adicción a las nuevas tecnologías; este trastorno
está relacionado con una combinación de factores:

Factores neuro-anatómicos. Los estudios de investigación sugieren que las personas con
adicción a Internet tienen cambios en el cerebro parecidos a los de personas con adicción a
las drogas y con la antigua ludopatía. En concreto, se ha visto que existen alteraciones en el
área del cerebro relacionada con la atención, la planificación y la priorización (área
prefrontal). Estos cambios explican por qué las personas con adicciones anteponen el uso
de Internet o el consumo de drogas a aspectos básicos del día a día, como comer o dormir.  

Factores biológicos. Los estudios de investigación sugieren que las personas con


problemas de adicción tienen un desequilibrio en las sustancias químicas que utiliza el
cerebro para comunicarse (neurotransmisores). En concreto, se ha visto que los niveles de
los neurotransmisores dopamina y serotonina son más bajos que la población general. Esta
deficiencia podría explicar por qué las personas con problemas de adicción consumen
drogas, ya que algunas de ellas aumentan los niveles de dopamina y serotonina en el
cerebro.

Factores individuales. Las personas tímidas y con problemas para relacionarse tienen más
riesgo de tener adicción a las nuevas tecnologías, ya que el uso de Internet/redes sociales
permite comunicarse sin tener que interaccionar cara a cara.

Factores relacionados con Internet. El tipo de recompensa que ofrece Internet, inmediata
e impredecible, hace que sea más fácil ser adicto a esta actividad que a otras que ofrecen
recompensas fijas y a largo plazo. Por ejemplo, al conectarse al perfil de Facebook, una
persona puede descubrir que uno de sus amigos se ha ido de viaje o que la persona que le
gusta acaba de romper la relación que tenía. Cada inicio de sesión ofrece información
impredecible y potencialmente positiva que hace que la persona tenga ganas de volverlo a
consultar.
Factores de riesgo de la Adicción a Internet
La adicción a Internet afecta con más frecuencia a:

Hombres

Adolescentes

Personas con dificultades para relacionarse socialmente


Personas con problemas de adicción a drogas

Personas con trastornos psiquiátricos como ansiedad, depresión o el trastorno por déficit


de atención e hiperactividad
Evolución de Internet: su crecimiento y desarrollo a favor
de la empresa
Beatriz Sanz Baños

2 años ago
evolución de Internet ha transformado la forma como operan las empresas. Conoce la
historia de la red y cómo puedes mejorar tu negocio.

Sabemos que buscas formas de mejorar tu negocio, por ello, vamos a contarte
cómo las nuevas herramientas digitales originadas por la evolución
de Internet ayudan a tu empresa.
Lo que nació hace varias décadas, hoy en día se ha convertido en algo
imprescindible en la vida. La tecnología avanzó y la evolución de Internet es un
hecho. Conoce sus principales hitos y cómo pueden beneficiar a tu empresa.

El nacimiento y la evolución de Internet   


Internet aparece en el mundo en la década del 70, pero antes tuvo un
antecesor: ARPANET,una red creada con la idea de interconectar a científicos
entre universidades.

Luego en 1971,enviaría el primer correo electrónico. Y a finales de esa


década, Apple ya estaba lanzando el primer computador personal. En resumen,
esta fue la evolución de Internet en los años setenta.

Aparecen los motores de búsqueda


En la década del noventa, la evolución de Internet fue exponencial. Hacia 1995
Microsoft lanzó Internet Explorer. Luego, en el transcurso de tres años, vimos la
llegada de la banda ancha y de Google, el gran buscador.

El nuevo milenio sorprendió a muchos, pues llegaron nuevos medios para


relacionarnos. Surgieron Skype, YouTube, Gmail y todas las redes sociales que
conocemos hoy.

La evolución de Internet ha permitido crear nuevos canales de comunicación,


fundamentales para impulsar tu negocio, los más importantes: las redes sociales.

Las redes sociales y nuevas formas de comunicación


La evolución de Internet ha permitido el surgimiento de las nuevas formas de
interrelacionarnos: las redes sociales. Gracias a su masificación, actualmente tu
negocio puede sacar provecho de ello.

¿Has pensado en llevar tráfico desde Facebook a tu web?, ¿piensas en posicionar


tu marca en esta red social?, ¿tus clientes quieren saber más sobre un producto y
facilitas esa comunicación?

Muchas empresas vienen usando Facebook, Pinterest, LinkedIn o Instagram para


comunicarse rápidamente con sus clientes. Mediante estos canales, atienden
sugerencias e interactúan con sus usuarios. Además, resultan siendo ellos mismos
quienes hacen publicidad a tu negocio en las redes. Comparten tus contenidos,
opinan y participan en debates sobre lo bueno y lo malo de tus productos, etc.

De ahí la importancia de mantener una buena imagen de tu negocio en las redes


sociales. Por eso, debes estar constantemente renovando su contenido, pues una
página desactualizada puede perjudicar a tu empresa.
Por ejemplo, generar contenido en Facebook y aumentar tus seguidores es una de
las claves para llevar clientes potenciales desde la red social a tu sitio web
(Esteve, 2018).

Realidad aumentada (RA) en la evolución de internet:


Aunque actualmente no todas las empresas la usan, la RA es una tecnología
bastante útil para tu negocio.

Para vender un artículo puedes darles a tus clientes la posibilidad de probarlo.


Con la RA, les das una interactividad única, pues les brindarás una realidad
paralela con imágenes, datos, música o animaciones.

Además, te permite hacer más visible tu marca al dar información relevante a


través de aplicaciones. En un supermercado, por ejemplo, tu cliente puede
escanear el código QR de tu producto y conseguir información valiosa.   

¿Qué es IoT o Internet de las Cosas?  


La evolución de Internet ha propiciado que esta red pueda generar comodidad y
aplicaciones de uso cotidiano. Internet de las Cosas es un claro ejemplo de ello.

IoT es la capacidad de ciertos objetos de generar información o acatar órdenes a


través de sensores conectados a Internet. En Telefónica internamente se ha
denominado IoT Path al recorrido que el usuario experimenta conforme va
descubriendo las capacidades de IoT, desde el momento que se conectan los
dispositivos y comienzan a obtener datos.
Proceso IoT
Este recorrido cuenta con 4 pasos que conforman el proceso de funcionamiento
de IoT. En esta ruta primero se obtienen datos por medio de sensores presentes
en los dispositivos, luego se transmiten a través de diferentes redes de conexión,
para después ser procesados en las distintas plataformas que operan en la nube.
Finalmente, todos estos datos obtenidos en el proceso pueden pasar a ser
analizados, bien sea por software o por el usuario mismo.

Por ejemplo, desde un dispositivo móvil puedes manipular un interruptor de luz,


una lavadora o cualquier otro electrodoméstico, por medio de conexiones con
tecnologías 2G, 3G o 4G, además de la tradicional conexión a Internet. Estas
conexiones te permitirán obtener información sobre el dispositivo y su
funcionamiento, que a través de una red transmite los datos a la nube y donde se
procesa para que finalmente puedas recibir en tu dispositivo móvil toda la
información analizada o tú mismo la puedas analizar.
IoT convierte aparatos de uso común en máquinas inteligentes. Es un habilitador
de la transformación digital que ofrece infinidad de posibilidades a las empresas
y los negocios. A través de todas sus posibles aplicaciones IoT junto con Big
Data ayuda a las empresas a tomar mejores decisiones y a tener una mayor visión
de su negocio, consiguiendo así el ahorro de costes. Todo esto a través de la
conectividad y el análisis de datos obtenidos a través de los dispositivos
conectados.

IoT es un nuevo paso a un camino que precisamente en Telefónica conocemos


muy bien porqué está en nuestro ADN el ayudar al mundo a avanzar, gracias a
las tecnologías digitales y comunicaciones.
En conclusión
La evolución de Internet ha marcado la historia reciente del mundo. Lo que
antes parecía imposible es hoy realidad.

Esta evolución ha hecho que pasemos del primer correo electrónico enviado en la
década del setenta, al email marketing de hoy; o de recomendarle al vecino un
producto a compartir su foto a millones de personas de todo el mundo en
Facebook.

El futuro vendrá con más retos, pero la evolución deInternet traerá herramientas


que, si se saben usar, pueden ayudar a las empresas a generar mejores resultados.

Para mantenerte al día con el área de Internet of Things de Telefónica visita


nuestra página web o síguenos en Twitter, LinkedIn y YouTu

También podría gustarte