Está en la página 1de 12

INFORMATICA

La informática, también llamada computación, es el área de la ciencia que se encarga de estudiar


la administración de métodos, técnicas y procesos con el fin de almacenar, procesar y transmitir
información y datos en formato digital. La informática abarca desde disciplinas teóricas (como
algoritmos, teoría de la computación y teoría de la información) hasta disciplinas prácticas (incluido
el diseño y la implementación de hardware y software). La informática generalmente se considera
un área de investigación académica y distinta de la programación informática.
De esta manera, la informática se refiere al procesamiento automático de información mediante
dispositivos electrónicos y sistemas computacionales. Los sistemas informáticos deben contar con
la capacidad de cumplir tres tareas básicas: entrada (input, captación de la información),
procesamiento y salida (transmisión de los resultados).
No existe una definición consensuada sobre el término. Sin embargo, la Asociación de Docentes de
Informática y Computación de la República Argentina ha tomado una posición, definiéndola de la
siguiente manera: «La informática es la disciplina o campo de estudio que abarca el conjunto de
conocimientos, métodos y técnicas referentes al tratamiento automático de la información, junto con
sus teorías y aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son la materia prima
para que, mediante su proceso, se obtenga como resultado información. Para ello, la informática
crea y/o emplea sistemas de procesamiento de datos, que incluyen medios físicos (hardware) en
interacción con medios lógicos (software) y las personas que los programan y/o los usan
(humanware)».
Es por lo que se hace distinción entre este término y las ciencias de la computación, puesto que el
segundo engloba la parte más teórica mientras que informática se refiere a la aplicabilidad de esta
anterior en datos usando dispositivos electrónicos. De hecho, se definen cinco sub disciplinas del
campo de la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.
La informática es la forma científica de procesar la información. Este procesamiento consiste en
ordenar, seleccionar, ejecutar cálculos de forma que nos permita extraer conclusiones de la
información manipulada. Procesar información es transformar datos primarios en información
organizada, significativa y útil, que a su vez está compuesta de datos. La informática, que se ha
desarrollado rápidamente a partir de la segunda mitad del siglo xx con la aparición de tecnologías
como el circuito integrado, el Internet y el teléfono móvil, es la rama de la tecnología que estudia el
tratamiento automático de la información.
En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de un documento
denominado Informatik: Automatische Informationsverarbeitung (Informática: procesamiento
automático de información).10 El soviético Alexander Ivanovich Mikhailov fue el primero en
utilizar Informatik con el significado de «estudio, organización y diseminación de la información
científica», que sigue siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando Bauer
cofundó la empresa Informatics General, Inc.10
IMPORTANCIA DE LA INFORMATICA
La Informática es una contracción de las palabras information y automatic (información
automática). En lo que hoy día conocemos como informática confluyen muchas de las técnicas,
procesos y máquinas (ordenadores) que el hombre ha desarrollado a lo largo de la historia para
apoyar y potenciar su capacidad de memoria, de pensamiento y de comunicación. En el Diccionario
de la lengua española de la Real Academia Española se define informática como: Conjunto de
conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información
por medio de ordenadores.
Se puede entender como aquella disciplina encargada del estudio de métodos, procesos, técnicas,
desarrollos y su utilización en ordenadores (computadoras), con el fin de almacenar, procesar y
transmitir información y datos en formato digital.
Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana,
como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización
y control de procesos, industria, robótica, comunicaciones, control de transportes, investigación,
desarrollo de juegos, diseño computarizado, aplicaciones / herramientas multimedia, medicina,
biología, física, química, meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de
decisiones a nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente es difícil concebir un área que no use, de alguna forma, el apoyo de la informática.
Ésta puede cubrir un enorme abanico de funciones, que van desde las más simples cuestiones
domésticas hasta los cálculos científicos más complejos. Entre las funciones principales de la
informática se cuentan las siguientes:

 Creación de nuevas especificaciones de trabajo


 Desarrollo e implementación de sistemas informáticos
 Sistematización de procesos
 Optimización de los métodos y sistemas informáticos existentes
 Facilita la automatización de datos
La informática se encuentra en los procesos de manufactura un lugar idóneo para aportar ventajas
competitivas que las industrias de cualquier tipo requieren. Ya sean organizaciones de fabricación
discreta o de procesos, las empresas requieren el uso integral de la información en cada eslabón de
la cadena de subministro saber qué demanda el mercado, contar con lo necesario para satisfacer
esos requerimientos, definir los precios, la distribución y la manufactura misma, entre muchos otros
aspectos que intervienen en el diseño, la fabricación y la comercialización de un producto.
La informática, por su rapidez de crecimiento y expansión, ha venido transformando rápidamente
las sociedades actuales; sin embargo el público en general solo las conoce superficialmente. Lo
importante para entrar en el asombroso mundo de la computación, es perderle el miedo a esa
extraña pantalla, a ese complejo teclado y a esos misteriosos discos y así poder entender lo práctico,
lo útil y sencillo que resulta tenerlas como nuestro aliado en el día a día de nuestras vidas.
Permite disminuir los niveles de inventario, obtener mejores condiciones de compra de materiales o
diseñar prototipos de los productos a fabricar. Software para el diseño asistido por computadora,
ingeniería asistida por computadora así como los sistemas de planeación de los recursos de
manufactura han apoyado a múltiples organizaciones en su camino para consolidarse como
empresas de clase mundial
La importancia de la informática como herramienta competitiva en la industria es contundente, ya
que permite reducir costos, aumentar la productividad, incrementar la calidad y la eficiencia de los
procesos de tal modo que hoy ya es posible que los fabricantes, proveedores, distribuidores y
clientes intercambien información en línea, favoreciendo con ello la fabricación sobre demanda.

HISTORIA DE LA INFORMATICA

Al intentar resumir la historia de la informática a lo largo de las últimas décadas nos


enfrentamos a la dificultad de escribir en medio de esta fulgurante evolución. Si queremos hacerlo
con el rigor debido, habremos de reconocer que tiene sus raíces históricas en la base de la
civilización, que en parte se ha caracterizado por la capacidad de las personas de manejar y
almacenar información por medio de símbolos. Pero en ella también debemos recoger los rápidos
avances y la difusión vertiginosa de que ha sido objeto desde 1945, lo que no es fácil, si queremos
conservar simultáneamente la perspectiva histórica. Este artículo es un breve repaso de las personas,
las máquinas, las instituciones y los conceptos fundamentales que constituyen la revolución
informática tal y como la conocemos en la actualidad. Empieza con el ábaco —que además del
primero por orden alfabético es, cronológicamente, uno de los primeros instrumentos de cálculo— y
llega hasta el siglo xxi, en el que las redes de ordenadores personales se han convertido en algo
habitual y en el que la potencia informática ha terminado por integrarse en minúsculos dispositivos
portátiles.
Aunque los aparatos digitales siguen evolucionando a mayor velocidad que nunca, los ordenadores
personales se han estancado. Sus componentes físicos se han estabilizado: un teclado (procedente de
la famosa máquina de escribir de la década de 1890); una caja rectangular que contiene los circuitos
electrónicos y la unidad de almacenamiento, y encima de ella, un terminal de visualización
(heredero de la ya mítica pantalla de televisión de finales de la década de 1940). Lo mismo ha
ocurrido con los circuitos electrónicos que hay en su interior, al margen de que cada año tengan
mayor capacidad: durante los últimos treinta y cinco años han estado compuestos de circuitos
integrados de silicio revestidos de tubos de plástico negro montados en paneles también de plástico.
Los ordenadores portátiles dieron al traste con esta configuración, pero esencialmente son iguales.
Tanto ingenieros como usuarios están de acuerdo en que su diseño físico presenta numerosos
inconvenientes. Pensemos, por ejemplo, en las lesiones de los músculos de las manos que se
producen por el uso excesivo de un teclado que se diseñó hace un siglo. Ahora bien, todavía no ha
tenido éxito ninguno de los muchos intentos por lograr una potencia, una versatilidad y una
facilidad de uso equivalentes en otras plataformas, en especial en teléfonos portátiles.
Los programas que estos ordenadores ejecutan, el software, continúan evolucionando a gran
velocidad, como también lo hacen los elementos a los que están conectados, las bases de datos y las
redes mundiales de comunicaciones. Es imposible prever adónde nos llevará todo ello. En el lapso
de tiempo que transcurrirá desde la redacción de este ensayo hasta su publicación, puede que la
naturaleza de la informática haya cambiado tanto que algunas partes de este estudio habrán quedado
obsoletas. Los ingenieros de Silicon Valley hablan de que los avances en informática se desarrollan
en tiempo Internet, unos seis años más rápido de lo que lo hacen en cualquier otro lugar. Incluso
tras eliminar parte de esta hipérbole publicitaria, esta observación parece ser cierta.
Los orígenes de la informática pueden situarse al menos en cuatro momentos históricos. El primero
es el más obvio: la Antigüedad, cuando civilizaciones nacientes empezaron a ayudarse de objetos
para calcular y contar tales como las piedrecillas (en latín calculi, del que viene el término actual
calcular), los tableros de cálculo y los ábacos, todos los cuales han llegado hasta el siglo xx (Aspray
1990).
Ahora bien, ninguno de estos instrumentos se parece a lo que hoy nos referimos con el término
ordenador. Para los ciudadanos de la época actual, un ordenador es un dispositivo o conjunto de
dispositivos que nos libera de la pesadez que suponen las tareas de cálculo, así como de la actividad
paralela de almacenar y recuperar información. Por tanto, el segundo hito histórico en la historia de
la informática sería 1890, año en el que Herman Hollerith concibió la tarjeta perforada junto con un
sistema de máquinas que procesaban, evaluaban y clasificaban la información codificada en ellas
para la elaboración del censo de Estados Unidos. El sistema de Hollerith surgió en un momento
crucial de la historia: cuando la maquinaria mecánica, cuyo mayor exponente son el motor de vapor
y las turbinas hidráulicas y de vapor, había transformado la industria. La conexión entre energía y
producción hacía necesaria una mayor supervisión, no sólo física, también de la gestión de datos
que la industrialización trajo consigo. Los tabuladores de Hollerith (y la empresa que éste fundó y
que sería la base del grupo IBM) fueron una de tantas respuestas, pero hubo otras, como las
máquinas eléctricas de contabilidad, las cajas registradoras, las máquinas de sumar mecánicas, la
conmutación automática y los mecanismos de control para los ferrocarriles, las centrales telefónicas
y telegráficas junto con los sistemas de información para los mercados internacionales de valores y
materias primas.
No obstante, el lector actual podría quejarse y aducir que éste tampoco es el punto de partida
adecuado. Parece que la auténtica revolución informática guarda relación con la electrónica, si no
con los microprocesadores de silicio, que en la actualidad están en todas partes, al menos con sus
antepasados inmediatos, los transistores y los tubos de vacío. Según esto, la era de la informática
comenzó en febrero de 1946, cuando el ejército de Estados Unidos hizo público el Calculador e
integrador numérico electrónico (Electronic Numerical Integrator and Computer, ENIAC) en un
acto celebrado en la Moore School of Electrical Engineering de Filadelfia. El ENIAC, que contaba
con 18.000 tubos de vacío, se presentó como un instrumento capaz de calcular la trayectoria de un
proyectil lanzado desde un cañón antes de que el proyectil realizara el recorrido. Eligieron muy bien
el ejemplo, pues este tipo de cálculos era el motivo por el cual el ejército había invertido más de
medio millón de dólares de entonces (lo que equivaldría a varios millones de dólares en la
actualidad) en una técnica que, se reconocía, era arriesgada y estaba por demostrar.
Un estudio histórico reciente ha desvelado que previamente existía otra máquina que realizaba
operaciones de cálculo con tubos de vacío. Se trata del Colossus británico, del que se fabricó varias
unidades que se instalaron en Bletchley Park, Inglaterra, durante la Segunda Guerra Mundial, y se
usaron con éxito para descifrar los códigos alemanes. A diferencia del ENIAC, estas máquinas no
realizaban operaciones aritméticas convencionales, pero sí llevaban a cabo operaciones de lógica a
gran velocidad, y al menos algunas de ellas llevaban varios años en funcionamiento antes de la
presentación pública del invento estadounidense. Tanto el ENIAC como el Colossus estuvieron
precedidos de un dispositivo experimental que diseñó en la Universidad de Iowa un catedrático de
Física llamado John V. Atanasoff, con la colaboración de Clifford Berry. Esta máquina también
realizaba operaciones de cálculo por medio de tubos de vacío, pero, aunque sus componentes
principales se presentaron en 1942, nunca llegó a estar en funcionamiento (Burks y Burks 1988).
El lector podría observar de nuevo que lo fundamental no es simplemente que una tecnología exista,
sino que pase a ser de uso habitual en las mesas de trabajo y los hogares del ciudadano normal.
Después de todo no han sido muchas las personas, como máximo una docena, que hayan tenido la
oportunidad de utilizar el ENIAC y sacar provecho de su extraordinaria potencia. Lo mismo ocurre
con los ordenadores Colossus, que se desmontaron después de la Segunda Guerra Mundial. Según
esto, habría que fechar el verdadero origen de la revolución informática no en 1946 sino en 1977,
año en el que dos jóvenes, Steve Jobs y Steve Wozniak, originarios de lo que se conoce como
Silicon Valley, dieron a conocer al mundo un ordenador llamado Apple II. El Apple II (al igual que
su predecesor inmediato el Altair y su sucesor el IBM PC) sacó a la informática del mundo
especializado de las grandes empresas y el ejército y la llevó al resto del mundo.
Podríamos seguir indefinidamente con este debate. Según los jóvenes de hoy, la revolución
informática es aún más reciente, pues consideran que se produjo cuando, gracias a Internet, un
ordenador en un lugar determinado intercambió información con ordenadores que estaban en otros
lugares. La más famosa de estas redes la creó la Agencia de proyectos de investigación avanzada
(Advance Research Projects Agency, ARPA) del Departamento de Defensa de Estados Unidos, que
a principios de 1969 ya tenía una red en marcha (ARPANET). Sin embargo, también hubo otras
redes que conectaron ordenadores personales y miniordenadores. Cuando éstas se combinaron, en la
década de 1980, nació Internet tal y como hoy la conocemos (Abbate 1999).
Lo cierto es que hay muchos puntos donde se puede empezar esta historia. Mientras escribo este
artículo la informática está experimentando una nueva transformación. Me refiero a la fusión entre
ordenadores personales y dispositivos de comunicación portátiles. Como en otras ocasiones, esta
transformación viene acompañada de descripciones en la prensa diaria que hablan de los efectos
revolucionarios que tendrá. Es evidente que el teléfono posee una historia larga e interesante, pero
no es ése el tema que nos ocupa. Sólo hay una cosa clara: aún no hemos asistido al último episodio
de este fenómeno. Habrá muchos más cambios en el futuro, todos impredecibles, todos presentados
como el último adelanto de la revolución informática y todos dejarán relegadas al olvido las
«revoluciones» anteriores.
Este relato comienza a principios de la década de 1940. La transición de los ordenadores mecánicos
a los electrónicos fue, en efecto, importante, pues entonces se sentaron las bases para inventos
posteriores, como los ordenadores personales. En aquellos años ocurrieron más cosas importantes:
fue durante esta década cuando surgió el concepto de programación (posteriormente ampliado al de
software) como actividad independiente del diseño de los equipos informáticos, si bien de suma
importancia para que éstos pudieran emplearse para lo que habían sido diseñados. Por último, fue
en esta época cuando, como resultado de la experiencia con las primeras enormes computadoras
experimentales ya en funcionamiento, apareció un diseño funcional básico, una arquitectura, para
utilizar el término más reciente, que se ha mantenido a través de las oleadas sucesivas de avances
tecnológicos hasta la actualidad.
Por tanto, y con todos los matices que habrá que añadir para que la afirmación resulte admisible
para los historiadores, podemos considerar que el ENIAC constituyó el eje de la revolución
informática (Stern 1981). Aquella máquina, concebida y desarrollada en la Universidad de
Pensilvania durante la Segunda Guerra Mundial, inauguró lo que conocemos por era informática.
Siempre y cuando se entienda que cualquier punto de origen histórico que se elija es en cierto modo
arbitrario, y siempre y cuando se conceda el debido crédito a los adelantos que tuvieron lugar antes,
incluida la labor de Babbage y Hollerith, así como los inventos de la máquina de sumar, la caja
registradora y otros dispositivos similares, podemos empezar aquí.
¿Qué es una PC?
PC es un sigla que puede formarse con distintas expresiones y que, por lo tanto, tiene varias
acepciones. Su uso más habitual aparece con referencia a una computadora personal: personal
computer, en lengua inglesa.
Una PC, por lo tanto, es una computadora u ordenador. El término suele aludir específicamente a
una computadora de escritorio (u ordenador de sobremesa), que se conecta a la corriente eléctrica y
se mantiene siempre en el mismo lugar.
Las prestaciones que brinda una PC se fueron incrementando con el paso de los años y el avance
tecnológico. Hoy se trata de una máquina indispensable en la mayoría de las empresas y de los
lugares de trabajo, ya que cuentan con programas de oficina que permiten escribir textos y realizar
cálculos, entre otras acciones.
Con una PC también se puede acceder a Internet (y, por lo tanto, utilizar el correo electrónico,
buscar información, etc.), ver películas, escuchar música y jugar, entre muchas otras posibilidades.
Esto hace que se trate de dispositivos importantes para la educación y para el ocio. A una PC se le
pueden conectar múltiples periféricos. Algunos resultan indispensables, como el monitor, el teclado
y el mouse (ratón). Otros, en cambio, son optativos, como una impresora, un escáner o una webcam.

Los componentes de una computadora


Una computadora es un sistema informático compuesto por dos aspectos básicos: el hardware,
que significa “soporte físico”, y el software, que se refiere a lo intangible o el “programa”. Los
soportes físicos son elementos electrónicos que trabajan conectados para proporcionar datos, y esos
datos son procesados gracias a las instrucciones que proporcionan los programas.
El hardware es como una caja en la que se conectan una serie de dispositivos que procesan
información de entrada y de salida. El software es el conjunto de instrucciones para ejecutar esa
información de entrada y salida. Sin las instrucciones del software, la computadora sería una caja
sin utilidad, al igual que lo sería el cuerpo humano sin un cerebro.

Hardware de una computadora


El hardware hace referencia a los diferentes elementos tangibles de una computadora, y puede ser
interno o externo.
El hardware interno está conformado principalmente por:

 Placa madre (o motherboard). Es la placa principal de cualquier sistema informático al que


todos los demás dispositivos se conectan, tanto de manera directa (como los circuitos
eléctricos interconectados) como indirecta (a través de puertos USB u otro tipo de
conectores). Cuenta con un software básico llamado BIOS que le permite realizar y
sincronizar sus funciones básicas (como la transmisión de datos, la administración de la
energía eléctrica y el reconocimiento de la conexión física de otros componentes externos).
 Procesador. Es la Unidad Central de Procesamiento (CPU), es decir, el cerebro de la
computadora que controla todo lo que ejecuta el ordenador y es responsable de realizar los
cálculos y la comprensión de datos. Hay varios tipos de CPU que se diferencian, entre otras
cosas, por su velocidad para procesar la información. Esa velocidad se mide en una unidad
de frecuencia llamada Hertz (o Hercio en español) y, cuanto más rápida es la velocidad
alcanzada por el procesador, más rápido será el rendimiento de la computadora. En la
actualidad, las dos marcas principales de CPU son AMD e Intel.
 Memoria interna RAM. Es la memoria que almacena información, de manera temporal y
rápida, para que la computadora la utilice en el momento. Su capacidad de almacenamiento
se mide en unidades llamadas gigabytes (GB). A mayor cantidad de memoria RAM, más
rápido puede funcionar la computadora, por ejemplo, para abrir y usar varios programas a la
vez. El contenido de la memoria RAM se elimina tan pronto se apaga la computadora
porque no almacena datos (archivos, videos, programas, etc.), sino que conserva
información sobre las acciones que se están realizando con esos datos. No almacena el
archivo o el programa en sí, sino la información para ejecutarlo.
 Memoria interna ROM. Es la memoria que almacena información de manera permanente y
que se denomina de “solo lectura”, es decir, el usuario no puede alterar el contenido una vez
que se almacenó esa información, solo puede instalarlo o desinstalarlo. La memoria ROM
almacena todo lo relacionado con instrucciones o lo que también se denomina BIOS
(sistema básico o programa de arranque) y que comprende las instrucciones de cómo se
inicia la máquina o cómo funcionan los programas, entre otros.
 Placa de video. También conocida como “tarjeta gráfica” es un dispositivo de hardware
interno que se conecta a la placa madre y permite que la computadora muestre imágenes en
el monitor. Requiere de la instalación de un software para que le indique a la computadora
cómo usar esa placa de video. El usuario puede modificar la configuración de la imagen
proyectada en el monitor, por ejemplo, la calidad (mayor o menor definición), el tamaño,
entre otros.
 Placa de sonido. Es un dispositivo de hardware interno que se conecta a la placa madre y se
clasifica según los canales que utiliza, por ejemplo, estéreo, cuadrafónico (sonido
envolvente), MIDI (conector de uso profesional), entre otros. La función principal de la
placa es permitir a la computadora reproducir sonidos (música, voz o cualquier señal de
audio) a través de altavoces o auriculares. También recibe sonidos del usuario a través de la
conexión de un micrófono.
 Dispositivo de almacenamiento secundario. Es la memoria que almacena datos de manera
permanente (o hasta que el usuario los elimine), como documentos, planillas, imágenes,
videos, audios, copias de seguridad de los archivos, entre otros. Son datos almacenados que
la computadora no necesita de manera inmediata o rápida para su funcionamiento, sino que
es el usuario el que los utiliza de manera directa. Existen dos tipos de dispositivos de
almacenamiento secundario: interno (la unidad de disco duro) y externo (disco duro
externo, tarjeta de memoria, pendrive, CD ROM, etc.).
El hardware externo de una computadora está conformado principalmente por:
 Dispositivos de entrada. Son piezas que reciben datos sin procesar y que la computadora
puede procesar a través del correspondiente software. Se dividen en dos categorías:
dispositivos de entrada manual, que deben ser operados por el usuario (teclado, mouse,
pantalla táctil, micrófono, etc.) y dispositivos de entrada automática, que accionan el
ingreso de información por su cuenta, de manera independiente del usuario (lector de banda
magnética, reconocimiento de caracteres de tinta magnética, lector de PIN y chip, lector de
código de barras, etc.).
 Dispositivos de salida. Son piezas que envían hacia afuera los datos procesados por la
computadora. Hay dos tipos: de salida temporal (como el monitor, que actualiza
constantemente la imagen de salida en la pantalla) y de salida permanente (como la
impresora, que reproduce información sobre un papel que perdura como una copia
impresa).
 Dispositivos periféricos. Son la mayoría de los dispositivos de entrada y de salida que se
consideran componentes de hardware externos “no esenciales” porque la computadora
puede funcionar sin ellos. Por ejemplo, parlantes, cámara web, teclado, micrófono,
impresora, escáner, mouse, joystick, entre otros.

Software de una computadora


El software es la parte “no física” de la computadora, que existe en forma de códigos que contienen
instrucciones para que el hardware sepa qué hacer. Sin estos programas, la mayoría de los
dispositivos de hardware no serían útiles. Hay dos tipos:

Software de sistema. Son los programas preinstalados en la computadora, que permiten dar soporte
a otros programas instalados por el usuario. Algunos ejemplos son los sistemas operativos
(Windows, Mac OS, Linux, BIOS, etc.), los limpiadores de disco, los desfragmentadores de disco,
los antivirus, los controladores gráficos, softwares de cifrado, entre otros.
Software de aplicación. Son los programas que no tienen que ver con el funcionamiento del equipo,
sino que son instalados por el usuario para realizar funciones determinadas. Por ejemplo, hojas de
cálculo (Excel), procesadores de palabras (Word), programas de base de datos (Access), programas
de diseño gráfico (Illustrator), navegadores de Internet (Chrome), entre otros.

¿QUÉ ES EL INTERNET, SU USO E IMPORTANCIA?


Internet es una red de redes que permite la interconexión descentralizada de computadoras a través
de un conjunto de protocolos denominado TCP/IP. Tuvo sus orígenes en 1969, cuando una agencia
del Departamento de Defensa de los Estados Unidos comenzó a buscar alternativas ante una
eventual guerra atómica que pudiera incomunicar a las personas.
A diferencia de lo que suele pensarse, Internet y la World Wide Web no son sinónimos. La WWW
es un sistema de información desarrollado en 1989 por Tim Berners Lee y Robert Cailliau. Este
servicio permite el acceso a información que se encuentra enlazada mediante el protocolo HTTP
(HyperText Transfer Protocol).
Otros servicios y protocolos disponibles en la red de redes son el acceso remoto a computadoras
conocido como Telnet, el sistema de transferencia de archivos FTP, el correo electrónico (POP y
SMTP), el intercambio de archivos P2P y las conversaciones online o chats. El desarrollo de
Internet ha superado ampliamente cualquier previsión y constituyó una verdadera revolución en la
sociedad moderna. El sistema se transformó en un pilar de las comunicaciones, el entretenimiento y
el comercio en todos los rincones del planeta.
Las estadísticas indican que, en 2006, los usuarios de Internet (conocidos como internautas)
superaron los 1100 millones de personas. Se esperaba que en la siguiente década esa cifra se
duplicase, impulsada por la masificación de los accesos de alta velocidad (banda ancha), pero los
resultados superaron las expectativas: para 2020, la cantidad de internautas supera los 4540
millones, casi el 60 por ciento de la población mundial y más del doble de lo que se había
anticipado.
Entre las razones por las cuales Internet ha alcanzado tal grado de masificación se encuentra la
creación de los smartphones, que al día de hoy simplemente llamamos teléfonos móviles porque ya
son la norma, pero que en su momento supusieron una revolución a nivel tecnológico y social.
Mientras que los primeros teléfonos móviles simplemente nos permitían hacer llamadas y enviar
mensajes de texto de una extensión reducida, poco a poco las empresas fueron agregándoles
funcionalidades que los expandieron hasta convertirse en pequeños ordenadores, con pantallas
espectaculares y una calidad de sonido imposible para su tamaño.
En un principio, Internet resultaba abrumador para las personas ajenas al mundo de la informática, y
por eso despertó el interés casi exclusivo de los amantes de la tecnología. Como todo cambio, no se
dio de un día para el otro, pero fue gracias a los primeros en adoptar esta herramienta para
comunicarse de forma remota que Internet se fue promocionando poco a poco, mostrando cada vez
más características atractivas para los escépticos.
El chat fue sin lugar a duda uno de sus pilares fundamentales, al punto de que muchos de los
actuales usuarios se acercaron a Internet exclusivamente para aprovecharlo. Si bien al día de hoy las
salas de chat no son tan populares, durante los años 90 gozaron de un gran éxito. Cabe señalar que
las posibilidades que ofrecen no son del todo comparables con las de los sistemas de mensajería
instantánea actuales ya que permiten conocer gente de manera espontánea a la vez que ordenada por
ubicación, intereses, edades y más categorías.
En pocas palabras, podemos decir que Internet comenzó siendo una curiosidad para quienes
deseaban ampliar las posibilidades de sus ordenadores pero en cuestión de unos años se convirtió en
la herramienta más usada en la vida cotidiana para realizar o complementar casi todas nuestras
actividades, desde las comunicaciones hasta el trabajo, pasando por el entretenimiento.
Internet aporta una serie de posibilidades para el desarrollo personal y para la realización de muchas
de nuestras actividades diarias (ocio, trabajo, gestiones administrativas, etc). Estas ventajas se
resumen en que la red facilita el acceso a la información, la comunicación y el entretenimiento.
Internet ya no es un fenómeno nuevo, pero sin duda ha revolucionado el mundo tal y como se
conocía hace 30 años. Es un fenómeno global, vinculado estrechamente con la comunicación, pero
que influye en gran medida sobre casi todos los ámbitos de la sociedad. Poco podían imaginar sus
creadores que en apenas 20 años sería un invento tan imprescindible como el teléfono o la
televisión.
En principio el principal propósito de Internet es la comunicación: permitir al ser humano una
comunicación sin barreras, que no tenga en cuenta el espacio, ni fronteras, distancias, sociedades…
Internet en sí mismo no comunica, pero es un medio, lo que se llama un canal de comunicación (al
igual que el aire es un canal para la lengua hablada). La historia de la humanidad está llena de
avances y de descubrimientos de nuevos canales de comunicación que han cambiado su devenir. La
propia escritura fue sin duda uno de los mayores, pues ya no era necesario que emisor y receptor
estuviesen en el mismo sitio para comunicarse, eliminando el tiempo como frontera para transmitir
conocimiento. Tras la escritura hubo otros muchos inventos que buscaron eliminar la distancia para
transmitir mensajes, algo que se acabó logrando con avances como el telégrafo o el teléfono, mucho
más recientes. Una vez que la distancia ya no fue un problema, la humanidad comenzó a estar
comunicada de forma global. Aparatos como la radio o la televisión, que ofrecían comunicación
unidireccional, se hicieron imprescindibles para la sociedad.
La invención de los ordenadores y su difusión, dio lugar al siguiente y natural paso, la creación de
un medio de comunicación que permitiese el trasvase de datos informáticos aprovechando todos los
avances existentes. De esta simple necesidad surgió Internet, primero de la necesidad de dos
jóvenes investigadores que querían comunicar sus ordenadores entre ellos, pero luego de la propia
necesidad de la humanidad de compartir y comunicarse.
En Internet abunda la comunicación en todos los ámbitos, desde publicidad, entrevistas, artículos,
vídeos, chats, emails, pero también se intercambian datos, música, documentos, libros, imágenes…
casi cualquier tipo de comunicación visual y auditiva que podamos imaginar. El hombre encontró
un modo por fin de compartir todo lo que desea con el resto del mundo, y no es baldío decir que eso
no tiene precio, aunque para las industrias y la economía formadas al amparo de Internet, el
beneficio económico sea muy tangible.
Empresas de software, hardware, cadenas de radio, televisión, prensa, editoriales, tiendas online,
servicios varios, empresas tecnológicas… han proliferado intentando aprovechar las ventajas que
ofrece la difusión de sus productos a más de mil millones de personas (y creciendo). Hace diez años
era muy raro encontrar tiendas físicas que ofreciesen sus productos en internet. Hoy, si no estás en
la red, casi se puede decir que no existes. Las cosas cambian, y la fiebre de la red es muy
contagiosa.
Es difícil conocer con exactitud si las nuevas tecnologías de la comunicación, como los móviles,
ordenadores o navegadores, serían lo que son ahora gracias a la llegada de Internet o bien si Internet
se ha beneficiado de esos avances para seguir creciendo. Posiblemente sea una relación simbiótica,
en la cual la red aprovecha esos avances y estos se aprovechan de Internet. Las nuevas tecnologías
nacen en internet, se distribuyen por internet y mueren en internet. Un avance científico o novedad
que hace décadas tardaba años en poder implantarse a nivel mundial, puede ser ahora copiado y
distribuido en cuestión de horas.
Y no sólo en el ámbito científico o empresarial Internet ha revolucionado lo existente. En la
comunicación personal se han abierto nuevas posibilidades con el uso de la mensajería instantánea,
las redes sociales, los chats… Cualquiera que tenga algo que decir, puede hacerlo, y a quien quiera.
Otro ámbito en el que ha causado gran impacto es el educacional: ya no sólo por haber relegado a
los vendedores de enciclopedias a un mero recuerdo, sino porque casi todo el conocimiento de la
humanidad se haya en la red. Y de nuevo, cualquiera puede buscarlo y obtenerlo.
La Red de Redes ya es el presente, y seguro que el futuro durante algún tiempo, hasta la llegada del
siguiente hito de la historia de la humanidad.

TICs
Te explicamos qué son las Tecnologías de Información y Comunicaciones y para qué sirven.
Ventajas, desventajas y ejemplos.

Cuando hablamos de las TIC o Tecnologías de Información y Comunicaciones, nos referimos a un


grupo diverso de prácticas, conocimientos y herramientas, vinculados con el consumo y la
transmisión de la información y desarrollados a partir del cambio tecnológico vertiginoso que ha
experimentado la humanidad en las últimas décadas, sobre todo a raíz de la aparición de Internet.

No existe un concepto claro de las TICs, sin embargo, ya que este término se emplea de modo
semejante al de la “Sociedad de la Información”, es decir, se usan para indicar el cambio de
paradigma en la manera en que consumimos la información hoy en día, respecto a épocas pasadas.
Esto tiene que ver con áreas tan distintas como las relaciones amorosas, las finanzas corporativas, la
industria del entretenimiento e incluso el trabajo cotidiano.
Con ello se quiere decir que las nuevas Tecnologías de la Información y las Comunicaciones han
revolucionado nuestra manera de vivir, permitiendo la invención de nuevos bienes y servicios, de
nuevos métodos de comercialización y cobro, así como medios alternativos para el flujo de la
información, que no siempre son legales o pasan por áreas controladas de la sociedad.
A diferencia de épocas anteriores, las TICs nos permiten hoy en día la comunicación instantánea y a
través de enormes distancias geográficas, superando fronteras y fomentando el proceso de
interconexión mundial conocido como la globalización
Ventajas de las TICs
Las virtudes de las TICs no son difíciles de enumerar: su mayor velocidad, capacidad y distribución
de la información permiten que usuarios de distintas partes del planeta pueden conectarse usando
computadores y otros aparatos especializados, para comunicarse de múltiples maneras y emprender
diversas transacciones: comprar y vender objetos e información, compartir datos personales,
conversar en tiempo real, incluso jugar videojuegos en línea aún sin hablar e mismo idioma.
Esto, no cabe duda, ha revolucionado la vida cotidiana. La información que antes estaba en los
libros, en servicios especializados y bases de datos, hoy está dispersa en los múltiples pasillos de la
Red y puede circular mucho más libre y democráticamente, aunque a ratos de manera mucho menos
organizada. La idea del servicio postal y de la mensajería dieron un vuelco, también: bastan un
teléfono inteligente con cámara y conexión a Internet para compartir información con alguien del
otro lado del mundo.
Asimismo, las TICs inauguraron áreas de trabajo especializado y nuevas formas de consumo de
bienes y servicios, como son los Community Manager empresariales o como hacen los Freelancers
a distancia. Incluso han dejado su huella en las relaciones interpersonales y amorosas, que ya no
perciben la distancia como algo insalvable.

Desventajas de las TICs


No todo es positivo con las TICs. Entre otras cosas, han fomentado una dispersión de la
información, desprovista de sistemas de catalogación y legitimación del conocimiento, lo cual se
traduce en mayor grado de desorden del contenido (como ocurre con Internet) e incluso acceso
prematuro al mismo, fomentando la ignorancia y la irresponsabilidad en el gran público, incapaz de
discernir si las fuentes son confiables o no.
Asimismo, estas nuevas tecnologías han impulsado una enorme exposición de la vida íntima y
personal, además de la obligación de una conexión permanente a las distintas comunidades virtuales
que se han establecido, dando pie a conductas adictivas o poco saludables, y a nuevas formas de
riesgo. El autismo cultural, el aislamiento social y la hiperestimulación infantil, así como los
enormes riesgos a la privacidad, son algunos de los inconvenientes que más preocupan alrededor de
las TICs actualmente. Algunos ejemplos de TICs pueden ser los siguientes:
Comercio electrónico. Cada vez más servicios y productos se ofrecen a través de Internet o de
aplicaciones en dispositivos móviles, permitiendo el desarrollo de toda una rama comercial
inmediata e internacional.
Comunidades virtuales. Redes de usuarios que comparten temas afines, pasiones o simplemente
desean expandir su círculo social, encuentran espacios digitales propicios para la interacción a lo
largo de distancias.
Mensajería instantánea. Servicios para computadores o teléfonos celulares inteligentes que permiten
la comunicación inmediata, eficiente y directa, son cada vez más empleados hoy en día.
Correo electrónico. La versión digital del correo postal no pasa de moda, ya que permite no sólo el
envío de información escrita sino de fotografías y otros archivos adjuntos, cuya recepción es sin
embargo instantánea, sin importar lo lejos que estén el remitente y el destinatario.

También podría gustarte