Documentos de Académico
Documentos de Profesional
Documentos de Cultura
3
información están vinculadas, porque caracterizan la realidad efectiva desde el punto de vista
de la correlación que existe entre el desorden y el ordenamiento. Si la entropía es la medida del
desorden, la cantidad de información es la medida del ordenamiento”.
El hecho de que el sistema de información social pueda reflejar tan fielmente la organización
social y contribuya a consolidar ese mismo orden social, es la causa que lleva a las distintas
clases a tratar de controlar los medios de comunicación más desarrollados. Con ellos de su
parte, refuerzan en el plano ideológico sus intentos materiales de organizar la producción
económica, la vida cultural, la política, la sociedad entera, de acuerdo a sus intereses;
persiguen un objetivo directamente político a través de los medios de comunicación. La
experiencia ya había puesto en evidencia lo que confirma teóricamente la cibernética: que la
información periodística, amén de enterarnos de la realidad, es también un instrumento de
organización y de dirección de la sociedad.
4
La Tecnología es pues la técnica que emplea el conocimiento científico para controlar,
transformar o crear determinados objetos o procesos. Se refiere a conocimiento científico
aplicado con la intención de mejorar rutinas concretas.
Por tanto, es prudente destacar que el término "Tecnología" por sí mismo es genérico, responde
a todo tipo de actividad, es un vocablo que adquiere sentido real cuando se acompaña de un
término complementario que se refiera con precisión, a la actividad a la cual se aplica el
conocimiento científico. En este caso, la tecnología que se aplica para facilitar y mejorar el
proceso de información y comunicación humana es entonces la que se conoce como
Tecnología de Información y Comunicación (TIC).
Tomando como base el concepto que se asume sobre Tecnologías de Información y
Comunicación, éstas pueden entonces referirse incluso a las formas de comunicación más
rudimentarias del hombre, porque al fin y al cabo la tecnología - por tratarse de conocimiento
específicamente aplicado - no es una concreción estática, sino que por el contrario es cíclica y
dinámica: Lo que resulte hoy novedoso y emergente fácilmente puede ser obsoleto mañana.
Podría entonces tal definición aplicarse a la escritura, a la imprenta, al teléfono, a la
radiocomunicación; en fin, a todo proceso o instrumento que en la historia de la humanidad
represente un avance en cuanto a las técnicas de comunicación del hombre.
No obstante, la rapidez y constancia de los cambios en el mundo de hoy, es lo que da forma a
la definición de Tecnologías de Información, porque es bien cierto que el término, aunque
puede ser aplicable a otros modos remotos de comunicación, es prácticamente moderno y es
reconocido a partir de la revolución que se observa en el mundo actual, caracterizada por la
informática, la computación y el reboso de Internet. Es decir, de Tecnologías de Información y
Comunicación se habla a partir del instante en que la sociedad mundial comenzó a
experimentar cada vez más rápidos y continuos procesos de cambio; cambios sustentados en
un constante progreso científico- tecnológico.
La concepción moderna de las tecnologías de información y comunicación comprende
entonces aplicaciones, sistemas, herramientas, técnicas y metodologías asociadas a la
digitalización de señales analógicas, sonidos, texto e imágenes, manejables en tiempo real. Se
relaciona con equipos de computación, software, telecomunicaciones, redes y bases de datos.
Porque la evolución del proceso comunicativo humano está directamente relacionada con la
evolución tecnológica de la humanidad.
Las Tecnologías de Información y Comunicación se refieren a todos los instrumentos, procesos
y soportes que están destinados a optimizar la comunicación humana.
5
Con las Tecnologías de Información la sociedad mundial experimenta una revolución comercial
y económica, porque traen consigo una infraestructura global, accesible y universal: Internet.
Las tecnologías de información representan un aporte significativo en los procesos de
producción, gestión y gerencia dentro de las organizaciones. Los medios de comunicación
social, como factores de producción, no escapan a tales beneficios; pero además, sociólogos y
comunicólogos aseguran que esta denominada revolución de la información logra cambios
inclusive en las formas de comunicación social, tal como el hombre las conoce.
A partir de las afirmaciones precedentes, se puede entonces incluir a los medios de
comunicación (Radio, Prensa, Televisión) dentro de la concepción que se ha logrado construir
en relación con las Tecnologías de Información y Comunicación.
En la Radio y la Televisión han sido valiosos los avances en programas computarizados para la
edición de imágenes y sonido, así como la inclusión de sistemas cada día más especializados
para lograr transmisiones a distancia en directo. Así, desde siempre la evolución de la
tecnología ha sido también importante para mejorar la labor de los medios de comunicación. En
el Cine por su parte, la existencia de dibujos animados elaborados totalmente a través de
programas de computación y los efectos especiales son más accesibles. Además, todos estos
avances, aunque resulten costosos al inicio, han logrado en cada medio de comunicación el
abaratamiento de los procesos tanto de producción como de transmisión de sus mensajes.
En la actualidad, la computadora es imprescindible a la hora de realizar un diario. Desde las
redacciones electrónicas, pasando por las modernas fotocomponedoras, la realización de
planchas para la impresión, la selección de colores y el control de las rotativas (control de papel,
la tinta y la calidad de impresión), todo, absolutamente todo el proceso es dirigido por las
computadoras. Esto si hacemos referencia exclusivamente a la producción material del diario,
pero no hay que olvidar que también las labores de administración, servicios de publicidad y la
distribución (listas de quioscos y suscriptores) están bajo el control de sistemas informatizados.
Las nuevas tecnologías de información y comunicación hacen mayores aportes a la prensa,
porque además de todos los avances señalados, permiten también la obtención de información
de manera más rápida, directa y precisa sobre los acontecimientos. Igualmente, las
capacidades de almacenamiento que existen hoy aumentan las posibilidades de archivo y
manejo de información a los profesionales de la prensa. Además existen nuevos canales para
la obtención de información desde la fuente (el teléfono móvil y el correo electrónico han
permitido ganar tiempo en numerosas oportunidades)
La era de la computación, la informática e Internet, abre a los medios de comunicación un sinfín
de nuevas oportunidades de trabajo, nuevas áreas de acción y nuevos mercados.
Las emisoras de radio que se precien de serlo tienen hoy informatizadas sus redacciones,
utilizan Internet como fuente directa para la obtención de información (para su difusión y la
producción programática) poseen programas y equipos para las transmisiones telefónicas (por
conexión fija y móvil) y combinan equipos de grabación que van desde la casetera convencional
hasta los modernos mini-discos, el disco compacto y el DVD (Digital Versatile Disk). Así también
manejan en sus estudios, modernos sistemas de grabación, edición y transmisión en equipos
computarizados, apoyados en nuevas tecnologías y software.
En la televisión, donde las tecnologías han mejorado los procesos de producción, edición y
transmisión de mensajes en video. La evolución tecnológica es lo que ha permitido, por
ejemplo, las transmisiones en vivo y directo de canales de televisión desde cualquier lugar
6
exterior que deseen (fuera de sus estudios de transmisión) hacia los receptores en los hogares
que reciben su señal. Igualmente han variado los formatos para la grabación, tanto de cámaras
como de cintas de video existen hoy una cantidad considerable de versiones.
Por otro lado, el teléfono inteligente (Smartphone) es el emblema de la multifuncionalidad
digital. Integra distintos formatos: música, videos, fotos, Mp3 y textos, permite además entrar en
el universo de Internet a través de mensajes de texto y de la navegación por las páginas web; y,
ser personalizado a través de la preprogramación hecha por los usuarios.
El teléfono digital es el símbolo más acabado de la tecnología masificada, sin fronteras sociales,
constituyéndose en protagonista de los cambios actuales en forma vertiginosa.
Dan inicio a la era del ciudadano digital.
7
1.3.1. Web 2.0 y Web 3.0
A partir del ingreso al mundo de la Web 2.0, la red se nutrió de inventos que modificaron los
hábitos adquiridos por el primer ser digital. El usuario se convirtió en protagonista, hacedor y
artífice de la telaraña más grande e importante del mundo.
Si bien el término apareció primero en el libro Web 2.0:2003-2008 AC (After Crash) de Dermot
McCormack, hay cierta unanimidad respecto del significado de la expresión; según muchos el
origen del término surge de un artículo publicado el 30 de septiembre de 2005 por Tim O´Reilly,
CEO de la consultora O´Reilly Media, titulado “What Is Web 2.0. Design Patterns and Business
Models for the Next Generation of Software”. En este artículo fundacional, el autor brinda ciertas
claves para empezar a comprender los alcances del término. Cuenta O´Reilly (el documento de
16 páginas se consigue en la Web), que la palabra surgió en 2003 en un brainstorming junto a
Craig Cline en el MediaLive Internacional. Un año después, se inauguraba la primera edición de
la “Web 2.0 Conference” en San Francisco, Estados Unidos.
Según el documento de O´Reilly, los principios básicos de la Web 2.0 se inician como una
forma de evolución natural de la Web inicial enfocada al usuario, pasando por una plataforma
técnica para múltiples desarrollos de aplicaciones hasta arribar a una era en la que el usuario
toma protagonismo real como productor, consumidor y difusor de contenidos y servicios.
Es un nuevo escenario en el que los usuarios ganan protagonismo al aportar contenidos en
lugar de ser consumidores
Hay un ambiente ideal para crear comunidades y espacios de colaboración
El avance de la tecnología permite crear nuevos contenidos en el que el diálogo, la
conversación y la colaboración son temas claves para que un medio de comunicación llegue
a nueva audiencias.
Algunas de las creaciones más importantes dentro de la Web 2.0 fueron:
La mega enciclopedia on line Wikipedia, creada en 2001, la cual engendró un concepto
tecnológico inédito: el Wiki Wiki Web, que consiste en una colección de páginas web enlazadas
de hipertexto, cada una de las cuales puede ser visitada y editada por cualquier usuario que
acceda a las mismas.
En abril de 2004, Gmail abrió las puertas de la webmail, y ofrecía la capacidad de almacenar 1
Gb de información.
En 2005, aparece Flickr, el mega álbum digital de Yahoo que permite ensayar, compartir y
transmitir fotografías en línea.
YouTube: es el resultado del “ensayo” de tres jóvenes norteamericanos de subir su video a la
web que constituyó una verdadera revolución al lograr la producción de videos y su
socialización, y la capacidad de formar parte de la generación de contenidos. Hoy You Tube
pertenece a Google, factura alrededor de cinco millones de dólares mensuales y emplea a 65
personas.
También hay que mencionar como pertenecientes o promotores de estos cambios a: los blogs,
fotoblogs, videoblogs, el RSS, y las redes sociales.
Además el periodismo ciudadano surge bajo este nuevo escenario, al ser un espacio donde la
participación de los lectores juega un rol clave para generar contenidos de valor con nuevos
temas.
Web 3.0 o web semántica es una expresión que se utiliza para describir la evolución del uso y
la interacción de las personas en internet a través de diferentes formas entre las que se
incluyen la transformación de la red en una base de datos, un movimiento social con el objetivo
de crear contenidos accesibles por múltiples aplicaciones sin navegado. Es una evolución de la
Web 2.0 representa la unión entre la inteligencia artificial y la Web. Su creador Tim Berners Lee
la describe como una red de aplicaciones e informaciones conectadas entre sí.
8
A modo de ejemplo se puede mencionar a Google que muestra los resultados y frases
relacionadas con nuestras búsquedas, o Facebook que ofrece publicidades y anuncios referidos
a nuestros gustos y modos de consumir la información.
¿Y cómo será la web 4.0? Aún no se ha establecido un estándar para el Internet 4.0, ni mucho
menos una denominación, pero sí existen pistas acerca de por dónde evolucionará.
Es posible que podamos llamar a la Internet 4.0 la “web activa”. En la actual web 3.0, el uso de
buscadores sigue siendo imprescindible, y estos nos sirven información –en su mayor contenido
páginas web- que utilizamos en función de nuestras necesidades.
Así, si por ejemplo buscamos alojamiento en un hotel para pasar una noche en Roma,
escribimos en un buscador algo así como “habitación hotel Roma”, y el buscador nos sirve un
listado de páginas web, generalmente buscadores de habitaciones, que utilizaremos de forma
“manual”.
La web 4.0 supondrá un cambio radical. Cuando esté completamente desarrollada, suprimirá
varios de los pasos que nos exige la utilización de la web 3.0, haciendo más directo e “invisible”
su uso.
En primer lugar, es posible que los tradicionales buscadores no desaparezcan pero sí se
integren en asistentes virtuales.
Estos asistentes virtuales serán capaces de entender el lenguaje natural, tanto hablado como
escrito, y podremos lanzarles solicitudes como lo haríamos con un ayudante humano. Así, le
diremos algo como “resérvame una habitación en Roma para el día 12 de julio”, y directamente
obtendremos una reserva en un hotel elegido en base a nuestros gustos –que el asistente
virtual conocerá previamente- y sólo tendremos que confirmar.
Pero esta “simplificación” o “activación” del uso que hagamos de la red no será el único cambio
que nos proporcione la web 4.0. Además, será la propia red la que nos proponga acciones –
esto ya lo vemos hoy en día en su estado primitivo a través de las sugerencias que llegan a
nuestros teléfonos móviles-, de una forma contextual.
Así, si por ejemplo una aplicación o tu asistente virtual conoce tus costumbres y tus gustos,
reservará, por su cuenta y en tu nombre, entradas de cine para ver el nuevo estreno de tu
director favorito, necesitando únicamente que le confirmes tu aceptación de la reserva.
¿Tardaremos mucho tiempo en vernos inmersos en la web 4.0? Probablemente menos del que
esperas. Las tecnologías que la harán posible ya se encuentran en desarrollo y empiezan a ver
la luz. Asistentes virtuales, como Siri, Cortana o Google Now, obtienen, día a día, un mayor
entendimiento del lenguaje natural gracias a sistemas de aprendizaje automático.
9
dependiendo de la web donde se incluyan. Es decir, es una página que puede tener varios
apartados y secciones, en la que se muestra, de forma cronológica, las anotaciones y
comentarios del creador.
Características:
Lista de enlaces a otros weblogs o páginas web (denominada habitualmente blogroll), un
archivo de anotaciones anteriores, enlaces permanentes (permalinks) para que cualquiera
pueda citar (enlazando) una anotación, o una función que permite añadir comentarios.
Los weblogs son principalmente personales y aunque en algunos casos pueden estar incluidos
dentro de un periódico digital o ser un blog corporativo, suelen estar escritos por un autor o
autores determinados que mantienen habitualmente su propia identidad.
Se han desarrollado herramientas de software específicas para permitir crear y el universo de
páginas potenciales para enlazar se ha expandido espectacularmente
Video para crear un weblog: http://www.youtube.com/watch?v=tgg7oDPRCs8
Estructura de un Weblog
Entradas o
post con
comentarios
10
1.3.3. Redes Sociales
Marcelo Zamora extracta de la ponencia en las Jornadas sobre Gestión en Organizaciones del
Tercer Sector en la Universidad Di Tella de Buenos Aires, Argentina, en noviembre de 2001, la
siguiente definición que parece bastante clara:
“Las Redes son formas de interacción social, definida como un intercambio dinámico entre
personas, grupos e instituciones en contextos de complejidad. Un sistema abierto y en
construcción permanente que involucra a conjuntos que se identifican en las mismas
necesidades y problemáticas y que se organizan para potenciar sus recursos.
Una sociedad fragmentada en minorías aisladas, discriminadas, que ha desvitalizado sus redes
vinculares, con ciudadanos carentes de protagonismo en procesos transformadores, se
condena a una democracia restringida. La intervención en red es un intento reflexivo y
organizador de esas interacciones e intercambios, donde el sujeto se funda a sí mismo
diferenciándose de otros".
Las redes sociales en Internet suelen posibilitar que pluridad y comunidad se conjuguen y allí
quizás esté gran parte de toda la energía que le da vida a los grupos humanos que conforman
esas redes. Las redes sociales dan al anónimo popularidad, al discriminado integración, al
diferente igualdad, al malhumorado educación y así podríamos continuar enumerando ventajas.
Alrededor de 2001 y 2002 surgen los primeros sitios que fomentan redes de amigos. Hacia
2003 se hacen populares con la aparición de sitios tales como Friendster, Tribe y Myspace.
Rápidamente algunas empresas ingresan a las redes sociales. Google lanza en enero de 2004
Orkut apoyando un experimento que uno de sus empleados realizaba en su tiempo libre. En
2005 ingresan Yahoo 360º y otros.
Básicamente el funcionamiento comienza cuando una vez montado el soporte técnico, un grupo
de iniciadores invitan a amigos y conocidos a formar parte de la red social, cada miembro nuevo
puede traer consigo muchos nuevos miembros y el crecimiento de esa red social puede ser
geométrico.
Un buen ejemplo de esto es Facebook, el cual es un sitio web gratuito de redes sociales creado
por Mark Zuckerberg en febrero de 2004. Originalmente era un sitio para estudiantes de la
Universidad Harvard, pero actualmente está abierto a cualquier persona que tenga una cuenta
de correo electrónico.
Otro fenómeno dentro de las redes sociales lo constituye Twitter, que es un servicio gratuito de
microblogging, que hace las veces de red social y que permite a sus usuarios enviar micro-
entradas basadas en texto, denominadas "tweets", de una longitud máxima de 140 caracteres.
11
Lo interesante es que esta tecnología víncula la web con los teléfonos celulares vía SMS o a
través de programas de mensajería instantánea como MSN, Gtalk, etc., o incluso desde
cualquier aplicación de terceros, como puede ser Twitterrific, Tweetie, Facebook, Twinter,
Tweetboard o TweetDeck-en inglés.
Estas actualizaciones se muestran en la página de perfil del usuario, y son también enviadas de
forma inmediata a otros usuarios que han elegido la opción de recibirlas. A estos usuarios se
les puede restringir el envío de estos mensajes sólo a miembros de su círculo de amigos o
permitir su acceso a todos los usuarios, que es la opción por defecto.
Los usuarios pueden recibir las actualizaciones desde la página de Twitter, vía mensajería
instantánea, SMS, RSS y correo electrónico. La recepción de actualizaciones vía SMS no está
disponible en todos los países y para solicitar el servicio es necesario enviar un código de
confirmación a un número extranjero.
Twitter nació en el año 2006, cuando una serie de jóvenes emprendedores que trabajaban para
la compañía de Podcasts Odeo, Inc., de San Francisco, Estados Unidos, se vieron inmersos en
un día completo de brainstorming de ideas.
En el marco de esas reuniones, Jack Dorsey propuso una idea en la que se podrían usar SMS
para decirle a un grupo pequeño qué se estaba haciendo.
Una vez iniciado el proyecto probaron varios nombres. El nombre original durante un tiempo fue
"Status" (Stat.us), pasando por twitch (tic) a causa del tipo de vibraciones de los móviles, pero
se quedaron con Twitter. Que en palabras de Dorsey era perfecta, y la definición era "una corta
ráfaga de información intrascendente", el "pio de un pájaro", que en inglés es twitt.
El primer mensaje enviado por twitter fue de Dorsey a las 12:50 del 21 de marzo de 2006 y
decía "just setting up my twttr" (sólo ajustando mi twttr). Fue lanzado al público en julio de 2006.
Twitter estalló al gran público en 2007, y pasó de 20,000 tweet al día a 60,000. El servicio
rápidamente comenzó a ganar adeptos y en marzo de 2007 ganó el premio South by Souhwest
Award en la categoría de blog.
Hoy Twitter es uno de los sistemas de comunicación más utilizados, no sólo para información
intrascendente, social, sino como herramienta de comunicación entre profesionales.
Instagram es una red social y aplicación para subir fotos y videos compartirlas en Facebook,
Twitter, Flickr. Fue creada en 2010 para iPhone y en 2012 para Android.
A continuación, encontrarás todas las redes sociales existentes y su clasificación como las
personales, las de imagen y fotografía o las de vídeo. Si bien es importante conocer su uso y
existencia hay que tener en cuenta que estas redes evolucionan continuamente, por lo que
como comunicadores hay que seleccionar aquella/s que mejor se adapten al público al cual se
quiere llegar. [13]
12
Redes Sociales Personales
Las redes sociales personales son las que más respetan la esencia de cuando fueron creadas.
Pretenden tener un carácter más personal o humano, relacionan a amigos y familiares, a gente
que se busca o quiere ser encontrada.
Algunas de estas redes tienen más éxito en unas regiones que en otras. Más allá de que
funcionen en América, Europa o Asia, algunas funcionan sensiblemente más en un solo país.
Es el caso de la antigua Orkut de Brasil, Hyves en Holanda o Sibir en Bulgaria.
Con más de dos mil millones de usuarios, es la red más extendida de todas. Desde que se
creara en 2004 no ha parado de crecer. Estados Unidos e India son los dos países que más
usuarios aportan.
El sistema de anuncios de Facebook es muy completo y está en continuo crecimiento.
Es una de las redes sociales personales más antiguas, no obstante sus usuarios han
ido emigrando a nuevas redes. Ha ido evolucionando a un sitio de juegos sociales. En
diciembre de 2011, fue vendida a Tagged, uno de sus competidores directos. La idea era
fusionar ambas redes, pero manteniendo los sitios de Tagged y hi5 por separado.
Ello
Apareció en el 2014 y se anunciaba como la alternativa de Facebook. Fue creada como una red
social personal exclusiva. En principio solo se podía acceder con invitación. Alcanzó mucha
popularidad en su día.
Respetando la esencia de las redes sociales, fue creada para que los
usuarios pudiesen encontrar a sus antiguos amigos. Anteriormente se llamaba
reunion.com.
13
Sus usuarios medios son jóvenes y adolescentes. Además de ponerlos en
contacto por intereses comunes, incluye juegos.
Orientada también al público adolescente. Los usuarios interactúan entre ellos y también
pueden juegan. Es más, cuenta con una moneda virtual propia con la que pueden enviarse
regalos también virtuales.
Nace como abreviatura de “blog early, blog often. Es propiedad de AOL desde 2008. Incluye
tres niveles de privacidad. Además de compartir fotos, videos, etc, es posible realizar
encuestas. Permite la creación de grupos.
Vkontakte
Es la red social personal más popular en Rusia, creada en 2006. Desde su creación es muy
similar a Facebook, no solo en sus objetivos, sino en la interfaz.
My Space
Uno de los grandes clásicos en Internet. Aunque ha perdido mucha cuota de mercado, sigue
siendo significativa. En 2016 debido fue adquirida por Viant Technology.
QZone
Es la red social personal principal de China. Pertenece a la misma compañía que QQ y funciona
de modo similar a Facebook, y le sigue en número de usuarios. No exige identidades reales. La
mayor parte de sus usuarios son chinos. Idioma: chino.
Es una red “exclusiva” supuestamente para usuarios con alto poder adquisitivo. Ofrece más
servicios que la media de redes, sus usuarios tienen guías hechas por ellos mismos sobre
ciudades o información relativa a clubs y sitios de alto stand. Solo se accede por invitación.
14
Friendster
Gana seguidores en Asia al mismo ritmo que los pierde en USA. En sus inicios era para
encontrar amigos y ahora tiene una vertiente más de enterteinment.
SkyRock
Especialmente famosa en Francia, tiene cientos de millones de visitas únicas mensuales. Su
origen es francés y empezó como una emisora de radio privada francesa. Creada por Pierre
Bellanger y el diario Le Monde, hasta la década de los 90 emitía música rock, cosa que luego
cambió. Su público objetivo no supera los 25 años.
Hay algunas míticas que han resistido el paso del tiempo. Otras han quedado en el camino,
como AIM de AOL, que cerró tras una larga vida de 20 años. A día de hoy basta echar un
vistazo en Google Play o App Store para encontrarnos con multitud de estas mensajerías.
WhatsApp
Evoluciona en servicios a la par que crece en usuarios. En el último año creció más de 300
millones de usuarios, según datos de Hootsuite. Ha incorporado Stories y está respaldada por
el trío que forma con Facebook e Instagram.
WeChat
Con casi mil millones de usuarios, WeChat es una mensajería instantánea con muy buena
acogida en el continente asiático. Tiene múltiples funcionalidades.
QQ
Ha ido perdiendo fuerza mientras WeChat la ha ido absorbiendo. No obstante, sus más de 800
millones usuarios siguen siendo un dato a su favor. Como la anterior, es muy aclamada en
China.
Viber
15
Esta cross-plataforma desarrollada en Japón ha crecido mucho en el último año. Aunque lleva
mucho tiempo en el mercado, en España no ha acabado de cuajar, a diferencia de otros países
europeos como Inglaterra. Se le considera un servicio de telefonía IP, parecido a Skype, pero
con menor calidad.
Icq
Es uno de los baluartes de las redes sociales y aplicaciones de mensajería instantánea. Es
propiedad de Mail.ru Group y fue de las primeras ampliamente utilizadas en Internet. Múltiples
funcionalidades: envío de archivos, videoconferencias y charlas de voz. Su protocolo de
comunicaciones (OSCAR), fue empleado también por AIM.
Este servicio es de código abierto. Existe desde finales de los 90s. Inspirado en el programa de
mensajería instantánea de AOL (AIM)
Airtime
Es hija de los creadores de Napster. Pensada para videochatear con amigos o desconocidos
con intereses comunes. Eso sí, tenían que ser aceptados en sus “rooms” privados. Permite
videollamadas grupales, compartir música y vídeos que se reproducen en la misma pantalla del
móvil.
Houseparty
Bastante popular antes de la aparición de Periscope. Antes de 2016 era conocida como
Meerkat. Válida para iOS y Android. Permite, entre otras cosas, realizar videollamadas
grupales. Podrás enviar mensajes de texto privados sin necesidad de abandonar la
videollamada.
Kik Messenger
Disponible para la mayoría de sistemas operativos: iOS, Android, Windows Phone, BlackBerry y
Symbian. Ahora además ofrece un servicio de contactos para encontrar a gente de tu
comunidad (HMU for Kik). Se emplea bastante en Estados Unidos.
16
Facebook Messenger
Es la aplicación de mensajería de Facebook (1.300 millones de usuarios). Permite compartir
localización, enviar notas de audio breves y hacer llamadas directamente. La pega es que
prácticamente obliga a los usuarios de smartphones a descargarlo, pues se ha separado de la
aplicación de Facebook.
Telegram
Es el más fuerte competidor de WhatsApp en España. Además de los habituales grupos, en
Telegram pueden crearse supergrupos, capaces de admitir a miles de personas con un sistema
propio de administradores.
Permite además la creación de canales, lo cual es una particularidad de esta app.
Instagram
No para de crecer en popularidad y en usuarios, que ya son 800 millones. Las stories han
catapultado a esta red social donde los usuarios se comunican a través de fotografías.
Una buena colección de filtros embellecen las instantáneas de esta plataforma que conservan
el aspecto de las antiguas cámaras Polaroid. Los hashtags funcionan muy bien en esta red.
17
Snapchat
Frente al crecimiento de Instagram, están las caídas de Snapchat, que apenas rebasa ya los
255 millones de usuarios. Irónico, pues tanto Facebook como Instagram han adoptado las ideas
diferenciadoras de esta red. El carácter efímero de sus stories y sus filtros animados han sido
imitados hasta la saciedad. El éxito de los snaps dio paso a la popularidad de estas mismas
ideas en otras plataformas.
Fotki
En Fotki se comparten fotografías. Con una estructura similar a la de Flickr ha ganado
popularidad en Europa y Asia. La opción Premium incluye almacenamiento ilimitado.
We heart it
Con un funcionamiento similar al de Pinterest, esta red social tuvo una gran aceptación entre el
público femenino. Sobre todo las adolescentes se enamoraron de esta red. Marcas como Lucky
y Teen Vogue apostaron por la red del corazón.
Pinterest
Otros de los templos de la imagen. Lo que empezó siendo una red social de fotos donde colgar
tableros llenos de “cosas bonitas”, ha terminado siendo la plataforma perfecta para algunas
marcas. Incluso a pesar de Instagram, muchos usuarios siguen encontrando inspiración en
Pinterest. La plataforma, además, no deja de crear opciones tentadoras para las marcas
anunciantes.
La popularidad lo es todo en las redes sociales de fotos. Quizá por eso le va tan bien a Imgur.
Más allá de las imágenes, el éxito de esta comunidad se mueve alrededor de los GIFs. Los
usuarios pueden compartir, comentar, votar. Además, con su generador de Meme Imgur
pueden crearse memes sencillos.
La red social de fotos profesionales de referencia ha sido comprada por Smugmug. Con
dificultad, pero sobrevive gracias a que su perfil de usuario se resiste a la tendencia de los
filtros y otras estratagemas.
18
Con bastante similitud a varias funciones de Flickr, pero posibilita al usuario una mejor
organización de sus imágenes.
DeviantART
Los artistas tienen un espacio virtual en DeviantART. Sirve de mural a los artistas, que lo
utilizan para mostrar sus obras y ver qué tal reacciona la comunidad artística.
No solo los fotógrafos aprovechan esta plataforma, también otros profesionales relacionados
con las artes visuales y gráficas (diseñadores gráficos, pixel artists, artistas plásticos, pintores)
En 2017, DeviantArt fue comprada por Wix.com.
Este es un formato que resulta muy sencillo de consumir para los usuarios. Es fácil que
mientras el usuario esté deslizándose por su feed, se quede enganchado en frente a un video
atractivo.
Es el peso pesado del vídeo en la red. Miles de personas suben sus vídeos a esta red que
concentra música, tutoriales, reviews sobre libros o cualquier cosa que se te ocurra. Es el sitio
donde más consultas se realizan por detrás del buscador de Google.
Le distingue el hecho de distribuir videos en su formato original. Respeta la calidad del video,
sin modificar lo que el usuario sube. Los creadores pueden adaptar la presentación a su propio
contenido, organizar programas de video a través de episodios de una serie y ofrecer contenido
para la venta.
En su día fue el primer sitio de almacenamiento de vídeos de alta definición (1280×720 píxeles).
Pese a no ser tan popular como YouTube, tiene muy buena reputación y muchos creadores de
vídeo optan directamente por este canal.
19
videos cortos. Permite a sus usuarios la creación de vídeos breves a través de una buena
combinación de sonidos y filtros muy versátiles.
A menudo basta con ajustar la velocidad y aportar una cuota de creatividad para crear un vídeo
viral o con mucho éxito. Mantiene la función «dúo», que ya tenía mucho éxito en Musical.ly y
que permite grabar un vídeo al lado del otro.
Esta red social no para de crecer y en poco tiempo se ha convertido en un gran competidor de
grandes plataformas como YouTube e Instagram.
Esta red social de vídeo está más bien relacionada con el cine. Sus usuarios son amantes del
séptimo arte, así que suelen utilizarlas para películas, comentarlas, e incluso, compartirlas.
Permite entrar en contacto con otros enamorados del cine. Es propiedad de Warner Bros desde
2011.
De origen alemán, es popular en los mercados europeos y asiáticos. Es una Red Social
Multimedia válida para fotos, vídeos y contenidos de televisión. Un punto medio entre Youtube,
Metacafe y Flickr. Son especialmente severos con el tema del copyright. Sevenload alberga
más de 1.000 programas de televisión en sus canales
En este sitio para videoadictos se comparten vídeos que son descargados continuamente.
Metacafe ofrece videos generados por el usuario de varias temáticas (humor, deportes,
noticias). También incluyen juegos en flash y clips de sonido.
1.3.4. TV digital
En la televisión digital, la imagen, el audio y los datos se convierten en información digital (lo
que se conoce como bits o ceros y unos), permitiendo que los errores en la transmisión se
corrijan y no existan interferencias ni distorsiones en pantalla. De esta manera, queda
garantizada una óptima calidad de imagen y sonido (parecida a la que brinda un CD) y se
habilita la transmisión de servicios de alta definición (HD).
Posibilita un servicio más personalizado al usuario debido a que el cliente dispone de los
servicios y contenidos que él desea utilizar en el momento idóneo. La mejora en la calidad de
los servicios, llegando hasta los hogares la calidad digital.
20
A nivel global, debido a que la TV digital permite optimizar la calidad de imagen y sonido,
multiplicar la cantidad de canales de aire disponibles y sumar una plataforma interactiva,
calificada para transmitir datos de todo tipo y personalizar la información, además de brindar la
posibilidad de acceder a Internet. Por otra parte, la implementación de la TV digital también
funcionaría como una solución al problema de la piratería, que la TV por cable sufre cada vez
más.
Según la forma de recepción de la señal en el hogar, se puede hablar de Televisión Digital por
Satélite, Televisión Digital por Cable o Televisión Digital Terrestre. Las dos primeras tecnologías
están presentes en Argentina, hasta hace poco tiempo únicamente brindadas por empresas
privadas. La creación del Sistema Argentino de Televisión Digital Terrestre cambia el escenario
nacional, ofreciendo televisión abierta gratuita con mejores prestaciones.
La Televisión Digital Abierta (TDA) se podrá ver televisión en forma libre y gratuita en
televisores y dispositivos móviles como celulares o notebooks que estén adecuados para recibir
la señal digital.
Los usuarios del servicio de televisión abierta deberán tomar ciertas medidas para recibir la
nueva señal digital en su televisor actual y disfrutar de una mejor transmisión. Pero, dado que la
transición de la TV analógica a la digital será gradual y a largo plazo, mientras se realizan las
adaptaciones necesarias está prevista la transmisión simultánea bajo las dos modalidades. De
esta manera, los usuarios seguirán viendo normalmente la televisión —tanto quienes reciban
aún la señal analógica como quienes reciban ya la señal digital— hasta tanto todos hayan
migrado a la nueva tecnología.
Por otra parte, la TV digital ofrecerá más fácilmente la posibilidad de la alta definición, un
marcado mejoramiento del realismo de las imágenes. También ofrecerá la opción de que el
televidente interactúe con la red mediante el sistema pay per view o hasta navegue por Internet.
Además, no tiene las interferencias o "ruidos" electromagnéticos asociados a la señal analógica.
http://www.argentina.ar/_es/pais/C3372-tv-digital-en-la-argentina.php
a radio digital es la transmisión y la recepción de sonido que ha sido procesado utilizando una
tecnología comparable a la que se usa en los reproductores de discos compactos (CD, por sus
siglas en inglés.) En síntesis, un transmisor de radio digital convierte sonidos en series de
números, o ”dígitos”– de ahí el término ”radio digital.” En cambio, las radios analógicas
tradicionales convierten los sonidos en series de señales eléctricas que se asemejan a ondas
de sonido.
21
La radio digital FM es capaz de proporcionar un sonido claro de calidad comparable a la
de los CDs. Los receptores digitales proporcionan un sonido significativamente más
claro que las radios analógicas convencionales, así como los CDs tienen un sonido más
claro que los discos de álbum.
La radio digital AM puede proporcionar un sonido de calidad equivalente a la de la radio
analógica FM, y suena mucho mejor que la radio analógica AM. Algunas estaciones de
radio creen que la radiodifusión digital podría traer de nuevo programación musical a la
banda AM.
La recepción de la radio digital es más resistente a las interferencias, y elimina muchas
imperfecciones de la transmisión y recepción de la radio analógica. Podría producirse
alguna interferencia en las señales de radio digital en las áreas distantes de la emisora
de la estación.
En comparación con la radio analógica tradicional, la radio digital ofrece a los oyentes una serie
de ventajas que incluyen:
Mejor calidad de audio, señales más fuertes, y nuevos servicios auxiliares, tales como
canales múltiples de programación de audio, servicios de audio a petición, y funciones
interactivas.
Radios de diseño avanzado con funciones simplificadas. Simplemente seleccione la
estación que desea usando las letras de indicación o los nombres indicados en la
pantalla de cristal líquido (LCD, por sus siglas en inglés) de la radio digital y la
computadora dentro de la radio hará el resto.
Potencial para introducir nuevos servicios de datos e información que serán indicados en
la pantalla de la radio cuando se introduzcan funciones exclusivamente digitales. Por
ejemplo, una estación podría transmitir información de fondo sobre un grupo musical
cuando la música de ese grupo se está oyendo. Los anunciantes podrían enviar
información sobre descuentos y ofertas. Los oyentes podrían programar sus radios para
recibir partes meteorológicos personalizados, noticias, o cotizaciones de bolsa.
Flexibilidad: el sistema provee un canal digital de datos por el cual se puede entregar un
amplio rango de tipos de servicios, desde audio hasta multimedia, mediante el envío de
información adicional visualizable en pantalla:
o informaciones asociadas al programa
o información complementaria e independiente
o imágenes, mapas, etc.
o incluso el sistema puede proveer servicios con más valor agregado, que son un
desafío a la innovación de los radiodifusores (web, vídeo, letras de canciones, etc.).
http://www.fcc.gov/cgb/consumerfacts/spanish/digitalradio.html
Antes de entrar en el propio estudio del periodismo digital, conviene tener una idea de: ¿Qué es
periodismo digital? Internet es un nuevo medio de comunicación o un soporte. Primero fue la
prensa, luego la radio, después la televisión. Ahora asistimos al nacimiento de un nuevo soporte
para la información.
Y aún así todavía se puede precisar más. ¿Basta publicar en Internet para hacer periodismo
digital?
El periodista digital Quim Gil, en su artículo ¿Qué es un periodista digital? distingue no solo
periodismo electrónico (equiparable a la diferencia de periodismo en línea de periodismo en
red).
22
Por ello, según sus artículos el primero seria simplemente trasladar los usos y contenidos de la
prensa tradicional a Internet. El verdadero periodismo digital seria el periodismo en red ya que
este nuevo tipo de periodismo "rompe con la comunicación lineal y unidireccional" e implica una
serie de cambios fundamentales respecto a las rutinas del periodismo tradicional (en papel,
radio, TV), trasladado a la red.
Por su parte, Concha Edo Bolós, en su artículo: El lenguaje periodístico en la red: del texto al
hipertexto y del multimedia al hipermedia (Estudios sobre el mensaje periodístico), señala que
"el elemento básico de todo sistema de trabajo es el enlace o, mejor, el conjunto de enlaces.
Todos deben de estar integrados en una secuencia lógica y accesible, jerarquizada o basada
en la asociación de ideas, que invite a completar el recorrido previamente estructurado por el
periodista con todas las facetas que se conocen hasta ese momento del acontecimiento
relatado".
Por otro lado, es preciso señalar unos aspectos básicos.
- La información no es un bien escaso, se procesa en información que sobreabunda. La pantalla
de ordenador admite más texto que la página de papel.
- También importa la información fuera de la red. Por ello, el periodista digital puede ofrecer un
gran servicio a la comunidad
- El periodista digital puede dar el acceso a las fuentes originales si es necesario
- El periodista digital ha de valorar la información, si selecciona opina, y también cuenta la
opinión de los lectores
- El periodista digital ha de actualizar los contenidos
- Internet es interactivo, todo el mundo puede contactar con todo el mundo.
El periódico electrónico, ese que definimos como producto interactivo y multimedia, integra
diferentes recursos como el texto, la imagen, el vídeo y el sonido; y está revolucionando los
conceptos básicos del periodismo impreso. El periodismo en Internet no solamente lo
encontramos en las páginas de periódicos on line, televisión on line o radio on line, también
está presente en otros sitios. La recepción de información en los móviles nos presenta un nuevo
desafío. Algunos conflictos legales dan muestra de que el periódico on line es un nuevo medio.
“El uso de Internet ha de ser considerado como la aparición de un nuevo medio. La prensa, que
en un principio sólo busca un nuevo soporte de distribución, ha de adaptarse rápidamente a
esta competencia entrando en la red con nuevos productos. La prensa y el nuevo medio, son
complementarios. La aparición de uno no tiene por qué suponer la desaparición del otro, ya que
el negocio no es el soporte sino la información”. [1]
Hay que considerar que en sus inicios cada nuevo medio de comunicación ha imitado patrones
anteriores. La radio hubo de renunciar a la mera lectura de noticias de los periódicos y buscar
nuevas reglas de emisión. La televisión, que en un principio se definió como una “radio con
imágenes”, descubrió su propio camino.
Por ello, entre las características principales del nuevo medio, -aún después de no haber
recogido otras muchas-, son las siguientes:
1.- PRODUCTO DIGITAL: El producto llega por medio de bytes en una pantalla electrónica y no
sobre el papel. Se transmite por redes telemáticas. Los costos se reducen considerablemente
respecto a las ediciones impresas. Esta es una ventaja considerable, sobre todo para aquellos
que no cuentan con capital suficiente para iniciar un negocio. Es accesible en cualquier
circunstancia, siempre y cuando se cuente con un ordenador y una línea telefónica. Los
avances tecnológicos permiten que los periódicos se puedan recibir en cuadernos de papel
electrónico. Llegarán las noticias de última hora a medida que se vayan produciendo y las fotos
estáticas de la prensa escrita están dejando paso a imágenes animadas, tal como pudimos ver
el pasado 11 de septiembre, con el atentado a las Torres Gemelas, en el periódico El País,
edición del día 13 de septiembre, con un trabajo realizado en Flash, que visualizaba el choque
de los aviones sobre las torres.
23
2.- HIPERTEXTO: El hipertexto, término acuñado, para reflejar la arquitectura de la WWW que
permite pasar de página a página, acceder a los textos, imágenes fijas o en movimiento, y
sonidos no es secuencial. El periódico electrónico se acerca más a la forma de pensamiento,
las estructuras de las ideas no son lineales. “Una de las novedades más útiles que aportó
desde el principio la red es, sin duda, la posibilidad de utilizar el hipertexto, que no es
secuencial, no responde a las claves tradicionales de la lectura, sino que se apoya en la
capacidad de la mente humana para relacionar ideas, hechos y datos diferentes. Así a través
de links o enlaces incluidos en el texto principal, se facilita el acceso a archivos conectados
entre sí”.2]
5.- PERSONALES CONTENIDOS: Con las posibilidades que ofrece Internet en cuanto a la
capacidad de transmisión, ninguna información puede quedarse sin difundir, a no ser que el
periodista decida rechazarla. Una web puede contar con la capacidad de servir amplitud de
páginas, con sus respectivas noticias. Internet es un medio perfecto para la distribución de
noticias e información. Un volumen infinito de ellas y documentos pertinentes como legislación,
información estadística, discursos, entre otros, pueden ser incluidos. Al personalizarse el diario
on line, cada usuario seleccionará la información que quiere conocer. Esto hace que se pueda
segmentar el tipo de lectores. Incluso algunas empresas han aprendido esta lección y ofrecen
24
banners o anuncios publicitarios de determinadas características en función del lector habitual
de esos temas. En algunos casos se establece el único inconveniente de pagar una cuota, es el
caso de The Washington Post. Por ello, el tema de pagar o no los contenidos es objeto de
debate en muchos foros de discusión y en congresos de expertos. “Algunos medios son
capaces de personalizar las noticias y diseminarlas a través de áreas geográficas. Además, no
necesita de papel y tinta”. [5]
6.- MUNDIAL: Llega a todas las partes del planeta, siempre y cuando estén conectadas a
Internet. El periódico en línea no tendrá un mercado local, estatal o nacional, sino que su
mercado será global, aunque sean sus pretensiones. Esto es realmente diferente en
comparación con el periódico impreso que para tener alcance local, nacional e internacional, los
miles o millones de dólares se multiplican.
25
9.- PERSONALIZACIÓN: El periódico electrónico ofrece la posibilidad de que cada uno de los
usuarios del servicio reciba y escoja de una amplia gama de posibilidades solamente lo que a él
le interesa. Gracias a la interactividad, el periódico conocerá cuáles son las necesidades de
cada uno de sus lectores y de forma automática le hará llegar las informaciones más
importantes que él desee. “El diario The San José Mercury fue pionero lanzando la idea de que
empleando los medios telemáticos, sus lectores podían tener las noticias que previamente
hayan solicitad, creándose entonces el proyecto Mercury Center. El periódico inglés, The
Evening Standard siguió la misma línea creando su proyecto News Box” [7] Es un producto más
individualizado, un producto que no indique un solo camino a seguir, sino que propone una
serie de senderos por los que cada lector, en función de todas sus características propias, elija
la mejor vía. “Un público masivo para un nuevo producto no masivo, sino individualizado.”[8]
10.- MULTIMEDIA: El periódico online es la suma de los tres medios masivos de comunicación:
radio, televisión y prensa escrita, con la ventaja de cada uno. Lo que hoy conocemos como el
periódico en línea se convertirá en un medio de comunicación que reúna la profundidad de la
prensa escrita, la simultaneidad de la radio y la imagen de la televisión. Es la suma del texto, la
voz, la música, la imagen fija, el vídeo, los recursos de la infografía. En cualquier momento y en
cualquier lugar el lector puede satisfacer su necesidad de información y encontrar la imagen
con deseada, así como audio, cuando las condiciones físicas le impidan una lectura. “Textos
multimedia interrelacionados entre sí, con niveles de profundidad a veces de gran complejidad
funcional, pero de gran facilidad para su lectura o recuperación.”[9]
11.- CONFIABLE: La importancia de los periódicos en Internet radica en el prestigio que tienen.
En la confiabilidad que el usuario deposita en ellos. El cibernauta no puede consultar la
totalidad de páginas web, ni tampoco puede confiar en la veracidad de la información que
proporcionan. Los medios de comunicación ya conocidos serán fuentes fidedignas, más que el
resto de las páginas. No obstante, en palabras del periodista Brock Meeks, www.msnbc.com,
mantiene que en su trabajo cada vez se siente menos periodista y más agregador de
contenidos. Para Luís Ángel Fernández Hermana, director de la publicación En RedAndo, “la
mayor parte de la información actual de la red es redundante, poco contrastada, poco
verificada, poco referenciada y poco fiable”. También hay que reflexionar sobre esta opinión.
“Hoy en día no se puede confiar en la integridad de la información si no es en los nombres de
marca; pero en el futuro, será posible utilizar el boca a oído electrónico para calificar los
contenidos de la red.”[10]
12.- NUEVA RETORICA: La utilización de las redes telemáticas para poner a disposición del
usuario el periódico on line, la lectura no secuencial, la inmediatez, la interactividad, la
profundidad, la personalización y la actualización, entre otras características, de lo que se
considera un nuevo medio informativo y que en la actualidad se le designa con el nombre de
periódico on line, han conformado una nueva retórica con las siguientes características.
a) Páginas en lugar de secciones: “El concepto de página deja de tener el sentido de un
espacio físico limitado y se asimila al concepto de sección. Es decir, en el nuevo periódico on
line se habla de la página de nacional, la página de deportes, o de la página de opinión. En ese
caso se incluye la totalidad de las noticias de cada sección, condensadas en una página
electrónica con sus textos íntegros.
b) No existe la noticia de cinco columnas. La importancia de una noticia con respecto a otra se
observa en su colocación, si es en la primera, segunda, tercer pantalla o según las que tenga el
periódico on line. Se puede analizar si se valoran más las fotografías respecto al texto, el
grafismo frente a las palabras, el color frente al blanco y negro. La noticia más importante se
presenta en la parte superior, generalmente ocupa todo el ancho de la pantalla o de la parte
que le corresponde al contenido. La valorización de las informaciones también se determina por
26
su tipografía. Al abrir un periódico o revista, la atención de un lector se atrae inmediatamente a
los elementos gráficos en la página en lugar de los elementos textuales. En Internet no sólo
convence al usuario la calidad de información, también su presentación. La página principal o
home page es la puerta de entrada al servicio. Hay una gran flexibilidad del formato. Los textos,
imágenes, sonidos y vídeo se interrelacionan dando al usuario la máxima capacidad de
navegación en estos momentos.
c) La fotografía y el color son elementos destacados en Internet. “La prensa on line puede ganar
no solamente en contenidos, sino también en dinamicidad visual, si juega con la imagen
fotográfica como materia visual. Probablemente, no sea necesario rizar el rizo y mostrar la
entrevista del personaje de actualidad a través del periódico online, como si se tratase de un
sucedáneo televisivo”. [11]
13.- GRATUITO: La mayoría de los servicios que proporcionan los periódicos en línea son
gratuitos. Internet es información y si no se pone mucha información a un costo muy bajo e
incluso gratuito, la gente no va a entrar a las páginas y no se va a vender publicidad. La
gratuidad de los periódicos on line favorece la consulta del usuario. Hay algunos títulos que
exigen suscripciones para su consulta, pero afortunadamente son muy pocos.
Foros
Crea un foro de discusión en línea donde la gente se puede reunir y discutir temas en los que
están interesados.
Blogs
Publica noticias o artículos en orden cronológico con espacio para comentarios y discusión.
Wikis
Todo el mundo puede colaborar en los artículos y también permite espacio para discusiones.
Indicado para material que irá evolucionando con el tiempo.
E-commerce
Crea sitios para comercio electrónico.
Sitios web
Sitios con contenido y diversa funcionalidad que sirve como fuente de información o como
soporte a una comunidad.
Galería
Software que permite administrar y mostrar contenido audiovisual, generalmente imágenes
27
1.4.2. Portal (INTERNET)
Un portal de INTERNET es un SITIO WEB cuyo objetivo es ofrecer al usuario, de forma fácil e
integrada, el acceso a una serie de recursos y de servicios, entre los que suelen encontrarse
buscadores, foros, documentos, aplicaciones, compra electrónica, etc. Principalmente están
dirigidos a resolver necesidades específicas de un grupo de personas o de acceso a la
información y servicios de a una institución pública o privada.
El término portal tiene como significado puerta grande, y precisamente su nombre hace
referencia a su función u objetivo: es el punto de partida de un usuario que desea entrar y
realizar búsquedas en web. Se puede decir que un portal ofrece servicios para la navegación en
el Internet, logrando incrementar la intensidad de tráfico en el mismo.
Un portal de Internet puede ser un Centro de Atención a los clientes y prospectos de venta de
su empresa, estos se pueden complementar con herramientas que le ayuden a levantar
pedidos, atender los problemas de sus clientes, ofrecer cotizaciones, brindar correos
electrónicos, motores de búsqueda, evaluaciones en línea, dar capacitación a distancia, etc. Así
como el centro de atención y referencia de una institución pública (servicios sociales,
documentos públicos, programas públicos diversos, etc.)
El portal es considerado un intermediario de información que tiene como fuente de ingreso la
publicidad de empresas que ahí se anuncian.
Un portal debe ofrecer otros servicios adicionales:
Servicios de búsqueda que incluye mecanismos de búsqueda, directorios y páginas
amarillas para localizar negocios o servicios.
Contenidos, es decir, información de varios tópicos como noticias, deportes,
pronósticos de clima, listas de eventos locales, mapas, opciones de entretenimiento,
juegos, ligas a estaciones de radio y a otros sitios con contenido especial en ciertas
áreas de interés como coches, viajes y salud entre otros.
Facilidades para construir comunidades virtuales tales como Chat, servicios de
mensajería, aplicaciones para intercambio de fotografías, anuncios clasificados,
posibilidad de construir páginas de web personales.
Facilidades de comercialización: anuncios clasificados para trabajos, carros y casas;
subastas, pequeños agregados de vendedores y ligas a otros sitios que también se
dedican a la venta.
Aplicaciones de productividad personal tales como e-mail, calendarios, directorios
personales, almacenamiento de archivos y servicio de pagos de cuentas.
Los portales normalmente tienen programación que requiere muchos recursos computacionales
y por su alto tráfico generalmente se hospedan en servidores de Internet dedicados.
28
Es un escenario donde animales, personas u objetos están todos conectados y disponen de un
identificador único (Unique Identifier), cadena de datos numéricos o alfanuméricos que están
asociados a una sola entidad y cuyos datos se almacenan en un sistema. Por lo que se pueden
transferir datos sobre ellos sin la necesidad de interacción entre personas.
Algunos ejemplos:
Zapatillas que te dicen los Km que hiciste corriendo cada semana.
Encender un electrodoméstico antes de llegar a nuestra casa.
Lámparas inteligentes que se encienden solas cuando hace falta iluminación.
Frigorífico que avisa al supermercado con las cosas que necesitas y te las llevan a casa,
o que nos avisa cuando un producto está caducado.
Gallego Colange (2013, p. 69), define Big Data “como la ciencia que se basa en el tratamiento
de grandes volúmenes de información con técnicas matemáticas e informáticas y que permite
recoger datos, procesarlos y visualizarlos obteniendo una gran velocidad en el análisis,
pudiendo anticipar tendencias, con el objetivo de comprender y optimizar ciertos servicios en
función del comportamiento del usuario, para satisfacer necesidades tanto en tiempo real, como
elaborar estrategias de primer orden en un sector determinado”.
La clave del proceso del Big Data para las organizaciones es tener los conocimientos y
herramientas adecuadas para extraer correctamente la información útil. En ese proceso de
análisis se encuentra el punto de convergencia del Big Data, el Internet de las Cosas, la
Inteligencia Artificial y el Smart Data (Bustamante Alonso, 2017).
Para la máxima optimización del Big Data y el Internet de las Cosas debemos añadir un tercer
componente, muy importante en cuanto al desarrollo de ambos: la Inteligencia Artificial; la
cual, es una combinación de la ciencia computacional (incluida la robótica), fisiología y filosofía
que tienen en común la creación de máquinas que puedan “pensar”, a través del aprendizaje
automático o “machine learning” es decir, que puedan ejecutar tareas percibidas como
requerimientos de la inteligencia humana. Así, por encima de las montañas de datos, se están
desarrollando comunicaciones entre máquinas y medición de diferentes parámetros desde cada
vez más dispositivos, y todo ello sin que exista intervención humana en el proceso.
29
Por tanto, el Big Data que arrojan los diferentes aparatos electrónicos gracias, a su relación con
el Internet de las Cosas, hasta ahora se basa sobre cuatro uves: el volumen de datos, la
velocidad con la que se toman y transfieren, la variedad de fuentes y la veracidad, las
cuales se llevan a cabo mediante la utilización de Inteligencias Artificiales. De esta forma surgió
el término Smart Data, basado en utilizar criterios de calidad y eficiencia, donde la importancia
recae no en la cantidad, sino en la calidad de su análisis, que permita convertir los datos en
información relevante y resolutiva para las organizaciones. En este nuevo proceso de análisis,
la Inteligencia Artificial ha de trabajar conjuntamente con expertos que tomen las decisiones y
guíen a las máquinas, ya que, como defienden algunos expertos, las máquinas jamás tendrán
la espontaneidad del ser humano puesto que es algo intrínseco a él.
En respuesta a la necesidad de recopilación de datos, han surgido diferentes herramientas de
recolección de datos que se optimizan a gran velocidad, buscando que los datos recolectados
sean coherentes y homogéneos para poder realizar mejor los procesos posteriores.
Ejemplos de estos mecanismos de recolección de datos en relación a la comunicación
son los sistemas de análisis de las redes sociales, tales como Google Analytics, Facebook
Analytics o Twitter Analytics. Estas herramientas ponen al alcance del propietario de la página o
cuenta todos los datos referentes a ella de forma clasificada pero no tan clara si no se tiene un
conocimiento de los términos y su forma de utilización.
A partir de todos los datos que ofrece, el usuario tiene la posibilidad de hacer la labor de
almacenamiento, procesamiento y análisis para poder obtener información de valor, para lo que
se necesitan herramientas y programas de software específicos.
Un nicho de mercado muy importante y que está en pleno auge, tal y como menciona Puyol es
“el mercado de análisis predictivo”, el cual examina las tendencias sociales y predice los hábitos
de consumo.
Uno de los sectores pioneros en valorar la importancia del Big Data fueron los departamentos
de marketing y empresas de publicidad. Para trabajar los datos muchas empresas del sector
están utilizando tecnología Cloud y herramientas para recuperar y analizar los datos y poder,
así, ofrecer información refinada sobre el público a sus clientes.
Así, marketing y publicidad se han convertido en unas de las aplicaciones más conocidas en la
implementación de tecnologías de Big Data, sabiendo responder al beneficio de optimización
del target. Lo que esto significa para los profesionales de gestión de datos es que los requisitos
de manipulación de datos y de análisis probablemente evolucionarán más rápidamente para las
aplicaciones de marketing online que para otros sectores.
RELACIÓN DE CITAS
[1] CANGA LAREQUI, Jesús: Periodismo e Internet: nuevo medio, vieja profesión. En Estudios
sobre el Mensaje Periodístico. Número 7. Universidad Complutense, pág. 35.
[2] EDO BOLOS Concha. El lenguaje periodístico en la red: del texto al hipertexto y del
multimedia al hipermedia. Estudios sobre el mensaje periodístico. Número 7. 2001. Edita
Universidad Complutense. Pág. 91
[3] MARTINEZ VEGA, José Antonio: El periódico electrónico: un nuevo medio de comunicación
para el tercer milenio. Madrid: Departamento de Publicaciones e Intercambio Científico de la
Universidad Europea, 1998, pág. 20.
[4] En: http://www.el-mundo.es/delatarde/
[5] Nuevos Conceptos de Comunicación, 2º Ciclo de otoño de comunicación. Madrid: Ed.
Universidad Complutense de Madrid, 1999, pág. 15.
30
[6] SALAVERRIA, Ramón. Aproximaciones al concepto de multimedia desde los planos
comunicativo e instrumental. Estudios sobre el mensaje periodístico. Número 7. 2001. Edita
Universidad Complutense Pág. 393.
[7] FLORES VIVAR, Jesús; MIGUEL ARRUTI, Alberto: Ciberperiodismo. Barcelona: Noriega
Editores, 2001, pág. 168.
[8] ARMAÑANZAS, Emy; DIAZ NOCI, Javier y MESO, Koldo: El periodismo electrónico.
Barcelona: Editorial Ariel, 1996., pág. 127.
[9] ARMAÑANZAS, Emy; DIAZ NOCI, Javier y MESO, Koldo, op. cit., pág. 189.
[10] En: Ciberp@ís, 21 de octubre de 1999, pág. 12. [16] En: El Mundo, 3 de mayo de 1996,
pág. C7.
[11] ARMENTIA, José Ignacio; CAMINOS, José María, ELEXGARAY, Jon, Marín Flora,
MERCHAN Iker. El Diario Digital: Editorial Bosch. Septiembre del 2000. Pág. 95.
[12] BUSTAMANTE ALONSO, NIKOLETTA B. Un acercamiento al Big Data y su utilización en
comunicación. Octubre 2017. Ediciones Complutenses
[13] En: https://aulacm.com/redes-sociales-mas-importantes/
Ejercicio 1
a) Realice un informe sobre el alcance y función actual de las Redes Sociales. Cite
ejemplos donde se destaque su uso para beneficios sociales o políticos.
31
CAPITULO II: HARDWARE Y SOFTWARE
1. HARDWARE
HARDWARE: Es un vocablo del inglés que significa “chatarra” o “ferretería”. Se denomina así a
la parte física o material de la computadora, aquellas que se pueden tocar, componentes
electrónicos, periféricos, cables de conexión, etc., entrarían dentro de esta clasificación.
El hardware comprende todos los elementos materiales del equipo, físicamente visualizables,
como la computadora y los equipos periféricos, por ejemplo: los circuitos, teclados, llaves,
visores, las unidades de lectura y/o impresión, etc.
El software es una colección organizada de programas que permite la utilización del equipo, es
un conjunto de instrucciones que se suministran a la máquina para que resuelva algún
problema. Generalmente el software reside en algún soporte adecuado como el disco duro,
diskettes, etc.
Al inicio de la corta historia de la computación digital era fácil distinguir el hardware del software,
pero, a medida que avanzan los desarrollos tecnológicos se vuelve más sutil la barrera que
separa uno del otro, porque ahora buena parte de la programación de sistemas de muchas
computadoras reside en un nivel intermedio (“microprogramado”) que algunos llaman firmware.
Es un hardware programable, o sea un tipo especial de programa grabado en pequeñas piezas
de hardware llamadas ROM o PROM, que sirven para reemplazar algunos componentes o
circuitos del hardware.
Puede decirse que una computadora digital se compone de los siguientes elementos:
La memoria, al igual que en los seres humanos constituye una parte del cerebro, es el lugar
donde se almacenan los datos y las instrucciones que componen los programas.
La información genética que posee nuestro cuerpo al momento de nacer no sólo determina
nuestras características físicas, si no que también nos provee de potenciales herramientas
1
físicas e intelectuales, las cuales serán desarrolladas en mayor o menor medida según la
información que adquiramos del medio.
La unidad aritmético-lógica (ALU) tiene por función realizar operaciones aritméticas y hacer
comparaciones lógicas. Aunque parezca increíble, las únicas operaciones elementales que
realiza una computadora son las lógicas de comparar si es mayor, menor o igual, y las
aritméticas de sumar y restar, todo otro procesamiento que observemos que realiza una
computadora serán combinaciones y más combinaciones de estas 5 operaciones elementales.
En la ALU existe la información necesaria para realizar estas operaciones elementales y otras
de un segundo nivel (combinaciones de las anteriores) que el fabricante considera de uso
frecuente. Para aplicaciones especiales en las que se necesiten combinaciones tanto de las de
segundo nivel como de primer nivel se utilizan los programas.
A su vez, la unidad de control tiene la misión de regular el caudal de datos dentro del ámbito de
la unidad central y en circulación entre la unidad central y los dispositivos periféricos o las
memorias exteriores; su misión es, pues, coordinar la actividad combinada de toda la
instalación.
La unidad central nuclea en un mueble tres partes principales del Sistema de Computación: la
computadora propiamente dicha, las unidades de almacenamiento y la fuente de alimentación.
La fuente de alimentación es el dispositivo mediante el cual el sistema computacional
transforma la energía que recibe de la red (220 V 110 V= en el voltaje que necesita para
funcionar.
En algunos equipos se encuentra además la cerradura de traba del teclado de manera que no
pueda ser utilizado y de esta forma enviar mensajes a la computadora.
La computadora tiene un parlante interno mediante el cual emite mensajes sonoros, música,
frases, etc.
Pero, sin lugar a dudas, los componentes claves de un computador se ubican dentro de la
MOTHERBOARD o placa madre, entre los cuales citaremos como los más importantes, el
microprocesador, el coprocesador matemático, los bancos de memoria (RAM), el ROM BIOS,
los slots o ranuras de expansión (donde se pueden conectar la placa de video, las tarjetas
adaptadoras de los discos, del scanner, del modem/fax, etc.) y el circuito impreso o buses.
Motherboard: es el esqueleto de nuestra máquina. Sin ella, los demás componentes, como la
CPU, la RAM o las tarjetas de expansión no tendrían donde ubicarse. Hay varias marcas y
modelos, para distintos tipos de procesador, con diferentes velocidades de bus y otras con
2
componentes onboard (como placa de sonido, video, módem y procesador). La velocidad del
bus determina cuán rápido será nuestro sistema, y es recomendable que esté en relación con la
velocidad de bus del micro.
Un elemento fundamental que ya hemos nombrado dentro de la MOTHERBOARD son los
buses o líneas de comunicación o líneas de circuito impreso que vinculan el microprocesador y
la memoria entre sí, y a éstos con el exterior, tanto para recibir datos como para enviar
resultados. Por estos buses circulan los impulsos eléctricos (bits), que para su llegada desde el
exterior o salida hacia los periféricos atraviesan los llamados puertos o ports (según la
denominación inglesa). Precisamente una de las diferencias de los microprocesadores es la
cantidad de bits que pueden manejar a la vez. Ellos oscilan entre 8 y 64 bits. Cuantos más bits
pueda manejar a la vez, más rápido y poderoso será.
Dispuestos sobre las líneas del BUS se encuentran los slots o ranuras de expansión que
permitirán conectar al bus los distintos periféricos que se desea instalar a la PC. Cada línea del
bus se suelda con un contacto del slot permitiendo vincular la tarjeta que se inserte en él, con
cada línea en particular del bus.
3
Un sistema informático de alto rendimiento puede estar equipado con varios microprocesadores
trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por varios
núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del microprocesador
cuasi-independiente que realiza todas las actividades de una CPU solitaria, un núcleo lógico es
la simulación de un núcleo físico a fin de repartir de manera más eficiente el procesamiento.
Existe una tendencia de integrar el mayor número de elementos dentro del propio procesador,
aumentando así la eficiencia energética y la miniaturización. Entre los elementos integrados
están las unidades de punto flotante, controladores de la memoria RAM, controladores de buses
y procesadores dedicados de vídeo.
El ancho máximo de las instrucciones que puede utilizar el microprocesador se mide en bits y
puede ser de 2 n bits: 8, 16, 32 bits, 64 bits, etc.
El microprocesador está gobernado por un reloj de cuarzo. A mayor velocidad del reloj, más
operaciones se pueden realizar en el mismo período de tiempo. La velocidad de este reloj se
mide en Megahertz (millones de ciclo por segundo), y así tendremos microprocesadores que
oscilan entre 1,5 MHZ, hasta de 4 GHZ.
El microprocesador puede dividirse en varios bloques, de los cuales vamos a tomar los dos más
importantes para analizar el funcionamiento básico:
• La CU o UC (Control Unit - Unidad de Control)
• La ALU o ULA (Arithmetic and Logic Unit - Unidad aritmética y lógica).
Además de estos dos bloques, según el tipo de microprocesador puede tener mucho más como
FPU o UPF (Floating Point Unit - Unidad de Punto Flotante), las memorias caché internas, etc.
Cada procesador de hoy en día cuenta con un número concreto de celdas de memoria interna
que podemos denominar registros. Cada registro tiene una capacidad determinada que va
directamente relacionada con cuánta información puede ser procesada con cada comando o
instrucción. Los procesadores de 32 bits pueden por ejemplo trabajar con números entre 0 a 4
billones en un sólo paso.
La relación entre los registros y la memoria es realmente importante. El tamaño de los registros
siempre va en concordancia al tamaño del bus, y los registros grandes se benefician de la
rapidez con la que se ejecutan ciertas operaciones. Un procesador de 64 bits puede traer
mucha más información de memoria que uno de 32 bits. Aparte, el espacio de direcciones
aumenta con el número de bits del bus.
4
poseen la llamada caché interna de primer nivel o L1; es decir, la que está dentro del
micro, encapsulada junto a él. Los micros más modernos (Core i3, Core i5, Core i7,
etc.) incluyen también en su interior otro nivel de caché, más grande, aunque algo
menos rápida, es la caché de segundo nivel o L2 e incluso los hay con memoria
caché de nivel 3, o L3.
⮚ Coprocesador matemático: unidad de coma flotante. Es la parte del micro
especializada en esa clase de cálculos matemáticos, antiguamente estaba en el
exterior del procesador en otro chip. Esta parte está considerada como una parte
«lógica» junto con los registros, la unidad de control, memoria y bus de datos.
⮚ Registros: son básicamente un tipo de memoria pequeña con fines especiales que el
micro tiene disponible para algunos usos particulares. Hay varios grupos de registros
en cada procesador. Un grupo de registros está diseñado para control del
programador y hay otros que no son diseñados para ser controlados por el
procesador pero que la CPU los utiliza en algunas operaciones, en total son treinta y
dos registros.
⮚ Memoria: es el lugar donde el procesador encuentra las instrucciones de los
programas y sus datos. Tanto los datos como las instrucciones están almacenados en
memoria, y el procesador las accede desde allí. La memoria es una parte interna de la
computadora y su función esencial es proporcionar un espacio de almacenamiento
para el trabajo en curso.
⮚ Puertos: es la manera en que el procesador se comunica con el mundo externo. Un
puerto es análogo a una línea de teléfono. Cualquier parte de la circuitería de la
computadora con la cual el procesador necesita comunicarse, tiene asignado un
«número de puerto» que el procesador utiliza como si fuera un número de teléfono
para llamar circuitos o a partes especiales.
Velocidad de procesamiento
Otra forma de medir la velocidad de una computadora es según los ciclos por segundos que
produce un reloj interno, el cual marca los tiempos de ejecución. Estos ciclos del reloj por
segundo se denominan Hertz, siendo la unidad más común un millón de Hertz, o sea un
Mega Hertz (MHz).
La velocidad de una computadora junto con su capacidad de almacenar datos (memoria) son
unos de los parámetros más importantes a tener en cuenta en el momento de seleccionar un
equipo. Ambos parámetros tienen que estar equiparados, nada hacemos con una máquina
muy veloz si no tiene la suficiente memoria y viceversa.
La medición del rendimiento de un microprocesador es una tarea compleja, dado que existen
diferentes tipos de "cargas" que pueden ser procesadas con diferente efectividad por
procesadores de la misma gama. Una métrica del rendimiento es la frecuencia de reloj que
permite comparar procesadores con núcleos de la misma familia, siendo este un indicador
muy limitado dada la gran variedad de diseños con los cuales se comercializan los
procesadores de una misma marca y referencia.
5
La memoria de acceso aleatorio (RAM) (en inglés: random-access memory), se utiliza como
memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí
donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de
cómputo. Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición
de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir
un orden para acceder a la información de la manera más rápida posible. Durante el encendido
del computador, la rutina POST verifica que los módulos de memoria RAM estén conectados de
manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas
madres emiten una serie de pitidos que indican la ausencia de memoria principal. Terminado
ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando
fallos mayores en la misma.
La expresión memoria RAM se utiliza frecuentemente para describir a los módulos de memoria
utilizados en los computadores personales y servidores. En el sentido estricto, esta memoria es
solo una variedad de la memoria de acceso aleatorio: las ROM, memorias Flash, caché
(SRAM), los registros en procesadores y otras unidades de procesamiento también poseen la
cualidad de presentar retardos de acceso iguales para cualquier posición.
Como ya vimos, cuanta más memoria tengamos, mayor cantidad de información podrá ser
procesada a alta velocidad.
Agregar más RAM será una buena ayuda para la performance de la computadora.
Las dos formas principales de RAM moderna son:
1. SRAM (Static Random Access Memory), RAM estática, memoria estática de
acceso aleatorio.
1. volátiles.
2. no volátiles:
■ NVRAM (non-volatile random access memory), memoria de
acceso aleatorio no volátil
■ MRAM (magnetoresistive random-access memory),
memoria de acceso aleatorio magnetorresistiva o
magnética
2. DRAM (Dynamic Random Access Memory), RAM dinámica, memoria dinámica
de acceso aleatorio.
1. DRAM Asincrónica (Asynchronous Dynamic Random Access
Memory), memoria de acceso aleatorio dinámica asincrónica.
■ FPM RAM (Fast Page Mode RAM)
■ EDO RAM (Extended Data Output RAM)
2. SDRAM (Synchronous Dynamic Random-Access Memory,
memoria de acceso aleatorio dinámica sincrónica)
■ Rambus:
■ RDRAM (Rambus Dynamic Random Access
Memory)
■ XDR DRAM (eXtreme Data Rate Dynamic
Random Access Memory)
■ XDR2 DRAM (eXtreme Data Rate two
Dynamic Random Access Memory)
■ SDR SDRAM (Single Data Rate Synchronous Dynamic
Random-Access Memory, SDRAM de tasa de datos
simple)
6
■ DDR SDRAM (Double Data Rate Synchronous Dynamic
Random-Access Memory, SDRAM de tasa de datos
doble)
■ DDR2 SDRAM (Double Data Rate type two SDRAM,
SDRAM de tasa de datos doble de tipo dos)
■ DDR3 SDRAM (Double Data Rate type three SDRAM,
SDRAM de tasa de datos doble de tipo tres)
■ DDR4 SDRAM (Double Data Rate type four SDRAM,
SDRAM de tasa de datos doble de tipo cuatro).
■ DDR5 SDRAM (Double Data Rate type five SDRAM,
SDRAM de tasa de datos doble de tipo cinco).
■ DDR6 SDRAM (Double Data Rate type six SDRAM,
SDRAM de tasa de datos doble de tipo seis).
Placa de Video
Características técnicas
Sin duda los tres parámetros más importantes que posee una tarjeta gráfica son las
características de su procesador (GPU, o Graphics Processing Unit), la cantidad de memoria
con la que cuenta y el bus de datos que une ambos componentes.
7
GPU
La GPU es un procesador, como la CPU, pero que se dedica al procesamiento de gráficos en
general y de efectos 3D. Su labor es aligerar la carga de trabajo que tiene el microprocesador,
debido a lo cual está optimizado para el cálculo en coma flotante y procesamiento paralelo, que
es lo que predomina en las funciones de gráficos 3D.
La relación que permite la velocidad de procesamiento gráfico se da entre la GPU, los buses
internos y la memoria de video del dispositivo.
Bus de datos
El bus de una tarjeta gráfica es algo fundamental y en la mayoría de los casos determina de qué
gama es el producto. Es un parámetro muy importante y no suele ser uno de los más exhibidos
en las especificaciones; por eso, es uno de los primeros aspectos que debemos conocer al
comprar una nueva tarjeta.
Todo bus de datos tiene un ancho, que se mide en bits. Hoy en día, las tarjetas más
económicas, o de gama baja, tienen bus de 128 bits, lo que limita mucho el uso que le puede
dar. Para que una tarjeta gráfica, en términos de ancho de bus, tenga un buen rendimiento
gamer, se necesitan como mínimo 128 bits de ancho de bus. Este es, al menos, el valor que
ofrece una calidad decente en resoluciones 1080p (1920×1080 píxeles). Actualmente en el
mercado existen modelos de 128, 256, 384 y 512 bits de ancho de bus. Cuanto mayor sea este
valor, más rápida y más costosa será la tarjeta.
Los modelos actuales pueden tener entre 1 y 12 GB de memoria RAM, aunque existen modelos
de tarjetas gráficas profesionales (que no apuntan al mercado gamer, sino al ámbito profesional)
que incluso pueden llegar a tener más.
Actualmente se producen y comercializan tarjetas gráficas con memoria GDDR3, GDDR4
y GDDR5 (hay rumores sobre el desarrollo de GDDR6 pero al menos por el momento no existe
en el mercado). La memoria GDDR4 y GDDR5 están basadas en GDDR3, con algunas
mejoras.
Pero no todo es la cantidad y el tipo, también hay que tener en cuenta la frecuencia de
trabajo de la memoria RAM y la frecuencia efectiva, variante que resulta de multiplicar la
frecuencia por el factor DDR que corresponda según el tipo de RAM (2 en GDDR3 y GDDR4, y
4 en GDDR5).
Por último, el ancho de banda es un parámetro que se obtiene multiplicando la frecuencia
efectiva de la memoria RAM por el ancho de su bus (en bits) y luego se divide ese resultado por
8 (para pasar de gigabits a gigabytes). El valor final obtenido se expresa en GB/s. Básicamente,
este valor expresa la velocidad con que el bus es capaz de transferir datos desde la memoria a
la GPU.
Placa de Sonido
8
Es la encargada de traducir las señales digitales de sonido en
señales analógicas y viceversa. Sin ella no podríamos reproducir
CD’s de audio, escuchar MP3’s o grabar sonidos en nuestra PC.
El uso típico de las tarjetas de sonido consiste en hacer, mediante un
programa que actúa de mezclador, que las aplicaciones multimedia
del componente de audio suenen y puedan ser gestionadas. Estas
aplicaciones incluyen composición de audio y en conjunción con la
tarjeta de videoconferencia también puede hacerse una edición de
video, presentaciones y entretenimiento. Algunos equipos tienen la tarjeta ya integrada a la
motherboard, mientras que otros requieren tarjetas de expansión.
Los dispositivos que se usan para introducir o extraer datos de la computadora se denominan
equipos periféricos.
Estos equipos son los que permiten la comunicación entre la computadora y el operador. A su
vez, el medio que contiene los datos se denomina soporte de información.
Los equipos periféricos pueden hacer disminuir el rendimiento de una computadora, dado que
los mismos se encuentran constituidos con una alta proporción de elementos mecánicos. Es por
ello, que al comparar distintos periféricos, interesa mucho analizar la velocidad de transferencia
de cada uno, entendiendo por tal, la velocidad con que los datos se transfieren entre el
procesador y las unidades periféricas.
PCI (Miden unos 8,5 cm y son de color blanco, mas cortas que las ISA, con los
contactos más juntos que la ISA y una pequeña mella): Las ranuras PCI tienen 32
contactos-bits con una frecuencia de trabajo de 33 Mhz hasta los 133 Mhz dependiendo
de la placa base. Estas ranuras son de propósito general y son multidestino y
multimaestras, son las que predominan en este momento. Se está desarrollando el
9
estándar PCI64, que permitirá 64 bits a 66 Mhz, que permitirán a los procesadores de 64
bits trabajar utilizando toda la capacidad y velocidad que tienen.
PCIe (PCI-Express)
Este bus está estructurado como enlaces punto a punto, full-duplex, trabajando en serie. En
PCIE 1.1 (el más común en 2007) cada enlace transporta 250 MB/s en cada dirección. PCIE 2.0
duplica esta tasa y PCIE 3.0 la duplica nuevamente.
En 2006 fue percibido como un estándar de las placas base para PC, especialmente en tarjetas
gráficas. Marcas como ATI Technologies y nVIDIA, entre otras, tienen tarjetas gráficas en
PCI-Express permitiendo una mejor resolución.
Puertos de memoria
A estos puertos se conectan las tarjetas de memoria RAM. Los puertos de memoria son
aquellos puertos, o bahías, donde se pueden insertar nuevas tarjetas de memoria, con la
finalidad de extender la capacidad de la misma. Existen bahías que permiten diversas
capacidades de almacenamiento que van desde los 256MB (megabytes) hasta 64 GB
(gigabytes). Conviene recordar que en la memoria RAM es de tipo volátil, es decir, si se apaga
repentinamente la computadora los datos almacenados en la misma se pierden. Dicha memoria
está conectada con la CPU a través de buses de muy alta velocidad. De esta manera, los datos
ahí almacenados se intercambian con el procesador a una velocidad unas 1000 veces más
rápida que con el disco duro.
Puertos inalámbricos
Las conexiones en este tipo de puertos se hacen sin necesidad de cables, a través de la
conexión entre un emisor y un receptor, utilizando ondas electromagnéticas. Si la frecuencia de
la onda, usada en la conexión, se encuentra en el espectro de infrarrojos se denomina puerto
infrarrojo. Si la frecuencia usada en la conexión es la usual en las radio frecuencias entonces
sería un puerto Bluetooth.
La ventaja de esta última conexión es que el emisor y el receptor no tienen por qué estar
orientados el uno con respecto al otro para que se establezca la conexión. Esto no ocurre con el
puerto de infrarrojos. En este caso los dispositivos tienen que "verse" mutuamente, y no se
debe interponer ningún objeto entre ambos ya que se interrumpiría la conexión.
Puerto USB
Artículo principal: Universal Serial Bus
10
Símbolo del puerto USB.
Es totalmente plug and play, es decir, con sólo conectar el dispositivo (con la computadora ya
encendida), el dispositivo es reconocido e instalado de manera inmediata. Sólo es necesario
que el sistema operativo lleve incluido el correspondiente controlador o driver.
A través del cable USB no sólo se transfieren datos, además es posible alimentar dispositivos
externos.
Antes de comenzar a describir las unidades periféricas una por una, conviene aclarar el
concepto de archivo (en inglés file). Mas Adelante se profundizará más sobre el mismo. Hasta
ahora hemos visto que la unidad de información es el byte, por otro lado también vimos que
pequeñas agrupaciones de éstos forman lo que se denomina palabra. Una agrupación mucho
mayor de bytes realizada con el criterio de la necesidad de su uso se denomina archivo. O sea,
con el objeto de clasificar la información es que existen los archivos. Gracias a los archivos se
puede diferenciar la información de un texto determinado con la de otro. Son paquetes de
información, los cuales se distinguen uno de otros con nombres, los que permiten grabarlos
para luego recuperarlos por dicho nombre.
Pantalla o Monitor
El monitor con tecnología LED en vez de utilizar lámparas fluorescentes de cátodos fríos
(CCFL), que contienen mercurio -un material vital en los sistemas CCFL pero tóxico para los
humanos y agresivo con el ambiente, y ampliamente usado en pantallas LCD convencionales.
La tecnología LED (Light-Emitting Diode usan sistemas de retroiluminación, una tecnología que
ofrece ventajas sobre la tecnología de iluminación convencional por lámparas fluorescentes de
cátodos fríos evitando de ese modo la contaminación que provoca y las emisiones de CO2.
Además disminuyen el consumo eléctrico dejándolo por debajo del 50% respecto a los LCD.
También aporta ventajas visuales con mayor uniformidad del brillo y de intensidad, alcanza su
punto máximo de brillo mucho antes que otras pantallas. Aumento del contraste dinámico,
manejo más depurado de la luz por zonas y procesamiento del color, con negros y blancos de
mayor intensidad, y grises profundos, todo ello resulta en imágenes vibrantes y fluidas.
11
Los monitores LED además son extrafinos, con espesores de alrededor de 20mm, lo cual hace
que estos sean más ligeros y ocupen todavía menos espacio.
En resumen, en general son de mayor calidad, gastan menos energía, ayudan a cuidar el medio
ambiente y presentan mejor imagen que un LCD.
Para comenzar con esta comparación entre monitores LED y LCD, vamos a explicar las
diferencias fundamentales entre ellos.
La diferencia principal Los monitores LED y LCD poseen la misma tecnología para la
visualización de imágenes, pero la diferencia está en el tipo de iluminación que utiliza cada uno.
Los monitores LCD utilizan lámparas fluorescentes de cátodo frío para la iluminación de fondo,
mientras que los monitores LED usan diodos emisores de luz. Esta es la principal diferencia
entre las dos tecnologías de visualización. Se puede decir que los LED son "un tipo" de
monitores LCD.
Los monitores LED ofrecen una mayor graduación en la intensidad de la luz, dando mayor
calidad a los colores. También poseen una mejor relación de contraste dinámico, es por eso que
en caso de elegir un monitor para juegos y otro tipo de aplicaciones de gráficos intensivos los
monitores LED son la mejor opción.
Existen actualmente dos tipos de técnicas de iluminación de fondo LED, uno es el LED RGB
dinámico y el otro es el LED. El primer tipo de luz de fondo (utilizado en los LCD) utiliza LED
ubicados detrás del televisor o de las pantallas de los monitores LCD, mientras que el segundo
utiliza LED colocados alrededor del borde del monitor, desde donde la luz se hace difusa detrás
de la pantalla. Es la ubicación de los LED lo que permite que los monitores LED sean mucho
más delgados que los LCD convencionales.
Consumo de energía
Otra de las ventajas que tienen los monitores LED sobre los LCD es el factor de consumo de
energía, ya que su consumo de energía es hasta un 40% menor que el de los monitores LCD y
son considerados "ecológicos" gracias a que no se utiliza mercurio para su producción.
Está comprobado que los LED ocasionan menos daño a los ojos de aquellas personas que
pasan mucho tiempo frente a un monitor.
Scanners
Estos modelos son usados, además, para aplicaciones con OCR, (Optical Character
Recognition - Carácter Óptico de Reconocimiento. Este proceso consiste en decodificar
caracteres de los documentos explorados por el scanner. Los mismos son almacenados en un
disco en formato de código ASCII, permitiendo a los procesadores de textos y base de datos,
procesarlo de acuerdo a su necesidad.
12
Cuando hablamos de resolución del scanner nos referimos al número de puntos que puede
imprimir en cada pulgada de las líneas del documento. La cuenta es sencilla: a igual superficie
mayor cantidad de puntos. La resolución óptica de los scanners promedia los 600 dpi (puntos
por pulgada), aunque a través del proceso de interpolación realizado por el software pueden
alcanzar resoluciones muy superiores, hasta 9600 dpi. Varios scanners ofrecen selectores de
resolución, lo que permite seleccionar formatos variados de filas, imágenes pequeñas con mejor
resolución.
En el caso de los scanners color, la luz reflejada es separada por filtros en tres colores básicos:
rojo, verde y azul – RGB- y a través de ellos componen todo el espectro de colores.
Cuantos más tonos contenga el scanner, mejor será su resolución, lo que implica más bits por
cada dots de la imagen. Así, por ejemplo, un scanner de 36 bits, utiliza entre 10 y 12 bits para
cada color –R G y B- dándole mejor salida a las diferentes tonalidades.
Modems
13
Los lectores de caracteres ópticos son periféricos que permiten leer caracteres especiales
impresos en papel común.
Actualmente se usan mucho en los comercios minoristas que imprimen en las etiquetas de sus
productos un código individualizador del artículo.
Cuando una transacción se produce este código será detectado por el lector óptico, quien
transmitirá los datos a la caja registradora para emitir el ticket de facturación, y transmitirá los
datos al computador central para procesar la transacción.
Los códigos ópticos más conocidos son los OCR (cualquier carácter impreso) y los códigos de
barras (UPC) usados en artículos de venta minoristas.
Los lectores de caracteres magnéticos MICR (Magnetic Ink Character Recognition) permiten
procesar documentos que contienen datos escritos en tinta magnética. Son de uso habitual en
los bancos (cheques), aunque también se utilizan en otros ámbitos, como por ejemplo en la
liquidación de impuestos.
Los lectores de banda magnética son utilizados en los sistemas de tarjetas de crédito y de
cajeros automáticos de los bancos. Consisten en lectores de las bandas magnéticas colocadas
al dorso de las tarjetas plásticas provistas a los usuarios de estos sistemas, y cuya finalidad es
identificar a los usuarios y autorizar sus transacciones.
Mouse
Al igual que el teclado, el mouse es el elemento periférico que más se utiliza en un PC. El
mouse ha sido el elemento que más variaciones han sufrido en su diseño. Es difícil ver dos
modelos y diseños de mouses iguales, incluso siendo del mismo fabricante.
Impresoras
Para la computadora, un carácter es una combinación codificada de bits, sin embargo para el
hombre el mismo carácter es un símbolo impreso.
La computadora procesa los datos en forma codificada, pero cuando prepara la salida final para
que la emplee el hombre, utiliza una impresora.
Las impresoras constituyen uno de los tipos más comunes de dispositivos de salida usados por
la computadora. Una impresora es un equipo que convierte los datos de salida codificados del
compilador en símbolos gráficos impresos.
14
Impresoras matriciales o de matriz de puntos: Es una de las más conocidas impresoras de
impacto. Los caracteres son muy parecidos a los de las impresoras térmicas, pero la impresión
de los mismos es diferente, ya que se realiza al incidir las agujas sobre una cinta entintada
(contenida en un cartucho) que se desplaza sobre el papel. Este cartucho una vez que se acaba
la cinta, podrá ser cambiado por otro.
Su velocidad de impresión oscila entre los 80 y 400 cps. Los caracteres son escritos durante el
movimiento del carro en ambos sentidos, aprovechando la fase de retorno. Esta técnica,
llamada escritura bidireccional, aumenta notablemente la velocidad de impresión.
Ventaja: Las impresoras matriciales permiten imprimir varias copias de una sola vez
(naturalmente las otras copias deberán tener una capa especial o deberemos poner entre medio
papel carbónico).
Desventajas: Tanto el carro como las agujas poseen movimiento, por lo que tienen una
mecánica compleja. Requieren así un mantenimiento periódico y, a la larga, la sustitución de
alguna que otra pieza. La calidad de impresión no es de las mejores. Para corregir este defecto,
algunas impresoras realizan dos pasadas en la escritura de cada línea, desplazando el papel
horizontalmente de forma que en la segunda pasada los nuevos puntos queden representados
en el espacio dejado entre los puntos de la primera. Este tipo de escritura es denominada near
letter quality o pseudo character quality. Este método tiene el inconveniente de necesitar el
doble de tiempo para realizar la misma labor. El ruido es tan grande que puede llegar a
molestar.
Ventajas: El nivel de ruido es nulo debido a la falta de elementos mecánicos que inciden sobre
el papel. La cosecha actual de estas impresoras ofrece texto con calidad cercana al láser y una
excelente salida de color que en algunos casos compite con la de las tecnologías más caras de
impresión velocidad obtenida es buena. Su costo se ha reducido bastante en los últimos
tiempos, por lo que resulta la compra aconsejada para hogares y oficinas.
Desventajas: No es posible obtener varias copias de una sola vez. La tinta es bastante cara. La
salida de la tinta puede obturarse, especialmente si no se imprime a menudo.
15
Hoy están casi al alcance de todos; por eso explicamos en profundidad los distintos aspectos de
la tecnología y analizamos la oferta en nuestro mercado.
En primer lugar cabe destacar que si bien se utiliza el término genérico de impresoras láser,
algunas de ellas no se valen de haces láser. Sin embargo, todas ellas imprimen de una página,
por lo cual hay quienes las llaman simplemente impresoras de página.
En la actualidad, existen tres tecnologías utilizadas en las impresoras de página. Todas ofrecen
prestaciones similares, la misma resolución y velocidad de impresión.
La más frecuente es la láser, que adquirió popularidad en parte ante el éxito de los motores
Canon (mas pequeños que los hasta ese momento existentes, ofreciendo una performance
adecuada). En este tipo de impresoras, un láser diodo genera un haz que es reflejado en un
espejo poligonal rotatorio. De esta forma, el haz barre todo el ancho del tambor.
Una segunda tecnología hoy empleada es la de LEDs (Diodos Emisores de Luz). En ésta no se
utiliza una única fuente de luz sino un conjunto de miles de LEDs. A cada pixel de la línea de
impresión de 720 dpi (dots per inch = puntos por pulgada) le corresponde su propia lucecita que
se prende y se apaga a medida que el tambor gira, exponiéndose sólo una pequeña porción del
tambor para crear su parte de la imagen.
La velocidad de impresión es uno de los factores más importantes que los usuarios toman en
consideración a la hora de elegir la impresora que mejor se ajuste a sus necesidades. Sin
embargo, no existe ningún estándar en el mercado para medir el rendimiento real de las
impresoras láser.
16
software y hardware que se esté utilizando en el proceso de impresión.
Disco magnético
Un disco duro interno es un dispositivo de almacenamiento de información que utiliza un
sistema de grabación magnética para almacenar datos digitales que se encuentra dentro de
cualquier ordenador de sobremesa o portátil.
A diferencia de los discos duros externos, es una unidad interna que debe permanecer en el
cuerpo del dispositivo a utilizar, mientras que los primeros se conectan por cable bus serie
universal (USB). Ésta es su principal diferenciación, además del precio, que suele ser menor y
en los equipos prefabricados ya viene incluido.
Discos FB (Fiber Channel) El canal de fibra es una tecnología de red que se puede encontrar a
velocidades de 1, 2, 4 y 8 Gbit/s. Suele ser utilizado en almacenamiento para el ámbito
empresarial.
SATA (Serial ATA) SATA es “Serial Advanced Technology Attachment” o “Tecnología Avanzada
Adjunta Serial”. Se trata de un dispositivo electromecánico capaz de almacenar y leer grandes
cantidades de información a alta velocidad por medio de electroimanes que se encuentran
sobre un disco cerámico cubierto de limadura magnética.
Tiene arquitectura punto a punto, lo que quiere decir que la conexión entre el dispositivo y el
puerto es directa.
SCSI (Small Computers System Interface) Los discos duros internos SCSI (o Interfaz de Sistema
para Pequeñas Computadoras) cuentan con una interfaz estándar para transferir datos entre
distintos dispositivos del bus de la computadora. Aportan mayor duración, fiabilidad y menor
tasa de transferencia de datos. Se suelen utilizar en servidores y estaciones de trabajo con alto
rendimiento y entornos profesionales.
SAS (Serial attached SCSI) Un disco duro SAS es un dispositivo electromecánico capaz de
almacenar y leer grandes cantidades de información a alta velocidad con electroimanes que se
encuentran en un disco recubierto de ligadura magnética que se suele utilizar en servidores y
para guardar información de grandes empresas, al contrario que los SATA o IDE que son más
para los hogares.
Los discos SAS tienen mejor rendimiento en condiciones de estrés, aportan una mayor
fiabilidad en usos intensivos y consumen menos energía que los SATA, pero también son más
caros. Fueron creados para ser el reemplazo de los SCSI.
¿Magnéticos o SSD?
Los discos duros magnéticos son los discos duros tradicionales que permiten almacenar datos
de forma habitual para poder acceder a ellos cuando se necesita. Se componen por un conjunto
de discos, uno encima del otro, unidos por un eje.
En cada plato y en cada una de sus caras, un cabezal de lectura/escritura lee o graba tus datos
sobre los discos.
Cuanto más finos sean los discos mejor será la grabación, y cuanto más rápido giran a mayor
velocidad se transmiten los datos, tanto a la hora de leerlos como al escribirlos
En cuanto al tamaño, las cajas de los discos duros mecánicos pueden ser de 2,5" o de 3,5". Su
precio puede variar dependiendo de este tamaño, pero sobre todo de su capacidad de
17
almacenamiento. De hecho, la gran ventaja de estos discos duros con respecto a los SSD es
que son bastante más económicos.
Los discos duros SSD (Solid State Drive) son más rápidos que los convencionales ya que
tienen un acceso mucho más rápido a los datos. Se caracterizan por ser sólidos, lo que aporta
un menor desgaste, menor calor y ausencia de ruidos. Su estructura de disco es una placa de
circuitos con componentes fijos y chips de memoria.
Las unidades de estado sólido o SSD (Solid State Drive) son una alternativa a los discos duros.
La gran diferencia es que mientras los discos duros utilizan componentes mecánicos que se
mueven, las SSD almacenan los archivos en microchips con memorias flash interconectadas
entre sí. Por lo tanto, casi podríamos considerarlos como una evolución de las memorias USB.
Los SSD suelen utilizar memorias flash basadas en NAND, que como también son no-volátiles
mantienen la información almacenada cuando el disco se desconecta. No tienen cabezales
físicos para grabar los datos, en su lugar incluyen un procesador integrado para realizar
operaciones relacionadas con la lectura y escritura de datos.
Estos procesadores, llamados controladores, son los que toman las "decisiones" sobre cómo
almacenar, recuperar, almacenar en caché y limpiar los datos del disco, y su eficiencia es uno
de los factores que determinan la velocidad total de la unidad. Además, al no depender del giro
de un componente físico, también se logra una unidad más silenciosa que los discos
mecánicos.
En cuanto al tamaño, estos discos suelen ser de 2,5", y tienen un diseño casi idéntico al de los
discos duros mecánicos, lo que ayuda a que puedan encajar en las mismas carcasas y ranuras
donde van montados los discos duros convencionales en un ordenador.
La velocidad de este tipo de discos puede ir de los 133 mb/a a los 8 gbits/s, aunque los que
tienen una mayor velocidad suelen ser utilizados para un entorno más profesional debido a su
alto precio.
Las velocidades para un entorno doméstico pueden ir de las 5.400 a las 10.000 revoluciones
por minuto, aunque las más habituales son las 7.200 rpm. Los discos SAS pueden llegar a las
15.000 rpm.
Una interfaz se refiere al punto de conexión entre dos componentes. En el caso de los discos
duros estamos acostumbrados a hablar de IDE, SATA o USB, aunque también hay otras hasta
ahora minoritarias como eSATA, Firewire o Thunderbolt.
Lo más habitual en los discos duros multimedia actuales es que utilicen discos duros
tradicionales con interfaz SATA2, o SATA3 en los modelos más modernos. Reproduciendo
contenido en alta definición, estas interfaces sirven un ancho de banda más que suficiente para
las labores de reproducción multimedia.
Pero no sólo la interfaz marca el límite. Por muy rápida que ésta sea, el disco duro debe estar
también a la altura. Si por ejemplo estamos utilizando en SATA3 (6 Gbps, unos 768 MB/s) un
disco duro antiguo que trabaje a 50 MB/s, nuestros datos se moverán a esos 50 MB/s. Si nos
remontamos un poco más allá y por ejemplo re utilizamos un viejo disco duro SATA1 que se
mueva a 15 MB/s, quizá tengamos problemas en la reproducción.
18
En esta entrada vamos a mostrar las principales interfaces del mercado y sus características
más importantes mediante una tabla comparativa. Indicaremos el ancho de banda de cada
interfaz y su velocidad de transferencia correspondiente, un aspecto fundamental si se quiere
reproducir cierto tipo de contenido.
19
Capacidad de los discos duros internos
La capacidad de los discos duros internos es muy variada, pudiendo llegar actualmente a
sobrepasar los 6 terabytes (TB).
SSD HDD
PRINCIPALES
VENTAJAS
RUIDO Más silencioso por no tener Algo más ruidoso por tener partes
partes móviles móviles
20
DURABILIDAD Sus celdas pueden reescribirse Con partes mecánicas que pueden
un número limitado de veces dañarse con movimientos
ARRANQUE DE SO
TRANSFERENCIA En general, entre 200 y 550 MB/s En general entre 50 y 150 MB/s
DE DATOS
MAGNETISMO datos
En esta tabla podrás ver cuales son las principales diferencias entre ambas tecnologías de
almacenamiento. La principal diferencia tiene que ver con capacidades máximas y precio.
El PenDrive
También llamado memoria USB (Universal Serial Bus) es un tipo de dispositivo de
almacenamiento de datos que utiliza memoria flash para guardar datos e información.
Las empresas Trek Technology e IBM comenzaron a vender las primeras unidades de memoria
USB en el año 2000. Trek vendió un modelo bajo el nombre comercial de Thumbdrive e IBM
vendió las primeras unidades en Norteamérica bajo la marca DiskOnKey, desarrolladas y
fabricadas por la empresa israelí M-Systems en capacidades de 8 MiB, 16 MiB, 32 MiB y
64 MiB. Estos fueron promocionados como los «verdaderos reemplazos del disquete», y su
diseño continuó hasta los 256 MiB. Los modelos anteriores de este dispositivo utilizaban
baterías, en vez de la alimentación de la PC.
Posteriormente se evoluciono a una segunda generación de dispositivos con conectividad a
través de la norma USB 2.0.
Las velocidades de transferencia de archivos varían considerablemente. Se afirma que las
unidades rápidas típicas leen a velocidades de hasta 480 Mbit/s y escribir a cerca de la mitad de
esa velocidad. Esto es aproximadamente 20 veces más rápido que en los dispositivos USB 1.1,
que poseen una velocidad máxima de 24 Mbit/s.
21
La norma USB 3.0 ofrece tasas de cambio de datos mejoradas enormemente en comparación
con su predecesor, además de compatibilidad con los puertos USB 2.0. La norma USB 3.0 fue
anunciada a finales de 2008, pero los dispositivos de consumo no estuvieron disponibles hasta
principios de 2010. La interfaz USB 3.0 dispone las tasas de transferencia de hasta 4,8 Gbit/s,
en comparación con los 480 Mbit/s de USB 2.0. A pesar de que la interfaz USB 3.0 permite
velocidades de datos muy altas de transferencia, a partir de 2011 la mayoría de las unidades
USB 3.0 Flash no utilizan toda la velocidad de la interfaz USB 3.0 debido a las limitaciones de
sus controladores de memoria, aunque algunos controladores de canal de memoria llegan al
mercado para resolver este problema. Algunas de estas memorias almacenan hasta 256 GiB de
memoria (lo cual es 1024 veces mayor al diseño inicial de M-Systems).
Los primeros modelos requerían una batería, pero los actuales usan la energía eléctrica
procedente del puerto USB. Estas memorias son resistentes a los rasguños (externos), al polvo,
y algunos hasta al agua, factores que afectaban a las formas previas de almacenamiento
portátil, como los disquetes, discos compactos y los DVD.
Estas memorias se han convertido en el sistema de almacenamiento y transporte personal de
datos más utilizado. Se pueden encontrar en el mercado fácilmente memorias de 8, 16, 32, 64,
128, 256, 512 GB, y hasta 1 TB.
Un ultrabook es en realidad un notebook liviano y delgado, pero con una aceptable capacidad
de procesamiento para ser verdaderas estaciones de trabajo, a diferencia de los "netbooks",
que también son notebooks pequeños, pero de escasa capacidad, más pensados para navegar
de manera casual por Internet o realizar tareas simples.
La idea es ofrecer un notebook muy liviano y delgado, con una capacidad sobresaliente en
cuanto a su poder y duración de la batería. Esto suena muy parecido a lo que ofrecen algunas
tablets, pero la verdad es que aún no pueden reemplazar a un PC convencional para muchas
tareas más complejas o de mayor demanda.
Como concepto fue introducido por Intel durante el año 2011, y se planteó como la siguiente
generación de computadoras portátiles de alto rendimiento.
De manera técnica, las especificaciones han ido evolucionando, pero de manera general su
grosor va entre los 18 y 23 milímetros (dependiendo de la pantalla, 18 para las menores a 13,3
pulgadas y 21 o más para las más grnades), una duración de por lo menos 5 horas de batería, y
sólo unos segundos para recuperar el sistema tras una hibernación. El sistema de
almacenamiento interno es "sólido", es decir en base a memoria tipo flash para un mejor
desempeño y menor peso.
22
NOTEBOOKS Y NETBOOKS
Una notebook por lo general incluye un potente procesador y memorias de gran capacidad, ya
que cuenta con una serie de componentes similares a los que utiliza una computadora de
escritorio.
En el caso de las notebooks, los elementos de hardware han sido fabricados con materiales
especiales, que permiten lograr un tamaño físico significativamente menor que aquellos
componentes que incluyen las PCs de escritorio.
Por lo general, una notebook de buena calidad incluye un procesador de bajo consumo, un
disco rígido de 2,5 pulgadas o menor, uno o más módulos de memoria RAM del tipo SO DIMM,
placa de video, además por supuesto de su pantalla TFT o WXGA integrada, teclado y
touchpad o trackpad.
Por el contrario, en el caso de las netbooks, están han sido concebidas con el fin de ofrecer un
tipo de computadora portátil de bajo costo y tamaño reducido, con el objetivo de brindar un
equipo altamente transportable para la realización de tareas básicas desde cualquier lugar.
Como su nombre lo indica, es el equipo adecuado para navegación por Internet, aunque
también permiten realizar algunos trabajos básicos, tales como lectura de PDF, y correr
aplicaciones como procesadores de textos y hojas de cálculos.
En cuanto a la autonomía que brindan ambos equipos, cabe destacar que por lo general las
netbook poseen baterías más pequeñas que las que incluyen las notebooks, por lo cual no
logran soportar más de tres horas de uso continuo del equipo, punto que en las notebooks es
claramente una ventaja, ya que en la mayoría de los modelos más modernos permiten obtener
una autonomía realmente superior.
Una notebook incluye por lo general memoria RAM de gran capacidad, placa de video, un
potente microprocesador, entre otros componentes de hardware, que nos permiten utilizar
sofisticadas y modernas aplicaciones.
Por su parte, la mayoría de las netbook, que han sido pensadas para ofrecer un equipo
totalmente ligado a la conectividad, cuentan con webcam incorporada, puerto USB, Bluetooth,
conexión Wi-Fi, lector de tarjetas de memoria extraíbles, parlantes y micrófonos, ofreciéndonos
de esta manera un completo equipo portátil para mantenernos permanentemente conectados a
al a red.
Al tratarse de equipos más pequeños, las netbooks poseen un peso realmente inferior al de
cualquier notebook, por lo que su ventaja más notable es la verdadera portabilidad que ofrece.
Ipad: El iPad es un dispositivo electrónico tipo tablet desarrollado por Apple Inc. Anunciado el
27 de enero de 2010, se sitúa en una categoría entre un "teléfono inteligente" (Smartphone) y
un portátil, enfocado más al acceso que a la creación de contenido.
iPhone: El iPhone es un teléfono inteligente multimedia con conexión a Internet, pantalla táctil
capacitiva (con soporte multitáctil) y una interfaz de hardware minimalista de la compañía Apple
Inc..
Ya que carece de un teclado físico, contiene uno virtual en la pantalla táctil en orientación tanto
vertical como apaisada. El iPhone 3GS dispone de una cámara
de fotos de 3 megapíxeles y un reproductor de música
(equivalente al del iPod) además de software para enviar y recibir
mensajes de texto y mensajes de voz. También ofrece servicios
de Internet como leer correo electrónico, cargar páginas web y
conectividad por Wi-Fi. La primera generación de teléfonos eran
GSM cuatribanda con la tecnología EDGE; la segunda
generación ya incluía UMTS con HSDPA.
El iPhone se introdujo inicialmente en los Estados Unidos el 29 de junio de 2007. Fue nombrado
«Invento del año» por la revista Time en el 2009.[4] El 11 de julio de 2008 el iPhone 3G salió a la
venta, estando disponible en 22 países[5] y se prevé que sean 70 para finales de año. Esta
versión soporta la transmisión de datos por 3G a una velocidad más rápida y tecnología AGPS.
Mientras que el día 7 de junio de 2010 en la WWDC'10 Apple presentó el iPhone 4, con un
diseño renovado, tanto estéticamente al abandonar su estética redondeada, como en el
Hardware. Contiene el procesador Apple A4, creado por Intrensity y Samsung, aunque
posteriormente comprado por Apple, que es el mismo que contiene el iPad, 512 MiB de
memoria RAM, una panel de alta resolución apodado por Apple Retina Display, 2 cámaras, una
de 5 megapíxeles con opción de grabar en HD 720p y la otra VGA.
Tablet
24
un estilete (pasivo o activo), sin necesidad de teclado físico ni ratón. Estos últimos se ven
reemplazados por un teclado virtual y, en determinados modelos, por un mini trackball o "bola
de seguimiento" integrada en uno de los bordes de la pantalla.
El término puede aplicarse a una variedad de formatos que difieren en el tamaño o la posición
de la pantalla con respecto a un teclado. El formato estándar se llama pizarra (Slate),
habitualmente de 7 a 12 pulgadas, y carece de teclado integrado aunque puede conectarse a
uno inalámbrico (por ejemplo, Bluetooth) o mediante un cable USB (muchos sistemas
operativos reconocen directamente teclados y ratones USB).
Las minitabletas son similares pero de menor tamaño, frecuentemente de 7 a 8 pulgadas. Otro
formato es el portátil convertible, que dispone de un teclado físico que gira sobre una bisagra
o se desliza debajo de la pantalla, pudiéndose manejar como un portátil clásico o bien como
una tableta. Lo mismo sucede con los aparatos de formato híbrido, que disponen de un teclado
físico pero pueden separarse de él para comportarse como una pizarra.
Los tabléfonos son teléfonos inteligentes grandes y combinan las características de estos con
las de las tabletas, o emplean parte de ambas.
Las utilidades de las tabletas son.
● Lectura de libros electrónicos
● Lectura sin conexión de páginas web (p. ejemplo, con el navegador Opera).
● Lectura de cómics
● Consulta y edición de documentos de suites ofimáticas
● Navegación web (mediante Wi-Fi, USB o 3G interno).
● Llamadas telefónicas, si son 3G, sustituyendo así al teléfono móvil; se suele utilizar un
manos libre bluetooth.
● GPS
● Reproducción de música
● Visualización de vídeos y películas, cargadas desde la memoria interna, memoria o
disco duro USB o Wi-Drive y con salida mini-HDMI.
● Cámara fotográfica y de vídeo HD
● Videoconferencia
La tableta funciona como una computadora, solo que más ligera en peso y más orientada
al multimedia, lectura de contenidos y a la navegación web que a usos profesionales. Para que
pueda leerse una memoria o disco duro externo USB, debe contar con USB On-The-Go,
también denominado USB Host.
Ejercicio 2:
Realice un cuadro comparativo sobre los nuevos dispositivos de medios, ventajas, desventajas
y utilización de los mismos en Argentina (tendencias)
25
2. SOFTWARE
Es por ello, que para que cualquiera de los dispositivos mencionados pueda funcionar, es
necesario que el hombre le dé instrucciones. Este conjunto de instrucciones agrupadas en
programas, constituye el llamado SOFTWARE que es pensado y realizado por el hombre.
De ahí que podamos equiparar el sistema informático con un triángulo equilátero, en cuyos
vértices se encuentran: el hardware o equipo físico, el software o conjunto lógico, y el hombre o
elemento coordinador, los tres elementos de igual importancia para decidir el rendimiento de
cualquier proyecto informático.
2) Software de Aplicación: también llamado específico, puesto que como su nombre lo indica,
está constituido por programas confeccionados para fines determinados, como ser
procesamiento de texto, contabilidad, científicos, de control de gestión, etc.
26
2.1.3. Software Libre
▪ La libertad de ejecutar el programa como se desea, con cualquier propósito (libertad 0).
▪ La libertad de estudiar cómo funciona el programa, y cambiarlo para que haga lo que
usted quiera (libertad 1). El acceso al código fuente es una condición necesaria para
ello.
▪ La libertad de redistribuir copias para ayudar a su prójimo (libertad 2).
▪ La libertad de distribuir copias de sus versiones modificadas a terceros (libertad 3). Esto
le permite ofrecer a toda la comunidad la oportunidad de beneficiarse de las
modificaciones. El acceso al código fuente es una condición necesaria para ello.
Cuando los usuarios no pueden controlar el programa se dice que el software no es libre, sino
privativo o propietario. Para utilizar tales programas y/o sistemas, es menester comprar (en
27
realidad, meramente licenciar) el derecho correspondiente al "propietario" de ese software, so
pena de violar las leyes que protegen la propiedad intelectual y/o el derecho de autor.
Las consecuencias legales de las infracciones a las citadas leyes difieren en las diversas
legislaciones nacionales, pero en casi todas son importantes, tanto en el orden civil como en el
penal.
Los sistemas operativos y programas de aplicación de software libre son múltiples y variados y
abarcan las más corrientes necesidades de los usuarios. Están siendo permanentemente
perfeccionados a través de la interacción de quienes los usan, quienes pueden modificarlos y
adaptarlos fácilmente a sus necesidades.
Se plantea así una alternativa válida para aquellos que aspiran a utilizar sistemas y programas
informáticos eficaces, seguros y estables sin la amenaza de sanciones legales por su uso no
autorizado. Para ello, es necesario que la utilización y el mantenimiento del software no
dependan de la buena voluntad de los proveedores, ni de las condiciones monopólicas,
impuestas por éstos. Se precisan sistemas cuya evolución pueda ser garantizada gracias a la
disponibilidad del código fuente.
En Córdoba, desde el año 2000 actúa la Fundación Vía Libre (www.vialibre.org.ar) cuyo objetivo
es el de difundir el uso del software libre y prestar asistencia técnica a quienes deseen
utilizarlo, en particular a Pequeñas y Medianas Empresas, Organizaciones No
Gubernamentales, Organismos o Dependencias del Estado, Entidades de Bien Público, etc.
También el Grupo de Usuarios de GNU/Linux de Córdoba (GRULIC- www.grulic.org.ar/) tiene
una lista de soporte muy activa, además de organizar ferias de demo de tecnología, festivales
de instalación y reuniones de solución de problemas técnicos.
Desde el año 2000 la Universidad Nacional de Córdoba sigue una política de uso de software
libre y apoyo a proyectos de software libre. Esto se traduce en un uso intensivo de software
libre en la infraestructura de servicios, lo que incluye, uso del Sistema operativo GNU/Linux en
todos los servidores, el Servidor de Web Apache, cortafuegos basados en Linux y
la Plataforma educativa Moodle para las aulas virtuales de las unidades académicas.
28
Cabe aclarar que Software Libre no es sinónimo de Software Gratuito. Este último término
específicamente significa que tiene precio cero, y la filosofía del Software Libre es cuestión de
libertad, no de precio. Las copias de Software libre frecuentemente están libres de cargo, pero
también están disponibles por un precio de descarga. El concepto erróneo se debe básicamente
a que en inglés el término free significa tanto libre como gratuito.
Con el Software Libre se permite al usuario el control, corrección y modificación del programa
para adecuarlo a sus necesidades. Para el caso del Software Propietario, el usuario está
habilitado para ejecutar un programa, pero no necesariamente para inspeccionarlo ni
modificarlo, entonces no puede aprender de él, se vuelve dependiente de una tecnología que no
sólo no comprende sino que le está expresamente vedada. Los profesionales técnicos locales,
que podrían ayudarlo a alcanzar sus metas, están igualmente limitados: como el funcionamiento
del programa es secreto y su inspección está prohibida, no es posible la asistencia técnica. Con
el Software Libre esto no ocurre y, por lo tanto, se estarían ampliando las posibilidades
laborales de profesionales informáticos y fomentando el desarrollo local y la creatividad.
Además, el trabajo cooperativo que existe tras el desarrollo del Software Libre genera productos
en muchos casos más confiables que los Propietarios. El hecho de que toda la comunidad
trabaje unida para arreglar los problemas deriva en que los usuarios no sólo informan los
errores, sino que incluso los arreglan y envían los arreglos al resto de los usuarios.
Por otra parte, con el empleo de Software Libre se elimina la posibilidad de utilización de
Software ilegal, que atenta contra los derechos de propiedad intelectual.
2.2.1. Concepto
En la actualidad el usuario no tiene por qué saber cómo gestiona el computador la memoria o
los discos, o cómo recibe los datos; lo único que pretende es utilizar el sistema de la manera
más sencilla para obtener resultados. Para este propósito sirven los sistemas operativos, los
cuales permiten encadenar trabajos, conectar y manejar los periféricos, proporcionar protección
contra errores, gestionar la utilización de memoria, etc.
29
máquina para hacerla funcionar. Y como cada fabricante hace una máquina distinta, imagínense
lo que sería operar una computadora sin este tipo de programa. Por ello decimos que un
sistema operativo no es más que un conjunto de programas y rutinas que asumen el control de
todas las operaciones de la máquina y permiten que el usuario se pueda entender con ella a
través de de comandos e instrucciones relativamente sencillas. Esto va desde cargar archivos
desde cualquier medio de almacenamiento, almacenar información en él, copiar o borrar datos,
recibir mensajes en pantalla, ejecutar un programa, etc. Pero aún más, el sistema operativo
estandariza máquinas diferentes (por supuesto con características similares) y permite la
utilización común del software.
Hoy en día, los sistemas operativos que se proveen para computadoras están incorporando
mayores y mejores recursos tendiendo a hacer cada vez más simple el trabajo para aquellos
usuarios que utilicen la computadora.
30
Las operaciones de entrada/salida no son realizadas por el procesador central sino por
los procesadores de E/S esto posibilita que la CPU siga realizando operaciones. El
sistema operativo se comunica con estos canales con instrucciones específicas.
El estudio de los sistemas operativos suele dividirse en funciones jerárquicas, que van desde
niveles muy cercanos a la máquina misma hasta niveles más “virtuales”, en el sentido de que
tratan a la computadora ya no como una máquina (dotada de procesador, memoria, etc.), sino
como un esquema diseñado para manejar información.
Esta es una idea fundamental: un sistema operativo convierte a una máquina computadora
“real” en una computadora “virtual”, que es capaz de hacer cosas cualitativamente diferentes a
las de su contraparte física.
El esquema que suele seguirse para el estudio de los sistemas operativos recibe el nombre de
“modelo de cebolla”, debido a que está formado por “capas concéntricas” alrededor de un
núcleo, en forma similar a la de una cebolla.
La parte interna del conjunto jerárquico de programas que forma un sistema operativo recibe el
nombre de núcleo o kernel (en inglés). Algunas de las otras capas se encargan del manejo de la
memoria, del manejo del procesador, del manejo de los dispositivos de entrada/salida, del
manejo de archivos, etc.
Las funciones del núcleo consisten en tomar control del procesador y determinar cuándo y
cómo se le va a repartir entre diversos usuarios.
Otra mejora de explotación de los equipos aparece con el “tiempo real”, gracias al cual el
usuario puede obtener respuesta inmediata a su problema. Esta característica permite al
usuario disponer de todo el ordenador, por lo que el sistema operativo se perfecciona para
lograr minimizar los tiempos de respuesta para lograr el “tiempo compartido” de la explotación
de un solo ordenador por varios usuarios.
El sistema operativo por lo general reside en un dispositivo de almacenamiento en línea y cada
vez que se enciende la máquina, se convoca a la memoria.
31
2.2.3. Evolución de los sistemas operativos
El concepto de Sistema Operativo data de la década de los 50. Se puede considerar al primer
Sistema Operativo de la historia al creado en 1956 para un ordenador IBM 704, básicamente lo
único que hacía era comenzar la ejecución de un programa cuando el anterior terminaba.
En los años 60 se produce una revolución en el campo de los Sistemas Operativos. Aparecen
conceptos como sistema multitarea, sistema multiusuario, sistema multiprocesadores y sistema
en tiempo real.
Es en esta década cuando aparece UNIX, la base de la gran mayoría de los Sistemas
Operativos que existen hoy en día.
Como consecuencia de este crecimiento exponencial de usuarios, la gran mayoría de ellos sin
ningún conocimiento sobre lenguajes de bajo o alto nivel, hizo que en los años 80, la prioridad a
la hora de diseñar un sistema operativo fuese la facilidad de uso, surgiendo así las primeras
interfaces de usuario.
En los 80 nacieron sistemas como CPM, Mac OS, MS-DOS y, hacia el final de dicha década, las
primeras versiones de Windows.
Linux fue concebido por un finlandés de 21 años llamado Linus Torvalds estudiante de la
universidad de Helsinki, quien comenzó trabajando sobre los fuente de Minix (un pequeño UNIX
desarrollado por Andy Tenembaum) para lograr un Unix mínimo, capaz de correr un shell y un
compilador por lo menos.
Actualmente GNU-Linux lo sigue desarrollando, pero a estas alturas el principal autor es la red
Internet, desde donde un gigantesco grupo de programadores y usuarios aportan su tiempo y
ayuda, tanto al núcleo Linux como al resto de las aplicaciones.
Linux es una muy buena alternativa frente a los demás sistemas operativos. Más allá de las
ventajas evidentes de costo, ofrece algunas características muy notables.
En comparación con las otras versiones de Unix para PC, la velocidad y confiabilidad de Linux
son muy superiores. También está en ventaja sobre la disponibilidad de aplicaciones, ya que no
hay mucha difusión de estos otros Unix (como Solaris, XENIX o SCO) entre los usuarios de PC
por sus altos costos.
32
A diferencia de IBM que adoptó el sistema operativo de otra firma, Microsoft, Apple desarrolló
su propio sistema operativo para su equipo Macintosh, de gran avanzada, y con una
complejidad menor a la de cualquier otro sistema, cubriendo todas las necesidades previstas
por su equipo.
Pero, sin lugar a duda el mayor desafío de Microsoft ha sido la implementación del sistema
operativo WINDOWS, que ha tenido una gran aceptación en el mundo informático y del cual nos
ocupamos en el próximo capítulo.
Desde las primeras versiones como la 3.1, el Windows 98, el Windows XP o el Windows NT
(muy útil para los administradores de redes y con una gran cantidad de servicios de red para la
época) hasta las últimas como Windows 7, Windows 8 y Windows 10, la empresa Microsoft ha
dominado el mercado mundial de computadoras personales, con más del 90% del mercado.
El Sistema Operativo Mac OS no fue la primera interfaz gráfica, pero fue la primera con gran
éxito por su accesibilidad de precio. El nombre de esta Apple fue un capricho de Steve Jobs por
su hija.
Su evolución arranca en 1984 con el Sistema 1 hasta 1990 con el Sistema 7, pasa luego a
comercializarse como Mac OS 8, Mac OS 9 y Mac OS X, en sus múltiples versiones. La
empresa Apple Inc. incluyó los sistemas operativos mencionados en sus computadoras
Macintosh.
Los sistemas operativos que hemos visto fueron hechos para computadores de escritorio o
computadores portátiles, pero los dispositivos móviles como teléfonos, tabletas y reproductores
de mp3 son muy diferentes, por eso sus sistemas operativos son más simples, orientados hacia
la conectividad inalámbrica y a necesidades específicas.
Dentro de los más populares sistemas operativos para móviles se encuentran Android, e iOS,
seguidos por Symbian, Blackberry OS y Windows Phone.
Cada empresa fabricante de teléfonos móviles elige el sistema operativo que introducirá en su
dispositivo, intentando mejorar a la competencia y dar el mejor servicio a sus usuarios.
Algunos de los sistemas operativos utilizados en los dispositivos móviles están basados en el
modelo de capas.
Núcleo
El núcleo o kernel proporciona el acceso a los distintos elementos del hardware del dispositivo.
Ofrece distintos servicios a las superiores como son los controladores o drivers para el
hardware, la gestión de procesos, el sistema de archivos y el acceso y gestión de la memoria.
Middleware
33
motor de mensajería y comunicaciones, códecs multimedia, intérpretes de páginas web, gestión
del dispositivo y seguridad.
Interfaz de usuario
Aparte de estas capas también existe una familia de aplicaciones nativas del teléfono que
suelen incluir los menús, el marcador de números de teléfono etc...
Mercado
A medida que los teléfonos móviles crecen en popularidad, los sistemas operativos con los que
funcionan adquieren mayor importancia. La cuota de mercado de sistemas operativos móviles
en el 2018 era el siguiente:1
1. Android 84,5 %.
2. iOS 14,5 %
3. Otros 1,0 %
Android tiene la mayor cuota, desde enero de 2011, con más de la mitad del mercado,
experimentó un creciente aumento y en solo dos años (2009 a comienzos de 2011) ha pasado a
ser el SO móvil más utilizado.
34
Técnicamente se adapta a diferentes resoluciones de pantalla, es soporte de HTML, HTML5,
Adobe Flash Player, etc., es de tipo multitarea real de aplicaciones. Por último, es posible
controlar el teléfono móvil desde la computadora de forma muy sencilla.
Lenguaje de Máquina
100111010
101000101
110011001
101010101
Un poco de Historia
Un paso que permitió hacer más fácil la programación, fue el desarrollo de los Lenguajes
Simbólicos. Los lenguajes simbólicos utilizan códigos nemónicos tal como ADD (suma), para
representar las instrucciones de la máquina. Por ejemplo, una instrucción de máquina, tal como
21300400, que significa sumar el valor almacenado en la posición 300 al valor almacenado en
la posición 400, puede escribirse como ADD cantidad1, cantidad2. Naturalmente el computador
no entiende los nemónicos y por eso deben ser traducidos a lenguaje de máquina.
Un ensamblador es un programa en lenguaje de máquina que traduce instrucciones en
lenguaje simbólico a instrucciones en lenguaje máquina. Los lenguajes simbólicos son
dependientes de la máquina por cuanto un conjunto de códigos nemónicos sólo es aplicable a
un modelo particular de computadoras; de ahí que el programador debe estar familiarizado con
el repertorio especial de instrucciones de la máquina que se está programando.
Lenguaje Simbólico
LD A
35
SUB C
STD T
MPVI 2
● BASIC: (Beginner’s All purpuse Symbolic Instruction Code) es un lenguaje muy popular
cuya gran masificación se debe a su fácil uso.
● LOGO, MICROMUNDOS y SCRATCH: son lenguajes especiales para la enseñanza
asistida por computadora, especialmente para los niños.
● COBOL: Lenguaje de programación estándar para aplicaciones administrativas del
computador en la industria y en las actividades estatales.
● FORTRAN: (Formula Translator) Este es un lenguaje usado con fines científicos y
matemáticos debido a la facilidad con que permite expresar fórmulas matemáticas.
● PASCAL: Es útil tanto para procesos comerciales como científicos.
● CYCTT: Es un lenguaje de empleo general que ha sido estrechamente relacionado con
el sistema operativo Unix. Es uno de los lenguajes más modernos y potentes y es uno
de los lenguajes más usados para la construcción de compiladores, sistemas operativos
y software de aplicación de gran envergadura.
● PROLOG: Pertenece al grupo de lenguajes destinados a ser utilizados en ordenadores
de la denominada “quinta generación” o “inteligencia artificial”. Se basa en la “resolución”
(forma de lógica matemática) mediante la cual se indican los problemas y normas a
seguir para buscar la solución apropiada.
● LENGUAJE de Base de Datos, como FOXPRO, el DBASE o el CLIPPER.
● LENGUAJES VISUALES, como el VISUAL BASIC o VISUAL FOX orientados al uso de
la interface gráfica, combinada con las últimas prestaciones de la programación
moderna y por último, el reciente de todos
36
2.4 VIRUS INFORMATICOS: Concepto. Detección y Eliminación
Son programas que se introducen en nuestros ordenadores de formas muy diversas. Este tipo
de programas son especiales ya que pueden producir efectos no deseados y nocivos. Una vez
el virus se haya introducido en el ordenador, se colocará en lugares donde el usuario pueda
ejecutarlos de manera no intencionada. Hasta que no se ejecuta el programa infectado o se
cumple una determinada condición, el virus no actúa. Incluso en algunas ocasiones, los efectos
producidos por éste, se aprecian tiempo después de su ejecución.
El objetivo primordial de los virus son los ficheros que se encuentran en un medio de
almacenamiento como los discos duros, pendrives u otras memorias. Más concretamente serán
infectados todos aquellos archivos, ficheros o documentos (los tres términos indican el mismo
concepto, en general) que tengan la característica de ser programas. Un programa no es más
que un fichero cuya extensión es EXE o COM, que se puede ejecutar para que realice
determinadas operaciones.
También existen virus que se encargan de infectar ficheros que no son programas. No obstante,
estos ficheros contendrán elementos, denominados macros, incluidos en ellos. Estas macros
son programas que el usuario puede incluir dentro de un determinado tipo de archivos.
Otro de los objetivos fijados por los virus para sus ataques suelen ser los propios medios de
almacenamiento. De esta forma, atacando a los lugares en los que se guardan ficheros, el daño
provocado afectará a toda la información contenida en ellos.
La primera pregunta que debemos plantearnos es a través de qué medio un virus puede atacar
o introducirse en nuestro ordenador. Si conocemos perfectamente la respuesta, seremos
capaces de proteger esas posibles vías de entrada para impedir posteriores infecciones. Los
virus utilizan los siguientes medios para ello:
37
mundo. Por tanto, cualquier virus puede introducirse en nuestro ordenador al mismo
tiempo que la información recibida. A través de Internet la infección podría realizarse
empleando diferentes caminos como los siguientes:
o Correo electrónico: en un mensaje enviado o recibido se pueden incluir
documentos o ficheros (fichero adjunto o anexado, "attached"). Estos ficheros
podrían estar infectados, contagiando al ordenador destinatario.
o Programas P2P: en los programas Peer to peer, no existe una red centralizada
sino que cada nodo es a la vez cliente y servidor. Cada uno de estos nodos
puede enviar y recibir archivos, compartiéndolos con otros nodos-usuarios. Así,
los programas de este tipo como Ares, Torrent o Emule, pueden ser fuente de
virus de muy rápida propagación.
o Páginas Web: las páginas que visitamos en Internet son ficheros de texto o
imágenes escritos en un lenguaje denominado HTML. No obstante también
pueden contener programas denominados Controles ActiveX y Applets de Java
que son programas. Estos sí pueden estar infectados y podrían infectar al
usuario que se encuentre visitando esa página.
o Spywares o Programas Espía: son aplicaciones que se dedican a recopilar
información del sistema en el que se encuentran instaladas para luego enviarla a
través de Internet, generalmente a alguna empresa de publicidad. Todas estas
acciones se enmascaran tras confusas autorizaciones al instalar terceros
programas, por lo que rara vez el usuario es consciente de ello.
o Adware: cualquier programa que automáticamente muestra publicidad web al
usuario durante su instalación o durante su uso para generar lucro a sus autores.
'Ad' en la palabra 'adware' se refiere a 'advertisement' (anuncios) en idioma
inglés.
Virus Residentes: Cuando se ponen en marcha, la primera acción que realizan consiste en
comprobar si se cumplen todas las condiciones para atacar (fecha, hora,... etc.). De no ser
así, se colocan en una zona de la memoria principal, esperando que se ejecute algún
programa. Si en alguna de las operaciones que realiza el sistema operativo se trabajase
con un fichero ejecutable (programa) no infectado el virus lo infectará. Para ello, el virus se
añadirá al programa que infecta, añadiendo su código al propio código del fichero
ejecutable (programa).
38
Virus de Acción Directa: En el momento de su ejecución, el virus trata de replicarse a sí
mismo. Esto implica que creará copias de sí mismo. Cumpliéndose unas determinadas
condiciones, propias en cada caso, se activará pasando a realizar infecciones dentro del
directorio o carpeta en el que nos encontremos y dentro de los directorios que se
encuentran especificados en la línea PATH (camino o ruta de directorios). Es posible llevar
a cabo la desinfección de los ficheros afectados por el virus, dejándolos en un estado
correcto.
Virus de Boot: El término Boot o Boot Sector representa lo que también se denomina
"sector de arranque". Se trata de una sección muy importante en un disco, en la cual se
guarda la información sobre las características de ese disco, además de incluir un
programa que permite arrancar el ordenador. El virus se activa cuando la computadora es
encendida y el sistema operativo es cargado.
Virus de Macro: A diferencia de los tipos de virus comentados anteriormente, los cuales
infectan programas (ficheros EXE o COM) o aplicaciones, los virus de macro realizan
infecciones sobre los ficheros que se han creado con determinadas aplicaciones o
programas. Con ellos es posible crear documentos de texto, bases de datos, hojas de
cálculo,...etc. Cada uno de estos tipos de ficheros puede tener adicionalmente unos
pequeños programas, denominados macros. Una macro no es más que un micro-programa
que el usuario asocia al fichero que ha creado con determinadas aplicaciones y que no
depende del sistema operativo sino de acciones determinadas que el usuario puede realizar
dentro del documento que la contiene. Mediante ellos es posible automatizar conjuntos de
operaciones para que se lleven a cabo como una sola acción del usuario de forma
independiente sin necesidad de realizarlas una a una manualmente.
Pues bien, estas macros son susceptibles de infección, lo que significa que los virus (más
concretamente los de macro) pueden fijar sus objetivos de infección en ellas. En este caso,
al abrir un documento que contenga macros, éstas se cargarán de forma automática
(ejecutándose o esperando que el usuario decida ejecutarlas). En ese instante o
posteriormente, el virus actuará realizando cualquier tipo de operación perjudicial. A
diferencia de lo que se piensa habitualmente, los virus de macro pueden realizar acciones
dañinas de bastante importancia, propagándose en poco tiempo de forma muy rápida.
Dado que una característica de los virus es el consumo de recursos, los virus ocasionan
problemas tales como pérdida de productividad, baja en el rendimiento del equipo, cortes en los
sistemas de información o daños a nivel de datos.
Otra de las características es la posibilidad que tienen de ir replicándose en otras partes del
sistema de información. Las redes, en la actualidad, ayudan a dicha propagación.
Los daños que los virus causan a los sistemas informáticos son:
39
● Pérdida de imagen (valor no cuantificable).
Hay que tener en cuenta que cada virus es una situación nueva, por lo que es difícil cuantificar
en una primera valoración lo que puede costar una intervención.
● Bajando datos de Internet: al igual que en la PC, se baja y/o ejecuta un archivo
infectado.
● Por conexión Bluetooth: al tener Bluetooth activado, se puede recibir el virus mediante
conexión inalámbrica desde otro celular infectado que esté cerca nuestro.
● Mensajes MMS: en un adjunto al mensaje viene el virus. De manera similar a los
adjuntos en los emails. Este mensaje puede venir de una persona conocida, sin que este
lo sepa.
Según los especialistas la mejor forma de prevenir que los virus se descarguen en estos
dispositivos es utilizar las tiendas oficiales para bajar aplicaciones, evitando así que los
malwares se instalen en el sistema.
2.5. ANTIVIRUS
Los antivirus son una herramienta simple cuyo objetivo es detectar y eliminar virus
informáticos. Nacieron durante la década de 1980.
Con el transcurso del tiempo, la aparición de sistemas operativos más avanzados e Internet, ha
hecho que los antivirus hayan evolucionado hacia programas más avanzados que no sólo
buscan detectar virus informáticos, sino bloquearlos, desinfectarlos y prevenir una infección de
los mismos, y actualmente ya son capaces de reconocer otros tipos de malware, como spyware,
adwares, rootkits, etc.
40
firmas o vacunas), y analizar contra esa lista los archivos almacenados o transmitidos desde y
hacia un ordenador.
Asimismo, cuentan con un componente de análisis bajo demanda (los conocidos scanners,
exploradores, etc.) y módulos de protección de correo electrónico, Internet, etc.
Actualmente hay una gran variedad de antivirus, pero no todos se asemejan al pretendido por
todos: un antivirus eficaz en todos los sentidos.
Tratan de tener controlado el sistema mientras funciona parando las vías conocidas de
infección y notificando al usuario de posibles incidencias de seguridad.
Como todo programa que está continuamente funcionando, el antivirus tiene un efecto adverso
sobre el sistema en funcionamiento. Una parte importante de los recursos se destinan al
funcionamiento del mismo. Además, dado que están continuamente comprobando la memoria
de la máquina, dar más memoria al sistema no mejora las prestaciones del mismo.
Otro efecto adverso son los falsos positivos; es decir, notificar al usuario de posibles incidencias
en la seguridad. De esta manera, el antivirus funcionando da una sensación de falsa seguridad.
A medida que evolucionan las técnicas empleadas por los virus y éstas son investigadas, los
programas antivirus incorporan medidas de búsqueda de virus y protección más avanzadas
como las siguientes:
41
Los programas antivirus incorporan un fichero denominado "fichero de firmas de virus"
en el que guardan todas las cadenas correspondientes a cada uno de los virus que
detecta. De esta forma, para encontrarlos, se analizarán todos los ficheros especificados
comprobando si alguno de ellos las contiene. Si un fichero no contiene ninguna de estas
cadenas, se considera limpio, mientras que si el programa antivirus la detecta en el
interior del fichero avisará acerca de la posibilidad de que éste se encuentre infectado.
42
encuentra expuesto a fin de determinar los controles adecuados para aceptar, disminuir,
transferir o evitar la ocurrencia del riesgo.
● Consideraciones de software
● Consideraciones de la red
Disponer de una visión clara del funcionamiento de la red permite poner puntos de
verificación filtrado y detección ahí donde la incidencia es más claramente identificable.
Sin perder de vista otros puntos de acción es conveniente:
43
● Antivirus
El motivo radica en la cantidad de recursos que dichos programas obtienen del sistema,
reduciendo el valor de las inversiones en hardware realizadas.
Aunque si los recursos son suficientes. Este extra de seguridad puede ser muy útil.
Sin embargo los filtros de correos con detectores de virus son imprescindibles, ya que de
esta forma se asegurará una reducción importante de decisiones de usuarios no
entrenados que pueden poner en riesgo la red.
● Firewalls
Control o separación de la informática móvil, dado que esta está más expuesta a las
contingencias de virus.
Estamos conectados a Internet todo el tiempo, incluso cuando no estamos haciendo uso de la
conexión, por lo que nuestra computadora y otros dispositivos -como el celular y la tablet - están
permanentemente expuestos a la infección de distintos tipos de virus.
44
● Escaneá regularmente todos los archivos de la computadora. Esto puede llevar un rato
largo, pero siempre es mejor estar seguros de que nuestra computadora está libre de
virus.
● Eliminá inmediatamente, si aparece identificado un virus, eliminarlo inmediatamente.
Una vez que eliminás el virus, debes comprobar que no quede ninguno. Para esto,
reiniciá la PC y volver a hacer el scan.
● Escaneá cualquier dispositivo de almacenamiento que le conectemos a la PC como
un pendrive o disco externo que hayamos usado en otra computadora.
● Instalá herramientas antispyware: estas son tan importantes como el firewall o los
antivirus. Existen aplicaciones gratuitas que funcionan muy bien: Malwarebytes
Anti-Malware y Spybot hacen un excelente trabajo al eliminar el spyware, mientras que
SpywareBlaster instala programas residentes que evitan la descarga involuntaria de
spyware.
● Activá el firewall: este programa, que actúa como una especie de muro de contención,
impide el ingreso de programas clandestinos a tu PC desde Internet.
● Usá un bloqueador de ventanas emergentes: esta función del navegador puede ser
configurada para estar siempre activa o alertar cuando un sitio intente mostrar una
ventana emergente.
● Sospechá al instalar nuevos programas: si no es un complemento que reconoce
como Quicktime, Adobe Flash o Java, lo mejor es rechazar la instalación hasta que se
sepa que es de confianza. Los sitios de hoy son lo suficientemente sofisticados como
para realizar todas o casi todas las acciones dentro del navegador, requiriendo sólo un
mínimo de complementos.
● Use el botón Cerrar para cerrar las ventanas emergentes: evitá los botones como
"Cancelar" o "No gracias". En su lugar cierra la ventana con el botón Cerrar "X" en la
esquina de la barra de título.
***********************************
Bibliografía:
http://es.ccm.net/contents/651-sistema-operativo#funciones-del-sistema-operativo
http://www.informatica-hoy.com.ar/desarrollo-software/Tipos-de-software.php
http://www.areatecnologia.com/informatica/sistemas-operativos-moviles.html
https://www.xataka.com/perifericos/discos-duros-multimedia-principales-interfaces-y-caracteristi
cas#:~:text=Una%20interfaz%20se%20refiere%20al,como%20eSATA%2C%20Firewire%20o%2
0Thunderbolt.
http://www.gcfaprendelibre.org/tecnologia/curso/informatica_basica/sistemas_operativos/5.do
http://tabletzona.es/2015/05/25/ios-android-apertura-ventajas/
http://www.informatica-hoy.com.ar/soluciones-moviles/Cual-es-el-mejor-sistema-operativo-para-
un-smartphone.php
http://librosweb.es/libro/javascript/capitulo_1.html
http://informatica.uv.es/estguia/ATD/apuntes/laboratorio/Lenguaje-C.pdf
http://www.enseguridad.com/virus-celulares/
45
http://www.bbc.com/mundo/noticias/2015/11/151106_tecnologia_virus_adware_sin_solucion_loo
kout_amv
http://www.didepa.uaemex.mx/clases/DiTICAD/Antivirus.pdf
https://www.incibe.es/foro/forums/show/15.page
http://recursostic.educacion.es/usuarios/web/seguridad/47-consejos-para-evitar-la-infeccion-por-
virus-de-los-equipos-informaticos
http://espaciocloud.com.ar/paso-para-proteger-a-tu-pc-de-los-virus-informaticos/
https://es.wikipedia.org/wiki/Seguridad_inform%C3%A1tica
https://es.wikipedia.org/wiki/Antivirus
https://es.wikipedia.org/wiki/Adware
46
3.1 Introducción
En los enlaces a la web que se muestran más abajo, se podrá acceder a una selección
de recursos útiles que les permitirán producir, editar y publicar contenidos periodísticos.
Desde lectores editores de video, audio, animaciones, infografías hasta otros más
específicos, como utilidades para crear líneas de tiempo.
Entre la gran cantidad de herramientas que ofrece internet (muchas de ellas gratuitas),
esta selección les permitirá estudiar, analizar varias herramientas y recursos gratuitos
con las que podrán experimentar piezas de comunicación en múltiples formatos en una
era digital que exige comunicadores en capacidad de explorar diferentes formas de
narrar historias.
https://www.sembramedia.org/recursos/herramientas-para-periodistas-digitales/
Ejercicios de aplicación
a) Recorre los enlaces a la web que se muestran en el ítem 3.6:
Herramientas digitales para comunicadores.
b) Selecciona, al menos dos de las aplicaciones que se han seleccionado.
Efectúa un recorrido profundo por las mismas, explóralas en profundidad,
probalas, analízalas.
c) Realiza una investigación sobre los antivirus más conocidos, sus
características principales, potencialidades y deficiencias. Utiliza la
herramienta evernote (https://evernote.com/intl/es-latam/ ) para organizar
los enlaces (direcciones URL) de los que te nutriste para la actividad
investigativa.
d) Utiliza Picktochart (https://magic.piktochart.com) para diseñar y compartir
una infografía que sintetice la investigación realizada.
e) Realiza una recapitulación sobre el software libre y averigua cuales son
los beneficios del mismo en lo relacionado con los medios de
comunicación.
f) Accede a la herramienta https://atavist.com/ para diseñar el formato en
que mostrarás lo investigado en el ítem anterior, valiéndote de recursos
como imágenes y videos.
3.2. Google Drive
2. Google Drive
• Introducción
• Acciones principales
• Vistas de los elementos
• Aplicación de Google Drive para PC
• Gestión de contenidos en Google Drive
• Colaboraciones
• Revisiones
• Comentarios
• Edición de formularios
• Gestionar formularios
Para poder comenzar a utilizar las herramientas de Google Drive es necesario tener una
cuenta de Google creada.
Para crear una cuenta pulsaremos el botón Iniciar sesión en la pantalla inicial de Google
en: http://www.google.com
Y ahora rellenaremos los datos que nos piden. Nos va a hacer falta introducir el teléfono
móvil para confirmar nuestra cuenta, y además podremos usarlo más tarde con una doble
política de seguridad.
No tenemos que preocuparnos por aportar nuestro número de móvil porque Google no
nos va a enviar ningún tipo de información al teléfono.
Una vez tenemos la cuenta creada podemos hacer uso de todas las aplicaciones de Google
que requieren de autenticación.
2. Google Drive
Para hacer uso del servicio es necesario disponer de una cuenta de Google.
Google drive nos permite almacenar ficheros para que estén disponibles desde cualquier
PC o dispositivo móvil en cualquier parte. De esta manera si actualizamos un archivo desde
cualquier lugar esta actualización será visible en todos los demás dispositivos desde donde
accedamos a nuestra cuenta de Google, y esto se realiza de manera transparente para el
usuario.
Esta funcionalidad es muy útil y nos permite disponer de nuestros archivos desde cualquier
PC o dispositivo móvil, de esta manera no vamos a depender de tener un PC in situ con
dichos archivos, y además con programas adecuados para la gestión de documentos, hojas
de cálculo, de presentaciones. De esta manera para trabajar con nuestros archivos tan solo
necesitaremos un navegador y una conexión a internet.
Podemos compartir carpetas y archivos, y demás contenidos que antes se generaban por
Google Docs con otros usuarios de Google, evitando de esta manera tener que usar el
correo electrónico, u otros métodos más rudimentarios, para estar enviando y recibiendo
ficheros entre diferentes personas.
La funcionalidad más interesante que permite la compartición de archivos es que todos los
usuarios que tengan un mismo archivo podrán editarlo a la vez, y todos verán los cambios
que están realizando los demás en su propia pantalla mientras se tiene el documento
abierto. Como los archivos que se están editando en Google Drive no necesitan ser
almacenados cada vez que hay un cambio, sino que se almacenan automáticamente cada
vez que se detecta un cambio, el más mínimo cambio en el archivo es almacenado y se
refleja en todas las pantallas de los usuarios que tengan abierto el mismo documento.
http://drive.google.com
Desde aquí tenemos acceso a la estructura de ficheros que tenemos en nuestra cuenta de
Google Drive, que estará formada por una serie de archivos de varios tipos así como de
carpetas, así como a la gestión de dichos elementos.
Acciones principales
• Acceder a los ficheros: Para acceder a los ficheros pulsaremos directamente sobre
ellos.
Una vez que estemos trabajando sobre un elemento, es decir, editándolo, sea un
documento, hoja de cálculo demás, Google Drive no hace necesario almacenar el
elemento cada cierto tiempo, Google Drive se encarga de hacerlo cada vez que se le
hace una modificación al elemento. Esta manera de trabajar da la posibilidad de
trabajar de manera colaborativa en el mismo archivo a varios usuarios, eso lo
veremos más adelante.
Y pulsaremos sobre el tipo de elemento que queremos crear. Más adelante veremos
la creación de formularios.
Una vez que creamos un elemento desde aquí, se nos abrirá una ventana de edición
desde donde podremos trabajar con el elemento creado.
• Subir ficheros o carpetas: Para subir un elemento desde nuestro equipo a Google
Drive pulsaremos sobre el botón:
Y pulsaremos de nuevo sobre Archivos o Carpeta según sea lo que queramos subir,
se nos abrirá una ventana de exploración y seleccionaremos el elemento que
queramos subir.
Evidentemente una vez que creemos cualquier elemento o subamos cualquier carpeta o
archivo estos estarán disponibles inmediatamente en cualquier dispositivo o PC desde el
que accedamos a nuestra cuenta de Google Drive.
Podemos ver el conjunto de los elementos de nuestro espacio de Google Drive de varias
maneras:
• Destacados: Listado de los elementos que han sido marcados como destacados a
través de la opción Marcar como destacado dentro de Más, o a través del botón:
• Actividad: Lista las actualizaciones que se van realizando en tiempo real de todo lo
que modifiquemos nosotros, de otras personas que tengan acceso a nuestros
elementos, o de las modificaciones que hagamos nosotros sobre elementos
compartidos de otras personas.
• Propietario, tipo, más: Esta opción nos permite filtrar todos los elementos a
través de diferentes criterios:
o Soy propietario.
o No soy propietario.
o Visibilidad.
Esta opción a medida que se van escogiendo filtros, va añadiendo dichos filtros al
buscador, podemos añadir más de un filtro o eliminar los que ya están
seleccionados. El listado se irá actualizando a medida que se vayan añadiendo
dichos filtros:
Esto es útil en el caso que tengamos mucho trasiego de ficheros del PC a nuestro espacio
en Google Drive.
En caso que hagamos poco uso de los elementos almacenador en Google Drive no se hace
necesario el uso de esta aplicación. Pero si hacemos un uso importante de dichos recursos
seguramente nos resultará mucho más cómodo tener un acceso a todos los elementos de
nuestra cuenta de Google Drive directamente en una carpeta de nuestro sistema, y así nos
evitamos tener que estar accediendo al navegador cada vez que queramos utilizar alguno de
estos recursos.
Es posible tener instalada esta aplicación en varios PCs y no solo en uno. De esta manera
cada vez que se realice un cambio dicho cambio provocará una actualización de los
elementos modificados en todos los PCs donde esté instalado este software.
https://tools.google.com/dlpage/drive
Una vez instalada la abrimos y tendremos que insertar los datos de nuestra cuenta de
Google.
Nos informa que nuestros archivos se van a sincronizar con nuestra unidad en Google
Drive, pero… ¿Qué archivos?. Por defecto y si no decimos lo contrario nos va a
sincronizar la carpeta Mis documentos. Si por cualquier motivo no deseamos que sea esa
carpeta la que este sincronizada con nuestro Google Drive pulsaremos en Configuración
avanzada:
Esto es útil porque igual en un PC nos interesa que no se descarguen ciertas carpetas de
Google Drive, e igual en otro sí. Por ejemplo, en el PC del trabajo queremos tener sólo
cosas del trabajo, y en casa sólo cosas de andar de casa.
Podremos ordenarlo por propietario, ultima modificación mía, últimos abiertos por
mí, y por espacio utilizado.
Y en particular podemos seleccionar uno, varios o todos los elementos marcando las
casillas que preceden a cada uno, y realizar sobre los elegidos varias acciones:
Una vez que hayamos añadido correos electrónicos de las personas que queramos
invitar a acceder al documento hay que seleccionar que tipo de acceso va a tener
dicha persona:
y esto puede no ser evidente si la estructura de carpetas del espacio Google Drive
es complejo, o si es que hay muchos archivos en dicho espacio. Así que es
conveniente realizar la notificación vía email.
• Vista previa: En elementos que no son carpetas muestra una ventana emergente
de previsualización de contenido. Desde esta ventana no se puede modificar el
contenido.
• Más: En esta botón se nos abren más opciones, de las que solo veremos algunas, y
otras ya las hemos visto:
• Detalles: Nos muestra una posible vista previa del documento y toda la
información asociada a él de una sola vez, así como acceso a la edición
de varias propiedades del elemento:
• Crear una copia: Crea una copia idéntica al elemento pero con otro
nombre. Esto es muy útil a la hora de replicar formularios.
Colaboraciones
Cuando hablamos de colaboraciones nos referimos a que varias personas que disfrutan del
acceso un archivo compartido realizan ediciones del archivo, dicha edición puede ser en
diferentes momentos, o incluso en el mismo momento, esto ocurre en
Las colaboraciones en Google Drive son una herramienta utilísima para realizar trabajo en
grupo sobre el mismo material. Google Drive soluciona el clásico problema de acceso
simultáneo, es decir, de varios usuarios a la vez, a un mismo archivo para su edición.
Editar un archivo de manera simultánea por varios usuarios es una fuente clásica de
problemas de consistencia en los datos, que ocurre porque, por lo general, cuando se hace
esto el gestor de archivos crea una copia del archivo para cada usuario, para que este trabaje
de forma exclusiva con dicha copia, después cada usuario guarda la copia que ha editado, y
el editor se las tiene que ingeniar para mezclar los cambios que varios usuarios han hecho
en las copias del archivo original, a veces es posible mezclar bien los cambios, y a veces no
lo es. Google Drive resuelve esta problemática.
Por ejemplo, imaginemos, en un entorno clásico diferente a Google Drive, que dos
usuarios a la vez están sumando un párrafo cada uno al texto de un mismo archivo, cada
usuario estaría trabajando con una copia del archivo original, al almacenar los dos usuarios
los cambios, el editor ahora debe mezclar esos cambios realizados por los dos usuarios,
desde sus dos copias de ficheros hacía el documento original, y en este caso podría
simplemente añadir dichos dos párrafos al final del documento y no sería muy
problemático, y el contenido del archivo podría quedar consistente, pero, ¿qué ocurriría si
uno de los dos usuarios que esta accediendo al texto borra un párrafo y el otro usuario
borra el otro y los dos guardan el archivo?. En este caso el editor del archivo no debería
saber qué hacer, tras haber guardado los usuarios el archivo, porque a uno le falta un
párrafo, y al otro le falta otro diferente. ¿Qué decisión debe tomar aquí el editor?
Lo más razonable sería almacenar dos copias del archivo e informar que hay un problema
de consistencia, o de sincronización, esto ocurre a veces en Dropbox, cuando se edita un
mismo archivo por varias personas, bajo ciertas circunstancias.
La conclusión es que hay casos en que se puede resolver la consistencia de los datos
respecto a cambios generados por varios usuarios, y casos que no. Este es el problema
clásico de acceso concurrente a un mismo recurso para su edición.
Pero este problema en Google Drive no ocurre, debido a que, como hemos comentado
antes, Google Drive almacena cada cambio en el fichero de manera instantánea, de esta
manera podemos afirmar que no es que estemos modificando cada uno en su PC una copia
del fichero, y que al acabar cada uno la va a almacenar, y el editor las va a intentar
mezclar… Sino que virtualmente todas las personas que estén modificando un archivo
compartido están modificando directamente el archivo original, como si de una pizarra
compartida se tratara, de ese modo cualquier mínimo cambio en el contenido de un archivo
es visto automáticamente por todos los demás usuarios en su pantalla. De esta manera se
evitan los problemas de concurrencia en la edición de archivos.
¿Y por qué es tan útil? Pues porque varias personas pueden editar un mismo archivo como
si estuvieran en una mesa, con un folio y varios lápices y gomas, y pudieran escribir todos a
la vez y a la vez borrar lo que quisieran.
Si a eso le sumamos que actualmente es muy sencillo establecer una comunicación oral y
visual, sea con Skype, con Google Hangouts, o herramientas similares, tenemos finalmente
la posibilidad de trabajar en archivos de documentos, hojas de cálculo, y presentaciones, de
manera absolutamente simultánea con otros usuarios.
Bien, para trabajar de manera colaborativa dentro de un archivo es tan simple como que
dos personas estén editando a la vez el mismo archivo, para ello es necesario que dichas
personas tengan acceso al mismo archivo, lo cual se habrá conseguido previamente
compartiendo dicho archivo. Y no hay que hacer nada más, para nosotros todo será igual a
la edición normal de un archivo, salvo que si la otra persona realiza cualquier modificación
la vamos a ver inmediatamente y además acompañada de un indicador que nos va a
informar del autor de los cambios que estamos viendo en pantalla.
Editamos cualquier archivo que tengamos compartido, como por ejemplo Listado
colaborativo pulsando sobre él, otro usuario ya esta editando en otro PC este documento
a la vez.
Se abre el documento:
Una vez abierto el documento el entorno de trabajo es el de siempre, pero se observan dos
detalles que delatan la presencia de otro usuario editando a la vez que nosotros el
documento:
El icono con la F indica que otro usuario cuyo nombre empieza por F está editando el
archivo simultáneamente, y el señalador nos va a marcar los cambios que va realizando en
el documento el otro usuario. Si tocamos cualquiera de los dos indicadores nos aparece el
nombre del usuario al que representan.
El otro usuario vera lo mismo en su pantalla, pero con otro color. Y en general veremos
tantos marcadores e indicadores de usuarios de diferente color como usuarios haya
editando el documento a la vez.
Cuando más de un usuario estén trabajando en el mismo archivo también aparece este
botón que si lo pulsamos comenzamos un chat con el resto de usuarios que están editando
el archivo.
A la hora de editar, si nosotros por ejemplo escribimos un párrafo no ocurrirá nada extraño
en nuestra pantalla, pero sí en las de los demás usuarios. Y si estos escriben o hacen alguna
modificación el que lo haga no advertirá nada inusual pero los demás si veremos esos
cambios inmediatamente y acompañados de indicador del color del autor que está
realizando dichos cambios. Incluso si se marca un elemento de la pantalla o del texto por
un usuario, los demás verán esa selección acompañado del indicador del autor.
Revisiones
Se establece un punto de revisión cada vez que se realiza algún cambio en el archivo que se
está editando, ya sea un cambio nuestro o un cambio generado por cualquiera de los
usuarios que tengan acceso al archivo.
Para gestionar las revisiones hay que abrir el elemento en cuestión que se desea revisionar y
en el menú Archivo, y luego Ver historial de revisiones:
Esto no significa que las siguientes revisiones a partir de este estado se pierdan, sino que la
revisión seleccionada se añade como una nueva revisión y aparece como la revisión actual.ç
Por defecto vamos a ver las revisiones agrupadas entre aperturas y cierres del fichero, pero
si queremos ver un detalle de todas las modificaciones que se han realizado podemos pulsar
encima de Mostrar revisiones más detalladas:
Si mostrar cambios está activada vamos a ver en pantalla no solo el resultado del cambio
realizado en la revisión seleccionada, sino además, que cambio se ha realizado, y por el
color sabremos también quién es el autor del cambio.
Comentarios
Estos comentarios son útiles a la hora de resaltar cualquier elemento de un archivo, para
nosotros mismos o para el resto de usuarios con el que esta compartido el archivo, bien sea
para solicitar una revisión, o para llamar la atención sobre cualquier cuestión asociada a
dicho elemento.
Antes que nada hay que abrir un archivo, ya que los comentarios se hacen dentro de los
archivos, y dado que cada comentario va asociado a un texto, o a una celda, o a un
elemento, primero hay que seleccionar el elemento que se quiere comentar.
De esta manera nos aparecen otros dos botones, así como un listado de todos los
comentarios que se han realizado en este archivo:
Desde aquí podemos crear un comentario nuevo asociado al elemento que tenemos
seleccionado pulsando en el botón Comentar:
Seleccionaremos Todo, Respuestas para ti, o Nada según queramos. No hay que olvidar
que si hemos compartido un archivo, los usuarios con quien se ha compartido dicho
archivo pueden comentarlo y construir un debate sobre cualquier cuestión sobre un
elemento del archivo, de ahí que existan estas notificaciones.
Una vez que hemos creado algún comentario y siempre que no tengamos seleccionado
ningún elemento con comentarios en el archivo, veremos los comentarios existentes
flotando al lado del archivo, en este caso un documento:
Hay dos comentarios y se corresponden con los textos resaltados en amarillo, Juan García,
y Juan Lozano.
• Responder: Escribimos algo en la caja de texto que aparece debajo del comentario
y pulsamos el botón Responder:
Los formularios de Google Drive nos permiten crear encuestas online, de manera muy
rápida y sencilla, que luego se distribuyen a un público general, y una vez son realizadas nos
ofrecen sus resultados a través de una hoja de cálculo.
Una vez creado un formulario definiremos a qué hora de cálculo queremos que nos
vuelque los resultados.
Los formularios permiten un flujo inteligente, es decir, estos formularios pueden diseñarse
para empezar en un punto y acabar en otro, pero también pueden diseñarse para seguir un
flujo que dependa de las respuestas dadas, así según las respuestas podremos hacer que el
formulario continúe por una página o por otra.
Definiremos el nombre del formulario y el aspecto visual que va a tener de entre la lista que
se nos ofrece:
Edición de formularios
Por defecto vemos que al crear un formulario se añaden algunos elementos por defecto que
nos podrán servir o no para el propósito de nuestro formulario.
Hay que recordar que al igual que ocurre con los documentos, hojas de cálculo y
presentaciones, no es necesario pulsar ningún botón guardar cada cierto tiempo para
almacenar los cambios. Google Drive almacena cualquier cambio que se realice dentro de
un formulario de manera automática.
Mientras editamos el formulario los elementos suelen aparecer colapsados, para expandirlos
sólo tenemos que pulsar sobre ellos, y para colapsarlos de nuevo pulsar en el botón Ok una
vez realizados los cambios.
Con todos los elementos que existan en el formulario podremos realizar las siguientes
acciones, previa selección del elemento:
Los tipos de elemento que podemos crear, ya sean elementos de pregunta, o simplemente
de organización del formulario, son los siguientes:
• Texto: Es una pregunta de la que se espera una respuesta corta en formato texto.
• Tipo test: Pregunta con formato de tipo test clásico donde podremos añadir tantas
respuestas como queramos. También podemos definir si queremos que el
formulario nos guíe a otra página del mismo formulario según la respuesta dada, o
incluso terminar la encuesta según la respuesta dada.
Este guiado a otras páginas del formulario según la respuesta es muy útil en caso
que queramos realizar formularios de encuesta inteligentes y complejos.
• Casillas de verificación: Es análogo a los tipo test, pero en este caso se pueden
seleccionar múltiples respuestas. En este caso no podemos hacer que según la
respuesta el formulario avance a otra página.
• Elegir de una lista: Análogo a los tipo test pero las posibles respuestas se escogen
de una lista desplegable. En este tipo de pregunta tampoco podemos desviar el
formulario a otras páginas según las respuestas.
• Cuadrícula: Este tipo de pregunta genera una cuadrícula de tantas filas y columnas
como queramos. Al realizar la encuesta se podrá seleccionar una columna por fila.
• Fecha: Esta pregunta muestra para seleccionar día y mes, aunque podemos mostrar
si lo deseamos también el año y la hora.
• Imagen: Permite insertar una imagen en el formulario, que podemos usar para
decorar, o para ser sujeto de algunas de las preguntas del mismo. Podemos realizar
una captura de la imagen si disponemos de alguna cámara conectada al dispositivo
o PC que estamos utilizando, o bien podemos arrastrar cualquier imagen, o bien
podemos seleccionar cualquier imagen que tengamos en nuestro espacio de Google
Drive.
• Vídeo: Permite enlazar un vídeo desde Youtube para ser mostrado en la encuesta.
Hay que recordar que Youtube es otro servicio de Google, y que con nuestra
cuenta de correo de Gmail podemos autentificarnos en Youtube y subir los vídeos
que queramos, para ser utilizados luego para cualquier menester, por ejemplo
incluirlo en un formulario de este tipo.
Editando cualquier tipo de elemento excepto salto de página, encabezado, imagen y vídeo,
podemos cambiar el tipo de uno a otro. Es decir si estamos editando una pregunta tipo test
en cualquier momento en esa misma edición podemos cambiarle el tipo de pregunta a
cualquier otro tipo.
Todas las preguntas tienen la opción de ser obligatorias o no activando la casilla Pregunta
obligatoria.
Se puede requerir que sea un número y en tal caso que sea mayor que, mayor o
igual que, menos que, menor o igual que, igual a, no igual a, entre, no está entre, es
número, y número entero, en cada comparación estableceremos el número o
intervalo con los que hay que comparar la respuesta.
Se puede requerir que la respuesta cumpla con una expresión regular. Las
expresiones regulares son muy útiles pero hay que saber utilizarlas. Podríamos
explicarlas como un patrón que buscamos en la respuesta dada, y ese patrón se
define a través de unas reglas.
el requerimiento establecido.
Se puede mostrar al usuario final una barra de progreso a medida que va rellenando el
formulario, para ello activamos la opción Activar barra de progreso que se encuentra
encima del formulario.
• Mostrar enlace para enviar otra respuesta: si activas esta casilla, los usuarios
podrán enviar cuantas respuestas quieran.
Gestión de formularios
Una vez que el formulario este creado con todo su contenido, es hora de explotarlo, y para
ello hay varias cosas a tener en cuenta:
Aparece el formulario, rellenamos los datos que queremos que vayan pre rellenados
y le damos al botón de enviar, y nos aparecerá la URL que tenemos que distribuir
para acceder a este formulario relleno.
Si tras cerrar el cuestionario queremos abrirlo de nuevo tan fácil como pulsar en el
menú Respuestas y No se aceptan respuestas o el botón No se aceptan
respuestas.
Desde el momento que creemos la vinculación todas las respuestas generadas por el
formulario se irán almacenando dentro de la hoja de cálculo que hayamos
seleccionado. En cualquier momento podemos modificar el contenido de la hoja de
cálculo que esto no afectara a la futura recogida de datos que vayan llegando.
• Eliminar todas las respuestas: Elimina todas las respuestas que existan en el
momento. Las respuestas que se hubieran enviado ya a una hoja de cálculo
vinculada no se eliminarán de la hoja de cálculo, así que sólo se dará el caso de
perder las respuestas de manera definitiva en el caso que haya habido respuestas
cuando el formulario no estaba vinculado a ninguna hoja de cálculo.